主页 > 联系我们 > 即使有些人认为这些内容令人反感

即使有些人认为这些内容令人反感

  北京时间4月27日金融时报中文网讯,本周,Facebook首次公布了删除不良内容政策的细节。整整27页的社区标准,读起来就像一份世界上的丑行清单。
 
  在Facebook每两周一次的“内容标准论坛”上,高管们会聚在一起,审阅这家社交网络有关撤掉令人反感内容的政策。这个团队有一个艰巨的任务:判定在这个由来自全球各地、差异极大的逾20亿用户组成的网络上,哪些言论是可以接受的,哪些则不是。
 
  本周,Facebook首次发布了其政策细节。此前,Facebook因为其允许——和不允许——上传到其网站上的内容,遭到了多方的抨击。
 
  从联合国(UN)批评Facebook在罗兴亚危机期间扮演在缅甸传播仇恨言论的角色,到美国保守派政客声称撤掉右翼视频违背了该网站的自由主义倾向,这家社交网络公司如今面临的审查是如此严格,以至于投资者担心它可能招致新规,为之付出高昂代价。议员们已在仔细审视Facebook的做法,即用户数据是如何收集的,又是如何被第三方开发者使用的。
 
  周二发布的整整27页的社区标准,揭示了该社交网络是如何教其1.5万名审查员管理该网站的。
 
  审查指南读起来就像一份世界上的丑行清单。目标对准暴力和犯罪行为、安全问题(包括骚扰和人口贩卖)、冒犯性内容(如仇恨言论),以及从垃圾邮件到假新闻的“诚信”和“真实”。
 
  “这是一个巨大的机会,让人们可以给我们反馈,让我们以一种非常开放的方式从中学习,”曾在美国司法部任检察官、5年前成为Facebook全球政策管理负责人的莫妮卡?比克特(Monika Bickert)说,“人们将能告诉我们:‘天哪,我真的不认同你们对这个的定义’。”
 
  由比克特领导的这一内容标准论坛,每两周把来自不同部门的约20人召集到位于加州门洛帕克(Menlo Park)的总部的一张中央会议桌周围,而其他人则从其他办公室(包括都柏林和华盛顿)拨入电话。
 
  参与者讨论有关政策实施的灰色地带。他们考虑哪些内容可能被认为具有新闻价值,因此有理由豁免执行某些规则。他们会听到外部团体或Facebook审查员提交给他们的关切问题。他们组建工作小组来制定新的指南。
 
  2016年,Facebook的社区运营团队撤下了一张源于越战的著名照片,因为它展示了一个光着身子的孩子躲避一枚凝固汽油弹袭击的情形。不久前,他们向特朗普的铁杆粉丝戴蒙德(Diamond)和西尔克(Silk)姐妹表示,他们将撤下一段视频,因为其内容不安全,这促使共和党政客在一次国会听证会上就这一决定质问Facebook创始人马克?扎克伯格(Mark Zuckerberg)。扎克伯格表示,这是一个错误。
 
  Facebook周二表示,它将为那些认为自己的内容被不公平地撤下的人启动一个申诉程序。到目前为止,如果用户的账户、页面或群组被暂停,他们可以申诉,但对于针对个别内容采取的行动不能申诉。
 
  “我们宁可多允许内容放在网上,即使有些人认为这些内容令人反感,除非删除该内容可以防止特定的伤害,”指南称。
 
  例如,如下帖子属于有暴力威胁的帖子,应当被删除:如果用户提到目标和武器或奖金,或者目标以及如下三个细节中的至少两个:位置、时间和方法。Facebook把仇恨言论组织定义为:在一个名称、标志或符号下组织的由三个或更多人组成的组织,该组织有基于Facebook所称的受保护特质(如种族、性别或性取向)对个人进行攻击的意识形态、声明或身体行动。
 
  去年,该内部指南的一个早期版本被泄露给了《卫报》(The Guardian),同时泄露的还有审查员的培训材料,其中包括更多被这家社交网络公司视为麻烦的例子。
 
  Facebook已经承认,想指望靠人工智能来管理网络,也许需要等上很长时间。当发现俄罗斯在Facebook上散布假信息的行动时,该公司宣布,到今年年底,它将把审查员的数量增加一倍至2万人。在本月的国会听证会上,扎克伯格表示,他们正在研究的许多用于检测问题内容的工具,要在5年后才能推出。
 
  但比克特表示,Facebook可能会自动撤下一些图片,比如当Facebook使用与其他科技公司共享的数据库,匹配上传到Facebook的儿童色情图片时。
 
  周一Facebook宣布,该公司在今年第一季度撤下了190万条与“伊拉克和黎凡特伊斯兰国”(ISIS)和基地组织(al-Qaeda)有关的内容,是上一季度的2倍。更为先进的人工智能可以在没有任何用户举报的情况下撤下99%的此类内容。
 
  但在很多领域,Facebook依然需要人工审查。大约18个月前,Facebook提出了“新闻价值”豁免准则,适用于像越战照片那样的情况。审查人员需要判断,一张有ISIS旗帜的图片是否是新闻的配图,这种情况内容可以保留,但如果这是恐怖分子的宣传图,内容将被撤下。
 
  比克特说,仇恨言论是人工智能尤为难以处理的一种内容。“我可能会用一个种族蔑称来攻击某人,但玛丽可能会写,有人在我去上班的路上用这个称呼叫我。她的内容没有问题,我的内容就不行,”比克特说。她指的是Facebook内容政策团队负责人玛丽?德布里(Mary Debree)。
 
  在内容标准论坛上(比如英国《金融时报》本月参加的这次论坛),Facebook的员工提出一些例子来帮助讨论进程。有一些是生动的案例研究,对参与者来说是非常艰难的讨论。
 
  但Facebook的挑战不在于一次对一名用户做正确的事情。几个建议遭到否决,是因为它们无法“大规模”实施。
 
  扎克伯格认为,有一天内容标准论坛会被某种类似最高法院的机构代替,来管理Facebook。最近在接受Vox采访时,扎克伯格说,他希望有一天能引入一种“独立上诉”机制,由一群Facebook之外的人“对在这个反映世界各地社会规范和价值观的社区里什么言论可接受做出最终判断”。
 
  Facebook将仇恨言论定义为基于在Facebook看来“受保护”的特质而对人发起的“直接攻击”,这些特质包括:种族、民族、国籍、宗教信仰、性取向、性别、性别认同、严重残障或疾病。
 
  Facebook将这类攻击划分为三级,分级只是为了帮助Facebook确定用户不当言论的严重程度,但任何级别的仇恨言论都会被撤下。一级言论包括暴力言论、非人化言论(如将人比作昆虫、细菌和性猎食者)、嘲笑仇恨犯罪的概念或者嘲笑仇恨犯罪受害者的言论。二级言论包括贬低性言论,比如称某人丑陋或者愚蠢,以及表达出轻蔑或者厌恶的言论。三级言论包括因为这些特质而呼吁将某人排除在外或者隔离某人的言论。
 
  Facebook不允许用户在另外一名用户明确表现出不愿意联系的意图并采取行动来阻止联系的情况下多次联系后者,或者在“未事先征求意见”的情况下多次联系大量用户。
 
  Facebook禁止用户向其他对象(包括目标个人或群体)发送包含咒骂、诅咒对方死亡、患上严重疾病、遭受身体残障或者身体伤害的讯息,或者违反欺凌政策的讯息。
 
  用户不可通过主张暴力悲剧事件的受害者对自己的受害经历说谎来攻击对方,或者基于对方是性侵犯受害者的身份来攻击对方。