泄露的Facebook内容审核文档中最重要的一课

泄露的Facebook内容审核文档中最重要的一课

“凝固汽油女孩。”PhilandoCastile。唐纳德特朗普的仇恨言论。假新闻。克利夫兰谋杀案。如果你是一个生活,呼吸,点击的人,你可能已经听说过Facebook在删除(或不删除)用户帖子方面面临争议的时刻。除了已经或未被删除的演讲内容之外,争议的部分原因在于认识到Facebook根本不断监督我们的演讲。这个过程称为内容审核,自2008年以来一直在Facebook上发生,直到最近,Facebook温和的方式和内容基本上是不透明的。

当然,每个社交媒体帖子都受该网站的条款和条件的约束。在Facebook,这些被称为社区标准。社区标准的一个例子是“我们限制裸露的显示......”但是执行该标准要比直截了当的句子更复杂,直到最近,Facebook的方法的细节仍然保密。当图片或视频被标记为违反Facebook标准的裸露时,会将其发送给人类内容主持人进行审核。该主持人使用Facebook内部开发的许多复杂规则来确定是否应删除内容。这些内部规则是卫报5月份发布的泄漏文件-超过100页的内部Facebook内容审核规则-揭示。这些文件是一个令人难以置信的工具,用于理解社交网络如何构想仇恨言论,暴力和性内容,以及他们认为容许的内容。

例如,裸体标准的例外情况是,“"手工制作"艺术品的图片显示裸体和性活动是允许的,但数字化的艺术品显示性活动不是”并且“[v]堕胎的意思是允许的,只要没有裸露。“

本周,ProPublica发表了一篇深入的调查文章,解释了Facebook如何以及为何在制定用户内容监管方面做出的决策。(完全披露:我接受了这篇文章的采访,并引用了我之前关于内容审核的工作。)这篇文章是对私人流程的最新看法,这个流程在过去几年里逐渐变得更加透明。其中一些对Facebook内容审核流程具有透明度的做法是非自愿的。2013年,AdrianChen发布了几页由Facebook聘请的菲律宾第三方内容主持人使用的泄露培训手册。在Guardian发布泄露的文件之前,这是我们对Facebook内部政策的大部分了解。

然而,并非所有这些披露都是非自愿的。就在本周,Facebook发布了一篇博客文章,仔细详细说明并解释那些从事内容审核和审核政策的人如何处理员工在拥有超过20亿用户的全球平台上发表讲话时必须回答的“难题”。“声明"烧标志不是什么意思"是什么意思?”Facebook的欧洲,中东和非洲公共政策副总裁理查德艾伦写道,作为一个例子,说明在没有背景的情况下提出仇恨言论的难度。“[这是对同性恋者的攻击,还是企图"收回"这种诽谤?是通过焚烧旗帜煽动政治抗议吗?或者,如果演讲者或观众是英国人,是否努力阻止人们吸烟(fag是英国人常用的卷烟术语)?“

Allan的帖子,ProPublica文章以及数百页的文件在“卫报”中,泄密事件证明了内容节制的另一个核心事实:即使对于宪法律师来说,许多这些问题也很难。他们还强调了Facebook能够使用算法或自动化来调节内容的地方,以及问题如此复杂并且在不断变化的社会规范中嵌套的情况,以及人工智能将能够在这种适度工作的大部分时间内取代人的可能性。

(责任编辑:九歌彩票平台)

本文地址:http://www.liniudun.com/zongyi/zhenrenxiu/201908/3802.html

上一篇:...在天空中,钻石 下一篇:没有了