【威尼斯官方网站】网络仇恨言论,对外开放图片过滤工具

威尼斯官方网站 3

9月3日, Google 通过官方博客宣布开放一项审查工具 Content Safety
API,这项技术能够帮助内容审查人员快速批量识别与儿童侵犯有关的图片,减少这些内容的曝光。

近日,YouTube更新了关于“仇恨言论”的条款,声称将全面禁止“含有白人至上主义和新纳粹主义内容”的视频。这家用户量超过10亿的视频分享网站表示,此前他们已经尽力减少这类视频出现在用户视野中的频率,但现在他们要做得更加彻底。除了以上内容之外,YouTube还将封禁某些否定纳粹屠杀等历史事实的视频。

API 将免费提供给 NGO
组织、科技公司等任何合作伙伴,包括任何提供内容的社交平台或者搜索引擎。Google
解释说这套算法的能力在于自我学习,让图片审查的速度和效率大幅度提高。

威尼斯官方网站 1

目前的图片自动审查工具运行验证机制,依靠之前人类和机器标记过的图片,等于说首先要有一个图片库,后来的图片与其中的某些相似,才会被评判为违规。

作为美国最大的视频分享网站,YouTube 有超过10亿用户。

这会带来识别范围的限制,Google 在文章中解释说,Content Safety API
的神经网络会自己学习与判断哪些图片涉嫌儿童性侵,而不需要与图库中的图片一一比对。

除了YouTube之外,Facebook、Twitter等多个公司都已经采取类似措施,对层出不穷的仇恨言论进行管制。然而,这些举措也引发了争议。反对者表示,这些条款侵犯了用户发表个人观点的权利。但也有人认为,面对网络上仇恨言论泛滥的情况,这些公司目前的应对举措还远远不够完善。

经过验证,Google 已经发现这套机制能让审查员发现比原本多 7 倍的违规图片。

我们该如何限定仇恨言论的边界?网络平台是否应该处理仇恨言论?在社会越来越多元化的今天,我们是否应该宽容包括仇恨言论在内的不同声音?

Google 推出这项举措正值自己被广受批评,上周英国外交大臣 Jeremy Hunt 在
Twitter 上说,“Google 宁愿考虑为中国过滤内容,也不愿意与英美等 5
眼联盟国家合作消除儿童侵犯内容。”

威尼斯官方网站,撰文 | 徐悦东 李梦媛

5 眼联盟(Five
Eyes)是一个国际情报分享团体,成员包括英国、美国、加拿大、澳洲和新西兰 5
个国家。上周该联盟还开了会,发表一份联合声明呼吁科技公司需协助当局合法访问数据。

在美国,

Google 在清除不当内容上花费不小的成本,年初 YouTube 投入了人工智能技术和
1 万名审核员,来辨识和清理平台上的极端、不雅和暴力视频。

人们难以就仇恨言论的定义达成共识

图片和视频是相对更容易识别的内容形式,Facebook 和 Twitter
致力于清除的仇恨言论和虚假新闻似乎更难。今年在诘问数据泄露的听证会上,马克·
扎克伯格也说,关于怎样定义仇恨言论“很难回答”。

一般认为,基于种族、宗教、国籍、性别、性取向、残疾等身份特征,刻意煽动针对个人或群体的暴力及偏见的言论,都可能构成仇恨言论。许多国家都针对仇恨言论制定了法律:英国的公共秩序法和加拿大的刑法都禁止公开发表煽动种族和宗教仇恨的言论。而经历了二战教训的德国,则禁止公开发表否认大屠杀及针对少数族裔的仇恨言论。日本在三年前也已经立法打击仇恨言论。

语言本身就是一项复杂的交流工具,涉嫌种族、性别、宗教等等冒犯性质的言论,在不同场景不同时间下可能会有完全不同的解读,之前的差异非常微妙。

与这些国家不同的是,美国并没有相关法律禁止仇恨言论。除非某个言论会引发“明显而即刻的危险”,否则都受到《第一修正案》的保护。因此,即使某些言论非常令人反感,政府也不能对其进行限制和惩罚。因此,在《第一修正案》的基本原则下,美国没有对仇恨言论进行立法。

Google
有一个名叫Perspective的项目,是一套识别恶意表达的人工智能算法。不过算法并不能完全评判哪些言论具有侵犯性,比如刚发布的时候它的评估系统中“垃圾车(Garbage
Truck)”这个词的仇恨指数要高于“种族战争开始吧(Race War
Now)”。后者在机器学习的材料中常常出现在严肃的学术著作中,也就让机器人为该词语相对比较中立。

如何对仇恨言论进行定义,也成为了难题。在2017年关于“仇恨言论包容度”的调查中,82%的美国人表示,人们难以就仇恨言论的定义达成共识,这也是无法禁止仇恨言论的重要原因。在对仇恨言论、冒犯言论,以及单纯的政治观点进行区分的时候,每个人的标准可能都不尽相同。

另一方面,清理内容本身的争议尚未结束。特朗普上周炮轰Twitter、Facebook 和
Google
清理账号的行为让某些派别的声音从互联网消失,非常危险。他抱怨自己在搜索结果中排序不利,社交账号还会莫名其妙掉粉,科技公司对保守派有故意屏蔽的嫌疑。

在这个问题上,自由派和保守派出现了明显的分歧。比如,59%的自由派认为“跨性别者有心理疾病”是仇恨言论,但只有17%的保守派对此表示赞同;81%的自由派将“带有种族歧视的称谓”视为仇恨言论,而超过半数的保守派都认为这只是冒犯性言论,称不上仇恨。
但是,对“美国是一个邪恶的国家”、“白人都是种族主义者”等叙述,保守派将其定义为仇恨言论的比例大大增多。

就像
EFF(电子前哨基金会)说的,“保护言论自由并非是因为我们支持哪一种言论,哪种言论就应该受到支持,而是因为我们相信不管是政府还是商业组织都没有权限去干涉言论自由。”

威尼斯官方网站 2

允许转载,转载时请标注来源和作者。

自由派与保守派对仇恨言论的定义存在分歧

稿件一经选用,即视为作者同意本网免费将其使用于本网或与本网有合作关系的非赢利性各类出版物、互联网与手机端媒体及专业学术文库等。

不过,总体来看,无论持有哪种政治观点的群体,都有超过半数的人认为国会不应对仇恨言论进行立法。但是,作为私营企业的科技公司可以采取更有力的措施,来规范网络平台上的言论。

由稿件引起的著作权问题及其法律责任由作者自行承担。

网络平台已经成为仇恨言论的温床?

一直以来,YouTube、Facebook和Twitter等网络平台很少删除仇恨言论。它们通常遵循《第一修正案》的原则,接纳种种带有歧视性质的言论。Twitter的首席执行官杰克·多西曾说过:“如果我们屈服于外部的压力,不再包容各种政治观点,那Twitter就将成为由个人观点所构成的、没有原则的平台。”

网络为人们提供了相对自由的发声平台,但也使仇恨言论出现在公众的视野中。在美剧《傲骨之战》中,律所的客户chumhum网就为旗下的社交平台上的大量仇恨言论所困扰,希望定制条款来约束这些用户。这一情节反映了美国现实中的仇恨言论与网络暴力现象:在法律的保护之下,人们可以肆无忌惮地攻击他人或者某个群体,而不需要承担任何后果。

这种情况在特朗普上台之后变得更加严重。自2016年大选开始,一群支持特朗普的“另类右翼”聚集在4chan和8chan等匿名网络论坛上,每天发表大量煽动对少数群体仇恨的言论。根据CNN的调查,2018年的匹兹堡犹太教堂枪击案过后,这些网站上的反犹言论猛增,谷歌上关于“杀光犹太人”等仇恨言论的搜索量也急剧上升。而另一个研究则显示,在Twitter上,女权主义政治家和记者每隔三十秒就会遭到仇恨言论的攻击,而黑人女性遭遇的攻击则是白人女性的两倍多。

仇恨言论的大量涌现,使得社交媒体几乎沦为传播暴力和仇恨的工具。于是,越来越多的公众和媒体开始质疑,毫无底线地包容仇恨言论是否合理。像YouTube、Facebook这样有着庞大的用户群的科技巨头,在全世界都有不可估量的影响力,它们或许应该承担更多的社会责任,而不是一味地打着自由的旗号来回避仇恨言论、网络暴力和阴谋论等种种问题。

科技公司面临进退两难的处境

与美国相比,欧洲对仇恨言论显得更加警惕。特别是近年来,在欧洲难民危机不断蔓延的状况之下,网络上涌现出大量仇恨言论,使得种族关系更为紧张。为了打击网络恐怖主义,欧盟在2016年开始敦促科技公司对仇恨言论进行监管。Facebook、Twitter、微软和谷歌公司与欧盟达成协议,承诺在接到举报之后,将于24小时内删除相关仇恨言论和恐怖宣传,但同时也表示,会在打击仇恨言论的同时坚守自由的准则。

然而,在这两者之间取得平衡并不是件容易的事情。2018年8月,美国知名极右翼阴谋论者亚历克斯·琼斯遭到了多个网站的封杀,苹果、YouTube和Spotify等平台相继移除琼斯的播客、视频与账户,Facebook和Twitter也封禁了他的账号。琼斯则为自己鸣不平,抨击这些主流平台联手审查网络言论。在琼斯事件事态愈演愈烈之后,特朗普于8月19日发出推文声援琼斯,指责媒体对保守派存在严重偏见,故意压制后者的声音。

威尼斯官方网站 3

亚历克斯·琼斯

而今年6月,YouTube因拒绝删除保守派评论员史蒂文·克劳德的视频而面临争议。在视频中,克劳德用对同性恋的侮辱性称谓来形容Vox记者卡洛斯·马扎。但YouTube表示,克劳德的视频主要是在发表政治观点,因此没有违反平台规则。之后,YouTube取消了克劳德的频道的广告收入,但没有进行其他惩罚。YouTube的这一做法引发了少数群体的指责。

可以看到,这些对仇恨言论的处理结果并不令人满意。实际上,科技公司经常处于进退两难的境地,并同时受到保守派和自由派的指责。一方面,它们希望维护良好的公共讨论环境,但另一方面,又要坚持自由和包容的原则,否则就会受到“歧视”的指责。另外,如何使审核程序公开透明,减少公众的质疑,也是这些网络平台所面临的重要问题。

算法能否解决仇恨言论的问题?

目前,Facebook和Twitter等公司都采取技术手段,用机器学习算法和人工审核结合的方式,来提高处理仇恨言论和虚假信息的效率。去年
5 月,Twitter宣布调整算法,依据多方面指标来对评论内容进行筛选。 Twitter
不会直接删除有问题的评论,而是将这些评论藏到折叠区中。Twitter
表示,采用新算法之后,评论区的仇恨言论数量减少了 8%。

Facebook则在今年宣布了四种方法来减少仇恨言论和假新闻,其中包括调整算法的工作方式,扩大与事实核查专家的合作,等等。Facebook也通过OCR技术来识别图片中的文本,以此扩大检测仇恨性言论的范围。

然而,依靠算法并不能完全禁止仇恨言论。Facebook称其算法能够捕捉到绝大部分恐怖主义和暴力内容,但只能阻止52%的仇恨言论。不过,与两年前的23%相比,已经有了不小的进步。

在面对比较复杂的内容时,算法也存在着一定的局限性。在上周三,美国历史教师奥尔索普就被YouTube的审核所“误伤”。他的频道中关于希特勒的影像资料由于触犯了“不得涉及纳粹”的条例而全部被删除。在他上诉后,YouTube恢复了他的账户。

奥尔索普表示理解YouTube试图净化网络环境的做法,因为他上传的视频经常被极右人士观看和评论,一直令他感到很烦恼。但是,YouTube这种删除视频的方式实在过于粗暴。面对这类复杂的历史资料,YouTube应该更加仔细地进行鉴别,而不是简单地用算法解决。

仇恨言论背后,

是不平等的权力关系

随着各大网络平台不断加强对仇恨言论的监管,围绕仇恨言论的争议也一直在继续。反对监管的人认为,只要限制了某一种言论,就会损害整体的表达自由和多元的话语空间。然而,也有观点指出,这种自由并不是中立的。在一部分人享受自由的同时,仇恨言论的承受者却不得不生活在歧视带来的伤害之中。

纽约大学法学院教授杰里米·沃尔登在《仇恨言论的危害》中强调,限制仇恨言论,与“仇恨”这种情感无关,而是与仇恨言论带来的后果有关。在一个秩序井然的社会中,每个人都有免于被敌意、暴力和歧视伤害的权利,而仇恨言论则破坏了这种重要的公共利益,剥夺了他们在社会中本该享有的尊严。

为什么仇恨言论可以对人造成伤害?除了言语本身带有侮辱、恐吓和威胁性质之外,很大程度上是因为双方之间不对等的权力关系。许多人对于仇恨言论不敏感,是因为他们处于社会结构中的优势地位,忽视了仇恨言论对女性、少数族裔和性少数等弱势群体的压迫。如果无限制地包容仇恨言论,会使少数群体因恐惧而压抑自己的表达,从而变得更加沉默和边缘化。因此,在讨论仇恨言论是否属于表达自由的时候,也必须要看到被自由所遮蔽的性别、种族和阶级等问题。

相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注