首页 资讯 关注 科技 财经 汽车 房产 图片 视频 全国 福建

网络

旗下栏目: 教育 体育 网络 军事

大数据处理能否解决网络仇恨言论的问题?(2)

来源:网络整理 作者:采集侠 人气: 发布时间:2019-06-17
摘要:可以看到,这些对仇恨言论的处理结果并不令人满意。实际上,科技公司经常处于进退两难的境地,并同时受到保守派和自由派的指责。一方面,它们希望维护良好的公共讨论环境,但另一方面,又要坚持自由和包容的原则,

可以看到,这些对仇恨言论的处理结果并不令人满意。实际上,科技公司经常处于进退两难的境地,并同时受到保守派和自由派的指责。一方面,它们希望维护良好的公共讨论环境,但另一方面,又要坚持自由和包容的原则,否则就会受到“歧视”的指责。另外,如何使审核程序公开透明,减少公众的质疑,也是这些网络平台所面临的重要问题。

算法能否解决仇恨言论的问题?

目前,Facebook和Twitter等公司都采取技术手段,用机器学习算法和人工审核结合的方式,来提高处理仇恨言论和虚假信息的效率。去年 5 月,Twitter宣布调整算法,依据多方面指标来对评论内容进行筛选。 Twitter 不会直接删除有问题的评论,而是将这些评论藏到折叠区中。Twitter 表示,采用新算法之后,评论区的仇恨言论数量减少了 8%。

Facebook则在今年宣布了四种方法来减少仇恨言论和假新闻,其中包括调整算法的工作方式,扩大与事实核查专家的合作,等等。Facebook也通过OCR技术来识别图片中的文本,以此扩大检测仇恨性言论的范围。

然而,依靠算法并不能完全禁止仇恨言论。Facebook称其算法能够捕捉到绝大部分恐怖主义和暴力内容,但只能阻止52%的仇恨言论。不过,与两年前的23%相比,已经有了不小的进步。

在面对比较复杂的内容时,算法也存在着一定的局限性。在上周三,美国历史教师奥尔索普就被YouTube的审核所“误伤”。他的频道中关于希特勒的影像资料由于触犯了“不得涉及纳粹”的条例而全部被删除。在他上诉后,YouTube恢复了他的账户。

奥尔索普表示理解YouTube试图净化网络环境的做法,因为他上传的视频经常被极右人士观看和评论,一直令他感到很烦恼。但是,YouTube这种删除视频的方式实在过于粗暴。面对这类复杂的历史资料,YouTube应该更加仔细地进行鉴别,而不是简单地用算法解决。

仇恨言论背后,是不平等的权力关系

随着各大网络平台不断加强对仇恨言论的监管,围绕仇恨言论的争议也一直在继续。反对监管的人认为,只要限制了某一种言论,就会损害整体的表达自由和多元的话语空间。然而,也有观点指出,这种自由并不是中立的。在一部分人享受自由的同时,仇恨言论的承受者却不得不生活在歧视带来的伤害之中。

纽约大学法学院教授杰里米·沃尔登在《仇恨言论的危害》中强调,限制仇恨言论,与“仇恨”这种情感无关,而是与仇恨言论带来的后果有关。在一个秩序井然的社会中,每个人都有免于被敌意、暴力和歧视伤害的权利,而仇恨言论则破坏了这种重要的公共利益,剥夺了他们在社会中本该享有的尊严。

为什么仇恨言论可以对人造成伤害?除了言语本身带有侮辱、恐吓和威胁性质之外,很大程度上是因为双方之间不对等的权力关系。许多人对于仇恨言论不敏感,是因为他们处于社会结构中的优势地位,忽视了仇恨言论对女性、少数族裔和性少数等弱势群体的压迫。如果无限制地包容仇恨言论,会使少数群体因恐惧而压抑自己的表达,从而变得更加沉默和边缘化。因此,在讨论仇恨言论是否属于表达自由的时候,也必须要看到被自由所遮蔽的性别、种族和阶级等问题。

责任编辑:采集侠
首页 | 资讯 | 关注 | 科技 | 财经 | 汽车 | 房产 | 图片 | 视频 | 全国 | 福建

Copyright © 2015 新闻资讯门户站 版权所有

电脑版 | 移动版