报告称Meta犯下的内容审核错误影响了巴勒斯坦人人权
于当地时间周四发布的一份报告显示,在2021年5月发生在加沙地带的暴力事件中,Facebook的母公司Meta犯了内容审核错误,进而影响到巴勒斯坦人的人权。Meta要求咨询公司Business for Social Responsibility(以下简称BSR)审查该公司的政策和行动如何影响巴勒斯坦人和以色列人,因为该公司的监督委员会负责审查该社交媒体公司的一些最严厉的内容审核决定并向公司给出建议。
报告显示,Meta的行动消除或减少了巴勒斯坦人享有“言论自由、集会自由、政治参与和不歧视”等人权的能力。报告还强调了该公司在对英语以外的语言内容进行审核时面临的持续挑战。Meta拥有世界上最大的社交网络Facebook、照片和视频服务Instagram及信息应用WhatsApp。
BSR在报告中称,它跟受影响的利益相关者进行了交谈,许多人分享了他们的观点,即Meta似乎是另一个压制他们声音的强大实体。
调查结果概述了Meta在去年的巴以冲突中犯下的几个内容审核错误。阿拉伯语的社交媒体内容存在更大的过度执行,进而导致该公司错误地删除了巴勒斯坦人的帖子。BSR还发现,对可能违反规定的阿拉伯文内容的主动检测率明显高于对可能违反规定的希伯来文内容的主动检测率。
希伯来语内容经历了“更大的执法不足”,这是因为Meta没有所谓的“分类器”来处理该语言中的敌对言论。拥有分类器有助于该公司的人工智能系统自动识别可能违反其规则的帖子。Meta还失去了讲希伯来语的员工并将内容审核工作外包出去。
Meta还错误地撤下了没有违反其规则的内容。报告指出,在言论自由、结社自由和安全等权利具有高度重要性的情况下,这些错误对人权的影响更为严重,尤其是对活动家和记者而言。
报告还指出了Meta平台上的其他重大内容审核错误。例如Instagram短暂地禁掉了#AlAqsa,这是一个用于提及耶路撒冷旧城的阿克萨清真寺的标签。用户还发布了针对巴勒斯坦人、阿拉伯裔以色列人、犹太裔以色列人和该地区以外的犹太社区的仇恨言论和暴力煽动。巴勒斯坦记者也报告称他们的WhatsApp被封号。
不过,BSR没有发现该公司或Meta员工有故意的偏见,但确实在Meta的政策和做法中发现了各种无意偏见的情况,加上更广泛的外部动态,确实导致巴勒斯坦和阿拉伯语用户受到不同的人权影响。
Meta表示,它正在进行改革以解决报告中概述的问题。如该公司表示,它将继续开发和部署希伯来语的机器学习分类器。
该公司人权主管Miranda Sissons在一篇博文中说道:“我们相信这将大大提高我们处理这种情况的能力,在这种情况下,我们看到违规内容的主要峰值。”