故意的?Facebook删除仇恨言论标准内部文件令人困惑

摘要:

社交网络的已经成为了语言暴力和仇恨言论的重灾区,Facebook很早就部署了打击仇恨言论的政策和自动筛选删除机制。不过Facebook一直不愿透露其最具体如何界定和指导内容审核的标准,近日ProPublica曝光了一份Facebook内部文件,用于指导删除关于特定保护类别的言论攻击内容,以快速问答形式出现的指导性幻灯片,其内容曝光后颇有争议性。

20170628_fb_slide_white_men_630.0.jpg

Facebook严格禁止基于诸如种族,民族出身,宗教或性取向等特征划分人群的内容,对于“难民、移民”等准保护类别的政策相对宽容。但当我们对这些内部文件审视后,发现Facebook编写快速问答的问题选项似乎被有意设置为恶搞的迷惑性问题,似乎有故意刁难人的嫌疑,但注重机械式逻辑和可操作性。

实例如下:

问答:我们应该保护哪种类别?

A、女司机 B、黑人孩童 C、成年白人男性

答案是C、成年白人男性,理由是成年男性(Men)和白种人涉及FACEBOOK规定的保护类别,而“孩童”并不是保护子类。人们隐约都能够从问题的设置中,涉及性别歧视、种族主义的刁难,似乎是故意嘲讽和恶搞“反仇恨言论”规则。

ProPublica网站的法律教授 Danielle Citron称,这些规则设置看上去在对受压迫群体和受压迫群体攻击者之间似乎不包含种族偏见。仇恨言论政策的鉴定并不是基于判断言论是否伤害了人群,或者更加具有冒犯意味,群体的定义在法则前被一视同仁,这样的定义更加便于实际操作。但这样是否能够切实删除那些真正具有冒犯意义的仇恨言论?

争议性规则还有,比如猎寻和杀害“极端化”穆斯林的言论是可以的,但出现“全体白人都是种族主义分子”的言论要被禁止。

需要指出的是,Facebook并不受美国宪法第一修正案约束,其可以自由对言论限制的规则做出增改。目前Facebook似乎正好遵守在运营地区有关仇恨言论法规的底线之上的筛选规则,保证其在相关国家的运营不受影响,而并非基于社会责任。

热门评论

>>共有0条评论,显示0
更多评论
created by ceallan