Facebook审查规则被指太奇葩:竟允许用户直播自残
根据最新流出的“Facebook 审查规则”文档,我们在其中发现了许多不太能够理解的举例。比如该社交网络允许用户直播自残的行为,因其“不希望对陷入困境的人们进行审查或惩罚”。不过除非这件事特别具有新闻价值,否则相关视频内容会在之后被撤除,理由是担心“不再有机会去帮助这个人”。据文件所述,这些规则是在专家的建议下制定的,反映了这家社交媒体公司“处理网络上最令人不安内容”的一种尝试。
《卫报》对此表示了深深的忧虑,毕竟在过去 6 个月里,其网站的使用量又有了不少的增长。
有消息称,主播们被 Facebook 勒令“消除”任何与《13 个为什么:一部探讨高校学生自杀的 Netflix 戏剧》有关的内容,理由竟然是“担心这会激发模仿行为”。
FB 主播们的数据表明,该网站上与潜在自残相关的内容有上升的趋势。比如去年夏天的某两周时间内,就涌出了 4531 起自残报告。在警方和其它部门的协助下,Facebook 的法务团队对其中 63 起事件进行了处理。
今年的数据是,某两周出现了 5016 起相关报告,另两周又涌来了 5431 起报告。
最近 Facebook 更新了主播政策,其中提到:
Facebook 上分享了越来越多的视频,其中就有包括自杀的内容。我们不想对处于困境中、正在试图自杀的人们进行审查或惩罚。
专家的建议是,只要这些人是安全的,那就是最好的结果。与观众们的接触,可以让他们更加生有可恋。
不过考虑到传播的风险(即某些人可能受影响而考虑自残或自杀),最好不要让太多人见到这些视频内容。
主播们还被告知,如果“只通过标签或表情符号”来传递信息、意图不太明显(方法不太可能成功)、以及超过 5 天以上的预告,该网站会忽视这样的自杀威胁。
此外文件还指出,“如果网站删除了自我伤害的内容,可能会妨碍这部分用户从现实中获得的帮助”。Facebook 全球政策管理负责人 Monika Bickert 辩称:
我们偶尔会见到网站留下的一些自残内容,但这是作为更广泛的公共交流的一部分。
我们会与发布者和其它专家一道,帮助大家正确理解这些特定的时刻。
在某些人发表了自残或自杀的内容之后,我们希望确保其亲友能够提供支持和帮助。
热门评论
>>共有0条评论,显示0条