Facebook称新冠大流行使其更难控制平台上的内容
据外媒CNET报道,Facebook周二表示,新冠大流行影响了为其审查社交网络上的帖子是否违反了禁止宣传自杀或自残内容规则的员工的工作。COVID-19大流行也影响了可以监控Facebook旗下的Instagram是否有儿童裸体和性剥削情况的工作人员。
Facebook在一篇博文中表示,从4月到6月,该公司对这类令人反感的内容采取了较少的行动,因为多数内容审查人员都在居家办公。用户也不能总是对内容审核决定提出上诉。
Facebook依靠人类审查员和技术的组合来标记攻击性内容。但有些内容的调控比较棘手,包括与自杀和性剥削有关的帖子,所以Facebook更多的是依靠人类审查员来做这些决定。该公司曾面临内容版主的批评和诉讼,他们称自己在反复审查暴力图片后患上了创伤后应激障碍症状。
负责监督Facebook在安全和诚信方面工作的Guy Rosen在新闻电话会议上表示,关于自杀和儿童裸体的内容不能在家里审查,因为它的视觉形象。这对内容审核人员来说非常具有挑战性,因为当他们在家工作时,家人可能会在他们身边。
“我们希望确保在一个更可控的环境中进行审核,这就是为什么我们开始将少量安全的审核员带回办公室的原因。”他说。
Facebook还在使用人工智能对有害内容的可能程度进行排名,并标记人们需要先审查哪些帖子。 Rosen表示,该公司一直优先审查直播视频,但如果用户在普通帖子中暗示要自杀,那也会被排在前面。
Facebook表示,由于受到新冠大流行的影响,无法确定第二季度暴力和图片内容以及成人裸体和性活动在其平台上的流行程度。Facebook会定期发布季度报告,介绍其如何执行规则。
Facebook还因涉嫌在打击仇恨言论方面做得不够而受到抨击,这个问题在7月份引发了广告抵制。周一,NBC新闻报道称,一项内部调查发现,Facebook上有数千个团体和页面支持一个名为 "QAnon "的阴谋论,该阴谋论指称有针对唐纳德-特朗普总统及其支持者的 "深层国家 "阴谋。
负责监督Facebook内容政策的莫妮卡-比克特表示,Facebook已经删除了QAnon团体和页面,原因是使用假账户或内容违反了社交网络的规则。“我们会继续寻找其他的方法,以确保我们正在适当地处理这些内容,”Bickert说。
Facebook表示,在第二季度,它对2250万条违反其反对仇恨言论规则的内容采取行动,比第一季度的960万条内容有所增加。Facebook将这一跳跃归功于自动化技术的使用,该技术帮助公司主动检测仇恨言论。该公司表示,从第一季度到第二季度,Facebook上仇恨言论的主动检测率从89%上升到95%。
Facebook表示,同期Instagram上仇恨言论的主动检测率从45%上升到84%。Instagram在第一季度对80.89万条违反仇恨言论规则的内容采取了行动,第二季度这一数字跃升至330万条。
Facebook在第二季度还对870万条违反反恐规则的内容采取了行动,而这一数字从第一季度的630万条上升到了第二季度。该公司表示,独立审计人员将审查Facebook用于执行社区标准的指标。该公司希望审计能在2021年进行。