Facebook介绍如何利用AI检测COVID-19假新闻和仇恨言论

摘要:

在本周一发布的报告中,Facebook详细介绍了如何使用人类事实检查员(human fact-checkers)、版主和人工智能结合的方式来更高效执行社区标准。 这份报告称之为“社区标准执行报告”(Community Standards Enforcement Report),包含了前三个月到六个月的数据和调查结果,不过本次报告主要关注的是人工智能。

ascmt44f.jpg

在COVID-19疫情期间,Facebook更多的依靠技术来帮助版主进行管理。据The Verge周二报道,Facebook已经与现任和前任版主达成了5200万美元的集体诉讼和解,以补偿他们在工作期间产生的精神健康问题,尤其是创伤后应激障碍。The Verge曾广泛报道过Facebook雇佣的公司在其平台上做版主的工作条件。

该公司的诚信副总裁Guy Rosen表示:“这份报告只包括截至2020年3月的数据,所以它并没有反映出我们在大流行期间所做的改变的全部影响。我们预计,我们将在下一份报告中看到这些变化的影响,我们将对这些变化保持透明。”

鉴于目前的情况,Facebook的报告中确实包含了新的信息,即该公司如何利用其AI工具专门打击与冠状病毒相关的错误信息和其他形式的平台滥用行为,比如在Facebook Marketplace上的价格垄断行为。

在博文中写道:“自3月1日以来,我们已经删除了超过250万条用于销售口罩、洗手液、表面消毒湿巾和COVID-19检测试剂盒的内容。但这些都是困难的挑战,我们的工具也远非完美无缺。此外,这些挑战的对抗性意味着工作永远无法完成。”

Facebook表示,其标签正在发挥作用:95%的情况下,被警告的人在被警告某篇内容含有错误信息的情况下,都会决定不看。但事实证明,在其庞大的平台上制作这些标签是一个挑战。首先,Facebook正在发现,大量的错误信息以及仇恨言论现在显示在图片和视频中,而不仅仅是文字或文章链接。

在另外一篇博文中写道:“我们发现,在全球范围内,Facebook上的仇恨言论有相当大的比例出现在照片或视频中。与其他内容一样,仇恨言论也可以是多模式的:比如说,一个meme可能会将文字和图片一起使用,攻击特定人群。”

该公司承认,这对AI来说是一个比较棘手的挑战。由于措辞和语言差异等复杂因素,经过AI训练的模型不仅难以解析一张Meme图片或视频,而且当内容在Facebook上传播时,该软件还必须经过训练,以找到重复或仅有少量修改的内容。

查看评论
created by ceallan