Meta监督委员会称Facebook的自动图片删除功能已失去效用
Meta公司的监督委员会说,该公司应该对自动审核工具更加谨慎,并举例批评它删除了一幅描绘哥伦比亚警察暴力的漫画。这一决定是在委员会处理一系列新案件时作出的,包括一个关于印度性侵犯视频的问题。
监督委员会是一个由Meta公司资助的半独立机构,该委员会审议了一幅描绘哥伦比亚警察用警棍殴打一名男子的政治漫画。这幅漫画在某个时候被添加到Meta的媒体匹配服务数据库中,这意味着当用户发布该漫画时,Meta的系统会自动将其标记为被删除。但是,当用户看到他们的帖子被删除时,他们开始对这一决定提出上诉并赢得了胜利。监督委员会说,有215人对删除提出上诉,其中98%的上诉是成功的。然而,在监督委员会受理此案之前,Meta公司并没有从其数据库中删除该漫画。
自动化可以放大一个错误审核的影响
这一事实让监督委员会感到不安。"决定说:"通过使用自动化系统来删除内容,媒体匹配服务银行可以放大个别人工审查员的错误决定的影响。一个反应更快的系统可以通过在具有该图像的个别帖子被成功上诉时触发银行的审查来解决这个问题。否则,基于一个错误决定而被禁止的图片可能会一直被无限期地秘密禁止,即使个别审查人员后来得出了不同的结论。"
这是监督委员会质疑Facebook和Instagram的自动审核是否经过足够的校准以避免过度攻击正常内容的多个案例之一,和以前的案例一样,监督委员会希望有更多的方法。"董事会特别关注的是,Meta公司没有衡量媒体匹配服务库对特定内容政策的准确性,"它指出。"没有这些数据,而这些数据对改善这些库的工作方式至关重要,该公司无法判断这项技术是否对某些社区标准比其他标准更有效。"
监督委员会要求Meta公司公布被错误地纳入匹配库的内容的错误率。按照委员会建立时声明的原则惯例,Meta公司必须对该建议作出回应,但它可以选择是否实施。
Meta公司对赞美极端主义团体的惩罚"不明确且严厉"
监督委员会还处理了考验Facebook在支持极端主义团体和报道极端主义团体之间界限的众多事件之一。委员会认定,Meta公司删除了一篇报道塔利班重新为妇女和女孩开设学校和学院的乌尔都语Facebook帖子是错误的。该规则禁止"赞美"塔利班等组织,因此该帖子被撤下。该帖子在上诉后被转到一个特殊的审核队列中,但实际上从未被审核过--监督委员会指出,当时,Facebook分配给该队列的讲乌尔都语的审核员不到50人。
委员会说,这个案例"可能表明"关于危险组织的规则存在更广泛的问题。在发生了几起事件后,它说该政策对用户和版主来说都显得不明确,而且对违反规则的惩罚"不明确而且很严厉"。它要求对"赞扬"危险人物有一个更明确和更狭窄的定义,并将更多版主投入到审查队列中。
同时,监督委员会正在就两个案件征求公众意见。第一个是关于尼日利亚教堂大规模枪击事件的视频,该视频因违反Meta的"暴力和图片内容"政策而被禁止,但可能具有新闻价值,应该有理由保留它。同样,它对是否应该允许一段描述印度性侵犯的视频,以提高人们对种姓和性别暴力的认识,或者其对非自愿触摸的生动描述是否具有内在的危害性感兴趣。这两个案件的评论窗口将于9月29日关闭。