在不确定疑似CSAM中某人的年龄时 FB指示审查员“站在成年人一边”

摘要:

据The Verge报道,科技公司的一项主要责任是监测其平台上的内容是否存在儿童性虐待材料(CSAM),如果发现任何内容,他们必须依法向美国国家失踪和被剥削儿童中心(NCMEC)报告。许多公司都有内容审查员,负责审查被标记为可能是CSAM的内容,并决定是否应将该内容报告给NCMEC。

然而,根据《纽约时报》的一份新报告,Facebook有一项政策,可能意味着它对儿童性虐待内容的报告不足。报道称,Facebook的一份培训文件指示内容审查员,当他们不知道疑似CSAM照片或视频中某人的年龄时,要“站在成年人一边”。

该政策是为在埃森哲(Accenture)工作的Facebook内容审查员制定的,并在《加利福尼亚法律评论》8月的一篇文章中讨论过。

受访者还描述了一项名为“bumping up”的政策,他们每个人都不同意这项政策。该政策适用于内容审查员无法轻易确定疑似CSAM照片中的主体是未成年人("B")还是成年人("C")。在这种情况下,内容审查员被指示假定该对象是成年人,从而使更多的图像没有被报告给NCMEC。

据《纽约时报》报道,以下是Facebook公司制定该政策的理由:

Meta公司的安全主管Antigone Davis在接受采访时证实了这一政策,并说这是出于对那些发布成人性图像的人的隐私考虑。Davis女士说:“网上的儿童性虐待材料是令人憎恶的,”她强调,Meta公司采用了多层次、严格的审查程序,标记的图片远远多于其他科技公司。她说,错误地标记儿童性虐待材料的后果可能会改变用户的生活。

在征求意见时,Facebook(现在属于 Meta 公司旗下)指出了Davis在《纽约时报》上的引述。埃森哲没有立即回复置评请求。埃森哲拒绝对《纽约时报》发表评论。

查看评论
created by ceallan