诸多专家机构对苹果CSAM儿童安全检测系统表达担忧

摘要:

早些时候,WhatsApp 负责人 Will Cathcart 明确表达了对苹果新引入的“AI 虐童图像检测功能”的反对意见。在一连串推文中,他指出苹果走了岔路,因为这套机制也可被用于扫描手机上的所有私人照片。由苹果周四宣布的计划可知,该功能将对上传到 iCloud 的图像哈希值、与已知的虐童材料(CSAM)进行比较。

尽管苹果宣称会保持用户数据的加密状态、并在本地设备上运行分析。但在发现了所谓的“违规材料”之后,其仍允许该公司向当局上报。

另一方面,苹果儿童安全策略会在 13 岁以下的孩子收发、查看包含色情内容的图片时,向父母发出警告。

不过该公司内部的一份备忘录承认,人们对这套系统还是存在相当大的顾虑。

然而就算不使用苹果提议的方法,当前 WhatsApp 采用的基于用户举报的方案(同样保留了加密属性),还是在去年成功地向美国国家失踪与受虐儿童中心汇报了超过 40 万起案例。

值得一提的是,苹果公司也选择了与该中心合作,以开展 CSAM 方面的检测工作。

1.png

除了 WhatsApp,还有许多个人与机构同样表达了对苹果 CSAM 方案的反对意见,包括爱德华·斯诺登、电子前沿基金会(EFF)、以及约翰·霍普金斯大学副教授 Matthew Green 。

在该功能公开宣布之前,他就已经表达了反对意见。而在近日的推文中,他进一步发表了关于苹果这项计划、以及哈希比对系统将如何被政府与恶意行为者滥用等观点。

2.png

电子前沿基金会的观点是,苹果的这项计划,设计全面的记录、仔细的考量、以及一道狭长的后门。

与 Matthew Green 教授的观点雷电,EFF 也认为苹果的 CSAM 措施或被政府滥用、并且有损用户的隐私。

3.png

哈佛大学网络法律诊所讲师 Kendra Albert,也在一篇文章中指出了事物的两面性,认为苹果在向家长通报的年龄范围等方面缺乏明确性。

4.png

比如 EFF 报告称苹果会监测年龄介于 13 至 17 岁的 iMessage 用户的消息内容,但具体内容并未能够在苹果的相关文档中找到。

5.png

此外爱德华·斯诺登转发了《金融时报》的一篇文章,并援引了安全工程教授 Ross Anderson 的一段话,称苹果将 iPhone 改造得能够持续侵犯用户的隐私数据,且这一技术路线终将导致针对苹果用户的大规模监控。

6.png

政治家 Brianna Wu 亦发推批评称,该系统是苹果有史以来最糟糕的一个想法。

7.png

作家 Matt Blaze 也表达对该技术或被政府过度滥用的担忧,并试图阻止 CSAM 之外的内容。

8.png

最后,Epic 首席执行官 Tim Sweeney 批评称,苹果公司默认将每个人数据都往 iCloud 上倾倒了一遍,并承诺稍后向大家分享更多细节。

9.png

不过在 CSAM 支持者看来,苹果这项工作还是向前迈出了重要的一步。

10.png

相关文章:

苹果披露虐童图片检测功能 WhatsApp对此表示非常担忧

查看评论
created by ceallan