苹果对检测iCloud照片中存储的已知CSAM的计划仍保持沉默
自苹果宣布计划推出三项新的儿童安全功能以来已经过去一年多的时间。据悉,这三项功能为检测存储在iCloud照片中的已知儿童性虐待材料(CSAM)图像的系统、模糊信息应用中的性爱照片的选项及Siri的儿童剥削资源。
苹果最初表示,CSAM检测将在2021年底之前在iOS15和iPadOS15的更新中实施,但该公司最终根据客户、宣传团体、研究人员和其他人的反馈推迟了该功能。
2021年9月,苹果在其儿童安全页面发布了以下更新:“之前我们宣布了一些功能计划,旨在帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害并帮助限制儿童性虐待材料的传播。根据客户、宣传团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些极其重要的儿童安全功能。”
2021年12月,苹果从其儿童安全页面上删除了上述更新和所有关于CSAM检测计划的内容,但苹果的一位发言人告诉The Verge,公司对该功能的计划并未改变。然而,据macrumors所知,自那时起,苹果没有公开评论过该计划。Macrumors已经联系了苹果以询问该功能是否仍在计划中,但苹果没有立即回应评论请求。
苹果确实在2021年12月发布的iOS 15.2和其他软件更新中推进了信息应用和Siri的儿童安全功能的实施,另外还在2022年5月发布的iOS 15.5和其他软件中将信息应用功能扩展到澳大利亚、加拿大、新西兰和英国。
苹果表示,其CSAM检测系统在设计时考虑到了用户隐私。该系统将使用来自儿童安全组织的已知CSAM图像哈希值数据库进行设备上的匹配,苹果则会将其转化为不可读的哈希值集从而可以安全地存储在用户的设备上。
苹果计划向美国家失踪与被剥削儿童中心(NCMEC)报告有已知CSAM图像哈希值的iCloud账户,该中心是一个跟美国执法机构合作的非营利组织。苹果表示,将有一个“门槛”来确保“每年少于一万亿分之一的机会”的账户被系统错误标记,另外还有人工审查标记的账户。
苹果的计划受到了广泛的个人和组织的批评,这当中包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员甚至一些苹果自己的员工。
一些批评者认为,苹果的儿童安全功能可能为设备创造一个“后门”,政府或执法机构可以利用它来监视用户。另一个问题是误报,包括有人可能故意将CSAM图像添加到另一个人的iCloud账户中从而使其账户被标记。