苹果称其iCloud扫描计划将依靠多个儿童安全团体来解决隐私方面的担忧
据外媒The Verge报道,苹果公司已经提供了更多关于其即将通过用户的iPhone和iPad扫描iCloud照片以寻找儿童性虐待材料(CSAM)的计划的细节。该公司发布了一份新的文件,深入探讨了它希望能提高用户对该计划的信任的保障措施。这包括一项规则,即只标记在具有不同政府背景的多个儿童安全数据库中发现的图像--理论上可以阻止一个国家将非CSAM内容添加到该系统中。
苹果即将发布的iOS和iPadOS将自动将美国的iCloud照片账户与儿童安全组织编制的图像哈希列表中的已知CSAM进行匹配。虽然许多公司远程扫描云存储服务,但苹果基于设备的策略引起了一些密码学和隐私专家的强烈批评。
这篇名为“苹果公司儿童安全功能的安全威胁模型审查”的论文,希望能缓解人们对这一推出的隐私和安全问题。它建立在《华尔街日报》对苹果高管Craig Federighi的采访基础上,后者在周五上午概述了一些信息。
在该文件中,苹果公司表示,它不会依靠单一的政府附属数据库--如美国国家失踪与被剥削儿童中心(NCMEC)的数据库--来识别CSAM。相反,它将只匹配来自至少两个具有不同国家背景的团体的照片。其目的是,没有一个政府可以有权力为审查目的秘密插入不相关的内容,因为它不会与任何其他数据库中的哈希值相匹配。
苹果已经提到了可能使用多个儿童安全数据库,但直到周五,它还没有解释重叠系统。在与记者的通话中,苹果公司表示,它只提到了NCMEC,因为它还没有与其他团体敲定协议。
该文件证实了Federighi提到的一个细节:最初,苹果只在识别出30张图片为CSAM时才会标记一个iCloud账户。论文指出,这个阈值是为了提供一个 “严格的安全系数”,以避免误报,而且随着评估系统在现实世界中的表现,"我们可能会改变这个阈值"。
该公司还提供了关于Federighi提到的一个审计系统的更多信息。苹果的已知CSAM哈希列表将被植入全球的iOS和iPadOS,尽管扫描系统目前只在美国运行。苹果将提供一个完整的哈希列表,审计人员可以根据儿童安全数据库进行检查,这是确保它没有秘密匹配更多图像的另一种方法。此外,该公司表示它将“拒绝所有要求”,让版主为被标记的账户报告“除CSAM材料以外的任何东西”--指的是将这个系统用于其他类型的监控的可能性。
Federighi承认,苹果在上周的公告中引入了“混乱”。但是,苹果公司支持这一更新本身。该公司一位代表告诉记者,尽管它仍在最后确定和迭代细节,但它没有因过去一周的批评而改变其发布计划。