苹果将向安全研究人员支付高达100万美元的费用 以考验其私有AI云
在下周被称为Private Cloud Compute的苹果私有 AI 云亮相之前,这家技术巨头表示将向安全研究人员支付高达 100 万美元的报酬,以寻找可能危及其私有 AI 云安全的漏洞。
在苹果的安全博客上发布的一篇文章中,该公司表示,如果有人报告能够远程在其私有云计算服务器上运行恶意代码的漏洞,它将支付最高 100 万美元的赏金。 苹果表示,如果研究人员私下报告能够提取用户敏感信息或客户向公司私有云提交的提示信息的漏洞,也将获得最高 25 万美元的奖励。
苹果表示,它将"考虑任何具有重大影响的安全问题",包括能够从特权网络位置访问敏感用户信息的漏洞,最高可获得 15 万美元的奖励。对于在(私有云计算)信任边界之外泄露用户数据和推理请求数据的漏洞,将给予最高金额的奖励。
这是苹果对其漏洞赏金计划的最新逻辑延伸,该计划为黑客和安全研究人员私下报告可能被用于入侵其客户设备或帐户的缺陷和漏洞提供经济奖励。
近年来,苹果公司通过创建专为黑客攻击而设计的研究人员专用 iPhone,开放了其旗舰 iPhone 的安全管理通道,以提高该设备的安全性,而该设备近年来经常成为间谍软件制造商的攻击目标。
苹果在博客中披露了更多有关其私有云计算机服务安全性的信息,以及源代码和文档:
https://security.apple.com/blog/pcc-security-research/
苹果公司称其私有云计算是客户设备上人工智能模型的在线扩展,该模型被称为 Apple Intelligence,可以处理更繁重的人工智能任务,苹果公司称这种方式可以保护客户的隐私。
其他公司的许多 AI 应用程序也依靠服务器来完成更高难度的请求。 尽管如此,用户对这些基于服务器的操作的安全性并不十分了解。 当然,苹果公司多年来一直在宣扬其对用户隐私的关注程度,因此设计不佳的人工智能云服务器可能会破坏这一形象。 为了防止出现这种情况,苹果表示其设计的 PCC 使公司的安全和隐私保证具有可执行性,并且安全研究人员可以独立验证这些保证。
对于研究人员,苹果公司将提供:
安全指南 阐述了 PCC 的技术细节
"虚拟研究环境" 可让研究人员在 Mac 上对 PCC 进行安全分析(需要使用配备 Apple Silicon 和 16GB 以上内存的 Mac,并运行最新的 macOS Sequoia 15.1 开发人员预览版)
GitHub 上"有助于实现其安全和隐私要求的 PCC 某些关键组件"的源代码
通过漏洞赏金计划,苹果公司将为在几个不同类别中发现的漏洞提供 5 万至 100 万美元的奖励。 苹果还将对任何"对 PCC 有重大影响"的安全问题进行评估,以获得潜在奖励。
首批 Apple Intelligence 功能将于下周 iOS 18.1 面向所有人推出。 包括 Genmoji 和 ChatGPT 集成在内的一些大型 Apple Intelligence 功能已出现在昨天发布的首个 iOS 18.2 开发者测试版中。