返回上一页  首页 | cnbeta报时: 15:05:31
苹果公司在WWDC详解人工智能模型如何保护数据隐私
发布日期:2024-06-14 14:33:51  稿源:cnBeta.COM

在本周一举行的 WWDC 大会上,苹果公司发布了 Apple Intelligence,这套功能为 iPhone、iPad 和 Mac 带来了改写电子邮件草稿、汇总通知和创建自定义表情符号等人工智能生成工具。苹果公司在主题演讲中花了很大篇幅来解释这些工具有多有用,并用几乎同样多的时间向客户保证新的人工智能系统将如何保护你的数据隐私。

苹果公司在其主题演讲中开始解释这种生成式人工智能的双重方法,并在随后的论文和演讲中提供了更多细节。他们表示,Apple Intelligence 以设备为基础,可以快速完成用户所需的常见人工智能任务,如转录电话内容和安排日程。不过,苹果智能还可以向云服务器发送更复杂的人工智能请求,包括发送个人上下文数据--确保两者都能提供良好的结果,同时保证数据的私密性是苹果的工作重点。

最大的新闻是,苹果正在为"苹果智能"(Apple Intelligence)使用自制的人工智能模型。苹果公司指出,它不使用私人数据或用户互动来训练模型,这与其他公司相比是独一无二的。相反,苹果同时使用授权资料和由公司的 Applebot 网络爬虫抓取的公开在线数据。如果出版商不想让苹果公司获取他们的数据,就必须选择退出,这听起来与Google和OpenAI 的政策类似。苹果公司还表示,它会省略输入网上流传的社会保险号和信用卡号,并忽略"亵渎和其他低质量内容"。

苹果智能系统的一大卖点是它与苹果操作系统和应用程序的深度整合,以及该公司如何优化其模型以提高能效并使其尺寸适合 iPhone。将人工智能请求保持在本地是消除许多隐私担忧的关键,但这样做的代价是在设备上使用更小、功能更弱的模型。

Screenshot_2024_06_11_at_9.16.47_AM.jpg

为了让这些本地模型发挥作用,苹果采用了微调技术对模型进行训练,使其在校对或总结文本等特定任务中发挥更好的作用。这些技能以"适配器"的形式存在,可以铺设在基础模型上,并根据手头的任务进行更换,类似于在角色扮演游戏中为角色应用增强属性。同样,苹果公司为 Image Playground 和 Genmoji 设计的扩散模型也使用适配器来获得不同的艺术风格,如插画或动画(使人和宠物看起来像廉价的皮克斯角色)。

苹果公司表示,它已对模型进行了优化,以加快从发送提示到做出响应的时间,并采用了"投机解码"、"上下文剪除"和"分组查询关注"等技术,以利用Apple Silicon的神经引擎。芯片制造商最近才开始在芯片中添加神经内核(NPU),这有助于在处理机器学习和人工智能算法时减轻 CPU 和 GPU 的带宽。这也是只有配备 M 系列芯片的 Mac 和 iPad 以及 iPhone 15 Pro 和 Pro Max 支持苹果智能的部分原因。

这种方法与我们在 Windows 领域看到的情况类似:英特尔推出的第 14 代 Meteor Lake 架构采用了带有 NPU 的芯片,高通公司为微软 Copilot Plus PC打造的全新 Snapdragon X 芯片也配备了 NPU。因此,Windows 上的许多 AI 功能都被限制在新的设备上,这些设备可以在这些芯片上执行本地工作。

Screenshot_2024_06_11_at_10.35.38_AM(1).jpg

根据苹果公司的研究,在 750 个文本摘要的测试回复中,苹果设备上的人工智能(配有适当的适配器)比微软的 Phi-3-mini 模型更能吸引人类。如今大多数聊天机器人服务都在云端使用大得多的模型来实现更好的效果,而这正是苹果在隐私问题上努力谨慎行事的地方。为了与更大型的机型竞争,苹果正在构思一种无缝流程,向云服务器发送复杂的请求,同时还试图向用户证明他们的数据仍然是私密的。

图片.png

如果用户请求需要功能更强的人工智能模型,苹果会将请求发送到其私有云计算(PCC)服务器。PCC 在基于"iOS 基础"的自有操作系统上运行,它有自己的机器学习堆栈,为苹果智能提供动力。据苹果公司称,PCC 拥有自己的安全启动和安全飞地(Secure Enclave),用于保存只适用于请求设备的加密密钥,而可信执行监控器(Trusted Execution Monitor)则确保只有经过签名和验证的代码才能运行。

苹果公司称,用户的设备在发送请求前会与 PCC 集群建立端到端加密连接。苹果表示,由于 PCC 中没有服务器管理工具,因此无法访问 PCC 中的数据,也就不存在远程 shell。苹果也没有给 PCC 提供任何持久存储空间,因此从苹果智能语义索引中提取的请求和可能的个人上下文数据显然会在之后被云删除。

PCC 的每个构建都将有一个虚拟构建,供公众或研究人员检查,只有被记录为检查过的签名构建才会投入生成。

其中一个悬而未决的问题是,究竟哪些类型的请求会被转到云端。在处理请求时,Apple Intelligence 有一个名为"协调"(Orchestration)的步骤,它可以决定是在设备上进行还是使用 PCC。我们现在还不知道什么是足够复杂的请求,以至于要触发云处理,可能要等到秋季 Apple Intelligence 上市后才能知道。

苹果公司还有一种解决隐私问题的方法:把它变成别人的问题。苹果公司改进后的 Siri可以向云端的ChatGPT发送一些查询,但只有在你提出一些非常棘手的问题后才会得到许可。这一过程将隐私问题转移到了 OpenAI 和用户手中,前者有自己的政策,后者必须同意卸载他们的查询。苹果公司首席执行官蒂姆-库克(Tim Cook)在接受马克斯-布朗利(Marques Brownlee)采访时说,如果请求涉及"世界知识",而"超出了个人语境的范畴",就会要求使用 ChatGPT。

苹果公司对苹果智能系统采用本地和云端分离的方法并不完全新颖。Google的 Gemini Nano 型号可以在Android设备上本地运行,而 Pro 和 Flash 型号则在云端处理。与此同时,微软的 Copilot Plus PC 可以在本地处理人工智能请求,同时该公司继续依靠与 OpenAI 的合作,并建立自己的 MAI-1 模型。相比之下,苹果的竞争对手都没有如此彻底地强调自己的隐私承诺。

当然,这一切在演示和编辑的文件中看起来都很不错。然而,真正的考验将在今年晚些时候,当我们看到苹果智能的实际应用时。我们将拭目以待,看看苹果能否在优质人工智能体验和隐私保护之间取得平衡,并在未来几年继续发展。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 15:05:31

文字版  标准版  电脑端

© 2003-2024