返回上一页  首页 | cnbeta报时: 14:48:32
马斯克推文七连发 苹果智能究竟冤不冤?
发布日期:2024-06-14 14:25:25  稿源:快科技

在批判OpenAI这件事上,马斯克总是冲在第一线,孜孜矻矻营业,不遗余力地揭示OpenAI在迷失本心、AGI安全治理、信息泄露等方面的诸多问题。这次也不例外。6月11日,在苹果 WWDC 2024开发者大会上宣布OpenAI合作、将在苹果系统集成ChatGPT几小时后,马斯克在自家社交平台X上连发七条推文指责这一行为对用户隐私的侵犯和数据安全的威胁。

表示“一旦苹果将你的数据交给 OpenAI,他们就不知道到底发生了什么。他们正在出卖你。”

“苹果不够聪明,无法制造自己的人工智能,但却能够确保 OpenAI 保护您的安全和隐私,这显然是荒谬的!”“如果苹果在操作系统层面整合OpenAI,那么苹果设备将在我的企业被禁止。这是不可接受的安全违规行为。”

“游客必须在门口检查他们的Apple设备,然后将它们存放在法拉第笼中”。

图源:X平台

对此,英国斯塔福德郡大学伦理与游戏技术教授凯瑟琳·弗利克表示,苹果的人工智能方法实际上比其他公司更注重隐私,其目标是尽可能多地在设备上处理数据,并在将信息发送给 OpenAI 之前明确询问用户。

“该工作流程最终如何在实践中应用还有待观察,但这感觉就像是马斯克的酸葡萄心态,他经营着一家竞争对手的人工智能公司,但该公司并未获得利润丰厚的苹果合同。”

约翰霍普金斯大学教授密码学的计算机科学副教授马修格林同样认为,苹果似乎并没有像马斯克所声称的那样在操作系统层面整合 OpenAI。

“听起来他们没有在操作系统层面嵌入任何东西。他们没有把它作为任何默认设置。他们在 Siri 中构建了一些可选功能,你必须明确打开它才能使用 ChatGPT。这听起来和伊隆·马斯克描述的很不一样。”

对此,苹果在一份新闻稿中表示:“访问 ChatGPT 的用户内置了隐私保护功能——他们的 IP 地址会被隐藏,而且 OpenAI 不会存储请求”。

作为OpenAI 的联合创始人,抛开马斯克站在用户角度为数据安全发声的道德正义感,与OpenAI在结下的梁子让马斯克自2018年2月离开OpenAI董事会后一直与该公司处于不对付的状态,而此次OpenAI和苹果合作对xAI业务版图的冲击或可构成马斯克向苹果“开炮”的直接原因。

苹果与OpenAI的具体合作主要是将在今年秋季推出的下一代苹果操作系统软件中为 iPhone、iPad 和 Mac 用户带来生成式人工智能功能。

该消息包括一项协议,让苹果用户可以访问 OpenAI的 ChatGPT。此外Apple Intelligence也将进行新功能开发,包括重写或总结笔记的能力,以及 Siri 理解对话上下文的改进能力。

用户可以选择通过苹果的虚拟助手 Siri 访问 ChatGPT,并使用新的写作工具来校对写作、以各种风格重写副本并快速总结长篇文本。

开发者大会上苹果还表示,打算“在未来增加对其他人工智能模型的支持”——这是对 ChatGPT 竞争对手的一个含蓄的暗示。

在WWDC 主题演讲中,苹果详细讨论了其AI系统的安全性和隐私方面,包括用于管理个人设备与在云端工作的 Apple 远程服务器之间通信的私有云计算,并表示 Apple Intelligence 将为“ AI 隐私树立新标准”。

为了实现这一目标,苹果表示,某些与人工智能相关的任务将在设备上处理,而更复杂的请求将被路由到运行苹果制造的芯片的数据中心的云端。

该公司表示,无论哪种情况,“数据都不会被存储或供苹果访问,只会用于满足用户的请求,独立专家可以验证这一隐私。”

针对苹果而言,选择与OpenAI合作可以争取时间差,腾出手来专注于自研大型模型的深化开发。

股票分析师 Matt Britzman认为,“对于苹果来说,这是一个关键时刻,该公司最近在创新方面遇到了困难。整合 ChatGPT 这样的第三方工具终于让事情有了进展,同时为未来几年开发内部模型留出了空间,而且成本比先行者低得多。”

对于Open.AI而言,若能与苹果达成合作,便意味着能够接触到苹果那庞大的用户基础与丰富的数据资源。

这将使其能够立即利用全球最具影响力的苹果生态系统中的数据,来训练和完善自己的大型模型。不仅如此,Open.AI还有机会触及到全球支付能力最强的消费群体。

作为直接竞对,而两者的一合作无疑对xAI的业务市场和发展前景造成一定的冲击。因而,马斯克在为苹果用户发声的背后,也可以理解成在为xAI发声。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 14:48:32

文字版  标准版  电脑端

© 2003-2024