返回上一页  首页 | cnbeta报时: 15:02:38
Gemini并不会接管你的iPhone 苹果仍掌控Siri与Apple Intelligence
发布日期:2026-01-13 13:14:11  稿源:cnBeta.COM

近期,苹果确认将在新一代个性化 Siri 和 Apple Intelligence 战略中引入Google的大模型 Gemini,引发部分用户担忧“Google AI 将侵入设备、Siri 被 Gemini 接管、用户数据大量流向Google”等说法,但这些都与事实不符。 苹果与Google达成的是一项模型授权与训练合作安排,最终在 iPhone 上实际运行、面向用户的,仍然是苹果自有的 Apple Foundation Models,而非Google的 Gemini 模型本身。

根据披露的信息,苹果此前基于“应用意图”(app intents)的新一代 Siri 和 Apple Intelligence 原计划更早推出,却因内部承认的技术路径问题而推迟,这段时间外界不断出现“苹果在 AI 竞赛中落后”“应直接外包给第三方”的唱衰报道。 实际上,苹果选择的是一种早有传闻的路线:以每年约 10 亿美元的规模向Google授权一款参数规模达 1.2 万亿的 Gemini 模型,用作训练和增强 Apple Foundation Models 的工具,而不是把 Gemini 直接嵌入苹果操作系统取而代之。

苹果与Google的联合声明虽措辞刻意含糊,但有一点非常明确:Gemini 将作为“基础”参与构建升级后的 Apple Foundation Models,不过最终对用户提供服务的仍是苹果模型。 苹果强调,在这一合作模式下,苹果不会向Google提供任何用户数据,Gemini 也不会以可见形式出现在 iPhone 上,更不会作为系统级 AI 直接运行在用户设备之中。

就像 iPhone 使用台积电芯片、三星屏幕,但没人会说“iPhone 是三星的”,Gemini 在这里扮演的角色是训练工具,而成品则是苹果的 Foundation Models。 依据报道,苹果正在推进自研约 1 万亿参数级别的大模型,目标是在 2027 年左右投入使用;即便届时模型就绪,苹果仍可能继续让 Gemini 参与对比、强化和再训练,以提升自家模型质量。

对普通用户而言,最终呈现的是一套在本地和苹果服务器上运行的智能工具:更具个性化的新 Siri,以及基于应用意图框架的 Apple Intelligence 功能。 从界面交互看,用户依旧在与“苹果的 Siri”对话,后台调度和推理由 Apple Foundation Models 完成,Google模型处于训练端而非推理端,数据不会在面向用户服务的环节流向Google。

这笔交易对苹果、注重隐私的用户以及Google而言都可谓“三赢”。 苹果迅速获得业界领先模型作为训练支撑,提升自家 AI 能力;隐私层面则维持现有的苹果标准;Google则在不接触苹果用户数据的前提下获取可观授权收入。 唯一被视为“输家”的,是那些本就希望整套生成式 AI 浪潮彻底消失的人,因为当前大模型训练仍然高度依赖对互联网公开信息的爬取。

这份简短声明仍留下不少悬而未决的问题,包括合作条款细节、时长,以及 Gemini 是否未来会像 ChatGPT 一样,作为可选外部模型,通过 Siri 入口被用户主动调用。 目前在 Visual Intelligence 功能中,苹果已经允许用户将图片发送至Google反向图片搜索,因此未来以类似方式扩展到 Gemini 进行更广泛查询在技术上可行,只是苹果暂未在声明中提及。

值得注意的是,这一合作与苹果与Google在搜索领域的合作有本质差异:后者面向用户,用户可以直接感知“默认搜索引擎是Google”;而 Gemini 训练 Apple Foundation Models 的过程则对用户完全“隐身”。 用户与 Siri 交互时不会看到任何 Gemini 标志,也无须分辨“这是苹果还是Google”,因为终端产品整体仍由苹果掌控、部署在苹果控制的服务器和本地设备上运行。

苹果与 OpenAI/ChatGPT 的关系在这次简短声明中没有被正面提及,但一般认为既有合作不会因此受影响。 与此同时,埃隆·马斯克再次公开抨击苹果与Google的 AI 合作,称其造成了“Google权力过度集中”,但文章认为这一说法建立在对技术架构和合作模式的根本误解之上,因为Google在此并不接触用户数据,只是提供模型授权并收取费用。

针对坊间“苹果在 AI 上已举白旗投降”的论调,文章给出明确反驳,认为这是对苹果 AI 战略的误读。 苹果近年来在 AI/ML 研究、底层技术以及硬件方面投入巨大,且产出大量研究论文和芯片优化成果,只是面向普通消费者的 AI 功能落地节奏较慢、体验欠佳,给人一种“缺席竞赛”的错觉。

借助 Gemini 作为训练工具,苹果能够在落地层面迅速起跳,利用早已铺好的应用意图框架,把设备功能系统化暴露给 AI,再由 Apple Foundation Models 和 Siri 充当用户接口。 真正的挑战反而来自舆论与公关层面:即便苹果技术路线清晰且隐私设计完善,未来一旦新功能推出,仍可能不断遭遇“其实是 Google Gemini 在底层跑”的误解和标签。

这一局面与苹果历史上的一些合作并无本质不同:例如在Apple Maps推出前先使用Google地图,或通过与Google达成高额分成协议提供Google搜索作为默认引擎。 如今,苹果在大模型训练上需要一个加速器,于是选择与行业龙头合作,最终成果仍是更强的本地化、隐私友好的 Apple Foundation Model,用户是直接受益者。

苹果并未且不会将 iPhone 的技术栈交给Google,用户无需担心苹果会把数据“打包交给”合作方,因为这违背了其长期构建的隐私与安全承诺,也不符合这次协议的技术结构。 苹果通过自有硬件(如 iPhone 17 Pro 与 Pro Max 中专为 AI 优化的芯片)、本地推理能力和 Private Cloud Compute 架构,力图打造一个从端到云始终以隐私为中心的 AI 系统。

苹果在 AI 竞赛中的“终局优势”来自其长期主义和“隐私优先”的整体生态,而非短期功能数量之争。 与竞争对手相比,苹果更易提供一套既易用又真正有用、同时对用户数据有更强保护承诺的智能系统,而 app intents 等机制让这种系统级 AI 接入设备功能的能力更具一体化优势。

赢得“AI 竞赛”的并非最先推出聊天机器人或参数最多的公司,而是能为普通用户提供简单易用、实用可靠 AI 系统的厂商。 就目前的规划和技术栈来看,苹果在这一方向上已处于有利位置,接下来就看 iOS 26.4 等版本在正式发布后,苹果能否兑现这一蓝图。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 15:02:38

文字版  标准版  电脑端

© 2003-2026