据彭博社报道,苹果正在开发的更智能、更强大的Siri版本将采用由Google开发的Gemini人工智能模型。苹果将为这款拥有1.2万亿参数的AI大模型每年支付Google约10亿美元。

参数数量是衡量模型理解和应答能力的重要指标。参数越多,模型通常功能越强,但训练方式和架构也会影响效果。据悉,GoogleGemini模型的参数数量远超苹果目前所采用的AI模型。
当前基于云的Apple Intelligence(Apple Intelligence)版本使用了1500亿参数,但苹果自家其他AI模型的具体参数量尚未公布。
苹果计划将Gemini用于总结、复杂任务规划和执行等多步骤功能,部分Siri特性仍将采用苹果自家AI模型。值得注意的是,Google为苹果开发的Gemini将在苹果的专用私有云服务器上运行,Google无法访问苹果用户的数据。
Gemini采用“专家混合架构”,虽然总参数逾万亿,但每次查询只激活部分参数。这一设计允许兼具大算力和较低运算成本。
苹果曾考虑采用自家大模型,也测试过OpenAI和Anthropic的方案,但最终因Anthropic收费过高而选择了Google Gemini。事实上,Google已与苹果在搜索引擎领域有长期合作,每年向Apple Pay约200亿美元以成为苹果设备的默认搜索引擎。
苹果目前虽依赖GoogleAI,但仍致力于自主研发,并计划待自家大模型成熟后转用自家方案。据悉,苹果正在构建一款拥有1万亿参数的云端模型,最快或于2026年投入使用。苹果在开发过程中不太可能主动公开与Google的合作细节。
原计划Siri将在iOS 18中更新,但因架构上的问题推迟至2026年春季的iOS 26.4版本。届时,新版Siri将能够应对更复杂的提问,并在各应用间完成更繁琐的任务,功能接近Claude和ChatGPT。但苹果目前并未规划单独的聊天机器人应用。