今日,科技界一条重磅消息“刷屏”了。
苹果和 Google 发布联合声明,称双方已达成合作协议,苹果决定常规性地接入谷歌 Gemini,将其作为苹果 AI 的“核心大脑”。
这意味着,未来 iPhone、iPad 和 Mac 上的 AI 能力,其“智力”来源很大程度上是谷歌的技术。
同时,相关协议显示,基于此技术,全新且更具个性化的 Siri 预计将在今年晚些时候推出。
据悉,该模型将负责 Siri 系统级的推理、个性化服务(如理解屏幕内容、跨App操作)。这意味着它能像人一样进行多步骤的逻辑思考,处理能力较旧版将有显著提升。
举个例子,你截图了一张机票信息,现在的 Siri 可能只能识别图上的字;而未来的 Siri 能直接理解你的动机:
这是xx的航班,TA多久到,我可以帮你设置个闹钟,并且查一下去机场的路况。
这种改变将让苹果 AI 从一个“聊胜于无”的玩具,变成一个真正能帮你干活的生产力工具。
值得一提的是,OpenAI 此前曾和苹果达成了合作。2024 年 WWDC上,双方首次宣布联手。
彼时,ChatGPT 是作为 Siri 的“补充知识库”出现的。当 Siri 遇到不懂的问题时,它会停下来问用户:“是否希望用 ChatGPT 来完成这个请求?”
苹果展示“Siri 请求是否可以向ChatGPT发送询问”
那时,OpenAI 是苹果唯一且高调官宣的 AI 合作伙伴。对于 OpenAI 来说,能进入 iPhone 的原生系统,是其商业化和品牌曝光上的巨大胜利。
当大家以为 ChatGPT 会深度融入 Siri 时,苹果转头与谷歌宣布深度合作,ChatGPT 似乎被“踢”到了应用层,它现在更像是一个第三方插件或竞品功能,只在 Siri 处理不了或者用户明确要求时才被调用。不过,苹果方面也称,与谷歌达成合作协议后,不会对现有与Open AI的协议做出改变。
实际上,苹果选择谷歌并非仓促之举,而是基于多方面的考虑。苹果此前测试了谷歌 Gemini、OpenAI ChatGPT、Anthropic Claude三大主流模型,最终敲定 Gemini,是因其在工程部署与成本控制上更具优势。
消息显示,苹果在测试前述三种模型后发现,Anthropic 的 Claude 年合作成本可能超过 15 亿美元,而谷歌的报价和成本结构更友好。苹果将每年向谷歌支付 10 亿美元作为底层技术授权费。
据悉,苹果看中的是 Gemini 2.5 Pro,这是一个拥有 1.2 万亿参数的“巨无霸”模型。相比之下,苹果目前自研的云端模型只有约 1500 亿参数。
这种量级的提升,将直接解决旧版 Siri “听不懂人话”、无法处理复杂指令的痛点。
Gemini 采用了“混合专家”架构。简单来说,虽然它总共有 1.2 万亿参数,但每次回答问题时,只激活其中一部分参数。
这种设计在保证了高智能水平的同时,极大地控制了计算成本和能耗。这对于需要处理海量用户请求的苹果来说,意味着服务器账单不会“爆炸”,也更容易适配 iPhone 和 Mac 的能效限制。
苹果方面表示,经过评估认为,谷歌的 AI 技术为其基础模型提供了“最强大的基础”。
不过,部分用户担心用了谷歌的模型,隐私可能会被谷歌拿走。其实无需担心,一直以来,苹果都注重用户隐私。
据悉,谷歌在与苹果的合作中同意了一个非常关键的条件:Gemini 模型将运行在苹果自有的“私有云计算”服务器上,所有的用户数据都在苹果控制的服务器内流转。
这意味着,谷歌只能提供模型技术,但完全接触不到苹果用户的个人数据。
当然,与谷歌合作,并非意味着苹果将放弃“全栈自研”。
美国科技网站Appleinsider指出,通过本次非独家协议,苹果与谷歌的合作仅限于底层技术优化,而非系统层面的替代,苹果依然牢牢掌握着Siri和Apple Intelligence的控制权,Gemini 模型则主要在后台协助训练和优化苹果自研的模型。
而苹果自己的万亿参数大模型预计要到 2027 年才能成熟,在这之前,利用 Gemini 进行“强化学习”,可以将苹果自家的 AI 模型打磨得更聪明,快速达到世界级水平。因此,谷歌 Gemini 可以看作是苹果急需的一个来填补空窗期的“外援”。
不过,这些和国内用户都没有多大关系,国行苹果 AI 大概率是与本土厂商合作,或者使用特别版模型,以符合国内的监管要求。
编辑:cc
电脑报微信公众号迁移工作已完成,感谢各位粉丝读者的支持与关注!如果想第一时间收到电脑报的最新消息,更快找到我们不迷路~请大家动动手指,为我们点亮星标吧!
往期内容推荐

