【文章来源:techweb】
在连续数次跳票之后,AI 版 Siri 终于要来了。这个乔布斯时代的远古语音助手终于要有点智能了,而这背后折射出的,是苹果在 AI 时代的尴尬与落伍。
10 亿美元买模型
最了解苹果的彭博记者古尔曼 (Mark Gurman) 昨天爆出重磅消息。苹果已与谷歌达成协议,在新版 Siri 上使用定制的谷歌 Gemini AI 大模型。苹果将为此每年向谷歌支付约 10 亿美元。新的 AI 版 Siri 将在明年春季通过 iOS 26.4 更新推出。
这一消息验证了库克上周的表述。上周的苹果财报发布后,苹果 CEO 库克在电话会议中确认,新 Siri 将在明年春天发布。苹果和谷歌发言人都拒绝对此置评,这也是以往的合作惯例。
值得一提的是,苹果将在其私有云服务器上运行定制的 Gemini 模型,同时继续使用内部模型来为某些 Siri 功能提供动力。具体而言,当用户查询可用较低功耗的设备端模型解答时,苹果仍将通过自研模型提供;当 Siri 需执行复杂任务或总结信息时,将自动切换至谷歌 Gemini。
不过苹果会设置隐私保护措施,只在苹果服务器基础设施上运行谷歌模型,而不进行任何外部数据共享来保护。这意味着苹果用户数据将完全隔离,Gemini 开发商谷歌将无法访问,从而更好保护苹果用户的隐私。这是苹果设备的最大卖点。
据彭博社报道,苹果先后测试了谷歌 Gemini、OpenAI 的 ChatGPT 和 Anthropic 的 Claude 之后,最终选择了谷歌。显然,苹果需要的是一个不笨拙、可靠、可依赖于广泛基线任务和查询、用户完全信任隐私的 Apple Intelligence 版本。同时,苹果未来可以轻松切换到另一个供应商或自己的自研模型。
每年 10 亿美元的 AI 大模型采购费,对富可敌国的苹果来说不过是九牛一毛。苹果去年营收已经接近 4000 亿美元,年利润已经接近 1000 亿美元。而且,谷歌每年还要向苹果支付 200 亿美元的买路费,换得苹果 Safari 浏览器将谷歌设为默认搜索引擎,因为这是谷歌最重要且最具价值的流量来源之一。
在 AI 时代落后许久的苹果指望谷歌的大模型,来重建 Siri 的底层技术,为明年推出一系列新功能奠定基础。此次苹果定制的 Gemini 模型将使用 1.2 万亿个参数来帮助生成响应,这远远超过目前支持 Apple Intelligence 的 1500 亿参数模型。
自主开发大模型
与谷歌定制 Gemini 大模型只是苹果的过渡计划,苹果依旧希望将 AI 大模型核心技术掌握在自己手中,还在自行研发 1 万亿参数模型。但目前还没有明确的时间线,完全取决于苹果自己的大模型是否满足需求。
核心技术必须自主自研,绝不能受制于竞争对手,这是苹果的基本战略。无论是移动还是桌面,苹果都已经全面转用自家的 A 和 M 处理器。只是因为产品还不够成熟,才暂时向高通采购 5G 基带芯片。
当时苹果正在与高通进行世纪诉讼大战,但无奈英特尔基带业务始终无法拿出成熟商用的 5G 基带芯片。苹果担心核心业务 iPhone 在 5G 时代掉队,只能被迫放弃诉讼,与高通达成庭外和解,向高通支付专利授权费,从而向高通采购 5G 基带芯片。
不过苹果并没有放弃核心技术自主的计划。随后苹果就收购了英特尔的基带芯片业务,独立开发自己的基带芯片,整整五年时间之后,今年苹果终于在 iPhone 16e 和 iPhone Air 用上了自家基带芯片。随着苹果 C 系列基带芯片的逐渐成熟,必然会逐渐取代目前旗舰产品的高通基带芯片。
对苹果用户来说,苹果 Gemini 加持的 AI 版新 Siri 终于有盼头了,这无疑是渴望已久的好消息。苹果早在 2024 年的 WWDC 上就发布了 Apple Intelligence,但其中最为核心的 Siri AI 升级却持续跳票,今年的 WWDC 上更是避之不提,让用户和投资者倍感失望。
AI 已经成为智能手机的必备功能。在 Android 系统层面,谷歌早已整合了大语言模型 Gemini;而在中国市场,多家厂商也发布了各自的大模型和 AI 智能体。在这样的竞争环境下,苹果始终无法拿出成熟 AI 大模型无疑令人质疑这家公司的竞争力。
起了大早却赶晚集
过去两年时间,AI 已经成为资本市场的主线叙事。英伟达、微软、谷歌、Meta 等巨头企业不断发布大模型和 AI 处理器,市值屡创新高。英伟达更是超越苹果,成为全球市值最高的上市公司。生成式 AI 的代表企业 OpenAI 估值超过了 5000 亿美元,成为全球最具价值的创业公司。
相比之下,苹果在这个喧闹的 AI 时代却显得异常低调,因此拖累了苹果股价表现疲软。虽然苹果长期在设备端使用机器学习,但大多局限于照片识别、语音识别、健康监测等具体场景,始终没有推出 「ChatGPT 级」 的旗舰型 AI 产品。
投资者因此担心,苹果在 「AI 时代的操作系统入口」 竞争中落后于微软 (Windows + Copilot) 和谷歌 (Android + Gemini)。特别是在 iPhone 销售在中国市场放缓、服务业务增长趋缓的背景下,苹果缺乏 AI 新故事就显得更加致命。
眼看着 AI 版本的 Siri 持续跳票,苹果终于坐不住,不得不使用谷歌的大模型来暂时救急。讽刺的是,Siri 曾经是智能语音助手的开创者。还记得 2011 年 10 月,苹果语音助手 Siri 随 iPhone 4S 首次亮相,这是乔布斯去世前敲定的新功能。
虽然体验和现在的 AI 完全不可同日而语,但当时的 Siri 却让人感觉像是科幻小说中的产物,直接带动了 iPhone 销量的持续增长,更让人赞叹苹果又一次引领行业技术潮流。Siri 比亚马逊的 Alexa 早了整整三年,也领先于谷歌的 Google Now。
但 Siri 的先发优势很快就被竞争对手完全超越。谷歌的 Google Assistant 迅速成为了自然语言理解的黄金标准,能识别不同口音,理解上下文,擅长回答复杂查询,直接给出针对性回应。相比之下,停滞不前的 Siri 显得像是上个时代的笨拙产品:只能提供天气等极为基础的信息,大多数时候只能表达无能为力。
连续跳票高层尴尬
到了 AI 时代,苹果的无所作为更是令人难以置信。谷歌有业界最完整的 AI 生态体系;微软在开发自己模型的同时,也迅速押注在 OpenAI 上;而苹果却什么动静都没有。不仅没有自己的 AI 大模型,就连与外部合作方面都显得异常迟缓。2024 年上半年,苹果股价持续下滑了 10%。
苹果高层终于坐不住了。去年 6 月,苹果才在 WWDC 上展示了加载 ChatGPT 的 Apple Intelligence,提供了文本处理、图像生成、内容摘要等基础 AI 功能。苹果利用自家芯片与云端模型来理解和创建语言和图像,跨应用执行操作,并从个人情境中提取信息。
然而,苹果 AI 的落地步伐却一再推迟,让原本翘首以待的用户大失所望。当年 9 月 iOS 18 发布时,Apple Intelligence 的大部分功能都没有到位,即使上线的功能也被标注为」 预览版 「,直到年底的 iOS 18.2 更新才带来了一些集成功能,用户体验更是难言完善,甚至发布不久就紧急撤回了通知功能。
到了今年 3 月,苹果只能承认,最核心的个性化 Siri 功能将延期到」 未来一年内」 推出。据媒体报道,苹果高管在内部会议上将这次延期形容为」 丑陋的」 和」 令人尴尬的」。即便如期在明年春季升级推出,届时距离 Apple Intelligence 发布也已经过去了近两年时间。
为什么 AI 时代的 Siri 这么难产?苹果高级副总裁费德里希曾经在采访中解释,团队在内部测试中发现系统持续产生过多不可靠的结果,最终不得不创建」 第二版」 的全新 Siri 架构。
苹果声称正在开发自己的 1 万亿参数模型,希望最早在 2026 年准备好投入使用,并相信自己能够匹配谷歌定制 Gemini 模型的质量。但问题是,到 2026 年,AI 行业又会进化到什么地步?亚马逊已在今年 2 月宣布了 AI 增强版 Alexa+的计划,谷歌推出了将搜索历史与 Gemini 集成的选项,整个 AI 行业正以前所未有的速度前进。
科技博客 Six Colors 分析人士斯奈尔 (Jason Snell) 指出,苹果在 WWDC 2024 给出了难以兑现的承诺,只是因为感受到了 AI 方面落后给股价的巨大压力。「如果问苹果高管是否知道 2025 年春季无法兑现承诺的代价,他们可能会说,吃点负面报道也比错过整个 AI 浪潮要好。」
为什么苹果做不好 AI?
为什么超级巨头苹果就做不好 AI 呢?这显然与他们的基因有着直接关系。众所周知,苹果一直将用户隐私保护作为自己的核心卖点,强调用户数据不会离开其设备端以及私有云架构,这固然保护了隐私,但也让苹果在训练数据上远远落后于竞争对手。
为了保护用户隐私,苹果始终专注于端侧 AI,而这在 AI 时代是一个致命缺陷。过去十多年时间,苹果的宣传重点一直是强调能够在设备上完成大部分工作,以获得更高的隐私和安全性。由于 AI 的高资源要求,只有 iPhone 15 Pro 及更高型号才能运行 Apple Intelligence,即设备需要至少 A17 或 M1 芯片。
真正强大的 AI 需要云端的超大规模计算。而端侧模型受制于手机芯片的算力和功耗限制,无法运行万亿级参数的大模型。相比之下,谷歌、OpenAI 等 AI 巨头可以在云端部署最强大的模型,持续迭代更新,无需等待硬件更新周期。
除了端侧的限制,苹果的云端模型更是明显落后于竞争对手。为什么苹果必须寻找外部合作伙伴?因为苹果当前云端模型只有 1500 亿参数,而即将使用的谷歌定制模型有 1.2 万亿参数——规模差距悬殊。
彭博社的苹果研究专家古尔曼透露,苹果高层对于 AI 应该怎么做,缺乏任何明确的想法。长期以来,苹果都过于看重端侧运算,不愿意在 AI 领域进行大规模投资,没有将其视为计算机或移动设备的核心能力,也没有像其他巨头那样抢购英伟达 GPU。
库克等苹果高层对 AI 时代的漠然,导致了苹果对大语言模型革命反应迟缓。虽然苹果曾在 2018 年从谷歌挖来 AI 负责人詹达利亚 (John Giannandrea),但在高层缺乏重视的情况下,詹达利亚并不能带来重大变化,也无法改变苹果的基因。
苹果 AI 项目的推进缓慢,更让詹达利亚失去了库克的信任。在今年的内部调整中,詹达利亚已经失去了对 Siri 以及机器人两个核心项目的控制权。现在 Siri 项目已经交给了 Vision Pro 项目创始人罗克韦尔 (Mike Rockwell) 和软件主管费德里希共同领导。
AI 项目负责人权力被削弱,核心 AI 团队也出现了动荡。过去两个月时间,苹果大模型团队和 AI 搜索的两位项目负责人 (都是华人) 先后跳槽 Meta。因为 Llama 落后而心急如焚的扎克伯格,给他们开出了每年几千万美元的天价合同,这是 AI 巨头人才军备竞赛哄抬身价的结果。而苹果则完全无意加入这场争夺。
或许,收购一家 AI 创业公司整合到自家产品,是最为直接的途径。今年上半年,苹果负责服务的高级副总裁埃迪·库伊 (Eddy Cue) 曾经在内部高层会议上建议收购 AI 创业公司 Perplexity,并没有得到库克的采纳。外界也曾经建议苹果尽快收购
不愿进行大手笔收购,这是苹果的一贯战略。尽管他们拥有富可敌国的现金流,过去十年时间花了超过 7000 亿美元进行股票回购以提振股价,却不愿意进行战略收购。迄今苹果最大的收购还是 2013 年斥资 30 亿美元收购蓝牙耳机制造商 Beats。
两个多月前,Wedbush 分析师艾夫斯 (Dan Ives) 在评论苹果 AI 项目进展时评论道:」 他们的 AI 战略就是一场灾难。看看 OpenAI、微软、Meta,其他任何一家大型科技公司,(都在疯狂投入 AI 竞赛),而苹果却远远落后。这就像是现在有一场 F1 比赛正在进行,而苹果和库克却只是坐在公园长椅上喝着卡布奇诺,在旁边看着。」
相当刻薄,却一针见血。
【文章来源:techweb】
在连续数次跳票之后,AI 版 Siri 终于要来了。这个乔布斯时代的远古语音助手终于要有点智能了,而这背后折射出的,是苹果在 AI 时代的尴尬与落伍。
10 亿美元买模型
最了解苹果的彭博记者古尔曼 (Mark Gurman) 昨天爆出重磅消息。苹果已与谷歌达成协议,在新版 Siri 上使用定制的谷歌 Gemini AI 大模型。苹果将为此每年向谷歌支付约 10 亿美元。新的 AI 版 Siri 将在明年春季通过 iOS 26.4 更新推出。
这一消息验证了库克上周的表述。上周的苹果财报发布后,苹果 CEO 库克在电话会议中确认,新 Siri 将在明年春天发布。苹果和谷歌发言人都拒绝对此置评,这也是以往的合作惯例。
值得一提的是,苹果将在其私有云服务器上运行定制的 Gemini 模型,同时继续使用内部模型来为某些 Siri 功能提供动力。具体而言,当用户查询可用较低功耗的设备端模型解答时,苹果仍将通过自研模型提供;当 Siri 需执行复杂任务或总结信息时,将自动切换至谷歌 Gemini。
不过苹果会设置隐私保护措施,只在苹果服务器基础设施上运行谷歌模型,而不进行任何外部数据共享来保护。这意味着苹果用户数据将完全隔离,Gemini 开发商谷歌将无法访问,从而更好保护苹果用户的隐私。这是苹果设备的最大卖点。
据彭博社报道,苹果先后测试了谷歌 Gemini、OpenAI 的 ChatGPT 和 Anthropic 的 Claude 之后,最终选择了谷歌。显然,苹果需要的是一个不笨拙、可靠、可依赖于广泛基线任务和查询、用户完全信任隐私的 Apple Intelligence 版本。同时,苹果未来可以轻松切换到另一个供应商或自己的自研模型。
每年 10 亿美元的 AI 大模型采购费,对富可敌国的苹果来说不过是九牛一毛。苹果去年营收已经接近 4000 亿美元,年利润已经接近 1000 亿美元。而且,谷歌每年还要向苹果支付 200 亿美元的买路费,换得苹果 Safari 浏览器将谷歌设为默认搜索引擎,因为这是谷歌最重要且最具价值的流量来源之一。
在 AI 时代落后许久的苹果指望谷歌的大模型,来重建 Siri 的底层技术,为明年推出一系列新功能奠定基础。此次苹果定制的 Gemini 模型将使用 1.2 万亿个参数来帮助生成响应,这远远超过目前支持 Apple Intelligence 的 1500 亿参数模型。
自主开发大模型
与谷歌定制 Gemini 大模型只是苹果的过渡计划,苹果依旧希望将 AI 大模型核心技术掌握在自己手中,还在自行研发 1 万亿参数模型。但目前还没有明确的时间线,完全取决于苹果自己的大模型是否满足需求。
核心技术必须自主自研,绝不能受制于竞争对手,这是苹果的基本战略。无论是移动还是桌面,苹果都已经全面转用自家的 A 和 M 处理器。只是因为产品还不够成熟,才暂时向高通采购 5G 基带芯片。
当时苹果正在与高通进行世纪诉讼大战,但无奈英特尔基带业务始终无法拿出成熟商用的 5G 基带芯片。苹果担心核心业务 iPhone 在 5G 时代掉队,只能被迫放弃诉讼,与高通达成庭外和解,向高通支付专利授权费,从而向高通采购 5G 基带芯片。
不过苹果并没有放弃核心技术自主的计划。随后苹果就收购了英特尔的基带芯片业务,独立开发自己的基带芯片,整整五年时间之后,今年苹果终于在 iPhone 16e 和 iPhone Air 用上了自家基带芯片。随着苹果 C 系列基带芯片的逐渐成熟,必然会逐渐取代目前旗舰产品的高通基带芯片。
对苹果用户来说,苹果 Gemini 加持的 AI 版新 Siri 终于有盼头了,这无疑是渴望已久的好消息。苹果早在 2024 年的 WWDC 上就发布了 Apple Intelligence,但其中最为核心的 Siri AI 升级却持续跳票,今年的 WWDC 上更是避之不提,让用户和投资者倍感失望。
AI 已经成为智能手机的必备功能。在 Android 系统层面,谷歌早已整合了大语言模型 Gemini;而在中国市场,多家厂商也发布了各自的大模型和 AI 智能体。在这样的竞争环境下,苹果始终无法拿出成熟 AI 大模型无疑令人质疑这家公司的竞争力。
起了大早却赶晚集
过去两年时间,AI 已经成为资本市场的主线叙事。英伟达、微软、谷歌、Meta 等巨头企业不断发布大模型和 AI 处理器,市值屡创新高。英伟达更是超越苹果,成为全球市值最高的上市公司。生成式 AI 的代表企业 OpenAI 估值超过了 5000 亿美元,成为全球最具价值的创业公司。
相比之下,苹果在这个喧闹的 AI 时代却显得异常低调,因此拖累了苹果股价表现疲软。虽然苹果长期在设备端使用机器学习,但大多局限于照片识别、语音识别、健康监测等具体场景,始终没有推出 「ChatGPT 级」 的旗舰型 AI 产品。
投资者因此担心,苹果在 「AI 时代的操作系统入口」 竞争中落后于微软 (Windows + Copilot) 和谷歌 (Android + Gemini)。特别是在 iPhone 销售在中国市场放缓、服务业务增长趋缓的背景下,苹果缺乏 AI 新故事就显得更加致命。
眼看着 AI 版本的 Siri 持续跳票,苹果终于坐不住,不得不使用谷歌的大模型来暂时救急。讽刺的是,Siri 曾经是智能语音助手的开创者。还记得 2011 年 10 月,苹果语音助手 Siri 随 iPhone 4S 首次亮相,这是乔布斯去世前敲定的新功能。
虽然体验和现在的 AI 完全不可同日而语,但当时的 Siri 却让人感觉像是科幻小说中的产物,直接带动了 iPhone 销量的持续增长,更让人赞叹苹果又一次引领行业技术潮流。Siri 比亚马逊的 Alexa 早了整整三年,也领先于谷歌的 Google Now。
但 Siri 的先发优势很快就被竞争对手完全超越。谷歌的 Google Assistant 迅速成为了自然语言理解的黄金标准,能识别不同口音,理解上下文,擅长回答复杂查询,直接给出针对性回应。相比之下,停滞不前的 Siri 显得像是上个时代的笨拙产品:只能提供天气等极为基础的信息,大多数时候只能表达无能为力。
连续跳票高层尴尬
到了 AI 时代,苹果的无所作为更是令人难以置信。谷歌有业界最完整的 AI 生态体系;微软在开发自己模型的同时,也迅速押注在 OpenAI 上;而苹果却什么动静都没有。不仅没有自己的 AI 大模型,就连与外部合作方面都显得异常迟缓。2024 年上半年,苹果股价持续下滑了 10%。
苹果高层终于坐不住了。去年 6 月,苹果才在 WWDC 上展示了加载 ChatGPT 的 Apple Intelligence,提供了文本处理、图像生成、内容摘要等基础 AI 功能。苹果利用自家芯片与云端模型来理解和创建语言和图像,跨应用执行操作,并从个人情境中提取信息。
然而,苹果 AI 的落地步伐却一再推迟,让原本翘首以待的用户大失所望。当年 9 月 iOS 18 发布时,Apple Intelligence 的大部分功能都没有到位,即使上线的功能也被标注为」 预览版 「,直到年底的 iOS 18.2 更新才带来了一些集成功能,用户体验更是难言完善,甚至发布不久就紧急撤回了通知功能。
到了今年 3 月,苹果只能承认,最核心的个性化 Siri 功能将延期到」 未来一年内」 推出。据媒体报道,苹果高管在内部会议上将这次延期形容为」 丑陋的」 和」 令人尴尬的」。即便如期在明年春季升级推出,届时距离 Apple Intelligence 发布也已经过去了近两年时间。
为什么 AI 时代的 Siri 这么难产?苹果高级副总裁费德里希曾经在采访中解释,团队在内部测试中发现系统持续产生过多不可靠的结果,最终不得不创建」 第二版」 的全新 Siri 架构。
苹果声称正在开发自己的 1 万亿参数模型,希望最早在 2026 年准备好投入使用,并相信自己能够匹配谷歌定制 Gemini 模型的质量。但问题是,到 2026 年,AI 行业又会进化到什么地步?亚马逊已在今年 2 月宣布了 AI 增强版 Alexa+的计划,谷歌推出了将搜索历史与 Gemini 集成的选项,整个 AI 行业正以前所未有的速度前进。
科技博客 Six Colors 分析人士斯奈尔 (Jason Snell) 指出,苹果在 WWDC 2024 给出了难以兑现的承诺,只是因为感受到了 AI 方面落后给股价的巨大压力。「如果问苹果高管是否知道 2025 年春季无法兑现承诺的代价,他们可能会说,吃点负面报道也比错过整个 AI 浪潮要好。」
为什么苹果做不好 AI?
为什么超级巨头苹果就做不好 AI 呢?这显然与他们的基因有着直接关系。众所周知,苹果一直将用户隐私保护作为自己的核心卖点,强调用户数据不会离开其设备端以及私有云架构,这固然保护了隐私,但也让苹果在训练数据上远远落后于竞争对手。
为了保护用户隐私,苹果始终专注于端侧 AI,而这在 AI 时代是一个致命缺陷。过去十多年时间,苹果的宣传重点一直是强调能够在设备上完成大部分工作,以获得更高的隐私和安全性。由于 AI 的高资源要求,只有 iPhone 15 Pro 及更高型号才能运行 Apple Intelligence,即设备需要至少 A17 或 M1 芯片。
真正强大的 AI 需要云端的超大规模计算。而端侧模型受制于手机芯片的算力和功耗限制,无法运行万亿级参数的大模型。相比之下,谷歌、OpenAI 等 AI 巨头可以在云端部署最强大的模型,持续迭代更新,无需等待硬件更新周期。
除了端侧的限制,苹果的云端模型更是明显落后于竞争对手。为什么苹果必须寻找外部合作伙伴?因为苹果当前云端模型只有 1500 亿参数,而即将使用的谷歌定制模型有 1.2 万亿参数——规模差距悬殊。
彭博社的苹果研究专家古尔曼透露,苹果高层对于 AI 应该怎么做,缺乏任何明确的想法。长期以来,苹果都过于看重端侧运算,不愿意在 AI 领域进行大规模投资,没有将其视为计算机或移动设备的核心能力,也没有像其他巨头那样抢购英伟达 GPU。
库克等苹果高层对 AI 时代的漠然,导致了苹果对大语言模型革命反应迟缓。虽然苹果曾在 2018 年从谷歌挖来 AI 负责人詹达利亚 (John Giannandrea),但在高层缺乏重视的情况下,詹达利亚并不能带来重大变化,也无法改变苹果的基因。
苹果 AI 项目的推进缓慢,更让詹达利亚失去了库克的信任。在今年的内部调整中,詹达利亚已经失去了对 Siri 以及机器人两个核心项目的控制权。现在 Siri 项目已经交给了 Vision Pro 项目创始人罗克韦尔 (Mike Rockwell) 和软件主管费德里希共同领导。
AI 项目负责人权力被削弱,核心 AI 团队也出现了动荡。过去两个月时间,苹果大模型团队和 AI 搜索的两位项目负责人 (都是华人) 先后跳槽 Meta。因为 Llama 落后而心急如焚的扎克伯格,给他们开出了每年几千万美元的天价合同,这是 AI 巨头人才军备竞赛哄抬身价的结果。而苹果则完全无意加入这场争夺。
或许,收购一家 AI 创业公司整合到自家产品,是最为直接的途径。今年上半年,苹果负责服务的高级副总裁埃迪·库伊 (Eddy Cue) 曾经在内部高层会议上建议收购 AI 创业公司 Perplexity,并没有得到库克的采纳。外界也曾经建议苹果尽快收购
不愿进行大手笔收购,这是苹果的一贯战略。尽管他们拥有富可敌国的现金流,过去十年时间花了超过 7000 亿美元进行股票回购以提振股价,却不愿意进行战略收购。迄今苹果最大的收购还是 2013 年斥资 30 亿美元收购蓝牙耳机制造商 Beats。
两个多月前,Wedbush 分析师艾夫斯 (Dan Ives) 在评论苹果 AI 项目进展时评论道:」 他们的 AI 战略就是一场灾难。看看 OpenAI、微软、Meta,其他任何一家大型科技公司,(都在疯狂投入 AI 竞赛),而苹果却远远落后。这就像是现在有一场 F1 比赛正在进行,而苹果和库克却只是坐在公园长椅上喝着卡布奇诺,在旁边看着。」
相当刻薄,却一针见血。
【文章来源:techweb】
在连续数次跳票之后,AI 版 Siri 终于要来了。这个乔布斯时代的远古语音助手终于要有点智能了,而这背后折射出的,是苹果在 AI 时代的尴尬与落伍。
10 亿美元买模型
最了解苹果的彭博记者古尔曼 (Mark Gurman) 昨天爆出重磅消息。苹果已与谷歌达成协议,在新版 Siri 上使用定制的谷歌 Gemini AI 大模型。苹果将为此每年向谷歌支付约 10 亿美元。新的 AI 版 Siri 将在明年春季通过 iOS 26.4 更新推出。
这一消息验证了库克上周的表述。上周的苹果财报发布后,苹果 CEO 库克在电话会议中确认,新 Siri 将在明年春天发布。苹果和谷歌发言人都拒绝对此置评,这也是以往的合作惯例。
值得一提的是,苹果将在其私有云服务器上运行定制的 Gemini 模型,同时继续使用内部模型来为某些 Siri 功能提供动力。具体而言,当用户查询可用较低功耗的设备端模型解答时,苹果仍将通过自研模型提供;当 Siri 需执行复杂任务或总结信息时,将自动切换至谷歌 Gemini。
不过苹果会设置隐私保护措施,只在苹果服务器基础设施上运行谷歌模型,而不进行任何外部数据共享来保护。这意味着苹果用户数据将完全隔离,Gemini 开发商谷歌将无法访问,从而更好保护苹果用户的隐私。这是苹果设备的最大卖点。
据彭博社报道,苹果先后测试了谷歌 Gemini、OpenAI 的 ChatGPT 和 Anthropic 的 Claude 之后,最终选择了谷歌。显然,苹果需要的是一个不笨拙、可靠、可依赖于广泛基线任务和查询、用户完全信任隐私的 Apple Intelligence 版本。同时,苹果未来可以轻松切换到另一个供应商或自己的自研模型。
每年 10 亿美元的 AI 大模型采购费,对富可敌国的苹果来说不过是九牛一毛。苹果去年营收已经接近 4000 亿美元,年利润已经接近 1000 亿美元。而且,谷歌每年还要向苹果支付 200 亿美元的买路费,换得苹果 Safari 浏览器将谷歌设为默认搜索引擎,因为这是谷歌最重要且最具价值的流量来源之一。
在 AI 时代落后许久的苹果指望谷歌的大模型,来重建 Siri 的底层技术,为明年推出一系列新功能奠定基础。此次苹果定制的 Gemini 模型将使用 1.2 万亿个参数来帮助生成响应,这远远超过目前支持 Apple Intelligence 的 1500 亿参数模型。
自主开发大模型
与谷歌定制 Gemini 大模型只是苹果的过渡计划,苹果依旧希望将 AI 大模型核心技术掌握在自己手中,还在自行研发 1 万亿参数模型。但目前还没有明确的时间线,完全取决于苹果自己的大模型是否满足需求。
核心技术必须自主自研,绝不能受制于竞争对手,这是苹果的基本战略。无论是移动还是桌面,苹果都已经全面转用自家的 A 和 M 处理器。只是因为产品还不够成熟,才暂时向高通采购 5G 基带芯片。
当时苹果正在与高通进行世纪诉讼大战,但无奈英特尔基带业务始终无法拿出成熟商用的 5G 基带芯片。苹果担心核心业务 iPhone 在 5G 时代掉队,只能被迫放弃诉讼,与高通达成庭外和解,向高通支付专利授权费,从而向高通采购 5G 基带芯片。
不过苹果并没有放弃核心技术自主的计划。随后苹果就收购了英特尔的基带芯片业务,独立开发自己的基带芯片,整整五年时间之后,今年苹果终于在 iPhone 16e 和 iPhone Air 用上了自家基带芯片。随着苹果 C 系列基带芯片的逐渐成熟,必然会逐渐取代目前旗舰产品的高通基带芯片。
对苹果用户来说,苹果 Gemini 加持的 AI 版新 Siri 终于有盼头了,这无疑是渴望已久的好消息。苹果早在 2024 年的 WWDC 上就发布了 Apple Intelligence,但其中最为核心的 Siri AI 升级却持续跳票,今年的 WWDC 上更是避之不提,让用户和投资者倍感失望。
AI 已经成为智能手机的必备功能。在 Android 系统层面,谷歌早已整合了大语言模型 Gemini;而在中国市场,多家厂商也发布了各自的大模型和 AI 智能体。在这样的竞争环境下,苹果始终无法拿出成熟 AI 大模型无疑令人质疑这家公司的竞争力。
起了大早却赶晚集
过去两年时间,AI 已经成为资本市场的主线叙事。英伟达、微软、谷歌、Meta 等巨头企业不断发布大模型和 AI 处理器,市值屡创新高。英伟达更是超越苹果,成为全球市值最高的上市公司。生成式 AI 的代表企业 OpenAI 估值超过了 5000 亿美元,成为全球最具价值的创业公司。
相比之下,苹果在这个喧闹的 AI 时代却显得异常低调,因此拖累了苹果股价表现疲软。虽然苹果长期在设备端使用机器学习,但大多局限于照片识别、语音识别、健康监测等具体场景,始终没有推出 「ChatGPT 级」 的旗舰型 AI 产品。
投资者因此担心,苹果在 「AI 时代的操作系统入口」 竞争中落后于微软 (Windows + Copilot) 和谷歌 (Android + Gemini)。特别是在 iPhone 销售在中国市场放缓、服务业务增长趋缓的背景下,苹果缺乏 AI 新故事就显得更加致命。
眼看着 AI 版本的 Siri 持续跳票,苹果终于坐不住,不得不使用谷歌的大模型来暂时救急。讽刺的是,Siri 曾经是智能语音助手的开创者。还记得 2011 年 10 月,苹果语音助手 Siri 随 iPhone 4S 首次亮相,这是乔布斯去世前敲定的新功能。
虽然体验和现在的 AI 完全不可同日而语,但当时的 Siri 却让人感觉像是科幻小说中的产物,直接带动了 iPhone 销量的持续增长,更让人赞叹苹果又一次引领行业技术潮流。Siri 比亚马逊的 Alexa 早了整整三年,也领先于谷歌的 Google Now。
但 Siri 的先发优势很快就被竞争对手完全超越。谷歌的 Google Assistant 迅速成为了自然语言理解的黄金标准,能识别不同口音,理解上下文,擅长回答复杂查询,直接给出针对性回应。相比之下,停滞不前的 Siri 显得像是上个时代的笨拙产品:只能提供天气等极为基础的信息,大多数时候只能表达无能为力。
连续跳票高层尴尬
到了 AI 时代,苹果的无所作为更是令人难以置信。谷歌有业界最完整的 AI 生态体系;微软在开发自己模型的同时,也迅速押注在 OpenAI 上;而苹果却什么动静都没有。不仅没有自己的 AI 大模型,就连与外部合作方面都显得异常迟缓。2024 年上半年,苹果股价持续下滑了 10%。
苹果高层终于坐不住了。去年 6 月,苹果才在 WWDC 上展示了加载 ChatGPT 的 Apple Intelligence,提供了文本处理、图像生成、内容摘要等基础 AI 功能。苹果利用自家芯片与云端模型来理解和创建语言和图像,跨应用执行操作,并从个人情境中提取信息。
然而,苹果 AI 的落地步伐却一再推迟,让原本翘首以待的用户大失所望。当年 9 月 iOS 18 发布时,Apple Intelligence 的大部分功能都没有到位,即使上线的功能也被标注为」 预览版 「,直到年底的 iOS 18.2 更新才带来了一些集成功能,用户体验更是难言完善,甚至发布不久就紧急撤回了通知功能。
到了今年 3 月,苹果只能承认,最核心的个性化 Siri 功能将延期到」 未来一年内」 推出。据媒体报道,苹果高管在内部会议上将这次延期形容为」 丑陋的」 和」 令人尴尬的」。即便如期在明年春季升级推出,届时距离 Apple Intelligence 发布也已经过去了近两年时间。
为什么 AI 时代的 Siri 这么难产?苹果高级副总裁费德里希曾经在采访中解释,团队在内部测试中发现系统持续产生过多不可靠的结果,最终不得不创建」 第二版」 的全新 Siri 架构。
苹果声称正在开发自己的 1 万亿参数模型,希望最早在 2026 年准备好投入使用,并相信自己能够匹配谷歌定制 Gemini 模型的质量。但问题是,到 2026 年,AI 行业又会进化到什么地步?亚马逊已在今年 2 月宣布了 AI 增强版 Alexa+的计划,谷歌推出了将搜索历史与 Gemini 集成的选项,整个 AI 行业正以前所未有的速度前进。
科技博客 Six Colors 分析人士斯奈尔 (Jason Snell) 指出,苹果在 WWDC 2024 给出了难以兑现的承诺,只是因为感受到了 AI 方面落后给股价的巨大压力。「如果问苹果高管是否知道 2025 年春季无法兑现承诺的代价,他们可能会说,吃点负面报道也比错过整个 AI 浪潮要好。」
为什么苹果做不好 AI?
为什么超级巨头苹果就做不好 AI 呢?这显然与他们的基因有着直接关系。众所周知,苹果一直将用户隐私保护作为自己的核心卖点,强调用户数据不会离开其设备端以及私有云架构,这固然保护了隐私,但也让苹果在训练数据上远远落后于竞争对手。
为了保护用户隐私,苹果始终专注于端侧 AI,而这在 AI 时代是一个致命缺陷。过去十多年时间,苹果的宣传重点一直是强调能够在设备上完成大部分工作,以获得更高的隐私和安全性。由于 AI 的高资源要求,只有 iPhone 15 Pro 及更高型号才能运行 Apple Intelligence,即设备需要至少 A17 或 M1 芯片。
真正强大的 AI 需要云端的超大规模计算。而端侧模型受制于手机芯片的算力和功耗限制,无法运行万亿级参数的大模型。相比之下,谷歌、OpenAI 等 AI 巨头可以在云端部署最强大的模型,持续迭代更新,无需等待硬件更新周期。
除了端侧的限制,苹果的云端模型更是明显落后于竞争对手。为什么苹果必须寻找外部合作伙伴?因为苹果当前云端模型只有 1500 亿参数,而即将使用的谷歌定制模型有 1.2 万亿参数——规模差距悬殊。
彭博社的苹果研究专家古尔曼透露,苹果高层对于 AI 应该怎么做,缺乏任何明确的想法。长期以来,苹果都过于看重端侧运算,不愿意在 AI 领域进行大规模投资,没有将其视为计算机或移动设备的核心能力,也没有像其他巨头那样抢购英伟达 GPU。
库克等苹果高层对 AI 时代的漠然,导致了苹果对大语言模型革命反应迟缓。虽然苹果曾在 2018 年从谷歌挖来 AI 负责人詹达利亚 (John Giannandrea),但在高层缺乏重视的情况下,詹达利亚并不能带来重大变化,也无法改变苹果的基因。
苹果 AI 项目的推进缓慢,更让詹达利亚失去了库克的信任。在今年的内部调整中,詹达利亚已经失去了对 Siri 以及机器人两个核心项目的控制权。现在 Siri 项目已经交给了 Vision Pro 项目创始人罗克韦尔 (Mike Rockwell) 和软件主管费德里希共同领导。
AI 项目负责人权力被削弱,核心 AI 团队也出现了动荡。过去两个月时间,苹果大模型团队和 AI 搜索的两位项目负责人 (都是华人) 先后跳槽 Meta。因为 Llama 落后而心急如焚的扎克伯格,给他们开出了每年几千万美元的天价合同,这是 AI 巨头人才军备竞赛哄抬身价的结果。而苹果则完全无意加入这场争夺。
或许,收购一家 AI 创业公司整合到自家产品,是最为直接的途径。今年上半年,苹果负责服务的高级副总裁埃迪·库伊 (Eddy Cue) 曾经在内部高层会议上建议收购 AI 创业公司 Perplexity,并没有得到库克的采纳。外界也曾经建议苹果尽快收购
不愿进行大手笔收购,这是苹果的一贯战略。尽管他们拥有富可敌国的现金流,过去十年时间花了超过 7000 亿美元进行股票回购以提振股价,却不愿意进行战略收购。迄今苹果最大的收购还是 2013 年斥资 30 亿美元收购蓝牙耳机制造商 Beats。
两个多月前,Wedbush 分析师艾夫斯 (Dan Ives) 在评论苹果 AI 项目进展时评论道:」 他们的 AI 战略就是一场灾难。看看 OpenAI、微软、Meta,其他任何一家大型科技公司,(都在疯狂投入 AI 竞赛),而苹果却远远落后。这就像是现在有一场 F1 比赛正在进行,而苹果和库克却只是坐在公园长椅上喝着卡布奇诺,在旁边看着。」
相当刻薄,却一针见血。
【文章来源:techweb】
在连续数次跳票之后,AI 版 Siri 终于要来了。这个乔布斯时代的远古语音助手终于要有点智能了,而这背后折射出的,是苹果在 AI 时代的尴尬与落伍。
10 亿美元买模型
最了解苹果的彭博记者古尔曼 (Mark Gurman) 昨天爆出重磅消息。苹果已与谷歌达成协议,在新版 Siri 上使用定制的谷歌 Gemini AI 大模型。苹果将为此每年向谷歌支付约 10 亿美元。新的 AI 版 Siri 将在明年春季通过 iOS 26.4 更新推出。
这一消息验证了库克上周的表述。上周的苹果财报发布后,苹果 CEO 库克在电话会议中确认,新 Siri 将在明年春天发布。苹果和谷歌发言人都拒绝对此置评,这也是以往的合作惯例。
值得一提的是,苹果将在其私有云服务器上运行定制的 Gemini 模型,同时继续使用内部模型来为某些 Siri 功能提供动力。具体而言,当用户查询可用较低功耗的设备端模型解答时,苹果仍将通过自研模型提供;当 Siri 需执行复杂任务或总结信息时,将自动切换至谷歌 Gemini。
不过苹果会设置隐私保护措施,只在苹果服务器基础设施上运行谷歌模型,而不进行任何外部数据共享来保护。这意味着苹果用户数据将完全隔离,Gemini 开发商谷歌将无法访问,从而更好保护苹果用户的隐私。这是苹果设备的最大卖点。
据彭博社报道,苹果先后测试了谷歌 Gemini、OpenAI 的 ChatGPT 和 Anthropic 的 Claude 之后,最终选择了谷歌。显然,苹果需要的是一个不笨拙、可靠、可依赖于广泛基线任务和查询、用户完全信任隐私的 Apple Intelligence 版本。同时,苹果未来可以轻松切换到另一个供应商或自己的自研模型。
每年 10 亿美元的 AI 大模型采购费,对富可敌国的苹果来说不过是九牛一毛。苹果去年营收已经接近 4000 亿美元,年利润已经接近 1000 亿美元。而且,谷歌每年还要向苹果支付 200 亿美元的买路费,换得苹果 Safari 浏览器将谷歌设为默认搜索引擎,因为这是谷歌最重要且最具价值的流量来源之一。
在 AI 时代落后许久的苹果指望谷歌的大模型,来重建 Siri 的底层技术,为明年推出一系列新功能奠定基础。此次苹果定制的 Gemini 模型将使用 1.2 万亿个参数来帮助生成响应,这远远超过目前支持 Apple Intelligence 的 1500 亿参数模型。
自主开发大模型
与谷歌定制 Gemini 大模型只是苹果的过渡计划,苹果依旧希望将 AI 大模型核心技术掌握在自己手中,还在自行研发 1 万亿参数模型。但目前还没有明确的时间线,完全取决于苹果自己的大模型是否满足需求。
核心技术必须自主自研,绝不能受制于竞争对手,这是苹果的基本战略。无论是移动还是桌面,苹果都已经全面转用自家的 A 和 M 处理器。只是因为产品还不够成熟,才暂时向高通采购 5G 基带芯片。
当时苹果正在与高通进行世纪诉讼大战,但无奈英特尔基带业务始终无法拿出成熟商用的 5G 基带芯片。苹果担心核心业务 iPhone 在 5G 时代掉队,只能被迫放弃诉讼,与高通达成庭外和解,向高通支付专利授权费,从而向高通采购 5G 基带芯片。
不过苹果并没有放弃核心技术自主的计划。随后苹果就收购了英特尔的基带芯片业务,独立开发自己的基带芯片,整整五年时间之后,今年苹果终于在 iPhone 16e 和 iPhone Air 用上了自家基带芯片。随着苹果 C 系列基带芯片的逐渐成熟,必然会逐渐取代目前旗舰产品的高通基带芯片。
对苹果用户来说,苹果 Gemini 加持的 AI 版新 Siri 终于有盼头了,这无疑是渴望已久的好消息。苹果早在 2024 年的 WWDC 上就发布了 Apple Intelligence,但其中最为核心的 Siri AI 升级却持续跳票,今年的 WWDC 上更是避之不提,让用户和投资者倍感失望。
AI 已经成为智能手机的必备功能。在 Android 系统层面,谷歌早已整合了大语言模型 Gemini;而在中国市场,多家厂商也发布了各自的大模型和 AI 智能体。在这样的竞争环境下,苹果始终无法拿出成熟 AI 大模型无疑令人质疑这家公司的竞争力。
起了大早却赶晚集
过去两年时间,AI 已经成为资本市场的主线叙事。英伟达、微软、谷歌、Meta 等巨头企业不断发布大模型和 AI 处理器,市值屡创新高。英伟达更是超越苹果,成为全球市值最高的上市公司。生成式 AI 的代表企业 OpenAI 估值超过了 5000 亿美元,成为全球最具价值的创业公司。
相比之下,苹果在这个喧闹的 AI 时代却显得异常低调,因此拖累了苹果股价表现疲软。虽然苹果长期在设备端使用机器学习,但大多局限于照片识别、语音识别、健康监测等具体场景,始终没有推出 「ChatGPT 级」 的旗舰型 AI 产品。
投资者因此担心,苹果在 「AI 时代的操作系统入口」 竞争中落后于微软 (Windows + Copilot) 和谷歌 (Android + Gemini)。特别是在 iPhone 销售在中国市场放缓、服务业务增长趋缓的背景下,苹果缺乏 AI 新故事就显得更加致命。
眼看着 AI 版本的 Siri 持续跳票,苹果终于坐不住,不得不使用谷歌的大模型来暂时救急。讽刺的是,Siri 曾经是智能语音助手的开创者。还记得 2011 年 10 月,苹果语音助手 Siri 随 iPhone 4S 首次亮相,这是乔布斯去世前敲定的新功能。
虽然体验和现在的 AI 完全不可同日而语,但当时的 Siri 却让人感觉像是科幻小说中的产物,直接带动了 iPhone 销量的持续增长,更让人赞叹苹果又一次引领行业技术潮流。Siri 比亚马逊的 Alexa 早了整整三年,也领先于谷歌的 Google Now。
但 Siri 的先发优势很快就被竞争对手完全超越。谷歌的 Google Assistant 迅速成为了自然语言理解的黄金标准,能识别不同口音,理解上下文,擅长回答复杂查询,直接给出针对性回应。相比之下,停滞不前的 Siri 显得像是上个时代的笨拙产品:只能提供天气等极为基础的信息,大多数时候只能表达无能为力。
连续跳票高层尴尬
到了 AI 时代,苹果的无所作为更是令人难以置信。谷歌有业界最完整的 AI 生态体系;微软在开发自己模型的同时,也迅速押注在 OpenAI 上;而苹果却什么动静都没有。不仅没有自己的 AI 大模型,就连与外部合作方面都显得异常迟缓。2024 年上半年,苹果股价持续下滑了 10%。
苹果高层终于坐不住了。去年 6 月,苹果才在 WWDC 上展示了加载 ChatGPT 的 Apple Intelligence,提供了文本处理、图像生成、内容摘要等基础 AI 功能。苹果利用自家芯片与云端模型来理解和创建语言和图像,跨应用执行操作,并从个人情境中提取信息。
然而,苹果 AI 的落地步伐却一再推迟,让原本翘首以待的用户大失所望。当年 9 月 iOS 18 发布时,Apple Intelligence 的大部分功能都没有到位,即使上线的功能也被标注为」 预览版 「,直到年底的 iOS 18.2 更新才带来了一些集成功能,用户体验更是难言完善,甚至发布不久就紧急撤回了通知功能。
到了今年 3 月,苹果只能承认,最核心的个性化 Siri 功能将延期到」 未来一年内」 推出。据媒体报道,苹果高管在内部会议上将这次延期形容为」 丑陋的」 和」 令人尴尬的」。即便如期在明年春季升级推出,届时距离 Apple Intelligence 发布也已经过去了近两年时间。
为什么 AI 时代的 Siri 这么难产?苹果高级副总裁费德里希曾经在采访中解释,团队在内部测试中发现系统持续产生过多不可靠的结果,最终不得不创建」 第二版」 的全新 Siri 架构。
苹果声称正在开发自己的 1 万亿参数模型,希望最早在 2026 年准备好投入使用,并相信自己能够匹配谷歌定制 Gemini 模型的质量。但问题是,到 2026 年,AI 行业又会进化到什么地步?亚马逊已在今年 2 月宣布了 AI 增强版 Alexa+的计划,谷歌推出了将搜索历史与 Gemini 集成的选项,整个 AI 行业正以前所未有的速度前进。
科技博客 Six Colors 分析人士斯奈尔 (Jason Snell) 指出,苹果在 WWDC 2024 给出了难以兑现的承诺,只是因为感受到了 AI 方面落后给股价的巨大压力。「如果问苹果高管是否知道 2025 年春季无法兑现承诺的代价,他们可能会说,吃点负面报道也比错过整个 AI 浪潮要好。」
为什么苹果做不好 AI?
为什么超级巨头苹果就做不好 AI 呢?这显然与他们的基因有着直接关系。众所周知,苹果一直将用户隐私保护作为自己的核心卖点,强调用户数据不会离开其设备端以及私有云架构,这固然保护了隐私,但也让苹果在训练数据上远远落后于竞争对手。
为了保护用户隐私,苹果始终专注于端侧 AI,而这在 AI 时代是一个致命缺陷。过去十多年时间,苹果的宣传重点一直是强调能够在设备上完成大部分工作,以获得更高的隐私和安全性。由于 AI 的高资源要求,只有 iPhone 15 Pro 及更高型号才能运行 Apple Intelligence,即设备需要至少 A17 或 M1 芯片。
真正强大的 AI 需要云端的超大规模计算。而端侧模型受制于手机芯片的算力和功耗限制,无法运行万亿级参数的大模型。相比之下,谷歌、OpenAI 等 AI 巨头可以在云端部署最强大的模型,持续迭代更新,无需等待硬件更新周期。
除了端侧的限制,苹果的云端模型更是明显落后于竞争对手。为什么苹果必须寻找外部合作伙伴?因为苹果当前云端模型只有 1500 亿参数,而即将使用的谷歌定制模型有 1.2 万亿参数——规模差距悬殊。
彭博社的苹果研究专家古尔曼透露,苹果高层对于 AI 应该怎么做,缺乏任何明确的想法。长期以来,苹果都过于看重端侧运算,不愿意在 AI 领域进行大规模投资,没有将其视为计算机或移动设备的核心能力,也没有像其他巨头那样抢购英伟达 GPU。
库克等苹果高层对 AI 时代的漠然,导致了苹果对大语言模型革命反应迟缓。虽然苹果曾在 2018 年从谷歌挖来 AI 负责人詹达利亚 (John Giannandrea),但在高层缺乏重视的情况下,詹达利亚并不能带来重大变化,也无法改变苹果的基因。
苹果 AI 项目的推进缓慢,更让詹达利亚失去了库克的信任。在今年的内部调整中,詹达利亚已经失去了对 Siri 以及机器人两个核心项目的控制权。现在 Siri 项目已经交给了 Vision Pro 项目创始人罗克韦尔 (Mike Rockwell) 和软件主管费德里希共同领导。
AI 项目负责人权力被削弱,核心 AI 团队也出现了动荡。过去两个月时间,苹果大模型团队和 AI 搜索的两位项目负责人 (都是华人) 先后跳槽 Meta。因为 Llama 落后而心急如焚的扎克伯格,给他们开出了每年几千万美元的天价合同,这是 AI 巨头人才军备竞赛哄抬身价的结果。而苹果则完全无意加入这场争夺。
或许,收购一家 AI 创业公司整合到自家产品,是最为直接的途径。今年上半年,苹果负责服务的高级副总裁埃迪·库伊 (Eddy Cue) 曾经在内部高层会议上建议收购 AI 创业公司 Perplexity,并没有得到库克的采纳。外界也曾经建议苹果尽快收购
不愿进行大手笔收购,这是苹果的一贯战略。尽管他们拥有富可敌国的现金流,过去十年时间花了超过 7000 亿美元进行股票回购以提振股价,却不愿意进行战略收购。迄今苹果最大的收购还是 2013 年斥资 30 亿美元收购蓝牙耳机制造商 Beats。
两个多月前,Wedbush 分析师艾夫斯 (Dan Ives) 在评论苹果 AI 项目进展时评论道:」 他们的 AI 战略就是一场灾难。看看 OpenAI、微软、Meta,其他任何一家大型科技公司,(都在疯狂投入 AI 竞赛),而苹果却远远落后。这就像是现在有一场 F1 比赛正在进行,而苹果和库克却只是坐在公园长椅上喝着卡布奇诺,在旁边看着。」
相当刻薄,却一针见血。

