过往只是在 CPU 里添一点 「AI 算力」 的高通突然在周一放出大招:推出机架级人工智能加速器,正面挑战 「绿色巨人」 英伟达。
高通在公告中宣布,推出高通 AI200 和 AI250 芯片和机架产品,这些产品均采用公司的神经处理单元 (NPU) 技术。

(来源:公司官网)
受此消息刺激,高通股价周一开盘后直线拉涨,日内涨幅一度接近 20%。截至发稿,高通的最新涨幅为 15%,相当于日内增加近 280 亿美元市值。
公司 「划重点」 称,两款产品都有卓越的内存容量,能够以行业领先的总体拥有成本 (TCO) 提供 AI 推理所需的卓越性能。
其中,预定于 2026 年上市的 AI200 单卡支持 768GB 的 LPDDR 内存 (低功耗动态随机存取存储器)。作为对比,英伟达最新的 GB300 每个 GPU 配备 288GB 的 HBM3e 内存。高通强调,这款芯片侧重于推理 (运行 AI 模型),而不是训练。
更玄乎的是,高通透露将于 2027 年上市的 AI250 解决方案将首发一种基于 「近存储计算 (near-memory computing)」 的创新内存架构,为 AI 推理工作负载带来 「跨代的效率与性能飞跃」。高通声称,这款芯片在有效内存带宽方面提升超过 10 倍,同时显著降低功耗。
据悉,两款机架解决方案均采用直接液冷的散热方案,支持通过 PCIe 进行纵向扩展,以及通过以太网进行横向扩展。高通透露,单机柜功耗为 160 千瓦。
高通技术规划、边缘解决方案与数据中心高级副总裁兼总经理 Durga Malladi 在公告中表示:「通过高通 AI200 和 AI250。我们正在重新定义机柜级 AI 推理的可能性。这些创新的 AI 基础设施解决方案,使客户能够以史无前例的总拥有成本部署生成式 AI,同时保持现代数据中心所需的灵活性与安全性。」
高通也在周一宣布,将实现类似于英伟达和 AMD 的产品发布节奏——每年都推出一款新的算力芯片。
公司发言人拒绝透露芯片或产品的具体价格,或哪家代工厂正在制造这些处理器。三星和台积电都将高通列为客户。
值得一提的是,高通今年 5 月曾与沙特国家级人工智能企业 Humain 签署合作协议。高通也在周一宣布,Humain 是这款新芯片的首个用户,目标是从 2026 年起部署 200 兆瓦的 AI200 和 AI250 机架解决方案。

(来源:高通)
这两块人工智能芯片也代表着高通加速战略转变:此前高通主要专注于无线连接和移动设备半导体,并非大型数据中心芯片。
目前高通的绝大部分营收仍来自手机芯片。在最近一个财季中,高通共取得 89.93 亿美元的半导体收入,其中手机业务贡献 63.3 亿美元。但智能手机的销量增长趋缓,叠加苹果等大客户转向自研芯片,逼着高通迈出开拓的步伐。
麦肯锡曾预期,到 2030 年用于数据中心的资本支出将达到近 6.7 万亿美元,其中大部分将花在 AI 芯片系统上。虽然该行业目前仍由英伟达主导,但 OpenAI、谷歌、亚马逊等公司一直在寻找替代方案,甚至自己下场研发芯片。

(财联社)
文章转载自 东方财富



