英伟达周二宣布推出专用 GPU Rubin CPX,翻倍提升 AI 推理运算效率,预计 2026 年底出货。下一代旗舰 AI 服务器将集成 144 块 Rubin CPX,性能比当前旗舰高 6.5 倍。同时,英伟达第二季度收入达 467 亿美元,超预期。另博通获神秘客户 100 亿美元芯片订单,或为 OpenAI,将与英伟达竞争,但 AI 市场扩张下,英伟达或仍能保持稳定增长。
每经编辑|毕陆名
全球人工智能算力芯片龙头英伟达 (NVDA,股价:170.760 美元;总市值:4.15 万亿美元) 周二宣布,推出专为长上下文工作负载设计的专用 GPU Rubin CPX,用于翻倍提升当前 AI 推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。
NVIDIA Vera Rubin NVL144 CPX 机架与托盘,来源:公司博客
英伟达 CEO 黄仁勋表示,CPX 是首款专为需要一次性处理大量知识 (数百万级别 tokens),并进行人工智能推理的模型而构建的芯片。
需要说明的是,Rubin 就是英伟达将在明年发售的下一代顶级算力芯片,所以基于 Rubin 的 CPX 预计也要到 2026 年底出货。下一代英伟达旗舰 AI 服务器的全称叫做 NVIDIA Vera Rubin NVL144 CPX——集成 36 个 Vera CPU、144 块 Rubin GPU 和 144 块 Rubin CPX GPU。
英伟达透露,搭载 Rubin CPX 的 Rubin 机架在处理大上下文窗口时的性能,能比当前旗舰机架 GB300 NVL72 高出最多 6.5 倍。
据悉,下一代旗舰机架将提供 8exaFLOPs 的 NVFP4 算力,比 GB300 NVL72 高出 7.5 倍。同时单个机架就能提供 100TB 的高速内存和 1.7PB/s 的内存带宽。
作为行业首创之举,英伟达的新品在硬件层面上分拆了人工智能推理的计算负载。
英伟达介绍称,推理过程包括两个截然不同的阶段:上下文阶段与生成阶段,两者对基础设施的要求本质上完全不同。
据悉,Rubin CPX 专门针对 「数百万 tokens」 级别的长上下文性能进行优化,具备 30petaFLOPs 的 NVFP4 算力、128GB GDDR7 内存。
英伟达估计,大约有 20% 的 AI 应用会 「坐等」 首个 token 出现。例如解码 10 万行代码可能需要 5-10 分钟。而多帧、多秒的视频,预处理和逐帧嵌入会迅速增加延迟,这也是为什么当前的视频大模型通常仅用于制作短片。
英伟达计划以两种形式提供 Rubin CPX,一种是与 Vera Rubin 装在同一个托盘上。对于已经下单 NVL144 的用户,英伟达也会单独出售一整个机架的 CPX 芯片,数量正好匹配 Rubin 机架。
美国东部时间 8 月 27 日美股盘后,英伟达发布 2026 财年第二季度财报。第二季度,英伟达收入达到 467 亿美元,超过此前市场预期的 461 亿美元,比去年同期增长 55%;净利润 (按美国标准会计准则 GAAP 衡量) 为 264 亿美元,同比增长 60%,换算成每股收益 (EPS) 为 1.04 美元,也超出了市场预期的 1.01 美元。
毛利率则有所下滑,该季度为 72.4%,去年同期为 75.2%。对下一季度的业绩展望,英伟达预计第三季度收入将达到 540 亿美元,毛利率预计在 73.3% 至 73.5% 之间。截至收盘,英伟达涨 0.77%,公司最新市值 4.09 万亿美元。
4 日,博通盘后公布的第三财季业绩超出预期,并为第四财季提供了强劲的指引。公司预计,第四财季的人工智能芯片业务继续提速。
在财报电话会上,博通首席执行官陈福阳 (Hock Tan) 表示,公司已从一家神秘的新客户那里获得了 100 亿美元的定制芯片订单,这一消息令投资者们感到惊喜。
电话会后不久,业内人士透露,这名新客户极大可能就是人工智能领军企业 OpenAI——消息称,OpenAI 与博通共同设计的芯片将在明年首次上市,以减少对英伟达产品的依赖。
这意味着,博通将更直接地与人工智能 (AI) 硬件龙头英伟达竞争。
Clearstead Advisors 高管 Jim Awad 表示,投资者需要准备好面对英伟达在该领域出现更多竞争的局面,但由于 AI 市场本身的快速扩张,即便失去部分市场份额,公司依然能保持稳定增长。
「我认为这 (英伟达股价下跌) 只是膝跳反应,不是卖出的理由,」Awad 说道,「关键要看博通和 OpenAI 接下来的执行情况,目前没人能在一夜之间夺走英伟达的生意。」
每日经济新闻综合英伟达、公开信息
封面图片来源:视觉中国
文章转载自 每经网