今年春节,AI 行业 「无人入眠」。阿里巴巴、字节跳动、腾讯、月之暗面等中国 AI 企业发起了一场史无前例的春节攻势。
截至 2 月 17 日 (大年初一) 凌晨,战局初定。阿里巴巴凭借 「芯片+云+模型」 的垂直整合优势,打出了一场 B 端与 C 端的双线大捷。
在 B 端,阿里除夕开源全新一代大模型千问 Qwen 3.5-Plus,不仅性能对标谷歌 Gemini 3 Pro,更祭出了令市场咋舌的 1/18「地板价」。
而在 C 端,战况更为激烈。最新数据显示,春节期间超过 1.3 亿人涌入千问 App 体验 AI 购物,千问日活 (DAU) 在短短三个月内飙升至 7300 万量级,迅速追平了字节跳动 「豆包」 积累三年的身位。
这场春节大战的背后,是 AI 价值重心的转移——从以 Chat 为代表的 「陪聊」,转向以 Agent 为代表的 「办事」。阿里正试图利用其独有的 「通云哥」 全栈能力,解决困扰行业的两大难题:推理成本的摩尔定律与商业变现的 「最后一公里」。
B 端 「降本奇迹」:
性能媲美谷歌旗舰,成本仅为 1/18
2 月 16 日除夕,Qwen 3.5-Plus 正式开源。在大模型 「百模大战」 进入深水区后,阿里不再单纯卷参数,而是卷 「单位算力经济性」。
阿里此次发布的 Qwen 3.5-Plus,采用创新的稀疏混合专家 (MoE) 架构,总参数 3970 亿,但激活参数仅 170 亿。这种 「以小胜大」 的架构革新,直接带来了推理效率的指数级提升。数据显示,其最大推理吞吐量提升至 19 倍,显存占用降低 60%。
更具杀伤力的是推理效率。Qwen 3.5-Plus 的 API 价格低至每百万 Token 0.8 元。在同等性能水平下,这一价格仅为谷歌 Gemini 3 Pro 的 1/18。
阿里此举意在通过极致的性价比,加速企业级 AI 的渗透率,同时对那些依赖 API 转售或缺乏底层算力优化的中间层模型厂商形成 「降维打击」。
自 2023 年以来,阿里已开源超 400 个模型,全球下载量突破 10 亿次,其策略非常清晰:用开源通过规模效应摊薄成本,用低价构建生态护城河。

国民级 AI 助手诞生:
1.3 亿人 「唤醒」Agent
2 月 17 日最新数据显示,春节期间用户向千问发出了 50 亿次 「千问帮我」 的指令,1.3 亿人首次体验了 AI 购物。这一数据标志着 「千问帮我」 已成为 AI 时代的用户新习惯,千问一跃成为国民级 AI 助手。
增长数据的颗粒度透露出惊人的渗透力:
票务爆发:随着春节档电影上线,千问电影票订单环比增长 372 倍,交通票务增长超 7 倍;
-
下沉市场:来自三四线城市的 AI 订单量暴涨 782 倍,所有 AI 订单中近一半来自县城;
-
跨越鸿沟:近 400 万 60 岁以上用户体验了 AI 购物,证明了 「一句话点单」 正在抹平数字鸿沟。
QuestMobile 数据显示,2 月 7 日千问 DAU 已达 7352 万,逼近豆包的 7871 万。豆包走了三年的路,千问仅用 3 个月就跑完了。
这背后是阿里生态的 「集团军作战」。目前,淘宝、支付宝、飞猪、高德、大麦等核心资产均已接入千问,未来还将上线 AI 打车、充值等功能。
相比于 OpenAI 和谷歌,阿里拥有 「从意图到执行」 的完整履约网络——这正是硅谷巨头们目前最眼红的能力。
「通云哥」 铁三角:
掌握核心算力定义权
阿里为何能同时支撑 B 端的 「价格战」 和 C 端的 「亿级并发」?底气源于其被称为 「通云哥」 的硬核科技战略。
「通云哥」 即通义实验室 (模型)、阿里云 (基建) 与平头哥 (芯片) 的黄金三角。市场消息显示,阿里已决定支持平头哥未来独立上市。
在全球 AI 军备竞赛中,垂直整合是降低成本的唯一解。谷歌通过 「TPU+Cloud+Gemini」 验证了这一逻辑,而阿里则更进一步。通过自研芯片 「真武」 与千问模型的深度耦合,阿里实现了一台软硬一体的 「AI 超级计算机」。
这种底层架构的统一,使得阿里能够最大化压榨算力效率。在 FP8、FP32 精度应用策略下,训练成本大幅降低,训练速度提升 10%。
对于市场而言,阿里的叙事逻辑正在发生变化。
过去,市场担忧阿里在 AI 时代缺乏类似 ChatGPT 的现象级入口。但这个春节的战果表明,阿里正在通过 「最强开源模型+最全实体生态」 的双轮驱动,走出一条不同于硅谷的道路:不只是做会聊天的 Chat,更要做能办事的 Agent。
当 AI 从 「尝鲜」 走向 「实用」,拥有算力定价权和商业履约能力的阿里,或许才刚刚展露其在 AI 时代的真实力量。
(国际金融报)
文章转载自 东方财富





