【文章来源:天天财富】
中信证券研报称,2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。中信证券认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
全文如下
通信|国产大模型超预期,重视国产算力投资机遇
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
▍软件层面:2026 春节期间,国产大模型 token 调用量井喷,AI 叙事持续发酵。
2026 年 2 月 22 日,根据 OpenRouter 官网数据,此前一周的全球大模型 token 用量中,MiniMax M2.5 继续以单周 3.02T tokens 的用量霸榜全球第一,Kimi K2.5 则以 1.03T tokens 位列第二,GLM 5 以 816B tokens 位列第三,前三甲均为国产大模型。我们认为,国产大模型 token 调用量增长核心驱动力来自两点:1)AI 从可选功能成为 C 端、B 端用户的默认接口,渗透率全面爆发;2) 应用场景从简单对话 AI,向多模态 (文本/图像/音频/视频)、AI 智能体(Agents) 升级,单次任务 token 消耗呈指数级上升。此外根据 OpenRouter 的数据,平台超 70% 的 token 消耗量,来自互联网大厂、中大型企业、专业开发者的生产环境常态化调用,这类场景的单次 token 调用量远超个人用户、小型测试项目等。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容。
▍配套硬件层面:国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。
春节期间,阿里及腾讯均推出 NPO 重大成果,其中阿里云全光 Scale-up 网络架构 UPN512 通过光互连直接连接 xPU 与交换机,采用单层 CLOS 拓扑实现 512 颗 xPU 的全互联,该方案彻底消除机柜内高速铜缆,显著降低布线复杂度、散热负担、供电需求及运维成本,功耗降低 50%,成本下降 30%。我们认为,国产算力配套凭借着成本、生态等优势,有望从仅服务国内大厂,演进为通过国产 AI 模型从而服务全球用户,打开国产算力的需求上限。
▍中美 AI 军备竞赛如火如荼,建议重视国产算力设施环节。
当前中美双方各大云巨头均大幅加大 AI 相关资本开支:根据 CNBC 于 2 月 20 日报道,OpenAI 正在向投资者传达,公司目前的目标是到 2030 年累计投入约 6000 亿美元的算力支出;根据金融时报此前 2025 年 12 月 23 日报道,字节跳动已初步规划 2026 年资本开支 1600 亿元人民币,高于 2025 年约 1500 亿元人民币;阿里于 2025 年云栖大会同样表示,将在未来三年 3800 亿元人民币的资本开支投入基础上,额外增加投入。国产算力中,超节点架构是国产算力建设实现后发赶超的必经之路,云厂商与设备商正加速推进开放协议的适配,建议重点关注互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
1) 光通信:在 AI 产业持续高景气的背景下,光互联正在逐渐替代铜连接,成为实现高性能、高带宽、低延迟 AI 网络的关键。其中 Scale out 层面,可插拔光模块仍为无可争议的第一选择;而 Scale up 层面作为新兴光模块市场,技术处于高速迭代阶段,NPO、CPO 等方案同步演进。
2) 高速线模组:线模组负责板卡间的短距高带宽低损连接,如机柜内 Scaleup 互联,随着超节点规模扩大,以及卡间互联速率提升,价值量有望大幅提升。
3) 交换芯片及交换机:根据 NADDOD 和 Semianalysis 测算,以英伟达为例,随着超节点规模从 NVL72 向 NVL576 甚至更高提升,GPU 与交换芯片比例正从的 2.67:1 向 1:1 甚至更高趋近,AMD 与华为的超节点方案亦验证了这一趋势,交换环节随着与 GPU 配比关系的提升而价值量大幅提升。
4)IDC:AIDC 为算力基座,本质是科技属性的重资产租赁服务,前期 Capex 投入较大,建设通常需要 1-3 年,客户上架通常需要 6-18 个月,一般上架率达到 50% 即可实现盈亏平衡,头部厂商的 IDC 在超 90% 上架率的情况下,我们测算能实现超 50% 毛利率和超 30% 的净利率。在行业需求急速上升背景下,AIDC 景气度高速上行,看好国内 AI 基建的持续性,AIDC 有望重点受益;其中,具备大量优质资源储备的龙头料将迎来需求爆发式增长。
▍风险因素:
AI 技术发展应用不及预期;国内新型基础建设不及预期;AI 相关政策落地不及预期;云厂商、运营商资本开支不及预期;地缘政治风险。
▍投资策略:
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
(文章来源:人民财讯)
(原标题:中信证券:国产大模型超预期,重视国产算力投资机遇)
(责任编辑:70)
【文章来源:天天财富】
中信证券研报称,2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。中信证券认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
全文如下
通信|国产大模型超预期,重视国产算力投资机遇
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
▍软件层面:2026 春节期间,国产大模型 token 调用量井喷,AI 叙事持续发酵。
2026 年 2 月 22 日,根据 OpenRouter 官网数据,此前一周的全球大模型 token 用量中,MiniMax M2.5 继续以单周 3.02T tokens 的用量霸榜全球第一,Kimi K2.5 则以 1.03T tokens 位列第二,GLM 5 以 816B tokens 位列第三,前三甲均为国产大模型。我们认为,国产大模型 token 调用量增长核心驱动力来自两点:1)AI 从可选功能成为 C 端、B 端用户的默认接口,渗透率全面爆发;2) 应用场景从简单对话 AI,向多模态 (文本/图像/音频/视频)、AI 智能体(Agents) 升级,单次任务 token 消耗呈指数级上升。此外根据 OpenRouter 的数据,平台超 70% 的 token 消耗量,来自互联网大厂、中大型企业、专业开发者的生产环境常态化调用,这类场景的单次 token 调用量远超个人用户、小型测试项目等。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容。
▍配套硬件层面:国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。
春节期间,阿里及腾讯均推出 NPO 重大成果,其中阿里云全光 Scale-up 网络架构 UPN512 通过光互连直接连接 xPU 与交换机,采用单层 CLOS 拓扑实现 512 颗 xPU 的全互联,该方案彻底消除机柜内高速铜缆,显著降低布线复杂度、散热负担、供电需求及运维成本,功耗降低 50%,成本下降 30%。我们认为,国产算力配套凭借着成本、生态等优势,有望从仅服务国内大厂,演进为通过国产 AI 模型从而服务全球用户,打开国产算力的需求上限。
▍中美 AI 军备竞赛如火如荼,建议重视国产算力设施环节。
当前中美双方各大云巨头均大幅加大 AI 相关资本开支:根据 CNBC 于 2 月 20 日报道,OpenAI 正在向投资者传达,公司目前的目标是到 2030 年累计投入约 6000 亿美元的算力支出;根据金融时报此前 2025 年 12 月 23 日报道,字节跳动已初步规划 2026 年资本开支 1600 亿元人民币,高于 2025 年约 1500 亿元人民币;阿里于 2025 年云栖大会同样表示,将在未来三年 3800 亿元人民币的资本开支投入基础上,额外增加投入。国产算力中,超节点架构是国产算力建设实现后发赶超的必经之路,云厂商与设备商正加速推进开放协议的适配,建议重点关注互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
1) 光通信:在 AI 产业持续高景气的背景下,光互联正在逐渐替代铜连接,成为实现高性能、高带宽、低延迟 AI 网络的关键。其中 Scale out 层面,可插拔光模块仍为无可争议的第一选择;而 Scale up 层面作为新兴光模块市场,技术处于高速迭代阶段,NPO、CPO 等方案同步演进。
2) 高速线模组:线模组负责板卡间的短距高带宽低损连接,如机柜内 Scaleup 互联,随着超节点规模扩大,以及卡间互联速率提升,价值量有望大幅提升。
3) 交换芯片及交换机:根据 NADDOD 和 Semianalysis 测算,以英伟达为例,随着超节点规模从 NVL72 向 NVL576 甚至更高提升,GPU 与交换芯片比例正从的 2.67:1 向 1:1 甚至更高趋近,AMD 与华为的超节点方案亦验证了这一趋势,交换环节随着与 GPU 配比关系的提升而价值量大幅提升。
4)IDC:AIDC 为算力基座,本质是科技属性的重资产租赁服务,前期 Capex 投入较大,建设通常需要 1-3 年,客户上架通常需要 6-18 个月,一般上架率达到 50% 即可实现盈亏平衡,头部厂商的 IDC 在超 90% 上架率的情况下,我们测算能实现超 50% 毛利率和超 30% 的净利率。在行业需求急速上升背景下,AIDC 景气度高速上行,看好国内 AI 基建的持续性,AIDC 有望重点受益;其中,具备大量优质资源储备的龙头料将迎来需求爆发式增长。
▍风险因素:
AI 技术发展应用不及预期;国内新型基础建设不及预期;AI 相关政策落地不及预期;云厂商、运营商资本开支不及预期;地缘政治风险。
▍投资策略:
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
(文章来源:人民财讯)
(原标题:中信证券:国产大模型超预期,重视国产算力投资机遇)
(责任编辑:70)
【文章来源:天天财富】
中信证券研报称,2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。中信证券认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
全文如下
通信|国产大模型超预期,重视国产算力投资机遇
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
▍软件层面:2026 春节期间,国产大模型 token 调用量井喷,AI 叙事持续发酵。
2026 年 2 月 22 日,根据 OpenRouter 官网数据,此前一周的全球大模型 token 用量中,MiniMax M2.5 继续以单周 3.02T tokens 的用量霸榜全球第一,Kimi K2.5 则以 1.03T tokens 位列第二,GLM 5 以 816B tokens 位列第三,前三甲均为国产大模型。我们认为,国产大模型 token 调用量增长核心驱动力来自两点:1)AI 从可选功能成为 C 端、B 端用户的默认接口,渗透率全面爆发;2) 应用场景从简单对话 AI,向多模态 (文本/图像/音频/视频)、AI 智能体(Agents) 升级,单次任务 token 消耗呈指数级上升。此外根据 OpenRouter 的数据,平台超 70% 的 token 消耗量,来自互联网大厂、中大型企业、专业开发者的生产环境常态化调用,这类场景的单次 token 调用量远超个人用户、小型测试项目等。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容。
▍配套硬件层面:国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。
春节期间,阿里及腾讯均推出 NPO 重大成果,其中阿里云全光 Scale-up 网络架构 UPN512 通过光互连直接连接 xPU 与交换机,采用单层 CLOS 拓扑实现 512 颗 xPU 的全互联,该方案彻底消除机柜内高速铜缆,显著降低布线复杂度、散热负担、供电需求及运维成本,功耗降低 50%,成本下降 30%。我们认为,国产算力配套凭借着成本、生态等优势,有望从仅服务国内大厂,演进为通过国产 AI 模型从而服务全球用户,打开国产算力的需求上限。
▍中美 AI 军备竞赛如火如荼,建议重视国产算力设施环节。
当前中美双方各大云巨头均大幅加大 AI 相关资本开支:根据 CNBC 于 2 月 20 日报道,OpenAI 正在向投资者传达,公司目前的目标是到 2030 年累计投入约 6000 亿美元的算力支出;根据金融时报此前 2025 年 12 月 23 日报道,字节跳动已初步规划 2026 年资本开支 1600 亿元人民币,高于 2025 年约 1500 亿元人民币;阿里于 2025 年云栖大会同样表示,将在未来三年 3800 亿元人民币的资本开支投入基础上,额外增加投入。国产算力中,超节点架构是国产算力建设实现后发赶超的必经之路,云厂商与设备商正加速推进开放协议的适配,建议重点关注互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
1) 光通信:在 AI 产业持续高景气的背景下,光互联正在逐渐替代铜连接,成为实现高性能、高带宽、低延迟 AI 网络的关键。其中 Scale out 层面,可插拔光模块仍为无可争议的第一选择;而 Scale up 层面作为新兴光模块市场,技术处于高速迭代阶段,NPO、CPO 等方案同步演进。
2) 高速线模组:线模组负责板卡间的短距高带宽低损连接,如机柜内 Scaleup 互联,随着超节点规模扩大,以及卡间互联速率提升,价值量有望大幅提升。
3) 交换芯片及交换机:根据 NADDOD 和 Semianalysis 测算,以英伟达为例,随着超节点规模从 NVL72 向 NVL576 甚至更高提升,GPU 与交换芯片比例正从的 2.67:1 向 1:1 甚至更高趋近,AMD 与华为的超节点方案亦验证了这一趋势,交换环节随着与 GPU 配比关系的提升而价值量大幅提升。
4)IDC:AIDC 为算力基座,本质是科技属性的重资产租赁服务,前期 Capex 投入较大,建设通常需要 1-3 年,客户上架通常需要 6-18 个月,一般上架率达到 50% 即可实现盈亏平衡,头部厂商的 IDC 在超 90% 上架率的情况下,我们测算能实现超 50% 毛利率和超 30% 的净利率。在行业需求急速上升背景下,AIDC 景气度高速上行,看好国内 AI 基建的持续性,AIDC 有望重点受益;其中,具备大量优质资源储备的龙头料将迎来需求爆发式增长。
▍风险因素:
AI 技术发展应用不及预期;国内新型基础建设不及预期;AI 相关政策落地不及预期;云厂商、运营商资本开支不及预期;地缘政治风险。
▍投资策略:
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
(文章来源:人民财讯)
(原标题:中信证券:国产大模型超预期,重视国产算力投资机遇)
(责任编辑:70)
【文章来源:天天财富】
中信证券研报称,2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。中信证券认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
全文如下
通信|国产大模型超预期,重视国产算力投资机遇
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
▍软件层面:2026 春节期间,国产大模型 token 调用量井喷,AI 叙事持续发酵。
2026 年 2 月 22 日,根据 OpenRouter 官网数据,此前一周的全球大模型 token 用量中,MiniMax M2.5 继续以单周 3.02T tokens 的用量霸榜全球第一,Kimi K2.5 则以 1.03T tokens 位列第二,GLM 5 以 816B tokens 位列第三,前三甲均为国产大模型。我们认为,国产大模型 token 调用量增长核心驱动力来自两点:1)AI 从可选功能成为 C 端、B 端用户的默认接口,渗透率全面爆发;2) 应用场景从简单对话 AI,向多模态 (文本/图像/音频/视频)、AI 智能体(Agents) 升级,单次任务 token 消耗呈指数级上升。此外根据 OpenRouter 的数据,平台超 70% 的 token 消耗量,来自互联网大厂、中大型企业、专业开发者的生产环境常态化调用,这类场景的单次 token 调用量远超个人用户、小型测试项目等。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容。
▍配套硬件层面:国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。
春节期间,阿里及腾讯均推出 NPO 重大成果,其中阿里云全光 Scale-up 网络架构 UPN512 通过光互连直接连接 xPU 与交换机,采用单层 CLOS 拓扑实现 512 颗 xPU 的全互联,该方案彻底消除机柜内高速铜缆,显著降低布线复杂度、散热负担、供电需求及运维成本,功耗降低 50%,成本下降 30%。我们认为,国产算力配套凭借着成本、生态等优势,有望从仅服务国内大厂,演进为通过国产 AI 模型从而服务全球用户,打开国产算力的需求上限。
▍中美 AI 军备竞赛如火如荼,建议重视国产算力设施环节。
当前中美双方各大云巨头均大幅加大 AI 相关资本开支:根据 CNBC 于 2 月 20 日报道,OpenAI 正在向投资者传达,公司目前的目标是到 2030 年累计投入约 6000 亿美元的算力支出;根据金融时报此前 2025 年 12 月 23 日报道,字节跳动已初步规划 2026 年资本开支 1600 亿元人民币,高于 2025 年约 1500 亿元人民币;阿里于 2025 年云栖大会同样表示,将在未来三年 3800 亿元人民币的资本开支投入基础上,额外增加投入。国产算力中,超节点架构是国产算力建设实现后发赶超的必经之路,云厂商与设备商正加速推进开放协议的适配,建议重点关注互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
1) 光通信:在 AI 产业持续高景气的背景下,光互联正在逐渐替代铜连接,成为实现高性能、高带宽、低延迟 AI 网络的关键。其中 Scale out 层面,可插拔光模块仍为无可争议的第一选择;而 Scale up 层面作为新兴光模块市场,技术处于高速迭代阶段,NPO、CPO 等方案同步演进。
2) 高速线模组:线模组负责板卡间的短距高带宽低损连接,如机柜内 Scaleup 互联,随着超节点规模扩大,以及卡间互联速率提升,价值量有望大幅提升。
3) 交换芯片及交换机:根据 NADDOD 和 Semianalysis 测算,以英伟达为例,随着超节点规模从 NVL72 向 NVL576 甚至更高提升,GPU 与交换芯片比例正从的 2.67:1 向 1:1 甚至更高趋近,AMD 与华为的超节点方案亦验证了这一趋势,交换环节随着与 GPU 配比关系的提升而价值量大幅提升。
4)IDC:AIDC 为算力基座,本质是科技属性的重资产租赁服务,前期 Capex 投入较大,建设通常需要 1-3 年,客户上架通常需要 6-18 个月,一般上架率达到 50% 即可实现盈亏平衡,头部厂商的 IDC 在超 90% 上架率的情况下,我们测算能实现超 50% 毛利率和超 30% 的净利率。在行业需求急速上升背景下,AIDC 景气度高速上行,看好国内 AI 基建的持续性,AIDC 有望重点受益;其中,具备大量优质资源储备的龙头料将迎来需求爆发式增长。
▍风险因素:
AI 技术发展应用不及预期;国内新型基础建设不及预期;AI 相关政策落地不及预期;云厂商、运营商资本开支不及预期;地缘政治风险。
▍投资策略:
2026 春节期间,国产大模型 token 调用量井喷,截至 2 月 22 日此前一周的全球大模型 token 用量中,前三甲均为国产大模型。我们认为,token 的爆发式增长,本质上反映出 AI 推理需求的指数级扩容,而国产算力凭借着成本优势及不断完善的生态,有望在基础设施层逐步占据主导。建议重点关注由超节点互联密度提升带来的价值重估机遇,包括光通信、高速线模组、交换芯片及交换机、IDC 等环节。
(文章来源:人民财讯)
(原标题:中信证券:国产大模型超预期,重视国产算力投资机遇)
(责任编辑:70)



