作者:
范佳来
火山引擎披露最新成绩:豆包大模型日均 Tokens(大模型文本单位) 调用量已突破 30 万亿。
10 月 16 日,火山引擎发布豆包大模型系列更新,包括豆包大模型 1.6 原生支持多种思考长度,并推出了豆包大模型 1.6 lite、豆包语音合成模型 2.0、豆包声音复刻模型 2.0 等全新模型。
澎湃新闻记者获悉,截至 9 月底,豆包大模型日均 Tokens 调用量已突破 30 万亿,相比今年 5 月底增长超 80%。在企业市场,IDC 报告显示,今年上半年中国公有云大模型服务市场,火山引擎以 49.2% 的份额占比位居中国第一。
「大模型创新和服务是 AI 市场未来最大变量,我们先把产品做好,生态做好,才能考虑市场未来的发展。」 在接受澎湃新闻等媒体采访时,火山引擎 CEO 谭待表示。
国内首个 「分档调节思考长度」 的模型
此次升级中,豆包大模型 1.6 成为国内首个原生支持 「分档调节思考长度」 的模型,提供 Minimal、Low、Medium、High 四档选择,可适配企业不同场景需求。
据实测,选择低思考长度档位时,模型总输出 Tokens 较旧版下降 77.5%、思考时间缩短 84.6%,且效果保持不变——这一优化直接解决了此前深度思考模式 「使用率仅 18%」 的痛点。
以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包 1.6 模型总输出 tokens 下降 77.5%、思考时间下降 84.6%,模型效果保持不变。
此外,火山引擎推出豆包大模型 1.6 lite,相比旗舰版本更轻量、推理速度更快。效果上,该模型超越豆包大模型 1.5 pro,在企业级场景测评中较豆包 1.5 pro 提升 14%;在使用量最大的 0-32k 输入区间里,综合使用成本较豆包 1.5 pro 降低 53.3%。
火山引擎总裁谭待告诉澎湃新闻记者,当前全球 AI 大模型正沿三大方向演进:深度思考与多模态能力融合、音视频模型达生产级水平、企业级复杂 Agent 走向成熟。
「现在 Tokens 增长趋势还远远没有结束,未来可能还能涨几百倍。」 谭待坦言,在他看来,「Tokens 调用量是衡量企业 AI 转型的关键指标——若日均 Tokens 不足 10 亿,很难说真正在做 AI 转型」,而火山引擎 Tokens 增长的核心逻辑是 「为客户创造更大价值」:企业愿付费使用,本质是 Tokens 能带来 「硬件好卖、效率提升、成本降低」 等实际增益。
未来增长趋势:生成类模型
「生成类模型增长非常快,生图生视频用得越来越多,大家平时作为用户,豆包上也会用到这样的能力。」 谭待告诉澎湃新闻记者,另一个增长点是 AI 代码 (coding),在国外已经用得非常多,国内受限于模型的限制、能力的限制,还没有完全爆发。
谭待还透露,在过去 4 年,火山引擎每年营收目标都超预期完成,今年也是如此,「我们应该更早意识到 AI 变化意味着什么,我们做好布局。把这件事情做好,结果就水到渠成。对我们来说,AI 大幅降低企业和开发者使用的门槛。」
当天,面对 「模型太多选不准」 的行业难题,火山引擎发布国内首个模型智能选择方案——智能模型路由 (Smart Model Router),即日起在火山方舟平台开放使用,支持 「平衡模式」「效果优先模式」「成本优先模式」 三种选择,可自动匹配最优模型,实现 「效果与成本双优」。
实测数据显示,在效果优先模式下,路由至 DeepSeek 模型时效果较直接使用 DeepSeek-V3.1 提升 14%;成本优先模式下,在保持 DeepSeek-V3.1 相似效果的前提下,综合成本最高下降超 70%。值得注意的是,该路由不仅支持豆包全系模型,还兼容 DeepSeek、Qwen、Kimi 等主流开源模型,且路由本身不收费,仅按最终调用的模型计费。
(澎湃新闻)
文章转载自东方财富