12月18日,上海世博中心,火山引擎原动力大会现场人山人海。
谭待表示,截至今年12月,豆包大模型日均Tokens使用量已突破50万亿,居中国第一、全球第三;超过100家企业在火山引擎上累计Tokens使用量超过一万亿。
大会发布的豆包大模型1.8、豆包视频生成模型Seedance 1.5 pro等一系列模型,一如既往,不负众多观众的期待。
作为云计算领域的后来者,火山引擎正乘着大模型,成为行业不可忽视的角色。在这背后,火山引擎都做对了什么?
AI云时代,Tokens 调用量正成为核心度量标准
大模型浪潮来袭两年,MaaS正成为云厂商争夺的核心市场,是新的基础设施。而Tokens,更是成为衡量大模型产业落地的关键标尺。
在Force原动力大会上,谭待坦言:“每一次Force大会,我们都会来公布豆包大模型日均tokens的数据。因为模型只有在被调用的时候才能发挥价值,越有价值的模型调用的次数也就越多。”
Tokens的消耗往往真实反映企业在产品落地过程中实际使用量。换言之,MaaS时代,Tokens的消耗更能反映一家云计算厂商在市场的占有率。
过去,人们提到云计算无外乎IaaS、PaaS、SaaS,创新几乎停滞,基本没有颠覆性升级,集中于优化成本,以更高效、更弹性、更经济的方式通过互联网交付。
2023年,以ChatGPT为代表的大语言模型带来了生成式AI的革命,为云计算的升级带来全新的驱动力。
训练和运行大模型需要前所未有的海量算力,直接刺激了云基础设施的升级需求,云的核心价值从“提供计算资源”转变为 “提供智能能力” 。
AI不再只是云上的一种服务,而成为了云平台的“大脑”和“新操作系统”,MaaS(模型即服务)的火热成为AI云时代的标志特征。
所谓MaaS,是指云计算厂商将自己训练好的、或从合作伙伴获得的大模型,通过API、精调工具、部署平台等形式,提供给企业和开发者直接调用。
在MaaS的服务下,用户不再需要从零开始训练模型的天价成本。换言之,用户无需从零开始训练天价成本的模型。
比如,火山引擎的火山方舟平台、阿里云的灵积平台、百度的文心千帆,都是MaaS平台的代表。
作为火山引擎在AI时代的战略布局,早在2023年,火山引擎就推出火山方舟一站式大模型服务平台,服务涵盖汽车
、智能终端、金融等领域。尤其是,在汽车、智能终端等领域,火山方舟的客户已经涵盖90%以上的企业。
一年前的Force大会,火山引擎提出「AI 云原生」概念。与此前行业常说的「云原生+AI」不同,「AI 云原生」更加强调模型的主导性,将模型作为智能体生产流程的驱动力。
2025年2月,火山引擎进一步明确,AI云原生的核心是“以模型为中心”。12月18日的Force原动力大会上,谭待表示,我们需要一个全新的面向Agent来设计的新架构。这个技术架构就是火山引擎一直在提倡的AI云原生架构。在这个架构里,模型是软件的核心,MaaS则是使用模型的最佳方式。通过模型和MaaS,火山引擎将算力以tokens的方式转化为了智能。
大模型的出现,将云计算从 “生产力工具”的云,升级为 “创造力引擎”的云。云计算的竞争,从过去 “资源的战争” ,演变成为AI时代 “智能的战争”。
对开发者而言,他们不再直接操作底层设施,而是通过API调用强大的模型能力。也因此,企业与开发者在整个用云过程中消耗的Tokens数量,成为反映最终的服务交付量。换言之,在AI云原生的新形态时代,云计算最终是算力换智能的Tokens服务交付。
就像工业时代用“千瓦时”度量电力消耗,互联网时代用“GB”度量数据流量一样,AI时代,“Token”将成为度量模型工作量关键指标,成为主要的计费和资源度量单位,精确反映Agent和模型的使用成本,并向用户输送智能。一个行业的Tokens调用量越多,说明这个行业的AI落地进程越快。
2025年,AI Agent成为大众词汇,受到越来越多关注。
谭待表示,回顾历史,我们现在正处在从PC、移动到AI这三个时代的变化之中。PC时代,技术主体是Web和网站;移动时代则是APP,AI的主体就是Agent。Agent能够自主感知规划和执行,完成复杂任务,软件也在历史上第一次从被动的工具变成主动的执行者。
不同于传统云计算时代的IaaS、PaaS、SaaS这样的分层规划IT架构,在AI时代,这样的体系不再完备,我们需要一个全新的面向Agent来设计的新架构。这就是火山引擎一直在提倡的AI云原生架构,在AI云原生架构中,模型是软件的核心,MaaS则是使用模型的最佳方式。通过模型和MaaS我们将算力以tokens的方式转化为了智能。同时围绕Agent开发和Agent运营,云平台和中间件进一步把Tokens组装成Agents,并实现Agent和现有工作流、Agent和Agent之间的智能互通。
为此,火山引擎升级了AI云原生全栈服务:MaaS服务上,推出企业自有模型的推理代工服务、强化学习平台;面向Agent开发,发布企业级AI Agent平台AgentKit;面向Agent运营,发布HiAgent“1+N+X”智能体工作站,让Agent实现大规模落地。
火山引擎Tokens 流向全景: MaaS 的产业落地矩阵
以Tokens调用量来看,最早押中MaaS的云厂商之一,火山引擎,是当下毫无疑问的Top级。
IDC《中国大模型公有云服务市场分析,2025H1》调研报告显示,2025年上半年,中国公有云上大模型调用量达 536.7 万亿 Tokens, 较2024 年全年 114 万亿 Tokens 的总量规模增长近 400%。
数据显示,2025年上半年,火山引擎MaaS调用Token量占整个中国公有云市场49.2%,与2024年的46.4%相比,火山引擎的市场份额还在继续上升。
并且,以上数据的统计口径不包括自有业务,而是以云厂商对外部客户提供的服务的Token 量为准。
如此大规模的调用量背后,是火山引擎依托豆包大模型以及火山方舟,为用户提供越来越便利的模型调用平台。
Gartner®发布的2025年度全球《AI应用开发平台魔力象限》(下称报告)显示,凭借豆包大模型和火山方舟大模型服务平台 ,火山引擎领跑全球“挑战者”象限。
这是 Gartner 首次评估全球 AI 应用开发平台,标志着MaaS市场逐渐走向成熟。Gartner 指出,AI 应用开发平台提供了必要的工具集,稍有计算机知识的企业开发者即可借助该平台构建 AI 助手、Agent 和多模态应用。
作为AI云时代的尖兵,火山引擎早在2024年5月便推出AI应用开发平台——扣子专业版,其低门槛、个性化、实时性、多模态等优势,受到不少传统企业的赞誉。
彼时,雷峰网在《闷声狂奔一年,字节大模型的进阶之路》就曾写道,招商银行搭建“掌上生活”bot,海底捞搭建顾客评价分析模型等使用火山方舟扣子平台的优秀案例。
随着助手类应用、多模态应用逐渐迈向 Agentic AI,火山方舟作为 MaaS 平台围绕“有好模型”到“用好模型”,推出了一系列框架、工具、产品,支撑AI应用更易落地。
今年以来,火山引擎多次升级旗下 AI 云原生套件,优化了从训练、推理到 Agent 开发的 AI 云原生基础设施及解决方案全链路,帮助企业高效构建模型应用和 Agent。
品质生活购物社区平台得物,通过与火山引擎合作,引入火山引擎 Data Agent,优先聚焦“智能看板”和“归因决策”两个场景,逐步实现财务管理场景的 Data Agent(数据智能体)智能升级。
基于双方合作,得物的财务管理效率得到极大提升,特别是在智能看板搭建和归因决策等方面。据得物财务相关负责人介绍,目前财务团队的工作效率得到了大幅提升,财务人员手工处理基础工作的耗时缩短了60%左右。此外,通过流程优化与工具升级,得物将数据等待与处理所需的时间缩短70%。
12月18日大会上,火山引擎HiAgent发布的下一代企业 AI 员工协同入口——AgentSphere(Preview版),为企业打造统一的AI任务调度入口。AgentSphere还支持纳管各种三方Agent,企业通过Coze、Dify或者高代码搭建的Agent都可以通过A2A协议接入,方便企业员工按需选用、高效办公。
AI科技评论注意到,同济大学通过火山引擎HiAgent平台服务了27000多名在校师生,学生们已经创造了14000多个智能体。随着HiAgent的升级,相信AgentSphere(Preview版)会受到越来越多用户的欢迎。
在MaaS的产业化落地上,火山引擎的合作客户已经涵盖金融、教育、手机、汽车等常见行业。
金融方面,火山引擎已经服务中信证券、国泰海通、华泰证券等8成头部券商,招商银行、民生银行等8成系统重要性银行,提供营销、投研、信贷等智能体建设方案。通过“技术支撑+场景共建”的模式,火山引擎为超过200家金融机构提供了技术支持与创新解决方案。
教育方面,火山引擎与北京大学、浙江大学、南开大学等超七成985高校达成合作,通过“模型+平台+解决方案”的模式,为教育科研客户提供全方位的支持。
手机等智能终端方面,火山引擎已与全球Top 10手机厂商中的9家建立了深度合作,成为OPPO、vivo、小米等一线手机厂商的首选AI合作伙伴,覆盖超过5亿台终端设备。
在汽车领域,火山引擎的合作客户更是覆盖超九成主流车企,包括奔驰、宝马、上汽、特斯拉、比亚迪等,覆盖汽车云、智能座舱、企业应用、汽车出海、具身智能等全流程场景。
三个月前,上汽荣威M7 DMH于9月17日正式上市,全球首发搭载了“豆包·深度思考模型”,旨在打造一个真正“会深度思考的AI智舱”。
一位火山引擎人士告诉我们,上汽与豆包的这一项目,实际交付非常快,仅三个多月的时间。据他介绍,一般而言,汽车项目作为To B领域的交付项目,审核比一些C端应用复杂的多,至少需要6个月以上的周期。
上汽与豆包深度思考模型的合作进展之所以能这么快,很大程度上也是基于火山引擎此前的深度积累。
近期,火山引擎与特斯拉的合作受到不少关注。在2025 年 8 月发布的全新 Model Y L(六座旗舰 SUV),豆包大模型与 DeepSeek 模型同时通过火山引擎 API 实现车机集成。
一位行业人士分析,作为一家非常技术流的公司,特斯拉的选择或也更为简单。无他,良好的体验,极致的响应。
特斯拉所以选择火山引擎,与火山的积累,以及在C端和B端兼具口碑都不无关系,这也体现出特斯拉对火山引擎交互团队专业素质和产品理念的认可。
AI 时代,火山引擎凭什么压中 MaaS 机遇
一年多以前,火山引擎首次正式对外发布豆包大模型家族。
彼时,我们在现场就见证了一场小小的「字节式」震撼。尽管此前不少圈内人已经听闻字节的大模型或创新低价格,但当彼时火山引擎正式对外宣布价格时,还是令人大吃一惊。
就当时而言,豆包大模型使用价格低于同行95%以上,快速将模型Token使用价格带入厘时代。很多人觉得,这是豆包大模型在“以亏损换市场”。
彼时,在会后的媒体采访中,火山引擎总裁谭待表示:“用亏损换收入是不可持续的,我们从来不走这条路子。敢于定价这么低,是因为我们对优化推理成本的技术能力很有信心。”
在谭待看来,首先是,字节能做到这样的价格成本;其次是,行业需要这么做,应用的普及需要低成本,只有这样,更多企业才敢于尝试加入大模型应用。
以此为始,各家公有云厂商都开始在比拼服务的同时,提供相对普惠的成本。越来越多的企业开始在生产制造场景中使用AI,大模型落地不再遥不可及,而火山引擎自然成为其中最大的「供应商」。截至2025年12月,豆包大模型日均处理50万亿 Tokens。
12月18日Force原动力大会上,火山引擎进一步创新模型定价模式,推出“AI节省计划”,这是业内首个大模型节省计划,覆盖火山引擎上所有的按量后付大模型产品,包括豆包大模型家族、各类三方开源模型。AI科技评论获悉,该计划还设置了阶梯式折扣,用量越多省得越多,最高可节省 47% 的使用成本。
2025年,AI Agent大面积爆发,但从Demo走向大规模落地,仍面临成本、技术、落地等挑战,火山引擎为用户打造的一整套AI云原生“新底座”,打破智能体规模化落地的壁垒,让Agent真正走入企业日常生产系统。
值得一提的是,火山引擎新带来的豆包助手API已经登陆火山方舟,提供豆包App的日常沟通、深度沟通、联网搜索、边想边搜等文本能力,未来还将陆续开放多模态理解、深入研究、内容创作、视频通话等能力,通过API让企业开箱即用。火山引擎希望通过豆包助手API能够进一步降低AI的创新门槛,能够激发更多企业的创新性,为企业打造自己的专属豆包。
移动互联网时代,字节跳动的C端产品几乎所向披靡。五年前,字节跳动决定自建基础设施,其中最重要的云底层技术。
当时,与之伴随的是,OpenAI在2020年前发布了 ChatGPT3 大语言模型,在AI行业内已经受到颇多关注。两年多后,ChatGPT3.5发布,带动了生成式AI的快速发展。
在公有云领域,MaaS成为未来不可或缺的主流。依托字节积累的技术,火山引擎成为这个时代的新秀。
这种能力,首先体现在字节内部产品上。就字节整个集团而言,火山引擎同时也是对内赋能的,包括豆包、抖音的AI功能等一系列产品交互背后,也有火山引擎的支持。从C端角度来看,字节的豆包已经取得不错的口碑和用户量,稳稳占据行业第一的位置。
QuestMobile数据显示,三季度,通用AI助手赛道呈现出清晰的“一超多强”格局,其中豆包月活环比增长22.2%至1.59亿。
从C端出发,火山引擎自然也能为B端用户带来相对更好的服务。
一位火山引擎人士向雷峰网(公众号:雷峰网)透露,在火山引擎内部,To B和To C底层的基础模型是一套,这在内部被称为基模共建。也就是说,在C端体验比较好的产品,B端用户也能够直接使用,这进一步提升了火山引擎B端用户的体验感。
同时,火山引擎的MaaS平台火山方舟,充分尊重用户需求,对DeepSeek等大模型产品也非常开放。相关的客户也能够通过火山方舟调用其他大模型的API接口。
当然,这绝非意味着,字节的豆包大模型不如其他竞品。相反,不断增多的日均tokens调用量,就是最好的例证。纵观近两年,豆包大模型的迭代升级有目共睹,C端用户的使用数据则是更直接的反馈。只是,不同企业固然会有其自身的一些考量,火山也充分尊重用户,提供不同的选择。
大模型的迭代仍然处在快速升级中,对坚定MaaS路线,关注tokens指标的火山引擎而言,最好的增长机遇或许才刚刚开始。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。
文章来源于互联网:「Tokens 经济」引领 AI 产业化落地,火山引擎凭什么后来居上
