火山引擎总裁谭待:告别“零和内卷”,大模型市场将迎十倍增长

来源 | 《财经》新媒体 作者 | 撰稿人 舒志娟 | 文 编辑 | 高素英  

2025年12月19日 16:03  

本文2124字,约3分钟

AI大模型赛场,已从技术参数的比拼转向规模化落地的竞速。一个核心命题随之浮现:行业增长的核心动力,究竟是存量博弈的“内卷”,还是增量开拓的“协同”?12月18日,火山引擎总裁谭待表示,AI大模型行业已进入规模化应用的关键时期,预计2026年市场规模将在当前基础上再扩大十倍。在他看来,行业发展的核心逻辑并非“零和”内卷,而在于共同将市场蛋糕做大,加速AI技术在各行各业的落地。

谭待认为,大规模的真实应用是打磨模型的基石。海量调用产生的反馈能持续推动模型在性能、响应速度和成本上的优化,从而形成“技术迭代”与“市场应用”相互促进的正向循环。

数据印证了这一趋势:截至12月,豆包大模型日均Tokens调用量已突破50万亿,同比增长超10倍;累计使用量超万亿Token的企业客户已突破100家。谭待预测,未来的Token消耗将呈现“二八格局”,约80%来自企业端,20%来自个人用户。

市场的蓬勃伴随着竞争的同步升温。今年以来,国内AI云市场的“火药味”日渐浓烈,无论从各大机场广告屏中阿里云与火山引擎针锋相对的标语,到MiniMax、智谱等AI公司冲刺港股上市,AI云市场的角逐愈演愈烈。

对此,谭待持开放心态。他指出,尽管各家公司的用户规模都在加速增长,但市场本身的天花板足够高,更多参与者的涌入能共同加速技术普及和场景探索,最终带来更大的行业增长空间。

在谭待眼中,大模型的长期价值,不仅局限于生成打油诗、合成照片等浅层应用,而在于成为推动科研、医疗、教育等领域的创新。

而要支撑这类高价值场景落地,强大的模型能力是关键。基于此,火山引擎推出了豆包大模型1.8和音视频创作模型Seedance 1.5 pro,前者针对智能体(Agent)场景强化了工具调用与复杂指令遵循能力;后者实现了影视级叙事与毫秒级音画同步,并支持多语言与方言,提升了生成内容的真实感与表现力。

“早期的模型满足于对话,但现在企业需要它能看懂带图的质检报告、连接内部系统并理解返回的图表。”谭待解释道。这意味着,AI应用正从“对话式工具”演进为拥有“大脑”和“手脚”的虚拟员工,能自主完成涉及多模态信息理解、多工具调度和多步骤决策的复杂工作流。为支撑这一转变,火山引擎升级了企业级AI智能体平台HiAgent,帮助企业规模化部署和管理智能体应用。

谭待坦言,目前阻碍企业释放大模型价值的主要瓶颈,往往并非模型能力本身,而是智能体的开发与迭代太慢。行业亟需一套专为智能体生命周期管理的AI原生架构,围绕其身份权限、安全隔离、弹性调度等需求进行重构,这将成为下一代企业软件的基础。

然而,AI要深入核心业务,仍须跨越安全、成本与“幻觉”三大挑战。谭待表示,能力越强,责任越大,数据安全与合规是生命线。对此,火山引擎推出的“MaaS ON AICC”方案,通过机密计算等技实现数据可用不可见,破解隐私顾虑。他同时指出,在技术快速迭代的背景下,传统的私有化“一体机”部署模式难以持续更新,云端服务结合高级安全方案正成为主流。

成本控制是另一大现实制约。尽管大模型调用单价已大幅下降,但随着应用深入、用量激增仍构成压力。火山引擎因此推出阶梯折扣的“AI节省计划”。谭待算了一笔经济账:当AI商业模式从按token收费的“原材料”模式,升级为按解决具体问题(如客服、编程)收费的“智能体服务”模式时,其市场空间将从传统IT预算,跃迁至对接万亿美元规模的全球业务流程外包市场。

此外,困扰行业的“模型幻觉”问题,在企业场景中风险极高。谭待以电商客服为例,用户要求“仅退款”,智能体若错误同意将直接造成损失。他表示,解决这一问题不能单纯依赖更优的模型,需结合知识检索增强、事后规则校验等多重“安全护栏”技术,形成系统性的保障体系。

展望未来,谭待描绘了智能体驱动的生产力新图景。在消费端,智能体将彻底改变人机交互:在车载场景中,用户只需说“我有点冷”,车辆即可自动调温;一句语音指令,便能完成包含多人个性化需求的复杂订单,激活大量原本因操作繁琐而被抑制的消费需求。

在企业端,智能体将重塑软件与服务的形态。传统的企业软件往往因决策者、采购者与实际使用者分离而导致体验不佳。而基于智能体的应用,则能以“一人即团队”的方式,直接为个体赋能,比如一句话完成报销流程,这将迫使软件设计更关注个体用户体验。

谭待认为,人工智能的竞赛已进入“下半场”。最终的胜者并非起跑时声量最高的选手,而是那些能持续夯实从底层算力、模型算法到上层应用架构的全栈能力,并真正理解与赋能千行百业的企业。