时隔一年,AI大模型市场再次弥漫起熟悉的“价格战”硝烟。近日,火山引擎推出最新模型豆包1.6大模型、视频生成模型Seedance 1.0 pro等新模型,并升级了Agent开发平台等AI云原生服务。同时抛出降价策略,通过创新的区间定价模式,将综合成本压缩至前代模型的三分之一。
技术迭代与产业需求的共振,是本轮降价的深层逻辑。火山引擎总裁谭待表示,技术进步是持续优化成本的核心驱动力。随着软件、硬件及模型架构的演进,企业有能力通过技术创新实现成本优化。而火山引擎的宗旨是在技术突破后,将红利最大限度释放给行业。
他以豆包大模型1.6为例,指出此次降价并非简单让利,而是基于上下文长度分布的深度调度优化。目前,绝大部分企业使用大模型的范围集中在0-32K区间,针对该区间,通过技术的优化,豆包大模型1.6的价格是每百万tokens输入0.8元,输出8元。相比之下,豆包1.5 thinking和DeepSeek-R1的价格为输入4元,输出16元。综合计算,将该区间的Token成本降低63%,费用为原来三分之一左右。
“此前业界习惯按模型能力分层定价,比如深度思考和图文理解更贵,但豆包1.6将这些能力融合后实现了统一定价。”谭待解释,这种模式不仅简化了定价体系,更通过技术优化让企业无需为多模态交互支付额外成本。他强调:“用户无需再区分模型是否支持深度思考或图像理解,这既是成本优化,也是体验升级。”
企业级Agent(智能体)的规模化落地需求,成为推动降价的直接推手。2024年被称为中国大模型应用元年,而2025年则被视为“Agent落地元年”。据预测,中国B端AI Agent市场规模有望在2025年突破1718亿元。
谭待指出,Agent正逐步渗透至企业核心业务流程,其深度思考、多模态理解和工具自主调用能力,是模型进化的关键方向。
然而,单个Agent任务的Token消耗量可达传统聊天场景的数十倍,成本成为规模化应用的掣肘。“过去人与模型聊一小时耗20万Token,如今Agent处理一个复杂任务就要20万Token,降价是普及的前提。”他直言。
降价背后,是更深层的技术革新与生态博弈。火山引擎则依托豆包C端用户实践,反哺B端Agent开发。“豆包APP的交互日志被用于优化Agent的任务拆解与长上下文管理策略,这些能力再通过方舟平台输出给企业客户,形成‘C端验证-B端落地’的闭环。”谭待透露,这种“实践反哺”能力已成为火山引擎的差异化优势。
但Agent落地仍需跨越多重挑战。开发范式正从“程序员主导”转向“模型驱动”,要求Agent具备自主规划、反思与执行能力;数据体系需从“服务BI”转向“服务AI”,多模态数据处理成为关键瓶颈;安全风险亦高企,模型投毒、数据泄露等威胁频发。对此,火山引擎构建了多模态数据湖,实现文本、图像、语音等异构数据的统一存储与调用,并推出大模型防火墙与端到端加密方案,构建全链路安全防护。
“AI时代的主体正在变迁:PC时代是网页,移动时代是APP,而AI时代是Agent。”谭待总结道,“Agent让软件从被动工具变为主动执行者,其价值不在于模型参数,而在于能否解决实际问题。”随着豆包APP的C端实践通过火山引擎对外输出,一场由技术红利驱动的Agent革命,正加速重塑产业格局。
(《财经》新媒体综编)