炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
一年之后,AI大模型市场再次嗅到了“价格战”开战前空气中硝烟的味道。
北京时间6月11日,OpenAI和字节跳动在同日推出了自己的最新模型,并公布了新定价。其中OpenAI在发布o3-pro后宣布其推理模型o3降价80%,火山引擎总裁谭待则在北京举办的Force原动力大会上宣布,新版本大模型豆包1.6的价格降到了此前的三分之一。
会后,谭待接受了新京报贝壳财经记者的采访。对于降价背后的商业逻辑,他表示,“我们的宗旨是做到一定程度后就尽最大可能释放技术红利,让业界所有开发者和企业受惠,这样AI应用发展也会加快。去年豆包1.0的价格降低了99%,业界很多公司跟随,之后中国大模型行业也迎来一波加速发展。”
火山引擎总裁谭待接受采访。 新京报贝壳财经记者罗亦丹/摄详解降价逻辑:重点在上下文
2024年5月,随着DeepSeek打响“降价第一枪”,豆包等大模型迅速跟进,最终开启了第一轮大模型“价格战”,在价格战打响的17天里,一些轻量级模型甚至直接免费。
而本次再度大幅降价,谭待详细讲解了大模型成本的“基本原理”:大模型按tokens(词元)收费,虽然市面上有包括支持深度思考、支持多模态等不同类型的模型,但实际上对于同结构同参数的模型而言,真正影响成本的是上下文长度,而不是是否开启了思考和多模态功能。
谭待告诉贝壳财经记者,此前业界习惯按照模型能力定价,如深度思考和图文理解更贵,非深度思考相对便宜,但本次发布的豆包1.6将上述能力融合到了一起,进行了统一,因此可以采取统一定价模式,并基于对上下文长度分布的调度优化,创新性实现区间定价。
具体来看,在输入区间32K~128K的范围内,豆包1.6的价格是输入1.2元(每百万tokens,下同),输出16元(每百万tokens,下同);在输入区间128K~256K的范围内,豆包1.6的价格是输入2.4元,输出24元。
谭待表示,当前绝大部分企业使用大模型的范围集中在0-32K区间,针对该区间,通过技术的优化,豆包1.6的价格是每百万tokens 输入0.8元,输出8元。相比之下,豆包1.5 thinking和DeepSeek-R1的价格为输入4元,输出16元。照此进行综合计算,豆包1.6成本下降了63%,为原来三分之一左右的价格,“用户不用区别模型到底做不做深度思考和图像理解,这不管从成本还是便利性上都是很大的提升。”
而在模型能力层面,豆包1.6在各项测评指数上相比1.5均有提升,且是国内首个支持256K上下文的思考模型。此前记者曾测试发现,输入内容过长容易导致智能体“宕机”,因此该改进对复杂智能体的构建非常重要。
PC时代主体是网页 AI时代的主体是智能体
谭待告诉贝壳财经记者,“就像去年一样,我们希望这件事(降价)能促进AI智能体的普及。”
在他看来,影响大模型成本的关键因素并非是否开启深度思考,而主要与上下文窗口相关,因此结合具体应用场景对此进行了优化,他希望通过降本促进AI智能体的进一步普及,“如果说2024年是中国大模型应用的元年,那2025年将很可能是中国Agent落地的元年,Agent将逐步进入企业的各个业务流程。而在这个阶段,深度思考、多模态理解和工具自主调用是模型进化的关键方向。”
谭待表示,由于智能体每次执行任务都会消耗大量tokens,模型使用成本也要降下来,才能推动智能体的规模化应用,“可能一个人跟模型聊一个小时会耗费20多万tokens,但智能体处理一个复杂任务就要花费20万tokens,因此降价很关键。另外,做好智能体最重要的是底层模型一定是既有多模态也有深度思考的模型,否则智能体所做的事就很有限。”
“当前正处于PC到移动到AI三个时代的变化之中。在这三个时代里,技术主体在发生变化,PC时代的主体是web(网页),移动时代是APP,AI时代是Agent(智能体)。Agent能够自主地感知,规划和反思,完成复杂任务。软件第一次从被动的工具,变成主动的执行者。”谭待表示。
“豆包APP的C端用户非常多,服务用户的过程就是我们对如何做好复杂智能体进行的最佳实践,我们再把这种能力通过火山引擎对外进行了提供。”谭待告诉记者。
新京报贝壳财经记者 罗亦丹
编辑 岳彩周
校对 杨许丽