高考一落幕,火山引擎立刻用数学全国新一卷“考”了自家豆包大模型1.6,最终取得144分,勇夺全国第一。除了数学,在海淀模拟全卷测试中,豆包大模型理科总分达706分(656+50),文科更是达到712分(662+50),展现了在复杂题目理解和解答上的能力。
今天,在2025火山引擎春季FORCE原动力大会上,豆包大模型1.6正式发布,支持256k长上下文。包含 Doubao-Seed-1.6-thinking深度思考强化版本、Doubao-Seed-1.6 All-in-One综合模型、Doubao-Seed-1.6-flash极速版本。
其中豆包1.6-thinking在多项权威测评的复杂推理、竞赛级数学、多轮对话和指令遵循等测试集上表现亮眼,全面跻身全球大模型第一梯队。
同时会上还发布了豆包视频生成模型Seedance 1.0 pro,支持文字与图片输入,可生成多镜头无缝切换的1080P高品质视频,主体运动稳定性与画面自然度较高。
首创“区间定价”,大幅降低应用门槛
由于Agent每次执行任务都会消耗大量tokens,模型使用成本也要降下来,才能推动Agent的规模化应用。
火山引擎总裁谭待宣布豆包大模型1.6将实行统一定价模式,首创按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格。
火山引擎总裁谭待
0~32k上下文,输入价格0.8元/百万tokens,输出价格为8元/百万tokens;
32~128k上下文,输入价格1.2元/百万tokens,输出价格16元/百万tokens;
128~256k上下文,输入价格2.4元/百万tokens,输出价格24元/百万tokens。
豆包1.6的综合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一。Seedance 1.0 pro模型每千 tokens仅0.015元,每生成一条5秒的1080P视频只需3.67元,为行业最低。
火山引擎围绕大模型成本和定价策略,提出了三项原则:
第一,在同尺寸、同参数模型下,是否具备深度思考和图文理解能力,对推理成本影响不大,真正决定成本的是上下文窗口大小。因此,此次将不同能力版本统一定价,简化企业选择。
第二,针对上下文窗口的累加成本,火山引擎通过PD分离与集中调度,将不同长度输入输出合理分区,显著优化32K以内主流场景下的推理成本。配合分区定价策略,使企业在常规规模内的调用成本降低至63%,实现更强模型、更低价格、All in one体验。
第三,non-thinking模型特惠区满足对算力要求较低、成本敏感场景需求,进一步推动AI Agent普及。
Agent时代的胜负手:模型、成本与生态
技术主体经历了三个时代的变迁,从PC时代,到移动互联网时代,再到如今的AI时代,每个时代,核心主体都在不断演进,也就是Web,到APPs,再到今天的Agent。
这正是谭待提出的“AI云原生”理念。随着开发范式、大数据、计算、安全全面演进,传统技术栈已难以支撑AI时代需求,因此需要围绕“AI云原生”重构面向未来的技术栈。
“Agent时代的竞争核心,最终取决于底层模型是否具备多模态深度思考能力。”谭待说。缺乏这一能力,Agent的应用场景将受限,且停留在初级阶段,豆包1.6把这件事做好了。
字节跳动技术副总裁洪定坤认为,随着模型能力的持续进步,AI有机会成为调度者,通过调用不同的Agent和工具,让软件开发“all in one”,更大幅度地降低开发门槛,提升开发效率。
目前豆包大模型日均tokens使用量超过16.4万亿,较去年5月首次发布时增长137倍。IDC报告显示,豆包大模型在中国公有云大模型市场份额排名第一,占比高达46.4%。
从2025年5月tokens调用分布看来,AI工具tokens消耗增长4.4倍,其中AI搜索增长10倍,AI变成增长8.4倍;K12在线教育增长12倍;新出现的智能巡检、图片信息理解等场景迅速单日破百亿tokens
对于大模型发展的核心思路,火山引擎始终坚持一个原则:以真诚的态度专注做好AI产品和生态,而不是为了赚取声量或短期曝光。谭待认为,真正推动AI普及和价值创造,要围绕三件事持续发力:第一,做好模型本身;第二,把成本降下来;第三,完善应用性和落地工具体系。
这一理念自2023年确立以来,始终贯穿在火山引擎的产品迭代和生态建设过程中,未来也将坚持不变。将“心诚”作为内驱力,真正做到知行合一,让更多开发者和企业通过AI创造实际价值,才是推动产业进步的正确途径。
本文链接:http://www.xihao.site/showinfo-1-77576.html火山引擎发布豆包1.6,Agent规模化关键破题 原创