在 Force 原动力大会上,火山引擎发布豆包大模型 1.6 及视频生成模型 Seedance 1.0 pro,推进 Agent 平台及 AI 云原生全栈产品升级,助力 AI 开发更高效,推动产业应用发展。
在 6 月 11 日 Force 原动力大会上,火山引擎发布了豆包大模型 1.6 及视频生成模型 Seedance 1.0 pro,并同步推进 Agent 平台及 AI 云原生全栈产品的升级落地。
字节跳动 CEO 梁汝波表示:“字节跳动致力成为优秀的创新科技公司,会坚定长期投入,追求智能突破,服务产业应用。通过火山引擎,持续把新模型、新技术开放给企业客户。”
豆包1.6 与 Seedance 1.0 Pro 登顶
会上,豆包 1.6 模型披露多项权威测评成绩。在复杂推理、竞赛级数学、多轮对话和指令遵循等测试集上,豆包 1.6-thinking 的表现已跻身全球前列。
火山引擎总裁谭待介绍,豆包 1.6 系列模型支持多模态理解和图形界面操作,能够理解和处理真实世界问题。
此前,豆包 1.5 的多模态能力在 60 个公开评测基准中取得 38 项最佳成绩,已广泛应用在电商识图、自动驾驶数据标注、门店巡检等场景。图形界面操作能力则让豆包 1.6 进一步具备 “行动力”。演示案例显示,豆包 1.6 可自动操作浏览器完成酒店预定,识别购物小票并整理成 Excel 表格等任务。
豆包视频生成模型 Seedance 1.0 pro 也在火山引擎 Force 大会亮相。该模型支持文字与图片输入,可生成多镜头无缝切换的 1080P 高品质视频,主体运动稳定性与画面自然度较高。
在国际知名评测榜单 Artificial Analysis 上,Seedance 在文生视频、图生视频两项任务上均排名首位,超越 Veo3、可灵 2.0 等优秀模型。
目前,豆包大模型已涵盖多模态、视频、图像、语音、音乐等模型品类,全方位推进智能提升和应用落地。在行业应用上,豆包大模型服务着全球 TOP10 手机厂商中的 9 家、8 成主流汽车品牌、70% 的系统重要性银行及超 5 成 985 高校。
数据显示,豆包大模型日均 tokens 使用量超过 16.4 万亿,较去年 5 月首次发布时增长 137 倍。另据 IDC 报告,豆包大模型在中国公有云大模型市场份额排名第一,占比高达 46.4%。
Agent 规模化应用提速
谭待现场表示,深度思考、多模态和工具调用等模型能力提升,是构建 Agent 的关键要素。同时,由于 Agent 每次执行任务都会消耗大量 tokens,模型使用成本也要降下来,才能推动 Agent 的规模化应用。
通过技术和商业的双重创新,豆包 1.6 首创按 “输入长度” 区间定价,深度思考、多模态能力与基础语言模型统一价格。
在企业使用量最大的 0–32K 输入区间,豆包 1.6 的输入价格为 0.8 元 / 百万 tokens、输出 8 元 / 百万 tokens,综合成本只有豆包 1.5 深度思考模型或 DeepSeek R1 的三分之一。
Seedance 1.0 pro 模型每千 tokens 仅 0.015 元,每生成一条 5 秒的 1080P 视频只需 3.67 元,为行业最低。
为了更好地支持 Agent 开发与应用,火山引擎 AI 云原生全栈服务升级,发布了火山引擎 MCP 服务、PromptPilot 智能提示工具、AI 知识管理系统、veRL 强化学习框架等产品,并推出多模态数据湖、AICC 私密计算、大模型应用防火墙,以及一系列 AI Infra 套件。
字节跳动技术副总裁洪定坤认为,随着模型能力的持续进步,AI 有机会成为调度者,通过调用不同的 Agent 和工具,让软件开发“all in one”,更大幅度地降低开发门槛,提升开发效率。
洪定坤表示,豆包 1.6 模型在编程能力上进步很大,已经接入字节的 AI 编程产品 TRAE 内测,新模型将很快推送给用户。
据洪定坤透露,在字节内部,超过 80% 的工程师在使用 TRAE 辅助开发。TRAE 的整体月活用户已经超过了 100 万。
在面对现场提问时,谭待表示 AI 已进入以 Agent 为主体的新阶段,类比于“PC 时代的 Web”与“移动时代的 App”。当前大部分 Agent 实际仍停留在“L1”阶段,仅完成简单交互或信息整理任务,真正实现规划、反思、自主执行的“L2+”能力,则需要具备深度思考、多模态理解与工具调用的底层能力支撑。
“做出一个可用的 Agent,不仅要模型能力强,还要有稳定的执行平台和全链路的数据、安全、算力体系。”
至于未来规划,谭待透露火山将继续投入国产算力适配、模型结构优化与平台工具共建,并强调“我们是生态基础设施的建设者,而非全栈应用的开发者”。除少数如 AI 编程这类内部孵化项目外,火山将把大部分 C 端应用留给合作伙伴共同开发。
降本 63% 背后的技术逻辑
谭待强调,豆包 1.6 是国内首个在深度思考任务中支持 256K 上下文窗口的模型,并合并了视觉理解(VL)、基础语言模型(LL)与思维引擎(Thinking)三大能力于一体,真正做到 All-in-One。
此外,其全新的“按输入长度区间定价”策略,在主流企业使用区间(0~32K)内的平均成本下降了 63%,是促进行业规模应用的关键一步。
围绕“价格”这一企业最关注的模型使用门槛,谭待指出,豆包 1.6 的定价策略基于三个原则:
一是能力不影响价格。“过去开不开放图文理解、是否开启深度思考,都影响模型定价。但我们观察到这不是成本的决定性因素,真正影响推理成本的是上下文窗口的长度。”因此,豆包 1.6 将所有高级能力统一入价,不再设立“Thinking 专属高价”。
二是针对不同输入区间进行分级优化。火山引擎通过对 Token 长度进行分布建模与集成调度,使得在企业最常使用的输入区间(尤其是 0–32K)内,推理效率最大化,从而带来显著成本下降。
三是保留非深度场景的低价区。“我们为 Non-thinking 使用场景保留了 0.8 元/百万输入 Token、2 元/百万输出 Token 的特惠区,确保用户按需选择。”
为确保模型的可持续商业化路径,火山坚持从第一天起构建“正毛利”的收费模型,靠的不是补贴,而是技术驱动的降本。
“去年我们推出豆包 1.0,把基础模型的推理价格降了 99%,现在做的是同样的事情——用创新工程和调度策略,让深度 Agent 的应用成本真正‘普惠’起来。”
AI 云原生终结传统 SaaS 模型
火山引擎在本次大会提出的“AI 云原生”概念,也成为行业关注的话题。谭待将其定义为“以 AI 主体(特别是 Agent)为中心,重构云的基础设施与开发范式”,区别于传统的“云原生 AI”,即“为 Web 或 App 构建的云平台加一点 AI 能力”。
他指出,过去云原生设计是为弹性高频的移动端业务服务的,强调的是容器化、微服务、DevOps。
而 Agent 主体对技术栈的需求完全不同,它要求更强的推理模型、更丰富的多模态数据、更复杂的安全保护机制,以及对多工具、多任务的动态编排能力。
“一个订酒店的 Agent,不只是从网页提取信息,更是能看图识物、打电话沟通、综合判断并自主执行的系统。”他说,正因为主体换了,开发范式也必须换。
为此,火山已推出 PromptPilot、MCP Serve、多模态数据湖、AI 防火墙等多个面向 Agent 的基础设施模块,并系统性构建了 veRL 强化学习框架及 AICC 加密计算方案,以适配“未来 AI 主体的技术栈”。
在商业模式层面,他预判 SaaS 的价值评估将从“工具使用”变为“任务完成”。“Agent 将不仅是‘被人使用’,而是主动帮你完成目标,其商业逻辑也将从 Token 数量向效果导向转变。”
本文来自作者:有新Newin,不代表爱氧气立场,平台仅提供信息存储空间服务。
本网站属于非赢利性网站,如对本稿件有异议或投诉,请联系(iyangqi@qq.com)爱氧气处理。