字节发布视频生成模型Seedance2.0
AI导读:
字节发布最新视频生成模型Seedance2.0,支持图像、视频、音频、文本四种模态输入,多模态参考和精准可控性在全球范围引发关注。游戏科学CEO评价其为当前地表最强的视频生成模型。
上证报中国证券网讯 2月12日,字节跳动发布最新视频生成模型Seedance2.0,旗下AI产品豆包和即梦宣布接入。目前用户可以在豆包App、电脑端、网页版以及即梦App、即梦网页版等产品中体验该模型。
其中,豆包App、即梦App支持真人出镜,用户需要先通过录音录像完成真人校验,才能生成本人形象的数字人分身,使用该分身生成AI视频。而在豆包电脑端、网页版以及即梦网页版等场景中,平台均明确提示暂不支持上传真人人脸素材。
Seedance 2.0能够支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。用户可以用一张图来说明自己想要的画面风格,用一个视频指定角色的动作和镜头的变化,用一段音频表达预期的节奏和氛围,“提示词”开始不再局限于文字,创作过程变得更自然、更高效,也更像真正的“导演”。
此前,Seedance 2.0已经在小范围进行内测,凭借多模态参考、精准可控性等亮点,在全球范围内引发关注。一名海外创作者使用Seedance 2.0制作短片,与数月前海外模型的呈现效果做对比,明显更真实、丰富的画面让埃隆·马斯克也不由感慨:“这发生的也太快了。”海外社交平台上,不少国外用户为了用上Seedance 2.0,开始研究如何申请中国手机号。
游戏科学CEO、《黑神话:悟空》制作人冯骥试用后评价说,Seedance 2.0是“当前地表最强的视频生成模型”,其在多模态信息理解与整合能力上实现了飞跃。
官方技术报告显示,Seedance 2.0采用极致的稀疏架构来提升训练和推理效率,基于统一的多模态视频生成架构,模型涌现出了强大的泛化能力 ,不仅能生成音画同步的高质量音视频,还可支持组合的多模态参考、视频编辑、视频延长等复杂功能。
在基于多模态参考生成、复杂音视频指令遵循、复杂运动稳定性、专业镜头语言、音视频表现力及视听一体化协同等多维度的测评中,Seedance 2.0的表现均处于业内领先水平。其在运动稳定性、指令遵循及画面美感维度均有显著提升,生成的复杂动作流畅细腻,并支持专业级组合运镜与叙事节奏控制。
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

