AI导读:

字节跳动的视频创作模型Seedance 2.0正式上线,支持图像、视频、音频、文本四种模态输入,采用稀疏架构提升效率,并实现了音画同步生成等功能。该模型在海内外积攒了大批潜在用户,但存在个人隐私数据安全等争议。

现在上社交平台X,可以看到一些教海外用户注册并使用Seedance 2.0的教程贴。消息传递到国内,评论区中夹杂着中国AI用户的真实心声:真是风水轮流转。2月12日,字节跳动视频创作模型Seedance 2.0正式上线,旗下AI产品豆包和即梦宣布接入。该模型内测期间即获得巨量关注,在海内外积攒了大批潜在用户。Seedance 2.0支持图像、视频、音频、文本四种模态输入,用户可以用图片来说明想要的画面风格,用视频指定角色的动作和镜头的变化,用一段音频表达预期的节奏和氛围。据字节官方,Seedance 2.0采用稀疏架构来提升训练和推理效率,基于统一的多模态视频生成架构,模型涌现出了更强大的泛化能力 ,由此实现了较高质量音频的音画同步生成,还可支持组合的多模态参考、视频编辑、视频延长等功能。由于存在一定个人隐私数据安全等AI治理层面争议,字节此前暂时性闭了Seedance 2.0的真人人脸参考功能,不过在正式上线时保留了用户个人的录音录像真人校验,并生成用户本人形象的数字人分身功能。用户可用该分身生成AI视频。