最近被AI视频刷屏,特别是看到有人用Seedance 2.0做出来的效果,我才明白为什么那么多人在玩这个。


之前还在想怎么快速上手,后来发现其实没那么复杂。

字节跳动的即梦AI今年2月推出的Seedance 2.0,说实话用起来还挺顺手的。
最吸引我的是可以一次上传文字、图片、视频、音频,系统自动帮你生成5到12秒的视频,而且那个口型匹配功能确实绝。
我试过上传一张照片加一段语音,它能自动生成对应的视频,嘴型对得特别准。

从零开始的话,文生视频最容易上手——就是描述你想要的场景和动作,系统直接给你生成。
关键是提示词要具体,别就说“很好看”这种,要说清楚场景、人物、镜头运动这些细节。
我一般从8秒开始试,效果不错再调参数。

如果想要更精准的控制,可以用图生视频模式,上传起始和结束的画面,让Seedance 2中间自动补齐动作。
这个对做短剧特别有用,能保持角色的一致性,不用担心前后镜头里人物变样。

会员是69块起,非会员的话现在还在灰度测试,部分功能可以试试。
用过几次以后发现,与其纠结参数,不如多试几个不同的提示词组合,往往能出现意想不到的效果。
特别推荐试试多素材融合——文字、图片、音乐一起上,出来的成片质感完全不一样。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论