Seedance 2.0:字节跳动自研多模态AI视频生成工具
Seedance 2.0 是字节跳动自主研发的多模态 AI 视频生成工具,支持文生视频、图生视频、多模态参考、首尾帧四种核心创作模式,可精准控制视频中的角色、动作、运镜及画面风格。
一、准备工作
1. 工具入口
用户需登录「即梦」平台,进入视频生成板块,选择 Seedance 2.0 模型,即可启动创作流程。
2. 素材规范
图片素材
分辨率不低于 2K,确保画面清晰、光线均匀、背景简洁;优先上传角色正面清晰影像,避免模糊、逆光等影响模型识别精度的情况。
视频素材
总时长不超过 15 秒,单段素材时长不超过 5 秒,需画面高清、无抖动;主要用于动作复刻、运镜模拟及转场效果参考。
音频素材
需为 MP3 格式,时长不超过 15 秒且无杂音;用于音乐卡点及氛围营造,提升视频表现力。
提示词规范
核心公式为:主体 + 动作 + 场景 + 镜头 + 风格 + 画质。示例:扎马尾年轻女性身着白裙漫步于樱花林,轻拂花瓣;画面采用柔和午后光线,中景缓慢推进,搭配电影色调及浅景深效果,整体画质达 1080p 高清标准。
二、四大创作模式
1. 文生视频模式
适用场景
适用于无参考素材、需快速落地创意或即兴创作等场景。
操作步骤
- 选择「文生视频」模式,进入文本创作界面;
- 按核心公式撰写 50–150 字提示词,并补充反向提示词以提升生成质量;
- 设置视频时长、分辨率及画面比例;
- 点击「立即生成」,约 40–60 秒完成,预览确认后可下载或微调。
2. 首尾帧模式
适用场景
依托 1 张或 2 张首尾图片,锁定角色形象与构图,有效解决角色变脸、画面崩坏等问题。
操作步骤
- 上传首帧图片,系统自动标记为 @image1;
- 提示词格式为:@image1 中的角色 + 动作 + 场景 + 运镜,确保内容不偏离参考图;
- 完成参数设置后生成,预览并微调优化。
3. 图生视频模式
适用场景
适用于需在多场景中保持同一角色形象、进行分镜叙事以提升连贯性的创作需求。
操作步骤
- 上传 1–9 张角色或场景图片,系统按顺序标记为 @image1–@image9;
- 提示词格式为:@image1 作为主角,在 @image2 场景中 + 动作 + 运镜;
- 生成后可根据需求替换场景图片,确保角色一致性。
4. 全能参考模式
核心优势
支持混合输入图片、视频、音频等多种素材,通过 @ 语法精准指定各素材用途,生成效果最优,适合进阶用户。
操作步骤
- 上传角色图(@image1)、动作视频(@video1)、音频(@audio1);
- 提示词示例:跟随 @video1 的动作,将演员替换为 @image1,配合 @audio1 的节奏,采用中景跟拍方式,呈现电影质感画面;
- 设置参数并生成,预览后优化至动作、运镜与音频同步。
三、关键操作:@ 语法规范
- @image1:锁定角色、场景布局及整体风格,保障生成一致性;
- @video1:复刻参考视频中的动作、运镜与转场效果,提升流畅度;
- @audio1:实现画面与音频节奏精准同步,增强氛围感;
- 组合用法:@image1 + @video1 + @audio1 可协同控制视频核心要素,提升效率与质量。
四、生成与优化流程
- 生成操作:完成设置后点击「立即生成」,耗时约 40–60 秒;
- 预览检查:重点核查角色一致性、动作流畅度与画面画质;
- 优化技巧:
- 动作僵硬:降低动作幅度,提示词中添加「缓慢」「轻柔」等描述;
- 画面失真:完善反向提示词,更换高清参考素材;
- 角色跑偏:保持 @image 标记及主体描述的一致性;
- 导出保存:确认无误后下载 MP4 文件,支持 1080p/2K 分辨率。
五、进阶玩法
- 分镜叙事:上传 9 张分镜图,通过 @image1–@image9 标记,按时间线撰写提示词,实现剧情化呈现;
- 视频无缝缝合:上传两段需衔接的视频,分别标记为 @video1、@video2,生成自然过渡镜头;
- 电影级运镜:在提示词中使用专业运镜术语,获得电影级运镜效果。

