ATI(Any Trajectory Instruction) 是由字节跳动团队提出的可控视频生成框架。ATI 基于 Wan2.1 实现,支持通过任意轨迹指令对视频中的物体、局部区域及摄像机运动进行统一控制。 项目地址:https://github.com/bytedance/ATI

主要特性

  • 统一运动控制:支持物体、局部、摄像机等多种运动类型的轨迹控制。
  • 交互式轨迹编辑器:可视化工具,用户可在图片上自由绘制、编辑运动轨迹。
  • 兼容 Wan2.1:基于 Wan2.1 官方实现,环境和模型结构兼容。
  • 丰富的可视化工具:支持输入轨迹、输出视频及轨迹可视化。

WAN ATI 轨迹控制工作流示例

请确保你的 ComfyUI 已经更新。本指南里的工作流可以在 ComfyUI 的工作流模板中找到。如果找不到,可能是 ComfyUI 没有更新。如果加载工作流时有节点缺失,可能原因有:
  1. 你用的不是最新开发版(nightly)。
  2. 你用的是稳定版或桌面版(没有包含最新的更新)。
  3. 启动时有些节点导入失败。

1. 工作流下载

下载下面的视频并拖入 ComfyUI 中,以加载对应的工作流 我们将使用下面的素材作为输入: v2v-input

2. 模型下载

如果你没有成功下载工作流中的模型文件,可以尝试使用下面的链接手动下载 Diffusion Model VAE Text encoders Chose one of following model clip_vision File save location
ComfyUI/
├───📂 models/
│   ├───📂 diffusion_models/
│   │   └───Wan2_1-I2V-ATI-14B_fp8_e4m3fn.safetensors
│   ├───📂 text_encoders/
│   │   └─── umt5_xxl_fp8_e4m3fn_scaled.safetensors # or other version
│   ├───📂 clip_vision/
│   │   └─── clip_vision_h.safetensors
│   └───📂 vae/
│       └──  wan_2.1_vae.safetensors

3. 按步骤完成工作流的运行

工作流步骤图 请参照图片序号进行逐步确认,来保证对应工作流的顺利运行
  1. 确保Load Diffusion Model节点加载了 Wan2_1-I2V-ATI-14B_fp8_e4m3fn.safetensors 模型
  2. 确保Load CLIP节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  3. 确保Load VAE节点加载了 wan_2.1_vae.safetensors 模型
  4. 确保Load CLIP Vision节点加载了 clip_vision_h.safetensors 模型
  5. Load Image 节点上传提供的输入图片
  6. 轨迹编辑: 目前 ComfyUI 中还未有对应的轨迹编辑器,你可以使用下面的链接来完成轨迹编辑
  7. 如果你需要修改提示词(正向及负向)请在序号5CLIP Text Encoder 节点中进行修改
  8. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成