Skip to content
ComfyUI Wiki
帮助构建更好的 ComfyUI 知识库 成为赞助者

Wan2.2 Fun InP ComfyUI 工作流完整使用指南,官方+社区版本(Kijai, GGUF)工作流全攻略

教程总览

本教程将全面介绍 Wan2.2 Fun InP 首尾帧视频生成模型在 ComfyUI 中的各种实现方式和使用方法。Wan2.2 Fun InP 是阿里云推出的专业首尾帧控制视频生成模型,支持输入首帧和尾帧图像,生成中间过渡视频,为创作者带来更强的创意控制力。

本教程涵盖的版本和内容

已完成的版本:

  • ComfyUI 官方原生版本 - 由 ComfyOrg 官方提供的完整工作流
  • Wan2.2 Fun InP 14B 首尾帧版本 - 高质量首尾帧控制视频生成

正在准备中的版本:

  • 🔄 Kijai WanVideoWrapper 版本 - 社区开发的便捷包装器
  • 🔄 GGUF 量化版本 - 适用于低配置设备的优化版本

模型技术特点

Wan2.2 Fun InP 基于 Wan2.2 架构,专门针对首尾帧控制视频生成进行了优化,具备以下核心特性:

核心优势:

  • 首尾帧控制:支持输入首帧和尾帧图像,生成中间过渡视频,提升视频连贯性与创意自由度
  • 高质量视频生成:基于 Wan2.2 架构,输出影视级质量视频
  • 多分辨率支持:支持生成512×512、768×768、1024×1024等分辨率的视频,适配不同场景需求

Wan2.2 Fun InP 系列模型基于 Apache2.0 开源协议,支持商业使用。Apache2.0 许可证允许您自由使用、修改和分发这些模型,包括商业用途,只需保留原始版权声明和许可证文本。

Wan2.2 Fun InP 开源模型版本概览

模型类型模型名称参数量主要功能模型仓库
首尾帧控制Wan2.2-Fun-A14B-InP14B支持输入首帧和尾帧图像,生成中间过渡视频,为创作者带来更强的创意控制力🤗 Wan2.2-Fun-A14B-InP
视频控制Wan2.2-Fun-A14B-Control14B支持不同的控制条件,如Canny、Depth、Pose、MLSD等,同时支持使用轨迹控制🤗 Wan2.2-Fun-A14B-Control

官方学习资源

相关代码仓库

Loading...

Wan2.2 Fun InP ComfyUI 官方原生版本工作流使用指南

版本说明

ComfyUI 官方原生版本由 ComfyOrg 团队提供,使用重新打包的模型文件,确保与 ComfyUI 的最佳兼容性。该版本支持标准模式和 Lightx2v 4步 LoRA 加速模式。

性能对比测试

下面是使用 RTX4090D 24GB 显存 GPU 测试的结果 640*640 分辨率, 81 帧长度的用时对比:

模型类型分辨率显存占用首次生成时长第二次生成时长
fp8_scaled640×64083%≈ 524秒≈ 520秒
fp8_scaled + 4步LoRA加速640×64089%≈ 138秒≈ 79秒

由于使用了加速 LoRA 后提速较为明显,虽然动态有所损失,但对低显存用户较为友好,所以在提供的两组工作流中,默认启用了使用了加速 LoRA 版本,如果你需要启用另一组的工作流,框选后使用 Ctrl+B 即可启用。

1. Wan2.2 Fun InP 首尾帧视频生成 ComfyUI 工作流

工作流获取方式

使用下面的素材作为首尾帧

Wan2.2 Fun Control ComfyUI 工作流起始帧素材 Wan2.2 Fun Control ComfyUI 工作流起始帧素材

模型文件下载

Diffusion Model

Lightning LoRA (可选,用于加速)

VAE

Text Encoder

ComfyUI/
├───📂 models/
│   ├───📂 diffusion_models/
│   │   ├─── wan2.2_fun_inpaint_high_noise_14B_fp8_scaled.safetensors
│   │   └─── wan2.2_fun_inpaint_low_noise_14B_fp8_scaled.safetensors
│   ├───📂 loras/
│   │   ├─── wan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensors
│   │   └─── wan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensors
│   ├───📂 text_encoders/
│   │   └─── umt5_xxl_fp8_e4m3fn_scaled.safetensors 
│   └───📂 vae/
│       └── wan_2.1_vae.safetensors

操作步骤详解

步骤图

💡

这个工作流是使用了 LoRA 的工作流,请确保对应的 Diffusion model 和 LoRA 是一致的

  1. High noise 模型及 LoRA 加载
  • 确保 Load Diffusion Model 节点加载了 wan2.2_fun_inpaint_high_noise_14B_fp8_scaled.safetensors 模型
  • 确保 LoraLoaderModelOnly 节点加载了 wan2.2_i2v_lightx2v_4steps_lora_v1_high_noise.safetensors
  1. Low noise 模型及 LoRA 加载
  • 确保 Load Diffusion Model 节点加载了 wan2.2_fun_inpaint_low_noise_14B_fp8_scaled.safetensors 模型
  • 确保 LoraLoaderModelOnly 节点加载了 wan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensors
  1. 确保 Load CLIP 节点加载了 umt5_xxl_fp8_e4m3fn_scaled.safetensors 模型
  2. 确保 Load VAE 节点加载了 wan_2.1_vae.safetensors 模型
  3. 首尾帧图片上传,分别上传首尾帧图片素材
  4. 在 Prompt 组中输入提示词
  5. WanFunInpaintToVideo 节点尺寸和视频长度调整
    • 调整 widthheight 的尺寸,默认为 640, 我们设置了较小的尺寸你可以按需进行修改
    • 调整 length, 这里为视频总帧数,当前工作流 fps 为 16, 假设你需要生成一个 5 秒的视频,那么你应该设置 5*16 = 80
  6. 点击 Run 按钮,或者使用快捷键 Ctrl(cmd) + Enter(回车) 来执行视频生成

Wan2.2 Fun InP Kijai WanVideoWrapper ComfyUI 工作流

⚠️

此部分内容正在准备中,预计将在近期更新。

这部分教程将介绍使用 Kijai/ComfyUI-WanVideoWrapper 的便捷方式。

相关模型仓库:https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled

Wan2.2 Fun InP GGUF 量化版 ComfyUI 工作流

⚠️

此部分内容正在准备中,预计将在近期更新。

GGUF 版本适用于显存有限的用户,提供以下资源:

QuantStack/Wan2.2-Fun-A14B-InP-GGUF

相关自定义节点: City96/ComfyUI-GGUF