使用示例
Video

视频示例

图像到视频

截至撰写本文时,有两个图像到视频检查点。以下是生成14帧视频的官方检查点 链接 (opens in a new tab) 和生成25帧视频的 链接 (opens in a new tab)。将它们放入 ComfyUI/models/checkpoints 文件夹中。

使用图像到视频模型的最基本方法是通过给它一个初始图像,如下所示的工作流程,该工作流程使用14帧模型。 您可以下载此 webp 动画图像并加载它或将其拖放到 ComfyUI (opens in a new tab) 上以获取工作流程。

Example

工作流程以 Json 格式

如果您想要确切的输入图像,可以在 unCLIP 示例页面 上找到它。

您也可以像这样使用工作流程,该工作流程使用 SDXL 生成一个初始图像,然后将其传递给25帧模型:

Example

工作流程以 Json 格式

一些参数的解释:

video_frames:要生成的视频帧数。

motion_bucket_id:数字越高,视频中的动作就越多。

fps:fps 越高,视频就越不断断续续。

增强级别:添加到初始图像的噪声量,数字越高,视频看起来就越不像初始图像。增加它可以获得更多的动作。

VideoLinearCFGGuidance:这个节点对这些视频模型的采样略有改进,它的作用是在线性地跨不同帧缩放 cfg。在上面的示例中,第一帧将是 cfg 1.0(节点中的 min_cfg),中间帧是 1.75,最后一帧是 2.5(采样器中设置的 cfg)。这样,与初始帧相距较远的帧会逐渐获得更高的 cfg。