動画の例
画像から動画へ
この記事を書いている時点で、画像から動画へのチェックポイントは2つあります。14フレームの動画を生成するために調整されたものと25フレームの動画用の公式チェックポイントはこちらです。これらをComfyUI/models/checkpointsフォルダに入れてください。
画像から動画へのモデルを使用する最も基本的な方法は、以下のワークフローのようにinit画像を与えることです。このwebpアニメーション画像をダウンロードしてロードするか、ComfyUIにドラッグしてワークフローを取得できます。
正確な入力画像が必要な場合は、unCLIPの例ページで見つけることができます。
また、SDXLを使用して初期画像を生成し、それを25フレームモデルに渡すこのワークフローのように使用することもできます。
パラメータの説明:
video_frames: 生成する動画フレームの数。
motion_bucket_id: 数値が高いほど、動画に動きが多くなります。
fps: fpsが高いほど、動画は滑らかになります。
augmentation level: init画像に追加されるノイズの量。数値が高いほど、動画はinit画像に似なくなります。動きを増やすために増加させます。
VideoLinearCFGGuidance: このノードは、これらの動画モデルのサンプリングを少し改善します。異なるフレームにわたってcfgを線形にスケールします。上記の例では、最初のフレームはcfg 1.0(ノード内のmin_cfg)、中間フレームは1.75、最後のフレームは2.5(サンプラーで設定されたcfg)になります。このようにして、initフレームから離れたフレームは徐々に高いcfgを取得します。