Skip to content

動画の例

画像から動画へ

この記事を書いている時点で、画像から動画へのチェックポイントは2つあります。14フレームの動画を生成するために調整されたもの25フレームの動画用の公式チェックポイントはこちらです。これらをComfyUI/models/checkpointsフォルダに入れてください。

画像から動画へのモデルを使用する最も基本的な方法は、以下のワークフローのようにinit画像を与えることです。このwebpアニメーション画像をダウンロードしてロードするか、ComfyUIにドラッグしてワークフローを取得できます。

例

Json形式のワークフロー

正確な入力画像が必要な場合は、unCLIPの例ページで見つけることができます。

また、SDXLを使用して初期画像を生成し、それを25フレームモデルに渡すこのワークフローのように使用することもできます。

例

Json形式のワークフロー

パラメータの説明:

video_frames: 生成する動画フレームの数。

motion_bucket_id: 数値が高いほど、動画に動きが多くなります。

fps: fpsが高いほど、動画は滑らかになります。

augmentation level: init画像に追加されるノイズの量。数値が高いほど、動画はinit画像に似なくなります。動きを増やすために増加させます。

VideoLinearCFGGuidance: このノードは、これらの動画モデルのサンプリングを少し改善します。異なるフレームにわたってcfgを線形にスケールします。上記の例では、最初のフレームはcfg 1.0(ノード内のmin_cfg)、中間フレームは1.75、最後のフレームは2.5(サンプラーで設定されたcfg)になります。このようにして、initフレームから離れたフレームは徐々に高いcfgを取得します。