Skip to content
より良い ComfyUI ナレッジベースの構築を支援する サポーターになる

HunyuanVideo Image-to-Video GGUF・FP8およびComfyUI Nativeワークフロー完全ガイドと実例

テンセントは2025年3月6日にHunyuanVideo画像から動画生成モデルを正式にリリースしました。現在、モデルはオープンソース化されており、HunyuanVideo-I2Vで入手できます。

以下はHunyuanVideoの全体アーキテクチャ図です

HunyuanVideo アーキテクチャ全体図

現在、ComfyUI公式がHunyuanVideo-I2Vモデルをネイティブサポートしており、コミュニティ開発者のkijaicity96のカスタムノードもHunyuanVideo-I2Vモデルのサポートを更新しています。

テンセント公式版以外に、ComfyUI Wikiで確認できる対応バージョンは以下の通りです:

本記事では、これらのバージョンに基づいて、それぞれの完全なモデルのインストールとワークフローの使用例の説明を提供します。

この記事では主に画像から動画生成のワークフローについて説明します。テンセントの混元テキストから動画生成ワークフローについては、テンセント混元テキストから動画生成ワークフローガイドと例を参照してください。

ComfyUI公式 HunyuanVideo I2Vワークフロー

このワークフローはComfyUI公式ドキュメントから取得しています。

このチュートリアルを始める前に、ComfyUIのアップデート方法を参照してComfyUIを最新バージョンに更新してください。これにより、Comfy_CoreのHunyuanVideo関連ノードの不足を防ぐことができます:

  • HunyuanImageToVideo
  • TextEncodeHunyuanVideo_ImageToVideo

1. HunyuanVideo I2V ワークフローファイル

以下のワークフローファイルをダウンロードし、ComfyUIにドラッグするか、メニューのWorkflows -> Open(ctrl+o)を使用してワークフローを読み込みます。

Comfy_HunyuanVideo_I2V

JSONフォーマットワークフローのダウンロード

2. HunyuanVideo I2V 関連モデルのダウンロード

以下のモデルはすべてComfy-Org/HunyuanVideo_repackagedから入手できます:

ダウンロード後、以下のファイル構成に従ってComfyUI/modelsの対応するフォルダに保存してください:

ComfyUI/
├── models/
│   ├── clip_vision/
│   │   └── llava_llama3_vision.safetensors
│   ├── text_encoders/
│   │   ├── clip_l.safetensors
│   │   ├── llava_llama3_fp16.safetensors
│   │   └── llava_llama3_fp8_scaled.safetensors
│   ├── vae/
│   │   └── hunyuan_video_vae_bf16.safetensors
│   └── diffusion_models/
│       └── hunyuan_video_image_to_video_720p_bf16.safetensors

3. 入力画像

以下の画像を入力画像としてダウンロードしてください

Comfy_HunyuanVideo_I2V_input

HunyuanVideo I2V ワークフローノードの確認手順

画像を参照して対応するノードの内容を確認し、ワークフローが正常に動作することを確認してください

Comfy公式 HunyuanVideo I2V ワークフローノードの確認

  1. DualCLIPLoaderノードの確認:
  • clip_name1: clip_l.safetensorsが正しく読み込まれていることを確認
  • clip_name2: llava_llama3_vision.safetensorsが正しく読み込まれていることを確認
  1. Load CLIP Visionノードの確認: llava_llama3_vision.safetensorsが正しく読み込まれていることを確認
  2. Load Imageノードで、先ほど提供した入力画像をアップロード
  3. Load VAEノードの確認: hunyuan_video_vae_bf16.safetensorsが正しく読み込まれていることを確認
  4. Load Diffusion Modelノードの確認: hunyuan_video_image_to_video_720p_bf16.safetensorsが正しく読み込まれていることを確認
  • 実行中にrunning out of memory.エラーが発生した場合は、weight_dtypefp8タイプに設定してみてください
  1. Queueボタンをクリックするか、ショートカットキーCtrl(cmd) + Enterを使用して動画生成を実行

Kijai HunyuanVideoWrapper バージョン

1. カスタムノードのインストール

以下のカスタムノードをインストールする必要があります:

カスタムノードのインストール方法がわからない場合は、ComfyUIカスタムノードインストールガイドを参照してください。

2. モデルのダウンロード

ダウンロード後、以下のファイル構成に従ってComfyUI/modelsの対応するフォルダに保存してください:

ComfyUI/
├── models/
│   ├── vae/
│   │   └── hunyuan_video_vae_bf16.safetensors
│   └── diffusion_models/
│       └── hunyuan_video_I2V_fp8_e4m3fn.safetensors

3. HunyuanVideo I2V ワークフローファイル

HunyuanVideo I2V ワークフローノードの確認手順

画像を参照して対応するノードの内容を確認し、ワークフローが正常に動作することを確認してください

Kijaiバージョン HunyuanVideo I2V ワークフローノードの確認

  1. Load Imageノードで、画像から動画を生成したい画像をアップロード
  2. HunyuanVideo VAE Loaderノードで、hunyuan_video_vae_bf16.safetensorsが正しく読み込まれていることを確認
  3. HunyuanVideo Model Loaderノードで、hunyuan_video_I2V_fp8_e4m3fn.safetensorsが正しく読み込まれていることを確認
  4. HyVideo I2V Encodeノードのプロンプトテキストを修正し、生成したい動画の説明を入力
  5. Queueボタンをクリックするか、ショートカットキーCtrl(cmd) + Enterを使用して動画生成を実行

city96 GGUF バージョン

1. カスタムノードのインストール

以下のカスタムノードをインストールする必要があります:

カスタムノードのインストール方法がわからない場合は、ComfyUIカスタムノードインストールガイドを参照してください。

2. モデルのダウンロード

このパートのモデルは、HunyuanVideoモデル以外は基本的にComfyUI公式版と同じです。対応するモデルについては、本記事のComfyUI公式版の部分を参照して手動でダウンロードしてください。

city96/HunyuanVideo-I2V-ggufにアクセスして必要なバージョンのモデルをダウンロードし、対応するggufモデルファイルをComfyUI/models/unetフォルダに保存する必要があります。

ComfyUI/
├── models/
│   ├── clip_vision/
│   │   └── llava_llama3_vision.safetensors
│   ├── text_encoders/
│   │   ├── clip_l.safetensors
│   │   ├── llava_llama3_fp16.safetensors
│   │   └── llava_llama3_fp8_scaled.safetensors
│   ├── vae/
│   │   └── hunyuan_video_vae_bf16.safetensors
│   └── unet/
│       └── hunyuan-video-i2v-720p-Q4_K_M.gguf // ダウンロードしたバージョンによって異なります

3. HunyuanVideo I2V ワークフローファイル

HunyuanVideo I2V ワークフローノードの確認手順

画像を参照して対応するノードの内容を確認し、ワークフローが正常に動作することを確認してください

city96 GGUFバージョン HunyuanVideo I2V ワークフローノードの確認

  1. DualCLIPLoaderノードの確認:
  • clip_name1: clip_l.safetensorsが正しく読み込まれていることを確認
  • clip_name2: llava_llama3_vision.safetensorsが正しく読み込まれていることを確認
  1. Load CLIP Visionノードの確認: llava_llama3_vision.safetensorsが正しく読み込まれていることを確認
  2. Load Imageノードで、先ほど提供した入力画像をアップロード
  3. Load VAEノードの確認: hunyuan_video_vae_bf16.safetensorsが正しく読み込まれていることを確認
  4. Load Diffusion Modelノードの確認: 対応するHunyuanVideo GGUFモデルが正しく読み込まれていることを確認
  5. Queueボタンをクリックするか、ショートカットキーCtrl(cmd) + Enterを使用して動画生成を実行