Skip to content

Exemples Vidéo

Image vers Vidéo

Au moment de la rédaction, il existe deux checkpoints pour la conversion d’image en vidéo. Voici les checkpoints officiels pour celui ajusté pour générer des vidéos de 14 images et celui pour des vidéos de 25 images. Placez-les dans le dossier ComfyUI/models/checkpoints.

La manière la plus basique d’utiliser le modèle de conversion d’image en vidéo est de lui fournir une image initiale comme dans le flux de travail suivant qui utilise le modèle de 14 images. Vous pouvez télécharger cette image animée webp et la charger ou la glisser sur ComfyUI pour obtenir le flux de travail.

Exemple

Flux de travail au format Json

Si vous souhaitez l’image d’entrée exacte, vous pouvez la trouver sur la page d’exemple unCLIP

Vous pouvez également les utiliser comme dans ce flux de travail qui utilise SDXL pour générer une image initiale qui est ensuite passée au modèle de 25 images :

Exemple

Flux de travail au format Json

Quelques explications pour les paramètres :

video_frames: Le nombre d’images vidéo à générer.

motion_bucket_id: Plus le nombre est élevé, plus il y aura de mouvement dans la vidéo.

fps: Plus le fps est élevé, moins la vidéo sera saccadée.

augmentation level: La quantité de bruit ajoutée à l’image initiale, plus elle est élevée, moins la vidéo ressemblera à l’image initiale. Augmentez-la pour plus de mouvement.

VideoLinearCFGGuidance: Ce nœud améliore légèrement l’échantillonnage pour ces modèles vidéo, ce qu’il fait est de faire varier linéairement le cfg à travers les différentes images. Dans l’exemple ci-dessus, la première image aura un cfg de 1.0 (le min_cfg dans le nœud), l’image du milieu 1.75 et la dernière image 2.5. (le cfg défini dans le sampler). De cette façon, les images plus éloignées de l’image initiale obtiennent un cfg progressivement plus élevé.