Skip to content
Aidez à Construire une Meilleure Base de Connaissances ComfyUI Devenir Parrain
ActualitésTencent publie en open source le modèle d'avatar numérique vocal HunyuanVideo-Avatar : créez des vidéos numériques naturelles à partir d'une image et d'un audio
Aucun article pour le moment. Revenez plus tard !

Tencent publie en open source le modèle d’avatar numérique vocal HunyuanVideo-Avatar

HunyuanVideo-Avatar

L’équipe Hunyuan de Tencent a récemment publié en open source le modèle d’avatar numérique vocal HunyuanVideo-Avatar. Ce modèle peut générer automatiquement des vidéos numériques naturelles et fluides à partir d’une simple image de personne et d’un extrait audio, faisant parler ou chanter le personnage de l’image. Que ce soit pour la création de vidéos courtes, la publicité e-commerce ou les animateurs virtuels, HunyuanVideo-Avatar offre une expérience pratique de génération de vidéos numériques pour les créateurs de contenu et les entreprises.

Démonstrations vidéo

  • Solo féminin multi-scènes :
  • Exemple de dialogue multi-scènes :
  • Démonstration de personnages multi-styles :

Fonctionnalités principales

  • Génération de vidéo dynamique à partir d’une image et d’un audio : Il suffit de télécharger une image de personne et un extrait audio. Le modèle comprend automatiquement le contenu et génère des vidéos naturelles de parole ou de chant, incluant expressions faciales, synchronisation labiale et mouvements du corps entier.
  • Haute fidélité et grande dynamique : Permet de générer des vidéos numériques de haute qualité et dynamiques, couvrant la tête, le buste et le corps entier.
  • Support multi-styles, multi-espèces et scènes à deux personnages : Prend en charge non seulement les humains réels, mais aussi la génération de vidéos dynamiques dans divers styles artistiques (comme l’anime, la peinture à l’encre) et différentes espèces (robots, animaux), avec interaction multi-personnages.
  • Transfert et contrôle des émotions : Peut extraire des indices émotionnels de l’image de référence et les transférer à la vidéo générée, permettant un contrôle précis du style émotionnel.
  • Cohérence des personnages : Grâce au module d’injection d’image de personnage, assure une grande cohérence et des mouvements naturels du personnage généré.
  • Adaptation audio sensible au visage : Dans les scénarios multi-personnages, utilise un adaptateur audio sensible au visage pour un pilotage audio indépendant, permettant des dialogues multi-personnages.

Scénarios d’application

  • Live e-commerce : Présentateurs numériques présentant des produits pour améliorer l’interactivité.
  • Streaming en ligne : Création de contenu pour animateurs et idoles virtuels.
  • Vidéos pour les réseaux sociaux : Les particuliers et créateurs peuvent facilement réaliser des vidéos courtes numériques attrayantes.
  • Création et édition de contenu : Outils de génération de vidéos dynamiques pour l’animation, les jeux, etc.
  • Valorisation du patrimoine culturel : Donne vie aux personnages historiques et aux objets patrimoniaux sous forme d’avatars numériques.

Liens associés