À la pointe du futur de la génération de vidéos par IA

Nous concevons une technologie qui paraît humaine, crée des liens profonds et sublime l’art de raconter des histoires, en apportant une intelligence plus vraie que nature à un monde numérique en pleine évolution.

Une IA qui connecte, s’adapte et inspire

Chez HeyGen, nos recherches en IA sont guidées par la mission de rendre la narration visuelle accessible à tous.

AI Connects

Rencontrez nos leaders en IA

Innover à l’intersection de la créativité, de la communication et de la technologie.

Charly Hong, Responsable de la recherche en IA

Charly Hong, Responsable de la recherche en IA

Charly Hong apporte plus de dix ans d’expertise en vision par ordinateur et en IA, avec un accent sur la modélisation humaine, la compréhension et la génération vidéo. Il est l’auteur de plus de 60 publications et brevets, témoignant de son engagement en faveur de l’innovation et de solutions à fort impact. Chez HeyGen, Charly fait progresser les technologies d’IA qui relient de manière fluide la recherche et le produit.

Rong Yan, Directeur technique (CTO)

Rong Yan, Directeur technique (CTO)

Rong Yan est le CTO de HeyGen, engagé à rendre la narration visuelle accessible à tous. Auparavant, il était VP of Engineering chez HubSpot, où il dirigeait les produits Data and Intelligence, et a occupé des postes de direction chez Snapchat, Square et Facebook. Rong a obtenu son M.Sc. (2004) et son Ph.D. (2006) à Carnegie Mellon. Chercheur prolifique, il compte plus de 60 publications, 35 brevets et une expertise en IA, fouille de données et vision par ordinateur.


Joshua Xu, PDG

Joshua Xu, PDG

Joshua Xu est le cofondateur et PDG de HeyGen, où il porte la mission de transformer la narration visuelle grâce à la création de contenu alimentée par l’IA. Auparavant, il a été ingénieur principal chez Snapchat (2014–2020), menant des innovations dans le classement des publicités, l’apprentissage automatique et la photographie computationnelle. Titulaire d’un master en informatique de l’université Carnegie Mellon, Joshua possède une expertise approfondie en apprentissage automatique, vision par ordinateur et IA générative.

Jun-Yan Zhu, Conseiller

Jun-Yan Zhu, Conseiller

Jun-Yan Zhu est professeur assistant Michael B. Donohue en informatique et robotique à l’Université Carnegie Mellon, où il dirige le Generative Intelligence Lab. Ses recherches portent sur les modèles génératifs, la vision par ordinateur et l’infographie, avec pour mission de donner plus de moyens aux créateurs grâce aux modèles génératifs. Il a reçu le prix Samsung AI Researcher of the Year, la bourse Packard, le NSF CAREER Award, entre autres distinctions.

Nos piliers de recherche : façonner l’IA de demain

Redéfinir l’identité numérique avec précision et qualité

Notre approche de la génération d’avatars met l’accent sur la contrôlabilité, la cohérence et une qualité inégalée. En faisant progresser la création pilotée par l’IA, nous permettons aux avatars de refléter de manière fluide les expressions et les comportements humains, comblant ainsi le fossé entre la réalité et le monde numérique.

Modèles de langage multimodaux au service de l’intelligence vidéo

We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.

Briser les barrières linguistiques grâce à des solutions multimodales

En tirant parti de l’IA pour créer des solutions de traduction vidéo multimodales, nous visons à rendre la communication mondiale plus accessible. En intégrant de manière fluide le texte, la voix et les éléments visuels, nous transformons les vidéos en contenus compréhensibles par tous, favorisant ainsi les échanges entre les cultures.

Engagement en temps réel grâce à l’innovation multimodale

Grâce au rendu en temps réel et à des solutions multimodales avancées, nos avatars interactifs donnent vie aux conversations. Ces avatars ne se contentent pas de répondre de manière dynamique, ils redéfinissent aussi l’interaction utilisateur, rendant la technologie plus engageante et plus humaine.

IA émotionnelle pour des humains numériques expressifs et réalistes

Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.

Des systèmes agentiques permettant de déployer des agents vidéo à grande échelle

We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.

Rong Yan, directeur technique chez HeyGen

"Nous concevons une IA non seulement puissante, mais aussi fiable et simple à utiliser. Notre objectif est de redéfinir ce qui est possible avec la génération de vidéos par IA, pour en faire un outil indispensable pour les entreprises et agréable à utiliser pour chacun."

Rong Yan message

Travaillons ensemble.

Cela pourrait être le début de quelque chose de spécial. Découvrez-en plus sur les carrières chez HeyGen.

AI Connects