À l’avant-garde du futur de la génération vidéo par IA
Nous concevons une technologie qui paraît humaine, crée des liens profonds et sublime la narration, en apportant une intelligence plus vraie que nature à un monde numérique en pleine évolution.

Une IA qui connecte, s’adapte et inspire
Chez HeyGen, nos recherches en IA sont guidées par la mission de rendre la narration visuelle accessible à tous.

Rencontrez nos leaders en IA
Innover à l’intersection de la créativité, de la communication et de la technologie.

Charly Hong, Head of AI Research
Charly Hong brings over a decade of expertise in computer vision and AI, with a focus on human modeling, understanding, and video generation. He has authored over 60 publications and patents, underscoring his commitment to innovation and impactful solutions. At HeyGen, Charly drives advancements in AI technology that seamlessly bridge research and product.

Rong Yan, CTO
Rong Yan is the CTO of HeyGen, dedicated to making visual storytelling accessible to all. Previously, he was VP of Engineering at HubSpot, leading Data and Intelligence products, and held leadership roles at Snapchat, Square, and Facebook. Rong earned his M.Sc. (2004) and Ph.D. (2006) from Carnegie Mellon. A prolific researcher, he has over 60 publications, 35 patents, and expertise in AI, data mining, and computer vision.

Joshua Xu, CEO
Joshua Xu is the Co-Founder and CEO of HeyGen, driving the mission to transform visual storytelling with AI-powered content creation. Previously, he was a lead engineer at Snapchat (2014–2020), spearheading innovations in ads ranking, machine learning, and computational photography. With a Master’s in Computer Science from Carnegie Mellon, Joshua brings deep expertise in machine learning, computer vision, and generative AI.

Jun-Yan Zhu, Advisor
Jun-Yan Zhu is the Michael B. Donohue Assistant Professor of Computer Science and Robotics at Carnegie Mellon University, where he leads the Generative Intelligence Lab. His research focuses on generative models, computer vision, and graphics, with the mission of empowering creators with generative models. He has received the Samsung AI Researcher of the Year, the Packard Fellowship, the NSF CAREER Award, among other awards.
Nos axes de recherche : façonner l’IA de demain
Redéfinir l’identité numérique avec précision et qualité
Notre approche de la génération d’avatars met l’accent sur la contrôlabilité, la cohérence et une qualité inégalée. En faisant progresser la création assistée par l’IA, nous permettons aux avatars de refléter de manière fluide les expressions et les comportements humains, comblant ainsi le fossé entre la réalité et le monde numérique.
Modèles de langage multimodaux au service de l’intelligence vidéo
We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.
Briser les barrières linguistiques grâce à des solutions multimodales
En tirant parti de l’IA pour créer des solutions de traduction vidéo multimodales, nous visons à rendre la communication mondiale plus accessible. En intégrant de manière fluide le texte, la voix et les éléments visuels, nous transformons les vidéos en contenus universellement compréhensibles, favorisant les échanges interculturels.
Engagement en temps réel grâce à l’innovation multimodale
Grâce au rendu en temps réel et à des solutions multimodales avancées, nos avatars interactifs donnent vie aux conversations. Ces avatars ne se contentent pas de répondre de manière dynamique, ils redéfinissent aussi l’interaction utilisateur, rendant la technologie plus captivante et plus humaine.
IA émotionnelle pour des humains numériques expressifs et réalistes
Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.
Systèmes agentiques permettant de déployer des agents vidéo à grande échelle
We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.
Rong Yan, directeur technologique chez HeyGen
"Nous concevons une IA non seulement puissante, mais aussi fiable et simple à utiliser. Notre objectif est de redéfinir ce qui est possible avec la génération vidéo par IA, pour la rendre indispensable aux entreprises et agréable pour les utilisateurs."

Travaillons ensemble.
Cela pourrait être le début de quelque chose de spécial. Découvrez-en plus sur les carrières chez HeyGen.
