Guidare il futuro della generazione video con l’IA

Stiamo creando una tecnologia che sembra umana, che connette in profondità e che eleva il modo di raccontare le storie, portando un’intelligenza realistica in un mondo digitale in rapida evoluzione.

Un'IA che connette, si adatta e ispira

In HeyGen, la nostra ricerca sull’IA è guidata dalla missione di rendere il racconto visivo accessibile a tutti.

AI Connects

Incontra i nostri leader dell’IA

Innovare all’intersezione tra creatività, comunicazione e tecnologia.

Charly Hong, Head of AI Research

Charly Hong, Head of AI Research

Charly Hong brings over a decade of expertise in computer vision and AI, with a focus on human modeling, understanding, and video generation. He has authored over 60 publications and patents, underscoring his commitment to innovation and impactful solutions. At HeyGen, Charly drives advancements in AI technology that seamlessly bridge research and product.

Rong Yan, CTO

Rong Yan, CTO

Rong Yan is the CTO of HeyGen, dedicated to making visual storytelling accessible to all. Previously, he was VP of Engineering at HubSpot, leading Data and Intelligence products, and held leadership roles at Snapchat, Square, and Facebook. Rong earned his M.Sc. (2004) and Ph.D. (2006) from Carnegie Mellon. A prolific researcher, he has over 60 publications, 35 patents, and expertise in AI, data mining, and computer vision.


Joshua Xu, CEO

Joshua Xu, CEO

Joshua Xu is the Co-Founder and CEO of HeyGen, driving the mission to transform visual storytelling with AI-powered content creation. Previously, he was a lead engineer at Snapchat (2014–2020), spearheading innovations in ads ranking, machine learning, and computational photography. With a Master’s in Computer Science from Carnegie Mellon, Joshua brings deep expertise in machine learning, computer vision, and generative AI.

Jun-Yan Zhu, Advisor

Jun-Yan Zhu, Advisor

Jun-Yan Zhu is the Michael B. Donohue Assistant Professor of Computer Science and Robotics at Carnegie Mellon University, where he leads the Generative Intelligence Lab. His research focuses on generative models, computer vision, and graphics, with the mission of empowering creators with generative models. He has received the Samsung AI Researcher of the Year, the Packard Fellowship, the NSF CAREER Award, among other awards.

I nostri pilastri di ricerca: plasmare l’IA di domani

Ridefinire l’identità digitale con precisione e qualità

Il nostro approccio alla generazione di avatar pone l’accento su controllabilità, coerenza e qualità senza precedenti. Sviluppando la creazione basata sull’IA, permettiamo agli avatar di rispecchiare in modo naturale le espressioni e i comportamenti umani, colmando il divario tra la realtà e il mondo digitale.

Modelli linguistici multimodali alla base dell’intelligenza video

We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.

Abbattere le barriere linguistiche con soluzioni multimodali

Sfruttando l’IA per creare soluzioni multimodali di traduzione video, puntiamo a rendere la comunicazione globale più accessibile. Integrando in modo fluido testo, voce e contenuti visivi, trasformiamo i video in contenuti universalmente comprensibili, favorendo connessioni tra culture diverse.

Coinvolgimento in tempo reale attraverso l’innovazione multimodale

Grazie al rendering in tempo reale e a soluzioni multimodali avanzate, i nostri avatar interattivi danno vita alle conversazioni. Questi avatar non solo rispondono in modo dinamico, ma ridefiniscono anche l’interazione con l’utente, rendendo la tecnologia più coinvolgente e simile a quella umana.

Intelligenza artificiale emotiva per esseri umani digitali espressivi e realistici

Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.

Sistemi agentici che abilitano agenti video su larga scala

We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.

Rong Yan, Chief Technology Officer presso HeyGen

"Stiamo progettando un'IA non solo potente, ma anche affidabile e facile da usare. Il nostro obiettivo è ridefinire ciò che è possibile con la generazione video basata sull'IA, rendendola indispensabile per le aziende e piacevole per gli utenti."

Rong Yan message

Lavoriamo insieme.

Questo potrebbe essere l’inizio di qualcosa di speciale. Scopri di più sulle opportunità di carriera in HeyGen.

AI Connects