Liderando el futuro de la generación de vídeo con IA

Estamos creando tecnología que se siente humana, conecta profundamente y eleva la forma de contar historias, aportando una inteligencia realista a un mundo digital en rápida evolución.

IA que conecta, se adapta e inspira

En HeyGen, nuestra investigación en IA está impulsada por la misión de hacer que la narración visual sea accesible para todo el mundo.

AI Connects

Conoce a nuestros líderes de IA

Innovando en la intersección entre creatividad, comunicación y tecnología.

Charly Hong, Head of AI Research

Charly Hong, Head of AI Research

Charly Hong brings over a decade of expertise in computer vision and AI, with a focus on human modeling, understanding, and video generation. He has authored over 60 publications and patents, underscoring his commitment to innovation and impactful solutions. At HeyGen, Charly drives advancements in AI technology that seamlessly bridge research and product.

Rong Yan, CTO

Rong Yan, CTO

Rong Yan is the CTO of HeyGen, dedicated to making visual storytelling accessible to all. Previously, he was VP of Engineering at HubSpot, leading Data and Intelligence products, and held leadership roles at Snapchat, Square, and Facebook. Rong earned his M.Sc. (2004) and Ph.D. (2006) from Carnegie Mellon. A prolific researcher, he has over 60 publications, 35 patents, and expertise in AI, data mining, and computer vision.


Joshua Xu, CEO

Joshua Xu, CEO

Joshua Xu is the Co-Founder and CEO of HeyGen, driving the mission to transform visual storytelling with AI-powered content creation. Previously, he was a lead engineer at Snapchat (2014–2020), spearheading innovations in ads ranking, machine learning, and computational photography. With a Master’s in Computer Science from Carnegie Mellon, Joshua brings deep expertise in machine learning, computer vision, and generative AI.

Jun-Yan Zhu, Advisor

Jun-Yan Zhu, Advisor

Jun-Yan Zhu is the Michael B. Donohue Assistant Professor of Computer Science and Robotics at Carnegie Mellon University, where he leads the Generative Intelligence Lab. His research focuses on generative models, computer vision, and graphics, with the mission of empowering creators with generative models. He has received the Samsung AI Researcher of the Year, the Packard Fellowship, the NSF CAREER Award, among other awards.

Nuestros pilares de investigación: dando forma a la IA del mañana

Redefiniendo la identidad digital con precisión y calidad

Nuestro enfoque en la generación de avatares hace hincapié en la capacidad de control, la consistencia y una calidad sin precedentes. Al impulsar la creación mediante IA, permitimos que los avatares reflejen las expresiones y comportamientos humanos de forma fluida, acortando la distancia entre la realidad y el mundo digital.

Modelos de lenguaje multimodales que impulsan la inteligencia de vídeo

We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.

Rompiendo barreras lingüísticas con soluciones multimodales

Aprovechando la IA para crear soluciones multimodales de traducción de vídeo, nuestro objetivo es hacer que la comunicación global sea más accesible. Al integrar de forma fluida texto, voz e imágenes, transformamos los vídeos en contenido comprensible para todo el mundo, fomentando la conexión entre culturas.

Participación en tiempo real mediante innovación multimodal

Impulsados por el renderizado en tiempo real y soluciones multimodales avanzadas, nuestros avatares interactivos dan vida a las conversaciones. Estos avatares no solo responden de forma dinámica, sino que también redefinen la interacción con el usuario, haciendo que la tecnología sea más atractiva y humana.

IA emocional para humanos digitales expresivos y realistas

Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.

Sistemas agénticos que permiten agentes de vídeo a gran escala

We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.

Rong Yan, director de tecnología en HeyGen

"Estamos desarrollando una IA que no solo sea potente, sino también fiable y fácil de usar. Nuestro objetivo es redefinir lo que es posible con la generación de vídeo mediante IA, haciéndola indispensable para las empresas y atractiva para los usuarios."

Rong Yan message

Trabajemos juntos.

Esto podría ser el comienzo de algo especial. Obtén más información sobre las carreras profesionales en HeyGen.

AI Connects