Liderando el futuro de la generación de vídeo con IA
Estamos creando tecnología que se siente humana, conecta profundamente y eleva la forma de contar historias, aportando una inteligencia realista a un mundo digital en rápida evolución.

IA que conecta, se adapta e inspira
En HeyGen, nuestra investigación en IA está impulsada por la misión de hacer que la narración visual sea accesible para todo el mundo.

Conoce a nuestros líderes de IA
Innovando en la intersección entre creatividad, comunicación y tecnología.

Charly Hong, Director de Investigación en IA
Charly Hong aporta más de una década de experiencia en visión por computador e IA, con un enfoque en el modelado y la comprensión del ser humano, así como en la generación de vídeo. Ha publicado más de 60 trabajos y patentes, lo que subraya su compromiso con la innovación y las soluciones de alto impacto. En HeyGen, Charly impulsa avances en tecnología de IA que conectan de forma fluida la investigación con el producto.

Rong Yan, director de tecnología (CTO)
Rong Yan es el CTO de HeyGen, dedicado a hacer que la narración visual sea accesible para todos. Anteriormente fue vicepresidente de Ingeniería en HubSpot, donde dirigió los productos de Datos e Inteligencia, y ocupó cargos de liderazgo en Snapchat, Square y Facebook. Rong obtuvo su máster (2004) y doctorado (2006) en Carnegie Mellon. Investigador prolífico, cuenta con más de 60 publicaciones, 35 patentes y una amplia experiencia en IA, minería de datos y visión por computador.

Joshua Xu, CEO
Joshua Xu es cofundador y CEO de HeyGen, y lidera la misión de transformar la narración visual mediante la creación de contenido impulsada por IA. Anteriormente fue ingeniero principal en Snapchat (2014–2020), donde encabezó innovaciones en clasificación de anuncios, aprendizaje automático y fotografía computacional. Con un máster en Informática por Carnegie Mellon, Joshua aporta una profunda experiencia en aprendizaje automático, visión por computador e IA generativa.

Jun-Yan Zhu, Asesor
Jun-Yan Zhu es el profesor asistente Michael B. Donohue de Informática y Robótica en la Universidad Carnegie Mellon, donde dirige el Laboratorio de Inteligencia Generativa. Su investigación se centra en modelos generativos, visión por computador y gráficos, con la misión de empoderar a los creadores mediante modelos generativos. Ha recibido el premio Samsung AI Researcher of the Year, la beca Packard, el NSF CAREER Award, entre otros reconocimientos.
Nuestros pilares de investigación: dando forma a la IA del mañana
Redefiniendo la identidad digital con precisión y calidad
Nuestro enfoque en la generación de avatares se centra en la capacidad de control, la consistencia y una calidad inigualable. Al impulsar la creación mediante IA, hacemos posible que los avatares reflejen las expresiones y comportamientos humanos de forma fluida, cerrando la brecha entre la realidad y el mundo digital.
Modelos de lenguaje multimodales que impulsan la inteligencia de vídeo
We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.
Rompiendo las barreras del idioma con soluciones multimodales
Aprovechando la IA para crear soluciones multimodales de traducción de vídeo, nuestro objetivo es hacer que la comunicación global sea más accesible. Al integrar de forma fluida texto, voz e imágenes, transformamos los vídeos en contenido comprensible para cualquier persona, impulsando la conexión entre culturas.
Interacción en tiempo real mediante innovación multimodal
Impulsados por el renderizado en tiempo real y soluciones multimodales avanzadas, nuestros avatares interactivos dan vida a las conversaciones. Estos avatares no solo responden de forma dinámica, sino que también redefinen la interacción con el usuario, haciendo que la tecnología sea más atractiva y humana.
IA emocional para humanos digitales expresivos y realistas
Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.
Sistemas agénticos que permiten agentes de vídeo a gran escala
We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.
Rong Yan, director de tecnología en HeyGen
"Estamos desarrollando una IA que no solo sea potente, sino también fiable y fácil de usar. Nuestro objetivo es redefinir lo que es posible con la generación de vídeo mediante IA, haciéndola indispensable para las empresas y agradable para los usuarios."

Trabajemos juntos.
Esto podría ser el comienzo de algo especial. Obtén más información sobre las carreras en HeyGen.
