Liderando el futuro de la generación de vídeo con IA

Estamos creando tecnología que se siente humana, conecta profundamente y eleva la forma de contar historias, aportando una inteligencia realista a un mundo digital en rápida evolución.

IA que conecta, se adapta e inspira

En HeyGen, nuestra investigación en IA está impulsada por la misión de hacer que la narración visual sea accesible para todo el mundo.

AI Connects

Conoce a nuestros líderes de IA

Innovando en la intersección entre creatividad, comunicación y tecnología.

Charly Hong, Director de Investigación en IA

Charly Hong, Director de Investigación en IA

Charly Hong aporta más de una década de experiencia en visión por computador e IA, con un enfoque en el modelado y la comprensión del ser humano, así como en la generación de vídeo. Ha publicado más de 60 trabajos y patentes, lo que subraya su compromiso con la innovación y las soluciones de alto impacto. En HeyGen, Charly impulsa avances en tecnología de IA que conectan de forma fluida la investigación con el producto.

Rong Yan, director de tecnología (CTO)

Rong Yan, director de tecnología (CTO)

Rong Yan es el CTO de HeyGen, dedicado a hacer que la narración visual sea accesible para todos. Anteriormente fue vicepresidente de Ingeniería en HubSpot, donde dirigió los productos de Datos e Inteligencia, y ocupó cargos de liderazgo en Snapchat, Square y Facebook. Rong obtuvo su máster (2004) y doctorado (2006) en Carnegie Mellon. Investigador prolífico, cuenta con más de 60 publicaciones, 35 patentes y una amplia experiencia en IA, minería de datos y visión por computador.


Joshua Xu, CEO

Joshua Xu, CEO

Joshua Xu es cofundador y CEO de HeyGen, y lidera la misión de transformar la narración visual mediante la creación de contenido impulsada por IA. Anteriormente fue ingeniero principal en Snapchat (2014–2020), donde encabezó innovaciones en clasificación de anuncios, aprendizaje automático y fotografía computacional. Con un máster en Informática por Carnegie Mellon, Joshua aporta una profunda experiencia en aprendizaje automático, visión por computador e IA generativa.

Jun-Yan Zhu, Asesor

Jun-Yan Zhu, Asesor

Jun-Yan Zhu es el profesor asistente Michael B. Donohue de Informática y Robótica en la Universidad Carnegie Mellon, donde dirige el Laboratorio de Inteligencia Generativa. Su investigación se centra en modelos generativos, visión por computador y gráficos, con la misión de empoderar a los creadores mediante modelos generativos. Ha recibido el premio Samsung AI Researcher of the Year, la beca Packard, el NSF CAREER Award, entre otros reconocimientos.

Nuestros pilares de investigación: dando forma a la IA del mañana

Redefiniendo la identidad digital con precisión y calidad

Nuestro enfoque en la generación de avatares se centra en la capacidad de control, la consistencia y una calidad inigualable. Al impulsar la creación mediante IA, hacemos posible que los avatares reflejen las expresiones y comportamientos humanos de forma fluida, cerrando la brecha entre la realidad y el mundo digital.

Modelos de lenguaje multimodales que impulsan la inteligencia de vídeo

We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.

Rompiendo las barreras del idioma con soluciones multimodales

Aprovechando la IA para crear soluciones multimodales de traducción de vídeo, nuestro objetivo es hacer que la comunicación global sea más accesible. Al integrar de forma fluida texto, voz e imágenes, transformamos los vídeos en contenido comprensible para cualquier persona, impulsando la conexión entre culturas.

Interacción en tiempo real mediante innovación multimodal

Impulsados por el renderizado en tiempo real y soluciones multimodales avanzadas, nuestros avatares interactivos dan vida a las conversaciones. Estos avatares no solo responden de forma dinámica, sino que también redefinen la interacción con el usuario, haciendo que la tecnología sea más atractiva y humana.

IA emocional para humanos digitales expresivos y realistas

Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.

Sistemas agénticos que permiten agentes de vídeo a gran escala

We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.

Rong Yan, director de tecnología en HeyGen

"Estamos desarrollando una IA que no solo sea potente, sino también fiable y fácil de usar. Nuestro objetivo es redefinir lo que es posible con la generación de vídeo mediante IA, haciéndola indispensable para las empresas y agradable para los usuarios."

Rong Yan message

Trabajemos juntos.

Esto podría ser el comienzo de algo especial. Obtén más información sobre las carreras en HeyGen.

AI Connects
Investigación sobre vídeos generados por IA | Tecnología de vídeo con IA 2025 | HeyGen