Die Zukunft der KI-Videogenerierung gestalten

Wir entwickeln Technologien, die menschlich wirken, tief verbinden und das Erzählen von Geschichten auf ein neues Niveau heben – und so lebensechte Intelligenz in eine sich rasant wandelnde digitale Welt bringen.

KI, die verbindet, sich anpasst und inspiriert

Bei HeyGen wird unsere KI-Forschung von der Mission angetrieben, visuelles Storytelling für alle zugänglich zu machen.

AI Connects

Lernen Sie unsere KI-Führungskräfte kennen

Innovationen an der Schnittstelle von Kreativität, Kommunikation und Technologie.

Charly Hong, Head of AI Research

Charly Hong, Head of AI Research

Charly Hong brings over a decade of expertise in computer vision and AI, with a focus on human modeling, understanding, and video generation. He has authored over 60 publications and patents, underscoring his commitment to innovation and impactful solutions. At HeyGen, Charly drives advancements in AI technology that seamlessly bridge research and product.

Rong Yan, CTO

Rong Yan, CTO

Rong Yan is the CTO of HeyGen, dedicated to making visual storytelling accessible to all. Previously, he was VP of Engineering at HubSpot, leading Data and Intelligence products, and held leadership roles at Snapchat, Square, and Facebook. Rong earned his M.Sc. (2004) and Ph.D. (2006) from Carnegie Mellon. A prolific researcher, he has over 60 publications, 35 patents, and expertise in AI, data mining, and computer vision.


Joshua Xu, CEO

Joshua Xu, CEO

Joshua Xu is the Co-Founder and CEO of HeyGen, driving the mission to transform visual storytelling with AI-powered content creation. Previously, he was a lead engineer at Snapchat (2014–2020), spearheading innovations in ads ranking, machine learning, and computational photography. With a Master’s in Computer Science from Carnegie Mellon, Joshua brings deep expertise in machine learning, computer vision, and generative AI.

Jun-Yan Zhu, Advisor

Jun-Yan Zhu, Advisor

Jun-Yan Zhu is the Michael B. Donohue Assistant Professor of Computer Science and Robotics at Carnegie Mellon University, where he leads the Generative Intelligence Lab. His research focuses on generative models, computer vision, and graphics, with the mission of empowering creators with generative models. He has received the Samsung AI Researcher of the Year, the Packard Fellowship, the NSF CAREER Award, among other awards.

Unsere Forschungsschwerpunkte: die KI von morgen gestalten

Digitale Identität mit Präzision und Qualität neu definiert

Unser Schwerpunkt bei der Avatarerstellung liegt auf Steuerbarkeit, Konsistenz und unvergleichlicher Qualität. Durch die Weiterentwicklung KI-gestützter Kreation ermöglichen wir Avataren, menschliche Ausdrücke und Verhaltensweisen nahtlos zu spiegeln und so die Lücke zwischen der Realität und der digitalen Welt zu schließen.

Multimodale Sprachmodelle für Video-Intelligenz

We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.

Sprachbarrieren mit multimodalen Lösungen überwinden

Durch den Einsatz von KI zur Entwicklung multimodaler Videotranslationslösungen wollen wir globale Kommunikation zugänglicher machen. Durch die nahtlose Integration von Text, Stimme und visuellen Inhalten verwandeln wir Videos in universell verständliche Inhalte und stärken so die interkulturelle Vernetzung.

Echtzeit-Interaktion durch multimodale Innovation

Ermöglicht durch Echtzeit-Rendering und fortschrittliche multimodale Lösungen erwecken unsere interaktiven Avatare Gespräche zum Leben. Diese Avatare reagieren nicht nur dynamisch, sondern definieren auch die Nutzerinteraktion neu und machen Technologie ansprechender und menschlicher.

Emotionserkennung mit KI für ausdrucksstarke, realistische digitale Menschen

Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.

Agentische Systeme ermöglichen Video-Agenten in großem Maßstab

We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.

Rong Yan, Chief Technology Officer bei HeyGen

"Wir entwickeln eine KI, die nicht nur leistungsstark, sondern auch vertrauenswürdig und einfach zu bedienen ist. Unser Ziel ist es, das Potenzial der KI-Videoerstellung neu zu definieren, sie für Unternehmen unverzichtbar zu machen und Nutzer zu begeistern."

Rong Yan message

Lassen Sie uns zusammenarbeiten.

Dies könnte der Beginn von etwas Besonderem sein. Erfahre mehr über Karrieremöglichkeiten bei HeyGen.

AI Connects
KI-generierte Videoforschung | KI-Videotechnologie 2025 | HeyGen