Vooroplopen in de toekomst van AI-videogeneratie

We ontwikkelen technologie die menselijk aanvoelt, diep verbindt en verhalen naar een hoger niveau tilt—en zo levensechte intelligentie brengt in een snel veranderende digitale wereld.

AI die verbindt, zich aanpast en inspireert

Bij HeyGen wordt ons AI-onderzoek gedreven door de missie om visuele storytelling voor iedereen toegankelijk te maken.

AI Connects

Maak kennis met onze AI-leiders

Innoveren op het snijvlak van creativiteit, communicatie en technologie.

Charly Hong, Hoofd AI-onderzoek

Charly Hong, Hoofd AI-onderzoek

Charly Hong brengt meer dan tien jaar ervaring in computer vision en AI mee, met een focus op menselijke modellering, -begrip en videogeneratie. Hij heeft meer dan 60 publicaties en patenten op zijn naam staan, wat zijn toewijding aan innovatie en impactvolle oplossingen onderstreept. Bij HeyGen stuurt Charly de ontwikkeling van AI-technologie aan die onderzoek en product naadloos met elkaar verbindt.

Rong Yan, CTO

Rong Yan, CTO

Rong Yan is de CTO van HeyGen en zet zich in om visuele storytelling voor iedereen toegankelijk te maken. Eerder was hij VP of Engineering bij HubSpot, waar hij leiding gaf aan Data- en Intelligence-producten, en bekleedde hij leidinggevende functies bij Snapchat, Square en Facebook. Rong behaalde zijn M.Sc. (2004) en Ph.D. (2006) aan Carnegie Mellon. Als productief onderzoeker heeft hij meer dan 60 publicaties, 35 patenten en expertise in AI, data mining en computer vision.


Joshua Xu, CEO

Joshua Xu, CEO

Joshua Xu is de medeoprichter en CEO van HeyGen en drijvende kracht achter de missie om visuele storytelling te transformeren met AI-gestuurde contentcreatie. Eerder was hij lead engineer bij Snapchat (2014–2020), waar hij innovaties leidde op het gebied van advertentieranking, machine learning en computationele fotografie. Met een master in Computer Science van Carnegie Mellon brengt Joshua diepgaande expertise in machine learning, computer vision en generatieve AI.

Jun-Yan Zhu, adviseur

Jun-Yan Zhu, adviseur

Jun-Yan Zhu is de Michael B. Donohue Assistant Professor of Computer Science and Robotics aan Carnegie Mellon University, waar hij leiding geeft aan het Generative Intelligence Lab. Zijn onderzoek richt zich op generatieve modellen, computervisie en graphics, met als missie makers te versterken met generatieve modellen. Hij heeft onder andere de Samsung AI Researcher of the Year, de Packard Fellowship en de NSF CAREER Award ontvangen.

Onze onderzoekspijlers: de AI van morgen vormgeven

Digitale identiteit opnieuw definiëren met precisie en kwaliteit

Onze focus op avatargeneratie ligt op bestuurbaarheid, consistentie en ongeëvenaarde kwaliteit. Door AI-gestuurde creatie verder te ontwikkelen, maken we het mogelijk dat avatars menselijke gezichtsuitdrukkingen en gedragingen naadloos weerspiegelen, waardoor de kloof tussen de werkelijkheid en de digitale wereld wordt overbrugd.

Multimodale taalmodellen die videointelligentie aandrijven

We build multimodal language models that jointly reason over text, audio, and visual signals to better understand intent and context. This foundation powers video translation with improved semantic fidelity, enables avatar modeling that stays consistent across scenes, and unlocks video agents that can interpret goals and generate end-to-end content with higher reliability.

Taalbarrières doorbreken met multimodale oplossingen

Door AI in te zetten voor het creëren van multimodale videovertalingsoplossingen, willen we wereldwijde communicatie toegankelijker maken. Door tekst, stem en beeld naadloos te integreren, zetten we video’s om in universeel begrijpelijke content en versterken we verbindingen tussen verschillende culturen.

Realtime betrokkenheid dankzij multimodale innovatie

Dankzij realtime rendering en geavanceerde multimodale oplossingen brengen onze interactieve avatars gesprekken tot leven. Deze avatars reageren niet alleen dynamisch, maar herdefiniëren ook de gebruikersinteractie, waardoor technologie boeiender en menselijker wordt.

Emotion AI voor expressieve, levensechte digitale mensen

Emotion AI helps our systems go beyond “talking” to truly communicating — by aligning what the script means with how it should feel. By coordinating tone and prosody in voice with on-point gestures and facial expressions, we generate avatars that maintain emotional coherence over time, closing the realism gap and pushing the frontier of human-like presence.

Agentische systemen die videoagents op schaal mogelijk maken

We develop agentic systems that turn video creation into a goal-driven workflow: planning, tool use, iteration, and verification. These capabilities power our video agent, allowing it to break down user intent into steps, make informed decisions along the way, and produce more controllable, consistent outcomes—while supporting safety and quality constraints in real production settings.

Rong Yan, Chief Technology Officer bij HeyGen

"We ontwikkelen AI die niet alleen krachtig is, maar ook betrouwbaar en eenvoudig te gebruiken. Ons doel is om opnieuw te definiëren wat mogelijk is met AI-videogeneratie, zodat het onmisbaar wordt voor bedrijven en een plezier om te gebruiken voor iedereen."

Rong Yan message

Laten we samenwerken.

Dit zou het begin kunnen zijn van iets bijzonders. Lees meer over carrièremogelijkheden bij HeyGen.

AI Connects