NVIDIA heeft een nieuw onderzoeksmodel voor robotica gepresenteerd: SONIC. Die naam staat voor Supersizing Motion Tracking for Natural Humanoid Whole-Body Control. Het systeem moet humanoïde robots helpen om complexe fysieke bewegingen beter te leren en uit te voeren. Grootschalige motion capture vormt daarbij de basis.
SONIC is opgezet als een generieke controller. Eén model stuurt uiteenlopende volledige lichaamsbewegingen aan. In plaats van aparte regelsystemen te ontwikkelen voor lopen, balanceren of hurken, leert het model natuurlijke menselijke bewegingspatronen na te bootsen. Die patronen zijn vastgelegd via motion capture. Volgens NVIDIA bevat de trainingsdataset meer dan 100 miljoen frames aan menselijke bewegingen, goed voor honderden uren aan opnames.
Van taakspecifieke aansturing naar een generalistisch bewegingsmodel
Traditionele regelsystemen voor humanoïde robots zijn meestal ontworpen voor één duidelijk afgebakende taak. Ze steunen vaak op handmatig ingestelde beloningsfuncties. Zodra er nieuw gedrag nodig is, vraagt dat om extra afstemming en hertraining.
SONIC pakt dit anders aan. Het model benadert aansturing als een motion-trackingprobleem. De robot leert continu om volledige referentiebewegingen te volgen. Dankzij intensieve begeleiding met motion-capturedata leert het systeem gecoördineerde bewegingen van benen, romp, armen en hoofd.
Daardoor kan één enkele SONIC-policy lopen, rennen, hurken, kruipen en balanceren genereren. Ook soepele overgangen tussen deze bewegingen zijn mogelijk, zonder dat voor elke actie een apart trainingsproces nodig is.
Invoer op hoog niveau en interactie
SONIC kan verschillende vormen van hoog-niveau-invoer verwerken. Denk aan VR-teleoperatie met hoofd- en handtracking, bewegingen die uit monoculaire video worden gehaald, of commando’s van taalgebaseerde en multimodale AI-systemen.
Alle invoer wordt omgezet in een gedeelde interne representatie die de humanoïde robot direct kan uitvoeren. Operators of hogere AI-modellen hoeven daardoor geen specifieke gewrichtsbewegingen te programmeren. In demonstraties vertaalde het systeem abstracte bewegingsinstructies naar gecoördineerde volledige lichaamsbewegingen.
Realtime aansturing in simulatie
Het systeem bevat een kinematische planningslaag voor realtime generatie en bijsturing van bewegingen. In simulatieomgevingen reageren humanoïde robots die met SONIC worden aangestuurd direct op gebruikersinvoer en veranderingen in hun omgeving. Daarbij behouden ze hun balans en stabiliteit.
NVIDIA toont het systeem vooral binnen zijn eigen simulatie- en ontwikkelplatforms voor robotica. Die omgevingen worden gebruikt om gedrag te trainen, testen en valideren voordat het eventueel op fysieke hardware wordt toegepast. Dat beperkt de risico’s en kosten in een vroege ontwikkelfase.
Onderdeel van bredere roboticastrategie
SONIC past binnen NVIDIA’s bredere strategie rond zogeheten foundation models voor robotica en ‘physical AI’. Het bedrijf positioneert het model als een reactieve, laag-niveau-besturingslaag die samenwerkt met hogere systemen voor waarneming, redeneren en taakplanning.
In deze architectuur voert SONIC de bewegingen uit, terwijl andere AI-modellen doelen bepalen en sensorinformatie interpreteren. In demonstraties werkte het systeem samen met vision-language-action-modellen die op basis van beeld of natuurlijke taal bewegingscommando’s genereren.
Het SONIC-project is vrijgegeven als onderzoeksinitiatief. Technische documentatie, getrainde modellen en evaluatieresultaten zijn beschikbaar voor de roboticagemeenschap. De huidige prestaties zijn vooral gebaseerd op simulatie-experimenten. NVIDIA heeft nog geen grootschalige commerciële toepassing op fysieke humanoïde robots aangekondigd.
SONIC is now open-source!
Generalist whole-body teleoperation for EVERYONE!
Our team has long been building comprehensive pipelines for whole-body control, kinematic planner, and teleoperation, and they will all be shared.
This will be a continuous update; inference code +… pic.twitter.com/wn1PYxIIpO
— Zhengyi “Zen” Luo (@zhengyiluo) February 20, 2026
