Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
0 9 -2 5 · w w w c o m p u t e r - a u t o m a t i o n d e | 19 Kü n s t l i c h e In t e l l i g e n z Dabei wird die trainierte Intelligenz auf das physische System übertragen das dann seine Aufgabe in der realen Welt ausführt Zusammen bilden Training Simulation und Betrieb die Grundlage moderner Robotik Nvidia baut keine Roboter sondern stellt die Plattform bereit Unternehmen wie Wandelbots oder Intrinsic nutzen unsere GPUs Simulationsumgebungen oder Foundation-Modelle um ihre eigenen Lösungen schneller zu entwickeln und mehr Produktivität zu schaffen Unser Ziel ist es den gesamten Stack bereitzustellen vom Robotergehirn bis hin zur Laufzeit-Infrastruktur – alles was man für Physical AI braucht Also eine durchgängige Plattform für Programmierung und Steuerung? Ganz genau Auf der GTC in San Jose haben wir zum Beispiel ‚GR00T N1‘ vorgestellt unser Foundation-Modell für Roboter Die Idee Ein Modell das eine Vielzahl an Aufgaben bewältigen kann Früher brauchte man mehrere spezialisierte Modelle für Wahrnehmung Segmentierung oder Steuerung Jetzt kann ein großes Modell all diese Funktionen abdecken ein echtes Robotergehirn GR00T N1 ist frei verfügbar jeder Entwickler kann es herunterladen und für seine Anwendung nutzen Das ist der erste Teil Der zweite Teil ist ‚Nvidia Omniverse‘ unsere Simulationsplattform Simulation ist entscheidend Will man einem Roboter beibringen eine Flasche aufzuheben und woanders abzulegen muss man testen können ob er das optimal macht Omniverse bietet eine physikalisch genaue fotorealistische Umgebung um Szenarien sicher zu erproben Steuerungen zu optimieren und reale Bedingungen zu simulieren Wenn das funktioniert kommt der dritte Schritt Das Modell läuft dann auf der realen Hardware in der Regel auf unserer Jetson-Plattform am Edge Der Workflow lautet also Trainieren simulieren ausrollen Manche Entwickler brauchen nur einen Teil davon zum Beispiel nur Omniverse aber für Robotik braucht man oft alle drei Komponenten Humanoide sind mobil sprich nicht an die Energieversorgung angeschlossen Bei hoher Rechenleistung benötigen sie entsprechend viel Energie Wie kann man das bewältigen? Energieeffizienz ist ein zentrales Thema besonders bei humanoiden Robotern Bewegung Antrieb Motoren das alles braucht viel Energie Gleichzeitig müssen die Modelle möglichst effizient laufen Unsere Jetson-Plattform ist dafür gemacht leistungsstarke Edge-KI bei niedrigem Energiebedarf Sie ist skalierbar man kann je nach Bedarf ein Jetson-Modul oder mehrere kombinieren Dazu kommen Software-Werkzeuge um Modelle zu optimieren ‚TensorRT‘ ist eine Bibliothek um KI-Modelle zu komprimieren Ein trainiertes Modell ist oft sehr groß und rechenintensiv TensorRT vereinfacht es so dass es effizienter läuft ohne an Präzision zu verlieren Ursprünglich war das für Computer Vision gedacht mittlerweile setzen wir es auch für große Robotik-Modelle ein damit sie in Echtzeit auf Edge-Geräten laufen Welche Trends werden KI und Robotik in den nächsten fünf Jahren prägen? Ein klarer Trend sind Foundation-Modelle für Robotik Der Flaschenhals dabei die Daten Anders als bei Sprachmodellen gibt es keine riesigen frei verfügbaren Datenmengen für Roboterbewegungen Roboter benötigen qualitativ hochwertige Trajektorien für spezifische Aufgaben – deren Erfassung ist teuer Deshalb entwickeln wir Tools wie den ‚GR00T-Mimic-Blueprint‘ Damit können Experten mit XR-Headsets Extended Reality Bewegungen aufnehmen Diese realen Daten werden dann in der Simulation erweitert und mit Omniverse verfeinert Außerdem nutzen wir ‚Cosmos World Foundation Models‘ die fotorealistische synthetische Daten als Ergänzung zu realen Daten erzeugen Synthetische Daten sind entscheidend um neue Anwendungsfälle zu trainieren Drei Trends sehe ich also klar Erstens Foundation-Modelle für universelle Roboter Zweitens die Kombination aus synthetischen und realen Daten Drittens physikalisch exakte Simulationen mit Reinforcement Learning damit Roboter virtuell scheitern und lernen bevor sie in der realen Welt eingesetzt werden Wie realistisch ist die Simulation im Vergleich zur echten Welt? Mit Omniverse wollen wir eine physikalisch exakte Simulation schaffen Es ist keine Game Engine sondern wurde speziell entwickelt um reale Physik abzubilden Kräfte Materialeigenschaften Verformungen Wenn ein Greifer zu stark zugreift darf der Gegenstand nicht einfach durch die Finger rutschen er muss zerbrechen wenn er zerbrechlich ist So entsteht ein digitaler Zwilling Ein guter digitaler Zwilling ist unverzichtbar um verlässliche Simulationsergebnisse zu erhalten Mit einem digitalen Zwilling kann man Produktionslinien optimieren und Roboter virtuell testen Reinforcement Learning ermöglicht es dass Roboter ausprobieren scheitern und besser werden bevor sie reale Aufgaben übernehmen Wie lässt sich das am besten auf ganze Roboterflotten skalieren? Wir bewegen uns von einzelnen Robotern hin zu koordinierten Flotten das nennen wir ‚Mega Blueprint‘ Man kann sich das vorstellen wie eine Fabrik ein mobiler Roboter für den Transport ein kollaborativer Arm für die Linie ein humanoider Roboter für allgemeine Aufgaben Jeder hat sein eigenes ‚Gehirn‘ aber sie müssen zusammenarbeiten Mit Simulation kann man diese Zusammenarbeit im großen Maßstab testen physikalisch korrekt mit realistischen Einschränkungen Unternehmen wie Schaeffler oder Idealworks nutzen Mega Blueprint um komplette Flotten zu simulieren und zu optimieren bevor sie in den praktischen Einsatz gehen Unsere Vision ist es die nahtlose Orchestrierung verschiedenster Roboter zu ermöglichen – sicher effizient und intelligent Akhil Docca Senior Product Marketing Manager Nvidia Omniverse Bil d Nvi dia Die zentrale Herausforderung ist KI in reale Systeme zu bringen