Künstliche Intelligenz

Für viele Besucher sind gerade die besondere Atmosphäre und der familiäre Charakter dieses Branchentreffs in Ludwigsburg ein wichtiger Grund für ihre Teilnahme. Ein Gast zeigte sich allerdings etwas irritiert angesichts des freien Gedankenaustauschs: „Bei uns wäre eine Konferenz wie diese nicht möglich, wo Wettbewerber zusammensitzen und über neue Trends reden“, betonte Nvidias CEO Jensen Huang gleich zu Anfang seiner Keynote. „Wir behalten die guten Ideen lieber für uns.“ Über die aktuellen Projekte bei Nvidia hat Huang dann aber doch gerne gesprochen. Ausgangspunkt seiner Ausführungen war die Leistungsentwicklung bei unterschiedlichen Rechenarchitekturen. Während sich beim Mikroprozessor mit seiner sequenziellen Datenverarbeitung eine Sättigung im Leistungszuwachs abzeichne, gelte dies nicht für die parallele Datenverarbeitung mit Grafikprozessoren (GPUs). Hier bedeuteten mehr Transistoren auch weiterhin mehr Leistung.

„Die parallele Datenverarbeitung mit Grafikprozessoren sorgt für weiter steigende Rechenleistungen.“

Jensen Huang, Nvidia: „Die parallele Datenverarbeitung mit Grafikprozessoren sorgt für weiter steigende Rechenleistungen.“ Matthias Baumgartner

Bezogen auf konkrete Anwendungen im Automotive-Bereich stellte Huang eine angesichts der geballten Fachkompetenz im Publikum etwas überraschende These auf: „Momentan gibt es auf der Welt nur sehr wenige Menschen, die wirklich verstehen, welche enorme Rechenpower für das autonome Fahren erforderlich ist.“ Und fügte hinzu, dass es neben der Performance aber genauso auch auf eine besonders hohe Energieeffizienz ankäme. Während herkömmliche Hochleistungsrechner die Batterie mit einigen tausend Watt belasten, begnügten sich GPU-basierte Systeme wie Nvidias Drive-PX-Lösung mit erheblich weniger.

Nvidia setzt primär auf die Deep-Learning-Technik, bei der künstliche neuronale Netze mit entsprechenden Datensätzen trainiert werden, um beispielsweise Verkehrszeichen zu erkennen. Eine solche Vorgehensweise erfordert eine massive parallele Datenverarbeitung, für die eine GPU-basierte Hardware besonders geeignet ist. Der große Unterschied von Deep-Learning zu herkömmlichen Programmiermethoden sei, dass der Source-Code nicht manuell erzeugt werde, sondern sich quasi in den Daten befinde, mit denen ein Deep-Learning-System trainiert werde, so Huang: „Die Daten sind der Source Code.“ Beim Deep-Learning schreibe der Computer die Software gewissermaßen selbst, in dem die gelernten Erfahrungen im neuronalen Netzwerk abgespeichert würden.

Jensen Huang, Nvidia: „So eine Konferenz wäre bei uns nicht möglich.“

Jensen Huang, Nvidia: „So eine Konferenz wäre bei uns nicht möglich.“ Matthias Baumgartner

Sowohl die Methoden des Deep Learnings als auch die von Nvidia entwickelte Hardware-Plattform lassen sich neben der Entwicklung hochautomatisierter Fahrfunktionen bis zum autonomen Fahren auch für ganz andere Anwendungen einsetzen. Als Beispiel nannte Huang die kooperative Fertigung, bei der Industrieroboter darauf trainiert werden, beim Produktionsprozess mit Arbeitern zu interagieren ohne diese zu gefährden. Zum Training von Robotern hat Nvidia eine virtuelle Parallelwelt entwickelt, in der virtuelle Roboter trainiert werden. Analog zu diesem „Holodeck“ soll es auch in der Automobilwelt ablaufen.

Seite 5 von 512345