Datenwissenschaft und künstliche Intelligenz prägen heute die Zukunft der Automobilindustrie, in welcher der Traum vom selbstfahrenden Auto immer mehr zur Realität wird. Die Umsetzung dieses Traums benötigt gezielt entwickelte Systeme, die es ermöglichen, neuartige Spitzentechnologien zuverlässig und sicher in der Automobilbranche einzusetzen. Elektrobit (EB) konzipierte eine wissenschaftliche Datenplattform, die den Entwurf künstlich intelligenter Regelwerke für die verschiedenen Fahrzeugbereiche, wie beispielsweise das automatisierte Fahren, vereinfacht.

Dieser Artikel soll zur laufenden Debatte über die Rolle der künstlichen Intelligenz in der Automobilindustrie beitragen und die Notwendigkeit eines soliden Rahmens für die Entwicklung solcher Systeme aufzeigen.

Bild 1: Blockdiagramm von EBs wissenschaftlicher Datenplattform für künstlich intelligente Regelwerke.

Bild 1: Blockschaltbild von EBs wissenschaftlicher Datenplattform für künstlich intelligente Regelwerke. Elektrobit

Das digitale KI-Zeitalter

Die künstliche Intelligenz (KI) beschreibt eine Maschine, die menschliche kognitive Funktionen wie Lernen und Problemlösen nachahmt. Sie wurde erstmals definiert, nachdem der Mensch digitale Rechner entwickelt hatte, die diese Intelligenz ermöglichten. Auch sie ist, wie jede andere digitale Technologie, durch Höhen und Tiefen gegangen. Gegenwärtig ist die künstliche Intelligenz im Begriff, die nächste Welle digitaler Umwälzungen auszulösen, da heute bereits reale Vorteile in verschiedenen Bereichen wie maschinelles Sehen, Robotik, Automobilentwicklung und Sprachverarbeitung den Alltag begleiten. Maschinen mit künstlicher Intelligenz können nun viele Aufgaben erfüllen, wie etwa komplexe Muster erkennen, Informationen synthetisieren, Schlussfolgerungen ziehen und Prognosen erstellen.

Eckdaten

Für die Entwickler von künstlicher Intelligenz im Bereich automatisiertes Fahren bietet Elektrobit eine KI-Datenplattform an. Das „Highly Automated Driving Software Framework” namens Robinos nutzt einen Deep-Grid-Net-Algorithmus, um aus der Flut von Umweltdaten eine rasterbasierte Darstellung der Verkehrssituation zu erlernen. Daraus erstellt dieses Deep-Learning-System Prognosen für den Fahrkontext und unterstützt damit verschiedene autonome Fahraufgaben. Dabei machen die Plattform und ein V-Modell den Entwicklungszyklus von Inferenzmaschinen auf Basis des Automotive-Frameworks berechenbar.

Obwohl die Erfolge der KI signifikant sind, sollte man nicht vergessen, dass es auch hier Grenzen gibt. Ein Hauptkritikpunkt vieler KI-Systeme ist beispielsweise, dass sie oft als Black Boxes erscheinen, die nur eine Beziehung zwischen Ein- und Ausgangsvariablen auf der Grundlage eines Trainingsdatensatzes abbilden. Dies wirft einige Bedenken auf, speziell hinsichtlich der Fähigkeit des Systems zur Verallgemeinerung von Situationen, die nicht im Trainingsdatensatz vorhanden waren. Hinsichtlich des Umstandes, dass es oft schwierig ist, einen wirklichen Einblick in das Problem und die Art der Lösung zu gewinnen.

Das Interesse an KI stieg im 21. Jahrhundert wieder an, was auf Fortschritte in Bereichen wie maschinelles Lernen (Deep Learning) zurückzuführen ist. Unterstützung sind dabei schnellere Computer und die Verfügbarkeit von Big Data. Die ständig steigende Rechenleistung der klassischen Prozessoreinheiten, aber noch mehr die leistungsstarken Grafikprozessoren (Graphics Processing Unit, GPU), die Bilder 40 bis 80 Mal schneller verarbeiten können als ein normaler Prozessor, ermöglichten all diese Fortschritte. Dadurch konnte sich die Trainingsgeschwindigkeit von künstlichen Intelligenz-Systemen in den letzten zwei Jahren jeweils fünf bis sechs Mal verbessern.

Architektur einer wissenschaftlichen KI-Datenplattform

Die in Bild 1 dargestellte Architektur folgt den beiden wichtigsten Arbeitsschritten aus einer Designlösung für maschinelles Lernen: Training und Inferenz, zusammen mit den zusätzlichen Schichten zur Hardware-Integration und Leistungssteigerung. Die Workbench ist für das Training, das Prototyping und die Entwicklung des Systems verantwortlich, indem sie bestehende Methoden und Tools wirksam einsetzt und KI-Algorithmen als Toolbox innerhalb der Plattform betrachtet. Das Training selbst speist die zuvor definierten Daten in das Netzwerk ein und ermöglicht es ihm, eine neue Fähigkeit zu erlernen, indem es korrekte Vorhersagen verstärkt und die falschen korrigiert. Hier einige Beispiele für auf der Plattform verfügbare Toolboxen:

  • Synthetischer Datengenerator: Künstliche Generierung synthetischer Daten mit dem Generativen One-Shot-Learning-Algorithmus
  • Fahrkontextverständnis: Klassifizierung des Fahrkontextes aus Grid-Fusion-Informationen
  • Verhaltensarbitration: Fahrkontextverständnis und Strategieoptimierung aus realen Grid-Darstellungen
  • Fahrsimulationsumgebung: Training, Bewertung und Test von KI-Algorithmen in einem virtuellen Simulator wie Air-Sim von Microsoft
  • ADTF-/ROS-/Cloud-Schnittstellen: Anbindung an Automobil- und Robotik-Frameworks (EB Assist ADTF oder das Robotics Operating System (ROS)) sowie die Möglichkeit, Trainings- und Auswertungsaufgaben in Cloud-Umgebungen einzusetzen

Die Inferenzmaschinen stellen Wrapper für die Anwendungsbereitstellung von trainierten Modellen dar. Ein solcher Wrapper ist beispielsweise die EB Assist ADTF-Komponente (Automotive Data and Time-triggered Framework) zum Fahrkontextverständnis.

Die von EB als Basis verwendeten KI-Open-Source-Softwarebibliotheken sind Caffe2, Tensorflow und das Cognitive Neural Toolkit (CNTK). Diese haben sich bei einem Leistungsvergleich als die drei besten Performer gestellt.

Kreation von künstlichen intelligenten Regelwerken

Bild 2: Entwicklungsablauf innerhalb der KI-Datenplattform.

Bild 2: Entwicklungsablauf innerhalb der KI-Datenplattform. Elektrobit

Eine der wichtigsten Aspekte beim Aufbau von Softwaremodulen in der Automobilindustrie ist die Möglichkeit der Code-Industrialisierung und deren Integration in Embedded-Plattformen von Fahrzeugen.

Die Entwicklung von KI-Algorithmen in EBs Plattform folgt dem in Bild 2 dargestellten Ablauf. Die ersten Schritte bestehen darin, den Problemraum zu definieren und die notwendigen Daten für den Trainingsprozess zu sammeln. Die Daten wurden vorher vorverarbeitet, kommentiert, normiert und gefiltert.

Die Datenvorverarbeitung ist ein wichtiger Schritt, der ein korrektes Prototyping der KI-Algorithmen ermöglicht. Eine Entwurfsphase für das komplexe neuronale Netzwerk (Deep Neural Network, DNN) ist ebenfalls notwendig, gefolgt von einem Trainings- und Evaluierungsprozess. Sobald der KI-Algorithmus getestet und für gültig erklärt ist, kann er auf dem Edge-Gerät als KI-Inferenzmaschine zum Einsatz kommen.

Als Anwendungsbeispiel dient solch ein Regelwerk zur Entwicklung von Inferenzmaschinen auf Basis von ADTF, wie sie Robinos als Plattform für hochautomatisiertes Fahren integriert. Jeder Filter enthält einen KI-Algorithmus, wie beispielsweise Fahrkontextverständnis, synthetische Datengenerierung, Objekterfassung und -erkennung oder semantische Segmentierung der Verkehrssituation. Exportiert als dynamisch verknüpfte Bibliotheken stehen die Wrapper innerhalb der implementierten Filter zur Verfügung. Eine Kernidee hinter EBs Plattform ist die Modularisierung, bei der jede KI-Komponente als separater Baustein vorhanden ist. Dieser Ansatz beinhaltet Deep-Learning-Funktionen innerhalb des Automotive-Frameworks und unterstützt Entwickler auch dabei, auf bereits bestehende Methoden zuzugreifen, diese zu testen oder eigene Lösungen für ihre spezifischen Probleme zu implementieren.

Das Konzept der Inferenzmaschinen für künstliche Intelligenz berücksichtigte bereits in der Entwicklung eine Optimierung der Algorithmen. Um die Leistung in Bezug auf die Rechengeschwindigkeit zu verbessern, stellt die Parallelisierung der Arbeitslast mit KI-eigenen grafischen Recheneinheiten mit untergeordneten Beschleunigungsbibliotheken den besten Ansatz dar. So hat beispielsweise Nvidia mit cuDNNN eine Bibliothek für komplexe neuronale Netze eingeführt.

Den Entwicklungszyklus berechenbar machen

Bild 3: Das Paradigma der Softwareentwicklung für das V-Modell für Prototyping und Entwicklung innerhalb von EBs KI-Datenplattform.

Bild 3: Das Paradigma der Softwareentwicklung für das V-Modell für Prototyping und Entwicklung innerhalb von EBs KI-Datenplattform. Elektrobit

Die Automobil-Softwareentwicklung erfordert nach wie vor einen robusten und berechenbaren Entwicklungszyklus. Der Softwareentwicklungsprozess für den Automobilsektor unterliegt mehreren internationalen Normen, namentlich Automotive SPICE und ISO 26262. Akzeptierte Standards setzen bei der Software konzeptionell auf den traditionellen Lebenszyklus der V-Modell-Entwicklung.

Es ist wichtig, Deep Learning aus einer stärker kontrollierten V-Modell-Perspektive anzugehen, um eine lange Liste von Herausforderungen zu bewältigen, wie zum Beispiel die Anforderungen an die Trainings-, Validierungs- und Testdatensätze, die Kriterien für die Datendefinition und Vorverarbeitung sowie die Auswirkungen auf die Parametereinstellung.

Bild 3 ist ein Vorschlag, das V-Modell für Prototyping und Entwicklung innerhalb der Plattform anzuwenden. Die Datendefinition – Normalisierung und Bereinigung – sowie deren Nutzung durch die KI-Inferenzmaschinenarchitektur sind entscheidende Entwicklungsphasen, da das Funktionsverhalten des DNN das kombinierte Ergebnis seiner Architekturstruktur und seiner automatischen Anpassung durch das Training ist. Die Integration der erhaltenen Inferenzmaschinen, die mit dem Einsatz der Testszenarien und der statistischen Auswertung verbunden sind, liefert die erforderlichen Bewertungswerkzeuge für ein solches Architekturmodell.

Die Verkehrssituation als Rasterdarstellung erlernen

Bild 4: Schema der Deep-Grid-Net-Architektur (DGN). Das Deep-Learning-System versteht den Kontext, in dem sich ein autonomes Fahrzeug bewegt.

Bild 4: Schema der Deep-Grid-Net-Architektur (DGN). Das Deep-Learning-System versteht den Kontext, in dem sich ein autonomes Fahrzeug bewegt. Elektrobit

Eine mit der Plattform und dem entsprechenden V-Modell entwickelte Inferenzmaschine auf Basis des Automotive-Frameworks (ADTF) ist das Deep Grid Net (DGN). Bild 4 veranschaulicht das Konzept DGN, welches als Deep-Learning-System den Kontext versteht, in dem sich ein autonomes Fahrzeug bewegt.

Der Deep-Grid-Net-Algorithmus prognostiziert diesen Kontext, indem er lokale Occupancy Grids (OG) analysiert, die aus fusionierten sensorischen Rohdaten aufgebaut sind. Der in diesem Beitrag vorgeschlagene DGN-Ansatz nutzt die Stärken komplexer neuronaler Architekturen, um eine rasterbasierte Darstellung der Verkehrssituation zu erlernen. Durch die Verwendung von Occupancy Grids anstelle von Rohbilddaten lassen sich häufige Unsicherheiten in autonomen Fahrsituationen bewältigen, wie zum Beispiel Änderungen in der Sensorkalibrierung, Pose, Zeit und Latenz. Diese erlernte Darstellung kann verschiedene autonome Fahraufgaben unterstützen, wie etwa das Verständnis des Fahrkontextes. Der DGN-Algorithmus kommt innerhalb von Elektrobits HAD-Software-Framework (Highly Automated Driving) namens Robinos zum Einsatz.