Von Unterhaltungsangeboten und Navigation über Fahrerassistenz bis hin zur Unfallvermeidung unterscheiden sich die heutigen Autos erheblich von denen von vor einigen Jahren. Die große Chance, die Zukunft von vernetzten Autos mitzugestalten, insbesondere das autonome Fahren, zieht das Interesse von Technologie- und Automobilherstellern gleichermaßen an.

Die Entwicklung von intelligenten Fahrerassistenzsystemen (Advanced Driver Assistance Systems, ADAS) ebnet dabei zunehmend den Weg zum autonomen Fahren. Diese unterstützen den Fahrer dabei, die Spur zu halten, rückwärts einzuparken oder im Falle einer plötzlichen Notsituation automatisch zu bremsen. Möglich machen dies Sensoren, 360-Grad-Kameras und Lasersysteme, die enorme Datenmengen produzieren – und das Fahrzeug damit vom reinen Transportmittel zum Datenlieferanten verwandeln. Zu den Datenquellen gehören unter anderem Sensordaten über den Zustand des Wagens, des näheren Umfelds, Wetterdaten, Satellitendaten, Verhaltens- und andere persönliche Daten über den Fahrer sowie Diagnosedaten.

Die Zunahme der zu verarbeitenden Sensordaten sowie die Komplexität der Verarbeitungsalgorithmen erfordern leistungsfähigere Verarbeitungsplattformen, auf denen sich die Datenmengen zusammentragen und auswerten lassen. Darüber hinaus gilt es, Aspekte wie funktionale Sicherheit und Plattformsicherheit zu berücksichtigen.

Nur ausgewählte Daten transportieren und speichern

Aus Testfahrten sollen nur für die Entwicklung relevante Daten in die Cloud gelangen

Aus Testfahrten sollen nur die Daten in die Cloud oder ins Rechenzentrum gelangen, die für den Entwicklungsprozess relevant sind. Getty Images: 692819426

Neben den Vorteilen eines vernetzten Autos stellt die steigende Masse an erhobenen Daten OEMs und Tier-One-Zulieferer vor große Herausforderungen. Das Volumen ist schwindelerregend: Aktuelle Test- und Entwicklungsfahrzeuge produzieren rund 80 TByte an Daten pro Tag und Fahrzeug. Da die Hersteller Flotten von Testfahrzeugen mit weltweit bis zu 100 Fahrzeugen auf die Straße schicken, ist die Menge der anfallenden Testdaten schon heute enorm – Tendenz steigend! Aus diesen Daten leiten sich deshalb neue Anforderungen für das Datenmanagement ab, die insbesondere für autonome Fahrzeuge hoch sind. Im Zentrum stehen Deep-Learning-Algorithmen, die neuronale Netze nutzen, um Muster in Daten zu erkennen und aus ihnen zu lernen. Neuronale Netze erfordern dabei große Data Lakes, in denen OEMs und Tier-One-Zulieferer die Daten abspeichern, um damit ihre Systeme zu trainieren.

Angesichts der riesigen Datenflut ist es daher entscheidend, dass aus Testfahrten nur die Daten in die Cloud oder ins Rechenzentrum gelangen, die für den Entwicklungsprozess relevant sind. Besonders wichtig ist hierbei die Auswahl der richtigen Fahrszenen und den korrelierenden Sensordaten. Für die Validierung eines Notbrems-Assistenten sind zum Beispiel nur die 15 Sekunden vor und nach einem Bremseingriff von Bedeutung. Da in Fahrzeugen die Energieversorgung der limitierende Faktor ist, kommt es heute primär zu einer Speicherung der gigantischen Sensor-Datenströme. Im Fahrzeug selbst findet zurzeit wenig Vorverarbeitung statt, denn Rechenleistung benötigt Energie und Kühlung. Stattdessen erfolgt die Sichtung und Vorauswahl der Daten bei der Datenübergabe in die Werkstatt automatisch, um dann eine zielgerichtete Reduktion durchzuführen. In naher Zukunft sollte die Leistungsfähigkeit und Energieanforderung von Spezial-Prozessoren aber so weit fortgeschritten sein, dass die Datenverarbeitung und -analyse direkt im Fahrzeug stattfinden kann (Edge Computing). Diese Verlagerung an den Rand des Netzwerks reduziert die Kosten für den Transport und die Speicherung der Daten im Rechenzentrum oder in der Cloud.

Hohe Parallelität und großer Datendurchsatz

Die Auswertung dieser riesigen Mengen an Sensor- und Videodaten stellt eine weitere Herausforderung für OEMs und Zulieferern dar. Solche Big-Data-Analysen unterstützen aktuelle Verarbeitungs-Tools wie IBM Data Science Experience, Hadoop oder auch Apache Spark. Sie sind dank Parallelisierung leistungsstark und verfügen über umfangreiche Bibliotheken und Schnittstellen. Ihre Spezialität: das gleichzeitige Ausführen von schnellen Datenabfragen (Queries) auf große Datenmengen im TByte-Bereich. Die Basis hierfür ist das aus dem Supercomputing-Umfeld kommende, parallele Filesystem IBM Spectrum Scale, das linear skaliert und somit hohe Datenzugriffsraten erzielt. Zum Trainieren von selbstlernenden KI-Algorithmen haben sich mittlerweile Graphics Processing Units (GPU) durchgesetzt. Ursprünglich für 3D-Berechnungen von geometrischen Berechnungen, Texture Mapping oder Shading konzipiert, macht die Kombination aus Parallelisierung und Matrix-Rechnung GPUs so effektiv für heutige KI-Methoden wie neuronale Netze. Aktuell werden diese zunehmend zu Spezialprozessoren (Application-Specific Integrated Circuit, ASIC) für KI-Anwendungen weiterentwickelt.

Interdisziplinäre Zusammenarbeit

Getty Images: 1023344400

Je höher der Automatisierungsgrad der Fahrerassistenz-Systeme ist, desto mehr Daten müssen die Testfahrzeuge erfassen. Getty Images: 1023344400

Der steigende Bedarf an leistungsfähiger und effizienter Hard- und Software für KI-Anwendungen ist auch der Grund, warum Autohersteller, Zulieferer und IT-Unternehmen zunehmend miteinander kooperieren. Die Autohersteller haben erkannt, dass sie mit dem eigenen Know-how die Herausforderungen einer KI-Entwicklung für das automatisierte Fahren nicht erfolgreich bewältigen können. Insbesondere beim Datenmanagement können Ansätze aus den Bereichen des Supercomputings und der Medienbranche zu deutlichen Verbesserungen führen.

Zur Beschleunigung ihrer Entwicklungsprozesse brauchen Unternehmen Lösungen mit einem bereichsübergreifenden Ansatz für das intelligente Datenmanagement. Ein Beispiel dafür ist die IBM-ADAS/AD-Lösung. Sie steuert die Verarbeitung der Daten entlang der Prozesskette vom Anlanden der Daten, über die Formatkonvertierung, das Video-Tagging, der Datensuche und automatisiert vormals manuelle Datenkopier- und -verschiebeprozesse. Dadurch lässt sich der gesamte Testdurchsatz erhöhen, was eine schnellere Markteinführung ermöglicht. Je nachdem, wie schnell und zu welchen Kosten der Datenzugriff erfolgen muss, kann der Nutzer bei der Speicherung der riesigen Datenmengen zwischen Flash-, Disk-, Tape- oder Cloud-Object-Speicher wählen. Automobilhersteller müssen die Daten mindestens 20 Jahre aufbewahren, oftmals über die Lebensdauer des Autos hinaus. Die Automobilhersteller speichern alle Daten der Testfahrten und der Simulationsumgebungen, die sich jederzeit wiederherstellen lassen müssen– etwa bei einem Update, einem Hardware-Fehler oder bei einem Sicherheitsrückruf. Wegen des langen Archivierungszeitraums ist die Auswahl der richtigen Speichertechnologie daher von großer wirtschaftlicher Bedeutung. Hier bietet die Tape-Technologie gegenüber Cloud-Archivierung neben Sicherheitsvorteilen einen Kostenvorteil von Faktor fünf bis zehn.

Ein effizientes Datenmanagement ist die Basis für die Entwicklung, Simulation und den Test von Fahrassistenzsystemen für das autonome Fahren. Je höher der Automatisierungsgrad der Systeme ist, desto mehr Daten müssen die Testfahrzeuge erfassen. Die anfallenden Datenmengen erfordern eine effiziente Lösung, die einfach skalierbar und hochverfügbar ist sowie mehrere Workloads gleichzeitig unterstützt. Ein wichtiger Faktor im Rennen um die Weiterentwicklung des autonomen Fahrens für Automobilhersteller ist daher, sein Datenmanagement und seine IT-Infrastruktur perfekt aufeinander abzustimmen.