Autonome und E-Fahrzeuge sind in der Praxis mit großen Datenmengen verbunden, auch schon in der Entwicklungsphase. Hierfür ist eine flexible Speicherarchitektur notwendig.

Autonome und E-Fahrzeuge sind in der Praxis mit großen Datenmengen verbunden, auch schon in der Entwicklungsphase. Hierfür ist eine flexible Speicherarchitektur notwendig. (Bild: AdobeStock_276394533)

Der Weg zum selbstfahrenden Auto geht über fünf Entwicklungsstufen, die sich in ihrer Fortschrittlichkeit erheblich unterscheiden. Das Stufenmodell wurde ursprünglich vom Autoingenieurs-Verband SAE (Society of Automotive Engineers) festgelegt und unterteilt sich in folgende SAE-Level:

  1. Assistiertes Fahren – Assistenzsysteme können den Fahrer unterstützen, ohne selbst das Steuer zu übernehmen
  2. Teilautomatisiertes Fahren – Systeme können u.a. das Steuer übernehmen, während der Fahrer in der Verantwortung bleibt
  3. Hochautomatisiertes Fahren – Der Fahrer kann sich teils länger vom Fahrgeschehen abwenden
  4. Vollautomatisiertes Fahren – Zwar muss der Fahrer fahrtüchtig sein, das Fahrzeug fährt aber überwiegend selbstständig
  5. Autonomes Fahren – Die Personen im Wagen sind gewissermaßen nur noch Passagiere und das Fahrzeug übernimmt alle Fahrfunktionen

Derzeit arbeiten führende Auto-Hersteller an der Stufe 3: Honda, zum Beispiel, hat angekündigt, die Lücke zwischen Level 2 und Level 3 zu schließen, wenn auch mit reichlich Vorsichtsmaßnahmen. Level 3 bedeutet, dass ein Fahrer nicht mehr dauerhaft die Längs- und Querführung des Fahrzeugs überwachen muss. Das System wird bei Honda automatisch aktiviert, wenn die Wetter- und Verkehrsbedingungen es zulassen.

Das Fahrzeug kennt seine Position mit hoher Genauigkeit, ebenso die eigene Geschwindigkeit und die der anderen Fahrzeuge vor sowie hinter sich. Ist der Verkehrsfluss langsam, übernimmt das System automatisch und der Fahrer kann sich vorübergehend von der Fahraufgabe abwenden. Aber das System kennt auch seine Grenzen – sind diese erreicht, muss der Fahrer nach Aufforderung dazu in der Lage sein, den Wagen nach einer gewissen Zeitspanne wieder zu übernehmen. Die Übergabe an den Fahrer wird dabei in mehreren Schritten unter anderem akustisch angekündigt. Reagiert der Fahrer nicht, verlangsamt das System das Fahrzeug, steuert es auf den Seitenstreifen und bremst ab. Dieser Mechanismus sichert einerseits Fahrer und andere Verkehrsteilnehmer ab, gleichermaßen allerdings auch die Automobilhersteller. Fällt ein von ihnen entwickeltes Fahrzeug im laufenden Verkehr aus, würde das gravierende Folgen für alle Beteiligen bedeuten.

Die Automobilbranche im Daten-Dschungel

Andere Hersteller sind ähnlich weit. Die Automobilindustrie befindet sich seit längerem in einer Phase, in der die Nachfrage nach neuen, assistierenden Features stetig steigt. Wer sich für einen neuen Wagen entscheidet, blickt deshalb immer mehr auf die Software statt auf die Hardware. Der Einsatz von Elektrofahrzeugen wird diese Entwicklung in Zukunft noch bestärken. Die zunehmende Autonomie ist allerdings hochgradig Daten-getrieben. Mit jeder Automatisierungsstufe vervielfacht sich der Daten-Hunger zur Weiterentwicklung der Algorithmen im Entwicklungssystem. Dies wirft die Frage auf, wie die Daten sicher aufbewahrt, gespeichert und verteilt werden können. Die größte Schwierigkeit ist dabei nicht einmal die Speicherung der Daten, sondern die Übertragung: Wie gelangen Daten am schnellsten und effizientesten zum Datenzentrum? Und welche Daten sind überhaupt wichtig und nützlich?

Um die Sicherheit der auf Künstlicher Intelligenz basierten Systeme zu validieren, müssen Fahrzeuge zunächst einige Strecken auf realen Straßen und vor allem Millionen von Kilometern in Simulationen zurücklegen , um alle denkbaren Grenzfälle zu erproben. Dabei werden die Funktionen des Fahrerassistenzsystems (Advanced Driver Assistance System, ADAS) und des Automatisierten Fahrens (Automated Driving, AD) in großen Testflotten geprüft. Die mit Kameras, Laserscannern und Radargeräten ausgerüsteten Fahrzeuge sammeln, verschicken und empfangen zunächst auf einem Testgelände und später auf befahrenen Straßen unaufhörlich Daten. Ein selbstfahrendes Auto dürfte bei einer achtstündigen Fahrt zwischen 50 und 100 TByte an solchen Daten erzeugen. Testkampagnen in Regionen, in denen es keine festen Standorte der Unternehmen gibt, wie etwa der Wüste oder Arktis, sorgen jedoch für einen großen Zeitverzug in der Auswertung. Die Daten müssen mitunter wochenlang physisch per Kurier auf Speichermedien transportiert und mehrfach bis zum Zielsystem kopiert werden.

Referenz-Architektur für Automotive-Entwicklungen: Durch Building Blocks ist die Plattform besonders flexibel.
Referenz-Architektur für Automotive-Entwicklungen: Durch Building Blocks ist die Plattform besonders flexibel. (Bild: Atos)

Datenspeicherung für das Auto der Zukunft

Um Innovation und Fortschritt zu beschleunigen, ist ein kooperativer Ansatz unerlässlich: Die beste Lösung ist daher ein dynamischer Mix aus verschiedenen Speichertechnologien, angebunden an eine Toolchain mit Werkzeugen, die Zugriff auf Daten haben, um sie sinnvoll zu verarbeiten – sei es, um das Fahren sicherer zu machen oder um zusätzliche Serviceleistungen im Auto anzubieten. Man kann sich diese Lösung wie Lego-Bausteine vorstellen: Das System besteht aus Building Blocks, aus denen sich für verschiedene Standorte geeignete Lösungen kombinieren lassen. Building Blocks sind auf ihre Funktion und die dafür genutzte Software optimierte Plattformen aus Servern, Speicher- und Netzwerkkomponenten mit einem passenden Platform-as-a-Service-Software-Layer (PaaS).

Ein weiterer Baustein sind Data-Management-Service und Data-Mover-Lösungen für einen schnellen Datentransfer zwischen einem zentralen Data Mesh und dem Hot Storage der einzelnen Building Blocks. Datenmanagement-Tools wie SiaSearch ermöglichen es dabei, Daten automatisch zu kategorisieren, zu priorisieren und sie schnell abzufragen. Die Flexibilität solcher Building Blocks zieht sich durch alle Ebenen – angefangen vom Datentransport aus den Fahrzeugen heraus. Edge Data Analytics ermöglicht in entlegenen Gebieten erste Auswertungen direkt im Fahrzeug. Dabei werden die wichtigsten Daten identifiziert und mit höchster Priorität in den Data Mesh hochgeladen.

Weitere Daten, die für längerfristige Auswertungen relevant sind, gelangen physisch zu lokalen Speichern und von dort in den Mesh. Die Entfernung zwischen Entwickler und der Testflotte ist somit deutlich verkürzt, da sämtliche Ergebnisse, Szenarien, Daten und vieles mehr in der Cloud gespeichert sind. Für ressourcenintensive Anwendungen wie Simulationen bietet das Hosting in der Cloud dann den Vorteil von Hochleistungsrechnern.

Dynamisch in der Cloud oder On-Premise

Um interessante, neuartige Softwareprodukte zu entwickeln, ist eine dynamische Toolchain erforderlich. Da sich Big Data nicht physisch zur Infrastruktur der Algorithmen bewegen lässt, müssen die Algorithmen der Toolchain auf der Infrastruktur laufen, in der die Daten liegen oder kostengünstig repliziert werden. Die Infrastruktur muss mit den Anforderungen der Anwendungen kompatibel sein. Eine in der Cloud gehostete Toolchain ermöglicht einen einfachen und schnellen Zugriff und gewährleistet, dass die Toolchain immer aktuell und für jeden überall verfügbar ist, ohne dass eine Installation erforderlich wäre. Somit entsteht ein Marktplatz mit Softwarekomponenten, die sich wie Bausteine auf die Daten anwenden lassen, um neue Funktionen zu integrieren und auf dem Markt zu vertreiben. Softwaredesign und -entwicklung sind damit deutlich vereinfacht. Es gibt mehrere Infrastruktur-Optionen für die Ausführung der Toolchain-Umgebung:

  1. On-Premise-Rechenzentren
  2. Hyperscale Cloud-Infrastrukturen (IaaS = Infrastructure-as-a-Service)
  3. Eine intelligente Cloud (PaaS) mit Plattformdiensten: Der Intelligent Cloud Service bietet einen kompletten KI-Stack mit Services für Datenwissenschaftler, Unterstützungen für beliebte Deep-Learning-Frameworks und Data-Science-Tools bis hin zu vortrainierten domänenspezifischen Modellen.
  4. Hybride Cloud: eine Kombination aus On-Premise und öffentlicher Cloud: Die Cloud-Infrastruktur ermöglicht die schnelle Bereitstellung aktueller Hardwareressourcen ohne Vorabinvestitionen. Sie ist ideal für kleinere Unternehmen wie innovative Start-ups oder Abteilungen von Ingenieurdienstleistern. Die gesamte Infrastruktur muss natürlich ein hohes Maß an Sicherheit bieten, um die Entwicklungsergebnisse zu schützen, und die Daten für ein Konsortium von Toolchain-Anbietern individuell zugänglich zu machen.

Fazit

Neue Fahrzeugfunktionen und –Technologien benötigen vor allem Vertrauen in die Entwicklung. Gerade deshalb sind die optimierte Speicherung und Nutzung von Daten von größter Wichtigkeit. Nur durch eine große Menge an Testfahrten und genug Datensätzen lässt sich das Vertrauen in zukünftige Technologien erreichen, sei es bei der Autonomie oder bei der Elektrifizierung. Die beschriebene Infrastruktur kann genau das: Daten ohne Verzögerung dort zur Verfügung stellen, wo sie benötigt werden.

Christian Spohn, Atos
Christian Spohn, Atos (Bild: Atos)

Christian Spohn

Innovation Manager im Bereich Manufacturing bei Atos

Sie möchten gerne weiterlesen?

Unternehmen

Atos IT Solutions & Services GmbH

Otto-Hahn-Ring 6
81739 München
Germany