Auf Basis von Sensordaten und dren breiter Zugänglichkeit lassen sich andere Autofahrer frühzeitig vor Gefahren waren.

Auf Basis von Sensordaten und deren breiter Zugänglichkeit lassen sich andere Autofahrer frühzeitig vor Gefahren warnen. HERE

Auf dem Weg von der Teil- hin zur Hochautomatisierung beim Fahren muss die zugrundeliegende Technologie ein Maximum an Sicherheit und Verlässlichkeit gewährleisten. Dies erfordert redundant ausgelegte Systeme, die Echtzeit-Informationen aus verschiedenen Quellen sammeln, auswerten und verarbeiten. Grundlegende Voraussetzung dafür ist die Sensorik, genauer gesagt eine intelligente Kombination verschiedenster Sensorsysteme, die sinnvoll im Fahrzeug integriert und perfekt auf bestimmte Anwendungen abgestimmt ist – also die Sensorfusion.

HERE entwickelt mit Sensoris ein einheitliches Datenaustauschformat

Eine Herausforderung für die Automobilindustrie besteht darin, die große Menge an Sensordaten in nützliche Informationen umzuwandeln und sie für andere Verkehrsteilnehmer bereitzustellen. HERE hat hierfür in Kooperation mit internationalen Automobil- und Kartenherstellern ein einheitliches Datenaustauschformat namens Sensoris entwickelt. Diese standardisierte Schnittstellenspezifikation definiert das Format, in dem Sensordaten bei vernetzten Fahrzeugen übertragen werden. So sind die Informationen aus heterogenen und individuellen Sensorsystemen schneller und zuverlässiger für einen breiten Nutzerkreis zugänglich. Beispielsweise lassen sich andere Autofahrer auf Basis entsprechender Daten frühzeitig vor Staus oder Gefahren warnen, was Unfällen vorbeugt, den Fahrkomfort erhöht und die Mobilität insgesamt auf eine neue Stufe stellt. Zudem treibt ein solcher Datenstandard die Entwicklung hin zum autonomen Fahren weiter voran.

Künstliche Intelligenz lernt typische Muster

Woher kommen die Daten, die über Sensoris ausgetauscht werden? Ein Beispiel: Bei der Konzeption von Sensor-Fusion-Architekturen kommen zunehmend auch Verfahren der künstlichen Intelligenz (KI) wie Machine Learning, Deep Learning und neuronale Netze (Convolutional Neural Networks, CNNs) ins Spiel. Die Technologien analysieren mittels spezieller Algorithmen große Mengen fusionierter Sensordaten und werten sie fundiert aus. Auf dieser Basis lernen die Systeme typische Muster, die in den Sensordaten immer wieder auftreten und leiten daraus eigenständig bestimmte Erkenntnisse ab. Durch diesen Selbstlern-Effekt lassen sich Objekte oder Szenarien, die von den Sensoren in der Umgebung erfasst werden, wesentlich präziser erkennen und zuordnen.

In ADAS-Lösungen eingebettet, können KI-Technologien eine Vielzahl automatisierter Assistenzfunktionen unterstützen. So sind beispielsweise Systeme für automatische Abstandsregelung oder Notbrems-Assistenten in der Lage, eine große Varianz an Hindernissen wie etwa vorausfahrende Autos, Radfahrer oder Fußgänger auf der Straße verlässlich zu identifizieren. So kann das Fahrzeug automatisiert und schnell reagieren, um Kollisionen zu verhindern. Hierbei muss die KI in der Lage sein, die Objekte zielsicher in bestimmte Klassen wie etwa „Fahrzeug“, „Mensch“ oder „Verkehrsinsel“ einzuordnen – obwohl diese in der Realität eine Vielzahl verschiedener Erscheinungsbilder aufweisen können. Zudem müssen auch alle sonstigen, blockierenden Hindernisse wie große Steine oder verlorene Ladungsgegenstände zuverlässig als solche erkannt und von bloßen Licht-Reflexionen unterschieden werden.

Sensordaten und digitale Karteninformationen kombinieren

Die Menge an Sensordaten und diese in nützliche Informationen umzuwandeln und bereitzustellen stellt eine große Herausforderung für die Automobilindustrie dar.

Die Menge an Sensordaten und diese in nützliche Informationen umzuwandeln und bereitzustellen stellt eine große Herausforderung für die Automobilindustrie dar. HERE

Im Zusammenhang mit der zunehmenden Automatisierung des Fahrens durch Fahrerassistenzsysteme spielen auh hochauflösende, sprich datenintensive, Karten eine zentrale Rolle. Sie liefern dem Fahrzeug die „logischen Strukturen“, um sich zentimetergenau in einer Fahrspur zu positionieren. Gleichzeitig müssen die Karten in der Lage sein, sich ständig selbst aktualisieren zu können. Hier kommen wieder die Fahrzeugsensoren und Assistenzsysteme ins Spiel und damit auch Sensoris. Sie erfassen die Umgebung des Fahrzeugs und speisen mit diesen Informationen die Karte. Hochauflösend ist sie damit noch nicht. Dafür müssen Gegebenheiten wie Straßenführung, Spurinformationen, Positionen von Schildern und Ampeln, Fahrbahnmarkierungen oder andere Objekte äußerst präzise und mit höchster Detailtreue verzeichnet sein. Solch eine Karte aktualisiert sich während der Fahrt fortlaufend selbst durch Fahrzeugsensordaten und ermöglicht dadurch nahezu in Echtzeit eine umfassende Sicht auf das momentane Verkehrsgeschehen.

HERE etwa bietet eine HD-Karte und nutzt hierfür Daten aus KI-Anwendungen, Lidar-Systemen und weiteren Technologien. Mit diesen lassen sich logische Strukturen von hochauflösenden Karten erstellen, die exakte Informationen zu Spurausdehnung, Konnektivität, Fahrtrichtung und Zugriffseigenschaften enthalten. Damit sich auf diese Weise Fahrzeuge innerhalb einer Spur sehr präzise positionieren und navigieren lassen, müssen die Daten zentimetergenau sein. Zur Erfassung und Aktualisierung dieser Informationen nutzt HERE vielfältige Datenquellen sowie eine eigene Flotte an Vermessungsfahrzeugen, die weltweit Daten über Millionen von Straßenkilometern sammeln. Die Fahrzeuge sind mit aktuellsten Datenerfassungssensoren ausgestattet. Dazu zählen auch hochauflösende Kameras und Lidar-basierte Entfernungsmesser für 360-Grad-Ansichten.

Detaillierte Erfassung mit Lidar

Ein weiterer Grund für die hohen Datenmengen bei autonomen Fahren: Lidar-basierte Sensoren liefern qualitativ hochwertige, präzise Informationen für die Modellierung komplexer, städtischer Umgebungen und Straßennetzen. Die Sensoren erzeugen zehnmal pro Sekunde eine 360-Grad-Punktwolke und ermöglichen damit eine hohe Anzahl von 3D-Messungen. Durch deren Fusionierung mit der Position und Ausrichtung des Autos entsteht eine vollständig georeferenzierte 3D-Punktwolke, die verschiedene Perspektiven und präzise Details der Umgebung erfasst. Die Punktwolken werden auf ein 2D-Bild projiziert und mittels Deep Learning ausgewertet. Beispielsweise lassen sich damit Fahrbahnbegrenzungen aus einem Bild automatisch identifizieren.

Dank Deep Learning müssen Entwickler bestimmte Merkmale wie die Farbe von Gras oder die Position von Fahrbahnmarkierungen nicht mehr manuell festlegen. Für jeden Pixel im 2D-Bild werden die Reflexionen und die Höhe der Oberfläche exakt erfasst, was detaillierte, 3D-Informationen ermöglicht. Ein CNN wertet die Bilder aus und prognostiziert für jeden Pixel einen bestimmten Wert. Dadurch lassen sich Straßenmerkmale wie Fahrbahnbegrenzungen, Fußgängerüberwege und Haltelinien verlässlich vorhersagen. Im Ergebnis ermöglicht es Deep Learning, die komplexen Prozesse rund um die Erzeugung einer HD-Karte zu automatisieren und effizienter zu gestalten. Eine manuelle Erstellung von derart detailliertem, digitalem Kartenmaterial wäre in dem geforderten globalen Maßstab kaum möglich. Zudem kann durch die Automatisierung der Merkmalserkennung und der Kartenerstellung auf Veränderungen eine zeitnahe Reaktion erfolgen, sobald ein beliebiger Sensor diese beobachtet.