Lidar

Bild 1: Die Verarbeitung von Lidar-Rohdaten in der zentralen Intelligenz des Fahrzeugs ist suboptimal. (Bild: Dibotics)

Um ein autonomes Auto zu annähernd 100 Prozent sicher zu machen, sind Reaktionen in Sekundenbruchteilen in Verbindung mit der komplexen Beurteilung der Umgebung, wie sie beim Menschen instinktiv erfolgt, eine zwingende Voraussetzung. Die aktuelle Generation von Fahrerassistenzsystemen ist dazu noch nicht in der Lage. Daher lohnt ein genauer Blick auf die Art und Weise, wie Menschen die Fahrzeugsteuerung bewerkstelligen.

Wie das menschliche Gehirn funktioniert

Das menschliche Gehirn ist ein extrem komplexes Gebilde aus verschiedensten Systemen und Prozessen, viel komplexer als jeder logisch aufgebaute Computer. Dennoch lassen sich im Gehirn zwei konkrete Bereiche ausmachen, in denen jeweils verschiedene Prozesse zur Informationsverarbeitung aus der Außenwelt und zur Risikoeinschätzung ablaufen.

Für die einfacheren Risikobewertungsprozesse ist die Amygdala verantwortlich. Das ist der Teil des Gehirns, der die Kampf- und Fluchtreflexe steuert, intuitiv und instinktiv. Die Amygdala überlegt nicht, sie reagiert einfach. Im Neokortex hingegen verfolgt das menschliche Gehirn einen logischen und bewussten Ansatz zur Risikobewertung. Er benötigt für die Entscheidungsfindung so viele Daten wie möglich. Üblicherweise überlagert die Amygdala unseren Neokortex in Gefahren- und Stresssituationen und ist damit ein Teil des menschlichen Überlebensinstinkts.

Der Nobelpreisträger Daniel Kahneman nennt diese zwei unterschiedlichen Prozesse schnelles Denken und langsames Denken und begründet unter anderem damit seine „Dual Process Theory“. Kahnemannn geht der Frage nach, wann man dem langsam denkenden Neokortex vertrauen kann und wann man sich auf die schnell denkende Amygdala verlassen können muss. Er bezeichnet das schnelle Denken als System-1-Denken und das langsame Denken als System-2-Denken. Das Autofahren ist ein Beispiel dafür, wo Menschen sowohl System 1 als auch System 2 verwenden.

Das System-1-Denken ist verantwortlich für den sofortigen und heftigen Tritt auf die Bremse, wenn plötzlich etwas vor das Auto läuft. Wenn es jedoch darum geht, das Auto in eine enge Parklücke zu manövrieren, ist System 2 gefragt, um den richtigen Lenkradeinschlag und die richtige Geschwindigkeit einzuschätzen und Berührungen mit anderen Fahrzeugen zu vermeiden.

Wie die meisten autonomen Autos funktionieren

Genau so, wie Menschen ihre Sinne für die Wahrnehmung der Umwelt benötigen, nutzen autonome Fahrzeuge unterschiedliche Sensoren wie beispielsweise Lidar, um Informationen über die Fahrzeugumgebung zu sammeln. Es kommt allerdings darauf an, was autonome Autos mit den über die Sensoren gesammelten Daten machen.

Lidar

Bild 1: Die Verarbeitung von Lidar-Rohdaten in der zentralen Intelligenz des Fahrzeugs ist suboptimal. Dibotics

Üblicherweise senden die Sensoren Rohdaten an das „Gehirn“ des Fahrzeugs, auch als AI (Artificial Intelligence) bezeichnet, wo die unterschiedlichen Daten in Objekte umgesetzt werden, die das Verhalten des Fahrzeugs bestimmen. Dieser Prozess ist jedoch suboptimal, da die AI zu viele nutzlose Daten durchsehen muss, was wertvolle Netzwerkbandbreite beansprucht und zu viel Zeit und Energie kostet (Bild 1).

Ein anderer populärer Ansatz geht in die entgegengesetzte Richtung. Dabei empfängt die AI von den Sensoren bereits verarbeitete Informationen oder Objekte anstelle von Rohdatenpunkten. Das Problem bei diesem Ansatz besteht darin, dass die AI nicht ausreichend aussagekräftige Informationen erhält, insbesondere für die Zusammenführung in einer Multisensor-Konstellation. Auch aufgrund ihrer begrenzten Rechenleistung können die Sensoren die teilweise redundanten Rohdaten nicht so schnell oder präzise wie die AI einer zentralen ECU verarbeiten.

Die Ineffizienzen beider Ansätze haben die Entwickler bei Dibotics veranlasst, anders an die Sache heranzugehen. Was würde es beispielsweise bedeuten, autonome Autos mehr wie menschliche Gehirne funktionieren zu lassen? Der Schlüssel könnte darin bestehen, die Dual Process Theory auf autonome Autos anzuwenden. Das Auto würde das System-1-Denken nutzen, um direkt auf drohende Gefahren zu reagieren, und das System-2-Denken käme für andere komplexere und wohlbedachte Aufgaben zum Einsatz.

Anwendung der Dual Process Theory im Auto

Die meiste Aufmerksamkeit legt man im Moment bei der Entwicklung von autonomen Autos auf das System-2-Denken, denn die AI und Machine Learning sind eine ausgezeichnete Parallele zum Neokortex des menschlichen Gehirns. Selbstfahrende Autos brauchen aber eine Parallele zur Amygdala, die es bis jetzt nicht gibt oder zumindest nicht als explizites Designprojekt.

Lidar

Bild 2: Die Augmented-Lidar-Technologie erzeugt aus den Rohdaten des Sensors klassifizierte Daten für die zentrale Intelligenz. Dibotics

Die von Dibotics nun entwickelte sogenannte „Augmented-Lidar“-Technologie ermöglicht es autonomen Fahrzeugen, bei der Verwendung von Lidar als Wahrnehmungssensor gleichzeitig die System-1- und System-2-Denkweise anzuwenden. Die Lidar-Sensoren speisen dabei die Rohdaten direkt in eine Embedded- Software, die in Echtzeit auf einem sehr kompakten Chip mit geringem Stromverbrauch läuft (Bild 2). Dieser Chip (Bild 3) wird somit zur künstlichen Amygdala der AI.

Lidar

Bild 3: Der Augmented-Lidar-Chip ist deterministisch, schnell und stromsparend. Dibotics

Anstatt mit Rohdaten zu arbeiten, kann die AI auf diese Weise mit geordneten Punktwolken-Daten arbeiten. Da diese Daten auf der Punktebene und nicht auf der Objektebene klassifiziert sind, wird daraus ein Satz von angereicherten Rohdaten: ein Abstraktionsgrad, der hoch genug ist, um nützlich zu sein, aber niedrig genug, um Entscheidungszeit, Verarbeitungsleistung, Energieverbrauch und Kommunikationsbandbreite zu reduzieren. Anstelle der Rohdaten des Lidar kann die AI so den Output des Augmented Lidar verwenden. Nachdem dessen Software keine leistungshungrige Prozessoreinheit oder teure Hardware benötigt, ist das Augmented Lidar praktisch, effizient und vor allem effektiv.

 

Lesen Sie auf der nächsten Seite, wie Augmented Lidar autonome Autos sicherer macht.

Augmented Lidar macht autonome Autos sicherer

Das Augmented Lidar spielt im autonomen Fahrzeug die Rolle der Amygdala und klassifiziert Datenpunkte aus dem Lidar für jeden einzelnen Frame. Man muss nicht auf mehrere Frames warten, bevor das System eine Entscheidung treffen kann. Da die Klassifizierung deterministisch ist (es ist kein Lernen oder A-priori-Wissen erforderlich), lässt sich ein hohes Maß an Sicherheit und die Einhaltung der ISO 26262 wesentlich einfacher erreichen.

Die künstliche Amygdala ist nicht als Ersatz für das System-2-Denken gedacht, das von der AI zu bewerkstelligen ist. Stattdessen stellt das Augmented Lidar ein Parallelsystem dar, das für kritische Situationen das schnelle System-1-Denken übernimmt. Damit das System 1 sinnvoll funktioniert, muss es intelligent sein, wobei die Bereitstellung von grundlegenden Informationen über Eigenbewegungen und Abstände zu Hindernissen nicht ausreicht.

Die künstliche Amygdala sollte daher in der Lage sein, einige der wichtigsten Wahrnehmungsherausforderungen des selbstfahrenden Autos zu lösen:

a) Eigenbewegungen (Ego Motion): Frame für Frame verstehen, wie sich das Fahrzeug bewegt, falls keine Karte als Referenz vorhanden ist, und Lokalisierung des Fahrzeugs, wenn eine Karte vorhanden ist.

b) 3D-Mapping: Erstellen einer sich bewegenden 3D-Karte um das Fahrzeug herum, die einen virtuellen Frame aus dem Sensor möglich macht, der durch die Integration von Hunderten von tatsächlichen Sensorframes erzeugt wird.

Lidar

Bild 4: SLAM kombiniert die Erfassung der Eigenbewegungen und das 3D-Mapping und ist auf dem Augmented-Lidar-Chip integriert. Dibotics

Diese beiden Merkmale (a und b) bezeichnet man allgemein als SLAM (Simultaneous Localization and Mapping). Wenn dies in einem kleinen Chip wie bei der Augmented-Lidar-Technologie erfolgt, spricht man von SLAM on Chip (Bild 4).

c) Punktweise Klassifizierung: Zuordnung jedes Punktes des Lidars in Echtzeit zu einer der folgenden Kategorien:

  • Feststehendes Objekt, zum Beispiel ein Gebäude.
  • Bewegendes Objekt, zum Beispiel ein sich bewegendes Auto oder Fußgänger.
  • Bewegliches Objekt, zum Beispiel ein geparktes Auto oder ein stehender Fußgänger.
  • Vegetation.
  • Befahrbare Straße.
  • Unbefahrbarer Untergrund.
  • Straßenmarkierungen.
  • Verkehrsschilder.

d) Objekterkennung und -verfolgung (DATO): Gruppierung der Datenpunkte für bewegende und bewegliche Objekte und Verfolgung über die Zeit. Das Augmented Lidar liefert physikalische Eigenschaften wie Bewegungsverlauf, Geschwindigkeit und Ausdehnung der Objekte in Echtzeit an die AI und kennzeichnet die Objekte als:

  • Auto
  • Lkw / Transporter / Bus
  • Fahrrad oder Motorrad
  • Fußgänger oder Tier

Hohe Erwartungen für Sicherheit und Konsistenz

Die Öffentlichkeit wird autonome Autos erst akzeptieren, wenn die Fehlerrate nahe Null ist. Mit dem System-2-Denken allein wird die Industrie jedoch nicht die nötige Akzeptanz erreichen. Ein deterministisches, energiesparendes, schnelles und intelligentes System-1-Denken und ein AI-basiertes System-2-Denken in Kombination ist sicherer als das System-2-Denken alleine. Genau wie beim menschlichen Fahrer die Amygdala für ihre Sicherheit in Gefahrensituationen sorgt, benötigen autonome Autos ein System-1-Denken, das in Form einer künstlichen Amygdala verhindert, dass sie in Unfälle geraten. Ein dualer Prozess wie die Augmented-Lidar-Technologie von Dibotics kann nicht nur die autonomen Autos sicherer machen als von Menschen gesteuerte Fahrzeuge; es kann vor allem dabei helfen, dass autonome Autos auf breiter Basis akzeptiert sind.

Eck-DATEN:

Nach der Dual Process Theory ist beim Menschen das schnelle System-1-Denken verantwortlich etwa für den sofortigen und heftigen Tritt auf die Bremse, wenn plötzlich etwas vor das Auto läuft. Wenn es jedoch darum geht, das Auto in eine enge Parklücke zu manövrieren, ist das langsamere analytische System-2-Denken gefragt. Der Augmented-Lidar-Ansatz von Dibotics ermöglicht es nun, beide Informationsverarbeitungsprozesse für die Entwicklung autonomer Fahrzeuge zu nutzen, um die Sicherheit und Zuverlässigkeit der entsprechenden Assistenzsysteme zu verbessern.

Raul Bravo

(Bild: Dibotics)
CEO bei Dibotics

(ku)

Sie möchten gerne weiterlesen?