Autonomes Fahren erfordert eine umfassende Auswertung von einer Vielzahl von Sensorsignalen. Die Rohdaten dieser Sensoren sind allerdings ohne eine Verarbeitung nutzlos. Um zu erkennen, was tatsächlich von den Sensoren erfasst wurde, muss man die Daten erst verstehen oder interpretieren.

Der folgende Artikel erläutert die Grundlagen der Interpretation von Sensor-Eingangsdaten und erklärt auf einer konzeptionellen Ebene einige der Algorithmen, die man zur Bildverarbeitung in Anwendungen für autonomes Fahren nutzt. Darüber hinaus beschreibt er die Anforderungen, die solche Anwendungen an herkömmliche Prozessoren stellen, und geht auf neue SoC-IP-Elemente zur Leistungsbeschleunigung für diese Anwendungen ein.

Die „Augen“ des Fahrzeugs

Beim autonomen Fahren müssen Sensor-Eingangssignale erfasst und daraus nützliche Informationen extrahiert werden, aus denen sich eine Karte der Fahrumgebung erstellen lässt. Diese Karte beinhaltet den Erfassungsbereich mit allen ihren passiven Objekten (etwa Gebäude, Brücken und Bäume) und dynamischen Objekten (andere Fahrzeuge, Fußgänger, Radfahrer oder Tiere). Nach der Extraktion dieser Karte und der darin enthaltenen Objekte folgt die Phase der Sensorfusion. Hier fällt das System Entscheidungen über die Interpretation der aus der Szene extrahierten Informationen. Jede fehlerhafte Entscheidung auf der Fusionsebene kann negative Auswirkungen auf den Fahrvorgang haben.

Als letzte Phase folgt die Betätigung: Hier gibt das System entweder eine Meldung an den Fahrer über das Armaturenbrett aus (passive Systeme) oder übernimmt die Kontrolle über Bremsen, Beschleunigen oder Lenken (aktives ADAS). Diese Schritte ermöglichen die Implementation einer Reihe von ADAS- oder autonomen Fahrfunktionen. Zu diesen Funktionen zählen unter anderem adaptive Geschwindigkeitsregelung (Adaptive Cruise Control, ACC), automatische Notbremsung (Automatic Emergency Braking, AEB), Spurhaltewarnungen, Totwinkelerkennung, Fußgänger-/Radfahrer-Erkennung sowie Fahrer-Überwachungssysteme (Driver Monitoring Systems, DMS).

Die Herausforderung, einem Auto das „Sehen“ im komplexen städtischen Umfeld, auf einer Autobahn oder einer unbeleuchteten Straße unter schlechten Wetterbedingungen beizubringen, umfasst vier Aufgaben: Signalerfassung, Objekterkennung, Klassifizierung und Sensorfusion. Alle diese Aktionen und die Steuerung des Fahrzeugs müssen in Echtzeit erfolgen. Die Art, wie Sensoren die Szenerie erfassen, ist allerdings oft mit Problemen verbunden:

  • Objekte können dem System in unterschiedlichen Sichtwinkeln präsentiert werden.
  • Objekte können nun sehr allgemein klassifiziert sein, obwohl es beispielsweise hunderte von unterschiedlichen Automodellen gibt.
  • Verschiedene Wetterbedingungen wie Schnee, Hagel, extremer Regen und Nebel erschweren die Erfassung.
  • Unterschiedliche Beleuchtungsbedingungen wie Sonnenuntergang oder Dunkelheit können ebenfalls die Signalerfassung beeinträchtigen.
Neuronale Netze

Bild 1: Die verschiedenen Sensor-Typen und ihre Einsatzgebiete in einem Fahrzeug. Imagination

Alle diese Szenarien sind zu berücksichtigen, um ein genaues Bild des Geschehens rund um das Fahrzeug und ihrer möglichen Auswirkungen auf das Fahrzeug zu erhalten. Eine ungenaue Signalerfassung kann zu falsch-positiven Erkennungen, Unfällen und womöglich Todesopfern führen, wenn das Fahrzeug eine falsche Entscheidung trifft. Bild 1 zeigt die zahlreichen Sensoren rund um das Fahrzeug, die als „Auge“ dienen. Jeder von ihnen bildet die Basis für eine oder mehrere Funktionen und bietet zusätzliche Redundanz für eine Gegenprüfung und Validierung von Entscheidungen. Vor allem aber hat jeder dieser Sensortypen spezifische Vorteile.

Seite 1 von 41234