Voll autonomes Fahren ab dem Jahr 2021/2022 nach Sicherheitslevel 4 oder 5 erfordert zwingend den Einsatz mehrfach redundanter Sensorsysteme – und hier kommt Lidar ins Spiel. Heute verfügbare Systeme für teilautonomes Fahren verwenden Radar- und Kamerasysteme in unterschiedlicher Anzahl und Auslegung. Hochauflösende, bezahlbare Lidarsysteme mit Reichweiten bis 300 m befinden sich noch im Vorentwicklungsstadium. Der Aufwand, Lidarsysteme mit der geforderten Performance zuverlässig und kostengünstig zu entwickeln, ist eine große Herausforderung.

Die Mehrheit der  Automobilhersteller geht heute davon aus, dass für vollautonomes Fahren neben den bereits eingesetzten Kamera- und Radarsystemen  ein weiterer unabhängiger Sensortyp benötigt wird. Der Artikel beschreibt die wichtigsten Eigenschaften der drei genannten Systeme, erklärt die Vor- und Nachteile und den heutigen Stand der Technik. Aus Herstellersicht wird aufgezeigt, welche Halbleiterbauteile erforderlich sind, um intelligente und kostenoptimierte Lösungen anbieten zu können.

Lidar

Bild 1: Übersicht über die verschiedenen Automatisierungsstufen nach VDA/Bast, SAE. ST

In Bild 1 sind verschiedenen Abstufungen des autonomen Fahrens dargestellt. Diese Klassifizierung ist inzwischen sowohl im Standard J3016 der internationalen Ingenieurs- und Automobilindustrie-Vereinigung SAE als auch in Europa durch die Bundesanstalt für Straßenwesen und dem VDA festgelegt.

Aktuell gibt es keine zugelassenen Fahrzeuge nach Level 3. Der Gesetzgeber arbeitet noch an einer möglichen Zulassung solcher Fahrzeuge. Maßstäbe setzt hier der neue Audi A8, der Ende 2017 an die Kunden ausgeliefert wird. Hier ist kurzzeitiges autonomes Fahren unter bestimmten Rahmenbedingungen möglich. Dies Fahrzeug verwendet serienmäßig zusätzlich einen Lidarsensor.

Welche Sensoren sind nun für autonomes Fahren nach Level 1 bis Level 5 unbedingt erforderlich? Wie eingangs erwähnt, gibt es drei Hauptgruppen von Sensoren: Kamera-, Radar- und Lidar-basierende Systeme. Ultraschallsensoren sollen hier nicht betrachtet werden. Bei Einparkhilfen sind diese heute aus Kostengründen noch weit verbreitet, für autonomes Fahren aber von eher untergeordneter Bedeutung. Kamera- und Radarsysteme sind heute bei den Level-1- und Level-2-Fahrzeugen Stand der Technik und Voraussetzung für alle weiteren Automatisierungsstufen.

Lidar

Bild 2: In modernen Fahrzeugen ist eine Vielzahl von Sensoren mit unterschiedlichen Technologien verbaut. ST

In Bild 2 sind exemplarisch mögliche Anzahl und Positionen dieser drei Sensoren dargestellt. Heute wird die Auswertung teilweise noch dezentral ausgeführt, zukünftig ist dafür eine extrem leistungsfähige „Fusion ECU“ zuständig.

Rückfahr- und 360°-Kameras

Videobilder sind die Informationsquelle mit den meisten Details für den menschlichen Fahrer, aber auch sehr gut geeignet als ein Eingangsparameter für das hochautomatisierte Fahren. Der Sinn von Rückfahrkameras und 360°-Kameras besteht im Wesentlichen darin, den Fahrer mit einer besseren Darstellung der Umgebung außerhalb des Fahrzeuges zu unterstützen. Heutzutage sind bereits Rückfahrkameras und 360°-Kameras im Einsatz, welche die zweidimensionale Projektion der Kamerabilder sowie die Überlagerung von zusätzlichen Informationen wie etwa die Lenkwinkeltrajektorien unterstützen. Für die automobile Oberklasse befinden sich erste Kameras mit virtueller dreidimensionaler Bilddarstellung in der Einführung.

Um die dreidimensionale Bilddarstellung, die in der Regel die Eingangssignale von vier bis sechs Kameras zusammenführt, möglich realistisch zu gestalten, muss insbesondere auf die Bildübergänge geachtet werden, um einen guten Übergang der einzelnen Signale zu haben und gleichzeitig keine Bildinformation zu verlieren.

Heutige automobile Video-Systeme wie beispielsweise Rückfahrkameras oder 360°-Kameras haben in der Regel eine zentralisierte Architektur. Das bedeutet, dass vier bis sechs Kameras die Rohdaten in ein zentrales Steuergerät übertragen, in dem diese dann prozessiert werden. Entsprechend hoch sind die Hardware-Anforderungen an den Video-Prozessor. Zusätzliche werden FPGAs für spezifische Hardwarebeschleunigung benötigt, sodass insgesamt eine hohe Verlustleistung anfällt. Darüber hinaus benötigen moderne Datenkompressionsverfahren zusätzlich große Datenspeicher.

Vorwärts gerichtete Kamerasysteme

Bei diesen Kamerasystemen handelt es sich um Systeme für mittlere bis hohe Reichweiten, das heißt im Bereich zwischen 100 m und 250 m. Diese Kameras benutzen Algorithmen, um Objekte automatisch zu erkennen, zu klassifizieren und die Entfernung zu bestimmen. Erkannt werden sollen beispielsweise Fußgänger, Radfahrer, Kraftfahrzeuge, Seitenstreifen, Brückenpfeiler und Fahrbahnränder. Die Algorithmen werden darüber hinaus auch zur Verkehrszeichen- und Signalerkennung  verwendet.

Kameras mit mittlerer Reichweite dienen im Wesentlichen zur Warnung vor Querverkehr, als Fußgängerschutz sowie für Notbremsung, Spurhalteassistenten und Signallichterkennung. Typische Anwendungsbereiche für Kameras mit hoher Reichweite sind Verkehrszeichenerkennung, videobasierte Abstandsregelung und Straßenführungserkennung.

Künftige Systeme werden versuchen, mittlere und hohe Reichweiten ausschließlich mit einer Optik abzudecken. Damit dieses gelingen kann, sind künftig Bildsensoren mit vermutlich mehr als sieben Millionen Pixeln notwendig.

 

Auf den nächsten Seiten sind Radar- und Lidarsysteme Thema.

Seite 1 von 3123