Ein Auto der Mittelklasse verfügt heute über hunderte elektronischer Systeme. Die Anzahl und Komplexität dieser Systeme nimmt mit jeder neuen Fahrzeuggeneration zu. Dabei müssen die Systeme nicht nur einzeln zuverlässig funktionieren, sondern auch im Zusammenspiel mit dem Gesamtfahrzeug. Zudem müssen sie vergleichsweise zukunftssicher sein, da der Trend immer mehr in Richtung Smart Cities und intelligenter vernetzter Verkehr geht – natürlich mit dem ultimativen Ziel, autonomes Fahren gemäß Level 5 zu erreichen, wo Fahrzeuge mit anderen Fahrzeugen (V2V) und ihrer Infrastruktur (V2I) kommunizieren. Laut Akio Toyoda, Präsident von Toyota und Enkel des Firmengründers, sind 14,2 Milliarden Kilometer an Testfahrten (einschließlich Simulation) erforderlich, um nachzuweisen, dass autonome Fahrzeuge sicher sind.

Automobilzulieferer und -hersteller müssen ihre elektronischen Systeme auf allen Ebenen inklusive Komponenten, Steuergeräte (ECU, Electronic Control Units) und übergeordneter Fahrzeugsysteme vor dem Einsatz testen. Mit den vielen verschiedenen Konfigurationen in den Produktlinien eines Fahrzeugherstellers und der Platzierung der Systeme im Fahrzeug (oft in der Nähe des Motorblocks oder nah an vibrierenden Teilen) gestaltet sich die Thematik äußerst komplex. Noch komplizierter wird die Sache durch die Notwendigkeit, sämtliche Automobilsysteme unter allen möglichen Fahrbedingungen zu testen, einschließlich extremer Wetterbedingungen und sogar unterschiedlicher Fahrstile. Und schließlich sind diese Systeme auch im Zusammenhang mit anderen Fahrzeugen und Infrastrukturen zu testen. Es stellt sich also die Frage, wie ein ausreichender Test dieser Systeme realisierbar ist.

Modellierung von Sensoren

Bild 1: Kein Sensortyp allein kann alle Funktionsanforderungen bei allen Wetter- und Lichtverhältnissen erfüllen.

Bild 1: Kein Sensortyp allein kann alle Funktionsanforderungen bei allen Wetter- und Lichtverhältnissen erfüllen. Mentor Graphics

Insgesamt betrachtet gehören Sensoren zu den wichtigsten Systemen selbstfahrender Fahrzeuge. Autonome Autos benötigen eine Vielzahl von Sensoren, die ihnen als Augen und Ohren dienen. Heute hat ein normales Fahrzeug (nicht autonom fahrend, nur mit einigen Fahrerassistenzfunktionen ausgeführt) zwischen 60 und 100 eingebaute (Onboard-) Sensoren – und die Anzahl solcher Sensoren nimmt perspektivisch zu, wenn Autos immer intelligenter werden.

Kein Sensortyp allein kann alle Funktionsanforderungen bei allen Wetter- und Lichtverhältnissen erfüllen (Bild 1). Daher streben die meisten Unternehmen eine Kombination von Sensoren an, um eine 360-Grad-Sicht um das Fahrzeug herum zu ermöglichen.

Lidar nutzt das Licht eines gepulsten Lasers, um Abstände mit höchster Genauigkeit zu messen. Radar hingegen wird für die Erkennung und Nachverfolgung von Objekten eingesetzt, zum Beispiel um die Fahrzeuggeschwindigkeit und -richtung sowie den Abstand zu Objektkanten zu ermitteln. Obwohl Radar nicht die gleiche Detailgenauigkeit wie Lidar aufweist, ergänzen sich die beiden Verfahren, da Radar auch bei ungünstigen Wetterbedingungen gut funktioniert. Für das autonome Fahren ist beides notwendig – auch wenn Elon Musk hier eine Ausnahme macht und die vollständige Autonomie bei Tesla nur mit Kameras, Radar und Ultraschallsensoren realisieren will.

Kameras kommen zum Einsatz, um die für die Bilderkennung erforderlichen Textur-, Farb- und Kontrastinformationen zu erfassen. Kameras – sowohl innerhalb als auch außerhalb eines Fahrzeugs – sind die führende Technologie zur Klassifizierung von Objekten. Einige Unternehmen verwenden in ihren selbstfahrenden Autos Kameras zusammen mit Radar. Lidar wird hingegen zur Klassifizierung nicht herangezogen.

 

Warum für Sensoren im Fahrzeug ein wärmebewusstes Design so wichtig ist, erfahren Sie auf der nächsten Seite.

Seite 1 von 41234