Sich einfach zurücklehnen und dem Auto das Fahren überlassen? Dank ADAS-Technologien wird dies irgendwann Realität.

Sich einfach zurücklehnen und dem Auto das Fahren überlassen? Dank ADAS-Technologien wird dies irgendwann Realität. Doch bis dahin sind noch einige Herausforderungen zu meistern. (Bild: @ ZoomTeam - stock.adobe.com)

Ob Spurerkennung, Geschwindigkeitsregelung oder Rückfahrassistent: Fahrerassistenzsysteme – Advanced Driver Assistance Systems (ADAS) – haben die Fahrsicherheit und den Komfort im Auto in den letzten Jahren erheblich verbessert. In der EU-Sicherheitsverordnung, die einen Rechtsrahmen für die Zulassung automatisierter und vollständig fahrerloser Fahrzeuge schafft, spielen sie eine zentrale Rolle. Sechs ADAS-Funktionen sind seit Juli 2022 für Neufahrzeug-Typgenehmigungen und ab Juli 2024 für Neuzulassungen verpflichtend.

Doch wie genau ebnen ADAS den Weg zum hochautomatisierten oder autonomen Fahren (Autonomous Driving, AD)? Was sind ihre wichtigsten Bestandteile und welche Herausforderungen gibt es bei der Weiterentwicklung?

Kernkomponenten von ADAS/AD: Sensoren und Aktoren, Prozessoren und ECUs, Algorithmen und Mapping

ADAS/AD-Systeme lassen sich in fünf Bereiche unterteilen:

Sensoren erfassen präzise die Fahrzeugumgebung. Deshalb nutzen aktuelle Fahrerassistenzsysteme eine Vielfalt an Sensortechnologien. Die größten Herausforderungen sind die Anpassung der Sensorgröße an den begrenzten Einbauraum, der Schutz externer Sensoren vor Umwelteinflüssen, die Optimierung von Sensorabdeckungen zur Signalqualitätserhaltung und die Entscheidung, ob Sensoren rohe Daten oder vorverarbeitete Signale für die zentrale Verarbeitung bereitstellen. Auch die Sicherstellung der funktionalen Sicherheit, eine kosteneffiziente Langlebigkeit und die Beibehaltung der Sensorleistung über ein breites Temperaturspektrum von - 40 °C bis 125 °C stehen im Fokus.

Prozessoren und Electronic Control Units (ECUs) hosten die Software-Algorithmen von ADAS/AD. Sie müssen harte Anforderungen an Rechenleistung, Energieeffizienz und Skalierbarkeit erfüllen. Die Einhaltung der funktionalen Sicherheit nach ASIL D, effektive Kühlkonzepte und Skalierbarkeit – um nur einige Themen zu nennen – prägen die Weiterentwicklung. Um hochspezialisierte Komponenten verschiedener Zulieferer auf einem einzigen Steuergerät zu integrieren ist ein effizientes Management der Lieferanten und ihrer Lieferartefakte erforderlich. Auch die immer größer werdenden Datenströme zu verarbeiten ist eine Herausforderung.

Software-Algorithmen bilden das Rückgrat der ADAS/AD-Funktionalität, indem sie die von den Sensoren und ECUs gelieferten Daten interpretieren und darauf basierende Entscheidungen treffen. Da mit jeder Serieneinführung neue Algorithmen zum Einsatz kommen und da diese Systeme nicht über Jahrzehnte gereift sind, spielt SOTIF (Safety Of The Intended Functionality) nach ISO 21448 eine zentrale Rolle. SOTIF zielt darauf ab, die Sicherheitsrisiken zu minimieren, die sich aus der Limitierung einer Funktionalität ergeben könnten.

Aktuatoren konvertieren die digitalen Entscheidungen der ADAS-Software in physische Aktionen wie Bremsen, Beschleunigen oder Lenken.

Mapping und präzise Lokalisierung sind für die Automatisierung ab Level 3 entscheidend. Die Integration von GPS-Daten mit hochauflösenden Karten und Umgebungsinformationen ermöglicht es AD-Systemen, die Position und Bewegung des Fahrzeugs genau zu bestimmen und zu steuern. Diejenigen Firmen, die die genauesten hochauflösenden Karten generieren können, haben die besten Chancen, das Rennen um die besten AD-Seriensysteme zu gewinnen.

Welche Sensortechnologien spielen für das automatisierte Fahren eine Rolle?

Für automatisiertes Fahren spielen verschiedene Sensortechnologien eine Schlüsselrolle.

Radare, wie Front- und Eckradare sind seit über 15 Jahren in Oberklassefahrzeugen und seit etwa zehn Jahren in Mittelklassemodellen verbaut. Ursprünglich fokussierten sie sich auf Adaptive Cruise Control (ACC) zur Geschwindigkeitsanpassung. Später kamen Funktionen wie Automatic Emergency Braking (AEB) und Rear Cross Traffic Alert (RCTA) hinzu.

In der aktuellen Radarentwicklung gibt es zwei Haupttrends: Kostengünstige Radarsysteme gewinnen durch den Einsatz von Machine Learning in der Signalverarbeitung an Funktionalität. Zugleich dienen hochpreisige Imaging-Radarsysteme zunehmend als primäre Frontradar-Lösungen ab Level 3. Imaging-Radare ermöglichen eine bessere Objekterkennung und -trennung, sind aber deutlich teurer im Vergleich zu etablierten Radarlösungen. Wie bei klassischen Radaren hängt aber auch hier die Leistungsfähigkeit von den Materialeigenschaften der erfassten Objekte, ihrer Größe und dem Einfallswinkel sowie der Anzahl der unerwünschten Echos ab.

Frontkameras sind als passive Sensoren für die Umfelderfassung auf öffentlichen Straßen – und somit für jegliche Automatisierungsbestrebungen – unverzichtbar. Sie liefern Farbinformationen der Umgebung, die unabdingbar sind, um Verkehrszeichen, Ampeln und Fahrbahnmarkierungen zu erkennen. Ihre Stärke liegt in der Objektklassifizierung und im Vergleich zu Radaren präziseren Winkelbestimmung. Herausforderungen bestehen in der Distanzmessung und Sensibilität bei schlechten Lichtverhältnissen.

LiDAR-Systeme sind aktive optische Sensoren. Sie nutzen nicht-sichtbare Lichtimpulse zur Umgebungserfassung. Dafür messen sie die Reflexionszeit der Lichtimpulse, um Distanzen zu berechnen und erzeugen detaillierte 3D-Modelle der Umgebung. LiDAR-Systeme bestimmen präzise Objektgrößen und -abstände, was sie für höhere Automatisierungsstufen unerlässlich macht. Bestimmte Szenarien wie überstehende Ladung (Bild1) können von Kamera oder Radar nur schwer erkannt werden. Allerdings sind LiDAR-Systeme wetteranfälliger und deutlich kostspieliger, weshalb sie vorrangig in Systemen ab Level 3 wie dem Mercedes Benz Drive Pilot zum Einsatz kommen.

Weitere Sensoren werden für spezifische ADAS/AD-Funktionen, insbesondere bei niedrigen Geschwindigkeiten wie beim Valet Parking oder Einparkassistenten eingesetzt. Hierzu zählen Birds-Eye-View Kameras und kostengünstige Ultraschallsensoren für die Distanzmessung im Nahbereich.

Save the date: 28. Automobil-Elektronik Kongress

Am 18. und 19. Juni 2024 findet zum 28. Mal der Internationale Automobil-Elektronik Kongress (AEK) in Ludwigsburg statt. Dieser Netzwerkkongress ist bereits seit vielen Jahren der Treffpunkt für die Top-Entscheider der Elektro-/Elektronik-Branche und bringt nun zusätzlich die Automotive-Verantwortlichen und die relevanten High-Level-Manager der Tech-Industrie zusammen, um gemeinsam das ganzheitliche Kundenerlebnis zu ermöglichen, das für die Fahrzeuge der Zukunft benötigt wird. Trotz dieser stark zunehmenden Internationalisierung wird der Automobil-Elektronik Kongress von den Teilnehmern immer noch als eine Art "automobiles Familientreffen" bezeichnet.

Sichern Sie sich Ihr(e) Konferenzticket(s) für den 28. Automobil-Elektronik Kongress (AEK) im Jahr 2024! Mit dem Rabatt-Code "82410102-AEL" sparen Sie 10%. Folgen Sie außerdem dem LinkedIn-Kanal des AEK und #AEK_live.

Im Channel zum Automobil-Elektronik Kongress finden Sie Rück- und Vorberichterstattungen sowie relevanten Themen rund um die Veranstaltung.

Automatisierung und Sensorwachstum

Auf jedem der fünf Level der Automatisierung ist ein spezifischer Sensormix erforderlich.

  • Level 0 – Keine Automation: Hier existieren lediglich Warn- und Informationsfunktionen wie Auffahr- und Spurverlassenswarnung.
  • Level 1 – Assistiertes Fahren: Hier beginnt die direkte Interaktion zwischen System und Fahrzeugsteuerung, wobei entweder in die Längs- oder Querführung eingegriffen wird, aber nicht simultan. Das Fahrzeug übernimmt entweder das Beschleunigen und Bremsen oder das Lenken für einen gewissen Zeitraum oder in spezifischen Situationen. Systeme wie Spurhalteassistent oder adaptiver Geschwindigkeitsassistent unterstützen den Fahrer, der jederzeit die Kontrolle übernehmen kann.
  • Level 2 – Teilautomatisierung: Auf dieser Stufe greifen Systeme gleichzeitig in Längs- und Querführung ein, wie beim Stauassistenten, der Adaptive Cruise Control (ACC) und Lane Keeping Assistant (LKA) kombiniert. Obwohl das Fahrzeug in bestimmten Szenarien selbstständig agieren kann, bleibt der Fahrer in der Verantwortung.
  • Level 3 – Bedingt automatisiertes Fahren: Das Fahrzeug übernimmt vollständig die Fahraufgabe innerhalb definierter Bedingungen (Operational Design Domain, ODD). Der Fahrer muss weiterhin bereit sein, auf Aufforderung die Kontrolle zu übernehmen.
  • Level 4 – Hochautomatisiertes Fahren: Fahrzeuge können innerhalb bestimmter Bereiche oder unter spezifischen Bedingungen vollständig autonom operieren, ohne dass eine Überwachung erforderlich ist. Der Fahrer kann seine Aufmerksamkeit vollständig anderen Dingen widmen und muss nur eingreifen, wenn das Fahrzeug außerhalb seiner ODD operiert. Dann muss es selbstständig zum Straßenrand fahren und auf weitere Anweisungen warten.
  • Level 5 – Vollautomatisiertes Fahren: Die höchste Stufe der Automatisierung, auf der das Fahrzeug sämtliche Fahraufgaben unter allen Bedingungen selbstständig durchführt. Es wird kein Fahrer mehr benötigt, Lenkvorrichtung oder das Gaspedal werden überflüssig.

Seit 2015 haben Premium-OEMs und einige ambitionierte Tier-1-Zulieferer immer wieder einen baldigen Serieneinsatz von Level 3-Systemen angekündigt. Tatsächlich können Endkunden aber nur sehr wenige solcher Systeme erwerben, und diese nur mit stark eingeschränkten ODDs. Gerade findet daher eine Rückbesinnung auf Level 2+-Systeme statt: Level 3-ähnliche-Funktionen wie autonome Autobahnpiloten, die aber weiterhin die Aufmerksamkeit und Überwachung der Fahrer erfordern. Hierfür ist weniger Entwicklungsaufwand erforderlich, der Verkaufspreis ist für Endkunden noch erschwinglich. Sobald mit Level 2+-Systemen der gewünschte Umsatz erzielt worden ist, wird der Fokus wieder auf Level 3 und höher gerichtet.

Ab Level 3 müssen alle oben aufgeführten Sensortechnologien zusammenspielen, um eine umfassende Erfassung der Fahrzeugumgebung zu gewährleisten und Systemausfälle durch Redundanzen zu kompensieren. Fallen mehrere kritische Sensoren gleichzeitig aus, beispielsweise durch Verschmutzung an Scheibe oder Kotflügel im Erfassungsbereich der Sensoren oder im Falle eines kritischen Systemversagens (z.B. aufgrund des Ausfalls der primären Energieversorgung) muss das System mindestens die vorgeschriebene Übergabezeit an den Fahrer von mehreren Sekunden überbrücken.

Für ein minimales Sensorset ab Level 3 gibt es kein Universalkonzept. Funktionen wie Valet Parking benötigen keine Sensoren mit weitreichender Detektionsfähigkeit. Ein Autobahnpilot mit Spurwechselfunktion braucht nach vorne und nach hinten gerichtete Sensoren mit hoher Auflösung und weitreichender Detektionsfähigkeit. Bild 3 illustriert eine mögliche Sensorwahl.

 

Level 4 erfordert eine erhebliche Zunahme der Sensoranzahl. Die Kosten hierfür sind deutlich höher, die Zielgruppe sind überwiegend Flottenbetreiber, die in Geschäftsmodelle wie das Taxigeschäft oder Lieferdienste der Zukunft investieren. Hier werden zurzeit teure Sensoren eingesetzt, wie ein rotierender LiDAR auf dem Fahrzeugdach, das zwischen 15.000 und weit über 25.000 € kostet.

Level 5 markiert schließlich den Übergang zu einer vollständigen Automatisierung. Die exakte Konfiguration der Sensortechnologien und deren Zusammenspiel für diese Stufe der Automatisierung bleibt – zumindest was Fahrzeuge mit Straßenzulassung angeht – eine Herausforderung für die zukünftige Forschung und Entwicklung. Besonders positiv wird sich ab Level 2+ der Einsatz und die Weiterentwicklung von Simulationslösungen zum Validieren des kompletten AD-Stacks auf die Serieneinführungsdauer auswirken.

Gleichzeitig müssen Standards wie ISO 21448 (SOTIF) reifen, um die Wahrscheinlichkeit für kritisches Fehlverhalten zu minimieren. In der Umfeldsensorik wird der Fokus weiterhin auf hoher Datenqualität, langer Haltbarkeit, Minimierung der Auswirkungen von Umfeldeinflüssen auf die Performanz, Minimierung des Bauraums sowie auf Kosteneffizienz liegen.

Denijel Sakić, Intive
(Bild: Intive)

Denijel Sakić

Director, ADAS Domain bei Intive

Sie möchten gerne weiterlesen?