Fahrerassistenzsysteme sind heute nicht mehr wegzudenken, denn sie verbessern in Pkw und Nutzfahrzeug den Komfort der Insassen, erhöhen die Sicherheit und leisten ihren Beitrag dazu, das Fahren wirtschaftlicher zu machen. Sie verbessern die Ökobilanz der Fahrzeuge und, last but not least, übernehmen sie vor dem Hintergrund des demographischen Wandels eine wichtige Funktion, indem sie älteren Mitmenschen dabei helfen, länger mobil zu bleiben. Aber wie werden sich diese Systeme in der Zukunft entwickeln? Hin zum autonomen Fahren, natürlich. Aber der Weg dahin ist noch weit, und es gibt noch die eine oder andere Herausforderung zu bewältigen.

Mike Thoeny (Delphi): Übergreifende Aufgabe ist es , Systeme zu schaffen, die mehr als nur ausfallsicher (fail safe) sind, nämlich fail operational.

Mike Thoeny (Delphi): Übergreifende Aufgabe ist es , Systeme zu schaffen, die mehr als nur ausfallsicher (fail safe) sind, nämlich fail operational. KD Busch

Mike Thoeny, beim Zulieferer Delphi Managing Director im Bereich Electronic Controls Europe, legte auf dem 20. Fachkongress „Fortschritte in der Automobil-Elektronik“ in Ludwigsburg einen abgestuften Fahrplan bis zum Ziel des voll autonomen Fahrens vor. Übergreifende Aufgabe ist es dabei, Systeme zu schaffen, die mehr als nur ausfallsicher (fail safe) sind: „fail operational“. Diese Systeme müssen so konzipiert sein, dass sie auch bei Totalausfall das Fahrzeug in einen sicheren Status bringen können – also nicht etwa mitten auf der Autobahn stehen bleiben, sondern sauber an den Rand fahren und erst dann kontrolliert anhalten. Während es bei heute gebräuchlichen Assistenzsystemen wie ACC, Blind Spot Detection oder Kollisionswarnung genügt, wenn sie ausfallsicher sind, werden künftige Assistenten mehr können müssen: sie müssen „fail operational“ sein. Das gilt ab dem Valet-Parking-System, das ab etwa 2022 in Serie bereitstehen soll, sowie für alle Systeme, die noch mehr automatisches Fahren bieten werden. Nach Thoenys Einschätzung werden solche Systeme um das Jahr 2025 auf die Straße kommen.

Lars-Gunnar Hedström (Scania): Bei einem Tempomaten mit aktiver Prädiktion lässt sich nicht nur Treibstoff sondern auch Zeit sparen.

Lars-Gunnar Hedström (Scania): Bei einem Tempomaten mit aktiver Prädiktion lässt sich nicht nur Treibstoff sondern auch Zeit sparen. KD Busch

ADAS im Nutzfahrzeug

Dass ADAS mittlerweile auch bei den Nutzfahrzeugen angekommen ist, verdeutlichte Lars-Gunnar Hedström, Engineering Director Systems Development bei Scania, in seinem Vortrag über „Vernetzte Fahrerassistenzsysteme und automatisierter Fahrbetrieb bei schweren Nutzfahrzeugen – Technik im Einklang mit Wirtschaftlichkeit“. Er erläuterte beispielsweise, wie sich bei einem Tempomaten mit aktiver Prädiktion nicht nur Treibstoff sondern auch Zeit sparen lässt, ging aber auch auf das Thema Platooning ein, bei dem mehrere Lkw über eine virtuelle Deichsel oder Appschleppstange verbunden sehr dicht hintereinander herfahren. Außerdem lieferte er Details zu Scanias Sesamm genannten modularen elektrischen System, das in diversen Schritten verschiedene Varianten zulässt.

Halbleiter für ADAS

Lars Reger (NXP):  „Wir müssen den menschlichen Faktor aus der Gleichung herausbekommen“

Lars Reger (NXP): „Wir müssen den menschlichen Faktor aus der Gleichung herausbekommen“ KD Busch

Lars Reger, Chief Technology Officer für den Bereich Automotive bei dem Chiphersteller NXP, zeigte in seinem Vortrag auf, wie der Fortschritt bei Fahrerassistenzsystemen mit der Entwicklung der Elektronik einhergeht. Er wies darauf hin, dass mehr als 90 Prozent der Verkehrsunfälle auf menschliches Versagen zurückzuführen sind – und dass immer noch die unfassbare Zahl von 1,3 Millionen Menschen jedes Jahr im Straßenverkehr getötet werden. „Wir müssen den menschlichen Faktor aus der Gleichung herausbekommen“, erklärte Reger. Der Beitrag des Halbleiterherstellers hierzu ist vielfältig. Das niederländische Unternehmen entwickelt und fertigt – teilweise in Kooperation mit Delphi – Bausteine für die V2X-Kommunikation, die Computing-Plattform „BlueBox“ für Fahrerassistenzsysteme der nächsten Generation sowie Halbleiter für Radarsensoren, um nur einige zu nennen. Die V2X-Chips für den Funkstandard IEEE 802.11p kommen beispielsweise beim Platooning zum Einsatz. Durch niedrige Latenzzeiten stellt die Funkverbindung die notwendige extrem schnelle Reaktion des Systems sicher, falls das Führungsfahrzeug einmal zum Bremsen gezwungen sein sollte.

Lars Reger (NXP) zum Thema Radar: 4D-Scanning mit Azimuth- und Höhenabtastung werden plastischere, räumlichere Radarbilder liefern, die zudem eine bessere Winkelauflösung bieten werden.

Lars Reger (NXP) zum Thema Radar: 4D-Scanning mit Azimuth- und Höhenabtastung werden plastischere, räumlichere Radarbilder liefern, die zudem eine bessere Winkelauflösung bieten werden. KD Busch

Eine wichtige Rolle für die Sicherheit in allen Abstufungen des automatisierten Fahrens spielen die Radarsensoren. Ein Ziel von NXP ist die Bereitstellung eines Single-Chip-Radarsensors, dessen Funktionen sich per Software definieren lassen. Die funktionale Vielfalt solcher Bausteine wird es ermöglichen, ein und denselben Radarchip für mehrere Anwendungen im Auto zu verwenden.

Die Entwicklungstendenzen im Bereich Radarsensorik lassen ahnen, welche Eigenschaften künftige Sensorgenerationen in diesem Bereich aufweisen werden: 4D-Scanning mit Azimuth- und Höhenabtastung werden plastischere, räumlichere Radarbilder liefern, die zudem eine bessere Winkelauflösung bieten werden. Weitere Merkmale sind bessere Unterdrückung von Funkstörungen, niedrigerer Stromverbrauch, höhere Skalierbarkeit und geringerer Raumbedarf. Mehrere Radarsensoren werden sich zu Clustern zusammenschalten lassen, etwa für Surround-View-Systeme oder als Nahfeld-Sensoren, wo sie die heutigen Ultraschall-Sensoren in den Stoßfängern vorteilhaft ersetzen könnten, betont Lars Reger.

Natürlich werden die Fahrerassistenzsysteme der Zukunft auch leistungsstarke Computing-Plattformen benötigen, um die Flut der Daten aus den vielen unterschiedlichen Sensoren zu verarbeiten und aus ihnen die richtigen Fahrentscheidungen abzuleiten. Eine solche Plattform sieht NXP in seiner jüngst vorgestellten Bluebox. Entwickelt als zentrale Prozessoreinheit für das autonome Fahren soll das System die Datenströme von Radar- und Lidar-Sensoren, Kameras und die per V2x von anderen Fahrzeugen gelieferten Informationen miteinander fusionieren, bewerten und daraus die Fahrstrategie ableiten. Das alles sei keine ferne Zukunftsmusik, betonte Reger: Bei vier der fünf größten OEMs liege die Bluebox bereits auf den Labortischen der Entwicklungsabteilungen.

Software und hochgenaue Karten

Dr. Amnon Shashua (Mobileye):  Die zum autonomen Fahren erforderlichen Funktionen lassen sich in drei Gruppen aufteilen: Sensing, Mapping und Driving.

Dr. Amnon Shashua (Mobileye): Die zum autonomen Fahren erforderlichen Funktionen lassen sich in drei Gruppen aufteilen: Sensing, Mapping und Driving.

Auf die Software zum autonomen Fahren konzentrierte sich der Vortrag von Amnon Shashua, Co-Founder und Chairman des Plattformherstellers Mobileye. Danach lassen sich die zum autonomen Fahren erforderlichen Funktionen in drei Gruppen aufteilen: Sensing, Mapping und Driving, zu deutsch Wahrnehmung, Orientierung und Fahrstrategie. Es handele sich dabei aber nicht um separate Blöcke. Vielmehr gelte es, alle drei Aspekte gleichzeitig zu bearbeiten. Aus dem Bereich Sensing ergebe sich das Umgebungsmodell. In traditionellen Assistenzsystemen ist das Ziel solcher Umgebungsmodelle, korrekte Aussagen ohne falsch-positive und falsch-negative Ergebnisse zu liefern. Die Entwicklung geht nach Ansicht von Shashua dahin, über diese Art von Systemen hinauszuwachsen und sämtliche möglichen Fahralternativen zu errechnen. „Das stellt wirklich einen großen Sprung dar, es ist eine große Herausforderung“, erläutert der Mobileye-Vordenker. Dabei ist die Verfügbarkeit einer hochgenauen, kontinuierlich aktualisierten Karte von großer Bedeutung, wobei ein Algorithmus die Sensor- und Kartendaten miteinander abgleicht. Die Verfügbarkeit solcher Karten ist Voraussetzung für das autonome Fahren, aber in etwa vier bis fünf Jahren werde es so weit sein. „Ich bin ziemlich sicher, dass wir dann diese hochgenauen Karten haben werden,“ lautet Shashuas Prognose.