Zahlreiche Ankündigungen rund um das autonome Fahren haben in der Öffentlichkeit inzwischen zu einer gewissen Ermüdung und Verwirrung geführt. Die Wurzeln für diese Verwirrung liegen sicherlich in den Anfängen des Hypes: Einige Automobil- und Chiphersteller stellten damals fast schon haarsträubende Behauptungen über die kurzfristige Umsetzbarkeit autonomer Systeme auf. Meinungsbildner, beflügelt von den Aussichten auf ein neues, goldenes Zeitalter computerbasierter Möglichkeiten, trugen die Diskussion um eine nahe bevorstehende Auslieferung autonomer Fahrzeuge schnell in die ganze Welt.

Sicherheit als entscheidender Ausgangspunkt

Bild 1: Für den Durchbruch zum autonomen Fahren muss der Automobilroboter zunächst einmal mindestens genauso sicher unterwegs sein, wie ein Mensch.

Bild 1: Für den Durchbruch zum autonomen Fahren muss der Automobilroboter zunächst einmal mindestens genauso sicher unterwegs sein wie ein Mensch. NXP, Kalray

Die Entwickler bei NXP haben seit diesen ersten Tagen viel dazugelernt: Zum einen, wie sich die für autonomes Fahren erforderliche Rechenleistung verbessern lässt und zum anderen, wie diese Technologien dann in der Fahrzeugproduktion umsetzbar ist – vom Kleinwagen bis zu High-End- und Oberklassemodellen. Beide Bereiche sind für Automobilhersteller von entscheidender Bedeutung. Was aber all diesen Überlegungen zugrunde liegt, ist das Thema Sicherheit. Sie ist ein entscheidender Ausgangspunkt und hätte eigentlich schon von Anfang an im Mittelpunkt der autonomen Revolution stehen sollen.

1,3 Millionen Menschen sterben jährlich bei Verkehrsunfällen. 90 Prozent dieser Unfälle sind auf menschliches Versagen zurückzuführen. Diese mehr als ernüchternden Zahlen gehören zu den Gründen die Entwicklung des autonomen Fahrens voranzutreiben. Doch in gewisser Weise verfehlen sie einen grundlegenden Punkt: Trotz all dem Schmerz und dem Leid, das durch diese Statistiken deutlich wird, machen menschliche Autofahrer ihre Sache im Kontext heutiger Verkehrsbedingungen gut. Wird dabei berücksichtigt, wie viel die Menschen fahren, und wie hoch die Menge an Fahrzeugen auf unseren Straßen ist, könnten die Unfallraten noch wesentlich höher sein. Die eigentliche Frage ist also nicht, wie ein Automobilroboter besser werden kann als ein Mensch, sondern wie er dessen Niveau an Sicherheit überhaupt erstmal erreichen kann.

Funktionale Sicherheit allein genügt nicht mehr

In den letzten 30 Jahren haben Automobilhersteller, Chiphersteller und andere führende Unternehmen die Disziplin der funktionalen Sicherheit geschaffen. Das war ein erster Schritt, um die Einführung von Elektronik im Fahrzeug sicher zu machen. Im Großen und Ganzen geht es bei der funktionalen Sicherheit darum, dass jede elektronische Komponente in einem Fahrzeug eine eigene Funktion hat und dass, wenn diese Komponente ausfällt, das System diesen Fehler erkennen und an das Fahrzeug melden muss. Wenn jemals eine orangefarbene oder rote Anzeige im Fahrzeug aufleuchtet und den Fahrer auffordert, den Motor, eine Komponente oder ein Steuergerät zu überprüfen, hat dies das funktionale Sicherheitssystem veranlasst.

Eckdaten

NXP und Kalray wollen in neuer Partnerschaft eine zentrale Automotive-Computerplattform entwickeln, bei der Sicherheit die Grundlage bildet. Diese Plattform ermöglicht mit spezialisierten Mikrocontrollern beider Unternehmen (S32-Prozessor von NXP und MPPA-Prozessoren von Kalray) genau die Aufteilung des maschinellen Denkens, die für autonomes Fahrens entscheidend ist. Ein erstes Integrationsprojekt ist die NXP-Bluebox, eine eingebettete Plattform für autonomes Fahren.

In der Welt des autonomen Fahrens beinhaltet Sicherheit immer diese funktionale Komponente. Sie bewegt sich aber rasend schnell in Richtung noch komplexerer Sicherheitsbereiche. Hier beschäftigen wir uns nicht mehr mit dem vergleichbar einfachen Konzept des Funktionierens oder Nicht-Funktionierens. Neue und sich entwickelnde Denkweisen zum Thema Sicherheit nehmen immer mehr Raum in der Diskussion um autonomes Fahren ein. Hierzu gehören Konzepte wie Verhaltenssicherheit oder Umweltsicherheit.

Verhaltens- und Umweltsicherheit

Bei der Verhaltenssicherheit geht es zunächst einmal um die Frage, ob sich das Fahrzeug korrekt fortbewegt: Fährt es auf dem Bordstein oder auf der Straße, ist das Tempo an den Verkehr angepasst, ist sein Fahrverhalten an alle Regeln und Vorschriften seiner direkten Umgebung angepasst? Noch fortschrittlichere und komplexere Konzepte der Verhaltenssicherheit befassen sich zudem auch damit, ob ein Fahrzeug sich zum Beispiel in bestimmten Situationen angemessen aggressiv oder defensiv verhält.

Die Umweltsicherheit befasst sich dagegen mit der Frage, wie ein Fahrzeug angemessen auf Veränderungen in der dynamischen Umgebung reagieren soll: Was würde passieren, wenn eine Kiste von der Ladefläche eines Kurierfahrzeugs direkt auf die Straße und vor das eigene Auto fällt? Wie wird ein autonomes Fahrzeug reagieren und wie lässst sich ein geeigneter Weg definieren, um dieser unerwarteten Herausforderung zu begegnen? Ein weiterer Aspekt der Umweltsicherheit ist der angepasste Umgang mit Wetterbedingungen wie Regen, Nebel oder Eis und anderen besonders anspruchsvollen Verkehrssituationen. Es ist sicherzustellen, dass die elektronischen Systeme und die Software, die dem autonomen Fahren zugrunde liegen, stets so funktionieren, dass das Fahrzeug einwandfrei auf jede mögliche Situation reagieren kann.

Berechnungsanforderungen für autonome Systeme

Bild 2: Autonome Wahrnehmung und Verarbeitung unterteilt sich in die Bereiche Sinne, Denken und Handeln. Das Denken erfolgt zweistufig, zuerst die Wahrnehmung und Modellierung der Umgebung, dann die sichere Planung eines Fahrweges.

Bild 2: Autonome Wahrnehmung und Verarbeitung unterteilt sich in die Bereiche Sinne, Denken und Handeln. Das Denken erfolgt zweistufig, zuerst die Wahrnehmung und Modellierung der Umgebung, dann die sichere Planung eines Fahrweges. NXP

Um autonome Funktionen sicher handhaben zu können, müssen die Systeme im Fahrzeug massive Rechenanforderungen erfüllen. Bei Betrachtung des Kontinuums der Anforderungen an die autonome Berechnung ist der Bereich der fortgeschrittenen Fahrassistenz typischerweise Level 1 und 2 der SAE-Autonomiestufen zuzuordnen. Die autonome Fahrassistenz beginnt bei Level 3 und erstreckt sich bis Level 5. Mit jeder weiteren Stufe der Autonomie steigen die Anforderungen an die Berechnung von Millionen von Anweisungen pro Sekunde bis hin zu Tera-Operationen pro Sekunde für Anwendungen wie das maschinelle Lernen.

NXP teilt die autonome Wahrnehmung und Verarbeitung in die konzeptionellen Bereiche Sinne, Denken und Handeln auf. Innerhalb des Bereichs Sinne erzeugen Technologien wie Radar, Lidar, Vision und V2X riesige Mengen an Rohdaten. Diese Daten werden dann durch das System im Rahmen des Denkens verarbeitet. So bewertet das System was gerade geschieht, um abschließend eine Entscheidung zu treffen und sein Handeln auf diese Entscheidung auszulegen. Diese Struktur ist in allen Arten von Roboterkonstruktionen gängig.

Die erste Welle von Entwicklern autonomer Fahrzeuge, die vor allem mit High-Performance-Consumer-GPUs und -CPUs arbeitete, versuchte, die Probleme der Autonomie mit einer Kombination aus massiver Rechenleistung und einem monolithischen Ansatz anzugehen. Sie kombinierten größte GPUs und CPUs und begannen mit der Analyse der Daten. Das Problem bei einem solchen Ansatz ist allerdings, dass der Nachweis von Sicherheit und Energieeffizienz dabei eine große Herausforderung ist. Deshalb entscheidet sich NXP, die Herausforderung mithilfe des Denk-Ansatzes anzugehen.

Erste Denkstufe: Wahrnehmung und Modellierung

Der hohen Leistungsanforderungen beim autonomen Fahren ergeben sich aus dem Bereich des Denkens. Weil hier gleich zwei wichtige Dinge passieren, hat NXP diesen Bereich unterteilt. Das erleichtert es den Kunden, Sicherheit umzusetzen.

Bild 3: Kalrays MPPA-Prozessoren sollen Aspekte des maschinellen Lernens bei der Wahrnehmung sicher abdecken.

Bild 3: Kalrays MPPA-Prozessoren sollen Aspekte des maschinellen Lernens bei der Wahrnehmung sicher abdecken. Kalray

Die erste Komponente konzentriert sich auf die Wahrnehmung und Modellierung der Umgebung um das Fahrzeug herum. Die zweite konzentriert sich auf die sichere Planung eines Fahrweges (Bild 2). Ein Grund für diese Aufteilung ist, dass die Skalierung der verschiedenen Teile der Anwendung oder Unterfunktionen an die Anforderungen an ein spezifisches Fahrzeug angepasst werden muss. Genauer gesagt, die Wahrnehmung und Modellierung hängt ab von der Anzahl der Sensoren und verschiedenen Sensortypen im Fahrzeug. Die Wegplanung ist abhängig von der Komplexität der vorhandenen Fahrfunktionen.

Die Wahrnehmung und Modellierung konzentriert sich auf die Identifizierung der Umgebung eines Fahrzeugs, einschließlich umliegender Objekte. Das System modelliert die Umgebung um das Auto herum, sodass es Objekte wie zum Beispiel einen Baum identifizieren und schließlich klassifizieren kann. Die Fähigkeit, ein Objekt um das Fahrzeug herum zu sehen, wahrzunehmen und zu identifizieren, wird teilweise durch Sensoren ermöglicht und bewegt sich dann in Bereiche, die eine Hochleistungsverarbeitung erfordern. Auch behält das System Objekte im Auge und bestimmt dabei Werte wie den Kurs ihrer Bewegung oder ihre Geschwindigkeit, um diese dann mit der restlichen Umgebung direkt um das Fahrzeug herum abzugleichen. So stellt es fest, ob es sich bei den Objekten um Fahrspuren, andere Fahrzeuge oder Fußgänger handelt.

Zweite Denkstufe: Planung eines Fahrweges

Sobald das System so ein Modell der Fahrzeugumgebung gebildet hat, muss es Entscheidungen auf der Grundlage seiner Wahrnehmung treffen. Diese Entscheidungen drehen sich um die sichere Routenplanung und sie beantworten die Frage, was das Auto tun wird. Wird es nach links abbiegen, langsamer oder schneller werden? Dies alles ist Bestandteil eines sicheren Manövrierens des Fahrzeugs, der Planung seiner Bewegung, der Vorhersage des Verkehrs und der verhaltensorientierten Planung der Route, um voranzukommen und das endgültige Streckenziel zu erreichen.

Die für die Routenplanung notwendige Leistung hängt also nicht ab von den Sensoren, sondern von der Komplexität des gewählten Entscheidungsalgorithmus und vom Umfang der Fahrfunktionen (vom Stauassistenten bis zum Autobahnpiloten, mit oder ohne Baustelle, mit oder ohne Zusammenführung der Fahrspur). Die Fähigkeit, diese beiden Dinge unabhängig voneinander zu skalieren, ist extrem bedeutsam. Sie hilft dem System, seine Effizienz zu steigern, wenn es um Leistung pro Watt geht. Außerdem ermöglicht sie auch einen leichteren Sicherheitsnachweis, da Hard- und Software isoliert voneinander arbeiten.

Entwicklung einer zentralen Automotive-Computerplattform

Bild 4: Die Embedded-Plattform Bluebox von NXP fürs autonome Fahren integriert Kalrays MPPA-Prozessoren für die maschinelle Wahrnehmung.

Bild 4: Die Embedded-Plattform Bluebox von NXP fürs autonome Fahren integriert Kalrays MPPA-Prozessoren für die maschinelle Wahrnehmung. NXP

Auf der diesjährigen CES in Las Vegas haben NXP und Kalray eine Partnerschaft zur gemeinsamen Entwicklung einer zentralen Computerplattform geschlossen, bei der Sicherheit die Grundlage bildet. Diese Plattform ermöglicht genau die Aufteilung des Denkens, die für die Industrialisierung des autonomen Fahrens entscheidend ist.

Für die neue Plattform stellt NXP mit seinem leistungsstarken S32-Prozessor den Host-Prozessor, womit gleichzeitig auch die besonders sicherheitsrelevanten Systeme ASIL D und ASIL B integriert sein werden. Diese Eigenschaften sollen die Plattform dabei unterstützen, die hohen Anforderungen des zentralen Computerbaus im Automobilbereich zu erfüllen und die Funktionen anzugehen, die für eine optimale Routenplanung wichtig sind. Kalray stellt seine bewährten MPPA-Prozessoren zur Verfügung, um Aspekte des maschinellen Lernens bei der Wahrnehmung sicher abzudecken (Bild 3).

Das erste Beispiel für diese Partnerschaft ist die Integration der MPPA-Prozessoren von Kalray in die NXP-Bluebox, eine eingebettete Plattform für das autonome Fahren (Bild 4). Diese addressiert die Herausforderungen des autonomen Fahrens in Bezug auf Energie und Sicherheit mit ARM-basierter Technologie und ist so konzipiert, dass sie offene Standards unterstützen wird.