Bereits 2012 hatten mehrere wissenschaftliche Studien gezeigt, dass automatisierte Vollbremssysteme (AEB) die Zahl der Auffahrunfälle um 40 Prozent verringerten und imstande waren, die Anzahl damit einhergehender Todesfälle um 15 Prozent zu senken. Dies war die Zeit, als die Idee von der „Vision Zero“ sich global verbreitete.

Bild 1: Zwei tödliche Unfälle in Verbindung mit autonom fahrenden Autos haben den Hype um die Autonomie beendet.

Bild 1: Zwei tödliche Unfälle in Verbindung mit autonom fahrenden Autos haben den Hype um die Autonomie beendet. Yole Développement

High-Tech konnte etwas für das Leben der Menschen tun, und der ADAS-Mythos wurde über alle Maßen aufgeblasen. Tatsächlich wuchs hinter dem ADAS-Akronym eine andere Story heran. Zwei Unternehmen stehen sprichwörtlich für den Wandel bei den Zielen von ADAS: Mobileye und Tesla. Damals wurde ADAS erstmals unter einem völlig neuen Blickwinkel betrachtet – dem der Autonomie.

ADAS ist nicht Autonomie

Tatsächlich führte diese veränderte Herangehensweise an ADAS zum Bruch zwischen den beiden Unternehmen, als J. Brown 2016 in einem Tesla Model S starb, das im „Autopilot“-Modus unter Einsatz eines auf dem Mobileye EyEQ3 basierenden ADAS-Systems unterwegs war (Bild 1). Der Rest ist Geschichte. Zehn Monate später wurde Mobileye von Intel für 15,3 Milliarden US-Dollar übernommen, und es war damals auf Kurs, autonome Fahrzeuge weltweit mit seinen 50 US-Dollar teuren SoCs anzutreiben.

Bild 2: Was benötigt Autonomie im Fahrzeug wirklich? Immer mehr und leistungsfähigere Sensoren sind eine Antwort auf diese Frage.

Bild 2: Was benötigt Autonomie im Fahrzeug wirklich? Immer mehr und leistungsfähigere Sensoren sind eine Antwort auf diese Frage. Yole Développement

Im Jahr 2020 wird ADAS innerhalb der Branche überwiegend als die Technologie angesehen, die hilft, die von den SAE-Technikern 2014 festgelegte Autonomie-Leiter zu erklimmen – trotz eines Mangels an Belegen dafür, dass sie je imstande war, auch nur eine einzige Sprosse zu erklimmen. ADAS wurde dafür mit den pompösen Leistungsstufen Level 2, Level 2+ und jetzt Level2++ belohnt. Was die Autonomie angeht, sieht die Realität womöglich anders aus.

Zu hohe Erwartungen

Im Jahr 2020 befinden sich zentrale ADAS-Funktionen wie AEB inzwischen seit mehr als zehn Jahren in der Entwicklung. Der Anteil verkaufter Fahrzeuge mit AEB hat sich branchenweit erheblich erhöht. Er liegt inzwischen bei über 30 Prozent, und bis 2022 wird AEB mehr oder weniger obligatorisch geworden sein. Die Sicherheitsleistung jedoch hat sich nicht besonders stark verändert. Die US-Regulierungseinrichtung IIHS hat im Juni 2019 auf einer Tagung bestätigt, dass AEB die Zahl der Auffahrunfälle um 50 Prozent und die damit verbundenen geltend gemachten Personenschäden um lediglich 23 Prozent verringert. Im gleichen Jahr zeigte ein AAA-Test in vielen Situationen deutliche Leistungsbeschränkungen bei der Erkennung von Fußgängern auf – etwa bei Kindern, Gruppen, in Kurven oder bei Nacht.

Bild 3: Innovationsszenarien für das autnome Fahren: mehr oder neues Computing, mehr oder neue Sensoren?

Bild 3: Innovationsszenarien für das autnome Fahren: mehr oder neues Computing, mehr oder neue Sensoren? Yole Développement

Das Bemühen um Sicherheitsverbesserungen scheint trotz zehn Jahren technologischer Upgrades beiseite gefallen zu sein. Der Grund hierfür hätte sein sollen, dass sich die Leistung in Hinsicht auf die Autonomie verbessert hat. Aber das ist unglücklicherweise nicht der Fall. Der große Schritt, auf den alle in der Branche warteten, war Level 3: die Fähigkeit, die Augen von der Straße abzuwenden. Diese Stufe wurde als Einstieg in die Autonomie festgelegt. Von Tesla abgesehen war Audi das erste Unternehmen, das dies beim A8 des Jahres 2018 ausprobierte. Aber 2020 gibt Audi den Versuch auf. Das war eine wichtige Lehre für die anderen Vorkämpfer des autonomen Fahrens. Lexus bewirbt derzeit einen mit ähnlicher Technologie ausgestatteten LS mit Level 2. Wie also lässt sich die Kluft zwischen den Erwartungen an ADAS und seiner tatsächlichen Leistung erklären? Ist es die Performance der Sensoren? Sind mehr Sensoren notwendig, wie etwa Lidars und Wärmekameras? Ist noch mehr Rechenleistung nötig? Oder eine Kombination von allem davon (Bilder 2 und 3)?

Autonomie ist da – im kleinen Stil

Bild 4: Die OEMs müssen die E/E-Architektur umdenken, der Trend geht über Domainarchitekturen hin zu Zentralisierung in einem Supercomputer.

Bild 4: Die OEMs müssen die E/E-Architektur umdenken, der Trend geht über Domainarchitekturen hin zu Zentralisierung in einem Supercomputer. Yole Développement

Tatsächlich liegt die Antwort woanders. Während viele in der Automobilbranche behaupten, dass es autonome Fahrzeuge so schnell nicht geben wird und dass sie vermutlich nur eine Wunschvorstellung seien, sind derzeit weltweit mehr als 4000 autonome Fahrzeuge überwiegend zu Forschungs- und Entwicklungszwecken auf den Straßen unterwegs. Ende 2019 waren Robotaxis bereits Realität: Damals startete Waymo seinen Service „Waymo one“. Das Unternehmen nutzt derzeit rund ein Viertel seines etwa 600 Fahrzeuge umfassenden Fuhrparks zur Beförderung von Kunden im Rahmen eines fahrerlosen Taxiservice und bereitet sich darauf vor, nach Eröffnung seines Werks in Michigan jährlich Zehntausende von Fahrzeugen nachzurüsten.

Waymo ist dabei nicht allein. Es gibt auch noch Cruise von General Motors, das von Lyft unterstützte Aptiv, das Apollo-Programm Baidu, das von Amazon unterstützte Zoox, das von Ford und VW unterstützte Argo.ai, das von Alibaba gestützte Autox und das von Toyota unterstützte Pony.ai. Mehr als 20 Unternehmen weltweit sind mit völlig autonomen Fahrzeugen auf den Straßen unterwegs. Und dabei sind Uber und womöglich noch andere kleinere Akteure noch nicht einmal mitgezählt.

Der tragische Tod von E. Hertzberg im März 2018 hat gezeigt, dass der leichtsinnige Verlass auf eine Überwachung durch Menschen im Bereich autonomer Fahrzeuge tödlich sein kann. Es ist mit Sicherheit einfach, ein in gewissem Grad autonomes Fahrzeug auf die Straße zu bringen, doch nur wenige Unternehmen sind zuversichtlich genug, um es mit wirklich autonomen Fahrzeugen zu versuchen. Waymo ist vermutlich das erste Unternehmen, das der Branche eine Art Messlatte dafür liefert, was für wirklich autonomes Fahren notwendig ist.

Was Autonomie wirklich braucht

Am Anfang steht dabei ein Sensorsatz, der etwa zehnmal so viele Daten liefert wie die aktuellen ADAS-Systeme, zwei- bis dreimal so viele Sensoren nutzt und zudem eine zwei- bis dreimal so hohe Auflösung bietet. Was die Rechenleistung angeht, so geht es dabei um eine Verhundertfachung der Leistung. Während typische ADAS-Systeme unter Einsatz von Intel-Mobileye-Chips den Sprung von 0,25 TOPS (zehnmal so viel wie ein Laptop der Oberklasse) auf 2,5 TOPS beim neuen EyeQ4-Chip machten, nutzten Roboterautos bereits mehr als 250 TOPS. Zwischen beidem liegen Welten.

Während ein ADAS-System mit Level 2 etwa 400 US-Dollar kostet, würde die Ausrüstung zur robotischen Nachrüstung 130.000 US-Dollar kosten. Das ist mehr als 300 Mal so viel wie beim ADAS. Und trotzdem steht die Fähigkeit dieser Robotersysteme, besser zu fahren als ein durchschnittlicher Mensch, noch immer in Zweifel. Die ADAS-Unternehmen könnten die Autonomie-Leiter irgendwann erklimmen, aber das wird mehr Geld, mehr Zeit und zusätzliche Innovationen erfordern.

Robotaxis nicht ignorieren

Bild 5: Die Entwicklung des ADAS-Marktes mit Blick auf Computing und Sensorik.

Bild 5: Die Entwicklung des ADAS-Marktes mit Blick auf Computing und Sensorik. Yole Développement

Wie bei jeder disruptiven Technologie werden Robotaxis von den derzeitigen Platzhirschen übersehen. Nur neu aufkommende Akteure wie Tesla sind bereit, enorme Summen in die Entwicklung eines eigenen FSD-Chips (Full Self Driving) zu investieren, der derzeit nur 70 TOPS erreicht. Das ist eine nette Gemini-Kapsel, aber noch kein Eagle Mond-Lander. Trotz allen Hypes bei ADAS zeichnet sich die wirkliche Revolution im Bereich der autonomen Fahrzeuge ab, und Amazon und Alibaba sind vermutlich die größten Bedrohungen für die VWs und Toyotas dieser Welt, trotz aller mit Recht zum autonomen Fahren prahlenden Teslas und XPengs.

E/E-Architektur umdenken

Selbst wenn die ADAS-Fahrzeuge die SAE-Levels stufenweise erklimmen, hat sich die von den meisten OEMs genutzte E/E-Architektur seit den 1960er Jahren und dem Beginn der Elektroarchitektur nicht verändert. Noch immer wird eine auf dem Prinzip „Eine ECU, eine Funktion“ aufbauende verteilte E/E-Architektur verwendet. Im Laufe der Zeit kamen zusätzliche Sensoren zum Einsatz, die weitere Sicherheits-, Erfassungs-, Antriebs-, Infotainment- oder Komfortfunktionen ermöglichen, und Oberklasse-Autos können mehr als 150 ECUs einbetten. Doch das Hinzufügen von mehr ECUs führt zu immer komplexeren, schwereren und teureren Kabelsträngen. Um die Leiter zu erklimmen, müssen die OEMs diese Architektur verändern und bereichsspezifische Steuergeräte für die fünf bereits erwähnten Bereiche entwickeln (Bild 4).

Audi hat mit seinem zFAS genau hiermit begonnen. Bei diesem System sind die nach vorn gerichtete ADAS-Kamera, das Fernradar und das Lidar sowie weitere Sensoren miteinander verknüpft. Die gesamte mit diesen Sensoren verbundene Verarbeitung läuft bei diesem Steuergerät über einen EyeQ3-Vision-Prozessor, SoCs von Altera und Nvidia sowie eine zentrale Steuereinheit (MCU) von Infineon ab.

Tesla macht dies bei seiner Autopilot-Hardware in einer anderen Größenordnung, mit einer Domainsteuerung bestehend aus acht Platinen und dreimal mehr Komponenten als beim zFAS. Die Autopilot-Hardware kann nicht nur die große Menge der von den Sensoren kommenden Rohdaten zusammenführen, sondern auch Audio, Navigation und HF-Kommunikation steuern sowie zusätzlich Funk-Updates ermöglichen. Es war für Tesla einfacher, eine derartige Architektur zu entwickeln, da das Unternehmen komplett bei null anfing. Doch wenn traditionelle OEMs automatisierte Fahrfunktionen ermöglichen wollen, müssen sie sich auf eine stärker zentralisierte E/E-Architektur hinbewegen.

Der ADAS- und Roboauto-Markt

Es wird erwartet, dass der Umsatz des Sensor- und EDV-Marktes für ADAS-Fahrzeuge 2020 8,6 Milliarden US-Dollar erreicht (Bild 5). Dieser Markt wird durch Radar- und Kameramodule mit Umsätzen von 3,8 beziehungsweise 3,5 Milliarden US-Dollar angetrieben, da diese für AEB-Systeme unverzichtbar sind. Abgerundet wird das System durch die EDV für das ADAS-System mit Umsatzerlösen von 1,3 Milliarden US-Dollar und das Lidar, das umsatzmäßig nicht weiter ins Gewicht fällt. Zwischen 2020 und 2025 soll der Markt auf mehr als 22 Milliarden US-Dollar anwachsen, bei einem CAGR von 21 Prozent. Da ein weiterer Anstieg der Durchdringungsrate der AEB-Systeme erwartet wird, dürften die mit Radar- und Kameramodulen verbundenen Umsatzerlöse 9,1 beziehungsweise 8,1 Milliarden US-Dollar erreichen. Die EDV für ADAS dürfte 3,5 Milliarden US-Dollar erreichen und die Umsatzerlöse für Lidar, das nur in Oberklassenfahrzeugen zum Einsatz kommt, womöglich 1,7 Milliarden US-Dollar.

Bei den Roboterfahrzeugen dürften die mit Kameras, Radar und Lidar verbundenen Einnahmen 2020 145 Millionen US-Dollar erreichen, wobei 107 Millionen auf das Lidar selbst entfallen dürften, gefolgt von Kameras und Radar mit 27 beziehungsweise 11 Millionen US-Dollar. Im Jahr 2025 dürften sich die durch diese Sensoren generierten Umsätze auf 956 Millionen US-Dollar belaufen, bei einem CAGR von fast 46 Prozent. Auf Lidar werden davon 639 Millionen US-Dollar entfallen und auf Kameras und Radar 228 beziehungsweise 89 Millionen US-Dollar. Zugleich dürfte die Jahresproduktion von Roboterfahrzeugen von heute 4000 auf 25.000 Stück ansteigen. Dies schließt Robotaxis und Shuttles mit ein.

Fazit

Es wurden große Hoffnungen darauf gesetzt, dass ADAS-Fahrzeuge ein autonomes Fahren ermöglichen würden. Inzwischen jedoch haben die OEMs erkannt, dass es sehr viel komplexer ist als erwartet, ADAS-Fahrzeuge autonom zu machen, da unterschiedliche Arten von Sensoren integriert und große Datenmengen verarbeitet werden müssen. Zusammenstöße dürfen nicht passieren. Robotaxis haben sich derweil zu einer Realität entwickelt. Vorangetrieben werden sie von großen Technologieunternehmen, die in der Lage sind, mit Chips von mehr als 250 TOPS riesige Datenmengen zu verarbeiten. Robotaxis bringen nun die ADAS-Entwicklung durcheinander, und die großen Technologieunternehmen drängen immer mehr in die ADAS-Welt. Waymo ist bereits Partnerschaften mit Fiat-Chrysler, Renault-Nissan und zuletzt Volvo eingegangen, um Robotaxis zu entwickeln. Andere ähnliche Partnerschaften dürften in naher Zukunft folgen.