Über 600 Teilnehmer besuchten den 19. Fachkongress Automobil-Elektronik in Ludwigsburg.

Über 600 Teilnehmer besuchten den 19. Fachkongress Automobil-Elektronik in Ludwigsburg. Anna McMaster

Mit seinem Vortrag „Hochautomatisiertes Fahren – Chancen und Herausforderungen“ eröffnete Dr. Christoph Grote, Bereichsleiter Forschung, Neue Technologien und Innovationen bei der BMW Group, den Themenblock zum automatisierten Fahren. Gleich zu Beginn stellte er fest, was ihm auf diesem Kongress so gut gefällt: „Auf der einen Seite spüren wir hier in Ludwigsburg den sportlichen Wettbewerb um die besseren Funktionen, und auf der anderen Seite geht es auch um den kollaborativen Anteil der Automobilindustrie.“ Er ging dann auf diverse Verarbeitungsblöcke im Regelkreis zwischen Sensoren und Bewegungssteuerung ein, wobei sich die OEMs bei jedem einzelnen dieser Blöcke „gut überlegen“ sollten, ob sie sich über diesen Block differenzieren wollen oder ob es nur ein Commodity sein soll, denn über jeder Implementierung schwebe quasi die Frage „Kann ich es dem Kunden (als OEM-spezifischen Mehrwert) verkaufen?“

Dr. Christoph Grote (BMW): „Gemeinsame Roadmaps definieren und nicht nur über die Hardware sondern auch über den ganzen Stack nachdenken!“

Dr. Christoph Grote (BMW): „Gemeinsame Roadmaps definieren und nicht nur über die Hardware sondern auch über den ganzen Stack nachdenken!“ Anna McMaster

BMW sieht die vorausschauenden Sensoren übrigens als „ähnlich wichtig wie die On-Board-Sensorik“ an. Lidar ist für BMW „ein ganz wichtiger Sensor“, denn „es gibt kaum einen Sensor, der ein so gutes Rohsignal liefert und dabei derart robust und präzise ist“. Für ihn ist „Lidar per se eine Technologie, die man hervorragend ins Auto integrieren kann und die nicht teuer sein muss.“ Daher appellierte er an die Branche, Lidar-Sensoren stärker zu industrialisieren.

Dr. Grote erklärte, dass gerade im Bereich Bildverarbeitung noch viel Arbeit vor uns liegt. Vor allem im innerstädtischen Bereich gebe es noch viele Aufgaben zu erledigen, die ein geübter Fahrer derzeit noch viel besser beherrscht. „Wir haben einen riesigen Datenstrom … und werden sehr viel mehr Objekt- und Featurefusion durchführen müssen“ – und zwar auch mit Signalen von hochauflösenden Kameras sowie von Lidar-Sensoren. Er forderte die Konferenzbesucher auf, gemeinsame Roadmaps zu definieren und „nicht nur über die Hardware sondern auch über den ganzen Stack nachzudenken.

Bildverstehen

Dr. Uwe Franke (Daimler): „Lidar und Stereokamera (werden sich) am Ende des Tages wunderbar ergänzen.“

Dr. Uwe Franke (Daimler): „Lidar und Stereokamera (werden sich) am Ende des Tages wunderbar ergänzen.“ Anna McMaster

Damit lieferte er die Steilvorlage für den nächsten Vortrag, den Dr. Uwe Franke, Leiter der Arbeitsgruppe „Bildverstehen“ bei Daimler, zum Thema „Bildverstehen als Grundlage autonomer Fahrfunktionen“ hielt. Er stellte zunächst die „Computer-Vision-Verfahren“ vor, mit denen das hochautomatisierte Fahrzeug Bertha im August 2013 seinen Weg durch belebte Städte wie Heidelberg und enge Schwarzwalddörfer gefunden hat. Bei Berthas optischer Sensorik machte Daimler unter anderem den Schritt von Pixeln zu Stixeln. So wurden aus 500.000 3D-Punkten etwa 500 bis 1000 Stixel genannte Repräsentationen einzelner Bildelemente, die das System unabhängig mit Hilfe des 6D-Prinzips räumlich und in ihrem Bewegungsvektor weiterverfolgt. Er stellte aber auch fest, dass sich „Lidar und Stereokamera am Ende des Tages wunderbar ergänzen“ würden.

Eine Schlussfolgerung aus dem Projekt Bertha lautet für Dr. Franke folgendermaßen: „Wir waren sehr gut im Messen, aber nicht im Verstehen.“ Daher sei eine Intentionserkennung sehr wichtig, wenn beispielsweise eine ältere Dame am Zebrastreifen erst nach dem Auto über die Straße überqueren möchte. Außerdem müsse die Erkennung kleiner Objekte verbessert werden. Auf Grund der Fortschritte im maschinellen Lernen, würden sich die Kameras der nächsten Generation von Messsystemen zu Geräten enwickeln, die Szenen wirklich verstehen.

Nach Rückfragen aus dem Auditorium erklärte Dr. Franke, dass bei Daimler in den Fahrzeugen jenseits der A-Klasse die Stereokamera bereits auf der Roadmap stehe. Auf eine Frage eines Intelmitarbeiters antwortete er abschließend, dass es gelte, Millionen Pixel pro Frame zu verarbeiten, und dafür sind sehr hohe Rechenleistungen erforderlich: „Ich verspreche Ihnen, wir erfinden Algorithmen, die diese Rechenleistung wirklich konsumieren kann.“

Laserscanner Scala

Jean-François Tarabia (Valeo): „Eine redundante 360-Grad-Sensierung ist für das hochautomatisierte Fahren unbedingt notwendig.“

Jean-François Tarabia (Valeo): „Eine redundante 360-Grad-Sensierung ist für das hochautomatisierte Fahren unbedingt notwendig.“ Anna McMaster

Jean-François Tarabia, Vorstand Forschung & Entwicklung und Produktmarketing bei Valeo informierte in seinem Vortrag „Lasertechnologien für die Umfelderkennung“ zunächst über diverse Themen im Rahmen von ADAS, automatischem Parken sowie HAF und stellte die einzelnen Sensorprinzipien vor, ging aber auch auf kritische Übergabeszenarien ein. Er betonte, dass eine redundante 360-Grad-Sensierung für HAF unbedingt notwendig ist.

Da aktuelle Laserscanner von Velodyne, Sick und anderen nicht Automotive-Grade sind, hat Valeo aus einer exklusiven Partnerschaft mit Ibeo heraus den Lidar-Sensor Scala entwickelt, der 2017 in einem Audi als Weltpremiere auf den Markt kommen wird. Anschließend stellte er Scala vor und ging auch auf eine Kooperation mit Mobileye im Bereich der Echtzeitverarbeitung mit hochgradig neuralen Netzwerken ein.

Ansätze für ADAS von morgen

Dr. Hans-Gerd Krekels (ZF TRW): „Wir werden vermutlich den Fahrer mit einer Kamera moni­toren müssen.“

Dr. Hans-Gerd Krekels (ZF TRW): „Wir werden vermutlich den Fahrer mit einer Kamera moni­toren müssen.“ Anna McMaster

Unter das Motto „Systeme und Architekturansätze zukünftiger Fahrerassistenzsysteme“ stellte Dr. Hans-Gerd Krekels, Director Active Safety Engineering bei ZF TRW, seinen Vortrag. Dabei erläuterte er, wie ZF TRW sich dem Thema Funktionsarchitekturen näherte und welche Bedeutung die Sensordatenfusion hat. „Wir werden vermutlich den Fahrer mit einer Kamera monitoren müssen“, stellte der in diesem Zusammenhang fest, denn nur so wisse das Sensorsystem, ob der Fahrer noch in der Loop ist. „Auch wir glauben, dass der Laserscanner (beim automatisierten Fahren) ins Fahrzeug kommt“, unter anderem, weil damit „eine höhere Art der Verifizierung“ möglich ist. Allerdings sieht er den Laserscanner aus Kostengründen zumindest vorerst „nicht in der breiten Masse“.

Im Bereich der Betriebssysteme für Safety-Anwendungen müsse sich die Branche auch nach Lösungen aus anderen Branchen umschauen, denn die Safety-OS im Rahmen von Autosar/OSEK seien bei der Verwendung in Kombination mit Grafik-Prozessoren nicht ideal. Spannend werde die Verbindung dieser Betriebssysteme mit der Autosarwelt.

Mit höheren Automatisierungsgraden seien auch Redundanzen erforderlich – auch auf der Aktuatorseite. Um den geforderten Fail-Operational-Betrieb zu ermöglichen, sei sowohl eine Redundanz der Stromversorgung als auch auf Systemebene erforderlich.

Architektur für HAF

Stephan Stass (Bosch): „Subsysteme ... müssen auf Basis ... einer fail-operational oder fail-degraded Systemarchitektur entwickelt werden.“

Stephan Stass (Bosch): „Subsysteme … müssen auf Basis … einer fail-operational oder fail-degraded Systemarchitektur entwickelt werden.“ Anna McMaster

Welche „Auswirkungen auf die Fahrzeugarchitektur durch automatisiertes Fahren“ sich ergeben, das brachte Stephan Stass, Produktbereichsleiter Chassis Systems Control und Fahrerassistenzsysteme bei Bosch, den über 600 Vortragsbesuchern näher. Wie wichtig ADAS und HAF für Bosch sind, das zeigten die Zahlen, denn 2016 werde Boschs Bereich Fahrerassistenz erstmals die Umsatzgrenze von 1 Milliarde Euro überschreiten.

Nach der Definition des (hoch)automatisierten Fahrens (Level 3 und 4) erläuterte er, dass beim automatisierten Fahren im Jahr 2020 der Level 3 gemeint sei. Auch auf das Systemverhalten und das Rückfallverhalten auf eine sichere Ebene ging er ein, um dann zusätzlich zu diversen Beispielen von Topologien und Degradation-Levels zu erklären, welche Fehler eintreten können und welche Lösungsstrategien dafür sinnvoll sind. Abhängig von rechtlichen Anforderungen, Sicherheitsanforderungen und OEM-spezifischen Präferenzen seien unterschiedliche Redundanz(eben)en erforderlich. In jedem Fall seien die Architekturanforderungen an hoch- und vollautomatisiertes Fahren viel höher als an teilautomatisiertes oder assistiertes Fahren. Sein Fazit: „Subsysteme und und Komponenten müssen auf Basis der Anforderungen von einer fail-operational oder fail-degraded Systemarchitektur entwickelt werden.“

Automatisches Parken

Dr. Stefan Ortmann (Volkswagen) zum Thema (automatisches) Parken: „Das Thema Infra­struktur wird uns immer mehr beschäftigen.“

Dr. Stefan Ortmann (Volkswagen) zum Thema (automatisches) Parken: „Das Thema Infra­struktur wird uns immer mehr beschäftigen.“ Anna McMaster

„Parken – Fahraufgabe der Vergangenheit“ konstatierte Dr. Stefan Ortmann, Abteilungsleiter Fahrerassistenzsysteme bei Volkswagen, bereits im Titel seines Vortrags, den er mit den Worten „Parken an sich ist ja nicht besonders attraktiv“ begann. „Das wesentliche Ziel der Weiterentwicklung der Parksysteme ist die komplette Automatisierung des Parkens“, erläuterte Dr. Ortmann, um dann aufzuzeigen, wie die „Fahraufgabe Parken“ für den Fahrer durch fernbedientes Parken, trainiertes Parken und den Parkhauspiloten schrittweise aus dem Alltag verschwinden werde. „Das Thema Infrastruktur wird uns immer mehr beschäftigen“, konstatierte er, um dann auch einen Bogen zu den Onlinediensten zu spannen. Ziel sei letztendlich ein Valet-Parking-System.

Architekturen und Halbleiter

Douglas L. Davis (Intel) referierte zum Thema „Technology Driving Change – An Architectural Perspective“.

Douglas L. Davis (Intel) referierte zum Thema „Technology Driving Change – An Architectural Perspective“. Anna McMaster

Drei hochrangige Vertreter von Halbleiterherstellern waren in diesem Jahr als Redner auf der Bühne in Ludwigsburg. Douglas L. Davis,  Vice President und General Manager der Internet of Things Group von Intel, hielt eine bis in den letzten Showeffekt durchgeplante Rede zum Thema „Technology Driving Change – An Architectural Perspective“, die natürlich simultan ins Deutsche übersetzt wurde. Den Inhalt dieser Präsentation können wir hier nicht wiedergeben: man muss sie einfach erlebt haben.

Keine Showelemente aber dafür umso mehr Informationen enthielt der Vortrag von Klaus Meder, President Automotive Electronics bei Bosch, zum Thema „Halbleitermaterialien und Sensoren für zukünftige Fahrzeuganwendungen“. Im Mittelpunkt standen dabei die MEMS-Elemente, aber zunächst berichtete er über vier Trends. Obwohl heute die Fahrzeuge bereits mindestens 40 ECUs, 50 bis 100 Mikroprozessoren und über 50 MEMS-Sensoren enthalten, prognostiziert er diesen Bauteilen ein signifikantes Wachstum – ermöglicht unter anderem durch den zweiten Trend, die Miniaturisierung. Als Beispiel hierfür führte er den SMI 700 an, den „mit Abstand kleinsten MEMS-Sensor auf dem Markt“.  Als dritten Trend stellt er fest, dass die Consumer-Elektronik Richtung Automotive tendiert, aber er warnte auch: „Man kann nicht generell Consumer-Bauelemente für das Automobil ertüchtigen.“ Für nicht sicherheitsrelevante Anwendungen wie Navigation oder Alarmanlage seien allerdings auch der Transfer und ein Upgrade von CE-Sensoren möglich. Exakt das hat Bosch beim Sechsachsen-MEMS-Baustein SMI 130 gemacht.

Klaus Meder (Bosch): „Man kann nicht generell Consumer-Bauelemente für das Automobil ertüchtigen.“

Klaus Meder (Bosch): „Man kann nicht generell Consumer-Bauelemente für das Automobil ertüchtigen.“ Anna McMaster

Als vierten Trend hat Klaus Meder „More than Moore“ für neue Applikationen ausgemacht. Ein Beispiel hier ist ein neues Fernlichtsystem, das mit Hilfe von oszillierenden MEMS-Mikrospiegeln einen blauen Laserstrahl auf ein Phosphorelement wirft, das ein „helles, sehr dynamisches Lichtmuster“ erzeugt. Die prinzipiellen Funktionalitäten eines solchen, im Rahmen des Förderprojekts iLas gemeinsam mit dem KIT, Audi und Osram entwickelten Systems kennen wir vom Matrixlicht.

Auch auf die Vorteile der SiC-Technologie ging er ein. So ergaben (in einem Toyota-Flottenversuch bestätigte) Simulationen, dass SiC-Halbleiter den Energieverbrauch in EVs um 5 bis 8 % senken können. Die ersten Inverter mit SiC erwartet er „2018 auf der Straße“, wobei „Siliziumkarbid-IGBTs den GaN-Halbleitern das Wasser abgraben werden“, weil SiC auch in den höheren Spannungslagen wunschgemäß funktioniert.

Gregory Delagi (Texas Instruments): 
„Plattformen entscheiden über Leben und Tod einer Lösung.“

Gregory Delagi (Texas Instruments):
„Plattformen entscheiden über Leben und Tod einer Lösung.“ Anna McMaster

In seiner Präsentation „Innovating to make Driving Safer, Greener and more Fun – for all Drivers“ beleuchtete Gregory Delagi, Senior Vice President & General Manager Embedded Processing bei Texas Instruments, die Automotive-Halbleiter von einer anderen Seite. Nach einigen Infos über TIs Engagement in den Bereichen Hf-CMOS und DLP für HUDs ging er unter anderem auf den elektronischen Ersatz von Seitenspiegeln ein, durch den sich der Wirkungsgrad um 6 % erhöhen lässt. Zudem machte er auf die neuen Herausforderungen aufmerksam, indem er beispielsweise erwähnte, dass die einzige Anforderung auf der Feature-Liste seiner Tochter für  ihr neues Auto der Aux-Power-Port zum Laden des Smartphones war. Außerdem wies er mit den Worten „Plattformen entscheiden über Leben und Tod einer Lösung“ eindeutig auf die große Bedeutung von Plattformen – nicht nur für die Halbleiter – hin.