62ff-1peter-langen-140603105925-aek-343-saschasteinbach.jpg

Peter Langen: „Das Wissen aus dem Backend wird der große Game-Changer und extrem wichtig werden.“ Sascha Steinbach

In seinem Vortrag „Fahrerassistenz einmal anders: Mein Fahrzeug versteht mich“ legt Peter Langen, Bereichsleiter Fahrdynamik und Fahrerassistenz bei der BMW Group, einen Fokus darauf, „dass Fahrspaß und Fahrerassistenz-Systeme keine Gegensätze darstellen, sondern sich perfekt ergänzen: Freude am Fahren durch Fahrerassistenz!“

Um die herausfordernden Ziele in der Entwicklung von Fahrerassistenz-Systemen zu erreichen, müssten alle beteiligten Abteilungen und Personen innerhalb des Unternehmens in einer effizienten und effektiven Arbeitsstruktur eingebunden werden. Dafür hat BMW das Arbeitsmodell „Prozesskette Fahrerassistenz“ entwickelt. Peter Langen ist sich sicher, dass „Autonomes Fahren die Beziehung zwischen Fahrer und Fahrzeug grundlegend verändern wird, denn es entstehen völlig neue Arten der Fahrzeugnutzung“. Die Fahrerassistenz-Strategie der BMW Group führe zu einem Mehrwert, der sich in drei wesentlichen Schwerpunkten zeige: Delegation anstrengender Fahrsituationen, Unterstützung des Fahrers in kritischen Fahrsituationen und Befähigung des Fahrers zu einem höheren Fahrvermögen.

Da Kunden bei den vielen (neuen) Funktionen leicht den Überblick verlieren könnten, leitet sich die Zielsetzung „von der Einzelfunktion zum Gesamterlebnis“ ab. Die Zeit, in der Fahrer einzelne Funktionen wie beim Quartettspiel vergleicht, sei vorüber, denn jetzt gehe es darum, bei der Vermarktung das Gesamterlebnis für den Kunden intuitiv erlebbar zu beschreiben. Wenn der Kunde dann sage „Mein Fahrzeug versteht mich und tut intuitiv was ich möchte“, dann habe die Revolution zwischen Fahrer und Fahrzeug stattgefunden. Mithilfe der richtigen Sensoren und der Sensordatenfusion lässt sich auf diesem Weg einiges erreichen.

„Das Umfeldmodell wird deutlich besser werden“, denn derzeit vollzieht sich der Wechsel von der 2D- zur 3D-Darstellung, hebt Peter Langen hervor. „Das Wissen aus dem Backend wird der große Game-Changer und extrem wichtig werden.“ Ein Element von ADAS ist die Car-to-Car-Kommunikation. Wichtig sei dabei auch, „dass die Kommunikation sicher ist und dass jeder sagt ‚ich gebe meine Daten ab, weil ich im Gegenzug etwas davon habe, ähnliche Daten zurückzubekommen‘ – und das wird in den nächsten Jahren unser Hauptdiskussionsthema sein“.

Zum Abschluss deutet er die Abkürzung „HAF“ in „hochautomatisierte Fahrfreude“ um und zeigte ein Video einer hochautomatisierten Fahrt auf dem Las Vegas Racetrack, auf dem ein BMW intensiv driftete. Sein Fazit lautet: „Die Automatisierung verschiebt die Grenzen zwischen Fahrer und Fahrzeug. Die Vernetzungsmöglichkeiten werden die allgemeine Fahrzeugnutzung grundlegend ändern.“

62ff-2-dr-huebner--140603114151-aek-458-saschasteinbach.jpg

Dr. Hans-Peter Hübner (Bosch): „Die größte Herausforderung aus unserer Sicht ist die Validierung und Freigabe von hochautomatisierten Fahrfunktionen. Hier brauchen wir mit Sicherheit neue Ansätze, aber das ist eine gemeinsame Aufgabe.“ Sascha Steinbach

Bosch

„Automatisiertes Fahren – Wohin geht die Fahrt?“ lautet der Titel des Vortrags von Dr. Hans-Peter Hübner, der als Bereichsvorstand Entwicklung im Bereich Chassis Systems Control bei Bosch arbeitet. Er erwähnt zunächst, dass man zwar bereits seit den 1920ern an Technologien arbeitet, um Fahrzeuge fernzusteuern oder gar zu automatisieren, „aber erst in den letzten Jahren sieht man ernsthafte Ansätze, die es erlauben, die Technik dem Endverbraucher auf absehbare Zeit anzubieten“. Bei einem Vergleich der Prozesse, die beim vom Menschen gesteuerten Fahren und beim automatisierten Fahren ablaufen, kam er zu folgendem Ergebnis: „Unser Hauptproblem liegt am Gehirn und damit am Steuergerät. Hier sind unsere Algorithmen und unsere Software bei weitem nicht so leistungsfähig wie unser Gehirn. Deshalb brauchen wir für das automatisierte Fahren deutlich mehr Sensoren und hochgenaue Karten.“

„Neben Radar und Kamera werden wir daher noch ein drittes Sensorprinzip benötigen – einen Scanning-Laser, um das Umfeld tatsächlich zuverlässig erfassen zu können“, führt Dr. Hübner weiter aus. „Das Wichtigste überhaupt ist ein hochzuverlässiges Umfeldmodell.“

Auch die E/E-Architektur werde sich „drastisch verändern müssen“: von der Fail-Safe-Architektur mit definiertem Abschalten im Fehlerfall hin zur Fail-Operational-Architektur, bei der das Fahrzeug auch im Fehlerfall noch sicher weiterfahren kann, um beispielsweise von der linken Spur noch sicher auf den Standstreifen zu kommen. Daher werde sich die Hardware- und Software-Partitionierung verändern, und auch für sicherheitskritische Themen kämen CE-Komponenten zum Einsatz. Zusätzlich seien Redundanzen erforderlich – „im Bordnetz zumindest eine Redundanz der Spannungs- und Energieversorgung“ (siehe hierzu auch Seite 28) „und auch auf der Aktuatorenseite brauchen wir Redundanzen“.

„Die größte Herausforderung aus unserer Sicht ist die Validierung und Freigabe von hochautomatisierten Fahrfunktionen“, berichtet Dr. Hübner. „Hier brauchen wir mit Sicherheit neue Ansätze, aber das ist eine gemeinsame Aufgabe.“ Den Autopilot für alle Fahraufgaben gebe es „frühestens nach 2025“.

62ff-3--prof-sashua--140603120041-aek-475-saschasteinbach.jpg

Prof. Dr. Amnon Shashua (Mobileye): Die Mustererkennung ermöglicht es, Fahrzeuge in knapp 200 m Entfernung und Fußgänger in fast 100 m Entfernung zu erkennen, aber auch Distanzmessungen über große Strecken hinweg durchzuführen. Sascha Steinbach

Mobileye: Algorithmen zur Bildverarbeitung

Prof. Dr. Amnon Shashua, Mitgründer und Chairman von Mobileye Vision Technologies, erklärt den Anwesenden, wie eine Monokamera für automatische Notbremssysteme (AEB) zum Einsatz kommen kann. Dabei geht er auf die Herausforderungen zur Erlangung der Produktionsreife genauso ein wie auf die Algorithmen-Typen, die besondere Aufmerksamkeit benötigen. Auf Seite der Algorithmen ist es unter anderem erforderlich, zwischen False-Positive und False-Negative richtig zu unterscheiden. Im Endeffekt gehe es darum, die Ebenen einer fehlerhaften Aktivierung zu steuern, während man gleichzeitig sehr hohe Detektions- und Aktuator-Fähigkeiten benötigt. Mit einer Fusion der Methoden Muster-erkennung, Bewegungs-Verarbeitung durch Analyse des optischen Flusses und FoE (Focus of Expansion) komme man dem Ziel näher.

Die Mustererkennung ermögliche es, Fahrzeuge in knapp 200 m Entfernung und Fußgänger in fast 100 m Entfernung zu erkennen, aber auch Distanzmessungen über große Strecken hinweg durchzuführen und die TTC (Zeit bis zum Kontakt/zur Kollision) zu bestimmen, wobei der Messfehler hier linear mit der Entfernung wächst. Die Bewegungsanalyse wiederum ermöglicht eine Validierung und Erzeugung (Redundanz!) des Ziels, die Erkennung sich bewegender Ziele sowie eine exakte Messung der TTC.

Anfang 2015 wird ein europäischer OEM ein AEB-System auf Basis einer Monokamera von Kostal auf den Markt bringen, deren Kernelement ein DSP des Typs EyeQ3 von Mobileye ist (siehe infoDIREKT 311AEL0314), und im Juni sollen dann weitere EyeQ3-Launches mit mehreren Tier-1s folgen. Bis 2016 will Mobileye auch eine Lösung für das automatisierte Fahren auf den Markt bringen, die auf mehreren Kameras mit unterschiedlichen Brennweiten basiert und dann ein 10 cm großes Gefahrenobjekt in 50 m Entfernung erkennen soll. Auf eine Rückfrage aus dem Publikum, ob sich die Stereo- oder die Monokamera durchsetzen wird, erläutert er, dass die Stereo-Technologie nur bei Distanzen bis 50 m einen Zusatznutzen bringt und dass selbst beim Menschen die 3D-Sehfähigkeiten nur für den Nahbereich ausgelegt sind, um dann mit folgenden Worten abzuschließen: „Das was sinnvoll ist, wird sich verbreiten und zum Einsatz kommen“ – und ein intensives Lachen der Zuhörer stimmte im zu.

62ff-4--chris-urmson--140603122842-aek-492-saschasteinbach.jpg

Dr. Chris Urmson (Google): „Wir sind sehr interessiert an einer Zusammenarbeit mit Partnern, aber wir werden sicherlich keine Metallarbeiten durchführen und keine Fahrzeuge herstellen.“ Sascha Steinbach

Google

Dr. Chris Urmson, Director des Self-Driving Car Program bei Google, berichtet in seinem Vortrag „Google – Self Driving Car“ über die Resultate, die eine Google-Arbeitsgruppe seit 2009 erlangte, sowie über das selbstfahrende Google-Auto selbst. Gleich zu Beginn räumte er ein, dass auf diesem Sektor bereits sehr viel Grundlagenarbeit in Deutschland geleistet wurde. Neben dem Sicherheitsaspekt (Verkehrsunfälle sind die Todesursache Nummer 1 in den USA in der Altersgruppe von 4 bis 34) stand auch eine effiziente Nutzung der Highways bei den Arbeiten im Vordergrund. Bei maximaler Auslastung des Highways und fließendem Verkehr sind nämlich nur 8 % der Straßenfläche mit Autos belegt.

62ff-sollte-rein-evtl-aufmacher-mit-bu-140603123332-aek-405-saschasteinbach.jpg

Als Dr. Chris Urmson Googles Strategie und technische Hintergrundinfos rund um das autonome Fahren erklärte, hätte man in Sprechpausen eine Stecknadel fallen hören können – und das bei fast 600 Teilnehmern im Saal. Sascha Steinbach

„Ein wesentliches Element des autonomen Fahrens ist die Nutzung von Karten mit einer Auflösung von 10 cm“, berichtet Dr. Urmson über die Multi-Layer-Karten, in die auch die Daten des Laserscanners mit einfließen. Da das Fahrzeug ja prinzipiell weiß, was es auf einer bestimmten Straße sehen müsste, kann es Veränderungen wie Baustellen, Fahrbahn-Sperrungen und Ähnliches bereits frühzeitig erkennen und darauf reagieren. Nach über 700.000 Meilen Testfahrten auf Autobahnen, Landstraßen sowie in (Groß-)Städten ist Google jetzt meist in der Lage, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Auch das Verhalten von Radfahrern und Fußgängern analysierte Google intensiv. „Wir haben viel Aufwand in die Analyse des Fußgänger-Verhaltens gesteckt, in die Modellierung ihrer Bewegungen und die Interpretation ihrer Gesten. Auf der Hardware-Seite nutze Google zur Steuerung „etwa die Rechenleistung von fünf Quadcore-Desktop-Prozessoren“.

Podiumsdiskussion

Im Rahmen einer Podiumsdiskussion beleuchteten die folgenden Herren das Thema automatisiertes Fahren: Norbert Haug (zuständig für die strategische Weiterentwicklung bei Paravan), Dr. Hans-Peter Hübner (Bosch), Peter Langen (BMW), Peter Fuß (Automotive Leader EMA bei Ernst & Young, Moderator), Prof. Dr. Amnon Sahshua (Mobileye), Frank Rinderknecht (Gründer und CEO von Rinspeed) und Dr. Chris Urmson (Google).

An Hand vieler Videos erklärt er, wie Google das automatisierte Fahren umsetzt – auch dann, wenn die gespeicherten Kartendaten nicht mehr stimmen, beispielsweise bei einer Baustelle. Allerdings erklärte er auch folgendes: „Es handelt sich hier nur um sehr frühe Prototypen“, aber sein persönliches Ziel ist es, dafür zu sorgen, dass sein jetzt zehnjähriger Sohn im Alter von 15 Jahren keinen Bedarf mehr hat, den Führerschein zu machen.

64-grokastenbild--original--diskussion-140603140709-bn4q8295-mathiswienand.jpg

Podiumsdiskussion in Ludwigsburg (v. l. n. r.): Norbert Haug (Paravan), Dr. Hans-Peter Hübner (Bosch), Peter Langen (BMW), Peter Fuß (Ernst & Young), Prof. Dr. Amnon Sahshua (Mobileye), Frank Rinderknecht (Rinspeed) und Dr. Chris Urmson (Google). Mathis Wienand

BMWs E/E-Leiter Elmar Frickenstein, der an diesem Vormittag moderierte, fragte dann auch gleich, ob Google zum Automobilhersteller werden möchte, und erhielt folgende Antwort: „Wir sind sehr interessiert an einer Zusammenarbeit mit Partnern, aber wir werden sicherlich keine Metallarbeiten durchführen und keine Fahrzeuge herstellen.“ Auf Rückfrage von Audis E/E-Leiter Ricky Hudi sagte Dr. Urmson, dass es sinnvoll ist, eine Kombination aus Radar-, Kamera- und Laserscanner-Sensor zu nutzen.

Alfred Vollmer

ist Redakteur der AUTOMOBIL-ELEKTRONIK.

(Alfred Vollmer)

Sie möchten gerne weiterlesen?