Was tut sich bei ADAS und beim autonomen Fahren?

Lars Reger: Fahrzeuge fahren heute schon recht gut auf vorgescannten Straßen autonom. Google ist hierfür das beste Beispiel. Die Fahrzeuge fahren besser als ich, einfach weil sie sich nicht ablenken lassen, weil sie immer konzentriert sind und weil sie auch völlig emotionsfrei fahren. Ich rege mich im Stau leichter auf als ein Roboter.

Lars Reger: "Wir forschen an träumenden Autos... So wird die Leerzeit praktisch als Lernzeit genutzt."

Lars Reger: „Wir forschen an träumenden Autos… So wird die Leerzeit praktisch als Lernzeit genutzt.“ Alfred Vollmer

Für eingeschränkte Bereiche mit gleichförmigem Verkehr kann man heute schon gute Systeme bauen, die das Fahrzeug autonom steuern. Autobahnen sind solche Bereiche. Alle fahren mit ähnlicher Geschwindigkeit, ohne Querverkehr in die gleiche Richtung. Ich denke, dass wir in den nächsten zwei bis drei Jahren autonome Autobahn-Assistenzsysteme auf der Straße sehen werden.

Wenn die OEMs es schaffen, einen Hybrid zu bauen, der von meiner Garage zuhause bis zu meiner Autobahneinfahrt vorgescannt fährt, und dann auf den Autobahnassistenten umschalten kann, dann bin ich in der Lage, meine etwa 500 km entfernt lebenden Eltern zu besuchen – und zwar quasi autonom fahrend. Ich fahre vorgescannt bis zur Autobahn, das ist die Strecke, die mein Auto sowieso jeden Tag fährt, und ab da dann per Autobahnassistenz bis zur Wunschausfahrt. Die restliche Strecke fahre ich selbst. Für meine Eltern, die ja schon etwas älter sind, ist das noch interessanter: Während fünf Stunden Fahrt müssen sie nur etwa 15 Minuten lang selbst das Steuer in die Hand nehmen; das ist hochattraktiv und viel bequemer, als mit der Bahn zu reisen.

Wie verändern sich Fahrzeuge mit dem autonomen Fahren?

Lars Reger: Anbieter großer Prozessoren haben die Vision kreiert, dass ein Auto in Zukunft nichts anderes sein wird als ein Gehirn auf Rädern. Allerdings sind wir Menschen auch nicht nur ein Gehirn auf zwei Beinen sondern ein komplexer Organismus mit Sensorebene, Gehirn und Aktoren. Wichtig ist es, dass alle Subsysteme und Komponenten hocheffizient miteinander vernetzt sind – mit dem notwendigen Maß an funktionaler Sicherheit und Cybersecurity. Gleichzeitig  benötigt das Auto, ebenso wie der menschliche Organismus, auch Reflexe, also eine sehr schnelle Reaktionsebene. Wenn ich über eine Bordsteinkante stolpere, dann benötige ich einen schnellen Reflex, damit sich mein Bein sofort streckt und eine Ausgleichsbewegung macht. Beim Menschen geschieht das über das Rückenmark. Wenn die Info über das Stolpern dagegen zuerst über das Großhirn müsste, läge ich schon auf der Nase, bevor ich das Stolpern wirklich bemerkt habe.

Derartige Reflexe können im Roboter smarte Sensoren abbilden – als eine Art kleiner Dienstweg für ganz speziell vordefinierte Notfallsituationen. Beispiele hierfür sind ein Fußgänger, der auf die Straße läuft oder eine per Car2Car-Kommunikation übermittelte Nachricht, dass von rechts ein Krankenwagen in eine Kreuzung hineinrast. Um hier eine Aktion einzuleiten, genügt es, die Signale weniger Sensoren zu berücksichtigen. Autos werden in Zukunft deutlich mehr Sensoren haben als heute.

Die spannende Frage ist, wie der Fahr-Roboter am Ende wirklich aussieht. Wir haben die unterschiedlichen Bausteine, um solch ein System zusammenzusetzen, und wir haben die verschiedenen Vernetzungsebenen. NXP ist der einzige Halbleiterhersteller weltweit, der in der Lage ist, den selbst fahrenden Roboter komplett aus NXP-Elektronik zusammenzubauen.

Schon jetzt?

Lars Reger: Schon jetzt. Was noch fehlt, ist die Vernetzung zur Cloud. Wir forschen an träumenden Autos. Wir bezeichnen damit den Vorgang, dass Autos die gesammelten Daten in die Cloud laden und quasi in der Zeit, in der sie inaktiv sind und somit quasi schlafen, die Erfahrungen des Tages nachbereiten können – ähnlich wie Menschen das beim Träumen tun. So wird die Leerzeit praktisch als Lernzeit genutzt.

Lars Reger: "Ich glaube, dass wir bei der Elektromobilität das Tal der Tränen schon zu einem Teil durchquert haben."

Lars Reger: „Ich glaube, dass wir bei der Elektromobilität das Tal der Tränen schon zu einem Teil durchquert haben.“ Alfred Vollmer

Das möchte ich noch einmal genauer erklären: Wenn ein Auto fährt, nutzt es die Sensorik und ganz normale Detektionsalgorithmen inklusive Car2Car-Kommunikation. Wenn es so den ganzen Tag durch Hamburg fährt, hat es bis zum Abend viel gelernt, zum Beispiel, wo eine Ampel ist, wo sich eine große Umleitung befindet, wo Schnee auf den Verkehrsschildern liegt oder sich eine Öllache auf der Straße oder andere Gefährdungssituationen befindet und so weiter. Idealerweise sendet das Auto diese Daten in die Cloud und legt sich schlafen. In der Cloud wird quasi geträumt, denn dort kommt das Wissen aller Fahrzeuge zusammen, die dann gemeinsam lernen und in der Cloud einen verbesserten Detektionsalgorithmus erarbeiten lassen. Noch bevor das Fahrzeug am nächsten Morgen aufwacht und wieder losfährt, erhält es per Download das quasi im Traum erworbene Wissen. Dafür benötige ich eine hohe Übertragungsbandbreite, aber auch einen hohen Security-Standard, um meine Privatsphäre zu schützen und Datenmissbrauch zu verhindern.

 

Auf der nächsten Seite geht es um Datensicherheit und Zukunftspläne.

Seite 2 von 41234