Bildergalerie
Auf seinem CES-Messestand stellte ZF neben der zentralen Recheneinheit die drei Basissensoren des automatisierten Fahrens (Radar, Kamera und Lidar) in den Mittelpunkt.
Das Unternehmen Ibeo, an dem ZF eine wesentliche Beteiligung hält, bringt nach Angaben von ZF-CEO Wolf-Henning Scheider noch 2019 ein Solid-State-Lidar auf den Markt. Diese Bildergalerie ist Teil unseres Oster-Gewinnspiels. Klicken Sie weiter uns finden Sie die Ostereier und tragen Sie das Lösungswort hier ein: <a href="/oster-gewinnspiel-2019/">Oster-Gewinnspiel 2019 mit Pickering Electronics Ltd</a>
Erst mit der Fusion von Radar-, Kamera- und Lidar-Sensordaten (sowie von ergänzenden Sensoren) können autonome Fahrzeuge richtig „sehen“.
Zur räumlichen Erkennung von Schallquellen entwickelte ZF diesen Prototyp eines Sound.AI genannten Sensors, der in Las Vegas erstmals öffentlich zu sehen war.
Auch diesen Sensor-Prototypen zur Innenraum-Überwachung zeigte ZF in Las Vegas erstmals öffentlich.
In dem autonomen Sammeltaxi (siehe Haupttext) für das Ride-Hailing sind allein an der Frontscheibe schon diverse Kameras verbaut, ...
... aber es kommen noch zahlreiche Radar- und Lidarsensoren sowie zusätzliche Kameras und die Anbindung an die Cloud hinzu.

People-Mover sollen viele Verkehrsprobleme in Innenstädten lösen. Mit ihnen scheint sich das klassische Verhältnis (OEM, Tier-1, Tier-2) signifikant zu verändern.

Dieser autonom fahrende People-Mover mit rein elektrischem Antrieb soll im Stadtverkehr ganz normal unterwegs sein – auch auf Stadtautobahnen.

Dieser autonom fahrende People-Mover mit rein elektrischem Antrieb soll im Stadtverkehr ganz normal unterwegs sein – auch auf Stadtautobahnen. Alfred Vollmer

Im Bereich autonomes Fahren, Künstliche Intelligenz und Elektromobilität hat sich ZF viel vorgenommen: „Wir werden innerhalb der nächsten fünf Jahre über 12 Milliarden Euro in autonome Mobilität und Elektromobilität investieren“, erklärte Wolf-Henning Scheider, Vorstandsvorsitzender von ZF Friedrichshafen in Las Vegas.

Wolf-Henning Scheider, CEO von ZF, erklärte in Las Vegas: „Wir werden innerhalb der nächsten fünf Jahre über 12 Milliarden Euro in autonome Mobilität und Elektromobilität investieren.“

Wolf-Henning Scheider, CEO von ZF, erklärte in Las Vegas: „Wir werden innerhalb der nächsten fünf Jahre über 12 Milliarden Euro in autonome Mobilität und Elektromobilität investieren.“ Alfred Vollmer

Schon dieses Jahr soll mit dem Ego Mover (Eigenschreibweise: e.Go Mover), der rein elektrisch angetrieben wird, der weltweit erste autonom fahrende People-Mover in Serie gehen – gefertigt von E.Go Moove, einem Joint-Venture von E.Go Mobile und ZF. „Wir entwickeln mit dem Ego Mover den weltweit ersten elektrischen Kleinbus mit voller Straßenzulassung“, ließ Prof. Dr. Günther Schuh, CEO von E.Go Mobile dazu verlauten. Innerstädtische Mobilität werde zukünftig vor allem durch elektrische, lokal emissionsfreie und hochautomatisierte Fahrzeuge charakterisiert.“ Der Ego Mover werde in den Städten mit 50 km/h, teilweise auch bis 80 km/h autonom unterwegs sein. Langfristig ist auch autonomes Fahren mit bis zu 100 km/h geplant.

Das Gehirn: ProAI

Vor zwei Jahren kündigte ZF auf der CES seine erste ProAI-Plattform an. Die nunmehr vierte Generation hat mit 600 TOP/s die mehr als zehnfache Leistung der ersten Generation.

Vor zwei Jahren kündigte ZF auf der CES seine erste ProAI-Plattform an. Die nunmehr vierte Generation hat mit 600 TOP/s die mehr als zehnfache Leistung der ersten Generation. Alfred Vollmer

Den Zen­tralrechner des Ego Mover bilden zwei KI-Systemboards des Typs ProAI Gen3 (Bild 1) von ZF, die schon in der ECU autark redundant arbeiten – eines für die Umfelderfassung und eines für die Fahrfunktionen. Auf jedem dieser KI-Systemboards befinden sich drei Platinen, die zunächst jeweils drei Nvidia-GPUs vom Typ Xavier enthalten.

In der dritten Generation von ProAI kommt erstmals nicht ausschließlich ein Prozessor von Nvidia als Kernelement zum Einsatz. Jetzt sind können zum Beispiel auch SoCs von Xilinx zentrale KI-Funktionen rechnen.

In der dritten Generation von ProAI kommt erstmals nicht ausschließlich ein Prozessor von Nvidia als Kernelement zum Einsatz. Jetzt sind können zum Beispiel auch SoCs von Xilinx zentrale KI-Funktionen rechnen. Alfred Vollmer

Bei ProAI Gen3 ermöglicht ZF erstmals auch die Nutzung anderer Hochleistungs-Prozessoren als die GPUs von Nvidia. So zeigte das Unternehmen auch ein Board, das zentrale KI-Funktionen in einem SoC auf Basis der Zynq-Ultrascale-Plattform von Xilinx unter anderem zur Echtzeit-Aggregation, Vorverarbeitung und Distribution von Daten verwendet (Bild 2). Damit lässt sich einerseits die Hardware-Leistung flexibel anpassen, denn nicht jeder Algorithmus läuft auf jedem Chip optimal schnell, aber auch aus Redundanz-Gesichtspunkten ist der Einsatz der Xilinx-Chips sehr attraktiv. Die standardisierte Schnittstelle des ProAi-Gen3-Basisboards, die sich in etwa mit der RTE bei Autosar vergleichen lässt, ermöglicht die Mischung der Prozessor-Boards. Damit setze sich ZF ProAI von proprietären Systemen im Markt ab, die eine feste Kombination von HW/SW-Architektur pflegen – ein Ansatz, der neben funktionalen Zwängen auch Kostennachteile für viele Anwender bergen könne.

Die nunmehr vierte ProAI-Generation heißt ProAI Robothink und bringt eine Performance von 600 TOP/s, ....

Die nunmehr vierte ProAI-Generation heißt ProAI Robothink und bringt eine Performance von 600 TOP/s, …. ZF

„Wir trainieren ProAI mit dem Ego Mover“, betont ZF-CEO Scheider. „Weil dort zunächst stets ein Fahrer mit an Bord sein wird, können wir Millionen Kilometer trainieren.“ Bis zum Jahr 2021 soll der Ego Mover ZF zufolge in fünfstelligen Stückzahlen auf den Straßen unterwegs sein.

... und daher benötigt ProAI Robothink aber auch eine besonders intensive Kühlung, um die Verlustleistung abzuführen.

… und daher benötigt ProAI Robothink aber auch eine besonders intensive Kühlung, um die Verlustleistung abzuführen. Alfred Vollmer

Gleichzeitig präsentierte ZF auf der CES mit ProAI Robothink (Bilder 4 und 5) „die leistungsfähigste Zentralrecheneinheit der Mobilitätsbranche“, wie Wolf-Henning Scheider betont: „ProAI Robothink ist ein ausgereiftes Produkt, das in diesem Jahr verfügbar sein wird“ – und damit würde Mobility-as-a-Service Realität, ab Level 4 umsetzbar. In seinem Demo-Fahrzeug zum „Automous Ride-Hailing“ (Bild 6) kommt ProAI Robothink bereits in einer Version zum Einsatz, die eine Rechenleistung von mehr als 150 TOP/s (also 150 Billionen Rechenschritte pro Sekunde) bietet und modular mit bis zu vier Einheiten kombinierbar ist, was einer Gesamtperformance von 600 TOP/s entspricht. Bei 150 TOP/s beträgt die Verlustleistung des Boards etwa 150 W.

Cloud-Anbindung

Bei Testfahrten in Las Vegas demonstrierte ZF auf einem abgesperrten Gelände das Szenario des „Autonomous Ride-Hailing“. Dieses autonom fahrende Sammeltaxi mit einem von ZF und Faurecia entwickelten Cockpit enthält weder Lenkrad noch Pedale und basiert auf ProAI Robothink.

Bei Testfahrten in Las Vegas demonstrierte ZF auf einem abgesperrten Gelände das Szenario des „Autonomous Ride-Hailing“. Dieses autonom fahrende Sammeltaxi mit einem von ZF und Faurecia entwickelten Cockpit enthält weder Lenkrad noch Pedale und basiert auf ProAI Robothink. Alfred Vollmer

Da es sich hierbei im Prinzip um autonom fahrende (Sammel-) Taxis handelt, die per App gesteuert zum Fahrgast kommen (Bild 6), kann ZF hier gleichzeitig noch die Vernetzung der intelligenten mechanischen Systeme mit seiner cloud-basierten Plattform für Mobilitätsdienstleistungen vorantreiben, mit der es möglich ist, anbieterübergreifend Funktionen beispielsweise für das Ride-Hailing genauso zu integrieren wie für innovative Zustelldienste und das Flottenmanagement – inklusive Möglichkeit, die Fahrzeugsoftware über die Cloud zu aktualisieren.

Kooperation zwischen ZF und Transdev

Yann Leriche, CEO von Transdev North America und Head of Autonomous Transportation, erklärte sein Ziel einer „nahtlosen Mobilität“, das er per PACD (Personalized Connected Autonomous Digital) mithilfe von ZF-Technologie erreichen möchte: „Die Kooperation mit ZF und e.GO ist eine hervorragende Gelegenheit, unsere bestehenden Mobilitätslösungen durch neue autonome Fahrzeuge zu ergänzen.“

Yann Leriche, CEO von Transdev North America und Head of Autonomous Transportation, erklärte sein Ziel einer „nahtlosen Mobilität“, das er per PACD (Personalized Connected Autonomous Digital) mithilfe von ZF-Technologie erreichen möchte: „Die Kooperation mit ZF und e.GO ist eine hervorragende Gelegenheit, unsere bestehenden Mobilitätslösungen durch neue autonome Fahrzeuge zu ergänzen.“ Alfred Vollmer

Auf der CES kündigte ZF an, dass E.Go Moove und der Mobilitätsdienstleister Transdev jetzt beim Ego Mover zusammenarbeiten (Bilder 8 und 9). Transdev stellt mit seinem globalen Autonomous Transport System (ATS by Transdev) die passenden Überwachungsfunktionen, eine vernetzte Infrastruktur und eine Client-Anwendung zur Verfügung. Bis 2020 soll die völlig neuartige Shared-Mobility-Lösung „vollkommen ohne Fahrer“ funktionsfähig sein, wobei Frankreich und Deutschland die wichtigsten Märkte sein werden.

Sensor-Set als Basis

Neben den klassischen Sensoren Radar (Nah, Mittel, Fern), Kamera (inklusive Tricam und Remote-Kameras) sowie Lidar von Ibeo (Bild 10) informierte ZF in Las Vegas auch über neue Sensorkonzepte. So dient der aus vielen Richtmikrofonen bestehende Sensor Sound.AI (Bild 12) zur räumlichen Erkennung externer Schallsignale wie Sirenen von Einsatzfahrzeugen. Das Innenraum-Observations-System wiederum überwacht auf ToF-Basis mit 10 Frames/s den Innenraum und soll in zwei bis drei Jahren SOP haben. Pro Sitzreihe ist hierfür ein Sensor erforderlich.

Weitere CES-Infos

Mehr über die Automotive-Neuheiten und Trends auf der CES 2019 in den Bereichen Autonomes Fahren, Cockpit, Connectivity, HMI, Infotainment etc. erfahren Sie unter diesem Link.

Eine Auswahl teilweise höchst kurioser Gadgets, meist IOT-Devices, von der CES 2019 finden Sie unter diesem Link. Auch Schmunzeln oder Kopfschütteln sind dabei ausdrücklich erlaubt.