Welche Bedeutung hat Security für Visteon?

Markus Schupfner: Vor rund drei Jahren haben wir unsere Cyber-Security Aktivitäten durch Rekrutierung von Spezialisten aus den Bereichen Spielautomaten und Mobiltelefone verstärkt. Cyber-Security spielt eine wichtige Rolle in allen Projekten im Zusammenhang mit verbundenen Systemen, da Bedrohungen jeden Tag zunehmen. Insbesondere in Bezug auf Connectivity, autonomes Fahren und SOTA (Software-Updates Over The Air) ist Cyber-Sicherheit ein zentrales Thema.

Wir konzentrieren uns auf Cybersecurity Ende-zu-Ende „Von Prozess zu Lösungen.“ Wir beginnen mit Secure Hardware und wählen die richtigen SoCs/Chipsätze mit HSM (Hardware Security Module) und SHE (Secure Hardware Extension) aus. Als nächstes schützen wir die verschiedenen Schichten wie Hypervisor, Betriebssysteme mit Secure Boot mit digitalen Signaturen. Softwaresysteme und Anwendungen enthalten bestimmte digitale Signaturen, die beim Start überprüft werden. Auch während der Laufzeit überprüft das System ständig, ob es den Anwendungen immer noch vertrauen kann, um zu erkennen, ob eine Anwendung innerhalb der vorgegebenen Grenzen fehlerhaft arbeitet oder sogar extern gesteuert wird. Auch Nachrichten, die wir im Rahmen der Nachrichtenbehandlung prüfen, werden ständig kontrolliert, um sicherzustellen, dass nur autorisierte Teilnehmer Nachrichten austauschen können. Wir können auch die Schlüsselbehandlung verwenden, um festzustellen, ob eine Version eines Programms tatsächlich mit einer bestimmten Version einer anderen Anwendung arbeiten kann. Die Implementierung einer angemessenen Cyber-Sicherheit ist bei uns Standard. Wir ergänzen unsere starken Sicherheitslösungen mit robusten Sicherheitsprozessen. Wir haben den Cybersecurity-Prozess J3061 in unseren Produktentwicklungsprozess integriert.

In unserem Haus ist das Thema White-Hacking noch ziemlich neu. White-Hacking-Teams sind Visteon-Teams, die versuchen, in unsere eigenen Systeme einzubrechen. Wir führen diese Prüfung auch dann durch, wenn die Kunden nicht danach fragen, weil es uns einfach wichtig ist, zu erfahren, wie gut wir unsere Systeme schützen können. Neu im Zuge der Cyber-Security ist nun auch die Verifizierung von Sicherheit und Authentizität von Sensorsignalen, damit das Auto sich auf die Sensorsignale verlassen kann. Ergänzt um adäquate Plausibilitäts-Checks wird dann auch klar erkennbar, ob beispielsweise ein Laserpointer den Lidar-Sensor blendet.

Was tut sich im Bereich Augmented Reality im Auto?

Markus Schupfner: Mit Augmented Reality können wir dem Fahrer wesentliche sicherheitsrelevante Informationen über das Fahrzeugumfeld darstellen aber auch im Hinblick auf halbautomatisiertes Fahren die Insassen auf die nächsten Aktionen des Fahrzeugs vorbereiten. Für mich ist Augmented Reality (AR, die Redaktion) ein Schlüsselfaktor für die Akzeptanz des automatisierten Fahrens. Bei den AR-Head-Up-Systemen sollte das virtuelle Bild mindestens 7 m, besser 10 m vor dem Fahrer liegen und dabei auch eine genügend weite horizontale und vertikale Projektion ermöglichen.

Mit dem, was derzeit absehbare AR-HUDs leisten, sehe ich den Mehrwert vor allem im Assisted Driving, denn der immer noch limitierte Projektionsbereich bietet primär die Möglichkeit, die Fahrsicherheit durch kontaktanaloge Projektion in das Sichtfeld des Fahrers zu erhöhen und sein Fahrverhalten zu coachen.

Für delegiertes oder autonomes Fahren liegt die wesentliche Aufgabe in der Passagierinformation. Wir gehen jedoch davon aus, dass der Durchbruch dieser Technologie dazu erst vollständig kommt, wenn wir zum Beispiel Laser-Projektionstechnik zur Serienreife bringen. Diese wird es ermöglichen, Informationen auch großflächig für alle Passagiere zu projizieren, und sie bietet die Grundlage für AR-basierte Mehrwertdienste über die Fahrsicherheit hinaus.

Zur Umsetzung von AR sind Objekterkennung und Sensorfusion erforderlich, um ein 3D-Umfeldmodell zu erzeugen, das statische und dynamische Objekte zentimetergenau erfasst. Über das Driver-Monitoring-System wissen wir dann, wo der Fahrer hinschaut. Über die Fahrprojektion und das Umgebungsmodell können wir nun in Echtzeit eine Gefährdungslage errechnen. Wir blenden dann in Echtzeit die passenden Inhalte ins AR-Head-Up-System ein, so unter anderem die Markierung von eventuell für den Fahrweg gefährlichen Objekten. Für diese Darstellung in Echtzeit benötigt der Cockpit-Computer viel Rechenleistung, und zudem müssen derartige Systeme in Zukunft ASIL-B-Anforderungen erfüllen. Mit unseren AR-HUD-Aktivitäten zielen wir genau auf die Anfragen der OEMs, die bei allen Ausschreibungen ab Level 2+ gleichzeitig auch ein AR-HUD mit anfragen. Die entsprechenden Vorentwicklungen laufen.

Seite 3 von 3123