Die ersten Kameras setzte Opel 2009 im Astra und Insignia ein. In Takt mit dem rasanten Fortschritt in der Bildverarbeitung und Prozessortechnologie fügten die Entwickler danach mit jedem Modellzyklus weitere Funktionen hinzu. In der jüngsten Generation des Opel-Eye stechen dabei die Steuerung des Intellilux LED genannten Matrix-Lichts und die kamerabasierende Notbremsassistenzfunktion hervor.

Bild 1: Das V-Modell gibt die Arbeitsschritte der Softwareentwicklung von der Definition der Anforderungen bis zur Validierung im Fahrzeug vor.

Bild 1: Das V-Modell gibt die Arbeitsschritte der Softwareentwicklung von der Definition der Anforderungen bis zur Validierung im Fahrzeug vor. Opel

Um die Demokratisierung der Assistenzsysteme voranzutreiben, erweitern die Rüsselsheimer die von der Kamera mit Informationen versorgten Funktionen beständig und erhöhen damit den Mehrwert für Kunden. Im aktuellen Astra stehen sieben kamerabasierende Einzelfunktionen zur Verfügung. Parallel dazu entlasten der konzernweite Einsatz der Kameratechnologie und die damit verbundenen Skaleneffekte die Kostenseite.

Darüber hinaus bindet Opel die Monokamera auch in fusionierte Systeme ein, um so unter anderem den gestiegenen NCAP-Anforderungen gerecht zu werden. Die Kombination mehrerer Sensorkonzepte schafft erweiterte Funktionalität. Sensorfusion ist zudem ein Grundkonzept, um automatisiertes Fahren zu ermöglichen.

Global ausgerichteter Entwicklungsprozess

Die Entwicklung aktiver Sicherheitssysteme für weltweit verwendete Fahrzeugplattformen erfordert einen ebenso global ausgerichteten Prozess, um die Vielfalt an Fahrzeugprogrammen und die Varianz zwischen Regionen in Einklang zu bringen. Zudem müssen die aktiven Sicherheitsfunktionen auf verschiedene Systemausprägungen applizierbar sein. Vorteilhaft ist hier die im GM-Konzern verwendete globale elektrische Architektur, die eine  größtenteils markenunabhängige Funktionsentwicklung ermöglicht.

Bild 2: Sensorfusion in der Kamera: Das Opel-Eye beliefert im neuen Astra sieben Systeme mit Daten. Dazu gehören die Steuerung des blendfreien Fernlichts, Lane-Departure-Warning, Verkehrszeichenerkennung und Abstandswarnung.

Bild 2: Sensorfusion in der Kamera: Das Opel-Eye beliefert im neuen Astra sieben Systeme mit Daten. Dazu gehören die Steuerung des blendfreien Fernlichts, Lane-Departure-Warning, Verkehrszeichenerkennung und Abstandswarnung. Opel

Das Entwicklungsteam nutzt dabei einen am V-Modell-Prozess orientierten Ansatz. Detailliert und konkret definiert es die allgemeingültigen Verhaltensanforderungen der aktiven Sicherheitsfunktionen auf Systemebene. Aus der Allokation der funktionalen Elemente auf Subsysteme und gegebenenfalls bestehende Komponenten leitet es die Schnittstellenanforderungen an die beteiligten Steuergeräte ab. Auf diesem Weg lässt sich das Gesamtsystem innerhalb der vorgegebenen E/E-Architektur realisieren. Dies entspricht der linken Seite des V. Auf die Implementierung in die beteiligten Komponenten folgt die Sicherstellung der Anforderungen in umgekehrter Reihenfolge. Das ist dann die rechte Seite des V-Modells. Beginnend auf Komponentenebene überprüft das Validierungsteam die Einhaltung der Anforderungen, danach ebenso auf Systemebene. Schließlich kommt es auf Fahrzeugebene zur Validierung und Abstimmung.

Im Beispiel des Spurhalteassistenten bestimmt das Engineering-Team detailliert die Verhaltensanforderung im Fahrzeug auf System- und Komponentenebene und teilt sie so auf, dass eine Spezifikation zur Implementierung in die weltweiten Softwarearchitekturen und -strukturen von GM möglich ist. Damit wird aber ein weiterer Validationsschritt nötig, um die Softwareimplementierung gegen ihre Spezifikation zu prüfen, bevor sie in die Komponente integriert wird. Eine entsprechende virtuelle Validierungsumgebung ist also notwendig. Sie muss die Softwareentwicklung über den gesamten V-Modell-Prozess per Simulation begleiten. Von der Überprüfung der Anforderungen bis hin zur Verhaltensabstimmung lässt sich somit ein Teil der Ressourcen-intensiven Arbeit vom Fahrzeug auf die virtuelle Umgebung verlagern. Dieser Ansatz ersetzt jedoch nicht die finale Überprüfung und Abstimmung im Auto.

Bild 3: Heutige Fahrerassistenzsysteme beruhen weitgehend auf der Onboard-Sensorik. Die Car-2-X-Technologie stellt dagegen externe Informationen für Fahrer bereit.

Bild 3: Heutige Fahrerassistenzsysteme beruhen weitgehend auf der Onboard-Sensorik. Die Car-2-X-Technologie stellt dagegen externe Informationen für Fahrer bereit. Opel/C2C-CC

Interdisziplinäres Vorgehen

Aus dieser Methodik ergibt sich die Notwendigkeit, neben den typischen Ingenieursdisziplinen im Automobilbau zunehmend auch regelungstechnische und systemtheoretische Expertisen aufzubauen. Darüber hinaus erweitert sich der interdisziplinäre Anteil der Entwicklung mit fortschreitender Fahrzeugautomatisierung beständig auch in nicht-technische Bereiche. Es kommen psychologische, medizinische, gesellschaftliche und rechtliche Aspekte hinzu, die Einfluss auf die Anforderungen nehmen.

So stellen die Psychologen im Entwicklungsteam für Notfallsituationen sicher, dass Fahrer mithilfe von Warnungen in der Lage sind, einen Unfall möglichst selbst zu verhindern. Gelingt das nicht, unterstützt ein automatisierter Eingriff so, dass der potentielle Unfall verhindert oder abgemildert wird. Nach der Warnung ist die aus dem Eingriff resultierende Fahrdynamik der wichtigste Kommunikationskanal zum Menschen. Somit hat das Design des Eingriffs hohe Relevanz. Er trägt maßgeblich dazu bei, dass der Fahrer das System unterstützt, oder aber im Fehlerfall abbricht.

Diese interdisziplinäre Herangehensweise stellt sicher, dass auch die rechtlichen Anforderungen gewahrt bleiben. Der Fahrer wird nie überstimmt, wie es ja die Wiener Konvention fordert. Opel geht davon aus, dass sich die gesellschaftliche Akzeptanz eines automatisierten Eingriffs über die deutliche Absenkung der Unfallschwere oder sogar die Unfallverhinderung ergibt. Eine hohe Kontrollierbarkeit für den technisch abgesicherten Fehlerfall schafft ebenfalls Vertrauen.

Bild 4: Ampelassistent und automatisiertes Ausweichen sind Schwerpunkte des Projekts URBAN. Opel arbeitet mit an dem öffentlich geförderten Projekt.

Bild 4: Ampelassistent und automatisiertes Ausweichen sind Schwerpunkte des Projekts URBAN. Opel arbeitet mit an dem öffentlich geförderten Projekt. Opel

Autos als Teil des Internets der Dinge

Seit einigen Jahren zeichnen sich die Fahrzeugautomatisierung, die intuitiv bedienbare Konnektivität und die kooperative Mobilität als die drei großen Automobil-Leittrends ab. Das teil- und später auch vollautomatisierte Fahren wird schrittweise über eine Weiterentwicklung der aktuellen Fahrerassistenzsysteme vorangetrieben. Im Bereich der Konnektivität wird das Automobil über Telematik-Dienste wie Opel Onstar sowie die Einbeziehung von Smartphones und Tablet-Rechnern via Intellilink, Apple Carplay und Android Auto zu einem mobilen Bestandteil des Internets der Dinge. Opel und General Motors beteiligen sich zudem aktuell im Rahmen der kooperativen Mobilität an vorwettbewerblichen Projekten, die zu ersten Schritten in Richtung Car-2-X-Technologie führen sollen und die für den Infrastruktur-Aufbau bedeutsam sind.

Heute werden diese Trends noch überwiegend unabhängig voneinander bearbeitet. Das automatisierte Fahren beruht weitgehend auf der Onboard-Sensorik. Die Car-2-X-Technologie stellt dagegen externe Informationen bereit, die über die Mensch-Maschine-Schnittstelle an den Fahrer weitergegeben werden. Der große Technologiewandel in der Automobilindustrie wird aber erst durch die intelligente und auch kommerziell sinnvolle Zusammenführung dieser Leittrends kommen. Dann werden sich auch komplett neue Einsatzmöglichkeiten und Geschäftsmodelle bieten.

Bild 5: Opels Kamerahistorie

Bild 5: Opels Kamerahistorie Opel

Vorbereitet auf branchenfremde Ansätze

In der Endausbaustufe werden sich diese Technologiestränge gemeinsam im Rahmen der weiteren Marktdurchdringung bis hin zu einer kooperativen Entscheidungsfindung der Fahrzeuge entwickeln, auch unter Nutzung der verfügbaren Informationen der Verkehrsleitzentralen. Dabei müssen alle Beteiligten von der Autoindustrie über die Anbieter von zukünftigen vernetzten Mobilitätsangeboten bis hin zu den Betreibern der Infrastruktur immer im Auge behalten, dass die Vernetzung einen technisch-funktionalen Mehrwert für die automatischen Fahrfunktionen oder einen Komfort- beziehungsweise Sicherheitsgewinn für Fahrer darstellen sollte. Zudem müssen die Hersteller einen Flickenteppich einzelner Technologieaspekte vermeiden, sondern vielmehr beide Technologiestränge zu einem integrierten System verknüpfen.

GM und Opel gehen zwar von einer schritt- oder stufenweisen Einführung der neuen Technologien auf dem Weg zum fahrerlosen Auto aus, das damit zu einem integralen Teil des Internets der Dinge wird. Nichtsdestotrotz müssen beide Unternehmen vorbereitet sein, wenn Branchenfremde dieses Ziel auf einem revolutionären Weg statt mit dem evolutionären Ansatz erreichen wollen. Hierbei spielt auch eine Anpassung der Geschäftsmodelle eine große Rolle.

Eckdaten

Ein standardisierter Prozess nach dem V-Modell bildet bei Opel und GM die Basis der globalen Softwareentwicklung. Er ermöglicht die Integration neuer Funktionen in vorhandene Softwarearchitekturen und -strukturen.

GM und Opel haben sich deswegen auf den Weg zu einem Mobilitätskonzern gemacht. Hierzu gehört das Ausrollen von Onstar über die gesamte Opel-Fahrzeugflotte. Dazu zählen auch die Einführung und Unterstützung von Shared-Economy-Konzepten wie Mobilfunk-Apps für Carsharing von privat an privat und ein Investment in die Mitfahrvermittlung Flinc. Zudem hat sich GM jüngst an Lyft beteiligt. Dieses US-Unternehmen bietet eine Vielzahl von Fahrdiensten an. GM erhofft sich in der Endausbaustufe eine fruchtbare Synergie zwischen der Fahrzeugautomatisierung, den Potentialen der Vernetzung sowie den genannten Shared-Economy-Konzepten.

URBAN und Adaptive

Da ein solch nahtloser Übergang der Technologien regional sehr unterschiedlich sein kann, spielen Förderprojekte zur vorwettbewerblichen Zusammenarbeit eine große Rolle. Im Rahmen eines automatisierten vernetzten Transportsystems müssen Fahrzeuge sowohl untereinander als auch auch mit den Betreibern der Verkehrsinfrastruktur sowie den Betrieben des öffentlichen Verkehrs Informationen austauschen. Das können Daten zu Verkehrsfluss, Straßenzustand oder Wetter sein, aber auch Tarifdaten und Fahrpläne. Ein sehr gutes Beispiel ist das Projekt URBAN des Bundeswirtschaftsministeriums. Fortschrittliche Technologien wie Ampelassistent und automatisiertes Ausweichen für den städtischen Raum wurden im Herbst 2015 in Düsseldorf präsentiert.

In internationalem Rahmen erarbeiten die Projektpartner aus Industrie und der akademischen Welt beim EU-Flaggschiff-Projekt Adaptive einen rechtlichen Rahmen für die Einführung des automatisierten Fahrens. Weiter definieren sie eine Systemklassifikation als gemeinsame Sprache. Bereits gestartet sind die Projekte Ko-HAF zum kooperativen hoch-automatisierten Fahren sowie Pegasus zur Entwicklung komplett neuartiger Strategien für die Absicherung der Automation. Das Bundeswirtschaftsministerium unterstützt diese Projekte. Solche vorwettbewerbliche Zusammenarbeit führt in ihrem Verlauf und besonders nach Projektende zu Standards, die dann wiederum die Basis für zukünftige Serienentwicklungen darstellen.