Für Continental ist Augmented Reality „das große Thema für die Fahrerinformation der Zukunft“, betont Eelco Spoelder, Leiter des Geschäftsbereichs Instrumentation & Driver HMI bei Continental bei der ersten öffentlichen Vorstellung des AR-HUD-Systems. Der Begriff AR-HUD steht dabei für Augmented-Reality-Head-Up-Display.

Bild 1: Bei der Navigation per Augmented-Reality-HUD wird der Richtungshinweis quasi Teil des Straßenverlaufs.

Bild 1: Bei der Navigation per Augmented-Reality-HUD wird der Richtungshinweis quasi Teil des Straßenverlaufs. Continental

Ein AR-HUD ergänzt die Außenansicht der Verkehrssituation vor dem Fahrzeug durch virtuelle optische Hinweise (Augmentierungen, Erweiterungen) für den Fahrer. So wird aus dem bisherigen HUD das AR-HUD. Das Besondere daran: Die eingespiegelte Information erscheint exakt dort, wo sie für den Fahrer relevant ist. Bei der Navigation beispielsweise weist ihm an der Abbiegung vor dem Fahrzeug ein passgenau in die Außenansicht eingefügtes virtuelles Symbol den Weg. Bei aktiviertem ACC (Abstandstempomat) visualisiert eine Markierung im AR-HUD, welches vorausfahrende Fahrzeug das Assistenzsystem erkennt und als Geschwindigkeitsreferenz hernimmt.

Technik des AR-HUD

Ein AR-HUD rückt virtuelle Hinweise direkt in die Sichtlinie des Fahrers, indem es in 7,5 m Entfernung vor dem Fahrzeug in einem etwa 130 cm breiten und über 60 cm hohen Ausschnitt des Sichtfeldes des Fahrers vollfarbige Grafiken in die reale Straßenansicht einfügt. Die Basis hierfür liefert die Digital-Micromirror-Device-Technologie (DMD), wie sie auch bei digitalen Kinoprojektoren Verwendung findet. Continental will diese Projektionstechnik bereits im Jahr 2016 in Serie bringen.

In einem Demonstrationsfahrzeug realisierte der Zulieferer als Beispiel drei mögliche Anwendungen des AR-HUD in Verbindung mit Fahrerassistenzsystemen: Das AR-HUD unterstützt den Fahrer als LDW (Spurverlassenswarnung) im Falle des drohenden ungewollten Verlassens einer Fahrspur, beim ACC und beim Navi. Bei aktiviertem ACC hebt eine sichelförmige Markierung im AR-HUD das von der Elektronik erkannte vorausfahrende Fahrzeug hervor. „Damit beginnt eine neue Interaktion zwischen Fahrzeug und Fahrer. Das Fahrzeug zeigt dem Fahrer, was die Assistenzsysteme sehen und was sie leisten. Das schafft Vertrauen und wird deshalb auch helfen, Akzeptanz für heutige und zukünftige Fahrfunktionen zu schaffen“, ergänzt Eelco Spoelder.

Bild 2: Im ACC-Betrieb markiert das AR-HUD das vorausfahrende Fahrzeug.

Bild 2: Im ACC-Betrieb markiert das AR-HUD das vorausfahrende Fahrzeug. Continental

Navigationshinweise spiegelt das AR-HUD ebenfalls in die reale Außenansicht ein. So weiß der Fahrer, an welcher Stelle er abbiegen muss, ohne zwischen Navigationsbildschirm und realer Welt hin und her sehen zu müssen. „Für das AR-HUD war unsere langjährige Erfahrung mit HUD-Technologie eine große Hilfe“, so Spoelder im Rückblick auf die bisherige Entwicklung. „Komplettes Neuland war dagegen die Erzeugung der Augmentierung im AR-Creator.“ Dieses Steuergerät berechnet auf Basis von Kamera- und Radardaten der Bordsensoren unter Berücksichtigung von Fahrdynamikwerten aus dem Fahrzeug sowie mithilfe von digitalen Kartendaten und GPS-Ortung ein Modell der realen Außenansicht aus der Perspektive des Fahrers und kann so die Augmentierungen an der optisch richtigen Stelle erzeugen.

„Mit dem AR-HUD ändert sich die Qualität der Mensch-Maschine-Schnittstelle im Fahrzeug entscheidend“, fasst Spoelder zusammen, „Die Information erscheint dort, wo der Fahrer intuitiv als erstes hinsieht, nämlich in Fahrtrichtung. Ergonomischer und intuitiver erfassbar lassen sich Informationen kaum vermitteln. Mit der Augmentierung sehen wir Continental bei der HUD-Technologie erneut in einer Vorreiterrolle.“

Für Continental sind die derzeitigen HUDs eher ein Informationsfilter mit ergonomischen Vorteilen, aber mit AR-HUD beginne der Einstieg in eine neue Form der Kommunikation zwischen Fahrzeug und Fahrer. „Mit dem AR-HUD beginnt ein Dialog ohne Worte zwischen Fahrer und Auto“, konstatiert Eelco Spoelder.

Augmented-Reality-Head-Up-Display (AR-HUD)

Ein AR-HUD ist nicht einfach eine zusätzliche Anzeigenfläche, sondern eine neue Visualisierungsmöglichkeit für vernetzte Systeme. Bei der Navigation wird der Richtungshinweis beispielsweise Teil des Straßenverlaufs.Gerade für ADAS-Funktionen und das automatisierte Fahren bietet AR-HUD neue Möglichkeiten zur Visualisierung. Ein Paradebeispiel hierfür ist die Markierung des vorausfahrenden Fahrzeugs, durch die der Fahrer volldynamisch erkennt, dass sein eigenes Fahrzeug das vorausfahrende Fahrzeug auch wirklich richtig erkannt hat – eine Anwendung, die vielleicht über die prinzipielle Akzeptanz automatisierter Fahrzeuge entscheidet.

Beispiel LDW

Die Herausforderung für ein Spurverlassenswarner (LDW) besteht darin, den Fahrer möglichst wirksam auf die drohende Gefahr aufmerksam zu machen und dabei Akzeptanz zu finden. Bisher geschieht das beispielswiese über akustische und haptische Signale sowie über Lenkimpulse. In einem AR-HUD kann der Fahrer direkt sehen, worauf die elektronische Assistenz hinweisen will. Continental nutzt hierzu eine Augmentierung in Form von flächigen roten Katzenaugen (Cat Eyes), die das System optisch auf die Begrenzungslinien der Spur legt, um zu zeigen, wo genau die Gefahr droht. Bei der Testfahrt der Redaktion verdeutlichten die Cat Eyes intuitiv den Zusammenhang zwischen Augmentierung und Umgebung, da die Information ein Teil des Verkehrsgeschehens wurde. Im Gegensatz zu anderen Warnstrategien muss der Fahrer bei der Katzenaugen-Markierung per AR-HUD keinen geistigen Transfer zwischen Warnsignal und der von ihm zu leistenden Korrekturhandlung herstellen. Trotzdem ist ein Spurhalteassistent (LKA) mit automatischem Lenkeingriff komfortabler, aber mit leuchtenden Cat Eyes bei einem LKA-Eingriff dürfte es aber viel leichter sein, den Fahrer zurück in die Loop zu holen sowie verschrecktes Gegenlenken zu verhindern.

AR-HUD sinnvoll einsetzen

Die Augmentierungen im Head-up-Display sind zwar aufmerksamkeitsstark und diskret, aber wenn der Fahrer gerade nicht in den Fahrschlauch (und damit auf die HUD-Anzeige) blickt, dann gehören natürlich auch hier akustische und andere Signale zur Warnstrategie dazu. Sobald der Fahrer reagiert, verschwindet die Warnmeldung. Das AR-HUD zeigt nur, was situativ nötig ist. „Weniger ist hier mehr“, erklärt Eelco Spoelder. „Das ist deshalb wichtig, weil sich das Sehfeld für die Augmentierung nur zwei Grad unterhalb der Sehachse des Fahrers befindet. Damit liegt das AR-HUD Sehfeld in der direkten Blickrichtung des Fahrers. Unser Leitmotto ist deshalb, dass die Augmentierung die reale Welt bei Bedarf ergänzen soll, aber nicht ständig überlagern darf.“

Bild 3: Dr. Pablo Richter mit dem Hauptspiegel eines AR-HUD (links) und dem Hauptspiegel eines konventionellen HUDs.

Bild 3: Dr. Pablo Richter mit dem Hauptspiegel eines AR-HUD (links) und dem Hauptspiegel eines konventionellen HUDs. Alfred Vollmer

Zwei Systeme in einem

Continental hat das AR-HUD-System in ein Demo-Fahrzeug des Typs Kia K9 eingebaut, das in Europa nicht erhältlich ist. Entscheidend für die Wahl dieses Fahrzeugs war Conti zufolge der im Armaturenbrett verfügbare Bauraum. In dem Demo-Fahrzeug befindet sich unter dem Sehfeld für die Augmentierungen das vertraute virtuelle Bild eines klassischen Head-up-Displays, weil Continental in diesem Versuchsträger beide Technologien – AR-HUD und klassisches Frontscheiben-HUD – in einem Modul zusammengeführt hat. Die Integration beider Anzeigen in einem System ist zwar nicht zwingend, bietet aber Vorteile, da beide Anzeigen unterschiedliche Informationsbedürfnisse bedienen

Systemaufbau

AR-HUD und klassisches HUD arbeiten dabei mit zwei Bildebenen in unterschiedlichen Projektionsabständen, die auch als Nah- beziehungsweise Statusebene und fernliegende beziehungsweise Augmentierungsebene bezeichnet werden. Die nahliegende Statusebene scheint vor dem Fahrer am Ende der Motorhaube zu schweben und bietet dem Fahrer ausgewählte Status-Informationen wie die aktuelle Geschwindigkeit, geltende Streckenbeschränkungen wie Überholverbote und Tempolimits oder die aktuelle Einstellungen des ACC. Zum Ablesen dieser Informationen muss der Fahrer den Blick nur leicht um knapp sechs Grad absenken. Die Status-Informationen erscheinen in einem Sichtfeld der Größe 5° x 1° (entsprechend 210 mm x 42 mm) in 2,4 Meter Projektionsabstand. Dies entspricht dem virtuellen Bild eines „klassischen“ Head-up-Displays und basiert auf einer Spiegeloptik und einer bildgebenden Einheit (PGU, Picture Generating Unit). Letztere besteht aus einem mit LEDs hinterleuchteten TFT-Display und ist kompakt im oberen Bereich des AR-HUD-Moduls integriert. Eine Spiegeloptik vergrößert den Inhalt des Displays für die virtuelle Darstellung. Zur Verwirklichung zweier Bildebenen in unterschiedlichen Projektionsabständen im AR-HUD überlagern sich die jeweiligen Strahlengänge beider Ebenen intern leicht. Der Strahlengang der nahliegenden Ebene nutzt lediglich die obere Randzone des großen AR-HUD-Spiegels (die große Asphäre) ohne einen weiteren sogenannten Faltspiegel. Dieser Teil des AR-HUD-Systems entspricht dem heute von Continental als zweite HUD-Generation in Serienfahrzeugen integrierten Stand der Technik.

Bild 4: Diese maßstabsgetreuen Modelle eines klassischen Combiner-HUD, eines klassischen HUD und eines AR-HUD zeigen deutlich den erhöhten Volumenbedarf der neuen Technologie.

Bild 4: Diese maßstabsgetreuen Modelle eines klassischen Combiner-HUD, eines klassischen HUD und eines AR-HUD zeigen deutlich den erhöhten Volumenbedarf der neuen Technologie. Alfred Vollmer

„In einem Projektionsabstand von 7,5 m vor dem Fahrer sorgt die Augmentierungsebene für die augmentierte Darstellung von Anzeigesymbolen direkt auf der Straße“, erklärt Dr. Pablo Richter, Experte für HUD-Technologie bei der Continental Division Interior. Inhalte dieser fernliegenden Ebene werden mittels einer erstmals von Continental auf der IAA 2013 präsentierten neuen bildgebenden Einheit erzeugt. Wie bei digitalen Kino-Projektoren werden die grafischen Elemente mit einem Digital Micromirror Device (DMD) erzeugt. Den Kern der PGU bildet ein optischer Halbleiter mit einer Matrix aus mehreren Hunderttausend winzigen Spiegeln, die sich mithilfe elektrostatischer Felder einzeln kippen lassen. Die Mikrospiegelmatrix wird von drei farbigen LEDs (Rot, Blau und Grün) zeitsequenziell in schneller Folge abwechselnd beleuchtet. Die Kollimation (Parallelrichtung) des dreifarbigen Lichtes erfolgt dabei durch Umlenkspiegel mit Farbfilterfunktion (sogenannte dichroitische Spiegel). Diese besonderen Spiegel lassen das Licht je nach Farbe entweder passieren oder reflektieren es. Zeitsynchron zu der gerade beleuchtenden Farbe werden alle Mikrospiegel dieser Farbe so gekippt, dass sie das einfallende Licht durch ein Objektiv reflektieren und so als einzelne Bildpunkte dieser Farbe auf einer nachfolgenden Mattscheibe abbilden. Dies geschieht zeitsynchron für alle drei Farben. Das menschliche Auge „mittelt“ über alle drei Farbbilder auf der Mattscheibe und erhält den Eindruck eines vollfarbigen Bildes.

Von der Vorderseite der Mattscheibe aus betrachtet, entspricht der anschließende Strahlengang dem eines herkömmlichen HUD: Über einen ersten Spiegel (Faltspiegel) wird das Bild von der Mattscheibe auf den zweiten größeren Spiegel (AR-HUD Spiegel) reflektiert. Von dort erfolgt die Einspiegelung in die Frontscheibe. Die Austrittsfläche des optischen Systems für die Augmentierung hat nahezu DIN-A4-Größe. Damit entsteht in der Augmentierungsebene ein Sichtfeld der Größe 10° x 4,8°, was geometrisch etwa einer Breite der augmentierbaren Sichtfläche von 130 Zentimetern und einer Höhe von 63 Zentimetern im direkten Sichtfeld entspricht. Informationen in dieser Fernebene können die Fahrer durch ein leichtes Absenken des Blickes um 2,4 Grad ablesen. Die bildgebenden Einheiten beider Ebenen, die der Status- und die der Augmentierungsebene, ermöglichen eine Darstellung mit einer an die Umgebungshelligkeit angepassten Leuchtdichte von über 10.000 Candela pro Quadratmeter. So ist die Anzeige unter nahezu allen Umgebungslichtbedingungen gut ablesbar.

Zahlreiche Simulationen und Probandenversuche bei Continental zeigten, dass es Fahrer als angenehm empfinden, wenn die Augmentierung etwa 18 bis 20 Meter vor dem Fahrzeug beginnt und sich je nach Streckenverlauf bis in etwa 100 Meter Entfernung fortsetzt.

Hintergrundinfo Head-Up-Display

HUDs zeigen dem Fahrer die wichtigsten Informationen dort an, wo er sie auch tatsächlich braucht: Im direkten Blickfeld. Um eine Reizüberflutung zu vermeiden, sind im Head-up-Display je nach Fahrsituation immer nur die wichtigsten Fakten sichtbar. Wer je ein Head-up-Display in der Praxis erlebt hat, dem muss man den Nutzen eigentlich nicht mehr erläutern, denn das System spricht für sich: Die Augen bleiben auf der Straße, der Fahrer kann Verkehrsgeschehen und Anzeige gleichzeitig im Blick haben. Das virtuelle Bild schwebt dabei in rund 2 ½ Meter Entfernung über der Motorhaube. Bei Frontscheiben-Head-up-Displays müssen sich die Augen daher nur in einem ganz kleinen Bereich von Fernsicht auf ganz leichte Nahsicht (2,5 m) umstellen.

„Wegen der ergonomischen Vorteile sehen wir das Head-up-Display klar als Wachstumstechnologie“, kommentiert Eelco Spoelder von Continental. „Inzwischen gilt das längst nicht mehr nur für die Premiumklasse. Mit dem Anlauf der zweiten Generation unseres Frontscheiben-HUD im Jahr 2010 sind wir auch in der Mittelklasse vertreten. Aktuell bieten weltweit zehn OEM in insgesamt 19 Fahrzeugmarken ein Head-up-Display als Option an. Wir rechnen für das laufende Jahr für den weltweiten Gesamtmarkt mit mehr als 1,5 Millionen produzierten Head-up-Displays.“

Bereits seit 2003 liefert Continental (damals noch als Siemens VDO Automotive) HUDs an OEMs, und das Unternehmen erwartet, dass sich diese weltweite Stückzahl bis 2018 etwa verdreifachen und „wohl eher bei zirka fünf Millionen Einheiten liegen“ wird. „Noch aussagekräftiger ist eine andere Beobachtung“, führt Eelco Spoelder weiter aus: „Noch kein OEM, der einmal ein HUD in einem Modell als Option integriert, hat beim Folgemodell darauf verzichtet! Das System spricht wirklich für sich. Und sogar in der Kompaktklasse erobert das HUD Platz im Cockpit: als Combiner-HUD. Unsere ersten SOP bei zwei Fahrzeugherstellern erwarten wir für 2015. Damit sind wir bei Head-up-Displays ein echter Komplettanbieter.“ Das Unternehmen geht davon aus, dass sich der HUD-Markt bis zum Jahr 2018 zu gleichen Teilen zwischen Frontscheiben-HUD und Combiner-HUD aufteilen wird.

Während ein klassisches HUD direkt in die Frontscheibe projeziert, erfolgt die Projektion bei einem Combiner-HUD auf eine innen vor der Windschutzscheibe montierte Glasplatte. Beim Combiner-HUD ist somit keinerlei Geometrie-Anpassung an die Frontscheibe erforderlich; es handelt sich beim Combiner-HUD – vereinfacht gesagt – quasi um ein in besonders hohen Stückzahlen produzierbaren System-Standardbaustein, der ohne besonders aufwändige Adaption OEM-übergreifend in sämtlichen Neufahrzeugen integrierbar ist.

Continental liefert HUDs in Serienfahrzeuge von Audi, BMW und Daimler. Eine Recherche von AUTOMOBIL-ELEKTRONIK hat ergeben, dass Zulieferer wie Bosch, Delphi, Denso, Ford, Harman, MTA, Nippon Seiki, Panasonic, Valeo und Visteon bereits diverse HUDs in Serienfahrzeuge ausliefern, während gleichzeitig viele HUD-Entwicklungsprojekte laufen – und zwar mindestens bei den folgenden OEMs: Acura, Alfa Romeo, Audi, Bentley, BMW, Buick, Cadillac, Chevrolet, Citroën, Hyundai, Jaguar, Jeep, Kia, Lamborghini, Land Rover, Lexus, Mazda, Mini, Nissan, (wohl auch Opel, siehe Buick), Peugeot, Porsche, Qoros, Rolls-Royce, Toyota, Volkswagen und Volvo.

AR-Creator und Bilderzeugungseinheit

Wie kommt die Augmentierung dahin, wo sie hingehört? „Rein optisch gesehen, wirkt die Sache trügerisch einfach: Da erscheinen rote Katzenaugen passgenau auf der Markierung, die gerade überfahren wird. Aber die Komplexität hinter den Kulissen ist enorm“, erläutert Eelco Spoelder. Das Steuergerät zur Bilderzeugung taufte Continental AR-Creator. In seinem Innern läuft „eine ausgesprochen anspruchsvolle Datenfusion“ ab. Bereits in der Vorentwicklung kommt hierfür ein automotive-tauglicher Vierkern-Prozessor zum Einsatz, der mit Taktfrequenzen von 1,2 Gigahertz arbeiten kann.

Der AR-Creator übernimmt eine Datenfusion aus drei Quellen: Die Geometrie des Straßenverlaufs stellt die Monokamera zur Verfügung – und zwar vor allem in Form von Klothoiden als mathematische Beschreibungen für den Krümmungsverlauf der Fahrspur vor dem Fahrzeug. Größe, Lage und Entfernung von erkennbaren Objekten vor dem Fahrzeug stammen aus einer Kombination von Radarsensordaten und Interpretation der Kameradaten. Der eHorizon liefert schließlich den Kartenrahmen, in dem die vor Ort sensierten Daten hineininterpretiert werden. Im Demonstratorfahrzeug ist dieser eHorizon noch statisch und verwendet ausschließlich Datenmaterial der Navigation. Continental arbeitet bereits an der Serienreife von vernetzten und damit hochdynamischen eHorizon-Angeboten. So ist dann auch die Aufbereitung von Daten aus unterschiedlichen Quellen (V2V, Verkehrsleitzentralen und so weiter) für die Darstellung im AR-HUD möglich. Die Positionierung des Fahrzeugs auf einer digitalen Karte erfolgt mithilfe der Fusion von Fahrdynamik-, Kamera- und GPS-Daten.

Aus den fusionierten Daten errechnet der AR-Creator, wie der geometrische Straßenverlauf vor dem Fahrzeug aus der Position des Fahrers aussieht. Das ist möglich, weil die Augenposition des Fahrers bekannt ist: Im Demonstratorfahrzeug stellt der Fahrer vor Fahrtantritt einmalig die Lage der sogenannte Eye Box für sich richtig ein. Für die Serie lässt sich dieser Vorgang mit einer Innenraumkamera automatisieren, welche die Augenlage des Fahrers erkennt und die Positionierung der Eye Box nachführen kann. Der Begriff Eye Box bezeichnet einen quaderförmigen Bereich, dessen Höhe und Breite einem theoretischen Sichtfenster entspricht. Nur solange der Fahrer durch dieses Fenster auf die Straße blickt, erfasst er das komplette AR-HUD-Bild. Die Fahrzeugpassagiere sehen den dargestellten Inhalt von HUD und AR-HUD nicht.

ACC

Das AR-HUD ist nicht einfach eine zusätzliche Anzeigenfläche, sondern eine neue Visualisierungsmöglichkeit für vernetzte Systeme. Gerade für ADAS-Funktionen und das automatisierte Fahren bietet AR-HUD neue Möglichkeiten zur Visualisierung. Ein Paradebeispiel hierfür ist die Markierung des vorausfahrenden Fahrzeugs, durch die der Fahrer volldynamisch erkennt, dass sein eigenes Fahrzeug das vorausfahrende Fahrzeug auch wirklich richtig erkannt hat – eine Anwendung, die vielleicht über die prinzipielle Akzeptanz automatisierter Fahrzeuge entscheidet.

In dem Demofahrzeug markiert das AR-HUD bei aktiviertem ACC den erkannten Vordermann mit einer Sichel knapp unterhalb des vorausfahrenden Fahrzeugs. Für den Fahrer heißt das intuitiv: „Fahrzeug erkannt, alles OK“. Dasselbe gilt beim Spurwechsel: Auch hier kann der Fahrer mitverfolgen, wie sein Wagen ein neues, vorausfahrendes Auto findet.

Setzt der Fahrer zum Überholen an und gibt Gas, so ändert sich die Farbe der Sichel. Der Fahrer hat das ACC überstimmt. Mit anderen Worten: Das Auto bestätigt dem Fahrer, dass es seine Absicht verstanden hat. Wenn das ACC an seine Regelgrenze gerät, erscheint im AR-HUD eine rote Sichel hinter dem Vordermann. Im Gap-Setting-Modus zeigt das neue System besonders griffig, welchen Reaktionsabstand der Fahrer mit seiner Vorgabe an das ACC hat. Blaue Balken verdeutlichen, was die abstrakten Zeitangaben zwischen 1 Sekunde und 2,1 Sekunden wirklich bedeuten: nämlich Sicherheitsabstand. Ist der Abstand zum Vordermann zu knapp, um alle Balken darstellen zu können, so blinkt der vorderste Balken. Der direkte Zusammenhang zwischen Abstand, Zeit und Sicherheit dürfte mit dieser Funktion wirklich jedem klar werden und kann bestimmt die Verkehrssicherheit deutlich erhöhen, aber ob deren Implementierung auch bei allen Autofahrern auf Gegenliebe stößt, bleibt dahingestellt – vor allem wenn man an die zahlreichen Fahrzeuge mit viel zu wenig Sicherheitsabstand bei hohen Geschwindigkeiten denkt.

Navigation

Heutige Navigationssysteme helfen, indem sie die Hinweispfeile der Turn-by-Turn-Navigation beispielsweise in das Frontscheiben-HUD einspiegeln, aber der Fahrer muss dabei immer noch die abstrakte Ebene der Hinweisgrafik in Bezug zur Wirklichkeit bringen, was in komplexen Verkehrssituationen durchaus anspruchsvoll sein kann. Das AR-HUD bietet im Rahmen der Navigation quasi eine individuelle Beschilderung: Der Hinweis wird Teil des Straßenverlaufs.

An Abzweigungen erzeugt der AR-Creator rechtzeitig vor einem solchen Manöver winkelförmige Pfeilspitzen, die sich dynamisch verändern und wie eine Fahrbahnmarkierung den Weg weisen. Mit der Annäherung zur eigentlichen Abzweigung dreht sich die Pfeilspitzen-Kette (Continental nennt sie Fishbone, also Fischgräte) in die einzuschlagende Richtung. Erreicht der Fahrer die Abzweigung, verschwinden die Pfeilspitzen bis auf die vorderste. Diese richtet sich auf und wird so zum virtuellen Hinweisschild.

Analog hierzu kommt das Prinzip der Fishbones mit anschließendem großem aufgerichteten Pfeil auch bei anderen Manövern zum Einsatz, und mit einem hochdynamischen elektronischen Horizont ergeben sich dann ganz neue Möglichkeiten.

2017 soll das AR-HUD-System serienreif sein. Während ein aktuelles klassisches Serien-HUD vier Liter Einbauvolumen benötigt, beansprucht das Vorserienmodell noch 13 Liter, „aber 11 Liter halten wir in der Serie für erreichbar“, betont Eelco Spoelder.