Die Interaktion zwischen Fahrer und Auto entwickelt sich immer weiter. Das ist nötig, um den wachsenden Anforderungen an die Mensch-Maschine-Beziehung gerecht zu werden. Frühere Systeme mussten noch mit sehr vielen Einschränkungen zurechtkommen, wie begrenzte Rechenleistung im Auto und Benutzerschnittstellen (HMI), die nicht auf Sprachdialog ausgerichtet waren. Neuere Systeme auf dem Markt lassen jedoch bereits erahnen, welches Potenzial in einem intelligenten Assistenten steckt. Dieser soll sich ganz einfach mit Sprachbefehlen steuern lassen, um den Fahrzeuginsassen ihre Reise möglichst angenehm zu machen.

Assistenten

Bild 1: Zu den deutschen Standorten des Spracherkennungsspezialisten Nuance gehört auch ein Büro in Aachen. Nuance

Wenn der Bordcomputer eine Stimme bekommt, kann das zudem auch wesentlich zur Akzeptanz selbstfahrender Autos beitragen. Denn Menschen werden ihr Schicksal nur dann freiwillig in die Hände eines autonomen Fahrzeugs legen, wenn sie der Technologie dahinter vertrauen. Und Vertrauen wird auch dadurch aufgebaut, dass das Auto auf natürliche Art und Weise mit dem Nutzer kommuniziert und interagiert.

Was hat der Fahrer wirklich gemeint?

Ein natürlicher Sprachdialog zwingt den Benutzer nicht, einem speziellen Menü von Befehlen zu folgen oder gar Kommandos auswendig zu lernen. Ein gutes Spracherkennungssystem im Auto hört auf den Benutzer und entscheidet selbstständig, welche Aktion in welchem Untermenü ausgeführt werden soll. Der Fahrer sagt seinem Auto einfach, was es tun soll: „Rufe Ingo auf dem Handy an“, „Navigiere zum Delhi Palace und benachrichtige meine Frau, dass wir uns dort um 19:00 Uhr treffen“, „Finde einen günstigen Parkplatz bei der Oper, der Kreditkarten akzeptiert und nach dem Konzert noch geöffnet ist“. Dabei geht es schon lange nicht mehr nur um Spracherkennung, also die Fähigkeit zu erkennen, was gesagt wurde. Es geht immer mehr um „Intent Recognition“, das heißt zu verstehen, was eigentlich gemeint ist und erreicht werden soll. Wenn der Benutzer sagt: „Es ist zu heiß“ oder „Ich habe Hunger“, dann ist dies nicht nur eine Feststellung, sondern eine Aufforderung an den Auto-Assistenten, die Klimaanlage zu regulieren oder ein Restaurant anzusteuern. Um das zu erkennen, kommen ganz unterschiedliche Verfahren zum Einsatz:

Deep Learning: Selbstlernende Systeme, basierend auf Deep Neural Networks, haben sich bei vielen Verfahren der Sprachmustererkennung durchgesetzt. Diese können nicht nur bei den Cloud-basierten Technologien, sondern auch bei den im Auto verbauten Embedded-Lösungen zum Einsatz kommen.

Natural Language Understanding (NLU): Während in der Vergangenheit die Entwickler eines Spracherkennungssystems in mehr oder weniger komplexen Grammatiken vorab festlegen mussten, was an welcher Stelle eines Dialoges erkannt werden kann, kommen in neueren Systemen statistische Verfahren und Sprachmodelle zum Einsatz. Diese werden durch reale Benutzerdaten antrainiert und können sich im laufenden Betrieb auf den entsprechenden Anwendungsbereich optimieren. Je mehr Benutzerdaten zur Verfügung stehen, desto leistungsfähiger und besser wird das statistische Sprachmodell (SLM) im konkreten Anwendungsfall funktionieren.

Reasoning und Personalisierung: Bei Reasoning geht es über das Spracherkennen und Sprachverstehen hinaus darum, logische Konsequenzen und Schlussfolgerungen aus einem wissensbasierten System heraus zur Verfügung zu stellen. Dabei greift die Technologie auf eine Vielzahl von Hintergrundwissen (Knowledge) zu, um dann auf eine Anfrage eine bestmögliche Empfehlung zu geben. Als Beispiel dafür kann ein intelligenter Parkassistent dienen, der in der Lage ist, das oben erwähnte Kommando „Finde einen günstigen Parkplatz bei der Oper, der Kreditkarten akzeptiert und nach dem Konzert noch geöffnet ist“ zu verstehen und weitere Informationen zu berücksichtigen. Handelt es sich etwa um ein Elektroauto und der Akkustatus ist relativ niedrig, sollte ein Parkplatz mit Ladestation angesteuert werden. Im nächsten Schritt werden die erfassten Anforderungen an das Navigationssystem übertragen. In diesem Beispiel sind das: Lage in der Innenstadt, Öffnungszeiten mindestens bis Mitternacht, EV-Ladestation verfügbar und Kartenzahlung möglich. Hierzu greift der intelligente Assistent auf eine Vielzahl von Informationen zurück, zum Beispiel Fahrzeugdaten (Akkustatus), persönliche Daten (Dauer des Konzertes aus Kalendereintrag) und domänenspezifische Daten (Parkplatz-Datenbank mit Öffnungszeiten und Infos zu EV-Ladestationen).

Der Sprachassistent könnte auch Dienste übernehmen, die nicht direkt mit dem Fahren zu tun haben, wie ein Restaurant suchen und einen Tisch reservieren. Ein Befehl könnte lauten: „Finde ein gutes Restaurant in der Nähe der Oper und reserviere dort einen Tisch für zwei nach dem Konzert.“ Auch in diesem Beispiel muss das System in der Lage sein, persönliche Informationen (Essenspräferenzen des Nutzers) mit domänenspezifischen Daten und Services (Restaurantdatenbank mit Ratings, Reservierungsdienst) zu kombinieren, um am Ende ein Ergebnis zu liefern, das den Nutzer zufriedenstellt: ein gutes Konzert gefolgt von einem gemütlichen Abendessen zu zweit.

Seite 1 von 212