Assistenten

(Bild: Nuance)

Die Interaktion zwischen Fahrer und Auto entwickelt sich immer weiter. Das ist nötig, um den wachsenden Anforderungen an die Mensch-Maschine-Beziehung gerecht zu werden. Frühere Systeme mussten noch mit sehr vielen Einschränkungen zurechtkommen, wie begrenzte Rechenleistung im Auto und Benutzerschnittstellen (HMI), die nicht auf Sprachdialog ausgerichtet waren. Neuere Systeme auf dem Markt lassen jedoch bereits erahnen, welches Potenzial in einem intelligenten Assistenten steckt. Dieser soll sich ganz einfach mit Sprachbefehlen steuern lassen, um den Fahrzeuginsassen ihre Reise möglichst angenehm zu machen.

Assistenten

Bild 1: Zu den deutschen Standorten des Spracherkennungsspezialisten Nuance gehört auch ein Büro in Aachen. Nuance

Wenn der Bordcomputer eine Stimme bekommt, kann das zudem auch wesentlich zur Akzeptanz selbstfahrender Autos beitragen. Denn Menschen werden ihr Schicksal nur dann freiwillig in die Hände eines autonomen Fahrzeugs legen, wenn sie der Technologie dahinter vertrauen. Und Vertrauen wird auch dadurch aufgebaut, dass das Auto auf natürliche Art und Weise mit dem Nutzer kommuniziert und interagiert.

Was hat der Fahrer wirklich gemeint?

Ein natürlicher Sprachdialog zwingt den Benutzer nicht, einem speziellen Menü von Befehlen zu folgen oder gar Kommandos auswendig zu lernen. Ein gutes Spracherkennungssystem im Auto hört auf den Benutzer und entscheidet selbstständig, welche Aktion in welchem Untermenü ausgeführt werden soll. Der Fahrer sagt seinem Auto einfach, was es tun soll: „Rufe Ingo auf dem Handy an“, „Navigiere zum Delhi Palace und benachrichtige meine Frau, dass wir uns dort um 19:00 Uhr treffen“, „Finde einen günstigen Parkplatz bei der Oper, der Kreditkarten akzeptiert und nach dem Konzert noch geöffnet ist“. Dabei geht es schon lange nicht mehr nur um Spracherkennung, also die Fähigkeit zu erkennen, was gesagt wurde. Es geht immer mehr um „Intent Recognition“, das heißt zu verstehen, was eigentlich gemeint ist und erreicht werden soll. Wenn der Benutzer sagt: „Es ist zu heiß“ oder „Ich habe Hunger“, dann ist dies nicht nur eine Feststellung, sondern eine Aufforderung an den Auto-Assistenten, die Klimaanlage zu regulieren oder ein Restaurant anzusteuern. Um das zu erkennen, kommen ganz unterschiedliche Verfahren zum Einsatz:

Deep Learning: Selbstlernende Systeme, basierend auf Deep Neural Networks, haben sich bei vielen Verfahren der Sprachmustererkennung durchgesetzt. Diese können nicht nur bei den Cloud-basierten Technologien, sondern auch bei den im Auto verbauten Embedded-Lösungen zum Einsatz kommen.

Natural Language Understanding (NLU): Während in der Vergangenheit die Entwickler eines Spracherkennungssystems in mehr oder weniger komplexen Grammatiken vorab festlegen mussten, was an welcher Stelle eines Dialoges erkannt werden kann, kommen in neueren Systemen statistische Verfahren und Sprachmodelle zum Einsatz. Diese werden durch reale Benutzerdaten antrainiert und können sich im laufenden Betrieb auf den entsprechenden Anwendungsbereich optimieren. Je mehr Benutzerdaten zur Verfügung stehen, desto leistungsfähiger und besser wird das statistische Sprachmodell (SLM) im konkreten Anwendungsfall funktionieren.

Reasoning und Personalisierung: Bei Reasoning geht es über das Spracherkennen und Sprachverstehen hinaus darum, logische Konsequenzen und Schlussfolgerungen aus einem wissensbasierten System heraus zur Verfügung zu stellen. Dabei greift die Technologie auf eine Vielzahl von Hintergrundwissen (Knowledge) zu, um dann auf eine Anfrage eine bestmögliche Empfehlung zu geben. Als Beispiel dafür kann ein intelligenter Parkassistent dienen, der in der Lage ist, das oben erwähnte Kommando „Finde einen günstigen Parkplatz bei der Oper, der Kreditkarten akzeptiert und nach dem Konzert noch geöffnet ist“ zu verstehen und weitere Informationen zu berücksichtigen. Handelt es sich etwa um ein Elektroauto und der Akkustatus ist relativ niedrig, sollte ein Parkplatz mit Ladestation angesteuert werden. Im nächsten Schritt werden die erfassten Anforderungen an das Navigationssystem übertragen. In diesem Beispiel sind das: Lage in der Innenstadt, Öffnungszeiten mindestens bis Mitternacht, EV-Ladestation verfügbar und Kartenzahlung möglich. Hierzu greift der intelligente Assistent auf eine Vielzahl von Informationen zurück, zum Beispiel Fahrzeugdaten (Akkustatus), persönliche Daten (Dauer des Konzertes aus Kalendereintrag) und domänenspezifische Daten (Parkplatz-Datenbank mit Öffnungszeiten und Infos zu EV-Ladestationen).

Der Sprachassistent könnte auch Dienste übernehmen, die nicht direkt mit dem Fahren zu tun haben, wie ein Restaurant suchen und einen Tisch reservieren. Ein Befehl könnte lauten: „Finde ein gutes Restaurant in der Nähe der Oper und reserviere dort einen Tisch für zwei nach dem Konzert.“ Auch in diesem Beispiel muss das System in der Lage sein, persönliche Informationen (Essenspräferenzen des Nutzers) mit domänenspezifischen Daten und Services (Restaurantdatenbank mit Ratings, Reservierungsdienst) zu kombinieren, um am Ende ein Ergebnis zu liefern, das den Nutzer zufriedenstellt: ein gutes Konzert gefolgt von einem gemütlichen Abendessen zu zweit.

Spezielle Anforderungen im Auto

Was müsste geschehen, um eine solche Intelligenz im Auto zu realisieren? Zunächst einmal ist festzustellen, dass fast alle Autobauer das Potenzial eines intelligenten Assistenten erkannt haben. Ebenso wichtig ist die Erkenntnis, dass ein Auto-Assistent spezielle Anforderungen erfüllen muss, die andere Sprachassistenten nicht leisten können. Dazu zählen unter anderem:

Einbettung in das HMI des Autobauers: „User Experience“ ist zunehmend von Bedeutung für die Positionierung einer Marke im Markt. Ein intelligenter Assistent kann zum zentralen Bestandteil dieser User Experience werden und das Markenimage mitgestalten.

Hybride Embedded-Cloud Architektur: Künstliche Intelligenz wird häufig im Zusammenhang mit Cloud-basierten Lösungen genannt. Und in der Tat setzen die namhaften Assistenten auf Smartphones und anderen Consumerelektronik-Geräten fast ausschließlich auf Cloud-basierte Lösungen. Dieser Ansatz ist im Auto jedoch nicht zielführend. Der intelligente Auto-Assistent sollte eben auch in der Tiefgarage oder bei der Fahrt durch den tiefsten Schwarzwald verfügbar sein, auch ohne LTE-Datennetz. Die nötigen Technologien sind verfügbar. Bereits heute lassen sich Sonderzielsuchen realisieren, bei denen mehr als zwei Millionen Sonderziele per Sprache ausgewählt werden können – rein Embedded ohne Zugriff auf eine Cloud. Zukünftig wird sich dieser Trend noch verstärken: Autonomes Fahren wird zwar auf Cloud-Lösungen zugreifen, muss aber auch die Qualität der Verbindung zur Cloud berücksichtigen. Schließlich muss sich ein autonomes Auto auch an Orten zurechtfinden, an denen es kein LTE-Netz gibt, seien es Parkhäuser, Tiefgaragen oder abgelegene Gebirgstäler.

Datenschutz: Ein digitaler Assistent kann seinen vollen Nutzen nur entfalten, wenn er Zugriff auf genügend Daten hat. Speziell in Deutschland werden dabei sehr schnell Bedenken bezüglich Datenschutz und Verwendung der bereitgestellten Daten laut – in vieler Hinsicht zu Recht. Ein weiterer Grund, warum Fahrzeughersteller die Entwicklung eines Auto-Assistenten nicht aus der Hand geben sollten, ist die Bereitstellung von fahrzeugspezifischen Daten. Hierauf haben Smartphone-Assistenten und Consumerelektronik-Geräte berechtigterweise keinen Zugriff. Obwohl es eine große Herausforderung darstellt, lässt sich Datenschutz auch bei intelligenten Assistenten in der Praxis umsetzen. Der Trend zu mehr Rechnerleistung im Fahrzeug wird dabei helfen, das Auto selbst intelligenter und interaktiver zu machen, ohne Kompromisse bezüglich Datenschutz eingehen zu müssen: Werden Daten in den einzelnen Fahrzeugen verarbeitet statt in einer Cloud, sind sie besser vor unberechtigtem Zugriff geschützt.

Typische Anwendungsfälle

Ein Auto-Assistent hat die Aufgabe, alle Use Cases, die für das Fahren, die Route und rund um das Auto relevant sind, bereitzustellen und die Sprachinteraktion nahtlos in das HMI zu integrieren. Für ihn sind spezielle Anwendungsbereiche zentral, die für einen Smartphone-Assistenten keine Bedeutung haben. Beispielsweise können autospezifische Informationen eingebunden werden. Das könnten etwa das Benutzerhandbuch sein oder markenspezifische Informationen wie das Netzwerk von Vertragswerkstätten. Leuchtet ein Warnsignal auf, kann der Fahrer fragen, was es bedeutet, was zu tun ist, und, falls notwendig, einen Termin in der nächsten Werkstatt über den Auto-Assistenten vereinbaren. Dabei werden auch gleich für die Reparatur relevante Daten übermittelt, zum Beispiel Fehlerdiagnosen.

Darüber hinaus wird es dem Auto-Assistenten möglich sein, mit anderen Assistenten zu kommunizieren und entsprechende Aktionen zu initiieren. Das Sprachkommando „Öffne die Garage und drehe die Heizung im Wohnzimmer auf“ kann vom Auto-Assistenten an ein Home-Automation-System weitergegeben werden. Dabei ist wichtig, dass der Benutzer nicht verwirrt wird, mit welchem Assistenten er denn nun wie zu reden hat, sondern mit allen Systemen intuitiv kommunizieren kann. Spezielle Softwaremodule erlauben es Assistenten, bestimmte Aufgaben untereinander zu delegieren, etwa indem alle Onlinebestellungen an Amazons diigitalen Assisten Alexa übermittelt werden.

Assistenten

Bild 2: Zukünftig sollen Sprachassistenten auch eine Videokonferenz im Auto initiieren können. Nuance

Künstliche Intelligenz wird die Art und Weise verändern, wie wir mit intelligenten Geräten und Autos kommunizieren und interagieren. Das Auto wird sich auf seinen Fahrer einstellen, lernen und antizipieren, wie es ihm am besten behilflich sein kann (Bild 2). Manchen Menschen kommt diese Vorstellung noch wie Science-Fiction vor, andere finden sie gar bedrohlich. Die meisten Nutzer werden aber die zunehmende Intelligenz im Auto schätzen lernen, wenn sie sich als echte Hilfe und Bereicherung im alltäglichen Leben erweist.

Was der Sprachassistent Nuance Dragon Drive leistet

Der Dragon-Drive-Assistant von Nuance (Bild 1) bringt Innovationen aus dem Bereich Spracherkennung und -verstehen und künstliche Intelligenz zusammen, um dem Fahrer eine intuitive und sichere Bedienung zu bieten – ausgerichtet auf die individuellen Bedürfnisse und Vorlieben des Benutzers. Dragon Drive ist voll integriert im Auto und funktioniert auch ohne Daten-Connectivity, anders als virtuelle Assistenten auf dem Mobiltelefon, die ausschließlich auf einer Cloud-basierten Sprachtechnologie aufbauen. Die hybriden Sprachfunktionen von Nuance liefern dem Nutzer einen sichereren und smarteren Zugriff auf Apps und Dienste und sind in 40 Sprachen verfügbar.

Nuance hat mit der „Multi-Passenger-Interaction“ eine neue Erweiterung vorgestellt. Bei dieser Lösung kann Dragon Drive nicht nur den Fahrer, sondern mithilfe von Sprachbiometrie auch die verschiedenen Insassen im Auto anhand der Stimme identifizieren und so individuell auf die Bedürfnisse und Kommandos der Mitfahrenden eingehen. Zudem sorgen neue Verfahren der Künstlichen Intelligenz dafür, dass der virtuelle Assistent im Auto den Kontext von eingehenden Nachrichten versteht.

Eck-DATEN

Bei der Sprachsteuerung geht es schon lange nicht mehr nur um Spracherkennung, also die Fähigkeit zu erkennen, was gesagt wurde. Es geht immer mehr um „Intent Recognition“, das heißt zu verstehen, was eigentlich gemeint ist und erreicht werden soll. Das Auto der Zukunft wird sich auf seinen Fahrer einstellen, lernen und antizipieren, wie es ihm am besten behilflich sein kann

Arnd Weil

(Bild: Nuance)
Senior Vice President und General Manager bei Nuance Automotive

(ku)

Sie möchten gerne weiterlesen?

Unternehmen

Nuance Aachen GmbH

Kackertstr. 10
52072 Aachen
Germany