Young woman waiting in a hall sitting in modern office working on laptop talking on the phone

Das HMI der Zukunft – kurz HMI 5.0 – wird mehrere Sinne beteiligen. (Bild: HY-Line Computer Components)

Träumen wir uns zukünftig vielleicht unsere Geräte mit dem Gedankeninterface zusammen und braucht es dann überhaupt noch Touchscreens?

Doch vorab kurz zur Geschichte: Vor zwölf Jahren sorgte das iPhone von Apple mit einem neuen Bedienkonzept für Furore: Ein Touchscreen ersetzt die Tastatur, die gesamte Vorderseite des Geräts füllt ein riesiger Bildschirm mit einer bislang nicht da gewesenen Pixeldichte. Bedient wird über den Touchscreen mit projiziert-kapazitivem Feld, das auch mehrere Touchereignisse gleichzeitig erkennt und auswertet.

Seit dieser Produktvorstellung hat sich die Welt der Ein- und Ausgabe gewandelt: Aus der punktuellen Berührung des Touchscreens, die genau eine Aktion auslöste, wurden Gesten mit einem oder mehreren Fingern. Bewegungen wie Tippen und Sliden steuern unterschiedliche Funktionen und lösen komplexe Aktionen aus. „Drag and Drop“ oder „Pinch“ funktionieren aus dem Handgelenk, ohne umständlich über Menüs Objekte auszuwählen und eine Aktion zuzuordnen. Diese Umstellung verlangte eine völlig neue darunter liegende Software und damit ein neues Bedienkonzept. Heute gehört es zum Standard und schon die Kleinsten beherrschen die Bewegungen in Sekundenschnelle.

Was nach den Touchscreens kommt

753iee0619_Hyline_HMI_50_Bild XX

Stärken und Schwächen der Technologien HY-Line Computer Components

Aber: Müssen Aktionen immer durch Berühren eines dem Bildschirm vorgelagerten Touchscreens initiiert werden? Ist es nicht auch denkbar, Bewegungen vor dem Bildschirm auszuwerten? Ja, ist es, und auch gleich mehrere Technologien nutzen diese Vorstellung: Für Gesten etwa, die keine besondere Anforderung an die Genauigkeit stellen, eignen sich 3D-Touchsysteme, die Positionen durch eine Änderung in einem elektrischen Feld bestimmen.  Für eine qualitative Bestimmung „Lauter/Leiser“, „Höher/Tiefer“, „Zoom in/Zoom out“ reicht die Auflösung dieser Systeme.

Soll die Position genauer ausgewertet werden, kommen Kameras zum Einsatz, die den Händen des Bedieners folgen. Die höchste Auflösung der Position bieten die Steuergeräte für AR/VR-Brillen, die eine feinfühlige Steuerung erlauben.

Einen anderen Ansatz verfolgt das „Eye Tracking“. Nach einer kurzen Lernphase ist das System in der Lage, die Pupillen des Bedieners per Kameras zu verfolgen. Der „Mausklick“ erfolgt durch Blinzeln. Nach einer Eingewöhnung kann der Bediener so ohne den Einsatz der Hände das System bedienen. Anwendungen sind überall dort, wo die Hände gerade nicht frei sind oder steril bleiben müssen.

Alexa, Siri und Co.

753iee0619_Hyline_HMI_50_Bild X

Ein- und Ausgabewege der Mensch-Maschine-Schnittstelle HY-Line Computer Components

Ein weiterer Trend ist die Sprachsteuerung, wie es Apple, Google und Amazon vormachen: Das Abrufen von Informationen aus dem Internet oder die Steuerung von Geräten im heimischen Wohnzimmer funktioniert ganz einfach auf Zuruf. Dahinter steckt eine künstliche Intelligenz, die in einer Serverfarm des Anbieters steckt.

Etwas einfacher ist die Spracheingabe, die mehr oder weniger strikten Syntaxregeln folgt. Vorzufinden im Navigationssystem von PKWs, „Bitte geben Sie die Adresse ein in der Form Stadt, Straße und Hausnummer“. Das Parsing, also das Zuordnen der eingegebenen Worte zu Feldern in der Datenbank, kann ein lokaler Controller durchführen, und die gewünschte Aktion ausführen, sei es die Navigation zur Zieladresse oder das Wechseln des Radiosenders.

Auch die Visualisierung ändert sich

Auf der anderen Seite der Interaktion steht die Ausgabe, die meistens ein Display erledigt. Dieses stellt mit hoher Auflösung die gewünschten Informationen ergonomisch dar. Einen entscheidenden Anteil hat jedoch die Benutzerführung, die die Software vornimmt („GUI“ = Graphical User Interface“). Sie legt fest, wie Informationen präsentiert werden: durch Farben, Formen, Anordnung auf dem Bildschirm und Darstellung in Relation zueinander.

Auch in der Visualisierung schreitet die Technik voran. Wiederum getrieben durch die Stückzahlen des Massenmarktes erscheinen OLED mit brillanter Darstellung und einer durch den enormen Kontrast hervorragenden Bildqualität. In bestimmten Anwendungen scheinen sie der LCD-Technologie den Rang abzulaufen, auch wenn sie prinzipbedingt einem Alterungsprozess unterliegen, der durch Nachlassen der Helligkeit sichtbar wird. TFT kontert mit Quantum Dots, die unter Namen wie „QLED“ in den Markt drängen und einen hohen Farbumfang mit leuchtenden Farbtönen versprechen. Noch im Laborstadium befinden sich Schirme mit Mikro-LEDs, die der LED-Technologie zu einer Renaissance verhelfen und sie von der reinen Lichtquelle für TFTs zur Bildquelle an die Front rücken lässt. Die Fertigung großer Bildschirme mit hoher Auflösung ist fertigungstechnisch für die Serie zwar noch nicht gelöst, Prototypen zeigen jedoch das große Potential, das diese Technologie aufweist.

Bitte um Rückmeldung

Der Anwender eines HMI von heute darf ein durchgängiges Konzept erwarten. Nicht eine Technologie alleine führt zum Erfolg, sondern deren Kombination, denn ein Human-Machine-Interface muss eine schlüssige Eingabefunktion anbieten, die viele Sinnesorgane anspricht.  Zu den beschriebenen Touchsystemen kommt aber auch die haptische Rückmeldung, die dem Bediener über den Tastsinn auf direktem Wege die erfolgreiche Eingabe signalisiert. Sie könnte alternativ akustisch über einen Piepser erfolgen, was jedoch in lauter Umgebung unter Umständen im Lärmpegel untergeht.

HMI 5.0 als nächste Revolution

Titelbild

AR/VR sind interessante Konzepte für die zukünftige Bedienung. HY-Line Computer Components

Was bedeutet jetzt HMI 5.0? Der Begriff beschreibt die umfassende Interaktion des Menschen mit dem System mithilfe aller Sinne. Neue Methoden kommen auf den Markt, etwa für die Eingabe die Erkennung von 3D-Gesten, die Spracherkennung, das Eye Tracking. Für die Ausgabe steigt die Bedeutung der Haptik, die das Manko gängiger Touchscreens, nämlich die unmittelbare Auslösung bei Berührung ohne Rückmeldung   kompensiert, und die dreidimensionale Visualisierung mit Hologrammen oder Brillen. Durch leistungsfähigere Grafikkarten sind Brillen für AR und VR bezahlbar geworden. Zunächst getrieben durch Computerspiele, haben VR-Brillen ihre Berechtigung bereits im Simulator-Training gefunden, wo sie den Bediener optisch und akustisch in eine realistische Szene versetzen. Der Kommunikationskanal zwischen Mensch und Maschine ist breiter geworden: Sehen und gesehen werden –  mit Bildausgabe und Eye-Tracking; hören und gehört werden – mit Tonausgabe und Spracheingabe; tasten und fühlen – mit Touchscreen und haptischem Feedback. Nur Riechen und Schmecken fehlen noch in diesem Reigen.

Wie es weitergeht

Angesichts all dieser Alternativen bleibt die Frage: Ist die Touchbedienung noch State of the Art? Diese lässt sich ganz klar mit “Ja” beantworten. Trotz vieler neuer Technologien wird der Touchscreen noch längere Zeit am Drücker sein. Darüber hinaus wird die umfassende, multi-sensuelle Kommunikation des Menschen mit dem Computer, die sich nicht nur auf Tastatur/Touchscreen und Bildschirm beschränkt eine wichtige Rolle spielen.

Auch wenn einigen Technologien noch nicht der Durchbruch in die Breite gelungen ist, stehen sie als Werkzeug bereit, dem Anwender eine neue User Experience zu ermöglichen.

Die Implementierung von Software für Künstliche Intelligenz (KI) oder Machine Learning (ML) wird dem Entwickler mit neuen Technologien erleichtert, weil die Manipulation von Daten intuitiver erfolgt.

Rudolf Sosnowsky

Leiter Technik bei HY-Line Computer Components Vertriebs GmbH in Unterhaching

(ml)

Sie möchten gerne weiterlesen?

Unternehmen

HY-LINE Computer Components

Inselkammer Str. 10
82008 Unterhaching
Germany