den Screenshot in den großen Monitor bitte einbauen.sk

(Bild: Redaktion IEE)

770iee1116_b1_dsc_0052

"Die HoloLens wird für einige Szenarien ein wichtiger Baustein zur Effizienzsteigerung." André Lange, Iconics Redaktion IEE

Herr Lange, wie lässt sich der Unterschied zwischen Augmented Reality der HoloLens zu einer virtuellen Umgebung beschreiben?

André Lange: Virtual Reality kennen wir bereits von anderen Brillen, sehr häufig aus dem Gaming-Umfeld. Hier taucht der Träger in eine komplett andere Welt, eine andere Realität ein. Bei der HoloLens ist das anders. Der Riesenvorteil besteht darin, dass der Träger seine reale Umgebung nachwievor sieht, überlagert mit zusätzlichen, virtuellen Informationen – wann immer und wo immer es angebracht ist. Das bezeichnet man als Augmented oder Mixed Reality.

Und wie funktioniert das?

André Lange: Die Brille hat diverse Kameras, Audiosysteme und weitere Sensorik. Über eine Art Head-up-Display blendet die AR-Brille die virtuellen Inhalte in das Blickfeld des Trägers ein. Die Kameras scannen parallel dazu permanent die Umgebung mit allen Gegenständen und generieren daraus ein Koordinatensystem. Darauf aufbauend werden die virtuellen Informationen eingeblendet oder lassen sich vom HoloLens-Träger beliebig aufrufen, positionieren und im Raum fixieren. Einmal definiert bleiben die virtuellen Informationen in diesen Koordinaten verankert und der Träger kann sich darum herumbewegen. Anwender wie Autodesk, Maya und auch Volvo haben bereits HoloLens in Use cases erprobt. Das sind aber alles statische Applikationen für die Konstruktion oder die Konfiguration von Autos. Wir präsentieren die erste 3D Echtzeit Mixed-Reality Scada-Umgebung.

Und Iconics hat jetzt die Visualisierung in die HoloLens gepackt?

André Lange: Genau. Für Anwender unserer Software Genesis64 ist es einfach ein weiterer Visualisierungs-Client, der über die Grafikengine Unity die HoloLens mit den Screens der Visualisierung und Grafiken versorgt. Heute benutzen wir HoloLens mit Unity Grafikengine als zusätzlichen Client, neben HTML5 für Smartphone und Tablets und WPF für Desktops.

Das klingt jetzt trivial.

André Lange: Wer seine Hausaufgaben gemacht hat, für den ist es relativ leicht. Iconics hat die Grundlagen schon viel früher geschaffen. Bereits 2008 sind wir komplett auf C# Managed Code und 64 Bit umgestiegen. Damals eine enorme Kraftanstrengung, die nicht viele nachmachen konnten. Dieser Schritt hat in der darauffolgenden Zeit vieles einfacher gemacht. Wenn Microsoft ein neues Betriebssystem herausgebracht hat, Windows Vista, gefolgt von Windows 7 und letztes Jahr Windows 10 dann war es für uns einfach, diese Betriebssysteme zu adaptieren. Und unsere Grafikengine ist die Windows Presentation Foundation – die Basis schlechthin, um die nächsten Schritte in Richtung Mixed Reality zu gehen.

Bei der HoloLens kommt allerdings eine neue Grafikengine aus dem Gamingbereich zum Tragen – Unity. Die bietet entsprechend mehr Performance und ein paar Vorteile gegenüber der WPF. Da Unity aber hinsichtlich der Programmierumgebung viele Parallelen zur WPF aufweist, war es zumindest für uns einfach, unsere Visualisierung auf die Grafikengine zu heben. Zudem haben wir schon seit 2008 Erfahrung in der Erstellung von 3D Visualisierung, die jetzt in der HoloLens genutzt wird.

Dadurch funktioniert Genesis64 jetzt neben Desktop und mobilen Geräten künftig auch in virtuellen Umgebungen. Für Projekteure wichtig zu wissen. Egal welches Endgerät zum Einsatz kommt, ob Panel-PC, Leitwarte oder HoloLens, es ist immer die gleiche Umgebung mit der das Projekt erstellt wird.

Und ich muss keine zusätzlichen Entwicklungsschritte vorsehen, um den Weg in Richtung Augmented Realität zu gehen?

André Lange: Überhaupt nicht. Das ist das Interessante. Es gibt keinen Medienbruch. Der Entwickler muss nicht mehrere Programme starten und anfangen mit Konvertierungsprogrammen zu arbeiten. Am Ende der Programmierung muss er nur angeben, ob die HoloLens das Zielsystem sein soll. Das ist für mich durchgängiges Engineering. Und was schon einmal für den Desktop entwickelt wurde, kann ohne Weiteres auch für die HoloLens benutzt werden. Einzige Voraussetzung – Die Daten müssen über Standard-Protokolle zugänglich sein, die wichtigen Assets sollten in 3D vorliegen, was bei heutigen Konstruktionen meistens der Fall ist. Für Gebäude kann auch BIM helfen.

Die Gesten zur Steuerung sind aus früheren Projekten abgeleitet?

André Lange: Sie meinen die Kinect-Steuerung, die wir 2008 in die industrielle Umgebung gebracht haben? Wie bei C# hat uns das bei der Implementierung der HoloLens geholfen. Im Vergleich zum Kinect-Sensor hat Microsoft andere Gesten standardisiert. Mit der Faust beispielsweise, die ich vor dem Gesichtsfeld öffne, ziehe ich beispielsweise ein Hologramm auf.

Wann gingen die Entwicklungsarbeiten in Richtung HoloLens los?

André Lange: Das ist recht kurzfristig passiert. Anfangs war es etwas schwierig, an die Devices heranzukommen. Aber wir haben dann vor etwa sechs Monaten vier Geräte bekommen und konnten mit der Entwicklung beginnen. Unser Hauptaugenmerk lag dabei auf der Implementierung der Unity Engine, zu der wir bis dato nichts hatten.

Wo kommen die Detaildaten für die Hologramme denn her, aus dem Konstruktionsprozess, den CAD-Engineerings-Tools?

André Lange: Sowohl als auch. Auch vor der HoloLens konnten wir schon 3D-Daten importieren, die bei der Konstruktion generiert werden, beispielsweise aus AutoDesk, Maya und anderen Systemen. Und das ist sehr praktisch für Anlagenbauer oder Gebäudeplaner, die heute fast alle in 3D planen. Für unsere Demos haben wir beispielseise Konstruktionsdaten der Firma Beckhoff sowie von Comau importiert.

Der bei Industrie 4.0-Szenarien viel zitierte Digitale Zwilling ist also Pflicht, wer Mixed Reality umsetzen will?

André Lange: Das kann man so sagen, Dann beschränkt sich der Aufwand auf den Import der Daten, ist also relativ gering. Üblicherweise haben CAD-Daten aber unendlich viele Details bis hin zu jeder Schraube Unterlagscheibe und Mutter. Das brauchen wir hier nicht in dieser Detailtiefe. Daher haben wir einen Algorithmus hinterlegt, der diese so genannten Polygone reduziert. Ein typischer Kuka-Roboter, der hatte beim ersten Import 30 Millionen Polygone. Das ginge zwar noch, hätte aber die Visualisierung verlangsamt. Unser Algorithmus hat die Anzahl auf 30 000 Polygone reduziert. Das reicht vollkommen, um alle für die Visualisierung notwendigen Details sauber darzustellen.

Kann man den Detaillierungsgrad auch steuern, beispielsweise abhängig vom Use Case und den Zugriffsrechten?

André Lange: Ja, das ist durchaus möglich die Zugriffsrechte je nach Rolle des HoloLens-Trägers einzuschränken und zu definieren was derjenige alles sehen und bedienen darf. Man kann auch innerhalb eines Bildes Einschränkungen vornehmen und einzelnen Felder beispielsweise ausgrauen.

Zugriffsrechte lässt ich bei einem normalen Device, wie einem Tablet, Smartphone, oder Panel-PC regulieren, über einen Zugangscode oder Passwort. Wie ist das bei der HoloLens geregelt?

André Lange: Die HoloLens nutzt Windows 10. Damit stehen auch dessen Security-Funktionen und deren Methoden zur Authentifizierung und verschlüsselten Datenübertragung zur Verfügung, vergleichbar mit dem Hochfahren und Anmelden eines Standards-PCs.

Funktioniert die HoloLens auch offline? Schließlich ist nicht in jeder Umgebung immer ein WLAN mit ausreichender Bandbreite verfügbar.

André Lange: Die Daten für die Hologramme sind in der HoloLens auf dessen Rechner gespeichert, der auch die Renderings der Umgebung erledigt. Ist die Verbindung zu dem Daten-Provider unterbrochen, dann funktionieren die Hologramme nachwievor. Allerdings fehlen die Echtzeit-Daten aus dem Prozess. Aber es gibt Mechanismen, so etwas entsprechend aufzufangen. Wurden etwa Sollwerte verändert, werden diese Informationen nach dem Verbindungsaufbau an die SPS übertragen.

Stichwort Echtzeitdaten. Woher und wie kommen die in die HoloLens?

André Lange: Durch unser Backend-System, Genesis64. HoloLens ist für uns ja nur ein Client der Visualisierung. Irgendwo steht daher ein Server mit den Echtzeitdaten, eine Steuerung, eine Leitzentrale oder ein Gebäudecontroller.

Also der klassische Visualisierungsserver, auf dem die eigentliche Applikation läuft.

André Lange: Die datenverarbeitenden Dinge laufen auf dem Server. Hier setzen wir als Schnittstellen zu den Steuerungen auf OPC Classic, OPC UA, BACnet in die Gebäudeautomatisierung oder auch SNMP, Web Services und Datenbanken um die Daten aus anderen Systemen zu holen.

Gibt es auch eine Rückkopplung zur klassischen Maschinenvisualisierung, wie viele HoloLens-User gerade auf der Anlage sind?

André Lange: Auch so etwas lässt sich realisieren, ja.

Wie läuft ein HoloLens-Projekt ab, bei einer komplett neuen Applikation und bei bestehenden Genesis-Projekten?

André Lange: Das sind zwei unterschiedliche Ansatzpunkte. Gibt es eine Iconics-Infrastruktur, dann ist es recht schnell umgesetzt. Ich brauche die 3D-Daten, entweder aus den CAD-Daten oder mittels unserer Symbolbibliothek selbst generiert. So läuft die HoloLens-Applikation relativ schnell. Die nächste Generation von Genesis64 wird die HoloLens von Hause aus unterstützen, ohne eine Zeile Code schreiben zu müssen, um das zu bewerkstelligen.

Auch wer noch keine Iconics-Visualisierung nutzt, kann die HoloLens implementieren. Dazu muss neben der bestehenden Visualisierung lediglich Genesis64 aufgesetzt werden.

Und wie binden Sie diese Fremdapplikationen ein?

André Lange: Mit den gleichen Standardprotokollen, über die wir die Daten abgreifen, beispielsweise OPC UA oder OPC Classic.

Wie ordnen Sie die HoloLens ein im Kontext Bedienen, Visualisierung, Scada? Wird das nur ein Add On oder wird sie die klassischen Bediengeräte ein stückweit verdrängen?

André Lange: Sicherlich nicht verdrängen. Es wird weiterhin Leitwarten und die klassischen Desktop-Anwendungen geben. In einigen Use Cases wird die HoloLens vieles verändern – Fehlersuche, Wartung, Inbetriebnahme und Schulung. Klassisches Monitoring und Trainings-Szenarien gehören sicherlich auch dazu. Neues Personal anlernen, das im Feld unterwegs ist und kurzfristig wissen muss, wie etwas anzuschließen oder zu montieren ist, das lässt sich mit der HoloLens relativ simpel umsetzen.

Bei Wartungseinsätzen können die teuren Spezialisten in der Zentrale bleiben und die Monteure vor Ort schneller und besser mit Informationen versorgen sowie Anweisungen geben. Bei einer Offshore-Plattform bleibt der Spezialist zu Hause, spart sich die drei Tage An- und Abreise. Stattdessen tragen die Monteure vor Ort und der Spezialist jeder eine HoloLens. Beide sehen dieselbe Anlage und können sich gegenseitig über eine parallele Skype-Verbindung auch noch sehen und so gegenseitig die Informationen austauschen, was gemacht werden muss. Es lassen sich Dokumente einblenden und der Spezialist kann tatsächlich auch visuelle Anweisungen geben. Dreh diese Schraube hier raus und mach dann dies oder jenes. Das bringt in meinen Augen eine deutliche Verbesserung und Effizienzsteigerungen.

Bieten Sie auch einen Migrationsservice an, unterstützen bei der Umsetzung?

André Lange: Wir werden sicherlich mit solchen Angeboten in den Markt gehen. Das kommt jetzt alles mit der Markteinführung der HoloLens im November.

Iconics hat einige Kooperationspartner, die Genesis labeln. Gibt es bei denen schon Interesse am HoloLens-Client?

André Lange: Das wird es mit Sicherheit geben, aber wir sind jetzt noch recht früh dran. Wir bereiten gerade den Markt vor und zeigen unsere Implementierung erstmals auf der SPS IPC Drives anhand von zwei Applikationen. Mit Sicherheit gibt es Interesse auch von weiteren Herstellern, die unsere Technologie gerne branden möchten. Denn Augmented Reality wird eine gern genutztes Add On.

770iee1116_b2_dsc_0043

"Die HoloLens ist einfach ein weiterer Client unserer Visualisierung." André Lange, Iconics Redaktion IEE

Wie demonstrieren Sie die Möglichkeiten der HoloLens auf der Messe?

André Lange: Zusammen mit Microsoft zeigen wir in Nürnberg erstmals zwei industrielle Use Cases mit der HoloLens. Wir werden zwei HoloLens-Brillen vor Ort haben, da ich mit einem Run auf die Devices rechne.

Was sind die Kernelemente der Szenarien?

André Lange: In Zusammenarbeit mit Beckhoff zeigen wir einen Use Case, der das Potenzial beim Training aufzeigt. Wie baue ich eine Beckhoff-SPS auf und wie verkable ich die Steuerung richtig? Darüber kann ich den virtuellen Zwilling direkt neben dem realen Aufbau platzieren und mir Schritt für Schritt die Verdrahtungsreihenfolge anzeigen lassen.

Der zweite Use Case ist mit dem italienischen Anlagenbauer und Roboterhersteller Comau entstanden, der B&R-Steuerungen im Einsatz hat. Wir zeigen anhand einer Applikation aus dem Automobilbau einen realen Roboter. Gleichzeitig ist dieser Roboter als virtuelles Device über die HoloLens verfügbar. Darüber können die Besucher dann Sollwerte ändern, Start-Stopp-Befehle geben und den Roboter exakt so steuern, als würden sie ihn über dessen reales Bedieninterface lenken.

Das wären also schon zwei verschiedene Steuerungsanbieter, die sie direkt integrieren. Ist das theoretisch mit allen Steuerungstypen machbar?

André Lange: Theoretisch ist das mit allen machbar, die über ein Standard-Interface wie OPC Classic oder UA verfügen.

Die Welt ist vielschichtig. Es gibt auch andere Hersteller von AR-Brillen. Wie sieht es mit deren Unterstützung durch Iconics aus?

André Lange: Bei entsprechender Relevanz werden wir uns denen nicht verschließen Interessant ist, dass Microsoft die Spezifikationen der HoloLens veröffentlicht hat. So können auch andere Glas- und Brillenhersteller auf dieser Entwicklung aufsetzen. Ich rechne damit, dass ein Ecosystem rund um Mixed Reality und die HoloLens entsteht.

SPS IPC Drives 2016: Halle 7, Stand 394

Stefan Kuppinger

Chefredakteur IEE

(sk)

Sie möchten gerne weiterlesen?

Unternehmen

Iconics Germany GmbH

Siegburger Strasse 39d
53757 Sankt Augustin
Germany