Als die Entwickler Ende der 1950er und Anfang der 1960er Jahre die ersten Roboter konstruierten, nannten sie diese nicht etwa Roboter, sondern benutzen den Ausdruck „programmiertes Gerät für den Transfer von Artikeln“. Deren Funktion war das Bewegen von Produkten zwischen Druckgussmaschinen in der Produktionsstätte von GM. Die ersten Worte der entsprechenden Patentschrift aus dem Jahr 1954 hoben die Programmierbarkeit und Vielseitigkeit der Erfindung hervor und wiesen darauf hin, dass die Programmierbarkeit Sensoren erforderte, um die Übereinstimmung zwischen dem Programm – das heißt der beabsichtigten Bahnkurve oder Funktion – und der tatsächlichen Bewegung sicherzustellen.

Geschichte der Robotik

Bild 1: Beispiel eines Roboterarms, wie er in einer Fabrikumgebung häufig zum Einsatz kommt.

Bild 1: Beispiel eines Roboterarms, wie er in einer Fabrikumgebung häufig zum Einsatz kommt. Texas Instruments

Bis heute sind die Roboter nicht weit über dieses ursprüngliche Konzept hinausgekommen. Auch aktuelle Roboter sind programmierbar und müssen ihre Umgebung erfassen, um zu gewährleisten, dass es eine Übereinstimmung gibt zwischen dem, was sie tun, und dem, wofür sie programmiert sind. Außerdem müssen sie sich in ihrer Umgebung bewegen. Was sich allerdings in den vergangenen 50 bis 60 Jahren geändert hat, sind die gestiegene Komplexität und Geschwindigkeit sowie die Bereiche, in denen diese grundlegenden Konzepte Anwendung finden.

Kamen die ersten Roboter noch hauptsächlich für das Bewegen von Druckgussteilen zum Einsatz, war Joseph Engelberger, der Vater der Robotik, doch stark vom ersten Robotergesetz von Asimov beeinflusst. Dieses besagt, dass ein Roboter kein menschliches Wesen verletzen oder durch Untätigkeit zulassen darf, dass ein menschliches Wesen Schaden erleidet. Engelberger setzte Roboter in Bereichen ein, in denen sie Menschen schützen konnten, und der Schutz von Menschen war auch die treibende Kraft für den Einsatz von immer mehr Sensoren speziell in kollaborativen Robotern oder fahrerlosen Transportsystemen (Autonomous Guided Vehicles, AGVs).

Was treibt die Robotikindustrie voran?

EckDaten

Roboter sind programmierbare Maschinen, die jederzeit in der Lage sein müssen, die Umgebung vollständig zu erfassen, um die ihnen übertragenen Aufgaben sicher ausführen zu können. Heutige Roboter sind allerdings sehr viel komplexer als ihre Vorgänger aus den 50er und 60er Jahren, bewegen sich freier im Raum und interagieren oftmals auch mit Menschen. Sicherheit ist daher ein maßgeblicher Faktor, und um die künftigen Freiheiten von Roboteraktionen zu maximieren, bauen Entwickler verstärkt analoge Intelligenz in die Maschinen ein. Diese umfasst neben zahlreichen Sensoren auch deren Verbindung zu möglichst dezentralisierten Steueralgorithmen. Während Roboter auf Rädern und Cobots heute als die Speerspitze der Autonomie gelten, könnte sich dies in naher Zukunft schon wieder ändern.

Um das Streben nach autonomen Robotern besser verstehen zu können, empfiehlt sich ein Blick auf die Intelligenzgesetz-Gleichung von Alex Wissner-Gross. Diese gibt eine Entropiekraft an, die den Trend in der Robotik erklärt:

F = T ∇ Sτ

Darin ist F die Kraft, die die künftige Handlungsfreiheit maximiert, T ist die Temperatur, die die allgemeine Stärke (die verfügbaren Ressourcen) definiert, und S ist die Entropie innerhalb des Zeithorizonts τ.

Die Robotik als Industrie und als wissenschaftliche Disziplin strebt an, die künftige Freiheit von Roboteraktionen zu maximieren, indem die Entwickler vermehrt analoge Intelligenz in die Roboter einbauen. Dies umfasst mehr Sensoren für eine genauere Modellierung der Umgebung des Roboters sowie bessere Verbindungen zwischen den Sensoren und möglichst dezentralisierten Steuerungsalgorithmen. Außerdem sind neben besseren Algorithmen, die möglichst viele Informationen aus den Sensordaten extrahieren können, auch bessere Aktoren nötig, um schneller und präziser gemäß den Entscheidungen der Steuerungsalgorithmen handeln zu können.

Ein Blick auf die heutige Technologielandschaft zeigt, dass Roboter bereits einen beträchtlichen Grad an Autonomie erlangt haben und Sensoren wie etwa CMOS-Bildsensoren Lidar und Radar nutzen, um sich einer breiten Vielzahl von Anwendungen anzupassen. Während Kameras in ihrer Winkelauflösung und ihrem Dynamikbereich deutlich besser sind als Radar, kommen sie doch nicht an den Dynamikbereich der Lidar-Technik heran und können ebenfalls nicht in verrauchten oder staubigen Umgebungen funktionieren.

Hohe Flexibilität erforderlich

Bild 2: Die verschiedenen sensorischen Fähigkeiten eines Roboters .

Bild 2: Die verschiedenen sensorischen Fähigkeiten eines Roboters Texas Instruments

Da Roboter dafür konstruiert sind, die flexibelste Option für einen möglichst umfassenden Anwendungsbereich zu sein, müssen sie auch in dunklen, staubigen oder hell ausgeleuchteten Umgebungen arbeiten können. Möglich ist diese Flexibilität durch die auch als Sensorfusion bezeichnete Kombination von Informationen aus verschiedenen Sensoren. Diese Informationen aus unterschiedlichen Sensoren lassen sich also verwenden, um ein resilientes Abbild des Umfelds eines Roboters zu erstellen, sodass Autonomie in viel mehr Anwendungen möglich ist. Ist beispielsweise eine Kamera kurzzeitig verdeckt, müssen die anderen Sensoren einen sicheren Betrieb des Roboters ermöglichen. Um zu gewährleisten, dass ein Roboter über 360 Grad hinweg über die Umgebung Bescheid weiß, müssen sich seine Sensordaten auf zeitkritische Weise und über wenige Kabel an die Robotersteuerung weiterleiten lassen, um die Zuverlässigkeit der Verbindung zu maximieren.

Breitbandige, latenzarme Busse basieren heutzutage größtenteils auf der LVDS-Technik (Low-Voltage Differential Signaling). Da es jedoch keinen Standard für LVDS-Schnittstellen gibt, kommt es zu einer Fragmentierung des Ökosystems zwischen Sensor und Steuerung, die das Kombinieren von Lösungen unterschiedlicher Anbieter schwierig macht. Sind die Sensordaten erst einmal an die Robotersteuerung übertragen, kann eine breite Palette neuer Machine-Learning-Algorithmen auf der Basis tiefer neuronaler Netze helfen die Genauigkeit zu verbessern, mit der das Umfeld eines Roboters abgebildet ist. Diese tiefen neuronalen Netze lassen sich entweder für die schnelle Echtzeitverarbeitung innerhalb des Roboters einsetzen, oder aber auch in der Cloud verwenden, um Meta-Informationen zu sammeln oder komplexere Schlussfolgerungen zu ziehen (Bild 2).

Für die meisten Roboter ist das Ziehen von Schlussfolgerungen an der Edge eine wichtige Voraussetzung dafür, schnell auf Änderungen der Umgebung reagieren zu können. Dies liegt an der prinzipbedingt geringen Latenz der Edge-Verarbeitung. Edge-Inferenzen lassen sich für Convolutional Neural Networks und ähnliche Topologien neuronaler Netze verwenden, um Bilder zu klassifizieren oder Abschätzungen für die vorausschauende Instandhaltung anzustellen, für ein Deep-Q-Netzwerk zur Wegplanung eines Roboters oder für spezielle neuronale Netze, die gezielt auf eine bestimmte Klasse von Problemen zugeschnitten sind.

Die nahe Zukunft

Es erscheint unwahrscheinlich, dass es Veränderungen an den Sensoren in der nächsten Zukunft gibt. Was sich aber ändert, ist die damit zusammenhängende Verarbeitung. Bildsensoren können hyperspektral sein oder eine höhere Auflösung bieten. Die Lidar-Technik kann mit größeren Wellenlängen arbeiten, um sicherer zu sein und auf eine größere Reichweite zu kommen, und Radarsensoren können über mehr integrierte Antennen verfügen. All dies sind jedoch keine signifikanten Veränderungen. Die Art und Weise, wie die Informationen verwendet und gebündelt werden, wird sich jedoch grundlegend ändern. Zum Beispiel vereinfacht die Einführung von Single-Pair-Ethernet- (T1) und Power-over-Data-Leitungen (IEEE 802.3bu-2016) am Sensor-Hub das Design der Schnittstellen zwischen Sensor und Hub, was eine größere Vielfalt an Sensoren und eine Standardisierung der Stromversorgung zulässt.

Was die Klassifizierung angeht, extrahieren die meisten der auf Convolutional Neural Networks basierenden Konzepte nicht alle 3D-Informationen aus den von der Lidar-Technik bereitgestellten Voxels. Tiefe neuronale Netze der nächsten Generation stützen sich auf die Fortschritte, die Forscher jüngst beim nichteuklidischen Machine Learning (oder geometrischen Machine Learning) gemacht haben. Verfügbar ist dies beispielsweise in Frameworks wie Pointnet, Shapenet, Splatnet und Voxnet. Die Daten durchlaufen hier einfachere Inferenz-Netzwerke, um kürzere Reaktionszeiten zu erzielen (ein Beispiel hierfür sind aktuelle neuronale Netze für Steuerungszwecke) und die Leistungsfähigkeit gegenüber existierenden PID-Netzwerken zu steigern. Die Spanne reicht hier bis zu komplexen und langen Kurzzeit-Speichernetzwerken mit der Fähigkeit, aus der Mittelposition heraus Diagnosen für die vorausschauende Instandhaltung zu erstellen. Neuronale Netze sollten geringfügige Ungenauigkeiten der Mechanik eines Roboters kompensieren können und eine höhere Positionsgenauigkeit und gleichmäßigere Bewegungen bieten.

Zusammenfassung

Die Weiterentwicklung der autonomen Roboter ist ein ständig in Bewegung befindliches Ziel. Als George Devol im Jahr 1954 sein Patent beantragte, war diese Maschine eindeutig autonomer als irgendeine durch Schaltnocken gesteuerte oder von Menschen bediente Maschine jener Zeit. Nach heutigen Standards betrachtet wäre es jedoch eine höchst starre Anordnung und würde auf der Autonomieskala gar nicht erscheinen. Eine solche drastische Veränderung könnte es wahrscheinlich erneut geben, bevor uns dies bewusst wird. Roboter auf Rädern und Cobots gelten heute als die Speerspitze der Autonomie. Sie können ihre Bewegungen verlangsamen, wenn sich Menschen nähern, und die Kollision mit Menschen vermeiden, selbst wenn sich diese bewegen. Doch weiterentwickelte Technologien stecken schon in den Startlöchern.