Künstliche Intelligenz (AI) kann Roboter lernfähig machen und ihen so völlig neue Anwendungsgebiete erschließen.

Künstliche Intelligenz (AI) kann Roboter lernfähig machen und ihen so völlig neue Anwendungsgebiete erschließen. (Bild: Yingyaipumi/AdobeStock)

Das Potential von intelligenten, KI-gesteuerten Robotern, die in Krankenhäusern, der Pflege, in Fabriken, Restaurants und im Haushalt dem Menschen „zur Hand gehen“, ist enorm. Solch ein intelligenter und interaktionsfähiger Roboter ist jedoch nur dann effektiv, wenn er flexibel auf unterschiedliche Umgebungen und Situationen reagieren kann. Entsprechend muss er lernfähig sein - doch das ist für EntwicklerIinnen eine machbare Herausforderung. Das von der EU geförderte Forschungsprojekt IntelliMan hat sich die Entwicklung solch lernfähiger Robotiksystem zum Ziel gesetzt. Unter Koordination der Università di Bologna in Italien arbeiten im Projekt 13 Partner aus sechs Ländern zusammen (siehe Kasten). Die EU fördert das Vorhaben unter dem europäischen Rahmenprogramm für Forschung und Innovation „Horizon Europe“ mit 4,5 Mio. Euro.

IntelliMan: diese Partner sind an der Entwicklung beteiligt

Das IntelliMan-Konsortium besteht aus 13 international anerkannten, wissenschaftlichen und industriellen Partnern aus sechs Ländern (Deutschland, Italien, Spanien, Schweiz, Slowenien, Vereinigtes Königreich). Sie kommen aus den Bereichen KI, Robotik, Informations- und Kommunikationstechnologien (IKT), sowie Sozial-, Geistes- und Wirtschaftswissenschaften und arbeiten im Projekt unter der Koordination der Università di Bologna (Italien) interdisziplinär zusammen. Die EU fördert das Vorhaben unter dem europäischen Rahmenprogramm für Forschung und Innovation „Horizon Europe“ mit 4,5 Mio. Euro. Aus Bayern beteiligen sich das Deutsche Zentrum für Luft- und Raumfahrt, die Friedrich-Alexander-Universität Erlangen-Nürnberg und die Bayerische Forschungsallianz (BayFOR) an IntelliMan. Sie werden mit insgesamt ca. 1,2 Mio. EUR gefördert. Weitere Beteiligte an dem Projekt sind unter anderem die Universitäten Zürich, Barcelona und Genua.

In den letzten Jahrzehnten hat die Forschung im Bereich der intelligenten, interaktiven und lernfähigen Robotik stark an Fahrt aufgenommen. Roboterarme und Robotergreifer für Maschinen, die direkt und autonom mit ihrer Umgebung interagieren können, werden zunehmend verfügbar und erschwinglich. Von zentraler Bedeutung wird allerdings in Zukunft sein, wie solche autonomen Systeme neue Fähigkeiten erlernen können, da die reale Welt zu viele Variationen aufweist, als dass ein genaues Modell der menschlichen Wünsche und Verhaltensweisen, der Umgebung, der darin befindlichen Objekte oder der zu ihrer Handhabung erforderlichen Fähigkeiten im Voraus erstellt werden könnte.

Die nächste Generation von Robotermanipulationssystemen soll durch Künstliche Intelligenz in der Lage sein, autonom Aufgaben mit begrenzter menschlicher Überwachung auszuführen und mit Objekten unabhängig von deren Material, Größe und Form interagieren zu können. Durch die Interaktion mit Mensch und Umgebung sollen diese Systeme gleichzeitig neue Kenntnisse erlernen, die ihren Einsatz für unvorhergesehene, nicht vorprogrammierte Aufgaben ermöglichen. Dieser Einsatz reicht von industrieller Fertigung über die Logistik bis hin zur Servicerobotik und tragbaren Geräten wie Exoskeletten und Prothesen. Das bedeutet, dass diese Robotersysteme bestimmte Sicherheitsanforderungen erlernen und einhalten müssen – d. h. sie müssen erkennen, wenn sie eine Aufgabe nicht unter den geltenden Sicherheitsanforderungen lösen können, damit ein "Vertrauensniveau" zwischen Mensch und Roboter entstehen kann.

TUD-Start-up bringt Robotern das Fühlen bei

Ein von PowerOn entwickelter taktiler Sensor
Ein von PowerOn entwickelter taktiler Sensor. (Bild: PowerON)

Nicht nur das Lernen, auch das Fühlen steht auf der To-Do-Liste künftiger Roboter. Allerdings sind damit keine Emotionen gemeint, sondern feinfühliges Greifen. Fühlende Häute, künstliche Muskeln und künstliche Neuronen, auf flexible Werkstoffe gedruckt, sollen die nächste Generation der Robotik ermöglichen und neue Anwendungsfelder erschließen.  „Wir sehen einen starken Trend hin zur Automatisierung in allen Industriebereichen und werden diesen auch sehr bald in unserem Alltag erleben“, sagt Dr. Markus Henke, Nachwuchsforschungsgruppenleiter am Institut für Halbleiter- und Mikrosystemtechnik der TU Dresden (TUD) und CEO des Start-ups PowerON. Es nutzt die Ergebnisse von gemeinsamen Forschungen der TU Dresden mit der University of Auckland (Neuseeland).

Das Team von PowerON will mit seinem ersten Produkt, einer fühlenden Fingerspitze für Industrieroboter, die möglichen Einsatzbereiche für Roboter deutlich erweitern und konventionellen Robotergreifern Fingerspitzengefühl verleihen. Sie könnten z.B. beim Handling von zerbrechlichen Gütern wie Eiern oder Reagenzgläsern, beim Entformen von Gummiprodukten aus Spritzgussformen, beim Ernten von Obst und Gemüse oder sogar im Haushalt und in der Pflege zum Einsatz kommen.

Bereits fertiggestellt ist ein Demonstrator, der erstmalig das Zusammenspiel von fühlenden Häuten, künstlichen Muskeln und künstlichen Neuronen zeigt. Dabei handelt es sich um einen Greifer, der ausschließlich von künstlichen Muskeln angetrieben wird, die wiederum von einem künstlichen Neuron gesteuert werden. Der Greifer selbst ist aus flexiblen Materialien gedruckt, enthält keinerlei klassische Gelenke und ist mit einer taktilen Haut ausgestattet, die erfühlen kann, wie und wo ein Objekt gegriffen wurde.

„Das IntelliMan-Projekt konzentriert sich auf die Frage, wie ein Roboter effizient lernen kann, um Aufgaben zielgerichtet, hochleistungsfähig und sicher zu erledigen“, sagt Prof. Gianluca Palli, Koordinator des IntelliMan-Projektes an der Abteilung für Elektrotechnik, Elektronik und Informationstechnik der Universität Bologna. „Der Roboter soll dabei Interaktionsfähigkeiten mit Menschen, Objekten und seiner Umgebung erlernen und daraus abstrahierbare Interaktionsszenarien entwickeln. Auch Eigenschaften und Funktionalitäten der Objekte soll der Roboter über die gezielte Interaktion ableiten können. Wahrnehmung und Akzeptanz durch die Nutzer sollen dabei durchgehend in Betracht gezogen werden.“

In komplexen und unterschiedlichen Anwendungsszenarien wollen die IntelliMan-WissenschaftlerInnen Probleme des Greifens und Ablegens flexibler Objekte untersuchen: in der Oberarm-Prothetik, bei alltäglichen Küchenaktivitäten, bei der flexiblen Fertigung von Kabelsätzen für Automobilkabelbäume und bei der Handhabung von frischen Lebensmitteln für Supermarktlogistikanwendungen. Dieses heterogene Set von Nutzungsszenarien mit unterschiedlichsten An- und Herausforderungen soll es ermöglichen, verschiedene Lösungen für die Interaktionsproblematik zu entwickeln.

Verpassen Sie keine News

Anmeldung zum all-electronics-Newsletter

Mit dem Newsletter von all-electronics.de immer top-informiert

Jetzt kostenlos anmelden

Sie möchten gerne weiterlesen?