Arbeitswelten im Hier und Heute: Sei es Augmented Reality, künstliche Intelligenz für die Roboter-Programmierung oder Konzepte für ergonomisches Arbeiten im Produktionsumfeld – wenn die alle zwei Jahre stattfindende Messe Automatica dieses Jahr vom 19. bis 22. Juni 2018 in München ihre Tore öffnet, wird die Branche der Automatisierer, Maschinen- und Anlagenbauer dem Credo von Industrie 4.0 ein ganzes Stück näher sein. Bereits bei der letzten Automatica vor zwei Jahren hat Prof. Thomas Bauernhansl, Institutsleiter des Fraunhofer IPA, Industrie 4.0 als einen Entwicklungsprozess bezeichnet, der rasend schnell vonstatten geht. Er ist überzeugt: „Wer sich heute nicht damit beschäftigt, wird es morgen wahrscheinlich bitter bereuen.“ Das Gute ist: An dieser Aussage hat sich nichts geändert. Was sich jedoch geändert hat, ist das Bewusstsein der Unternehmen, sich mit dem Thema Digitalisierung auseinanderzusetzen und – ob in Form von Sprints oder Marathons – Strategien zu entwickeln und Maßnahmen zu definieren und umzusetzen.

Aus den Daten, die mobile Roboter und Sensoren bei der Cloud Navigation zusammentragen, lassen sich in Echtzeit Materialflüsse simulieren – so realistisch wie nie.

Aus den Daten, die mobile Roboter und Sensoren bei der Cloud Navigation zusammentragen, lassen sich in Echtzeit Materialflüsse simulieren – so realistisch wie nie. Universität Stuttgart IFF/Fraunhofer IPA/Rainer Bez

Während der Automatica 2018 werden am Messestand des Fraunhofer IPA in Halle A4, Stand 421, die vier Eckpfeiler von Industrie 4.0 – Produktion, Produkt, IT und Mensch – auf vielfältige Weise im Gesamtkontext einer digitalisierten Industriewelt erlebbar gemacht: Die Fachbesucher können anhand mehrerer mit der Cloud intelligent zusammenspielender Exponate nachvollziehen, welche Lösungen das Stuttgarter Forschungsinstitut für verschiedene Abschnitte der industriellen Wertschöpfungskette anbietet.

Materialflusssimulationen so realistisch wie nie

Eine eigene Demonstrationsfläche ist der Roboternavigation vorbehalten. Dort zeigen Kai Pfeiffer und seine Kollegen mobile Roboter, die über die Cloud miteinander vernetzt sind. Sie kartieren ihre Umgebung kooperativ und planen ihre Routen mittels eines virtuellen Abbildes der Produktion (digitaler Schatten). „Spontan auftretende Hindernisse umfahren sie mit dem vorgegebenen Sicherheitsabstand, ohne dass es zu Staus oder gar Kollisionen kommt“, erklärt Pfeiffer.

Welche Vorteile die Cloud Navigation modernen Industrie-4.0-Architekturen darüber hinaus noch bietet, sieht nur, wer sich eine Augmented-Reality-Brille aufsetzt: Sofort wird klar, dass die eigentliche Demonstrationsfläche deutlich größer ist. Virtuelle Roboter fahren auch in angrenzenden Bereichen des Messestands herum und weichen Standbesuchern aus, die ihre Bahn kreuzen, ohne es auch nur zu ahnen. Der Sinn hinter dieser Demo: Mit den Daten, die die Cloud-Navigation mittels mobiler Roboter und weiterer Sensoren in der Produktionshalle zusammenträgt, lassen sich in Echtzeit nun Materialflüsse simulieren, die der Realität viel näher kommen als das bisher möglich war. Zeit- und kostenintensive Praxistests mit Robotersystemen sind nicht mehr nötig.

Maschinelles Lernen: Übung macht den Meister

Im Zuge dessen, dass die automatisierte Handhabungstechnik immer effizienter wird, entwickeln Felix Spenrath und sein Team die proprietäre Software bp3 immer weiter. Mit dieser Software wurde der erfolgreiche Griff-in-die-Kiste erst möglich. „Dank verbesserter Algorithmen und neuer Sensortechnik können Industrieroboter nun selbst flache, unsortiert gelagerte Blechteile erkennen und greifen“, erläutert Spenrath. Die Informationen, die moderne 3D-Sensoren liefern, werden also optimal genutzt. Die intuitive Benutzeroberfläche erleichtert und beschleunigt die Programmierung so sehr, dass sich die Investitionskosten für eine Handhabungszelle nun schon nach zwei Jahren amortisieren. Ein zweiarmiger Demonstrator auf dem Messestand veranschaulicht die jüngsten Fortschritte.

Mithilfe des Maschinellen Lernens wird der Griff-indie-Kiste immer weiter verfeinert. Im Forschungsprojekt »Deep Grasping« entsteht aktuell eine virtuelle Lernumgebung für Roboter.

Mithilfe des Maschinellen Lernens wird der Griff-indie-Kiste immer weiter verfeinert. Im Forschungsprojekt »Deep Grasping« entsteht aktuell eine virtuelle Lernumgebung für Roboter. Fraunhofer IPA

Mithilfe des maschinellen Lernens werden die Objekterkennung und die Vereinzelung ungeordnet herumliegender Bauteile derzeit immer weiter verfeinert. Im Forschungsprojekt »Deep Grasping« entsteht aktuell eine virtuelle Lernumgebung. Darin üben Roboter bereits vor ihrer Inbetriebnahme unterschiedlichste Greifprozesse an den Werkstücken, mit denen sie später im operativen Betrieb arbeiten sollen. Neuronale Netze lernen aus diesen simulierten Griffen und verbessern so ihr Prozesswissen kontinuierlich – getreu dem Motto: „Übung macht den Meister“. Eine Präsentation informiert auf dem Messestand über das Projekt Deep Grasping und stellt erste Ergebnisse vor.

Lesen Sie auf der nächsten Seite über wendige mobile Plattformen und wie man Kollege Roboter leicht programmiert.

Seite 1 von 3123