Nachdem der 3D-Sensor die Greifpunkte eines unsortiert abgelegten Werkstücks in < 1s bestimmt hat, entnimmt der Cobot mit dem Greifer das Teil und legt es voll automatisiert in die fiktive Maschine ein. Dabei kann jederzeit ein Werker in den Prozess eingreifen.

Nachdem der 3D-Sensor die Greifpunkte eines unsortiert abgelegten Werkstücks in < 1s bestimmt hat, entnimmt der Cobot mit dem Greifer das Teil und legt es voll automatisiert in die fiktive Maschine ein. Dabei kann jederzeit ein Werker in den Prozess eingreifen. Roboception

„Wie lassen sich kollaborative Handhabungsszenarien in nicht-strukturierten Umgebungen realisieren?“ Dieser Frage ist Schunk in Kooperation mit Kuka und Roboception nachgegangen.

Die Unternehmen haben die exemplarische Aufgabe der Technologiestudie realitätsnah gestaltet: Ein Cobot soll unsortierte Metallteile aus einer Kiste greifen, in eine Schleifmaschine einlegen und nach der Bearbeitung passgenau ablegen. Gleichzeitig sollen Werker im laufenden Betrieb die Möglichkeit haben, Transportboxen oder einzelne Teile manuell zuzuführen, zu verschieben oder zu entnehmen. Die Studie kombiniert also den Griff-in-die-Kiste mit dem Aspekt der Mensch-Roboter-Kollaboration (MRK) und nutzt dazu das Zusammenspiel unterschiedlicher Technologien aus Robotik, Greiftechnik und Bilderkennung.

3D-Sensor ermittelt Greifpunkte

Über ein CAD-basiertes Matching erfasst das passive Stereokamerasystem rc_visard von Roboception die unsortierten Werkstücke. Der 3D-Sensor, der Robotern eine 3D-Messung sowie eine Positionierung im Raum ermöglicht, verarbeitet im Kamerasystem voll aufgelöste Tiefenbilder in < 1s, ermittelt daraus die jeweils optimalen Greifpunkte und übermittelt diese ohne Einsatz eines externen PCs an den kollaborationsfähigen Roboter LBR iisy von Kuka. Neben dem Kamerabild liefert der industrietaugliche Sensor ein Tiefenbild, ein Genauigkeitsbild sowie ein Konfidenzbild. Letzteres dient als Maß für das Vertrauen in die Tiefenmesswerte, das sich bei Einsatz von Methoden der Künstlichen Intelligenz (KI) als Basis für Entscheidungen heranziehen lässt. Da das passive Kamerasystem seine Umgebung bei natürlichem Licht bei künstlicher Beleuchtung erkennt, sind vielfältige Einsatzumgebungen möglich.

Individuell angepasster MRK-Greifer

Die Applikation lässt sich per Handführung programmieren.

Die Applikation lässt sich per Handführung programmieren. Schunk

Am Frontend des Cobots befindet sich ein anwendungsspezifisch entwickelter Co-act Greifer von Schunk, der die Anforderungen der EN ISO 10218-1/-2 sowie der ISO/TS 15066 erfüllt und eine Interaktion mit dem Menschen ermöglicht. Die Regelungs- und Leistungselektronik ist im Innern des Greifers verbaut, so dass dieser keinen Platz im Schaltschrank benötigt. Schunk hat sowohl die Schnittstelle als auch die Abmessungen und Störradien individuell an die Applikation angepasst.

Neben solchen anwendungsspezifischen Co-act Greifern bietet das Unternehmen ein Standardgreiferportfolio für kollaborative Anwendungen, das den DGUV-zertifizierten Kleinteilegreifer Co-act EGP-C sowie in Kürze den bis dahin ebenfalls für kollaborative Anwendungen zertifizierten Großhubgreifer Co-act EGL-C umfasst. Mit Letzterem soll es erstmals möglich sein, in MRK-Applikationen Greifkräfte bis 450 N zu realisieren.

Roboterprogrammierung per Handführung

Über die Handführung des Cobots lassen sich neue Ablagepositionen einfach und intuitiv programmieren. Bei ungeplanten Unterbrechungen merkt sich der Kuka Roboter jede ausgeführte Bewegung oder Tätigkeit und kann ohne erneutes Anlernen ad hoc die Arbeit wieder aufnehmen. Da die Lösung sowohl sensorseitig als auch roboterseitig einfach und mit geringem Trainingsaufwand zu realisieren ist, eignet sie sich für unterschiedliche Einsatzzwecke. Weder sind hierfür umfassende Kenntnisse der Robotik noch der Bildverarbeitung erforderlich. Damit sinkt auch der Integrationsaufwand. Bei Bedarf kann das Kamerasystem modular um zusätzliche Projektoren sowie um Module zum neuronalen Lernen erweitert werden. Es lässt sich wahlweise stationär oder alternativ mobil auf dem Cobot betreiben, für flexible Greifszenarien auf mobilen Plattformen.

In eigener Sache: Veranstaltung ‚Roboter in der Verpackungsindustrie‘

Die Veranstaltung richtet sich primär an Betreiber aus der verpackenden Industrie, Verpackungsmaschinenbauer sowie Hersteller von Roboterlösungen und Komponenten und dient als Plattform zum Austausch zwischen Anwendern und Lösungsanbietern. Hüthig

Die Veranstaltung richtet sich primär an Betreiber aus der verpackenden Industrie, Verpackungsmaschinenbauer sowie Hersteller von Roboterlösungen und Komponenten und dient als Plattform zum Austausch zwischen Anwendern und Lösungsanbietern. Hüthig

Roboter kommen mittlerweile in faktisch jedem Bereich des Verpackungsprozesses zum Einsatz. Und das gilt schon lange nicht mehr nur für Hochlohnländer in Europa, die ihre Wettbewerbsfähigkeit durch erhöhte Automatisierung sichern wollen, sondern auch für Emerging Markets wie Indien und China, die aufgrund einer schwer planbarer Personalfluktuation auf Roboter in der Produktion angewiesen sind.

Zusammen mit den Kollegen des Verpackungstitels neue verpackung veranstaltet die IEE darum am 30. Oktober 2019 in München die Praxistagung „Roboter in der Verpackungsindustrie“. Die Veranstaltung gibt einen Überblick zum bereits technisch Möglichen in Form von Best-Practices sowie einen Ausblick in die (nicht allzu ferne) Zukunft. Begleitet beziehungsweise ergänzt wird die Veranstaltung durch eine kleine Fachausstellung.

Weitere Informationen, natürlich inklusive der Möglichkeit zur Anmeldung, finden Sie unter www.verpackungsroboter.com.