764iee1116_anlauf_robotiq

(Bild: Robotiq)

Der Mensch sieht etwas; sein Gehirn verarbeitet das Bild. Doch was dem einen als selbstverständlich erscheint, ist für ein Vision-System lange nicht so einfach nachzuahmen. Ein Mensch wird beispielsweise kaum Mühe haben, die Kreisausschnitte eines reflektierenden Metallteils vor dunklem Hintergrund zu zählen. Im Falle eines Bildverarbeitungsalgorithmus muss jedoch die Definition eines zu erkennenden Kreises programmiert sowie eine Schwelle festgelegt werden, um den Hintergrund vom Vordergrund abzugrenzen.

Für Menschen einfach zu sehen, für ein Bildverarbeitungssystem nicht unbedingt: reflektierendes Metall mit Kreisausschnitten vor dunklem Hintergrund.

Für Menschen einfach zu sehen, für ein Bildverarbeitungssystem nicht unbedingt: reflektierendes Metall mit Kreisausschnitten vor dunklem Hintergrund. Robotiq

Um das gleiche Ergebnis des menschlichen Gehirns zu erzielen, benötigt ein Verarbeitungsalgorithmus in einigen Fällen eine Bibliothek mit Bildern von guten und schlechten Bauteilen. Seine Vergleichsmöglichkeiten sind durch die dort verfügbaren Elemente allerdings begrenzt. Der Algorithmus lässt sich zwar so programmieren, dass er beispielsweise einen Kreis erkennt, indem der Programmierer bestimmte Toleranzen bezüglich der Kreisform festlegt (zum Beispiel eine Ellipse, die fast kreisförmig ist = akzeptieren). Den gesamten Prozess, den das menschliche Gehirn durchläuft, kann der Algorithmus jedoch nicht abarbeiten. In der Produktion lassen sich allerdings beim Einsatz in der Robotik gute Ergebnisse erzielen.

Beinahe jedes Vision-System, gleich ob Zeilenscanner, 2D-Kamera oder 3D-Scanner, lässt sich mit einem kollaborativen Roboter verbinden, um Aufgaben wie Pick-and-Place, Qualitätssicherung, Bauteilprüfung, Teilezählen oder -sortieren, Barcodelesen und Festplatzkommissionierung zu bewältigen.

Vision-Systeme im Überblick

Anwender haben die Wahl, ob sie einen Vision-Sensor auf dem Roboter montieren oder ihn daneben aufstellen. Letzteres eignet sich beispielsweise, wenn der Roboter Bauteile in einen Behälter oder auf ein Förderband ablegen soll.

1D-Technologien: Ein 1D-Sensor genügt, wenn es lediglich darum geht, die Höhe eines sich bewegenden Bauteils zu messen. In Frage kommt zum Beispiel ein Abstandssensor, der mithilfe eines Laserpunkts den Abstand zwischen Sensor und Oberfläche misst. Damit lässt sich ein Wert entlang einer Achse bestimmen. Eine andere Form der 1D-Sensoren ist die Zeilenkamera. Sie eignet sich auch für Inspektionsaufgaben. Dazu wird sie über dem Förderband installiert, auf dem sich die Bauteile bewegen. Gesammelte und zusammengefügte Zeilenbilder ergeben ein 2D-Bild, das sich dann untersuchen lässt. Die Zeilenkamera ähnelt einer 2D-Kamera, bei der allerdings der Sensor nur eine Zeile von lichtempfindlichen Pixeln aufweist.

2D-Technologien: Das Mittelfeld bilden 2D-Scanner, die nach dem Prinzip ‚rechteckiger Sensor, der ein rechteckiges Bild liefert‘, herkömmlichen Fotoapparaten ähneln. Diese Technologie ist vergleichbar mit dem Einpunkt-1D-Laser. Anstelle eines einzigen Laserpunkts, wird jedoch eine Laserzeile analysiert. So erhalten Anwender Abstandsmessungen vom Sensor (Z-Achse) über die gesamte Breite (Y-Achse) eines Objekts. Solche 2D-Scanner werden in manchen Fällen als 3D-Profiler angeboten, weil sie im Verbund mit der Bewegung des Bauteils auch die X-Achse vermessen. Will ein Unternehmen ein ruhendes Objekt inspizieren oder eine Kamera für Pick-and-Place Aufgaben einsetzen, genügt eine 2D-Kamera. Anhand der gemachten Bilder lassen sich sowohl X- als auch Y-Koordinate von jedem Pixelwert bestimmen.  Auf dem Markt gibt es unterschiedliche Auflösungen, Graustufen statt Farben oder beispielsweise eine komplett integrierte statt eigenständige Kamera.

3D-Technologien: Eine weitere Option bilden 3D-Scanner:  Sie finden Anwendung beim Reverse-Engineering oder etwa, wenn es darum geht, exakt zu vermessen (zum Beispiel Tiefenfehler). 3D-Scanner nutzen verschiedene Techniken, unter anderem Shape from Shading, Laser-Dreieckvermessung oder strukturierte Beleuchtung. Je nach verwendeter Technik erhalten Anwender entweder ungefähre Daten in einigen Sekunden (was möglicherweise ausreicht) oder hochpräzise Daten, die das Scannen und Verarbeiten von bis zu einigen Minuten erfordern. Wenn es um Robotervision geht, heißt Mehrdimensional nicht gleich besser. Möglicherweise übertrifft ein einfacher visueller 2D-Vision-Sensor den kostspieligeren 3D-Laserscanner, weil sich die Integration der Sensordaten hier weitaus komplexer gestaltet.

Bei der Bilderfassung zu bedenken

Einfluss der Außenbeleuchtung: Wenn der Werkstoff eines Bauteils stark reflektiert, gilt es, den außerhalb des Vision-Systems entstehenden Lichteinfall zu berücksichtigen. Dazu zählt die Sonneneinstrahlung durch ein Fenster ebenso wie die Lichtblitze eines in der Nähe ausgeführten Lötprozesses. Selbst wenn der Werkstoff des Bauteils nicht stark reflektiert, beeinflusst das Umgebungslicht die Schattenbildung im Hintergrund. Das System sollte sich demnach nicht in der Nähe von Fenstern oder einer Deckenbeleuchtung befinden, die sich im Laufe des Tages mehrmals ein- und ausschaltet. Ist die Umgebungsbeleuchtung nicht beeinflussbar, hilft es, das Vision-System einzuhausen oder auf getönte Fensterscheiben zu setzen. Laserscanner sind dabei gegenüber der Umgebungsbeleuchtung weit weniger empfindlich als andere Systeme.

Bei Schattenwurf kann ein Vision-System einen verdeckten Mangel leicht übersehen.

Bei Schattenwurf kann ein Vision-System einen verdeckten Mangel leicht übersehen. Robotiq

Schattenbereich vermeiden: Weiterhin nicht ganz einfach für ein Vision-System ist die Sicht auf ein Objekt und dessen Schatten. Möglicherweise übersieht der Algorithmus einen Mangel, der im Schatten liegt oder er erkennt die Bauteilform nicht. Das Schattenproblem lösen Anwender am besten bereits während der Erfassung, indem sie die Lichtquelle anpassen oder eine weitere hinzufügen.  Bei stark reflektierenden Metallteilen, bei denen lediglich die Konturen erkannt werden müssen, damit der Roboter sie greifen kann, ist es von Vorteil, das Bauteil nur von hinten anzuleuchten.

Abweichung eingrenzen: Wenn das System zwischen einem guten Bauteil und einem schlechten Bauteil zu unterscheiden hat, sollte die Abweichung der Bauteile untereinander eingegrenzt werden. Beispiel optische Zeichenerkennung: Das System soll das Muster einer 8 erkennen, ein B ist aber ebenso in Ordnung, weil beispielsweise die linke Seite der Zeichen manchmal unklar gestanzt wird. Die Maschine liest nun aber eine 3. Wäre das akzeptabel? Die linke Seite des Zeichens ist anders, das System wurde aber angewiesen, auf dieser Seite wegen des Stanzproblems nicht allzu pingelig zu sein. Je unterschiedlicher die Dinge sind, die das System als normal betrachten soll, desto unempfindlicher wird es.

Überlappende Teile zuerst: Sollen bestimmte Formen in einem Behälter oder auf einem Förderband erkannt werden, beginnen Anwender am besten mit den nicht überlappenden Bauteilen. Diese sind einfacher zu erkennen. Zwar kann ein Algorithmus auch überlappende Teile zuordnen, in puncto Zuverlässigkeit ist die Erkennung nicht überlappender Bauteile aber wahrscheinlicher. Im Falle überlappender Bauteile lässt sich auf eine Umrisserkennung zurückgreifen.

Kontrast: Zum Erkennen von Kanten oder Graustufen, ist ein starker Kontrast von Vorteil. So sollte sich der Hintergrund der Bauteile so weit wie möglich von den Bauteilen unterscheiden. Einfach ausgedrückt: Will man schwarze Bauteile erkennen, ist ein weißer oder heller Hintergrund sinnvoll. Ähnliches gilt für die Oberflächenbeschaffenheit. Wenn die Bauteile aus dunkelgrauem Metall bestehen, sollte der Hintergrund weiß sein. Glänzen die Bauteile dagegen, spiegeln sie Licht in die Kamera zurück. So kann es passieren, dass das Vision-System das Bauteil irrtümlich als weiß oder ziemlich dunkel erkennt. Die ideale Beleuchtung hängt also von Material, Textur und Form des Bauteils ab.  Um Reflexionen zu vermeiden, helfen: Dunkel- und Hellfeld-Techniken, Infrarotbeleuchtung, diffuse Dombeleuchtung oder Hintergrundbeleuchtung.

Voraussetzungen im Unternehmen

Mitarbeiter müssen für die Integration eines Vision-Sytems nicht zwangläufig über Programmierkenntnisse verfügen. Die Antwort ist hier eine Smart Cam mit vorinstallierten Funktionen.

Mitarbeiter müssen für die Integration eines Vision-Sytems nicht zwangläufig über Programmierkenntnisse verfügen. Die Antwort ist hier eine Smart Cam mit vorinstallierten Funktionen. Robotiq

Handelt es sich um ein wenig komplexes Projekt à la Plug and Play, können Anwender einfach eine Smart Cam installieren und loslegen. In solch einer Kamera sind bereits wichtige Funktionen integriert. Häufig fragen sich Anwender: Muss ich ein Computerfreak sein, um das Vision-Projekt erfolgreich zu programmieren? Kurze Antwort: Nicht wirklich. Viele Projekte lassen sich mithilfe der in den Smart Cams vorinstallierten Software-Bibliotheken erledigen. Mithilfe dieser Bibliotheken können Anwender Algorithmen konfigurieren, ohne selbst großen Programmierungsaufwand zu betreiben. Bei speziellen Anforderungen, ist es für Unternehmen jedoch hilfreich, für das erste Projekt professionelle Hilfe hinzuzuziehen.

Erfordert eine Anwendung die Erstellung besonderer Algorithmen, sollten Anwender auf ein Programmentwicklungs-Kit oder auf Bibliotheken zurückgreifen, wo sie eigene Funktionen hinzufügen können. In diesem Fall sind Programmierfähigkeiten sowie Kenntnisse über Bildalgorithmen und entsprechender Mathematik jedoch Voraussetzung.

TEchnik im Detail

Die Wrist Camera erfordert nur fünf Minuten Einrichtezeit.

Die Wrist Camera erfordert nur fünf Minuten Einrichtezeit. Robotiq/Universal Robots

Plug-and-Play-Vision

Wie Plug-and-Play gehen kann, zeigt Robotiq mit der Wrist Camera, die speziell für Universal Robots entwickelt wurde. Sie passt allen UR-Handgelenken und nutzt eine in die UR-Schnittstelle Polyscope eingebettete Software.  Das System erfordert keine spezifische Verdrahtung. Auch um die Kamera einzurichten oder zu betreiben, ist kein externer PC nötig. Laut Hersteller lässt sich das System in fünf Minuten einrichten, eine Programmierung ist nicht nötig. Zudem besitzt das Sytem eine einfache Schnittstelle zum Einlernen neuer Objekte. Die Kamera löst bis maximal 2 560 x 1 920 Pixel auf. Der Fokusbereich beträgt 70 mm bis unendlich.

(mns)

Sie möchten gerne weiterlesen?