Kollaborative Roboter, sogenannte Cobots, halten in immer mehr Bereichen Einzug. Sie arbeiten überall dort an der Seite des Menschen, wo die Produktion die Entscheidungs- und Unterscheidungsfähigkeit des Menschen erfordert, kombiniert mit der ununterbrochenen Produktion, der Geschicklichkeit und der Präzision eines Cobots. Von der Leiterplattenmontage bis hin zu Anwendungen im Gesundheitswesen verändert die Fähigkeit von Cobots, sicher gemeinsam mit Menschen zu koexistieren, unsere Denkweise über die Produktion und die Möglichkeiten der individuellen Anpassung.
Diese Flexibilität und die zahlreichen anderen Vorteile von Cobots haben dazu geführt, dass sie schnell angenommen wurden. Der Markt für Cobots wird 2023 auf 0,95 Mrd. US-Dollar geschätzt und soll bis zum Jahr 2028 2,41 Mrd. US-Dollar erreichen, mit einer CAGR (Compound Annual Growth Rate) von 20,50 Prozent im Prognosezeitraum 2023 bis 2028.
Sicherheit steht an oberster Stelle
Bei der Zusammenarbeit von Menschen und Cobots steht die Sicherheit an oberster Stelle. Es muss garantieret werden, dass Menschen nicht durch ihre Roboterkollegen verletzt werden oder Bedingungen entstehen, die für Menschen gefährlich sein könnten. Das gewährleisten unterschiedliche Arten von Sensoren. Dazu gehören Näherungssensoren zur Kollisionserkennung, Kraft-/Drehmomentsensoren zur Geschwindigkeitsüberwachung, um sicherzustellen, dass sich der Roboter nicht mit einer Geschwindigkeit bewegt, die Menschen verletzen könnte, sowie Systeme zur Objekterkennung.
Letztere sind besonders wichtig, da eine genaue Objekterkennung, durch die die Effektoren des Roboters mit hoher Präzision an die richtige Stelle gesetzt werden können, für einen sicheren Betrieb unerlässlich ist. Auch bei der Handhabung von Gütern, insbesondere von Verpackungen, aus denen bei Beschädigung gefährliche Stoffe austreten könnten, ist sie unerlässlich. Eine genaue Erkennung ist weiterhin erforderlich, um sicherzustellen, dass der Roboter die Anwesenheit menschlicher Arbeiter erkennen und seine Bewegungen entsprechend anpassen kann.
Sensortechnologien für die Objekterkennung
Die beiden wichtigsten Sensortechnologien zur Erkennung von Objekten und Menschen in einer Umgebung sind Ultraschall- und optische Systeme. Die Ultraschalltechnik ist zwar für einige Anwendungen nützlich, hat aber mehrere Nachteile, nämlich eine begrenzte Reichweite und eine bei weichen Materialien beeinträchtigte Genauigkeit.
Optische Systeme beruhen häufig auf LiDAR – Light Detection And Ranging (Lichterkennung und Entfernungsmessung) oder Laser Detection And Ranging (Laserdetektion und Entfernungsmessung). Dies kann entweder 2D oder 3D erfolgen. 2D-LiDAR hat den Nachteil, dass es aufgrund der Verwendung eines einzigen Lichtstrahls, der von einer einzigen Oberfläche zurückgeworfen wird, bestimmte Objekte, die sich außerhalb des vom Laserstrahl abtastbaren Bereichs befinden, nicht erfassen kann.
So können beispielsweise Kisten oder andere Gegenstände auf dem Boden sowie mögliche Gefahrenstellen wie Treppenstufen übersehen werden. Dies kann problematisch sein, wenn der Roboter auf einem fahrerlosen Transportsystem (FTS) montiert ist und einen Bereich durchqueren und dabei Hindernissen ausweichen muss.
Im Gegensatz dazu bietet 3D-LiDAR einen größeren Erfassungsbereich, da mehrere Lichtstrahlen gleichzeitig eingesetzt werden, um ein 3D-Bild der Umgebung zu erstellen. Einer der größten Nachteile von 3D-LiDAR sind seine hohen Kosten.
ToF-Kamera als alternative Methode
Eine alternative optische Methode, die viele dieser Nachteile überwindet, ist die Lichtlaufzeitkamera (ToF-Kamera), auch bekannt als Lichtlaufzeitsensor (ToF-Sensor). Dabei handelt es sich um ein Entfernungsmesssystem, das die Entfernung zu jedem Punkt des Bildes auf der Grundlage der Laufzeit eines künstlichen Lichtsignals misst. Als scannerlose Systeme erfassen ToF-Geräte die gesamte Szene mit einem einzigen Lichtimpuls von einem Laser oder einer LED.
Das System ist sehr kompakt, wobei das Beleuchtungslicht oder der Laser in der Nähe des Objektivs angebracht ist. Im Gegensatz dazu benötigen Stereosichtsysteme eine bestimmte Mindestgrundlinie. Ein weiterer Vorteil gegenüber Scanningsystemen ist, dass keine mechanisch bewegten Teile erforderlich sind.
Auch die benötigte Rechenleistung wird minimiert, da nur einfache Algorithmen erforderlich sind, um die Entfernungsinformationen aus den Ausgangssignalen des ToF-Sensors zu extrahieren. Beim Stereosehen werden komplexe Korrelationsalgorithmen implementiert.
Lichtunempfindlich und auch bei direkter Sonneneinstrahlung funktionsfähig
ToF-Kameras können die Entfernungen innerhalb einer kompletten Szene mit einer einzigen Aufnahme messen und die aufgenommenen Bilder in 3D-Bilder umwandeln. ToF-Sensoren gewinnen gegenüber 2D- und 3D-Kameras auch in Situationen mit schlechter Beleuchtung oder wenn es Probleme mit den Farben gibt. Für 3D-Kameras kann es schwierig sein, Objekte zu unterscheiden, wenn die Farben sehr ähnlich sind. Ein Beispiel ist ein weißes Objekt auf weißem Hintergrund. In diesem Fall sind mit einer herkömmlichen Kamera die Kanten und die Form des Objekts schwer zu erkennen. Im Gegensatz dazu ist der ToF-Sensor aufgrund der Flugzeitmessung lichtunempfindlich und kann auch bei direkter Sonneneinstrahlung sehr gut funktionieren. Insgesamt bieten ToF-Sensoren im Vergleich zu 3D-Sensoren ein gutes Gleichgewicht zwischen Leistung und Kosten.
3D-Echtzeitabtastung mit einer Auflösung von 320 × 240 Pixeln
Der ToF-Sensor B5L von Omron ermöglicht eine 3D-Echtzeitabtastung des Abstands zu Menschen oder Objekten mit einer Auflösung von 320 × 240 Pixeln. Die Störfestigkeit gegen Umgebungslicht entspricht 100.000 Lux. Diese leistungsstarke Immunität gegen Umgebungslicht sorgt für eine stabile Erkennungsleistung, die auch in hellen Umgebungen frei von Sättigung ist.
Ausgelegt ist der Sensor für einen Messabstand zwischen 0,5 und 4 m. Er hat eine Erfassungsauflösung von 0,3° und eine Erfassungsgenauigkeit von ±2 Prozent, was 4 cm oder weniger in 2 m Entfernung vom Objekt entspricht, bei einer Wiederholgenauigkeit von einem Prozent. Der Sensor gibt auch kompensierte Signale aus, um eine Verarbeitung durch den Robotercomputer zu minimieren. Fünf Jahre beträgt die Lebensdauer. Für die Sendeelemente werden LEDs verwendet. Die verwendete Linse ist auf die Wellenlänge der Sender-LEDs abgestimmt und die Anordnung von Sendern und Empfängern minimiert die Auswirkungen von Staubpartikeln.
Durch den Interferenzschutz können bis zu 17 B5L-Einheiten gleichzeitig verwendet werden. Dies ist von Vorteil, wenn mehrere Roboter das Gerät zur Abstandsmessung nutzen. Verwendet werden kann zudem die Skelett-Erkennungssoftware. Ausgehend von definierten Punkten am menschlichen Körper werden die Ausgabedaten des Sensors verwendet, um die von der betreffenden Person eingenommene Pose zu schätzen.
Dabei handelt es sich zwar nicht um eine Sicherheitsfunktion, es könnte damit jedoch erkannt werden, ob sich der Mensch auf den Roboter zu oder von ihm weg bewegt. In Verbindung mit einem KI-Paket könnten Cobots die Skelett-Erkennungsfunktion nutzen, um die typischen Handlungen der Menschen zu erlernen, mit denen sie zusammenarbeiten, indem sie das Timing und die Geschwindigkeit ihrer Bewegungen optimieren. (neu)
Autor
Fabrizio Petris, Senior Strategic Marketing Manager bei Omron Electronic Components Europe B.V.