In der Industrie arbeiten Menschen mit industriellen Robotern Seite an Seite.

In der Industrie arbeiten Menschen dank Sensoren mit industriellen Robotern sicher Seite an Seite. (Bild: AdobeStock_620471236)

Da sich Roboter in der Industrie aufgrund von steigenden Arbeitskosten, Arbeitskräftemangel, Lockerung der Vorschriften und der wachsenden Nachfrage nach hoher Produktivität zunehmend verbreiten, wird auch die Zahl der Sensoren für die Robotik in den kommenden zwei Jahrzehnten schnell zunehmen. Das Wachstum wird angetrieben durch die steigende Zahl von Sensoren pro Roboter, um Intelligenz und den Grad der Autonomie, der nötig ist um komplizierte Aufgaben zu bewältigen, umzusetzen. Auch sinkende Sensor-Kosten führen zu einer stärkeren Verbreitung von Sensoren.

Aufbau und Funktion von Industrierobotern

Industrieroboter sind im Grunde autonome Maschinen und bestehen im Allgemeinen aus einem Hauptkörper, einem Antriebssystem und einem Steuerungssystem. Der Hauptkörper ist die Basis und der Antrieb, einschließlich des Arms, des Handgelenks und der Hand. Einige Roboter verfügen auch über einen Gehmechanismus. Sensoren machen die Autonomie der Roboter möglich. Durch sie können Roboter autonom navigieren oder Objekte und Näherungen erkennen.

Beispiele für Sensoren in der Robotik:

  • Navigation und Kartierung: Kamera, Radar, Lidar, Ultraschall, GPS/GNSS
  • Näherung: Lidar, Radar, Ultraschall, Triangulation, kapazitive Wellen
  • Kollision: Lichtvorhang, F/T-Sensoren
  • Kraftmessung: F/T-Sensoren (kapazitiv, piezoresistiv, piezoelektrisch)

In der Robotik übernehmen Sensoren zwei wichtige Funktionen:

  • Autonome Mobilität für den Material- und Warentransport.
  • Sicherheit bei der Mensch-Roboter-Interaktion (HRI) für eine hohe Produktivität.

Für die autonome Mobilität sind Sensoren zur Navigation und Kartierung nötig

Autonome Mobilität bedeutet, dass der Roboter in der Lage ist, zu navigieren, zu lokalisieren und Hindernissen auszuweichen. Hierfür muss er die Umgebung kartieren, um ein Modell aus Punktwolken zu erstellen und eine Bewegungsbahn zu planen, anschließend muss er der Bahn folgen. Für beide Schritte sind Sensoren für die Objekterkennung, die Navigation und die Erfassung von Daten aus der Umgebung nötig. Zu den typischen Navigations- und Kartierungssensoren gehören:

  • Kamera
  • Radar
  • LiDAR
  • Ultraschasll
  • GPS/GNSS

Wie Kamera, Radar, LiDAR, Ultraschall und GPS/GNSS funktioniert

Aktuelle Kameras verwenden meist CMOS-Sensoren zur Datenerfassung. Diese bestehen im Wesentlichen aus einer Matrix von Fotosensoren, auch Pixel genannt. Die Anzahl der Pixel bestimmt die Auflösung des Bildsensors. Ein Pixel verfügt über eine Fotodiode. Die dort erzeugte Spannung wird zeilenweise oder spaltenweise ausgelesen. Ein Analog/Digital-Wandler wandelt die ausgelesenen verstärkten analogen Ladungssignale der einzelnen Pixel in digitale Werte um, die dann zu einem vollständigen Bild zusammengeführt werden.

Die Autorin: Sabine Synkule

Sabine Synkule
(Bild: Sabine Synkule)

Durch ihr Elternhaus schon von Kindesbeinen an naturwissenschaftlich geprägt, war früh klar, dass Sabine Synkule auch beruflich einmal diese Richtung einschlagen würde. Nach einem Physikstudium und einer Zeit als wissenschaftlicher Mitarbeiterin entschied sie sich schließlich dafür, nicht mehr selbst zu forschen, sondern über die Ergebnisse der Forschung anderer zu berichten. So ist sie schließlich im Fachjournalismus gelandet und dort für die Bereich Messtechnik, Sensoren und Stromversorgung zuständig. Deshalb – und weil sowieso niemand ihren Nachnamen richtig ausspricht – wird sie auch gerne als die Power-Frau von Hüthig vorgestellt. Privat würde niemand auf die Idee kommen, dass ihr Beruf etwas mit Technik zu tun hat. So fragt sie keiner ihrer Bekannten jemals um Rat, wenn einmal ein Fernseher oder Computer kaputt ist. Ihre Expertise wird nur bei der Umsetzung aufwändiger Kochrezepte oder dem Erstellen neuer Strick- und Stickmuster eingeholt.

Weitere Artikel von Sabine Synkule

Beim Lidar-System (Light Detection and Ranging) sendet ein Laser einen Lichtimpuls aus, der von einem bewegten Objekt reflektiert wird und dann an einem Empfänger ankommt. Über die Laufzeit des Lichts (Time-of-Flight, ToF) lässt sich der Abstand zum Objekt bestimmen. Häufig liefert Lidar auch Informationen wie die Intensität des reflektierten Lichts oder die Erfassung von Oberflächendetails. Durch die Abtastung mit dem Laserstrahl entlang der horizontalen und vertikalen Richtung erstellt ein Lidar-System eine vollständige 3D-Karte (Frame) der vor ihm liegenden Szene. Radar verwendet Radiowellen, um die Entfernung und Position von Objekten zu bestimmen. Analog zu Lidar kann das Radarsystem die Entfernung und Position von Objekten bestimmen, indem es die Zeit misst, die die Radiowellen benötigen, um vom Objekt zum Sensor zurückzukehren. Auch ein Ultraschallsensor funktioniert nach demselben Prinzip nur sendet er statt elektromagnetischer Wellen Schallwellen aus.

Prinzip Ultraschallsensor
Bild 1: Prinzip eines Ultraschallsensors (Bild: Sabine Synkule)

GPS (Global Positioning System) und GNSS (Global Navigation Satellite System) nutzen zur Positionsbestimmung eine Konstellation von Satelliten, die in einer festen Umlaufbahn um die Erde kreisen. Diese Satelliten senden kontinuierlich Signale aus, die Informationen über ihre Positionen und die genaue Zeit enthalten. Um ihren Standort zu bestimmen, benötigen GPS- und GNSS-Empfänger mindestens Signale von vier Satelliten. Basierend auf der Signallaufzeit von jedem Satelliten zum Empfänger und den bekannten Positionen der Satelliten kann der Empfänger Ihre genaue Position berechnen.

GPS- und GNSS-Empfänger benötigen mindestens vier Satelliten, um ihren Standort zu bestimmen.
Bild 2: GPS- und GNSS-Empfänger benötigen mindestens vier Satelliten, um ihren Standort zu bestimmen. (Bild: Sabine Synkule)

Vor- und Nachteile der Navigations- und Kartierungssensoren

Verschiedene Sensoren haben Vor- und Nachteile, und in der Praxis werden meist mehrere Sensoren miteinander kombiniert, um die beste Gesamtleistung zu erzielen. LiDAR zum Beispiel ist relativ einfach zu verwenden und unempfindlich gegenüber schlechten Wetterbedingungen. Diese Technik ist die am weitesten verbreitete, die die autonome Mobilität von Robotern ermöglicht. Dieser Trend wird sich wahrscheinlich fortsetzen. Allerdings ist LiDAR in der Regel mit hohen Kosten verbunden und die von 3D-Sensoren erfassten Daten haben meist eine geringere Auflösung als die von herkömmlichen 2D-Sensoren, z. B. von Kameras. Allerdings sind Kameras bei schlechtem Wetter oder eingeschränkter Sicht nicht sehr leistungsfähig. Mit der Entwicklung der Computer-Vision-Technologie könnten sich mobile Innenraumroboter mehr auf Kameras als auf 3D-LiDAR verlassen.

Sensortechniken Kollisionsvermeidung und Näherung

Industrieroboter sind zwar so konzipiert, dass sie in einem sicheren Abstand zum Menschen arbeiten, doch fehlt es diesen Geräten traditionell an den sensorischen Fähigkeiten, um Menschen in der Nähe zu erkennen. Eine der wichtigsten Anwendungen von Sensoren ist deshalb die Erkennung von Nähe und Kollisionen. In der Regel verwenden Annäherungssensoren eines oder mehrere von fünf Erkennungsprinzipien. Neben Lichtreflexion, ToF und Ultraschall sind hier Triangulation und kapazitive Wellen zu nennen.

Bei der Triangulation projiziert ein Sensor einen Laserpunkt auf das Objekt. Das Licht wird reflektiert und trifft abhängig von der Entfernung unter einem bestimmten Winkel auf einen Empfänger. Aus der Position des Lichtpunktes auf dem Empfänger und aus dem bekannten Abstand von Sender und Empfänger kann der Abstand zum Objekt berechnet werden (Bild 3).

Prinzip Triangulation
Bild 3: Bei der Triangulation wird aus der Position des Lichtpunktes auf dem Empfänger und aus dem bekannten Abstand von Sender und Empfänger der Abstand zum Objekt berechnet. (Bild: Sabine Synkule)

Kapazitive Näherungssensoren erkennen die Nähe von Objekten ohne physischen Kontakt. Sie bestehen aus zwei elektrischen Leitern, die durch ein Dielektrikum wie Luft getrennt sind. Die Kapazität zwischen den Leitern ändert sich, wenn ein Objekt in die Nähe des Sensors kommt.

Näherungssensoren: welche Technik eignet sich wofür

Ultraschallsensoren haben im Vergleich zu anderen Näherungssensoren in der Regel den größten Erfassungsbereich, kapazitive Näherungssensoren den kürzesten. Die Korrelation zwischen Grundfläche und maximalem Erfassungsabstand bestimmt die idealen Anwendungsszenarien für diese Sensoren. So können Sensoren mit großem Erfassungsbereich und großer Grundfläche häufig bei Aufgaben eingesetzt werden, die eine Erkennung über große Entfernungen erfordern, z. B. bei Unterwasserrobotern. Im Gegensatz dazu eignen sich Sensoren mit relativ kurzen Erfassungsabständen und Stellflächen besser für Aufgaben mit begrenztem Platzangebot wie kollaborierende Roboter in Fertigungsstraßen.

Sensoren zur Kollisionsvermeidung für mehr Sicherheit

Zur Kollisionsvermeidung können Lichtvorhänge eine geeignete Lösung für Industrieroboter sein. Bei einem Sicherheitslichtvorhang sendet ein Sender moduliertes Infrarotlicht aus, das vom Empfänger empfangen wird. Auf diese Weise wird eine Reihe von Lichtstrahlen erzeugt. Wenn ein Mensch in diesen Lichtvorhang eindringt, antwortet der Lichtempfängerschaltkreis über den internen Steuerkreis, der ein Signal an die Maschine ausgibt. Dieses Signal veranlasst, dass die Maschine ihren Betrieb verlangsamt oder stoppt.

Mit der Einführung von kollaborierenden Robotern (Cobots) sind menschliche Bediener direkt dem Arbeitsbereich von Robotern ausgesetzt. Hier dienen üblicherweise Kraft- und Drehmomentsensoren (F/T-Sensoren) zur Kollisionserkennung, denn ein physischer Lichtvorhang reicht zur Kollisionsvermeidung nicht aus. Diese Sensoren werden in der Regel um die Endeffektoren des Roboters herum installiert. Je nach Aufgabe muss der Kraftbereich voreingestellt sein. Kommt es zu einer Kollision, übersteigt die vom Sensor erfasste Kraft oder das Drehmoment den vorgegebenen Bereich und der Roboter wird angewiesen, seinen Betrieb einzustellen.

Mit den zunehmenden Sicherheitsanforderungen von HRI werden voraussichtlich mehr F/T-Sensoren installiert werden. Einige Cobot-OEMs (z. B. Franka Emika) haben damit begonnen, mehr Drehmomentsensoren an allen Gelenken einzubauen, um eine bessere Kraftkontrolle und Kollisionserkennung zu ermöglichen.

F/T-Sensoren ermöglichen intelligente Roboter

Neben der Kollisionsvermeidung werden F/T-Sensoren integriert, um intelligente Roboter zu schaffen, die fühlen und so Teile unterschiedlicher Beschaffenheit handhaben, um anspruchsvolle mechanischen Montage- und Materialentfernungsvorgänge zu ermöglichen. F/T-Sensoren können die Geschwindigkeit kontrollieren und die Kraft beim Einpassen, Ausrichten, Polieren, Trimmen oder Montieren von Objekten steuern. Hier sind beispielsweise kapazitive, piezoresistive oder piezoelektrische Sensoren die geeignete Wahl.

Kapazitive Sensoren zur Kraftmessung messen wie kapazitive Näherungssenosren eine Kapazitätsänderung, allerdings die Kapazitätsänderung, die in jeder taktilen Zelle durch direkten physischen Kontakt induziert wird (Bild 4).

Bild 4: Kapazitive Näherungssensoren bestimmen den Abstand zum Objekt ohne physischen Kontakt (links), kapazitive Kraftsensoren messen die Kapazitätsänderung, die ein dirketer physischer Kontakt induziert (links).
Bild 4: Kapazitive Näherungssensoren bestimmen den Abstand zum Objekt ohne physischen Kontakt (links), kapazitive Kraftsensoren messen die Kapazitätsänderung, die ein dirketer physischer Kontakt induziert (links). (Bild: Sabine Synkule)

5G – Was es zum Mobilfunkstandard zu wissen gibt

5G PCB with micro electronics
(Bild: denisismagilov @ AdobeStock)

5G gilt als Schlüsseltechnologie in vielen Bereichen. Größere Datenmengen bei höheren Übertragungsgeschwindigkeiten sind der Grund. Wie funktioniert die Technologie? Welche schnell ist es? Die Antwort auf diese und andere Fragen finden Sie in unsere Übersicht.

Bei piezoresistiven Sensoren bewirkt der physische Kontakt mit einem Objekt eine Änderung des elektrischen Widerstands des Sensormaterial; bei piezoelektrischen Sensoren verformt sich durch den piezoelektrischen Effekt das Material, wenn ein Objekt Druck ausübt, und es entsteht eine elektrische Ladung.

Kapazitive Sensoren können in einem breiten Temperaturbereich arbeiten und kurzzeitige Überdruckbedingungen tolerieren. Durch Temperaturschwankungen werden sie nicht beeinträchtigt, und der Temperaturkoeffizient ist 10 mal besser als der eines piezoresistiven Drucksensors. Gleichzeitig ist der Stromverbrauch kapazitiver Sensoren gering, da sie keine Stromquellen benötigen. In den letzten zehn Jahren wurden mit taktilen Sensoren elektronische Häute (E-Skin) mit multimodalen Wahrnehmungen entwickelt, die es dem Roboter ermöglichen, präziser, schneller und sicherer mit der Umgebung zu interagieren.

Piezoresitive Sensoren sind im Vergleich zu kapazitiven Sensoren billiger und sehr widerstandsfähig gegenüber Druckänderungen, Stößen und Vibrationen. Sie können in einem weiten Druckbereich eingesetzt werden (bis zu 1378.950 kPa), und mit Dünnfilmwiderständen sind sie wesentlich widerstandsfähiger gegen höhere Temperaturen und Überdrücke. Piezoelektrische Sensoren können sehr hohe Temperaturen vertragen (bei einige Materialien bis zu 1000 ºC). und sind in der Regel energieautark und haben daher einen sehr geringen Stromverbrauch. Obwohl sie in einem breiten Druckbereich eingesetzt werden können (z. B. 689 Pa bis 689.475 Pa), ist die maximale Drucktoleranz geringer als bei piezoresistiven Sensoren.

Robotik Vision

Dank automatisierten 3D-Bildverarbeitungssysten in Roboterarbeitszellen erkennen Roboter die Position, Größe, Tiefe und Farbe eines Objekts. Branchen wie die Logistik, die Lebensmittelverarbeitung und das verarbeitende Gewerbe, die Prozesse mithilfe visueller Komponenten automatisieren wollen, können davon profitieren.

Es gibt mehrere Standardtechniken, die auf die jeweiligen Aufgaben zugeschnitten werden müssen, wie die ToF-Technologie, strukturiertes Licht, Stereo-Vision-Systeme oder Lasertriangulation. Bei Letzterer berechnet sich die 3D-Information aus der Geometrie des optischen Aufbaus (Bild 3).

Bei strukturiertem Licht erzeugt ein Projektor ein dünnes Lichtband, um ein Muster auf ein Objekt zu projizieren. Kameras aus verschiedenen Winkeln beobachten die verschiedenen gekrümmten Linien des Lichts, um ein 3D-Bild des Objekts zu erstellen.

Ein Stereo-Vision-System verwendet zwei Kameras, um dieselbe 2D-Ansicht eines Objekts aus zwei verschiedenen Winkeln aufzunehmen. Die Software verwendet dann die festgelegte Position der beiden Kameras und vergleicht entsprechende Punkte in den beiden flachen Bildern, um Abweichungen zu erkennen und ein Bild mit Tiefeninformationen zu erzeugen. Dies ist besonders nützlich bei autonomen mobilen Robotern (AMRs) und automatisch gesteuerten Fahrzeugen.

Sie möchten gerne weiterlesen?