Die Beleuchtung sendet einen Infrarot-Impuls auf die Objekte aus. Der Sensor erfasst die Reflektionen und ein FPGA wandelt dessen Daten in eine dreidimensionale Rekonstruktion der Objekte um.

Die Beleuchtung sendet einen Infrarot-Impuls auf die Objekte aus. Der Sensor erfasst die Reflektionen und ein FPGA wandelt dessen Daten in eine dreidimensionale Rekonstruktion der Objekte um. Odos

Ritchie Logan, Vizepräsident Geschäftsentwicklung von Odos, erläutert: „Es gibt viele Anwendungen für bildgebende Verfahren, bei denen auch Distanzinformationen benötigt werden, beispielsweise in der Logistik und Robotik. Umgekehrt gibt es auch Einsatzbereiche für Distanzwertmess­ungen, bei denen Abbildungen notwendig sind.“ Soll beispielsweise ein Roboter eine Palette beladen, muss er nicht nur den richtigen Karton identifizieren, sondern er benötigt auch Informationen über Breite und Höhe des jeweiligen Packstückes. „Auch die genauen Abmessungen der fertigen Palette müssen bestimmt werden, um die Beladung der Lkw planen zu können“, so Logan weiter. Bislang lieferten konventionelle Kameras kombiniert mit Laserscannern diese Daten. Ein Laserscanner-basiertes System muss das Objekt aber mithilfe eines beweglichen Spiegels Punkt für Punkt abtasten. Außerdem müssen die 2D-Bilder der Kamera unter großem technischen Aufwand mit den Distanzdaten der Laserscanner verknüpft werden. Ein Time-of-Flight-basiertes (ToF) Bildgebungsverfahren kann das Objekt mit einer Aufnahme erfassen – ohne bewegliche Teile. Außerdem verwendet es die selben Pixel auf dem Bildsensor, um sowohl Bild- als auch Tiefeninformationen zu erfassen. Damit ist das ToF-System schneller und weniger verschleißanfällig. Allerdings waren Auflösung und Reichweite vieler ToF-Systeme bisher für die meisten industriellen Anwendungen zu gering. Der Ansatz des schottischen Unternehmens Odos löst dieses Problem: Sein ToF-System Real.iz-1K nutzt einen kurzen, intensiven Lichtpuls, der zusammen mit der digitalen Verarbeitung eine höhere Pixelanzahl ermöglicht als bisherige Systeme. Mit zwei zusätzlichen Beleuchtungseinheiten hat das modulare System eine Reichweite von 15 m, ohne diese funktioniert es bis zu einer Entfernung von 10 m. Außerdem lässt es sich bei allen Lichtverhältnissen ohne Qualitätsverlust einsetzen und benötigt keine Bildnachverarbeitung.

Da das Kamerasystem gleichzeitig ein 2D-Bild und die Distanzinformationen der Objekte erfasst, kann es neben der genauen Position aller Objekte ebenso erkennen, wo das eine Objekt (hier: die Hand) aufhört und das andere (hier: die Kiste) anfängt.

Da das Kamerasystem gleichzeitig ein 2D-Bild und die Distanzinformationen der Objekte erfasst, kann es neben der genauen Position aller Objekte ebenso erkennen, wo das eine Objekt (hier: die Hand) aufhört und das andere (hier: die Kiste) anfängt.Odos

Alle Infos auf einen Blick

Da sich die ausgesendeten Pulse eindeutig auseinanderhalten lassen, ermöglicht das gepulste Time-of-Flight-Verfahren eine direkte Messung ohne Mehrdeutigkeit der Distanzbestimmung,: „Die beiden Beleuchtungseinheiten senden einen Blitz, das heißt, einen kurzen, intensiven Infrarot-Impuls von 905 nm Wellenlänge aus. Sobald dieser auf ein Objekt in der Szene trifft, wird er zum System reflektiert und vom Sensor erfasst“, erläutert Logan. Anschließend werden diese Daten in eine dreidimensionale Rekonstruktion der Szene umgewandelt. Bei weiter entfernten Objekten kommt der Lichtpuls später zum Sensor zurück als bei näher gelegenen, sodass sich ein Distanzbild ergibt. Der CMOS-Bildsensor, der die reflektierten Pulse auffängt, besteht aus einem Pixel-Array, bei dem jedes Pixel eine separate Messung durchführt und sowohl Entfernungs- als auch Intensitätsinformationen liefert (Energie des einfallenden Lichts pro Fläche und Zeit). Das Ergebnis ist eine pixelgenaue Übereinstimmung von Intensitäts- und Distanzbildern.

Scharfes Auge

Bei dem Kamerasystem erfolgt die Auswertung nicht auf dem Sensorchip, sondern digital auf einem FPGA. „Da unser Pixel-Aufbau relativ einfach ist, kann auf dem Sensorchip mehr gespeichert werden“, ergänzt Logan. So erreicht die Kamera die SXGA-Auflösung (1.280 mal 1.024 Pixel) beziehungsweise 1,3 Megapixel. Darüber hinaus können mehrere Systeme synchronisiert werden, sodass sie zur gleichen Zeit dasselbe Objekt abbilden. Auf diese Weise lässt sich mittels Software ein 360°-Modell davon erstellen: „Wir können die Systeme sogar direkt aufeinander richten, ohne dass es zu Störungen kommt“, so Logan. Das neue Verfahren eignet sich zur Distanzmessung bei allen Lichtverhältnissen, ohne Interferenzen oder Qualitätsverlust.

Bei automatischen Hochregallagern benötigt der Lade-Roboter neben der Breite und Höhe der Palette auch Informationen über die Tiefe, um das Packstück zielsicher in eine passende Lücke im Regal zu sortieren.

Bei automatischen Hochregallagern benötigt der Lade-Roboter neben der Breite und Höhe der Palette auch Informationen über die Tiefe, um das Packstück zielsicher in eine passende Lücke im Regal zu sortieren.Tatty – Fotolia.com

Im Gegensatz zu anderen Verfahren der Abstandsmessung, die einen Bildsensor verwenden – wie Stereobildverarbeitung oder Lasertriangulation – benötigt das gepulste ToF-Verfahren wenig Kalibrierung und keine Bildnachverarbeitung. Damit ist es eine vergleichsweise schnelle und einfache Methode, um 3D-Bilder anzufertigen. Darüber hinaus lassen sich die Pixel des Sensors in drei verschiedenen Modi auslesen: Distanz, Intensität sowie beides gleichzeitig. Somit können Anwender mit dem System nicht nur 3D-Daten aufnehmen, sondern es beispielsweise auch für zweidimensionales maschinelles Sehen einsetzen – ob in der Fertigungshalle oder im Freien. „Außerdem hat das System eine Genicam-Gig-E-Schnittstelle, die für die Kompatibilität mit vielen Standard-Software-Paketen zur Bildverarbeitung sorgt“, fügt Logan hinzu. In Zukunft will das Unternehmen weitere Systeme mit größerer Reichweite und höherer Auflösung entwickeln. „Wir arbeiten bereits an einem mit vier Megapixel“, so Logan.

3D-Objekterkennung mittels Time-of-Flight

Bei Time-of-Flight-Systemen (ToF) handelt es sich um Geräte zur Entfernungsmessung. In Verbindung mit einer Lichtquelle ist jedes Pixel auf dem ToF-Sensor in der Lage, die Entfernung zu allen Objekten in der Szene zu messen. Mit diesen Informationen erstellt die Kamera ein dreidimensionales Abbild.

Es gibt zwei unterschiedliche Methoden, die Szene mittels Lichtquelle zu sondieren und die Distanzinformationen zu erfassen: ein Phasen-basiertes und ein Puls-basiertes Beleuchtungsverfahren.

Phasen-basierte ToF-Verfahren emittieren frequenzmoduliertes Licht. Dieses reflektieren die Objekte in der Szene und die Pixel auf dem ToF-Sensor erfassen es. Das Pixel hat die Aufgabe, die Phase des reflektierten Lichtes festzustellen, wozu er üblicherweise vier Punkte der Schwingung abtastet. Durch die Phasenverschiebung zwischen dem emittierten und dem vom Sensor erfassten Licht lässt sich anschließend die Distanz zu einem Objekt in der Szene ermitteln.

Bei einem Puls-basierten ToF-Verfahren wird das Licht als eine Abfolge intensiver Pulse emittiert. Das Pixel auf dem Sensor muss nur die Rückkehr des von den Objekten in der Szene reflektierten Lichtes feststellen, was einige wesentliche Vorteile hat: Ein Puls-basierter ToF-Sensor erreicht eine wesentlich höhere Auflösung, da er sich mit mehr Pixeln bestücken lässt. Zudem gibt es keine Mehrdeutigkeit in der Distanzbestimmung, da sich die ausgesendeten Pulse eindeutig auseinanderhalten lassen. Darüber hinaus ist das System unempfindlich gegenüber Umgebungslicht und es kann auch Intensitätsbilder aufnehmen.

Iris Gehard

ist Redakteurin in München.

(dl)

Sie möchten gerne weiterlesen?