Die sogenannte 6D-Kamera ­liefert neben einem 3D-Bild auch die Bewegungsvektoren der detektierten Objekte.

Die sogenannte 6D-Kamera ­liefert neben einem 3D-Bild auch die Bewegungsvektoren der detektierten Objekte.Matrix Vision

Die Perception Camera ‚mvPerCam‘ ist dem menschlichen ­Auge und der Sinneswahrnehmung im Gehirn nachempfunden: Das Gehirn interpretiert eine Szene. Es erkennt Gegenstände und keinen Haufen von Grauwertpixeln. Objekte werden wiederum erkannt, weil sie bekannt sind – auf die Technik übertragen, weil sie erlernt wurden.

Unsere Augen erkennen Kontrastunterschiede sehr gut, etwa Kanten und Strukturen, ebenso den Abstand der Objekte zueinander. Genau diese beiden Aufgaben von Auge und Gehirn erledigt jetzt die Kamera. Dazu muss sie lediglich die prinzipiellen Eigenschaften der zu erkennenden Objekte wissen. Dazu wurde für die Kamera eine Wahrnehmungsfunktion entwickelt, mit der Entwickler anhand formbeschreibender Begriffe definieren, können welche Objekte interessieren.

Das sieht die Kamera: Aus dem Rohbild...

Das sieht die Kamera: Aus dem Rohbild…Matrix Vision

Die Kamera zeigt dann alle Objekte mit diesen Eigenschaften in Videoechtzeit (30 Hz) bei einer Auflösung von 1 024 mal 1 024 Pixel an. Zur Verfügung stehen die Position im dreidimensionalen Raum sowie die aktuellen Bewegungsvektoren (vx, vy und vz) der im Erfassungsbereich gefundenen Objekte. Damit lässt sich bestim­men, ob sich die Objekte von der Kamera weg oder zu ihr hin bewegen. Zusätzlich sind die Daten als Farben im RGB-Farbraum abgebildet. Natürlich ­erfasst die Kamera auch die Größe und die Ausrichtung der Objekte im Raum und ermittelt den idealen Pick-Point. Dabei kann sie auch eng aneinander liegende Packungen unterscheiden. Dazu projiziert die Kamera eine zusätzliche strukturierte Beleuchtung auf die Szene. Diese zweite Beleuchtung ist analog zum Triangulationsverfahren schräg zur Kamera angebracht. Dadurch entstehen feine Lücken in der veränderten Struktur der zweiten Beleuchtung, die als zusätzliche Unterbrechungen der 3D-Messpunkte betrachtet werden können.

wird die Punktewolke generiert...

wird die Punktewolke generiert…Matrix Vision

Multi-Stereo sorgt für Tiefenschärfe

Der Erkennungsbereich (Fokus) beginnt bei ungefähr 270 mm und reicht bis zu Entfernungen von 2.500 mm. Nahe ­Objekte werden vom Sensor/Objektiv-Paar mit dem kürzesten Abstand (innen liegend) am besten erfasst, entfernte ­Objekte von den äußeren Bildsensoren. Zwar erfassen alle vier Sensoren das ­Objekt, jedoch ist der Versatz der Objekte im Bild bei dem weiten Kameraabstand größer. Daraus resultiert wiederum eine höhere Messgenauigkeit bei der Entfernungsdetektion.

sowie die Tiefenkarte und...

sowie die Tiefenkarte und…Matrix Vision

Diese hohe ‚Tiefenschärfe‘ eignet sich für die Verfolgung von Objekten im Raum oder für die Steuerung eines Pick-and-Place-Roboters. Montiert auf dem Roboter, sieht die Kamera zunächst nur grob in der Ferne eine Palette. Bei der Annäherung kann das System dann auch einzelne Schachteln identifizieren und präzise ­deren Position lokalisieren. Bekommt die Kamera einen Schlag ab oder ist durch das Transportsystem kontinuierlich Vibrationen ausgesetzt, stellt sie sich durch Selbstkalibration automatisch wieder richtig ein.

das Bewegungsmuster berechnet.

das Bewegungsmuster berechnet.Matrix Vision

Als Zielapplikationen der Kamera sieht Matrix Vision den Logistik- und Automotive-Bereich, besonders für Aufgaben wie die Größen- und Volumenbestimmung von Objekten. Hinzu kommen beispielsweise Palettierung, De-Palettierung und Pick-and-Place-Aufgaben von komplexen Szenen, wie sie typischerweise bei einem Griff in die Kiste vorkommen. Durch die Robustheit und Erkennungs­geschwindigkeit lassen sich die Roboter in Echtzeit führen.