Als komplette, software-gestützte Bildverarbeitungseinheiten integrieren Kamerasensoren Optik, Beleuchtung und Elektronik in einem Gehäuse. Die Einsatzbandbreite dieser Gerätekategorie reicht von der klassischen Opto-Sensorik (Einweg-Systeme, Reflexions-Systeme und tastende Systeme) bis hin zur Bildverarbeitung mit Lage- und Geometriekontrolle von Teilen. Somit avancieren Kamerasensoren zum Generalisten für Anwendungen, in denen automatisch montiert, gefördert, sortiert oder verpackt werden soll. Für solche oder ähnliche Aufgaben verfügen aktuelle Kamerasensoren über interessante Funktionen und Merkmale. Im Vergleich zu pixelbasierten Geräten sind die neuen Kamerasensoren weitgehend unabhängig von Fremdlichteinflüssen.
Bei der pixelbasierenden Bildverarbeitung wird der Grauwert jedes Pixels innerhalb eines zuvor festgelegten Prüffensters bewertet. Mit der Helligkeit in dem vorgegeben Prüfbereich ändern sich die Grauwerte der darin enthaltenen Pixel. Sind diese Änderungen aufgrund externer Einflüsse zu stark, wird das Prüfobjekt falsch bewertet, da das Bildverarbeitungssystem nicht erkennen kann, ob eine Bauteilvariation vorliegt oder Fremdlicht die Grauwertänderungen verursacht.
Vom Pixel zur Kontur
Das Sehvermögen des Menschen funktioniert anders und ist in der Lage, selbst bei trübem Wetter noch Bäume und Häuser an ihren Umrissen klar zu erkennen und zu unterscheiden. Ähnlich funktioniert die konturbasierte Erkennung bei Kamerasensoren, wobei ihr spezieller Bildsensor die Konturen von Objekten parallel zur Bildaufnahme errechnet, also in Echtzeit. Daraus resultiert die schnelle Detektion von Bauteilen selbst unter schwierigen Umgebungsbedingungen.
Konturen bestehen im Grunde aus Kanten, die den Übergang von einem Hintergrund zu einem Objekt mit spezifischen Umrissen kennzeichnen. Analog hierzu ist eine Kante in einem Kamerabild letztendlich nur ein Übergang von einem Pixel zu einem benachbarten Pixel mit einem spezifischen Sprung im Grauwert. Aktuellen Kamerasensoren lässt sich beibringen, welche Kriterien relevant sind, um aus solchen Pixelinformationen eine Kante und damit die Kontur eines Objekts abzuleiten. Bei Konturen wird demnach der spezifische Wert eines Graustufenunterschieds zwischen den Pixeln einer Kante ermittelt.
Gelangt Fremdlicht auf eine Prüffläche, betrifft dies in der Regel den gesamten Detektionsbereich. Somit bleibt der Graustufenunterschied zwischen den Pixeln einer Kante über weite Bereiche konstant, wodurch eine relativ fremdlichtunempfindliche Abfrage von Objekten möglich ist. Ein Beispiel: Stellt ein Pixel mit einem Grauwert von 80 den Hintergrund einer Prüffläche dar und ein weiteres Pixel mit einem Grauwert von 120 ein Prüfobjekt, resultiert daraus eine Differenz von 40 Grauwertstufen zwischen Hintergrundpixel und Objektpixel – mehr als genug, um die Kante zu detektieren. Beeinflusst Fremdlicht den Prüfbereich, würden sowohl der Grauwert des Hintergrund- als auch des Objektpixels im gleichen Verhältnis angehoben. Dadurch bleibt der Pixelsprung von 40 Grauwertstufen erhalten und damit auch die Detektionsfähigkeit der Objektkante.
Der Vorteil für die Praxis: Ändern sich die Lichtverhältnisse in einem Prüfbereich, lässt sich dennoch die Kontur eines Bauteils aus dem Kamerabild ableiten, da dessen Kanten als Information herangezogen werden. Die Bestimmung dieser Kontur bleibt selbst bei wechselnden Umgebungsbedingungen über einen großen Bereich stabil. Dort, wo in der Vergangenheit mitunter eine komplette Einhausung der Kamera notwendig war, um Fremdlichteinflüsse zu eliminieren, reicht bei diesen Kamerasensoren je nach Prüfaufgabe mitunter eine einfache Beschattung der Prüffläche.
Lagenachführung: mehr Freiheiten
Eine weitere Besonderheit stellt die flexible Lagenachführung dar, die zur lageunabhängigen Prüfung von Bauteilen herangezogen wird. Lagenachführung bedeutet zunächst, dass die Position eines zu detektierenden Objektes im Bildbereich der Kamera bestimmt werden kann. Weicht diese Position in Bezug zur parametrierten Lage ab, lässt sich das Objekt virtuell für die Erkennungsaufgabe ausrichten. Auch ältere BV-Sensoren haben eine Lagenachführung – eine einzige – mit der alle in einem Bildausschnitt gelegten Prüfpunkte verknüpft sind. Aktuelle Systeme bieten hier mehr Freiheiten. Beispielsweise lässt sich für einen Prüfling eine Lagenachführung definieren, die sich nur auf drei von fünf geplanten Prüffunktionen auswirkt. Zwei Prüffunktionen finden unabhängig von der Bauteillage immer am gleichen Ort im Bildbereich statt, während die restlichen Prüffunktionen entsprechend der Lage des Bauteils geometrisch nachgeführt werden. Die Kamerasensoren bieten in diesem Zusammenhang die Möglichkeit, mehrere Lagenachführungen miteinander zu kombinieren, um somit jedem einzelnen Prüfbefehl eine bestimmte Lagenachführung zuordnen zu können.
Angenommen, an einem Objekt mit undefinierter Lage ist zu prüfen, ob sich an bestimmten Positionen Bohrungen befinden. Gleichzeitig soll sichergestellt sein, dass sich das Bauteil für eine nachfolgende Verarbeitung in einem definierten Positionsbereich auf einem Förderband befindet. Diese Aufgaben lassen sich nur realisieren, wenn durch eine entsprechende Lagenachführung die Prüfpunkte (Bohrungen) zu ermitteln sind. Parallel hierzu muss aber auch ein zusätzliches Prüfwerkzeug des Kamerasystems die Verdrehung des Bauteils feststellen können, wobei in diesem Fall das Werkzeug nicht nachgeführt werden darf. Ansonsten würde das Objekt, falls es sich in der falschen Position für die Weiterverarbeitung befindet, trotzdem vom Kamerasensor als IO-Teil identifiziert.
Wandlungsfähig: Upgrade zum BV-System
Mitunter stoßen herkömmliche Kamerasensoren an Grenzen, wenn die Prüfaufgaben bei einem von der Einbauumgebung vorgegebenen Arbeitsabstand auf einer größeren respektive kleineren Arbeitsfläche durchgeführt werden sollen. Verantwortlich dafür ist das fest eingebaute Objektiv, das aufgrund seiner Brennweite zwangsläufig einen spezifischen Abbildungsmaßstab vorgibt. Um jedoch mehr Informationen aus einem Erfassungsbereich gewinnen zu können, wäre ein Kamerasensor notwendig, bei dem sich das Objektiv und damit die Brennweite variabel wählen lassen. Bei den jüngsten Kamerasensoren besteht die Möglichkeit, über einen C-Mount-Anschluss die Optik anzupassen. Passend zum Objektiv beziehungsweise zur Brennweite gilt es die Beleuchtung abzustimmen. Daher integrieren neue Kamerasensoren einen Blitzcontroller, der die externe Beleuchtung nicht nur mit Spannung versorgt, sondern auch mit dem für eine Vervielfachung der Beleuchtungshelligkeit erforderlichen Blitzimpuls.
Kein Anlernen von Schriften
Neben Merkmalsprüfungen in den Bereichen Geometrie und Vergleich, spielt im Bereich der Identifikationswerkzeuge die Schrifterkennung eine immer wichtigere Rolle. Oft noch mit zeitraubendem Anlernen verbunden, gibt es inzwischen BV-Sensoren mit OCR-Funktion (Schrifterkennung), die einen Text, Datum oder eine Zahlenkombination mit spezieller Formatierung erkennen und wenn gewünscht mit einer vorab durch einfaches Teachen hinterlegten Referenz vergleichen.
Einfach reicht nicht
Bei all den technologischen Fortschritten darf die ‚Usability‘ nicht auf der Strecke bleiben. Und die fängt schon bei der Konfiguration an: Bereits nach wenigen Schritten sollten die Systeme unmittelbar einsatzfähig sein. Hier helfen Features wie ein Webinterface, das nach Eingabe der IP-Adresse des Sensors sofort über jeden Standardwebbrowser bereitsteht. Damit sind die Kamerasensoren über Laptop oder Tablet direkt in einer Anwendung parametrierbar, ohne dass zuvor die entsprechende Software installiert sein muss. Mit der Konfiguration sind die Anwendungsmöglichkeiten des Webinterfaces jedoch noch nicht erschöpft. Warum das Interface nicht als Monitor zur Ansicht von Prüfbildern mit einer kleinen Statistik nutzen oder über diese Schnittstelle vordefinierte Einstellungen vornehmen? Die Entwicklung von Kamerasensoren macht große Fortschritte. Man darf gespannt sein, was die Zukunft noch bringt.
Christian Fiebach
(sk)