Applikationsspezifische Programmierung

Die VC-Z-Serie umfasst neben IP67-geschützten Gehäusekameras eine Auswahl an Platinenkameras, einschließlich Zwei-Kopf-Modellen für Stereo-Anwendungen.

Die VC-Z-Serie umfasst neben IP67-geschützten Gehäusekameras eine Auswahl an Platinenkameras, einschließlich Zwei-Kopf-Modellen für Stereo-Anwendungen. Vision Components

Nicht alle IBV-Aufgaben erfordern hohe RechenleistNicht alle Bildverarbeitungsaufgaben erfordern hohe Rechenleistungen. Andere Anwendungen umfassen jedoch aufwändige Berechnungen oder hohe Bildraten. Unter Umständen kommen erschwerte Rahmenbedingungen hinzu, die eine PC-basierte Lösung ausschließen – zum Beispiel, wenn nur wenig Platz für ein Bildverarbeitungssystem zur Verfügung steht und trotz hoher Leistungsansprüche nur minimale Abwärme auftreten darf. Es braucht also intelligente Systeme mit geringer Leistungsaufnahme. Embedded-Vision-Systeme sind auch hier eine gute Wahl, denn sie bieten nicht nur in der physischen Auslegung für unterschiedliche Umgebungsbedingungen eine hohe Flexibilität, sondern auch durch die freie Programmierung.

Vision Components stattet beispielsweise die Linux-basierten Kameras der VC-Z-Serie mit einem Zynq-Modul des Logik-IC-Anbieters Xilinx aus, einem System-on-a-Chip (SoC) mit Dual-Core-ARM-Prozessor und einem FPGA. Dadurch lassen sich Bildverarbeitungsfunktionen auf das FPGA, einen frei programmierbaren Schaltkreis, auslagern. Speziell aufwändige Bildverarbeitungsaufgaben können davon profitieren. Die drei folgenden Beispiele entstammen Projekten, bei denen Vision Components das FPGA für die spezielle Anwendung programmierte und dadurch die geforderten Geschwindigkeiten umsetzte.

Beispiel 1: dreidimensionale Oberflächenanalyse

Ein Beispiel ist die Interferometrie oder dreidimensionale Oberflächenanalyse: Eine Kamera, zusammen mit schräg einfallendem Weißlicht, kann die Rauheit ganzer Produktchargen auf einem Fließband vermessen. Auch Bohrungen und komplexe Geometrien lassen sich so überwachen. Ein Embedded-Vision-System mit leistungsfähigem Prozessor und FPGA ermöglicht OEMs die Umsetzung dieser Aufgabe auf kompaktem Raum und mit geringen Kosten für Serialisierung, Betrieb und Wartung.

Beispiel 2: Schnelle Scans mit Laser-Triangulationssensor

Ein intelligenter Lasertriangulationssensor prüft 3D-Profile.

Ein intelligenter Lasertriangulationssensor prüft 3D-Profile. EngRoTec Solutions

Für eine Paketsortieranlage inklusive Volumenmessung sind hohe Scangeschwindigkeiten gefordert, eine Aufgabe, die Vision Components mit dem neuen Triangulationssensor bereits erfolgreich umgesetzt hat. Als Grundlage des Systems dient die Standardtechnologie der VC Embedded Vision Systeme, nur damit konnte ein kosteneffizientes Gesamtsystem konzipiert werden. Die Algorithmik zur Laserliniendetektion findet direkt im FPGA des SoC-Moduls statt und ermöglicht dadurch  Scanraten bis zu 2 kHz, ohne dass der Dual-Core ARM© dadurch belastet wird. Somit kann die gesamte Applikationssoftware nachgelagert auf dem ARM ausgeführt werden, was eine zusätzliche externe Verarbeitungseinheit überflüssig macht.

Beispiel 3: Barcode-Leser mit extrem hoher Bildrate

Barcode-Leser führen im Vergleich zu den vorgenannten Aufgaben deutlich minimalistischere Funktionen aus. In einer Applikation in der Nahrungsmittel­logistik war jedoch eine extrem hohe Bildrate gefragt. Es stand wiederum sehr wenig Installationsraum zur Verfügung und die Kamera musste EAN-13-Barcodes bei einer Bandgeschwindigkeit von 2 m/s durch ein sehr schmales Sichtfenster von nur 20 mm erfassen. Vision Components nahm die Anwendungsparameter auf und implementierte sehr schnellen dedizierten Code im FPGA, um die Anforderungen zu erfüllen.Kurze Geschichte der Embedded Vision

Kurze Geschichte der Embedded Vision

Embedded-Vision-Systeme zur High-Speed-Bildverarbeitung lassen sich flexibel in Maschinen und Anlagen integrieren.

Embedded-Vision-Systeme zur High-Speed-Bildverarbeitung lassen sich flexibel in Maschinen und Anlagen integrieren. Vision Components

Das erste Embedded-Vision-System kam bereits 1995 auf den Markt. Entwickelt wurde es durch Michael Engel, Geschäftsführer von Vision Components. Die gebräuchliche Bezeichnung lautete damals „Smart Kamera“; erst in den letzten Jahren setzt sich stattdessen „Embedded-Vision-System“ mehr und mehr durch. Engels Innovation war eine industrietaugliche Kamera mit digitalem Signalprozessor (DSP) mit 32 MHz Taktfrequenz. Andere Hersteller folgten mit eigenen Produkten auf Basis derselben Technologie. Grundvoraussetzung dieser Entwicklung war die Miniaturisierung der Komponenten, die seitdem weiter fortgeschritten ist und immer noch kleinere Embedded-Vision-Systeme möglich macht. Vision Components führte in der Folgezeit weitere Neuentwicklungen zur Marktreife, darunter die ersten intelligenten Bildsensoren (im Jahr 2000) und 3-D-Lasertriangulationssensoren (2011).

Während Systeme der ersten Generation mit DSP-Technologie auch heute noch gebaut werden, kommt in aktuellen Entwicklungen heterogene Technik zum Einsatz, zum Beispiel Dual- oder Quad-Core-ARM-Prozessoren mit Taktfrequenzen bis über 1 GHz, die sich als Systems-on-Chip auch mit FPGAs kombinieren lassen. Dieselben rasanten Entwicklungssprünge bei der Prozessorleistung, von denen die Handy- und die Automotive-Industrie profitieren, führen auch bei Embedded-Vision-Systemen zu immer leistungsstärkeren Varianten.

Seite 2 von 212