skg500_erkennungssystem_1000px

Beispiel für Embedded Vision: Zwei Embedded-Vision-Systeme erstellen im vernetzten Betrieb 3-D-Aufnahmen, detektieren die Bauteilposition und führen den Greifarmroboter für die Entnahme. (Bild: Vision Components)

| von Jan-Erik Schmitt, Miriam Schreiber

Das Problem an der Thematik: für das, was mit Embedded Vision gemeint ist, existiert keine allgemein anerkannte Definition. Zum Einstieg hilft daher eine Begriffsklärung. Vision Components versteht „Embedded-Vision-Systeme“ als eine Verschmelzung der Begriffe „Embedded-System“ und „Computer-Vision-System“.

Als „Embedded (Computing) System“ oder eingebettetes System bezeichnet das Unternehmen eine Einheit aus Hardware mit Bildsensor und Software, die alleinstehend oder als Teil einer größeren Anlage eine bestimmte Aufgabe ausführt.

„Computer Vision“ lässt sich synonym mit BV (Bildverarbeitung) verwenden. Ein Vision-System besteht aus Beleuchtung, Objektiv, Bildsensor beziehungsweise Kamera, Verarbeitungseinheit (integriert oder in einen Industrie-PC ausgelagert) und Software.

Zusammengenommen ergibt sich aus diesen beiden Teilen folgende Definition: Ein Embedded-Vision-System ist ein kompaktes autonomes Gerät mit Hardware und Software, das unabhängig – ohne Unterstützung durch externe Rechenpower –Bildverarbeitungsaufgaben löst. Dabei können Hersteller und OEMs die Systeme auch speziell auf eine bestimmte Aufgabe oder ein Aufgabenspektrum hin optimieren.

Praxisrelevante Merkmale

Für OEMs stellen Embedded-Vision-Systeme ideale Komponenten zur Integration in ihre Anlagen dar, denn sie können als Stand-alone-Geräte völlig autark arbeiten. Darüber hinaus lassen sich auch alle denkbaren Schnittstellen für eine vernetzte Automatisierung verbauen. Embedded-Vision-Systeme haben eine kompakte Bauform und bestehen aus weniger Bestandteilen als PC-basierte Bildverarbeitungssysteme. Häufig sind alle Komponenten, zum Beispiel die Beleuchtung, in einem Gesamtsystem integriert. Daher lassen sich die Systeme einfach handhaben. Wartungsaufwand und Stromaufnahme sind sehr gering, was mobile und dezentrale Anwendungen einfacher und effizienter macht. Der modulare Aufbau ermöglicht es zudem, die Passform flexibel den konstruktiven Anforderungen anzupassen sowie die Komponenten auf das Nötigste zu beschränken, um für jede Anwendung das optimale Preis-Leistungs-Verhältnis zu erreichen, vor allem bei Platinenkameras. Auch die Schutzart bei Gehäusekameras können Anwender bedarfsgemäß spezifizieren. Damit zeigen sich Embedded-Vision-Systeme PC-basierter Bildverarbeitungstechnik in vielen Punkten überlegen: Platzraubendes, kostenintensives und fehleranfälliges Zubehör wie Festplatten, Lüfter und Schaltschränke entfallen. Leistungstechnisch lösen die Systeme eine große Zahl industrieller Bildverarbeitungsaufgaben – darunter auch Hochgeschwindigkeitsapplikationen.

Einsatzgebiete

Einsatz finden Embedded-Vision-Systeme aufgrund ihrer Leistungsfähigkeit und Flexibilität in sehr vielfältigen Bereichen, zum Beispiel im weiten Feld der Inspektion, Fertigungsüberwachung und Qualitätskontrolle:

  • Schwarz-Weiß- und Farb-Flächenkameras identifizieren beispielsweise Verarbeitungsfehler und Beschädigungen wie Kratzer oder Farbabweichungen an verschiedenen Produkten. Sie prüfen in der Elektronikindustrie ICs auf intakte Pins und Leiterbahnen. In Verpackungsanlagen überwachen sie Füllstand, Vollständigkeit, den korrekten Sitz von Verschlüssen und Labels sowie korrekte Aufdrucke.
  • 3-D-Lasertriangulationssensoren eignen sich für die Profilkontrolle, beispielsweise bei der Schweißnahtüberwachung.
  • Stereokameras gleichen Objekte mit komplexen Oberflächen mit einem Muster ab und stellen Abweichungen fest. Außerdem dienen sie zur Lageerkennung.
  • Optische Codeleser und Systeme für Schriftzeichenerkennung und -verifizierung (OCR/OCV) kommen in Logistik und Fertigung bei Identifikation und Sortierung zum Einsatz.

In der Robotik werden verschiedene 3-D-Vision-Systeme eingesetzt: Triangulationssensoren und Stereokameras liefern Echtzeitdaten für die Roboterführung zum Beispiel beim Schweißen, Kleben oder Vermessen. Sie übermitteln außerdem exakte Positionsdaten für Pick & Place in Montagelinien und für den Griff in die Kiste (Bin Picking).

Weitere Anwendungen für Stereokameras sind fahrerlose Transportfahrzeuge und Drohnen, zum Beispiel in automatisierten Lagerhäusern.

Beispiele aus der Praxis und eine kurze Geschichte der Embedded Vision gibt es auf Seite 2

Applikationsspezifische Programmierung

vcsbc_nano_z_rh_2_1000px

Die VC-Z-Serie umfasst neben IP67-geschützten Gehäusekameras eine Auswahl an Platinenkameras, einschließlich Zwei-Kopf-Modellen für Stereo-Anwendungen. Vision Components

Nicht alle IBV-Aufgaben erfordern hohe RechenleistNicht alle Bildverarbeitungsaufgaben erfordern hohe Rechenleistungen. Andere Anwendungen umfassen jedoch aufwändige Berechnungen oder hohe Bildraten. Unter Umständen kommen erschwerte Rahmenbedingungen hinzu, die eine PC-basierte Lösung ausschließen – zum Beispiel, wenn nur wenig Platz für ein Bildverarbeitungssystem zur Verfügung steht und trotz hoher Leistungsansprüche nur minimale Abwärme auftreten darf. Es braucht also intelligente Systeme mit geringer Leistungsaufnahme. Embedded-Vision-Systeme sind auch hier eine gute Wahl, denn sie bieten nicht nur in der physischen Auslegung für unterschiedliche Umgebungsbedingungen eine hohe Flexibilität, sondern auch durch die freie Programmierung.

Vision Components stattet beispielsweise die Linux-basierten Kameras der VC-Z-Serie mit einem Zynq-Modul des Logik-IC-Anbieters Xilinx aus, einem System-on-a-Chip (SoC) mit Dual-Core-ARM-Prozessor und einem FPGA. Dadurch lassen sich Bildverarbeitungsfunktionen auf das FPGA, einen frei programmierbaren Schaltkreis, auslagern. Speziell aufwändige Bildverarbeitungsaufgaben können davon profitieren. Die drei folgenden Beispiele entstammen Projekten, bei denen Vision Components das FPGA für die spezielle Anwendung programmierte und dadurch die geforderten Geschwindigkeiten umsetzte.

Beispiel 1: dreidimensionale Oberflächenanalyse

Ein Beispiel ist die Interferometrie oder dreidimensionale Oberflächenanalyse: Eine Kamera, zusammen mit schräg einfallendem Weißlicht, kann die Rauheit ganzer Produktchargen auf einem Fließband vermessen. Auch Bohrungen und komplexe Geometrien lassen sich so überwachen. Ein Embedded-Vision-System mit leistungsfähigem Prozessor und FPGA ermöglicht OEMs die Umsetzung dieser Aufgabe auf kompaktem Raum und mit geringen Kosten für Serialisierung, Betrieb und Wartung.

Beispiel 2: Schnelle Scans mit Laser-Triangulationssensor

engrotec_visionscanner2_2000px

Ein intelligenter Lasertriangulationssensor prüft 3D-Profile. EngRoTec Solutions

Für eine Paketsortieranlage inklusive Volumenmessung sind hohe Scangeschwindigkeiten gefordert, eine Aufgabe, die Vision Components mit dem neuen Triangulationssensor bereits erfolgreich umgesetzt hat. Als Grundlage des Systems dient die Standardtechnologie der VC Embedded Vision Systeme, nur damit konnte ein kosteneffizientes Gesamtsystem konzipiert werden. Die Algorithmik zur Laserliniendetektion findet direkt im FPGA des SoC-Moduls statt und ermöglicht dadurch  Scanraten bis zu 2 kHz, ohne dass der Dual-Core ARM© dadurch belastet wird. Somit kann die gesamte Applikationssoftware nachgelagert auf dem ARM ausgeführt werden, was eine zusätzliche externe Verarbeitungseinheit überflüssig macht.

Beispiel 3: Barcode-Leser mit extrem hoher Bildrate

Barcode-Leser führen im Vergleich zu den vorgenannten Aufgaben deutlich minimalistischere Funktionen aus. In einer Applikation in der Nahrungsmittel­logistik war jedoch eine extrem hohe Bildrate gefragt. Es stand wiederum sehr wenig Installationsraum zur Verfügung und die Kamera musste EAN-13-Barcodes bei einer Bandgeschwindigkeit von 2 m/s durch ein sehr schmales Sichtfenster von nur 20 mm erfassen. Vision Components nahm die Anwendungsparameter auf und implementierte sehr schnellen dedizierten Code im FPGA, um die Anforderungen zu erfüllen.Kurze Geschichte der Embedded Vision

Kurze Geschichte der Embedded Vision

vc_all_products_1000px

Embedded-Vision-Systeme zur High-Speed-Bildverarbeitung lassen sich flexibel in Maschinen und Anlagen integrieren. Vision Components

Das erste Embedded-Vision-System kam bereits 1995 auf den Markt. Entwickelt wurde es durch Michael Engel, Geschäftsführer von Vision Components. Die gebräuchliche Bezeichnung lautete damals „Smart Kamera“; erst in den letzten Jahren setzt sich stattdessen „Embedded-Vision-System“ mehr und mehr durch. Engels Innovation war eine industrietaugliche Kamera mit digitalem Signalprozessor (DSP) mit 32 MHz Taktfrequenz. Andere Hersteller folgten mit eigenen Produkten auf Basis derselben Technologie. Grundvoraussetzung dieser Entwicklung war die Miniaturisierung der Komponenten, die seitdem weiter fortgeschritten ist und immer noch kleinere Embedded-Vision-Systeme möglich macht. Vision Components führte in der Folgezeit weitere Neuentwicklungen zur Marktreife, darunter die ersten intelligenten Bildsensoren (im Jahr 2000) und 3-D-Lasertriangulationssensoren (2011).

Während Systeme der ersten Generation mit DSP-Technologie auch heute noch gebaut werden, kommt in aktuellen Entwicklungen heterogene Technik zum Einsatz, zum Beispiel Dual- oder Quad-Core-ARM-Prozessoren mit Taktfrequenzen bis über 1 GHz, die sich als Systems-on-Chip auch mit FPGAs kombinieren lassen. Dieselben rasanten Entwicklungssprünge bei der Prozessorleistung, von denen die Handy- und die Automotive-Industrie profitieren, führen auch bei Embedded-Vision-Systemen zu immer leistungsstärkeren Varianten.

Jan-Erik Schmitt

Geschäftsführer Vertrieb, Vision Components

Miriam Schreiber

Marketing- und PR-Managerin, Vision Components

(ml)

Kostenlose Registrierung

Der Eintrag "freemium_overlay_form_all" existiert leider nicht.

*) Pflichtfeld

Sie sind bereits registriert?