3D illustration. Robotic eye with similarity to the human eye and elements of a photographic lens.

Als „Auge der Produktion“ hat Machine Vision die Fertigungsprozesse immer im Blick (Bild: Fotolia)

Im Rahmen neuer Produktionstrends wie Industrie 4.0 und Smart Factory verändern sich die fertigungsbezogenen Prozessketten tiefgreifend: Die einzelnen Komponenten wie Maschinen, Roboter, Transfer- und Handling-Systeme, Sensoren sowie Bildeinzugsgeräte sind durchgängig vernetzt, kommunizieren miteinander und agieren weitgehend automatisiert. Überdies gewinnt die Robotik mehr und mehr Einfluss auf die Produktionsprozesse. So prägen heute kleine, kompakte und mobile Roboter das Bild in den Fertigungshallen. Dabei arbeiten die Roboter nicht mehr – wie in den vergangenen Jahren – überwiegend autonom. Vielmehr kooperieren sie eng mit ihren menschlichen Kollegen, reichen sich Werkstücke und teilen sich einzelne Arbeitsschritte. Die sogenannten Collaborative Robots (Cobots) sind in der Lage, flexibel unterschiedliche Aufgaben je nach Bedarf zu übernehmen.

Auf die Schnelle

  • Machine-Vision-Systeme spielen heute eine wichtige Rolle in der Industrie 4.0.
  • KI-basierte Technologien wie Deep Learning und CNNs ­sorgen für deutlich robustere Erkennungsraten.
  • Selbstlernende Algorithmen verringern der Aufwand für die Klassifikation und die Identifikation von Objekten.
  • Moderne Bildverarbeitungs­lösungen ermöglichen die Nutzung von Deep-Learning-Funktionen auch auf Embedded-Plattformen.

Diese hochautomatisierten Szenarien kommen heute ohne komplementäre Begleittechnologien nicht mehr aus. Eine tragende Rolle spielt dabei die industrielle Bildverarbeitung (Machine Vision): Hochempfindliche Bildeinzugsgeräte wie Kameras, Scanner und 3D-Sensoren, die an unterschiedlichen Stellen angebracht sind, nehmen das Fertigungsgeschehen aus mehreren Blickwinkeln auf. Die dabei entstehenden digitalen Bilddaten werden von einer integrierten Machine-Vision-Software verarbeitet und für vielfältige Anwendungen im Zuge der industriellen Wertschöpfungskette bereitgestellt. Die industrielle Bildverarbeitung agiert dabei als ‘Auge der Produktion‘. Sie ist in der Lage, verschiedenste Gegenstände im Warenfluss anhand optischer Merkmale präzise zu identifizieren, die Lage von Werkstücken genau zu bestimmen und fehlerhafte Produkte zuverlässig zu erkennen.

Big Data mit KI-Verfahren detailliert auswerten

Roboter

Hochautomatisierte Prozesse sind typisch für die Industrie 4.0. Fotolia

Was gerade im Kontext von Industrie 4.0 von enormer Bedeutung ist: Innovative Machine-Vision-Technologien sollten durchdachte Funktionen bieten, die auf künstlicher Intelligenz (KI) basieren. Denn im Rahmen von Industrie-4.0-Prozessen lassen sich über Bildeinzugsgeräten, wie Sensoren, große Mengen an digitalen Bilddaten (Big Data) generieren, die sich dann mittels KI-Verfahren detailliert auswerten lassen. Zu denken ist hier beispielsweise an Deep Learning und Convolutional Neural Networks (CNNs). Diese Technologien können durch die Analyse von bildbasierter Big Data eigenständig Objekte kategorisieren. Sie lernen dafür spezifische Muster, die typisch für bestimmte Merkmale und damit für die Einordnung in eine entsprechende Objektklasse sind. Solch ein Lernprozess gleicht einem Training: Dabei werden Bilder von unterschiedlichen, zu erkennenden Objekten nach einer bestimmten Identität oder Klasse sortiert (‚gelabelt‚). Die auf diese Art trainierten Modelle (Klassifikatoren) lassen sich dann nutzen, um neu aufgenommene Bilder in die vorher gelernten Klassen einzuordnen.

Die Deep-Learning-Technologie ist nicht nur in der Lage, aus positiven Ergebnissen zu lernen, sondern auch aus Fehlern: Bei falschen Resultaten werden im Rahmen des Trainingsvorgangs bestimmte Parameter variiert, worauf das System den Prozess neu startet. Die Software wiederholt dieses Prozedere so lange, bis das Modell optimal für die jeweilige Anwendung trainiert ist. Besonderer Vorteil von Deep Learning gegenüber konventionellem Machine Learning: Bei Ersterem müssen Merkmale nicht mit großem Aufwand von Hand definiert und verifiziert werden. Vielmehr können selbstlernende Algorithmen auf Basis von Deep Learning eindeutige Muster zur Unterscheidung von Klassen automatisch identifizieren und extrahieren.

In welchem Ausmaß sich der Aufwand minimieren ließe, wird beim Erkennen von fehlerhaften Produkten deutlich: Es gibt unendlich viele verschiedene Ausprägungen von Fehlern. Daher lassen sich diese von vornherein nie exakt beschreiben. Beschädigungen von Werkstücken können ein völlig unterschiedliches Erscheinungsbild aufweisen. Beispielsweise können Kratzer oder Dellen in Größe und Form stark voneinander abweichen. So ist es oft unmöglich, von Hand entsprechende Algorithmen zu entwickeln, die die gesamte Bandbreite an möglichen Fehlern erkennen können. Hierfür müsste eine sechsstellige Anzahl von Bildern einzeln gesichtet, ausgewertet und auf Basis der Ergebnisse ein Algorithmus programmiert werden, der den jeweiligen Fehler möglichst detailliert beschreibt. Diesen Aufwand könnten Unternehmen kaum leisten.

Weiter geht es auf Seite 2: Mit wenigen Beispielbildern Fehler gezielt identifizieren

 

 

 

Mit wenigen Beispielbildern Fehler gezielt identifizieren

MVTec_Bild 2

Intelligente Deep-Learning-Technologien sorgen für hohe Raten bei der Fehlererkennung. MVTec Software

KI in der industriellen
Bildverarbeitung

Um den Machine-Vision-Anwendungen (vor allem im Bereich Identifikation) weiter zu verbessern und auf die Bedürfnisse ­flexibler, vernetzter Prozesse im Rahmen von Industrie-4.0-Szenarien abzustimmen, setzt die industrielle Bildverarbeitung immer mehr auf Methoden der Künstlichen Intelligenz (KI). Die Schlagworte hier sind maschinelles Lernen (Machine Learning) als Teil der KI, Deep Learning als die relevanteste Methode innerhalb von Machine Learning und Convolutional Neural Networks (CNNs) als die beliebtesten Deep-Learning-Architekturen. Allen diesen Technologien gemeinsam ist die Fähigkeit, große Datenmengen („Big Data“) umfassend zu analysieren und auszuwerten.

Hier zeigt sich der entscheidende Vorteil von Deep Learning: Die Technologie ist in der Lage, selbstständig spezifische Fehlermerkmale zu lernen und so bestimmte Problemklassen präzise zu definieren. Entsprechend vortrainierte Deep-Learning-Netze erfordern dabei weit weniger Beispielbilder. Es genügen pro Klasse bereits etwa 300 bis 500 Stück, um verschiedene Arten von Fehlern gezielt trainieren und identifizieren zu können. Für diesen Prozess des Nachtrainierens braucht es nur wenige Stunden. Neben dem stark reduzierten Zeitaufwand ist auch die Erkennungsrate häufig wesentlich höher als bei händisch programmierten Defektklassen. Dadurch können sich auch die Fehlerquoten drastisch reduzieren – von bis zu zehn Prozent bei der manuellen Programmierung auf nahezu Null bei selbstlernenden Algorithmen.

Möchten Unternehmen die Vorteile von Deep Learning nutzen, können sie entweder vortrainierte Netze einsetzen oder eigene Netze als Basis für ihre Auswertungen erstellen. Hierfür benötigen sie jedoch mehrere hunderttausend Beispielbilder, um befriedigende Erkennungsraten zu erzielen. Denn für die sichere Identifikation von Objekten sind viele unterschiedliche Parameter wie etwa Farbe, Form, Textur oder Oberflächenstruktur maßgeblich. Die Konfiguration der Netze ist deshalb sehr anspruchsvoll und lässt sich nur von professionellen Entwicklern bewältigen. Zudem gilt es bei der Auswahl der Beispielbilder zu beachten, dass diese häufig lizensiert sind und daher nur eingeschränkt, also mit Erlaubnis des Urhebers, genutzt werden dürfen. Überdies zeigen Bilddatensätze häufig Motive aus einem industriefremden Umfeld. Aus diesen Gründen ist die Erstellung eigener Deep-Learning-Netze für viele Unternehmen nicht praktikabel.

Vortrainierter Netze statt eigenem Aufwand

training_images_pill_defects

Beispiel aus der Pharmaindustrie: Der Algorithmus erkennt fehlerhafte ­Tabletten. MVTec

Um dennoch von den vielen Vorteilen der Technologie zu profitieren, bleibt nur der Einsatz bereits vortrainierter, für industrielle Anwendungen optimierte Netze. MVTec stellt hierfür mit der proprietären Machine-Vision-Standard-Software ­Halcon eine Lösung bereit. Der Anbieter verfügt über einen Fundus von rund drei Millionen selbst erstellten, lizenzfreien Bildern mit industrienahen Motiven. Somit sind Kunden hinsichtlich des Nutzungsrechts des Bildmaterials auf der sicheren Seite. Zudem profitieren Unternehmen von weiteren Vorteilen, wenn sie ein vortrainiertes Netz im Rahmen einer proprietären Standard-Software einsetzen: So verringert sich der Aufwand für die Anwender deutlich. Nach Einschätzung der MVTec-Experten müsste eine Organisation sechs bis zwölf Personenmonate investieren, um ein vergleichbares Netz in eigener Regie von Grund auf neu zu entwickeln. Anbieter von Standard-Software hingegen verfügen meist bereits über die entsprechende Expertise und die erforderlichen Ressourcen. MVTec mit seinem Kompetenzzentrum unterstützt seine Kunden auch beim Training von Deep-Learning-Netzen, die auf spezielle Anwendungen optimiert sind.

Außerdem stellt der Anbieter von Machine-Vision-Standard-Software mit Halcon Funktionen zur Verfügung, mit denen Unternehmen ohne großen Aufwand CNNs selbst trainieren können. Ausgestattet mit zwei vortrainierten Netzen, eines auf Geschwindigkeit, das andere auf hohe Erkennungsraten optimiert, lassen sich mit der Lösung neuronale Netze erstellen, die auf die Bedürfnisse der Kunden zugeschnitten sind. Unternehmen können dadurch neue Bilddaten einfach klassifizieren und so den Aufwand für die Programmierung drastisch verringern sowie Kosten einsparen. Ein weiterer Vorteil: Anwender benötigen keinerlei Know-how hinsichtlich künstlicher Intelligenz und können die Deep-Learning-Netze mit Machine-Vision-Basiswissen trainieren.

Deep Learning für Embedded Vision

Von großer Bedeutung ist es nun, die KI-basierten Technologien rund um Deep Learning und CNNs auch für die Embedded-Welt nutzbar zu machen. Denn kompakte Geräte, auf denen Embedded-Software läuft, sind in der Industrie zunehmend verbreitet. Ob Smart-Kameras, Vision-Sensoren, Tablets oder Handhelds – die mobilen Devices nehmen eine wichtige Funktion in den vernetzten und hochautomatisierten Industrie-4.0-Prozessen ein. MVTec beispielsweise ist ein Vorrreiter, wenn es darum geht, Machine Vision, Deep Learning und Embedded-Systeme unter einen Hut zu bringen: So bietet die Software-Lösung Deep-Learning-Algorithmen, die auch auf Embedded Boards auf Basis der gängigen Nvidia Pascal-Architektur laufen. In diesem Kontext wurde die Deep-Learning-Inferenz von Halcon erfolgreich auf NVIDIA Jetson TX2 Boards getestet. Auf Anfrage gibt es die für die Arm-64-bit-Architektur optimierte Bibliothek. Und mit der Version 18.05 lässt sich die Deep-Learning-Inferenz auch auf Intel-kompatiblen x86-CPUs ausführen.

Automatica: Halle A5, Stand 102

Johannes Hiltner

Product Manager Halcon, MVTec Software

(ml)

Kostenlose Registrierung

Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.
*

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?

Unternehmen

MVTec Software GmbH

Arnulfstraße 205
80634 München
Germany