Als „Auge der Produktion“ hat Machine Vision die Fertigungsprozesse immer im Blick

Als „Auge der Produktion“ hat Machine Vision die Fertigungsprozesse immer im Blick Fotolia

Im Rahmen neuer Produktionstrends wie Industrie 4.0 und Smart Factory verändern sich die fertigungsbezogenen Prozessketten tiefgreifend: Die einzelnen Komponenten wie Maschinen, Roboter, Transfer- und Handling-Systeme, Sensoren sowie Bildeinzugsgeräte sind durchgängig vernetzt, kommunizieren miteinander und agieren weitgehend automatisiert. Überdies gewinnt die Robotik mehr und mehr Einfluss auf die Produktionsprozesse. So prägen heute kleine, kompakte und mobile Roboter das Bild in den Fertigungshallen. Dabei arbeiten die Roboter nicht mehr – wie in den vergangenen Jahren – überwiegend autonom. Vielmehr kooperieren sie eng mit ihren menschlichen Kollegen, reichen sich Werkstücke und teilen sich einzelne Arbeitsschritte. Die sogenannten Collaborative Robots (Cobots) sind in der Lage, flexibel unterschiedliche Aufgaben je nach Bedarf zu übernehmen.

Auf die Schnelle

  • Machine-Vision-Systeme spielen heute eine wichtige Rolle in der Industrie 4.0.
  • KI-basierte Technologien wie Deep Learning und CNNs ­sorgen für deutlich robustere Erkennungsraten.
  • Selbstlernende Algorithmen verringern der Aufwand für die Klassifikation und die Identifikation von Objekten.
  • Moderne Bildverarbeitungs­lösungen ermöglichen die Nutzung von Deep-Learning-Funktionen auch auf Embedded-Plattformen.

Diese hochautomatisierten Szenarien kommen heute ohne komplementäre Begleittechnologien nicht mehr aus. Eine tragende Rolle spielt dabei die industrielle Bildverarbeitung (Machine Vision): Hochempfindliche Bildeinzugsgeräte wie Kameras, Scanner und 3D-Sensoren, die an unterschiedlichen Stellen angebracht sind, nehmen das Fertigungsgeschehen aus mehreren Blickwinkeln auf. Die dabei entstehenden digitalen Bilddaten werden von einer integrierten Machine-Vision-Software verarbeitet und für vielfältige Anwendungen im Zuge der industriellen Wertschöpfungskette bereitgestellt. Die industrielle Bildverarbeitung agiert dabei als ‘Auge der Produktion‘. Sie ist in der Lage, verschiedenste Gegenstände im Warenfluss anhand optischer Merkmale präzise zu identifizieren, die Lage von Werkstücken genau zu bestimmen und fehlerhafte Produkte zuverlässig zu erkennen.

Big Data mit KI-Verfahren detailliert auswerten

Hochautomatisierte Prozesse sind typisch für die Industrie 4.0.

Hochautomatisierte Prozesse sind typisch für die Industrie 4.0. Fotolia

Was gerade im Kontext von Industrie 4.0 von enormer Bedeutung ist: Innovative Machine-Vision-Technologien sollten durchdachte Funktionen bieten, die auf künstlicher Intelligenz (KI) basieren. Denn im Rahmen von Industrie-4.0-Prozessen lassen sich über Bildeinzugsgeräten, wie Sensoren, große Mengen an digitalen Bilddaten (Big Data) generieren, die sich dann mittels KI-Verfahren detailliert auswerten lassen. Zu denken ist hier beispielsweise an Deep Learning und Convolutional Neural Networks (CNNs). Diese Technologien können durch die Analyse von bildbasierter Big Data eigenständig Objekte kategorisieren. Sie lernen dafür spezifische Muster, die typisch für bestimmte Merkmale und damit für die Einordnung in eine entsprechende Objektklasse sind. Solch ein Lernprozess gleicht einem Training: Dabei werden Bilder von unterschiedlichen, zu erkennenden Objekten nach einer bestimmten Identität oder Klasse sortiert (‚gelabelt‚). Die auf diese Art trainierten Modelle (Klassifikatoren) lassen sich dann nutzen, um neu aufgenommene Bilder in die vorher gelernten Klassen einzuordnen.

Die Deep-Learning-Technologie ist nicht nur in der Lage, aus positiven Ergebnissen zu lernen, sondern auch aus Fehlern: Bei falschen Resultaten werden im Rahmen des Trainingsvorgangs bestimmte Parameter variiert, worauf das System den Prozess neu startet. Die Software wiederholt dieses Prozedere so lange, bis das Modell optimal für die jeweilige Anwendung trainiert ist. Besonderer Vorteil von Deep Learning gegenüber konventionellem Machine Learning: Bei Ersterem müssen Merkmale nicht mit großem Aufwand von Hand definiert und verifiziert werden. Vielmehr können selbstlernende Algorithmen auf Basis von Deep Learning eindeutige Muster zur Unterscheidung von Klassen automatisch identifizieren und extrahieren.

In welchem Ausmaß sich der Aufwand minimieren ließe, wird beim Erkennen von fehlerhaften Produkten deutlich: Es gibt unendlich viele verschiedene Ausprägungen von Fehlern. Daher lassen sich diese von vornherein nie exakt beschreiben. Beschädigungen von Werkstücken können ein völlig unterschiedliches Erscheinungsbild aufweisen. Beispielsweise können Kratzer oder Dellen in Größe und Form stark voneinander abweichen. So ist es oft unmöglich, von Hand entsprechende Algorithmen zu entwickeln, die die gesamte Bandbreite an möglichen Fehlern erkennen können. Hierfür müsste eine sechsstellige Anzahl von Bildern einzeln gesichtet, ausgewertet und auf Basis der Ergebnisse ein Algorithmus programmiert werden, der den jeweiligen Fehler möglichst detailliert beschreibt. Diesen Aufwand könnten Unternehmen kaum leisten.

Weiter geht es auf Seite 2: Mit wenigen Beispielbildern Fehler gezielt identifizieren

 

 

 

Seite 1 von 212