760iee0119_Anlaufbild1_DSC_0536

Eine echte Integration der Bildverarbeitung in die Steuerung löst viele Probleme der Maschinenbauer. (Bild: Redaktion (IEE)

Herr Waldl, wann war eigentlich der Startschuss für das Vision-System von B&R?

Andreas Waldl: Der Startschuss für die Vision-Aktivitäten war ein spezieller Auftrag von der B&R-Geschäftsleitung an mich als Innovationsmanager: Ich sollte genau eruieren, was unseren Kunden fehlt. In meinen Gesprächen wurde ein Thema immer wieder genannt: eine präzise aber einfach einzubindende Bildverarbeitung. Damit habe ich mich die letzten fünf Jahre intensiv beschäftigt. Die erste Zeit verwendete ich darauf, die Anforderungen unserer Kunden zu spezifizieren und die Umsetzungsstrategie zu erarbeiten. Eine wichtige Frage damals war, entwickeln wir wirklich alles selbst oder können wir mit externen Partnern zusammenarbeiten?

Und wie sieht die Antwort heute aus?

Andreas Waldl: In der Kameratechnik hat sich sehr schnell rausgestellt, dass es schwierig wird, einen passenden Anbieter zu finden, der den von uns geplanten Weg einer tiefen Integration des Vision-Systems in unsere Steuerung mitgehen kann – das ist aber genau der Punkt, der für unsere Kunden kritisch ist.

Daher haben wir selbst die Kamera-Hardware entwickelt. Auch beim Licht war es nicht viel einfacher. Ursprünglich wollten wir einen Teil der Hardware von einem Partnerunternehmen beziehen, letztendlich haben wir dann doch die komplette Beleuchtung von Grund auf entwickelt, um tatsächlich die bestmögliche Integration für unsere Kunden zu ermöglichen.

Dann entwickelt und baut B&R also Kamera und Beleuchtung wirklich selbst?

Andreas Waldl: Ganz genau. Smart Camera, Smart Sensor und unsere Leuchten sind vollständige Eigenentwicklungen. Die Fertigung findet ausschließlich im B&R-Stammhaus in Eggelsberg statt.

760iee0119_Interviewbild_2_DSC_0577

Integrierte, echtzeitfähige Bildverarbeitung schafft ganz neue Ansätze, Maschinen zu entwickeln. Redaktion IEE

War das der Grund, weshalb es nach der ersten Ankündigung auf der SPS 2017 nochmals ruhig um die Bildverarbeitung wurde?

Andreas Waldl: Nein, keinesfalls. 2017 präsentierten wir auf der SPS unser Konzept und gaben so den Startschuss, um Pilotkunden zu suchen und die technische Spezifikation kundentauglich zu vertiefen. Genau das haben wir im letzten Jahr dann gemacht und konnten auf der SPS 2018 nun unser vollständiges Produktportfolio für unsere nahtlos integrierte Bildverarbeitung – quasi das Auge der Maschine – vorstellen.

Neben Kamera und Beleuchtung ist die Bildauswertung die dritte Komponente. Hier setzen Sie auf MVTec als Partner, warum?

Andreas Waldl: Wir haben die Algorithmen aller in Frage kommenden Anbieter getestet und MVTec ist dabei als klarer Sieger hervorgegangen. Das Unternehmen hat uns mit seiner enormen technologischen Stärke überzeugt und auch das Feedback unserer Kunden war sehr positiv in Bezug auf MVTec.

Als Innovationsmanager haben Sie das Pflichtenheft der Anbieter zusammengestellt. Was fordern ihre Kunden an Funktionen?

Andreas Waldl: Die Integration ist ein ganz wesentliches Element. Unsere Kunden haben schon immer Bildverarbeitung gebraucht. Und Themen wie Industrie 4.0 und Rückverfolgbarkeit verstärken diesen Bedarf nun zusätzlich. Bietet die Bildverarbeitungslösung dann auch noch Echtzeitmöglichkeiten, über die sich Regelkreise schließen lassen, dann kommen weitere sehr interessante Möglichkeiten für unsere Kunden dazu. Dies reicht sogar bis hin zu völlig neuen Maschinenkonzepten.

Ist Ihnen deswegen die Integration in Ihr Automation Studio so wichtig?

Andreas Waldl: Die Integration der Projektierung ins Automation Studio ist natürlich wichtig, denn dadurch haben wir ein einheitliches Werkzeug für Bildverarbeitung, Steuerungs- und Antriebstechnik. Zudem stehen alle Variablen einheitlich für alle Funktionen zur Verfügung.

Das ist aber nur die halbe Miete: Mindestens genauso wichtig ist die Integration von Kamera und Licht in das Echtzeitsystem. Nur so lassen sich zum Beispiel Belichtung, Blitz und Antrieb exakt synchronisieren. Das B&R-System schafft das in einer Mikrosekunde. Damit können wir selbst schnellste Prozesse nicht nur überwachen, sondern per Bildverarbeitung auch regeln.

Benötigen Ihre Kunden Expertenwissen, um diese Präzision zu erreichen?

Andreas Waldl: Wir haben alle Funktionen so implementiert, dass sie für den Anwender einfach umzusetzen sind. Damit wird ein Großteil der Vision-Anwendungen für jeden SPS-Programmierer beherrschbar. Nur bei besonders schwierigen Rahmenbedingungen wird weiterhin Experten-Know-how notwendig sein.

760iee0119_Interviewbild_5C_DSC_0629

Einfache Implementierung und Synchronisation machen die Bildverarbeitung für wesentlich mehr Applikationen interessant. Redaktion IEE

Sind denn alle Funktionen der MVTec-Software auch bei Ihnen verfügbar oder nur die wichtigsten?

Andreas Waldl: Wir haben die komplette Halcon Library in Automation Studio integriert.

Anwender können dann Applikationen, die mit MVTec realisiert wurden, auf ihr System portieren?

Andreas Waldl: Prinzipiell besteht diese Möglichkeit, es wird jedoch noch etwas dauern, bis wir diese Option anbieten.

Diese Softwaretools sind meist sehr mächtig. Ein Automatisierungstechniker fühlt sich von der Parameterflut sicher erschlagen. Wie lösen Sie diesen Zielkonflikt? Durch Kapselung der Komplexität wie bei der mapp Technology?

Andreas Waldl: Wir sind hier unserem erfolgreichen mapp-Konzept gefolgt. Zum einen bewahren wir durch intelligent gewählte Voreinstellungen die Kunden davor, viele dieser Parameter überhaupt nutzen zu müssen. Zum anderen haben viele Tools, wie beispielsweise der Codereader, bereits sehr gute Optimierungsfunktionen, die anhand von Vergleichsbildern die notwendigen Parameter auf Geschwindigkeit und Stabilität optimieren. Dazu kommt die einfache Einbindung in das Automatisierungssystem durch die vollständige Integration. Die klassische Programmierarbeit wird dadurch drastisch reduziert.

Von welcher Zeitersparnis gehen Sie bei der Applikationserstellung aus, im Vergleich zu bisherigen Lösungen?

Andreas Waldl: Bei mapp Technology gibt es aussagekräftige Untersuchungen, die von einem unabhängigen Institut durchgeführt wurden. Demnach können bis zu 2/3 der Entwicklungszeit für die Applikationssoftware gespart werden. mapp Vision sorgt für noch mehr Zeitgewinn, alleine schon deswegen, weil die aufwendige Integration wegfällt. Der Extremfall war eine Pilot-Applikation für die der Kunde bisher bis zu drei Wochen benötigt hat. Wir haben diese an nur einem Tag umgesetzt.

760iee0119_Interviewbild_8B_DSC_0599

Ich kenne keinen Kamerahersteller, der 16- Hochleistungs-Multicolor-LEDs in seine Kamera einbaut. Redaktion IEE

Und auf der SPS IPC Drives haben Sie die Potenziale anhand einiger Demos gezeigt.

Andreas Waldl: Zielsetzung der Demos war, die Integration in das B&R-System zu verdeutlichen. Daneben haben wir auch Features, wie das leistungsfähige Backlight mit seiner homogenen Ausleuchtung, aufgezeigt und wie einfach sich mit unserer Balkenleuchte der Beleuchtungswinkel und die Belichtungszeiten reproduzierbar verstellen und einstellen lassen – bis hin zur Anpassung der Lichtfarbe und welchen Einfluss das auf das Messergebnis hat.

Sie sprechen mal von einem Smart Sensor dann von einer Smart Camera. Was sind denn die Unterschiede?

Andreas Waldl: Unser Smart Sensor kann immer nur eine Bildverarbeitungsfunktion ausführen, etwa Matching, Model based Blob, OCR, Code Reading oder Measurement. Welche Funktion der Kunde letztlich aufspielt legt er erst bei der Projektierung in Automation Studio fest. Diese Limitierung auf eine Funktion ermöglicht eine kostengünstige Variante mit kleinerem Prozessor und Speicher und gibt dem Kunden die Flexibilität, nur ein Gerät auf Lager halten zu müssen. Bei einer Smart Camera können diese Funktionen kombiniert werden. Das erfordert mehr Speicher und üblicherweise auch mehr Rechenleistung.

Parallel haben Sie auch eine Objektiv-Serie mit C-Mount-Anschluss.

Andreas Waldl: Sowohl Smart Sensor als auch Smart Camera gibt es jeweils in zwei Ausprägungen: entweder mit integriertem Objektiv oder mit C-Mount-Anschluss. Wir bieten eigene C-Mount-Objektive an und für spezielle Anforderungen, zum Beispiel telezentrische Objektive oder Objektive mit besonders großer Blendenöffnung, kann der Anwender auf das breite Angebot an Objektiven von Drittherstellern zurückgreifen.

Wieviel Pilotprojekte haben sie letztes Jahr denn realisiert?

Andreas Waldl: Ich habe bewusst Applikationen in der Breite gesucht, um alle Anforderungen abzudecken. Jede Branche benötigt ein oder mehrere Funktionen in unterschiedlichen Leistungsabstufungen. So konnten wir viel Input zur Abrundung der Funktionen sammeln. Wir haben zum Beispiel Pilotkunden in der Druckindustrie, im Bereich Food & Beverage und in der Verpackungsbranche.

Und haben Sie dabei schon die Grenzen Ihres Systems ausloten können?

Andreas Waldl: Mit unseren fünf Hauptfunktionen 1D- und 2D-Codeerkennung, OCR, Blob, Measurement und Matching konnten wir bisher alle Anforderungen an einen Sensor abdecken. Insbesondere für Smart-Kamera-Anwendungen werden wir demnächst noch weitere Funktionen vorstellen.

Ihre Entwickler arbeiten also schon am nächsten Update.

Andreas Waldl: Das ist richtig. Wir werden den Funktionsumfang unserer Vision-Software laufend erweitern. In Form von Technologiepaketen können die Updates dann in Automation Studio geladen werden und stehen dann dem Anwender zur Verfügung.

Das Interview führte Chefredakteur Stefan Kuppinger

Sie möchten gerne weiterlesen?