Die Ergebnisse der Marktstudie 2017 zeigen die Entwicklung der Bildverarbeitung von der eigenständigen Disziplin hin zum integralen Bestandteil moderner Automatisierungs- und Steuerungssysteme.

Die Ergebnisse der Marktstudie 2017 zeigen die Entwicklung der Bildverarbeitung von der eigenständigen Disziplin hin zum integralen Bestandteil moderner Automatisierungs- und Steuerungssysteme. (Bild: Fotolia/Framos)

Die aktuelle Studie basiert auf den Aussagen von 61 Anwendern und 29 Teilnehmern auf der Herstellerseite, die ausführliche Antworten zum Bildverarbeitungsmarkt, Kameras und Sensoren sowie Applikationen und Trends abgaben. Dabei schafft die getrennte Analyse der Kamera-Hersteller und Kamera-Nutzer eine hohe Transparenz.

Die Automatisierung in Produktion und Landwirtschaft bildet wie in den Vorjahren das Haupteinsatzgebiet der Bildverarbeitung auf Hersteller- und Anwenderseite. 72% aller Hersteller und 49% aller Anwender gaben an, ihre Kameras in der Qualitätssicherung einzusetzen, gefolgt von 62% und 48% für optosensorische Messaufgaben. Die Robotik und wissenschaftliche Anwendungen sind weitere wichtige Einsatzgebiete für die Bildverarbeitungssysteme bei Herstellern und Anwendern. Auf Herstellerseite ist mit +115% im Vergleich zu 2016 vor allem der Verkehrsbereich inklusive autonomer Fahrzeuge und Assistenzsysteme gewachsen.

Anteil der Automobilindustrie geht zurück

1_HERSTELLER_Industriekameras_Anwendungen

Die getrennten Antworte von Kamera-Herstellern und Kamera-Nutzern schafft einen bessere Überlick über die derzeitige und zukünftige Marktsituation. Framos

Gefragt nach der Branchenzugehörigkeit dominieren auf Hersteller- und Anwenderseite die Elektronik und der Maschinenbau sowie die Messtechnik, sogar mit leichten Zugewinnen gegenüber 2016. Die Automobilindustrie bleibt eine starke Industrie, wenn auch mit Verlusten von -16% gegenüber dem Vorjahr. Anwender und Hersteller sind sich über die die Wichtigkeit der Branchen Forschung und Entwicklung sowie Medizin und Gesundheit einig, diese bleiben stabil im Ranking. Für Hersteller sind weiter die Lebensmittelindustrie, Druck und Verpackung, Sicherheit und Überwachung sowie der Logistikbereich wichtig, sie sehen auch in Multimedia und Entertainment einen Wachstumsmarkt.

Hauptabnehmer der Kamerahersteller sind mit 39% Anteil OEMs und Systemanbieter, was einem Anstieg von 30% gegenüber 2016 entspricht. Dies unterstreicht die Entwicklung der Bildverarbeitung zur Embedded Vision mit einer höheren Komplexität der Systeme und Anforderungen. Endkunden verlieren folgerichtig als Abnehmer an Bedeutung (-63%), was sich aber größtenteils durch den vermehrten Verkauf über Distributoren als Mittler und beratende Vision-Experten ausgleicht. Systemintegratoren spielen für die Hersteller mit 31% Verkaufsanteil eine weiter stabile Rolle. Beides verdeutlicht, dass Anwender für die Entwicklung ihrer integrierten Systeme gern das technische Know-How externer Partner nutzen. Die Anwender selbst gaben an, ihre Vision-Systeme zu 57% selbst zu entwickeln und zu implementieren, jedoch mit fallender Tendenz (-11% zu 2016). 24% kaufen ein Komplettsystem (9% Steigerung) und nur 13% gaben an, sich durch einen Systemintegrator unterstützen zu lassen. Allerdings war der Anteil der Systemintegratoren mit 54% in der Studie gleichbleibend hoch.

Embedded Vision auf dem Vormarsch

Insgesamt zeigt sich, dass die Bildverarbeitung ihren Status als eigenständige Disziplin verliert. Bereits 43% der Anwender setzen auf Embedded Vision als Teil ihrer ganzheitlichen Automatisierungs- und Steuerungssysteme. Trotz des vorausgesagten weiteren Marktwachstums sind auch kritische Stimmen wahrnehmbar: Auch wenn die Anwender derzeit keinen Sprung auf den asiatischen Einkaufsmarkt anstreben, macht die Konkurrenz aus Asien 59% aller Hersteller zu schaffen. Immerhin 38% der Kamerabauer schauen mit Sorge auf die im Zusammenhang mit Embedded Vision erkennbaren Risiken: Wie beispielsweise die Verdrängung industrieller Kameras durch spezifische Embedded-Lösungen und die Veränderung klassischer Geschäftsmodelle.

2017 wurde erstmals auch die Art der Kamera abgefragt, die in den Vision-Systemen zum Einsatz kommt. Bei den Anwendern führen Matrix-Kameras mit einem Anteil von 60% das Feld mit deutlichem Abstand an, gefolgt von 3D- und Stereo Vision-Kameras und OEM-Kameramodulen mit je 8%. 12% aller Nutzer setzen spezifische Kameratypen ein, um ihre individuellen Bedürfnisse abzudecken. 7% der Anwender setzen auf Line Scan-Kameras, 5% auf Smart Kameras. Der Wert für Smart Kameras ist gegenüber 27% im Vorjahr stark gesunken. Möglicherweise wurde bei der Beantwortung der Fragen ein signifikanter Anteil von Smart Kameras den Matrix-Kameras zugeordnet, die ja auch kompakt ausgestattet sein können. Ausgeglichener gestaltet sich das Bild unter den Herstellern: 37% der verkauften Kameras sind Matrix-Kameras, gefolgt von 18% 3D- und Stereo Vision, 16% Smart Kameras und 10% OEM-Module. Mit 16% haben aber hier auch diverse Spezial-Lösungen einen hohen Anteil.

Wie es um den Umstieg auf CMOS-Sensoren steht, lesen Sie auf Seite 2.

CMOS ist die neue Normalität

Digital camera sensor isolated on black, realistic 3D rendering - with creative shape lighting, matrix, lens flare, zoom effect, high resolution image

Bei den Sensoren dominiert die CMOS-Technologie. Fotolia/Framos

Lange ankündigt und durch Sonys CCD-Abkündigung beschleunigt, ist der Umstieg auf CMOS-Sensoren jetzt vollzogen: 73% aller Hersteller und Anwender nutzen heute die CMOS-Technologie, jeweils 27% haben noch CCD-Sensoren im Einsatz. Bis 2019 wird sich dieser Anteil auf 22% bei den Herstellern und 12% bei den Anwendern reduzieren, was eine die  Prognosen aus den letzten Jahren klar bestätigt.

Doch welche Kriterien sind für Anwender und Hersteller wichtig, wenn es um die Auswahl und den Einsatz eines konkreten Sensors geht? Mit CMOS-Sensoren als neuem Branchen-Standard ist ein hohes Qualitätsniveau auch für anspruchsvolle Vision-Aufgaben gegeben. Die neuen Einsatzpotenziale in VR/AR, autonomen Fahr- und Fluggeräten sowie intelligenten Automatisierungs- und Robotik-Lösungen verlangen nach hoher Sensitivität und Analysequalität für die Verarbeitung und Steuerung in Echtzeit. Und doch gibt es weiter den traditionellen Vision-Markt, in dem klassische Mess- und Prüfaufgaben auch mit geringen Auflösungen, monochromen Sensoren und mit einer eher durchschnittlichen Geschwindigkeit gelöst werden.

Diese Aufspaltung der Kriterien nach Einsatzgebieten ist in den technischen Sensorangaben deutlich zu erkennen. Mit 40% wird der Hauptanteil aller Sensoren in der Klasse zwischen 1 und 3 Megapixel eingesetzt. Dies entspricht zwar einem Rückgang von 15%-Punkten gegenüber 2016, doch soll dieser Wert laut Aussagen der Anwender über die nächsten zwei Jahre stabil bleiben. Die kleinste Klasse unter 1 Megapixel erlebt mit 22% ein kleines Revival, ansonsten gibt es deutliche Anstiege in der hochauflösenden Klasse zwischen 10 und 20 Megapixeln. Synchron zu den vorherigen Aussagen und der mehr innovationsgetriebenen Vision-Nutzung verlieren auf Herstellerseite alle Klassen unter 5 Megapixel, über 5 Megapixel gewinnen alle Sensorklassen. Zwar ist mit 24% auch hier der Bereich zwischen 1 und 3 Megapixel noch führend, in der Vorrausage sollen aber Sensoren ab 5 Megapixel und ab 20 Megapixel mit einem Plus von 88% beziehungsweise 67% am deutlichsten wachsen. Dennoch gilt für den klassischen Machine Vision-Ansatz: VGA-Auflösung ist auch auf Herstellerseite weiter ein wichtiger Absatzbereich mit stabilen Prognosen.

75% aller Anwender setzen auf ein Sensorformat zwischen 1/3 Zoll und 2/3 Zoll, wobei 33% sich für Sensoren zwischen 1/2 Zoll und 2/3 Zoll entscheiden. Gegenüber dem Vorjahr ist dies eine deutliche Verschiebung in die höhere Formatklasse, wahrscheinlich getrieben von steigenden Qualitätsanforderungen hinsichtlich Bild- und Analysequalität. Trotz der großen Sprünge hinsichtlich der Miniaturisierung bei gleichbleibender oder sogar verbesserter Leistung verbessert eine höhere Pixel-Größe die Ausnutzung des Lichteinfalls. Die Hersteller unterscheiden je nach Anwendungsgebiet mit 35% deutlich zwischen sehr großen Sensoren über 1 Zoll und kleinen Sensoren zwischen 1/3 Zoll und 1/2 Zoll, auf die 27% des Nutzungsanteils entfallen. Auch setzen Hersteller vermehrt auf Farbe, während Anwender größtenteils noch monochrom arbeiten: 67% monochrom versus 24% Farbnutzung. C-Mount-Objektive sind mit 45% und 46% die jeweils dominierenden Fassungen, mit einer auch hier stark sichtbaren Tendenz zu individuellen Lösungen.

Hohe Bildraten und Bandbreiten ermöglichen Echtzeit-Verarbeitung

10_ANWENDER_Bandbreitenrelevanz5GB

Die Weiterentwicklung des GigE Vision-Standards verspricht ein einfaches Upgrade und eine unkomplizierte Konnektivität ohne zusätzliche Komponenten. Framos

Der Ruf nach schnellen Bildverarbeitungssystemen für eine Datenauswertung und Steuerung in Echtzeit ist der Grund für die Entwicklung höherer Bildraten und schnellerer Übertragungsstandards. Wobei auch hier die Trennung zwischen traditionellen Machine Vision-Systemen mit moderaten Geschwindigkeiten und innovativen Hochgeschwindigkeitsanwendungen deutlich wird. Mit 51% Nutzungsanteil gewinnt die kleinste Klasse unter 25 Bildern pro Sekunde (fps) deutlich zurück. Die 2016 stärkste Klasse zwischen 25 und 60 fps verliert entsprechend. Dennoch verdoppeln sich Anwendungen zwischen 60 und 100 fps von 7% auf 14%. Bei den Herstellern bleiben Bildraten zwischen 25 und 60 fps die meist verkaufte Klasse, es werden jeweils sehr hohe Vorrausagen in den Hochgeschwindigkeits-Klassen 60 bis 100 fps (+53%), 100 bis 200 fps (+67%) und über 200 fps (+23%) getätigt. Der Aufstieg in die jeweils nächsthöhere Klasse als Entwicklungstendenz ist eindeutig.

Für eine gewünscht hohe Präzision werden schnelle Bildraten und deren rasche Übertragung zur sofortigen Verarbeitung benötigt.

Für eine gewünscht hohe Präzision werden schnelle Bildraten und deren rasche Übertragung zur sofortigen Verarbeitung benötigt. Fotolia/Framos

Trotz dieser Anwender-Hersteller-Schere hinsichtlich der benötigten Bildraten sehen fast die Hälfte aller Nutzer Übertragungsgeschwindigkeiten mit über 5 Gigabit pro Sekunde als sehr relevant und relevant für ihre Anwendungen an, eine Steigerung auf 70% in den nächsten zwei Jahren wird prognostiziert. Die Überwachung und Analyse in Echtzeit ist einer der signifikanten Vorteile und Entwicklungstreiber für die Ausweitung von Vision-Technologien. Für eine gewünscht hohe Präzision werden schnelle Bildraten und deren rasche Übertragung zur sofortigen Verarbeitung benötigt. Da auch die Anwenderseite dieses Potenzial erkennt, ist die Prognose hin zu mehr Schnelligkeit eine logische Schlussfolgerung.

GigE für hohe Datenvolumina

9_HERSTELLER_Kameraschnittstellen_heute_2Jahre

GigE ist bei Herstellern und Anwendern gleichermaßen verbreitet. Dagegen setzen die Anwender vermehr auf Firewire, während die Hersteller USB 3.0 favorisieren. Framos

Mit jeweils 27% und 26% ist GigE Vision der Übertragungsstandard mit der größten Akzeptanz bei Herstellern und Anwendern. Firewire und CoaxPress gewinnen im Vergleich zu 2016, inwieweit dies aber in der Teilnehmerstruktur begründet liegt, ist offen. Bei den zukünftigen Hochgeschwindigkeitsschnittstellen sind sich Anwender und Hersteller einig: Hersteller setzen zu 62% und Anwender zu 49% auf 10GigE für die schnelle Übertragung hoher Datenvolumina. Die Weiterentwicklung des GigE Vision-Standards verspricht ein einfaches Upgrade und eine unkomplizierte Konnektivität ohne zusätzliche Komponenten. Trotz eines prozentualen Rückgangs um rund 10%-Punkte behalten für spezifische Anwendungen auch Framegrabber weiter ihren Platz und ihre Berechtigung: Jeweils über ein Fünftel der Hersteller und Anwender setzen auf Framegrabber, mit gleichbleibenden Prognosen bis 2019.

Was die Befragten in den Freitextfelder angeben und warum alles einfach sein muss, steht auf Seite 3.

„Am spannendsten sind wie jedes Jahr die Freitextfelder!“, sagt der Schirmherr der Marktstudie und Framos-CEO Dr. Andreas Franz. „Neben den rein technischen Aussagen können wir dort ganz ungefiltert lesen, was die Teilnehmer sich von der Bildverarbeitung erwarten und welche Entwicklungen sie prognostizieren.“

In Zeiten der Null-Fehler-Produktion und Losgröße 1-Anlagen ist für viele Anwender eine gesteigerte Präzision zur Automatisierung, Messung und Prüfung wichtig. Sie erwarten, diese durch eine verbesserte Vision-Performance mit höheren Auflösungen, verbesserte Sensortechnologien sowie höhere Bild- und Datenübertragungsraten erreichen zu können. Die höhere Performance sollte gleichzeitig mit geringeren Kosten und einem verbesserten Preis-Leistungsverhältnis einhergehen. Von dieser Effizienzsteigerung möchten vor allem kleinere Betriebe und Anwender in neuen Einsatzfeldern profitieren. Die Wirtschaftlichkeit und der ROI der Bildverarbeitungsanwendungen spielt in allen Unternehmen und Industrien eine wichtige Rolle. Wie bereits im letzten Jahr muss die Bildverarbeitung einen klaren Nutzen aufzeigen und rentabel sein.

Einfach, einfach und nochmal einfach

White drone, quadrocopter, with photo camera flying in the blue sky. Concept

Die visuelle Sensorik stattet Maschinen mit optischen Sinnen sowie maschineller Intelligenz aus und ermöglicht es ihnen ihre Umgebung wahrzunehmen, zu verstehen, zu interagieren und zu lernen. Fotolia/Framos

Die Nutzer wünschen sich auch dieses Jahr eine einfache Systemintegration und unkomplizierte Zusammenstellung aller Komponenten. Einfach zu bedienende Software und Bibliotheken, gerne Open Source, intelligente Algorithmen sowie einheitliche Schnittstellen sind für die meisten Anwender ein Muss auf dem weiteren Wachstumskurs der Bildverarbeitung. Datensicherheit und kabellose Verbindungen sollen dies unterstützen. Die Nutzer möchten das Potenzial der Bildverarbeitung mit weiteren Analysen ausbauen und neben der Qualitätssicherung von einer deutlichen Produktionsoptimierung profitieren.

Neben der Industrie 4.0-Automatisierung und dem klassischen Machine Vision-Bereich sehen die Anwender ein sehr hohes Potenzial von Embedded Vision-Technologien in 3D-Anwendungen sowie Machine und Deep Learning unter Nutzung künstlicher Intelligenz.

Die Hersteller stimmen in allen genannten Punkten mit den Nutzern überein. Auch sie erwarten von den Vision-Technologien eine höhere Leistung zu niedrigeren Preisen, setzen auf einfache Anwendbarkeit und einheitliche Schnittstellen. Der Qualitätsaspekt kommt in den Herstelleraussagen sehr deutlich zum Tragen, zum einem um sich von der asiatischen Konkurrenz abzusetzen und zum anderen um neue Märkte mit höheren Anforderungen zu erobern. Neben dem Ausbau der Automatisierung und Industrie 4.0 legen die Hersteller aber einen weitaus größeren Fokus auf die Nutzung von künstlicher Intelligenz. Insbesondere die Mensch-Maschine-Kollaboration, „denkende“ Roboter und eine hohe Anzahl autonomer Fahr- und Flugsysteme wird ihrer Ansicht nach zum Wachstum der Bildverarbeitung beitragen.

Besondere Erwähnung fanden in den Kommentarspalten die neuen Bildverarbeitungsangebote von Intel und Nvidia, die ihre Processing-Kompetenz für innovative und kognitiv arbeitende Vision-Systeme genutzt haben. Die gesamte Bildverarbeitungsbranche wird nach Aussage der Hersteller davon profitieren. Die Ausweitung in neue Industrien und den Consumer-Bereich ist dabei eine naheliegende Schlussfolgerung. Der Ruf nach Standardisierung soll die zu erwartende Fragmentierung und Individualisierung erleichtern.

Zusammenfassung

Die Ergebnisse der Framos Marktstudie 2017 verdeutlichen die Entwicklung der Bildverarbeitung von der eigenständigen Disziplin hin zum integralen Bestandteil moderner Automatisierungs- und Steuerungssysteme. Neben den klassischen Einsatzfeldern der Machine Vision lässt die intelligente Embedded Vision Maschinen schnell analysieren und basierend auf den visuellen Daten eigenständige Entscheidungen treffen. Das hohe Wachstumspotenzial der Vision-Technologie gründet auf einer weiteren Marktdurchdringung in Industrie 4.0 und der innovativen Nutzung künstlicher Intelligenz in neuen Industrien und im Consumer-Bereich. Die visuelle Sensorik stattet Maschinen mit optischen Sinnen sowie maschineller Intelligenz aus und ermöglicht es ihnen ihre Umgebung wahrzunehmen, zu verstehen, zu interagieren und zu lernen. Die berührungslose Bedienung von Geräten durch Eye-Tracking, Gesten- und Gesichtserkennung ermöglicht eine ganz neue Art von Konsumgütern, Sicherheitsmerkmalen und industriellen Lösungen. Achtsame Roboter, hindernisumfliegende Drohnen und sichere Überwachungslösungen sind nur einige Beispiele für den industriellen Einsatz.

Ute Häußler

Corporate Communications bei Framos

(ml)

Kostenlose Registrierung

Newsletter
Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?