Cyborg solving problem with digital question marks 3D rendering

Machine Learning-­Algorithmen beeinflussen bereits heute unser tägliches ­Leben. Auch Unternehmen erkunden ­zunehmend den Mehrwert für ihre Produktion. (Bild: sdecoret - stock.adobe.com)

ML-Algorithmen entscheiden, ob ein Kunde am Automaten Geld ausbezahlt bekommt, sie erkennen die Gesichter unserer Freunde in den sozialen Netzen und unterstützen oder ersetzen teilweise den Radiologen bei der Bilderkennung. ML befasst sich mit Algorithmen, die aus Daten lernen und Vorhersagen treffen, welche mit einer gewissen Wahrscheinlichkeit eintreten können. Solche Algorithmen folgen keinen starren, von Menschen definierten Programm- und Regelvorgaben, sondern treffen datengestützte Vorhersagen, indem sie auf Basis von Beispielen Wissen generieren, also lernen.

Obwohl mit dem Begriff „Maschine“ im ML ein Rechner und nicht eine Produktionsmaschine gemeint ist, werden auch diese über kurz oder lang tatsächlich die Fähigkeit bekommen, selbstständig zu lernen. Je repetitiver die Arbeitsabläufe, umso tiefgreifender die Änderung zukünftiger Arbeitsabläufe.

Produktionsfaktor Daten

Bild 2_Änderung der Reihenfolge Algorithmen-Daten-Entscheidungen zu Daten-Algorithmen-Entscheidungen

Früher galt die Reihenfolge: Algorithmen -> Daten -> Entscheidungen. Durch ML setzt sich vermehrt der Ablauf Daten -> Algorithmen -> Entscheidungen durch. asimovero

Daten sind das Öl des 21. Jahrhunderts, denn sie sind der Rohstoff mit dem ML-Algorithmen gefüttert werden. Zusätzlich zu Boden, Kapital und Arbeitskraft werden Daten zunehmend zum Produktionsfaktor indem sie – in ausgewerteter Form – Kosteneinsparungen und neue Geschäftsmodelle ermöglichen. Die zunehmende Bedeutung von stetig wachsenden Datenpools und die daraus resultierende Änderung im Bearbeitungsablauf von „Algorithmen -> Daten -> Entscheidungen” zu „Daten -> Algorithmen -> Entscheidungen“, ist die Basis einer gerade stattfindenden Revolution.

So wurde in der Vergangenheit ein Problem erkannt oder eine Chance gesehen. Daraufhin hat ein Softwareentwickler ein Programm geschrieben, welches er anschließend getestet hat. Dann wurde ein Algorithmus mit Daten gefüttert, aber die Entscheidung über das weitere Vorgehen blieb dem Anwender überlassen.

Bild 3_Entwicklung der Prozessor-Leistungsfähigkeit und der Datenmengen

Entwicklung der Prozessor-Leistungsfähigkeit und der Datenmengen asimovero / Intel

Heute kommen hingegen immer öfter zuerst Daten, die dann allgemein gültige Algorithmen übergeben werden, die selbständig Entscheidungen treffen. Ermöglicht wird dies durch die Kombination von immer leistungsfähigeren Prozessoren (Moore’sches Gesetz) und ständig wachsenden Datenmengen.

Dabei übersteigt die Menge, Geschwindigkeit und Vielfältigkeit der anfallenden Daten die Fähigkeiten und Kapazitäten des Bedienpersonals und verlangt nach neuen, datenbasierten Ansätzen. ML-Algorithmen, angewendet auf große Mengen an Produktionsdaten, können Kausalitäten finden, welche die Gesamtanlageneffektivität verbessern und dem Anlagenbetreiber bis dato verborgen blieben.

Selber machen oder einkaufen?

CRISP-Prozess-Datenanalyse-fuer-Unternehmen

Die Crisp-DM-Methode soll Data-Mining und Machine Learning beherrschbar und praktikabel machen. Jaywalker-digital

Hat ein Unternehmen sich entschieden beispielsweise für die eigenen Produkte einzusetzen, stellt sich die nächste Frage: Was kann ich selber machen und was muss ich zukaufen – oder anders „build or buy“? Um den Umfang eines ML-Projekts abzuschätzen, hilft ein Blick auf die Phasen des branchenübergreifenden Standardprozesses für Data Mining (DM) ‚Cross-Industry Standard Process for Data Mining‘, kurz CRISP-DM. Dieser wird mittlerweile auch für ML-Projekte eingesetzt. Der Grund: ML basiert, wie DM auf Statistik. Geht es bei der Statistik darum, was passiert ist und bei der DM darum, warum es passiert ist, geht es bei ML darum, was passieren wird.

Hier die sechs Phasen im Überblick:

  • Bei Phase 1, dem Geschäftsverständnis, geht es darum, eine Vision für KI im Unternehmen zu entwickeln. Abhängig von der Firmengröße ist diese von der Geschäftsleitung, mit Unterstützung der eigenen Strategieabteilung oder mit Hilfe externer Berater, vorzubereiten. Gab John F. Kennedy seinen Mitbürgern eine Dekade Zeit, um auf dem Mond zu landen, sollten Interessierte sich nicht mehr als fünf Jahre geben, um die ersten Schritte hin zu einer intelligenten Firma umzusetzen.
  • Beim Datenverständnis, der 2. Phase des CRISP-DM, werden Daten erhoben und anschließend untersucht. So gewinnen Anwender erste Einblicke in die Daten und decken interessante Teilmengen und relevante Merkmale, sogenannte Features, Diese dienen im Anschluss als Basis für Hypothesen zu versteckten Information, denn Daten beinhalten für den Menschen unerkennbare, weil zu komplexe Korrelationen.
    Diese Phasen sowie die nachfolgenden der Datenaufbereitung und Modellierung verantwortet heute der Data Scientist / Datenanalytiker. In näherer Zukunft bekommt ein Domänen-Experte eine Applikation, mit der er selbst einen Mehrwert aus den Daten ziehen kann. Solche Domänen-Experten kennen sich mit dem konkreten Anwendungsfall, zum Beispiel der Anlage oder einer Produktionslinie, aus. Typischerweise haben sie ein MES- oder Scada-System zu Hand welches ihnen hilft, Vorgänge zu steuern und zu verstehen.
    Eigene Mitarbeiter bereits mit dem Thema vertraut zu machen und zu sensibilisieren, ergibt definitiv Sinn. Vor allem für diejenigen, die in Abteilungen arbeiten, die sich mit Daten befassen.
  • Die Datenaufbereitung umfasst alle Aktivitäten zum Erstellen des endgültigen Datensatzes. Tabellen, Datensätze und Attribute werden ausgewählt, Datenqualitätsprobleme identifiziert und behoben. Diese Phase repräsentiert häufig bis zu 80 % Zeitaufwand des gesamten ML-Projektes!
  • Während der Modellierung werden die Daten in ausgewählte Modellierungswerkzeuge eingespeist und Modelle erstellt. Dies kann sowohl vor Ort, an der Anlage oder in der Cloud, geschehen. Obwohl Multi-Cloud-Lösungen die Angst vor einem Lieferanten „Lock-in“ zukünftig abmildern, darf nicht vergessen werden, dass Innovationen nur im eigenen Ökosystem – eventuell angereichert mit Cloud-Diensten – am besten, unter anderem aus Datenschutzgründen, in einem europäischen Rechenzentrum, umgesetzt werden können.
  • In der vorletzten Phase, der Auswertung, stellt der Anwender die formulierten Modelle den Unternehmens- und Projektzielen gegenüber. Dabei können Modelle Korrelationen generieren. Aber nur der Domänenexperte kann bestätigen, ob es sich dabei tatsächlich um Kausalitäten handelt.
  • Im Normalfall ist der Domänenexperte für die abschließende Bereitstellung zuständig. Selbst wenn ein externer Analytiker das Modell einsetzt, muss das Unternehmen im Vorfeld die durchzuführenden Aktionen verstehen. Es ist verantwortlich für die Einführung neuer Prozesse oder Geschäftsmodelle. Der Datenanalytiker kommt dann wieder ins Spiel, sobald sich strukturelle Änderungen im Ökosystem bei der Datenbereitstellung und der Anwendung auftun.

Diese Übersicht deckt auf, wie aufwändig ein ML-Projekt ist. Interessierte Firmen, die sich keine externen Datenanalytiker leisten können, sollten sich daher überlegen, aus Ihrer IT-/ Entwicklungs- / Forschungsabteilung heraus eigene Mitarbeiter besser heute als morgen an das Thema heranzuführen. Mitarbeiter-Schulungen sind das A und O und stellen eine annähernd koordinierte Wandlung unserer Gesellschaft durch KI sicher. Denn damit die Umwandlung der Anwendungsfälle durch KI koordiniert über die Bühne geht, ist es notwendig, Arbeitnehmer an dieses Thema heranzuführen. Abteilungen, die in ihrer Hauptaufgabe primär mit Daten umgehen, sollten sich in näherer Zukunft über angebotene Kurse oder Seminare weiterbilden.

Generell gilt: Zur erfolgreichen Einführung von ML sind Kompetenzen in der Entwicklung und in der Anwendung der Lösung sowie am Markt beim Kunden und der gesamten Lieferkette unerlässlich. Fehlende Kompetenzen sollten eingekauft oder geschult werden.

Verwechslungsgefahr: ML und KI

Industry 4.0 technology , artificial intelligence trend concept.

Noch gibt der Mensch den Weg vor – doch in Zukunft könnten Maschinen mit künstlicher Intelligenz eigene Entscheidungen treffen. ©zapp2photo - stock.adobe.com

Bereits 1959 definierte der US-amerikanische Informatiker und Computerpionier Arthur Samuel ML als Studiengebiet, welches Computern die Fähigkeit gibt, zu lernen ohne dazu vorher explizit programmiert worden zu sein. Anders als bei klassischen Applikationen nimmt ML seine Lösung nicht direkt aus dem von Menschen geschriebenen Software-Code. Im Kern geht es um Muster welche wir nicht mathematisch festhalten können, aber Algorithmen auf Basis von Daten erkennen.

ML ist eine eigenständige Disziplin, die gerne mit dem Begriff KI verwechselt wird. KI bezeichnet den Versuch, eine menschenähnliche Intelligenz nachzubilden. Die Ziele beider Disziplinen sind von unterschiedlicher Dimension: ML stellt ein bereits vorhandenes Werkzeug da. Ob und wann dagegen KI – immer wieder gern dargestellt als Horrorszenario, in dem der Roboter das Zepter in die Hand nimmt – jemals eintreffen wird, steht in den Sternen. Damit der deutsche Maschinen- und Anlagenbau seine internationale Führungsrolle beibehalten und auszubauen kann, ist die Auseinandersetzung mit der Digitalisierung und konkret ML (nicht KI!), zwingend erforderlich. Trotzdem werden wir in näherer Zukunft wohl immer öfter von KI hören, auch wenn ML gemeint ist, einfach, weil es anspruchsvoller klingt.

Die ungleich größeren Investitionen, die speziell in China und den Vereinigten Staaten in den KI-Bereich investiert werden, geben angesichts der langsameren Entwicklung in Europa Anlass zur Sorge. Die Industrie hat aber gute Karten. Während Amerikanische Daten-Firmen Deutschland im Konsumentenbereich gezeigt haben, was möglich ist, wird der deutsche Maschinen- und Anlagenbau der Welt – mittels eingebetteter KI – seine weltweite Vorreiterrolle erfolgreich verteidigen können.

Peter Seeberg

asimovero, Deutschland

(ml)

Sie möchten gerne weiterlesen?