Auf die Schnelle
Das Wesentliche in 20 Sek.
- IoT-Projekte brauchen verlässliche Daten
- Sieben Regeln zur Beurteilung von Daten
- Integrität der Datenquellen sicherstellen
- Regelmäßige Checks and Balances notwendig
Ein nachhaltiges Qualitätsmanagement für Daten hilft in dreierlei Hinsicht: Es bewahrt vor kostspieligen Fehlern, erhöht das Vertrauen in die eigenen Daten und ermöglicht bessere Entscheidungen. Vor allem aber helfen richtig gemanagte Daten, Prozesse zu digitalisieren. Das Qualitätsmanagement für Stamm- und Bewegungsdaten ist daher in die Liga der Top-Themen für den Mittelstand aufgestiegen.
Viele Unternehmen haben in der Vergangenheit ihre Datenqualität jedoch vernachlässigt, aus unterschiedlichen Gründen. Dass ihre ERP-Systeme dadurch nur suboptimal performen, war ihnen nicht bewusst oder die Verantwortlichen nahmen das billigend in Kauf. Mit der Digitalisierung der Prozesse und dem rasanten Aufstieg von Künstlicher Intelligenz (KI) werden die Risiken nicht geringer. Denn eine schlechte Datenqualität beeinflusst auch bei KI-Systemen wie selbstlernenden Maschinen deren Effizienz und Ergebnis. Für viele Unternehmen wird es daher Zeit, aktiv zu werden.
Lesetipp: Warum es kein Recht auf Daten gibt und wieso der Gesetzgeber das so will.
Fakten-Check: Daten-Silo oder Gruft
Der ERP-Hersteller Proalpha rät, Daten einem siebenstufigen Leistungstest zu unterziehen ‒ eigene Datensilos genauso wie die Informationen aus anderen Quellen, etwa von Wirtschaftsauskunfteien und anderen Drittanbietern. Die entscheidenden Performanceparameter sind:
Vollständigkeit
Je digitalisierter Abläufe werden, umso wichtiger ist es, dass sämtliche benötigen Daten vorliegen. Sind beispielsweise Angaben zu den Bauteilen für ein Produkt unvollständig, stockt möglicherweise der Produktionsprozess oder das Endprodukt entspricht nicht den Vorgaben. Um die Performance der Geschäftsprozesse sicherzustellen, empfiehlt sich deshalb, Pflichtfelder zu definieren sowie automatisierte Prüfungen an ausgewählten Prozesspunkten vorzunehmen. Der Grat zwischen vollständigen Daten und ‚Sammelwut‘ ist allerdings schmal. Spätestens bei personenbezogenen Daten gilt das Gebot der Sparsamkeit: Laut DSGVO dürfen nur so viele Informationen gespeichert werden, wie tatsächlich nötig. Nicht mehr benötigte Daten sind nachhaltig zu löschen.
Aktualität
Nicht-synchronisierte Adress- und Kontaktdaten sind ein Paradebeispiel für veraltete Informationen. Gerade, weil Vertriebsmitarbeiter nur sporadisch in der Zentrale vorbeischauen, die Kundendatenbank nie auf dem aktuellen Stand halten. Mobile CRM-Lösungen schaffen Abhilfe. Sie halten zudem aktuelle produktionskritische Informationen wie Lagerdaten vor. Dennoch muss nicht jeder Status in Echtzeit vorliegen. Unternehmen sollten vielmehr ihre Prozesse einem Check unterziehen, und dort, wo eine schnellere Datenbereitstellung die Produktivität steigert, den Hebel ansetzen.
Konsistenz
Datensätze in verschiedenen Systemen dürfen sich nicht widersprechen. In der Praxis führen eine doppelte Datenhaltung in mehreren Silos und manuelle Übertragung im besten Fall ‘nur‘ zu Mehraufwand. Im schlimmsten Fall entstehen Fehler beim Übertrag der Auftragsdaten, etwa in eine Software für Qualitätssicherung. Daraus resultierende Inkonsistenzen sind heute, dank moderner Integrationstechniken, relativ einfach in den Griff zu bekommen.
Konformität
Daten müssen den Anforderungen der Systeme und der Prozesse entsprechen, das heißt: im passenden, möglichst standardisierten Format vorliegen. Unterschiedliche Datumsformate und Einheiten sind hier der Klassiker. Bei Zeitstempeln ist ferner darauf zu achten, dass neben Stunden und Minuten auch die Zeitzone miterfasst wird. Schließlich liegen zwischen 8 Uhr in Shanghai und 8 Uhr in São Paulo zwölf Stunden Zeitunterschied.
Genauigkeit
Daten müssen ausreichend genau sein. Denn nicht jeder Geschäftsprozess benötigt Daten auf den Mikrometer genau. Auch hier sollten sich Unternehmen zuerst fragen: Wie exakt müssen Messwerte und andere Daten sein? Die benötigte Genauigkeit sollte dann aber auch systemseitig durch entsprechende Regeln und Datenprüfungen nachgehalten werden.
Einzigartigkeit
Dubletten blähen nicht nur den Daten-bestand unnötig auf. Sie sorgen stets für Rückfragen. Bleiben Dubletten unentdeckt, kommt es schnell zu Fehlinterpretationen. Zum Beispiel, wenn ein Lieferant mehrere Lieferantennummern hat und dadurch Kennzahlen wie das Vertragsvolumen für Rabattverhandlungen nicht aggregiert werden. Redundante Daten aus einem Bestand herauszufiltern, funktioniert bereits mit den Bordmitteln eines Tabellenkalkulationsprogramms. Jedoch schleichen sich gerade mit Excel und Co. Dubletten immer wieder ein und die Arbeit beginnt von vorn. Ein automatisierter Data Quality Manager bietet einen nachhaltigeren Weg zu sauberen Daten.
Richtigkeit
Dieses Kriterium verweist neben der Aktualität auf einen weiteren, wesentlichen Aspekt: die Verlässlichkeit der Daten. Die Diskussionen um ‚Fake News‘ unterstreichen dies beinahe täglich: Eine ‚topaktuelle‘ Information über ökonomische Schwierigkeiten eines Zulieferers muss nicht zwingend korrekt sein. Die Quellen, aus denen Unternehmen geschäftsrelevante Informationen beziehen, müssen also nachvollziehbar und glaubwürdig sein.
(sk)