Wie wichtig ist die Datenqualität im E-Commerce? Ausschlaggebend!
Um die Bedeutung von Datenqualität zu klären, schauen wir uns den Zusammenhang zwischen Unternehmenserfolg und Datenqualität an. Eine Studie von Capgemini (2022) zeigt, dass Unternehmen mit hohem Bewusstsein für Datenqualität 70% mehr Umsatz je Mitarbeiter und 22% mehr Gewinn machen. Schlechte Datenqualität kostet 15% bis 20% vom Umsatz und viele CEOs sorgen sich um die Datenqualität, da diese als qualitative Entscheidungsbasis benötigt wird (vgl. Qvantum 2023). Unternehmen lassen sich in vier Gruppen basierend auf ihrem Datenmanagement clustern (vgl. Capgemini 2022): Ungefähr 71% der Unternehmen sind Laggards (Nachzügler), welche wenig Daten zur Verfügung haben, der Datenqualität keine besondere Bedeutung zu schreiben, wenig Vertrauen in die Daten haben und Anforderungen von externen oder IT-angesiedelten Abteilungen umsetzten lassen. Die enabled Unternehmen machen 7% aus und haben bereits Daten und Tools, aber die Business-Seite weiß nicht wie sie Anforderungen und Fragen formuliert und Entscheidungen daraus ableitet. Die datenbewussten Unternehmen (aware) kennen die Anforderungen und haben das Know-How zur Interpretation, aber ihnen fehlen noch die Technologien (ca. 7% der Unternehmen). Die Data Masters vereinen beide Bereiche und haben relevante Daten im Zugriff und können diese für datengetriebene Entscheidungen nutzen (ca. 16% der Unternehmen).
Daten lassen sich in verschiedene Dimensionen bewerten. Diese Dimensionen sind wichtig, um sicherzustellen, dass Datenqualität und -zugänglichkeit in einem System gewährleistet wird und zuverlässige Entscheidungsfindung und effiziente Geschäftsprozesse unterstützt werden. Dabei wird im Bereich des Systems Zugänglichkeit und Bearbeitbarkeit eingeordnet, im Bereich Inhalt hohe Vertrauenswürdigkeit/ Ansehen, Fehlerfreiheit, Objektivität und Glaubwürdigkeit und unter Darstellung eindeutige Auslegbarkeit, einfache Darstellung, Übersichtlichkeit und Verständlichkeit. Dem Bereich der Nutzung werden Relevanz, angemessener Umfang, Vollständigkeit, Wertschöpfung und Aktualität zugeordnet. Aber wie stellt man die Erfüllung dieser Dimensionen sicher?
Mithilfe von Business Intelligence kann die Datenqualität in einem kontinuierlichen und automatisierten Prozess verbessert und dauerhaft hochgehalten werden kann. Zuerst werden Prüfungsroutinen zur Identifikation von fehlerhaften Daten wie beispielsweise fehlende Hinterlegung der Verpackungseinheit oder Eigenfertigung ohne Arbeitsplan definiert und dann eine ABC-Analyse mit einem Zeitraum von 12-18 Monaten durchgeführt, um die Wichtigkeit der Produkte und Kunden zu identifizieren. Im Anschluss folgt die Datenbereinigung im A-Segment, sodass fehlende Daten angelegt und korrigiert werden. Die Prozessanalyse klärt, wie es zu dem Datenschiefstand im System kam und legt zukünftige Prozesse inklusive Verantwortung fest. Der Aufbau eines Exception Reportings ermöglicht die automatische Identifikation von fehlenden und fehlerhaften Daten und informiert Verantwortliche. Nach diesen Schritten startet der Prozess mit der Bearbeitung der B- und C-Cluster und einer weiteren ABC-Analyse für das C-Cluster. Zusammenfassend lässt sich sagen, dass eine gute Datenqualität eine wichtige Basis für die Analyse von Kennzahlen. Einen Einblick in Datenoptimierung mit DataWow findest du hier (ab 19:20 min).