Mit der Datenqualität verhält es sich ähnlich wie mit der IT-Security. Das Thema klingt für viele erst wenig attraktiv – die Wichtigkeit zeigt sich aber umso mehr, wenn die ersten Schäden da sind – beispielsweise fehlende Erfolge in der Datenanalyse.

(Lesedauer: 4 Minuten)

Im ersten Teil zur Datenqualität wurde gezeigt, wie schon kleine Redundanzen in Datensätzen zu großen Problemen führen können: Mindestens ist dann langwierige Handarbeit oder zusätzlicher Entwicklungsaufwand notwendig. Im schlimmeren Fällen kann es dazu kommen, dass sich die Einführung von neuen Systemen verzögert, Budgets falsch geplant oder die ganze Unternehmensstrategie mit falschen Daten in die falsche Richtung gelenkt wird. Im Extremfall wird sogar die Wettbewerbs- und Zukunftsfähigkeit des Unternehmens bedroht. Es lohnt sich also, nicht nur die Qualität bestehender Daten zu untersuchen, sondern auch dafür zu sorgen, dass künftige Daten im Unternehmen von hoher Qualität sind.

Manuelle Eingaben sorgen für Abweichungen

Doch wie entstehen „unsauberer“ Daten überhaupt? Ein Grund für Abweichungen ist etwa manuelle Dateneingaben, auf die sich viele Unternehmen verlassen. Hier kommen viele Faktoren zusammen: Vielen Mitarbeitern wie Kundenberatern fehlen Datenbank-Fachwissen und relevante Informationen – oder durch die Monotonie der Datenbankpflege entstehen Fehler.
Ein Beispiel: Pflegen mehrere Abteilungen und Benutzer eine Kundendatenbank, können schon in einfachen Datenfeldern Fehler auftreten, wie Firmennamen, die mancher mit der Rechtsform, als „Unternehmen X GmbH“ eingibt, während ein andere nur den Namen ins Feld tippt.

Verschiedene Abteilungen, verschiedene Datenarbeit

Das Problem mangelnder Datenqualität kann auch darin liegen, dass unterschiedliche Abteilungen unterschiedlich mit Daten arbeiten – ohne, dass sich die Beteiligten dessen bewusst sind.

Der Datenbänker editiert Inhalte, weil er sie nicht im vorgesehenen Feld ablegen kann. Währenddessen formatiert der Analyst das nächste Feld um, damit sein Programm besser damit arbeiten kann. Und der Anwendungsentwickler verändert (‚parst‘) nochmals, weil er einen Datenfehler vermutet. Alle handeln in der besten Absicht, doch niemand weiß vom Handeln des anderen. Verschiedene Abteilungen haben verschiedene Anforderungen an die Daten – und stellen im gemeinsamen Meeting fest, dass die Zahlen plötzlich ganz unterschiedlich sind,“ sagt Ulrike Pick, Pricipal Consultant Data Intelligence bei Conet.

Noch größer wird das Chaos bei Migrationen und Konvertierungen der Daten. Dieses Phänomen kennt schon jeder Heimanwender, wenn er sein Telefonbuch oder seine Musik zwischen PC und Smartphone synchronisiert. Unterschiedliche Systeme, Datenbanken, Datenformate und Datenquellen führen zu Duplikaten und zu unvollständigen Datensätzen.

Datenqualität heißt die Zukunft steuern

Es ist besser, die Datenqualität von vorneherein sicher zu stellen, als sie nachträglich zu bereinigen. Das Steuern der Datenqualität wird als Datenqualitätsmanagement (DQM) bezeichnet. Dazu gehören qualitätssichernde Maßnahmen für Projekte mit Datenbeteiligung. Bei Unternehmen, wo Daten zum Alltag gehören sollen, bedeutet dies: Die Qualität der Daten muss permanent sichergestellt werden.

Das nachträgliche Bereinigen von Daten ist möglich, aber aufwändig. „Ziel von Datenqualitätsanalysen oder –initiativen (DQ) ist das Auffinden und Dokumentieren von Beziehungen, Lücken und Fehlern in Datenbeständen. Sie lassen sich am besten mit einem schnellen Einsatztrupp, der erste Hilfe leisten muss, vergleichen,“ so Pick.

Eine Vorrausetzung ist Data Governance, ein Regelwerk für den Umgang mit Daten im Unternehmen. Es stellt fortlaufend saubere Daten sicher. Data Governance hilft nebenbei dem Unternehmen, datenzentrierter zu arbeiten. Es ist ein Entscheidungs-, Überwachungs- und Durchsetzungsorgan, das die Autorität über Datenqualität und Datenqualitätsmanagement einer Organisation hat. Data Governance trifft auch umgesetzt wird. Data Governance – das sind Menschen, Prozesse und Technologien, um Daten für ihren Verwendungszweck geeignet fit zu machen,“ erklärt Pick. Die festgelegten Maßnahmen zur Datenqualitäts-Verbesserung müssen in einen kontinuierlichen Prozess überführt und dauerhaft aktiv gesteuert werden.

Strategie: Standards schaffen, Datenqualität sichern

Ein Problem vieler Unternehmen ist die Fragmentierung von Systemen und damit die redundante Pflege von Daten – die später zu geringer Datenqualität führt. Es gibt Berater und Softwarelösungen, die beim Sichern der Datenqualität helfen. In Feinheiten unterscheiden sich die Ansätze, aber es gibt viele Ähnlichkeiten in der Strategie. Zunächst geht es darum, Daten aus den typischen Systemen wie ERP, CRM, CMS und Onlineshops zu vereinen und im Unternehmen zentral zugänglich zu machen. Das schafft eine einheitliche Sicht auf den Kunden, bricht Silos und vermeidet Probleme, wie etwa, dass der Kundenservice andere Kundendaten als der Vertrieb nutzt.

Standards bei der Datenerfassung und festgelegte Prozesse, wie Daten verarbeitet und zugänglich gemacht werden, sichern die Vollständigkeit, Verfügbarkeit und Qualität der Daten. Technologien wie Künstliche Intelligenz (KI) kann bei der immer größer zu bewältigenden Menge an Daten helfen, grundsätzlich ist es aber besser, auf saubere Daten zu achten, statt darauf zu setzen, dass im Nachhinein die KI die Schwächen ausbügeln wird. KI kann auch beim Erzeugen sauberer Daten, etwa mit Metadaten, helfen.

Fazit

Insgesamt ist Datenqualitätsmanagement keine einfache Aufgabe und ein kontinuierlicher Prozess, bei dem das ganze Unternehmen, Technologien und Prozesse involviert sind. Es ist auf jeden Fall vorteilhaft, schon heute und in kleinen Schritten und an einigen Stellen oder Systemen damit anzufangen, als weiter große Massen an unsauberen Daten zu produzieren. Bei guter Umsetzung profitieren aber alle – durch mehr Produktivität, weniger Kosten, besseren Kundenservice und mehr Umsatz.

Janina Zaminer, übernommen von Thorsten Weckert