Stubenrauchstr. 35, 12161 Berlin
kupfer@das-kupfer.de    |    030-26544825    |    0176-24370378

Beratung zur Durchsetzung einer hohen Daten- und Informationsqualität

Wie eine hohe Datenqualität sichern?


Datenbestände sind idealerweise frei von Fehlern, Fehlstellen, Dubletten und ungeklärten Abhängigkeiten. Oft wird dieses Ideal jedoch nicht erreicht.
Wenn Datenbestände anstatt das zu leisten, was sie leisten sollten, kaum verwertbar sind (gänzlich oder in Teilen unvollständig, ungenau, veraltet, redundant), dann können daraus sehr komplexe Probleme resultieren. Qualitativ schlechte Daten erzeugen fehlerhafte Ergebnisse und Entscheidungen sowie wirtschaftliche Verluste.

Der Schlüssel zu einem hohen Datenqualitäts-Niveau ist Exaktheit auf allen Ebenen:
  • Regelwerke für manuelle und automatische Datengenerierung: Was ist wie zu erfassen (incl. definierten Datenformaten, Wertelisten, Schreibweisen, Abkürzungen)? Wie kann das Regelwerk optimal auf den Verwendungszweck der Daten ausgerichtet werden?
  • Eingabemasken: Nutzung von Pflichtfeldern, verknüpften Feldern und kontrollierten Vokabularen.
  • Mitarbeiter: sprachliche Kompetenz, inhaltliche Sorgfalt, Vermeidung von Arbeitsüberlastung
  • Migration von Datenbeständen und Datenübergabe-Schnittstellen: zweckmäßiges Mapping von Datenfeldern, keine Unterschlagung von Daten aus Bequemlichkeit
  • permanente Datenpflege und Kontrolle der Abläufe sowie der bestehenden Abhängigkeiten zwischen Datenbeständen verschiedener Systeme
Eine hinreichende bis optimale Datenqualität ist nur durch explizit mit der permanenten Überwachung der Datenqualität beauftragte und hinreichend qualifizierte Mitarbeiter sicherzustellen. Die fachlich zuständigen Sachbearbeiter allein verantwortlich zu machen wird in den meisten Fällen mittelfristig zu einer nicht mehr ausreichenden Datenqualität führen.

Analyse der Datenqualität


Im Allgemeinen wird angestrebt, die Fehlerfreiheit von Datenbeständen - insbesondere auch von Metadaten und Stammdaten - durch automatisierte Verfahren zu sichern. Es gibt jedoch Konstellationen, in denen eine solche automatisierte bzw. halb-automatisierte Datenpflege nicht zum Erfolg führen kann. Dies insbesondere dann, wenn
  • kein automatisiertes Verfahren zur Datenpflege implementiert ist
  • keine systematischen Fehlerbilder erkennbar sind oder sich mehrere systematische Fehlerbilder überlagern
  • Daten zwar technisch korrekt jedoch inhaltlich falsch sind
In diesen Fällen kann nur ein Eingriff über eine gründliche Datenanalyse und zeitweilige manuelle Datenpflege bzw. Datenkorrektur die erforderliche hohe Datenqualität wiederherstellen.

Migration und Integration von Daten und Metadaten


Eine Datenmigration oder Daten-Zusammenführung bringt sowohl Chancen als auch Risiken mit sich.
Generell bietet sich die Möglichkeit, hinsichtlich der Datenqualität nicht optimale Datenbestände nach vorhergehender Analyse zu konsolidieren und exakt an die neue Lösung anzupassen.
Andererseits zeigt sich nach einem "Umzug" von Daten und Metadaten in eine neue Software-Lösung oft, dass diese dort aus verschiedenen Gründen nicht den Erfordernissen entsprechen:
  • Schon in der alten Lösung waren die Daten/Metadaten ungenau oder unvollständig.
  • Die vorhandenen Daten/Metadaten wurden nur zum Teil in die neue Lösung übernommen.
  • Manuelle Übertragungen von Daten aus anderen digitalen Anwendungen oder Speicherorten sowie von analogen Datenträgern weisen Fehler auf.
  • Es wurde in der Migration keine Rücksicht darauf genommen, dass die Metadatenschemata der alten und neuen Lösung nicht direkt kompatibel sind; notwendige anpassende Zwischenschritte wurden nicht ausgeführt.
  • Ein modifizierter Anwendungszweck oder die vorgefundene Datenqualität hätten eine Datenanreicherung aus Drittquellen erfordert.
Die meisten dieser Probleme ließen sich durch eine präzise Planung und die Durchführung von Datenqualitätsmaßnahmen vor der Datenmigration verhindern.

Ausführung von Datenpflege-Maßnahmen


Das Ziel von Datenpflege-Maßnahmen ist nicht nur die einmalige Bereinigung des aktuellen Daten-Bestandes, sondern die Vornahme einer eindeutigen Fehler-Identifikation und Fehler-Analyse, die wiederum eine Anpassung der Regeln der Daten-Erfassung sowie eine Anpassung der Metadaten-Strukturen/Schemata an die Erfordernisse einer optimalen Datenqualität herbeiführt.
Die Korrektur, Anpassung und Zusammenführung von Daten-Beständen stößt aber oftmals auf das Problem, dass die Ausführenden die Arbeiten zusätzlich zu ihrem Tagesgeschäft erledigen sollen und unter Umständen zuvor auch die Verursacher der zu lösenden Probleme waren. Insbesondere eine tiefergehende Analyse von Fehlerbildern ist unter solchen Voraussetzungen nicht zu erwarten. Im Interesse eines optimalen Ergebnisses ist es daher vorteilhafter, als Bearbeiter bislang Außenstehende konzentriert für diese initialen Datenpflege-Maßnahmen einzusetzen, die zudem idealerweise über entsprechende Qualifikationen verfügen sollten.

Beratungsleistungen


  • Erarbeitung von Konzeptionen zur Sicherung der Datenqualität:
    • Analyse und Reorganisation der Abläufe der Datenerfassung/Vorgangsbearbeitung
    • Definition/Anpassung von Daten-Erfassungsregeln
    • Definition und Revision von Metadaten-Schemata
    • Berichtigung, Bereinigung und Anreicherung von Bestandsdaten
  • Klassifikations-, Aktenplan- und Terminologie-Bearbeitung
  • Qualitäts-Verbesserung von Daten im Bestand:
    • Inhaltliche Daten-Analyse
    • Datenabgleich / Datenkorrektur / Datenbereinigung / Datenkonsolidierung
    • Rekonstruktion von Datenbeständen

Verwandte Themen zum Leistungs-Komplex Daten- und Informationsqualität