Databases Reference
In-Depth Information
Wichtig ist es, solche „Live-Prüfungen“ vor allem auch dort einzusetzen, wo ande-
re Maßnahmen nicht oder nur eingeschränkt umgesetzt werden können. Dies ist
z.B. bei Internet-/E-Business-Anwendungen der Fall, wo keine echte Möglichkeit
besteht, die Anwender so zu schulen, dass Datenfehler auf diese Weise weitgehend
verhindert werden.
Etablieren eines Monitoringprozesses
Bei einem proaktiven Datenqualitätsmanagement sind neben der Bereinigung von
Datenfehlern und der Vermeidung neuer Datenfehler durch präventive Maßnah-
men auch regelmäßige, fortlaufende Maßnahmen zur Überwachung und nachhaltigen
Aufrechterhaltung der Qualität des Datenbestands unabdingbar.
Dieser Monitoringprozess gliedert sich in zwei Teilbereiche:
regelmäßige (automatisierte) Messungen mit den definierten Datenqualitätsre-
geln und
regelmäßige Validierung und Bereinigung der bestehenden Datenbasis.
Die regelmäßigen Messungen , bei denen die für die erste Datenqualitätsmessung
definierten Datenqualitätsregeln wiederholt auf die (geänderten) Daten angewandt
werden, dienen dazu, eine Kontrolle und historische Darstellung der Datenquali-
tätsentwicklung zu erhalten (Beispiel einer möglichen Darstellung siehe Abbildung
3). Dadurch lassen sich frühzeitig neuen Mängel erkennen, so dass kurzfristig dar-
auf reagiert werden kann (idealerweise bevor die Fehler gravierende Auswirkun-
gen hatten), oder bei wiederholt auftretenden Fehlern mögliche Schulungsmaß-
nahmen ableiten.
Abbildung 3: Darstellung einer Datenqualitätsentwicklung
Die regelmäßige Validierung und Bereinigung der bestehenden Datenbasis bezieht
sich speziell auf Abgleiche gegen Referenzverzeichnisse. Bei jeder Aktualisierung
eines verwendeten Referenzverzeichnisses müssen die Änderungen darin auch in
Search WWH ::




Custom Search