Betriebsdaten brauchen regelmäßige Pflege - is report

Betriebsdaten brauchen regelmäßige Pflege

Bei der Datenqualität besteht Nachholbedarf. Mitarbeiter beklagen den Datenzustand, schätzen aber den Pflegeaufwand als zu hoch ein – denn Softwarelösungen reduzieren ihn. Sechs Anbieter zeigen wie. (Ausgabe 05/2013)

Verlässliche Daten sind für Unternehmen unverzichtbar. Sowohl in operativen Prozessen als auch in der Unternehmenssteuerung stellen Daten das Fundament aller durch IT automatisierten Prozesse dar. Das schweizer Beratungshaus i2s hat 245 Unternehmen hinsichtlich der Datenqualität ihrer Kundenmanagement-Systeme (CRM) befragt. Die Studie belegt deutliche Defizite: 88 Prozent der Befragten gaben die Verbesserung der Datenqualität als das primäre Ziel ihrer CRM-Projekte an. 44 Prozent benannten die Aufbereitung der Daten schon während der Einführungsphase sowie die Datenmigration als größte Herausforderungen. 28 Prozent – in Unternehmen mit mehr als 1000 Unternehmen sogar 48 Prozent – beurteilen die Datenqualität im eigenen Haus als schlecht, gleichzeitig schätzen 23 Prozent den Aufwand für die Datenpflege als zu hoch ein.
Hinsichtlich der Datenqualität besteht also Handlungsbedarf, und zwar nicht nur bei Kundendaten. Die folgende Übersicht stellt sechs Lösungen vor, mit denen Unternehmen die Qualität ihrer Daten fortlaufend messen und darüber hinaus Aktionen zur Erhöhung der Informationsqualität starten können.

Human Inference arbeitet mit einem Vier-Ebenen-Konzept

Die HIquality-Produktsuite von Human Inference kommt in Call Center, Data Warehouses sowie in Marketing- und Vertriebssystemen zum Einsatz. Quelle: Human Inference

Die HIquality-Produktsuite von Human Inference kommt in Call Center, Data Warehouses sowie in Marketing- und Vertriebssystemen zum Einsatz. Quelle: Human Inference

Die Produktfamilie Human Inference HIquality ist auf den Qualitätskreislauf von Daten (Data Quality Life Cycle Management) abgestimmt. Sie läuft unter den Server-Betriebssystemen Microsoft Windows, Sun Solaris, IBM AIX, HP UX sowie Linux und hat vier Ebenen. Auf der Funktionsebene werden die Produkte als Plug-Ins aktiviert. Auf der Kontrollebene managen die Data Stewards das Design und die Verwaltung sämtlicher Services. Die Prozessebene wird mit Hilfe von HIquality Base implementiert und soll sicherstellen, dass sämtliche eingehenden Anfragen für Datenqualitätsservices reibungslos ablaufen. Die Verbindungsebene lässt sich in traditionelle Umgebungen und Service-orientierte Architekturen integrieren und mit Hilfe von Konnektoren implementieren. Mit dem First-Time-Right-Konzept von Human Inference finde direkt bei der Eingabe von Adressdaten in Systeme von SAP, Salesforce oder Siebel eine automatische Überprüfung und Korrektur statt. HIquality für SAP sei vollständig in SAP ECC und SAP CRM integriert und von SAP zertifiziert.
Die HIquality-Produktfamilie besteht aus mehreren Modulen: ­Profiling zur Messung und Beurteilung der Datenqualität von Flat Files bis zu komplexen Datenbanken wie Oracle, SQL Server oder DB2, Transform zur Filterung und Umwandlung von Daten zu einem einheitlichen Erscheinungsbild. Cleanse dient zur Korrektur von Namen und Adressen, Identify zur Erkennung potentieller Dubletten und fehlertoleranten Suche, Merge zur Zusammenführung von Dubletten auf der Grundlage unternehmensspezifischer Standards und festgelegter ­Algorithmen, Enrich zur Kontrolle, Anreicherung und Aktualisierung der Daten und Report zur Präsentation von Verbesserungsergebnissen.
Die HIquality-Produktsuite komme in Call Center, Data Warehouses sowie in Marketing- und Vertriebssystemen zum Einsatz. Das Human Inference Master Data Management verwende ein Datenmodell, das auf Standardkomponenten basiere, aber zugleich erweiterungsfähig sei und sich für unterschiedliche Szenarien eigne. Die Lösung lasse sich an wechselnde Anforderungen anpassen, wie etwa die Integration von Social-Media-Informationen oder die Verbindung zu weiteren Quellsystemen nach einer Fusion oder Unternehmensübernahme.

Informatica kontrolliert die Datenzugriffe über Rechte

Über eine Regel-Engine gibt ein Administrator Kriterien an, wann Informatica Dynamic Data Masking welche Aktionen ergreifen soll. Quelle: Informatica

Über eine Regel-Engine gibt ein Administrator Kriterien an, wann Informatica Dynamic Data Masking welche Aktionen ergreifen soll. Quelle: Informatica

In Unternehmen und Behörden sammeln sich zunehmend sensible Informationen an. Datenmaskierungssoftware hilft dabei, die datenschutzrechtlichen Bestimmungen einzuhalten. Mit dieser Applikation lassen sich Daten mit verschiedenen Arten von Masken auf der Ebene einzelner Benutzer verschleiern.
Informatica Dynamic Data Masking stellt eine Datenmaskierungssoftware dar, die sensible Informationen in Echtzeit maskiert und dadurch den Zugriff bestimmter Anwendergruppen auf diese Informationen regelt. Die Lösung verhindere, dass Kunden, Partner, Offshore- und Outsourcing-Mitarbeiter auf vertrauliche und persönliche Informationen zugreifen können, die nicht nötig seien, um deren Arbeit durchzuführen. Genau dies ist im Rahmen von verschiedenen datenschutzrechtlichen Bestimmungen und Richtlinien vorgeschrieben.
Informatica Dynamic Data ­Masking basiert auf einem Datenbank Netzwerk Inline-Proxy, der zwischen Anwendungen und Datenbanken installiert wird. Dieser Proxy analysiert alle eingehenden Anfragen aus den verschiedenen Anwendungen. Mithilfe einer Regel-Engine könne ein Administrator Kriterien angeben, wann die Datenmaskierungssoftware welche Aktionen ergreift. Möglich seien das Maskieren, Verschlüsseln, Verbergen, Umschreiben, Blockieren und das Umleiten der Daten.
Informatica Dynamic Data Masking bietet eine Policy-gesteuerte Echtzeit-Datenbank-Sicherheit und -Überwachung, eine exakte Einschränkung des Zugriffs von Endanwendern und IT-Personal je nach Zugriffsberechtigung sowie die rollenbasierte Zugriffssteuerung für die Durchsetzung von Zugriffsrechten basierend auf Active-Directory-Gruppierung, LDAP (Lightweight Directory Access Protocol), Identity Access Management, Rollen und Verantwortlichkeiten. Die Lösung blockiere Zugriffe und informiere den Administrator, wenn eine unbefugte Nutzung auftritt. Vordefinierte Datenmaskierungsregeln für gängige Business-Anwendungen beschleunigten die Projektlaufzeiten.

PBS validiert und bereinigt SAP-Archive

Mit dem Tool PBS Archive Data Review lassen sich  Duplikate in SAP-Datenbanken aufspüren und beseitigen. Quelle: PBS Software

Mit dem Tool PBS Archive Data Review lassen sich
Duplikate in SAP-Datenbanken aufspüren und beseitigen. Quelle: PBS Software

PBS Software GmbH ist ein Anbieter von SAP-Ergänzungssoftware für Datenarchivierung, -extraktion und -ablage sowie Systemstilllegungen. Mit dem Tool PBS Archive Data Review sollen sich Duplikate in SAP-Datenbanken aufspüren und beseitigen lassen.
Grundsätzlich erhielten Unternehmen mit dem SAP Archive Development Kit (ADK), einem Service von SAP NetWeaver, sämtliche Werkzeuge, die sie für die Archivierung von Anwendungsdaten benötigten. SAP-Inhalte aus der Datenbank ließen sich allerdings nur über sogenannte Archivobjekte archivieren, die den Aufbau und die Zusammensetzung der Daten definieren. Das Schreiben, Verifizieren, Ablegen und Löschen von Daten erfolge anhand von bis zu 350 Archivobjekten. Durch die Abhängigkeit dieser Archivobjekte untereinander sowie die Häufigkeit der Durchführung erhöht sich laut PBS nach und nach die Komplexität der Archivierung. Dies könne ungewollt zu Mehrfacharchivierungen führen. Gründe hierfür seien beispielsweise die Nichteinplanung von Löschläufen oder parallelisierte Schreibprozesse mit sich überlagernden Abgrenzungsparametern.
Mit SAP-Standardmitteln ließen sich mehrfach archivierte Daten schwer nachweisen und nur in aufwändigen Projekten korrigieren. Mehrfachdaten in Archiven könnten jedoch nachfolgende Prozesse negativ beeinflussen. Datenanalysen im Reporting, im Archivinformationssystem oder auch in Queries lieferten dann möglicherweise falsche Ergebnisse. Mit dem PBS Archive Data Review könnten Anwender Inkonsistenzen in archivierten Geschäftsdaten aufspüren und bereinigen. In einem Analyselauf würden zunächst die Daten der einzelnen Archivierungsobjekte validiert und auf Mehrfacharchivierungen überprüft. Die Ergebnis-Analyse erfolge online und enthalte neben einer numerischen Darstellung je Archivdatei auch eine detaillierte Sicht auf Beleg-Ebene.
Die Korrektur der Archivdatenbestände erfolge ohne Umsetzung von Archivdateien und sei abhängig davon, ob ein Datenbestand komplett oder nur zum Teil in anderen Archivierungsläufen enthalten ist. Sämtliche Änderungen würden in den administrativen Anwendungstabellen der SAP-ADK-Infrastruktur (Archive Development Kit) vermerkt und wirkten sich auf alle Standard-Anwendungsszenarien mit Zugriff auf archivierte Daten aus. Bei Bedarf ließen sich die Änderungen wieder rückgängig machen.

Über Trillium kooperieren IT und Fachabteilung

Das Control Center von Trillium Software verknüpft die Datenpflegeaktionen von IT- und Fachabteilung. Quelle: Harte-Hanks Trillium

Das Control Center von Trillium Software verknüpft die Datenpflegeaktionen von IT- und Fachabteilung. Quelle: Harte-Hanks Trillium

Harte-Hanks Trillium Software hat mit Trillium Software System eine Lösung entwickelt, die darauf abzielt, den gesamten Lebenszyklus von Kunden und Produktdaten zu verwalten. Risk & Compliance-Programme unterstützen laut Hersteller die Analyse und Verbesserung der Datenbasis. Typische Anwendungsgebiete von Trillium Software System seien Data Warehousing, Master Data Management, Business-Intelligence-Lösungen sowie Prozesse in unternehmensweiter Standardsoftware (ERP) oder Kundenmanagement-Systemen (CRM). Für Daten im SAP-Umfeld stelle Trillium Software eine dezidierte Plattform zur Verfügung.
Trillium Software System ist eine bereichsübergreifende Plattform, die aus vier Produkten besteht: TS Insight vermittle einen Browser-basierten Einblick in Daten und ermögliche es, Data-Governance-Projekte zu planen, zu überwachen und zu steuern. TS Discovery ist ein automatisches Datenanalyse-Tool, das eine Analyse der Daten erstelle und Schwachstellen und Verbesserungsmöglichkeiten offenlege. TS Quality diene zur Umwandlung von Daten aus beliebigen Quellen in konsistente Informationen. TS Enrichment reichere Geschäfts- und Unternehmensdaten durch demografische, geografische und firmenspezifische Informationen an, um beispielsweise Kampagnen im Direktmarketing zu optimieren.
Trillium Software System komme branchenunabhängig zum Einsatz. Der Hersteller hat aber auch Branchenlösungen entwickelt, welche auf die speziellen Anforderungen bestimmter Industrien abzielen. Die Lösungen unterstützen laut Unternehmensaussage alle Datentypen, sind für den internationalen Einsatz aufgebaut und taugen auch für riesige Datenmengen. Sie arbeiteten plattformunabhängig und ließen sich in die verschiedensten Anwendungen integrieren. Konnektoren zu den wichtigsten Unternehmensapplikationen sollen die Implementierungsdauer verkürzen.

Uniserv geht die Datenpflege mit einer Mehrprodukt-Strategie an

Der Uniserv Data Analyzer liefert interaktiv eine Aussage zur Beschaffenheit und Qualität großer Datenmengen. Quelle: Uniserv

Der Uniserv Data Analyzer liefert interaktiv eine Aussage zur Beschaffenheit und Qualität großer Datenmengen. Quelle: Uniserv

Um die Qualität der Unternehmensstammdaten auf einem hohen Niveau zu halten, sollten Unternehmen laut Uniserv Datenqualität als kontinuierlichen Prozess verstehen. Das Portfolio von Uniserv umfasst Produkte, die den gesamten Lebenszyklus von Stammdaten abdecken: von der Analyse und der Erstbereinigung über die Implementierung einer Data Quality Firewall bis hin zur kontinuierlichen Überwachung. Die Module Uniserv Data Analyzer, Uniserv Data Cleansing, Uniserv Data Protection und Uniserv Data Governance sollen im Verbund dafür sorgen, dass Stammdaten stets den Anforderungen des Business genügen und gleichzeitig in Data-Management-Projekten jeglicher Art das Risiko minimieren.
Der Uniserv Data Analyzer liefere interaktiv eine Aussage zur Beschaffenheit und Qualität großer Datenmengen. Eine Vielzahl zusätzlicher Informationen ließe sich mit benutzerdefinierten Regeln und Metriken anreichern. Durch intuitive Bedienmethoden im Bereich Drilldown, Segmentierung und Filterung konzentriere sich die Aufmerksamkeit des Anwenders schnell auf die Auffälligkeiten in den Daten. Uniserv Data Protection sorge dafür, Eingabefehler bei der Neuanlage oder Änderung von Stammdaten zu vermeiden. Schließlich sei es der effektivste Weg zur Datenqualität, nur qualitativ hochwertige Daten ins System zu lassen.
Das Monitoring schließlich überwache im laufenden Betrieb kontinuierlich die Datenqualität und halte die Ergebnisse in einem Report fest. Unterschritten die Daten individuell festgelegte Qualitätsstufen, weise eine Alarmfunktion darauf hin und ermögliche Gegenmaßnahmen. Mit Hilfe der Data Quality Scorecard könnten Unternehmen einen Key Performance Indicator für ihre Datenqualität generieren.

ZetVisions Spot dokumentiert die Prozesse der Datenpflege

Der Datentransfermonitor von zetVisions Spot dokumentiert sämtliche Aktionen der Stammdatenpflege. Quelle: zetVisions

Der Datentransfermonitor von zetVisions Spot dokumentiert sämtliche Aktionen der Stammdatenpflege. Quelle: zetVisions

Die SAP-basierte Standardlösung zetVisions Spot zentralisiert das Stammdatenmanagement und unterstützt Unternehmen mithilfe unterschiedlicher Stammdatenmodelle bei der Umsetzung von Initiativen in Sachen Datenqualität. Laut Hersteller verbessert die Lösung die Qualität sowie Aktualität der Stammdaten und optimiert zudem die Effizienz der Pflegeprozesse. Zusätzlich würden eine vollständige Transparenz und Dokumentation über die Verteilung und Nutzung dieser Stammdaten sichergestellt. Mithilfe von Workflows und Freigabeprozessen würden die Daten dezentral erfasst, von der Konzernzentrale validiert und an die jeweiligen Empfängersysteme verteilt. Unternehmenseigene Data-Governance-Aspekte unterstützten die Lösung durch klar definierte Verantwortlichkeiten mit Blick auf die Dateneingabe sowie -freigabe im Zusammenspiel mit kontrollierten Prozessen für die Stammdateneingabe. Belege dokumentierten innerhalb eines Prozesses (Request), welcher Nutzer beziehungsweise welche Nutzergruppe welche Daten eingegeben und wer diese Daten auf Basis welcher Informationen freigeben habe.
Eine hohe Transparenz sowie Revisionssicherheit würden durch die vollständige Dokumentation von Stammdatenänderungen gewährleistet. Gleiches gelte für eine umfangreiche Änderungshistorie bis auf Feldebene.
zetVisions Spot verspricht Einfachheit in der Bedienung, Anpassung, Erweiterbarkeit und Auswertbarkeit durch den Benutzer. Sowohl das Datenmodell und die Prozesse (Requests) als auch die Benutzeroberfläche könnten Kunden anpassen oder erweitern. Zentrale Benutzer könnten je nach Datenmodell sogar Validierungen direkt über die Web-Oberfläche definieren. Somit lasse sich für jegliche Arten von Stammdaten ein Single Point of Truth realisieren. Unternehmen profitieren laut Hersteller von stark beschleunigten Prozessen und reduzierten Abstimmungsaufwänden beispielsweise in den Bereichen Kundenstammdaten, Finanzstammdaten, Lieferantenstammdaten, Produktstammdaten, Gesellschaftsstammdaten oder beliebigen freien Datenmodellen. jf

Kommentare sind deaktiviert