Checkliste: In 5 Schritten zu mehr Datensichtbarkeit

Die mangelnde Sichtbarkeit von Daten behindert Big Data-Analysen und birgt Gefahren in Bezug auf Compliance und Datenschutz. Der IT-Infrastruktur-Spezialist TmaxSoft nennt fünf Faktoren, mit denen CIOs das Risiko abschätzen.

Bis zum Jahr 2025 werden laut der aktuellen IDC Data Age 2025 Studie weltweit 163 Zettabyte an Daten generiert. Das entspricht einer Verzehnfachung der heutigen Datenmenge. 60 Prozent aller anfallenden Daten generieren große Unternehmen. Die Analyse dieser Informationen bringt Einsichten zur Verbesserung von Steuerungsprozessen und Kundenbeziehungen für mehr Wirtschaftlichkeit.

„Mangelhafte Datensichtbarkeit kann die Aussagekraft und das Geschäftspotenzial von Big Data-Analysen erheblich schmälern“, warnt Thomas Hellweg, Vice President und Geschäftsführer DACH von TmaxSoft, einem Spezialist für Cloud-, Infrastruktur- und Legacy-Modernisierung. „Schnell besteht die Gefahr, gegen Gesetze wie die neue (EU-Datenschutzgrundverordnung zu verstoßen.“ TmaxSoft benennt fünf Fragen, die IT-Entscheider im Zuge ihrer Big Data-Projekte prüfen sollten.

  1. Big Data braucht fordert die Infrastruktur heraus

Bereits innerhalb der kommenden zwei Jahre erwarten die IDC Analysten einen weltweiten Anstieg der aus Big Data- und Business-Analysen generierten Einnahmen auf über 203 Milliarden US-Dollar. Das gewinnbringende Ausschöpfen dieser Analysen erfordert ein Maximum an Datensichtbarkeit. Für viele Unternehmen ist das bislang eine große Herausforderung: Häufig fehlt es an Speicherkapazität, performanten Werkzeugen und Anwendungen sowie Datenfreigabeprozessen innerhalb ihrer IT-Infrastruktur, um große Mengen unstrukturierter Daten verarbeiten und auswerten zu können. Um von Big Data Analysen zu profitieren, sollten IT-Verantwortliche prüfen, ob ihre Infrastruktur die erforderliche Datensichtbarkeit unterstützt oder eher behindert.

  1. Datenbank brauchen hohe Performance

Ein Kernelement für die Analyse sind Datenbank-Systeme. Veraltete Datenbanken beziehungsweise relationale Datenbankmanagement-Systeme (RDBMS) können den potenziellen Mehrwert Big Data-basierter Business-Analysen empfindlich verringern, wenn sie nicht über die erforderliche Funktionalität, Leistungsstärke und Skalierbarkeit verfügen. Viele RDBMS sind nicht in der Lage, hohe Workloads in Virtual Data Center- oder Cloud-Umgebungen zu bewältigen.

Besonders schnelle Zugriffszeiten bieten In-Memory-Datenbanken. Diese laden Daten schon beim Start in den Arbeitsspeicher, während klassische Datenbanken diese erst bei Bedarf vom Festplattenlaufwerk holen. Damit erzielen In-Memory Datenbanken deutlich höhere Zugriffs- und Verarbeitungsgeschwindigkeiten. Darüber hinaus können sie sowohl strukturierte als auch unstrukturierte Daten aus verschiedenen Vorsystemen ohne vorherige Aggregation analysieren. Die direkte Verwendung sehr großer Datenmengen aus dem Transaktionssystem vereinfacht zudem die Analyse operativer Daten.

  1. Lizenzkosten dürfen den Systemausbau nicht behindern

Viele Hersteller bieten ihre Lösungen als sogenanntes Asset-Paket aus Hardware und Software an. Damit binden sie Anwender an jahrelangen Hardware-Support mit beständig steigenden Wartungskosten. Für virtuelle Umgebungen erweisen sich bisherige Lizenzmodelle oft als enges Korsett. Unabhängig von der tatsächlichen Nutzung erheben einige Datenbankhersteller pauschal Lizenzgebühren auf sämtliche Prozessoren der virtuellen Server, auf denen die Datenbank läuft.

Unternehmen sollten sich daher nach rein Software-basierten Datenbank-Alternativen mit flexiblen Lizenz-Modellen umsehen, die herstellerunabhängig auf Standard-Hardware eingesetzt werden können. Solche Lösungen können die gleichen Leistungsmerkmale wie In-Memory-Datenbanken bereitstellen und eignen sich somit zur Big Data-Analyse.

  1. Legacy-Daten müssen in Analysen integriert werden

Die Kombination aktueller Datenanalysen mit historischen Daten erweitert den wirtschaftlichen Nutzen der Analysen. So lassen sich Business Intelligence-Vorteile gegenüber Mitbewerbern erzielen – beispielsweise im Wettbewerb traditioneller Banken gegenüber FinTech-Unternehmen.

Vielen Unternehmen fehlt jedoch der Einblick in die über viele Jahrzehnte gewachsenen Legacy-Kernsysteme wie Mainframes. Hier empfiehlt sich die Prüfung neuer Methoden, wie eine Migration von Mainframe-Anwendungen in eine offenes oder Cloud-System über ein Mainframe Rehosting. Im Zuge der Migration wird auch der Programmcode der Altanwendungen entschlackt. Damit sind die Daten aus Legacy-Anwendungen für offene Systeme lesbar.

  1. Blinde Daten gefährden Compliance und Datenschutz

Unzureichende Datensichtbarkeit kann zu einem erheblichen Compliance-Risiko werden. Das gilt insbesondere, dann wenn sich bei personenbezogenen Daten Herkunft, Umfang, Verarbeitung, Sicherheit und Speicherort nicht nachziehen lassen. Legacy-Anwendungen erweisen sich auch in diesem Punkt aufgrund ihres Alters, zahlreicher Iterationen und Revisionen als ernstes Hindernis. Oft ist der Zugriff auf den Quellcode der Altanwendungen nicht möglich oder es fehlen IT-Fachleute, die noch mit alten Programmiersprachen, wie Assembler oder PL/1, umgehen können.

Neben anderen Compliance-Richtlinien zwingt die ab 25. Mai 2018 in Kraft tretende EU-Datenschutzgrundverordnung die Unternehmen dazu, das Risiko intransparenter Legacy-Systeme und mangelnder Datensichtbarkeit über alle Systeme hinweg neu zu bewerten und geeignete Maßnahmen zur Abwendung von Sanktionen zu ergreifen. Jürgen Frisch

Kommentare sind deaktiviert