Nearline Storage staucht SAP-HANA-Systeme klein

SAP HANA beschleunigt die Datenverarbeitung. Sämtliche Daten im Hauptspeicher zu halten, kann aber sehr hohe Kosten verursachen. Ein möglicher Ausweg ist die Segmentierung der Daten via Nearline Storage. (Ausgabe 10/2013)

Mit Hilfe der In-Memory-Technologie von SAP HANA lassen sich komplexe Verarbeitungsschritte vereinfachen, das Berichtswesen beschleunigen und es werden neue Anwendungsszenarien möglich. „Um sämtliche Vorteile auszuschöpfen, sollten die Unternehmen sich darüber im Klaren sein, wie sie mit den Datenmengen umgehen“, erläutert Gregor Stöckler, geschäftsführender Gesellschafter der DataVard GmbH, einem auf SAP Datenmanagement spezialisierten Software- und Beratungsunternehmen. „Die CIOs müssen festlegen, welche Daten es wirklich wert sind, in Echtzeit im Hauptspeicher verarbeitet zu werden.“
Mit dem DataVard Selective System Copy will DataVard einen Lösungsbaustein für die Datensegmentierung liefern: Es handelt sich dabei um eine Methode der selektiven Datenmigration nach SAP HANA. Dabei wandern nur die wichtigen und häufig genutzten Daten in den Hauptspeicher, der Rest wird auf langsamere Speichermedien ausgelagert. Somit verringert sich die Systemgröße. Sofern sich die Lizenzierung am Volumen der Datenbank orientiert, sinken die Gebühren dafür.

Nur sieben bis elf Prozent der Daten werden aktiv genutzt

Welches Potenzial im Datenmanagement liegt, zeigt eine von DataVard erstellte Analyse in über 100 Kundensystemen. Demnach machen produktiv genutzte und berichtsfertige Daten in Info Cubes lediglich sieben bis elf Prozent der Systemgröße aus. Der Rest sind Stammdaten (vier bis zehn Prozent), temporäre Daten (20 bis 31 Prozent), Daten in Data Store Objects (30 bis 48 Prozent) sowie Daten in Cubes, die älter als zwei Jahre sind (drei bis sieben Prozent).
Für Data Warehouses verzeichnet die DataVard-Analyse ein durchschnittliches jährliches Wachstum von 32,8 Prozent. Die Gründe dafür sind vielfältig. Einerseits steige das operative Datenvolumen aufgrund einer Zunahme der Geschäftstransaktionen sowie wegen neuer nationaler und internationaler Standorte. Neben gestiegenen Anforderungen der Benutzer nach mehr Daten mit detaillierterer Granularität steige auch der Nutzungsumfang durch neue Anwendungsfälle und Applikationen. Eine weitere Rolle spielten rechtliche Regularien. Hierzu zählen insbesondere der Sarbanes Oxley Act für börsennotierte Unternehmen und Basel II beziehungsweise Basel III für Finanz-institute, die Regelungen der Securities and Exchange Commission (SEC) für die Kontrolle des Wertpapierhandels in den Vereinigten Staaten sowie die Data Retention Directive der Europäischen Union.
Mit zunehmendem Datenvolumen nimmt der Anteil der aktiv genutzten Daten laut DataVard rapide ab. Ältere historische Daten würden oftmals nur noch für eventuelle Prüfungen vorgehalten. Verwaltet würden diese „kalten“ Daten jedoch in gleicher Weise wie die aktiv genutzten, „warmen“ und „heißen“ Daten. Als heiß und warm gelten Daten, die aktuell zum Betrieb des Unternehmens oder häufig zu Vergleichszwecken benötigt werden. „Ein Terabyte aktiv genutzter Daten verursacht die gleichen Kosten wie ein Terabyte unregelmäßig genutzter oder ungenutzter temporärer Daten“, erläutert Stöckler. „Das ist aus Kosten- wie auch aus Performance-Gründen wenig sinnvoll. Gefragt ist eine sinnvolle Speicherung beziehungsweise Archivierung der Daten gemäß ihrer Nutzung und Aussagekraft.“

Von Online über Nearline Storage bis hin zur Archivierung

Für das Datenmanagement in einem Data Warehouse gibt es mehrere Möglichkeiten. Neben der Online-Speicherung können die Daten offline in einem festen Speichermedium archiviert werden. Eine Zwischenform nennt sich
Nearline Storage. Die Art der Speicherung zeichnet sich laut Stöckler durch zwei Eigenschaften aus: „Zum einen können die Daten mit Hilfe effizienter Komprimierungstechniken und dedizierter Systemlösungen besonders kos­tengünstig vorgehalten werden. Zum anderen – und das ist wichtig für Analyse und Reporting – haben die Benutzer durch die Nearline-Storage-Schnittstelle in der Analyse-Engine weiterhin Zugriff darauf.“ Mit Nearline Storage könnten die Daten in einem ihrem Alter und ihrer Stellung im Informationslebenszyklus entsprechenden Speichermedium abgelegt werden. Der Einsatz von Near­line Storage empfehle sich vor allem für Daten aus Info Cubes und für Data Store Objects. Die klassische Datenarchivierung hingegen biete eine kostengünstige Lösung für entweder sehr alte Daten, Daten aus der Akquisitionsschicht oder auch für temporäre Daten.
Bei dem Einsatz von SAP BW stellen sich laut DataVard drei Herausforderungen: Kosten, Performance und Flexibilität. Für die notwendige Flexibilität sorge die Layered Scalable Architecture der SAP als Säule des Enterprise Data Warehousing. Performance-Aspekte ließen sich durch SAP BW Accelerator und durch SAP HANA adressieren. „SAP HANA verspricht als neue Datenbank-Technologie das weitaus größere Potenzial“, erläutert Stöckler.
Die Technologie bringe aber auch Nachteile mit sich: „Während Unternehmen beim SAP BW Accelerator selbst entscheiden können, welche Daten Memory-basiert besonders performant vorgehalten werden sollen, ist dies bei SAP HANA als Datenbank nicht mehr möglich. Umso wichtiger ist daher eine Reduktion des Datenvolumens im Hauptspeicher.“ Erst ein effizientes Datenmanagement durch Löschung und Archivierung vorzugsweise in ein Nearline Repository ermögliche einen kostenvertretbaren Einsatz der In-Memory-Technologie.
Bei der Verwaltung großer Datenmengen im SAP BW und die dazugehörigen Anforderungen an Performance und Skalierbarkeit verspricht das Datenmanagement große Verbesserungspotenziale. Die Nutzung eines Nearline-Repository innerhalb von SAP BW habe sich auch dafür bewährt, die Komplexität der Verfahren für Hochverfügbarkeit, Betrieb und die Erstellung von Systemkopien zu reduzieren. Dabei erfolge die komprimierte Ablage der Nearline-Storage-Daten in spezifischen komprimierten Speicherbereichen der Datenbank von SAP BW.  Im Zuge der Big-Data-Diskussion seien darüber hinaus Technologien wie Sybase IQ und Apache Hadoop zukunftsträchtig, da diese besonders große Datenvolumina effizient managen und diese zugleich mit sehr guter Performance bereitstellen könnten. jf

Der Experte

„Um sämtliche Vorteile von SAP HANA zu nutzen, müssen sich Unternehmen darüber klar werden, welche Dateien es wirklich wert sind, in Echtzeit im Hauptspeicher verarbeitet zu werden“, sagt Gregor Stöckler, geschäftsführender Gesellschafter der DataVard GmbH.

„Um sämtliche Vorteile von SAP HANA zu nutzen, müssen sich Unternehmen darüber klar werden, welche Dateien es wirklich wert sind, in Echtzeit im Hauptspeicher verarbeitet zu werden“, sagt Gregor Stöckler, geschäftsführender Gesellschafter der DataVard GmbH.

Kommentare sind deaktiviert