Externe Speicher in die Data-Warehouse-Analyse integrieren

Update: Externe Speicher in die Data-Warehouse-Analyse integrieren

Das Einbinden externer Hadoop-Daten in die Datawarehouse-Analyse, das logische Koppeln mehrerer Data Warehouses sowie eine leistungsgesteigerte Data-Warehouse-Appliance – mit diesen Neuigkeiten wartet Teradata zur Benutzerkonferenz Universe auf.

Hermann-Wimmer-(2)

„Mit dem Query Grid können Anwender große Mengen unstrukturierter Daten in Hadoop Data Lakes ablegen und diese gemeinsam mit den Informationen im Data Warehouse analysieren“, berichtet Hermann Wimmer, Co-President von Teradata. (Quelle: Teradata)

1200 Analytics-Spezialisten haben sich zur der Benutzerkonferenz Teradata Universe in Amsterdam versammelt. Teradata präsentiert ihnen ein erweitertes Konzept des Data Warehouse. Das sogenannte QueryGrid erweitert das Data Warehouse so, dass Anwender bei der Analyse auch auf Daten aus externen Systemen zugreifen können. Erreichbar von der Teradata Database und von Teradata Aster aus ist die Hadoop-Distribution von Cloudera. Den Zugriff von der Teradata Database auf die Hortonworks Data Platform hat Teradata nach eigener Aussage verbessert. Weiterhin lassen sich die Daten aus mehreren Teradata Database-Systemen gemeinsam analysieren. Die genannten Funktionen stehen ab sofort weltweit zur Verfügung. Zum Ende des zweiten Quartals sollen die Funktionen für den Zugriff von Teradata auf Aster und von Teradata auf die Hadoop-Distribution von MapR erscheinen.

Zugriffstempo versus Speicherkosten

Das QueryGrid ist eine Weiterentwicklung des Konzepts des Multitemperature Data Warehouse. Dieses teilt Daten nach der Häufigkeit des Zugriffs in Temperaturstufen ein und verschiebt sie anhand dieser Kategorisierung in den jeweils am besten passenden Speicher. Als heiß gelten Daten mit häufigen Zugriffen, und diese wandern in den schnellen Hauptspeicher. Weniger heiße Daten landen dagegen auf langsameren aber billigeren Solid State Disks oder auf klassischen Festplatten. Das Verschieben der Daten auf den am besten passenden Speicher erledigt ein Algorithmus ohne Zutun des Anwenders im Hintergrund.

Das QueryGrid hat bindet nun externe Systeme in die Abfrage ein. Diese Funktionalität ist laut Teradata Co-President Hermann Wimmer notwendig geworden, weil Anwender dazu übergehen, große Mengen teilweise unstrukturierter Daten in Hadoop Data Lakes abzulegen und diese gemeinsam mit den Informationen im Data Warehouse analysieren wollen. „Mit dem Query-Grid können Anwender genau diese plattformübergreifenden Abfragen machen, ohne das sie wissen müssen, in welchem System die Daten liegen.“ Die Funktion des automatisierten Verschiebens der Daten zwischen dem Data Warehouse und Hadoop anhand vordefinierter Kriterien ist laut Wimmer Stand heute im Query Grid nicht enthalten.

Mehrere Data Warehouses logisch koppeln

Im Rahmen der neuen Funktion Software Defined Warehouse führt Teradata mehrere Data Warehouses in einem System zusammen, so dass Anwender die Informationen daraus gemeinsam analysieren können, und zwar laut Unternehmensangaben ohne Einbußen bei der Sicherheit und der Leistung. Die Datensicherheit werde dabei über die Funktion Secure Zones erzielt. Damit ließen sich in dem logisch gekoppelten System Daten und Benutzergruppen sicher voneinander trennen. Das Teradata Software-Defined Warehouse ist ab sofort verfügbar, die Secure-Zones-Funktion erscheint Ende des zweiten Quartals.

„Viele Unternehmen betreiben mehrere voneinander getrennte Data Warehouses, um die spezifischen Anforderungen einzelner Geschäftsbereiche oder an die unterschiedliche Datenschutzbestimmungen verschiedener Länder zu erfüllen“, berichtet Wimmer. „Mit dem Software Defined Data Warehouse können unsere Kunden diese Anforderungen einhalten und trotzem von der einfacheren Verwaltung, konsistenter Leistung und den Kostenersparnissen eines integrierten Systems profitieren.“

Sämtliche Analysetechnologien werden integriert

„Keine Technologie wird künftig sämtliche Anforderungen an das Speichern und die Analyse von Daten erfüllen“, prophezeit Stephen Brobst, Chief Technology Officer von Teradata. „Wir setzen daher auf ein analytisches Ökosystem, in dem wir sämtliche verfügbaren Technologien miteinander integrieren.“ Das Query Grid setzt dieses Konzept um, indem es das klassische Data Warehouse mit strukturierten Daten durch einen Hadoop Data Lake mit unstrukturierten Daten ergänzt und dafür sorgt, dass Anwender die Daten gemeinsam analysieren können. Die Integration von IT-Systemen mit unterschiedlichen Technologien und von Daten mit unterschiedlichen Strukturen im Rahmen der Unified Data Architecture betrachtet Co-President Wimmer demnach als einen strategischen Pfeiler von Teradata.

Von der Idee, Transaktionen und Analyse in einem System zu vereinen, so wie es SAP mit SAP HANA praktiziert, hält Brobst wenig: „Ein Data Warehouse muss künftig weit mehr umfassen als die klassischen Transaktionsdaten, beispielsweise Sensordaten oder andere unstukturierte Informationen. Diese wiederum werden wohl niemals den Weg in ein System für Enterprise Resouce Planning finden.“

Cloud und On-Premise stehen als Betriebsmodelle zur Wahl

Als weiteren strategischen Pfeiler von Teradata betrachtet Wimmer die Flexibilität bei den Betriebsmodellen. „Alle unsere Anwendungen sind gleichermaßen für den Betrieb On Premise und in der Cloud gerüstet. Wie gehen aber nicht davon aus, dass Unternehmen künftig ihre geschäftskritischen Daten in die Public Cloud schieben und dort analysieren. Wir sehen die Zukunft vielmehr in hybriden Systemen, bei denen die Unternehmen ihre zentralen Anwendungen entweder Inhouse oder in einer Private Cloud betreiben bei weniger sensiblen Daten um Datenquellen undAnalysesysteme aus der Public Cloud ergänzen.“

Eine weitere Produktankündigung auf der Anwenderkonferenz betrifft die Teradata Data Warehouse Appliance 2800. Dank optimierter In-Memory-Verarbeitung, Intel-Haswell-Prozessoren und einer extrem hohen Speicherdichte erziele diese Appliance im Vergleich zum Vorgängermodell die doppelte Rechenleistung und die doppelte Speicherkapazität.

Predictive Maintenance in Schnellzügen

Zu den größte Datenlieferanten werden künftig das Gesundheitswesen und die Industrie gehören. Während Pharmazie und Medizin von besser erforschten Medikamenten und umfassenderen Diagnosen profitieren, geht es in der Industrie beispielsweise unter anderem um Predictive Maintenance. Siemens setzt die vorausschauende Wartung beispielsweise beim Schnellzug von Madrid nach Barcelona ein. Das Prinzip funktioniert ähnlich wie die datengestützte Turbinenwartung beim Airbus A 380. Die Schnellzüge enthalten eine Vielzahl von Sensoren unter anderem an den Achsen und Stoßdämpfern. Aus den hier generierten Daten läßt sich erschließen, wann etwa ein Radlager so stark verschlissen ist, dass es gewechselt werden muss. Findet der Austausch bereits vor dem Ausfall im Rahmen einer geplanten Wartung statt, reduzieren sich die Standzeiten. „Die Verfügbarkeit solcher  Züge ist oft bei 80 Prozent und weniger. Bei den Hochgeschwindigkeitszügen in Spanien haben wir aber Verfügbarkeiten von weit über 90 Prozent“, berichtet Gerhard Kreß, Direktor Mobility Data Services bei Siemens. jf

Anzeige

BI Guide Titelis report Business Intelligence Guide 2014

Kaufen können Sie diese Standardreferenz sowie weitere Marktübersichten und Studien zu den anderern IT-Disziplinen direkt im Web-Shop der isi Medien GmbH oder telefonisch unter 089/90 48 62-0 und per E-Mail unter info@isreport.de

Über Beteiligungsmöglichkeiten informiert Sie Herr Raupach unter 089/90 48 62 30 oder sRaupach@isreport.de

Kommentare sind deaktiviert