BARC-Analyst Andreas Bitterer im Exklusiv-Interview

Eine dominierende Technologie für Business Intelligence ist nicht zu erwarten, erläutert BARC-Vice President und Research Fellow Andreas Bitterer. Vielmehr gehe es darum, Systeme gut zu kombinieren.

Andreas_Bitterer_TDWI2015

BARC-Vice President und Research Fellow Andreas Bitterer plädiert für eine Kombination von Analysetechnologien: „Auf der untersten Schicht läuft ein Hadoop-Cluster, und Teilmengen der Daten daraus werden einer In-Memory-Applikation analysiert.“ (Quelle: Eberhard Heins)

Bei Big Data konkurrieren In-Memory-Systeme mit Parallelisierungsansätzen. Wird sich künftig eine dominierende Technologie durchsetzen oder bleibt die aktuelle Vielfalt bestehen?

Die Vielfalt wird bleiben, und es wird wohl nicht dazu kommen, dass eine Technologie die andere komplett übertrumpft. Die Technologien adressieren unterschiedliche Probleme: In Memory hat die Geschwindigkeit als Trumpf, während es bei Big Data eher um die Menge und die Vielfalt an Daten geht. Unternehmen sollten nicht versuchen, sämtliche Probleme mit einer einzigen Technologie zu lösen. Vielmehr geht es um eine intelligente Kombination. So kann etwa auf der untersten Schicht eine Big Data Technologie wie ein Hadoop-Cluster laufen, und Teilmengen der Daten daraus werden einer In-Memory-Applikation analysiert.

SAP positioniert SAP HANA in Richtung Big Data und will zudem die analytische Welt und die transaktionale Welt zusammenführen. Wo liegen die Stärken dieses Ansatzes?

In einer idealen Welt hat man nur einen Data Store, mit dem man sowohl Transaktionen verarbeiten als auch Analysen fahren kann. Technisch geht SAP HANA in diese Richtung. Für kleinere Unternehmen mit einem überschaubaren Datenvolumen mag das Sinn machen,  aber ich kann mir nicht vorstellen, dass beispielsweise ein Online-Händler 20 Petabyte Daten in einer In-Memory-Datenbank ablegt. Das könnte niemand bezahlen. Daher gilt bei den meisten Unternehmen: Großvolumige Datenmengen wie Sensordaten oder seismische Daten werden normalerweise in Hadoop abgelegt. Dort läuft ein Pre-Processing, um Muster oder Korrelationen zu finden. Die vorgefilterten Daten werden dann in SAP HANA beispielsweise zusammen mit Informationen über Produkte und Kunden analysiert.

Teradata hat im April mit Query Grid eine Möglichkeit vorgestellt, Hadoop-Daten gemeinsam mit Informationen aus einem Data Warehouse zu analysieren. SAP hat gerade nachgezogen. Geht das in die eben beschriebene Richtung?

Ja. Man hat verschiedene Datentypen, die verschieden angegangen werden. Strukturierte Daten werden in einer relationalen Datenbank abgelegt, die durchaus im Hauptspeicher laufen kann. Daneben gibt es unstrukturierte Daten, beispielsweise Bilder, Texte oder Wetterinformationen, und die kommen in einem Hadoop Data Lake. In der Analyse muss man beide Datenwelten kombinieren. Deswegen adressieren sämtliche Hersteller aus der Datenbank-Ecke jetzt die Hadoop-Welt.

Der Clou liegt also darin, beide Daten-Layer gemeinsam zu analysieren?

Ja. Mit Federated Query gab es so etwas schon lange vor Hadoop. Eine Query fordert bestimmte Daten zur Analyse an. Der darunter liegende Federation Layer weiß, wo diese Daten liegen, und zieht sie aus dem jeweiligen Data Store. In der Vergangenheit waren das üblicherweise verschiedene Datenbanken, und jetzt ist Hadoop hinzugekommen.

Microsoft hat mit HDInsight eine Hadoop-Variante vorgestellt, die auf der Cloud-Plattform MS Azure läuft. Wie bewerten Sie die Hadoop-Strategie von Microsoft?

Das ist zunächst einmal eine Me-Too-Strategie. Microsoft hat zwar als Data Management Vendor viel Erfahrung, ist aber bei Hadoop ein Newcomer. Schließlich hat Microsoft ja Linux, Apache und generell Open Source jahrelang bekämpft. Jetzt hat man gesehen, dass diese Schlacht längst verloren ist, und daher auch eine Hadoop-Strategie entwickelt. Eine logische Schlussfolgerung aus dem, was im Markt passiert. Technisch gibt es keinen Grund, warum Hadoop auf der Microsoft-Plattform nicht funktionieren soll. Interessant dürfte diese Variante aber eher für Microsoft-zentrierte Unternehmen sein. Wer in der BI-Welt ansonsten keine Microsoft-Produkte einsetzt, wird wohl eher nicht zu dieser Hadoop-Distribution greifen.

Bei Self Service BI analysieren Anwender mit Tools wie Tableau Daten auf eigene Faust. Entwickeln sich hier nicht unkontrollierte Datentöpfe, welche die IT-Abteilung eines Tages wieder konsolidieren muss?

Der Wunsch nach Self Service BI wird von den Anwendern gerne genannt, es ist aber eine zweischneidige Sache. Es ist eine gute Idee, den Benutzern die eigenständige Analyse zu ermöglichen, aber es darf nicht ohne Governance passieren. Sonst bekommt das Unternehmen die gleichen Probleme, wie sie vorher mit MS Excel üblich waren, lediglich auf einer komfortableren Ebene: jeder kocht seinen eigenen Brei, definiert und kalkuliert nach eigenem Gutdünken, und die Ergebnisse sind möglicherweise nicht mehr konsistent. So etwas endet eher in BI Anarchie statt in einer BI Strategie.

Wie vertragen sich Datenqualität und Self Service BI?

Auch hier braucht es eine Governance. Datenqualität ist ein grundsätzliches Thema, das leider immer noch zu wenig adressiert wird, besonders von den Fachbereichen im Unternehmen. Datenqualität hängt aber auch eng zusammen mit der Definition von Kennzahlen und Metriken. Viele Unternehmen können ja nicht einmal genau angeben, wieviele Kunden sie haben, oder wie Umsatz, Marge, oder Deckungsbeitrag berechnet werden.  Von einheitlichen Definitionen und einem Data Dictionary hängen aber die Qualität und der Erfolg von Self Service BI entscheidend ab. Die Datenqualität selbst regeln Data Stewards und entsprechende Prozesse.

Kennzahlen müssen also definiert werden, bevor Self Service BI zum Einsatz kommt?

Idealerweise schon. Oft sind aber die BI-Werkzeuge im Unternehmen bereits vorhanden und unabhängig voneinander implementiert worden. Wenn dann Mitarbeiter mit unterschiedlichen Ergebnissen zu den gleichen Kennzahlen zusammentreffen, ist die Überraschung immer groß, und ein Retrofit der Definitionen ist angesagt. Sonst vergleichen die Mitarbeiter Äpfel und Birnen und können sich oft gar nicht einigen, mit welchen Zahlen sie weiterarbeiten sollen. Statt Entscheidungen zu treffen, wird dann eher über die Diskrepanzen in den Daten diskutiert.

Spezialanbieter konkurrieren bei Business Intelligence mit Generalisten wie SAP oder IBM, die in den vergangenen Jahren viel BI-Know-How zugekauft haben. Wird sich der Markt weiter konsolidieren?

Die große Konsolidierungswelle ist vorbei. IBM, Microsoft, Oracle und SAP zusammen kommen heute schon auf rund 75 Prozent Marktanteil. Den Rest teilen sich einige mittelgroße BI Anbieter und Dutzende von kleinen Herstellern. Trotz der Marktmacht der großen Anbieter halten sich die Spezialanbieter seit Jahren gut am Markt. Qlik und Tableau zum Beispiel, die nicht über die IT-Abteilung ins Unternehmen kommen, sondern über die Fachabteilung, haben sehr guten Erfolg. SAS Institute, das sich eher an Analytik-Spezialisten richtet, geht es sehr gut, Information Builders ebenfalls. Das soll alles nicht heißen, dass es keine Übernahmen mehr geben wird, gerade durch Firmen, die durch Aufkäufe in den BI Markt einsteigen wollen. Beispiele sind die Akquisition von Actuate durch OpenText oder den Kauf von Pentaho durch Hitachi Data Systems. Hier ist noch Spielraum, allerdings ist der Markt schon ziemlich abgegrast.

Wie gehen denn Unternehmen bei der Auswahl von Business-Intelligence-Lösungen am besten strategisch vor?

In einer BI-Straegie geht es nicht in erster Linie um Technologie, auch wenn viele Unternehmen das so verstehen. Vielmehr hat eine Strategie drei Elemente, nämlich die Organisation, fachliche Aspekte und dann erst die Technologie. Unternehmen müssen sich überlegen, und in welcher Fachabteilung Analytik einen Mehrwert erbringt, und was sie damit überhaupt erreichen wollen. Beispielsweise Abläufe optimieren, ein Risiko ausschalten, Umsätze erhöhen, Energie einsparen oder einfach mehr verkaufen. Bei der Auswahl der Lösungen sind, vereinfacht gesagt, folgende Fragen zu beantworten: Welche fachlichen Anforderungen hat das Business? Welche Prioritäten und welchen Effekt haben die Anforderungen? Welche Tools und Skills sind vorhanden um diese Anforderungen zu adressieren? Welche Lücken gibt es in der Zielarchitektur? Erst dann wird eine Shortlist erstellt mit Herstellern, deren Portfolio am besten zu den Anforderungen passt, und die konkurrieren dann in einem Auswahl-Prozess.

Halten sich Unternehmen an dieses Vorgehen?

Selten, denn Viele zäumen das Pferd von hinten auf. Es werden jede Menge Tools gekauft und implementiert, ohne dass eine Strategie vorliegt. Die vorhandenen BI-Systeme lassen sich später nur schwer ablösen. Das würde lange dauern und viel Geld kosten. So werden dann meist neue Module an bestehende Lösungen angeflanscht. Den großen Wurf bekommen Unternehmen aber erst dann hin, wenn sie sämtliche Bereiche anfassen, also Organisationsstruktur, BI Competence Center und eben auch die IT-Systeme. Idealerweise wird das von der fachlichen Seite her getrieben. Die Technologie ist ja nichts anderes als eine Lösung für eine fachliche Anforderung.

BI-Hersteller wollen Cloud-Angebote in den Markt drücken und werben für deren große Akzeptanz. Wofür eignen sich Cloud-Angebote, und wie viele Anwender nutzen diese Betriebsvariante in Deutschland für Analytik?

Eine Cloud-Plattform haben sich inzwischen alle BI-Anbieter angedeihen lassen. Die mit dieser Betriebsvariante erzielten Umsätze sind allerdings mit geschätzten 5 Prozent im Vergleich zum Lizenzgeschäft mit Inhouse-Lösungen noch immer sehr gering. Sinnvolle Anwendungsfälle für die Cloud sind dann gegeben, wenn die zu analysierenden Daten selbst schon in Cloud-Systemen liegen. Bei der Analyse von Social Networks etwa, oder wenn ein Unternehmen Daten aus Salesforce-, Zendesk- oder Netsuite-Systemen analysieren will, die ja in der Cloud laufen. Hält ein Unternehmen hingegen seine meisten Daten in On-Premise-Systemen, wäre Cloud-Analytik weniger sinnvoll, weil dann sämtliche zu untersuchenden Daten erst mal in eine Cloud-Infrastruktur geladen werden müssten. Hinzu kommen Sicherheitsaspekte. Viele Unternehmen wollen ihre Daten nicht aus der eigenen Firewall heraus lassen und akzeptieren neben Inhouse-Systemen maximal eine Private Cloud.

Wie sieht es mit Testszenarien aus, wo Unternehmen in der Cloud Erfahrungen mit einer neuen Technologie sammeln?

So etwas kann ich mir gut vorstellen. Unternehmen brauchen dann keine Hardware anschaffen, können bei Anbietern wie Amazon in einer Sandbox starten und kostengünstig skalieren. Ist der Test beendet, dann werfen sie die Sandbox wieder weg und haben auch keine Daten mehr in der Cloud. jf

Anzeige

isreport-BI-GuideBusiness Intelligence neuester Stand: Die Marktübersicht der BI-Lösungsanbieter und Dienstleister 2015 von isi  Medien ist verfügbar. Zum E-Paper hier klicken.

Kommentare sind deaktiviert