Exklusiv-Interview: IBM verankert Analysen in der Prozesssteuerung

Prognosen steuern Geschäftsprozesse, erklärt Oliver Oursin, der bei IBM weltweit für Predictive Analytics verantwortlich ist. Ein stringenter Business Case sei dabei wichtiger als alle Technologie.

Predictive Analytics ist der Versuch, auf Basis von mathematischen Algorithmen Vorhersagen zu generieren. Wo sehen Sie den Unterschied zwischen Predictive Analytics und Data Mining?

Oliver Oursin ist Worldwide Predictive and Business Intelligence Solution Executive bei IBM. © IBM

Oliver Oursin ist Worldwide Predictive and Business Intelligence Solution Executive bei IBM. © IBM

Data Mining ist im weitesten Sinne ein Vorgehensmodell und eine Technik. Algorithmen werten Daten aus, um Zusammenhänge zu finden. Diese Erkenntnisse stellen in einem nächsten Schritt die Basis für Predictive Analytics dar. Hierbei wird der Blick um die Dimensionen Gegenwart und Zukunft erweitert. Es geht darum, aus der Vergangenheit zu lernen, heute das richtige zu tun, und mit einer Prognose in die Zukunft zu schauen.

Was machen Unternehmen heute mit Predictive Analytics?

Zum einen nutzen die Unternehmen Predictive Analytics für die Qualitätskontrolle in der Fertigung. So hat beispielsweise BMW durch Data Mining herausgefunden, dass es einen Zusammenhang gibt zwischen einem Fehler im Schiebedach und einem Ausfall des Einparkassistenten. Zum anderen wollen sich Unternehmen über Vorhersagen Wettbewerbsvorteile erarbeiten, indem sie möglichst früh erkennen, welche Markttrends entstehen. Für das Management ist oftmals die Frage nach dem gestern interessant: Was ist warum passiert, und wer steht für die Folgen ein? Das Heute betrifft das operative Geschäft: Am Check-in Schalter einer Airline entscheidet das System, dass der Kunde mit dem höchsten Potenzial ein Upgrade bekommt. Die Frage nach dem Morgen hilft bei der Entwicklung der künftigen Unternehmensstrategie.

Banken, Versicherungen und Telekommunikationsanbieter waren die ersten Branchen, die Predictive-Tools einsetzten. Welche Industrien sind heute dazugekommen?

Predictive Analytics ist heute in allen Branchen allgegenwärtig, und das reicht bis ins Privatleben. Wenn ein Kunde bei einem Online-Händler einkauft, bekommt er über Predictive Analytics Komplementärprodukte empfohlen. Die Stadt Kopenhagen nutzt Predictive Analytics für die Verkehrssteuerung, um Staus zu vermeiden. Ein ganz wesentlicher Anwendungsfall ist die Optimierung der Produktion und die Qualitätssicherung. PKW-Hersteller wollen beim Gießen eines Motorblocks frühzeitig Fehler und Ausschuss erkennen, um Gewährleistungsfälle zu reduzieren. Fluggesellschaften setzen Analytics ein, um ein Triebwerk vorausschauend zu warten und im Idealfall länger als bisher möglich sicher zu betreiben.

Business Process Intelligence bezeichnet den Versuch laufende Geschäftsprozesse über Prognosen zu optimieren. Baut auch IBM Prognoseergebnisse direkt in Geschäftsprozesse ein?

Ja, und genau darum geht es bei der Betrachtung von gestern – heute –morgen. Heute, das ist das operative Geschäft. Jetzt wird der Motorblock gegossen, und das Unternehmen möchte frühestmöglich wissen, ob er fehlerhaft ist. Jetzt ruft der Kunde im Callcenter an, und der Betreuer will ihm ein Komplementärprodukt verkaufen. Jetzt ist der Airliner unterwegs, und im Triebwerk entsteht eine Konstellation, die mittelfristig einen Defekt nach sich zieht. Direkt nach der Landung weiß die Wartungs-Crew, welches Teil sie auswechseln muss. Der Callcenter-Agent erhält seine Produktempfehlung in Echtzeit, und in der Produktionsstraße wissen die Monteure sofort, dass ein bestimmtes Teil nicht zu gebrauchen ist.

Was sind die größten Herausforderungen, denen sich die Unternehmen beim Einsatz von Predictive Analytics gegenüber sehen?

Der Fortschritt in der IT hat dafür gesorgt, dass die technischen Herausforderungen lange nicht mehr so hoch sind wie noch vor einigen Jahren. Die steigende Prozessorgeschwindigkeit und wachsende Kapazität zur Datenspeicherung haben viele Hürden beseitigt. Technik alleine reicht aber nicht aus. Wenn Predictive Analytics Projekte heute in Schieflage geraten, liegt es in den meisten Fällen daran, dass Unternehmen nicht von einem Business Case oder einem zu lösenden Problem ausgehen, sondern von den technischen Möglichkeiten. Die Frage lautet dann nicht, wie beispielsweise ein Bauteil in optimaler Qualität produziert wird. Stattdessen versuchen problematische Analytics-Projekte, quasi aufs Geratewohl Zusammenhänge in Daten zu finden und daraus einen Business Case zu erzeugen.

Wie sieht es mit der Datenqualität aus? Wenn die Daten nur lückenhaft oder in nicht abgeglichenen Formaten vorliegen, lässt sich daraus schlecht etwas ableiten.

Das stimmt. Die Unternehmen haben einerseits große Datenmengen, verfügen aber dennoch nicht immer über alle Daten, die sie gerne hätten. Wenn es um Predictive Maintenance geht, sind beispielsweise Sensordaten nicht immer und zu jeder Zeit verfügbar. Sensordaten entschärfen das Problem der Datenqualität, denn sie beruhen auf regelmäßigen und stets exakten Messungen. Bei Kundendaten hingegen besteht in vielen Unternehmen leider immer noch das Problem unterschiedlicher Schreibweisen von Namen und Adressen oder von Drehern in Postleitzahlen, dass durch menschliche Eingabefehler entsteht.

IBM liefert vorgefertigten Content für BI-Systeme. Was sind dabei ihre Zielbranchen?

Hier nenne ich drei Beispiele, wo wir paketierte Lösungen anbieten, die sich mit geringem Aufwand einführen lassen. Das erste betrifft das Rechenzentrumsmanagement. Hier liefern wir mit Capactiy Management Analyticseine vorgefertigte Lösung, um die Auslastung und die Performance in Mainframe-Umgebungen und Distributed Systemen kontinuierlich zu überwachen. Das zweite Beispiel ist Predictive Customer Intelligence. Hierbei versuchen wir, aus den Daten des Kunden und den generellen Markttrends zu prognostizieren, auf welche Angebote ein Kunde positiv reagiert. Das dritte Beispiel betrifft Predictive Maintenance and Quality. Hier geht es darum, über das Auswerten von Sensordaten die Qualität in der Produktion zu erhöhen, und über vorausschauende Wartung die Ausfallzeiten von Maschinen zu reduzieren.

Viele Unternehmen sehen sich zunächst die Predictive-Analytics-Lösung ihres ERP-Lieferanten an, weil sie beispielsweise auf eine einfachere Integration hoffen. Spezialanbieter wie SAS Institute versuchen andererseits, über eine bessere Funktionalität zu punkten. Wie stellt sich IBM hier auf?

IBM ist im weitesten Sinne auch ein Spezialanbieter. Wir sehen SAS Institute als Wettbewerber – und zwar wesentlich mehr als die Standardsoftwerker. Ich glaube nämlich nicht, dass die ERP-Hersteller in Sachen Predictive Analytics in einer herausgehobenen Stellung sind. Die meisten für die Analyse benötigten Daten, also beispielsweise Sensordaten, Beschwerde-E-Mails oder Informationen über die Server-Auslastung, befinden sich nicht im ERP-System und werden auch künftig dort nicht hineinkommen. Das einzige, was ein ERP-System über einen Kunden weiß, sind die Verträge, die er abgeschlossen und die Rechnungen, die er bezahlt hat. Alle anderen Daten liegen in anderen Systemen. Deshalb erzielen reine ERP-Auswertungen auch so wenige Wettbewerbsvorteile

SAP baut Predictive Funktionen beispielsweise in das CRM-Modul ein und spricht dann über Handlungsempfehlungen Anwender ohne tiefe Statistik-Kenntnisse an. Welche Angebote hat IBM für statistik-unerfahrene Anwender?

Es gibt heute überhaupt keine Analyse-Applikation mehr, die sich ausschließlich an Statistik-Experten wendet. Sämtliche Anbieter nutzen Algorithmen, die Nicht-Statistikern Handlungsempfehlungen geben. Die Konzepte der Hersteller unterscheiden sich eher vom Vorgehen her als von der Technik.

SAP setzt bei Predictive Analytics stark auf In-Memory. IBM hat hier Netezza zugekauft. Wie stark setzt IBM auf In-Memory, und wie kombinieren Sie diese Technologie mit anderen Verfahren?

In Memory ist für IBM eine absolut strategische Technologie. Wir haben nicht nur Netezza, sondern auch TM1 und DB2 Blue, eine der schnellsten In Memory-Datenbanken der Welt. Geht es allerdings um Big Data, stellt In Memory nicht das Patentrezept dar. Terabytes an Daten wird kaum jemand in den Hauptspeicher laden. IBM nutzt daher neben In Memory auch das In Database Processing. Wir führen die Algorithmen direkt auf den Daten aus, und zwar dort, wo sie liegen. Das spart Kopiervorgänge und damit Zeit.

SAS Institute lässt seine Algorithmen direkt in SAP HANA laufen, um sofort in Transaktionen eingreifen zu können. Plant IBM so etwas auch?

Auch wir haben die Möglichkeit, dass wie Algorithmen über unsere Deployment Services in verschiedenen Applikationen laufen lassen. Das muss nicht notwendigerweise SAP HANA sein. Das kann auch ein ERP-System oder die Anwendung selbst sein. Es gibt viele Fälle, in denen die Algorithmen besser nicht in der Datenbank laufen. sondern direkt in der Anwendung. Beim Check-in am Flughafen beispielsweise weiß die Anwendung, dass sie drei Kunden upgraden kann. Da besteht gar keine Notwendigkeit, die Daten von Millionen Kunden der Fluggesellschaften zu durchsuchen, denn die stehen ja nicht am Schalter. Anders sieht die Sache aus, wenn ein Unternehmen die am besten geeigneten Empfänger für ein Massen-Mailing selektiert. Dann laufen unsere Algorithmen in der Datenbank und liefern die Ergebnismengen zurück.

Wie steht IBM bei Predictive Analytics zum Thema Cloud-Lösungen?

Eine ganze Reihe unserer Analytics-Lösungen läuft in der Cloud. Auf unserem Cloud-Marktplatz finden Sie Analytics-Lösungen für verschiedene Unternehmensfunktionen, von der Finanzabteilung, über Marketing und Vertrieb bis hin zur Personalabteilung. Unsere Applikation für Social Media Analytics beispielsweise, außerdem Cognos 10, eine Variante der Datenbank DB2sowie Watson Analytics. All unsere Entwicklungen laufen Cloud-zentriert und wo immer sinnvoll auch auf mobilen Endgeräten. Die Ausgestaltung der Cloud, also Public – , Hybrid – oder Private Cloud ist eine ganz andere Frage, die sich unter anderem an dem vom Kunden geforderten Niveau des Datenschutzes orientiert.

Welchen Kundentypus sprechen Sie mit ihren Predictive-Lösungen an: eher Großunternehmen oder auch den Mittelstand?

Größe ist nicht der richtige Ansatzpunkt, wenn es um die Definition der Unternehmen geht, die Predictive Analytics nutzen. Viel wichtiger ist die Datenintensität des Geschäfts. Im Online-Business beispielsweise haben auch kleine Unternehmen sehr große Datenmengen, und ohne eine tiefgehende Kundenkenntnis können Sie kaum noch sinnvoll Geschäfte betreiben. Predictive Analytics ist hierbei neben Social Media Analytics ein wesentlicher Erfolgsbaustein. Unsere Predictive Maintenance Lösungen für vorausschauende Wartung und Qualitätssicherung in der Produktion sind für auch Hidden Champions aus dem Mittelstand interessant, die ihre Maschinen und Anlagen in die ganze Welt exportieren.

Wie lauten die Empfehlungen für Unternehmen, die Predictive Analytics einsteigen wollen?

Das erste und zentrale Gebot lautet: Man muss mit einem Business Case beginnen, mit einer Notwendigkeit, welche die Fachbereiche anerkennen oder sogar selbst formuliert haben. Alles andere ist nachgelagert. Im heutigen Wettbewerb geht ohne Analysen fast gar nichts mehr. Die Unternehmen sollten die Analysen auf Bereiche fokussieren, die in ihrer Branche entscheidende Vorteile bringen. Wer mit Predictive Analytics startet, sollte einen Partner wählen, der in der jeweiligen Branche bereits ähnliche Projekte begleitet hat. IBM arbeitet hier mit Partnern zusammen, die Branchenlösungen mit vordefinierten Inhalten anbieten. jf

Anzeige

Titel_BI_Guide_2013_2014.inddis report Business Intelligence Guide 2013

Bestellen können Sie diese Standardreferenz für den BI-Markt telefonisch unter 089/90 48 62 10 und per E-Mail unter eantritter@isreport.de

Über Beteiligungsmöglichkeiten informiert Sie Herr Raupach unter 089/90 48 62 30 oder sRaupach@isreport.de

Hier finden Sie den Guide kostenlos als E-Paper.

 

Kommentare sind deaktiviert