Business Intelligence bedeutet per Definition die systematische Analyse von Unternehmensdaten, um Erkenntnisse zu gewinnen, die schnell bessere operative oder strategische Entscheidungen ermöglichen. Soweit die Theorie. Schaut man sich jedoch in der Praxis um, stösst man immer wieder auf BI-Projekte, die langwierig, zäh und teuer sind und die bei weitem nicht das halten, was sie ursprünglich einmal versprochen haben.
Und obwohl schon lange die Rede davon ist, die Fachabteilungen zur Durchführung ihrer eigenen Datenanalysen autark werden zu lassen (Self-Service-BI), steht in der Praxis vielfach noch immer vor der Auswertung der Daten erst einmal die Abstimmung mit der IT-Abteilung. Dort muss ein Experte die entsprechende Programmierung oder Anpassung des Datenmodells durchführen, bevor der Fachanwender seine Analyse beginnen oder fortsetzen kann.
Business Intelligence als „Suchmaschine“
Allein schon diese Tatsache ist das genaue Gegenteil von dem, was die auf Agilität und Kosteneffizienz bedachten Unternehmen wollen: nicht auf andere warten, sondern mühelos Erkenntnisse gewinnen und Veränderungen schnell implementieren. Zum Beispiel dann, wenn sich Parameter wie Einkaufspreise, Volumen, Kundenverhalten etc. im Berichtszeitraum ändern.
Die meisten Firmen wollen ihre Daten genauer, besser und in kürzester Zeit analysieren, und zwar quer durch alle Abteilungen und standortübergreifend. Besonders anwenderorientiert ist es deshalb, wenn die BI-Lösung ähnlich einer Suchmaschine alle vorhandenen Daten „vernetzt“ und dabei bestimmte Muster und Auffälligkeiten automatisch erkennt. Idealerweise lassen sich die Unternehmensdaten für diese Analysen auch mit externen Informationen (Benchmark-, Markt-, Social-Media-Daten etc.) verknüpfen und somit in ihrer Aussagekraft anreichern.
Self-Service-BI ist nicht gleich Self-Service-BI
Der Begriff Self-Service-BI wird oft genutzt – aber häufig doch nur auf den reinen Aspekt des interaktiven Front-Ends reduziert. Solange Self-Service sich aber nicht von A-Z versteht, also von dem Beginn der Datenversorgung des BI-Systems über das Metadatenmanagement, die Kennzahlenverwaltung, die Analyse auf Einzeldatenebene bis hin zur Publizierung auf verschiedenen ortsgebundenen und mobilen Endgeräten, kann von Flexibilität im täglichen Umgang mit den BI-Anwendungen noch lange keine Rede sein.
Auch die Datenspeicherung macht hierbei einen großen Unterschied: im Idealfall sollten die Daten „in-memory“, also im Arbeitsspeicher des Servers vorgehalten werden, da dies die Zugriffsgeschwindigkeit auf die Daten deutlich erhöht. Sehr schnelle Antwortzeiten auch bei ein paar Milliarden Einzeldatensätzen sind hierbei problemlos erreichbar und damit auch bei „Big Data“-Analysen realistisch: von der ersten Abfrage-Idee bis zur fertigen Auswertung in wenigen Sekunden.
Hohe Freiheitsgrade und Performance
Auf Basis einer hohen technischen und prozessualen Performance kann der Anwender enorme Freiheitsgrade erreichen; im Idealfall reicht das von der Datenintegration ohne Skriptkenntnisse über freie ad hoc-Analysen bis hin zur Erstellung individueller Dashboards. Er kann die Daten selbst analysieren und erhält zudem Hinweise auf Auffälligkeiten, Zusammenhänge und Muster in den Daten, die er ohne Systemunterstützung in der Regel nicht gesehen hätte. Die Analysen geschehen in so kurzer Zeit, dass sie beispielsweise während eines Meetings gemacht werden können und damit für schnellere unternehmerische Entscheidungen sowie eine erhöhte Effizienz und geringere Kosten im Unternehmen sorgen.
Typische Einsatzgebiete sind beispielsweise Bereiche wie Controlling, Marketing, Vorstandsstabsfunktionen, Vertriebsunterstützung, Unternehmensentwicklung, Produktions- und Wartungscontrolling, Logistik oder Einkauf. Alles Tätigkeitsfelder, in denen sich die potenziellen Datenabfragen häufig ändern können und wo sich oftmals spontane Analysefragestellungen ergeben. Hier sind die Anforderungen in der Regel nicht Wochen oder Monate im Voraus planbar und können demnach nicht als klassischer Standard-Report umgesetzt werden.
BI-Anwendungen haben als strategische Tools deshalb in der Unternehmensführung und gerade für den CFO schon länger einen festen Platz gefunden. Um wettbewerbsrelevante Erkenntnisse zu erhalten, ist es jedoch wichtig, dass die Analysen von den Mitarbeitern der Fachabteilungen selbst durchgeführt werden – und nicht nur von wenigen IT- oder Daten-Experten. In einer sinnvoll und klug aufgesetzten Umgebung lassen sich selbst Milliarden von Daten aus unterschiedlichsten Quellen in schlanke, verständliche und konsumierbare Analysen übersetzen – vorausgesetzt, man hat das richtige Tool und wird durch dieses ohne großen Schulungsaufwand unterstützt.
Info
Benjamin Schulte ist Leiter Consulting Infonea bei Comma Soft in Bonn.
Benjamin.Schulte@comma-soft.com