Trendmonitor 2015: Embedded Analytics – Demokratisierung der Datenanalyse. Trend-Ausblick von Tim Prien

Embedded Analytics – Demokratisierung der Datenanalyse

Tim Prien, © Goldmedia
Tim Prien, © Goldmedia

Komplexe Datenanalysen waren in Unternehmen bislang mit langwierigen Recherchen in Fachpublikationen und Datenbanken verbunden, mit aufwendiger Marktforschung und anschließender Datenaggregation auf Basis multivariater Analysemethoden. Oder, wer es sich leisten konnte, kaufte fertige und entsprechend teure Datensets von Business Intelligence (BI)-Anbietern. Mit dem Siegeszug des Internets und immer professionelleren Front-End-Intelligence-Diensten ist es nun möglich, Reports und Entwicklungsreihen relativ unkompliziert mit einigen Mausklicks selbst zusammenzustellen. Doch der nächste Trend steht mit „Embedded Analytics“ schon vor der Tür.

Anbieter dieser neuen Form der Datenverarbeitung, Datenauswertung und Datenpräsentation versprechen selbst kleinen und mittelständischen Betrieben effiziente Business Intelligence-Datenbanken, die sich bislang nur große Konzerne mit kostspieligen SAP- oder Oracle-Datenbanken leisten konnten. Die Unternehmen setzen dabei vermehrt auf Softwarelösungen, die ohne größeren Aufwand in ihre jeweiligen betrieblichen IT-Systeme oder sogar in Excel eingebettet werden können.

Die für Markt- und Wettbewerbsanalysen notwendigen Daten werden so immer öfter durch dieselben Anbieter mitgeliefert und direkt in die Analysesoftware eingespeist. Das ermöglicht dynamisches Real-Time-Monitoring sowie eine sehr schnelle Erstellung und Modellierung von Reports. Durch weniger aufwendige Datenrecherchen, durch Multi-Device-Zugriff auf die Analyseinstrumente und Datenbanken über die Cloud sind die Zeitersparnisse erheblich. Langfristig zeichnet sich der Trend ab, dass es BI-Unternehmen mit einem All-in-One-Service gibt, welche die Datenanalyse zentral, datenadaptiv und maßgeschneidert für jedes Unternehmen bereitstellen werden.

Skalierbare Technologie wird zum Kerntreiber

2015 könnte Embedded Analytics der Sprung in den Massenmarkt gelingen, da viele notwendige Voraussetzungen erfüllt sein werden: Zum einen die Open-Source-Datenbank­technologien wie HADOOP oder MongoDB, die immer schnellere Abfragen von großen Datenmengen, verteilt auf billiger werdende Computercluster, ermöglichen. Damit einher geht die weitere Automatisierung der Erhebung solcher Big Data-Mengen durch das Internet der Dinge, das mit seinen Sensoren in immer neue Bereiche des Alltags vordringt. Und schließlich zeichnet sich auch eine starke Professionalisierung vieler kleiner und mittelständischer Unternehmen in Deutschland ab – insbesondere einzelner Abteilungen wie Human Resources oder Sales – die vermehrt auf statistische Analysen angewiesen sind, weil dies der Wettbewerb um Kunden, Zulieferer oder Talente von ihnen fordert.

Terrabyte-große Analysen sollen mit drei Mausklicks durchgeführt werden können

Mit Embedded Analytics erlebt der Arbeitsmarkt nicht nur eine Demokratisierung der Datenanalyse, sondern auch die rasche Ausweitung der Anwendungsbereiche. Das Verständnis um Dateninterpretation und Datenabfragen wird mit Produkten wie IBMs Watson Analytics oder anderen adaptiven Analytics-Dienstleistern so weit vereinfacht, dass auch nicht in Statistik geschulte Mitarbeiter umfangreiche Datenmengen auswerten können. Für viele etablierte Dienstleister könnte dies zum Problem werden, da ihre maßgeschneiderten Premium-Lösungen nicht mehr exklusiv bleiben werden. Man kann diese Entwicklung natürlich auch anders sehen: Das kommende Jahr bietet vielen BI-Dienstleistern die Chance, ihre eingebetteten Analyseinstrumente auf einen neuen lukrativen Massenmarkt auszurichten. Die Unternehmen und ihre Entscheider aber werden von der neuen, stets verfügbaren und verbesserten Informationslage profitieren.

Autor: Tim Prien, Consultant Goldmedia GmbH Strategy Consulting

Der Beitrag wurde bei kress.de als Gastbeitrag erstveröffentlicht.

Leave a Reply

Your email address will not be published. Required fields are marked *

sixteen − three =