Das digitale Universum wächst jedes Jahr um 40 Prozent und mit ihm die Bedeutung von Datensätzen für Geschäftsprozesse und Entscheidungen. Lag das jährlich generierte Datenvolumen 2013 noch bei 4,4 Zettabyte geht eine Studie der EMC in Kooperation mit dem Marktanalysten IDC bis zum Jahr 2020 von der zehnfachen Menge aus.
“Information ist das Öl des 21. Jahrhunderts, und Analytics der Verbrennungsmotor, der damit läuft” – die viel zitierte Metapher des Gartner-Managers Peter Sondergaard skizziert die Herausforderung, die die massive Datenflut mit sich bringt. Um an die begehrten Informationen zu gelangen, müssen Unternahmen lernen, Rohdaten effektiv zu verarbeiten und das Wesentliche zu extrahieren. Während Branchen wie die Automobilindustrie und der Bankensektor schon heute auf fortschrittliche Datenanalysen setzen, um den größtmöglichen Nutzen aus den Informationen zu ziehen, die Big Data ihnen bietet, tun sich vor allem die kleinen und mittleren Unternehmen in Deutschland schwer, entsprechende Datenstrategien zu etablieren.
Die Datenflut zwingt zur Automatisierung informationsanalytischer Prozesse
Schon heute sammeln Unternehmen eine Vielzahl an Kundendaten. Doch das ist nur die Spitze des Eisbergs. Moderne technische Entwicklungen wie das Internet der Dinge und die damit einhergehende Verbreitung von vernetzten Produkten und softwarebasierten Geschäftsmodellen werden Unternehmen künftig mit einer Datenflut konfrontieren, die eine manuelle Analyse mit Excel-Tabellen und Access-Datenbanken unmöglich macht. Wer die Kontrolle behalten möchte, muss seine IT-Infrastruktur hinterfragen. Hier rückt Business Intelligence (BI) in den Mittelpunkt. Um strategische oder operative Entscheidungen auch künftig auf Basis von Daten treffen zu können, sind Unternehmen auf die Automatisierung informationsanalytischer Prozesse angewiesen. Entsprechende Tools, die früher nur für Großunternehmen erschwinglich waren, stehen heute auch kleinen und mittleren Unternehmen zur Verfügung.
Parallel zum Bedarf ist der Markt für BI-Lösungen in den vergangenen Jahren stark gewachsen. Zukunftsfähig sind vor allem benutzerfreundliche Technologien für browserbasierte Analysen. Visualisierungstools wie Datapine ermöglichen es, die Ergebnisse geschäftsrelevanter Auswertungen einem großen Personenkreis zugänglich zu machen. So können Produktionsleiter, Lieferkettenverantwortliche oder Vertriebsmitarbeiter Geschäftsfragen auch dann ad hoc beantworten, wenn sie keine fundierten Kenntnisse im Bereich IT oder Data Science aufweisen. Der cloudbasierte BI-Dienst ermöglicht einen einfachen Einstieg in die professionelle Datenanalyse. Importieren lassen sich Informationen aus Datenbanksystemen wie MySQL und PostgreSQL sowie aus Google Analystics oder CSV-Dateien.
Großunternehmen gehen das Thema Big Data aktiver an
Daten sind zum Rohstoff geworden. Kompetent analysiert, bieten gesammelte Informationen einem Unternehmen die Möglichkeit, Wünsche und Bedürfnisse des Kundenstamms einzuschätzen und diese Erkenntnisse in Produktionsprozesse einfließen zu lassen. Das Potenzial von Big Data ist auch in der deutschen Unternehmenslandschaft bekannt. Das zeigt die repräsentative Umfrage “Mit Daten Werte schaffen – Report 2015” der Wirtschaftsprüfungs- und Beratungsgesellschaft KPMG in Kooperation mit dem Branchenverband Bitkom. Demnach treffen drei von vier Unternehmen relevante Entscheidungen zunehmend auf der Basis einer Analyse ihrer Datenbestände. 61 Prozent betrachten die Datenanalyse dabei als entscheidenden Baustein der Wertschöpfung.
Auffällig ist jedoch, dass die Umsetzung effizienter Datenstrategien in kleinen und mittleren Betrieben zögerlicher voranschreitet als in großen Unternehmen. Das bestätigt auch der Blick auf die Erfolgsaussichten von automatisierten Datenanalysen. Hier zeigt sich, dass drei Viertel der befragten Großunternehmen ab 2.000 Mitarbeitern angeben, einen Nutzen aus ihren Analyseprozessen zu ziehen. Bei Betrieben mit weniger als 500 Mitarbeitern waren es lediglich 44 Prozent. Die Studie hebt zudem hervor, dass nur wenige Unternehmen in Deutschland das volle Potenzial ausschöpfen, dass Big Data ihnen bietet. So analysieren deutsche Unternehmen derzeit vor allem intern vorliegende Unternehmens- und Kundendaten. Externe Daten bleiben der Studie zufolge weitgehend unbeachtet. Bei der Umsetzung von Datenstrategien zielt die deutsche Wirtschaft vorrangig auf Effizienz- und Umsatzsteigerung ab. Der KPMG-Studie zufolge gaben 61 Prozent der befragten Unternehmen an, mit Datenanalysen Umsatzziele zu verfolge. Auf eine Steigerung der Effizienz haben es 55 Prozent abgesehen. Als weniger relevant wird die Minimierung von Risiken mittels Datenanalysen eingestuft. Ein solches Ziel spielt nur bei 48 Prozent der Befragten eine Rolle.
Als hemmende Faktoren für die Integration automatisierter informationsanalytischer Prozesse konnten die Marktforscher neben Budgetbedenken vor allem Datenschutzthemen und rechtliche Unklarheiten ausmachen. Viele Unternehmen wissen schlichtweg nicht, was sie mit den gesammelten Daten tun dürfen. Zudem fürchten sie öffentliche Kritik. So meldeten 74 Prozent der befragten Unternehmen Bedenken bei der Weitergabe von Daten an Drittanbieter an. Für Dienstleister im Bereich Datenanalyse und Business Intelligence ergibt sich hier die Herausforderung, Ängste abzubauen und Vertrauen zu schaffen.