Big Data
20.01.2017
Big Data Analytics
1. Teil: „Big Data bietet KMUs große Chancen“

Big Data bietet KMUs große Chancen

Big Data AnalyticBig Data AnalyticBig Data Analytic
Fotolia / Oez
Vielen Firmen fällt es schwer, Nutzen und Aufwand von Big Data Analytics abzuschätzen. Entgegen landläufiger Meinung können gerade KMUs von der Technologie profitieren.
Die systematische Analyse aller Daten eines Unternehmens liefert zunehmend die Grundlage für viele strategische Entscheidungen. Daten können einerseits das unternehmerische Bauchgefühl untermauern, andererseits erlauben sie es, Vermutungen über künftige Geschäftsentwicklungen auf den Prüfstand zu stellen. Die gute Nachricht: Die meisten Unternehmen verfügen bereits über hinreichende Daten (zum Beispiel Verkaufszahlen, Kundeninformationen, Branchenentwicklungen, Konkurrenzbeobachtung) oder können diese mit vernünftigem Aufwand verfügbar machen.
Der Einstieg in eine Big-Data-Strategie setzt jedoch eine grundsätzliche Auseinandersetzung mit den Themen Datensammlung und Datenauswertung voraus: Welche Art der Datenanalyse ist relevant? Welche unternehmenskulturellen Änderungen sind notwendig? Welche Ressourcen müssen aufgebaut und in welche IT-Infrastrukturen soll investiert werden? Die Antworten auf diese Fragen verlangen nach Interdisziplinarität und neuen Denkansätzen.

Das Potenzial der Daten

Schon eine punktuelle Beobachtung der Daten liefert Informationen über Marktverhältnisse und Kundenbedürfnisse. Noch aussagekräftiger sind Analysen über längere Zeit. Sucht man in den verfügbaren Daten nach sogenannten schwachen Signalen, das heißt den ersten Anzeichen von Veränderungen, lassen sich frühzeitig Trends erkennen. Die Analyse der Daten ist also eine wertvolle Ideenquelle für Innovationen, nah am Markt zu entwickelnde Produkte oder ganz neue Geschäftschancen. Außerdem können datenbasierte Einsichten zur Vereinfachung von Prozessen beitragen und somit zu Kosteneinsparungen führen. Die systematische Analyse von Unternehmensdaten ist auch eine wichtige Voraussetzung, um bei der fortschreitenden Digitalisierung mithalten zu können. In welche Richtung die Trends der Zukunft gehen werden und wie ein Unternehmen darauf reagieren und diese nutzen kann, sollte aufgrund solider Daten bestimmt werden.
In einem ersten Schritt ist es deshalb für ein Unternehmen wichtig, sich einen fundierten Überblick über die vorhandenen Daten zu erarbeiten und die gezielte Erhebung weiterer Daten zu definieren. In vielen Start-ups werden Daten schon heute ausschließlich digital erhoben. Traditionelle Firmen tun sich dabei schwerer. Sie sollten zwar nicht auf die gewohnten Finanz- und Marktdaten verzichten, aber zusätzlich digitale Daten erheben und auswerten. Dies kann etwa durch die Messung webbasierter Aktivitäten der Kunden erfolgen. Die daraus abgeleiteten Maßnahmen führen wiederum zu einer verbesserten User-Experience und damit zu mehr Klicks.
Um in die Welt der Datenanalyse einzusteigen, sind weder große Investitionen in IT-In­frastruktur noch hochspezialisierte Fachkräfte notwendig. Entscheidend ist jedoch, ein Bewusstsein über die Bedeutung von Daten und deren Nutzen im Unternehmen zu verankern. Oft erfordert dies einen kulturellen Wandel, der zuerst beim Unternehmer beziehungsweise der Geschäftsleitung stattfinden und danach den Mitarbeitern vermittelt werden muss. Geschäftsleiter – insbesondere, wenn sie selbst Gründer oder Eigentümer sind – neigen oft dazu, ihrer Intuition zu trauen, die auf jahrelanger Erfahrung gründet.
Ändert sich ein Unternehmen schnell durch Wachstum oder verändern sich die Rahmenbedingungen, so verliert das Erfahrungswissen seine Gültigkeit. Spätestens dann sollte es mit fundierter Datenanalyse ergänzt werden. Die so generierten Frühwarnindikatoren machen die Anzeichen tief greifender Veränderungen überhaupt erst erkennbar.
2. Teil: „Klar definierte Fragestellungen“

Klar definierte Fragestellungen

Ein weiterer sinnvoller Schritt ist die statistische Auswertung der verfügbaren Daten, um die Annahmen der Geschäftsleitung über die Gegenwart und Zukunft des Geschäfts zu hinterfragen. Dazu müssen die Annahmen zuerst explizit formuliert werden. Bei der Konkretisierung helfen Fragen wie: Welche Kunden kaufen welche Produkte? Wie haben sich die Kunden und ihre Bedürfnisse verändert? Welche Wirkungen und Signifikanz können bei getroffenen Maßnahmen nachgewiesen werden? Grundsätzlich sollte ein Unternehmen zunächst eine konkrete, geschäftsrelevante Fragestellung definieren. Das verhindert, dass an den Daten „herumgebastelt“ beziehungsweise so lange mit ihnen jongliert wird, bis etwas herauskommt.
Die Tragweite der Erkenntnisse darf nicht unterschätzt werden, da sie zur Verwerfung etablierter Annahmen bis hin zur Überarbeitung der Unternehmensstrategie führen können. Sowohl die Datenanalyse als auch die Umsetzung der Erkenntnisse erfordern die aktive Unterstützung der Geschäftsleitung. Die Erkenntnisse müssen jedoch nicht unmittelbar eine Revolution auslösen. Im Gegenteil: Die Geschäftsleitung sollte mit kleineren Initiativen beginnen.
Big Data
Roadmap für KMUs
  • Ein Unternehmen sollte mit klar umrissenen, kleinen und einfachen Projekten beginnen, um ein Bewusstsein für den Nutzen der eigenen Daten zu entwickeln und das große Potenzial der Datenanalyse sichtbar zu machen.
  • Ziele müssen eindeutig definiert werden.
  • Beginnen Sie mit kostengünstigen Tools, um die Anfangskosten tief zu halten. Im Lauf der Zeit können die Tools nach Bedarf erweitert werden.
  • Weitreichende strategische Entscheidungen sollten nicht auf ersten Erkenntnissen, sondern auf der Grundlage fundierter Datenanalysen und weiterer Tests getroffen werden.
  • Sind die ersten Projekte erfolgreich, kann eigenes Know-how aufgebaut werden – zum Beispiel in einem Projekt-Team, das interdisziplinär zusammengesetzt ist, Ideen schnell und agil umsetzt und eine konstruktive Kommunikation im Team und zu anderen Bereichen fördert.
Das erste Projekt muss besonders sorgfältig geplant werden. Die Widerstände fallen nämlich genau dann stark aus, wenn etablierte Annahmen gekippt und bestehende Geschäftsmodelle umgekrempelt werden. Deswegen empfiehlt es sich, das Ziel des Projekts sinnvoll einzugrenzen. Auch sollten Performance-Kriterien festgelegt werden, um die Ergebnisse objektiv messen zu können. Statt vorschnell den großen Wurf landen zu wollen, ist es oft sinnvoller, auf „low hanging fruits“ abzuzielen und schnell umsetzbare Ergebnisse zu generieren. So können die Vorteile solcher Projekte innerhalb des Unternehmens hervorgehoben werden. Verbesserungen folgen dann in einem weiteren Projekt. Parallel dazu sollte die Geschäftsleitung stets die Vorteile des Wandels sowie die Risiken des Status quo aufzeigen. Die Daten liefern dafür die Fakten und dienen dazu, falsche Sicherheiten aus dem Weg zu räumen.

Ressourcen- & Kompetenzaufbau

Sobald klar wird, dass der erste Versuchsballon erfolgreich ist, kann die Datenanalyse umfassender verankert werden. Das Unternehmen sollte sich dann sukzessive entsprechende Fähigkeiten aneignen und Ressourcen aufbauen, um die Analyse auf andere Bereiche des Unternehmens auszudehnen. Den Einbezug externer Experten in frühen Phasen kann man in Betracht ziehen, um die Anlaufzeit zu reduzieren. Mittelfristig ist der Aufbau interner Ressourcen jedoch sinnvoll, da so das teilweise kritische Wissen in die Firma eingebunden bleibt. Der Ressourcenumfang hängt von der Unternehmensgröße ab. KMUs können mit einem Teilpensum anfangen. Da bei größeren Unternehmen oft verhältnismäßig höhere Datenvolumina und größere Komplexität bestehen, kann die Etablierung eines kleinen interdisziplinären Teams sinnvoll sein.
Der Aufbau eines Data-Teams beinhaltet drei typische Kompetenzprofile. Data Scientists beschäftigen sich mit statistischen Auswertungen, um Einsichten zu generieren. Data Engineers sind für die Erhebung der Daten und deren Bereitstellung für die Analyse zuständig. Der Business Intelligence kommt ebenfalls eine kritische Rolle zu. Diese Funktion wirkt als Vermittler und Übersetzer zwischen den eher wissenschaftlich orientierten Data Scientists, den Data Engineers und der Geschäftswelt innerhalb und außerhalb des Unternehmens. Sie stellt somit die Verbindung zum Alltagsgeschäft her sowie den Kontakt zu anderen Unternehmensfunktionen wie Marketing und Vertrieb. Grundsätzlich geht es darum, die Fragestellungen für alle Seiten klar zu formulieren. Nur dann können Daten sinnvoll selektiert und analysiert werden.
3. Teil: „Interdisziplinäre Kommunikation“

Interdisziplinäre Kommunikation

Eine Herausforderung ist die Kommunikation zwischen den Spezialisten, denn alle Beteiligten bringen unterschiedliche fachliche Perspektiven ein. Die Schwierigkeiten werden umso größer, je mehr Unternehmensfunktionen involviert sind. Übersetzer, das heißt Experten, die sowohl technisches als auch wirtschaftliches Know-how haben, formulieren die Anforderungen und Fragen der Business-Seite für die Datenanalyse-Experten um, damit diese ihren Auftrag erfüllen können.
Gleichermaßen ist es die Aufgabe der Übersetzer, der Business-Seite die technischen Möglichkeiten und Voraussetzungen zu erläutern und aufzuzeigen. Schwierigkeiten im gegenseitigen Verständnis können sich in der Suche nach gangbaren Kompromissen zwischen der Komplexität der Lösungen und deren Nutzbarkeit im Alltagsgeschäft niederschlagen. Beispielsweise werden hin und wieder Produkte oder Dienstleistungen entwickelt, die die Anforderungen von Produktion und Vertrieb übersteigen und damit Kosten verursachen, die zu höheren Preisen führen und die Zahlungsbereitschaft der Kunden überstrapazieren. Hingegen führt ein fehlendes Verständnis der technischen Möglichkeiten zu einer falschen Erwartungshaltung und kann Enttäuschungen über ein Analyse-Ergebnis auslösen, mit der Konsequenz, dass das entsprechende Big-Data-Projekt als gescheitert betrachtet wird.
Eine für alle verständliche Kommunikation ist bei so stark diversifizierten Teams, wie es die Umsetzung mittels Datenanalyse verlangt, unabdingbar. Sie stellt sicher, dass die ersten Schritte in der Welt der Big-Data-Analyse erfolgreich verlaufen und dass bei der Entwicklung von Lösungen die Wirtschaftlichkeit nicht aus dem Auge verloren wird.

Kostengünstige Tools

Es ist weder sinnvoll noch notwendig, sich gleich zu Beginn eine Vielzahl an kostspieligen Applikationen zuzulegen. Es gibt genügend kostengünstige Software für einfache bis hin zu komplexen Analysen. Für rechenintensive Operationen empfehlen sich cloudbasierte Angebote, die ohne hohe Anfangsinvestitionen große Rechen- oder Speicherkapazitäten zur Verfügung stellen. Ein Umstieg auf spezifische Tools und  auch auf eigene Speicher- und Rechenkapazitäten ist später noch möglich. Die typischen Herausforderungen technischer Natur sind vor allem die Kompatibilität zwischen den Technologien, der Analyse- und Speicher-Software sowie zwischen den Prototypen des Datenanalyseprogramms, den folgenden Implementierungen und dem betriebsfertigen Programm.
Außerdem müssen Ressourcen entsprechend geplant werden, damit der gesamte Datenanalyseprozess in den Innovationsfluss eingebunden ist. Weitere Anforderungen sind: bestimmte Analysen in Echtzeit durchführen zu können, mit den oft erheblichen Datenmengen und Speicheranforderungen zielgerichtet umzugehen sowie die optimale Abstimmung der Implementierungs- und Verbesserungszyklen sicherzustellen. So weisen verbesserte Programmversionen oft große Unterschiede gegenüber Vorgängerversionen auf. Änderungen müssen nicht nur mit der übrigen Software kompatibel sein, sondern auch die notwendige Akzeptanz und Unterstützung auf allen Ebenen erhalten. Das bedeutet, die betriebsinternen Anwender müssen bereit sein, mit anderen oder modifizierten Programmen zu arbeiten. Auch hier ist die Unterstützung durch die Geschäftsleitung unentbehrlich.

Datenschutz

Vor allem, wenn das Zusammenführen von Daten aus mehreren Quellen Rückschlüsse auf eine Person zulässt, muss den Kunden gegenüber Transparenz herrschen. Auch Opt-out-Möglichkeiten, bei denen der Kunde die Verwendung seiner Daten verweigern kann, sollten explizit angeboten werden. Das Hauptziel hierbei ist es, das Vertrauen des Kunden zu fördern. Gegebenenfalls sind externe Experten hinzuzuziehen, da eine Nachlässigkeit auf diesem Gebiet gravierende Folgen haben kann.
Hintergrund
Konzept
Der Beitrag beruht auf einer interdisziplinären Zusammenarbeit des Laboratory for Web Science (LWS) und des Instituts für Management & Innovation (IMI) der Fernfachhochschule Schweiz (FFHS). Ziel ist es, die technischen Aspekte von Data Science mit der wirtschaftlichen Perspektive des Innovationsmanagements zu verbinden.
Autoren
Dr. Beatrice Paoli (Institutsleiterin) und Dr. Monika Laner führen am LWS anwendungsorientierte Forschungen zu
Data Science, Machine Learning, Recommender Systems, Netzwerkanalyse und Learning Analytics durch. Dr. Hagen Worch (Forschungsfeldleiter) und Dr. Andrea L. Sablone beschäftigen sich am IMI vorwiegend mit Strategie und Innovationsmanagement für KMUs sowie Entrepreneurship.
Experten
Um der Frage nachzugehen, wie KMUs in die Datenanalyse und Big Data einsteigen können, sprachen die Autoren mit Marcel Blattner, Chief Data Scientist der Mediengruppe
Tamedia Digital, und Frank Block, Chief Data Scientist des Online-Marktplatzes ricardo.ch.

mehr zum Thema