04.05.2018
Für Unternehmen jeder Größe
1. Teil: „Big Data treibt die Digitalisierung voran“
Big Data treibt die Digitalisierung voran
Autor: Oliver Schonschek
Kapralcev / Shutterstock.com
Von Analytics-Lösungen können alle Branchen und Unternehmen jeder Größe profitieren. Dennoch zeigen sich speziell deutsche Firmen beim Einsatz von Big Data eher zurückhaltend.
Big Data ist der Schlüssel zur Entwicklung innovativer Geschäftsmodelle quer durch alle Branchen und Technologiefelder, meint die Vereinigung der Bayerischen Wirtschaft, und so überrascht es nicht, dass Big Data auch 2018 zu den Top-Themen in der Digitalbranche gehört, wie das Branchenbarometer des Digitalverbands Bitkom ausweist.
Doch obwohl Big Data als das neue Öl der digitalen Wirtschaft gilt, sind die Unternehmen noch zurückhaltend bei der Nutzung der damit verbundenen Technologien: Nur 15 Prozent der von Bitkom befragten Vorstände und Geschäftsführer sehen deutsche Unternehmen weltweit als führend oder in der Spitzengruppe, wenn es um Big Data geht. 37 Prozent halten Deutschland im internationalen Vergleich sogar für abgeschlagen. Dabei warnt Bitkom-Präsident Achim Berg zu Recht: „Niemand, der auch morgen noch Geschäft machen will, kann es sich heute leisten, auf Zukunftstechnologien zu verzichten.“
Es ist also höchste Zeit für eine Big-Data-Strategie, abhängig von der Branche, der Unternehmensgröße und den individuellen Unternehmenszielen.
Big Data für jede Branche
Aktuell variiert die Nutzung von Big Data sehr stark von Branche zu Branche, wie die Capgemini-Studie „IT-Trends 2017“ zeigte:
- Neue Einnahmequellen durch Big Data suchten mehr als die Hälfte der Energieversorger, im Handel war dies nur bei knapp jedem fünften Unternehmen der Fall.
- Der Handel setzte Big Data vorrangig ein, um Erkenntnisse über Kunden zu gewinnen und Verkaufsstrategien zu optimieren.
- Die Automobilindustrie wiederum konzentrierte sich wesentlich stärker auf die Steigerung der Effizienz als auf das Einkaufs- und Service-Erlebnis ihrer Kunden.
Diese Branchenunterschiede im Einsatz von Big Data bedeuten nicht, dass sich Big Data in bestimmten Branchen weniger lohnt. Die Studie macht nur deutlich, dass die Strategien von Branche zu Branche variieren.
Neben den Unterschieden in den Zielen der Big-Data-Nutzung setzen die Branchen Big-Data-Analysen auch unterschiedlich stark ein. Eine Bitkom-Umfrage ergab 2017 zum Beispiel, dass die Gesundheitswirtschaft in Deutschland Vorreiter bei der Nutzung von Big-Data-Analysen ist (mit 57 Prozent). Es folgen Versicherungen mit 53 Prozent, Automobilbauer mit 51 Prozent, Energie und Maschinenbau mit jeweils 47 Prozent. Diese Unterschiede werden in Zukunft jedoch geringer ausfallen. Die drei größten Vorzüge von Big Data, die das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS für Unternehmen ermittelt hat, können nämlich die meisten Branchen für sich nutzen:
Effizientere Unternehmensführung: Prognosen und Echtzeitanalysen ermöglichen optimierte Abläufe und dienen als Basis für effizientere Strukturen.
Massenindividualisierung: Systeme lernen die Bedürfnisse ihrer Nutzer kennen, sodass in Zukunft weit individuellere Services angeboten werden können.
Intelligentere Produkte: Maschinen mit Big-Data-Intelligenz verarbeiten und kommunizieren große Mengen an Sensordaten selbstständig.
2. Teil: „Big Data im Handel“
Big Data im Handel
Telefónica NEXT, ein Spin-off von Telefónica Deutschland, berechnet zum Beispiel anonymisierte Besucherströme auf Basis der Mobilfunkdaten im Einzugsgebiet von Geschäften. Diese Technologie ist seit Oktober 2017 auch in ausgewählten O2-Shops im Einsatz. Nach der Analyse können Werbetreibende und Händler ihre Kunden datenbasiert dort ansprechen, wo entsprechende Angebote für sie relevant sind.
„Mit unseren Services geben wir stationären Händlern und Marken eine datenbasierte Entscheidungsgrundlage an die Hand, um ihre Zielgruppen genauer zu verstehen und mit relevanteren Botschaften anzusprechen. Das stärkt nicht zuletzt die Innenstädte, wenn sich lokale Geschäfte gegenüber der Online-Konkurrenz besser behaupten können“, erklärt Jens Lappoehn, Geschäftsführer Advanced Data Analytics bei Telefónica NEXT.
Big Data bei Versicherungen
eine tragende Rolle. Munich Re setzt für die Risikoberechnung, unter anderem von Wetter- und Klimarisiken, auf Big-Data-Anwendungen in Microsoft Azure. Bereits seit 2016 bezieht Munich Re Services aus der Microsoft-Cloud, darunter High Performance Computing (HPC) mit Microsoft Azure, Azure-SQL-Datenbanken sowie Azure Cosmos DB.
Die neuen Möglichkeiten der schnellen Datenverarbeitung haben auch den Kreis der Mitarbeiter erweitert, die diese Daten nutzen: Zu den Statistikern und Informatikern kommen bei Munich Re nun auch Business-Analysten hinzu. Zudem arbeiten die Analyse-Experten stärker interdisziplinär mit den verschiedenen wissenschaftlichen Fachrichtungen zusammen und gestalten gemeinsam neue Modelle.
Munich Re nutzt Daten nicht nur für die Berechnung aufwendiger Klimamodelle, sondern zunehmend auch als strategischen Erfolgsfaktor. Die Experten von Munich Re versuchen beispielsweise, Daten und daraus abgeleitete Erkenntnisse noch tiefer auf regionale Ebenen herunterzubrechen und auf Schwellenländer zu übertragen. Damit will Munich Re Unternehmen in diesen Ländern künftig ermöglichen, sich besser gegen finanzielle Risiken aus Naturkatastrophen abzusichern.
3. Teil: „Big Data im Gesundheitswesen“
Big Data im Gesundheitswesen
Die DHL-Studie „The Future of Life Sciences and Healthcare Logistics“ untersuchte die Bedeutung digitaler Technologien für das Gesundheitswesen. Ergebnis: Big Data gibt Gesundheitsanbietern eine bessere Informationsgrundlage für operative Entscheidungen, indem alle Mitglieder eines Gesundheitssystems vernetzt und Daten zusammenführt werden. Das ermöglicht eine bessere Bedarfsplanung und hilft, Logistik und Lieferketten kostengünstiger und effizienter zu machen.
Technologien auf Basis des Internets der Dinge (Internet of Things, IoT), die in Zukunft eine wesentliche Grundlage für Big Data darstellen werden, sorgen für eine größere Transparenz und Vernetzung entlang der Lieferkette bei gleichzeitig besserer Kontrolle der Vorratsbestände. Außerdem erhofft sich die Branche, dass die stärkere Verknüpfung von physischen Produkten und Daten helfen wird, Diebstahl und Fälschungen zu bekämpfen.
Big Data rund ums Auto
Die Automobilhersteller in Deutschland haben erkannt, dass sie für ihre Kunden künftig stärker digitale Serviceleistungen rund ums vernetzte Fahren entwickeln müssen, wie die Studie „Neue Geschäftsmodelle der Automobilindustrie“ der Managementberatung Horváth & Partners ergab. Bislang versäumen die Autohersteller es aber, solche Datendienste selbst anzubieten, während Technologieunternehmen und Start-ups gezielt darauf setzen.
Die Autobranche in Deutschland steht deshalb unter Zugzwang, besagt auch die Lünendonk-Analyse „Status quo der digitalen Transformation in der Automobilindustrie“. „Fast allen OEMs geht es darum, mit Hilfe digitaler Mehrwertservices Kunden zu halten, neue Kundengruppen zu erschließen sowie künftige Erlöse und ihre Wettbewerbsfähigkeit abzusichern. Zu diesem Zweck setzt die Automotive-Industrie bereits sehr stark auf die Analyse von kundenbezogenen Daten“, kommentiert Mario Zillmann, Partner der Lünendonk & Hossenfelder GmbH, die Entwicklung.
Ähnlich sieht dies die Untersuchung „Automotive Manager 2017“ von Oliver Wyman: Für die Autobranche ist Big Data demnach einer der Schlüsseltrends für die Zukunft, so die Studie. Sie schätzt, dass Erfassung, Analyse und Übermittlung von Daten, die während der Fahrt gewonnen werden, für Autokonzerne zu einer zusätzlichen Einnahmequelle von 500 bis 1000 Euro pro Auto werden könnte. Um diesen Umsatz zu heben, müssten sich die Hersteller jedoch entsprechend aufstellen. Denn im Hintergrund lauerten junge, agile, auf Big Data spezialisierte Unternehmen, um den Etablierten dieses Geschäft streitig zu machen.
Für Groß und Klein
Plant ein Unternehmen die Nutzung von Big Data, sollte es darauf achten, dass das Projekt zur eigenen Branche, aber auch zur Größe des Unternehmens passt. Der Digitalverband Bitkom hat untersucht, wie verbreitet Big-Data-Analysen in deutschen Unternehmen sind. Demnach sagten 62 Prozent der Unternehmen mit 500 bis 1999 Mitarbeitern, dass sie bereits Big-Data-Lösungen einsetzen. 2016 waren das erst 44 Prozent. Bei Unternehmen mit mehr als 2000 Mitarbeitern belief sich diese Zahl 2017 auf 61 Prozent gegenüber 60 Prozent im Jahr 2016.
Allein bei den Unternehmen mit 100 bis 499 Mitarbeitern hat die Verbreitung der Big-Data-Anwendungen abgenommen: von 32 Prozent 2016 auf 30 Prozent 2017.
Trotzdem resümiert Axel Pols, Geschäftsführer von Bitkom Research: „Big Data ist längst nicht mehr nur etwas für Big Companies. Entscheidungen im Unternehmen auf Grundlage von Erkenntnissen aus einer großen Menge von Daten zu treffen, wird auch für kleinere Unternehmen immer interessanter“.
4. Teil: „Hemmnisse für Big Data“
Hemmnisse für Big Data
Damit dieses Ziel aber branchenübergreifend und für möglichst alle Unternehmensgrößen Realität wird, müssen noch einige Herausforderungen bewältigt werden, die Unternehmen in Deutschland bislang vom Einsatz von Big Data abhalten oder behindern.
Die von SAP veröffentlichte Studie „Data 2020: State of Big Data“ ergab, dass 86 Prozent der befragten Unternehmen der Meinung sind, dass sie das Potenzial ihrer Daten nicht maximal ausschöpfen können.
Vor allem zwei Gründe machen die befragten Unternehmen dafür verantwortlich:
Isolierte, unzugängliche, fehlerhafte Daten: 50 Prozent gaben an, Daten seien für viele wichtige Stakeholder in ihrem Unternehmen unzugänglich. 79 Prozent meinten, ein einfacher Check ihrer Unternehmensdaten reiche nicht aus, um Datenintegrität herzustellen.
Fehlende Spezialisten: 79 Prozent der Unternehmen nannten Data Scientists als wichtig für den Geschäftserfolg, doch nur 53 Prozent beschäftigen solche derzeit.
Datenschutzes bei Datenanalysen.
Ein ähnliches Bild zeichnet Bitkom Research: Ihrer Untersuchung zufolge haben nur 12 Prozent der befragten 709 Unternehmen eine zentrale Datenanalyse-Strategie. Und nur jedes vierte Unternehmen gibt an, dass seine Mitarbeiter über die Fähigkeiten und Kenntnisse verfügen, um das Unternehmen kontinuierlich mit Datenanalysen voranzutreiben. Auf der anderen Seite haben 61 Prozent Bedenken hinsichtlich des Das ist jedoch nicht alles: Neben den Überlegungen zur Strategie, dem erforderlichen Know-how zu Big Data und einem Datenschutz- und IT-Sicherheitskonzept für Big Data fehlt es bei vielen Unternehmen auch noch an der richtigen Vorbereitung einer Big-Data-Analyse, an der Data Preparation. Bereits in dieser Phase sind mangelndes Know-how und fehlende Budgets die größten Hürden.
Unternehmen bemängeln außerdem, dass derzeit noch zu wenige Fachbereiche Daten tatsächlich effizient und eigenständig aufbereiten können.
„Wie für viele andere Aspekte des Datenmanagements gilt auch für die Datenaufbereitung, dass sie nicht zwischen Tür und Angel erledigt werden kann“, betont Timm Grosser, Senior Analyst bei BARC und Mitautor der Studie. „Man muss sie als wesentlichen Schritt sehen, der zur Wertschöpfung aus Daten beiträgt – kein einmaliges Projekt, das ausgelagert und extern abgewickelt werden kann, sondern eine laufende Anstrengung, die erhebliche Kompetenzen erfordert. Jedes Unternehmen, das Data Preparation ernst nimmt, muss sich bemühen, Know-how und Fähigkeiten aufzubauen und zu pflegen.“
5. Teil: „Big Data im Mittelstand“
Big Data im Mittelstand
Beim Blick auf den Mittelstand fällt auf, dass sich für diese Unternehmen der Fachkräftemangel im Bereich Big Data besonders nachteilig auswirkt.
Deshalb ist es gerade für den Mittelstand wichtig, solche Big-Data-Lösungen auszuwählen, die die Datenvorbereitung, die Definition von Big-Data-Analysen sowie den Schutz der Daten so weit wie möglich unterstützen.
Um dem Mangel an Know-how zu begegnen, empfehlen sich Lösungen, die sich von Anwendern ohne die Kenntnisse eines Admins, Entwicklers oder Big-Data-Experten nutzen lassen. Dazu sollten sie zum Beispiel Selfservice-Funktionen für die Definition der Analyse und der gewünschten Berichte bieten und viele Arbeitsschritte der Analysen über eine visuelle Benutzerführung vereinfachen.
Big-Data-Lösungen, die sich ohne tiefes Expertenwissen nutzen lassen und sich zugleich für viele Branchen und Unternehmensgrößen eignen, gibt es bereits. Das Ziel „Big Data für alle“ ist kein Fernziel mehr, sondern kann in überschaubarer Zeit erreicht werden. Dank zahlreicher Datenschnittstellen und anpassbarer Vorlagen für Diagramme und Berichte können Unternehmen heute in kurzer Zeit eigene erste Tests starten. Selbst Installationen kann man sich meist sparen, denn viele Big-Data-Lösungen lassen sich bequem aus der Cloud beziehen. Big Data muss also nicht „Big Problems“ bedeuten.
Beispiele für Analytics-Lösungen
Die Marktforscher von Gartner haben kürzlich einen neuen „Magic Quadrant“ für Business-Intelligence- und Analytics-Plattformen veröffentlicht. Die dort genannten Leader sind Microsoft, Tableau und Qlik. com! professional hat sich diese Lösungen einmal mit Blick auf die speziellen Bedürfnisse mittelständischer Unternehmen angeschaut.
Microsoft Power BI: Power BI ist ein cloudbasierter Dienst für Datenauswertung und Datenvisualisierung. Microsoft bietet dafür Open-Source-Tools an, mit denen Kunden und Partner plattformunabhängig in kurzer Zeit eigene Dashboards und Reports erstellen. Dazu lassen sich vorgefertigte Templates anpassen. Power BI kann mit Hunderten von Datenquellen verknüpft werden, darunter Excel-Tabellen, lokale Datenquellen, Streaming-Daten und Cloud-Dienste, um Daten auszuwerten, zu visualisieren und in Berichte einzubinden. Dank der BI-Apps für Windows, iOS und Android haben die Nutzer auch mobilen Zugriff auf Power-BI-Dashboards und Berichte.
Tableau: Tableau bietet Selfservice-Analytics-Plattformen, mit denen die Nutzer Analysen per Drag-and-Drop-Aktionen selbst definieren können. Für die Auswertung unterstützt werden zahlreiche Datenquellen, darunter auch räumliche Daten sowie Daten, die in PDF-Dateien gespeichert sind. Bei Bedarf können je nach Produktversion die Datenquellen von Administratoren oder Datenverwaltern gezielt freigegeben werden, um zum Beispiel ihre Vertrauenswürdigkeit zu kennzeichnen. Mittels Machine Learning bekommt der Nutzer Empfehlungen für Datenquellen, Tabellen und Verknüpfungen, die das Auffinden der richtigen Daten erleichtern. Tableau arbeitet daran, natürliche Sprachverarbeitung (NLP) in seine Lösungen zu integrieren, um den Anwendern das Interagieren mit ihren Daten durch einfache Spracheingaben zu ermöglichen.
QlikTech: Die Lösungen von QlikTech bieten ebenfalls Datenanalyse und -visualisierung im Selfservice. Alternativ können Admins mit „Guided Analytics“ interaktive Dashboards für die Anwender vorbereiten, mit denen diese Daten auswerten und Erkenntnisse gewinnen können. Über offene Schnittstellen und dank Entwickler-Tools können zudem Analysefunktionen integriert, eigene Analyse-Apps entworfen und neue Visualisierungen erstellt werden.
Bei der Bereitstellung von Qlik Sense hat man die Wahl zwischen On-Premise, Cloud und einer hybriden Kombination. Je nach Version handelt es sich um eine Einzelplatzlösung oder eine Plattform für Teamarbeit zur Datenanalyse. Berichte lassen sich in zahlreichen gängigen Formaten bereitstellen, etwa für Microsoft Office oder als PDF.
6. Teil: „Big Data und Datenschutz“
Big Data und Datenschutz
Bei einer Untersuchung gesundheitsrelevanter Anwendungsbereiche kam der Deutsche Ethikrat zu dem Schluss: Den Herausforderungen von Big Data kann mit den Handlungsformen und Schutzmechanismen des traditionellen Datenschutzrechts nur unzureichend begegnet werden. Deshalb empfiehlt der Ethikrat ein Big-Data-Konzept, das sich an Datensouveränität orientiert. Damit gemeint ist die größtmögliche Selbstbestimmung darüber, was mit den eigenen Daten geschieht.
Ähnliche Forderungen erhebt die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) Andrea Voßhoff: „Im Zeitalter von Big Data und dem Internet der Dinge führt die sich immer weiter verbreitende Digitalisierung unseres Alltags dazu, dass wir mehr und mehr digitale Spuren hinterlassen. Wenn in Zukunft beispielsweise das Surfverhalten einer Person mit den Informationen ihres Smartcars, des Fitnesstrackers und den Bestellungen des vernetzten Kühlschranks kombiniert werden könnten, besteht die Möglichkeit, ein aussagekräftiges Bild der Lebensumstände dieser Person zu zeichnen. Umso wichtiger sind rechtliche Rahmenbedingungen, die nicht nur die Entwicklung innovativer Dienste und Geschäftsmodelle ermöglichen, sondern auch einen robusten Schutz der Privatsphäre garantieren.“
Für Big-Data-Analysen von Gesundheitsdaten – einem Musterfall für besonders sensible Daten – fordern die Aufsichtsbehörden für Datenschutz in Deutschland deshalb:
Verknüpfungen zwischen Datenbeständen, die Gesundheitsdaten enthalten, dürfen nur auf der Grundlage spezieller rechtlicher Regelungen zugelassen werden.
Die Re-Identifizierung und unerlaubte Zusammenführung von Daten, das Anlegen von Datenprofilen zu einer Person sowie der Handel mit Gesundheitsdaten sind zu verbieten und unter Strafe zu stellen.
Es muss gesetzlich festgelegt werden, dass mit anonymisierten oder hinreichend pseudonymisierten Daten gearbeitet wird, in welchen Zusammenhängen ausnahmsweise auf die Einwilligung als Legitimation für eine Verarbeitung von Gesundheitsdaten in Big Data-Anwendungen zurückgegriffen werden darf und unter welchen Voraussetzungen eine wirksame Einwilligung gegeben werden kann.
Bei Big-Data-Projekten sind Transparenzvorgaben etwa hinsichtlich der Analysemethoden, der Verarbeitungszwecke und der genutzten Datenbestände zu machen.
Es sollte gesetzlich vorgesehen werden, dass für jedes Big-Data-Projekt im Gesundheitswesen das Votum der zuständigen Datenschutzaufsichtsbehörde eingeholt wird.
Unternehmen sollten ihr Datenschutzkonzept für sensible Big-Data-Analysen entsprechend entwickeln und technisch-organisatorische Maßnahmen ergreifen, um es umzusetzen. Dazu gehören Funktionen wie Verschlüsselung, Anonymisierung und Pseudonymisierung sowie die getrennte Speicherung von Daten, die es ermöglichen könnten, Pseudonyme realen Personen zuzuordnen.
Die Technik dafür ist jedenfalls vorhanden. Marit Hansen, Leiterin des Unabhängigen Landeszentrums für Datenschutz in Schleswig-Holstein, konstatiert: „Es gibt bereits heute gute, innovative Lösungen mit eingebautem Datenschutz – Stichwort ,Data Protection by Design & by Default‘. Wir müssen sie aber auch nutzen.“
Dazu gehört auch die Schulung und Sensibilisierung zu den möglichen Risiken von Big Data. Im Sinne von „Big Data für alle“ ist der Teilnehmerkreis einer solchen Schulung entsprechend groß zu wählen, da in Zukunft dank der Selfservice-Funktionen viele Mitarbeiterinnen und Mitarbeiter bei entsprechender Berechtigung BigData-Analysen durchführen werden.
Zum 15. April
Agnes Heftberger wird neue Deutschland-Chefin von Microsoft
Agnes Heftberger übernimmt am 15. April den Vorsitz der Geschäftsführung von Microsoft Deutschland. Sie löst Marianne Janik ab, die das Unternehmen verlässt.
>>
Swissbit
Speicherkarten mit Lizenzschutz-Vorbereitung
Die Swissbit-Speicherkarten der neuen Serie PS-66(u) unterstützen die Out-of-the-box-Nutzung der CodeMeter-Technologie für Softwareschutz und Lizenzverwaltung von Wibu-Systems.
>>
Hannover Messe 2024
Digitalisierte Industrie - neuster Stand
Die Hannover Messe 2024, die vom 22. bis 26. April stattfindet, verspricht eine aktuelle Themenagenda. Gesetzt sind industrielle Produktion, Automation sowie Digitalisierung. Doch vermehrt geht es auch um Energieversorgung und Nachhaltigkeit.
>>
Connectivity-as-a-Service
ADN und DE-CIX schließen Partnerschaft
ADN hat einen neuen Kooperationsvertrag mit DE-CIX unterzeichnet. Der Anbieter stellt die physische Infrastruktur und Connectivity-Services bereit, mit denen Partner den Datenverkehr von Unternehmenskunden sicher routen können.
>>