Big Data
04.05.2018
Für Unternehmen jeder Größe
1. Teil: „Big Data treibt die Digitalisierung voran“

Big Data treibt die Digitalisierung voran

DatenanalyseDatenanalyseDatenanalyse
Kapralcev / Shutterstock.com
Von Analytics-Lösungen können alle Branchen und Unternehmen jeder Größe profitieren. Dennoch zeigen sich speziell deutsche Firmen beim Einsatz von Big Data eher zurückhaltend.
Big Data ist der Schlüssel zur Entwicklung innovativer Geschäftsmodelle quer durch alle Branchen und Technologiefelder, meint die Vereinigung der Bayerischen Wirtschaft, und so überrascht es nicht, dass Big Data auch 2018 zu den Top-Themen in der Digitalbranche gehört, wie das Branchenbarometer des Digitalverbands Bitkom ausweist.
  • Quelle: Bitkom Research Branchenbarometer 1. Halbjahr 2018
Dafür gibt es gute Gründe: Wer Big Data einsetzt, kann seine Risiken minimieren, sagten rund 50 Prozent der Big-Data-Anwender in der Bitkom-Umfrage. Weitere 27 Prozent erklärten, dass sie dank Big Data ihren Umsatz steigern, 19 Prozent, dass sie ihre Kosten reduzieren konnten.
Doch obwohl Big Data als das neue Öl der digitalen Wirtschaft gilt, sind die Unternehmen noch zurückhaltend bei der Nutzung der damit verbundenen Technologien: Nur 15 Prozent der von Bitkom befragten Vorstände und Geschäftsführer sehen deutsche Unternehmen weltweit als führend oder in der Spitzengruppe, wenn es um Big Data geht. 37 Prozent halten Deutschland im internationalen Vergleich sogar für abgeschlagen. Dabei warnt Bitkom-Präsident Achim Berg zu Recht: „Niemand, der auch morgen noch Geschäft machen will, kann es sich heute leisten, auf Zukunftstechnologien zu verzichten.“
Es ist also höchste Zeit für eine Big-Data-Strategie, abhängig von der Branche, der Unternehmensgröße und den individuellen Unternehmenszielen.

Big Data für jede Branche

Aktuell variiert die Nutzung von Big Data sehr stark von Branche zu Branche, wie die Capgemini-Studie „IT-Trends 2017“ zeigte:
  • Neue Einnahmequellen durch Big Data suchten mehr als die Hälfte der Energieversorger, im Handel war dies nur bei knapp jedem fünften Unternehmen der Fall.
  • Der Handel setzte Big Data vorrangig ein, um Erkenntnisse über Kunden zu gewinnen und Verkaufsstrategien zu optimieren.
  • Die Automobilindustrie wiederum konzen­trierte sich wesentlich stärker auf die Steigerung der Effizienz als auf das Einkaufs- und Service-Erlebnis ihrer Kunden.
Diese Branchenunterschiede im Einsatz von Big Data bedeuten nicht, dass sich Big Data in bestimmten Branchen weniger lohnt. Die Studie macht nur deutlich, dass die Strategien von Branche zu Branche variieren.
Neben den Unterschieden in den Zielen der Big-Data-Nutzung setzen die Branchen Big-Data-Analysen auch unterschiedlich stark ein. Eine Bitkom-Umfrage ergab 2017 zum Beispiel, dass die Gesundheitswirtschaft in Deutschland Vorreiter bei der Nutzung von Big-Data-Analysen ist (mit 57 Prozent). Es folgen Versicherungen mit 53 Prozent, Automobilbauer mit 51 Prozent, Energie und Maschinenbau mit jeweils 47 Prozent. Diese Unterschiede werden in Zukunft jedoch geringer ausfallen. Die drei größten Vorzüge von Big Data, die das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS für Unternehmen ermittelt hat, können nämlich die meisten Branchen für sich nutzen:
Effizientere Unternehmensführung: Prognosen und Echtzeitanalysen ermöglichen optimierte Abläufe und dienen als Basis für effizientere Strukturen.
Massenindividualisierung: Systeme lernen die Bedürfnisse ihrer Nutzer kennen, sodass in Zukunft weit individuellere Services angeboten werden können.
Intelligentere Produkte: Maschinen mit Big-Data-Intelligenz verarbeiten und kommunizieren große Mengen an Sensordaten selbstständig.
Tabelle:

2. Teil: „Big Data im Handel“

Big Data im Handel

  • O2-Shops: Der TK-Konzern Telefónica optimiert mit Hilfe von Datenanalysen ausgewählte Shops seiner Marke O2 für Besucher.
    Quelle:
    Telefónica
Laut der Bitkom-KPMG-Studie „Mit Daten Werte schaffen“ arbeiten erst 19 Prozent der Händler in Deutschland mit Big-Data-Analysen. Immerhin ein Drittel der befragten Unternehmen im Handel erwarten, dass Big Data ihre traditionellen Geschäftsmodelle verändern wird. Besonders wichtig ist Big Data dem Handel bei der Unterstützung von Entscheidungsprozessen. 92 Prozent der Handelsbetriebe greifen dafür auf Kunden­daten zurück, 80 Prozent auch auf Transak­tionsdaten, 77 Prozent auf Verhaltensdaten und 65 Prozent zusätzlich auf Markt- und andere ökonomische Daten.
Telefónica NEXT, ein Spin-off von Telefónica Deutschland, berechnet zum Beispiel anonymisierte Besucherströme auf Basis der Mobilfunkdaten im Einzugsgebiet von Geschäften. Diese Technologie ist seit Oktober 2017 auch in ausgewählten O2-Shops im Einsatz. Nach der Analyse können Werbetreibende und Händler ihre Kunden datenbasiert dort ansprechen, wo entsprechende Angebote für sie relevant sind.
„Mit unseren Services geben wir stationären Händlern und Marken eine datenbasierte Entscheidungsgrundlage an die Hand, um ihre Zielgruppen genauer zu verstehen und mit relevanteren Botschaften anzusprechen. Das stärkt nicht zuletzt die Innenstädte, wenn sich lokale Geschäfte gegenüber der Online-Konkurrenz besser behaupten können“, erklärt Jens Lappoehn, Geschäftsführer Advanced Data Analytics bei Telefónica NEXT.

Big Data bei Versicherungen

  • Vorreiter: Wie sehr Unternehmen Big Data nutzen, unterscheidet sich sehr von Branche zu Branche. Besonders aktiv sind unter anderem die Gesundheits- und Versicherungswirtschaft.
    Quelle:
    Bitkom Research 2017 (n=709)
„In den vergangenen drei Jahren wurden weltweit mehr Daten generiert als in der gesamten Zeit davor. Und das wird weitergehen“, prophezeit Robin Johnson, CIO des Rückversicherungskonzerns Munich Re. Für die Versicherungswirtschaft spielen Big-Data-Lösungen denn auch heute schon
eine tragende Rolle. Munich Re setzt für die Risikoberechnung, unter anderem von Wetter- und Klima­risi­ken, auf Big-Data-Anwendungen in Microsoft Azure. Bereits seit 2016 bezieht Munich Re Ser­vices aus der Microsoft-Cloud, darunter High Performance Computing (HPC) mit Microsoft Azure, Azure-SQL-Datenbanken sowie Azure Cosmos DB.
Die neuen Möglichkeiten der schnellen Datenverarbeitung haben auch den Kreis der Mitarbeiter erweitert, die diese Daten nutzen: Zu den Statistikern und Informatikern kommen bei Munich Re nun auch Business-Analysten hinzu. Zudem arbeiten die Analyse-Experten stärker interdisziplinär mit den verschiedenen wissenschaftlichen Fachrichtungen zusammen und gestalten gemeinsam neue Modelle.
Munich Re nutzt Daten nicht nur für die Berechnung aufwendiger Klimamodelle, sondern zunehmend auch als strategischen Erfolgsfaktor. Die Experten von Munich Re versuchen beispielsweise, Daten und daraus abgeleitete Erkenntnisse noch tiefer auf regionale Ebenen herunterzubrechen und auf Schwellenländer zu übertragen. Damit will Munich Re Unternehmen in diesen Ländern künftig ermöglichen, sich besser gegen finanzielle Risiken aus Naturkatastrophen abzusichern.
Geschäftliche Ziele von Big-Data-Analysen
Bitkom Research hat die Unternehmen danach gefragt, warum sie Big-Data-Auswertungen vornehmen (Auflistung in absteigender Reihenfolge nach Häufigkeit der Nennung):
  • Überwachung der Geschäftsentwicklung
  • Analyse von Bestandskunden
  • Unterstützung von Personalprozessen und -einsatzplanung
  • Identifikation und Management von Geschäftsrisiken
  • Optimierung von Prozess- und Kosteneffizienz
  • Identifikation neuer Kunden
  • Beobachtung von Marktveränderungen/Marktrisiken
  • Ermittlung der Nutzung von Produkten/Dienstleistungen
  • Förderung von Unternehmensstrategie/Change-Prozesse
  • Erkennung von Betrugsrisiken und -vorfällen
  • Entwicklung neuer Produkte/Dienstleistungen
  • Zielgerechte Umsetzung von Marketingkampagnen
  • Analyse von Unternehmens-/Markenimage
  • Verhinderung von Personalengpässen
  • Erfüllung regulatorischer Anforderungen
3. Teil: „Big Data im Gesundheitswesen“

Big Data im Gesundheitswesen

Die DHL-Studie „The Future of Life Sciences and Healthcare Logistics“ untersuchte die Bedeutung digitaler Technologien für das Gesundheitswesen. Ergebnis: Big Data gibt Gesundheitsanbietern eine bessere Informationsgrundlage für operative Entscheidungen, indem alle Mitglieder eines Gesundheitssystems vernetzt und Daten zusammenführt werden. Das ermöglicht eine bessere Bedarfsplanung und hilft, Logistik und Lieferketten kostengünstiger und effizienter zu machen.
Technologien auf Basis des Internets der Dinge (Internet of Things, IoT), die in Zukunft eine wesentliche Grundlage für Big Data darstellen werden, sorgen für eine größere Transparenz und Vernetzung entlang der Lieferkette bei gleichzeitig besserer Kontrolle der Vorratsbestände. Außerdem erhofft sich die Branche, dass die stärkere Verknüpfung von physischen Produkten und Daten helfen wird, Diebstahl und Fälschungen zu bekämpfen.

Big Data rund ums Auto

Die Automobilhersteller in Deutschland haben erkannt, dass sie für ihre Kunden künftig stärker digitale Serviceleistungen rund ums vernetzte Fahren entwickeln müssen, wie die Studie „Neue Geschäftsmodelle der Automobilindustrie“ der Managementberatung Horváth & Partners ergab. Bislang versäumen die Autohersteller es aber, solche Datendienste selbst anzubieten, während Technologieunternehmen und Start-ups gezielt darauf setzen.
Die Autobranche in Deutschland steht deshalb unter Zugzwang, besagt auch die Lünendonk-Analyse „Status quo der digitalen Transformation in der Automobilindustrie“. „Fast allen OEMs geht es darum, mit Hilfe digitaler Mehrwertservices Kunden zu halten, neue Kundengruppen zu erschließen sowie künftige Erlöse und ihre Wettbewerbsfähigkeit abzusichern. Zu diesem Zweck setzt die Automo­tive-Industrie bereits sehr stark auf die Analyse von kundenbezogenen Daten“, kommentiert Mario Zillmann, Partner der Lünendonk & Hossenfelder GmbH, die Entwicklung.
Ähnlich sieht dies die Untersuchung „Automotive Manager 2017“ von Oliver Wyman: Für die Autobranche ist Big Data demnach einer der Schlüsseltrends für die Zukunft, so die Studie. Sie schätzt, dass Erfassung, Analyse und Übermittlung von Daten, die während der Fahrt gewonnen werden, für Autokonzerne zu einer zusätzlichen Einnahmequelle von 500 bis 1000 Euro pro Auto werden könnte. Um diesen Umsatz zu heben, müssten sich die Hersteller jedoch entsprechend aufstellen. Denn im Hintergrund lauerten junge, agile, auf Big Data spezialisierte Unternehmen, um den Etablierten dieses Geschäft streitig zu machen.

Für Groß und Klein

Plant ein Unternehmen die Nutzung von Big Data, sollte es darauf achten, dass das Projekt zur eigenen Branche, aber auch zur Größe des Unternehmens passt. Der Digitalverband Bitkom hat untersucht, wie verbreitet Big-Data-Analysen in deutschen Unternehmen sind. Demnach sagten 62 Prozent der Unternehmen mit 500 bis 1999 Mitarbeitern, dass sie bereits Big-Data-Lösungen einsetzen. 2016 waren das erst 44 Prozent. Bei Unternehmen mit mehr als 2000 Mitarbeitern belief sich diese Zahl 2017 auf 61 Prozent gegenüber 60 Prozent im Jahr 2016.
Allein bei den Unternehmen mit 100 bis 499 Mitarbeitern hat die Verbreitung der Big-Data-Anwendungen abgenommen: von 32 Prozent 2016 auf 30 Prozent 2017.
Trotzdem resümiert Axel Pols, Geschäftsführer von Bitkom Research: „Big Data ist längst nicht mehr nur etwas für Big Companies. Entscheidungen im Unternehmen auf Grund­lage von Erkenntnissen aus einer großen Menge von Daten zu treffen, wird auch für kleinere Unternehmen immer inte­ressanter“.
4. Teil: „Hemmnisse für Big Data“

Hemmnisse für Big Data

  • Tableau: Die Lösung für Big-Data-Analysen ermöglicht es Business-Anwendern, per Drag and Drop eigene Auswertungen zu definieren.
Die Marktforscher von Forrester prognostizieren, dass sich die Nutzung von Big Data Analytics innerhalb der kommenden Jahre so verstärken wird, dass etwa 90 Prozent der Firmen bis 2020 geschäftliche Entscheidungen anhand datenbasierter Informationen treffen werden. Dann wäre das Ziel „Big Data für alle“ in greifbarer Nähe.
Damit dieses Ziel aber branchenübergreifend und für möglichst alle Unternehmensgrößen Realität wird, müssen noch einige Herausforderungen bewältigt werden, die Unternehmen in Deutschland bislang vom Einsatz von Big Data abhalten oder behindern.
Die von SAP veröffentlichte Studie „Data 2020: State of Big Data“ ergab, dass 86 Prozent der befragten Unternehmen der Meinung sind, dass sie das Potenzial ihrer Daten nicht maximal ausschöpfen können.
Vor allem zwei Gründe machen die befragten Unternehmen dafür verantwortlich:
Isolierte, unzugängliche, fehlerhafte Daten: 50 Prozent gaben an, Daten seien für viele wichtige Stakeholder in ihrem Unternehmen unzugänglich. 79 Prozent meinten, ein einfacher Check ihrer Unternehmensdaten reiche nicht aus, um Datenintegrität herzustellen.
Fehlende Spezialisten: 79 Prozent der Unternehmen nannten Data Scientists als wichtig für den Geschäftserfolg, doch nur 53 Prozent beschäftigen solche derzeit.
  • Vor der Analyse: Viele Big-Data-Projekte kranken an der Datenvorbereitung. Oft fehlt es am Know-how des Business-Anwenders.
    Quelle:
    BARC
Ein ähnliches Bild zeichnet Bitkom Research: Ihrer Untersuchung zufolge haben nur 12 Prozent der befragten 709 Unternehmen eine zen­trale Datenanalyse-Strategie. Und nur jedes vierte Unternehmen gibt an, dass seine Mitarbeiter über die Fähigkeiten und Kenntnisse verfügen, um das Unternehmen kontinuierlich mit Datenanalysen voranzutreiben. Auf der anderen Seite haben 61 Prozent Bedenken hinsichtlich des Datenschutzes bei Datenanalysen.
Das ist jedoch nicht alles: Neben den Überlegungen zur Strategie, dem erforderlichen Know-how zu Big Data und einem Datenschutz- und IT-Sicherheitskonzept für Big Data fehlt es bei vielen Unternehmen auch noch an der richtigen Vorbereitung einer Big-Data-Analyse, an der Data Prepara­tion. Bereits in dieser Phase sind mangelndes Know-how und fehlende Budgets die größten Hürden.
Unternehmen bemängeln außerdem, dass derzeit noch zu wenige Fachbereiche Daten tatsächlich effizient und eigenständig aufbereiten können.
„Wie für viele andere Aspekte des Datenmanagements gilt auch für die Datenaufbereitung, dass sie nicht zwischen Tür und Angel erledigt werden kann“, betont Timm Grosser, Senior Analyst bei BARC und Mitautor der Studie. „Man muss sie als wesentlichen Schritt sehen, der zur Wertschöpfung aus Daten beiträgt – kein einmaliges Projekt, das ausgelagert und extern abgewickelt werden kann, sondern eine laufende Anstrengung, die erhebliche Kompetenzen erfordert. Jedes Unternehmen, das Data Preparation ernst nimmt, muss sich bemühen, Know-how und Fähigkeiten aufzubauen und zu pflegen.“
5. Teil: „Big Data im Mittelstand“

Big Data im Mittelstand

Beim Blick auf den Mittelstand fällt auf, dass sich für diese Unternehmen der Fachkräftemangel im Bereich Big Data besonders nach­teilig auswirkt.
  • Auf die Größe kommt's nicht an: Big Data ist nicht mehr nur ein Thema für Konzerne, sondern hat zumindest auch schon den gehobenen Mittelstand erreicht.
    Quelle:
    Bitkom Research 2017 (n=709/704)
Big-Data-Experten sind selten und kostspielig, weshalb auch 82 Prozent der­artiger Stellen in deutschen Unternehmen mit mehr als 1.000 Mitarbeitern entstehen, wie eine Stellenanzeigen-Auswertung der Metasuchmaschine Joblift ergab.
Deshalb ist es gerade für den Mittelstand wichtig, solche Big-Data-Lösungen auszuwählen, die die Datenvorbereitung, die Definition von Big-Data-Analysen sowie den Schutz der Daten so weit wie möglich unterstützen.
Um dem Mangel an Know-how zu begegnen, empfehlen sich Lösungen, die sich von Anwendern ohne die Kenntnisse eines Admins, Entwicklers oder Big-Data-Experten nutzen lassen. Dazu sollten sie zum Beispiel Selfservice-Funktionen für die Definition der Analyse und der gewünschten Berichte bieten und viele Arbeitsschritte der Analysen über eine visuelle Benutzerführung vereinfachen.
Big-Data-Lösungen, die sich ohne tiefes Expertenwissen nutzen lassen und sich zugleich für viele Branchen und Unternehmensgrößen eignen, gibt es bereits. Das Ziel „Big Data für alle“ ist kein Fernziel mehr, sondern kann in überschaubarer Zeit erreicht werden. Dank zahlreicher Datenschnittstellen und anpassbarer Vorlagen für Diagramme und Berichte können Unternehmen heute in kurzer Zeit eigene erste Tests starten. Selbst Installationen kann man sich meist sparen, denn viele Big-Data-Lösungen lassen sich bequem aus der Cloud beziehen. Big Data muss also nicht „Big Problems“ bedeuten.

Beispiele für Analytics-Lösungen

Die Marktforscher von Gartner haben kürzlich einen neuen „Magic Quadrant“ für Business-Intelligence- und Analytics-Plattformen veröffentlicht. Die dort genannten Leader sind Microsoft, Tableau und Qlik. com! professional hat sich diese Lösungen einmal mit Blick auf die speziellen Bedürfnisse mittelständischer Unternehmen angeschaut.
Microsoft Power BI: Power BI ist ein cloudbasierter Dienst für Datenauswertung und Datenvisualisierung. Microsoft bietet dafür Open-Source-Tools an, mit denen Kunden und Partner plattformunabhängig in kurzer Zeit eigene Dashboards und Reports erstellen. Dazu lassen sich vorgefertigte Templates anpassen. Power BI kann mit Hunderten von Datenquellen verknüpft werden, darunter Excel-Tabellen, lokale Datenquellen, Streaming-Daten und Cloud-Dienste, um Daten auszuwerten, zu visualisieren und in Berichte einzubinden. Dank der BI-Apps für Windows, iOS und Android haben die Nutzer auch mobilen Zugriff auf Power-BI-Dashboards und Berichte.
Tableau: Tableau bietet Selfservice-Analytics-Plattformen, mit denen die Nutzer Analysen per Drag-and-Drop-Aktionen selbst definieren können. Für die Auswertung unterstützt werden zahlreiche Datenquellen, darunter auch räumliche Daten sowie Daten, die in PDF-Dateien gespeichert sind. Bei Bedarf können je nach Produktversion die Datenquellen von Administratoren oder Datenverwaltern gezielt freigegeben werden, um zum Beispiel ihre Vertrauenswürdigkeit zu kennzeichnen. Mittels Machine Learning bekommt der Nutzer Empfehlungen für Datenquellen, Tabellen und Verknüpfungen, die das Auffinden der richtigen Daten erleichtern. Ta­bleau arbeitet daran, natürliche Sprachverarbeitung (NLP) in seine Lösungen zu integrieren, um den Anwendern das Interagieren mit ihren Daten durch einfache Spracheingaben zu ermöglichen.
QlikTech: Die Lösungen von QlikTech bieten ebenfalls Datenanalyse und -visualisierung im Selfservice. Alternativ können Admins mit „Guided Analytics“ interaktive Dashboards für die Anwender vorbereiten, mit denen diese Daten aus­werten und Erkenntnisse gewinnen können. Über offene Schnittstellen und dank Entwickler-Tools können zudem Analysefunktionen integriert, eigene Analyse-Apps entworfen und neue Visualisierungen erstellt werden.
Bei der Bereitstellung von Qlik Sense hat man die Wahl zwischen On-Premise, Cloud und einer hybriden Kombination. Je nach Version handelt es sich um eine Einzelplatzlösung oder eine Plattform für Teamarbeit zur Datenanalyse. Berichte lassen sich in zahlreichen gängigen Formaten bereitstellen, etwa für Microsoft Office oder als PDF.
6. Teil: „Big Data und Datenschutz“

Big Data und Datenschutz

  • Mehr Nachzügler als Vorreiter: Deutsche Unternehmen halten sich bei Einsatz zukunftsweisender Technologien zurück, auch bei Big Data.
    Quelle:
    Bitkom Research (n=505 Unternehmen mit 20 oder mehr Mitarbeiter)
Allein die technischen und unternehmensinternen Grundlagen schaffen zu wollen, um das Potenzial von Big Data zu erschließen, wäre zu kurz gegriffen. Ebenso entscheidend für das Ziel „Big Data für alle“ ist es, die zu berücksichtigt, von denen die Daten stammen oder die von den Ergebnissen der Analysen betroffen sind.
Bei einer Untersuchung gesundheitsrelevanter Anwendungsbereiche kam der Deutsche Ethikrat zu dem Schluss: Den Herausforderungen von Big Data kann mit den Handlungsformen und Schutzmechanismen des traditionellen Datenschutzrechts nur unzureichend begegnet werden. Deshalb empfiehlt der Ethikrat ein Big-Data-Konzept, das sich an Datensouveränität orientiert. Damit gemeint ist die größtmögliche Selbstbestimmung darüber, was mit den eigenen Daten geschieht.
Ähnliche Forderungen erhebt die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) Andrea Voßhoff: „Im Zeitalter von Big Data und dem Internet der Dinge führt die sich immer weiter verbreitende Digitalisierung unseres Alltags dazu, dass wir mehr und mehr digitale Spuren hinterlassen. Wenn in Zukunft beispielsweise das Surfverhalten einer Person mit den Informationen ihres Smartcars, des Fitnesstrackers und den Bestellungen des vernetzten Kühlschranks kombiniert werden könnten, besteht die Möglichkeit, ein aussagekräftiges Bild der Lebensumstände dieser Person zu zeichnen. Umso wichtiger sind rechtliche Rahmenbedingungen, die nicht nur die Entwicklung innovativer Dienste und Geschäftsmodelle ermöglichen, sondern auch einen robusten Schutz der Privatsphäre garantieren.“
Für Big-Data-Analysen von Gesundheitsdaten – einem Musterfall für besonders sensible Daten – fordern die Aufsichtsbehörden für Datenschutz in Deutschland deshalb:
Verknüpfungen zwischen Datenbeständen, die Gesundheitsdaten enthalten, dürfen nur auf der Grundlage spezieller rechtlicher Regelungen zugelassen werden.
Die Re-Identifizierung und unerlaubte Zusammenführung von Daten, das Anlegen von Datenprofilen zu einer Person sowie der Handel mit Gesundheitsdaten sind zu verbieten und unter Strafe zu stellen.
Es muss gesetzlich festgelegt werden, dass mit anonymisierten oder hinreichend pseudonymisierten Daten gearbeitet wird, in welchen Zusammenhängen ausnahmsweise auf die Einwilligung als Legitimation für eine Verarbeitung von Gesundheitsdaten in Big Data-Anwendungen zurückgegriffen werden darf und unter welchen Voraussetzungen eine wirksame Einwilligung gegeben werden kann.
Bei Big-Data-Projekten sind Transparenzvorgaben etwa hinsichtlich der Analysemethoden, der Verarbeitungszwecke und der genutzten Datenbestände zu machen.
Es sollte gesetzlich vorgesehen werden, dass für jedes Big-Data-Projekt im Gesundheitswesen das Votum der zuständigen Datenschutzaufsichtsbehörde eingeholt wird.
Unternehmen sollten ihr Datenschutzkonzept für sensible Big-Data-Analysen entsprechend entwickeln und technisch-organisatorische Maßnahmen ergreifen, um es umzusetzen. Dazu gehören Funktionen wie Verschlüsselung, Anonymisierung und Pseudonymisierung sowie die getrennte Speicherung von Daten, die es ermöglichen könnten, Pseudonyme realen Personen zuzuordnen.
Die Technik dafür ist jedenfalls vorhanden. Marit Hansen, Leiterin des Unabhängigen Landeszentrums für Datenschutz in Schleswig-Holstein, konstatiert: „Es gibt bereits heute gute, innovative Lösungen mit eingebautem Datenschutz – Stichwort ,Data Protection by Design & by Default‘. Wir müssen sie aber auch nutzen.“
Dazu gehört auch die Schulung und Sensibilisierung zu den möglichen Risiken von Big Data. Im Sinne von „Big Data für alle“ ist der Teilnehmerkreis einer solchen Schulung entsprechend groß zu wählen, da in Zukunft dank der Selfservice-Funktionen viele Mitarbeiterinnen und Mitarbeiter bei entsprechender Berechtigung BigData-Analysen durchführen werden.

mehr zum Thema