Big Data
12.04.2016
Marktentwicklung
1. Teil: „Die 7 wichtigsten Big-Data-Trends “

Die 7 wichtigsten Big-Data-Trends

Autor:
Big DataBig DataBig Data
Dirk Ercken / Shutterstock.com
Machine Learning, Datenintegration und NoSQL sind nur einige der Entwicklungen bei Big Data. com! professional fasst die sieben wichtigsten Trends zusammen.
Die digitale Transformation ist ohne Big Data nicht denkbar, denn erst die Erkenntnisse, die sich aus den Daten gewinnen lassen, ermöglichen es Unternehmen, agil zu werden. Agilität bedeutet in diesem Zusammenhang zweierlei: Einerseits aufgrund der Datenlage die bestehenden Geschäftsprozesse in einem fortwährenden Prozess zu optimieren, und andererseits Prozesse, die veraltet sind, auszusortieren und durch neue zu ersetzen.
Auch durch die zunehmende Vernetzung wächst die Bedeutung von Big Data – Stichwort Internet der Dinge (IoT). Diese neuen Rahmenbedingungen und die hier gewonnenen Daten eröffnen kreativen Geistern ungeahnte Möglichkeiten für neue Geschäftsmodelle. Das zeigt sich an der wachsenden und erfolgreichen Gründer- und Start-up-Szene.
Mindbreeze, ein Softwarehersteller für Enterprise Search, Big Data und Wissensmanagement, hat Trends ausgemacht, die die aktuellen Marktentwicklungen bei Big Data widerspiegeln.

1. Die Maschine als Assistent

Beim Machine Learning beziehungsweise Deep Learning geht es darum, dass Geräte automatisch Daten sammeln, speichern und analysieren. Dazu werden sie mit einer Art künstlichen Intelligenz (KI) ausgestattet, die es ihnen erlaubt, Informationen in den Daten zu verstehen und semantische Zusammenhänge zu erkennen.
Machine Learning bietet sich besonders für die Analyse riesiger Datenmengen an, denn „bei kleineren Datenbeständen kann man das noch selbst herausfinden“, betont Norbert Wirth, Global Head of Data and Science beim Marktforschungsinstitut GfK.
Machine Learning ist besonders beliebt, wenn es um das Thema Sicherheit geht. So gibt es etwa einige Projekte, die die Sicherheit von Gebäuden mit Hilfe von Machine Learning verbessern sollen. Auch Banken sehen Potenzial im Machine Learning, um beispielsweise das Online-Shopping sicherer zu machen. Dazu beobachten die Systeme alle Transaktionen und versuchen, kriminelle von normalen Mustern zu unterscheiden, um gegebenenfalls einzugreifen.
2. Teil: „Geschäftsmodelle, Vorhersagen & Datenintegration“

Geschäftsmodelle, Vorhersagen & Datenintegration

2. Geschäftsmodelle wandeln sich

Das Internet of Things, also die Vernetzung der Welt, zusammen mit Big Data bietet Unternehmen Möglichkeiten, ihre herkömmlichen Geschäftsprozesse zu optimieren und gegebenenfalls in neue Business-Modelle zu überführen – und so der Konkurrenz einen Schritt voraus zu sein. Wie das geht, zeigen Firmen, die diesen Weg bereits beschreiten. Der Heizungsbauer Vaillant beispielsweise hat seine Produkte mit „intelligenten“ Sensoren ausgestattet, die es den Kunden erlauben, ihre Heizung zentral über eine App vom Smartphone oder Tablet aus zu verwalten. Aus dem traditionellen Heizungsbauer ist also im Zuge der digitalen Transformation ein Technologie-Unternehmen geworden, das auch Heizungen herstellt.
Gleiches gilt für andere Unternehmen, die im Rahmen der Transformation ihr Geschäftsmodell an die neuen Bedingungen des Marktes angepasst haben. So macht sich die Deutsche Bahn die anfallenden Daten auf ganz spezielle Weise zunutze: Volker Kefer, stellvertretender Vorstandsvorsitzender der DB AG und der DB Mobility Logistics AG, berichtete auf der Preview-Veranstaltung zur CeBIT 2016 von drei Hackathons, bei denen eine App entwickelt wurde, die die Bereitschaft von Aufzügen fast in Echtzeit anzeigt. Eine solche Anzeige sei sowohl für die Kunden als auch für den Konzern selbst von Vorteil – für die Kunden, weil sie dann sehen, ob der Aufzug funktioniert, und für den Konzern, weil der zeitnah Reparatur-Trupps losschicken kann.

3. Vorhersagen aus Daten treffen

Predictive Analytics ermöglicht es, auf der Basis verfügbarer Daten verlässliche Prognosen für zukünftige Ereignisse zu erstellen. Ein typisches Einsatzgebiet für Predictive Analytics ist Predictive Maintenance – die vorausschauende Wartung und Instandhaltung.
  • Statt Bauchgefühl: Mit modernen Vorhersagemethoden gelingen Unternehmen treffendere Prognosen. Predictive-Analytics-Lösungen führen dabei zu fundierten Entscheidungen.
    Quelle:
    phipatbig / Shutterstock.com
Der Ausfall einer Maschine kann ein Unternehmen teuer zu stehen kommen, wenn zum Beispiel eine Produktionslinie unterbrochen ist und deswegen auch andere Maschinen nicht weiterarbeiten können.
Ähnlich verhält es sich mit dem Zugverkehr. Wenn sich etwa die Weichen wegen eines Defekts nicht mehr stellen lassen, dann kommt dieser womöglich zum Erliegen. Deshalb hat die Deutsche Bahn angefangen, Weichen mit Sensoren auszustatten. Diese Sensoren protokollieren den Strom, den der Motor benötigt, während er die Weiche stellt. Die Verbrauchskurve wird mit einer Soll-Kurve abgeglichen. Anhand der Abweichungen lassen sich Rückschlüsse auf den Zustand der Weiche ziehen. Auf diese Weise kann das Unternehmen frühzeitig handeln. Das spart Geld und erhöht zugleich die Kundenzufriedenheit, weil der Fahrplan eingehalten wird.

4. Datenintegration schafft Wissen

Damit die Mitarbeiter eines Unternehmens die vorhandenen Daten optimal einsetzen können, muss der Zugriff auf alle Daten stets möglich sein. Organisatorische und technische Datensilos in Unternehmen verhindern jedoch häufig den Zugriff auf benötigte Daten. Abhilfe schaffen sogenannte Enterprise-Search-Systeme. Diese Systeme sind in der Lage, Daten und Informationen über Abteilungs- und Applikationsgrenzen hinweg intelligent zu verknüpfen.
Dabei muss der Zugang zu den gesuchten Informationen die im Unternehmen geltenden Bestimmungen und Regeln sowie die Richtlinien zum Datenschutz einhalten. Eine inte­grierte Rechteverwaltung gewährleistet, dass die Anwender im Unternehmen nur die Daten finden, auf die sie auch zugreifen dürfen.
3. Teil: „Daten visualisieren, Diagnostik & Datenbanken“

Daten visualisieren, Diagnostik & Datenbanken

5. Bilder gegen Komplexität

Die Arbeit mit Daten kann ab einer gewissen Menge sehr komplex werden. Besonders wenn die Daten nicht strukturiert sind und aus vielfältigen Quellen stammen, ist es schwierig, sinnvolle Verknüpfungen herzu­stellen.
Um hier Erkenntnisse aus den Daten zu ziehen, sind Programme von Vorteil, die die Daten visuell aufbereiten. Dadurch lassen sich vielschichtige Themen schneller als bisher erfassen oder auch Kunden besser kennenlernen – angefangen beim Helikopterüberblick bis hin zur Detailanalyse.
Die Werkzeuge für die Analyse sollten einfach und selbst­erklärend sein, damit auch Nichtspezialisten damit zurechtkommen und ohne IT-Fachpersonal in gewissen Grenzen Anpassungen vornehmen können.

6. Welt als Datensatz

Wie erwähnt ist eine Domäne für Big Data die Produktion – Stichwort Industrie 4.0.
In diesem Zusammenhang ist immer wieder von Smart Factories die Rede – Fabriken, in denen möglichst viele Komponenten miteinander vernetzt sind und untereinander Daten austauschen. Dadurch ist es möglich, einen hohen Automatisierungsgrad zu erreichen und dabei die zur Verfügung stehenden Ressourcen optimal und damit kosteneffizient zu nutzen. Das führt unter anderem dazu, dass die Umsetzung individueller Kunden­wünsche zu den Kosten einer Großserienproduktion in greifbare Nähe gerückt ist.
  • Self-Tracking: Die Daten von Fitness-Trackern wie dem hier abgebildeten Garmin Vivosmart HR wecken Begehrlichkeiten bei Krankenkassen.
    Quelle:
    Garmin
Doch Big Data macht nicht Halt bei der Produktion. Vielmehr gewinnt Big Data auch in anderen Bereichen des Lebens deutlich an Einfluss. Ein Beispiel ist etwa sie Gesundheitsbranche. Hier wurde Big Data bislang hauptsächlich in Forschung und Diagnostik eingesetzt – etwa bei der Krebsbekämpfung.
Doch mit dem Einzug der Wearables – allen voran die Smart-Watches und Fitness-Tracker – dringt Big Data in die Welt des Einzelnen vor – Stichwort Self-Tracking. Die so generierten Daten wecken unter anderem Begehrlichkeiten bei Krankenkassen. So hat beispielsweise der Versicherer Generali angekündigt, gegen Preisgabe der Gesundheitsdaten günstigere Tarife anzubieten. Dabei sollen nach Angaben des Versicherers die sportlichen Aktivitäten und Konsumgewohnheiten des Versicherten per App gemessen werden – alles im Einklang mit dem deutschen Datenschutz.

7. NoSQL auf der Überholspur

Bei Big Data stammen die Daten in der Regel aus unterschiedlichen Quellen – aus Sensoren in Maschinen, Autos oder Wearables, aus sozialen Netzwerken oder E-Mails. Für diese Daten sind die klassischen relationalen Datenbanken ungeeignet. Mehr Spielraum für die Verarbeitung und Speicherung unstrukturierter Daten bieten NoSQL-Datenbanken. Sie gewinnen daher an Bedeutung für die Geschäftsstrategie eines Unternehmens, das sich digital transformiert.
Diese Entwicklung spiegelt sich auch im aktuellen Magic Quadrant for Operational Database Management Systems wider, den das Marktforschungsunternehmens Gartner 2015 veröffentlicht hat. Waren hier bislang Oracle, IBM, Microsoft und SAP als Leader geführt, so sind jetzt auch die No-SQL-Anbieter Mongo­DB, DataStax, Re­-dis Labs und MarkLogic mit dabei.

mehr zum Thema