12.04.2016
Marktentwicklung
1. Teil: „Die 7 wichtigsten Big-Data-Trends “
Die 7 wichtigsten Big-Data-Trends
Autor: Oliver Ehm
Dirk Ercken / Shutterstock.com
Machine Learning, Datenintegration und NoSQL sind nur einige der Entwicklungen bei Big Data. com! professional fasst die sieben wichtigsten Trends zusammen.
Die digitale Transformation ist ohne Big Data nicht denkbar, denn erst die Erkenntnisse, die sich aus den Daten gewinnen lassen, ermöglichen es Unternehmen, agil zu werden. Agilität bedeutet in diesem Zusammenhang zweierlei: Einerseits aufgrund der Datenlage die bestehenden Geschäftsprozesse in einem fortwährenden Prozess zu optimieren, und andererseits Prozesse, die veraltet sind, auszusortieren und durch neue zu ersetzen.
Auch durch die zunehmende Vernetzung wächst die Bedeutung von Big Data – Stichwort Internet der Dinge (IoT). Diese neuen Rahmenbedingungen und die hier gewonnenen Daten eröffnen kreativen Geistern ungeahnte Möglichkeiten für neue Geschäftsmodelle. Das zeigt sich an der wachsenden und erfolgreichen Gründer- und Start-up-Szene.
Mindbreeze, ein Softwarehersteller für Enterprise Search, Big Data und Wissensmanagement, hat Trends ausgemacht, die die aktuellen Marktentwicklungen bei Big Data widerspiegeln.
1. Die Maschine als Assistent
Beim Machine Learning beziehungsweise Deep Learning geht es darum, dass Geräte automatisch Daten sammeln, speichern und analysieren. Dazu werden sie mit einer Art künstlichen Intelligenz (KI) ausgestattet, die es ihnen erlaubt, Informationen in den Daten zu verstehen und semantische Zusammenhänge zu erkennen.
Machine Learning bietet sich besonders für die Analyse riesiger Datenmengen an, denn „bei kleineren Datenbeständen kann man das noch selbst herausfinden“, betont Norbert Wirth, Global Head of Data and Science beim Marktforschungsinstitut GfK.
Machine Learning ist besonders beliebt, wenn es um das Thema Sicherheit geht. So gibt es etwa einige Projekte, die die Sicherheit von Gebäuden mit Hilfe von Machine Learning verbessern sollen. Auch Banken sehen Potenzial im Machine Learning, um beispielsweise das Online-Shopping sicherer zu machen. Dazu beobachten die Systeme alle Transaktionen und versuchen, kriminelle von normalen Mustern zu unterscheiden, um gegebenenfalls einzugreifen.
2. Teil: „Geschäftsmodelle, Vorhersagen & Datenintegration“
Geschäftsmodelle, Vorhersagen & Datenintegration
2. Geschäftsmodelle wandeln sich
Das Internet of Things, also die Vernetzung der Welt, zusammen mit Big Data bietet Unternehmen Möglichkeiten, ihre herkömmlichen Geschäftsprozesse zu optimieren und gegebenenfalls in neue Business-Modelle zu überführen – und so der Konkurrenz einen Schritt voraus zu sein. Wie das geht, zeigen Firmen, die diesen Weg bereits beschreiten. Der Heizungsbauer Vaillant beispielsweise hat seine Produkte mit „intelligenten“ Sensoren ausgestattet, die es den Kunden erlauben, ihre Heizung zentral über eine App vom Smartphone oder Tablet aus zu verwalten. Aus dem traditionellen Heizungsbauer ist also im Zuge der digitalen Transformation ein Technologie-Unternehmen geworden, das auch Heizungen herstellt.
Gleiches gilt für andere Unternehmen, die im Rahmen der Transformation ihr Geschäftsmodell an die neuen Bedingungen des Marktes angepasst haben. So macht sich die Deutsche Bahn die anfallenden Daten auf ganz spezielle Weise zunutze: Volker Kefer, stellvertretender Vorstandsvorsitzender der DB AG und der DB Mobility Logistics AG, berichtete auf der Preview-Veranstaltung zur CeBIT 2016 von drei Hackathons, bei denen eine App entwickelt wurde, die die Bereitschaft von Aufzügen fast in Echtzeit anzeigt. Eine solche Anzeige sei sowohl für die Kunden als auch für den Konzern selbst von Vorteil – für die Kunden, weil sie dann sehen, ob der Aufzug funktioniert, und für den Konzern, weil der zeitnah Reparatur-Trupps losschicken kann.
3. Vorhersagen aus Daten treffen
Predictive Analytics ermöglicht es, auf der Basis verfügbarer Daten verlässliche Prognosen für zukünftige Ereignisse zu erstellen. Ein typisches Einsatzgebiet für Predictive Analytics ist Predictive Maintenance – die vorausschauende Wartung und Instandhaltung.
Ähnlich verhält es sich mit dem Zugverkehr. Wenn sich etwa die Weichen wegen eines Defekts nicht mehr stellen lassen, dann kommt dieser womöglich zum Erliegen. Deshalb hat die Deutsche Bahn angefangen, Weichen mit Sensoren auszustatten. Diese Sensoren protokollieren den Strom, den der Motor benötigt, während er die Weiche stellt. Die Verbrauchskurve wird mit einer Soll-Kurve abgeglichen. Anhand der Abweichungen lassen sich Rückschlüsse auf den Zustand der Weiche ziehen. Auf diese Weise kann das Unternehmen frühzeitig handeln. Das spart Geld und erhöht zugleich die Kundenzufriedenheit, weil der Fahrplan eingehalten wird.
4. Datenintegration schafft Wissen
Damit die Mitarbeiter eines Unternehmens die vorhandenen Daten optimal einsetzen können, muss der Zugriff auf alle Daten stets möglich sein. Organisatorische und technische Datensilos in Unternehmen verhindern jedoch häufig den Zugriff auf benötigte Daten. Abhilfe schaffen sogenannte Enterprise-Search-Systeme. Diese Systeme sind in der Lage, Daten und Informationen über Abteilungs- und Applikationsgrenzen hinweg intelligent zu verknüpfen.
Dabei muss der Zugang zu den gesuchten Informationen die im Unternehmen geltenden Bestimmungen und Regeln sowie die Richtlinien zum Datenschutz einhalten. Eine integrierte Rechteverwaltung gewährleistet, dass die Anwender im Unternehmen nur die Daten finden, auf die sie auch zugreifen dürfen.
3. Teil: „Daten visualisieren, Diagnostik & Datenbanken“
Daten visualisieren, Diagnostik & Datenbanken
5. Bilder gegen Komplexität
Die Arbeit mit Daten kann ab einer gewissen Menge sehr komplex werden. Besonders wenn die Daten nicht strukturiert sind und aus vielfältigen Quellen stammen, ist es schwierig, sinnvolle Verknüpfungen herzustellen.
Um hier Erkenntnisse aus den Daten zu ziehen, sind Programme von Vorteil, die die Daten visuell aufbereiten. Dadurch lassen sich vielschichtige Themen schneller als bisher erfassen oder auch Kunden besser kennenlernen – angefangen beim Helikopterüberblick bis hin zur Detailanalyse.
Die Werkzeuge für die Analyse sollten einfach und selbsterklärend sein, damit auch Nichtspezialisten damit zurechtkommen und ohne IT-Fachpersonal in gewissen Grenzen Anpassungen vornehmen können.
6. Welt als Datensatz
Wie erwähnt ist eine Domäne für Big Data die Produktion – Stichwort Industrie 4.0.
In diesem Zusammenhang ist immer wieder von Smart Factories die Rede – Fabriken, in denen möglichst viele Komponenten miteinander vernetzt sind und untereinander Daten austauschen. Dadurch ist es möglich, einen hohen Automatisierungsgrad zu erreichen und dabei die zur Verfügung stehenden Ressourcen optimal und damit kosteneffizient zu nutzen. Das führt unter anderem dazu, dass die Umsetzung individueller Kundenwünsche zu den Kosten einer Großserienproduktion in greifbare Nähe gerückt ist.
Doch mit dem Einzug der Wearables – allen voran die Smart-Watches und Fitness-Tracker – dringt Big Data in die Welt des Einzelnen vor – Stichwort Self-Tracking. Die so generierten Daten wecken unter anderem Begehrlichkeiten bei Krankenkassen. So hat beispielsweise der Versicherer Generali angekündigt, gegen Preisgabe der Gesundheitsdaten günstigere Tarife anzubieten. Dabei sollen nach Angaben des Versicherers die sportlichen Aktivitäten und Konsumgewohnheiten des Versicherten per App gemessen werden – alles im Einklang mit dem deutschen Datenschutz.
7. NoSQL auf der Überholspur
Bei Big Data stammen die Daten in der Regel aus unterschiedlichen Quellen – aus Sensoren in Maschinen, Autos oder Wearables, aus sozialen Netzwerken oder E-Mails. Für diese Daten sind die klassischen relationalen Datenbanken ungeeignet. Mehr Spielraum für die Verarbeitung und Speicherung unstrukturierter Daten bieten NoSQL-Datenbanken. Sie gewinnen daher an Bedeutung für die Geschäftsstrategie eines Unternehmens, das sich digital transformiert.
Diese Entwicklung spiegelt sich auch im aktuellen Magic Quadrant for Operational Database Management Systems wider, den das Marktforschungsunternehmens Gartner 2015 veröffentlicht hat. Waren hier bislang Oracle, IBM, Microsoft und SAP als Leader geführt, so sind jetzt auch die No-SQL-Anbieter MongoDB, DataStax, Re-dis Labs und MarkLogic mit dabei.
Swisscom
Neue Cyberbedrohungen auf dem Radar
Der neue Cyber Security Threat Radar von Swisscom zeigt die Angriffsmethoden und das Vorgehen von Cyberkriminellen. Er beleuchtet neu auch die Entwicklungen in den Bereichen "Disinformation & Destabilisation", "Manipulated Generative AI" und "Unsecure IoT/OT-Devices".
>>
Datenverfügbarkeit
Where EDGE Computing meets 5G
Logistik- und Produktionsprozesse sollen flüssig und fehlerfrei laufen. Maschinen und Personal müssen im Takt funktionieren. Zulieferer haben just-in-time anzuliefern. Dies stellt hohe Anforderungen an die lokale Datenübertragung. Welche Technik bietet sich dazu an?
>>
Schellerer Ausbau
Hessen, OXG und Vodafone schließen Partnerschaft für Glasfaser
Vodafone und OXG starten gemeinsam mit dem Land Hessen eine umfangreiche Ausbau-Offensive für schnelles Internet. Bis 2030 wollen die Unternehmen Glasfaser-Anschlüsse für bis zu 520.000 Haushalte bauen.
>>
Letzte Hürde genommen
USB-C kommt als einheitlicher Ladestandard
Nach dem Bundestag hat auch der Bundesrat einer EU-Richtlinie zugestimmt, die USB-C als einheitlichen Anschluss zum Laden von Elektrogeräten festlegt.
>>