Business-IT
08.02.2018
Datenanalyse
1. Teil: „Mit Analyse-Tools relevanten Daten auf der Spur“

Mit Analyse-Tools relevanten Daten auf der Spur

DatenanalyseDatenanalyseDatenanalyse
phipatbig / shutterstock.com
Analyse-Tools geben Hilfestellung, um Marktlücken zu entdecken und Trends aufzuspüren. Die Lösungen optimieren damit bestehende Prozesse und helfen beim Aufbau neuer Geschäftsmodelle.
Zugegeben, der Spruch „Daten sind das Erdöl unserer Zeit“ ist bereits etwas in die Jahre gekommen. Andererseits ist er aktueller denn je. Nach Angaben des Beratungshauses ISG Research wird 2018 und darüber hinaus die Nutzung von Daten für den Aufbau neuer Geschäftsmodelle massiv an Bedeutung gewinnen.
Derzeit stellt sich die Situation noch etwas anders dar: „Oft werden nur bestehende Geschäftsprozesse um Daten aus neuen Quellen angereichert und damit verfeinert“, erläutert Holm Landrock, Senior Supervisor bei ISG Research. „Ein Beispiel ist ein verhaltensabhängiger Versicherungstarif, bei dem neue Daten erschlossen werden, die letztlich aber nur das 100 Jahre alte Produkt ,Kfz-Schadensregulierung‘ modifizieren.“
Bereits heute nutzen viele Branchen Daten aller Art, um Prozesse zu optimieren oder mehr über ihre Kunden zu erfahren. Vorreiter sind Fertigungsunternehmen, die beispielsweise eine vorausschauende Wartung von Maschinen einsetzen, Finanzdienstleister und Versicherungen. Auch der Handel setzt verstärkt auf Big Data und Datenanalysen, etwa für die Auswertung von Social-Media-Informationen.

Auch Landwirte benötigen Daten

Nach Einschätzung von Landrock werden 2018 vor allem zwei Branchen verstärkt mit Data Analytics konfrontiert sein: das Gesundheitswesen und der Agrarsektor. „Auch die Landwirtschaftsbranche wird immer größere Datenbestände gewissermaßen analytisch durchpflügen“, so Landrock. Beispiele sind das Precision Farming mit Hilfe von GPS-gesteuerten Landmaschinen sowie die Verarbeitung von Sensordaten und Informationen, die von Drohnen stammen. Zudem lassen sich Kühe mit Chips ausstatten, etwa um deren Laufwege zu verfolgen und einen Zusammenhang mit den Milcherträgen zu ermitteln.

Markt wächst rasant

Von dem wachsenden Bedarf an verwertbaren Daten, auf deren Basis Unternehmen möglichst in Echtzeit Geschäftsentscheidungen treffen können, profitieren die Anbieter von Business-Intelligence- und Analytics-Lösungen. Das Marktforschungshaus Gartner beispielsweise geht davon aus, dass der weltweite Umsatz mit solchen Tools von rund 18 Milliarden Dollar im Jahr 2017 bis 2020 auf rund 23 Milliarden Dollar steigen wird. Das entspricht einem Plus von rund 19 Prozent pro Jahr.
Auf ähnliche Zahlen kommen die Marktforscher von MarketsandMarkets. Sie erwarten, dass Unternehmen 2021 an die 27 Milliarden Dollar für Business-Analytics-Software ausgeben werden.
Ein wichtiger Trend ist laut Gartner: „User und Geschäftsentscheider wollen die Option haben, dass sich solche Lösungen auch für einzelne Nutzer und Abteilungen bereitstellen lassen“, betont Rita L. Sallam, Research Vice President bei Gartner. Das bedeutet, dass flexiblere und kleinteiligere Ansätze gefragt sind, die schnell implementiert und an geänderte Anforderungen angepasst werden können.
Hier kommt die Cloud ins Spiel. BI oder Datenanalyse as a Service, die Nutzer von einem Cloud-Service-Provider beziehen, erfüllen diese Vorgaben. Die Dienste lassen sich ohne hohen Aufwand installieren. Datenbank-Server, Storage-Systeme und die Installation einer komplexen Software im eigenen Rechenzentrum sind nicht erforderlich. Zudem können weitere Lizenzen nach Bedarf geordert werden, etwa wenn weitere Mitarbeiter Zugang zu Analysen benötigen.
2. Teil: „Kleinere Firmen setzen auf Cloud“

Kleinere Firmen setzen auf Cloud

Solche Faktoren sind offenkundig vor allem für kleinere und mittelständische Unternehmen verlockend. Das ergab eine Anwenderbefragung des Würzburger Beratungsunternehmens BARC. Demnach setzen 67 Prozent der kleineren Firmen BI-Werkzeuge aus der Cloud ein. Von den Großunternehmen sind es nur 57 Prozent.
Bei Datenmanagement- und Analyse-Lösungen zeigt sich ein ähnliches Bild. Ein Grund dafür ist, dass Cloud-Lösungen einen geringeren Aufwand mit sich bringen. Nutzer müssen sie nicht im eigenen Rechenzentrum implementieren und betreiben, inklusive der erforderlichen Hardware. Ein potenzieller Nachteil ist die Abhängigkeit von schnellen Datenleitungen. Sind diese nicht vorhanden, können Performance-Probleme auftreten.
Obwohl der Betrieb von Geschäftsanwendungen in der Cloud allgemein sehr beliebt ist, scheinen es die Unternehmen bei der Implementierung von BI und Analytics in Cloud-Umgebungen dennoch nicht besonders eilig zu haben, so BARC. Dies gelte besonders für Firmen in Europa, während die Akzeptanz in Nord-, Mittel- und Südamerika und vor allem im Asien-Pazifik-Raum größer sei.
„Es spricht sehr viel für Cloud-BI. Firmen können dadurch unter anderem flexibler auf Veränderungen reagieren und den Verwaltungsaufwand für ihre IT-Abteilungen vor Ort deutlich reduzieren“, sagt Carsten Bange, Gründer und Geschäftsführer des Beratungshauses BARC. „Aus unserer Beratungspraxis in Europa wissen wir, dass es nicht an der
Attraktivität der Plattformen selbst liegt, dass so viele Unternehmen noch zögern, ihre BI-Landschaften in die Cloud zu verlagern.“
Vielmehr herrschen noch Bedenken hinsichtlich rechtlicher Aspekte, Sicherheit und Datenschutz vor. Zudem verfügen etliche Unternehmen noch über zu wenig Fachwissen in puncto Implementierung und Betrieb von Cloud-BI-Lösungen. Weitere Gründe sind mangelndes Vertrauen in die Anbieter oder deren Stabilität sowie der Wunsch, die Unternehmensdaten nicht aus der Hand zu geben.
Tipps für die Auswahl von Cloud-BI-Lösungen
Das Beratungshaus BARC geht davon aus, dass 2018 die Hälfte der Unternehmen cloudgestützte Business-Intelligence- und Analytics-Angebote einsetzen werden. Ein Problem für potenzielle Nutzer besteht darin, aus dem riesigen Angebot die passende Lösung herauszupicken.
Laut Qlik, Anbieter solcher Produkte, sollten Unternehmen bei Cloud-BI auf folgende Punkte achten:
  • Handelt es sich tatsächlich um eine Cloud-Lösung? Das heißt, der Zugriff sollte unabhängig vom Endgerät über den Browser erfolgen. Das Herunterladen von Apps und Client-Software erschwert die Nutzung und erhöht den Aufwand.
  • Einfache Bedienung: Auch technisch weniger versierte Mitarbeiter sollten in der Lage sein, Fragestellungen zu formulieren und vom BI-/Analytics-System Antworten zu erhalten – inklusive einer ansprechenden Aufbereitung der Resultate (Grafiken). Wichtig sind zudem Funktionen, die das Teilen und gemeinsame Bearbeiten von Analyse-Ergebnissen erlauben.
  • Intuitive und assoziative Untersuchung von Daten: Die Lösung sollte Analysen nicht auf vordefinierte Fragen einschränken. Der Nutzer sollte bei der Formulierung von Fragen möglichst keinen Begrenzungen unterworfen sein.
  • Anbindung externer Datenquellen: Das Cloud-BI-System sollte offen für externe Daten sein, etwa Geo-Informationen oder Wetter- und Finanzdaten.
  • Sicherheit, Kontrolle und Data Governance: Wichtig ist, dass ein Unternehmen auf einfache Weise den Zugriff auf bestimmte Daten steuern kann. Dies erfordern Datenschutzgesetze und Compliance-Regeln. Auch der Zugriff von Externen wie IT-Dienstleistern, Partnerfirmen und Zulieferern auf Informationen muss sich im Detail regeln lassen.
  • Kostenkontrolle: Etliche Cloud-Angebote weisen Fallstricke auf, etwa versteckte Kosten. Daher im Vorfeld prüfen und sich vom Anbieter bestätigen lassen, welche Kosten mit einem Cloud-BI-Service verbunden sind. Nützlich ist, wenn ein Testzugang zu dem Dienst vorhanden ist. Dies hilft dabei, den Funktionsumfang zu evaluieren und die Aufwendungen abzuschätzen.
3. Teil: „Vielzahl von Lösungsansätzen“

Vielzahl von Lösungsansätzen

Wer eine cloudgestützte BI- oder Analytics-Plattform nutzen möchte, steht zunächst vor folgendem Problem: Er muss aus der Fülle von Analyse- und Business-Intelligence-Produkten das passende Angebot herausfiltern. Erschwert wird dies dadurch, dass die Grenzen zwischen BI und reinen Analyse-Lösungen verschwimmen. Wurde BI bislang vor allem mit Reports und der Analyse von historischen Daten assoziiert, so hat sich das mittlerweile geändert. BI-Schwergewichte wie IBM, Microsoft, Oracle, SAS, Salesforce und SAP haben ihre BI-Angebote um Funktionen wie Predictive und Advanced Analytics erweitert.
Gleichzeitig sind auf dem Markt kleine, agile Anbieter aktiv. Zu ihnen gehören beispielsweise Clear Story Data, Domo und Birst. Ein Teil von ihnen konzentriert sich auf spezielle Bereiche wie das semantische Datenmanagement, Social Analytics – die Analyse von Social-Media-Daten –, die Aufbereitung und Integration von Daten oder maschinelles Lernen.
Speziell in Deutschland haben zudem zahlreiche Systemhäuser, Systemintegratoren und Beratungsunternehmen den Cloud-BI- und -Analytics-Markt für sich entdeckt. Die Studie „ISG Provider Lens Germany 2018 – Data Analytics Services & Solutions“ von ISG Research Deutschland listet beispielsweise in diesem Sektor Unternehmen wie Axians, Allgeier, Capgemini und Deloitte auf.
Hinzu kommen Analyse-Tools, die sich in vorhandene Business-Intelligence-Pakete einbinden lassen. Zu diesen zählt beispielsweise BI Office des niederländischen Unternehmens Pyramid Analytics. Die Software setzt auf Microsofts Business-Intelligence-Plattform Power BI auf. Die Fixierung auf Microsoft war allerdings auch einer der Hauptkritikpunkte an dem Analyse-Paket. Mittlerweile hat Pyramid mit Pyramid 2018 eine erweiterte Analytics-Software vorgestellt, die das Unternehmen als Analytics OS vermarktet. Sie basiert auf Java und arbeitet unabhängig von bestimmten Systemen und BI-Plattformen.
Business Intelligence versus Business Analytics
Häufig werden zwei Begriffe synonym gebraucht, wenn es um die Analyse von Daten und daraus resultierende Entscheidungen geht: Business Intelligence und Analytics. Auch unter Fachleuten ist umstritten, wo die Grenzlinie verläuft. Dies umso mehr, als die Anbieter von BI-Lösungen in ihre Produkte verstärkt Analyse-Funktion integrieren.
Allgemein formuliert umfasst Business Intelligence Technolo­gien, die Managern und Analysten dabei helfen, die richtigen Entscheidungen zu treffen. BI-Systeme stellen zu diesem Zweck Dashboards, Berichte und Pivot-Tabellen zur Verfügung. Ein Trend sind Selbstbedienungsservices. Mit ihnen können Nutzer Analysen und die entsprechenden Berichte nach eigenen Vorstellungen zusammenstellen.
Verfechter des Analytics-Ansatzes führen an, dass BI primär ein Blick in den Rückspiegel ist, also bestenfalls eine Analyse des Istzustandes ermöglicht. Zudem würden primär unternehmensinterne Informationen verarbeitet. Analytics umfasse dagegen auch Datenbestände, die außerhalb des Unternehmens generiert werden. Dazu zählen beispielsweise Reaktionen von Kunden auf Social-Media-Plattformen oder Daten von Maschinen, die bei einem Kunden im Einsatz sind. Ein weiteres Merkmal sei die Echtzeit-Auswertung von Informationen. In Kombination mit Techniken wie maschinellem Lernen und Künstlicher Intelligenz könnten moderne Analytics-Lösungen zudem valide Prognosen über künftige Entwicklungen abgeben.
Timo Elliott, Innovation Evangelist bei SAP, hält diese Debatte dagegen für akademisch. SAP verwendet deshalb den Begriff Business Analytics. Er umfasst sowohl BI- als auch Analyse-Lösungen, Data Warehouses und Bereiche wie Risikomanagement und Compliance. Auch Dipak Bhudia, Gründer des Cloud-Dienstleisters Clear Analytics, bevorzugt den Begriff Business Analytics. Bemerkenswert: Clear Analytics stellt seine Services allein via Cloud bereit, nicht mittels einer IT-Infrastruktur im eigenen Data-Center. Und sie konzen­trieren sich darauf, Informationen aus unterschiedlichen Quellen zu finden und in leicht verständliche „Insights“, also verwertbare Informationen, zu übersetzen.
Francois Ajenstat, Chief Product Officer bei Tableau, wiede­rum bemängelt, dass sich die herkömmliche BI auf komplexe Reports fokussiert, die nur für wenige Nutzer relevant sind. Er sieht in Selfservice Analytics eine Alternative. Sie erlaube es jedem Mitarbeiter, eine Analyse-Lösung mit eigenen Fragestellungen zu füttern und entsprechende Antworten zu erhalten.
4. Teil: „Die Großen zieht’s in die Cloud …“

Die Großen zieht’s in die Cloud …

Der Trend, BI-Umgebungen und Analytics-Anwendungen via Cloud bereitzustellen, wird sich nach Einschätzung der meisten Marktforscher in den kommenden Jahren massiv verstärken. Daher haben auch die großen Anbieter solcher Lösungen ihre Angebotspalette entsprechend erweitert.
Oracle hat beispielsweise mit Analytics Cloud eine komplette BI-Suite in die Cloud portiert, inklusive Analyse-Funktionen, die Nutzer nach dem Selbstbedienungsprinzip verwenden können. Den Analysten von Gartner zufolge fühlen sich allerdings manche Interessenten von der Komplexität des Angebots überfordert. Preislich liegt Oracle trotz der Komplexität seiner Lösung dagegen mit etwa 75 Dollar durchaus im üblichen Rahmen.
Eine vergleichbare Strategie wie Oracle verfolgen Microsoft mit Power BI und SAP. Der deutsche Software-Anbieter hat seine Analytics-Angebote in der SAP Analytics Cloud gebündelt. „Unser Analyseportfolio hilft Kunden, ihre Geschäftsabläufe besser nachzuvollziehen. Wir unterstützen sie auf diese Weise dabei, ihr Unternehmen zu vereinfachen und an das digitale Zeitalter anzupassen“, sagt Mike Flannagan, Senior Vice President SAP Analytics und SAP Leonardo bei SAP. Um die Datenanalyse-Funktionen zu erweitern, setzt SAP auf KI- und Machine-Learning-Ressourcen aus seinem Leonardo-Portfolio. Eine Version von SAP Analytics Cloud für bis zu 20 Nutzer ist für 21 Dollar pro Anwender und Monat erhältlich.
Zu den etablierten Anbietern von modernen BI-/Analytics-Lösungen mit einem starken Cloud-Angebot zählen laut Gartner unter anderem auch IBM, Ta­bleau, Qlik und SAS. Alle haben ihre Produktpalette um cloudbasierte Analyse-Lösungen erweitert beziehungsweise vorhandene Produkte entsprechend ergänzt.
Teilweise haben Nutzer mehrere Optionen: die Installation einer Lösung On-Premise, also im eigenen Rechenzentrum, oder die Nutzung eines Cloud-Angebots. Auch hier gibt es mehrere Möglichkeiten. SAS etwa bietet SAS Visual Analytics über eigene Cloud-Data-Center an. Außerdem ist die Suite über Amazon Web Services verfügbar, den weltweit größten Cloud-Service-Provider.
5. Teil: „… die Kleinen sind schon da“

… die Kleinen sind schon da

Speziell der Analytics-Markt wird durch eine Vielzahl von Anbietern geprägt, die erst seit einigen Jahren aktiv sind. Zwei Beispiele sind Birst und Sisense. Das New Yorker Unternehmen Sisense legt Wert auf eine einfache Bedienung. Den Gartner-Analysten zufolge nutzen Anwender weniger die Analysefunktionen der Plattform, sondern eher Reports und Dashboards. Das Erstellen von Daten- und Abfragemodellen sowie die Aufbereitung von Daten war bislang weitgehend Spezialisten vorbehalten. Positiv ist, dass Nutzer zwischen einer Hybrid und einer Private Cloud wählen können. Auch ein Betrieb ohne Cloud ist möglich.
Birst wiederum hat stärker Smart-Data- und Analyse-Anwendungen im Fokus. Eine Besonderheit ist Networked BI, eine Virtualisierungsebene für Daten und darauf aufsetzende Analysen. Dadurch, so der Anbieter, bleibt die Konsistenz von Daten gesichert, auch wenn unterschiedliche Abteilungen und Mitarbeiter sie für Analysen heranziehen. Zudem greifen alle Nutzer stets auf denselben Datenbestand zu. Birst zählt zu den Anbietern von BI-/Analytics-Tools, die ausschließlich auf eine Cloud-Architektur setzen.

Preis: ab etwa 25 Dollar

Die Einstiegspreise für die Cloud-Versionen von Analytics-Software bewegen sich meist zwischen 25 Dollar und 35 Dollar pro Anwender und Monat.
Tableau verlangt beispielsweise für die Personal Edition seiner Lösung Tableau Desktop rund 35 Dollar. Diese Version stellt grundlegende Funktionen bereit, etwa die Verknüpfung von Daten in Microsoft-Excel-Tabellen oder Spread­sheets von Google. Vielen Unternehmen dürfte das jedoch nicht genügen. Sie benötigen eine Anbindung an Datenbanken, etwa auf Basis von SQL. Außerdem beschränken etliche Anbieter die Basisausgaben ihrer BI- und Analyseangebote auf eine bestimmte Zahl von Nutzern, zum Beispiel auf 20. Das ist für ein kleines Unternehmen akzeptabel, nicht aber für einen Mittelständler.
Wer mehr Funktionen benötigt oder eine BI-/Analytics-Plattform einer größeren Zahl von Mitarbeitern zugänglich machen will, muss in der Regel zu Business- oder Enterprise-Versionen der Applikationen greifen. Dann steigen die Kosten pro Nutzer im Monat schnell auf rund 70 bis 100 Dollar oder noch mehr. In jedem Fall sollten Anwender prüfen, ob weitere Kosten hinzukommen, beispielsweise für Storage-Kapazitäten oder die Anbindung an Datenbanken.
BI und Analytics: Cloud versus On-Premise
6. Teil: „Hilfreich: eine Hybrid-Option “

Hilfreich: eine Hybrid-Option

Nur wenige Nutzer von Datenmanagement-, Analyse- und BI-Werkzeugen setzen komplett auf einen cloudgestützten Ansatz. Vielmehr zeichnet sich ab, dass speziell Unternehmen in Deutschland einen Mittelweg gehen: Ein Teil der Datenverarbeitung bleibt On-Premise, also im eigenen Rechenzentrum. Das gilt vor allem für unternehmenskritische Informationen und personenbezogene Daten. Weniger sensible Datenauswertungen werden dagegen as a Service bei Cloud-Service-Providern gebucht.
Daher ist es wichtig, dass die gewählten BI-/Analytics-Plattformen einen Hybrid-Ansatz unterstützen: Sie sollten sich in einer Private Cloud implementieren lassen, also im hauseigenen Data-Center. Gleichzeitig stellt der Anbieter im Idealfall eine Anbindung an eine zusätzliche Cloud-Komponente zur Verfügung.
Ein Hybrid-Modell auf Grundlage derselben Plattform ist in jedem Fall einer Strategie vorzuziehen, bei der parallel unterschiedliche Produkte zum Zuge kommen: eines für die Bearbeitung von Daten On-Premise sowie eine Cloud-Version von einem anderen Hersteller. Das führt zwangsläufig zu erhöhten Kosten und bindet unnötig Ressourcen, etwa in der hauseigenen IT-Abteilung.

Datenkompetenz ist gefordert

Analyse-Tools, Big Data und BI-Werkzeuge aus der Cloud oder dem Rechenzentrum sind für alle Unternehmen unverzichtbar, die aus Daten nutzbringende Informationen gewinnen möchten.
Hinzu muss allerdings ein weiterer Faktor kommen, so Robert Schmitz, General Manager Central & Eastern Europe bei Qlik: „Datenkompetenz ist inzwischen ebenso bedeutend wie Lesen und Schreiben. Daten verleihen Argumenten Gewicht und helfen dabei, bessere Entscheidungen zu treffen.“ Das gewinne an Bedeutung, denn „im Alltag haben wir es mit einer stets wachsenden Datenfülle zu tun – und es wird immer notwendiger, kompetent damit umzugehen.“
Doch gerade an dieser Datenkompetenz hapert es in vielen Unternehmen und bei vielen Mitarbeitern offenkundig. Das ergab eine Studie, die Qlik in Europa durchführen ließ. Demnach gaben 85 Prozent der Beschäftigten in europäischen Unternehmen an, dass ihnen besseres Datenmaterial und ein umfassenderes Verständnis solcher Informationen bei ihrer Arbeit helfen würden. Doch nur 49 Prozent haben auch Zugang zu den dafür relevanten Datenbeständen. Ganze 24 Prozent gaben an, dass sie geschäftsrelevante Informationen optimal nutzen können. Besonders auffallend ist, dass viele Fachleute und Führungskräfte zwar immerhin Zugang zu Daten haben, die für Analysen relevant sind, sie verfügen aber nach eigener Einschätzung nicht über die notwendige Kompetenz, diese Daten auch sinnvoll zu nutzen.
Das heißt, BI- und Analyse-Tools allein reichen nicht aus. Sie sind nur Mittel zum Zweck. Damit Anwender diese Werkzeuge nutzbringend einsetzen können, benötigen sie Schulungen und die entsprechende Datenkompetenz.
Diese Problematik betrifft im Übrigen nicht nur Fachar­beiter oder kleine Angestellte. Der Studie zufolge halten sich lediglich 10 Prozent der Absolventen von Hochschulen für datenkompetent. Abhilfe müssen deshalb nicht zuletzt auch die Ausbildungsstätten selbst schaffen, in Form von Lehrangeboten und Trainings.
7. Teil: „Von KI bis zu Edge Analytics“

Von KI bis zu Edge Analytics

Zu den Entwicklungen, die den Bereich Datenanalyse und Business Intelligence in den kommenden Jahren maßgeblich prägen werden, zählt der Einsatz von maschinellem Lernen (ML) und Künstlicher Intelligenz (KI).
Nahezu alle Anbieter von BI- und Analytics-Software haben ihre Produkte um solche Funktionen ergänzt oder haben dies in absehbarere Zeit vor. Ein wichtiges Kriterium ist dabei, den Nutzern den Einstieg in Künstliche Intelligenz und Machine Learning so einfach wie möglich zu machen.
„Die SAP Leonardo Machine Learning Foundation bietet Kunden, Partnern und Entwicklern digitale Intelligenz – und zwar unabhängig davon, ob diese sich erstmals mit diesem Thema beschäftigen oder bereits über eigene Data-Science-Teams verfügen“, erklärt beispielsweise Markus Noga, Leiter des Bereichs Machine Learning bei SAP. Der deutsche Software-Konzern hat Ende 2017 seine Machine-Learning-Plattform um Services erweitert, die unter anderem mehrdimensionale Zeitreihenanalysen ermöglichen. Damit können Anwender unter anderem den optimalen Preis für ein Produkt ermitteln.
„Bei Analytics- und vor allem Cloud-Spezialisten gibt es derzeit ein heißes Eisen, nämlich die Vertiefung des maschinellen Lernens über Deep-Learning-Systeme beziehungsweise neuronale Netzwerke, die mittels Plattformen und Schnittstellen angesteuert und verknüpft werden können“, bestätigt auch Heiko Henkes, Manager Advisor bei ISG Research Deutschland.
Deep Learning ist eine Technik, die es Systemen gewissermaßen erlaubt, eigenständig zu lernen und dadurch Muster und Cluster in großen Datenbeständen zu identifizieren. Techniken wie Deep Learning werden auch deshalb an Bedeutung gewinnen, weil durch das Internet der Dinge die Datenbestände sprunghaft anwachsen.
Je mehr Daten erfasst, aufbereitet und ausgewertet werden sollen, desto mehr Rechenleistung ist jedoch erforderlich. Um Engpässe in den Rechenzentren für die Cloud-Dienste zu vermeiden und die Datenleitungen zu entlasten, zeichnet sich im Bereich Analytics eine Dezentralisierung ab: Systeme am Rand eines Unternehmensnetzes führen eine erste Bearbeitung von Daten durch. Dies ist speziell in IoT-Umgebungen wichtig, in denen Daten in Echtzeit verarbeitet werden müssen. Dazu zählen zum Beispiel Produktionsumgebungen. So kann etwa ein Laufband bei Problemen nicht einfach stillstehen, bis die IoT-Sensoren Rückmeldung aus dem Rechenzentrum in der Cloud erhalten. Hier ist eine möglichst rasche Verarbeitung der Daten unerlässlich.
Für solche oder ähnliche kritische Einsatzzwecke stehen spezielle Analyse-Lösungen bereit. Führende Anbieter in diesem Bereich sind derzeit Microsoft mit Azure Stream, IBM mit Watson sowie Cisco Connected Steaming Analytics. Auch Intels Analytics Toolkit und Oracle mit Oracle Edge Analytics sind in diesem Marktsegment aktiv.
Solche Datenanalyse-Plattformen werden ebenfalls in der Regel als Cloud-Service angeboten. Damit haben auch kleinere Unternehmen die Chance, in diesem Umfeld mitzuspielen. Speziell für Deutschland mit seinen vielen Tausend kleineren Mittelständlern ist das sicherlich eine gute Nachricht.
BI- und Analytics-Lösungen aus der Cloud (Auswahl)

mehr zum Thema