Business-IT
05.01.2017
Machine Learning
1. Teil: „Kluge Maschinen sind auf dem Vormarsch “

Kluge Maschinen sind auf dem Vormarsch

Machine LearningMachine LearningMachine Learning
Zapp2Photo / Shutterstock.com
Deep Learning, neuronale Netze und künstliche Intelligenz revolutionieren Unternehmen und ihre Produkte. com! professional wirft einen Blick auf das Trendthema der IT.
Sie tragen meist Frauennamen und reagieren aufs Wort: Die Rede ist von Alexa, Cortana und Siri, den sprachgesteuerten Assistenzsystemen von Amazon, Microsoft und Apple.
Spracherkennung ist allerdings nur eine der vielen Anwendungen für selbstständiges, maschinelles Lernen durch Computersysteme. Zu den weiteren Anwendungen gehören beispielsweise Empfehlungssysteme in Online-Shops, die Betrugserkennung oder die DNA-Analyse. „Machine Learning eignet sich für ein riesiges Spektrum an Einsatzmöglichkeiten“, so Axel Köhler, Principal Solution Architect beim Grafikspezialisten Nvidia.
Der Hersteller bietet seit Kurzem mit dem DGX-1 einen Supercomputer für maschinelles Lernen an. Mit acht Tesla-P100-Grafikprozessoren ausgestattet leistet der Rechner laut Nvidia 170 TeraFLOPS (Floating Point Operations per Second). Ein TeraFLOPS sind 10 hoch 12 Gleitkommazahl-Operationen pro Sekunde, etwa Additionen oder Multiplikationen. Zum Vergleich: Laut Nvidia benötigte man hierfür bislang bis zu 250 Intel-Xeon-E5-Systeme.
Diese Leistung wird möglich, weil Grafikprozessoren Dutzende oder sogar Hunderte von Rechenvorgängen parallel abarbeiten können – einer der Gründe dafür, dass sich Machine Learning in den vergangenen zwei bis drei Jahren so enorm schnell weiterentwickelt hat. Hinzu kommt, dass der Rohstoff für maschinelles Lernen mittlerweile ebenfalls in Massen zur Verfügung steht: Daten. Vor allem das Internet produziert sie in Unmengen und macht sie auch noch leicht zugänglich. „Damit haben wir die beiden wichtigsten Voraussetzungen für Machine Learning“, sagt Daniel Klemm, Senior Analyst bei Crisp Research.
Welche Rolle das maschinelle Lernen mittlerweile spielt, lässt sich auch an den vielen Start-ups ablesen, die derzeit überall auf der Welt entstehen – nur um bald darauf von etablierten Konzernen geschluckt zu werden. Über 120 Akquisitionen gab es nach Recherchen von Klemm in der Zeit von Anfang 2015 bis Mitte 2016. Allein Amazon, Apple, Facebook, Google und Microsoft kauften von 2014 bis 2016 mehr als 20 Firmen aus dem Machine-Learning-Bereich ein.

Beispiele für Machine Learning

Selbstlernende Systeme sind mittlerweile in vielen Branchen und Bereichen im Einsatz. „Wir sehen eine große Nachfrage in Vertriebs- und Marketingabteilungen, die mit Hilfe historischer Daten das Kaufverhalten des Kunden vorhersagen wollen“, sagt Jakob Rehermann, Geschäftsführer des Berliner Software-Unternehmens Datapine, „aber auch im produzierenden Gewerbe steigt das Interesse am Einsatz von Machine Learning.“
Datapine setzt in seiner SaaS-basierten Business-Intelligence-Lösung an zwei Stellen auf Machine Learning. Zum einen überwacht ein selbstlernendes System wichtige Unternehmenskennzahlen und alarmiert den Anwender, sobald ein erwartetes Muster oder ein vorhergesagter Trend gebrochen wird. „Die bisher am Markt vorhandenen Überwachungssysteme basieren zumeist auf absoluten oder relativen Schwellenwerten und berücksichtigen keine saisonalen Trends oder erwarteten Schwankungen“, erklärt Rehermann den Nutzen. Zum anderen setzt Datapine Machine-Learning-Algorithmen für die automatische Analyse von Datensets ein. Sie sollen versteckte Zusammenhänge, Einflussfaktoren, Besonderheiten und Korrelationen finden. „Diese Einblicke können für die Erstellung von Dashboards wiederverwendet werden und ermöglichen dem Benutzer eine deutlich zielgerichtetere Analyse“, so Rehermann weiter. Damit seien Erkenntnisse möglich, die bisher nur mit sehr fortgeschrittenen Statistikkenntnissen und Programmen wie SPSS generiert werden können. SPSS ist eine Statistik- und Analyse-Software von IBM. „Mit Hilfe von Machine Learning befähigen wir jeden Anwender, zu den gleichen und oft besseren Ergebnissen zu kommen.“ Außerdem ließe sich so die Zeit zwischen der Datenverarbeitung und den daraus gewonnenen Erkenntnissen von mehreren Stunden auf wenige Minuten reduzieren.
Sicherheitsspezialist Bitdefender nutzt bereits seit 2009 Machine Learning in seinen Produkten und Dienstleistungen und erzielt dadurch nach eigenen Angaben höhere Erkennungsraten als der Wettbewerb. „Der wesentliche Unterschied zu herkömmlichen Methoden ist, dass Maschinen nicht müde werden“, sagt Liviu Arsene, Senior E-Threat Analyst bei Bitdefender, „sie können die immer selben Aufgaben mit gleichbleibender Genauigkeit wiederholen.“ Maschinen seien deswegen perfekt für das Clustering großer Datenmengen geeignet. „Herkömmliche Methoden zur Analyse großer Datenmengen sind (…) wesentlich langsamer.“
2. Teil: „So funktioniert Machine Learning“

So funktioniert Machine Learning

Maschinen spielen immer dann ihre Stärke aus, wenn der Mensch selbst nicht so genau weiß, was er berechnen und wie er es berechnen möchte. „Mit selbstlernenden Advanced-Analytics-Lösungen können Data Scientists effektiver strukturierte und unstrukturierte Daten verarbeiten“, sagt Christoph Hartmann, Business Expert Manufacturing bei SAS. Der Spezialist für Big-Data-Analysen setzt auf seiner Plattform Viya Machine Learning ein, um Anwender bei der Aufbereitung und Auswertung von Daten zu unterstützen.
„Machine-Learning-Verfahren erlauben es, Muster in großen Datenmengen zu identifizieren, ohne dass die Struktur der Muster explizit vor­gegeben sein muss“, ergänzt Ralf Herbrich, Director Machine Learning Science bei Amazon Web Services (AWS). Lernende Systeme können aber nicht nur Gesetzmäßigkeiten in großen Datenmengen erkennen und daraus Regeln zur Klassifizierung ableiten. Sie treffen auch Vorhersagen über zukünftige Ereignisse, bereiten wissensbasiert Entscheidungen vor oder treffen diese sogar ohne menschliches Zutun.
Die verschiedenen Machine-Learning-Ansätze lassen sich grob in zwei Kategorien einteilen: das Unsupervised Learning, bei dem die Systeme ohne menschliches Zutun lernen, und das Supervised Learning, bei dem ein menschlicher „Trainer“ oder „Lehrer“ die Lernergebnisse bewertet.
Prinzipiell läuft das Lernen aber in beiden Kategorien nach einem ähnlichen Schema ab: Das System erhält zunächst Trainingsdaten, anhand derer es ein Modell ableitet. Dieses wird mit Hilfe von Testdaten überprüft und optimiert. Nach einigen Durchgängen kann das Verfahren dann auf Daten angewandt werden, deren Klassifikation unbekannt ist, um Muster oder Assoziationen zu finden.
Unsupervised Learning ist vor allem dann sinnvoll, wenn die für eine Klassifikation notwendigen Informationen nicht von vornherein ersichtlich sind. Laut Olivia Klose, Technical Evangelist bei Microsoft, wird diese Methode zum Beispiel eingesetzt, um Daten zu segmentieren, der sogenannten Clusteranalyse, oder auch um in riesigen Datenmengen mit vielen Tausend Attributen relevante Zusammenhänge zu finden, der sogenannten Hauptkomponentenanalyse. Überwachte Lernmethoden eignen sich dagegen eher für Anwendungen, in denen der mensch­liche Trainer die unterschied­lichen Klassen kennt und die Trainingsdaten entsprechend kennzeichnen kann, etwa bei der Bild­erkennung.

Shallow Learning und Deep Learning

Häufig kommen beim maschinellen Lernen künstliche neuronale Netze (KNN) zum Einsatz, die die Informationsverarbeitung im Gehirn zum Vorbild haben. Wie dort lernen diese Netze, indem Verbindungen zwischen Neuronen verstärkt oder unterdrückt werden, sich die Gewichtung der Neuronen ändert, neue Neuronen hinzukommen oder inaktive abgebaut werden. Je nach Komplexität der verwendeten neuronalen Netze spricht man dabei von Shallow Learning oder Deep Learning. Beim Shallow Learning kommen nur ein oder wenige Neuronen zum Einsatz, Deep-Learning-Verfahren wie rekurrente oder „gefaltete“ neuronale Netze, sogenannte Convolutional Neural Networks, basieren auf komplexeren, mehrschichtigen Strukturen und können mehr als 1000 Neuronenschichten enthalten.
Neuronale Netze sind aber nicht die einzige Methode für maschinelles Lernen. Lernende Filter, etwa zur Spam-Erkennung, basieren beispielsweise meist auf dem Satz von Bayes (Bayes-Theorem), mit dem sich bedingte Wahrscheinlichkeiten berechnen lassen. So zieht die Machine auch mit unsicherem Wissen Schlussfolgerungen.
Bei Klassifizierungen oder Kategorisierungen beispielsweise von Texten, Bildern oder numerischen Werten kommen häufig weitere Machine-Learning-Methoden wie die logistische Regression, Support Vector Machine (SVM), Relevance Vector Maschine (RVM), Entscheidungsbäume (Decision Trees), Bootstrap Aggregating (Bagging), Stochastic Gradient Descent (SGD) oder Random Forests zum Einsatz.
3. Teil: „Eigene Machine-Learning-Projekte“

Eigene Machine-Learning-Projekte

Machine Learning bietet faszinierende Möglichkeiten und hat sich in den vergangenen Jahren rasant weiterentwickelt. Jürgen Wirtgen, Data Platform Lead bei Microsoft, warnt dennoch vor unrealistischen Erwartungen: „Der am meisten verbreitete Mythos ist, dass Machine Learning Antworten liefert, ohne dass Fragen gestellt werden.“ Am Anfang eines Projekts müssten deshalb eine klare Zieldefinition und die da­raus abgeleiteten richtigen Fragen stehen, so Wirtgen weiter.
Sind diese Fragen gefunden, ist das System zu trainieren – ein weiterer Punkt, der Probleme mit sich bringen kann, weiß AWS-Director Herbrich: „Oft sind weder genügend Daten noch Daten von ausreichend guter Qualität direkt verfügbar.“ Dabei müssen die Daten nicht nur aus den verschiedenen Quellsystemen extrahiert und zusammengeführt, sondern auch für die Analyse aufbereitet, transformiert und auf die relevanten Parameter reduziert werden.
Es gibt bereits erste Software-Lösungen am Markt, die Daten analysieren und Anpassungen vorschlagen, sagt Data­pine-Chef Rehermann. „Generell aber ist die Aufbereitung der Daten stark abhängig vom angewendeten Algorithmus und kann nur bedingt automatisiert werden.“
Eine weitere Frage, die sich nicht ohne Weiteres automatisiert klären lässt, ist die nach der Kostenfunktion. Der Zusammenhang zwischen Nutzen und Aufwand kann beispielsweise linear, progressiv, degressiv oder auch sprunghaft sein. „Beim Einsatz von Machine Learning (…) ist die Kostenfunktion zu finden, die am besten zum Geschäftsproblem passt, das gelöst werden soll“, sagt AWS-Director Herbrich. Bei der Betrugserkennung beispielsweise muss man die Kostenfunktion finden, die Betrugsfälle minimiert, ohne inakzeptabel viele Fehlalarme auszulösen.
Zwei weitere typische Probleme beim Einsatz von Machine Learning sind die Auswahl des geeigneten Algorithmus sowie die Interpretation der Ergebnisse. Die größte Schwierigkeit dabei ist es, unter einer Vielzahl von Ansätzen den sinnvollsten Algorithmus für den aktuellen Anwendungsfall zu finden. „Basierend auf der dabei zugrunde liegenden Logik muss evaluiert werden, wie das Ergebnis interpretiert wird beziehungsweise wie aussagekräftig dieses ist“, sagt Jakob Rehermann von Datapine.

Machine Learning als Blackbox

Keine einfache Aufgabe, denn häufig ist nicht leicht nachvollziehbar, was eigentlich genau bei diesen Analysen passiert. „Viele Machine-Learning-Systeme sind eine Art Blackbox, bei der nur schwer zu verstehen ist, wie ein Ergebnis zustande kommt“, erklärt Crisp-Analyst Daniel Klemm. „Man muss lernen, mit diesen Unsicherheiten umzugehen.“
Dieser Blackbox-Charakter zeichnet vor allem neuronale Netze aus und macht es laut Rehermann oft schwer, die Resultate solcher Machine-Learning-Algorithmen gegenüber Vorgesetzten überzeugend darstellen zu können. „Die Vorgehensweise zum Erhalt der Berechnungsergebnisse bei wichtigen Entscheidungen ist nicht nachvollziehbar.“
Unternehmen sollten deshalb damit beginnen, das notwendige Wissen und Personal aufzubauen, rät Klemm. „Wahrscheinlich hat man diese Experten nicht im Haus.“ Weitere entscheidende Punkte, die beachtet werden müssen, sind Datenschutz und Compliance, so Klemm weiter, „und natürlich braucht man Rechenkapazität“. Je nach Anforderungen seien die Public Cloud, das eigene Rechenzentrum oder auch Multi- beziehungsweise Hybrid-Cloud-Ansätze das Richtige. Anfangs sollte man dabei vor allem auf Flexibilität achten, sagt Klemm. „Man wird sicher nicht von vornherein genau wissen, welche Lösung die richtige ist und wie man sie am besten anwendet.“ Deshalb sei es sinnvoll, zunächst im kleinen Rahmen Experimente zu machen.
Auch Jürgen Wirtgen von Microsoft hält diesen Ansatz für richtig: „Es hat sich in vielen erfolgreichen Projekten gezeigt, dass die ersten Phasen von Machine-Learning-Projekten experimentell geprägt sind. Ein schnelles Scheitern und eine rasche Korrektur von Ansätzen helfen, am Ende eine erfolgreiche Machine-Learning-Lösung zu entwickeln.“
4. Teil: „Machine Learning aus der Cloud“

Machine Learning aus der Cloud

  • Cloud Machine Learning Platform: Die Plattform von Google bietet unter anderem vortrainierte Modelle für maschinelles Lernen an.
Gerade in dieser Anfangsphase sind Machine-Learning-Services aus der Cloud eine gute Wahl. Microsoft bietet dafür mit der Cortana Intelligence Suite und dem Azure Machine Learning ein Lösungsportfolio, das unter anderem auch für Predictive Maintenance genutzt werden kann. Die Suite integriert Dienste wie Speicher, Informationsmanagement, Machine Learning und Bot-Frameworks sowie vorkonfigurierte Lösungen, zum Beispiel für Gesichts-, Iris-, Sprach- und Texterkennung.
Amazon Web Services offeriert mit Amazon Machine Learning einen Dienst, der es auch Software-Entwicklern ohne tiefer gehende Kenntnisse in Machine Learning möglich machen soll, maschinelles Lernen für ihre Projekte zu verwenden. Ende 2016 hat das Unternehmen außerdem drei neue Dienste vorgestellt, die Künstliche Intelligenz quasi als Dienstleistung zur Verfügung stellen. Amazon Lex soll die Programmierung eigener Sprachassistenten erleichtern. Anwendungsmöglichkeiten sind Webapplikationen oder Apps, aber auch sprachgesteuerte Geräte. Während es bei Lex um das Verständnis von Sprache geht, ist der Dienst Amazon Polly auf die Sprachausgabe ausgerichtet. Entwickler können mit seiner Hilfe bereits existierende Programme zum Sprechen bringen oder neue Produkte mit Sprachfunktion kreieren. Mögliche Anwendungsfelder sind Newsreader oder E-Learning-Plattformen. Mit Amazon Rekognition erstellen Entwickler Programme, die Bilder analysieren und Gesichter, Objekte und Szenen erkennen.
Mit der Cloud Machine Learning Platform stellt auch Goo­gle Services bereit, die die Nutzung von maschinellem Lernen und die Entwicklung von KI-Programmen vereinfachen sollen. Die Plattform basiert auf neuronalen Netzen und enthält unter anderem vortrainierte Modelle. Google unterstützt das quelloffene Machine-Learning-Framework TensorFlow, das mathematische Berechnungen in Flussdiagramme übersetzt. Daten lassen sich über den Google-Dienst Cloud Data­Flow aggregieren, bearbeiten und für Machine-Learning-Aufgaben zur Verfügung stellen.

Fazit

Machine Learning hat unsere Welt bereits weiter durchdrungen, als den meisten von uns bewusst sein dürfte. Bei Produktempfehlungen im Online-Shop, der Suche nach Bildmotiven auf Google oder der Sprachkommunikation mit dem Smartphone – immer sind selbstlernende Systeme beteiligt. Dazu kommen die ganz offensichtlichen Anwendungsfälle wie Predictive Maintenance oder auch das autonome Fahren.
Cloudbasierte Baukastenmodelle machen den Einstieg leicht, bergen aber auch die Gefahr, Machine Learning um seiner selbst willen zu betreiben, weil es in Mode ist und keine großen Investitionen in Hard- und Software erfordert.
So klug die Maschinen auch geworden sind, sie können die geistige Vorarbeit eines Menschen nicht ersetzen. Wer sich nicht genügend Gedanken darüber gemacht hat, was Ma­chine Learning für ihn bezwecken soll, wird sich im Algorithmen-Dschungel verlieren und mit jeder Menge Datenmüll dastehen.

mehr zum Thema