Künstliche Intelligenz
26.09.2017
Neuronale Netze und maschinelles Lernen
1. Teil: „In kleinen Schritten zur Künstlichen Intelligenz“

In kleinen Schritten zur Künstlichen Intelligenz

Künstliche IntelligenzKünstliche IntelligenzKünstliche Intelligenz
Zapp2Photo / shutterstock.com
Künstliche Intelligenz ist aus dem akademischen Milieu in den Bereich praktischer Anwendungen getreten. Selbständig lernende Maschinen sind in der Realität angekommen.
Im Zuge der digitalen Transformation sind Künstliche Intelligenz (KI) und Machine Learning (ML) plötzlich in aller Munde. Persönliche Assistenten wie Apple Siri, Microsoft Cortana, Amazon Alexa oder auch Facebook M sind nahezu im Gleichschritt auf den Plan getreten. Systeme, die aus großen Datenmengen eigenständig lernen, haben die Sphäre der Science-Fiction verlassen und sind Realität.
Möglich geworden ist das durch mehrere parallele IT-Entwicklungen: Zum einen hat die Cloud-Revolution massive Rechenleistungen erschwinglich und zugänglich gemacht. Zum anderen produziert die Industrie 4.0 mit ihrer allgegenwärtigen Sensorik enorme Datenmengen. Für Unternehmen gilt es, aus diesen unstrukturierten, zum Teil sogar scheinbar unzusammenhängenden Informationseinheiten betriebswirtschaftlich relevante, konkret umsetzbare Erkenntnisse zu gewinnen – und das nicht bloß einmal, sondern kontinuierlich, zuverlässig und vorhersehbar. Künstliche Intelligenz und maschinelles Lernen sollen der Datenflut wertvolles Wissen entlocken.

Cognitive Computing

Alles Digitale werde in naher Zukunft kognitiv sein, weissagt IBMs Geschäftsführerin Ginni Rometty. Diese Sichtweise liegt vermutlich auch darin begründet, dass nach dem Ab­stoßen beider x86-Hardware-Sparten und sonstiger Kronjuwelen vom Kerngeschäft des blauen Riesen praktisch nur noch das kognitive System Watson übrig blieb. Doch ist IBMs Chefin mit ihrer Auffassung nicht allein. Laut einer IDC-Studie sollen bis 2019 etwa 40 Prozent aller digitalen Trans­formationsinitiativen KI-gestützt ablaufen und so gut wie alle erfolgreichen IoT-Implementierungen sollen über kognitive Fähigkeiten verfügen.
Diese Entwicklungen machen auch vor dem Mittelstand nicht halt. Im Unterschied zu internationalen Großkonzernen, die sich oftmals in riesigen Technologiesprüngen nach vorn katapultieren, steht der Mittelstand allerdings vor der zusätzlichen He­rausforderung, die erforderlichen Innovationen zu implementieren, ohne die eigene Existenz zu gefährden. Die Devise muss deshalb heißen: In kleinen Schritten vorangehen.
Ein Streifzug durch KI-Ansätze in unterschiedlichen Branchen und Unternehmen soll das Potenzial der Technologie veranschaulichen – das Spektrum reicht vom Expertensystem in der Compliance-Abteilung der Schweizer Großbank Credit Suisse über Prognosen mit neuronalen Netzen bei Siemens bis hin zu ersten Schritten Richtung selbstfahrendes Auto bei BMW.
2. Teil: „Expertensystem bei Credit Suisse“

Expertensystem bei Credit Suisse

  • KI bei BMW: Der Autokonzern optimiert das Fahrverhalten mit Hilfe der Deep-Learning-Algorithmen von IBM Watson.
    Quelle:
    IBM Watson Group
Viele Unternehmen können die benötigten Qualifikationen über den Arbeitsmarkt gar nicht so schnell aufbringen, wie sich ihre Anforderungen verändern.
Expertensysteme sind hier in der Lage, die im Unternehmen vorhandenen Qualifikationen der Mitarbeiter kurzfristig um fehlende Kompetenzen zu erweitern, indem sie ihnen die benötigten Informationen KI-getrieben aufbereitet zur Verfügung stellen.
Der US-amerikanische Ableger der Credit Suisse (CS) hat ein solches System in der Compliance-Abteilung im Einsatz, die für die interne Compliance-Beratung verantwortlich ist.  Zuvor konnten die Mitarbeiter zwar ein firmeninternes Callcenter der Bank anrufen, mussten aber unter Umständen während ihrer Arbeitszeit unproduktiv auf die Verfügbarkeit eines Compliance-Spezialisten warten. Außerhalb der Bürozeiten blieb den Fachkräften nichts anderes übrig als in Handbüchern zu blättern oder durch Webseiten zu scrollen, um ihre Compliance-Fragen in Eigenregie zu klären. Jetzt können die Mitarbeiter der Bank ihre Fragen an einen KI-gestützten Chatbot richten – dieser habe dann, so Brian Chin, Vorstandsmitglied der Credit Suisse, „sofort die anwendbare Richtlinie parat“.
Das Bankinstitut erhofft sich von der Technologie eine Reduzierung der Anfragen seitens der Mitarbeiter an das interne Callcenter um bis zu 50 Prozent. Durch den Wegfall der Wartezeiten dürfte zudem die Produktivität der Mitarbeiter bei ihren primären Aufgaben merklich zunehmen.
Anwendungsgebiete für Künstliche Intelligenz und Machine Learning
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) alias Cognitive Computing kommen vielerorts bereits praktisch zum Einsatz. Sechs Felder lassen sich hauptsächlich unterscheiden:
Verarbeitung natürlicher Sprache (NLP, Natural Language Processing): Erkennen akustischer Si­gnale und ihrer Bedeutung. Beispiele dafür sind etwa die Umsetzung von Sprachbefehlen durch persönliche Assistenten wie Apple Siri oder Amazon Alexa, die Benutzerauthentifizierung auf Basis der Stimme und auch die Interpretation von Abbildungen von Computer- und Magnet­resonanztomographen durch das selbstlernende System Siemens SENN.
Bilderkennung und -verarbeitung: Interpretieren der Bedeutung von Inhalten in visuellem Material. Beispiele: Gesichtserkennung in Bildern und Videos aus Sicherheitskameras an Bahnhöfen, Erkennen der Stimmungslage von Fußgängern beim Betrachten von Reklametafeln bei der Modefirma GAP Schweiz.
Expertensysteme: Sammeln und Bereitstellen von Fachwissen. Beispiele dafür sind Beratungen im juristischen Bereich durch kognitive Systeme auf der Basis von IBM Watson, sogenannte evolutionäre Algorithmen sowie kollektive Intelligenz, eine Kombination aus KI und menschlichem Spezialwissen.
Deep Learning: Entdecken von neuem Wissen in bestehenden Daten. Ein Beispiel dafür ist etwa das Auffinden unbekannter Wechselwirkungen zwischen Medikamenten anhand anonymisierter Patientendaten.
Robotik und Pfadfindung: Bestimmen des optimalen Wegs und andere Entscheidungen autonomer Systeme. Beispiel: der Einsatz simulierter Schwarmintelligenz zur Wegfindung durch Müllabfuhrroboter.
Optimierungen und Heuristiken: Optimieren komplexer Systeme mit einer unübersichtlichen Anzahl von Variablen. Beispiele dafür sind: Prognosen für Siemens-Gasturbinen oder -Windparks, Googles neuronales Netz zum Optimieren der Energie­effizienz von Rechenzentren, vorausschauende Wartung von cyberphysischen Systemen der Industrie 4.0 und/oder Systemen mit einer hohen Ungewissheit, etwa Entscheidungen eines autonomen Fahrzeugs bei sich plötzlich verschlechternden Sichtverhältnissen oder auf einer noch unbekannten Strecke.
3. Teil: „Deep Learning bei Siemens“

Deep Learning bei Siemens

  • Kleine Schritte: Nach der Trainingsphase des neuronalen Netzes verbesserte sich der Energieeffizenz-Wert (PUE) von Googles Rechenzentren signifikant.
    Quelle:
    Google / Jim Gao
Siemens hat unter der Leitung von Hans-Georg Zimmermann kognitive, also selbstständig lernende und sich selbst optimierende industrielle Systeme entwickelt, um die Leistung von Gasturbinen und Windparks zu steigern. Der Konzern setzt das hauseigene neuronale Netz SENN (Systems Software Environment for Neural Networks) auch ein, um treffsichere Nachfrageprognosen oder Vorhersagen zu Rohstoffpreisen und Börsenkursen oder die zu erwartende Auslastung von Stromnetzen zu berechnen.
„Solche hochpräzisen Nachfrageprognosen können bei der Optimierung der Lieferkette helfen und die Kosten reduzieren“, erklärt Zimmermann. Insbesondere Stromprognosen seien wichtig, denn mit dem steigenden Anteil erneuerbarer Energien wie Wind am Energiemix müssten Energieversorger nicht nur die Nachfrage, sondern auch die Liefermengen vorhersagen können, erläutert er.
Siemens setzt für seine Projekte stark auf Deep-Learning-Ansätze. Deep Learning hat zum Ziel, mit Hilfe von Software-Algorithmen, die ganz ohne menschliche Intervention ablaufen, abstrakte Konzepte zu entwickeln. In der Vergangenheit setzte maschinelles Lernen eine Vorabklassifizierung der Rohdaten durch Daten-Wissenschaftler voraus (Deep Learning ging aus Data Mining hervor), heute sind menschliche Eingriffe meist nicht mehr nötig.
Deep Learning macht sich multischichtige künstliche neuronale Netze zunutze. Bei künstlichen neuronalen Netzen handelt es sich um eine Software-Ablauflogik, die die Aktivitäten von Neuronen im Neocortex – dem Bereich des menschlichen Gehirns, in dem das Denken stattfindet – mit Hilfe komplexer mathematischer Algorithmen simuliert.
Siemens SENN nutzt für seine treffsicheren Prognosen eben solche künstlichen neuronalen Netze. Das System durchläuft zuerst eine Trainingsphase, in der es ein Modell der Zusammenhänge zwischen verschiedenen Variablen errechnet. Dann lässt das System einen Lern­algorithmus mehrere Tausend Iterationen durchlaufen, indem es die einzelnen Parameter des Modells nach und nach geringfügig verändert, um die Diskrepanz zwischen den Ist- und den Sollwerten zu minimieren.
Auf diese Weise bewegt sich das Modell weg von den anfänglichen Zufallsergebnissen hin zu einer derart fein abgestimmten Gewichtung von Parametern, dass neue Eingabewerte eine höchst verlässliche Prognose zutage fördern. Das System kann dadurch Vorhersagen errechnen, die auch tatsächlich eintreffen.
So liegt beispielsweise der durchschnittliche Vorhersagefehler bei der Prognose der Gesamtleistung eines Siemens-Windparks pro Tag mittlerweile bei lediglich 7,2 Prozent (und schneidet damit um ganze drei Prozentpunkte besser ab als das zweitbeste Modell). Ähnliche Modelle für Photovoltaikanlagen befinden sich in der Entwicklung.
Siemens arbeitet außerdem intensiv am Einsatz autonomer cyberphysischer Systeme, die im Rahmen von Industrie 4.0 in einer kollaborativen, adaptiven, flexiblen Produktion zum Einsatz kommen sollen.
Ein weiterer Beleg für die rasanten Fortschritte bei Deep  Learning ist die Treffsicherheit der automatisierten Bilderkennung: Sie ist kürzlich sprunghaft auf das menschliche Niveau von mehr als 95 Prozent angestiegen. Lange Zeit war der Wert bei wenig brauchbaren 80 Prozent steckengeblieben.
4. Teil: „Maschinelles Lernen“

Maschinelles Lernen

  • Intel Developer Forum: Doug Davis, General Manager der Internet of Things Group bei Intel, stellt vor einem BMW i3 seine Vision vom selbstfahrenden Fahrzeug vor.
    Quelle:
    Intel
Automobilhersteller träumen schon seit Jahr(zehnt)en den Traum vom autonomen Fahrzeug. Lange Zeit schien das Ziel unerreichbar zu sein, inzwischen fahren vielerorts autonome Pkws im Straßenverkehr herum oder parken in aller Ruhe selbst ein. Im US-amerikanischen Bundesstaat Nevada sind sie bereits seit 2011 gelebte Realität.
Autonome Fahrzeuge sind zum Aushängeschild für maschinelles Lernen geworden. Intel rechnet sogar damit, dass ein ganz neuer Wirtschaftssektor entsteht, die sogenannte Passenger Economy. Von MaaS (Mobility as a Service) ist die Rede. Strategy Analytics schätzt das ökonomische Potenzial dieses KI-Bereichs für das Jahr 2035 auf 800 Milliarden Dollar; ein explosives Wachstum auf bemerkenswerte 7 Billionen Dollar sei bis zum Jahr 2050 zu erwarten, sagt die von Intel beauftragte Studie voraus. Das Massachusetts Institute of Technology MIT spricht von selbstfahrenden Lastwagen für die autonome, KI-gestützte Logistik wie von einer Selbstverständlichkeit – schließlich sind diese ja tatsächlich in der Entwicklung, zum Beispiel bei Otto, dem kalifornischen Spezialisten für autonome Lkws, der jetzt zur Uber-Gruppe gehört.
Auch bei traditionellen Autokonzernen arbeitet man mit Hochdruck an KI für das Auto der Zukunft. Die Forscher der BMW Group sind dafür in die globale IoT-Zentrale von IBM in München eingezogen, um gemeinsam mit Watson-gestützten KI-Lösungen die Verbesserung des Fahrerlebnisses voranzubringen. BMW möchte durch maschinelles Lernen die Wünsche der Kunden anhand von Big Data frühzeitig erahnen und mit intelligenten Assistenz-Funktionen umsetzen, getreu dem Firmenmotto „Freude am Fahren“.
Wesentlichen Anteil am Durchbruch hat ein wagemutiger Querdenker, der Wissenschaftler Sebastian Thrun. Der Solinger schuf die Grundlagen der Informatik für selbstfahrende Autos an der Stanford University und hat in seinem geheimen Google-Lab erste Technologiestudien aus der Taufe gehoben. Als Gründer der Online-Universität Udacity und einer der Vorreiter der MOOC-Bewegung (Massive Open Online Course) ist er in KI-Kreisen als nimmermüdes Multitalent bekannt. „Ich bin umgeben von Unternehmen, die verzweifelt nach Talenten suchen“ sagt Thrun. Mitbewerber, die nicht aus dem traditionellen Unternehmensumfeld stammen, würden sich gerade heftig bemühen, starke Teams aufzubauen. Bei Übernahmen ließen sich diese Firmen ihre Zukäufe umgerechnet bis zu 10 Millionen Dollar pro dort beschäftigtem KI-Spezialisten kosten. „Doch das Know-how zum Bau selbstfahrender Autos erfordert ein disziplinübergreifendes Fachwissen, das es zurzeit schlicht und ergreifend immer noch nicht gibt“, führt Thrun weiter aus.

Fazit

Die Notwendigkeit, anhand massiver Datenströme Lösungen für komplexe Probleme zu finden, traf in den vergangenen Jahren mit abnehmenden Kosten für Rechenleistung und beachtlichen Fortschritten in massiver Parallelisierung zusammen. Das Resultat sind ambitionierte Versuche der IT-Branche, Computersystemen menschenähnliches Denken beizubringen.
Doch nicht alle Initiativen sind automatisch auf Anhieb von Erfolg gekrönt, wie es Microsoft schmerzlich erfahren musste. Microsofts berühmt-berüchtigter Chatbot Tay bekam vergangenes Jahr die Aufgabe, sich unbeaufsichtigt in Echtzeit-Plaudereien mit Twitter-Benutzern zu engagieren. Anfangs ging der PR-trächtige Bot auch erwartungsgemäß höflich und respektvoll zu Werke. Doch bald war Schluss mit der politischen Korrektheit. Tay hatte sich von dem Benehmen seiner menschlichen Diskussionspartner prompt widerliche Sitten abgeschaut und begann, üble Tweets als Eigenkreationen abzusetzen. Innerhalb von weniger als 24 Stunden musste Microsoft dem KI-Chatbot schlagzeilenträchtig den Stecker ziehen.
Microsofts Lektion in Sachen KI-Entwicklung illustriert die Notwendigkeit, Künstlicher Intelligenz Grenzen zu setzen, damit die „Kreativität“ der Maschine nicht aus dem Ruder läuft. Viele kommerzielle KI-Lösungen werden unter anderem aus diesem Grund streng beaufsichtigt. Bei Facebook beispielsweise sitzen am anderen Ende der Leitung zur vermeintlichen KI-Software Menschen aus Fleisch und Blut.
Beim Einsatz von Künstlicher Intelligenz und maschinellem Lernen wird es in absehbarer Zukunft um viele ganz kleine Schritte gehen. Klar ist allerdings auch: Es gibt kein Zurück mehr. Unternehmen, die morgen mit dabei sein möchte, sollten sich von den KI-Vorreitern eine Scheibe abschneiden.

mehr zum Thema