26.09.2017
Neuronale Netze und maschinelles Lernen
1. Teil: „In kleinen Schritten zur Künstlichen Intelligenz“
In kleinen Schritten zur Künstlichen Intelligenz
Autor: Filipe Pereira Martins
Zapp2Photo / shutterstock.com
Künstliche Intelligenz ist aus dem akademischen Milieu in den Bereich praktischer Anwendungen getreten. Selbständig lernende Maschinen sind in der Realität angekommen.
Künstliche Intelligenz (KI) und Machine Learning (ML) plötzlich in aller Munde. Persönliche Assistenten wie Apple Siri, Microsoft Cortana, Amazon Alexa oder auch Facebook M sind nahezu im Gleichschritt auf den Plan getreten. Systeme, die aus großen Datenmengen eigenständig lernen, haben die Sphäre der Science-Fiction verlassen und sind Realität.
Im Zuge der digitalen Transformation sind Möglich geworden ist das durch mehrere parallele IT-Entwicklungen: Zum einen hat die Cloud-Revolution massive Rechenleistungen erschwinglich und zugänglich gemacht. Zum anderen produziert die Industrie 4.0 mit ihrer allgegenwärtigen Sensorik enorme Datenmengen. Für Unternehmen gilt es, aus diesen unstrukturierten, zum Teil sogar scheinbar unzusammenhängenden Informationseinheiten betriebswirtschaftlich relevante, konkret umsetzbare Erkenntnisse zu gewinnen – und das nicht bloß einmal, sondern kontinuierlich, zuverlässig und vorhersehbar. Künstliche Intelligenz und maschinelles Lernen sollen der Datenflut wertvolles Wissen entlocken.
Cognitive Computing
Alles Digitale werde in naher Zukunft kognitiv sein, weissagt IBMs Geschäftsführerin Ginni Rometty. Diese Sichtweise liegt vermutlich auch darin begründet, dass nach dem Abstoßen beider x86-Hardware-Sparten und sonstiger Kronjuwelen vom Kerngeschäft des blauen Riesen praktisch nur noch das kognitive System Watson übrig blieb. Doch ist IBMs Chefin mit ihrer Auffassung nicht allein. Laut einer IDC-Studie sollen bis 2019 etwa 40 Prozent aller digitalen Transformationsinitiativen KI-gestützt ablaufen und so gut wie alle erfolgreichen IoT-Implementierungen sollen über kognitive Fähigkeiten verfügen.
Diese Entwicklungen machen auch vor dem Mittelstand nicht halt. Im Unterschied zu internationalen Großkonzernen, die sich oftmals in riesigen Technologiesprüngen nach vorn katapultieren, steht der Mittelstand allerdings vor der zusätzlichen Herausforderung, die erforderlichen Innovationen zu implementieren, ohne die eigene Existenz zu gefährden. Die Devise muss deshalb heißen: In kleinen Schritten vorangehen.
Ein Streifzug durch KI-Ansätze in unterschiedlichen Branchen und Unternehmen soll das Potenzial der Technologie veranschaulichen – das Spektrum reicht vom Expertensystem in der Compliance-Abteilung der Schweizer Großbank Credit Suisse über Prognosen mit neuronalen Netzen bei Siemens bis hin zu ersten Schritten Richtung selbstfahrendes Auto bei BMW.
2. Teil: „Expertensystem bei Credit Suisse“
Expertensystem bei Credit Suisse
Expertensysteme sind hier in der Lage, die im Unternehmen vorhandenen Qualifikationen der Mitarbeiter kurzfristig um fehlende Kompetenzen zu erweitern, indem sie ihnen die benötigten Informationen KI-getrieben aufbereitet zur Verfügung stellen.
Der US-amerikanische Ableger der Credit Suisse (CS) hat ein solches System in der Compliance-Abteilung im Einsatz, die für die interne Compliance-Beratung verantwortlich ist. Zuvor konnten die Mitarbeiter zwar ein firmeninternes Callcenter der Bank anrufen, mussten aber unter Umständen während ihrer Arbeitszeit unproduktiv auf die Verfügbarkeit eines Compliance-Spezialisten warten. Außerhalb der Bürozeiten blieb den Fachkräften nichts anderes übrig als in Handbüchern zu blättern oder durch Webseiten zu scrollen, um ihre Compliance-Fragen in Eigenregie zu klären. Jetzt können die Mitarbeiter der Bank ihre Fragen an einen KI-gestützten Chatbot richten – dieser habe dann, so Brian Chin, Vorstandsmitglied der Credit Suisse, „sofort die anwendbare Richtlinie parat“.
Das Bankinstitut erhofft sich von der Technologie eine Reduzierung der Anfragen seitens der Mitarbeiter an das interne Callcenter um bis zu 50 Prozent. Durch den Wegfall der Wartezeiten dürfte zudem die Produktivität der Mitarbeiter bei ihren primären Aufgaben merklich zunehmen.
3. Teil: „Deep Learning bei Siemens“
Deep Learning bei Siemens
„Solche hochpräzisen Nachfrageprognosen können bei der Optimierung der Lieferkette helfen und die Kosten reduzieren“, erklärt Zimmermann. Insbesondere Stromprognosen seien wichtig, denn mit dem steigenden Anteil erneuerbarer Energien wie Wind am Energiemix müssten Energieversorger nicht nur die Nachfrage, sondern auch die Liefermengen vorhersagen können, erläutert er.
Siemens setzt für seine Projekte stark auf Deep-Learning-Ansätze. Deep Learning hat zum Ziel, mit Hilfe von Software-Algorithmen, die ganz ohne menschliche Intervention ablaufen, abstrakte Konzepte zu entwickeln. In der Vergangenheit setzte maschinelles Lernen eine Vorabklassifizierung der Rohdaten durch Daten-Wissenschaftler voraus (Deep Learning ging aus Data Mining hervor), heute sind menschliche Eingriffe meist nicht mehr nötig.
Deep Learning macht sich multischichtige künstliche neuronale Netze zunutze. Bei künstlichen neuronalen Netzen handelt es sich um eine Software-Ablauflogik, die die Aktivitäten von Neuronen im Neocortex – dem Bereich des menschlichen Gehirns, in dem das Denken stattfindet – mit Hilfe komplexer mathematischer Algorithmen simuliert.
Siemens SENN nutzt für seine treffsicheren Prognosen eben solche künstlichen neuronalen Netze. Das System durchläuft zuerst eine Trainingsphase, in der es ein Modell der Zusammenhänge zwischen verschiedenen Variablen errechnet. Dann lässt das System einen Lernalgorithmus mehrere Tausend Iterationen durchlaufen, indem es die einzelnen Parameter des Modells nach und nach geringfügig verändert, um die Diskrepanz zwischen den Ist- und den Sollwerten zu minimieren.
Auf diese Weise bewegt sich das Modell weg von den anfänglichen Zufallsergebnissen hin zu einer derart fein abgestimmten Gewichtung von Parametern, dass neue Eingabewerte eine höchst verlässliche Prognose zutage fördern. Das System kann dadurch Vorhersagen errechnen, die auch tatsächlich eintreffen.
So liegt beispielsweise der durchschnittliche Vorhersagefehler bei der Prognose der Gesamtleistung eines Siemens-Windparks pro Tag mittlerweile bei lediglich 7,2 Prozent (und schneidet damit um ganze drei Prozentpunkte besser ab als das zweitbeste Modell). Ähnliche Modelle für Photovoltaikanlagen befinden sich in der Entwicklung.
Siemens arbeitet außerdem intensiv am Einsatz autonomer cyberphysischer Systeme, die im Rahmen von Industrie 4.0 in einer kollaborativen, adaptiven, flexiblen Produktion zum Einsatz kommen sollen.
Ein weiterer Beleg für die rasanten Fortschritte bei Deep Learning ist die Treffsicherheit der automatisierten Bilderkennung: Sie ist kürzlich sprunghaft auf das menschliche Niveau von mehr als 95 Prozent angestiegen. Lange Zeit war der Wert bei wenig brauchbaren 80 Prozent steckengeblieben.
4. Teil: „Maschinelles Lernen“
Maschinelles Lernen
Autonome Fahrzeuge sind zum Aushängeschild für maschinelles Lernen geworden. Intel rechnet sogar damit, dass ein ganz neuer Wirtschaftssektor entsteht, die sogenannte Passenger Economy. Von MaaS (Mobility as a Service) ist die Rede. Strategy Analytics schätzt das ökonomische Potenzial dieses KI-Bereichs für das Jahr 2035 auf 800 Milliarden Dollar; ein explosives Wachstum auf bemerkenswerte 7 Billionen Dollar sei bis zum Jahr 2050 zu erwarten, sagt die von Intel beauftragte Studie voraus. Das Massachusetts Institute of Technology MIT spricht von selbstfahrenden Lastwagen für die autonome, KI-gestützte Logistik wie von einer Selbstverständlichkeit – schließlich sind diese ja tatsächlich in der Entwicklung, zum Beispiel bei Otto, dem kalifornischen Spezialisten für autonome Lkws, der jetzt zur Uber-Gruppe gehört.
Wesentlichen Anteil am Durchbruch hat ein wagemutiger Querdenker, der Wissenschaftler Sebastian Thrun. Der Solinger schuf die Grundlagen der Informatik für selbstfahrende Autos an der Stanford University und hat in seinem geheimen Google-Lab erste Technologiestudien aus der Taufe gehoben. Als Gründer der Online-Universität Udacity und einer der Vorreiter der MOOC-Bewegung (Massive Open Online Course) ist er in KI-Kreisen als nimmermüdes Multitalent bekannt. „Ich bin umgeben von Unternehmen, die verzweifelt nach Talenten suchen“ sagt Thrun. Mitbewerber, die nicht aus dem traditionellen Unternehmensumfeld stammen, würden sich gerade heftig bemühen, starke Teams aufzubauen. Bei Übernahmen ließen sich diese Firmen ihre Zukäufe umgerechnet bis zu 10 Millionen Dollar pro dort beschäftigtem KI-Spezialisten kosten. „Doch das Know-how zum Bau selbstfahrender Autos erfordert ein disziplinübergreifendes Fachwissen, das es zurzeit schlicht und ergreifend immer noch nicht gibt“, führt Thrun weiter aus.
Fazit
Die Notwendigkeit, anhand massiver Datenströme Lösungen für komplexe Probleme zu finden, traf in den vergangenen Jahren mit abnehmenden Kosten für Rechenleistung und beachtlichen Fortschritten in massiver Parallelisierung zusammen. Das Resultat sind ambitionierte Versuche der IT-Branche, Computersystemen menschenähnliches Denken beizubringen.
Doch nicht alle Initiativen sind automatisch auf Anhieb von Erfolg gekrönt, wie es Microsoft schmerzlich erfahren musste. Microsofts berühmt-berüchtigter Chatbot Tay bekam vergangenes Jahr die Aufgabe, sich unbeaufsichtigt in Echtzeit-Plaudereien mit Twitter-Benutzern zu engagieren. Anfangs ging der PR-trächtige Bot auch erwartungsgemäß höflich und respektvoll zu Werke. Doch bald war Schluss mit der politischen Korrektheit. Tay hatte sich von dem Benehmen seiner menschlichen Diskussionspartner prompt widerliche Sitten abgeschaut und begann, üble Tweets als Eigenkreationen abzusetzen. Innerhalb von weniger als 24 Stunden musste Microsoft dem KI-Chatbot schlagzeilenträchtig den Stecker ziehen.
Microsofts Lektion in Sachen KI-Entwicklung illustriert die Notwendigkeit, Künstlicher Intelligenz Grenzen zu setzen, damit die „Kreativität“ der Maschine nicht aus dem Ruder läuft. Viele kommerzielle KI-Lösungen werden unter anderem aus diesem Grund streng beaufsichtigt. Bei Facebook beispielsweise sitzen am anderen Ende der Leitung zur vermeintlichen KI-Software Menschen aus Fleisch und Blut.
Beim Einsatz von Künstlicher Intelligenz und maschinellem Lernen wird es in absehbarer Zukunft um viele ganz kleine Schritte gehen. Klar ist allerdings auch: Es gibt kein Zurück mehr. Unternehmen, die morgen mit dabei sein möchte, sollten sich von den KI-Vorreitern eine Scheibe abschneiden.
Sponsored Post
Amazon Connect und GenAI – Superpower für den Kundenservice
Unternehmen benötigen Cloud-, Digital- und KI-Technologien, um die Customer Experience (CX) zu optimieren. SoftwareOne und AWS helfen Unternehmen, Kunden proaktiv individuell zugeschnittene Erlebnisse zu bieten. So wächst die Kundenbindung über alle Kanäle hinweg und fördert gleichzeitig die Leistungsfähigkeit und das Engagement der Mitarbeiter.
>>
Swisscom
Neue Cyberbedrohungen auf dem Radar
Der neue Cyber Security Threat Radar von Swisscom zeigt die Angriffsmethoden und das Vorgehen von Cyberkriminellen. Er beleuchtet neu auch die Entwicklungen in den Bereichen "Disinformation & Destabilisation", "Manipulated Generative AI" und "Unsecure IoT/OT-Devices".
>>
Künstliche Intelligenz
Memary - Langzeitgedächtnis für autonome Agenten
Das Hauptziel ist es, autonomen Agenten die Möglichkeit zu geben, ihr Wissen über einen längeren Zeitraum hinweg zu speichern und abzurufen.
>>
Cloud Infrastructure
Oracle mit neuen KI-Funktionen für Sales, Marketing und Kundenservice
Neue KI-Funktionen in Oracle Cloud CX sollen Marketingspezialisten, Verkäufern und Servicemitarbeitern helfen, die Kundenzufriedenheit zu verbessern, die Produktivität zu steigern und die Geschäftszyklen zu beschleunigen.
>>