Business-IT
07.02.2020
Adaptive Machine Learning, Continuous Intelligence, ... Adaptive Machine Learning und Co.
1. Teil: „NextGen Analytics - Vorsprung mit KI“

NextGen Analytics - Vorsprung mit KI

AnalyticsAnalyticsAnalytics
Griboedov / shutterstock.com
Innovative Verfahren heben die Datenanalyse auf eine neue Stufe. KI kann ein nützliches Mittel sein, muss aber unbedingt erklärbar bleiben. Blackboxes sind nicht gewünscht.
  • Hype Cycle for Emerging Technologies: Viele KI- und Analytics-Technologien sieht Gartner noch als Innovationen.
    Quelle:
    Gartner (August 2019)
Die Möglichkeiten von Künstlicher Intelligenz und Analytics verbessern sich dank neuer Konzepte und Algorithmen rasant. Aktuelle Errungenschaften im Bereich des maschinellen Lernens und analytischer Verfahren lassen einen enormen Fortschritt erkennen. Die Entwicklung und Anwendung von KI-Systemen wird weiter vereinfacht und beschleunigt - wovon nicht nur Experten, sondern auch End­anwender profitieren.
Das bestätigen die Analysten von Gartner, die im vergangenen Jahr auf dem „Gartner Data & Analytics Summit“ in Sydney und dem IT-Symposium in Orlando/Florida einen Blick auf die wichtigsten Daten- und Analytics-Trends geworfen haben, „die Ihr Unternehmen verändern werden“. Hier fielen Schlagwörter wie Transfer Machine Learning, Edge AI oder Explainable AI - Techniken, die im Bereich Analytics die Zukunft bestimmen sollen. Doch viele der Technologien sind noch Zukunftsmusik - sie werden entsprechend im Gartner Hype Cycle der ersten der fünf Phasen zugeordnet und gelten daher noch als Innovation. Aber das wird nicht so bleiben. Denn in wenigen Jahren sollen diese Technologien die IT maßgeblich bestimmen.
Die technologischen Trends im Bereich Analytics und Künstliche Intelligenz lassen sich grob in drei Blöcke einteilen: Erstens werden aktuell und in den nächsten Jahren die Fähigkeiten von Machine-Learning-Verfahren verbessert. Zweitens werden Datenbereitstellung, Datennutzung und Datenökonomie optimiert. Und der dritte Bereich umfasst Bestrebungen für eine bessere Akzeptanz und Anwendbarkeit von KI/Analytics.

Machine Learning

Maschinelles Lernen (ML) ist derzeit die KI-Kerndisziplin und durchdringt jetzt schon viele wirtschaftliche Bereiche. In Expertenkreisen wird ML als Schlüsseltechnologie für moderne KI-Techniken gesehen. Entsprechend gibt es hier viele neuere Entwicklungen, die jetzt und in den nächsten Jahren relevant werden.
Adaptive Machine Learning: Adaptive Lernverfahren könnten eine Art Standard beim maschinellen Lernen werden. Beim üblichen Machine Learning werden neuronale Netze in einem aufwendigen Prozess anhand der Daten trainiert, sind dann fertig und werden nicht mehr modifiziert. Adaptive Machine Learning verändert hingegen die Algorithmen während der Laufzeit - also dem Inferencing mit neuen Daten - und passt sie an.
Bei adaptiven Lernverfahren gibt es also keine strikte Unterscheidung zwischen Entwicklungszeit und Laufzeit. Stattdessen lernen die Systeme während ihrer Anwendung. Ein adaptives System wird - wie beim klassischen Reinforcement Learning - angelernt und modifiziert dann im laufenden Betrieb fortfährend die Parameter seines Algorithmus. Somit wird ein adaptives System immer besser und kommt immer genauer an das Zielkriterium heran. Ganz neu ist dieses Verfahren allerdings nicht. „Die meisten modernen ML-Ansätze sind bereits adaptiv“, erklärt Matthias Peissner, Instituts­direktor und Projektleiter des KI-Fortschrittszen­trums beim Fraunhofer Institut für Arbeitswirtschaft und Organisation (IAO).
Transfer Learning: Das zweite ML-Verfahren, dem unter anderem auch Gartner ein hohes Potenzial einräumt, ist Transfer Learning. Diese Methode reduziert den hohen Zeit- und Rechenaufwand beim Trainieren von neuronalen Netzen. Beispielsweise kann das Trainieren von Modellen mit Deep Learning und Millionen von Bildern durchaus mehrere Wochen dauern. Um den Aufwand zu verringern, ist es deshalb sinnvoll, auf den bereits gelernten Funktionen eines fertig trainierten Netzes aufzubauen. Genau dies macht Transfer Learning. Es überträgt ein Modell, das für eine bestimmte Aufgabenstellung schon trainiert wurde, auf eine andere Aufgabe. Ein Modell, das bereits weiß, aus welchen Strukturen ein Gesicht prinzipiell besteht, kann sehr viel schneller darauf trainiert werden, ein ganz bestimmtes Gesicht zu erkennen. Solche vortrainierten Modelle müssen dank Transfer Learning nur noch auf bestimmte Merkmale hin trainiert werden.
Hendrik Reese, Director Trust in AI und Responsible AI bei PwC Deutschland, sieht im Transfer Learning ebenfalls Potenzial - warnt aber vor Risiken. „Transfer Learning kann die KI-Skalierung positiv beeinflussen, wenn das Grundkonzept effektiv umgesetzt werden kann, vortrainierte Modelle zur Lösung neuer Probleme zu nutzen. Eine Kernvoraussetzung dafür ist jedoch, dass die Anfangs- und Zielprobleme ähnlich genug sind. Hier sind die Varianz der Trainingsdaten, mögliches Overfitting sowie auch ein möglicher negativer Transfer reale potenzielle Risiken.“
Federated Learning: Aktuell wird Machine Learning mit großen zentralisierten Trainingsdaten auf einer leistungsfähigen Maschine oder im Rechenzentrum durchgeführt. Das erweist sich im Umfeld von IoT und kleinen vernetzten Geräten vor Ort als nachteilig. Federated Learning oder föderiertes Lernen ermöglicht es Endgeräten, gemeinschaftlich zu lernen - wobei alle Trainingsdaten auf dem Gerät vor Ort verbleiben.
Federated Learning kann man sich als eine Art verteiltes Lernen vorstellen: Das Device in der Fertigung oder im Verkaufsraum lädt das aktuelle Modell herunter und verbessert es, indem es von den Daten auf dem lokalen Gerät lernt. Die Änderungen werden dann in einem kleinen Update zusammengefasst. Anschließend wird nur dieses Update verschlüsselt an die Cloud geschickt. Dort wird es sofort mit anderen Aktualisierungen gemittelt, um das gemeinsame Modell zu verbessern.
KI- und Analytics-Verfahren, die vor Ort ausgeführt werden, beseitigen ein grundlegendes IoT-Problem. Die Datenmengen am Ort der Entstehung sind in der Regel zu groß,
um schnell zur Auswertung über die schmalen Cloud-Bandbreiten verschickt zu werden. Zudem sind die Latenzzeiten im Cloud-Umfeld viel zu hoch - womit Echtzeit-Anwendungen von vornherein ausgeschlossen sind. Ein autonomes Auto muss aber sofort reagieren, wenn ein Kind auf die Fahrbahn rennt. Derartige Entscheidungen lassen sich nicht in die Cloud auslagern.
KI und Analytics werden deshalb zunehmend dezentral ausgeführt. Daten und Rechenintelligenz bleiben dabei möglichst nahe am Objekt, ein großer Teil der IoT-Informationen wird lokal verarbeitet und ausgewertet, allenfalls der vor Ort nicht behandelbare Daten-Part wird in die Cloud weitergereicht. Dabei dürfte künftig nicht nur das Inferencing am Edge betrieben werden. Auch KI-Trainingsdurchläufe können sich im Edge-Computing etablieren - mit dem erwähnten Federated Learning.
2. Teil: „Beziehungen und Wissen“

Beziehungen und Wissen

  • KI-Forschungsthemen: So ordnen die Experten der Fraunhofer-Gesellschaft die Relevanz einzelner Technologien ein.
    Quelle:
    Fraunhofer-Gesellschaft
Viel Potenzial zugesprochen wird im Bereich ML und Analytics auch den Verfahren Graph Analytics und Knowledge Graphs.
Graph Analytics: Darunter versteht man eine Reihe von Techniken, die  das Erforschen und Abbilden von Beziehungen zwischen Datensätzen ermöglichen - von Organisationen, Personen und Transaktionen. Bei sozialen Netzen stellen solche Graphen Beziehungen zwischen Menschen dar, deren gemeinsame Interessen und Beiträge. Sie analysieren dann etwa, welche Person auf wen Einfluss hat und welche Verbindungen zwischen Personengruppen bestehen. Google und Facebook sind hier besonders aktiv.
Im Unternehmen kann Graph Analytics bei Marketing-Strategien und im Kundenbeziehungs-Management ein wertvolles Instrument sein. Die Information, wer was wann gekauft hat, kann mit weiteren Daten angereichert werden und mit Verknüpfungen zu anderen Personen überprüft werden.
Knowledge Graphs: Konzeptionell eng mit Graph Analytics verbunden sind Wissensgraphen oder Knowledge Graphs. Sie bilden komplexe Wissensdomänen in einem seman­tischen Netzwerk aus Knoten ab und helfen bei der Informationsgewinnung und Entscheidungsfindung.
Ein Knowledge Graph bereitet die wichtigsten Informationen zu einem Suchbegriff in grafischer Form auf. Dabei werden Informationen aus beliebigen Quellen herangezogen - im Unternehmensbereich aus eigenen Datenquellen wie Mail-Programmen oder auch aus freiem Internet-Content.
Mitarbeiter im Kundenservice kann ein Knowledge Graph beispielsweise dabei unterstützen, Supportanfragen von Kunden schnell und präzise zu beantworten. Geht es etwa um ein Problem mit einem technischen Gerät, kann der Graph, ausgehend von der Ausgangsfrage des Kunden und unter Berücksichtigung des vorhandenen Wissens über den Kunden, den Mitarbeiter zielgerichtet durch die nächsten logischen Fragen führen und mögliche Ursachen anzeigen.
Continuous Intelligence: Die Auswertung von Live-Datenströmen ist eine weitere Analytics-Disziplin, die künftig relevant werden dürfte. Das Verfahren kombiniert Rohdaten und Analysen mit transaktionalen Geschäftsprozessen und anderen Echtzeit-Interaktionen. Dabei werden sowohl historische als auch aktuelle Daten in die Analysen einbezogen.
„Bei Continuous Intelligence geht es nicht nur darum, historische Daten aus statischen Datenbanken auszuwerten, sondern Stream- und Event-Daten in Nah-Echtzeit zu analysieren“, erklärt Gartner-Analyst Thomas Oestreich.
Gartner sieht eine Vielzahl an Möglichkeiten, Continuous Intelligence fürs Geschäft zu nutzen. „Wenn Sie in Nah-Echtzeit wissen, was Ihre Kunden gerade wollen, können Sie mit Ihren Kunden anders umgehen und gegenüber der Konkurrenz einen Vorsprung erarbeiten - denn der bessere Service steigert die Erwartungen der Kunden, auch gegenüber der Konkurrenz“, so Oestreich weiter.
3. Teil: „Datenökonomie“

Datenökonomie

  • KI auf dem Vormarsch: Über zwei Drittel der Unternehmen setzen Künstliche Intelligenz (KI) bereits für Datenanalysen ein.
    Quelle:
    PwC, n = 500 (davon 255 KI-affine und 245 KI-ferne Unternehmen)
Der zweite große Block an Neuerungen betrifft die Daten selbst und das Datenmanagement.
Daten sind die Basis in KI und Analytics - gleichzeitig aber auch ein heikles Problem. Denn die Datensammlungen sind oft qualitativ zu schlecht, zu unstrukturiert, zu stark verteilt oder zu schmalbrüstig.
Unternehmen verfügen oft nicht über die erforderlichen Datenmengen - entweder weil sie in einem sehr speziellen Umfeld tätig sind oder hoch spezialisierte Produkte in Kleinserien fertigen.
Für dieses Problem zeichnen sich zwei Lösungen ab. Erstens wird daran gearbeitet, maschinelles Lernen auch mit kleineren Datensätzen zu ermöglichen. Dabei möchte man Maschinen dazu befähigen, anhand weniger Beispiele oder durch die Kombination bekannter Beispiele zu lernen. Diese Fähigkeit in ML-Anwendungen zu implementieren wird als One-Shot- oder Zero-Shot-Lernen bezeichnet.
Der zweite Lösungsansatz bei zu wenig Daten liegt darin, die Datenmenge in Kooperation mit anderen Unternehmen zu erhöhen und Datenräume gemeinsam zu nutzen.
Was aber ist zu tun, wenn man zwar Daten hat, diese Daten aus Datenschutzgründen aber nicht nutzen kann? Schließlich verlangt die europäische Datenschutz-Grundverordnung (DSGVO), die persönlichen Daten der Kunden zu schützen und sie auf Verlangen sogar zu löschen. Grundsätzlich können Daten im KI-Umfeld vor dem Trainieren zwar anonymisiert werden, die Anonymisierung von Daten unter Wahrung der Privatsphäre erfordert aber Zeit, Ressourcen und Fachkenntnisse. Zudem ergibt sich immer das Dilemma, zu viel oder zu wenig zu schützen.
Als möglichen Ausweg nennt Gartner die Nutzung synthetischer Daten. Bei dieser Methode wird eine künstliche Repräsentation der zu schützenden Originaldaten generiert, die keinerlei Rückschlüsse mehr auf Personen erlaubt. Ein Machine-Learning-Algorithmus läuft dabei über die Kundendaten, analysiert deren Struktur und lernt durch Training die statistischen Informationen und die statistischen Strukturen der Originaldaten. Mit diesem Wissen erzeugt der Algorithmus neue künstliche Daten. Diese spiegeln den gesamten Datensatz mit seinen statistischen Informationen, statistischen Strukturen und Echtdaten wider.
Der Nutzen synthetischer Daten wird von Experten allerdings kontrovers beurteilt. „Synthetische Daten können es Data Scientists ermöglichen, an KI-Modellen zu arbeiten, ohne reale und sensible Daten einzubeziehen“, sagt zum Beispiel Hendrik Reese von PwC. „Sie können sehr effektiv sein und beispielsweise auch dazu verwendet werden, rasch Proofs of Concept zu erstellen und KI-Initiativen damit zu rechtfertigen.“ Matthias Peissner vom Fraunhofer IAO ist eher skeptisch, was die Anwendbarkeit synthetischer Daten betrifft: „Ob man daraus wirklich neue Erkenntnisse ziehen kann, hängt sehr stark von den Anwendungsfeldern ab“, so Peissner. „Ich halte das in manchen Bereichen, etwa der Medizin, für sehr schwierig.“
Liegen die Rohdaten vor, so wartet eine weitere Hürde: Bevor die Daten analysiert werden können, müssen sie bearbeitet werden. Das erledigen in der Regel Datenwissenschaftler oder andere KI-Experten. Sie verbringen einen großen Teil ihrer Zeit damit, Daten zu sammeln und aufzubereiten - relativ einfache Tätigkeiten, die im KI-Zeitalter weitgehend automatisiert werden können. Diese Automatisierung erledigt Augmented Data Management. Bei diesem erweiterten Datenmanagement werden die Daten mit Hilfe von maschinellem Lernen und KI-Techniken automatisch verfeinert. Die Automatisierung ermöglicht es dann den Fachleuten, sich höherwertigen Aktivitäten zu widmen. Augmented Data Management erlaubt es Daten, wie Gartner es ausdrückt, „sich selbst zu konfigurieren und zu optimieren“. Bis 2022 könnten laut Gartner die manuellen Aufgaben des Datenmanagements durch maschinelles Lernen und automatisierte Workflows um 45 Prozent reduziert werden.
4. Teil: „Augmented Analytics und AutoML“

Augmented Analytics und AutoML

Data Management ist nur ein kleiner Teil der Arbeit eines Datenanalysten. Da der Bedarf an KI- und Analytics-Anwendungen steigt, müssen Unternehmen in Technologien investieren, mit denen sie den gesamten Modellierungs- und Data-Science-Prozess beschleunigen können. Der Workflow von der initialen Fragestellung bis hin zum gut trainierten Modell beinhaltet schließlich eine ganze Reihe von Arbeitsschritten, die mehrfach durchlaufen werden müssen, bis die gewünschte Qualität erreicht ist.
Augmented Analytics: Augmented Analytics ist quasi die natürliche Fortsetzung von Augmented Data Management. Dabei werden KI-Verfahren auf die eigene Domäne angewendet. Augmented Analytics unterstützt den Data Scientist bei der Analyse und befreit ihn von langwierigen Standardtätigkeiten. „Der Data Scientist muss normalerweise sehr viele Parameter manuell verändern“, erklärt Stefan Herbert, Manager Technical Sales - Data Science & AI bei IBM. „In diesem Ansatz werden dem Datenwissenschaftler viele Arbeiten abgenommen, indem die Modellerstellung weitgehend automatisiert wird.“
Sogenannte AutoML-2.0-Tools ermöglichen eine durchgängige Automatisierung. Das geht von der automatischen Erstellung und Auswertung Tausender von Features - dem KI-basierten Feature Engineering - bis hin zur Operationalisierung von ML- und AI-Modellen einschließlich aller Schritten dazwischen. Bei IBM nennt sich dieser Ansatz AutoAI. Das System analysiert die relevanten Daten und trifft auf Basis der Analyse bestimmte Vorentscheidungen. „Im Rahmen von Feature Engineering wählt es erst einmal aus, welche Merkmale in einem Modell relevant sind, und rechnet schon mal Standard-Algorithmen durch“, so Herbert weiter. „Bis zu 45 Standardalgorithmen werden automatisch ausgeführt.“ Als Ergebnis liefert das System die besten vier Modelle und welche Features für die Vorhersage im Modell relevant sind. „Der Data Scientist weiß dann genauer, worauf er sich konzentrieren sollte, um ein möglichst gutes Modell zu erhalten.“
AI PaaS: Der nächste Schritt ist, dass KI und Data Science so einfach werden, dass auch Anwender mit wenigen Kenntnissen Modelle erstellen und Analysen durchführen können. Dies ist dann - nach Verbesserungen der KI-Verfahren und dem Daten-Handling - der dritte Komplex an Innovations-Technologien.
Dem Ansatz der einfacheren Nutzung von KI und Analytics lässt sich AI PaaS zuordnen. Gartner sieht die Plattformen für maschinelles Lernen und KI aus der Cloud als Enabler für die größere Verbreitung von KI und bewertet PaaS als Mega­trend für die kommenden Jahre.
Die Cloud-Angebote - wie sie von IBM, Amazon, Google oder Microsoft betrieben werden - umfassen unter anderem Frameworks für maschinelles Lernen oder vollständig verwaltete ML-Services, die Drag-and-Drop-Tools, kognitive Analysen und individuell erstellte Datenmodelle nutzen.
Die dort bereitgestellten Tools können einerseits Data-Science-Fachleute nutzen, um ihre Ziele schneller zu erreichen und von den dort implementierten komplexen Algorithmen zu profitieren. Andererseits sind auch Unternehmen ohne ausgewiesene Experten mit AI PaaS in der Lage, datengesteuerte Entscheidungen zu treffen.
5. Teil: „Demokratisierung von KI“

Demokratisierung von KI

Gartner verwendet den Begriff Augmented Analytics in einem erweiterten Sinn und bezieht ihn auch auf normale Nutzer. Laut Gartner-Analystin Rita Sallam wird Augmented Analytics das dominierende Thema für Unternehmen werden: „Es geht darum, die Analytik zu demokratisieren.“
Die Demokratisierung von Technologie bedeutet allgemein, Menschen einen einfachen Zugang zu technischem oder wirtschaftlichem Fachwissen ohne umfangreiche oder kostspielige Schulungen zu ermöglichen. Beispielsweise würde die Demokratisierung es Entwicklern, aber auch ganz normalen Anwendern, erlauben, Datenmodelle zu generieren, ohne über die Fähigkeiten eines Datenwissenschaftlers zu verfügen.
Sogenannte Full-Cycle-Plattformen vereinfachen Analysen, die früher nur von Datenwissenschaftlern ausgeführt werden konnten, erheblich. Die neuen Daten- und Analysetechnologien werden einen dramatischen Einfluss darauf haben, „wie wir Daten und Analytikinhalte erstellen und wer sie erstellt, wer Zugang zu Erkenntnissen aus Augmented Analytics hat, wie Menschen mit Daten und Analytik interagieren und welche Arten von Analysen wir durchführen können“, erklärt Rita Sallam.
Jim Hare, ebenfalls Analyst bei Gartner, prognostiziert, dass von den heutigen Daten- und Analysetrends Augmented-Analytics-Tools langfristig die größten Auswirkungen auf Unternehmen haben werden. Die fortschreitende Demokratisierung werde zu neuen Anwendungsfällen führen, die den Bedürfnissen von Geschäftsanwendern näherkommen, und eine schnellere Markteinführung von KI-Anwendungen im Unternehmen ermöglichen.
Eine zentrale Rolle im Demokratisierungsprozess von KI und Analytics wird Natural Language Processing (NLP) spielen. Mit NLP erhalten Computer die Fähigkeit, menschliche Sprache zu verstehen - getippt oder gesprochen. Dies wird als zentraler Pfeiler der erweiterten Analytics gesehen. NLP-fähige Analytics-Tools ermöglichen es Benutzern, einen interaktiven Dialog zu führen, und so die benötigten Informationen schnell abzurufen. Das mühsame Durchklicken durch Analyse-Dashboards oder BI-Berichte entfällt damit.
Der Wunsch, Analytics für jeden im Unternehmen zugänglich zu machen, treibt die Akzeptanz dieser Technologie immer stärker voran. Gartner prognostiziert, dass NLP bis 2021 die Mitarbeiterakzeptanz von Analysen und Business Intelligence von 35 Prozent auf über 50 Prozent steigert - einschließlich neuer Benutzergruppen aus der Geschäftswelt.
Bereits heute erweitern immer mehr BI- und Analytics-Anbieter ihre Produkte um NLP-Funktionen. Tableau hat in seine BI-Software beispielsweise ein Feature namens Ask Data integriert. Dies ermöglicht es Benutzern, Fragen in natürlicher Sprache zu Umsatz, Rentabilität und so weiter zu stellen und auch eine Antwort in natürlicher Sprache zu erhalten. Qlik will mit seinem KI-Chatbot CrunchBot Benutzern helfen, Einblicke in ihre Daten per Textabfrage schneller und einfacher zu erhalten.
Damit lassen sich zum Beispiel Fragen stellen wie: „Wie viele Produkte habe ich in Berlin verkauft?“ Bei komplexeren Fragen scheitern die Systeme meist noch. Eine Herausforderung bei der weiteren Entwicklung von NLP ist, auch die Intention zu erfassen - die Absichten, die Menschen im Sinn haben, wenn sie kommunizieren. Was die Leute sagen oder tippen, ist nicht unbedingt das, was sie meinen.

Fazit & Ausblick

In Sachen KI und Analytics wird sich in den kommenden Jahren in jedem Fall eine Menge tun. Das aktuelle Top-Thema in der KI - dem Gartner für die nächsten Jahre die höchste Relevanz bescheinigt - ist erklärbare KI. Der Hintergrund: Zwar haben KI-Programme einen hohen wirtschaftlichen Nutzen, dieser wird jedoch überschattet von der Undurchsichtigkeit der Technologie. Wie beispielsweise ein Deep-Learning-Modell zu seinen Ergebnissen kommt, ist nicht nachvollziehbar. Das Resultat hochkomplexer Modelle kann zwar beobachtet, nicht aber verstanden werden. Diese Undurchsichtigkeit führt dazu, dass intelligente Systeme vor ihrem produktiven Einsatz nicht hinreichend validiert werden können und daher nicht angenommen werden.
„Komplexe KI-Modelle produzieren Ergebnisse, die oft schwer nachvollziehbar sind“, betont Frank Köhne von der Kölner Unternehmensberatung Viadee. „Menschen akzeptieren dies zu Recht nicht. Kein Arzt würde einen Patienten operieren, bloß weil ein Kollege dies unbegründet als beste Therapie angibt. Zumindest würde der Arzt verstehen wollen, welcher Gedankengang der Prognose zugrunde liegt und auf welchen Symptomen die Empfehlung basiert. So ist es die Aufgabe von KI-Experten, Systeme zu entwickeln, die das eigene Agieren nach außen hin transparent machen und die Blackbox öffnen.“ Diese Transparenzanforderungen haben zum Aufstieg der sogenannten Explainable Artificial Intelligence geführt. Sie will transparente Einblicke in Machine-Learning-Modelle ermöglichen und damit ein Verständnis von deren Funktionsweise. Aktuell befindet sich Explainable AI noch weitgehend im Forschungsstadium, es gibt jedoch erste Lösungsansätze.
„Neben Transparenz sind Fairness und Verantwortlichkeit Schlüsselfaktoren für Kunden und Unternehmen, um Entscheidungen der KI zu akzeptieren“, unterstreicht PwC-Experte Hendrik Reese. Eine zentrale ethische Herausforderung sei es auch, die Maschinen so zu gestalten, dass sie mit unseren Gesellschafts-, Rechts- und Wertevorstellungen kompatibel sind, heißt es im Papier „Maschinelles Lernen“ der Fraunhofer-Gesellschaft: „Diese gesellschaftliche Debatte muss jetzt beginnen.“
6. Teil: „Im Gespräch mit Matthias Peissner vom Fraunhofer IAO“

Im Gespräch mit Matthias Peissner vom Fraunhofer IAO

  • Dr. Ing. Matthias Peissner: Institutsdirektor und Projektleiter des KI-Forschungszentrums Lernene Systeme beim Fraunhofer IAO
    Quelle:
    Fraunhofer IAO
Matthias Peissner, Institutsdirektor und Projektleiter des KI-Fortschrittszentrums Lernende Systeme beim Fraunhofer IAO, erklärt, was Explainable AI bringt.
com! professional: Herr Peissner, was genau soll mit Explainable AI erreicht werden?
Peissner: Explainable KI versucht, die Vorgänge in einem KI-Modell, die in einer Art Blackbox ablaufen, für Menschen nachvollziehbar zu machen. Das KI-System soll erklären, wie es zu seinen Ergebnissen kommt. Gerade bei tiefen neuronalen Netzen ist es für Menschen extrem schwierig, nachzuvollziehen, wie das System aufgrund eines bestimmten Daten-Inputs zu einer Empfehlung oder Lösung kommt.
com! professional: Das lässt sich dann zum Beispiel nutzen, um Fehler zu erkennen?
Peissner: Ja. In einem bekannten Beispiel sollte ein KI-System Wölfe von Hunden auf Bildern unterscheiden. Das System wurde anhand der Bilddaten trainiert und produzierte eine relativ gute Trefferquote. Dann stellten die KI-Experten allerdings fest, dass für die Erkennung nicht visuelle Merkmale der abgebildeten Tiere verwendet wurden, sondern der Bildhintergrund. Das System nutzte zur Trennung der Wolfs- von den Hundebildern das Hintergrundmerkmal Schnee. Dass auf den Wolfsbildern im Hintergrund immer Schnee zu sehen war, war reiner Zufall.
com! professional: Warum ist Explainable AI für praktische Anwendungen in der Wirtschaft wichtig?
Peissner: Für Unternehmen ist erklärbare KI in zweierlei Hinsicht wichtig. Zum einen gibt es in der Industrie einen großen Bedarf, Systeme nachvollziehbar zu haben. Man darf heute gar keine Systeme einführen, von denen man nicht weiß, wie sie funktionieren und wie sie in verschiedenen Situationen reagieren werden. Hier spielt auch das Thema Zertifizierung eine große Rolle. Tatsächlich wird die Zertifizierung von KI-Systemen erst durch Explainable-AI-Ansätze möglich. Und natürlich will auch niemand Blackboxes in seinem Unternehmen einführen.
com! professional: Und der zweite Beweggrund?
Peissner: Die zweite Motivation ist, dass KI-Systeme ihr volles Potenzial in der Regel erst in der Interaktion mit Menschen entfalten. KI-Systeme brauchen den Menschen, um die Algorithmen zu überwachen, zu validieren und zu verbessern. Auch im laufenden Betrieb muss immer mal wieder ein Mensch darauf schauen, dass das System in die richtige Richtung läuft.
Diese Interaktion mit Menschen erfordert, dass man Menschen verständlich macht, was da hinter der Fassade abläuft. Auch in der Mensch-Roboter-Interaktion ist es wichtig, dass das Verhalten und die Prozesse, die in den KI-Systemen ablaufen, für den Menschen nachvollziehbar sind.
com! professional: Welche Ansätze gibt es, um ML-Modelle und neuronale Netze erklärbar und durchsichtiger zu machen?
Peissner: In erster Linie sind das Visualisierungsansätze. Wir stellen zum Beispiel eine grafische Oberfläche bereit, auf der die tiefen neuronalen Netze visuell dargestellt werden. Der Nutzer kann dann sehen, welchen Beitrag die einzelnen Knoten für den Output liefern. So gibt man den Anwendern die Möglichkeit, die Modelle zu explorieren und in die Algorithmen reinzugehen, um zu verstehen, wie die einzelnen Schichten des Netzwerks aussehen. Auf diese Weise lassen sich die Modelle besser verstehen. Zum Beispiel kann man so feststellen, welche Aspekte bei der automatischen Erkennung bestimmter Bildmerkmale ausschlaggebend waren.
com! professional: Das ist eine sehr technische Sichtweise, die Anwender vielleicht gar nicht interessiert.
Peissner: Natürlich kann man die Erklärbarkeit auch weiter fassen und nicht nur die technische Sicht einnehmen. Sie können sich beispielsweise die Interaktion zwischen Mensch und Roboter anschauen. Oder die Interaktion zwischen Mensch und Sprachdialogsystem. Explainable AI könnte dann so weit gehen, dass Ihnen das Dialogsystem mitteilt, welche Absicht des Menschen es hinter einer Äußerung erkannt hat. Oder dass das System Ihnen Hinweise gibt, was es als Nächstes zu tun gedenkt. Das wären Aspekte des Interaktionsverhaltens.
com! professional: Haben Sie da ein praktisches Beispiel?
Peissner: Wir forschen zum Beispiel an unserem Institut an der Mensch-Roboter-Interaktion. Dabei versuchen wir in der häuslichen Nutzung von Robotern ein gewisses Vertrauen und soziale Beziehungen zwischen Mensch und Technik zu etablieren. In diesem Bereich ist es ganz entscheidend, dass es ein gegenseitiges Verständnis gibt. Das ist aber auch in der Zusammenarbeit mit Robotersystemen in der Produktion so. Auch hier ist es wichtig, dass der Mensch weiß, was der Roboter vorhat, wie er sich bewegen wird - und umgekehrt gilt das natürlich auch.
Auch diese Aspekte könnte man unter das Schlagwort Explainable AI fassen - dass Menschen ein grundsätzliches Verständnis der Funktionsweise von KI-Systemen bekommen.
7. Teil: „Im Gespräch mit Stefan Herbert von IBM“

Im Gespräch mit Stefan Herbert von IBM

  • Stefan Herbert: Manager Technical Sales Data Science & AI bei IBM
    Quelle:
    IBM
Erklärbare KI-Modelle sind kein abstraktes Konstrukt mehr. IBM hat sein KI-System
Watson um eine Erklärungskomponente erweitert. com! professional spricht darüber mit Stefan Herbert, Manager Technical Sales Data Science & AI bei IBM.
com! professional: Warum ist ethische und erklärungsfähige KI ein Thema für IBM?
Stefan Herbert: Aus mehreren Gründen. Erstens erzeugen ML-Modelle oft ein Bias. In den USA wurden Frauen beispielsweise bei Bewerbungen durch ungünstig gebaute ML-Modelle benachteiligt. Auch juristische Urteile über Schwarze wurden aufgrund von ML zu deren Ungunsten beeinflusst.
Zweitens hat IBM schon vor drei oder vier Jahren Projekte zum Thema Predictive Policing durchgeführt - also zur Vorhersage von Straftaten. Auch damals wollte man schon verstehen, wie ein ML-Modell zu den entsprechenden Erkenntnissen kommt.
com! professional: Spielt die DSGVO bei diesem Bemühen um Erklärbarkeit auch eine Rolle?
Herbert: Ja. Laut DSGVO hat jeder Unternehmenskunde das Recht zu erfahren, wie Entscheidungen getroffen wurden beziehungsweise welche Logik zu der Entscheidung geführt hat. Das betrifft natürlich auch Entscheidungen, die eine Maschine gefällt hat. Deshalb müssen auch aus juristischer Sicht Maschinen ihre Entscheidungen begründen können. Aus all diesen Gründen beschäftigt sich IBM schon seit längerer Zeit mit dem Thema - und seit zwei Jahren sehr verstärkt.
com! professional: Wie haben Sie bei iBM das Thema technisch bewältigt?
Herbert: Wir haben Explainable AI mit Watson Open Scale eingeführt. Das System ist in der Lage, KI-Entscheidungen nachvollziehbar zu machen, indem es darlegt, welche Daten dafür zugrunde gelegt wurden.
Zusätzlich bietet das System auch die Möglichkeit, den Einfluss der Daten auf die Modelle automatisch zu erkennen, und macht Verbesserungsvorschläge. Auf dieser Basis kann dann das Modell so gestaltet werden, dass sich keine Verzerrungen in die eine oder andere Richtung ergeben.
com! professional: Betrifft das ausschließlich neuronale Netze?
Herbert: Nein. Wir analysieren generell alle ML-Modelle. Dabei erkennen wir über Standard-Kennzahlen und Standard-Verfahren, die wir im Vorfeld schon durchrechnen, dass eine Beeinflussung in die eine oder andere Richtung vorliegen könnte. Mit Mechanismen wie zum Beispiel Perturbation und kontrastierende Analyse lässt sich dann ein faireres Modell vorschlagen.
com! professional: Wie tief geht diese Einsicht in die KI-Modelle?
Herbert: Das geht herunter auf die einzelnen Merkmale. Es analysiert, welche Merkmale eine mögliche Beeinflussung enthalten können.
com! professional: Können Sie das Vorgehen an einem praktischen Beispiel erläutern?
Herbert: Bei einem Modell für die Kreditvergabe kann unsere Lösung zum Beispiel erkennen, ob Frauen benachteiligt werden. Wir analysieren das, indem wir die Geschlechterverteilung umdrehen und überprüfen, ob sich dann im Modell etwas ändert. Sollte dies der Fall sein, dann liegt hier mit hoher Wahrscheinlichkeit eine Verzerrung vor.
Unsere Lösung nutzt die Erkenntnis dann, um automatisch ein verbessertes Modell ohne Verzerrungen, die sogenannten Bias, zu erzeugen.

mehr zum Thema