Künstliche Intelligenz
07.08.2018
Datengrundlage
1. Teil: „KI braucht gute Daten als Fundament“

KI braucht gute Daten als Fundament

DatenfundamentDatenfundamentDatenfundament
ktsdesign / shutterstock.com
Eine Künstliche Intelligenz ist nur so gut wie die zugrunde liegenden Daten. Diese müssen aktuell, genau, vollständig und über mehrere Stufen eines Produktionsprozesses hinweg konsistent sein.
Dieser Beitrag wurde erstellt von Matthias Bauer, Executive Architect Data Analytics bei Axians IT Solutions.
Künstliche Intelligenz (KI) ist als neue Technologie bei Analysten und in der deutschen Wirtschaft ein quasi omnipräsentes Thema. Es gibt kaum ein Unternehmen, das sich nicht mit den Chancen von KI beschäftigt. Sowohl bei der Einrichtung moderner Arbeitsplätze als auch in der Produktion setzen viele bereits KI ein oder prüfen eine Integration.
Ein klassischer Einsatz von KI in produzierenden Unternehmen ist das sogenannte Condition Monitoring. Dabei werden mit angebrachten Sensoren die Daten der Anlagen in Echtzeit analysiert und mit Hilfe von KI überwacht, um den Zustand der Maschinen zu prüfen oder mögliche Probleme auf lange Sicht vorherzusehen. Die KI ist beispielsweise in der Lage, die optimalen Toleranzwerte einer Ventilsteuerung zu errechnen, um Fehler zu vermeiden.
Doch ein kognitives System läuft nicht per Plug and Play – einmal anschließen und sofort funktioniert alles reibungslos. Im Gegenteil: Solche Anwendungen erfordern viel menschliche Vorarbeit. Eine KI ist nämlich zunächst einmal dumm. Sie lernt durch die Einspeisung von geeigneten Daten und richtiger Algorithmen. Hier kommen Data Engineers zum Einsatz. Erst danach liefert sie brauchbare Ergebnisse. Data Engineers kümmern sich unter anderem darum, Daten für die Künstliche Intelligenz vorzubereiten, das heißt Daten aus­zulesen, zu transportieren, zu bereinigen, zu halten, zu verknüpfen und wiederholbare Analysen zu ermöglichen. Datenspezialisten bereiten diese so vor, dass Data Scientists auf deren Grundlage geeignete Datenquellen auswählen, kreativ mit den Daten experimentieren und die passenden Algorithmen entwickeln können, um individuelle Fragestellungen zu beantworten.

Die Qualität muss stimmen

Um die Datenqualität sollten sich die Verantwortlichen kümmern, bevor eine KI eingeführt wird, damit diese keine falschen Entscheidungen trifft. Im Gegensatz zu anderen Business-Intelligence-Analysen sind bei kognitiven Systemen und Big-Data-Anwendungen fehlerhafte Daten im Nach­hinein nur noch schwer auffindbar und zu filtern.
Doch woran erkennt ein Data Engineer die richtigen Daten? Der erste Anhaltspunkt ist beispielsweise die Datenquelle. Diese muss vertrauenswürdig sein. Also: Wer hat die Daten zu welchem Zweck an welchem Ort und zu welchem Zeitpunkt erhoben? Außerdem müssen geeignete Daten aktuell, genau, vollständig und über mehrere Stufen eines Produktionsprozesses hinweg konsistent sein. Ein zentraler Punkt ist auch die ausreichende Menge an Daten, um die gewünschte Fragestellung zu beantworten.
Ein Hersteller von Kunststoffgranulat etwa möchte die Ergebnisqualität vorhersagen. Dazu muss er sich zunächst überlegen, welche Daten die KI überhaupt benötigt, um verläss­liche Prognosen entwickeln zu können. Hier sind neben Maschinendaten wie die Vibrationen des Getriebes in der Extrusionsanlage oder die Drehgeschwindigkeit der Schnecke eine Vielzahl weiterer Faktoren wichtig, zum Beispiel die Temperatur und der Druck in der Werkshalle oder die Durchflussmenge der Rohstoffe.
2. Teil: „Informationsarchitektur “

Informationsarchitektur

Doch nicht nur die passenden Daten und spezialisierte Mitarbeiter sind entscheidend für die KI-Einführung. Auch eine passende Infrastruktur ist notwendig. Sie muss in der Lage sein, Daten verschiedener Formate aus unterschiedlichen Quellen zusammenzuführen. Wichtig ist deshalb eine zentrale Datenmanagement-Plattform, die neben strukturierten Daten auch unstrukturierte speichern und verarbeiten kann. Die Infrastruktur muss sowohl Echtzeitanalysen als auch batchorientierte Datenverarbeitung unterstützen und beide Welten kombinieren.
Für eine konstant hohe Datenqualität dürfen Unternehmen eine saubere Metadatenverwaltung nicht vernachlässigen. Sie dokumentiert genau, woher welche Daten stammen und wo sie aktuell gespeichert sind. Gerade im Hinblick auf personenbezogene Daten und die Datenschutz-Grundverordnung ist die Metadatenverwaltung unverzichtbar. Ein allgemeingültiges Rezept für die optimale Infrastruktur gibt es nicht. Der Anwendungsfall ist entscheidend, ob eine Minimallösung ausreicht oder doch eine umfangreiche Cloud-Lösung notwendig ist.
So ist eine punktuelle Analyse für Unternehmen beispielsweise mit einfachen Mitteln realisierbar. Hierdurch kann ermittelt werden, warum an einem bestimmten Arbeitsschritt Verschleiß entsteht. Sehr viel rechenintensiver und dadurch umfangreicher fällt hingegen eine KI-Anwendung aus, die die Ergebnisqualität beispielsweise in der Leiterplattenproduktion vorhersagen soll. Sie muss in der Lage sein, über einen längeren Zeitraum hinweg alle paar Sekunden Tausende Datenpunkte zu sammeln und zu verarbeiten. Dafür eignet sich zum Beispiel ein Spark- und
Hadoop-Cluster in Kombination mit NoSQL-Datenbanken und IBM SPSS sowie der Open-Source-Sprache R für die Visualisierung.

Spezialfall Produktion

Generell sind im Produktionsumfeld beim Einsatz von KI-Lösungen einige besondere He­rausforderungen zu bewältigen: Fertigungsstraßen setzen sich in der Regel aus Maschinen unterschiedlicher Generationen und Hersteller zusammen, die über eine individuelle Maschinensteuerung verfügen. Um die Daten aus den Steuerungen auszulesen und verwertbar zu machen, ist es häufig erforderlich, zusätzliche Sensoren anzubringen und ein IoT-Gateway einzubinden. Bei ganz alten Maschinen mit uralten Schnittstellen kann es auch nötig sein, selbst zum Lötkolben zu greifen.
Die KI zu trainieren, kann im industriellen Umfeld schwierig sein. Ein kognitives System lernt, wie der Mensch, am besten, indem es Fehler macht. Doch eine Produktionsmaschine muss zuverlässig funktionieren und darf die laufende Fertigung nicht behindern. In der Produktion konzentriert sich die KI daher meist auf Mustererkennungen in vorherigen Daten und Produktionsabläufen. Data Scientists trainieren die KI dann, indem sie Prognosen historisieren und immer wieder gegen die Realität prüfen. So entsteht eine Feedback-Schleife, die den Algorithmus kontinuierlich verbessert.

Das Fundament ist entscheidend

Künstliche Intelligenz birgt für deutsche Unternehmen enormes Potenzial. Doch wie beim Hausbau ist ein solides Fundament das A und O – hierfür stehen die Unternehmen selbst in der Pflicht. Denn nur mit einer geeigneten Informationsarchitektur und der passenden Datengrundlage schöpft die Technologie ihre volle Leistungsstärke aus.
Für den reibungslosen Einsatz von Künstlicher Intelligenz ist es unumgänglich, sie richtig zu trainieren und mit hochqualitativen Daten zu versorgen. Außerdem müssen die Daten passend für die jeweilige Fragestellung sowie aktuell sein und aus einer vertrauenswürdigen Quelle stammen.
Neben Fachexperten wie Data Scientists und Data Engineers erfordern KI-Projekte interdisziplinäre Zusammenarbeit zwischen Datenspezialisten und Fachabteilungen. Ebenso wichtig ist eine geeignete Infrastruktur für Datenintegration, Datenmanagement, Metadatenverwaltung und die Kombination aus Echtzeit- und batchorientierten Analysen.
Unternehmen, die das beachten, haben ein solides Fundament für die Einführung eines kognitiven Systems geschaffen und sind bereit, mit dem nächsten Schritt durchzustarten.

mehr zum Thema