Künstliche Intelligenz
20.06.2018
Künstliche Intelligenz
1. Teil: „Die KI-Revolution ­beginnt mit Edge-Computing“

Die KI-Revolution ­beginnt mit Edge-Computing

Neuronales NetzwerkNeuronales NetzwerkNeuronales Netzwerk
Sergey Nivens / shutterstock.com
Zentralisierte KI-Lösungen kämpfen oftmals mit hohen Latenzzeiten und Datenschutz-Bedenken. Daher ist die Verlagerung der Künstlichen Intelligenz an die Netzwerkkante notwendig.
Künstliche Intelligenz eröffnet ganz neue Möglichkeiten, die enormen Mengen an Daten, die jeden Tag sowohl in Privathaushalten als auch in den Unternehmen anfallen, nutzbar zu machen.
Laut dem aktuellen „Cisco Global Cloud Index“ waren es 2016 bereits 220 Zettabyte, die durch Menschen, Maschinen und Dinge generiert wurden, für das Jahr 2021 werden enorme 850 Zettabyte prognostiziert. All diese Daten können mit Hilfe von KI-gestützten Analysen wichtige Erkenntnisse liefern, die unser tägliches Leben und viele Unternehmensabläufe deutlich verbessern können.
Die neuen Möglichkeiten bringen jedoch auch neue He­rausforderungen mit sich. „Die meisten KI-Services, die wir heutzutage nutzen, sind grundsätzlich als monolithische, zentralisierte Systeme konzipiert“, erklärt Noah Schwartz, Gründer und Geschäftsführer des US-Unternehmens Quorum AI. „Das bedeutet, dass ein einzelnes Modell mittels eines einzelnen Datensatzes trainiert wird, um eine konkrete Aufgabe auszuführen.“ Je komplexer die Aufgabe ist, desto komplexer ist die Architektur und desto größer ist der erforderliche Datensatz. Die typischen Systeme, in denen diese Algorithmen anschließend eingesetzt werden, verfügen jedoch über solch knappe Rechen- und Speicherkapazitäten, dass sie, so Schwartz weiter, „nur dazu dienen, die Daten zu sammeln, in einen zentralen KI-Service in der Cloud oder in einem Rechenzentrum einzuspeisen und den Output zu empfangen”.
Die permanente Übertragung von Daten zur zentralen KI und zurück ist allerdings mit vielen Risiken verbunden. Hohe Latenzzeiten sind eines davon. „Selbst eine geringe Verzögerung bei der Datenverarbeitung in den Anwendungen, die mit KI-Algorithmen wichtige Entscheidungen treffen
sollen, beispielsweise in selbstfahrenden Autos, kann den Unterschied zwischen Leben und Tod bedeuten“, warnt Jem Davies, Direktor für maschinelles Lernen bei ARM, Anbieter im Bereich Mikroprozessoren.
Ein weiterer Aspekt ist die Sicherheit der personenbezogenen Daten: „Je mehr Informationen hin und her bewegt werden, desto höher ist die Wahrscheinlichkeit, dass ihre Inte­grität gefährdet wird“, so Davies weiter. Noah Schwartz von Quorum AI gibt im Zusammenhang mit KI-Systemen im EU-Raum auch die Anforderungen der neuen Datenschutz Grundverordnung (DSGVO) zu bedenken.
Gleichzeitig erfordern viele datenintensive Anwendungsfälle mehr Intelligenz am Rand des Netzwerks. So weist Philip Carnelley, stellvertretender Leiter European Software Research beim Marktforschungsunternehmen IDC, darauf hin, dass viele potenzielle Einsätze für Künstliche Intelligenz, etwa Maschinen, die vorausschauende Wartung selbst durchführen können, davon abhängen, ob die KI am Rand des Netzwerks angesiedelt ist.
Ähnlich sieht es Shamik Mishra, stellvertretender Leiter Technology Innovation bei Aricent, einem globalen Design- und Ingenieurunternehmen, das unter anderem SDKs und Edge-Infrastruktur anbietet, um beispielsweise die GPU- und CPU-gestützte Beschleunigung der Protokolle und Algorithmen zu unterstützen: „Die Anwendungsbeispiele in den Unternehmen wie Prozessoptimierung, Anomalie-Erkennung, Effizienz- und Produktivitätssteigerungen, Wartungsprozesse und Betriebssicherheit brauchen KI an der Netzwerkkante.“
Bisher sei Künstliche Intelligenz jedoch nur in den zentralen Servern vorhanden gewesen, ergänzt Pavel Cherkashin, geschäftsführender Partner bei GVA Capital, einem US-Venture-Capital-Unternehmen, das sich unter anderem auf KI fokussiert, auch wenn „die meisten Anwendungsfälle unmittelbar die Geräte betreffen, wo die Daten entstehen“.
2. Teil: „Verarbeitung an der Randstelle“

Verarbeitung an der Randstelle

Die Antwort darauf kann Edge-Computing liefern, ein Ansatz, bei dem die Datenverarbeitung durch erhöhte lokale Speicher- und Leistungskapazitäten nicht in der Cloud, sondern unmittelbar an der Randstelle eines Netzwerks stattfinden kann. Santhosh Rao, Principal Research Analyst beim IT-Marktforschungsunternehmen Gartner, hält die Edge-Computing-Technologie sogar für regelrecht erforderlich, um viele Herausforderungen, mit denen die IT heutzutage konfrontiert ist, effektiv zu bewältigen: „Der Bedarf an Echtzeit-Einblicken und sofortigem Handeln, die aktuellen Netzwerkeinschränkungen, die hohen Mengen an Daten und die Geschwindigkeit, mit der diese Daten von Sensoren und Endpunkten generiert werden, zwingen die IT-Leiter, Edge-Computing-Lösungen einzusetzen, um die Daten näher an der Quelle ihrer Entstehung zu verarbeiten.“
Zum einen kann sich Edge-Computing positiv auf die Verbreitung von KI-Technologien auswirken: „Wenn wir den KI-Einsatz auch am Rand des Netzwerks unterstützen würden, könnten wir die Möglichkeiten für KI um einige Aspekte erweitern und einen neuen Wert fürs Geschäft schaffen“, unterstreicht Jim Liu, CEO des taiwanischen Embedded-Computing-Unternehmens Adlink.
Zum anderen sorgt Edge-KI für mehr Datensicherheit und Transparenz – Kriterien, die auch im Hinblick auf die DSGVO eine kritische Rolle spielen. Dazu Noah Schwartz von Quorum AI: „Die zentralen cloudbasierten KI-Systeme nutzen Daten von Millionen von Menschen. Unter diesen Umständen sind die Rückverfolgung der Daten auf einzelne Personen und die Nachverfolgung dessen, wie genau diese Daten genutzt wurden, äußerst schwierig.“ Wenn das Lernen und die Analyse jedoch parallel mit der Datenerhebung direkt in einem Edge-Gerät stattfinden, dann müssen die meisten Daten nicht woandershin übermittelt werden.
So können die Endanwender, aber auch die Unternehmen die Vorteile der Künstlichen Intelligenz nutzen, ohne ihre sensiblen Daten mit Drittanbietern oder „über eine potenziell anfällige Cloud-Umgebung” teilen zu müssen, ergänzt Gary Brotman, Direktor für Produktmanagement im Bereich KI beim Chiphersteller Qualcomm.
Darüber hinaus hat Edge-Computing auch positive Auswirkungen auf die Reaktionszeiten. Findet die Analyse noch zum Zeitpunkt der Datenerhebung statt, dann können die Edge-basierten Systeme lernen und Schlussfolgerungen aus den Daten ableiten. „Das verkürzt die Zeit zwischen der Datenerhebung und der Gewinnung nützlicher Erkenntnisse“, so Noah Schwartz. Auch die Speicher- und Leistungsanfor­derungen werden gesenkt, weil diese Daten nicht mehr abgespeichert werden müssen, „zumindest nicht in den Mengen, die für die traditionellen KI-Methoden erforderlich sind“.
3. Teil: „Mit der Cloud, nicht gegen sie“

Mit der Cloud, nicht gegen sie

Obwohl die Verlagerung der KI an die Netzwerkkante in vielerlei Hinsicht sinnvoll ist, wird die Cloud dadurch nicht überflüssig: „Edge-Computing und Cloud-Computing haben unterschiedliche und komplementäre Eigenschaften“, bestätigt Philip Carnelley. Jim Liu von Adlink weiß, was der IDC-Analyst meint: „Cloud-Computing hat seine bestimmten Vorteile wie Skalierbarkeit, globale Zugänglichkeit und den As-a-Service-Ansatz.“ Es habe jedoch auch systembedingte Schwächen, etwa im Zusammenhang mit Latenz, Kosten, Bandbreite, Sicherheit und Datenschutz.
Zusätzlich setze die Künstliche Intelligenz in der Cloud eine hohe Konnektivität voraus, um die Daten zu Analysezwecken zu importieren und auf diese zuzugreifen, so Carnelley von IDC weiter. In komplexen Edge-Umgebungen kann die Verbindung zur KI in der Cloud jedoch entweder nicht vorhanden oder nicht zuverlässig sein. Benjamin Lui, Founder des Start-ups BabbyCam, hat ein Beispiel parat: „Die KI-Software in einer Drohne muss auch in den Gebieten ohne Cloud-Verbindung funktionieren können.“ Edge-Computing biete diesbezüglich Stabilitätsvorteile. Auch bei den Anwendungsfällen, die niedrige Latenz und Einsparungen beim Backhaul voraussetzten, spiele Edge-Computing eine wichtige Rolle, fügt Shamik Mishra von Aricent hinzu.
Den Experten zufolge werden Cloud und Edge einander ergänzen. „Ich stelle mir das vor wie ein großes und ein kleines Gehirn“, sagt etwa Paul Boris, COO und Director des Smartbrillen-Herstellers Vuzix. „Das eine sitzt in der Cloud, während das andere am Rand des Netzwerks hilft, die Erkenntnisse, die aus den sehr großen Datenmengen gewonnen werden, lokal umzusetzen.“ Außerdem brauchen einige Anwendungen enorme Datenmengen, deshalb ist es Jem Davies von ARM zufolge derzeit nicht sinnvoll, solche Anwendungen an den Rand des Netzwerks zu verschieben.
Aus diesen Gründen kann die Infrastruktur für das Training von KI laut Gartner-Analyst Santhosh Rao weiterhin in der Cloud oder in den Rechenzentren bereitgestellt werden, während die dadurch entstandenen Inferenzmodelle im Edge-Computing-Umfeld umgesetzt werden, um die Echtzeitanalysemöglichkeiten in der Nähe oder genau an der Quelle der Datenerhebung zu verbessern.

Die richtige Hard- und Software

Die Bereitstellung von KI-gestützten Analysen und Erkenntnissen direkt vor Ort hat zweifellos große Vorteile. Die Umsetzung dürfte aber nicht ganz leicht sein, denn Künstliche Intelligenz im Zusammenspiel mit Edge-Computing stellt ihre eigenen Anforderungen an die Hardware. „Wenn wir beispielsweise von Deep-Learning-Algorithmen sprechen, dann sind die hohe Inferenzleistung und die Geschwindigkeit besonders wichtig“, sagt BabbyCam-Gründer Lui.
Die bisher entwickelten Prozessoren für Edge- und Mobilgeräte sind jedoch laut Remi El-Ouazzane, Vizepräsident und Generaldirektor des Intel-Tochterunternehmens Movi­dius, für die Art der Belastung, die die modernen KI-Anwendungen erfordern, nicht unbedingt ausgelegt.
Viele KI-Anwendungen benötigen ihm zufolge die hohe Rechenleistung der Cloud und damit eine Anbindung mit stetigem Datenaustausch. ARM-Generaldirektor Davies sieht da­rin ein großes Problem. Sicherheitskritische Abläufe dürften nicht auf stabile Internetverbindungen angewiesen sein.
Eine der wichtigsten Voraussetzungen sei daher die Möglichkeit, einen Teil dessen, was die Cloud ermöglicht, lokal in einer Maschine oder einem Gerät auszuführen, so Vuzix-COO Paul Boris. Viele Edge-Hardware-Hersteller hätten das erkannt, wie Noah Schwartz von Quorum AI beobachtet: „Die Chip-Unternehmen arbeiten an Prozessoren, die weniger Strom verbrauchen und die Art von Berechnungen, die KI-Systeme am häufigsten durchführen, bewerkstelligen können.“
Auf der Software-Seite bedarf es ebenfalls erheblicher Verbesserungen, um KI in der Edge zu ermöglichen. „Die meisten KI-Systeme von heute, insbesondere Deep-Learning-Systeme, nutzen Algorithmen, die für die Inferenz riesige Datenmengen brauchen“, sagt Quorum-AI-Gründer Schwartz. Daher müssen laut Lui von BabbyCam neue Trainings-Algorithmen bereitgestellt werden, die auf der Basis möglichst weniger Daten schnelle und korrekte Antworten liefern können.
Noch in einem weiteren Punkt sind sich die Experten einig: Die Entwickler, die unmittelbar an Edge-KI-Lösungen arbeiten, benötigen eine große Auswahl an Hardware und Software, mit der sie arbeiten können. „Es gibt keine generelle Hardware-Architektur, die sämtliche KI-Algorithmen unterstützen kann“, betont Qualcomm-Direktor Gary Brotman. Jeder Anwendungsfall sei verschieden und habe sein eigenes Leistungsprofil.
4. Teil: „Keine Branche bleibt unberührt“

Keine Branche bleibt unberührt

Wegen der Vorteile von Künstlicher Intelligenz in der Edge ergeben sich viele Einsatzmöglichkeiten. Eine besondere Rolle wird die Technologie laut Jim Liu von Adlink dort spielen, wo geringe Latenzzeiten, Kostenoptimierung, Zuverlässigkeit, hohe Datenvolumen, Sicherheit und Datenschutz entscheidend sind. Aussichtsreich ist der Einsatz von Edge-KI in Drohnen, Smart-Kameras, Smart-Home-Geräten, Robotern und im Smart-Retail, so die Einschätzung von Movidius-Generaldirektor El-Ouazzane.
Für den IDC-Analysten Carnelley drehen sich viele potenzielle Anwendungsfälle für Edge-KI ums Internet of Things. Gary Brotman glaubt auch den Grund dafür zu kennen, denn ihm zufolge gibt es kein einfaches Mittel, um die Kommunikation zwischen den IoT-Geräten zu gewährleisten. Brotman sieht deshalb vor allem in der Kombination der Edge-Technologie mit einer besseren Konnektivität großes Potenzial, im Speziellen mit 5G.
Somit dürfte es wohl kaum eine Branche geben, die von dem Zusammenspiel von Künstlicher Intelligenz und Edge-Computing nicht profitieren wird. Zu den Sektoren, die sich hier die größten Vorteile verschaffen werden, zählt Philip Carnelley die Automobilindustrie, das Gesundheitswesen, Produktions- und Industrieunternehmen, Smart Cities, beispielsweise für Sicherheitskontrollen oder die Verkehrssteuerung, Energie- und Versorgungsunternehmen, Handel und Telekommunikation sowie die Mobilfunkbranche.

Wann kommt Edge-KI?

Der aktuelle Hype um Künstliche Intelligenz und Edge-Computing könnte den falschen Eindruck erwecken, dass die Zusammenführung dieser zwei Technologien noch weit entfernt sei, stellt Paul Boris von Vuzix fest. ARM-Director Davies zufolge ist es tatsächlich so, dass bestimmte KI-abgeleitete Schlussfolgerungen schon jetzt in den Edge-Geräten stattfinden. Der Trend werde mit der wachsenden Menge an generierten Daten nur noch weiter zunehmen. Zudem würden KI-gestützte Technologien an Robustheit und Skalierbarkeit gewinnen, so die Einschätzung von Movidius-Chef Remi El-Ouazzane.
An den Prognosen, wann genau Edge-KI breit eingesetzt wird, scheiden sich etwas die Geister. So vertreten Philip Carnelley von IDC und Santhosh Rao von Gartner die Meinung, dass sich die Entwicklung und die Anbieterlandschaft derzeit noch in einem sehr frühen Stadium befinden. Die beiden Analysten sind jedoch zuversichtlich, dass der Bereich in weniger als drei Jahren massiv an Dynamik gewinnen und zum Mainstream werden wird.
Gary Brotman von Qualcomm rechnet mit ein­em noch früheren Zeitpunkt: „Edge-KI ist (…) einer der am schnellsten wach­senden Technologiebereiche überhaupt. Die Entwicklungsgeschwindigkeit im Bereich KI-Algorithmen, die steigende Rechenleistung der Geräte, überwältigende Datenmengen und ausgefeilte Analysemöglichkeiten von heute deuten darauf hin, dass es viel früher passieren wird, als man sich vorstellt.“
KI in der Edge – Beispiele
BabbyCam: BabbyCam setzt KI-Algorithmen zur Gesichtserkennung direkt in seiner Babyfon-Lösung ein. Sie lernt unterschiedliche Gesichtsausdrücke des Säuglings in Verbindung mit seinen Emotionen und schickt regelmäßig Updates über dessen emotionalen Zustand an die Eltern.
Cherry Home: Die KI-gestützte Sicherheitskamera merkt sich mit Hilfe von Algorithmen nicht nur Gesichter, sondern auch Körperproportionen, sodass Personen auch von hinten identifiziert werden können.
  Dank der Edge-basierten Künstlichen Intelligenz wertet die Kamera unterschiedliche Ereignisse schneller aus als über die Cloud. Zudem bleiben sensible Daten ausschließlich lokal gespeichert.
Google Clips: Die intelligente Kamera soll automatisch Fotos aufnehmen, sobald ein guter Schnappschuss zu erwarten ist. Für die KI-gestützte Aufgabe ist die Kamera mit dem Movidius-Myriad-X-Chip von Intel ausgestattet, der eine Onboard-Datenverarbeitung ermöglicht. Dadurch lässt sich die Kamera komplett offline nutzen und sie behält die Aufnahmen auf dem Gerät.
Vuzix M300: Die Datenbrille Vuzix M300, die mit Kamera, Bildschirm und Lautsprecher ausgestattet ist, wird unter anderem im Fertigungssektor für die Aufgabenverteilung oder in Lagerhallen eingesetzt, um die Mitarbeiter zu navigieren, wo sie Materialen hinbringen oder abholen sollen.
Außerdem setzt ein Vuzix-Kunde die Brille bei der Arbeit mit Blinden ein. Dabei werden KI-Algorithmen mit einer Bild­erkennungsfunktion ausgeführt, die es den Blinden ermöglichen, sich im Alltag zurechtzufinden.

mehr zum Thema