Künstliche Intelligenz
14.08.2023
KI-Infrastruktur
1. Teil: „KI und ML: Cloud oder On-Premises?“

KI und ML: Cloud oder On-Premises?

Shutterstock / ArtemisDiana
Bei Cloud-Services für KI und Machine Learning müssen Kosten und Governance in Einklang gebracht werden.
Das Leben könnte so einfach sein, auch für Journalisten: „Lieber virtueller Assistent, kontaktiere deine Freunde ChatGPT und Bard und lasse sie einen Artikel zu KI-Plattformen schreiben, die als Cloud-Service verfügbar sind. Und bitte eine passende Anbieterübersicht mitliefern.“ Doch das klappt in der Praxis noch nicht, trotz des Hypes, der um generative KI-Formen (generative KI) wie ChatGPT von OpenAI und Bard von Google entstanden ist – mit Betonung auf „noch nicht“.
Es ist unumstritten, dass die künstliche Intelligenz und das Machine Learning (ML) bereits heute eine Schlüsselrolle in vielen Bereichen spielen, und diese Entwicklung wird sich beschleunigen – auch in Deutschland und der Schweiz: „Nach unseren Erfahrungen haben Unternehmen und Organisationen die Bedeutung von KI erkannt und investieren in diese Technologie“, berichtet etwa Markus Hacker, Director Enterprise Business DACH bei Nvidia. „Es besteht in einer Reihe von Branchen ein starkes Interesse an der Nutzung von KI zu Verbesserung von Effizienz, Produktivität und Innovation.“
Dies gilt nicht nur für die Fertigung, etwa im Automobil- und Maschinenbau und der pharmazeutischen und chemischen Industrie. Auch der Einzelhandel und Dienstleistungssparten wie der Finanzsektor können von KI und Machine Learning profitieren.

KI ist im Alltag angekommen

Nicht vergessen werden sollte, dass künstliche Intelligenz und Maschinelles Lernen (ML) für etliche Unternehmen und Nutzer kein Neuland sind. So hat beispielsweise Microsoft generative KI-Funktionen in seinen Browser Edge integriert und Microsoft 365 um künstliche Intelligenz erweitert: „Wir bieten mit dem in Microsoft 365 integrierten Copiloten die Möglichkeit, KI ohne Programmierkenntnisse in den Arbeitsalltag einzubinden“, erläutert Gilbert Jacqué, Azure Solutions Go-To-Market Lead bei Microsoft Deutschland. Ein Beispiel: „Microsoft Teams Premium wird in Kürze den Teilnehmern einer Besprechung direkt nach dem Meeting ein Protokoll und eine Aufgabenliste zur Verfügung stellen können“, so Jacqué.
  • KI-basierte Chatbot-Anwendungen wie Character.AI erstellen künstliche ­Persönlichkeiten, die sich mit menschlichen Usern austauschen können.
    Quelle:
    Character.AI
Zu den Bereichen, in denen KI-Lösungen in verstärktem Mass anzutreffen sind, zählen vor allem die Kundenbetreuung, inklusive des IT-Supports. Dort kommt Conversational AI zum Zug in Form von Suchmaschinen und Chatbots. „Benutzer können Fragen stellen und erhalten Antworten wie in einem Dialog mit einer Person“, erklärt Florian Maximilian Lauck-Wunderlich, Senior Project Delivery Leader bei Pegasystems, einem Anbieter von Low-Code-Plattformen mit KI-Unterstützung. „Der nächste Schritt ist die Implementierung von emotionaler Intelligenz in Chatbots“, so Lauck-Wunderlich. Eine KI-gestützte Analytics-Software wiederum kann in Echtzeit auf Basis von Muster-Erkennung und Korrelationsanalysen die Ursachen von Umsatzrückgängen oder den Erfolg von Marketingkampagnen ermitteln.
2. Teil: „Cloud oder On-Premises“

Cloud oder On-Premises

Generative AI-Lösungen wie ChatGPT von OpenAI, Google Bard, Luminous des deutschen Start-ups Aleph Alpha und Character.AI vom gleichnamigen Anbieter werden das Einsatzspektrum künstlicher Intelligenz deutlich erweitern. Für viele Unternehmen und Organisationen stellt sich daher die Frage, wie und wo sie entsprechende Anwendungen entwickeln und implementieren können: im eigenen Haus beziehungsweise Data Center oder mithilfe von Public-Cloud-Services. Dabei spielen Faktoren eine Rolle wie:
  • das vorhandene Know-how in Unternehmen in den Bereichen KI, Machine Learning und Data Science;
  • der finanzielle und organisatorische Aufwand, der mit dem Aufbau und Betrieb von KI-Entwicklungskapazitäten und einer IT-Infrastruktur im eigenen Haus verbunden ist;
  • dies im Vergleich zu den Kosten, die bei Cloud-Services anfallen, insbesondere vor dem Hintergrund der Preissteigerungen bei Cloud-Angeboten in jüngster Zeit;
  • eventuell technische Fragen, etwa Datenleitungen mit hoher Kapazität, die für den Transfer von komplexen KI-Modellen und grossen Volumina von Trainingsdaten in eine Cloud erforderlich sind. Speziell in Deutschland sind Highspeed-Verbindungen in etlichen Regionen immer noch Mangelware;
  • der Schutz von geistigem Eigentum, wenn Daten und KI-/ML-Modelle in einer Public Cloud vorgehalten werden;
  • Vorgaben durch den Gesetzgeber, etwa im Rahmen der EU-Datenschutz-Grundverordnung und der geplanten Regelungen der EU für KI (Artificial Intelligence Act). Der EU AI Act soll noch 2023 in Kraft treten.
Tabelle:

3. Teil: „Cloud als «Demokratisierung von KI»“

Cloud als «Demokratisierung von KI»

Keine Überraschung ist, dass für Gilbert Jacqué von Microsoft KI aus der Cloud die perfekte Lösung ist:
  • Vortrainierte Dienste wie der Azure OpenAI Service stehen Unternehmen jeder Grösse und aus allen Branchen über die Cloud zur Verfügung. Dies ermöglicht im Grunde eine Demokratisierung von KI.“ Wer dagegen einen On-Premises-Ansatz wähle, entkopple laut Jacqué seinen KI-Ansatz von weltweit zugänglichen Ressourcen und Tools, die häufig als Open Source verfügbar seien. „Das führt zu strategischen Wettbewerbsnachteilen.“
Auch klassische Vorteile von Public-Cloud-Services kommen bei KI und Machine Learning zum Tragen, etwa die Skalierbarkeit und der Zugang zu speziellen Ressourcen wie Grafikprozessoren (GPUs) und den hohen Rechen- und Speicherkapazitäten, die das Erstellen und Testen von KI- und ML-Modellen erfordert. „Cloud-Nutzer profitieren von einer höheren Effizienz, weil sie die zugrunde liegende Server-Infrastruktur nicht selbst managen müssen“, betont Mark Neufurth, Lead Strategist beim deutschen Cloud-Serviceprovider Ionos.
  • Plattformen wie Google Vertex AI stellen über die Cloud alle erforderlichen Tools zur Verfügung, mit denen Unternehmen KI- und Machine-Learning-Anwendungen entwickeln, trainieren und implementieren können.
    Quelle:
    Google
Wichtig ist aus seiner Sicht jedoch, dass Nutzern die erforderlichen KI- und ML-Tools zur Verfügung stehen, die sie über Application Programming Interfaces (APIs) anbinden und zu einem kompletten AI/ML-Stack erweitern können. Dies erfordert beispielsweise die Unterstützung von ETL- und ELT-Pipelines (Export – Transform – Load und Export – Load – Transform). Speziell der „Transform“-Part ist bei KI und ML wichtig, um Variablen in standardisierte Bereiche umzuwandeln.
4. Teil: „«Das Interesse an KI-Lösungen aus der Cloud ist riesig»“

«Das Interesse an KI-Lösungen aus der Cloud ist riesig»

An der Cloud führt für Unternehmen kein Weg vorbei, die KI- und Machine-Learning-Lösungen einsetzen wollen, ist Stephan Schnieber sicher, der bei IBM als Sales Lead IBM Cloud Pak for Data die Region Schweiz, Deutschland und Österreich betreut. Anwender sollten dabei jedoch einige Fallstricke vermeiden.
Computerworld: Herr Schnieber, haben Unternehmen den Stellenwert von KI erkannt?
  • Stephan Schnieber ist Sales Leader IBM Cloud Pak for Data in der DACH-Region, IBM
    Quelle:
    IBM
Stephan Schnieber:
KI kommt bereits in vielen Produkten zum Einsatz, etwa in KI-basierten Business-Intelligence-Tools und in Chatbots. In Schlüsselindustrien, etwa der Automobilbranche, speziell der Elektromobilität, gibt es sicher Nachholbedarf gegenüber den USA oder China. Aber die eigentliche Frage muss ja lauten: Wo fängt KI an? Sind Unternehmen im Thema angekommen, wenn sie KI-Tools nutzen, oder müssen sie dafür erst mit Cloud- oder On-Premises-Werkzeugen eigene KI- oder Data-Science-Modelle entwickeln?
CW: Auf welches Interesse stossen Cloud-basierte Services im Vergleich zu On-Premises-Ansätzen?
Schnieber: Hier ist die Antwort eindeutiger. Das Interesse an Cloud-Lösungen ist im Verhältnis zu On-Premises riesig. Alle Neueinsteiger in KI- und ML-Dienste legen den Fokus auf die Cloud. Wir müssen aber auch hier zwischen der Nutzung von Diensten und der Entwicklung von Modellen unterscheiden.
CW: Was heisst das?
Schnieber: Dienste wie etwa Watson Assistant und Watson Discovery laufen seit ihrer Einführung in der Cloud, und das Interesse an ihnen nimmt stetig zu. Aber es gibt auch hier einige Ausnahmefälle, in denen das eigene Datencenter bevorzugt wird. Das ist unter anderem bei Unternehmen der Fall, die von Anfang an On Prem gearbeitet haben und bei denen die Integration und Anbindung an Altsysteme eine Rolle spielt. Bezüglich der Entwicklung von KI-Modellen mit Data-Science-Werkzeugen geht der Trend zunehmend in Richtung Cloud.
CW: Welche besonderen Vorteile haben cloudbasierte KI- und ML-Services?
Schnieber: Die einfache Verfügbarkeit und die hohe Skalierbarkeit. Die Anbieter verfolgen inzwischen alle einen Cloud-first-Ansatz; Tools und APIs sind also ebenfalls hochverfügbar. Grundsätzlich muss aber zwischen der Erstellung und der Anwendung von KI-Modellen unterschieden werden. Entwickelt wird in der Cloud oder On-Premises, ausgeführt eher On Prem oder On Edge. Denn die Latenzzeiten sind, wie bei allen Cloud-Lösungen, ein limitierender Faktor. Werden Echtzeit-Ergebnisse benötigt, ist die Cloud meist nicht der optimale Ansatz.
CW: Gibt es auch Kompromisse, die Nutzer eingehen müssen?
Schnieber: Klares Ja. Das ist zum Beispiel der Fall, wenn ein KI-Modell mit grossen Datenmengen trainiert werden muss. Dann können die Kosten für den Cloud-Transfer so hoch sein, dass sie zum Argument werden, nicht in die Cloud zu gehen.
CW: Sorgen macht auch das Risiko der Unter­nehmen, sich langfristig an einen Cloud-Provider zu binden, Stichwort Vendor Lock-in.
Schnieber: Die Interoperabilität ist zwar durch Standardwerkzeuge wie Jupyter Notebooks gegeben, bei denen Code mit Python oder R Code geschrieben und ausgeführt wird. Dieser lässt sich dann auch portieren. Aber in der Praxis finden Wechsel dennoch kaum statt, weil sie immer mit hohem Aufwand verbunden sind. Aber der Vendor Lock-in ist zumindest geringer als früher, als beispielsweise ausschliesslich Data-Science-Werkzeuge zur Verfügung standen, die für den Einsatz in Unternehmensrechenzentren ausgelegt waren.
CW: Können Sie zum Schluss noch Tipps geben, was Unternehmen und Organisationen bei der Auswahl von cloudbasierten KI- und ML-Services berücksichtigen sollten?
Schnieber: Interessenten sollten bei der Anbieterauswahl auf eine möglichst offene Umgebung achten, die eine grosse Vielfalt von Tools unterstützt, um nicht auf eine proprietäre Entwicklungsumgebung eingeschränkt zu werden. Unternehmen müssen da einen Balanceakt vollbringen. Denn gerade im Bereich Data Science drängen junge, dynamische Absolventen auf den Arbeitsmarkt. Diese hoch qualifizierten, ambitionierten Fachleute wollen immer die neusten und modernsten Lösungen. Unternehmen benötigen aber gleichzeitig etablierte Systeme, die ihnen ein hohes Mass an Datensouveränität, Governance, Guidance und Einheitlichkeit sowie gute Kollaborationsmöglichkeiten bieten. Cloud-Strategien müssen das verbinden.
CW: Und welche Cloud-Strategie sollten Unternehmen verfolgen? Ist es sinnvoll, auch kleinere IT-Dienstleister und Serviceprovider in Betracht zu ziehen?
Schnieber: Ratsam ist, nach Möglichkeit einen Hybrid-Cloud-Ansatz zu bevorzugen. Das heisst, die On-Premises-Option sollte immer offengehalten werden. Kleinere Anbieter können häufig nur einen Teil der genannten Anforderungen erfüllen. Daher führt an den Cloud-Hyperscalern, inklusive IBM, oft kein Weg vorbei.
5. Teil: „«Skill Gap» kompensieren“

«Skill Gap» kompensieren

Angesichts des Mangels an IT-Fachleuten, vor allem von Data Scientists, ist der einfachere Zugang zu KI- und ­Machine-Learning-Know-how über eine Cloud ein weiterer wichtiger Punkt. Den Ernst der Lage zeigt ein Blick auf die Lage im DACH-Raum: Die Schweiz rechnet damit, dass im Jahr 2030 an die 40 000 IT-Fachleute fehlen. In Deutschland wiederum waren Ende 2022 nach Angaben des Digitalverbands Bitkom rund 140 000 IT-Stellen unbesetzt, in Österreich fehlen an die 30 000 Spezialisten.
„Ein Vorteil von Cloud-basierten KI-Diensten ist, dass sie dazu beitragen können, den ‘Skill Gap‘, in der KI-Branche zu schliessen“, unterstreicht Markus Hacker von Nvidia. „Viele Unternehmen verfügen möglicherweise nicht über das interne Fachwissen, das für den Aufbau und die Wartung einer KI-Infrastruktur erforderlich ist.“ Nutzer von Cloud-Diensten könnten jedoch vom Fachwissen von Cloud-Anbietern und deren Partnern profitieren, wenn sie KI-Anwendungen entwickeln.
Das reicht jedoch nicht aus, so Hacker. Wichtig sei zudem, dass Unternehmen verstärkt in KI-Ausbildung- und -Training investieren. Nur dann seien Beschäftigte in der Lage, KI-basierte Anwendungen zu nutzen und zu entwickeln. Mittlerweile bieten die Cloud-Serviceprovider sowie viele ihrer Partner entsprechende Kurse an, AWS beispielsweise über die AWS Academy, Microsoft im Rahmen von „Azure AI Fundamentals“. Natürlich können auch solche Programme nicht ad hoc den Mangel an KI- und Datenspezialisten beseitigen. Aber letztlich führt für Unternehmen kein Weg daran vorbei, die eigenen Mitarbeiter mithilfe solcher Angebote für das KI-Zeitalter fit zu machen.

Eine Frage der Kosten

In den vergangenen Monaten hat sich die Diskussion über die Kosten von Cloud-Services zugespitzt. So sehen Analysten wie David Linthicum vom Beratungshaus Deloitte wegen der Kosten bei KI- und ML-Workloads einen Trend zur „Repatriierung“ in Unternehmensrechenzentren. Und laut der Studie „CIO Pulse: 2023 Budgets & Priorities“ des schweizerischen IT-Hauses SoftwareOne sind für 41 Prozent der CIOs Preiserhöhungen der Cloud-Serviceprovider der grösste Faktor, der die IT-Ausgaben nach oben treibt – vor zu schnell anwachsenden Workloads und einer verstärkten Nutzung von Cloud-Ressourcen (jeweils 40 %), inklusive KI- und Machine-Learning-Services.
„Wer geglaubt hat, allein aus Kostengründen in die Cloud gehen zu müssen, erlebt oft eine Überraschung“, warnt Florian Maximilian Lauck-Wunderlich von Pegasystems. Aber: „Das liegt an unrealistischen Erwartungen.“ Die Cloud habe andere, wichtigere Qualitäten, etwa Verfügbarkeit, Skalierbarkeit, On-Demand-Ressourcen, aber auch Sicherheitsaspekte. Hinzu kommt, dass viele Cloud-Nutzer punkto Kosten noch ihre Hausaufgaben zu machen haben. So wollen 95 Prozent der CIOs die Transparenz und Kontrolle von Cloud-Kosten erhöhen. Auch das ist ein Ergebnis der Untersuchung von SoftwareOne.
Das heisst, es ist ein umfassendes Cloud-Kostenmanagement in Verbindung mit FinOps-Ansätzen erforderlich. Dies sollte allerdings nicht nur bei KI und ­Machine Learning aus der Cloud zum Zuge kommen, sondern bei allen Services, die Unternehmen aus einer Public Cloud beziehen.

Datenstrategie optimieren

Angesichts steigender Egress- und Ingress-Kosten (Datentransfers aus einer und in eine Cloud-Umgebung) ist ein weiterer Faktor wichtig: die Begrenzung der Datenmengen. «Eine tragfähige cloudbasierte Datenhaltung vermeidet eine redundante Datenhaltung und überflüssige Datentransporte zwischen der eigenen IT-Infrastruktur und der Cloud oder zwischen mehreren Clouds – und damit auch unnötige Kosten», so Gilbert Jacqué von Microsoft.
Allerdings sind auch die Cloud-Serviceprovider gefordert: „Der Trend zur Cloud hat auch durch die komplexen Cloud-Servicewelten der Hyperscaler zu Wildwuchs und damit zu ‘Cloud Waste‘ geführt“, moniert Mark Neufurth von Ionos. „Die Limitierung bei der Nutzung von KI-Services aus der Cloud hängt also auch von der Frage ab, wie transparent ein Cloud-Anbieter strukturiert ist.“
Für viele Unternehmen und Organisationen dürfte es allerdings schwierig sein, aus der breiten Angebotspalette der grossen Provider eine optimale Mischung von KI- und Machine-Learning-Services und den zugehörigen Infrastruktur-Komponenten wie Datenbanken, Storage- und Compute-Ressourcen zusammenzustellen. Abhilfe können IT-Dienstleister schaffen – in Form von Beratungsleistungen.

Kombination mit DevSecOps-Plattformen

Speziell bei Entwicklung unternehmenskritischer KI-Anwendungen sollte der Aspekt Sicherheit nicht zu kurz kommen. Das lässt sich mit DevSecOps-Plattformen erreichen, etwa GitLab. «Wir erweitern aktiv unsere ModelOps-Funktionen, um die Erfahrung für KI-Entwickler zu verbessern, und bauen Funktionen ein, um Data-Science-Workloads nativ zu unterstützen», erläutert Taylor McCaslin, Group Manager – Product Data Science AI/ML bei GitLab. Dazu zählen die MLFlow-Integration, «sauberere» Python Notebooks und GPU SaaS Runners.
Eine DevSecOps-Plattform fasst die Funktionen zur Entwicklung und Bereitstellung von (KI-)Software in einem einheitlichen Workflow zusammen. Das beschleunigt Entwicklungsprozesse und reduziert das Risiko für Sicherheitslücken. Wichtig ist, dass solche Plattformen auch einen Zugang zu Ressourcen wie Grafikprozessoren bieten. GitLab hat daher eine Partnerschaft mit Oracle geschlossen.

Superrechner im eigenen Haus

Wer dennoch eine KI-Infrastruktur im eigenen Haus einrichten möchte, kann auf schlüsselfertige Lösungen zurückgreifen, beispielsweise die Systeme der DGX-Reihe von Nvidia. Sie sind mit Grafikprozessoren ausgestattet, die für Deep-Learning-Training und Inferencing optimiert wurden. Das hat allerdings seinen Preis: Ein System DGX H100 mit 640 Gigabyte GPU-Speicher wird Unternehmenskunden für mehr als 400 000 Euro angeboten.
Das Machine Learning Development System von HPE, das unter anderem auch der deutsche KI-Spezialist Aleph Alpha nutzt, dürfte sich mindestens in derselben Kategorie bewegen. Intels Sparte Habana Labs wiederum hat mit Gaudi2 und Gaudi3 Alternativen zu den Prozessoren von Nvidia entwickelt. Entsprechende Systeme sind unter anderem von Supermicro erhältlich. Intels Hauptkonkurrent AMD kündigte Anfang 2023 an, KI-Funktionen in seine GPUs, CPUs, applikationsspezifischen Chips (ASICS) und FPGAs (Field-Programmable Gate Arrays) zu integrieren. Mit AMD Vitis AI Integrated Development Environment hat AMD ausserdem eine Inference-Entwicklungslösung für AMD-Hardware vorgestellt.

KI-Supercomputer – via Cloud

Doch Investitionen in hauseigene Server mit KI-Hardware wollen gut überlegt sein, selbst aus Sicht der Anbieter: „Die Einrichtung einer KI-Infrastruktur vor Ort kann komplex sein und erhebliche Investitionen in Hard- und Software sowie Personal erfordern“, gibt Markus ­Hacker von Nvidia zu bedenken. „Zudem kann es schwieriger sein, mit dem hohen Tempo der KI-Innovationen Schritt zu halten.“
Interessant ist die Lösung, die Nvidia parat hat: den DGX Cloud Service. Er ermöglicht es Entwicklern, über ein Web-Frontend auf einen „KI-Supercomputer in der Cloud“ zuzugreifen. Sie haben dadurch unter anderem die Möglichkeit, generative AI-Anwendungen zu erstellen, ähnlich wie ChatGPT. Zunächst steht der Service über die Oracle Cloud Infrastructure (OCI) zur Verfügung. Microsoft Azure soll noch 2023 folgen.
KI-Services „Made in Europe“
Für Unternehmen, die nicht auf die KI-Cloud-Services der großen Provider zurückgreifen möchten oder dürfen, gibt es Alternativen von europäischen Anbietern.
Für Unternehmen, die sich nicht an die US-amerikanischen Hyperscaler binden wollen oder können, seien KI-Lösungen deutscher oder europäischer Unternehmen eine Option, so Mark Neufurth, Lead Strategist beim Cloud-Serviceprovider Ionos: „In Europa gibt es Unternehmen wie Aleph Alpha, Deepl und AX Semantics, die KI mit ausgefeilten Lösungen bedienen.“ Nicht alle dieser Lösungen, aber die meisten, seien auch über die Cloud verfügbar.
Aleph Alpha aus Heidelberg hat beispielsweise mit Luminous ein Sprachmodell entwickelt, das ähnliche Funktionen bietet wie das von OpenAI (ChatGPT), etwa Fragen von Usern zu beantworten und Texte zu erstellen. Im Unterschied zu anderen Ansätzen macht Luminous transparent, woher es seine Informationen bezieht. Dies ist für Anwendungsbereiche mit hohen regulatorischen Hürden wichtig, etwa den Finanzsektor oder das Gesundheitswesen. Mittlerweile arbeitet Aleph Alpha mit dem IT-Dienstleister Adesso zusammen, und SAP hat sich eine Beteiligung an dem Unternehmen gesichert.
AX Semantics (Stuttgart) hat sich auf das KI-gestützte, automatisierte Erstellen und Analysieren von Texten fokussiert. Unterstützt werden über 110 Sprachen. Auch das Kölner Unternehmen Deepl konzentriert sich auf die maschinelle, KI-basierte Übersetzung von Texten. Deepl führt an, dass seine Übersetzungen um ein Mehrfaches präziser seien als die vergleichbaren Services von Google und Microsoft.
Zu den Providern mit KI-Services und mit Sitz in Europa zählen neben Ionos beispielsweise OVHcloud (Frankreich) und die Deutsche Telekom (Deutschland). „Außerdem baut Nextcloud ethische, vertrauenswürdige KI-Angebote in seine Lösungen ein“, so Neufurth. Mit Nextcloud könnten Unternehmen eine eigene Cloud-Umgebung einrichten, inklusive Collaboration-Funktionen. Version 26 der Software, die im April 2023 veröffentlicht wurde, unterstützt zudem ChatGPT.
6. Teil: „Fazit, Vergleich und Ausblick“

Fazit, Vergleich und Ausblick

Cloud-basierte KI- und Machine-Learning-Plattformen bieten vielen Unternehmen und Organisationen zweifellos einen einfacheren Einstieg in KI und Maschinelles Lernen als ein On-Premises-Ansatz. Für Taylor McCaslin von GitLab teilen sich die Unternehmen allerdings in zwei Gruppen: „Für schnelllebige, risikotolerante Unternehmen ist die Cloud eine gute Wahl, weil die meisten KI-Innovationen auf SaaS-Cloud-Plattformen stattfinden. Unternehmen in stark regulierten Branchen werden jedoch die Anforderungen an Datenschutz und Sicherheit mithilfe selbstverwalteter On-Premises-Instanzen erfüllen, obwohl das wegen der Komplexität von KI- und ML-Technologien in solchen Umgebungen anspruchsvoller ist.“
Speziell für Unternehmen in der EU werden die Aspekte Datenschutz und Compliance im Zusammenhang mit künstlicher Intelligenz zunehmend an Bedeutung gewinnen. Denn die Europäische Union wird voraussichtlich noch im Jahr 2023 mit dem EU AI Act ein Regelwerk für den Einsatz von KI vorlegen. Der Act dürfte auch die Nutzung von Cloud-Ressourcen tangieren – hoffentlich nicht in der Art, dass Daten künftig nur noch On-Premises mit KI-Anwendungen verarbeitet werden dürfen. Denn das würde die Wettbewerbsfähigkeit vieler Unternehmen spürbar einschränken.
Eine wichtigere Rolle wird voraussichtlich darüber hinaus der Punkt Vertrauenswürdigkeit von künstlicher Intelligenz spielen, so Stephan Schnieber, Sales Lead IBM Cloud Pak for Data in der DACH-Region. «Es muss beispielsweise laufend geprüft werden, ob die Daten, mit denen ein Modell trainiert wurde, noch Gültigkeit besitzen oder es revalidiert werden muss, damit es weiterhin vertrauenswürdig ist», erläutert der Experte.
Es sind nicht allein technische Faktoren, die über den Erfolg und die Akzeptanz von KI und Machine Learning entscheiden. Vielmehr muss das gesamte Paket stimmig sein, inklusive der Vertrauenswürdigkeit von KI und einer offenen Diskussion darüber, welche Folgen der Einsatz dieser Technologie für die Wirtschaft und Gesellschaft haben wird. Künstliche Intelligenz simpel als universalen Heilsbringer zu propagieren, wie das viele Anbieter entsprechender Lösungen tun, ist auf jeden Fall kein tragfähiger Ansatz.
Tabelle:


mehr zum Thema