30.05.2023
IT-Sicherheitsrisiken
KI-Sprachmodelle - die 12 größten Probleme und Bedrohungen
Autor: dpa
Karl-Josef Hildenbrand/dpa/dpa-tmn
KI-Chatbots können begeistern, sogar nützlich sein und Aufgaben übernehmen. Die Technologie dahinter birgt aber auch großes Missbrauchspotenzial. Was kommt da auf Nutzerinnen und Nutzer zu?
KI-Chatbots erzeugen Text von erstaunlich hoher Qualität: Anschreiben, Zusammenfassungen, Aufsätze, Vergleiche, Geschichten in einem bestimmten Schreibstil - oder sogar funktionierenden Programmcode. Die Bots bearbeiten, prüfen, analysieren oder übersetzen aber auch beliebigen Text und Code. Das alles kann unterhaltsam bis nützlich sein. Gleichzeitig birgt der Einsatz dieser Technologie "neuartige IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen". Zu diesem Schluss kommt das Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Positionspapier.
Hinter jedem KI-Chatbot steht ein sogenanntes Sprachmodell. Große KI-Sprachmodelle, auch Large Language Models (LLMs) genannt, sind Computerprogramme, die in der Lage sind, natürliche Sprache in geschriebener Form automatisiert zu verarbeiten. Bekannte Modelle sind etwa GPT von OpenAI oder Palm von Google. Palm verwendet Google für seinen Chatbot Bard. Und GPT kommt bei ChatGPT oder dem Bing-Chat von Microsoft zum Einsatz.
Das BSI nennt folgende bekannte Bedrohungen, die KI-Sprachmodelle weiter verstärken können:
- Das Erstellen oder Verbessern von Schadsoftware.
- Das Erzeugen von Spam- und Phishing-Mails unter Ausnutzung menschlicher Eigenschaften wie Hilfsbereitschaft, Vertrauen oder Angst (Social Engineering).
- Dabei können Sprachmodelle den Schreibstil der Texte in den Mails so anpassen, dass er dem einer bestimmten Organisation oder Person ähnelt.
- Die bei Spam- und Phishing-Mails bislang häufig anzutreffenden Rechtschreib- oder Grammatikfehler, die helfen können, solche Nachrichten zu erkennen, finden sich in den automatisch generierten Texten mittlerweile kaum mehr.
- Nicht nur zahlenmäßig dürften sich E-Mail-Angriffe mithilfe von KI-Sprachmodellen mit verhältnismäßig geringem Aufwand steigern. Die Nachrichten lassen sich vermittels der Modelle auch noch überzeugender gestalten.
Und das sind ganz neue Probleme und Bedrohungen durch KI-Sprachmodelle, die das BSI identifiziert hat:
- Ein großes Risiko ist, dass Angreifer Eingaben von Nutzerinnen oder Nutzern heimlich in ein Sprachmodell umleiten, um den Chat zu manipulieren und Daten oder Informationen abzugreifen.
- Ohnehin besteht immer die Gefahr, dass eingegebene Daten nicht unbesehen bleiben, sondern vom Chatbot-Betreiber analysiert oder an unbekannte Dritte weitergegeben werden.
- Es ist möglich, dass Sprachmodelle zur Produktion von Fake News, Propaganda oder Hassnachrichten missbraucht werden, um die öffentliche Meinung zu beeinflussen.
- Die Fähigkeit zur Schreibstil-Imitation birgt hier eine besondere Gefahr: Falschinformationen könnten mit einem an bestimmte Personen oder Organisationen angepassten Stil verbreitet werden.
- Denkbar sind den Angaben zufolge auch maschinell erstellte Bewertungen, die dazu eingesetzt werden können, Dienstleistungen oder Produkte zu bewerben oder auch zu diskreditieren.
- Fragwürdige Inhalte wie Desinformation, Propaganda oder Hassrede in der Trainingsmenge des Sprachmodells können in sprachlich ähnlicher Weise in den KI-generierten Text einfließen.
- Es ist nie sicher, dass KI-generierte Inhalte aktuell oder faktisch korrekt sind. Denn ein Sprachmodell kann Informationen nur aus den bereits "gesehenen" Texten ableiten. Alle darüber hinausgehenden Einordnungen, die Menschen aus der realen Welt bekannt sind, können Modelle nicht vornehmen. Deshalb kann es sogar zum Erfinden von Inhalten kommen, das sogenannte Halluzinieren.
Fazit
Nutzerinnen und Nutzer sollten kritisch bleiben. Durch sprachlich oft fehlerfrei generierten Text entstehe bei der Nutzung von KI-Sprachmodellen häufig der Eindruck eines menschenähnlichen Leistungsvermögens - und damit ein zu großes Vertrauen in KI-generierte Inhalte, obwohl diese unangemessen, faktisch falsch oder manipuliert sein können.
Künstliche Intelligenz
Memary - Langzeitgedächtnis für autonome Agenten
Das Hauptziel ist es, autonomen Agenten die Möglichkeit zu geben, ihr Wissen über einen längeren Zeitraum hinweg zu speichern und abzurufen.
>>
Cloud Infrastructure
Oracle mit neuen KI-Funktionen für Sales, Marketing und Kundenservice
Neue KI-Funktionen in Oracle Cloud CX sollen Marketingspezialisten, Verkäufern und Servicemitarbeitern helfen, die Kundenzufriedenheit zu verbessern, die Produktivität zu steigern und die Geschäftszyklen zu beschleunigen.
>>
Reactive mit Signals
Neuer Vorschlag für Signals in JavaScript
Das für die Standardisierung von JavaScript verantwortliche Komitee macht einen Vorschlag für die Einführung von Signalen in die Programmiersprache. Signals sollen reaktives Programmieren in JavaScript einfacher machen.
>>
Datenverfügbarkeit
Where EDGE Computing meets 5G
Logistik- und Produktionsprozesse sollen flüssig und fehlerfrei laufen. Maschinen und Personal müssen im Takt funktionieren. Zulieferer haben just-in-time anzuliefern. Dies stellt hohe Anforderungen an die lokale Datenübertragung. Welche Technik bietet sich dazu an?
>>