Künstliche Intelligenz
22.03.2018
Künstliche Intelligenz
1. Teil: „Wie maschinelles Lernen die Cybersicherheit vorantreibt“

Wie maschinelles Lernen die Cybersicherheit vorantreibt

Sicherheit mit KISicherheit mit KISicherheit mit KI
Zapp2Photo / Shutterstock,com
Durch den Einsatz von Künstlicher Intelligenz können Sicherheitslösungen flexibler auf Angriffe reagieren. Doch die Entwicklung solcher smarten Systemwächter ist nicht so simpel, wie es scheint.
Dieser Beitrag wurde verfasst von Itsik Mantin, Director of Security Research beim US-amerikanischen Security-Spezialisten Imperva.
Innerhalb der letzten fünf Jahre ist die Zahl der Technologien im Bereich der Künstlichen Intelligenz signifikant gestiegen. Die Fortschritte sind auf Weiterentwicklungen in der Rechenleistung und die Entwicklungen wie Distributed Computing, Big Data und Cloud-Computing zurückzuführen.
  • Itsik Mantin, Director of Security Research bei Imperva
Zu den klassischen, hinreichend bekannten Anwendungsbereichen von KI zählt beispielsweise die visuelle Objekterkennung, die von der automatischen Tagging-Funktion von Google Foto genutzt wird, damit Nutzer ihre Aufnahmen beispielsweise nach Bildern von Sonnenuntergängen durchsuchen können. Auch im Bereich der Spracherkennung und Sprachverarbeitung wird KI längst selbstverständlich eingesetzt, damit beispielsweise Siri und Alexa die Fragen und Befehle seiner Nutzer verstehen können.
Neben den bereits erwähnten Anwendungsgebieten werden sowohl KI-Technologien und im Speziellen der Teilbereich des maschinelles Lernens auch immer mehr im Bereich der IT-Sicherheit genutzt. Dies erscheint sinnvoll in Anbetracht der Tatsache, dass auch die Angreifer sich diese Technologie zunutze machen. KI-getriebene Cyberangriffe sind in der Lage, zu lernen und sich weiterzuentwickeln. Beispielsweise nutzen Ransomware-Angriffe maschinelles Lernen, um intelligenter und noch zielgerichteter zu werden im Bezug darauf, welche Informationen eingefordert werden können und wieviel Lösegeld verlangt werden kann.
Auch zunehmend mehr Konzerne nutzen die Technologie für ihre Sicherheitslösungen – so kündigte Alphabet, die Muttergesellschaft von Google, im Januar dieses Jahres den Launch der neuen Sicherheitsfirma Chronicle an. Bei Chronicle wird das wichtigste Werkzeug das maschinelle Lernen sein – mit dessen Hilfe sollen massive Datensätze noch effektiver und schneller, und somit auch kostensparender durchsiebt werden. Zahlreiche Experten sind der Meinung, dass maschinelles Lernen die Informationssicherheit grundlegend revolutionieren wird. Laut dem Branchenverband Bikom gab zu Beginn letzten Jahres jedes fünfte Unternehmen (ganze 21%) innerhalb der Digitalwirtschaft an, dass KI das Topthema des vergangenen Jahres 2017 darstellen werde, ein Jahr zuvor lag hier die Zahl bei nur 9%. Doch wie genau hilft KI, und hier im Speziellen maschinelles Lernen, die Cybersicherheit von Unternehmen auf die nächste Stufe zu heben?

Algorithmen für maschinelles Lernen

Algorithmen für maschinelles Lernen werden in verschiedene Klassen unterteilt. Dazu zählen Algorithmen für überwachtes, unüberwachtes und bestärkendes Lernen.
Beim überwachten Lernen geben Menschen ein erhebliches Maß an Anleitung. So trainiert beispielsweise bei Klassifizierungsproblemen der Algorithmus das Modell mit einem gelabelten Datensatz, das heißt einer Sammlung von Stichprobenelementen (Samples), denen jeweils eine Klassenbezeichnung (Label) zugewiesen wird. Das Ergebnis dieses Trainingsprozesses ist ein Klassifikationsmodell, das die Klassen neuer Stichprobenelemente erkennen kann.
Beim unüberwachten Lernen klassifiziert der Mensch nichts. In diesem Fall ist das Spektrum von Problemen, die der Algorithmus lösen kann, wesentlich kleiner und beschränkt sich auf das Einteilen in Gruppen (Clustering), das Erkennen von Beziehungen zwischen Merkmalen der Daten (Dimensionsreduktion), das Abschätzen, wie nahe Daten beieinanderliegen (Dichtheitsschätzung), sowie das Auffinden von Daten, die ungewöhnlich erscheinen und in kein Muster passen (Ausreißererkennung).
Beim bestärkenden Lernen gibt der menschliche Benutzer Feedback zur Korrektheit der Klassifizierung, die der Algorithmus vornimmt.
In der Cybersicherheit können überwachte und unüberwachte Ansätze in ihren verschiedenen Varianten Bedrohungen erkennen und angemessen auf sie reagieren.
2. Teil: „Herausforderungen bei KI-Anwendungen in der Cybersicherheit

Herausforderungen bei KI-Anwendungen in der Cybersicherheit

Die Implementierung eines Bedrohungserkennungsmodells kann schwierig sein. Nehmen wir zum Beispiel an, ein Sicherheits-Experte entwickelt ein Tool zur Erkennung von Bedrohungen im Website-Verkehr, entweder nach dem überwachten Ansatz mit Klassifikatoren für gute und schlechte Daten oder nach dem unüberwachten Ansatz mit einem Normalitätsmodell für gute Daten. Nach Erstellung des Modells wird der Datenverkehr zur Website beobachtet, um festzustellen, wie die Benutzer auf die Seiten zugreifen, und dann wird mithilfe des Modells entschieden, ob ein Zugriff einen Angriff darstellt oder nicht.
Bei Websites, die für menschliche Benutzer gedacht sind, muss allerdings bedacht werden, dass Menschen in ihren Interaktionen mit der Site unberechenbar sein werden, wenngleich ein großer Prozentsatz des Traffics wahrscheinlich von Bots stammt. (Weitere Informationen zu Bots finden sich im Imperva Incapsula Bot Traffic Report 2016.)
Noch größer wird das Problem, wenn es um bösartigen Datenverkehr geht.

Das Modell mit Gegenspieler – woher stammen die Zufallselemente?

Und schließlich gehört zu den Herausforderungen auch das Modell des Lernens mit Gegenspieler (Adversarial Learning). Angemessen wäre hier eine geringe Wahrscheinlichkeit von False Positives und eine geringe Wahrscheinlichkeit von False Negatives. Einfach, oder? Nicht unbedingt.
Bei herkömmlichen Formen des maschinellen Lernens ist die Sache tatsächlich einfach. Die Zufälligkeit ergibt sich aus der Welt, die die erhaltenen Daten erzeugt und sich bei vernünftigen statistischen Annahmen so verhalten wird wie die Welt, die die Datenstichproben erzeugt hat, mit denen der Algorithmus trainiert wurde. Auf das Cybersicherheits-Beispiel übertragen, entspricht dies jedoch der natürlichen Verteilung von gut- und böswilligen Benutzern, die auf die Website zugreifen. Das mag sinnvoll sein, wenn der Angreifer ein Bot ist, der immer wieder den gleichen Angriff gegen die Website ausführt – gleich, ob der Angriff erfolgreich ist oder nicht. Ein echter menschlicher Angreifer wird jedoch wahrscheinlich versuchen, seinen Angriff an die Website und ihre jeweiligen Schutzmechanismen anzupassen.

mehr zum Thema