22.03.2018
Künstliche Intelligenz
1. Teil: „Wie maschinelles Lernen die Cybersicherheit vorantreibt“
Wie maschinelles Lernen die Cybersicherheit vorantreibt
Autor: Gastautor
Zapp2Photo / Shutterstock,com
Durch den Einsatz von Künstlicher Intelligenz können Sicherheitslösungen flexibler auf Angriffe reagieren. Doch die Entwicklung solcher smarten Systemwächter ist nicht so simpel, wie es scheint.
Dieser Beitrag wurde verfasst von Itsik Mantin, Director of Security Research beim US-amerikanischen Security-Spezialisten Imperva.
Innerhalb der letzten fünf Jahre ist die Zahl der Technologien im Bereich der Künstlichen Intelligenz signifikant gestiegen. Die Fortschritte sind auf Weiterentwicklungen in der Rechenleistung und die Entwicklungen wie Distributed Computing, Big Data und Cloud-Computing zurückzuführen.
Neben den bereits erwähnten Anwendungsgebieten werden sowohl KI-Technologien und im Speziellen der Teilbereich des maschinelles Lernens auch immer mehr im Bereich der IT-Sicherheit genutzt. Dies erscheint sinnvoll in Anbetracht der Tatsache, dass auch die Angreifer sich diese Technologie zunutze machen. KI-getriebene Cyberangriffe sind in der Lage, zu lernen und sich weiterzuentwickeln. Beispielsweise nutzen Ransomware-Angriffe maschinelles Lernen, um intelligenter und noch zielgerichteter zu werden im Bezug darauf, welche Informationen eingefordert werden können und wieviel Lösegeld verlangt werden kann.
Auch zunehmend mehr Konzerne nutzen die Technologie für ihre Sicherheitslösungen – so kündigte Alphabet, die Muttergesellschaft von Google, im Januar dieses Jahres den Launch der neuen Sicherheitsfirma Chronicle an. Bei Chronicle wird das wichtigste Werkzeug das maschinelle Lernen sein – mit dessen Hilfe sollen massive Datensätze noch effektiver und schneller, und somit auch kostensparender durchsiebt werden. Zahlreiche Experten sind der Meinung, dass maschinelles Lernen die Informationssicherheit grundlegend revolutionieren wird. Laut dem Branchenverband Bikom gab zu Beginn letzten Jahres jedes fünfte Unternehmen (ganze 21%) innerhalb der Digitalwirtschaft an, dass KI das Topthema des vergangenen Jahres 2017 darstellen werde, ein Jahr zuvor lag hier die Zahl bei nur 9%. Doch wie genau hilft KI, und hier im Speziellen maschinelles Lernen, die Cybersicherheit von Unternehmen auf die nächste Stufe zu heben?
Algorithmen für maschinelles Lernen
Algorithmen für maschinelles Lernen werden in verschiedene Klassen unterteilt. Dazu zählen Algorithmen für überwachtes, unüberwachtes und bestärkendes Lernen.
Beim überwachten Lernen geben Menschen ein erhebliches Maß an Anleitung. So trainiert beispielsweise bei Klassifizierungsproblemen der Algorithmus das Modell mit einem gelabelten Datensatz, das heißt einer Sammlung von Stichprobenelementen (Samples), denen jeweils eine Klassenbezeichnung (Label) zugewiesen wird. Das Ergebnis dieses Trainingsprozesses ist ein Klassifikationsmodell, das die Klassen neuer Stichprobenelemente erkennen kann.
Beim unüberwachten Lernen klassifiziert der Mensch nichts. In diesem Fall ist das Spektrum von Problemen, die der Algorithmus lösen kann, wesentlich kleiner und beschränkt sich auf das Einteilen in Gruppen (Clustering), das Erkennen von Beziehungen zwischen Merkmalen der Daten (Dimensionsreduktion), das Abschätzen, wie nahe Daten beieinanderliegen (Dichtheitsschätzung), sowie das Auffinden von Daten, die ungewöhnlich erscheinen und in kein Muster passen (Ausreißererkennung).
Beim bestärkenden Lernen gibt der menschliche Benutzer Feedback zur Korrektheit der Klassifizierung, die der Algorithmus vornimmt.
In der Cybersicherheit können überwachte und unüberwachte Ansätze in ihren verschiedenen Varianten Bedrohungen erkennen und angemessen auf sie reagieren.
2. Teil: „Herausforderungen bei KI-Anwendungen in der Cybersicherheit
“
“
Herausforderungen bei KI-Anwendungen in der Cybersicherheit
Die Implementierung eines Bedrohungserkennungsmodells kann schwierig sein. Nehmen wir zum Beispiel an, ein Sicherheits-Experte entwickelt ein Tool zur Erkennung von Bedrohungen im Website-Verkehr, entweder nach dem überwachten Ansatz mit Klassifikatoren für gute und schlechte Daten oder nach dem unüberwachten Ansatz mit einem Normalitätsmodell für gute Daten. Nach Erstellung des Modells wird der Datenverkehr zur Website beobachtet, um festzustellen, wie die Benutzer auf die Seiten zugreifen, und dann wird mithilfe des Modells entschieden, ob ein Zugriff einen Angriff darstellt oder nicht.
Bei Websites, die für menschliche Benutzer gedacht sind, muss allerdings bedacht werden, dass Menschen in ihren Interaktionen mit der Site unberechenbar sein werden, wenngleich ein großer Prozentsatz des Traffics wahrscheinlich von Bots stammt. (Weitere Informationen zu Bots finden sich im Imperva Incapsula Bot Traffic Report 2016.)
Noch größer wird das Problem, wenn es um bösartigen Datenverkehr geht.
Das Modell mit Gegenspieler – woher stammen die Zufallselemente?
Und schließlich gehört zu den Herausforderungen auch das Modell des Lernens mit Gegenspieler (Adversarial Learning). Angemessen wäre hier eine geringe Wahrscheinlichkeit von False Positives und eine geringe Wahrscheinlichkeit von False Negatives. Einfach, oder? Nicht unbedingt.
Bei herkömmlichen Formen des maschinellen Lernens ist die Sache tatsächlich einfach. Die Zufälligkeit ergibt sich aus der Welt, die die erhaltenen Daten erzeugt und sich bei vernünftigen statistischen Annahmen so verhalten wird wie die Welt, die die Datenstichproben erzeugt hat, mit denen der Algorithmus trainiert wurde. Auf das Cybersicherheits-Beispiel übertragen, entspricht dies jedoch der natürlichen Verteilung von gut- und böswilligen Benutzern, die auf die Website zugreifen. Das mag sinnvoll sein, wenn der Angreifer ein Bot ist, der immer wieder den gleichen Angriff gegen die Website ausführt – gleich, ob der Angriff erfolgreich ist oder nicht. Ein echter menschlicher Angreifer wird jedoch wahrscheinlich versuchen, seinen Angriff an die Website und ihre jeweiligen Schutzmechanismen anzupassen.
Galaxy AI
Samsung bringt KI auf weitere Smartphones und Tablets
Einige weitere, ältere Smartphone- und Tablet-Modelle von Samsung können mit einem Systemupdate jetzt die KI-Funktionen von Galaxy AI nutzen.
>>
Glasfasernetz
GlobalConnect stellt B2C-Geschäft in Deutschland ein
Der Glasfaseranbieter GlobalConnect will sich in Deutschland künftig auf das B2B- und das Carrier-Geschäft konzentrieren und stoppt die Gewinnung von Privatkunden mit Internet- und Telefonanschlüssen.
>>
Codeerzeugung per KI
Code ist sich viel ähnlicher als erwartet
Eine Studie zeigt, dass einzelne Codezeilen zu 98,3 Prozent redundant sind, was darauf hindeutet, dass Programmiersprachen eine einfache Grammatik haben. Die Machbarkeit von KI-erzeugtem Code war also zu erwarten.
>>
WebGPU
Sicherheitslücke in Browser-Schnittstelle erlaubt Rechnerzugriff via Grafikkarte
Forschende der TU Graz waren über die Browser-Schnittstelle WebGPU mit drei verschiedenen Seitenkanal-Angriffen auf Grafikkarten erfolgreich. Die Angriffe gingen schnell genug, um bei normalem Surfverhalten zu gelingen.
>>