Sicherheit
23.08.2018
Eset-Studie
1. Teil: „Unternehmen wiegen sich durch KI zu sehr in Sicherheit“

Unternehmen wiegen sich durch KI zu sehr in Sicherheit

Autor:
KI mit Binärcode im HintergrundKI mit Binärcode im HintergrundKI mit Binärcode im Hintergrund
carlos castilla / shutterstock.com
Der IT-Security-Spezialist Eset warnt vor zu viel Vertrauen in die Künstliche Intelligenz bei der Bekämpfung von Cyberkriminellen. IT-Verantwortliche könnten sich schnell in falscher Sicherheit wiegen.
In letzter Zeit ist viel über die Rolle von Künstlicher Intelligenz (KI) in der Cybersicherheit berichtet worden. Der europäische Sicherheitsexperte Eset ist an der Einstellung der Unternehmen zum Thema interessiert und hat deshalb 900 IT-Entscheider in den USA, Großbritannien und Deutschland zu KI und ML (Maschine Learning) befragt.

Allheilmittel KI?

  • Juraj Malcho: CTO bei Eset
    Quelle:
    pd
Die Ergebnisse zeigen, dass die IT-Entscheidungsträger in den USA die Technologien im Ländervergleich am ehesten als Allheilmittel der Cybersicherheit sehen (82 Prozent). Etwas anders die europäischen Kollegen: In Großbritannien sehen dies nur 67 Prozent so, in Deutschland sind es 66 Prozent. Die Mehrheit der Befragten ist der Meinung, dass KI und ML ihrer Organisation helfen würden, Bedrohungen schneller zu erkennen und darauf zu reagieren (79 Prozent) und Kompetenzlücken aufgrund von Fachkräftemangel zu beheben (77 Prozent).
Für Juraj Malcho, Chief Technology Officer bei Eset, ist die Einstellung der IT-Verantwortlichen aber zu blauäugig. "Es ist beunruhigend zu sehen, dass der Hype um KI und ML so viele IT-Entscheider – vor allem in den USA – dazu veranlasst, die Technologien als das Allheilmittel für Cybersicherheits-Herausforderungen zu betrachten", gibt er zu bedenken. Für viele Dinge gebe es aber keine einfache Lösung. Das gelte besonders für den Cyberspace, wo sich die Bedingungen binnen weniger Minuten verändern könnten. "In der heutigen Geschäftswelt wäre es unklug, sich nur auf eine Technologie zu verlassen, um eine widerstandsfähige Cyberabwehr aufzubauen", meint Malcho deshalb. "Vielmehr ist es wichtig, dass IT-Entscheidungsträger erkennen, dass ML zweifellos ein wichtiges Instrument im Kampf gegen Cyberkriminalität ist, aber eben nur ein Teil der gesamten Cyber-Sicherheitsstrategie eines Unternehmens sein sollte", warnt der Eset-CTO.
2. Teil: „Kenne den Unterschied zwischen KI und ML“

Kenne den Unterschied zwischen KI und ML

Die vielerorts synonyme Verwendung von ML und KI führt zu Verwirrung. Dies bestätigt auch die Eset-Studie: Nur 53 Prozent der IT-Entscheider sagen, dass in ihrem Unternehmen die Unterschiede zwischen beiden vollständig verstanden würden.
Für Eset-CTO Malcho ist diese fehlende Differenzierung schlecht für die IT-Security in Unternehmen. "Wahr ist, dass es in der Cybersicherheit wie überall sonst noch keine echte, vollständige KI gibt. Der Hype um die Neuheit von ML ist zudem komplett irreführend, denn die Technologie an sich wird schon lange eingesetzt", erklärt er.
Fakt ist: ML ist laut Malcho von unschätzbarem Wert für die Wahrung von Cybersicherheit, insbesondere beim Erkennen von Malware. Als Schutzlösung funktioniert es so: Sie basiert auf großen Datenmengen und Erfahrungen aus der Vergangenheit, bestehend sowohl aus als gutartig gekennzeichneten als auch bösartigen Materialsammlungen. Das ist die Grundlage, auf der ML zwischen "gut" und "schlecht" unterscheidet. So kann es potenzielle Bedrohungen für Benutzer schnell analysieren, identifizieren und Malware abwehren.

ML hat Grenzen

Für Unternehmen sei es jedoch wichtig, die Grenzen von ML zu verstehen. Zum Beispiel müsse auch bei ML immer noch ein Mensch die Erstklassifizierung durchführen, um potenziell bösartige Proben zu untersuchen und vor allem die Anzahl der Fehlalarme zu reduzieren. Denn ML-Algorithmen haben laut Eset  einen engen Fokus und arbeiten mit Regelwerken. Hacker lernen aber weiter – ein kreativer Cyberkrimineller kann Szenarien einführen, die für ein ML-System komplett neu sind und können es somit überlisten. Algorithmen des maschinellen Lernens können auf vielfältige Weise irregeführt werden und Hacker können dies ausnutzen, indem sie bösartigen Code erstellen, den ML dann fälschlicherweise als gutartiges Objekt klassifiziert.

"Seit 1995 setzen wir maschinelles Lernen als Teil unseres Arsenals  gegen Cyberkriminelle ein. Aber das allein reicht nicht aus. Indem Unternehmen sich über die Grenzen von ML informieren, können sie einen strategischeren Ansatz für den Aufbau einer robusten Verteidigung wählen. Mehrschichtige Lösungen, kombiniert mit talentierten und qualifizierten Mitarbeitern, werden der einzige Weg sein, den Hackern immer einen Schritt voraus zu sein, wenn sich die Bedrohungslandschaft weiterentwickelt", lautet daher die Schlussfolgerung von Malcho.

mehr zum Thema