31.10.2016
Künstliche Intelligenz
Googles AI entwickelt eigenständig Verschlüsselung
Autor: Stefan Bordel
Tatiana Shepeleva / Shutterstock.com
Wenn Technik sich selbst absichert: Forscher von Googles Deep-Learning-Projekt "Google Brain" haben ihre AI nun eigenständig neue Verschlüsselungsverfahren entwickeln lassen.
Verschlüsselungsverfahren bilden die Grundlage der meisten IT-Sicherheitskonzepte. Sie ermöglichen den sicheren Austausch von Daten im Netz und sorgen dafür, dass sensible Dokumente nicht in die falschen Hände gelangen.
Nun haben die Google-Forscher Martin Abadi und David G. Andersen des Deep-Learning-Projekts "Google Brain" eine neue Verschlüsselungsmethode entwickelt beziehungsweise entwickeln lassen. Die Forscher haben verschiedene neurale Netze damit beauftragt, eine abhörsichere Kommunikation aufzustellen.
Im Detail sah das Experiment vor, dass die neuralen Netze "Alice" und "Bob" sich gegenseitig geheime Nachrichten zusenden, während das dritte Netz "Eve" die versendeten Nachrichten abfangen sollte. Informationen zu kryptografischen Methoden haben die Forscher den neuralen Netzen dabei nicht auf den Weg gegeben. Alle entstandenen Verschlüsselungsverfahren sind damit gänzlich auf Basis von Googles AI entstanden.
Wie die Forscher in ihrem Paper festgehalten haben, war der Nachrichtenaustausch für Eve zunächst recht einfach zu überwachen. Nach 15.000 versendeten Nachrichten wendete sich allerdings das Blatt, als es Alice und Bob gelang, eine wirkungsvolle Verschlüsselung auf die Beine zu stellen. Fortan übertrugen die Netzwerke ihre Nachrichten nur noch verschlüsselt nach dem Ende-zu-Ende-Prinzip. Eve war dadurch nicht mehr in der Lage, die Kommunikation zu überwachen. Immerhin: Da es sich bei den Nachrichten um einen simplen Binärcode, bestehend aus Nullen und Einsen, handelte, konnte Eve wenigstens die Hälfte der Nachrichten auf gut Glück erraten.
Verschlüsselung taugt nicht für die Praxis
Praxis-tauglich ist die Verschlüsselung durch neurale Netze indessen nicht. So konnten die Forscher beispielsweise nicht nachvollziehen, welche genaue Methode von Alice und Bob verwendet wurde, da lediglich das Endresultat der Kommunikation vorlag. Entsprechend ist es auch nicht möglich, die Sicherheit der neuen Methode zu verifizieren.
Dennoch belegt das Experiment der Google-Forscher, dass neurale Netze auch für die Entwicklung von Sicherheitstechnologien einsetzbar sind. Da maschinelles Lernen aber ohnehin noch in den Kinderschuhen steckt, wird man in Zukunft bestimmt noch mehr von neural-gestützter Kryptographie hören. Der vollständige, 15-seitige Bericht der Forscher ist frei als PDF zugänglich.
Swisscom
Neue Cyberbedrohungen auf dem Radar
Der neue Cyber Security Threat Radar von Swisscom zeigt die Angriffsmethoden und das Vorgehen von Cyberkriminellen. Er beleuchtet neu auch die Entwicklungen in den Bereichen "Disinformation & Destabilisation", "Manipulated Generative AI" und "Unsecure IoT/OT-Devices".
>>
Zum Welt-Passwort-Tag
"95 % der Cyber-Sicherheitsprobleme sind auf menschliche Fehler zurückzuführen"
Am 2. Mai ist Welt-Passwort-Tag. Ein guter Anlass für den Frühlingsputz bei alten Logins und ein grundsätzliches Überdenken der eigenen Cybersecurity. Miro Mitrovic von Proofpoint gibt dazu einige konkrete Tipps.
>>
Studie
KI ist emotionaler als die meisten Menschen
Trotz der vielen nützlichen Möglichkeiten mindert laut einer Studie immer noch Misstrauen die Effektivität von Anwendungen der Künstlichen Intelligenz.
>>
Bad News
Game macht Fake News spielerisch erkennbar
Wissenschaftler der Universität Uppsala haben ihr Online-Spiel "Bad News" erfolgreich an 516 Schülern getestet. Es soll helfen, manipulative Techniken in Social-Media-Posts zu erkennen.
>>