27.05.2019
Roman Yampolskiy in Zürich
1. Teil: „Superintelligenten Systemen fehlt der gesunde Menschenverstand“
Superintelligenten Systemen fehlt der gesunde Menschenverstand
Autor: Jens Stark
agsandrew / shutterstock.com
Künstliche Intelligenz wird die IT-Security umpflügen. Sowohl auf Hacker-Seite als auch seitens der Verteidiger. Aber das ist nur der Anfang: Wenn "Superintelligenz" ins Spiel kommt, werden die Karten nochmals neu gemischt.
Das Zeitalter der "Superintelligenz" steht kurz vor der Tür. So lautet die Kernaussage des Vortrags von Roman Yampolskiy, außerordentlicher Professor für Computerwissenschaften an der University of Louisville im US-Bundesstaat Kentucky, den er anlässlich der Veranstaltung "IT-Security Inside" des IT-Sicherheitsspezialisten Avantec in Zürich gehalten hat. Mit "Superintelligenz" ist jener Punkt gemeint, an dem die künstliche die menschliche Intelligenz überholt haben wird. "Ich spreche von Systemen, die in jeder Hinsicht einem Menschen überlegen sind", erklärt der Informatikwissenschaftler.
Die Zeit der Superintelligenz bricht zudem laut Yampolskiy nicht erst in einer fernen Zukunft an, sondern es könnte schon bald soweit sein. Zwar verzichtet er darauf, eine konkrete Jahreszahl zu nennen, zitiert aber eine Prognose des bekannten Futurologen und technischen Leiter bei Google, Raymond Kurzweil, der davon ausgeht, dass zwischen 2023 und 2045 der Punkt der technologischen Singularität erreicht sein könnte, wenn also die weitere technologische Entwicklung vom Menschen nicht mehr beeinflusst werden kann.
Eine steile These, die Yampolskiy hier präsentiert. Mehrere Gründe führt er auf, warum es durchaus im Rahmen des Möglichen liege, dass wir es in Kürze mit Superintelligenz zu tun haben werden. Milliarden würden zur Zeit in entsprechende Forschung gesteckt, und zwar sowohl diesseits als auch jenseits des Atlantik. Laut Yampolskiy sind derart hohe Forschungsgelder bislang lediglich in Feldern wie der Physik Gang und Gäbe, nicht aber in der Computerwissenschaft. Neben staatlichen Instituten würden auch die großen Player aus dem Silicon Valley wie etwa Google Milliarden in entsprechende Forschung fließen lassen. "Auch einiges an Humankapital ist hier involviert. Ein paar der gescheitesten Köpfe weltweit widmen sich entsprechender wissenschaftlicher Vorhaben" meint er.
Zudem würden schon heute Computer in vielen auch kognitiven Bereichen den Menschen alt aussehen lassen. Yampolskiy erinnert hier nur an die verschiedenen Herausforderungen, bei denen Maschinen den besten Experten und Könner geschlagen haben, angefangen von Schach über das Ratespiel Jeopardy bis hin zum Brettspiel Go. Darüber hinaus geben in vielen Lebensbereichen Computer- und Software-gestützte Systeme den Ton an, wie etwa im Aktienhandel oder bei der Steuerung des Flugverkehrs. "Und dabei handle es sich nicht einmal um intelligente, geschweige denn superintelligente Systeme, sondern vergleichsweise dumme Softwareprogramme", sagt er. "Selbst für diese Systeme sind wir nicht smart und fähig genug, um manuell wieder die Kontrolle zu übernehmen". Wenn es also der Technologie in so vielen Bereichen gelungen ist, menschliche Fähigkeiten zu toppen, warum sollte ein superintelligentes System nicht im Rahmen der Möglichkeiten stehen, argumentiert er.
2. Teil: „Ohne Common Sense“
Ohne Common Sense
Diese Probleme zu erkennen und gegebenenfalls einzudämmen, sei denn auch Hauptschwerpunkt seiner Forschung, so Yampolskiy. "Dabei haben wir zunächst einmal eine Taxonomie entwickelt, um aufzeigen zu können, wo die Fehlentwicklungen auftreten können. Dazu gehören beispielsweise Softwarebugs oder Fehler im Software-Engineering", führt der Forscher aus und verweist auf eine weitere Fehlerquelle im Rahmen des Maschine Learnings. Diesen Systemen könne nämlich auch etwas Falsches beigebracht werden, mit verheerenden Folgen.
Besonderes Augenmerk legt Yampolskiy und sein Team von Wissenschaftler, in die Möglichkeit, dass die superintelligenten Systeme in falsche Hände geraten könnten. Es sei fast nicht zu verhindern, dass sich auch Cyberkriminelle dieser Rechner für ihre Machenschaften bemächtigten. Am meisten Angst hat Yampolskiy davor, dass auch KI künftig als Service angeboten werden wird, so wie es heute schon Software as a Service oder Infrastructure as a Service gibt. "Mit AI als Service kann faktisch jeder zum Übeltäter werden", meint er. "Was sie sich an Kriminalität und Vandalismus vorstellen können, ist dann möglich", so seine Befürchtung. "Ich möchte hier aber nicht zu sehr ins Detail gehen, um Sie nicht auf falsche Ideen zu bringen".
Deep Fakes als erste Anwendung
Daneben sei es heute möglich, Gesichtserkennungssysteme aufs Glatteis zu führen. Yampolskiy präsentierte zwei Bilder, die sich nur um wenige Pixel unterscheiden, aber eine Maschine dazu bringen könnten, das Geschlecht des Abgebildeten oder der Abgebildeten falsch zu interpretieren. Auch Menschen könnten mit geringen Veränderungen an der Foto getäuscht werden. Hier gibt es bereits Versuche und Forschungen, bei denen das Bild einer Katze geringfügig geändert wird, so dass es Vielen wie das Konterfei eines Hundes vorkommt.
Studie
Firmen wissen mit Blockchain nichts anzufangen
Nicht einmal ein Prozent der Unternehmen im DACH-Raum sieht Möglichkeiten zur praktischen Anwendung der Blockchain-Technologie, wie eine Studie zeigt.
>>
Codeerzeugung per KI
Code ist sich viel ähnlicher als erwartet
Eine Studie zeigt, dass einzelne Codezeilen zu 98,3 Prozent redundant sind, was darauf hindeutet, dass Programmiersprachen eine einfache Grammatik haben. Die Machbarkeit von KI-erzeugtem Code war also zu erwarten.
>>
JavaScript Framework
Hono werkelt im Hintergrund
Das JavaScript-Framework Hono ist klein und schnell. Ein weiterer Vorteil ist, dass Hono auf vielen Laufzeitumgebungen zum Einsatz kommen kann.
>>
WebGPU
Sicherheitslücke in Browser-Schnittstelle erlaubt Rechnerzugriff via Grafikkarte
Forschende der TU Graz waren über die Browser-Schnittstelle WebGPU mit drei verschiedenen Seitenkanal-Angriffen auf Grafikkarten erfolgreich. Die Angriffe gingen schnell genug, um bei normalem Surfverhalten zu gelingen.
>>