Künstliche Intelligenz
27.05.2019
Roman Yampolskiy in Zürich
1. Teil: „Superintelligenten Systemen fehlt der gesunde Menschenverstand“

Superintelligenten Systemen fehlt der gesunde Menschenverstand

Autor:
Künstliche IntelligenzKünstliche IntelligenzKünstliche Intelligenz
agsandrew / shutterstock.com
Künstliche Intelligenz wird die IT-Security umpflügen. Sowohl auf Hacker-Seite als auch seitens der Verteidiger. Aber das ist nur der Anfang: Wenn "Superintelligenz" ins Spiel kommt, werden die Karten nochmals neu gemischt.
Das Zeitalter der "Superintelligenz" steht kurz vor der Tür. So lautet die Kernaussage des Vortrags von Roman Yampolskiy, außerordentlicher Professor für Computerwissenschaften an der University of Louisville im US-Bundesstaat Kentucky, den er anlässlich der Veranstaltung "IT-Security Inside" des IT-Sicherheitsspezialisten Avantec in Zürich gehalten hat. Mit "Superintelligenz" ist jener Punkt gemeint, an dem die künstliche die menschliche Intelligenz überholt haben wird. "Ich spreche von Systemen, die in jeder Hinsicht einem Menschen überlegen sind", erklärt der Informatikwissenschaftler.
Die Zeit der Superintelligenz bricht zudem laut Yampolskiy nicht erst in einer fernen Zukunft an, sondern es könnte schon bald soweit sein. Zwar verzichtet er darauf, eine konkrete Jahreszahl zu nennen, zitiert aber eine Prognose des bekannten Futurologen und technischen Leiter bei Google, Raymond Kurzweil, der davon ausgeht, dass zwischen 2023 und 2045 der Punkt der technologischen Singularität erreicht sein könnte, wenn also die weitere technologische Entwicklung vom Menschen nicht mehr beeinflusst werden kann.
Eine steile These, die Yampolskiy hier präsentiert. Mehrere Gründe führt er auf, warum es durchaus im Rahmen des Möglichen liege, dass wir es in Kürze mit Superintelligenz zu tun haben werden. Milliarden würden zur Zeit in entsprechende Forschung gesteckt, und zwar sowohl diesseits als auch jenseits des Atlantik. Laut Yampolskiy sind derart hohe Forschungsgelder bislang lediglich in Feldern wie der Physik Gang und Gäbe, nicht aber in der Computerwissenschaft. Neben staatlichen Instituten würden auch die großen Player aus dem Silicon Valley wie etwa Google Milliarden in entsprechende Forschung fließen lassen. "Auch einiges an Humankapital ist hier involviert. Ein paar der gescheitesten Köpfe weltweit widmen sich entsprechender wissenschaftlicher Vorhaben" meint er.
Zudem würden schon heute Computer in vielen auch kognitiven Bereichen den Menschen alt aussehen lassen. Yampolskiy erinnert hier nur an die verschiedenen Herausforderungen, bei denen Maschinen den besten Experten und Könner geschlagen haben, angefangen von Schach über das Ratespiel Jeopardy bis hin zum Brettspiel Go. Darüber hinaus geben in vielen Lebensbereichen Computer- und Software-gestützte Systeme den Ton an, wie etwa im Aktienhandel oder bei der Steuerung des Flugverkehrs. "Und dabei handle es sich nicht einmal um intelligente, geschweige denn superintelligente Systeme, sondern vergleichsweise dumme Softwareprogramme", sagt er. "Selbst für diese Systeme sind wir nicht smart und fähig genug, um manuell wieder die Kontrolle zu übernehmen". Wenn es also der Technologie in so vielen Bereichen gelungen ist, menschliche Fähigkeiten zu toppen, warum sollte ein superintelligentes System nicht im Rahmen der Möglichkeiten stehen, argumentiert er.
2. Teil: „Ohne Common Sense“

Ohne Common Sense

  • Nach Meinung von Roman Yampolskiy werden superintelligente Machinen nicht über etwas wie gesunden Menschenverstand verfügen
    Quelle:
    Jens Stark/NMGZ
Yampolskiy zeigt während seines Vortrags auch Unzulänglichkeiten von Superintelligenz auf und spricht in diesem Zusammenhang vom "Paradox der Singularität". "Ein superintelligentes System mag zwar dem menschlichen Hirn in vielen Aufgaben und Herausforderungen überlegen sein, es fehlt ihm aber der sogenannte gesunde Menschenverstand", gibt er zu bedenken. "Was passiert also,wenn wir ein solch mächtiges System bauen, dem der Common Sense fehlt?", fragt sich Yampolskiy und wendet ein, dass wir es mit einigen Problemen und Fehlleistungen zu tun bekommen werden.
Diese Probleme zu erkennen und gegebenenfalls einzudämmen, sei denn auch Hauptschwerpunkt seiner Forschung, so Yampolskiy. "Dabei haben wir zunächst einmal eine Taxonomie entwickelt, um aufzeigen zu können, wo die Fehlentwicklungen auftreten können. Dazu gehören beispielsweise Softwarebugs oder Fehler im Software-Engineering", führt der Forscher aus und verweist auf eine weitere Fehlerquelle im Rahmen des Maschine Learnings. Diesen Systemen könne nämlich auch etwas Falsches beigebracht werden, mit verheerenden Folgen.
Besonderes Augenmerk legt Yampolskiy und sein Team von Wissenschaftler, in die Möglichkeit, dass die superintelligenten Systeme in falsche Hände geraten könnten. Es sei fast nicht zu verhindern, dass sich auch Cyberkriminelle dieser Rechner für ihre Machenschaften bemächtigten. Am meisten Angst hat Yampolskiy davor, dass auch KI künftig als Service angeboten werden wird, so wie es heute schon Software as a Service oder Infrastructure as a Service gibt. "Mit AI als Service kann faktisch jeder zum Übeltäter werden", meint er. "Was sie sich an Kriminalität und Vandalismus vorstellen können, ist dann möglich", so seine Befürchtung. "Ich möchte hier aber nicht zu sehr ins Detail gehen, um Sie nicht auf falsche Ideen zu bringen".

Deep Fakes als erste Anwendung

  • Katze oder Hund? Nur wenige veränderte Pixel können den Betrachter an der Nase herumführen.
    Quelle:
    Google Brain
Doch dann bringt Yampolskiy doch ein Beispiel, um zu illustrieren, was schon heute mit Künstlicher Intelligenz möglich ist, das Einiges an Missbrauchspotential hat. So lassen sich schon heute rein vom Computer generierte Fotos von menschlichen Gesichtern erstellen. Die aus dem Rechner stammenden Antlitze sehen so real aus, dass kaum noch jemand erkennen kann, dass es sich dabei um Fälschungen handelt. Solche Deep Fakes eröffnen laut Yampolskiy dem Identitätsbetrug Tür und Tor.
Daneben sei es heute möglich, Gesichtserkennungssysteme aufs Glatteis zu führen. Yampolskiy präsentierte zwei Bilder, die sich nur um wenige Pixel unterscheiden, aber eine Maschine dazu bringen könnten, das Geschlecht des Abgebildeten oder der Abgebildeten falsch zu interpretieren. Auch Menschen könnten mit geringen Veränderungen an der Foto getäuscht werden. Hier gibt es bereits Versuche und Forschungen, bei denen das Bild einer Katze geringfügig geändert wird, so dass es Vielen wie das Konterfei eines Hundes vorkommt.

mehr zum Thema