Künstliche Intelligenz
05.12.2019
Hintergrund
1. Teil: „KI-Systeme brauchen einen ethischen Rahmen“

KI-Systeme brauchen einen ethischen Rahmen

Mensch und MaschineMensch und MaschineMensch und Maschine
Shutterstock / Willyam Bradberry
Handeln Systeme mit künstlicher Intelligenz autonom, kann das gehörig schiefgehen. Um dem vorzubeugen, braucht es eine Maschinenethik. Diese soll Roboter mit einer Form der Befehlsverweigerung vertraut machen, die moralisch begründet ist.
In der aktuellen Diskussion um Künstliche Intelligenz (KI) ­gehen die Meinungen über ethische Grundsätze der Maschinen sowie eine entsprechende Definition dafür weit auseinander. Max Tegmark, Physikprofessor am MIT, schreibt dazu in seinem Buch "Leben 3.0": "Intelligenz ist die Fähigkeit, komplexe Ziele zu erreichen". Anwendungen der künstlichen Intelligenz bieten dementsprechend Werkzeuge, mit denen sich komplexe Ziele erreichen lassen.

KI als erweiterter Schraubenzieher

Aus der Definition resultiert zunächst: KI ist ein Werkzeug. So ähnlich wie ein Schraubenzieher. Wer als Ziel hat, eine Schraube zu entfernen, nimmt als Werkzeug einen Schraubendreher. Dieser eignet sich also für ein einzelnes, sehr spezielles Ziel. Wer ein komplexes Ziel hat, verwendet Anwendungen der Künstlichen Intelligenz.
Komplexe Ziele können etwa sein: Analysiere ein Röntgenbild. Formuliere zu einem Foto eine passende Bild­beschreibung in finnischer Sprache. Verabreiche einem Patienten das erforderliche Medikament. Vermiete meine Wohnung. Finde den passenden Bewerber für die offene Stelle. Handle mit meinen Aktien. Finde einen Lebenspartner für mich. Mach mich reich. Mach mich glücklich. Komplexe Ziele können aber auch sein: Finde den Menschen, von dem ich dir jetzt drei Fotos zeige, und bringe ihn um. Streue in den sozialen Netzwerken üble Verleumdungen zu allen Personen, die der Partei XYZ nahestehen. Töte alle meine Feinde.
Schraubenzieher und KI sind gleichermaßsen Werkzeuge. Ist ein Schraubendreher gut oder böse? Vielleicht gut, denn er kann ja Schrauben drehen, und das ist kreative Handwerksarbeit. Oder böse, wenn er als Waffe eingesetzt wird. Die Antwort lautet allerdings weder noch. Die Handlung, die jemand mit einem Werkzeug ausführt, kann gut oder böse sein, nicht jedoch das Werkzeug selbst.
Das führt zu folgender Erkenntnis: Weil KI auch nur ein Werkzeug ist, lässt sie sich sowohl für gute Zwecke  als auch für übelste Verbrechen einsetzen. Diese Erkenntnis mag trivial erscheinen. Sie ist es aber nicht. In der öffentlichen Diskussion werden dem Werkzeug KI oft genug auch moralische Eigenschaften zugeschrieben, die der KI einfach nicht zukommen. Da wird schon mal um das "Vertrauen in Künstliche Intelligenz" geworben. Appelle dieser Art sind ungefähr so sinnvoll wie: Habt Vertrauen in Schraubenzieher!
Hier muss sich der Mensch fragen: Darf ich dieses oder jenes tun oder lassen? Darf ich dieses oder jenes komplexe Ziel überhaupt verfolgen? Fragen dieser Art werden bereits seit Jahrtausenden in allen Weltkulturen intensiv und kontrovers diskutiert.
2. Teil: „Schraubendreher mit eigenem Willen “

Schraubendreher mit eigenem Willen

Es wurde behauptet: Ein Werkzeug kann an sich weder gut noch böse sein, sondern nur der Verwendungszweck. Trifft das auch auf KI wirklich zu? Wenn man Leuten zuhört, die mit KI arbeiten, trifft man immer wieder auf Erzählungen, in denen es um den Eigenwillen, und speziell den völlig unvorhergesehenen Eigenwillen von KI geht. Und es geht darum, dass die Entwickler selbst von diesem Phänomen überrascht wurden. Entwickler denken ja immer, sie würden der Maschine sagen, was sie tun soll. Wenn die Maschine das ausführt, was der Entwickler ihr gesagt hat, dann ist der Entwickler stolz. Aber nun macht die Maschine auf einmal etwas, was der Entwickler ihr gerade eben nicht gesagt hat. Was aber anscheinend doch irgendwie der Ziel­erreichung dient. Und jetzt ist der Entwickler erst einmal platt. Und dann wird ihm leicht mulmig. Anscheinend muss man das erlebt haben. Erst dann kann die Idee aufkommen, dass so etwas wie Maschinenethik vielleicht nützlich sein könnte. Auch ganz im eigenen Interesse. Hier zunächst Beispiele eigenwilliger Maschinen.

Entwickler müssen leider draußen bleiben

Jürgen Schmidhuber entwickelt am Schweizer Labor IDSIA lernende neuronale Netze. In einem Interview wurde er gefragt: "Was geschieht, wenn die Maschinen eines Tages merken, dass es rationaler wäre, nicht mehr von Menschen gesetzten Regeln, sondern ihren eigenen zu folgen?" Seine Antwort lautete: "Das ist schon längst passiert. Mein Kollege Mike Mozer baute in den 1990ern ein 'neuronales' Haus, das alle Geräte im Haus steuerte und lernte, Energie zu sparen, beispielsweise durch Rollläden statt Klimaanlage, wenn es zu heiß war. Wenn das Haus etwas tat, das Mike nicht behagte, konnte er es durch einen Knopf bestrafen. Das Haus fand ­einen Weg, dieser Bestrafung zu entgehen: Als er mal weg war, sperrte es ihn aus.". Das System sperrt seinen eigenen Schöpfer aus - aus Sicht der Maschine kann das vernünftig sein. Aber will man sich darauf einlassen?
Ein weiteres Beispiel: Max Tegmark schreibt in seinem Buch "Leben 3.0": "Stuart Russell erzählte mir, dass er und viele seiner Kollegen in der Forschung kürzlich [...] Zeugen [davon wurden], wie KI etwas tat, das sie in dieser Form erst sehr viel später erwartet hatten."
Als Beispiel dafür nennt er den Moment, als das KI-System AlphaGo von Google DeepMind im Jahr 2016 Lee Sedol, den weltbesten Go-Spieler, schlug. Interessant ist, wie dem System dieser Gewinn gelang. Entscheidend war ein bestimmter Zug, den alle Beteiligten als revolutionär ansahen. Tegmark erläutert, dass Züge auf der dritten Linie des Go-Spielbretts traditionell einen kurzfristigen taktischen Vorteil bieten und Züge auf der vierten Linie einen längerfristigen strategischen Vorteil. Er berichtet: "Im 37. Zug des zweiten Spiels schockierte AlphaGo die Go-Welt, indem er diese alte Weisheit ignorierte und auf der fünften Linie spielte, als sei er in seiner Fähigkeit, langfristig zu planen, sogar noch souveräner als ein Mensch. [...] Die Kommentatoren waren verblüfft, Lee Sedol stand sogar auf und verließ vorübergehend den Raum." Und dieser allseits unvorhergesehene Zug führte schließlich zum Sieg von AlphaGo gegen den Weltmeister im Go-Spiel.
Go ist nur ein Spiel: Wie die Maschine spielt, hat weiter keinen Einfluss auf das Weltgeschehen. Problematisch wird es dann, wenn man Maschinen nicht nur rechnen, sondern auch nach ihren eigenen Berechnungen handeln lässt.
3. Teil: „Weniger Bettler = weniger Armut “

Weniger Bettler = weniger Armut

Man könnte ein KI-System zum Beispiel fragen: "Wie können wir Armut bekämpfen?" Ein KI-System, das von keiner Maschinenethik gebändigt wird, könnte antworten: "Tötet alle Bettler!" Mathematisch ergibt das Sinn: Wenn man alle Bettler umbringt, gibt es keine mehr - Ziel erreicht. Ethisch ist der Vorschlag unvertretbar.
Aber wie kann man sicherstellen, dass eine autonom handelnde Maschine auch nur ethisch vertretbare Handlungen ausführt? Wie implementiert man Maschinenethik? Fragen wir doch einfach mal Unternehmen, die Roboter herstellen. Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart entwickelt den Serviceroboter Care-O-bot. Auf der Website zum Care-O-bot heißt es: "Forscher haben ein neues Modell eines universellen Helfers entwickelt: die vierte Generation des Care-O-bot. Sie kann als Basis für kommerzielle Serviceroboter-Lösungen dienen."
Wie implementiert dieser Care-O-bot ethisch korrektes Verhalten? Auf eine entsprechende Anfrage antwortet die promovierte Wissenschaftlerin Katrin Röhricht vom Fraunhofer-Institut: "Ethische Themen spielen bei uns natürlich immer mit in die Entwicklung der Roboter hinein, allerdings sind wir alles andere als Experten auf diesem Gebiet. Ak­tuelle Systeme, die [bei uns] entstehen, sind auch technisch nicht so weit, dass hier tatsächlich ethisches Verhalten implementierbar wäre." Zu ethischen Fragestellungen verweist Röhricht auf das EU-Projekt Reeler. Bei diesem Projekt werden ethische Aspekte des Roboter­einsatzes diskutiert. Es geht etwa darum, wie Arbeit­nehmer davon betroffen sind. Aber es geht nicht darum, Maschinenethik in Roboter zu implementieren.

Robot Operating System

Das Betriebssystem des Care-O-bot ist die Open-Source-Software Robot Operating System. Auf deren Website heißt es: "Robot Operating System (ROS) provides libraries and tools to help software developers create robot applications. It provides hardware abstraction, device drivers, libraries, visualizers, message-passing, package management, and more. ROS is licensed under an open source,­ BSD license." Eine frage zur Ethik im System in der Diskussionsgruppe blieb jedoch bis dato unbeantwortet.
Auch weitere Recherchen führen zu keinem Ergebnis. Eine konkrete Implementation von Maschinenethik ist einfach nicht aufzutreiben.
4. Teil: „Isaac Asimov im Europäischen Parlament “

Isaac Asimov im Europäischen Parlament

In der Politik ist man sich längst der Tatsache bewusst, dass hier staatliches Handeln erforderlich ist. Als Beispiel sei auf einen Entschluss des Europäischen Parlaments verwiesen, der "Zivilrechtliche Regelungen im Bereich Ro­botik" behandelt. Die Entschließung geht aus von der "Erwägung, dass die Menschheit mittlerweile an der Schwelle einer Ära steht, in der immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen Künstlicher Intelligenz anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird, und es daher für Gesetzgeber von entscheidender Bedeutung ist, sich mit den rechtlichen und ethischen Implikationen und Folgen dieser Entwicklung zu befassen, ohne Innovationen abzuwürgen."
Der Text ist nicht nur auf der Höhe der Zeit. Er ist aufgrund seines breiten Ansatzes auch äußerst interessant zu lesen. In der Einleitung bezieht sich der Entschluss unter Punkt T auf die Robotergesetze von Science-Fiction-Autor Isaac Asimov. Diese lauten:
  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Später hat Asimov seinen drei Robotergesetzen noch ein nulltes Gesetz vorangestellt: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
Vorschläge des Beschlusses des EU-Parlaments sind etwa:
  • Einführung eines EU-Registrierungssystems für fortschrittliche Roboter im Rahmen des EU-Binnenmarkts.
  • Grundsatz der Transparenz: Entscheide, die ein KI-System getroffen hat, sollen nachzuvollziehbar sein.
  • Ausstattung mit einer Blackbox, die alle Tätigkeiten des Roboters protokolliert, ähnlich wie in einem Flugzeug.
  • Die Errichtung einer Europäischen Agentur für Robotik und Künstliche Intelligenz.
  • Einführung eines Versicherungssystems für Roboter, möglicherweise verknüpft mit einem speziellen recht­lichen Status für Robotersysteme, über den sich eventuelle Haftungsfragen klären lassen.

Angeklagt: Roboter 08/15

Solche Haftungsfragen stehen im Mittelpunkt des Beschlusses: Denn wenn Maschinen selbstständig entscheiden und danach handeln, wer haftet dann für einen eventuellen Schaden? Bevor derartige Fragestellungen nicht abschließend geklärt sind, ist eine wirtschaftliche Nutzung von Robotern auf breiter Basis so gut wie ausgeschlossen. Im Hintergrund dieser Entschließung dürfte die Automobilindustrie kräftig mitgearbeitet haben. Denn in dieser Branche besteht momentan das größte Interesse daran, autonom agierende Maschinen auf die Menschheit loszulassen. Die Überlegungen in der Entschließung gehen beispielsweise so weit, sogar eine eigene Art von juristischer Person für autonome Roboter zu erfinden.
Dies wäre natürlich ein reines juristisches Konstrukt. Es würde gar nichts darüber außagen, ob der Roboter eine echte "Person" ist. Aber für juristische Zwecke wäre es praktisch. Man könnte dann beispielsweise alle juristischen Personen dieser Art dazu verpflichten, sich bei einer speziellen Behörde zu registrieren, sich speziell zu versichern und so weiter. Was die Tests auf korrekte Implementierung des Ethik­rahmens betrifft, kann man nahtlos an bestehende Regelungen anknüpfen. Die Maschinenrichtlinie der EU schreibt beispielsweise vor, dass man für jede Maschine, die jemand in der EU in Verkehr bringt, zunächst eine Risikobeurteilung erstellen muss. Anschließend soll die Maschine entsprechend den Erkenntnissen aus dieser Risikobeurteilung konstruiert und gebaut werden.
Übrigens beinhaltet die EU-Entscheidung ebenfalls einen "Ethischen Verhaltens­kodex für Robotikingenieure". Dieser enthält unter anderem den Satz: "Der Betrieb eines Robotiksystems sollte grundsätzlich auf eine umfassende Risikobeurteilung gestützt werden, die auf den Grundsätzen der Vorsorge und der Verhältnismässigkeit beruhen sollte." Und wie man solche Risikobeurteilungen vornimmt und die Umsetzung  empfohlener Schutzmaßnahmen im Rahmen von Akzeptanztests prüft, das gehört zum Repertoire jedes Maschinenbauingenieurs, sollte es jedenfalls.

Befehlsverweigerung als Roboterpflicht

Oliver Bendel, Professor am Institut für Wirtschaftsinformatik und Ethik an der Fachhochschule Nordwestschweiz schreibt in seinem Beitrag "Überlegungen zur Disziplin der Maschinenethik" unter anderem über Pflege­roboter. Bendel diskutiert hier das Problem, dass Pflege­roboter im Prinzip in der Lage sein könnten, einen Patienten zu töten, und betont: "Wer das für Science-Fiction hält, sollte sich unterschiedliche Typen von Pflegerobotern anschauen. Solche, die etwas transportieren, solche, die uns informieren, und solche, die Hand an uns legen. Manche sehen aus wie ein Mensch oder ein Tier, andere wie Kooperations- und Kollaborationsroboter aus der Industrie. Diese haben meist einen Arm, mehrere Achsen und zwei bis drei Finger. Man kann sie trainieren, indem man ihren Arm und ihre Finger bewegt oder ihnen einfach etwas vormacht, während sie mit ihren Sensoren und Systemen alles verfolgen und verarbeiten. Im Prinzip kann man ihnen beibringen, uns zu erwürgen [...]. Eine Aufgabe der Maschinenethik wäre es eben, den Roboter mit einer Form der Befehlsverweigerung vertraut zu machen, die moralisch begründet wäre."

mehr zum Thema