Künstliche Intelligenz
29.01.2020
Ethik für Maschinen
1. Teil: „Befehl verweigert? Test bestanden!“

Befehl verweigert? Test bestanden!

Roboter und MenschRoboter und MenschRoboter und Mensch
Willyam Bradberry / shutterstock.com
Handeln Systeme mit Künstlicher Intelligenz autonom, kann das auch gehörig schiefgehen. Deshalb ist es wichtig, für die Maschinen einen bestimmten Ethikrahmen abzustecken.
Wie kann man die Entscheidungen eines autonom handelnden Roboters, der mit Künstlicher Intelligenz (KI) ausgestattet ist, so steuern, dass dessen Entscheidungen ethisch vertretbar sind?
Zunächst einmal sollte man definieren, was KI eigentlich genau ist. Künstliche Intelligenz lässt sich dabei mit einem Werkzeug vergleichen, ähnlich einem Schraubendreher. Wer als Ziel hat, eine Schraube zu entfernen, nimmt als Werkzeug einen Schraubendreher. Dieser eignet sich also für ein einzelnes, sehr spezielles Ziel. Wer ein komplexes Ziel hat, verwendet Anwendungen der Künstlichen Intelligenz, etwa zur Analysiere eines Röntgenbilds.
Komplexe Ziele können aber auch Folgendes sein: Finde den Menschen, von dem ich dir jetzt drei Fotos zeige, und bringe ihn um. Streue in den sozialen Netzwerken üble Verleumdungen zu allen Personen, die der Partei XYZ nahestehen. Töte alle meine Feinde.
An welcher Stelle kommt hier nun eine Maschinenethik ins Spiel? Schraubendreher und KI sind gleichermaßen Werkzeuge. Ist ein Schraubendreher gut oder böse? Vielleicht gut, denn er kann ja Schrauben drehen. Oder böse, denn jemand hat seinem Chef mit einem Schraubendreher auf den Kopf gehauen. Natürlich weder noch, weil ein Werkzeug an sich weder gut noch böse ist. Die Handlung, die jemand mit einem Werkzeug ausführt, kann gut oder böse sein, aber nicht das Werkzeug selbst. Das führt zu folgender Erkenntnis: Weil KI auch nur ein Werkzeug ist, lässt sie sich sowohl für gute Zwecke als auch für übelste Verbrechen einsetzen. Diese Erkenntnis mag trivial erscheinen, sie ist es aber nicht. In der öffentlichen Diskussion werden dem Werkzeug KI oft genug auch moralische Eigenschaften zugeschrieben, die der KI einfach nicht zukommen. Da wird schon mal darum geworben, man möge doch „Vertrauen in Künstliche Intelligenz“ haben. Appelle dieser Art sind ungefähr so sinnvoll wie: Habt Vertrauen in Schraubendreher.

Schraubendreher mit Willen

Ein Werkzeug kann an sich also weder gut noch böse sein, sondern nur der Verwendungszweck. Trifft das auch auf KI wirklich zu? Wenn man Leuten zuhört, die mit KI arbeiten, dann gibt es immer wieder Erzählungen, in denen es um den Eigenwillen, und speziell den völlig unvorhergesehenen Eigenwillen von KI geht.
Jürgen Schmidhuber etwa entwickelt am Schweizer Labor IDSIA lernende neuronale Netze. In einem Interview wurde er gefragt: „Was geschieht, wenn die Maschinen eines Tages merken, dass es rationaler wäre, nicht mehr von Menschen gesetzten Regeln, sondern ihren eigenen zu folgen?“ Seine Antwort lautete: „Das ist schon längst passiert. Mein Kollege Mike Mozer baute in den 1990ern ein ‚neuronales‘ Haus, das alle Geräte im Haus steuerte und lernte, Energie zu sparen, etwa durch Rollläden statt Klimaanlage, wenn es zu heiß war. Wenn das Haus etwas tat, das Mike nicht behagte, konnte er es durch einen Knopf bestrafen. Das Haus fand einen Weg, dieser Bestrafung zu entgehen: Als er mal weg war, sperrte es ihn aus.“ Das System sperrt seinen eigenen Schöpfer aus - aus Sicht der Maschine kann das vernünftig sein. Aber will man sich darauf einlassen?
Ein weiteres Beispiel: der Moment, in dem das KI-System AlphaGo von Google DeepMind 2016 Lee Sedol schlug, den weltbesten Go-Spieler. Interessant ist, wie dem System dieser Sieg gelang. Entscheidend war ein bestimmter Spielzug, den alle Beteiligten als revolutionär ansahen. Züge auf der dritten Linie des Go-Spielbretts bieten traditionell einen kurzfristigen taktischen Vorteil und Züge auf der vierten Linie einen längerfristigen strategischen Vorteil. Doch im 37. Zug des zweiten Spiels schockierte AlphaGo die Go-Welt, indem er diese alte Weisheit ignorierte und auf der fünften Linie spielte, als sei er in seiner Fähigkeit, langfristig zu planen, sogar noch souveräner als ein Mensch. Und dieser allseits unvorhergesehene Zug führte schließlich zum Sieg von AlphaGo gegen den Weltmeister im Go-Spiel.
Go ist nur ein Spiel: Wie die Maschine spielt, hat weiter keinen Einfluss auf das Weltgeschehen. Problematisch wird es dann, wenn man Maschinen nicht nur rechnen, sondern sie auch nach ihren eigenen Berechnungen handeln lässt.
2. Teil: „Weniger Bettler = weniger Armut“

Weniger Bettler = weniger Armut

  • Pflege-Roboter: Solche Maschinen sind zwar grundsätzlich praktisch, können aber durchaus auch eine Gefahr für den Menschen darstellen.
    Quelle:
    Fraunhofer IPA
Man könnte ein System der Künstlichen Intelligenz zum Beispiel fragen: „Wie können wir Armut bekämpfen?“ Ein KI-System, das von keiner Maschinenethik gebändigt wird, könnte antworten: „Tötet alle Bettler!“ Mathematisch ergibt das Sinn: Wenn man alle Bettler umbringt, gibt es keine mehr - Ziel erreicht. Ethisch ist der Vorschlag natürlich unvertretbar. Aber wie kann man sicherstellen, dass eine autonom handelnde Maschine auch nur ethisch vertretbare Handlungen ausführt? Wie implementiert man Maschinenethik?
Fragen wir einfach Unternehmen, die Roboter herstellen. Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart entwickelt den Serviceroboter Care-O-bot. Wie implementiert dieser Care-O-bot ethisch korrektes Verhalten? Auf eine entsprechende Anfrage antwortet die Wissenschaftlerin Katrin Röhricht vom Fraun­hofer-Institut: „Ethische Themen spielen bei uns natürlich immer mit in die Entwicklung der Roboter hinein, allerdings sind wir alles andere als Experten auf diesem Gebiet. Aktuelle Systeme, die hier entstehen, sind auch technisch nicht so weit, dass hier tatsächlich ethisches Verhalten implementierbar wäre.“ Beim Fraunhofer-Institut scheint man eher schon froh zu sein, wenn der Roboter nicht umfällt, wenn er eine Last transportiert. Zu ethischen Fragestellungen verweist Röhricht auf das EU-Projekt Reeler.
Bei diesem Projekt werden ethische Aspekte des Robotereinsatzes diskutiert. Es geht etwa darum, wie Arbeitnehmer davon betroffen sind. Aber es geht nicht darum, Maschinenethik in Roboter zu implementieren.
Man muss also noch näher an die Entwickler heranrücken. Das Betriebssystem des Care-O-bot ist die Open-Source-Software Robot Operating System. Auf deren Website heißt es: „Robot Operating System (ROS) provides libraries and tools to help software developers create robot applications. It provides hardware abstraction, device drivers, libraries, visualizers, message-passing, package management, and more. ROS is licensed under an open source, BSD license.“ Ist da­rin auch ein Modul für Maschinenethik enthalten? Eine entsprechende Anfrage in der Diskussionsgruppe war zwar gelesen worden, blieb aber bis Redaktionsschluss ohne Antwort.
Eine konkrete Implementation von Maschinenethik ist einfach nicht aufzutreiben. Das macht aber nichts. Im Gegenteil. Ich finde das ausgezeichnet. Denn es gibt mir die gute Gelegenheit, für die Implementierung von Maschinenethik einen eigenen Entwurf zu entwickeln und hier vorzustellen.

Das darfst du nicht

Gesagt, getan: Die Grafik auf Seite 101 zeigt im linken Bereich zunächst einen KI-Roboter ohne Maschinenethik. Das innere Feld deckt alles ab, was der Roboter kann. Um dieses innere Feld herum erstreckt sich die äußere Welt. Ohne implementierte Maschinenethik interagiert der Roboter direkt mit der äußeren Welt.
Zur Implementierung von Maschinenethik ziehe ich um das innere Feld einen Ethikrahmen, wie er in der Grafik auf der rechten Bildseite zu sehen ist. Wann immer der Roboter jetzt mit der äußeren Welt interagieren will, muss die beabsichtigte Aktion zunächst den Ethikrahmen passieren. Dieser prüft jede beabsichtigte Aktion daraufhin, ob sie okay ist oder nicht, und lässt diese Aktion daraufhin zu oder verhindert sie.
Nicht alle Funktionen des Systems müssen diesen Ethik­rahmen passieren. Davon ausgenommen sind etwa maschinennahe Funktionen, die sich nur innerhalb des Systems abspielen und die keine Auswirkungen auf die Außenwelt haben. Der Taktgeber des Hauptprozessors des Systems darf beispielsweise einen Takt geben, ohne dafür erst um Erlaubnis fragen zu müssen.
Aber es ist offensichtlich: Wenn jede Interaktion mit der Außenwelt erst den Ethikrahmen passieren muss, dann gibt es hier sehr viel zu tun. Jeder beabsichtigte Schritt, jede beabsichtigte Bewegung muss erst zugelassen werden. Gleichzeitig muss der Roboter den aktuellen Stand seiner Umwelt kontinuierlich beobachten und mit seinen beabsichtigten Handlungen abstimmen.
3. Teil: „Viele Systeme, ein Ethikrahmen“

Viele Systeme, ein Ethikrahmen

  • Künstliche Intelligenz mit Gewissen: So könnte die Implementierung einer Maschinenethik aussehen.
    Quelle:
    Redaktionsbüro Matthias Lohrer
Wenn man längere Zeit auf diesen simplen Entwurf blickt, dann fällt einem irgendwann Folgendes auf: Für das innere Feld, das für den jeweiligen Roboter steht, wird es x verschiedene Systeme von y verschiedenen Herstellern geben. Der Ethikrahmen kann und muss aber für alle Systeme identisch sein, jedenfalls in gewissen Grenzen. Beispielsweise in den Grenzen eines Staates. Wer kreiert diesen Ethikrahmen? Diesen zu entwickeln umfasst drei Schritte:
  • Inhalte definieren
  • Inhalte implementieren
  • Testen, ob die Inhalte des Ethikrahmens auch korrekt implementiert worden sind
Schritt 1: Hier vertrete ich einen pragmatischen Ansatz und sage: Den Inhalt des Ethikrahmens muss man nicht erst entwickeln, der existiert bereits. Die Gesamtheit aller geltenden Gesetze und Verordnungen bildet den Inhalt des Ethikrahmens für einen bestimmten Staat.
Schritt 2: Die eigentliche Implementierung können beliebige IT-Firmen für die Entwicklung und den Bau ihrer KI-Systeme übernehmen.
Schritt 3: Tests auf korrekte Implementierung werden die IT-Hersteller und sonstige Technologieanbieter vornehmen.

KI-Ethik im EU-Parlament

In der Politik ist man sich längst der Tatsache bewusst, dass hier staatliches Handeln erforderlich ist. Als Beispiel sei auf einen Beschluss des Europäischen Parlaments verwiesen, der „Zivilrechtliche Regelungen im Bereich Robotik“ behandelt. Der Beschluss geht aus von der „Erwägung, dass die Menschheit mittlerweile an der Schwelle einer Ära steht, in der immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen Künstlicher Intelligenz anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird, und es daher für Gesetzgeber von entscheidender Bedeutung ist, sich mit den rechtlichen und ethischen Implikationen und Folgen dieser Entwicklung zu befassen, ohne Innovationen abzuwürgen“.
Der Text ist nicht nur auf der Höhe der Zeit. Er ist aufgrund seines breiten Ansatzes auch äußerst interessant zu lesen. In der Einleitung bezieht sich der Entschluss unter Punkt T auf die Robotergesetze von Science-Fiction-Autor Isaac Asimov. Diese lauten:
  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Später hat Asimov seinen drei Robotergesetzen noch ein nulltes Gesetz vorangestellt:
Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt Vorschläge des Beschlusses des EU-Parlaments sind etwa:
  • Einführung eines EU-Registrierungssystems für fortschrittliche Roboter im Rahmen des EU-Binnenmarkts
  • Grundsatz der Transparenz: Entscheidungen, die ein KI-System getroffen hat, sollen nachvollziehbar sein
  • Ausstattung mit einer Blackbox, die alle Tätigkeiten des Roboters protokolliert, ähnlich wie in einem Flugzeug
  • Die Errichtung einer Europäischen Agentur für Robotik und Künstliche Intelligenz
  • Einführung eines Versicherungssystems für Roboter, möglicherweise verknüpft mit einem speziellen rechtlichen Status für Robotersysteme, über den sich eventuelle Haftungsfragen klären lassen.
4. Teil: „Angeklagt: Roboter 08/15“

Angeklagt: Roboter 08/15

  • Care-O-bot der Fraunhofer-Gesellschaft: Technisch noch nicht so weit, dass hier tatsächlich ethisches Verhalten implementierbar wäre.
    Quelle:
    Fraunhofer IPA
Haftungsfragen stehen im Mittelpunkt des Beschlusses. Denn wenn Maschinen selbstständig entscheiden und danach handeln, wer haftet dann für einen eventuellen Schaden? Bevor derartige Fragestellungen nicht abschließend geklärt sind, ist eine wirtschaftliche Nutzung von Robotern auf breiter Basis so gut wie ausgeschlossen. Im Hintergrund dieses Beschlusses dürfte die Automobilindustrie kräftig mitgearbeitet haben. Denn in dieser Branche besteht momentan das größte Interesse daran, autonom agierende Maschinen auf die Menschheit loszulassen. Die Überlegungen im Beschluss gehen beispielsweise so weit, sogar eine eigene Art von juristischer Person für autonome Roboter zu erfinden. Diese Art von juristischer Person wäre natürlich ein reines juristisches Konstrukt. Es würde gar nichts darüber aussagen, ob der Roboter eine echte „Person“ ist. Natürlich ist er es nicht, so wenig wie eine GmbH eine Person ist. Aber für juristische Zwecke wäre es praktisch. Man könnte dann beispielsweise alle juristischen Personen dieser Art dazu verpflichten, sich bei einer speziellen Behörde zu registrieren, sich besonders zu versichern und so weiter. 
Was die Tests auf korrekte Implementierung des Ethikrahmens betrifft, kann man nahtlos an bestehende Regelungen anknüpfen. Die Maschinenrichtlinie der EU schreibt beispielsweise vor, dass man für jede Maschine, die jemand in der EU in Verkehr bringt, zunächst eine Risikobeurteilung erstellen muss. Anschließend soll die Maschine entsprechend den Erkenntnissen aus dieser Risikobeurteilung konstruiert und gebaut werden.
Übrigens: In der Anlage zum erwähnten EU-Beschluss befindet sich ebenfalls ein „Ethischer Verhaltenskodex für Robotikingenieure“. Dieser enthält auch den folgenden Satz: „Der Betrieb eines Robotiksystems sollte grundsätzlich auf eine umfassende Risikobeurteilung gestützt werden, die auf den Grundsätzen der Vorsorge und der Verhältnismäßigkeit beruhen sollte.“ Und wie man solche Risikobeurteilungen vornimmt und die Umsetzung empfohlener Schutzmaßnahmen im Rahmen von Akzeptanztests prüft, das gehört zum Repertoire jedes Maschinenbauingenieurs - sollte es jedenfalls.
Kleines Maschinenethik-Glossar
Trolley Case: Der klassische Fall einer Dilemma-Situation. Dieses Gedankenexperiment gibt es in verschiedenen Varianten. Es wurde ursprünglich von der Philosophin Philippa Foot (1920–2010) erdacht.
Eine Variante hat diese Form: Angenommen, eine Straßenbahn (englisch: trolley) ist außer Kontrolle geraten und droht, fünf Leute zu überfahren. Ein unbeteiligter Mann steht neben der Bahn. Wenn man diesen Mann vor die Bahn schubsen würde, dann würde die Bahn gestoppt, der Mann wäre tot, aber die fünf Leute wären gerettet. Wäre das erlaubt?
Utilitarismus: Jeremy Bentham (1748–1832) und John Stuart Mill (1806–1873) gelten als geistige Väter des Utilitarismus. Bent­ham brachte die Grundidee auf den Punkt mit dem Slogan: „Das größte Glück der größten Zahl ist der Maßstab für richtig und falsch.“ Im genannten Trolley Case müssten Utilitaristen den Mann auf die Gleise schubsen, denn dann stirbt nur einer und fünf überleben.
Moralphilosophie nach Immanuel Kant: Gegenspieler zum Utilitarismus. Für Kant ist der gute Wille allein entscheidend, nicht die Folgen der Handlung. Kants kategorischer Imperativ sieht vor, dass die Grundsätze, nach denen jemand handelt, stets auch die Grundlagen einer Gesetzgebung sein könnten. Menschen dürfen niemals nur als Mittel zum Zweck verwendet werden. Nach Kant darf man den Mann nicht auf die Gleise schubsen, denn ein Mensch darf nicht als Mittel zum Zweck verwendet werden.
Tugendethik: Vielschichtige Strömung, die aus der Antike stammt. Im Zentrum steht die charakterliche Bildung der einzelnen Person und die Einbettung dieses Verhaltens in die jeweilige Gesellschaft. Die Tugendethik ist weniger gut geeignet für das Herausbilden allgemein gültiger Grundsätze. Sie hat keine klare Meinung zum Trolley Case.
Singularität: Spekulative Vorstellung einer „Intelligenzexplosion“. Diese soll sich ab dem Umschlagpunkt abspielen, ab dem Maschinen intelligenter als Menschen sind und in Eigenregie immer noch intelligentere Maschinen entwickeln könnten. In deren Folge könnte eine sogenannte Hyper-Intelligenz entstehen, die am Ende sogar die Weltherrschaft übernimmt.

mehr zum Thema