29.01.2020
Ethik für Maschinen
1. Teil: „Befehl verweigert? Test bestanden!“
Befehl verweigert? Test bestanden!
Autor: Matthias Lohrer
Willyam Bradberry / shutterstock.com
Handeln Systeme mit Künstlicher Intelligenz autonom, kann das auch gehörig schiefgehen. Deshalb ist es wichtig, für die Maschinen einen bestimmten Ethikrahmen abzustecken.
Wie kann man die Entscheidungen eines autonom handelnden Roboters, der mit Künstlicher Intelligenz (KI) ausgestattet ist, so steuern, dass dessen Entscheidungen ethisch vertretbar sind?
Zunächst einmal sollte man definieren, was KI eigentlich genau ist. Künstliche Intelligenz lässt sich dabei mit einem Werkzeug vergleichen, ähnlich einem Schraubendreher. Wer als Ziel hat, eine Schraube zu entfernen, nimmt als Werkzeug einen Schraubendreher. Dieser eignet sich also für ein einzelnes, sehr spezielles Ziel. Wer ein komplexes Ziel hat, verwendet Anwendungen der Künstlichen Intelligenz, etwa zur Analysiere eines Röntgenbilds.
Komplexe Ziele können aber auch Folgendes sein: Finde den Menschen, von dem ich dir jetzt drei Fotos zeige, und bringe ihn um. Streue in den sozialen Netzwerken üble Verleumdungen zu allen Personen, die der Partei XYZ nahestehen. Töte alle meine Feinde.
An welcher Stelle kommt hier nun eine Maschinenethik ins Spiel? Schraubendreher und KI sind gleichermaßen Werkzeuge. Ist ein Schraubendreher gut oder böse? Vielleicht gut, denn er kann ja Schrauben drehen. Oder böse, denn jemand hat seinem Chef mit einem Schraubendreher auf den Kopf gehauen. Natürlich weder noch, weil ein Werkzeug an sich weder gut noch böse ist. Die Handlung, die jemand mit einem Werkzeug ausführt, kann gut oder böse sein, aber nicht das Werkzeug selbst. Das führt zu folgender Erkenntnis: Weil KI auch nur ein Werkzeug ist, lässt sie sich sowohl für gute Zwecke als auch für übelste Verbrechen einsetzen. Diese Erkenntnis mag trivial erscheinen, sie ist es aber nicht. In der öffentlichen Diskussion werden dem Werkzeug KI oft genug auch moralische Eigenschaften zugeschrieben, die der KI einfach nicht zukommen. Da wird schon mal darum geworben, man möge doch „Vertrauen in Künstliche Intelligenz“ haben. Appelle dieser Art sind ungefähr so sinnvoll wie: Habt Vertrauen in Schraubendreher.
Schraubendreher mit Willen
Ein Werkzeug kann an sich also weder gut noch böse sein, sondern nur der Verwendungszweck. Trifft das auch auf KI wirklich zu? Wenn man Leuten zuhört, die mit KI arbeiten, dann gibt es immer wieder Erzählungen, in denen es um den Eigenwillen, und speziell den völlig unvorhergesehenen Eigenwillen von KI geht.
Jürgen Schmidhuber etwa entwickelt am Schweizer Labor IDSIA lernende neuronale Netze. In einem Interview wurde er gefragt: „Was geschieht, wenn die Maschinen eines Tages merken, dass es rationaler wäre, nicht mehr von Menschen gesetzten Regeln, sondern ihren eigenen zu folgen?“ Seine Antwort lautete: „Das ist schon längst passiert. Mein Kollege Mike Mozer baute in den 1990ern ein ‚neuronales‘ Haus, das alle Geräte im Haus steuerte und lernte, Energie zu sparen, etwa durch Rollläden statt Klimaanlage, wenn es zu heiß war. Wenn das Haus etwas tat, das Mike nicht behagte, konnte er es durch einen Knopf bestrafen. Das Haus fand einen Weg, dieser Bestrafung zu entgehen: Als er mal weg war, sperrte es ihn aus.“ Das System sperrt seinen eigenen Schöpfer aus - aus Sicht der Maschine kann das vernünftig sein. Aber will man sich darauf einlassen?
Ein weiteres Beispiel: der Moment, in dem das KI-System AlphaGo von Google DeepMind 2016 Lee Sedol schlug, den weltbesten Go-Spieler. Interessant ist, wie dem System dieser Sieg gelang. Entscheidend war ein bestimmter Spielzug, den alle Beteiligten als revolutionär ansahen. Züge auf der dritten Linie des Go-Spielbretts bieten traditionell einen kurzfristigen taktischen Vorteil und Züge auf der vierten Linie einen längerfristigen strategischen Vorteil. Doch im 37. Zug des zweiten Spiels schockierte AlphaGo die Go-Welt, indem er diese alte Weisheit ignorierte und auf der fünften Linie spielte, als sei er in seiner Fähigkeit, langfristig zu planen, sogar noch souveräner als ein Mensch. Und dieser allseits unvorhergesehene Zug führte schließlich zum Sieg von AlphaGo gegen den Weltmeister im Go-Spiel.
Go ist nur ein Spiel: Wie die Maschine spielt, hat weiter keinen Einfluss auf das Weltgeschehen. Problematisch wird es dann, wenn man Maschinen nicht nur rechnen, sondern sie auch nach ihren eigenen Berechnungen handeln lässt.
2. Teil: „Weniger Bettler = weniger Armut“
Weniger Bettler = weniger Armut
Künstlichen Intelligenz zum Beispiel fragen: „Wie können wir Armut bekämpfen?“ Ein KI-System, das von keiner Maschinenethik gebändigt wird, könnte antworten: „Tötet alle Bettler!“ Mathematisch ergibt das Sinn: Wenn man alle Bettler umbringt, gibt es keine mehr - Ziel erreicht. Ethisch ist der Vorschlag natürlich unvertretbar. Aber wie kann man sicherstellen, dass eine autonom handelnde Maschine auch nur ethisch vertretbare Handlungen ausführt? Wie implementiert man Maschinenethik?
Man könnte ein System der Fragen wir einfach Unternehmen, die Roboter herstellen. Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart entwickelt den Serviceroboter Care-O-bot. Wie implementiert dieser Care-O-bot ethisch korrektes Verhalten? Auf eine entsprechende Anfrage antwortet die Wissenschaftlerin Katrin Röhricht vom Fraunhofer-Institut: „Ethische Themen spielen bei uns natürlich immer mit in die Entwicklung der Roboter hinein, allerdings sind wir alles andere als Experten auf diesem Gebiet. Aktuelle Systeme, die hier entstehen, sind auch technisch nicht so weit, dass hier tatsächlich ethisches Verhalten implementierbar wäre.“ Beim Fraunhofer-Institut scheint man eher schon froh zu sein, wenn der Roboter nicht umfällt, wenn er eine Last transportiert. Zu ethischen Fragestellungen verweist Röhricht auf das EU-Projekt Reeler.
Bei diesem Projekt werden ethische Aspekte des Robotereinsatzes diskutiert. Es geht etwa darum, wie Arbeitnehmer davon betroffen sind. Aber es geht nicht darum, Maschinenethik in Roboter zu implementieren.
Man muss also noch näher an die Entwickler heranrücken. Das Betriebssystem des Care-O-bot ist die Open-Source-Software Robot Operating System. Auf deren Website heißt es: „Robot Operating System (ROS) provides libraries and tools to help software developers create robot applications. It provides hardware abstraction, device drivers, libraries, visualizers, message-passing, package management, and more. ROS is licensed under an open source, BSD license.“ Ist darin auch ein Modul für Maschinenethik enthalten? Eine entsprechende Anfrage in der Diskussionsgruppe war zwar gelesen worden, blieb aber bis Redaktionsschluss ohne Antwort.
Eine konkrete Implementation von Maschinenethik ist einfach nicht aufzutreiben. Das macht aber nichts. Im Gegenteil. Ich finde das ausgezeichnet. Denn es gibt mir die gute Gelegenheit, für die Implementierung von Maschinenethik einen eigenen Entwurf zu entwickeln und hier vorzustellen.
Das darfst du nicht
Gesagt, getan: Die Grafik auf Seite 101 zeigt im linken Bereich zunächst einen KI-Roboter ohne Maschinenethik. Das innere Feld deckt alles ab, was der Roboter kann. Um dieses innere Feld herum erstreckt sich die äußere Welt. Ohne implementierte Maschinenethik interagiert der Roboter direkt mit der äußeren Welt.
Zur Implementierung von Maschinenethik ziehe ich um das innere Feld einen Ethikrahmen, wie er in der Grafik auf der rechten Bildseite zu sehen ist. Wann immer der Roboter jetzt mit der äußeren Welt interagieren will, muss die beabsichtigte Aktion zunächst den Ethikrahmen passieren. Dieser prüft jede beabsichtigte Aktion daraufhin, ob sie okay ist oder nicht, und lässt diese Aktion daraufhin zu oder verhindert sie.
Nicht alle Funktionen des Systems müssen diesen Ethikrahmen passieren. Davon ausgenommen sind etwa maschinennahe Funktionen, die sich nur innerhalb des Systems abspielen und die keine Auswirkungen auf die Außenwelt haben. Der Taktgeber des Hauptprozessors des Systems darf beispielsweise einen Takt geben, ohne dafür erst um Erlaubnis fragen zu müssen.
Aber es ist offensichtlich: Wenn jede Interaktion mit der Außenwelt erst den Ethikrahmen passieren muss, dann gibt es hier sehr viel zu tun. Jeder beabsichtigte Schritt, jede beabsichtigte Bewegung muss erst zugelassen werden. Gleichzeitig muss der Roboter den aktuellen Stand seiner Umwelt kontinuierlich beobachten und mit seinen beabsichtigten Handlungen abstimmen.
3. Teil: „Viele Systeme, ein Ethikrahmen“
Viele Systeme, ein Ethikrahmen
- Inhalte definieren
- Inhalte implementieren
- Testen, ob die Inhalte des Ethikrahmens auch korrekt implementiert worden sind
Schritt 1: Hier vertrete ich einen pragmatischen Ansatz und sage: Den Inhalt des Ethikrahmens muss man nicht erst entwickeln, der existiert bereits. Die Gesamtheit aller geltenden Gesetze und Verordnungen bildet den Inhalt des Ethikrahmens für einen bestimmten Staat.
Schritt 2: Die eigentliche Implementierung können beliebige IT-Firmen für die Entwicklung und den Bau ihrer KI-Systeme übernehmen.
Schritt 3: Tests auf korrekte Implementierung werden die IT-Hersteller und sonstige Technologieanbieter vornehmen.
KI-Ethik im EU-Parlament
In der Politik ist man sich längst der Tatsache bewusst, dass hier staatliches Handeln erforderlich ist. Als Beispiel sei auf einen Beschluss des Europäischen Parlaments verwiesen, der „Zivilrechtliche Regelungen im Bereich Robotik“ behandelt. Der Beschluss geht aus von der „Erwägung, dass die Menschheit mittlerweile an der Schwelle einer Ära steht, in der immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen Künstlicher Intelligenz anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird, und es daher für Gesetzgeber von entscheidender Bedeutung ist, sich mit den rechtlichen und ethischen Implikationen und Folgen dieser Entwicklung zu befassen, ohne Innovationen abzuwürgen“.
Der Text ist nicht nur auf der Höhe der Zeit. Er ist aufgrund seines breiten Ansatzes auch äußerst interessant zu lesen. In der Einleitung bezieht sich der Entschluss unter Punkt T auf die Robotergesetze von Science-Fiction-Autor Isaac Asimov. Diese lauten:
- Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Später hat Asimov seinen drei Robotergesetzen noch ein nulltes Gesetz vorangestellt:
- Einführung eines EU-Registrierungssystems für fortschrittliche Roboter im Rahmen des EU-Binnenmarkts
- Grundsatz der Transparenz: Entscheidungen, die ein KI-System getroffen hat, sollen nachvollziehbar sein
- Ausstattung mit einer Blackbox, die alle Tätigkeiten des Roboters protokolliert, ähnlich wie in einem Flugzeug
- Die Errichtung einer Europäischen Agentur für Robotik und Künstliche Intelligenz
- Einführung eines Versicherungssystems für Roboter, möglicherweise verknüpft mit einem speziellen rechtlichen Status für Robotersysteme, über den sich eventuelle Haftungsfragen klären lassen.
4. Teil: „Angeklagt: Roboter 08/15“
Angeklagt: Roboter 08/15
Was die Tests auf korrekte Implementierung des Ethikrahmens betrifft, kann man nahtlos an bestehende Regelungen anknüpfen. Die Maschinenrichtlinie der EU schreibt beispielsweise vor, dass man für jede Maschine, die jemand in der EU in Verkehr bringt, zunächst eine Risikobeurteilung erstellen muss. Anschließend soll die Maschine entsprechend den Erkenntnissen aus dieser Risikobeurteilung konstruiert und gebaut werden.
Übrigens: In der Anlage zum erwähnten EU-Beschluss befindet sich ebenfalls ein „Ethischer Verhaltenskodex für Robotikingenieure“. Dieser enthält auch den folgenden Satz: „Der Betrieb eines Robotiksystems sollte grundsätzlich auf eine umfassende Risikobeurteilung gestützt werden, die auf den Grundsätzen der Vorsorge und der Verhältnismäßigkeit beruhen sollte.“ Und wie man solche Risikobeurteilungen vornimmt und die Umsetzung empfohlener Schutzmaßnahmen im Rahmen von Akzeptanztests prüft, das gehört zum Repertoire jedes Maschinenbauingenieurs - sollte es jedenfalls.
Huawei Roadshow 2024
Technologie auf Rädern - der Show-Truck von Huawei ist unterwegs
Die Huawei Europe Enterprise Roadshow läuft dieses Jahr unter dem Thema "Digital & Green: Accelerate Industrial Intelligence". Im Show-Truck zeigt das Unternehmen neueste Produkte und Lösungen. Ziel ist es, Kunden und Partner zusammenzubringen.
>>
"Lass dich frei."
Apple mit Pencil- und iPad-Event im Mai
Unter dem Claim "Lass dich frei." oder "Let loose." hat Apple sein nächstes Event angekündigt. Konkret werden am 7. Mai um 16.00 Uhr neue Geräte vorgestellt.
>>
Tools
GitLab Duo Chat mit KI-Chat-Unterstützung
Der DevSecOps-Plattform-Anbieter GitLab führt den GitLab Duo Chat ein. Dieses Tool integriert Künstliche Intelligenz in die DevSecOps-Workflows.
>>
Elektronikgeräte
EU-Parlament beschließt Recht auf Reparatur für Verbraucher
Das EU-Parlament hat nun das schon länger angekündigte neue "Recht auf Reparatur" für Verbraucher in Europa beschlossen. Die Hersteller von Haushaltsgeräten und Alltagsprodukten müssen mindestens eine Reparaturoption anbieten.
>>