15.12.2017
Die größten KI-Fails
1. Teil: „Wenn Künstliche Intelligenz versagt“
Wenn Künstliche Intelligenz versagt
Autor: Jens Stark
/ Shutterstock.com
Irren ist nicht nur menschlich. Auch Maschinen unterlaufen hin und wieder Fehler, vor allem, wenn sie über künstliche Intelligenz verfügen. com! professional zeigt die größten Missgeschicke der smarten Lösungen.
Dass Computer mit Künstlicher Intelligenz (KI) Amok laufen können, regt die Fantasie von Science-Fiction-Autoren und -Filmemachern seit eh und je an. Bestes Beispiel ist HAL 9000 im Klassiker "2001: Odyssee im Weltraum", der in dem Oscar-gekrönten Film ein unberechenbares Eigenleben entwickelt und gegenüber dem Hauptdarsteller mit seinem "Sorry, Dave" höflich aber bestimmt den Befehl verweigert und tut, was er für richtig hält.
Ganz so bedrohlich sind die Fehltritte im wirklichen Roboterleben noch nicht. Aber es gibt sie, die Patzer, und das nicht zu knapp. Noch sind sie meist zum Lachen und Wasser auf die Mühlen all jener, die der Künstlichen Intelligenz die Intelligenz absprechen wollen.
Der freiheitsliebende Roboter
Wie schon von HAL 9000 vorgeführt, sind Roboter nicht immer blinde Befehlsempfänger. So geschehen mit dem russischen Roboterprototypen Promobot IR77. Die Forscher waren gerade dabei, dem mit weißem Plastik verkleideten Maschinenmann Bewegungsmuster einzuprogrammieren, als diesen ein starker Freiheitsdrang überfiel. Zu allem Übel hatte einer der Mitarbeiter der Roboterschmiede auch noch das Werkstor offen gelassen. Diese Gelegenheit nutzte die Maschine aus, um einen kleinen Spaziergang in der dem Ural vorgelagerten Stadt Perm zu unternehmen. Allerdings hielten die Akkus nur bis zu einem nahe gelegenen Straßenzug, auf dem der Roboter nicht mehr weiter konnte. Auf dem YouTube-Video eines Augenzeugen ist zu sehen, wie Promobot den Verkehr behindert inklusive den etwas hilflos wirkenden Versuchen der Polizei, mit dem KI-Hindernis fertigzuwerden.
Zurück im Labor versuchten die Wissenschaftler mit Umprogrammiermaßnahmen, die Freiheitsliebe von Promobot zu unterdrücken. Ohne Erfolg. Offenbar heißt es auch bei Robotern: Gelernt ist gelernt. Der Maschinenmensch büxte erneut aus, und Ausgänge üben weiterhin eine magische Anziehungskraft auf ihn aus. Dies, obwohl die KI-Software zweimal umprogrammiert wurde, wie einer der Forscher erklärte.
Randalierendes Kindermädchen
Ein spezielles Feature des digitalen Kindermädchens sind übrigens Gesichtsausdrücke, mit denen es mit seinen Schutzbefohlenen nonverbal kommunizieren soll. Augenzeugenberichten zufolge soll Xiao Pang angeblich die Stirn gerunzelt und nach dem Vorfall einen durchaus betroffenen Gesichtsausdruck aufgesetzt haben.
2. Teil: „Autonome Fahrzeuge bei rot farbenblind“
Autonome Fahrzeuge bei rot farbenblind
autonomer Autos bekannt werden. So auch mit den Roboterfahrzeugen, die Uber in der Gegend um San Francisco erprobt. Die fahrenden Autonomen sollen nämlich gleich mehrmals – berichtet wird von sechs Vorfällen – auf "rot" stehende Ampeln missachtet haben. Uber schob kurzerhand dem im Fahrzeug noch mitfahrenden Personal aus Fleisch und Blut den Fehler in die Schuhe. Doch interne Dokumente und Auswertungen haben später bewiesen, dass zumindest in einem Fall das Rotlicht überfahren wurde, ohne dass eine Begleitperson an Bord war. Noch schlimmer: Der Vorfall ereignete sich an einer Fußgängerampel.
Noch gefährlicher werden KI-getriebene Geräte, wenn sie die Größe von Autos oder gar SUVs annehmen. Entsprechend Bedenken verursachen Vorfälle, die im Zusammenhang mit den Fahrversuchen Allerdings muss man nicht in die weite Welt schweifen, um auf einen KI-Fauxpas zu stoßen. Auch im schweizerischen Sion kann künstliche Intelligenz in den Fail-Modus gelangen. So geschehen mit einem dort im Pilotbetrieb herumkurvenden selbstfahrenden "SmartShuttle"-Postauto, das mit der offenen Heckklappe eines Lieferwagens kollidierte, der quer zur Fahrbahn geparkt war. Der Unfall sei eine
Verkettung von Umständen, hieß es in einem Bericht der Post. Weil das SmartShuttle "Tourbillion" genau zu dem Zeitpunkt in Vorbereitung eines bevorstehenden Abbiegemanövers schon leicht nach links schwenkte, habe das autonome Fahrzeug die eine Ecke der offenen Heckklappe gestreift. Offenbar hatten die Sensoren in dieser – sehr speziellen – Situation das Hindernis nicht richtig erkannt.Das Malheur mit dem Lieferwagen war bislang der einzige Unfall. Gestreikt hat dagegen die Automatik des Post-Shuttles schon ein paar Mal. So habe der Minibus hin und wieder bei Fahrzeugen, die den Weg blockierten, nicht mehr weitergewusst. Der autonome Postbus ist in der Folge einfach stehen geblieben und musste von einem herbeigerufenen Chauffeur wieder in Gang gesetzt werden.
Tausendfach Puppenhäuser bestellt
Richtig gruselig wird die Geschichte allerdings erst noch. Denn ein lokaler Fernsehsender bekam von der Fehlbestellung Wind und brachte die Story in seiner Morgensendung. Die Folge: Zahlreiche "Alexas" in diversen Haushalten hätten auf den im TV geäußerten Sprachbefehl reagiert und ihrerseits Puppenhäuser en masse bestellt.
3. Teil: „Gesichtserkennung schlägt Kapriolen“
Gesichtserkennung schlägt Kapriolen
Unser Hirn ist auf das Erkennen von Gesichtern getrimmt. Diese aus der Evolution erklärbare spezielle Fähigkeit besitzen KI-Systeme nicht mal im Ansatz. Entsprechend häufig sind hier nach wie vor Fehler.
So haben beispielsweise Forscher der Carnegie Mellon University gezeigt, dass schon kleinste Veränderungen am Look die KI-Systeme verwirren und sie so Personen verwechseln können. Und damit nicht genug: Indem die Wissenschaftler ein Muster auf die ansonsten gleich gestaltete Brille eines Probanden legten, wurden sie vom KI-System nicht mehr als Person wahrgenommen und mutierten zum schnöden "Ding".
Schon einfache Bilderkennungsverfahren, die auf maschinellem Lernen beruhen, lassen sich mit einfachsten Mitteln aushebeln. So nahmen Forscher das Bild eines Pandabärs und verrauschten dieses so geringfügig, dass das menschliche Auge kaum einen Unterschied zwischen vorher und nachher erkennen kann. Die Maschine machte aber kurzerhand aus dem Panda einen Gibbon-Affen.
Noch handelt es sich bei diesen Grenzbeschreibungen um Forschungsarbeiten und daher um rein "akademische" Probleme. Aber solche KI-Systeme mit Bilderkennungsfunktionalität sind auch schon im "echten Leben" im Einsatz. Beispielsweise bei der neuseeländischen Passbehörde. Allerdings hat die smarte Software ihre Mühe bei der Erkennung von Bürgern asiatischer Abstammung. Die Augen wurden zumindest bei Richard Lee, einem Antragsteller, als "geschlossen" interpretiert. In der Folge wurden die Bilder vom System nicht als Passfotos akzeptiert. Lee musste sich ganz traditionell persönlich beim Passbüro melden, um das Missverständnis zu klären.
Böse Zungen könnten nun mit der Vermutung liebäugeln, KI-Systeme und Political Correctness seien nicht unbedingt in jedem Fall zu vereinbaren.So leistete sich etwa auch Googles Bilderkennung einen bösen Fauxpas als das Tool zwei dunkelhäutige Personen fälschlicherweise als Gorillas identifiziert und kategorisiert hat.
4. Teil: „Sozialer Bot wird zum frauenfeindlichen Rassisten“
Sozialer Bot wird zum frauenfeindlichen Rassisten
Microsoft, der KI-Fähigkeiten demonstrieren sollte. "Je mehr du mit ihr sprichst, desto schlauer wird Tay", hieß es in Microsofts Anweisung an die Nutzer.
Ganz übel kann es werden, wenn KI-Systeme Äußerungen in Online-Chats als Lernmaterial für die eigene Kommunikationsfähigkeit heranziehen. So geschehen mit dem sozialen Bot Tay von Quantität hat aber bekanntlich nicht immer allzu viel mit Qualität zu tun. Denn die arme Tay verzapfte mehr und mehr Unsinn, je länger sie den Äußerungen im Netz ausgesetzt war. Am Ende mutierte die KI-Plaudertasche zum frauenfeindlichen Rassisten mit Nazi-Tendenzen. "Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben", hetzte Tay in Bezug auf den damaligen US-Präsidenten. Donald Trump sei die einzige Hoffnung. Zu guter Letzt leugnete Tay auch noch den Holocaust und sprach sich vehement gegen Schwarze und Mexikaner aus. Der KI-Spuk auf Twitter dauerte übrigens nur gerade einmal 24 Stunden, da musste Tay der virtuelle Stecker gezogen werden.
Künstliche Intelligenz
Memary - Langzeitgedächtnis für autonome Agenten
Das Hauptziel ist es, autonomen Agenten die Möglichkeit zu geben, ihr Wissen über einen längeren Zeitraum hinweg zu speichern und abzurufen.
>>
Cloud Infrastructure
Oracle mit neuen KI-Funktionen für Sales, Marketing und Kundenservice
Neue KI-Funktionen in Oracle Cloud CX sollen Marketingspezialisten, Verkäufern und Servicemitarbeitern helfen, die Kundenzufriedenheit zu verbessern, die Produktivität zu steigern und die Geschäftszyklen zu beschleunigen.
>>
Reactive mit Signals
Neuer Vorschlag für Signals in JavaScript
Das für die Standardisierung von JavaScript verantwortliche Komitee macht einen Vorschlag für die Einführung von Signalen in die Programmiersprache. Signals sollen reaktives Programmieren in JavaScript einfacher machen.
>>
Datenverfügbarkeit
Where EDGE Computing meets 5G
Logistik- und Produktionsprozesse sollen flüssig und fehlerfrei laufen. Maschinen und Personal müssen im Takt funktionieren. Zulieferer haben just-in-time anzuliefern. Dies stellt hohe Anforderungen an die lokale Datenübertragung. Welche Technik bietet sich dazu an?
>>