Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Computerwissenschaft: Befehlsverweigerung durch Roboter

Künstliche Intelligenzen, welche die Menschheit vernichten wollen, liefern zwar guten Filmstoff. Viel realistischer und damit gefährlicher sind jedoch Roboter, die einen Auftrag missverstehen – oder von böswilligen Befehlshabern instruiert werden.
Der NAO kann die Geste des Menschen zwar sehen, aber nicht verstehen. Erst nachdem seine Software die Worte „Ich fange dich auf“ verarbeitet hat, gibt sie den kritischen Schritt über die Tischkante frei.

Der Sciencefiction-Klassiker "2001: Odyssee im Weltraum" führt uns eine bedrohliche Welt der Zukunft vor Augen, in der mit künstlicher Intelligenz ausgestattete Maschinen die menschliche Autorität in Frage stellen. Der empfindungsfähige Computer HAL 9000 übernimmt die Kontrolle über ein Raumschiff und tötet den Großteil der Mannschaft; als ein Astronaut nach einer Außenmission wieder ins Schiff zurück will und HAL auffordert, die Schleuse zu öffnen, antwortet der mit unheimlich ruhiger Stimme: "Tut mir leid, Dave, ich fürchte, das kann ich nicht tun."

In dem kürzlich in die Kinos gekommenen Zukunfts-thriller "Ex Machina" manipuliert die verführerische An­droidin Ava einen unglückseligen jungen Mann so, dass er hilft, ihren Schöpfer Nathan umzubringen. Ihre Intrigen lassen Nathans dunkle Prophezeiung glaubwürdig erscheinen: "Irgendwann werden die künstlichen Intelligenzen genauso auf uns Menschen zurückschauen wie wir auf fossile Skelette in den Wüsten Afrikas. Ein aufrecht gehender Affe, lebend im Schmutz, mit primitiver Sprache und ebensolchen Werkzeugen, bestimmt zum Aussterben."

Was geschieht, wenn ein Roboter den Befehl verweigert oder den Absichten seines Erbauers zuwiderhandelt? Das gibt nicht nur einen guten Stoff für einen Kinofilm her – unsere Forschungsgruppe stellt sich dieselben Fragen, wenn es um das alltägliche Leben geht ...

  • Quellen

Briggs, G.: Machine Ethics, The Frame Problem and the Theory of Mind. Vorgetragen auf dem AISB/IACAP World Congress, Birmingham 2012

Briggs, G., Scheutz, M.: How Robots Can Affect Human Behavior: Investigating the Effects of Robotic Displays of Protest and Stress. In: International Journal of Social Robotics 6, S. 343–355, August 2014

Briggs, G., Scheutz, M.: "Sorry I Can‘t Do That": Developing Mechanisms to Appropriately Reject Directives in Human-Robot Interaction. Vorgetragen auf dem Artificial Intelligence and Human-Robot Interaction Symposium, Arlington (Virginia) 2015

Scheutz, M.: The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots. In: Robot Ethics: The Ethical and Social Implications of Robotics. MIT Press, London 2011In: Robot Ethics: The Ethical and Social Implications of Robotics. MIT Press, London 2011

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.