Direkt zum Inhalt

Selbstfahrende Autos: Wie die Moral in die Maschine kommt

Das autonome Fahren führt zu moralischen Dilemmata. Befriedigende Lösungen scheinen nicht in Sicht.
Ein Motorrad liegt vor der Front eines Autos. Das ist natürlich nur ein Symbolbild. Bei einem echten Unfall fliegt das Motorrad viel, viel weiter.

Stellen Sie sich vor, ein autonomes Fahrzeug fährt im Stadtverkehr auf eine Kreuzung zu. Plötzlich rennt unvermittelt ein Kind auf die Straße. Die Abstandsmesser stellen fest, dass ein Bremsvorgang bei dieser Geschwindigkeit zu spät kommt und nur noch ein Ausweichmanöver möglich ist. Was soll der Fahrcomputer in dieser Situation tun? Nach links ausweichen und den Motorradfahrer rammen? Oder nach rechts ziehen und die Fußgängergruppe anfahren? Dieses zunächst etwas konstruiert wirkende Gedankenexperiment ist keine graue Theorie aus dem Elfenbeinturm, sondern bekommt mit der Entwicklung selbstfahrender Autos eine höchst praktische Relevanz – und Dringlichkeit.

Apple will sein autonomes Fahrzeug auf öffentlichen Straßen testen, Google erprobt seine Roboterfahrzeuge schon länger im Realbetrieb, und auch der Logistikriese Amazon erkundet die Möglichkeiten autonomen Fahrens. Die Tech-Konzerne drängen auf die Straße. Während die Automobilindustrie Millionen Dieselfahrzeuge in die Werkstätten schickt, tüfteln Ingenieure, wie sich autonome Fahrzeuge in einem Dilemma verhalten sollen. Brauchen Motoren eine Moral? Die Frage mag vor dem Hintergrund der Dieselaffäre, wo offenbar jede Moral und Programmierethik verspielt wurde, zynisch anmuten, doch wenn fahrerlose Autos auf der Straße sind, müssen solche Situationen in der Praxis entschieden werden.

Der Maschinenethiker Oliver Bendel sagt, dass es ein Moralmodul, das bei Unfällen mit Menschen angemessen entscheidet, kaum geben wird. "Eine maschinelle Moral, die der menschlichen gleicht, wird man wohl nie erschaffen können." Trotzdem müssen die Programmierer diese moralischen Vorstellungen in die Technik implementieren.

Brauchen Maschinen eine Moral?

Das eingangs geschilderte ethische Dilemma, das man in verschiedenen Spielarten durchdeklinieren kann, ist nach dem Trolley-Problem beziehungsweise Weichenstellerfall modelliert. Ein Weichensteller sieht einen Güterzug auf einen vollbesetzten Personenzug zurasen. Er erkennt die Gefahr und überlegt, ob er den Güterzug auf ein Nebengleis umlenkt, wo eine Gruppe von Gleisarbeitern steht. Statt 50 Menschen würden "nur" 5 Menschen ums Leben kommen. Wie soll er sich entscheiden? In einer Online-Untersuchung der Université de Toulouse, des Massachusetts Institute of Technology (MIT) und der University of California mussten 2000 Probanden das klassische Szenario für Roboterfahrzeuge beantworten: Ein autonomes Fahrzeug rast auf eine Menschenmenge zu. Entweder fährt es mitten hinein und tötet die Passanten. Oder es weicht aus, prallt gegen eine Barriere und tötet seinen Insassen. Das Ergebnis: Rund drei Viertel würden lieber den einen Menschen opfern als die ganze Menschenmenge. Das nahezu gleiche Ergebnis gab es, als die Befragten annehmen sollten, sie selbst oder Mitglieder ihrer Familie säßen im Fahrzeug.

Ähnlich fiel das Urteil der Geschworenen in Ferdinand von Schirachs Justizdrama "Terror" aus: Von den insgesamt 346 000 Schöffen des in mehreren Ländern aufgeführten Stücks (unter anderem in Deutschland, Großbritannien, Ungarn, Japan, USA und Venezuela) votierten 61 Prozent für den Freispruch des Kampfpiloten, der – in dem fiktiven Plot – eine auf ein vollbesetztes Stadion steuernde und von Terroristen gekaperte Passagiermaschine abschießt. Allein, die herrschende Moralvorstellung steht im Widerspruch mit der geltenden Rechtsordnung. Nach deutschem Recht darf der Weichensteller die Weiche nicht umstellen. Menschenleben werden nicht gewichtet, jedes einzelne ist Zweck an sich. Das ist Ausfluss kantianischen Denkens. In der angelsächsischen Rechtstradition herrscht hingegen eine quantifizierende Rechtsethik vor. Hier steht die Frage im Vordergrund, bei welcher Entscheidung die meisten Menschenleben gerettet werden können.

Es steht die Befürchtung im Raum, dass mit der zunehmenden Dominanz der Tech-Konzerne, die mit ihrer Software in die Fahrzeuge drängen (Amazon will Alexa zum Betriebssystem machen) und die Automobilindustrie zum bloßen Hardware-Zulieferer zu degradieren drohen, ein klandestiner Ethiktransfer stattfindet, weg von einer nationalen Rechtstradition, die jede Gewichtung von Menschenleben verbietet, hin zu einer quantifizierenden Rechtsethik nach amerikanischem Modell. Der Grund ist auch, dass technische Informationssysteme quantitative Entscheidungsmuster, die leichter zu programmieren sind, begünstigen.

Welche Industrie darf die Moral gepachtet haben?

Diese Auffassung scheint sich auch bei den Automobilherstellern durchzusetzen. Daimler misst in der Diskussion um ethische Dilemmata selbstfahrender Autos dem Schutz der Fahrzeuginsassen eine höhere Priorität bei. "Wenn man das Leben zumindest einer Person retten kann, rettet man wenigstens das eine: das in dem Auto", sagte Daimler-Sicherheitschef Christoph von Hugo, im vergangenen Jahr auf dem Pariser Autosalon. Von Hugo sprach von einer Situation, in der ein fahrerloses Auto auf eine Gruppe Kinder zufährt und kein Ausweichmanöver möglich ist. "Man könnte das Auto opfern. Aber dann weiß man immer noch nicht, was mit den Menschen passiert, die man ursprünglich gerettet hat, da solche Situationen oft sehr komplex sind. Daher rettet man die, von denen man weiß, dass man sie retten kann." Doch letztlich wird dabei das Leben der Fahrzeuginsassen höher gewichtet als das der anderen Verkehrsteilnehmer – und damit Leben gegen Leben gewogen. Die Autobauer verwenden das Gros ihrer Entwicklungsarbeit darauf, dass solche Situationen erst gar nicht entstehen – und der Fahrcomputer keine brutale Entscheidung treffen muss.

Eine andere Möglichkeit, die von Rechtsethikern immer wieder diskutiert wird, ist die Einschaltung eines Zufallsgenerators, bei der Handlungsoptionen – nach links oder rechts ausweichen – randomisiert werden. Der Computer entscheidet binär – null oder eins – und wirft salopp gesagt eine Münze. Eine spezifische Roboterhandlung, zum Beispiel das Ausweichen vor einem Hindernis, kann aus der Perspektive eines externen Beobachters auch als Unterlassen verstanden werden. Der Philosoph und Physiker Armin Grunwald, der das Institut für Technikfolgenabschätzung und Systemanalyse am KIT leitet und in der Ethikkommission des Deutschen Bundestags zum automatisierten Fahren saß, schreibt: "Insofern menschliche Freiheit nicht im Sinn eines Zufallsgenerators zu verstehen ist, sondern die Freiheit des Entscheidens nach Maßgabe guter Gründe meint, wäre einem Roboter, der aus einem Spektrum von Handlungsschemata ein zur Situationsdiagnose und den ihm gestellten Aufgaben passendes Schema auswählt, auch zuzugestehen, dass er diese Handlung unterlassen und eine andere ausgewählt haben würde, wenn die Gründe anders gelagert gewesen wären." Doch letztlich würde man mit einem Zufallsgenerator die Vorteile des Systems, die Planbarkeit und Berechenbarkeit von Situationen aufgeben.

Neben der haftungsrechtlichen Frage, wer beim Unfall eines Roboterfahrzeugs haftet und ob beim derzeitigen Haftungsregime Haftungsrisiken auf den Verbraucher abgewälzt werden (nach dem Motto "Das Auto lenkt, der Fahrer haftet"), ist vor allem die strafrechtliche Problematik bedeutsam: Wer wird zur Rechenschaft gezogen, wenn ein Mensch durch das Kommando eines Computers ums Leben kommt? Die Programmierer? Der Hersteller? Kann eine Maschine töten? Ist eine künstliche Intelligenz nicht bloß eine Sache im rechtlichen Sinn, sondern auch eine Person, die zur Rechenschaft gezogen werden kann? Je mehr fahrerlose Autos auf den Straßen unterwegs sind, desto drängender werden diese Fragen.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.