Ethik: Müssen wir autonome Killerroboter verbieten?
Im Jahr 2029 tobt ein Krieg zwischen Menschen und intelligenten Maschinen. Ein Roboter wird in die Vergangenheit entsandt, um Sarah Connor zu töten, bevor sie John Connor, die zukünftige zentrale Führungsfigur im Kampf gegen die Maschinen, zur Welt bringen kann. Der Sciencefiction-Film "Terminator" und seine Fortsetzungen drehen sich um die Idee, eines Tages könnten sich Roboter eigenständig entscheiden, Menschen umzubringen – und zwar im ganz großen Stil.
Es gehört zum Wesen der Sciencefiction, der technischen Realisierbarkeit weit vorauszueilen; aber in diesem Punkt holt die Realität gerade mit Riesenschritten auf. Tötungsmaschinen, in der wissenschaftlichen Diskussion "lethal autonomous weapons systems" (LAWS) genannt, stehen kurz vor der Vollendung – vielleicht gibt es sie schon. Ihr bevorstehender Einsatz auf dem Schlachtfeld wirft neue, verstörende Fragen auf: Was fällt unter den Begriff "Kampfroboter"? Wer ist für dessen Handlungen verantwortlich? Welche Prinzipien sollen seine Aktionen bestimmen?
Schon 1942 stellte Isaac Asimov (1920 – 1992), ein ebenso berühmter wie produktiver amerikanischer Autor russischer Abstammung, in der Zeitschrift "Astounding Science Fiction" die Frage nach einer Ethik für Roboter. Damit gilt er heute als Begründer einer philosophischen Disziplin, deren Vertreter vor allem in den USA Kolloquien veranstalten und zahlreiche Bücher publizieren. In der Kurzgeschichte "Runaround" formulierte Asimov 1942 seine drei berühmt gewordenen Gesetze der Robotik. Sie sollten das Verhalten der – damals noch fiktiven – Automaten kontrollieren und sie zum Schutz der Menschen moralischen Imperativen unterwerfen. ...
Schreiben Sie uns!
3 Beiträge anzeigen