Mäders Moralfragen: Kriminelle Intelligenz
Computer lassen sich nicht unter Druck setzen. Sie werden nicht wütend, sondern bleiben cool. Das macht Maschinen für Einsätze interessant, in denen Menschen Gefahr laufen, die Kontrolle zu verlieren – beispielsweise in Kriegen. Es klingt zwar seltsam, wenn man behauptet, dass Maschinen helfen könnten, Konflikte menschlicher auszutragen. Doch es wird behauptet. Man kann sich zum Beispiel einen nächtlichen Vorstoß auf feindliches Gebiet ausmalen: Roboter können nachts besser sehen als Menschen und vielleicht auch schneller und zuverlässiger erkennen, ob sie auf einen Zivilisten oder einen bewaffneten Kämpfer gestoßen sind. Selbst wenn die Situation eskaliert, schießen sie nicht wild um sich, sondern bleiben auf das Missionsziel fokussiert.
Die Menschenrechtsorganisation Amnesty International hat Zweifel an diesem Argument, denn der Drohnenkrieg der USA zeigt seit Jahren, dass die Dinge anders laufen: Es werden immer wieder Zivilisten getötet. Das liegt zum einen daran, dass die Zielerkennung aus der Luft nicht so gut ist, wie sie sein müsste, und zum anderen an der Distanz zwischen Kommandozentrum und Ausführungsort – der realen und auch der psychologischen. Es fällt den Verantwortlichen offenbar zu leicht, aus einigen tausend Kilometern Entfernung im Zweifel zu Ungunsten der Betroffenen zu entscheiden. Mehr als 3500 Wissenschaftler und Robotikexperten haben inzwischen einen offenen Brief unterzeichnet, in dem sie vor einem Wettrüsten der autonomen Waffensysteme warnen. Diese Systeme sollten nicht die Kalaschnikows von morgen werden.
Der Killerroboter zum Selberbauen
Doch es kann nicht nur versehentlich etwas schiefgehen. Ein neuer Bericht zeigt, wie die wachsenden Möglichkeiten der künstlichen Intelligenz dazu genutzt werden könnten, absichtlich Menschen zu schaden. Das Kernargument der Autoren, die an Universitäten oder Einrichtungen der Zivilgesellschaft arbeiten, ist dieses: Wenn Roboter intelligenter werden, müssen Kriminelle weniger Aufwand betreiben, um sie für ihre Zwecke umzurüsten. In einem Szenario beschreiben die Autoren, wie ein Haushaltsroboter in ein Ministerium eingeschleust werden könnte, wo er so lange den Müll einsammelt und den Boden wischt, bis er den Minister in seiner Nähe erkennt und eine eingebaute Bombe zündet. Die Szenarien des Berichts stützen sich auf Technologien, die heute schon zu kaufen sind oder es in absehbarer Zeit sein werden.
Vor solchen Angriffen kann man sich schützen. Man kann zum Beispiel von den Hardwareherstellern verlangen, dass sie Sicherheitsbarrieren in ihre Maschinen einbauen, die eine Manipulation erschweren. Und die für die Navigation und Personenerkennung nötige Software könnte man so kompliziert halten, dass sie nur von Experten anwendbar ist. Doch das wird nicht genügen, und die Autoren des Berichts diskutieren weitere Optionen. Eine davon ist in der Wissenschaft umstritten: Sollten Forscher ihre Fachpublikationen zensieren, um niemandem eine Anleitung zum Bau einer neuen Waffe zu geben? Die Autoren betonen, dass das außerhalb der Forschung schon praktiziert wird. Über neue Einfallstore für Hacker berichtet man oft erst, nachdem die Patches entwickelt und ausgeliefert worden sind.
Keine Entwicklung im Verborgenen
Die Rechtswissenschaftlerin Silja Vöneky von der Universität Freiburg hat sich in einem Kommentar beim "Science Media Center" gegen eine Vorabzensur von Fachartikeln gewandt: "Transparenz ist grundsätzlich wichtig, um die Chancen und Risiken einer neuen Technologie zu diskutieren", argumentiert sie. Zudem dürfe man die im Grundgesetz verankerte Forschungsfreiheit nicht unzulässig einschränken. Aber Vöneky unterstützt die Bemühungen der Wissenschaft, stärker als bisher über ethische Fragen und mögliche Risiken der Forschung zu diskutieren. Die Deutsche Forschungsgemeinschaft und die Nationale Akademie der Wissenschaften (Leopoldina) haben zum Beispiel an vielen Hochschulen Kommissionen zur Ethik der Forschung (kurz: KEFs) angeregt, in denen sich Forscher mit solchen Fragen beschäftigen. Es gibt inzwischen einige Dutzend solcher Kommissionen, und man wird bald prüfen können, ob sie der Aufgabe gewachsen sind.
In einem anderen Fall kritisiert Vöneky das fehlende Bewusstsein: Die Cyber-Valley-Initiative Baden-Württembergs sei "nur technisch ausgerichtet" und wolle "ohne ethische und rechtsethische Forschung auskommen", schreibt sie. Die Projektverantwortlichen verweisen auf Anfrage darauf, dass die Initiative gerade erst starte. "Wir werten diese Kritik eher als Erinnerung und nicht als Vorwurf", sagt Christina Beck, die Kommunikationschefin der Max-Planck-Gesellschaft.
Die Moral von der Geschichte: Unterschätze niemals die Macht der dunklen Seite, aber lass dich nicht aus Angst zu Verschlossenheit verleiten.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.