Autonome Waffen: Tausende KI-Forscher geloben Verzicht auf Waffenentwicklung
Mehr als 2500 KI-Forscher und 176 Organisationen haben eine freiwillige Selbstverpflichtung unterzeichnet, nicht an autonomen tödlichen Waffensystemen zu forschen. Zu den Unterstützern der Initiative gehören auch prominente Figuren der Branche wie Demis Hassabis von Google DeepMind und Elon Musk. Die Kernforderung der Selbstverpflichtung ist, dass das Abfeuern einer Waffe niemals einer Maschine überlassen werden solle.
Mit ihrer Unterschrift verpflichten sich die Teilnehmer, »es weder zu unterstützen noch dabei mitzuwirken, dass autonome tödliche Waffen entwickelt, produziert, gehandelt oder eingesetzt werden«.
Bislang haben 176 Organisationen aus dem Bereich der KI-Forschung ihre Unterstützung erklärt, darunter auch wichtige Mitspieler in der Szene. Viele große Namen fehlen allerdings, so unterzeichneten weder Google noch die Google-Holding Alphabet die Selbstverpflichtung; auch Boston Dynamics – Hersteller berühmter Robotermodelle – finden sich bislang nicht auf der Liste. Ebenso fehlen einschlägige Rüstungskonzerne.
Ziel der Aktion ist es darum, weit über den Kreis der Unterzeichner hinaus Wirkung zu entfalten, indem die Aufmerksamkeit der breiten Öffentlichkeit auf die Gefahren autonomer Waffen gelenkt wird. So sollen autonome Waffen geächtet werden und Firmen, die an ihrer Entwicklung forschen, öffentlichen Druck zu spüren bekommen.
Langfristig wünschen sich die Initiatoren, dass die internationale Gemeinschaft ein Verbot autonomer tödlicher Waffen erlässt. Im Rahmen der Vereinten Nationen haben bereits 26 Länder ihre Unterstützung für ein solches Vorhaben erklärt. Als einzige europäische Staaten finden sich Österreich und der Vatikan auf dieser Liste.
Die Selbstverpflichtung wurde initiiert vom Future of Life Institute, einer in Boston ansässigen Organisation, die Projekte fördert, bei denen Technologie zum Wohle aller Menschen und im Interesse nachfolgender Generationen eingesetzt wird.
Mit ihrer Selbstverpflichtung richten sich die Initiatoren nicht pauschal gegen den Einsatz von künstlicher Intelligenz in einem Waffensystem, sondern speziell gegen Fälle, bei denen allein der Computer darüber entscheidet, ob die Waffe abgefeuert wird oder nicht. Gegen solche Systeme führen sie moralische Bedenken an – ohne menschlichen Entscheidungsträger sei die Frage der Verantwortlichkeit nicht geklärt –, vor allem aber pragmatische Überlegungen: Weil sich vollautonome Waffensysteme anders als Menschen beliebig vervielfältigen lassen, würden sie eine destabilisierende Wirkung auf Staaten entfalten und zu einem neuen Wettrüsten führen.
Wie sich KI-Waffen auswirken können, hatte das Institut im November 2017 in einem eindrücklichen Video skizziert. Darin schildern sie das fiktive Szenario einer Terroristengruppe, die mit massenhaft produzierten Minidrohnen nach ihren Gegnern fahndet und diese vollautomatisch exekutiert.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.