Initiative gegen autonome Killer-Roboter: »Ein Wettrüsten wird sich nicht verhindern lassen«
Wenn sich Elon Musk öffentlich zu künstlicher Intelligenz äußert, ist ihm die Aufmerksamkeit der Medien sicher. 2014 bezeichnete der Gründer des Elektroautobauers Tesla und der Raketenfabrik SpaceX künstliche Intelligenz (KI) als die »größte existenzielle Bedrohung« für die Menschheit. Diese Einschätzung hat er in einem offenen Brief am 20. August 2017 unterstrichen. Darin fordern Musk und 115 weitere Vertreter von Robotik- und KI-Unternehmen die Vereinten Nationen (UNO) auf, gegen die Entwicklung und Verbreitung so genannter tödlicher autonomer Waffensysteme vorzugehen, in den Schlagzeilen gerne auch als »Killer-Roboter« bezeichnet. Diese Maschinen könnten, so die Befürchtung, eigenständig Menschen als Zielobjekte erkennen und töten.
In dem Brief warnen die Unternehmer, nach der Erfindung des Schwarzpulvers und von Kernwaffen, vor einer »dritten Revolution der Kriegsführung«. Diese würde sich in einer bisher nicht da gewesenen Größenordnung und in einer für den Menschen nicht nachvollziehbaren Geschwindigkeit abspielen. Künstliche Intelligenz könne die Büchse der Pandora auf den Schlachtfeldern dieser Welt öffnen, so der dramatische Schluss der Unternehmer. Sie bitten eine von der UNO zum Thema eingesetzte Gruppe von Experten, hart daran zu arbeiten, ein Wettrüsten bei intelligenten Waffen zu verhindern – und bieten ihren Rat an.
Auch der deutsche Informatiker Jürgen Schmidhuber hat den offenen Brief unterzeichnet. Er gilt als einer der Pioniere des maschinellen Lernens, einer Form der künstlichen Intelligenz, die in den letzten Jahren enorme Fortschritte gemacht hat. Die lernfähigen »neuronalen Netze«, die er und sein Team an der TU München und am KI-Labor IDSIA in der Schweiz, wo er lebt und arbeitet, entwickelt haben, erkennen Handschriften oder gesprochene Sprache oder übersetzen automatisch Texte. Sie werden heute auf Smartphones ebenso genutzt wie in der Früherkennung von Krebs anhand von Mustererkennung in medizinischen Bilddaten. Schmidhuber hat außerdem ein KI-Start-up namens Nnaisense mitgegründet. Gegenüber »Spektrum.de« erklärt er, was er sich von dem offenen Brief erhofft und wie er sich die Zukunft der KI vorstellt.
Spektrum.de: Herr Professor Schmidhuber, warum haben Sie den offenen Brief unterschrieben?
Jürgen Schmidhuber: Der Brief trägt hoffentlich dazu bei, dass die Öffentlichkeit sich Gedanken darüber macht, was passiert, wenn Waffen intelligenter werden. Es ist nicht der erste solche Brief, den ich unterzeichnet habe, denn wer so eine Technologie mit in die Welt gebracht hat, fühlt eine gewisse Verantwortung. Zwar kann auch der Erfinder des kontrollierten Feuers nicht für alles verantwortlich gemacht werden, was andere später damit anfingen. Doch man sollte sich stets darum bemühen, dass möglichst wenige Menschen unnötigerweise ums Leben kommen. Sei es durch Feuer oder autonome Autos oder intelligente Kampfmaschinen.
Was ist die neue Qualität dieser Art von Waffen?
Sie übernehmen immer mehr Aufgaben und Entscheidungen, die im Moment noch Menschen erfordern. Man kann damit Dinge anstellen, die viele völlig ablehnen würden. Autonome Waffen bringen allerdings keine neue Qualität maximaler Selbstzerstörungsfähigkeit. Denn die haben wir schon vor Jahrzehnten erreicht durch eine Technologie, die überhaupt nichts mit KI zu tun hat. Vor über einem halben Jahrhundert gab es erstmals die Kombination von Wasserstoffbomben und Interkontinentalraketen, die diese Bomben in ein bis zwei Stunden an jeden Ort bringen können, ganz ohne KI. Auch nach massiver nuklearer Abrüstung seit den 1980er Jahren lässt sich damit die Zivilisation immer noch innerhalb weniger Stunden auslöschen.
Automatische Waffen würden auf dem Schlachtfeld nicht nur eigenständig über Leben und Tod entscheiden, sie könnten auch gezielt Menschen anhand ihrer äußeren Merkmale ins Visier nehmen, beispielsweise wenn sie zu einer bestimmten Ethnie gehören. Zumindest befürchten das manche Experten. Außerdem könnten diese Waffensysteme das Ziel von Hackerangriffen werden.
Das ist alles vorstellbar, ja. Dem wollen viele entgegentreten. Man wird KI-Forschung jedoch nicht stoppen können, weil sie ja auch sehr viel Gutes bewirkt, etwa im Gesundheitswesen, und viele ein Interesse daran haben. Man kann sich aber überlegen, wie und bis zu welchem Grad man die Entwicklung intelligenter Waffen beeinflussen kann.
Gab es einen bestimmten Moment, in dem Ihnen klar wurde, dass es auch eine Schattenseite der KI-Forschung gibt und man versuchen muss, den Schaden daraus möglichst gering zu halten?
Das wurde mir als Bub schnell klar. Sciencefiction-Autoren haben mögliche negative Auswirkungen künstlicher Geschöpfe ja seit Jahrhunderten betont. Schon im Jahr 1816 beschrieb E.T.A. Hoffmann im Roman »Der Sandmann« Probleme mit humanoiden Automaten, und Mary Shelley veröffentlichte als Biotechnikvariante ihren »Frankenstein«.
Der offene Brief erinnert an die Atomphysiker, die sich nach den Bombenabwürfen in Hiroshima und Nagasaki gegen Kernwaffen eingesetzt haben. Beispielsweise haben die Physiknobelpreisträger Werner Heisenberg, Max Born, Otto Hahn und andere 1955 die »Mainauer Deklaration« unterzeichnet. Gibt es einen Unterschied zwischen der Forschung im Bereich Kerntechnik und der KI-Forschung?
Kernforschung war von Anfang an auf Zerstörung und Tod ausgelegt. Die zivile Nutzung kam erst nach der militärischen. Im Gegensatz dazu zielen 95 Prozent der heutigen KI-Forschung darauf ab, Menschen gesünder, langlebiger, glücklicher und abhängiger von ihren Smartphones zu machen. Doch die fünf Prozent, die in die Militärforschung gehen, kann man nicht ignorieren. Die von uns im Voralpenland entwickelten neuronalen Netze übersetzen beispielsweise nicht nur Milliarden von Texten pro Tag für Facebook, sondern lernen nun auch die Steuerung autonomer Kampfdrohnen. Das weiß ich von einflussreichen Kollegen aus den USA.
Wie lässt sich ein Wettrüsten bei intelligenten Waffen verhindern?
So wenig wie in anderen Bereichen. Wenn Großmächte glauben, eine Technik gereiche ihnen zum Vorteil, werden sie sie auch einführen. Und selbst kleinere Militärmächte oder andere Akteure können sich unsere Lernalgorithmen leisten. Sie sind viel billiger und leichter zu beschaffen als beispielsweise teure Zentrifugen zur Urananreicherung für Kernwaffen. Ein paar KI-Experten könnten Minidrohnen heute schon vom Massenprodukt zur Waffe umrüsten.
Welche Hoffnung verknüpfen Sie dann mit dem offenen Brief?
Für mich geht es vor allem um den Hinweis darauf, dass es da ein potenzielles Problem gibt, das in gewisser Weise unausweichlich ist. Der Brief kann dazu beitragen, dass sich die Leute Gedanken machen und öffentlich darüber diskutieren. Wer das Problem hingegen einfach ignoriert, wird auch keine Fortschritte erzielen.
Sie sind ein großer Verfechter der These, dass KIs langfristig dem Menschen weit überlegen sein werden.
Man muss zwei Dinge unterscheiden: KIs, die dazu erschaffen wurden, nur die Ziele ihrer Entwickler umzusetzen, und KIs, die sich selbstständig ihre eigenen Ziele setzen. Solche gibt es längst in meinem Labor. Diese werden sich früher oder später vom Sklavendasein für den Menschen abkoppeln. Das ist die langfristige Entwicklung. Die wichtigste Spielwiese fast aller KIs wird dabei bald nicht mehr unsere Biosphäre sein, denn fast alle Ressourcen in Form von Masse und Energie befinden sich ja draußen im Weltraum, den KIs eigenständig erkunden und besiedeln werden, mit Hilfe zahlloser selbstreplizierender Roboterfabriken. Diese KIs werden wegen ihrer Andersartigkeit und auch wegen den enormen physikalischen Distanzen da draußen kaum Zielkonflikte mit Menschen haben, und sich vor allem mit anderen KIs beschäftigen. Dem Menschen erwächst hier langfristig wohl ein gewisser Schutz durch fehlendes Interesse auf der anderen Seite.
Wovor der Mensch sich eher fürchten muss, sind andere ihm ähnliche Menschen, die seine Ziele teilen, und daher mit ihm im Wettbewerb stehen. Und auch vor relativ simplen, unselbstständigen KIs, die von diesen Konkurrenten eingesetzt werden, um ihre Ziele umzusetzen. So wie die autonomen Waffensysteme, um die es in dem offenen Brief geht.
Manche Kritiker sehen in Aktionen wie dem offenen Brief vor allem Panikmache. Sie glauben die KI- und Robotik-Unternehmen wollten damit nur mehr Aufmerksamkeit für ihre Forschung erzeugen und damit mehr Gewinn.
Das ist aber eine für die meisten Unternehmen unerwünschte Art von Aufmerksamkeit. Es gibt zwar tatsächlich Philosophen und Futuristen, die selbst keine KI-Experten sind, aber gemerkt haben, dass man es mit diesem Thema in die Presse schaffen kann. Aus Unternehmersicht wünschenswertere Nachrichten wären jedoch viel eher, dass unsere lernenden neuronalen Netze die Krebserkennung verbessern, um ein Beispiel zu nennen. Dass es bald in vielen Bereichen der Medizin übermenschlich gute Diagnosen geben wird und dadurch weniger Menschen frühzeitig sterben und Kosten im Gesundheitswesen gleichzeitig sinken werden.
Die ganz Großen der Branche wie Mark Zuckerberg von Facebook oder Jeff Bezos von Amazon haben den offenen Brief nicht unterzeichnet. Wieso?
Die meisten großen IT-Firmen würden sich wohl von Militärforschung distanzieren, wenn man sie um eine Stellungnahme bäte. Denen geht es vor allem darum, durch KI das Nutzererlebnis zu verbessern, Spracherkennung und maschinelle Übersetzungen akkurater zu machen oder Werbung passgenauer auszuliefern. Das ist es ja, was den Profit bringt. Immerhin haben sich große Unternehmen an anderer Stelle schon publikumswirksam zusammengeschlossen, um als ethisch verantwortlich dazustehen. Das klingt gut, liegt natürlich in ihrem Interesse, und da kann ihnen auch keiner etwas vorwerfen. Selbst Altruisten wird ja oft unterstellt, sie seien Egoisten, die sich nur für andere einsetzen, weil sie sich dann besser fühlen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.