: Maschinen mit Selbstbewusstsein
Die KI-Gemeinde ist sich sicher: Die Entwicklung von Künstlicher Intelligenz (KI) wird eines Tages dazu führen, dass hochintelligente Computer und Roboter sich selbst reproduzieren, eigenständig lernen und sich neuen Umweltbedingungen anpassen können. Wann es soweit sein wird, wie weit die Entwicklung geht und wie wir damit umgehen sollten, ist allerdings noch Gegenstand vieler Debatten.
Heute werden "intelligente" Maschinen meist so konzipiert, dass sie unter bekannten Bedingungen genau definierte Spezialaufgaben ausführen können. Die Maschinen von morgen werden autonomer vorgehen. Der Preis dafür: "Je komplexer die Aufgaben werden, die Maschinen übernehmen sollen, umso mehr müssen sie auf sich selbst Acht geben", sagt Hod Lipson, Computer- und Maschinenbau-Ingenieur an der Cornell University im US-Bundesstaat New York. Je weniger die Entwickler die Probleme vorhersehen können, denen ihre Kreaturen begegnen könnten, desto besser müssen die Maschinen in der Lage sein, sich anzupassen und eigenständig Entscheidungen zu treffen. Da sie aber tatsächlich immer mehr Fortschritte dabei machen, das Lernen zu lernen, werden sie – so glaubt Lipson – "auf diese Weise auch Bewusstsein und Selbsterkenntnis erlangen".
Merken wir, wenn sich Unheil zusammenbraut?
Die Antwort auf die Frage, wie Bewusstsein überhaupt entsteht, kennen wir zwar noch nicht. Komplexität scheint jedoch ein Schlüsselbegriff zu sein – was darauf hindeutet, dass Computer mit entsprechend anpassungs- und leistungsfähiger Hard- und Software eines Tages tatsächlich eine Form von Selbsterkenntnis erlangen könnten. Dass sie uns, sobald sie ein entsprechendes kognitives Niveau erlangt haben, den Krieg erklären (wie es im Hollywood-Film "Terminator" geschieht), ist indessen unwahrscheinlich. Zumindest würden die Menschen eine solche Entwicklung kommen sehen, so glauben Experten, bevor sich Unheil zusammenbraut.
Die Einschätzung der künftigen Fähigkeiten von Robotern verdankt sich dem, was wir von Menschen wissen. Diese sind insofern einzigartig, als sie über hinreichend Intelligenz verfügen, um sich aus eigener Kraft immer weiter empor zu arbeiten. Während Tiere in einem "auf ewig starren kognitiven Gefängnis" eingesperrt seien, sagt Selmer Bringsjord, Logiker und Philosoph am Rensselaer Polytechnic Institute in Troy, US-Bundesstaat New York, besäßen Menschen die Fähigkeit, sich von ihren kognitiven Grenzen zu befreien.
Ist wiederum eine Maschine erst einmal in der Lage, ihre eigene Existenz und Konstruktion zu verstehen, kann sie eine verbesserte Version von sich erschaffen. "Das wird eine höchst ungewisse Reise", sagt Will Wright, Schöpfer des Computerspiels "Die Sims" und Roboterfan. Wenn Maschinen zu Selbsterkenntnis gelangen, glaubt er, werden sie als nächstes zu ihrer Selbstverbesserung übergehen. Dann werde es "ziemlich spannend", denn solche Verbesserungen könnten schon binnen Stunden auf nachfolgende Generationen übergehen.
Selbsterkenntnis von Robotern führe also zu ihrer Selbstreproduktion und damit zu besseren Maschinen – ohne dass Menschen an diesem Prozess beteiligt wären, sagt Wright. Mit Blick auf das Schicksal der Menschheit fügt er hinzu: Er selbst habe vor einem solchen Szenario "immer mehr Angst als andere" gehabt. "Dies könnte noch zu unseren Lebzeiten geschehen. Und wenn wir erst einmal mit einer solchen Form von Superintelligenz den Planeten teilen, kann keiner mehr für irgendetwas garantieren."
Kriegführende Maschinen könnten Sorgen bereiten
Doch nicht jeder sieht die Entwicklung pessimistisch. Letztlich folgen Maschinen der Logik ihrer Programmierung. Und wenn man dabei auf die richtige Art und Weise vorgeht, "wird die Maschine keine übermenschlichen Kräfte erlangen", bemerkt Bringsjord. Was uns hingegen Sorgen bereiten könnte, sei die Einführung fortgeschrittener Maschinenintelligenz in Waffen- oder Kampfsystemen. Die nämlich würden dort operieren, wo sie von niemandem überwacht werden könnten. Wenn wir die KI aber verantwortungsbewusst nutzen, "dann gehe ich davon aus, dass wir auch die Kontrolle über unsere Zukunft behalten".
Die Entwicklung hin zu intelligenterer KI würde sich nicht vollziehen "wie eine Invasion von Aliens, die uns abschaffen wollen", stimmt auch der Zukunftsforscher und Autor Ray Kurzweil zu. Maschinen, sagt er, werden einen Pfad einschlagen, der die Evolution des Menschen widerspiegelt. Auch Kurzweil zufolge stehen aber am Ende des Wegs selbstbewusste und sich selbst reproduzierende Maschinen, die von Menschen nicht mehr kontrolliert oder auch nur verstanden werden können.
Völlig unabsehbar sind zudem rechtliche Aspekte dieser Entwicklung. Wie ist das Handeln von Maschinen zu beurteilen, die außerhalb menschlicher Kontrolle agieren? Darüber sollten wir rechtzeitig nachdenken, sagt Lipson. Schon Isaac Asimow hatte ethische Regeln formuliert, die "drei Gesetze der Robotik", die im Kern fordern, dass ein Roboter einen Menschen nicht verletzen sowie nicht zulassen darf, dass ein Mensch verletzt wird. Doch was geschieht, wenn Roboter erst einmal damit beginnen, sich wechselseitig und ohne Beteiligung von Menschen zu programmieren? Asimows Gesetze "setzen voraus, das wir die Roboter programmieren", sagt Lipson.
Wright wiederum fragt sich, warum die Entwicklung der KI-Kreaturen überhaupt von Menschen gesteuert werden soll? "Wer sagt denn, dass die Evolution nicht so verlaufen soll?", fragt Wright. "Hätten etwa die Dinosaurier Gesetze erlassen sollen, dass Säugetiere nicht noch größer werden und sich weiter auf dem Planeten ausbreiten dürfen?"
Schreiben Sie uns!
Beitrag schreiben