Robotik: Denkende Roboter: Selbstbewusste Wesen oder nur kühle Logiker?
Können Roboter sich ihrer selbst bewusst sein? Glaubt man diesem Video auf dem YouTube-Kanal ColdFusion, dann sind sie bis zu einem gewissen Grad dazu in der Lage. Im Zentrum des Clips stehen die programmierbaren Nao-Roboter des französischen Herstellers Aldebaran Robotics.
Im Jahr 2015 hatten Forscher um den Philosophieprofessor Selmer Bringsjord vom Rensselaer Polytechnic Institute (RPI) in New York den Stummschalt-Button der Roboter für einen Test verwendet. Bei zwei von drei neu programmierten Exemplaren aktivierten sie den Knopf. Dann erzählten sie den Naos, mindestens einer von ihnen habe eine Stummschalt-»Tablette« verabreicht bekommen, der oder die andere(n) aber ein Placebo. Anschließend baten sie sie, selbst herauszufinden, ob sie eine Stumm-Tablette erhalten hatten und oder nicht. Einer meldete sich mit der Antwort »Ich weiß es nicht«, korrigierte sich dann aber sogleich mit der Aussage: »Ich konnte beweisen, dass ich die Pille nicht erhalten habe.« Schließlich hatte er ja selbst gesprochen.
Augenblicklich machte der Clip der drei kleinen Roboter die Runde im Internet, immer begleitet von einer Variante des Satzes »Roboter werden sich ihrer selbst bewusst«. Auf dieser Welle reitet auch das Video des in Australien lebenden indischen Ingenieurs Dagogo Altraide.
Eines haben diese Darstellungen jedoch gemeinsam: Es fehlt ihnen an kritischer Distanz. Denn weder die Textbeiträge noch das Video von Altraide werfen die Frage auf, ob das Problem, das die Roboter lösen mussten – eine Variante des klassischen Huträtsels The King's Wise Men –, überhaupt dazu geeignet ist, Bewusstsein zu erkennen.
Kann ein Computer Auskunft über seinen internen Zustand geben, sagen wir, über die Temperatur des Prozessors? Natürlich kann er das. Kann der Computer aus diesem Input und anderen Parametern eine Aussage ableiten, etwa die, dass die Lüfter hochgefahren werden müssen? Na klar, sofern ein Programm diese Entscheidungen implementiert! Solche Reaktionen eines Rechners auf den Input seiner Sensoren sind allerdings prinzipiell nichts anderes als Abfolgen von logischen Schritten, wie sie die Roboter von Bringsjord durchführen. Selbsterkenntnis ist dazu nicht nötig.
In einem Fachartikel zu dem Experiment, das der Philosoph 2015 auf dem »24th IEEE International Symposium on Robot and Human Interactive Communication« vorstellte, kann man das noch einmal genauer nachlesen. Hier lässt sich nachvollziehen, mittels welcher Formeln die Roboter den Test »verstehen« und auf welchem Weg einer von ihnen die logische Schlussfolgerung ziehen konnte, dass er keine Stummschalt-Tablette bekommen hat. In einem Artikel auf »sciencealert« spricht auch Bringsjord selbst nur von einem »logischen und mathematischen Korrelat von Selbstbewusstsein«.
Um es ganz klar zu formulieren: Ein Roboter, der eine logische Schlussfolgerung zieht, muss noch lange kein Bewusstsein haben.
Ohnehin sind das Huträtsel und seine Varianten, anders als von Altraide und anderen behauptet, keine klassischen Tests der Selbsterkenntnis, sondern lediglich etwas interessantere Logik-Rätsel. Bringsjords Test war von dem Oxford-Philosophen Luciano Floridi Artikel in einem Artikel im Fachjournal »Mind and Machines« vorgeschlagen worden. Er sollte Antwort auf die Frage liefern, ob ein vermeintlich handelndes Subjekt vielleicht doch nur ein Zombie ist, ob es also nur scheinbar über Bewusstsein verfügt.
Bringsjords Experiment konnte lediglich zeigen, dass sich Floridis Rätsel mit den richtigen sensorischen Inputs – dem Hören der eigenen Stimme – formallogisch lösen lässt. Das logische System, das hinter dieser Leistung steht, beruht auf einer Erweiterung der Modallogik – ein formalisiertes System, das Bringsjord für viele derartiger Rätsel nutzt.
Fachartikel aus Psychologie und Hirnforschung, die einen solchen Test tatsächlich zur Feststellung von Bewusstsein nutzen, scheint es nicht zu geben. Und auch der Umstand, dass der Nao-Hype nur von kurzer Dauer war, lässt vermuten: Ein echter Test für Selbstbewusstsein sieht anders aus.
Schreiben Sie uns!
Beitrag schreiben