Künstliches Bewusstsein: Mit KI das menschliche Denken verstehen
Die Entwickler künstlicher Intelligenz träumten niemals bloß davon, einen Schachcomputer zu bauen, der einen Großmeister schlägt – oder einen Chatbot zu entwerfen, der versucht, eine Ehe zu zerstören. Es ging ihnen schon immer darum, der menschlichen Intelligenz einen Spiegel vorzuhalten, um sie besser zu verstehen. Insbesondere suchen die Forschenden nach »künstlicher allgemeiner Intelligenz« oder AGI: einem System mit menschenähnlicher Anpassungsfähigkeit und Kreativität.
Große Sprachmodelle wie ChatGPT können inzwischen mehr Aufgaben lösen, als viele Forscher je für möglich hielten. Aber die Systeme machen noch immer Fehler, zudem ist ihre Lernfähigkeit begrenzt. Nachdem sie mit Büchern, Blogs und anderem Material trainiert wurden, friert ihr Wissen gewissermaßen ein. Der einzige Aspekt einer allgemeinen Intelligenz, den sie eindeutig beherrschen, ist die Sprache. Die Sprachmodelle können jeden Satz analysieren, den man ihnen vorsetzt, selbst wenn er fragmentiert oder umgangssprachlich ist, und antworten darauf meist eloquent und verständlich. Bei anderen Aufgaben des alltäglichen Lebens aber versagen sie. »Wir sollten nicht erwarten, dass sie denken können«, sagt die Neurowissenschaftlerin Nancy Kanwisher vom Massachusetts Institute of Technology. »Sie sind reine Sprachverarbeiter.« Sie können zwar geschickt mit Worten umgehen, haben aber keinen anderen Zugang zur Realität als über Text.
Die großen Sprachmodelle verfügen nicht über menschliche Fähigkeiten wie Wahrnehmung oder Gedächtnis und fällen keine Urteile. Unser Gehirn hingegen führt teilweise gleichzeitig ein verwirrendes Durcheinander an Funktionen aus, die in verschiedenen Bereichen des Organs stattfinden. Diese Modularität zeigt sich unter anderem, wenn ein Teil des Gehirns ausfällt. Menschen, die beispielsweise einen Schlaganfall in einem der Sprachbereiche erlitten haben, können vielleicht nicht mehr sprechen – aber sie können immer noch genauso gut Zahlen addieren, Symphonien komponieren, Schach spielen und mit Gesten kommunizieren. KI-Entwickler bauen eine solche Modularität nun auch in ihre Systeme ein, in der Hoffnung, sie intelligenter zu machen.
Ist ChatGPT so aufgebaut wie das Gehirn?
OpenAI ist die Firma hinter ChatGPT und damit Schöpfer des »Generative Pre-trained Transformer« (GPT), der Technik hinter den großen Sprachmodellen. Zahlende Nutzende haben die Möglichkeit, bestimmte Plug-ins des Chatbots auszuwählen, die Mathematik, Internetsuche und andere Arten von Abfragen bearbeiten. Jede dieser Erweiterungen greift auf eine externe Wissensdatenbank zu, die sich auf ein Spezialgebiet bezieht.
Doch auch das GPT-System selbst könnte modular sein. OpenAI hält die genaue Architektur hinter ihrem Chatbot geheim, aber viele Fachleute gehen davon aus, dass es aus bis zu 16 separaten neuronalen Netzen besteht, die ihre Antworten auf eine Anfrage zusammenfassen – sogar wenn unklar ist, wie sie ihre Arbeit aufteilen.
»Wir wollen das Beste aus beiden Welten«Edoardo Ponti, KI-Forscher
Im Dezember 2023 sorgte das französische KI-Unternehmen Mistral für Aufsehen, als es eine quelloffene Version dieser modularen Expertensysteme veröffentlichte. Ein solcher Aufbau ist extrem effizient: Es ist einfacher, 16 kleinere Netzwerke zu trainieren und zu betreiben als ein einziges großes. »Wir wollen das Beste aus beiden Welten«, sagt der KI-Forscher Edoardo Ponti von der Universität von Edinburgh, »nämlich ein System mit vielen Parametern, das gleichzeitig die Effizienz eines viel kleineren Modells bietet.«
Doch Modularität hat ihre Tücken. Zum Beispiel weiß niemand, wie die Gehirnregionen beim Menschen zusammenarbeiten, um ein kohärentes Selbst zu schaffen – geschweige denn, wie eine Maschine das nachahmen könnte. »Wie gelangt die Information vom Sprachsystem zu logischen oder sozialen Systemen?«, fragt die Neurowissenschaftlerin Anna Ivanova vom Georgia Institute of Technology. »Das ist noch offen.«
Bewusstsein als Bestandteil hochentwickelter Intelligenz
Eine provokante These ist, dass das Bewusstsein die gemeinsame Basis bildet. Diese als globale Arbeitsraumtheorie (Englisch: global workspace theory, kurz GWT) bekannte Idee beschreibt das Bewusstsein wie eine Art Mitarbeiterversammlung: ein Ort, an dem Module Informationen austauschen und um Hilfe bitten können. Die GWT ist bei Weitem nicht die einzige Theorie des Bewusstseins – aber sie ist für KI-Forscher von besonderem Interesse, da hier das Bewusstsein ein wichtiger Bestandteil von Intelligenz ist. Bei einfachen oder einstudierten Aufgaben kann das Gehirn auf Autopilot schalten, aber bei neuartigen oder komplizierten Problemen – die den Rahmen eines einzelnen Moduls sprengen – schaltet sich das Bewusstsein demnach ein.
Ben Goertzel von der KI-Firma SingularityNET und andere haben nun einen Arbeitsraum in ihre KI-Systeme integriert. Dabei geht es den Forschenden nicht darum, eine bewusste Maschine zu schaffen. Stattdessen wollen sie die Theorie des Bewusstseins in Hardware umsetzen, um eine menschenähnliche Intelligenz zu erreichen.
Könnten sie dabei ein empfindungsfähiges System mit Gefühlen und eigenen Motivationen erzeugen? Das ist an sich denkbar, auch wenn der Erfinder der GWT, Bernard Baars vom Neurosciences Institute im kalifornischen La Jolla, dies für unwahrscheinlich hält. »Bewusstes Rechnen ist eine Hypothese ohne den geringsten Beweis«, wendet er ein. Sollte es den Entwicklern jedoch gelingen, eine AGI zu bauen, könnte das wichtige Erkenntnisse über die Intelligenz selbst liefern.
»Ich habe während meiner gesamten Karriere viel von der KI gelernt, weil sie die einzige brauchbare theoretische Plattform war, die wir hatten«Bernard Baars, Hirnforscher
Die Arbeitsraumtheorie verdeutlicht, wie sich Neurowissenschaft und KI-Forschung gegenseitig beeinflussen. Die Verbindung der beiden Bereiche reicht bis zum Bilderkennungssystem »Pandemonium« zurück, das der Informatiker Oliver Selfridge in den 1950er Jahren vorschlug. Selfridge stellte sich die Module des Systems als Dämonen vor, die in der Hölle um Aufmerksamkeit buhlen. Sein Zeitgenosse Allen Newell bevorzugte das friedlichere Bild von Mathematikern, die gemeinsam Probleme lösen, indem sie sich um eine Tafel versammeln. Diese Ideen griffen Kognitionspsychologen auf. Etwa 30 Jahre später stellte Baars die GWT als eine Theorie des menschlichen Bewusstseins vor. »Ich habe während meiner gesamten Karriere viel von der KI-Forschung gelernt, weil sie die einzige brauchbare theoretische Plattform war, die wir hatten«, sagt er.
Von Baars Arbeit inspiriert, versuchte der Informatiker Stanley Franklin von der University of Memphis in den 1990er Jahren einen bewussten Computer zu bauen. Unabhängig davon, ob Franklins Maschine wirklich ein Bewusstsein besaß – Baars und Franklin waren skeptisch –, zeigte sie zumindest verschiedene Merkmale der menschlichen Psychologie. So entgingen dem Gerät Informationen, wenn seine Aufmerksamkeit von einer Sache auf eine andere gelenkt wurde. Es war beim Multitasking genauso schlecht wie Menschen.
Etwa zur gleichen Zeit erforschten die Neurowissenschaftler Stanislas Dehaene und Jean-Pierre Changeux vom Collège de France in Paris, welche neuronale Verdrahtung einen Arbeitsraum realisieren könnte. Bei ihrem Schema arbeiten die Module des Gehirns größtenteils unabhängig voneinander; aber etwa jede Zehntelsekunde gibt es eine Art Personalversammlung in Form eines strukturierten Schreiwettbewerbs. Jedes Modul brüllt eine bestimmte Information heraus, und je sicherer es sich ist – je besser ein Reiz beispielsweise mit den Erwartungen übereinstimmt – desto lauter ist es. Sobald sich ein Modul durchgesetzt hat, sind die anderen für einen Moment still, und der Gewinner legt seine Informationen im Arbeitsraum ab. »Es entsteht ein interessanter Prozess der Zusammenarbeit und des Wettbewerbs zwischen den verschiedenen Agenten, die jeweils zu einem kleinen Teil der Lösung beitragen«, erklärt Baars.
Anarchistische Problemlösung
Der Arbeitsraum ermöglicht es den Modulen nicht nur, miteinander zu kommunizieren, sondern er bietet auch eine Grundlage, auf der sie gemeinsam über vergangene Informationen nachdenken können. »Manche Elemente der Realität sind flüchtig, wie eine Empfindung, und verschwinden schnell wieder. Aber im Arbeitsraum hallen sie weiter«, sagt Dehaene. Diese Fähigkeit ist wichtig, um Probleme zu lösen, die mehrere Schritte umfassen oder sich über einen längeren Zeitraum erstrecken. In psychologischen Experimenten hat Dehaene mehreren Probanden solche Probleme vorgelegt und konnte feststellen, dass sie jene bewusst durchdenken mussten.
Ein Arbeitsraumsystem ist anarchistisch. Es kommt ohne Chef aus, der Aufgaben an die Module delegiert. Und tatsächlich ist das Delegieren eine schwere Aufgabe. In der Mathematik gehört die Verteilung von Verantwortlichkeiten auf verschiedene Akteure, um eine optimale Leistung zu erzielen, zu den so genannten NP-schweren Problemen, deren Lösung extrem viel Zeit in Anspruch nehmen kann. In zahlreichen Ansätzen, wie der von OpenAI genutzten modularen Architektur, verteilt ein Netzwerk die Aufgaben gezielt. Dafür muss es zusammen mit den einzelnen Modulen trainiert werden. Das Trainingsverfahren kann allerdings scheitern – und selbst wenn es erfolgreich ist, ist der Verteilungsmechanismus eine Blackbox.
2021 untersuchten die emeritierten Mathematikprofessoren Manuel und Lenore Blum von der Carnegie Mellon University den Kampf um die Aufmerksamkeit im globalen Arbeitsraum. Zentral ist unter anderem ein Mechanismus, der sicherstellt, dass die Module ihr Wissen nicht überschätzen. Außerdem können die Module im Modell von Blum direkte Verbindungen entwickeln, um den Arbeitsraum zu umgehen. Das könnte zum Beispiel erklären, was passiert, wenn wir Fahrradfahren lernen. Sobald die Module gemeinsam herausgefunden haben, wer von ihnen was zu tun hat, klären sie die Aufgabe fortan unter sich. »Dadurch wird die Verarbeitung, die über das Kurzzeitgedächtnis läuft, unbewusst«, sagt Lenore Blum.
Der Vorteil der Begrenztheit
Bewusste Aufmerksamkeit ist eine knappe Ressource. Der Arbeitsbereich bietet nicht viel Platz für Informationen, so dass das siegreiche Modul selektieren muss, was es an die anderen Module weitergibt. Das klingt nach einem Konstruktionsfehler. »Warum sollte das Gehirn die Anzahl der Dinge, über die man gleichzeitig nachdenken kann, begrenzen?«, fragt der KI-Forscher Yoshua Bengio von der Universität Montreal, nur um kurz darauf zu erklären, wieso diese Beschränkung eine gute Sache ist: Sie sorgt für kognitive Disziplin. Da unser Gehirn nicht in der Lage ist, die Welt in ihrer ganzen Komplexität zu erfassen, muss es die einfachen Regeln erkennen, die ihr zu Grunde liegen.
Für Bengio ist das die entscheidende Lektion von GWT für KI: Die heutigen künstlichen neuronalen Netze sind zu mächtig. Sie verfügen über Milliarden von Parametern – genug, um große Teile des Internets zu erfassen. Aber sie neigen dazu, sich in dem riesigen Wust zu verfangen und schaffen es nicht, das große Ganze zu erkennen. Sie könnten besser werden, wenn ihr riesiger Wissensschatz durch einen engen Trichter geleitet würde, ähnlich wie unser bewusster Verstand arbeitet.
Lange bevor Bengio über GWT nachdachte, arbeitete er an einem solchen bewusstseinsähnlichen Engpass. Er war beeindruckt von der Art und Weise, wie sich unser Gehirn auf eine bestimmte Information konzentrieren und alles andere vorübergehend ausblenden kann. Deshalb baute er mit seinen Mitarbeitern Anfang der 2010er Jahre einen entsprechenden Filter in neuronale Netze ein. Wenn zum Beispiel ein Sprachmodell wie GPT auf ein Pronomen stößt, muss es dazugehörige Wörter finden. Dazu hebt es die benachbarten Substantive hervor und blendet die anderen Teile der Sprache aus. Es »achtet« also auf die Schlüsselwörter, die für den Sinn des Textes erforderlich sind. Das Pronomen kann auch mit Adjektiven, Verben und so weiter verbunden sein. Verschiedene Teile eines Netzwerks können gleichzeitig auf verschiedene Wortbeziehungen achten.
Aufmerksamkeit führt zu neuen Problemen
Bengio stellte jedoch fest, dass dieser Aufmerksamkeitsmechanismus ein Problem aufwirft. Angenommen, das Netz vernachlässigt einige Wörter vollständig – was passieren würde, wenn es den entsprechenden Berechnungsvariablen einen Nullwert zuweist. Das würde das Backpropagation genannte Verfahren für das KI-Training durcheinanderbringen. Bei der Backpropagation wird die fehlerhafte Ausgabe des Netzes so lange zurückverfolgt, bis man bei den Berechnungen angelangt ist, die zu dem Fehler geführt haben. Einen Nullwert kann man aber nicht auf diese Weise nachvollziehen.
Deshalb haben Bengio und andere einen »Soft-Attention-Mechanismus« entwickelt, bei dem das Netzwerk nicht übermäßig selektiv ist. Es weist den verschiedenen Optionen eine Gewichtung zu, zum Beispiel, mit welchen Wörtern das Pronomen verwandt sein könnte. Obwohl einige Wörter stärker gewertet werden als andere, bleiben alle im Spiel; das Netzwerk trifft nie eine harte Entscheidung. »Man erhält 80 Prozent von diesem, 20 Prozent von jenem; und weil diese Aufmerksamkeitsgewichte kontinuierlich sind, kann man Backpropagation anwenden«, erläutert Bengio. Der Soft-Attention-Mechanismus war die wichtigste Innovation der »Transformer«-Architektur, das »T« in GPT – jenen neuen Systemen, die hinter den modernen Chatbots stecken.
In den vergangenen Jahren hat Bengio diesen Ansatz überarbeitet, um einen deutlicheren Engpass zu schaffen, der seiner Meinung nach nötig ist, um Netzwerken ein echtes Verständnis zu vermitteln. Ein globaler Arbeitsraum muss eine schwierige Entscheidung treffen – er kann nicht alle Optionen beachten. 2021 entwarfen Bengio und seine Kollegen ein »generatives Flow-Netzwerk«, das regelmäßig eine der verfügbaren Optionen mit einer durch die Aufmerksamkeitsgewichte bestimmten Wahrscheinlichkeit auswählt. Anstatt sich allein auf Backpropagation zu verlassen, trainieren sie das Netz so, dass es entweder in Vorwärts- oder in Rückwärtsrichtung arbeitet. Auf die Art und Weise kann es zurückgehen, um eventuelle Fehler zu korrigieren, selbst wenn es einen Nullwert gibt. In verschiedenen Experimenten hat Bengio demonstriert, dass dieses System Repräsentationen der Eingabedaten auf höherer Ebene entwickelt – ähnlich wie unser Gehirn.
Gesunder Menschenverstand für Gehirnmodule
Eine weitere Herausforderung bei der Implementierung eines globalen Arbeitsraums ist die Hyperspezialisierung. Wie Fachleute mit unterschiedlichen Expertisen schaffen die verschiedenen Module des Gehirns jeweils schwer verständliche Fachausdrücke. Der Sehbereich entwickelt Abstraktionen, um die Sinneswahrnehmungen der Augen zu verarbeiten. Das auditorische Modul erzeugt Repräsentationen, die auf die Vibrationen im Innenohr abgestimmt sind. Wie kommunizieren diese Module also? Sie müssen eine Art »Lingua franca« entwickeln oder das, was Aristoteles als gesunden Menschenverstand bezeichnete. In der KI-Welt ist das besonders wichtig für multimodale Netzwerke, die Text mit Bildern und anderen Datenformen verbinden.
In der GWT-Version von Dehaene und Changeux sind die Module durch Neurone verbunden, die ihre Synapsen anpassen, um eingehende Daten in die lokale Sprache zu übersetzen. »Sie verwandeln die Eingaben in ihren eigenen Code«, sagt Dehaene. Aber die Details sind unklar. Er hofft, dass KI-Forscher, die das gleiche Problem für künstliche neuronale Netze lösen wollen, weiterhelfen werden. »Der Arbeitsraum ist eher eine Idee als eine Theorie. Wir versuchen, ihn zu einer Theorie zu machen, aber er ist immer noch vage. Informatiker haben dieses bemerkenswerte Talent, ihn in ein funktionierendes System zu verwandeln«, schildert er.
Alle Sprachen beziehen sich auf die gleiche Welt
2021 schlugen die Neurowissenschaftler Ryota Kanai, Gründer des in Tokio ansässigen KI-Unternehmens Araya, und Rufin VanRullen von der Université de Toulouse einen Weg vor, wie künstliche neuronale Netze solche Übersetzung vornehmen können. Sie ließen sich dabei von Systemen wie Google Translate und DeepL inspirieren. Diese können zwischen Sprachen übersetzen, ohne dass ihnen beispielsweise explizit gesagt wird, dass »love« auf Englisch das Gleiche bedeutet wie »amour« auf Französisch. Vielmehr lernen sie jede Sprache für sich und leiten daraus Übereinstimmungen ab.
Angenommen, man trainiert zwei neuronale Netze für Englisch und Französisch. Jedes von ihnen erfasst die Struktur der jeweiligen Sprache und entwickelt eine interne Darstellung, die als latenter Raum bezeichnet wird. Im Wesentlichen handelt es sich dabei um eine Wortwolke: eine Karte aller Assoziationen, die Wörter in dieser Sprache haben. In dem Raum liegen ähnliche Wörter nahe beieinander und nicht verwandte Wörter weiter voneinander entfernt. Die Form jener Wolke ist für beide Sprachen die gleiche, denn trotz aller Unterschiede beziehen sie sich auf dieselbe Welt. Indem man die englische und die französische Wortwolke aufeinander abbildet, lässt sich feststellen, dass »love« mit »amour« übereinstimmt. »Man braucht kein Wörterbuch, sondern nur die Konstellation aller Wörter, die in den latenten Räumen jeder Sprache eingebettet sind, und man muss nur die richtige Drehung finden, um alle Punkte in Übereinstimmung zu bringen«, erklärt Kanai.
Da sich das Verfahren sowohl auf ganze Passagen als auch auf einzelne Wörter anwenden lässt, kann man selbst subtile Bedeutungsnuancen und Begriffe erfassen, die in der anderen Sprache keine direkte Entsprechung haben. Eine Version der Methode übersetzt zwischen nicht verwandten Sprachen wie Englisch und Chinesisch. Sie könnte sogar bei der Kommunikation mit Tieren funktionieren.
Latente Räume von Text und Bild passen zusammen
VanRullen und Kanai argumentieren, dass dieses Verfahren nicht nur zwischen Sprachen, sondern auch zwischen verschiedenen Bedeutungen und Beschreibungsarten übersetzen kann. »Man könnte ein solches System schaffen, indem man ein bildverarbeitendes und ein sprachverarbeitendes Modell unabhängig voneinander trainiert, und dann kann man sie tatsächlich miteinander kombinieren, indem man ihre latenten Räume aneinander anpasst«, erklärt Kanai. Wie bei der Sprache ist eine Übersetzung möglich, weil sich die Systeme auf dieselbe Welt beziehen. Diese Erkenntnis ist genau das, was sich Dehaene erhofft hatte: ein Beispiel dafür, wie die KI-Forschung Einblicke in die Funktionsweise des Gehirns geben kann. »Neurowissenschaftler haben nie über diese Möglichkeit der Angleichung latenter Räume nachgedacht«, sagt Kanai.
Um zu sehen, wie solche Prinzipien in die Praxis umgesetzt werden, untersuchte Kanai zusammen mit Arthur Juliani, der jetzt bei Microsoft arbeitet, und Shuntaro Sasai von Araya das Modell Perceiver, das Google DeepMind 2021 veröffentlichte. Es wurde entwickelt, um Texte, Bilder, Töne und andere Daten in einem einzigen gemeinsamen latenten Raum zu verschmelzen. 2022 integrierte es Google in ein System, das automatisch Beschreibungen für die kurzen Videos »YouTube Shorts« schreibt. Das Team um Araya stellte fest, dass Perceiver zwar nicht absichtlich als globaler Arbeitsraum konzipiert wurde, aber die Merkmale eines solchen aufwies: unabhängige Module, ein Verfahren zur Auswahl zwischen ihnen und ein Arbeitsspeicher – der Arbeitsraum selbst.
Eine besonders interessante Umsetzung von arbeitsraumähnlichen Ideen ist »AI People«, ein Spiel des Prager KI-Unternehmens Good-AI, vergleichbar mit Sims. Eine Version davon spielt in einem Gefängnishof mit Sträflingen, korrupten Wärtern und Psychiatern. Aber das Unternehmen plant auch friedlichere Szenarien. Das Spiel nutzt GPT als Gehirn der Figuren: Es steuert nicht nur ihre Dialoge, sondern genauso ihr Verhalten und ihre Emotionen, so dass sie eine gewisse psychologische Tiefe haben. Das System analysiert, ob eine Figur wütend, traurig oder ängstlich ist und wählt ihre Handlungen entsprechend aus. Die Entwickler fügten weitere Module hinzu, darunter einen globalen Arbeitsbereich in Form eines Kurzzeitgedächtnisses, um den Charakteren eine konsistente Psyche zu verleihen und sie innerhalb der Spielumgebung handeln zu lassen. »Ziel ist es, das große Sprachmodell als Motor zu verwenden, weil es ziemlich gut ist, aber dann darum herum ein Langzeitgedächtnis und eine Art kognitive Architektur aufzubauen«, führt Good-AI-Gründer Marek Rosa aus.
»Gebt generative Modelle auf«Yann LeCun, Machine-Learning-Spezialist
Ein potenziell bahnbrechender Fortschritt im KI-Bereich kommt von Yann LeCun von Meta. Obwohl er sich nicht direkt mit dem globalen Arbeitsraum beschäftigt hat, ist er zu vielen ähnlichen Ideen gelangt. Er stellt die derzeitige Hegemonie der generativen Modelle – das »G« in GPT – in Frage. »Ich spreche mich gegen eine Reihe von Dingen aus, die in der Machine-Learning-Gemeinschaft derzeit sehr beliebt sind«, sagt LeCun. »Ich predige den Leuten: Gebt generative Modelle auf.«
Generative neuronale Netze werden so genannt, weil sie neue Texte und Bilder auf Basis ihrer Trainingsdaten erzeugen. Dazu müssen sie sehr genau auf Details achten: Sie müssen wissen, wie ein Wort in einem Satz geschrieben ist und wie die Pixel in einem Bild platziert werden. Aber ein Merkmal von Intelligenz ist eher die selektive Vernachlässigung von Details. Deshalb plädiert LeCun dafür, dass die Forscher auf »diskriminative« neuronale Netze zurückgreifen, wie sie beispielsweise in der Bilderkennung verwendet werden. Diese können Unterschiede zwischen den Eingaben erkennen – zum Beispiel Bilder von einem Hund und einer Katze. Ein solches Netz erzeugt kein eigenes Bild, sondern verarbeitet lediglich ein vorhandenes, um zu bestimmen, was darauf zu sehen ist.
KI lernt, Unwichtiges zu übersehen
LeCun hat ein Trainingsprogramm entwickelt, damit das diskriminative Netz die wesentlichen Merkmale von Texten, Bildern und anderen Daten extrahieren kann. Es ist zwar nicht in der Lage, einen Satz automatisch zu vervollständigen, aber es erstellt abstrakte Repräsentationen, die – so hofft LeCun – jenen in unseren Köpfen entsprechen. Wenn man beispielsweise ein Video von einem Auto einspeist, das eine Straße entlangfährt, sollte die Darstellung Marke, Modell, Farbe, Position und Geschwindigkeit erfassen. Gleichzeitig sollte sie hingegen Unebenheiten auf dem Asphalt, Wellen auf Pfützen und das Glitzern von Grashalmen am Straßenrand ignorieren – alles, was unser Gehirn als unwichtig vernachlässigen würde, wenn wir nicht gezielt darauf achten.
Solche vereinfachten Darstellungen sind für sich genommen nicht nützlich, aber sie ermöglichen kognitive Funktionen, die für AGI wesentlich sein könnten. LeCun bettet das diskriminierende Netzwerk in ein größeres System ein und macht es zu einem Modul einer gehirnähnlichen Architektur. Diese enthält wichtige Merkmale der GWT wie ein Kurzzeitgedächtnis und einen »Konfigurator«, der die Module koordiniert und den Arbeitsablauf festlegt. Das System kann zum Beispiel planen. LeCun hat sich »sehr stark von den grundlegenden Erkenntnissen zur Psychologie inspirieren lassen«. So wie das menschliche Gehirn Gedankenexperimente durchführen kann, um sich vorzustellen, wie sich jemand in verschiedenen Situationen fühlen würde, lässt der Konfigurator das diskriminierende Netzwerk mehrfach durchlaufen und geht eine Liste hypothetischer Aktionen durch, um diejenige zu finden, die zum gewünschten Ergebnis führt.
LeCun sagt, er ziehe ungern Schlussfolgerungen über das Bewusstsein. Aber es gebe eine Theorie, die besagt, dass das Bewusstsein die Arbeit des Konfigurators ist, der in seinem Modell ungefähr die gleiche Rolle spielt wie der Arbeitsraum in Baars' Theorie.
Arbeitsraum gleich Bewusstsein?
Wenn es den Forschern gelänge, einen echten globalen Arbeitsraum in KI-Systeme einzubauen, würden diese dann ein Bewusstsein entwickeln? Dehaene bejaht die Frage, zumindest, wenn die KI mit einer Fähigkeit zur Selbstüberwachung kombiniert wird. Baars ist hingegen skeptisch, auch weil er von seiner eigenen Theorie nicht ganz überzeugt ist. »Ich zweifle ständig daran, ob die GWT wirklich so gut ist«, räumt er ein. Der 2023 verstorbene Franklin äußerte in einem Interview vor einigen Jahren eine ähnliche Skepsis. Er argumentierte, dass der globale Arbeitsraum die Antwort der Evolution auf die Bedürfnisse des Körpers sei. Durch das Bewusstsein lernt das Gehirn aus Erfahrungen und löst die komplexen Probleme des Überlebens schnell. Solche Fähigkeiten, meinte er, seien irrelevant für die Art von Aufgaben, für die KI normalerweise genutzt wird. »Man braucht einen autonomen Agenten mit einem echten Verstand und einer entsprechenden Kontrollstruktur«, sagte er. »Dieser Agent muss eine Art Leben haben – das heißt nicht, dass er kein Roboter sein kann, aber er muss eine gewisse Entwicklung durchgemacht haben. Er wird nicht als vollwertiges Wesen auf die Welt kommen.«
»Bewusstsein ist keine Frage der Intelligenz. Es geht auch darum, lebendig zu sein. Wie intelligent eine universelle KI auch sein mag, solange sie nicht lebt, wird sie wahrscheinlich nie ein Bewusstsein haben«Anil Seth, Neurowissenschaftler
Der Neurowissenschaftler Anil Seth von der University of Sussex in England stimmt dem zu. »Bewusstsein ist keine Frage der Intelligenz«, meint er. »Es geht auch darum, lebendig zu sein. Wie intelligent eine universelle KI auch sein mag, solange sie nicht lebt, wird sie wahrscheinlich nie ein Bewusstsein haben.« Seth vertritt eine andere Theorie des Bewusstseins, die als prädiktive Verarbeitung (predictive coding) bekannt ist. Demnach versucht ein bewusstes Wesen vorherzusagen, was ihm passieren wird, um darauf vorbereitet zu sein. »Das Verständnis des bewussten Selbst beginnt mit dem Verständnis von Vorhersagemodellen für die Kontrolle des Körpers.« Seth hat sich zudem mit der integrierten Informationstheorie befasst, die das Bewusstsein nicht mit der Funktion des Gehirns, sondern mit dessen komplexer vernetzter Struktur in Verbindung bringt. Nach dieser Theorie ist das Bewusstsein kein integraler Bestandteil von Intelligenz, sondern könnte wegen biologischer Effizienz entstanden sein.
So einfallsreich die KI-Forschung auch ist: Das Gehirn ist der einzige Beweis für die Existenz allgemeiner Intelligenz und noch immer das beste Modell, das KI-Forscher haben. »Das menschliche Gehirn hat einige Tricks auf Lager, die die Technik noch nicht beherrscht«, stellt der Neurowissenschaftler Nikolaus Kriegeskorte von der Columbia University fest.
Die Suche nach AGI hat in den letzten Jahrzehnten viel über unsere eigene Intelligenz gelehrt. Wir wissen jetzt, dass Aufgaben, die uns leichtfallen, wie Gegenstände visuell zu erkennen, rechnerisch anspruchsvoll sind. Andererseits sind Dinge, die uns schwerfallen, wie Mathematik oder Schach, für Maschinen sehr einfach. Zudem haben wir begriffen, dass Gehirne nur sehr wenig angeborenes Wissen brauchen; durch Erfahrung lernen sie fast alles Nötige. Und jetzt, durch die Bedeutung der Modularität, wird die alte Weisheit bestätigt, dass Intelligenz keine einzelne Fähigkeit ist. Vielmehr handelt es sich um ein ganzes Bündel davon – vom Jonglieren mit Abstraktionen über die Bewältigung sozialer Komplexität bis hin zur Wahrnehmung von Dingen und Geräuschen.
Das menschliche Gehirn kann durch die Kombination dieser verschiedenen Fähigkeiten in Bereichen brillieren, die es noch nie zuvor gesehen hat, sagt Goertzel. Menschen schaffen neue Musikgenres und lösen wissenschaftliche Rätsel, die frühere Generationen nicht einmal formulieren konnten. Sie wagen den Schritt ins Unbekannte – und eines Tages werden die künstlichen Netzwerke diesen Schritt vielleicht mitgehen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.