Kognitionswissenschaft: Was KI über unsere Intelligenz lehrt
1996 besiegte das KI-System Deep Blue den amtierenden Schachweltmeister Garri Kasparow. 20 Jahre später schlug AlphaGo einen der weltbesten Go-Spieler, den Südkoreaner Lee Sedol. Heute können KIs einen bösartigen von einem gutartigen Hautkrebs unterscheiden, sie können Autos einparken und militärische Drohnen steuern. Künftig werden sie uns in Gestalt von Haushalts- und Pflegerobotern Gesellschaft leisten. Das wirft viele Fragen auf: Wofür darf man künstliche Intelligenz überhaupt einsetzen? Werden die Systeme intelligenter sein als wir? Müssen sie dafür menschliche Fähigkeiten nachahmen? Und was können wir daraus über die menschliche Intelligenz lernen?
Will man menschliche Intelligenz nachbauen, muss man festlegen, was sie eigentlich ausmacht. Dazu zählen viele verschiedene Fähigkeiten: Werkzeuge gebrauchen, Handlungen planen, Theorien entwickeln, kreativ sein, Sprache verstehen und einige mehr. Sie sind eingebettet in miteinander vernetzte Grundfähigkeiten: sensorische Wahrnehmung, emotionales Bewerten, Handlungssteuerung.
Für uns scheinen viele dieser Fähigkeiten selbstverständlich. Intelligenz machen wir eher an besonderen Fähigkeiten wie einem tieferen Verständnis für Mathematik fest. Beim Vergleich mit KI-Systemen zeigt sich allerdings, wie komplex unsere vermeintlich banalen Fähigkeiten eigentlich sind. In der Geschichte der KI ging man schon zweimal davon aus, dass KI-Systeme bald über solche Alltagskompetenzen verfügen würden: einmal mit der ersten Welle der neuronalen Netze in den 1970er Jahren und das zweite Mal mit der Welle der Expertensysteme Ende der 1980er und Anfang der 1990er Jahre. Beide Euphorien mündeten in einen »KI-Winter« – eine Phase der enttäuschten und gedämpften Erwartungen.
KI-Systeme denken im Moment noch völlig anders als Menschen, so wie Flugzeuge anders fliegen als Vögel, auch wenn sie denselben allgemeinen physikalischen Grundprinzipien folgen
Menschliche Intelligenz und die KI der Gegenwart – mit »Deep Learning« als Kernmethode – weisen radikal verschiedene Architekturen auf. Gehirn und KIs organisieren und verarbeiten zwar beide Informationen über die Umwelt, aber nicht in gleicher Weise: Sie unterscheiden sich zum Beispiel in der Anzahl der Verarbeitungsebenen, deren Vernetzung, in den Mechanismen des Lernens sowie darin, wie Wahrnehmen, Wissen und Handeln miteinander interagieren. Auch wenn die aktuelle KI sehr leistungsfähige Instrumente hervorbringt, kann sie deshalb nur wenig zum Verständnis der menschlichen Intelligenz beitragen: KI-Systeme können auch intelligente Denkleistungen erbringen, aber sie denken im Moment noch völlig anders als Menschen; so wie Flugzeuge anders fliegen als Vögel, auch wenn sie denselben allgemeinen physikalischen Grundprinzipien folgen. Zudem ist die KI weit davon entfernt, menschliche Einsichten zu entwickeln.
Grundlagen der heutigen KI
Die gegenwärtig wohl bekannteste Form der KI stützt sich auf die Methode des »Deep Learning«. Sie benötigt als Input eine sehr große Anzahl von Beispielen, die aus Eingangs- und Folgedaten bestehen, zum Beispiel Bildern und zugehörigen »Labels« wie »Katze« oder »Hautkrebs«. Daraus lernt sie statistische Muster und baut so eine komplexe Netzwerkstruktur auf, mittels der sie Vorhersagen für neue Eingangsdaten berechnen kann, etwa das passende Label für ein Bild. Das Lernen besteht darin, Unterschiede zwischen vorhergesagten und beobachteten wahren Folgezuständen zu verarbeiten, um die Netzwerkstruktur und die Gewichtungen von Netzwerkknoten so zu verändern, dass der Vorhersagefehler so klein wie möglich wird. So lernt das KI-System aus den Rückmeldungen, die Beispiele mit den korrekten Vorhersagen zu verbinden.
Einem KI-System steht in der Regel für eine spezifische Aufgabe eine viel größere Datenbasis zur Verfügung als dem Menschen. Während die besten Schachspieler auf viele zehntausende Partien Schach zurückgreifen können, kann die KI problemlos mit Millionen von Partien gefüttert werden. Dadurch können Deep-Learning-Systeme statistische Regelmäßigkeiten entdecken, die dem Menschen nur schwer oder gar nicht zugänglich sind. Allerdings funktioniert dies bislang nur bei eingeschränkten, klar definierten Aufgaben.
Was genau versteht man darunter? Beim Schach gibt es eine endliche Anzahl an Feldern, Figuren und Regeln, die eindeutig bestimmen, in welchem Zustand das Spiel ist und welche Züge als Nächstes möglich sind. Wann immer eine KI bislang eine Aufgabe besser löste als der Mensch, handelte es sich um solche klar definierten Aufgaben. Somit mag man annehmen, dass KI-Systeme prinzipiell jede genau definierte, endliche Einzelaufgabe, für die es hinreichend viele Lernbeispiele gibt, besser bewältigen können als der Mensch.
Was aber passiert bei unscharf definierten Aufgaben? Wie sieht es aus, wenn die Aufgabe erst gelernt werden muss und sich die Spielregeln oder Ziele mit der Zeit verändern? Sind wir Menschen einer KI prinzipiell und uneinholbar überlegen, sobald die Rahmenbedingungen unscharf und die Aufgaben, Regeln oder Ziele veränderlich sind?
Ein Autofahrer etwa muss gleichzeitig die Verkehrssituation beobachten sowie eine unübersichtliche Baustelle durchfahren, und das bei allen Wetter- und Lichtverhältnissen. Können selbstfahrende Autos das bewältigen? Zurzeit befinden sich Spezialsysteme zum Erkennen von Gegenständen, Menschen, Gesichtern und auch Verkehrssituationen in rasanter Entwicklung. Wenn man sie miteinander koppelt, so die Hoffnung, könnte das Auto der Zukunft womöglich im üblichen Straßenverkehr weniger Unfälle verursachen als ein durchschnittlicher Autofahrer. Doch dazu braucht es nicht nur funktionierende Spezialsysteme, sondern auch einen allgemeinen Alltagsverstand, der die Spezialsysteme koordinieren und grobe Fehler feststellen kann. Genau hier unterscheiden sich Mensch und heutige KI-Systeme in dreierlei Hinsicht.
1. Künstliche Intelligenz ist nicht robust
KI-Systeme können für ungewöhnlich grobe Fehler anfällig sein. Wenn eine KI mit vielen Beispielen darauf trainiert wurde, Fotos von Autos und Fotos von einem Vogel Strauß zu erkennen, dann kann sie diese zwar im Prinzip sehr gut unterscheiden. Trotzdem können systematische Fehler auftreten: Es ist möglich, das Bild eines Autos gezielt so minimal zu ändern, dass wir Menschen die Änderung nicht wahrnehmen, aber die KI es als Vogel Strauß fehlklassifiziert. Prinzipiell kann man ein KI-System robuster machen, indem man es erlernen lässt, dass diese abweichenden Beispiele für Autos ebenfalls als solche zu klassifizieren sind. Aber das Grundproblem bleibt bestehen: Das KI-System hat lediglich eine statistische Verallgemeinerung gelernt – unter Verwendung einer großen Zahl von Stellschrauben in einem künstlichen neuronalen Netzwerk.
Im Kontrast dazu entsteht im menschlichen Gehirn zusätzlich die Fähigkeit, mentale Modelle von unserer Erfahrung zu bauen und somit systematisch über die aktuellen Sinneseindrücke hinaus weit reichende Schlüsse zu ziehen, die sogar Erklärungen ermöglichen. Eine Form von Erklärungsstruktur wird auch als generatives Modell bezeichnet. Es beruht auf einer Vielzahl von Erfahrungen, und mit seiner Hilfe generiert unser Gehirn aus einer bestimmten Sinneswahrnehmung ein internes Hypothesenbild, zum Beispiel darüber, in welche Richtung das Auto gerade fährt und welche anderen Objekte es verdecken. Solche Hypothesenbilder sind deutlich robuster als die klassifikationsorientierten Systeme, die dem Deep Learning zu Grunde liegen. Ein Auto wird von Menschen niemals als Vogel Strauß fehlklassifiziert, weil wir verschiedene und allgemeinere Strategien der Modellbildung zur Verfügung haben, die solche groben Fehler verhindern.
2. KI-Vorhersagen mit Deep Learning sind schwer zu erklären
KI-Systeme lernen, korrekte Vorhersagen zu treffen, indem sie Stellschrauben anpassen – also die Gewichte, mit denen sie Informationen verarbeiten. Dadurch erkennen sie Muster in den Daten. Die resultierenden statistischen Regeln sind über das gesamte Netzwerk verteilt; wir können die Regeln kaum oder gar nicht verstehen und schon gar nicht direkt anpassen. Das System ist nicht darauf trainiert, nachvollziehbare Vorhersagen zu treffen, auch wenn neuere Ansätze daran arbeiten: Man kann das KI-System zwar darauf programmieren, die relevanten Pixelmuster sichtbar zu machen, die einer Klassifikation zu Grunde liegen. Aber diese Pixelmuster lassen sich in den seltensten Fällen einem für uns nachvollziehbaren Merkmal in der äußeren Welt zuordnen. Ein Beispiel aus der Gesichtserkennung: Entsprechen die Pixelmuster einem abstrakten Strichgesicht oder eher einem anderen systematischen Kontrastmuster, welches sich von unseren Merkmalsklassen unterscheidet? Das bleibt offen.
Bisher stützen sich KI-Systeme auf gelernte statistische Regelmäßigkeiten, ohne diese auf einer Metaebene zu erfassen und so zugänglich zu machen, dass wir sie begreifen könnten. Selbst wenn ein KI-System dies lernen würde, fehlt ihm immer noch das Verständnis für relevante kausale Beziehungen. Denn es bildet lediglich Zusammenhänge zwischen Eingangs- und Ausgangsdaten ab, nicht aber Ursache und Wirkung. Deshalb können sich künstliche neuronale Netzwerke bislang einfaches Weltwissen nicht selbst erschließen.
3. Künstliche Intelligenz ist weniger flexibel
Deep Learning stützt sich nur auf Lernalgorithmen, die nach Ähnlichkeit bewerten. Wir Menschen haben viele verschiedene Lernstrategien zur Verfügung. Wir können aus einer einzigen Erfahrung lernen, etwa wenn wir uns die Finger verbrennen. Wir lernen, indem wir andere beobachten oder deren Verhalten nachahmen. Wir können auf Anhieb wesentliche Merkmale erfassen, zum Beispiel Ursache-Wirkungs-Zusammenhänge, und auf diese Weise Folgen vorhersagen und Handlungen planen. Wir können oberflächliche Ähnlichkeiten ignorieren, wie die zwischen Delfinen und Fischen. Unser theoretisches Wissen bewahrt uns vor einem Fehlschluss: Der Delfin ist kein Fisch, sondern ein Säugetier. Wir kombinieren also verschiedene Lernstrategien und Wissensbestände, um Fehler zu vermeiden.
Ein Kennzeichen menschlicher Kognition ist, dass wir uns einerseits an neue Situationen anpassen können, andererseits die gleiche Situation mal so, mal so bewerten. Kognitive Flexibilität – und nicht kognitive Höchstleistung – ist ein zentrales Merkmal menschlicher Intelligenz. Die Grundidee, dass künstliche Intelligenz einfach nur einzelne Leistungen des Menschen imitieren muss, um menschliche Kognition nachzubauen und zu verstehen, erscheint naiv. Damit das gelingen kann, muss sie verschiedene Lernformen und Interaktionen zwischen einzelnen Lernmodulen in ihre Netzwerkarchitektur integrieren.
Die drei Ebenen intelligenter Systeme
Gibt es denn überhaupt keine Gemeinsamkeiten zwischen menschlicher und künstlicher Intelligenz? Der britische Neurowissenschaftler David Marr beschreibt intelligente Systeme auf drei Ebenen. Auf der ersten, komputationalen Ebene geht es darum, was die Informationsverarbeitung leistet, zum Beispiel ein Objekt anhand bestimmter Merkmale zu erkennen. Hier sind fundamentale Erkenntnisse der KI auf die menschliche Kognition übertragbar, denn die allgemeinen Prinzipien der Informationsverarbeitung gelten für alle Systeme, ob Mensch, Tier oder Computer.
Auf der algorithmischen Ebene geht es um den Weg zur Lösung, zum Beispiel, wie einzelne Merkmale kombiniert und verarbeitet werden, um ein Objekt zu identifizieren. Allerdings kann es viele verschiedene Algorithmen geben, die dasselbe komputationale Problem lösen. Um von der KI auf den Menschen zu schließen, greift man jene heraus, die dessen kognitive Architektur am besten abbilden.
Auf der Implementationsebene wird der Algorithmus entweder biologisch im Gehirn oder technisch in einem elektronischen System realisiert (»implementiert«). Damit man Mensch und KI vergleichen kann, muss das künstliche Netzwerk im Computer dem neuronalen Netzwerk im Gehirn entsprechen. Letzteres beinhaltet jedoch viele, teils unverstandene biochemische Prozesse, die das künstliche neuronale Netzwerk nicht abbildet. Dadurch verschwinden Gemeinsamkeiten zwar nicht völlig, aber es besteht die Gefahr, dass sie relativ abstrakt bleiben. Schlussfolgerungen von der KI auf die neuronale Verarbeitung des Menschen sind so bisher nur sehr eingeschränkt möglich.
Biologie versus Physik
Der Mensch bringt eine kognitive Architektur mit, die biologisch im Gehirn verankert ist. Die Grundmechanismen der Selbsterhaltung sorgen für Atmung, Körpertemperatur, Kalorienzufuhr und vieles mehr. Daraus resultieren die Grundbedürfnisse nach Nahrung, Schlaf, körperlicher Unversehrtheit, Zugehörigkeit, Sexualität und sogar Neugierde. Darauf gründen auch unsere Emotionen. Als biologisch-soziale Wesen verfügen wir über Empfindungen, Gefühle und Empathie. Das fehlt es jedem heutigen KI-System: Auch wenn es darauf trainiert wurde, kann es Grundbedürfnisse und Emotionen bestenfalls simulieren.
Meist wird das damit begründet, dass KI-Systeme über kein bewusstes Erleben verfügen. Aber das ist zu kurz gedacht, denn auch der Mensch verarbeitet vieles unbewusst. Entscheidend ist vielmehr, dass eine KI kein biologisches Gleichgewicht halten muss, um sich selbst zu erhalten, und damit auch keine Regulationsmechanismen braucht. Unsere Grundbedürfnisse motivieren uns Menschen unter anderem dazu, unsere physische und soziale Umwelt zu erkunden. Dadurch entwickeln wir ein Modell der Welt und Annahmen über Ursache-Wirkungs-Zusammenhänge.
Somit sind unsere biologisch verankerten Kognitionen vielfältiger und anders vernetzt als heutige KI-Systeme. Wir nehmen Objekte nicht einfach passiv wahr, sondern explorieren sie aktiv und erkennen im Voraus, was wir mit ihnen tun können. Unsere Wahrnehmung ist geprägt von unserer Kultur und unseren Erfahrungen; unsere Gedanken gründen in unseren Wahrnehmungen und Empfindungen. Darin liegt ein radikaler Unterschied: Heutige KI-Systeme sind Fachidioten für Spezialaufgaben oder verknüpfte Module für komplexe Aufgaben, aber beiden fehlt es weiterhin an Gefühlen und an Alltagsverstand.
Wohin soll es gehen?
Wenn künstliche Intelligenz dazu beitragen soll, menschliche Intelligenz grundlegend zu verstehen, dann muss sie biologisch und situativ eingebettet sein. Anders gesagt: Eine robuste, flexible KI nach menschlichem Vorbild muss ein biologisch motiviertes lernendes System sein, das mit untereinander verknüpften Modulen ausgestattet ist und das Erwartungen über die Umwelt bildet. Ein derartiges System könnte eine tiefe Einsicht in die menschliche Kognition geben – inklusive deren Entwicklung – und eine künstliche Intelligenz hervorbringen, die ihren Namen verdient.
Wie ähnlich können uns solche KI-Systeme werden? Darüber kann man nur spekulieren. Die neurobiologischen Grundlagen unseres bewussten Erlebens sind noch nicht hinreichend entschlüsselt. So bleibt ein Nachbau von bewusstem menschlichem Erleben mit der heutigen KI-Technik bis auf Weiteres unmöglich. Ebenso ist bisher nur in Teilen verstanden, wie Wahrnehmungen und Entscheidungen, Empfindungen und Emotionen vernetzt sind. Doch eines Tages werden wir voraussichtlich KI-Systeme entwickeln, die den Gefühlszustand eines menschlichen Gegenübers berechnen und berücksichtigen können. Sie werden nicht nur auf Korrelationen beruhen, sondern Ursache-Wirkungs-Zusammenhänge abbilden. Für diese Architekturen wird sich die Frage neu stellen, in welchem Maß sie menschliches Denken nachbauen können.
Ob wir mittelfristig mit autonomen Robotern zusammenleben werden, die wir nicht von Menschen unterscheiden können: reine Spekulation. Es wird jedoch intelligente Arbeitsmittel geben, die als individualisierte Instrumente mit uns verschmelzen – wie es Smartphones bereits tun. In der Medizin ist zu erwarten, dass KI unsere kognitiven Fähigkeiten erweitert und Gehirnimplantate kognitive Einschränkungen zumindest teilweise kompensieren, wie schon heute die tiefe Hirnstimulation bei Parkinson. In der etwas weiteren Zukunft könnte es auch ganz anders organisierte künstliche Systeme geben, die ein tieferes, kausales Weltverständnis aufweisen. Idealerweise werden solche Systeme die Menschen unter anderem in ökologischen und ökonomischen Fragen beraten. Solch eine starke KI birgt Gefahren, aber auch das Potenzial, globale Probleme zu lösen.
Literaturtipps
Butz, M. V., Kutter, E.F.: How the Mind Comes into Being. Oxford University Press, 2017.
Newen, A., de Bruin, L., Gallagher, S. (Hg.): The Oxford Handbook of 4E Cognition. Oxford University Press, 2018.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.