Direkt zum Inhalt

Kopf oder Computer


Der Schachwettkampf zwischen Garri Kasparow und dem IBM-Computer Deep Blue im Mai dieses Jahres hat in der Öffentlichkeit reges Interesse geweckt. Was bedeutet der erste Sieg einer mit künstlicher Intelligenz ausgestatteten Maschine über den mit natürlicher Intelligenz begabten Menschen für die Forschungsrichtung, die das Kürzel KI – künstliche Intelligenz – im Schilde führt?

Ritter: Deep Blue ist eine bewundernswerte technische Leistung. Es ist großartig, daß der Schachweltmeister durch eine Maschine geschlagen werden konnte. Aber dieses Spektakel sagt uns auch etwas über unsere Wahrnehmung von Intelligenz: Wir übersehen nur allzu leicht, daß die Art und Weise, in der Deep Blue Schach spielt, gänzlich verschieden ist von der des Menschen. Die Leistung des Computers besteht nämlich in erster Linie darin, mit Hilfe von Algorithmen viele Millionen Schachpositionen sehr schnell absuchen zu können; entscheidend ist die Kunstfertigkeit des Entwicklers, diesen immensen Suchraum gut auszuwählen und auf ein für den Wettkampf handhabbares Maß zu begrenzen.

Der Sieg von Deep Blue führt uns aber auch vor Augen, daß mit heutigen Mitteln bereits technische Lösungen möglich sind, die in engen Spezialgebieten – auf andersartigen Wegen – vergleichbare und teilweise bessere Ergebnisse erzielen können als das menschliche Gehirn. Überall dort jedoch, wo Menschen mit Leichtigkeit Alltagsdinge bewältigen, ohne überhaupt zu ahnen, wieviel Intelligenz sie dafür einbringen, muß sich die künstliche Intelligenz noch wesentlich bescheiden. Schon die Fähigkeiten von Kindern übertreffen vieles, was ein Computer je bewerkstelligen könnte. Bei der Lösung der meisten vermeintlich einfachen Alltagsaufgaben gibt es nur sehr mühsame und langsame Fortschritte in der KI-Forschung.

Einfach doch eben nur für uns, weil uns die Komplexität gar nicht bewußt zu werden braucht?

Ritter: Ja, die Breite der Intelligenz ist im Grunde das eigentlich Schwierige. Nehmen Sie ein Beispiel aus der Natur: Ein Sperling hat Fähigkeiten der Flug-steuerung, die weit über denen eines hochgezüchteten Kampfflugzeuges liegen, und dennoch hat dieser Vogel lediglich das sprichwörtliche Spatzenhirn.

Ich finde, wir sollten uns nicht in unserem menschlichen Stolz gekränkt fühlen, nur weil jetzt die Krone im Schach einer Maschine gehört. Es würde keinen Leichtathleten stören, wenn er von einem Auto überholt wird. Beides läßt sich eben nicht vergleichen.

Es hat niemanden sonderlich gestört, daß Taschenrechner schneller addieren oder dividieren. Aber obwohl auch das bislang erfolgreichste Schachprogramm von Menschen entwickelt und optimiert worden ist, irritiert es viele andere Menschen. Wie kann man, ohne gleich Einsicht in komplexe Software zu vermitteln, ihrem Selbstwertgefühl aufhelfen?

Mainzer: Ich erkläre es gern so: Das menschliche Hirn ist eine Art Zehnkämpfer, das heißt, es beherrscht sehr viele Disziplinen, wenn auch einzelne darunter vielleicht nicht so gut. Ich habe als Philosoph überhaupt kein Problem, von maschineller Intelligenz zu sprechen. Nur ist diese Intelligenz andersartig als jene, die wir dem menschlichen Gehirn zuschreiben.

Der Schachcomputer nutzt seine extrem hohe Speicherkapazität und seine enorme Schnelligkeit in der Datenverarbeitung; darin liegt seine Stärke. Aber die Maschine muß bei jedem Schachzug ihre gesamte Kapazität von neuem ins Spiel bringen – denn für das KI-Programm ist jeder einzelne Zug neu. Der Schachspieler hingegen sieht auf Anhieb ein großes Muster und weiß sofort: Aha, das war damals in dieser oder jener Kombination schon einmal da. Deshalb reagiert er auf eine bestimmte Weise: Er verfolgt langfristige Strategien. Genau das tut die Maschine nicht. Stur rechnet sie nach ihren Algorithmen die Positionen durch und optimiert jeden Zug neu – was wiederum der Schachspieler nie könnte.

Was macht unser Gehirn qualitativ anders, Herr Pöppel?

Pöppel: Das menschliche Gehirn schaltet zum Beispiel, wie es bei mir im Augenblick der Fall ist, langsamer als so ein Artefakt, das gleich auf Hochtouren läuft. Während Sie sprechen, habe ich darüber nachgedacht, und ich habe auch zugehört. Genau das aber ist die besondere Fähigkeit des Menschen: Er kann gleichzeitig zuhören und noch etwas anderes tun, und dazu sind diese Kunsterzeugnisse nicht imstande.

Betrachten wir die Sprachkompetenz. Wir sprechen jetzt miteinander, und dabei nutzen wir, sagen wir einfach: linguistische Kompetenz. Gleichzeitig nutzen wir alle jedoch mindestens sieben verschiedene Partialkompetenzen, die wir in der Hirnforschung identifizieren konnten; sie sind uns beim Sprechen zwar nicht bewußt, aber sie werden genutzt. Wir haben ein Lexikon im Kopf, wir haben syntaktische, semantische, prosodische, phonetische Kompetenz. Überdies nutzen wir eine soziale Kompetenz. Wir reagieren in einer Unterhaltung pragmatisch, wir drücken etwas durch Schweigen aus, wir sehen uns an und sehen uns wieder nicht an. All diese Prozesse sind für eine Verständigung wichtig. Nehmen Sie allein die Bedeutung der prosodischen Kompetenz, der Fähigkeit zu metrisch-rhythmischem Sprechen: In ihr spiegelt sich unsere Emotionalität wieder – ob wir freudig sind, traurig oder erbost, das drückt sich im Rhythmus, im Klang unseres Sprechens aus.

Werden sich nicht auch einmal Leistungen des Hirns wie Gemütsbewegungen mathematisch beschreiben lassen?

Pöppel: Es gibt keinen Akt des Geistes, keine intelligente Handlung, die nicht immer auch schon eingebettet wäre in eine emotionale Bewertung, die aber – wie eine Art Färbung oder Tönung – im Hintergrund bleibt. Ich möchte nicht behaupten, daß es prinzipiell unmöglich wäre, dies alles zu algorithmisieren; aber derzeit ist so etwas einfach Lichtjahre entfernt von dem, was als machbar erscheint.

Das hängt auch damit zusammen, wie wir darüber denken. Wir meinen – in der Tradition des cartesischen Rationalismus – immer noch, wir könnten die einzelnen Teilmengen unserer Intelligenz getrennt voneinander betrachten und behandeln. Die KI-Forschung hat denn ja auch konsequenterweise bisher nichts anderes als Teilmengen menschlicher Fähigkeiten zu definieren und behandeln versucht.

Ein Ausdruck dieser Denkweise sind übrigens diese dummen Intelligenztests, die Fähigkeiten wie Sprache oder räumliches Vorstellungsvermögen als Teilmengen menschlicher Möglichkeiten herausgreifen und getrennt voneinander zu messen und zu bewerten suchen. In Wirklichkeit existieren diese Teilmengen gar nicht für sich und unabhängig voneinander. In unserem Gehirn ist alles gleichzeitig immer auch in andere Kontexte eingebettet.

Das muß aber nicht auf einem Rechner simuliert werden, der den Schachweltmeister schlagen soll.

Pöppel: Richtig. Eben deswegen übt ein Schachspieler eine ganz andere Art von Tätigkeit aus als die Maschine. Im Grunde ist Deep Blue nichts als ein selektiver Intelligenzverstärker. Seine verblüffende Leistung erreicht er nur in einer kleinen Teilmenge menschlicher Tätigkeiten, für die sich Regeln aufstellen lassen, die wir algorithmisieren und für die wir Programme schreiben können.

Meines Erachtens sind viele Vergleiche von Hirn und Computer so abwegig, weil weithin ein völliges Mißverständnis der menschlichen Natur, des menschlichen Geistes vorherrscht, also dessen, was wir als menschliche Intelligenz bezeichnen können. Ist nicht eigentlich eine Konfusion dadurch entstanden, daß wir das Wort Intelligenz in einer sehr liberalen Weise verwenden? Ich glaube, wir müssen erst einmal ein wenig Sprachkultur entwickeln.

Mainzer: In unserer Kultur sind Begriffe wie Intelligenz und Bewußtsein so metaphysisch beladen, daß jeder daherkommen und sagen kann: "Das, was Deep Blue dort vorführt, ist doch nicht Bewußtsein, das ist doch keine Intelligenz." Wie wäre es, wenn wir uns einfach darauf einigen würden, daß die Maschine das Problem so löst und der menschliche Schachspieler anders, und wenn wir uns des weiteren darauf einigen würden, beides intelligent zu nennen oder auch – bescheidener – gelungene Problemlösung? Dann wären beide Leistungen vergleichbar.

Faszinierend an dem Schachspiel Mensch gegen Maschine war doch weniger, daß gleichsam ein Auto einen Rekordsprinter überholt hat. Gruselt nicht vielmehr der Gedanke, daß Maschinen, die uns im Schachspiel besiegen, uns eines Tages auch auf anderen Gebieten ausstechen und man uns mit ihrer Hilfe kontrollieren und manipulieren könnte – vielleicht ohne daß wir es bemerkten?

Ritter: Das ist genau der Punkt. Wir deuten zuviel hinein in die aktuellen Möglichkeiten der künstlichen Intelligenz. Wir befinden uns in diesem Bereich doch noch ganz am Anfang – verglichen mit dem, was uns allen die Natur an Fähigkeiten verliehen hat. Wenn wir uns mit Muster-, Bild- oder Spracherkennung beschäftigen und es nach langen Mühen endlich geschafft haben, eine halbwegs funktionierende technische Leistung für einfache Situationen zu bieten, heißt es: "Das ist ja ganz einfach, das kann doch schon jedes Kind." Vergessen werden dabei Jahrmillionen der Evolution. Was uns Menschen leichtfällt, was reibungslos im Hintergrund abläuft, ohne daß wir uns dessen bewußt werden müßten, Aktionen und Reaktionen, die auch Tiere gut können, das sind genau die Fähigkeiten, die auf Höchstleistungen des Gehirns beruhen. Glücklicherweise spüren wir den immensen Steuerungs- und Koordinationsaufwand in unserem Kopf bei diesen vermeintlich leichten Alltagsaufgaben nicht, sonst würden wir wohl schweißgebadet zittern, wenn wir irgend etwas zustande bringen.

Hingegen stellen jene Leistungen, die auch Maschinen vollbringen können, also etwa logisches Schließen, Rechnen mit Zahlen oder Optimieren von Plänen, beinahe so etwas wie – überspitzt formuliert – einen Mißbrauch unseres Gehirns dar. In der Entwicklung der Wirbeltiere ist das Zentralnervensystem erst zuletzt mit diesen Problemlösungsfähigkeiten ausgestattet worden, so daß um so erstaunlicher ist, daß unser Gehirn das überhaupt so gut kann: Wir treffen die menschliche Intelligenz auf ihrem schwächsten Felde an, wenn wir sie gegen Maschinen Schach spielen lassen.

Mainzer: Dabei handelt es sich bei Deep Blue noch um den klassischen Ansatz der künstlichen Intelligenz, nämlich um ein wissensbasiertes System. Inzwischen kapriziert sich die Forschung gar nicht mehr so sehr auf die Frage, wie perfekt eine Maschine rechnen oder logische Regeln befolgen kann, sondern beschäftigt sich damit, ob eine Maschine sich beispielsweise autonom bewegen, Muster erkennen oder auf Veränderungen im Umfeld reagieren kann, mithin all die einfachen Dinge zu bewältigen vermag, die auch einem Tier mühelos gelingen. Bei der Mustererkennung etwa bemüht man sich mit künstlichen neuronalen Netzen und selbstorganisierenden Systemen um Lösungen. Gegenwärtig ist in der KI-Forschung eine Entwicklung hin zu einer Art Fusion mit den Biowissenschaften, der Gehirnforschung und weiteren Disziplinen zu erkennen.

Ließe sich die Technik, mit der Deep Blue gesiegt hat, noch deutlich verbessern?

Ritter: Man kann in die Algorithmen Lernfähigkeit sowohl mit klassischen Methoden als auch mit neuronalen Netzen einbringen; aber solche qualitativen Erweiterungen des Programms sind dann immer noch eingebettet in die Gesamtstruktur des Rechners, der große Informationsbäume durchsucht. Man wird auch verfeinerte Bewertungsfunktionen integrieren können, die aus der Statistik von Schachpositionen zu gewinnen sind; dabei lernt die Maschine allerdings noch vom menschlichen Vorbild. Läßt man dann lernfähige Programme gegeneinander antreten, werden sie sich gegenseitig hochtrainieren. Mit erheblichem technischem Aufwand könnten Computer also auf diesem Spezialgebiet menschliche Fähigkeiten eines Tages weit übertreffen: Schach ist ausgesprochen gut auf diese klassische künstliche Intelligenz zugeschnitten. Es ist ein symbolisches Spiel. Es gibt 64 Felder, eine feste Anzahl von Figuren und klar definierte Regeln des Ziehens und Schlagens.

Das menschliche Gehirn muß gewöhnlich mit sehr viel weniger scharf definierten Situationen fertig werden. Wir sehen hier auf dem Tisch zum Beispiel ein kompliziertes Arrangement von verschiedenen Dingen. Da sind ganz krummlinige Objekte wie diese Blumen in der Mitte zu sehen...

Pöppel: ... krummlinig, das ist sehr hübsch formuliert.

Ritter: Genau, Herr Pöppel, lassen Sie mich das gleich aufgreifen, "sehr hübsch": Eine derartige Bewertung ist einem Deep Blue nicht zugänglich. Was ist Schönheit, was ist Ästhetik? Diese Qualitäten haben für Maschinen heute überhaupt keine Bedeutung. Für viele Dinge, die Menschen wertschätzen, haben Maschinen gar keine Sensoren. Sie können vielleicht Muster erkennen oder Bildmotive identifizieren, aber deren ästhetische Bewertung erfordert auch die Einbettung in einen kulturellen Hintergrund; und der Hintergrund einer Maschine kann nur ein technischer sein: technische Anforderungen, technische Spezifikationen. Niemals hat sie spezifisch menschliche Erlebniseindrücke wie der Mensch, der heranwächst, eine ganze Geschichte aufnimmt und in sich trägt.

Mainzer: Das klingt, als würden sich schon Grenzen abzeichnen zwischen der menschlichen und der sogenannten maschinellen Intelligenz. Da bin ich skeptisch, denn wir reden doch nicht über Maschinen, die von uns Menschen gerade so wie Schwarzwälder Kuckucksuhren zusammengebaut werden.

Lassen wir nicht außer acht, daß die Informatik sich nun mehr und mehr an den Lernstrategien der Evolution orientiert. Es existiert ja bereits der Begriff artificial life, künstliches Leben, den inzwischen auch die etablierte Informatik akzeptiert. Folgende Entwicklung wird vorstellbar: Man stattet nicht nur einzelne Algorithmen mit Lernfähigkeit aus, wie das bei neuronalen Netzen teilweise geschieht, sondern läßt ebenso wie in der Evolution Populationen von Systemen – ich rede gar nicht mehr von Maschinen – sich optimieren. Dafür gibt es bereits Ansätze. Zumindest auf der Ebene der Software besteht die Möglichkeit, daß Populationen von Automaten unter Evolutionsbedingungen antreten: Sie können also mutieren und sich durch adäquate Anpassung an die jeweiligen Bedingungen verbessern. Man stellt ihnen zum Beispiel eine Klassifikationsaufgabe, und dann schaut man einfach zu, wie sich eine solche Population über Generationen hinweg entwickelt – wie sie sich selbst optimiert, um schließlich die Aufgabe zu lösen. Wohl stecken solche Systeme noch in den Anfängen, aber solcherart künstliches Leben weist doch einen Weg in eine ganz andere Richtung als Deep Blue. Ich fürchte, die beliebte mechanistische Vorstellung, Maschinen und auch Programme würden letztlich immer von uns Menschen zusammengesetzt und blieben somit auch unter unserer Kontrolle, könnte bald passé sein.

Ritter: Diese neuen Strategien verfolgen auch wir schon. Wenn künstliche neuronale Netze bestimmte Fähigkeiten trainieren, läßt sich die genaue Innenstruktur, die sich unter diesen Verfahren bildet, praktisch nicht vorhersagen. Man kann allenfalls im nachhinein die erzeugte Struktur etwa daraufhin untersuchen, ob wir ihr Verhalten als ein Zusammenwirken inhaltlich interpretierbarer und dabei einfacherer Teilfunktionen verstehen können. Dies führt manchmal zum Erfolg, oft ist aber die gesamte Struktur gewissermaßen holistisch für das Verhalten verantwortlich, ohne daß uns darin einzelne, inhaltlich interpretierbare Teilmechanismen erkennbar wären.

Aber der Punkt, um den es hier geht, ist, ob Maschinen prinzipiell begrenzter sind als Menschen oder nicht. Und ich behaupte, daß schon die Frage, ob Maschinen menschliche Intelligenz erreichen oder gar übertreffen könnten, falsch gestellt ist und in die Irre führt: Mit den von Ihnen, Herr Mainzer, genannten Evolutionstechniken wird man sicherlich in absehbarer Zukunft Maschinen entwickeln, die ein extrem hohes Niveau künstlicher Intelligenz erreichen, aber man wird so nicht die Entwicklung, die ein Mensch genommen hat, treffen und nachbilden können. Solche Maschinen werden einfach eine neue Art von Fähigkeiten im Rahmen der zugrunde gelegten technischen Bedingungen haben. Mit dieser höheren Art maschineller Intelligenz wäre jedoch die menschliche mindestens ebenso schwer zu vergleichen wie die Leistung von Kasparow mit der von Deep Blue.

Ganz gewiß ist menschliche Intelligenz etwas, das wir auch in Zukunft als einzige Wesen haben werden; denn wir können sie nicht einfach kopieren, und ihr allmählicher Aufbau würde für ein System das Dasein und die Erfahrungen eines Menschen erfordern. Deshalb wird Technik Menschen auch nicht ersetzen können – sofern wir darauf achten, daß unsere Bewertungsmaßstäbe solche für Menschen sind und sich nicht an technischen Fertigkeiten orientieren, die sich maschinell nachbilden lassen.

Mainzer: Ich stimme Ihnen zu. In der Geschichte der künstlichen Intelligenz traten Pioniere wie der englische Mathematiker und Logiker Alan Turing wirklich mit dem Anspruch an, menschliche Intelligenz simulieren zu wollen. Kein Informatiker, der heute KI betreibt, hat meines Wissens noch diesen Anspruch. Es geht darum, neuartige Systeme zur Lösung von Problemen zu entwickeln – nicht mehr, die Natur zu imitieren.

Herr Pöppel, Sie versuchen herauszufinden, was in unserem Kopf stattfindet, wenn wir sehen, hören, sprechen, denken, fühlen und meinen, wir selbst zu sein. Hilft ihnen die KI-Forschung, besser zu verstehen, wie unsere grauen Zellen das alles bewerkstelligen?

Pöppel: Es ist in der Tat spannend zu sehen, wie zwei ganz verschiedene wissenschaftliche Bereiche – die eher formal orientierte Mathematik des Modellings und die Neurobiologie – zusammenwirken können. Hier entsteht durch fachübergreifende Kommunikation ein immenser Reichtum neuen Wissens auf beiden Seiten.

Dennoch glaube ich, daß eher umgekehrt die KI-Forschung aus der Hirnforschung lernen kann. Zum Beispiel kann sie durch unsere Erkenntnisse ein besseres Verständnis der Grenze zwischen paralleler und sequentieller Informationsverarbeitung bekommen, denn lebendige Systeme verarbeiten Informationen gleichzeitig sequentiell und parallel. Nehmen wir den Sehakt: Wenn ich ein Bild mit meinen Augen scanne, dann ist das ein intelligenter Akt, in dem sequentiell Information abgefragt wird. Gleichzeitig aber laufen auch ununterbrochen parallele Prozesse in den neuronalen Regionen ab, Sinneszellen nehmen gleichzeitig an verschiedenen Stellen des Gesichtsfeldes Informationen auf. Diese Schnittstelle zu finden, an der ein Übergang von paralleler zu sequentieller Informationsverarbeitung erfolgt, herauszubekommen, wie das Gehirn das eigentlich macht, und diesen Vorgang dann zu algorithmisieren – das, glaube ich, wäre eine bedeutende Anregung, die von der Hirnforschung ausgehen könnte.

Sie geben doch nicht nur; wir fragten nach dem Nehmen.

Pöppel: Gewiß, Hirntätigkeiten zu beobachten ist wiederum erst mit der Computertechnologie möglich geworden. Der kreative Einsatz der modernen bildgebenden Verfahren wie der Positronen-Emissionstomographie, die etwa chemische Veränderungen registriert oder die Durchblutung des Gehirns sichtbar macht, der Magnet-Enzephalographie, die elektrische Veränderungen im Gehirn erfaßt, der Kernspin-Tomographie, die Bindungs- und Strukturverhältnisse von Molekülen ermittelt, sowie der Einzelphotonen-Emissionscomputertomographie, einer Variante der Positronen-Emissionstomographie, erlaubten der systemisch orientierten Hirnforschung tiefe Einblicke.

Wir haben durch sie gelernt, daß jede Hirnleistung durch ein raumzeitliches Muster neuronaler Aktivitäten gekennzeichnet ist. Im Gehirn findet nicht immer nur an einer Stelle eine Aktivität statt, sondern bei einem Vorgang sind verschiedene Areale gleichzeitig aktiv, und zwar in einem spezifischen Muster. Welche Muster aber spielen nun beim Sehen, beim Hören, beim Sprechen eine Rolle? Diese Frage ist eine gewaltige mathematisch-kombinatorische Herausforderung, und auf diesem Gebiet können wir künftig überhaupt nicht weiterkommen, wenn wir nicht intensiv mit der Informatik, mit der Mathematik, mit der Simulationsforschung zusammenarbeiten.

Darin liegt aber gerade der Reiz der modernen Neurokognitionsforschung. Im Grunde sitzen wir zusammen. Und wir beide, Herr Ritter und ich, repräsentieren einen Ableger Ihrer Zunft, Herr Mainzer, der Philosophie. Wir diskutieren durchaus Fragen, die im Grunde seit der Antike die Menschen bewegen. In diesem Sinne empfinde ich mich auch als Philosoph.

Mainzer: Die größten Naturphilosophen in diesem Jahrhundert finden sich tatsächlich nicht in der akademischen Philosophie, also nicht irgendwo in einer philosophischen Fakultät, sondern es waren Naturwissenschaftler wie der Physik-Nobelpreisträger Werner Heisenberg und andere, die über Prinzipien der Forschung nachgedacht haben. So verstehe ich die Philosophie, und so ist übrigens auch das klassische Verständnis von Philosophie. Aristoteles, René Descartes, Gottfried Wilhelm von Leibniz – sie alle haben als Forscher über die Prinzipien der Forschung nachgedacht, waren mehrfach qualifiziert, konnten auch in anderen Dingen als den spezifischen eines Faches mitreden. Die älteste Gesellschaft der Naturwissenschaftler, die Leopoldina in Halle, nennt sich fachübergreifend "Deutsche Akademie der Naturforscher". Und so wachsen auch heute scientific communities zusammen, die Forschungsfelder aus unterschiedlichen Perspektiven betrachten und gewichten. Das wird Folgen für die allgemein praktizierte Arbeitsteilung im Wissenschaftsbetrieb haben.

Aber es wird doch häufig beklagt, daß Wissenschaftler unterschiedlicher Disziplinen, die sich gemeinsam mit einem bestimmten Thema befassen wollen, sich wegen ihrer jeweils engen fachspezifischen Ausbildung und Terminologie gar nicht richtig verständigen können. Funktioniert die Kommunikation unter Hirn- und KI-Forschern besser?

Pöppel: Diese schon populäre Annahme, Wissenschaftler unterschiedlicher Disziplinen würden einander nicht verstehen, ist völlig falsch. Herr Ritter und ich hatten kürzlich ein wunderbares Erlebnis, als wir beschlossen, uns zusammen mit rund 40 Leuten aus der klassischen KI, der Robotik, dem Modelling, der Hirnforschung, der Philosophie und der theoretischen Physik acht Tage lang zu einer Konferenz einzusperren: Wir waren zusammengekommen, weil wir dachten, wir könnten nicht miteinander reden, und wollten erste Sprechübungen machen; aber zu unserer Überraschung hatten wir überhaupt keine Schwierigkeiten, miteinander zu sprechen.

Es gibt dafür allerdings eine Bedingung: Alle Beteiligten müssen mit offenem Herzen und offenem Kopf in ein solches Gespräch gehen und bereit sein zuzuhören und – das ist das Kriterium für Interdisziplinarität – gegebenenfalls zuzugeben, daß sie auf einem anderen Gebiet nichts verstehen; sie dürfen nicht blenden und sollten auch in gewisser Weise bescheiden sein, indes doch stolz auf das, was man selber macht und kann. Eigentlich ist es diese Fähigkeit zum Diskurs, die noch weitgehend entwickelt werden muß. Sicherlich können dabei die Wissenschaftler des hochgradig interdisziplinären Themenfeldes natürliche und künstliche Intelligenz mit gutem Beispiel vorangehen.

Ich etwa interessiere mich für zwei Bereiche: die zeitliche Organisation von Prozessen im Gehirn und den Sehakt. Dazu muß man neurobiologisches Wissen haben, also Neuroanatomie betreiben. Ich glaube, eine meiner Entdeckungen – vielleicht meine einzig wirklich wichtige – ist, daß ich durch die Kenntnis der Neuroanatomie etwas für die Psychologie voraussagen konnte, nämlich das inzwischen als Blindsehen bezeichnete und näher untersuchte Phänomen, daß Menschen, die keinerlei visuelle Reize mehr bewußt wahrnehmen, in die Richtung eines Lichtflecks deuten können, wo immer man ihn präsentiert. Um die zeitliche Organisation von Prozessen im Gehirn und den Sehakt zu erforschen, muß man des weiteren auch etwas von Physiologie, von der Psychophysik verstehen; und wenn man psychophysisch arbeitet, landet man schnell in der Physik. Und ohne Informatik geht das sowieso alles gar nicht. Zudem brauchen wir die ganze Technologie. Bei uns ist das inzwischen eine Selbstverständlichkeit.

Noch Ausnahme oder schon die Regel? Sie sagten eben selber, die Fähigkeit zum Diskurs müsse noch weitgehend entwickelt werden.

Pöppel: Das ist es, was eigentlich hinter der Ausrede steckt, unterschiedliche Disziplinen könnten nicht miteinander reden – viele Fakultäten igeln sich ein, entwickeln geradezu eine Bunkermentalität und bestrafen jede Interdisziplinarität als "unwissenschaftlich". Wir müssen dafür kämpfen, daß die Fachgrenzen fallen, denn viele der Probleme, die wir heute zu lösen haben, sind übergreifender Natur. Aus dieser Einsicht gründen wir in München zum Beispiel jetzt ein humanwissenschaftliches Zentrum, in dem Natur- und Geisteswissenschaften zusammenkommen sollen.

Mainzer: Wir sind tatsächlich immer mehr darauf angewiesen, Erkenntnisse aus einer Forschungsrichtung auf eine andere zu übertragen. Das Gehirn ist ein komplexes, lernfähiges und sich selbst organisierendes neuronales System. Die nichtlineare Dynamik der Neuronen und Gehirnareale verführte mich dazu, geradezu von einem Chaos im Kopf zu sprechen. Sie, Herr Pöppel, haben einmal geschrieben, daß es mehr Synapsen, also neuronale Schaltstellen in einem Gehirn gebe als Elementarteilchen im Universum. Die Nichtlinearität, wie die Mathematiker sagen, ist so enorm, daß wir einfach Modellierungsverfahren nutzen müssen, um Komplexität zu reduzieren.

Pöppel: Nun, ich habe mir von theoretischen Physikern sagen lassen, daß es insgesamt vielleicht 1082 Elementarteilchen im Weltall gibt. Dies ist eine kleine Zahl, gemessen an der Anzahl der Verknüpfungsmöglichkeiten des Gehirns: Wir haben rund 1012 Nervenzellen, und jede kann theoretisch von jeweils 10000 anderen Informationen erhalten sowie an wiederum 10000 andere Information weitergeben; dabei ist ein Neuron im einfachsten Falle entweder aktiv oder inaktiv, so daß das Gehirn insgesamt etwa 103000 mögliche Funktionszustände haben kann.

Im Grunde ist diese Betrachtung aber sinnlos, außer daß sie dazu herausfordert, darüber nachzudenken, wie diese ungeheure Informationsflut, die das Gehirn verarbeitet, gebündelt wird, so daß das entstehen kann, was uns auszeichnet: daß wir über Wörter verfügen, daß wir Begriffe bilden können, daß wir ein Bild verstehen, daß wir Kategorien im Kopf haben. Und diese Kategorienbildung hat Konstanz über lange Zeit – eine ungeheure Leistung: Das menschliche Gehirn erfaßt eine Identität und rettet sie über die Zeit hin. Ich denke also, daß die KI-Forschung einiges vom Gehirn lernen kann, insbesondere über den Umgang mit Information und Zeit.

Ritter: Das möchte ich unterstreichen. Die Herausforderung, mit der das Gehirn die Technik konfrontiert, ist ungemein groß. Wenn man einem Ingenieur als Bauteile die Nervenzellen eines Gehirns vorlegte und ihn aufforderte, damit einen Computer zu bauen, würde er sicherlich kaum ein glückliches Gesicht machen: Verglichen mit den ihm vertrauten Bauelementen reagieren Neuronen mit ihren Antwortzeiten von tausendstel Sekunden geradezu entsetzlich träge. Computertransistoren sind heute eine Million mal schneller. Zudem sind Nervenzellen ausgesprochen ungenau; neuronale Signale unterliegen großen Schwankungen von vielen Prozent. Und keine zwei Nervenzellen sind baugleich, sie haben – würde der Techniker sagen – schlechte Maßgenauigkeiten beziehungsweise sehr große Fertigungstoleranzen. Transistoren sind hingegen wesentlich präziser konstruiert. Aber obwohl wir diese schnellen Transistoren haben und damit Bauelemente mit einer Million mal mehr Schaltmöglichkeiten in der gleichen Zeiteinheit und ungleich höherer Präzision als jedes Neuron, sind wir nicht imstande, technisch auch nur annähernd ein so schnelles Bilderkennen und -verstehen möglich zu machen, wie selbst die meisten Tiere es beherrschen. Es wäre zudem auch ein immenser Aufwand, all die taktile Sensorik zu entwickeln, um etwa einen Roboter nach einem Schlüsselbund greifen und den gerade passenden Schlüssel heraussuchen zu lassen; selbst wenn der Roboter zusätzlich "hinsehen" darf, ist dies auch heute eine kaum lösbare Aufgabe. Was unser Gehirn und die Sinnesorgane routinemäßig leisten, fordert die Technik wirklich auf allen Ebenen heraus. Aus diesem wichtigen und komplexen Thema könnte man hervorragend ein nationales Forschungsprojekt machen.

Pöppel: In der Öffentlichkeit und in der Politik besteht heute ja durchaus ein gewisses Interesse an der Erforschung der Welt in uns und nicht mehr allein der Welt um uns – Stichworte: Gene und Neuronen. In der Medizin konnte man schon auf beiden Feldern mit erheblichen Erfolgen aufwarten. Ein Ergebnis ist, daß die Menschen immer älter werden. Das ist wunderbar, aber dadurch gibt es auch neue Risiken. Nervenzellen regenerieren sich nicht, sie sterben spontan ab, und mit dem Alter nehmen auch Erkrankungen des Gehirns zu. Die Demenzen, unter anderem die Alzheimer-Krankheit, sowie Schlaganfall, chronischer Schmerz, altersbedingte Depression und motorische Störungen wie Morbus Parkinson erlangen eine ungeheure gesellschaftliche – und auch finanzielle – Bedeutung. Ich schätze, daß wir gegenwärtig in Deutschland schon jährlich etwa 200 Milliarden Mark für altersbedingte Leiden ausgeben; das ist etwa die Hälfte der gesamten direkten gesundheitsbezogenen Aufwendungen. Über den Statistiken darf nicht vergessen werden, daß die Patienten Individuen sind, die zum Beispiel bei Morbus Alzheimer ihre personale Identität verlieren. Wir reden also nicht nur als Forscher, die Grundlagen erkennen wollen, sondern auch als Menschen, die etwas für sich und als Arzt für den Patienten verstehen wollen. Deshalb finde ich es klug, daß man in Japan im Laufe der nächsten zwanzig Jahre 18 Milliarden Dollar nur in die Hirnforschung investiert. Wir sollten dafür werben, daß auf diesem Gebiet auch in Deutschland mehr geschieht, denn wir haben immerhin einen sehr hohen Standard in der Hirnforschung und kreative Wissenschaftler.

Mainzer: Sie sprechen einen zentralen Punkt an – was ist die Zielsetzung der Forschung? Wir sind von Deep Blue ausgegangen und haben die Möglichkeit erwogen, daß irgendwann Maschinen kommen, die uns bei gewissen Leistungen überholen. Dieser Diskussionsansatz, der nur auf die technische Machbarkeit blickt, ist der aktuellen Forschungsrichtung der KI nicht angemessen, schon gar nicht der Hirnforschung. Beider eigentliches Ziel ist doch eine humane Dienstleistung! Es geht also überhaupt nicht darum, irgendwelche Spielzeug-Butler zu entwickeln, wie einige amerikanische Forscher uns in auflagenstarken Büchern immer wieder suggerieren. Ob uns wirklich irgendwann auf der Straße kleine Homunkuli entgegengedackelt kommen ist nebensächlich.

Hans Moravec, der Direktor des Mobile Robot Laboratory der Carnegie-Mellon-Universität in Pittsburgh, erwartet so etwas in etwa 50 Jahren. An sogenannten intelligenten Zimmern, die ihre Bewohner am Gesicht erkennen und ihre Handlungen interpretieren, sowie an intelligenter Kleidung, die ihrem Träger bei allerlei Verrichtungen assistiert, wird bereits gearbeitet (Spektrum der Wissenschaft, Juni 1996, Seiten 44 und 49).

Mainzer: Das mag ja sein, aber es kommt darauf an, daß die künftige KI-Technik bestimmte nützliche Funktionen besser erfüllen wird, als wir das können, oder solche, die uns versagt sind. Diese Forderung an die Technik ist im Grunde nicht neu, aber wir haben bei ihrer Entwicklung häufig nur die Machbarkeit im Auge. Die Medizin könnte und sollte hier eine Führungsrolle übernehmen; denn sie unterscheidet sich von allen klassischen Naturwissenschaften dadurch, daß es ihr nicht nur um Forschung als reinen Erkenntnisakt geht, sondern darum, daß kranken Menschen geholfen wird. Um größere gesellschaftliche Akzeptanz zu erfahren, müssen wir deutlicher machen, daß die Hirnforschung, aber selbstverständlich auch die KI-Forschung letztlich ihre Bestimmung darin haben, zu heilen, zu helfen und das Leben zu erleichtern. Dann wird Deep Blue aus den Schlagzeilen verschwinden und die Furcht vor den Menschen überlegenen Homunkuli abnehmen.

Der im Mai dieses Jahres verstorbene australische Hirnforscher Sir John Eccles, Nobelpreisträger von 1963, hat immer wieder nachzuweisen versucht, daß es eine unüberbrückbare Grenze gebe zwischen dem Ich, verstanden als Seele oder Bewußtsein, und der Materie des Gehirns, den Nervenzellen. Ist es möglich, eine solche Scheidelinie zu ziehen?

Pöppel: Erkenntnistheoretisch würde man Eccles wohl einen Dualisten nennen; wie die Dualisten etwa zwischen Materie und Geist, Leib und Seele, Welt und Gott unterschieden, so war er der Meinung, daß es zwei verschiedene Substanzbereiche gebe. Man muß aber auch ein bißchen seine Motivation verstehen: Eccles war ein gläubiger Christ, aber auch ein ganz strenger Neurophysiologe. Ich hatte vor einiger Zeit eine lange Diskussion mit ihm und fragte ihn: "Warum setzen Sie sich eigentlich dafür ein, daß der Mensch zum Glauben zurückgeführt wird?" Darauf antwortete er: "Nur im christlichen Glauben besteht eine Chance für die Zukunft, für die Rettung der Welt. Und es ist mir vollkommen egal, ob das nun konsistent ist mit meiner neurophysiologischen Wissenschaft oder nicht." Das heißt, er hat selber diesen Bruch empfunden. Trotzdem hat in gewisser Weise – wohl wissend, daß dies nicht ganz in Ordnung war – sein neurowissenschaftliches Renommee instrumentalisiert für den pädagogischen Zweck, den er im Auge hatte.

Aber wir Neurowissenschaftler, zumindest die meisten, sind pragmatische Monisten, die eigentlich nur eine Art der Substanz anerkennen. Es gibt nämlich überhaupt nichts, was man an Intelligenz selbst im weitesten Sinne nicht definieren könnte. Auch Störungen lassen sich neurobiologisch bestimmen, ob lokale im Hirn oder solche im Transmitterhaushalt, sowie Verluste – bis hin zum Verlust der Identität bei Schizophrenie: Wenn etwas verlorengehen kann, ist das auch gleichsam der Beweis für die Existenz der Leistung, die ein neuronaler Mechanismus normalerweise erbringt. Man hat inzwischen ein riesiges Repertoire elementarer psychischer Leistungen identifizieren können; und das bedeutet, das Gehirn ist tatsächlich modular aufgebaut und mit selektiven Algorithmen – wenn man das so sagen darf – ausgestattet.

Ritter: Auch ich denke, wir sollten nicht versuchen, vorschnell in Bereichen Grenzen zu ziehen, in denen wir noch nicht genug wissen. Wohl wissen wir alle, daß Menschen aus Materie zusammengesetzt sind. Aber diese Materie ist so subtil angeordnet, daß aus uns nicht klaren Gründen im Gehirn so etwas wie ein Bewußtsein zu Hause ist; wir haben noch nicht einmal eine Vorstellung davon, wie auch nur eine Erklärung aussehen könnte, die dieses Phänomen beschreibt.

Wenn wir uns schon um Grenzen kümmern wollen, dann sollten dies gänzlich andere sein: Wir sollten etwa die Frage stellen, welche Experimente man mit Gehirnen anstellen darf. Mutmaßlich kann man in absehbarer Zeit isolierte Gehirne züchten. Das wirft große ethische Probleme auf. Es wird des weiteren möglich sein, zwischen Gehirnen und technischen Geräten Schnittstellen zu errichten, wie man sie jetzt schon in rudimentärer Form nutzt. Glücklicherweise werden Einflüsse von außen und Ableitungen nach außen vermutlich nie so fein steuerbar sein, daß man Gedanken lesen oder strukturiert in die Gedankenführung eingreifen könnte.

Eine wesentliche zweite Frage ist: Was darf man auf der rein technischen Ebene tun? Werden eines Tages Computerprogramme so subtil strukturiert sein, daß man auch in ihnen eine Art von Bewußtsein vermuten muß? Diesem Punkt können wir uns vorerst ebenfalls nur sehr theoretisch nähern – zum einen weil wir von einer solchen Möglichkeit viel zu weit entfernt sind, zum anderen weil wir noch nicht einmal vernünftige Kriterien haben, um zu beurteilen, wann in einem Gehirn ein Bewußtsein sitzt.

Beide Komplexe zu ergründen fehlen uns noch die richtigen Werkzeuge, denn wir haben das Phänomen des Bewußtseins aus der Naturwissenschaft aus durchaus nachvollziehbaren Gründen lange Zeit – bewußt! – herausgenommen, um Komplikationen zu vermeiden. Aber jetzt nähern wir uns allmählich mit unseren Fähigkeiten einem Punkt, an dem wir uns diesen Fragen stellen müssen. Es eröffnet sich eine völlig neue Arena, die wir gar nicht betreten könnten, wenn wir nicht das Gehirn als Vorbild hätten und wenn wir nicht eine intensive Diskussion zwischen den wissenschaftlichen Disziplinen – ich möchte betonen, wirklich zwischen allen Disziplinen – in Gang setzen.

Pöppel: Sie haben das, Herr Ritter, für mich etwas zu negativ dargestellt. Ich glaube schon, daß es uns gelingen wird, sehr viel mehr über Bewußtseinstätigkeit aussagen zu können, wenn wir – das ist allerdings die Bedingung – die ein bißchen irreführende übermäßige Benutzung des Begriffs Bewußtsein aufgeben. Für mich geht es darum, Systemzustände des Gehirns zu beschreiben, und diese stehen für den Zustand "bewußt". Daß wir elektrophysiologische Prozesse identifizieren können, die notwendige Voraussetzung sind für die Bindung räumlich verteilter neuronaler Aktivitäten, ist doch faszinierend. Wir können zeigen, wie in der Anästhesie diese Prozesse ausgeschaltet werden: Wenn bei jemandem die Bindung verteilter neuronaler Elemente aufgehoben ist, dann ist er in Narkose oder eben bewußtlos.

Ein anderer Punkt: Wir haben in vielen verschiedenen Experimenten zeigen können, daß es zeitliche Bindungsphänomene gibt. So wird präsemantisch Information zusammengebunden, bevor man sich etwa eines Begriffes deutlich bewußt ist oder einen Satz formuliert. Ich führe das an, weil ich glaube, daß man die formalen Prinzipien der Informationsverarbeitung schon ein bißchen versteht und in zwanzig Jahren sehr gut verstehen wird – die formalen Prinzipien wohlgemerkt. Es wird allerdings aus prinzipiellen kombinatorischen Gründen in keinem einzigen Falle möglich sein zu sagen, was der Betreffende, dessen Hirnaktivität wir untersuchen, gerade denkt. Wir können nur feststellen, daß er denkt oder – spezifischer – daß er sieht, daß er spricht, ohne seine Augen zu beobachten und ohne ihn zu hören, wenn wir die raumzeitlichen Muster algorithmisch beschrieben haben. Doch in keinem einzigen Falle werden wir die Inhalte nachvollziehen können. Die Individualität wird also immer unangetastet bleiben, denn niemand kann in einen anderen Menschen hineinschlüpfen.

Ritter: Ich bin vielleicht etwas skeptischer, weil ich diese Thematik aus der Sicht der Informatik betrachte. Ich stimme mit Ihnen überein, Herr Pöppel, daß man gute Aussichten hat, Indikatoren zu finden, die Anwesenheit von Bewußtsein in menschlichen Gehirnen aufgrund spezifischer Zustände anzeigen können. Wenn wir allerdings Bewußtsein verstehen wollen, müssen wir meines Erachtens eine Theorie haben, die uns sagt, welche spezifischen Prozesse der Informationsverarbeitung Bewußtsein hervorbringen oder entstehen lassen, und zwar nicht nur in dem speziellen Substrat menschliches Gehirn, sondern allgemein. Wenn wir etwa – ob in 50 oder 500 Jahren – einen autonom agierenden, zudem lernfähigen Roboter entwickelt haben werden, brauchen wir einen Indikator, der uns anzeigt, ob in ihm nun Bewußtsein steckt oder nicht, welche Typen von Programmen bewußtseinsbefähigt sind und welche nicht. Das ganze sieht so aus wie eine sehr komplexe Aufgabe der Mustererkennung, und es ist nicht klar, ob sie eine Lösung haben wird.

Zwei Themen, die eigentlich der von Ihnen, Herr Mainzer, angesprochenen klassischen Philosophie zuzuordnen sind, wurden benannt: Was können wir überhaupt wissen? Was dürfen wir tun? Hat die Philosophie heute Antworten auf die Fragen nach den Grenzen der Erkenntnis und der ethischen Bewertung?

Mainzer: Ich kenne keine erkenntnistheoretischen Grenzen, um es ganz deutlich zu sagen. Deshalb wehre ich mich gegen eine generelle Diskussion über prinzipielle Grenzen. Alle bisher diskutierten Grenzen waren relativ, weil sie bezogen waren auf konkrete Systeme und Maschinen. Ich erinnere mich an das 1972 erschienene Buch von Hubert L. Dreyfuss "What Computers Can't Do: A Critique of Artificial Reason". ("Was Computer nicht können. Die Grenzen künstlicher Intelligenz", Athenäum's Taschenbücher, Bodenheim 1989). Er bezog sich darin auf die Unzulänglichkeiten damaliger Expertenprogramme; einige Jahre später waren jedoch Systeme entwickelt, die einige Funktionen, die er als nicht ausführbar beschrieben hatte, schließlich doch beherrschten. Wir können heute überhaupt nicht wissen, was wir morgen wissen werden.

Wenn wir uns von dem Bild des Kuckucksuhrmachers entfernen und tatsächlich die Systeme sich selber entwickeln lassen – im Sinne der Evolution –, dann weiß ich nicht, wo das enden könnte. Erst dann lautet die Frage: Bis zu welchem Grade wollen wir solche durch Eigendynamik sich selbst organisierenden technischen Prozesse überhaupt zulassen? Über diese ethische Frage müssen wir uns verständigen. Da hilft es nichts, daß wir immer wieder – ganz allgemein – die großen ethischen Prinzipien wie etwa die Menschenwürde beschwören; wir müssen sie wirklich ins Konkrete übersetzen.

Ein Beispiel: Auf einer Tagung im Bonner Forschungsministerium stand vor einigen Jahren die Neurotechnologie auf dem Programm. Ich sollte dazu als Philosoph etwas sagen, und ich hätte aus dem Fundus des Fachs eine Menge kluger Anmerkungen zur Würde des Menschen zitieren können – aber das wäre nicht relevant gewesen. Relevant waren die Systeme, die zur Diskussion standen. Es ging um eine Stand-Gang-Prothese für Querschnittsgelähmte und um ein Implantat auf der Basis adaptiver biologienaher neuronaler Netze für Menschen, die durch die Netzhauterkrankung Retinopathia pigmentosa erblindet waren. Grundsätzliche ethische Fragen standen gar nicht zur Debatte, denn die künstlichen Systeme griffen nur im peripheren Nervensystem an, so daß etwas wie das Bewußtsein überhaupt nicht berührt wurde. Es ging schlicht um Akzeptanzfragen: War es Patienten zuzumuten, sich über Jahre hinweg solchen Experimenten auszusetzen? Ethische Fragen müssen also meiner Ansicht nach konkret von Fall zu Fall untersucht werden.

Ritter: Sie sagten, daß Sie prinzipiell keine Erkenntnisgrenzen ziehen möchten. Ich möchte Ihnen entgegenhalten, daß die Naturwissenschaften in den letzten hundert Jahren auf viele Erkenntnisgrenzen gestoßen sind. In der Quantenmechanik etwa hat uns die Natur gezeigt, daß sie im Bereich der ganz kleinen Dimensionen nicht mehr scharfen Festlegungen genügt beziehungsweise daß wir sozusagen weichere Beschreibungsgrößen wählen müssen, damit die Natur noch beschreibbar bleibt. Ein zweites Beispiel ist die Chaosdynamik. Dort finden wir Gesetzmäßigkeiten vor, die zwar dem Anspruch einer Gesetzmäßigkeit sozusagen auf dem Papier genügen, uns aber trotzdem keine effektive Handhabe geben, die Entwicklung eines Systems vorherzusagen. Es würde mich nun wundern, wenn in einem Bereich, der so komplex ist wie das Geschehen in einem Gehirn, auf uns nicht auch noch Überraschungen warten würden – etwa hinsichtlich der Vorhersagefähigkeit des Verhaltens komplexer Informationsverarbeitungssysteme.

Mainzer: In den beiden von Ihnen gewählten Beispielen kann ich keine Belege für Grenzen finden, ganz im Gegenteil. Die Quantenmechanik hat uns doch gezeigt, daß ein bisher benutztes Schema, nämlich das der klassischen Physik, nur ein Idealfall einer Approximation war. Sie hat uns also keine Grenzen aufgezeigt, sondern vielmehr neue Dimensionen eröffnet und unser Verständnis weit näher an das herangerückt, was wirklich in der Natur geschieht, als dies die idealisierte klassische Physik je konnte. Auch die Chaos-Theorie zeigt uns nicht prinzipielle Grenzen auf, sondern liefert Instrumente, mit denen wir nun hochkomplexe Wechselwirkungen – zum Beispiel nichtlineare Mehrkörperprobleme – wenigstens approximativ zu beschreiben vermögen. Wir hatten solche Probleme zuvor überhaupt nicht im Blickwinkel der Forschung. Jetzt sind wir imstande, damit umzugehen. Konkret: Die Chaos-Theorie sagt uns ja nicht, daß wir keine Wetterprognose machen können, sondern sie sagt uns, was an solchen Vorhersagen sinnvoll ist, und gestattet uns, etwa in der Nähe eines Chaos-Attraktors mit bestimmten Verfahren heute sehr viel besser zu rechnen als vorher. Überraschungen werden wir erleben, sicherlich, aber prinzipielle Grenzen der naturwissenschaftlichen Erkenntnis sind bisher nicht bekannt.

Ritter: Sie haben eine optimistischere Art, Erkenntnisgren-zen einzuordnen, Herr Mainzer. Wir sind unstreitig mit der Quantenmechanik insofern wesentlich näher an der Natur, als sie uns klar sagt, welche Fragen wir gar nicht erst stellen dürfen. Wir müssen deswegen unseren Anspruch, die Natur vollkommen beschreiben zu wollen, etwas reduzieren. Andererseits kann man, wenn man auf die richtigen Fragen eingeht, wenigstens für bestimmte Systeme oder Prozesse doch sehr präzise Vorhersagen machen. Langfristige Wettervorhersagen indes lassen sich nur bei besonderen Wetterlagen, in der Regel aber nicht treffen.

Im Grunde sind die chaotischen Dynamiken diejenigen, die es überhaupt ermöglichen, daß so etwas wie Geschichtlichkeit eintritt, daß trotz des Determinismus die Zukunft nicht schon wie ein offenes Buch vor uns liegt, sondern daß die Natur sich effektiv so etwas wie Entscheidungsfreiheit vorbehalten hat. Auch wenn wir das Gehirn verstehen wollen, müssen wir das Prinzip der Willensfreiheit und der Entscheidungsfreiheit in Einklang bringen mit unseren im klassischen Bereich immer noch deterministischen Naturgesetzen. Es ist sehr zweifelhaft, ob die Quantenmechanik für die Gehirnfunktion irgendeine Bedeutung hat; aber selbst im klassischen Bereich der jetzt schon bekannten dynamischen Gesetze findet die Natur Schlupflöcher, um sich effektiver Vorhersagbarkeit zu entziehen.

Ich halte es durchaus für möglich, daß wir noch qualitativ andersartige Beschränkungen dieser Art finden werden – ähnlich wie die Mathematiker sie gefunden haben: Kein Geringerer als der Mathematiker David Hilbert hatte um die Jahrhundertwende dazu aufgerufen, man möge nach einem Algorithmus suchen, der jede Behauptung maschinell beweisen oder widerlegen kann. Kurt Gödel zeigte dann in den dreißiger Jahren, daß dieser Anspruch unangemessen ist, weil Aussagen formuliert werden können, für die kein solcher Algorithmus existiert.

Es gibt also in der Wissenschaftsgeschichte eine ganze Reihe von Befunden über Fragen, die so nie hätten gestellt werden dürfen. Vielleicht neigen wir angesichts unseres heutigen Bildes von der Funktion des Gehirns auch jetzt zu Fragen, die wir irgendwann in der Zukunft etwas bizarr finden werden, weil sie aus der dann gültigen Perspektive nie hätten gestellt werden dürfen.

Mainzer: Die Gödelschen Sätze beziehen sich auf Formalisierungsgrenzen der Mathematik. Aber selbst hier sind Relativierungen zu beachten. So schließt der zitierte Satz ja nicht aus, daß wir in Teilbereichen Entscheidungsalgorithmen finden, schließt der Gödelsche Unvollständigkeitssatz nicht aus, daß wir unsere Formalisierungen schrittweise erweitern können. So ist es nicht undenkbar, daß die Widerspruchsfreiheit eines formalen Systems wie der Zahlentheorie bei Erweiterung der Beweismittel gezeigt werden kann. Tatsächlich führte Gerhard Gentzen 1936 diesen Beweis. Allerdings ist ein Beweis der Widerspruchsfreiheit für die Mengenlehre ausgeschlossen. Wir müssen also jeweils genau sagen, für welches Gebiet und für welche Methoden wir von Grenzen sprechen.

Pöppel: Fragen Sie irgendeinen theoretischen Physiker, wenn sie gut unterhalten sein wollen, doch einmal nach dem Einstein-Podolsky-Rosen-Paradox, jenem Gedankenexperiment, das Albert Einstein 1935 mit Boris Podolsky und Nathan Rosen publizierte und mit dem er die Quantentheorie hinterfragte: Sie bekommen immer eine sehr lange Antwort, aber interessanterweise ist es immer eine andere. (Vergleiche Spektrum der Wissenschaft, September 1992, Seite 82, und Oktober 1993, Seite 40. Die Redaktion.) Anscheinend ist in der Quantenmechanik ein Phänomen vorhanden – auf das Einstein hingewiesen hat –, mit dem die Nichtgeschlossenheit der Theorie offengelegt wird. Was ich damit sagen möchte: Ich glaube, daß wir für vieles nicht intelligent genug sind und daß wir, wie Herr Ritter angemerkt hat, häufig nicht die richtigen Fragen stellen. Manchmal, meine ich, dürfen wir nicht einmal Fragen stellen. Daß wir über einen gewissen Verstand verfügen verführt uns dazu, manche Dinge anzugehen, für die wir dann gar nicht die ausreichenden mentalen Kapazitäten haben. Wir sollten uns in Bescheidenheit üben.

Ein Beispiel sind die biologischen und neurobiologischen Randbedingungen des Ästhetischen, für die wir sogar ein Programm formuliert haben. In der Dichtkunst, in der Musik, in der Malerei herrscht eine Form der Informationsverarbeitung vor, die implizit im künstlerischen Schaffen und in der ästhetischen Bewertung wirksam wird; implizit heißt, eine Teilmenge des geistigen Geschehens ist vorerst unbewußt und kann nicht rational hinterfragt werden, auch wenn sie genauso logischen Operationen des Gehirns unterliegt wie ein bewußter Akt. Von dieser Teilkultur sollten wir uns doch wohl nicht abkoppeln wollen.

Ritter: Ich finde es geradezu spannend, daß bestimmte Gebiete nur teilweise einer starren Fassung in Algorithmen zugänglich sind: Man kann demnach einen gewissen regelhaften Gehalt abschöpfen und damit einen Teil der Struktur erfassen; aber es stecken ebenso Elemente darin, die im Augenblick nicht in das Korsett einer Regel passen. Bei Vielteilchensystemen zum Beispiel vermögen wir auf der unteren Ebene sehr genau und klar Gesetze zu formulieren, aus denen sich dann auf den höheren Ebenen unter gewissen Umständen äußerst komplexe Verhaltensweisen ergeben, die selbst ihre einfachste Beschreibung sind. Auch wenn man sie einfacher beschreiben möchte – es geht in vielen Fällen nicht, und jede Beschreibung erweist sich als komplizierter als die direkte Simulation anhand der einfachen Gesetzmäßigkeiten auf der unteren Ebene. Das zeigt uns wieder, daß die Natur in Systemen, die eine inhärente Komplexität haben, Grenzen zieht, die eine Vereinfachung nicht zulassen.

In der KI- und der Hirnforschung scheint sich in ungewöhnlicher Weise eine Partnerschaft zwischen Natur- und Geisteswissenschaften entwickelt zu haben. Wird so der Grabenbruch zwischen den oft zitierten "zwei Kulturen", die der englische Physiker und Romancier Charles Percy Snow 1959 als einander fremd dargestellt hat, endlich überbrückt?

Pöppel: Nein, überhaupt nicht. Erinnern Sie sich nur an die Sokal-Affäre, die jüngst weltweit ihre Wogen schlug: Da verzapft ein theoretischer Physiker wie Alan Sokal von der Universität New York absichtlich bizarren Unsinn wie etwa den, daß die bekannte geometrische Konstante Pi nur ein tradiertes kulturelles Konstrukt, mithin eine Variable sei. Und der wird dann von einer angesehenen Zeitschrift für Literaturtheorie, "Social Text", in der Sommerausgabe 1996 unter dem monströsen Titel "Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity" gutgläubig abgedruckt. Trotz Sokals nachträglicher Erklärung, das sei ja nur ein Scherz gewesen, war die Aufregung groß – nicht nur über die Blamage von Kulturtheoretikern, sondern auch über den Autor. Wenn ein Physiker die Parodie einer geisteswissenschaftlichen Kritik an den Dogmen der Naturwissenschaften verfaßt, schlägt er nun einmal den Geisteswissenschaften ins Gesicht. Das ist im tiefsten Grunde unfair. Irgendwie kann man in jeder Zunft die anderen vorführen.

Wir haben den Graben zwischen Natur- und Geisteswissenschaften überhaupt noch nicht überwunden. Wenn wir uns allerdings verdeutlichen, daß alle Wissenschaft aus einer Wurzel stammt, aus der heraus dann das Denken, das Wirken in unterschiedliche Richtungen wuchs, kommen wir der Sache schon näher und können ein wenig toleranter miteinander umgehen. Das Einschotten und den Versuch, einen Wahrheitsanspruch für alles nur aus der eigenen Zunft zu erheben, finde ich unerträglich. Darum freue ich mich, wenn heutzutage vor allem junge Leute Fachgrenzen aufbrechen wollen. Die Doktoranden im Forschungszentrum Jülich zum Beispiel haben sich selber ein sozialwissenschaftliches Programm organisiert, weil sie merkten, daß sie einfach mehr brauchten als das von ihrer jeweiligen Disziplin abgesteckte Feld. Wissenschaftler sollten nicht an einem Fach, sondern an einem Problem orientiert sein – dann können sie den Grabenbruch überwinden.

Ritter: Das Gehirn selbst ist ja geradezu ein Abbild dieser Situation. Es gibt darin mehr Neuronen als Menschen auf dieser Welt, und die einzelnen Zellen und Module müssen ihre Verschaltung im Laufe der ersten Lebensjahre des Individuums so anpassen, daß sie miteinander kommunizieren können. Es ist überhaupt nicht klar, warum verschiedene Areale ihre Codes so ohne weiteres verstehen. Wollen wir Licht in dieses Geschehen bringen, müssen wir auch zwischen den Wissenschaftlern eine Vernetzung zustande bekommen. Schließlich läßt uns das Gehirn sehen, hören, sprechen, denken, analysieren und steuert unsere Bewegungsabläufe, es läßt uns aber ebenso Emotionen, ästhetisches Empfinden und Assoziationen haben. Im Gehirn selbst sind sozusagen Bereiche repräsentiert, für die bisher Einzelwissenschaften zuständig waren. Wenn wir diese nicht verknüpfen, haben wir keine Chance, dieses komplexeste Organ, das wir kennen, zu durchleuchten.

Pöppel: Sie haben gerade etwas sehr Wichtiges angedeutet. Bedenken wir nur die Plastizität des jungen Gehirns, also das Selektionsprinzip des neuronalen Systems: In der frühen Kindheit besteht ein genetisch vorprogrammiertes Überangebot von synaptischen Kontakten, die noch vielerlei Möglichkeiten für die Entwicklung des Gehirns offenlassen; erst im Laufe der Jahre bis etwa zur Pubertät werden durch Bestätigung oder Vernachlässigung die tatsächlich funktionalen Kontakte, die neuronalen Strukturen, endgültig festgelegt. Damit bestimmen die Werte in einer Kultur auch Erfahrungshorizonte, und in diesem Sinne wird Kultur zur Struktur des Gehirns.

Mainzer: Sicherlich ist das Gehirn das komplexeste Organ, das die Evolution hervorgebracht hat. Aber auch die Gesellschaft ist ja ein komplexes System, das statt aus einzelnen Neuronen aus Menschen mit bewußtseinsbegabten Gehirnen besteht, die darin wechselwirken. Das ist nun nicht nur einfach eine Metapher: Es bildet sich ein neues System mit Eigendynamik. Welche neuen Freiheitsgrade entstehen daraus? Was für ein selbstorganisierender Prozeß läuft ab? Durch die Kommunikation von Gehirnen entstehen andere, kollektive Formen von Bewußtsein: Sprach-, Gruppen-, National-, Menschheitsbewußtsein. Diese kulturellen Formen von Bewußtsein bilden sich im Laufe eines historischen Prozesses heraus, und um diese zu beschreiben, reicht die Gehirnforschung allein gewiß nicht aus; nicht chemische, physikalische oder biologische Prozesse helfen bei der Erklärung solcher kultureller Phänomene, sondern Sozial-, Geschichts-, Sprach- und andere Geisteswissenschaften.

Stellen wir uns die Populationen doch einmal als eine Art Superorganismen vor. In den Termitenstaaten zum Beispiel haben die einzelnen Insekten keine Repräsentation von dem gesamten Bau und den gemeinschaftlichen Aktionen; alles, was so aussieht, als stecke dahinter ein intelligenter Plan, wird allein durch chemische Kommunikation gesteuert und erreicht. Erinnert dies nicht ein wenig an die Komplexität der weltweiten computergestützten Kommunikationssysteme mit ISDN-Anschlüssen, Datenbanken und Internet? Und an deren feindliche Organismen, die Computerviren? Kein einzelner Ingenieur hat eine im Detail exakt festgelegte Repräsentation dieses Systems – viele Tausende Ingenieure arbeiten parallel und unabhängig, ohne voneinander zu wissen, über viele Jahre daran.

Ritter: Dennoch müssen wir darauf achten, daß diese so entstehenden Strukturen immer zu unseren Gunsten beeinflußbar bleiben. Wir Menschen sind anders als die Neuronen in unserem Gehirn...

Mainzer:...und als die Termiten. Selbstverständlich. Wir müssen versuchen, durch politisches Handeln, durch ethische Prinzipien, durch Verständigung von Fall zu Fall diesen Prozeß der Vernetzung, obwohl er weitgehend schon an KI-Systeme delegiert wird, im Griff zu behalten. Das ist nicht trivial.

Das Gespräch führten Dieter Beste und Marion Kälke


Aus: Spektrum der Wissenschaft 10 / 1997, Seite 34
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Spektrum - Die Woche – Wie Computer das Lernen lernen

Die Nobelpreise in Medizin oder Physiologie, Physik und Chemie sind vergeben! Erfahren Sie, wie bahnbrechende Forschungen zu microRNA, neuronalen Netzen und Proteinen die Welt verändern.

Spektrum - Die Woche – Warum soziale Medien weniger gefährlich sind, als wir denken

Spektrum Kompakt – Extremwetter

Auf der ganzen Welt sind Menschen von Extremwetterereignissen betroffen. In Zukunft werden sich diese aufgrund des Klimawandels häufen. So nehmen Starkregen, Dürren und Waldbrände auch in Europa zu. Welche Maßnahmen bei Extremwetter gibt es und wie zuverlässig lassen sich »freak events« vorhersagen?

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.