Direkt zum Inhalt

Springers Einwürfe: Fehlbare Instrumente der Erkenntnis

Mit künstlicher Intelligenz lassen sich Probleme lösen, an denen Menschen scheitern. Aber auf dem Weg zu besserer Wissenschaft laufen die Programme Gefahr, den gleichen Illusionen zu erliegen wie ihre Schöpfer.
Rosafarbener Staub explodiert aus dem zerreißenden Kopf eines abstrakt gehaltenen, bläulichen Androiden
Hinter dem Anschein makelloser Objektivität steckt auch bei Algorithmen die Sprengkraft menschlicher Fehlbarkeit.

Im März 2017 erschien in »Spektrum der Wissenschaft« eine Sciencefiction-Story von Ted Chiang, während in den Kinos noch der hochgelobte Film »Arrival« lief, nach einer anderen Kurzgeschichte desselben Autors. Bei »Spektrum« fingierte Chiang eine »Offizielle Erklärung zum Stand der menschlichen Forschung«, angesiedelt im Jahr 2117. In jener Zukunftswelt wird die Menschheit daran scheitern, die von Trägern künstlicher Intelligenz – so genannten Metamenschen – gelieferten Forschungsresultate nachzuvollziehen. Fachzeitschriften können nur noch »Berichte aus zweiter Hand« liefern – »Übersetzungen in die menschliche Sprache«.

Wenn man aktuellen Meldungen über das Potenzial lernfähiger Maschinen lauscht, könnte man fast meinen: Gleich ist es so weit! KI-Programme kreieren Proteinfaltungen, auf die weder der Mensch noch die Natur bisher gekommen sind; sie entwerfen Medikamente und Materialien mit ungeahnten Eigenschaften; sie führen mathematische Beweise, denen kaum jemand zu folgen vermag. Werden lernfähige KI-Steuerelemente demnächst die notorisch instabilen Plasmen in Kernfusionsreaktoren zähmen und so der Menschheit schneller zu dieser lange vergeblich erstrebten Quelle unerschöpflicher Energie verhelfen?

Auf den ersten Blick ist die künstliche Intelligenz der natürlichen schon heute überlegen. Sie verarbeitet in Windeseile riesige Datenmengen, wird nie müde oder unaufmerksam, und am Ende serviert sie ein eindeutiges Ergebnis mit der geballten Autorität eines sich selbst verbessernden Systems. Die lernfähige Maschine präsentiert sich als eine autonom agierende, in den Details undurchschaubare Blackbox, die quasi ein Innenleben besitzt. Man könnte versucht sein, darin den Keim eines Verstandeswesens zu ahnen, welches sich eines Tages zu Chiangs »Metamenschen« entwickeln wird.

Die Vision einer schönen neuen Welt, in der wir am Ende bloß mehr oder weniger verständnisvoll zusehen, wie autonome Apparate die Forschungsarbeit erledigen, hat aber nicht nur ihre euphorischen Propheten. Als Spielverderberinnen melden sich die Anthropologin Lisa Messeri von der Yale University und die Psychologin Molly Crockett von der Princeton University zu Wort. Sie warnen davor, den wissenschaftlichen Erkenntnisprozess kritiklos an Algorithmen zu delegieren. Das wecke die Illusion, man verstehe die Welt immer besser, ohne dass dies tatsächlich der Fall sei.

Dagegen betonen Messeri und Crockett: Sowohl die Daten als auch die Algorithmen stammen von fehlbaren Menschen – und sind unweigerlich von impliziten Vorentscheidungen und Vorurteilen geprägt. Die Inputs tragen die Spuren einer »wissenschaftlichen Monokultur«, die von bestimmten Denktraditionen geprägt ist sowie von der Eigenart des akademischen Milieus.

Zwar hat – vor allem in den USA, aber nicht nur dort – eine Diskussion über mangelnde Diversität der Forschenden begonnen, aber allein die achtlos oder nach gewissen Strategien selektierte Datenmasse bewirkt eine Tendenz zum Business as usual. Während diversifizierte Teams dazu neigen, übliche Verfahren in Frage zu stellen, einander mit Rückfragen auf die Nerven zu gehen und Neues auszuprobieren, zementiert die automatische Anwendung bewährter Algorithmen das methodische Einerlei.

Gut, dass eine Anthropologin und eine Psychologin daran erinnern, dass Naturforschung eine soziale Aktivität ist, deren Automatisierung falsche Gewissheiten suggeriert und die methodische Innovation hemmt. Obendrein, so die Autorinnen, sind die KI-Systeme in der Hand privater Firmen, die ihr Produkt als Betriebsgeheimnis hüten. Eine patentierte Intelligenz widerspricht dem Ideal transparenter Forschung.

  • Quellen

Messeri, L., Crockett, M. J.: Artificial intelligence and illusions of understanding in scientific research. Nature 627, 2024

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.