KI-Forschung: Was hat uns die Zukunft gebracht?
Im Jahr 1997 besiegte der Schachcomputer Deep Blue den Weltmeister Garri Kasparow. Über die Bedeutung dieser Großtat der künstlichen Intelligenz diskutierten damals drei Experten in "Spektrum der Wissenschaft" (Heft 10/1997). Heute, fast genau 20 Jahre später, fielen mit Go und Poker zwei weitere Bastionen menschlicher Überlegenheit im Spiel. Und erneut bitten wir Klaus Mainzer, Ernst Pöppel und Helge Ritter um ihre Einschätzung.
Auf dem 3. Zukunftskongress "Technik zum Menschen bringen" des Bundesministeriums für Bildung und Forschung (BMBF) diskutieren die drei Wissenschaftler über Durchbrüche, die keiner auf dem Plan hatte, mangelnden Erkenntnisfortschritt und ob der digitale Neandertaler überhaupt noch eine Zukunft hat.
Mainzer: Was mich an der Entwicklung der letzten 20 Jahre überrascht hat, und das haben wir damals nicht vorausgesehen, sind das exponentielle Wachstum der Rechenkapazität und der Datenmassen sowie auch die Bedeutung der Sensortechnologie. Die Dinge sind heute miteinander vernetzt, kommunizieren, wir haben das Internet der Dinge. Das Ganze wird möglich durch Algorithmen, also maschinelle Rechenverfahren, die immer intelligenter werden.
Diese Algorithmen laufen sehr stark nach dem Vorbild der Biowissenschaften ab. Wir unterscheiden heute im Machine Learning Lernalgorithmen nach den drei Klassifizierungen, die auch die Psychologie kennt: überwachtes Lernen; dann nichtüberwachtes Lernen, etwa bei der Bilderkennung, wenn Systeme selbstständig Ähnlichkeit zwischen Datenmustern erkennen können, um sie zu klassifizieren; und schließlich bestärkendes Lernen, wenn das System frei ein Problem löst, aber dabei immer Rückmeldungen über die Qualität seiner Leistung bekommt.
Heute ist Deep Learning in aller Munde, das mit Modellierungen von neuronalen Netzen arbeitet. Deep Learning bezieht sich auf die Anzahl der Schichten, in denen Neurone Informationen verarbeiten. Die Anzahl dieser Schichten im künstlichen Netz kann jene im menschlichen Gehirn übertreffen. Aber der Punkt ist: Was ist hier die künstliche Intelligenz? Es gibt den Schachcomputer Deep Blue, dann den Rechner Alpha Go, bei dem zum ersten Mal bei solchen Brettspielen überwachtes Lernen mit Konzepten eingesetzt wurde, die vom menschlichen Gehirn, aus den neuronalen Netzen bekannt sind. Aber wesentlich aufregender ist ein anderes, aktuelles Beispiel: Der Rechner Libratus, der Pokerprofis besiegte, trifft im Unterschied zu Alpha Go und Deep Blue Entscheidungen bei unvollständiger Information, weil man Poker eben mit verdeckten Karten spielt.
Lange Zeit glaubte man, dass genau hier die Grenze der KI liegen würde. Beim Pokern spielen Emotionen eine Rolle, die Intuition, das Bluffen. Hier wird ein Problem nicht mit neuronalen Netzen, sondern mit Mathematik gelöst, also mit Spieltheorie und mit Statistik. Es ist eine Form des bestärkenden Lernens. Libratus kann das vorherige Spiel zurücklaufen, die Schwächen feststellen, kann dann nach dem Prinzip des Nash-Gleichgewichts aus der Spieltheorie Wahrscheinlichkeiten für bessere Antworten errechnen. Das System spielt millionenfach gegen sich selbst und schafft sich damit eine Intuition, ein Erfahrungswissen, das menschliche Experten staunen lässt. Das Entscheidende dabei ist die ungeheure Rechenkapazität. Sonst könnte ich superschlauen Mathematikern vielleicht empfehlen, abends Poker zu spielen und dabei Geld zu scheffeln. Mathematiker können die Theoreme beweisen, aber die Rechenkapazität, die Schnelligkeit haben sie nicht.
Und jetzt stellen Sie sich vor, dass eine solche selbstlernende Software nicht beim Poker eingesetzt wird, sondern beispielsweise bei Verhandlungen von Unternehmen oder bei Ärzten. Das sind Beispiele für Entscheidungen unter unvollständiger Information. Eine Hoffnung, einen Trost habe ich dabei: All das ist letztlich Mathematik, und zwar Mathematik, die sich Menschen ausgedacht haben. Vielleich sind die Mathematiker die letzte Spezies, die durch den Computer nicht arbeitslos wird.
Der Wissenschaftsphilosoph Klaus Mainzer arbeitet über die Grundlagen und Zukunftsperspektiven von Wissenschaft und Technik und hat dabei auch die künstliche Intelligenz fest im Blick. Nach Stationen in Konstanz und Augsburg war Professor Mainzer Ordinarius am Lehrstuhl für Philosophie und Wissenschaftstheorie der Technischen Universität München und dort Gründungsdirektor des Munich Center for Technology in Society (MCTS). Er ist unter anderem Mitglied der Academia Europaea, der Europäischen Akademie der Wissenschaften und der Künste und der Deutschen Akademie der Technikwissenschaften (acatech).
Der Neuroinformatiker Helge Ritter beschäftigt sich schon seit 1983 mit neuronalen Netzen. Er folgte 1990 einem Ruf an die Universität Bielefeld und leitet dort die Arbeitsgruppe Neuroinformatik. Seine Forschung gilt der Entwicklung kognitiver Roboter, die manuelle Intelligenz und Mensch-Maschine-Kommunikation vereinen. Im Jahr 2001 wurde er mit dem Leibniz-Preis der Deutschen Forschungsgemeinschaft ausgezeichnet. Helge Ritter ist einer der Gründungsdirektoren des Bielefelder Instituts für Kognition und Robotik (Cor-Lab) und war an der Einrichtung des Exzellenzclusters "Cognitive Interaction Technology" (CITEC) maßgeblich beteiligt, dessen Sprecher er seit 2007 ist.
Der Hirnforscher und Psychologe Ernst Pöppel ist Professor für Medizinische Psychologie an der Ludwig-Maximilians-Universität München. Schwerpunkte seiner Forschung sind Zeitwahrnehmung, visuelle Informationsverarbeitung und Neuroästhetik. Professor Pöppel ist Gastprofessor der Universität Peking und unter anderem Mitglied der Deutschen Akademie der Naturforscher Leopoldina, der Academia Europaea und der Russian Academy of Education.
Herr Ritter, vor zwei Jahrzehnten sprachen Sie schon von der Leistungsfähigkeit neuronaler Netze. Von Deep Learning war aber in unserem Gespräch damals noch nicht die Rede.
Ritter: Deep Learning ermöglichte übrigens auch eine Lösung des Pokerspiels auf gleichgradigem Niveau. Uns fasziniert Deep Learning heute, weil sich auf diesem Feld viel bewegt hat. Aber ich möchte noch einmal die Breite von künstlicher Intelligenz in Erinnerung rufen. Die Denkwelten der Spiele funktionieren mit dieser Technik ganz wunderbar. Andererseits kämpfen wir aber immer noch damit, unsere natürlichen Fähigkeiten, an denen die Evolution Hunderte von Millionen Jahren geknackt hat, technisch zu imitieren. Etwa unsere Bewegungsfähigkeit: Sie erinnern sich sicher an Asimo, den tollen laufenden, Treppen steigenden Roboter, den Honda 2000 vorgestellt hat. Das war ein Pionier. Und dennoch haben Roboter praktisch immer noch Probleme, einfach auf ihren Beinen zu stehen. Ich hätte vor 20 Jahren gedacht, dass wir auf diesem Gebiet jetzt schon ein Stück weiter wären.
An meinem Institut arbeiten wir an einer anthropomorphen Roboterhand, die selbstständig Gegenstände taktil wahrnehmen und zuverlässig greifen soll. Das ist so schwierig, dass das Greifen vielleicht erst in 20 Jahren einwandfrei gelöst sein wird. Was wir aber heute schon gut gemeistert haben, sind einige jener an menschlichen Denkwelten orientierten Fähigkeiten, und dabei hat Deep Learning sehr geholfen. So gibt es großartige Entwicklungen im Bereich der Wahrnehmung und des Sprachverstehens, in denen Systeme mit Hilfe von Deep Learning inzwischen vergleichbare, zum Teil sogar bessere Ergebnisse als der Mensch erzielen können. Bei der Unterscheidung von Objekten zum Beispiel sind wir nicht mehr Weltmeister, hier holt uns die Technik ein.
Vor 20 Jahren waren Entwicklungen wie das exponentielle Wachstum der Rechenzeit, das mooresche Gesetz, vorhersehbar. Was für mich persönlich eine überraschende Entwicklung war, ist diese Verfügbarkeit von so vielen Daten über die sozialen Netzwerke, zusätzlich seit etwa zehn Jahren massiv verstärkt durch das Aufkommen der Smartphones, die viele Informationen über unsere Entscheidungen, unsere Vorlieben, unsere sozialen Kontakte für Computer zugänglich machten. Das war der Rohstoff, um das maschinelle Lernen in Verbindung mit dem mooreschen Gesetz in die Höhen zu tragen, von denen wir mit Recht fasziniert sein können.
Herr Pöppel, Sie haben vor 20 Jahren erwartet, dass die KI-Forschung von der Hirnforschung profitieren könne. Sie haben darauf hingewiesen, dass lebendige Systeme Informationen gleichzeitig parallel und sequenziell verarbeiten. Hat aus Ihrer Perspektive die KI-Forschung von diesen und anderen Erkenntnissen Ihrer Disziplin gelernt? Oder auch umgekehrt: Kann die Hirnforschung von der KI durch die Simulation des Gehirns lernen?
Pöppel: Ich bin ehrlich gesagt überhaupt nicht beeindruckt von der Entwicklung der künstlichen Intelligenz. Man glaubt, irgendetwas simulieren zu können, was dem menschlichen Nachdenken oder Handeln äquivalent ist, aber das ist völlig unmöglich. Es gibt in den Neurowissenschaften, in der Psychologie nichts, an das wir uns halten können, wir sind noch gar keine Wissenschaft. Die Orientierung an Neuro ist getragen vom Neuro-Pop, vom Neuro-Hype, und das ist inhaltlich nicht belastbar. Die wesentlichen Fragen sind überhaupt noch nicht in Angriff genommen. Wir orientieren uns immer an Organismen mit einem Gehirn. Ich könnte Ihnen jetzt eine Vorlesung aus dem Ärmel schütteln über die Intelligenz von Einzellern, die kein Gehirn haben, aber alles machen, was höhere Lebewesen auch machen. Wir bewegen uns also in zwei vollkommen verschiedenen Welten, den Ingenieurwissenschaften und der Mathematik einerseits und andererseits in den Neurowissenschaften und der Psychologie. Da gibt es überhaupt noch keine Brücke, die sinnvoll begangen werden kann.
Sie haben in unserem damaligen Gespräch allerdings die Hoffnung ausgedrückt, dass man in 20 Jahren die formalen Prinzipien der Informationsverarbeitung des Gehirns sehr gut verstehen werde. Welche Fortschritte der Erkenntnis hat denn die Neurokognitionsforschung inzwischen tatsächlich hervorgebracht?
Pöppel: Diese Erkenntnisse sind nicht eingetreten. Konrad Adenauer hat vor langer Zeit hier in Bonn einmal sinngemäß gesagt: "Niemand kann mir verbieten, morgen schlauer zu sein als gestern." Ich glaube sogar, dass wir in unserer Zunft einen gigantischen Fehler gemacht haben. Ich meine das europäische Human Brain Project mit einem Budget von 1,2 Milliarden Euro, in dem wir versprochen haben, dass unter anderem in zehn Jahren keine Tierversuche mehr nötig sein würden oder dass man Schizophrenie verstehen würde durch Big Data und Number Crunching. Das ist alles grober Unfug. Wir haben einen großen Rückschritt begangen. Wir sind in der Hirnforschung fasziniert von Maschinen, funktioneller Kernspintomografie und anderem Großartigen. Aber konzeptionell sind wir sehr stark zurückgefallen. Ich muss das also widerrufen, was ich vor 20 Jahren gesagt habe.
Ritter: Ich würde das gerne noch ein bisschen mit der Perspektive aus der Informatik ergänzen. Wir haben hier eine Berechnungsuniversalität; man kann dieselben Verarbeitungsleistungen auf ganz unterschiedliche Art und Weise bekommen. Herr Pöppel hat gerade gesagt, dass es unglaublich schwer ist, die Verarbeitungswege des Gehirns wirklich zu entschlüsseln. Da kommt man nur langsam voran, ebenso wie in der Robotik, wenn wir einfache, elementare Bewegungsfähigkeiten bewusst zu machen versuchen. Mit Erfolg aber, und da hilft uns Big Data schon, finden wir Algorithmen, die Wahrnehmungsleistungen, Entscheidungsverhalten und den Umgang mit Situationen im Leben meistern können. Und diese Fähigkeiten werden auf andersartige Weise erreicht. Man ahnt, es könnte ein paar Ähnlichkeiten mit Hirnleistungen geben, aber es handelt sich dabei natürlich nicht um Neurone nach dem Verständnis der Biologie, sondern es sind Optimierungsverfahren mit sehr großem Rechenzeiteinsatz.
Diese Leistung, die ganz anders entsteht als bei lebendigen Wesen, zeigt sich auch an einem interessanten Phänomen, das Anlass zu spannenden Forschungsfragen gibt. Wenn ein System die Klassifikation von Objekten trainiert hat und man zeigt ihm einen Lastwagen, dann erkennt es: Lastwagen. Wenn man aber an diesem Bild unauffällig ein paar Pixel verändert, so dass es für einen Menschen immer noch wie vorher aussieht, dann klassifiziert das Netz plötzlich: Strauß oder Schlange, also eine völlig andere Kategorie. Das Netz sieht demnach mehr Details als der Mensch, für den die beiden Bilder ununterscheidbar sind. In diesen Netzen passiert also etwas Merkwürdiges. Reines Overfitting, das heißt Überanpassung an die Beispieldaten durch zu viel Training und die falsche Einschätzung irrelevanter Einzelheiten, kann es nicht sein, denn die Tests laufen ja nach den Regeln der Kunst ab und liefern gute Ergebnisse. Aber daran sehen wir, dass wir mit Big Data und Methoden der Informatik einen alternativen Zugang gefunden haben, um schon sehr gute Wahrnehmungs- und Entscheidungsleistungen mit entsprechenden Anwendungsmöglichkeiten aus Daten herauszuziehen. Inwieweit davon die Gehirnwissenschaften lernen, darüber kann man geteilter Meinung sein. Das muss man abwarten.
"Ich bin ehrlich gesagt überhaupt nicht beeindruckt"
Ernst Pöppel
Mainzer: Um hier zu vermitteln, muss man zwei Strategien unterscheiden. Naturwissenschaftler, Hirnforscher und Neurobiologen sind daran interessiert, das lebende Gehirn zu verstehen, sie versuchen vielleicht sogar, es mathematisch zu modellieren oder zu erklären. Die Ingenieure, und so verstehe ich heute die KI-Wissenschaft, lassen sich von den Neurobiologen gelegentlich inspirieren. Oder etwas zugespitzter formuliert: Sie sind Rosinenpicker. Sie nehmen das auf, was ihnen gefällt und sie zu einer Problemlösung anregt, aber nicht mit dem Anspruch, jetzt auch das Gehirn in seiner ganzen Tiefe erfassen zu wollen.
Die neuronalen Netze unterscheiden sich ja aus der mathematischen Sicht im Grunde gar nicht so sehr von den Automaten und Maschinen. Ich kann also eine Hierarchie aufbauen, kann einen einfachen endlichen Automaten nehmen, der schon eine simple Sprache, Instruktionen und die Befehle, die man eingibt, versteht. Man kann dazu mathematisch äquivalent ein neuronales Netz bauen, das genau dasselbe macht, ein Modell für ein einfaches Gehirn. Entscheidend sind die Gewichte, das heißt die Intensitäten der synaptischen Verbindungen. Bei den endlichen Automaten sind das ganze Zahlen. So kann man eine Hierarchie aufbauen zu immer komplexeren Automaten bis zu den Turing-Maschinen. Diese sind der Prototyp für jede Art von universellen Computern, die wir heute zur Verfügung haben. Sie sind äquivalent zu einem geschichteten neuronalen Netz, allerdings gewichtet mit rationalen Zahlen, also mit Brüchen. Und diese Systeme können interessanterweise schon eine ganze Menge mehr. Wir nehmen jetzt theoretisch als Gewichte dieser synaptischen Verbindungen der neuronalen Netze keine rationalen Zahlen, sondern reelle Zahlen, die analog sind. Und was können nun solche Netze? Sie sind mathematisch äquivalent zu einer so genannten Orakelmaschine, einer Turing-Maschine, die nach Regeln arbeitet, aber gelegentlich auf Kenntnisse zurückgreift, von denen wir nicht wissen, ob sie entscheidbar und berechenbar sind. Deshalb behaupte ich, Sie und ich sind lauter Orakelmaschinen: Gelegentlich argumentieren wir nach Regeln, jedoch greifen wir dann auch wieder auf intuitives Wissen zurück, von dem wir nicht wissen, ob es berechenbar ist. Es gibt also unterschiedliche Architekturen, unterschiedliche Strategien, die Ähnliches können. So hat die Evolution einen Weg gefunden für das, was wir Informationsverarbeitung nennen, bis hin zu unseren Emotionen. Nun muss man den Ingenieuren heute auch zugestehen, dass sie einen Weg beschreiten, der so in der Natur vielleicht noch gar nicht angelegt war.
Herr Pöppel, Herr Ritter, das Gemeinsame und das Trennende: Damals haben wir darüber diskutiert, ob Ästhetik eine Kategorie ist, die technisch umsetzbar ist. Oder können Maschinen auch so etwas wie einen kulturellen Hintergrund, den wir Menschen bei allen geistigen Aktivitäten vor uns haben, entwickeln? Damals meinten Sie nein.
Pöppel: Zunächst einmal: Wer wollte denn überhaupt in Frage stellen, dass es großartige Erfolge im Ingenieurbereich gibt. Wir haben die Verstärkung von Teilmengen menschlicher Fähigkeiten, zum Beispiel der Wahrnehmung. Das funktioniert aber auch, ohne eine Hirnsprache zu verwenden, das hat mit Gehirn überhaupt nichts zu tun. Das möchte ich betonen, bezüglich der Ästhetik: Natürlich haben technologische Projekte oder Produkte kein Kriterium für ästhetische Bewertung. Kann ein KI-System eine Frage stellen, hat ein solches System Neugier? Menschen sind ja getrieben, etwas zu erforschen, haben ein Suchverhalten. In der Technik spricht man von Lernalgorithmen, von einem psychomotorischen Lernen, so etwa Deep Learning, aber das hat mit dem, was im Gehirn passiert, überhaupt nichts zu tun. Die Sprache vernebelt uns hier das Trennende.
Ritter: Ästhetik hielt ich damals für eine sehr harte Nuss und tue es immer noch. Das Empfinden von Schönheit hängt eng von der Einbettung in Kultur ab, davon, welche Begegnungen man hatte, welche Dinge man im Lauf eines Lebens wertgeschätzt hat. Natürlich gibt es zum Beispiel in der Musik oder der bildenden Kunst auch lehrbare Anteile von ästhetischem Urteil. Und was lehrbar ist, ist ja auch ein Stück weit imitierbar. Allerdings ist man da noch nicht so weit gekommen wie in den anderen Bereichen. Firmen etwa, die Bilddatenbanken aus Fotografien aufbauen, haben natürlich Interesse daran, diese auch ästhetisch zu bewerten. Und wir wollen gerne Netze wie Deep Learning befähigen, ästhetische Urteile von Menschen zu imitieren. Das funktioniert ein bisschen, aber das ist natürlich ein recht flaches Imitieren, völlig anders als das ästhetische Urteil eines Menschen.
Daran wird deutlich, dass der Anmarschweg dieser künstlichen Intelligenz das Lernen ist, das, was imitierbar ist, abzuschöpfen. Heute kommt die Lernfähigkeit von KI an manchen Stellen derjenigen von Menschen schon nahe, in anderen Bereichen noch nicht. Und wir haben kein gutes Gefühl, was die Schwierigkeiten wirklich ausmacht. Laufen kommt uns ja viel einfacher vor als Poker, wo man weit gekommen ist, während das Laufen noch eine faszinierende ingenieurwissenschaftliche Herausforderung ist. Wir sind uns nicht ganz klar darüber, woran das liegt.
Wir sollten auch nicht zu sehr diese Abgrenzungsakribie zur Maschine betreiben, denn wir integrieren ja auch technische Artefakte in unsere Gesellschaft. Ich glaube, die Zukunft und der Segen liegen in einem Zusammenwirken zwischen Mensch und Maschine. Maschinen haben im Augenblick noch ein schlechtes Image, weil viele sie immer noch mit Zahnrädern verbinden. Aber die heutigen Maschinen sind schon wesentlich komplexer, wenn auch noch nicht annähernd so komplex wie die biologischen. Selbst der erwähnte Einzeller ist immer noch komplizierter als das, was wir in unseren Laboren können. Darin stecken 90 bis 95 Prozent des Knowhows, die Evolution hat lange gebraucht, um solche Systeme selbstreproduzierbar, adaptiv zu machen und mit tollen Eigenschaften zu versehen. Wir durchlaufen in der technischen Entwicklung der künstlichen Intelligenz jetzt etwas Ähnliches.
Ich gehe mal davon aus, dass Sie in Ihrem Labor alle Geister unter Kontrolle haben. Heißt das, dass wir uns keine Sorgen machen müssen, dass uns die künstliche Intelligenz überholen könnte, solange der Regenwurm noch mehr weiß als der Roboter?
Pöppel: Völlig unmöglich.
Ritter: Also die Maschinengeister haben wir unter Kontrolle.
Pöppel: Alle sind programmiert, das ist das Prinzip der Evolution, sich irgendwohin bewegen zu können, wo es ihnen besser geht. Das ist das homöostatische Prinzip. Um mich dorthin bewegen zu können, muss ich wissen, wo ich bin, und das kann ich nur feststellen, wenn ich mindestens zwei Messungen durchführe und sie vergleiche. Vergleichen ist aller Anfang von mentaler oder kognitiver Tätigkeit überhaupt. Auf dieser Grundlage kann ich dann eine Bewertung vornehmen, vielleicht kommen auch Emotionen dazu, und dann kann ich eine Entscheidung treffen. Das sind Wahrnehmungsprozesse, Denkprozesse, das sind Dienstleistungen für motorische Programme, die mich irgendwohin bringen. Meines Wissens ist das gar kein Konzept in der KI. Wir reden so schlau darüber, weil wir eine Theory of Mind haben, das ist sozusagen ein Nebenprodukt der Evolution, dass wir auch noch darüber nachdenken können. Im Grunde ist das völlig überflüssig, alle Lebewesen machen das viel gescheiter als wir, wenn wir uns als Ingenieure betätigen.
Herr Mainzer, in unserem Gespräch vor 20 Jahren haben Sie in der KI-Forschung eine Entwicklung hin zu einer Fusion mit den Biowissenschaften, der Gehirnforschung und anderen Disziplinen erkennen können. Ist dies eingetreten?
Mainzer: In der synthetischen Biologie arbeiten Wissenschaftler unterschiedlicher Disziplinen, darunter auch der Ingenieurwissenschaften und Informatik, daran, Organismen zu verändern und neue biologische Systeme zu bauen. Ein Ribosom, also ein winziger Teil einer Zelle, und das Zusammenspiel seiner drei Millionen Atome kann ein Superrechner namens Blue Waters schon genau erfassen, simulieren und voraussagen. Die Komplexität einer ganzen Zelle lässt sich hingegen bisher nur in einzelnen, speziellen Exemplaren simulieren, etwa einer bestimmten Krebszelle. Prinzipiell zur ganzen Zelle vorzustoßen, wird am Ende eine Frage der Rechenkapazität sein. Wir dürfen also nicht nur die Software im Auge haben, sondern auch die Naturwissenschaften, die mittlerweile dabei sind, die Natur umzubauen. Meine Vermutung ist, beides wird irgendwie konvergieren. Die Ingenieure werden von den Naturwissenschaftlern lernen, werden Konzepte aufnehmen, neue Arten von Rechenarchitekturen bauen, neuromorph, polymorph, das ist alles noch in den Anfängen. Und umgekehrt greifen die Naturwissenschaftler auf die Möglichkeiten mit den Superrechnern zurück, um in der Komplexitätsfrage weiterzukommen.
"Wir sollten nicht zu sehr diese Abgrenzungsakribie betreiben"
Helge Ritter
Pöppel: Eine Nervenzelle bekommt Input von ungefähr 10 000 anderen, was bedeutet, dass eine Nervenzelle 210 000 – 1 mögliche Funktionszustände, also 103000 haben kann, und das ist nicht berechenbar. Selbst wenn ich nur 100 Module im Hirn annehme, kriege ich 2100 – 1 mögliche Funktionszustände. Das ist alles nicht berechenbar. Ich weiß nicht, wie die Mathematik mit diesem Problem umgehen will.
Ritter: Lassen wir doch einmal kurz die Mathematik und die Berechenbarkeit auch den Zellen außer Acht und rücken einen ergänzenden Aspekt ins Blickfeld. Wir sind ja immer in Sorge, dass uns etwas überholen könnte. Wenn uns ein Auto überholt, finden wir das aber nicht mehr schlimm. Jetzt fürchten wir eher, dass uns die Maschinen zu ähnlich werden könnten. Als Menschen sind wir es gewöhnt, dass wir oft in Konkurrenz zueinander stehen. Nun brauchen aber diese künstlich intelligenten Dinge gar nicht mit uns zu konkurrieren, denn sie existieren zum Teil ja nicht einmal in der physikalischen Realität, sondern nur in virtuellen Welten. Es stellt sich also nicht zwangsläufig Konkurrenz ein, sondern es können sogar ganz tolle Synergien entstehen. Wir leben immer mehr in einer von solchen Systemen durchdrungenen Welt, die mehr und mehr Anteil haben an unseren Entscheidungen. Sie bestimmen zum Beispiel unsere Kreditwürdigkeit und stellen medizinische Diagnosen. Viele finden das schrecklich. Aber sind denn Fehler, die Menschen machen, weniger schlimm als die der Maschine? Es geht doch eigentlich darum, diese möglichst zu minimieren. Wenn die Maschinen die Fehler besser schmälern, sollten wir sie lassen, und wenn Menschen darin besser sind, sollten sie das Primat haben und auf diese Weise unsere Welt organisieren.
Nicht trivial ist dabei diese hybride Gesellschaft aus Technik und Menschen, die durch diese hochgradige Vernetzung ihre Eigenschaften verändert. Über das Internet, über soziale Netzwerke schrauben wir diese Vernetzung in völlig neue Dimensionen hoch. Hier setzen inzwischen auch die Algorithmen an: Man kann natürlich die Präferenzen der Nutzer modellieren, und das führt dazu, dass diese immer bessere Angebote bekommen, dass Produkte entlang ihrer Wünsche optimiert werden können. Das lässt sich zum Guten nutzen, aber es kann uns auch in bestimmte Richtungen steuern. Und das ist mit maschinellem Lernen auch möglich. Daher gilt es darauf zu achten, dass die hybride Gesellschaft die Entfaltung unserer Möglichkeiten in den wünschenswerten Richtungen stärker voranbringt, dass wir sie stabilisieren gegenüber den Möglichkeiten, sich in unerfreuliche Richtungen auszuprägen. Vor dieser großen Aufgabe stehen wir jetzt zum ersten Mal, und daher müssen wir in unserem Umgang mit Technologie ganz anders erwachsen werden, als das vor 10 oder 20 Jahren erforderlich war. Aber ich bin ja Optimist, ich glaube, dass wir Wege finden werden, das Beste aus allen vor uns liegenden Möglichkeiten, und das ist ja auch ein Füllhorn aus Chancen, herauszuholen.
"Das Entscheidende ist, dass wir die Zügel in der Hand behalten"
Klaus Mainzer
Pöppel: Dass mir Entscheidungen abgenommen werden, ist mir unheimlich. Wir Menschen sind programmiert, so meine Auffassung basierend auf Messungen, etwa alle drei Sekunden eine Entscheidung zu treffen. Sich in einer gewissen Unabhängigkeit zu entscheiden, gehört zum Menschsein dazu. Und das soll mir abgenommen werden? Das empfinde ich als eine Kastration des Menschseins, das will ich nicht.
Ritter: Hin und wieder ist es doch auch mal schön, Dinge delegieren zu können.
Pöppel: Aber es ist Freiheitsberaubung.
Mainzer: Ein guter Chef oder ein guter Manager kann delegieren. Wir haben Kraftmaschinen gebaut, auf die wir uns verlassen, und heute haben wir Systeme neben uns, die intelligente Leistungen, die früher Menschen nur so lala erledigt haben, übernehmen. Das Entscheidende ist, dass wir die Zügel in der Hand behalten. Und das ist nicht trivial, denn das Silicon Valley lässt mit seinen Visionen der technologischen Singularität grüßen, und das verkünden ja keine Spinner oder Romanautoren. Nach dem Sieg von Alpha Go haben junge koreanische Informatikprofessoren das Argument gebracht: Wir sind die digitalen Neandertaler. Die vielen Fehler, die wir uns in der Politik oder im Alltag erlauben, etwa im Verkehr, lassen uns doch wie Steinzeitmenschen aussehen. Deshalb sollten uns intelligente Systeme unterstützen. Keiner hat dafür die ideale Lösung, aber dass diese Wege durch die Vernetzung zu Stande kommen, durch die viel geschmähte und gelobte Cloud, also die Schwarmintelligenz, ist offensichtlich. Wir sollten nicht diese Silicon-Valley-Ideologie nachbeten, jedoch sollten wir in aller Nüchternheit und Solidität diese Möglichkeiten nutzen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.