Informatik: Programm mit Köpfchen
Deep Learning ist heute aus Anwendungen künstlicher Intelligenz (KI) kaum wegzudenken: Ihm verdanken wir es, dass Siri gesprochene Befehle versteht oder Computer eigenständig Kunstwerke erschaffen. Doch das war nicht immer so. Als einige Informatiker 2007 bei einer renommierten Konferenz zu künstlicher Intelligenz einen Workshop über tiefe neuronale Netzwerke vorschlugen, lehnten die Veranstalter prompt ab. Man wollte dem damals belächelten Randgebiet nicht zu viel Platz einräumen.
Die Interessenten organisierten daraufhin ein inoffizielles Meeting, an dem unter anderem der kognitive Psychologe und Informatiker Geoffrey Hinton von der University of Toronto teilnahm. Er wirkte an einigen der größten Durchbrüche im Bereich tiefer neuronaler Netze mit. Seinen Vortrag begann er mit einem Scherz: »Vor etwa einem Jahr kam ich zum Abendessen nach Hause und sagte: ›Ich glaube, ich habe endlich herausgefunden, wie das Gehirn funktioniert‹ – woraufhin meine 15-jährige Tochter seufzte: ›Oh, Dad, nicht schon wieder.‹« Das Publikum lachte. Hinter der Witzelei verbarg sich jedoch ein ernst gemeintes Ziel: Er will mit Hilfe von KI das Gehirn verstehen.
Heute spielen tiefe neuronale Netze eine zentrale Rolle in der KI-Forschung. Zu einem großen Teil verdanken sie das einem bestimmten Algorithmus, genannt »Backpropagation« (was übersetzt etwa »Fehlerrückführung« bedeutet). Er ermöglicht es Programmen, anhand von Beispieldaten zu lernen. Dank des Berechnungsverfahrens können Computer Bilder klassifizieren, Sprache verstehen und übersetzen, die Umgebung für selbstfahrende Autos erkennen und zahlreiche andere Aufgaben meistern.
Dass unser Gehirn Informationen nach einem ähnlichen Muster wie der Algorithmus verarbeitet, halten Fachleute jedoch für höchst unwahrscheinlich. Yoshua Bengio, Informatiker an der Université de Montréal und einer der Organisatoren des Workshops von 2007, betont, dass das menschliche Gehirn selbst den modernsten KI-Systemen weit überlegen ist: Es verallgemeinert und lernt besser und schneller als jedes Programm. Zudem ist die Backpropagation aus einer Vielzahl von Gründen nicht mit der Anatomie und Physiologie des Gehirns kompatibel. Das gilt insbesondere für die Struktur des Kortex, in dem unsere kognitiven Fähigkeiten verortet sind.
Bengio sowie weitere IT-Experten und -Expertinnen tüfteln bereits an aus neurobiologischer Sicht plausibleren Lernmechanismen, die zumindest mit der Backpropagation mithalten können. Drei davon haben sich als sehr viel versprechend erwiesen …
Von »Spektrum der Wissenschaft« übersetzte und bearbeitete Fassung des Artikels »Artificial Neural Nets Finally Yield Clues to How Brains Learn« aus »Quanta Magazine«, einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Verbreitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.
Schreiben Sie uns!
Beitrag schreiben