Deep Learning: Im »Kopf« von künstlichen neuronalen Netzen
Deep Learning ist das aktuelle Zauberwort der Künstliche-Intelligenz-Forschung. Künstliche neuronale Netze, die sich grob an der Funktionsweise biologischer Nervensysteme orientieren und die mit dieser Methode trainiert werden, haben in den letzten Jahren eine erstaunliche Leistungsfähigkeit erreicht. Das chinesische Brettspiel Go galt lange als Bastion menschlicher Überlegenheit, bevor das Programm AlphaGo 2017 den amtierenden Weltmeister besiegte. Es nutzt ein künstliches neuronales Netz, das mit einer Deep-Learning-Strategie vorher ausgiebig geübt hatte. Apples künstliche sprachgesteuerte Assistentin Siri arbeitet, wenig überraschend, ebenfalls nach dieser Methode. Und in den selbstfahrenden Autos, die überall auf der Welt fleißig im Straßenverkehr üben, stecken ebenfalls tiefe Netzwerke künstlicher Nervenzellen.
Nun ist Go spielen eine Sache, Autos durch echten Straßenverkehr zu steuern aber eine ganz andere. Ein falscher Zug beim Brettspiel ist zu verschmerzen, ein Fahrfehler kann Menschenleben kosten. Der Fahrassistent des Tesla S, von der Herstellerfirma stolz als Autopilot bezeichnet, ist mehrfach in stehende Autos gefahren. Bevor man eine KI ans Steuer lässt, sollte man erst einmal genau wissen, wie sie ihre Entscheidungen trifft. Wie will man sonst sicher vermeiden, dass ein selbstfahrendes Auto trotz ausgiebigen Trainings völlig falsch reagiert und vielleicht einen Unfall verursacht? Das schön animierte Video auf dem YouTube-Kanal des Fachblatts »Science« macht deutlich, dass selbst KI-Forscher keineswegs wissen, was im Inneren der Netze so vor sich geht.
Zunächst einmal: Ähnlich wie ihre biologischen Vettern nehmen künstliche Neurone Eingaben von anderen Neuronen entgegen, verarbeiten sie und geben sie weiter. Künstliche neuronale Netze sind dabei in Schichten organisiert. Die Neurone der Eingangsschicht erhalten Daten von der Außenwelt. Im einfachsten Fall sind diese Elemente untereinander verschaltet und übernehmen so auch gleich die Verarbeitung und Ausgabe. In den tiefen Netzwerken ist die Struktur aber komplizierter. Auf die Eingangsschicht folgen zahlreiche verborgene Zwischenschichten. Am Ende steht die Ausgangsschicht, die ihre Ergebnisse der Außenwelt mitteilt.
Versuchte man anfangs, mit nur einer Zwischenschicht auszukommen, stellten Forscher vor rund zehn Jahren etwas überrascht fest, dass neuronale Netze mit vielen Zwischenschichten besser lernen. Das gilt besonders für diejenigen, die mit einer neu entwickelten Korrekturmethode, Backpropagation (Fehlerrückführung), arbeiten. Das heutige Deep Learning war erfunden. Backpropagation sorgt für schnelles Lernen, ist aber sehr rechenintensiv. Das Verfahren muss sehr viele einfache Rechenoperationen parallel durchführen. Zufällig ist das aber genau die Stärke von modernen Hochleistungsgrafikkarten. Die Implementierung der Deep-Learning-Algorithmen auf GPUs (graphics processing units) begründete den Siegeszug dieser KI-Methode.
Wie man nun feststellen kann, was genau in den unzähligen Zwischenschichten passiert, dazu macht das Video einige Vorschläge. So wäre es möglich, sich einzelne Neurone in den Zwischenschichten anzusehen, um festzustellen, welche Eingabe sie am stärksten aktiviert. Das hat zu erstaunlichen Resultaten geführt. In einem Bilderkennungssystem reagierte ein Neuron heftig auf Umrisse von Gesichtern. Das Netzwerk war jedoch nur darauf trainiert, Objekte auf Bildern zu erkennen, nicht etwa Menschen. Offenbar waren auf den Fotos, mit denen das Netzwerk zuvor trainiert worden war, auch viele Gesichter zu sehen gewesen. Eine andere Möglichkeit, etwas Transparenz in die Arbeitsweise der Netze zu bringen, besteht darin, gewisse Grundregeln gleich mitzutrainieren.
Das relativ kurze Video konzentriert sich auf diese beiden Varianten, aber inzwischen nutzen die Entwickler von KI-Systemen auch andere Möglichkeiten. Nehmen wir ein KI-Programm, das erkennen soll, ob eine Filmrezension positiv oder negativ ausgefallen ist. Um zu testen, woran das Programm seine Beurteilung festmacht, fängt man mit einem Text an, den es eindeutig korrekt klassifiziert hat. Dann verändert man immer wieder einzelne Worte oder Satzteile. Irgendwann wird dann klar, welche Worte oder welcher Aufbau der Sätze besonders bedeutsam sind. Das Vorkommen des Wortes »entsetzlich« könnte das Programm beispielsweise für ein sicheres Indiz dafür halten, dass der Rezensent den Film nicht mag.
Aber letztlich sind all diese Ansätze nur ein Notbehelf und bieten absolut keine Garantie dafür, dass eine hochgezüchtete künstliche Intelligenz im entscheidenden Moment richtig reagiert. Es kommt aber noch schlimmer: Je komplexer die Situation wird, desto weniger eindeutig lässt sich bestimmen, was richtig ist. Nehmen wir an, eine KI-gestützte Behandlung in der Notaufnahme eines Krankenhauses führt zum Tode des Patienten. Im Nachhinein stellen Gutachter fest, dass die KI falsche Entscheidungen getroffen hat. Aber die Behandlung des Patienten musste sofort beginnen, das System musste entscheiden, noch bevor es alle Möglichkeiten durchrechnen konnte. Hätte in so einem Fall ein Mensch vielleicht anders gehandelt – blitzschnell und rein intuitiv?
Je weiter die künstliche Intelligenz in unseren Alltag vordringt, desto wichtiger werden solche Fragen. Das Video bietet einen Einstieg in die Problematik, nicht mehr. Die gezeigten Methoden reichen letztlich nicht aus, um ein KI-System wirklich zu durchleuchten. Und sie helfen auch nur sehr begrenzt bei der Frage, wie man einen Fehler beheben will, wenn man ihn festgestellt hat. Denn bei einem herkömmlichen Programm reicht es oft schon, einen Befehl zu ändern. Doch ein falsch trainiertes KI-System muss mühsam umlernen – wie ein Mensch.
Schreiben Sie uns!
1 Beitrag anzeigen