Künstliche Intelligenz: Der Regenwurm am Steuer
Der kürzlich verstorbene Astrophysiker Stephen Hawking und der Multiunternehmer Elon Musk sind sich einig, dass die Menschheit nichts mehr zu bestellen hat, sobald Computer intelligenter sind als wir. Und dieser Moment kann nicht mehr weit in der Zukunft liegen, denn schon heute haben die besten Schach- und Go-Spieler keine Chance gegen elektronische Gegner. Das Human Brain Project ist vor fünf Jahren angetreten, um binnen eines Jahrzehnts ein vollständiges menschliches Gehirn im Computer zu simulieren. Wenn das einmal gelungen ist, wäre es ein leichtes, die Intelligenz in den übermenschlichen Bereich auszubauen.
Schon heute machen sich die so genannten tiefen und gefalteten neuronalen Netze bereit, selbstständig Autos zu steuern und Kriege zu führen. Die amerikanische Bloggerin und Buchautorin Janelle Shane sieht das Problem trotzdem gelassen. Die Gefahr der künstlichen Intelligenz, so führt sie aus, liegt nicht etwa darin, dass sie uns nicht gehorche, sondern darin, dass sie ohne Rücksicht auf Verluste genau das tue, was wir ihr auftragen. In ihrem Blog AI-Weirdness sammelt sie Beispiele für das teilweise bizarre Versagen von KI-Systemen. Vor wenigen Wochen hat sie auch ein Buch darüber veröffentlicht. Einige der seltsamsten Auswüchse maschineller Dummheit stellt sie, unterstützt von witzigen Strichzeichnungen und Animationen, in diesem sehenswerten TED Talk vor. Sie lässt keinen Zweifel daran, dass sie KI für deutlich überschätzt hält. Die gegenwärtigen Systeme hätten maximal die Intelligenz eines Regenwurms oder einer Biene, meint sie. Man sollte also sicher zweimal überlegen, ob man einem derart rudimentären Siliziumhirn sein Auto anvertrauen möchte.
Anders als klassische Computerprogramme folgt künstliche Intelligenz nicht sklavisch bestimmten Anweisungen, den so genannten Algorithmen, sondern lernt bei der Arbeit. Die Regeln der KI-Systeme bestimmen lediglich die Lernstrategie. Die Programmierer suchen das Trainingsmaterial aus und geben bestimmte Bedingungen vor. Dabei unterlaufen ihnen aber oft genug Fehler. Die Ergebnisse der Lernphase fallen deshalb auch mal ganz anders aus, als die menschlichen Lehrer sich das vorgestellt haben. Eine KI hat kein Weltwissen, es kennt keine Moral und weiß nicht, dass eine Gesellschaft bestimmte Tabus hat. Ein Beispiel: Der Internethändler Amazon erprobte ab 2014 ein KI-System für die Auswahl von Bewerbern. Es sollte an den Bewerbungen von erfolgreichen Kandidaten lernen, wen man überhaupt zum Vorstellungsgespräch einladen sollte und wer gleich eine Absage erhielt. Nach einiger Zeit stellte sich heraus, dass Frauen systematisch durch das Raster fielen. Schon Eigenschaften, die man eher in Bewerbungen von Frauen fand, führten zur Abwertung. Natürlich hegte das KI-System keinen Groll gegen Frauen, es spiegelte lediglich das tatsächliche Auswahlverhalten bei Amazon wider. Das war schon etwas peinlich, und Amazon legte das System nach einigen Jahren Probebetrieb wieder still. Es ist ein offenes Geheimnis, dass die Computerunternehmen in den USA eher von Männern dominiert werden. Trotzdem möchte kein Konzern, dass ihm seine eigene KI ein Fehlverhalten direkt nachweist.
Während Amazons maschinelle Bewerberauswahl nie über das Versuchsstadium hinauskam, sind bei sozialen Netzen und bei Youtube KI-Systeme längst im Einsatz. Soziale Netze leben von der Werbung. Sie muss vorsichtig dosiert werden, sonst verliert sie ihre Wirkung. Je länger also ein Benutzer im Netz surft, umso mehr Werbung kann das System ausspielen. Das führt zu grotesken Resultaten. So hält man Nutzer gut bei der Stange, wenn man ihre Spannung steigert. Die KI weiß das nicht. Aber sie lernt, dass Konsumenten von Verschwörungstheorien länger online bleiben, wenn man ihnen immer krassere Videos oder Behauptungen vorsetzt. Facebook und Youtube müssen deshalb mit dem Vorwurf leben, dass sie in Kauf nehmen, ihre Benutzer zu radikalisieren. Nicht etwa aus ideologischen Gründen, sondern um ihnen mehr Werbung zeigen zu können. Gegenmaßnahmen bleiben bisher halbherzig, denn das Prinzip ist dermaßen gewinnträchtig, dass niemand es einfach aufgeben will. So fördern soziale Netze nicht, wie sie gerne behaupten, den Zusammenhalt von Gesellschaften, sondern eher ihre Spaltung. Wird das besser, wenn KI-Systeme intelligenter werden? Janelle Shanes TED Talk gibt darauf keine Antwort, er befasst sich leider nicht mit der zurzeit rasanten Weiterentwicklung der Maschinenintelligenz. Im Fall der sozialen Netze führen klügere Systeme sicherlich zu keiner Verbesserung. Sie können den zu Grunde liegenden Zielkonflikt zwischen Gewinnmaximierung und gesellschaftlicher Gefährdung nicht lösen, sondern allenfalls geschickter verschleiern.
In anderen Bereichen könnte eine verbesserte KI unser Leben durchaus bereichern. Medizintechnik und Robotik wären beispielsweise dankbare Abnehmer dafür. Chiphersteller arbeiten bereits an einem völlig neuen Ansatz. Bislang laufen neuronale Netze meist als Programme auf klassischen Computersystemen und nutzen gerne die vielen parallelen Rechenkerne moderner High-End-Grafikkarten. Intel und IBM propagieren seit einigen Jahren so genannte neuromorphe Chips, mit denen die KI bessere Leistungen bei sehr viel geringerem Stromverbrauch erbringen soll. Der aktuelle Chip von Intel, der den Namen »Pohoiki Beach« trägt, soll bereits die Intelligenz eines Zebrabärblings erreichen. Bis zum Menschen oder gar Übermenschen ist es also noch ein weiter Weg.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.