Lobes Digitalfabrik: Je cleverer die KI, desto aggressiver das Verhalten?
Zu den spannendsten Fragen der künstlichen Intelligenz gehört, wie Agenten interagieren. Wie verhalten sich Algorithmen (Algo-Trader), die an US-Terminbörsen in Mikrosekunden Transaktionen vollziehen, in Verhandlungen? Wie agieren autonome Fahrzeuge in einer Gefahrensituation? Geben sie vollständige Informationen preis? Oder einmal angenommen, KI-Systeme würden vor Gericht einen Fall verhandeln – würden sich die Streitparteien auf einen Vergleich einigen? Was führt eher zum Ziel: Konfrontation oder Kooperation?
Wissenschaftler der Google-Tochter DeepMind, deren Computerprogramm AlphaGo 2016 den südkoreanischen Meisterspieler Lee Sedol beim Brettspiel Go bezwang, haben diese Fragen in einer neuen Studie untersucht. Um das Verhalten von KI-Agenten in bestimmten Situationen zu verstehen, bedienten sich die Forscher spieltheoretischer Modelle, mit denen sich unter anderem Klima- oder Koalitionsverhandlungen simulieren lassen. Dazu ließen sie KI-Systeme in zwei verschiedenen Spielen gegeneinander antreten. Im ersten, Gathering genannt, einem rudimentären 2-D-Spiel, das an die ersten pixeligen Computerspiele aus der Commodore-Ära erinnert, mussten zwei Agenten, Rot und Blau, Äpfel von einem zentralen Stapel sammeln. Die Akteure hatten zwei Optionen: Entweder sie kooperierten und teilten sich die Äpfel oder aber sie versuchten den Gegner aus dem Spiel zu nehmen, indem sie ihn mit einem Laserstrahl taggten. Die Forscher ließen die Simulation mehrere tausend Mal ablaufen.
Das Ergebnis war überraschend: Als es noch genügend Äpfel gab, optierten die Agenten für Kooperation statt Konfrontation. Als die Vorräte jedoch zur Neige ging, nahm die Zahl der Laserangriffe zu. Das Interessante ist, dass Agenten, die komplexere Strategien durchführen konnten, häufiger den Laser einsetzten, und zwar unabhängig von der Zahl der verbliebenen Äpfel. Etwas zugespitzt: Je cleverer die KI, desto aggressiver das Verhalten.
Emotionslose Agenten könnten die besseren Verhandler sein
Anders im zweiten Spiel Wolfpack, bei dem zwei Agenten als Wölfe durch verschiedene Hindernisse in einer labyrinthartigen Welt jagen. Die Logik: Das Beutetier ist gefährlich, deshalb können die Wölfe es einfacher erlegen, wenn sie eine gemeinsame Jagdstrategie verfolgen. Zudem ist die Gefahr, die Beute an Aasfresser zu verlieren, bei zwei Wölfen geringer als einem einzelnen Wolf. Allerdings müssen KI-Wölfe, die im Rudel jagen, ihre Beute miteinander teilen. Doch hier zeigte sich: Agenten, die sich auf komplexere Strategien verlegten, offenbarten mehr Kooperation.
Agentensysteme sind also durchaus zu Kooperation fähig. Das Modell hilft, das Verhalten von KI-Systemen besser zu verstehen. "Wir können die trainierten KI-Agenten als eine Annäherung an das rationale Modell des Homo oeconomicus in der Ökonomie vorstellen", schreiben die Autoren.
Allein, nicht immer handeln Menschen streng rational und nutzenmaximierend nach den Prinzipien des Homo oeconomicus. Zuweilen sind sie auch von Ängsten (Stichwort Populismus) und Gier (Stichwort Finanzkrise) geleitet. Und KI-Systeme operieren ebenfalls nicht immer nach ihrem Skript. So überzog Tay, ein Microsoft-Chatbot, die Twitter-Gemeinde mit Beleidigungen und rassistischen Bemerkungen, nachdem sie von Trollen mit Fakes gefüttert wurde und das so Gelernte zu einem kruden Brei diffamatorischer Aussagen verrührte.
Die Kartellrechtler Ariel Ezrachi von der University of Oxford und Maurice E. Stucke von der University of Tennessee konnten in einer Studie belegen, dass Algorithmen vielleicht nicht gerade illegale Preisabsprachen in verrauchten Hinterzimmern treffen, wohl aber zu einem ganz ähnlichen Verhalten in der Lage sind. Sie können vorhersagen, wie sich andere Computer verhalten, und mit dieser Information effektiv kooperieren, indem sie ihre eigenen gewinnmaximierenden Interessen vorziehen.
Man sollte bei dem jüngsten DeepMind-Experiment nicht in einen alarmistischen Ton verfallen und düstere Sciencefiction-Szenarien einer außer Kontrolle geratenen KI an die Wand malen, doch der Befund, dass KI-Systeme in brenzligen Situationen zu hochaggressiven Strategien neigen, stimmt bedenklich. Sind künstliche Intelligenzen kompromissloser als der Mensch? Scheuen sie nicht davor zurück, Gegenspieler auszuschalten, um sich materiell besserzustellen? Das sind keine theoretischen Fragen, sondern Fragen von größer praktischer Relevanz etwa im Hinblick auf das Verhalten von Multi-Agenten-Systemen zur Steuerung von Verkehrsüberwachung oder Wirtschaftsabläufen.
Über all dem schwebt natürlich die Frage, ob KI-Systeme vielleicht nicht die besseren, weil kühl kalkulierenden und emotionslosen Unterhändler in internationalen Verhandlungen wären. Könnte man nicht IBMs Superrechner Watson statt der Diplomaten in die Syrien-Gespräche schicken, wo die Fronten mehr denn je verhärtet sind? Als eine Art Mediator, der unter Zugrundelegung aller Informationen verschiedene Szenarien berechnet und den kleinsten gemeinsamen Nenner der Parteien herausfindet? Das mag noch wie eine Utopie erscheinen. Fakt ist, dass sich KI-Systeme in einer digitalisierten Welt immer häufiger begegnen werden – und bei der Verfolgung von Interessen nicht minder egoistisch sind als der Mensch.
Schreiben Sie uns!
2 Beiträge anzeigen