Direkt zum Inhalt

Fake News: Künstliche Intelligenz reduziert Verschwörungsdenken

Maschinelle Chatbots entkräften Verschwörungsmythen offenbar besonders wirkungsvoll.
Frau mit braunen Haaren liest News auf dem Handy
Verschwörungsmythen verbreiten sich im digitalen Raum oft rasant.

Drei kurze Chats mit einer Künstlichen Intelligenz können den Glauben an Verschwörungsmythen ins Wanken bringen. Zu diesem Ergebnis kommt ein Team um Thomas Costello vom MIT in Cambridge, Massachussetts. Bislang galt es generell als schwierig, Verschwörungsmythen mit Fakten zu begegnen. Die zu Grunde liegenden Motive wie Wunschdenken oder das Bedürfnis nach Selbstüberhöhung sind oft stärker als rationale Argumente. Zudem steht die Gegenrede von Menschen schnell im Verdacht, selbst Teil des »Mainstreams« oder der Verschwörung zu sein.

In der Studie gaben 2190 US-Amerikaner zunächst Auskunft darüber, ob ihrer Meinung nach die Terroranschläge von 9/11 von der US-Regierung geplant gewesen, die Covid-19-Pandemie ein Fake oder Donald Trump im Jahr 2020 um das Präsidentenamt betrogen worden war. Auf einer Skala von 0 bis 100 Prozent bewerteten die Teilnehmer, wie sehr sie davon jeweils überzeugt waren. Ein Teil der Gruppe führte dann ein kurzes Gespräch mit der KI »ChatGPT-4 Turbo«, die den Faktenstand knapp zusammenfasste. Der Chatbot war von den Versuchsleitern explizit aufgefordert worden, die Verschwörungsmythen zu entkräften. Auf die drei KI-generierten Antworten durften die Probanden zweimal mit Erwiderungen reagieren. In der Kontrollgruppe wurde dagegen ein anderes, neutrales Thema verhandelt.

Nach der rund zehnminütigen Interaktion war die Überzeugungsstärke der Testprobanden, anders als in der Kontrollgruppe, deutlich reduziert – im Schnitt um knapp ein Fünftel. Rund jede vierte teilnehmende Person war sich nun sogar zu weniger als 50 Prozent sicher, dass die jeweilige Verschwörungserzählung stimme. Selbst noch zwei Monate später hielt die Wirkung kaum vermindert an. »Das Debunking per KI scheint zu einer signifikanten, längerfristig anhaltenden Reduktion verschwörungstheoretischer Überzeugungen zu führen«, erklärt Kommunikationsforscher Fabian Hutmacher von der Julius-Maximilians-Universität Würzburg gegenüber dem Science Media Center.

Ob KI-Tools im Alltag gegenüber Falschinformationen resistenter machen, ist nicht gesagt

Dass das auch unter Alltagsbedingungen funktioniert, ist damit allerdings nicht gesagt. »Solche Werte kommen oft durch die experimentelle Situation zustande und müssen keine wirkliche Meinungsänderung bedeuten«, gibt Nicole Krämer, Sozialpsychologin an der Universität Duisburg-Essen, zu bedenken. Es ist eben eines, ob man in einem Experiment der KI zugesteht, gewisse Annahmen relativieren zu können, und etwas anderes, ob man sich von geschickt agierenden Internet-Trollen in den eigenen Vorurteilen und Ängsten bestärken lässt.

Immerhin: Gemäß nachträglicher Überprüfung waren 99,2 Prozent der von der KI angeführten Tatsachen tatsächlich korrekt – was insofern erstaunt, als KI oft selbst zum kreativen Ausdeuten und Erfinden (»Halluzinieren«) neigt. Laut dem Forschungsteam könnte gerade die Mischung aus maschineller Faktensichtung und persönlicher Ansprache im Chat die besondere Überzeugungskraft der Bots erklären. Wenngleich ein Gegenargument der Verschwörungsfreunde natürlich auf der Hand liegt: Da auch eine KI nur die im Netz kursierenden Informationen auswertet, ist ja klar, dass ihre vermeintlichen Fakten selektiv oder eben »fake« sind. Der Drang, es besser zu wissen als die anderen, lässt sich eben schwer aushebeln.

  • Quellen

Science 10.1126/science.adq1814, 2024

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.