Direkt zum Inhalt

Mythos Fehlinformation: Warum soziale Medien weniger gefährlich sind, als wir denken

Social-Media-Algorithmen, Echokammern und KI: Häufig werden mit diesen Schlagworten Ängste um unsere Demokratie geschürt. Doch das lenkt von den eigentlichen Problemen ab.
Viele Hände mit Smartphones
Das größte Problem unserer Gesellschaft sind nicht Fake News auf Social Media.

Immer wieder hört man, dass Social Media die Demokratie gefährde: Wir – und vor allem andere – würden tagtäglich mit polarisierenden und falschen Inhalten überflutet; Donald Trump habe dank russischer Propaganda in den sozialen Medien die Präsidentschaftswahl 2016 gewonnen; zudem seien wir in digitalen Echokammern gefangen, die permanent unsere Sichtweisen bestätigen und verstärken. Und es gibt etliche Geschichten darüber, wie Menschen auf Youtube durch immer extremere Video-Empfehlungen in Radikalisierungsspiralen hineingezogen werden. So spalte sich die Gesellschaft zunehmend; immer mehr Menschen wählten deshalb extreme Parteien.

Die ernst zu nehmende Sorge, dass soziale Medien im großen Stil unsere Einstellungen manipulieren, steht allerdings im starken Kontrast zu den Erfahrungen, die man im Alltag macht: Wenn man versucht, eine Person von etwas zu überzeugen, das stark von ihrer Vorstellung abweicht, gelingt das in der Regel nicht. In Diskussionen rund um Politik, Covid, Klimawandel und Co. kann leicht das Gefühl aufkommen, gegen eine Wand zu reden. Jeder glaubt, Recht zu haben, keiner will dem anderen geduldig zuhören. Nur selten ändert man durch ein Gespräch seine Meinung.

Es gibt eine gute, wissenschaftlich belegte Erklärung für diesen scheinbaren Starrsinn: Menschen sammeln ein Leben lang Erfahrungen und Wissen, die sich zu einem Weltbild zusammensetzen. Gegensätzliche Argumente in einzelnen Gesprächen oder Zeitungsartikeln wiegen im Vergleich wenig. Es wäre ja auch ziemlich töricht, einfach etwas zu glauben, was nicht zum restlichen Verständnis der Welt passt.

Wenn Menschen ihre Meinung nicht so leicht ändern, wie können soziale Medien dann die Einstellung ganzer Gesellschaftsgruppen manipulieren? Und warum halten Experten und Expertinnen beim Weltwirtschaftsforum des Jahres 2024 Desinformation für die größte globale Gefahr der nächsten zwei Jahre? Das scheint nicht zusammenzupassen.

Fehlinformation ist selten

Die öffentliche, mediale und politische Meinung zu Social Media unterscheidet sich stark von dem, was wissenschaftliche Studien nahelegen. Zum Beispiel besagt ein Mythos, dass Fehlinformationen weit verbreitet sind. Doch wie eine Übersicht vom Juni 2024 über viele verschiedene Studien zeigt, macht Fehlinformation je nach Plattform, Land und Jahr zwischen 0,1 und 6,7 Prozent des Nachrichtenkonsums aus. Hinzu kommt, dass nur wenige Menschen überhaupt Nachrichten lesen. Auf Facebook in den USA etwa machen politische News laut einer 2023 erschienenen Studie nur drei Prozent aller geteilten Posts aus – und lediglich ein winziger Bruchteil davon enthält Falschinformationen.

In westlichen Demokratien teilen tendenziell mehr Menschen mit rechten politischen Einstellungen Fehlinformationen

Darüber hinaus sind bloß wenige Nutzerinnen und Nutzer für den Großteil dieser Fehlinformationen verantwortlich. Beispielsweise haben Forschende um den Informatiker Nir Grinberg von der Northeastern University in Boston gezeigt, dass bei der US-Präsidentschaftswahl 2016 lediglich ein Prozent der Twitter-User und -Userinnen 80 Prozent der Nachrichten aus wenig vertrauenswürdigen Quellen teilten. Bei der darauf folgenden Wahl im Jahr 2020 gab es insgesamt nur 2107 »Supersharer«, die damit fünf Prozent aller registrierten Wähler erreichten. Die überwiegende Mehrheit der Nutzenden sieht also noch viel weniger Fehlinformation, als die Durchschnittszahlen von 0,1 bis 6 Prozent vermuten lassen.

Eine Gruppe um den Politikwissenschaftler Michael Peterson von der dänischen Universität Aarhus hat 2021 untersucht, wer die Menschen sind, die den Großteil der Fehlinformationen lesen und teilen. Den Ergebnissen zufolge handelt es sich um Personen mit starken Meinungen, die sich oft extremen politischen Gruppen zugehörig fühlen. Diese Supersharer haben tendenziell ein niedriges Vertrauen in Institutionen wie Politik, Medien, Wissenschaft oder Medizin und fühlen sich von ihnen nicht vertreten. Grinberg und sein Team konnten zudem zeigen, dass in westlichen Demokratien tendenziell mehr Menschen mit rechten politischen Einstellungen Fehlinformationen teilen. Das bestätigt die Ergebnisse vieler anderer Studien. Wie Peterson und seine Kolleginnen und Kollegen vermuten, könnte das daran liegen, dass die Sichtweisen solcher Personen in traditionellen Medien und Institutionen wie der Wissenschaft schlecht vertreten sind.

Die Macht von Social-Media-Algorithmen

Auch wenn wir nicht von Desinformation überflutet werden, bleibt die Sorge um die Radikalisierung durch Algorithmen und digitale Echokammern. Bis vor wenigen Jahren gab es kaum verfügbare Daten zu diesem Thema und entsprechend wenig wissenschaftliche Ergebnisse. Doch als ich zusammen mit meinem Kollegen David Garcia von der Universität Konstanz 2023 die Literatur zum Thema durchforstete, zeigte sich durchgängig, dass sich Menschen auf Plattformen wie Twitter, Facebook, Instagram, Youtube oder Google meist nur durch eigene Nachfragen nach extremen Inhalten radikalisieren. Das bestätigen mittlerweile viele Studien verschiedener Fachgruppen.

Menschen mit extremen Einstellungen suchen also aktiv nach Inhalten, die ihr Misstrauen bestätigen. Es sind zielgerichtete Gruppen auf Facebook, Telegram und Co., die radikale, überwiegend rechte Einstellungen nähren. Algorithmen hingegen spielen eine eher untergeordnete Rolle, schlagen meist moderate Inhalte vor und haben manchmal sogar einen linken politischen Bias, wie eine 2023 erschienene Studie nahelegt. Extreme Inhalte werden aktuellen Untersuchungen zufolge meistens Menschen empfohlen, die bereits viele vergleichbare Inhalte konsumiert haben. Klicks auf radikale Youtube-Videos kommen oft von externen Links oder von Accounts, denen Nutzende folgen, haben Fachleute um Christo Wilson von der Northeastern University im August 2023 festgestellt.

Bei einer der fünf groß angelegten Facebook-Instagram-Election-Studien haben Fachleute bei 45 000 Freiwilligen zwei Monate vor den US-Präsidentschaftswahlen im Jahr 2020 (Biden gegen Trump) die algorithmische Vorauswahl ihres Social-Media-Feeds abgedreht. Der Effekt war groß: Die Personen verbrachten weniger Zeit online und erhielten mehr politische Inhalte; weniger aus gleichgesinnten und politisch konträren Quellen, stattdessen mehr moderate Informationen. Leider waren im Feed ohne Algorithmus auch mehr Inhalte aus nicht vertrauenswürdigen Quellen (4,4 Prozent statt 2,6 Prozent) vertreten – das heißt, Algorithmen haben hier positive Effekte. Trotzdem änderten sich die politische Einstellung, das Wahlverhalten und die Gefühle gegenüber der anderen politischen Seite nicht – entgegen den Erwartungen.

Kontakt mit starken entgegengesetzten Meinungen auf Social Media führt eher zu Konflikten als zu gegenseitigem Verständnis

Und auch der Mythos um digitale Echokammern lässt sich ausräumen. Bereits 2011 haben die Ökonomen Matthew Gentzkow und Jesse Shapiro vom National Bureau of Economic Research gezeigt, dass Echokammern offline tendenziell stärker wirken als online. Wie sehr diese im Internet ausgeprägt sind, variiert stark: Bei 23,1 Prozent der Facebook-Nutzer stammen weniger als 25 Prozent der Inhalte aus Quellen, die mit ihrer Sichtweise übereinstimmen; dagegen sind es bei anderen 20,6 Prozent der Nutzenden 75 Prozent. Nur letztere befinden sich online also in einer Echokammer.

Echokammern aufzulösen ist nicht unbedingt hilfreich. Ein 2018 in den USA von dem Soziologen Christopher Bail und seinem Team durchgeführtes Experiment auf Twitter ergab, dass sich User und Userinnen stärker polarisierten, wenn sie einen Monat lang Inhalte von Meinungsführern der anderen politischer Seiten sahen. Kontakt mit starken entgegengesetzten Meinungen auf Social Media führt also eher zu Konflikten als zu gegenseitigem Verständnis.

Wie sich Propaganda auf das Wahlverhalten auswirkt

Nicht nur Algorithmen scheinen Menschen lediglich wenig zu beeinflussen, sondern auch Propaganda. ZweiStudien aus den Jahren 2019 und 2023 haben gezeigt, dass die russischen Desinformationsattacken während der US-Wahlen 2016 keine Effekte auf Einstellung, Wahlentscheidung und Polarisierung hatten. Ein Grund dafür ist, dass die große Mehrheit der Nutzenden viel mehr gemäßigte politische Inhalte sah als Posts von russischen Accounts. Die wenigen, die den Großteil der Desinformation abbekamen, waren sowieso schon überzeugte Trump-Wähler.

Im Gegensatz dazu haben groß angelegte politische Kampagnen einen erheblichen Einfluss auf Massenmedien: Es werden Wahlwerbespots ausgestrahlt, Personen in Talkshows eingeladen oder TV-Duelle geführt. Dennoch wirken sich diese Effekte unabhängig von der werbenden Partei nur geringfügig auf die Einstellung der Wähler aus, wie eine Studie im Jahr 2021 zeigte. Politische TV-Werbung steigert oder senkt demnach die Beliebtheit eines Kandidaten um zirka ein Prozent und ändert Wahlabsichten für eine bestimmte Partei um etwa 0,7 Prozent. In den USA könnte der regelmäßige Konsum des konservativen Senders Fox News laut einer 2017 durchgeführten Untersuchung die Wahlergebnisse der republikanischen Partei um rund 0,5 Prozent verbessert haben.

Die Social-Media-Plattform Facebook hat ebenfalls einen gewissen Einfluss – wenn auch anders als erwartet. Für eine Studie deaktivierten 20 000 Probanden vor den US-Wahlen im Jahr 2020 sechs Wochen lang ihren Facebook-Account. In der Folge sank ihr allgemeines Wissen über die Nachrichtenlage, aber sie konnten später Fehlinformationen besser erkennen. Der Effekt ist recht klein: Vergleicht man damit die Auswirkungen eines Universitätsstudiums auf das Erkennen von Desinformation, dann war die Verbesserung durch die Facebook-Deaktivierung etwa zehnmal geringer. Und auch das Wahlverhalten der Personen änderte sich nur geringfügig. Kaum mehr als ein Prozent der potenziellen Trump-Wähler stimmten durch den Social-Media-Entzug für Biden. Politisches Wissen zur Wahl, die gefühlte Spaltung, Meinungen sowie die politische Teilhabe änderten sich durch die Deaktivierung nicht. Das gleiche Vorgehen mit Instagram hatte sogar überhaupt keine Effekte auf Fehlinformation, Wahlentscheidung oder News-Wissen.

Menschen sind neuen Informationen gegenüber grundsätzlich skeptisch

Insgesamt spielen Massenmedien und die Aussagen von Politikerinnen und Politikern eine viel wichtigere Rolle als Desinformation mittels undurchsichtiger Quellen. Das verdeutlicht eine im Mai 2024 erschienene Studie im Rahmen der Covid-Pandemie: Artikel in gewöhnlichen Medien, die Gefahr suggerierten (etwa: »Gesunder Arzt stirbt zwei Wochen nach Impfung«), reduzierten die Impfbereitschaft viel stärker (um durchschnittlich zwei Prozent pro User) als Fake News (0,05 Prozent). Das kann auch daran liegen, dass Links zu Fehlinformationen nur 0,03 Prozent der geteilten Posts zu Covid ausmachten.

Die geringen Auswirkungen von Falschinformationen verdeutlichen, dass Menschen neuen Informationen gegenüber grundsätzlich skeptisch sind. Jemanden zu überzeugen, ist schwer und braucht gute Argumente aus Quellen, denen derjenige vertraut.

KI kann Aufmerksamkeit nicht vervielfachen

In den letzten Jahren kam ein weiterer Risikofaktor hinzu: Könnte künstliche Intelligenz (KI) inzwischen so überzeugend sein, dass sie die Meinung der Massen manipulieren kann? Auch hier zeigen sich Forscher optimistisch.

In westlichen Demokratien wird der Nachrichtenkonsum vor allem über die Nachfrage gesteuert. Verschiedene Medien kämpfen um Aufmerksamkeit und publizieren deswegen, was Menschen lesen wollen. Nur wenige Personen interessieren sich für politische Nachrichten, und auch sie lesen oft bloß die Schlagzeile. KI wird nicht dabei helfen können, mehr Aufmerksamkeit zu generieren. Es gibt schon jetzt eine Menge Unsinn im Internet, und niemand hat die Zeit, das alles zu konsumieren. Vieles wird beispielsweise wegen seines Unterhaltungswerts wahrgenommen und nicht unbedingt geglaubt.

Eine im Juni 2024 erschienene Studie demonstrierte etwa, dass vom KI-Sprachmodell ChatGPT-4 personalisierte politische Botschaften nicht überzeugender waren als nicht personalisierte Nachrichten. Auch andere Untersuchungen zeigen, dass Inhalte der besten aktuell verfügbaren Sprachmodelle nicht besser wirken als solche von älteren Modellen. Das heißt, es bringt wenig, noch überzeugender zu sein.

Der Konsum von Nachrichten nahm seit 2015 um 25 Prozent ab – die meisten Menschen sind nicht falsch informiert, sondern uninformiert

Menschliche Journalisten und Journalistinnen sind bereits so überzeugend, dass es schwerfällt, sie zu übertreffen – das gilt auch für KI. Ob man einer Information vertraut, hängt stark davon ab, von wem sie kommt. Traditionelle Zeitungen und Fernsehsender genießen eine viel höhere Reputation als dubiose Internetseiten.

Allerdings sinkt das Interesse vieler Menschen an Medien, Politik und Wissenschaft. Laut einer im Mai 2024 veröffentlichten Studie nahm der Konsum von Nachrichten (auch auf Social Media) zwischen 2015 und 2022 in 46 Ländern um 25 Prozent ab. Die meisten Menschen sind nicht falsch informiert, sondern uninformiert. Sie glauben nicht zu vielen Fehlinformationen, sondern vertrauen der Wissenschaft und den Medien zu wenig. Letzteres ist das eigentliche Problem – und der Ansatz für eine nachhaltige Lösung.

Fehlinformation ist ein Symptom, nicht die Krankheit

Bei Diskussionen rund um soziale Medien, Algorithmen und KI wird leider oft übersehen, dass Fehlinformation vor allem ein Symptom von gesellschaftlicher Polarisierung ist. Wenn Institutionen daran scheitern, reale Probleme zu lösen und große Bevölkerungsgruppen angemessen zu vertreten, sinkt das Vertrauen. Zum Beispiel sind Verschwörungsmythen in Ländern mit mehr Korruption weiter verbreitet. Über verschiedene OECD-Staaten hinweg hängt die gefühlte Polarisierung der Gesellschaft stark mit der Spaltung von politischen Eliten und mit der Größe des nicht weißen Bevölkerungsanteils zusammen.

Die sozialen Medien spiegeln diese gesellschaftlichen Konflikte wider. Sie lassen sie schlimmer erscheinen, als sie sind, indem sie vor allem extremen Stimmen eine Bühne bieten. Menschen, die sich nicht wirklich für ein Thema interessieren, halten sich meist zurück. Deswegen ist die große Mehrheit mit moderaten Einstellungen auf Social Media fast unsichtbar. So entsteht ein Bild scheinbarer Polarisierung, das die tatsächliche Spaltung verstärken kann.

Mit dem Finger wird gern auf Social Media und KI gezeigt. Leider lenkt das aber die Aufmerksamkeit von den wirklichen Problemen ab

Statt lediglich die Verbreitung von Fehlinformation zu bremsen, ist es viel wichtiger, das Vertrauen in demokratische Institutionen zu stärken. Leider gibt es dafür kein einfaches Rezept. Man muss Schritt für Schritt transparentere und effizientere Institutionen schaffen, die gesellschaftliche Probleme angehen und lösen. Medien müssen nützliche Informationen liefern und nicht nur vom Spiel mit der Aufmerksamkeit leben. Zudem sollte man erklären, wie Journalisten recherchieren und Fakten überprüfen. Und auch die Wissenschaft muss transparent sein, sich selbst kritisieren und in Frage stellen.

All das ist schwer umzusetzen. So lässt sich verstehen, warum lieber mit dem Finger auf Social Media und KI gezeigt wird. Leider lenkt das aber die Aufmerksamkeit von den wirklichen Problemen ab.

WEITERLESEN MIT SPEKTRUM - DIE WOCHE

Im Abo erhalten Sie exklusiven Zugang zu allen »spektrum.de« Artikeln sowie wöchentlich »Spektrum - Die Woche« als PDF- und App-Ausgabe. Genießen Sie uneingeschränkten Zugang und wählen Sie aus unseren Angeboten.

Zum Angebot

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Quellen

Bail, C. A. et al.: Exposure to opposing views on social media can increase political polarization. PNAS 115, 2018

Budak, C. et al.: Misunderstanding the harms of online misinformation. Nature 630, 2024

Grinberg, N. et al.: Fake news on Twitter during the 2016 U.S. presidential election. Science 363, 2019

Guess, A. M. et al.: How do social media feed algorithms affect attitudes and behavior in an election campaign? Science 381, 2023

Metzler, H., Garcia, D.: Social drivers and algorithmic mechanisms on digital media. Perspectives on Psychological Science 10.1177/17456916231185057, 2023

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.