Social Media: Lüge schlägt Wahrheit
Falschmeldungen verbreiten sich über Twitter deutlich schneller und weiter als wahre Meldungen. Das zeigt eine Studie im Wissenschaftsmagazin »Science«, für die Forscher mehr als 4,5 Millionen Tweets der vergangenen zwölf Jahre ausgewertet haben. Es ist die größte Studie zu diesem Thema und auch die einzige, die nicht nur die Verbreitung einzelner Themen über Social Media betrachtet, sondern rund 126 000 verschiedene Nachrichten und Themen aus sieben Themenbereichen von Politik über Wissenschaft bis hin zu Terrorismus und Naturkatastrophen.
Interessant ist vor allem das Muster der Verteilung, das noch keine Studie in diesem Maß untersucht hat: »Falschnachrichten verbreiten sich schneller, weiter und tiefgreifender«, sagt Hauptautor Soroush Vosoughi vom Laboratory for Social Machines am Massachusetts Institute of Technology. Sie erreichten nicht nur viel mehr Menschen, sondern diese waren jeweils auch bereiter, sie ihrerseits weiterzuverbreiten.
Die Forscher haben die Themen und Nachrichten in wahr und falsch klassifiziert, indem sie Informationen von sechs verschiedenen Fact-Checking-Organisationen nutzten. Zudem half ein Algorithmus dabei, die Posts auf Twitter zu identifizieren, die sich mit dem gleichen Thema beschäftigen. In diesem riesigen Datensatz aus Posts zu wahren und falschen Meldungen fiel den Forschern vor allem eine zentrale Gemeinsamkeit auf: »Wir haben herausgefunden, dass Falschmeldungen neuartiger sind als wahre Nachrichten«, erklärt Sinan Aral, einer der führenden Social-Media-Experten am MIT: »Nutzer scheinen also neuartige Informationen lieber zu teilen.«
»Falschnachrichten verbreiten sich online in einem unglaublichen Tempo – und viel tiefgreifender«
Sinan Aral
Das klingt zunächst wenig überraschend: Neues hat schließlich einfach mehr Nachrichtenwert, das ist ein Mechanismus, der in den klassischen Medien zentral ist – wobei hier auf die Wahrheit der Nachrichten geachtet und Quellen überprüft werden. Und die Alltagsempirie zeigt doch, dass es sich um ein bekanntes Phänomen handelt: Dort verbreiten sich Gerüchte auch schnell, und häufig sind sie nicht unbedingt wahr. Zeigt die Studie also nun lediglich das entsprechende Verhalten im Digitalen?
Besorgte Wissenschaftler
Wer Sinan Aral damit konfrontiert, erlebt einen zutiefst besorgten Wissenschaftler – der sich schon seit vielen Jahren mit Social Media beschäftigt und eigentlich abgebrüht sein sollte. »Wir können die Offline- und die Onlinewelt nicht wissenschaftlich korrekt vergleichen, aber es ist offensichtlich, dass sich Falschnachrichten online in einem unglaublichen Tempo verbreiten – und viel tiefgreifender.« Falschnachrichten verbreiten sich der Studie zufolge um 70 Prozent wahrscheinlicher als andere. Mit dieser Zahl ist die Wahrscheinlichkeit gemeint, mit der ein Durchschnittsnutzer einen Tweet mit seinen Followern teilt: Wäre der Wert bei 100 Prozent, würde er Falschmeldungen doppelt so häufig weiterleiten wie wahre Meldungen. 70 Prozent ist also ein deutliches Wort.
Wahre Nachrichten benötigten zudem sechsmal so lang, um 1500 Menschen zu erreichen, wie falsche. Und während die Wahrheit nur selten überhaupt 1000 Menschen erreichte, erzielte das Prozent der am besten geteilten Falschmeldungen eine Reichweite zwischen 1000 und 100 000. »Das hat spürbare und dramatische Konsequenzen für unsere Gesellschaft«, warnt Aral. So habe beispielsweise ein Tweet über einen vermeintlichen Anschlag auf Barack Obama zu dessen Amtszeit die Börse derart verunsichert, dass dieser 130 Milliarden Dollar kostete. Und alles nur, weil Menschen so gerne Überraschendes teilen?
Ist es nicht gerade dann, wenn ein Thema überraschend anders ist als andere, naheliegend, zu fragen, ob es denn überhaupt auch wahr ist? »Das ist die Perspektive von Menschen, die gewohnt sind, Quellen zu überprüfen«, sagt Aral – also zum Beispiel von Medienmachern. »Mit sozialen Medien wird aber potenziell jeder zum Verteiler von Nachrichten.« Doch längst nicht jeder sorgt sich um den Wahrheitsgehalt der Botschaften, die er verbreitet. Im Gegenteil: »Wer viele überraschende Neuigkeiten verbreitet, dessen sozialer Status steigt«, sagt Aral. Von daher ist das Verbreiten von Falschmeldungen für manche Nutzer sogar attraktiv. Diese tun das möglicherweise nicht bewusst, »aber sie stellen diese Frage nicht«, erklärt Vosoughi. »Sie sagen: Mir ist egal, ob wahr oder falsch, es ist ein guter Post.«
Wieder andere verbreiten Falschmeldungen mit System, beispielsweise um jemandem gezielt zu schaden oder eigenen Interessen zu dienen. Das mag erklären, wieso Falschmeldungen aus dem Themenbereich Politik die höchste Verbreitung fanden im Vergleich zu anderen Kategorien wie Naturkatastrophen oder Terrorismus. Vor diesem Hintergrund ist es teils beruhigend, dass die Forscher Bots aus ihrer Analyse weitgehend ausgeschlossen haben: Die bewusste Manipulation von Meinungen in großem Stil spielt also vermutlich eine geringere Rolle als teilweise in der Vergangenheit befürchtet wurde.
Ein Großteil der Nutzer verbreitet zudem Falschmeldungen wohl aus Unwissen oder Desinteresse und folgt damit dem offenbar menschlichen Bedürfnis, Überraschendes oder Empörendes zu teilen und dafür entsprechendes Feedback des Umfeldes zu bekommen. »Dazu gibt es aus den Kommunikationswissenschaften viele Untersuchungen«, sagt Deb Roy, Leiter des MIT-Laboratory for Social Machines. »Menschen teilen auch im analogen Leben lieber schlechte als gute Nachrichten und lieber neue und überraschende als bekannte Nachrichten.« Aus informationstheoretischer Perspektive ist das Verhalten also nicht verwunderlich. »Das Problem ist, dass die Technik es potenziert«, so Roy.
Auf der Suche nach neuen Informationen
Doch woran erkennt man »neue« Informationen? Wie konnte für die Studie klassifiziert werden, ob Nutzer eine Information als neu empfinden? Dafür haben die Forscher 5000 zufällige Nutzer ausgewählt, die sowohl falsche als auch wahre Nachrichten verbreitet hatten. Sie schauten dann, welche Tweets diese Nutzer in den 60 Tagen erreichten, bevor sie ein Gerücht posteten. Mit Methoden des maschinellen Lernens identifizierten die Forscher so die potenzielle Informationslage des jeweiligen Nutzers vor dem jeweiligen Post: Und in der Tat teilten diese signifikant häufiger Informationen, die ihnen neu waren – und bei diesen handelte es sich deutlich häufiger um Falschmeldungen.
Aber könnte nicht die Datenbasis selbst einen Bias, eine Verzerrung, beinhalten, beispielsweise weil die Auswahl der Meldungen durch den Filter der Fact-Checking-Organisationen gegangen ist? »Da haben wir vorgesorgt«, sagt Aral: Sicherheitshalber haben die Forscher mit Hilfe mehrerer Studenten einen Kontrolldatensatz angelegt, für den ein Algorithmus lediglich Themen auf Twitter identifizierte, die mehrmals geteilt wurden. Studenten annotierten diese dann als richtig oder falsch. »Unsere Ergebnisse waren robust über die beiden Datensätze hinweg.«
»Wer viele überraschende Neuigkeiten verbreitet, dessen sozialer Status steigt«
Sinan Aral
Zudem legten die Forscher einen computerlinguistischen Emotionsfilter über die Antworten auf die entsprechenden Tweets. »Wir sehen, dass Falschmeldungen Überraschung auslösen«, erklärt Aral. Zudem fanden sie unter jenen Meldungen mehr Angst und Ekel, während Nutzer auf wahre Meldungen eher mit Trauer, Freude und Vertrauen reagierten.
Die Motivation der Nutzer, etwas zu teilen, ließe sich aber mit den vorliegenden Daten nicht klären, betont Vosoughi. Allerdings sei es wichtig, darüber mehr herauszubekommen, sagt Aral. »Wir wissen nicht, in welchem Maße sich die Nutzer bewusst sind, dass sie Falschmeldungen posten.« Wenn es um mögliche Interventionen gehe, sei deshalb unbedingt mehr Forschung nötig. Gegen Unwissenheit helfe beispielsweise Medienbildung.
Wahrheitssuche per Algorithmus
Was Aral zudem besorgt, ist die Geschwindigkeit und das eindeutige Muster, das die Verbreitung von Falschmeldungen zeigt: »Die Art der Verbreitung ist das zentrale Merkmal, anhand dessen ein Algorithmus erkennt, ob es eine Falschmeldung ist.« Zusammen mit einigen anderen Informationen, beispielsweise über die Urheber eines Tweets und den Inhalt, erkennt der Algorithmus von Soroush Vosoughi Falschmeldungen mit 70-prozentiger Genauigkeit. »Das Gute daran ist: Man kann diesen Algorithmus nutzen, um Meldungen beispielsweise über einen Terroranschlag in Echtzeit zu überprüfen – noch bevor Factchecker die Zeit haben, das zu tun.«
Und damit hat genau genommen die ganze Sache angefangen: »Der Anschlag auf den Boston-Marathon hat uns alle ziemlich bewegt«, erklärt Vosoughi. »Das MIT war quasi mittendrin.« Der Polizist Sean Collier war im April 2013 auf dem Campus erschossen worden, als Vosoughi gerade seine Dissertation plante. Soziale Medien seien ihm damals als gute Möglichkeit erschienen, um das Geschehen in Echtzeit zu verfolgen. »Doch mit der Zeit merkte ich, dass es immer mehr Falschmeldungen gab.« So beschloss er, das genauer zu ergründen und vor allem auch Informationen zu erarbeiten, die der Gesellschaft nutzen und mit denen das Problem abgeschwächt werden kann. Eine erste Idee hat Vosoughi schon: »Wenn man in den Supermarkt geht, sind alle Produkte gelabelt: Man weiß, welche Inhaltsstoffe darin sind und wahrscheinlich auch wie viele Kalorien sie enthalten.« Wieso könne man also nicht auch Social-Media-Posts labeln?
Dass eine Kennzeichnungspflicht hilft, ein Verhalten zu ändern, zeigt ihm eine andere Entwicklung: In den USA sei es neuerdings Pflicht, dass Restaurants ihre Speisekarten entsprechend auszeichnen. »Seither haben viele ihr Angebot angepasst und kochen gesünder: weil die Nachfrage gestiegen ist.« Ähnlich könnte es mit Social Media funktionieren: Wenn Nachrichten als wahrscheinlich falsch gelabelt sind, würden sie womöglich weniger attraktiv. Ein Algorithmus wie jener, der Falschmeldungen erkennt, könnte dazu beitragen, dass Nachrichten automatisch gelabelt werden – auf Grundlage des Inhaltes und der Quelle beispielsweise.
Nicht zuletzt könnten die Algorithmen der sozialen Netzwerke Falschnachrichten gewissermaßen bestrafen, indem sie diese niedriger ranken, plant Aral. Aber haben die Unternehmen Interesse daran? Interaktion ist schließlich auch die Währung von Facebook und Twitter. »Die Social-Media-Unternehmen wissen genau, dass es eine kurzsichtige Sichtweise ist«, betont Aral.
Twitter hat die aktuelle Studie mitfinanziert. Hat der Konzern die Ergebnisse kommentiert? Ist er offen dafür, Falschmeldungen in irgendeiner Form zu bestrafen? »Das darf ich nicht sagen«, sagt Aral, »aber glauben Sie mir, Twitter und Facebook wissen, dass ihnen das langfristig schadet, sie wollen als seriöse Plattformen gelten.« Sein Rat ist eindeutig: »Solange die Verbreitung von Falschnachrichten belohnt wird, werden sie verbreitet sein.« Neben sozialem Status bringt viel Interaktion schließlich auch Geld in Form von Klicks auf anzeigenfinanzierte Angebote. »Jetzt wissen wir, dass Fake News mehr Menschen erreichen.« Empirisch herausgefunden hatten das bereits 2016 Webseiten-Programmierer aus Mazedonien, die systematisch Falschmeldungen verbreiteten – »einfach weil es lukrativer ist als die Wahrheit«. Ein inhaltliches Interesse hatten sie nicht. Die Lüge war quasi der Kollateralschaden.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.