Nutzerverhalten: Meinung: Und Facebook erzeugt doch eine Filterblase
Facebook erzeugt keine Filterbubble. Viele werden einen aktuellen Artikel des Facebook Data Science Team über die Auswirkungen des Ranking-Algorithmus im Fachmagazin "Science" so deuten – unter anderem, weil sie auf die Presseankündigung des Magazins hereingefallen sind. Aber das Gegenteil ist der Fall. Anders als angekündigt klärt die Studie nicht die Frage, ob das soziale Netzwerk eine Filterblase erzeugt – auch wenn der Konzern die Ergebnisse sicher gerne in diese Richtung deuten würde. Was wäre schöner als behaupten zu können, Facebook trage die Meinungsvielfalt unter seine Nutzer und stärke so die Demokratie?
Diese Hoffnung müssen wir jedoch leider enttäuschen. Die Studie vergleicht lediglich den Effekt, den der Algorithmus in Bezug auf das Konsumieren einseitiger Informationen hat, mit dem Effekt, den der freie Wille der Nutzer ausüben würde. So ist der Algorithmus nach den Erkenntnissen der Facebook-Forscher um Eythan Bakshy weniger stark für das Entstehen einer so genannten Filterblase verantwortlich, als allgemein angenommen wird. Die Forscher vom Data Team des Konzerns haben für die Studie untersucht, wie mehr als zehn Millionen US-Facebook-Nutzer auf Linkempfehlungen ihres Netzwerkes reagierten. Die Anwender hatten ihre politische Ausrichtung in ihrem Profil angegeben, die Forscher hatten die Links ebenfalls jeweils einer politischen Richtung zugeordnet. Zentrale Erkenntnis: Ob die Nutzer Inhalte konsumieren, die nicht ihren persönlichen Ansichten entsprechen, wird weniger vom Algorithmus bestimmt als von den Nutzern selbst. Sie klicken missliebige Inhalte einfach nicht an.
Ganz offenbar wollen die Konsumenten also nichts anderes, als in ihrer Filterbubble in Ruhe gelassen zu werden. Viele von ihnen ahnen nicht einmal, dass sie sich in einer solchen Blase befinden, in die vor allem jene Nachrichten vordringen, von denen der Algorithmus glaubt, dass die Nutzer sie sehen wollen: Laut einer anderen Studie wissen viele Facebook-Nutzer nicht, dass der Newsfeed von einem Algorithmus gesteuert wird. Sie halten das, was sie sehen, für ein Abbild der Realität. Das wiederum, befürchten viele Experten, kann zu einer einseitigen Meinungsbildung bis hin zu Radikalisierung führen.
Dieses Image würde Facebook gerne ablegen. Aber das leistet die neue Studie nicht, auch wenn es die Ankündigung von "Science" vermuten lässt. Im Gegenteil: Bakshy und seine Kollegen bestätigen, dass der Algorithmus zu einer einseitigen Nachrichtenauswahl führt. Welche Neuigkeiten ein Nutzer ganz oben angezeigt bekommt, entscheidet sich unter anderem danach, wie oft dieser Facebook besucht, wie intensiv er mit bestimmten Freunden interagiert und welche Links seines Newsfeed er in der Vergangenheit angeklickt hat. Neu ist lediglich die Erkenntnis, dass die Nutzer offenbar mehr Vielfalt präsentiert bekommen, als sie aufnehmen.
Dass Facebook seinen Konsumenten vielfältigere Inhalte zeigt, als diese sehen wollen, spricht für das Netzwerk. Und dass seine Forscher mit dem Datenschatz, auf dem das Unternehmen sitzt, dazu beitragen, die Wirkung von Algorithmen auf gesellschaftliche Wahrnehmungsprozesse zu verstehen, ist ebenso löblich. Keine Frage: Die Studie ist seriös, Facebook hat gute Forscher, solche Erkenntnisse bringen uns weiter.
Die Frage ist also eher, was die Gesellschaft nun daraus macht. Die Ergebnisse so zu verkaufen, dass Facebook keine Filterbubble erzeugt, ist unseriös. Denn ohne das Ranking bekämen die Nutzer mehr Meldungen angezeigt, deren politische Ausrichtung sie eigentlich falsch finden. Hinzu kommt, dass der Algorithmus Nachrichten über Haustiere und kuriose Promiaktionen stets höher rankt als politisches Weltgeschehen (was in der Studie nicht erwähnt wird): Das erzeugt auch eine einseitige Weltsicht.
Die Studie macht eines erneut klar: Es ist eine der großen offenen Fragen der Gesellschaft, wie sie ihre Mitglieder aus ihren Filterblasen herausbekommt oder zumindest die Wahrnehmung dafür schärft, dass wir dazu neigen, diese Blasen um uns herum zu schaffen. Uns in einer Welt, in der sich die Menschen mehrheitlich über soziale Netzwerke über das Weltgeschehen informieren, neutrale Instanzen zu bewahren, die Nachrichten tatsächlich einordnen, das ist die Herausforderung.
Die logische Konsequenz, die sich für Facebook aus der aktuellen Studie ergibt, steht dem übrigens entgegen. Sollte es der Konzern seinen Nutzern recht machen wollen, weiß er jetzt, was zu tun ist: Er müsste den Algorithmus dahingehend verschärfen, ungeliebte Meinungen erst recht auszusortieren. Denn ganz offenbar wollen die Konsumenten diese ohnehin nicht sehen. Bleibt die Hoffnung, dass sich Facebook seiner Verantwortung bewusst ist.
Schreiben Sie uns!
2 Beiträge anzeigen