Nudging: Kapert das Silicon Valley unsere Köpfe?
Das Handy fiept, Whats-App-Nachrichten poppen auf, E-Mails harren der Antwort. Ob bei der Arbeit oder in der Freizeit – das Smartphone lenkt uns im Alltag ständig ab. 150-mal am Tag checkt der durchschnittliche Smartphone-Benutzer angeblich sein Display – zumindest behauptet dies eine von Nokia beauftragte Studie.
Der Design-Ethiker Tristan Harris behauptet deshalb, dass uns Smartphone-Apps süchtig machen. Die Technologie, so seine These, kapert unseren Verstand. In einem Beitrag zeigt Harris auf, mit welchen Tricks die Tech-Konzerne unsere psychologischen Schwächen ausnutzen. Die ganzen Interfaces von Apps seien wie ein Menü aufgebaut: Auswahl 1, Auswahl 2, Auswahl 3. Und wer die Auswahl in der Hand hat, kontrolliert auch die Entscheidung. Facebooks "What's happening in the world" ist ein schmales Bouquet der Ereignisse in der Welt. Doch die Auswahl ist letztlich eine Illusion. "Die westliche Kultur", schreibt Harris, "gründet auf den Idealen von individueller Wahl und Freiheit. Millionen verfechten vehement das Recht, 'freie' Entscheidungen zu treffen, während wir ignorieren, wie wir kontinuierlich von Menüs limitiert werden, die wir gar nicht ausgewählt haben." Das sei genau das, was Zauberer tun. Sie geben dem Publikum die Illusion einer freien Entscheidung, während das Spiel abgekartet ist. Harris veranschaulicht diesen Kniff anhand mehrerer Beispiele.
Wenn man morgens aufwacht und sein Smartphone checkt, poppen eine Reihe von Benachrichtigungen auf, die schon eine Vorauswahl relevanter Ereignisse treffen. Eingehende Nachrichten oder neue Nachrichten werden auf Facebook mit einem rot unterlegten Icon markiert, einer Signalfarbe, die eine unmittelbare Reaktion provoziert. Apps seien wie Slot-Maschinen modelliert, schreibt Harris. Man wirft Zeit als Währung ein und bekommt zur Belohnung Likes oder Retweets. Wenn der Nutzer auf den Gefällt-mir-Button klickt, drückt er auf einen Knopf der Glücksmaschine und setzt eine Simulation in Gang. Die Walzen drehen sich, und die Maschine spuckt ein fiktionales Symbol aus.
Der Überkonsum-Brecher
Harris weiß, wovon er spricht. Er ist ein Schüler des legendären Stanford-Psychologen B. J. Fogg, dessen Standardwerk "Persuasive Technology: Using Computers to Change What We Think and Do" viele App-Entwickler beeinflusst hat. Fogg hat ein Modell konzipiert, das menschliches Verhalten erklären soll. Zu den Alumni des Persuasive Technology Lab gehört unter anderen auch Instagram-Mitgründer Mike Krieger. Harris' Start-up wurde 2011 von Google übernommen, wo er als Produktmanager die Inbox-App von Gmail entwickelte. Harris ist mittlerweile so etwas wie ein Häretiker dieser Denkschule, er ist Mitbegründer der Bewegung "Time Well Spent", die die Aufmerksamkeit nicht maximieren, sondern minimieren will. Die US-Zeitschrift "The Atlantic" überschrieb ein Porträt über ihn mit dem Titel "The Binge Breaker", auf Deutsch: der Überkonsum-Brecher.
Der Psychologe Christian Montag, Heisenberg-Professor am Institut für Psychologie und Pädagogik der Universität Ulm, kann Harris' Thesen durchaus etwas abgewinnen: "Ich teile die Ansicht, dass sich viele Apps Mechanismen zu Nutze machen, die schon lange aus der Glücksspielsuchtforschung bekannt sind. Unser Gehirn reagiert besonders auf solche Verstärkungsmechanismen, die mit dem Begriff der intermittierenden Verstärkung beschrieben werden." Im Prinzip gehe es darum, dass der Nutzer nicht bei jedem Aufrufen der App (oder generell auch des Smartphones) eine kleine Belohnung bekommt, sondern dass diese Belohnung unregelmäßig, aber trotzdem hin und wieder erscheine. "Aus vielen Experimenten wissen Psychologen, dass durch diese Art der Verstärkung besonders löschungsresistentes Verhalten erzeugt wird: Es fällt uns dann sehr schwer, die Hände von Smartphones und den Apps zu lassen", konstatiert Montag.
Freunde als Ressource
Gratisspiele wie Zynga oder Farmville verfolgen eine perfide Psychologie: Sie verleiten die Spieler dazu, Freunde als Ressource zu betrachten und rauben ihnen Zeit und Geld. Den Spielern wird ein Gewinn vorgegaukelt, dabei ist es ein reines Verlustgeschäft. Die Tech-Giganten haben die besten Statistiker und Computerwissenschaftler, deren Job es ist, den Willen der Internetnutzer zu brechen. Der Informationskapitalismus sei eine Welt des In-den-Kopf-Eindringens geworden, schrieb einst Frank Schirrmacher. Die Technologiefirmen wollen mit ihren Angeboten an den Dopamin-Rezeptoren im Gehirn andocken, an unserem Belohnungszentrum. Denn: Wer glücklich ist, ist konsumfreudiger – und gibt mehr Geld aus.
Natürlich bedienen sich Unternehmen auch im analogen Leben solcher raffinierten Kunstgriffe. Supermarktdesigner verführen Kunden mit einer Reihe von psychologischen Tricks zum Kauf. Billige Produkte befinden in der so genannten Bückzone, teurere Produkte in der Greif- und Sichtzone, in der Quengelzone werden Produkte perfekt auf Kinderaugenhöhe platziert. Auch in der Kantine wird man gelegentlich statt zur Schokolade sanft zum gesünderen Obst geschubst, das perfekt auf Griffhöhe liegt. Nudging nennt sich dieser Ansatz aus der Verhaltenspsychologie.
Trotz der Wirksamkeit ist die Methode unter Experten umstritten, weil sie als paternalistisch und manipulativ gilt. Gerd Gigerenzer, Direktor am Max-Planck-Institut für Bildungsforschung (MPI) in Berlin, argumentiert, dass wir mehr mündige Bürger in unserem Land brauchen statt Menschen, die von anderen gelenkt werden. Nun macht es freilich einen Unterschied, ob man unter Ausnutzung psychologischer Schwächen zu einer Kaufentscheidung oder einer Wahlentscheidung genudgt wird. Harris' Analyse verkennt, dass das Problem auch eine tiefer gehende politische Dimension hat.
Der Brexit-Bias
Am 14. Juni 2016, kurz vor dem Referendum über den EU-Austritt Großbritanniens, fiel dem Blogger Jon Worth auf, dass in den Status-Updates seiner mobilen Facebook-App in der Rubrik "Gefühle/Aktivitäten" die Option "in favour of leaving the EU" für einen Austritt aus der Europäischen Union auftauchte. Der mit einem Megafon gekennzeichnete Button poppte unter dem Symbol eines Fernsehers ("watching TV) und einer Kaffeetasse ("having a cuppa") auf – als sei Wählen eines Freizeitbeschäftigung. Die umgekehrte Option ("in favour of remaining in the EU") war nicht standardmäßig eingestellt und nur verfügbar, wenn man gezielt danach suchte. Das Phänomen tauchte nur auf der mobilen App, nicht am Desktop auf. Worth twitterte: "Facebooks iOS-App erlaubt einem 'für einen Austritt aus der EU' zu artikulieren, nicht aber für einen Verbleib. #Brexit bias." Facebook dementierte die Vorwürfe. Fragt sich bloß, wie dieser tendenziöse Button überhaupt in die Status-Updates gelangen konnte.
Die politische Willensbildung in sozialen Netzwerken ist hochmanipulativ. Am 23. September 2016 schickte Facebook seinen Nutzern einen Reminder in den Newsfeed, der sie an die Registrierung zur US-Wahl erinnerte. Der Reminder, der insgesamt vier Tage lang angezeigt wurde, hatte offensichtlich einen signifikanten Effekt auf die Registrierungszahlen. Wie die "New York Times" berichtet, schrieben sich an dem Tag allein im Bundesstaat Kalifornien 123 000 Bürger ein oder aktualisierten ihren Eintrag in das Wählerverzeichnis. Auch Oregon, Washington und Pennsylvania verzeichneten an dem Tag einen Peak ihrer Registrierungszahlen. Die Politik feierte Facebook für den Dienst an der Demokratie. Doch bei aller Euphorie über eine höhere Wahlbeteiligung ist die Frage, wem Facebook diesen Reminder ausgerollt hat. Wirklich allen Nutzern? Gezielt Demokraten, um sie zur Wahl zu mobilisieren?
Die Frage ist, ob in einem solch hochmanipulativen medialen Ökosystem, wo suggestive Dark Posts und Fake-News eingeschleust werden, das Prinzip des freien Willens unterminiert wird, das Harris kurz anreißt. Wählen heißt ja auch auswählen, und wenn Facebook die "Menü-Auswahl" begrenzt, erscheint das unter demokratischen Gesichtspunkten problematisch.
Sind wir programmierbar?
Der amerikanische Psychologe Robert Levine, Autor des Buchs "Die große Verführung: Psychologie der Manipulation", sagt im Gespräch mit "Spektrum.de": "Die Frage nach dem freien Willen ist sehr kompliziert. Wir können aber fragen, ob unter den derzeitigen Bedingungen die Menschen programmierbarer sind oder, konkreter, ob sie dazu gebracht werden können, dass sie Entscheidungen treffen, die nicht in ihrem besten Interesse sind." Levine ist der Meinung, dass die Anfälligkeit der Wähler, blind überzeugt worden zu sein, in den letzten Jahren exponentiell angestiegen ist und mit Trumps Wahlsieg ein Besorgnis erregendes Niveau erreicht habe. "Die Informationen, die Facebook-Nutzer bekommen, sind nicht Gegenstand eines empirischen Faktenchecks und extrem anfällig für Manipulationen. Donald Trump und sein Wahlkampfteam haben diese Verwundbarkeit in einer oft cleveren und gelegentlich auch betrügerischen Weise ausgenutzt", argumentiert der Psychologe.
Diese Auffassung vertritt auch Scott Selisker, der an der University of Arizona Englisch lehrt und kürzlich das Buch "Human Programming – Brainwashing, Automatons, and American Unfreedom" publiziert hat. Auf eine E-Mail-Anfrage teilt er mit: "Wir sind alle zu einem gewissen Maß von unserer Umgebung und der Art der Informationen, zu denen wir Zugang haben, programmierbar. Ich glaube, dass wir freie Entscheidungen treffen, aber die Kräfte unterschätzen, die unsere Meinungen und Werte formen."
Facebook kann mit ein paar Änderungen seines Newsfeed-Algorithmus die Lautstärke in den Echokammern aufdrehen oder dimmen und Nutzergruppen dorthin schubsen, wo es gerade politisch opportun erscheint. Vielleicht sollte uns diese Manipulierbarkeit mehr beunruhigen als die Zeit, die wir täglich in sozialen Netzwerken verbringen.
Schreiben Sie uns!
2 Beiträge anzeigen