Lobes Digitalfabrik: Wenn Algorithmen zensieren
Eigentlich sollte es ein großer Tag für Jacob Koscinski werden. Der 18-jährige Schüler aus Charleston im US-Bundestaat South Carolina hatte gerade seinen Highschool-Abschluss mit der Bestnote 4,89 abgeschlossen. Seine Mutter wollte für ihren Sohn eine kleine Abschlussfeier organisieren und orderte zu seinen Ehren bei einem Lebensmittelhändler eine Torte. Das Geschäft bietet Kunden die Möglichkeit, die Torte mit einer persönlichen Botschaft beschriften zu lassen. Die Mutter gab bei der Online-Bestellung den gewünschten Schriftzug in das Formularfeld ein: »Congrats Jacob! Summa Cum Laude Class of 2018« (Glückwunsch Jacob! Summa Cum Laude, Abschlussjahrgang 2018). Allein, die Maschine führte nicht das aus, was der Mensch diktierte, sondern nahm selbst Federstriche vor.
An Stelle des lateinischen Prädikats »summa cum laude« (»mit höchstem Lob«) stand in dem Fenster nur noch »Summa --- Laude«, versehen mit dem Warnhinweis »profan/nicht erlaubte Sonderzeichen«. Der Grund: Der wörtlich übersetzende Algorithmus hatte den feststehenden lateinischen Begriff »summa cum laude« nicht als Konstruktion erkannt und die Präposition »cum« für die vulgäre englische Vokabel für »Wichse« gehalten – und daher zensiert. Statt »cum« wurden also nur drei dürre Striche angezeigt.
Koscinskis Mutter wies in dem Feld »besondere Anweisungen« darauf hin, dass das System offensichtlich etwas missverstehe – und vertraute darauf, dass ein Mitarbeiter den Irrtum korrigieren würde. Doch daraus wurde nichts. Als die Familie die Schachtel mit der Torte zu Hause öffnete, war das Entsetzen groß: Das Geschäft hatte die Torte wie im Online-Formular verziert. Auf der Torte stand in blauer Zuckermasse geschrieben: »Summa --- Laude«. Die Freude am Geschenk war dahin. Koscinski fühlte sich gedemütigt, wie er der »Washington Post« sagte. Ein Algorithmus hatte seine Abschlussfeier versaut. Eigentlich könnte man über die Sache schmunzeln. Doch der Vorfall macht deutlich, wie Computer Werte mathematisch verabsolutieren und apodiktisch Entscheidungen in unseren Alltag einschreiben.
Es ist nicht das erste Mal, dass Algorithmen Wörter zensieren respektive umkodieren. Die Autokorrektur von Microsoft Word unterringelte in der Office-Version von 2003 den Vornamen Barack als fehlerhaft und schlug als Alternative wenig schmeichelhaft »Baracks« (für Baracken) beziehungsweise Osama vor – der Name des jungen Senators Obama war der Software damals offenbar weniger bekannt als der des Terrorfürsten bin Laden. Erst mit der 2007er Version wurde Barack dem Wortschatz als Standardname hinzugefügt.
Warum ergänzt Google bei »por« nicht ein »-no«?
Auf der anderen Seite kann die politische Korrektheit, die man der Software einprogrammiert, auch zu völligem Nonsens führen. Rosemarie Jarski beschreibt in ihrem Buch »Dim Wit: The Funniest, Stupidest Things Ever Said«, wie ein (namentlich nicht genannter) US-Journalist das von der Autokorrektur monierte Wort »black« aus einem Artikel strich und fast schon stereotyp und roboterhaft durch das politisch korrekte »African-American« ersetzte, um sich nicht des Vorwurfs des Rassismus auszusetzen. Das Problem war nur, dass dabei kein Mensch gemeint war, sondern eine Sache – nämlich der Terminus »schwarze Flecken« (»black spots«). Der Journalist prüfte die Sache nicht noch mal, und so wurde aus »black spots« »African-American spots«. Politisch korrekt, aber inhaltlich inkorrekt. Der Computer, der kein Kontextwissen besitzt, hatte einen ziemlich blöden Fehler in den Artikel hineinredigiert.
Auf der anderen Seite kodieren Autokorrekturprogramme von Messenger-Diensten unverfängliche Inhalte zu anzüglichen Botschaften um. So wurde aus dem Computerhersteller Asus »Anus«, aus dem »eleganten Körper« ein »Elefanten Körper« und aus Duschgel das unappetitliche »Durchfall«. Kurznachrichten à la »Wir liegen nur im Bett und Papa spielt an meinem Anus«, die vom Absender »Mama« stammen, sind an Peinlichkeit kaum zu überbieten. Die Beispiele belegen, dass Algorithmen nicht prüde sind, wie zuweilen unterstellt wird, sondern schlicht keine Lebenserfahrung haben – aber unsere Gesprächsinhalte immer mehr strukturieren. Und formatieren.
Auch Google spurt mit seinen Suchalgorithmen beziehungsweise seiner Funktion Autocomplete algorithmisch vor, wonach seine Nutzer suchen. Bei der Eingabe von »por« ergänzt der Vervollständigungsmechanismus nicht »Porno« oder »porn«, einen der meistgegoogelten Begriffe, sondern »Porsche«, »Portugal« und »Porto«. Das widerspricht der Behauptung des Konzerns, wonach Vervollständigungen anhand von Faktoren wie der Häufigkeit und Aktualität von Suchbegriffen generiert würden.
Der US-Kommunikationswissenschaftler Nick Diakopoulos wollte mit Hilfe einer Reverse-Engineering-Methode, bei der eine Suchmaschine anhand ihrer Outputs durchleuchtet wird, herausfinden, welche Begriffe die Autocomplete-Funktion blockiert. Für 110 sexbezogene Wörter, die er sich bei Sprachexperten und im Slanglexikon des Urban Dictionary beschaffte, führte er jeweils einen Suchtest durch. Das Ergebnis: Bei Suchwörtern wie »Prostituierte« ergänzte der Vervollständigungsmechanismus bereitwillig »Telefonnummer« und »Websites«, Begriffe wie »erotisch« und »nackt« wurden dagegen blockiert (ebenso wie eine Reihe weiterer vulgärer Begriffe wie »Titten« oder »Schwanz«). Wobei Erotik durchaus ein Merkmal von Ästhetik sein kann und fester Bestandteil der bildenden Kunst ist. Dass Google kein Durchlauferhitzer für Pornoseiten sein will, ist legitim. Und dass die Suchmaschine Anfragen nach Kinderpornografie unterbindet und Pädophile in die Schranken weist, ist ebenso rechtlich wie moralisch geboten. Doch das Problem ist, dass nicht der Mensch der Maschine, sondern die Maschine dem Menschen Sprachregelungen aufoktroyiert. Nach dem Motto: Das darf man suchen oder sagen und das nicht. Der Programmierer sagt dem Computer, das Wort »cum« sei unangemessen, und setzt es auf die schwarze Liste, wenig später verbannt das System in maschinellem Rigorismus alles, was damit in Verbindung steht.
Man kann das Szenario noch weiterdenken: Was, wenn die Sprachsoftware Alexa oder Siri bestimmte Sprachkommandos ignoriert, weil sie ein verfemtes Wort beinhalten? Wenn eine Software beim Druck einer Speisekarte aus »Zigeunerschnitzel« »*****schnitzel« macht? Oder ein Roboterjournalist den Begriff »Obdachloser« in Anführungszeichen setzt beziehungsweise, um der Political Correctness Rechnung zu tragen, in »Wohnungssuchender« abändert, was unnötige Ambivalenzen schafft und den sozialen Status des Betroffenen ridikülisiert?
Je häufiger opaken algorithmischen Systemen die Redaktion von Sprache überantwortet wird, desto weniger Mitsprache und Wortgewalt hat die bürgerliche Öffentlichkeit. Und desto mehr verliert sie auch die Deutungshoheit über Begriffe und die kommunikative Kontrolle. In der mittlerweile gesperrten chinesischen Version von Skype konnten Nutzer Wörter wie »Wahrhaftigkeit«, oder »Amnesty International« schon gar nicht mehr eingeben. Die Zensur begann schon bei der Tastatureingabe. Wo Kommunikationsprozesse immer automatisierter werden, besteht die Gefahr, dass Softwareingenieure nicht nur Programmkodes, sondern auch sprachliche Kodes formulieren – und damit autoritativ entscheiden, was sagbar und schicklich ist. Noch findet die Zensur nur auf der Torte statt. Doch irgendwann könnten auch Begriffe in Chatprogrammen oder Kommentarspalten sozialer Netzwerke geschwärzt oder erst gar nicht angezeigt werden, weil sie aus irgendwelchen Gründen als nicht opportun gelten.
Schreiben Sie uns!
Beitrag schreiben