Lobes Digitalfabrik: Darf man mit Twitterbots protestieren?
Von dem Twitteraccount »Abolish_ICE_Now« werden seit ein paar Tagen in schöner Regelmäßigkeit Fotos und Informationen zu US-Flüchtlingszentren, so genannten »detention centers«, gepostet: Luftaufnahmen, Adressen, Kapazitäten. Wie der Account bereits in seinem Namen erkennen lässt, hat er eine kritische Haltung zur US-Einwanderungsbehörde ICE (Immigration and Customs Enforcement). Und wie dem Profil ebenfalls zu entnehmen ist, handelt es sich um keinen Menschen, sondern um einen Bot, also ein intelligentes Computerprogramm, das automatisiert Tweets generiert – versehen mit dem entschuldigenden Hinweis: »Dieser Bot sollte eigentlich gar nicht existieren.« Mit dem automatisierten Twitteraccount protestiert der amerikanische Künstler Everest Pipkin gegen die Asylpolitik von US-Präsident Donald Trump, der die Trennung von Familien an der Grenze guthieß.
Bots sind nach der US-Präsidentschaftswahl und der Abstimmung über den Brexit in die Kritik geraten, weil sie Meinungen maschinell unterdrücken und bestimmte diskursive Verfahren aushebeln. Russlands Präsident Wladimir Putin beschäftigt eine eigene Twitterarmee, die den Kurznachrichtendienst systematisch mit propagandistischen Beiträgen bombardiert. Der Politikwissenschaftler Simon Hegelich, der das Phänomen intensiv erforscht hat, argumentiert, dass Bots Debatten aggressiver machen: Gemäßigte Stimmen ziehen sich aus den Netzwerken zurück, radikale Meinungen werden bestärkt. Die Frage ist, ob es legitim ist, einen Protestbot zu programmieren. Darf man Maschinen zu Debatten zulassen?
This is Chase County Detention Facility in Cottonwood Falls, KS. The facility operator is the county (SHERIFF), while the county owns it. Cottonwood Falls has a population of 1,144 and an elevation of 1,216.86 ft. The average temp in March is 46.6°. pic.twitter.com/B2YR5kaRMc
Der »Immigration Detention Facilities Bot«, der rund 2000 Follower zählt, nimmt vom Design her zunächst keine Wertung vor. Jeder Tweet beinhaltet Foto sowie Informationen unterschiedlichster Art, etwa wo sich der Komplex befindet, wer ihn betreibt, wie viele Menschen am Ort leben und was ihr durchschnittliches Jahreseinkommen ist. Der Bot informiert über ein politisches Problem, und er macht seine Roboterexistenz dem Leser transparent. Ironie am Rande: Der Datensatz, mit dem der Bot gefüttert wurde, speiste sich zum Teil aus Kartenmaterial der inkriminierten Einwanderungsbehörde.
In der Gesamtschau steckt darin natürlich eine Anklage. Und insofern, als über den Account Wertungen und keine falschen Tatsachenbehauptungen verbreitet werden, dürften die Inhalte vom Schutzbereich der Meinungsfreiheit gedeckt sein, auch wenn sie von einer Maschine artikuliert werden. Nur: Darf man sich einer Maschine als Werkzeug bedienen, um ein perpetuiertes Klagelied anzustimmen und Missstände in einer Endlosschleife zu skandalisieren?
Ein Twitteraccount als Megafon?
Man könnte einwenden, dass es unfair ist, sich gegenüber dem politischen Gegner – allein durch Technik – einen strategischen Vorteil zu verschaffen: Denn Aufwand und Kosten dieser programmierten Politikform sind viel geringer, als wenn man einen Protestzug durch Washington mit Transparenten organisieren müsste. Allein, wir reden hier nicht von einer Roboterarmada oder einem organisierten Botnetzwerk, das zum Zwecke der politischen Manipulation eingesetzt wird, sondern von einem einzigen Account.
Als solcher entspricht er vielleicht eher einem Megafon, mit dem sich ein Demonstrant Gehör verschafft. Oder einer Art digitaler Anzeigetafel, die ein Aktionskünstler als Ausdruck des Protests in die Internetlandschaft platziert hat. Beides wären Fälle für den Einsatz legitimer Werkzeuge.
Mark Sample, Professor für digitale Studien am Davidson College in North Carolina, plädierte bereits 2014 in einem Beitrag für das Portal »Medium« für die Zulassung von »Protestbots«. In der digitalen Gesellschaft seien sie das Äquivalent zu Protestsongs. »Ein Computerprogramm, das die Ungerechtigkeiten und Ungleichheiten auf der Welt offenbart und über Alternativen nachdenkt. Ein Computerprogramm, das sagt, wer zu loben und tadeln ist. Ein Computerprogramm, das fragt, wie, wann, wer und warum. Ein Computerprogramm, dessen Anklagen so spezifisch sind, dass man sie nicht für Blödsinn hält. Ein Computerprogramm, das all das automatisch macht.« Sample sprach sich für den Einsatz von »Überzeugungsbots« (Bots of conviction) aus, die themenspezifisch, datenbasiert, kumulativ, oppositionell und unheimlich sind. Als Beispiel nannte er den Twitterbot »congress-edits«, der Änderungen von Wikipediaartikeln, die von IP-Adressen aus dem Kongress vorgenommen werden, trackt und der Öffentlichkeit transparent macht.
Nun ist jeder Bot in irgendeiner Weise datenbasiert. Doch Samples Plädoyer für eine zivilisierte maschinelle Debattenkultur ist durchaus diskussionswürdig. Es kann nicht darum gehen, maschinelle Systeme aus der »automatisierten Öffentlichkeit« (Frank Pasquale) zu verbannen (dann müsste man soziale Netzwerke wie Facebook, wo Algorithmen Nachrichten filtern, abschalten, und dann dürften Nachrichtenagenturen keine automatisierten Schreibprogramme einsetzen), sondern Wege zu finden, wie man Bots demokratisch einhegt – zum Beispiel, indem man eine Kennzeichnungspflicht einführt. Solange der Mensch die Spielregeln definiert und Skripte formuliert, droht auch kein Aufstand der Roboter.
Schreiben Sie uns!
Beitrag schreiben