Leseprobe »Demokratie neu denken«: Megatrend 1: Digitalisierung und Künstliche Intelligenz
1.1 Der Trend
Die Digitalisierung hat die Welt fundamental verändert. Sie greift tief in das Leben jedes Einzelnen von uns ein. Sie ist aus unserem Alltag nicht mehr wegzudenken. Sie bestimmt, wie wir arbeiten, und sie prägt unser Verhältnis zum Staat und seinen Institutionen. Doch bevor ich darauf eingehe, welche Chancen und Gefahren sich für die Demokratie daraus ergeben, möchte ich zunächst auf folgende Fragen eingehen: Was genau verstehen wir unter Digitalisierung, wo liegen ihre Ursprünge und wie hat sie sich zu einem Megatrend entwickelt?
Der Begriff Digitalisierung umfasst unterschiedliche Phänomene, die sich aus der technischen und technologischen Entwicklung im Umfeld von Computern und Datennetzen ergeben. Im Kern versteht man unter Digitalisierung die Umwandlung analoger Informationen in verschiedene digitale Formate. Häufig wird unter Digitalisierung nur der technologische Aspekt des digitalen Wandels verstanden, das ist jedoch eine verkürzte Sichtweise. Zu Recht mahnt das Zukunftsinstitut in Frankfurt am Main, »Digitalisierung nicht mit Technologien gleichzusetzen, sondern umfassender zu verstehen: als digital vernetzte Kommunikation«. Tatsächlich ist Kommunikation – sowohl zwischen Menschen und Maschine als auch zwischen Maschinen untereinander – das, was den Megatrend Digitalisierung ausmacht. Aber es ist die Entwicklung digitaler Technologien, die die Art und Weise, wie Menschen und Geräte kommunizieren, grundlegend verändert hat.
Schauen wir uns deshalb diese technischen und technologischen Entwicklungen in Zeitraffer zunächst einmal genauer an.
Das Aufkommen des World Wide Web und die Verbreitung des Smartphones in den 2000er Jahren sehen viele als den Startschuss der Digitalisierung an. Es war die Zeit, in der wir vom Analogen ins Digitale, von offline zu online gewechselt sind. Aber in jenen Jahren ist die Digitalisierung für die breite Öffentlichkeit nur sichtbar und erfahrbar geworden, indem sie in den Alltag eingewandert ist. Der eigentliche Prozess fing schon viel früher an. Die Entwicklung von Computern begann bereits in den 1940er Jahren. Der ENIAC (Electronic Numerical Integrator and Computer), der 1946 in Betrieb genommen wurde, gilt als einer der ersten elektronischen Allzweckrechner. Programmiersprachen wie Fortran und COBOL, die die Programmierung von Computern erleichterten, wurden in den 1950er und 1960er Jahren entwickelt. Die Einführung von Mikroprozessoren in den 1970er Jahren ermöglichte die Konstruktion von persönlichen Computern, von sogenannten PCs, wodurch Computer mehr und mehr auch für Privat nutzer zugänglich wurden.
Das Internet war bereits Ende der 1960er Jahre im Rahmen eines Netzwerkprojekts (mit dem Namen ARPANET) des US-Verteidigungsministeriums entstanden. Dem lag die Idee zugrunde, ein dezentrales Kommunikationsnetzwerk zu schaffen, das auch im Fall von Angriffen auf Teile des Netzwerkes funktionsfähig bleiben würde. 1984 wurde die erste E-Mail in Deutschland an der Universität Karlsruhe empfangen. Ich selbst kann mich noch gut an die Versendung meiner ersten E-Mail 1994 an eine Kollegin in die USA erinnern, aus meinem damaligen Büro an der Universität Mannheim. Heute werden weltweit täglich mehr als 300 Milliarden E-Mails verschickt.
Im Jahr 1993 wurde das World Wide Web (WWW) öffentlich zugänglich gemacht. In den darauffolgenden Jahren stieg die Zahl der Nutzer global rasant an – 2005 nutzten bereits eine Milliarde Menschen weltweit das Internet. 2017 hatte die Hälfte der Menschheit einen Online-Zugang. Allerdings unterscheiden sich die jeweiligen Weltregionen bis heute stark, wenn es um die Anzahl von Menschen mit und ohne Internetzugang geht. Noch 2022 hatten laut Statistischem Bundesamt immer noch 34 Prozent der Weltbevölkerung keinen Zugang zum Internet, was rund 2,7 Milliarden Menschen entspricht.
Schaut man sich die Verteilung nach unterschiedlichen Ländern an, so werden große Unterschiede sichtbar. Reiche westliche Staaten sind stärker digitalisiert: 2021 lag der Anteil der Internetnutzer an der Gesamtbevölkerung in Deutschland bei 94 Prozent, in den USA bei 90 Prozent, in Japan bei 93 Prozent, in Großbritannien bei 96 Prozent. China fiel demgegenüber etwas ab: Im Jahr 2021 hatten 65 Prozent der chinesischen Bevölkerung Zugang zum Internet, was angesichts dessen, dass China bis vor wenigen Jahren noch als Entwicklungsland galt, als erstaunlich gewertet werden kann. Ganz anders in Ländern des afri kanischen Kontinents: In Äthiopien sind es 20 Prozent der Bevölkerung, in Niger lediglich 15 Prozent, in Tansania 25 Prozent, in Kenia aber immerhin schon 40 Prozent mit Internetzugang. Zudem zeigen sich in den afrikanischen Staaten große Unterschiede mit Blick auf die Verteilung von Internetzugang und -nutzung zwischen Männern und Frauen, ein Phänomen, das als digital gender gap bezeichnet wird. Laut Daten von 2023 nutzen Frauen auf dem afrikanischen Kontinent mit einer 37 Prozent geringeren Wahrscheinlichkeit mobiles Internet im Vergleich zu Männern. Das ist ein beachtlicher Unterschied, der fast in der Größenordnung des gender pay gap in dieser Region liegt.
Einige Länder betrachten den Zugang zum Internet mittlerweile als Grundrecht, das für die Meinungsfreiheit, für Bildungsmöglichkeiten, für wirtschaftliche Entfaltung und soziale Teilhabe unerlässlich sei. So war Estland 2000 das erste Land der Welt, das den Zugang zum Internet als Grundrecht anerkannte, Finnland hat den Breitbandzugang zum Internet 2010 in der Verfassung verankert. Die UN betont in diversen Dokumenten, dass der Zugang zum Internet für Meinungsfreiheit von entscheidender Bedeutung sei. So heißt es beispielsweise in einer wegweisenden UN-Resolution von 2018, »dass die gleichen Rechte, die Menschen offline haben, auch online geschützt werden müssen, einschließlich des Rechts auf Privatheit.«
Die technischen Möglichkeiten entwickelten sich weiter und so wurde aus dem Web 1.0 das Web 2.0. Erstmalig wurde dieser Begriff 2004 von Dale Dougherty von O’Reilly Media auf einer Konferenz in San Francisco verwendet. Er wurde schnell zu einem geflügelten Wort, das die gesamte zweite Generation des World Wide Web beschreibt, die sich durch interaktive und kollaborative Online-Plattformen auszeichnet. Im Vergleich zum eher statischen Charakter des Web 1.0 ermöglicht das Web 2.0 seinen Nutzern eine aktive dynamische Teilhabe. Sie können selbstständig Beiträge erstellen und posten, Beiträge anderer teilen oder kommentieren. Die Nutzer werden so zu »Prosumern«: Der Begriff meint das gleichzeitige Produzieren und Konsumieren von Nachrichten und ist aus Teilen beider Worte zusammengesetzt. Social- Media-Plattformen, Blogs, Wikis und Foren sind typische Beispiele fürs Prosumieren und verdeutlichen, dass beim Web 2.0 die soziale Interaktion der Nutzer im Mittelpunkt steht.
Das Web 2.0, die schnellere und interaktive Internetnutzung, wurde erst durch die Einführung einer zuverlässigeren Breitbandtechnologie, durch eine Hochgeschwindigkeits-Internetverbindung ermöglicht. Diese erlaubt eine erheblich höhere Übertragungsrate der digitalisierten Daten im Vergleich zu älteren Technologien wie Einwahlverbindungen über DSL. In der Praxis bedeutet es, dass man leichter »Surfen«, größere Dateien herunterladen und damit überhaupt erst Online-Formate problemlos »Streamen« kann. Kurz gesagt: Die Qualität und Effizienz von Online-Kommunikation wurden dadurch erheblich verbessert: Video-Anrufe und -Konferenzen sind nun über große Entfernungen problemlos möglich. Auch E-Learning-Module, der Besuch von Online-Kursen, wären ohne Breitband nicht durchführbar. Der in Deutschland noch stockende, flächendeckende Glasfaserausbau ist der nächste Schritt zu einer schnelleren und leistungsfähigeren Infrastruktur der Datenübertragung für alle.
Künstliche Intelligenz ist ein Kind der Digitalisierung. Sie spielt in der immer weiter fortschreitenden Datafizierung mittlerweile eine zentrale Rolle. Auch ihre Entwicklung begann bereits in der Mitte des 20. Jahrhunderts – Computerwissenschaftler und Mathematiker wie Alan Turing und John McCarthy legten den Grundstein für die Entwicklung von Maschinen, die in der Lage sind, menschenähnliche Intelligenz zu simulieren. Alan Turing und sein Team spielten bei der Entschlüsselung der deutschen Enigma-Maschine im Zweiten Weltkrieg eine entscheidende Rolle. Die »Enigma« war eine elektromechanische Verschlüsselungsmaschine, die unter anderem von der deutschen Wehrmacht für ihre geheime Kommunikation verwendet wurde. Die Alliierten benötigten dringend einen Weg, um die von der Enigma-Maschine verschlüsselten Nachrichten zu knacken. Nur so konnten sie an wichtige Informationen über deutsche Militäraktionen gelangen. Turing entwickelte mit einem Team von Kryptoanalytikern die sogenannte »Turing-Bombe«, einen speziellen Typ von Entschlüsselungsmaschine. Sie bestand aus einer Reihe von elektromechanischen Bauteilen, die darauf ausgelegt waren, die richtigen Einstellungen des Kodierungsschlüssels zu identifizieren. Die Geschichte rund um Alan Turing, sein Team und die Turing-Bombe ist übrigens wunderbar nachzusehen in dem Kinofilm The Imitation Game – Ein streng geheimes Leben, der 2014 auch mehrere Auszeichnungen erhielt.
In den ersten Jahrzehnten der KI-Forschung lag der Schwerpunkt auf grundlegenden Algorithmen, auf symbolischer Logik und Expertensystemen. Mit dem Aufkommen leistungsstarker Computer und der digitalen Verfügbarkeit großer Datenmengen begann die KI-Forschung, von datengetriebenen Ansätzen zu profitieren. Maschinelles Lernen, insbesondere Deep Learning, ermöglichte es algorithmischen Systemen, Muster und komplexe Zusammenhänge in großen Datensätzen zu erkennen und von diesen zu lernen, um Vorhersagen zu treffen oder um ähnliche Daten, Bilder oder Texte zu generieren.
Leider endet die Leseprobe an dieser Stelle. Das Buch »Demokratie neu denken« bietet den Rest des Kapitels und mehr.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.