Die Informationierung der Welt
Mit Bestsellern wie "Chaos" und "Genius" hat James Gleick gezeigt, dass er eine große Fülle von Material zu einem Wissenschaftsgebiet zu einem umfangreichen, gleichwohl für den Laien attraktiven Buch aufzubereiten versteht. Mit seinem neuen Werk erhebt er keinen geringeren Anspruch, als "die Geschichte der Information" darzulegen.
Dabei geht es weniger um die Bedeutung von Information, zum Beispiel ihre Interpretation durch den Menschen, als um technische Fragen der Informationsübertragung und -verarbeitung sowie ein abstraktes und exaktes Konzept. Dreh- und Angelpunkt seiner Darstellung ist die Informationstheorie Claude Shannons (1916 – 2001). Ähnlich wie Newton aus Begriffen wie Bewegung, Masse und Kraft exakt definierte, zahlenmäßig bestimm- und berechenbare Größen machte, klärte Shannon den bis dahin eher unbestimmten Begriff Information. Die Maßeinheit wurde das Bit.
Doch bevor der Leser dorthin gelangt, liegen noch einige Kapitel vor ihm. Gleick erzählt von Frühformen der Nachrichtenübermittlung – Leuchtfeuer während des Trojanischen Kriegs oder Trommeln, deren Klang mit großer Geschwindigkeit über den Niger hallte – und der Entstehung der Schrift, die er als Voraussetzung von Wissenschaft und Philosophie darstellt, eine nicht unumstrittene These.
Schon Ende des 18. Jahrhunderts konnte man angeblich ein Signal in zehn bis zwölf Minuten von Paris ins 700 Kilometer entfernte Toulon schicken: An 120 optischen Telegrafenstationen beobachtete jeweils ein Telegrafist mit dem Fernrohr die Signale der Nachbarstation und wiederholte sie dann für den Nachfolger in der Kette in Form von Stellungen der hölzernen Arme an einem hohen Gerüst.
In der Darstellung folgen – historisch korrekt – die elektrische Telegrafie und das Telefon. Letzteres erforderte komplexe Relaisschaltungen, was Gleick Gelegenheit gibt, deren formale Beschreibung durch symbolische Logik oder&bsp;– was auf dasselbe hinausläuft – die boolesche Algebra einzuführen. Bei dieser Gelegenheit handelt er auch gleich die Grundlagenkrise der Mathematik um 1900 ab, als der Plan scheiterte, die ganze Mathematik auf die Logik zurückzuführen.
Viele Seiten widmet Gleick dem Erfinder und Mathematiker Charles Babbage (1791 – 1871), der versuchte, seine visionären Pläne einer mechanischen Rechenmaschine umzusetzen (Spektrum der Wissenschaft 4/1993, S. 78), und damit als früher Pionier des Computers anzusehen ist. Über den bedeutenden Mathematiker und Logiker Alan Turing (siehe S. 80) und sein Werk kommt Gleick allmählich zum Hauptthema.
Wie Turing, der im Zweiten Weltkrieg beim Entschlüsseln der deutschen Geheimnachrichten Bahnbrechendes leistete, interessierte sich Claude Shannon für Kodes. Der Datenstrom, der einem Kodeknacker vorliegt, ist zunächst von strukturlosem Datenmüll nicht zu unterscheiden. Er muss aber eine verborgene Struktur haben, sonst wäre er für den Empfänger wertlos.
In der deutschen Sprache folgt mit großer Wahrscheinlichkeit auf ein c ein h, im Englischen auf ein t ein h. Manche Teile eines Textes sind durch den Kontext so eindeutig bestimmt, dass sie "überschüssig" (redundant) sind. Jeder Leser des Englischen kann aus dem Fragment "If u cn rd ths …" die vollständige Version "If you can read this …" rekonstruieren. Die Redundanz eines Textes in natürlicher Sprache steckt als verborgene Struktur auch in dessen chiffrierter Form; sie ist nicht so leicht zu erkennen, bietet aber dem Kodeknacker eine Handhabe zur Entschlüsselung.
Solche Überlegungen führten Shannon zu seinem Begriff von Information. Das ist nicht etwa nur eine Datenmenge, die man als die Anzahl der verwendeten Zeichen messen kann. Vielmehr enthält ein Zeichen weniger Information als andere, wenn seine Wahrscheinlichkeit hoch ist, und im Extremfall gar keine, wenn diese gleich 1 ist, wenn also der Empfänger schon sicher ist, dass dieses Zeichen dort stehen muss. Daher enthalten die beiden oben genannten Texte nach Shannon die gleiche Information, obgleich die Datenmenge des ersten kleiner ist. In die Definition der Information gehen also die Wahrscheinlichkeiten der Zeichen in einem Text mit ein.
Shannons Theorie hat verschiedensten Gebieten der Wissenschaft zur Blüte verholfen. Norbert Wiener (1894 – 1964), der Begründer der Kybernetik, konstruierte Analogien zwischen technischen und organischen Systemen, insbesondere zwischen dem Computer und dem menschlichen Gehirn, und prognostizierte, dass beide einander immer ähnlicher werden würden. Die Informationstheorie hilft bei der Entschlüsselung des Genoms; die von dem Evolutionsbiologen Richard Dawkins eingeführte Analogie zwischen dem (biologischen) Gen und dem (kulturellen) "Mem" lebt davon, dass beide als Stücke von Information interpretiert werden.
Der Mathematiker und Philosoph Gregory Chaitin baut seine Berechenbarkeitstheorie unmittelbar auf Shannons Informationsbegriff auf und erkennt sogar die "Zufälligkeit" als ein gemeinsames Element von Quantenphysik (heisenbergsche Unschärferelation), Logik (gödelscher Unvollständigkeitssatz) und Informationstheorie (Spektrum der Wissenschaft 2/2004, S. 86, und 9/2006, S. 54).
Gleick ist ein visionärer Autor. Sein Buch ist die Frucht umfangreicher Recherchen, bringt aktuelle wissenschaftshistorische Erkenntnisse und regt den Leser durch manch überraschenden Zusammenhang zum Nachdenken an. Allerdings stolpert Gleick an einigen Stellen über seine Begeisterung, indem er unwesentlichen Details zu viel Raum gibt. Der zum Teil sehr unstrukturierte Aufbau und Wiederholungen tragen zusätzlich dazu bei, den Leser zu irritieren. Es ist für jeden etwas Spannendes und etwas Langweiliges dabei.
Die Übersetzung aus dem Englischen ist gut gelungen. Einige Stellen, an denen Gleick amerikanisches Hintergrundwissen voraussetzt, sind durch Anmerkungen zur deutschen Ausgabe verständlich gemacht worden. Bei aller Materialfülle nimmt Gleick einen technokratischen Standpunkt ein – so konsequent, dass er Gedanken zum Verstehen von Information durch den Menschen oder zur Philosophie selbst dort weglässt, wo sie sich aufdrängen. Seiner leidenschaftlich vorgebrachte Vision, die moderne Physik auf eine Art Quanteninformationstheorie zu reduzieren, fehlt eine gründliche Reflexion ebenso wie seiner Darstellung der Theorie der Meme. Und dennoch: Gleicks Projekt einer Gesamtdarstellung des Informationsbegriffs ist mutig, bisher einmalig und im Wesentlichen gelungen.
Schreiben Sie uns!
Beitrag schreiben