Globales Medium Englisch - welche Chancen haben andere Sprachen?
Die Internationalisierung des Handels und die Produkte der Filmfabriken Hollywoods haben wesentlich dazu beigetragen, Elemente der amerikanischen Kultur weltweit zu verbreiten. Das Internet als Kommunikationssystem, das politische und soziale Grenzen ignoriert, und als Träger neuer, informationsbezogener Dienstleistungen fördert nun seinerseits die Tendenz zum globalen Markt. Des weiteren eröffnet es der Unterhaltungsindustrie zusätzliche Vertriebskanäle bis in die letzten Winkel der Erde. Wird das global village eines baldigen Tages von einem amerikanischen Techno- und Entertainment-Pidgin dominiert sein? Die Frage läßt sich auch anders stellen: Wird eine Vielzahl von Sprachen das Online-Universum bereichern oder die englische langsam alle anderen verdrängen?
Eine solche Dominanz hätte ihre Nachteile. Die meisten Menschen sprechen Englisch nur als Zweitsprache; viele verstehen allenfalls einfachste Informationen und weichen deshalb schon bei einem Gespräch, das über small talk hinausgeht, immer wieder in die Muttersprache aus. Ohne automatische Übersetzung kann das Internet einen internationalen Gedankenaustausch also nur begrenzt fördern. Schlimmer noch: Mit der Etablierung des Englischen als allgemeinen Netz-Mediums werden sich bei den Nutzern in anderen Sprachräumen einerseits Fehler und Mißverständnisse häufen, andererseits vorhandene Möglichkeiten zur Kommunikation unentdeckt bleiben.
Derzeit befinden sich etwa 60 Prozent der Host-Computer, die an das Netz anbinden, in den USA. Außerhalb Nordamerikas und einiger europäischer Länder wurden erst in den letzten Jahren Zugänge eingerichtet, und selbst diese sind häufig nur eingeschränkt nutzbar. Doch werden Rechner zunehmend miteinander – und schließlich auch mit einem Host – vernetzt, so daß sich immer mehr Menschen in das System einklinken können.
Den geringen Kosten und der – theoretisch – benutzerfreundlichen Technologie ist es zu verdanken, daß Mitteilungen insbesondere in Sprachen mit lateinischem Alphabet beispielsweise als elektronische Post ausgetauscht werden können. Einige Förderer einheimischer Idiome machen sich das bereits zunutze: Beispielsweise stammen etwa 30 Prozent aller französischsprachigen Seiten im World Wide Web aus Québec, obwohl die Francokanadier nur fünf Prozent aller frankophonen Menschen stellen.
Technische Probleme
Meines Erachtens dürfte sich in der internationalen Online-Kommunikation Englisch durchsetzen, während der regionale Austausch jeweils eigensprachig sein wird. Vielsprachigkeit bedingt freilich, eine Reihe technischer Schwierigkeiten zu lösen, denn Computer und Programme dienten ursprünglich meist zur Verarbeitung englischer Texte.
Probleme machen bereits lateinische Standardzeichen. In den frühen Tagen des Arpanet – des Internet-Vorgängers – konnte man nur solche elektronischen Nachrichten versenden, die den Sieben-Bit-ASCII-Zeichensatz verwendeten, also einen Schlüssel, mit dem insgesamt 128 Zeichen jeweils durch eine andere Kombination von sieben Binärziffern darzustellen sind. Das neuere Extended Simple Mail Transport Protocol sieht die Verarbeitung von acht Bits vor. Dadurch stehen alle von der Internationalen Organisation für Standardisierung (ISO) vorgeschriebenen Buchstaben des lateinischen Zeichensatzes zur Verfügung, der 256 Zeichen hat, so daß diakritische Symbole wie die Akzente aller westeuropäischen Sprachen darstellbar sind. Weil aber viele Rechner im Netz mit veralteter Software betrieben werden, bleibt das achte Bit häufig unbeachtet, und Mitteilungen kommen verstümmelt an. Von 12000 Benutzern, denen ich im Jahre 1995 täglich französische Nachrichten schickte, baten 8500 um eine Sieben-Bit-ASCII-Version, weil sie die mit dem ISO-Schriftsatz kodierten Texte nicht lesen konnten.
Einige neuere Programme vermögen ihre Texte zwar in vielen unterschiedlichen Schriften wiederzugeben; die meisten sind jedoch im wesentlichen zweisprachig: Außer Englisch ist nur noch eine weitere Sprache, beispielsweise Deutsch oder Japanisch, zu handhaben. Vielleicht sind die technischen Hindernisse aber bei der Darstellung anderer Alphabete nur vorübergehender Natur. Inzwischen wird nämlich Unicode (ISO 10646), ein Codierungsschema für die Zeichen der meisten Schriften der Welt, mehr und mehr implementiert (Bild). Dieser Code ermöglicht den Empfang von Texten in fast allen Sprachen (auch wenn die Zeichen nicht immer richtig dargestellt werden).
Es wird freilich noch lange daud n, bis das Internet wirklich mehrsprachig ist, so daß ein Autor beispielsweise ein griechisches Zitat in einen russischen Text einbauen kann und beides auf dem Bildschirm eines Lesers in Südamerika richtig dargestellt erscheint. Entsprechende Standards werden derzeit entwickelt. Problematisch ist die Strategie großer Software-Hersteller: In ihrem Kampf um Marktbeherrschung bringen sie immer neue Programmversionen hervor; kleinere Unternehmen, die mehrsprachige Produkte entwickeln, können dabei kaum mithalten.
Automatisches Übersetzen
Normalerweise helfen Dolmetscher und Übersetzer, Sprachbarrieren zu überwinden. Sie ließen sich theoretisch auch im Internet einsetzen, tatsächlich wegen des Umfangs und der Unterschiedlichkeit der erratisch darin umlaufenden Nachrichten jedoch kaum: Nur maschinelle Übersetzer können die unaufhör-liche virtuelle Konferenz der Vereinten Nationen in Echtzeit in alle anderen Sprachen übertragen, während die unablässig wechselnden Teilnehmer ihre Muttersprache verwenden.
Forschungsarbeiten dazu haben in den vergangenen 50 Jahren unterschiedliche Resultate erbracht. Nur wenige der entwickelten Übersetzungssysteme werden eingesetzt, und zwar vorwiegend in Japan, Kanada und Europa, wobei die zu bewältigende Aufgabe im multilingualen Europa weitaus am größten ist. Die Programme sind meist nur zweisprachig und müssen schon hochspezialisiert sein, wenn zumindest Rohübersetzungen entstehen sollen, die ein Mensch ohne Schwierigkeiten weiterbearbeiten kann.
Das erste öffentlich zugängliche System war Systran, das zwischen 14 Sprachenpaaren übersetzt und bereits 1983 über das französische Minitel (vergleichbar mit dem deutschen Bildschirmtext, jetzt T-Online) zur Verfügung stand. Systran wird inzwischen von der Europäischen Kommission für jährlich Hunderttausende von Textseiten eingesetzt. Ein weiterer Erfolg ist Meteo, das kanadische Wettermeldungen zwischen Englisch und Französisch übersetzt; verarbeitet werden damit täglich 80000 Wörter (rund 400 Nachrichten), wobei nur drei bis fünf korrigierende Eingriffe durch Menschen pro 100 Wörter erforderlich sind.
Ein zweistufiger Prozeß, wie ihn derzeit verschiedene Arbeitsgruppen entwickeln, dürfte mehrsprachige Übersetzungen erleichtern: Zuerst wird der Text – erforderlichenfalls unter Rücksprache mit dem Autor – in Bestandteile wie Titel, Absätze und Sätze zerlegt und in eine abstrakte Metasprache, dann erst in die Zielsprachen übertragen. Der Aufwand lohnt allerdings nur bei jeweils mehr als zehn Sprachen. Die Universität der Vereinten Nationen in Tokio hat kürzlich ein Zehnjahres-Kooperationsprojekt zur Realisierung eines solchen zweistufigen Prozesses angekündigt.
Wahrhaft mehrsprachig dürfte das Internet nur durch abgestimmtes internationales Bemühen darum werden. Halten genug Menschen diese Aufgabe für wichtig? Oder nehmen sie es lieber hin, mehr oder weniger gut gelerntes Englisch zur allgemeinen Verständigung schreiben und lesen zu müssen?
Aus: Spektrum der Wissenschaft 5 / 1997, Seite 94
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben