Digitale Kommunikation: Die Cyberreisenden
Dieses neuartige elektronische Medium erzeugt dreidimensionale Kopien weit entfernter Gesprächsteilnehmer. Durch Tele-Immersion gewinnen mehrere Dialogpartner den verblüffend echten Eindruck, in einem gemeinsamen Raum körperlich anwesend zu sein.
Wie die meisten meiner Kollegen nutze ich Videokonferenzen häufig, aber zugleich auch ungern. Zwischenmenschliche Kommunikation hat wichtige nonverbale Aspekte, doch Videokonferenzen scheinen geradezu darauf abzuzielen, die nicht-sprachlichen Komponenten zu stören. So ist es etwa mit heutigen Systemen unmöglich, echten Blickkontakt herzustellen, weil Bildschirm und Kamera nicht exakt denselben Platz einnehmen können. Meist entsteht dadurch eine sterile und förmliche Atmosphäre, denn im normalen Gespräch bauen wir unbewusst über Blickkontakt Vertrauen auf. Außerdem sind die Teilnehmer einer Videokonferenz nicht fähig, ein Gefühl für Abstand und Körperhaltung der anderen zu entwickeln; sie können einander weder gezielt Aufmerksamkeit schenken noch individuell Zustimmung oder Widerspruch ausdrücken.
Erst ein neuartiges digitales Medium namens Tele-Immersion (etwa: Fern-Eintauchen) erzeugt die fast perfekte Illusion, der Nutzer befinde sich in ein und demselben Raum mit Gesprächsteilnehmern, die in Wirklichkeit hunderte oder tausende Kilometer entfernt sind. Dieses Medium kombiniert die Simulationsverfahren der "Virtual Reality" mit einer neuen Bildtechnik, die die Möglichkeiten herkömmlicher Fernsehkameras weit hinter sich lässt. Die Teilnehmer erscheinen einander nicht mehr als Objekte, die von einem fixen Standort aus passiv beobachtet werden, sondern als "bewegliche Skulpturen": Jeder vermag mit anderen einen lebensecht wirkenden Raum zu teilen und frei zu erkunden.
Die Tele-Immersion soll aber nicht nur herkömmliche Videokonferenzen verbessern, sondern ist bewusst als besonders anspruchsvolle Anwendung konzipiert, um die Entwicklung digitaler Netze voranzutreiben. Wenn ein Computernetz für Tele-Immersion geeignet ist, kann es wahrscheinlich auch alle anderen Anwendungen unterstützen. Denn die Tele-Immersion erfordert – außer den üblichen Ansprüchen an großen Informationsfluss und hohe Zuverlässigkeit – vor allem möglichst geringe und unauffällige Verzögerungen der Datenströme.
Die Tele-Immersion vereint virtuelle Realität und digitale Vernetzung mit computergestützten Bildverfahren und neuartigen Nutzerschnittstellen. Schon 1965 stellte Ivan Sutherland, ein Gründervater der Computergrafik, seine Idee des "ultimativen Displays" vor. Damit würde der Nutzer einen vollständig vom Computer erzeugten Raum als täuschend echt erleben. Sutherland nannte einen solchen Raum eine "virtuelle Welt", in Anlehnung an einen Begriff der amerikanischen Philosophin Suzanne K. Langer. 1968 realisierte Sutherland erstmals eine virtuelle Welt mit einem so genannten Helmdisplay. Im Helm war vor jedem Auge ein Display angebracht, um dem Nutzer die stereoskopische Illusion eines dreidimensionalen Raums zu vermitteln. Bewegte er den Kopf, so berechnete ein Computer möglichst schnell die entsprechende Szene, um den Eindruck zu erwecken, die digital erzeugte Welt stehe still, während der Nutzer sie erkundete.
In den achtziger Jahren fand ich mich unversehens an der Spitze der ersten Firma, die Geräte zur Erzeugung und Wiedergabe virtueller Welten auf den Markt brachte. Daran war eigentlich die amerikanische Ausgabe der vorliegenden Zeitschrift schuld: Im September 1984 widmete Scientific American den neuesten digitalen Technologien ein ganzes Heft und wählte als Titelbild eines meiner Experimente zur visuellen Programmierung (Spektrum der Wissenschaft 11/1984). Irgendwann rief mich ein leicht verstörter Redakteur an und wollte wissen, für welche Institution ich eigentlich tätig sei. Ich erklärte ihm, dass derzeit weder ich noch die präsentierte Arbeit einem Institut gehörten. "Sehr geehrter Herr", versetzte er, "bei Scientific American gilt die strikte Regel, dass die Zugehörigkeit eines jeden Autors aufgeführt werden muss."
"VPL Research", stammelte ich – für Visual oder Virtual Programming Language –, und damit schlug die Geburtsstunde von VPL. Nach Erscheinen des Hefts interessierten sich Investoren für meine Arbeit, und die Firma wurde Wirklichkeit. Mitte der achtziger Jahre begann VPL mit der Vermarktung von Geräten für virtuelle Welten und wurde durch die Einführung so genannter Datenhandschuhe bekannt – im Oktober 1987 erneut Titelthema bei Scientific American (Spektrum der Wissenschaft 12/1987).
VPL führte damals die ersten Experimente zur "Virtual Reality" durch, wie ich es nannte. Virtuelle Realität vereint die Idee der virtuellen Welten mit Vernetzung, wodurch mehrere Teilnehmer mittels Helmdisplays simultan in eine virtuelle Umgebung versetzt werden. 1989 kam VPL mit RB2 ("Reality Built For Two") heraus; mit diesem Produkt konnten sich zwei Nutzer gemeinsam in einer virtuellen Welt aufhalten.
Damit die virtuelle Realität funktioniert, müssen die Teilnehmer Darstellungen voneinander – so genannte Avatare, nach der irdischen Verkörperung hinduistischer Gottheiten – sehen können. Obwohl unsere ersten Avatare wegen der beschränkten Leistung der damaligen Computer kaum mehr waren als Karikaturen wirklicher Gesichter, wurden dennoch alle Bewegungen naturgetreu umgesetzt und vermittelten damit ein Gefühl von Präsenz, Emotion und Perspektive.
Zunächst war der Zugriff auf unsere virtuellen Welten nur lokal möglich, doch führten wir auch einige Experimente über größere Entfernungen durch. So stellten wir etwa virtuelle Verbindungen zwischen Teilnehmern in Kalifornien und in Japan beziehungsweise in Deutschland her. Diese Versuche belasteten das Netz kaum, da nur die Bewegungen der Teilnehmer übertragen werden mussten und nicht – wie im Falle der Tele-Immersion – die gesamte Oberfläche jeder Person.
Computernetzwerke mit Rückgrat
Parallel zu virtuellen Welten begann sich die Computervernetzung zu entwickeln. Das ursprüngliche Netz, das Arpanet, wurde in den späten sechziger Jahren entworfen. Es diente als Anregung für andere Netzwerke, und in den achtziger Jahren ging daraus das Internet hervor. Mit der Ausweitung des Internets entstanden verschiedene "Backbones." Ein solches "Rückgrat" ist ein Netz im Netz, das Daten über extrem leistungsstarke, vielfach genutzte Verbindungen überträgt, um lange Strecken schneller zu überbrücken. Wichtige Backbones, die der Forschung dienten, waren das Ende der achtziger Jahre gebaute NSFnet sowie das vBNS Mitte der neunziger Jahre. Beide regten neue Anwendungen für das Internet an, insbesondere das World Wide Web. Ein weiteres Backbone-Projekt namens Abilene begann 1998 und dient heute einem Internet2 genannten Universitätskonsortium – dem wichtigsten Konsortium zu Netzentwicklung in den USA.
Gegenwärtig haben mehr als 170 amerikanische Forschungsuniversitäten Zugriff auf Abilene. Wenn Internet2 nur beabsichtigt hätte, eine große Bandbrei-te – möglichst viele Bits pro Sekunde – zur Verfügung zu stellen, wäre die bloße Existenz von Abilene und verwandter Einrichtungen bereits ausreichend gewesen. Doch die Internet2-Forschung verfolgte weitere Ziele, unter anderem die Entwicklung neuer Protokolle für Anwendungen, die sehr hohe Bandbreiten und sehr kurze Latenzzeiten – Verzögerungen während der Signalübertragung – erfordern.
Internet2 litt unter einem eigentümlichen Problem: Keine bereits existierende Anwendung erforderte die anvisierte Leistungsfähigkeit. Bisher ist die Computerforschung von der plausiblen Vermutung angetrieben worden, dass sich für schnellere und leistungsstärkere digitale Instrumente immer eine künftige Anwendung finden wird, selbst wenn sie jetzt noch gar nicht absehbar ist. Doch im Falle der Erforschung neuartiger Hochleistungsnetze reichte dieses Vertrauen nicht aus. Die neuen Ideen mussten konkret erprobt werden.
Allan H. Weis, der eine zentrale Rolle beim Aufbau des NSFnet gespielt hatte, leitete Advanced Network and Services, eine nichtkommerzielle Forschungseinrichtung, die das Ingenieurbüro für Internet2 beherbergte und unterhielt. Er benutzte den Begriff Tele-Immersion, um eine ideale Anwendung für das neue Netz zu umreißen, und bat mich, sie als leitender Wissenschaftler einer "National Tele-Immersion Initiative" mit Inhalt zu füllen. Da dies die logische Fortsetzung meiner Arbeit an virtuellen Welten für mehrere Nutzer war, nahm ich begeistert an.
Zwei Blickwinkel pro Teilnehmer
Viele Komponenten für eine funktionierende Tele-Immersion – unter anderem das Display-System – mussten erst erfunden oder verbessert werden, doch die größte Herausforderung war das überzeugende Darstellen von Menschen und Orten. Auf den ersten Blick könnte man meinen, das sei dasselbe Problem wie bei Videokonferenzen. Für die Tele-Immersion braucht aber jeder Teilnehmer seinen persönlichen Blickwinkel auf die simulierte Szene – eigentlich sogar zwei, da jedes Auge eine eigene Perspektive haben muss, damit ein räumlicher Eindruck entsteht. Die Teilnehmer sollen sich außerdem frei bewegen können; dadurch ist der Blickpunkt jeder Person in ständiger Bewegung.
Bei Tele-Immersion darf – anders als bei einer feststehenden Kamera – kein Blickpunkt bevorzugt werden. Jeder Raum sowie die Menschen und Dinge darin müssen aus allen Richtungen zugleich wahrgenommen und als bewegte dreidimensionale Skulptur dargestellt werden. Jede ans Netz angeschlossene Station empfängt Daten, die die gesamte variierende Skulptur beschreiben, und berechnet daraus die am Ort jeweils erforderlichen Blickwinkel. Das Abtasten muss in Echtzeit erfolgen – höchstens in Sekundenbruchteilen. Nur dann kann die Skulptur so schnell aktualisiert werden, dass die Illusion fließender Bewegung entsteht. Diese Illusion erfordert mindestens 12,5 Bilder pro Sekunde, wirkt aber erst bei 25 Bildern und mehr wirklich überzeugend.
Um die dreidimensionalen Formen der Anwesenden sowie der Objekte im Raum zu vermessen, schlug Henry Fuchs von der Universität von North Carolina in Chapel Hill schon 1993 ein Verfahren namens Kamerasee vor, bei dem die Aufnahmen zahlreicher Kameras miteinander verglichen werden. Indem geeignete Algorithmen die Winkel bestimmen, unter denen die Kameras bestimmte Einzelheiten einer Gestalt sehen – etwa eine Falte im Pullover –, lässt sich ein dreidimensionales Modell der Szene zusammensetzen.
Diese Technik war bereits in statischen Situationen getestet worden, insbesondere im Rahmen der Forschungsarbeit von Takeo Kanade; sie fand 1995 ihren Höhepunkt in der Vorführung "virtualisierter Realität" an der Carnegie Mellon University. Der Aufbau bestand aus 51 in einer Kuppel montierten Kameras. Da die Anlage nicht für Echtzeit-Wiedergabe konzipiert war, eignete sie sich nicht für Tele-Immersion. Stattdessen nahmen Videorecorder die Ereignisse in der Kuppel für spätere Verarbeitung auf.
Die Idee eines Echtzeit-Kamerasees faszinierte Ruzena Bajcsy, Leiterin des GRASP-Labors (General Robotics, Automation, Sensing and Perception) an der Universität von Pennsylvania. Sie begann 1994 mit Kollegen in Chapel Hill und an der Carnegie Mellon University kleine "Pfützen" aus zwei oder drei Kameras zu konstruieren. Bajcsy und Kostas Daniilidis versuchten den ersten Echtzeit-Kamerasee zu entwickeln, der an unterschiedliche Räume und Aufgaben angepasst werden konnte. Dabei arbeiteten sie eng mit dem Chapel-Hill-Team zusammen; es war dafür verantwortlich, die Daten mittels Computergrafik für jeden Nutzer in "lebendige Skulpturen" und naturgetreue Szenen zu verwandeln.
Ein Kamerasee stellt aber noch keine komplette Lösung dar. Angenommen, eine solche Anlage ist auf eine weiße Wand gerichtet. Mangels Oberflächenstrukturen haben die Kameras keine Möglichkeit, ein räumliches Modell aufzubauen. Ein Mensch kann eine weiße Wand betrachten, ohne verwirrt zu werden: Er befürchtet nicht, vor dem Eingang einer unendlich tiefen weißen Höhle zu stehen, weil er sich nicht nur auf geometrische Hinweise verlässt, sondern Vorwissen über Innenräume besitzt. Leider können heutige Digitalkameras durch die Stirn einer Person oder ihr T-Shirt genauso verwirrt werden wie durch eine weiße Wand, und die verfügbare Software vermag das Durcheinander noch nicht zu bereinigen.
Forscher in Chapel Hill entwickelten einen viel versprechenden Ausweg aus diesem Dilemma: unsichtbares strukturiertes Licht (imperceptible structured light, kurz ISL). Normale Glühbirnen flackern 50- bis 60-mal pro Sekunde, wodurch ihr Licht dem menschlichen Auge kontinuierlich erscheint. Auch ISL wird als ruhige Lichtquelle empfunden, erzeugt aber in Wirklichkeit rasch wechselnde Muster, die nur von speziellen, genau synchronisierten Kameras erfasst werden können. Diese Muster prägen leeren Flächen, etwa weißen Wänden, Strukturen auf; dadurch kann ein Kamerasee die Messungen interpretieren.
Die Premiere der Tele-Immersion fand am 9. Mai 2000 als virtueller Zusammenschluss von drei separaten Standorten statt. Etwa ein Dutzend Ehrengäste versammelten sich vor dem Telecubicle der Universität in Chapel Hill, einer mit großen Bildschirmwänden ausgestatteten Fernsehkammer, und setzten sich nacheinander in das simulierte Büro von morgen. Selbst für uns, nach drei Jahren Forschungsarbeit, war die Tele-Immersion ein überraschendes und unvergleichliches Erlebnis. Als ich eine Brille mit polarisierenden Gläsern aufsetzte, verwandelten sich zwei Wände des Fernsehraums in Fenster, hinter denen Menschen in anderen Büros saßen und mich direkt ansahen. Indem die Polarisationsfilter die leicht verschobenen Blickwinkel für das rechte und linke Auge selektierten, erzeugten sie einen stereoskopischen Effekt. Durch die eine Wand hindurch begrüßte ich Amela Sadagic, eine Forscherin in meinem Labor in Armonk (New York); hinter der anderen Wand saß scheinbar Jane Mulligan, eine Postdoktorandin an der Universität von Pennsylvania.
Im Gegensatz zu den skizzenhaften virtuellen Welten, mit denen ich viele Jahre lang gearbeitet hatte, wirkten die fernen Personen und Gegenstände, die ich jetzt von nahem erblickte, durchaus realistisch. Sie waren keineswegs perfekt: Das Rauschen im System erzeugte einen Konfetti-Regen, der in den anderen Kammern herabzurieseln schien. Die Bildfrequenz war gering – nur zwei bis drei Bilder pro Sekunde –, es gab Verzögerungen bis zu einer Sekunde, und nur wir in Chapel Hill erlebten den Effekt der Tele-Immersion. Dennoch sahen wir hier eine virtuelle Welt, die nicht nur eine grob vereinfachte Skizze der Realität war, sondern ihr authentisches, auf Messungen beruhendes Abbild.
Störender Konfetti-Regen
Bei einer späteren Vorführung im Oktober 2000 waren die störenden Konfetti fast verschwunden; auch Qualität und Geschwindigkeit des Systems hatten sich verbessert. Doch die wichtigste Neuerung schufen die Forscher um Andries van Dam von der Brown University: Sie brachten zu unserem Tele-Treffen rein virtuelle Objekte mit. Mir saß am Tisch Robert C. Zeleznik gegenüber, der sich in Wirklichkeit in meinem Labor in Armonk aufhielt. Er präsentierte ein simuliertes Miniaturbüro – etwa einen halben Meter breit –, das zwischen uns auf dem Tisch stand. Während wir uns unterhielten, benutzten wir simulierte Laserzeiger und andere Geräte, um die Wände und das Mobiliar gemeinsam zu verändern. Dies war eine erstaunliche Mischung von virtueller Realität und persönlicher Begegnung.
Die Tele-Immersion erfordert aber nicht nur ein Aufnahmesystem, sondern auch Computer, Netzwerkdienste, Displays und interaktive Geräte. Sie alle wurden zusammen mit der Tele-Immersion verbessert, müssen aber noch weiter entwickelt werden. Das neue Medium verschlingt Unmengen von Computerleistung. Um Tele-Immersion bald anwendungsreif zu machen, verwenden wir, wann immer möglich, gewöhnliche Computerkomponenten, wie sie zu Hause und im Büro gebräuchlich sind. An jedem Standort sind Dutzende solcher Prozessoren nötig – entweder in Form von Personalcomputern in Kunststoffgehäusen, die in Regalen aufgereiht stehen, oder als Leiterkarten in Gestellen von der Größe eines Kühlschranks. Ich spreche manchmal scherzhaft von der Anzahl der "Kühlschränke", die für ein bestimmtes Qualitätsniveau der Tele-Immersion erforderlich sind.
Die meisten Prozessoren dienen dem Erfassen der Szene. Ein Kamerasee besteht aus mehreren einander überlappenden Dreiergruppen von Kameras. Gegenwärtig benutzen wir für eine am Schreibtisch sitzende Person sieben Kameras, die so zusammengeschaltet sind, dass sie praktisch wie fünf Trios wirken. Grob geschätzt müsste ein Cluster von acht Pentium-Prozessoren mit einer Taktfrequenz von je zwei Gigahertz und gemeinsamem Speicher ein Kameratrio in Echtzeit bewältigen. Solche Prozessor-Cluster dürften noch in diesem Jahr zur Verfügung stehen. Obwohl wir erwarten, dass die Computerpreise weiter fallen, wird es noch eine Weile dauern, bis die Tele-Immersion für den allgemeinen Gebrauch erschwinglich sein wird. Ein Cluster aus acht Prozessoren wird vermutlich anfangs 30000 bis 50000 Dollar kosten, und jeder Standort erfordert mehrere davon – je ein Cluster pro Kameratrio. Darin sind noch nicht einmal die Kosten für andere Komponenten enthalten. Wir wissen nicht genau, wie viele Kameras für eine bestimmte Anwendung der Tele-Immersion nötig sein werden. Derzeit schätzen wir, dass eine lockere Unterhaltung mindestens sieben Kameras erfordert; für die anspruchsvollsten Anwendungen – etwa die Fernübertragung medizinischer Operationen sowie ärztliche Konsultation und Ausbildung – könnten sogar sechzig nötig sein.
Computer müssen aber nicht nur die aus den Kameraseen strömenden Bilderfluten bewältigen. Zusätzliche Prozessoren rekonstruieren die Szene und stellen sie, während ein Teilnehmer im Lauf einer Sitzung den Kopf bewegt, aus wechselnden Perspektiven dar. Anfangs benutzten wir einen großen Grafikcomputer; doch seit kurzem verwenden wir gewöhnliche Chips mit billigen Grafikkarten, wobei für jedes Auge ein Prozessor zuständig ist. Andere Prozessoren kombinieren die Daten jedes Kameratrios, erzeugen das unsichtbare strukturierte Licht, messen die Kopfbewegungen der Nutzer, versorgen die Nutzerschnittstelle und erzeugen Simulationen virtueller Objekte.
Bei der Tele-Immersion sind möglichst kurze Latenzzeiten oberstes Gebot. Darum werden Vorhersage-Algorithmen, die Bewegungen vorausberechnen, erhebliche Prozessorleistung verschlingen. Ein Glasfaserkabel überträgt Daten nur mit etwa zwei Dritteln der Vakuum-Lichtgeschwindigkeit, da sich das Licht nicht schnurgerade durch den leeren Raum fortpflanzt, sondern durch das Kabelmedium, in dem es obendrein einen Zickzackkurs beschreibt. Deswegen braucht ein optisches Signal mindestens 25 bis 50 Millisekunden, um den nordamerikanischen Kontinent zu durchqueren – ganz abgesehen von unausweichlichen Verzögerungen durch Zwischenstationen im Netz.
Leider dürfen in einer virtuellen Welt die Latenzzeiten höchstens 30 bis 50 Millisekunden betragen. Längere Verzögerungen ermüden und verwirren den Nutzer, zerstören die Illusion und können sogar Übelkeit verursachen. Darum müssten wir bei einer Unterhaltung von Küste zu Küste, selbst wenn an jedem Ende unendlich schnelle Computer stünden, die Verzögerungen durch Vorhersage-Algorithmen kompensieren. Das ist einer der Gründe, warum derzeit sämtliche Testlabors an der Ostküste liegen.
In den nächsten Jahren möchten wir versuchen, die Datenverarbeitung der Tele-Immersion in Echtzeit an entfernte Supercomputer-Zentren zu delegieren. Damit sich der Zugriff auf die enorme Rechenleistung lohnt, muss der Supercomputer jedoch schnell genug sein, die durch den Umweg entstehende zusätzliche Verzögerung wettzumachen.
Auch die digitale Bandbreite ist ein entscheidender Punkt. Unsere Ansprüche variieren nach Szene und Anwendung: Je komplexer das Bild, desto mehr Bits pro Sekunde brauchen wir. Große Teile einer Szene, insbesondere die Wände und der Hintergrund, verändern sich praktisch nicht und müssen nicht mit jedem Einzelbild übertragen werden. Eine einzelne am Schreibtisch sitzende Person – ohne Umgebung – erfordert bei einer geringen Bildfrequenz von zwei Bildern pro Sekunde rund 20 Megabit pro Sekunde, allerdings mit Spitzenwerten bis zu 80 Megabit pro Sekunde. Mit der Zeit wird diese Zahl aber durch die Entwicklung besserer Komprimierungsalgorithmen sinken. Da jeder Standort die Datenströme von allen anderen Teilnehmern empfängt, steigt bei einer Drei-Personen-Kommunikation auch die erforderliche Bandbreite auf das Dreifache. Der berühmt-berüchtigte "letzte Kilometer" der Netzanbindung ist im Fall von Informatik-Instituten heute meist eine OC3-Leitung, die 155 Megabit pro Sekunde übertragen kann – bei langsamer Bildfrequenz gerade ausreichend für eine Drei-Personen-Runde. Die Kapazität einer OC3-Leitung ist jedoch rund hundertmal so groß wie die heutiger Breitband-Verbindungen – und entsprechend teurer.
Ich erwarte, dass wir bald Tele-Immersion ohne Spezialbrillen und andere Hilfsmittel erleben werden. Ken Perlin von der New York University hat den Prototyp eines "autostereoskopischen Displays" entwickelt, das dies möglich machen könnte.
Gegenwärtig ist die Tele-Immersion noch nicht konkurrenzfähig: Sie ist grob geschätzt hundertmal teurer als andere Kommunikationsmedien und außerdem noch nicht ausgereift. Ich schätze, dass das neue Medium in etwa fünf Jahren für eingeschränkte Anwendungen geeignet sein wird – und erst in etwa zehn Jahren für den allgemeinen Gebrauch.
Eine breit zugängliche Tele-Immersion wird wahrscheinlich eine Vielfalt wichtiger Anwendungen finden. Ingenieurteams können über große Entfernungen am computergestützten Design neuer Maschinen zusammenarbeiten, als hätten sie echte Modelle auf einer gemeinsamen Werkbank vor sich. Archäologen aus aller Welt könnten an einer wichtigen Ausgrabung virtuell teilnehmen. Spitzenfachleute für Gebäude-Inspektion oder Maschinenreparaturen könnten sich vor Ort umsehen, ohne Zeit für den Hin- und Rückflug zu verschwenden.
Die Tele-Immersion könnte – anders als die Videokonferenz – zur echten Konkurrenz für Flugreisen werden. Zwar wird kaum jemand demnächst behaupten, beides sei genau dasselbe, aber für Geschäftsbesprechungen, Fachkonsultationen, Vorlesungen, Verkaufsausstellungen und dergleichen könnte Tele-Immersion durchaus ausreichen. In etwa zehn Jahren könnten Geschäftsreisen weitgehend durch Tele-Immersion ersetzt werden – nicht nur, weil das neue Medium besser und billiger sein wird, sondern weil der Flugverkehr schon heute an sicherheits- und umweltbedingte Grenzen des Wachstums stößt.
Außerdem sind überraschende Auswirkungen auf zwischenmenschliche Beziehungen und soziale Rollen zu erwarten. Diejenigen etwa, die sich Sorgen machen, wie Künstler, Musiker und Schriftsteller angesichts immer schwerer zu schützender Urheberrechte – wegen des unkontrollierten Kopierens von Dateien im Internet – ihren Unterhalt verdienen sollen, haben als Lösung oft persönliche Vorführungen gegen Honorar vorgeschlagen, weil das unmittelbare Dabeisein mehr wert ist als die spätere Reproduktion von der Konserve. Die Tele-Immersion könnte das ästhetische Miterleben so eindrucksvoll und preiswert gestalten, dass daraus vielleicht eine neue Grundlage für künstlerischen Austausch entsteht. Wir dürfen nicht vergessen, dass in früheren Jahrhunderten alle Kunstformen interaktiv waren. Die Musiker standen in direktem Kontakt zu ihren Zuhörern, genau wie die Schauspieler auf der Bühne und die Dichter beim mündlichen Vortrag. Durch Tele-Immersion könnten all diese Kunstformen, indem sie auf das Copyright-Dilemma reagieren, wieder Unmittelbarkeit, Intimität und persönliche Präsenz gewinnen.
Bessere Einfühlung in Andere
Zweifellos wird das neue Medium auch neue Probleme schaffen. Einige Nutzer haben eingewandt, die Tele-Immersion exponiere die Teilnehmer allzu sehr, während Telefon oder Videokonferenz es ihnen leichter machen, ihre Privatsphäre zu schützen – indem sie einfach aufhängen oder aus dem Bild gehen. Ich erwarte, dass wir mit wachsender Erfahrung sowohl Nutzerschnittstellen als auch Verhaltensregeln entwickeln werden, die solche Probleme lösen.
Ich werde oft gefragt, ob es mir Angst macht, an einer neuen Technik zu arbeiten, die wahrscheinlich einen tief greifenden und noch gar nicht absehbaren Einfluss auf die Gesellschaft ausüben wird. Meine Antwort lautet: Da die Tele-Immersion im Grunde ein Mittel zur besseren Verständigung ist, besagt die Frage eigentlich, wie optimistisch wir die menschliche Natur einschätzen. Ich glaube, dass Kommunikationstechniken die Chancen für Einfühlung in Andere erhöhen und damit moralisches Verhalten fördern. Darum erwarte ich, dass die Tele-Immersion im Wesentlichen Gutes bringen wird.
Steckbrief
Zwei Probleme ...
– Herkömmliche Videokonferenzen vermitteln nicht den Eindruck, als säße man den – in Wahrheit weit entfernten – Gesprächspartnern direkt gegenüber. Es kommt keine natürliche Gesprächsatmosphäre zustande.
– Das amerikanische Internet2-Konsortium entwickelt gegenwärtig eine neue Generation digitaler Netze und sucht eine anspruchsvolle Anwendung für die Fernübertragung gewaltiger Datenmengen.
... eine Lösung
Tele-Immersion, ein neues digitales Medium, kombiniert "Virtual Reality" und Videokonferenz: Weit entfernte Gesprächsteilnehmer sowie simulierte Objekte scheinen sich in einem virtuellen Raum zu begegnen, als fände eine reale Besprechung an Ort und Stelle statt.
Innerhalb der nächsten zehn Jahre, so der Autor, könnte Tele-Immersion Wirklichkeit werden. Der dafür nötige Zuwachs an Netz- und Computerleistung ist freilich enorm – eine echte Herausforderung für die künftige Netz-Generation.
Aus: Spektrum der Wissenschaft 7 / 2001, Seite 52
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben