Direkt zum Inhalt

News: Wo Licht ist, ist auch Schatten

Wenn im Kino das Spielzeug lebendig wird, Dinosaurier diverse Regeln ihres Vergnügungsparks überschreiten oder Humanoide sich im Weltall genauso dumm bekriegen wie auf Erden, dann sieht das für den Zuschauer ungemein realistisch aus. Dabei sind fast alle Bestandteile der Szenen im Computer entstanden. Laufen Sie jedoch live am Bildschirm auf eigenen Wegen durch einen virtuellen Raum, erkennt Ihr Auge sehr schnell, das hier etwas nicht stimmt. Kein Computer der Welt kann Ihre Drehungen und Wendungen in Echtzeit berücksichtigen und den Verlauf der Lichtstrahlen, die in Ihr Auge fallen, schnell genug berechnen. Berechnet man jedoch zuvor ein 'virtuelles Lichtfeld' aus Millionen von Strahlen, geht das später viel einfacher und flinker.
Was in der realen Welt unzählige Photonen machen, muss für virtuelle Räume der Computer vollbringen. Licht, das zum Beispiel durch ein Fenster eindringt, wird an den Oberflächen von Gegenständen reflektiert, an durchscheinenden Körpern gebrochen, von farbigen Flächen teilweise absorbiert – eine ganze Reihe komplexer Interaktionen, die der Rechner für jene Strahlen simuliert, die schließlich in die fiktive Kamera fallen. Je mehr Objekte sich in dem Raum befinden und je unterschiedlicher deren Eigenschaften sind, umso länger dauert es, das Bild zu erstellen. "Die große Herausforderung der Computergrafik ist es, neue Methoden zu entwickeln, um die Abhängigkeit der Rechenzeit für eine Szene von der Anzahl der Objekte [...] zu vermindern", erläutert Mel Slater vom University College London. Besonders wenn der Betrachter sich frei im Raum bewegen kann, ist es mit herkömmlichen Verfahren praktisch unmöglich, die veränderten Lichtverhältnisse in Echtzeit nachzuvollziehen.

Slater entwickelte darum ein neues Konzept, das beide Probleme zugleich lösen sollte. Er interessiert sich zunächst nicht für die Position des Betrachters. Stattdessen lässt er seinen Computer die Egenschaften des Lichtes – also dessen Intensität und Farbe – auf dem Weg von Millionen virtueller Strahlen berechnen. Kreuz und quer durchziehen diese den Raum. Trifft einer davon auf eine Oberfläche, ändern sich von dort an seine Richtung sowie die Informationen über das Licht. Eine Szene kann etwa 200 Millionen solcher Strahlen benötigen. Zusammen ergeben sie ein "virtuelles Lichtfeld". Ist das einmal errechnet, hat der Computer die schlimmste Arbeit schon hinter sich.

Damit der Besucher den Raum auch betrachten kann, setzt Slater eine Art künstliches Auge hinein. Es besteht aus einer virtuellen Linse mit dahinterliegender Bildebene. Wie beim natürlichen Vorbild fokussiert die Linse einfallende Strahlen auf die Ebene, wo die Information über das Licht in einen Bildpunkt umgesetzt wird – im Vergleich zu der vorangegangenen Arbeit ein minimaler Rechenaufwand.

Da für jeden Ort im Raum die informationstragenden Strahlen bereits bekannt sind, kann das Bild schnell aktualisiert werden, wenn der Betrachter seinen Platz oder die Blickrichtung ändert. Dabei bleibt die Anzahl der virtuellen Strahlen, welche durch die Linse fallen, stets gleich. "Das bedeutet," so Slater, "dass die Geschwindigkeit des Renderings nicht von der Anzahl der Objekte abhängt." In Tests mit einfachen Szenarien hat Slater die prinzipielle Machbarkeit seines Ansatzes bereits demonstriert. Doch noch ist der Speicherbedarf riesig. Sobald dieses Problem gelöst ist, möchte der Wissenschaftler sein Programm kommerziell nutzen.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.