Bildartikel: Räumliche Bilder des Körperinneren
Aus der verwirrenden Vielfalt computer-tomographischer und ähnlicher Daten aus dem Körper eines Menschen erhält man unmittelbar einleuchtende und aufschlußreiche Bilder, indem man mit computergraphischen Methoden den natürlichen Verlauf der Lichtstrahlen nachbildet.
Bevor der Chirurg eine komplizierte Operation im Brustraum vornimmt, setzt er sich an einen Bildschirm und fliegt gleichsam durch den Körper des Patienten. Mit einem Steuerknüppel kann er die Bahn seiner imaginären Späherkapsel sowie seine eigene Blickrichtung bestimmen. Ein gesprochenes Wort an den Computer genügt, und die Rippen werden durchsichtig, so daß die Lunge ungehindert zu betrachten ist. Auch diese wird auf seinen Befehl hin transparent, und er studiert die Bronchien und die Blutgefäße in ihrer räumlichen Struktur. Zuletzt untersucht er die Qualität und Schließgenauigkeit der Herzklappen, während das Herz ruhig vor sich hin schlägt.
Diese Vision ist keineswegs utopisch. Was zu ihrer Realisierung erforderlich ist, existiert bereits oder wird in naher Zukunft zur Verfügung stehen. Es bedarf allerdings gemeinsamer Anstrengungen von Medizinern und Informatikern, um die Bausteine zu einem funktionsfähigen Ganzen zusammenzufügen.
In unserer Arbeitsgruppe in der Abteilung Medizinische und Biologische Informatik des Deutschen Krebsforschungszentrums (DKFZ) in Heidelberg haben wir Schritte auf dem Wege zu einem solchen mächtigen Diagnosewerkzeug unternommen. Die Bilder dieses Artikels sind das Ergebnis einer Gemeinschaftsarbeit vieler Mitarbeiter und Studenten; Kliniken in aller Welt haben uns unterstützt, indem sie Datenmaterial zur Verfügung stellten.
Aufgabenstellung
Der Mediziner möchte aus dem Bild, das ihm der Computer zeigt, auf den ersten Blick einen räumlichen Eindruck von der dargestellten Körperregion gewinnen. Er will, daß sich der Gegenstand seines Interesses – beispielsweise ein Tumor – deutlich von seiner Umgebung abhebt; und er will diesen Gegenstand von allen Seiten betrachten können, um eine möglichst umfassende Vorstellung zu gewinnen.
Wodurch erzeugt ein zweidimensionales Bild beim Betrachter unmittelbar den Eindruck eines dreidimensionalen Gegenstandes? Die Maler vergangener Jahrhunderte haben in einem mühsamen Lernprozeß erkannt, daß das menschliche Sehsystem verschiedene Merkmale zu Hilfe nimmt, um die dritte Dimension zu rekonstruieren: Daß ein Gegenstand A weiter entfernt ist als ein Gegenstand B, erkennt es unter anderem daran, daß
– das Netzhautbild von A in einem kleineren Maßstab erscheint als das von B (Perspektive),
– das Bild von A durch B teilweise verdeckt wird,
– B auf A einen Schatten wirft, wenn das Licht von vorne kommt (kommt das Licht aus einer anderen Richtung, macht der Schattenwurf auch andere räumliche Beziehungen erkennbar),
– das von A ausgehende Licht durch ein trübes Medium wie Dunst, Nebel oder Wasser in höherem Maße abgeschwächt wird.
Unser Wahrnehmungssystem macht sich auch das physikalische Gesetz, daß bei der Reflexion der Ausfallswinkel gleich dem Einfallswinkel ist, zunutze, um die Orientierung einer Oberfläche zu bestimmen: Dort, wo sich die Sonne als Glanzlicht auf der lackierten Karosserie eines Autos spiegelt, halbiert die Senkrechte auf der Oberfläche (die sogenannte Normale) den Winkel zwischen Sonnenstrahl und Sehstrahl.
Schließlich gewinnen wir Tiefeninformation auch dadurch, daß das linke und das rechte Auge geringfügig verschiedene Bilder empfangen. Dieser Effekt wird in den Stereobildern ausgenutzt, Paaren entsprechend unterschiedlicher Bilder, die jeweils nur einem Auge präsentiert werden.
Quellen der Information
Die Röntgenaufnahme, das klassische – und noch keineswegs überflüssig gewordene – bildgebende Verfahren der Medizin, hat den Nachteil, daß die Information über die dritte Dimension verlorengeht. Das Röntgenbild zeigt nur, wieviel Strahlung auf dem Weg von der Röntgenröhre bis zum Film absorbiert worden ist, nicht aber, wo auf diesem Wege; es ist eine reine Projektion. Der Radiologe muß darum über erhebliche Erfahrung verfügen, um aus diesen summarischen Daten nützliche Schlüsse ziehen zu können.
In den letzten zwei Jahrzehnten sind innovative bildgebende Verfahren hinzugekommen, die vollständige dreidimensionale Information liefern: die Computer-Tomographie (CT) und die Kernspinresonanz-Tomographie (MR-Tomographie nach magnetic resonance; die früher übliche Bezeichnung nuclear magnetic resonance mitsamt Abkürzung NMR ist aufgegeben worden, um Befürchtungen, die Sache habe etwas mit Kernspaltung zu tun, nicht aufkommen zu lassen).
Bei der Computer-Tomographie rotieren eine Röntgenröhre und ein genau gegenüberliegender Detektor in einer Ebene um den Körper des Patienten. In mehreren hundert Positionen mißt der Detektor, wieviel Röntgenstrahlung das Gewebe auf diesem Strahlenweg absorbiert; ein Computer berechnet aus sämtlichen Absorptionsdaten eine Verteilung des absorbierenden Gewebes in der Meßebene, die eben dieses Absorptionsmuster erzeugt. Das Ergebnis ist ein Tomogramm (wörtlich „Schnittbild“): ein synthetisches Röntgenbild einer Scheibe des Patienten. Indem man das Verfahren auf etwa 100 dicht nebeneinanderliegende Ebenen anwendet, gewinnt man dreidimensionale Information über einen ganzen Quader, den man sich aus dem Körper des Patienten herausgeschnitten vorstellen kann.
Bei der Kernspinresonanz-Tomographie mißt man anstelle der Röntgenstrahlen elektromagnetische Effekte, die auf eine geeignete Anregung hin im wesentlichen von den Wasserstoffatomen des untersuchten Gegenstandes ausgehen. Wie bei der Computer-Tomographie müssen die Meßdaten zunächst vorverarbeitet werden; das Ergebnis ist wieder eine Ansammlung von Daten über einen Meßquader (siehe „Kernspintomographie: Röntgenbilder ohne Röntgenstrahlen“ von Ian L. Pykett, Spektrum der Wissenschaft, Juli 1982, Seite 40).
Genauer gesagt: Man stelle sich den Quader in lauter kleine Volumenelemente zerlegt vor; in Analogie zu den Pixeln (picture elements), kleinen Quadraten, aus denen man sich ein zweidimensionales Bild zusammengesetzt denkt, hat sich für die kleinen Teilquader der Name „Voxel“ eingebürgert. Der Datensatz gibt Auskunft, wie groß die Dichte an röntgenstrahlabsorbierendem Material beziehungsweise an Wasserstoff in jedem Voxel ist. Die CT ist deshalb eher zur Darstellung von Knochen, die MR-Tomographie eher zur Differenzierung von Weichteilen geeignet. Beide Verfahren ergänzen sich ideal (Bild 2 oben und Mitte).
Vom Datenquader zum Rasterbild
Wie verschafft man sich aus diesen Datenmengen einen räumlichen Eindruck? Ein klassisches Verfahren besteht darin, Bilder aus einer Anzahl paralleler, eng benachbarter Schichten zur Begutachtung und Beurteilung nebeneinander in den Lichtkasten zu hängen. Dies stellt jedoch hohe Anforderungen an die Vorstellungskraft des Betrachters. Wer etwa die mit dem Eierschneider hergestellten Scheiben eines hartgekochten Eis vor sich hat, kann sich daraus zwar dessen Gestalt und innere Struktur in Gedanken rekonstruieren – aber im wesentlichen deswegen, weil ein Ei geometrisch sehr einfach aufgebaut ist und der Betrachter schon viele Eier gesehen und zerlegt hat. Ein Tumor im Schädelbereich ist dagegen häufig nicht nur unregelmäßig und unvorhersehbar geformt, sondern auch auf das vertrackteste in seine ebenfalls komplizierte Umgebung eingebettet.
Auf eine andere Weise behilft man sich, indem man ebenenweise die interessierende Struktur beispielsweise aus Styropor aussägt und die Scheiben zusammenklebt. Das setzt jedoch eine Entscheidung für ein bestimmtes Objekt voraus, gilt nur für dieses, ermöglicht keine Einsicht in weiter innen liegende Strukturen und ist zu umständlich, um routinemäßig anwendbar zu sein.
Da ohnehin sämtliche Dichtewerte in digitaler Form vorliegen, bietet es sich an, zur Weiterverarbeitung einen Rechner einzusetzen. Für die räumliche Darstellung von Objekten auf einem Computerbildschirm gibt es bereits ausgereifte Verfahren, die zum Beispiel beim computergestützten Design oder im Trickfilm ausgiebig verwendet werden (siehe „Software für Graphik“ von Andries van Dam, Spektrum der Wissenschaft, November 1984, Seite 116; für Anwendungen in Architektur und Kunstgeschichte siehe „Imaginäre Bauten“ von Donald P. Greenberg und „Computergraphik und gotische Architektur“ von Norbert Quien und Werner Müller, Spektrum der Wissenschaft, April 1991, Seite 104, beziehungsweise Dezember 1991, Seite 120). Für alle diese Verfahren müssen jedoch die abzubildenden Gegenstände durch ihre Oberfläche beschrieben sein, die allerdings ihrerseits aus sehr vielen kleinen Flächen zusammengesetzt sein darf.
Ein möglicher Ansatz ist, die vorliegende dreidimensionale Volumendarstellung der Daten in eine Oberflächendarstellung zu verwandeln. Man definiert etwa jedes Voxel, dessen Dichte einen geeignet gewählten Schwellenwert überschreitet, als zu einem Knochen gehörig. Alle diese Voxel zusammen haben eine Oberfläche; da sie wegen der unvermeidlichen Meßfehler noch etwas rauh ist, muß sie durch geeignete Algorithmen geglättet werden. Falls die so darzustellenden Gegenstände glatt und eindeutig gegen ihre Umgebung abgegrenzt sind wie zum Beispiel Knochen in der CT-Darstellung, liefert ein solches Verfahren, wie es etwa Karl Heinz Höhne und seine Mitarbeiter an der Universität Hamburg entwickelt haben, unübertroffen eindrucksvolle, glänzende Bilder.
In den meisten Fällen liegen jedoch die medizinisch interessanten – gesunden oder kranken – Organe und Gewebe nicht eindeutig abgrenzbar in ihrer Umgebung. Vielmehr interessieren gerade auch feine Übergänge und Verwebungen. Deshalb ist die Zuordnung von Volumenelementen zu einzelnen Objekten nicht einfach.
Bei unserem Verfahren, der Heidelberger Raytracing- (Strahlverfolgungs-) Methode, sind wir darum anders vorgegangen. Wir verzichten auf die problematische Berechnung von Oberflächen und bilden statt dessen auf der Basis der einzelnen Voxel im Detail die Physik der Lichtausbreitung nach. Die erwünschten Effekte wie Absorption, Perspektive, Schattenwurf, Verdeckung hinten liegender Teile und Reflexion ergeben sich dabei nahezu automatisch.
Das Verfahren läuft darauf hinaus, einige im Prinzip sehr einfache Rechenschritte (die unten näher erläutert werden) sehr oft zu wiederholen: Ein typischer Datenquader besteht aus 256¥ 256 ¥128 oder ungefähr 8,3 Millionen Voxeln. Um erträgliche Rechenzeiten zu erreichen, sind deshalb einige vereinfachende Annahmen, welche die Bildqualität nicht wesentlich beeinträchtigen, unerläßlich:
– Wir denken uns den Datenquader so orientiert, daß er dem Betrachter genau eine Seitenfläche zuwendet. Wollen wir das Objekt drehen, so berechnen wir einen neuen Datenquader.
– Es gibt keine Mehrfachreflexion: Kein Teilobjekt beleuchtet ein anderes.
– Es gibt nur zwei (imaginäre) Lichtquellen, die jeweils paralleles Licht aussenden; eine beleuchtet den Quader genau von vorn, die andere aus einem Winkel von 45 Grad schräg von links hinten. Alle Lichtstrahlen verlaufen genau waagerecht.
Durch die letzte Einschränkung werden die Berechnungen für verschiedene waagerechte Schichten (entsprechend Rasterzeilen des fertigen Bildes) unabhängig voneinander; innerhalb einer Schicht trifft jeder Lichtstrahl nur eine einfach zu beschreibende Menge von Voxeln (Bild 2 unten).
Ausbreitung des gedachten Lichtstrahls
Ein Voxel kann das eindringende Licht in einem Ausmaß absorbieren, das von seiner Dichte abhängt; insbesondere kann es völlig undurchsichtig sein, wodurch Schattenwurf (Absorption des einfallenden Lichts) und Verdeckung hinten liegender Teile (Absorption des reflektierten Lichts) entstehen. Bei nur teilweiser Absorption bleibt ein Objekt, das in einem anderen enthalten ist, gleichwohl sichtbar, während das umgebende Objekt wie eine Wolke aussieht (Bild 5).
Zweitens kann ein Voxel einen Teil des Lichtes in das Auge des Betrachters streuen oder reflektieren. Physikalisch geht es sowohl bei Streuung als auch bei Reflexion darum, daß Licht aus seiner ursprünglichen Ausbreitungsrichtung abgelenkt wird. Bei der Streuung geschieht das zum Beispiel durch Wassertröpfchen in einer Wolke oder Staubteilchen in trübem Wasser; das Licht wird nach allen Richtungen gleichmäßig gestreut, und zwar um so intensiver, je dichter das Medium ist.
Dagegen findet Reflexion im Prinzip nicht im Inneren eines Volumens, sondern an einer Oberfläche statt: ungerichtet wie bei rauhen oder richtungsabhängig wie bei spiegelglatten Oberflächen. Es scheint also, als müßten wir, um die Reflexion korrekt wiederzugeben, doch Oberflächen berechnen. Das ist jedoch nicht nötig. Es genügt, die Existenz einer Grenzfläche überall dort zu unterstellen, wo die Dichte von einem Voxel zu einem benachbarten sich ändert. Es kommt nicht darauf an, ob diese lokalen (auf ein Voxel beschränkten) Grenzflächen aneinanderpassen.
Ein abrupter Anstieg der Dichte ist typisch für gut ausgeprägte Grenzflächen etwa zwischen Weichteilen und Knochen; hier berechnet unser Verfahren einen reflektierten Strahl und für die spiegelnde Reflexion auch eine lokale Näherung an eine Grenzfläche. In dieser Hinsicht kommt es den oberflächenorientierten Verfahren relativ nahe. Wenn sich jedoch der Übergang von weniger dichtem zu dichtem Material über drei oder mehr Voxel hinzieht, liefert jedes einen – entsprechend kleineren – Beitrag zum reflektierten Licht. Im Gesamtbild erscheint die Abgrenzung dann so unscharf, wie sie ist, ohne daß man irgendwo unzutreffende Annahmen über eine Oberfläche hätte machen müssen.
Um Rechenzeit zu sparen, wird für den schrägen Strahl keine Streuung, für den geraden keine spiegelnde Reflexion berechnet.
Feineinstellung
Damit stehen uns zahlreiche Parameter zur Verfügung, die wir einstellen können, um ein möglichst aussagekräftiges Bild zu erhalten: die relativen Helligkeiten der beiden Lichtquellen sowie Absorptions-, Streuungs- und Reflexionskoeffizienten, die ihrerseits nichtlinear von der Dichte abhängen können. Das erlaubt es uns beispielsweise, Material unterhalb einer gewissen Dichte als durchsichtig zu definieren und damit den Schädel eines Patienten ohne Haut zu betrachten. Außerdem können wir gewisse Teile des Quaders einfach weglassen und dadurch ein besseres Bild des Restes gewinnen (Bilder 4 und 5). Man kann die genannten Koeffizienten auch für gedachtes Licht verschiedener Farben verschieden wählen: Schreibt man etwa einem (durch seine Dichte definierten) Material die Eigenschaft zu, nur rotes Licht zu reflektieren, zeigt das Bild an den entsprechenden Stellen eine rötliche Oberfläche. So kommen die surrealistischen, aber instruktiven Bilder etwa von einem blauen Gehirn in einem roten Schädel zustande (Bild 1).
Zukunftsaussichten
Hinter der hier vorgestellten Lösung des Darstellungsproblems verbirgt sich unmittelbar ein weiteres: die Klassifizierung von Objekten. Wenn der Traum vom Flug durch den Körper realisiert werden soll, muß der Computer jedes Voxel einem Objekt zuordnen, zum Beispiel das eine der Lunge und das andere dem Herzen. Nur so kann er dann auf Befehl die Lunge (und nur diese) durchsichtig machen oder auch alles mit Ausnahme der Lunge (Bild 7). Besonders an den Übergangselementen ist eine solche eindeutige Zuordnung problematisch.
Es ist nicht sinnvoll, für die Klassifikation nur den Dichtewert des in Frage stehenden Voxels selbst heranzuziehen. Für die Lunge beispielsweise ist die Dichte gar nicht so charakteristisch wie die innere Textur: das Nebeneinander von luftgefüllten Hohlräumen und Gewebe auf engstem Raum. In die Klassifikationsentscheidung müssen also außer dem Dichtewert des betroffenen Voxels die seiner Nachbarn eingehen. Unter den ungeheuer vielen Funktionen dieser Werte schälen sich nach mühsamer Arbeit einige als besonders aussagekräftig heraus: die Dichte selbst, der Mittelwert der Dichte über die 26 benachbarten Voxel, deren Varianz (mittlere Schwankung) über denselben Bereich sowie abermals – über einen größeren Bereich – gemittelte Werte dieser Funktionen.
Man tut außerdem gut daran, statt einer scharfen Klassenzuordnung nur ein Ausmaß anzugeben, in dem ein bestimmtes Voxel beispielsweise der Lunge zuzurechnen ist: eine Zugehörigkeitsfunktion im Sinne der Fuzzy Logic (vergleiche Spektrum der Wissenschaft, März 1993, Seiten 90 bis 103). Unser Verfahren ist imstande, solche unscharfen Informationen zu einem entsprechenden Bild zu verarbeiten.
Ein Prototyp unseres Verfahrens ist bereits implementiert. Auf einem Personal Computer neuerer Bauart können wir inzwischen ein Bild in sieben Minuten generieren; auf Workstations und Großrechnern liegen die Rechenzeiten in der Größenordnung von einer Minute.
Für die alltägliche klinische Praxis ist eine weitere Reduktion der Rechenzeit erforderlich. Hier kommt uns die Entwicklung der Hardware zu schnelleren und billigeren Computern sehr gelegen. Unser Verfahren ist auch bereits auf die Abarbeitung durch Parallelrechner angelegt; jede Eingangsebene könnte – mit dramatischen Zeitgewinnen – von einem separaten Prozessor verarbeitet werden.
Damit kommen wir überdies dem Ziel näher, die – bislang sehr aufwendige – Fertigung von Folgen bewegter Bilder zur Routineanwendung zu machen. Man gewinnt noch einen unvergleichlich viel klareren Eindruck von dem darzustellenden Objekt, wenn es sich in einem Film vor den Augen des Betrachters dreht und wandernde Schatten die räumlichen Verhältnisse zusätzlich verdeutlichen.
An dem geplanten Arbeitsplatz muß auch ein ungeübter, gelegentlicher Benutzer allein und ohne Verwirrung seinen Weg durch die angebotenen Funktionen finden können. Im Rahmen des EG-geförderten Projekts AIM (Advanced Informatics in Medicine) haben wir uns an der Entwicklung geeigneter multimediaker Dialogtechniken beteiligt. Die Zukunft liegt für uns im Aufbau eines integrierten medizinischen Arbeitsplatzes, der den Arzt bei Diagnose und Therapie unterstützt und so unmittelbar dem Patienten dient.
Aus: Spektrum der Wissenschaft 7 / 1993, Seite 56
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben