Computersimulation: Simulierte Zellen
Schon die einfachste lebende Zelle ist so komplex, dass selbst Supercomputer ihr Verhalten wohl nie perfekt simulieren können. Aber auch unvollkommene Modelle könnten bereits die Grundlagen der Biologie erschüttern - und hoffentlich Medikamente entwickeln helfen.
Drei Jahrhunderte Reduktionismus in der Biologie haben vor kurzem ihren absoluten Höhepunkt erreicht. Der Drang der Wissenschaftler, das Leben in immer kleinere Stücke zu zerteilen – Organismen in Organe, Gewebe in Zellen, Chromosomen in DNA, DNA in Gene –, ist an seine natürliche Grenze gestoßen. Die Strickleiter des menschlichen Genoms ist, mit Einschränkungen, Sprosse für Sprosse bekannt.
Noch bevor im vergangenen Februar die vorläufige Fassung der Sequenz vorlag, begannen Forscher mit dem Hang zum Philosophischen vorauszuschauen in die nächste große Phase der Biologie: die Ära des Integrationismus. Nachdem die biochemischen Einzelinformationen bereitliegen, gilt es sie in eine vollständige Theorie einzuordnen. Zweifellos werden dabei Computer-Modelle eine sehr wichtige Rolle spielen. Doch wie man diese Werkzeuge am besten einsetzt, darüber sind sich die Forscher offenbar noch nicht einig, denn sie entwickeln völlig verschiedene "virtuelle Zellen".
"Wir haben die komplette Teile-Liste für einen Menschen. Die Leute stellen sich vor, dass man jetzt nur noch die Teile in einem Computer zusammensetzen und den Schalter umlegen muss", sagt Drew Endy vom Institut für Molekularwissenschaften der Universität von Kalifornien in Berkeley. Dann sollten sich auch die letzten komplizierten Geheimnisse der Medizin lüften. "Doch nichts ist weiter von der Wahrheit entfernt."
Endy spricht aus bitterer Erfahrung. 1994 begannen er und John Yin von der Universität von Wisconsin in Madison, ein Computermodell des Bakteriophagen T7 zu programmieren. T7 ist ein Virus, das aussieht wie eine Mondfähre. Es vermehrt sich in Bakterien, insbesondere in Escherichia coli, den Bewohnern des menschlichen Darms. Dazu krallt es sich mit klauenartigen Anhängen in der äußeren Wand des Bakteriums fest und injiziert seine DNA in dessen Inneres. Das genetische Material bemächtigt sich des Vermehrungsapparats der Zelle und zwingt ihn, so lange Bakteriophagen-Klone herzustellen, bis die Zelle platzt.
Das Computermodell von Endy und Yin simulierte mathematisch, wie die 56 Virus-Gene in 59 Proteine übersetzt werden, wie diese Proteine die Wirtszelle überwältigen und sogar, wie die Viruspartikel Resistenz gegen zahlreiche Medikamente aus RNA entwickeln können. Das erscheint beeindruckend. Aber bei einem detaillierten Blick auf die Gleichungen ist Endy nicht zufrieden. Zwar stecken in ihnen Messergebnisse aus 15 Jahren Laborexperimenten, aber "es gibt immer noch eine riesige Anzahl von unbestimmten Variablen". Die Gleichungen können so hingebogen werden, dass sie nahezu jedes Verhalten produzieren. "Ein nützliches Modell führt zu einer Hypothese, die den Schöpfer des Modells dazu zwingt, ein Experiment zu machen", sagt Endy. Sein eigenes Modell leistete das nicht.
Viele frühe Versuche, Leben im Computer nachzubilden, hatten dieselbe Schwäche. Daher benutzen die meisten Biologen Computer immer noch im Wesentlichen als Behälter für den Datenschwall, der ihren Sequenzier-Robotern und Genchip-Lesegeräten entströmt. Die "Modelle", die sie in ihren wissenschaftlichen Arbeiten veröffentlichen, sind grobe Skizzen mit magerer theoretischer Grundlage. Aber es gibt eben keine bessere Theorie als das zentrale Dogma, dass ein DNA-Gen in eine RNA umgesetzt wird, die in ein Protein übersetzt wird, das eine bestimmte biochemische Funktion erfüllt.
Ausgerechnet dieser Lehrsatz wird seit einigen Jahren von einer wachsenden Schar mathematisch orientierter Biologen als unzulässig vereinfachend in Frage gestellt. Computersimulationen sollen eine bessere Theorie finden helfen. "Wir sind in der Biologie Zeugen einer großen wissenschaftlichen Revolution", behauptet Bernhard Ø. Palsson, Leiter der Forschungsgruppe für genetische Schaltkreise an der Universität von Kalifornien in San Diego. Palsson ist Mitbegründer von Genomatica, einer der Firmen, die Computer-Modelle von Zellen entwickeln. Mit den Modellen sollen die Irrwege vermieden werden, welche die Entwicklung von Arzneimitteln so aufwendig machen.
In der Tat: "Die Kosten für die Entdeckung neuer Wirkstoffe steigen", sagt James E. Bailey vom Institut für Biotechnologie an der Eidgenössischen Technischen Hochschule Zürich. Milliardeninvestitionen für monoklonale Antikörper, Klonen, Sequenzierung, kombinatorische Chemie und Roboter haben sich nicht wie erhofft ausgezahlt. Bailey nennt auch die Ursache dafür: "Diese Techniken beruhen auf der naiven Annahme, man könne die Aktivität einer Zelle nach Belieben lenken, indem man einen Wirkstoff hineinschickt, der ein einziges Protein hemmt." Nach dem zentralen Dogma sollte das fast immer funktionieren. Aber in neun von zehn Fällen ist das nicht der Fall.
Genetiker haben viele hundert Stämme von Bakterien und Mäusen geschaffen, bei denen ein einziges Gen defekt ist. Die meisten dieser "Knockout"-Organismen zeigen jedoch keine merklichen Ausfälle. Das zentrale Dogma kann auch nicht leicht erklären, wie nur 30000 Gene das komplexe Verhalten einer Myriade menschlicher Zelltypen hervorbringen.
Alfred G. Gilman, Biochemiker und Nobelpreisträger am Southwestern Medical Center der Universität von Texas in Dallas, beschreibt das Problem so: "Ich könnte Ihnen alle Bestandteile einer Zelle in eine Karte zeichnen, und für jede Beziehung zwischen ihnen den zugehörigen Pfeil. Aber niemand könnte mit Hilfe der Karte das Geringste vorhersagen, auch nicht für den einfachsten einzelligen Mikroorganismus."
Bailey vergleicht den konfusen Zustand der Mikrobiologie mit der Astronomie im 16. Jahrhundert: "Die Astronomen verfügten über große Archive mit genauen Angaben zur Bewegung und Position von Himmelsobjekten. Aber sie konnten die Bewegungen der Planeten nicht genau vorhersagen. Sie hätten nie geglaubt, dass ihre Bahnen elliptisch und durch eine einfache Gleichung beschreibbar sind. Dann kam Kepler und bewies genau das. Ich behaupte nicht, dass es eine einfache Gleichung für die Biologie einer Zelle gibt. Aber wir sollten nach Prinzipien Ausschau halten, die unsere Fakten ordnen und verständlich machen."
Aus den weiterentwickelten Zellsimulationen, an denen gerade gearbeitet wird, zeichnet sich ein erstes solches Prinzip ab: Robustheit. Alles Leben muss mit dramatischen Ausschlägen der Temperatur, wechselndem Futterangebot, giftigen Chemikalien und Attacken von innen wie von außen zurechtkommen. Um zu überleben und zu gedeihen, müssen Zellen über Notfall-Systeme und Regelkreise verfügen, die Störungen abfangen.
Diese Eigenschaft kristallisierte sich bei virtuellen Experimenten heraus, die Masaru Tomita mit seinem Modell "E-Cell" anstellte. Mit Kollegen des Labors für Bioinformatik an der Keio-Universität in Fujisawa (Japan) baute Tomita diese virtuelle Zelle aus 127 Genen zusammen. Die meisten davon waren denen von Mycoplasma genitalium, einer einzelligen Mikrobe, nachgebildet. Sie hat das kleinste Genom, das man bei einer sich selbstständig vermehrenden Lebensform entdeckt hat. Das Fernziel des Teams ist es, die minimale Zahl von Genen zu finden, die ein autarker Organismus haben muss, und ihn dann künstlich herzustellen – eine äußerst reduktionistische Strategie. Aber Tomita war überrascht, als er das Aktivitätsniveau verschiedener Gene im Modell um einige Größenordnungen veränderte: Das Verhalten der E-Cell blieb nahezu unverändert.
"Das war auch für uns eine interessante Entdeckung", sagt Jeff K. Trimmer, Biowissenschaftler bei Entelos. Die Firma aus Menlo Park (Kalifornien) hat ein Modell einer menschlichen Fettzelle entwickelt sowie Modelle des gesamten menschlichen Organismus, welche die Reaktionen von fettleibigen Patienten und Diabetikern auf Diäten und Medikamenten-Behandlung simulieren. Im Auftrag von Pharmafirmen wie Eli Lilly, Bristol-Myers Squibb und Johnson & Johnson ordnet Entelos deren Kandidaten für Wirkstoffe nach Erfolgsaussichten. Aber wenn Entelos-Wissenschaftler die Wirkung einer solchen Substanz auf die virtuellen Zellen untersuchen, stoßen sie auf Überraschungen: "Auch eine dramatische Veränderung im Zustand der Zelle hat oft wenig Auswirkungen auf das Krankheitsbild", sagt Trimmer.
Verschiedene modellbauende Biologen hegen einen Verdacht: Nicht die Aktivierung eines Gens oder die Blockierung eines Proteins entscheidet, wie eine Zelle auf einen Wirkstoff oder eine Krankheit reagiert. Es kommt vielmehr darauf an, wie die Gene und Proteine insgesamt miteinander wechselwirken.
Zeichnen wir für jedes Gen oder Protein einen Punkt und immer dann einen Strich zwischen zwei Punkten, wenn die zugehörigen Gene oder Proteine miteinander reagieren, dann ist das Geschehen in der Zelle wie ein sehr abstrakter Film, in dem fortwährend Striche auftauchen und verschwinden. Nur wissen die Modellbauer bei den meisten biologischen Systemen nicht, wann sie wo ihre Striche ziehen sollen.
John R. Koza von der Universität Stanford führte vor kurzem ein Experiment durch, das dieser Not abhelfen könnte. Koza ist Pionier im genetischen Programmieren (Spektrum der Wissenschaft 9/1992, S. 44): Er weist den Computer an, zufällig Programme zu erzeugen und sie immer wieder geringfügig zu verändern. Unter den veränderten Programmen überleben diejenigen, welche von ihnen die vorgegebene Aufgabe am besten erfüllen; alle anderen werden gelöscht. Kozas Programm ist in einem doppelten Sinne genetisch: Es soll nach einem genetischen Algorithmus ein kleines, aber kompliziertes Teil des E-Cell-Modells von Grund auf neu erstellen; dieses wiederum soll das Verhalten von Genen beschreiben.
Eine der Aufgaben war, aus bekannten Enzymen eine chemische Maschine zusammenzustellen, die Fettsäuren und Glyzerin zu Diacylglyzerin umwandelt. Jede Variante der Programme, die für diese Aufgabe "gezüchtet" wurden, wurde der Einfachheit halber auf einen äquivalenten elektronischen Schaltkreis abgebildet und dessen Verhalten mit einem kommerziellen Schaltkreis-Simulator durchgerechnet.
Nach einem Tag spuckte Kozas Supercomputer Beowulf, eine Spezialanfertigung aus tausend Prozessoren, ein Programm aus, das dem echten Reaktions-Netz glich. Vier Enzyme, fünf Zwischenprodukte, sämtliche Rückkopplungsschleifen und sogar die Reaktionsgeschwindigkeiten jedes Enzyms waren korrekt wiedergegeben. Es gab nur diese eine "richtige" Antwort; keine andere Anordnung funktionierte annähernd so gut.
Nach Kozas Überzeugung sind mit genetischem Programmieren auch größere Probleme zu bewältigen. Vielleicht können die evolvierenden Programme eines Tages die verschlungenen Pfade nachvollziehen, auf denen Zellen ihre Nahrung in Energie, Wachstum und Abfall verwandeln. Die Methode wird aber nur funktionieren, wenn Messwerte über den Stoffumsatz echter Zellen im Verlauf der Zeit vorliegen. Solche Daten sind immer noch rar.
Palsson und seine Kollegen nutzen die Erkenntnis, dass viele biochemische Probleme eine optimale Lösung haben, für ihre Modelle von Escherichia coli, von dem Grippe-Erreger Haemophilus influenzae und von Helicobacter pylori, dem Keim, der in Magengeschwüren gefunden wird. Mit Daten, die sie in der Literatur zusammensuchen, bilden sie die biochemischen Reaktionsnetze möglichst genau ab. Auf Basis dieses Wissens berechnen die Forscher zunächst eine Lösung ohne Rücksicht auf physikalische Gesetze. "Dann unterwerfen wir sie Nebenbedingungen", erklärt Palsson. Zum Beispiel muss die Masse erhalten bleiben. Elektrische Ladungen müssen sich kompensieren, und die Thermodynamik macht viele Reaktionen irreversibel. Die Forscher nähern sich der physikalisch korrekten Lösung in vielen kleinen Schritten, indem sie die physikalischen Gesetze allmählich in Kraft setzen.
Markus W. Covert aus Palssons Labor sagt, das Ziel sei nicht perfekte Vorhersage, sondern verlässliche Annäherung: "Ingenieure können ein Flugzeug im Computer konstruieren und testen. Dabei kommen sie praktisch ohne Prototyp aus, obwohl sie die Luftströmungen nicht genau berechnen können." Eine von Palssons Team erstellte Simulation sagte richtig voraus, dass E. coli auf Wachstum optimiert ist und nicht auf Energieproduktion.
Dieses Prinzip, das immer mehr Anhänger gewinnt, wird mit top-down bezeichnet: nicht aus Einzelinformationen das Gesamtsystem rekonstruieren (das wäre bottom-up), sondern aus der globalen Betrachtung Details erschließen. Gilman ist Vorsitzender der Alliance for Cellular Signaling. Dieser Verbund mehrerer Universitäten hat Forschungsmittel aus dem Bundeshaushalt der USA zugesagt bekommen, um Herzmuskel-Zellen und B-Zellen (entscheidende Zellen des Immunsystems) zu modellieren. Gilman schätzt die Laufzeit des Projekts auf zehn Jahre, bei Kosten von zehn Millionen Dollar pro Jahr. "Aber wenn wir diese Art von Modellen haben", sagt Gilman, "wird das die unglaublichste Medikamenten-Entdeckungs-Maschine aller Zeiten sein. Man könnte Krankheiten nachbilden und dann ausloten, was durch chemische Veränderung von Medikamenten zu erreichen wäre. Das wird wahrscheinlich länger dauern als zehn Jahre. Ich zweifle aber nicht daran, dass es quantitative Modelle der Zellfunktion geben wird, später für ganze Organe und schließlich für ganze Tiere."
"Ich würde ein solches Ziel mit einer gehörigen Portion Bescheidenheit angehen", warnt Skeptiker Bailey. "Die Vergangenheit hat gezeigt, dass Simulationen helfen können, spezielle Fragen zu untersuchen. Aber es wird kein übergreifendes Modell geben, das alle Fragen beantwortet. Am Ende werden die Modelle so kompliziert sein wie die Zelle selbst – und genau so schwer zu verstehen."
Es sei denn, der nächste Kepler wäre ein Informatiker.
Literaturhinweise
Modelling Cellular Behaviour. Von Drew Endy und Roger Brent in: Nature, Bd. 409, S. 391, 18. Januar 2001.
Whole-Cell Simulation: A Grand Challenge of the 21st Century. Von Masaru Tomita in: Trends in Biotechnology, Bd. 19, Heft 6, S. 205, Juni 2001.
STECKBRIEF
- Biologen haben die Erbsubstanz vieler einfacher Mikroorganismen sequenziert. Aber das sagt ihnen noch nicht, wie diese Zellen auf Medikamente oder externe Reize reagieren: Zu viele Variablen sind noch unbestimmt.
- Einige Computer-Modelle ganzer Zellen sind darauf angelegt, alle wichtigen chemischen Reaktionen innerhalb der Zelle mathematisch zu beschreiben. Andere Ansätze versuchen stattdessen, aus grundlegenden chemischen, physikalischen und biologischen Prinzipien möglichst viel über das Verhalten der Zelle herzuleiten.
- Fernziel sind Computersimulationen mit "virtuellen Zellen", die schneller und billiger Aussagen über die Wirksamkeit neuer Medikamente liefern.
Die Simulation ganzer Zellen – aktuelle Projekte
Die Genetic Circuit Research Group unter Leitung von Bernhard Ø. Palsson von der Universität von Kalifornien in San Diego erstellt auf der Grundlage genetischer Information Modelle von Escherichia coli, Haemophilus influenzae, Helicobacter pylori und anderen Krankheitserregern.
E-Cell ist eine mathematische Mikrobe aus Genen von Mycoplasma genitalium, gebaut im Labor für Bioinformatik an der Keio-Universität in Japan.
Virtual Cell ist ein allgemeines Programmpaket zur Zell-Simulation, erstellt von der National Resource for Cell Analysis and Modeling am Health Center der Universität von Connecticut.
MCell ist eine Supercomputer-Simulation der Synapse zwischen einer Nervenzelle und einer Muskelzelle, entwickelt am Salk Institute und dem Pittsburgh Supercomputing Center.
In Silico Cell, entworfen von Physiome Sciences in Princeton (New Jersey), ist in CellML geschrieben. Das Unternehmen will diese Programmiersprache als Standard etablieren, sodass Wissenschaftler ihre Zellmodelle gemeinsam benutzen und kombinieren können.
Microbial Cell Project,ein Zehn-Jahres-Programm, das vom US-Energieministerium mit 15 Millionen Dollar pro Jahr gefördert wird, soll einzellige Organismen auf molekularer Ebene analysieren und Modelle ihrer Biochemie entwerfen.
Aus: Spektrum der Wissenschaft 11 / 2001, Seite 54
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben