Start
Web-Artikel
Lexikon
Vorträge
Ausbildung
Essays
Rhetorik
Links
Autor
Kontakt
|
Die wissenschaftliche Methode
April 2004
pdf
Grundsätzliches
Bei der wissenschaftlichen Methode handelt es sich um ein objektives Verfahren der Wissenschaften wie der Physik, um
unverfälschte, unvoreingenommene Ergebnisse zu erzielen, aus denen sich wie ein Puzzle das naturwissenschaftliche
Weltbild zusammensetzt. Neben den Naturwissenschaften, wie der ältesten, der Astronomie, bedienen sich auch
andere Wissenschaften diesem erfolgreichen Prinzip. Die Medizin, die Psychologie, die Soziologie, die
Betriebswirtschaftslehre, um nur wenige zu nennen - alle Disziplinen suchen Gesetzmäßigkeiten und Theorien, die sie
anhand von Messdaten, wie Statistiken zu bestätigen suchen. Ich werde mich in diesem Essay auf meinen Erfahrungsbereich,
den Naturwissenschaften, beschränken. In den Geisteswissenschaften müssen nachfolgende Begrifflichkeiten wie "Experiment"
adaptiert werden, da sich diese Wissenschaften anderen Methoden bedienen. Dort finden vielmehr Verfahren wie die
Dialektik Anwendung: aus dem Gegensatz von These und Antithese folgt durch die Synthese
ein Erkenntniszugewinn.
Theorie und Experiment
Ich möchte - wie vorweggenommen - die naturwissenschaftliche Methodik am Beispiel der Physik illustrieren. Die Physik
bedient sich als Sprache der Mathematik und als Methode der Logik, um theoretische Konzepte zu erarbeiten. Experimente
und Beobachtungen der unbelebten Natur müssen die Theorie stützen, sonst fällt sie. Dieses fundamentale Konzept verfolgen
auch die anderen Naturwissenschaften, wie Chemie und Biologie.
Demzufolge bilden die Grundlage der wissenschaftlichen Methodik die beiden Säulen Theorie und Experiment . Die
Symbiose dieser beiden Teilbereiche naturwissenschaftlicher Arbeit gab es nicht immer. Aristoteles (384 - 322 v.Chr.)
hatte die Überzeugung, dass man Gesetzmäßigkeiten allein durch Denken, also nur durch die Theorie, eruieren könnte.
Nach dieser philosophisch geprägten Grundhaltung entstammt Erkenntnis ausschließlich der intelligiblen Welt und Bedarf
keiner Verifikation durch die reale Welt. Erst mit Galileo Galilei (1564 - 1642) kam im 16. Jahrhundert
die moderne, wissenschaftliche Methode auf, die Gesetze durch Beobachtungen zu bestätigen. Diese Epoche bezeichnet
man mit der Aufklärung, in der sich der Mensch zunehmend darauf besann sich seines Verstandes zu bedienen. Als
Ausfluss dieses "geistigen Entwicklungsschrittes" sind die heute wesentlichen Eigenschaften des "rationalen Forschens"
anzusehen:
- eine Versachlichung des Problems (auch durch die Verwendung einer sachlichen Fachsprache),
- eine theoretische Einbettung (meist durch die Verwendung der mathematischen Sprache),
- die Reproduzierbarkeit der Ergebnisse unter gleichen Bedingungen.
Dieser Entwicklungsschritt war notwendig, weil der so genannte "gesunde Menschenverstand" oft Fehlschlüsse nach sich zieht.
Das Problem des "gesunden Menschenverstandes" ist, dass er empirisch geprägt ist, demnach unserer täglich erfahrbaren
Welt entstammt. Aus diesem Grund haben die großen physikalischen Theorien des 20. Jahrhunderts, die Relativitätstheorie und
die Quantentheorie, einen schöpferischen Geist erfordert, der bereit war vom Wege des "gesunden Menschenverstandes" abzuweichen.
Auch heute noch bereiten diese Konstrukte beträchtliche Verständnisprobleme und treiben unser Vorstellungsvermögen an die Grenzen
(z.B. Krümmung einer vierdimensionalen Mannigfaltigkeit, Tunneleffekt), wenngleich sie vielfach verifiziert und in der
wissenschaftlichen Gemeinschaft anerkannt sind und hochgelobt werden.
Determinismus
Ein Zeitgenosse Galileis, Descartes (1596 - 1650), suchte - beflügelt durch Erfolge in Mechanik und Optik - im
Descartesschen Determinismus ein geschlossenes, mechanistisches Weltsystem zu etablieren. Spätestens seit Kenntnis der
Quantentheorie (Heisenbergsche Unschärferelation) in den Zwanziger Jahren des 20. Jahrhunderts und der so genannten
"Chaostheorie", die besser mit nichtlinearer Dynamik bezeichnet wird, in den Achtziger Jahren des 20. Jahrhunderts,
muss dieser Determinismus zumindest in seiner globalen Bedeutung als unhaltbar zurückgewiesen werden. Die Unschärferelation besagt,
dass man zwei physikalische Größen,
Ort und Impuls (Masse x Geschwindigkeit) nicht gleichzeitig beliebig genau messen kann. In der klassischen Mechanik bewegen sich Körper
auf wohldefinierten Bahnen im Phasenraum (Koordinatensystem mit Raum- und Impulsachsen des Systems). Mit der quantenmechanischen
Unschärfe verlor diese Bahn ihren determinierten Charakter: die Bahn ist im Phasenraum verschmiert und selbst der Phasenraum
ist kein Kontinuum, sondern besteht aus Phasenraumzellen, deren Größe das Plancksche Wirkungsquant h diktiert.
Neben diesem quantentheoretischen Aspekt gibt es einen eher mathematischen Aspekt, der mit der Lösungsstruktur allgemeiner
Differentialgleichungen zusammenhängt. Differentialgleichungen (bzw. ganz allgemein gesprochen Integrodifferentialgleichungen)
bestimmen im Prinzip die gesamte Natur, weil sich jeder beobachtete Prozess in einem System durch diese Gleichungen (oder als System
gekoppelter Differentialgleichungen) formulieren lässt.
So handelt es sich sowohl bei der Schwingung eines Uhrenpendels im Gravitationsfeld um eine Differentialgleichung, ebenso wie beim
Fließen eines Tropfens im Fluss oder den Einsteinschen Feldgleichungen der Allgemeinen Relativitätstheorie, als auch der
Energieeigenwertgleichung für den Hamilton-Operator der Quantenmechanik. Mit diesen Gleichungen ist das Problem erst formuliert,
nicht gelöst. Die Mathematik stellt nun Verfahren bereit, um die Differentialgleichungen zu lösen. Diese Lösungen machen eine Aussage
über das Verhalten des Systems und ermöglichen Prognosen über das Verhalten in der Zukunft. Gerade das macht die Naturwissenschaften
so wertvoll und interessant für industrielle und alltägliche Anwendungen. Doch die Natur hat uns gewissermaßen ein Schnippchen geschlagen:
die Problematik subsummiert sich im Begriff der Nichtlinearität. Sie ist der zweite nicht-deterministische Aspekt, der tief
in der mathematischen Formulierung vieler physikalischer Gesetze verwurzelt ist: nichtlineare Terme bewirken, dass die Vorhersagbarkeit
nicht gewährleistet werden kann. Man sagt, das physikalische System verhält sich "chaotisch"! Prominente Beispiele sind in der
Mechanik das Doppelpendel, in der Meteorologie das Wetter, in der Biologie die Populationsdynamik oder an der Börse die Aktienkurse.
Zum Glück sind nicht alle Systeme chaotisch und lassen sich in gewisser Approximation im "linearen Limes" beschreiben. So wird die
Pendelgleichung für kleine Winkelauslenkungen des Pendels linear und determiniert. Doch gibt es auch von der Seite der Chaosforschung
Entwarnung: Erstaunlicherweise offenbart die Untersuchung chaotischer Systeme, dass Bereiche von Ordnung und Chaos ineinander
übergehen sowie Strukturen (Selbstähnlichkeiten, Fraktale, Attraktoren) im Chaos existieren. Es handelt sich um einen sehr jungen
Forschungsbereich der modernen Physik, der erst wenige Jahrzehnte alt ist, doch die auftauchenden "Gesetzmäßigkeiten im Chaos"
geben Anlass zur Hoffnung. Trotzdem müssen wir uns mit der prinzipiellen Nicht-Vorhersagbarkeit nicht-linearer Systeme anfreunden:
der Descartes Determinismus ist daher nicht allgemeingültig, sondern nur in speziellen Systemen realisiert.
Diese Grenzbereiche wissenschaftlichen Forschens trüben nicht die grundsätzliche Euphoriestimmung: Galileis Initiative zur
wissenschaftlichen Methodik feierte einen ungeahnten Triumphzug. Zusammen mit dem Beginn einer neuzeitlichen Philosophie durch
Descartes kann sie als einer der Wegbereiter des Zeitalters der Aufklärung im Europa des 18. Jahrhunderts angesehen
werden, das von Protestantismus und Rationalismus geprägt war und politisch in der Französischen Revolution 1789 gipfelte.
Ausfluss dieser historischen Entwicklung ist unser heutiges wissenschaftliches Weltbild, das vor allem im 20. Jahrhundert durchschlagende
Erfolge errang.
Neue Laboratorien
Neben dem mittlerweile "klassischen Konzept" der Verschmelzung aus Theorie und Experiment gibt es nicht stark abweichende, doch
ergänzende Möglichkeiten des Erforschens in der Physik.
Die ältere Methode nennt man Gedankenexperiment, das vor allem durch Albert Einstein (1879 - 1955) Popularität und
exzessive Anwendung erlangte. Diese Methode ist dadurch ausgezeichnet, dass keine materiellen Instrumente (Messgeräte) vonnöten
sind, sondern nur mit der Kraft des Geistes ein Experiment durchgeführt wird. Wesentlich ist dabei, dass dies keine Phantastereien
sind, sondern die physikalischen Gesetze Gültigkeit behalten und korrekt berücksichtigt werden müssen. Vorteil dieses Verfahrens
ist, dass es unmittelbar und kostengünstig ist und schnell Widersprüche einer Theorie oder These aufdecken kann. Doch leider kann
man nicht immer ein adäquates Gedankenexperiment für eine Problemstellung formulieren.
Ein anderer Zugang trug ebenfalls signifikant zur Verschmelzung von Theorie und Experiment bei und ergänzt seither die klassische
Methode. Beschleunigt durch Entwicklungen der Computertechnologie seit Konrad Zuse (1910 - 1995) mit der ersten
programmgesteuerten Rechenanlage Zuse Z 3 im Jahre 1951, hat sich ein intermediärer Bereich zwischen Theorie und
Experiment aufgetan: die Computer-Simulation. Hierbei werden die Gesetzmäßigkeiten aus der Theorie, mathematische
Gleichungen, mithilfe numerischer Methoden auf dem Computer gelöst und visualisiert. Der Computer dient also
gewissermaßen als virtuelles Labor. Die Arbeit des theoretischen Physikers ist heutzutage nur noch in wenigen Fällen
analytisch oder zumindest nur zu Beginn des Forschungsproblems. Am Ende steht die Portation komplexer Gleichungen auf den
Computer. Die Simulationen stellen im Prinzip theoretische Daten dar, die mit den experimentellen Daten der experimentell
arbeitenden Physiker verglichen werden. Ein wesentlicher Aspekt ist dabei die Visualisierung theoretischer Daten, d.h. deren
Darstellung durch bildgebende Verfahren. Es stellt sich heraus, dass ein angemessenes Visualisierungsverfahren der Schlüssel für
das Verständnis und die Interpretation von Simulationen ist!
Der Computer stellt sich als unentbehrliches Instrument, sogar als Messinstrument, der modernen Physik heraus: er ermöglicht die
Darstellung von Phänomenen, die dem Menschen nur schwer oder gar nicht zugänglich sind. So dienen aufwendige und langwierige
Simulationen auf Supercomputern (Computern mit einem Vielfachen an Rechenschnelligkeit und Arbeitsspeicher im Vergleich zu
herkömmlichen PCs) der Visualisierung der Entwicklungssequenz von Bereichen des Universums in der Kosmologie oder
der Darstellung vom Materieeinfall auf ein Schwarzes Loch in der relativistischen Astrophysik.
Das Verständnis dieser Prozesse ist auch richtungsweisend für den Detektorbau: der Forscher bekommt ein Gefühl dafür, was
beobachtet werden kann und wie es detektiert werden kann. Dann schließt sich der Kreis von Theorie und Experiment erneut,
denn aus der finalen Verifikation oder Falsifikation oder gegebenenfalls Modifikation entsteht auf diese Weise
ein komplexes, naturwissenschaftliches Gebäude: das naturwissenschaftliche Weltbild.
Die Methodische Katastrophe
Es gibt jedoch eine Komplikation, eine prinzipielle Problematik in der wissenschaftlichen Methode: man kann das Spiel
einer experimentellen Messanordnung zur Untersuchung einer Theorie nicht beliebig weit treiben! Als Beispiel möge wieder die
Kosmologie, ein Teilbereich der Astrophysik, dienen. Die Kosmologie beschäftigt sich mit Gesetzmäßigkeiten, die die Entstehung
und Entwicklung des Universums beschreiben. Ein populäres, theoretisches Modell, das Urknall-Modell, ist streng genommen
nicht direkt beweisbar! Ansonsten müsste man den Urknall im Labor unter kontrollierten Bedingungen ablaufen lassen, was
unmöglich scheint. Viele solcher Probleme sind denkbar und stellen den Experimentator vor ein unlösbares Problem.
Zum Glück kann man auch hier einen Ausweg finden, der jedoch letztendlich das fundamentale Prinzip des die Theorie
stützenden Experiments beugt. Der Ausweg aus diesem Dilemma ist, dass jedes theoretische Konzept sekundäre Indizien
birgt. Es fallen in der Regel weitere beobachtbare Phänomene ab. Im vorliegenden Beispiel aus der Kosmologie kann das die
kosmische Hintergrundstrahlung sein, die bis auf schwache Temperaturfluktuationen sehr isotrop ist (COBE- und WMAP-Daten). Die
Isotropie ist ein starkes Indiz dafür, dass an einem Punkt in der Vergangenheit eine Explosion stattfand, der Big Bang.
Zum andern wird in Kürze ein weiteres Beobachtungsfenster für die Astronomen geöffnet: Gravitationswellenastronomie.
Dabei handelt es sich um Krümmungen der Raumzeit, die sich wellenförmig mit Lichtgeschwindigkeit ausbreiten. Katastrophale
Ereignisse wie die Verschmelzung zweier Neutronensterne zu einem Schwarzen Loch oder der Urknall selbst sind aussichtsreiche
Kandidaten für intensive Gravitationswellen. Bei Hannover wurde ein solcher Detektor aus Laserinterferometern namens
Geo 600 aufgebaut, dem es leider bisher nicht gelang Gravitationswellen zu messen. Kosmologische Modelle liefern eine
genaue Vorstellung über Frequenz und Intensität von Gravitationswellen des Urknalls - hier haben die Theoretiker einen
Vorsprung - und können so in Zukunft direkt verifiziert oder falsifiziert werden.
Zusammenfassung
Die Naturwissenschaften der letzten 500 Jahre haben demnach enorm von der wissenschaftlichen Methode aus Theorie und Experiment
profitiert. Gerade das 20. Jahrhundert wird als eines der fruchtbarsten Erwähnung in den Geschichtsbüchern finden, es sei denn,
der "Wissen-SuperGAU" setzt sich 21. Jahrhundert fort (mögliches Betätigungsfeld: Humangenetik). Theorie und
Experiment wurden im Computerzeitalter durch die Simulation ergänzt. Beides, natürliches Phänomen und Messgerät, können im Computer
künstlich nachgebildet werden. Ein Vorteil, der sicherlich auch eine Gefahr birgt, wenn derjenige, der die Software programmiert
nicht weiß, was er tut. Aber hilft auch hier der Zusatz wissenschaftlicher Methodik, die Reproduzierbarkeit, mögliche Fehler oder
Unzulänglichkeiten schnell zu finden.
Es gibt Hemmnisse bzw. Limits der Prognostizierbarkeit, die ihre Ursache in der Mikrowelt in der Quantentheorie und noch allgemeiner
in der nichtlinearen Dynamik haben. Doch dieser Abschied vom Determinismus ist zu verschmerzen, weil er einerseits nicht das komplette,
naturwissenschaftliche Gebäude zum Einsturz bringt und andererseits auch Chancen eröffnet: "Ordnung im Chaos".
Das Prinzip wissenschaftlicher Methodik kann zwar bis an seine Grenzen getrieben werden, nämlich dann, wenn Experimente zu einer
Theorie nicht mehr umsetzbar sind. Doch kreative Forscher haben sich aber auch hier alternative bzw. sekundäre Zugänge eröffnet,
die Theorien bestätigen können. Die Aussichten, das naturwissenschaftliche Weltbild mosaikartig immer mehr zusammenzusetzen,
sind sehr vielversprechend, vielleicht sogar mehr denn je. Ob es prinzipiell komplettierbar ist, ist eher eine Frage, die sich die
Philosophen als die Naturwissenschaftler stellen müssen. Vielleicht hat diese Frage bereits Platon vor fast 2500 Jahren
beantwortet...
pdf
nach oben
© Andreas Müller, August 2007
|
|