Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Ich denke auch: "Niemand wird doch ernsthaft festlegen wollen, wie der wissenschaftliche Fortschritt erfolgen soll", wie Karsten Löhr schreibt.
Dennoch oder gerade deswegen sollten wir überlegen, ob wir nicht ernsthaft unterscheiden wollen und müssen zwischen dem Zustandekommen von Lösungsvorschlägen und der Methode der Elimination von unzutreffenden Vorschlägen.
Für Lösungsvorschläge gilt zweifellos, dass Kreativität gefragt ist und kein Gedanke an Falsifizierbarkeit die kreative Energie lähmen sollte.
Sobald der Lösungsvorschlag aber im Raum steht und mit anderen Vorschlägen zu konkurrieren hat, sind die Eliminationsversuche mittels Falsifikation unausweichlich.
Danke für den schönen Artikel. Ich finde auch, dass man als Betroffener sehr viel selbst gegen die Angst und Panik tun kann. Ich habe gerade Ihre Buchempfehlung "Angstfrei glücklich leben" gelesen und muss sagen, es hat mir sehr geholfen. Das Buch ist toll.
Etwas verwirrend an dem Essay zum Wesen der Wissenschaft ist, dass der Autor nicht trennt zwischen dem wissenschaftlichen Kenntnisstand und der wissenschaftlichen Vorgehensweise. Es scheint zwar durchaus sinnvoll, den derzeitigen Stand der Wissenschaft an den falsifizierbaren Behauptungen festzumachen. (Demnach tragen auch die falsifizierten Behauptungen zur Wissenschaft bei, ganz wie Konfuzius lehrt: Wenn du weißt, was du weißt, und du weißt, was du nicht weißt: das ist Wissen!)
Aber niemand wird doch ernsthaft festlegen wollen, wie der wissenschaftliche Fortschritt erfolgen soll. Auf welche Weise eine wissenschaftliche Hypothese erlangt wird, muss und wird frei bleiben, ob durch Übertragung (Archimedes in der Badewanne), im Traum (Benzolring von Kekulé) oder durch eine Verallgemeinerung (Apfelfall bei Newton). Wenn man sich darauf beschränken wollte, jeglichen wissenschaftlichen Gedanken an die Suche nach einer falsifizierbaren Behauptung zu knüpfen, würde man wohl auf andere Erkenntnisfähigkeiten – z.B. Vorstellungsvermögen, Erkundungswillen oder Zweifel – verzichten müssen.
Dass man diese Metaphysik des Erkenntnisvermögens gleich als "Pseudowissenschaft" abtun muss, sei dahingestellt. Ich halte es da lieber mit Kant, der in seiner Kritik der reinen Vernunft zumindest eine gegenseitige Abhängigkeit festgestellt hat: Ohne Sinnlichkeit würde uns kein Gegenstand gegeben, und ohne Verstand keiner gedacht werden. [Metaphysische] Gedanken ohne [physischen] Inhalt sind leer, [physische] Anschauungen ohne [metaphysische] Begriffe sind blind.
Zit.#1: "Jeder Teilnehmer erhielt Marken im Wert von 5 Dollar - umgerechnet in lokale Kaufkraft."
Zit.#2: "Ist ein wohlhabender Amerikaner, der auf die 5 Dollar Einsatz wahrscheinlich gut verzichten kann,... eher zum Zocken bereit als ein armer iranischer Landbewohner?"
Wenn die Summe nicht wie in Zitat 1 angegeben sozusagen "ausgeglichen" wurde, ist das Experiment ziemlich sinnlos.
Falls ja, dann ist jedenfalls Zitat 2 sinnlos.
Oder einfach nur ein bissl unlogisch ...
MfG Franz Pichler
Stellungnahme der Redaktion
Sehr geehrter Herr Pichler,
vielen Dank für Ihren Leserbrief!
Die Autoren der Studie haben den Spieleinsatz nach dem "Bic Mac Index" des Economist in lokale Kaufkraft umgerechnet. Für das Beispiel Argentinien (Iran taucht leider in der online verfügbaren Liste nicht auf) bedeutet dies, dass aus den 5 Dollar 16,25 Arg. Pesos werden.
Nicht berücksichtigt bleiben dabei Einkommensunterschiede: In der Region um Columbus (Ohio), in der das Experiment durchgeführt wurde, liegt das durchschnittliche Pro-Kopf-Einkommen laut Wikipedia bei ca. 1700 Dollar, also dem 340-fachen des Einsatzes, in Argentinien laut Wikipedia bei 625 Arg. Pesos, also in etwa dem 38-fachen. Auf die USA rückgerechnet entspräche dies einem Einsatz von etwas über 44 Dollar – mit denen, so mein Eindruck, Spieler wahrscheinlich wesentlich behutsamer umgegangen wären.
04.03.2009, Prof. Dr. Dr. h.c. Randolf Menzel, Berlin
Sehr geehrte Damen und Herren,
da ist also auch Spektrum auf die unwissenschaftliche Übertreibung hereingefallen, dass Bienen bis drei zählen könnten. Zuerst muss man zur Ehrenrettung der Autoren (oder vielleicht besser der Gutachter von PloSone) sagen, dass so eine Aussage in dem zitierten Artikel gar nicht gemacht wird. Von "zählen" ist dort an keiner Stelle die Rede, und "number-based visual generalization" (so der Titel des Artikels) bedeutet natürlich nicht "zählen". Weiter muss man beachten, dass die Experimente auch gar nicht eine solche Aussage erlauben würden. Was die Autoren zeigten, war für Bienen schon viele Male vorher nachgewiesen worden, dass sie nämlich über die Fähigkeit verfügen, visuelle Muster zu generalisieren und dabei die Musterkomponenten berücksichtigen. Die Aussage Ihres Berichtes geht also völlig an dem vorbei, was die zitierte Publikation betrifft. Allerdings gibt es andere und recht spannende Untersuchungen zu der Frage, ob Bienen Kleinstmengen unterscheiden können, also 1 von 2, oder 2 von 3 nacheinander wahrgenommenen Objekten. Solche nacheinander erfahrenen Objekte können z.B. Landmarken sein. Hier gibt es Hinweise für solche sequentiellen Unterscheidungen, aber auch das hat mit "zählen" nichts zu tun. Von einer Zeitschrift wie Spektrum erwarte ich, dass besser recherchiert wird, die Arbeiten gelesen werden, die besprochen werden, und dass die breitere Thematik gründlicher studiert wird. Gerade die Frage nach den verschiedenen Formen der Mengenbewertung (numerosity) und der Generalisierung und der Abstraktion von Mengen (number estimation) ist ein eine wichtige Forschungsthematik der Psychologie und der Verhaltensforschung.
Ihr Randolf Menzel
Stellungnahme der Redaktion
Das Wort "zählen" kommt nur im Titel des Beitrags vor und ist dort eine journalistische Überspitzung sowie ein Wortspiel mit der gängigen Phrase "nicht bis drei zählen können" (weshalb von drei die Rede ist, obwohl die Bienen laut Untersuchung sogar bis vier "zählen" können). Dass der Ausdruck nicht ernst gemeint ist, ergibt sich auch aus der späteren ironischen Formulierung "zum Zählen fehlen ihnen [den Bienen] nun einmal die Finger".
Im Übrigen bestätigt die Arbeit nicht nur die längst bekannte Tatsache, dass Bienen Muster erkennen können. Vielmehr geht es darum, dass die Insekten auch imstande sind, Mengen intuitiv zu erfassen und zu generalisieren.
Vielen Dank für den schönen und zugleich sehr abwägenden Artikel. Was die Definition von "Hochbegabung" betrifft, so ist das - wie der Name sagt - eine Definitionsfrage. Die 1% der Bevölkerung trifft für einen IQ ab 135 zu, und es ist gleichgültig, ob man sie hochbegabt oder höchstbegabt nennt. Mein Gewährsmann in diesen Dingen ist der Marburger Begabungsforscher Prof. Rost.
Ich hoffe sehr, dass Herr Junker bei seinem Vortrag vor der hessischen Landesregierung darauf hingewiesen hat, dass die hessische Praxis, das Thema Evolution erst in der 13.II, also nach dem schriftlichen Abi, auf den Lehrplan zu setzen, völlig unverantwortlich ist. Aus der Sekundarstufe I wurde das Thema Evolution in den letzten Jahren konsequent raus geworfen!! Ich habe mich dabei immer gefragt, welchen Einfluss christliche Fundamentalisten in der hessischen CDU wohl haben.
Sie schreiben: "Zu einer umfassenden Bildung gehört es, beide Seiten zu kennen, weshalb auch die Schöpfungsgeschichte ihren Platz in der Schule haben." Warum gehört die Schöpfungsgeschichte in die Schule? Was hat sie dort verloren? Wer eine religiöse Bildung will, sollte dies nicht von der Schule erwarten dürfen - dass es so ist und der Religionsunterricht einen höheren Stellenwert besitzt als naturwissenschaftlicher Unterricht, ist erschreckend. Ein Gott kann nicht existieren, das ist ein Gebot der (praktischen) Vernunft. Natürlich muss die Religionsfreiheit gewahrt sein. Manche Menschen glauben, und es ihr gutes Recht, ihre Persönlichkeit dahin gehend zu entfalten. Man muss den Atheismus auch nicht gleich zur "Staatsreligion" erklären. Trotzdem ist Religion (jeder Art) ein Irrglaube, der nicht in die Schule gehört. Religion ist eine private Angelegenheit und keine Gegenhypothese zur Wissenschaft. Eine klare Position muss man schon beziehen, und in diesem Punkt ist auch Herr Junker zu zögerlich und zu kompromissbereit.
03.03.2009, Prof. K. Löhr, Technologie- und Innovationsberatung, Ulm
Professor Delahayes Schilderungen liefern einen wirklich gelungenen Einblick in die mathematische Forschung, die offenbar nicht nur von strenger Logik, sondern auch von akademischen Problemen und skeptischer Umsicht getrieben wird.
Obwohl der Mathematik die physischen Anschauungsobjekte fehlen, erkennt man daran sehr gut die drei wissenschaftlichen Denkweisen, die bereits Sextus Empiricus treffend beschrieb: "Wenn sich jemand der Untersuchung irgendeiner Sache widmet, dann ist es natürlich, dass er am Ende das Gesuchte findet, oder dass er behauptet, das Gesuchte sei unauffindbar [...], oder aber, dass er seine Untersuchungen fortsetzt. Damit sieht man leicht, dass es offenbar drei Hauptrichtungen im Streben nach Wahrheit [Philosophie] gibt: die dogmatische, die akademische und die skeptische."
Und somit gilt wohl auch für die Mathematik das, was bereits Schopenhauer so forsch über das wissenschaftliche Arbeiten konstatierte: "Die Physik vermag nicht auf eigenen Füßen zu stehen, sondern bedarf einer Metaphysik, sich darauf zu stützen; so vornehm sie auch gegen diese thun mag!"
02.03.2009, Dr. phil. nat. Wolfram Gorisch, München
Popper hat sich in seinem Hauptwerk "Logik der Forschung" sehr differenziert mit dem Problem der Hypothesenwahrscheinlichkeit einschließlich den Bayes’schen Sätzen auseinandergesetzt (Karl Popper, Logik der Forschung, VIII. Kapitel, Wahrscheinlichkeit, X. Kapitel, Bewährung, J.C.B. Mohr Verlag, Tübingen). Insbesondere argumentiert er, dass "jede beliebige universelle Theorie, die mathematisch formuliert werden kann, die Wahrscheinlichkeit 0 hat" (a.a.O. Anhänge VII und XVI. Siehe auch Karl Popper, Die beiden Grundprobleme der Erkenntnistheorie, VI. Kapitel, Die Wahrscheinlichkeitspositionen, derselbe Verlag).
Dem möchte ich ein eigenes Argument anfügen: Die Naturerkenntnis schreitet voran von den alten Mythen über viele Zwischenstufen hin zur jetzt modernen Kosmologie und weiter fort. Jede neuere Theorie erklärt mehr als ihr Vorgänger. Das bedeutet, dass die Vorgängertheorien an den jeweils neueren Messungen/Beobachtungen gescheitert sind. Wissenschaftsbayesianer behaupten nun, dass zu jedem Zeitpunkt die jeweils herrschende Theorie eine von Null verschiedene Wahrheitswahrscheinlichkeit besessen hat. Die nachfolgende Theorie hat jedoch den Vorgänger als unzutreffend entlarvt, ihr also die Wahrheitswahrscheinlichkeit 0 zugewiesen. Dadurch wird deutlich, dass diese Wahrheitswahrscheinlichkeit keine feste Eigenschaft einer Theorie ist, sondern jederzeit und unvorhersehbar null werden kann.
Popper hat die Messlatte sehr hoch gelegt. Mir scheint, dass Matthews diesem Anspruch nicht gerecht geworden ist. Alle Argumente, die in diesem Essay als neue Erkenntnis verkauft werden, sind altbekannt. Sie wurden allesamt von Popper auf hohem Niveau diskutiert.
Wir wissen, dass man mit niemandem diskutieren kann, der die Grundlagen nicht anerkennt. Es ist deshalb müßig, über Falsifikationismus oder Verifikationismus in der Wissenschaft zu diskutieren, wenn man sich nicht über das Ziel der Wissenschaft einig ist. Popper sieht das Ziel der Wissenschaft darin, wahre Erklärungen für das Geschehen unserer Wirklichkeit zu geben.
Bedauerlicherweise soll es Wissenschaftler geben, die ihre Karriere vorrangig durch rechthaberisches Indiziensammeln fördern wollen, weniger durch selbstkritische Wahrheitssuche. Der Leser mag selbst entscheiden, welcher dieser beiden entgegengesetzten Ziele Tegmarks Feststellung mehr dient: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten; wir steigern das Gewicht der Indizien".
Was sind die Konsequenzen von Hawson’s Wissenschaftsbegriff, der "auf dem viel subtileren Konzept der so genannten Glaubens- oder Überzeugungsgrade" beruht? Glaube und Überzeugungen sind grundsätzlich nicht Gegenstand des wissenschaftlichen Diskurses weil es sich um ein persönliches Grundrecht (Meinungsfreiheit) handelt. Demgegenüber ist gerade der freie rationale und kritische Diskurs ein Merkmal der Wissenschaft. Glaube- und Überzeugungsgrade sind beispielsweise bei terroristischen Anführern besonders ausgeprägt, die Selbstmordattentäter mit der Aussicht auf die siebzehn Jungfrauen im Paradies ködern. Darf nun die Existenz solcher Paradiese als "wissenschaftlich" begründet bezeichnet werden? Oder impliziert Hawson noch andere Kriterien, die er uns vorenthält? Moralische? Verwischt Hawson hier nicht die Unterscheidung zwischen rationaler Wissenschaft und metaphysischen, religiösen Überzeugungen? Quacksalber aller Couleur führen stets überwältigend viele Glaubens- und Überzeugungsargumente an. Das Argument, dass Quacksalber sich der Falsifikation aussetzen, trifft nicht zu. Derartige Theorien sind geradezu kennzeichnend mit allen Mitteln gegen Falsifikation immunisiert worden, z.B. durch Beschränkung auf Kasuistik, Vermeidung prüfbarer kausaler Erklärungen, durch Verwendung schwammiger Begriffe, durch das Einräumen von Ausnahmen, durch tautologische Formulierungen. Beispiele für Theorien, die zugleich überzeugend und falsch sind, finden sich in der Zahlenmystik und in Form von Verschwörungstheorien. Nach Hawson dürfen sich solche Theorien "wissenschaftlich" nennen, weil es ja nur auf den hohen Überzeugungsgrad ankommt.
Tegmark argumentiert irreführend. Er betrachtet Deduktionen einer Theorie als neue unabhängige Theorien. Die Relativitätstheorie ist vielfach falsifizierbar. Das bedeutet aber nicht, dass alle Deduktionen wie z.B. die Existenz und die besonderen Eigenschaften von Schwarzen Löchern beobachtbar bzw. nachprüfbar sein müssen. Die Existenz von Schwarzen Löchern ist inzwischen recht gut bestätigt. Was aber in deren Innerem abläuft, ist wohl kaum nachprüfbar, obwohl die ART darüber Aussagen macht. Die Falsifizierungsmöglichkeiten für die ART, die sich daraus ergeben, sind also leider kaum experimentell nutzbar. Dasselbe mag für Multiversen zutreffen. Soweit das Multiversum deduktiv aus einer anderen bewährten Theorie folgt, Multiversen aber nicht beobachtbar sind, kann aus dem Multiversum keine Falsifikation der zugrunde liegenden Theorie abgeleitet werden, aber eben auch nicht ihre Bewährung. Eine eigenständige Multiversumstheorie hat mangels Wechselwirkung mit unserem Universum keinen Erklärungsgehalt und gehört deshalb meiner Meinung nach zur Glaubenswelt ihrer Vertreter.
Anscheinend metaphysische Kosmologien sind keineswegs zu verwerfen. Ich stimme zu, dass eine positive Aussage dergestalt, dass eine bestimmte Theorie nicht falsifizierbar sei, unsicher ist. Krauss’ Angriff gegen das Falsifikationsprinzip trifft hier ins Leere. Viel wichtiger ist das Folgende: Popper hat gezeigt, dass der empirische Gehalt einer Theorie bzw. ihr Erklärungsvermögen mit dem Umfang der Falsifizierungsmöglichkeiten wächst. Das heißt, dass eine (kühne) Theorie mit großem Erklärungsgehalt viele Falsifizierungsmöglichkeiten bietet. Umgekehrt erklären Theorien unsere Welt nicht, die kaum falsifizierbar sind. Ich kann mir nicht vorstellen, was Aussagen über fremde Universen, die mit unserem Universum nicht in kausaler Wechselwirkung stehen, mit unserem Universum zu tun haben. Wo ist der prinzipielle Unterschied zu Aussagen über das Paradies?
Jeder kennt metaphysische Theorien: Religiöse Schöpfungsmythen, Intelligent Design, ewiges Leben, Reinkarnationsglaube, Glaube an Vorherbestimmtheit, Astrologie, Kaffesatzleserei bis zu Irisdiagnostik usw. Keine dieser metaphysischen Theorien ist so formuliert, dass sie sich einer Falsifikation beugen würde. Es ist ein großer wissenschaftstheoretischer Fortschritt, den Popper mit seinem Vorschlag des Abgrenzungskriteriums (d.h. Falsifizierbarkeit) erreicht hat. Dieses Abgrenzungskriterium ist sogar so mächtig, dass es für eine allgemeinere Erkenntnistheorie (Lernen aus Versuch und Irrtum) taugt. Dies soll nun dem bequemen Kriterium eines bestimmten Überzeugungslevels oder eines "Gewichts der Indizien" geopfert werden. In meinen Augen ist das ein irriger postmoderner Rückschritt zur verfehlten Induktionslehre.
Was soll ich unter dem Begriff des "rationalen Überzeugungssystems" verstehen? Dieser Begriff ist nicht ausreichend erläutert. Nehmen wir ein Überzeugungssystem an, das aus den beiden Theorien Quantentheorie und Relativitätstheorie besteht. Wie soll ich es dann verstehen, dass diese den Bayes’schen Wahrscheinlichkeitsgesetzen gehorchen? Ich könnte hineininterpretieren, dass Deduktionen aus Theorien, die Wahrscheinlichkeitsaussagen machen, gemäß den Bayes’schen Gesetzen zu formulieren sind. Dadurch werden mögliche Fehler bei der Deduktion vermieden. Hierdurch kann die Übereinstimmung mit der Wirklichkeit besser geprüft werden. Ich sehe aber nicht ein, wie aus den Bayes’schen Sätzen Wahrheitsaussagen über bestimmte Theorien gewonnen werden können. Wahrheit kann doch keine Wahrscheinlichkeit haben. Was soll uns dazu zwingen, den Satz vom ausgeschlossenen Dritten (Drittes zwischen wahr und falsch) aufzugeben? Ereignisse oder Ereignisketten können eine gewisse Eintrittswahrscheinlichkeit haben. Eine Theorie ist jedoch kein Ereignis. Auf Theorien sind also die Bayes’schen Sätze nicht sinnvoll anwendbar, weil es sich bei Theorien nicht um Ereignisse oder deren Verkettungen handelt. Ich hoffe auch, dass hier niemand Deduktion mit Kausalität verwechselt.
Der Satz, alle Schwäne seien weiß, ist keine wissenschaftliche Theorie, weil er kein wissenschaftliches Problem löst oder zu lösen behauptet. Anders beispielsweise die physikalische Aussage, dass alle Elektronen eine gewisse gleiche Ruhemasse besitzen. Die Vorstellung, Physiker würden im Einzelfall "graue", d.h. abweichende Elektronenruhemassen akzeptieren, ohne ein erschütterndes wissenschaftliches Problem damit zu haben, ist in meinen Augen grotesk.
Mir scheint, dass Matthew versäumt hat, zwischen Wissenschaftsmethodologie und Heuristik zu unterscheiden. Die Frage, wie jemand zu seinen wissenschaftlichen Ideen kommt (Heuristik) ist zu unterscheiden von der Frage, wie die Gültigkeit einer Theorie zu beurteilen ist. Obwohl beides ineinandergreift, handelt es sich doch um Verschiedenes. Es gibt keine Heuristik, die mit Sicherheit zu wahren Theorien führt. Einzelne Forscher oder die Gruppe sind wohl dann im Vorteil, wenn sie über Phantasie, Intelligenz, logische Konsequenz und Selbstkritik verfügen. Wissenschaftliche Skepsis schützt effektiver vor Irrwegen als selbstsichere Überzeugung, in welcher manchmal logische Konsequenz und Selbstkritik ausgeblendet sind.
Der vorletzte Satz "Ab einem gewissen Punkt kann man auf die Idee der Falsifikation nicht verzichten" steht im Widerspruch zum ganzen Essay, der ja davon ausgeht, dass Falsifizieren nicht funktioniert. Setzen wir getrost den "gewissen Punkt" ganz an den Anfang.
Im Spektrum-Essay wird von Robert Matthews eine für meinen Geschmack unzulässig verkürzte und zum Teil schlicht falsche Interpretation von Popper Falsifikations-Kriterium geboten. Das hat sich offenbar seit Poppers stichhaltiger Kritik an Humes resignativem Subjektivismus und an dem der Wiener Schule nicht geändert.
Fangen wir mit den Einwänden gegen die Adäquatheit der popperschen Falsifikations-Methodologie an. Da schreibt Matthew auf Seite 74: "Ein besonders nahe liegender Einwand besagt, dass auch Astrologen, Wahrsager und Quacksalber falsifizierbare Aussagen machen, ohne dass diese dadurch wissenschaftlich würden" was natürlich richtig ist. Aber schon dieser Einwand betrifft den Falsifikationsgedanken nur als Demarkationskriterium nicht als funktionierende Methode der Kritik, denn Theorien, die wir für stabil bzw. gut gestützt halten, müssen etwas mehr als nur falsifizierbar sein, sie müssen alle ernsthaften Falsifikationsversuche überstanden haben (je mehr, desto besser) bevor wir ihnen trauen und von angemessener Stützung durch Beobachtung oder Test reden. Matthew fährt dann fort: "Aber entlarvt sie wenigstens ihr unbekümmerter Umgang mit negativer Evidenz als pseudowissenschaftlich?". Er kommt zu dem Ergebnis: nein. Er führt dazu den Konventionalisten Duhem ins Feld. Duhem hatte bekanntlich bemerkt, dass man Theorien vor Falsifikationen (also vor negativer Evidenz aus der Beobachtung) retten kann, indem man zusätzliche Hilfshypothesen aufstellt. Er behauptete überdies, dass Theorien oder einzelne Allsätze nicht separat kritisiert werden könnten.
Diese Auffassung ist von Popper und von Gunnar Andersson wiederholt kritisiert worden: Theorien in ihrer expliziten Form müssen alle Randbedingungen und Hilfshypothesen schon enthalten, wenn sie an der Wirklichkeit getestet werden. Fügt man Hilfshypothesen erst im Falle von Falsifikationsgefahr hinzu, immunisiert man Theorien auf logisch unzulässige Weise, denn nun handelt es sich nicht mehr um die ursprüngliche Theorie, sondern um ein neues Ad hoc–Gebilde. Das erinnert nicht von ungefähr an die Gussform des No-True-Scotsman-Tricks: A behauptet, alle Schotten sind geizig. B wendet ein, dass aber doch Carnegie (mit seinen ganzen Stiftungen) nicht geizig war. Darauf erwidert B, dass Carnegie dann auch kein echter Schotte sein kann. Für B kann also schon per definitionem kein nicht-geiziger Schotte existieren. Das ist dann aber nur noch eine implizite definitorische Tautologie, die vorher nicht sichtbar war, also keine Wirklichkeitsaussage mehr, auch wenn sie noch so sehr danach aussieht. Die Kraft der falsifikativen Widerlegung wird durch beide Fälle nicht tangiert.
Duhems zweite Vorstellung, dass hinter jeder einzelnen Theorie quasi unser gesamtes Weltwissen als Bezugsrahmen steht, ist zwar in gewissem Sinne wichtig und richtig, hindert uns aber in keiner Weise daran explizite Theorien relativ unabhängig zu kritisieren. Die Überprüfung einer Theorie kann sich in sinnvoller Weise natürlich nur auf die in ihr schriftlich fixierten Hypothesen und Randbedingungen beziehen, denn noch verfügen wir über keine "Weltformel". Ihre Prämissen und Theoreme lassen sich aber auch allesamt einzeln kritisieren durch Falsifikatoren aus der Wirklichkeit. Den meisten Autoren ist nicht klar, dass auch Falsifikatoren fallibel (fehlbar) sind (wie am Beispiel Einstein gegen Walter Kaufmann zu sehen: Einstein hat hier erfolgreich die falsifikativen Prämissen von Kaufmann angegriffen, die er zu Recht für theoretisch unzulänglich und im Übrigen auch falsch begründet hielt). Daher das Gerede vom Schwarz-Weiß-Sehen der Methode der Falsifikation. Eine Falsifikation wird von Popper und vom gesamten Kritischen Rationalismus/Realismus aus logischen Gründen nur als bedingte Widerlegung betrachtet, da sie von der Wahrheit der falsifikatorischen Prämissen abhängig ist - über die man sich genauso irren kann wie über alle anderen Wirklichkeits-Annahmen. Also auch falsifikative Behauptungen sind prinzipiell "theoriegetränkt", ebenso wie einzelne Theorien natürlich ein größeres metatheoretisches Umfeld besitzen – wie Duhem ganz richtig bemerkte. Trotzdem sind Erstere auf Grund ihrer fruchtbaren Asymmetrie (auch in der Einfachheit der meisten Beobachtungsaussagen) natürlich wesentlich simpler zu kontrollieren als Letztere. Deshalb kann die Methode nicht als zirkulär bezeichnet werden – es sei denn man stellt sich metatheoretisch dumm. Wenn man dagegen bei beliebigen Theorien die bayesianische Methode als "Suchrahmen" zu Gunsten der völligen Suspendierung des Falsifikationismus etablieren möchte, ist man wieder beim subjektiven Induktivismus angelangt, und der ist bei Bayes ja im übrigen sogar explizit. Man bekommt bei Wirklichkeitsaussagen ohne jegliche Falsifikationsversuche aber nie heraus, ob da nur schöne "in sich logisch konsistente Märchen" erzählt werden, oder zufällig Wirklichkeitsaspekte richtig beschrieben werden, denn bekanntlich gibt es (aus logischen Gründen: wir verfügen über kein zwingendes Wahrheitskriterium) für jede mögliche Beobachtung unendlich viele mögliche Interpretationen.
Ganz abgesehen davon, dass der Bayesianismus von seiner Art her, Prämissen zu sammeln, eben auch nur Induktion in neuen Kleidern ist. Und wie wir seit Hume wissen schließt die Induktion nicht. Hume hat dann resignativ dazu aufgefordert sie trotzdem zu verwenden, also irrational. Er hat nicht gesehen, dass es keine unmittelbaren Beobachtungen gibt. Sie sind alle immer schon "theoriegetränkt" durch das Mittel unserer konstruktiven Vermutungen, die allesamt allgemeiner Natur und fallibel sind. Es gibt keine nichtmathematische "induktive Logik". Nur die deduktive Logik schließt korrekt, ganz einfach, weil alle ihre Schlüsse trivial sein müssen. Es darf keinen Wahrheitszuwachs geben, denn das würde Wirklichkeitsrelevanz bedeuten. Die Logik sagt aber nur etwas über korrekte Ableitungsbeziehungen von Sätzen, nichts über die Sätze selbst. Das deduktive Ableiten ist lediglich ein "Melken" allgemeiner Aussagen hin zu besonderen Konklusionen oder eine Umwandlung allgemeiner Aussagen in andere (äquivalente) allgemeine Aussagen. Bei einer deduktiven Ableitung kann nichts herauskommen, was nicht schon implizit enthalten ist. Die Regeln der deduktiven Logik sind allesamt Tautologien. Und aus denen folgt die leere Menge (der Wirklichkeitsaussagen). Man kann also mit der Logik keine Theorien entwerfen. Theorien sind immer fallible Annahmen über die Wirklichkeit, solange nicht selbst wieder formale Systeme behandelt werden. Aber die Logik liefert über den modus tollens (weiter unten erläutert) ein scharfes Instrument der bedingten Widerlegung.
Den meisten Autoren, die sich hier für den Bayesianismus begeistern, scheint, wie schon den alten Induktivisten der Logischen Empiristen nicht klar zu sein, dass es egal ist, wie man zu einer Hypothese kommt (das kann durchaus auch irrational geschehen - auch Schwachsinnige können zufällig die Wahrheit sagen). Relevant ist dagegen, dass wissenschaftliches Verhalten erst mit der falsifikativen Überprüfung beginnt (das ist eine der Korrekturen von Popper an seinem früheren Abgrenzungskriterium), denn es gibt keinen Königsweg zum Auffinden fruchtbarer und stabiler Theorien. Und korrekte Überprüfungen finden im Wesentlichen nur im Forschungsbetrieb statt. Popper hat im Übrigen nie Forscher idealisiert, indem er davon ausging, dass sie sich allesamt brav um die Falsifikation ihrer jeweiligen Theorien bemühen (wie Matthew hier schreibt). Das müssen sie nämlich nicht. All ihre Kollegen, die konkurrierende Theorien entwerfen, werden schon dafür sorgen, ebenso wie deren Konkurrenten Falsifikationsversuche an Letzteren betreiben werden usw. Das ist es, was Popper gesagt hat. Der Wissenschaftsbetrieb ist eine offene Bühne (es gibt kein Kritiklimit), deshalb trauen sich Obskurantisten bzw. Pseudowissenschaftler nur in ganz seltenen Fällen, diese Laborbedingungen zu betreten, denn die, die es gewagt haben, sind prompt überführt worden.
Aber auch wahrheitsrelativistische bzw. geschichtsrelativistische Einschätzungen aus dem wissenschaftlichen Lager selbst, die uns einreden wollten, dass Wissenschaft letztlich auch nur eine ‚Narration’ unter anderen sein soll, sind immer wieder schlagend logisch und anhand empirischer Beispiele kritisiert worden. Kuhns und Feyerabends Relativismus war unhaltbar (Gunnar Andersson, 1988).
Schon Hume hatte erkannt, dass Induktion nicht schließt, aber er war gleichzeitig davon überzeugt, das wir (psychologisch eben) nur induktiv zu Erkenntnissen gelangen könnten. Was sicherlich eine Fehleinschätzung war, denn wir gelangen aufgrund unserer theoriegetränkten Sätze (auch der scheinbar nicht-allgemeinen bzw. ‚besonderen’) immer hypothetisch deduktiv zu unseren Vermutungen. Unsere Beobachtungen sind nur als Falsifikatoren oder zur vorläufigen Stützung unserer allgemeinen Hypothesen geeignet, nicht für irgendwelche scheinbar induktiven Akkumulationen. Wir raten, und das tun wir immer deduktiv.
Hume war aber auch klar, dass aus der Konjunktion seiner beiden Annahmen folgt, dass wir nicht-rational zu unseren Erkenntnissen gelangen (seinen modernen Nachfolgern in der Wiener Schule war das nicht so klar). Er hat sich dennoch für diesen gefährlichen („Gewohnheits“-) Pragmatismus bzw. Wahrheitsrelativismus entschieden.
Die Tatsache, dass wir über kein Wahrheitskriterium verfügen, behindert uns aber in keiner Weise, einen logisch korrekten Wahrheitsbegriff zu definieren. In diesem Sinne hat schon Popper die altehrwürdige Idee der Übereinstimmung einer Aussage mit einem Sachverhalt rehabilitiert. Hans Albert hat diesen Begriff dann noch etwas schärfer gefasst, denn Sätze haben bei genauerem Hinsehen nicht die Aufgabe jeweils ein ganzes Stück Wirklichkeit zu beschreiben oder gar ‚abzubilden’ (das können sie gar nicht, weil die Menge der logisch möglichen Relationen schlicht unendlich wäre). Sätze können dagegen einen oder einige Aspekte eines jeweiligen Gegenstandes beschreiben. Und diese Aspekt- bzw. Eigenschaftsaussagen können wahr oder falsch sein (sie müssen sogar eins von beiden sein, sofern es sich nicht um logische Antinomien handelt).
Wir können zwar nie eine von uns für wahr gehaltene Aussage auch streng als wahr beweisen, aber wir können sie (über Falsifikationsversuche) streng prüfen, so dass sie Stützung erfahren kann, auch ohne strengen Beweis. Das ist wichtig, denn streng logisch ist keine Begründung (im Sinne eines echten Beweises) durchführbar. Wir geraten damit immer ins so genannte Münchhausentrilemma: infiniter Regress oder logischer Zirkel oder konventioneller Abbruch des Begründungs-Verfahrens (dessen einzelne Komponenten schon die antiken Skeptiker kannten, die aber erst von Hans Albert als Trilemma zusammengefasst wurden). Die Popperianer haben eine entsprechende metalogische Argumentation vorgelegt, gegen die bisher keine überzeugenden Einwände vorgebracht werden konnten. Sie lautet (in aller Kürze):
Ich kann zu jeder Behauptung fragen, warum ich sie denn glauben soll, und zu der dann folgenden Begründung und zu jeder weiteren Begründung dasselbe, so dass sich ein infiniter Begründungsregress ergibt (gewissermaßen in der ‚Horizontalen’). Versucht der Begründende den Regress nun dadurch zum Stillstand zu bringen, das er alle Begriffe seiner ‚Letztbegründung’ eindeutig definiert, erhebt sich unmittelbar ein Definitionsregress (in der ‚Vertikalen’), denn für die Definition jedes einzelnen Wortes des Begründungssatzes benötige ich ja wieder jeweils einen ganzen Satz bzw. wenigstens ein ganzes Prädikat, das seinerseits undefinierte Begriffe enthält usw. ad infinitum.
Diese beiden Komponenten ergeben die erste Alternative des so genannten Münchhausentrilemmas: den unendlichen Rückgriff, der trivialerweise nicht durchführbar ist. Die zweite Alternative wäre ein logischer Zirkel bzw. eine tautologische Argumentation. Die dritte Alternative wäre ein konventioneller Abbruch des Verfahrens. Durch keine der Alternativen kommt also eine Begründung zu Stande. Deshalb haben wir resultativ ein Trilemma der Begründung (schlechthin) vor uns.
Kant war von Humes subjektivistischer Resignationslösung schockiert. Er hatte genau wie Hume selbst gesehen, dass diese Lösung in den Irrationalismus führt. Kant versuchte das Problem dann bekanntlich mit einem sehr subtilen, aber nichtsdestoweniger dogmatischen Apriorismus zu lösen. Dieser antirealistische Lösungsversuch kann heute - von einem realistischen Standpunkt aus - als gescheitert betrachtet werden, weil Kant seinen Apriorismus (ob nun bezogen auf Verstand, Vernunft oder Sinneswahrnehmung) nicht als hypothetisch bzw. fallibel aufgefasst hat. Nichtsdestoweniger muss ihm der kritische Rationalismus "auf der Zunge gelegen" haben, wie Popper schon bemerkte – eben mit der ihm leider zu seiner Zeit nicht zugänglichen Idee von im Übrigen auch genetisch falliblen Aprioris.
Nun wird mit dem Bayseanismus in der Kosmologie erneut (ohne Not) ein subjektivistischer Ansatz als Ersatz für Poppers Falsifikationskriterium präsentiert.
Formal sind natürlich beide Systeme schlüssig (was aber bekanntlich nichts über ihre Anwendbarkeit in der Realität sagt):
Das bayessche Theorem lautet in vereinfachter Form: p(A|B) x p(B) = p(B|A) x p(A).
"p(A|B)" gibt die Wahrscheinlichkeit von A unter der Bedingung B an.
Die logische Struktur, die dem Falsifikationsgedanken zu Grunde liegt, ist eine metalogische Aussage zum so genannten modus tollens (einer Grundregel der Aussagenlogik): p -> q, ~q :- ~p (gelesen: Aus ‚wenn p dann q, und nicht-q’ folgt nicht-p).
Bei Bayes ist die Bedingung B das Entscheidende. Ist sie falsch geraten bzw. ‚induktivistisch akkumuliert’ ist die ganze Berechnung falsch. Und zwar, bei völliger Falsifikationsabstinenz, ohne dass die Beteiligten das auch nur bemerken können.
Im Falsifikationismus ist das nicht möglich, weil das Gewicht hier nicht in Genese der Hypothesenentwicklung, sondern in die Überprüfung gelegt wird.
Colin Howson scheint regelrecht stolz auf seinen Rückfall in subjektive "Glaubens- oder Überzeugungsgrade". Für meinen Geschmack wäre er damit besser bei den Kreationisten aufgehoben. Anders gesagt, wie hart soll die angehängte Mathematik denn noch sein können, bei derartig weichen Prämissen?
Ein derart induktivistisches Vorgehen ist im Übrigen gar nicht vereinbar mit der Wahrscheinlichkeitstheorie, denn sie ist deduktiv gültig, genau wie die mathematische Induktion.
Und wenn Max Tegmark (S. 76) sagt: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten …", dann denkt er vermutlich in erster Line an unsere großen unfalsifizierten Theorien: Quanten- und Relativitätstheorie. Er vergisst aber wohl, wie wir dahingekommen sind, nämlich über die Falsifikation unzähliger falscher Vorstellungen durch freie Beobachtung oder Test. Sogar Newtons Theorie ist falsifiziert. Das heißt nicht etwa, dass sie pragmatisch unbrauchbar ist (wir können alles bis hin zu präzisen Mondlandungen mit ihr berechnen – und alles, was es auf der Erde zu berechnen gibt ohnedies). Es heißt einfach nur, das sie durch die Falsifikation als approximativer Spezialfall der Relativitätstheorie gelten muss. Das heißt, wir lernen offenbar aus Falsifikationen.
Wir haben aber auch bei unseren beiden Großen noch Falsifikationen zu erwarten, denn sie widersprechen sich bekanntlich (bzw. liefern unendliche Resultate), sobald extrem große Energien in winzigen Räumen angenommen werden müssen. Hier scheint die Vorstellung von Punktteilchen (String-Theorie) oder sogar die von Teilchen überhaupt den schwarzen Peter zu bekommen (Heinz Dieter Zeh ist der Meinung, dass man alles wellentheoretisch beschreiben kann, und zwar mit dem Standardmodell!). Ausgerechnet Brain Greene (also ein "Konkurrent" aus dem Lager der String-Theoretiker) hält in diesem Zusammenhang Zehs Arbeit The Physical Basis of The Direction of Time (2001) für bahnbrechend. Auch diese Theorien sind momentan nicht direkt falsifizierbar, aber die Erfahrung hat immer wieder gezeigt, dass scheinbar unfalsifizierbare Hypothesen letztlich doch irgendwann wenigstens indirekt überprüft werden können.
Falsifikationen, d. h. erkenntnisspezifische Erwartungsenttäuschungen stellen einen grundsätzlichen Lernprozess dar, der uns fast nie zwingt eine ganze Theorie zu verwerfen. Sie weisen nur auf Fehler in der Theorie hin. Die lassen sich nun aber nicht mit logischen Mitteln ergründen. Aber sie weisen immer auf die Notwendigkeit eines Neubaus hin. Deshalb werden wir durch Falsifikationen auch zu neuen Theorienkonstruktionen angeregt. Im Übrigen fallen doch Falsifikationsversuche, die scheitern, nun zwar nicht gerade mit Bewahrheitungen, aber immer mit vorläufigen Stützungen der betreffenden Theorien zusammen. Man weiß also gar nicht, warum ständig Gegensätze zwischen Verifkationismus und Falsifikationismus beschworen werden, denn diese vorläufigen Stützungen durch misslungene Falsifikationsversuche sind doch so etwas wie Quasi-Verifikationen (während die "induktivistischen Validierungen" eher nicht danach aussehen).
Die sind nun zwar unsicher, wie alles, was Menschen sagen, aber das sollte uns doch langsam nicht mehr nervös machen, angesichts des immer rasanter werdenden Fortschritts der wissenschaftlichen Entwicklung.
Leider hat sich im genannten Artikel im Kasten auf Seite 30 links ein Fehler eingeschlichen. Die Dosis für Passagiere in einem hoch fliegenden Flugzeug liegt - je nach Breitengrad - bei ca. 10 bis 100 Mikro-Sievert und damit ca. drei Größenordnungen unter der Dosis bei einem CT (ca. 10 bis 20 Milli-Sievert, mSv). Wäre die Dosis bei einem 6-Stunden-Flug bei 18 mSv (also einem CT vergleichbar), so müsste das Flugzeug nach aktueller Strahlenschutzverordnung als Sperrbereich(!) gekennzeichnet werden (Grenzwert: 3 mSv pro Stunde) und dürfte nur in Ausnahmefällen betreten werden.
Kurioserweise fand sich ein identischer Fehler kürzlich in der Februar-Ausgabe des Physik-Journal 8 (2009) Nr.2, S.38.
Stellungnahme der Redaktion
Die sprachliche Formulierung des Textes ist leider missverständlich. Der Satz müsste besser lauten: "Die Belastung in einem hoch fliegenden Flugzeug wäre im Fall eines Supersturms vergleichbar mit der, die bei einer Computertomografie entsteht." Es ging in diesem Kontext also nicht um den Vergleich eines normalen Flugs mit einer CT, sondern um den Extremfall eines außergewöhnlich starken Sonnensturms, der den Passagieren zusetzt. Ansonsten stimme ich Ihrer Abschätzung zu, dass zwischen den Belastungen, die bei einem normalen Passagierflug und einer CT entstehen, etwa drei Größenordnungen liegen - die CT ist deutlich belastender.
02.03.2009, Susan G. Komen Deutschland e.V., Frankfurt
Sehr geehrte Damen und Herren,
vielen Dank für diesen sehr infrormativen Artikel zu Fortschritten in der Brustkrebstherapie.
In der Print Ausgabe zeigen Sie zu unserer großen Freude Bilder von sogenannten "Survivors", Frauen, die Brustkrebs hatten, und in pinkfarbenen T-Shirts am "Race for Cure", der weltweit größten Serie von 5-Kilometer-Läufen zur Heilung von Brustkrebs teilnehmen. Der Name der Organisation, die dahinter steht, ist Susan G. Komen for the Cure (USA), bzw. Susan G. Komen Deutschland e.V., Verein für die Heilung von Brustkrebs (www.komen.de). Wir werben für die Früherkennung von Brustkrebs und finanzieren Modellprojekte, die betroffenen Frauen helfen. Komen in den USA unterstützt auch Forschungsprojekte, die in der Vergangenheit wesentlich dazu beigetragen haben, Brustkrebs zu verstehen und zu behandeln.
Übrigens gibt es auch in Deutschland den im Artikel genannten Wohltätigkeitslauf, in diesem Jahr am 27.9. zum zehnten Mal in Frankfurt am Mainufer, und am 13.9. erstmalig in Meppen im Emsland (www.raceforthecure.de).
Angesichts der nie endenden Diskussion über Sinn, Erklärung, Jenseits, Superschildkröte oder was auch immer, sollte man doch vielleicht einmal fragen, was uns ständig treibt zu suchen. Da gäbe es vielleicht eine simple Erklärung. Es ist ein Trieb, vergleichbar dem Geschlechtstrieb, zu dem uns die Evolution verholfen hat. Es ist der Drang des Menschen, alle Ereignisse stets in "sinnvolle" Abfolgen zu ordnen, der es ihm ermöglicht, beliebige Lebensräume auf diesem Globus zu besiedeln. Das hat er seinen tierischen Mitbewohnern, die im "hier und jetzt" leben, voraus. Er hat, wie es die Bibel ausdrückt, vom Baume der Erkenntnis gegessen. Erkenntnis heißt, Verstehen zeitlicher Zusammenhänge, aus denen zukunftsgerichtetes Handeln abgeleitet wird. Zeitmessung ist ein zentraler Bestandteil aller frühen Kulturen, steht gewissermaßen am Anfang der Menschwerdung. Einen Nachteil allerdings hat das Leben in der Zeit, die Erkenntnis der Endlichkeit des eigenen Daseins und der Mangel an Sinn darüber hinaus. Es besteht der Drang, zu suchen und das Problem, nichts zu finden. Dieser "Softwarefehler" würde unweigerlich zum Absturz führen, hätte nicht die Evolution einen "Servicepack" nachgeschoben, die Religiosität, einen physiologisch im Gehirn angelegten Speicher für virtuelle Ziele.
Wenn wir die Ausgefallenheit, die Außerordentlichkeit eines ABC-Tripels natürlicher Zahlen {a, b, c} (a + b = c, a, b teilerfremd) bewerten wollen, steht uns nicht nur sein Kappa-Wert zur Verfügung. Dieser gibt ungefähr an, wie sich die Anzahl der Dezimalstellen von c zur Anzahl der Dezimalstellen von rad(a*b*c) verhält. Die starke ABC-Vermutung besagt, daß für jede noch so nahe bei 1 liegende Schranke s > 1 nur endlich viele ABC-Tripel einen Kappa-Wert > s besitzen.
Für detailliertere Aussagen betrachten wir anstelle des Quotienten die Differenz, den "Exzess"
e(abc) = log(c) - log(rad(abc)).
Im Artikel wurde gezeigt, dass wir beliebig große Werte für e antreffen können, wenn wir immer größere Zahlen untersuchen. Die Spitzenwerte wachsen mindestens wie log(log(rad(abc)))/2, das ist extrem langsam. Aus tieferliegenden Untersuchungen ergibt sich, daß man den erreichbaren Exzess im Vergleich zur Größe von sqrt(log(rad(abc))) analysieren sollte.
Werfen wir einen Blick auf die folgenden bekannten, sehr aufwendig aufgespürten Supertripel:
Das letzte ist ein Weltrekord in mehrfacher Hinsicht von I. J. Calvo aus dem Jahre 2008. Die Beispiele zeichnen sich dadurch aus, daß in diesen einmaligen und außerordentlichen Fällen e(abc) etwa 3*sqrt(log(rad(abc))) erreicht (Schranke A). Die Frage entsteht, ob das ein perfektes (beliebig wiederholbar anzutreffendes) Kleid für den Exzess darstellt. Und wie groß müssen die beteiligten Zahlen sein, damit man etwa einen Exzess von 30, 40 oder 50 erreichen kann?
M. van Frankenhuysen bewies im Jahre 2000 eine schwächere Schranke (C), nämlich dass
für unendlich viele ABC-Tripel gilt. In seiner Dissertation 1995 vermutete er (nach Anwendung des fruchtbaren, aber nur heuristischen Zufälligkeitsprinzips der Primfaktorverteilung der natürlichen Zahlen) das gegenüber C schnellere Wachstum (Schranke B)
Danach sind unendlich viele Tripel auffindbar, wenn e0 < 4, aber nur endlich viele, wenn e0 > 4 (perfekt, aber Widerlegung von Schranke A!).
Stellen wir die Konsequenzen für das Wachstum der beteiligten Tripelzahlen bei vorgegebenem Exzess gegenüber:
e(abc)
rad (bei A)
rad (bei B)
rad (bei C)
10
6.7 * 10^4
7.3 * 10^7
3.3 * 10^14
20
2.0 * 10^19
8.8 * 10^51
1.1 * 10^168
30
2.7 * 10^43
2.1 * 10^141
1.3 * 10^538
40
1.6 * 10^77
1.3 * 10^281
8.1 * 10^1178
50
4.3 * 10^120
6.3 * 10^474
2.4 * 10^2127
Eine vor einigen Jahren durchgeführte und unlängst fortgesetzte Suchrechnung erbrachte 16 noch nicht bekannte Tripel aus riesigen Zahlen, deren Exzess die Schranke B mit e0 = 4 und damit bei weitem die Schranke C übertrifft. Das größte von ihnen lautet
p111 bezeichnet eine Primzahl mit 111 Stellen, (127) steht für 127 weggelassene Dezimalstellen. Die Notation folgt der Konvention des Cunningham-Projekts.
Stellungnahme der Redaktion
Strukturell kann man das ε aus der ABC-Vermutung so verstehen: Im Funktionenkörperfall ist es gleich 0; im Zahlkörperfall sollte es den Beitrag der archimedischen Bewertungen (den absoluten Betrag) abdecken. Setzt man das ε in den Exponenten, so hat man, um in dem Bild des Artikels zu bleiben, ein passendes Kleid mit strengem klassischen Schnitt. Und das passt auch gut in das Denken der Arithmetischen Geometrie.
Es ist aber ziemlich sicher, dass der Fehlerterm mit dem ε im Exponenten viel schneller wächst als der tatsächliche Fehler, dass also das Kleid für große Werte von A, B und C viel zu weit wird. Die Leute aus der transzendenten Zahlentheorie wollen das abmildern, indem sie den Faktor mit dem Exponenten durch einen langsamer anwachsenden Faktor ersetzen.
Der Ansatz, den Traugott Schulmeiss beschreibt, ist "subexponentiell", dies ist ein Verhalten, das auch bei der Sicherheit von Verschlüsselungsverfahren eine wichtige Rolle spielt.
So wie es aussieht, untersucht er statt der Abschätzung
C/R < d * Rε
(R ist eine Abkürzung für Rad(ABC) ) die Abschätzung
C/R < R *exp(d*log(R)^(1/2)/log log(R)).
Die Zahl log log R ist sehr klein, und wir machen deshalb nicht viel falsch, wenn wir statt dessen die Abschätzung
C < R *exp(d*log(R)^(1/2)*(log log(R))^(1/2))
betrachten, und die ist "klassisch" subexponentiell in log(R) (zwischen polynomialen Wachstum und exponentiellem Wachstum). Diese Funktion tritt zum Beispiel beim Faktorisieren mit Siebmethoden auf. Da (sei ε auch noch so klein) Rε exponentiell in log R wächst, ist also die subexponentielle Abschätzung schärfer.
Wie Schulmeiss bemerkt, kann man mehr (teils nur heuristisch begründete) Überlegungen in Arbeiten von M. van Frankenhuysen finden. Außer nach dem Einfluss der Konstanten d zu fragen, wäre es auch interessant zu spekulieren, welcher subexponentielle Exponent (hier: 1/2) optimal wäre.
Geht man etwas weiter und etwa zu beliebigen Zahlkörpern, so wird der Einfluss der archimedischen Bewertungen noch verzwickter. Es hat sich meines Wissens noch keine einhellige Meinung über das Verhalten von Konstanten oder gar Abschätzungsfunktionen bei Körpererweiterungen durchgesetzt. Hier gibt es Ansätze von Masser. Im Endeffekt benötigt man ein besseres Verständnis der so genannten Arakelov-Theorie.
Lösungsvorschläge vs Eliminationsversuche
05.03.2009, Paul-Gerhard Schank, BerlinDennoch oder gerade deswegen sollten wir überlegen, ob wir nicht ernsthaft unterscheiden wollen und müssen zwischen dem Zustandekommen von Lösungsvorschlägen und der Methode der Elimination von unzutreffenden Vorschlägen.
Für Lösungsvorschläge gilt zweifellos, dass Kreativität gefragt ist und kein Gedanke an Falsifizierbarkeit die kreative Energie lähmen sollte.
Sobald der Lösungsvorschlag aber im Raum steht und mit anderen Vorschlägen zu konkurrieren hat, sind die Eliminationsversuche mittels Falsifikation unausweichlich.
Tolle Hilfe
05.03.2009, Petulia FreymannWissenschaft als Kenntnis und Fortschritt
05.03.2009, Prof. Dr. Karsten Löhr, UlmAber niemand wird doch ernsthaft festlegen wollen, wie der wissenschaftliche Fortschritt erfolgen soll. Auf welche Weise eine wissenschaftliche Hypothese erlangt wird, muss und wird frei bleiben, ob durch Übertragung (Archimedes in der Badewanne), im Traum (Benzolring von Kekulé) oder durch eine Verallgemeinerung (Apfelfall bei Newton). Wenn man sich darauf beschränken wollte, jeglichen wissenschaftlichen Gedanken an die Suche nach einer falsifizierbaren Behauptung zu knüpfen, würde man wohl auf andere Erkenntnisfähigkeiten – z.B. Vorstellungsvermögen, Erkundungswillen oder Zweifel – verzichten müssen.
Dass man diese Metaphysik des Erkenntnisvermögens gleich als "Pseudowissenschaft" abtun muss, sei dahingestellt. Ich halte es da lieber mit Kant, der in seiner Kritik der reinen Vernunft zumindest eine gegenseitige Abhängigkeit festgestellt hat: Ohne Sinnlichkeit würde uns kein Gegenstand gegeben, und ohne Verstand keiner gedacht werden. [Metaphysische] Gedanken ohne [physischen] Inhalt sind leer, [physische] Anschauungen ohne [metaphysische] Begriffe sind blind.
Spieleinsätze
04.03.2009, Franz Pichler, WienZit.#2: "Ist ein wohlhabender Amerikaner, der auf die 5 Dollar Einsatz wahrscheinlich gut verzichten kann,... eher zum Zocken bereit als ein armer iranischer Landbewohner?"
Wenn die Summe nicht wie in Zitat 1 angegeben sozusagen "ausgeglichen" wurde, ist das Experiment ziemlich sinnlos.
Falls ja, dann ist jedenfalls Zitat 2 sinnlos.
Oder einfach nur ein bissl unlogisch ...
MfG
Franz Pichler
Sehr geehrter Herr Pichler,
vielen Dank für Ihren Leserbrief!
Die Autoren der Studie haben den Spieleinsatz nach dem "Bic Mac Index" des Economist in lokale Kaufkraft umgerechnet. Für das Beispiel Argentinien (Iran taucht leider in der online verfügbaren Liste nicht auf) bedeutet dies, dass aus den 5 Dollar 16,25 Arg. Pesos werden.
Nicht berücksichtigt bleiben dabei Einkommensunterschiede: In der Region um Columbus (Ohio), in der das Experiment durchgeführt wurde, liegt das durchschnittliche Pro-Kopf-Einkommen laut Wikipedia bei ca. 1700 Dollar, also dem 340-fachen des Einsatzes, in Argentinien laut Wikipedia bei 625 Arg. Pesos, also in etwa dem 38-fachen. Auf die USA rückgerechnet entspräche dies einem Einsatz von etwas über 44 Dollar – mit denen, so mein Eindruck, Spieler wahrscheinlich wesentlich behutsamer umgegangen wären.
Mit besten Grüßen
Jan Dönges
Bienen unterscheiden Muster und Mengen
04.03.2009, Prof. Dr. Dr. h.c. Randolf Menzel, Berlinda ist also auch Spektrum auf die unwissenschaftliche Übertreibung hereingefallen, dass Bienen bis drei zählen könnten. Zuerst muss man zur Ehrenrettung der Autoren (oder vielleicht besser der Gutachter von PloSone) sagen, dass so eine Aussage in dem zitierten Artikel gar nicht gemacht wird. Von "zählen" ist dort an keiner Stelle die Rede, und "number-based visual generalization" (so der Titel des Artikels) bedeutet natürlich nicht "zählen". Weiter muss man beachten, dass die Experimente auch gar nicht eine solche Aussage erlauben würden. Was die Autoren zeigten, war für Bienen schon viele Male vorher nachgewiesen worden, dass sie nämlich über die Fähigkeit verfügen, visuelle Muster zu generalisieren und dabei die Musterkomponenten berücksichtigen. Die Aussage Ihres Berichtes geht also völlig an dem vorbei, was die zitierte Publikation betrifft. Allerdings gibt es andere und recht spannende Untersuchungen zu der Frage, ob Bienen Kleinstmengen unterscheiden können, also 1 von 2, oder 2 von 3 nacheinander wahrgenommenen Objekten. Solche nacheinander erfahrenen Objekte können z.B. Landmarken sein. Hier gibt es Hinweise für solche sequentiellen Unterscheidungen, aber auch das hat mit "zählen" nichts zu tun. Von einer Zeitschrift wie Spektrum erwarte ich, dass besser recherchiert wird, die Arbeiten gelesen werden, die besprochen werden, und dass die breitere Thematik gründlicher studiert wird. Gerade die Frage nach den verschiedenen Formen der Mengenbewertung (numerosity) und der Generalisierung und der Abstraktion von Mengen (number estimation) ist ein eine wichtige Forschungsthematik der Psychologie und der Verhaltensforschung.
Ihr Randolf Menzel
Das Wort "zählen" kommt nur im Titel des Beitrags vor und ist dort eine journalistische Überspitzung sowie ein Wortspiel mit der gängigen Phrase "nicht bis drei zählen können" (weshalb von drei die Rede ist, obwohl die Bienen laut Untersuchung sogar bis vier "zählen" können). Dass der Ausdruck nicht ernst gemeint ist, ergibt sich auch aus der späteren ironischen Formulierung "zum Zählen fehlen ihnen [den Bienen] nun einmal die Finger".
Im Übrigen bestätigt die Arbeit nicht nur die längst bekannte Tatsache, dass Bienen Muster erkennen können. Vielmehr geht es darum, dass die Insekten auch imstande sind, Mengen intuitiv zu erfassen und zu generalisieren.
Definition von "Hochbegabung"
04.03.2009, Gerhard RothVielen Dank für den schönen und zugleich sehr abwägenden Artikel. Was die Definition von "Hochbegabung" betrifft, so ist das - wie der Name sagt - eine Definitionsfrage. Die 1% der Bevölkerung trifft für einen IQ ab 135 zu, und es ist gleichgültig, ob man sie hochbegabt oder höchstbegabt nennt.
Mein Gewährsmann in diesen Dingen ist der Marburger Begabungsforscher Prof. Rost.
Beste Grüße, Gerhard Roth
Evolutionslehre für Hessens Schüler erst kurz vor dem Abi
03.03.2009, Josef Braun, NiddaOh Gott!
03.03.2009, Dominique Boursillon, SigmaringendorfSie schreiben: "Zu einer umfassenden Bildung gehört es, beide Seiten zu kennen, weshalb auch die Schöpfungsgeschichte ihren Platz in der Schule haben." Warum gehört die Schöpfungsgeschichte in die Schule? Was hat sie dort verloren? Wer eine religiöse Bildung will, sollte dies nicht von der Schule erwarten dürfen - dass es so ist und der Religionsunterricht einen höheren Stellenwert besitzt als naturwissenschaftlicher Unterricht, ist erschreckend. Ein Gott kann nicht existieren, das ist ein Gebot der (praktischen) Vernunft. Natürlich muss die Religionsfreiheit gewahrt sein. Manche Menschen glauben, und es ihr gutes Recht, ihre Persönlichkeit dahin gehend zu entfalten. Man muss den Atheismus auch nicht gleich zur "Staatsreligion" erklären. Trotzdem ist Religion (jeder Art) ein Irrglaube, der nicht in die Schule gehört. Religion ist eine private Angelegenheit und keine Gegenhypothese zur Wissenschaft. Eine klare Position muss man schon beziehen, und in diesem Punkt ist auch Herr Junker zu zögerlich und zu kompromissbereit.
Vielen Dank und
viele Grüße
Das Streben nach Wahrheit
03.03.2009, Prof. K. Löhr, Technologie- und Innovationsberatung, UlmObwohl der Mathematik die physischen Anschauungsobjekte fehlen, erkennt man daran sehr gut die drei wissenschaftlichen Denkweisen, die bereits Sextus Empiricus treffend beschrieb: "Wenn sich jemand der Untersuchung irgendeiner Sache widmet, dann ist es natürlich, dass er am Ende das Gesuchte findet, oder dass er behauptet, das Gesuchte sei unauffindbar [...], oder aber, dass er seine Untersuchungen fortsetzt. Damit sieht man leicht, dass es offenbar drei Hauptrichtungen im Streben nach Wahrheit [Philosophie] gibt: die dogmatische, die akademische und die skeptische."
Und somit gilt wohl auch für die Mathematik das, was bereits Schopenhauer so forsch über das wissenschaftliche Arbeiten konstatierte: "Die Physik vermag nicht auf eigenen Füßen zu stehen, sondern bedarf einer Metaphysik, sich darauf zu stützen; so vornehm sie auch gegen diese thun mag!"
Mit Überzeugung irren
02.03.2009, Dr. phil. nat. Wolfram Gorisch, MünchenDem möchte ich ein eigenes Argument anfügen: Die Naturerkenntnis schreitet voran von den alten Mythen über viele Zwischenstufen hin zur jetzt modernen Kosmologie und weiter fort. Jede neuere Theorie erklärt mehr als ihr Vorgänger. Das bedeutet, dass die Vorgängertheorien an den jeweils neueren Messungen/Beobachtungen gescheitert sind. Wissenschaftsbayesianer behaupten nun, dass zu jedem Zeitpunkt die jeweils herrschende Theorie eine von Null verschiedene Wahrheitswahrscheinlichkeit besessen hat. Die nachfolgende Theorie hat jedoch den Vorgänger als unzutreffend entlarvt, ihr also die Wahrheitswahrscheinlichkeit 0 zugewiesen. Dadurch wird deutlich, dass diese Wahrheitswahrscheinlichkeit keine feste Eigenschaft einer Theorie ist, sondern jederzeit und unvorhersehbar null werden kann.
Popper hat die Messlatte sehr hoch gelegt. Mir scheint, dass Matthews diesem Anspruch nicht gerecht geworden ist. Alle Argumente, die in diesem Essay als neue Erkenntnis verkauft werden, sind altbekannt. Sie wurden allesamt von Popper auf hohem Niveau diskutiert.
Wir wissen, dass man mit niemandem diskutieren kann, der die Grundlagen nicht anerkennt. Es ist deshalb müßig, über Falsifikationismus oder Verifikationismus in der Wissenschaft zu diskutieren, wenn man sich nicht über das Ziel der Wissenschaft einig ist. Popper sieht das Ziel der Wissenschaft darin, wahre Erklärungen für das Geschehen unserer Wirklichkeit zu geben.
Bedauerlicherweise soll es Wissenschaftler geben, die ihre Karriere vorrangig durch rechthaberisches Indiziensammeln fördern wollen, weniger durch selbstkritische Wahrheitssuche. Der Leser mag selbst entscheiden, welcher dieser beiden entgegengesetzten Ziele Tegmarks Feststellung mehr dient: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten; wir steigern das Gewicht der Indizien".
Was sind die Konsequenzen von Hawson’s Wissenschaftsbegriff, der "auf dem viel subtileren Konzept der so genannten Glaubens- oder Überzeugungsgrade" beruht? Glaube und Überzeugungen sind grundsätzlich nicht Gegenstand des wissenschaftlichen Diskurses weil es sich um ein persönliches Grundrecht (Meinungsfreiheit) handelt. Demgegenüber ist gerade der freie rationale und kritische Diskurs ein Merkmal der Wissenschaft. Glaube- und Überzeugungsgrade sind beispielsweise bei terroristischen Anführern besonders ausgeprägt, die Selbstmordattentäter mit der Aussicht auf die siebzehn Jungfrauen im Paradies ködern. Darf nun die Existenz solcher Paradiese als "wissenschaftlich" begründet bezeichnet werden? Oder impliziert Hawson noch andere Kriterien, die er uns vorenthält? Moralische? Verwischt Hawson hier nicht die Unterscheidung zwischen rationaler Wissenschaft und metaphysischen, religiösen Überzeugungen? Quacksalber aller Couleur führen stets überwältigend viele Glaubens- und Überzeugungsargumente an. Das Argument, dass Quacksalber sich der Falsifikation aussetzen, trifft nicht zu. Derartige Theorien sind geradezu kennzeichnend mit allen Mitteln gegen Falsifikation immunisiert worden, z.B. durch Beschränkung auf Kasuistik, Vermeidung prüfbarer kausaler Erklärungen, durch Verwendung schwammiger Begriffe, durch das Einräumen von Ausnahmen, durch tautologische Formulierungen. Beispiele für Theorien, die zugleich überzeugend und falsch sind, finden sich in der Zahlenmystik und in Form von Verschwörungstheorien. Nach Hawson dürfen sich solche Theorien "wissenschaftlich" nennen, weil es ja nur auf den hohen Überzeugungsgrad ankommt.
Tegmark argumentiert irreführend. Er betrachtet Deduktionen einer Theorie als neue unabhängige Theorien. Die Relativitätstheorie ist vielfach falsifizierbar. Das bedeutet aber nicht, dass alle Deduktionen wie z.B. die Existenz und die besonderen Eigenschaften von Schwarzen Löchern beobachtbar bzw. nachprüfbar sein müssen. Die Existenz von Schwarzen Löchern ist inzwischen recht gut bestätigt. Was aber in deren Innerem abläuft, ist wohl kaum nachprüfbar, obwohl die ART darüber Aussagen macht. Die Falsifizierungsmöglichkeiten für die ART, die sich daraus ergeben, sind also leider kaum experimentell nutzbar. Dasselbe mag für Multiversen zutreffen. Soweit das Multiversum deduktiv aus einer anderen bewährten Theorie folgt, Multiversen aber nicht beobachtbar sind, kann aus dem Multiversum keine Falsifikation der zugrunde liegenden Theorie abgeleitet werden, aber eben auch nicht ihre Bewährung. Eine eigenständige Multiversumstheorie hat mangels Wechselwirkung mit unserem Universum keinen Erklärungsgehalt und gehört deshalb meiner Meinung nach zur Glaubenswelt ihrer Vertreter.
Anscheinend metaphysische Kosmologien sind keineswegs zu verwerfen. Ich stimme zu, dass eine positive Aussage dergestalt, dass eine bestimmte Theorie nicht falsifizierbar sei, unsicher ist. Krauss’ Angriff gegen das Falsifikationsprinzip trifft hier ins Leere. Viel wichtiger ist das Folgende: Popper hat gezeigt, dass der empirische Gehalt einer Theorie bzw. ihr Erklärungsvermögen mit dem Umfang der Falsifizierungsmöglichkeiten wächst. Das heißt, dass eine (kühne) Theorie mit großem Erklärungsgehalt viele Falsifizierungsmöglichkeiten bietet. Umgekehrt erklären Theorien unsere Welt nicht, die kaum falsifizierbar sind. Ich kann mir nicht vorstellen, was Aussagen über fremde Universen, die mit unserem Universum nicht in kausaler Wechselwirkung stehen, mit unserem Universum zu tun haben. Wo ist der prinzipielle Unterschied zu Aussagen über das Paradies?
Jeder kennt metaphysische Theorien: Religiöse Schöpfungsmythen, Intelligent Design, ewiges Leben, Reinkarnationsglaube, Glaube an Vorherbestimmtheit, Astrologie, Kaffesatzleserei bis zu Irisdiagnostik usw. Keine dieser metaphysischen Theorien ist so formuliert, dass sie sich einer Falsifikation beugen würde. Es ist ein großer wissenschaftstheoretischer Fortschritt, den Popper mit seinem Vorschlag des Abgrenzungskriteriums (d.h. Falsifizierbarkeit) erreicht hat. Dieses Abgrenzungskriterium ist sogar so mächtig, dass es für eine allgemeinere Erkenntnistheorie (Lernen aus Versuch und Irrtum) taugt. Dies soll nun dem bequemen Kriterium eines bestimmten Überzeugungslevels oder eines "Gewichts der Indizien" geopfert werden. In meinen Augen ist das ein irriger postmoderner Rückschritt zur verfehlten Induktionslehre.
Was soll ich unter dem Begriff des "rationalen Überzeugungssystems" verstehen? Dieser Begriff ist nicht ausreichend erläutert. Nehmen wir ein Überzeugungssystem an, das aus den beiden Theorien Quantentheorie und Relativitätstheorie besteht. Wie soll ich es dann verstehen, dass diese den Bayes’schen Wahrscheinlichkeitsgesetzen gehorchen? Ich könnte hineininterpretieren, dass Deduktionen aus Theorien, die Wahrscheinlichkeitsaussagen machen, gemäß den Bayes’schen Gesetzen zu formulieren sind. Dadurch werden mögliche Fehler bei der Deduktion vermieden. Hierdurch kann die Übereinstimmung mit der Wirklichkeit besser geprüft werden. Ich sehe aber nicht ein, wie aus den Bayes’schen Sätzen Wahrheitsaussagen über bestimmte Theorien gewonnen werden können. Wahrheit kann doch keine Wahrscheinlichkeit haben. Was soll uns dazu zwingen, den Satz vom ausgeschlossenen Dritten (Drittes zwischen wahr und falsch) aufzugeben? Ereignisse oder Ereignisketten können eine gewisse Eintrittswahrscheinlichkeit haben. Eine Theorie ist jedoch kein Ereignis. Auf Theorien sind also die Bayes’schen Sätze nicht sinnvoll anwendbar, weil es sich bei Theorien nicht um Ereignisse oder deren Verkettungen handelt. Ich hoffe auch, dass hier niemand Deduktion mit Kausalität verwechselt.
Der Satz, alle Schwäne seien weiß, ist keine wissenschaftliche Theorie, weil er kein wissenschaftliches Problem löst oder zu lösen behauptet. Anders beispielsweise die physikalische Aussage, dass alle Elektronen eine gewisse gleiche Ruhemasse besitzen. Die Vorstellung, Physiker würden im Einzelfall "graue", d.h. abweichende Elektronenruhemassen akzeptieren, ohne ein erschütterndes wissenschaftliches Problem damit zu haben, ist in meinen Augen grotesk.
Mir scheint, dass Matthew versäumt hat, zwischen Wissenschaftsmethodologie und Heuristik zu unterscheiden. Die Frage, wie jemand zu seinen wissenschaftlichen Ideen kommt (Heuristik) ist zu unterscheiden von der Frage, wie die Gültigkeit einer Theorie zu beurteilen ist. Obwohl beides ineinandergreift, handelt es sich doch um Verschiedenes. Es gibt keine Heuristik, die mit Sicherheit zu wahren Theorien führt. Einzelne Forscher oder die Gruppe sind wohl dann im Vorteil, wenn sie über Phantasie, Intelligenz, logische Konsequenz und Selbstkritik verfügen. Wissenschaftliche Skepsis schützt effektiver vor Irrwegen als selbstsichere Überzeugung, in welcher manchmal logische Konsequenz und Selbstkritik ausgeblendet sind.
Der vorletzte Satz "Ab einem gewissen Punkt kann man auf die Idee der Falsifikation nicht verzichten" steht im Widerspruch zum ganzen Essay, der ja davon ausgeht, dass Falsifizieren nicht funktioniert. Setzen wir getrost den "gewissen Punkt" ganz an den Anfang.
Warum Subjektivismus, wenn es auch objektiv geht?
02.03.2009, Norbert Hinterberger, HamburgFangen wir mit den Einwänden gegen die Adäquatheit der popperschen Falsifikations-Methodologie an. Da schreibt Matthew auf Seite 74: "Ein besonders nahe liegender Einwand besagt, dass auch Astrologen, Wahrsager und Quacksalber falsifizierbare Aussagen machen, ohne dass diese dadurch wissenschaftlich würden" was natürlich richtig ist. Aber schon dieser Einwand betrifft den Falsifikationsgedanken nur als Demarkationskriterium nicht als funktionierende Methode der Kritik, denn Theorien, die wir für stabil bzw. gut gestützt halten, müssen etwas mehr als nur falsifizierbar sein, sie müssen alle ernsthaften Falsifikationsversuche überstanden haben (je mehr, desto besser) bevor wir ihnen trauen und von angemessener Stützung durch Beobachtung oder Test reden. Matthew fährt dann fort: "Aber entlarvt sie wenigstens ihr unbekümmerter Umgang mit negativer Evidenz als pseudowissenschaftlich?". Er kommt zu dem Ergebnis: nein. Er führt dazu den Konventionalisten Duhem ins Feld. Duhem hatte bekanntlich bemerkt, dass man Theorien vor Falsifikationen (also vor negativer Evidenz aus der Beobachtung) retten kann, indem man zusätzliche Hilfshypothesen aufstellt. Er behauptete überdies, dass Theorien oder einzelne Allsätze nicht separat kritisiert werden könnten.
Diese Auffassung ist von Popper und von Gunnar Andersson wiederholt kritisiert worden: Theorien in ihrer expliziten Form müssen alle Randbedingungen und Hilfshypothesen schon enthalten, wenn sie an der Wirklichkeit getestet werden. Fügt man Hilfshypothesen erst im Falle von Falsifikationsgefahr hinzu, immunisiert man Theorien auf logisch unzulässige Weise, denn nun handelt es sich nicht mehr um die ursprüngliche Theorie, sondern um ein neues Ad hoc–Gebilde. Das erinnert nicht von ungefähr an die Gussform des No-True-Scotsman-Tricks: A behauptet, alle Schotten sind geizig. B wendet ein, dass aber doch Carnegie (mit seinen ganzen Stiftungen) nicht geizig war. Darauf erwidert B, dass Carnegie dann auch kein echter Schotte sein kann. Für B kann also schon per definitionem kein nicht-geiziger Schotte existieren. Das ist dann aber nur noch eine implizite definitorische Tautologie, die vorher nicht sichtbar war, also keine Wirklichkeitsaussage mehr, auch wenn sie noch so sehr danach aussieht. Die Kraft der falsifikativen Widerlegung wird durch beide Fälle nicht tangiert.
Duhems zweite Vorstellung, dass hinter jeder einzelnen Theorie quasi unser gesamtes Weltwissen als Bezugsrahmen steht, ist zwar in gewissem Sinne wichtig und richtig, hindert uns aber in keiner Weise daran explizite Theorien relativ unabhängig zu kritisieren. Die Überprüfung einer Theorie kann sich in sinnvoller Weise natürlich nur auf die in ihr schriftlich fixierten Hypothesen und Randbedingungen beziehen, denn noch verfügen wir über keine "Weltformel". Ihre Prämissen und Theoreme lassen sich aber auch allesamt einzeln kritisieren durch Falsifikatoren aus der Wirklichkeit.
Den meisten Autoren ist nicht klar, dass auch Falsifikatoren fallibel (fehlbar) sind (wie am Beispiel Einstein gegen Walter Kaufmann zu sehen: Einstein hat hier erfolgreich die falsifikativen Prämissen von Kaufmann angegriffen, die er zu Recht für theoretisch unzulänglich und im Übrigen auch falsch begründet hielt). Daher das Gerede vom Schwarz-Weiß-Sehen der Methode der Falsifikation. Eine Falsifikation wird von Popper und vom gesamten Kritischen Rationalismus/Realismus aus logischen Gründen nur als bedingte Widerlegung betrachtet, da sie von der Wahrheit der falsifikatorischen Prämissen abhängig ist - über die man sich genauso irren kann wie über alle anderen Wirklichkeits-Annahmen. Also auch falsifikative Behauptungen sind prinzipiell "theoriegetränkt", ebenso wie einzelne Theorien natürlich ein größeres metatheoretisches Umfeld besitzen – wie Duhem ganz richtig bemerkte. Trotzdem sind Erstere auf Grund ihrer fruchtbaren Asymmetrie (auch in der Einfachheit der meisten Beobachtungsaussagen) natürlich wesentlich simpler zu kontrollieren als Letztere. Deshalb kann die Methode nicht als zirkulär bezeichnet werden – es sei denn man stellt sich metatheoretisch dumm. Wenn man dagegen bei beliebigen Theorien die bayesianische Methode als "Suchrahmen" zu Gunsten der völligen Suspendierung des Falsifikationismus etablieren möchte, ist man wieder beim subjektiven Induktivismus angelangt, und der ist bei Bayes ja im übrigen sogar explizit. Man bekommt bei Wirklichkeitsaussagen ohne jegliche Falsifikationsversuche aber nie heraus, ob da nur schöne "in sich logisch konsistente Märchen" erzählt werden, oder zufällig Wirklichkeitsaspekte richtig beschrieben werden, denn bekanntlich gibt es (aus logischen Gründen: wir verfügen über kein zwingendes Wahrheitskriterium) für jede mögliche Beobachtung unendlich viele mögliche Interpretationen.
Ganz abgesehen davon, dass der Bayesianismus von seiner Art her, Prämissen zu sammeln, eben auch nur Induktion in neuen Kleidern ist. Und wie wir seit Hume wissen schließt die Induktion nicht. Hume hat dann resignativ dazu aufgefordert sie trotzdem zu verwenden, also irrational. Er hat nicht gesehen, dass es keine unmittelbaren Beobachtungen gibt. Sie sind alle immer schon "theoriegetränkt" durch das Mittel unserer konstruktiven Vermutungen, die allesamt allgemeiner Natur und fallibel sind. Es gibt keine nichtmathematische "induktive Logik". Nur die deduktive Logik schließt korrekt, ganz einfach, weil alle ihre Schlüsse trivial sein müssen. Es darf keinen Wahrheitszuwachs geben, denn das würde Wirklichkeitsrelevanz bedeuten. Die Logik sagt aber nur etwas über korrekte Ableitungsbeziehungen von Sätzen, nichts über die Sätze selbst. Das deduktive Ableiten ist lediglich ein "Melken" allgemeiner Aussagen hin zu besonderen Konklusionen oder eine Umwandlung allgemeiner Aussagen in andere (äquivalente) allgemeine Aussagen. Bei einer deduktiven Ableitung kann nichts herauskommen, was nicht schon implizit enthalten ist. Die Regeln der deduktiven Logik sind allesamt Tautologien. Und aus denen folgt die leere Menge (der Wirklichkeitsaussagen). Man kann also mit der Logik keine Theorien entwerfen. Theorien sind immer fallible Annahmen über die Wirklichkeit, solange nicht selbst wieder formale Systeme behandelt werden. Aber die Logik liefert über den modus tollens (weiter unten erläutert) ein scharfes Instrument der bedingten Widerlegung.
Den meisten Autoren, die sich hier für den Bayesianismus begeistern, scheint, wie schon den alten Induktivisten der Logischen Empiristen nicht klar zu sein, dass es egal ist, wie man zu einer Hypothese kommt (das kann durchaus auch irrational geschehen - auch Schwachsinnige können zufällig die Wahrheit sagen). Relevant ist dagegen, dass wissenschaftliches Verhalten erst mit der falsifikativen Überprüfung beginnt (das ist eine der Korrekturen von Popper an seinem früheren Abgrenzungskriterium), denn es gibt keinen Königsweg zum Auffinden fruchtbarer und stabiler Theorien. Und korrekte Überprüfungen finden im Wesentlichen nur im Forschungsbetrieb statt. Popper hat im Übrigen nie Forscher idealisiert, indem er davon ausging, dass sie sich allesamt brav um die Falsifikation ihrer jeweiligen Theorien bemühen (wie Matthew hier schreibt). Das müssen sie nämlich nicht. All ihre Kollegen, die konkurrierende Theorien entwerfen, werden schon dafür sorgen, ebenso wie deren Konkurrenten Falsifikationsversuche an Letzteren betreiben werden usw. Das ist es, was Popper gesagt hat. Der Wissenschaftsbetrieb ist eine offene Bühne (es gibt kein Kritiklimit), deshalb trauen sich Obskurantisten bzw. Pseudowissenschaftler nur in ganz seltenen Fällen, diese Laborbedingungen zu betreten, denn die, die es gewagt haben, sind prompt überführt worden.
Aber auch wahrheitsrelativistische bzw. geschichtsrelativistische Einschätzungen aus dem wissenschaftlichen Lager selbst, die uns einreden wollten, dass Wissenschaft letztlich auch nur eine ‚Narration’ unter anderen sein soll, sind immer wieder schlagend logisch und anhand empirischer Beispiele kritisiert worden. Kuhns und Feyerabends Relativismus war unhaltbar (Gunnar Andersson, 1988).
Schon Hume hatte erkannt, dass Induktion nicht schließt, aber er war gleichzeitig davon überzeugt, das wir (psychologisch eben) nur induktiv zu Erkenntnissen gelangen könnten. Was sicherlich eine Fehleinschätzung war, denn wir gelangen aufgrund unserer theoriegetränkten Sätze (auch der scheinbar nicht-allgemeinen bzw. ‚besonderen’) immer hypothetisch deduktiv zu unseren Vermutungen. Unsere Beobachtungen sind nur als Falsifikatoren oder zur vorläufigen Stützung unserer allgemeinen Hypothesen geeignet, nicht für irgendwelche scheinbar induktiven Akkumulationen. Wir raten, und das tun wir immer deduktiv.
Hume war aber auch klar, dass aus der Konjunktion seiner beiden Annahmen folgt, dass wir nicht-rational zu unseren Erkenntnissen gelangen (seinen modernen Nachfolgern in der Wiener Schule war das nicht so klar). Er hat sich dennoch für diesen gefährlichen („Gewohnheits“-) Pragmatismus bzw. Wahrheitsrelativismus entschieden.
Die Tatsache, dass wir über kein Wahrheitskriterium verfügen, behindert uns aber in keiner Weise, einen logisch korrekten Wahrheitsbegriff zu definieren. In diesem Sinne hat schon Popper die altehrwürdige Idee der Übereinstimmung einer Aussage mit einem Sachverhalt rehabilitiert. Hans Albert hat diesen Begriff dann noch etwas schärfer gefasst, denn Sätze haben bei genauerem Hinsehen nicht die Aufgabe jeweils ein ganzes Stück Wirklichkeit zu beschreiben oder gar ‚abzubilden’ (das können sie gar nicht, weil die Menge der logisch möglichen Relationen schlicht unendlich wäre). Sätze können dagegen einen oder einige Aspekte eines jeweiligen Gegenstandes beschreiben. Und diese Aspekt- bzw. Eigenschaftsaussagen können wahr oder falsch sein (sie müssen sogar eins von beiden sein, sofern es sich nicht um logische Antinomien handelt).
Wir können zwar nie eine von uns für wahr gehaltene Aussage auch streng als wahr beweisen, aber wir können sie (über Falsifikationsversuche) streng prüfen, so dass sie Stützung erfahren kann, auch ohne strengen Beweis. Das ist wichtig, denn streng logisch ist keine Begründung (im Sinne eines echten Beweises) durchführbar. Wir geraten damit immer ins so genannte Münchhausentrilemma: infiniter Regress oder logischer Zirkel oder konventioneller Abbruch des Begründungs-Verfahrens (dessen einzelne Komponenten schon die antiken Skeptiker kannten, die aber erst von Hans Albert als Trilemma zusammengefasst wurden).
Die Popperianer haben eine entsprechende metalogische Argumentation vorgelegt, gegen die bisher keine überzeugenden Einwände vorgebracht werden konnten. Sie lautet (in aller Kürze):
Ich kann zu jeder Behauptung fragen, warum ich sie denn glauben soll, und zu der dann folgenden Begründung und zu jeder weiteren Begründung dasselbe, so dass sich ein infiniter Begründungsregress ergibt (gewissermaßen in der ‚Horizontalen’). Versucht der Begründende den Regress nun dadurch zum Stillstand zu bringen, das er alle Begriffe seiner ‚Letztbegründung’ eindeutig definiert, erhebt sich unmittelbar ein Definitionsregress (in der ‚Vertikalen’), denn für die Definition jedes einzelnen Wortes des Begründungssatzes benötige ich ja wieder jeweils einen ganzen Satz bzw. wenigstens ein ganzes Prädikat, das seinerseits undefinierte Begriffe enthält usw. ad infinitum.
Diese beiden Komponenten ergeben die erste Alternative des so genannten Münchhausentrilemmas: den unendlichen Rückgriff, der trivialerweise nicht durchführbar ist. Die zweite Alternative wäre ein logischer Zirkel bzw. eine tautologische Argumentation. Die dritte Alternative wäre ein konventioneller Abbruch des Verfahrens. Durch keine der Alternativen kommt also eine Begründung zu Stande. Deshalb haben wir resultativ ein Trilemma der Begründung (schlechthin) vor uns.
Kant war von Humes subjektivistischer Resignationslösung schockiert. Er hatte genau wie Hume selbst gesehen, dass diese Lösung in den Irrationalismus führt. Kant versuchte das Problem dann bekanntlich mit einem sehr subtilen, aber nichtsdestoweniger dogmatischen Apriorismus zu lösen. Dieser antirealistische Lösungsversuch kann heute - von einem realistischen Standpunkt aus - als gescheitert betrachtet werden, weil Kant seinen Apriorismus (ob nun bezogen auf Verstand, Vernunft oder Sinneswahrnehmung) nicht als hypothetisch bzw. fallibel aufgefasst hat. Nichtsdestoweniger muss ihm der kritische Rationalismus "auf der Zunge gelegen" haben, wie Popper schon bemerkte – eben mit der ihm leider zu seiner Zeit nicht zugänglichen Idee von im Übrigen auch genetisch falliblen Aprioris.
Nun wird mit dem Bayseanismus in der Kosmologie erneut (ohne Not) ein subjektivistischer Ansatz als Ersatz für Poppers Falsifikationskriterium präsentiert.
Formal sind natürlich beide Systeme schlüssig (was aber bekanntlich nichts über ihre Anwendbarkeit in der Realität sagt):
Das bayessche Theorem lautet in vereinfachter Form: p(A|B) x p(B) = p(B|A) x p(A).
"p(A|B)" gibt die Wahrscheinlichkeit von A unter der Bedingung B an.
Die logische Struktur, die dem Falsifikationsgedanken zu Grunde liegt, ist eine metalogische Aussage zum so genannten modus tollens (einer Grundregel der Aussagenlogik): p -> q, ~q :- ~p (gelesen: Aus ‚wenn p dann q, und nicht-q’ folgt nicht-p).
Bei Bayes ist die Bedingung B das Entscheidende. Ist sie falsch geraten bzw. ‚induktivistisch akkumuliert’ ist die ganze Berechnung falsch. Und zwar, bei völliger Falsifikationsabstinenz, ohne dass die Beteiligten das auch nur bemerken können.
Im Falsifikationismus ist das nicht möglich, weil das Gewicht hier nicht in Genese der Hypothesenentwicklung, sondern in die Überprüfung gelegt wird.
Colin Howson scheint regelrecht stolz auf seinen Rückfall in subjektive "Glaubens- oder Überzeugungsgrade". Für meinen Geschmack wäre er damit besser bei den Kreationisten aufgehoben. Anders gesagt, wie hart soll die angehängte Mathematik denn noch sein können, bei derartig weichen Prämissen?
Ein derart induktivistisches Vorgehen ist im Übrigen gar nicht vereinbar mit der Wahrscheinlichkeitstheorie, denn sie ist deduktiv gültig, genau wie die mathematische Induktion.
Und wenn Max Tegmark (S. 76) sagt: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten …", dann denkt er vermutlich in erster Line an unsere großen unfalsifizierten Theorien: Quanten- und Relativitätstheorie. Er vergisst aber wohl, wie wir dahingekommen sind, nämlich über die Falsifikation unzähliger falscher Vorstellungen durch freie Beobachtung oder Test. Sogar Newtons Theorie ist falsifiziert. Das heißt nicht etwa, dass sie pragmatisch unbrauchbar ist (wir können alles bis hin zu präzisen Mondlandungen mit ihr berechnen – und alles, was es auf der Erde zu berechnen gibt ohnedies). Es heißt einfach nur, das sie durch die Falsifikation als approximativer Spezialfall der Relativitätstheorie gelten muss. Das heißt, wir lernen offenbar aus Falsifikationen.
Wir haben aber auch bei unseren beiden Großen noch Falsifikationen zu erwarten, denn sie widersprechen sich bekanntlich (bzw. liefern unendliche Resultate), sobald extrem große Energien in winzigen Räumen angenommen werden müssen. Hier scheint die Vorstellung von Punktteilchen (String-Theorie) oder sogar die von Teilchen überhaupt den schwarzen Peter zu bekommen (Heinz Dieter Zeh ist der Meinung, dass man alles wellentheoretisch beschreiben kann, und zwar mit dem Standardmodell!). Ausgerechnet Brain Greene (also ein "Konkurrent" aus dem Lager der String-Theoretiker) hält in diesem Zusammenhang Zehs Arbeit The Physical Basis of The Direction of Time (2001) für bahnbrechend. Auch diese Theorien sind momentan nicht direkt falsifizierbar, aber die Erfahrung hat immer wieder gezeigt, dass scheinbar unfalsifizierbare Hypothesen letztlich doch irgendwann wenigstens indirekt überprüft werden können.
Falsifikationen, d. h. erkenntnisspezifische Erwartungsenttäuschungen stellen einen grundsätzlichen Lernprozess dar, der uns fast nie zwingt eine ganze Theorie zu verwerfen. Sie weisen nur auf Fehler in der Theorie hin. Die lassen sich nun aber nicht mit logischen Mitteln ergründen. Aber sie weisen immer auf die Notwendigkeit eines Neubaus hin. Deshalb werden wir durch Falsifikationen auch zu neuen Theorienkonstruktionen angeregt. Im Übrigen fallen doch Falsifikationsversuche, die scheitern, nun zwar nicht gerade mit Bewahrheitungen, aber immer mit vorläufigen Stützungen der betreffenden Theorien zusammen. Man weiß also gar nicht, warum ständig Gegensätze zwischen Verifkationismus und Falsifikationismus beschworen werden, denn diese vorläufigen Stützungen durch misslungene Falsifikationsversuche sind doch so etwas wie Quasi-Verifikationen (während die "induktivistischen Validierungen" eher nicht danach aussehen).
Die sind nun zwar unsicher, wie alles, was Menschen sagen, aber das sollte uns doch langsam nicht mehr nervös machen, angesichts des immer rasanter werdenden Fortschritts der wissenschaftlichen Entwicklung.
Flugzeuge als Strahlensperrbereich?
02.03.2009, Dr. Peter Mohr, Schwäbisch HallKurioserweise fand sich ein identischer Fehler kürzlich in der Februar-Ausgabe des Physik-Journal 8 (2009) Nr.2, S.38.
Die sprachliche Formulierung des Textes ist leider missverständlich. Der Satz müsste besser lauten: "Die Belastung in einem hoch fliegenden Flugzeug wäre im Fall eines Supersturms vergleichbar mit der, die bei einer Computertomografie entsteht." Es ging in diesem Kontext also nicht um den Vergleich eines normalen Flugs mit einer CT, sondern um den Extremfall eines außergewöhnlich starken Sonnensturms, der den Passagieren zusetzt. Ansonsten stimme ich Ihrer Abschätzung zu, dass zwischen den Belastungen, die bei einem normalen Passagierflug und einer CT entstehen, etwa drei Größenordnungen liegen - die CT ist deutlich belastender.
Race for the Cure
02.03.2009, Susan G. Komen Deutschland e.V., Frankfurtvielen Dank für diesen sehr infrormativen Artikel zu Fortschritten in der Brustkrebstherapie.
In der Print Ausgabe zeigen Sie zu unserer großen Freude Bilder von sogenannten "Survivors", Frauen, die Brustkrebs hatten, und in pinkfarbenen T-Shirts am "Race for Cure", der weltweit größten Serie von 5-Kilometer-Läufen zur Heilung von Brustkrebs teilnehmen. Der Name der Organisation, die dahinter steht, ist Susan G. Komen for the Cure (USA), bzw. Susan G. Komen Deutschland e.V., Verein für die Heilung von Brustkrebs (www.komen.de). Wir werben für die Früherkennung von Brustkrebs und finanzieren Modellprojekte, die betroffenen Frauen helfen. Komen in den USA unterstützt auch Forschungsprojekte, die in der Vergangenheit wesentlich dazu beigetragen haben, Brustkrebs zu verstehen und zu behandeln.
Übrigens gibt es auch in Deutschland den im Artikel genannten Wohltätigkeitslauf, in diesem Jahr am 27.9. zum zehnten Mal in Frankfurt am Mainufer, und am 13.9. erstmalig in Meppen im Emsland (www.raceforthecure.de).
"Servicepack" für Sinnsucher
01.03.2009, Heinz Dähling, ElsdorfDa gäbe es vielleicht eine simple Erklärung. Es ist ein Trieb, vergleichbar dem Geschlechtstrieb, zu dem uns die Evolution verholfen hat. Es ist der Drang des Menschen, alle Ereignisse stets in "sinnvolle" Abfolgen zu ordnen, der es ihm ermöglicht, beliebige Lebensräume auf diesem Globus zu besiedeln. Das hat er seinen tierischen Mitbewohnern, die im "hier und jetzt" leben, voraus. Er hat, wie es die Bibel ausdrückt, vom Baume der Erkenntnis gegessen. Erkenntnis heißt, Verstehen zeitlicher Zusammenhänge, aus denen zukunftsgerichtetes Handeln abgeleitet wird. Zeitmessung ist ein zentraler Bestandteil aller frühen Kulturen, steht gewissermaßen am Anfang der Menschwerdung.
Einen Nachteil allerdings hat das Leben in der Zeit, die Erkenntnis der Endlichkeit des eigenen Daseins und der Mangel an Sinn darüber hinaus. Es besteht der Drang, zu suchen und das Problem, nichts zu finden. Dieser "Softwarefehler" würde unweigerlich zum Absturz führen, hätte nicht die Evolution einen "Servicepack" nachgeschoben, die Religiosität, einen physiologisch im Gehirn angelegten Speicher für virtuelle Ziele.
Eine Ergänzung zum "perfekten Kleid"
01.03.2009, Dr. Traugott Schulmeiss, JenaDie starke ABC-Vermutung besagt, daß für jede noch so nahe bei 1 liegende Schranke s > 1 nur endlich viele ABC-Tripel einen Kappa-Wert > s besitzen.
Quotienten die Differenz, den "Exzess"
e(abc) = log(c) - log(rad(abc)).
Im Artikel wurde gezeigt, dass wir beliebig große Werte für e antreffen können, wenn wir immer größere Zahlen untersuchen. Die Spitzenwerte wachsen mindestens wie log(log(rad(abc)))/2, das ist extrem langsam. Aus tieferliegenden Untersuchungen ergibt sich, daß man den erreichbaren Exzess im Vergleich zur Größe von sqrt(log(rad(abc))) analysieren sollte.
Werfen wir einen Blick auf die folgenden bekannten, sehr aufwendig aufgespürten Supertripel:
a = 19*1307 = 24833
b = 7 * 29^2 * 31^8 = 5020969537415167
c = 2^8 * 3^22 * 5^4 = 5020969537440000
rad(abc) = 2 * 3 * 5 * 7 * 19 * 29 * 31 * 1307 = 4688222070
e(abc)= 13.88408
a = 7^2 * 41^2 * 311^3 = 2477678547239
b = 11^16 * 13^2 * 79 = 613474843408551921511
c = 2 * 3^3 * 5^23 * 953 = 613474845886230468750
rad(abc) = 2 * 3 * 5 * 7 * 11 * 13 * 41 * 79 * 311 * 953 = 28828335646110
e(abc) = 16.87329
a = 2^24 * 5^5 * 47^5 * 181^2 = 393927551841835417600000
b = 13^14 * 19 * 103 * 571^2 * 4261 = 10704872737453891276395489673
c = 7^28 * 17 * 37^2 = 10705266665005733111813089673
rad(abc) = 2 * 5 * 7 * 13 * 17 * 19 * 37 * 47 * 103 * 181 * 571 * 4261 = 23184991375250523910
e(abc) = 19.95050
a = 23^8 * 37^4 = 146767394485224241
b = 2^28 * 3^7 * 11^4 * 19^3 * 61 * 127 * 173^2 = 13669290314405085785446416384
c = 5^18 * 17^4 * 43^2 * 4817^2 = 13669290314551853179931640625
rad(abc) = 2 * 3 * 5 * 11 * 17 * 19 * 23 * 37 * 43 * 61 * 127 * 173 * 4817 = 25180873035975641490
e(abc) = 20.11233
Das letzte ist ein Weltrekord in mehrfacher Hinsicht von I. J. Calvo aus dem Jahre 2008.
Die Beispiele zeichnen sich dadurch aus, daß in diesen einmaligen und außerordentlichen Fällen e(abc) etwa 3*sqrt(log(rad(abc))) erreicht (Schranke A). Die Frage entsteht, ob das ein perfektes (beliebig wiederholbar anzutreffendes) Kleid für den Exzess darstellt.
Und wie groß müssen die beteiligten Zahlen sein, damit man etwa einen Exzess von 30, 40 oder 50 erreichen kann?
M. van Frankenhuysen bewies im Jahre 2000 eine schwächere Schranke (C), nämlich dass
e(abc) > 6.07001 * sqrt(log(rad(abc))) / log(log(rad(abc)))
für unendlich viele ABC-Tripel gilt. In seiner Dissertation 1995 vermutete er (nach Anwendung des fruchtbaren, aber nur heuristischen Zufälligkeitsprinzips der Primfaktorverteilung der natürlichen Zahlen) das gegenüber C schnellere Wachstum (Schranke B)
e(abc) > e0 * sqrt( log(rad(abc)) / log(log(rad(abc)))).
Danach sind unendlich viele Tripel auffindbar, wenn e0 < 4, aber nur endlich viele, wenn e0 > 4 (perfekt, aber Widerlegung von Schranke A!).
Stellen wir die Konsequenzen für das Wachstum der beteiligten Tripelzahlen bei vorgegebenem Exzess gegenüber:
Eine vor einigen Jahren durchgeführte und unlängst fortgesetzte Suchrechnung erbrachte 16 noch nicht bekannte Tripel aus riesigen Zahlen, deren Exzess die Schranke B mit e0 = 4 und damit bei weitem die Schranke C übertrifft.
Das größte von ihnen lautet
a = 11^3 * 107^2 * 2962839627547 * p111 = 1 595...(127)
b = 2^52 * 7^42 * 13 * 17^11 * 29^4 * 31^17 * 37^16 * 43 * 53^8 * 61^12 = 87530769602326441009007655660104...(127)
c = 3^52 * 5^65 * 23^15 * 41^5 * 59^34 = 87530769602326441009007655661700...(127)
rad(abc) = 1471734201215077452...(127)
e(abc) = 31.71657
p111 bezeichnet eine Primzahl mit 111 Stellen, (127) steht für 127 weggelassene Dezimalstellen. Die Notation folgt der Konvention des Cunningham-Projekts.
Strukturell kann man das ε aus der ABC-Vermutung so verstehen: Im Funktionenkörperfall ist es gleich 0; im Zahlkörperfall sollte es den Beitrag der archimedischen Bewertungen (den absoluten Betrag) abdecken. Setzt man das ε in den Exponenten, so hat man, um in dem Bild des Artikels zu bleiben, ein passendes Kleid mit strengem klassischen Schnitt. Und das passt auch gut in das Denken der Arithmetischen Geometrie.
Es ist aber ziemlich sicher, dass der Fehlerterm mit dem ε im Exponenten viel schneller wächst als der tatsächliche Fehler, dass also das Kleid für große Werte von A, B und C viel zu weit wird. Die Leute aus der transzendenten Zahlentheorie wollen das abmildern, indem sie den Faktor mit dem Exponenten durch einen langsamer anwachsenden Faktor ersetzen.
Der Ansatz, den Traugott Schulmeiss beschreibt, ist "subexponentiell", dies ist ein Verhalten, das auch bei der Sicherheit von Verschlüsselungsverfahren eine wichtige Rolle spielt.
So wie es aussieht, untersucht er statt der Abschätzung
C/R < d * Rε
(R ist eine Abkürzung für Rad(ABC) ) die Abschätzung
C/R < R *exp(d*log(R)^(1/2)/log log(R)).
Die Zahl log log R ist sehr klein, und wir machen deshalb nicht viel falsch, wenn wir statt dessen die Abschätzung
C < R *exp(d*log(R)^(1/2)*(log log(R))^(1/2))
betrachten, und die ist "klassisch" subexponentiell in log(R) (zwischen polynomialen Wachstum und exponentiellem Wachstum).
Diese Funktion tritt zum Beispiel beim Faktorisieren mit Siebmethoden auf.
Da (sei ε auch noch so klein) Rε exponentiell in log R wächst, ist also die subexponentielle Abschätzung schärfer.
Wie Schulmeiss bemerkt, kann man mehr (teils nur heuristisch begründete) Überlegungen in Arbeiten von M. van Frankenhuysen finden. Außer nach dem Einfluss der Konstanten d zu fragen, wäre es auch interessant zu spekulieren, welcher subexponentielle Exponent (hier: 1/2) optimal wäre.
Geht man etwas weiter und etwa zu beliebigen Zahlkörpern, so wird der Einfluss der archimedischen Bewertungen noch verzwickter.
Es hat sich meines Wissens noch keine einhellige Meinung über das Verhalten von Konstanten oder gar Abschätzungsfunktionen bei Körpererweiterungen durchgesetzt. Hier gibt es Ansätze von Masser.
Im Endeffekt benötigt man ein besseres Verständnis der so genannten Arakelov-Theorie.
Prof. Gerhard Frey, Universität Duisburg-Essen