Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Die von Herrn Löser, dem Autor des Artikels, in seiner Antwort verwendeten Aussagen (ich zitiere:
"doch unter den neuen Maßstäben der internationalen Klimaschutzdebatte"
"Autoindustrie, Wissenschaftler wie Politiker sind endlich der gemeinsamen Meinung, dass das Auto der Zukunft keine herkömmlichen Diesel- oder Benzinmotoren mehr haben, sondern mit Elektrizität angetrieben wird." ) zeigen ein Denken, welches in einer wissenschaftlichen Publikation schon seltsam anmutet. Ist das der Stil von "Spektrum der Wissenschaft"? Ich lese das Blatt heute seit langer Zeit wieder einmal. Wenn alle Artikel und Beiträge so "fundiert" sind wie der von Herrn Löser, werde ich wohl auch wieder Jahre benötigen, um mir Ihr Blatt anzutun.
herzlichen Dank für Ihren schönen Artikel über Grundfragen der Mathematik. Vielleicht liegt es daran, dass Sie von Beginn an den Standpunkt eines bedingten Realisten einnehmen, dass einige Ihrer Ideen in dem Artikel nicht bis zu ihren letzten Konsequenzen ausgeführt werden und dadurch auch einige wichtige Fragestellungen in der Mathematikphilosophie verborgen bleiben. Ich werde daher in diesem Leserbrief den Standpunkt eines „Intuitionisten“ (also nahe dem Standpunkt von Poincaré) einnehmen, um einige Ideen aus dieser Perspektive zu beleuchten und somit Ihren Artikel zu vervollständigen.
Zunächst ein Kommentar zum Intuitionismus: Für die Grundidee des Intuitionismus (Kronecker) sind die natürlichen Zahlen intuitiv (psychologisch) gegeben. Alles andere wird daraus konstruiert (in der Variante von Brouwer ist dann nur noch die „1“ gegeben). Diese Idee findet sich schon bei Gauß. Gauß schrieb in einem Brief an Bessel: „Wir müssen in Demut zugeben, dass, wenn die Zahl bloß unseres Geistes Produkt ist, der Raum auch außer unserem Geist eine Realität hat, der wir a priori ihre Gesetze nicht vollständig vorschreiben können.“ Ausgehend von dieser ambivalenten Sichtweise von Gauß haben sich bei seinen Schülern zwei Denkschulen entwickelt: die „Logiker“ Dedekind, Frege, Wittgenstein etc., sowie Kronecker und die „Intuitionisten“ (Poincaré, Brouwer, Weyl).
Die Logiker gehen aprioristisch vor, die Intuitionisten psychologisch, präziser gesagt psychophysisch (mit dem Anspruch, die Mathematik begrifflich in sich konsistent zu den empirischen Beobachtungen aus Psychologie, Physiologie und Physik zu fassen). Die psychologische Basis mathematischer Grundbegriffe wird hierbei bewusst nicht definitiv festgelegt, da (nach Poincaré) sich der Stand der psychologischen Forschung verändern kann. In diesem Sinne ist die Mathematik nicht sicher, nicht objektiv, nicht mehr oder weniger „fortschreitend in der Erkenntnis“ als andere Wissenschaften, nur dass sie es versteht, die „Krisen und Rückschritte“ besser nachträglich logisch zu verbergen Die Bezeichnungen werden beibehalten und nur deren Bedeutung angepasst (diesen Effekt der „Geschichtsschreibung aus Sicht des dominanten Paradigmas“ hat Thomas Kuhn ausgiebig für andere Wissenschaften dargelegt). So wurde mir von einem Mathematikhistoriker geschildert, wie der Einfluss der Ideen der Bourbaki-Gruppe (einer Gruppe überwiegend französischer Mathematiker, die gemeinsam unter dem Pseudonym „Bourbaki“ publizierten und versucht haben, die gesamte Mathematik konsistent auf die Mengenlehre zurückzuführen; ein Versuch, der gescheitert ist) das mathematische Denken der gesamten Generation des Historikers grundlegend beeinflusst hat. Kurz gesagt, die empirische Bedeutung (Gestalt) der Begriffe hat sich geändert. Doch dies bemerkt nur der Historiker, der sich mit der Veränderung beschäftigt. Im Bewusstsein der aktuellen Wissenschaft geht das Wissen um diese begrifflichen Veränderungen oft verloren, da es nicht mehr gelehrt wird. Die neue Generation von Wissenschaftlern wächst intuitiv mit dem veränderten Begriffsystem auf.
Sie geben hierzu ein interessantes Beispiel: Die euklidische Geometrie wird heute als Spezialfall gesehen. Dieses Beispiel zeigt die Kulturabhängigkeit von Mathematik. Die euklidische Geometrie ist dabei jedoch nicht dieselbe geblieben, da die Grundbegriffe ihre empirische Bedeutung verändert haben. Die Parallelen sind nicht mehr dieselben Parallelen wie für die alten Griechen, da sie damals keine „verschwindende Krümmung“ als Eigenschaft haben konnten. Damit ist Plato (und dem Platonismus) die empirische Basis entzogen (wobei man korrekterweise sagen muss, dass dazu noch eine weitere empirische Widerlegung gehört, nämlich die Widerlegung der „göttlichen Harmonien“, welche die Zahlen nach Ansicht der Pythagoräer ausdrücken sollen; wie Patel (Spektrum 02/09) beschrieben hat, sind Harmonien nicht göttlich, sondern kulturbedingt). In ähnlicher Weise hat Kronecker die (unbemerkte, intuitive) Veränderung der begrifflichen Verwendung des Gleichheitszeichens in der Mathematik festgestellt und der Gestaltpsychologe Max Wertheimer die Synthese von ursprünglich zwei Zahlbegriffen (dem ganzheitlich-gestaltorientieren, z. B. der „1“, und dem unkonkret-symbolhaften des 1, 2, 3, …) zu unserem derzeitigen Zahlbegriff in der Mathematik beschrieben. Ein Blick in andere Kulturen (Indien, China, Babylon, etc.) zeigt, wie unterschiedlich dort im Vergleich zu den alten Griechen Mathematik betrieben wurde. Wie unsere Mathematik aussähe, wenn die dortige Mathematik bis heute mit einer ähnlichen Zahl von Mathematikern wie die westliche Mathematik weiterbetrieben worden wäre, lässt sich nur schwer erahnen. Mathematikanthropologen würden vermutlich zustimmen, dass unsere Mathematik sehr anders sein könnte. Den Unterschied machen (im Sinne Poincarés) die kulturbedingten Konventionen aus (dies war übrigens auch Freges Ansatz in seinem Spätwerk zur Überwindung von Russells Paradoxon).
Die Frage, warum sich Mathematik so erfolgreich auf die empirische Welt anwenden lässt, ist aus intuitionistischer Sicht relativ eindeutig erklärbar: man wendet mathematische Gestalten auf noch nicht erklärte empirische Phänomene an. Wenn sie einigermaßen „passen“, werden sie als „passende Beschreibung“ verwendet. Quine hat gezeigt: Schon unsere Suche nach den physikalischen Phänomenen ist von psychischen Neigungen wie „Vereinfachung“ und der „Suche nach Symmetrien“ geprägt. Technologien werden häufig in anderem Sinne verwendet als dem ursprünglichen. Vieles wird auch ohne konkrete Anwendung entwickelt (z. B. aus Zufall oder in der Grundlagenforschung). Alchemisten wollten häufig Gold herstellen, woraus dann manchmal so etwas „Anwendbares“ wie Porzellan wurde. Maschinen in der modernen Medizintechnik „suchen“ oft nach Anwendungsdiagnosen.
Doch es gibt noch einen weiteren, subtileren Grund für die empirische Anwendbarkeit von mathematischen Ideen: Die mathematischen Ideen haben eine empirische Komponente. Wie der Schüler von Paul Bernays (Bernays war Assistent von Hilbert und Freund von Gödel) und Gonseth (Nachfolger in der Denktradition von Weyl), Alexander Israel Wittenberg festgestellt hat (er ist sozusagen Erbe der Göttinger und der intuitionistischen Tradition; leider 1965 früh verstorben), sind alle Begriffe notwendigerweise abstrakt und empirisch zugleich. Der Unterschied ist nur, dass die so genannten „abstrakten Begriffe“ auf anderen Begriffen aufbauen, deren empirischer Kern je nach Abstraktionsgrad immer stärker versteckt ist. In den so genannten „empirischen Begriffen“ wird dagegen der Begriff stets anhand des Vergleichs mit empirischen Fakten weiterentwickelt. Wenn mathematische Begriffe einen empirischen Kern haben, dann ist es nicht besonders verwunderlich, wenn ihre konsequente Weiterentwicklung eine gewisse Passgenauigkeit an empirische Tatsachen behält. Zudem hat die Mathematik hier den Vorteil, dass die entgegen den intuitiven Ansichten gerichteten Weiterentwicklungen wegen des hohen Abstraktionsgrades nicht so hinderlich sind wie z. B. in der Physik. Sie kann der Physik also „im Weiterdenken“ voraus sein.
Auch physikalische Begriffe sind davon betroffen, da auf der einen Seite jede Messung (Quantifizierung) eine Abstraktion bedeutet und auf der anderen Seite viele physikalische Begriffe nicht mehr „empirisch“, sondern nur noch „abstrakt“ gebildet werden (Beschreibungen dazu finden sich z. B. in Artikeln des Physiknobelpreisträgers Wilczek). Ein Rückgriff auf die Physik hilft also bei einer Begründung eines „realistischen“ Ansatzes in der Mathematik nur bedingt, da es leicht zu einem Henne-Ei Problem kommt. So sind „Objekte“ entgegen landläufiger Meinung keine physikalischen bzw. empirischen Dinge, sondern Gedankendinge (schon abstrahiert). Die Physik kennt Objekte nur auf der idealisierten Ebene, konkret handelt es sich z. B. um „Körper“. Der „Bestätigungsholismus“ von Duhem ist sozusagen nur eine Folge dieses Begriffsbildungsprozesses (bei Duhem in der Herleitung seines Bestätigungsholismus nachzulesen).
Im Sinne Wittenbergs lässt sich nur darüber staunen, dass Mathematiker im Wesentlichen als Platoniker (also an ideale, unveränderliche Objekte glaubend) handeln, obwohl es inkonsistent zu ihrem Realismus ist. Ihr „Realismus“ aber wird durch empirische Beobachtungen widerlegt, welche ihrer bisherigen Intuition widersprechen. Wittenbergs These war, dass in einer Wissenschaft, die so stark auf das Ideal der Vollständigkeit und der inneren Konsistenz setzt wie die Mathematik, dieser Zustand eigentlich unhaltbar sein müsse. Bernays hat ihm darauf geantwortet, dass sich die Widersprüche mit der Zeit pragmatisch lösen würden. Seitdem sind mehr als 40 Jahre vergangen. Man kann Ihren Artikel aus meiner Sicht so verstehen, dass sich an der Situation seitdem nichts geändert hat. Dies führt aus intuitionistischer Sicht zu einer Schlussfolgerung eher entgegen der gängigen Intuition über die so genannte „reine“ Mathematik: Von der Metaebene aus gesehen ist zur Zeit fast alle Mathematik anwendungsbezogen und nicht grundlagenbezogen. Sie hat somit ihre Kulturabhängigkeit eher verstärkt als verringert.
Stellungnahme der Redaktion
In Beantwortung des Leserbriefes von Herrn Siemsen seien noch einige klärende Worte zum Intuitionismus angefügt. Brouwers philosophische Voraussetzungen sind teils der Philosophie Kants entlehnt, teils der Strömung der Phänomenologie. Brouwer akzeptiert die Zeit als apriorische Anschauung, lehnt aber diese für den Raum ab. Seine fundamentale Intuition ist die Folge der zeitlichen Momente und das Durchlaufen von wohl unterschiedenen Einheiten, wie es beim Zählen geschieht. Die Mathematik wird von ihm und seiner Schule als Tätigkeit der introspektiven Konstruktion verstanden, die sich ohne Sprache und Symbole entwickelt. Sprache und Logik haben nur die Aufgabe der Registrierung für die Mitteilung der Resultate an die Mitwelt. Die intuitionistische Schule lehnt die klassische Logik ab, die nur für endliche konstruierte Mengen gültig sei, nicht aber für potentiell unendliche Mengen, und die aktual unendlichen Mengen werden als sinnlos und unkonstruierbar zurückgewiesen. Speziell wird das Prinzip, dass für jede Aussage A sie selbst oder ihre Verneinung gilt, zurückgewiesen, wenn es sich um unendliche Mengen, wie bereits bei den natürlichen Zahlen, handelt.
Obwohl die klassische Definition einer aussagenlogischen oder prädikatenlogischen Formel mit der intuitionistischen übereinstimmt, ist die Interpretation der Formeln und der logischen Konstanten völlig verschieden. Nach Heyting bedeutet die Behauptung einer Formel φ, daß man im Besitz eines Beweises für φ ist. Einen Beweis für (ψ⋀φ) hat man erbracht, wenn man sowohl einen Beweis für ψ als auch für φ vorgestellt hat. Seltsam ist die Deutung der Negation, ¬φ bedeutet so etwas wie "φ ist absurd". Man besitzt einen Beweis für ¬φ, wenn man, von einem Beweis von φ ausgehend, einen Widerspruch zeigen kann. Fremdartig mutet auch die Deutung der Quantoren an. Eine Existenzaussage ∃x φ(x) heißt, dass man ein Objekt a konstruiert hat, für das φ(a) gilt, und ∀x φ(x) meint, dass man in der Lage ist, für jedes a den Beweis von φ(a) anzutreten. Im Logiksystem von Heyting lassen sich wichtige Ableitungsformen nicht durchführen, klassische Tautologien wie φ∨¬φ oder (¬¬φ⇒φ) sind in diesem System nicht ableitbar. Auch in der Quantorenlogik gibt es wichtige Formeln, die klassisch gültig sind, aber intuitionistisch nicht gelten, wie die eigentlich einleuchtende Beziehung (¬∀xφ(x)→∃x¬φ(x) ).
Die methodologisch entscheidende Frage ist nun, ob die philosophische Basis des Intuitionismus eine solche Restriktion des Ableitungsinstrumentariums rechtfertigt, womit die Beweisverfahren wesentlich erschwert werden. Der Intuitionismus verlor wesentlich an Anziehungskraft, als Gödel (Zum intuitionistischen Aussagenkalkül. Akad. Wiss. Wien Math.-nat. Kl. Bd. 69, S. 65-66, 1932) bewies, dass man die klassische Logik und Arithmetik in die intuitionistische übersetzen kann, so dass jede gültige klassische Formel auch intuitionistisch gültig ist und jeder Widerspruch der klassischen Theorie auch in der intuitionistischen wiederzufinden ist. Dieser relative Konsistenzbeweis bedeutet, dass die intuitionistische Logik und Arithmetik nicht sicherer ist als die klassische. Deshalb lohnt es sich nach der Meinung der Mehrzahl der Mathematiker nicht, so viel von der die Eleganz und Reichhaltigkeit der klassischen Mathematik zu opfern.
Den Verzicht auf Pflügen und Direkteinsaat wurde schon seit Jahrzehnten vom Japaner Masanobu Fukuoka ebenso erfolgreich erprobt und angewendet (ohne Chemie und Gentechnik). Ich nehme an, dies hatte Auswirkungen bis in die USA. Er baute auch Reis an, ohne diesen ständig in Wasser zu halten.
So neu sind solche Anwendungen also nicht, sondern bisher vor allem ignoriert worden. Wie auch der im Text erwähnte Bericht des IAASTD (International Assessment of Agricultural Knowledge, Science and Technology for Development). Diese Lösungen sind einfach sehr intelligent und einfach - und wieviel gibt es hier noch zu entdecken!
Die Idee Fukuokas basiert nicht auf der Frage, was kann man tun - sondern auf der Frage, was kann man unterlassen?
Und sicher ist, das Gentechnik an Pflanzen unterlassen werden kann, denn bis heute haben transgene Pflanzen keinen Nutzen erbracht. Was wirklich gefragt sein sollte, ist, wie man intelligente Agrikultur (Landwirtschaft) betreiben kann, welche die Komplexität der Natur zum Vorbild nimmt? Und das bedeutet viel mehr als abhängigkeitsfördernde (teure) Technologie!
In der Rezension wird erklärt, dass der Zusammenhang zwischen den Symmetrien und dem Mondschein noch unklar ist.
Hat nicht Richard Borcherds die "moonshine“-Vermutungen von John McKay mittels einer Vertex-Algebra beweisen können?
Stellungnahme der Redaktion
Das ist richtig. Gleichwohl scheinen die Beteiligten mit dem Ergebnis noch nicht glücklich zu sein. Der Buchautor du Sautoy schreibt auf S. 403: "Obwohl er [Borcherds] den Zusammenhang zwischen der Zahlentheorie und dieser riesigen Symmetrie bewiesen hat, herrscht sonderbarerweise immer noch der Eindruck vor, dass wir diese Verbindung nicht wirklich verstehen." Ein paar Zeilen darunter zitiert du Sautoy den berühmten Zahlentheoretiker John Conway: "Er hat die Verbindung zwar bewiesen, jedoch nicht erklärt."
Ihr sehr interessanter Artikel ist leider an einigen Stellen etwas unpräzise. So ist die Aussage, dass aus einem Molekül Glukose - zumindest theoretisch - je zwei Moleküle Essigsäure und Kohlendioxid sowie vier Moleküle Wasserstoff entstehen, in dieser Form unvollständig. Stellt man eine Reaktionsgleichung auf, fehlen auf der Seite der Edukte zwei Wassermoleküle. Es ist interessant, dass zumindest auf indirektem Weg eine Spaltung von Wasser stattfindet.
C6H12O6 + 2 H2O -> 2 Ch3COOH + 2 CO2 + 4 H2
Die Ausbeute bezogen auf diese Reaktionsgleichung beträgt etwa 56 Prozent.
Betrachtet man die Reaktion unter thermodynamischen Aspekten, so ergibt sich ein Energiebedarf von 92 kJ/mol. Das Ergebnis mag zwar wegen der Verwendung von Daten für Reinstoffe statt wässriger Lösungen für Essigsäure und Glukose unpräzise sein. Ein großer Energiegewinn für die Mikroorganismen ist aber auf dieser Basis sicher nicht möglich.
hierbei handelt es sich um einen Effekt, der die natürliche Linienbreite eines Atoms oder Moleküls verändert. Emissions- oder Absorptionslinien haben bei den jeweiligen Stoffen festgelegte Energien und Lebensdauern (gegeben durch die quantenmechanischen Übergangswahrscheinlichkeiten).
Über die heisenbergsche Unschärferelation ist aber zu der von Null verschiedenen Lebensdauer eines angeregten Zustands auch eine Energieunschärfe verbunden, dies ergibt die "natürliche Linienbreite".
Dies gilt genau so für Emissions- oder Absorptionsbanden, die bei Molekülen durch angeregte Rotation oder Schwingungen entstehen.
Liegt ein Ensemble aus Teilchen vor, die über die brownsche Molekularbewegung, Stark-Effekte oder Van-der-Waals-Kräfte gegenseitig in Wechselwirkung treten, hat das ebenfalls Auswirkungen auf die Lebensdauer der angeregten Zustände, man spricht dann von Linienverbreiterung.
Je nach spezifischer Ursache unterscheidet man zwischen (thermischer) Doppler-Verbreiterung oder mehreren Arten der Druckverbreiterung, die meist nicht oder weniger stark temperaturabhängig sind.
Im hier vorliegenden Fall führt die Verbreiterung der Absorptionsbanden der Treibhausgase dazu, dass diese vom Erdboden Richtung All abgegebene Photonen mit einer größeren Vielfalt von Energien - und damit schlicht mehr Lichtquanten - aufnehmen und in alle Richtungen, also auch wieder zurück zur Erdoberfläche, abstrahlen können.
Ich möchte den Versuch unternehmen, gegenüber dem Hauptartikel und der Stellungnahme von Herrn Maresch eine möglichst unpolemische Meinung abzugeben:
Im Interview-Beitrag von Herrn Wiedenfeld sind nach meiner Meinung einige Aspekte überzeichnet. Ein gewisses Eigeninteresse des Autors möchte ich hierbei nicht komplett verneinen. Von Massenvermehrung und Monokulturen der Killerpflanzen zu sprechen, ist einfach zu hoch gegriffen. Es ist richtig, dass in einigen Regionen Deutschlands das Jakobskreuzkraut (JKK) sich auffällig stark vermehren konnte. Hierfür gibt es plausible Erklärungen. Es kommt immer wieder in der Natur vor, dass sich ein bestimmter Organismus durch temporär günstige Bedingungen im Vorteil sieht. Für das JKK kann es, wie in anderen Fällen, auch wieder zu einer Rückregulierung kommen. JKK kann zwar als anspruchslose Pionierpflanze für die Besiedelung neuer Standorte bezeichnet werden, auf der anderen Seite hat sie keine besonders hohe Konkurrenzkraft und kann wieder verdrängt werden.
JKK ist eine einheimische Giftpflanze wie viele andere Wild- und Zierpflanzen auch. Das Humanrisiko kann praktisch auf Null geregelt werden, indem man keine obskuren Kräuterherkünfte konsumiert. Der theoretische Transferweg über die Nahrungskette als indirekte Toxinaufnahme ist praktisch nicht relevant. Hier greift das zitierte Dosis-Wirkungsprinzip effektiv. Anstelle der giftigen Alkaloide aus bzw. von JKK wären ganz andere natürliche Toxine sinnvoll in den Fokus zu nehmen.
Noch haarsträubender ist das skizzierte Human-Risiko durch den Ackerbau bzw. die Getreideproduktion. JKK kann sich unter einer Ackernutzung nicht entwickeln und das artverwandte Gemeine Kreuzkraut (Senecio vulgaris) ist weder im konventionellen noch im ökologischen Landbau ein nennenswertes Unkraut. Die Belastung von Erntegut ist aus rein technischen Gründen unrealistisch.
Dagegen ist JKK in der Tierernährung klar zu bewerten - es gibt faktisch nur eine Null-Toleranz. Daraus resultiert ein klares Ziel zur Beseitigung der Giftpflanze aus Wiesen und Weiden. In der professionellen landwirtschaftlichen Produktion gibt es sehr effiziente kulturtechnische und chemische Regelungsmöglichkeiten. Problematischer sind aus naturschutztechnischen Gründen extensivierte Grünlandflächen, auf denen naturgemäß JKK ein natürlicher Bestandteil der standortspezifischen Flora sein kann. Damit ist der Aufwuchs dieser Flächen nicht in der Tierfütterung verwertbar, was faktisch ein wirtschaftlicher Schaden für den jeweiligen Flächenbewirtschafter darstellt (kein Ertrag, aber Entsorgungsaufwand).
Aus Vorsorgegründen wäre es wünschenswert, in Nahbereich von Wirtschaftsgrünland keine größeren Bestände von JKK aufkommen zu lassen, da diese als potenzielle Samenquellen für die Besiedelung von Wiesen und Weiden fungieren. Hierzu wäre ein Schnitt vor der Samenbildung ausreichend. Chemie ist nicht notwendig und wäre auf naturräumlichen Flächen äußerst kontraproduktiv, abgesehen von den fachrechtlichen Hinderungsgründen. Alleine aber diese einfachen und umweltverträglichen Regelungseingriffe durch gezielte Mahd sind arbeits- und damit kostenaufwändig für den Flächeninhaber (i.d.R. Kommunen).
Das Vergiftungsrisiko für Sport- und Hobbytiere auf deren Standweiden ist problematischer, weil die notwendige Sachkenntnis häufig weniger ausgeprägt ist. Hier nach staatlicher Fürsorge zu rufen, ist aber ebenfalls übertrieben und konterkariert den mündigen Bürger und dessen Eigenverantwortung vollständig. Im Futtermitteleinkauf müssen einfache Regelungen der Qualitätssicherheit und Haftung nur beachtet und umgesetzt werden.
Abschließend möchte ich noch die scharfen Attacken von Herrn Maresch zum Herbizideinsatz und dem unterstellten Lobbyismus ansprechen. Richtig, der Aufruf zum Herbizideinsatz auf Natur- und Freiflächen ist überzogen, hieraus die böse Chemie im Hintergrund zu vermuten, ist aber genauso unrealistisch. Ich kenne keinen Pflanzenschutzmittelhersteller, der aus wirtschaftlichen Interessen an einem solchen Einsatzgebiet interessiert wäre. Vollkommen unsachgemäß wäre ein Einsatz des nicht selektiven Glyphosat auf natürlichen Standorten des JKK. Also bitte nicht immer gleich den Teufel ("Monsanto") an die Wand mahlen.
Mein Fazit: Es muss halt medial immer wieder eine "neue Sau durch´s Dorf getrieben" werden.
Die teils schon realisierten Zukunftsvisionen werden anschaulich geschildert, und ebenfalls gut ausgeführt wird die Problematik des Datenschutzes dabei, aber das eigentliche Hauptproblem ist m. E. nicht – die freilich wichtige – Frage des Datenschutzes, sondern die resultierende totale Verwaltung des Menschen. Zu Grunde liegt die Vision einer elektronischen Maschinerie, die dem Menschen alles – angeblich – Lästige fehlerfrei abnimmt: Im angeführten Beispiel meldet der Kühlschrank, dass die Milch zur Neige geht, sie wird gleich automatisch nachbestellt, womöglich auch gleich frei Haus geliefert (trinken muss man sie voerst noch selbst!) etc., natürlich mit dem Hintergedanken nicht nur der Arbeitserleichterung, sondern auch eines riesigen Konsumpotentials. Übersehen wird dabei aber, dass die Freiheit des Menschen mit der Fähigkeit beginnt, Fehler zu machen! Elektronische Maschinen machen keine Fehler (nur der programmierende Mensch) und ebenso gibt es bei instinkthaftem Verhalten keine Fehler, nur der mündige Mensch kann sie machen. Leider sehen offensichtlich die meisten Menschen nicht, dass sie mit den – durchaus oft lästigen – Arbeiten auch das Denken und ihre Mündigkeit an die elektronische Maschinerie übergeben.
Zum eindrucksvollen Spezialheft „Die Evolution der Evolution“ möchte ich ein paar Gedanken insbesondere das Kapitel „das Problem mit der Art“ betreffend vorbringen: Unabhängig von der letztlichen Klärung der Definition des Artbegriffes gibt es in der dynamischen Betrachtung eine eindeutige Artbarriere. Es stellt in der geschlechtlichen Fortpflanzung eine Mutation der Chromosomenzahl eine Barriere für die Erzeugung von Nachwuchs mit „Nicht-Mutanten“ dar. Gleichzeitig stellen wir in der Evolutionsgeschichte eine erhebliche Tendenz zur Veränderung der Chromosomenzahl fest. Diese findet sowohl durch Zerbrechen von Chromosomen wie durch Verschmelzen statt. Dies stellt uns auf den ersten Blick vor ein scheinbar unlösbares Problem: Wie kann so eine Mutation zum Merkmal einer neuen Art werden, wenn diese Mutation sich kaum vermehren kann.
Es scheint so, dass das Schema des Baumes – das für die Art-Evolution das angemessene Paradigma ist – vor der Stelle seiner Astbildung zum Verstehen das Paradigma des Wurzelwerks braucht. Es ist nahezu eine Voraussetzung für die Fortpflanzung der Chromosomen-Mutation, dass ein mutiertes Individuum ein anderes mit der gleichen Mutation zur Fortpflanzung findet. Das setzt eine relativ hohe Dichte dieser Mutation voraus. Es muss also in einer Art durch die molekulare Situation an einer Stelle eines Chromosoms oder an den Enden zweier Chromosomen eine besondere „Neigung“ zum Zerbrechen bzw. zum Verschmelzen geben. Da dies aber grundsätzlich eher von Nachteil ist, ist unter „normalen“ Umständen diese Entwicklung in einer Population nicht zu erwarten. Wie kann sie großflächig zustande kommen?
Dies könnte das Ergebnis der Zusammenführung zweier über längere Zeit getrennter Entwicklung unterworfener Unterarten sein, deren nun häufig einsetzende Vermischung durch eine zufällige Disposition vermehrt diese Mutation hervorbringt. So eine Situation ist zum Beispiel dadurch vorstellbar, dass eine großflächige klimatische Veränderung vorher in Nischen isolierte Populationen sich ausbreiten und in Kontakt treten lässt. So würde am Beginn der Ursprungsstelle zur Chromosomensatz-bedingten Artaufspaltung eine Zusammenführung und Vermischung verschiedener Unterarten stehen. Zur Humanevolution: Der Mensch hat verglichen mit den großen Menschenaffen ein Chromosomenpaar weniger, was durch Verschmelzung zweier Paare zustande gekommen ist. Wäre die oben vertretene Annahme richtig, dann wäre die Frage zu stellen, ob so eine beschriebene Ausgangssituation sich deutlicher vor dem Auftauchen der Australopithecinen oder vor dem Auftauchen von Homo findet. Die Vermutung liegt nicht ganz fern, dass die relative Vielfalt der Australopithecinen und ihre Aufspaltung in Unterarten (sowie deren mögliche Vermischung) so eine Ausgangslage bilden könnte.
Die Tendenz, die genetische Ähnlichkeit zwischen den Menschen und den großen Menschenaffen zu betonen, ist derzeit aus nicht unverständlichen Gründen recht groß. Der wirkliche Sprung und Unterschied scheint aber in dieser Veränderung des Chromosomensatzes zu liegen.
Folgende Punkte bzw. Gedanken möchte ich anmerken:
- Wie sieht es mit der Heizung des Innenraums in der kalten Jahreszeit aus. Wurde diese bei Ihren Aussagen, z.B. bei den Reichweitenangaben oder dem Strombedarf pro 100 Kilometer berücksichtigt?
- Bei den Überlegungen zu einem "smart grid", auch die Autobatterien bei erhöhter Stromnachfrage als Stromspeicher mit zu nutzen, ist zu bedenken, dass hierbei die Lebensdauer der Batterien beansprucht wird und kostenseitig zu berücksichtigen ist.
Mathematiker tun im Allgemeinen so, als wären alle ihre Begriffe eindeutig definiert. Lange dachte ich, jeder geschulte Mathematiker könne eine sinnlose Ansammlung mathematischer Zeichen von einer Definition unterscheiden. Ich denke, die folgende Überlegung zeigt, dass dies nicht möglich ist.
Meine Überlegung basiert auf Cantors Beweis mittels Diagonalverfahren, dass die Menge der reellen Zahlen überabzählbar ist. Ich habe mich gefragt, woher denn die überzählbar vielen Zahlen kommen? Sicher gehören die natürlichen Zahlen und die Brüche zur Menge der reellen Zahlen. Aber diese sind bekanntlich abzählbar. Weiter kommen die Wurzeln dazu. Auch von diesen gibt es unendlich viele, aber auch die Wurzeln sind abzählbar. Wenn ich abzählbar viele abzählbare Mengen vereinige, so muss die Vereinigung wieder abzählbar sein. Was gibt es noch für reelle Zahlen? Irgendwo müssen doch die überabzählbar unendlich vielen Zahlen sein! Die Kreiszahl Pi und die Eulersche Zahl e fielen mir noch ein. Ach, so: Alle Zahlen, die sich irgendwie durch Reihen beschreiben lassen. Wie viele gibt es davon wohl? Gibt es noch andere Möglichkeiten, eine reelle Zahl zu definieren?
Da fiel mir plötzlich folgendes auf: In der Mathematik wird nur eine endliche Anzahl verschiedener Zeichen verwendet. Eine mathematische Definition besteht aus einer endlich langen Folge dieser endlich vielen Zeichen. Diese endlich langen Folgen kann ich aber der Länge nach sortiert und alphabetisch geordnet auflisten. Zuerst kommen alle Folgen, die aus nur einem Zeichen bestehen, dann alle mit zwei Zeichen usw. Alle endlich langen Sätze, die mit den mathematischen Zeichen formuliert werden können, sind in dieser Liste enthalten! Die Liste enthält zwar auch ziemlich viel sinnloses Zeugs, aber alle sauberen mathematischen Definitionen sind in der Liste drin!
Wenn aber alle Definitionen in der Liste enthalten sind, dann sind auch alle Definitionen von reellen Zahlen in der Liste drin. Kein noch so brillanter Mathematiker kann eine reelle Zahl definieren, die nicht schon längst in meiner Liste definiert ist. Denn meine Liste enthält alle Definitionen. Cantor behauptete, er könne zu jeder Liste von reellen Zahlen eine reelle Zahl definieren, die nicht in der Liste enthalten sei. Kann gar nicht sein bei meiner Liste! Denn in meiner Liste steht alles drin, was Cantor in seinem ganzen Leben gesagt und geschrieben hat. Und irgendwo, sagen wir an Stelle X, steht da auch: "Nimm Philipp Wehrlis Liste und wende Cantors Diagonalverfahren an." Was geschieht dann an dieser Stelle? Nach Cantor definiert der Satz X eine reelle Zahl, die nicht in der Liste ist. Der Satz X steht aber in der Liste! Wo ist der Haken?
Meine Idee war: Jede reelle Zahl, die sauber definiert werden kann, ist in meiner Liste enthalten. Jede reelle Zahl, die überhaupt je in einer mathematischen Formel auftauchen kann, kommt in der Liste vor. Denn alle endlich langen mathematischen Formeln stehen in der Liste. Weshalb sollen wir uns mit überabzählbar vielen reellen Zahlen herumschlagen, die mit absoluter Sicherheit nie in der Praxis auftauchen? Streichen wir einfach alle weg, die nicht in der Liste stehen! Nur die Zahlen sollen "reell" heißen, die in einem endlich langen Satz definiert werden können.
Dies hätte zwei Vorteile: Erstens wären dies nur abzählbar viele. Denn sie sind ja in meiner Liste der endlichen Zeichenfolgen enthalten. Zweitens könnte sicher niemand eine reelle Zahl definieren, die nicht schon in der Liste der Definitionen enthalten ist. Dies scheint ein Widerspruch zu Cantors Satz zu sein. Ich hätte eine Liste von reellen Zahlen, und niemand könnte eine reelle Zahl nennen, die nicht schon in der Liste steht.
Einen kleinen Haken hat die Sache noch. Ich habe ja nicht eine Liste von reellen Zahlen! Ich habe nur eine Liste von Zeichenfolgen. Viele dieser Zeichenfolgen haben überhaupt nicht mit reellen Zahlen zu tun, sie sind völlig bedeutungslos. Ich muss also zuerst die bedeutungslosen Zeichenfolgen wegstreichen.
Ich habe angenommen, dies sei möglich. Aber wenn ich die bedeutungslosen Zeichenfolgen wegstreichen könnte, dann ergäbe sich ein Widerspruch. Dann hätte ich nämlich wie beschrieben eine Liste von reellen Zahlen, zu der niemand eine reelle Zahl hinzufügen könnte. Aber wie Cantors Satz zeigt, ist dies nicht möglich. Meine Annahme ist also falsch: *Es ist nicht möglich, die bedeutungslosen Zeichenfolgen von den sauberen mathematischen Definitionen zu unterscheiden.* Das ist ungeheuerlich!!! Wie können wir exakte Mathematik betreiben, wenn wir nicht einmal wissen können, ob ein Textabschnitt eine mathematische Definition oder ein unsinniger Buchstabensalat ist?
Erst lange nachdem ich diese Idee hatte, merkte ich, dass sie eng verwandt ist mit einem Satz und einem Beweis, den Turing schon vor 70 Jahren entdeckte (Satz von Turing).
Stellungnahme der Redaktion
Sehr geehrter Herr Wehrli:
In Ihrem Brief haben Sie eine Reihe von begrifflichen Fragen angeschnitten, die in der Tat auch in der Geschichte der Mathematik eine bedeutende Rolle gespielt haben und z. T. heute noch in der Kontroverse stehen.
Wo die Zahlen überhaupt herkommen und welchen existentiellen Status sie besitzen, wird je nach metamathematischer Schulrichtung beantwortet: Für den Realisten sind sie präexistente formale Objekte, für den Formalisten Zeichenketten, für den Intuitionisten bewusste Konstruktionen. Aus den natürlichen Zahlen, deren Heuristik vermutlich in den diskreten Objekten unseres Gesteinsplaneten verankert ist, lässt sich eine Hierarchie immer neuer Zahlentypen mit den ihnen eigenen Gesetzen aufbauen. Man kann hier von einer Art begrifflicher Emergenz sprechen. Mit den einfachsten Zahlen, der geordneten Menge der natürlichen Zahlen, kann man Operationen vornehmen, die aber über die zugrundeliegende Zahlklasse hinausführen. Zumeist entstand dann eine begriffliche Diskussion, ob die dabei notwendig gewordenen neuen formalen Gebilde genuine mathematische Objekte bilden und ob sie in die Gegenstandswelt der Mathematik aufgenommen werden sollen. Dies war bei den negativen, bei den irrationalen und bei den imaginären Zahlen der Fall.
Mit dem Aufkommen der Mengenlehre trat dann auch die Frage auf, wie viele Zahlen es von einem Typus geben kann, aber dazu mussten erst einmal die Beweisverfahren geschaffen werden, wie man die Stufungen im Unendlichen überhaupt unterscheiden kann. Cantors neue Begrifflichkeit erlaubte es, den Begriff der Äquivalenz von Zahlenmengen einzuführen und über die Herstellbarkeit von Bijektionen den Mächtigkeitsbegriff für unendliche Mengen zu definieren, eine Verallgemeinerung des Begriffes der Größe von endlichen Mengen. Für die rationalen Zahlen, aber auch für die algebraischen konnte Cantor beweisen, daß ihnen die kleinste abzählbare Unendlichkeit zukommt, aber die reellen Zahlen erwiesen sich von höherer Mächtigkeit. Eine besondere Rolle kam nun jenen reellen Zahlen zu, die nicht die Wurzeln einer Reihe vom Typus &sqrt;2 bilden und für die Leibniz in Zusammenhang mit dem Problem der Quadratur des Kreises den Namen transzendent, wohl in Anklang ihres besonderen Charakters, vorgeschlagen hatte.
Zuerst befasste man sich mit dem Nachweis der Transzendenz bestimmter reeller Zahlen. Liouville, Hermite und Lindemann zeigten, daß die Liouville - Zahl, e und π transzendent sind. Danach konzentrierte man sich auf die Frage, wie viele transzendente Zahlen es überhaupt gibt, und es zeigte sich, dass fast alle reellen Zahlen transzendent sind. Alan Turing bewies dann, dass die algebraischen Zahlen berechenbar sind, aber die übrigen reellen Zahlen dem unberechenbaren Typ angehören. Man kann das Verhältnis der beiden Klassen von Zahlen auch unter Verwendung des Wahrscheinlichkeitsbegriffs charakterisieren (siehe G. Chaitin: Meta Math! The Quest for Omega, New York 2005). Wenn man nach dem Zufallsprinzip eine reelle Zahl herausgreift, wird man so gut wie sicher eine nicht berechenbare transzendente Zahl treffen. Auch bei der Benennung zeigt sich der überabzählbare Charakter der reellen Zahlen. Namen sind immer bestimmte endliche Ketten von Zeichen aus einem Alphabet einer Sprache, die nach einer algorithmischen Regel gebildet werden. Von diesen Ketten kann es immer nur abzählbar unendlich viele geben, genau so wie dies auch für alle Algorithmen gilt. Deshalb sind die meisten reellen Zahlen nicht nur nicht berechenbar, sondern auch nicht benennbar. Diese Situation wird noch deutlicher, wenn man zu umfassenderen Mengen aufsteigt, etwa die Menge aller eindeutigen reellen Funktionen betrachtet, welche eine noch höhere Mächtigkeit als die des Kontinuums besitzt. Diese können erst recht nicht mehr mit individuellen Namen ausgestattet werden. Da nach dem Satz von Cantor sich zu jeder Menge M die Potenzmenge P(M) bilden läßt, die von höherer Mächtigkeit als M ist, erscheint es einsichtig, daß der elementare intuitive Vorgang des expliziten Benennens und individuellen Charakterisierens aus dem elementaren Bereich der abzählbaren Mengen nicht auf Mengen höherer Mächtigkeit übertragbar ist.
Dennoch kann der Körper der reellen Zahlen, unabhängig von diesen begrifflichen Fragen der Bezeichnung, ausgehend vom Körper der rationalen Zahlen exakt definiert werden. Dies kann nach der Methode des Dedekindschen Schnittes oder als Konstruktion mit Cauchy-Folgen oder mittels des Verfahrens der Intervallschachtelung axiomatisch geschehen. Es ist also nicht so, dass es in der Mathematik nicht klar wäre, was eine reelle Zahl ist. Nur zeigen sich, wie bei vielen Axiomensystemen, unerwartete dem Alltagsverstand zuwiderlaufende Folgerungen. Die Idee, die reellen Zahlen auf die algebraischen einzuschränken, würde starke Nachteile bei den praktischen Anwendungen der Mathematik mit sich bringen, da viele wichtige Funktionen, wie die trigonometrischen Funktionen, die Exponential- und Logarithmusfunktion, als Werte reelle Zahlen besitzen.
Den kontraintuitiven Charakter der reellen Zahlen hat übrigens Émile Borel 1927 demonstriert, indem er gezeigt hat, dass man das gesamte Wissen der Menschheit, ja sogar eine unendliche Menge von Information in eine reelle Zahl hineinstecken kann und dass diese dann, als ein Art Orakel, sämtliche in einer Sprache stellbaren Fragen beantworten können müsste. Er sah dies damals vom Standpunkt des Konstruktivismus als eine absurde Konsequenz der Verwendung reeller Zahlen an, aber der Hauptstrom der mathematischen Forschung ist ihm nicht in dieser Einschätzung gefolgt.
In meinen Augen ist das Kontinuumsproblem ein Scheinproblem, geboren aus der Unschärfe des Begriffs der Menge aller reellen Zahlen, sowie dem der Menge aller ihrer Teilmengen und der Menge aller Abbildungen zwischen diesen. Mit einem endlichen Alphabet kann man schließlich nur abzählbar viele dieser Objekte beschreiben, und es bedarf selbstbezüglicher (imprädikativer) Begriffsbildungen – deren Gefährdung, Widersprüche zu erzeugen, des öfteren im "Spektrum" diskutiert wurde –, um über diese grundsätzliche Abzählbarkeit hinauszukommen.
Das Prinzip des ontologischen Maximalismus ist nun wirklich Glaubenssache. Ein Prinzip, mit dem sich die Existenz Gottes beweisen lässt, ist doch per se verdächtig. Auf diesem Prinzip ein mathematisches Universum zu errichten, ist sicher nur eine von mehreren Möglichkeiten. Es gibt auch ein Prinzip der "pragmatischen Bescheidenheit": Man beschränke sich auf das mathematische Universum der im gödelschen Sinne konstruktiblen Mengen.
Der gödelsche Beweis der relativen Konsistenz der Kontinuumshypothese zeigt gerade, dass in diesem Universum die Kontinuumshypothese gilt. Warum ist dieses Prinzip sinnvoll, und zwar für mich in gleichem Maße wie das des ontologischen Maximalismus? Antwort: Ich kenne keinen mathematischen Satz (der sich nun nicht gerade mit der Kontinuumshypothese oder großen Kardinalzahlen beschäftigt), der sich in diesem Universum nicht aussprechen und beweisen ließe. (Oliver Deiser schreibt in seinem schönen Buch "Reelle Zahlen" (Springer 2007) im Kleingedruckten auf Seite 392, er könne sich durchaus vorstellen, dass die Mathematik den Weg dieses Prinzips historisch gegangen wäre.)
Darüber hinaus möchte ich folgende Wette eingehen: Es werden irgendwann auch "gute" Axiome der Mengenlehre gefunden werden, auf Grund derer sich zeigen lässt, dass es unendlich viele Kardinalzahlen zwischen ℵ 0 und 2 ℵ 0 gibt, und nicht nur eine.
Dies soll kein Angriff gegen Delahaye sein, dessen Artikel ich mit Interesse gelesen habe. Schon gar nicht möchte ich gegen Cantor polemisieren, dessen Beweis der Überabzählbarkeit der Menge der reellen Zahlen zu meinen beeindruckendsten Jugenderlebnissen zählt. Ihm musste sich das Kontinuumsproblem doch ganz natürlich stellen.
Also, dass man diese Methode auch verwenden kann, um Alibis zu überprüfen, scheint mir doch sehr weit hergeholt! Welches Alibi besteht denn darin, dass jemand sagt: "Ich bin zwei Wochen im Ausland gewesen!"? Im Allgemeinen lauten schwer überprüfbare Alibis doch eher "Hab in meinem Zimmer geschlafen" oder "Bin ganz allein spazieren gegangen" und beziehen sich auf einen eng begrenzten Zeitraum von wenigen Stunden. Wie will man einem Haar die Information entlocken, dass der Verdächtige genau während dieser Stunde(n) an einem nur wenige Kilometer (oder wenige 100 Meter) vom Tatort entfernten Ort war? Allenfalls könnte man die Haaranalyse forensisch einsetzen, um herauszufinden, in welchem Land ein Mordopfer seine letzten Lebenswochen verbracht hat. Aber Alibis - eher nein!
Von der "Allerjüngsten Leserin" war unser Leser Dr. Wilfried Stoll so amüsiert, dass er uns ein Bild von seinem Spektrum-lesenden Dackel geschickt hat - eine, wie er sagt "recht simple Fotomontage, die den Witz der Zuschrift unterstreichen soll":
Er schreibt dazu:
"Auch unser vierjähriger Dackel lasst es sich seit zwei Jahren nicht nehmen, allmonatlich das "Spektrum der Wissenschaft" zu lesen. Fragen gestellt hat er noch nie. Vermutlich weiß er schon alles."
Anmerkungen zur Replik von Herrn Löser auf Dr. Krüger
07.06.2009, Dr. Detlef Orth, Köln(ich zitiere:
"doch unter den neuen Maßstäben der internationalen Klimaschutzdebatte"
"Autoindustrie, Wissenschaftler wie Politiker sind endlich der gemeinsamen Meinung, dass das Auto der Zukunft keine herkömmlichen Diesel- oder Benzinmotoren mehr haben, sondern mit Elektrizität angetrieben wird."
)
zeigen ein Denken, welches in einer wissenschaftlichen Publikation schon seltsam anmutet. Ist das der Stil von "Spektrum der Wissenschaft"? Ich lese das Blatt heute seit langer Zeit wieder einmal. Wenn alle Artikel und Beiträge so "fundiert" sind wie der von Herrn Löser, werde ich wohl auch wieder Jahre benötigen, um mir Ihr Blatt anzutun.
Eine intuitionistische Perspektive
06.06.2009, Hayo Siemsen, Wadgassen, Saarlandherzlichen Dank für Ihren schönen Artikel über Grundfragen der Mathematik. Vielleicht liegt es daran, dass Sie von Beginn an den Standpunkt eines bedingten Realisten einnehmen, dass einige Ihrer Ideen in dem Artikel nicht bis zu ihren letzten Konsequenzen ausgeführt werden und dadurch auch einige wichtige Fragestellungen in der Mathematikphilosophie verborgen bleiben. Ich werde daher in diesem Leserbrief den Standpunkt eines „Intuitionisten“ (also nahe dem Standpunkt von Poincaré) einnehmen, um einige Ideen aus dieser Perspektive zu beleuchten und somit Ihren Artikel zu vervollständigen.
Zunächst ein Kommentar zum Intuitionismus: Für die Grundidee des Intuitionismus (Kronecker) sind die natürlichen Zahlen intuitiv (psychologisch) gegeben. Alles andere wird daraus konstruiert (in der Variante von Brouwer ist dann nur noch die „1“ gegeben). Diese Idee findet sich schon bei Gauß. Gauß schrieb in einem Brief an Bessel: „Wir müssen in Demut zugeben, dass, wenn die Zahl bloß unseres Geistes Produkt ist, der Raum auch außer unserem Geist eine Realität hat, der wir a priori ihre Gesetze nicht vollständig vorschreiben können.“ Ausgehend von dieser ambivalenten Sichtweise von Gauß haben sich bei seinen Schülern zwei Denkschulen entwickelt: die „Logiker“ Dedekind, Frege, Wittgenstein etc., sowie Kronecker und die „Intuitionisten“ (Poincaré, Brouwer, Weyl).
Die Logiker gehen aprioristisch vor, die Intuitionisten psychologisch, präziser gesagt psychophysisch (mit dem Anspruch, die Mathematik begrifflich in sich konsistent zu den empirischen Beobachtungen aus Psychologie, Physiologie und Physik zu fassen). Die psychologische Basis mathematischer Grundbegriffe wird hierbei bewusst nicht definitiv festgelegt, da (nach Poincaré) sich der Stand der psychologischen Forschung verändern kann. In diesem Sinne ist die Mathematik nicht sicher, nicht objektiv, nicht mehr oder weniger „fortschreitend in der Erkenntnis“ als andere Wissenschaften, nur dass sie es versteht, die „Krisen und Rückschritte“ besser nachträglich logisch zu verbergen Die Bezeichnungen werden beibehalten und nur deren Bedeutung angepasst (diesen Effekt der „Geschichtsschreibung aus Sicht des dominanten Paradigmas“ hat Thomas Kuhn ausgiebig für andere Wissenschaften dargelegt). So wurde mir von einem Mathematikhistoriker geschildert, wie der Einfluss der Ideen der Bourbaki-Gruppe (einer Gruppe überwiegend französischer Mathematiker, die gemeinsam unter dem Pseudonym „Bourbaki“ publizierten und versucht haben, die gesamte Mathematik konsistent auf die Mengenlehre zurückzuführen; ein Versuch, der gescheitert ist) das mathematische Denken der gesamten Generation des Historikers grundlegend beeinflusst hat. Kurz gesagt, die empirische Bedeutung (Gestalt) der Begriffe hat sich geändert. Doch dies bemerkt nur der Historiker, der sich mit der Veränderung beschäftigt. Im Bewusstsein der aktuellen Wissenschaft geht das Wissen um diese begrifflichen Veränderungen oft verloren, da es nicht mehr gelehrt wird. Die neue Generation von Wissenschaftlern wächst intuitiv mit dem veränderten Begriffsystem auf.
Sie geben hierzu ein interessantes Beispiel: Die euklidische Geometrie wird heute als Spezialfall gesehen. Dieses Beispiel zeigt die Kulturabhängigkeit von Mathematik. Die euklidische Geometrie ist dabei jedoch nicht dieselbe geblieben, da die Grundbegriffe ihre empirische Bedeutung verändert haben. Die Parallelen sind nicht mehr dieselben Parallelen wie für die alten Griechen, da sie damals keine „verschwindende Krümmung“ als Eigenschaft haben konnten. Damit ist Plato (und dem Platonismus) die empirische Basis entzogen (wobei man korrekterweise sagen muss, dass dazu noch eine weitere empirische Widerlegung gehört, nämlich die Widerlegung der „göttlichen Harmonien“, welche die Zahlen nach Ansicht der Pythagoräer ausdrücken sollen; wie Patel (Spektrum 02/09) beschrieben hat, sind Harmonien nicht göttlich, sondern kulturbedingt). In ähnlicher Weise hat Kronecker die (unbemerkte, intuitive) Veränderung der begrifflichen Verwendung des Gleichheitszeichens in der Mathematik festgestellt und der Gestaltpsychologe Max Wertheimer die Synthese von ursprünglich zwei Zahlbegriffen (dem ganzheitlich-gestaltorientieren, z. B. der „1“, und dem unkonkret-symbolhaften des 1, 2, 3, …) zu unserem derzeitigen Zahlbegriff in der Mathematik beschrieben. Ein Blick in andere Kulturen (Indien, China, Babylon, etc.) zeigt, wie unterschiedlich dort im Vergleich zu den alten Griechen Mathematik betrieben wurde. Wie unsere Mathematik aussähe, wenn die dortige Mathematik bis heute mit einer ähnlichen Zahl von Mathematikern wie die westliche Mathematik weiterbetrieben worden wäre, lässt sich nur schwer erahnen. Mathematikanthropologen würden vermutlich zustimmen, dass unsere Mathematik sehr anders sein könnte. Den Unterschied machen (im Sinne Poincarés) die kulturbedingten Konventionen aus (dies war übrigens auch Freges Ansatz in seinem Spätwerk zur Überwindung von Russells Paradoxon).
Die Frage, warum sich Mathematik so erfolgreich auf die empirische Welt anwenden lässt, ist aus intuitionistischer Sicht relativ eindeutig erklärbar: man wendet mathematische Gestalten auf noch nicht erklärte empirische Phänomene an. Wenn sie einigermaßen „passen“, werden sie als „passende Beschreibung“ verwendet. Quine hat gezeigt: Schon unsere Suche nach den physikalischen Phänomenen ist von psychischen Neigungen wie „Vereinfachung“ und der „Suche nach Symmetrien“ geprägt. Technologien werden häufig in anderem Sinne verwendet als dem ursprünglichen. Vieles wird auch ohne konkrete Anwendung entwickelt (z. B. aus Zufall oder in der Grundlagenforschung). Alchemisten wollten häufig Gold herstellen, woraus dann manchmal so etwas „Anwendbares“ wie Porzellan wurde. Maschinen in der modernen Medizintechnik „suchen“ oft nach Anwendungsdiagnosen.
Doch es gibt noch einen weiteren, subtileren Grund für die empirische Anwendbarkeit von mathematischen Ideen: Die mathematischen Ideen haben eine empirische Komponente. Wie der Schüler von Paul Bernays (Bernays war Assistent von Hilbert und Freund von Gödel) und Gonseth (Nachfolger in der Denktradition von Weyl), Alexander Israel Wittenberg festgestellt hat (er ist sozusagen Erbe der Göttinger und der intuitionistischen Tradition; leider 1965 früh verstorben), sind alle Begriffe notwendigerweise abstrakt und empirisch zugleich. Der Unterschied ist nur, dass die so genannten „abstrakten Begriffe“ auf anderen Begriffen aufbauen, deren empirischer Kern je nach Abstraktionsgrad immer stärker versteckt ist. In den so genannten „empirischen Begriffen“ wird dagegen der Begriff stets anhand des Vergleichs mit empirischen Fakten weiterentwickelt. Wenn mathematische Begriffe einen empirischen Kern haben, dann ist es nicht besonders verwunderlich, wenn ihre konsequente Weiterentwicklung eine gewisse Passgenauigkeit an empirische Tatsachen behält. Zudem hat die Mathematik hier den Vorteil, dass die entgegen den intuitiven Ansichten gerichteten Weiterentwicklungen wegen des hohen Abstraktionsgrades nicht so hinderlich sind wie z. B. in der Physik. Sie kann der Physik also „im Weiterdenken“ voraus sein.
Auch physikalische Begriffe sind davon betroffen, da auf der einen Seite jede Messung (Quantifizierung) eine Abstraktion bedeutet und auf der anderen Seite viele physikalische Begriffe nicht mehr „empirisch“, sondern nur noch „abstrakt“ gebildet werden (Beschreibungen dazu finden sich z. B. in Artikeln des Physiknobelpreisträgers Wilczek). Ein Rückgriff auf die Physik hilft also bei einer Begründung eines „realistischen“ Ansatzes in der Mathematik nur bedingt, da es leicht zu einem Henne-Ei Problem kommt. So sind „Objekte“ entgegen landläufiger Meinung keine physikalischen bzw. empirischen Dinge, sondern Gedankendinge (schon abstrahiert). Die Physik kennt Objekte nur auf der idealisierten Ebene, konkret handelt es sich z. B. um „Körper“. Der „Bestätigungsholismus“ von Duhem ist sozusagen nur eine Folge dieses Begriffsbildungsprozesses (bei Duhem in der Herleitung seines Bestätigungsholismus nachzulesen).
Im Sinne Wittenbergs lässt sich nur darüber staunen, dass Mathematiker im Wesentlichen als Platoniker (also an ideale, unveränderliche Objekte glaubend) handeln, obwohl es inkonsistent zu ihrem Realismus ist. Ihr „Realismus“ aber wird durch empirische Beobachtungen widerlegt, welche ihrer bisherigen Intuition widersprechen. Wittenbergs These war, dass in einer Wissenschaft, die so stark auf das Ideal der Vollständigkeit und der inneren Konsistenz setzt wie die Mathematik, dieser Zustand eigentlich unhaltbar sein müsse. Bernays hat ihm darauf geantwortet, dass sich die Widersprüche mit der Zeit pragmatisch lösen würden. Seitdem sind mehr als 40 Jahre vergangen. Man kann Ihren Artikel aus meiner Sicht so verstehen, dass sich an der Situation seitdem nichts geändert hat. Dies führt aus intuitionistischer Sicht zu einer Schlussfolgerung eher entgegen der gängigen Intuition über die so genannte „reine“ Mathematik: Von der Metaebene aus gesehen ist zur Zeit fast alle Mathematik anwendungsbezogen und nicht grundlagenbezogen. Sie hat somit ihre Kulturabhängigkeit eher verstärkt als verringert.
In Beantwortung des Leserbriefes von Herrn Siemsen seien noch einige klärende Worte zum Intuitionismus angefügt.
Brouwers philosophische Voraussetzungen sind teils der Philosophie Kants entlehnt, teils der Strömung der Phänomenologie. Brouwer akzeptiert die Zeit als apriorische Anschauung, lehnt aber diese für den Raum ab. Seine fundamentale Intuition ist die Folge der zeitlichen Momente und das Durchlaufen von wohl unterschiedenen Einheiten, wie es beim Zählen geschieht. Die Mathematik wird von ihm und seiner Schule als Tätigkeit der introspektiven Konstruktion verstanden, die sich ohne Sprache und Symbole entwickelt. Sprache und Logik haben nur die Aufgabe der Registrierung für die Mitteilung der Resultate an die Mitwelt. Die intuitionistische Schule lehnt die klassische Logik ab, die nur für endliche konstruierte Mengen gültig sei, nicht aber für potentiell unendliche Mengen, und die aktual unendlichen Mengen werden als sinnlos und unkonstruierbar zurückgewiesen. Speziell wird das Prinzip, dass für jede Aussage A sie selbst oder ihre Verneinung gilt, zurückgewiesen, wenn es sich um unendliche Mengen, wie bereits bei den natürlichen Zahlen, handelt.
Obwohl die klassische Definition einer aussagenlogischen oder prädikatenlogischen Formel mit der intuitionistischen übereinstimmt, ist die Interpretation der Formeln und der logischen Konstanten völlig verschieden. Nach Heyting bedeutet die Behauptung einer Formel φ, daß man im Besitz eines Beweises für φ ist. Einen Beweis für (ψ⋀φ) hat man erbracht, wenn man sowohl einen Beweis für ψ als auch für φ vorgestellt hat. Seltsam ist die Deutung der Negation, ¬φ bedeutet so etwas wie "φ ist absurd". Man besitzt einen Beweis für ¬φ, wenn man, von einem Beweis von φ ausgehend, einen Widerspruch zeigen kann.
Fremdartig mutet auch die Deutung der Quantoren an. Eine Existenzaussage ∃x φ(x) heißt, dass man ein Objekt a konstruiert hat, für das φ(a) gilt, und ∀x φ(x) meint, dass man in der Lage ist, für jedes a den Beweis von φ(a) anzutreten. Im Logiksystem von Heyting lassen sich wichtige Ableitungsformen nicht durchführen, klassische Tautologien wie φ∨¬φ oder (¬¬φ⇒φ) sind in diesem System nicht ableitbar. Auch in der Quantorenlogik gibt es wichtige Formeln, die klassisch gültig sind, aber intuitionistisch nicht gelten, wie die eigentlich einleuchtende Beziehung (¬∀xφ(x)→∃x¬φ(x) ).
Die methodologisch entscheidende Frage ist nun, ob die philosophische Basis des Intuitionismus eine solche Restriktion des Ableitungsinstrumentariums rechtfertigt, womit die Beweisverfahren wesentlich erschwert werden. Der Intuitionismus verlor wesentlich an Anziehungskraft, als Gödel (Zum intuitionistischen Aussagenkalkül. Akad. Wiss. Wien Math.-nat. Kl. Bd. 69, S. 65-66, 1932) bewies, dass man die klassische Logik und Arithmetik in die intuitionistische übersetzen kann, so dass jede gültige klassische Formel auch intuitionistisch gültig ist und jeder Widerspruch der klassischen Theorie auch in der intuitionistischen wiederzufinden ist. Dieser relative Konsistenzbeweis bedeutet, dass die intuitionistische Logik und Arithmetik nicht sicherer ist als die klassische. Deshalb lohnt es sich nach der Meinung der Mehrzahl der Mathematiker nicht, so viel von der die Eleganz und Reichhaltigkeit der klassischen Mathematik zu opfern.
Bernulf Kanitscheider
Masanobu Fukuoka
05.06.2009, D. Heinzmann, ZürichSo neu sind solche Anwendungen also nicht, sondern bisher vor allem ignoriert worden. Wie auch der im Text erwähnte Bericht des IAASTD (International Assessment of Agricultural Knowledge, Science and Technology for Development). Diese Lösungen sind einfach sehr intelligent und einfach - und wieviel gibt es hier noch zu entdecken!
Die Idee Fukuokas basiert nicht auf der Frage, was kann man tun - sondern auf der Frage, was kann man unterlassen?
Und sicher ist, das Gentechnik an Pflanzen unterlassen werden kann, denn bis heute haben transgene Pflanzen keinen Nutzen erbracht. Was wirklich gefragt sein sollte, ist, wie man intelligente Agrikultur (Landwirtschaft) betreiben kann, welche die Komplexität der Natur zum Vorbild nimmt? Und das bedeutet viel mehr als abhängigkeitsfördernde (teure) Technologie!
Moonshine-Vermutung
04.06.2009, J. Brehe, PollhagenHat nicht Richard Borcherds die "moonshine“-Vermutungen von John McKay mittels einer Vertex-Algebra beweisen können?
Das ist richtig. Gleichwohl scheinen die Beteiligten mit dem Ergebnis noch nicht glücklich zu sein. Der Buchautor du Sautoy schreibt auf S. 403: "Obwohl er [Borcherds] den Zusammenhang zwischen der Zahlentheorie und dieser riesigen Symmetrie bewiesen hat, herrscht sonderbarerweise immer noch der Eindruck vor, dass wir diese Verbindung nicht wirklich verstehen." Ein paar Zeilen darunter zitiert du Sautoy den berühmten Zahlentheoretiker John Conway: "Er hat die Verbindung zwar bewiesen, jedoch nicht erklärt."
Wolfgang Blum
Offene Fragen
03.06.2009, Josef Mittendorfer, VöcklabruckC6H12O6 + 2 H2O -> 2 Ch3COOH + 2 CO2 + 4 H2
Die Ausbeute bezogen auf diese Reaktionsgleichung beträgt etwa 56 Prozent.
Betrachtet man die Reaktion unter thermodynamischen Aspekten, so ergibt sich ein Energiebedarf von 92 kJ/mol. Das Ergebnis mag zwar wegen der Verwendung von Daten für Reinstoffe statt wässriger Lösungen für Essigsäure und Glukose unpräzise sein. Ein großer Energiegewinn für die Mikroorganismen ist aber auf dieser Basis sicher nicht möglich.
Druckverbreiterung
03.06.2009, H. SextlWas ist denn das? Eine Fehlfunktion des Druckers?
H. Sextl
Sehr geehrter Herr Sextl,
hierbei handelt es sich um einen Effekt, der die natürliche Linienbreite eines Atoms oder Moleküls verändert. Emissions- oder Absorptionslinien haben bei den jeweiligen Stoffen festgelegte Energien und Lebensdauern (gegeben durch die quantenmechanischen Übergangswahrscheinlichkeiten).
Über die heisenbergsche Unschärferelation ist aber zu der von Null verschiedenen Lebensdauer eines angeregten Zustands auch eine Energieunschärfe verbunden, dies ergibt die "natürliche Linienbreite".
Dies gilt genau so für Emissions- oder Absorptionsbanden, die bei Molekülen durch angeregte Rotation oder Schwingungen entstehen.
Liegt ein Ensemble aus Teilchen vor, die über die brownsche Molekularbewegung, Stark-Effekte oder Van-der-Waals-Kräfte gegenseitig in Wechselwirkung treten, hat das ebenfalls Auswirkungen auf die Lebensdauer der angeregten Zustände, man spricht dann von Linienverbreiterung.
Je nach spezifischer Ursache unterscheidet man zwischen (thermischer) Doppler-Verbreiterung oder mehreren Arten der Druckverbreiterung, die meist nicht oder weniger stark temperaturabhängig sind.
Im hier vorliegenden Fall führt die Verbreiterung der Absorptionsbanden der Treibhausgase dazu, dass diese vom Erdboden Richtung All abgegebene Photonen mit einer größeren Vielfalt von Energien - und damit schlicht mehr Lichtquanten - aufnehmen und in alle Richtungen, also auch wieder zurück zur Erdoberfläche, abstrahlen können.
Mit freundlichen Grüßen
Oliver Dreißigacker
Redaktion spektrumdirekt
KEINE Panik!
03.06.2009, Klaus Gehring, TegernbachIm Interview-Beitrag von Herrn Wiedenfeld sind nach meiner Meinung einige Aspekte überzeichnet. Ein gewisses Eigeninteresse des Autors möchte ich hierbei nicht komplett verneinen. Von Massenvermehrung und Monokulturen der Killerpflanzen zu sprechen, ist einfach zu hoch gegriffen. Es ist richtig, dass in einigen Regionen Deutschlands das Jakobskreuzkraut (JKK) sich auffällig stark vermehren konnte. Hierfür gibt es plausible Erklärungen. Es kommt immer wieder in der Natur vor, dass sich ein bestimmter Organismus durch temporär günstige Bedingungen im Vorteil sieht. Für das JKK kann es, wie in anderen Fällen, auch wieder zu einer Rückregulierung kommen. JKK kann zwar als anspruchslose Pionierpflanze für die Besiedelung neuer Standorte bezeichnet werden, auf der anderen Seite hat sie keine besonders hohe Konkurrenzkraft und kann wieder verdrängt werden.
JKK ist eine einheimische Giftpflanze wie viele andere Wild- und Zierpflanzen auch. Das Humanrisiko kann praktisch auf Null geregelt werden, indem man keine obskuren Kräuterherkünfte konsumiert. Der theoretische Transferweg über die Nahrungskette als indirekte Toxinaufnahme ist praktisch nicht relevant. Hier greift das zitierte Dosis-Wirkungsprinzip effektiv. Anstelle der giftigen Alkaloide aus bzw. von JKK wären ganz andere natürliche Toxine sinnvoll in den Fokus zu nehmen.
Noch haarsträubender ist das skizzierte Human-Risiko durch den Ackerbau bzw. die Getreideproduktion. JKK kann sich unter einer Ackernutzung nicht entwickeln und das artverwandte Gemeine Kreuzkraut (Senecio vulgaris) ist weder im konventionellen noch im ökologischen Landbau ein nennenswertes Unkraut. Die Belastung von Erntegut ist aus rein technischen Gründen unrealistisch.
Dagegen ist JKK in der Tierernährung klar zu bewerten - es gibt faktisch nur eine Null-Toleranz. Daraus resultiert ein klares Ziel zur Beseitigung der Giftpflanze aus Wiesen und Weiden. In der professionellen landwirtschaftlichen Produktion gibt es sehr effiziente kulturtechnische und chemische Regelungsmöglichkeiten. Problematischer sind aus naturschutztechnischen Gründen extensivierte Grünlandflächen, auf denen naturgemäß JKK ein natürlicher Bestandteil der standortspezifischen Flora sein kann. Damit ist der Aufwuchs dieser Flächen nicht in der Tierfütterung verwertbar, was faktisch ein wirtschaftlicher Schaden für den jeweiligen Flächenbewirtschafter darstellt (kein Ertrag, aber Entsorgungsaufwand).
Aus Vorsorgegründen wäre es wünschenswert, in Nahbereich von Wirtschaftsgrünland keine größeren Bestände von JKK aufkommen zu lassen, da diese als potenzielle Samenquellen für die Besiedelung von Wiesen und Weiden fungieren. Hierzu wäre ein Schnitt vor der Samenbildung ausreichend. Chemie ist nicht notwendig und wäre auf naturräumlichen Flächen äußerst kontraproduktiv, abgesehen von den fachrechtlichen Hinderungsgründen. Alleine aber diese einfachen und umweltverträglichen Regelungseingriffe durch gezielte Mahd sind arbeits- und damit kostenaufwändig für den Flächeninhaber (i.d.R. Kommunen).
Das Vergiftungsrisiko für Sport- und Hobbytiere auf deren Standweiden ist problematischer, weil die notwendige Sachkenntnis häufig weniger ausgeprägt ist. Hier nach staatlicher Fürsorge zu rufen, ist aber ebenfalls übertrieben und konterkariert den mündigen Bürger und dessen Eigenverantwortung vollständig. Im Futtermitteleinkauf müssen einfache Regelungen der Qualitätssicherheit und Haftung nur beachtet und umgesetzt werden.
Abschließend möchte ich noch die scharfen Attacken von Herrn Maresch zum Herbizideinsatz und dem unterstellten Lobbyismus ansprechen. Richtig, der Aufruf zum Herbizideinsatz auf Natur- und Freiflächen ist überzogen, hieraus die böse Chemie im Hintergrund zu vermuten, ist aber genauso unrealistisch. Ich kenne keinen Pflanzenschutzmittelhersteller, der aus wirtschaftlichen Interessen an einem solchen Einsatzgebiet interessiert wäre. Vollkommen unsachgemäß wäre ein Einsatz des nicht selektiven Glyphosat auf natürlichen Standorten des JKK. Also bitte nicht immer gleich den Teufel ("Monsanto") an die Wand mahlen.
Mein Fazit: Es muss halt medial immer wieder eine "neue Sau durch´s Dorf getrieben" werden.
K. Gehring aus Bayern
Totale Verwaltung des Menschen
03.06.2009, Dr. Dieter Spies, EgmatingLeider sehen offensichtlich die meisten Menschen nicht, dass sie mit den – durchaus oft lästigen – Arbeiten auch das Denken und ihre Mündigkeit an die elektronische Maschinerie übergeben.
Gedanken zum Problem mit der Art
03.06.2009, Andreas Schlüter, BerlinUnabhängig von der letztlichen Klärung der Definition des Artbegriffes gibt es in der dynamischen Betrachtung eine eindeutige Artbarriere. Es stellt in der geschlechtlichen Fortpflanzung eine Mutation der Chromosomenzahl eine Barriere für die Erzeugung von Nachwuchs mit „Nicht-Mutanten“ dar. Gleichzeitig stellen wir in der Evolutionsgeschichte eine erhebliche Tendenz zur Veränderung der Chromosomenzahl fest. Diese findet sowohl durch Zerbrechen von Chromosomen wie durch Verschmelzen statt. Dies stellt uns auf den ersten Blick vor ein scheinbar unlösbares Problem: Wie kann so eine Mutation zum Merkmal einer neuen Art werden, wenn diese Mutation sich kaum vermehren kann.
Es scheint so, dass das Schema des Baumes – das für die Art-Evolution das angemessene Paradigma ist – vor der Stelle seiner Astbildung zum Verstehen das Paradigma des Wurzelwerks braucht. Es ist nahezu eine Voraussetzung für die Fortpflanzung der Chromosomen-Mutation, dass ein mutiertes Individuum ein anderes mit der gleichen Mutation zur Fortpflanzung findet. Das setzt eine relativ hohe Dichte dieser Mutation voraus. Es muss also in einer Art durch die molekulare Situation an einer Stelle eines Chromosoms oder an den Enden zweier Chromosomen eine besondere „Neigung“ zum Zerbrechen bzw. zum Verschmelzen geben. Da dies aber grundsätzlich eher von Nachteil ist, ist unter „normalen“ Umständen diese Entwicklung in einer Population nicht zu erwarten. Wie kann sie großflächig zustande kommen?
Dies könnte das Ergebnis der Zusammenführung zweier über längere Zeit getrennter Entwicklung unterworfener Unterarten sein, deren nun häufig einsetzende Vermischung durch eine zufällige Disposition vermehrt diese Mutation hervorbringt. So eine Situation ist zum Beispiel dadurch vorstellbar, dass eine großflächige klimatische Veränderung vorher in Nischen isolierte Populationen sich ausbreiten und in Kontakt treten lässt. So würde am Beginn der Ursprungsstelle zur Chromosomensatz-bedingten Artaufspaltung eine Zusammenführung und Vermischung verschiedener Unterarten stehen.
Zur Humanevolution: Der Mensch hat verglichen mit den großen Menschenaffen ein Chromosomenpaar weniger, was durch Verschmelzung zweier Paare zustande gekommen ist. Wäre die oben vertretene Annahme richtig, dann wäre die Frage zu stellen, ob so eine beschriebene Ausgangssituation sich deutlicher vor dem Auftauchen der Australopithecinen oder vor dem Auftauchen von Homo findet. Die Vermutung liegt nicht ganz fern, dass die relative Vielfalt der Australopithecinen und ihre Aufspaltung in Unterarten (sowie deren mögliche Vermischung) so eine Ausgangslage bilden könnte.
Die Tendenz, die genetische Ähnlichkeit zwischen den Menschen und den großen Menschenaffen zu betonen, ist derzeit aus nicht unverständlichen Gründen recht groß. Der wirkliche Sprung und Unterschied scheint aber in dieser Veränderung des Chromosomensatzes zu liegen.
Stromheizung im Elektroauto?
03.06.2009, Gerd Zelck, Seevetal- Wie sieht es mit der Heizung des Innenraums in der kalten Jahreszeit aus. Wurde diese bei Ihren Aussagen, z.B. bei den Reichweitenangaben oder dem Strombedarf pro 100 Kilometer berücksichtigt?
- Bei den Überlegungen zu einem "smart grid", auch die Autobatterien bei erhöhter Stromnachfrage als Stromspeicher mit zu nutzen, ist zu bedenken, dass hierbei die Lebensdauer der Batterien beansprucht wird und kostenseitig zu berücksichtigen ist.
Grenzen der Mathematik
03.06.2009, Philipp Wehrli, Winterthur, SchweizMeine Überlegung basiert auf Cantors Beweis mittels Diagonalverfahren, dass die Menge der reellen Zahlen überabzählbar ist. Ich habe mich gefragt, woher denn die überzählbar vielen Zahlen kommen? Sicher gehören die natürlichen Zahlen und die Brüche zur Menge der reellen Zahlen. Aber diese sind bekanntlich abzählbar. Weiter kommen die Wurzeln dazu. Auch von diesen gibt es unendlich viele, aber auch die Wurzeln sind abzählbar. Wenn ich abzählbar viele abzählbare Mengen vereinige, so muss die Vereinigung wieder abzählbar sein. Was gibt es noch für reelle Zahlen? Irgendwo müssen doch die überabzählbar unendlich vielen Zahlen sein! Die Kreiszahl Pi und die Eulersche Zahl e fielen mir noch ein. Ach, so: Alle Zahlen, die sich irgendwie durch Reihen beschreiben lassen. Wie viele gibt es davon wohl? Gibt es noch andere Möglichkeiten, eine reelle Zahl zu definieren?
Da fiel mir plötzlich folgendes auf: In der Mathematik wird nur eine endliche Anzahl verschiedener Zeichen verwendet. Eine mathematische Definition besteht aus einer endlich langen Folge dieser endlich vielen Zeichen. Diese endlich langen Folgen kann ich aber der Länge nach sortiert und alphabetisch geordnet auflisten. Zuerst kommen alle Folgen, die aus nur einem Zeichen bestehen, dann alle mit zwei Zeichen usw. Alle endlich langen Sätze, die mit den mathematischen Zeichen formuliert werden können, sind in dieser Liste enthalten! Die Liste enthält zwar auch ziemlich viel sinnloses Zeugs, aber alle sauberen mathematischen Definitionen sind in der Liste drin!
Wenn aber alle Definitionen in der Liste enthalten sind, dann sind auch alle Definitionen von reellen Zahlen in der Liste drin. Kein noch so brillanter Mathematiker kann eine reelle Zahl definieren, die nicht schon längst in meiner Liste definiert ist. Denn meine Liste enthält alle Definitionen. Cantor behauptete, er könne zu jeder Liste von reellen Zahlen eine reelle Zahl definieren, die nicht in der Liste enthalten sei. Kann gar nicht sein bei meiner Liste! Denn in meiner Liste steht alles drin, was Cantor in seinem ganzen Leben gesagt und geschrieben hat. Und irgendwo, sagen wir an Stelle X, steht da auch: "Nimm Philipp Wehrlis Liste und wende Cantors Diagonalverfahren an." Was geschieht dann an dieser Stelle? Nach Cantor definiert der Satz X eine reelle Zahl, die nicht in der Liste ist. Der Satz X steht aber in der Liste! Wo ist der Haken?
Meine Idee war: Jede reelle Zahl, die sauber definiert werden kann, ist in meiner Liste enthalten. Jede reelle Zahl, die überhaupt je in einer mathematischen Formel auftauchen kann, kommt in der Liste vor. Denn alle endlich langen mathematischen Formeln stehen in der Liste. Weshalb sollen wir uns mit überabzählbar vielen reellen Zahlen herumschlagen, die mit absoluter Sicherheit nie in der Praxis auftauchen? Streichen wir einfach alle weg, die nicht in der Liste stehen! Nur die Zahlen sollen "reell" heißen, die in einem endlich langen Satz definiert werden können.
Dies hätte zwei Vorteile: Erstens wären dies nur abzählbar viele. Denn sie sind ja in meiner Liste der endlichen Zeichenfolgen enthalten. Zweitens könnte sicher niemand eine reelle Zahl definieren, die nicht schon in der Liste der Definitionen enthalten ist. Dies scheint ein Widerspruch zu Cantors Satz zu sein. Ich hätte eine Liste von reellen Zahlen, und niemand könnte eine reelle Zahl nennen, die nicht schon in der Liste steht.
Einen kleinen Haken hat die Sache noch. Ich habe ja nicht eine Liste von reellen Zahlen! Ich habe nur eine Liste von Zeichenfolgen. Viele dieser Zeichenfolgen haben überhaupt nicht mit reellen Zahlen zu tun, sie sind völlig bedeutungslos. Ich muss also zuerst die bedeutungslosen Zeichenfolgen wegstreichen.
Ich habe angenommen, dies sei möglich. Aber wenn ich die bedeutungslosen Zeichenfolgen wegstreichen könnte, dann ergäbe sich ein Widerspruch. Dann hätte ich nämlich wie beschrieben eine Liste von reellen Zahlen, zu der niemand eine reelle Zahl hinzufügen könnte. Aber wie Cantors Satz zeigt, ist dies nicht möglich. Meine Annahme ist also falsch:
*Es ist nicht möglich, die bedeutungslosen Zeichenfolgen von den sauberen mathematischen Definitionen zu unterscheiden.* Das ist ungeheuerlich!!! Wie können wir exakte Mathematik betreiben, wenn wir nicht einmal wissen können, ob ein Textabschnitt eine mathematische Definition oder ein unsinniger Buchstabensalat ist?
Erst lange nachdem ich diese Idee hatte, merkte ich, dass sie eng verwandt ist mit einem Satz und einem Beweis, den Turing schon vor 70 Jahren entdeckte (Satz von Turing).
Sehr geehrter Herr Wehrli:
In Ihrem Brief haben Sie eine Reihe von begrifflichen Fragen angeschnitten, die in der Tat auch in der Geschichte der Mathematik eine bedeutende Rolle gespielt haben und z. T. heute noch in der Kontroverse stehen.
Wo die Zahlen überhaupt herkommen und welchen existentiellen Status sie besitzen, wird je nach metamathematischer Schulrichtung beantwortet: Für den Realisten sind sie präexistente formale Objekte, für den Formalisten Zeichenketten, für den Intuitionisten bewusste Konstruktionen. Aus den natürlichen Zahlen, deren Heuristik vermutlich in den diskreten Objekten unseres Gesteinsplaneten verankert ist, lässt sich eine Hierarchie immer neuer Zahlentypen mit den ihnen eigenen Gesetzen aufbauen. Man kann hier von einer Art begrifflicher Emergenz sprechen. Mit den einfachsten Zahlen, der geordneten Menge der natürlichen Zahlen, kann man Operationen vornehmen, die aber über die zugrundeliegende Zahlklasse hinausführen. Zumeist entstand dann eine begriffliche Diskussion, ob die dabei notwendig gewordenen neuen formalen Gebilde genuine mathematische Objekte bilden und ob sie in die Gegenstandswelt der Mathematik aufgenommen werden sollen. Dies war bei den negativen, bei den irrationalen und bei den imaginären Zahlen der Fall.
Mit dem Aufkommen der Mengenlehre trat dann auch die Frage auf, wie viele Zahlen es von einem Typus geben kann, aber dazu mussten erst einmal die Beweisverfahren geschaffen werden, wie man die Stufungen im Unendlichen überhaupt unterscheiden kann. Cantors neue Begrifflichkeit erlaubte es, den Begriff der Äquivalenz von Zahlenmengen einzuführen und über die Herstellbarkeit von Bijektionen den Mächtigkeitsbegriff für unendliche Mengen zu definieren, eine Verallgemeinerung des Begriffes der Größe von endlichen Mengen. Für die rationalen Zahlen, aber auch für die algebraischen konnte Cantor beweisen, daß ihnen die kleinste abzählbare Unendlichkeit zukommt, aber die reellen Zahlen erwiesen sich von höherer Mächtigkeit. Eine besondere Rolle kam nun jenen reellen Zahlen zu, die nicht die Wurzeln einer Reihe vom Typus &sqrt;2 bilden und für die Leibniz in Zusammenhang mit dem Problem der Quadratur des Kreises den Namen transzendent, wohl in Anklang ihres besonderen Charakters, vorgeschlagen hatte.
Zuerst befasste man sich mit dem Nachweis der Transzendenz bestimmter reeller Zahlen. Liouville, Hermite und Lindemann zeigten, daß die Liouville - Zahl, e und π transzendent sind. Danach konzentrierte man sich auf die Frage, wie viele transzendente Zahlen es überhaupt gibt, und es zeigte sich, dass fast alle reellen Zahlen transzendent sind. Alan Turing bewies dann, dass die algebraischen Zahlen berechenbar sind, aber die übrigen reellen Zahlen dem unberechenbaren Typ angehören. Man kann das Verhältnis der beiden Klassen von Zahlen auch unter Verwendung des Wahrscheinlichkeitsbegriffs charakterisieren (siehe G. Chaitin: Meta Math! The Quest for Omega, New York 2005). Wenn man nach dem Zufallsprinzip eine reelle Zahl herausgreift, wird man so gut wie sicher eine nicht berechenbare transzendente Zahl treffen. Auch bei der Benennung zeigt sich der überabzählbare Charakter der reellen Zahlen. Namen sind immer bestimmte endliche Ketten von Zeichen aus einem Alphabet einer Sprache, die nach einer algorithmischen Regel gebildet werden. Von diesen Ketten kann es immer nur abzählbar unendlich viele geben, genau so wie dies auch für alle Algorithmen gilt. Deshalb sind die meisten reellen Zahlen nicht nur nicht berechenbar, sondern auch nicht benennbar. Diese Situation wird noch deutlicher, wenn man zu umfassenderen Mengen aufsteigt, etwa die Menge aller eindeutigen reellen Funktionen betrachtet, welche eine noch höhere Mächtigkeit als die des Kontinuums besitzt. Diese können erst recht nicht mehr mit individuellen Namen ausgestattet werden. Da nach dem Satz von Cantor sich zu jeder Menge M die Potenzmenge P(M) bilden läßt, die von höherer Mächtigkeit als M ist, erscheint es einsichtig, daß der elementare intuitive Vorgang des expliziten Benennens und individuellen Charakterisierens aus dem elementaren Bereich der abzählbaren Mengen nicht auf Mengen höherer Mächtigkeit übertragbar ist.
Dennoch kann der Körper der reellen Zahlen, unabhängig von diesen begrifflichen Fragen der Bezeichnung, ausgehend vom Körper der rationalen Zahlen exakt definiert werden. Dies kann nach der Methode des Dedekindschen Schnittes oder als Konstruktion mit Cauchy-Folgen oder mittels des Verfahrens der Intervallschachtelung axiomatisch geschehen. Es ist also nicht so, dass es in der Mathematik nicht klar wäre, was eine reelle Zahl ist. Nur zeigen sich, wie bei vielen Axiomensystemen, unerwartete dem Alltagsverstand zuwiderlaufende Folgerungen. Die Idee, die reellen Zahlen auf die algebraischen einzuschränken, würde starke Nachteile bei den praktischen Anwendungen der Mathematik mit sich bringen, da viele wichtige Funktionen, wie die trigonometrischen Funktionen, die Exponential- und Logarithmusfunktion, als Werte reelle Zahlen besitzen.
Den kontraintuitiven Charakter der reellen Zahlen hat übrigens Émile Borel 1927 demonstriert, indem er gezeigt hat, dass man das gesamte Wissen der Menschheit, ja sogar eine unendliche Menge von Information in eine reelle Zahl hineinstecken kann und dass diese dann, als ein Art Orakel, sämtliche in einer Sprache stellbaren Fragen beantworten können müsste. Er sah dies damals vom Standpunkt des Konstruktivismus als eine absurde Konsequenz der Verwendung reeller Zahlen an, aber der Hauptstrom der mathematischen Forschung ist ihm nicht in dieser Einschätzung gefolgt.
Bernulf Kanitscheider
Kontinuumsproblem ein Scheinproblem
02.06.2009, Prof. a. D. Dr. F. Ischebeck, MünsterDas Prinzip des ontologischen Maximalismus ist nun wirklich Glaubenssache. Ein Prinzip, mit dem sich die Existenz Gottes beweisen lässt, ist doch per se verdächtig. Auf diesem Prinzip ein mathematisches Universum zu errichten, ist sicher nur eine von mehreren Möglichkeiten. Es gibt auch ein Prinzip der "pragmatischen Bescheidenheit": Man beschränke sich auf das mathematische Universum der im gödelschen Sinne konstruktiblen Mengen.
Der gödelsche Beweis der relativen Konsistenz der Kontinuumshypothese zeigt gerade, dass in diesem Universum die Kontinuumshypothese gilt. Warum ist dieses Prinzip sinnvoll, und zwar für mich in gleichem Maße wie das des ontologischen Maximalismus? Antwort: Ich kenne keinen mathematischen Satz (der sich nun nicht gerade mit der Kontinuumshypothese oder großen Kardinalzahlen beschäftigt), der sich in diesem Universum nicht aussprechen und beweisen ließe. (Oliver Deiser schreibt in seinem schönen Buch "Reelle Zahlen" (Springer 2007) im Kleingedruckten auf Seite 392, er könne sich durchaus vorstellen, dass die Mathematik den Weg dieses Prinzips historisch gegangen wäre.)
Darüber hinaus möchte ich folgende Wette eingehen: Es werden irgendwann auch "gute" Axiome der Mengenlehre gefunden werden, auf Grund derer sich zeigen lässt, dass es unendlich viele Kardinalzahlen zwischen ℵ 0 und 2 ℵ 0 gibt, und nicht nur eine.
Dies soll kein Angriff gegen Delahaye sein, dessen Artikel ich mit Interesse gelesen habe. Schon gar nicht möchte ich gegen Cantor polemisieren, dessen Beweis der Überabzählbarkeit der Menge der reellen Zahlen zu meinen beeindruckendsten Jugenderlebnissen zählt. Ihm musste sich das Kontinuumsproblem doch ganz natürlich stellen.
Weit hergeholt
31.05.2009, Liane Mayer, WienWelches Alibi besteht denn darin, dass jemand sagt: "Ich bin zwei Wochen im Ausland gewesen!"? Im Allgemeinen lauten schwer überprüfbare Alibis doch eher "Hab in meinem Zimmer geschlafen" oder "Bin ganz allein spazieren gegangen" und beziehen sich auf einen eng begrenzten Zeitraum von wenigen Stunden. Wie will man einem Haar die Information entlocken, dass der Verdächtige genau während dieser Stunde(n) an einem nur wenige Kilometer (oder wenige 100 Meter) vom Tatort entfernten Ort war?
Allenfalls könnte man die Haaranalyse forensisch einsetzen, um herauszufinden, in welchem Land ein Mordopfer seine letzten Lebenswochen verbracht hat. Aber Alibis - eher nein!
Massenfehler
29.05.2009, Daniel Schiller, KölnTierischster Leser
29.05.2009, Dr. Wilfried Stoll, MöhneseeEr schreibt dazu:
"Auch unser vierjähriger Dackel lasst es sich seit zwei Jahren nicht nehmen, allmonatlich das "Spektrum der Wissenschaft" zu lesen. Fragen gestellt hat er noch nie. Vermutlich weiß er schon alles."