Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Die Uneindeutigkeit der Zahldarstellung ist eine implizite (und scheinbar irritierende) Eigenschaft unseres Stellenwertsystems, das uns andererseits großen Komfort in der praktischen Verarbeitung von Zahlen bietet. Die Idee, dass wir deswegen neue Objekte in der Menge der reellen Zahlen akzeptieren müssen (etwa "Infinitesimale" oder Zahlen, die "kleiner als jede reelle Zahl" sind), ist keine zweckdienliche Erweiterung der Menge der reellen Zahlen, sondern eine abstruse Rückprojektion von formalen Eigentümlichkeiten der (im Grunde beliebigen) Zahldarstellung in den mathematischen Apparat der reellen Zahlen. Die "unendlich kleinen Größen", erfunden vor 400 Jahren von Bonaventure Cavalieri für das "Prinzip der Indivisiblen", waren ein erster Einstieg in die Infinitesimalrechnung. Aber schon damals haben kluge Köpfe die Idee der unendlich kleinen Größen als logisch zu riskante Konstruktion abgelehnt (und doch wurde das Konzept noch etliche Male wieder ausgegraben).
Aus der Sicht der reellen Zahlen gibt es also stets nur die eine Zahl, die man auf verschiedene Weise schreiben kann. Insofern macht die Frage, ob 1 gleich 0,999... ist, mathematisch gar keinen Sinn. Die Frage, ob die beiden Schreibweisen zwei voneinander unterscheidbare Werte bezeichnen könnten oder müssten oder der Größe nach geordnet werden könnten, hat es im Ernst nie gegeben. Die "Beweise" für die Gleichheit, die Frau Bischoff beschreibt, waren natürlich keine Beweise, sondern eigentlich nur Beispiele dafür, dass die beiden Schreibweisen sich miteinander vertragen und widerspruchsfrei in den mathematischen Formalismus einfügen. Zugleich zeigen diese Beispiele, dass der Versuch, die hinter den unterschiedlichen Darstellungen versteckten mathematischen Objekte zu unterscheiden, die Einführung ganz unsinniger Hilfskonstrukte erfordert.
Die Mathematiker der letzten 300 Jahre haben die doppelten Darstellungen vielleicht manchmal als "Schönheitsfehler" des Stellenwert-Systems, aber sicher nie als reparaturbedürftigen Defekt in der Definition der reellen Zahlen empfunden. Und selbst dieser "Schönheitsfehler" wurde 1872 ganz nebenbei durch Dedekind in seinem Aufsatz "Stetigkeit und Irrationalzahlen" gelöst, in dem er die reellen Zahlen als Grenzwerte ("limes") von rationalen Folgen erklärte ("Dedekindscher Schnitt") und dadurch die nebeneinander existierenden Welten der Grenzwerte und der reellen Zahlen miteinander zur Deckung brachte .
Das wars dann: 0,999... beschreibt nämlich gerade die rationale Folge, die durch die rationalen Zahlen 9/10, 99/100, 999/1000, ... erzeugt wird. Der Grenzwert dieser Folge ist genau 1,0. "Reelle Zahlen" und "Grenzwerte von Folgen" sind einfach nur zwei Ausdrücke für die selbe Sache - nun also nicht mehr nur zwei "zufällig" mögliche alternative Schreibweisen, sondern definitiv das selbe Ding, wobei die Schreibweise 0,999... eine der unendlich vielen möglichen Folgen andeutet, die 1,0 als Grenzwert haben. Auch die Frage der "Größer-/Kleiner-Ordnung" der Grenzwerte hatte Dedekind in seinem Aufsatz von 1872 im gleichen Sinne erledigt erledigt. Kurzum: "gleicher Grenzwert bedeutet GLEICHHEIT".
Darum also: "Was soll denn nun noch diese Diskussion?"
Zur Vollständigkeit der reellen Zahlen hatte ich schon etwas in meinem ersten Leserbeitrag zu dieser Kolumne geschrieben.
Nun zu der Konstruktion von reellen Zahlen, welche zwischen 0,999... und 1 liegen, falls 0,999... < 1 ist (da ja die reellen Zahlen vollständig sind¹).
Falls 0,999... < 1 ist, so gilt für (1+0,999...)/2 nun 0,999... < (1+0,999...)/2 < 1, wie man dann leicht nachrechnen kann ;-). Die Zahl (1+0,999...)/2 wäre dabei übrigens der Mittelwert zwischen den Zahlen 0,999... und 1. Weiter wären dann für jede natürliche Zahl n und jede natürliche Zahl m (wobei ich 0 als keine natürliche Zahl ansehe, auch wenn dieses manche Professoren machen) nun auch 0,999... < (n+ m * 0,999...)/(n+m) < 1.
Seien nun x und y zwei solcher Zahlen, d.h. z.B. x=(n+m*0,999...)/(n+m) und z=(l+k*0,999...)/(l+k), wobei l und k auch zwei natürliche Zahlen (mit n ungleich l und m ungleich k) sind. Dann kann man mit x und z auch wieder weitere Zahlen konstruieren, welche zwischen 0,999... und 1 liegen. Z.B. würden die Zahlen (n * z + m * x)/(n+m) für beliebige natürliche Zahlen n und m nun zwischen 0,999... und 1 liegen (wobei n und m nicht notwendigerweise die gleichen natürlichen Zahlen bezeichnen müssen, wie die zur Nutzung der Definition von c genutzten n und m). Diese Konstruktion kann man nun, genauso wie man unendliche Kettenbrüche konstruieren kann, nun unendlich oft fortsetzen.
(Der Leser mache sich bitte hierbei klar, dass, sofern man nun 0,999... = 1 annimmt, auch die ganzen oben konstruierten Zahlen nun auch jeweils 1 ergeben würde).
Die Nutzung solcher Zahlen wäre allerdings recht unhandlich, da man eben Brüche n/m (für natürliche oder ganze Zahlen n und m - mit m ungleich 0, da Division durch 0 nicht erlaubt ist) nun nicht in eine Schreibweise im Zehnerdezimalsystem konvertieren kann (darf), sofern sich nun dabei eine periodische Zahl ergeben würde (also die g-adische Entwicklung nicht nach einer endlichen Stelle "abbrechen" würde), da die g-adische Entwicklung (bzw. periodische Zahl) nun jeweils nicht dem "zugehörigen" Bruch entsprechen würde. Genauso dürfte man dann übrigens Zahlen im Zehnerdezimalsystem, sofern die Darstellung nun periodisch wäre, nun nicht in einem Bruch umwandeln. Damit würden sich nun größere Probleme ergeben nun solche "Kettenbrüche" (der "unendlichen oder endlichen Art") zu vereinfachen.
Nun kann man allerdings nicht nur mit natürlichen Zahlen (wie m und n) als Koeffizienten nun, sofern man 0,999... < 1 annimmt, Zahlen (n+m*0,999...)/(n+m) konstruieren, welche zwischen 0,999... und 1 liegen, sondern kann anstelle der natürlichen Zahlen auch beliebige positive rationale Zahlen nehmen (bzw. sogar allgemeiner beliebige positive reelle Zahlen). D.h. für jedes paar von positiven rationalen (bzw. positiven reellen) Zahlen a und b wäre dann auch die Zahl (a*1 + b * 0,999...)/(a+b) = (a + b * 0,999...)/(a+b) nun zwischen 0,999... und 1.
Recht witzig wird dieses Ganze dann, wenn man für die positive reelle Zahl a nun a=0,999... setzt und z.B. für b nun 1 setzt. Dann hätte man nun die Zahl (0,999... * 1+ 1* 0,999...)/(1+0,999...)= (0,999...+ 0,999...)/(1,999...)=(2*0,999...)/(1,999...).
An dieser Stelle kann man sich dann (weiter) überlegen, dass natürlich auch für jede natürliche Zahl n dann die Zahl (n*0,999...)/(n-1+0,999...) zwischen 0,999... und 1 liegen würde.
Natürlich kann man auch für a und b nun jeweils Zahlen der Form (0,999...)^n (mit beliebigen positiven reellen Zahlen) betrachten. Also z.B. die Zahl ((0,999...)^n * 1 + (0,999...)^m * 0,999...)/((0,999...)^n+(0,999...)^m). Oder man könnte auch die Zahl ((0,999...)^(0,999...)*1+ 1* 0,999...)/((0,999...)^(0,999...)+1) betrachten.
Auch wäre dann die Zahl (0,999...)^(0,999...) zwischen 0,999... und 1 und allgemeiner auch die Zahlen (0,999...)^((0,999...)^(0,999...)), (0,999...)^((0,999...)^((0,999...)^(0,999...))), ...
Der Fantasie bzgl. der Komplexität der Konstruktion ist dabei keine Grenzen gesetzt, sofern man nur sicherstellt, dass (a) die jeweils dabei konstruierten Zahlen bzw. konstruierte Darstellung einer Zahl (wenn man nun 0,999... = 1 annimmt), dann auch wirklich jeweils 1 ergibt, (b) in dem Term, welcher zur Konstruktion der Zahl genutzt wird der Term 0,999... vorkommt, welcher sich nicht wegkürzen läßt (sofern man 0,999... < 1 annimmt), und (c) der Term auch nicht zu 0,999... vereinfacht werden kann (sofern man 0,999... < 1 annimmt; Aussagen ohne Beweis, da der Beweis trivial wäre² ;-) ).
Eine Preisfrage, welche sich dann in vielen Fällen stellen würde, wäre, ob nun gewisse Darstellungen von Zahlen nun jeweils die gleiche Zahl darstellen oder nicht, wobei dann eine Beantwortung der jeweiligen Frage dann in vielen Fällen alles andere als trivial wäre (wobei ich diese Aussage für trivial halte und deshalb keine weitere Begründung oder ähnliches dafür angebe - siehe Fußnote 2 bzgl. einem Kommentar zum Wort "trivial"). Man könnte sich überlegen, dass für gewisse Paare von Darstellungen von Zahlen nun die Entscheidung, ob beide Darstellungen die gleiche Zahl darstellen, nun mindestens so kompliziert sein könnte, wie die Lösung des Postschen Korrespondenzproblems (oder - "äquivalent" - die Lösung des allgemeinen Halteproblems bei Turingmaschinen), obwohl bei Annahme von 0,999...= 1 nun beide Darstellungen (des Paares) nun jeweils die Zahl 1 darstellen würden.
ps. Ich kenne nur eine Person, welche nun Spaß an der Nutzung von obigen konstruierten Zahlen haben würde (weitere mögliche Personen, wären übrigens real existierende Varianten der Comic-Figuren Black Hat und Danish der XKCD-Comics).
¹) Also jede Cauchy-Folge über den reellen Zahlen (bzw. Cauchy-Folge dessen Folgenglieder alles reelle Zahlen sind) auch einen Grenzwert in den reellen Zahlen hat.
²) Das Wort trivial wird übrigens gerne von Mathematik-Professoren (und Mathematik-Professorinnen) genutzt, wenn diese keinen Bock haben einen langen Beweis für eine Behauptung aufzuschreiben, wobei im Einzelfall der etwaige lange Beweis dann sogar fehlerhaft sein könnte (bzw. unvollständig wäre) oder aber die Behauptung eigentlich falsch ist. Ich überlasse es dem Leser zu entscheiden, ob ich aus einem analogen Grund nun auf einen Beweis der Aussage/Behauptung verzichtet habe (oder nur um diese Fußnote schreiben zu können nun das Wort trivial im obigen Text genutzt habe).
Die Begründung, weswegen die Münze sich 3 statt 2 Mal um sich selbst drehte, fand ich irreführend. Da selbst wenn die Orangen Kugeln entlang einer Graden angeordnet wären dieser Effekt auftreten würde. Es liegt vielmehr daran, das die gelbe Kugel beim Übergang auf die nächste orangene Kugel immer einen Öffnungswinkel von 60° überstreicht. Dies liegt daran, das drei gleichgroße Kugeln, die je zwei Kontakt Punkte mit einander besitzen, einen gleichseites Dreieck bilden. Das was sich, abhängig von der Anordnung der orangenen Kugeln, verändert ist die Winkeländerung die durch rollen auf einer orangenen Kugel entsteht.
1/3 ist eine nicht gelöste Gleichung, 0,3333... ist eine schlecht gelöste Gleichung. Wenn Mathematiker nicht wissen, wie sie Zahlen schreiben können, kann die Wirklichkeit doch nix dafür.
Wenn Sie davon ausgehen, dass bei 1/3 das exakt korrekte Ergebnis herauskommen würde, muss es sich von dem „so ungefähr“-Wert 0,3333... unterscheiden, welcher gegen das korrekte Ergebnis strebt, ohne es jemals erreichen zu können, und Sie können nicht von einem aufs andere schließen. Sie runden beim Rechnen und Umrechnen, weil Sie sonst in alle Ewigkeit Dreien schreiben müssten, und selbst wenn Sie unsterblich würden, gleich am Anfang würde Ihnen das Universum ausgehen, das Sie bekritzeln könnten. Doch die gerundete Zahl ist nicht mit der identisch, die Mathe Ihnen vorschreibt: Die Möglichkeiten des Mathematikers werden von der Unendlichkeit begrenzt, mag er sie zur Kenntnis nehmen oder nicht.
0,33333... + x = 1/3. Wenn wir schon pingelig werden, dann richtig.
Mathe ist nicht präzise, denn die Wirklichkeit ist nicht präzise. Sie ist Zahlen nach Malen: Sie gibt die Grammatik des Universums wieder, die Geometrie. In der Geometrie entspricht sie dem Punkt. Damit wir eine Linie bekommen, müssen zwei Punkte existieren, die voneinander getrennt sind. Wodurch? Durch gar nichts: 101. Das Nichts ist eine der Großmächte des Universums, die Kraft, die die Raumzeit schafft: Nur durch die Nullen zwischen den Einsen wird die Unendlichkeit möglich. Weswegen wir wohl seit jeher den Tod mit Ende und Ewigkeit gleichsetzen, auch wenn die Frage bleibt, woher wir das wissen konnten.
Die Sache ist die: Wenn ich dem Punkt keine eigenen Maße zubillige, hat er in allen Dimensionen die Länge 0, verschwindet also im Nichts. Das heißt, in jeder Dimension, deren Bestandteil er sein will, muss er eine Länge haben, die über 0 hinausgeht: Er kann nicht kleiner werden, als „strebt gegen 0“ Lichtjahre, Kilometer, Nanometer. Er muss selbst in Punkte unterteilbar sein. Und die dann natürlich – auch.
Und genau das sehen wir in der Wirklichkeit: Wenn Sie den kleinsten gemeinsamen Baustein der Materie suchen, indem Sie Quarks zerbröseln, haben Sie einen verflucht sicheren Arbeitsplatz. Der kleinste Baustein der Materie, das kleinste mögliche Teilchen, ist das Teilchen. Ob man es Galaxienhaufen nennt, Mensch, Kieselstein, Sie finden immer Klümpchen, die aus Klümpchen bestehen und neue Klümpchen bilden, indem sie sich vernetzen.
Wir sehen ein Fraktal: Ein leicht gestörtes, zitterndes, vibrierendes Muster, das sich stets wiederholt, ein Zerrspiegelkabinett, immer wieder der gleiche Mist in unendlichen Variationen, alles ist irgendwie gleich, doch nichts ist exakt gleich, und, so groß die Unterschiede auch werden können, die Geometrie setzt ihnen Grenzen. Die Grundformen der Geometrie: Der endliche Punkt, die unendliche Gerade, der Kreis, der die Endlichkeit des Punktes mit der Unendlichkeit der Gerade verbindet – beherrschen alles. Schauen Sie sich um – kennen Sie im gesamten Universum irgendein Objekt, das nicht aus diesen Formen zusammengepuzzelt wäre?
Das Universum ist eine Zeichnung – vom Grundprinzip her sehr simpel, Stift und Papier, danach wird’s schnell kompliziert. Was wohl erklärt, warum hier ein intelligenter Mensch einem Honk Mathe erklärt, und der Honk dem intelligenten Menschen das Universum.
Wenn Sie sich die Sache grafisch vorstellen, gibt es zwischen 0 und 1 eigentlich keine Zahlen. Die Bruchzahlen gehen bereits in eine andere Dimension, sie befinden sich schon auf einer perspektivisch verkürzten Achse, die in der unendlichen Tiefe der Null versinkt. Hier nervt Mathe ganz besonders mit Mehrdeutigkeit, denn wenn wir heranzoomen, kann die 1 auch für Unendlichkeit stehen, da die Strecke zwischen 0 und 1 in unendlich viele Abschnitte unterteilt werden kann – wenn die 1 zur Unendlichkeit wird, kann jede Bruchzahl zur neuen 1 werden. Wenn Sie möchten, können Sie Pi nachspüren, indem Sie sich diese in der Tiefe gehende Achse als Kurve vorstellen und dann versuchen, versteckte Regelmäßigkeiten hinterm Pi-Komma zu suchen – die sich aus zwei Dimensionen und perspektivischer Verschiebung ergeben dürften. Mathe bringt Aspekte der Wirklichkeit oft durcheinander, überlagert sie, manchmal zeigt sich dadurch eine tiefere Wahrheit, manchmal verwirrt es nur.
1/0=E. Wenn ich mir angucke, was passiert, wenn ich Teilchen zerbrösele, entstehen dabei immer mehr Teilchen, die eigenständig wirken: Wir nehmen das als Energie wahr. Anders gesagt, wenn ich Einsen durch Nullen teile, wandle ich Materie in Energie um. Spüren Sie den Hauch der Weltformel in Ihrem Nacken? Einstein und Darwin hecheln da wie zwei obszöne Anrufer am Telefon. Und das Ding war die ganze Zeit da, der Taschenrechner lieferte das korrekte Ergebnis: DIV/0, eine unbestimmte, nicht greifbare Wirkung.
Unlösbare Widersprüche halten die Welt am Laufen – würde keine 0 die 1 und 1 abstoßen, trennen, würden sie ja zu einer zusammenfallen, das Universum würde kollabieren. Es gibt Leute, die in Mathematik die göttliche Ordnung des Universums sehen. Doch das Universum enthält auch Tod und Teufel: Nichts und Chaos, Unendlichkeit und Unbestimmtheit, die alle Ordnung durcheinander bringen und auf Trab halten. Die Mathe hüpft von 1 zu 1 in Quantensprüngen, weil alles im Universum es auch tut, anders geht’s nicht, nicht nur der Mathematiker flieht vor Tod und Teufel. Doch wenn dabei Quatsch herauskommt, wie „1 lässt sich nicht durch 0 teilen, ist verboten“, maßt sie sich göttliche Macht an, und scheitert an der Anmaßung. Wenn ich mir die Augen heraussteche, brauche ich die Sonne nicht zu sehen, doch ich kann mir auch keine Blümchen erklären.
Mathe beschreibt kein Paralleluniversum und keine höhere Ordnung. Sie spiegelt unser Universum und unsere Ordnung. So weit ich es als Honk erkennen kann, entsteht manch ein Geheimnis der Mathematik einfach aus Fehlern in ihrer Struktur – sie spiegelt nicht so perfekt, wie sie glaubt. Und so entsteht das Paralleluniversum der Mathematiker, das mit dem unseren ausreichend übereinstimmt, um sich von ihm Hamburger zu kaufen, denn diese Hamburger brauchen die Hirne, in denen es überleben kann, ohne sich um die Physik der Wirklichkeit Sorgen zu machen. Es ist einfach Genetik, eine Mutation, ein Abbild mit Kopierfehlern hat die passende ökologische Nische gefunden. Mäuse fliehen in Löcher, Nerds in Mathe, keiner mag es, von Katzen oder Schulhof-Putins drangsaliert zu werden. Man kann kein System beobachten, ohne dessen Bestandteil geworden zu sein, und je mehr Macht der Beobachter darin hat, desto mehr wird sich ihm das System fügen, ob er will oder nicht.
Ist 0,999... =1? In der Realität ist die Sache klar, da müssen Sie mit Unschärfen leben. In der Mathematik gibt es keine Antwort, die gefunden werden kann, da eine Mathematik, die ohne Unschärfen auskommen will, solche Antworten nicht findet, sondern erschafft.
Sehr schönes Rätsel... nur eine Frage zu den Begriffen: Ist es die Chance oder die Wahrscheinlichkeit? Die Chance ist doch das Verhältnis der Anzahl günstiger zu ungünstiger Ereignisse, während die Wahrscheinlichkeit das Verhältnis der Anzahl günstiger Ereignisse zur Anzahl Gesamtereignisse darstellt.
... man muss sich darüber klar werden, dass man eben nicht alle rationalen Zahlen als Dezimalbrüche schreiben kann, man bildet also nur eine Teilmenge der rationalen Zahlen ab. Das wird zum Beispiel bei 1/3 klar, welches in Dezimalschreibweise zu einem "periodische Dezimalbruch" führt. Und genau hier fängt die Ungenauigkeit in der Begrifflichkeit an. Ein periodischer Dezimalbruch ist eine Reihe, die gegen einen Grenzwert konvergiert. Und dieser Grenzwert ist der eigentliche Bruch (0,3333... -> Grenzwert 1/3). Nur gehört dieser Grenzwert nicht mehr zur Menge der Dezimalbrüche. Wenn man jetzt die Begrifflichkeit der Dezimalbrüche um eine periodische Darstellung erweitert, dann muss man in Gedanken immer vergegenwärtigen, dass 0,33333.... ein Symbol für den Grenzwert ist (und nicht die Reihe selbst) und dieser Grenzwert ist eben 1/3 und 1/3 ist eben kein Dezimalbruch. Einigt man sich auf diese Definition, dann hat man die Menge der Dezimalbrüche erweitert auf die Menge der rationalen Zahlen (und damit gilt 0,9999... ist der Grenzwert der Reihe und dieser Grenzwert ist 1 und damit wieder ein Dezimalbruch bzw.eine ganze Zahl). Übrigens kann man auf diese Art und Weise auch alle irrationalen Zahlen fassen, in dem man jede irrationale Zahl als eine Reihe von rationalen Zahlen darstellt und die irrationale Zahl (zB pi) als ihren Grenzwert begreift, der interessanterweise nicht mehr rational ist. In dieser Begrifflichkeit leistet übrigens das Cauchy'sche Konvergenzkriterien sehr gute Dienste, da es Konvergenz definieren kann, ohne einen Grenzwert zu bemühen, denn dieser liegt ja außerhalb der Zahlenmenge, die man gerade betrachtet (seien es im Übergang von Dezimalbrüchen zu rationalen Zahlen oder im Übergang von rationalen zu irrationalen Zahlen).
"Wenn man allerdings annimmt, dass 0,999… kleiner ist als 1, dann gibt es keine weitere Zahl, die zwischen beiden Werten liegt. Man hat damit eine eindeutige Lücke auf dem Zahlenstrahl lokalisiert."
Hier muss ich widersprechen. Da eben nach Definition der reellen Zahlen (Vollständigkeitsaxiom) zwischen zwei verschiedenen reellen Zahlen jeweils unendlich viele weitere (verschiedene) reelle Zahlen liegen, müssen auch dann zwischen 0,999... und 1 unendlich viele weitere reelle Zahlen liegen. Man hätte also aus einer gewissen Perspektive maximal ein Paar von verschiedenen reellen Zahlen (durch die zusätzliche Definition, dass 0,999... < 1 ist) gefunden, bei denen sich diese reellen Zahlen, welche zwischen 0,999... und 1 liegen, eben u.a. nicht durch das Zehnerdezimalsystem dargestellt werden können. Schließlich wurde durch die Zusätzliche Definition, dass 0,999... < 1 ist, nicht das Vollständigkeitsaxiom der reellen Zahlen außer Kraft gesetzt (d.h. das Vollständigkeitsaxiom wurde nicht gestrichen), wobei umgangssprachlich das Vollständigkeitsaxiom ausdrückt, dass es keine Lücken auf der Zahlengerade gibt.
Man landen dann bei einer weiteren Betrachtung dessen, natürlich bei einer Nichtstandard-Analysis, sofern man eben nicht die Definition, dass 0,999... < 1 ist, nun fallen läßt und durch die Definition 0,999...= 1 ersetzt.
Ansonsten kann dann (bei Definition 0,999... < 1) diese Nichtdarstellbarkeit der reellen Zahlen, welche zwischen 0,999... und 1 liegen, mit den sogenannten transzendenten Zahlen vergleichen, welche eben nicht als Lösung von algebraischen Gleichungen (über den rationalen Zahlen) dargestellt werden können.
Das Interessante ist, dass man dann nach Definition einer solchen Nichtstandard-Analysis mit Inifinitisimalen, dann in einem weiteren Schritt, auch hier wieder eine solche vermeintliche "Lücke" identifizieren könnte (man hätte ja immer noch die Definition 0,999... < 1 und damit auch 0,999... epsilon < 1 epsilon für die Infinitisimal kleinen Größen). Dieses Prozedere könnte man dann - schön iterativ - immer weiter fortführen. Schlußendlich hätte man dann eine unendliche Folge von Nichtstandard-Analyses (Analyses als Mehrzahl von Analysis) und hätte dabei auch eine schöne "überbordende" Notation dieser Zahlen, vor allem dann, wenn man den "Grenzwert" dieser Definitionen der Nichtstandard-Analysisfolge betrachtet. Das eigentliche "Problem", dass, nun aber auch dann beim Grenzwert der Folge von Nichtstandard-Analyses nun wieder auftauchen würde, für bestimmte Zahlen die Schreibweise 0,999... und 1 verschiedenen sind, hätte man dann aber vermutlich auch nicht für die sich ergebende Grenzwert Nichtstandard-Analysis gelöst. Man könnte nun also auch wieder für die Grenzwert Nichtstandard-Analysis - analog zu "0,999... < 1" - ein Paar von Zahlen finden, bei denen sich eine "Lücke" auf dem Zahlenstrahl ergeben würde, so dass man durch die Betrachtung der Grenzwert Nichtstandard-Analysis nichts gewonnen hätte, es sei denn man definiert dort dann letztlich, das Äquivalent zu "0,999... = 1", für gewisse Schreibweisen von Zahlen.
Natürlich kann man dadurch, dass man z.B. bei Nutzung von inifinitisimal kleinen Größen nun definiert, dass die Schreibweise 0,999... epsilon und 1 epsilon die gleiche Zahl darstellen, sich weitere Iterationsschritte sparen. Man muss sich allerdings dann - zurecht - die Frage erlauben, warum man diese Definition nicht schon bei den "reellen Zahlen" vorgenommen hat, sondern erst in einem späteren Iterationsschritt (oder beim "Grenzwert" der Folge von Nichtstandard-Analyses).
Warum greift man zur Lösung der Frage: 0,999… = 1 ? nicht einfach auf die Leibniz’sche Infinitesimalrechnung zurück – mit der eindeutigen Schreibweise: 1 = lim (n gegen Unendlich) 9 * Summe [10 (exp -n)] (n geradzahlig) ? PS: Die Übertragung der korrekten mathematischen Schreibweise aus dem Winword Formel Editor durch Kopieren hierhin ist mir nicht gelungen!
Die Voraussetzung 1/3 = 0.333… ist schon NUR eine Näherung! Schneidet man eine Pizza 🍕 in 3 Teile hat man 3/3 = 1! In Dezimal kann man das nur mit einer Näherung ausdrücken. Nichtsdestotrotz - 0.99999… ist nun mal 0.000… 1 WENIGER als 1 🤷♂️
Bei der Frage, ob 0,999... = 1 ist, geht es natürlich um einen unendlich kleinen Unterschied auf dem Zahlenstrahl, aber schlussendlich auch um die Eindeutigkeit der Mathematik. Deswegen ist die Antwort eindeutig: Nein, sie sind nicht gleich. Wenn man annimmt, dass 1 / 3 = 0,333... ist, dann folgt 3 * 1 / 3 = 0,999... und somit die initale Aussage. Aber stimmt die Annahme? Bei der schriftlichen Division sieht man folgendes: 1 / 3 = 0,3 + R1 mit R1 = 0,1 1 / 3 = 0,33 + R2 mit R2 = 0,01 usw. Somit folgt: 1 / 3 = 0,333... + Rinf mit Rinf = ? So unbedeutend Rinf auf sein mag, so ist es doch genau der Unterschied zwischen 0,999... und 1, denn damit stimmt auch die Rückrechnung der Division: 3 * 0,3 + R1 = 1 3 * 0,33 + R2 = 1 3 * 0,333... + Rinf = 1. Die gleiche Ungenauigkeit betrifft den Term 1 / (10^(n+1)) mit n gleich unendlich. Der Term wird nicht null, sondern Rinf. Wenn man eine Torte in 10^(n+1) (mit n gleich unendlich) Teile teilt und fügt diese Teile wieder zusammen, dann erhält man zwar irgendetwas, aber dieses etwas hat zumindest die Masse der Torte. Wäre der Term gleich null, wäre die Torte und mit ihr ihre Masse nach dem Teilen verschwunden.
H.J. Böhmers Buch ist zweifellos ein interessantes und man würde sich (im Übrigen nicht erst) nach seiner Lektüre in der Tat Forstleute mit einem ökologischeren Blick auf ihren Wald wünschen. Aber das Buch bleibt leider bei einer Bestandsaufnahme der gegenwärtigen Situation, wenn auch erfreulicherweise mit einem differenzierteren Blick darauf, was genau der Klimawandel bewirkt. Und dann? Wird der Leser, wurde ich jedenfalls, ziemlich enttäuscht. Denn, was der – so gesehen – völlig missverständliche Titel, verspricht, bleibt das Buch schuldig: Eine Empfehlung, mit welchen waldbaulichen Maßnahmen die Forstpartie aufgrund der geschilderten Erkenntnisse endlich mal wirklich fundiert an den Waldumbau zu einem „klimaresilienten“ Wald bzw. Forst (das ist ja, wie schön herausgearbeitet, zweierlei) herangehen sollte, d.h. wie ein solcher Forst aussehen könnte. Ich habe bis dato dazu nirgends etwas Substanzielles gefunden, wozu z.B. auch eine vernünftige Strategie gehören würde, wie ein solcher Waldumbau mit den Bedürfnissen der Schalenwildarten zusammengehen könnte.
Möglich ist der beschriebene Effekt nur, wenn unterschiedliche Grundmengen (die für die Prozent-Angaben herangezogen werden) vorliegen.
Im englischen Wiki zum Simpson-Paradox wird diese Unterschiedlichkeit zumindest erwähnt (Die Anzahl der Schläge ist die jeweilige Grundmengen): "Ein gängiges Beispiel für das Simpson-Paradoxon sind die Schlagdurchschnitte von Profibaseballspielern. Es ist möglich, dass ein Spieler über mehrere Jahre hinweg jedes Jahr einen höheren Schlagdurchschnitt als ein anderer Spieler hat, aber in all diesen Jahren einen niedrigeren Schlagdurchschnitt aufweist. Dieses Phänomen kann auftreten, wenn die Anzahl der Schläge in den einzelnen Jahren sehr unterschiedlich ist.
Der Mathematiker Ken Ross hat dies anhand des Schlagdurchschnittes von zwei Baseballspielern, Derek Jeter und David Justice, in den Jahren 1995 und 1996 nachgewiesen: ([17][18])
Sowohl 1995 als auch 1996 hatte Justice einen höheren Schlagdurchschnitt (fett gedruckt) als Jeter. Nimmt man jedoch die beiden Baseball-Saisons zusammen, so weist Jeter einen höheren Schlagdurchschnitt auf als Justice. Laut Ross ist dieses Phänomen unter den möglichen Spielerpaaren etwa einmal pro Jahr zu beobachten. ([17])" Übersetzt mit www.DeepL.com/Translator (kostenlose Version)
Ein vereinfachtes (und übertriebenes) Beispiel zum Covid-China-Italien-Vergleich : Land A: Altersstufe 10-19: 2 T. von 100 Erkrankten: 2% Altersstufe 70-79: 40 T. von 1000 Erkrankten : 4% Gesamt: 42 von 1100: 3,8% Land B: Altersstufe 10-19: 30 T. von 1000 Erkrankten: 3% Altersstufe 70-79: 5 T. von 100 Erkrankten: 5% Gesamt: 35 von 1100: 3,1%
(Im Original-Diagram/Text sind keine Grundmengen, also konkrete Zahlen von Erkrankten, angegeben; zusätzlich verwirrt die Unterscheidung "Erkrankte" und "erkannte Fälle" - von denen wohl die Mehrheit nicht krank war).
Im China-Italien-Vergleich wird der Effekt zwar durch die Unterschiede in den Ländern sichtbar - er entsteht aber bereits durch die Betrachtung der Gesamt-Menge, statt der Einzel-Gruppen.
Intuitiv besseres Beispiel: Die Villa Kunterbunt soll neu gestrichen werden. Für das Wohnzimmer wird Blau in Weiß 1:10 zu "Himmelblau" gemischt und die Küche Gelb in Weiß 1:10 "Sandgelb". Von den Mischungen war noch Farbe übrig, das wurde zusammenschüttet und der Flur gestrichen. Aber statt des Grüns, dass nach Anleitung mit 1:1 Blau-Gelb entstehen sollte, ist es ein leicht grünlicher Blau-Ton geworden. Was war passiert? Vom Wohnzimmer waren noch 5 Liter übrig, von der Küche nur 1 Liter.
Im China-Italien-Vergleich hat man mit der Mischung der unterschiedlich großen Mengen implizit vorausgesetzt, dass die Unterscheidung nach Alter irrelevant sein muss. Wären die Mengen deutlich unterschiedlich, wäre auch das intuitiv klar. Beispiel: In einem Gebäude sind 10% der Menschen infiziert. Der Statistiker weißt darauf hin, dass die Einstufung nach Alter schwierig ist, da große Mengenunterschiede der Altersgruppen vorhanden sind. Mit dem Hinweis, dass es sich bei dem Gebäude um ein Schule handelt, wäre das jedem auch so klar gewesen.
Will man nach Alter unterscheiden und die Gesamtheit betrachten ergibt das nur Sinn, wenn man den Durchschnitt der Prozente berechnet - oder man sich für jede Gruppe die gleich Anzahl Leute heraus pickt. Im China-Italien-Vergleich hätte man also explizit auf die unterschiedlichen Mengen hinweisen müssen. Oder Besser: nicht beides zusammen in ein Diagramm setzen. Selbst wenn keine Vorschrift dagegen existiert - praktisch ist das nicht.
[17]: Ken Ross. "A Mathematician at the Ballpark: Odds and Probabilities for Baseball Fans (Paperback)" Pi Press, 2004. ISBN 0-13-147990-3. 12–13 [18]: Statistics available from Baseball-Reference.com: Data for Derek Jeter; Data for David Justice.
Was soll diese Diskussion?
19.03.2022, Ludwig KnoblauchAus der Sicht der reellen Zahlen gibt es also stets nur die eine Zahl, die man auf verschiedene Weise schreiben kann. Insofern macht die Frage, ob 1 gleich 0,999... ist, mathematisch gar keinen Sinn. Die Frage, ob die beiden Schreibweisen zwei voneinander unterscheidbare Werte bezeichnen könnten oder müssten oder der Größe nach geordnet werden könnten, hat es im Ernst nie gegeben. Die "Beweise" für die Gleichheit, die Frau Bischoff beschreibt, waren natürlich keine Beweise, sondern eigentlich nur Beispiele dafür, dass die beiden Schreibweisen sich miteinander vertragen und widerspruchsfrei in den mathematischen Formalismus einfügen. Zugleich zeigen diese Beispiele, dass der Versuch, die hinter den unterschiedlichen Darstellungen versteckten mathematischen Objekte zu unterscheiden, die Einführung ganz unsinniger Hilfskonstrukte erfordert.
Die Mathematiker der letzten 300 Jahre haben die doppelten Darstellungen vielleicht manchmal als "Schönheitsfehler" des Stellenwert-Systems, aber sicher nie als reparaturbedürftigen Defekt in der Definition der reellen Zahlen empfunden. Und selbst dieser "Schönheitsfehler" wurde 1872 ganz nebenbei durch Dedekind in seinem Aufsatz "Stetigkeit und Irrationalzahlen" gelöst, in dem er die reellen Zahlen als Grenzwerte ("limes") von rationalen Folgen erklärte ("Dedekindscher Schnitt") und dadurch die nebeneinander existierenden Welten der Grenzwerte und der reellen Zahlen miteinander zur Deckung brachte .
Das wars dann: 0,999... beschreibt nämlich gerade die rationale Folge, die durch die rationalen Zahlen 9/10, 99/100, 999/1000, ... erzeugt wird. Der Grenzwert dieser Folge ist genau 1,0. "Reelle Zahlen" und "Grenzwerte von Folgen" sind einfach nur zwei Ausdrücke für die selbe Sache - nun also nicht mehr nur zwei "zufällig" mögliche alternative Schreibweisen, sondern definitiv das selbe Ding, wobei die Schreibweise 0,999... eine der unendlich vielen möglichen Folgen andeutet, die 1,0 als Grenzwert haben. Auch die Frage der "Größer-/Kleiner-Ordnung" der Grenzwerte hatte Dedekind in seinem Aufsatz von 1872 im gleichen Sinne erledigt erledigt. Kurzum: "gleicher Grenzwert bedeutet GLEICHHEIT".
Darum also: "Was soll denn nun noch diese Diskussion?"
Reelle Zahlen zwischen 0,999... und 1 (mit einer ihrer Darstellungen), falls man 0,999... < 1 definiert
19.03.2022, Björn StuhrmannNun zu der Konstruktion von reellen Zahlen, welche zwischen 0,999... und 1 liegen, falls 0,999... < 1 ist (da ja die reellen Zahlen vollständig sind¹).
Falls 0,999... < 1 ist, so gilt für (1+0,999...)/2 nun
0,999... < (1+0,999...)/2 < 1, wie man dann leicht nachrechnen kann ;-). Die Zahl (1+0,999...)/2 wäre dabei übrigens der Mittelwert zwischen den Zahlen 0,999... und 1.
Weiter wären dann für jede natürliche Zahl n und jede natürliche Zahl m (wobei ich 0 als keine natürliche Zahl ansehe, auch wenn dieses manche Professoren machen) nun auch
0,999... < (n+ m * 0,999...)/(n+m) < 1.
Seien nun x und y zwei solcher Zahlen, d.h. z.B. x=(n+m*0,999...)/(n+m) und z=(l+k*0,999...)/(l+k), wobei l und k auch zwei natürliche Zahlen (mit n ungleich l und m ungleich k) sind. Dann kann man mit x und z auch wieder weitere Zahlen konstruieren, welche zwischen 0,999... und 1 liegen.
Z.B. würden die Zahlen (n * z + m * x)/(n+m) für beliebige
natürliche Zahlen n und m nun zwischen 0,999... und 1 liegen (wobei n und m nicht notwendigerweise die gleichen natürlichen Zahlen bezeichnen müssen, wie die zur Nutzung der Definition von c genutzten n und m).
Diese Konstruktion kann man nun, genauso wie man unendliche Kettenbrüche konstruieren kann, nun unendlich oft fortsetzen.
(Der Leser mache sich bitte hierbei klar, dass, sofern man nun
0,999... = 1 annimmt, auch die ganzen oben konstruierten Zahlen nun auch jeweils 1 ergeben würde).
Die Nutzung solcher Zahlen wäre allerdings recht unhandlich, da man eben Brüche n/m (für natürliche oder ganze Zahlen n und m - mit m ungleich 0, da Division durch 0 nicht erlaubt ist) nun nicht in eine Schreibweise im Zehnerdezimalsystem konvertieren kann (darf), sofern sich nun dabei eine periodische Zahl ergeben würde (also die g-adische Entwicklung nicht nach einer endlichen Stelle "abbrechen" würde), da die g-adische Entwicklung (bzw. periodische Zahl) nun jeweils nicht dem "zugehörigen" Bruch entsprechen würde. Genauso dürfte man dann übrigens Zahlen im Zehnerdezimalsystem, sofern die Darstellung nun periodisch wäre, nun nicht in einem Bruch umwandeln. Damit würden sich nun größere Probleme ergeben nun solche "Kettenbrüche" (der "unendlichen oder endlichen Art") zu vereinfachen.
Nun kann man allerdings nicht nur mit natürlichen Zahlen (wie m und n) als Koeffizienten nun, sofern man 0,999... < 1 annimmt, Zahlen (n+m*0,999...)/(n+m) konstruieren, welche
zwischen 0,999... und 1 liegen, sondern kann anstelle der natürlichen Zahlen auch beliebige positive rationale Zahlen nehmen (bzw. sogar allgemeiner beliebige positive reelle Zahlen). D.h. für jedes paar von positiven rationalen (bzw. positiven reellen) Zahlen
a und b wäre dann auch die Zahl (a*1 + b * 0,999...)/(a+b)
= (a + b * 0,999...)/(a+b) nun zwischen 0,999... und 1.
Recht witzig wird dieses Ganze dann, wenn man für die
positive reelle Zahl a nun a=0,999... setzt und z.B. für
b nun 1 setzt. Dann hätte man nun die Zahl
(0,999... * 1+ 1* 0,999...)/(1+0,999...)=
(0,999...+ 0,999...)/(1,999...)=(2*0,999...)/(1,999...).
An dieser Stelle kann man sich dann (weiter) überlegen, dass natürlich auch für jede natürliche Zahl n dann die Zahl (n*0,999...)/(n-1+0,999...) zwischen 0,999... und 1 liegen würde.
Natürlich kann man auch für a und b nun jeweils Zahlen
der Form (0,999...)^n (mit beliebigen positiven reellen Zahlen) betrachten. Also z.B. die Zahl ((0,999...)^n * 1 + (0,999...)^m * 0,999...)/((0,999...)^n+(0,999...)^m).
Oder man könnte auch die Zahl ((0,999...)^(0,999...)*1+ 1* 0,999...)/((0,999...)^(0,999...)+1)
betrachten.
Auch wäre dann die Zahl (0,999...)^(0,999...) zwischen
0,999... und 1 und allgemeiner auch die Zahlen
(0,999...)^((0,999...)^(0,999...)),
(0,999...)^((0,999...)^((0,999...)^(0,999...))), ...
Der Fantasie bzgl. der Komplexität der Konstruktion ist dabei keine Grenzen gesetzt, sofern man nur sicherstellt, dass (a) die jeweils dabei konstruierten Zahlen bzw. konstruierte Darstellung einer Zahl (wenn man nun 0,999... = 1 annimmt), dann auch wirklich jeweils 1 ergibt, (b) in dem Term, welcher zur Konstruktion der Zahl genutzt wird der Term 0,999... vorkommt, welcher sich nicht wegkürzen läßt (sofern man 0,999... < 1 annimmt), und (c)
der Term auch nicht zu 0,999... vereinfacht werden kann (sofern man 0,999... < 1 annimmt; Aussagen ohne Beweis, da der Beweis trivial wäre² ;-) ).
Eine Preisfrage, welche sich dann in vielen Fällen stellen würde, wäre, ob nun gewisse Darstellungen von Zahlen nun jeweils die
gleiche Zahl darstellen oder nicht, wobei dann eine Beantwortung der jeweiligen Frage dann in vielen Fällen alles andere als trivial wäre (wobei ich diese Aussage für trivial halte und deshalb keine weitere Begründung oder ähnliches dafür angebe - siehe Fußnote 2 bzgl. einem Kommentar zum Wort "trivial"). Man könnte sich überlegen, dass für gewisse Paare von Darstellungen von Zahlen nun die Entscheidung, ob beide Darstellungen die gleiche Zahl darstellen, nun mindestens so kompliziert sein könnte, wie die Lösung des Postschen Korrespondenzproblems (oder - "äquivalent" - die Lösung des allgemeinen Halteproblems bei Turingmaschinen), obwohl bei Annahme von 0,999...= 1 nun beide Darstellungen (des Paares) nun jeweils die Zahl 1 darstellen würden.
ps. Ich kenne nur eine Person, welche nun Spaß an der Nutzung von obigen konstruierten Zahlen haben würde (weitere mögliche Personen, wären übrigens real existierende Varianten der Comic-Figuren Black Hat und Danish der XKCD-Comics).
¹) Also jede Cauchy-Folge über den reellen Zahlen (bzw. Cauchy-Folge dessen Folgenglieder alles reelle Zahlen sind) auch einen Grenzwert in den reellen Zahlen hat.
²) Das Wort trivial wird übrigens gerne von Mathematik-Professoren (und Mathematik-Professorinnen) genutzt, wenn diese keinen Bock haben einen langen Beweis für eine Behauptung aufzuschreiben, wobei im Einzelfall der etwaige lange Beweis dann sogar fehlerhaft sein könnte (bzw. unvollständig wäre) oder aber die Behauptung eigentlich falsch ist. Ich überlasse es dem Leser zu entscheiden, ob ich aus einem analogen Grund nun auf einen Beweis der Aussage/Behauptung verzichtet habe (oder nur um diese Fußnote schreiben zu können nun das Wort trivial im obigen Text genutzt habe).
Wie oft dreht sich die gelbe Münze um sich selbst?
19.03.2022, YoschNur unpräzise ist präzise
19.03.2022, Paul SWenn Sie davon ausgehen, dass bei 1/3 das exakt korrekte Ergebnis herauskommen würde, muss es sich von dem „so ungefähr“-Wert 0,3333... unterscheiden, welcher gegen das korrekte Ergebnis strebt, ohne es jemals erreichen zu können, und Sie können nicht von einem aufs andere schließen. Sie runden beim Rechnen und Umrechnen, weil Sie sonst in alle Ewigkeit Dreien schreiben müssten, und selbst wenn Sie unsterblich würden, gleich am Anfang würde Ihnen das Universum ausgehen, das Sie bekritzeln könnten. Doch die gerundete Zahl ist nicht mit der identisch, die Mathe Ihnen vorschreibt: Die Möglichkeiten des Mathematikers werden von der Unendlichkeit begrenzt, mag er sie zur Kenntnis nehmen oder nicht.
0,33333... + x = 1/3. Wenn wir schon pingelig werden, dann richtig.
Mathe ist nicht präzise, denn die Wirklichkeit ist nicht präzise. Sie ist Zahlen nach Malen: Sie gibt die Grammatik des Universums wieder, die Geometrie. In der Geometrie entspricht sie dem Punkt. Damit wir eine Linie bekommen, müssen zwei Punkte existieren, die voneinander getrennt sind. Wodurch? Durch gar nichts: 101. Das Nichts ist eine der Großmächte des Universums, die Kraft, die die Raumzeit schafft: Nur durch die Nullen zwischen den Einsen wird die Unendlichkeit möglich. Weswegen wir wohl seit jeher den Tod mit Ende und Ewigkeit gleichsetzen, auch wenn die Frage bleibt, woher wir das wissen konnten.
Die Sache ist die: Wenn ich dem Punkt keine eigenen Maße zubillige, hat er in allen Dimensionen die Länge 0, verschwindet also im Nichts. Das heißt, in jeder Dimension, deren Bestandteil er sein will, muss er eine Länge haben, die über 0 hinausgeht: Er kann nicht kleiner werden, als „strebt gegen 0“ Lichtjahre, Kilometer, Nanometer. Er muss selbst in Punkte unterteilbar sein. Und die dann natürlich – auch.
Und genau das sehen wir in der Wirklichkeit: Wenn Sie den kleinsten gemeinsamen Baustein der Materie suchen, indem Sie Quarks zerbröseln, haben Sie einen verflucht sicheren Arbeitsplatz. Der kleinste Baustein der Materie, das kleinste mögliche Teilchen, ist das Teilchen. Ob man es Galaxienhaufen nennt, Mensch, Kieselstein, Sie finden immer Klümpchen, die aus Klümpchen bestehen und neue Klümpchen bilden, indem sie sich vernetzen.
Wir sehen ein Fraktal: Ein leicht gestörtes, zitterndes, vibrierendes Muster, das sich stets wiederholt, ein Zerrspiegelkabinett, immer wieder der gleiche Mist in unendlichen Variationen, alles ist irgendwie gleich, doch nichts ist exakt gleich, und, so groß die Unterschiede auch werden können, die Geometrie setzt ihnen Grenzen. Die Grundformen der Geometrie: Der endliche Punkt, die unendliche Gerade, der Kreis, der die Endlichkeit des Punktes mit der Unendlichkeit der Gerade verbindet – beherrschen alles. Schauen Sie sich um – kennen Sie im gesamten Universum irgendein Objekt, das nicht aus diesen Formen zusammengepuzzelt wäre?
Das Universum ist eine Zeichnung – vom Grundprinzip her sehr simpel, Stift und Papier, danach wird’s schnell kompliziert. Was wohl erklärt, warum hier ein intelligenter Mensch einem Honk Mathe erklärt, und der Honk dem intelligenten Menschen das Universum.
Wenn Sie sich die Sache grafisch vorstellen, gibt es zwischen 0 und 1 eigentlich keine Zahlen. Die Bruchzahlen gehen bereits in eine andere Dimension, sie befinden sich schon auf einer perspektivisch verkürzten Achse, die in der unendlichen Tiefe der Null versinkt. Hier nervt Mathe ganz besonders mit Mehrdeutigkeit, denn wenn wir heranzoomen, kann die 1 auch für Unendlichkeit stehen, da die Strecke zwischen 0 und 1 in unendlich viele Abschnitte unterteilt werden kann – wenn die 1 zur Unendlichkeit wird, kann jede Bruchzahl zur neuen 1 werden. Wenn Sie möchten, können Sie Pi nachspüren, indem Sie sich diese in der Tiefe gehende Achse als Kurve vorstellen und dann versuchen, versteckte Regelmäßigkeiten hinterm Pi-Komma zu suchen – die sich aus zwei Dimensionen und perspektivischer Verschiebung ergeben dürften. Mathe bringt Aspekte der Wirklichkeit oft durcheinander, überlagert sie, manchmal zeigt sich dadurch eine tiefere Wahrheit, manchmal verwirrt es nur.
1/0=E. Wenn ich mir angucke, was passiert, wenn ich Teilchen zerbrösele, entstehen dabei immer mehr Teilchen, die eigenständig wirken: Wir nehmen das als Energie wahr. Anders gesagt, wenn ich Einsen durch Nullen teile, wandle ich Materie in Energie um. Spüren Sie den Hauch der Weltformel in Ihrem Nacken? Einstein und Darwin hecheln da wie zwei obszöne Anrufer am Telefon. Und das Ding war die ganze Zeit da, der Taschenrechner lieferte das korrekte Ergebnis: DIV/0, eine unbestimmte, nicht greifbare Wirkung.
Unlösbare Widersprüche halten die Welt am Laufen – würde keine 0 die 1 und 1 abstoßen, trennen, würden sie ja zu einer zusammenfallen, das Universum würde kollabieren. Es gibt Leute, die in Mathematik die göttliche Ordnung des Universums sehen. Doch das Universum enthält auch Tod und Teufel: Nichts und Chaos, Unendlichkeit und Unbestimmtheit, die alle Ordnung durcheinander bringen und auf Trab halten. Die Mathe hüpft von 1 zu 1 in Quantensprüngen, weil alles im Universum es auch tut, anders geht’s nicht, nicht nur der Mathematiker flieht vor Tod und Teufel. Doch wenn dabei Quatsch herauskommt, wie „1 lässt sich nicht durch 0 teilen, ist verboten“, maßt sie sich göttliche Macht an, und scheitert an der Anmaßung. Wenn ich mir die Augen heraussteche, brauche ich die Sonne nicht zu sehen, doch ich kann mir auch keine Blümchen erklären.
Mathe beschreibt kein Paralleluniversum und keine höhere Ordnung. Sie spiegelt unser Universum und unsere Ordnung. So weit ich es als Honk erkennen kann, entsteht manch ein Geheimnis der Mathematik einfach aus Fehlern in ihrer Struktur – sie spiegelt nicht so perfekt, wie sie glaubt. Und so entsteht das Paralleluniversum der Mathematiker, das mit dem unseren ausreichend übereinstimmt, um sich von ihm Hamburger zu kaufen, denn diese Hamburger brauchen die Hirne, in denen es überleben kann, ohne sich um die Physik der Wirklichkeit Sorgen zu machen. Es ist einfach Genetik, eine Mutation, ein Abbild mit Kopierfehlern hat die passende ökologische Nische gefunden. Mäuse fliehen in Löcher, Nerds in Mathe, keiner mag es, von Katzen oder Schulhof-Putins drangsaliert zu werden. Man kann kein System beobachten, ohne dessen Bestandteil geworden zu sein, und je mehr Macht der Beobachter darin hat, desto mehr wird sich ihm das System fügen, ob er will oder nicht.
Ist 0,999... =1? In der Realität ist die Sache klar, da müssen Sie mit Unschärfen leben. In der Mathematik gibt es keine Antwort, die gefunden werden kann, da eine Mathematik, die ohne Unschärfen auskommen will, solche Antworten nicht findet, sondern erschafft.
Wie viele Lose sind in der Trommel?
19.03.2022, Christian BroichEine wichtige Erkenntnis liefert die Lösung des Problems ...
18.03.2022, Walter GrafKorrektur zu Leibniz ...
18.03.2022, Paul KalbhenKleiner Widerspruch zu einer Aussage
18.03.2022, Björn StuhrmannHier muss ich widersprechen. Da eben nach Definition der reellen Zahlen (Vollständigkeitsaxiom) zwischen zwei verschiedenen reellen Zahlen jeweils unendlich viele weitere (verschiedene) reelle Zahlen liegen, müssen auch dann zwischen 0,999... und 1 unendlich viele weitere reelle Zahlen liegen. Man hätte also aus einer gewissen Perspektive maximal ein Paar von verschiedenen reellen Zahlen (durch die zusätzliche Definition, dass 0,999... < 1 ist) gefunden, bei denen sich diese reellen Zahlen, welche zwischen 0,999... und 1 liegen, eben u.a. nicht durch das Zehnerdezimalsystem dargestellt werden können. Schließlich wurde durch die Zusätzliche Definition, dass 0,999... < 1 ist, nicht das Vollständigkeitsaxiom der reellen Zahlen außer Kraft gesetzt (d.h. das Vollständigkeitsaxiom wurde nicht gestrichen), wobei umgangssprachlich das Vollständigkeitsaxiom ausdrückt, dass es keine Lücken auf der Zahlengerade gibt.
Man landen dann bei einer weiteren Betrachtung dessen, natürlich bei einer Nichtstandard-Analysis, sofern man eben nicht die Definition, dass 0,999... < 1 ist, nun fallen läßt und durch die Definition 0,999...= 1 ersetzt.
Ansonsten kann dann (bei Definition 0,999... < 1) diese Nichtdarstellbarkeit der reellen Zahlen, welche zwischen 0,999... und 1 liegen, mit den sogenannten transzendenten Zahlen vergleichen, welche eben nicht als Lösung von algebraischen Gleichungen (über den rationalen Zahlen) dargestellt werden können.
Das Interessante ist, dass man dann nach Definition einer solchen Nichtstandard-Analysis mit Inifinitisimalen, dann in einem weiteren Schritt, auch hier wieder eine solche vermeintliche "Lücke" identifizieren könnte (man hätte ja immer noch die Definition 0,999... < 1 und damit auch 0,999... epsilon < 1 epsilon für die Infinitisimal kleinen Größen). Dieses Prozedere könnte man dann - schön iterativ - immer weiter fortführen. Schlußendlich hätte man dann eine unendliche Folge von Nichtstandard-Analyses (Analyses als Mehrzahl von Analysis) und hätte dabei auch eine schöne "überbordende" Notation dieser Zahlen, vor allem dann, wenn man den "Grenzwert" dieser Definitionen der Nichtstandard-Analysisfolge betrachtet. Das eigentliche "Problem", dass, nun aber auch dann beim Grenzwert der Folge von Nichtstandard-Analyses nun wieder auftauchen würde, für bestimmte Zahlen die Schreibweise 0,999... und 1 verschiedenen sind, hätte man dann aber vermutlich auch nicht für die sich ergebende Grenzwert Nichtstandard-Analysis gelöst. Man könnte nun also auch wieder für die Grenzwert Nichtstandard-Analysis - analog zu "0,999... < 1" - ein Paar von Zahlen finden, bei denen sich eine "Lücke" auf dem Zahlenstrahl ergeben würde, so dass man durch die Betrachtung der Grenzwert Nichtstandard-Analysis nichts gewonnen hätte, es sei denn man definiert dort dann letztlich, das Äquivalent zu "0,999... = 1", für gewisse Schreibweisen von Zahlen.
Natürlich kann man dadurch, dass man z.B. bei Nutzung von inifinitisimal kleinen Größen nun definiert, dass die Schreibweise 0,999... epsilon und 1 epsilon die gleiche Zahl darstellen, sich weitere Iterationsschritte sparen. Man muss sich allerdings dann - zurecht - die Frage erlauben, warum man diese Definition nicht schon bei den "reellen Zahlen" vorgenommen hat, sondern erst in einem späteren Iterationsschritt (oder beim "Grenzwert" der Folge von Nichtstandard-Analyses).
Leibniz'sche Infinitesimalrechnung
18.03.2022, Paul Kalbhen1 = lim (n gegen Unendlich) 9 * Summe [10 (exp -n)] (n geradzahlig) ?
PS: Die Übertragung der korrekten mathematischen Schreibweise aus dem Winword Formel Editor durch Kopieren hierhin ist mir nicht gelungen!
Nicht gleich
18.03.2022, Matthias StaiberFalscher Schluss
18.03.2022, Andreas Zerbst3 * 0,333… + Rinf = 1
0,999… + Rinf = 1
0,9 + 0,0999… + Rinf = 1
0,0999… + Rinf = 0,1. | *10
0,999… + 10* Rinf = 1. mit 1=0,999… + Rinf
0,999… + 10 * Rinf = 1 = 0,999… + Rinf
0,999… + 10 * Rinf = 0,999… + Rinf | -0,999…
10 * Rinf = Rinf | -Rinf
9 * Rinf = 0 | :9
Rinf = 0
Nach falscher Voraussetzung richtig
18.03.2022, Uwe ReinhardtWenn man annimmt, dass 1 / 3 = 0,333... ist, dann folgt 3 * 1 / 3 = 0,999... und somit die initale Aussage. Aber stimmt die Annahme?
Bei der schriftlichen Division sieht man folgendes:
1 / 3 = 0,3 + R1 mit R1 = 0,1
1 / 3 = 0,33 + R2 mit R2 = 0,01 usw.
Somit folgt:
1 / 3 = 0,333... + Rinf mit Rinf = ?
So unbedeutend Rinf auf sein mag, so ist es doch genau der Unterschied zwischen 0,999... und 1, denn damit stimmt auch die Rückrechnung der Division:
3 * 0,3 + R1 = 1
3 * 0,33 + R2 = 1
3 * 0,333... + Rinf = 1.
Die gleiche Ungenauigkeit betrifft den Term 1 / (10^(n+1)) mit n gleich unendlich. Der Term wird nicht null, sondern Rinf. Wenn man eine Torte in 10^(n+1) (mit n gleich unendlich) Teile teilt und fügt diese Teile wieder zusammen, dann erhält man zwar irgendetwas, aber dieses etwas hat zumindest die Masse der Torte. Wäre der Term gleich null, wäre die Torte und mit ihr ihre Masse nach dem Teilen verschwunden.
Zu viel Geld ...
18.03.2022, Robert OrsoUnsereins denkt einfach zu klein.
„Beim nächsten Wald wird alles anders“ von Björn Lohmann
18.03.2022, Bertram GeorgiiStatistiker sind keine Pragmatiker
14.03.2022, F. StrackeIm englischen Wiki zum Simpson-Paradox wird diese Unterschiedlichkeit zumindest erwähnt (Die Anzahl der Schläge ist die jeweilige Grundmengen):
"Ein gängiges Beispiel für das Simpson-Paradoxon sind die Schlagdurchschnitte von Profibaseballspielern. Es ist möglich, dass ein Spieler über mehrere Jahre hinweg jedes Jahr einen höheren Schlagdurchschnitt als ein anderer Spieler hat, aber in all diesen Jahren einen niedrigeren Schlagdurchschnitt aufweist. Dieses Phänomen kann auftreten, wenn die Anzahl der Schläge in den einzelnen Jahren sehr unterschiedlich ist.
Der Mathematiker Ken Ross hat dies anhand des Schlagdurchschnittes von zwei Baseballspielern, Derek Jeter und David Justice, in den Jahren 1995 und 1996 nachgewiesen: ([17][18])
Schlagmann Jahre
1995 1996 Kombiniert
Derek Jeter 12/48 .250 183/582 .314 195/630 .310
David Justice 104/411 .253 45/140 .321 149/551 .270
Sowohl 1995 als auch 1996 hatte Justice einen höheren Schlagdurchschnitt (fett gedruckt) als Jeter. Nimmt man jedoch die beiden Baseball-Saisons zusammen, so weist Jeter einen höheren Schlagdurchschnitt auf als Justice. Laut Ross ist dieses Phänomen unter den möglichen Spielerpaaren etwa einmal pro Jahr zu beobachten. ([17])"
Übersetzt mit www.DeepL.com/Translator (kostenlose Version)
Ein vereinfachtes (und übertriebenes) Beispiel zum Covid-China-Italien-Vergleich :
Land A:
Altersstufe 10-19: 2 T. von 100 Erkrankten: 2%
Altersstufe 70-79: 40 T. von 1000 Erkrankten : 4%
Gesamt: 42 von 1100: 3,8%
Land B:
Altersstufe 10-19: 30 T. von 1000 Erkrankten: 3%
Altersstufe 70-79: 5 T. von 100 Erkrankten: 5%
Gesamt: 35 von 1100: 3,1%
(Im Original-Diagram/Text sind keine Grundmengen, also konkrete Zahlen von Erkrankten, angegeben; zusätzlich verwirrt die Unterscheidung "Erkrankte" und "erkannte Fälle" - von denen wohl die Mehrheit nicht krank war).
Im China-Italien-Vergleich wird der Effekt zwar durch die Unterschiede in den Ländern sichtbar - er entsteht aber bereits durch die Betrachtung der Gesamt-Menge, statt der Einzel-Gruppen.
Intuitiv besseres Beispiel: Die Villa Kunterbunt soll neu gestrichen werden.
Für das Wohnzimmer wird Blau in Weiß 1:10 zu "Himmelblau" gemischt und die Küche Gelb in Weiß 1:10 "Sandgelb". Von den Mischungen war noch Farbe übrig, das wurde zusammenschüttet und der Flur gestrichen. Aber statt des Grüns, dass nach Anleitung mit 1:1 Blau-Gelb entstehen sollte, ist es ein leicht grünlicher Blau-Ton geworden. Was war passiert? Vom Wohnzimmer waren noch 5 Liter übrig, von der Küche nur 1 Liter.
Im China-Italien-Vergleich hat man mit der Mischung der unterschiedlich großen Mengen implizit vorausgesetzt, dass die Unterscheidung nach Alter irrelevant sein muss. Wären die Mengen deutlich unterschiedlich, wäre auch das intuitiv klar.
Beispiel: In einem Gebäude sind 10% der Menschen infiziert. Der Statistiker weißt darauf hin, dass die Einstufung nach Alter schwierig ist, da große Mengenunterschiede der Altersgruppen vorhanden sind. Mit dem Hinweis, dass es sich bei dem Gebäude um ein Schule handelt, wäre das jedem auch so klar gewesen.
Will man nach Alter unterscheiden und die Gesamtheit betrachten ergibt das nur Sinn, wenn man den Durchschnitt der Prozente berechnet - oder man sich für jede Gruppe die gleich Anzahl Leute heraus pickt. Im China-Italien-Vergleich hätte man also explizit auf die unterschiedlichen Mengen hinweisen müssen.
Oder Besser: nicht beides zusammen in ein Diagramm setzen. Selbst wenn keine Vorschrift dagegen existiert - praktisch ist das nicht.
[17]: Ken Ross. "A Mathematician at the Ballpark: Odds and Probabilities for Baseball Fans (Paperback)" Pi Press, 2004. ISBN 0-13-147990-3. 12–13
[18]: Statistics available from Baseball-Reference.com: Data for Derek Jeter; Data for David Justice.