Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Faszinierende Anstrengungen, die sicher viel Geld kosten werden und unkalkulierbare Folgen haben ... wo das Gute doch so nahe liegt: Endlich einen Wirkungsvollen Klimaschutz durch Emissionssenkung durchsetzen. Auf das Einfachste kommt man offensichtlich zuletzt, aber das erfordert ja auch eigene Verhaltensänderungen.
... was auch immer man unter "Felsenkunst" verstehen kann: Die älteste Kunst fand sich in den Höhlen der Schwäbischen Alb, die rd. 40 000 Jahre alten Elfenbeinschnitzereien: http://www.uni-tuebingen.de/museum-schloss/
Nach einen Blick in die "Wikipedia" stellt sich heraus: Es wird offenbar auch darüber nachgedacht, den zweiten Speicher unterirdisch anzulegen, so dass hier die verbrauchte Fläche und die Kosten verringert sind. Vorgeschlagen wurden Bergwerke, die aber wiederum mit Schadstoffen belastet sind und/oder instabil sein können.
Besser wäre es, Trinkwasserbrunnen dafür zu nutzen. In vielen Gegenden wie an meinen Wohnort gibt es alte, aufgelassene Brunnen, die fossiles Wasser förderten oder bei denen das Grundwasser nicht mehr den hygienischen Anforderungen entspricht.
Obwohl die Leistung mit ca. 100 kW (für 100 m Tiefe, 100 l/s) pro Anlage klein ist, überwiegen die Vorteile. So dürfte meistens die Pumpe noch vorhanden sein, und elektrische Anschlüsse sind ebenfalls schon verlegt. Es fehlt lediglich ein Ausgleichsbehälter an der Eroberfläche.
Gibt es dazu schon Überlegungen oder Prototypen?
Stellungnahme der Redaktion
Ich würde in einer Umsetzung dieses Vorschlags kein nennenswertes Speicherpotential erwarten. Auch der Wirkungsgrad derartiger Anlagen fiele gegenüber Pumpspeichern schlechter aus, weil sich der Brunnenwasserstand sowohl bei der Energieentnahme (= Einleitung von Wasser, Brunnenpegel steigt => reduzierter Energieertrag) als auch bei der Aufladung (=Entnahme von Wasser, Brunnenpegel sinkt => erhöhter Energiebedarf) zu Ungunsten des Wirkungsgrads verändern würde.
Verkehrte Welt: Eine Theorie sollte solange als fasch gelten, solange sie nicht bewiesen ist. Als Beweis kann nur gelten, wenn der materielle Befund exakt mit dem korrespondiert, was die Theorie aussagt. Bezogen auf die Dunkle Materie bedeutet das, dass deren 26,8 % Anteil am Universum auch tatsächlich festgestellt wird. Und das kann man wohl von den Wissenschaftlern verlangen, schließlich sind sie mit ihren Behauptungen auch nicht zimperlich. Bisher wurde noch nicht einmal ein einziges Teilchen von der Dunklen Materie gefunden. Aber es gibt eben auch Alternativen zur dunklen Materie. Die Bewegung der Sterne und Galaxien kann quantenphysikalisch exakt erklärt werden. Nur wer will das schon? Ich kenne da niemanden.
Auch die Geschwindigkeiten der Sterne in Milchstraßen und in Zwerggalaxien sowie die Geschwindigkeit von Galaxienhaufen im Universum lassen sich erstaunlicherweise völlig ohne zusätzliche Dunkle Materie genau berechnen. Die Gleichungen und Erläuterungen für die Ermittlung der Geschwindigkeiten kosmischer Objekte finden Sie in DURCHS UNIVERSUM MIT NATURKONSTANTEN - ABSCHIED VON DER DUNKLEN MATERIE. Kleiner Tipp: Das Gravitationsgesetz, das Gesetz der Massenanziehung, muss nicht modifiziert werden!
Norwegische Fjorde z.B. bieten riesige Mengen Wasser und steile Höhen. Hochstrom Gleichstromtrassen müssen sowieso endlich mal gebaut werden. Solarthermisch erzeugter Strom aus der Wüste wird global an Steilküsten in potenzieller Energie gespeichert. Technisch keine große Herausforderung und dazu auch noch sofort umsetzbar und auch finanzierbar. Globales Denken der einzelnen Staaten mal vorausgesetzt, Homo Sapiens 0,7 sollte das doch hinkriegen, oder bin ich meiner Zeit zu weit voraus?.
Das Suchen nach der dunklen Materie erinnert mich immer stärker an die Suche nach dem "Ather" am Ende des 19. Jahrhunderts. Vielleicht müssen wir wirklich radikal umdenken wie unsere "Großväter". Aber wo sind die wirklichen Genies wie es Einstein, Bohr, Born etc. gewesen sind?
Auf Seite 63, 2. Spalte, 1. Absatz schreibt Terence Tao, dass die Anfangsziffern der Zahlen eines Datenbestandes dem Benfordschen Gesetz genügen, weil die Logarithmen dem Zentralen Grenzwertsatz folgen. Aus dieser Darstellung wäre folgerichtig abzuleiten, 1. dass die Logarithmen zumindest annähernd normalverteilt sein müssen, woraus gefolgert werden muss, dass die den Logarithmen zugrunde liegenden Daten zumindest annähernd logarithmisch normalverteilt sein müssen. Das muss aber keineswegs immer der Fall sein. Auch die Häufigkeiten von Ziffernverteilungen von Datenbeständen, deren Logarithmen gleich- oder dreiecksverteilt sind, folgen dem Benfordschen Gesetz, sofern ihre Spannweiten entweder ganzzahlig oder unendlich groß sind. Im Falle der Dreiecksverteilung muss bei endlicher Spannweite noch dazu der Abstand zwischen dem Minimum und dem Modalwert ein ganzzahliger Wert sein. Das Benfordsche Gesetz kann also auch ohne Tendenz zur Ausprägung einer Normalverteilung der Datenlogarithmen, also auch ohne Gültigkeit des Zentralen Grenzwertsatzes, gelten. 2. dass die Verteilung der ersten Ziffern dem Benfordschen Gesetz umso besser genügt, je größer der untersuchte Datenbestand ist. Das ist falsch. Die Ziffernhäufigkeiten eines Datenbestandes folgen dem Benfordschen Gesetz umso besser, je größer die Spannweite der Logarithmen der Daten des Datenbestandes ist. Gleichzeitig gibt es für jede Spannweite eines Datenbestandes aber ein Datenvolumen, über welchem ein beliebiger Signifikanztest, der das Benfordsche Gesetz als Vektor der erwarteten Häufigkeiten verwendet, einen unmanipulierten Datenbestand als manipuliert darstellt, die Nullhypothese also zu verwerfen ist. Einer ganz wichtigen Aussage des Zentralen Grenzwertsatzes, dass die Datenbestände stets hinreichend groß sein müssen (und je größer, desto besser!), wird durch den soeben gezeigten Umstand eindeutig widersprochen. Die oft vernommene und zugleich falsche Behauptung „wenn das Benfordsche Gesetz hier nicht gilt, dann ist der Datenbestand zu klein“ ist jederzeit widerlegbar.
Alle diese Argumente können jederzeit mittels Tabellenkalkulation auf Stichhaltigkeit überprüft werden. Leider machten sich Mathematiker nach meiner Erfahrung bisher nicht die Mühe zu zeigen, dass das Benfordsche Gesetz nur die Grenzverteilung für gegen unendlich gehende Standardabweichung / Spannweite der Dichteverteilung der Logarithmen eines unmanipulierten Datenbestandes beschreibt und daher für keinen realen und nicht verfälschten Datenbestand unumschränkt gilt. Die so einfache und schöne Formel ist nicht deshalb so schön, weil sie stimmt, sondern weil sie ein Ergebnis eines Grenzwerts für die Spannweite der Datenlogarithmen ist, der in keiner realen Datei erreicht wird.
Es gibt im übrigen mittlerweile ein effektiveres und dennoch einfaches Verfahren, das es erlaubt, korrekte Benford-Analysen auch an Datenbeständen durchzuführen, die nicht über viele Größenordnungen variieren und/oder (siehe oben!) zu voluminös sind. Die Datenanalyse anhand des Benfordschen Gesetzes wie besprochen zeichnet sich durch eine überbordend hohe Rate falsch positiver Befunde aus, die im Rahmen des neuen Verfahrens bis auf die durch die Wahl der Irrtumswahrscheinlichkeit erlaubte Rate restlos vermieden wird.
Das so genannte „Zipfsche Gesetz“ wird unmittelbar klarer, wenn man sich vergegenwärtigt, dass jedes Histogramm, dessen Balken man nach fallenden Häufigkeiten sortiert, zwangsläufig so aussieht, wie es der Linguist George Kingsley Zipf beschrieb. Interessanterweise stimmen die tatsächlich bei Daten vorgefundenen Häufigkeiten bei jenen Rängen, wo sie sich nicht mehr sonderlich voneinander unterscheiden können, gut mit den „Voraussagen“ des Zipfschen Gesetzes überein, denn laut Zipfschem Gesetz unterscheiden sich dort die Häufigkeiten nicht mehr sonderlich voneineinander (z. B. ist die Differenz zwischen 1/25 und 1/26 sehr gering). Bei der Nagelprobe freilich, den ersten paar Häufigkeiten, die sich noch merklich voneinander unterscheiden (z.B. ist die Differenz zwischen 1/2 und 1/3 immerhin 1/6, was beträchtlich ist), sagt das Zipfsche Gesetz die tatsächlichen Häufigkeiten so gut wie nie auch nur annähernd korrekt voraus.
Stellungnahme der Redaktion
Terence Tao hat nicht so direkt behauptet, die Logarithmen eines Datenbestandes, für den Benfords Gesetz gilt, folgten dem Zentralen Grenzwertsatz. Eine präzise Darstellung hat er selbst in "Benford's law, Zipf's law and the Pareto distribution" gegeben: Die Daten müssen über eine weite Spanne von Größenordnungen verteilt sein und aus einer komplizierten Kombination von im Wesentlichen voneinander unabhängigen Faktoren hervorgehen (wobei an verschiedenen Stichproben verschiedene Faktoren beteiligt sind). Das ist in der Tat nur ein "entfernter Verwandter" des Zentralen Grenzwertsatzes. Das hat Tao in der Kürze des Artikels nicht ausgeführt (und ich leider einen entsprechenden Satz des Originals überinterpretiert).
Derselbe Beitrag Taos bringt auch ein Beispiel (Bevölkerung der Länder der Welt), bei dem die ersten Zahlen (zu den größten Ländern) in der Tat krass von Zipfs Gesetz abweichen. Andererseits scheint das Gesetz bei Worthäufigkeiten in natürlichsprachigen Texten gerade "vorne" sehr präzise erfüllt zu sein, was Zweifel an der Behauptung "so gut wie nie" weckt.
Mitte der 80er zeigte mir ein Freund Photo-Alben mit Bildern aus seiner Kindheit/Jugend. Diverse Farb-Photos (10-15 Jahre alt von einem Labor ienes Versandhauses) sahen aus wie Daguerreotypen, die zu lange falsch gelagert wurden.
Der Hausarzt kann eine Blutuntersuchung auf spezifische Antikörper durchführen bzw. die Blutprobe an entsprechende Labore schicken (Echinokokken-Serologie). Dabei kann auch zwischen Hunde- und Fuchsbandwurm unterschieden werden.
Seit meiner Kindheit wird mir bei den Urlauben in Süddeutschland vor dem Fuchsbandwurm Angst gemacht. Vor allem auf die leckeren Walderdbeeren sollte man verzichten, was dann doch kaum einer tut.
Ihr Artikel beantwortet leider nicht die Frage, ob man präventiv ärztlich herausfinden kann, ob bei einem oder in der Familie oder bei anderen Leuten ein Befall vorliegt. Gibt es diese Möglichkeit?
Unglaublich
11.01.2014, Ralf GuinetWie wahr !
10.01.2014, ugurhttp://www.google.de/imgres?biw=1366&bih=614&tbm=isch&tbnid=tmnQIghdkN7_yM%3A&imgrefurl=http%3A%2F%2Fwww.ksta.de%2Folympia-2012%2Folympia-diskuswerfer-harting-gewinnt-gold%2C16598502%2C16823484.html&docid=6jgUly7GY6WyzM&imgurl=http%3A%2F%2Fwww.ksta.de%2Fimage%2Fview%2F2012%2F7%2F7%2F16830334%2C13942283%2CdmFlashTeaserRes%2CDI30509_20120807.jpg&w=480&h=210&ei=EGbQUqvlMsjGtAbhn4H4Bg&zoom=1&iact=rc&dur=579&page=2&start=16&ndsp=23&ved=0CIgBEK0DMBI
Für eine armselige Goldmedaile
Heinrich der VII.
10.01.2014, Hans BolteSchade, dass Journalisten dazu neigen, über Dinge zu schreiben, von denen sie nichts verstehen.
Am besten man liest nur im Lexikon.
Sehr geehrter Herr Bolte,
entschuldigen Sie bitte, da ist der Autorin ein Fehler unterlaufen, den wir beim Redigieren ebenfalls übersehen hatten. Ich habe ihn nun korrigiert.
Vielen Dank für den Hinweis und mit freundlichen Grüßen
Daniel Lingenhöhl
Redaktion Spektrum.de
Älteste Kunst
10.01.2014, Prof. Dr. Ernst SeidlUnterirdische Pumpspeicherwerke
09.01.2014, Michael JungnicklBesser wäre es, Trinkwasserbrunnen dafür zu nutzen. In vielen Gegenden wie an meinen Wohnort gibt es alte, aufgelassene Brunnen, die fossiles Wasser förderten oder bei denen das Grundwasser nicht mehr den hygienischen Anforderungen entspricht.
Obwohl die Leistung mit ca. 100 kW (für 100 m Tiefe, 100 l/s) pro Anlage klein ist, überwiegen die Vorteile. So dürfte meistens die Pumpe noch vorhanden sein, und elektrische Anschlüsse sind ebenfalls schon verlegt. Es fehlt lediglich ein Ausgleichsbehälter an der Eroberfläche.
Gibt es dazu schon Überlegungen oder Prototypen?
Ich würde in einer Umsetzung dieses Vorschlags kein nennenswertes Speicherpotential erwarten.
Auch der Wirkungsgrad derartiger Anlagen fiele gegenüber Pumpspeichern schlechter aus, weil sich der Brunnenwasserstand sowohl bei der Energieentnahme (= Einleitung von Wasser, Brunnenpegel steigt => reduzierter Energieertrag) als auch bei der Aufladung (=Entnahme von Wasser, Brunnenpegel sinkt => erhöhter Energiebedarf) zu Ungunsten des Wirkungsgrads verändern würde.
Matthias Popp
Verkehrte Welt
09.01.2014, Joachim BlechleEine Theorie sollte solange als fasch gelten, solange sie nicht bewiesen ist. Als Beweis kann nur gelten, wenn der materielle Befund exakt mit dem korrespondiert, was die Theorie aussagt. Bezogen auf die Dunkle Materie bedeutet das, dass deren 26,8 % Anteil am Universum auch tatsächlich festgestellt wird. Und das kann man wohl von den Wissenschaftlern verlangen, schließlich sind sie mit ihren Behauptungen auch nicht zimperlich. Bisher wurde noch nicht einmal ein einziges Teilchen von der Dunklen Materie gefunden.
Aber es gibt eben auch Alternativen zur dunklen Materie. Die Bewegung der Sterne und Galaxien kann quantenphysikalisch exakt erklärt werden.
Nur wer will das schon? Ich kenne da niemanden.
Joachim Blechle
Dunkle Materie oder hoffnungslose Suche nach einem Phantom?
09.01.2014, PETER POHLINGWieso keine konventionellen Pumspeicherkraftwerke?
09.01.2014, BerndHochstrom Gleichstromtrassen müssen sowieso endlich mal gebaut werden.
Solarthermisch erzeugter Strom aus der Wüste wird global an Steilküsten in potenzieller Energie gespeichert. Technisch keine große Herausforderung und dazu auch noch sofort umsetzbar und auch finanzierbar.
Globales Denken der einzelnen Staaten mal vorausgesetzt, Homo Sapiens 0,7 sollte das doch hinkriegen, oder bin ich meiner Zeit zu weit voraus?.
Dunkle Materie oder nicht, das ist hier die Frage
09.01.2014, Ralf SeidlerBenfords Gesetz und Zipfs Gesetz sind fehlerhaft dargestellt
08.01.2014, Günther Pökl1. dass die Logarithmen zumindest annähernd normalverteilt sein müssen, woraus gefolgert werden muss, dass die den Logarithmen zugrunde liegenden Daten zumindest annähernd logarithmisch normalverteilt sein müssen. Das muss aber keineswegs immer der Fall sein. Auch die Häufigkeiten von Ziffernverteilungen von Datenbeständen, deren Logarithmen gleich- oder dreiecksverteilt sind, folgen dem Benfordschen Gesetz, sofern ihre Spannweiten entweder ganzzahlig oder unendlich groß sind. Im Falle der Dreiecksverteilung muss bei endlicher Spannweite noch dazu der Abstand zwischen dem Minimum und dem Modalwert ein ganzzahliger Wert sein. Das Benfordsche Gesetz kann also auch ohne Tendenz zur Ausprägung einer Normalverteilung der Datenlogarithmen, also auch ohne Gültigkeit des Zentralen Grenzwertsatzes, gelten.
2. dass die Verteilung der ersten Ziffern dem Benfordschen Gesetz umso besser genügt, je größer der untersuchte Datenbestand ist. Das ist falsch. Die Ziffernhäufigkeiten eines Datenbestandes folgen dem Benfordschen Gesetz umso besser, je größer die Spannweite der Logarithmen der Daten des Datenbestandes ist. Gleichzeitig gibt es für jede Spannweite eines Datenbestandes aber ein Datenvolumen, über welchem ein beliebiger Signifikanztest, der das Benfordsche Gesetz als Vektor der erwarteten Häufigkeiten verwendet, einen unmanipulierten Datenbestand als manipuliert darstellt, die Nullhypothese also zu verwerfen ist. Einer ganz wichtigen Aussage des Zentralen Grenzwertsatzes, dass die Datenbestände stets hinreichend groß sein müssen (und je größer, desto besser!), wird durch den soeben gezeigten Umstand eindeutig widersprochen. Die oft vernommene und zugleich falsche Behauptung „wenn das Benfordsche Gesetz hier nicht gilt, dann ist der Datenbestand zu klein“ ist jederzeit widerlegbar.
Alle diese Argumente können jederzeit mittels Tabellenkalkulation auf Stichhaltigkeit überprüft werden. Leider machten sich Mathematiker nach meiner Erfahrung bisher nicht die Mühe zu zeigen, dass das Benfordsche Gesetz nur die Grenzverteilung für gegen unendlich gehende Standardabweichung / Spannweite der Dichteverteilung der Logarithmen eines unmanipulierten Datenbestandes beschreibt und daher für keinen realen und nicht verfälschten Datenbestand unumschränkt gilt. Die so einfache und schöne Formel ist nicht deshalb so schön, weil sie stimmt, sondern weil sie ein Ergebnis eines Grenzwerts für die Spannweite der Datenlogarithmen ist, der in keiner realen Datei erreicht wird.
Es gibt im übrigen mittlerweile ein effektiveres und dennoch einfaches Verfahren, das es erlaubt, korrekte Benford-Analysen auch an Datenbeständen durchzuführen, die nicht über viele Größenordnungen variieren und/oder (siehe oben!) zu voluminös sind. Die Datenanalyse anhand des Benfordschen Gesetzes wie besprochen zeichnet sich durch eine überbordend hohe Rate falsch positiver Befunde aus, die im Rahmen des neuen Verfahrens bis auf die durch die Wahl der Irrtumswahrscheinlichkeit erlaubte Rate restlos vermieden wird.
Das so genannte „Zipfsche Gesetz“ wird unmittelbar klarer, wenn man sich vergegenwärtigt, dass jedes Histogramm, dessen Balken man nach fallenden Häufigkeiten sortiert, zwangsläufig so aussieht, wie es der Linguist George Kingsley Zipf beschrieb. Interessanterweise stimmen die tatsächlich bei Daten vorgefundenen Häufigkeiten bei jenen Rängen, wo sie sich nicht mehr sonderlich voneinander unterscheiden können, gut mit den „Voraussagen“ des Zipfschen Gesetzes überein, denn laut Zipfschem Gesetz unterscheiden sich dort die Häufigkeiten nicht mehr sonderlich voneineinander (z. B. ist die Differenz zwischen 1/25 und 1/26 sehr gering). Bei der Nagelprobe freilich, den ersten paar Häufigkeiten, die sich noch merklich voneinander unterscheiden (z.B. ist die Differenz zwischen 1/2 und 1/3 immerhin 1/6, was beträchtlich ist), sagt das Zipfsche Gesetz die tatsächlichen Häufigkeiten so gut wie nie auch nur annähernd korrekt voraus.
Terence Tao hat nicht so direkt behauptet, die Logarithmen eines Datenbestandes, für den Benfords Gesetz gilt, folgten dem Zentralen Grenzwertsatz. Eine präzise Darstellung hat er selbst in "Benford's law, Zipf's law and the Pareto distribution" gegeben: Die Daten müssen über eine weite Spanne von Größenordnungen verteilt sein und aus einer komplizierten Kombination von im Wesentlichen voneinander unabhängigen Faktoren hervorgehen (wobei an verschiedenen Stichproben verschiedene Faktoren beteiligt sind). Das ist in der Tat nur ein "entfernter Verwandter" des Zentralen Grenzwertsatzes. Das hat Tao in der Kürze des Artikels nicht ausgeführt (und ich leider einen entsprechenden Satz des Originals überinterpretiert).
Derselbe Beitrag Taos bringt auch ein Beispiel (Bevölkerung der Länder der Welt), bei dem die ersten Zahlen (zu den größten Ländern) in der Tat krass von Zipfs Gesetz abweichen. Andererseits scheint das Gesetz bei Worthäufigkeiten in natürlichsprachigen Texten gerade "vorne" sehr präzise erfüllt zu sein, was Zweifel an der Behauptung "so gut wie nie" weckt.
Christoph Pöppe, Redaktion
RAID-Systeme
08.01.2014, TorstenAuch Papier-Bilder halten nicht ewig ...
08.01.2014, Fiebig, OlafIntelligente Fotodienste
08.01.2014, Stephan FrödeDie intelligenten Fotodienste gibt es bereits.
Yahoo hat vor ca 5 Monaten iqVision gekauft um für Flickr Bilder automatisch zu erkennen und zu taggen.
Pinterest hat diese Woche eine Firma gekauft um Bilder automatisch zu taggen.
Eine Gesichtserkennung gibt es in iPhoto bereits seit 4 oder 5 Jahren.
Amazon Web Services bietet mit Glacier einen günstigen und sicheren archivierungs dienst an.
Schreiben Sie doch bitte mal was über Bilderkennung oder noch besser Mustererkennung mit probalistischen Methoden.
Nach dem automatischen Taggen von Bildern (Bildsemantik), kommen Filme und Musik an die Reihe, schätze ich mal.
Grüße,
Stephan Fröde
Diagnosemöglichkeiten
07.01.2014, Gunther WillingerKann man den Befall erkennen
06.01.2014, Olaf LezinskyIhr Artikel beantwortet leider nicht die Frage, ob man präventiv ärztlich herausfinden kann, ob bei einem oder in der Familie oder bei anderen Leuten ein Befall vorliegt. Gibt es diese Möglichkeit?