Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
02.03.2009, Susan G. Komen Deutschland e.V., Frankfurt
Sehr geehrte Damen und Herren,
vielen Dank für diesen sehr infrormativen Artikel zu Fortschritten in der Brustkrebstherapie.
In der Print Ausgabe zeigen Sie zu unserer großen Freude Bilder von sogenannten "Survivors", Frauen, die Brustkrebs hatten, und in pinkfarbenen T-Shirts am "Race for Cure", der weltweit größten Serie von 5-Kilometer-Läufen zur Heilung von Brustkrebs teilnehmen. Der Name der Organisation, die dahinter steht, ist Susan G. Komen for the Cure (USA), bzw. Susan G. Komen Deutschland e.V., Verein für die Heilung von Brustkrebs (www.komen.de). Wir werben für die Früherkennung von Brustkrebs und finanzieren Modellprojekte, die betroffenen Frauen helfen. Komen in den USA unterstützt auch Forschungsprojekte, die in der Vergangenheit wesentlich dazu beigetragen haben, Brustkrebs zu verstehen und zu behandeln.
Übrigens gibt es auch in Deutschland den im Artikel genannten Wohltätigkeitslauf, in diesem Jahr am 27.9. zum zehnten Mal in Frankfurt am Mainufer, und am 13.9. erstmalig in Meppen im Emsland (www.raceforthecure.de).
Angesichts der nie endenden Diskussion über Sinn, Erklärung, Jenseits, Superschildkröte oder was auch immer, sollte man doch vielleicht einmal fragen, was uns ständig treibt zu suchen. Da gäbe es vielleicht eine simple Erklärung. Es ist ein Trieb, vergleichbar dem Geschlechtstrieb, zu dem uns die Evolution verholfen hat. Es ist der Drang des Menschen, alle Ereignisse stets in "sinnvolle" Abfolgen zu ordnen, der es ihm ermöglicht, beliebige Lebensräume auf diesem Globus zu besiedeln. Das hat er seinen tierischen Mitbewohnern, die im "hier und jetzt" leben, voraus. Er hat, wie es die Bibel ausdrückt, vom Baume der Erkenntnis gegessen. Erkenntnis heißt, Verstehen zeitlicher Zusammenhänge, aus denen zukunftsgerichtetes Handeln abgeleitet wird. Zeitmessung ist ein zentraler Bestandteil aller frühen Kulturen, steht gewissermaßen am Anfang der Menschwerdung. Einen Nachteil allerdings hat das Leben in der Zeit, die Erkenntnis der Endlichkeit des eigenen Daseins und der Mangel an Sinn darüber hinaus. Es besteht der Drang, zu suchen und das Problem, nichts zu finden. Dieser "Softwarefehler" würde unweigerlich zum Absturz führen, hätte nicht die Evolution einen "Servicepack" nachgeschoben, die Religiosität, einen physiologisch im Gehirn angelegten Speicher für virtuelle Ziele.
Wenn wir die Ausgefallenheit, die Außerordentlichkeit eines ABC-Tripels natürlicher Zahlen {a, b, c} (a + b = c, a, b teilerfremd) bewerten wollen, steht uns nicht nur sein Kappa-Wert zur Verfügung. Dieser gibt ungefähr an, wie sich die Anzahl der Dezimalstellen von c zur Anzahl der Dezimalstellen von rad(a*b*c) verhält. Die starke ABC-Vermutung besagt, daß für jede noch so nahe bei 1 liegende Schranke s > 1 nur endlich viele ABC-Tripel einen Kappa-Wert > s besitzen.
Für detailliertere Aussagen betrachten wir anstelle des Quotienten die Differenz, den "Exzess"
e(abc) = log(c) - log(rad(abc)).
Im Artikel wurde gezeigt, dass wir beliebig große Werte für e antreffen können, wenn wir immer größere Zahlen untersuchen. Die Spitzenwerte wachsen mindestens wie log(log(rad(abc)))/2, das ist extrem langsam. Aus tieferliegenden Untersuchungen ergibt sich, daß man den erreichbaren Exzess im Vergleich zur Größe von sqrt(log(rad(abc))) analysieren sollte.
Werfen wir einen Blick auf die folgenden bekannten, sehr aufwendig aufgespürten Supertripel:
Das letzte ist ein Weltrekord in mehrfacher Hinsicht von I. J. Calvo aus dem Jahre 2008. Die Beispiele zeichnen sich dadurch aus, daß in diesen einmaligen und außerordentlichen Fällen e(abc) etwa 3*sqrt(log(rad(abc))) erreicht (Schranke A). Die Frage entsteht, ob das ein perfektes (beliebig wiederholbar anzutreffendes) Kleid für den Exzess darstellt. Und wie groß müssen die beteiligten Zahlen sein, damit man etwa einen Exzess von 30, 40 oder 50 erreichen kann?
M. van Frankenhuysen bewies im Jahre 2000 eine schwächere Schranke (C), nämlich dass
für unendlich viele ABC-Tripel gilt. In seiner Dissertation 1995 vermutete er (nach Anwendung des fruchtbaren, aber nur heuristischen Zufälligkeitsprinzips der Primfaktorverteilung der natürlichen Zahlen) das gegenüber C schnellere Wachstum (Schranke B)
Danach sind unendlich viele Tripel auffindbar, wenn e0 < 4, aber nur endlich viele, wenn e0 > 4 (perfekt, aber Widerlegung von Schranke A!).
Stellen wir die Konsequenzen für das Wachstum der beteiligten Tripelzahlen bei vorgegebenem Exzess gegenüber:
e(abc)
rad (bei A)
rad (bei B)
rad (bei C)
10
6.7 * 10^4
7.3 * 10^7
3.3 * 10^14
20
2.0 * 10^19
8.8 * 10^51
1.1 * 10^168
30
2.7 * 10^43
2.1 * 10^141
1.3 * 10^538
40
1.6 * 10^77
1.3 * 10^281
8.1 * 10^1178
50
4.3 * 10^120
6.3 * 10^474
2.4 * 10^2127
Eine vor einigen Jahren durchgeführte und unlängst fortgesetzte Suchrechnung erbrachte 16 noch nicht bekannte Tripel aus riesigen Zahlen, deren Exzess die Schranke B mit e0 = 4 und damit bei weitem die Schranke C übertrifft. Das größte von ihnen lautet
p111 bezeichnet eine Primzahl mit 111 Stellen, (127) steht für 127 weggelassene Dezimalstellen. Die Notation folgt der Konvention des Cunningham-Projekts.
Stellungnahme der Redaktion
Strukturell kann man das ε aus der ABC-Vermutung so verstehen: Im Funktionenkörperfall ist es gleich 0; im Zahlkörperfall sollte es den Beitrag der archimedischen Bewertungen (den absoluten Betrag) abdecken. Setzt man das ε in den Exponenten, so hat man, um in dem Bild des Artikels zu bleiben, ein passendes Kleid mit strengem klassischen Schnitt. Und das passt auch gut in das Denken der Arithmetischen Geometrie.
Es ist aber ziemlich sicher, dass der Fehlerterm mit dem ε im Exponenten viel schneller wächst als der tatsächliche Fehler, dass also das Kleid für große Werte von A, B und C viel zu weit wird. Die Leute aus der transzendenten Zahlentheorie wollen das abmildern, indem sie den Faktor mit dem Exponenten durch einen langsamer anwachsenden Faktor ersetzen.
Der Ansatz, den Traugott Schulmeiss beschreibt, ist "subexponentiell", dies ist ein Verhalten, das auch bei der Sicherheit von Verschlüsselungsverfahren eine wichtige Rolle spielt.
So wie es aussieht, untersucht er statt der Abschätzung
C/R < d * Rε
(R ist eine Abkürzung für Rad(ABC) ) die Abschätzung
C/R < R *exp(d*log(R)^(1/2)/log log(R)).
Die Zahl log log R ist sehr klein, und wir machen deshalb nicht viel falsch, wenn wir statt dessen die Abschätzung
C < R *exp(d*log(R)^(1/2)*(log log(R))^(1/2))
betrachten, und die ist "klassisch" subexponentiell in log(R) (zwischen polynomialen Wachstum und exponentiellem Wachstum). Diese Funktion tritt zum Beispiel beim Faktorisieren mit Siebmethoden auf. Da (sei ε auch noch so klein) Rε exponentiell in log R wächst, ist also die subexponentielle Abschätzung schärfer.
Wie Schulmeiss bemerkt, kann man mehr (teils nur heuristisch begründete) Überlegungen in Arbeiten von M. van Frankenhuysen finden. Außer nach dem Einfluss der Konstanten d zu fragen, wäre es auch interessant zu spekulieren, welcher subexponentielle Exponent (hier: 1/2) optimal wäre.
Geht man etwas weiter und etwa zu beliebigen Zahlkörpern, so wird der Einfluss der archimedischen Bewertungen noch verzwickter. Es hat sich meines Wissens noch keine einhellige Meinung über das Verhalten von Konstanten oder gar Abschätzungsfunktionen bei Körpererweiterungen durchgesetzt. Hier gibt es Ansätze von Masser. Im Endeffekt benötigt man ein besseres Verständnis der so genannten Arakelov-Theorie.
26.02.2009, Dr. Karl-Heinz Decker, Aiglsbach/Bayern
Derzeit dürfte ein Akkusatz bei etwa 500 Entladezyklen verbraucht sein. Damit kann dieses Auto dann maximal 100.000 Kilometer fahren. Rechnet man für ein ziemlich kleines Auto mit Kosten für den Ersatzakku von 10.000 bis 15.000 Euro, dann ist das mehr, als der Betreiber dieses Fahrzeugs für Benzin- oder Dieseltreibstoff für 100.000 Kilometer bezahlen müsste. Da sich der Staat bei größeren Anteilen an Elektroautos natürlich den derzeitigen Mineralölsteueranteil am Kraftstoff nicht entgehen lassen wird, muss ein Mautsystem eingeführt werden, womit die Kosten für das Elektrofahrzeug wiederum erhöht werden. Ein anderes Problem wurde von einem Leserbriefschreiber bereits angesprochen: Sind denn unsere Stromversorgungsanlagen und -netze für diesen zusätzlichen Strombedarf ausgelegt? In den USA findet derzeit ein Großversuch mit Elektro-Minis statt. Laut einem Artikel in der Süddeutschen Zeitung (26.02.2009) gab es in einigen Testgebieten erhebliche Probleme mit der Bereitstellung der Leistung. Was mir in der veröffentlichten Meinung besonders übel auffällt ist, dass viele Redakteure offensichtlich nur die Firmenprospekte abschreiben. Da wird vom emissionsfreien Auto fabuliert. Die Emissionen werden an anderer Stelle erzeugt. Insbesondere in einem Land wie Deutschland, in dem sehr viel Elektrizität aus dem schmutzigsten Brennstoff, der Braunkohle, erzeugt wird, sind die Werbeaussagen gewisser Hersteller reiner Hohn. Überall wird nur von der Leistungsaufnahme des Elektromotors im Fahrzeug gesprochen. Was ist mit den Nebenaggregaten wie Scheinwerfer, Heizung im Winter, Klimaanlage im Sommer? Was ist mit den Übertragungsverlusten und den Verlusten bei Ladung und Entladung der Akkumulatoren? Summiert man diese auf, so kommt man auf ca. 20 bis 25 Prozent Verluste! Über den Tesla-Sportwagen wurde in diesem Forum bereits geschrieben. Der in diesem Brief dargestellte Sachverhalt entspricht den Tatsachen und wurde bei einem Test vom ADAC nicht nur bestätigt, sondern sogar übertroffen: Der Tester fuhr wohl etwas schnell. Das Fahrzeug blieb mit defektem Akku liegen, da dieser zu heiß geworden war. Und das Märchen von Wind- und Wasserkraftnutzung durch Elektrofahrzeuge ist doch ebenfalls eine Fabel: Wenn Elektrizität gebraucht wird, dann wird sie geliefert, egal woher sie kommt. Und sind wir doch einmal realistisch: Mit dem geringen Anteil an erneuerbaren Energien in Deutschland ließe sich doch nur ein geringer Anteil von Elektroautos wirklich emissionsfrei betreiben. Es wurde sehr auf die deutsche Autoindustrie eingeprügelt, weil sie angeblich eine Entwicklung verschlafen habe. Was man der deutschen Autoindustrie anlasten kann, dass ihre Öffentlichkeitsarbeit erbärmlich war. Ansonsten kann es jedes neue Dieselfahrzeug sowohl bezüglich Wirtschaftlichkeit und auch Umweltrelevanz mit jedem Elektroauto aufnehmen.
Die Autoren schreiben in ihrem Artikel zu Recht, dass sich Hörgewohnheiten mit der Zeit verändern. Das ist aber auch schon die einzige Aussage, die ich mit den Autoren teile. Absolute Kriterien abzuleiten, wie sich Klänge in Konsonanzen oder Dissonanzen einteilen lassen, halte ich für sehr gewagt, an einigen Stellen sogar für verwegen. Zum Teil basieren diese Kriterien auf falschen Zusammenhängen, die ich als so gravierend betrachte, dass ich mich frage, wie der Artikel den Weg in Spektrum der Wissenschaft gefunden hat. Zu einigen Punkten des Artikels möchte ich mich im Folgenden äußern.
Auf Seite 66 der SdW-Ausgabe sind die Obertonreihen der Töne C und F angegeben, wobei in beiden Fällen der 6. Oberton falsch ist. Bleiben wir bei C, für F gilt das Folgende entsprechend: Der 6. Oberton von C hat die siebenfache Frequenz des Grundtons. In die Oktave des Grundtons hineinprojiziert ist das Frequenzverhältnis zum Grundton 7/4, also 1,75. Aus der Obertonreihe ergibt sich für die Sexte (A) ein Frequenzverhältnis von 5/3 (ca. 1,67) zum Grundton, für die kleine Septime (B) ein Frequenzverhältnis von 16/9 (ca. 1,78). D.h. dass sich der 6. Oberton deutlich näher an der kleinen Septime anordnet als an der Sexte. Dass der 6. Oberton als kleine Septime aufgefasst wird, zeigt sich z.B. auch an den Aliquotregistern der Orgel, die in den verschiedenen Tonlagen ihrer Register die Obertonreihe abbildet. Zumindest bei größeren Orgeln findet man hier und dort ein Septimregister (1 1/7’), nicht jedoch ein Sextregister. Bezogen auf das Quartintervall C-F bleibt also als gemeinsamer Oberton nur das C (in der C-Obertonreihe als Grundton sowie als erster und dritter Oberton, in der F-Obertonreihe als 2. Oberton), wenn man die Teiltöne bis zum 6. Oberton betrachtet. Hieraus abzuleiten, dass die Quarte konsonant ist, ist sicher nicht möglich, denn während sie in der Musik des Mittelalters als wohlklingend galt, war sie zur Zeit des Barock dissonant und verlangte nach Auflösung (z.B. als Quartvorhalt). Im Jazz hingegen muss sie nicht notwendigerweise aufgelöst werden.
Bei den Dreiklängen versuchen die Autoren Spannungsakkorde (das seien solche Akkorde, bei denen die beiden aufeinanderfolgenden Intervalle gleich groß sind) durch Alteration eines Tons um einen Halbton in spannungsfreie Akkorde zu überführen und ihnen eine Dur-Moll-Tonalität zuzuordnen. Sie machen dabei jedoch den Fehler, dass sie die Begriffe „Tonalität“ und „Funktionalität“ durcheinander bringen. Die Dur-Moll-Tonalität, von der im Artikel oft die Rede ist, ist erst ab etwa 1600 wirklich etabliert. Die Musik der Renaissance war noch sehr von den Kirchentonarten beeinflusst. Die Funktionalität beschreibt, welche Funktion ein Akkord in einer harmonischen Umgebung einnimmt. Ein und derselbe Akkord kann also unterschiedliche Funktionen haben, je nachdem in welcher harmonischen Umgebung er sich befindet. In der Tabelle auf Seite 68 wird z. B. aus dem Spannungsakkord 5-5 durch Alteration des mittleren Tons um einen Halbton nach unten der Akkord 4-6, der in der Tabelle als „Dominant 7“ bezeichnet wird. Dies ist aber eine harmonische Funktion und hat erst einmal nichts mit Dur oder Moll zu tun. D7-Akkorde spielen ab der Musik des Barock (besonders seit Bach) eine wichtige Rolle und kommen sowohl in einer Dur- als auch in einer Moll-Umgebung vor. Ein G7-Akkord lässt sich z.B. sowohl nach C-Dur als auch nach c-moll auflösen, aber eines ist klar: Der Dominantseptakkord verlangt nach einer Auflösung! Hier von einem Akkord zu sprechen, bei dem die „Spannung gegen null“ geht, ist sicher nicht richtig.
Dass sich Hörgewohnheiten tatsächlich im Lauf der Zeit ändern, mag ein anderes Beispiel zeigen: die Stimmung. Auf die gehen die Autoren in ihrem Artikel überhaupt nicht ein, obwohl gerade die verschiedenen Stimmungssysteme zeigen, welchen Änderungen Hörgewohnheiten unterworfen sind. Während in der Musik des 16. – 18. Jahrhunderts die mitteltönige Stimmung verbreitet war, etablierte sich seit dem Barock die temperierte Stimmung (Werckmeister), während man heute in der Regel die gleichstufige Stimmung verwendet. Alle Stimmungen haben ihre Pros und Contras, aber es gibt keine absoluten Kriterien, die erlauben würden, eine bestimmte Stimmung als die einzig richtige zu identifizieren. Es wäre interessant zu erfahren, wie ein Mensch des 16. Jahrhunderts beispielsweise einen Des-Dur-Akkord, der für unsere Ohren auf einem gleichstufig gestimmten Klavier gespielt ein Wohlklang sein mag, auf einem mitteltönig gestimmten Cembalo empfunden hat. Man darf vermuten eher als Missklang, denn als Konsonanz, obwohl doch auch auf einem Cembalo des 16. Jahrhunderts der Akkord aus einer großen und einer kleinen Terz besteht. Dieses einfache Beispiel zeigt, dass es nicht möglich ist, absolute Kriterien in dem Sinn, wie es die Autoren getan haben, einzuführen, um zu zeigen, ob ein Akkord als konsonant oder als nicht-konsonant empfunden wird. Hörgewohnheiten ändern sich eben!
Stellungnahme der Redaktion
Sammelantwort der Autoren auf alle Zuschriften
Zunächst möchten wir allen Kommentatoren für ihre sorgfältige Lektüre des Artikels und die anregende Diskussion danken. In der Tat ist die Abbildung, die das Phänomen der Obertöne grundlegende erklären soll, durch den Vergleich zur bekannten Klaviatur etwas unpräzise, beispielsweise müsste F2 näher bei F3 liegen. In der heute üblichen wohltemperierten Stimmung allerdings werden die Unterschiede ein wenig nivelliert. Detlev Rosbach hat natürlich Recht damit, dass beispielsweise der 6. Oberton, vom Grundton aus gesehen, zwischen dem 33. und 34. Halbton liegen würde, mit C als Grundton also wäre das ein Ton zwischen A und Bb. Musikalisch bedeutet das übrigens, dass höhere Ordnung der Obertöne immer etwas Dissonanz erzeugen, was heute allgemein akzeptiert wird, in den Stimmungen des Mittelalters Bedeutung hatte.
Wie Theo Hartogh richtig moniert, wird das Deutschlandlied nicht immer in D-Dur gespielt, Haydn komponierte die Melodie ursprünglich in G-Dur. In der wohltemperierten Stimmung bedeutet die Wahl einer anderen Dur-Tonart lediglich ein Verschieben der Tonhöhe, der grundlegende Charakter – kraftvoll, hell, optimistisch – ändert sich dadurch nicht. Hartogh irrt, was den Beatles-Song »Yesterday« angeht: Die Tonfolge von »Why she had to go« ergibt einen Moll-Akkord in 2. Umkehrung auf (D, G, Bb), so erzielte Paul McCartney den beabsichtigen Eindruck von Verlorenheit und Trauer.
Dieser Moll-Charakter bleibt übrigens auch dann erhalten, wenn man die Passage mit Dur-Akkorden begleitet. Dennoch steht die Bedeutung des musikalischen Kontextes von Mehrklängen und Tonfolgen für deren Funktion innerhalb eines Stücks außer Frage. Der Clou unserer Arbeit ist aber gerade, dass wir einen biologischen „Mechanismis“ entdeckt haben, der einen Dur- oder Moll-Charakter auch dann zu erklären vermag, wenn Akkorde und Sequenzen für sich allein, also ohne Kontext erklingen. Und dieser Charakter entspricht der musikalischen Erfahrung.
Die Tonalität von Dreiklängen wird unseres Erachtens also primär von ihrer akustischen Struktur, nicht von der jeweiligen Kultur mit ihren Wahrnehmungsgewohnheiten bestimmt. Auch wenn seit der Renaissance meist mit Bezug zur Dur-Tonalität komponiert wurde, symmetrische, spannungsvolle Akkorde hingegen seltener Verwendung fanden, eignen sie sich unseres Erachtens besser als Referenz, um die emotionale Qualität von Mehrklängen modellhaft zu untersuchen.
Ein Blick auf nichtwestlichen Musikkulturen ändert daran übrigens nichts, mögen diesen 5-, 7- oder gar 22-tönige Skalen zugrunde liegen. Auch dort gibt es Tonfolgen mit implizit Dur- oder Moll-Charakter. Das gilt für traditionelle chinesische und japanische Stücke ebenso wie für nordindische Ragas. Die Wahrnehmung der Tongeschlechter ist also ein Kulturen übergreifende Phänomen und das spricht wohl ebenfalls für eine biologische Grundlage.
Als Hauptenergieträger für die künftige Automobilität stelle ich mir verflüssigten Wasserstoff vor. Mit diesem laufen schon heute Otto-Motoren problemlos und er kann ebenso in Brennstoffzellen Strom für Elektromotoren erzeugen. Damit werden sehr gute Motorleistungen und genügende Fahr-Reichweiten ermöglicht.
Der Wasserstoffbedarf kann hauptsächlich gedeckt werden durch riesige Photovoltaik-Anlagen und Wasserstoff-Verflüssigungsanlagen im Sonnengürtel der Erde (z.B. Nordafrika, Sahara, Saudi Arabien usw.) Transport des Wasserstoffs in die Bedarfsländer würde durch Spezialtankschiffe erfolgen.
Elektroantrieb auf der Basis von Lithiumionen-Akkus halte ich nur als zukunftstauglich für Stadt- und Nahbereichsmobilität. Der Strom dafür kommt dann aus CO2-freien AKW (auch wenn die Grünen noch so aufschreien mögen...).
Der Clou der Sache wäre natürlich, wenn man zum Betanken des Automobils die Zeiten des Überangebots an Strom nutzen könnte. Diese ergeben sich aus der nicht bestimmbaren Leistung von Windkraft- und Sonnenanlagen. Überschuss herrrscht, wenn ein Sturm über das Land fegt oder die Sonne am wolkenlosen Himmel steht. Was passiert dann heute? Man schaltet die Windkrafträder ab, oder man fährt die Leistung eines Kohle- oder Atomkraftwerks herunter. Das führt dann dazu, dass die Anlage in einem ungünstigen Wirkungsgradbereich gefahren wird, bei dem etwa 20 Prozent des durch Wind vermiedenen CO2s wieder gegenläufig entsteht.
Hier wäre eine Lösung möglich, von der drei Partner etwas haben: Automobilhersteller, Energieerzeuger und Politik. Die Autobranche will ihre Kunden billig tanken lassen und erwirkt, dass die Akkus im Moment eines Stromüberschusses betankt werden. Zu einem sehr geringen Preis, denn der Strom wäre ansonsten ja unverkäuflich. Der Energieerzeuger freut sich über die geglättete Verbrauchskurve, die Politik kommt mit ihren CO2-Sparzielen voran.
Ist das nicht unendlich schwierig, das abzurechnen? Vermutlich nicht, denn das Gegenstück auf der Angebotsseite gibt es schon. Ein Biogasbauer, der laut Einspeisegesetz 15 ct/kWh bekommt, darf augenblicklich an die Leipziger Strombörse wechseln und dort verkaufen, wenn er dort 17 Cent bekommt. Und selbstverständlich wieder zum EEG wechseln, wenn der Preis auf 14 Cent fällt. Dies ist so seit dem 1.1. 2009. Und es war nicht zu hören, dass die Abrechnung irgendwelche Probleme gemacht hätte.
Preislich kann das Elektroauto noch nicht ganz mit dem Benziner mithalten, aber unter diesen Umständen käme natürlich von mehreren Seiten her Bewegung in die Preisfront.
Also man hat jetzt nicht mehr den Tiger im Tank, sondern den Lothar. Nicht mich natürlich, sondern den gleichnamigen Orkan.
In seinem Essay will der Autor zeigen, dass Poppers Falsifikationskriterium aus dessen "Logik der Forschung" (1934) überholt ist oder vielleicht noch nie praktisch relevant war. Dazu stellt er Poppers Ansatz einem so genannten bayesschen Ansatz oder Bayesianismus gegenüber.
Leider differenziert Matthews dabei zu wenig. Meines Erachtens wäre einerseits zu unterscheiden zwischen einer präskriptiven Wissenschaftstheorie und einer deskriptiven, also nicht miteinander zu vermischen, worin Wissenschaft als Methode bestehen soll und was Wissenschaft in der faktisch durch die Wissenschaftler gelebten Praxis ist. Das führt gleich zum zweiten zu unterscheidenden Paar, der Wissenschaft als institutionalisiertem Wissenschaftsbetrieb mit seiner Soziologie und Psychologie und der Wissenschaft als Programm auf dem Weg der Wahrheitssuche. Denn immerhin geht es sowohl in Poppers als auch im bayesschen Ansatz in erster Linie um die Logik, nicht um die Praxis der Forschung.
Worauf gibt Poppers Wissenschaftstheorie mit ihrem Falsifikationskriterium eine Antwort? Es geht nicht um eine Vorab-Definition der Wissenschaft, auch nicht um ein a priori des wissenschaftlichen Tuns, sondern um den konkreten Nachweis, dass die so genannte induktive Methode logisch nicht haltbar ist. Diese Methode besteht kurz gesagt darin, scheinbar neutral Daten zu sammeln, um daraus Hypothesen abzuleiten und so in einem bottom up-Verfahren ("induktiv") zu allgemeinen Gesetzen und Theorien zu gelangen. Diese Form der Induktion ist aber kein logisch gültiges Verfahren, und es entspricht auch gar nicht der wissenschaftlichen Forschungspraxis, in dieser Weise vorzugehen; vielmehr werden (allzu oft mehr oder minder bewusst verdeckt gehaltene) Grundannahmen bei der Datengewinnung eingebracht, die dann auch für die Hypothesen- und Theorienbildung wieder eine Rolle spielen. Der daraus entstehende Zirkel ist aber für den Fortgang des Forschungsprozesses bremsend, insbesondere dann, wenn er nicht (selbst-)kritisch begleitet wird.
Beschleunigend hingegen ist, und nichts anderes schlägt Popper vor, Theorien von vornherein so zu formulieren, dass sie möglichst viele präzise Vorhersagen machen, die einer empirischen Überprüfung zugänglich sind. Auf diese Weise können schwächere von stärkeren Theorien unterschieden sowie unhaltbare Behauptungen ausgesondert werden. Das Falsifikationskriterium beantwortet damit die Frage, wie eine wissenschaftlich vertretbare Annäherung an die Wahrheit möglich ist, ohne dass diese in direktem rationalem Zugriff erreichbar ist. Es empfiehlt eine idealtypische Methode, um Dogmatismus und Spekulation gleicherweise zu entgehen, und formuliert kein autoritäres Prinzip. Lediglich eine prinzipielle Möglichkeit zur Falsifizierung wird gefordert für den Anspruch auf Wissenschaftlichkeit; wann die Falsifizierbarkeit faktisch erreicht werden kann, bleibt im Gang der Forschung offen.
Man kann Poppers Kriterium nicht gerecht werden, wenn man es aus dem Zusammenhang isoliert, in den es von seinem Autor gestellt worden ist. Dieser Zusammenhang besteht in einer prozessualen Schau auf den Gang der Forschung: (älteres) Problem -> Lösungsvorschläge -> Eliminationsversuche -> neue Problemformulierungen. Da mit einem (älteren) Problem begonnen und mit einem oder mehreren Problemen geschlossen oder eben grade nicht geschlossen wird, ist der Gang der Forschung nach dieser Schau zyklisch. Erst dieser Zyklus insgesamt macht aber die Wissenschaft aus. Das Falsifikationskriterium hat seinen Platz innerhalb dieses Zyklus im Prozessstadium der Eliminationsversuche und kann daher nicht für eine Definition oder Wesenscharakterisierung der Wissenschaft schlechthin herhalten. Diesen Platz innerhalb des Forschungszyklus teilt es in Poppers Sicht übrigens mit kritischer Diskussion, also auch mit dem Bayesianismus.
Das alles ist leicht und übersichtlich nachzulesen im Abdruck des Radiovortrags (NDR, 07.03.1972), den Popper in die Aufsatzsammlung "Alles Leben ist Problemlösen" (1994) aufnehmen ließ, und zeigt, dass der wahrscheinlichkeitstheoretische bayessche Ansatz keines Wegs mit Poppers empirischer Falsifikation unverträglich ist, sondern sich zu dieser komplementär verhält. Matthews‘ polarisierende Darstellung erscheint mir von daher sachlich verfehlt oder zumindest journalistisch zu sehr überspitzt. Popper selbst führt übrigens die Psychoanalyse Freuds an als Beispiel für eine prinzipiell nicht falsifizierbare Theorie. Über Hugh Everetts Viel-Welten-Deutung des Quantenmessproblems oder andere Spielarten des Multiversums lässt sich aber wohl so viel extrapolieren: Was nicht empirisch überprüfbar ist, bleibt trotz Bayes so lange spekulativ, bis es auf anderem Wege (also z.B. mit mathematischer Beweisführung) behandelt werden kann – oder bis es sich selbst in die Metaphysik einzuordnen bereit ist. Wer in diesem Letzteren eine nutzlose Spielerei sieht, sollte vielleicht noch einmal den Grundkurs Philosophie belegen. Wissenschaftlich-rationale Wahrheitsansprüche werden damit freilich aufgegeben.
24.02.2009, Paul Schmitt-Wiemann Freiheitstr 95 46284 Dorsten
Demethylierung dieses Glucocorticoid-Rezeptors ist ein grundsätzlicher Vorgang nach der Geburt. Die bei der Geburt für das Kind auftretenden Schmerzen werden durch die Methylierung anscheinend erträglich, der künftige Erwachsene wird also durch diesen Vorgang nicht vorgeschädigt.
Demethylierung bereitet die kindliche Sensorik und deren Erstverarbeitung damit auf die dann kommenden durchaus harten Tatsachen vor, nachdem es zuvor ja quasi in Watte gepackt worden war.
Dieser Vorgang wird durch zu schnelle und zu frühe schlimme Erfahrungen anscheinend gestört, so dass dieser Serotonintransporter (über Freisetzung von stimmungsaufhellendem Serotonin) nicht nur jetzt, sondern auch später nicht in dem Maße wieder aufhellen kann nach schlechten Erfahrungen, wie es nötig wäre.
Allerdings ist dies nur eine Grundeinstellung, die durch die anderen Erfahrungen weiter strukturiert werden: Jeder Mensch reagiert quasi in seinem weiteren Leben darauf. Ob er nun später Konflikte stärker vermeidet oder verstärkt kompensiert, hängt von vielen weiteren Erfahrungen ab.
Bleiben wird wahrscheinlich so etwas wie eine Stressempfindlichkeit - und auch bei Menschen, die danach ein recht geordnetes Leben führen, so etwas wie ein größerer Bedarf an beruhigenden Momenten beziehungsweise Einflüssen.
Mich würde interessieren, ob dies bei dem unbekannten Leserbriefschreiber der Fall ist.
Warum beschränkt man sich nicht auf die Energiespeicherung für Kurzstrecken? Außerorts könnten Autos an Führungsschienen gekoppelt automatisch fahren und mit Strom versorgt werden, auch zur Nachladung. Alle mit gleicher Geschwindigkeit und mit kleinstem Abstand. Das reduziert den Flächenbedarf für Verkehrswege sowie den Energieaufwand. Der Luftwiderstand sinkt, die Fahrzeuge schleppen nicht unnötig schwere und großvolumige Akkupakete mit. Die Reisenden können sich entspannen und die Zeit nutzen. Soll die Auto-Mobilität Zukunft haben, genügt es nicht, den Tank durch Akkus oder Brennstoffzellen zu ersetzen. Das Auto muss neu erfunden werden.
Ein auf Primärenergie (Öl, Kohle, Kern) basierendes Energie-Konzept, welches entstehende Abwärme vergeudet, ist kein gutes Konzept! Zum Beispiel schlecht: Hybrid-Autos zur Stromerzeugung. Zum Beispiel gut: dezentrale Blockheizkraftwerke (in Einfamilienhäusern) zum Heizen, Strom erzeugen und Strom tanken.
Kategorial oder ontologisch? Mir scheint, das ist bezüglich Anselms Beweis die Frage. Soweit ich ihn verstehe, will er uns sagen: Wenn wir erst einmal begonnen haben, dass wir Gott mit-denken, dann können wir diesen Schritt nicht mehr rückgängig machen. Er bleibt dann als notwendige Kategorie in unserem Denken. Wer ernsthaft über Gott spricht und nachdenkt, hat diesen Schritt bereits vollzogen. Dass sich für Anselm Gott auf diese Art erweist, ist insofern nur konsequent und nicht etwa "sein Problem". Es ist ein Wechsel der Denkungsart, nicht ein greifbarer Beweis.
In Heft 3/09 der Zeitschrift "Spektrum der Wissenschaft" wurde relativ ausführlich über die aktuelle Entwicklung auf dem Sektor der Elektrofahrzeuge berichtet. Was ich bei diesem Artikel vermisse, ist eine genaue Analyse der zur Zeit verfügbaren Infrastruktur zur Bereitstellung der notwendigen Ladeleistungen und Energien für eine hohe dichte von Elektrofahrzeugen. Schließlich wurde bei der Auslegung des Energieversorgungsnetzes nicht berücksichtigt, das gegen 17 Uhr nicht nur der Elektroherd und die Beleuchtung eingeschaltet wird, sondern auch noch eine Unzahl von Elektroautos mit Leistungen jenseits der 10 kW aufgeladen werden. Lässt sich in einem einzelnen Haushalt noch relativ einfach ein Drehstromanschluss entsprechender Leistung nachrüsten, so dürfte es in kleineren Orten jedoch schnell zur Überlastung der Mittelspannungs-Transformatoren kommen. Zwar wird gerne behauptet dies sei alles in den Griff zu bekommen (http://www.energiespektrum.de/index.cfm?pid=1388&pk=80374) doch wird es dazu wieder unzähliger Zusatzmaßnahmen bedürfen, wie im verlinkten Artikel angedeutet wird.
Was ich jedoch noch weitaus bedenklicher finde als die generelle Beschönigung der Elektroautos, sind die Angaben der Hersteller. Nimmt man den in Ihrem Heft vorgestellten Tesla, so wird dieser mit 360 km Reichweite beworben. Nicht viel, wenn man dann mindestens 4 Stunden "nachtanken" muß. Liest man aufmerksam den Artikel, so wird man schnell stutzig. Dort wird von 225 kW Motorleistung und 53 kWh Energiegehalt der Akkus gesprochen. Rechnerisch ist nach etwa 15 Minuten Vollgas Schlussß. Selbst bei über 200 km/h sind das kaum mehr als 50 km. Gehe ich davon aus, das ein Auto etwa 40 kW braucht, um 160 km/h zu fahren (was der Erfahrung nach so ist, wenn man Höchstgeschwindigkeit und Leistung der Autos vergleicht), eine für so einen Wagen gemütliche Geschwindigkeit, so ist nach nicht einmal 200 km Schluss. Weiterhin fällt mir auf, das diese Akkus ("Notebookakkus", vermutlich Rundzellen Typ CGR18650) keinesfalls für Belastungen mit 4 C (also Entladeleistung 4 mal so hoch wie der Energiegehalt) ausgelegt sind. Und auch kalte Temperaturen machen den Zellen zu schaffen. Hinzu kommt, das nach etwa 500 Zyklen die Kapazität schon um mehr als 20 Prozent abnimmt. (Quelle: http://www.actec.dk/Panasonic/pdf/CGR18650E.pdf).
Man könnte argumentieren, das die Messung von Durchschnittsverbrauch und somit die Reichweite von Fahrzeugen mit Verbrennungsmotoren auch unter nicht realistischen Bedingungen stattfinden. Nur geht es dort nicht um die Halbierung oder gar Drittelung der angegebenen Reichweite bei etwas zügigerer Fahrweise. Selbst bei sportlicher Fahrweise sind die erzielbaren Reichweiten nur rund 20 Prozent geringer als Werksangaben. Wenn ich mir vorstelle, über 100.000 Euro für ein Fahrzeug auszugeben - und bei einer Vollgasfahrt ist nach nicht einmal 100 km Ende, und das für mindestens vier Stunden, nämlich die benötigte Zeit zum Aufladen???
Es ist wieder einmal typisch für die politisch so geförderte Elektroauto-Branche, statt reale Betrachtungen (CO2-Ausstoß bei vorhandenem Energiemix, Einbeziehung der Akkuentsorgungs-Problematik, tatsächlich mögliche Leistungsmerkmale, Infrastruktur für Ladung) nur die üblichen Schlagworte zu predigen. Warum nicht einfach dazu stehen, das zur Zeit diese Technik einfach nicht ansatzweise eine Alternative ist. Und kein Mensch scheint auf die Idee zu kommen, dass für die Stadtfahrten zur Arbeit von wenigen Kilometern auch ein Fahrrad genutzt werden kann. Besser kompliziert als das Naheliegende. Lieber das Geld in einen Ausbau der Radwege in der Stadt und im Umland investieren, damit man auch sicher mit wettergeschützten Liegerädern zur Arbeit fahren kann. Diese kosten nur wenige tausend Euro und sind wirklich umweltfreundlich. Die "Ladezeit" beträgt rund eine Minute für das Verspeisen eines Müsliriegels.
Im Übrigen fahre ich nach Belieben mit einem sparsamen TDI, einem sehr gut motorisierten Sportwagen oder dem Rad die rund 40 km zur Arbeit. Somit bin ich relativ neutral und für vieles offen, solange die Vorschläge auch wirklich im realen Leben ohne schwachsinnige Auflagen und Zusatzabgaben durchsetzbar sind.
Vielleicht wird es als "Tanten-Soziologie" ("ich habe aber eine Tante, die...) bezeichnet, aber weder bei meiner ältesten Schwester noch bei mir kann man irgendeine der Erscheinungen feststellen, die in Ihrem Artikel erwähnt werden.
Wir sind von unserer Mutter und deren jeweiligen Ehemänner geprügelt und beleidigt worden, mussten alle Hausarbeit (acht Personen) verrichten, einschließlich der Wäsche von Hand, waren beide jeweils mehr als insgesamt zehn Jahre in geschlossene Fürsorgeheime.
Dennoch haben wir unsere Kinder liebevoll und ohne ein Strafregime aufgezogen, sind beide seit Jahrzehnten mit demselben Partner verheiratet. Außerdem habe ich als Erwachsener nach kaufmännischer Lehre noch ein Studium abgeschlossen und spreche vier Sprachen fließend und bin international als Berater für multinationale Organisationen tätig.
Wie unser persönlicher Hintergrund als Kinder und dann als Erwachsene mit den von Ihnen geschilderten Beobachtungen in Einklang zu bringen ist, entzieht sich meiner Beurteilungsfähigkeit.
Als Ingenieur versuche auch ich gerne, mir die Welt als Regelsystem vorzustellen. Ich habe aber einen Einwand zum Leserbrief von Herrn Dr. Ulrich Grob.
Eine zeitliche Verzögerung wirkt nicht dämpfend, sondern beeinflusst nur die Anstiegsgeschwindigkeit und damit die Frequenz, wenn es zur Schwingung kommt. Durch Verzögerung in Form einer Totzeit würde sogar zusätzliche Unruhe entstehen. Reibung muss dem System Energie entziehen. Das würde bedeuten: Besteuerung von Börsenumsätzen! Besteuerung von zu schnellen Innovationen — im Gegensatz zur bis gestern gültigen Formel, dass das Neue immer das Bessere ist. Es muss also immer etwas vom Gewinn verloren gehen, wenn man zu schnell reagiert. Dies darf keinesfalls verzögert geschehen, denn der Mensch (als Sollwertgeber, Sensor, Vergleichsglied - Regelglied - Stellglied) macht so lange in die alte Richtung weiter, bis er eine Reaktion merkt.
Ein leicht schwingungsfähiges System wird leider bewusst von der Politik bevorzugt, da die damit möglichen kurzen Anstiegszeiten einen Erfolg bis zur nächsten Wahl ermöglichen.
Die Beurteilungszeiträume für Manager und Politiker sind zeitdiskret gerastert, die Börse dagegen ist zeitkontinuierlich. Man müsste das Börsengeschehen so verlangsamen, dass das Raster ausreicht. Bisher gab es den Effekt, dass eine Partei am Wahltermin nicht am Ergebnis ihrer eigenen Arbeit gemessen wurde, sondern an dem verzögert eingetretenen Ergebnis der Arbeit des Vorgängers. Das reicht bei einem technischen Regelkreis schon für eine Instabilität. Demnächst trifft eine Wahl vielleicht sogar zwei Schwingungen weiter zufällig ein Tal oder einen Berg (Aliasing-Effekt). Da kann man nicht mehr von einer Regelung sprechen. Eine sichere Lösung bestünde darin, diese Schwingungen — wie Herr Dr. Ulrich Grob vorschlägt — durch Reibung im System zu dämpfen.
Race for the Cure
02.03.2009, Susan G. Komen Deutschland e.V., Frankfurtvielen Dank für diesen sehr infrormativen Artikel zu Fortschritten in der Brustkrebstherapie.
In der Print Ausgabe zeigen Sie zu unserer großen Freude Bilder von sogenannten "Survivors", Frauen, die Brustkrebs hatten, und in pinkfarbenen T-Shirts am "Race for Cure", der weltweit größten Serie von 5-Kilometer-Läufen zur Heilung von Brustkrebs teilnehmen. Der Name der Organisation, die dahinter steht, ist Susan G. Komen for the Cure (USA), bzw. Susan G. Komen Deutschland e.V., Verein für die Heilung von Brustkrebs (www.komen.de). Wir werben für die Früherkennung von Brustkrebs und finanzieren Modellprojekte, die betroffenen Frauen helfen. Komen in den USA unterstützt auch Forschungsprojekte, die in der Vergangenheit wesentlich dazu beigetragen haben, Brustkrebs zu verstehen und zu behandeln.
Übrigens gibt es auch in Deutschland den im Artikel genannten Wohltätigkeitslauf, in diesem Jahr am 27.9. zum zehnten Mal in Frankfurt am Mainufer, und am 13.9. erstmalig in Meppen im Emsland (www.raceforthecure.de).
"Servicepack" für Sinnsucher
01.03.2009, Heinz Dähling, ElsdorfDa gäbe es vielleicht eine simple Erklärung. Es ist ein Trieb, vergleichbar dem Geschlechtstrieb, zu dem uns die Evolution verholfen hat. Es ist der Drang des Menschen, alle Ereignisse stets in "sinnvolle" Abfolgen zu ordnen, der es ihm ermöglicht, beliebige Lebensräume auf diesem Globus zu besiedeln. Das hat er seinen tierischen Mitbewohnern, die im "hier und jetzt" leben, voraus. Er hat, wie es die Bibel ausdrückt, vom Baume der Erkenntnis gegessen. Erkenntnis heißt, Verstehen zeitlicher Zusammenhänge, aus denen zukunftsgerichtetes Handeln abgeleitet wird. Zeitmessung ist ein zentraler Bestandteil aller frühen Kulturen, steht gewissermaßen am Anfang der Menschwerdung.
Einen Nachteil allerdings hat das Leben in der Zeit, die Erkenntnis der Endlichkeit des eigenen Daseins und der Mangel an Sinn darüber hinaus. Es besteht der Drang, zu suchen und das Problem, nichts zu finden. Dieser "Softwarefehler" würde unweigerlich zum Absturz führen, hätte nicht die Evolution einen "Servicepack" nachgeschoben, die Religiosität, einen physiologisch im Gehirn angelegten Speicher für virtuelle Ziele.
Eine Ergänzung zum "perfekten Kleid"
01.03.2009, Dr. Traugott Schulmeiss, JenaDie starke ABC-Vermutung besagt, daß für jede noch so nahe bei 1 liegende Schranke s > 1 nur endlich viele ABC-Tripel einen Kappa-Wert > s besitzen.
Quotienten die Differenz, den "Exzess"
e(abc) = log(c) - log(rad(abc)).
Im Artikel wurde gezeigt, dass wir beliebig große Werte für e antreffen können, wenn wir immer größere Zahlen untersuchen. Die Spitzenwerte wachsen mindestens wie log(log(rad(abc)))/2, das ist extrem langsam. Aus tieferliegenden Untersuchungen ergibt sich, daß man den erreichbaren Exzess im Vergleich zur Größe von sqrt(log(rad(abc))) analysieren sollte.
Werfen wir einen Blick auf die folgenden bekannten, sehr aufwendig aufgespürten Supertripel:
a = 19*1307 = 24833
b = 7 * 29^2 * 31^8 = 5020969537415167
c = 2^8 * 3^22 * 5^4 = 5020969537440000
rad(abc) = 2 * 3 * 5 * 7 * 19 * 29 * 31 * 1307 = 4688222070
e(abc)= 13.88408
a = 7^2 * 41^2 * 311^3 = 2477678547239
b = 11^16 * 13^2 * 79 = 613474843408551921511
c = 2 * 3^3 * 5^23 * 953 = 613474845886230468750
rad(abc) = 2 * 3 * 5 * 7 * 11 * 13 * 41 * 79 * 311 * 953 = 28828335646110
e(abc) = 16.87329
a = 2^24 * 5^5 * 47^5 * 181^2 = 393927551841835417600000
b = 13^14 * 19 * 103 * 571^2 * 4261 = 10704872737453891276395489673
c = 7^28 * 17 * 37^2 = 10705266665005733111813089673
rad(abc) = 2 * 5 * 7 * 13 * 17 * 19 * 37 * 47 * 103 * 181 * 571 * 4261 = 23184991375250523910
e(abc) = 19.95050
a = 23^8 * 37^4 = 146767394485224241
b = 2^28 * 3^7 * 11^4 * 19^3 * 61 * 127 * 173^2 = 13669290314405085785446416384
c = 5^18 * 17^4 * 43^2 * 4817^2 = 13669290314551853179931640625
rad(abc) = 2 * 3 * 5 * 11 * 17 * 19 * 23 * 37 * 43 * 61 * 127 * 173 * 4817 = 25180873035975641490
e(abc) = 20.11233
Das letzte ist ein Weltrekord in mehrfacher Hinsicht von I. J. Calvo aus dem Jahre 2008.
Die Beispiele zeichnen sich dadurch aus, daß in diesen einmaligen und außerordentlichen Fällen e(abc) etwa 3*sqrt(log(rad(abc))) erreicht (Schranke A). Die Frage entsteht, ob das ein perfektes (beliebig wiederholbar anzutreffendes) Kleid für den Exzess darstellt.
Und wie groß müssen die beteiligten Zahlen sein, damit man etwa einen Exzess von 30, 40 oder 50 erreichen kann?
M. van Frankenhuysen bewies im Jahre 2000 eine schwächere Schranke (C), nämlich dass
e(abc) > 6.07001 * sqrt(log(rad(abc))) / log(log(rad(abc)))
für unendlich viele ABC-Tripel gilt. In seiner Dissertation 1995 vermutete er (nach Anwendung des fruchtbaren, aber nur heuristischen Zufälligkeitsprinzips der Primfaktorverteilung der natürlichen Zahlen) das gegenüber C schnellere Wachstum (Schranke B)
e(abc) > e0 * sqrt( log(rad(abc)) / log(log(rad(abc)))).
Danach sind unendlich viele Tripel auffindbar, wenn e0 < 4, aber nur endlich viele, wenn e0 > 4 (perfekt, aber Widerlegung von Schranke A!).
Stellen wir die Konsequenzen für das Wachstum der beteiligten Tripelzahlen bei vorgegebenem Exzess gegenüber:
Eine vor einigen Jahren durchgeführte und unlängst fortgesetzte Suchrechnung erbrachte 16 noch nicht bekannte Tripel aus riesigen Zahlen, deren Exzess die Schranke B mit e0 = 4 und damit bei weitem die Schranke C übertrifft.
Das größte von ihnen lautet
a = 11^3 * 107^2 * 2962839627547 * p111 = 1 595...(127)
b = 2^52 * 7^42 * 13 * 17^11 * 29^4 * 31^17 * 37^16 * 43 * 53^8 * 61^12 = 87530769602326441009007655660104...(127)
c = 3^52 * 5^65 * 23^15 * 41^5 * 59^34 = 87530769602326441009007655661700...(127)
rad(abc) = 1471734201215077452...(127)
e(abc) = 31.71657
p111 bezeichnet eine Primzahl mit 111 Stellen, (127) steht für 127 weggelassene Dezimalstellen. Die Notation folgt der Konvention des Cunningham-Projekts.
Strukturell kann man das ε aus der ABC-Vermutung so verstehen: Im Funktionenkörperfall ist es gleich 0; im Zahlkörperfall sollte es den Beitrag der archimedischen Bewertungen (den absoluten Betrag) abdecken. Setzt man das ε in den Exponenten, so hat man, um in dem Bild des Artikels zu bleiben, ein passendes Kleid mit strengem klassischen Schnitt. Und das passt auch gut in das Denken der Arithmetischen Geometrie.
Es ist aber ziemlich sicher, dass der Fehlerterm mit dem ε im Exponenten viel schneller wächst als der tatsächliche Fehler, dass also das Kleid für große Werte von A, B und C viel zu weit wird. Die Leute aus der transzendenten Zahlentheorie wollen das abmildern, indem sie den Faktor mit dem Exponenten durch einen langsamer anwachsenden Faktor ersetzen.
Der Ansatz, den Traugott Schulmeiss beschreibt, ist "subexponentiell", dies ist ein Verhalten, das auch bei der Sicherheit von Verschlüsselungsverfahren eine wichtige Rolle spielt.
So wie es aussieht, untersucht er statt der Abschätzung
C/R < d * Rε
(R ist eine Abkürzung für Rad(ABC) ) die Abschätzung
C/R < R *exp(d*log(R)^(1/2)/log log(R)).
Die Zahl log log R ist sehr klein, und wir machen deshalb nicht viel falsch, wenn wir statt dessen die Abschätzung
C < R *exp(d*log(R)^(1/2)*(log log(R))^(1/2))
betrachten, und die ist "klassisch" subexponentiell in log(R) (zwischen polynomialen Wachstum und exponentiellem Wachstum).
Diese Funktion tritt zum Beispiel beim Faktorisieren mit Siebmethoden auf.
Da (sei ε auch noch so klein) Rε exponentiell in log R wächst, ist also die subexponentielle Abschätzung schärfer.
Wie Schulmeiss bemerkt, kann man mehr (teils nur heuristisch begründete) Überlegungen in Arbeiten von M. van Frankenhuysen finden. Außer nach dem Einfluss der Konstanten d zu fragen, wäre es auch interessant zu spekulieren, welcher subexponentielle Exponent (hier: 1/2) optimal wäre.
Geht man etwas weiter und etwa zu beliebigen Zahlkörpern, so wird der Einfluss der archimedischen Bewertungen noch verzwickter.
Es hat sich meines Wissens noch keine einhellige Meinung über das Verhalten von Konstanten oder gar Abschätzungsfunktionen bei Körpererweiterungen durchgesetzt. Hier gibt es Ansätze von Masser.
Im Endeffekt benötigt man ein besseres Verständnis der so genannten Arakelov-Theorie.
Prof. Gerhard Frey, Universität Duisburg-Essen
Elektroautos sind derzeit nicht wirtschaftlich
26.02.2009, Dr. Karl-Heinz Decker, Aiglsbach/BayernRechnet man für ein ziemlich kleines Auto mit Kosten für den Ersatzakku von 10.000 bis 15.000 Euro, dann ist das mehr, als der Betreiber dieses Fahrzeugs für Benzin- oder Dieseltreibstoff für 100.000 Kilometer bezahlen müsste. Da sich der Staat bei größeren Anteilen an Elektroautos natürlich den derzeitigen Mineralölsteueranteil am Kraftstoff nicht entgehen lassen wird, muss ein Mautsystem eingeführt werden, womit die Kosten für das Elektrofahrzeug wiederum erhöht werden.
Ein anderes Problem wurde von einem Leserbriefschreiber bereits angesprochen: Sind denn unsere Stromversorgungsanlagen und -netze für diesen zusätzlichen Strombedarf ausgelegt? In den USA findet derzeit ein Großversuch mit Elektro-Minis statt. Laut einem Artikel in der Süddeutschen Zeitung (26.02.2009) gab es in einigen Testgebieten erhebliche Probleme mit der Bereitstellung der Leistung.
Was mir in der veröffentlichten Meinung besonders übel auffällt ist, dass viele Redakteure offensichtlich nur die Firmenprospekte abschreiben. Da wird vom emissionsfreien Auto fabuliert. Die Emissionen werden an anderer Stelle erzeugt. Insbesondere in einem Land wie Deutschland, in dem sehr viel Elektrizität aus dem schmutzigsten Brennstoff, der Braunkohle, erzeugt wird, sind die Werbeaussagen gewisser Hersteller reiner Hohn.
Überall wird nur von der Leistungsaufnahme des Elektromotors im Fahrzeug gesprochen. Was ist mit den Nebenaggregaten wie Scheinwerfer, Heizung im Winter, Klimaanlage im Sommer? Was ist mit den Übertragungsverlusten und den Verlusten bei Ladung und Entladung der Akkumulatoren? Summiert man diese auf, so kommt man auf ca. 20 bis 25 Prozent Verluste!
Über den Tesla-Sportwagen wurde in diesem Forum bereits geschrieben. Der in diesem Brief dargestellte Sachverhalt entspricht den Tatsachen und wurde bei einem Test vom ADAC nicht nur bestätigt, sondern sogar übertroffen: Der Tester fuhr wohl etwas schnell. Das Fahrzeug blieb mit defektem Akku liegen, da dieser zu heiß geworden war.
Und das Märchen von Wind- und Wasserkraftnutzung durch Elektrofahrzeuge ist doch ebenfalls eine Fabel: Wenn Elektrizität gebraucht wird, dann wird sie geliefert, egal woher sie kommt. Und sind wir doch einmal realistisch: Mit dem geringen Anteil an erneuerbaren Energien in Deutschland ließe sich doch nur ein geringer Anteil von Elektroautos wirklich emissionsfrei betreiben.
Es wurde sehr auf die deutsche Autoindustrie eingeprügelt, weil sie angeblich eine Entwicklung verschlafen habe.
Was man der deutschen Autoindustrie anlasten kann, dass ihre Öffentlichkeitsarbeit erbärmlich war. Ansonsten kann es jedes neue Dieselfahrzeug sowohl bezüglich Wirtschaftlichkeit und auch Umweltrelevanz mit jedem Elektroauto aufnehmen.
Hörgewohnheiten sind kein Absolutum
26.02.2009, Dr. Detlev Roßbach, ErlangenAuf Seite 66 der SdW-Ausgabe sind die Obertonreihen der Töne C und F angegeben, wobei in beiden Fällen der 6. Oberton falsch ist. Bleiben wir bei C, für F gilt das Folgende entsprechend: Der 6. Oberton von C hat die siebenfache Frequenz des Grundtons. In die Oktave des Grundtons hineinprojiziert ist das Frequenzverhältnis zum Grundton 7/4, also 1,75. Aus der Obertonreihe ergibt sich für die Sexte (A) ein Frequenzverhältnis von 5/3 (ca. 1,67) zum Grundton, für die kleine Septime (B) ein Frequenzverhältnis von 16/9 (ca. 1,78). D.h. dass sich der 6. Oberton deutlich näher an der kleinen Septime anordnet als an der Sexte. Dass der 6. Oberton als kleine Septime aufgefasst wird, zeigt sich z.B. auch an den Aliquotregistern der Orgel, die in den verschiedenen Tonlagen ihrer Register die Obertonreihe abbildet. Zumindest bei größeren Orgeln findet man hier und dort ein Septimregister (1 1/7’), nicht jedoch ein Sextregister. Bezogen auf das Quartintervall C-F bleibt also als gemeinsamer Oberton nur das C (in der C-Obertonreihe als Grundton sowie als erster und dritter Oberton, in der F-Obertonreihe als 2. Oberton), wenn man die Teiltöne bis zum 6. Oberton betrachtet. Hieraus abzuleiten, dass die Quarte konsonant ist, ist sicher nicht möglich, denn während sie in der Musik des Mittelalters als wohlklingend galt, war sie zur Zeit des Barock dissonant und verlangte nach Auflösung (z.B. als Quartvorhalt). Im Jazz hingegen muss sie nicht notwendigerweise aufgelöst werden.
Bei den Dreiklängen versuchen die Autoren Spannungsakkorde (das seien solche Akkorde, bei denen die beiden aufeinanderfolgenden Intervalle gleich groß sind) durch Alteration eines Tons um einen Halbton in spannungsfreie Akkorde zu überführen und ihnen eine Dur-Moll-Tonalität zuzuordnen. Sie machen dabei jedoch den Fehler, dass sie die Begriffe „Tonalität“ und „Funktionalität“ durcheinander bringen. Die Dur-Moll-Tonalität, von der im Artikel oft die Rede ist, ist erst ab etwa 1600 wirklich etabliert. Die Musik der Renaissance war noch sehr von den Kirchentonarten beeinflusst. Die Funktionalität beschreibt, welche Funktion ein Akkord in einer harmonischen Umgebung einnimmt. Ein und derselbe Akkord kann also unterschiedliche Funktionen haben, je nachdem in welcher harmonischen Umgebung er sich befindet. In der Tabelle auf Seite 68 wird z. B. aus dem Spannungsakkord 5-5 durch Alteration des mittleren Tons um einen Halbton nach unten der Akkord 4-6, der in der Tabelle als „Dominant 7“ bezeichnet wird. Dies ist aber eine harmonische Funktion und hat erst einmal nichts mit Dur oder Moll zu tun. D7-Akkorde spielen ab der Musik des Barock (besonders seit Bach) eine wichtige Rolle und kommen sowohl in einer Dur- als auch in einer Moll-Umgebung vor. Ein G7-Akkord lässt sich z.B. sowohl nach C-Dur als auch nach c-moll auflösen, aber eines ist klar: Der Dominantseptakkord verlangt nach einer Auflösung! Hier von einem Akkord zu sprechen, bei dem die „Spannung gegen null“ geht, ist sicher nicht richtig.
Dass sich Hörgewohnheiten tatsächlich im Lauf der Zeit ändern, mag ein anderes Beispiel zeigen: die Stimmung. Auf die gehen die Autoren in ihrem Artikel überhaupt nicht ein, obwohl gerade die verschiedenen Stimmungssysteme zeigen, welchen Änderungen Hörgewohnheiten unterworfen sind. Während in der Musik des 16. – 18. Jahrhunderts die mitteltönige Stimmung verbreitet war, etablierte sich seit dem Barock die temperierte Stimmung (Werckmeister), während man heute in der Regel die gleichstufige Stimmung verwendet. Alle Stimmungen haben ihre Pros und Contras, aber es gibt keine absoluten Kriterien, die erlauben würden, eine bestimmte Stimmung als die einzig richtige zu identifizieren. Es wäre interessant zu erfahren, wie ein Mensch des 16. Jahrhunderts beispielsweise einen Des-Dur-Akkord, der für unsere Ohren auf einem gleichstufig gestimmten Klavier gespielt ein Wohlklang sein mag, auf einem mitteltönig gestimmten Cembalo empfunden hat. Man darf vermuten eher als Missklang, denn als Konsonanz, obwohl doch auch auf einem Cembalo des 16. Jahrhunderts der Akkord aus einer großen und einer kleinen Terz besteht. Dieses einfache Beispiel zeigt, dass es nicht möglich ist, absolute Kriterien in dem Sinn, wie es die Autoren getan haben, einzuführen, um zu zeigen, ob ein Akkord als konsonant oder als nicht-konsonant empfunden wird. Hörgewohnheiten ändern sich eben!
Sammelantwort der Autoren auf alle Zuschriften
Zunächst möchten wir allen Kommentatoren für ihre sorgfältige Lektüre des Artikels und die anregende Diskussion danken. In der Tat ist die Abbildung, die das Phänomen der Obertöne grundlegende erklären soll, durch den Vergleich zur bekannten Klaviatur etwas unpräzise, beispielsweise müsste F2 näher bei F3 liegen. In der heute üblichen wohltemperierten Stimmung allerdings werden die Unterschiede ein wenig nivelliert. Detlev Rosbach hat natürlich Recht damit, dass beispielsweise der 6. Oberton, vom Grundton aus gesehen, zwischen dem 33. und 34. Halbton liegen würde, mit C als Grundton also wäre das ein Ton zwischen A und Bb. Musikalisch bedeutet das übrigens, dass höhere Ordnung der Obertöne immer etwas Dissonanz erzeugen, was heute allgemein akzeptiert wird, in den Stimmungen des Mittelalters Bedeutung hatte.
Wie Theo Hartogh richtig moniert, wird das Deutschlandlied nicht immer in D-Dur gespielt, Haydn komponierte die Melodie ursprünglich in G-Dur. In der wohltemperierten Stimmung bedeutet die Wahl einer anderen Dur-Tonart lediglich ein Verschieben der Tonhöhe, der grundlegende Charakter – kraftvoll, hell, optimistisch – ändert sich dadurch nicht. Hartogh irrt, was den Beatles-Song »Yesterday« angeht: Die Tonfolge von »Why she had to go« ergibt einen Moll-Akkord in 2. Umkehrung auf (D, G, Bb), so erzielte Paul McCartney den beabsichtigen Eindruck von Verlorenheit und Trauer.
Dieser Moll-Charakter bleibt übrigens auch dann erhalten, wenn man die Passage mit Dur-Akkorden begleitet. Dennoch steht die Bedeutung des musikalischen Kontextes von Mehrklängen und Tonfolgen für deren Funktion innerhalb eines Stücks außer Frage. Der Clou unserer Arbeit ist aber gerade, dass wir einen biologischen „Mechanismis“ entdeckt haben, der einen Dur- oder Moll-Charakter auch dann zu erklären vermag, wenn Akkorde und Sequenzen für sich allein, also ohne Kontext erklingen. Und dieser Charakter entspricht der musikalischen Erfahrung.
Die Tonalität von Dreiklängen wird unseres Erachtens also primär von ihrer akustischen Struktur, nicht von der jeweiligen Kultur mit ihren Wahrnehmungsgewohnheiten bestimmt. Auch wenn seit der Renaissance meist mit Bezug zur Dur-Tonalität komponiert wurde, symmetrische, spannungsvolle Akkorde hingegen seltener Verwendung fanden, eignen sie sich unseres Erachtens besser als Referenz, um die emotionale Qualität von Mehrklängen modellhaft zu untersuchen.
Ein Blick auf nichtwestlichen Musikkulturen ändert daran übrigens nichts, mögen diesen 5-, 7- oder gar 22-tönige Skalen zugrunde liegen. Auch dort gibt es Tonfolgen mit implizit Dur- oder Moll-Charakter. Das gilt für traditionelle chinesische und japanische Stücke ebenso wie für nordindische Ragas. Die Wahrnehmung der Tongeschlechter ist also ein Kulturen übergreifende Phänomen und das spricht wohl ebenfalls für eine biologische Grundlage.
Energieträger für die Zukunfts-Automobilität
25.02.2009, Dipl.Ing. Gerd Höglinger, 83026 RosenheimDer Wasserstoffbedarf kann hauptsächlich gedeckt werden durch riesige Photovoltaik-Anlagen und Wasserstoff-Verflüssigungsanlagen im Sonnengürtel der Erde (z.B. Nordafrika, Sahara, Saudi Arabien usw.) Transport des Wasserstoffs in die Bedarfsländer würde durch Spezialtankschiffe erfolgen.
Elektroantrieb auf der Basis von Lithiumionen-Akkus halte ich nur als zukunftstauglich für Stadt- und Nahbereichsmobilität. Der Strom dafür kommt dann aus CO2-freien AKW (auch wenn die Grünen noch so aufschreien mögen...).
Fahren mit Windstrom
24.02.2009, Lothar Busold, MannheimHier wäre eine Lösung möglich, von der drei Partner etwas haben: Automobilhersteller, Energieerzeuger und Politik. Die Autobranche will ihre Kunden billig tanken lassen und erwirkt, dass die Akkus im Moment eines Stromüberschusses betankt werden. Zu einem sehr geringen Preis, denn der Strom wäre ansonsten ja unverkäuflich. Der Energieerzeuger freut sich über die geglättete Verbrauchskurve, die Politik kommt mit ihren CO2-Sparzielen voran.
Ist das nicht unendlich schwierig, das abzurechnen? Vermutlich nicht, denn das Gegenstück auf der Angebotsseite gibt es schon. Ein Biogasbauer, der laut Einspeisegesetz 15 ct/kWh bekommt, darf augenblicklich an die Leipziger Strombörse wechseln und dort verkaufen, wenn er dort 17 Cent bekommt. Und selbstverständlich wieder zum EEG wechseln, wenn der Preis auf 14 Cent fällt. Dies ist so seit dem 1.1. 2009. Und es war nicht zu hören, dass die Abrechnung irgendwelche Probleme gemacht hätte.
Preislich kann das Elektroauto noch nicht ganz mit dem Benziner mithalten, aber unter diesen Umständen käme natürlich von mehreren Seiten her Bewegung in die Preisfront.
Also man hat jetzt nicht mehr den Tiger im Tank, sondern den Lothar. Nicht mich natürlich, sondern den gleichnamigen Orkan.
Logik der Forschung
24.02.2009, Paul-Gerhard Schank, BerlinLeider differenziert Matthews dabei zu wenig. Meines Erachtens wäre einerseits zu unterscheiden zwischen einer präskriptiven Wissenschaftstheorie und einer deskriptiven, also nicht miteinander zu vermischen, worin Wissenschaft als Methode bestehen soll und was Wissenschaft in der faktisch durch die Wissenschaftler gelebten Praxis ist. Das führt gleich zum zweiten zu unterscheidenden Paar, der Wissenschaft als institutionalisiertem Wissenschaftsbetrieb mit seiner Soziologie und Psychologie und der Wissenschaft als Programm auf dem Weg der Wahrheitssuche. Denn immerhin geht es sowohl in Poppers als auch im bayesschen Ansatz in erster Linie um die Logik, nicht um die Praxis der Forschung.
Worauf gibt Poppers Wissenschaftstheorie mit ihrem Falsifikationskriterium eine Antwort? Es geht nicht um eine Vorab-Definition der Wissenschaft, auch nicht um ein a priori des wissenschaftlichen Tuns, sondern um den konkreten Nachweis, dass die so genannte induktive Methode logisch nicht haltbar ist. Diese Methode besteht kurz gesagt darin, scheinbar neutral Daten zu sammeln, um daraus Hypothesen abzuleiten und so in einem bottom up-Verfahren ("induktiv") zu allgemeinen Gesetzen und Theorien zu gelangen. Diese Form der Induktion ist aber kein logisch gültiges Verfahren, und es entspricht auch gar nicht der wissenschaftlichen Forschungspraxis, in dieser Weise vorzugehen; vielmehr werden (allzu oft mehr oder minder bewusst verdeckt gehaltene) Grundannahmen bei der Datengewinnung eingebracht, die dann auch für die Hypothesen- und Theorienbildung wieder eine Rolle spielen. Der daraus entstehende Zirkel ist aber für den Fortgang des Forschungsprozesses bremsend, insbesondere dann, wenn er nicht (selbst-)kritisch begleitet wird.
Beschleunigend hingegen ist, und nichts anderes schlägt Popper vor, Theorien von vornherein so zu formulieren, dass sie möglichst viele präzise Vorhersagen machen, die einer empirischen Überprüfung zugänglich sind. Auf diese Weise können schwächere von stärkeren Theorien unterschieden sowie unhaltbare Behauptungen ausgesondert werden. Das Falsifikationskriterium beantwortet damit die Frage, wie eine wissenschaftlich vertretbare Annäherung an die Wahrheit möglich ist, ohne dass diese in direktem rationalem Zugriff erreichbar ist. Es empfiehlt eine idealtypische Methode, um Dogmatismus und Spekulation gleicherweise zu entgehen, und formuliert kein autoritäres Prinzip. Lediglich eine prinzipielle Möglichkeit zur Falsifizierung wird gefordert für den Anspruch auf Wissenschaftlichkeit; wann die Falsifizierbarkeit faktisch erreicht werden kann, bleibt im Gang der Forschung offen.
Man kann Poppers Kriterium nicht gerecht werden, wenn man es aus dem Zusammenhang isoliert, in den es von seinem Autor gestellt worden ist. Dieser Zusammenhang besteht in einer prozessualen Schau auf den Gang der Forschung: (älteres) Problem -> Lösungsvorschläge -> Eliminationsversuche -> neue Problemformulierungen. Da mit einem (älteren) Problem begonnen und mit einem oder mehreren Problemen geschlossen oder eben grade nicht geschlossen wird, ist der Gang der Forschung nach dieser Schau zyklisch. Erst dieser Zyklus insgesamt macht aber die Wissenschaft aus. Das Falsifikationskriterium hat seinen Platz innerhalb dieses Zyklus im Prozessstadium der Eliminationsversuche und kann daher nicht für eine Definition oder Wesenscharakterisierung der Wissenschaft schlechthin herhalten. Diesen Platz innerhalb des Forschungszyklus teilt es in Poppers Sicht übrigens mit kritischer Diskussion, also auch mit dem Bayesianismus.
Das alles ist leicht und übersichtlich nachzulesen im Abdruck des Radiovortrags (NDR, 07.03.1972), den Popper in die Aufsatzsammlung "Alles Leben ist Problemlösen" (1994) aufnehmen ließ, und zeigt, dass der wahrscheinlichkeitstheoretische bayessche Ansatz keines Wegs mit Poppers empirischer Falsifikation unverträglich ist, sondern sich zu dieser komplementär verhält. Matthews‘ polarisierende Darstellung erscheint mir von daher sachlich verfehlt oder zumindest journalistisch zu sehr überspitzt.
Popper selbst führt übrigens die Psychoanalyse Freuds an als Beispiel für eine prinzipiell nicht falsifizierbare Theorie. Über Hugh Everetts Viel-Welten-Deutung des Quantenmessproblems oder andere Spielarten des Multiversums lässt sich aber wohl so viel extrapolieren: Was nicht empirisch überprüfbar ist, bleibt trotz Bayes so lange spekulativ, bis es auf anderem Wege (also z.B. mit mathematischer Beweisführung) behandelt werden kann – oder bis es sich selbst in die Metaphysik einzuordnen bereit ist. Wer in diesem Letzteren eine nutzlose Spielerei sieht, sollte vielleicht noch einmal den Grundkurs Philosophie belegen. Wissenschaftlich-rationale Wahrheitsansprüche werden damit freilich aufgegeben.
Stressbremse und Lebensglück
24.02.2009, Paul Schmitt-Wiemann Freiheitstr 95 46284 DorstenDemethylierung bereitet die kindliche Sensorik und deren Erstverarbeitung damit auf die dann kommenden durchaus harten Tatsachen vor, nachdem es zuvor ja quasi in Watte gepackt worden war.
Dieser Vorgang wird durch zu schnelle und zu frühe schlimme Erfahrungen anscheinend gestört, so dass dieser Serotonintransporter (über Freisetzung von stimmungsaufhellendem Serotonin) nicht nur jetzt, sondern auch später nicht in dem Maße wieder aufhellen kann nach schlechten Erfahrungen, wie es nötig wäre.
Allerdings ist dies nur eine Grundeinstellung, die durch die anderen Erfahrungen weiter strukturiert werden: Jeder Mensch reagiert quasi in seinem weiteren Leben darauf. Ob er nun später Konflikte stärker vermeidet oder verstärkt kompensiert, hängt von vielen weiteren Erfahrungen ab.
Bleiben wird wahrscheinlich so etwas wie eine Stressempfindlichkeit - und auch bei Menschen, die danach ein recht geordnetes Leben führen, so etwas wie ein größerer Bedarf an beruhigenden Momenten beziehungsweise Einflüssen.
Mich würde interessieren, ob dies bei dem unbekannten Leserbriefschreiber der Fall ist.
Das Auto neu erfinden!
24.02.2009, Nikolaus Viebahn, BonnSoll die Auto-Mobilität Zukunft haben, genügt es nicht, den Tank durch Akkus oder Brennstoffzellen zu ersetzen. Das Auto muss neu erfunden werden.
Nicht ohne Wärme-Kraft-Kopplung!
24.02.2009, Roland Minde, KonstanzZum Beispiel schlecht: Hybrid-Autos zur Stromerzeugung.
Zum Beispiel gut: dezentrale Blockheizkraftwerke (in Einfamilienhäusern) zum Heizen, Strom erzeugen und Strom tanken.
Kategorial oder ontologisch?
24.02.2009, Paul-Gerhard Schank, BerlinMir scheint, das ist bezüglich Anselms Beweis die Frage.
Soweit ich ihn verstehe, will er uns sagen:
Wenn wir erst einmal begonnen haben, dass wir Gott mit-denken, dann können wir diesen Schritt nicht mehr rückgängig machen. Er bleibt dann als notwendige Kategorie in unserem Denken.
Wer ernsthaft über Gott spricht und nachdenkt, hat diesen Schritt bereits vollzogen.
Dass sich für Anselm Gott auf diese Art erweist, ist insofern nur konsequent und nicht etwa "sein Problem". Es ist ein Wechsel der Denkungsart, nicht ein greifbarer Beweis.
Generelle Beschönigung?
24.02.2009, Thomas WietoskaWas ich jedoch noch weitaus bedenklicher finde als die generelle Beschönigung der Elektroautos, sind die Angaben der Hersteller. Nimmt man den in Ihrem Heft vorgestellten Tesla, so wird dieser mit 360 km Reichweite beworben. Nicht viel, wenn man dann mindestens 4 Stunden "nachtanken" muß. Liest man aufmerksam den Artikel, so wird man schnell stutzig. Dort wird von 225 kW Motorleistung und 53 kWh Energiegehalt der Akkus gesprochen. Rechnerisch ist nach etwa 15 Minuten Vollgas Schlussß. Selbst bei über 200 km/h sind das kaum mehr als 50 km. Gehe ich davon aus, das ein Auto etwa 40 kW braucht, um 160 km/h zu fahren (was der Erfahrung nach so ist, wenn man Höchstgeschwindigkeit und Leistung der Autos vergleicht), eine für so einen Wagen gemütliche Geschwindigkeit, so ist nach nicht einmal 200 km Schluss. Weiterhin fällt mir auf, das diese Akkus ("Notebookakkus", vermutlich Rundzellen Typ CGR18650) keinesfalls für Belastungen mit 4 C (also Entladeleistung 4 mal so hoch wie der Energiegehalt) ausgelegt sind. Und auch kalte Temperaturen machen den Zellen zu schaffen. Hinzu kommt, das nach etwa 500 Zyklen die Kapazität schon um mehr als 20 Prozent abnimmt. (Quelle: http://www.actec.dk/Panasonic/pdf/CGR18650E.pdf).
Man könnte argumentieren, das die Messung von Durchschnittsverbrauch und somit die Reichweite von Fahrzeugen mit Verbrennungsmotoren auch unter nicht realistischen Bedingungen stattfinden. Nur geht es dort nicht um die Halbierung oder gar Drittelung der angegebenen Reichweite bei etwas zügigerer Fahrweise. Selbst bei sportlicher Fahrweise sind die erzielbaren Reichweiten nur rund 20 Prozent geringer als Werksangaben. Wenn ich mir vorstelle, über 100.000 Euro für ein Fahrzeug auszugeben - und bei einer Vollgasfahrt ist nach nicht einmal 100 km Ende, und das für mindestens vier Stunden, nämlich die benötigte Zeit zum Aufladen???
Es ist wieder einmal typisch für die politisch so geförderte Elektroauto-Branche, statt reale Betrachtungen (CO2-Ausstoß bei vorhandenem Energiemix, Einbeziehung der Akkuentsorgungs-Problematik, tatsächlich mögliche Leistungsmerkmale, Infrastruktur für Ladung) nur die üblichen Schlagworte zu predigen. Warum nicht einfach dazu stehen, das zur Zeit diese Technik einfach nicht ansatzweise eine Alternative ist. Und kein Mensch scheint auf die Idee zu kommen, dass für die Stadtfahrten zur Arbeit von wenigen Kilometern auch ein Fahrrad genutzt werden kann. Besser kompliziert als das Naheliegende. Lieber das Geld in einen Ausbau der Radwege in der Stadt und im Umland investieren, damit man auch sicher mit wettergeschützten Liegerädern zur Arbeit fahren kann. Diese kosten nur wenige tausend Euro und sind wirklich umweltfreundlich. Die "Ladezeit" beträgt rund eine Minute für das Verspeisen eines Müsliriegels.
Im Übrigen fahre ich nach Belieben mit einem sparsamen TDI, einem sehr gut motorisierten Sportwagen oder dem Rad die rund 40 km zur Arbeit. Somit bin ich relativ neutral und für vieles offen, solange die Vorschläge auch wirklich im realen Leben ohne schwachsinnige Auflagen und Zusatzabgaben durchsetzbar sind.
Keine Regel ohne Ausnahme
24.02.2009, Name der Redaktion bekanntWir sind von unserer Mutter und deren jeweiligen Ehemänner geprügelt und beleidigt worden, mussten alle Hausarbeit (acht Personen) verrichten, einschließlich der Wäsche von Hand, waren beide jeweils mehr als insgesamt zehn Jahre in geschlossene Fürsorgeheime.
Dennoch haben wir unsere Kinder liebevoll und ohne ein Strafregime aufgezogen, sind beide seit Jahrzehnten mit demselben Partner verheiratet. Außerdem habe ich als Erwachsener nach kaufmännischer Lehre noch ein Studium abgeschlossen und spreche vier Sprachen fließend und bin international als Berater für multinationale Organisationen tätig.
Wie unser persönlicher Hintergrund als Kinder und dann als Erwachsene mit den von Ihnen geschilderten Beobachtungen in Einklang zu bringen ist, entzieht sich meiner Beurteilungsfähigkeit.
Die Wirtschaft als technischer Regelkreis - Brief Grob
23.02.2009, Peter Hussels, BerlinEine zeitliche Verzögerung wirkt nicht dämpfend, sondern beeinflusst nur die Anstiegsgeschwindigkeit und damit die Frequenz, wenn es zur Schwingung kommt. Durch Verzögerung in Form einer Totzeit würde sogar zusätzliche Unruhe entstehen. Reibung muss dem System Energie entziehen. Das würde bedeuten: Besteuerung von Börsenumsätzen! Besteuerung von zu schnellen Innovationen — im Gegensatz zur bis gestern gültigen Formel, dass das Neue immer das Bessere ist. Es muss also immer etwas vom Gewinn verloren gehen, wenn man zu schnell reagiert. Dies darf keinesfalls verzögert geschehen, denn der Mensch (als Sollwertgeber, Sensor, Vergleichsglied - Regelglied - Stellglied) macht so lange in die alte Richtung weiter, bis er eine Reaktion merkt.
Ein leicht schwingungsfähiges System wird leider bewusst von der Politik bevorzugt, da die damit möglichen kurzen Anstiegszeiten einen Erfolg bis zur nächsten Wahl ermöglichen.
Die Beurteilungszeiträume für Manager und Politiker sind zeitdiskret gerastert, die Börse dagegen ist zeitkontinuierlich. Man müsste das Börsengeschehen so verlangsamen, dass das Raster ausreicht. Bisher gab es den Effekt, dass eine Partei am Wahltermin nicht am Ergebnis ihrer eigenen Arbeit gemessen wurde, sondern an dem verzögert eingetretenen Ergebnis der Arbeit des Vorgängers. Das reicht bei einem technischen Regelkreis schon für eine Instabilität. Demnächst trifft eine Wahl vielleicht sogar zwei Schwingungen weiter zufällig ein Tal oder einen Berg (Aliasing-Effekt). Da kann man nicht mehr von einer Regelung sprechen. Eine sichere Lösung bestünde darin, diese Schwingungen — wie Herr Dr. Ulrich Grob vorschlägt — durch Reibung im System zu dämpfen.