Direkt zum Inhalt

Kommentare - - Seite 1034

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Elektroautos sind derzeit nicht wirtschaftlich

    26.02.2009, Dr. Karl-Heinz Decker, Aiglsbach/Bayern
    Derzeit dürfte ein Akkusatz bei etwa 500 Entladezyklen verbraucht sein. Damit kann dieses Auto dann maximal 100.000 Kilometer fahren.
    Rechnet man für ein ziemlich kleines Auto mit Kosten für den Ersatzakku von 10.000 bis 15.000 Euro, dann ist das mehr, als der Betreiber dieses Fahrzeugs für Benzin- oder Dieseltreibstoff für 100.000 Kilometer bezahlen müsste. Da sich der Staat bei größeren Anteilen an Elektroautos natürlich den derzeitigen Mineralölsteueranteil am Kraftstoff nicht entgehen lassen wird, muss ein Mautsystem eingeführt werden, womit die Kosten für das Elektrofahrzeug wiederum erhöht werden.
    Ein anderes Problem wurde von einem Leserbriefschreiber bereits angesprochen: Sind denn unsere Stromversorgungsanlagen und -netze für diesen zusätzlichen Strombedarf ausgelegt? In den USA findet derzeit ein Großversuch mit Elektro-Minis statt. Laut einem Artikel in der Süddeutschen Zeitung (26.02.2009) gab es in einigen Testgebieten erhebliche Probleme mit der Bereitstellung der Leistung.
    Was mir in der veröffentlichten Meinung besonders übel auffällt ist, dass viele Redakteure offensichtlich nur die Firmenprospekte abschreiben. Da wird vom emissionsfreien Auto fabuliert. Die Emissionen werden an anderer Stelle erzeugt. Insbesondere in einem Land wie Deutschland, in dem sehr viel Elektrizität aus dem schmutzigsten Brennstoff, der Braunkohle, erzeugt wird, sind die Werbeaussagen gewisser Hersteller reiner Hohn.
    Überall wird nur von der Leistungsaufnahme des Elektromotors im Fahrzeug gesprochen. Was ist mit den Nebenaggregaten wie Scheinwerfer, Heizung im Winter, Klimaanlage im Sommer? Was ist mit den Übertragungsverlusten und den Verlusten bei Ladung und Entladung der Akkumulatoren? Summiert man diese auf, so kommt man auf ca. 20 bis 25 Prozent Verluste!
    Über den Tesla-Sportwagen wurde in diesem Forum bereits geschrieben. Der in diesem Brief dargestellte Sachverhalt entspricht den Tatsachen und wurde bei einem Test vom ADAC nicht nur bestätigt, sondern sogar übertroffen: Der Tester fuhr wohl etwas schnell. Das Fahrzeug blieb mit defektem Akku liegen, da dieser zu heiß geworden war.
    Und das Märchen von Wind- und Wasserkraftnutzung durch Elektrofahrzeuge ist doch ebenfalls eine Fabel: Wenn Elektrizität gebraucht wird, dann wird sie geliefert, egal woher sie kommt. Und sind wir doch einmal realistisch: Mit dem geringen Anteil an erneuerbaren Energien in Deutschland ließe sich doch nur ein geringer Anteil von Elektroautos wirklich emissionsfrei betreiben.
    Es wurde sehr auf die deutsche Autoindustrie eingeprügelt, weil sie angeblich eine Entwicklung verschlafen habe.
    Was man der deutschen Autoindustrie anlasten kann, dass ihre Öffentlichkeitsarbeit erbärmlich war. Ansonsten kann es jedes neue Dieselfahrzeug sowohl bezüglich Wirtschaftlichkeit und auch Umweltrelevanz mit jedem Elektroauto aufnehmen.
  • Hörgewohnheiten sind kein Absolutum

    26.02.2009, Dr. Detlev Roßbach, Erlangen
    Die Autoren schreiben in ihrem Artikel zu Recht, dass sich Hörgewohnheiten mit der Zeit verändern. Das ist aber auch schon die einzige Aussage, die ich mit den Autoren teile. Absolute Kriterien abzuleiten, wie sich Klänge in Konsonanzen oder Dissonanzen einteilen lassen, halte ich für sehr gewagt, an einigen Stellen sogar für verwegen. Zum Teil basieren diese Kriterien auf falschen Zusammenhängen, die ich als so gravierend betrachte, dass ich mich frage, wie der Artikel den Weg in Spektrum der Wissenschaft gefunden hat. Zu einigen Punkten des Artikels möchte ich mich im Folgenden äußern.

    Auf Seite 66 der SdW-Ausgabe sind die Obertonreihen der Töne C und F angegeben, wobei in beiden Fällen der 6. Oberton falsch ist. Bleiben wir bei C, für F gilt das Folgende entsprechend: Der 6. Oberton von C hat die siebenfache Frequenz des Grundtons. In die Oktave des Grundtons hineinprojiziert ist das Frequenzverhältnis zum Grundton 7/4, also 1,75. Aus der Obertonreihe ergibt sich für die Sexte (A) ein Frequenzverhältnis von 5/3 (ca. 1,67) zum Grundton, für die kleine Septime (B) ein Frequenzverhältnis von 16/9 (ca. 1,78). D.h. dass sich der 6. Oberton deutlich näher an der kleinen Septime anordnet als an der Sexte. Dass der 6. Oberton als kleine Septime aufgefasst wird, zeigt sich z.B. auch an den Aliquotregistern der Orgel, die in den verschiedenen Tonlagen ihrer Register die Obertonreihe abbildet. Zumindest bei größeren Orgeln findet man hier und dort ein Septimregister (1 1/7’), nicht jedoch ein Sextregister. Bezogen auf das Quartintervall C-F bleibt also als gemeinsamer Oberton nur das C (in der C-Obertonreihe als Grundton sowie als erster und dritter Oberton, in der F-Obertonreihe als 2. Oberton), wenn man die Teiltöne bis zum 6. Oberton betrachtet. Hieraus abzuleiten, dass die Quarte konsonant ist, ist sicher nicht möglich, denn während sie in der Musik des Mittelalters als wohlklingend galt, war sie zur Zeit des Barock dissonant und verlangte nach Auflösung (z.B. als Quartvorhalt). Im Jazz hingegen muss sie nicht notwendigerweise aufgelöst werden.

    Bei den Dreiklängen versuchen die Autoren Spannungsakkorde (das seien solche Akkorde, bei denen die beiden aufeinanderfolgenden Intervalle gleich groß sind) durch Alteration eines Tons um einen Halbton in spannungsfreie Akkorde zu überführen und ihnen eine Dur-Moll-Tonalität zuzuordnen. Sie machen dabei jedoch den Fehler, dass sie die Begriffe „Tonalität“ und „Funktionalität“ durcheinander bringen. Die Dur-Moll-Tonalität, von der im Artikel oft die Rede ist, ist erst ab etwa 1600 wirklich etabliert. Die Musik der Renaissance war noch sehr von den Kirchentonarten beeinflusst. Die Funktionalität beschreibt, welche Funktion ein Akkord in einer harmonischen Umgebung einnimmt. Ein und derselbe Akkord kann also unterschiedliche Funktionen haben, je nachdem in welcher harmonischen Umgebung er sich befindet. In der Tabelle auf Seite 68 wird z. B. aus dem Spannungsakkord 5-5 durch Alteration des mittleren Tons um einen Halbton nach unten der Akkord 4-6, der in der Tabelle als „Dominant 7“ bezeichnet wird. Dies ist aber eine harmonische Funktion und hat erst einmal nichts mit Dur oder Moll zu tun. D7-Akkorde spielen ab der Musik des Barock (besonders seit Bach) eine wichtige Rolle und kommen sowohl in einer Dur- als auch in einer Moll-Umgebung vor. Ein G7-Akkord lässt sich z.B. sowohl nach C-Dur als auch nach c-moll auflösen, aber eines ist klar: Der Dominantseptakkord verlangt nach einer Auflösung! Hier von einem Akkord zu sprechen, bei dem die „Spannung gegen null“ geht, ist sicher nicht richtig.

    Dass sich Hörgewohnheiten tatsächlich im Lauf der Zeit ändern, mag ein anderes Beispiel zeigen: die Stimmung. Auf die gehen die Autoren in ihrem Artikel überhaupt nicht ein, obwohl gerade die verschiedenen Stimmungssysteme zeigen, welchen Änderungen Hörgewohnheiten unterworfen sind. Während in der Musik des 16. – 18. Jahrhunderts die mitteltönige Stimmung verbreitet war, etablierte sich seit dem Barock die temperierte Stimmung (Werckmeister), während man heute in der Regel die gleichstufige Stimmung verwendet. Alle Stimmungen haben ihre Pros und Contras, aber es gibt keine absoluten Kriterien, die erlauben würden, eine bestimmte Stimmung als die einzig richtige zu identifizieren. Es wäre interessant zu erfahren, wie ein Mensch des 16. Jahrhunderts beispielsweise einen Des-Dur-Akkord, der für unsere Ohren auf einem gleichstufig gestimmten Klavier gespielt ein Wohlklang sein mag, auf einem mitteltönig gestimmten Cembalo empfunden hat. Man darf vermuten eher als Missklang, denn als Konsonanz, obwohl doch auch auf einem Cembalo des 16. Jahrhunderts der Akkord aus einer großen und einer kleinen Terz besteht. Dieses einfache Beispiel zeigt, dass es nicht möglich ist, absolute Kriterien in dem Sinn, wie es die Autoren getan haben, einzuführen, um zu zeigen, ob ein Akkord als konsonant oder als nicht-konsonant empfunden wird. Hörgewohnheiten ändern sich eben!
    Stellungnahme der Redaktion

    Sammelantwort der Autoren auf alle Zuschriften


    Zunächst möchten wir allen Kommentatoren für ihre sorgfältige Lektüre des Artikels und die anregende Diskussion danken. In der Tat ist die Abbildung, die das Phänomen der Obertöne grundlegende erklären soll, durch den Vergleich zur bekannten Klaviatur etwas unpräzise, beispielsweise müsste F2 näher bei F3 liegen. In der heute üblichen wohltemperierten Stimmung allerdings werden die Unterschiede ein wenig nivelliert. Detlev Rosbach hat natürlich Recht damit, dass beispielsweise der 6. Oberton, vom Grundton aus gesehen, zwischen dem 33. und 34. Halbton liegen würde, mit C als Grundton also wäre das ein Ton zwischen A und Bb. Musikalisch bedeutet das übrigens, dass höhere Ordnung der Obertöne immer etwas Dissonanz erzeugen, was heute allgemein akzeptiert wird, in den Stimmungen des Mittelalters Bedeutung hatte.


    Wie Theo Hartogh richtig moniert, wird das Deutschlandlied nicht immer in D-Dur gespielt, Haydn komponierte die Melodie ursprünglich in G-Dur. In der wohltemperierten Stimmung bedeutet die Wahl einer anderen Dur-Tonart lediglich ein Verschieben der Tonhöhe, der grundlegende Charakter – kraftvoll, hell, optimistisch – ändert sich dadurch nicht. Hartogh irrt, was den Beatles-Song »Yesterday« angeht: Die Tonfolge von »Why she had to go« ergibt einen Moll-Akkord in 2. Umkehrung auf (D, G, Bb), so erzielte Paul McCartney den beabsichtigen Eindruck von Verlorenheit und Trauer.


    Dieser Moll-Charakter bleibt übrigens auch dann erhalten, wenn man die Passage mit Dur-Akkorden begleitet. Dennoch steht die Bedeutung des musikalischen Kontextes von Mehrklängen und Tonfolgen für deren Funktion innerhalb eines Stücks außer Frage. Der Clou unserer Arbeit ist aber gerade, dass wir einen biologischen „Mechanismis“ entdeckt haben, der einen Dur- oder Moll-Charakter auch dann zu erklären vermag, wenn Akkorde und Sequenzen für sich allein, also ohne Kontext erklingen. Und dieser Charakter entspricht der musikalischen Erfahrung.


    Die Tonalität von Dreiklängen wird unseres Erachtens also primär von ihrer akustischen Struktur, nicht von der jeweiligen Kultur mit ihren Wahrnehmungsgewohnheiten bestimmt. Auch wenn seit der Renaissance meist mit Bezug zur Dur-Tonalität komponiert wurde, symmetrische, spannungsvolle Akkorde hingegen seltener Verwendung fanden, eignen sie sich unseres Erachtens besser als Referenz, um die emotionale Qualität von Mehrklängen modellhaft zu untersuchen.


    Ein Blick auf nichtwestlichen Musikkulturen ändert daran übrigens nichts, mögen diesen 5-, 7- oder gar 22-tönige Skalen zugrunde liegen. Auch dort gibt es Tonfolgen mit implizit Dur- oder Moll-Charakter. Das gilt für traditionelle chinesische und japanische Stücke ebenso wie für nordindische Ragas. Die Wahrnehmung der Tongeschlechter ist also ein Kulturen übergreifende Phänomen und das spricht wohl ebenfalls für eine biologische Grundlage.

  • Energieträger für die Zukunfts-Automobilität

    25.02.2009, Dipl.Ing. Gerd Höglinger, 83026 Rosenheim
    Als Hauptenergieträger für die künftige Automobilität stelle ich mir verflüssigten Wasserstoff vor. Mit diesem laufen schon heute Otto-Motoren problemlos und er kann ebenso in Brennstoffzellen Strom für Elektromotoren erzeugen. Damit werden sehr gute Motorleistungen und genügende Fahr-Reichweiten ermöglicht.

    Der Wasserstoffbedarf kann hauptsächlich gedeckt werden durch riesige Photovoltaik-Anlagen und Wasserstoff-Verflüssigungsanlagen im Sonnengürtel der Erde (z.B. Nordafrika, Sahara, Saudi Arabien usw.) Transport des Wasserstoffs in die Bedarfsländer würde durch Spezialtankschiffe erfolgen.

    Elektroantrieb auf der Basis von Lithiumionen-Akkus halte ich nur als zukunftstauglich für Stadt- und Nahbereichsmobilität. Der Strom dafür kommt dann aus CO2-freien AKW (auch wenn die Grünen noch so aufschreien mögen...).
  • Fahren mit Windstrom

    24.02.2009, Lothar Busold, Mannheim
    Der Clou der Sache wäre natürlich, wenn man zum Betanken des Automobils die Zeiten des Überangebots an Strom nutzen könnte. Diese ergeben sich aus der nicht bestimmbaren Leistung von Windkraft- und Sonnenanlagen. Überschuss herrrscht, wenn ein Sturm über das Land fegt oder die Sonne am wolkenlosen Himmel steht. Was passiert dann heute? Man schaltet die Windkrafträder ab, oder man fährt die Leistung eines Kohle- oder Atomkraftwerks herunter. Das führt dann dazu, dass die Anlage in einem ungünstigen Wirkungsgradbereich gefahren wird, bei dem etwa 20 Prozent des durch Wind vermiedenen CO2s wieder gegenläufig entsteht.

    Hier wäre eine Lösung möglich, von der drei Partner etwas haben: Automobilhersteller, Energieerzeuger und Politik. Die Autobranche will ihre Kunden billig tanken lassen und erwirkt, dass die Akkus im Moment eines Stromüberschusses betankt werden. Zu einem sehr geringen Preis, denn der Strom wäre ansonsten ja unverkäuflich. Der Energieerzeuger freut sich über die geglättete Verbrauchskurve, die Politik kommt mit ihren CO2-Sparzielen voran.

    Ist das nicht unendlich schwierig, das abzurechnen? Vermutlich nicht, denn das Gegenstück auf der Angebotsseite gibt es schon. Ein Biogasbauer, der laut Einspeisegesetz 15 ct/kWh bekommt, darf augenblicklich an die Leipziger Strombörse wechseln und dort verkaufen, wenn er dort 17 Cent bekommt. Und selbstverständlich wieder zum EEG wechseln, wenn der Preis auf 14 Cent fällt. Dies ist so seit dem 1.1. 2009. Und es war nicht zu hören, dass die Abrechnung irgendwelche Probleme gemacht hätte.

    Preislich kann das Elektroauto noch nicht ganz mit dem Benziner mithalten, aber unter diesen Umständen käme natürlich von mehreren Seiten her Bewegung in die Preisfront.

    Also man hat jetzt nicht mehr den Tiger im Tank, sondern den Lothar. Nicht mich natürlich, sondern den gleichnamigen Orkan.
  • Logik der Forschung

    24.02.2009, Paul-Gerhard Schank, Berlin
    In seinem Essay will der Autor zeigen, dass Poppers Falsifikationskriterium aus dessen "Logik der Forschung" (1934) überholt ist oder vielleicht noch nie praktisch relevant war. Dazu stellt er Poppers Ansatz einem so genannten bayesschen Ansatz oder Bayesianismus gegenüber.

    Leider differenziert Matthews dabei zu wenig. Meines Erachtens wäre einerseits zu unterscheiden zwischen einer präskriptiven Wissenschaftstheorie und einer deskriptiven, also nicht miteinander zu vermischen, worin Wissenschaft als Methode bestehen soll und was Wissenschaft in der faktisch durch die Wissenschaftler gelebten Praxis ist. Das führt gleich zum zweiten zu unterscheidenden Paar, der Wissenschaft als institutionalisiertem Wissenschaftsbetrieb mit seiner Soziologie und Psychologie und der Wissenschaft als Programm auf dem Weg der Wahrheitssuche. Denn immerhin geht es sowohl in Poppers als auch im bayesschen Ansatz in erster Linie um die Logik, nicht um die Praxis der Forschung.

    Worauf gibt Poppers Wissenschaftstheorie mit ihrem Falsifikationskriterium eine Antwort? Es geht nicht um eine Vorab-Definition der Wissenschaft, auch nicht um ein a priori des wissenschaftlichen Tuns, sondern um den konkreten Nachweis, dass die so genannte induktive Methode logisch nicht haltbar ist. Diese Methode besteht kurz gesagt darin, scheinbar neutral Daten zu sammeln, um daraus Hypothesen abzuleiten und so in einem bottom up-Verfahren ("induktiv") zu allgemeinen Gesetzen und Theorien zu gelangen. Diese Form der Induktion ist aber kein logisch gültiges Verfahren, und es entspricht auch gar nicht der wissenschaftlichen Forschungspraxis, in dieser Weise vorzugehen; vielmehr werden (allzu oft mehr oder minder bewusst verdeckt gehaltene) Grundannahmen bei der Datengewinnung eingebracht, die dann auch für die Hypothesen- und Theorienbildung wieder eine Rolle spielen. Der daraus entstehende Zirkel ist aber für den Fortgang des Forschungsprozesses bremsend, insbesondere dann, wenn er nicht (selbst-)kritisch begleitet wird.

    Beschleunigend hingegen ist, und nichts anderes schlägt Popper vor, Theorien von vornherein so zu formulieren, dass sie möglichst viele präzise Vorhersagen machen, die einer empirischen Überprüfung zugänglich sind. Auf diese Weise können schwächere von stärkeren Theorien unterschieden sowie unhaltbare Behauptungen ausgesondert werden. Das Falsifikationskriterium beantwortet damit die Frage, wie eine wissenschaftlich vertretbare Annäherung an die Wahrheit möglich ist, ohne dass diese in direktem rationalem Zugriff erreichbar ist. Es empfiehlt eine idealtypische Methode, um Dogmatismus und Spekulation gleicherweise zu entgehen, und formuliert kein autoritäres Prinzip. Lediglich eine prinzipielle Möglichkeit zur Falsifizierung wird gefordert für den Anspruch auf Wissenschaftlichkeit; wann die Falsifizierbarkeit faktisch erreicht werden kann, bleibt im Gang der Forschung offen.

    Man kann Poppers Kriterium nicht gerecht werden, wenn man es aus dem Zusammenhang isoliert, in den es von seinem Autor gestellt worden ist. Dieser Zusammenhang besteht in einer prozessualen Schau auf den Gang der Forschung: (älteres) Problem -> Lösungsvorschläge -> Eliminationsversuche -> neue Problemformulierungen. Da mit einem (älteren) Problem begonnen und mit einem oder mehreren Problemen geschlossen oder eben grade nicht geschlossen wird, ist der Gang der Forschung nach dieser Schau zyklisch. Erst dieser Zyklus insgesamt macht aber die Wissenschaft aus. Das Falsifikationskriterium hat seinen Platz innerhalb dieses Zyklus im Prozessstadium der Eliminationsversuche und kann daher nicht für eine Definition oder Wesenscharakterisierung der Wissenschaft schlechthin herhalten. Diesen Platz innerhalb des Forschungszyklus teilt es in Poppers Sicht übrigens mit kritischer Diskussion, also auch mit dem Bayesianismus.

    Das alles ist leicht und übersichtlich nachzulesen im Abdruck des Radiovortrags (NDR, 07.03.1972), den Popper in die Aufsatzsammlung "Alles Leben ist Problemlösen" (1994) aufnehmen ließ, und zeigt, dass der wahrscheinlichkeitstheoretische bayessche Ansatz keines Wegs mit Poppers empirischer Falsifikation unverträglich ist, sondern sich zu dieser komplementär verhält. Matthews‘ polarisierende Darstellung erscheint mir von daher sachlich verfehlt oder zumindest journalistisch zu sehr überspitzt.
    Popper selbst führt übrigens die Psychoanalyse Freuds an als Beispiel für eine prinzipiell nicht falsifizierbare Theorie. Über Hugh Everetts Viel-Welten-Deutung des Quantenmessproblems oder andere Spielarten des Multiversums lässt sich aber wohl so viel extrapolieren: Was nicht empirisch überprüfbar ist, bleibt trotz Bayes so lange spekulativ, bis es auf anderem Wege (also z.B. mit mathematischer Beweisführung) behandelt werden kann – oder bis es sich selbst in die Metaphysik einzuordnen bereit ist. Wer in diesem Letzteren eine nutzlose Spielerei sieht, sollte vielleicht noch einmal den Grundkurs Philosophie belegen. Wissenschaftlich-rationale Wahrheitsansprüche werden damit freilich aufgegeben.
  • Stressbremse und Lebensglück

    24.02.2009, Paul Schmitt-Wiemann Freiheitstr 95 46284 Dorsten
    Demethylierung dieses Glucocorticoid-Rezeptors ist ein grundsätzlicher Vorgang nach der Geburt. Die bei der Geburt für das Kind auftretenden Schmerzen werden durch die Methylierung anscheinend erträglich, der künftige Erwachsene wird also durch diesen Vorgang nicht vorgeschädigt.

    Demethylierung bereitet die kindliche Sensorik und deren Erstverarbeitung damit auf die dann kommenden durchaus harten Tatsachen vor, nachdem es zuvor ja quasi in Watte gepackt worden war.

    Dieser Vorgang wird durch zu schnelle und zu frühe schlimme Erfahrungen anscheinend gestört, so dass dieser Serotonintransporter (über Freisetzung von stimmungsaufhellendem Serotonin) nicht nur jetzt, sondern auch später nicht in dem Maße wieder aufhellen kann nach schlechten Erfahrungen, wie es nötig wäre.

    Allerdings ist dies nur eine Grundeinstellung, die durch die anderen Erfahrungen weiter strukturiert werden: Jeder Mensch reagiert quasi in seinem weiteren Leben darauf. Ob er nun später Konflikte stärker vermeidet oder verstärkt kompensiert, hängt von vielen weiteren Erfahrungen ab.

    Bleiben wird wahrscheinlich so etwas wie eine Stressempfindlichkeit - und auch bei Menschen, die danach ein recht geordnetes Leben führen, so etwas wie ein größerer Bedarf an beruhigenden Momenten beziehungsweise Einflüssen.

    Mich würde interessieren, ob dies bei dem unbekannten Leserbriefschreiber der Fall ist.
  • Das Auto neu erfinden!

    24.02.2009, Nikolaus Viebahn, Bonn
    Warum beschränkt man sich nicht auf die Energiespeicherung für Kurzstrecken? Außerorts könnten Autos an Führungsschienen gekoppelt automatisch fahren und mit Strom versorgt werden, auch zur Nachladung. Alle mit gleicher Geschwindigkeit und mit kleinstem Abstand. Das reduziert den Flächenbedarf für Verkehrswege sowie den Energieaufwand. Der Luftwiderstand sinkt, die Fahrzeuge schleppen nicht unnötig schwere und großvolumige Akkupakete mit. Die Reisenden können sich entspannen und die Zeit nutzen.
    Soll die Auto-Mobilität Zukunft haben, genügt es nicht, den Tank durch Akkus oder Brennstoffzellen zu ersetzen. Das Auto muss neu erfunden werden.
  • Nicht ohne Wärme-Kraft-Kopplung!

    24.02.2009, Roland Minde, Konstanz
    Ein auf Primärenergie (Öl, Kohle, Kern) basierendes Energie-Konzept, welches entstehende Abwärme vergeudet, ist kein gutes Konzept!
    Zum Beispiel schlecht: Hybrid-Autos zur Stromerzeugung.
    Zum Beispiel gut: dezentrale Blockheizkraftwerke (in Einfamilienhäusern) zum Heizen, Strom erzeugen und Strom tanken.
  • Kategorial oder ontologisch?

    24.02.2009, Paul-Gerhard Schank, Berlin
    Kategorial oder ontologisch?
    Mir scheint, das ist bezüglich Anselms Beweis die Frage.
    Soweit ich ihn verstehe, will er uns sagen:
    Wenn wir erst einmal begonnen haben, dass wir Gott mit-denken, dann können wir diesen Schritt nicht mehr rückgängig machen. Er bleibt dann als notwendige Kategorie in unserem Denken.
    Wer ernsthaft über Gott spricht und nachdenkt, hat diesen Schritt bereits vollzogen.
    Dass sich für Anselm Gott auf diese Art erweist, ist insofern nur konsequent und nicht etwa "sein Problem". Es ist ein Wechsel der Denkungsart, nicht ein greifbarer Beweis.
  • Generelle Beschönigung?

    24.02.2009, Thomas Wietoska
    In Heft 3/09 der Zeitschrift "Spektrum der Wissenschaft" wurde relativ ausführlich über die aktuelle Entwicklung auf dem Sektor der Elektrofahrzeuge berichtet. Was ich bei diesem Artikel vermisse, ist eine genaue Analyse der zur Zeit verfügbaren Infrastruktur zur Bereitstellung der notwendigen Ladeleistungen und Energien für eine hohe dichte von Elektrofahrzeugen. Schließlich wurde bei der Auslegung des Energieversorgungsnetzes nicht berücksichtigt, das gegen 17 Uhr nicht nur der Elektroherd und die Beleuchtung eingeschaltet wird, sondern auch noch eine Unzahl von Elektroautos mit Leistungen jenseits der 10 kW aufgeladen werden. Lässt sich in einem einzelnen Haushalt noch relativ einfach ein Drehstromanschluss entsprechender Leistung nachrüsten, so dürfte es in kleineren Orten jedoch schnell zur Überlastung der Mittelspannungs-Transformatoren kommen. Zwar wird gerne behauptet dies sei alles in den Griff zu bekommen (http://www.energiespektrum.de/index.cfm?pid=1388&pk=80374) doch wird es dazu wieder unzähliger Zusatzmaßnahmen bedürfen, wie im verlinkten Artikel angedeutet wird.

    Was ich jedoch noch weitaus bedenklicher finde als die generelle Beschönigung der Elektroautos, sind die Angaben der Hersteller. Nimmt man den in Ihrem Heft vorgestellten Tesla, so wird dieser mit 360 km Reichweite beworben. Nicht viel, wenn man dann mindestens 4 Stunden "nachtanken" muß. Liest man aufmerksam den Artikel, so wird man schnell stutzig. Dort wird von 225 kW Motorleistung und 53 kWh Energiegehalt der Akkus gesprochen. Rechnerisch ist nach etwa 15 Minuten Vollgas Schlussß. Selbst bei über 200 km/h sind das kaum mehr als 50 km. Gehe ich davon aus, das ein Auto etwa 40 kW braucht, um 160 km/h zu fahren (was der Erfahrung nach so ist, wenn man Höchstgeschwindigkeit und Leistung der Autos vergleicht), eine für so einen Wagen gemütliche Geschwindigkeit, so ist nach nicht einmal 200 km Schluss. Weiterhin fällt mir auf, das diese Akkus ("Notebookakkus", vermutlich Rundzellen Typ CGR18650) keinesfalls für Belastungen mit 4 C (also Entladeleistung 4 mal so hoch wie der Energiegehalt) ausgelegt sind. Und auch kalte Temperaturen machen den Zellen zu schaffen. Hinzu kommt, das nach etwa 500 Zyklen die Kapazität schon um mehr als 20 Prozent abnimmt. (Quelle: http://www.actec.dk/Panasonic/pdf/CGR18650E.pdf).

    Man könnte argumentieren, das die Messung von Durchschnittsverbrauch und somit die Reichweite von Fahrzeugen mit Verbrennungsmotoren auch unter nicht realistischen Bedingungen stattfinden. Nur geht es dort nicht um die Halbierung oder gar Drittelung der angegebenen Reichweite bei etwas zügigerer Fahrweise. Selbst bei sportlicher Fahrweise sind die erzielbaren Reichweiten nur rund 20 Prozent geringer als Werksangaben. Wenn ich mir vorstelle, über 100.000 Euro für ein Fahrzeug auszugeben - und bei einer Vollgasfahrt ist nach nicht einmal 100 km Ende, und das für mindestens vier Stunden, nämlich die benötigte Zeit zum Aufladen???

    Es ist wieder einmal typisch für die politisch so geförderte Elektroauto-Branche, statt reale Betrachtungen (CO2-Ausstoß bei vorhandenem Energiemix, Einbeziehung der Akkuentsorgungs-Problematik, tatsächlich mögliche Leistungsmerkmale, Infrastruktur für Ladung) nur die üblichen Schlagworte zu predigen. Warum nicht einfach dazu stehen, das zur Zeit diese Technik einfach nicht ansatzweise eine Alternative ist. Und kein Mensch scheint auf die Idee zu kommen, dass für die Stadtfahrten zur Arbeit von wenigen Kilometern auch ein Fahrrad genutzt werden kann. Besser kompliziert als das Naheliegende. Lieber das Geld in einen Ausbau der Radwege in der Stadt und im Umland investieren, damit man auch sicher mit wettergeschützten Liegerädern zur Arbeit fahren kann. Diese kosten nur wenige tausend Euro und sind wirklich umweltfreundlich. Die "Ladezeit" beträgt rund eine Minute für das Verspeisen eines Müsliriegels.

    Im Übrigen fahre ich nach Belieben mit einem sparsamen TDI, einem sehr gut motorisierten Sportwagen oder dem Rad die rund 40 km zur Arbeit. Somit bin ich relativ neutral und für vieles offen, solange die Vorschläge auch wirklich im realen Leben ohne schwachsinnige Auflagen und Zusatzabgaben durchsetzbar sind.
  • Keine Regel ohne Ausnahme

    24.02.2009, Name der Redaktion bekannt
    Vielleicht wird es als "Tanten-Soziologie" ("ich habe aber eine Tante, die...) bezeichnet, aber weder bei meiner ältesten Schwester noch bei mir kann man irgendeine der Erscheinungen feststellen, die in Ihrem Artikel erwähnt werden.

    Wir sind von unserer Mutter und deren jeweiligen Ehemänner geprügelt und beleidigt worden, mussten alle Hausarbeit (acht Personen) verrichten, einschließlich der Wäsche von Hand, waren beide jeweils mehr als insgesamt zehn Jahre in geschlossene Fürsorgeheime.

    Dennoch haben wir unsere Kinder liebevoll und ohne ein Strafregime aufgezogen, sind beide seit Jahrzehnten mit demselben Partner verheiratet. Außerdem habe ich als Erwachsener nach kaufmännischer Lehre noch ein Studium abgeschlossen und spreche vier Sprachen fließend und bin international als Berater für multinationale Organisationen tätig.

    Wie unser persönlicher Hintergrund als Kinder und dann als Erwachsene mit den von Ihnen geschilderten Beobachtungen in Einklang zu bringen ist, entzieht sich meiner Beurteilungsfähigkeit.
  • Die Wirtschaft als technischer Regelkreis - Brief Grob

    23.02.2009, Peter Hussels, Berlin
    Als Ingenieur versuche auch ich gerne, mir die Welt als Regelsystem vorzustellen. Ich habe aber einen Einwand zum Leserbrief von Herrn Dr. Ulrich Grob.

    Eine zeitliche Verzögerung wirkt nicht dämpfend, sondern beeinflusst nur die Anstiegsgeschwindigkeit und damit die Frequenz, wenn es zur Schwingung kommt. Durch Verzögerung in Form einer Totzeit würde sogar zusätzliche Unruhe entstehen. Reibung muss dem System Energie entziehen. Das würde bedeuten: Besteuerung von Börsenumsätzen! Besteuerung von zu schnellen Innovationen — im Gegensatz zur bis gestern gültigen Formel, dass das Neue immer das Bessere ist. Es muss also immer etwas vom Gewinn verloren gehen, wenn man zu schnell reagiert. Dies darf keinesfalls verzögert geschehen, denn der Mensch (als Sollwertgeber, Sensor, Vergleichsglied - Regelglied - Stellglied) macht so lange in die alte Richtung weiter, bis er eine Reaktion merkt.

    Ein leicht schwingungsfähiges System wird leider bewusst von der Politik bevorzugt, da die damit möglichen kurzen Anstiegszeiten einen Erfolg bis zur nächsten Wahl ermöglichen.

    Die Beurteilungszeiträume für Manager und Politiker sind zeitdiskret gerastert, die Börse dagegen ist zeitkontinuierlich. Man müsste das Börsengeschehen so verlangsamen, dass das Raster ausreicht. Bisher gab es den Effekt, dass eine Partei am Wahltermin nicht am Ergebnis ihrer eigenen Arbeit gemessen wurde, sondern an dem verzögert eingetretenen Ergebnis der Arbeit des Vorgängers. Das reicht bei einem technischen Regelkreis schon für eine Instabilität. Demnächst trifft eine Wahl vielleicht sogar zwei Schwingungen weiter zufällig ein Tal oder einen Berg (Aliasing-Effekt). Da kann man nicht mehr von einer Regelung sprechen. Eine sichere Lösung bestünde darin, diese Schwingungen — wie Herr Dr. Ulrich Grob vorschlägt — durch Reibung im System zu dämpfen.
  • Warten auf das "Zukunftsauto"

    23.02.2009, Hermann Riedl, 91080 Uttenreuth
    Ich nehme an, daß "Strom im Tank" der richtige Weg ist. Zu diesem Urteil komme ich, weil wir uns im Fall der intelligenten Vernetzung einen Speicher für elektrische Energie schaffen, den wir so dringend brauchen. So könnten Lastschwankungen besser ausgeglichen und der Anfall z.B. von Windenergie für eine bessere Verwertung "gepuffert" werden.

    Ich habe einen 10-jährigen PKW, den ich jetzt günstig verschrotten lassen könnte, aber ich kann mir nicht das von mir gewünschte Auto kaufen; 2500 € können mich da nicht locken! Ich werde also warten, bis ich das gewünschte "Zukunftsauto" erhalte.

    Falls der Weg "Elektroauto" nicht eingeschlagen wird, werde ich auch künftig kein Auto kaufen, das mit fossilen Brennstoffen fährt!
  • Elektroautos ja, aber ...

    23.02.2009, Fritz Kronberg, Rondeshagen
    "Wenn wir alle immer weniger Strom verbrauchen, brauchen wir ja neue Bereiche, in denen man Strom verwenden kann."

    .... damit wir auch ordentlich weiter Kohlekraftwerke, insbesondere solche, die Braunkohle verfeuern, bauen und betreiben müssen ...

    Im Ernst: Elektroautos als rollende Stromspeicher, die bei Bedarf wieder Strom ans Netz liefern, zu betrachten, ist eine der hirnlosesten Ideen, die ich seit langem gehört habe. Welcher Autofahrer wird wohl freiwillig den mühsam (Zeitaufwand) und teuer gefüllten "Tank" zugunsten des Netzes wieder leeren, um dann, wenn er losfahren will, genau das nicht zu können.

    Elektroautos an sich sind durchaus sinnvoll, wenn sie Sonnen-, Wind- oder Kernenergie nutzen können. Allerdings muss wirklich erst das Reichweitenproblem gelöst werden.
  • Leserbrief Dr. Grob - Regelkreis

    22.02.2009, Dr. Horst Käsmacher, Aachen
    Dr. Ulrich Grob sieht in seinem Leserbrief die Märkte als kybernetisches Netzwerk aus rückgekoppelten Regelkreisen und führt die Schwingungen auf ungenügende Dämpfung zurück. Rückkoppelung allein macht allerdings noch keinen Regelkreis aus. Voraussetzung dafür ist nämlich zusätzlich, dass die Rückkoppelung negativ ist. Das ist aber in der Wirtschaft nicht generell der Fall. Zwar offenbart sich die Regelung des Preises auf den Warenmärkten durch das Zusammenwirken von Angebot und Nachfrage bei näherem Hinsehen tatsächlich als Regelkreis. So wirkt ein steigender Preis positiv auf das Angebot, während ein steigendes Angebot seinerseits negativ auf den Preis zurückwirkt. Eine steigende Nachfrage wirkt positiv auf den Preis, während ein steigender Preis negativ auf die Nachfrage zurückwirkt. Dieses Teilsystem ist mithin negativ rückgekoppelt.

    Anders verhält sich jedoch unser Geldsystem. Hier wirkt das Geldkapital positiv auf den Zinsertrag und der Zinsertrag seinerseits positiv auf das Geldkapital zurück. Es handelt sich wegen des Fehlens eines negativen Stellgliedes mithin nicht um einen Regelkreis. Aufgrund dieses Sachverhaltes wachsen Guthaben und Schulden exponentiell an. Diese Tatsache ist empirisch belegt. Ein positiv rückgekoppeltes System ist jedoch von vornherein auf seine eigene Zerstörung programmiert, wie z.B. eine Atombombe, bei der jede Kernspaltung mindestens mehr als eine weitere auslöst. Unter diesem Gesichtspunkt ist unser Geldsystem und damit auch unser Wirtschaftssystem a priori instabil, so dass der Kollaps nach 60 bis 80 Jahren unausweichlich ist. Mich jedenfalls erinnern die sich aufschaukelnden Schwingungen eher an das Feigenbaumszenario, als an einen aus der Kontrolle geratenen Regler.
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.