Direkt zum Inhalt

Kommentare - - Seite 1098

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Schlummernde Begabungen

    27.12.2006, Roland Maier, Riemerling
    Kim Peek ist ein "Inselbegabter" mit herausragenden Gedächtnisleistungen einerseits und mit gewissen Defiziten in der Bewältigung des Alltags andererseits.
    Offensichtlich kommt es immer wieder vor, dass durch Entwicklungsstörungen und Schädigungen des Gehirns beziehungsweise dessen linker Hälfte Spitzenbegabungen in Erscheinung treten.
    Entgleisungen in der embryonalen Entwicklung und Verletzungen des Gehirns sind von Natur aus ein zufälliges Ereignis. Auch wenn in Folge eines solchen Ereignisses eine Reihe von durchaus geordneten Reparaturmechanismen ablaufen, so bleibt die eigentliche Ursache doch von statistischer Natur.
    Hier stellt sich zwangsläufig die Frage, wie ausgerechnet so ein kompliziertes Organ wie das menschliche Gehirn durch zufällige Beeinflussung Spitzenleistungen hervorbringen kann. Es gibt sonst weder in der belebten noch in der unbelebten Natur Beispiele, in denen sich komplizierte (und nützliche) Systeme nach Schädigungen verbessern.
    D.A. Treffert und D.D. Christensen schreiben: "... die rechte Hemisphäre ist nun vom Joch der linken Hirnseite befreit, die in der Regel als dominant gilt und in manchem über die rechte Seite bestimmt. Deswegen vermag die rechte Hemisphäre nun einige ihr innewohnende Fähigkeiten hervorzubringen, die sonst schlummern."
    Allgemein würde das Folgendes bedeuten:
    1. Der normale Mensch hat wesentlich mehr Intelligenz als er nutzen kann.
    2. Es birgt Bereiche im Gehirn, die Intelligenz unterdrücken.
    Damit ließe sich die obige Frage beantworten. Wenn die Verletzungen oder Störungen den Bereich betreffen, der Intelligenz unterdrückt, so können mehr vorhandene Fähigkeiten genutzt werden. Es wurde eine Störung gestört und dadurch eine Verbesserung erzielt. Vermutlich werden je nach Betroffenheit der Störbereiche unterschiedliche Begabungen "befreit".
    Seitens der Medizin wird versucht, den Mechanismus dieser Unterdrückung zu verstehen. Es handelt sich jedoch nicht nur um ein medizinisches Problem. Viel wichtiger erscheint mir die Frage, wie sich so etwas überhaupt entwicklungsgeschichtlich bilden konnte. Es ist nicht vorstellbar, dass Fähigkeiten und deren komplette Unterdrückung gleichzeitig entstehen können, denn die Evolution selbst ist nicht schizophren.
    Die Begabungen einerseits und deren Gegenspieler andererseits müssen also nacheinander entstanden sein - die Begabung zuerst.
    Üblicherweise entwickeln Organismen nur dann Fähigkeiten, wenn ein Selektionsdruck vorhanden ist. Auch die Begabungen von Savants können ursprünglich nur dadurch entstanden sein, dass es Vorfahren gab, die diese unter einem entsprechenden Selektionsdruck ausbildeten. Das würde aber bedeuten, dass es früher Menschen gab, die mit einem besseren Intellekt ausgestattet waren als die heutigen. Aus Schädelfunden weiß man, dass das durchschnittliche Gehirnvolumen der Europäer in den letzten Jahrtausenden ständig abgenommen hat (SdW 9/1995). Reste der frühen Fähigkeiten würden heutzutage als Inselbegabung in Erscheinung treten. Ein Puzzle dieser Reste könnte den Horizont dieser früher lebenden Menschen ergeben, den ich als Frühintelligenz bezeichnen möchte.
    Warum aber unterdrückt das Gehirn seine eigenen Fähigkeiten? Wozu bildet das Gehirn Bereiche aus, die andere Teile lahm legen? Ich denke, dass man diese Frage durchaus kontrovers diskutieren könnte. Hier ein paar Ansätze:
    - Die Intelligenz des Einzelnen wurde mit der Änderung der Lebensform immer weniger lebensnotwendig. Fehlender Selektionsdruck führte zu Rückbildungen.
    - Die in SdW 9/1995 beschriebenen "Energiesparmaßnahmen" begünstigten Rückbildungen.
    - Die entsprechenden Bereiche des Gehirns wurden für andere Aufgaben benötigt.
    - Soziale Strukturen bevorzugten (beziehungsweise erzwangen?) angepasste und weniger intelligente Individuen. Man denke an tragische Schicksale großer Erfinder.
    Die menschliche Intelligenz spielt in unserem Dasein immer noch die zentrale Rolle. Insofern dürfte es für eine Reihe von Disziplinen höchst interessant sein, sich mit der historischen Entwicklung der Leistungsfähigkeit dieses Organs zu befassen.
  • Keine plausiblen und überzeugenden Alternativtheorien

    27.12.2006, Reiner Vogels, Swisttal-Odendorf
    Sowohl beim Lesen des Editorials von Reinhard Breuer als auch beim Lesen des Essays von Michael Springer ist es mir erneut gegangen wie so oft, wenn ich Texte lesen, in denen sich Naturwissenschaftler über das Verhältnis von Glaube und Vernunft äußern. Immer wieder bin ich erstaunt, mit welcher Selbstsicherheit und welcher Unangefochtenheit Naturwissenschaftler den Anspruch zu erheben scheinen, sie hätten die Grundfragen der Wirklichkeit gelöst oder sie verfügten doch zumindest über die Methoden, mit denen die Antwort auf diese Fragen gefunden werden könne. Immer wieder bin ich erstaunt, dass manche der Naturwissenschaftler dann sogar zur Haltung einer gewissen Indolenz gegenüber den Vetretern des Glaubens zu neigen scheinen.

    Dabei sind die Ansprüche der Naturwissenschaftler in gar keiner Weise durch die Fakten gedeckt. Es ist nun einmal bis auf den heutigen Tag so, dass die Naturwissenschaft, was die Grundfragen des Seins und des Lebens betrifft, den Schöpfungsmythen des Glaubens keine plausiblen und überzeugenden Alternativtheorien hat entgegenstellen können.

    Das gilt ja schon auf dem ureigensten Gebiet der Naturwissenschaft selbst, auf dem Gebiet also, auf dem es eigentlich keinen Konkurrenzkampf zwischen Vernunft und Glaube geben sollte:
  • Bitte nicht nochmal

    26.12.2006, Heiner Schilling, Darmstadt
    Selten habe ich mich als langjähriger Abonnent über einen Spektrum-Artikel so geärgert. Da wird kostbarer Raum für die epische Darstellung verschwendet, daß Genie zu 90 % aus Transpiration und zu 10 % aus Inspiration besteht. Na ja, vielleicht nicht Spektrum-Stil, kann aber passieren. DARF ABER NICHT ALS AUFMACHER PASSIEREN!

    Die Behauptung, daß Anlagen, Talent im Vergleich zur Motivation nur eine untergeordnete Rolle spielen, die man nur - möglichst bereits pränatal - kräftig drillen müsse, kommt einer Arbeitsgarantie für Familientherapeuten nahe, die sich bereits kräftig über volle Praxen mit am Ehrgeiz der Eltern gescheiterter Kinder freuen dürfen.

    Ich wäre gespannt über die Ergebnisse einer vergleichenden Studie über Alkoholismus von Q1-Fussballern, die es trotz brennender Motivation nicht geschafft haben.

    Kleiner Tipp: Der Farbenblinde wird kein Maler, der Zwergwüchsige scheitert im Basketball, wem Gott - an den ich nicht glaube - kein gutes Gehör geschenkt hat, der sollte besser seinen Ehrgeiz nicht auf Musik lenken.

    Förderung - auch früh: Ja bitte! Rücksichtsloser Drill, nein Danke.
  • Funktionsweise Atkinson-Motor fehlerhaft beschrieben

    25.12.2006, Martin Schlöter, Reichensachsen
    (Die erwähnte Antwort des Autors Reinhard Löser finden Sie in den Leserbriefen Heft 1/07. Die Red.)

    Ich bin der Meinung, dass die Beschreibung der Funktionsweise des Atkinson-Motors durch Herrn Löser als Antwort auf den Leserbrief von Dr.-Ing. H.-W. Lorch nicht korrekt ist.
    Generell geht es beim Atkinson-Motor darum, das Verhältnis zwischen dem Zündvolumen des Gasgemisches und der Ausdehnung im Arbeitstakt zu maximieren, um den thermodynamischen Wirkungsgrad zu verbessern. Im Idealfall wäre es wünschenswert, den Kolben bis ins Unendliche arbeiten zu lassen, das Abgas hätte dann Umgebungstemperatur, alle Energie des Verbrennungsvorgangs wäre ausgeschöpft, was aber praktisch natürlich nicht umsetzbar ist.
    Der Original-Atkinson-Motor 1886 hatte eben keine spezielle Ventilsteuerung, sondern verlängerte über eine komplexe Hebelmechanik den Arbeitshub des Motors, um dieses Ziel zu erreichen. Dieses Bauprinzip war aber sowohl wegen des Volumens als auch wegen der bewegten Massen ungeeignet für kompakte, hochdrehende Motoren.
    Moderne Konstruktionen nach dem Atkinson-Prinzip erhöhen stattdessen das rechnerische Kompressionsverhältnis des Motors, ähnlich wie bei einem Diesel. Um aber Selbstzündung des Gemisches zu verhindern, werden die Einlassventile spät geschlossen, ein Teil des Gemisches weicht im Kompressionstakt zurück in den Einlassbereich, die effektive Kompression wird dadurch niedriger und Selbstzündung verhindert.
    Es wird im Prinzip also Füllungsgrad und damit Leistung gegen Wirkungsgrad und damit Ökonomie getauscht.
    Leistungssteigerung ist genau nicht der Punkt bei diesem Bauprinzip.

  • Ist Hirnforschung geistfeindlich?

    23.12.2006, Dr. Armin Tippe 85247 Schwabhausen
    Bei dem von Michael Springer betonten besonderen Widerstand gegen die Hirnforschung wird stets die angebliche Inkompetenz von Naturwissenschaftlern in Fragen des Leib/Seele-Problems behauptet. Der "Leib-Anteil" dieses Problemkomplexes (z.B. Struktur und Funktionsweise des Gehirns) erhält aber erst jetzt mit der modernen Neurobiologie einen kompetenten Sachvertreter - er war davor völlig unbekannt. Das hinderte bekanntlich nicht, diesen Anteil als nur materiell und daher ontologisch unwesentlich zu disqualifizieren. Heute kann das Problem neu diskutiert werden und die Naturwissenschaft muss dabei als Anwalt für den bisher so verteufelten Leib auftreten dürfen.
  • Die wahren Ursachen der Arbeitslosigkeit

    23.12.2006, Dr. Bernd Lehnemann, Frankfurt am Main
    Die hauptsächliche Erklärung der anhaltend hohen Arbeitslosigkeit in den Volkswirtschaften Europas ist meines Erachtens keine der im Artikel angegebenen. Die Feststellung, der Arbeitsmarkt sei kein Markt wie jeder andere, ist sicherlich zutreffend, wie auch die genannte "Friktionsarbeitslosigkeit" einen Teil des Problems erklärt. Wesentlich stärker dürfte jedoch in den Ländern Europas der Einfluss staatlicher Alimentation nichtarbeitender Bevölkerungsteile sein – der Status als "Arbeitsloser" - genauer: "Arbeitssuchender" – ist in vielen Ländern Voraussetzung für die Berechtigung, staatliche Unterstützungszahlungen zu empfangen. Infolgedessen sind viele "arbeitslos" gemeldete Personen nicht arbeitssuchend, sondern lediglich deswegen "arbeitslos" gemeldet, um die damit verbundenen Unterhaltszahlungen zu erhalten (auf die im Allgemeinen ja auch ein Rechtsanspruch besteht).


    Insbesondere im Bereich niedriger Lohnniveaus spielt auch die Höhe dieser Transferzahlungen eine Rolle: Wenn ein Arbeitsloser Unterstützungszahlungen im Gegenwert von 800 Euro bezieht, lohnt es für diesen nicht, eine mit 900 Euro netto dotierte Stelle anzunehmen, da er damit lediglich einen effektiven Lohn von 100 Euro pro Monat bezieht. Dieses Argument für die Nichtannahme einer vorhandenen Arbeitsstelle wiegt umso stärker, je höher das Unterstützungsniveau und je niedriger das mit der vorhandenen Qualifikation erreichbare Lohnniveau liegt, erklärt also einen großen Teil der Sockelarbeitslosigkeit in minderqualifizierten Bevölkerungsteilen.


    Sicherlich geringer, aber durchaus vorhanden ist auch ein "motivationsdeckelnder" Effekt der Steuerprogression. Viele hoch qualifizierte Beschäftigte arbeiten lieber weniger und nehmen dafür einen geringeren Bruttolohn in Kauf, als ihnen potenziell offenstände, da die Progression der Einkommensteuer dazu führt, dass eine vergleichsweise starke Zusatzanstrengung lediglich zu einem unterproportional starken Anstieg des verfügbaren Nettogehalts führt. Gesellschaftlich gesehen führt dies dazu, dass an sich überqualifizierte Arbeitnehmer Stellen besetzen, die auch mit etwas geringer Qualifizierten besetzt werden könnten, wenn die augenblicklichen Stelleninhaber zu höherer Wertschöpfung bereit wären (und die Möglichkeit dazu hätten, was natürlich oft nicht gegeben ist, da wenige entsprechende Stellen vorhanden sind, wie zum Beispiel für akademisch gebildete Gesellschaftswissenschaftler – Fehlallokation von Bildungsressourcen ist jedoch ein anderes Thema).


    Zusammenfassend läßt sich feststellen, dass die finanzielle Unterstützung von Nichtarbeit und die progressive Belastung von Arbeit das Produktivitätsgefüge einer Volkswirtschaft insgesamt zu geringerer Wertschöpfung verschieben und die ohnehin nur zu geringer Wertschöpfung Befähigten überwiegend aus produktiver Tätigkeit herausdrängen.

  • Nicht zu optimistisch werden!

    21.12.2006, Jürgen Busch, Limburg
    Der Artikel war sehr interessant. Allerdings fand ich die (bei genauem Lesen vorhandenen) Warnungen vor übertriebenen Hoffnungen auf fehlerfreie Software durch den Einsatz automatischer Prüfsoftware für zu schwach. Es wurde eher das Gegenteil der Erwartung der Utopie von möglicher Null-Fehler-Software erzeugt.

    Software wie Alloy einzusetzen halte ich für grundsätzlich wichtig, um die Fehlerzahl zu reduzieren! Und ich bezweifle in keiner Weise die Fähigkeit von Alloy und anderen Tools, Fehler zu finden. Ich bezweifle nur die Fähigkeit, alle Fehler (im Design) zu finden, wenn das Projekt hinreichend groß wird.

    Software-Designs werden auch so nicht 100-ig fehlerfrei werden. Schließlich sind auch Alloy und Co. nur Programme, die selbst der Unvollkommenheit unterliegen.

    Für den unverdaulichsten Brocken des Beitrags halte ich allerdings die Aussage, (heute bereits, oder auch nur in naher Zukunft) ein Googol (10^100) Zustände vollständig(!) testen zu können!

    Dazu eine Abschätzung: Wenn man ein ganzes Jahr Zeit hat und auch nur eine Yocto-Sekunde (10^-24 sec) benötigt, um einen Zustand zu verifizieren, muss man mehr als 3*10^68 Zustände gleichzeitig (!) bewerten.

    Mit welcher "einfallsreichen Codierungstechnik" kann man solch "große Sätze an Softwarezuständen kompakt darstellen und simultan betrachten"?

    Selbst wenn ich 10^23 Zustände in einem einzelnen Atom gleichzeitig darstellen könnte, wäre immer noch ein (1-Atom-RAM) Speicher mit einer Teilchenzahl in der Größenordnung mehr als 5*10^21 Mol notwendig.

    Und das alles selbst dann noch, wenn ich mir ein Jahr Zeit lasse und jede simultane Bewertung der mehr als 3*10^68 Zustände mehr als 33000mal schneller abläuft, als ein Photon braucht, die Strecke von einem Angstroem zu durchqueren.

    Eine Codierungstechnik, die das kann, würde übertragen (fast) alle meine Probleme lösen.
  • Genie ist Fleiß

    21.12.2006, Prof. Dr. Hans Schulte, Karlsruhe
    Wenig Neues in Ihrem Artikel: "Genie ist Fleiß" hat schließlich schon Fontane gewusst. Aber das Phänomen der Polgar-Schwestern, die immer frühere Großmeister-Reife und das in Schachkreisen schon lange unstreitige "je früher desto besser" hätten Ihren Autor zu Erkenntnissen der Hirnforschung bringen müssen: "Das Gehirn erwirbt also während seiner Entwicklung zusätzliches Wissen. Es gilt heute als erwiesen, dass das sich entwickelnde Gehirn dieser Wechselwirkung mit der Umwelt bedarf, um die in seiner Architektur angelegten Funktionen zu entfalten" (Wolf Singer).
  • Gerade nicht!

    21.12.2006, Andrea Hoberg
    Guten Tag,

    in ihrem Artikel zum Drachen-Christkind nannten Sie den Umstand, dass Flora noch Jungfrau ist, einen Fall von unbefleckter Empfängnis. Da sich die Formulierung in diesem Zusammenhang unmissverständlich auf ein Dogma der römisch-katholischen Kirche bezieht, möchte ich darauf hinweisen, dass damit nicht die Empfängnis Jesu durch seine Mutter Maria gemeint ist, sondern die Empfängnis Mariens durch ihre Mutter Anna (DH 2803).

    Leider ist dieses Missverständnis so tief in den Köpfen verwurzelt, dass man das auch schon in einer so genannten Wissenschaftszeitung lesen muss. Bei Dan Brown wäre das normal, hier hätte ich doch mehr Unterscheidungsvermögen erwartet.
    Stellungnahme der Redaktion

    Sehr geehrte Frau Hoberg,



    wie Sie ganz richtig sagen, stellte Papst Pius IX in seiner Bulle von 1854 fest: "Die seligste Jungfrau Maria wurde im ersten Augenblick ihrer Empfängnis durch ein einzigartiges Gnadengeschenk und Vorrecht des allmächtigen Gottes im Hinblick auf die Verdienste Christi Jesu, des Erlösers des Menschengeschlechtes, rein und von jeder Makel der Erbschuld bewahrt." - Diese Empfängnis ohne Erbsünde wird als "unbefleckte Empfängnis der Maria" bezeichnet - wobei Anna, die Mutter Marias, keineswegs als Jungfrau gilt, als sie schwanger wird - Maria soll auf ganz normalem biologischem Weg gezeugt worden sein.



    Trotzdem wird der Begriff auch für die Empfängnis von Jesu durch Maria verwendet - ich zitiere die Diözese Eisenstadt:

    "1854 verkündete Papst Pius IX. das Dogma von der Unbefleckten Empfängnis nicht nur des Gottessohnes Jesus durch Maria, sondern auch der Maria durch Anna."



    Die Vermischung von unbefleckter Empfängnis - also Freiheit von Erbsünde - mit der Jungfrauengeburt ist also tatsächlich missverständlich, aber durchaus üblich.



    Mit freundlichen Grüßen

    Antje Findeklee

  • Serielle und parallele Hybride

    19.12.2006, Christoph Stoll, Kirchberg, Schweiz
    Weshalb gibt es praktisch keine seriell-hybriden Antriebe für Fahrzeuge? Der elektrische Antriebsstrang ist doch mechanisch viel einfacher (kein Getriebe, keine Kardanwellen oder Differentialgetriebe bei Nabenmotoren?

    Stellungnahme der Redaktion

    Antwort des Autors Reinhard Löser:
    Man unterscheidet je nach Anordnung und Funktion des zusätzlichen Elektromotors bei Hybridfahrzeugen zwischen seriellen und parallelen Hybriden; auch (leistungsverzweigte) Mischhybride sind darstellbar. Bei serieller Konfiguration lädt die Verbrennungskraftmaschine nur den elektrischen Energiespeicher. Beim Parallelantrieb ist der E-Motor mechanisch direkt mit der oder den Antriebswellen gekoppelt, wobei dann tatsächlich eine weitere elektrische Maschine notwendig wird.
    Im seriellen Betrieb muss der E-Motor in der Lage sein, die gesamte Leistung bereitzustellen, die für die gewünschte Beschleunigung oder Steigfähigkeit benötigt wird. Das erklärt, warum vornehmlich parallele Hybridantriebe realisiert werden. Die beim Parallelbetrieb eingesetzten Elektromotoren können nämlich geringer dimensioniert sein. Ein weiterer Nachteil bei seriellen Hybridantrieben ist die doppelte Energiewandlung von mechanischer zu elektrischer Energie und wieder zurück, eventuell noch verbunden mit einer (längeren) Speicherung. Insgesamt ergibt sich daraus ein ungünstiger Wirkungsgrad. Bei begrenzter Leistungsfähigkeit der Batterie muss man den Verbrennungsmotor zwangsweise betreiben, um Leistungsspitzen bei Bergfahrt oder Beschleunigungen abzudecken. Dies kann den Verbrauchs- und Emissionsvorteil einschränken und den Betrieb des Verbrennungsmotors im günstigen stationären Betrieb vereiteln.
    Die Vorteile des parallelen Hybrids bestehen in der Möglichkeit, beide Motoren sowohl einzeln als auch gleichzeitig zum Vortrieb des Fahrzeugs zu nutzen. Dabei können Drehzahl, Leistung oder Drehmoment direkt gekoppelt werden. Aufgrund der Leistungsaddition können beide Motoren relativ klein ausgelegt werden, ohne dass Einbußen beim Beschleunigen hingenommen werden müssen. Das führt zu deutlicher Einsparung an Kraftstoff und Emissionen oder auch zu gesteigerter und vom Fahrer direkt wahrnehmbarer Performance und Agilität.

  • Es muss kein Größenfehler sein

    12.12.2006, Dr. Frank Subke, Mehlingen
    Die Autorin führt das frühkindliche Verhalten, mit Abbildern von Alltagsdingen nicht adäquat umgehen zu können, auf eine entwicklungsbedingte Missachtung der Größenverhältnisse zurück („Größenfehler“, „scale errors“) bzw. erkennt darin eine Überforderung der kindlichen Kognition bei der Symbolerkennung.

    Bedenkt man, dass das richtige Einschätzen bzw. das korrekte Wahrnehmen von Größenverhältnissen in der freien Natur überlebenswichtig sein kann, also bereits angelegt sein sollte, erscheint ein nachträgliches Lernverständnis bzw. ein Verarbeiten von visueller und motorischer Informationen eher nachgeordnet.

    Das geschilderte Verhalten der Kinder lässt auch eine andere Deutung im Sinne eines hauptsächlichen Explorationsverhaltens zu, gemäß dem Prinzip von "Trial und Error" im Zuge von Spieltrieb und Neugierde.

  • Einzig gemeinsam die Abneigung?

    12.12.2006, C. Schreiber, Leipzig
    „Das einzige Gemeinsame, das sie hatten, war die gemeinsame Abneigung gegen alles Gemeinsame.“ (Werner Mitsch)

    Dies scheint das Motto der postmodernen Geschlechterbeziehung zu sein. Das ist jedoch völlig unnötig, kontraproduktiv und hat keinen wissenschaftlichen Eros. Wie schön wäre es doch, sich zu ergänzen – wörtlich: zusammen ein Ganzes zu bilden. Natürlich kann ich mit Neid das Wenige erblicken, was ich habe (ich schreibe als Mann, damit keine Missverständnisse über das „Wenige“ aufkommen). Aber gemeinsam hätten wir mehr. So trifft der Komparativ „intelligenter“ den Puls der Zeit: höher, schneller, weiter – und intelligenter ist eben nicht genug.

    Wie wäre es stattdessen mit einer neuen Aufgeklärtheit in einer doch so unaufgeklärten Zeit? Sind denn Unfreiheit (sozial wie beruflich), Ungleichheit (der Geschlechter und in der Bildung) und mangelnde Geschwisterlichkeit nötig? Und wenn ja, wem nützen sie? Da gibt es für uns alle noch viel zu tun.
  • Zu Antwort der Redaktion

    07.12.2006, Helmut Brandenburg Sprockhövel
    Meiner Meinung nach ist auch Ihr erster Vorschlag nicht richtig! Es geht nur so: .... benötigt die achtfache Zeit ...., oder, wie Sie schreiben ... mit einem Achtel der Geschwindigkeit ...
    Was nicht geht:
    Xmal so langsam, Xmal so klein, Xmal so dünn usw.
    Übrigens, das oft ohne Nachdenken verwendete "Xmal größer" und und und ist meist nicht gemeint, sondern "Xmal so groß". "Xmal größer" bedeutet nämlich "(X+1)mal so groß". Und das ist im allgemeinen nicht gemeint.
    Die Formeln zu der Aussage im Artikel oder zu Ihrer ersten Erläuterung würde mich interessieren.

    Und der Prinzenfreund? Ja, wenn er sich dreht, dann klappt es.
    Stellungnahme der Redaktion

    Na gut, das wird jetzt eine Auseinandersetzung unter Sprachpuristen. Ich bleibe zwar dabei, dass man "Xmal so langsam" eigentlich nicht falsch verstehen kann und es auch nicht ungebräuchlich ist – Musiker reden ständig so, wenn sie sich übers Tempo verständigen –; aber im Zweifel sollte man Ihre Formulierung verwenden, was ich mir zu Herzen nehmen werde.

    "Xmal größer" ist eine mir geläufige Falle (in die ich gleichwohl hineingetappt bin).

    Die Formeln stehen im Kasten auf S. 104 des Artikels unten: Man multipliziere die Gleichung MG / R^2 = v^2 / R mit R^2 und erhalte, dass R v^2 gleich der Konstanten MG ist. Wenn v auf ein Achtel sinkt, muss R auf das 8^2-fache steigen, damit die Konstante konstant bleibt. Die 8^3-fache Umlaufzeit folgt aus Kepler III (steht auch im Kasten).

  • Vorschrift, wie man zu sterben habe

    07.12.2006, Martin Behr, Mörlenbach
    Es wundert mich zwar erheblich, dass die Regelung zum assistierten Freitod im Land der unbegrenzten Unmöglichkeiten existiert, aber die Praxis gibt dem „Death with Dignity Act“ recht. Vor allem, dass die Ärzte auf die Möglichkeit der Patienten, dem ärztlichen Wirkungsbereich zu entfliehen, mit Verbesserung der Palliativmedizin reagieren, zeigt doch, woran es wirklich fehlt: an der guten Betreuung vor dem Tod! Und wer wirklich gute Gründe und den Willen hat, sein Leben selbst zu beenden, dem spricht Ronald Dworkin aus der Seele: „Nichts ist demütigender, als von anderen vorgeschrieben zu bekommen, wie man zu sterben habe.“
  • Das globale Sparschwein

    06.12.2006, Günter Peltz
    Guten Tag,
    eine Frage: Die angegebenen "125 Billionen $", sind das US-Billionen oder deutsche? US-Billion ist eine deutsche Milliarde, eine deutsche Billion sind tausend Milliarden!!
    Habe schon öfter in deutschen Texten aus dem amerikanischen gesehen, das dabei der Faktor 1000 eben als Fehler aufgetreten ist! Danke für eine Antwort. MfG. Günter Peltz
    Stellungnahme der Redaktion

    Lieber Herr Peltz,



    Es handelt sich um 125 deutsche Billionen, was wiederum 125 US-Trillionen entspricht.



    Mit freundlichen Grüßen



    Annette Hupfer

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.