Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Vorbemerkung: Da ich das Buch von Brigitte Falkenburg selbst nicht gelesen habe, muss ich nachfolgend voraussetzen, dass der Inhalt in der Rezension korrekt wiedergegeben wurde.
Dass ein Philosoph ein Buch einer Philosophieprofessorin zum Tipp des Monats erklärt, ist wohl nicht so erstaunlich. Ob sich allerdings die in der Rezension mehrfach angesprochenen Neurowissenschaftler durch ihre Argumentation tatsächlich überzeugen lassen, wage ich zu bezweifeln. Die Argumentation beruht anscheinend auf den "Grundannahmen", dass geistige Phänomene von physikalischen zu trennen sind und sie verursachen können. Aber genau das ist doch der Streitpunkt in dieser Debatte. Wo soll das mentale Bedürfnis zu trinken lokalisiert sein, wenn nicht genau in diesem physikalischen Gehirn, das daraufhin die Hand zu einem Glas Wasser greifen lässt? Dass es einen nicht-materiellen Geist gibt, der auf das physikalische Gehirn einwirken kann, ist unbewiesen und meiner Ansicht nach auch unbeweisbar und somit reine Glaubensangelegenheit.
Ich möchte zum Thema "Willensfreiheit" einen Gedanken hinzufügen, den ich dem Buch "The Art of Failure" von Neel Burton entnommen habe (kein Zitat, sondern eine eigene Zusammenfassung nach meinem Verständnis von Kap. 2 "freedom"): Was bedeutet denn eigentlich "freier Wille"? Könnte jemand, der sich z.B. für einen bestimmten Beruf entscheidet, bei gleicher persönlicher Vergangenheit - gleichen Überzeugungen und Wünschen - tatsächlich anders entscheiden, als er es tut? Wenn ja, wäre das eine völlig beliebige und unerklärliche Entscheidung. Die Befürworter des freien Willens ziehen sich an dieser Stelle - wie Falkenburg - auf so etwas wie Seele oder Geist zurück. Aber auch dieser immaterielle Geist müsste seine Entscheidungen auf irgendeiner Grundlage treffen, nämlich auf der seiner persönlichen Vergangenheit. Insofern verschiebt dieser Ansatz die Debatte nur auf einen andere Ebene.
Mir persönlich hat dieser Ansatz für mein Menschen- und Selbstbild deutlich mehr geholfen als andere Ansätze, die ich bis dahin zu diesem Thema gelesen habe.
Ihr Beitrag zum Thema Chronotypen ("Ausgeschlafen?!") hat mich sehr angesprochen. Danke, dass Sie ein so wichtiges Thema aufnehmen und mit fundierten Erkenntnissen darstellen.
Gerne möchte ich noch einen Input geben: Ihr Artikel fokussiert stark auf die benachteiligten "Eulen", welche unter sozialem Jetlag und dessen Folgen leiden. Die "Lerchen" werden in Ihrem Artikel als privilegiert dargestellt. Für gewisse Aspekte (schulischer Stundenplan, Leistungen in der Schule etc.) ist dies sicherlich zutreffend. Jedoch gibt es zahlreiche Lebensbereiche, in denen die Frühaufsteher benachteiligt sind. Die meisten sozialen und freizeitbezogenen Anlässe (Feste, Partys, Einladungen, Tanzkurse u.s.w.) finden abends statt. Ich als starke Lerche nehme einerseits bereits müde an den Anlässen teil, weil mein Tag schon sehr lange andauert, anderseits bin ich am darauffolgenden Tage ebenfalls müde, weil ich am Morgen auf Grund meines frühen Chronotyps nicht ausschlafen kann und folglich tagsüber dann unter Schlafmangel leide.
Weiter schreiben Sie ja, dass Lerchen in der Regel schneller "ticken". Das ist zwar ein Vorteil. Jedoch bedeutet das auch, dass der Tag einem oft als sehr lange erscheint, oftmals als zu lange. Mein Fazit ist also, dass Personen, die über einen ausgeprägten Chronotypen verfügen, sowohl Vor- und Nachteile im Alltag haben, wobei es nicht darauf kommt, ob man eine Lerche oder eine Eule ist.
Die von Einzelnen inzwischen erreichte Tiefe der Auseinandersetzung mit der Evolutionsforschung zu Spiritualität & Religiosität freut mich sehr, und ich hoffe, dass Sie an der Thematik weiter mit dran bleiben und sich einbringen.
Sex sells, das ist wahr. Aber rechtfertigt das, Sadomasochismus mit Ekelgefühlen in einem Atemzug zu nennen? Ihr Einstieg deutet an, dass jene Assoziation für Sie nahe liegt. Was wissen Sie über diese Ausprägung menschlicher Sexualität, die viel mehr als gängige Arten von "Blümchensex" von der gewissenhaften Kommunikation zwischen den Partnern lebt? Keine Ahnung, ob dieser "humoristische" Ausflug - oder sollte ich besser Ausrutscher schreiben - die Verkaufszahlen von GuG fördert, Ihrer Reputation als Kolumnist schadet sie jedenfalls in meinen Augen.
Stellungnahme der Redaktion
Sehr geehrte Frau Beimle,
die Parallele sollte lediglich sein, dass man erotisiert Dinge tut, die man sonst nicht tut. Mehr meinte ich nicht. Aber ich beziehe gerne für die unsaubere Nennung Prügel. Wünsche Ihnen und allen, mit denen Sie klar kommunizieren, jede erdenkliche Freude!
Ich kenne beides, "Shades of Grey" und "Gehirn und Geist". Das erste war ein Ausrutscher, das zweite ein Kontinuum. Dank Ihres aktuellen Beitrags decken Sie ein breiteres Spektrum an Themen ab und würzen das Ganze mit einer großen Prise Humor, was "Gehirn und Geist" dadurch interessanter macht. Zudem liefern Sie mir eine Art "Anleitung". Jedenfalls kam mir diese Idee beim Lesen Ihres Beitrags. Beim nächsten Mal, wenn ich ein gebrauchtes Kondom anfasse, werde ich an "Shades of Grey" denken. Vielleicht lässt es sich dann leichter anfassen? ;-)
Zitat: "Wer einen fachbereichsnahen Bachelorabschluss hat, kann in der Regel einen Master anschließen – das gilt für die Geistes-, die Naturwissenschaften sowie Medizin und Psychologie. Ein Bachelorabsolvent kann sich mit einem Masterstudium neu orientieren und seine Kenntnisse vertiefen."
Das ist natürlich schön, dass die Interdisziplinarität gefödert wird und auch Biologen, Psychologen, Mediziner, Informatiker und Geisteswissenschaftler einen Master in Neurowissenschaften absolvieren können. Dadurch dass Neurowissenschaften kein konsekutiver Masterstudiengang ist, haben aber alle Absolventen der Uni Köln seit Jahren Probleme bundesweit einen Masterstudienplatz zu bekommen.
Häufig werden Bewerber mit einer 1,4 im Bachelor schon nicht mehr an der Uni Köln angenommen. An anderen Unis in Deutschland wie Göttingen, Bonn und Berlin sind die Hürden natürlich noch höher als an der Karnevals-Uni. Insgesamt bleiben die Absolventen in Köln auf der Strecke, während völlig fachfremde Geisteswissenschaftler eine Zulassung von der Uni Köln erhalten. So lässt sich das Fach Neurowissenschaften nicht in Deutschland etablieren!
Der Studiengang in Köln verfolgt ohnehin ein anderes Ziel. 90% der Kurse sind mit den Medizinern zusammen. Dadurch können Mediziner, die an der Hürde des Physikums scheitern, sich ihre unbenoteten Medizinerscheine anrechnen lassen und sind von diesen Prüfungen befreit. Bis zum Bachelor sind es dann nur noch drei mündliche Prüfungen. Also dreimal Small Talk und schon ist der 1,0 Bachelor in der Tasche. Der Studiengang ist viel mehr ein Auffangbecken für gescheiterte Medizinstudenten als ein Studiengang in Neurowissenschaften.
Neurowissenschaften studieren! - So, geht's, wenn man Köln als Studienort wählt!
Gleich im ersten Satz der Rezension heißt es über die Autorin: "Brandy Dunn, eine hübsche, junge Frau mit verdächtig vollen Lippen ..." Hat sie auch schöne Beine? Solche Bemerkungen haben in einer Buchbesprechung nichts zu suchen. Schließlich will ich nicht über das Aussehen der Autorin, sondern über den Inhalt des Buchs informiert werden. Dass die Beschreibung auch noch eine wohl böswillige Unterstellung impliziert, macht die Sache noch schlimmer.
So beschrieben Forscher erstmals in den 1960er Jahren – also vor der breiten Anwendung antipsychotischer Substanzen – vergrößerte Ventrikel (die Hohlräume im Großhirn) bei Patienten mit Schizophrenie.
Wie soll das den funktioniert haben ohne fMRT, oder hat man die Gehirne von Toten betrachtet? Wie hat man dann den Vergleich zu den Lebenden? Nicht nur durch Neuroleptika schrumpft das Gehirn, sondern auch durch Deprivation. Nichts anderes hat man gemacht, indem man die Menschen jahrelang einsperrte.
So interessant ihre Beiträge inhaltlich auch sein mögen, so sehr genervt bin ich inzwischen von der Art, wie sie vorgetragen werden. Aus diesem Grund bin ich kein Fan von ihrem Podcast geworden und werde mir andere Informationsquellen suchen.
Ich möchte Ihnen gerne in wenigen Sätzen mitteilen, woran das liegt. Ich formuliere es mal positiv, was ich meine: Herr Arvid Leyh hat eine "außergewöhnliche" Art, den Inhalt vorzutragen. Ich vermute, dessen ist er sich bewusst, und ferner glaube ich, dass er sich das irgendwann in der Vergangenheit extra angeübt hat, um interessant zu wirken. Den Inhalt jedenfalls macht er dadurch nicht interessanter. Denn durch diese "außergewöhnliche" Art zu sprechen zieht er die Aufmerksamkeit - jedenfalls meine - auf sich. Und das bedeutet: Weg vom Inhalt! Hin zu sich! Weil er so besonders spricht. Und das nervt - um es mal direkt zu sagen. Seine Sprechweise ist besonders charaktersiert durch extreme (!) Tempowechsel und - soweit ich mich erinnere - durch ausgeprägte Wechsel zwischen laut und leise.
Irgendwoanders - im Fernsehen oder so - war mir das ebenfalls mal aufgefallen. Ich hatte ebenfalls den Eindruck, der Sprecher versucht "besonders" zu sein. Es lenkte mich ab, und meine Reaktion war dieselbe.
Also geht es um Sie, Herr Leyh? Oder geht es um den Inhalt? Wünschen Sie sich diese besondere Aufmerksamkeit? Oder ist das Ihre natürlich Sprechart, die Sie bereits seit der Grundschule haben?
So. Ich hoffe aufrichtig, Sie mögen dies als wertvolle Rückmeldung verstehen. Keinesfalls möchte ich jemanden abwerten. Aber so, wie Sie das produzieren, gefällt es mir ganz und gar nicht. Ich beziehe mich übrigens auf Folgen des Jahres 2007. Seither habe ich mir nichts mehr angehört.
Stellungnahme der Redaktion
Hallo Herr Schmidt!
Zuerst sollte ich klarstellen, dass Gehirn&Geist keine Schuld an Braincast trifft, verantwortlich bin ich allein.
Und nun: Ich weiß nicht, ob ich seit der Grundschule so spreche, extra geübt habe ich es allerdings nicht. Das Konzept von Braincast ist, Hirnforschung zu übersetzen und in einen alltäglichen Kontext zu setzen. Dazu nehme ich meinen, da ich mir am besten in den Kopf schauen kann. Und wenn mich etwas bewegt, bringe es ein – speziell 2007! So wie ich Podcasts verstehe – die ursprünglichen, nicht von Sendern zweitverwerteten –, ist das erlaubt.
Schade, dass Ihnen Braincast nicht gefällt. So sehr nicht gefällt, dass Sie sich noch nach fünf Jahren ärgern. Das war so nicht geplant, nerven will ich Sie natürlich nicht. Fühlen Sie sich frei, sich andernorts zu informieren – Sie sind bei Gehirn&Geist schon an einer guten Quelle.
Ich bin mir nicht sicher, ob Kant heute noch meinen würde, dass der Sitz des Ichs nicht doch die Seele wäre. Kommt ganz darauf an, was diese denn sein könnte. Es ist sicher nicht falsch zu denken, dass unser Bewusstsein auch durch materiegestützte neuronale Prozesse erzeugt wird. Die Frage ist nur, ob dies die ausschließliche Quelle ist. Schaut man genauer hin, so könnte man entdecken, dass Denken und Bewusstsein, Fühlen und Wollen, das auf neuronalen Interaktionen beruht, letztlich elektromagnetische Felder sind, die durch das Netz der aktivierten und nicht aktivierten Neuronen ein ganz spezielles Muster besitzen. Alle beschleunigt bewegten Ionen erzeugen nämlich solche Felder. Und quantenmechanisch sind elektromagnetische Felder nichts anderes als Photonenkomplexe. Bewusstsein als Photonenkonfigurationen. Bewusstsein ist einheitlich, weil ein Feld mit 40 Hz ständig das Gehirn "abscannt" und alle spezifischen Erregungsmuster in diese Feld hineinmoduliert werden. Aber solche Felder sind bekannntermaßen nach ihrer Entstehung durch bewegte Ladungen von ihnen unabhängig: die Seele, die sich immer reicher entwickelt und auch nach dem Tod durchaus weiter exisitieren kann. Diese Seele interagiert ständig mit neu entstehenden Feldern, subjektiv und untersubjektiv.
Das konnte Kant damals nicht wissen. Sein Gedanke der regulativen Idee, die auch die Seele ausmacht, braucht er aber deswegen nicht aufzugeben, da ihre einheitsstiftende Kraft, die eben den Bewusstseinprozess bestimmt, ständig wirkt und die Einheit vergrößert, zumindest idealiter. Es wäre meines Erachtens an der Zeit, dass einige Neurowissenschafler ihre Wissenschaftstheorie des 19. Jahrhunderts, den Positivismus, etwas revidieren und auffrischen. Da gäbe es dann wieder einige Berührungspunkte mit Kant und der Aufklärung: Seele ist Licht!
Auch wenn ich die Botschaft des Artikels begrüße, der Weg dahin scheint mir mit Kopfsteinen aus dem letzten Jahrhundert gepflastert.
Zunächst einmal: Der Artikel scheint "das Plagiat" als (evtl. eine) zentrale Triebfeder unserer Kultur anzusehen, ohne dies jedoch mit mehr als einem Glaubensbekenntnis zu begründen. Dass Schutz geistigen Eigentums auch in der Vorgeschichte schon eine Rolle spielt, das glaube ich wohl auch. Aber diese Rolle dürfte ausgesprochen minimal sein.
Denn: In der damaligen Zeit lebten die Menschen so verstreut, dass es nur selten zu Treffen sippenfremder Individuen kam. Der Vorteil des freien Tradierens, ohne Ressourcen für einen Urheberschutz aufwenden zu müssen, dürfte die Nachteile des vielleicht alle paar Generationen vorkommenden schädlichen Ideenklaus deutlich überwogen haben.
Außerdem: Es gab in der Antike (+/- ein paar Jahrhunderte) durchaus Fälle, da haben sich Menschen fremder Sprache getroffen. Die einen haben Dinge auf einen Platz gelegt, so dass die anderen es sehen konnten. Den anderen war durchaus klar, dass sie eine Gegenleistung für diese Darbietung geben mussten. Das dürfte auch den fiktiven kommunikationslosen Bogen- und Pfeilmachern klar sein.
Natürlich: Bevor den Parteien dieses klar war, mag es Missverständnisse gegeben haben, die zu Ärger geführt haben. Dieser Ärger hat jedoch keinem der Beteiligten genutzt (es baute sich also negativer Selektionsdruck auf), so dass sich früher oder später eine wortlose Tauschtradition entwickeln musste (oder der Verzicht auf den Vorteil, die Talente des jeweils anderen gemeinsam inanspruch zu nehmen). Bis zum Punkt des Handels ist also bereits kulturelle Geschichte entstanden. Diese dürfte auch maßgeblich für unser heutiges Urheberrechtsproblem verantwortlich sein, das aber jenseits überlebensnotwendiger Zwänge liegt und - die Aktualität des Themas zeigt es deutlich - demnächst eine neue, vermutlich freiere Stufe erreichen dürfte. Moderne Urheberrechtsverstöße taugen aber m.E. nicht wirklich als Beleg für das Thema des Artikels.
Bei dem Tradieren, dem stimme ich ganz und gar zu, sind wir Menschen stark im Vorteil. Wir können dank unseres kognitiven Potenzials diese Geschichte rasant vorantreiben - und tun es auch (der Neandertaler mag dieses Potenzial auch gehabt haben, ohne es genutzt zu haben?). Aber man bedenke: Vor den besagten 40 000 Jahren gab es auch schon Kultur. Vom Feuer über Faustkeile haben unsere Vorfahren ihr Wissen weitergegeben, aber in einem Schneckentempo. Ob nun tatsächlich eine genetische Varianz zur kulturellen Explosion geführt hat oder vielleicht hierzu zunächst eine "kritische Kultrumasse" erreicht werden musste, will ich offen lassen.
Doch - und damit kommen wir zu den Pflastersteinen des vergangenen Jahrhunderts - in diese Debatte die kulturellen Leistungen von Tieren mit hineinzuziehen, finde ich der Sache nicht sonderlich dienlich. Der Behauptung, der Affe ahme stumpf nach und kann keinen Zusammenhang aus dem Werkzeuggebrauch und den dran klebenden Leckereien erkennen, fehlt der Nachweis oder wenigstens das Argument. Die Behauptung, das soziale Lernen würde auch nach einer Million Jahre keinen Fortschritt springen, beruht auf ... welcher Beobachtung? Metallfoliendeckel gibt es so lange noch nicht.
Noch einmal: Der Mensch hat Feuer über Jahrhundertausende genutzt, ohne dass es zu nennenswerten Fortschritten kam. Und er hatte bessere Voraussetzungen, seine technischen Errungenschaft weiterzuentwickeln. Wer will dem Vogel da einen Vorwurf machen, dass er noch kein Silicon Valley gebaut hat? Tatsächlich wird er wohl wirklich nie seine Folientechnik verfeinern. Aber vielleicht eher deswegen, weil er dafür mehr Generationen braucht, als die Umwelt diese Silberdinger produziert? Technische Entwicklung kann nur entstehen, wenn sie von der Umwelt nicht eingeholt wird.
Insofern: Wenn ich all die altertümlichen, nicht untermauerten impliziten und expliziten Aussagen aus dem Artikel streiche - im Wesentlichen: ein prinzipieller Unterschied zwischen Mensch und anderen Tieren statt einem graduellen; und: kultureller Klau als starke Triebfeder für die menschliche Entwicklung - dann bleibt eine positive Botschaft stehen, der ich mich voll und ganz anschließe. Aber kein wissenschaftlicher Artikel.
Im übrigen Verweise ich auf die kürzlich gemachten Experimente mit Mäusen, bei denen die eine (sippenfremde) Maus zunächst die andere aus einem Käfig befreit, anstatt sich erst über die Leckerei aus dem anderen Käfig herzumachen.
Nach dieser Rezension werde ich mir das Buch nicht anschaffen.
"Bewußtsein" gehört sowohl als Wort, wie auch als Begriff in denselben Papierkorb, in dem sich bereits "Geist" und "Seele" befinden. Alle drei Begriffe sind nichts als bloße Erfindungen unserer Kultur. Sie mögen in diesem Zusammenhang einmal historisch einen gewissen Sinn entwickelt haben - das ändert aber nichts daran, dass sie in Wahrheit inhaltsleer sind. Über Inhaltsleeres kann man trefflich streiten, niemand kann je die wirkliche Substanz feststellen, eben weil sie gar nicht existiert.
Und so reiht sich - immer nach der Sekundärbeschreibung des Rezensenten - dieses Buch in die schier unendliche Reihe der anderen nutzlosen "wissenschaftlichen" Bücher ein, in denen die Verfasser den untauglichen Versuch unternehmen, Vorgänge außerhalb der Reichweite unserer körperlichen Sinne "verständlich" zu machen, die nur berechenbar, also nur durch mathematische Formeln dargestellt werden können, niemals aber verständlich im Wortsinn dieses Begriffs sein können - bei diesem Buch noch mit dem zusätzlichen Handikap, dass das zu verstehende Problem überhaupt nicht existiert.
Die nach der Rezension zitierten Hirnforscher sollten sich darauf beschränken, die von ihnen bearbeiteten Mini-Bereiche des Gehirns ordentlich zu bearbeiten - oder auch greifbare Theorien der Erkenntnis aufzustellen, anstatt sich mit inhaltsleeren Begriffen aus der Geschichte der "Geisteskultur" zu befassen. Und Kant hat sich sicher - aus damaliger Sicht - die größten Verdienste um das Weltverständnis erworben - nur stimmen seine naturwissenschaftlichen Grundlagen heute eben leider in wesentlichen Aspekten nicht mehr, so dass auch seine Folgerungen nur noch historische Bedeutung entfalten können.
Ich selbst habe meinen Bachelor in Neurowissenschaften in Köln absolviert und kann nur jedem von einem Studium an der Uni abraten. Der Studiengang ist ein Patchwork-Studium, bei dem man mal eine Veranstaltung mit den Medizinern, den Zahnmedizinern und den Biologen hat. Das Studium ist in keinster Weise auf Neurowissenschaften fokussiert. Statt dessen lernt man Blutdruck messen, die Funktionsweise der Niere und viel Biochemie. Die Funktion des Nervensystems wird nur am Rande erwähnt. Vor allem in der Vorlesung zur Neuroanatomie. Diese ist in weiten Teilen überholt und auf dem Stand der Forschung vor 20 Jahren stehengeblieben. Die Betreuung der Bachelorarbeit durch die Uni Köln war faktisch nicht vorhanden, so dass ich alles selbst zusammensuchen musste. Ich finde, dass der Studiengang zu viele klinische Fakten und fast gar keine wissenschaftliche Denkweise vermittelt. Für Mediziner mag der Studiengang eine gute Ergänzung sein, aber wenn man nur Neurowissenschaften studiert, ist man in Köln der Appendix vermiformis der Mediziner!
Das große Scheitern eines Großprojektes ist natürlich immer ein großes Desaster und bringt große Schlagzeilen mit sich. Aber dabei vergisst man schnell, dass das nur die Spitze eines (großen) Eisberges ist.
Denn tatsächlich ist es ja so, dass bei vielen Gelegenheiten die Probleme doch noch "irgendwie" überwunden werden können und die gesteckten Ziele erreicht werden. Gerade bei den Hauptverantwortlichen "oben" gibt es dann viel Händegeschüttel, Beweihräucherung und Lob.
Ein kritischer und objektiver Blick offenbart dann jedoch oft, das die Erfüllung der Sollziele oft nur mit erheblichen Mehrkosten erreicht wurden. Diese Mehrkosten müssen nicht unbedingt direkte klingende Münze sein, sondern können sich auch in Anpassung von Nebenzielen äußern. Nicht selten Nebenzielen, die nicht weniger wichtig als das Hauptziel sind, dafür aber weniger prestigeträchtig. Objektiv betrachtet hat man dann nicht viel gewonnen. Eine andere Möglichkeit der Zielerfüllen ist - besonders in der Wirtschaft - die Anpassung von Kennzahlen. Ein Jahresergebnis ist zu bescheiden ausgefallen? Dann werden eben Zukunftsprognosen aufgebessert, Bewertungen überprüft oder Rückstellungen angepasst.
So oder ähnlich habe ich es schon oft in meinen relativ unsteten beruflichen Werdegang gesehen. Bemerkenswerter Weise hat es immer Stimmen gegeben, die genau darauf hingewiesen haben. Aber nicht in Richtung des Entscheidungsträger, sondern auf gleicher Hierarchieebene. Und in der Regel ging der Ton in die Richtung: "Ja ja, das wissen wir, aber was soll's", begleitet von einem Schulterzucken.
Chefs wollen in der Regel nur Gutes hören. Und Chefs von Chefs sowieso. Außerdem: Aus der Sicht von "oben" wird "unten" eh' viel gejammert (was teilweise ja auch stimmt), womit Probleme auf dem Weg nach oben schon alleine deswegen sukzessive runtergestuft werden; um den vermeintlich wahren Schwierigkeitsgrad zu ermitteln.
Unabhängig von den kolossalen Fehlschlägen ist die Wirtschaft durchdrungen von schlechten Kommunikationswegen. Neben den klassischen Barrieren in der Vertikale gehören auch die Abteilungsschotten in der Horizontalen dazu. Frei nach dem Motto: Das Thema gehört nicht zu meiner Abteilung, deswegen interessiert es mich nicht.
Wenn Frank Schubert schreibt: "Schwer vorstellbar [...] dass derart wichtige Informationen nicht zu den Verantwortlichen vordrangen", schreibe ich pessimistisch: Sehr gut vorstellbar und mehr die Regel als die Ausnahme. Nur leider kaum wahrgenommen. Denn der größte Brocken des Eisbergs schwimmt halt unter der Wasseroberfläche.
Zur Rezension "Mythos Determinismus"
18.10.2012, Anna SchmitzDass ein Philosoph ein Buch einer Philosophieprofessorin zum Tipp des Monats erklärt, ist wohl nicht so erstaunlich. Ob sich allerdings die in der Rezension mehrfach angesprochenen Neurowissenschaftler durch ihre Argumentation tatsächlich überzeugen lassen, wage ich zu bezweifeln. Die Argumentation beruht anscheinend auf den "Grundannahmen", dass geistige Phänomene von physikalischen zu trennen sind und sie verursachen können. Aber genau das ist doch der Streitpunkt in dieser Debatte. Wo soll das mentale Bedürfnis zu trinken lokalisiert sein, wenn nicht genau in diesem physikalischen Gehirn, das daraufhin die Hand zu einem Glas Wasser greifen lässt? Dass es einen nicht-materiellen Geist gibt, der auf das physikalische Gehirn einwirken kann, ist unbewiesen und meiner Ansicht nach auch unbeweisbar und somit reine Glaubensangelegenheit.
Ich möchte zum Thema "Willensfreiheit" einen Gedanken hinzufügen, den ich dem Buch "The Art of Failure" von Neel Burton entnommen habe (kein Zitat, sondern eine eigene Zusammenfassung nach meinem Verständnis von Kap. 2 "freedom"): Was bedeutet denn eigentlich "freier Wille"? Könnte jemand, der sich z.B. für einen bestimmten Beruf entscheidet, bei gleicher persönlicher Vergangenheit - gleichen Überzeugungen und Wünschen - tatsächlich anders entscheiden, als er es tut? Wenn ja, wäre das eine völlig beliebige und unerklärliche Entscheidung. Die Befürworter des freien Willens ziehen sich an dieser Stelle - wie Falkenburg - auf so etwas wie Seele oder Geist zurück. Aber auch dieser immaterielle Geist müsste seine Entscheidungen auf irgendeiner Grundlage treffen, nämlich auf der seiner persönlichen Vergangenheit. Insofern verschiebt dieser Ansatz die Debatte nur auf einen andere Ebene.
Mir persönlich hat dieser Ansatz für mein Menschen- und Selbstbild deutlich mehr geholfen als andere Ansätze, die ich bis dahin zu diesem Thema gelesen habe.
Chronotypen
18.10.2012, Doris Waldburger, Pfäffikon SZ (Schweiz)Gerne möchte ich noch einen Input geben: Ihr Artikel fokussiert stark auf die benachteiligten "Eulen", welche unter sozialem Jetlag und dessen Folgen leiden. Die "Lerchen" werden in Ihrem Artikel als privilegiert dargestellt. Für gewisse Aspekte (schulischer Stundenplan, Leistungen in der Schule etc.) ist dies sicherlich zutreffend. Jedoch gibt es zahlreiche Lebensbereiche, in denen die Frühaufsteher benachteiligt sind. Die meisten sozialen und freizeitbezogenen Anlässe (Feste, Partys, Einladungen, Tanzkurse u.s.w.) finden abends statt. Ich als starke Lerche nehme einerseits bereits müde an den Anlässen teil, weil mein Tag schon sehr lange andauert, anderseits bin ich am darauffolgenden Tage ebenfalls müde, weil ich am Morgen auf Grund meines frühen Chronotyps nicht ausschlafen kann und folglich tagsüber dann unter Schlafmangel leide.
Weiter schreiben Sie ja, dass Lerchen in der Regel schneller "ticken". Das ist zwar ein Vorteil. Jedoch bedeutet das auch, dass der Tag einem oft als sehr lange erscheint, oftmals als zu lange. Mein Fazit ist also, dass Personen, die über einen ausgeprägten Chronotypen verfügen, sowohl Vor- und Nachteile im Alltag haben, wobei es nicht darauf kommt, ob man eine Lerche oder eine Eule ist.
Danke für den konstruktiven Leserbrief!
17.10.2012, Dr. Michael Blumeals Autor des o.g. Artikels möchte ich mich für den konstruktiven und durchdachten Leserbrief herzlich bedanken. Ich habe ihn auch auf meinem Scilog "Natur des Glaubens" öffentlich gemacht, damit er dort wahrgenommen und ggf. weiter diskutiert werden kann.
http://www.scilogs.de/chrono/blog/natur-des-glaubens/hirnforschung/2012-10-17/ein-kundiger-leserbrief-zur-sog.-neurotheologie
Die von Einzelnen inzwischen erreichte Tiefe der Auseinandersetzung mit der Evolutionsforschung zu Spiritualität & Religiosität freut mich sehr, und ich hoffe, dass Sie an der Thematik weiter mit dran bleiben und sich einbringen.
Mit herzlichem Dank und freundlichen Grüßen
Michael Blume
Geschmäckle
17.10.2012, Marion BeimleSehr geehrte Frau Beimle,
die Parallele sollte lediglich sein, dass man erotisiert Dinge tut, die man sonst nicht tut. Mehr meinte ich nicht. Aber ich beziehe gerne für die unsaubere Nennung Prügel. Wünsche Ihnen und allen, mit denen Sie klar kommunizieren, jede erdenkliche Freude!
Herzlich
Eckart von Hirschhausen
Anleitung
16.10.2012, Rosa DafonteR. aus Bötzingen
Kölner Bachelorabsolventen haben massive Probleme bei Masterbewerbungen
14.10.2012, CaseyDas ist natürlich schön, dass die Interdisziplinarität gefödert wird und auch Biologen, Psychologen, Mediziner, Informatiker und Geisteswissenschaftler einen Master in Neurowissenschaften absolvieren können. Dadurch dass Neurowissenschaften kein konsekutiver Masterstudiengang ist, haben aber alle Absolventen der Uni Köln seit Jahren Probleme bundesweit einen Masterstudienplatz zu bekommen.
Häufig werden Bewerber mit einer 1,4 im Bachelor schon nicht mehr an der Uni Köln angenommen. An anderen Unis in Deutschland wie Göttingen, Bonn und Berlin sind die Hürden natürlich noch höher als an der Karnevals-Uni. Insgesamt bleiben die Absolventen in Köln auf der Strecke, während völlig fachfremde Geisteswissenschaftler eine Zulassung von der Uni Köln erhalten. So lässt sich das Fach Neurowissenschaften nicht in Deutschland etablieren!
Der Studiengang in Köln verfolgt ohnehin ein anderes Ziel. 90% der Kurse sind mit den Medizinern zusammen. Dadurch können Mediziner, die an der Hürde des Physikums scheitern, sich ihre unbenoteten Medizinerscheine anrechnen lassen und sind von diesen Prüfungen befreit. Bis zum Bachelor sind es dann nur noch drei mündliche Prüfungen. Also dreimal Small Talk und schon ist der 1,0 Bachelor in der Tasche. Der Studiengang ist viel mehr ein Auffangbecken für gescheiterte Medizinstudenten als ein Studiengang in Neurowissenschaften.
Neurowissenschaften studieren! - So, geht's, wenn man Köln als Studienort wählt!
Alter Wein
13.10.2012, Norbert TholenAber: de mortuis nil nisi bene.
Unpassend
07.10.2012, York KarsunkeNicht ganz nachvollziehbar
03.10.2012, JG BischoffWie soll das den funktioniert haben ohne fMRT, oder hat man die Gehirne von Toten betrachtet? Wie hat man dann den Vergleich zu den Lebenden?
Nicht nur durch Neuroleptika schrumpft das Gehirn, sondern auch durch Deprivation.
Nichts anderes hat man gemacht, indem man die Menschen jahrelang einsperrte.
Darstellung des Inhalts oder Darstellung des Sprechers?
01.10.2012, S. SchmidtIch möchte Ihnen gerne in wenigen Sätzen mitteilen, woran das liegt. Ich formuliere es mal positiv, was ich meine: Herr Arvid Leyh hat eine "außergewöhnliche" Art, den Inhalt vorzutragen. Ich vermute, dessen ist er sich bewusst, und ferner glaube ich, dass er sich das irgendwann in der Vergangenheit extra angeübt hat, um interessant zu wirken. Den Inhalt jedenfalls macht er dadurch nicht interessanter. Denn durch diese "außergewöhnliche" Art zu sprechen zieht er die Aufmerksamkeit - jedenfalls meine - auf sich. Und das bedeutet: Weg vom Inhalt! Hin zu sich! Weil er so besonders spricht. Und das nervt - um es mal direkt zu sagen. Seine Sprechweise ist besonders charaktersiert durch extreme (!) Tempowechsel und - soweit ich mich erinnere - durch ausgeprägte Wechsel zwischen laut und leise.
Irgendwoanders - im Fernsehen oder so - war mir das ebenfalls mal aufgefallen. Ich hatte ebenfalls den Eindruck, der Sprecher versucht "besonders" zu sein. Es lenkte mich ab, und meine Reaktion war dieselbe.
Also geht es um Sie, Herr Leyh? Oder geht es um den Inhalt? Wünschen Sie sich diese besondere Aufmerksamkeit? Oder ist das Ihre natürlich Sprechart, die Sie bereits seit der Grundschule haben?
So. Ich hoffe aufrichtig, Sie mögen dies als wertvolle Rückmeldung verstehen. Keinesfalls möchte ich jemanden abwerten. Aber so, wie Sie das produzieren, gefällt es mir ganz und gar nicht. Ich beziehe mich übrigens auf Folgen des Jahres 2007. Seither habe ich mir nichts mehr angehört.
Hallo Herr Schmidt!
Zuerst sollte ich klarstellen, dass Gehirn&Geist keine Schuld an Braincast trifft, verantwortlich bin ich allein.
Und nun: Ich weiß nicht, ob ich seit der Grundschule so spreche, extra geübt habe ich es allerdings nicht. Das Konzept von Braincast ist, Hirnforschung zu übersetzen und in einen alltäglichen Kontext zu setzen. Dazu nehme ich meinen, da ich mir am besten in den Kopf schauen kann. Und wenn mich etwas bewegt, bringe es ein – speziell 2007! So wie ich Podcasts verstehe – die ursprünglichen, nicht von Sendern zweitverwerteten –, ist das erlaubt.
Schade, dass Ihnen Braincast nicht gefällt. So sehr nicht gefällt, dass Sie sich noch nach fünf Jahren ärgern. Das war so nicht geplant, nerven will ich Sie natürlich nicht. Fühlen Sie sich frei, sich andernorts zu informieren – Sie sind bei Gehirn&Geist schon an einer guten Quelle.
Mit freundlichen Grüßen
Arvid Leyh
Mehr Licht!
30.09.2012, Manfred HörzDas konnte Kant damals nicht wissen. Sein Gedanke der regulativen Idee, die auch die Seele ausmacht, braucht er aber deswegen nicht aufzugeben, da ihre einheitsstiftende Kraft, die eben den Bewusstseinprozess bestimmt, ständig wirkt und die Einheit vergrößert, zumindest idealiter. Es wäre meines Erachtens an der Zeit, dass einige Neurowissenschafler ihre Wissenschaftstheorie des 19. Jahrhunderts, den Positivismus, etwas revidieren und auffrischen. Da gäbe es dann wieder einige Berührungspunkte mit Kant und der Aufklärung: Seele ist Licht!
Am Anfang war alles und nichts
30.09.2012, Detlef SchroedterZunächst einmal: Der Artikel scheint "das Plagiat" als (evtl. eine) zentrale Triebfeder unserer Kultur anzusehen, ohne dies jedoch mit mehr als einem Glaubensbekenntnis zu begründen. Dass Schutz geistigen Eigentums auch in der Vorgeschichte schon eine Rolle spielt, das glaube ich wohl auch. Aber diese Rolle dürfte ausgesprochen minimal sein.
Denn: In der damaligen Zeit lebten die Menschen so verstreut, dass es nur selten zu Treffen sippenfremder Individuen kam. Der Vorteil des freien Tradierens, ohne Ressourcen für einen Urheberschutz aufwenden zu müssen, dürfte die Nachteile des vielleicht alle paar Generationen vorkommenden schädlichen Ideenklaus deutlich überwogen haben.
Außerdem: Es gab in der Antike (+/- ein paar Jahrhunderte) durchaus Fälle, da haben sich Menschen fremder Sprache getroffen. Die einen haben Dinge auf einen Platz gelegt, so dass die anderen es sehen konnten. Den anderen war durchaus klar, dass sie eine Gegenleistung für diese Darbietung geben mussten. Das dürfte auch den fiktiven kommunikationslosen Bogen- und Pfeilmachern klar sein.
Natürlich: Bevor den Parteien dieses klar war, mag es Missverständnisse gegeben haben, die zu Ärger geführt haben. Dieser Ärger hat jedoch keinem der Beteiligten genutzt (es baute sich also negativer Selektionsdruck auf), so dass sich früher oder später eine wortlose Tauschtradition entwickeln musste (oder der Verzicht auf den Vorteil, die Talente des jeweils anderen gemeinsam inanspruch zu nehmen). Bis zum Punkt des Handels ist also bereits kulturelle Geschichte entstanden. Diese dürfte auch maßgeblich für unser heutiges Urheberrechtsproblem verantwortlich sein, das aber jenseits überlebensnotwendiger Zwänge liegt und - die Aktualität des Themas zeigt es deutlich - demnächst eine neue, vermutlich freiere Stufe erreichen dürfte. Moderne Urheberrechtsverstöße taugen aber m.E. nicht wirklich als Beleg für das Thema des Artikels.
Bei dem Tradieren, dem stimme ich ganz und gar zu, sind wir Menschen stark im Vorteil. Wir können dank unseres kognitiven Potenzials diese Geschichte rasant vorantreiben - und tun es auch (der Neandertaler mag dieses Potenzial auch gehabt haben, ohne es genutzt zu haben?). Aber man bedenke: Vor den besagten 40 000 Jahren gab es auch schon Kultur. Vom Feuer über Faustkeile haben unsere Vorfahren ihr Wissen weitergegeben, aber in einem Schneckentempo. Ob nun tatsächlich eine genetische Varianz zur kulturellen Explosion geführt hat oder vielleicht hierzu zunächst eine "kritische Kultrumasse" erreicht werden musste, will ich offen lassen.
Doch - und damit kommen wir zu den Pflastersteinen des vergangenen Jahrhunderts - in diese Debatte die kulturellen Leistungen von Tieren mit hineinzuziehen, finde ich der Sache nicht sonderlich dienlich. Der Behauptung, der Affe ahme stumpf nach und kann keinen Zusammenhang aus dem Werkzeuggebrauch und den dran klebenden Leckereien erkennen, fehlt der Nachweis oder wenigstens das Argument. Die Behauptung, das soziale Lernen würde auch nach einer Million Jahre keinen Fortschritt springen, beruht auf ... welcher Beobachtung? Metallfoliendeckel gibt es so lange noch nicht.
Noch einmal: Der Mensch hat Feuer über Jahrhundertausende genutzt, ohne dass es zu nennenswerten Fortschritten kam. Und er hatte bessere Voraussetzungen, seine technischen Errungenschaft weiterzuentwickeln. Wer will dem Vogel da einen Vorwurf machen, dass er noch kein Silicon Valley gebaut hat? Tatsächlich wird er wohl wirklich nie seine Folientechnik verfeinern. Aber vielleicht eher deswegen, weil er dafür mehr Generationen braucht, als die Umwelt diese Silberdinger produziert? Technische Entwicklung kann nur entstehen, wenn sie von der Umwelt nicht eingeholt wird.
Insofern: Wenn ich all die altertümlichen, nicht untermauerten impliziten und expliziten Aussagen aus dem Artikel streiche - im Wesentlichen: ein prinzipieller Unterschied zwischen Mensch und anderen Tieren statt einem graduellen; und: kultureller Klau als starke Triebfeder für die menschliche Entwicklung - dann bleibt eine positive Botschaft stehen, der ich mich voll und ganz anschließe. Aber kein wissenschaftlicher Artikel.
Im übrigen Verweise ich auf die kürzlich gemachten Experimente mit Mäusen, bei denen die eine (sippenfremde) Maus zunächst die andere aus einem Käfig befreit, anstatt sich erst über die Leckerei aus dem anderen Käfig herzumachen.
Ein weiteres überflüssiges Buch
30.09.2012, Walter Weiss"Bewußtsein" gehört sowohl als Wort, wie auch als Begriff in denselben Papierkorb, in dem sich bereits "Geist" und "Seele" befinden. Alle drei Begriffe sind nichts als bloße Erfindungen unserer Kultur. Sie mögen in diesem Zusammenhang einmal historisch einen gewissen Sinn entwickelt haben - das ändert aber nichts daran, dass sie in Wahrheit inhaltsleer sind. Über Inhaltsleeres kann man trefflich streiten, niemand kann je die wirkliche Substanz feststellen, eben weil sie gar nicht existiert.
Und so reiht sich - immer nach der Sekundärbeschreibung des Rezensenten - dieses Buch in die schier unendliche Reihe der anderen nutzlosen "wissenschaftlichen" Bücher ein, in denen die Verfasser den untauglichen Versuch unternehmen, Vorgänge außerhalb der Reichweite unserer körperlichen Sinne "verständlich" zu machen, die nur berechenbar, also nur durch mathematische Formeln dargestellt werden können, niemals aber verständlich im Wortsinn dieses Begriffs sein können - bei diesem Buch noch mit dem zusätzlichen Handikap, dass das zu verstehende Problem überhaupt nicht existiert.
Die nach der Rezension zitierten Hirnforscher sollten sich darauf beschränken, die von ihnen bearbeiteten Mini-Bereiche des Gehirns ordentlich zu bearbeiten - oder auch greifbare Theorien der Erkenntnis aufzustellen, anstatt sich mit inhaltsleeren Begriffen aus der Geschichte der "Geisteskultur" zu befassen. Und Kant hat sich sicher - aus damaliger Sicht - die größten Verdienste um das Weltverständnis erworben - nur stimmen seine naturwissenschaftlichen Grundlagen heute eben leider in wesentlichen Aspekten nicht mehr, so dass auch seine Folgerungen nur noch historische Bedeutung entfalten können.
Neurowissenschaften studieren? Ja, aber nicht in Köln!
28.09.2012, LeonoraKaum anders kennengelernt
24.09.2012, Detlef SchroedterDenn tatsächlich ist es ja so, dass bei vielen Gelegenheiten die Probleme doch noch "irgendwie" überwunden werden können und die gesteckten Ziele erreicht werden. Gerade bei den Hauptverantwortlichen "oben" gibt es dann viel Händegeschüttel, Beweihräucherung und Lob.
Ein kritischer und objektiver Blick offenbart dann jedoch oft, das die Erfüllung der Sollziele oft nur mit erheblichen Mehrkosten erreicht wurden. Diese Mehrkosten müssen nicht unbedingt direkte klingende Münze sein, sondern können sich auch in Anpassung von Nebenzielen äußern. Nicht selten Nebenzielen, die nicht weniger wichtig als das Hauptziel sind, dafür aber weniger prestigeträchtig. Objektiv betrachtet hat man dann nicht viel gewonnen. Eine andere Möglichkeit der Zielerfüllen ist - besonders in der Wirtschaft - die Anpassung von Kennzahlen. Ein Jahresergebnis ist zu bescheiden ausgefallen? Dann werden eben Zukunftsprognosen aufgebessert, Bewertungen überprüft oder Rückstellungen angepasst.
So oder ähnlich habe ich es schon oft in meinen relativ unsteten beruflichen Werdegang gesehen. Bemerkenswerter Weise hat es immer Stimmen gegeben, die genau darauf hingewiesen haben. Aber nicht in Richtung des Entscheidungsträger, sondern auf gleicher Hierarchieebene. Und in der Regel ging der Ton in die Richtung: "Ja ja, das wissen wir, aber was soll's", begleitet von einem Schulterzucken.
Chefs wollen in der Regel nur Gutes hören. Und Chefs von Chefs sowieso. Außerdem: Aus der Sicht von "oben" wird "unten" eh' viel gejammert (was teilweise ja auch stimmt), womit Probleme auf dem Weg nach oben schon alleine deswegen sukzessive runtergestuft werden; um den vermeintlich wahren Schwierigkeitsgrad zu ermitteln.
Unabhängig von den kolossalen Fehlschlägen ist die Wirtschaft durchdrungen von schlechten Kommunikationswegen. Neben den klassischen Barrieren in der Vertikale gehören auch die Abteilungsschotten in der Horizontalen dazu. Frei nach dem Motto: Das Thema gehört nicht zu meiner Abteilung, deswegen interessiert es mich nicht.
Wenn Frank Schubert schreibt: "Schwer vorstellbar [...] dass derart wichtige Informationen nicht zu den Verantwortlichen vordrangen", schreibe ich pessimistisch: Sehr gut vorstellbar und mehr die Regel als die Ausnahme. Nur leider kaum wahrgenommen. Denn der größte Brocken des Eisbergs schwimmt halt unter der Wasseroberfläche.