Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Gerade Fluorverbindungen sind so elementar, dass man ihren Handel wohl kaum unterbinden kann. Zur Not kann man alternativ Flussspat mit Schwefelsäure versetzen.
Das würden die doch tun, ob das IPCC existiert oder nicht, nein? Gewöhnlich werden auch die Treffen von Working Groups etc. am Rande von wissenschaftlichen Konferenzen abgehalten, bei denen man sich ohnehin trifft.
Auf einen aktuellen Gesamtüberblick zum Stand der Forschung können wir wohl nicht verzichten, es bietet sich aber an, dem IPCC-Bericht einfach eine vernünftige Versionierung zu verpassen, die es erlaubt, zeitnah und modular Erkenntnisse auf den neuesten Stand zu bringen. Nur, wenn sich etwas Fundamentales ändert, würde eine neue Versionsnummer vergeben, kleinere Änderungen würden durch Unterversionen (5.1, 5.2a, usw.) abgebildet.
Daneben könnte dann ein Teil der freiwerdenden Ressourcen auf Antworten zu „tagesaktuellen“ Fragen verwendet werden (obwohl ich befürchte, dass die „Klimaskeptiker“ das als willkommenen Anlass sehen würden, die Zeit der Wissenschaftler/innen durch noch mehr Pseudodebatten zu binden).
Zitat: Am frühen Dienstagmorgen "schwamm" die havarierte "Costa Concordia" ... Das ist nicht richtig. Die Costa Concordia "schwimmt" nicht! Sondern sie sitzt fest auf dem Gerüst, das auf den Felsen angebracht wurde. Sie muss erst mit den noch anzubringenden Schwimmerkästen zum Schwimmen gebracht werden.
Die Astrophysik ist hochspekulativ. Mit viel Mathematik und schönen Bildern versucht man Seriosität zu erreichen. Die Mathematik ist allerdings flexibel genug, für die unterschiedlichsten Vorstellungen Beschreibungsmöglichkeiten zu liefern und entfällt daher als Bestätigung für eine Hypothese. Wir sind meiner Ansicht nach weit davon entfernt, das Weltall richtig zu beschreiben.
Die eindeutige Parteinahme in der stark polarisierten Debatte über die offene Anwendung der Gentechnik zeigt eine als kritisch ausgewiesene Wissenschaftlerin deutlich vom Pfad professioneller Tugenden abweichend. Die Haltung ist geprägt sowohl durch einseitig unvollständige Darstellungen wie auch durch eine wenig sachgerechte Dateninterpretation.
Die Freiheit der Interpretation kann hier einerseits einer Vision perfekter Kontrolle folgen, die aus dem Vorsorge-"Prinzip" herleitbar ist. Dieses prägt ohne spezifische Definition auch die Formulierungen der gesetzlichen Grundlagen der Regelungen im Bereich der "grünen" Gentechnik. Andererseits fehlt für die Dateninterpretation auch ein Bewertungsraster, das die Konturen der Schutzziele der Regelungen deutlich erkennbar machen könnte. Das wiederum ist eine Folge der von der Politik dominierten Entscheidungen unter diesen Regelungen. An die Wissenschaft muss man an dieser Stelle die Forderung stellen, die in ihrem Urteil impliziten Maßstäbe offenzulegen.
Die oben genannten Freiheiten können nämlich für die Stützung einer bestimmten Haltung in der kontroversen Gentechnikdebatte instrumentalisiert werden, ohne dass gewöhnlich sehr heterogene Beweggründe der Parteinahme offenzulegen sind. Häufig geht es schlicht darum, "grüne" Positionen mit der Solidarität unter Gentechnikgegnern zu fördern.
Folgend werden Aussagen von Frau Hilbeck als Thesen (in GROßBUCHSTABEN) formuliert und kritisch auf Wert und Funktion in der Debatte untersucht. In einem letzten Abschnitt folgen Anmerkungen zu Beziehungen und Struktur der Regelungen aus dem Erfahrungshorizont des Autors, die schließlich in vorläufigen Schlussfolgerungen für die Kommunikation münden.
1. DIE INDUSTRIE WANDTE DIE TECHNOLOGIE VIEL ZU SCHNELL AN
Die Gewinnorientierung der Industrie spielt hier als negativ bewertete treibende Kraft nur unterschwellig eine Rolle. Das Hauptgewicht der Begründung wird auf das unvollkommene gegenwärtige Wissen über Grundlagen und Details der gentechnischen Veränderung von Lebewesen gelegt, das unter 2. diskutiert wird. Die Interviewte verkündet ihre einseitige subjektive Wertung ohne weitere Überlegungen zu möglichen sachlichen Maßstäben.
Generell ist der Zeitpunkt des Marktzugangs in seiner Abhängigkeit vom Umgang mit wissenschaftlich-technischen Innovationen ein wichtiger Indikator der Fortschrittsdynamik in einer Gesellschaft. Er zeigt ja die Geschwindigkeit der Umsetzung eines Entwicklungsfortschritts an. Und der ist nicht nur aus Wettbewerbs- und ökonomischen Gründen, sondern beispielsweise auch bei der Optimierung der Gesundheitsvorsorge (Arzneimittel, Technologien) von großer Bedeutung.
An dieser Stelle vermisst man beim Vorwurf der Geschwindigkeitsüberschreitung bei dem Einsatz der Pflanzen-Gentechnik die nahe liegende Erwägung, ob aus der Beobachtung und Wertung von Erfolgen und Misserfolgen nach Marktzugang nicht ein Maßstab für eine zeitlich korrekte Strategie abzuleiten wäre.
2. DIE ANWENDUNG DER GENTECHNIK BERUHT AUF LÜCKENHAFTEN KENNTNISSEN UND MANGELHAFTEM VERSTÄNDNIS DER GRUNDLAGEN GENETISCHER MECHANISMEN. DAS GILT ETWA IM VERGLEICH MIT DER KONSTRUKTION EINES FLUGZEUGS DURCH EINEN INGENIEUR.
Ist vom Gentechniker tatsächlich der gleiche Grad an Kontrolle über seine Tätigkeit und Produkte zu fordern, wie wir sie routinemäßig dem Ingenieur bei der Ausführung eines Konstruktionsentwurfs zumessen?
Der Entwurf für den Ingenieur umfasst alle Details des Konstrukts, soweit sie für die Ausführung von Bedeutung sind. Die Qualität seiner Arbeit ist dann an der Übereinstimmung zwischen Plan und Konstrukt ablesbar. Dabei sind umfassende Kenntnisse über Materialeigenschaften und von Menschen konstruierte Werkzeuge einsetzbar. Die Konstruktionsregeln sind generell gültig, quantitativ formulierbar und klar nach Ursachen und Wirkungen strukturiert.
Eine kontrolliert fehlerfreie Herstellung einer geplanten modifizierten neuen Sequenz ist nun in allgemeiner Vorstellung auch die Herausforderung für den Gentechniker. Die vielfältigen Fehlermöglichkeiten bei einzelnen Schritten, etwa durch Nutzung evolvierter Werkzeuge mit im Detail unbekannten Wechselwirkungen und Spezifitäten, können eine stark eingeschränkte Kontrolle über die Verteilung von Reaktionsprodukten bedingen. Das gilt insbesondere für die zellulären Vorgänge, die schließlich für eine Integration modifizierter Sequenzen in das Genom des Empfängerorganismus verantwortlich sind.
Das eigentliche Ziel des Designs eines Gentechnikers ist aber nicht die mehr oder minder perfekte Übereinstimmung zwischen geplanter und tatsächlich realisierter Sequenzstruktur – sondern der in seinen Eigenschaften (dem Phänotyp) veränderte Organismus.
Hier liegt es nun nahe, die geplante neue Bausteinfolge des Organismen-Genoms als Analogie zum Konstruktionsentwurf und seiner Funktion für die Arbeit eines Ingenieurs anzusehen. So wie der Ingenieur in der Lage ist, jedes Detail seines Konstruktionsplans in seiner Funktion im Endprodukt zu interpretieren, sollten wir nämlich idealerweise für jeden einzelnen Baustein der modifizierten Sequenz seine nach Ursache und Wirkung geordneten Konsequenzen für die Leistungen des Organismus beschreiben können.
Für die Merkmale des ursprünglichen Organismus haben wir jedoch eine andere Informationsbasis, nämlich die methodisch angepasste Analyse seiner Eigenschaften in den für wichtig erachteten Details. Die lassen sich aus der Bausteinfolge seiner Genomsequenz nur höchst unvollkommen oder überhaupt nicht ableiten. Die obige Analogie beschriebe also nur unsere Wunschvorstellungen in Bezug auf die Interpretation des in der Bausteinfolge der DNA festgelegten Informationsgehalts.
Die Geschichte der Molekularbiologie zeigt die bisher erreichten Fortschritte in dem hier angedeuteten Projekt. Sie verweist aber zugleich auf die vielfältigen Grenzen unserer Ambitionen, ein nach Ursache und Wirkung geordnetes (kausales, Maschinen-ähnliches) Abbild/Modell von evolvierten Lebewesen zu generieren. Die vorhandenen Kenntnislücken sind am Stand der Wissenschaft ablesbar, dessen jüngste Entwicklung noch kaum eine Annäherung an die vorstehend geschilderten Ambitionen erkennen lässt.
Verbände, die dem Naturschutz verpflichtet sind, heben gern ihre ganzheitlichen Ansätze der Naturerklärung als Besonderheit hervor und sehen einen Widerspruch zu den Details naturwissenschaftlicher kausaler Modelle. Diese Haltung wird aber verlassen, wenn in der Kritik an der Gentechnik gerade die Tragkraft des erwähnten kausalen Modells herausgefordert wird.
Der Effekt von Sequenzen auf die Merkmale und Reaktionsweisen des Organismus ist wie angedeutet in vielen Details hypothetisch, was gleichzeitig die Bedeutung ihrer Analyse für Aussagen über Risiken oder "biologische Sicherheit" deutlich relativiert. Weder eine verbesserte Effizienz und Präzision bei der Konstruktion genetischer Veränderungen noch eine aufwändige analytische Prüfung ihrer Bausteinfolge erlauben also überlegene Vorhersagen der Eigenschaften des Organismus einschließlich möglicher Risikopotenziale. Die Prüfung der ersten vollständigen Sequenz einer transformierten Pflanze (zur Virusresistenz gentechnisch modifizierte Papaya) illustriert diese Aussage auf überzeugende Weise (1).
Die Hypothese einer überlegenen Sicherheitsaussage durch genaue Beschreibung der Techniken und Ergebnisse der genetischen Modifikation ist jedoch in den Kriterien der Richtlinien der EU implizit enthalten (2). Hier kann das Screening von Datenbanken bekannter Toxine oder Allergene auf Verwandtschaften zu hypothetischen (oder analytisch nachgewiesenen) Produkten neuer Leseraster aussagekräftige Ergebnisse produzieren. Das ist aber abhängig von der Qualität des in den Datenbanken organisierten Kenntnisstandes, z.B. über die für toxische oder allergene Wirkungen verantwortlichen Domänen1. Und die Strategie ist vom Ansatz her sehr begrenzt für die Detektion neuer schädlicher Wechselwirkungen geeignet. Im Übrigen sind die Anforderungen an die Beschreibung der gentechnischen Veränderung in den Richtlinien der EU am ehesten als Test der molekularbiologischen Kompetenz des Antragstellers interpretierbar (3).
3. DER LÖSUNGSANSATZ DES "GOLDENEN REIS´", MIT DEM VITAMIN-MANGELERSCHEINUNGEN DURCH SYNTHESE VON VORSTUFEN IN REISKÖRNERN BEKÄMPFT WERDEN SOLLEN, WIRD DER KOMPLEXITÄT DES THEMAS NICHT GERECHT.
Nicht ganz überraschend werden Einwände gegen die Konzeption einer Verbesserung des Nährwertes von Pflanzen von fast allen Vertretern der Antiposition zur Gentechnik vorgebracht. Es wird auch nicht bestritten, dass im speziellen Fall die Abwehr einem möglichen Propagandaerfolg für Gentechnik-Anwendungen gilt. Mit dem "Goldenen Reis" soll nämlich der durch einseitige Ernährung mit geschältem Reis verursachte Mangel an Vitamin A kompensiert werden und damit das Erblinden von Kindern sowie gravierende weitere Mangelerscheinungen bekämpft werden.
Neben der gewohnten Kritik an der unzureichenden Qualifizierung von Zulassungsanforderungen und der Charakterisierung von Kindern als Versuchskaninchen, wenn sie an Ernährungsstudien teilnehmen (4), wird hier noch die aufzulösende Komplexität der Entscheidung über die empfehlenswerte (optimale) Strategie zur Mangelbekämpfung angesprochen.
Da sieht man schon eine Folge von Konsenskonferenzen vor sich, in denen sich Experten austauschen über die Bewältigung von Verteilungsproblemen bei dem Einsatz von ergänzenden Vitamin-A-Gaben oder Palmöl als alternativer Vitaminquelle bis hin zum Wettbewerb von sozialen Strategien zur Versorgung von Kleinfamilien mit Produkten ihrer Vorgärten. Dass die Fortsetzung der Konferenzfolgen leicht eine Priorität über die eigentliche Problemlösung gewänne, wäre hier gewiss keine ganz überraschende Konsequenz.
4. LANGFRISTIG ZEIGTEN SICH DURCHAUS SCHÄDLICHE AUSWIRKUNGEN AUF MARIENKÄFER UND FLORFLIEGEN
Das Bestreben von Wissenschaftlern, in toxikologischen Experimenten Effekte der von ihnen untersuchten Einflussfaktoren nachzuweisen, erhält eine schwierig beherrschbare psychische Störgröße durch das Streben nach wissenschaftlicher Anerkennung und Publikation ihrer Arbeit. Wenn die Resonanz der politischen Ebene mit der populistischen Stützung mehrheitlicher Wahrnehmungen dazu kommt, wird rasch eine von vielen Toxikologen erträumte Qualität der öffentlichen Reaktion auf Ergebnisse ihrer Forschungen erreicht.
Einer solchen Belohnung durch nüchterne Erarbeitung von Daten und Interpretationen zu widerstehen, bedarf der Unabhängigkeit des Urteils in mindestens dem gleichen Maße, wie es von den für Konzerne tätigen Wissenschaftlern zu Recht eingefordert wird.
Toxikologische Labor- und Modellsystem-Untersuchungen sind angemessen als die Suche nach Fakten zu Gunsten einer Anwendung des Vorsorgeprinzips zu kategorisieren. In welcher Weise sich die Ergebnisse in realen Expositionssituationen und deren zeitlichem Verlauf tatsächlich niederschlagen, das kann als Anforderung an die erwünschte Hypothesenqualität zunächst offen bleiben, ist aber für die endgültige Qualifizierung von besonderer Bedeutung (5-7).
Für die Anwendung des Vorsorgeprinzips beim Einsatz der "grünen" Gentechnik ist eine Prüfung der Plausibilität fantasievoller Entwürfe von Risikoszenarien gewiss eine angemessene Forderung. Deren Anspruch entfaltet sich mit der Feststellung, dass die Realisierungschancen solcher Szenarien mit biologischen Mechanismen gewöhnlich nicht einfach als äußerst unwahrscheinlich und irrelevant verworfen werden können (siehe Ergänzungen).
Die gebräuchliche human-/ökotoxikologische Bewertung des chemischen Pflanzenschutzes wird hier wie gewöhnlich in Arbeiten oder Beiträgen von Vertretern der Antiposition als Maßstab und Referenz nicht erwähnt. Dabei qualifiziert dieser Maßstab die ganz überwiegende Umgangsweise unserer Landwirtschaft mit Mensch und Natur. Für eine sich als Agrar-Ökologin bezeichnende Wissenschaftlerin ist die Ignorierung dieser Referenz schon bemerkenswert.
5. EINE SACHLICHE ANALYSE DER GENTECHNOLOGIE UND IHRER (landwirtschaftlichen) PRODUKTE IST KAUM MEHR MÖGLICH - DIE BEIDEN SEITEN DER AUSEINANDERSETZUNG SIND BEREITS IM GRUNDSÄTZLICHSTEN UNEINS.
Ob gentechnische Verfahren als revolutionäre Entwicklung oder als normaler Entwicklungsschritt der konventionellen Züchtung angesehen werden, das muss nüchtern-abwägende Bewertungen unter wissenschaftlichen Kriterien keineswegs beeinflussen. Für die ethische und interessengebundene Entscheidung spielt eine solche Differenzierung auch keine Rolle.
Viele Gesichtspunkte der Bewertung und Entscheidung sind ohne erkennbaren Bezug zu einem Riskopotenzial der Technologie im konventionellen Sinn (unerwünschte Effekte auf menschliche Gesundheit oder die Umwelt in ihrem Wirkungsgefüge). Das wird an den folgenden Grundsätzen der Antiposition exemplarisch deutlich:
Gentechnikgegner
stehen in Opposition zu globalen Zielen internationaler Konzerne und den mit ihnen verknüpften Profitinteressen;
wollen mit der Gegnerschaft zur "Patentierung von Leben" ein generell unbegrenztes allgemeines Nutzungsrecht für neuartige/kreative Lösungen bei der Modifizierung von Lebensformen durchsetzen;
favorisieren natürliche Mechanismen gegenüber technischen Lösungen. Dabei wird gewöhnlich übersehen, dass die Gentechnik zumeist natürlich evolvierte Funktionen nur nachahmend nutzt. - Eine ausschließliche Verwendung von Genen aus einem jeweiligen Verwandtschaftskreis (Arten / Gattungen: "Cis-Genetik") engt das mögliche Spektrum von Zielen bei der Veränderung drastisch ein, ohne dass ein signifikanter Vorteil für die Risikobewertung erkennbar wäre;
lehnen industrialisierte Formen der Landwirtschaft ab und unterstützen aus der Wahrnehmung überlegener Naturnähe heraus die Verfahren des Biolandbaus.
Eine faktische Verknüpfung zwischen Anwendungsformen der "grünen" Gentechnik und der Aktivität internationaler Konzerne bei der Entwicklung der Landwirtschaft muss registriert werden. Dass hier kein natürlicher Zusammenhang existiert, offenbart sich in den speziellen, von Menschen gemachten Rahmenbedingungen, wie etwa dem Umfang, der Art und der Zielsetzung von Regelungen. Deren Existenz wie auch ihre Veränderungen haben einen drastischen Einfluss auf jeweilige Wettbewerbspositionen.
Ethische Gesichtspunkte übertünchen gelegentlich das Profitstreben für eine Klientel nur unvollkommen. Es bleibt beispielsweise sachlich wenig plausibel, weshalb durch Strahlungsmutation generierte Pflanzensorten im biologischen Landbau eher akzeptabel sein sollen als gentechnisch erzeugte Varianten. Die Fragestellung kann zugespitzt werden, wenn man übergeordnete Ziele wie die Minimierung von Einflüssen auf die unmittelbare oder weitere Umwelt, Ressourcenschonung und die Bewahrung biologischer Vielfalt in den Fokus nimmt. Diese Ziele erscheinen auch eher zur Konsensbildung geeignet als zur Stützung eines Lagers im Pro-und-Kontra-Streit um die Gentechnik. Jenseits aller vorgebrachten ethischen Motive des Naturschutzes ist die Besetzung der Kontraposition meist eher als Anpassungsleistung an die Publikumswahrnehmung und willkommenes zusätzliches Abgrenzungskriterium anzusehen.
Ein möglicher ökonomischer Profit dieser Haltung ist vielleicht nur von begrenzter Dauer, weil sich gegenüber den spekulierten Visionen der Risikoproduktion die nüchterne Kenntnis der internationalen Faktenlage schon mittelfristig durchsetzen könnte. Hier kann man auch an die ehedem sehr strittigen Positionen bei der Auseinandersetzung über gentechnische Produktionen im "geschlossenen System" von Anlagen denken. Produkte der "roten" (Medizin) und "weißen" (Enzyme, Chemikalien, ...) Gentechnik werden nicht gekennzeichnet und sind heute hinsichtlich der Verknüpfung mit Risiken ganz aus der öffentlichen Aufmerksamkeit verschwunden.
Zu Gunsten der "grünen" Gentechnik könnten Argumente der größeren Unabhängigkeit von chemischen Mitteln und Verfahren sowie die grundsätzlichen Herangehensweisen nach allgemein gültigen (molekular-)biologischen Gesetzmäßigkeiten als Stützung der Wettbewerbsposition verstärkt einsetzbar werden.
6. DIE STUDIE (Seralini et al., 2012) IST SO SOLIDE WIE JEDE ANDERE STUDIE, WELCHE DIE ENTWICKLER BISHER VORGELEGT HABEN UND AUF DIE EINE ZULASSUNG GEGEBEN WURDE.
Seralini und Mitarbeiter meinen, mit ihrer experimentellen Arbeit (8), bei Ratten Langzeitwirkungen von glyphosatresistenten Maislinien in variierender Kombination mit dem Herbizid nachweisen zu können. Mit der vorbehaltlosen Stützung der Struktur und Interpretation dieser Arbeit verlässt die Interviewte nachdrücklich den Rahmen nüchterner wissenschaftlicher Urteilsbildung.
Bei einer sachlichen Analyse experimenteller Arbeiten und ihrer Auswertung kann eine eventuelle Voreingenommenheit der jeweiligen Autoren gegenüber der sachlichen Interpretation ihrer Daten zur vernachlässigbaren Störgröße werden. Es bedarf aber gewöhnlich eines gewissen Sachverstands, um das Urteil über die Plausibilität/das Zutreffen/die Wahrheit kritischer Einwände unabhängig von der professionellen Anbindung der Quelle zu machen. – Demgegenüber verbleibt die Stellungnahme Hilbecks auf der Metaebene der Unterstellung jeweiliger Abhängigkeiten der Urteile, ohne auf sachliche Kritikpunkte sich einzulassen. Die vorgebrachten Argumente lassen sich etwa folgendermaßen zusammenfassen:
Durch vielfache Verknüpfung ihrer Mitarbeiter mit Industrieinteressen seien die Genehmigungsinstitutionen der EU, wie der europäischen Lebensmittelbehörde (EFSA), nicht zu einem unabhängigen Urteil in der Lage. Der wissenschaftlichen Gemeinschaft insgesamt wird ebenfalls einseitige Parteinahme unterstellt, weil Ergebnisse, die interessierten Industrieunternehmen nicht genehm seien, grundsätzlich in die Kritik kämen. Und zu solchen Ergebnissen zählten die Arbeiten von Seralini et al. in jedem Fall. Dabei erfüllten diese Experimente jedenfalls die bei Untersuchungen für die Marktzulassung etablierten Standards.
Die intensive wissenschaftliche Kritik an der Arbeit bemängelt nun aber gerade die Verletzung von Standards, die bei einer anspruchsvollen Untersuchung mit heterogener schlecht spezifizierter Fragestellung anzuwenden seien (8, 9). So wird etwa die besondere Nichteignung des eingesetzten Rattenstamms auf Grund begrenzter Lebensdauer und hoher spontaner Krebsrate festgestellt wie auch die mangelhafte Anpassung der Gruppengrößen an international standardisierte statistische Anforderungen. Die eigenartige Umgangsweise mit den Daten der Studie vor der Publikation zeige eine sehr ungewöhnliche Konzentration auf die Medienwirksamkeit. Die publizierten Bilder hätten außerdem eine emotionale Qualität im Konflikt mit ihrer wissenschaftlichen Relevanz, weil sie eine Demonstration von Expositionseffekten suggerierten. Im Ablauf der Experimente werde im Übrigen eine totale Missachtung des Tierschutzes demonstriert. – Die teils heftige Kritik am Reviewprozess, die mit dem Verweis auf mangelhafte wissenschaftliche Qualität häufiger vorgebracht wird, scheint die Tatsache zu ignorieren, dass auch Veröffentlichungen in wissenschaftlichen Zeitschriften von ökonomischen / politischen Gesichtspunkten beeinflusst werden können.
7. UNABHÄNGIGE FORSCHUNG IST IN DIESEM METIER (der Testung von Risiken im Kontext von Freilandanwendungen) KAUM NOCH MÖGLICH.
Es ist aufschlussreich, die Interessen und Motive von Geldgebern und wissenschaftlichen Bearbeitern gentechnischer Sicherheitsforschung gegenüberzustellen.
Staatliche, industrielle und institutionelle Geldgeber für Forschungsprojekte verfolgen jeweils eigene - wandelbare - Interessen:
Mögliche Risiken nach dem Stand der Wissenschaft zu identifizieren und zu analysieren, sowie nach gebräuchlichen Maßstäben zu bewerten;
Risikofragen zu klären, die in der Bevölkerung eine besondere Rolle spielen;
Den offenen Einsatz der Gentechnik als sicher und verantwortbar zu kommunizieren;
Konkrete Einsatzformen der Technologie zu fördern;
Neue Bewertungskriterien aus neuen Erfahrungen zu destillieren;
Anhand der Beobachtung von Trägern modifizierter Gene die mangelhafte Beherrschung von Risiken des Umgangs mit Organismen zu demonstrieren;
An transformierten Pflanzen die unvollkommene Einlösung anspruchsvoller theoretischer Erwartungen aufzuzeigen – zum Beispiel anhand der mangelhaften Wirkungsbegrenzung der Toxizität auf Zielorganismen.
Ein Bündel von Motiven veranlasst Wissenschaftler dazu, Forschungsprojekte vorzuschlagen:
Kongruenz mit den formulierten Zielen der relevanten Forschungsprogramme – oder Neuformulierung von Projekten auf der Basis eigener wissenschaftlicher Kompetenz;
Mehr als die Unterstützung gesellschaftlicher Ziele: Verfolgung heterogener Eigeninteressen, Befriedigung persönlicher Neugier;
Suche nach Anerkennung / Resonanz in der wissenschaftlichen "community";
Suche nach Anerkennung / Resonanz von Forschungszielen und -ergebnissen mit generellen Wahrnehmungen einer speziellen Zielgruppe.
Die hier ganz lückenhaft angedeuteten Ziele und Motive der an der Verteilung von Forschungsgeldern Beteiligten können auf den Grad der Übereinstimmung geprüft werden. Eine Entscheidung wird sich in erster Linie daran orientieren.
Gegenüber den persönlichen Interessen – insbesondere der Neugier als wichtigster Eigenschaft der wissenschaftlichen Förderungsnehmer – hat es die "Sicherheitsforschung" als Zielsetzung schwer, nicht als unangemessene Beschränkung der Unabhängigkeit wahrgenommen zu werden. Für Ökologie und Umweltwissenschaften sollte eine Ablehnung des aktuellen Managementstandes als Grundlage ihrer Forschungskonzepte unterstellt werden.
Potenziell bedeutende Geldgeber suchen heute vielleicht eher nach objektivierenden Daten der Bewertung zumindest in Relation zu bisherigen Konventionen. Der Schutz ökonomischer Interessen der Industrie wird gegenüber der möglichen Absicht, die Schieflagen gegenwärtiger Regulierung offenzulegen, nur ein marginaler Gesichtspunkt sein. Einer Fortsetzung der "Suche nach Haaren in der Suppe" verbleibt vielleicht ein schmaleres Betätigungsfeld.
8. DIE TECHNIK IST MIR EGAL. MIR GEHT ES UM PROBLEMLÖSUNGEN AUF DER NATURWISSENSCHAFTLICHEN UND AGRARÖKOLOGISCHEN EBENE, ZU DENEN ICH MEINE EINWÄNDE FORMULIERE.
Die mangelhafte Spezifität der Wirkung von Bacillus-thuringiensis-Toxinen hat sich bisher nicht als signifikantes Problem ihrer Anwendung in transformierten Pflanzen erwiesen (10-12). Der Vergleich mit der Bekämpfung von Schadorganismen in konventioneller Landwirtschaft rückt in der jüngsten zitierten Arbeit die relativen Bewertungsskalen deutlich zu Gunsten von Bt-Pflanzen zurecht. Solche Pflanzen wurden in der Erwartung entwickelt, dass die Risiken geringer sein würden, als verfügbare oder alternative Technologien – bei gleichzeitig überlegenen Vorteilen. Nach der Datenlage scheinen diese Erwartungen gerechtfertigt gewesen zu sein, was wohl auch heute noch zutreffend ist (10).
Dass Frau Hilbeck die Technik egal sei, ist nach dem Inhalt des Interviews nicht nachvollziehbar. Hier wird die einseitige Parteinahme gegen gentechnische Lösungsansätze ohne sachlich-nüchterne Abwägungen in der Konfrontation vielfach demonstriert. Und wie hoch würde ein realistischer Beobachter wohl die Chance einschätzen, dass sich Frau Hilbeck einmal vehement für eine gentechnisch realisierte landwirtschaftliche Problemlösung einsetzte?
Die bedingungslose Parteinahme scheint bisher nicht zum Nachteil für Frau Hilbecks öffentliche Resonanz geworden zu sein.
{Regelungen als Kristallisationspunkt von Risikowahrnehmungen und Interessen; Rückkopplungen, Ansätze wissenschaftlicher Risikoanalyse; Randbedingungen der Kommunikation; Motive der Parteinahme; Folgewirkungen}
REGELUNGEN und RÜCKKOPPLUNGEN
Die Fragestellung nach der sachlichen Begründung einer speziellen Regelung der offenen Anwendung von gentechnisch veränderten Organismen soll hier den Gedankengang über den Risikoumgang einleiten. Die Frage wirkt heute zwar angesichts fester Fronten und vorläufig etablierter Mehrheitsverhältnisse total abgehoben. Die Konsequenz der Entscheidung sind jedoch zahlreiche Konflikte zwischen sachlich nüchternem Urteil und gesellschaftlichen / rechtlichen Umgangsweisen.
Wissenschaftlich-theoretisch lässt sich eine spezielle Verknüpfung der Gentechnikanwendung mit Risiken für Mensch oder Umwelt nicht begründen – und die weltweit rasch wachsende Erfahrung spricht bisher auch empirisch gegen die Hypothese einer solchen Verknüpfung. Organismen werden also nicht automatisch zu neuen Risikoquellen, wenn sie gentechnisch (zu "GVO") verändert wurden)2.
Die gegenteilige Annahme oder ein verbleibender Verdacht statten die betroffenen Organismen in Europa jedoch mit einer Erbsünde aus, der alle Nachkommen ohne Vergebung unterfallen. In Kombination mit der Kennzeichnungspflicht hat das erhebliche Konsequenzen für den Umgang mit GVO. (In den USA werden die veränderten Pflanzen nach Prüfung ihrer Vergleichbarkeit mit konventionellen Sorten aus dem speziellen Regelungsbereich entlassen.)
Die technisch gewachsene Macht, Organismen für seine Zielsetzungen zu verändern, eröffnet dem Menschen auch die Möglichkeit, dabei ganz neue Einsatzformen für Organismen zu planen (Pflanzen, die Impfstoffe in ihren Früchten enthalten, leuchtende Aquarienfische, ...). Unter einem kritischen Blick auf seine Fähigkeiten, mit solcher Macht weise umzugehen, erwächst aber ein psychologisches Momentum zu Gunsten einer Bändigung dieses Potenzials durch Regelung.
Neben der inhaltlichen Kritik an den europäischen Regelungen wird hier nicht weiter diskutiert, inwiefern unter den heterogenen Anforderungen in den USA oder international konsistente Regelungsphilosophien entwickelt wurden. Als eine dem Autor bekannte konsequente Alternative soll nur die kanadische Direktive 94-08 erwähnt werden, die "Pflanzen mit Neuen Merkmalen" als Regelungsgegenstand definiert. Die Tatsache, dass hier auch konventionelle Züchtungsprodukte der Regelung unterfallen, hat die breite Akzeptanz in Kanada zunächst behindert (13).
Nach welchen Interessen und Mechanismen gestaltete sich die gegenwärtige Lage der Gentechnik im Freiland Europas? Ein Ausgangspunkt war sicher die direkte Konfrontation des Publikums in der offenen Umwelt – vielleicht mit Erinnerungen an die Auseinandersetzung um die Anwendung im Produktionsfermenter von Anlagen (Insulinproduktion durch Bakterien). Die an Gefährdungseinschätzungen orientierte Abschottung der Anlage von Personal und Umwelt war ja dabei das wichtigste Element der Risikobeherrschung. – Dazu kam eine generelle Abwehr gegenüber Innovationen im landwirtschaftlichen Bereich, speziell auf der Seite des Umweltschutzes. Die Verbreitung skeptischer Haltung in der Gesamtbevölkerung regte dazu an, der Politik weit gehende Gestaltungsmöglichkeiten, in Zulassungsentscheidungen zu überlassen. Die Struktur des Risikoumgangs, die folgend noch eingehender thematisiert wird, ist eher an die Verhinderung des Marktzugangs denn an seine Unterstützung angepasst.
Die hier durchaus auch durch mangelhaftes Wissen gestützte Risikowahrnehmung ruft generell Umweltschutzinstitutionen, Naturschutzverbände und Politik auf den Plan, die für einen verbesserten Schutz von Gesundheit und Umwelt Sorge tragen können. Die beim Management gemachten Erfahrungen und Beobachtungen sowie deren Interpretationen führen dann häufig auch zur Verstärkung der Risikowahrnehmung. "RISIKEN" der "grünen" Biotechnologie verdanken ihre Existenz der Struktur und dem Inhalt der REGELUNGEN, die damit ein Großteil der Probleme generieren, für deren Management sie zuständig sind.
Profiteure solcher Entwicklung sind hier:
Ganz unmittelbar Firmen, die Identifizierungs- und Nachweisverfahren vermarkten;
Bürokratische Institutionen, deren Mittel und Stellenplan florieren;
Verbände, Vereine und Politik, die an Wählern und Spendenaufkommen gewinnen bei der Befriedigung der Erwartungen jeweiliger Klientel;
Der Ökolandbau, der ein zusätzliches wirksames Abgrenzungskriterium erhält;
Die Lebensmittelproduktion, deren bisherige / heimische Formen unterstützt werden;
Die Wissenschaft, die alternative Ressourcen mit einer hohen Beliebigkeit der Forschungsziele
Global agierende große Firmen werden gestützt, weil der Aufwand für
Schutzrechte / Patentierung,
Erprobung, Testen und Zulassungsverfahren
Begleitung des Anbaus durch Überwachung
geleistet werden kann und Konkurrenz durch kleine Wettbewerber verhindert wird.
Gewinnerwartungen für Massenprodukte auf einem globalen Markt steuern die Aktivität.
Chancen für lokalen / marginalen Bedarf müssen unter Verzicht auf biotechnische Lösungen erarbeitet werden, womit diese Abhängigkeiten unmittelbar dem Ziel einer Bewahrung biologischer Vielfalt widersprechen.
Ein nachteiliger Einfluss auf die Weiterentwicklung der Molekularbiologie bei Pflanzen und auf die Nutzung fortschrittlicher Technik in der Umwelt erscheint als evidente negative Folge der Wahrnehmungen.
Weil ein genereller Mechanismus fehlt, der GVO zu Risikoquellen wandelte, ist die Ermittlung der von ihnen ausgehenden Risiken eine Herausforderung, der man sich mit einer Vielzahl von Einzeluntersuchungen stellen könnte. (Wissenschaftliche Ansätze in der so bezeichneten Sicherheitsforschung sowie die für eine generelle Überwachung von GVO vorgeschlagenen Messdaten sind auch als unsystematische Fahndung nach Risiken interpretierbar.) Die Identifizierung von Risiken in den EU-Richtlinien folgt einem systematischeren Vorgehen durch Vergleich mit dem genetisch nicht modifizierten Organismus als einer bewährt harmlosen Referenz (angelehnt an ein Konzept "Substanzieller Äquivalenz"). Die mit der gentechnischen Modifizierung beabsichtigte (Phänotyp-)Veränderung (intended) wird von nicht erwarteten Variationen (unintended) unterschieden. Und Letztere werden als Gefährdungsmomente (hazards) zum Ausgangspunkt weiterer Untersuchungen, die einerseits die Natur des Risikos untersuchen und andererseits auch die molekulare Ursache dieser Variationen aufklären sollen.
Gesetzmäßigkeiten biologischer Variation nach Ursache und Mechanismus zu erforschen, kann zu fruchtbaren Forschungsperspektiven führen. Der vorstehend kurz vorgestellte Weg zur Identifizierung und Analyse eines unbekannten Risikos ist jedoch in mehrfacher Hinsicht unproduktiv:
Eine nicht der Konstruktionsidee folgende phänotypische Variation kann eine große Vielfalt von (primären, molekularen) und Umweltursachen haben. Die wirken irgendwo im Netzwerk biochemischer Prozesse und Regulationen. Unser Nichtwissen ist da überhaupt kein Indikator für ein von den Nutzpflanzen ausgehendes Gefährdungsmoment.
Die ausgewählte Referenz für unbedenkliche Qualität ist deutlich eindimensional und ungeeignet für die Bewertung irgendeiner Variation, weil sie die unbedenkliche Variationsbreite konventioneller Sorten als analoger Vergleichsbasis zunächst nicht umfasst.
Als alternative Annäherung an Risikopotenziale bei der Risikoidentifizierung lässt sich der Entwurf von Risikoszenarien ansehen. Mit wenig Expertise und etwas Fantasie kann er sich an den Zielen jeweiliger gentechnischer Eingriffe orientieren. Bei Pflanzen sind das meist traditionelle züchterische Ziele, wie die Erhöhung der Widerstandsfähigkeit gegen Schadorganismen, die Steigerung des Ertrags, die Veränderung des Nahrungswertes nach "Design" und die Ausstattung mit Toleranzen für abiotische Stressoren wie Salz, Hitze, Trockenheit. – Aber auch neue Konzepte wie die pflanzliche Synthese von Chemikalien oder von Impfstoffen und anderen pharmazeutisch aktiven Produkten sind im Versuchsstadium.
Um dann zu quantitativen Aussagen über Risiken zu kommen, müssen die Risikoszenarien in toxikologischen Labor- und Modellsystem-Untersuchungen konkretisiert werden. Für die endgültige Quantifizierung ist es dann von besonderer Bedeutung, in welcher Weise sich die Ergebnisse in realen Expositionssituationen und deren zeitlichem Verlauf tatsächlich niederschlagen (5-7).
Das Problem der Quantifizierung von Risiken entfaltet sich insbesondere dann, wenn die transformierte Pflanze oder der modifizierte Mikroorganismus in dem Risikoszenario als Teilnehmer natürlicher Evolutionsprozesse analysiert wird. Hier kann an die Auseinandersetzung über die Qualitäten des in der Pflanzengentechnik oft verwendeten CMV-Promoters3 erinnert werden. Es wurde postuliert, seine Verknüpfung durch Rekombination mit humanen – im Zusammenhang mit Krebsentstehung stehenden – Genen könne neue Tumorpromotoren entstehen lassen (14). Plausibilität und Wahrscheinlichkeit der dabei eventuell involvierten Mechanismen wurden keiner eingehenden experimentellen Prüfung unterworfen.
Aus mäßig nachvollziehbaren Gründen hat dem gegenüber der horizontale Gentransfer (HGT) von transgenen Pflanzen zu Mikroben in der Risikodebatte eine herausgehobene Bedeutung erlangt. In deren Zentrum stand die Hypothese einer zusätzlichen Ausbreitung von Antibiotikaresistenz-Genen oder von deren Variation mit unerwünschten Folgen für Umwelt und Gesundheit in menschlicher Sichtweise (Kompromittieren von Therapien).
Im Bemühen, die Wahrscheinlichkeit und Tragweite dieses Szenarios experimentell zu ermitteln, stellte sich heraus, dass der postulierte Transfer Pflanze – Mikroorganismus nicht unter natürlichen Bedingungen beobachtet werden kann. Eine Abschätzung seiner Häufigkeit setzte zusätzliche Annahmen voraus, die aus experimentellen Varianten zu Gunsten des untersuchten Endpunkts ableitbar waren. Der angenommene Endpunkt war auch bei Anbau oder Feldversuchen mit gentechnisch veränderten Pflanzen nicht experimentell zu isolieren, und es wird zunehmend klar, dass der Aufwand zugunsten dieses Monitoringziels auch bei modifizierten Randbedingungen prohibitiv hoch wäre (16).
Um zu belastbaren Aussagen über Risiken zu kommen, kann man in der Analyse des Prozesses die Auswirkung auf die Umwelt als Effektkomponente der Risikoanalyse in den Mittelpunkt rücken. Da gibt es dann die Tendenz, die betrachteten Gene als seltsame Risikoattraktoren anzusehen, etwa wenn sie sich durch Rekombination oder Mutation zur Variante mit problematischem Phänotyp wandeln. Heinemann und Traavik (15) kommen mit der Annahme spezieller Mechanismen im Verlauf des Gentransfers dann zu der Folgerung, diese könnten noch eine Auswirkung auf die Umwelt haben bei einer Häufigkeit, die etwa trillionenfach niedriger wäre als ihre Annahme in der gegenwärtigen Literatur zur Risikoeinschätzung des Szenarios.
Wie hier wird bei der Diskussion über mögliche Konsequenzen des Gentransfers gewöhnlich die Frage seines Beitrags zu neuen Evolutionsverläufen total unterbelichtet. Der natürliche Hintergrund als bedeutende Referenzgröße bleibt außerhalb des Blickfelds:
Dabei wird gewöhnlich ignoriert, dass das im Focus stehende Gen ursprünglich aus Mikroorganismen isoliert wurde. Nach Rücktransfer aus dem Pflanzengenom hängt seine selektive Bedeutung sowohl vom neuen Bakterienwirt ab, wie auch von den Evolutionsbedingungen des Habitats4.
Die in Experimenten erfahrene effiziente biologische Abschottung von Pflanzengenomen (als "biological containment") begrenzt die Teilnahme von Pflanzengenen an der Evolution von Mikroben sehr signifikant.
Die natürliche Dynamik von Mikroben-Genomen in deren sich wandelnden Lebensräumen wäre in jede Spekulation über mögliche Umweltwirkungen als Hintergrund einzubeziehen.
In der Risikodebatte Geschulte mögen an dieser Stelle an den bei Strahlenbelastung als Vergleichsgröße herangezogenen Wert der natürlichen Hintergrundstrahlung denken. Ohne auf die Tragkraft dieser Analogie einzugehen, soll hier betont werden, dass die Vorhersage von Evolutionsvorgängen mit der möglichen Verstärkung (sehr) seltener Ereignisse letztlich eine nicht einlösbare Zielsetzung ist. Als Ergebnis einer akkumulierten Risikoanalyse sollen dann Managementmaßnahmen das Gesamtrisiko auf ein tolerierbares Niveau bringen. In der alltagspraktischen Umsetzung des Vorsorgegedankens wäre also eine Differenzierung zwischen spekulativen und relevanten Risikoszenarien wie angedeutet sinnvoll.
Die europäische Regelungsphilosophie eröffnet auch ohne Risikoidentifizierung und -analyse ganz andere Herangehensweisen, weil hier der GVO selbst zum "Schadstoff" und zur Kontaminante gerät. Da wird die Exposition dann durch Verknüpfung mit ökonomischen Effekten der rechtlichen Lage zum eigenständig relevanten Risikoparameter. Die Schadensschwelle wird zwischen Lobbyisten und Politik ausgehandelt und durch Setzung von Grenzwerten bestimmt. Als beste Managementpraxis für potenzielle Risiken (der "genetischen Umweltverschmutzung") wird das allgemeine Ziel formuliert, die Umweltbelastung mit Transgenen oder ihren Produkten zu reduzieren (17). An dieser Stelle entpuppt sich dann die Realität der Zulassungspolitik in der EU als ziemlich effektives Risikomanagement.
Neben der unveränderlichen Definition des GVO kooperiert die "Richtlinie 1829/2003 über genetisch veränderte Lebens- und Futtermittel" bei der Verwirrung und Fehlinformation des Verbrauchers (18). Einerseits durch Verknüpfung des Einsatzes der Gentechnik mit einem Rahmen für die Risikobewertung bei Lebensmitteln, der höchsten Anforderungen gerecht werden soll. Andererseits mit den Vorschriften für eine Kennzeichnung, die definitiv nicht über den breiten Gebrauch einer unschuldigen Querschnittstechnik aufklären. Sowohl Verbraucher wie auch Experten werden über die Abhängigkeiten der Kennzeichnungspflicht vom Herstellungs- oder Gewinnungsverfahren in die Irre geführt.
Dieser inkonsistente Kompromiss spiegelt gewiss die Interessenabstimmung zwischen Verbandsvertretern, Lobbyisten, Politikern und Wissenschaftlern, welche sich auch der Philosophie des Regelungsbereiches bewusst waren. Die Vorstellung eines speziellen Gefährdungspotenzials der Gentechnik wird in allgemeiner Wahrnehmung durch Kennzeichnung und Regelungsdichte aber zusätzlich gestützt.
Fazit
Ein gemeinsames erkenntnisgeleitetes Interesse an einer sachlichen Auseinandersetzung liegt auf Grund unterschiedlicher – fixierter – Positionierung nicht vor. Das Ziel einer nüchternen Bewertung von Vor- und Nachteilen einzelner Fälle des Gentechnikeinsatzes in der Umwelt bedarf einer radikalen Wandlung der Kommunikationskultur, die über einen lösungsorientierten Diskurs sich einem produktiven Konsens anzunähern hätte. Unter Missachtung primärer Interessenlagen sollten gemeinsame Ziele (von Umwelt- und Naturschutz) herausgearbeitet werden. Dann könnten Kompromisse sachlich begründet und eine "win-win"-Situation für viele der beteiligten Gruppen hergestellt werden.
Eine ethische Forderung wäre hier die tatsächliche Bereitschaft, Grundlagen seiner Einstellungen, Interpretationen und Handlungen im Diskurs in Frage zu stellen.
Risiko-Analyse, Risiko-Wahrnehmung
Die eingesetzte konventionelle Struktur der Risikomatrix kann zwar angelehnt werden an Vorbilder aus dem Umgang mit Chemikalien (19, 20):
Wahrscheinlichkeit / Grad der Exposition gegen Ausmaß an Folgen (bei Exposition)
Wie auch im vorstehenden Sachtext ausgeführt, ist sie für die Ermittlung des Risikos beim Umgang mit lebenden Einheiten von sehr begrenztem Wert. Im Richtlinientext selbst wird auf die Wichtigkeit verwiesen, "dass keine etwaigen schädlichen Auswirkungen deshalb außer Acht gelassen werden, weil deren Auftreten als unwahrscheinlich angesehen wird."
Die Leitlinien stellen die Aussagekraft der Risikomatrix dann noch ernsthafter in Frage:
Im Einzelfall kann der hohe Grad einer Wertung der Folgewirkungen – auch in Kombination mit vernachlässigbarer Wahrscheinlichkeit – die ganze Spannweite des Risikos umfassen von hoch bis vernachlässigbar. Das Ergebnis wird also von den Umständen des Einzelfalls abhängen ...
Diese Unsicherheit der Risikoanalyse verlangt nach Alternativen mit angemessener Relation zum Grad einer Gefährdung. Und da bietet sich die Risikoklassifizierung an, wie sie bei Viren, Bakterien und Pilzen eingeführt und bewährt ist. Hier ist das Ausmaß der Folgen (Schwere der Krankheit) der dominierende Klassifizierungsparameter. Faktoren der Ausbreitungsdynamik (Expositionswege, Infektiösität) können aber als zusätzliche Kriterien der Einstufung genutzt werden. Ein Risikomanagement besteht in Verfahren der Ausbreitungskontrolle.
Vorschlag:
Einführung von Sicherheits- / Gefährdungs-Klassen für den Freilandeinsatz von "Organismen mit neuen Merkmalen"
Sicherheits-/Gefährdungs- Klasse
1
"Neue Merkmale" sind hier bisher nicht realisierte, aber grundsätzlich mit konventionellen Methoden realisierbare Eigenschaftsvarianten. // Keine Ausbreitungs-Kontrolle
2
Eigenschaftsvariation durch neue Techniken
Ausbreitungs-, Expositiomskontrolle nach Bedarf
3
Neue Synthesen von Chemikalien, pharmazeutisch aktiven Substanzen ...
Ausbreitumgs-, Expositionskontrolle nach Bedarf
4
In Anlehnung an geschlossenen Umgang:
Minimierung von Ausbreitumg / Exposition durch Gewächshaus (Sicherheitsgewächshaus, andere ...)
Wissenschaft
Unabhängigkeit
ist ein Merkmal, das in hohem Maß von kritischen Positionen in Anspruch genommen wird, um den Unterschied zu industrie- oder staatsfinanzierten Wissenschaftlern zu betonen. Eine Abhängigkeit der Forschungsergebnisse und ihrer Beurteilung vom "Dienstherrn" ist aber nicht nur bei Promotoren der "grünen Gentechnik" auszumachen. Immer dann, wenn ein persönlicher Name mehr für eine Haltung denn für besondere wissenschaftliche Qualität steht und die Richtung der Argumentation sowie die einseitige Auswahl von Daten vorhersehbar sind, ist das deutliches Zeichen für wirksame Abhängigkeiten.
Ehrlichkeit
ist im Zusammenhang insbesondere gefordert beim Benennen unzureichenden Wissens und mangelhafter Kontrolle bei besonders anspruchsvollen Kriterien.
Dem Publikum reinen Wein einschenken:
GVO in der offenen Umwelt sind Subjekte natürlicher Evolution
Naturschutzgruppierungen
Die Frage nach Zielen führt zu Endpunkten, die der Beteiligung der Gentechnik übergeordnet sind, und zur Frage, wie die Annäherung an diese Ziele messbar wird.
Wissenschaft - Politik - Bewertungen
Sollen Regelungen wie "Reinheitskriterien" der Publikumswahrnehmung folgen? Und wie viele Fliegenbeine, -köpfe, -flügel wären dann tolerierbar?
Fußnoten
Anteil der Aminosäuresequenz von Proteinen, der für bestimmte Wechselwirkungen (Bindungen) verantwortlich ist.
Das sachliche Urteil kann sich auch orientieren an dem wissenschaftlichen Konsens, dass kritische Wechselwirkungen von Organismen abhängen von ihren (neuen) Merkmalen und der Umwelt, in die sie eingeführt, nicht aber von der Technik, mit der sie erzeugt wurden.
DNA-Sequenz-Signal aus einem Pflanzenvirus (Cauliflower Mosaic Virus). Das Signal regelt die Ablesung (Expression) eines verbundenen Gens.
Lebensraum eines Organismus mit allen Komponenten, die für Überleben und Vermehrung notwendig sind.
LITERATUR (überwiegend wissenschaftliche Literatur in englischer Sprache)
Ray Ming, Shaobin Hou, Yun Feng, Qingyi Yu et al. (2008): The draft genome of the transgenic tropical fruit tree papaya (Carica papaya Linnaeus). Nature 452, 991-996
(Schon der Titel zeichnet mit der Zuordnung zur Saatgut-Industrie ein unfaires und ganz schiefes Bild von dem ursprünglich auf universitärer Kooperation beruhendem Projekt. Die Industrie musste erst involviert werden, als es um die Ablösung von Patenten und Schutzrechten ging.)
John E. Losey, Linda S. Rayor, Maureen E. Carter (1999): Transgenic pollen harms monarch larvae. Nature 399, 214
(Hier die Risiko-Identifizierung - darunter die Expositions-Messungen mit einer Bewertung)
Diane E. Stanley-Horn, Galen P. Dively, Richard L. Hellmich, Heather R. Mattila, Mark K. Sears, Robyn Rose, Laura C. H. Jesse, John E. Loseyi, John J. Obrycki, Les Lewis (2001): Assessing the impact of Cry1Ab-expressing corn pollen on monarch butterfly larvae in field studies. Proc.Natl.Acad.Sci USA 98, 11931-11936
Mark K. Sears, Richard Hellmich, Diane E. Stanley-Horn, Karen S. Oberhauser, John M. Pleasants, Heather R. Mattila, Blair D. Siegfried, Galen P. Dively (2001): Impact of Bt corn pollen on monarch butterfly populations: A risk assessment. Proc.Natl.Acad.Sci USA 98, 11937-11942
Anthony M. Shelton, Jian-Zhou Zhao, Richard T. Roush (2002): Economic, ecological, food safety, and social consequences of the deployment of Bt transgenic plants. Annual Review Entomology 47, 845-881
Anna Dutton, Joerg Romeis, Franz Bigler (2003): Assessing the risks of insect resistant transgenic plants on entomophagus arthropods: Bt-maize expressing Cry1Ab as a case study. BioControl 48, 611-636
Michelle Marvier, Chanel McCreedy, James Regetz, Peter Kareiva (2007): A Meta-Analysis of Effects of Bt Cotton and Maize on Nontarget Invertebrates. SCIENCE 316 no. 5830, 1475-1477
This document updates Directive 94-08 (Dir94-08),?"Assessment Criteria for Determining Environmental Safety of Plants with Novel Traits."?The original Dir94-08 was first published December 16, 1994, revised September 15, 2000; October 29, 2004; and July 4, 2012.
Jack A Heinemann & Terje Traavik (2004): Problems in monitoring horizontal gene transfer in field trials of transgenic plants . Nature Biotechnology 22, 1105 - 1109
Kaare M Nielsen & Jeffrey P Townsend (2004): Monitoring and modeling horizontal gene transfer. Nature Biotechnology 22, 1110 - 1114
Ryan A. HILL (2005): Conceptualizing risk assessment methodology for genetically modified organisms. Environ. Biosafety Res. 4, 67-70
ENTSCHEIDUNG DER KOMMISSION vom 24. Juli 2002 über Leitlinien zur Ergänzung des Anhangs II der Richtlinie 2001/18/EG. Official Journal of the European Communities L 200, 22-33
"... dass viele Astronomen nicht mehr an einen Messfehler glauben mögen. Die Wahrscheinlichkeit für einen statistischen Ausreißer liegt bei unter einem Prozent."
"Tatsächlich ist die Wahrscheinlichkeit, dass die Milchstraße sich in einer Region ausreichend geringer Dichte befindet, erheblich geringer als ein Prozent."
Könnten diese Feststellungen dann nicht doch irgendwie korreliert sein? Manchmal gewinnt man ja auch im Lotto.
Noch nie fand ich eine Erklärung, warum die dunkle Materie im Galaxienmaßstab Strukturen bilden soll, im kleineren Maßstab aber als völlig homogene Substanz verteilt ist. Da scheint ja die gravitative Wirkung höchst einseitig zu sein. Ansonsten müsste ja die dunkle Materie sich auch um baryonische Masse wie die Sonne sammeln.
Die Rezension hat mich neugierig gemacht. Als ich noch weitere positive Rezensionen im Internet fand, habe ich das Buch gekauft und begann erwartungsvoll mit der Lektüre.
Zunächst fand ich es ganz originell, den menschlichen Körper mit den Augen eines Naturwissenschaftlers zu betrachten. Aber bereits auf Seite 37 stutzte ich zum ersten Mal, als der Autor explizit und unverklausuliert behauptet: "Wissenschaftler nennen die negativ geladenen Teilchen in einem Atom Neutronen" (!). Das konnte wohl nur ein Druckfehler sein.
Inzwischen bin ich mir da allerdings nicht mehr ganz so sicher. Beim Weiterlesen fand ich eine Fülle weiterer merkwürdiger Behauptungen und Erklärungen, über die ich mich schon sehr gewundert habe. So erfährt man z. B. auf Seite 126, dass es im Universum ca. 1650 Galaxien gibt.
Bemerkenswert auch die Erklärung des Young'schen Doppelspaltversuchs. Nachdem der Autor zuvor das Wellenmodell des Lichtes als Irrtum bezeichnet hat, versucht er, das Ergebnis dieses Versuches mit dem Teilchenmodell zu erklären. Das ist natürlich schwierig, und er kommt zu dem Schluss, dass das Streifenmuster auf dem Schirm von Wahrscheinlichkeitswellen verursacht wird. Versteht das einer?
Offenbar hat der Autor generell eine Abneigung gegen Wellen. Im Kapitel "Die Sinne zählen" heißt es: „Schall wird oft als Welle bezeichnet, genau genommen ist er jedoch eine regelmäßige Folge von Impulsen“.
Im Kapitel "Überreste des Urknalls" erfährt der erstaunte Leser, dass das „Schneegestöber“, welches man auf dem Bildschirm eines älteren, analogen Fernsehers sieht, wenn kein TV-Signal empfangen wird, zum Teil von der kosmischen 3K-Hintergrundstrahlung herrührt und der Fernseher somit ein „primitives Radioteleskop darstellt“. Das ist kompletter Unsinn. Eine Fernsehantenne ist gar nicht in der Lage, die bei der 3K-Strahlung dominierenden Frequenzen aufzunehmen, und die Verstärkerelemente im Fernseher könnten diese nicht verarbeiten. Sollten doch winzige Reste ihren Weg zum Antenneneingang finden, so werden sie von den dort vorhandenen Filterkreisen restlos unterdrückt.
Das„Schneegestöber“ wird ausschließlich vom Gerät selbst erzeugt. Verantwortlich hierfür ist die für die Bildinformation verwendete Amplitudenmodulation, die so eingerichtet ist, dass der Bildschirm bei kleinem oder fehlendem TV-Signal hell gesteuert wird. Hinzu kommt die Wirkung der automatischen Verstärkungsregelung, die bei fehlendem TV-Signal die internen Verstärker auf maximale Verstärkung einstellt, wodurch auch das unvermeidliche Eigenrauschen der elektronischen Bauteile maximal verstärkt wird. Beides zusammen erzeugt dann das „Schneegestöber“ auf dem Bildschirm. Mit irgendwelchen kosmischen Ereignissen hat dieses nichts, aber auch gar nichts zu tun.
Bemerkenswert auch, wie der Autor erklärt, warum ein mit Helium gefüllter Ballon, der in einem fahrenden Auto schwebt, sich beim Bremsen nach hinten bewegt. Er bemüht zur Erklärung nichts Geringeres als Einsteins allgemeine Relativitätstheorie.
Dieses ist nur eine kleine Auswahl von Merkwürdigkeiten, die mir aufgefallen sind. Ob diese bereits im englischen Originaltext vorhanden sind oder vom Übersetzer hineingebracht wurden, vermag ich nicht zu sagen. Auf jeden Fall scheint der Übersetzer aber einigen Anteil daran zu haben. Schon der Titel des Buches: "Die Vermessung des Körpers" ist keine sehr glückliche Übersetzung des Originaltitels "The Universe Inside You", der deutlich besser zum Inhalt passt.
Auch bei der Unterschrift der Abbildung auf Seite 218, die einen Teil einer DNS-Spirale zeigt und wo von einer „Wölbung“ der Spirale die Rede ist, scheint mit ein Übersetzungsproblem vorzuliegen. Was hier mit Wölbung gemeint sein könnte, ist mir bis jetzt noch nicht klar geworden.
Generell geht es dem Autor offenbar gar nicht so sehr darum, die oftmals erstaunlichen und komplexen Zusammenhänge aufzudecken und zu erklären. Durch die Verwendung unnötig hochtrabender Begriffe und oberflächlicher, teils skurriler Erklärungen will er offenbar beim Leser nicht Verständnis, sondern nur ungläubiges und ehrfürchtiges Staunen hervorrufen.
Ich verstehe nicht, wie dieses Buch in mehreren Rezensionen derart positiv beurteilt werden konnte, und ich weiß nicht, an welchen Leserkreis es sich eigentlich wendet. Ich wüsste jedenfalls nicht, wem ich das Buch empfehlen könnte.
daran kann man sehen, wie solche entstehen. so ganz nebenbei, passiert immer wieder, weil wir eben nicht genug über unsere umwelt wissen - und mit dieser reichlich verantwortungslos umgehen. man hätte dies leicht vermeiden können, wenn die abschußanlage nur ein wenig anders gebaut worden wäre, als einfach nur die abgase, blind und ohne wissen und verantwortung, in die landschaft zu blasen - wo eh nix is, oder nur solches, wasmaned beachten muß....
Ich las mit Freude Ihren Artikel "Die Augen des Stiers". Dabei fragte ich mich, ob man seine Sicht auf die Welt verbessern könnte wenn man folgende Brille baut. Ein Glas ist normal (sozusagen als Referenz), vor dem anderen ist ein Polarisationsfilter der sich permanent langsam dreht. Wenn man dann etwas sieht, das polarisiertes Licht abgibt, müssten dann diese Objekte abwechselnd heller und dunkler werden. Wenn man dann die automatische Drehung beendet und den Filter von Hand so dreht, dass die Helligkeit maximal wird, weiss man in welche Richtung das Licht polarisiert ist. Wahrscheinlich würde man von so einer Brille Kopfschmerzen bekommen.
Das grundsätzliche Problem der Überhangmandate wird sich nie vollständig vermeiden lassen. Aber man kann die Auswirkungen minimieren, indem man einen elementaren Fehler des Wahlgesetzes korrigiert. Es handelt sich - wie der Titel sagt - um eine BUNDEStagswahl. Daher müssen Überhangmandate auch erst einmal bundesweit ausgeglichen werden. Die vorherige Einteilung in die Bundesländer ist unlogisch und unsystematisch. Die Einwirkung der Bundesländer erfolgt über den BundesRAT, sie haben aber im Bundestag nichts zu suchen. Es stellt sich ja auch eine Bundes-SPD oder Bundes-CDU zur Wahl und nicht in Hessen die Hessen-SPD und in Bremen die Bremen-SPD. Dass die Bundesparteien sich aus organisatorischen Gründen nach Bundesländern strukturieren, ist eine parteiinterne Angelegenheit und für die Bundestagswahl ohne jegliche Relevanz. Der erste Schritt zur Lösung des Problems lautet also: Die Überhangmandate einer Partei werden auf Bundesebene ermittelt. Erst dann, wenn eine Partei bundesweit mehr Direktmandate hat, als ihr bundesweit zustehen, kommt ein entsprechender Ausgleich zum Tragen. (Wie die Parteien intern den Ausgleich zwischen starken und schwachen Gebieten bewerkstelligen, ist deren eigene Entscheidung.) Damit hat sich der größte Teil des selbstverschuldeten Problems erledigt. Der zweite Schritt ist eine Grenze pro Partei, bis zu der Überhangmandate noch nicht ausgeglichen werden. Das Bundesverfassungsgericht hatte ja eine Gesamtobergrenze vorgeschlagen. Ich bin für eine Freigrenze von 2 Überhangmandaten pro Partei, die noch keinen Ausgleich erforden. Natürlich ist jede Grenze willkürlich, aber wir haben ja auch eine andere willkürliche und doch allseits akzeptierte Grenze in unserem Wahlgesetz: die Fünfprozent-Hürde. Es heißt immer, der Wählerwille würde wegen der Überhangmandate verfälscht. Aber wie groß wäre die Verfälschung bei 2 freien Überhangmandaten, wenn der Bundestag 598 Mitglieder hat? 0,33 %. Wie groß war die Verfälschung durch nicht wirksame Stimmen auf Grund der Fünfprozent-Regel bei der letzten Bundestagswahl? 6 Prozent. Wenn wir es uns also leisten können, den Willen von über 2,6 Millionen Wählern unter den Tisch fallen zu lassen (das sind Hamburg, Bremen und Bonn zusammen), dann brauchen wir bei deutlich weniger als 1% Überhangmandate keinen Aufstand zu machen.
Die quantentheoretischen Beschreibungen und ihre Rechenvorschriften, sind für uns Augenfallig. Ich vermute jedoch, dass dahinter das Vakuumfeld in einer noch tiefer liegenden Dimension, die eigentliche Ursache für das Wahrscheinlichkeitsquadrat der Quanteneigenschaften ist. Außerdem sollte nicht die Geometrie die Wirkung der Gravitationsanziehung zwischen den Massen auslößen, sondern der Zustrom des Vakuumfeldes zu den unterschiedlich im Raum verteilten Massen, die Geometrie der allgemeinen Relativitätstheorie darstellen. Aus dieser Sichtweise ergibt sich, dass beide Theorien aus einem gemeinsamen Ursprung heraus zu behandeln sein könnten.Zumal wir bereits wissen, dass das Vakuumfeld messbare Reaktionen hervorbringt. wie den Casimir - Effekt oder die virtuellen Teilchen - Antiteilchen Erzeugungen, nicht zu vergessen ist der Tunnelleffekt. Die Anziehung des Casimir - Effekts von zwei dicht übereinander angeordneten Metallplättchen, zeigt die ähnliche Wirkung, wie die Anziehung zwischen gravitativ verbundenen Körpern. Ich habe bereits im vorherigen Artikel auf die verborgenen Vakuumparameter & v und & m hingewiesen, sie könnten in einer tiefer liegenden geometrischen Dimension,mit extrehm kurzen Zeiten, permanent die Energie auf einen konstanten Wert halten, welche über das Quadrat der Lichtgeschwindigkeit, die Masse der für uns sichtbaren Teilchen in unserer Dimension erstehen lässt. Die materielle Umwelt, so wie wir sie wahrnehmen, sollte deshalb aus dem Untergrund heraus, aus Antimaterie und Quarkmaterie, die Elementarteilchen bilden,aus welchen die unterschiedlichen Atome bilden,die unsere für uns wahrnehmbare Umwelt in unserer Dimension darstellt. Bei jeder fisuellen Wahrnehmung oder Messung, entgehen uns alle dazwischen liegenden Wechselwirkungen des Vakuumfeldes mit der Urmaterie,die man als Selbstwechsel = wirkung bezeichnen kann. Das sollte mein Vorschlag sein, wie die beiden Theorien vereinigt werden könnten.
Vielleicht sollten Sie
20.09.2013, Gilbert BrandsFluorverbindungen
19.09.2013, Roman Koutny" ....sind zu Konferenzen und Treffen um die Welt gereist..."
19.09.2013, ohminusVielleicht lieber eine Doppelstrategie?
18.09.2013, A. StefanowitschDaneben könnte dann ein Teil der freiwerdenden Ressourcen auf Antworten zu „tagesaktuellen“ Fragen verwendet werden (obwohl ich befürchte, dass die „Klimaskeptiker“ das als willkommenen Anlass sehen würden, die Zeit der Wissenschaftler/innen durch noch mehr Pseudodebatten zu binden).
Irrtum: die Costa Concordia schwimmt nicht!
18.09.2013, Dr. Konrad HeckDas ist nicht richtig. Die Costa Concordia "schwimmt" nicht! Sondern sie sitzt fest auf dem Gerüst, das auf den Felsen angebracht wurde. Sie muss erst mit den noch anzubringenden Schwimmerkästen zum Schwimmen gebracht werden.
Wolkenkuckucksheim der Astrophysiker
18.09.2013, Joachim DatkoSiehe auch: http://www.monopole.de/wissenschafts-monopole/
Joachim Datko - Physiker, Philosoph
Maß-lose Kritik an "Grüner" Gentechnik
17.09.2013, Horst Backhaus, BraunschweigDie eindeutige Parteinahme in der stark polarisierten Debatte über die offene Anwendung der Gentechnik zeigt eine als kritisch ausgewiesene Wissenschaftlerin deutlich vom Pfad professioneller Tugenden abweichend. Die Haltung ist geprägt sowohl durch einseitig unvollständige Darstellungen wie auch durch eine wenig sachgerechte Dateninterpretation.
Die Freiheit der Interpretation kann hier einerseits einer Vision perfekter Kontrolle folgen, die aus dem Vorsorge-"Prinzip" herleitbar ist. Dieses prägt ohne spezifische Definition auch die Formulierungen der gesetzlichen Grundlagen der Regelungen im Bereich der "grünen" Gentechnik. Andererseits fehlt für die Dateninterpretation auch ein Bewertungsraster, das die Konturen der Schutzziele der Regelungen deutlich erkennbar machen könnte. Das wiederum ist eine Folge der von der Politik dominierten Entscheidungen unter diesen Regelungen. An die Wissenschaft muss man an dieser Stelle die Forderung stellen, die in ihrem Urteil impliziten Maßstäbe offenzulegen.
Die oben genannten Freiheiten können nämlich für die Stützung einer bestimmten Haltung in der kontroversen Gentechnikdebatte instrumentalisiert werden, ohne dass gewöhnlich sehr heterogene Beweggründe der Parteinahme offenzulegen sind. Häufig geht es schlicht darum, "grüne" Positionen mit der Solidarität unter Gentechnikgegnern zu fördern.
Folgend werden Aussagen von Frau Hilbeck als Thesen (in GROßBUCHSTABEN) formuliert und kritisch auf Wert und Funktion in der Debatte untersucht. In einem letzten Abschnitt folgen Anmerkungen zu Beziehungen und Struktur der Regelungen aus dem Erfahrungshorizont des Autors, die schließlich in vorläufigen Schlussfolgerungen für die Kommunikation münden.
1. DIE INDUSTRIE WANDTE DIE TECHNOLOGIE VIEL ZU SCHNELL AN
Die Gewinnorientierung der Industrie spielt hier als negativ bewertete treibende Kraft nur unterschwellig eine Rolle. Das Hauptgewicht der Begründung wird auf das unvollkommene gegenwärtige Wissen über Grundlagen und Details der gentechnischen Veränderung von Lebewesen gelegt, das unter 2. diskutiert wird. Die Interviewte verkündet ihre einseitige subjektive Wertung ohne weitere Überlegungen zu möglichen sachlichen Maßstäben.
Generell ist der Zeitpunkt des Marktzugangs in seiner Abhängigkeit vom Umgang mit wissenschaftlich-technischen Innovationen ein wichtiger Indikator der Fortschrittsdynamik in einer Gesellschaft. Er zeigt ja die Geschwindigkeit der Umsetzung eines Entwicklungsfortschritts an. Und der ist nicht nur aus Wettbewerbs- und ökonomischen Gründen, sondern beispielsweise auch bei der Optimierung der Gesundheitsvorsorge (Arzneimittel, Technologien) von großer Bedeutung.
An dieser Stelle vermisst man beim Vorwurf der Geschwindigkeitsüberschreitung bei dem Einsatz der Pflanzen-Gentechnik die nahe liegende Erwägung, ob aus der Beobachtung und Wertung von Erfolgen und Misserfolgen nach Marktzugang nicht ein Maßstab für eine zeitlich korrekte Strategie abzuleiten wäre.
2. DIE ANWENDUNG DER GENTECHNIK BERUHT AUF LÜCKENHAFTEN KENNTNISSEN UND MANGELHAFTEM VERSTÄNDNIS DER GRUNDLAGEN GENETISCHER MECHANISMEN. DAS GILT ETWA IM VERGLEICH MIT DER KONSTRUKTION EINES FLUGZEUGS DURCH EINEN INGENIEUR.
Ist vom Gentechniker tatsächlich der gleiche Grad an Kontrolle über seine Tätigkeit und Produkte zu fordern, wie wir sie routinemäßig dem Ingenieur bei der Ausführung eines Konstruktionsentwurfs zumessen?
Der Entwurf für den Ingenieur umfasst alle Details des Konstrukts, soweit sie für die Ausführung von Bedeutung sind. Die Qualität seiner Arbeit ist dann an der Übereinstimmung zwischen Plan und Konstrukt ablesbar. Dabei sind umfassende Kenntnisse über Materialeigenschaften und von Menschen konstruierte Werkzeuge einsetzbar. Die Konstruktionsregeln sind generell gültig, quantitativ formulierbar und klar nach Ursachen und Wirkungen strukturiert.
Eine kontrolliert fehlerfreie Herstellung einer geplanten modifizierten neuen Sequenz ist nun in allgemeiner Vorstellung auch die Herausforderung für den Gentechniker. Die vielfältigen Fehlermöglichkeiten bei einzelnen Schritten, etwa durch Nutzung evolvierter Werkzeuge mit im Detail unbekannten Wechselwirkungen und Spezifitäten, können eine stark eingeschränkte Kontrolle über die Verteilung von Reaktionsprodukten bedingen. Das gilt insbesondere für die zellulären Vorgänge, die schließlich für eine Integration modifizierter Sequenzen in das Genom des Empfängerorganismus verantwortlich sind.
Das eigentliche Ziel des Designs eines Gentechnikers ist aber nicht die mehr oder minder perfekte Übereinstimmung zwischen geplanter und tatsächlich realisierter Sequenzstruktur – sondern der in seinen Eigenschaften (dem Phänotyp) veränderte Organismus.
Hier liegt es nun nahe, die geplante neue Bausteinfolge des Organismen-Genoms als Analogie zum Konstruktionsentwurf und seiner Funktion für die Arbeit eines Ingenieurs anzusehen. So wie der Ingenieur in der Lage ist, jedes Detail seines Konstruktionsplans in seiner Funktion im Endprodukt zu interpretieren, sollten wir nämlich idealerweise für jeden einzelnen Baustein der modifizierten Sequenz seine nach Ursache und Wirkung geordneten Konsequenzen für die Leistungen des Organismus beschreiben können.
Für die Merkmale des ursprünglichen Organismus haben wir jedoch eine andere Informationsbasis, nämlich die methodisch angepasste Analyse seiner Eigenschaften in den für wichtig erachteten Details. Die lassen sich aus der Bausteinfolge seiner Genomsequenz nur höchst unvollkommen oder überhaupt nicht ableiten. Die obige Analogie beschriebe also nur unsere Wunschvorstellungen in Bezug auf die Interpretation des in der Bausteinfolge der DNA festgelegten Informationsgehalts.
Die Geschichte der Molekularbiologie zeigt die bisher erreichten Fortschritte in dem hier angedeuteten Projekt. Sie verweist aber zugleich auf die vielfältigen Grenzen unserer Ambitionen, ein nach Ursache und Wirkung geordnetes (kausales, Maschinen-ähnliches) Abbild/Modell von evolvierten Lebewesen zu generieren. Die vorhandenen Kenntnislücken sind am Stand der Wissenschaft ablesbar, dessen jüngste Entwicklung noch kaum eine Annäherung an die vorstehend geschilderten Ambitionen erkennen lässt.
Verbände, die dem Naturschutz verpflichtet sind, heben gern ihre ganzheitlichen Ansätze der Naturerklärung als Besonderheit hervor und sehen einen Widerspruch zu den Details naturwissenschaftlicher kausaler Modelle. Diese Haltung wird aber verlassen, wenn in der Kritik an der Gentechnik gerade die Tragkraft des erwähnten kausalen Modells herausgefordert wird.
Der Effekt von Sequenzen auf die Merkmale und Reaktionsweisen des Organismus ist wie angedeutet in vielen Details hypothetisch, was gleichzeitig die Bedeutung ihrer Analyse für Aussagen über Risiken oder "biologische Sicherheit" deutlich relativiert. Weder eine verbesserte Effizienz und Präzision bei der Konstruktion genetischer Veränderungen noch eine aufwändige analytische Prüfung ihrer Bausteinfolge erlauben also überlegene Vorhersagen der Eigenschaften des Organismus einschließlich möglicher Risikopotenziale. Die Prüfung der ersten vollständigen Sequenz einer transformierten Pflanze (zur Virusresistenz gentechnisch modifizierte Papaya) illustriert diese Aussage auf überzeugende Weise (1).
Die Hypothese einer überlegenen Sicherheitsaussage durch genaue Beschreibung der Techniken und Ergebnisse der genetischen Modifikation ist jedoch in den Kriterien der Richtlinien der EU implizit enthalten (2). Hier kann das Screening von Datenbanken bekannter Toxine oder Allergene auf Verwandtschaften zu hypothetischen (oder analytisch nachgewiesenen) Produkten neuer Leseraster aussagekräftige Ergebnisse produzieren. Das ist aber abhängig von der Qualität des in den Datenbanken organisierten Kenntnisstandes, z.B. über die für toxische oder allergene Wirkungen verantwortlichen Domänen1. Und die Strategie ist vom Ansatz her sehr begrenzt für die Detektion neuer schädlicher Wechselwirkungen geeignet. Im Übrigen sind die Anforderungen an die Beschreibung der gentechnischen Veränderung in den Richtlinien der EU am ehesten als Test der molekularbiologischen Kompetenz des Antragstellers interpretierbar (3).
3. DER LÖSUNGSANSATZ DES "GOLDENEN REIS´", MIT DEM VITAMIN-MANGELERSCHEINUNGEN DURCH SYNTHESE VON VORSTUFEN IN REISKÖRNERN BEKÄMPFT WERDEN SOLLEN, WIRD DER KOMPLEXITÄT DES THEMAS NICHT GERECHT.
Nicht ganz überraschend werden Einwände gegen die Konzeption einer Verbesserung des Nährwertes von Pflanzen von fast allen Vertretern der Antiposition zur Gentechnik vorgebracht. Es wird auch nicht bestritten, dass im speziellen Fall die Abwehr einem möglichen Propagandaerfolg für Gentechnik-Anwendungen gilt. Mit dem "Goldenen Reis" soll nämlich der durch einseitige Ernährung mit geschältem Reis verursachte Mangel an Vitamin A kompensiert werden und damit das Erblinden von Kindern sowie gravierende weitere Mangelerscheinungen bekämpft werden.
Neben der gewohnten Kritik an der unzureichenden Qualifizierung von Zulassungsanforderungen und der Charakterisierung von Kindern als Versuchskaninchen, wenn sie an Ernährungsstudien teilnehmen (4), wird hier noch die aufzulösende Komplexität der Entscheidung über die empfehlenswerte (optimale) Strategie zur Mangelbekämpfung angesprochen.
Da sieht man schon eine Folge von Konsenskonferenzen vor sich, in denen sich Experten austauschen über die Bewältigung von Verteilungsproblemen bei dem Einsatz von ergänzenden Vitamin-A-Gaben oder Palmöl als alternativer Vitaminquelle bis hin zum Wettbewerb von sozialen Strategien zur Versorgung von Kleinfamilien mit Produkten ihrer Vorgärten. Dass die Fortsetzung der Konferenzfolgen leicht eine Priorität über die eigentliche Problemlösung gewänne, wäre hier gewiss keine ganz überraschende Konsequenz.
4. LANGFRISTIG ZEIGTEN SICH DURCHAUS SCHÄDLICHE AUSWIRKUNGEN AUF MARIENKÄFER UND FLORFLIEGEN
Das Bestreben von Wissenschaftlern, in toxikologischen Experimenten Effekte der von ihnen untersuchten Einflussfaktoren nachzuweisen, erhält eine schwierig beherrschbare psychische Störgröße durch das Streben nach wissenschaftlicher Anerkennung und Publikation ihrer Arbeit. Wenn die Resonanz der politischen Ebene mit der populistischen Stützung mehrheitlicher Wahrnehmungen dazu kommt, wird rasch eine von vielen Toxikologen erträumte Qualität der öffentlichen Reaktion auf Ergebnisse ihrer Forschungen erreicht.
Einer solchen Belohnung durch nüchterne Erarbeitung von Daten und Interpretationen zu widerstehen, bedarf der Unabhängigkeit des Urteils in mindestens dem gleichen Maße, wie es von den für Konzerne tätigen Wissenschaftlern zu Recht eingefordert wird.
Toxikologische Labor- und Modellsystem-Untersuchungen sind angemessen als die Suche nach Fakten zu Gunsten einer Anwendung des Vorsorgeprinzips zu kategorisieren. In welcher Weise sich die Ergebnisse in realen Expositionssituationen und deren zeitlichem Verlauf tatsächlich niederschlagen, das kann als Anforderung an die erwünschte Hypothesenqualität zunächst offen bleiben, ist aber für die endgültige Qualifizierung von besonderer Bedeutung (5-7).
Für die Anwendung des Vorsorgeprinzips beim Einsatz der "grünen" Gentechnik ist eine Prüfung der Plausibilität fantasievoller Entwürfe von Risikoszenarien gewiss eine angemessene Forderung. Deren Anspruch entfaltet sich mit der Feststellung, dass die Realisierungschancen solcher Szenarien mit biologischen Mechanismen gewöhnlich nicht einfach als äußerst unwahrscheinlich und irrelevant verworfen werden können (siehe Ergänzungen).
Die gebräuchliche human-/ökotoxikologische Bewertung des chemischen Pflanzenschutzes wird hier wie gewöhnlich in Arbeiten oder Beiträgen von Vertretern der Antiposition als Maßstab und Referenz nicht erwähnt. Dabei qualifiziert dieser Maßstab die ganz überwiegende Umgangsweise unserer Landwirtschaft mit Mensch und Natur. Für eine sich als Agrar-Ökologin bezeichnende Wissenschaftlerin ist die Ignorierung dieser Referenz schon bemerkenswert.
5. EINE SACHLICHE ANALYSE DER GENTECHNOLOGIE UND IHRER (landwirtschaftlichen) PRODUKTE IST KAUM MEHR MÖGLICH - DIE BEIDEN SEITEN DER AUSEINANDERSETZUNG SIND BEREITS IM GRUNDSÄTZLICHSTEN UNEINS.
Ob gentechnische Verfahren als revolutionäre Entwicklung oder als normaler Entwicklungsschritt der konventionellen Züchtung angesehen werden, das muss nüchtern-abwägende Bewertungen unter wissenschaftlichen Kriterien keineswegs beeinflussen. Für die ethische und interessengebundene Entscheidung spielt eine solche Differenzierung auch keine Rolle.
Viele Gesichtspunkte der Bewertung und Entscheidung sind ohne erkennbaren Bezug zu einem Riskopotenzial der Technologie im konventionellen Sinn (unerwünschte Effekte auf menschliche Gesundheit oder die Umwelt in ihrem Wirkungsgefüge). Das wird an den folgenden Grundsätzen der Antiposition exemplarisch deutlich:
Gentechnikgegner
Eine faktische Verknüpfung zwischen Anwendungsformen der "grünen" Gentechnik und der Aktivität internationaler Konzerne bei der Entwicklung der Landwirtschaft muss registriert werden. Dass hier kein natürlicher Zusammenhang existiert, offenbart sich in den speziellen, von Menschen gemachten Rahmenbedingungen, wie etwa dem Umfang, der Art und der Zielsetzung von Regelungen. Deren Existenz wie auch ihre Veränderungen haben einen drastischen Einfluss auf jeweilige Wettbewerbspositionen.
Ethische Gesichtspunkte übertünchen gelegentlich das Profitstreben für eine Klientel nur unvollkommen. Es bleibt beispielsweise sachlich wenig plausibel, weshalb durch Strahlungsmutation generierte Pflanzensorten im biologischen Landbau eher akzeptabel sein sollen als gentechnisch erzeugte Varianten. Die Fragestellung kann zugespitzt werden, wenn man übergeordnete Ziele wie die Minimierung von Einflüssen auf die unmittelbare oder weitere Umwelt, Ressourcenschonung und die Bewahrung biologischer Vielfalt in den Fokus nimmt. Diese Ziele erscheinen auch eher zur Konsensbildung geeignet als zur Stützung eines Lagers im Pro-und-Kontra-Streit um die Gentechnik. Jenseits aller vorgebrachten ethischen Motive des Naturschutzes ist die Besetzung der Kontraposition meist eher als Anpassungsleistung an die Publikumswahrnehmung und willkommenes zusätzliches Abgrenzungskriterium anzusehen.
Ein möglicher ökonomischer Profit dieser Haltung ist vielleicht nur von begrenzter Dauer, weil sich gegenüber den spekulierten Visionen der Risikoproduktion die nüchterne Kenntnis der internationalen Faktenlage schon mittelfristig durchsetzen könnte. Hier kann man auch an die ehedem sehr strittigen Positionen bei der Auseinandersetzung über gentechnische Produktionen im "geschlossenen System" von Anlagen denken. Produkte der "roten" (Medizin) und "weißen" (Enzyme, Chemikalien, ...) Gentechnik werden nicht gekennzeichnet und sind heute hinsichtlich der Verknüpfung mit Risiken ganz aus der öffentlichen Aufmerksamkeit verschwunden.
Zu Gunsten der "grünen" Gentechnik könnten Argumente der größeren Unabhängigkeit von chemischen Mitteln und Verfahren sowie die grundsätzlichen Herangehensweisen nach allgemein gültigen (molekular-)biologischen Gesetzmäßigkeiten als Stützung der Wettbewerbsposition verstärkt einsetzbar werden.
6. DIE STUDIE (Seralini et al., 2012) IST SO SOLIDE WIE JEDE ANDERE STUDIE, WELCHE DIE ENTWICKLER BISHER VORGELEGT HABEN UND AUF DIE EINE ZULASSUNG GEGEBEN WURDE.
Seralini und Mitarbeiter meinen, mit ihrer experimentellen Arbeit (8), bei Ratten Langzeitwirkungen von glyphosatresistenten Maislinien in variierender Kombination mit dem Herbizid nachweisen zu können. Mit der vorbehaltlosen Stützung der Struktur und Interpretation dieser Arbeit verlässt die Interviewte nachdrücklich den Rahmen nüchterner wissenschaftlicher Urteilsbildung.
Bei einer sachlichen Analyse experimenteller Arbeiten und ihrer Auswertung kann eine eventuelle Voreingenommenheit der jeweiligen Autoren gegenüber der sachlichen Interpretation ihrer Daten zur vernachlässigbaren Störgröße werden. Es bedarf aber gewöhnlich eines gewissen Sachverstands, um das Urteil über die Plausibilität/das Zutreffen/die Wahrheit kritischer Einwände unabhängig von der professionellen Anbindung der Quelle zu machen. – Demgegenüber verbleibt die Stellungnahme Hilbecks auf der Metaebene der Unterstellung jeweiliger Abhängigkeiten der Urteile, ohne auf sachliche Kritikpunkte sich einzulassen. Die vorgebrachten Argumente lassen sich etwa folgendermaßen zusammenfassen:
Die intensive wissenschaftliche Kritik an der Arbeit bemängelt nun aber gerade die Verletzung von Standards, die bei einer anspruchsvollen Untersuchung mit heterogener schlecht spezifizierter Fragestellung anzuwenden seien (8, 9). So wird etwa die besondere Nichteignung des eingesetzten Rattenstamms auf Grund begrenzter Lebensdauer und hoher spontaner Krebsrate festgestellt wie auch die mangelhafte Anpassung der Gruppengrößen an international standardisierte statistische Anforderungen. Die eigenartige Umgangsweise mit den Daten der Studie vor der Publikation zeige eine sehr ungewöhnliche Konzentration auf die Medienwirksamkeit. Die publizierten Bilder hätten außerdem eine emotionale Qualität im Konflikt mit ihrer wissenschaftlichen Relevanz, weil sie eine Demonstration von Expositionseffekten suggerierten. Im Ablauf der Experimente werde im Übrigen eine totale Missachtung des Tierschutzes demonstriert. – Die teils heftige Kritik am Reviewprozess, die mit dem Verweis auf mangelhafte wissenschaftliche Qualität häufiger vorgebracht wird, scheint die Tatsache zu ignorieren, dass auch Veröffentlichungen in wissenschaftlichen Zeitschriften von ökonomischen / politischen Gesichtspunkten beeinflusst werden können.
7. UNABHÄNGIGE FORSCHUNG IST IN DIESEM METIER (der Testung von Risiken im Kontext von Freilandanwendungen) KAUM NOCH MÖGLICH.
Es ist aufschlussreich, die Interessen und Motive von Geldgebern und wissenschaftlichen Bearbeitern gentechnischer Sicherheitsforschung gegenüberzustellen.
Staatliche, industrielle und institutionelle Geldgeber für Forschungsprojekte verfolgen jeweils eigene - wandelbare - Interessen:
Ein Bündel von Motiven veranlasst Wissenschaftler dazu, Forschungsprojekte vorzuschlagen:
Die hier ganz lückenhaft angedeuteten Ziele und Motive der an der Verteilung von Forschungsgeldern Beteiligten können auf den Grad der Übereinstimmung geprüft werden. Eine Entscheidung wird sich in erster Linie daran orientieren.
Gegenüber den persönlichen Interessen – insbesondere der Neugier als wichtigster Eigenschaft der wissenschaftlichen Förderungsnehmer – hat es die "Sicherheitsforschung" als Zielsetzung schwer, nicht als unangemessene Beschränkung der Unabhängigkeit wahrgenommen zu werden. Für Ökologie und Umweltwissenschaften sollte eine Ablehnung des aktuellen Managementstandes als Grundlage ihrer Forschungskonzepte unterstellt werden.
Potenziell bedeutende Geldgeber suchen heute vielleicht eher nach objektivierenden Daten der Bewertung zumindest in Relation zu bisherigen Konventionen. Der Schutz ökonomischer Interessen der Industrie wird gegenüber der möglichen Absicht, die Schieflagen gegenwärtiger Regulierung offenzulegen, nur ein marginaler Gesichtspunkt sein. Einer Fortsetzung der "Suche nach Haaren in der Suppe" verbleibt vielleicht ein schmaleres Betätigungsfeld.
8. DIE TECHNIK IST MIR EGAL. MIR GEHT ES UM PROBLEMLÖSUNGEN AUF DER NATURWISSENSCHAFTLICHEN UND AGRARÖKOLOGISCHEN EBENE, ZU DENEN ICH MEINE EINWÄNDE FORMULIERE.
Die mangelhafte Spezifität der Wirkung von Bacillus-thuringiensis-Toxinen hat sich bisher nicht als signifikantes Problem ihrer Anwendung in transformierten Pflanzen erwiesen (10-12). Der Vergleich mit der Bekämpfung von Schadorganismen in konventioneller Landwirtschaft rückt in der jüngsten zitierten Arbeit die relativen Bewertungsskalen deutlich zu Gunsten von Bt-Pflanzen zurecht. Solche Pflanzen wurden in der Erwartung entwickelt, dass die Risiken geringer sein würden, als verfügbare oder alternative Technologien – bei gleichzeitig überlegenen Vorteilen. Nach der Datenlage scheinen diese Erwartungen gerechtfertigt gewesen zu sein, was wohl auch heute noch zutreffend ist (10).
Dass Frau Hilbeck die Technik egal sei, ist nach dem Inhalt des Interviews nicht nachvollziehbar. Hier wird die einseitige Parteinahme gegen gentechnische Lösungsansätze ohne sachlich-nüchterne Abwägungen in der Konfrontation vielfach demonstriert. Und wie hoch würde ein realistischer Beobachter wohl die Chance einschätzen, dass sich Frau Hilbeck einmal vehement für eine gentechnisch realisierte landwirtschaftliche Problemlösung einsetzte?
Die bedingungslose Parteinahme scheint bisher nicht zum Nachteil für Frau Hilbecks öffentliche Resonanz geworden zu sein.
Ergänzungen
{Regelungen als Kristallisationspunkt von Risikowahrnehmungen und Interessen; Rückkopplungen, Ansätze wissenschaftlicher Risikoanalyse; Randbedingungen der Kommunikation; Motive der Parteinahme; Folgewirkungen}
REGELUNGEN und RÜCKKOPPLUNGEN
Die Fragestellung nach der sachlichen Begründung einer speziellen Regelung der offenen Anwendung von gentechnisch veränderten Organismen soll hier den Gedankengang über den Risikoumgang einleiten. Die Frage wirkt heute zwar angesichts fester Fronten und vorläufig etablierter Mehrheitsverhältnisse total abgehoben. Die Konsequenz der Entscheidung sind jedoch zahlreiche Konflikte zwischen sachlich nüchternem Urteil und gesellschaftlichen / rechtlichen Umgangsweisen.
Wissenschaftlich-theoretisch lässt sich eine spezielle Verknüpfung der Gentechnikanwendung mit Risiken für Mensch oder Umwelt nicht begründen – und die weltweit rasch wachsende Erfahrung spricht bisher auch empirisch gegen die Hypothese einer solchen Verknüpfung. Organismen werden also nicht automatisch zu neuen Risikoquellen, wenn sie gentechnisch (zu "GVO") verändert wurden)2.
Die gegenteilige Annahme oder ein verbleibender Verdacht statten die betroffenen Organismen in Europa jedoch mit einer Erbsünde aus, der alle Nachkommen ohne Vergebung unterfallen. In Kombination mit der Kennzeichnungspflicht hat das erhebliche Konsequenzen für den Umgang mit GVO. (In den USA werden die veränderten Pflanzen nach Prüfung ihrer Vergleichbarkeit mit konventionellen Sorten aus dem speziellen Regelungsbereich entlassen.)
Die technisch gewachsene Macht, Organismen für seine Zielsetzungen zu verändern, eröffnet dem Menschen auch die Möglichkeit, dabei ganz neue Einsatzformen für Organismen zu planen (Pflanzen, die Impfstoffe in ihren Früchten enthalten, leuchtende Aquarienfische, ...). Unter einem kritischen Blick auf seine Fähigkeiten, mit solcher Macht weise umzugehen, erwächst aber ein psychologisches Momentum zu Gunsten einer Bändigung dieses Potenzials durch Regelung.
Neben der inhaltlichen Kritik an den europäischen Regelungen wird hier nicht weiter diskutiert, inwiefern unter den heterogenen Anforderungen in den USA oder international konsistente Regelungsphilosophien entwickelt wurden. Als eine dem Autor bekannte konsequente Alternative soll nur die kanadische Direktive 94-08 erwähnt werden, die "Pflanzen mit Neuen Merkmalen" als Regelungsgegenstand definiert. Die Tatsache, dass hier auch konventionelle Züchtungsprodukte der Regelung unterfallen, hat die breite Akzeptanz in Kanada zunächst behindert (13).
Nach welchen Interessen und Mechanismen gestaltete sich die gegenwärtige Lage der Gentechnik im Freiland Europas? Ein Ausgangspunkt war sicher die direkte Konfrontation des Publikums in der offenen Umwelt – vielleicht mit Erinnerungen an die Auseinandersetzung um die Anwendung im Produktionsfermenter von Anlagen (Insulinproduktion durch Bakterien). Die an Gefährdungseinschätzungen orientierte Abschottung der Anlage von Personal und Umwelt war ja dabei das wichtigste Element der Risikobeherrschung. – Dazu kam eine generelle Abwehr gegenüber Innovationen im landwirtschaftlichen Bereich, speziell auf der Seite des Umweltschutzes. Die Verbreitung skeptischer Haltung in der Gesamtbevölkerung regte dazu an, der Politik weit gehende Gestaltungsmöglichkeiten, in Zulassungsentscheidungen zu überlassen. Die Struktur des Risikoumgangs, die folgend noch eingehender thematisiert wird, ist eher an die Verhinderung des Marktzugangs denn an seine Unterstützung angepasst.
Die hier durchaus auch durch mangelhaftes Wissen gestützte Risikowahrnehmung ruft generell Umweltschutzinstitutionen, Naturschutzverbände und Politik auf den Plan, die für einen verbesserten Schutz von Gesundheit und Umwelt Sorge tragen können. Die beim Management gemachten Erfahrungen und Beobachtungen sowie deren Interpretationen führen dann häufig auch zur Verstärkung der Risikowahrnehmung. "RISIKEN" der "grünen" Biotechnologie verdanken ihre Existenz der Struktur und dem Inhalt der REGELUNGEN, die damit ein Großteil der Probleme generieren, für deren Management sie zuständig sind.
geleistet werden kann und Konkurrenz durch kleine Wettbewerber verhindert wird.
Ein nachteiliger Einfluss auf die Weiterentwicklung der Molekularbiologie bei Pflanzen und auf die Nutzung fortschrittlicher Technik in der Umwelt erscheint als evidente negative Folge der Wahrnehmungen.
Weil ein genereller Mechanismus fehlt, der GVO zu Risikoquellen wandelte, ist die Ermittlung der von ihnen ausgehenden Risiken eine Herausforderung, der man sich mit einer Vielzahl von Einzeluntersuchungen stellen könnte. (Wissenschaftliche Ansätze in der so bezeichneten Sicherheitsforschung sowie die für eine generelle Überwachung von GVO vorgeschlagenen Messdaten sind auch als unsystematische Fahndung nach Risiken interpretierbar.) Die Identifizierung von Risiken in den EU-Richtlinien folgt einem systematischeren Vorgehen durch Vergleich mit dem genetisch nicht modifizierten Organismus als einer bewährt harmlosen Referenz (angelehnt an ein Konzept "Substanzieller Äquivalenz"). Die mit der gentechnischen Modifizierung beabsichtigte (Phänotyp-)Veränderung (intended) wird von nicht erwarteten Variationen (unintended) unterschieden. Und Letztere werden als Gefährdungsmomente (hazards) zum Ausgangspunkt weiterer Untersuchungen, die einerseits die Natur des Risikos untersuchen und andererseits auch die molekulare Ursache dieser Variationen aufklären sollen.
Gesetzmäßigkeiten biologischer Variation nach Ursache und Mechanismus zu erforschen, kann zu fruchtbaren Forschungsperspektiven führen. Der vorstehend kurz vorgestellte Weg zur Identifizierung und Analyse eines unbekannten Risikos ist jedoch in mehrfacher Hinsicht unproduktiv:
Als alternative Annäherung an Risikopotenziale bei der Risikoidentifizierung lässt sich der Entwurf von Risikoszenarien ansehen. Mit wenig Expertise und etwas Fantasie kann er sich an den Zielen jeweiliger gentechnischer Eingriffe orientieren. Bei Pflanzen sind das meist traditionelle züchterische Ziele, wie die Erhöhung der Widerstandsfähigkeit gegen Schadorganismen, die Steigerung des Ertrags, die Veränderung des Nahrungswertes nach "Design" und die Ausstattung mit Toleranzen für abiotische Stressoren wie Salz, Hitze, Trockenheit. – Aber auch neue Konzepte wie die pflanzliche Synthese von Chemikalien oder von Impfstoffen und anderen pharmazeutisch aktiven Produkten sind im Versuchsstadium.
Um dann zu quantitativen Aussagen über Risiken zu kommen, müssen die Risikoszenarien in toxikologischen Labor- und Modellsystem-Untersuchungen konkretisiert werden. Für die endgültige Quantifizierung ist es dann von besonderer Bedeutung, in welcher Weise sich die Ergebnisse in realen Expositionssituationen und deren zeitlichem Verlauf tatsächlich niederschlagen (5-7).
Das Problem der Quantifizierung von Risiken entfaltet sich insbesondere dann, wenn die transformierte Pflanze oder der modifizierte Mikroorganismus in dem Risikoszenario als Teilnehmer natürlicher Evolutionsprozesse analysiert wird. Hier kann an die Auseinandersetzung über die Qualitäten des in der Pflanzengentechnik oft verwendeten CMV-Promoters3 erinnert werden. Es wurde postuliert, seine Verknüpfung durch Rekombination mit humanen – im Zusammenhang mit Krebsentstehung stehenden – Genen könne neue Tumorpromotoren entstehen lassen (14). Plausibilität und Wahrscheinlichkeit der dabei eventuell involvierten Mechanismen wurden keiner eingehenden experimentellen Prüfung unterworfen.
Aus mäßig nachvollziehbaren Gründen hat dem gegenüber der horizontale Gentransfer (HGT) von transgenen Pflanzen zu Mikroben in der Risikodebatte eine herausgehobene Bedeutung erlangt. In deren Zentrum stand die Hypothese einer zusätzlichen Ausbreitung von Antibiotikaresistenz-Genen oder von deren Variation mit unerwünschten Folgen für Umwelt und Gesundheit in menschlicher Sichtweise (Kompromittieren von Therapien).
Im Bemühen, die Wahrscheinlichkeit und Tragweite dieses Szenarios experimentell zu ermitteln, stellte sich heraus, dass der postulierte Transfer Pflanze – Mikroorganismus nicht unter natürlichen Bedingungen beobachtet werden kann. Eine Abschätzung seiner Häufigkeit setzte zusätzliche Annahmen voraus, die aus experimentellen Varianten zu Gunsten des untersuchten Endpunkts ableitbar waren. Der angenommene Endpunkt war auch bei Anbau oder Feldversuchen mit gentechnisch veränderten Pflanzen nicht experimentell zu isolieren, und es wird zunehmend klar, dass der Aufwand zugunsten dieses Monitoringziels auch bei modifizierten Randbedingungen prohibitiv hoch wäre (16).
Um zu belastbaren Aussagen über Risiken zu kommen, kann man in der Analyse des Prozesses die Auswirkung auf die Umwelt als Effektkomponente der Risikoanalyse in den Mittelpunkt rücken. Da gibt es dann die Tendenz, die betrachteten Gene als seltsame Risikoattraktoren anzusehen, etwa wenn sie sich durch Rekombination oder Mutation zur Variante mit problematischem Phänotyp wandeln. Heinemann und Traavik (15) kommen mit der Annahme spezieller Mechanismen im Verlauf des Gentransfers dann zu der Folgerung, diese könnten noch eine Auswirkung auf die Umwelt haben bei einer Häufigkeit, die etwa trillionenfach niedriger wäre als ihre Annahme in der gegenwärtigen Literatur zur Risikoeinschätzung des Szenarios.
Wie hier wird bei der Diskussion über mögliche Konsequenzen des Gentransfers gewöhnlich die Frage seines Beitrags zu neuen Evolutionsverläufen total unterbelichtet. Der natürliche Hintergrund als bedeutende Referenzgröße bleibt außerhalb des Blickfelds:
In der Risikodebatte Geschulte mögen an dieser Stelle an den bei Strahlenbelastung als Vergleichsgröße herangezogenen Wert der natürlichen Hintergrundstrahlung denken. Ohne auf die Tragkraft dieser Analogie einzugehen, soll hier betont werden, dass die Vorhersage von Evolutionsvorgängen mit der möglichen Verstärkung (sehr) seltener Ereignisse letztlich eine nicht einlösbare Zielsetzung ist. Als Ergebnis einer akkumulierten Risikoanalyse sollen dann Managementmaßnahmen das Gesamtrisiko auf ein tolerierbares Niveau bringen. In der alltagspraktischen Umsetzung des Vorsorgegedankens wäre also eine Differenzierung zwischen spekulativen und relevanten Risikoszenarien wie angedeutet sinnvoll.
Die europäische Regelungsphilosophie eröffnet auch ohne Risikoidentifizierung und -analyse ganz andere Herangehensweisen, weil hier der GVO selbst zum "Schadstoff" und zur Kontaminante gerät. Da wird die Exposition dann durch Verknüpfung mit ökonomischen Effekten der rechtlichen Lage zum eigenständig relevanten Risikoparameter. Die Schadensschwelle wird zwischen Lobbyisten und Politik ausgehandelt und durch Setzung von Grenzwerten bestimmt. Als beste Managementpraxis für potenzielle Risiken (der "genetischen Umweltverschmutzung") wird das allgemeine Ziel formuliert, die Umweltbelastung mit Transgenen oder ihren Produkten zu reduzieren (17). An dieser Stelle entpuppt sich dann die Realität der Zulassungspolitik in der EU als ziemlich effektives Risikomanagement.
Neben der unveränderlichen Definition des GVO kooperiert die "Richtlinie 1829/2003 über genetisch veränderte Lebens- und Futtermittel" bei der Verwirrung und Fehlinformation des Verbrauchers (18). Einerseits durch Verknüpfung des Einsatzes der Gentechnik mit einem Rahmen für die Risikobewertung bei Lebensmitteln, der höchsten Anforderungen gerecht werden soll. Andererseits mit den Vorschriften für eine Kennzeichnung, die definitiv nicht über den breiten Gebrauch einer unschuldigen Querschnittstechnik aufklären. Sowohl Verbraucher wie auch Experten werden über die Abhängigkeiten der Kennzeichnungspflicht vom Herstellungs- oder Gewinnungsverfahren in die Irre geführt.
Dieser inkonsistente Kompromiss spiegelt gewiss die Interessenabstimmung zwischen Verbandsvertretern, Lobbyisten, Politikern und Wissenschaftlern, welche sich auch der Philosophie des Regelungsbereiches bewusst waren. Die Vorstellung eines speziellen Gefährdungspotenzials der Gentechnik wird in allgemeiner Wahrnehmung durch Kennzeichnung und Regelungsdichte aber zusätzlich gestützt.
Fazit
Ein gemeinsames erkenntnisgeleitetes Interesse an einer sachlichen Auseinandersetzung liegt auf Grund unterschiedlicher – fixierter – Positionierung nicht vor. Das Ziel einer nüchternen Bewertung von Vor- und Nachteilen einzelner Fälle des Gentechnikeinsatzes in der Umwelt bedarf einer radikalen Wandlung der Kommunikationskultur, die über einen lösungsorientierten Diskurs sich einem produktiven Konsens anzunähern hätte. Unter Missachtung primärer Interessenlagen sollten gemeinsame Ziele (von Umwelt- und Naturschutz) herausgearbeitet werden. Dann könnten Kompromisse sachlich begründet und eine "win-win"-Situation für viele der beteiligten Gruppen hergestellt werden.
Eine ethische Forderung wäre hier die tatsächliche Bereitschaft, Grundlagen seiner Einstellungen, Interpretationen und Handlungen im Diskurs in Frage zu stellen.
Risiko-Analyse, Risiko-Wahrnehmung
Die eingesetzte konventionelle Struktur der Risikomatrix kann zwar angelehnt werden an Vorbilder aus dem Umgang mit Chemikalien (19, 20):
Wahrscheinlichkeit / Grad der Exposition gegen Ausmaß an Folgen (bei Exposition)
Wie auch im vorstehenden Sachtext ausgeführt, ist sie für die Ermittlung des Risikos beim Umgang mit lebenden Einheiten von sehr begrenztem Wert. Im Richtlinientext selbst wird auf die Wichtigkeit verwiesen, "dass keine etwaigen schädlichen Auswirkungen deshalb außer Acht gelassen werden, weil deren Auftreten als unwahrscheinlich angesehen wird."
Die Leitlinien stellen die Aussagekraft der Risikomatrix dann noch ernsthafter in Frage:
Diese Unsicherheit der Risikoanalyse verlangt nach Alternativen mit angemessener Relation zum Grad einer Gefährdung. Und da bietet sich die Risikoklassifizierung an, wie sie bei Viren, Bakterien und Pilzen eingeführt und bewährt ist. Hier ist das Ausmaß der Folgen (Schwere der Krankheit) der dominierende Klassifizierungsparameter. Faktoren der Ausbreitungsdynamik (Expositionswege, Infektiösität) können aber als zusätzliche Kriterien der Einstufung genutzt werden. Ein Risikomanagement besteht in Verfahren der Ausbreitungskontrolle.
Vorschlag:
Einführung von Sicherheits- / Gefährdungs-Klassen für den
Freilandeinsatz von "Organismen mit neuen Merkmalen"
Klasse
Ausbreitungs-, Expositiomskontrolle nach Bedarf
Ausbreitumgs-, Expositionskontrolle nach Bedarf
Minimierung von Ausbreitumg / Exposition
durch Gewächshaus (Sicherheitsgewächshaus, andere ...)
Wissenschaft
Unabhängigkeit
ist ein Merkmal, das in hohem Maß von kritischen Positionen in Anspruch genommen wird, um den Unterschied zu industrie- oder staatsfinanzierten Wissenschaftlern zu betonen. Eine Abhängigkeit der Forschungsergebnisse und ihrer Beurteilung vom "Dienstherrn" ist aber nicht nur bei Promotoren der "grünen Gentechnik" auszumachen. Immer dann, wenn ein persönlicher Name mehr für eine Haltung denn für besondere wissenschaftliche Qualität steht und die Richtung der Argumentation sowie die einseitige Auswahl von Daten vorhersehbar sind, ist das deutliches Zeichen für wirksame Abhängigkeiten.
Ehrlichkeit
ist im Zusammenhang insbesondere gefordert beim Benennen unzureichenden Wissens und mangelhafter Kontrolle bei besonders anspruchsvollen Kriterien.
Dem Publikum reinen Wein einschenken:
GVO in der offenen Umwelt sind Subjekte natürlicher Evolution
Naturschutzgruppierungen
Die Frage nach Zielen führt zu Endpunkten, die der Beteiligung der Gentechnik übergeordnet sind, und zur Frage, wie die Annäherung an diese Ziele messbar wird.
Wissenschaft - Politik - Bewertungen
Sollen Regelungen wie "Reinheitskriterien" der Publikumswahrnehmung folgen? Und wie viele Fliegenbeine, -köpfe, -flügel wären dann tolerierbar?
Fußnoten
LITERATUR (überwiegend wissenschaftliche Literatur in englischer Sprache)
über die absichtliche Freisetzung genetisch veränderter Organismen in die Umwelt. Amtsblatt der Europäischen Gemeinschaften. L 106, 1-38 (24.06.13)
(Eine Interpretation mit "biosafety implications" - im Geist der Richtlinie 2001/18)
(Schon der Titel zeichnet mit der Zuordnung zur Saatgut-Industrie ein unfaires und ganz schiefes Bild von dem ursprünglich auf universitärer Kooperation beruhendem Projekt. Die Industrie musste erst involviert werden, als es um die Ablösung von Patenten und Schutzrechten ging.)
(Hier die Risiko-Identifizierung - darunter die Expositions-Messungen mit einer Bewertung)
(mit links zu zahlreichen Kommentaren unter: Referred to by, Related articles)
This document updates Directive 94-08 (Dir94-08),?"Assessment Criteria for Determining Environmental Safety of Plants with Novel Traits."?The original Dir94-08 was first published December 16, 1994, revised September 15, 2000; October 29, 2004; and July 4, 2012.
Fatale Situation?
17.09.2013, Mathias Völlinger"Tatsächlich ist die Wahrscheinlichkeit, dass die Milchstraße sich in einer Region ausreichend geringer Dichte befindet, erheblich geringer als ein Prozent."
Könnten diese Feststellungen dann nicht doch irgendwie korreliert sein? Manchmal gewinnt man ja auch im Lotto.
Re: Urknall
16.09.2013, G. Wegner... hier erläutert Alan Guth "wer dieses dieses erbsengroße Gebilde aus dem Säckel geschüttelt" haben könnte.
Der dunkle Kosmos
16.09.2013, Thomas RückerFragwürdige Buchrezension
16.09.2013, Heinz-W. KrügerZunächst fand ich es ganz originell, den menschlichen Körper mit den Augen eines Naturwissenschaftlers zu betrachten. Aber bereits auf Seite 37 stutzte ich zum ersten Mal, als der Autor explizit und unverklausuliert behauptet: "Wissenschaftler nennen die negativ geladenen Teilchen in einem Atom Neutronen" (!). Das konnte wohl nur ein Druckfehler sein.
Inzwischen bin ich mir da allerdings nicht mehr ganz so sicher. Beim Weiterlesen fand ich eine Fülle weiterer merkwürdiger Behauptungen und Erklärungen, über die ich mich schon sehr gewundert habe. So erfährt man z. B. auf Seite 126, dass es im Universum ca. 1650 Galaxien gibt.
Bemerkenswert auch die Erklärung des Young'schen Doppelspaltversuchs. Nachdem der Autor zuvor das Wellenmodell des Lichtes als Irrtum bezeichnet hat, versucht er, das Ergebnis dieses Versuches mit dem Teilchenmodell zu erklären. Das ist natürlich schwierig, und er kommt zu dem Schluss, dass das Streifenmuster auf dem Schirm von Wahrscheinlichkeitswellen verursacht wird. Versteht das einer?
Offenbar hat der Autor generell eine Abneigung gegen Wellen. Im Kapitel "Die Sinne zählen" heißt es: „Schall wird oft als Welle bezeichnet, genau genommen ist er jedoch eine regelmäßige Folge von Impulsen“.
Im Kapitel "Überreste des Urknalls" erfährt der erstaunte Leser, dass das „Schneegestöber“, welches man auf dem Bildschirm eines älteren, analogen Fernsehers sieht, wenn kein TV-Signal empfangen wird, zum Teil von der kosmischen 3K-Hintergrundstrahlung herrührt und der Fernseher somit ein „primitives Radioteleskop darstellt“. Das ist kompletter Unsinn. Eine Fernsehantenne ist gar nicht in der Lage, die bei der 3K-Strahlung dominierenden Frequenzen aufzunehmen, und die Verstärkerelemente im Fernseher könnten diese nicht verarbeiten. Sollten doch winzige Reste ihren Weg zum Antenneneingang finden, so werden sie von den dort vorhandenen Filterkreisen restlos unterdrückt.
Das„Schneegestöber“ wird ausschließlich vom Gerät selbst erzeugt. Verantwortlich hierfür ist die für die Bildinformation verwendete Amplitudenmodulation, die so eingerichtet ist, dass der Bildschirm bei kleinem oder fehlendem TV-Signal hell gesteuert wird. Hinzu kommt die Wirkung der automatischen Verstärkungsregelung, die bei fehlendem TV-Signal die internen Verstärker auf maximale Verstärkung einstellt, wodurch auch das unvermeidliche Eigenrauschen der elektronischen Bauteile maximal verstärkt wird. Beides zusammen erzeugt dann das „Schneegestöber“ auf dem Bildschirm. Mit irgendwelchen kosmischen Ereignissen hat dieses nichts, aber auch gar nichts zu tun.
Bemerkenswert auch, wie der Autor erklärt, warum ein mit Helium gefüllter Ballon, der in einem fahrenden Auto schwebt, sich beim Bremsen nach hinten bewegt. Er bemüht zur Erklärung nichts Geringeres als Einsteins allgemeine Relativitätstheorie.
Dieses ist nur eine kleine Auswahl von Merkwürdigkeiten, die mir aufgefallen sind. Ob diese bereits im englischen Originaltext vorhanden sind oder vom Übersetzer hineingebracht wurden, vermag ich nicht zu sagen. Auf jeden Fall scheint der Übersetzer aber einigen Anteil daran zu haben. Schon der Titel des Buches: "Die Vermessung des Körpers" ist keine sehr glückliche Übersetzung des Originaltitels "The Universe Inside You", der deutlich besser zum Inhalt passt.
Auch bei der Unterschrift der Abbildung auf Seite 218, die einen Teil einer DNS-Spirale zeigt und wo von einer „Wölbung“ der Spirale die Rede ist, scheint mit ein Übersetzungsproblem vorzuliegen. Was hier mit Wölbung gemeint sein könnte, ist mir bis jetzt noch nicht klar geworden.
Generell geht es dem Autor offenbar gar nicht so sehr darum, die oftmals erstaunlichen und komplexen Zusammenhänge aufzudecken und zu erklären. Durch die Verwendung unnötig hochtrabender Begriffe und oberflächlicher, teils skurriler Erklärungen will er offenbar beim Leser nicht Verständnis, sondern nur ungläubiges und ehrfürchtiges Staunen hervorrufen.
Ich verstehe nicht, wie dieses Buch in mehreren Rezensionen derart positiv beurteilt werden konnte, und ich weiß nicht, an welchen Leserkreis es sich eigentlich wendet. Ich wüsste jedenfalls nicht, wem ich das Buch empfehlen könnte.
kollateralschaden
16.09.2013, peter contraja - und das hat man dann davon....
Spiel mit der Polarisation
15.09.2013, Uwe ZimmermannBundeswahlgesetz
15.09.2013, BernauerAber man kann die Auswirkungen minimieren, indem man einen elementaren Fehler des Wahlgesetzes korrigiert.
Es handelt sich - wie der Titel sagt - um eine BUNDEStagswahl. Daher müssen Überhangmandate auch erst einmal bundesweit ausgeglichen werden. Die vorherige Einteilung in die Bundesländer ist unlogisch und unsystematisch. Die Einwirkung der Bundesländer erfolgt über den BundesRAT, sie haben aber im Bundestag nichts zu suchen. Es stellt sich ja auch eine Bundes-SPD oder Bundes-CDU zur Wahl und nicht in Hessen die Hessen-SPD und in Bremen die Bremen-SPD. Dass die Bundesparteien sich aus organisatorischen Gründen nach Bundesländern strukturieren, ist eine parteiinterne Angelegenheit und für die Bundestagswahl ohne jegliche Relevanz.
Der erste Schritt zur Lösung des Problems lautet also:
Die Überhangmandate einer Partei werden auf Bundesebene ermittelt. Erst dann, wenn eine Partei bundesweit mehr Direktmandate hat, als ihr bundesweit zustehen, kommt ein entsprechender Ausgleich zum Tragen. (Wie die Parteien intern den Ausgleich zwischen starken und schwachen Gebieten bewerkstelligen, ist deren eigene Entscheidung.)
Damit hat sich der größte Teil des selbstverschuldeten Problems erledigt.
Der zweite Schritt ist eine Grenze pro Partei, bis zu der Überhangmandate noch nicht ausgeglichen werden. Das Bundesverfassungsgericht hatte ja eine Gesamtobergrenze vorgeschlagen. Ich bin für eine Freigrenze von 2 Überhangmandaten pro Partei, die noch keinen Ausgleich erforden. Natürlich ist jede Grenze willkürlich, aber wir haben ja auch eine andere willkürliche und doch allseits akzeptierte Grenze in unserem Wahlgesetz: die Fünfprozent-Hürde.
Es heißt immer, der Wählerwille würde wegen der Überhangmandate verfälscht.
Aber wie groß wäre die Verfälschung bei 2 freien Überhangmandaten, wenn der Bundestag 598 Mitglieder hat? 0,33 %.
Wie groß war die Verfälschung durch nicht wirksame Stimmen auf Grund der Fünfprozent-Regel bei der letzten Bundestagswahl? 6 Prozent.
Wenn wir es uns also leisten können, den Willen von über 2,6 Millionen Wählern unter den Tisch fallen zu lassen (das sind Hamburg, Bremen und Bonn zusammen), dann brauchen wir bei deutlich weniger als 1% Überhangmandate keinen Aufstand zu machen.
Was die Quantentheorie zu einer Wahrscheinlichkeitstheorie macht.
15.09.2013, Beier Karl - Heinz