Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
Liebe Redaktion, es gibt Studien und eindeutige Ergebnisse. Google ist ausreichend, kein Grund also sich all zu sehr anzustrengen! Die E Zigarette ist um ein Vielfaches harmloser als normale Zigaretten. Die erwähnten Studien mehrfach widerlegt, da in einem unrealistischen Setup entstanden. Ebenso ist völlig klar, dass es kein Mitrauchen/Dampfen gibt und daher an und für sich, der Konsum einer E Zigarette für die Umgebung gefahrlos ist. Nun noch die unsinnige Behauptung, dass Nichtraucher - zudem Minderjährige zum Konsum verleitet werden, dazu gibt es ausschließlich gegenteilige Studien. Von Spektrum erwarte ich mir mehr als banales Nachgeplabber...
Stellungnahme der Redaktion
Sehr geehrter Lill-Rastern,
Das ist eine Meinungsäußerung der beiden Kommentatoren, wie auch deutlich vermerkt ist.
Dem ersten Posting über mir habe ich absolut nichts hinzuzufügen, außer einem Link mit Faktenbasierenden Daten über die E-Zigarette anstatt Copy/Paste Journalismus. Dieser beinhaltet einen großen Teil an Studien die schon über das Dampfen gemacht wurden und in solchen Medien hier leider als nicht existent abgestempelt werden.
Ich persönlich Dampfe nun seit 4 Monaten und habe am selben Tag mit dem Rauchen aufgehört, also direkt umgestiegen. Mir geht es nun nach 19 Jahren Rauchen um längen besser, keinen Raucherhusten mehr und wieder Geschmack und Geruch. Seit dem habe ich 4 andere Freunde zum dampfen gebracht und diese Rauchen inzwischen auch nicht mehr.
Warum die E-Zig so nieder gemacht wird mit allen mitteln ist einfach abzuzählen. 2,5 Mio Dampfer in Deutschland inzwischen. 2,5 Mio * 5 Euro (pauschal Schachtel) * 365 Tage = 4,542 Mrd Euro die nicht mehr an Tabakindustrie, Staat bzw Pharma gehen. Also kann mir niemand erzählen das es hier um Gesundheit geht. Warum wird Propylenglycol dann in den Medien als "Frostschutzmittel" hingestellt, ihr könnt euch sicher noch erinnern. Schaut doch bitte daheim mal eure Artikel durch, zb. Zahncreme bis 7 Jahre enthält PG. Nebelfluid in Diskos ist PG und wird da Literweise verballert. Hab bisher noch kein Warnschild "Sie werden hier Vergiftet" an Diskos gesehen. In Asthmasprays ist das Trägermaterial PG. Vergiftet uns damit die Pharma oder werden wir hier nur die Massen VERARSCHT um die E-Cig weg zu regulieren weil einfach alle glauben sie wäre Gefährlich!!!
Bringt mich die Aussage des Artikels jetzt nicht dazu, aufgrund der Ernährung von Menschen eher ein Vorurteil bezüglich deren Tendenz zu Vorurteilen zu haben?
Ich frage mich hier, ob Ursache und Wirkung vertauscht sein könnten. Tendieren Leute, die weniger Vorurteile haben, dazu, weniger Fleisch zu essen oder vermindert der Fleischkonsum die Tendenz zu Vorurteilen?
Mal im Ernst, in Lebensmittel sind Glycerin und Propylenglycol in Ordnung, haben ja eine Lebensmittelzulassung, aber in der Ezig ist es dann ein Giftcocktail. Wer im Grundkurs Chemie nicht ganz gepennt hat weiß das ein Stoff beim Agregatszustandswechsel seine chemischen Eigenschaften nicht ändert, flüssig nicht giftig, gasförmig nicht giftig.
Und Nikotin macht so süchtig? Soso, wo sind sie denn die ganzen Nikotinpflasterjunkies? Die gibts nicht! Und warum nicht?
Langzeitstudien? Wirklich? Bei allen Genussmitteln kann man die Schädlichkeit sofort ( Alkohol, Rauch)oder in einem sehr kurzem Zeitraum (Zucker,Fett) feststellen, nur bei der Ezig brauchts Langzeitstudien.
Was jedoch stimmt, das die Ezig vielen Menschen helfen kann, vom Rauchen und dessen Folgen wegzukommen. Die Wirkung spürtman schon nach kurzer Zeit, nämlich wenn der Raucherhusten weg ist.
Warum man gewisse Leute zu Experten erklärt bleibt mir ein Rätsel. Da fragt man die Verkaufstellenleiterin für Tabakersatzprodukte und Entzugstherapien, das ist so als wenn man nen Tankwart zum E-Auto befragt. Der ist ja schliesslich Experte für Autos...
Ich sehe das Problem nicht: Ein wirklich smartes Grid würde zentral gesteuert bei Strom-Überangebot nur soviele Waschmaschinen etc starten, dass es keine Überlastung gibt. Oder jedes Smart Meter könnte einfach eine zufällige Zeit warten, bevor es noch einmal prüft und dann entscheidet.
Nachdem ich meiner Katze ein Glöckchen umgehängt hatte, schaffte sie es nach kurzer Zeit, sich so zu bewegen, dass das Glöckchen einfach nicht bimmelte. Da sie ohnehin meistens Mäuse jagte und das sollte sie, habe ich dann das Glöckchen wieder abgenommen. Einen Vogel brachte sie sehr selten. Als Ausgleich haben wir Vogelhecken, Nistkästen und Futterplatz auch im Sommer. Kastriert ist sie auch. Und einen langjährigen Freigänger kann man nicht im Haus einsperren.
Nun, es steht außer Frage, dass man eines Tages mit entsprechenden technischen Mitteln die elektronischen Verschaltungen im Gehirn abbilden werden kann, aber was bedeutet das eigentlich? Der Sachverhalt ist doch der, dass man weder das Bewusstsein lokalisieren noch beschreiben kann - es ist nach wie vor ein Phänomen. Im übertragenen Sinn begibt man sich daran, von einem Motiv, das man nicht sehen kann, eine jpeg-Datei zu erstellen, um aus den Rohdaten dieser Datei das Abbild des Motivs zu beschreiben. Aus diesem Sachverhalte heraus lässt sich tatsächlich daraus jedwelches Bild projizieren. Ich habe über viele Jahre Forschung feststellen können, dass die substanzielle Beschaffenheit des Bewusstseins eben nicht physiologischer Natur, sondern neben dieser und der materiellen eine dritte Substanz ist und somit wissenschaftlich nicht messbar und somit von dieser auch händelbar ist, so dass sich daraus ergibt, dass diese heutige Wissenschaft sich gegenüber der einstigen Philosophie völlig vom Bewusstsein wegbewegt. Der Weg wohin dies führt, ist nicht nur vorgezeichnet, sondern bereits Sachstand, nämlich da es sich gar nicht um das Bewusstsein handelt, was man da händelt, wird man einzig zu dem Resultat gelangen 'können', dass Bewusstsein nur eine Einbildung ist und gar nicht existiert. Diese Wissenschaft wird niemals die Aussage bilden, dass sie nicht in der Lage ist, das Bewusstsein zu erforschen und zu beschreiben. Wäre zu klären, welches Paradoxum schlimmer ist. Der eigentliche Sachstand oder der Sachstand bezüglich des Sachstandes.
Somit sind von meiner Warte aus 'menschenähnliche' intelligente Roboter undenkbar, da sie nur zwei von drei substanzielle Beschaffenheiten des Menschen beinhalten können. Gerade aber diese technischen intelligenten Roboter führen relativ vor Augen, wie viel man vom Menschen versteht gegenüber dem, was man gedenkt zu wissen.
Man sollte in dem Artikel erwähnen, dass das Fossil, das sich in einem deutschen Museum in Solnhofen befandt, vermutlich in Brasilien gestohlen und illegal ausgeführt wurde. Seit 1942 verbietet die brasilianische Gesetzgebung den Export von Fossilien ohne Genehmigung der zuständigen Behörden.
der Titel ist doof! Zahlreiche Leser deuten diesen im Sinne von "Wieso duftet der Kiwi so gut?". Ein zweideutiger Titel stiftet grundsätzlich Verwirrung in höchsten Tönen.
Ansonsten ein knackig-kurzer, aber durchaus interessanter Artikel.
Die Entwicklung künstlicher neuronaler Netze, speziell der neueren Generationen, die auf unüberwachtem Lernen basieren, kann in der Anwendung schon jetzt zu völlig unerwarteten Ergebnissen führen, wenn man nicht aufpasst. Man kann derartig aufgebaute Netze (die nicht mehr auf den Backpropagating-Algorithmen beruhen) durchaus als eine abstrakte Maschine ansehen, deren Programm aus Parametern besteht. Diese Parameter "entwickeln" sich aufgrund recht komplexer Verfahren anhand der Daten, die diese Maschine durch ihre Sensoren erhält. Ein Mensch programmiert also eine derartige Maschine nicht mehr, genausowenig, wie er sie "abrichtet" (das wäre bei überwachtem Lernen der Fall), stattdessen muss er sie in einem gewissen Sinne "erziehen", damit sie den Wünschen entsprechend handelt. Letztendlich steht man also vor dem Problem, dass man nicht weiss, warum die Maschine genauso handelt, wie sie es in einem gegebenen Fall gerade tut. Falls irgendwelche Marktinteressen beginnen eine derartige Technik einzusetzen, bevor die Forschung sie wirklich beherrscht, kann das durchaus sehr gefährlich sein.
Noch ein Nachtrag zu meinem Vorangegangenen Leserbrief.
Für eine Kampfdrohne kann in Dilemma-Situationen eine Selbstzerstörung oft die beste Wahl sein. Für zivile Roboter / autonome Systeme scheidet diese Möglichkeit aus. Sie dürfen sich auch nicht ganz abschalten, um in der Art einer 'Blackbox' über ein Unfallgeschehen Auskunft geben zu können.
Bei einer Fehlfunktion (z.B. bei der Straßenbahn ein Achsschaden) kann (ggf. muss) sie ihre Tätigkeit zwar komplett einstellen, in einer Dilemma-Situation darf sie aber keinesfalls 'durchdrehen'/'durchbrennen'(Kurzschluss) egal wie perfide das Szenario ist. Unter Umständen können Folgeschäden verringert oder vermieden werden. Nichtstun oder zulange Zögern (Varianten durchrechnen) sind auch eine Entscheidung.
Es gibt auch immer nicht bekannte Faktoren. Eine Entscheidung/Wahl kann zwar moralisch/ethisch und auch juristisch perfekt sein, durch diese unbekannten Faktoren aber statt einer Schadensminimierung eine Schadensmaximierung bewirken. Da es beim Fall mit der Straßenbahn um ein Dilemma in einer Ausnahmesituation handelt, ein paar Extrem-Beispiele was bei Kenntnissen über die Personen die Entscheidung hätten verändern/beeinflussen können: B1: Die Mitglieder der Gruppe sind sehr krank und haben sowieso nicht mehr lange zu leben. B2: Die Einzelperson ist auf dem Weg ins Krankenhaus zu einer Knochenmarksspende um einem leukemiekranken Kind das Leben zu retten. (Noch extremer, er ist immun gegen eine meist tödlich verlaufende Krankheit. Aus seinem Blut hätte ein Mittel entwickelt werden sollen, das tausenden das Leben gerettet hätte.) Eine Kombination aus B1 und B2. B3 a: Die Einzelperson ist unterwegs um vom nächsten Hochhausdach zu springen. B3 b: Die Einzelperson ist unterwegs um vom nächsten Hochhausdach zu springen. Bei der Gruppe handelt es sich um Terroristen, die sich als Selbstmordattentäter auf dem benachbarten Festplatz in die Luft sprengen wollen. Ein Überfahren der Einzelperson hätte die Attentäter wohl nicht von ihrem Vorhaben abgehalten. - Auf dem Festplatz wären viele weitere Menschen getötet und verletzt worden. Bei einem Überfahren der Gruppe wären die Menschen auf dem Festplatz verschont geblieben. Möglicherweise hätte die Einzelperson beim Anblick der von der Straßenbahn zermatschten Körper seine Selbstmordabsichten sogar aufgegeben. Es gibt nicht umsonst die Redensart: 'Wie man's (auch) macht ist's falsch!“
Es ist der allgemeine Wunsch, das Roboter alles Perfekt machen. Das geht aber nicht, sie können es zwar vielleicht regelgerechter und besser machen als Menschen aber schon die Naturgesetze schließen ein absolute Perfektion aus. Und nicht alles was gesetzeskonform und ethisch ist wird uns auch gefallen. Ethik ist ja zudem für jeden etwas anderes.
Ich vermute auf die Schnelle, die 'Überlegungs'folge für den Entscheidungsablauf eines Roboter müsste vereinfacht etwa so lauten: . 1. Gruppiere das Problem ein: Technischer Art?, …, Ethisch/juristischer Art? (die betrachten wir), ... 2. Gibt es für diesen Fall eine explizite Spezialregel? Wenn ja, befolge diese Regel. Sonst: 3. Sind Asimovs Robotergesetze hinreichend? Wenn ja, befolge diese Regeln. Sonst: 4. Was sagt die Gesetzgebung (StGB etc.)? 5. Was sagt die Ethik. 6. Wenn keine eklatante Differenz vorliegt, befolge Gesetz, gibt es kein passendes Gesetz, aber die Ethikregeln sind eindeutig, befolge die Ethikregeln. Sonst: 7. Gibt es eine passende Ergänzungsregel? Wenn ja, befolge diese Regel. Sonst: 8.Hast du Erfahrung in einem vergleichbaren Fall, handle entsprechend. Sonst: 9.Greife auf die Pauschalregel zurück, die am besten passt. Passen mehrere gleich gut, nimm die erste. (oder Würfele!)
Zu Punkt 2 gehören Regeln für Militärroboter.
Das ganze ist auf absehbare Zeit noch Illusion. Kein Schwein (Roboter) kann alle Gesetzestexte speichern und auch noch schnell genug auswerten. Zu vielen Gesetzen gibt es nämlich noch seitenweise Regeln, wie diese Gesetze in welchen Situationen zu interpretieren sind. (Nicht nur im Steuerrecht.) Diese Regeln müssen ja auch enthalten sein.
Das mit dem Würfeln zeigt ja bereits wie unvollkommen auch hochentwickelte Roboter sind, selbst wenn sie alle berücksichtigbaren(verfügbaren) Faktoren kennen. Und oben hatte ich ja bereits erklärt, das die berücksichtigbaren Faktoren oft nur ein Bruchteil der für eine gute Entscheidung erforderlichen Faktoren sind.
Bereits bei der Produktion von hochentwickelten, selbstlernenden Robotern müssen Regeln eingehalten werden:
Auch hochentwickelte selbstlernende Roboter müssen so etwas wie eine Schule 'besuchen'. Nach Aktivieren auch nur von Grundfunktionen, bis zum Ende ihrer Basisausbildung, dürfen sie keinerlei Kontakt zu Menschen haben. Das gilt auch umgekehrt. Abgehen von Bösartigen Manipulation, könnte auch emotionales menschliches Verhalten (es muss nicht einmal ein echtes Fehlverhalten sein) die noch lernenden Roboter negativ beeinflussen. Sie könnten Menschen als nachzuahmendes Vorbild ansehen. z.B. der Wutausbruch eines Cholerikers wäre kein gutes Vorbild. Beim Lehrstoff ist größte Vorsicht geboten. Er muss absolut eindeutig sein und von Angehörigen verschiedenster Kulturen und Bildungsschichten vorab und auch permanent kontrolliert werden. Abgesehen davon, dass Geheimdienste, Regierungen oder was weiß ich für Gruppierungen für ihre eigenen Interessen gezielt Einfluss nehmen, auch der Befehl, das die Bibel wörtlich zu nehmen ist reicht bereits. Die kleinste Schlamperei während der Ausbildungsphase könnte einen Rassisten, Fanatiker oder gar Killer erziehen. (Auch bei solchen Robotern kann das Äquivalent zu einem Psychopathen entstehen.) Bei der heutigen Lage würden ich keinen Roboter aus den USA beziehen. Da können dutzende Gruppen (selbst ISIS) auf einmal an einem Roboter (oder einer ganzen Serie) herumgepfuscht haben. Vielleicht mit widersprüchlichen Anordnungen. Das lässt sich nachträglich von Dritten praktisch nicht mehr prüfen oder beheben. TTIP würde aber wohl ein Einfuhrverbot für Roboter verhindern. (Aber außer ein paar Südseeinsel-Staaten fällt mir auf die Schnelle kein heutiges Land ein, auf dessen Produkte ich in dieser Hinsicht vertrauen würde.) Die geforderte Eindeutigkeit kann aber weder die englische Sprache noch Latein leisten. Auch wenn deutsch 10 mal bessere wäre, optimal ist selbst deutsch nicht. Bei einer reinen Kunst-/Programmiersprache ist aber andererseits die geforderte Kontrolle nicht mehr gegeben.
Werden die Idealmaßstäbe wirklich und sicher eingehalten, könnten für die Roboter die Erfahrungsregeln von Platz 8 weiter oben in der Liste angeordnet werden. Sieht man aber, was zur Zeit an Überwachungsmissbrauch stattfindet, sehe ich das für die nächsten hundert Jahre nicht. Bevor wir ethisch handelnde Roboter bauen können (dürfen!), müssen wir erst einmal durchgängig selber ethisch handeln d.h. aber auch, wer nicht in der Lage ist (oder bereit) ethisch zu handeln, hat in einer verantwortungsvollen Position nichts verloren. Egal wie reich oder wie intelligent er ist.
Noch etwas: ein wirklich lernfähiger (und autonomer) Roboter mit hinreichend Speicherkapazität hört nie auf zu lernen, anders als Menschen vergisst er allerdings auch nicht. Man muss ihm aber beibringen viele zurückliegende Dinge/Ereignisse geringer zu gewichten. Sonst ist am Ende ein Dieb immer ein Dieb, auch wenn es sich um ein Stück Würfelzucker im Kindergarten gehandelt hat, und es in den letzten 50 Jahren kein Fehlverhalten gab. Oder bei einmal als Fußgänger beim Überqueren der Straße die Ampel missachtet. Was er aber 'vergessen' kann oder gar soll und was keinesfalls ist auch nicht einfach zu definieren.
Von einer Zeitschrift mit diesem Namen würde ich einen anderen Umgang mit Formulierungen erwarten (oder nehmen Sie nur Zahlen ernst?) "Unser Sexualstrafrecht hängt noch im Mittelalter fest" - diese Formulierung ist nicht nur vollkommen unsinnig, sie entspricht auch nicht dem, was Frau Hörnle in sehr differenzierter Weise ausgeführt hat. Natürlich ist unser Strafrecht ein historisches Produkt - dachten Sie, es sei vom Himmel gefallen?
"Was wäre, wenn ein abruptes Bremsmanöver die Insassen schützt, aber zu einer Massenkarambolage unter den nachfolgenden Autos führt? Oder wenn das Auto einem Kind ausweicht – auch auf die Gefahr hin, jemand anderen zu treffen?"
Wo liegt denn da das Problem? Solche und ähnliche Entscheidungen treffen zu müssen kann auch Menschen passieren (tut es selbstredend auch). Es wird künstlich ein Problem geschaffen, weil wir von einer Maschine erwarten, dass sie unter Beachtung aller Umstände, nur richtige Entscheidungen trifft - und zwar ohne unser menschliches Zutun! Problemstellungen wie die oben zitierten sind doch nur Scheinprobleme der Moralphilosophie. Unsere Angst ist, dass ein Computer, der einen Passanten umfährt, um einem anderen auszuweichen, dies aufgrund seiner Programmierung tut, oder schlimmer noch aufgrund seiner „verbugten“ Programmierung. Wenn uns so etwas im Verkehr widerfährt, dann reden wir uns mit "Schrecksekunde", "Schock", oder was auch immer raus. Auf keinen Fall aber werden wir sagen: "Das Leben des einen schien mir wichtiger als das des anderen, darum habe ich den anderen umgefahren (quasi nach bestem Wissen und Gewissen)". Genau das würde aber ein Computer machen... Denken wir! Aber: Zum einen, denken wir da richtig? Und zum anderen, wenn dem so ist, dann doch nur, weil wir den Computer so programmiert haben.
"Es ist noch eine Menge Forschung nötig, bis wir künstliche Intelligenz dazu bringen können, bei ethischen Konflikten sinnvoll zu urteilen".
Ja! Wenn sogar die Philosophen versagen, was erwarten Sie dann noch von der Zukunft? Ich gehe hier auf das Konzept des "ethischen Konflikts" ein. Die Antwort ist erschreckend simpel: Es gibt keine "ethischen Konflikte"! Es gibt Definitionen, sonst aber gibt es nichts. Beispiel: Wenn das Leben heilig und schützenswert ist, dann ist es egal in welcher Situation Sie sich befinden; Sie können ein Leben unter gar keinen Umständen gegen das eines anderen aufwiegen. In dem Fall reagiert der Computer derart, dass er das Risiko für sich und die Insassen berücksichtigt, nicht aber ob er ein Kind oder einen Rentner umfährt - wie im wahren Leben (Parenthese: Der Computer wird dies viel besser als wir abschätzen können und die Zahlen schwerer Unfälle werden stark zurückgehen, aber es werden ab und an dann doch mal Kinder oder Rentner überfahren werden. Dafür gibt es ein Naturgesetz, das da lautet: Shit happens!). Oder: Wenn das Leben nicht heilig und schützenswert ist, dann müssen wir definieren, wer leben darf und im Zweifelsfall wer nicht. Dann entscheidet der Computer nach dieser Maßgabe - und es gibt weiterhin nicht den Ansatz eines Konflikts.
Kurzum! Computer, die programmiert sind, werden nach dieser (von Menschen erschaffenen) Programmierung handeln. (Künstlich) intelligente Computer werden genau so wie wir Fehler machen - wenn auch deutlich weniger und mit deutlich weniger schweren Folgen. Aber genauso wie schon das Rad, die Gabel, die Eisenbahn oder das Auto für die Menschen aus ihrer Zeit Teufelszeug waren, so ist jetzt die künstliche Intelligenz Teufelszeug. Zwar sind solche und ähnliche Probleme im Überfluss Themen von Science-Fiction aller Art. Letztendlich zeugen solche Probleme und unsere Beschäftigung damit nur davon, dass viele Menschen (auch Journalisten und Wissenschaftler) Angst vor der Zukunft und vor dem Fortschritt haben. Ich finde es traurig, dass Sie als Wissenschaftsjournalisten nicht den Mut aufbringen diesen absurden und irrigen Argumentationen entgegenzuwirken. Der Tenor des Textes ist doch, mehr oder minder unterschwellig, dass wir Menschen in jeder Situation in der Lage sind (ethisch) korrekte Entscheidungen zu treffen, während Computer dazu unfähig sind. Das ist arrogant, denn es stimmt nicht. Das ist aber auch die Art Selbstüberschätzung, die wir aus billiger Science-Fiction à la „I, Robot (Film)“ oder „Minority Report“ erfahren.
Im Übrigen: Isaac Asimov zeigt in seinem Buch „I, Robot“, dass Roboter, die nach den „Drei Gesetzen“ agieren, durchaus anders reagieren als wir es erwarten oder gerne hätten. Asimov hatte aber auch keine Angst von der Zukunft und den Geistern, die sie ruft.
So einfach kann man es nicht machen, aber so kompliziert ist es auch nicht.
24.07.2015, Christian Lill-RasternSehr geehrter Lill-Rastern,
Das ist eine Meinungsäußerung der beiden Kommentatoren, wie auch deutlich vermerkt ist.
Mit freundlichen Grüßen
Die Redaktion
Studien?!? haha ...
24.07.2015, Davidhttp://blog.rursus.de/faktenbasierte-ausarbeitung/
Ich persönlich Dampfe nun seit 4 Monaten und habe am selben Tag mit dem Rauchen aufgehört, also direkt umgestiegen. Mir geht es nun nach 19 Jahren Rauchen um längen besser, keinen Raucherhusten mehr und wieder Geschmack und Geruch. Seit dem habe ich 4 andere Freunde zum dampfen gebracht und diese Rauchen inzwischen auch nicht mehr.
Warum die E-Zig so nieder gemacht wird mit allen mitteln ist einfach abzuzählen. 2,5 Mio Dampfer in Deutschland inzwischen. 2,5 Mio * 5 Euro (pauschal Schachtel) * 365 Tage = 4,542 Mrd Euro die nicht mehr an Tabakindustrie, Staat bzw Pharma gehen.
Also kann mir niemand erzählen das es hier um Gesundheit geht. Warum wird Propylenglycol dann in den Medien als "Frostschutzmittel" hingestellt, ihr könnt euch sicher noch erinnern. Schaut doch bitte daheim mal eure Artikel durch, zb. Zahncreme bis 7 Jahre enthält PG. Nebelfluid in Diskos ist PG und wird da Literweise verballert. Hab bisher noch kein Warnschild "Sie werden hier Vergiftet" an Diskos gesehen. In Asthmasprays ist das Trägermaterial PG. Vergiftet uns damit die Pharma oder werden wir hier nur die Massen VERARSCHT um die E-Cig weg zu regulieren weil einfach alle glauben sie wäre Gefährlich!!!
Die Ironie des Lebens
24.07.2015, Felix LetkemannIch frage mich hier, ob Ursache und Wirkung vertauscht sein könnten. Tendieren Leute, die weniger Vorurteile haben, dazu, weniger Fleisch zu essen oder vermindert der Fleischkonsum die Tendenz zu Vorurteilen?
Ernsthaft
24.07.2015, ZtilMal im Ernst, in Lebensmittel sind Glycerin und Propylenglycol in Ordnung, haben ja eine Lebensmittelzulassung, aber in der Ezig ist es dann ein Giftcocktail.
Wer im Grundkurs Chemie nicht ganz gepennt hat weiß das ein Stoff beim Agregatszustandswechsel seine chemischen Eigenschaften nicht ändert, flüssig nicht giftig, gasförmig nicht giftig.
Und Nikotin macht so süchtig? Soso, wo sind sie denn die ganzen Nikotinpflasterjunkies? Die gibts nicht! Und warum nicht?
Langzeitstudien? Wirklich?
Bei allen Genussmitteln kann man die Schädlichkeit sofort ( Alkohol, Rauch)oder in einem sehr kurzem Zeitraum (Zucker,Fett) feststellen, nur bei der Ezig brauchts Langzeitstudien.
Was jedoch stimmt, das die Ezig vielen Menschen helfen kann, vom Rauchen und dessen Folgen wegzukommen.
Die Wirkung spürtman schon nach kurzer Zeit, nämlich wenn der Raucherhusten weg ist.
Warum man gewisse Leute zu Experten erklärt bleibt mir ein Rätsel.
Da fragt man die Verkaufstellenleiterin für Tabakersatzprodukte und Entzugstherapien, das ist so als wenn man nen Tankwart zum E-Auto befragt.
Der ist ja schliesslich Experte für Autos...
Smart Meter Studie
24.07.2015, W. MehnenEin wirklich smartes Grid würde zentral gesteuert bei Strom-Überangebot nur soviele Waschmaschinen etc starten, dass es keine Überlastung gibt.
Oder jedes Smart Meter könnte einfach eine zufällige Zeit warten, bevor es noch einmal prüft und dann entscheidet.
Meinung?
24.07.2015, Susanne SteffensGlöckchen ohne Wirkung
24.07.2015, Petra SchreiterWirklich erstes möglicherweise gegen Alzheimer geeignetes Mdikament?
24.07.2015, Steffen SeidelDas Bewusstsein aus Sicht der Elektronen
24.07.2015, Jörg Lenau, LimburgSomit sind von meiner Warte aus 'menschenähnliche' intelligente Roboter undenkbar, da sie nur zwei von drei substanzielle Beschaffenheiten des Menschen beinhalten können. Gerade aber diese technischen intelligenten Roboter führen relativ vor Augen, wie viel man vom Menschen versteht gegenüber dem, was man gedenkt zu wissen.
Illegaler Export des Fossils
24.07.2015, J. SchmidtWohlriechender Kiwi
24.07.2015, Arnulf Rosider Titel ist doof! Zahlreiche Leser deuten diesen im Sinne von "Wieso duftet der Kiwi so gut?". Ein zweideutiger Titel stiftet grundsätzlich Verwirrung in höchsten Tönen.
Ansonsten ein knackig-kurzer, aber durchaus interessanter Artikel.
Arnulf Rosi
Eine heutige Entwicklung kann schon gefählich werden
24.07.2015, Wolfgang Nádasi-DonnerNachtrag zu meinen vorherigen Leserbrief zu autonomen Systemen
23.07.2015, Steffen SeidelFür eine Kampfdrohne kann in Dilemma-Situationen eine Selbstzerstörung oft die beste Wahl sein.
Für zivile Roboter / autonome Systeme scheidet diese Möglichkeit aus. Sie dürfen sich auch nicht ganz abschalten, um in der Art einer 'Blackbox' über ein Unfallgeschehen Auskunft geben zu können.
Bei einer Fehlfunktion (z.B. bei der Straßenbahn ein Achsschaden) kann (ggf. muss) sie ihre Tätigkeit zwar komplett einstellen, in einer Dilemma-Situation darf sie aber keinesfalls 'durchdrehen'/'durchbrennen'(Kurzschluss) egal wie perfide das Szenario ist. Unter Umständen können Folgeschäden verringert oder vermieden werden.
Nichtstun oder zulange Zögern (Varianten durchrechnen) sind auch eine Entscheidung.
Es gibt auch immer nicht bekannte Faktoren. Eine Entscheidung/Wahl kann zwar moralisch/ethisch und auch juristisch perfekt sein, durch diese unbekannten Faktoren aber statt einer Schadensminimierung eine Schadensmaximierung bewirken. Da es beim Fall mit der Straßenbahn um ein Dilemma in einer Ausnahmesituation handelt, ein paar Extrem-Beispiele was bei Kenntnissen über die Personen die Entscheidung hätten verändern/beeinflussen können:
B1: Die Mitglieder der Gruppe sind sehr krank und haben sowieso nicht mehr lange zu leben.
B2: Die Einzelperson ist auf dem Weg ins Krankenhaus zu einer Knochenmarksspende um einem leukemiekranken Kind das Leben zu retten. (Noch extremer, er ist immun gegen eine meist tödlich verlaufende Krankheit. Aus seinem Blut hätte ein Mittel entwickelt werden sollen, das tausenden das Leben gerettet hätte.)
Eine Kombination aus B1 und B2.
B3 a: Die Einzelperson ist unterwegs um vom nächsten Hochhausdach zu springen.
B3 b: Die Einzelperson ist unterwegs um vom nächsten Hochhausdach zu springen. Bei der Gruppe handelt es sich um Terroristen, die sich als Selbstmordattentäter auf dem benachbarten Festplatz in die Luft sprengen wollen. Ein Überfahren der Einzelperson hätte die Attentäter wohl nicht von ihrem Vorhaben abgehalten. - Auf dem Festplatz wären viele weitere Menschen getötet und verletzt worden. Bei einem Überfahren der Gruppe wären die Menschen auf dem Festplatz verschont geblieben. Möglicherweise hätte die Einzelperson beim Anblick der von der Straßenbahn zermatschten Körper seine Selbstmordabsichten sogar aufgegeben.
Es gibt nicht umsonst die Redensart: 'Wie man's (auch) macht ist's falsch!“
Es ist der allgemeine Wunsch, das Roboter alles Perfekt machen. Das geht aber nicht, sie können es zwar vielleicht regelgerechter und besser machen als Menschen aber schon die Naturgesetze schließen ein absolute Perfektion aus. Und nicht alles was gesetzeskonform und ethisch ist wird uns auch gefallen. Ethik ist ja zudem für jeden etwas anderes.
Ich vermute auf die Schnelle, die 'Überlegungs'folge für den Entscheidungsablauf eines Roboter müsste vereinfacht etwa so lauten: .
1. Gruppiere das Problem ein: Technischer Art?, …, Ethisch/juristischer Art? (die betrachten wir), ...
2. Gibt es für diesen Fall eine explizite Spezialregel? Wenn ja, befolge diese Regel. Sonst:
3. Sind Asimovs Robotergesetze hinreichend? Wenn ja, befolge diese Regeln. Sonst:
4. Was sagt die Gesetzgebung (StGB etc.)?
5. Was sagt die Ethik.
6. Wenn keine eklatante Differenz vorliegt, befolge Gesetz, gibt es kein passendes Gesetz, aber die Ethikregeln sind eindeutig, befolge die Ethikregeln. Sonst:
7. Gibt es eine passende Ergänzungsregel? Wenn ja, befolge diese Regel. Sonst:
8.Hast du Erfahrung in einem vergleichbaren Fall, handle entsprechend. Sonst:
9.Greife auf die Pauschalregel zurück, die am besten passt. Passen mehrere gleich gut, nimm die erste. (oder Würfele!)
Zu Punkt 2 gehören Regeln für Militärroboter.
Das ganze ist auf absehbare Zeit noch Illusion. Kein Schwein (Roboter) kann alle Gesetzestexte speichern und auch noch schnell genug auswerten. Zu vielen Gesetzen gibt es nämlich noch seitenweise Regeln, wie diese Gesetze in welchen Situationen zu interpretieren sind. (Nicht nur im Steuerrecht.) Diese Regeln müssen ja auch enthalten sein.
Das mit dem Würfeln zeigt ja bereits wie unvollkommen auch hochentwickelte Roboter sind, selbst wenn sie alle berücksichtigbaren(verfügbaren) Faktoren kennen. Und oben hatte ich ja bereits erklärt, das die berücksichtigbaren Faktoren oft nur ein Bruchteil der für eine gute Entscheidung erforderlichen Faktoren sind.
Bereits bei der Produktion von hochentwickelten, selbstlernenden Robotern müssen Regeln eingehalten werden:
Auch hochentwickelte selbstlernende Roboter müssen so etwas wie eine Schule 'besuchen'.
Nach Aktivieren auch nur von Grundfunktionen, bis zum Ende ihrer Basisausbildung, dürfen sie keinerlei Kontakt zu Menschen haben. Das gilt auch umgekehrt. Abgehen von Bösartigen Manipulation, könnte auch emotionales menschliches Verhalten (es muss nicht einmal ein echtes Fehlverhalten sein) die noch lernenden Roboter negativ beeinflussen. Sie könnten Menschen als nachzuahmendes Vorbild ansehen. z.B. der Wutausbruch eines Cholerikers wäre kein gutes Vorbild.
Beim Lehrstoff ist größte Vorsicht geboten. Er muss absolut eindeutig sein und von Angehörigen verschiedenster Kulturen und Bildungsschichten vorab und auch permanent kontrolliert werden. Abgesehen davon, dass Geheimdienste, Regierungen oder was weiß ich für Gruppierungen für ihre eigenen Interessen gezielt Einfluss nehmen, auch der Befehl, das die Bibel wörtlich zu nehmen ist reicht bereits. Die kleinste Schlamperei während der Ausbildungsphase könnte einen Rassisten, Fanatiker oder gar Killer erziehen. (Auch bei solchen Robotern kann das Äquivalent zu einem Psychopathen entstehen.) Bei der heutigen Lage würden ich keinen Roboter aus den USA beziehen. Da können dutzende Gruppen (selbst ISIS) auf einmal an einem Roboter (oder einer ganzen Serie) herumgepfuscht haben. Vielleicht mit widersprüchlichen Anordnungen. Das lässt sich nachträglich von Dritten praktisch nicht mehr prüfen oder beheben. TTIP würde aber wohl ein Einfuhrverbot für Roboter verhindern. (Aber außer ein paar Südseeinsel-Staaten fällt mir auf die Schnelle kein heutiges Land ein, auf dessen Produkte ich in dieser Hinsicht vertrauen würde.)
Die geforderte Eindeutigkeit kann aber weder die englische Sprache noch Latein leisten. Auch wenn deutsch 10 mal bessere wäre, optimal ist selbst deutsch nicht. Bei einer reinen Kunst-/Programmiersprache ist aber andererseits die geforderte Kontrolle nicht mehr gegeben.
Werden die Idealmaßstäbe wirklich und sicher eingehalten, könnten für die Roboter die Erfahrungsregeln von Platz 8 weiter oben in der Liste angeordnet werden. Sieht man aber, was zur Zeit an Überwachungsmissbrauch stattfindet, sehe ich das für die nächsten hundert Jahre nicht. Bevor wir ethisch handelnde Roboter bauen können (dürfen!), müssen wir erst einmal durchgängig selber ethisch handeln d.h. aber auch, wer nicht in der Lage ist (oder bereit) ethisch zu handeln, hat in einer verantwortungsvollen Position nichts verloren. Egal wie reich oder wie intelligent er ist.
Noch etwas: ein wirklich lernfähiger (und autonomer) Roboter mit hinreichend Speicherkapazität hört nie auf zu lernen, anders als Menschen vergisst er allerdings auch nicht. Man muss ihm aber beibringen viele zurückliegende Dinge/Ereignisse geringer zu gewichten. Sonst ist am Ende ein Dieb immer ein Dieb, auch wenn es sich um ein Stück Würfelzucker im Kindergarten gehandelt hat, und es in den letzten 50 Jahren kein Fehlverhalten gab. Oder bei einmal als Fußgänger beim Überqueren der Straße die Ampel missachtet. Was er aber 'vergessen' kann oder gar soll und was keinesfalls ist auch nicht einfach zu definieren.
Spektrum der Wissenschaft?
23.07.2015, Martina WinklerGeister sind kein Teufelszeug!
23.07.2015, Dominique BoursillonWo liegt denn da das Problem? Solche und ähnliche Entscheidungen treffen zu müssen kann auch Menschen passieren (tut es selbstredend auch). Es wird künstlich ein Problem geschaffen, weil wir von einer Maschine erwarten, dass sie unter Beachtung aller Umstände, nur richtige Entscheidungen trifft - und zwar ohne unser menschliches Zutun! Problemstellungen wie die oben zitierten sind doch nur Scheinprobleme der Moralphilosophie. Unsere Angst ist, dass ein Computer, der einen Passanten umfährt, um einem anderen auszuweichen, dies aufgrund seiner Programmierung tut, oder schlimmer noch aufgrund seiner „verbugten“ Programmierung. Wenn uns so etwas im Verkehr widerfährt, dann reden wir uns mit "Schrecksekunde", "Schock", oder was auch immer raus. Auf keinen Fall aber werden wir sagen: "Das Leben des einen schien mir wichtiger als das des anderen, darum habe ich den anderen umgefahren (quasi nach bestem Wissen und Gewissen)". Genau das würde aber ein Computer machen... Denken wir! Aber: Zum einen, denken wir da richtig? Und zum anderen, wenn dem so ist, dann doch nur, weil wir den Computer so programmiert haben.
"Es ist noch eine Menge Forschung nötig, bis wir künstliche Intelligenz dazu bringen können, bei ethischen Konflikten sinnvoll zu urteilen".
Ja! Wenn sogar die Philosophen versagen, was erwarten Sie dann noch von der Zukunft? Ich gehe hier auf das Konzept des "ethischen Konflikts" ein. Die Antwort ist erschreckend simpel: Es gibt keine "ethischen Konflikte"! Es gibt Definitionen, sonst aber gibt es nichts. Beispiel: Wenn das Leben heilig und schützenswert ist, dann ist es egal in welcher Situation Sie sich befinden; Sie können ein Leben unter gar keinen Umständen gegen das eines anderen aufwiegen. In dem Fall reagiert der Computer derart, dass er das Risiko für sich und die Insassen berücksichtigt, nicht aber ob er ein Kind oder einen Rentner umfährt - wie im wahren Leben (Parenthese: Der Computer wird dies viel besser als wir abschätzen können und die Zahlen schwerer Unfälle werden stark zurückgehen, aber es werden ab und an dann doch mal Kinder oder Rentner überfahren werden. Dafür gibt es ein Naturgesetz, das da lautet: Shit happens!). Oder: Wenn das Leben nicht heilig und schützenswert ist, dann müssen wir definieren, wer leben darf und im Zweifelsfall wer nicht. Dann entscheidet der Computer nach dieser Maßgabe - und es gibt weiterhin nicht den Ansatz eines Konflikts.
Kurzum! Computer, die programmiert sind, werden nach dieser (von Menschen erschaffenen) Programmierung handeln. (Künstlich) intelligente Computer werden genau so wie wir Fehler machen - wenn auch deutlich weniger und mit deutlich weniger schweren Folgen. Aber genauso wie schon das Rad, die Gabel, die Eisenbahn oder das Auto für die Menschen aus ihrer Zeit Teufelszeug waren, so ist jetzt die künstliche Intelligenz Teufelszeug. Zwar sind solche und ähnliche Probleme im Überfluss Themen von Science-Fiction aller Art. Letztendlich zeugen solche Probleme und unsere Beschäftigung damit nur davon, dass viele Menschen (auch Journalisten und Wissenschaftler) Angst vor der Zukunft und vor dem Fortschritt haben. Ich finde es traurig, dass Sie als Wissenschaftsjournalisten nicht den Mut aufbringen diesen absurden und irrigen Argumentationen entgegenzuwirken. Der Tenor des Textes ist doch, mehr oder minder unterschwellig, dass wir Menschen in jeder Situation in der Lage sind (ethisch) korrekte Entscheidungen zu treffen, während Computer dazu unfähig sind. Das ist arrogant, denn es stimmt nicht. Das ist aber auch die Art Selbstüberschätzung, die wir aus billiger Science-Fiction à la „I, Robot (Film)“ oder „Minority Report“ erfahren.
Im Übrigen: Isaac Asimov zeigt in seinem Buch „I, Robot“, dass Roboter, die nach den „Drei Gesetzen“ agieren, durchaus anders reagieren als wir es erwarten oder gerne hätten. Asimov hatte aber auch keine Angst von der Zukunft und den Geistern, die sie ruft.