Philosophie für Roboter: Ethische Algorithmen für Maschinen mit Bewusstsein und Kognition?
Bis vor kurzem gehörten Robotsysteme in abgeschlossene Werkhallen, in denen sie Arbeiten am Fließband mit höchster Perfektion erledigten. Doch jetzt kommen die Serviceroboter – Maschinen, die mit berührungssensitivem Äußeren und intelligenter Software algorithmisch definierte Dienste erfüllen können. Autonome Roboter bewegen sich vielgestaltig durch die Labore und finden mehr und mehr den Weg hinaus in die reale Welt. Sie erfahren ihre Umwelt mit Hilfe von Sensoren, die sie mit dem in ihnen abgespeicherten Wissen, dem sogenannten Weltbild, vergleichen, um sich darin zurecht zu finden.
Solche autonomen Roboter können verschiedenste Bereiche abdecken: von OP-Helfern bis zu autonomen Fahrzeugen. Die Möglichkeit, diese Entitäten mit dem Netz zu verbinden, erlaubt ihnen eine direkte Auswertung des exponentiell wachsenden Wissens in der Big-Data-Cloud, sie können aber auch zu einem Netzwerk zusammen geschlossen werden, das autonom gemanagt wird: zum Beispiel bei der Vision des künftigen Verkehrssystems. Der wachsende Eingriff autonomer Systeme führt zu neuen Fragestellungen, die nicht mehr von Ingenieuren und Programmierern allein zu beantworten sind. Wer haftet im Falle des Versagens? Könnten Roboter künftig gar selbst zur "Verantwortung" gezogen werden? Das Beispiel der autonomen Fahrzeuge zeigt: Selbst in einem voll automatisierten, vom Fahrer restlos befreiten und fehlerfrei arbeitenden Verkehrssystem mit autonomen Fahrzeugen lassen sich Unfälle nicht gänzlich ausschließen. Es braucht dafür nur einen unerwarteten Eindringling ins geordnete System: der Mensch als Störfaktor. Im Fall eines bevorstehenden Unfalls mit Personenschaden: Wie soll der Algorithmus gestaltet sein, dass auch ethische Fragestellungen berücksichtigt sind? Dieser Frage ging Alexander Hevelke nach, Doktorand der Philosophie an der Uni München und Projektmitglied bei "RoboLaw", ein von der EU gefördertes Projekt zu rechtlichen und ethischen Fragen im Zusammenhang mit autonomen Systemen.
Philosophen sprechen von einer Nutzen-Summen-Programmierung. Dass der zu erwartende Materialschaden in eine solche Abwägung mit einfließen muss, ist selbstverständlich. Aber Verwerfungen entstehen spätestens dann, wenn es um die Bewertung einzelner Individuen geht. Welche Nutzenkriterien sollen für eine Schadensminimierung bei Personen algorithmisiert werden? Die Minimierung der Anzahl der betroffenen Personen? Oder auch ihr Alter und ihr Gesundheitszustand? Womöglich die Bedeutung einer Person für die Gesellschaft? Noch sind die Voraussetzungen für eine zeitkritische Auswertung nicht gegeben. Aber einst wird das digitale Abbild des Einzelnen in der Big-Data-Cloud verfügbar sein. Sollen solche Daten dann für die zeitkritische, ethische Handlungsentscheidung autonomer Systeme herangezogen werden? Oder wäre es grundsätzlich besser, einen Zufallsgenerator als probabilistische Notfallinstanz einspringen zu lassen?
Julian Nida-Rümelin, der mit seinem Lehrstuhl für Philosophie und Politische Theorie der Uni München am Projekt "RoboLaw" maßgeblich beteiligt war, ist überzeugt, dass Ethik nicht programmierbar ist – ihre Algorithmisierung sei aus philosophischer Sicht ein "nicht lösbares Dilemma". Ein generell vorab festgelegtes Wertesystem für autonome Systeme sei nicht akzeptabel. Ethik und programmierte Maschine – das gehöre grundsätzlich nicht zusammen, so meint er kategorisch. Selbst wenn autonome Systeme einmal Bewusstsein erlangen sollten, dann wären solche Existenzen dennoch nicht dem Menschen gleich zu setzen. Eine völlig gegenteilige Meinung vertritt der Rechtsphilosoph Reinhard Merkel von der Uni Hamburg. Für ihn wäre es sogar zwingend erforderlich, solchen autonomen Wesen mit Bewusstsein und kognitiven Fähigkeiten Menschenrechte einzuräumen. Beide Positionen zeigen das Spektrum einer Diskussion auf, die noch in den ersten Anfängen steckt. Einig sind sich Vertreter unterschiedlicher Standpunkte jedoch darin, dass es für die Gesellschaft an der Zeit ist, sich mit solchen Fragen auseinanderzusetzen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.