Künstliche Intelligenz: Wo bleibt der Mensch?
Am 12. Oktober veröffentlichte das Weiße Haus einen Bericht über die Zukunft der künstlichen Intelligenz (KI) – dieser war das Ergebnis von vier Workshops, die zwischen Mai und Juli 2016 in Seattle, Pittsburgh, Washington D. C. und New York City stattfanden. Auf den von uns mitorganisierten Veranstaltungen diskutierten die führenden Köpfe verschiedenster Bereiche, wie die künstliche Intelligenz unser Leben verändern wird. Dutzende Präsentationen versprachen Fortschritte beim maschinellen Lernen und bei diversen KI-Techniken, die in Zukunft eine ganze Reihe komplexer Aufgaben in unserem täglichen Leben übernehmen sollen, sei es die Erkennung von Hautveränderungen, die auf Krebs im Frühstadium hindeuten können, oder die Verringerung der Energiekosten von Rechenzentren.
Doch während der Workshops wurde auch deutlich, worüber bisher viel zu wenig nachgedacht wurde. Denn auch wenn autonome Systeme bereits in unseren wichtigsten sozialen Institutionen wie Krankenhäusern und Gerichtssälen eingesetzt werden, so fehlen doch allgemein anerkannte Methoden, um ihre langfristigen Auswirkungen auf die Bevölkerung zu untersuchen. In den letzten Jahren gab es ungeheure Fortschritte auf dem Gebiet der künstlichen Intelligenz. Die Entwickler und Forscher der verschiedenen Fachrichtungen müssen sich aber noch mit dem befassen, was wir "social systems analysis" nennen – nämlich mit dem Einfluss der Technologien auf das soziale, kulturelle und politische Umfeld.
Dabei wäre beispielsweise zu untersuchen, wie sich das Verhältnis zwischen Arzt und Patient verändert, wenn die App "AiCure" genutzt wird, mit der sich die Einnahme verordneter Medikamente verfolgen lässt, indem die Informationen hierzu direkt an den Arzt übermittelt werden. Zu ermitteln wäre auch, ob die Abfrage gesammelter Daten zur Vorhersage von Straftaten dazu führt, dass Randgruppen übermäßig durch die Polizei kontrolliert werden. Eine weitere Frage wäre, warum Großinvestoren erfahren dürfen, warum und wie es zu bestimmten Finanzentscheidungen durch Mitarbeiter und Algorithmen kommt, während Geringverdienern oft unklar bleibt, warum etwa ihr Kreditantrag abgelehnt wurde.
Ungetestete KI-Systeme in sozialen Institutionen
"Die Menschen haben Angst, dass Computer zu schlau werden und unsere Welt übernehmen könnten. Das eigentliche Problem ist aber doch, dass sie dumm sind und die Welt bereits übernommen haben", fasst es der Computerwissenschaftler Pedro Domingos in seinem 2015 veröffentlichten Buch "The Master Algorithm" zusammen. Etliche Forscher wollen nicht von technologischer Einzigartigkeit sprechen, weil das Feld ihrer Meinung nach noch viel zu jung ist; nichtsdestoweniger unterstützen sie die Einführung eines vergleichsweise ungetesteten KI-Systems in sozialen Institutionen.
Der große Enthusiasmus der KI-Forscher hat dazu beigetragen, dass diese Systeme nun schon vielfach eingesetzt werden, sei es zur Unterstützung der Diagnosestellung in der Medizin, zur Beratung in Anwaltskanzleien über die Chancen vor Gericht, in Finanzinstituten zur Entscheidung über Kredite und von Arbeitgebern bei der Auswahl neuer Mitarbeiter. Laut Analysten werden in Zukunft immer mehr solcher KI-Systeme in den verschiedensten Bereichen zum Einsatz kommen, und Marktanalysen sehen deren ökonomischen Wert im Milliarden-Dollar-Bereich; laut IBMs CEO Ginni Rometty könnten es im kommenden Jahrzehnt sogar zwei Billionen US-Dollar sein. Genaue Schätzungen sind zugegebenermaßen schwierig, nicht zuletzt, weil es keinen Konsens darüber gibt, was überhaupt alles zur künstlichen Intelligenz zu zählen ist.
Die Applikationen der künstlichen Intelligenz werden bei Vorhersagen und Entscheidungsfindungen nicht unbedingt schlechter abschneiden als die bisher vom Menschen bedienten Systeme. Im Gegenteil, Ingenieure sehen darin sogar Chancen, die Voreingenommenheit und Vorurteile von Menschen in Entscheidungsprozessen zu erkennen und einzudämmen. Studien zeigen aber auch, dass die Nachteile der Systeme unverhältnismäßig stark jene Gruppen treffen, die ohnehin schon wegen ihrer ethnischen Zugehörigkeit, ihres Geschlechtes oder ihres sozioökonomischen Hintergrunds benachteiligt sind (PDF). So zeigt eine Studie aus dem Jahr 2013 den Zusammenhang von Vornamen als Suchbegriff bei Google und dem Aufpoppen von Werbung. Wenn Namen eingegeben wurden, die unter Afroamerikanern geläufig sind, war die Wahrscheinlichkeit für das Aufpoppen der Anzeige eines Portals zur Vorstrafenregistersuche um 25 Prozent höher als beim Eingeben typischer Namen von Weißen. Eine Untersuchung von ProPublica vom Mai 2016 stellte außerdem fest, dass die von Richtern häufig genutzten nichtöffentlichen Algorithmen zur Vorhersage von Wiederholungstätern fast doppelt so oft fälschlicherweise schwarze Angeklagte nennen als weiße.
Drei Möglichkeiten zur Abhilfe
Wie lassen sich solche Effekte vermeiden? Bisher wird auf drei Arten den Sorgen über den Einfluss der KI-Systeme im sozialen und ethischen Bereich entgegengetreten: durch das Einhalten von Regeln, durch Werte in der Entwicklung und mittels Gedankenexperimenten. Alle drei sind wertvoll. Keine ist aber allein ausreichend, auch nicht in Kombination mit den anderen .
Aufstellen und Einhalten von Regeln
Die meisten Unternehmen ergreifen Maßnahmen, um die "Best-Practice"-Regeln der Industrie und die gesetzlichen Auflagen einzuhalten und auf diese Weise Überprüfungen durch die Behörden, die Presse und andere Institutionen zu umgehen. Das kann für kurze Zeit Vorteile bringen. Google optimierte beispielsweise seinen Algorithmus zur Bildanalyse, nachdem das System 2015 ein afroamerikanisches Paar fälschlicherweise als Gorillas bezeichnet hatte. Google will in sein KI-System auch eine Art Alarmknopf für Forscher einführen, falls das System außer Kontrolle zu geraten scheint (PDF).
In ähnlicher Weise machte Facebook eine Ausnahme von seiner Regel, Bilder nackter Kinder von seinen Seiten zu entfernen, nachdem es öffentliche Kritik gegeben hatte über die Zensur des mit dem Pulitzerpreis gekrönten Fotos eines nackten Mädchens namens Kim Phúc, das vor einem Napalm-Angriff in Vietnam flieht. Und erst im September 2016 beschlossen die führenden Giganten der künstlichen Intelligenz, einschließlich Microsoft, Amazon und IBM, eine Partnerschaft einzugehen, um die Öffentlichkeit besser zu informieren und eine Reihe gemeinsamer Standards zu entwickeln.
All dies sind aber vielleicht auch nur spontane Reaktionen, die sich letztlich als unzureichend erweisen könnten, wenn es nicht genügend kritische Stimmen und unabhängige Mitarbeiter gibt. Die neue KI-Partnerschaft lädt Ethiker und zivilgesellschaftliche Organisationen zur Mitwirkung ein, doch es bleiben Bedenken, dass die Firmen ihre KI-Systeme relativ frei in der Gemeinschaft testen können, ohne vorab die mittel- oder sogar kurzfristigen Effekte untersuchen zu müssen.
Werte in der Entwicklung
Dank der Pioniere der Ethik in der Entwicklung von Technologien, darunter auch die einflussreichen Gelehrten Batya Friedman und Helen Nissenbaum, gibt es inzwischen Rahmenkonzepte wie das "Value Sensitive Design" oder das der "Verantwortungsvollen Innovationen", die den Forschern und Unternehmen beim Auffinden möglicher Interessengruppen und deren Werten helfen sollen. So wird unter anderem die Ausrichtung auf Zielgruppen dazu genutzt, die Meinung der Leute zu Privatsphäre, Umwelt und anderen Themen herauszufinden. Die Wertvorstellungen der zukünftigen Anwender sollen dann in neue Entwicklungen einfließen, seien es Handy-Apps oder fahrerlose Autos. Die Entwickler der Applikationen sollten sich dabei aber noch viel häufiger dieser wichtigen Tools bedienen.
Man darf dabei auch nicht übersehen, dass diese Hilfsmittel meist unter der Annahme arbeiten, ein betreffendes System würde tatsächlich entwickelt. Bei Entscheidungen darüber, ob es überhaupt dazu kommen soll, können sie den Designern, politischen Entscheidungsträgern oder der Gesellschaft nur wenig helfen. Ebenso wird es schwierig, wenn ein Prototyp zu unausgereift oder zu unzuverlässig ist, um in Infrastrukturen wie Krankenhäusern oder Gerichtssälen eingesetzt zu werden.
Gedankenexperimente
In den letzten Jahren wurde die öffentliche Debatte immer von rein hypothetischen Situationen dominiert, wenn es um den Einfluss der künstlichen Intelligenz auf die Gesellschaft ging. Die Möglichkeit, dass der Mensch ein hochintelligentes System entwirft, das letzten Endes ihn selbst beherrscht oder sogar zerstört, wurde bereits ausgiebig diskutiert (zum Beispiel hier). Auch das schon 1967 aufgebrachte Trolley-Problem wird inzwischen wieder bemüht, weil es als Gedankenexperiment die Frage nach Verantwortung und Schuld stellt. In dem Beispiel kann eine Person eine außer Kontrolle geratene Straßenbahn entweder auf den Schienen weiter rollen lassen, auf denen fünf Männer arbeiten, oder sie durch eine Weichenstellung auf einen anderen Schienenstrang umleiten, auf dem sich nur eine Person befindet. Dieses hypothetische Szenario wurde nun schon mehrmals auf selbstfahrende Autos übertragen, bei denen automatisierte Entscheidungen getroffen werden müssen, die eigentlich ethische Wahlmöglichkeiten darstellen.
Die Roboterapokalypse – die Aussicht, dass ein fahrerloses Auto eine Entscheidung über Leben und Tod fällen muss – verdeutlicht den engen Rahmen für moralische Schlussfolgerungen. Das Trolley-Problem bietet bei größeren sozialen Fragen wenig Hilfe: Welchen Wert haben hohe Investitionen in autonome Autos anstatt in öffentliche Verkehrsmittel? Wie sicher muss ein fahrerloses Auto sein, bevor es sich durch unsere Welt bewegen darf (und welche Tools sollten zur Entscheidung hierüber genutzt werden)? Welchen Einfluss haben autonome Fahrzeuge auf die Verkehrsbelastung, die Umwelt oder die Beschäftigung?
Soziale Auswirkungen dürfen nicht vergessen werden
Unserer Meinung nach ist noch ein vierter Punkt wichtig: Wir müssen mit einem praktischen und allgemein anwendbaren Tool den Einfluss der KI-Systeme auf alle sozialen Bereiche untersuchen. Dazu gehört auch der Einfluss auf den Ebenen Konzeption, Entwicklung, Einsatz und Regulierung. Zunächst müssen Forscher – und zwar aller Disziplinen, Regierungsabteilungen und Industriezweige – prüfen, wie Unterschiede im Zugang zu Informationen, im Wohlstand und in den Basisdienstleistungen all die Daten beeinflussen, die letzten Endes die KI-Systeme trainieren.
Ein Beispiel sind die durch Algorithmen generierten "Heatmaps", mit deren Hilfe in Chicago Personen ermittelt werden, die sehr wahrscheinlich in Schießereien verwickelt sein werden. Eine aktuelle Studie zeigte nun aber, wie wirkungslos solche Karten eigentlich sind: Sie erhöhen zwar die Wahrscheinlichkeit, dass bestimmte Personen durch die Polizei kontrolliert werden; die Kriminalität wird dadurch aber nicht gesenkt. Ein gesellschaftlich relevanter Ansatz würde den sozialen und politischen Ursprung der in den Heatmaps verrechneten Daten berücksichtigen. Dafür müssten jedoch die Mitglieder der Gruppierungen befragt und die Daten der Polizei mit diesen Rückmeldungen hinsichtlich Nachbarschaft und Überwachung abgeglichen werden, sowohl die positiven wie die negativen. Dabei könnten auch Untersuchungsergebnisse von Aufsichtsgremien und Justizbehörden miteinbezogen werden. Solch eine Analyse würde auch fragen, ob Risiken und Vorteile des Systems gleichermaßen berücksichtigt werden – im genannten Fall also, ob die Polizei mit denselben Systemen untersucht, welche Beamten sich wahrscheinlich falsch verhalten oder gewalttätig reagieren.
Ein weiteres Beispiel gibt eine Studie aus dem Jahr 2015, in der mittels maschinellen Lernens vorhergesagt werden soll, welche Krankenhauspatienten eine Lungenentzündung entwickeln werden. Die Methode funktionierte eigentlich gut, machte jedoch einen entscheidenden Fehler: Sie wies nämlich die Ärzte an, Patienten mit Asthma zu entlassen, obwohl diese eigentlich zur Hochrisikokategorie gehören. Da Asthmapatienten in dem Krankenhaus gleich automatisch auf die Intensivstation verlegt wurden, waren ihre Namen nur selten in den Dateilisten der weiterhin zu behandelnden Patienten zu finden, auf deren Basis das System ursprünglich gelernt hatte. Eine so genannte "social systems analysis", sprich eine umfassende Analyse der sozialen Auswirkungen, würde auch die Krankenhausrichtlinien und andere Faktoren wie Versicherungsverfahren berücksichtigen, die in alle Patientenakten eingehen.
Solche Untersuchungen könnten auch klären, ob und wann Betroffene überhaupt wissen wollen, wie die relevanten KI-Systeme funktionieren. Finanzberater konnten schon immer nur beschränkt KI-Systeme anwenden, weil ihre Kunden erwarten, dass ihnen alle Entscheidungen dargelegt und erklärt werden. Dagegen haben andere, von KI-Systemen abhängige Personen oft weniger Möglichkeiten (siehe: "The AI-Now Report" (PDF)).
Eine Analyse der sozialen Auswirkungen der künstlichen Intelligenz muss auch auf philosophische, rechtliche, anthropologische und Wissenschafts- oder Technologiestudien zurückgreifen. Ebenso ist einzubeziehen, wie soziale, politische und kulturelle Werte die technologischen Veränderungen und die wissenschaftliche Forschung beeinflussen beziehungsweise durch sie beeinflusst werden. Nur wenn weitreichendere Fragen zum Einfluss der künstlichen Intelligenz gestellt werden, können wir ein umfassenderes Verständnis erzielen; durch eine Analyse der KI in abgegrenzten Bereichen wie der Computerwissenschaft oder der Kriminologie erreichen wir das nicht.
Es gibt aber auch viel versprechende Entwicklungen. Der kürzlich in New York City stattgefundene Kongress namens Fairness, Accountability, and Transparency in Machine Learning ist ein gutes Beispiel dafür. Doch Geldgeber, seien es Regierungen, Stiftungen oder Unternehmen, sollten noch viel häufiger in Ansätze investieren, die sich dem Feld der künstlichen Intelligenz von unserer Warte aus nähern wollen. KI führt zu kulturellen und technologischen Verschiebungen, ganz ähnlich wie andere Wendepunkte in der Vergangenheit, etwa die Einführung der Druckerpresse oder der Eisenbahn. Autonome Systeme verändern Arbeitsplätze, Straßen und Schulen. Wir müssen sicherstellen, dass solche Veränderungen für uns von Vorteil sind, bevor sie unser tägliches Leben noch weiter beeinflussen.
Dieser Artikel erschien unter dem Titel "There is a blind spot in AI research" in "Nature".
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.