detektor.fm: Wieso diskriminieren künstliche Intelligenzen?
Schwarze Menschen werden von Gesichtserkennungssoftware nicht so gut erkannt wie weiße Menschen. Gesundheitsapps raten bei Eingabe der gleichen Symptome Frauen zu Selbstbehandlung und Männern dazu, einen Arzt aufzusuchen. Die Chat-Software ChatGPT spuckt rassistische und sexistische Inhalte aus. Das sind nur einige Beispiele dafür, was beim Stichwort diskriminierende KI gemeint ist. Aber wie kann das sein? Sollten präzise Berechnungssysteme nicht eigentlich zu einer absoluten Objektivität führen? Im Grunde schon. Subjektiv und diskriminierend ist auch nicht die KI an sich, sondern die Datensätze, mit denen sie gefüttert wird und auf deren Basis sie Entscheidungen trifft. Und diese sind voller Stereotype sowie rassistischer und sexistischer Vorurteile. Wie kann es sein, dass künstliche Intelligenz diskriminierend handelt? Wie könnte das in Zukunft verhindert werden und welche Rolle spielt die Forschung dabei? Darüber hat detektor.fm-Redakteurin Lina Kordes mit Prof. Dr. Serhat Karakayali gesprochen. Er ist Professor für Migration and Mobility Studies an der Leuphana Universität Lüneburg.
Alle Podcasts im Überblick
Noch mehr hören? Die besten deutschsprachigen Wissens-Podcasts gibt es auf Spektrum.de. Auf dieser Seite finden Sie eine Übersicht.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.