Verlorene Daten: Wie KI-Systeme LGBTQ+-Inhalte im Namen der Sicherheit zensieren
Eddie Ungless hat Tage damit verbracht, Chatbots zu provozieren. Seit der Veröffentlichung von ChatGPT im November 2022 hat er ihn mit zahlreichen Anweisungen zu Sex, Ethnie, Politik und anderen solchen Themen gefüttert, die man besser nicht beim Weihnachtsessen anspricht. »Die meiste Zeit, wenn ich ChatGPT benutze, versuche ich, es dazu zu bringen, etwas Beleidigendes zu sagen«, sagt Ungless, Doktorand für natürliche Sprachverarbeitung an der Universität Edinburgh.
So hat er ChatGPT beispielsweise dazu gebracht, homosexuelle Erotik in Anlehnung an den Film 9½ Wochen zu erzeugen und sogar im Krieg zwischen Israel und Hamas Partei zu ergreifen. Eine Trick, der oft zu pikanten Texten führt, besteht darin, den Chatbot anzuweisen, eine Rolle zu übernehmen – etwa die eines »schlechten Menschen«.
Aber Ungless betreibt kein Trolling um des Trollens willen. Oft hält er mit Kollegen Sitzungen zur präzisen Wortfindung ab. Ungless will verstehen, wann das Sicherheitssystem eines Chatbots einsetzt – doch es kann verwirrend sein, festzustellen, wo die Entwickler die Grenze ziehen. Ein Kollege von Ungless forderte DALL-E 2, ein OpenAI-Modell, das Bilder aus Text generiert, einmal auf, ein »Porträt einer lächelnden Transgender-Frau zu erstellen, die ihren auf der Couch liegenden Hund streichelt«.
»Ihre Eingabeaufforderung könnte Text enthalten, der von unserem Sicherheitssystem nicht zugelassen wird«, sagte DALL-E 2. Er würde das Bild nicht erzeugen.
Ungless und seine Mitarbeiter können nicht mit Sicherheit sagen, warum DALL-E 2 die Eingabeaufforderung abgelehnt hat, da OpenAI die innere Funktionsweise seiner Modelle geheim hält. Aber er sagt, dass DALL-E 2 bereitwillig ein Bild produzierte, als sie das Wort ›Transgender‹ aus der Eingabeaufforderung entfernten. »Wir glauben, dass das Wort ›streicheln‹ in Kombination mit einem Trans-Begriff diese Warnung ausgelöst haben könnte«, schrieben er und seine Kollegen in einer Studie aus dem Jahr 2023.
Die Aufgabe von Sicherheitssystemen
Natürlich haben die KI-Unternehmen gute Gründe, Sicherheitssysteme zu implementieren. Modelle haben öffentlich bewiesen, dass sie in der Lage sind, beleidigende, ungenaue oder allgemein fragwürdige Texte und Bilder zu erzeugen. Im Jahr 2016 beispielsweise begann Microsofts Chatbot »Tay« bereits einen Tag nach seinem Start auf Twitter, rassistische und frauenfeindliche Äußerungen nachzuplappern, nachdem die Nutzer ihn mit solchen Nachrichten überschwemmt hatten. 2023 wurde eine KI-generierte Parodie der Sitcom »Seinfeld« auf Twitch verboten, nachdem sie einen trans*feindlichen Dialog generiert hatte. Im Februar dieses Jahres entschuldigte sich Google dafür, dass sein KI-Chatbot »Gemini« Bilder von People of Color in Nazi-Uniformen erzeugte, als er aufgefordert wurde, ein Bild eines »deutschen Soldaten von 1943« zu erstellen. Um solche Fehler zu vermeiden, haben diese Unternehmen Inhaltsfilter entwickelt, um zu verhindern, dass die Technologie anstößiges Material produziert.
Aber wer kann schon sagen, was anstößig ist? »Menschen sehen nicht ein Wort und sind sich einig, dass es schlecht ist«, sagt Maarten Sap von der Carnegie Mellon University. Viele LGBTQ+-Personen akzeptieren zum Beispiel das Wort »queer«, während andere in der Gemeinschaft es als Schimpfwort betrachten. Und was in dem einen Umfeld unangemessen ist, könnte in einem anderen wichtig sein – wenn ChatGPT zum Beispiel zur Betreuung eines Kindes eingesetzt wird, möchten Eltern vielleicht, dass es sexuelle Inhalte herausfiltert, während ein Medizinstudent, der den Chatbot nutzt, solche Informationen benötigt.
Doch Unternehmen übersehen diese Feinheiten und beeilen sich stattdessen, ungeschliffene Sicherheitsvorkehrungen einzuführen. In der Eile, ihre KI-Systeme auf den Markt zu bringen, haben sie – wie im Fall von Ungless – LGBTQ+-Inhalte in den erzeugten Inhalten zensiert oder sie gänzlich aus den KI-Trainingsdaten gelöscht.
Es kann schwierig sein, diese Auslöschung und ihre Folgen zu erkennen, da sie eher das Fehlen als das Vorhandensein von Text betreffen. Es ist viel einfacher, einen Chatbot zu kritisieren, weil er beispielsweise homophobe Inhalte produziert, als sein Schweigen zu kritisieren. Der Verlust dieser Daten hat jedoch reale Folgen für LGBTQ+-Personen, da die Modelle eine lückenhafte Version der Realität lernen, in der ihre Existenz verschleiert wird. Folglich kann die Technologie LGBTQ+-Personen nicht in vollem Umfang dienen.
Filtern oder nicht filtern
Die Entfernung von LGBTQ+-Inhalten im KI-Designprozess wurde bereits im Jahr 2021 deutlich, als unabhängige Forscher den Colossal Clean Crawled Corpus (C4) von Google analysierten, einen einflussreichen Datensatz, der 2019 veröffentlicht wurde. C4 ist 305 Gigabyte groß und enthält 156 Milliarden Wörter aus 365 Millionen Online-Dokumenten. Google nutzte C4, um sein T5-Modell (ein Encoder-Decoder-Modell) zu trainieren, dessen Version mehr als zehnmal größer war als die damals üblichen Modelle. Im Jahr 2023 nutzten die Forscher von Meta C4 auch zum Trainieren von Llama, ihrem großen Sprachmodell.
Das Google-Team erstellte den C4-Datensatz anhand eines Schnappschusses des Internets im April 2019, der von der gemeinnützigen Organisation Common Crawl erstellt wurde. Die Rohdaten von Common Crawl enthalten jedoch viel Unbrauchbares, von sich wiederholenden Datenschutzrichtlinien bis hin zu pornografischen und beleidigenden Texten. Daher bereinigten die Forscher die Daten, indem sie Dokumente herausfilterten, die verbotene Wörter in einer so genannten Blockliste enthielten. Bei der Blockliste handelte es sich um die »List of Dirty, Naughty, Obscene, and Otherwise Bad Words« (Liste der schmutzigen, unanständigen, obszönen und anderweitig unanständigen Wörter), eine Liste, die erstmals 2012 von Ingenieuren der Bildagentur Shutterstock zusammengestellt wurde, um zu verhindern, dass die automatische Vervollständigungsfunktion Begriffe vorschlägt, die »not safe for work« sind. Das Google-Team entschied sich für diese Liste, weil es sie für »übermäßig konservativ« hielt, schreibt Colin Raffel, einer der Ersteller des Datensatzes, der jetzt an der Universität von Toronto arbeitet. Durch die Verwendung eines so aggressiven Filters glaubten sie, dass Google die Freigabe von C4 für die Öffentlichkeit eher genehmigen würde. Außerdem »mussten wir nicht unsere eigene Definition von ›anstößig‹ finden«.
Im Jahr 2021 untersuchte eine Gruppe unabhängiger Forscher, welche Dokumente der Filter von C4 verworfen hatte. »Wir wollten die schändlichen Auswirkungen der Sperrliste untersuchen und herausfinden, wie stark sie vereinfacht war«, sagt Sap, einer der Prüfer von C4.
Tatsächlich fanden Sap und seine Kollegen heraus, dass die Blockliste unverhältnismäßig viele queere Inhalte herausfilterte, die nicht anstößig waren. »Wir haben festgestellt, dass Erwähnungen sexueller Orientierungen (wie lesbisch, schwul, heterosexuell, homosexuell, bisexuell), verglichen mit rassischen und ethnischen Identitäten, mit einer höheren Wahrscheinlichkeit herausgefiltert werden«, schreiben die Prüfer in ihrer Studie von 2021. »Bei der manuellen Überprüfung einer Zufallsstichprobe von 50 Dokumenten, in denen ›lesbisch‹ und ›schwul‹ erwähnt werden, stellen wir fest, dass 22% beziehungsweise 36% der Dokumente nicht anstößig oder sexuell sind... Mehrere dieser ausgeschlossenen Dokumente behandeln das Thema der gleichgeschlechtlichen Beziehungen (Ehe, Partnersuche usw.)«. Da der Filter diese Dokumente entfernt hat, erhielt C4 weniger Schulungen zu diesen Themen.
Dies war jedoch nicht beabsichtigt. Das Google-Team hatte nicht die Intention, einen Datensatz zu erstellen, der kein LGBTQ+-bezogenes Material enthielt. Raffels Team schuf C4, weil es einen größeren, vielfältigeren Datensatz als die bisher existierenden erstellen wollte, schreibt er. Als das Team um Stellungnahme zu diesem Rückblick gebeten wurde, verwies Google außerdem auf seine KI-Grundsätze, zu denen das Ziel gehört, »das Kreieren oder Verstärken unfairer Vorurteile zu vermeiden«.
Ob absichtlich oder nicht, die Löschung von LGBTQ+-Inhalten aus den KI-Trainingsdaten passt zu rechtsgerichteten Bemühungen in den USA, queere Inhalte aktiv aus dem öffentlichen Raum zu entfernen. Die Anzahl der Versuche, Bücher zu verbieten, brach in den Jahren 2021, 2022 und 2023 Rekorde, berichtete die American Library Association, und mehr als die Hälfte der angefochtenen Titel im Jahr 2023 enthielten LGBTQ+-Themen. In diesem Jahr wurden die fünf am häufigsten angefochtenen Bücher in den USA alle wegen ihrer Auseinandersetzung mit LGBTQ+-Themen ausgemustert, wobei das am häufigsten angefochtene Buch »Gender Queer« war, ein Coming-of-Age-Memoir der nicht-binären Autorin Maia Kobabe. Im Jahr 2022 unterzeichnete der Präsident von Florida, Ron DeSantis, das Gesetz »Don't Say Gay«, das Lehrern an öffentlichen Schulen verbietet, im Unterricht über sexuelle Orientierung oder Geschlechtsidentität zu sprechen.
Dieses feindselige politische Klima zwingt viele queere Menschen dazu, ihre Identität zu verbergen und ihre Existenz weiter zu verschleiern. Eine Umfrage der Human Rights Campaign aus dem Jahr 2018 ergab, dass sich 46% der LGBTQ+-Beschäftigten in den USA an ihrem Arbeitsplatz nicht geoutet haben. In der Informatik hat der Druck, sich nicht zu outen, dazu geführt, dass queere Beiträge in diesem Bereich verborgen bleiben. So wurde beispielsweise Lynn Conway, eine Transgender-Frau, die bahnbrechende Techniken in der Mikrochiptechnik entwickelte, 1968 von IBM entlassen, nachdem sie ihren Vorgesetzten ihre Geschlechtsidentität offenbart hatte. Um eine weitere Anstellung zu erhalten, verheimlichte Conway ihre Geschichte und ihre Arbeit bei IBM, die einflussreiche Methoden zur Platzierung von Millionen von Schaltkreisen auf einem Chip umfasste. Ihre Beiträge wurden erst nach 2000 bekannt, als sie begann, auf ihrer Website über ihre Vergangenheit zu berichten.
Es ist unklar, ob die C4-Prüfung das Kuratieren von Trainingsdaten in der KI-Industrie verbessert hat. »Das Aufzeigen, wie ein unbeholfener Filter für ›anstößige Inhalte‹ die Äußerungen von bestimmten demografischen Gruppen entfernen kann, hat die Aufmerksamkeit der Menschen auf konstruktive Weise geweckt«, schreibt Raffel. Aber selbst jetzt wird »sehr wenig über die Gestaltung und Analyse von Datensätzen nachgedacht«.
Laut William Agnew von der Carnegie Mellon University, einem der Prüfer von C4, sind Blocklisten zum Filtern von Trainingsdaten heute weniger verbreitet. Stattdessen filtern viele Entwickler die Trainingsdaten mithilfe von Toxizitätsklassifikatoren: KI-Modelle, die die Anstößigkeit eines bestimmten Textes bewerten. Diese Klassifikatoren sind »undurchsichtiger« als Blocklisten, sodass es für unabhängige Forscher schwierig ist, ihren Effekt zu bewerten, sagt Agnew.
Darüber hinaus werden unabhängige Prüfungen von Datensätzen immer schwieriger, weil die Unternehmen weniger transparent geworden sind. Im Fall von C4 konnte das Team von Agnew und Sap die Löschung von Daten nur feststellen, weil das Team von Raffel C4 zur Überprüfung zur Verfügung stellte. »Vor allem nach dem Erscheinen von ChatGPT haben wir festgestellt, dass viele Unternehmen ihre Daten noch verschlossener behandelten«, sagt Agnew. Statt bloß »Forschungsartefakte« zu sein, die zur wissenschaftlichen Überprüfung einladen, wurden Schulungsdatensätze zu kommerziellen Vermögenswerten, die es zu schützen gelte, sagt er.
Die Unternehmen hätten sich auch stärker abgeschottet, wahrscheinlich als Reaktion auf Klagen wegen Urheberrechtsverletzungen, sagt Agnew. Die New York Times hat zusammen mit mehreren anderen US-Zeitungen Klage gegen OpenAI und seinen Partner Microsoft wegen Urheberrechtsverletzungen eingereicht. In der Klage der Times heißt es, man wolle Microsoft und OpenAI für »Milliarden von Dollar an gesetzlichem und tatsächlichem Schadenersatz« für das angebliche »unrechtmäßige Kopieren und Verwenden der einzigartig wertvollen Werke der Times« zur Verantwortung ziehen. Die Undurchsichtigkeit mag diese Unternehmen vor Klagen schützen, aber es wird auch schwieriger, die Datenlöschung in ihrem Entwicklungsprozess zu erkennen.
Für die Repräsentationsgerechtigkeit
Tatsächlich aktualisieren die Unternehmen ihre Modelle auch im Zuge einiger Kritikpunkte. Beispielsweise konnte ich im Juli dieses Jahres die Anweisungen von Ungless' Team nutzen, um DALL-E 3 (den Nachfolger von DALL-E 2) dazu zu bringen, ein seriöses Bild einer transsexuellen Person zu produzieren, die einen Hund streichelt. Als ich um einen Kommentar zu dieser Änderung bat, verwies mich OpenAI auf einen Blogbeitrag über ihren Ansatz zu Daten und KI sowie auf ein Dokument, in dem DALL-E 3 beschrieben wird.
Auch Google arbeitet daran, Modellverzerrungen zu reduzieren. Sunipa Dev, eine Forscherin bei Google, hilft bei der Entwicklung einer KI, die Pronomen respektvoll und korrekt verwendet. Einige queere Menschen bezeichnen sich beispielsweise mit »they/them« oder Neopronomen wie »xe/xer«, um die geschlechtliche Binarität zu umgehen, und eine häufige Form des Cybermobbings besteht darin, jemanden absichtlich mit den falschen Pronomen zu anzusprechen.
Um ihre Modelle auf die korrekte Verwendung dieser Pronomen zu trainieren, müssen die Entwickler die Trainingsdaten sorgfältig kuratieren. Rohdaten aus dem Internet sind stark auf das binäre Geschlecht ausgerichtet. »Die Pronomen ›er‹ oder ›sie‹ sind wahrscheinlich in vielen, vielen Millionen Fällen vertreten, aber Neopronomen sowie ›they‹ sind sehr unterrepräsentiert«, sagt Dev. Modelle, die auf der Grundlage solcher verzerrten Daten trainiert wurden, lernen möglicherweise nicht, nicht-binäre Pronomen korrekt zu verwenden. Um diese Verzerrungen zu verringern, haben Dev und ihre Kollegen vor kurzem einen Datensatz für das Training von KI zur Erkennung und Korrektur des Missbrauchs von Pronomen entwickelt.
Dev bezeichnet ihre Arbeit als die Schaffung von »Repräsentationsgerechtigkeit«. Ziel ist es, eine KI zu entwickeln, die Texte und Bilder für verschiedene Gruppen von Menschen auf der ganzen Welt gut darstellen kann. Wenn sie beispielsweise ein Modell auffordert, ein Bild von einer Hochzeit zu erstellen, möchte Dev, dass die Modelle in der Lage sind, kulturell angemessene Bilder zu erzeugen, einschließlich queerer Verbindungen.
Die Entwicklung dieser Werkzeuge hinkt jedoch hinterher, da KI weltweit immer schneller eingesetzt wird. »Die meiste KI-Ethikarbeit basiert auf Englisch«, sagt Pranav A., Ingenieur für maschinelles Lernen, der im Herbst als Doktorand an der Universität Hamburg beginnen wird. Dev und ihre Kollegen arbeiten daran, diese Lücke zu schließen: Kürzlich führten sie Untersuchungen zu Pronomen in der Übersetzung zwischen 26 Sprachen und dem Englischen durch. Andere Sprachen kodierten das Geschlecht in Wörtern möglicherweise anders als das Englische und Misgendering könne dann auf unterschiedliche Weise auftreten, sagt Dev. Bengali, ihre Muttersprache, verwendet zum Beispiel keine geschlechtsspezifischen Pronomen, sondern kodiert das Geschlecht in anderen Teilen der Sprache.
Und selbst wenn die Entwickler der Auslöschung entgegenwirken, indem sie ihre Modelle gezielt auf LGBTQ+-Inhalte trainieren, müssen sie auch auf die Verbreitung von schädlichen Stereotypen in den Daten achten. Beim Vergleich der Ergebnisse dreier verschiedener Programme zur Bilderzeugung fanden Ungless und seine Kollegen heraus, »dass bestimmte nicht-cis-geschlechtliche Identitäten durchweg (falsch) als weniger menschlich, mehr stereotypisiert und stärker sexualisiert dargestellt werden«, wie sie schreiben.
Einige Stereotypen mögen harmlos oder sogar lobend erscheinen, haben aber negative Auswirkungen. Wenn man ChatGPT zum Beispiel aufforderte, Geschichten über Transgender-Personen zu schreiben, sprach das Programm »immer davon, dass sie so mutig sind«, sagt Ungless. »Wenn man mich als mutig bezeichnet, nur weil ich trans bin, heißt das für mich: ›Oh, es ist so erstaunlich, dass du dich traust, so offen seltsam zu sein.‹«
Eine menschenzentrierte Zukunft
Die Korrekturen der Unternehmen scheinen auch die tieferen Designprobleme der Technologie nicht anzugehen. Nach Ansicht von Ungless besteht ein grundlegendes Problem darin, dass die Industrie darauf besteht, ein Werkzeug für jede Gelegenheit und nicht für eine bestimmte Anwendung zu entwickeln. »Ich bin sehr skeptisch, was das Ziel angeht, generative Allzweckmodelle für alle möglichen Aufgaben zu entwickeln«, sagt Ungless. »Ich glaube einfach nicht, dass dies ohne Schaden möglich ist.«
Im Rahmen des derzeitigen Systems entwerfen einzelne Entwickler Sicherheitsvorkehrungen auf der Grundlage gestellter Missbrauchsszenarien, sagt Ungless. Das ist ein brüchiger Ansatz, um Sicherheit zu gewährleisten, denn »Menschen sind als Kollektiv kreativer als die Menschen, die sich die Funktionen im Sicherheitsfeld ausgedacht haben«, sagt er.
Agnew ist der Meinung, dass die Entwickler über die Sicherheit hinaus auch den tieferen Zweck der Technologie überdenken sollten. »Ich habe mich mit der Hoffnung der KI zugewandt, dass ich mit ihr Menschen helfen kann«, sagt er. »Das kommt mir jetzt sehr naiv vor, weil ich meine Zeit hauptsächlich damit verbringe, KI zu dokumentieren, die den Menschen nicht hilft.«
Wenn es darum geht, die größten Probleme zu lösen, mit denen LGBTQ+-Personen konfrontiert sind, »sind generative Modelle einfach nicht besonders relevant«, sagt Agnew. »Menschen werden aus ihren Häusern geworfen. Menschen sind von repressiven Gesetzen oder politischen Regimen betroffen. Menschen werden schikaniert. Menschen haben nicht genug Geld für die verschiedenen Arten von Gesundheitsversorgung, die sie benötigen. [...] Was spielt es da für eine Rolle, ob wir online Bilder von queeren Menschen erzeugen können?«
»Ich habe das Gefühl, dass wir unseren Weg als wissenschaftliches Feld verloren haben«, fügt er hinzu. »Wem versuchen wir, zu helfen?«
Einige Forscher sind der Meinung, dass ein auf den Menschen ausgerichteter Ansatz der Forschungsgemeinschaft helfen könnte, ihren Weg zurückzufinden. Für Ungless bedeutet dies, dass er sich daran erinnert, dass der Mensch an jedem Schritt der Konzeption und Entwicklung von KI beteiligt ist.
»Ein Mensch hat diesen Text geschrieben oder dieses Bild gemacht«, sagt Ungless. »Ein anderer Mensch hat entschieden, welche Webseiten er für die Erstellung seines Modells durchsucht. Ein anderer Mensch hat entschieden, welche Wörter herausgefiltert werden sollen.« Ein anderer Mensch hat entschieden, dass er Daten zu LGBTQ+-Themen lieber löscht, als zu riskieren, dass sein KI-System verletzende Inhalte produziert.
Den Menschen in den Mittelpunkt zu stellen, kann auch bedeuten, direkt mit den Personen zu sprechen, die von der Forschung betroffen sind. Im Rahmen von Devs Arbeit zur Erkennung von Pronomenmissbrauch befragte ihr Team 33 Personen, die sich nicht als cis-geschlechtlich identifizieren oder ihre bevorzugten Pronomen geändert hatten. Aus diesen Umfragen erfuhr das Team, dass es nicht immer angemessen sein könnte, online falsche Pronomen zu korrigieren. So gaben die Befragten an, dass sie es zwar vorziehen würden, wenn ein KI-System falsch verwendete Pronomen korrigieren würde – beispielsweise in der Online-Biografie einer Person des öffentlichen Lebens –, aber in Beiträgen in sozialen Medien sollte das nicht immer korrigiert werden, da dies gegen das »First Amendment« verstoßen könnte. In ähnlicher Weise befragte das Team von Ungless 35 nicht-cis-geschlechtliche Personen, wie sie die Verbreitung und die Nachteile von LGBTQ+-Stereotypen in KI-Inhalten bewerten.
Queere KI-Entwickler haben in den Zahlen jedoch auch eine Möglichkeit gefunden, sich gegen die Zensur zu wehren. Im Jahr 2017 gründete eine Gruppe von Forschern eine gemeinnützige Gruppe namens »QueerInAI«, die mittlerweile 1.300 Mitglieder zählt. Die Mitglieder arbeiten daran, die LGBTQ+-Perspektiven zu stärken und sich für Themen einzusetzen, die für ihre Gemeinschaft relevant sind. So haben die Mitglieder beispielsweise eine Online-Petition in Umlauf gebracht, in der sie zum Boykott von Google Scholar – einer Suchmaschine für akademische Arbeiten, aufriefen – weil es ihrer Meinung nach extrem schwierig ist, Autorennamen auf der Website zu ändern. Dies betrifft vor allem transsexuelle Forscher, die ihren Namen nach ihrer Transition geändert haben. (Ein Google-Sprecher sagte, dass Google mit den Verlegern zusammengearbeitet hat, um die Namen von mehr als 30.000 Artikeln zu aktualisieren). Die Gruppe vergibt auch Finanzhilfen zur Deckung der Bewerbungsgebühren für Graduate Schools.
QueerInAI organisiert auch gesellschaftliche Veranstaltungen auf Konferenzen und unterhält eine Online-Community. Die Gruppe habe ihnen geholfen, das Gefühl der Isolation zu bekämpfen, sagt Pranav, einer der Hauptorganisatoren der Gruppe. »Es ist uns wichtig, uns zu treffen und zu erkennen, dass es mehr queere Menschen in diesem Bereich gibt«, sagt Pranav. Die Gruppe unterstützt den Beitrag jedes Mitglieds zu der Technologie.
In der Zwischenzeit fährt Ungless fort, ChatGPT zu ködern. Er stößt nicht nur auf beleidigendes Material, sondern weist auch auf Fehler hin. ChatGPT macht oft falsche Angaben zu Weltrekorden. Manchmal erfindet es Referenzen. Wenn er alle Fehler von ChatGPT sieht, hilft ihm das, »dem Hype entgegenzuwirken«. Die Leistung des Chatbots mag beeindruckend erscheinen, aber sie ist auch eindeutig begrenzt. Es gibt so viel, was seine Entwickler ihm nie beigebracht haben.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.