Informatik: Wer schweigt, bleibt Philosoph
Im Jahr 1950, lange vor Siri, Chatbots und anderen digitalen Assistenten, veröffentlichte der Informatikpionier Alan Turing einen Aufsatz, in dem er fragte: "Können Maschinen denken?" Doch statt sich lange mit der Definition des Denkens oder Sprechens aufzuhalten – wie es wohl ein Philosoph getan hätte –, schlug er vor, die Frage in ein Spiel zu verwandeln. In diesem als "Imitation Game" bezeichneten Szenario würde ein Mensch als Entscheider mit zwei Gegenübern – einem menschlichen und einem maschinellen – schriftlich kommunizieren und versuchen herauszufinden, wer von den beiden künstlich und wer aus Fleisch und Blut ist. Dieses Verfahren wurde als Turingtest bekannt. Dabei nahm Turing an, dass es für die Maschine die beste Strategie sein müsste, Antworten zu geben, die denen eines Menschen möglichst ähnlich sind.
Eine Frage, die bisher keine größere Beachtung fand, ist die, was geschehen würde, wenn die Maschine an passender oder unpassender Stelle schweigt. Denn auch dieses Verhalten gehört offensichtlich ins Spektrum menschlicher Reaktionen während eines Gesprächs. Kevin Warwicka und Huma Shahb von der Coventry University haben sich nun Turingtests angesehen, in denen das Gegenüber nicht antwortet. Meistens war dafür technisches Versagen der Grund. Hier ist ein Beispiel, das sie in ihrer Studie vorstellen, ein Ausschnitt aus einem Gespräch mit dem Computerprogramm "Cleverbot" bei einem Wettbewerb der Royal Society zum Turingtest am 7. Juni 2014:
Entscheider: Guten Tag
Gegenüber:
E: Ist keine Antwort auch eine Antwort
G:
E: Spreche ich nicht Ihre Sprache
G:
E: Schweigen ist Gold
G:
E: shhh
G:
E: Sie sind ein toller Gesprächspartner
G:
Das "Gespräch" stammt aus einer Form des Turingtests, bei dem der Entscheider parallel mit zwei Gegenübern chattet, ohne zu wissen, wer der Chatbot und wer der Mensch ist. Es dauerte insgesamt etwa fünf Minuten. Der Entscheider konnte sich am Ende nicht darauf festlegen, mit welchem Gesprächspartnern er kommunizierte. Damit hat die Maschine den Test zumindest überstanden, ohne enttarnt zu werden.
Die Frage, die Turing durch seinen Test ersetzen wollte, lautete: "Können Maschinen denken?" und nicht "Können Maschinen sprechen?" Insofern beinhaltet das Format des Frage-Antwort-Spiels mehr Komplexität und mehr Möglichkeiten, als das auf den ersten Blick klar sein mag. Das Überstehen des Tests ist offensichtlich keine hinreichende Antwort auf Turings ursprüngliche Frage nach der Denkfähigkeit künstlicher Intelligenz. Zwar wurde in keinem der Beispiele in der Studie von Warwicka und Shahb die schweigende Maschine für einen Menschen gehalten. Sie konnte aber auch in keinem der Fälle als Maschine identifiziert werden. Den Autoren geht es nicht darum, für oder gegen eine bestimmte Interpretation des Tests zu plädieren, schreiben sie. Vielmehr wollten sie aufzeigen, dass Turings Ideen zur Untersuchung von künstlicher Intelligenz in zahlreiche Richtungen deuten, die es wert seien, wissenschaftlich analysiert zu werden.
Schreiben Sie uns!
2 Beiträge anzeigen