Lobes Digitalfabrik: Das Gesicht wird zum Pass
Die Einreise in einen Nicht-EU-Staat ist zuweilen ein recht bürokratischer Vorgang. Im Flugzeug bekommt man ein Formular zur Aufenthaltserlaubnis ausgehändigt, auf dem man zahlreiche, teils absurde Fragen beantworten muss ("Tragen Sie Waffen bei sich?"). Und am Einreiseschalter am Flughafen, wo einem ein mürrisch dreinblickender Beamter einen Stempel in den Pass drückt, bilden sich oftmals lange Schlangen. Nach einem Fernflug hat darauf keiner Lust. Das Verfahren ist ineffektiv und strapaziert die Nerven aller Beteiligten.
Die australische Regierung will das bis zum Jahr 2020 ändern: 90 Prozent der Einreisekontrolle sollen dann automatisiert ablaufen. Wie der "Sydney Morning Herald" berichtete, will das Department of Immigration and Border Protection, die Einreise- und Grenzschutzbehörde des Landes, ein System namens "World First" einführen, bei dem Passagiere ohne Vorzeigen ihrer Papiere "kontaktlos" einreisen können. Reisepass-Scanner und Antragsformulare würden der Vergangenheit angehören. Stattdessen sollen Passagiere anhand biometrischer Merkmale, etwa mit Gesichtserkennungssystemen, Iris-Scans und Fingerabdrücken, authentifiziert werden, die mit gespeicherten Daten abgeglichen werden. Die vor zehn Jahren installierten SmartGates, an denen Ausweisdokumente elektronisch gescannt werden, sollen abgebaut werden.
Die Initiative, die ein breites Echo in den Medien fand (unter anderen berichtete der "Guardian" darüber), klingt oberflächlich besehen natürlich praktisch. Keine Schlangen mehr an Flughäfen, weniger Wartezeit, keine nervige Bürokratie. Das Gesicht, so die Vision, soll der neue Pass werden. In den USA, wo biometrische Identifizierungssysteme für ausländische Einreisende schon seit Jahren Standard sind, werden an den Flughäfen John F. Kennedy und La Guardia in New York, in Atlanta und in Los Angeles Gesichtserkennungssysteme installiert. Auch die Fluggesellschaft KLM testet ein ähnliches System in einem dreimonatigen Probebetrieb an ihrem Heimatflughafen Amsterdam-Schiphol.
Noch kein System ist vor technologischem Rassismus gefeit
Doch die maschinelle Kontrolle wirft Fragen auf: Welche Daten werden für die biometrische Authentifizierung herangezogen? Welche Daten werden gespeichert? Woher kommen die Daten? Werden Daten im Austauschverfahren mit anderen Staaten geteilt? Werden Daten von privaten Unternehmen wie etwa Facebook, wo täglich 350 Millionen Fotos hochgeladen werden, erworben?
Neben Bedenken, was Datenschutz und Privatsphäre angeht, gibt es auch Zweifel an der Reliabilität. Wie verlässlich operieren diese Systeme? Können Algorithmen eineiige Zwillinge voneinander unterschieden? Können sie Doppelgänger erkennen?
Wie erratisch ein automatisiertes System sein kann, zeigt ein Fall aus dem Nachbarland Neuseeland. Vor ein paar Monaten wollte der Neuseeländer Richard Lee online einen Reisepass beantragen. Als er ein Foto bei der zuständigen Passbehörde hochlud, lehnte die Software seinen Antrag kategorisch ab. Die automatisch generierte Antwort lautete: Das Foto erfüllt nicht die Kriterien, weil die Augen geschlossen sind. Doch der Algorithmus irrte. Lees Augen sind deutlich geöffnet auf dem Foto. Sie sind nur schmaler, weil seine Eltern aus Taiwan und Malaysia stammen. Auch Maschinen können diskriminieren. Und vor einem solchen technologischen Rassismus ist auch das "World-First"-System in Australien nicht gefeit.
Angenommen, die Regierung in Canberra würde Trumps Ankündigung aus dem Wahlkampf wahr machen und ein komplettes Einreiseverbot speziell für Muslime verhängen – was ja an sich schon eine diskriminierende Maßnahme wäre. Wie soll eine Maschine dann erkennen, ob jemand ein Muslim ist? Manifestiert sich die Religionszugehörigkeit etwa im Gesicht? Man bewegt sich schnell im Bereich der Physiognomik. Maschinen wohnt die Tendenz inne, menschliche Vorurteile durch einen Determinismus zu verschärfen.
In Indien, wo im Rahmen des Projekts Aadhaar jeder der 1,2 Milliarden Bewohner anhand seiner personenbezogenen Daten und biometrischen Merkmale (Gesichtsbild, Fingerabdrücke und Iris) eine zwölfstellige Nummer zugewiesen bekommt, führt die Technik zu erheblichen sozialen Problemen. Die Instrumente sind häufig nicht zuverlässig; Menschen mit Behinderung oder Verletzungen werden diskriminiert. Ein Familienvater, der sich wegen seiner Schwielen an der Hand nicht mehr per Fingerabdruck für soziale Dienstleistungen wie etwa die Gesundheitskarte authentifizieren kann, muss seine Biometrie an seinen Sohn "verleihen". Das führt zu ganz neuen Fragen der Privatsphäre, Teilhabe und Identität.
Das Problem an der Technik ist, dass sie extrem unpräzise ist. Die Bürgerrechtsorganisation American Civil Liberties Union (ACLU) bemängelt, dass schon eine neue Frisur, Alterung oder eine Veränderung des Gewichts die Software vor erhebliche Schwierigkeiten stellen können. Eine Studie des US-Verteidigungsministeriums stellte eine hohe Fehlerrate bei Gesichtserkennungssystemen selbst unter optimalen Bedingungen fest, wenn die Person bei idealen Lichtverhältnissen frontal in die Kamera blickt. Die Untersuchung fand eine große Zahl von Falschpositiven, also von Fällen, bei denen Personen mit dem Foto eines anderen gematcht wurden, und von Falschnegativen, bei denen es fälschlicherweise gar keinen Treffer in der Datenbank gab. Das legt den Schluss nahe, dass bei den derzeit eingesetzten Systemen Gefährder durch das Raster fallen und Unschuldige als verdächtig gelten. Wenn das Gesicht zum Pass wird, schafft das eher neue Unsicherheiten als mehr Sicherheit.
Schreiben Sie uns!
Beitrag schreiben