3-D-Gesichtserkennung: Ansichten eines Angesichts
Ein Blick genügt und der Freund oder Bekannte ist identifiziert. Doch wie bringt man Automaten bei, ein Gesicht zu erkennen? Industrieforscher berechnen dazu die "Höhenlinien" des Gesichtsschädels.
Nach ihrem Marktvolumen gemessen folgt die Gesichtserkennung in der Rangfolge biometrischer Verfahren gleich hinter der automatischen Analyse des Fingerabdrucks. Eine Untersuchung der International Biometric Group aus dem vergangenen Jahr schrieb ihr schon einen Marktanteil von über 15 Prozent zu – im Jahr 2003 dürfte der Weltumsatz der automatischen Gesichtserkennungssysteme bei über 100 Millionen Euro liegen, Tendenz stark steigend.
Gesichtserkenner werden als Zutrittskontrollen, zum Beispiel an Flughäfen, bereits ebenso eingesetzt wie bei Sortierung und Vergleich von Fahndungsbildern. Dabei basieren solche Systeme derzeit auf einer schnellen Analyse zweidimensionaler Merkmale. Doch diese Verfahren haben mehrere Nachteile: "Vor allem reagieren sie empfindlich auf Gesichtsdrehungen, unterschiedliche Mimik oder Änderungen in der Beleuchtung", erklärt Peter Rummel von der Abteilung Power and Sensor Systems bei der Siemens Corporate Technology in München. "Wenn das Originalfoto etwa in einem Innenraum aufgenommen wurde, tun sich die meisten Systeme sehr schwer, die Person dann auch bei Tageslicht im Freien wiederzuerkennen." Im Extremfall lassen sich 2-D-Systeme sogar durch Fotos täuschen, die vor die Kamera gehalten werden.
Streifen auf der Stirn
Ein dreidimensional arbeitendes Verfahren hätte diese Probleme nicht. Denn die räumliche Form des Kopfes bleibt unabhängig davon, aus welchem Winkel die Kamera auf ihn blickt oder welche Beleuchtung gerade herrscht. Auch ein Foto würde sofort als zweidimensional erkannt. "Eine nahe liegende Methode für eine 3-D-Gesichtserfassung wäre eine Stereokamera", sagt Rummel, "aber die nötigen Rechenalgorithmen sind viel zu aufwendig."
Ein Computer muss nämlich in den beiden Aufnahmen der Kamera korrespondierende Punkte bestimmen, um aus deren horizontalem Versatz die räumliche Entfernung zu errechnen – nicht anders funktioniert das dreidimensionale Sehen beim Menschen. Hervorstechende Elemente des Gesichts wie Augen, Nase und Mund sind mit automatischen Verfahren gut auszumachen. Doch bei Oberflächen ohne eine erkennbare Struktur wie der Backen- oder Stirnhaut ist es extrem schwierig, Punkte der beiden Aufnahmen einander zuzuordnen.
Die Siemens-Forscher Peter Rummel und Frank Forster griffen daher einen in anderen Anwendungen bewährten Ansatz zur 3-D-Vermessung auf: Sie projizieren ein farbiges Lichtmuster auf das Gesicht und erzeugen so eine künstliche Textur. Stirn, Backenknochen, Nase oder Kinn verformen die Farbstreifen, die somit den Höhenlinien einer Landkarte vergleichbar werden. Zu ihrer Aufnahme reicht eine einzige Videokamera. Die Berechnung der dreidimensionalen Oberfläche erfolgt dann nach geometrischen Formeln, in die der Abstand zwischen Projektor und Kamera, die Beobachtungswinkel sowie die Position des jeweiligen Bildpunkts eingehen.
Das erste 3-D-Gesichtserkennungssystem nach dieser Methode testeten die Forscher zusammen mit Firmen aus Italien und Griechenland im Rahmen des europäischen Hiscore-Projekts (High Speed 3D and Colour Interface to the Real World). Es wurde im November 2002 auf einer Abschlussveranstaltung in Kopenhagen demonstriert. "Bei diesem System projizierten wir die Streifen noch vertikal, was den Nachteil hatte, dass wir relativ viele Abschattungseffekte durch Nase oder Kinn bekamen", berichten die 3-D-Experten.
Inzwischen konzentrieren sie sich auf eine horizontale Streifenprojektion – Projektor und Kamera sind etwas höher beziehungsweise tiefer als der Kopf platziert. Zum einen bekommen sie dadurch weniger Gebiete mit Schatten und zum anderen entsprechen die horizontalen Linien auch der natürlichen Links-rechts-Symmetrie von Gesichtern besser.
Sprungstelle Nasenspitze
Die Forscher projizieren rund 200 Farbstreifen der drei Grundfarben und ihrer additiven Mischung (also Rot, Grün, Blau sowie Cyan, Magenta, Gelb, Weiß und Schwarz) gleichzeitig auf ein Gesicht. Damit die Zuordnung der Farbstreifen eindeutig ist, sind sie nach einer vorher genau festgelegten Regel hintereinander angeordnet. Damit lassen sich Probleme an "Sprungstellen" wie der Nasenspitze vermeiden. Ein weiterer Vorteil ist, dass Farbverfälschungen durch die Eigenfarben des Gesichts herausgerechnet werden können.
Das kostengünstige Verfahren arbeitet praktisch in Echtzeit – und das mit einer Genauigkeit von 0,3 Millimeter pro Messpunkt. Dass es sehr gute Ergebnisse liefert, konnte Wolfgang Küpper, Leiter des firmeneigenen Kompetenzfeldes Biometrie in München, nachweisen. Dort arbeiten Experten in der Evaluierung der verschiedensten Biometrieverfahren. Mithilfe von etwa 7000 aufgenommenen Bildern konnte das Team zeigen, dass eine Kombination der 3-D-Gesichtsanalyse mit konventionellen 2-D-Methoden deutlich besser funktioniert als jede der Methoden für sich. Gemessen wurde dabei die "Equal Error Rate" – die Fehlerrate, die entsteht, wenn die Zahl der fälschlich zurückgewiesenen Personen ebenso hoch ist wie die der fälschlich akzeptierten.
3-D- und 2-D-Gesichtserkennungsverfahren ergänzen sich gut: Das 2-D-Verfahren erkennt, was wir auch an Fotos als typische Merkmale sehen – beispielsweise ein Muttermal auf der Wange. Das 3-D-Verfahren würde zwar ein Muttermal nicht erkennen, aber es liefert mit seinen Höhenlinien komplementäre Eigenschaften, die unabhängig sind von Kopfhaltung oder Beleuchtung: etwa die exakte Oberflächenkrümmung des Gesichts an Stellen wie der Stirn, der Backenknochen, des Kinns oder der Nase.
Kombination mit 2-D
"Als Märkte der Zukunft sehe ich automatische Grenzkontrollen ebenso wie die Abfertigung an Flughäfen, beispielsweise als besonderen Service für Vielflieger", erklärt Peter Rummel. Letztere müssten sich dann nur einmal registrieren lassen und könnten einfach mit einem schnellen Blick in die Kamera einchecken, eine Anwendung, die bereits mit der Irisidentifikation erfolgreich am Flughafen Schiphol eingesetzt wird (Spektrum der Wissenschaft 7/2003, S. 81). Auch bei Sicherheitsanwendungen am Computer ließe sich das System einsetzen, ebenso bei Bankgeschäften. Allerdings dürften die Märkte zunächst außerhalb von Europa liegen – die in der EU erforderliche Standardisierung solcher Systeme kostet erhebliche Zeit.
Die Kombination mit anderen Verfahren steigert die Sicherheit weiter. Bereits heute bietet Siemens multiple Biometrieverfahren an, etwa einen Ausweis für das indische Verteidigungsministerium, der eine Gesichts- mit einer Stimm- und einer Fingerabdruckerkennung kombiniert. "Genauso gut könnte man die 3-D-Gesichtserkennung auch mit einer ebenfalls räumlichen Erfassung der Handgeometrie kombinieren, wobei beide Bilder mit derselben Kamera aufgenommen würden", ergänzt Forster. Eine solche Erkennung der Handgeometrie wurde ebenfalls im Hiscore-Projekt untersucht. Mit ihrer Hilfe sollen sich Computer per Gesten steuern lassen, etwa um virtuelle Moleküle ohne Datenhandschuh auf einem Bildschirm zu drehen.
Aus: Spektrum der Wissenschaft 8 / 2003, Seite 66
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben