Maschinenintelligenz: Roboter bringt sich Mimik bei
Die Programmierung seiner 31 Mimikmotoren könnte der Albert-Einstein-ähnliche Androide des Machine Perception Laboratory der University of California in San Diego künftig selbst übernehmen. Der Roboter erlernte, seine Motoren selbst zu steuern, indem er sein eigenes Mienenspiel in einer Art Spiegel beobachtete. Den Forschern um Javier Movellan zufolge brauchte "Einstein" weniger als eine Stunde, um die Kontrolle über die Servomotoren in seinem Gesicht zu erlangen.
Die physikalische Komplexität des Modells sei jedoch noch nicht ausreichend, räumen die Wissenschaftler ein, weshalb manche der Bewegungen eher ungelenk aussähen. Offenbar hängt die Verschiebung seiner Kunsthaut auf kompliziertere Weise mit den Servobewegungen zusammen als gedacht. Den Roboter per Hand zu programmieren sei allerdings deutlich aufwändiger und verlange eine Menge technischer Spezialkenntnisse. Das Selbstlernverfahren diene darüber hinaus nicht nur zur Arbeitsersparnis: Für manche mimischen Gesten plante "Einstein" subtile Bewegungen von Motoren ein, an die die Forscher im Voraus nicht gedacht hätten, die sich aber im Nachhinein als sinnvoll erwiesen. Außerdem lernte er, den Ausfall einzelner Servos mit benachbarten zu kompensieren.
Mit den Zufallsbewegungen in der Lernphase, dem "Brabbeln", wollte das Team um Movellan die Art und Weise imitieren, wie Kinder komplexe Motorik erlernen. Zielloses Ausprobieren gehe auch bei ihnen Hand in Hand mit sensorischem Feedback. Im Gegensatz zum Roboter, der im Gesichtsbereich keine Sinnesorgane hat, würden sich Kinder jedoch zumindest am Anfang stärker auf die Eigenwahrnehmung ihrer Muskel- und Hautdehnung verlassen. Für ihren Roboter könnte es jedoch noch weit effektivere Wege geben, die Motorsteuerung zu erlernen, erklärt der Erstautor der Studie, Tingfan Wu. Beispielsweise könnte man "Einstein" den Raum möglicher Bewegungen systematisch absuchen lassen.
Für den eigentlichen Lernvorgang brachten die Wissenschaftler den Roboter dazu, mit seinen Gesichtszügen zu "brabbeln", also zufällige und unkoordinierte Bewegungen auszuführen. Dabei blickte er in einen "Spiegel", bestehend aus einer Kamera, die sein Gesicht abfilmte, sowie einem Computerprogramm, das menschliche Mimik erkennt und klassifiziert. Dessen Analyse speisten die Forscher dann wieder in den Roboter ein, der sie mit den zuvor gegebenen Motorkommandos abglich. Schrittweise erarbeitete sich der Androide dadurch ein Modell, das die Befehle an die Mimikmotoren mit ihrem Resultat in Beziehung setzt und dem Roboter Vorhersagen über sein Aussehen erlaubt.
Die physikalische Komplexität des Modells sei jedoch noch nicht ausreichend, räumen die Wissenschaftler ein, weshalb manche der Bewegungen eher ungelenk aussähen. Offenbar hängt die Verschiebung seiner Kunsthaut auf kompliziertere Weise mit den Servobewegungen zusammen als gedacht. Den Roboter per Hand zu programmieren sei allerdings deutlich aufwändiger und verlange eine Menge technischer Spezialkenntnisse. Das Selbstlernverfahren diene darüber hinaus nicht nur zur Arbeitsersparnis: Für manche mimischen Gesten plante "Einstein" subtile Bewegungen von Motoren ein, an die die Forscher im Voraus nicht gedacht hätten, die sich aber im Nachhinein als sinnvoll erwiesen. Außerdem lernte er, den Ausfall einzelner Servos mit benachbarten zu kompensieren.
Mit den Zufallsbewegungen in der Lernphase, dem "Brabbeln", wollte das Team um Movellan die Art und Weise imitieren, wie Kinder komplexe Motorik erlernen. Zielloses Ausprobieren gehe auch bei ihnen Hand in Hand mit sensorischem Feedback. Im Gegensatz zum Roboter, der im Gesichtsbereich keine Sinnesorgane hat, würden sich Kinder jedoch zumindest am Anfang stärker auf die Eigenwahrnehmung ihrer Muskel- und Hautdehnung verlassen. Für ihren Roboter könnte es jedoch noch weit effektivere Wege geben, die Motorsteuerung zu erlernen, erklärt der Erstautor der Studie, Tingfan Wu. Beispielsweise könnte man "Einstein" den Raum möglicher Bewegungen systematisch absuchen lassen.
Der Androide verfügt auch über eine eigene Kamera, die an ein modernes Bilderkennungsprogramm angeschlossen ist. In der Hauptsache fungiert er im Labor als Werkzeug zur Erforschung von Mensch-Roboter-Kommunikationsformen. So soll er etwa in die Lage versetzt werden, auf ein menschliches Gegenüber zu reagieren und dessen Mimik zu interpretieren oder zu imitieren. (jd)
Schreiben Sie uns!
Beitrag schreiben