Direkt zum Inhalt

Prärationale Intelligenz


Maschinen zu bauen, die ihre Umwelt erkennen und sich autonom in ihr bewegen, um vorbestimmte Aufgaben zu erfüllen, ist seit langem ein Traum vieler Ingenieure. Doch haben Forschungsansätze, die unter Intelligenz eine Fähigkeit verstehen, logische Zusammenhänge zu erkennen, bislang nur Automaten sehr eingeschränkter Funktionalität hervorgebracht.

Gerade solche scheinbar einfachen Aufgaben wie das Gehen in unebenem Gelände oder das Greifen eines frei beweglichen, nicht bereits durch entsprechende Vorrichtungen ausgerichteten Gegenstands lassen sich selbst mit aufwendigen Bildverarbeitungsverfahren und Expertensystemen nur sehr schwer bewältigen. Bei Mensch und Tier erfordert beispielsweise die Steuerung des Bewegungsapparats eine Abstimmung Hunderter von Muskeln. Ähnlich komplex ist die Funktionsweise der Bild- oder Geräuscherkennung, die das gleichzeitige Lösen voneinander abhängiger Einzelprobleme bedeutet. Das wäre von einem zentralen Rechner allein kaum zu schaffen. Tatsächlich bedient sich die Natur dazu dezentraler Kontrollstrukturen. Selbst Insekten, obzwar unfähig zu logischem Denken, lösen damit Aufgaben, die Hochleistungs-Computer überfordern würden.

Insbesondere der immer wichtiger werdende Bereich der Service-Roboter stellt Anforderungen, die konventionelle Systeme nicht erfüllen können, etwa die Navigation in unstrukturierter Umgebung, beispielsweise beim Transport von Essen in einem Krankenhaus, oder Handhabungsaufgaben, die Anpassungsfähigkeit verlangen, wie das Reinigen von Bahnsteigen. Darum hat sich vor etwa zehn Jahren eine neue Richtung in der Robotik ausgebildet, die darauf abzielt, solche scheinbar niederen Intelligenzleistungen zu erforschen, in elektronische Schaltungen und Software zu übersetzen und so für die Automatisierungstechnik zugänglich zu machen. Andererseits profitiert auch die Biologie davon, durch technische Nachbildung dieser prärationalen Intelligenz in sogenannten Animaten ihre Theorien besser überprüfen zu können.

Am Zentrum für interdisziplinäre Forschung der Universität Bielefeld hat sich unter unserer Leitung 1993 eine internationale Forschungsgruppe für eine einjährige Studie zusammengefunden. Prä-rationale Intelligenz baut sich nach den nun vorliegenden Ergebnissen und in Übereinstimmung mit vorausgehenden langjährigen verhaltensbiologischen Untersuchungen in einer Reihe von Stufen zunehmender Komplexität auf, wie sie aus der Evolution des Lebens ebenfalls bekannt sind. Somit sollte es möglich sein, sukzessiv intelligentere künstliche Systeme den natürlichen Vorbildern nachzubauen.


Rückkopplungsfreie Systeme

Das Verhalten von Tieren wird von Nervenzellverbänden gesteuert. Mittlerweile versucht man, diese Informationsverarbeitung mit künstlichen neuronalen Netzen nachzuahmen (siehe auch Spektrum der Wissenschaft, September 1989, Seite 66, Februar 1990, Seite 24, Juli 1991, Seite 64, April 1992, Seite 18, November 1992, Seite 134, März 1993, Seite 99, September 1993, Seite 42, und Dezember 1993, Seite 68).

Eine grundlegende Struktur natürlicher Nervensysteme umfaßt Gruppen von Informationen aufnehmenden Sinneszellen, Motoneuronen, die Muskelfasern ansteuern, und eventuell Interneuronen, die zwischen den ersten beiden vermitteln. Ein solches System vermag eingehende Signale in Verhalten umzusetzen. Im einfachsten Falle werden Informationen nur in einer Richtung weitergereicht; es gibt also keine Rückmeldungen. Man spricht dann von Feedforward-Verbindungen.

Derartig primitive, rein sensorisch getriebene nervöse Architekturen finden sich im Tierreich vermutlich nicht mehr, weil sie im Laufe der Evolution von komplexeren Systemen abgelöst wurden. Doch lassen sie sich in Computersimulationen und mit Robotern, die von neuronalen Netzen gesteuert werden, eingehend studieren. Man spricht bei solchen Netzen auch von Assoziativspeichern, da zu einem bestimmten Signalmuster am Eingang das jeweils zugehörige Antwortmuster assoziiert wird (Spektrum der Wissenschaft, Juni 1988, Seite 54).

Trotz des einfachen Aufbaus antworten Feedforward-Netze auf viele sensorisch erfaßbare Situationen mit jeweils sinnvoll angepaßten Reaktionen, die allerdings in ihrem Repertoire bereits vorhanden sein müssen, quasi angeboren sind. Diese Eigenaktivität verändert dann die Reizsituation, so daß neue Verhaltensweisen aktiviert werden. Letztlich vermittelt die Außenwelt also eine gewisse Rückkopplung (Bild 1 a).

Eine Variante davon ist ein System, das Feedback über den Körper – jedoch nach wie vor außerhalb des Nervensystems – verwendet. Derartige Regelkreise können bereits zur Homöostase fähig sein: Sie finden sich oft, wenn funktionell bedeutsame Parameter wie etwa der Blutdruck oder eine Gelenkstellung konstant gehalten werden sollen.

Feedforward-Systeme können zudem, sofern sie wie biologische Nervenverbände aus massiv-parallelen Strukturen aufgebaut sind, tolerant gegen Fehler innerhalb des Systems sein. Auch wenn einige Neuronen ausfallen, ändert sich das Verhalten kaum oder nicht erkennbar. Selbst eine veränderte Außenwelt, also ein gewissermaßen fehlerhaftes Reizmuster, kann in gewissen Grenzen toleriert werden, sofern das vorhandene Repertoire an Reaktionen dafür geeignet ist. Mithin vermag ein neuronales Netz dann in gewissem Umfang von bekannten auf neue Situationen zu verallgemeinern. Solche Strukturen könnten durchaus für Steuerungsaufgaben interessant sein, die eine entsprechende Fehlertoleranz voraussetzen.


Rekurrente Netze

Auf der nächsten Komplexitätsstufe hängt das Verhalten einfacher Nervenzellverbände oder entsprechender Simulationen zusätzlich von inneren Zuständen ab. Man denke an die innere Uhr, die Körperreaktionen wie das Schlafbedürfnis auch ohne äußere Signale auslöst. Derartige innere Beweggründe, die unterschiedliches Verhalten auf den gleichen Reiz hin allein aufgrund verschiedener Befindlichkeiten aktivieren, lassen sich als Motivation zusammenfassen. Diese kann wiederum durch den Reiz verändert werden.

Die Fähigkeit eines Systems, auch ohne direkte äußere Einflüsse solche Zustände anzunehmen, erfordert nun aber im allgemeinen interne Rückkopplungsmechanismen (Bild 1 b). Derartige rekurrente Netze (von lateinisch recurrere, zurückkehren) können hochkomplexe dynamische Eigenschaften haben, insbesondere sich zeitlich veränderlich verhalten, ohne dabei auf aktuelle Reize angewiesen zu sein.

Pattie Maes gelang es jüngst am Massachusetts Institute of Technology in Cambridge, in Computersimulationen Animaten zu erzeugen, die Zustände wie Hunger, Durst oder Aggression zeigen. Ihr Verhalten, das sowohl vom inneren Zustand als auch von der jeweiligen Reizsituation abhängt, kann durchaus mit Übersprungreaktionen, vorausschauendem Handeln und Opportunismus verglichen werden. So unterbrachen sie auch bei starker Aggressivität die Verfolgung eines Gegners, wenn zufällig Wasser auftauchte, um zu trinken. Auch variierte die Aufmerksamkeit; ein Roboter lief beispielsweise bei sehr großem Hunger gegen eine Wand, weil er seinem Hindernis-Vermeidungssystem zu wenig Aufmerksamkeit geschenkt hatte.

Die Bauweise der meisten bislang maschinell realisierten Animaten legt ihre möglichen Verhaltensweisen von vornherein fest. Allerdings läßt sich das beobachtbare Verhalten mitunter trotzdem nicht aus ihrer Konstruktion unmittelbar ableiten.

So bauten Ralph Beckers von der französischsprachigen Freien Universität Brüssel und Owen Holland von der Universität von Westengland in Bristol als Gastwissenschaftler am Bielefelder Zentrum kleine Roboter (Bild 2), die explizit darauf programmiert und dafür eingerichtet sind, Hindernisse zu vermeiden und zufällig im Weg liegende Gegenstände mit einem Schieber vor sich her zu bewegen. Ab einer gewissen Zahl von Objekten wird die Reibungskraft so groß, daß ein Schwellenschalter ein Ausweichmanöver aktiviert. Dann fährt der Roboter ein Stück zurück, dreht sich und bewegt sich schließlich wieder vorwärts, ohne sich um die bisher verschobenen Objekte länger zu kümmern.

Was passiert nun, wenn man solche Maschinchen in einen Raum setzt, in dem viele kleinere Gegenstände gleichmäßig verteilt sind? Das Ergebnis verblüfft: Nach einiger Zeit haben die Roboter alle Objekte zu einem Haufen zusammengeschoben. Man kann sich dabei nicht des Eindrucks verwehren, dahinter stecke eine Zielvorstellung, die allerdings in keiner Weise in der Steuerung gespeichert ist. Man nennt solches Verhalten emergent (von lateinisch emergere, zum Vorschein kommen); es findet sich auch bei Insektenstaaten, die als Gesamtheit ein Verhalten zeigen, das auf der Ebene der Individuen nicht explizit präsent ist.

Tatsächlich ist dieses scheinbar absichtsvolle Handeln rein zufällig bedingt: Ist erst einmal eine kleine Ansammlung von Objekten angehäuft worden, wächst ihre Wachstumschance mit zunehmender Größe, weil die Roboter beim Auftreffen sofort kehrtmachen und eventuell mitbewegte Objekte dort liegenlassen.

Jean-Louis Denenbourgh und seine Mitarbeiter von der Freien Universität Brüssel simulieren derzeit ameisenartige Animaten, die das Sortierverhalten dieser Tiere nachahmen. Obwohl die Individuen nicht miteinander kommunizieren, sortieren sie als Kolonie verschiedene Gegenstände zu Gruppen, weil ihnen eingegeben ist, zu vorhandenen Häufchen passende Objekte hinzuzugeben. So läßt sich auch in der Automatisierungstechnik eine gewünschte Operation möglicherweise mitunter auf Kollektive von einfach strukturierten operationellen Einheiten abbilden.

Lernen aus Erfahrung

Eine Voraussetzung für das Überleben in unstrukturierten Umgebungen ist die Fähigkeit, die eigene Informationsverarbeitung aufgrund von Erfahrung zu ändern. Geschieht dies bei biologischen Systemen auf der übergeordneten Ebene einer ganzen Art, so spricht man von Evolution, dagegen vom Lernen beim Individuum. Die wichtigsten in der Biologie gefundenen Lernmechanismen lassen sich mit künstlichen neuronalen Netzen simulieren und wurden vereinzelt schon in Robotersteuerungen implementiert. Dabei ändert man die zwischen verschiedenen Neuronen bestehenden Verknüpfungen so ab, daß sich ein anderes Verhalten ergibt.

Einer von uns (Ritter) arbeitet zum Beispiel an lernfähigen neuronalen Netzen, die Sensorsignale auswerten und damit eine Roboterhand steuern, die Friedrich Pfeiffer an der Technischen Universität München entwickelt hat. Eines der Systeme erkennt bereits aus einem Bild die Fingerstellung, nachdem es anhand bekannter Stellungsmuster trainiert worden war (Bild 3). Diese visuelle Intelligenz kommt ohne logische Regeln aus und benötigt auch keine Hilfe eines Expertensystems.

Dazu wird das visuelle Bild zunächst in ein Erregungsmuster einer Anzahl optischer Sensoren umgesetzt; dieser Schritt modelliert stark vereinfacht die Vorverarbeitung in der primären Sehrinde des Menschen. Mehrere neuronale Teilnetze verarbeiten dieses Muster. Davon spezialisiert sich jedes im Laufe des Trainings auf Handposituren eines ähnlichen Typs, wobei sich die Zuständigkeiten in einer Art Wettbewerb ausbilden. Während des Trainings bekommt das System zu jedem Eingabebild auch die zugehörigen Gelenkstellungen als Erregungsmuster einer Anzahl von Ausgabeneuronen mitgeteilt. Eine geeignete Lernregel vergleicht nun Soll-Vorgabe und momentanen Ist-Wert und sorgt dafür, daß zu schwach aktivierte Neuronenverbindungen verstärkt und umgekehrt andere geschwächt werden. Nach einiger Zeit kann die Soll-Vorgabe entfallen; das Netz erzeugt dann die korrekten Erregungen von selbst. Das in den Trainingsbeispielen enthaltene visuelle Wissen ist nunmehr in das Verbindungsmuster der Neuronen eingeprägt und ermöglicht ihnen, anhand der Helligkeitsverteilungen im Bild Gelenkwinkelstellungen zu assoziieren.

Offen ist noch, inwieweit sich solche meist einfach aufgebauten Systeme erweitern lassen. Die Evolution hat dazu jedoch einen Weg vorgezeichnet: Nervensysteme sind modular aufgebaut. Während in vielen künstlichen neuronalen Netzen jedes Neuron mit allen anderen verknüpft ist, gibt es in natürlichen Netzen Gruppen, die untereinander enger gekoppelt sind (Bild 1 c). Der Vorteil einer solchen Architektur für die Evolution wie für den Ingenieur liegt in der einfachen Erweiterbarkeit – alte Module können mehr oder weniger unverändert beibehalten und neue hinzugefügt werden, während bei vollständiger Verknüpfung das gesamte Netz neu aufzubauen wäre. Zudem sind die Verbindungsleitungen meist kürzer, und das Lernen erfolgt wegen der geringeren Zahl erforderlicher Kopplungen schneller.

Allerdings ist es beim Einfügen weiterer Module keineswegs einfach, die Aktivität von Einzelkomponenten aufeinander abzustimmen. In biologischen Systemen ist dazu die gegenseitige Hemmung weit verbreitet, bei der sich nur das am stärksten erregte Modul gegen seine Konkurrenz durchsetzt und beispielsweise sein Output-Signal weiterleiten kann. Des weiteren gibt es hierarchische Strukturen, in denen Funktionen einzelner Komponenten zu Gruppen sinnvoll zusammengefaßt werden und damit der Kontrolle eines übergeordneten Moduls unterliegen.

So kontrollieren Insekten, wie zwei von uns (Cruse und Dean) in langjährigen Forschungsarbeiten zeigten, ihre Beinbewegungen mit sozusagen demokratischen Architekturen. Darin stellt jedes Bein ein Modul dar, das sich im Prinzip unabhängig von allen anderen bewegt. Zur Koordination senden sich jeweils benachbarte Einheiten Signale über ihren aktuellen Zustand zu, anhand derer jedes Modul entscheidet, wie es den nächsten Schritt ausführt. Wie die Animaten von Pattie Maes, die aus zehn Komponenten bestehen, beeinflussen sich die Module gegenseitig je nach dem inneren Zustand jedes einzelnen und der aktuellen Situation.

Auf diesem Prinzip basiert auch die an der Technischen Universität München realisierte sechsbeinige Laufmaschine (Bild 4 rechts), deren Kontrollarchitektur zusammen mit den Bielefelder Biologen entwickelt wurde. Sie orientiert sich an der Bewegungssteuerung der Stabheuschrecke (Carausius morosus), die sich wegen ihrer Größe von sieben bis acht Zentimetern und der gut zugänglichen Beine als Untersuchungsobjekt eignet (Bild 4 links).

Jedes Modul einer Einzelbeinsteuerung besteht wiederum aus drei künstlichen neuronalen Netzen: dem Stemmmodul, welches das am Boden aufgesetzte Bein sich nach hinten und damit den Körper nach vorn bewegen läßt, dem Schwingmodul, das dafür sorgt, daß das Bein dann wieder nach vorn schwingt, und dem hierarchisch übergeordneten Selektor, der den beiden anderen Einheiten den Zugriff auf die Beinmotorik ermöglicht. Diese Komponenten sind in der neuesten Version als künstliche neuronale Netze ausgelegt, die über die Außenwelt und die Sensorik permanent rückgekoppelt sind, um glatte Bewegungen auszuführen.

Jedes Bein verfügt dabei über einen Proportional-Differential-Regler, der wie ein Federmechanismus die Höhe des Beines mit einer Soll-Vorgabe vergleicht und Abweichungen um so schneller nachregelt, je größer sie sind. Damit vermag die Maschine im Labor geradeaus zu laufen und einfache Hindernisse zu übersteigen. Die Ergebnisse aus den derzeitigen biologischen Untersuchungen sollen dazu verwandt werden, sie zum Kurvenlauf zu befähigen; ausgestattet mit einem optischen System könnte sie dann auch größere Hindernisse wie Wände oder Tische umgehen. Das Entwicklungsziel der Münchener Ingenieure ist ein mit bildverarbeitender Sensorik ausgerüsteter Roboter zur Inspektion von Abwasserkanälen.

Unklar ist noch, wie Lernmechanismen in solche modularen Systeme zu implementieren sind, denn Lernen müßte auch lokal in den einzelnen Bausteinen stattfinden. Bislang gibt es aber nur erste Vorstellungen davon, wie das zu organisieren wäre, etwa indem man jedem Modul einen eigenen Bewerter vorgibt.


Organisation von Modulen

Von den sich gegenseitig abstimmenden Neuronen-Einheiten gelangt man zu einer sehr hohen Stufe der Komplexität, die Austausch von Wissen und Arbeitsteilung beinhaltet. Die bisher behandelten unabhängigen Module sind auf bestimmte Aufgaben spezialisiert und setzen ihr gespeichertes Wissen über eine bestimmte Verhaltensweise – ein sogenanntes prozedurales Wissen – dann um, wenn die entsprechende Umweltsituation vorliegt: Jede Komponente ist ein Experte für seinen Problembereich.

Solche Systeme können sich veränderten Situationen nur im Sinne der beschriebenen Generalisierung anpassen. Neues Verhalten könnte zwar durch Emergenzeffekte entstehen; die Erfindung situationsgerechter Verhaltensweisen durch das System selbst ist aber auf diese Weise noch nicht möglich.

Denken wir zum Beispiel an einen sich auf Rädern fortbewegenden Reinigungsroboter, der mit einem Greifer zum Wegräumen von Gegenständen ausgestattet ist. Für den Fall, daß er auf ein Hindernis stößt und sich seine Räder nicht mehr drehen, sei ein Ausweichmanöver vorgesehen. Bliebe er nun mit den Rädern in einer Bodenunebenheit hängen, hätte er von der technischen Ausstattung her die Möglichkeit, sich zu befreien – sein Greifarm könnte ihn hinausschieben. Im Normalfall greift jedoch das Hindernisvermeidungssystem nur auf die Räder zu. Die neue Verhaltensweise würde indes erfordern, das Wissen anderer Module mit zu nutzen.

Man bezeichnet die Fähigkeit, Kenntnisse unabhängig von der gelernten Prozedur in anderen Zusammenhängen einzusetzen, oft als Kognition (meist wird dieser Begriff auf symbolisch gespeichertes Wissen begrenzt). Denken entspricht letztlich einem solchen Suchen nach geeigneter Information. Wie sich eine dergestalte Manipulation von Kenntnissen mit künstlichen neuronalen Strukturen realisieren ließe, ist noch weitgehend unklar; erste Ansätze verwenden dazu die erwähnten Assoziativspeicher. Das Problem liegt vor allem darin, daß nicht bekannt ist, auf welche Weise in den verschiedenen Modulen sinnvoll gesucht werden könnte.

Ist also sogar rationales Denken, das heißt die Anwendung logischer Strukturen auf vorhandenes Wissen, in diesem Rahmen möglich? Man könnte sich spezielle Module vorstellen, in denen logische Regeln implementiert sind, die in den angesprochenen kognitiven Prozessen aktiviert werden.

Intelligenz tritt demnach wohl nicht plötzlich auf, sondern besteht aus einem Kontinuum zunehmend komplexerer Informationsverarbeitung. Viele Verhaltensweisen, die wir gemeinhin als intelligent bezeichnen, ergeben sich vermutlich aus dem Zusammenwirken prärationaler Mechanismen.

Eine Robotik, die von dem Ideal Abstand nimmt, schon heute menschliche Fähigkeiten mit technischen Mitteln nachzubilden, und statt dessen zunächst die Mechanismen der Insekten imitiert, wird die autonom agierende Maschine wahrscheinlich schneller verwirklichen. Ob darauf aufbauend dereinst Maschinenmenschen zu realisieren sind, kann heute nicht entschieden werden.


Aus: Spektrum der Wissenschaft 3 / 1995, Seite 111
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Spektrum - Die Woche – Wie Computer das Lernen lernen

Die Nobelpreise in Medizin oder Physiologie, Physik und Chemie sind vergeben! Erfahren Sie, wie bahnbrechende Forschungen zu microRNA, neuronalen Netzen und Proteinen die Welt verändern.

Spektrum - Die Woche – Warum soziale Medien weniger gefährlich sind, als wir denken

Spektrum Kompakt – Extremwetter

Auf der ganzen Welt sind Menschen von Extremwetterereignissen betroffen. In Zukunft werden sich diese aufgrund des Klimawandels häufen. So nehmen Starkregen, Dürren und Waldbrände auch in Europa zu. Welche Maßnahmen bei Extremwetter gibt es und wie zuverlässig lassen sich »freak events« vorhersagen?

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.