Lexikon der Neurowissenschaft: Perzeptron
Perzeptron s, Eperceptron, Modell eines neuronalen Netzes, das von dem amerikanischen Psychologen Frank Rosenblatt 1958 vorgeschlagen wurde ( siehe Zusatzinfo ). Im ursprünglichen Modell von Rosenblatt sind die Netzwerkknoten durch Schwellwertneurone (künstliches Neuron) realisiert, und die Verbindungen zwischen den Neuronen sind mit Gewichten versehen, die durch lokale Lernregeln adaptierbar sind (Fehlerrückmeldungsverfahren, Gradientenverfahren). Minsky und Pappert haben das Perzeptronmodell in den 1960er Jahren weiterentwickelt und sehr genau analysiert. In ihrem Perzeptronmodell gibt es eine Retina, einen Satz von Prädikaten oder Masken und ein Schwellwertneuron. Die Retina besteht aus einer Menge von Eingabezellen und stellt die Eingabewerte für die einzelnen Prädikate bereit. Die Kopplungen zwischen der Retina und den Prädikaten sind nicht durch Lernen veränderbar. Die Ausgabewerte der Prädikate werden über gewichtete Verbindungen an das Schwellwertneuron geleitet. Dieses berechnet die gewichtete Summe zwischen der Ausgabe der Prädikate und den synaptischen Gewichten und führt einen Schwellwertvergleich durch. Die Ausgabe des Schwellwertneurons ist bei einer überschwelligen Eingangserregung gleich 1 und sonst 0. Ein Perzeptron ist somit in der Lage, zwei Punktmengen durch eine lineare Trennebene zu separieren. Die Gewichte und der Schwellwert des Neurons legen hierbei die Lage der Trennebene fest. Die bekannteste Lernregel zur Adaptation der Gewichte ist die Perzeptronlernregel: Hierbei handelt es sich um eine überwachte Lernregel mit externem Lehrersignal. Der Konvergenzsatz zur Perzeptronlernregel besagt nun: Sind zwei Mengen linear trennbar, so wird eine Trennebene durch die Perzeptronlernregel nach endlich vielen Lernschritten gefunden. Dieses Theorem ist eines der bekanntesten Resultate über künstliche neuronale Netzwerke.
Lit.:Rosenblatt, F.: Perceptrons. Psychological Review, Vol 65 (1958), S. 386-408. Minsky, M., Pappert, S.: Perceptrons. MIT Press 1969.
Perzeptron
Das einfache Perzeptron ist ein einschichtiges Netz aus binären Neuronen mit Inputvektor x, Kopplungsmatrix c und Outputvektor a. Bei den mehrschichtigen Perzeptronen repräsentiert man die Inputs durch eine erste Schicht von Neuronen und bezeichnet daher in dieser Zählweise das einfache Perzeptron als zweischichtig, mit einer Input- und einer Outputschicht. Das erste echte Mehrschicht-Perzeptron ist dann dreischichtig, mit einer Input-, einer Output- und dazwischen einer verborgenen Schicht.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.