Lexikon der Mathematik: multilinearer (Sigma-Pi-)Assoziierer
Bezeichnung für ein spezielles zweischichtiges Neuronales Netz für bipolare Eingabewerte, das mit der verallgemeinerten Hebb-Lernregel trainiert wird und im Ausführ-Modus auf den Trainingswerten exakt arbeitet.
Im folgenden wird der multilineare Assoziierer kurz skizziert: Es sei ein zweischichtiges neuronales Feed-Forward-Netz mit multilinearer Aktivierung und identischer Transferfunktion in den Ausgabe-Neuronen gegeben (vgl. Abbildung).
Wenn man diesem Netz eine Menge von t Trainingswerten mit bipolaren Eingabewerten (x(
\begin{eqnarray}{w}_{R,j}:={2}^{-n}\displaystyle \sum _{s=1}^{t}{y}_{j}^{(s)}\displaystyle \prod _{i\in R}{x}_{i}^{(s)}\end{eqnarray}
für R ⊂ {1, … , n} und 1 ≤ j ≤ m. Sind nun die bipolaren Eingabetrainingsvektoren x(
\begin{eqnarray}\displaystyle \sum _{R\subset \{1,\ldots ,n\}}{w}_{R,j}\displaystyle \prod _{i\in R}{x}_{i}^{(s)}={y}_{j}^{(s)}\end{eqnarray}
für 1 ≤ j ≤ m und 1 ≤ s ≤ t, und wird in der Literatur (Hebb-trainierter) multilinearer (Sigma-Pi-)Assoziierer genannt. Im Gegensatz zum gewöhnlichen (Hebb-trainierten) linearen Assoziierer, der orthonormale Eingabetrainingsvektoren zum perfekten Arbeiten benötigt, arbeitet der Sigma-Pi-Assoziierer für beliebige, lediglich als verschieden vorausgesetzte bipolare Eingabetrainingsvektoren perfekt. Dies ist natürlich ein entscheidender Gewinn, der allerdings durch eine wesentlich höhere Komplexität des Netzes erkauft wird.Schließlich sei noch erwähnt, daß der Sigma-Pi-Assoziierer insbesondere jede bipolar codierte Boolesche Funktion f : {−1, 1}n → {−1, 1}m exakt implementieren kann und damit implizit gezeigt ist, daß jede Boolesche Funktion exakt durch ein derartiges neuronales Netz dargestellt werden kann.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.