Direkt zum Inhalt

Lexikon der Mathematik: crosstalk

im Kontext Neuronale Netze die Bezeichnung für den Fehler, der entsteht, wenn man im Fall nicht-orthogonaler Eingabevektoren eine Menge von diskreten Trainingswerten in Summen von Produkten speichern will, die durch die Hebb-Lernregel entstehen.

Konkret ergibt sich der crosstalk wie folgt: Es seien die diskreten Trainingswerte

\begin{eqnarray}({x}^{(s)},{y}^{(s)})\in {{\mathbb{R}}}^{n}\times {{\mathbb{R}}}^{m},1\le s\le t,\end{eqnarray}

zur Speicherung gegeben, und dazu die Gewichtsmatrix

\begin{eqnarray}W:={({w}_{ij})}_{i=1\ldots n}^{j=1\ldots m}\end{eqnarray}

mit der Hebb-Lernregel berechnet worden gemäß

\begin{eqnarray}{w}_{ij}:=\displaystyle \sum _{s=1}^{t}{x}_{i}^{(s)}{y}_{j}^{(s)},1\le i\le n,1\le j\le m.\end{eqnarray}

Bildet man nun für einen beliebig gegebenen Vektor x(r), 1 ≤ rt, aus dem Datensatz das Produkt WTx(r), so läßt sich das Ergebnis schreiben als

\begin{eqnarray}{W}^{T}{x}^{(r)}={y}^{(r)},1\le r\le t,\end{eqnarray}

d. h., die Trainingswerte sind in der Gewichtsmatrix W exakt gespeichert und abrufbar.
  • Die Autoren
- Prof. Dr. Guido Walz

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.