Lexikon der Mathematik: crosstalk
im Kontext Neuronale Netze die Bezeichnung für den Fehler, der entsteht, wenn man im Fall nicht-orthogonaler Eingabevektoren eine Menge von diskreten Trainingswerten in Summen von Produkten speichern will, die durch die Hebb-Lernregel entstehen.
Konkret ergibt sich der crosstalk wie folgt: Es seien die diskreten Trainingswerte
\begin{eqnarray}({x}^{(s)},{y}^{(s)})\in {{\mathbb{R}}}^{n}\times {{\mathbb{R}}}^{m},1\le s\le t,\end{eqnarray}
\begin{eqnarray}W:={({w}_{ij})}_{i=1\ldots n}^{j=1\ldots m}\end{eqnarray}
mit der Hebb-Lernregel berechnet worden gemäß\begin{eqnarray}{w}_{ij}:=\displaystyle \sum _{s=1}^{t}{x}_{i}^{(s)}{y}_{j}^{(s)},1\le i\le n,1\le j\le m.\end{eqnarray}
Bildet man nun für einen beliebig gegebenen Vektor x(
\begin{eqnarray}{W}^{T}{x}^{(r)}={y}^{(r)},1\le r\le t,\end{eqnarray}
d. h., die Trainingswerte sind in der Gewichtsmatrix W exakt gespeichert und abrufbar.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.