Lexikon der Mathematik: hyperbolische Lernregel
eine spezielle Lernregel für dreischichtige Neuronale Netze, deren formale Neuronen in der verborgenen Schicht hyperbolische Aktivierungsfunktionen besitzen; die Lernregel ist nur anwendbar, wenn die vorgegebenen Trainingswerte auf einem mehrdimensionalen regulären Gitter erklärt sind, und generiert dann Netze, die diese Trainingswerte approximieren oder interpolieren.
Im folgenden wird die prinzipielle Idee der hyperbolischen Lernregel kurz im zweidimensionalen Fall erläutert: Wenn man einem dreischichtigen Feed-Forward-Netz mit hyperbolisch aktivierten Neuronen in der verborgenen Schicht eine Menge von P2 (P ∈ ℕ. P ≥ 2) zweidimensionalen Gitter-Trainingswerten (x(
Setzt man nun formal y(
Die Lernregel ist also nicht-iterativ, d. h. in Echtzeit ausführbar, und fixiert die Parameter z. B. im Fall einer sigmoidalen Transferfunktion T : ℝ → ℝ mit der Eigenschaft T(ξ) = 0 für ξ ≤ −1/4 und T(ξ) = 1 für ξ ≥ 1/4 so, daß alle Fehler Null werden (Interpolation). Für allgemeinere sigmoidale Transferfunktionen mit lediglich asymptotischen Verhalten limξ→−∞T(ξ) = 0 und limξ→∞T(ξ) = 1 geht die Interpolation i. allg. verloren und man hat nur noch eine Approximation des Datensatzes.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.