Lexikon der Mathematik: Kolmogorow-Typ-Netze
Sammelbegriff für dreischichtige vorwärtsgerichtete Neuronale Netze, bei denen die rein abbildungstheoretischen Eigenschaften im Vordergrund stehen, und deren Konstruktion durch die von Kolmogorow im Jahre 1957 publizierte Lösung des dreizehnten Hilbert-Problems motiviert ist.
Zur generellen Einordnung dieser Netze ist es zunächst wesentlich, einen kurzen historischen Überblick zu geben. In der Basisarbeit von Kolmogorow aus dem Jahre 1957 geht es um die mit dem dreizehnten Hilbert-Problem verknüpfte Frage, ob es möglich ist, eine mehrdimensionale stetige Funktion auf einem gegebenen Kompaktum durch Superposition und Komposition lediglich eindimensionaler Funktionen exakt zu realisieren. Konkret lautet das Kolmogorow-Resultat wie folgt, wobei bereits eine auf George Lorentz zurückgehende Verschärfung berücksichtigt wird.
Es sei K ⊂ ℝ
Dann gibt es stetige Funktionen φip : ℝ → ℝ, 1 ≤ i ≤ n, 1 ≤ p ≤ 2n + 1, und Tj : ℝ → ℝ, 1 ≤ j ≤ m so, daß für alle x ∈ K und alle j ∈ {1, …, m} gilt
Der obige Satz läßt sich nun im Kontext neuronaler Netze wie folgt interpretieren: Es gibt eine als dreischichtiges neuronales Feed-Forward-Netz mit Kolmogorow-Typ-Neuronen interpretierbare exakte Darstellung der mehrdimensionalen stetigen Funktion f auf K mittels Superposition und Komposition endlich vieler, lediglich eindimensionaler stetiger Funktionen.
Nachdem Kolmogorow dieses Resultat zur Verblüffung der damaligen Fachwelt publiziert hatte, wurde natürlich sofort der Versuch unternommen, dieses zunächst reine Existenzresultat für den praktischen Umgang mit mehrdimensionalen Funktionen nutzbar zu machen. Dabei stellte sich jedoch relativ schnell heraus, daß insbesondere die angegebenen eindimensionalen Erzeugendenfunktionen Tj stets in außerordentlich komplexer Weise von den jeweils zu realisierenden mehrdimensionalen Funktionen fj abhängen und so eine direkte praktische Anwendung des Resultats ausgesprochen schwierig ist.
Letzteres motiviert, das Kolmogorow-Problem im neuronalen Anwendungskontext wie folgt zu modifizieren: Man verzichtet darauf, eine gegebene mehrdimensionale stetige Funktion auf einem Kompaktum exakt zu reproduzieren, sondern begnügt sich mit einer beliebig (hinreichend) genauen näherungsweisen Simulation. Durch diesen Verzicht auf exakte Reproduktion hofft man, mit einem festen, für alle zu simulierenden Funktionen gleichen Satz von eindimensionalen Funktionen auszukommen, im Fall neuronaler Netze im wesentlichen mit nur einer Funktion, nämlich einer festen Transferfunktion.
Dieser Übertragungsversuch der Kolmogorow-Resultate auf neuronale Netze wurde erstmals gegen Ende der achtziger Jahre von Robert Hecht-Nielsen propagiert. Seinem Gedanken folgend wurden dann bald Resultate des folgenden Typs publiziert:
Es sei K ⊂ ℝ
Dann gibt es für alle ε > 0 und alle stetigen sigmoidalen Transferfunktionen T : ℝ → ℝ Netzparameter q ∈ ℕ, wip, Θp, gpj ∈ ℝ, 1 ≤ i ≤ n, 1 ≤ p ≤ q, 1 ≤ j ≤ m, so daß für alle x ∈ K und alle j ∈ {1, …, m} gilt
Dieses Resultat besagt mit anderen Worten: Es gibt ein dreischichtiges neuronales Feed-Forward-Netz mit sigmoidaler Transferfunktion und Ridge-Typ-Aktivierung in den verborgenen Neuronen, welches die gegebene stetige Funktion f auf dem Kompaktum K ⊂ ℝ
Weitere Verallgemeinerungen, z. B. bezüglich der betrachteten Funktionenräume, der Art und Weise der Fehlermessung sowie des Typs und der Glattheit der benutzten Transfer- und Aktivierungsfunktionen, liegen auf der Hand und werden unter dem Stichwort Kolmogorow-Typ-Netze intensiv in der einschlägigen Literatur studiert.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.