Lexikon der Mathematik: Subgradientenoptimierung
Methoden zur Optimierung von nicht überall differenzierbaren Funktionen.
Sei f : ℝn → ℝ eine konvexe Funktion. Als solche ist f subdifferenzierbar, d. h. für alle x ∈ ℝn ist die Menge ∂f(x0) nicht leer. Zunächst gilt in Analogie zu der entsprechenden Optimalitätsbedingung erster Ordnung, daß f genau in dem Falle einen lokalen Minimalpunkt in \(\bar{x}\in {{\mathbb{R}}}^{n}\) hat, falls 0 ∈ ∂f(x0) zutrifft. Ein typisches Subgradientenverfahren beginnt mit einem Startvektor x0 und erzeugt Iterierte xk wie folgt: In Schritt k berechne man ein Element γk ∈ ∂f(xk). Falls γk = 0 ist, so ist xk optimal. Andernfalls berechnet man
und iteriert erneut, bis ein Stoppkriterium erfüllt ist. Nicht differenzierbare Optimierungsprobleme mit Nebenbedingungen lassen sich ähnlich behandeln.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.