Direkt zum Inhalt

Lexikon der Mathematik: Subgradientenoptimierung

Methoden zur Optimierung von nicht überall differenzierbaren Funktionen.

Sei f : ℝn → ℝ eine konvexe Funktion. Als solche ist f subdifferenzierbar, d. h. für alle x ∈ ℝn ist die Menge ∂f(x0) nicht leer. Zunächst gilt in Analogie zu der entsprechenden Optimalitätsbedingung erster Ordnung, daß f genau in dem Falle einen lokalen Minimalpunkt in \(\bar{x}\in {{\mathbb{R}}}^{n}\) hat, falls 0 ∈ ∂f(x0) zutrifft. Ein typisches Subgradientenverfahren beginnt mit einem Startvektor x0 und erzeugt Iterierte xk wie folgt: In Schritt k berechne man ein Element γk∂f(xk). Falls γk = 0 ist, so ist xk optimal. Andernfalls berechnet man \begin{eqnarray}{x}_{k+1\text{}}:=\text{}{x}_{k}-\text{}{t}_{k}\cdot\frac{{\gamma}_{{k}}}{\text{||}{\gamma}_{k}||}\quad ({t}_{k}\text{}\gt \text{}0)\end{eqnarray}

und iteriert erneut, bis ein Stoppkriterium erfüllt ist. Nicht differenzierbare Optimierungsprobleme mit Nebenbedingungen lassen sich ähnlich behandeln.

  • Die Autoren
- Prof. Dr. Guido Walz

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.