Lexikon der Mathematik: Gradientenverfahren
Gradientenmethode, auch als Verfahren des steilsten Abstiegs bezeichnet, spezielles numerisches Lösungsverfahren für nichtlineare Optimierungsprobleme, ein Verfahren zur Minimierung einer differenzierbaren Funktion f : ℝn → ℝ.
Es sei f : ℝn → ℝ eine partiell differenzierbare Funktion mit jeweils stetigen partiellen Ableitungen und dem Gradienten (grad f). Ferner möge f ein (lokales oder sogar globales) Minimum besitzen und λ > 0 beliebig und fest gegeben sein. Dann nennt man den zur Minimum-Suche dienenden Algorithmus
Gradienten-Verfahren. Der Vektor −(grad f)(x(k)) ist eine Abstiegsrichtung für f in xk. Darüberhinaus ist die Richtungsableitung von f in xk in Richtung −(grad f)(x(k)) am kleinsten, weshalb man auch vom Verfahren des steilsten Abstiegs spricht.
Die Konvergenz der entstehenden Vektorfolge (x(k))k∈ℕ gegen ein lokales oder sogar globales Minimum der Funktion f ist i. allg. nicht gesichert und bedarf zusätzlicher Untersuchungen. Ferner hat die freie Wahl des Parameters λ > 0 sowie des Start-vektors x(0) ∈ ℝn wesentlichen Einfluß auf den Erfolg oder Mißerfolg des Verfahrens und kann z. B. im Rahmen einer Einbettung in einen genetischen Algorithmus erfolgen.
Eine gute Wahl von λ =: tk ist wie folgt: Man wählt tk ≥ 0 als Minimum der Abbildung
Diese Wahl von tk nennt man manchmal auch Cauchy-Prinzip. Spezielle andere Wahlen der Schrittweite tk sind ebenfalls gebräuchlich.
Abschließend sei bemerkt, daß dieses Verfahren im Kontext Neuronale Netze die Basis der Backpropagation-Lernregel bildet sowie in entsprechend angepaßter Form natürlich auch zur numerischen Bestimmung lokaler oder globaler Maxima eingesetzt werden kann.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.