Direkt zum Inhalt

Lexikon der Mathematik: dynamische Optimierung

dynamische Programmierung, Optimierungsproblem für einen Prozeß, der in mehrere einzelne Stufen aufgegliedert ist.

Auf jeder Stufe i bestimmt dabei eine Kontrolle ki, wie sich der Prozeß, von einem auf der vorhergehenden Stufe berechneten Zustand ausgehend, verändert. Ziel ist die Bestimmung geeigneter Kontrollen so, daß das Ergebnis des gesamten Prozesses optimiert wird.

Zur Veranschaulichung betrachten wir das folgende Beispiel: Es sei P ein Prozeß aus N Stufen P1…., PN. Ausgehend von einem Startzustand p0 und einer Kontrolle k1 berechnet P1 den neuen Zustand p1 als Funktion f1(p0, k1). Analog berechnet P2 den Zustand p2 = f2(p1, k2) usw. für alle pi.

Die fi heißen auch Transitionsfunktionen. Die pi und ki sind dabei Vektoren reeller Zahlen. Eine Zielfunktion F(p0, p1,…, pN, k1,…, kN) soll optimiert werden. Dabei sei p0 die Eingabe des Problems, und die Kontrollen ki sind zu bestimmen.

Sowohl die pi als auch die Kontrollen können weiteren Nebenbedingungen unterliegen. Wesentliche Voraussetzung an die Zielfunktion F ist ihre additive Zerlegbarkeit, d. h. es gibt Funktionen gi mit

\begin{eqnarray}F=\displaystyle \sum _{i=1}^{N}{g}_{i}({p}_{i-1},{k}_{i}).\end{eqnarray}

  • Die Autoren
- Prof. Dr. Guido Walz

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.