Lexikon der Mathematik: dynamische Optimierung
dynamische Programmierung, Optimierungsproblem für einen Prozeß, der in mehrere einzelne Stufen aufgegliedert ist.
Auf jeder Stufe i bestimmt dabei eine Kontrolle ki, wie sich der Prozeß, von einem auf der vorhergehenden Stufe berechneten Zustand ausgehend, verändert. Ziel ist die Bestimmung geeigneter Kontrollen so, daß das Ergebnis des gesamten Prozesses optimiert wird.
Zur Veranschaulichung betrachten wir das folgende Beispiel: Es sei P ein Prozeß aus N Stufen P1…., PN. Ausgehend von einem Startzustand p0 und einer Kontrolle k1 berechnet P1 den neuen Zustand p1 als Funktion f1(p0, k1). Analog berechnet P2 den Zustand p2 = f2(p1, k2) usw. für alle pi.
Die fi heißen auch Transitionsfunktionen. Die pi und ki sind dabei Vektoren reeller Zahlen. Eine Zielfunktion F(p0, p1,…, pN, k1,…, kN) soll optimiert werden. Dabei sei p0 die Eingabe des Problems, und die Kontrollen ki sind zu bestimmen.
Sowohl die pi als auch die Kontrollen können weiteren Nebenbedingungen unterliegen. Wesentliche Voraussetzung an die Zielfunktion F ist ihre additive Zerlegbarkeit, d. h. es gibt Funktionen gi mit
\begin{eqnarray}F=\displaystyle \sum _{i=1}^{N}{g}_{i}({p}_{i-1},{k}_{i}).\end{eqnarray}
Probleme dieser Art werden mit dem Bellmannschen Optimalitätsprinzip gelöst.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.