abkürzend für sequentielle quadratische Programmierungsverfahren, also iterative Algorithmen zur Behandlung nicht-linearer Optimierungsprobleme.
Sie erfordern in jedem Iterationsschritt die Lösung gewisser quadratischer Programmierungsprobleme, welche das Ausgangsproblem modellieren. Damit stellen sie eine Verallgemeinerung des Newtonverfahrens dar.
Angenommen, wir suchen einen Minimalpunkt von f(x) unter den Nebenbedingungen \begin{eqnarray}x\in M:=\{x\in {{\mathbb{R}}}^{n}|{h}_{i}(x)=0,i\in I;{g}_{j}(x)\ge 0,j\in J\}\end{eqnarray} für endliche Indexmengen I, J. Die Funktionen f, hi und gj liegen alle in C2(ℝn, ℝ). Man betrachte die notwendige Optimialitätsbedingung erster Ordnung (wobei λ und μ die aus den λi und μj gebildeten Vektoren bezeichnen): \begin{eqnarray}{D}_{x}L(x,\lambda, \mu):=Df(x)-\displaystyle \sum _{i\in I}{\lambda}_{i}\cdot D{h}_{i}(x)-\displaystyle \sum _{j\in {J}_{0}(x)}{\mu}_{j}\cdot D{g}_{j}(x)=0,{\mu}_{j}\ge 0,{\mu}_{j}\cdot {g}_{j}(x)=0,{h}_{i}(x)=0,{g}_{j}(x)\ge 0,\end{eqnarray} sowie die hinreichende Bedingung zweiter Ordnung (unter Annahme der Gültigkeit der linearen Unabhängigkeitsbedingung): Die Hesse-Matrix\begin{eqnarray}{D}_{xx}^{2}L(x,\lambda, \mu)={D}^{2}f(x)-\displaystyle \sum _{i\in I}{\lambda}_{i}\cdot {D}^{2}{h}_{i}(x)-\displaystyle \sum _{j\in {J}_{0}(x)}{\mu}_{j}\cdot {D}^{2}{g}_{j}(x)\end{eqnarray} ist positiv definit auf dem Tangentialraum [w ∈ ℝn\{0}|Dhi(x) · w = 0, Dgj (x) · w = 0 für j ∈ J0(x)}.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.