Direkt zum Inhalt

Lexikon der Mathematik: SQP-Verfahren

abkürzend für sequentielle quadratische Programmierungsverfahren, also iterative Algorithmen zur Behandlung nicht-linearer Optimierungsprobleme.

Sie erfordern in jedem Iterationsschritt die Lösung gewisser quadratischer Programmierungsprobleme, welche das Ausgangsproblem modellieren. Damit stellen sie eine Verallgemeinerung des Newtonverfahrens dar.

Angenommen, wir suchen einen Minimalpunkt von f(x) unter den Nebenbedingungen \begin{eqnarray}x\in M:=\{x\in {{\mathbb{R}}}^{n}|{h}_{i}(x)=0,i\in I;{g}_{j}(x)\ge 0,j\in J\}\end{eqnarray} für endliche Indexmengen I, J. Die Funktionen f, hi und gj liegen alle in C2(ℝn, ℝ). Man betrachte die notwendige Optimialitätsbedingung erster Ordnung (wobei λ und μ die aus den λi und μj gebildeten Vektoren bezeichnen): \begin{eqnarray}{D}_{x}L(x,\lambda, \mu):=Df(x)-\displaystyle \sum _{i\in I}{\lambda}_{i}\cdot D{h}_{i}(x)-\displaystyle \sum _{j\in {J}_{0}(x)}{\mu}_{j}\cdot D{g}_{j}(x)=0,{\mu}_{j}\ge 0,{\mu}_{j}\cdot {g}_{j}(x)=0,{h}_{i}(x)=0,{g}_{j}(x)\ge 0,\end{eqnarray} sowie die hinreichende Bedingung zweiter Ordnung (unter Annahme der Gültigkeit der linearen Unabhängigkeitsbedingung): Die Hesse-Matrix\begin{eqnarray}{D}_{xx}^{2}L(x,\lambda, \mu)={D}^{2}f(x)-\displaystyle \sum _{i\in I}{\lambda}_{i}\cdot {D}^{2}{h}_{i}(x)-\displaystyle \sum _{j\in {J}_{0}(x)}{\mu}_{j}\cdot {D}^{2}{g}_{j}(x)\end{eqnarray} ist positiv definit auf dem Tangentialraum [w ∈ ℝn\{0}|Dhi(x) · w = 0, Dgj (x) · w = 0 für jJ0(x)}.

In ihrer reinsten Form arbeiten SQP-Verfahren wie folgt: Angenommen, es sind bereits Näherungen xk, λk, μk für eine Lösung der Optimierungsaufgabe berechnet. Dann wird die Zielfunktion durch die quadratische Approximation \begin{eqnarray}{Q}_{k}(x)=DF{({x}^{k})}^{T}\cdot x+\frac{1}{2}\cdot {x}^{T}\cdot {D}_{xx}^{2}L({x}^{k},{\lambda}^{k},{\mu}^{k})\cdot x\end{eqnarray} ersetzt. Zusätzlich werden die Nebenbedingungen linear approximiert, und man löst im (k + 1)-ten Schritt das quadratische Optimierungsproblem \begin{eqnarray}Q_k(x)\to \rm min\end{eqnarray} unter den Nebenbedingungen \begin{eqnarray}{h}_{i}({x}^{k})+D{h}_{i}({x}^{k})^T\cdot x=0,i\in I;\\ {g}_{j}({x}^{k})+D{g}_{j}({x}_{k})\cdot x\ge 0,j\in J.\end{eqnarray} Mit der Lösung dk dieses Problems setzt man \begin{eqnarray}x^{k+1}:=x^k+d^k.\end{eqnarray} Die Lagrangeparameter werden ähnlich angepaßt (entweder durch Lösen eines analogen quadratischen Programmierungsproblems oder als zugehörige Multiplikatoren der gefundenen Lösung der vorhergehenden Iteration). Die Berechnung der Matrix \({D}_{xx}^{2}L({x}^{k},{\lambda}^{k},{\mu}^{k})\) wird häufig dadurch erspart, daß man diese Matrix approximiert. Dieser Zugang wird beispielsweise im BFGS-Verfahren (Broyden-Fletcher-Goldfarb-Shanno, Verfahren von) verfolgt.

  • Die Autoren
- Prof. Dr. Guido Walz

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.