Lexikon der Mathematik: lineare Unabhängigkeitsbedingung
eine Regularitätsbedingung an einen einzelnen oder auch die Menge aller zulässigen Punkte eines Optimierungsproblems.
Sei
mit reellwertigen Funktionen hi, gj ∈ C1(ℝn) und endlichen Indexmengen I und J. Ein Punkt x̅ ∈ M erfüllt die lineare Unabhängigkeitsbedingung, falls die Gradienten
linear unabhängig sind (wobei
die in x̅ aktiven Indizes sind).
Die lineare Unabhängigkeitsbedingung gilt auf M, wenn sie in jedem x̅ ∈ M erfüllt ist.
Wichtig sind derartige Regularitätsbedingungen, da ihre Gültigkeit diverse notwendige Optimalitätskriterien implizieren kann. So gilt etwa der folgende Satz:
Seien f, hj, gj ∈ C1(ℝn) mit Werten in ℝ, M wie oben, und gelte die lineare Unabhängigkeitsbedingung inx̅ ∈ M. Istx̅ ein lokaler Minimalpunkt von f|M, dann istx̅ einKarush-Kuhn-Tucker Punkt.
Man beachte, daß dieser Satz ohne die Gültigkeit der linearen Unabhängigkeitsbedingung nicht richtig ist, wie etwa das Beispiel
im Punkt 0 ∈ ℝ2 belegt. Hier folgt aus g1(x, y) ≥ 0 und g3(x, y) ≥ 0, daß f(x, y) ≥ 0 sein muß, d. h. 0 ∈ ℝ2 ist globaler Minimalpunkt von f|M. Andererseits ist die Gleichung
unlösbar.
Eine andere vergleichbare Regularitätsbedingung ist beispielsweise die Mangasarian-Fromovitz-Bedingung.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.