Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Gut, fangen wir an. Heute werden wir es nicht ganz schaffen, die Vorlesung zu Ende zu bringen,
aber dann wahrscheinlich werden wir morgen den ganzen Termin nicht mehr brauchen. Wir waren
dabei uns nochmal das anzuschauen, was man allgemein optimalitäts Bedingungen nennt.
Im nicht restringierten Fall ist das einfach die notwendige optimalitäts Bedingung, Gradient von
F an der Minimalstelle ist Null. Die Frage ist, wie sich diese Bedingung überträgt, wenn man nun
jetzt Einschränkungen hat. Und wir hatten schon gesehen, dass bei Gleichungseinschränkungen da
sich im Prinzip nicht viel ändert. Es gilt weiterhin, dass ganz analog zu Gradient F von
X gleich Null wiederum ein Gleichungssystem gilt. Das mag nicht linear sein im allgemeinen Fall oder
eben auch linear, wenn wir lineare Gleichungseinschränkungen haben und auch ein lineares
oder ein quadratisches Zielfunktional. Wichtig ist es in Gleichungen. Und Gleichungen können wir
lesen, hoffentlich. Gleichungen können sozusagen zur Standardnumerik, also das ist noch nicht
Optimierung. Optimierung fängt dann an, wenn etwas anderes dazu kommt und dieses andere kommt tatsächlich
dazu, wenn wir jetzt Ungleichungsnebenbedingungen mit berücksichtigen. Wir steuern jetzt also
darauf erst mal zu, die Optimalitätsbedingungen zu sehen. Die notwendigen Optimalitätsbedingungen,
die gelten für den Fall, dass wir und zwar nur lineare Ungleichungsnebenbedingungen mit hinzunehmen.
Das macht das, dass diese Voraussetzung der Linearität macht da das Leben etwas leichter.
Man kann das also auch dann letztendlich ganz allgemein machen mit nicht linearen
Zielfunktionalen, mit nicht linearen Funktionalen, die die Gleichungs- und Ungleichungsnebenbedingungen
erzeugen. Aber dann braucht man Zusatzbedingungen, sogenannte Constraint Qualifications und
irgendwas muss ja dann auch in der Optimierungsvorlesung passieren. Also habe ich das jetzt mal ausgeklammert.
Wir sind jetzt auch erst einmal bei der Situation des linearen Zielfunktionales, also sozusagen in
der Situation der linearen Optimierung, aber wie wir schon bei den Gleichungsnebenbedingungen gesehen
haben, die Art, wie wir argumentieren, zeigt uns, dass wir das direkt auf den Fall des nicht
linearen Zielfunktionales übertragen können. Und das wird jetzt auch hier der Fall sein. Die Basis
der Überlegung ist das sogenannte Lemma von Fakash, was wir schon inhaltlich angesprochen haben.
Da geht es also darum, die Menge, die da auf der linken Seite steht, zu charakterisieren. Das heißt
also den Kegel der Konvexenhülle einer Anzahl von Vektoren, die wir als Spalten einer Matrix
a1 bis an a2 a1 a1 a1 a1 a1 a1 an. Man nennt das auch ganz kurz den Konvexen Kegel dieser,
Ups, was ist jetzt los? So mag er jetzt nicht mehr.
Vielleicht sollte ich ihm etwas Strom geben.
Und konkret steht da also die Linear-Kombination, eine Menge von Linear-Kombinationen dieser Spalten,
aber eben nicht beliebiger Linear-Kombination von Linear-Kombinationen mit nicht negativen Koeffizienten.
So kann man also diese Menge auch interpretieren, die auf der linken Seite steht.
Und auf der rechten Seite steht durch diese Identität eine Charakterisierung dieser Elemente,
ganz analog, wie wir eben gesehen haben, dass wir jetzt die Bildmenge charakterisieren können,
eben wegen der Gleichheit als orthogonales Komplement des Kerns des adjungierten Operators.
Da steht hier was ganz Analoges, und zwar steht jetzt hier, man schaue sich die Vektoren P an,
die jetzt nicht senkrecht, die jetzt nicht zum Kern von A adjungiert gehören oder hier im reellen A transponiert,
sondern die Ungleichungsbedingungen A transponiert P größer gleich Null erfüllen.
Sie sollen jetzt auch nicht notwendigerweise orthogonal stehen zu den Vektoren, die wir anschauen,
aber das Skalarprodukt soll diese Vorzeichenbedingung B transponiert X größer gleich Null erfüllen.
Das wollen wir also jetzt als Grundlage zeigen, und das Farkaschlemmer wiederum muss in irgendeiner Form auf etwas aufsetzen,
was noch ein bisschen tiefer liegt. Da gibt es zwei Möglichkeiten, das eine sind die sogenannten Trennungssätze.
Diese spätestens dann mal auch kennen im unendlich Dimensionalen kennenlernen werden, wenn Sie mal eine Funktionalanalysis hören.
Ich möchte hier auf etwas aufsetzen, was eine leichte Allgemeinerung ist dessen, was Sie schon hoffentlich sehr genau aus der linaren Algebra kennen,
nämlich die Orthogonalprojektion. Wo ist das jetzt? Na hier.
Okay, wir erinnern uns daran folgende Situation.
Wir haben einen Vektorraum mit inneren Produkt, also ich formuliere das jetzt mal alles reell,
sonst müsste ich überall da noch den Realteil mitschleppen, man kann das also genauso gut komplex formulieren.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:28:16 Min
Aufnahmedatum
2013-07-15
Hochgeladen am
2013-07-18 10:47:28
Sprache
de-DE