Wir fangen an mit einem neuen Kapitel.
Sie haben es schon richtig gemerkt in dem Skript, von dem Weidmann kommt jetzt Integrale,
aber wir machen jetzt einfach Umkehrfunktionen, weil es in der Modulbeschreibung auch so steht.
Im eindimensionalen Fall hatten wir ja schon Aussagen über Umkehrfunktionen.
Wenn die Funktion streng monoton ist, kann man sie lokal invertieren im eindimensionalen Fall.
Aber wir sind ja jetzt in dem Vektor-Analysis-Umfeld.
Da haben wir zum Beispiel Abbildungen vom R hoch N in den R hoch N.
Und was Sie gut kennen, sind ja die linearen Abbildungen vom R hoch N in den R hoch N,
die durch Matrizen gegeben sind.
Und wann sind die denn invertierbar?
Was ist da die Bedingung? Das wissen Sie bestimmt.
Ja, genau, der Rang sollte voll sein, also maximal.
Und das kann man dann feststellen, indem man zum Beispiel die Determinante betrachtet,
die ist dann ungleich Null.
Und hier ist es genauso, bloß ist die Abbildung ja gar nicht durch eine Matrix gegeben.
Aber wir haben ja schon die Ableitung definiert und die Ableitung ist durch die Funktionalmatrix gegeben.
Und die kann auch wieder vollen Rang haben.
Und dann ist diese Abbildung lokal invertierbar.
Also man weiß ja nicht, was weiter weg passiert von dem Punkt.
Sie sitzen in dem Punkt x Null.
Und wenn die Determinante der Funktionalmatrix ungleich Null ist,
kann man lokal um diesen Punkt x Null, also in einer Umgebung von x Null,
zum Beispiel in so einer Kugel davon ausgehen, dass diese Abbildung invertierbar ist.
Also lokales Ergebnis. Mehr kann man hier nicht erwarten.
Lokal heißt, in einer Umgebung von x Null ist die Funktion dann invertierbar.
Weiter weg könnten Sie alle Punkte auf den Nullvektor abbilden.
Und dann ist es natürlich nicht invertierbar.
Das sind hier immer lokale Ergebnisse.
Und in der linearen Algebra ist es natürlich global,
weil das dieselbe Funktionalmatrix ist für alle Punkte, weil es ja immer auch die Abbildungsmatrix ist.
Also wenn Sie die lineare Abbildung differenzieren,
kommt ja als Ableitungsmatrix die Matrix der linearen Abbildung heraus.
Und die hat dann überall Determinante ungleich Null.
Und man kann auch sofort die Inverse ausrechnen,
dass es dann die Abbildung, die durch die inverse Matrix gegeben ist, das ist dann global.
Das ist hier der Unterschied in dem nicht der linearen Fall.
Da bekommt man dann lokale Ergebnisse.
Diese Umkehrfunktion heißt ja auch Inversefunktion.
Und damit beweist man auch den Lagrange-Multiplikatorensatz.
Da kann man ihn beweisen.
Wenn Sie dann später als Wirtschaftsmathematiker irgendwo im Vorstand eines riesigen Unternehmens sitzen,
dann haben Sie ja nur einen Haufen Zahlen und wissen gar nicht wirklich, was in den Unternehmen passiert
und wollen dann Entscheidungen treffen, die zum Beispiel den Gewinn für die Aktionäre maximieren.
Das ist dann ein Optimierungsproblem unter Nebenbedingungen.
Die Nebenbedingungen sind durch Ungleichungen und Ergleichungen gegeben.
Und die Zielfunktion wird über alle Punkte, die diese Nebenbedingungen erfüllen, maximiert bzw. minimiert.
Der Gewinn wird meistens maximiert und vielleicht der Verlust minimiert oder so etwas.
Und dafür gibt es dann auch notwendige Optimalitätsbedingungen.
Wenn Sie keine Restriktionen haben, setzen Sie einfach den Gradienten gleich Null.
Das haben wir ja schon gesehen.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:02:28 Min
Aufnahmedatum
2017-07-03
Hochgeladen am
2017-07-05 07:40:40
Sprache
de-DE