Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Ja, ich begrüße Sie wieder zur Mathematik. Wir haben ja jetzt gerade die zehnte Übung und die
elfte Übung. Es enthält auch noch Stoff, der bepunktet wird und der also auch noch relevant
ist für die Klausur, also was jetzt kommt ist durchaus noch relevant also
es ist sehr gut dass sie hier sind. Das ist sinnvoll. Wir sind jetzt ja in dem
Kapitel über die Analyse mit mehreren veränderlichen und da tauchen jetzt
neue Begriffe auf zum Beispiel der Gradient, den haben wir eingeführt.
Unsere Funktion f bildet jetzt den R hoch N in den R hoch 1 ab.
Hier sind also N Variablen x1 bis xn im Spiel und nach jeder Komponente dieser
Vektoren im R hoch N können wir die Funktion f differenzieren und diese
Ableitungen nach einer von N Variablen heißen partielle Ableitungen und wenn
man die zusammen fasst in einem Vektor dann erhält man den Gradienten Vektor
oder einfach kurz gesagt den Gradienten.
Gradient von f in einem Punkt x besteht also aus den partiellen Ableitungen.
Oben steht die partielle Ableitung nach der ersten Variablen und in der letzten
Komponente steht die partielle Ableitung nach der enden Variablen.
Also hier haben sie die partiellen Ableitungen.
Diese D nach D x Notation ist die ausführliche Notation. In den Übungen
haben sie ja auch gesehen man kann auch einfach f schreiben und dann im Index die
Variable nach der man ableitet. Für den Gradienten gibt es auch noch eine
kürzere Schreibweise man nennt das auch Nabla f.
Wenn eine Funktion partiell differenzierbar ist heißt das allerdings
noch nicht dass sie differenzierbar ist im R hoch N. Die Differenzierbarkeit im R
hoch N haben wir folgendermaßen definiert. Funktion f heißt
differenzierbar in einem Punkt x Null R hoch N genau dann wenn es eine Funktion g gibt
sodass folgende Gleichung erfüllt ist und diese Gleichung sieht so aus wie eine
Taylor Entwicklung bis zur ersten Ordnung von f im Punkt x Null. Lokal um
dem Punkt x Null lässt sich dann diese Funktion gut durch eine lineare Funktion
approximieren. Die Formel ist f von x ist gleich f von x Null, das ist der Funktionswert an der Stelle x Null plus
Gradient Nabla f an der Stelle x Null transponiert mal x minus x Null. Das ist
ein Skalarprodukt und das gibt den linearen Teil. Hier das können Sie sich
vorstellen wie so eine Tangente im eindimensionalen Fall dann wäre das die
Tangentensteigung und hier im mehrdimensionalen Fall haben wir keine
Tangente sondern eine Tangentialebene an den Grafen. Der Graf ist ja wenn Sie eine
Funktion im R hoch 2 haben so wie so ein fliegender Teppich also zum Beispiel so
ein Teil einer Oberfläche und da kann man dann Tangentialebenen drauf legen
und die entsprechen genau diesem linearen Anteil und jetzt kommt noch der
Rest der Fehler und der hatte Gestalt Norm von x minus x Null mal g von x und
der Witz ist das g geht dann gegen Null also Liemes für x gegen x Null von g von
x ist gleich Null. Das war diese längere Definition der Differenzierbarkeit
und die sagt aus man kann lokal die Funktion gut linear
approximieren durch so eine Tangentialebene und hier haben sie einen
normalen Vektor daneben haben wir auch Richtungsableitungen gesehen die kann
man als grenzwert definieren wie sie es vom eindimensionalen Fall her kennen von
den Ableitungen.
Also wir haben eine Richtung D und wir leiten die Funktion f ab im Punkt x
Strich in Richtung D und das ist definiert als der Liemes für h gegen Null
genau wie im eindimensionalen Fall heißt eine reelle Zahl von f von x plus h mal d
also wir laufen von x ausgehend von dem Punkt x ausgehend in die Richtung D mit
dieser Schrittweite h und bilden dann den entsprechenden Differenzenquotienten.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:22:53 Min
Aufnahmedatum
2015-06-22
Hochgeladen am
2015-06-22 16:42:51
Sprache
de-DE