Analog zu den partiellen Ableitungen, die wir entlang von Koordinatenrichtungen eingeführt haben,
wollen wir uns in diesem sehr kurzen Video mit dem Konzept der Richtungsableitung beschäftigen.
Das ist eigentlich nichts anderes als Differenzen entlang eindimensionaler Linien,
die durch einen Richtungsvektor, der jetzt beliebig sein kann, vorgegeben sind.
Wir beginnen also direkt mit der Definition der Richtungsableitung.
Richtungsableitung. Was verstehen wir darunter? Das ist eigentlich ein klassischer Ableitungsbegriff
im Sinne eines Grenzwertes einer eindimensionalen Variable. Das heißt, wir brauchen erstmal wieder
eine offene Teilmenge. U Teilmenge eher auch n eine offene Teilmenge. Und wir betrachten
erstmal nur eine Funktion. Wir haben keine Voraussetzungen in diese Funktion. Das heißt,
f bildet ab von u in die reellen Zahlen. Wir fordern hier explizit nicht, dass die Funktion
partiell differenzierbar oder total differenzierbar sein muss. Wir betrachten
jetzt nur den Begriff der Richtungsableitung für eine gewisse Richtung. Also für einen
Punkt x aus dieser Offenunggebung u und einen normierten Richtungsvektor. Das ist jetzt wichtig.
Normierten Richtungsvektor, den wollen wir v nennen. V aus dem R hoch n mit der folgenden
Eigenschaft, die Norm von v soll gleich 1 sein, also normiert. So heißt der, heißt der Grenzwert
falls er dann existiert, das ist nicht so klar. Und wir betrachten jetzt einen Differenzenquotienten
der folgenden Art. Wir bezeichnen die Richtungsableutung häufig in der Notation mit dem großen d für
Differential und hier unten als Subindex schreiben wir v für diesen Richtungsvektor von der Funktion
f in einem Punkt x und das ganze ist im Prinzip definiert als der Liemes für eine Variable t,
die eindimensional ist gegen 0 des folgenden Differenzenquotienten, nämlich f von x plus t
mal in die Richtung v, da ist der Richtungsvektor minus f von x, also ausgewertet in dem Punkt, in
dem wir diese Differenzierbarkeit untersuchen wollen, geteilt durch t. Und anschaulich kann man sich das
Ganze so vorstellen, wenn wir hier einen Punkt x haben und wir haben einen Richtungsvektor v, den
wir uns vorgeben, der ist jetzt normiert, dann untersuchen wir sozusagen entlang dieser eindimensionalen
Linie, ob der Grenzwert existiert und falls ja, dann existiert auch diese Richtungsableutung.
Jetzt ist es so, die Richtungsableutung selber ist relativ schwach, aber wenn wir uns eine stetig
partiell differenzierbare Funktion anschauen und Sie erinnern sich, das war der stärkste Begriff von
Differenzierbarkeit, dann können wir die Richtungsableutung ganz leicht auch über den
Gradienten darstellen, nämlich als ein Skalarprodukt, das wollen wir uns im folgenden Satz einmal
anschauen. Also wir wählen diesmal eine stetig partiell differenzierbare Funktion für eine offene
Teilmenge, eher auch n, und sei f von u hier nach r eine, und das ist jetzt die wichtige Voraussetzung,
stetig partiell diffbar Funktion. Dann kann ich für jeden Richtungsvektor Folgendes angeben,
dann gilt für jeden Richtungsvektor V aus dem eher auch n denormiert ist, also die Norm von V
soll insbesondere gleich 1 sein, und dann können wir nämlich die Richtungsableutung durch ein
Skalarprodukt mit dem Gradienten ausdrücken und das sieht wie folgt aus, wir sagen die
Richtungsableutung der Funktion f im Punkt x in Richtung v, die können wir jetzt darstellen als
das Skalarprodukt des Gradienten von f im Punkt x mit dem Richtungsvektor v. Das kann man sich so ein
bisschen vorstellen wie der Anteil den die Richtung v an dem Gradienten f von x hat, so muss man sich
das vorstellen und zwar für alle x aus u, da wir gesagt haben, dass die Funktion global stetig
partiell differenzierbar ist. Der Beweis der ist nicht besonders schwierig, den können Sie in der
Hausaufgabe zeigen, ist eine gute Rechenübung, das heißt den werde ich an der Stelle auslassen.
Dennoch wollen wir noch folgende Bemerkung schließlich festhalten, nämlich wir wollen uns
ansehen, in welchem Fall diese Richtungsableutung maximal wird. Das hat nämlich eine besonders
interessante Aussage zur Folge, die man gerade für numerische Optimierungsmethoden ausnutzen kann,
das heißt wir machen noch folgende Bemerkung, ist das Video schon zu Ende. Falls wir annehmen,
dass der Gradient nicht verschwindet, denn sonst wäre das Skalarprodukt relativ langweilig und
die Richtung wäre auch egal, also sofern gilt, dass der Gradient von f in der Stelle x ungleich
0 ist, können wir einen Winkel definieren zwischen Gradienten und dieser Richtungsableutung,
können wir einen Winkel, das war im Prinzip ein Teta und definieren das Ganze und Sie wissen
noch, dass haben wir in der linearen Algebra eingeführt, das war dieses Winkelsymbol zwischen
Presenters
Zugänglich über
Offener Zugang
Dauer
00:10:38 Min
Aufnahmedatum
2021-06-24
Hochgeladen am
2021-06-24 15:07:02
Sprache
de-DE