61 - Richtungsableitungen [ID:34898]
50 von 86 angezeigt

Analog zu den partiellen Ableitungen, die wir entlang von Koordinatenrichtungen eingeführt haben,

wollen wir uns in diesem sehr kurzen Video mit dem Konzept der Richtungsableitung beschäftigen.

Das ist eigentlich nichts anderes als Differenzen entlang eindimensionaler Linien,

die durch einen Richtungsvektor, der jetzt beliebig sein kann, vorgegeben sind.

Wir beginnen also direkt mit der Definition der Richtungsableitung.

Richtungsableitung. Was verstehen wir darunter? Das ist eigentlich ein klassischer Ableitungsbegriff

im Sinne eines Grenzwertes einer eindimensionalen Variable. Das heißt, wir brauchen erstmal wieder

eine offene Teilmenge. U Teilmenge eher auch n eine offene Teilmenge. Und wir betrachten

erstmal nur eine Funktion. Wir haben keine Voraussetzungen in diese Funktion. Das heißt,

f bildet ab von u in die reellen Zahlen. Wir fordern hier explizit nicht, dass die Funktion

partiell differenzierbar oder total differenzierbar sein muss. Wir betrachten

jetzt nur den Begriff der Richtungsableitung für eine gewisse Richtung. Also für einen

Punkt x aus dieser Offenunggebung u und einen normierten Richtungsvektor. Das ist jetzt wichtig.

Normierten Richtungsvektor, den wollen wir v nennen. V aus dem R hoch n mit der folgenden

Eigenschaft, die Norm von v soll gleich 1 sein, also normiert. So heißt der, heißt der Grenzwert

falls er dann existiert, das ist nicht so klar. Und wir betrachten jetzt einen Differenzenquotienten

der folgenden Art. Wir bezeichnen die Richtungsableutung häufig in der Notation mit dem großen d für

Differential und hier unten als Subindex schreiben wir v für diesen Richtungsvektor von der Funktion

f in einem Punkt x und das ganze ist im Prinzip definiert als der Liemes für eine Variable t,

die eindimensional ist gegen 0 des folgenden Differenzenquotienten, nämlich f von x plus t

mal in die Richtung v, da ist der Richtungsvektor minus f von x, also ausgewertet in dem Punkt, in

dem wir diese Differenzierbarkeit untersuchen wollen, geteilt durch t. Und anschaulich kann man sich das

Ganze so vorstellen, wenn wir hier einen Punkt x haben und wir haben einen Richtungsvektor v, den

wir uns vorgeben, der ist jetzt normiert, dann untersuchen wir sozusagen entlang dieser eindimensionalen

Linie, ob der Grenzwert existiert und falls ja, dann existiert auch diese Richtungsableutung.

Jetzt ist es so, die Richtungsableutung selber ist relativ schwach, aber wenn wir uns eine stetig

partiell differenzierbare Funktion anschauen und Sie erinnern sich, das war der stärkste Begriff von

Differenzierbarkeit, dann können wir die Richtungsableutung ganz leicht auch über den

Gradienten darstellen, nämlich als ein Skalarprodukt, das wollen wir uns im folgenden Satz einmal

anschauen. Also wir wählen diesmal eine stetig partiell differenzierbare Funktion für eine offene

Teilmenge, eher auch n, und sei f von u hier nach r eine, und das ist jetzt die wichtige Voraussetzung,

stetig partiell diffbar Funktion. Dann kann ich für jeden Richtungsvektor Folgendes angeben,

dann gilt für jeden Richtungsvektor V aus dem eher auch n denormiert ist, also die Norm von V

soll insbesondere gleich 1 sein, und dann können wir nämlich die Richtungsableutung durch ein

Skalarprodukt mit dem Gradienten ausdrücken und das sieht wie folgt aus, wir sagen die

Richtungsableutung der Funktion f im Punkt x in Richtung v, die können wir jetzt darstellen als

das Skalarprodukt des Gradienten von f im Punkt x mit dem Richtungsvektor v. Das kann man sich so ein

bisschen vorstellen wie der Anteil den die Richtung v an dem Gradienten f von x hat, so muss man sich

das vorstellen und zwar für alle x aus u, da wir gesagt haben, dass die Funktion global stetig

partiell differenzierbar ist. Der Beweis der ist nicht besonders schwierig, den können Sie in der

Hausaufgabe zeigen, ist eine gute Rechenübung, das heißt den werde ich an der Stelle auslassen.

Dennoch wollen wir noch folgende Bemerkung schließlich festhalten, nämlich wir wollen uns

ansehen, in welchem Fall diese Richtungsableutung maximal wird. Das hat nämlich eine besonders

interessante Aussage zur Folge, die man gerade für numerische Optimierungsmethoden ausnutzen kann,

das heißt wir machen noch folgende Bemerkung, ist das Video schon zu Ende. Falls wir annehmen,

dass der Gradient nicht verschwindet, denn sonst wäre das Skalarprodukt relativ langweilig und

die Richtung wäre auch egal, also sofern gilt, dass der Gradient von f in der Stelle x ungleich

0 ist, können wir einen Winkel definieren zwischen Gradienten und dieser Richtungsableutung,

können wir einen Winkel, das war im Prinzip ein Teta und definieren das Ganze und Sie wissen

noch, dass haben wir in der linearen Algebra eingeführt, das war dieses Winkelsymbol zwischen

Zugänglich über

Offener Zugang

Dauer

00:10:38 Min

Aufnahmedatum

2021-06-24

Hochgeladen am

2021-06-24 15:07:02

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen