52 - Die Divergenz eines Vektorfelds [ID:34504]
50 von 164 angezeigt

Nachdem wir im letzten Video den Gradienten als den ersten Differentialoperator erster Ordnung

kennengelernt haben, wollen wir uns jetzt mit der Divergenz eines Vektorfelds beschäftigen.

Ganz wichtig ist schon zu bemerken, dass sich der Gradient als Operator auf Funktionen nur

anwenden lässt auf Funktionen, die vom R hoch N nach R abbilden. Die Divergenz hingegen braucht

ein Vektorfeld, um sinnvoll abgebildet zu werden. Das heißt, das erste und das wichtigste, was sie

sich merken sollten, ist, die Divergenz arbeitet auf einer anderen Klasse von Funktionen. Das heißt,

ich mache hier eine kurze Bemerkung. Merke, der Gradient arbeitet nur auf Funktion F mit F von,

ich sage mal, einer offenen Umgebung U nach, das ist jetzt wichtig, R. Wohingegen die Divergenz,

die wir gleich einführen werden, die sich auch notiert als div für Divergenz auf einer Funktion

F, oder nehmen wir sie gleich V, um zu sehen, dass das ein Unterschied ist, funktioniert nur

auf einem Vektorfeld und dieses V lebt dementsprechend auf U und bildet ab nach R hoch N.

Das heißt, obwohl das beides Differentialoperatoren sind, bilden sie in verschiedene Richtungen ab,

und das muss man immer berücksichtigen. Und ansonsten ist die Divergenz sehr interessant,

weil sie auch eine physikalische Interpretation erlaubt, wie wir gleich sehen werden. Wir fangen

jetzt erstmal an zu definieren, was wir unter der Divergenz eines Vektorfelds verstehen.

Definition der Divergenz, sozusagen unser zweiter Operator, den wir untersuchen,

der nur partielle Ableitung benötigt. Wir sagen wieder, wie immer sei U Teilmenge R hoch N eine

offene Teilmenge. Und wir brauchen ein partiell differenzierbares Vektorfeld. Und was heißt

partiell differenzierbar? Heißt, dass jede Komponente vi von V partiell differenzierbar ist.

Das schreiben wir vielleicht mal dazu. Für ein partiell differenzierbares Vektorfeld V bildet ab

von U, wie da oben schon erklärt, nach R hoch N. Da müssen wir aufpassen. Was heißt das partiell

differenzierbares Vektorfeld? Das heißt, partiell differenzierbar in jeder Komponente, in jeder

Komponente. Und die nennen wir vi von V. Also stellt man sich einfach so vor, dass V abbildet in R

hoch N und der Vektor, der rauskommt, hat N Komponenten. Und wir können uns im Prinzip

dann die partielle Ableitung jeder einzelnen Komponente anschauen bezüglich aller Koordinatenrichtungen.

Dementsprechend sprechen wir dann von einem partiell differenzierbaren Vektorfeld, wenn alle

Komponenten der Funktion dieses Vektors partiell differenzierbar sind. Genau, das sind die

Voraussetzungen. Dann nennen wir folgenden Operator, den habe ich oben schon mal skizziert, den nennen

wir div für Divergenz von einer Funktion V ausgewertet in X. Und der ist wie folgdefiniert,

der Gradient war ja ein Operator, der eigentlich nur partielle Ableitung in einem Vektor gesammelt

hat. Die Divergenz geht jetzt anders vor, die nimmt diese partiellen Ableitung für jede Komponentenrichtung

und summiert diese auf. Das heißt, wir haben jetzt hier folgende Summe stehen von i gleich 1 bis N.

Ich schreibe es einmal wieder in der ausführlichen Schreibweise für die partiellen Ableitung. Das

heißt, wir haben ein del vi, das ist die ite Komponente von V, abgeleitet auch nach del xi,

so kann man sich das gut merken. Die beiden Indizes müssen übereinstimmen bei der Divergenz,

ausgewertet in X. Oder in der Kurzschreibweise können wir das Ganze auch noch angeben als die

Summe i gleich 1 bis N über del i vi ausgewertet in X, je nachdem, was Sie da bevorzugen. Und diesen

Operator nennen wir die Divergenz des Vektors als V an der Stelle X. Die Divergenz von V in X aus U.

Na und da wird auch schon irgendwie klar, dass unsere Divergenz selber nur Skalare rausgibt,

denn wenn wir die einzelnen Komponenten ableiten, dann erhalten wir in jeder Komponente sozusagen

einen eindimensionalen Output und wenn wir das aufsummieren, dann summieren wir nur über

N-Summanden und dann bleibt das Ganze eindimensional. Das heißt, was wir am Ende rauskriegen bei der

Divergenz ist ein Skalar, wohingegen wir beim Gradienten, wie wir gesehen haben, ein Vektor

rausbekommen. Das heißt, auch hier muss man aufpassen, der Output unterscheidet sich bei

diesen beiden Operatoren. Und was können wir noch angeben in dieser Definition? Die Divergenz lässt

sich jetzt auch über den NABLER-Operator ausdrücken. Wie geht das? Schreiben wir mal.

Oft wird die Divergenz als Skalarprodukt mit dem NABLER-Operator ausgedrückt.

So schreibt ein NABLER-Operator. Das war das umgedrehte Dreieck, das wir schon kennen vom

Gradienten. Und wie funktioniert das? Wie muss man sich das vorstellen? Das heißt,

wenn wir jetzt ein Vektorfeld V haben, dann kann ich die Divergenz von V auch wie folgt ausdrücken.

Zugänglich über

Offener Zugang

Dauer

00:21:52 Min

Aufnahmedatum

2021-06-16

Hochgeladen am

2021-06-16 18:28:14

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen