Nachdem wir im letzten Video den Gradienten als den ersten Differentialoperator erster Ordnung
kennengelernt haben, wollen wir uns jetzt mit der Divergenz eines Vektorfelds beschäftigen.
Ganz wichtig ist schon zu bemerken, dass sich der Gradient als Operator auf Funktionen nur
anwenden lässt auf Funktionen, die vom R hoch N nach R abbilden. Die Divergenz hingegen braucht
ein Vektorfeld, um sinnvoll abgebildet zu werden. Das heißt, das erste und das wichtigste, was sie
sich merken sollten, ist, die Divergenz arbeitet auf einer anderen Klasse von Funktionen. Das heißt,
ich mache hier eine kurze Bemerkung. Merke, der Gradient arbeitet nur auf Funktion F mit F von,
ich sage mal, einer offenen Umgebung U nach, das ist jetzt wichtig, R. Wohingegen die Divergenz,
die wir gleich einführen werden, die sich auch notiert als div für Divergenz auf einer Funktion
F, oder nehmen wir sie gleich V, um zu sehen, dass das ein Unterschied ist, funktioniert nur
auf einem Vektorfeld und dieses V lebt dementsprechend auf U und bildet ab nach R hoch N.
Das heißt, obwohl das beides Differentialoperatoren sind, bilden sie in verschiedene Richtungen ab,
und das muss man immer berücksichtigen. Und ansonsten ist die Divergenz sehr interessant,
weil sie auch eine physikalische Interpretation erlaubt, wie wir gleich sehen werden. Wir fangen
jetzt erstmal an zu definieren, was wir unter der Divergenz eines Vektorfelds verstehen.
Definition der Divergenz, sozusagen unser zweiter Operator, den wir untersuchen,
der nur partielle Ableitung benötigt. Wir sagen wieder, wie immer sei U Teilmenge R hoch N eine
offene Teilmenge. Und wir brauchen ein partiell differenzierbares Vektorfeld. Und was heißt
partiell differenzierbar? Heißt, dass jede Komponente vi von V partiell differenzierbar ist.
Das schreiben wir vielleicht mal dazu. Für ein partiell differenzierbares Vektorfeld V bildet ab
von U, wie da oben schon erklärt, nach R hoch N. Da müssen wir aufpassen. Was heißt das partiell
differenzierbares Vektorfeld? Das heißt, partiell differenzierbar in jeder Komponente, in jeder
Komponente. Und die nennen wir vi von V. Also stellt man sich einfach so vor, dass V abbildet in R
hoch N und der Vektor, der rauskommt, hat N Komponenten. Und wir können uns im Prinzip
dann die partielle Ableitung jeder einzelnen Komponente anschauen bezüglich aller Koordinatenrichtungen.
Dementsprechend sprechen wir dann von einem partiell differenzierbaren Vektorfeld, wenn alle
Komponenten der Funktion dieses Vektors partiell differenzierbar sind. Genau, das sind die
Voraussetzungen. Dann nennen wir folgenden Operator, den habe ich oben schon mal skizziert, den nennen
wir div für Divergenz von einer Funktion V ausgewertet in X. Und der ist wie folgdefiniert,
der Gradient war ja ein Operator, der eigentlich nur partielle Ableitung in einem Vektor gesammelt
hat. Die Divergenz geht jetzt anders vor, die nimmt diese partiellen Ableitung für jede Komponentenrichtung
und summiert diese auf. Das heißt, wir haben jetzt hier folgende Summe stehen von i gleich 1 bis N.
Ich schreibe es einmal wieder in der ausführlichen Schreibweise für die partiellen Ableitung. Das
heißt, wir haben ein del vi, das ist die ite Komponente von V, abgeleitet auch nach del xi,
so kann man sich das gut merken. Die beiden Indizes müssen übereinstimmen bei der Divergenz,
ausgewertet in X. Oder in der Kurzschreibweise können wir das Ganze auch noch angeben als die
Summe i gleich 1 bis N über del i vi ausgewertet in X, je nachdem, was Sie da bevorzugen. Und diesen
Operator nennen wir die Divergenz des Vektors als V an der Stelle X. Die Divergenz von V in X aus U.
Na und da wird auch schon irgendwie klar, dass unsere Divergenz selber nur Skalare rausgibt,
denn wenn wir die einzelnen Komponenten ableiten, dann erhalten wir in jeder Komponente sozusagen
einen eindimensionalen Output und wenn wir das aufsummieren, dann summieren wir nur über
N-Summanden und dann bleibt das Ganze eindimensional. Das heißt, was wir am Ende rauskriegen bei der
Divergenz ist ein Skalar, wohingegen wir beim Gradienten, wie wir gesehen haben, ein Vektor
rausbekommen. Das heißt, auch hier muss man aufpassen, der Output unterscheidet sich bei
diesen beiden Operatoren. Und was können wir noch angeben in dieser Definition? Die Divergenz lässt
sich jetzt auch über den NABLER-Operator ausdrücken. Wie geht das? Schreiben wir mal.
Oft wird die Divergenz als Skalarprodukt mit dem NABLER-Operator ausgedrückt.
So schreibt ein NABLER-Operator. Das war das umgedrehte Dreieck, das wir schon kennen vom
Gradienten. Und wie funktioniert das? Wie muss man sich das vorstellen? Das heißt,
wenn wir jetzt ein Vektorfeld V haben, dann kann ich die Divergenz von V auch wie folgt ausdrücken.
Presenters
Zugänglich über
Offener Zugang
Dauer
00:21:52 Min
Aufnahmedatum
2021-06-16
Hochgeladen am
2021-06-16 18:28:14
Sprache
de-DE