Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Dann kommen wir zur Vorlesung.
Herr Knabner hat letzten Freitag bereits ein bisschen mit einem der großen, wenn nicht sogar das große Hauptthemen der Linie an Eige-Brabégon, die Eigenwerttheorie.
Er hat definiert, was Eigenwerte sind, was Eigenvektoren sind, Eigenräume von Eigenwerten.
Und auch den Zusammenhang von Determinanten und einer Spur einer Matrix mit den Eigenwerten dargelegt.
Und eben auch, dass diese charakteristischen Größen wie Eigenwerte auch unter Ähnlichkeit erhalten bleiben.
Das heißt, ähnliche Matrizen haben die gleichen Eigenwerte, insbesondere auch die gleiche Determinante und die gleiche Spur.
Gut, und heute wollen wir das noch ein bisschen vertiefen.
Vor allem möchten wir heute eine geometrische Interpretation von Eigenwerten, insbesondere von komplexen Eigenwerten, geben.
Und auch Eigenwerte kennenlernen oder Eigenschaften über Eigenwerte von speziellen Matrizen, beispielsweise symmetrischen Matrizen.
Aber auch, wie sich Eigenwerte von abgeleiteten Matrizen übertragen.
Beispielsweise, wenn ich einen Eigenwert einer Matrix habe, kann ich daraus schon einen Eigenwert von der transponierten oder der inversen Matrix herleiten.
Gut, aber zunächst mal ein recht einfaches geometrisches Beispiel.
Das soll jetzt ein bisschen motivieren, warum wir jetzt überhaupt im Körper C arbeiten, in den komplexen Zahlen.
Warum uns die reellen Zahlen jetzt nicht genügen.
Also wir haben hier gegeben eine Zweikreuz-Zwei-Matrix, das ist die, denke ich, doch wohlbekannte Drehmatrix.
Cosinus-Phi, Sinus-Phi, Minus-Sinus-Phi, Cosinus-Phi.
Das sind jeweils in diesen Spalten die Bilder, auf die der erste Einheitsvektor und der zweite Einheitsvektor abgebildet werden.
Alles in allem ist das eine Drehung um den Winkel Phi in mathematisch positiver Richtung, also im Gegenuhrzeigersinn, in der Ebene R2.
Wenn wir jetzt von dieser Matrix die Eigenwerte bestimmen möchten, schauen wir uns erstmal das charakteristische Polynom an.
Was ist das? Das ist die Determinante von der Matrix selbst, minus Lambda mal die Einheitsmatrix.
Das heißt, auf der Diagonalen haben wir noch jeweils minus Lambda.
Davon die Determinante, naja, bestimmt sich recht einfach, sind die Diagonaleinträge miteinander multipliziert,
die multiplizierten nicht Diagonaleinträge. Wir bekommen also Cosinus-Phi minus Lambda zum Quadrat plus Sinus zum Quadrat.
Und das soll jetzt Null sein. Das sind hier im Reellen gedacht zwei positive Terme.
Das heißt, das charakteristische Polynom ist genau dann Null, wenn jeder dieser einzelnen Summanden hier Null ist.
Das heißt, zum einen, wenn Sinus von Phi gleich Null ist und wenn Cosinus von Phi gleich Lambda ist.
Es gibt also nur zwei Möglichkeiten. Also Sinus von Phi ist für Phi gleich Null, also wenn wir nichts drehen,
für die Identität, verschwindet hier das Sinus. Und für Pi, also wenn wir um 180 Grad drehen, verschwindet hier das Sinus.
Und das sind auch die einzigen zwei Möglichkeiten, in denen wir reelle Eigenwerte bekommen für diese Matrix.
Das heißt, einmal für den Winkel Phi gleich Null haben wir den Eigenwert Lambda gleich 1.
Und geometrisch, oder nicht geometrisch, sondern die Abbildung an sich ist nichts anderes als die Identität.
Und für den Winkel Pi haben wir den Eigenwert minus 1. Ja, weil der Cosinus von Pi ist minus 1 und der Cosinus von Null ist 1.
Und geometrisch interpretiert ist das nichts anderes als ein Punktspiel gelungen.
Also wenn man sich die Eigenwertgleichung nochmal überlegt, die kommt man zum Beispiel auf Eigenvektoren,
wenn man sucht die Vektoren, die wenn ich schon einen Eigenwert habe, das Gleichungssystem lösen, a mal v ist Lambda mal v.
Das bedeutet, der Eigenvektor wird unter der Abbildung a nur um den Faktor Lambda entweder gestreckt oder gestaucht, je nachdem.
Das heißt also, für reelle Eigenwerte, wir bekommen deshalb hier nur reelle Eigenwerte in diesen speziellen Fällen,
weil für den Winkel gleich Null nichts passiert. Die Drehung um Winkel Null ist einfach nichts, das ist die Identität.
Das heißt, jeder Vektor wird sozusagen um den Faktor 1 gestaucht oder gestreckt.
Im anderen Falle für Winkel Pi haben wir eine Punktspiegelung, das heißt jeder Vektor wird um den Faktor minus 1 gestreckt, gestaucht.
Das heißt, in diesen Fällen bleibt die Richtung der Vektoren erhalten, nur im Falle Phi gleich Pi, also wenn wir den Eigenwert minus 1 haben,
ändert sich gerade die Orientierung aller Vektoren, das ist alles. Aber trotzdem die Richtung der Vektoren bleibt erhalten,
das ist also im gewissen Sinne einfach nur eine Streckung, Stauchung oder ein Orientierungswechsel in den Vektoren.
Ganz anders ist das für allgemeine Winkel Phi, wenn wir tatsächlich eine Drehung haben, dann ändert sich tatsächlich die Richtung aller Vektoren unter der Abbildung.
Und das ist jetzt die Wichtigkeit oder das Besondere, wenn wir jetzt diese Matrix, auch wenn sie reellwertig ist, nun als komplexwertige Matrix auffassen.
Ja, also auch komplexwertige Eigenwerte zulassen, denn in diesem Falle, wenn wir uns hier nochmal das charakteristische Polynom anschauen,
das ist genau dann Null, wenn diese Gleichung hier gleich Null ist, diese quadratische Gleichung.
Man hat hier diese binomische Formel hier ausmultipliziert, bekommt hier ein Lambda-Quadrat minus 2 Cosinus Phi, das steht hier,
plus Cosinus Quadrat plus Sinus Quadrat, Cosinus Quadrat plus Sinus Quadrat ist 1, also haben wir diese quadratische Gleichung.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:28:29 Min
Aufnahmedatum
2015-01-28
Hochgeladen am
2015-01-28 15:19:15
Sprache
de-DE