8 - VL_05_1_SVD [ID:30029]
50 von 415 angezeigt

Hallo, das letzte Mal haben wir uns mit der Eigenwertzerlegung von symmetrischen

positive definierten Matrizen befasst und in dieser Vorlesung werden wir die wichtigste

Verallgemeinerung von dieser Idee, nämlich die sogenannte Singular Wertzerlegung oder wie man

englisch sagt SVD für Singular Value Decomposition. Das machen wir jetzt in der Lekse. Zur Erinnerung

noch mal die Digitalisierung von Matrizen. Wir starten in der quadratischen Matrix A, das heißt das ist eine R hoch N

Kreuz N Matrix und die heißt diagonalisierbar, wenn wir eine Matrix S oder die Diagonalmatrix D finden,

sodass A gleich S mal D mal S noch minus eins ist. Und diese Darstellung ist jetzt insofern günstig als D,

das haben wir jetzt nicht gezeigt, aber das kann man sich leicht überlegen. D ist die Darstellungsmatrix

in der Notation von letztem mal. Ich habe jetzt einfach mal A von der Linie und Abbildung, die durch A definiert ist,

aber jetzt nicht in Bezug auf die Basis 1, 0, 0 und so weiter, sondern in Bezug auf die Basis S.

S nach S. Also S und mehr oder weniger S sind quasi die Basen. Wir wissen, dass diese Eigenvektoren hier eine Basis bilden

und das heißt wir können sie jetzt an der Basis benutzen, um die lineare Abbildung darzustellen und dann

bekommen wir die diagonalen Matrix. Das heißt die diagonalisierung ist eigentlich nur das Auffinden der

natürlichsten Darstellungsmatrix für die lineare Abbildung, die durch A gegeben ist. Und das hängt natürlich ganz stark mit den Eigenvektoren

und den Eigenwerten zusammen, also die Eigenvektoren sind gerade die natürliche Basis bezüglich der linearen Abbildung

und wenn wir dann A multiplizieren mit diesem V i, mit so einem Eigenvektor, natürlich kommt der Lambda i V i raus,

und es ist ganz interessant sich anzuschauen warum, dass diese Rechnung haben wir schon ein paar mal gemacht.

Naja, also S hat diese V1 bis Vn als Spalten und wir wissen, S noch minus 1, weil S ist diese Matrix, die Identitätsmatrix,

0 und so weiter bis 0, 0, 0, 1 und jetzt wissen wir wie es weitergeht. Hier sind noch die Nuller, das heißt,

wenn wir nur mit V i multiplizieren, nämlich dem i-ten Eintrag, S hat minus 1, V i ist dann gerade der Vektor,

der an der i-ten Stelle steht, und das ist natürlich gleich 0, 0, 0, eine 1 an der i-ten Stelle und dann eine 0, oder wieder eine Nuller.

Hier an der i-ten Stelle. Das heißt, S noch minus 1, V i ist das hier. An der Diagonalmatrix mal dieser kolonische Basisvektor,

wo der Kolonialmatrix das falsche Ausdruck ist, also zu diesem Basisvektor ist einfach Lambda i in dieser Eintrag.

S mal Lambda i, S ist wieder das hier, das heißt V1 mal 0 plus V2 mal 0 plus Punkt und Punkt plus V i mal Lambda i und das ist dann gerade das hier.

Das heißt, hier sieht man schön, wie diese Aufsplittung zuerst mit V i startet, dann wird das hier transformiert in die Basisdarstellung von dieser Art.

Also man kann sich das hier so vorstellen, als S noch minus V i ist eigentlich die Darstellung von V i in der Basis S, in der Nutration, die wir in der letzten Woche besprochen haben.

Und D mal das da ist einfach Lambda i mal das da, weil das ist die Diagonalmatrix und dann wird das wieder zurück in normale Koordinaten und bekommt Lambda i mal V i.

Das heißt S und S mal minus 1 sind Hin- und Heriorsetzungen in die Basis S.

So und das ist eine sehr schöne Theorie, aber das funktioniert ihr meistens nicht gesehen haben.

Und insbesondere nicht quadratische Matrizen, da geht das nicht, weil, naja, sei b jetzt aus dem R hoch m Kreuz n,

angenommen b mal v wäre Lambda v, was soll das bedeuten?

Das ist völliger Schwachsinn, weil das hier auf der rechten Seite ist ein Rm Vektor und b mal v ist dann ein Rm Vektor und Vektoren unterschiedlicher Größe können nicht vielfach von der anderen Seite.

Das geht nicht.

Dass das besser gekönnt sind, wir müssen uns komplett anders überlegen.

Und das was man tun kann, ist jetzt die Singulärwertsverlängerung.

Die Singulärwertsverlängerung oder eben auch SVD einer Matrix A ist eine Darstellung von dieser Gestalt hier.

Und jetzt schauen wir kurz nochmal einen Schritt zurück.

Das ist sehr ähnlich wie das hier.

U besteht aus U1 bis Um in den Spalten und die sind ortonormal.

Das heißt U ist eine sogenannte autokonale Matrix.

Also das heißt U transponiert U ist gleich Identität und auch U U transponiert ist gleich Identität.

Und da stehen diese Vektoren U1 bis Um drin.

Das sind alles R hoch m Vektoren.

V sieht so ähnlich aus, ist aber eine n Kreuz n Matrix.

Das heißt V transponiert V ist gleich Identität.

Die Vi sind R hoch n Vektoren.

Und jetzt habe ich hier einen kleinen Fehler drin.

Ich glaube das ist nicht Lambda, sondern Sigma sein.

Sigma ist so was ähnlich wie eine Diagonal Matrix, aber sie ist rechtlich.

Das heißt hier auf dieser Hauptdiagonal haben wir nicht Null Anträge.

Zugänglich über

Offener Zugang

Dauer

00:40:40 Min

Aufnahmedatum

2021-03-04

Hochgeladen am

2021-03-04 11:56:40

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen