6 - Lineare Algebra 2 2011/2012 [ID:1864]
50 von 754 angezeigt

Ja, guten Morgen, ist Zeit anzufangen. Wir haben ja nun die Jodanormalform, die etwas leidige

Jodanormalform hinter uns gebracht. Sie hat natürlich auch ihre Meriten, insbesondere,

wenn es darum geht, für Systeme linearer Differentialgleichungen explizite Lösungen,

also Darstellungen für den Lösungsraum hinzuschreiben. Das habe ich jetzt etwas

nach hinten geschoben, weil ich diesen ganzen Abschnitt, was können wir mit den

Methoden der linearen Algebra für lineare zeitabhängige Beschreibungen, das heißt also

auf der einen Seite lineare gewöhnliche Differentialgleichungen und noch lineare

Differentialgleichungen aussagen. Das werden wir uns noch etwas detaillierter anschauen.

Ich möchte heute mit zwei abschließenden Abschnitten beginnen, die jetzt schon,

ja jetzt kommt schon die Erntezeit ein Stück weit, das heißt wir haben jetzt die allgemeine

Eigenwerttheorie und können schauen, was wir damit anfangen können. Und das sind zum Teil,

finde ich, zumindest sehr schöne Sachen und interessanterweise auch sehr relevante

Sachen und auch Sachen, mit denen zumindest gewisse Firmen sehr viel Geld verdient haben.

Okay, vielleicht kann man heute kein Geld mehr mit verdienen, aber es ist immer noch

schönes anzuschauen. Das eine Stichwort ist Singulärwertzerlegung. Da geht es also um,

wenn man so will, um eine andere Art der Normalform, wo wir sehen werden, diese Normalform existiert

immer, die existiert sogar immer, sogar für rechteckige Matrizen. Da müssen wir überhaupt

keine Voraussetzungen an die Matrix machen. Die bietet eine bekannte Basis zum Lösen von

Gleichungssystem, zu einem besonders stabilisierten Lösen von Gleichungssystem. Sie bietet eine Basis

zum Ausdünnen von Informationen, Stichwort Datenkompression. Vielleicht schauen wir uns

auch nochmal ein Beispiel an. In der Bildverarbeitung wird das stark eingesetzt. Und der andere Abschnitt,

da geht es um Matrizen mit, grob gesprochen, mit positiven Eigenwerten. Das sind die positiv

definierten Matrizen, die einen sehr engen Zusammenhang zur quadratischen Optimierung haben

und die uns schon im Rahmen der Grammischen Matrix bei der Frage der orthogonalen Projektion

begegnet sind. Also schauen wir uns noch einmal an, was jetzt der Stand der Dinge ist, den wir

erreicht haben und führen, schauen wir uns nochmal die Begriffe an, die wir hier eingeführt haben und

ergänzend um einen weiteren Begriff. Wir hatten mal gestartet, vielleicht haben Sie den Begriff

wieder vergessen, mit der Äquivalenz ist auch nicht wirklich ein wirklich wichtiger Begriff.

Mit der Äquivalenz von Matrizen oder der Äquivalenz von Endomorphismen, das heißt einfach, wir können

die eine Matrix in die andere durch einen Basiswechsel im Urbildraum und einen im allgemeinen

anderen Basiswechsel im Bildraum überführen. Das heißt, das ist eine Äquivalenzrelation,

die wir dadurch definieren, deswegen auch dieser Begriff Äquivalent. Nur die Äquivalenzklassen,

die entstehen, das hatten wir gesehen, sind schrecklich groß und insofern ist da zu wenig

gefordert, ist das ein zu aussageloser Begriff. Wir hatten gesehen, jede Matrix ist Äquivalenz zu

einer Diagonalmatrix, wo auf den ersten R-Positionen Einsen stehen und dann Nullen folgen, wobei R

genau der Rang der Matrix ist. Das heißt also, alle invertierbaren Matrizen werden sozusagen da in

einen Topf geworfen. Deswegen haben wir uns nicht sehr viel mit diesem Begriff befasst und hatten

dann den Begriff der Ähnlichkeit für quadratische Matrizen bzw. für Endomorphismen und haben da

gesagt, nun gut, Bild- und Urbildraum sind gleich, da möchten wir aber auch den gleichen

Basiswechsel da haben. Das ist der Begriff der Ähnlichkeit, der uns jetzt sehr beschäftigt hat

mit der Frage der Diagonalisierbarkeit bzw. eben was geschieht im Fall, wo wir eine nicht

diagonalisierbare Situation haben. Natürlich haben wir dann hier diesen Implikationspfeil und wir

hatten schon im Vorgang, bevor wir uns mit der Jordanschen Normalform befasst haben, gesehen,

es gibt gewisse Klassen von Matrizen, da können wir durch eine Ähnlichkeits- transformation auf

Diagonalgestalt kommen und sogar durch eine ganz spezielle gute Ähnlichkeits- transformation,

nämlich durch eine autogonale bzw. unitäre Ähnlichkeits- transformation. Jetzt wiederum in

Basen gesprochen heißt das, Diagonalisierbarkeit heißt ja immer Basis gibt es eine, ist immer die

Frage, gibt es eine Basis aus Eigenvektoren, das ist dann die Situation, wo es sogar eine Ortonormalbasis

aus Eigenvektoren gibt. Den Begriff haben wir unitär ähnlich genannt. Ist auch klar, dass dies

wiederum eine Verschärfung von ähnlich ist, dass wir diese Implikationspfeile haben und jetzt allein,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:32:53 Min

Aufnahmedatum

2011-11-04

Hochgeladen am

2011-11-15 13:47:24

Sprache

de-DE

Tags

Singulärwertzerlegung Pseudoinverse
Einbetten
Wordpress FAU Plugin
iFrame
Teilen