Ja, guten Morgen, ist Zeit anzufangen. Wir haben ja nun die Jodanormalform, die etwas leidige
Jodanormalform hinter uns gebracht. Sie hat natürlich auch ihre Meriten, insbesondere,
wenn es darum geht, für Systeme linearer Differentialgleichungen explizite Lösungen,
also Darstellungen für den Lösungsraum hinzuschreiben. Das habe ich jetzt etwas
nach hinten geschoben, weil ich diesen ganzen Abschnitt, was können wir mit den
Methoden der linearen Algebra für lineare zeitabhängige Beschreibungen, das heißt also
auf der einen Seite lineare gewöhnliche Differentialgleichungen und noch lineare
Differentialgleichungen aussagen. Das werden wir uns noch etwas detaillierter anschauen.
Ich möchte heute mit zwei abschließenden Abschnitten beginnen, die jetzt schon,
ja jetzt kommt schon die Erntezeit ein Stück weit, das heißt wir haben jetzt die allgemeine
Eigenwerttheorie und können schauen, was wir damit anfangen können. Und das sind zum Teil,
finde ich, zumindest sehr schöne Sachen und interessanterweise auch sehr relevante
Sachen und auch Sachen, mit denen zumindest gewisse Firmen sehr viel Geld verdient haben.
Okay, vielleicht kann man heute kein Geld mehr mit verdienen, aber es ist immer noch
schönes anzuschauen. Das eine Stichwort ist Singulärwertzerlegung. Da geht es also um,
wenn man so will, um eine andere Art der Normalform, wo wir sehen werden, diese Normalform existiert
immer, die existiert sogar immer, sogar für rechteckige Matrizen. Da müssen wir überhaupt
keine Voraussetzungen an die Matrix machen. Die bietet eine bekannte Basis zum Lösen von
Gleichungssystem, zu einem besonders stabilisierten Lösen von Gleichungssystem. Sie bietet eine Basis
zum Ausdünnen von Informationen, Stichwort Datenkompression. Vielleicht schauen wir uns
auch nochmal ein Beispiel an. In der Bildverarbeitung wird das stark eingesetzt. Und der andere Abschnitt,
da geht es um Matrizen mit, grob gesprochen, mit positiven Eigenwerten. Das sind die positiv
definierten Matrizen, die einen sehr engen Zusammenhang zur quadratischen Optimierung haben
und die uns schon im Rahmen der Grammischen Matrix bei der Frage der orthogonalen Projektion
begegnet sind. Also schauen wir uns noch einmal an, was jetzt der Stand der Dinge ist, den wir
erreicht haben und führen, schauen wir uns nochmal die Begriffe an, die wir hier eingeführt haben und
ergänzend um einen weiteren Begriff. Wir hatten mal gestartet, vielleicht haben Sie den Begriff
wieder vergessen, mit der Äquivalenz ist auch nicht wirklich ein wirklich wichtiger Begriff.
Mit der Äquivalenz von Matrizen oder der Äquivalenz von Endomorphismen, das heißt einfach, wir können
die eine Matrix in die andere durch einen Basiswechsel im Urbildraum und einen im allgemeinen
anderen Basiswechsel im Bildraum überführen. Das heißt, das ist eine Äquivalenzrelation,
die wir dadurch definieren, deswegen auch dieser Begriff Äquivalent. Nur die Äquivalenzklassen,
die entstehen, das hatten wir gesehen, sind schrecklich groß und insofern ist da zu wenig
gefordert, ist das ein zu aussageloser Begriff. Wir hatten gesehen, jede Matrix ist Äquivalenz zu
einer Diagonalmatrix, wo auf den ersten R-Positionen Einsen stehen und dann Nullen folgen, wobei R
genau der Rang der Matrix ist. Das heißt also, alle invertierbaren Matrizen werden sozusagen da in
einen Topf geworfen. Deswegen haben wir uns nicht sehr viel mit diesem Begriff befasst und hatten
dann den Begriff der Ähnlichkeit für quadratische Matrizen bzw. für Endomorphismen und haben da
gesagt, nun gut, Bild- und Urbildraum sind gleich, da möchten wir aber auch den gleichen
Basiswechsel da haben. Das ist der Begriff der Ähnlichkeit, der uns jetzt sehr beschäftigt hat
mit der Frage der Diagonalisierbarkeit bzw. eben was geschieht im Fall, wo wir eine nicht
diagonalisierbare Situation haben. Natürlich haben wir dann hier diesen Implikationspfeil und wir
hatten schon im Vorgang, bevor wir uns mit der Jordanschen Normalform befasst haben, gesehen,
es gibt gewisse Klassen von Matrizen, da können wir durch eine Ähnlichkeits- transformation auf
Diagonalgestalt kommen und sogar durch eine ganz spezielle gute Ähnlichkeits- transformation,
nämlich durch eine autogonale bzw. unitäre Ähnlichkeits- transformation. Jetzt wiederum in
Basen gesprochen heißt das, Diagonalisierbarkeit heißt ja immer Basis gibt es eine, ist immer die
Frage, gibt es eine Basis aus Eigenvektoren, das ist dann die Situation, wo es sogar eine Ortonormalbasis
aus Eigenvektoren gibt. Den Begriff haben wir unitär ähnlich genannt. Ist auch klar, dass dies
wiederum eine Verschärfung von ähnlich ist, dass wir diese Implikationspfeile haben und jetzt allein,
Presenters
Zugänglich über
Offener Zugang
Dauer
01:32:53 Min
Aufnahmedatum
2011-11-04
Hochgeladen am
2011-11-15 13:47:24
Sprache
de-DE