Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Ja, grüß Gott zusammen. Wir hatten das letzte Mal uns ein bisschen mit der Potenzmethode beschäftigt.
Das ist ein recht einfaches Iterationsverfahren zur Bestimmung des betragsgrößten Eigenwerts,
einer in unserem Fall erstmal diagonalisierbaren Matrix, allerdings unter der Voraussetzung,
dass dieser betragsgrößte Eigenwert eindeutig ist. Das heißt, dass er insbesondere einfach ist
und es eben keinen anderen Eigenwert mit gleichem Betrag gibt. Das ist eine Grundvoraussetzung.
Mehrfache Eigenwerte oder Eigenwerte mit gleichem Betrag können wir erst einmal,
so wie wir es angesetzt haben, nicht angehen. Wir werden dann versuchen, die Methode dahingehend
zu verallgemeinern. Das ist ein Weg, den wir heute gehen wollen. Der andere Weg ist, sozusagen
Varianten der Potenzmethode zu entwickeln, die überhaupt der Potenzmethode erst einmal eine
gewisse Bedeutung geben. Denn sie sind ja schrecklich geduldsam und lassen alles über sich ergehen,
aber ich hätte doch zumindestens mal die Frage erwartet, warum möchte ich überhaupt den
betragsgrößten Eigenwert ausrechnen? Warum nicht den betragskleinsten? Warum nicht alle?
Das ist eine Frage natürlich der Anwendung und ich muss sagen, ich kenne eigentlich nur
eine einzige Anwendung, wo der Betragsgrößte eine Rolle spielt.
Als für den beherrschenden Term.
Ja, das wäre sozusagen der instabile Fall, das wäre der Fall, wo die Lösung explodiert
und das wäre dann der beherrschende Term. Was ja aber eigentlich interessanter ist,
ist der abfallende Fall. Gut, dann ist es, okay, da haben Sie durchaus recht, da könnte
man das einsetzen. Ich kenne noch einen anderen Fall, das hat zu tun mit etwas, was Sie täglich
benutzen. Manche von Ihnen kennen das auch schon, das ist das sogenannte Google Page
Rank Algorithmus, also die Frage, wie Google in seinem Suchalgorithmus die Wichtigkeit der
gefundenen Suchmaschinen in Bezug auf die gefundenen Links, die gefundenen Adressen
in Bezug auf die Suchanfrage bewertet. Das kann man interpretieren als die Berechnung
eines Eigenvektors für eine Matrix, deren größter Eigenwert eins ist und zu diesem
bekannten Eigenwert sozusagen sucht man, von dieser riesigen Matrix sucht man einen Eigenvektor
und das kann man tatsächlich mit der Potenzmethode machen. Wenn man mehr in physikalisch-technische
Anwendungen schaut, ist es eher interessanter, den betragskleinsten Eigenwert oder genauer
gesagt dann im positiv-definiten Fall, wenn man also positive Eigenwerte hat, den kleinsten
Eigenwert zu bestimmen. Da kommen wir vielleicht dann nochmal drauf zurück und schauen uns
aber erst einmal an, wir können die Potenzmethode mit einer minimalen Umstellung auch dazu benutzen,
nicht nur den betragsgrößten, sondern auch den betragskleinsten Eigenwert auszurechnen.
Das ist der Inhalt der nächsten Bemerkung. Also, wir setzen mal voraus, dass wir so wieder
in dieser Grundsituation sind. Also wir setzen voraus, dass die Matrix diagonalisierbar ist
und dass der betragskleinste Eigenwert sollte nicht Null sein, also wir setzen insbesondere
voraus, dass die Matrix invertierbar ist und er sei eindeutig. Also heißt, wenn man den
wieder mit Lambda 1 bezeichnen würde, Lambda 1 betrag echt kleiner Lambda 2 und dann geht
es mit kleiner gleich weiter. Wie kommen wir jetzt unsere Potenzmethode dahingehend umstellen,
dass wir uns jetzt diesen Eigenwert und einen Eigenvektor zu diesem Eigenwert liefern? Haben
Sie da eine Vorstellung? Okay, es gilt ja Folgendes, ganz allgemein wissen wir, für
Lambda ungleich Null geht das natürlich nur. Wenn ich die Eigenwertbeziehung habe, dann
habe ich genauso das ganze, wenn ich sozusagen a hoch minus 1 drauf loslasse und das Lambda
auf die andere Seite bringe, das heißt zu Deutsch a hoch minus 1, das kennen wir natürlich
in viel allgemeinerer Form aus der Linie in Algebra, hat dann den Eigenwert 1 durch Lambda
zum gleichen Eigenvektor. Und wenn nun Lambda betrags kleinster ist, ist dann bei den Kehrwerten
dann 1 durch Lambda betrags größter Wert. Das heißt also, wir wenden die Potenzmethode
Ernährung für a hoch minus 1. Schreiben wir es mal nochmal schnell hin, was bedeutet
das? Und wir machen es jetzt gleich in der Form, dass wir eben die Ernährung für den
Eigenvektor über den Reli-Koeffizienten mitbestimmen, das heißt also, wir haben ein Startvektor,
sagen wir x Null, wir machen das gleich mal in der normierten Form, die Norm von x Null
Presenters
Zugänglich über
Offener Zugang
Dauer
01:25:49 Min
Aufnahmedatum
2013-01-14
Hochgeladen am
2013-08-08 00:59:52
Sprache
de-DE
- Fehleranalyse (Gleitpunktdarstellung, Rundung, Fehlerfortpflanzung, Kondition, Gutartigkeit)
- Polynominterpolation (Dividierte Differenzen, Interpolationsfehler)
- Asymptotische Entwicklungen und Extrapolation (Richardson-Extrapolation)
- Numerische Integration (Newton-Cotes-Formel, Romberg-Integration, Gaußsche Integration)
- Lineare Gleichungssysteme (Gaußscher Algorithmus, LR-Zerlegung, Cholesky-Zerlegung, Matrixnormen, Fehlerabschätzungen)
- Nichtlineare Gleichungssysteme (Fixpunktsätze, Konvergenzordnungsbegriffe, Newton-Verfahren, iterative Verfahren für LGS)
- Lineare Ausgleichsrechnung
- etc.