9 - Einführung in die Numerische Mathematik [ID:2488]
50 von 706 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Bevor ich es vergesse, der Termin für die Klausur.

Uhrzeit steht noch nicht fest, aber der Tag steht fest.

Das ist Montag, der 8.4.

Das ist die letzte Ferienwoche, die Woche nach der Osterwoche.

Gut, also, wir haben nochmal das wiederholt, was wir eh schon wissen,

nämlich was die Gauss-Elimination ist und was die damit zusammenhängende LR-Zerlegung ist,

aber jetzt mehr unter numerischen Gesichtspunkten, was nicht nur algorithmische Gesichtspunkte bedeutet,

sondern insbesondere eben bedeutet, wie stabil ist das Verfahren, wie reagiert das Verfahren auf Rundungsfehler.

Und wir haben gesehen, das, was wir bisher in der Linan-Algebra berechtigterweise,

weil wir ja da fiktiv in R rechnen, bisher vernachlässigt haben, hier eine große Rolle spielt,

nämlich die Frage der Pivot-Suche, auch wenn wir uns das sozusagen ersparen könnten,

weil wir das Glück haben, immer im Laufe des Eliminationsprozesses auf ein von null verschiedenes Pivot-Element zu stoßen,

sollten wir das tunlichst nicht machen, denn dann wird das Verfahren zu einem instabilen Verfahren.

Wir sollten also immer eine Pivot-Suche durchführen und das Standardverfahren ist die Spalten-Pivot-Suche,

das heißt in der jeweiligen Kartenspalte, in der man eben unterhalb des Diagonalelements eliminieren möchte,

sucht man das Element als Pivot-Element, das Betragsmaximum ist oder eines von den Betragsmaxima.

Aber auch wenn man das macht, gibt es sozusagen einige unangenehme Fälle,

ich will nicht sagen, dass man dann immer damit rechnen muss, dass das Gauss-Verfahren Stabilitätsprobleme hat,

aber man sollte sich dessen bewusst sein, dass es Fälle gibt, die Schwierigkeiten bereiten können.

Und das sieht man eben in der Rückwärtsanalyse, wenn die Rückwärtsanalyse uns sagt,

das was wir da machen, fehlerbehaftet, ist das gleiche als wenn wir exakt ein modifiziertes Problem behandeln

und dieses modifizierte Problem sich nur wenig vom Originalproblem entfernt, dann ist es nur eine Frage der Kondition,

der gut konditionierter dieses Originalproblems, ob wir halt in der Nähe der Lösung sind oder nicht.

Leider ist die beste Abschätzung, die man hier machen kann, wir hatten diese Ergebnisse schon mal kurz angeschaut,

aber vielleicht können wir es jetzt ein bisschen mehr würdigen, nicht so wirklich optimistisch.

Situation ist also die folgende, wir haben eine nicht singuläre Matrix, wir haben eine LR-Zerlegung einer Permutation dieser Matrix

und rechnen diese Größen P, L und R in Gleitpunktarithmetik aus, das heißt also,

wir bekommen gestörte P-Schlange, L-Schlange, R-Schlange, das ist jetzt sehe ich gerade hier ein bisschen fehlerhaft notiert,

hier müsste natürlich ein transponiert dazu, das ist ja eine volle Permutationsmatrix, keine Transposition

und die haben alle leichte Abweichungen von den unbekannten exakten Größen,

sodass sie tatsächlich die exakte LR-Zerlegung einer gestörten Matrix-A-Schlange aus darstellen.

Das ist immer so, die rechnen wir halt einfach, die definieren wir halt einfach auf diese Art und Weise.

Jetzt ist die Frage, wie weit unterscheiden sich diese Matrizen A und A-Schlange

und da gibt es leider nur folgende Abschätzung und die ist eben auch scharf.

Wir können komponentenweise diese beiden Matrix-Einträge voneinander abschätzen,

was taucht auf, es taucht tau auf, das ist schon mal gut, die Maschinengenauigkeit,

ist klar, dass das auftauchen muss und jetzt hätten wir natürlich ganz gern einen nicht allzu großen Faktor davor,

der uns eben sagt, gut, diese relative Maschinengenauigkeit, die ist nicht zu unterbieten,

aber wir möchten eben keine signifikante Fehlerverstärkung haben.

Das ist leider nicht ganz so, wir haben hier einen Faktor beta, der ist ungefähr in der Größenordnung von 1,

dann haben wir N, die Dimension, das ist vielleicht noch akzeptabel gerade so,

wenn man sagt, okay, Gauss-Verfahren macht man sowieso nicht für ganz, ganz große Probleme

und dann taucht aber ein kritischer Faktor auf Alpha Max, das ist nämlich das Maximum

über alle Matrix-Einträge, aber jetzt nicht nur der Matrix selbst, das wäre ja noch vielleicht okay,

sondern alle im Laufe des Eliminationsprozesses auftretende Zwischenmatrizen.

Jetzt kann man versuchen, diese Größe, die ja a priori nicht gegeben ist,

die kennt man eben nur nachdem man das Verfahren durchgeführt hat,

nochmal abzuschätzen und dann gibt es jetzt zwei Abschätzungen,

schauen wir uns erstmal die schlechtere an, wenn man Spalten-Pivotsuche macht,

Zugänglich über

Offener Zugang

Dauer

01:29:25 Min

Aufnahmedatum

2012-11-12

Hochgeladen am

2013-08-08 00:59:48

Sprache

de-DE

  • Fehleranalyse (Gleitpunktdarstellung, Rundung, Fehlerfortpflanzung, Kondition, Gutartigkeit)
  • Polynominterpolation (Dividierte Differenzen, Interpolationsfehler)
  • Asymptotische Entwicklungen und Extrapolation (Richardson-Extrapolation)
  • Numerische Integration (Newton-Cotes-Formel, Romberg-Integration, Gaußsche Integration)
  • Lineare Gleichungssysteme (Gaußscher Algorithmus, LR-Zerlegung, Cholesky-Zerlegung, Matrixnormen, Fehlerabschätzungen)
  • Nichtlineare Gleichungssysteme (Fixpunktsätze, Konvergenzordnungsbegriffe, Newton-Verfahren, iterative Verfahren für LGS)
  • Lineare Ausgleichsrechnung
  • etc.
Einbetten
Wordpress FAU Plugin
iFrame
Teilen