Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Wir werden die Ergebnisse der Realschule auch präsentieren.
Wir werden die richtigen Lösungen präsentieren.
Dann könnt ihr euch selbst präsentieren, ob ihr es wisst oder nicht.
Ich hoffe, dass ihr etwas von diesem lernen könnt.
Ich hoffe, dass es eine gute Vorbereitung für den Realschule ist.
Ich hoffe, dass ihr euch darauf achten könnt, welche Tests ihr in der Realschule machen müsst.
Heute wollen wir über Variationalkalus sprechen.
Das ist etwas, was in der Realschule sehr handig ist, wenn wir über Non-Rigid-Registration sprechen.
Non-Rigid-Registration wird Variationalkalus benutzen.
Ich werde es sehr langsam ausprobieren und die Variationalkalus mit dem, was ihr von der Theorie und der Gradient-Theorie kennt,
verbinden und etwas mit dem ihr sehr bekannt seid.
Ich denke, dass manche von euch das bereits wissen sollten, aber ich denke, es ist eine gute Sache,
es zu verbreiten und sehr vorsichtig durchzuführen.
Wir werden die Variationalkalus vorstellen.
Dann werden wir die Euler-Lagrange-Equation verbreiten, eine sehr wichtige Konzeption.
Dann werden wir ein paar Beispiele anschauen, die sehr einfach sind und auch sehr interessant sind.
Dann werden wir in Kurven der Minimal-Länge schauen.
In der Ende werden wir auch über die Generalisierung der höheren Dimensionen und der höheren Orde der Derevative sprechen.
In der Ende haben wir ein kleines Beispiel, wie man das für den Imaging-Noise benutzen kann.
Dann gehen wir zu einem Problem, das wir im Imaging-Prozess normalerweise lösen wollen.
Ein Problem ist, dass wir ein Image bewegen wollen.
Wir wollen eine Funktion definieren, die irgendwie beschreibt, wie ein optimaler Imaging aussehen sollte,
was es mit den Fakten aussehen sollte und was es mit dieser Funktion aussehen sollte.
Das ist ein Beispiel, wie wir das für ein Filter im Imaging bewegen können.
Wir können zum Beispiel eine Filter-Image G bewegen, die ähnlich wie das Original-Image F aussehen sollte.
Und wir können auch sagen, dass wir die Imagen bewegen wollen, damit sie gleichzeitig bewegen.
Das sind die zwei Assumptionen, die ich in eine Objektiv-Funktion bewegen will.
Wir können hier eine Objektiv-Funktion D definieren.
D ist die Input-Image und G die Schleif-Image.
Und später können wir G verändern.
Was wir hier in die Imaging bewegen, ist, dass wir hier eine Similarität-Messung haben.
Das erste, was wir beweisen, ist, dass, wenn wir F und D bewegen und die beiden bewegen,
dann wird die Schleif-Messung nicht zu hoch.
Wir wollen, dass F und G nah bewegen.
Das ist eine sehr typische Similarität-Messung, und Sie haben das bereits ein paar Mal in der Klasse gesehen.
Und dann wollen wir auch in unserer schmalen Image, also in G,
den Gradienten klein sein.
Wir können generell eine P-Norm nehmen, aber für die Zeit können wir auch nur eine L2-Norm nehmen.
So, das ist, wie Sie eine solche Objektiv-Funktion konstruieren würden.
Und diese Objektiv-Funktion wollen wir optimieren.
In diesem Fall wollen wir das minimieren.
Was Sie hier sehen, ist, dass wir wieder einen Regularizer benutzen,
wie wir das typisch tun, weil wir multiple Kriterien haben, die wir an der gleichen Zeit erfüllen wollen.
Und deshalb haben wir in diesen Regularisierungsparameter eine Mu-Karte,
in diesem Fall kann Mu ein Nutzer ausgesucht werden, und der Nutzer sagt, wie wichtig der Datafitt ist,
als die Schmutzigkeit.
Wenn Sie den Regularisierungsparameter überregulieren, werden Sie sehr schmalen Imagen bekommen,
und es befindet sich nicht mehr mit dem Datameter.
Wenn Sie einen sehr kleinen Parameter haben, werden Sie einen sehr guten Datafitt bekommen.
Presenters
Zugänglich über
Offener Zugang
Dauer
00:58:38 Min
Aufnahmedatum
2016-06-09
Hochgeladen am
2016-06-09 16:10:18
Sprache
en-US
This lecture focuses on recent developments in image processing driven by medical applications. All algorithms are motivated by practical problems. The mathematical tools required to solve the considered image processing tasks will be introduced.