17 - Pattern Analysis [ID:5256]
50 von 792 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Es gibt wichtige Algorithmen für die Reduktion der Dimension.

Ich werde über eine vielefache Lerntechnik reden, die Laplacian Eigenmaps heißt.

Ich habe diese vorhin in den Slides gestern gestern gezeigt.

Wir haben einen Link auf der Web gelegt, damit Sie diese Dinge in Detail sehen können.

Aber lassen Sie mich die Grundeine Idee der Laplacian Eigenmaps beibringen.

Das war 5.6.

Wir haben hier die Samplestelle S und die Feature-Vektoren x1, x2, xn.

Diese sind High Dimensional Feature Vectors, also xi in R, d.

Das Problem ist, dass wir ein Set von Low Dimensional Features finden.

Wir nennen es S' und x1', x2' bis xn',

wo xi' in R, d' und d' viel kleiner sein sollte als d.

Die Anstrengung ist, dass wir die Topologie, die Struktur der Features in der Low Dimension space behalten wollen.

Die Laplacian Eigenmap-Methode ist nun die folgende

Wir minimieren die Mutual Distanz der Features, wo wir die Mutual Distanz von Weight Factor Wij weigern.

Wir haben in der letzten Woche gesehen, wie diese Weight Faktor z.B. mit der exponentiellen Funktion ausgeführt werden kann.

Die Optimisierung Problem, die wir betrachten,

ist, dass wir die Distanz xi' bis xj' minimieren,

die Distanz x1' bis x2' bis x3' bis x1' bis x4' bis x5' bis x6' bis x8' bis x9' bis x9' bis x11' bis x10.

Wir sagen, dass die Kontrainte C von x1' bis x2' bis xn' ein sein muss.

Wir werden in ein paar Sekunden sehen, was das sein kann. Zum Beispiel kann man die Vektoren beinhalten, um eine Länge zu haben, oder so etwas.

Jetzt müssen wir das Optimierungsproblem lösen, die zahlreiche Minimierung dieser Funktion.

Wie kann das gemacht werden? Das kann durch die Kontrainte in die objektive Funktion integriert werden,

und die Funktion mit der Lagrangian-Multiplier-Methode. Es ist immer die gleiche Idee, dass man die Kontrainte plus Lambda hat.

Zum Beispiel x' transpose dx' muss 1 sein, wo x' transpose x1' transpose x2' ist.

x2' transpose xn' transpose. Was bedeutet das? Das ist der erste Vektor, der zweite Vektor, der dritte Vektor.

Wir legen sie einfach in einen großen Vektor und dann bezeichnen wir das x' zu sein.

Die D-Metrix ist eine Diagonal-Metrix, wo wir Null haben.

Auf der Hauptdiagonal-Metrix haben wir die Summe über i, w, 1i, Summe über i, w, 2i, Summe über i, w, ni. Das sind nur die Summe über die Wege, die wir hier verwenden.

Jetzt werden wir diese Summe in den Wettbewerb komponentieren. Wir werden sie in die D-Metrix bezeichnen und die D-Metrix ausmultipieren.

Es fühlt sich viel komplizierter an als es eigentlich ist. Wir haben die Summe über i, j. Jemand kann mir sagen, was die Range von i und j ist.

Nur um zu verstehen. Es ist 1 zu N. Wir haben die Summe über alle Paare von Features x i' minus x j' über x i' minus x j,

und das ist die Summe über i, j, x i' x i. Das ist die Square-Prime.

Das ist die Summe über i, j, j, j, j.

Das ist die Schleif-Prime.

Das hier. Ich habe das nur in der Sprache verwendet.

Was ich tue, ist, dass ich die D-Metrix ausmultipiere und dann die D-Metrix kompute. Oder ich habe es in der Formulierung der Matrix-Notation reformuliert.

Dann haben wir 2 x x, der Mixterm.

x, der Mixterm.

Dann schauen wir uns an, wie wir die erste Summe über i, j und hier bekommen wir die W i, j.

Was machen wir? Wir summen über alle i x i' x i' und das ist independent.

Das ist independent von j, also können wir die Summe über j und bringen sie zu der W i, j.

Was ich gemacht habe, ist, dass ich das hier hergebracht habe. Jetzt haben wir das gleiche hier plus Summe über j, x j' x j' Summe über W i, j.

Minus 2 x i' x j' W i, j und hier habe ich die Summe über j.

Wo?

Nein, nein, nein.

Es macht keinen Sinn, die Dimension in einer Vektordifference zu verändern.

Jetzt sagt man, dass man die Formulierung seit 12 Jahren weiß.

Aber was wir hier sehen, ist, dass wir diese beiden Formulierungen kombinieren können, wenn W i, j symmetrisch ist.

Wenn es symmetrisch ist, dann können wir diese beiden in 2 x Summe über i x i' x i' Summe über j W i, j.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:28:14 Min

Aufnahmedatum

2015-06-29

Hochgeladen am

2015-06-30 10:30:40

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen