4 - Pattern Analysis [ID:4855]
50 von 962 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Dieses Semester werden wir auf die Analyse des Patterns und verschiedene Themen in diesem wichtigen Bereich fokussieren.

Und was haben wir so far?

Am Anfang hatten wir einen kurzen Refrigerationskurs auf Klassifikation und Regression.

Und Regression ist etwas, das Sie bereits von der Ingenieureinheit schon wussten.

Wir machen eine Estimation von Parametern einer Funktion.

Diese Parametern sind kontinuierliche Vektoren oder kontinuierliche Wertparameter, die von Optimierung und objektive Funktion ausgestattet werden.

Zum Beispiel haben wir die Liesquare-Estimation in einer Linie durch ein Set von Punkten gesetzt.

Oder ein Degree-2-Polynomial durch ein Set von Punkten gesetzt.

Ich habe auch die Unterschiede von Interpolation, Extrapolation und Regression in der Analyse gemeldet.

Und Klassifikation ist die Analyse einer Beobachtung zu einem diskreten Kategorienvariable.

Und wie in Regression, ist eine objektive Funktion befindet und die objektive Funktion optimiert,

mit Bezug auf die unbekannten Kategorienvariablen, die in der Klassifikation ausgedacht werden.

Wir haben auch kurz die optimale Entscheidungsrule, die uns sagt, welche Klasse wir auf ein bestimmtes Set von Features entscheiden sollten.

Und die Basisdezisionalregel sagt, dass wir für eine 0-1-Losfunktion die Abstandsverwaltung maximieren sollten.

Das haben wir in der ersten und zweiten Kategorie besprochen.

Wir haben einen wichtigen Problem begonnen, den wir immer mit Features beschäftigen müssen.

Oder ganz oft müssen wir mit Features und Patternen beschäftigen.

Und wir befinden sich mit Patternverwaltungs- und Patternenanalysen.

Und was wir in sehr vielen Details diskutiert haben, ist die Klosterung.

Das bedeutet, dass wir sehr kompakte Kategorien in der Featurespace finden, wo wir Kloster von Features haben.

Und wir haben so far zwei verschiedene Typen von Klosterungen besetzt.

Lassen Sie mich mein Geheimnis mit Bezug auf das ausstellen. Wir haben eine klare Klosterung besetzt, die eine klare Entscheidung auf die Klosterung der beobachteten Features macht.

Und die objektive Funktion, die wir optimieren mussten, war die Summe über alle Features, die Summe über alle Kloster.

Und dann hatten wir diese Indikator-Variabel, die uns berichtet, ob ein Feature i mit Kloster j beinhaltet oder ob das i-Feature mit Kloster j beinhaltet.

Und dann haben wir hier die Differenz oder die Distanz zwischen dem beobachteten Feature x i, den wir aktuell betrachtet haben, und dem Codebook-Vektor von Kloster j.

Und wir haben diese Funktion optimiert. Und hier haben wir zwei verschiedene Gründe von Freiheit, Typen von Gründen von Freiheit.

Eine sind die Codebook-Vektoren, die kompuliert werden müssen, und die zweite ist die Klosterung.

Wir müssen die objektive Funktion optimieren.

Und wir haben mit einem sehr schlafen, sehr einfachen Algorithm, dem sogenannten K-Meanen, Klosterung,

das ihr in jedem Buch auf Pattern-Rekognition und Patternen-Analysis findet.

Und letzte Woche haben wir in viel mehr Details die Soft-Klosterung besucht.

Und Soft-Klosterung ist eine Version, in der wir eine Relaxation der Diskrete-Variabel, 0,1-Variabel, gemacht haben.

Wir haben die 0,1-Variabel als Probabilitäten besucht.

Wir sagen also nicht mehr, dass Feature XI in Klasse 5 und nichts anderes besucht,

sondern wir sagen, dass Feature XI in Klasse 4 mit Probabilität 25% besucht,

in Klasse 5 mit 50%, in Klasse 1 mit 0,1% und so weiter.

Wir haben also eine Probabilität, und deshalb nennen wir es Soft-Klosterung,

weil wir Feature-Vektoren mit bestimmten Probabilitäten klostern.

Und die objektive Funktion, die wir optimieren müssen, ist die Summe über alle Features, die Summe über alle Klassen,

Cij dXimj plus Summe über alle Klassen.

Ich denke, wir hatten über alle Klassen zuerst.

Ja, über alle Features zuerst, dann der Lambda J, und dann haben wir Cij minus 1.

Das war der Lagroschen-Multiplier, den wir beschlossen haben.

Und Cij sind die Variablen.

Und wir haben eine Optimierung gemacht, und was wir herausgefunden haben, ist,

dass der Gradient verschwindet, wenn wir den Gradient mit Bezug auf Cij kompüten,

und dann haben wir einen kleinen Engineering-Trick gemacht.

Erinnerst du dich? Das war der Magic-Q, um zu verhindern, dass es nicht verschwindet,

dass es nicht verschwinden wird durch die Differenzierung.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:27:20 Min

Aufnahmedatum

2015-04-27

Hochgeladen am

2015-04-27 11:20:01

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen