21 - Pattern Analysis [ID:5326]
50 von 527 angezeigt

Dieser Audio Beitrag wird von der Universität Erlange Nürnberg präsentiert.

Okay, gut.

Gut, hier ist meine Kreide.

So wenn ihr die Mixer erinnern wollt, denkt euch an die Häuser mit den Knackprozessen und

den Ausflussprozessen an.

Und dann haben wir über einen Salesmann gedacht und wir haben uns gefragt, wie dumm ist das,

ohne zu überlegen, welches Haus bereits besucht wurde?

Warum sollte ich immer random eine der Häuser auf der Straße wählen?

Ich sollte mich an die Stelle erinnern, wo ich vorher war.

Ich sollte ein paar Erinnerungen haben.

Ich sollte ein paar Erinnerungen haben.

Und wir haben zwei Wochen vorher ein Konzept erinnert, in dem wir sagten, dass das heutige Haus,

das besucht wird, und die Selektion des heutigen Hauses auf den vorherigen Haus auf den ich war,

auf den ich war, auf den ich war.

Willkommen.

Du musst die Kamera bewegen, wenn jemand aufsteht, um sicher zu sein, dass wir wissen, wer

zu spät ist.

Und dann musst du die Video entsprechend beenden und alle kleineren Sequenzen mit einem Namen

auf YouTube belegen.

Also wenn sein Mutter ihn googelt, weiß sie, was in Erlangen passiert.

Keine Sorge, ich sage nur dumme Dinge hier.

Wir werden das nicht tun.

Was ist dein Name?

Gut, wir haben gesagt, wir werden die Geschichte beenden und wir haben die ganze Sache

als Hidden Markov Modell bezeichnet.

Und die Hidden Markov Modellidee ist, wir haben Staaten, hier haben wir drei Staaten, drei

Staaten, 1, 2, 3, dann haben wir die Probabilität, ein bestimmtes Haus zu starten, wir nennen

es Pi 1, Pi 2, Pi 3, die Probabilität, ein Haus 1 zu starten, ein Haus 2, ein Haus 3 zu starten.

Und dann haben wir natürlich die Ausflussprobabilitäten, wie hier, wir knacken an die Tür und bekommen

mit einem bestimmten Probabilitäts- und Ausflusssymbol.

Ich knacken an die Tür und der Mann, der in dem Haus wohnt, geht runter in den Basis,

bekommt die Probabilitätsdienstefunktion und generiert eine random Variante für dich.

Du nimmst es an und dann besuchst du das nächste Haus.

Und dein Bewegung basiert auf den Transitionprobabilitäts, mit Probabilität a11, du bleibst

in Stat 1, mit a22 oder s22, s2, s2, a33, du bleibst in 3, a22, du bleibst in 2.

Und dann hast du die Transitionprobabilität, die dort überwacht ist, also a12, a13, dann

haben wir a21, und dann haben wir a23, a32 und a31.

Und wenn all diese Transitionprobabilitäten nicht 0 sind, nennen wir so einen Markov-Modell

ergotisch.

Wir nennen es ergotisch, wenn alle Transitionen, wenn alle Transitionen eine Probabilität

größer als 0 haben.

Und die Probabilität, eine Feature-Sequenz x1, x2, bis xn zu beobachten, für einen bestimmten

Markov-Modell, und wir nennen einen Markov-Modell lambda, wo wir die Input-Vektoren, die Transition,

also Input, nicht Vektoren, Input-Probabilitäten, wir haben die Transitionprobabilitäten und

wir haben die Input-Probabilitäten, und diese sind die Input-Probabilitäten.

Also wir haben die Marginale über alle Input-Sequenzen, wir werden in ein paar Sekunden schauen, und dann

haben wir, wer die Probabilität schreiben will, denn das ist etwas, das ich eigentlich

oft frage.

Wir beginnen an einem bestimmten Stand, also die Probabilität, um an einem bestimmten Stand

zu beginnen, ist Pi s1, wo small s1 das Index des Stads ist, das wir beginnen, mit dieser

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:15:33 Min

Aufnahmedatum

2015-07-13

Hochgeladen am

2015-07-13 13:07:27

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen