Dieser Audio Beitrag wird von der Universität Erlange Nürnberg präsentiert.
Okay, gut.
Gut, hier ist meine Kreide.
So wenn ihr die Mixer erinnern wollt, denkt euch an die Häuser mit den Knackprozessen und
den Ausflussprozessen an.
Und dann haben wir über einen Salesmann gedacht und wir haben uns gefragt, wie dumm ist das,
ohne zu überlegen, welches Haus bereits besucht wurde?
Warum sollte ich immer random eine der Häuser auf der Straße wählen?
Ich sollte mich an die Stelle erinnern, wo ich vorher war.
Ich sollte ein paar Erinnerungen haben.
Ich sollte ein paar Erinnerungen haben.
Und wir haben zwei Wochen vorher ein Konzept erinnert, in dem wir sagten, dass das heutige Haus,
das besucht wird, und die Selektion des heutigen Hauses auf den vorherigen Haus auf den ich war,
auf den ich war, auf den ich war.
Willkommen.
Du musst die Kamera bewegen, wenn jemand aufsteht, um sicher zu sein, dass wir wissen, wer
zu spät ist.
Und dann musst du die Video entsprechend beenden und alle kleineren Sequenzen mit einem Namen
auf YouTube belegen.
Also wenn sein Mutter ihn googelt, weiß sie, was in Erlangen passiert.
Keine Sorge, ich sage nur dumme Dinge hier.
Wir werden das nicht tun.
Was ist dein Name?
Gut, wir haben gesagt, wir werden die Geschichte beenden und wir haben die ganze Sache
als Hidden Markov Modell bezeichnet.
Und die Hidden Markov Modellidee ist, wir haben Staaten, hier haben wir drei Staaten, drei
Staaten, 1, 2, 3, dann haben wir die Probabilität, ein bestimmtes Haus zu starten, wir nennen
es Pi 1, Pi 2, Pi 3, die Probabilität, ein Haus 1 zu starten, ein Haus 2, ein Haus 3 zu starten.
Und dann haben wir natürlich die Ausflussprobabilitäten, wie hier, wir knacken an die Tür und bekommen
mit einem bestimmten Probabilitäts- und Ausflusssymbol.
Ich knacken an die Tür und der Mann, der in dem Haus wohnt, geht runter in den Basis,
bekommt die Probabilitätsdienstefunktion und generiert eine random Variante für dich.
Du nimmst es an und dann besuchst du das nächste Haus.
Und dein Bewegung basiert auf den Transitionprobabilitäts, mit Probabilität a11, du bleibst
in Stat 1, mit a22 oder s22, s2, s2, a33, du bleibst in 3, a22, du bleibst in 2.
Und dann hast du die Transitionprobabilität, die dort überwacht ist, also a12, a13, dann
haben wir a21, und dann haben wir a23, a32 und a31.
Und wenn all diese Transitionprobabilitäten nicht 0 sind, nennen wir so einen Markov-Modell
ergotisch.
Wir nennen es ergotisch, wenn alle Transitionen, wenn alle Transitionen eine Probabilität
größer als 0 haben.
Und die Probabilität, eine Feature-Sequenz x1, x2, bis xn zu beobachten, für einen bestimmten
Markov-Modell, und wir nennen einen Markov-Modell lambda, wo wir die Input-Vektoren, die Transition,
also Input, nicht Vektoren, Input-Probabilitäten, wir haben die Transitionprobabilitäten und
wir haben die Input-Probabilitäten, und diese sind die Input-Probabilitäten.
Also wir haben die Marginale über alle Input-Sequenzen, wir werden in ein paar Sekunden schauen, und dann
haben wir, wer die Probabilität schreiben will, denn das ist etwas, das ich eigentlich
oft frage.
Wir beginnen an einem bestimmten Stand, also die Probabilität, um an einem bestimmten Stand
zu beginnen, ist Pi s1, wo small s1 das Index des Stads ist, das wir beginnen, mit dieser
Presenters
Zugänglich über
Offener Zugang
Dauer
01:15:33 Min
Aufnahmedatum
2015-07-13
Hochgeladen am
2015-07-13 13:07:27
Sprache
en-US
This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models.
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm.
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.