Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Die Untertitel sind in der Infobox aufgelistet.
Hier haben wir die Situation, dass wir verschiedene Staaten mit verschiedenen Inputprobabiliaten hatten.
Wir hatten die HMMs, die Hitten Markov Modelle, wo wir verabschiedete Grafen und Transitionen und Transitionprobabiliaten hatten.
Hier haben wir die Inputprobabiliaten.
Dann haben wir die verschiedenen Typen der HMMs diskutiert.
Ich habe gestern ein kleines Verlust gemacht, wenn ich über die halben HMMs gesprochen habe.
Die halben HMMs sind ein 3. Typen der HMMs, die wir beschlossen haben.
Die schlichten HMMs tragen Histogramme für jedes Staate.
Halben HMMs tragen PDFs, wie ein Gaussian für jedes Staate.
Die halben HMMs haben die Möglichkeit, ein Mixer in jedem Staate zu teilen.
Aber, das war der Punkt, wo ich gestern weh und unklar war.
Nein, ich war gestern völlig falsch.
Die Wege, die Koeffizienz der Mixer, die sich an diesem Staate befinden.
Ein halbes HMMs-Modell kann ein Mixer in jedem Staate haben.
Die Ausbeutungsprobabiliaten für jedes Staate sind genau die selben.
Aber die Inputprobabiliaten, die sich an diesem Staate befinden.
Die Inputprobabiliaten P1, P2, P3, P4, P5, P6, die sich an diesem Staate befinden.
Die restlichen sind zerstört.
Die Inputprobabiliaten sind hier identisch für jedes Staate.
Das macht Sinn. Gestern war ich ein wenig verantwortlich.
Alles ist gleich, also es macht keinen Unterschied für die Navigation.
Die HMMs sind hier unterschiedlich für jedes Staate.
Dann haben wir die Situation, dass wir höhere Bedingungen haben und HMMs verabschieden.
Was uns wichtig ist, dass HMMs von drei unterschiedlichen Statistikprozessen generiert werden.
Erstens haben wir die Densitätfunktion, die die Statistikprozesse, die wir mit welcher Probabilität starten.
Das ist der erste statistische oder probabilistische Schritt.
Welches Staate starten wir mit?
Zweitens, wenn wir an die Tür knacken, bekommen wir einen Ausfluss, generiert durch einen randomen Prozess.
Wir haben hier ein zweites Level der Stochastikprozesse.
Das sind die Ausflussgeneratoren in jedem Staate.
Und das dritte ist die Navigation zwischen den Staaten.
Sie sind alle von verschiedenen Parametern verzeichnet.
Sie sind mehr oder weniger ein Teil von den drei Städten separiert.
Das sind die Input-Probabilitäten, die Output-Probabilitäten und die Transition-Probabilitäten.
Man kann auch diese reduzieren, indem man einen auxiliary Staate benutzt und die Start-Probabilitäten als Transition-Probabilitäten aus einem Staate, wo man nicht an die Tür knackt.
Man beginnt hier, dann hat man den Transition-Probabilität aus diesem Staate und man kommt nie zurück.
Man kann also die Input-Probabilitäten als Transition-Probabilitäten verzeichnen.
Aber das ist eigentlich nicht wichtig.
Das macht es nicht besser oder einfacher oder einfacher.
Aber was wir hier in der Situation haben, in einem hidden Markov Modell,
wenn man zum Beispiel die Probabilität von X2 und X1 als random Variable beobachtet hat,
wie kann man diese Probabilität kompüten?
Wir wissen, dass P von X2, wenn X1, P von X1, X, X2 ist.
Diese beiden sind die Joint Density, die von P von X1 geteilt wird.
Was ist P von X1?
In einem hidden Markov Modell, mit drei Staaten, oder N-Staten, was ist P von X1?
Die Probabilität, die erste Feature-Vekte zu beobachten.
Tobias?
Ja.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:22:46 Min
Aufnahmedatum
2015-07-14
Hochgeladen am
2015-07-14 10:39:20
Sprache
en-US
This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models.
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm.
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.