Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Die Frage ist, warum die Summe von T bis 1 bis T-1 geht.
Wir haben hier die Summe von T bis 1 bis T-1.
Das ist die gewünschte Summe von T bis 1 bis T.
Das ist die gewünschte Summe von T bis T.
Die ganze Summe von T wird die gewünschte Zahl von Besitz in diesem Zustand sein.
Aber bis T-1 die gewünschte Zahl von Transitionen aus I aussteigt.
Wenn ich hier I und hier J bin, kann man die Zahl von Transitionen von I bis J vergleichen.
Die relativen Frequenzen und die Transitionen von I bis J.
Das ist die Erklärung.
Dann kommen wir wieder zur Erstimmung der Parameter mit Hilfe des EM-Algorithms.
Ich denke, es gibt ein paar Schwierigkeiten.
Lassen wir uns beginnen.
Wir wollten die Wahrscheinlichkeit der Parameter aussteigen,
und das ist die Wahrscheinlichkeit der Parameter.
Die Tragik war, dass wir die 2-stage-Random-Prozess nicht wirklich optimieren können.
Die Tragik war, dass wir die hidden-Variablen, die vorhin ausgestattet wurden,
von vorherigen Estimaten ausgestattet wurden. Und unter dieser Erstimmung
haben wir die Wahrscheinlichkeit der Parameter mit dem Begriff Y,
die wir von der alten Estimaten ausgestattet haben.
Ich nenne das jetzt Olt, anstatt I-1. I-1 war ein wenig entzündend.
Das war die Abschaffung. Das war die Q-Funktion, die Kodbeck-Leibler-Funktion.
Der gewünschte Wert von log I von X, Y,
die Parameter ausgestattet wurden, unter dem Begriff,
die X ausgestattet wurde, und Sie erlauben die alten Parameter.
Das ist die Integrale über den Domain Y von log P von X, Y,
die Parameter ausgestattet wurden. Jetzt kommt die Kondition,
die Probabilität von Y von X, und der alte Estimaten, QI.
Ich hatte diesen Mann gestern. Ich werde später zeigen, dass das
die selbe Ergebnis erlauben wird. Aber an diesem Punkt brauchen wir ihn hier.
Sorry für das. Und jetzt, was Sie mit dem genetischen Fall tun,
Sie versuchen, diese Funktion zu komputieren. Und das ist der Erwartungsstück,
oder E-Stück. Und jetzt, dass Sie die Funktion komputiert haben,
die alte Modelle, Sie können versuchen, sie zu maximieren. Also dann M-Stück,
die Q-Funktion zu maximieren. Und wenn Sie den Achmachs nehmen,
dann sagen Sie, Ihre neuen Parameter sind das Achmachs des Kaisers.
Das ist der sehr generelle Fall. Und dann können Sie starten, oder iterieren.
Sie nehmen den neuen Estimaten und estimieren eine neue Q-Funktion mit einem neuen Estimaten.
Und dann iterieren Sie und so weiter. Und Sie können zeigen, dass das Sie
mit einem lokalen Optimum für die Parameter führen wird.
Sie werden also nicht mit einem globalen Optimum, aber Sie werden immer eine bessere Parameter
estimieren, durch diese Interaktion. Jetzt, das zu der HMM.
Das ist nicht endlos. Danke. Eigentlich brauche ich keinen Bracket. Danke für das.
Also, die Applikation zu HMM.
Also unsere schmutzigen Variablen sind die schmutzigen Städte. Q1 bis Qn. Unsere Observationen sind die,
die wir haben. Ja, Sie brauchen sie. Nein, Sie brauchen sie nicht.
Das ist der erwartete Wert der Lock-Läufe.
Ja, das ist die Lock-Läufe. Und das ist der erwartete Wert der Lock-Läufe.
Danke für das Zuhören.
Meine Daten sind die Observationen.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:20:15 Min
Aufnahmedatum
2015-07-07
Hochgeladen am
2015-07-07 10:34:59
Sprache
en-US
This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models.
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm.
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.