18 - Pattern Analysis [ID:5262]
50 von 828 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Wir haben Statistikmodelle eröffnet.

Und in der Partikulation haben wir drei verschiedene Dinge gesehen.

Wir haben die Situation gesehen, dass für eine bestimmte Klasse,

die Klassekondition ist beispielsweise ein Gaussian mit einem Vektor,

und eine Kovariante-Metrix. Das haben wir bisher immer gemacht.

Wenn wir Statistikmodelle eröffnen, dann haben wir Statistikmodelle mit Feature-Vektoren,

mit einer bestimmten Dimension, und die Feature-Vektoren sind die randomen Vektoren.

Diese randomen Vektoren sind ausgedacht, eine bestimmte Probabilität zu unterliegen.

Dann haben wir das Problem gewechselt, dass wir nicht nur eine Feature-Vektoren betrachten,

sondern eine Sequenz von Features betrachten.

Diese Sequenz von Features wird von einem bestimmten Numeren randomen Prozess generiert.

Diese randomen Prozesse sind die Häuschen, die wir gestern gesehen haben,

wo wir mit einer bestimmten Probabilität an der Tür knopfen und den Inhabitanten entfalten,

um einen randomen Vektor zu entwerfen.

In diesem Kontext haben wir die Mixer gesehen,

wo wir die Klassekonditionen x1, x2, xn bezeichnen, für eine bestimmte Klasse ist die Summe i von 1 bis n

P von x i y times Pi Produkt von...

Lass mich das gut schreiben. Jetzt ist zu viel eingeschränkt.

Lass mich das gut schreiben.

Wir bezeichnen die K-Feature aus der Feature-Sequenz

und die K-Feature kann zu verschiedenen Häusern bezeichnet werden.

Die Häusern wurden von i von 1 bis n bezeichnet.

Es kann also von Hausnummer 1 zu Hausnummer n bezeichnet werden.

Das ist die Probabilität, dass die Häusern in der Hausnummer 1 sind.

Das ist die Mixer.

Die Probabilität, die Tür zu knopfen, und das ist die Ausdrucksprobabilität mit dem Hausnummer.

Wir machen das für alle Features, also multiplyen wir hier für K ist 1 bis n.

Das ist das, was wir gestern bezeichnet haben.

Das ist der Marginal über die Häusern.

Wir wissen nicht, welches Haus welches Feature-Vektor generiert hat.

Die gesamte Probabilität ist von der Summe bezeichnet.

Das ist die Input-Probabilität und das ist die Ausdrucksprobabilität.

Wir schauen uns ein Beispiel für Mixer an.

Wir illustrieren das immer mit dem Begriff.

Pi 1 ist von 1 3. Pi 2 ist von 2 3.

Das hier ist das Generieren von Pi 0 für das Hausnummer 1.

Hier haben wir die Probabilität 1 1.

Pi 1 in diesem Haus ist auch 1 1.

Und hier haben wir Pi 0, 2 ist 1 4. Pi 1, 2 ist 3 4.

Jetzt müssen wir die Probabilität von Pi 0, 0, 1, 1 kompulieren.

Wir nennen das ganze System hier die Mixer für Lambda.

Das ist die Mixer Lambda.

Und wir müssen diese Probabilität kompulieren.

Wer will das tun?

Ist es ein volunteer? Ich zeige es dir.

Es ist das Produkt mit allen Features. K ist 1 und wir haben vier Features.

Dann haben wir die Summe. i ist 1, 2. Und dann haben wir Pi, Pi von x i, x k, x i.

Jetzt machen wir das.

Wir nehmen den ersten Faktor als Nr. 1.3. 1 3 x Pi 0 für das erste Haus ist 1 1.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:32:36 Min

Aufnahmedatum

2015-06-30

Hochgeladen am

2015-07-01 07:45:28

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen