9 - Pattern Analysis [ID:4988]
50 von 514 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Heute und morgen werden wir über Densitätsestimation und Mehrwertes lernen.

Das ist vielleicht nicht das erste, was in den Randevogels kommt.

Aber in unserem Rahmen sind auch Applikationen möglich.

Es ist eine gute Applikation, also ist es wert, in die Sache zu schauen.

Auch wenn es sehr gute Wettbewerber gibt,

vielleicht würden Randevogels nicht die Wahlmethode sein.

Erstens, ein kurzer Rekalp über Klassifikation und Regression.

Ich werde nicht wirklich alles wiederholen, aber als Einzige,

wenn wir Randevogels für Klassifikation oder Regression haben,

haben wir immer die Tätigkeitsdaten.

Und für Klassifikation sagen wir, wir zählen unsere Samplen.

Wir kreieren Histogramme unserer Samplen,

die nach dem Subdividieren der Featurespace ausgeschlossen werden.

Zum Beispiel haben wir eine Subdivision unserer Featurespace, wie hier,

und dann gibt es andere Sachen draußen.

Wenn wir eine Fortsetzung trainieren, die mit dieser Sektion endet,

dann zählen wir einfach drei Mal die Kross und einmal die Kugel.

Wenn wir ein unbekannten Sample haben,

und in dieser Sektion enden, würden wir sagen,

dass es mit 75% Probabilität eine Kross ist.

Und mit 25% Probabilität ein Zirkus ist.

Für Regression haben wir auch die Tätigkeitsdaten,

aber die Situation ist ein bisschen anders,

weil wir diese Labeln benutzen, um eine Funktion zu befinden und diese Funktion zu extrapolieren.

Zum Beispiel in einem 1D-Ausgabe,

wenn unsere Trainingsdaten ein paar Punkte sind

und wir eine Liniemodelle haben, die wir erlauben,

dann wird unser Wald die Datasette in Sektionen, die ungefähr linear sind,

und dann benutzen wir unsere Labeln, um diese Liniefunktionen zu befinden.

Wenn wir heute über Densitätestimation reden,

dann werden wir hier wirklich eine Sektion starten, Densitätestimationen.

Dann reden wir über ungeklagte Daten.

Das Szenario, das wir mit der Tatsache, das wir versuchen zu lösen,

ist, eine Probabilitätensitätsdiskursion zu beherrschen,

eines Trainingssets oder eines Samples,

eines ungeklagten Daten.

Also, zum Beispiel,

wir haben unser 2D-Future-Space wieder,

und alles, was wir jetzt wissen, oder alles, was wir tun, ist,

die Feature-Vektoren zu schauen und zu sagen,

oh, okay, hier sind ein paar Features befindet,

und hier sind ein paar Features befindet.

Was kann ich tun, um diese als Probabilität, Densität zu verbreiten?

Und ein sehr populäres, oder vielleicht ein Petro-Rekognition-Viewpoint,

sehr natürliches, Ansatz ist, zu sagen, oh, wir nehmen zwei Gaussian,

zwei 2D-Gaussions, und wir befinden sie mit dem Daten,

und wir bekommen eine Struktur wie diese,

wie ausgespürt,

an die Boundarien,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:27:05 Min

Aufnahmedatum

2015-05-18

Hochgeladen am

2015-05-18 10:43:01

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen