12 - Pattern Analysis [ID:5071]
50 von 335 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Die letzte Sache, die wir gestern gemacht haben, war, um die Widerung des Paracen-Winders zu bestimmen.

Also die Größe des Winders.

Und nur ein kurzer Rezert, denn ich möchte ein kleines Stück Informationen zu dem, was wir gestern gesagt haben.

Wir haben gestern gesagt, dass die Estimation des Paracen-Winders

mit Cross-Validation und Maximum-Liklihood Estimation,

Cross-Validation und Maximum-Liklihood Estimation,

Cross-Validation auf unserem Set von Samplern S,

Consistente von N Samplern, und wir haben eine Probabilität, Densität Funktion P,

P, ich habe vergessen, was das H ist, ich habe vergessen, welches Buch ich für den Winderschraub mitgebracht habe,

und es ist anders als das, was hier geschrieben wurde, denn ich mag das Buch nicht.

P H J war die Probabilität, Densität, die von dem Set S aus gestimuliert wurde, wo Sampl J ausgestimmt wurde.

Ich stelle gerade wieder das, was wir gestern gesagt haben.

Wenn ihr das gestern geschrieben habt, dann ist das schon gut.

Also, das war als Gesamtum über alle Samplen, die in dem Fenster sind,

und wir hatten eine Fensterfunktion Phi, die diesen Test verursacht hat, also fragte, ist meine Sampe,

oder ist eine bestimmte Location X nahe einer Sampe Xi, in diesem Falle zählte sie, also Phi war diese Fensterfunktion.

Und wir können verschiedene Typen Fenster benutzen, wir könnten einfach ein Rektangular Fenster benutzen, oder wir könnten ein Gaujchen Fenster benutzen, oder was auch immer.

Also, das ist 1, wenn es in der Fenster 0 ist, anders als das.

Die Idee der Cross-Validation ist jetzt, an N verschiedenen Densitäten zu schauen.

Also, die erste Zeit, wenn wir das erste Sample omitieren, die zweite Zeit, wenn wir das zweite Sample omitieren und so weiter.

Und wir sagen, ok, also, wenn wir ein Fenster mit H wählen, um zu erledigen, ob dieses Sample, das einzelne Sample, das wir omitiert haben,

ist schön in unserer Densität verwendet, also, wenn wir die Probabilität maximieren, dass unsere Samplen in dieser Densität gezeigt werden, dann haben wir die Optimum-Winkel gefunden.

Also, die objektive Funktion war, sorry, die Optimum-Winkel-Width ist das Maximum, oder, lass mich einfach die letzte Lock-Winkel-Linie schreiben, die wir hatten.

Also, die Objektive Winkel H, die die Summe von J nach N maximiert, log von P, H, J, X, J.

Ok, also, und, also, das muss irgendwie maximiert werden.

Und, und was wir gestern geschrieben haben, ist, dass wir gesagt haben, oh, ja, also, wir schauen uns an den Gradient an, da dies ein Optimierungsproblem ist.

Aber ich denke, dass dies ein wenig verweigert ist, weil wir schauen uns an, was wir versuchen, um zu optimieren, und das Problem ist, dass es wirklich schwer ist, dies effizient zu optimieren.

Also, ja, was wir versuchen, zu optimieren, also, wir versuchen, diese Expression zu maximieren.

Also, dies bedeutet, wir suchen global ein Fenster mit Höhe, für unsere ganze Densität, die alle N-Sampel schön ausprobiert.

Also, wenn wir es ausprobieren, modellieren wir unsere Densität mit den anderen N-1-Sampeln und dann testen wir, ok, wie gut wir diese eine Sampe, die wir ausprobiert haben, erproben.

Also, die Summe über diese Erprobungen ist unser Kriterium, dass das Alter gut ist, aber das Problem ist, wir bekommen hier keine geschlossenen Formen von Expressionen, oder etwas, das wir schön optimieren können,

weil dieses J hier eigentlich ziemlich mean ist.

Also, dies bedeutet, dass diese Probabilität, die Densität, jedes Mal auf einem anderen Subset der Daten ausprobiert wird. Also, wenn wir einen Alter haben, der gut auf Subset 1 funktioniert,

dann ist es vielleicht ein schlechter Alter, also ein schlechter Window-Size für Subset 2 und so weiter. Also, wir können nicht wirklich einen guten Gradient aus dem Schleif machen.

Ich meine, wir können das kompulieren, wir können das schreiben, dass wir es wollen, um den Gradient zu sehen, aber wir können es nicht wirklich kompulieren.

Also, was wir hier noch zu tun haben, ist, wirklich, wie gesagt, versuchen, ein gutes Alter durch die Flasche zu finden.

Also, wir beginnen mit einem Alter, wir erhöhen ihn ein wenig, wir reduzieren ihn ein wenig und dies gibt uns ein Gradient, in dem wir sagen können, dass wir, wenn wir einen kleinen Alter machen,

wenn wir ihn ein wenig kleiner machen, sieht es aus, als würden unsere Ergebnisse besser werden, etwas wie das. Aber es ist keine gute Optimisierung in Bezug auf, oh, wir werden den Dervitator kompulieren.

Also, das ist schwierig zu optimieren, das ist der Kommentar, den ich gestern hinzuwürfen wollte.

Also, das ist schwierig zu optimieren, für verschiedene Js, diese Probabilität P, H, J ist kompuliert.

Und testet auf verschiedenen Subsetten.

Also, das ist nicht mein S, ich schreibe das. Okay, verschiedene Subsetten von S.

Also, es gibt keine gute oder kompulierende Art,

es gibt keine gute, kompulierende Art, die Gradienten unserer objektiven Funktion.

Okay, lassen Sie mich noch etwas hinzuweisen, wir können immer etwas tun,

wie eine komplette Suche für den Optimum-Parameter.

Ja, weil wir, sehr gute Frage, ja, exzellente Frage, lassen wir uns die Frage suchen.

Okay, die Frage ist, wäre es nicht besser, nur H zu wählen, so groß wie möglich?

Weil wir unsere Window-Funktion Phi haben, also mit einem riesigen Fenster,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:18:29 Min

Aufnahmedatum

2015-06-02

Hochgeladen am

2015-06-02 10:09:42

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen