14 - Pattern Analysis [ID:5137]
50 von 637 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Ich möchte zuvor alles beenden, was das hier alles betrifft.

Im Sommer sprechen wir über die Patternanalysen.

Die Grundeine Idee ist, dass wir bisher

Feature-Vektoren von bestimmten Dimensionen hatten,

aber das war ein Teil der Pattern-Rekognition.

Was wir nun in diesem Sommersemester tun wollen, ist,

dass wir D oder B sehr groß sein können.

Das werden wir heute auch sehen.

Was passiert, wenn wir in sehr hohen Dimensionen sind?

Es ist sehr wichtig, eine gute Intuition zu bekommen,

was das für uns bedeutet.

Wir sprechen von Buzzwords wie Big Data Analysis.

Wir haben viele Samplen in sehr hohen Dimensionen.

Wie können wir mit diesem Problem handeln?

Das werden wir uns anschauen.

Das andere Problem, das wir im Sommersemester betrachten,

ist, was passiert, wenn D variiert.

Es verändert sich.

Wir haben keine Features von Vektoren einer bestimmten Dimension,

aber wir messen ein Signal und kompüren Features von verschiedenen Dimensionen.

Wie können wir mit dem Klassifizieren das tun?

Für diejenigen, die im Wintersemester in Patternrekognition betrachten,

wissen Sie vielleicht von der Dynamik-Time Warping Kernel,

für SVM, zum Beispiel,

in der wir bereits Probleme in diese Richtung beachten.

So, nach der Motivation in dieser Unterrichtung

haben wir die Klosterung als zweiter Schöpter besucht.

Das war etwas, was ich hier gemacht habe.

Wir haben also hart- und soft-Klosterungen gesprochen.

Sie erinnern sich an das?

Hoffentlich.

Hart- und soft-Klosterungen.

Ich habe verschiedene objektive Funktionen verwendet.

Sie erinnern sich an die Anwendungsvariablen Cij.

Das war entweder eine binaureihe Variabel oder eine Probabilität.

Wir hatten hart-Klosterungen, die sagen,

dass ein Feature einer bestimmten Klasse,

und nichts anderes, gehört,

oder Soft-Klosterungen, wo wir Probabilitäten für Klassensammlungen bezeichnen.

Wir messen ein Feature oder kompüren ein Feature aus einem Bewert,

und dann sagen wir, dass ein Feature einer bestimmten Klasse

mit einer anderen Probabilität zu Klasse 1 und so weiter gehört.

Wir haben auch hier in diesem Kontext

verschiedene objektive Funktionen verwendet.

Diese Funktionen müssen minimiert werden.

Wie minimieren wir diese Funktionen?

Die notwendige, aber nicht zu viel Konditionen für das Optimum sind,

dass der Gradient verschwindet.

Wir haben also den Gradient komputiert und

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:26:41 Min

Aufnahmedatum

2015-06-15

Hochgeladen am

2015-06-15 11:54:29

Sprache

en-US

This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models. 
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm. 
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen