Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Die Erlangen-Nürnberg-Kurve und die Samplen von den Minimis und die Klassifikationen, die wir versuchen, die...
... ihr versucht, ihr habt Feature-Vakuum, die ihr versucht, in Klassen zu kreieren, indem ihr diese Feature-Vakuumen verwendet.
In anderen Worten, Regression bedeutet, Samen zu nehmen, sie zu einem Kontinuierungswerten Vektor zu mapieren.
Das kann z.B. die Liste der Koeffizienzen eines Polynomials sein, die durch die Punkte befindet.
In der Klassifikation legt man die Feature-Vakuumen, die Samplen, und mapiert sie zu kreativen Klassikern.
In einem Beispiel haben wir Samen, die ihr zu den Koeffizienzen eines Degree-2-Polynomials mapiert.
In einem zweiten Beispiel haben wir Feature-Vakuumen, die ihr zu einem Klassennummer zu mapieren, die die Wörter XYZ sind.
Und was wir heute diskutieren, ist Clustering. Wir werden auch Algorithmen für Clustering vorstellen.
Und ihr könnt diese Algorithmen für Experimente, für Clustering-Daten verwenden. Clustering-Algorithmen sind sehr wichtig in vielen Fortschritten, in der Koding-Theorie, in der Pattern-Rekognition im Allgemeinen, in vielen Situationen, in denen ihr Informationen über die Daten, die ihr betrachtet habt, in die Klassen
ist immer eine gute Wahl. Wir werden also über Clustering reden, das war im zweiten Beispiel. Und gestern haben wir angefangen, Distanz-Messungen zu schauen. Und das war eine sehr wichtige Sache.
Und wir haben gestern eine Beispiele für eine Distanz zwischen zwei Vektoren gesehen. Intuitiv, wenn ich Sie frage, was ist die Distanz zwischen zwei Punkten in einem Teil?
Was macht man? Man meshert die Euklidean-Distance. Weil unser Leben und Erfahrung ist in den Euklidean-Distance. Und wir sind in der Euklidean-Distance.
Und das kann durch die Euklidean-Distance gemacht werden. Die Euklidean-Distance ist oft in vielen Anwendungen eine gute Wahl. Und das ist eine gute Wahl.
Wenn Sie nicht wissen, was Sie tun sollten, starten Sie mit der Euklidean-Distance. Und wir haben uns mit der Euklidean-Distance ausgeführt.
Wie können wir sie definieren? Und wir haben es bereits im Wintersemester gemacht. Lassen Sie mich die Euklidean-Distance-Messungen verabschieden.
Das frommen wir als Matrik in der круten Saal. Wir wollen, dass die Distanz, die Sie ausweichen,AHF입니다 die Distanz des restaurants die Sie von friction.
Wir brauchen, dass die Distanz zwischen zwei Vektoren immer nicht negativ ist.
Also haben wir keine negativen Distanz.
In der Patternrequipition ist es immer nicht negativ.
Wir haben keine negativen Distanz.
In der Patternrequipition sind die bekannten Distanz die Entscheidungsschritte.
Die Bekannte sagen, ob sie unter oder unter der Entscheidung befinden.
Aber wenn wir über Distanzmechaniken reden, sind diese nicht negativ.
Wenn wir die Distanz zwischen zwei Vektoren betrachten, ist es immer ein Numer, das nicht negativ ist.
Dann sagen wir, dass die Distanz zwischen zwei Vektoren, die identikal sind, 0 ist.
Und nur wenn x1 und x2 identikal sind.
Und wir haben eine Symmetrie, die die x-Zwischenzeit betrifft.
Das bedeutet, dass die Distanz zwischen Munich und Nürnberg die gleiche ist als zwischen Nürnberg und Munich.
Das ist die Wahrheit der verschiedenen Menschen.
Sie denken, dass es eine Unterschiede gibt, von Munich nach Nürnberg zu fahren, aber es ist die gleiche Sache.
Das ist es. Es ist nicht identikal.
Oder von deinem Zuhause nach Regenburg.
Und auch ein Witz. Ich bin wiederum, ich lehne nicht, dich zu enttäuschen, ich lehne mich zu enttäuschen.
Und ich habe auch Examen, um mich zu enttäuschen.
Für diejenigen, die ein Examen in meinem Büro hatten, hoffe ich, dass es nicht so schlecht war.
Ich versuche immer, interessante Fragen zu fokussieren.
Und ich versuche es auch, es so komfortabel wie möglich zu machen.
Und dann haben wir die Triangentequation. Was sagt die Triangentequation?
Wenn du die Distanz zwischen zwei Punkten in der Späße messen,
und du hast hier x1 und hier x2,
und hier ist die Distanz, und du nimmst hier ein 3. Punkt.
Das bedeutet nur, dass die Distanz zwischen diesen zwei Punkten kleiner oder equal zu den Summen der beiden Distanz ist.
Das ist bemerkbar.
Und das ist x1 x2 plus dx2 x2.
Definitionen wie diese frage ich nicht.
Das ist etwas, das du von Mathematik her erinnern sollst.
Das ist hier wieder verbreitet.
Für Komplizität.
Und das ist die Triangentequation.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:27:09 Min
Aufnahmedatum
2015-04-14
Hochgeladen am
2015-04-14 14:51:28
Sprache
en-US
This lecture first supplement the methods of preprocessing presented in Pattern Recognition 1 by some operations useful for image processing. In addition several approaches to image segmentation are shown, like edge detection, recognition of regions and textures and motion computation in image sequences. In the area of speech processing approaches to segmentation of speech signals are discussed as well as vector quantization and the theory of Hidden Markov Models.
Accordingly several methods for object recognition are shown. Above that different control strategies usable for pattern analysis systems are presented and therefore also several control algorithms e.g. the A(star) - algorithm.
Finally some formalisms for knowledge representation in pattern analysis systems and knowledge-based pattern analysis are introduced.