Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Im Wesentlichen sind das Agenten wie diese hier, die neben ihrem eigentlichen aktiven
Performanzelement noch so eine Lernebene haben und wir befassen uns eigentlich nur damit,
wie diese Lern-Ebene aussieht. Wir integrieren das noch nicht da rein im Moment. Im Moment
sind wir dabei ganz allgemeine Themen von Lernen zu betrachten. Wir haben uns ein sehr einfaches
Beispiel von Lernen angeguckt, induktives Lernen. Dabei geht es darum, dass gegeben ein Hypothesenraum,
also eine Menge von möglichen Funktionen, die wir lernen könnten und eine Menge von Beispielen,
die Menge von Beispielen hatten wir als eine Funktion geschrieben, als eine Funktion, die
jedem ihre Eingabe, eine Ausgabe zuordnet. Das sind ja Funktionen Eingabe-Ausbeigabe-Paare.
Deswegen eignet sich das hier von der Schreibweise ganz gut. Also eine Menge von Beispielen,
F, dann irgendwie sicherstellen will, dass gegeben die Beispiele wir eine Hypothese finden,
die möglichst konsistent mit diesen Beispielen ist. Das heißt, wenn ich die Hypothese auf x anwende,
kriege ich F von x. Das ist das Framework, in dem wir gerade sind. Das heißt, was wir versuchen mit
den Hypothesen ist irgendwie die konstitutiven Zusammenhänge, die hinter diesen Beispielen
stehen, irgendwie durch eine Funktion, die breiter definiert ist, typischerweise zu fassen und dann
diese Hypothese H auf neue Werte anzuwenden und hoffentlich, wenn das die richtige Hypothese ist,
nämlich die darunter liegenden Zusammenhänge, die wir ja nicht kennen, ausdrücken kann,
dass sie dann gute Voraussagen macht. Also das ist eine Extrapolationsmethode, wir haben, wir wissen,
das intendierte Verhalten auf gewissen Beispielen, zum Beispiel für dieses x haben wir das y, für
dieses x haben wir das y und wir haben hier in diesem Fall sechs Input-Output Beispiele und die
Frage ist, wie könnten denn die Funktionen aussehen, die Hypothesen und das hängt sehr stark natürlich
davon ab, was unser Hypothesenraum ist, was erlauben wir denn, was wollen wir denn überhaupt für
Funktionen rechnen können. Für Lineare könnte das so aussehen, für Quadratische könnte es so aussehen.
In beiden Fällen approximieren wir einige der Beispiele einigermaßen ordentlich, bei der grünen
Kurve sogar genau und gewisse andere Beispiele, da haben wir eine Inkonsistenz, das lässt sich hier nicht
machen und wenn wir andere größere Hypothesenräume zulassen, dann können wir unter Umständen
vollständige Konsistenz erreichen. Okay, das können wir natürlich in noch größeren Räumen,
also es gibt durchaus mehr als eine Hypothese, die meine Beispiele erfüllt und wenn wir mehrere
Beispiele haben, so die Tendenz, dass wir die möglichst einfachen wollen. Das heißt,
dies hier ist das Setting und wie gesagt, man hat eben zwei Sachen, an denen man drehen kann,
einmal den Hypothesenraum und zum anderen irgendwie die Lernmethode und die hängen
natürlich miteinander zusammen. Konkret angefangen, angeguckt haben wir uns das an einem Beispiel,
wo der Hypothesenraum die Menge aller Entscheidungsbäume war und wo wir unsere
Beispiele durch Attribute dargestellt hatten. Attribute sind in gewisser Weise,
kann man sich vorstellen als Funktionen, die unsere ansonsten unstrukturierten Situationen
irgendwie in Werte fassen. Die messen gewisse Sachen, zum Beispiel haben wir in diesem Restaurant
Beispiel hatten wir Attribute, sowas wie Preis, wie teuer ist das Restaurant, das könnte ja einen
Einfluss haben, ob wir auf den Tisch warten wollen oder nicht oder welchen Typ was wir essen gibt es
da oder gibt es irgendwelche Leute, die außerdem noch in dem Restaurant sitzen und so weiter und
so fort. Diese Abstraktion in so einem Attribut basierten Verfahren erlaubt es uns diese
Entscheidungsbäume zur Darstellung der Hypothesen zu nehmen und man hat hier in diesem Entscheidungsbaum
letztlich solche Testknoten und je nachdem wie man da durchläuft kommt man auf ja oder nein die
Klassifikation ich warte oder ich warte nicht. Diese Entscheidungsbäume sind im Wesentlichen das
gleiche wie Buhlsche Funktionen, zumindest wenn wir Buhlsche Attribute haben und natürlich haben
wir deswegen auch genauso viele, nämlich sehr viele und andere Darstellungen, zum Beispiel die
Darstellung Stadt als Entscheidungsbäume, sagen wir mal als Einzelklauseln, haben natürlich, sind
sehr viel kleiner, kleinere, einfach um das mal konkret zu machen mit diesen Hypothesenräumen,
wir könnten diese nehmen, wir könnten aber auch diese Klauseln nehmen und da haben wir unterschiedlich
viele drin, das heißt wenn wir einen kleineren Hypothesenraum haben gibt es eine gewisse
Wahrscheinlichkeit, dass die Funktion, die wir eigentlich haben wollen, gar nicht realisierbar
Presenters
Zugänglich über
Offener Zugang
Dauer
01:23:45 Min
Aufnahmedatum
2017-06-29
Hochgeladen am
2017-06-29 16:44:25
Sprache
de-DE
Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.