14 - Künstliche Intelligenz II [ID:8061]
50 von 565 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Im Wesentlichen sind das Agenten wie diese hier, die neben ihrem eigentlichen aktiven

Performanzelement noch so eine Lernebene haben und wir befassen uns eigentlich nur damit,

wie diese Lern-Ebene aussieht. Wir integrieren das noch nicht da rein im Moment. Im Moment

sind wir dabei ganz allgemeine Themen von Lernen zu betrachten. Wir haben uns ein sehr einfaches

Beispiel von Lernen angeguckt, induktives Lernen. Dabei geht es darum, dass gegeben ein Hypothesenraum,

also eine Menge von möglichen Funktionen, die wir lernen könnten und eine Menge von Beispielen,

die Menge von Beispielen hatten wir als eine Funktion geschrieben, als eine Funktion, die

jedem ihre Eingabe, eine Ausgabe zuordnet. Das sind ja Funktionen Eingabe-Ausbeigabe-Paare.

Deswegen eignet sich das hier von der Schreibweise ganz gut. Also eine Menge von Beispielen,

F, dann irgendwie sicherstellen will, dass gegeben die Beispiele wir eine Hypothese finden,

die möglichst konsistent mit diesen Beispielen ist. Das heißt, wenn ich die Hypothese auf x anwende,

kriege ich F von x. Das ist das Framework, in dem wir gerade sind. Das heißt, was wir versuchen mit

den Hypothesen ist irgendwie die konstitutiven Zusammenhänge, die hinter diesen Beispielen

stehen, irgendwie durch eine Funktion, die breiter definiert ist, typischerweise zu fassen und dann

diese Hypothese H auf neue Werte anzuwenden und hoffentlich, wenn das die richtige Hypothese ist,

nämlich die darunter liegenden Zusammenhänge, die wir ja nicht kennen, ausdrücken kann,

dass sie dann gute Voraussagen macht. Also das ist eine Extrapolationsmethode, wir haben, wir wissen,

das intendierte Verhalten auf gewissen Beispielen, zum Beispiel für dieses x haben wir das y, für

dieses x haben wir das y und wir haben hier in diesem Fall sechs Input-Output Beispiele und die

Frage ist, wie könnten denn die Funktionen aussehen, die Hypothesen und das hängt sehr stark natürlich

davon ab, was unser Hypothesenraum ist, was erlauben wir denn, was wollen wir denn überhaupt für

Funktionen rechnen können. Für Lineare könnte das so aussehen, für Quadratische könnte es so aussehen.

In beiden Fällen approximieren wir einige der Beispiele einigermaßen ordentlich, bei der grünen

Kurve sogar genau und gewisse andere Beispiele, da haben wir eine Inkonsistenz, das lässt sich hier nicht

machen und wenn wir andere größere Hypothesenräume zulassen, dann können wir unter Umständen

vollständige Konsistenz erreichen. Okay, das können wir natürlich in noch größeren Räumen,

also es gibt durchaus mehr als eine Hypothese, die meine Beispiele erfüllt und wenn wir mehrere

Beispiele haben, so die Tendenz, dass wir die möglichst einfachen wollen. Das heißt,

dies hier ist das Setting und wie gesagt, man hat eben zwei Sachen, an denen man drehen kann,

einmal den Hypothesenraum und zum anderen irgendwie die Lernmethode und die hängen

natürlich miteinander zusammen. Konkret angefangen, angeguckt haben wir uns das an einem Beispiel,

wo der Hypothesenraum die Menge aller Entscheidungsbäume war und wo wir unsere

Beispiele durch Attribute dargestellt hatten. Attribute sind in gewisser Weise,

kann man sich vorstellen als Funktionen, die unsere ansonsten unstrukturierten Situationen

irgendwie in Werte fassen. Die messen gewisse Sachen, zum Beispiel haben wir in diesem Restaurant

Beispiel hatten wir Attribute, sowas wie Preis, wie teuer ist das Restaurant, das könnte ja einen

Einfluss haben, ob wir auf den Tisch warten wollen oder nicht oder welchen Typ was wir essen gibt es

da oder gibt es irgendwelche Leute, die außerdem noch in dem Restaurant sitzen und so weiter und

so fort. Diese Abstraktion in so einem Attribut basierten Verfahren erlaubt es uns diese

Entscheidungsbäume zur Darstellung der Hypothesen zu nehmen und man hat hier in diesem Entscheidungsbaum

letztlich solche Testknoten und je nachdem wie man da durchläuft kommt man auf ja oder nein die

Klassifikation ich warte oder ich warte nicht. Diese Entscheidungsbäume sind im Wesentlichen das

gleiche wie Buhlsche Funktionen, zumindest wenn wir Buhlsche Attribute haben und natürlich haben

wir deswegen auch genauso viele, nämlich sehr viele und andere Darstellungen, zum Beispiel die

Darstellung Stadt als Entscheidungsbäume, sagen wir mal als Einzelklauseln, haben natürlich, sind

sehr viel kleiner, kleinere, einfach um das mal konkret zu machen mit diesen Hypothesenräumen,

wir könnten diese nehmen, wir könnten aber auch diese Klauseln nehmen und da haben wir unterschiedlich

viele drin, das heißt wenn wir einen kleineren Hypothesenraum haben gibt es eine gewisse

Wahrscheinlichkeit, dass die Funktion, die wir eigentlich haben wollen, gar nicht realisierbar

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:23:45 Min

Aufnahmedatum

2017-06-29

Hochgeladen am

2017-06-29 16:44:25

Sprache

de-DE

Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen