6 - Künstliche Intelligenz II [ID:7690]
50 von 808 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

So, guten Tag. Wir sind gerade bei Bayesian Netzwerken. Bayesian Netzwerke als eins der

Haupthilfsmittel, mit denen wir in bekannter Umgebung, also Umgebung, die wir modellieren

können, wo wir wissen, was die Zufallsvariabeln sind und wo wir auch irgendwelche Übergangswahrscheinlichkeiten

kennen, probabilistische Inferenz machen können. Das ist so das Thema insgesamt. Wir modellieren

irgendeine Umgebung, die partiell observabel ist. Das heißt, wir wissen nicht alles, was passiert,

wir wissen den Zustand der Welt nicht genau, modellieren wir das in Zustands-Zufallsvariabeln

und diese wiederum und modellieren deren Abhängigkeiten. Und der Trick an den Bayesian

Netzwerken ist, dass wir haben Abhängigkeiten, typischerweise, wenn wir Glück haben, sind

das kausale oder quasi-kausale Abhängigkeiten und wir merken uns, wo es keine Abhängigkeiten

gibt. Technisch gesehen gibt uns das dann bedingte Unabhängigkeitsbedingungen. Und diese bedingten

Unabhängigkeitsbedingungen sind in diesen Netzen kodiert und das zentrale Ergebnis von

diesen Bayesian Netzen ist, dass jede Variable, jede Zufallsvariable ist bedingt unabhängig

von ihrem Nicht-Nachkommen. Von ihren Nachkommen bestehen natürlich Abhängigkeiten und es

gibt Unabhängigkeiten zu ihren Nicht-Nachkommen, allerdings nicht vollständige oder unbedingte

Unabhängigkeiten, sondern nur die bedingten Unabhängigkeiten gegeben die Eltern. Aber

wenn man sich jetzt hier vorstellt, man hat so ein Netz mit 500 Variablen und hat nur

sagen wir mal 7 Eltern und vielleicht 100 Nachkommen, dann haben wir immer noch eine

Unabhängigkeit von 400 Zufallsvariablen und das macht die Berechnung sehr viel einfacher.

Denn eine Situation a priori, wenn wir die vollständige Wahrscheinlichkeitsverteilung

nehmen, bei 500 Zufallsvariablen ist irgendwie so ein 500-dimensionaler Klotz mit k hoch 500

Werten drin, zu groß um irgendetwas damit zu machen. Wenn man hier, wenn sich die Anzahl

der Eltern, wenn die nicht zu sehr ins Kraut schießt, dann kann man schon Berechnung machen

und tatsächlich ist es so, dass es Systeme gibt, die genau das machen, denen man ein

technisches Netz gibt und dann kann man daran Anfragen stellen. Wie ist, und wir haben uns

das angeguckt, wie man das berechnet, wie steht es denn mit den Wahrscheinlichkeiten,

dass John angerufen hat, Mary angerufen hat und der Alarm geklingelt hat, aber eigentlich

nichts passiert ist. Was ist das für eine Wahrscheinlichkeit? Und dann kann man das mit

all diesen Schritten, die wir gesehen haben, Normalisierung, Kettenregel, Marginalisierung

und auch Summierung der Wahrscheinlichkeit, von denen wir ja immer diese CPTs haben, also

diese einzelnen Stückchen haben, hier in einem Basionnetz. Wie macht man das? Genau, wir haben

uns weiterhin angeguckt, wie man solche Basionnetze baut, wie modelliert man denn, man muss sich

das vorstellen, da sitzt irgendein Wissensingenieur, das ist jemand, der weiß was über die Zusammenhänge,

die Zufallsvarianten und so etwas in einem Modell und der muss dann irgendwie tief in

sich gehen und irgendwie mit so etwas dann hinterher kommen. Typischerweise sind das

Mediziner oder so was, also Leute, die nicht sehr viel von KI und Informatik und so was

verstehen, aber was sie verstehen, sind immer diese CPTs, dafür haben sie entweder eine

Intuition oder es gibt Untersuchungsergebnisse und so weiter. Wie macht man das? Die Sache

ist sehr einfach, man guckt sich erstmal an, was die Zufallsvariablen sind, dann schreibt

man die alle auf, ordnet die und geht sie eine nach dem anderen durch und guckt sich

an, was wohl die Abhängigkeiten sind. Dürfs möglicher Algorithmus und was man dabei sich

vor Augen führen muss, ist, dass die Reihenfolge, in der man das macht, eine große Rolle spielt

und wir haben hier zwei Beispiele angeguckt, eins schlimmer als das andere, immer wenn

es viele Pfeile gibt, ist man als Modellierer unglücklich, weil viele Pfeile heißt viele

Eltern, heißt wenig Unabhängigkeiten und viele Pfeile heißt natürlich auch viele Nachkommen.

Marry-Call ist unabhängig gegeben ihrer Eltern, die es nicht gibt, das ist nicht so schlimm,

von allen ihren Nicht-Nachkommen, naja es gibt keine Nicht-Nachkommen. John Calls ähnlich

ist von allen seinen Nicht-Nachkommen, das ist nur Mary unabhängig, aber Mary ist ein

Elternteil von John Calls, das heißt da haben wir auch nichts gewonnen. Dasselbe für Earthquake

und so weiter und so fort. Während unser schönes x-förmiges Diagramm, da haben wir

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:26:44 Min

Aufnahmedatum

2017-05-22

Hochgeladen am

2017-05-22 23:12:17

Sprache

de-DE

Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen