Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
So, guten Tag. Wir sind gerade bei Bayesian Netzwerken. Bayesian Netzwerke als eins der
Haupthilfsmittel, mit denen wir in bekannter Umgebung, also Umgebung, die wir modellieren
können, wo wir wissen, was die Zufallsvariabeln sind und wo wir auch irgendwelche Übergangswahrscheinlichkeiten
kennen, probabilistische Inferenz machen können. Das ist so das Thema insgesamt. Wir modellieren
irgendeine Umgebung, die partiell observabel ist. Das heißt, wir wissen nicht alles, was passiert,
wir wissen den Zustand der Welt nicht genau, modellieren wir das in Zustands-Zufallsvariabeln
und diese wiederum und modellieren deren Abhängigkeiten. Und der Trick an den Bayesian
Netzwerken ist, dass wir haben Abhängigkeiten, typischerweise, wenn wir Glück haben, sind
das kausale oder quasi-kausale Abhängigkeiten und wir merken uns, wo es keine Abhängigkeiten
gibt. Technisch gesehen gibt uns das dann bedingte Unabhängigkeitsbedingungen. Und diese bedingten
Unabhängigkeitsbedingungen sind in diesen Netzen kodiert und das zentrale Ergebnis von
diesen Bayesian Netzen ist, dass jede Variable, jede Zufallsvariable ist bedingt unabhängig
von ihrem Nicht-Nachkommen. Von ihren Nachkommen bestehen natürlich Abhängigkeiten und es
gibt Unabhängigkeiten zu ihren Nicht-Nachkommen, allerdings nicht vollständige oder unbedingte
Unabhängigkeiten, sondern nur die bedingten Unabhängigkeiten gegeben die Eltern. Aber
wenn man sich jetzt hier vorstellt, man hat so ein Netz mit 500 Variablen und hat nur
sagen wir mal 7 Eltern und vielleicht 100 Nachkommen, dann haben wir immer noch eine
Unabhängigkeit von 400 Zufallsvariablen und das macht die Berechnung sehr viel einfacher.
Denn eine Situation a priori, wenn wir die vollständige Wahrscheinlichkeitsverteilung
nehmen, bei 500 Zufallsvariablen ist irgendwie so ein 500-dimensionaler Klotz mit k hoch 500
Werten drin, zu groß um irgendetwas damit zu machen. Wenn man hier, wenn sich die Anzahl
der Eltern, wenn die nicht zu sehr ins Kraut schießt, dann kann man schon Berechnung machen
und tatsächlich ist es so, dass es Systeme gibt, die genau das machen, denen man ein
technisches Netz gibt und dann kann man daran Anfragen stellen. Wie ist, und wir haben uns
das angeguckt, wie man das berechnet, wie steht es denn mit den Wahrscheinlichkeiten,
dass John angerufen hat, Mary angerufen hat und der Alarm geklingelt hat, aber eigentlich
nichts passiert ist. Was ist das für eine Wahrscheinlichkeit? Und dann kann man das mit
all diesen Schritten, die wir gesehen haben, Normalisierung, Kettenregel, Marginalisierung
und auch Summierung der Wahrscheinlichkeit, von denen wir ja immer diese CPTs haben, also
diese einzelnen Stückchen haben, hier in einem Basionnetz. Wie macht man das? Genau, wir haben
uns weiterhin angeguckt, wie man solche Basionnetze baut, wie modelliert man denn, man muss sich
das vorstellen, da sitzt irgendein Wissensingenieur, das ist jemand, der weiß was über die Zusammenhänge,
die Zufallsvarianten und so etwas in einem Modell und der muss dann irgendwie tief in
sich gehen und irgendwie mit so etwas dann hinterher kommen. Typischerweise sind das
Mediziner oder so was, also Leute, die nicht sehr viel von KI und Informatik und so was
verstehen, aber was sie verstehen, sind immer diese CPTs, dafür haben sie entweder eine
Intuition oder es gibt Untersuchungsergebnisse und so weiter. Wie macht man das? Die Sache
ist sehr einfach, man guckt sich erstmal an, was die Zufallsvariablen sind, dann schreibt
man die alle auf, ordnet die und geht sie eine nach dem anderen durch und guckt sich
an, was wohl die Abhängigkeiten sind. Dürfs möglicher Algorithmus und was man dabei sich
vor Augen führen muss, ist, dass die Reihenfolge, in der man das macht, eine große Rolle spielt
und wir haben hier zwei Beispiele angeguckt, eins schlimmer als das andere, immer wenn
es viele Pfeile gibt, ist man als Modellierer unglücklich, weil viele Pfeile heißt viele
Eltern, heißt wenig Unabhängigkeiten und viele Pfeile heißt natürlich auch viele Nachkommen.
Marry-Call ist unabhängig gegeben ihrer Eltern, die es nicht gibt, das ist nicht so schlimm,
von allen ihren Nicht-Nachkommen, naja es gibt keine Nicht-Nachkommen. John Calls ähnlich
ist von allen seinen Nicht-Nachkommen, das ist nur Mary unabhängig, aber Mary ist ein
Elternteil von John Calls, das heißt da haben wir auch nichts gewonnen. Dasselbe für Earthquake
und so weiter und so fort. Während unser schönes x-förmiges Diagramm, da haben wir
Presenters
Zugänglich über
Offener Zugang
Dauer
01:26:44 Min
Aufnahmedatum
2017-05-22
Hochgeladen am
2017-05-22 23:12:17
Sprache
de-DE
Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.