4 - Künstliche Intelligenz II [ID:7610]
50 von 332 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Prima, also wir bewegen uns immer weiter in Richtung Inferenz mit unsicherem Wissen

und haben dazu weiterhin uns über Wahrscheinlichkeitsrechnungen unterhalten.

Das neue, was wir gemacht haben, war, dass wir bedingte Wahrscheinlichkeiten uns angeguckt haben.

Die Idee dahinter ist, dass man, wenn man mehr weiß, sich die Wahrscheinlichkeiten ändern.

Wir erinnern uns daran, das Wichtige ist, dass Wahrscheinlichkeiten unser Wissen und unsere Unsicherheit modellieren.

Natürlich ist es so, dass wenn wir mehr wissen, werden wir weniger unsicher und deswegen ändern sich die Wahrscheinlichkeiten.

Wir hatten dafür eine neue Notation eingeführt, die Wahrscheinlichkeit von A gegeben B, das heißt, wenn wir B wissen, was wissen wir über die Wahrscheinlichkeit von A.

Wir hatten das definiert und im Prinzip ist das eine sehr einfache Geschichte, die Wahrscheinlichkeit von A gegeben B ist gerade die Wahrscheinlichkeit,

dass A und B zusammen gelten in der Gesamtheit aller Fälle, in denen B gilt.

Sehr einfaches Ding und wir hatten uns das für Wahrscheinlichkeitsverteilungen angeguckt und man kann irgendwie das Gleiche für ganze Wahrscheinlichkeitsverteilungen machen.

Im Prinzip ist es wie vorher, wir haben eigentlich nur so eine Systemschreibweise, die es uns erlaubt, viel aufzuschreiben, in wenig Platz.

Aber was dahinter steht, ist natürlich irgendwie wieder so eine Tabelle von Werten, nur dass hier halt gerade eben die bedingten Wahrscheinlichkeiten drinstehen in dieser Tabelle.

Das nächste große Thema, was wir uns angeguckt haben, ist Unabhängigkeit.

Unabhängigkeit macht uns das Leben einfach und das ist die Idee dabei, statt dass wir viele Wahrscheinlichkeiten kennen müssen, multiplizieren sich die Wahrscheinlichkeiten aus.

Wir haben angefangen damit, dass wir uns die volle Wahrscheinlichkeitsverteilung angeguckt haben und wir haben uns hier angeguckt,

dass wenn man die volle Wahrscheinlichkeitsverteilung hat, kann man die Einzelwahrscheinlichkeiten erschließen, indem man anfängt kleinere Wahrscheinlichkeiten aufzusummieren.

Hier zum Beispiel, wenn wir wissen wollen, wie die Wahrscheinlichkeit von Löchern ist, dann guckt man sich an, was ist die Wahrscheinlichkeit von Loch- und Zahnschmerzen und Loch- aber keine Zahnschmerzen und so weiter.

Das heißt, man summiert hier irgendwelche Zeilen auf und das werden wir auch hinterher immer wieder sehen.

Der Grund, warum wir das nicht immer machen, ist, dass diese Tabelle, die sich hier harmlos und klein darstellt, wenn wir 20 Zufallsvariablen haben, wird die natürlich groß.

Das heißt, es wird eine 20-dimensionale Tabelle und die hat natürlich eine große Menge an Einträgen.

Also insgesamt, wenn wir die Gesamtwahrscheinlichkeitverteilung haben, haben wir wieder so ein exponentielles Verhalten und das war ja eine der Sachen, die wir gerne vermeiden möchten.

Generell ist es so, dass alle KI-Modelle, die irgendwie exponentiell sind im Normalfall, dass die nicht kognitiv adäquat sein können, denn unser Gehirn kann solche Dinge nicht.

Wir können keine exponentiellen Dinge in unserem kleinen Gehirn.

Das heißt, wenn wir irgendwelche Verfahren vorschlagen, wie KI funktionieren könnte und das ist exponentiell, dann wissen wir, dass daran was falsch ist.

Das haben wir im letzten Semester auch häufig gesehen, dass man sehr häufig aus dem extremen exponentiellen Verfahren durch kluges Ausnutzen von Struktur hin zu weniger schlimmen Verfahren kommt.

Wir Menschen als biologische Maschinen haben sehr viele Spezialalgorithmen eingebaut, die genau diese Struktur ausnutzen.

Bilderkennung ist etwas total scheußlich von der Komplexität her, aber wenn man versteht, dass man erstmal das Ganze auf Linien runterrechnen muss und dass die Linien irgendwelche Eigenschaften haben, dann kann man der ganzen Sache Herr werden.

Deswegen haben wir als Säugetiere Linienerkennung bis hin in unsere Retina implementiert.

Das menschliche Intelligenz kann sehr häufig die Strukturen, die wir in der Welt vorfinden, damit umgehen.

Das Gleiche machen wir hier auch, deswegen wollen wir uns nicht die Gesamtwahrscheinlichkeiten angucken.

Was wir machen werden, sind eine Möglichkeit, wie man dieser Komplexität Herr wird.

Nicht im Worst Case, da ist immer alles gleich schlimm, aber in strukturierten Fällen sind solche Methoden erlauben, sonst sehr viel mehr zu machen.

Diese Bayesian Netzwerke nutzen die Unabhängigkeit von Zufallsvariablen sehr stark auf.

Was ist Unabhängigkeit? Unabhängigkeit ist gerade, wenn dem Zusammenfallen zweier Ereignisse eine Multiplikation der Wahrscheinlichkeiten entspricht.

Typischer Fall ist Würfelwürfel, wenn man mit zwei Würfeln würfelt, beeinflussen sie sich gegenseitig nicht, man kann die Wahrscheinlichkeiten einfach multiplizieren.

Wenn wir sich die Gesamtwahrscheinlichkeitsverteilung anschauen, Würfel können 1 bis 6, das heißt wir haben zwei Ereignisse mit zwei Würfeln, das müssten 36 Einzelwahrscheinlichkeiten sein, wenn die sich beeinflussen können.

Da die aber unabhängig voneinander sind, haben wir nur 12. 12 gegen 60 macht schon mal einen schönen Unterschied aus.

Das heißt einfach nur, dass diese Gesamtwahrscheinlichkeiten, die zwar immer noch exponentiell sind, dekomponiert werden können in Einzelwahrscheinlichkeiten, die wir miteinander multiplizieren.

Wir können sozusagen aus der Gesamtwahrscheinlichkeitsverteilung gewisse Felder aus anderen Feldern errechnen.

Sehr häufig sind das unheimliche Sparpotenziale.

Diese Sparpotenziale kommen aus der Struktur der Umgebung.

Deswegen sind wir Menschen als intelligente Wesen sehr gut daran, Strukturen zu erkennen, weil sie uns es erlauben, in Frenz zu leiden.

Wir haben uns Rechenregeln angeguckt, als allererstes die Produktregel A und B.

Das ist dasselbe wie die bedingte Wahrscheinlichkeit A gegeben, B mal P von B. Das ist ganz einfach nur eine Umstellung der Definition der bedingten Wahrscheinlichkeit.

Schon allein diese kleine Regel ist sehr nützlich, insbesondere deswegen, weil sie uns erlaubt, die sogenannte Kettenregel aufzubauen, in der wir das einfach iterieren.

Wenn wir n Variablen haben, können wir das in n-1 bedingte Wahrscheinlichkeiten aufspalten und dann hinten eine unbedingte Wahrscheinlichkeit.

Eine weitere Rechenregel ist das Aussummieren von Möglichkeiten.

Das haben wir schon gesehen in unserem Beispiel. Wenn man nur die Zweierwahrscheinlichkeiten hat, kriegt man die Einerwahrscheinlichkeit von einem Loch, indem man einfach über eine Zeile aufsummiert.

Wir summieren hier über alle Möglichkeiten auf. Wir wissen, dass die Summe über alle Möglichkeiten einer Zufallensvariable 1 gibt.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:24:32 Min

Aufnahmedatum

2017-05-15

Hochgeladen am

2017-05-16 12:33:18

Sprache

de-DE

Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen