Agenten verstehen wollen, die sich in komplizierteren Umgebungen aufhalten,
nämlich in Umgebungen, die nicht vollständig observierbar sind.
Also nicht so, sondern dunkel.
Dies hier ist sozusagen die Welt, wie sie wirklich ist.
Aber wenn ich hier sitze, als Spieler kann ich nichts sehen, ich kann nur Gestank.
Und wenn ich die drei untersten Felder hier exploriert habe, kann ich nur merken, ob es stinkt oder ob es zählt.
Und das ist alles, was ich kann.
Und was mich eigentlich interessiert, kann ich genau nicht sehen.
Das ist genau die Idee des Setup hiervon.
Und ich muss mich trotzdem irgendwo rational verhalten.
Und die Frage ist, wie macht man das?
Und wenn man eben nur partiell observierbare Umgebungen hat,
dann hat man unvorständiges Wissen.
Und wie geht man mit unvorständigem Wissen um?
Na ja, wir machen Wahrscheinlichkeiten.
Okay? Standardmittel bei dieser Sache.
Und dann haben wir uns ein bisschen angeguckt.
Und das Wichtige zu verstehen bei dieser ganzen Wahrscheinlichkeitsdiskussion ist,
dass wir nicht modellieren, dass die Welt an sich unsicher ist,
sondern dass wir unsicheres Wissen über die Welt haben.
Das heißt, Wahrscheinlichkeiten modellieren den Grad unseres Wissens.
Denn selbst wenn wir es nicht sehen können, der Abgrund ist da.
Das ist absolut sicher, bloß wir wissen es nicht.
Partiell observable Welten.
Und natürlich geht es für die Agenten darum,
dass man sich trotz unsicherem Wissen irgendwie optimal verhält.
Das nächste, wovon wir uns überzeugt haben, dass Logik nicht das Tool ist dafür.
Logik ist ja gerade das Tool, wenn man vollständiges Wissen hat,
wie man dann vorankommt.
Und in diesem Fall hier ist es so, dass, wir hatten dafür ein Beispiel,
sozusagen außer Zahndiagnose genommen, ein sehr einfaches,
dass Logik uns eben nicht sehr hilft.
Die einzige Möglichkeit, auf tatsächlich sicheres Wissen zu kommen ist,
irgendwelche furchtbar langen Dysjunktionen zu machen,
von denen wir nie wissen, ob sie denn nun vollständig sind oder nicht.
Und da brauchen wir neue Tools und die geben wir uns.
Übrigens, ob man es nun in der Diagnoserechtung in Logik aufschreibt
oder in Kausalitätsrichtung aufschreibt, beides hilft nicht.
Liegt also tiefer.
Wir müssen mit der Unsicherheit umgehen und das kann Logik eben nicht.
Wo kommt überall die Unsicherheit her?
Unsere Sensoren könnten unsicher sein.
Und wir haben also nicht nur unsicheres Faktenwissen,
sondern wir haben auch unsichere Zusammenhänge.
Also wir hatten es angeguckt, wenn man in der Diagnose
von Zahnschmerzen auf Löcher schließen will,
dann gilt diese Regel, dieser Zusammenhang gilt eben auch nur unsicher.
Weil es durchaus Fälle gibt, wie wir alle wissen,
dass man ein Loch hat, aber es tut noch nicht weh.
Okay.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:24:09 Min
Aufnahmedatum
2017-05-11
Hochgeladen am
2017-05-11 20:41:18
Sprache
de-DE
Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.