Guten Morgen allerseits. Je nachdem wie wir zählt haben wir den zweistelligen Bereich
geknackt, so gerade. Ich weiß nicht ob man dich mitzählen darf. Wir sind mitten in der
Logik, das heißt im wahrscheinlich theoretischsten Bereich dieser Vorlesung und haben uns Inferenzverfahren
angeguckt, insbesondere diesmal für die Aussagenlogik, diese DPLL-Prozedur. Und die ist in ihrem
Basisfall relativ einfach. Das guckt man sich am besten mit einem Beispiel an. Wir haben
eine Klauselmenge, wir wollen eine Belegung finden oder eine externe Belegung erweitern
und wir folgen ganz stark der Intuition, dass man solange man kann, die Dinge tun sollte,
die einem die Klauselmenge vorschreibt. Das Ganze nennen wir Unit Propagation, denn wir
haben keine andere Wahl hier, wenn wir diese Klauselmenge erfüllen wollen, als R wahr
zu machen. Das heißt, das tun wir und dann vereinfachen wir mit dieser zusätzlichen
Information. Das ist genau wie Bad Constraints Satisfaction Problemen, wir propagieren Information.
Und wenn wir Glück haben, löst uns Unit Propagation das gesamte Problem. Oft tut es das. Und manchmal
tut es das nicht, in diesem Fall tut es das nicht, wir haben hier nur Zweierklausel. Und
dann muss man irgendwie letztlich raten. Oder, ein bisschen vornehmlich ausdrückt, systematisch
suchen. Wir suchen jetzt hier einfach über beide Möglichkeiten, was wir mit P machen können.
Und das Schöne ist, dass wenn wir P in diesem Fall belegen, dann können wir wieder simplifizieren
und dann macht Unit Propagation der Rest. Wir propagieren immer alle Informationen, die
wir haben, dann bleibt uns nichts anderes übrig, als zu distribuieren, zu suchen und
dann machen wir wieder Fortschritte, weil wir neue Informationen haben. Das ist die ganze
Idee in dieser Prozedur. Und das haben wir uns genauer angeguckt. Wir haben uns verschiedenste
Beispiele angeguckt. Und wir haben auch gesehen, dass diese Prozedur extrem anfällig ist gegenüber
solchen Situationen, wo man die gleichen Fehler immer wieder und immer wieder machen
kann. Dieses Beispiel ist genau so gewählt, dass wir uns hier lange Zeit mit diesen XNs
beschäftigen, die letztlich für den Widerspruch überhaupt keinen Belang haben. Das ist typischerweise
die Art von Beispielen, die man seinen Kollegen gibt, wenn die sagen, ich habe eine tolle
neue Prozedur, die kann fast alles und dann setzt man sich hin und macht ein fieses Beispiel.
Dies hier ist ein fieses Beispiel, denn dieses hier ist gerade so gemacht, dass DPLL auf
die Nase fällt. Und dann sagt man Edge. Und der Kollege, der dann DPLL hat, der überlegt
sich dann, Mensch, was kann ich machen, damit ich diese fiesen Beispiele auch lösen kann.
Und genau das haben wir im Prinzip auch gemacht. Wir haben uns ein fieses Beispiel angeguckt.
Und was hinterher rauskam, war eine Technik, die wir Klausellernen und DPLL mit Klausellernen
haben, ist im wesentlichen Stand der Kunst bei den Satzverwaltungen. Das heißt, wir
haben uns zwei Dinge angeguckt. Die eine Sache war, dass wir Klausellernen gemacht haben.
Die andere Sache ist, dass wir im Wesentlichen DPLL analysiert haben, indem wir DPLL übersetzt
haben in Resolutionsbeweise. Resolutionsbeweise hatten wir vorher uns schon angeguckt. Und
es ist immer eine gute Technik, neue Sachen zurückzuführen auf Zeugs, was man schon
versteht. Und die Idee hierbei war einfach, dass wir uns einen solchen Lauf bis zu einem
Widerspruch von DPLL angucken und dass wir den Dekorieren mit den Klauseln, die leer
werden. Und wenn man dann so einen Baum bekommt, dann kann man diesen Baum hier relativ einfach
übersetzen in einen Resolutionsbeweis, indem wir hier auf eine leere Klausel stoßen. Das
hat zwei Vorteile. Das eine ist, dass wir DPLL besser verstehen als eine spezielle Variante
der Resolution. Man könnte auch einfach einen Resolutionsbeweis auf diese Art und Weise
ansteuern, dann wäre das auch eine DPLL Prozedur. Und wir sehen, dass es sich hierbei um Baumresolution
handelt. Resolution, die keine Klausel mehrfach benutzt. Und das hat Vorteile und Nachteile.
Und wenn wir Baumresolution machen, das heißt wir schließen gewisse Resolutionsbeweise,
nämlich Resolutionsbeweise, die gewisse Klauseln mehrfach benutzen aus, dann ist es klar, dass
die Beweise höchstens länger werden. Und man kann sich überlegen, dass sie exponentiell
länger werden und das sehen wir auch schon bei unserem fiesen Beispiel. Hier ist es,
da haben wir eine Exponentialität drin. Dieser Baum hier unten ist tatsächlich 2 hoch 100
groß. Und wenn uns das nicht reicht, dann machen wir all die Klauseln länger bis zu
Presenters
Zugänglich über
Offener Zugang
Dauer
01:22:52 Min
Aufnahmedatum
2016-12-23
Hochgeladen am
2019-04-19 17:49:03
Sprache
de-DE
Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere formale Wissensrepräsentation, Heuristische Suche, Automatisches Planen und Schliessen unter Unsicherheit.
Lernziele und Kompetenzen:
- Wissen: Die Studierenden lernen grundlegende Repräsentationsformalismen und Algorithmen der Künstlichen Intelligenz kennen.
-
Anwenden: Die Konzepte werden an Beispielen aus der realen Welt angewandt (Übungsaufgaben).
-
Analyse: Die Studierenden lernen die über die modellierung in der Maschine menschliche Intelligenzleistungen besser einzuschätzen.
Sozialkompetenz
-
Die Studierenden arbeiten in Kleingruppen zusammen um kleine Projekte zu bewältigen