Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Guten Tag allerseits. Wir haben letzte Woche ein neues, wahrscheinlich letzten großen Teil
der Vorlesung angefangen. Wir haben angefangen uns über maschinelles Lernen Gedanken zu machen.
Das ist ein großes Gebet. Genau wie bei allen anderen Gebeten werden wir nur kleine Teile
davon behandeln können. So die Grundlagen hier in dieser Vorlesung. Es gibt ganze Gebietekonferenzen
und Spezialvorlesungen über dieses Thema, selbst hier in Erlangen, auch wenn die meisten
Vorlesungen, die es in dieser Richtung hier gibt, unter Mustererkennung laufen. Aber das ist nichts
anderes als im Wesentlichen angewandtes Machine Learning. Im Wesentlichen dieselben Geschichten.
Ich will hier nur eine relativ allgemeine, wenn man so will, KI-orientierte Einführung geben.
Machine Learning ist eine der neuen Trends in ganz vielen Gebieten der Informatik. Das kommt
im Wesentlichen daher, dass man einerseits auf der Hardware-Seite große Fortschritte gemacht hat.
Man kann statistische Modelle sehr gut trainieren, dadurch dass man sie auf GPU-Farmen laufen lässt.
Das ist das eine. Und natürlich, dass es gewisse Firmen gibt, die sehr viele GPUs haben.
Wenn man die richtigen Connections hat, kann man einfach mal ein paar Zehntausend GPUs
einfach mal einen Monat rechnen lassen. Für viele der Sachen, wo jetzt die großen Erfolge
gefeiert werden, die liegen genau an so was, an Hardware-Zeugs. Das ist wie bei den Physikern,
wenn man Zugang zu dem großen Teilchenbeschleuniger hat, dann kann man irgendwelche Quarks oder so was
sehen und sonst eben nicht. Deswegen gibt es so ein bisschen in der KI, aber auch in angrenzenden
Gebieten, die Tendenz zu sagen, okay, dann nehmen wir doch mal Deep Learning und wenden das,
ohne groß nachzudenken, auf mein Problem an und hoffentlich passiert dann was Schönes.
Und meistens passiert erstmal nichts, dann ändert man das Modell ein bisschen und dann
passiert vielleicht auch noch ein bisschen mehr. Das Problem, was ich daran sehe, ist,
das ist zwar alles wunderschön, aber diese ganzen Sachen geben uns sehr wenig Erklärungen.
Man weiß sehr häufig nicht, warum etwas funktioniert. Es lernt halt von sich selber
und gibt selber keine Erklärungen ab, das System und dann funktionieren gewisse Sachen,
aber man weiß auch noch nicht so richtig, warum. Das ist ein bisschen ein Gegensatz zu diesen
symbolischen oder Inferenzbasierten Verfahren. Natürlich kann man auch sagen, die Inferenzbasierten
Verfahren könnten zwar erklären, aber vor allen Dingen deswegen, weil sie keine Resultate
rauskriegen und dann auch nichts zu erklären haben. Das ist natürlich auch eine legitime Kritik.
Ich denke, und das sollte man sich, sollten Sie sich vielleicht so ein bisschen im Hinterkopf
behalten, auf die Dauer wird man letztlich eine Mischung brauchen aus solchen eher datengetriebenen
Verfahren und eher symbolischen Top-Down-Verfahren. Da ist die Forschung allerdings noch nicht
sehr weit. Es gibt zwar Ansätze, aber ich muss gestehen, die reißen mich noch nicht
so vom Hocker. Da hat man noch nicht so richtig die Idee, was man gerne möchte. Man hätte
gerne, dass man vielleicht symbolische Sachen lernen könnte und dann symbolisch weiterrechnen
könnte und dann irgendwo das Ganze wieder die Inferenz steuern könnte mit gelernten
Verfahren und so weiter. Gut, aber bevor wir dazu kommen, wollen wir uns ein bisschen eher
die Grundlagen angucken. Einerseits haben wir angefangen damit, diese ganze Sache zurück
zu binden in unserer Agentensicht, mit den Lernagenten und ich möchte heute so ein bisschen
in sozusagen allgemein über Lernen sprechen, dann eine sehr einfache Form des Lernens,
nämlich Entscheidungsbaumlernen, mir genauer angucken, weil man da schon relativ viel
daran sehen kann und dann so ein bisschen über Lernperformance. Wie gut ist denn ein
Lernalgorithmus, was interessiert uns da? Genau, warum lernen? Im Wesentlichen deswegen,
weil Lernen praktisch ist. Aus zwei Gründen, einmal für das System selber, weil sich die
Umgebung ändert, weil man deswegen nicht irgendwelche fixen Wahrscheinlichkeiten in
diese zum Beispiel Basion Modelle einbauen kann, weil die sich ja jederzeit ändern können,
die Welt ändert sich, man muss sich irgendwie anpassen und irgendwoher müssen diese neuen
Werte oder so etwas brauchen kommen. Andererseits wissen wir viele Dinge nicht, es ist viel besser,
wenn die Systeme das selber lernen können und es ist natürlich sehr praktisch, wenn ein System
lernen kann, dann braucht man nicht alles zu implementieren als KI-Entwickler. Viel besser,
Presenters
Zugänglich über
Offener Zugang
Dauer
01:21:36 Min
Aufnahmedatum
2017-06-26
Hochgeladen am
2017-06-26 16:37:53
Sprache
de-DE
Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.