13 - Künstliche Intelligenz II [ID:8020]
50 von 487 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Guten Tag allerseits. Wir haben letzte Woche ein neues, wahrscheinlich letzten großen Teil

der Vorlesung angefangen. Wir haben angefangen uns über maschinelles Lernen Gedanken zu machen.

Das ist ein großes Gebet. Genau wie bei allen anderen Gebeten werden wir nur kleine Teile

davon behandeln können. So die Grundlagen hier in dieser Vorlesung. Es gibt ganze Gebietekonferenzen

und Spezialvorlesungen über dieses Thema, selbst hier in Erlangen, auch wenn die meisten

Vorlesungen, die es in dieser Richtung hier gibt, unter Mustererkennung laufen. Aber das ist nichts

anderes als im Wesentlichen angewandtes Machine Learning. Im Wesentlichen dieselben Geschichten.

Ich will hier nur eine relativ allgemeine, wenn man so will, KI-orientierte Einführung geben.

Machine Learning ist eine der neuen Trends in ganz vielen Gebieten der Informatik. Das kommt

im Wesentlichen daher, dass man einerseits auf der Hardware-Seite große Fortschritte gemacht hat.

Man kann statistische Modelle sehr gut trainieren, dadurch dass man sie auf GPU-Farmen laufen lässt.

Das ist das eine. Und natürlich, dass es gewisse Firmen gibt, die sehr viele GPUs haben.

Wenn man die richtigen Connections hat, kann man einfach mal ein paar Zehntausend GPUs

einfach mal einen Monat rechnen lassen. Für viele der Sachen, wo jetzt die großen Erfolge

gefeiert werden, die liegen genau an so was, an Hardware-Zeugs. Das ist wie bei den Physikern,

wenn man Zugang zu dem großen Teilchenbeschleuniger hat, dann kann man irgendwelche Quarks oder so was

sehen und sonst eben nicht. Deswegen gibt es so ein bisschen in der KI, aber auch in angrenzenden

Gebieten, die Tendenz zu sagen, okay, dann nehmen wir doch mal Deep Learning und wenden das,

ohne groß nachzudenken, auf mein Problem an und hoffentlich passiert dann was Schönes.

Und meistens passiert erstmal nichts, dann ändert man das Modell ein bisschen und dann

passiert vielleicht auch noch ein bisschen mehr. Das Problem, was ich daran sehe, ist,

das ist zwar alles wunderschön, aber diese ganzen Sachen geben uns sehr wenig Erklärungen.

Man weiß sehr häufig nicht, warum etwas funktioniert. Es lernt halt von sich selber

und gibt selber keine Erklärungen ab, das System und dann funktionieren gewisse Sachen,

aber man weiß auch noch nicht so richtig, warum. Das ist ein bisschen ein Gegensatz zu diesen

symbolischen oder Inferenzbasierten Verfahren. Natürlich kann man auch sagen, die Inferenzbasierten

Verfahren könnten zwar erklären, aber vor allen Dingen deswegen, weil sie keine Resultate

rauskriegen und dann auch nichts zu erklären haben. Das ist natürlich auch eine legitime Kritik.

Ich denke, und das sollte man sich, sollten Sie sich vielleicht so ein bisschen im Hinterkopf

behalten, auf die Dauer wird man letztlich eine Mischung brauchen aus solchen eher datengetriebenen

Verfahren und eher symbolischen Top-Down-Verfahren. Da ist die Forschung allerdings noch nicht

sehr weit. Es gibt zwar Ansätze, aber ich muss gestehen, die reißen mich noch nicht

so vom Hocker. Da hat man noch nicht so richtig die Idee, was man gerne möchte. Man hätte

gerne, dass man vielleicht symbolische Sachen lernen könnte und dann symbolisch weiterrechnen

könnte und dann irgendwo das Ganze wieder die Inferenz steuern könnte mit gelernten

Verfahren und so weiter. Gut, aber bevor wir dazu kommen, wollen wir uns ein bisschen eher

die Grundlagen angucken. Einerseits haben wir angefangen damit, diese ganze Sache zurück

zu binden in unserer Agentensicht, mit den Lernagenten und ich möchte heute so ein bisschen

in sozusagen allgemein über Lernen sprechen, dann eine sehr einfache Form des Lernens,

nämlich Entscheidungsbaumlernen, mir genauer angucken, weil man da schon relativ viel

daran sehen kann und dann so ein bisschen über Lernperformance. Wie gut ist denn ein

Lernalgorithmus, was interessiert uns da? Genau, warum lernen? Im Wesentlichen deswegen,

weil Lernen praktisch ist. Aus zwei Gründen, einmal für das System selber, weil sich die

Umgebung ändert, weil man deswegen nicht irgendwelche fixen Wahrscheinlichkeiten in

diese zum Beispiel Basion Modelle einbauen kann, weil die sich ja jederzeit ändern können,

die Welt ändert sich, man muss sich irgendwie anpassen und irgendwoher müssen diese neuen

Werte oder so etwas brauchen kommen. Andererseits wissen wir viele Dinge nicht, es ist viel besser,

wenn die Systeme das selber lernen können und es ist natürlich sehr praktisch, wenn ein System

lernen kann, dann braucht man nicht alles zu implementieren als KI-Entwickler. Viel besser,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:21:36 Min

Aufnahmedatum

2017-06-26

Hochgeladen am

2017-06-26 16:37:53

Sprache

de-DE

Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen