17 - Künstliche Intelligenz II [ID:8162]
50 von 841 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Ich kann dir mal schon ein bisschen allgemeines Blabla von mir geben.

Ich habe eine Probeklausur hochgeladen.

Die ist von der Aufgabenauswahl her repräsentativ, vom Umfang her überhaupt nicht.

Also die hat irgendwie 80 Punkte insgesamt.

Die tatsächliche Klausur ist auch schon fertig. Die hat 138 Punkte.

Okay, sie hat Aufgaben für 138 Punkte. Die Maximalpunktzahl ist 125.

Das heißt, es gibt 13 Bonuspunkte plus die Bonuspunkte, die ihr halt in den Übungsblättern noch kriegt.

Ja, sollte ich sonst noch irgendwas dazu sagen?

Nö, also 18 Bonuspunkte wird es geben.

Wir rechnen immer so zwei Punkte pro Minute.

Also 125 sind eine Zahl. 62,5.

Also ihr solltet in ungefähr einer Stunde, wenn ihr einfach durcharbeitet, ohne irgendwie Sachen nochmal drüberzulesen oder so,

solltet ihr in einer Stunde fertig sein. Ihr habt 90 Minuten Zeit.

Also ich denke, das wird hinhauen.

Würde mich jetzt sehr verwundern, wenn da irgendjemand am Schluss stehen bleibt und keine Ahnung hat, also von der Zeit her irgendwie nicht hinhaut.

Würde mich wundern.

Gut, also nochmal zu dem Kram von letzter Woche. Wir haben irgendwie Neural Networks durchgesprochen.

Offensichtlich natürlich inspiriert von der Art und Weise, wie man meint, dass Gehirne tatsächlich funktionieren.

Im Sinne von man hat halt irgendwie so Neuronen und die Neuronen sind miteinander verknüpft über irgendwelche Axonen

und jedes Neuron hat natürlich multiple Inputs und multiple Outputs und dann gibt es da irgendwie so ein Aktivierungspotenzial.

Macht hier irgendjemand Bio- oder Neurowissenschaften oder gut, das heißt, ich kann euch jeden Blödsinn erzählen und ihr müsst mir das einfach glauben.

Voll gut.

Gut, also es gibt da irgendwie Neuronen und die sind mit Axonen verbunden und jedes Neuron hat halt irgendwie so ein Aktivierungspotenzial.

Und wenn irgendwie der Input groß genug ist, dass er über diese Hemmschwelle drüber kommt, dann feuert halt das Neuron irgendwie.

Das ist die Idee. Davon haben sich halt irgendwie Informatiker inspirieren lassen und haben Neural Nets daraus gebaut.

Also zumindest ist es daher inspiriert.

Professor Kohlhase hat letzte Woche irgendwas erzählt mit von diesem Openworm-Ding.

Also irgendwie so ein Haufen verrückter Biologen sind tatsächlich auf den Trichter gekommen, man könnte mal so das gesamte Konnektum von irgendwie so einem Fadenwurm ausmappen.

Also Konnektum im Sinne von halt gesamte Verknüpfungsmatrix im Prinzip.

Ja?

Irgendwas ist da was?

Vielleicht ist mein Barret einfach das Problem. Ich mach das mal hier hin.

So, besser? Was? Gut. Du darfst mich übrigens gerne duzen. Ich bin immer höchstradig verwirrt, wenn Leute mich mit sie hier anreden.

Genau, also Leute haben irgendwie so dieses Konnektum von so einem Fadenwurm gemapped. Das ist eigentlich ziemlich cool, weil das kann man sich kostenlos im Internet runterladen.

Das heißt Openworm. Ich bin mir nicht so ganz sicher, was man damit anstellen kann, wenn man nicht gerade zufällig irgendwie Biologe oder Neurologe oder irgend so ein Spaß ist.

Aber sie fangen halt tatsächlich an jetzt irgendwie lustigen Forschungsscheiß damit anzustellen. Unser anderem habe ich gesehen, es gibt ein Paper, ich hab's nicht gelesen, aber es klingt unglaublich faszinierend,

wo Leute meinen, sie haben von diesen 113 oder was das sind Neuronen von diesen Wurmen, haben sie bei einem Neuron rausgefunden, was dieses Neuron tut.

Nämlich die Hypothese ist, dass es zuständig dafür ist zu unterscheiden, was der Wurm ist und was nicht der Wurm ist.

Im Sinne von, also wenn das irgendwie so durch die Gegend, ich weiß gar nicht, was das macht, kriecht oder schwimmt oder wahrscheinlich schwimmt, ich tipp mal auf Schwimmen,

und das sieht irgendwas, dann feuert dieses Neuron, wenn das, was das Ding sieht, tatsächlich nur irgendwie der Schwanz von dem Wurm ist und nicht irgendwie ein Angreifer oder was zu futtern oder so.

Das finde ich ziemlich episch. Also kann man sich ergooglen. Gibt's ein Paper zu? Ja.

Gut, also offensichtlich irgendwie Neuronets sind davon inspiriert, von der Art und Weise, wie halt einfach Gehirne funktionieren.

Da, da, da, da, da. Ja. Gut. So viel dazu. Also wie funktioniert der Spaß jetzt?

Naja, wir gehen halt irgendwie davon aus, dass wir irgendwie so einzelne Neuronen haben. Wir irgendwie implementieren diese Neuronen, haben irgendwie einen Sack voll Inputs.

Üblicherweise halt entweder andere Neuronen oder halt irgendwelche Inputs von Sensoren oder so ein Kram und ein Bias-Weight.

Und dann wollen wir natürlich, dass das Ganze möglichst irgendwie sich als lineare Funktion darstellen lässt.

Also machen wir halt einfach eine lineare Funktion draus. Wir modellieren den Input irgendwie als einen dicken Vektor, kleben da überall Weights vorne dran.

Also einfach nur, um zu determinieren, wie wichtig welche von den Inputs, die wir hier haben, sind, und wie wichtig die Inputs sind,

einfach nur, um zu determinieren, wie wichtig welcher von den Inputs für das ist, was das Neuron eigentlich de facto macht.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:25:42 Min

Aufnahmedatum

2017-07-10

Hochgeladen am

2017-07-11 11:53:12

Sprache

de-DE

Dieser Kurs beschäftigt sich mit den Grundlagen der Künstlichen Intelligenz (KI), insbesondere mit Techniken des Schliessens unter Unsicherheit, des maschinellen Lernens und dem Sprachverstehen.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen