11 - Mathematische Grundlagen zu Data Analytics, Neuronale Netze und Künstliche Intelligenz [ID:10622]
50 von 654 angezeigt

Dann machen wir weiter oder sagen wir so, wir machen nicht weiter, wir gehen noch mal ein Stück zurück,

weil das ist ja doch irgendwie ein weiterer, größerer Schritt, den wir heute vornehmen und

deswegen will ich gern, dass Sie nicht abgehängt werden. So die erste Überlegung

die wir gemacht haben ist, wie muss ich Zeit beschreiben und Zeit ist eben nicht nur

einen Zeitschritt machen, sondern Zeit besteht darin, dass ich eine Sequenz von Zeitschritten mache.

Und das kann man da unten als Forward Approach oder Backward Approach machen. Wir haben uns

dann im Wesentlichen eher auf den Forward Approach konzentriert, haben hier den Beweis,

dass man in der Tat diese wie auch immer komplizierten Gleichungen für die State Transition

und für die Output Gleichung hier, dass man das so einfach darstellen kann, dass das wirklich

einen direkten Neurokontext hat. Und wenn man den Neurokontext dann auch als Architektur hinschreiben

will, dann passt das gut zusammen, weil ich habe dann sozusagen für die verschiedenen Elemente

drin, nämlich für die States, für die Externals hier unten und für die zu erklärenden Variablen

genau ein Cluster von Neuronen. Und wenn wir das nochmal von der Architektur angucken wollen,

also so 3-Layer-Netzwerke haben wir schon öfter gesehen, also dass wir der Input,

Hidden, Output haben. Auch hier wird ja aus einem Input heraus ein Hidden und dann ein Output erklärt.

Da könnte man sagen, also das für sich genommen ist eben so eine Struktur wie ein 3-Layer-MLP,

aber der lebt halt nicht nur von den externen Variablen, die hier jetzt sozusagen in einen

Schritt reingekommen sind, sondern auch vom Vorzeitpunkt die Information wird auf solche

Art benutzt und die Zwischeninformation, die hier erzeugt worden ist, wird zusätzlich als Input

benutzt, um die nächste Prognose halt besser zu machen. Also das für sich genommen wäre

ein unmittelbares 3-Layer-MLP, aber diese Geschichte hier wäre dann eben jetzt der eigentlich

rekorente Anteil, sozusagen die Wirbelsäule in meiner Architektur. Ja und dann haben wir eben

überlegt, das Korrespondenzprinzip bedeutet Gleichungen, Architektur und lokale Algorithmen.

Und hier haben wir ja erstmal offensichtlich einen nichtlokalen Effekt drin, da trotzdem einen

lokalen Algorithmus zu machen, das nennt man dann Shared-Weights, in dem eben an diesen Stellen hier

erzwungen wird, dass die Matrizen immer gleich bleiben. Und das das mathematisch richtig ist,

sieht man eben an der Extension von dem Backboregagen hier. So und dann haben wir uns als erste

inhaltliche Folie darum gekümmert, was bedeutet es eigentlich ein dynamisches System zu identifizieren.

Und es ist erstaunlich indirekt, wie man das betrachten muss. Man muss nämlich sagen, ich will

etwas kompliziertes erklären, aber ich weiß gar nicht, warum das kompliziert ist. Das könnte

komplizierte Eigendynamik sein oder komplizierte externe Treiber. Und die geschickte Aufeinander-

Kombination von beiden Seiten erklärt mir dann den Output. Und wenn ich Glück habe, dass die

Eigendynamik eine große Rolle spielt, kann ich auch ein bisschen weiter in Richtung Zukunft gucken.

Dann habe ich gesagt, also das haben wir auch gemacht, aber das war für uns Sackgasse. Nicht,

weil es nicht gegangen wäre, sondern weil es einfach nicht nötig war zu dem Zeitpunkt damals,

so 97 rum. Weil wir da nur Aufgaben hatten, die so eine kurze Vergangenheit hatten,

dass so ein Long-Memory-Effekt eben gar keine Rolle spielte. Stattdessen war es eine wichtige

Überlegung, was mache ich denn, wenn ich unvollständige Externals hier habe, also wenn

die U hier eine unvollständige Beschreibung sind. Also nochmal, UT meint, dass ich zum Zeitpunkt T

diese Information habe. UT-1 meint, dass ich zum Zeitpunkt T-1 diese Information habe. Und das

ST hier meint, dass ich sozusagen zum Zeitpunkt T das ausrechnen kann und damit dann eben auch

das zugehörige Yt ausrechnen kann. Aber hier steht halt nicht Yt drin, sondern Yt minus Yt

Data, weil die Differenz von den beiden Größen das ist, was hoffentlich die nächste Beschreibung

des internen Zustandes verbessert. Ich möchte Ihnen ein Bild machen, wie der Unterschied zu

sehen ist, das Modell nur in Abhängigkeit von Art zu sehen oder in Abhängigkeit von dieser

Projektur hier. Sehen Sie, wenn Sie sich mit Politik beschäftigen, haben Sie zwei Möglichkeiten,

das zu tun. Sie lesen dicke Bücher, dann haben Sie ein Grundverständnis davon, wie deutsche,

europäische, weltweite Politik funktioniert und können das, was Sie da so sehen, dann einordnen.

Die andere Möglichkeit ist, Sie gucken jeden Abend Fernsehen und kriegen sozusagen eine Korrektur

auf das, was Sie sich am Tag vorher gedacht haben. Hat es jetzt gepasst oder läuft es wieder anders?

Zugänglich über

Offener Zugang

Dauer

01:12:22 Min

Aufnahmedatum

2019-04-17

Hochgeladen am

2019-04-18 08:40:46

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen