Wir wollen jetzt erstmal eine Wiederholung von dem Gedankengang vorher machen.
Wir hatten ja gesagt, man kann auf alle möglichen Arten über rekorente Netze nachdenken, aber
diese Art Darstellung, wie wir sie jetzt hier sehen, hat was besonders Elegantes, weil die
nämlich eigentlich alle Fehler vermeidet, die die Darstellung vorher hatten.
Und das ist eigentlich ein ganz besonderer Punkt, weil wir jetzt hier in der ersten
Art Darstellung die Inkonsistenz von Vergangenheit in Zukunft, Asymmetrie in den Variablen
untereinander, was eben vorher in den anderen Strukturen alles vorkam, die ja erweiterte
Input-Output-Modelle waren.
Das hier ist eben kein Input-Output-Modell mehr, sondern es beschreibt die Zeit einfach
als Ablauf.
Und alle Kompliziertheit, die wir in den Beobachtungsdaten nicht erklären können, liegen hier halt
in den hitten Variablen von der Zeit.
Auf den Punkt werden wir später nochmal im Detail zurückkommen.
Dann hatten wir jetzt wieder dieses Universal Approximation Theorem und damit kann man es
aber noch nicht lösen.
Das ist ja nur eine Existenzaussage.
Zum Lösen ist der wichtigste Punkt am Anfang gewesen, dieses Teach-off-Hossing hier zum
Matten-Volligung.
Der wichtigste Punkt hier war gewesen, um das lösbar zu machen, dass man dieses Teach-off-Hossing
einbringt.
Was hilft, dass man, egal wie sinnlos die Staton-Sician-Matrix in der Vergangenheit bei der Identialisierung
ist, dass trotzdem eben die beobachteten Variablen immer auf der beobachteten Traktorie
hält.
Das ist aber jetzt so gut, das kann man dann tatsächlich lernen.
Der Nachteil ist, dass man natürlich jetzt wieder eine Asymmetrie zwischen Vergangenheit
und Zukunft hat, weil diesen Trick kann ich natürlich in der Vergangenheit machen, aber
nicht in der Zukunft.
Von daher würde ich hier genau wieder das zurückbringen, was ich eigentlich vermeiden
wollte.
Der Punkt, um das zu umgehen, ist eben, indem man sagt, wenn ich das zur Konvergenz lane,
also auf einen sehr kleinen Fehler lane, dann sind die grünen Linien hier natürlich unnötig.
Damit habe ich auch eine Lösung der ursprünglichen Aufgabe, die ich lösen wollte.
Diesen Punkt, nämlich, dass man eine nicht lösbare Architektur in eine etwas größere
Einbettung, die im Konvergenzpunkt dann auf das andere zurückfällt, die wird man im Laufe
der Zeit noch öfter gebrauchen.
Jetzt kommen wir dann eben zu dem Punkt zu sagen, gut, hier hätten wir also jetzt eine
Aufgabe, die wir lösen können.
Deswegen können wir die mal vergleichen mit dem E10M.
Mit der Frage, ist irgendwas hier von überlegend dem anderen?
Die Antwort ist ganz klar ja, Hartz N ist überlegend, weil wir beim E10M in der Vergangenheit
zwei Matrizen lagen, die sich die Aufgabe teilen, eine gute Lösung zu machen.
Und in der Zukunft haben wir plötzlich nur noch eine.
Während beim Hartz N in der Vergangenheit, wie in der Zukunft nur eine Matrix vorkommt,
das heißt, ich habe in der Vergangenheit die Matrix gelernt, die es braucht, um die Dynamik
zu erstellen, die ich ja dann noch in Zukunft weiterverwenden kann.
Also ich wüsste nach wie vor keinen zwingenden Grund an dieser Grunddarstellung, die hier
steht, irgendwas ändern zu wollen.
So, und weil das eben so ist, dass das Ding hier nicht sieht, auf welchem Zeitfenster es
sitzt, kann ich nicht hingehen und das einfach auf einem kurzen Zeitfenster so einsetzen,
weil das Netzwerk wüsste ja dann gar nicht, dass es eine An-No-Lösung produzieren soll,
Presenters
Zugänglich über
Offener Zugang
Dauer
00:31:56 Min
Aufnahmedatum
2021-04-08
Hochgeladen am
2021-04-08 11:26:57
Sprache
de-DE