So, also wir hatten uns vorher überlegt, wenn man rekorente Netze lernen will, dann hat das schon mal
den Vorteil, dass man sich über die Memorylänge von dem Lackverhalten zwischen den Variablen
muss man sich keine Sorgen machen und deswegen haben wir so eine Art Struktur hier generiert,
die man dann im Prinzip auch lernen kann, indem man sie über die Zeit reinlegt und die Frage,
welche Variablen man nimmt, die habe ich etwas unglücklich in dieser Folie dargestellt,
aber der Message ist klar. Man fragt hier rückwärts, indem man hier den Zeitfall umkehrt,
man fragt hier rückwärts, was würden die Variablen denn hier für einen Zusammenhang haben mit den
potenziellen Input-Variablen und das werde ich nochmal ein bisschen besser darstellen,
aber jetzt ist es halt so, die Message ist dieselbe. Und dann war also 2000 die Frage,
ja manchmal funktioniert es, manchmal funktioniert es auch nicht, was könnte ich besser machen und
dieses was könnte ich besser machen hat nichts damit zu tun, dass ich an den Daten rumdrehe,
sondern hat was damit zu tun, dass ich nachdenke, was bitte ist an den Modellen falsch,
was ich nicht richtig bis jetzt gemacht habe. Und typischer Fehler, der halt vorkam, war eben,
dass die Behauptung, wir haben alle externen Treiber, nicht nur in der Zukunft falsch ist,
sondern dass sie auch in der Vergangenheit sehr unverständlich ist. Also so um Silvester,
um 2000 ist mir dann diese Erweiterung da oben eingefallen, darauf gibt es jetzt ein
Patent, aber ist egal. Die Geschichte ist jetzt die, wenn die Original-Gleichungen hier nicht
passen, wie könnte ich den Fehler, den ich in der Vergangenheit gesehen habe, hier benutzen,
um eben das Modell besser lernen zu lassen. Ein bisschen ist der Gedankengang so, als würden
sie sich vorstellen, dass sie bei was über europäische Geschichte lernen wollen,
um dann eben eine Prognose zu machen, wie das in Europa so weitergeht. Da gibt es eine
Möglichkeit, sie können hingehen und dicke Bücher wälzen über die Geschichtsentwicklung
in Europa oder sie können jeden Abend Tagesschau gucken. Wenn sie die Bücher wälzen, dann haben
sie vermutlich einen guten Langfrist, eine Langfristvorstellung der europäischen Geschichte,
aber was morgen passiert, kriegen sie nicht mit. Umgekehrt, wenn sie immer nur Tagesschau gucken,
dann werden sie mitkriegen, was in einem Tag auf den nächsten vermutlich läuft, aber sie werden
schlechte Einsicht in Langfristvorgänge haben. Von daher wäre es toll, wenn wir beides machen
können, nämlich die Langfristzusammenhänge sehen über diese Matrix hier, wie auch jeden Tag
dann Nachkorrektur kriegen. Ich habe erwartet, dass heute Abend dieses und jenes zu sehen sein
wird, aber ich habe gesehen, damit bin ich nicht ganz richtig gewesen, also habe ich eine
Nachkorrektur. Diese Wechselguckung von Nachkorrektur und Langfristzusammenhänge ist eben das,
was hier dargestellt ist. Wenn man das eben mathematisch ausdrückt, läuft es darauf hinaus.
Wir haben diese Strukturen ab 2000 sehr oft verwendet und in einem Projekt, wo wir das hatten,
da hatten wir, ich komme das Projekt später nochmal zurück, da hatten wir es insbesondere
mit Ingenieuren zu tun, die haben alle Elektrotechnik studiert. Wenn sie mit so Leuten reden,
was sie automatisch denken, wenn sie über Nachkorrektur nachdenken, ist immer Kalman Filter.
Diejenigen von Ihnen, die Kalman Filter kennen, den will ich jetzt eine Unterschiede klarmachen,
nämlich, dass die Kalman Filter ist ein Online Learning, was versucht immer den letzten Fehler,
den man gemacht hat, mit reinzunehmen, um das in die Modellstruktur einzufüttern. Das funktioniert
so ganz gut, wenn sie lineare Modelle haben, aber nicht lineare Modelle gibt es praktisch nur,
wenn sie die Struktur von den Modellen genau kennen. Jetzt haben sie also auch so einen
Online-Mechanismus. Jetzt muss man vergleichen, wie dieses Error-Correction, so wie es hier steht,
damit man Online-Mechanismus verglichen würde. Das Online-Learning können sie ja praktisch
mit jeder Art von Netz machen, die ich dargestellt habe. Sie können ja immer sagen,
na ja, jetzt habe ich einen neuen Datenpunkt, jetzt mache ich das Lernen nochmal mit dem neuen
Datenpunkt dazu. Dann haben sie ja eine Art Online-Learning. Die Firma war also wegen ihren
Elektroengineern sehr darauf bedacht, dass Online-Learning doch eigentlich ganz toll ist.
Deswegen mussten wir damals viele Vergleiche mit Online-Learning und dem Error-Correction
Network hier machen. Es ist nie vorgekommen, dass das Online-Learning besser gewesen wäre,
wie das Error-Correction Network hier. Also wie unterscheiden die sich? Na ja, beim Online-Learning
Presenters
Zugänglich über
Offener Zugang
Dauer
01:25:51 Min
Aufnahmedatum
2021-04-06
Hochgeladen am
2021-04-06 16:16:55
Sprache
de-DE