3 - Mathematische Grundlagen zu Künstliche Intelligenz, Neuronale Netze und Data Analytics II [ID:30558]
50 von 784 angezeigt

So, also wir hatten uns vorher überlegt, wenn man rekorente Netze lernen will, dann hat das schon mal

den Vorteil, dass man sich über die Memorylänge von dem Lackverhalten zwischen den Variablen

muss man sich keine Sorgen machen und deswegen haben wir so eine Art Struktur hier generiert,

die man dann im Prinzip auch lernen kann, indem man sie über die Zeit reinlegt und die Frage,

welche Variablen man nimmt, die habe ich etwas unglücklich in dieser Folie dargestellt,

aber der Message ist klar. Man fragt hier rückwärts, indem man hier den Zeitfall umkehrt,

man fragt hier rückwärts, was würden die Variablen denn hier für einen Zusammenhang haben mit den

potenziellen Input-Variablen und das werde ich nochmal ein bisschen besser darstellen,

aber jetzt ist es halt so, die Message ist dieselbe. Und dann war also 2000 die Frage,

ja manchmal funktioniert es, manchmal funktioniert es auch nicht, was könnte ich besser machen und

dieses was könnte ich besser machen hat nichts damit zu tun, dass ich an den Daten rumdrehe,

sondern hat was damit zu tun, dass ich nachdenke, was bitte ist an den Modellen falsch,

was ich nicht richtig bis jetzt gemacht habe. Und typischer Fehler, der halt vorkam, war eben,

dass die Behauptung, wir haben alle externen Treiber, nicht nur in der Zukunft falsch ist,

sondern dass sie auch in der Vergangenheit sehr unverständlich ist. Also so um Silvester,

um 2000 ist mir dann diese Erweiterung da oben eingefallen, darauf gibt es jetzt ein

Patent, aber ist egal. Die Geschichte ist jetzt die, wenn die Original-Gleichungen hier nicht

passen, wie könnte ich den Fehler, den ich in der Vergangenheit gesehen habe, hier benutzen,

um eben das Modell besser lernen zu lassen. Ein bisschen ist der Gedankengang so, als würden

sie sich vorstellen, dass sie bei was über europäische Geschichte lernen wollen,

um dann eben eine Prognose zu machen, wie das in Europa so weitergeht. Da gibt es eine

Möglichkeit, sie können hingehen und dicke Bücher wälzen über die Geschichtsentwicklung

in Europa oder sie können jeden Abend Tagesschau gucken. Wenn sie die Bücher wälzen, dann haben

sie vermutlich einen guten Langfrist, eine Langfristvorstellung der europäischen Geschichte,

aber was morgen passiert, kriegen sie nicht mit. Umgekehrt, wenn sie immer nur Tagesschau gucken,

dann werden sie mitkriegen, was in einem Tag auf den nächsten vermutlich läuft, aber sie werden

schlechte Einsicht in Langfristvorgänge haben. Von daher wäre es toll, wenn wir beides machen

können, nämlich die Langfristzusammenhänge sehen über diese Matrix hier, wie auch jeden Tag

dann Nachkorrektur kriegen. Ich habe erwartet, dass heute Abend dieses und jenes zu sehen sein

wird, aber ich habe gesehen, damit bin ich nicht ganz richtig gewesen, also habe ich eine

Nachkorrektur. Diese Wechselguckung von Nachkorrektur und Langfristzusammenhänge ist eben das,

was hier dargestellt ist. Wenn man das eben mathematisch ausdrückt, läuft es darauf hinaus.

Wir haben diese Strukturen ab 2000 sehr oft verwendet und in einem Projekt, wo wir das hatten,

da hatten wir, ich komme das Projekt später nochmal zurück, da hatten wir es insbesondere

mit Ingenieuren zu tun, die haben alle Elektrotechnik studiert. Wenn sie mit so Leuten reden,

was sie automatisch denken, wenn sie über Nachkorrektur nachdenken, ist immer Kalman Filter.

Diejenigen von Ihnen, die Kalman Filter kennen, den will ich jetzt eine Unterschiede klarmachen,

nämlich, dass die Kalman Filter ist ein Online Learning, was versucht immer den letzten Fehler,

den man gemacht hat, mit reinzunehmen, um das in die Modellstruktur einzufüttern. Das funktioniert

so ganz gut, wenn sie lineare Modelle haben, aber nicht lineare Modelle gibt es praktisch nur,

wenn sie die Struktur von den Modellen genau kennen. Jetzt haben sie also auch so einen

Online-Mechanismus. Jetzt muss man vergleichen, wie dieses Error-Correction, so wie es hier steht,

damit man Online-Mechanismus verglichen würde. Das Online-Learning können sie ja praktisch

mit jeder Art von Netz machen, die ich dargestellt habe. Sie können ja immer sagen,

na ja, jetzt habe ich einen neuen Datenpunkt, jetzt mache ich das Lernen nochmal mit dem neuen

Datenpunkt dazu. Dann haben sie ja eine Art Online-Learning. Die Firma war also wegen ihren

Elektroengineern sehr darauf bedacht, dass Online-Learning doch eigentlich ganz toll ist.

Deswegen mussten wir damals viele Vergleiche mit Online-Learning und dem Error-Correction

Network hier machen. Es ist nie vorgekommen, dass das Online-Learning besser gewesen wäre,

wie das Error-Correction Network hier. Also wie unterscheiden die sich? Na ja, beim Online-Learning

Zugänglich über

Offener Zugang

Dauer

01:25:51 Min

Aufnahmedatum

2021-04-06

Hochgeladen am

2021-04-06 16:16:55

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen