16 - Mathematische Grundlagen zu Data Analytics, Neuronale Netze und Künstliche Intelligenz [ID:10724]
50 von 1213 angezeigt

Ich versuche etwas lauter zu reden, sodass das auch so geht.

Wir haben heute Vormittag diese interessanten Netzwerke studiert, die die Eigenschaft haben,

groß zu sein, ein geschlossenes Bild der Welt auszudrücken.

Wenn ich mit dem Anspruch da reingehe, ergeben sich automatisch eine ganze Reihe von mathematischen

Notwendigkeiten, die wir uns da halt angeschaut haben.

Ich könnte jetzt da wieder eine Wiederholung machen, das werde ich nicht tun.

Ich will erst das andere Kapitel hier erzählen und werde dann eben am Schluss nochmal darüber

gehen.

Jetzt ist die Frage, wenn das so toll ist, warum machen wir überhaupt noch etwas Neues?

Die Antwort darauf ist, die Modelle, so wie wir sie heute Morgen angeschaut haben, sind

ungeeignet, um technische Anwendungen zu machen.

Um technische Anwendungen zu machen, weil diese Modelle müssen ja so gebaut sein, dass

sie vom Anfang des Datensatzes bis zur Gegenwart laufen, um dann eben 20 Tage oder 50 Schritte

oder wie viel auch immer in Richtung Zukunft zu schauen.

Wenn ich das habe, dann müsste ich ja für jede Prognose sozusagen die ganze Geschichte

neu rechnen.

Das kann man machen für so extrem aufwendige Anwendungen wie die Rohstoffpreise.

Das kann man aber nicht machen auf eine Maschine, die ja sozusagen in einem ganz kurzen Zeitraum

immer wieder eine neue Prognose für die nächsten Steuerungsaufgaben rechnen soll.

Also das heißt, ich muss mir irgendwas einfallen lassen, dass ich die guten Eigenschaften

von heute Morgen rüber retten kann.

Das kann man auch auf technischen Geräten anwenden.

Und dafür wollen wir nochmal sagen, jetzt gucken wir uns mal einen Vergleich von dem

eCNN mit dem hCNN an.

Also eCNN war ja die Geschichte, die ich bei den kleinen Netzen als besonders schön dargestellt

habe und wo ich gesagt habe, damit haben wir viele Anwendungen gemacht.

Und die kann man natürlich übertragen auf technische Anwendungen, weil ein eCNN hat

nur eine endlich lange Vergangenheit.

Ich rechne daraus die nächsten Werte aus.

Wenn ich es neu anwende, dann nehme ich dasselbe Modell und verschiebe das einfach ein paar

Werte.

Ich kann es ja verschieben.

Ich muss nicht immer vom Anfang der Zeitreihe aus argumentieren.

Die eCNN-Bilder, die wir sonst gesehen haben, die sahen ja irgendwie alle ganz harmlos

aus, finde ich jedenfalls.

Also die normalen eCNN-Bilder, die wir hatten, die sehen ja im Prinzip immer so aus.

Und das Bild mit genau demselben Inhalt kann ich jetzt auch darstellen durch etwas, was

ein bisschen mehr aussieht wie ein hCNN.

Das möchte ich gerne als Vergleich mal gerade machen.

Hier.

Also das obere Bild ist ein eCNN nur ein bisschen anders hingeschrieben, wie wir das sonst gemacht

haben, damit ich das besser vergleichen kann mit wie ein hCNN funktioniert.

Und jetzt in beiden Fällen gehe ich jetzt hin und benutze die abgeschnittene Version,

sprich ich habe nur eine kurze Vergangenheit und dann ein Stück Zukunft.

Weil was anderes hatte ich beim eCNN ja auch nie.

Und was machen wir also hier?

Ja wir gehen hin und sagen beim eCNN fangen wir vielleicht mal an der Stelle hier an.

Wir haben noch eine ziemlich willkürliche Matrix und dann rechnen wir irgendeinen ST-1

aus.

Wir geben über eine Matrix C dann einen Erwartungswert und dieser Erwartungswert wird verglichen

Zugänglich über

Offener Zugang

Dauer

01:49:03 Min

Aufnahmedatum

2019-04-18

Hochgeladen am

2019-04-19 08:20:39

Sprache

de-DE

Tags

transition modeling information networks model recurrent nonlinear dynamical identification forecasting uncertainty grothmann externals springer neuneier retro
Einbetten
Wordpress FAU Plugin
iFrame
Teilen