Ich versuche etwas lauter zu reden, sodass das auch so geht.
Wir haben heute Vormittag diese interessanten Netzwerke studiert, die die Eigenschaft haben,
groß zu sein, ein geschlossenes Bild der Welt auszudrücken.
Wenn ich mit dem Anspruch da reingehe, ergeben sich automatisch eine ganze Reihe von mathematischen
Notwendigkeiten, die wir uns da halt angeschaut haben.
Ich könnte jetzt da wieder eine Wiederholung machen, das werde ich nicht tun.
Ich will erst das andere Kapitel hier erzählen und werde dann eben am Schluss nochmal darüber
gehen.
Jetzt ist die Frage, wenn das so toll ist, warum machen wir überhaupt noch etwas Neues?
Die Antwort darauf ist, die Modelle, so wie wir sie heute Morgen angeschaut haben, sind
ungeeignet, um technische Anwendungen zu machen.
Um technische Anwendungen zu machen, weil diese Modelle müssen ja so gebaut sein, dass
sie vom Anfang des Datensatzes bis zur Gegenwart laufen, um dann eben 20 Tage oder 50 Schritte
oder wie viel auch immer in Richtung Zukunft zu schauen.
Wenn ich das habe, dann müsste ich ja für jede Prognose sozusagen die ganze Geschichte
neu rechnen.
Das kann man machen für so extrem aufwendige Anwendungen wie die Rohstoffpreise.
Das kann man aber nicht machen auf eine Maschine, die ja sozusagen in einem ganz kurzen Zeitraum
immer wieder eine neue Prognose für die nächsten Steuerungsaufgaben rechnen soll.
Also das heißt, ich muss mir irgendwas einfallen lassen, dass ich die guten Eigenschaften
von heute Morgen rüber retten kann.
Das kann man auch auf technischen Geräten anwenden.
Und dafür wollen wir nochmal sagen, jetzt gucken wir uns mal einen Vergleich von dem
eCNN mit dem hCNN an.
Also eCNN war ja die Geschichte, die ich bei den kleinen Netzen als besonders schön dargestellt
habe und wo ich gesagt habe, damit haben wir viele Anwendungen gemacht.
Und die kann man natürlich übertragen auf technische Anwendungen, weil ein eCNN hat
nur eine endlich lange Vergangenheit.
Ich rechne daraus die nächsten Werte aus.
Wenn ich es neu anwende, dann nehme ich dasselbe Modell und verschiebe das einfach ein paar
Werte.
Ich kann es ja verschieben.
Ich muss nicht immer vom Anfang der Zeitreihe aus argumentieren.
Die eCNN-Bilder, die wir sonst gesehen haben, die sahen ja irgendwie alle ganz harmlos
aus, finde ich jedenfalls.
Also die normalen eCNN-Bilder, die wir hatten, die sehen ja im Prinzip immer so aus.
Und das Bild mit genau demselben Inhalt kann ich jetzt auch darstellen durch etwas, was
ein bisschen mehr aussieht wie ein hCNN.
Das möchte ich gerne als Vergleich mal gerade machen.
Hier.
Also das obere Bild ist ein eCNN nur ein bisschen anders hingeschrieben, wie wir das sonst gemacht
haben, damit ich das besser vergleichen kann mit wie ein hCNN funktioniert.
Und jetzt in beiden Fällen gehe ich jetzt hin und benutze die abgeschnittene Version,
sprich ich habe nur eine kurze Vergangenheit und dann ein Stück Zukunft.
Weil was anderes hatte ich beim eCNN ja auch nie.
Und was machen wir also hier?
Ja wir gehen hin und sagen beim eCNN fangen wir vielleicht mal an der Stelle hier an.
Wir haben noch eine ziemlich willkürliche Matrix und dann rechnen wir irgendeinen ST-1
aus.
Wir geben über eine Matrix C dann einen Erwartungswert und dieser Erwartungswert wird verglichen
Presenters
Zugänglich über
Offener Zugang
Dauer
01:49:03 Min
Aufnahmedatum
2019-04-18
Hochgeladen am
2019-04-19 08:20:39
Sprache
de-DE