Diese Unterschiedlichkeit der drunterliegenden Rekonstruktion von Hidden Variablen macht eine
Diversifikation von den Modellen hier und das wiederum führt dazu, dass wir Unsicherheitskanäle
kriegen, selbst wenn jedes einzelne Modell ein sturdidimidistisches Modell ist. Ich werde auch
in 100 Jahren keine perfekte Prognose machen können, einfach weil auch in 100 Jahren
durch diese Unsicherheit der Rekonstruktion ein Thema bleibt. Also so gesehen haben wir Unsicherheit,
aber die Erklärung, warum die Unsicherheit da ist, ist eine völlig andere, wie sie in den
Erklärungsmodellen da oben drüber vorkam. Und das macht hier eben hier den Unterschied aus. Und ich
kann sozusagen dieser neuen Interpretation auch nicht ausweichen, weil ich von meinen
Einzelmodellen erzwingen, dass die die Vergangenheit perfekt lernen. So, wenn wir das jetzt tun,
dann muss man eine Diskussion noch führen, die, wenn man da ernsthaft drauf eingeht, die eben
hier eine Rolle spielt. Das ist die Unterschreitung in Model uncertainty und Forecast uncertainty.
Model uncertainty ist völlig klar, da wird jeder übereinstimmen, dass ich eben erzählt habe,
ist Model uncertainty. Sprich, ich kann nicht das perfekte Modell machen, wenn ich nur endlich
viele Daten habe, weil ich eben nicht eindeutig rekonstruieren kann. Also das würde man als
Model uncertainty bezeichnen. Forecast uncertainty ist, wie schlecht das Modell funktioniert und ich
deswegen es schlecht benutzen kann. Und die Behauptung, die ich hier aufstelle oder die Vermutung,
die ich hier formuliere, ist, in diesem Modelltyp, über den wir jetzt gerade reden, da ist die
Forecast uncertainty gleich der Model uncertainty und nicht mehr. So, das kann ich natürlich,
ich kann das nicht beweisen im Allgemeinen, aber jetzt denken wir mal drüber nach. Also, dass die
Forecast uncertainty im Zweifelsfall größer gleich der Model uncertainty ist, ist zwingend,
weil niemand von uns weiß, welches von den Modellen hier richtig ist und daher kommt eben
eine Model uncertainty als untere Schranke vor für die Forecast uncertainty. Vielleicht ist die
Welt noch schlimmer wie unsere uncertainty von hier. Jetzt die zweite Ungleichung, die man angucken
möchte, um diese Gleichheit hier zu beweisen, wäre, ist die Model uncertainty größer wie die
Forecast uncertainty. Und das ist eine Angelegenheit, die natürlich sozusagen im Allgemeinen bei
irgendwelchen Modellen war, kann man die Vermutung gar nicht haben, dass das so sein könnte. Damit
das sein könnte, muss ich über eine Modellklasse reden, wo ich universal approximation drin habe,
weil nur so eine Modellklasse kann überhaupt komplizierter sein wie oder allgemeiner sein
wie das, was die Welt als Beispiel eben tut. Na ja, und wenn ich eben die recurrenten neuronale
Netze nehme, dann kann ich sagen, durch die universal approximation hier wird solch ein
Ensemble auch ziemlich verrückte Lösungen beinhalten. Also eine Ökonomie ist ein Lieblingswörding,
um das auszudrücken, sind die schwarzen Schwäne, weil das ist was, was normalerweise keiner
erwartet, aber selten eben doch vorkommen kann. Und das geht nur, wenn ich Modelltyp für das
Forecasting nehme, was eben universal approximation kann. Und das zweite ist eben die Distribution,
die hier entsteht, also bitte nicht die vielen grauen Linien einfach nur, sondern die Verteilung
der grauen Linien ist etwas, was eine erstaunliche, sagen wir mal, eigenständige Information beinhaltet.
Wenn ich diese grauen Linien, die kommen ja hier von 200 Modellen, wenn ich das jetzt malen würde
für zwei Millionen Modelle oder zwei Milliarden Modelle, dann wäre bestimmt hier die komplette
Fläche abgedeckt oder ziemlich komplett abgedeckt. Aber die Dichte von den grauen Linien wäre immer
noch dasselbe wie hier. Das zeige ich gleich in einem Beispiel, was mir das bedeutet. Und der dritte Punkt, den
ich hier habe, ist, also wenn ich den ökonomischen Grund anführen will, wir haben ja gesagt,
Märkte sind Interaktionen von Entscheidungen und Interaktionen von Entscheidungen ist eigentlich
genau das, was Neuro modelliert. Also wir haben auch schon mal eine mathematische Struktur, die hat mit
dem Thema zu tun, wenn ich denn hier diese Prognosegeschichten in der Ökonomie mache. Aber den zweiten Punkt, den will
ich noch näher erläutern, nehmen wir unser Grundmodell, was wir hier haben. Und jetzt machen wir mal ein Experiment.
Wir gehen hin für diese Kupfermodelle da und machen verschieden große Ensembles. Also ich werde hier keine
zwei Millionen oder zwei Milliarden graue Linien malen, aber ich kann hier mal ein bisschen kleiner loslegen.
Also 100, 150, 250, 300, 350 Linien. Und ich tue von diesen Ensembles hier jeweils den Mittelwert ausrechnen.
Dann sehe ich, dass diese Mittelwerte eigentlich ziemlich gleich sind, ganz egal, wie groß das Ensemble war.
Ich kann aber noch weitergehen. Ich kann die Breite von dem Ensemble bestimmen, indem ich die Standardabweichung
Presenters
Zugänglich über
Offener Zugang
Dauer
00:33:13 Min
Aufnahmedatum
2019-04-18
Hochgeladen am
2019-04-18 21:44:01
Sprache
de-DE