Also wir kommen jetzt zum nächsten Kapitel in unserer Darstellung und das wäre
Conditional Density Estimation with Feedforward Neural Networks. Die grundlegende Annahme in
unseren Darstellungen bis jetzt hin war ja, ich möchte eigentlich eine Punktprognose von
irgendwas machen. Ich möchte eine Kommazell abgeben oder ich möchte immer eine Klassifikation
machen, die eben eine Sache beschreibt. Und ein Gegenstück dazu wäre ja zu sagen,
nein, ich will keine Punktprognose machen, sondern ich will etwas angeben, was ich nur mit einer
Wahrscheinlichkeit angeben kann, ohne mich darauf festzulegen, dass das wirklich kommen muss. Das
eröffnet einem natürlich die Möglichkeit, dass man öfter recht hat. Zum Beispiel, wenn ich sage,
also heute Nachmittag wird es wahrscheinlich noch regnen, dann ist es eine weichere Aussage mit
einer höheren Eintreffmöglichkeit, wie wenn ich sage, heute Nachmittag wird es sicher noch regnen.
Und so gesehen kann ich also durch eine Wahrscheinlichkeitsaussage auch in den
Zielvorgaben Unsicherheiten ausdrücken. Und das könnte man ja sagen, ja das ist halt eine
plamable Situation, weil eigentlich wirklich in Wirklichkeit hätte ich ja doch sagen wollen,
entweder es regnet oder es regnet nicht. Aber in vielen Fällen ist es genau das, was die Anwendung
halt erfordert, nämlich dass ich nur eine bedingte Aussage, eine dichte Aussage mache.
Beispiel wäre, was ich schon mal erwähnt hatte, wäre, wenn sie in der Versicherung arbeiten und
sie müssen schätzen, wie hoch wird die Schadenssumme für ein bestimmtes Auto sein, damit dafür die
Preis, die die die die die Versicherung für das Auto festgelegt werden kann, wieviel ein Kunde
dann zahlen muss. Und dann können sie halt sagen, ja ich kann keine Vorhersagen machen, ob dieser
spezifische Kunde in nächsten Jahren Unfall haben wird und deswegen viel Geld verbraucht. Ich kann
nur eine Wahrscheinlichkeit aussagen, dass Autofahrer von diesem Autotyp eben mehr oder
weniger viel Unfälle haben oder aber, dass sie zwar nicht viele Unfälle haben, aber wenn sie
einen Unfall haben, ist er richtig teuer. Und so gesehen, will man in so einem Kontext gar keine
Punktprognose machen. Erstens wäre das sinnlos und zweitens würde die auch die ganze Geschichte
dahinter nicht verbessern, weil für die Aussage, wie hoch ich meine Policy machen muss für die
Versicherung, hat es ja keine Bedeutung, wer denn im Einzelnen jetzt einen Unfall gebaut hat. Also
das wäre so ein Beispiel, wo man sagen kann, Conditional Density langt völlig. Natürlich hat
Conditional Density auch immer die Aussage, naja ich habe ein Unsicherheitsband in meiner Analyse.
Wir hatten ja schon über Unsicherheitsbänder geredet, wenn wir unsere grauen Linienfelder
angeguckt haben bei der Prognose. Aber das ist natürlich in unserem Kontext hier nur die
Modellbauunsicherheit. Wenn ich direkt die Unsicherheit im Forecaster modellieren will,
müsste ich eine Aussage haben, ja also wie unsicher ist das Modell als solches. Na gut,
jetzt haben wir also hier mal ein paar lebendige Beispiele dafür und jetzt schauen wir uns noch
mal an, wie man sich dem Thema nähern kann. Eine Möglichkeit das zu tun besteht darin,
dass ich mir dieses bäsianische Modelling im Forecaster nochmal angucke. Na gut, also das heißt,
ich nehme die Dijon Probability zwischen Model und Data her und tue das Aufschlüsseln in die
Conditional Probability Model gegeben, die Data und auf der anderen Seite Probability Data können
von einem bestimmten Modell erzeugt werden und dann jeweils noch mal P von Data und P von Model.
Das löse ich in der Form hier, wie die Gleichung hier aufgelöst ist von links und rechts und dann
steht da dieses bäsianische Modelling, nämlich a priori habe ich eine Einsicht darüber, welche
Modelle gut sind oder auch nicht, also was die wahrscheinlich Modelle sind, die da zu gelten
haben. A priori. A posteriori, wenn ich die Daten dann gesehen habe, habe ich möglicherweise eine
andere Wahrscheinlichkeitsverteilung darüber, welche Modelle gut sind und welche nicht und die
Provisionalität zwischen der a posteriori und a priori Modellbauwahrscheinlichkeit ist gerade die
Wahrscheinlichkeit, also likelihood, dass dieses Modell die Daten der Vergangenheit richtig erklärt
hat. Und das Ganze ist dann homonymiert mit der Wahrscheinlichkeit, dass der Datensatz das Problem
gut charakterisiert. Also da wir immer nur einen Datensatz oder meistens nur einen Datensatz haben,
ist das einfach nur eine Konstante. So, das wäre jetzt Modellbau und dann komme ich zu nächsten
Punkten, nämlich Forecasting. Ich sage, ich möchte die Wahrscheinlichkeit ausrechnen, dass eine
zukünftige Entwicklung von irgendwelchen Zeiträumen richtig ist, gegeben, dass ich ihre
Presenters
Zugänglich über
Offener Zugang
Dauer
01:03:47 Min
Aufnahmedatum
2020-10-30
Hochgeladen am
2020-10-30 16:57:33
Sprache
de-DE