18 - Mathematische Grundlagen zu Künstliche Intelligenz, Neuronale Netze und Data Analytics I [ID:22318]
50 von 704 angezeigt

Also wir kommen jetzt zum nächsten Kapitel in unserer Darstellung und das wäre

Conditional Density Estimation with Feedforward Neural Networks. Die grundlegende Annahme in

unseren Darstellungen bis jetzt hin war ja, ich möchte eigentlich eine Punktprognose von

irgendwas machen. Ich möchte eine Kommazell abgeben oder ich möchte immer eine Klassifikation

machen, die eben eine Sache beschreibt. Und ein Gegenstück dazu wäre ja zu sagen,

nein, ich will keine Punktprognose machen, sondern ich will etwas angeben, was ich nur mit einer

Wahrscheinlichkeit angeben kann, ohne mich darauf festzulegen, dass das wirklich kommen muss. Das

eröffnet einem natürlich die Möglichkeit, dass man öfter recht hat. Zum Beispiel, wenn ich sage,

also heute Nachmittag wird es wahrscheinlich noch regnen, dann ist es eine weichere Aussage mit

einer höheren Eintreffmöglichkeit, wie wenn ich sage, heute Nachmittag wird es sicher noch regnen.

Und so gesehen kann ich also durch eine Wahrscheinlichkeitsaussage auch in den

Zielvorgaben Unsicherheiten ausdrücken. Und das könnte man ja sagen, ja das ist halt eine

plamable Situation, weil eigentlich wirklich in Wirklichkeit hätte ich ja doch sagen wollen,

entweder es regnet oder es regnet nicht. Aber in vielen Fällen ist es genau das, was die Anwendung

halt erfordert, nämlich dass ich nur eine bedingte Aussage, eine dichte Aussage mache.

Beispiel wäre, was ich schon mal erwähnt hatte, wäre, wenn sie in der Versicherung arbeiten und

sie müssen schätzen, wie hoch wird die Schadenssumme für ein bestimmtes Auto sein, damit dafür die

Preis, die die die die die Versicherung für das Auto festgelegt werden kann, wieviel ein Kunde

dann zahlen muss. Und dann können sie halt sagen, ja ich kann keine Vorhersagen machen, ob dieser

spezifische Kunde in nächsten Jahren Unfall haben wird und deswegen viel Geld verbraucht. Ich kann

nur eine Wahrscheinlichkeit aussagen, dass Autofahrer von diesem Autotyp eben mehr oder

weniger viel Unfälle haben oder aber, dass sie zwar nicht viele Unfälle haben, aber wenn sie

einen Unfall haben, ist er richtig teuer. Und so gesehen, will man in so einem Kontext gar keine

Punktprognose machen. Erstens wäre das sinnlos und zweitens würde die auch die ganze Geschichte

dahinter nicht verbessern, weil für die Aussage, wie hoch ich meine Policy machen muss für die

Versicherung, hat es ja keine Bedeutung, wer denn im Einzelnen jetzt einen Unfall gebaut hat. Also

das wäre so ein Beispiel, wo man sagen kann, Conditional Density langt völlig. Natürlich hat

Conditional Density auch immer die Aussage, naja ich habe ein Unsicherheitsband in meiner Analyse.

Wir hatten ja schon über Unsicherheitsbänder geredet, wenn wir unsere grauen Linienfelder

angeguckt haben bei der Prognose. Aber das ist natürlich in unserem Kontext hier nur die

Modellbauunsicherheit. Wenn ich direkt die Unsicherheit im Forecaster modellieren will,

müsste ich eine Aussage haben, ja also wie unsicher ist das Modell als solches. Na gut,

jetzt haben wir also hier mal ein paar lebendige Beispiele dafür und jetzt schauen wir uns noch

mal an, wie man sich dem Thema nähern kann. Eine Möglichkeit das zu tun besteht darin,

dass ich mir dieses bäsianische Modelling im Forecaster nochmal angucke. Na gut, also das heißt,

ich nehme die Dijon Probability zwischen Model und Data her und tue das Aufschlüsseln in die

Conditional Probability Model gegeben, die Data und auf der anderen Seite Probability Data können

von einem bestimmten Modell erzeugt werden und dann jeweils noch mal P von Data und P von Model.

Das löse ich in der Form hier, wie die Gleichung hier aufgelöst ist von links und rechts und dann

steht da dieses bäsianische Modelling, nämlich a priori habe ich eine Einsicht darüber, welche

Modelle gut sind oder auch nicht, also was die wahrscheinlich Modelle sind, die da zu gelten

haben. A priori. A posteriori, wenn ich die Daten dann gesehen habe, habe ich möglicherweise eine

andere Wahrscheinlichkeitsverteilung darüber, welche Modelle gut sind und welche nicht und die

Provisionalität zwischen der a posteriori und a priori Modellbauwahrscheinlichkeit ist gerade die

Wahrscheinlichkeit, also likelihood, dass dieses Modell die Daten der Vergangenheit richtig erklärt

hat. Und das Ganze ist dann homonymiert mit der Wahrscheinlichkeit, dass der Datensatz das Problem

gut charakterisiert. Also da wir immer nur einen Datensatz oder meistens nur einen Datensatz haben,

ist das einfach nur eine Konstante. So, das wäre jetzt Modellbau und dann komme ich zu nächsten

Punkten, nämlich Forecasting. Ich sage, ich möchte die Wahrscheinlichkeit ausrechnen, dass eine

zukünftige Entwicklung von irgendwelchen Zeiträumen richtig ist, gegeben, dass ich ihre

Zugänglich über

Offener Zugang

Dauer

01:03:47 Min

Aufnahmedatum

2020-10-30

Hochgeladen am

2020-10-30 16:57:33

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen