1 - Mathematische Grundlagen zu Künstliche Intelligenz, Neuronale Netze und Data Analytics II [ID:30534]
50 von 296 angezeigt

Wir nennen das ganze mathematische Begründung für künstliche Intelligenz,

neuronale Netze und Datenanalyse, weil künstliche Intelligenz ist ja zunächst mal eine Vision.

Und die neuronale Netze ist eine mathematische Methode und Datenanalyse ist dann das,

was man nachher sehr viel heute macht. Und mir liegt daran, dass meine Argumentation jetzt

nicht darin besteht, ich möchte mich viel mit Daten beschäftigen, sondern ich möchte viel

logisches Nachdenken machen, was mir hilft, diese ganzen drei Schritte zu machen. Und im ersten Teil

haben wir eben Vorwärt-neuronale Netze gemacht und jetzt kommen dann eben rekurrente neuronale Netze,

die ganz genau passen auf die Frage, wie funktionieren eigentlich dynamische Systeme. Und wir werden also

viel lernen über Eigenschaften dynamischer Systeme, weil das sind ja nun mal eben die Generatoren für

Zeitreihen und das muss ja zusammenpassen. So, jetzt würde ich noch mal gerade ein paar Worte zu mir

sagen, damit man versteht, warum ich die Welt so angucke, wie ich sie da angucke. Also ich habe in

Bonn Mathematik studiert und dann in mathematischer Ökonomie promoviert und die Angelegenheit sagt

natürlich erstens, also ich mag die mathematikdynamische Systeme, sonst hätte ich nicht

Kontrolltheorie gemacht und B, ich musste mich auch damit auseinandersetzen, dass die wirkliche

Welt da draußen vor dem Fenster sehr kompliziert ist und wie kann man das in mathematischen Methoden

eben ausdrücken. Und dann war ich halt 30 Jahre lang bei Siemens in Zentralbereich Forschung und

war sozusagen Gründungsmitglied für Künstliche Intelligenz bei Siemens und bin dann nach 2017

zu Fraunhofer gegangen und macht vom Thema her eigentlich dasselbe, nämlich immer noch Künstliche

Intelligenz, dann neuronale Netz- und Datenanalyse. Na gut, und wenn man das so macht, dann hat man

natürlich eine weltweite Anbettung in wissenschaftliche Organisationen und Kontakte,

ja in meinem Fall bis runter in Afrika. So wenn man das so sieht, dass ich mich dafür interessiert

habe, was ist Künstliche Intelligenz neuronale Netz- und Datenanalyse, dann muss man natürlich

eben auch sagen, was habe ich denn im Industrieumfeld für Anwendungen machen können und die Anwendung,

die die meiste Zeit eine große Rolle spielte, war dann halt eben Prognose und natürlich auch,

weil ich ja schließlich in einer Ingenieurs-Company war, wie kann man das für optimale

Steuerungen umsetzen. Das Bild da unten kommen wir ganz ganz später nochmal zurück. Ich würde

gerne als Einleitung heute eine Folie nehmen, die Sie vielleicht vom Prinzip her kennen, aber die ich

gerne so benutzen will, dass sie einen neuen Blick auf das Thema wirft, wie wir das machen. Also ich

wiederhole hier gerade dieses Bessianische Modeling. Bessianisches Modeling heißt, ich nehme die

Joint Probability zwischen Modellen und Daten und splitte die zwei Richtungen aus. Also die Joint

Probability wird aufgesplittet einmal in die Conditional Probability Modelle gegeben, dass ich

die Daten gesehen habe, mal die Wahrscheinlichkeit, dass der Datensatz das Problem richtig beschreibt.

Und das ist eine Angelegenheit, die ich so machen kann. Ich könnte es auch genauso gut andersrum

machen, weil hier steht ja was Symmetrisches in der Mitte. Ich kann also sagen Probability,

die datengegebenen Modelle und die a priori Probability von dem Modell. So diese Gleichung

hier löst man jetzt dann in der Form auf. Also das ist nichts anderes wie die linke und die

rechte Hälfte hier. Und dann steht es halt so da. Und diese Gleichung richtig zu lesen, das ist der

ganze Witz in der in der bessianischen Datenanalyse, die besteht darin zu sagen, ich habe also jetzt

hier die Wahrscheinlichkeit, dass ein Modell, wir sollten andersrum anfangen. Also zunächst mal habe

ich hier eine Wahrscheinlichkeit, dass das Modell die richtige Beschreibung der Welt ist. Das ist

sozusagen eine a priori Überlegung. Und diese a priori Überlegung wird dann multipliziert mit,

könnte ein bestimmtes Modell, was hier vorkommt in der Verteilung, könnte dieses Modell die Daten

erzeugt haben, die ich beobachtet habe. Und wenn ja und noch gegeben, dass die Wahrscheinlichkeit

für die Verteilung da stimmt, gegeben ist, dann sage ich aha, jetzt weiß ich, was ist die beste

Wahrscheinlichkeit für ein Modell gegeben, dass ich die Daten schon gesehen habe. Also der Witz ist

hier, habe ich eine Datenverteilung, bevor ich die, Entschuldigung, ja, habe ich eine Verteilung von

Modellen, bevor ich die Daten gesehen habe. Das könnte also irgendwas riesiges sein. Und dann habe

ich hier eine, ja, ein Proportionitätsfaktor hier, der sagt mir, von den vielen Modellen, die

möglicherweise die Welt beschreiben, tue ich jetzt die höheren Gewichten, die in der Lage sind,

die Daten, die ich beobachtet habe, richtig zu erklären. Und die Verteilung von allen möglichen

Zugänglich über

Offener Zugang

Dauer

00:30:10 Min

Aufnahmedatum

2021-04-06

Hochgeladen am

2021-04-06 11:36:46

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen