13 - Mathematische Grundlagen zu Künstliche Intelligenz, Neuronale Netze und Data Analytics II [ID:30642]
50 von 312 angezeigt

Gut.

Gestern wurde mir die Frage gestellt oder andersherum gefragt.

Ich habe zuerst gefragt, ist das Ganze hier schwer oder leicht?

Und dann bekam ich zur Antwort, nee, schwer ist es nicht,

weil das wiederholt ja immer nur eine bestimmte Art von Ideen.

Ich habe dann gestern halb drinnen nachgedacht, ob ich dem zustimmen würde

oder ob ich das anders sehe. Und meine Antwort darauf ist,

teilweise stimme ich zu, weil das, was ich hier als grundlegende

Verhaltensweise in der Darstellung gebracht habe, war ja, dass ich über

Architekturen geredet habe. Also, man könnte mal sagen, ja, das sind halt

immer wieder nur neue Architekturen. Aber auf der anderen Seite sehe ich das

komplett anders, weil wenn Sie sich Mathematik angucken, dann reden Sie

recht wenig über Funktionenklassen, und dann ganz viel über

Identifikationen erfunden, was man damit machen kann. Hier ist es doch gerade so,

dass gesagt wird, nicht die Algorithmen stehen im Vordergrund, sondern die

Architekturen stehen im Vordergrund, dass man dafür dann natürlich auch immer

Algorithmen braucht, wie man ja auch in dem Bild hier sieht. Ich meine, wenn ich das System

identifizieren will, brauche ich meinen Standardalgorithmus, um hier lokale

Optimierung zu machen. Aber die Hauptlast in der ganzen Darstellung liegt immer, wie

weit komme ich erst mal damit, dass ich das von vornherein als Architektur

abbilde. Und wenn ich das mal als Architektur abgebildet habe, dann ist

sozusagen der Algorithmus, der hinterher läuft, eigentlich nur noch

ein add-on, wenn man es jetzt mal extrem ausdrückt. Und deswegen war mir am Anfang

des Komponentsprinzips so wichtig, ich würde gerne nur über Probleme reden,

wo ich Gleichungen habe, die ich auch in Architekturen ausdrücken kann, in denen

nur lokale Algorithmen vorkommen. Und dadurch ist es uns halt gelungen,

tausendmal größere Architekturen aufzubauen und die trotzdem händelbar

zu halten. Also ich sehe das sozusagen nicht als Einschränkung zu sagen, ja,

das ist ja einfach oder das ist ja immer dasselbe, sondern ich sehe das gerade als

die Schönheit da drin, dass man sagen kann, man kann so viele Probleme

architektonisch darstellen, anstatt sie algorithmisch darzustellen, was ja einen

guten Teil des Studiums ausmacht, was sie sonst so lernen. Und dass man hier eben eine

neue Art hat, das zu sehen, das ist eigentlich mal eine Antwort auf

den Diskussionspunkt gestern. Ich weiß nicht mehr, wer es gesagt hat, aber

vielleicht war das eine Ergänzung zu dem, was da diskutiert wurde.

Gibt es da noch irgendeine Anmerkung dazu?

Und die andere Geschichte, die wir natürlich jetzt hatten, war, dass wir

gesagt haben, das geht in dieselbe Richtung jetzt, das hatte ich ganz am

Anfang hier die Folie, dass ich gesagt habe, man erwartet im Kontext noch eine

Netze immer, dass da stundenlang darüber geredet wird, wie benutzt man Daten, um ein

Modell zu fitten. Aber wir haben uns wirklich einen riesigen Teil des

Zeitraums damit beschäftigt, was kann ich a priori über gute Modellklassen

sagen, was sind gute Modellklassen? Gute Modellklassen sind die, die eben das

beschreiben, worüber ich reden möchte. In unserem Kontext im Moment halt ganz

viel dynamische Systeme und Zeitreihen. Und dass man alleine durch Nachdenken hier

so eine starke Vorstrukturierung machen kann, ist doch toll. Und die kann

natürlich nicht sozusagen im Algorithmus laufen, weil der Algorithmus

braucht die Daten, um die mit dem Modell zusammenzubringen. Also das heißt, hier

steckt da wirklich der mathematische Teil drin, über den ich dann da eben rede. Und

bei rekorenten Netzen ist das halt besonders stark, weil wir da ja die Zeit

Zugänglich über

Offener Zugang

Dauer

00:28:35 Min

Aufnahmedatum

2021-04-09

Hochgeladen am

2021-04-09 11:08:09

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen