7 - Mathematische Grundlagen zu Künstliche Intelligenz, Neuronale Netze und Data Analytics I [ID:22012]
50 von 752 angezeigt

Gut, also wir haben uns vor der Pause einiges nicht Lin fehlen geschaut,

haben many Vor- und Nachteile abgewägt und die rad turtles

Basisfunktion würde ich gerne zu Ende bringen. Also ich habe eben erklärt, warum lokale Modellierung

im Niedrigdimensionalen ganz nett ist, aber im Hochdimensionalen immer weniger interessant ist,

weil nämlich da Diversity-Analyse immer noch geht, aber Ähnlichkeitsanalyse halt nicht. Nun

ist es aber so, dass ja manchmal vielleicht die Daten doch sehr eng beieinander liegen oder eben

auch, dass die Dimension halt nicht so hoch ist. Und dann ist eben früher dann in vielen Fällen

einfach immer beides parallel gerechnet worden. Also eine Tangenzahllösung, eine RBF-Lösung und

wie das bei Benchmarks immer ist, der gewinnt immer die Lieblingsmethode des Autors, weil er

gibt es sicher viel mehr Mühe. Und wenn man das eben umgehen will, dann kann man sagen, könnten

wir nicht eine Methode machen, die beides in sich vereinigt, sodass das Lernen selber entscheiden

kann, ob sie über das eine oder das andere wählen will. Und in der Tat, das kann man bei

diesem Problem hier machen. Das hat ein Ex-Kollege von mir, Bersiemens-Prünsten, ausgearbeitet und

der hat mir das auf einer Konferenz mal erzählt. Also das geht so. Wir gehen hin und sagen, wir

möchten gerne Tangenzahllösen können, sprich ich muss Tangenzahllösen haben, die so aussehen wie

immer. Aber was ich jetzt zusätzlich mache, ich habe weitere Parameter und dann tue ich dieselben

Inputs, die ich hier vorne habe, nochmal quadratisch mit dazu. Das ist die einzige Änderung. Und das

interessante ist, dass man dann mit einem Tangenzahllösen und mit diesen quadratischen

Innereien hier, die den gaussischen Hut sehr genau nachbilden kann. Also was wir hier oben in dem

Bild sehen, ist eben eine Nachbild, also sozusagen eine Approximation der Gewichte von hier, hier und

hier, die dazu führt, dass ich einen gaussischen Hut rauskriege, der von dem ursprünglichen kaum

zu unterscheiden ist. Ich glaube, das etwas steilere hier ist die Tangenzahnnäherung, das etwas

gewölbtere ist der originale gaussische Hut. Das heißt, ich kann also jetzt hingehen und ein etwas

allgemeines System ansetzen, was doppelt so viele Inputvariablen hat, nämlich einmal x und einmal

x². Und mit diesen doppelt so vielen Inputvariablen kann ich dann eine normale Tangenzahnrechnung

ausführen, weil die Snowenheide Netz weiß ja nichts davon, dass die Inputs hier und die dieselbe

Bedeutung haben, nur eben quadriert vorkommen. Der hat eben einfach doppelt so viele Inputvariablen.

Und damit rechnet er dann die ganzen Kalküle für die Tangenzahnrechnung. Naja, und wenn er will,

kann er dann eben durch die Abstimmung der Gewichte hier, hier und hier, kann er aber

trotzdem so eine lokale Modellierung machen, die man sonst mit dem RWF machen würde. Und als ich

das dann gehört habe, habe ich mir überlegt, also ganz gefällt mir das nicht, hier die Inputs einmal

linear und einmal quadratisch rein zu tun, weil das ist ja dieselbe Information. Und wenn ich

zusätzliche Sachen rechne, die darauf hinauslaufen, dass ich die Inputvariablen, sagen wir mal,

mit Inputbrunnen dann rausfiltern will, dann muss ich mir immer überlegen, wie geht es jetzt mit

dem Linearen, dem Quadratischen. Dann habe ich da sozusagen eine Architektur draus gemacht,

die das alles intern macht. Ich habe hier also nur einen Inputvektor mit linearem Input.

Mit einer Verbindung von Gewichten über den Tangenzahn zum Output. Ich habe aber intern noch

eine zweite Verbindung, die darin besteht, dass ich jetzt hier den Inputvektor mit einer identischen

Matrix im nächstes Cluster hochschiebe. Und in dem Cluster ist als Nicht-Linearität hier dann die

Nicht-Linearität Quadrat angegeben. Und von diesem Cluster aus, der ist ja von der Länge her genauso

groß wie der andere. Und manchmal ist meine Maus weg. Der ist genauso lang wie der, aber er hat halt

alle Größen, die hier vorkommen, als Quadrat. Und da kommt ein ganz normaler Connector, sprich eine

normale Matrix, die von hier dann eben auch hier hochgeht, durch den Tangenzahn geht, zum Output geht.

Das heißt, diese Architektur-Erweiterung hier repräsentiert genau diese Formeln hier. Aber ich

muss sozusagen überhaupt nichts mehr tun. Wenn ich nur die Datenschnittstelle sehe,

habe ich hier ein Output, habe hier ein Input. Und dass ich hier drinnen was drückreich gemacht habe,

weiß die Datenschnittstelle gar nicht mehr. Na gut, und dann muss ich halt die Parameter hier

lernen und hier lernen. Das hier ist ja eine eingefrorene Identität, da ist nichts zu lernen, weil ich möchte

ja hiermit praktisch eine Formel realisieren, nämlich die Berechnung von dem x-Quadrat. Und dann komme

ich zu dem Output. So, um das noch ein bisschen lebender zu machen, Geryl Fleck hat also...

Zugänglich über

Offener Zugang

Dauer

01:26:07 Min

Aufnahmedatum

2020-10-27

Hochgeladen am

2020-10-27 18:06:55

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen