Vielen Dank für die tolle Erinnerung.
Ich bin glücklich, dass ich endlich die Chance habe,
mit einer schönen Schnee auf der Ausseite zu kommen.
Ich werde nicht alles wiederholen, was du gesagt hast.
Mein Hintergrund ist wirklich die komponente Komponente.
Ich möchte dir zwei verschiedene Art von der Domainly-Komposition zeigen.
Einer für klassische Numerikalsäufer und einer
um zu sehen
ob diese in der Kontext von Neuronetworks verwendet werden.
Okay, jetzt muss ich...
Okay, sehr gut.
Mein Hintergrund
wie es gerade gesagt wurde
ist wirklich mehr auf dieser Seite.
Ich muss es hier zeigen. Auf der Seite der Numerikalsäufer.
Ich habe also gelernt, dass, z.B. von partialen differentialen und differentialen Äquationen,
wie man sie diskrutiert, wie man ein mathematisches Modell baut und wie man sie löst.
Das Gute an dieser Sache ist, dass man die Äquationen generell hat.
Man kann in verschiedene Materialparameter stecken.
Man kann es in irgendeinem Sinne
wenn man es sehr robust und generalisierbarer nennt
aber man muss wirklich diese Modelle haben.
Und dann später
und ich denke
dass dieses Feld nicht wirklich auch eine lange Geschichte hat
aber für mich ist es ein bisschen neuer, dieses Feld der Maschine-Lehrer,
wo die ganze Methodologie oder die ganze Paradigm anders ist.
Also startest du nicht mit deiner Äquation, aber startest du mit dem Daten.
Und du versuchst
dein Modell aus dem Daten zu bauen und nicht aus einer Äquation
die du am Anfang gegeben hast.
Und mehr recent sind es diese
und das ist jetzt ein sehr
sehr heißes Feld oder ein sehr aktives Feld
aber ich weiß nicht, ob es ein gutes Name ist, aber es ist eine Maschine-Lehrer-Scientifik,
die versucht, eine Maschine-Lehrer-Scientifik und eine Maschine-Lehrer-Komputierung zu kombinieren.
Also nicht, dass die andere Maschine-Lehrer-Komputierung nicht wissenschaftlich ist,
aber es ist wirklich eine Maschine-Lehrer-Komputierung plus eine Maschine-Lehrer-Komputierung.
Und ich gehe jetzt auf diese zwei Themen aus den Domain Decomposition Methods
wie ich es erwähne.
Mein Hintergrund ist auf dieser, und das ist eine sehr alte Technik,
nur dass es eine sehr hohe Ausführung hat.
Es wurde in 1870 von Hermann Amandus Schwarz in der Erfindung
oder etwa in der Zeit, wenn er es entwickelt hat, und wenn es auch noch veröffentlicht wurde,
dass es eine Methodologie für Proben ist, oder dass es irgendwie ein Algorithm ist,
das die Existenz von Lösungen auf komplexen Formen und Domainen genutzt wurde.
So
an diesem Punkt wussten die Leute
dass die Laplace-Equation eine Lösung auf einem Kreis und auch auf einem Reklame hat.
Aber was nicht klar ist, ist, ob die Form so kompliziert ist,
Presenters
Zugänglich über
Offener Zugang
Dauer
00:59:47 Min
Aufnahmedatum
2026-02-03
Hochgeladen am
2026-02-13 14:10:12
Sprache
de-DE
Slides
Abstract:
This talk highlights how domain decomposition methods—rooted in ideas introduced by Schwarz in the 19th century and later developed into numerical algorithms by Lions in the 1980s—remain highly relevant for modern high-performance computing and scientific machine learning. The central principle is to decompose a global computational domain into subdomains, thereby splitting large-scale problems into smaller, local subproblems that can be solved efficiently and in parallel. We focus on modern overlapping Schwarz preconditioners as implemented in the FROSch (Fast and Robust Overlapping Schwarz) package of the Trilinos library, which have demonstrated robustness and scalability for a wide range of challenging applications on contemporary CPU and GPU architectures. Beyond their classical role in numerical solvers for partial differential equations, we also explore how domain decomposition techniques can be employed to localize neural networks and operator-learning architectures, introducing sparsity, improving scalability, and enhancing training in multiscale settings. The underlying algorithmic ideas are validated on representative test problems, including diffusion, wave propagation, and flow problems, illustrating how domain decomposition provides a unifying framework bridging large-scale numerical simulation and modern scientific machine learning.
For a list of past and upcoming NHR PerfLab seminar events, please see: https://hpc.fau.de/research/nhr-perflab-seminar-series/