So, einen schönen guten Abend, meine Damen und Herren, schön, dass Sie da sind. Ich freue mich,
hier mal wieder vortragen zu können. Das passiert ja nicht allzu oft. Ich glaube,
in meinem Fall war es zuletzt vor 15 Jahren, ich bin seit 18 Jahren in Erlangen und da war
irgendwann einmal ein Jahr der Informatik und es ist ganz schön zu sehen, was sich so getan hat in
der ganzen Zeit und das, was ich so mache in der Forschung, hier mal wieder auch ein Publikum
vorstellen zu können, das vielleicht nicht so sehr fokussiert ist, wie ich das sonst eben habe.
Wie Sie sehen, ich komme aus Erlangen, ich habe auch noch ein Standbein in Frankreich,
in Toulouse, einem Forschungszentrum, das industrienah auch in den Themen arbeitet.
Um den Vortrag heute zu gliedern, ich werde noch mal ganz kurz was zu Supercomputern sagen,
aber da letzte Woche ja der Vortrag von Herrn Treibig, früher Treibig, jetzt Eitzinger war,
über die Technik von Supercomputern, werde ich das ganz, ganz kurz machen können und kann mich
dann auf die Nutzung der Computer für wissenschaftliche Probleme fokussieren. Ich
hatte abgesprochen im Vorfeld, dass das eine Beispiel, das ich bringen werde, aus der Geophysik
kommt und dann kommt ein Blog, wo ich so ein Potpourri von verschiedensten anderen Sachen habe,
eigentlich bloß so kurze Snapshots und ein paar Bilder, weil es mir wichtig ist, rüber zu bringen,
wie breit das Ganze ist, wie viele Möglichkeiten es da gibt und dann fast schon ein bisschen in
Richtung Wissenschaftstheorie oder Philosophie. Das, was dem Untertitel von meinem Vortrag entspricht,
wie man Wissenschaft vorhersagefähig machen kann und was das für Konsequenzen hat.
Ja, die zwei Maschinen in den zwei Spalten, die Sie hier sehen, sind derzeit die zwei der schnellsten
Computer, Nummer zwei und drei in Deutschland, aber weltweit nur noch Nummer 22 und Nummer 44.
Die sind leistungsfähige Maschinen, wir sind sehr froh, dass wir sie haben, aber da muss ich drüber
im Klaren sein, dass sich das eine Welt ist, die sich rasend schnell verändert. Wir haben jetzt
fast 50 Jahre hinter uns, wo diese Rechner pro Jahrzehnt um den Faktor 1000 schneller geworden
sind. Hätten sich Autos in einer ähnlichen Geschwindigkeit beschleunigt, würden wir schon
lange zwischen den Galaxien hin und her reisen und diese Möglichkeiten, die sich daraus ergeben,
diese Rechner zu haben, eigentlich erst die letzten 20 Jahre, vielleicht sogar bloß zehn Jahre für
manche Anwendungsfälle in einer Leistungsfähigkeit, die es einem ermöglicht, richtige Physik zu
simulieren. Das ist das, was mein Fachgebiet antreibt und Sie sehen da ist links eine Spalte,
da taucht jetzt gleich die Nummer eins auf. Diese Maschine steht in China und wenn Sie den sozusagen
das eine Kriterium, das die Leistungen vergleicht anschauen, sehen Sie das hier. Da liegt also so ein
Faktor 20 oder 30 dazwischen drinnen, was uns die Chinesen da abgehängt haben und das, wenn irgendjemand
von Ihnen Gelegenheit hat, einem der politischen Entscheidungsträger, die irgendwo die Geldhähne
aufdrehen könnten, das weiterzugeben, dann sagen Sie das. Man kann sogar noch genauer sagen,
diese eine chinesische Maschine ist eine einzelne Maschine schneller als alle Supercomputer, die wir
in Deutschland gemeinsam haben. Wenn Deutschland und Frankreich ihre Supercomputer zusammenschalten
würden, dann wären sie noch schneller, aber nur dann. Und das ist nur eine von den Maschinen, China
hat da gewaltig aufgerüstet in dieser Top 500 Liste, die die schnellsten Maschinen der Welt,
sozusagen die obersten 500 charakterisiert, haben sie inzwischen mehr Rechner drinnen als die USA.
Das ist auch sozusagen, China wird von Ingenieuren und Wissenschaftlern geleitet, anders als derzeit
die westliche Führungsmacht und dort gibt es also ein gewisses Wissen darüber, wo das Ganze hingehen
könnte und man redet da gar nicht drüber, man macht es dort einfach. Okay, ja, das sozusagen als
politische Vorrede, jetzt wir haben leistungsfähige Maschinen, wir haben auch das Know-how, das Know-how
aufzubauen, dauert lange, weil man verschiedene Dinge zusammenbringen muss, das sage ich dann
gleich nochmal etwas. Und jetzt komme ich einfach zu dieser einen Anwendung, die ich ein bisschen
genauer erklären möchte. Es geht um den Erdmantel, das ist der Schicht Felsen, die unter unseren
Füßen ungefähr beginnt, knapp 3000 Kilometer nach unten reicht, bis dort der flüssige Erdkern
angeht. Anders als man es vielleicht in der Schule lernt oder noch in Erinnerung hat, ist dieser
Felsenmantel auf unseren normalen Zeitskalen fest, er geht dann immer, gerät unter immer höhere
Drücke und wird immer heißer, sodass er, obwohl er ein Festkörper ist, sich insbesondere auf den
Zeitskalen, die geologisch relevant sind, sich anfängt, wie eine sehr zähe Flüssigkeit zu
Presenters
Zugänglich über
Offener Zugang
Dauer
01:00:08 Min
Aufnahmedatum
2017-12-07
Hochgeladen am
2018-03-15 09:44:42
Sprache
de-DE
Mit Supercomputern können physikalische Prozesse nachgebildet werden. Dazu müssen die wesentlichen Wirkungszusammenhänge herausgefunden und in Rechenvorschriften umgesetzt werden. In immer mehr Simulationsanwendungsgebieten wird eine quantitative Vorhersage möglich, wie z. B. bei der Wettervorhersage. Dies erfordert jedoch feinst mögliche Auflösungen, was zu einem extrem hohem Rechen- und Speicheraufwand führt, der nur mit modernen Supercomputern erbracht werden kann.
Im Vortrag werden wir die Simulation der Erdmantelkonvektion als Beispiel verwenden. Dieser geodynamische Prozess ist die treibende Kraft der Kontinentalverschiebung, Ursache für die Formung von Gebirgen und für die Entstehung von Erdbeben.
Die Prozesse laufen jedoch auf einer Zeitskala von ca. 100 Millionen Jahren ab und umfassen das gesamte Volumen des Planeten mit ca. 1012 km3 (einer Billion, im Angelsächsischen: einer Trillion). In diesem Fall ist es nur mit Simulationen möglich, die Zeit- und Raumskalen zu beobachten, die zum Verständnis der physikalischen Prozesse erforderlich sind.