3 - Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation [ID:8774]
50 von 412 angezeigt

Vielen Dank für die Einführung. Ich hatte Anfang der Woche ein bisschen Erkältung,

deswegen ist meine Stimme noch ein bisschen angeschlagen, aber ich denke mal,

wir kriegen das trotzdem hin. Wie schon gesagt, mein Name ist Jan Eitzinger,

ich bin Mitarbeiter in der HPC-Gruppe hier am Regionalen Rechenzentrum in Erlangen.

Und der heutige Vortrag versucht eine Einführung zu geben in die Architektur

von Supercomputern und das heißt, man muss auch reden über die Architektur von Computern generell

und auch ein bisschen, leider ist die Zeit dann nicht ganz ausreichend, um das alles in der Tiefe

zu behandeln, über die Programmierung, also wie man das dann angeht. Als erstes habe ich eine

Folie, die nicht alle, aber einige der wichtigen grundlegenden Arbeiten zeigt, die die Grundlage

gelegt haben für diese Maschine, die wir heute so lapidar Computer nennen. Ende der 30er Jahre,

viele haben gesagt, die Zeit war reif, hat ja die technologische Revolution so richtig

Fahrt aufgenommen, das heißt, man hatte schon relativ anspruchsvolle Maschinen,

Flugzeuge, Züge, alles Mögliche. Man hat aber immer noch die Berechnungen von Hand durchgeführt.

Hier rechts oben sehen Sie ein sogenanntes Comptometer-Büro des Bildes von 1929 in Chicago,

und solche Büros gab es wohl überall. Das waren Räume hauptsächlich mit Frauen, die mit, heute

würde man sagen, Taschenrechnern, also wo man das dann eintippt, Berechnungen durchführen. Und

sprich, der Leidensdruck war einfach groß, die Berechnung, und es gab viel zu berechnen,

das irgendwie zu automatisieren oder irgendwie zu erleichtern und auch zu beschleunigen. Die

erste Arbeit in die Richtung ist Alan Turing, Mathematiker aus England, und er hat quasi die

theoretische Grundlage gelegt für eine universelle Rechenmaschine. Er hat noch nicht so drüber

nachgedacht, wie das konkret technisch umgesetzt werden könnte, aber ihm ging es darum, dass man

praktisch mit einem Satz von Instruktionen letztendlich eine Rechenmaschine bauen könnte,

die universell jede Berechnung machen könnte, also ausführen könnte. Das war es schon mal von der

Seite, die Grundlage für alles, was dann später kam. Dann relativ zeitgleich, Claude Shannon,

hat in seiner Masterarbeit am MIT eine Arbeit geschrieben als Symbolic Analysis of Relay

and Switching Circuits. Claude Shannon hat Mathematik und Elektrotechnik studiert,

und er hat letztendlich die Brücke geschlagen und hat die Grundlage gelegt für digitale

Schaltungstechnik. Sie wissen vielleicht, alle Computer, alles was dann kam, basiert auf digitaler

Schaltungstechnik, und das war praktisch die Grundlage. Er hat eben gezeigt, dass man Arithmetik

und Buhlsche Logik mit Schaltern ausdrücken kann oder umsetzen kann. Und als letztes,

weil wir in Deutschland sind, muss man noch Konrad Zuse erwähnen. Das war ein deutscher

Ingenieur, und das Spannende ist, er war ein Praktiker, er war eigentlich kein Theoretiker,

und er ist aber trotzdem auf ähnliche Lösungen gekommen. Also er hat einfach Maschinen gebaut,

die das machen, ohne von den anderen zu wissen, und ist zu ähnlichen Lösungen gekommen. Die

erste Maschine war die Z1 1938, das war noch ein mechanischer Rechner, die aber schon mit

Binärzahlen gearbeitet hat. Leider durch diese mechanische Maschinerie hat er nie so richtig

funktioniert, aber später hat er wirklich großartige Computer gebaut und hat ja dann

auch eine Firma gehabt. Vielleicht noch zu dem Bild in der Mitte, das ist, man sagt,

der erste produktive, programmierbare digitale Rechner, Edzak in Cambridge 1949, und die Z1,

die können Sie auch bewundern, eine Nachbau im Deutschen Technikmuseum in Berlin. Es kam

hier schon der Hinweis auf die Informatik-Sammlung. In Erlangen, in der ISA-Sammlung am Rechenzentrum

haben wir eine Zuse Z23, das ist ein erstes Transistor-basiertes Computer von 1962, und

der funktioniert. Also wenn Sie da Interesse haben, ist es auf jeden Fall lohnenswert,

sich das mal da eine Führung anzuschauen. So, das ist das Design. Und da werden wir

jetzt kurz darauf eingehen, was jetzt da eigentlich das Durchschlagende war. Und selbst heute

alle Rechner basieren immer noch auf diesem Design. Es ist bekannt unter von Neumann Architektur

oder ich finde es, von Neumann hat nicht alles beigetragen dazu, man sagt auch Stored Program

Computer. So, was ist nun das Innovative an diesem Design? Das Erste ist, und das basiert

eigentlich auf den Ideen von Turing, diese Maschine ist programmierbar, und zwar mit

einem Satz von diskreten Anweisungen, also Direktiven. Und dadurch ist es universell

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

00:38:45 Min

Aufnahmedatum

2017-11-30

Hochgeladen am

2018-01-24 11:43:25

Sprache

de-DE

Die wissenschaftliche Simulation ist mit Ihrem hohen Rechenbedarf traditionell ein Hauptnutzer von Hochleistungsrechnern. Dabei stellen aktuelle Hochleistungsrechner die Speerspitze des technisch Machbaren dar. Im Vortrag wird diskutiert wie die Rechenleistung solcher Systeme zustande kommt, hierbei wird auch auf generelle Entwicklungen in der Rechnerarchitektur eingegangen.

Um die verfügbare Rechenleistung in realen Anwendungen effizient zu nutzen, werden hohen Anforderungen an die Programmierung gestellt.

Anhand einfacher Beispiele werden die Schwierigkeiten die mit der Programmierung von Hochleistungsrechnern einhergehen erläutert.

Tags

Programmierung Rechnerarchitektur Simulation Hochleistungsrechner Supercomputer Rechenbedarf Rechenleistung Wissenschaftliche
Einbetten
Wordpress FAU Plugin
iFrame
Teilen