Vielen Dank für die Einführung. Ich hatte Anfang der Woche ein bisschen Erkältung,
deswegen ist meine Stimme noch ein bisschen angeschlagen, aber ich denke mal,
wir kriegen das trotzdem hin. Wie schon gesagt, mein Name ist Jan Eitzinger,
ich bin Mitarbeiter in der HPC-Gruppe hier am Regionalen Rechenzentrum in Erlangen.
Und der heutige Vortrag versucht eine Einführung zu geben in die Architektur
von Supercomputern und das heißt, man muss auch reden über die Architektur von Computern generell
und auch ein bisschen, leider ist die Zeit dann nicht ganz ausreichend, um das alles in der Tiefe
zu behandeln, über die Programmierung, also wie man das dann angeht. Als erstes habe ich eine
Folie, die nicht alle, aber einige der wichtigen grundlegenden Arbeiten zeigt, die die Grundlage
gelegt haben für diese Maschine, die wir heute so lapidar Computer nennen. Ende der 30er Jahre,
viele haben gesagt, die Zeit war reif, hat ja die technologische Revolution so richtig
Fahrt aufgenommen, das heißt, man hatte schon relativ anspruchsvolle Maschinen,
Flugzeuge, Züge, alles Mögliche. Man hat aber immer noch die Berechnungen von Hand durchgeführt.
Hier rechts oben sehen Sie ein sogenanntes Comptometer-Büro des Bildes von 1929 in Chicago,
und solche Büros gab es wohl überall. Das waren Räume hauptsächlich mit Frauen, die mit, heute
würde man sagen, Taschenrechnern, also wo man das dann eintippt, Berechnungen durchführen. Und
sprich, der Leidensdruck war einfach groß, die Berechnung, und es gab viel zu berechnen,
das irgendwie zu automatisieren oder irgendwie zu erleichtern und auch zu beschleunigen. Die
erste Arbeit in die Richtung ist Alan Turing, Mathematiker aus England, und er hat quasi die
theoretische Grundlage gelegt für eine universelle Rechenmaschine. Er hat noch nicht so drüber
nachgedacht, wie das konkret technisch umgesetzt werden könnte, aber ihm ging es darum, dass man
praktisch mit einem Satz von Instruktionen letztendlich eine Rechenmaschine bauen könnte,
die universell jede Berechnung machen könnte, also ausführen könnte. Das war es schon mal von der
Seite, die Grundlage für alles, was dann später kam. Dann relativ zeitgleich, Claude Shannon,
hat in seiner Masterarbeit am MIT eine Arbeit geschrieben als Symbolic Analysis of Relay
and Switching Circuits. Claude Shannon hat Mathematik und Elektrotechnik studiert,
und er hat letztendlich die Brücke geschlagen und hat die Grundlage gelegt für digitale
Schaltungstechnik. Sie wissen vielleicht, alle Computer, alles was dann kam, basiert auf digitaler
Schaltungstechnik, und das war praktisch die Grundlage. Er hat eben gezeigt, dass man Arithmetik
und Buhlsche Logik mit Schaltern ausdrücken kann oder umsetzen kann. Und als letztes,
weil wir in Deutschland sind, muss man noch Konrad Zuse erwähnen. Das war ein deutscher
Ingenieur, und das Spannende ist, er war ein Praktiker, er war eigentlich kein Theoretiker,
und er ist aber trotzdem auf ähnliche Lösungen gekommen. Also er hat einfach Maschinen gebaut,
die das machen, ohne von den anderen zu wissen, und ist zu ähnlichen Lösungen gekommen. Die
erste Maschine war die Z1 1938, das war noch ein mechanischer Rechner, die aber schon mit
Binärzahlen gearbeitet hat. Leider durch diese mechanische Maschinerie hat er nie so richtig
funktioniert, aber später hat er wirklich großartige Computer gebaut und hat ja dann
auch eine Firma gehabt. Vielleicht noch zu dem Bild in der Mitte, das ist, man sagt,
der erste produktive, programmierbare digitale Rechner, Edzak in Cambridge 1949, und die Z1,
die können Sie auch bewundern, eine Nachbau im Deutschen Technikmuseum in Berlin. Es kam
hier schon der Hinweis auf die Informatik-Sammlung. In Erlangen, in der ISA-Sammlung am Rechenzentrum
haben wir eine Zuse Z23, das ist ein erstes Transistor-basiertes Computer von 1962, und
der funktioniert. Also wenn Sie da Interesse haben, ist es auf jeden Fall lohnenswert,
sich das mal da eine Führung anzuschauen. So, das ist das Design. Und da werden wir
jetzt kurz darauf eingehen, was jetzt da eigentlich das Durchschlagende war. Und selbst heute
alle Rechner basieren immer noch auf diesem Design. Es ist bekannt unter von Neumann Architektur
oder ich finde es, von Neumann hat nicht alles beigetragen dazu, man sagt auch Stored Program
Computer. So, was ist nun das Innovative an diesem Design? Das Erste ist, und das basiert
eigentlich auf den Ideen von Turing, diese Maschine ist programmierbar, und zwar mit
einem Satz von diskreten Anweisungen, also Direktiven. Und dadurch ist es universell
Presenters
Zugänglich über
Offener Zugang
Dauer
00:38:45 Min
Aufnahmedatum
2017-11-30
Hochgeladen am
2018-01-24 11:43:25
Sprache
de-DE
Die wissenschaftliche Simulation ist mit Ihrem hohen Rechenbedarf traditionell ein Hauptnutzer von Hochleistungsrechnern. Dabei stellen aktuelle Hochleistungsrechner die Speerspitze des technisch Machbaren dar. Im Vortrag wird diskutiert wie die Rechenleistung solcher Systeme zustande kommt, hierbei wird auch auf generelle Entwicklungen in der Rechnerarchitektur eingegangen.
Um die verfügbare Rechenleistung in realen Anwendungen effizient zu nutzen, werden hohen Anforderungen an die Programmierung gestellt.
Anhand einfacher Beispiele werden die Schwierigkeiten die mit der Programmierung von Hochleistungsrechnern einhergehen erläutert.