Willkommen zum Jubiläumsvortrag in der Reihe 50 Jahre RACD und heute ist das Thema der
unstillbare Hunger nach Rechenleistung 25 Jahre High Performance Computing am RACD.
Mein Name ist Jan Eitzinger und der Plan ist folgender, wir sind ja eine Bildungseinrichtung
irgendwo oder gehören wenigstens zu einer Bildungseinrichtung, deswegen habe ich mir
gedacht, muss der Vortrag auch ein bisschen Content vermitteln. Der Vortrag wirkt praktisch
ein Abriss für jemanden, der noch nie was von Rechenarchitektur gehört hat, über Rechenarchitektur
und wirklich von den Beginnen bis heute auf einem Niveau, wo ich hoffe, dass das jeder
versteht und auch die, die sich auskennen, nicht gelangweilt sind und da eingestreut
werden immer wieder Rechner in unserer 25-jährigen Historie am RACD. Also welche Architekturen
hatten wir hier, wie ordnen die sich in die Rechenarchitektur ein und wie war so die Entwicklung?
Also das ist der Plan und noch ein paar Anekdoten zwischendrin von Sachen, die hier so passiert
sind um das Thema HPC. Okay, dann starten wir mal durch. Die erste Folie ist natürlich
die Top 500 Liste. Wenn man von HPC in der Öffentlichkeit was mitkriegt, dann ist es
die Top 500 Liste. Was sagt diese Liste aus? Die plottet über die Jahre, zweimal im Jahr
wird sie veröffentlicht auf zwei Konferenzen, eine in den USA, eine in Deutschland. Die
Performance von einem bestimmten Benchmark, das ist ein arithmetisch rechenlimitierter
Benchmark, LINPACK heißt der, da gibt es immer große Diskussionen, ob das aussagekräftig
ist, aber das wird nicht diskutiert. Das Ding ist Gesetz und wer da drin steht, ist schnell
und gut. Das ist logarithmisch hier, das ist ganz wichtig, weil HPC, da ging es immer
darum, dass man exponentielles Wachstum hat, das war immer das, was so propagiert wurde
und an die Öffentlichkeit gebracht wurde. Man sieht, das hat auch lange Zeit ganz gut
hingehauen, seit 2010, 2012 sieht man aber hier schon so gewisse Tendenzen und logarithmisch
sieht man das nicht so gut, aber das flacht ab. Wir werden in dem Vortrag darauf eingehen,
warum das abflacht. Hier rechts sehen Sie eine Liste von allen Systemen der letzten
25 Jahre. Wirklich interessant wurde es eigentlich hier, die Convex war auch in den Top 500,
aber die habe ich jetzt mal rausweggelassen. Das erste System, was wir hier hatten, war
die VPP. Am Anfang war das Rechenzentrum praktisch gedacht als Zulieferer zum LAZ, das LAZ hat
da immer HPC Ressourcen und die Idee war, dass hier in Erlangen eine ähnliche Maschine
wie am LAZ in Garching ist, sodass die Leute darauf vorbereitet werden und dann der Übergang
nach München reibungslos vonstatten geht. Zu dem Zeitpunkt war im LAZ eine Fujitsu VPP
600, das war ein Vector-Rechner und dementsprechend hat Erlangen eine kleinere Version davon
eine VPP 300 bekommen und das hat damals, das war ja noch die Frühzeit der Top 500-Liste,
ich weiß nicht, ab wann gibt es die? 94 glaube ich, 94, 344, das ist auch immer so die Hausnummer,
wo wir immer so eingestiegen sind. Die Linien, die man hier sieht, die unterste Linie ist
der letzte Platz, dann der mittlere ist die Nummer 1 und die grüne Linie hier oben, das
ist die aggregierte Leistung der ganzen Liste. Jetzt kann man sich denken, 344 und wir kratzen
hier unten am Platz 500 rum, wie kommt denn das? Das ist natürlich nicht linear verteilt,
sondern ich sage mal die letzten 2, 300, die sind sehr eng beieinander, weil die halt,
mit dieser Leistung gibt es dann halt einfach wahnsinnig viele und deswegen fällt man dann
auch sehr schnell aus der Liste raus, weil es eben schon so viele gibt, die vielleicht
nur ein kleines bisschen langsamer sind und das nicht mehr auf die Liste geschafft haben.
Also wir sind hier eingestiegen 1997 mit der VPP 300, dann war der nächste Rechner eine
Convex SPP 1000, das war ein klassischer RISC SMP-System, die war, ich glaube die war auch
in der Liste, aber ich habe sie hier nicht reingeschrieben. Dann das nächste größere
System, das etwas höher eingestiegen war, war der Transtec Cluster. Die Rechner hier
davor, das waren so richtige HPC Architekturen und was ich damit meine ist, dass das Architekturen
waren, die wirklich dediziert für HPC entworfen und konstruiert waren. Der Transtec Cluster
war das erste Mal ein System, wie nennt man das, BioWolf oder vom Laster gefallen, Standard-Server,
ganz viele davon mit einem Netzwerk zusammengeschustert, möglichst günstig und das ist eigentlich
seitdem das, was wir jetzt haben aus Kostengründen und der Transtec war das erste System hier
Presenters
Zugänglich über
Offener Zugang
Dauer
01:26:49 Min
Aufnahmedatum
2018-06-07
Hochgeladen am
2018-06-08 01:39:03
Sprache
de-DE
Das RRZE war schon immer ein wissenschaftliches Rechenzentrum, in dem Forscher alle möglichen Fragestellungen bearbeiten, für die Computer hilfreich sind. Aber erst seit Anfang der 1990er Jahre sind in Erlangen dedizierte Systeme für das „Number Crunching“ verfügbar, deren Architektur speziell auf den Umgang mit großen Datenmengen und anspruchsvollen numerischen Problemen zugeschnitten war. Diese Hochleistungsrechner unterschieden sich deutlich von den damals bereits allgegenwärtigen PCs, die auf und unter jedermanns Schreibtisch zu finden sind. Deswegen, und auch wegen ihrer Unzugänglichkeit in abgeschotteten klimatisierten Rechnerräumen, umgibt diese Supercomputer schon immer ein Hauch des Geheimnisvollen: Wozu braucht man sowas, wer nutzt es, und was kostet es? Dr. Jan Eitzinger wirft historische Schlaglichter auf die Erlanger Superrechner, zeigt ihre Möglichkeiten und Grenzen auf und erklärt, wofür sie von Wissenschaftlern genutzt werden.