9 - Grundlagen der Rechnerarchitektur und -organisation [ID:10457]
50 von 822 angezeigt

Ja, schönen guten Tag, begrüße Sie zur Volllesung Rechner. Ich bin heute diese Woche.

Was ich Ihnen nochmal nachtragen wollte, ich habe es jetzt eben nochmal probiert, vor zwei Wochen hatte ich Ihnen nochmal gezeigt,

diese Möglichkeit FPGA Boards über das Netz zu konfigurieren und auch zu programmieren.

Und jetzt habe ich es gerade eben nochmal probiert, weil letzte Woche lag der Server aufgrund des Stromausfalls,

der in Trenenlohe war, übers Wochenende und Montag hinaus da da nieder.

Und ja, ich habe das nochmal eingeführt in dem Beispiel, zusammen machen mit PIO.

Und wenn Sie sich da erinnern, das war so, wir hatten also in diesen FPGA einen Mikrocontroller reinprogrammiert.

Und der sollte je nachdem, wenn ich diese Switches, die unten da gezeigt sind, auch ich sehe sie hinten besser zu erkennen als bei mir hier ganz vorne,

wenn ich die betätige, da kann ich also ein 1.0-Muster einstellen, dann wird dies entweder auf der sieben-Segment-Anzeige hier ausgegeben,

dann eben Hexcode bzw. BNR-Code hier auf der LED-Leiste.

Und welches Ausgabegerät, welche Peripherie gewählt wird, wird über den Button gesteuert, den ich hier drücken kann.

Und über ein Webinterface kann ich all diese Knöpfe da steuern.

Und jetzt schalte ich mal hier die 1 ein, vorhin hat es noch funktioniert, ich hoffe, es klappt jetzt auch.

So, jetzt habe ich hier die 1 gedrückt und ja, und Sie sehen, es geht hier auf diesem I.O. Board die Lampe an

und auch beim Display hier ging der Wert auf 1.

Das heißt, dass hier die 1, ich habe jetzt virtuell diesen Switch gedrückt über das Webinterface und über ein spezielles Kärtchen,

das wir hier gebaut haben, wird ein Signal eingespeist, das hätte ich tatsächlich per Hand diesen Schalter gedrückt.

Und hier zeigt das jetzt daneben an und ergibt eine 1 aus und jetzt mache ich nochmal eine 1.

So, dauert natürlich ein bisschen bis es übertragen ist, es geht jetzt also über VLAN.

So, jetzt ist die zweite Lampe angegangen und hier ging das Ganze auf 3.

So, wenn ich jetzt nochmal den Button drücke, Button 0, also den hier habe ich gedrückt,

dann müsste in einer bestimmten Zeit, ja, gehen auch hier die LEDs hier unten an.

Und das war genau also eine Realisierung des Beispiels, was ich Ihnen mit Hilfe eines Simulators am Ende des Kapitels 2 war,

als wir Programmed I.O. behandelt haben, gezeigt habe.

Gut, also jetzt wollte ich jetzt nochmal nachreichen, dass das auch wirklich funktioniert.

Dann können wir das hier für heute schon mal schließen, das werden wir nicht mehr brauchen.

Und da gehe ich dann schon mal woanders hin.

So, dann machen wir weiter mit der Vorlesung.

Wir haben also noch eine letzte Woche uns beschäftigt mit den Multikernarchitekturen.

So, da haben wir nochmal aufgehört.

Ja, ich habe Ihnen also nochmal zum Absch-. Wir haben verschiedene Architekturen uns angeguckt,

Architekturkonzepte vom Pipelining angefangen, Superskalar, Very Long Instruction Word,

Explicitly Powered Instruction Computing, EPIC, ganz wichtig, die Multistrading-Architekturen

und sind zum Schluss bei Multikernarchitekturen angekommen.

Ich hatte Ihnen dann nochmal eine Motivation gegeben am Anfang, was der Grund eigentlich war,

dafür, dass wir jetzt überall Multikernarchitekturen haben, also mehrere Kerne in den Prozessoren integriert.

Und es sollte rüberkommen, dass das vor allem jetzt nicht unbedingt ein besonderer Wunsch seitens

der Prozessorhersteller war, parallel Rechentechnik einzuführen, eigentlich weit gefehlt.

Die haben sich eher ein bisschen probiert, eher gesträubt und versucht, das weit nach hinten zu schieben.

Denn die ganzen Programme, auch die Anwender, die ganzen Programme, die alle mal von Single-Core

auf Multi-Core zu übertragen, ist nie unbedingt eine einfache Aufgabe.

Aber aufgrund vor allen Dingen technologischer Randbedingungen ging mir dazu über, zu sagen,

wir müssen jetzt eine echte Parallelität haben bei den einzelnen Kernen, bei den Prozessoren.

Und nicht bloß eine versteckte Parallelität, wie beispielsweise was wir bei Multistrading-Architekturen haben,

oder auch bei Superpipelining bzw. bei Superskalanen-Architektur, wo versucht wird, innerhalb des Prozessors

aus einem seriellen Befehlsstrom die Parallelität rauszuziehen.

Das meine ich hier mit echter Parallelität, also wirklich eine Vervielfältigung von Prozessorkern.

Ja, damit haben wir also aufgehört. Das zeigt also eine helle Mikroarchitektur, die beispielsweise

in den Intel Core iX, also i3, i5, i7 implementiert ist.

Und Mikroarchitekturen, also das ist nun mal bei Intel, geht es so nach diesem Pink-Pong-Prinzip.

Zugänglich über

Offener Zugang

Dauer

01:27:45 Min

Aufnahmedatum

2012-06-25

Hochgeladen am

2019-04-12 17:59:03

Sprache

de-DE

Ziel der Vorlesung ist, die Grundlagen beim Aufbau eines Rechners zu vermitteln. Dies beinhaltet die Grundkomponenten, wie das Leitwerk, das Rechenwerk, das Speicherwerk und das Ein-/Ausgabewerk. Ausgehend vom klassischen von Neumann-Rechner wird der Bogen bis zu den Architekturen moderner Rechner und Prozessoren geschlagen.

Grundprinzipien der Ablaufstuerung bei der Berarbeitung von Befehlen werden ebenso behandelt wie Aufbau und Funktionsweise eines Caches und die Architektur von Speichern im Allgemeinen. Das Konzept der Mikroprogrammierung wird erläutert. Ferner wird der Einstieg in die hardwarenahe Programmierung moderner CPUs mittels Assembler vorgestellt und erprobt. Aufbau und Funktionsweise peripherer Einheiten und Bussysteme werden ebenfalls behandelt.

Die Studierenden sollen am Ende der Vorlesung den Aufbau und die Funktionsweise der Architektur eines Rechners, z.B. eines PCs, und des darin enthaltenen Prozessors nicht nur kennen, sondern auch die Gründe für deren Zustandekommen verstanden haben.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen