7 - Grundlagen der Rechnerarchitektur und -organisation [ID:10455]
50 von 752 angezeigt

Ja, schönen guten Tag, begrüße ich Sie nach der Pfingstpause zur nächsten Vorlesung

der Grundlagenrechner-Architektur.

Und ja, wir sind vor Pfingsten stehen geblieben, immer noch im Kapitel 2, bei Architektur

von Arbeitsspeichern.

Und ja, nochmal kurz zur Wiederholung, wir haben uns also damit beschäftigt, dass die,

um die Latenz zu erniedrigen, die man beim Zugriff von Prozessoren auf Speichern hat,

man diese SD-RAMs ja quasi erfunden hat.

Also SD-RAMs steht für Synchrones Dynamic RAM.

Dynamic nochmal, es ist also ein Speicher, der aus einer Speicherzelle aufgebaut ist,

über den der Inhalt flüchtig ist.

Das bleibt also nicht erhalten.

Wir müssen immer wieder mal die Information auffrischen.

Und in der Vergangenheit, bevor es die SD-RAMs Speicher gab, war die Situation eben so,

dass man ein vom Ablauf her komplexeres Protokoll zwischen Prozessor und Speicher etablieren musste.

Das also so aussah, dass erst einmal der Prozessor eine Anforderung an den Speicher stellte,

und der Beantwortete schickte erst einmal ein Acknowledge zurück und dann kam die Daten drauf.

Das dauerte insgesamt etwas länger, hatte aber den Vorteil, dass es, auch wenn der Ablauf komplexer ausschaute,

insgesamt elektronisch leichter zu realisieren war, weil dadurch konnten Speicherbausteine auch durch dieses asynchrone Protokoll

unabhängig vom Prozessor entwickelt werden.

Das ist jetzt eben nicht mehr der Fall, das war zu langsam, sondern man geht eben synchron zum Prozessortakt

bzw. zum Speichertakt voran und ist damit eben schneller.

So, dieses Blickchen hatte ich Ihnen schon mal gezeigt, da gehe ich jetzt noch mal ganz kurz drauf, um den Einstieg wieder zu finden.

Wir haben also den Speicher, der ist hier in verschiedene Bänken angeordnet

und die Bänke werden also alle zeitversetzt nacheinander adressiert,

sodass in einer Bank, in einer Bank befindet sich dann letztendlich eine Matrix von Speicherzellen,

die dann in der Zeile, pro Zeile ausgelesen werden

und dann holt man sich die entsprechenden Spalten gemäß der Adresse, die angelegt ist, heraus,

legt das ganze dann in diesen Datenpuffer und von dort wird es dann eben abgegriffen.

So, wir haben dann auch noch die Möglichkeit eines Burstzugriffes,

das heißt also, dass man die Adresse automatisch erhöht, also durch den Speicherkontroller selbst,

das heißt, ich muss die Adresse nur einmal auf den Bus legen, das sieht man also hier, Read A,

das soll also von der Adresse A etwas gelesen werden, dann dauert es eben zwei Takte,

das ist also die Latenz, bis der Inhalt dieser Adresse A auf den Bus herausgelegt wird

und jetzt muss man um die nachfolgende Adresse, weil häufig werden die Inhalte dann

in aufeinanderfolgenden Adressen ausgelesen bzw. angesprochen,

dann ist es nicht notwendig, nochmal hier eine Adresse A plus eins oder was anzulegen,

sondern automatisch werden gleich die nächsten Adressen mit ausgelesen

und das nennt man immer einen Burstzugriff und in der Regel ist diese Burstlänge

vier Byteinheiten oder vier Speichereinheiten lang.

So, dann kann man das Ganze eben auch nochmal mit, auf verschiedene Speicherbänke erweitern,

da gibt es dann dieses komplexere Bild hier und damit kann ich also nochmal,

wie hier unten zu sehen ist, die Bandbreite erhöhen.

So, jetzt kommen wir mal zu der Technologie, die heute üblich ist und zwar sind das die

Double Data Rate Technologien, also das heißt im Gegensatz zu den SD-Arms,

muss man eigentlich sagen, Single Data Rate, SD-Rams, also Synchron SD-Rams,

wird hier eben nicht nur mit der steigenden Taktflanke, sondern auch mit der fallenden Taktflanke

eine Information ausgelesen und da gibt es also verschiedene Technologien,

die sind jetzt hier die ersten Mal im Bild gezeigt, also da haben wir nochmal diesen SD-Ram,

der ist sinnigerweise hier unten, also das Bildchen ist jetzt umgedreht,

so dem wie es hier aufgezeigt ist in der Liste, in der Liste wollte ich so etwas die

Zugänglich über

Offener Zugang

Dauer

01:30:09 Min

Aufnahmedatum

2012-06-04

Hochgeladen am

2019-04-12 04:09:03

Sprache

de-DE

Ziel der Vorlesung ist, die Grundlagen beim Aufbau eines Rechners zu vermitteln. Dies beinhaltet die Grundkomponenten, wie das Leitwerk, das Rechenwerk, das Speicherwerk und das Ein-/Ausgabewerk. Ausgehend vom klassischen von Neumann-Rechner wird der Bogen bis zu den Architekturen moderner Rechner und Prozessoren geschlagen.

Grundprinzipien der Ablaufstuerung bei der Berarbeitung von Befehlen werden ebenso behandelt wie Aufbau und Funktionsweise eines Caches und die Architektur von Speichern im Allgemeinen. Das Konzept der Mikroprogrammierung wird erläutert. Ferner wird der Einstieg in die hardwarenahe Programmierung moderner CPUs mittels Assembler vorgestellt und erprobt. Aufbau und Funktionsweise peripherer Einheiten und Bussysteme werden ebenfalls behandelt.

Die Studierenden sollen am Ende der Vorlesung den Aufbau und die Funktionsweise der Architektur eines Rechners, z.B. eines PCs, und des darin enthaltenen Prozessors nicht nur kennen, sondern auch die Gründe für deren Zustandekommen verstanden haben.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen