Ja, schönen guten Tag, begrüße ich Sie nach der Pfingstpause zur nächsten Vorlesung
der Grundlagenrechner-Architektur.
Und ja, wir sind vor Pfingsten stehen geblieben, immer noch im Kapitel 2, bei Architektur
von Arbeitsspeichern.
Und ja, nochmal kurz zur Wiederholung, wir haben uns also damit beschäftigt, dass die,
um die Latenz zu erniedrigen, die man beim Zugriff von Prozessoren auf Speichern hat,
man diese SD-RAMs ja quasi erfunden hat.
Also SD-RAMs steht für Synchrones Dynamic RAM.
Dynamic nochmal, es ist also ein Speicher, der aus einer Speicherzelle aufgebaut ist,
über den der Inhalt flüchtig ist.
Das bleibt also nicht erhalten.
Wir müssen immer wieder mal die Information auffrischen.
Und in der Vergangenheit, bevor es die SD-RAMs Speicher gab, war die Situation eben so,
dass man ein vom Ablauf her komplexeres Protokoll zwischen Prozessor und Speicher etablieren musste.
Das also so aussah, dass erst einmal der Prozessor eine Anforderung an den Speicher stellte,
und der Beantwortete schickte erst einmal ein Acknowledge zurück und dann kam die Daten drauf.
Das dauerte insgesamt etwas länger, hatte aber den Vorteil, dass es, auch wenn der Ablauf komplexer ausschaute,
insgesamt elektronisch leichter zu realisieren war, weil dadurch konnten Speicherbausteine auch durch dieses asynchrone Protokoll
unabhängig vom Prozessor entwickelt werden.
Das ist jetzt eben nicht mehr der Fall, das war zu langsam, sondern man geht eben synchron zum Prozessortakt
bzw. zum Speichertakt voran und ist damit eben schneller.
So, dieses Blickchen hatte ich Ihnen schon mal gezeigt, da gehe ich jetzt noch mal ganz kurz drauf, um den Einstieg wieder zu finden.
Wir haben also den Speicher, der ist hier in verschiedene Bänken angeordnet
und die Bänke werden also alle zeitversetzt nacheinander adressiert,
sodass in einer Bank, in einer Bank befindet sich dann letztendlich eine Matrix von Speicherzellen,
die dann in der Zeile, pro Zeile ausgelesen werden
und dann holt man sich die entsprechenden Spalten gemäß der Adresse, die angelegt ist, heraus,
legt das ganze dann in diesen Datenpuffer und von dort wird es dann eben abgegriffen.
So, wir haben dann auch noch die Möglichkeit eines Burstzugriffes,
das heißt also, dass man die Adresse automatisch erhöht, also durch den Speicherkontroller selbst,
das heißt, ich muss die Adresse nur einmal auf den Bus legen, das sieht man also hier, Read A,
das soll also von der Adresse A etwas gelesen werden, dann dauert es eben zwei Takte,
das ist also die Latenz, bis der Inhalt dieser Adresse A auf den Bus herausgelegt wird
und jetzt muss man um die nachfolgende Adresse, weil häufig werden die Inhalte dann
in aufeinanderfolgenden Adressen ausgelesen bzw. angesprochen,
dann ist es nicht notwendig, nochmal hier eine Adresse A plus eins oder was anzulegen,
sondern automatisch werden gleich die nächsten Adressen mit ausgelesen
und das nennt man immer einen Burstzugriff und in der Regel ist diese Burstlänge
vier Byteinheiten oder vier Speichereinheiten lang.
So, dann kann man das Ganze eben auch nochmal mit, auf verschiedene Speicherbänke erweitern,
da gibt es dann dieses komplexere Bild hier und damit kann ich also nochmal,
wie hier unten zu sehen ist, die Bandbreite erhöhen.
So, jetzt kommen wir mal zu der Technologie, die heute üblich ist und zwar sind das die
Double Data Rate Technologien, also das heißt im Gegensatz zu den SD-Arms,
muss man eigentlich sagen, Single Data Rate, SD-Rams, also Synchron SD-Rams,
wird hier eben nicht nur mit der steigenden Taktflanke, sondern auch mit der fallenden Taktflanke
eine Information ausgelesen und da gibt es also verschiedene Technologien,
die sind jetzt hier die ersten Mal im Bild gezeigt, also da haben wir nochmal diesen SD-Ram,
der ist sinnigerweise hier unten, also das Bildchen ist jetzt umgedreht,
so dem wie es hier aufgezeigt ist in der Liste, in der Liste wollte ich so etwas die
Presenters
Zugänglich über
Offener Zugang
Dauer
01:30:09 Min
Aufnahmedatum
2012-06-04
Hochgeladen am
2019-04-12 04:09:03
Sprache
de-DE
Ziel der Vorlesung ist, die Grundlagen beim Aufbau eines Rechners zu vermitteln. Dies beinhaltet die Grundkomponenten, wie das Leitwerk, das Rechenwerk, das Speicherwerk und das Ein-/Ausgabewerk. Ausgehend vom klassischen von Neumann-Rechner wird der Bogen bis zu den Architekturen moderner Rechner und Prozessoren geschlagen.
Grundprinzipien der Ablaufstuerung bei der Berarbeitung von Befehlen werden ebenso behandelt wie Aufbau und Funktionsweise eines Caches und die Architektur von Speichern im Allgemeinen. Das Konzept der Mikroprogrammierung wird erläutert. Ferner wird der Einstieg in die hardwarenahe Programmierung moderner CPUs mittels Assembler vorgestellt und erprobt. Aufbau und Funktionsweise peripherer Einheiten und Bussysteme werden ebenfalls behandelt.
Die Studierenden sollen am Ende der Vorlesung den Aufbau und die Funktionsweise der Architektur eines Rechners, z.B. eines PCs, und des darin enthaltenen Prozessors nicht nur kennen, sondern auch die Gründe für deren Zustandekommen verstanden haben.