Ja, wunderschönen guten Nachmittag. Wenn die letzten so eingetrudelt sind, dann starten wir mit der neuen
Folionswoche für GDI. Und zwei Sachen hätte ich anzukündigen. Einmal sieht man hier wieder den
berühmten Karton mit den Folienkopien. Also es war gerade von einer Kommilitonen bei mir, die
wollte einen Gutschein einlösen, gebe ihr das Skript, sagt sie, sie möchte ihr Geld zurück und
dann stellt sich heraus, das war der Gutschein vom letzten Semester. Also falls ihr mal einen
habt von diesem Semester, den ihr eintauschen möchte, dann möge ich das jetzt möglichst beitun.
Und dann haben wir festgestellt, beim Drucken der Skripten ist der letzte Teil der Skripten nicht
mit in die Folienkopien eingeflossen. Das drucken wir nach und verteilen es dann. Da kommt dann
noch eine E-Mail, ab wann es verteilt wird und wer sich es runterladen möchte, auf der Webseite steht
die Datei dann schon. Gibt es momentan irgendwie Fragen von Ihrer Seite zur Organisation? Fleißig
am Programmieren, Midis rauf und runter? Okay, kommt noch, kommt noch. Also heute müssen wir
ein Kapitel anfangen, das nicht gerade so zu den beliebtesten gehört, weil es relativ mathematisch
ist und auch relativ tief unten im Rechner sozusagen verborgen ist. Normalerweise kriegt
man diese Probleme gar nicht zu sehen, aber die Auswirkung dieser Probleme, sie sehen schon
interne Darstellung von Zahlen, das heißt die Zahlen, die wir im Rechner haben, müssten wir
irgendwie in Nullen und Einzen umformen, bzw. in Nullen und Einzen, die im Rechner drin stehen,
dann interpretieren können. Und warum ist das so kompliziert? Als die ersten Rechenmaschinen so
um 1600 gebaut wurden, da hat man probiert das Dezimalsystem nachzubauen, das heißt diese ganzen
Zahnräder hatten dann eben entsprechend zehn Zähne passend zum Zehnersystem und einfach
festgestellt, dass es sehr, sehr schwer ist, mit der Mechanik dieses Zehnersystem nachzubilden.
Und erst dann, als man bei diesen mechanischen Rechenmaschinen auf das Zweiersystem umgestellt
hat, war es auf einmal mechanisch viel einfacher. Erstaunlicherweise ist es auch, wenn man Computer
baut, einfacher, das Dualsystem zu verwenden, anstatt das Dezimalsystem, das hat vor allen
Dingen Kostengründe, die Chips müssen hier entwickelt werden und wenn man ein Zehnersystem
implementieren möchte, in so einem Chip braucht man viel, viel mehr Chipfläche, um die gleiche
sozusagen Funktionalität zur Verfügung zu stellen und damit gibt es immer den Kostendruck,
kleinere Chips, einfache Realisierung und das ist dann sozusagen die Spannungsfelde,
die Technik dann versuchen muss, so eine Lösung zu bekommen. Ja, was machen wir heute? Wir fangen
an mal mit positiven, negativen und reellen Zahlen und schauen mal, wie weit wir kommen.
Wahrscheinlich dann morgen logische Variablen und dann Kodierung der Zeichen.
Entschuldigung, ich bin ein bisschen erkältet. Also, die Verarbeitung und Speicherung von,
schauen wir mal, ob wir den Maus da noch ein bisschen wegkriegen, die Verarbeitung von
Zeichen im Rechner basiert darauf, dass wir immer Nullen und Einsen haben. Alles, was wir da stellen,
ob wir Zeichen, Zeichenketten, logisch variablen Zahlen da stellen, haben wir nur die Nullen
und Einsen zur Verfügung. Wir können aber Folgen davon bilden und diese Folgen benutzen
dann sozusagen als Nummer, als Ordinalzahl eine Information und sagen dann, wenn diese Zahl die
42 ist, dann ist vielleicht das 42ste Zeichen gemeint oder vielleicht auch die Integerzahl 42.
Und diese Nullen und Einsen realisieren daher, dass man technisch gesehen das als Spannung
realisieren kann, nämlich Spannung ein, aus Strom fließt, Strom fließt nicht. Und das ist sehr viel
einfacher elektrotechnisch festzustellen, ob sozusagen keine Spannung an nicht kein Strom
fließt oder ob vielleicht 0,5 Volt, 0,7 Volt, 0,9 Volt fließen. Also, man kennt nur diese beiden
Zustände, die sind klar zu trennen. Hätte man zehn verschiedene Spannungsebenen, mit denen man die
Daten darstellen wollte, dann wäre das technisch sehr viel schwieriger. Wir haben schon ein paar
Begriffe, die wir häufig verwenden, nämlich das Bit und das Byte und das Wort. Hier jetzt noch mal
nachträglich dann die Definition. Das Bit ist also die Kleinseinformationseinheit, mit der wir es
zu tun haben. Man unterscheidet zwei Zustände, Nullen und Eins, die kann man interpretieren als
Ja oder Nein, richtig oder falsch. Ein Byte ist dann eine Folge von 8 Bit. In der Informatik hat
sich die 2 eben sehr stark durchgesetzt. Das heißt, man gruppiert Mengen häufig in Zweiergröpchen
und 2 hoch 3 ist 8. Schon 2 hoch 8 ist 256 und diese 256 Zeichen, die haben ursprünglich mal
ausgereicht, um alles das zu codieren, was Telegrafen so alles gebraucht haben. Da gibt's,
Presenters
Zugänglich über
Offener Zugang
Dauer
01:27:21 Min
Aufnahmedatum
2011-05-24
Hochgeladen am
2018-05-07 14:49:37
Sprache
de-DE
Einführung in UNIX/Linux Einführung in die Programmierung mit Java Grundlagen der Rechnerarchitektur Programmiersprachen: von der Maschinensprache zur Objektorientierung Objektorientierte Programmierung Datenstrukturen und Algorithmen: Suchen und Sortieren, Listen, Keller, Bäume Internet, Verteilte Systeme