Willkommen zur Systemausbildung, Grundlagen und Aspekte von Betriebssystemen und systemnahen
Diensten. Heute die Folge Virtualisierung. Ich habe in meinen Unterlagen nachgeschaut,
das letzte Mal war 2016 und es ist dann immer wieder spannend, wenn man in der Vorbereitung
von unserem Vortrag drauf schaut, was sich alles geändert hat seitdem und da haben wir
heute auch ein bisschen dann reinschauen. Die obligatorischen Hinweise, der Vortrag wird
aufgezeichnet, sie haben alles richtig gemacht, es ist keiner in der ersten Reihe, sodass er
vielleicht mit seinem Hinterkopf eher auf der Aufzeichnung drauf ist. Aber ansonsten,
Sie wissen, während der Veranstaltung wird es aufgezeichnet, wenn Sie Fragen haben,
die Sie lieber im kleinen Rahmen stellen wollen, gerne auch im Nachgang. Worum geht es heute? Die
Frage ist also wirklich so der grundsätzliche Rundumschlag, woher kommt Virtualisierung?
Wo gibt es das? Was können wir heutzutage virtualisieren? Wo ist das sinnvoll? Was machen
wir das? Wer macht sowas? Was gibt es für Produkte dafür? Und wie schauen die klassischen
Anwendungen bei uns aus? Und nochmal so ein Ausblick einfach auch, wo stehen wir heute?
Was hat sich in der letzten Zeit getan an der Ecke? Und was sind vielleicht auch so ein bisschen
Trends? Woher es kommt ist so ein kleiner geschichtlicher Ausblick. Das ganze Thema
ist erstaunlich alt, kommt aus den 1970er Jahren, als es auf den großen IBM Großrechnen
das erste Mal das Problem gab, dass der Rechner eigentlich zu groß ist für die konkrete Anwendung.
Und man sich dann überlegt hat, wie kann man einen echten Prozessor oder mehrere echte
Prozessoren so aufteilen, dass man dort mehrere voneinander unabhängige Anwendungen drauf
ausführen kann. Und Poppik und Goldberg haben dann mal so als theoretische Informatiker
da drei Forderungen aufgestellt, nämlich zum einen die Äquivalenz, das heißt die
virtuelle Maschine muss sich genauso verhalten wie das echte Blech, zweitens die Ressourcenkontrolle
und Sicherheit, das heißt es muss klar sein, dass es nicht möglich ist die Grenze der
eigenen virtuellen Maschine zu durchbrechen und das dritte ist eben die Frage der Effizienz.
Also man kann sicherlich immer irgendwie so eine Virtualisierung herstellen, aber die
Frage ist, ist es auf effiziente Art und Weise möglich, wo man idealerweise wäre, dass
einfach es keinen Overhead für die Verwaltung der verschiedenen VMs gibt. Das wird man
nicht ganz hinkriegen, aber wir stellen fest, dass man heutzutage so vielleicht mit 10%
Overhead ganz gut hinkommt. Und für diese EBM Systeme gibt es eben schon unheimlich
lange, was ein bisschen schwieriger war und deswegen sieht man hier auch den großen Zeitsprung
drin war das Ganze auf eine Intel X86 Architektur zu verfügen zu stellen. Wir werden doch gleich
sehen warum, aber da hat VMWare, das auch aus einem MIT Projekt raus kam, haben das
erste Mal eine funktionierende, leistungsfähige Virtualisierung für die Intel Architektur
zur Verfügung gestellt, den VMWare GSX Server und da gab es dann mehrere Iterationen, es
gab dann VMWare Server und später auch das was wir heute unter ESXi kennen, aber das
schauen wir uns dann nochmal im Detail an. Letztlich läuft das immer noch auf diesem
auf diese Entwicklung zur Jahrtausendwende hinweg. Dann gab es die erste wirklich freie
Lösung, war 2004 das Xen Project, das ist inzwischen von Citrix gekauft und auch Microsoft
hat 2008 eine eigene Hyper-V Lösung mit Hyper-V vorgestellt, das ist das was wir heute in
jedem Windows Server und eigentlich auch in jedem normalen Windows 10 als Hypervisor Engine
finden. Der neueste Spaß in der Ecke ist, dass man zum Beispiel auf einem aktuellen
Windows 10 problemlos ein Linux Betriebssystem starten kann, was Microsoft intern dann in
der Virtual Machine auf dem System zur Verfügung stellt. Und, wenn wir dann in so ein bisschen
andere Richtung, was dann immer klassische Virtualisierung gehen ist, 2013 hat Docker
die erste Version zur Verfügung gestellt, hat sich nachher auch in Docker Ink umbenannt
und da wollen wir mal gucken, was denn da anders ist als an den vorherigen Ansätzen.
Grundsätzlich, wenn wir so in die Definition gehen, Virtualisierung stellt die Hardware
Ressourcen einer physikalischen Maschine an mehrere Betriebssystemumgebungen zur Verfügung.
So eine Betriebssystemumgebung ist das was wir als VM bezeichnen. Und da läuft ein kompletter
Betriebssystemkern auch auf einer richtigen VM läuft ein komplettes Windows, Linux, was
Presenters
Daniel Götz
Zugänglich über
Offener Zugang
Dauer
01:27:45 Min
Aufnahmedatum
2019-07-10
Hochgeladen am
2019-07-11 01:09:02
Sprache
de-DE
Virtuelle Umgebungen sind heutzutage eher die Regel als die Ausnahme im Serverbetrieb. Aber auch im Desktop-Bereich und selbst auf Mobiltelefonen stößt man auf virtualisierte Systeme. Von den klassischen Vertretern wie Xen, VMware oder Hyper-V bis hin zu containerbasierten Lösungen wie Docker gibt es für fast alle Anforderungen eine passende Lösung zur Virtualisierung.
Diese Veranstaltung gibt einen Überblick über grundlegende Konzepte und aktuelle Virtualisierungslösungen. Dabei wird auch auf betriebliche Aspekte einer Virtualisierungsumgebung eingegangen.