Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Darf ich Sie herzlich begrüßen, Nummer 2 Informationstheorie. Schön, dass Sie da sind.
Irgendwie die Botschaft, es geht erst um halb neun und nicht um viertel nach acht an,
die führt wohl dazu, dass um dreiviertel nach neun die Leute kommen.
Mal schauen, aber schön, dass Sie da sind.
Gestern habe ich mich so gefreut, dass so viele da waren.
Vielleicht war auch manches nicht so, wie Sie sich das vorgestellt haben.
Ich habe jetzt ein paar Seiten aus einer Präsentation kurz eingeschaltet.
Von einem populärwissenschaftlichen Vortrag, den ich vor drei Jahren im Museum für Post- und Telekommunikation in Nürnberg,
oberster Stockwerk vom Verkehrsmuseum gehalten habe, weil dort eine Ausstellung zu Globemann war.
Aus diesem Vortrag möchte ich Ihnen ein bisschen was zeigen.
Ich habe für eine österreichische Zeitschrift ein Paper dazu geschrieben.
Das drücke ich Ihnen aus oder wir stellen es online.
Dann können Sie das auch herunterladen.
So als Überblick ein bisschen.
Aus den ersten Seiten habe ich gleich überblättert.
Das ist also diese Aussage von gestern 1948.
Marraill Hill, New Jersey.
AT&T-Perlapse. Dort wird die Welt verändert.
Da ist der Start des Übergangs von Industrie zum Informationszeitalter.
Der Schennen hier, etwa im Jahr 1948 als 32-Jähriger zu sehen.
Die berühmteste Formel, an die wir lange hinarbeiten würden, um die zu beweisen, ist diese.
Die hat enorme Implikationen.
Die Leute, die schon in der Nachrichtentechnik sind, kennen die Formel und wissen, dass wir ihnen den Beweis versprochen haben.
Also ein bisschen zu was zur Historie.
32, Bachelor in Mathematik und Elektrotechnik. 32, 16 Jahre.
36, 20-Jährig. Dann die Masterarbeit über die Pulsche Algebra.
Ich habe eigentlich gemeint 38.
Dann die Doktorarbeit in Elektrotechnik, nicht in Mathematik.
Das war eine Arbeit über den genetischen Code, was jetzt wieder sehr modern geworden ist.
Das machen wir auch. Informationstheorie zu nutzen, um den genetischen Code zu analysieren.
Wir sind da auf der Suche des fehlerkorrigierenden Codes.
Wie kann das passieren, dass Mutationen in einer Nachfolgegeneration wieder wachsen?
Da spielen solche Dinge sicher eine Rolle.
Natürlich war das viel zu früh, weil Shannon noch nichts von der DNA wusste.
Das kam alles viel später.
Dann war er 15 Jahre bei den Bellabs und hat die Informationstheorie gegründet.
Dann war er 10 Jahre Professor am MIT. Mit dem 50. Geburtstag hat er gesagt, das mag ich nicht mehr.
Weitere Erfindungen usw. habe ich schon gesagt.
Am 27. Februar 2001 ist er gestorben.
Das Ende war bitter. Er war von 1986 an dement.
Er hat lange Jahre hinweg getämmert.
Das letzte Mal, 1991, also 10 Jahre vor seinem Tod, hat er öffentlich aufgetreten.
Ich habe ihn 1984 einmal getroffen. Ich hinten im Hörsaal und er vorne auf der Bühne.
Aber nicht näher.
Das ist ein Spielzeug von ihm gewesen.
Die Maus im Labyrinth, das ist ein Brett, wo man die Wände beliebig einstecken könnte.
Die Maus wird von unten über ein Magneten geführt.
Über was die Maschinenbauern in Kreuz support nennen.
Wie man das Werkzeug bei einer Drehbank bewegt.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:30:47 Min
Aufnahmedatum
2015-04-15
Hochgeladen am
2015-04-15 11:21:41
Sprache
de-DE
Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.