8 - Informationstheorie [ID:4922]
50 von 688 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

So, also guten Morgen zusammen zur ersten Übung Informationstheorie.

Bevor wir anfangen möchte ich ein paar generelle Sachen zur gesamten Übung an sich sagen,

auch wie es ablaufen wird. Was ihr vielleicht schon festgestellt habt ist erstens mal im Studon,

die ersten zwei Übungsblätter sind bereits online. Es ist bei uns nicht so, dass ein Übungsblatt

einen Übungstermin abhandelt, sondern wir werden heute zum Beispiel Übungsblatt 1 und

Übungsblatt 2 machen. Also das hängt immer ein bisschen davon ab, wie viel Zeit jedes Übungsblatt

für sich benötigt und wie weit man kommt. Es werden auch die Lösungen online gestellt,

nach der Übung in der Regel. Das heißt, ihr könnt mitschreiben, ihr müsst nicht mitschreiben.

Ich werde in der Regel, wenn ich hier die Übungen vorrechne, ist es häufig so, dass bei einigen

relativ viel Mathematik dabei ist, wo man einfach nur relativ stur ausrechnen muss. Das ist natürlich

nicht das, worauf wir eigentlich hinaus wollen, ist aber in so einem Fach wie Informationstheorie

zum Teil unvermeidbar. Das bedeutet, ich werde den Fokus in der Übung nicht so sehr aus ausrechnen

legen, sondern ich möchte mich wirklich darauf konzentrieren, dass ihr versteht, was die einzelnen

Konzepte bedeuten. Was kann man wirklich unter, in unserem Beispiel jetzt hier Entropie verstehen,

was kann man wirklich unter wechselseitiger Informations verstehen, in dem Sinne, dass

ihr eine intuitive Bedeutung von dem Ganzen erfasst. Das Ganze ist natürlich trotz allem

relativ theoretisch, wie der Name schon anzeigt, Informationstheorie. Die tatsächlichen Anwendungen,

also die richtig anwendungsnahen Aufgaben, werden wir in der Übung hier leider nicht finden. Dafür

gibt es andere Vorlesungen. Das Problem ist ganz einfach, dass die Informationstheorie zwar die

Basis für vieles oder für fast alles bildet, was heute in der aktuellen Nachrichtenübertragung

benutzt wird, selbst aber halt nur sehr rudimentär anwendbar ist. Sondern was dann wirklich benutzt

wird, sind eher die Ergebnisse daraus. Deswegen nochmal Wiederholung von dem, was ich gerade schon

gesagt habe. Mir ist es wichtig, dass ihr wirklich versteht, was die einzelnen Konzepte sind, wie die

Zusammenhänge da sind und da auch dann logischerweise bitte keine Zurückhaltung mit irgendwelchen

Fragen, wenn irgendwas unklar ist, sondern immer schön raus damit. Es kann durchaus sein, dass ich

dann eben einige Sachen vielleicht nochmal erklär, die in der Vorlesung von Professor Huber schon ein,

zwei mal ausführlich besprochen sind. Ihr könnt euch sicher sein, wenn das vorkommt, dann sind

das meistens relativ wichtige Dinge, wo wir eben wirklich Wert darauf legen, dass ihr die verinnerlicht

habt, was das Ganze bedeutet. Heute wird es relativ stark erstmal mit den Basics loslegen,

also sprich, was bedeutet eigentlich Entropie nochmal, was bedeutet eigentlich wechselseitige

Informationen und das Ganze ein bisschen auch in Hinblick dann darauf, wie sich das Ganze in

Zusammenhang, wenn man verschiedene Zufallswariablen betrachtet, verhält. Wenn wir zum Beispiel mal die

erste Aufgabe direkt anschauen, haben wir einfach drei binäre Quellen gegeben, x, y und z. Die haben

irgendeine Verbundwahrscheinlichkeit gegeben und jetzt ist man eben an den einzelnen Entropien

interessiert. Einerseits den einzelnen Entropien der einzelnen Quellen, dann den bedingten Entropien

und zuletzt noch den Verbundentropien. Und da möchte ich direkt mal anfangen, wiederholen,

was ist eigentlich nochmal Entropie? Aus der Vorlesung wisst ihr, Shannon hat ein Informationsmaß

definiert, minus Logarithmus der Wahrscheinlichkeit eines Ereignisses. Die Entropie ist nichts anderes,

als der Mittelwert dieses Informationsmaßes über alle Ereignisse einer Zufallswariablen. Das Problem

ist an dieser Definition oder das Problem, das ich sehe an dieser Definition, ist immer, dass es in

meinen Augen relativ unintuitiv ist. Das bedeutet, ich bezeichne die Entropie in der Regel nicht als

Mittelwert von Informationen, wie es definiert ist, sondern was ich gerne sage oder was auch Professor

Huber relativ gerne sagt, ist, ich schaue mir Entropie als Maß für die Unsicherheit einer

Zufallswariabel an. Was bedeutet jetzt Unsicherheit? Unsicherheit ist relativ einfach. Und zwar kann

man sich das so vorstellen, je weniger Ahnung ich über das Ergebnis einer Zufallswariabel habe,

umso unsicherer ist sie. Man kann das an einigen Beispielen relativ einfach sich veranschaulichen.

Klassisches Beispiel ist jetzt der Münz oder auch der Würfelwurf. Wenn ich einen fairen Würfel

habe, das heißt, jede Seite kommt mit einer Wahrscheinlichkeit von einem Sechstel, dann ist

meine Unsicherheit in diesem Fall maximal, weil ich keinerlei Informationen darüber habe, welches

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:28:58 Min

Aufnahmedatum

2015-05-06

Hochgeladen am

2015-05-06 10:35:17

Sprache

de-DE

Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen