18 - Informationstheorie [ID:5234]
50 von 632 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Okay, wir gehen mal guten Morgen zur Informationstheorie.

Ah, vor einer Woche habe ich Tanz ausgeteilt für das Evaluieren. Jetzt habe ich dummerweise vergessen nochmal mitzubringen.

Braucht noch jemand? Sie haben noch? Na, dann kommen Sie mit drauf. Sonst hätte ich vielleicht morgen nochmal mit. Aber das machen wir dann so.

Okay. Wir waren stehen geblieben in dem Thema Kapazität des ABGN-Kanals. Wir haben festgestellt, die Gaussche Zufallsvariable ist die zufälligste Zufallsvariable, wenn die mittlere Leistung, wenn die Variante gegeben ist.

Gleichleistung betrachtet man sowieso nicht. Wir sind mittelwertfrei. Man bekommt also da diesen Ausdruck für die differenzielle Entropie.

Ein halb Logorythmus von 2pE mal sigma Quadrat. Und der Vorfaktor ist also 2pE, ist der größte, den es hier an dieser Stelle geben kann. Es kann keinen größeren Vorfaktor geben.

Weißes, Gaussches, Rausschnitz sind statistisch unabhängige Werte. Das heißt, es ist auch kein Schätzen von der Vergangenheit auf die Zukunft möglich.

Der wehrt sich zurzeit ziemlich hart dagegen, dass er nie mehr ans Internet darf, der Rechner. Weil ich den nur für die Vorlesung zum Präsentieren verwende. Irgendwie weiß ich gar nicht, wo er diese komischen Meldungen herbringt.

Wir haben dann festgestellt, bei einer additiven Störung ist die wechselseitige Information zwischen Ein- und Ausgang die differenzielle Entropie am Ausgang minus der differenziellen Entropie der Störung.

Weil das ja fix ist, weil es AWGN-Kanal heißt, muss man also nur desmaximieren. Und das wissen wir auch, wie es geht. Wenn die Nutzleistung begrenzt ist und die Störleistung gegeben ist, dann ist die Summe aus beiden, nämlich Nutz plus Störung, am Ausgang begrenzt.

Das ist also Sigma Y Quadrat begrenzt und da muss das ebenfalls gaussisch sein. Ist klar, oder? Weil es das Beste ist. Und dann wissen wir, also wir müssen dafür sorgen, dass der Ausgang auch gaussverteilt ist.

Und das ist sehr einfach. Gauss gefaltet mit Gauss gibt wieder Gauss. Das heißt, wir müssen auch am Eingang eine Gaussverteilung haben. Das haben wir über die charakteristische Funktion bewiesen. Und da bekommen wir also schön ins Zweitberühmte, das ist die Gleichung.

Die Kapazität des reellen AWGN-Kanals ist also ein halbmal Logarithmus von 1 plus Signal-to-noise-Rechung. Und im Komplexen haben wir zwei solche Kanäle, dann fällt das ein halb raus. Dann haben wir Inphase und Quadraturkomponente.

Ok, das haben wir dann auch bewiesen. Das ist also unter der Maßgabe von Leistungsbegrenzung. Und dass das also nicht größer sein kann, haben wir gerade besprochen. Und dass es eine Gaussverteilung sein muss, das sehen wir.

Man kann also die Fourier-Rück-Transformation der Wahrscheinlichkeitsdichtefunktion machen. Und wenn man die Wahrscheinlichkeitsdichtefunktion zu falten hat, dann sind also diese sogenannten charakteristischen Funktionen, diese Fourier-Rück-Transformation, dann zu multiplizieren.

Und dann kann man entfalten, also die Frage beantworten, mit welcher Funktion muss ich eine andere falten, um ein bestimmtes Ergebnis zu bekommen. Das ist dann im Bereich der charakteristischen Funktionen, also im anderen Bereich, nur noch eine Division.

Ok? Gut. Und dann haben wir also dieses Ergebnis und dann haben wir also für den Maximalwert das noch gemacht und ein paar Kurven numerisch diskutiert.

Und da waren wir also vor einer Woche dann stehen geblieben. Und darum können wir jetzt an dieser Stelle weitermachen mit dem Thema der zeitkontinuierliche Additivweit-Gostian-Neuss-Kanal.

Das ist jetzt eine ganz einfache Verallgemeinerung, oder nein, nicht Verallgemeinerung, also ein Folgesatz eigentlich sozusagen. Wir sagen, wir haben zeitkontinuierliches weißes Rauschen mit der Rauschleistungsdichte ein halbe.

Sie wissen, historisch ist N0 für die einseitige Rauschleistungsdichte definiert worden, weil man bis etwa 1950 die zweiseitigen Spektren eigentlich noch kaum gekannt hat.

Und sich da mit diesem einseitigen Spektrum fürchtbar gemüht hat und fürchtbar viele Fehler gemacht hat. Ok. Und darum ist es jetzt historisch N0 halbe.

Die Leistung von weißen zeitkontinuierlichen weißen Rauschen, die ist nicht begrenzt. Das ist zumindest in der Theorie unendlich, weil die Bandbreite nicht begrenzt ist.

In der Praxis gibt es das natürlich nicht. Gott sei Dank, sonst wären wir in einem Feuerblitz sofort alle weg.

Aber es ist halt ein wunderbares Modell, weil es der zufälligste Zufallsprozess ist, den man sich vorstellen kann. Und damit ist es die Worst-Case-Störung schlechthin.

Und alle Gleichungen sind einfach und man hat für die Praxis auf jeden Fall einen Worst-Case analysiert.

So, das NUT-Signal, das wollen wir in eine Bandbreite einsperren und zwar zunächst einmal für Tiefpass-Signale, für Basisband-Signale. Also das Signal sei zwischen 0 und der Bandbreite Bx eingesperrt.

Und die Bandbreiten werden einseitig gemessen, also es ist im doppelseitigen Spektrum von minus Bx bis plus Bx. Außerhalb ist es nicht erlaubt, ein Spektrum zu haben.

Wie es da drin ausschaut, das müssen wir noch diskutieren.

Das nennt man also den bandbegrenzten zeitkontinuierlichen AWGN-Kanal. Das NUT-Signal ist auf eine Bandbreite begrenzt.

Typisch halt im Funkbereich, das ist allerdings kein Basisband-Signal, dass die halt ein Band zugewiesen haben, da dürfen sie senden. Und im Nachbardampfband darf halt ein anderer senden und so weiter.

Also die Bandbreite ist ein, wissen wir ja aus der Nachricht, ein teures Gut. Es sind gerade wieder 5 Milliarden Eingenommen worden für die Versteigerung von Bandbreiten.

Wo der Staat das Recht hernimmt, dass ihm die Bandbreite gehört und er sie verkaufen kann, das ist mir allerdings schleierhaft.

Ok. Gut. Also jetzt kennen wir das Abtasttheorien. Das Abtasttheorien besagt, dass ein strikt bandbegrenztes Signal auf die Bandbreite Bx, strikt bandbegrenztes Signal,

durch 2 Bx Abtastwerten pro Sekunde vollständig repräsentiert ist, ohne jeden Fehler. Ist das verstanden? Wie beweist man das?

Wenn Sie sich erinnern, wenn wir also hier dieses Originalspektrum haben und wir tasten ab, ein bisschen schneller als mit der doppelten Frequenz,

dann wird das periodisch fortgesetzt und der Abstand hier ist also die Abtastfrequenz.

Und wenn die Abtastfrequenz größer ist als 2x die Bandbreite, dann greifen diese Spektren nicht ineinander hinein, sondern sind disjunkt.

Und dann brauche ich bloß einen Tiefpass, der mir das Original wieder herausholt und ich habe es zurückgewonnen. Einverstanden?

Ein ideal abgetastetes Signal ist das nächste Mal eine Folge von Abtastwerten, damit es wieder über der kontinuierlichen Zeit rennt,

über der echten Zeit. Man macht im Modell die ideale Abtastung, man schreibt also diese Abtastwerte als Delta-Funktionen.

Das war die Original-Zeitfunktion. Und dann macht man also so Delta-Funktionen. Und das gibt dann diese periodische Fortsetzung.

Und wenn ich jetzt mit dem idealen Tiefpass das Originalspektrum um die Frequenz 0 herum, um diese herum, heraushole,

dann mache ich da herum praktisch mit diesen Sinus X durch X Funktionen.

Aus jedem Delta wird eine Sinus X durch X Funktion, weil ja das die Impulsantwort ist, kann.

Und diese Sinus X durch X Funktionen, die überlagern sich zu jedem Zeitpunkt zu meinem Originalsignal.

Damit kann ich jedes bandbegrenzte Signal auffassen als eine Puls-Amplitudenmodulation.

Ich nehme die Abtastwerte und mache ein Pulsformfilter, das eine SIE-Funktion ist oder SIE-Funktion. Also was Sinus X durch X ist für X ungleich 0 und 1, wenn X gleich 0 ist.

Und jedes bandbegrenzte Signal kann ich so auffassen, als sei es die Puls-Amplitudenmodulation mit der Impulsform der SIE-Funktion

aus der Folge der Abtastwerte. Wenn jetzt ein weißes Rauschen kommt, dann wissen wir, was muss man tun im Empfänger bei der digitalen Puls-Amplitudenmodulation.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:31:42 Min

Aufnahmedatum

2015-06-23

Hochgeladen am

2015-06-25 14:20:03

Sprache

de-DE

Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen