Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Wir waren stehen geblieben mit dem sechsten Kapitel, mit den kontinuierlichen Zufallsvariablen
und haben im Wesentlichen gesehen, dass wir einfach Integrale, nein Summen durch Integrale zu ersetzen haben.
Und wir haben gesehen, dass wir mit der Entropie Schwierigkeiten haben, weil es dann gegen unendlich geht.
Und wir deshalb dann den Begriff Differenzielle Entropie eingeführt haben.
Und auf diese Weise zu eleganten Beschreibungen gekommen sind.
Ja, und vielleicht gehe ich doch nochmal zurück. Die berühmteste Gleichung, na jetzt geht es schon wieder nicht mehr.
Und das war doch der Informationstheorie, das war also die Kapazität des ABGN-Kanals bei Leistungsbegrenzung und bei Bandbegrenzung.
Dass wir also Bandbreite im Algorithmus von 1 plus S zu N haben.
Und das haben wir dann in die verschiedensten Richtungen ausgeschlachtet.
Wir haben gesehen, dass das für den Bandpasskanal genauso gilt wie für den Tiefpasskanal diese Formel.
Wir haben gesehen, dass wir daraus den Austausch zwischen Leistungs- und Bandbreiteneffizienz unmittelbar ableiten können, die Sharinggrenze.
Und wir haben gesehen, dass wir damit auch analoge Übertragungsverfahren beschreiben können im Leistungs-Bandbreitendiagramm und so weiter.
Dass wir also hier sehen, die informationstheoretische Grenze.
Hier ist zum Beispiel FM und AM ohne Träger und AM mit Träger.
Und wenn man dann noch Quellenkodierung zulässt, man nicht transparent übertragen will, dann kriegt man da vorne irgendeine Kurve.
Und dann sind die Gewinne ganz enorm, die die digital übertragen gegenüber der analogen gewonnen werden.
Dann haben wir noch die Rate Distortion Bound abgeleitet, wie am besten eine AD, die A-Umsetzung, und zwar von weißen Signalen.
Also keine Ausnutzung von statistischen Abhängigkeiten.
Das macht man mit differenzieller Pulskodmodulation und prädiziert so lange, bis nichts mehr zu prädizieren ist und der Rest weiß ist.
Und dann sieht man also, dass man genau auf diese 6 dB pro Bit kommt und die minus 4,35 dB, die man bei einer gaussischen Quelle im Falle einer optimalen, nicht gleichmäßigen Quantisierung noch hinzunehmen hat, eigentlich nicht hinnehmen muss.
Der Schlüssel heißt wieder große Blöcke bilden, Vektorg quantisieren.
Ja, und das war also dann vor einer Woche das Ende.
Und wir gehen heute in ein Kapitelchen, das uns vielleicht eine halbe, dreiviertel Stunde aufhalten wird.
Die Störung durch farbiges Rauschen und oder lineare Verzerrungen von Signalen.
Also wir gehen von folgendem Modell aus.
Wir haben ein Signal X von T, das seit Sankt kontinuierlich bandbegrenzt.
Wie wir es gerade eben hatten, habe ich ein leistungsdichte Spektrum Phi XX von F, sei also ein schwach stationäres Signal, weil sonst hat es kein leistungsdichte Spektrum.
Wir begrenzen das auf eine Bandbreite BX, gegebenenfalls im äquivalenten komplexen Basisbandsignal.
Und das ist also ein gausches Rauschen, aber kein weißes gausches Rauschen, wie wir es immer gehabt haben, sondern ein farbiges gausches Rauschen.
Und von diesem farbigen Gauschenauschen wollen wir nur eins fordern, nämlich, dass in dem Frequenzbereich, wo unser Signalsignal ist, nämlich zwischen Minus BX und Plus BX,
da soll dieses Rauschen keine spektrale Nullstelle haben.
Weil dann hätten wir ein schmales Band, wo der Störabstand nach unendlich geht, und da kann man dann unendlich viel Daten übertragen.
Zumindest theoretisch.
Weil wir gehört haben, dass die Entropie einer kontinuierlichen Zufallsvariable gegen unendlich strebt und deshalb wir die differenzielle Entropie brauchten.
Das ist aber keine wirkliche Einschränkung, denn Blank und Boltzmann, so ist geschichtlich die richtige Reihenfolge, haben uns ja gelehrt,
weißes Rauschen ist immer da, wenn die absolute Temperatur nicht Null ist und damit nicht alles am absoluten Nullpunkt eingefroren ist.
Dann ist Rauschen da und dann ist weißes Rauschen da und damit ist keine Nullstelle im Störleistungsspektrum.
Das heißt also keine wirkliche Einschränkung.
Das ist auch das erlaubte Modell für eine Fragestellung, die natürlich in der Nachrichtentechnik sehr viel diskutiert wird.
Wer in die Vorlesung digital übertragen geht, der kennt das Problem, da wird ungefähr vier Wochen drüber gesprochen.
Wie werde ich mit linearen Signalverzerrungen fertig?
Also wenn ich Mehrwegeausbreitung habe, Echoes bekomme oder in einem Kabel ein Tiefpassverhalten habe, die hohen Spektral-Teile gedämpft werden usw.
Also wir haben hier einen verzerrten Kanal, der unser Nutzsignal irgendwie linear verzerrt mit einer Übertragungsfunktion HVNF.
Dann kommt als Äquivalent am Empfängereingang geschrieben weißes Rauschen mit, nein nicht rauschen, sondern entweder weiß oder auch farbig.
Und wie kann man das jetzt in dieses Bild zurück überführen?
Wir nehmen hier einen Entzerrer und solange dieser verzerrende Kanal spektral im benutzten Band keine Nullstelle hat, kein Loch hinein reißt,
was wir jetzt einfach mal annehmen wollen, dass da keine unendliche Dämpfung vorher liegt, dann kann man hier invertieren.
Und was wird durch das Invertieren passiert? Dieser verzerrende Kanal ist weg, das Nutzsignal geht einfach geradeaus durch.
Aber dieses ursprüngliche eventuell weiße Rauschen wird auf jeden Fall farbig durch diesen Entzerrer.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:28:08 Min
Aufnahmedatum
2015-06-30
Hochgeladen am
2015-07-02 09:49:18
Sprache
de-DE
Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.