Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Okay, willkommen zu einer weiteren Übung, Nachrichtentechnische Systeme. Heute Aufgabe
10, digitale Übertragung und Informationstheorie, oder beziehungsweise wozu brauchen wir Informationstheorie
überhaupt für die digitale Übertragung. Und da gleich ein kleiner Hinweis vorneweg,
das ist jetzt keine klassische Klausuraufgabe und mag manchen bisschen schwierig vorkommen,
aber eigentlich ist ganz logisch und soll einfach nur verdeutlichen, was die zwei Blöcke,
Quellenkodierung und Kanalkodierung eigentlich machen mit dem Signal oder mit unserer Information.
Und das werden wir dabei ein bisschen untersuchen. Also, Schärftes Verständnis. Okay, also fangen wir
gleich an. Wir haben einen BSC, einen Binary Symmetric Channel, einen symmetrischen Binaikanal,
und der hat eine Fehlerwahrscheinlichkeit von 0,1. Das ist der Kanal, über den wir übertragen wollen,
und zwar Quellensymbole einer gedächtnislosen Quelle, und die liefert, die ist binär, liefert
Symbole aus dem Alphabet 0,1 und hat eine Wahrscheinlichkeit für x gleich 0 von 0,3.
Also 0 und 1 sind nicht gleich wahrscheinlich, außerdem werden diese Symbole, ne, doch, mit
einer Baudrate oder einer Symbolrate von 1000 Symbolen pro Sekunde versendet. Genau. Gut,
jetzt die erste Aufgabe gleich, die ist eigentlich noch relativ einfach. Welche
Entropie besitzt diese Quelle x? Haben wir eigentlich schon zur Genüge das letzte Mal
gemacht und das vorletzte Mal glaube ich auch. Also das ist relativ einfach. Gleich mal der
Hinweis, warum wollen wir das, die Entropie berechnet natürlich, um das Quellenkodierungstheorem
zu benutzen und dann ein Quellenencoder einzusetzen, der das Ganze auf die Entropie komprimiert.
Also wir haben die Wahrscheinlichkeit für x gleich 0 gegeben als 0,3. Ja, und jetzt kann man,
ja, je nachdem wie man es ausrechnen will, ich hatte ja schon mal gesagt, dafür gibt es diese
binäre Entropiefunktion, bei der das Argument die Wahrscheinlichkeit ist oder ich kann es auch
noch mal hinschreiben. Also ausgeschrieben 0,3 mal der Logarithmus duales von 0,3 plus 0,7 mal
der Logarithmus duales von 0,7 und das ist gleich 0,8813 bit je Symbol im Mittel. Also im
Mittel ist folgende Information in der enthalten. Okay, soweit so einfach. Die nächste Aufgabe ist,
wir sollen die Kanalkapazität C des BSC berechnen. So, erstmal, wer weiß was die
Kanalkapazität ist? Ungefähr. Naja, also die Kanalkapazität ist die, die gibt an, wie viel ich
über diesen Kanal übertragen kann. Ich habe einen gestörten Kanal, dadurch kann ich nicht mehr,
im Prinzip nicht mehr fehlerfrei übertragen, aber wenn ich die Kanalkapazität kenne, kann ich
rausfinden, mit welcher Rate ich maximal übertragen kann, um trotzdem fehlerfrei zu sein,
wenn ich eine gute Kanalkodierung anwende. Also dazu male ich euch erstmal den BSC auf. Also,
BSC, achso das habe ich auch nachgeschaut, das ist auf Seite 273 auch zu finden, damit wir überhaupt
wissen, mit was wir es zu tun haben. Okay, also wir haben hier die Sendesymbole, im Moment, da muss
ich kurz gucken, wie die heißen. Achja, X und Y, ja. Also, X, das gefällt mir eigentlich nicht.
Na gut, ist egal. So, also, das ist unser Sendesymbole, das ist unser Empfangs-Symbol.
Und mit der Wahrscheinlichkeit 1 minus, diese Fehlerwahrscheinlichkeit, also 1 minus die
Bit-Around-Rate, macht der Kanal genau das, was wir uns wünschen, nämlich, wenn ich eine 0 sende,
empfange ich eine 0, wenn ich eine 1 sende, empfange ich eine 1 und mit der Wahrscheinlichkeit,
mach ich erstmal so, mit der Wahrscheinlichkeit Bit-Around-Rate, mach ich einen Fehler. Also,
mit der Wahrscheinlichkeit, in dem Fall 0,1, nee, achso, das ist noch gar nicht gegeben, oder? Doch,
ist gegeben. Mit der Wahrscheinlichkeit 0,1 wird aus einer 0 eine 1 und ich würde, wenn ich nichts
Scheiß machen würde, einen Fehler machen. So, und auch auf Seite 273 steht die Kapazität dieses
Kanals, die, ich weiß gar nicht, ob sie hergeleitet wird oder ob sie nur da steht, ich glaube, die wird, und die ist
gegeben als 1 minus die binäre Entropiefunktion von der Bit-Around-Rate. Also, diesmal ist die
binäre Entropiefunktion nicht für eine Entropie da, sondern eben für die Berechnung der Kanalkapazität
und, ja, dann muss ich halt einsetzen. Die E2 wieder analog eingesetzt zu hier, das mach ich jetzt
nicht nochmal, und das gibt dann 0,531 Bit pro Kanal, ja, das muss ich jetzt hier trennen, Benutzung.
Also, Kanalbenutzung hier ist ein bisschen ein abstrakter Begriff. In unserem Fall können wir
uns einfach sagen, in jedem Zeitschlitz können wir im Mittel 0,531 Bits übertragen und zwar
fehlerfrei, wenn wir es richtig machen. Gut. Jetzt wollen wir eben diese Information
Presenters
Dipl.-Ing. Jakob Rettelbach
Zugänglich über
Offener Zugang
Dauer
01:27:45 Min
Aufnahmedatum
2014-11-28
Hochgeladen am
2014-12-26 14:21:34
Sprache
de-DE
Äquivalente komplexe Basisbandsignale und -systeme, Komponenten von Nachrichtenübertragungssystemen, Nachrichtenquellen und deren Modellierung, Übertragungsmedien und Störung, Kanalmodelle. Verfahren zur Übertragung analoger Quellensignale: Amplitudenmodulation (AM, QAM, EM, RM), Trägerfrequenztechnik, Phasen- und Frequenzmodulation, Pulsmodulation, Pulscodemodulation (PCM), differentielle Pulscodemodulation (DPCM), Delta-Modulation. Einführung zur digitalen Übertragung: digitale Pulsamplitudenmodulation (ASK, QAM, PSK), Nyquistimpulse, Fehlerwahrscheinlichkeit beim AWGN-Kanal, Leistungs- und Bandbreiteneffizienz digitaler Übertragungsverfahren.