24 - Nachrichtentechnische Systeme - Uebertragungstechnik (NTSy-UET) [ID:4558]
50 von 333 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Okay, willkommen zu einer weiteren Übung, Nachrichtentechnische Systeme. Heute Aufgabe

10, digitale Übertragung und Informationstheorie, oder beziehungsweise wozu brauchen wir Informationstheorie

überhaupt für die digitale Übertragung. Und da gleich ein kleiner Hinweis vorneweg,

das ist jetzt keine klassische Klausuraufgabe und mag manchen bisschen schwierig vorkommen,

aber eigentlich ist ganz logisch und soll einfach nur verdeutlichen, was die zwei Blöcke,

Quellenkodierung und Kanalkodierung eigentlich machen mit dem Signal oder mit unserer Information.

Und das werden wir dabei ein bisschen untersuchen. Also, Schärftes Verständnis. Okay, also fangen wir

gleich an. Wir haben einen BSC, einen Binary Symmetric Channel, einen symmetrischen Binaikanal,

und der hat eine Fehlerwahrscheinlichkeit von 0,1. Das ist der Kanal, über den wir übertragen wollen,

und zwar Quellensymbole einer gedächtnislosen Quelle, und die liefert, die ist binär, liefert

Symbole aus dem Alphabet 0,1 und hat eine Wahrscheinlichkeit für x gleich 0 von 0,3.

Also 0 und 1 sind nicht gleich wahrscheinlich, außerdem werden diese Symbole, ne, doch, mit

einer Baudrate oder einer Symbolrate von 1000 Symbolen pro Sekunde versendet. Genau. Gut,

jetzt die erste Aufgabe gleich, die ist eigentlich noch relativ einfach. Welche

Entropie besitzt diese Quelle x? Haben wir eigentlich schon zur Genüge das letzte Mal

gemacht und das vorletzte Mal glaube ich auch. Also das ist relativ einfach. Gleich mal der

Hinweis, warum wollen wir das, die Entropie berechnet natürlich, um das Quellenkodierungstheorem

zu benutzen und dann ein Quellenencoder einzusetzen, der das Ganze auf die Entropie komprimiert.

Also wir haben die Wahrscheinlichkeit für x gleich 0 gegeben als 0,3. Ja, und jetzt kann man,

ja, je nachdem wie man es ausrechnen will, ich hatte ja schon mal gesagt, dafür gibt es diese

binäre Entropiefunktion, bei der das Argument die Wahrscheinlichkeit ist oder ich kann es auch

noch mal hinschreiben. Also ausgeschrieben 0,3 mal der Logarithmus duales von 0,3 plus 0,7 mal

der Logarithmus duales von 0,7 und das ist gleich 0,8813 bit je Symbol im Mittel. Also im

Mittel ist folgende Information in der enthalten. Okay, soweit so einfach. Die nächste Aufgabe ist,

wir sollen die Kanalkapazität C des BSC berechnen. So, erstmal, wer weiß was die

Kanalkapazität ist? Ungefähr. Naja, also die Kanalkapazität ist die, die gibt an, wie viel ich

über diesen Kanal übertragen kann. Ich habe einen gestörten Kanal, dadurch kann ich nicht mehr,

im Prinzip nicht mehr fehlerfrei übertragen, aber wenn ich die Kanalkapazität kenne, kann ich

rausfinden, mit welcher Rate ich maximal übertragen kann, um trotzdem fehlerfrei zu sein,

wenn ich eine gute Kanalkodierung anwende. Also dazu male ich euch erstmal den BSC auf. Also,

BSC, achso das habe ich auch nachgeschaut, das ist auf Seite 273 auch zu finden, damit wir überhaupt

wissen, mit was wir es zu tun haben. Okay, also wir haben hier die Sendesymbole, im Moment, da muss

ich kurz gucken, wie die heißen. Achja, X und Y, ja. Also, X, das gefällt mir eigentlich nicht.

Na gut, ist egal. So, also, das ist unser Sendesymbole, das ist unser Empfangs-Symbol.

Und mit der Wahrscheinlichkeit 1 minus, diese Fehlerwahrscheinlichkeit, also 1 minus die

Bit-Around-Rate, macht der Kanal genau das, was wir uns wünschen, nämlich, wenn ich eine 0 sende,

empfange ich eine 0, wenn ich eine 1 sende, empfange ich eine 1 und mit der Wahrscheinlichkeit,

mach ich erstmal so, mit der Wahrscheinlichkeit Bit-Around-Rate, mach ich einen Fehler. Also,

mit der Wahrscheinlichkeit, in dem Fall 0,1, nee, achso, das ist noch gar nicht gegeben, oder? Doch,

ist gegeben. Mit der Wahrscheinlichkeit 0,1 wird aus einer 0 eine 1 und ich würde, wenn ich nichts

Scheiß machen würde, einen Fehler machen. So, und auch auf Seite 273 steht die Kapazität dieses

Kanals, die, ich weiß gar nicht, ob sie hergeleitet wird oder ob sie nur da steht, ich glaube, die wird, und die ist

gegeben als 1 minus die binäre Entropiefunktion von der Bit-Around-Rate. Also, diesmal ist die

binäre Entropiefunktion nicht für eine Entropie da, sondern eben für die Berechnung der Kanalkapazität

und, ja, dann muss ich halt einsetzen. Die E2 wieder analog eingesetzt zu hier, das mach ich jetzt

nicht nochmal, und das gibt dann 0,531 Bit pro Kanal, ja, das muss ich jetzt hier trennen, Benutzung.

Also, Kanalbenutzung hier ist ein bisschen ein abstrakter Begriff. In unserem Fall können wir

uns einfach sagen, in jedem Zeitschlitz können wir im Mittel 0,531 Bits übertragen und zwar

fehlerfrei, wenn wir es richtig machen. Gut. Jetzt wollen wir eben diese Information

Presenters

Dipl.-Ing. Jakob Rettelbach Dipl.-Ing. Jakob Rettelbach

Zugänglich über

Offener Zugang

Dauer

01:27:45 Min

Aufnahmedatum

2014-11-28

Hochgeladen am

2014-12-26 14:21:34

Sprache

de-DE

Äquivalente komplexe Basisbandsignale und -systeme, Komponenten von Nachrichtenübertragungssystemen, Nachrichtenquellen und deren Modellierung, Übertragungsmedien und Störung, Kanalmodelle. Verfahren zur Übertragung analoger Quellensignale: Amplitudenmodulation (AM, QAM, EM, RM), Trägerfrequenztechnik, Phasen- und Frequenzmodulation, Pulsmodulation, Pulscodemodulation (PCM), differentielle Pulscodemodulation (DPCM), Delta-Modulation. Einführung zur digitalen Übertragung: digitale Pulsamplitudenmodulation (ASK, QAM, PSK), Nyquistimpulse, Fehlerwahrscheinlichkeit beim AWGN-Kanal, Leistungs- und Bandbreiteneffizienz digitaler Übertragungsverfahren.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen