Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Ja, guten Morgen. Schön, dass Sie da sind zur Informationstheorie.
Ich setze noch mal ein bisschen auf im achten Kapitel, damit wir wieder den Anschluss finden.
Und dann werden wir heute wahrscheinlich zum Ende kommen und wir müssen uns überlegen, was wir dann nächste Woche eigentlich noch tun.
Ok, mal schauen, wie es sich so rausgeht.
Also wir wollen Multiuser-Informationstheorie machen.
Wir machen die beiden Szenarien von vielen Sender auf einen gemeinsamen Empfänger
oder von einem gemeinsamen Sender auf viele Empfänger.
Übrigens, das Problem viele Sender zu vielen Empfänger, wo sich die Signale gegenseitig interferieren,
ist ein ungelöstes Problem. Informationstheoretisch, da gibt es Berge von Literatur mit Bounds und Conjectures und sonstiges,
aber eine geschlossene Lösung haben wir da nicht.
Und da haben sich Hundertschaften von Doktoranden schon abgearbeitet an dem Problem.
Okay, also wir haben mit dem Multiple Access Channel begonnen.
Der Kanal ist jetzt einfach eine Maschine, die nicht ein Symbol empfängt, sondern einen Vektor aus K-Symbolen,
weil wir K, solche Nutzer, User, annehmen wollen beim Multiple Access Channel.
Und er spuckt dann ein Ausgangssymbol raus. Das ist also sozusagen informationstheoretische diese Beschreibung.
Und dann ist die Frage, wie die Encoder für die einzelnen User zu gestalten sind, für die einzelnen Nutzer,
so dass man da am besten was drüber bringt mit verschiedenen Rahmenbedingungen.
Die Rahmenbedingungen kann zum Beispiel sein, dass die Summenrate maximal ist.
Oder die Rahmenbedingungen kann sein, dass es fair ist, dass jeder das Gleiche kriegt.
Oder alles Mögliche. Verstanden?
Was wir jetzt vorher erst einmal überhaupt nicht voraussetzen, und diese Voraussetzungen später auch außer Kraft setzen werden,
ist, dass die Nutzer orthogonal sind. Das heißt, dass der eine sendet, wenn alle anderen schweigen.
Also dass bei diesem Vektor immer noch ein Symbol gesetzt ist, die anderen sind sozusagen ausgelöscht.
Null oder irgendwas vereinbart, das was nichts bedeutet. Das wäre dann Zeit multiplex.
Und dann sind sozusagen die einzelnen Nutzer total entkoppelt.
Oder wir können das auch spektral machen, indem wir Signale formen, die unterschiedliche Bänder im Spektrum belegen.
Und wenn Sie dann das kreuzleistungsdichte Spektrum nehmen, müssen Sie ja das eine Spektrum und das andere Konjunkturkomplex rechnen.
Wenn sich zwei Spektren nicht überlappen, dann ist das Produkt überall null, das Integral auch null.
Dann sind die zugehörigen Funktionen orthogonal.
Was wir jetzt speziell hier machen, weil es der einfachste Fall ist und weil es so schön geht, das ist der additive white Gaussian noise multiple access channel,
wobei die Überlagerung der einzelnen Signale additiv erfolgt.
Sie können sich das vorstellen in der Luft, dadurch dass die einzelnen Senden und die elektromagnetischen Wellen sich einfach überlagern.
So ist diese Addition hier zu verstehen.
Was wichtig ist, dass diese Encoder nicht zusammenarbeiten können, weil diese Quellen sind lokal getrennt.
Sie können also keine Quelle weiß, was die andere Quelle eigentlich will und welche Nachricht sie übertragen will.
Das Wort aus den Symbolen x1 bis xk sind die einzelnen x statistisch unabhängig vorausgesetzt.
Sonst kooperieren diese beiden.
Wir werden sehen, das ist ein ganz interessantes Beispiel, Raten, also ein Vektor von Raten, für die es funktioniert,
ist die Ratenregion, die erreichbar ist und es gibt dann irgendwo eine Grenze zwischen Raten, die erreichbar sind und Raten, die nicht erreichbar sind.
Wir werden das sehen hier ganz klar.
Wenn man ganz naiv an das herangeht, dann haben wir bei dem additive white Gaussian noise channel die schöne Eigenschaft,
dass das Nutzsignal des anderen dieselben Eigenschaften hat, wie eine Störung.
Warum wir wollen als Nutzsignal, weil das wissen wir vom AWGN-Kanal, Single User,
die Kapazität wird erreicht durch ein gaussverteiltes Sendesignal statistisch unabhängige Werte.
Der berühmte Formel einhalb log von eins plus S zu N. Wir schreiben ohne einhalb, weil wir komplexwertige Signale voraussetzen.
Dann haben wir zwei Kanäle, nämlich für Inphase und Quadraturkanal.
Können Sie sich noch erinnern? Ich hoffe, dass das noch einigermaßen klar ist.
Darum schreiben wir also diese Formel. Nutzsignal ist gaussisches Zufallssignal.
Störung ist gaussisches Zufallssignal und anderes Nutzsignal ist auch gaussisches Zufallssignal, sodass die beiden Rauschen sich leistungsmäßig garantieren.
Presenters
Zugänglich über
Offener Zugang
Dauer
01:32:49 Min
Aufnahmedatum
2015-07-07
Hochgeladen am
2015-07-09 18:04:26
Sprache
de-DE
Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.