Eine diskrete gedächtnislose Quelle X erzeugt in jedem Zeittakt T ein Zeichen xi aus dem Alphabet X = {x1,x2,…,xN} mit der Wahrscheinlichkeit P(xi) = pi.
→Gedächtnislos heisst, das aktuelle Zeichen ist unabhängig von den bereits erzeugten.
Die Definition des Informationsgehalts eines Zeichens ist
| (6.2.1) |
mit folgenden Eigenschaften:
| (6.2.2) |
| (6.2.3) |
| (6.2.6) |
Die Entropie einer Quelle wird (in Anlehnung an die Thermodynamik) als mittlerer Informationsgehalt ihrer Zeichen definiert zu
| (6.2.7) |
mit der Einheit bit.
→ Die Entropie ist ein Maß für die Ungewissheit der Zeichen X der Quelle. Das Chaos hat die maximale Entropie!
| (6.2.8) |
→ Bei binären Quellen mit N verschiedenen Zeichen (für die ld N eine ganze Zahl ist) ist ld N gerade die Anzahl der Binärstellen, um die Zeichen unabhängig von deren Auftrittswahrscheinlichkeit zu kodieren.
Eine Quelle verwendet das Alphabet
Sie sendet damit folgende Nachricht
Wie groß ist der Informationsgehalt der Zeichen:
d.h. es ist NICHT bekannt, dass jedes 2. Zeichen ein Leerzeichen ist und
d.h. es ist bekannt, dass jedes 2. Zeichen ein Leerzeichen ist.
Die Lösung wird in der Vorlesung erarbeitet. Zahlenwerte sind:
Informationsgehalt pro Zeichen:
Mit Umkodieren:
Die Differenz zwischen maximaler Entropie und der vorhandenen Entropie einer Quelle ist die Redundanz␣der␣Quelle
| (6.2.9) |
→ Bei einer redundanten Quelle treten einige Zeichen mit größerer Wahrscheinlichkeit auf als andere.
Bei einer stationären Quelle sind die Zeichenwahrscheinlichkeiten pi invariant gegenüber einer Zeitverschiebung
→ p(xi,t + Δt) = p(xi,t).
Die Zeichenwahrscheinlichkeiten pi hängt ab von den letzten k Symbolen: Markoff-Quelle k-ter Ordnung9
→ p(xi) = f(pi−1,pi−2,… ,pi−k).
6Das Wort Bit (großgeschrieben) bezeichnet dagegen ein physikalisches Bit, z.B. eines Datenbusses mit 16 Bits. Ebenso werden Datenraten (bit pro Sekunde) auch kleingeschrieben, z.B. 10 Mbit/s.
7Das ist genau der Fall, den wir am Anfang besprochen haben: Ich bekomme eine Nachricht, die ich schon kenne …
8Das kannman sich eigentlich nicht vorstellen, aber was wäre, wenn wir im Radio die Nachricht hören würden: Vor dem Brandenburger Tor ist gerade ein UFO gelandet …
9Wie schwer das Gedächtnis einer Quelle zu finden ist, kann man am Beispiel des Roulettespiels sehen: Ist die Wahrscheinlichkeit für eine rote Zahl nach einer Folge langen Folge von schwarzen Zahlen größer, da ja die Quelle „weiß“, dass sie insgesammt mittelwertfrei sein muss? Die Quelle kann ja die aktuelle Verschiebung des Mittelwertes nur ausgleichen wenn sie mehr schwarze als rote Zahlen generiert!