Mathematisch gesehen verbindet ein Kanal die Quelle X (Sender) und die Quelle Y (Senke, Empfänger) miteinander, wie in Abb. 6.3.1 dargestellt .
→ Die Beschreibung des Kanals mit Verbundwahrscheinlichkeiten der Zeichenpaare ergibt die bedingten Wahrscheinlichkeiten zwischen den Zeichenpaaren.
Bei einer Kopplung der beiden Quellen über den Kanal nimmt die Ungewissheit in dem Maße ab, wie die Ergebnisse einer Quelle Aussagen über die andere Quelle erlauben!
Gegeben seien 2 binäre Quellen X = {0,1} und Y = {0,1} mit der Wahrscheinlichkeit p(x) und der Verbundwahrscheinlichkeit p(x,y), der Wahrscheinlichkeit, das je ein Ereignis aus X und Y gleichzeitig auftreten10
x | p(x) | p(x,y)
| |
y = 0 | y = 1 | ||
0 | 0,1 | 0,08 | 0,02 |
1 | 0,9 | 0,18 | 0,72 |
p(y) | 0,26 | 0,74 | |
Berechnen Sie folgende Entropien:
H(X) = −px0 ld(px0) − px1 ld(px1)
H(Y ) = −py0 ld(py0) − py1 ld(py1)
H(X|Y =0) = −px0y0 ld(px0y0) − px1y0 ld(px1y0)
H(X|Y =1) = −px0y1 ld(px0y1) − px1y1 ld(px1y1)
H(X|Y ) = py0H(X|Y =0) + py1H(X|Y =1)
I(X; Y ) = H(X) − H(X|Y )
Die Lösung wird in der Vorlesung erarbeitet. Zahlenwerte sind:
der Informationstheorie nach Shannon:
H(X|Y ) →− Verluste im Kanal
auch Verlustentropie genannt, ist die Information, die bei der Übertragung über einen Kanal verloren geht.
H(Y |X) → + Rauschen im Kanal
auch Fehlinformation genannt, ist die Information, die im Kanal selbst erzeugt wird und somit minimal sein soll.
I(X; Y ) → = Nutzen des Kanals
oder gegenseitige Information gibt die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen an. Die auch Synentropie eines Kanals genannte Größe stellt den mittleren Informationsgehalt dar, der vom Sender zum Empfänger gelangt und somit maximal sein soll.
Im Informationsflussdiagramm in Abb. 6.3.2 wird die Veränderung der zu übertragenden Nachricht mit Hilfe dieser Entropien
Die bisher nicht verwendete Irrelevanz oder Streuentropie H(Y |X) enthält die Ungewissheit der empfangenen Zeichen bei bekanntem Sendezeichen. Kanalstörungen wirken wie störende Informationsquellen!11
Die Kanalkapazität ist das Maximum der Transinformation eines vorgegebenen Kanals. Sie ist unabhängig von einer tatsächlichen Quelle X.
| (6.3.1) |
Die Kanalkapazität C in bits∕s eines bandbegrenzten Kanals B in kHz mit additivem weissem gaussverteiltem Rauschen der Rauschleistung PN ist für eine Signalleistung PS gegeben durch
| (6.3.2) |