Informationstheorie

Werbung
Formeln und Notizen
Informationstheorie
Florian Franzmann∗
7. April 2009, 23:53 Uhr
Abbildungsverzeichnis
1.
Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 20
Tabellenverzeichnis
1.
2.
3.
4.
5.
6.
7.
Notation in der Informationstheorie . . . . . . . . . . . .
Notation der Codierung . . . . . . . . . . . . . . . . . . .
Teile von Einheiten . . . . . . . . . . . . . . . . . . . . . .
Vielfache von Einheiten . . . . . . . . . . . . . . . . . . .
Trigonometrische Funktionen – Funktionswerte besonderer
Potenzen der imaginären Einheit . . . . . . . . . . . . . .
Bekannte Reihen . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Winkel
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
9
17
18
20
25
26
.
.
.
.
.
.
.
4
4
5
5
5
5
5
6
Inhaltsverzeichnis
1. Informationstheorie
1.1. Eigenschaften von Informationsquellen . . .
1.2. Informationsmaß . . . . . . . . . . . . . . .
1.2.1. Forderungen an ein Informationsmaß
1.2.2. Informationsmaß nach Hartley . . .
1.2.3. Informationsmaß nach Shannon . . .
1.2.4. Informationsgewinn . . . . . . . . .
1.3. Entropie . . . . . . . . . . . . . . . . . . . .
∗
[email protected]
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Inhaltsverzeichnis
1.4.
1.5.
1.6.
1.7.
1.3.1. Entropie einer Informationsquelle . . . . . . . . . . . . . . . . . . .
1.3.2. Schranken der Entropie einer diskreten, gedächtnislosen Quelle . .
1.3.3. Maximum der Entropie . . . . . . . . . . . . . . . . . . . . . . . .
1.3.4. Binäre Entropiefunktion . . . . . . . . . . . . . . . . . . . . . . . .
Gekoppelte Informationsquellen . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1. Verbundentropie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2. Bedingte Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.3. Satz über die Beobachtung . . . . . . . . . . . . . . . . . . . . . .
1.4.4. Kettenregel der Verbundentropie . . . . . . . . . . . . . . . . . . .
1.4.5. Obere Grenze der Verbundentropie . . . . . . . . . . . . . . . . . .
1.4.6. Individuelle wechselseitige Information . . . . . . . . . . . . . . . .
1.4.7. Mittlere wechselseitige Information . . . . . . . . . . . . . . . . . .
1.4.8. Eigenschaften der mittleren wechselseitigen Information . . . . . .
1.4.9. Bedingte mittlere wechselseitige Information . . . . . . . . . . . .
1.4.10. Kettenregel der wechselseitigen Information . . . . . . . . . . . . .
1.4.11. Data Processing Theorem . . . . . . . . . . . . . . . . . . . . . . .
Diskrete gedächtnisbehaftete Quelle . . . . . . . . . . . . . . . . . . . . .
1.5.1. Stationarität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.2. Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.3. Gedächtnis vermindert Entropie . . . . . . . . . . . . . . . . . . .
Codierung für diskrete Informationsquellen . . . . . . . . . . . . . . . . .
1.6.1. Eindeutige Decodierbarkeit . . . . . . . . . . . . . . . . . . . . . .
1.6.2. Vollständiger Baum . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.3. Präfixfreier Code . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.4. Kraft’sche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . .
1.6.5. Satz von McMillan . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.6. Quellencodierungstheorem für Codes mit variabler Wortlänge . . .
1.6.6.1. Optimale Wortlänge eines Codes . . . . . . . . . . . . . .
1.6.6.2. Codierung nach Shannon und Fano . . . . . . . . . . . .
1.6.6.3. Quellencodierungstheorem . . . . . . . . . . . . . . . . .
1.6.7. Redundanz eines Codes mit variabler Länge . . . . . . . . . . . . .
1.6.7.1. Mittlere Redundanz eines Quellencodes . . . . . . . . . .
1.6.8. Optimale Quellencodierung mit variabler Wortlänge . . . . . . . .
1.6.8.1. Pfadlängenlemma nach Massey . . . . . . . . . . . . . . .
1.6.8.2. Satz über unbenutzte Endknoten . . . . . . . . . . . . . .
1.6.8.3. Konstruktion binärer Codes nach Huffman . . . . . . . .
1.6.8.4. Konstruktion mehrstufiger Codes nach Huffman . . . . .
1.6.9. Blockcodierung für D. M. S. mit Codewörtern variabler Länge . .
1.6.9.1. Tunstall-Codierung . . . . . . . . . . . . . . . . . . . . .
1.6.9.2. Quellencodierungstheorem für Quellenwörter variabler Länge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.9.3. Universelle Quellencodierung nach Lempel und Ziv . . . .
1.6.9.4. Runlength-Limited-Codierung für Binärsequenzen . . . .
Blockcodierung für Quellenwörter mit fester Länge . . . . . . . . . . . . .
2
6
6
6
6
6
6
6
7
7
7
7
7
8
8
8
8
8
8
8
9
9
9
10
10
10
10
10
10
11
11
11
11
11
11
11
12
12
12
12
13
13
14
14
Inhaltsverzeichnis
1.7.1.
1.7.2.
1.7.3.
1.7.4.
1.7.5.
1.7.6.
1.7.7.
Unvollständige Codierung . . . . . . . . . . . . . . . . . . . . . .
ε-typische Sequenzen . . . . . . . . . . . . . . . . . . . . . . . . .
Satz über die Wahrscheinlichkeit ε-typischer Sequenzen . . . . .
Codierversagen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Wahrscheinlichkeit eines Codeversagens . . . . . . . . . . . . . .
Zahl typischer Symbolsequenzen . . . . . . . . . . . . . . . . . .
Quellencodierungstheorem für Quellen- und Codewörter mit festen
Wortlängen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8. Übertragungskanäle . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8.1. Gedächtnisloser Kanal (D. M. C.) . . . . . . . . . . . . . . . . . .
1.8.2. Zeitinvarianter Kanal . . . . . . . . . . . . . . . . . . . . . . . .
1.8.3. Rückwirkungsfreier Kanal . . . . . . . . . . . . . . . . . . . . . .
1.8.4. Signalstörleistungsverhältnis . . . . . . . . . . . . . . . . . . . . .
1.8.5. Kanalkapazität . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8.6. Symmetrische diskrete gedächtnislose Kanäle . . . . . . . . . . .
1.8.6.1. Gleichmäßig streuende Kanäle . . . . . . . . . . . . . .
1.8.6.2. Satz über die Streuentropie . . . . . . . . . . . . . . . .
1.8.6.3. Kapazität . . . . . . . . . . . . . . . . . . . . . . . . . .
A. Mathematische Grundlagen
A.1. Frequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.2. Kreisfrequenz . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.3. Normierte Kreisfrequenz . . . . . . . . . . . . . . . . . . . . .
A.1.4. Die z-Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.2. Lösungsformel für quadratische Gleichungen . . . . . . . . . . . . . .
A.3. Geradengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3.1. Gerade durch einen Punkt P (x0 , y0 ) mit Steigung m . . . . .
A.3.2. Gerade durch die Punkte P (x0 , y0 ) und A(x1 , y1 ) . . . . . . .
A.3.3. Parameterform . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3.4. Allgemeine Form der Geradengleichung . . . . . . . . . . . .
A.4. Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.5. Rechenregeln des Logarithmus . . . . . . . . . . . . . . . . . . . . .
A.6. Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.1. Regeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.1.1. Quotientenregel . . . . . . . . . . . . . . . . . . . .
A.6.1.2. Kettenregel . . . . . . . . . . . . . . . . . . . . . . .
A.6.1.3. Produktregel . . . . . . . . . . . . . . . . . . . . . .
A.6.1.4. Logarithmische Differentiation . . . . . . . . . . . .
A.6.1.5. Differentiation eines parameterabhängigen Integrals
A.6.1.6. l’Hospital’sche Regel . . . . . . . . . . . . . . . . . .
A.6.2. Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.2.1. Laplace-Operator ∆ . . . . . . . . . . . . . . . . . .
A.6.2.2. Divergenz-Operator div . . . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
14
14
14
15
.
.
.
.
.
.
.
.
.
.
.
15
15
15
15
15
16
16
16
16
16
16
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
16
16
16
19
19
19
19
19
19
19
19
19
21
21
21
21
21
21
21
22
22
22
22
22
22
1. Informationstheorie
Tabelle 1: Notation in der Informationstheorie
Symbol
P (A)
H = {ηi |i = 1, . . . , Mx }
ηi
Mx = |H|
Bedeutung
Wahrscheinlichkeit des Ereignisses A ∈ H
Menge aller Elementarereignisse
Die einzelnen Elementarereignisse
Mächtigkeit von H
A.6.2.3. Gradient-Operator ∇ . . . . . . .
A.6.2.4. Rotations-Operator . . . . . . . .
A.6.2.5. Jacobi-Matrix (Funktionalmatrix)
A.6.2.6. Hesse-Matrix . . . . . . . . . . . .
A.6.2.7. Zusammengesetzte Operationen .
A.7. Integrationsregeln . . . . . . . . . . . . . . . . . . .
A.7.1. Partielle Integration . . . . . . . . . . . . .
A.7.2. Substitutionsregel . . . . . . . . . . . . . .
A.7.3. Logarithmische Integration . . . . . . . . .
A.7.4. Integration der Umkehrfunktion . . . . . .
A.8. Komplexe Zahlen . . . . . . . . . . . . . . . . . . .
A.8.1. Komplexe Wurzel . . . . . . . . . . . . . . .
A.9. Binomialkoeffizient . . . . . . . . . . . . . . . . . .
A.9.1. Reihen . . . . . . . . . . . . . . . . . . . . .
A.10.Abschätzung mittels Union-Bound . . . . . . . . .
A.11.Bessel-Funktion erster Art . . . . . . . . . . . . . .
A.11.1. Definition . . . . . . . . . . . . . . . . . . .
A.11.2. Eigenschaften . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
23
23
24
24
24
24
24
24
24
25
25
26
26
27
27
27
27
1. Informationstheorie
1.1. Eigenschaften von Informationsquellen
diskret
Die Quelle gibt zu diskreten Zeitpunkten k ∈ Z Symbole X [k] aus
einem bekannten Symbolvorrat mit endlicher Mächtigkeit Mx ab.
Die a-priori-Wahrscheinlichkeiten
P (X[k] = xi )
i = 1(1)Mx
können dabei bekannt oder unbekannt sein.
4
(1)
1. Informationstheorie
gedächtnislos (DMS) Die a-priori-Wahrscheinlichkeiten der sind weder Funktion zuvor
noch nachfolgend abgegebenen Symbole, die Symbole sind also
statistisch unanbhängig und es gilt
N
Y
P (X[1] = x1 , . . . , X[N ] = xiN ) =
P (X[n] = xin )
(2)
n=1
zeitinvariant
Die a-priori-Wahrscheinlichkeiten sind zu allen Zeitpunkten gleich
(i. i. d-Sequenz):
P (X[k] = xi ) =: pi
∀k ∈ Z
(3)
Aus Zeitinvarianz folgt automatisch Gedächtnislosigkeit.
1.2. Informationsmaß
1.2.1. Forderungen an ein Informationsmaß
1. I(xi ) ∈ R ∧ I(xi ) ≥ 0
2. I(xi ) = f (P (X[k] = xi ))
3. Für gedächtnislose Quellen soll gelten
!
I(xi1 , . . . , xiN ) =
N
X
I(xin )
(4)
n=1
f
N
Y
!
P (X[n] = xin )
=
N
X
f (P (X[n] = xin ))
(5)
n=1
n=1
1.2.2. Informationsmaß nach Hartley
IH = logb (Mx )
(6)
Es berücksichtigt die Wahrscheinlichkeit der einzelnen Symbole nicht, genügt also der
in 2 aufgestellten Forderung nicht.
1.2.3. Informationsmaß nach Shannon
IS (xi ) = − logb (P (X[k] = xi )) [bit]
|{z}
(7)
für b = 2
Maß für die Unsicherheit des Auftretens eines Quellensymbols.
1.2.4. Informationsgewinn
Reduktion der Unsicherheit des Ausgangs eines Zufallsexperiments durch Beobachtung.
5
1. Informationstheorie
1.3. Entropie
1.3.1. Entropie einer Informationsquelle
H(X) = E {IS (X)}
=−
Mx
X
(8)
pi ld(pi )
i=1
bit
Symbol
(9)
1.3.2. Schranken der Entropie einer diskreten, gedächtnislosen Quelle
0 ≤ H(X) ≤ ld(Mx )
(10)
1.3.3. Maximum der Entropie
Die Entropie einer D. M. S. wird durch gleichverteilte Symbole maximiert.
1.3.4. Binäre Entropiefunktion
e2 (x) = −xld(x) − (1 − x)ld(1 − x)
(11)
1.4. Gekoppelte Informationsquellen
1.4.1. Verbundentropie
Mittlerer Informationsgewinn durch Beobachtung beider Quellen:
H(XY ) := −
My
Mx X
X
P (X = xi ∩ Y = yi ) ld (P (X = xi ∩ Y = yi ))
i=1 j=1
bit
Symbolpaar
(12)
1.4.2. Bedingte Entropie
Mittlerer Informationsgewinn durch Beobachtung des Symbols X, wenn das Symbol
Y = yi bereits bekannt ist:
H(X|Y ) :=
My
X
P (Y = yi ) · H(X|yi )
(13)
j=1
=−
My
Mx X
X
P (X = xi ∩ Y = yi ) ld (P (X = xi |Y = yi ))
(14)
P (X = xi ∩ Y = yi ) · ld(P (Y = yj |X = xi ))
(15)
i=1 j=1
Analog gilt
H(Y |X) = −
My
Mx X
X
i=1 j=1
6
1. Informationstheorie
1.4.3. Satz über die Beobachtung
Eine zusätzliche Beobachtung kann im Mittel die Unsicherheit nie vergrößern, d. h.
H(X) ≥ H(X|Y )
(16)
wobei Gleichheit gilt, wenn X und Y statistisch unabhängig sind, also
P (X ∩ Y ) = P (X) · P (Y )
(17)
1.4.4. Kettenregel der Verbundentropie
H(XY ) = H(X) + H(Y |X) = H(Y ) + H(X|Y )
(18)
Die Unsicherheit bezüglich beider Zufallsvariablen ist im Mittel gleich der Summe der
Unsicherheiten bezüglich der einen Zufallsvariable und der anderen Zufallsvariable unter
der Bedingung, daß die erste bereits bekannt ist.
1.4.5. Obere Grenze der Verbundentropie
Die Verbundentropie ist im Mittel nicht größer als die Summe der Entropien der Einzelquellen
H(XY ) ≥ H(X) + H(Y )
(19)
Gleichheit gilt bei statistisch unabhängigen Quellen.
1.4.6. Individuelle wechselseitige Information
P (X = xi |Y = yi )
= IM (yi , xi )
IM (xi , yi ) := ld
P (X = xi )
(20)
1.4.7. Mittlere wechselseitige Information
Wird manchmal auch als Transinformation bezeichnet.
I(X; Y ) = E {IM (X; Y )}
=
My
Mx X
X
(21)
P (X = xi ; Y = yi ) · ld
i=1 j=1
P (X = xi |Y = yi )
P (X = xi )
(22)
= H(X) − H(X|Y )
| {z } | {z }
a priori
I(Y ; X) =
My
Mx X
X
(23)
a posteriori
P (X = xi ; Y = yi ) · ld
i=1 j=1
P (Y = yi |X = xi )
P (Y = yi )
(24)
= H(Y ) − H(Y |X)
(25)
I(X; Y ) = H(X) + H(Y ) − H(XY )
(26)
7
1. Informationstheorie
1.4.8. Eigenschaften der mittleren wechselseitigen Information
Die mittlere wechselseitige Information ist nicht negativ
I(X; Y ) ≥ 0
(27)
und nur dann 0, wenn X und Y statistisch unabhängig sind.
1.4.9. Bedingte mittlere wechselseitige Information
I(X; Y |Z) := H(X|Z) − H(X|Y Z)
(28)
= H(Y |Z) − H(Y |XZ)
(29)
1.4.10. Kettenregel der wechselseitigen Information
I((X1 , X2 ); Y ) = I(X1 ; Y ) + I(X2 ; Y |X1 )
(30)
Der Informationsgewinn durch die Beobachtung von Y in Bezug auf (X1 , X2 ) ist gleich
dem Informationsgewinn aufeinanderfolgender Beobachtungen.
1.4.11. Data Processing Theorem
Durch Verarbeitung von Information kann nie Information dazugewonnen werden.
I(X; Z) ≤ I(X; Y )
(31)
I(X; Z) ≤ I(Y ; Z)
(32)
1.5. Diskrete gedächtnisbehaftete Quelle
1.5.1. Stationarität
Eine gedächtnisbehaftete Quelle wir als stationär bezeichnet, wenn die Wahrscheinlichkeiten für Wörter von Quellensymbolen der Länge L ∈ N für alle Zeitpunkte gleich
sind:
P (X[k + 1], X[k + 2], . . . , X[k + L])
= P (X[1], X[2], . . . , X[L])
∀k ∈ Z ∧ ∀L ∈ N
1.5.2. Entropie
~
Der mittlere Informationsgehalt je Symbol für als unabhängig angenommene Blöcke X
der Länge L:
HL (X) := −
Mx
Mx X
Mx
X
1 X
···
P (X1 = xi1 , X2 = xi2 , . . . , XL = xiL )
L
|{z}
i1 =1 i2 =1
(33)
iL =1
1
· ld(P (X1 = xi1 , X2 = xi2 , . . . , XL = xiL ))
1
:= H(X1 , X2 , . . . , XL )
L
8
(34)
(35)
1. Informationstheorie
Tabelle 2: Notation der Codierung
Symbol
C = {c1 , c2 , . . . , cMc }
Mc = |C|
C
K = |C| ≤ |C|N
X L 7→ C
Bedeutung
Codesymbolvorrat
Codesymbolumfang
Menge der vereinbarten Codewörter – Code
Anzahl der vereinbarten Codewörter
Codierung
Die Entropie einer stationären, gedächtnisbehafteten, diskreten Quelle ist die bedingte
Entropie des aktuellen Symbols bei Kenntnis aller vorangegangenen Symbole:
bit
H(hXi) = lim HL (X)
(36)
L→∞
Symbol
= lim H(XL |X1 X2 . . . XL−1 )
(37)
L→∞
= lim H(X1 X2 . . . HL ) − H(X1 X2 . . . XL−1 )
L→∞
(38)
1.5.3. Gedächtnis vermindert Entropie
Durch statistische Abhängigkeit innerhalb der von einer stationären Quelle abgegebenen
Symbolsequenz kann die Entropie nur abnehmen:
HL+1 (X) ≤ HL (X) ∀L ∈ N
(39)
Gleichheit gilt nur für Gedächtnislose Quellen.
1.6. Codierung für diskrete Informationsquellen
1.6.1. Eindeutige Decodierbarkeit
Eine Codierung ist eindeutig decodierbar, wenn für alle möglichen unterschiedlichen Sequenzen von Quellensymbolen die zugeordneten Sequenzen von Codesymbolen ebenfalls
verschieden sind.
1
Länge der Quellensymbolblöcke
9
1. Informationstheorie
1.6.2. Vollständiger Baum
Ein bis zur Tiefe n vollständiger M -wertiger Baum besitzt bei den Tiefen k = 1(1)n
jeweils M k Knoten.
1.6.3. Präfixfreier Code
Bei einem präfixfreien Code C mit variabler Wortlänge werden die K = |C| Codewörter
nur durch Pfade von der Wurzel zu Endknoten (bei unterschiedlichen Tiefen) repräsentiert. Zwischenknoten sind dagegen keine Codewörter zugeordnet.
1.6.4. Kraft’sche Ungleichung
Ein präfixfreier Code C existiert über einem M -wertigen Alphabet mit Wortlängen
n1 , . . . , nK genau dann, wenn folgende Ungleichung erfüllt ist:
K
X
1
≤1
M ni
(40)
i=1
1.6.5. Satz von McMillan
Jeder eindeutig decodierbare Code mit K Wörtern und variabler Wortlänge über einem
M -wertigen Alphabet erfüllt die Kraft’sche Ungleichung.
Präfixfreie Codes sind optimal decodierbare Codes mit variabler Wortlänge.
1.6.6. Quellencodierungstheorem für Codes mit variabler Wortlänge
Die Symbole, die von einer diskreten, gedächtnislosen Quelle mit Entropie H(X) abgegeben werden, können umkehrbar eindeutig durch die Wörter eines eindeutig decodierbaren Codes C mit variabler Wortlänge über einem Mc -wertigen Alphabet repräsentiert
werden, d. h. es existiert eine Bijektion
X ↔C
(41)
wobei für die mittlere Codewortlänge
n̄ =
Mx
X
ni · P (X = xi )
(42)
i=1
gilt
H(X)
H(X)
≤ n̄ ≤
+1
ld(Mc )
ld(Mc )
(43)
H(X) ≤ n̄ ≤ H(X) + 1
(44)
Im Spezialfall Mc = 2 gilt
1.6.6.1. Optimale Wortlänge eines Codes
ni = − logMc (P (X = xi ))
10
(45)
1. Informationstheorie
1.6.6.2. Codierung nach Shannon und Fano Wähle die Codewortlänge nach Gleichung (45) und konstruiert einen präfixfreien Code gemäß 1.6.4 auf der vorherigen Seite.
Das Ergebnis ist meist nicht optimal.
1.6.6.3. Quellencodierungstheorem für diskrete Quellen bei Codierung mit
variabler Länge Für diskrete Informationsquellen mit mittlerem Informationsgehalt
H (hXi) je Symbol existiert eine Mc -wertige umkehrbar eindeutige Codierung, für deren
mittlere Wortlänge n̄ gilt
H (hXi)
HL (X)
1
≤ n̄ <
+
ld (Mc )
ld(Mc )
L
(46)
Das heißt, daß das Shannon’sche Informationsmaß den Informationsgehalt eines Symbols
genau trifft.
Um die Entropie möglichst nahe zu erreichen müssen möglichst lange Blöcke der Codierung zugeführt werden.
1.6.7. Redundanz eines Codes mit variabler Länge
Für das Quellenwort ~xi = (xi,1 , . . . , xi,L ) der Länge L, dem ein Codewort der Länge ni
zugeordnet wird, beträgt die individuelle Redundanz


1

ρi := ni · ld(Mc ) − ld  (47)
~ = ~xi
P X
1.6.7.1. Mittlere Redundanz eines Quellencodes
ρc := E {ρi } = ld(Mc ) · n̄L − L · HL (X)
(48)
Gemäß Quellcodierungstheorem kann zwar eine beliebig kleine mittlere Redundanz ρLc je
Quellensymbol erreicht werden, eine mittlere Redundanz kann jedoch nie negativ sein.
1.6.8. Optimale Quellencodierung mit variabler Wortlänge
1.6.8.1. Pfadlängenlemma nach Massey Die mittlere Wortlänge n̄ eines präfixfreien Codes mit variabler Länge ist die Summe der Wahrscheinlichkeiten aller Zwischenknoten einschließlich der Wurzel in dem Baum, der den Code repräsentiert.
1.6.8.2. Satz über unbenutzte Endknoten Im Codebaum eines optimalen präfixfreien Codes mit variabler Wortlänge treten unbenutzte Endknoten nur beid er größten Tiefe N = maxi ni auf. Die Zahl der hier unbenutzten Endknoten ist minimal 0 und
maximal Mc − 2. Alle Zweige zu unbenutzten Endknoten können so gewählt werden, daß
sie von einem Zwischenknoten bei Tiefe N − 1 ausgehen.
Bei binären optimalen Codes gibt es folglich keine unbesetzten Endknoten.
11
1. Informationstheorie
1.6.8.3. Konstruktion binärer Codes nach Huffman
1. Zuweisung der a-priori-Wahrscheinlichkeiten pi = P (X = xi ) zu Mx Endknoten.
2. Für k = 1(1)(Mx − 1): Die beiden Knoten mit den kleinsten Wahrscheinlichkeiten
werden jeweils über Zweige zu einem neuen Zwischenknoten zusammengeführt.
1.6.8.4. Konstruktion mehrstufiger Codes nach Huffman
1. Zuweisung der a-priori-Wahrscheinlichkeiten zu Mx Endknoten.
2. Zusammenfassen der m Endknoten (1 < m ≤ Mc ) mit den geringsten Wahrscheinlichkeiten zu einem Zwischenknoten in der Weise, daß die verbleibende Zahl
Mx − m + 1 von Knoten die Gleichung
Mx − m + 1 = Mc + b · (Mc − 1) für b ∈ N
(49)
erfüllt, damit keine weiteren Zweige ungenutzt bleiben.
m = (Mx − Mc )
mod (Mc − 1) + 1
(50)
Für m = 1 entfällt Schritt 2.
x −m+1
:
3. Für k = 1(1) MM
c −1
Zusammenfassen der Mc Knoten mit geringster Wahrscheinlichkeit.
1.6.9. Blockcodierung für diskrete gedächtnislose Quellen mit Codewörtern
variabler Länge
1.6.9.1. Tunstall-Codierung
1. Bestimme die maximale Zahl von Quellenwörtern
N
Mc − Mx
b
Mx − 1
(51)
2. Konstruiere einen Mx -wertigen Baum, wobei ausgehend von der Wahrscheinlichkeit 1 den Folgeknoten Wahrscheinlichkeiten zugeordnet werden. Jeder Folgeknoten
erhält die Wahrscheinlichkeit des Ausgangsknotens multipliziert mit der a-prioriWahrscheinlichkeit des dem Zweig zugeordneten Quellensymbols. Bei gedächtnisbehafteten Quellen ist mit den bedingten Wahrscheinlichkeiten zu multiplizieren.
12
1. Informationstheorie
1.6.9.2. Quellencodierungstheorem für Quellenwörter variabler Länge Es werden Wörter unterschiedlicher Länge lj aus Mx -wertigen Symbolen, die eine gedächtnislose Quelle mit der Entropie H(X) abgibt, McN ≥ Mx Codewörtern eines Blockcodes
der Länge N über einem Mc -wertigen Codesymbolalphabet zugeordnet.
Es gibt eine solche Codierung, bei der für das Verhältnis von Codewortlänge N zu
PMcN
lj · P (~cj ) gilt
mittlerer Quellenwortlänge ¯l = j=1
2
pmin · ld(Mx )
H(X)
N
H(X)
≤ ¯ <
+
ld(Mc )
ld(Mc ) (N · ld(Mc ) − ld(Mx )) · ld(Mc )
l
ld
(52)
mit pmin = mini P (X = xi ). Es gibt keine solche Codierung, daß
N
H(X)
¯l < ld(Mc )
(53)
1.6.9.3. Universelle Quellencodierung nach Lempel und Ziv
• Benötigt keine Kenntnis der Quellenstatistik.
• Ist selbstlernend.
• Ist für alle diskreten Quellen geeignet.
1. Initialisierung:
Eintragung der Mx unterschiedlichen Quellensymbole auf den Positionen 0 bis
Mx − 1 des Quellenwortbuches und Markierung der zugehörigen Knoten auf Tiefe
1 im Mx -wertigen Baum mit zugehöriger Quellenwortposition.
2. Lernphase:
a) Verfolgung der Quellensymbolfolge im Baum von der Wurzel bis zum bisher
bei größter Tiefe markierten Knoten.
b) Übertragung der Quellenwortnummer
für diesen Knoten mittels n Codesym
bolen und zusätzlich logMc (Mx ) Codesymbolen zur Spezifikation des nachfolgenden Quellensymbols, das sogenannte Abschlußsymbol.
c) Sende- und empfangsseitige Eintragung der Kombinationen aus bisherigem
Quellensymbolwort und Abschlußsymbol auf der nächsten freien Position im
Quellenwortbuch. Markierung des zugehörigen Knotens im Baum mit Positionsnummer.
d) Wiederholung der Lernschritte, bis alle Mc Positionen im Quellenwortbuch
besetzt sind.
3. Arbeitsphase:
Entspricht der Lernphase, jedoch ohne Neueintrag von Quellenwörtern ins Buch.
13
1. Informationstheorie
1.6.9.4. Runlength-Limited-Codierung für Binärsequenzen Repräsentation binärer Symbolsequenzen hX[k]i, k ∈ Z, X[k] ∈ {0; 1} wird umkehrbar eindeutig repräsentiert durch Symbolabstände ν ∈ N für das Symbol 1 (Runlength-Codierung).
1
Binärsymbole durch einen Symbolabstand repräsentiert.
Im Mittel werden P(X=1)
Bei Runlength-Limited-Codierung
werden Symbolabstände ν ≤ N direkt, Symbolab
stände ν > N durch ν−1
offene
Symbole
der Länge N und einen Symbolabstand (ν −1)
N
mod (N + 1) repräsentiert.
1.7. Blockcodierung für Quellenwörter mit fester Länge
1.7.1. Unvollständige Codierung
Nur für typische Sequenzen von Quellensymbolen werden Codewörter bereitgestellt. Tritt
ein untypisches Quellenwort auf, so wird ein Codierversagen angenommen.
1.7.2. ε-typische Sequenzen
Eine Symbolsequenz der Länge L einer D. M. S. heißt ε-typisch (ε ∈ [0; 1]), falls gilt
(1 − ε)P (X = xi ) ≤
ni
≤ P (X = xi ) (1 + ε)∀i ∈ {1; . . . ; Mx }
L
(54)
bzw.
n
i
(55)
− P (X = xi ) ≤ ε · P (X = xi ) ∀i ∈ {1; . . . ; Mx }
L
also falls sich die relativen Häufigkeiten nLi für alle Symbole um weniger als ε · P (X = xi )
von den Wahrscheinlichkeiten unterscheiden.
1.7.3. Satz über die Wahrscheinlichkeit ε-typischer Sequenzen
~ der Länge L, die von einer D. M. S. abgegeben wird
Falls eine Quellensymbolsequenz X
ε-typisch ist, gilt
~ ≤ 2−(1−ε)·L·H(X)
2−(1+ε)·L·H(X) ≤ P X
(56)
1.7.4. Codierversagen
~ nicht ε-typisch bezüglich
Ein Codierversagen ist das Ereignis Fi , daß die Sequenz X
Symbol xi ist, d. h.
n
i
P (Fi ) = P − P (X = xi ) > ε · P (X = xi )
(57)
L
1.7.5. Wahrscheinlichkeit eines Codeversagens
P (fail) < const. ·
P (F) < Mx ·
1
L
1
1
·
mit pmin = min (P (X = xi )) > 0
i
L · ε2 pmin
14
(58)
(59)
1. Informationstheorie
1.7.6. Zahl typischer Symbolsequenzen
Die Zahl ε-typischer Sequenzen der Länge L, die von einer Mx -wertigen D. M. S. mit
Entropie H(X) abgegeben werden, wird begrenzt durch
1
· 2(1−ε)·L·H(X) ≤ T ≤ 2(1+ε)·L·H(X)
(60)
1 − Mx ·
L · ε2 pmin
1.7.7. Quellencodierungstheorem für Quellen- und Codewörter mit festen
Wortlängen
Für eine zeitinvariante D. M. S. mit der Entropie H(X) gibt es eine Mc -wertige Blockcodierung mit der Wortlänge N dergestalt, daß je L Quellensymbole N Codiersymbolen
zugeordnet werden, wobei gilt
H(X)
ε1
N
<
+
(61)
L
ld(Mc )
L
mit ε1 > 0 und dabei die Wahrscheinlichkeit P (F), daß Codierversagen auftritt begrenzt
wird durch
ε2
P (F) ≤
(62)
L
mit ε2 > 0.
1.8. Übertragungskanäle
Derjenige Teil eines Informationsübertragungssytems, den der Entwerfer des Systems so
hinzunehmen hat, wie er ist.
1.8.1. Gedächtnisloser Kanal (D. M. C.)
Ein diskreter Kanal heißt gedächtnislos, wenn die bedingten Wahrscheinlichkeiten P (Yk |Xk )
für die Ausgangssymbole Yk bezüglich der Eingangssymbole Xk (Übergangswahrscheinlichkeiten) zum diskreten Zeitpunkt k nicht von Ein- und Ausgangssymbolen zu anderen
Zeitpunkten abhängen.
1.8.2. Zeitinvarianter Kanal
Ein diskreter Kanal ist zeitinvariant, falls gilt
P (Yk |Xk ) = P (Y |X) ∀k ∈ Z
(63)
Ein zeitinvarianter Kanal ist immer gedächtnislos.
1.8.3. Rückwirkungsfreier Kanal
Ein Kanal heißt rückwirkungsfrei genau dann, wenn seine Ausgangssymbole die am Kanal anliegende Informationsquelle nicht beeinflussen.
15
A. Mathematische Grundlagen
1.8.4. Signalstörleistungsverhältnis
E |A2i |
SNR =
σn2
(64)
1.8.5. Kanalkapazität
Der Maximalwert der Transinformations über optimiert über alle Größen, die der Entwickler beeinflussen kann wird als Kanalkapazität
bit
(65)
C = max I(X; Y )
Kanalbenutzung
bezeichnet.
Bei einem D. M. C. wir die Transinformation ausschließlich für statistisch unabhängige
Ereignisse maximiert. ⇒ D. M. S.
1.8.6. Symmetrische diskrete gedächtnislose Kanäle
1.8.6.1. Gleichmäßig streuende Kanäle Ein zeitinvarianter D. M. C. heißt gleichmäßig streuend, wenn für alle Eingangssymbole xi die Streuwahrscheinlichkeiten P (Y = yi |X = xi )
Permutationen einer Streuverteilung
~s = (s1 , . . . , sMy ) mit
My
X
sj = 1
(66)
j=1
darstellt.
Die Zeilenvektoren der Übergangsmatrix K gehen also durch Permutation auseinander
hervor.
1.8.6.2. Satz über die Streuentropie Beim gedächtnislosen gleichmäßig streuenden
Kanal gilt
My
X
H(Y |X) = −
sj ld(sj )
(67)
j=1
1.8.6.3. Kapazität
Für gleichmäßig streuende D. M. C. gilt
C = max H(Y ) +
P(X)
My
X
sj ld(sj )
(68)
j=1
A. Mathematische Grundlagen
A.1. Frequenz
A.1.1. Definition
f :=
T ist die Periode der Schwingung.
16
1
T
(69)
A. Mathematische Grundlagen
Tabelle 3: Teile von Einheiten
Bezeichnung
Präfix
Faktor
Faktor2
Faktor3
yotto
y
10−24
10−48
10−72
zepto
z
10−21
10−42
10−63
atto
a
10−18
10−36
10−54
femto
f
10−15
10−30
10−45
pico
p
10−12
10−24
10−36
nano
n
10−9
10−18
10−27
micro
µ
10−6
10−12
10−18
milli
m
10−3
10−6
10−12
centi
c
10−2
10−4
10−8
deci
d
10−1
10−2
10−4
17
A. Mathematische Grundlagen
Tabelle 4: Vielfache von Einheiten
Faktor
Faktor2
Faktor3
da
101
102
103
Hekto
h
102
104
106
Kilo
k
103
106
1012
Mega
M
106
1012
1018
Giga
G
109
1018
1027
Tera
T
1012
1024
1036
Peta
P
1015
1030
1045
Exa
E
1018
1036
1054
Zeta
Z
1021
1042
1063
Yotta
Y
1024
1048
1072
Bezeichnung
Präfix
Deka
18
A. Mathematische Grundlagen
A.1.2. Kreisfrequenz
ω := 2πf
(70)
ω
fa
(71)
z := ejΩ
(72)
A.1.3. Normierte Kreisfrequenz
Ω :=
fa ist die Abtastfrequenz.
A.1.4. Die z-Ebene
A.2. Lösungsformel für quadratische Gleichungen
ax2 + bx + c = 0
√

2

 −b ± b − 4ac
2a
p
⇒ x1,2 =
2

 −b ± j −(b − 4ac)
2a
(73)
falls b2 − 4ac ≥ 0
(74)
falls b2 − 4ac < 0
A.3. Geradengleichung
A.3.1. Gerade durch einen Punkt P (x0 , y0 ) mit Steigung m
y = m(x − x0 ) + y0
(75)
A.3.2. Gerade durch die Punkte P (x0 , y0 ) und A(x1 , y1 )
y = y0 +
y1 − y0
· (x − x0 ) mit x1 6= x0
x1 − x0
(76)
A.3.3. Parameterform
x = x0 + t cos α
(77)
y = y0 + t sin α
(78)
mit t ∈ ]−∞, ∞[.
A.3.4. Allgemeine Form der Geradengleichung
Ax + By + C = 0
19
(79)
A. Mathematische Grundlagen
cot
tan
sin
cos
Abbildung 1: Trigonometrische Funktionen
Tabelle 5: Trigonometrische Funktionen – Funktionswerte besonderer Winkel
0
π
6
π
4
π
3
π
2
π
3
2π
ϕ
0◦
30◦
45◦
60◦
90◦
180◦
270◦
I
II
III
IV
sin ϕ
0
1
2
1
0
−1
+
+
−
−
cos ϕ
1
1
2
0
−1
0
+
−
−
+
tan ϕ
0
1
3
nicht
definiert
0
nicht
definiert
+
−
+
−
cot ϕ
nicht
definiert
0
nicht
definiert
0
+
−
+
−
√
√
√
1
2
3
3
3
1
2
√
√
1
1
2
1
2
√
3
1
2
2
√
1
3
3
√
3
20
Quadrant
A. Mathematische Grundlagen
A.4. Additionstheoreme
1
sin α · sin β = (cos(α − β) − cos(α + β))
2
1
cos α · cos β = (cos(α − β) + cos(α + β))
2
1
sin α · cos β = (sin(α − β) + sin(α + β))
2
1
sin2 α = (1 − cos 2α)
2
1
2
cos α = (1 + cos 2α)
2
(80)
(81)
(82)
(83)
(84)
sin 2α = 2 sin α cos α = 1 − cos2 α
(85)
cos 2α = cos2 α − sin2 α = 1 − sin2 α
(86)
ejα − e−jα
2j
jα
e + e−jα
cos α =
2
sin α =
e
(87)
(88)
ejα = cos α + j sin α
(89)
−jα
(90)
= cos α − j sin α
A.5. Rechenregeln des Logarithmus
logb (u · v) = logb u + logb v
logb
logb uz = z · logb u
logb
u
√
n
v
u=
= logb u − logb v
(91)
1
· logb u
n
(92)
A.6. Differentiation
A.6.1. Regeln
A.6.1.1. Quotientenregel
u 0
v
=
u0 v − uv 0
v2
(93)
A.6.1.2. Kettenregel
(u(v(x)))0 = u0 (v(x)) · v 0 (x)
(94)
(u(x) · v(x))0 = u(x) · v 0 (x) + u0 (x) · v(x)
(95)
A.6.1.3. Produktregel
21
A. Mathematische Grundlagen
A.6.1.4. Logarithmische Differentiation
y = u(x)v(x) mit u(x) > 0
v(x) · u0 (x)
⇒ y 0 = u(x)v(x) v 0 (x) · ln u(x) +
u(x)
(96)
(97)
A.6.1.5. Differentiation eines parameterabhängigen Integrals
∂
∂x
b(x)
b(x)
Z
Z
∂
f (t, x) dt + f (b(x), x) · b0 (x) − f (a(x), x) · a0 (x)
f (t, x) dt =
∂x
a(x)
(98)
a(x)
A.6.1.6. l’Hospital’sche Regel
u0 (x)
u(x)
= lim 0
x→a v (x)
x→a v(x)
lim
(99)
A.6.2. Operatoren
A.6.2.1. Laplace-Operator ∆
∆f :=
n
X
∂2f
i=1
∂x2i
(100)
= Sp (Hessf (~x))
(101)
= ∇ · ∇f
(102)
A.6.2.2. Divergenz-Operator div
Definition
n
X
∂fi
divf :=
= Sp(J~v ) = ∇ · f
∂xi
(103)
∇ · (φ~v ) = (∇φ) · ~v + φ(∇~v )
(104)
i=1
Rechenregeln
∇ · (~v × w)
~ =w
~ · (∇ × ~v ) − ~v · (∇ × w)
~
(105)
A.6.2.3. Gradient-Operator ∇
Definition
gradf := ∇f = (fx1 , · · · , fxn )T
22
(106)
A. Mathematische Grundlagen
Rechenregeln
∇(A + B) = ∇A + ∇B
(107)
∇(A ◦ B) = ∇A ◦ B + ∇A ◦ B
(108)
Hierbei bedeutet „◦“ eines der Produkte „·“, „ד oder „⊗“ und „A“ bedeutet, daß ∇
nur auf A angewandt wird. Damit folgt:
∇(φψ) = φ(∇ψ) + (∇φ)ψ
(109)
∇(φ~v ) = ~v ⊗ (∇φ) + φ(∇~v )
(110)
∇(~v · w)
~ = (∇~v )T w
~ + (∇w)
~ T ~v
(111)
∇ · (φf ) = (∇φ) · f + φ∇ · f
(112)
A.6.2.4. Rotations-Operator
Definition




~ := 
rotV




∂v3
∂x2
−
∂v2
∂x3
∂v1
∂x3
−
∂v3
∂x1
∂v2
∂x1
−
∂v1
∂x2



~
=∇×V



(113)
Rechenregeln
∇ × (φ~v ) = (∇φ) × ~v + φ(∇ × ~v )
∂~v
∂w
~
∇ × (~v × w)
~ = (∇ · w)~
~ v+
− (∇ · ~v )w
~−
∂w
~
∂~v
Hierbei ist
∂~v
∂w
~
die Richtungsableitung von ~v in Richtung von w,
~ d. h.
(114)
(115)
∂
∂w
~
=w
~ · ∇.
A.6.2.5. Jacobi-Matrix (Funktionalmatrix)



~

∂
f
∇f~ =
= J f~ = 

∂~x



∂f1
∂x1
···
∂f1
∂xn
..
.
..
..
.
∂fm
∂x1
···
23
.
∂fm
∂xn



 = f~ ⊗ ∇



(116)
A. Mathematische Grundlagen
A.6.2.6. Hesse-Matrix



∂2φ 
=
Hessφ (~x) =

∂x2


∂2φ
∂x21
∂2φ
∂x1 ∂x2
∂2φ
∂x1 ∂x3
∂2φ
∂x2 x1
∂2φ
∂x22
∂2φ
∂x2 ∂x3
∂2φ
∂x3 x1
∂2φ
∂x3 x2
∂2φ
∂x23








= grad(gradφ) = ∇ ⊗ ∇φ
(117)
(118)
A.6.2.7. Zusammengesetzte Operationen
∇ · (∇ × ~v ) = 0
(119)
∇ × (∇φ) = 0
(120)
∇ × (∇ × ~v ) = ∇(∇ · ~v ) − ∆~v
(121)
A.7. Integrationsregeln
A.7.1. Partielle Integration
Z
Z
u(x)v 0 (x) dx = u(x)v(x) − u0 (x)v(x) dx
(122)
A.7.2. Substitutionsregel
x = u(t) bzw. t = v(x). u und v seien zueinander Umkehrfunktionen.
Z
Z
f (x) dx = f (u(t))u0 (t) dt bzw.
Z
Z
f (u(t))
f (x) dx =
dt
v 0 (u(t))
A.7.3. Logarithmische Integration
Z 0
f (x)
dx = ln |f (x)| + c
f (x)
Z
1
f 0 (x) · f (x) dx = · f 2 (x) + c
2
(123)
(124)
(125)
(126)
A.7.4. Integration der Umkehrfunktion
u und v seien zueinander Umkehrfunktionen. Dann ist
Z
u(x) dx = xu(x) − F (u(x)) + c1
mit
(127)
Z
F (x) =
v(x) dx + c2
24
(128)
A. Mathematische Grundlagen
Tabelle 6: Potenzen der imaginären Einheit
j(n
n
0
1
2
3
mod 4)
1
j
−1
−j
A.8. Komplexe Zahlen
z = a + jb
(129)
= ρ(cos ϕ + j sin ϕ)
(−π < ϕ ≤ +π ∧ k ∈ Z)
arg z = ϕ + 2kπ
(130)
(131)
a = ρ cos ϕ
(132)
b = ρ sin ϕ
p
ρ = a2 + b2
(133)

a

arccos ρ
(134)
für b ≥ 0 ∧ ρ > 0
a
ρ
− arccos
für b < 0 ∧ ρ > 0


unbestimmt für ρ = 0

b

für a > 0
arctan a


π


für a = 0 ∧ b > 0
+ 2
π
ϕ = −2
für a = 0 ∧ b < 0


b

arctan a + π für a < 0 ∧ b ≥ 0




arctan ab − π für a < 0 ∧ b < 0
(135)
z = ρ · ejϕ
(137)
ϕ=
e
e
a+jb
jϕ
= cos ϕ + j sin ϕ
a
a
= e · cos b + je · sin b
A.8.1. Komplexe Wurzel
p
√
ψ + 2πk
ψ + 2πk
n
n
z = |z| · cos
+ j sin
n
n
mit k = 0, . . . , n − 1 und ψ = arg(z).
25
(136)
(138)
(139)
(140)
A. Mathematische Grundlagen
Tabelle 7: Bekannte Reihen
Formel
∞
X
1
n
2
n=1
∞
X
3
Anmerkung
divergiert
qk
1
falls |q| < 1
1−q
qk
q k0 − q k1 +1
1−q
k=0
k1
X
k=k0
n
X
ln
(−1)n
∞
X
1
n2
n=1
∞
X
1
2
π
6
1
nα
konvergiert für α > 1
n
m · (m + 1)
2
n2
m · (m + 1) · (2n + 1)
6
n=1
m
X
n=1
m
X
n=1
A.9. Binomialkoeffizient
n!
n
n
=
=
n−k
k
k!(n − k)!
(141)
A.9.1. Reihen
Für konvergente Reihen gilt
∞
X
(αan + βbn ) = α
n=1
2
3
∞
X
n=1
Harmonische Reihe
Geometrische Reihe
26
an + β
∞
X
n=1
bn
(142)
Literatur
A.10. Abschätzung mittels Union-Bound
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ≤ P (A) + P (B)
(143)
A.11. Bessel-Funktion erster Art
A.11.1. Definition
1
Jν (η) =
2π
Zπ
ej(η sin x−νx) dx
(144)
−π
≈
x n+1
1
1 x n
·
−
·
falls x 1
n!
2
(n + 1)!
2
(145)
A.11.2. Eigenschaften
• n gerade ⇒ Jn (x) = Jn (−x) = J−n (x) = J−n (−x)
• n ungerade ⇒ Jn (x) = −Jn (−x) = −J−n (x) = J−n (x)
Literatur
[1] Furlan, Peter: Das Gelbe Rechenbuch 1. Lineare Algebra, Differentialrechnung für
Ingenieure, Naturwissenschaftler und Mathematiker. Dortmund : Verlag Martina
Furlan, 1995. – ISBN 3–9316–4500–2
[2] Huber, Johannes: Informationstheorie. Erlangen : Vorlesungsskript zur gleichnamigen Veranstaltung, 2006
[3] Huber, Johannes: Nachrichtenübertragung. Erlangen : Vorlesungsskript zur gleichnamigen Veranstaltung, 2006
[4] Kammeyer, Karl-Dirk: Nachrichtenübertragung. Stuttgart : Teubner, 2004. – ISBN
3–519–26142–1
[5] Konstantin Adolfowitsch Semendjajew, Ilja Nikolajewitsch B.: Taschenbuch
der Mathematik. Thun und Frankfurt am Main : Verlag Harri Deutsch, 2001. – ISBN
3–8171–2005–2
[6] Paul Mühlbauer, Friedrich B.: Mathematische Formeln und Definitionen. München : Bayerischer Schulbuchverlag, 1998. – ISBN 3–7627–3261–X
27
Index
Symbole
F
∆, 22
j, 25
∇, 22
femto, 17
Funktion
trigonometrische, 20, 21
Funktionalmatrix, 23
A
G
Ableitungsoperator
Nabla, 22
Divergenz, 22
Gradient, 22
Laplace, 22
Rotation, 23
zusammengesetzte Operationen, 24
Additionstheoreme, 21
atto, 17
Geradengleichung
allgemeine Form, 19
durch Punkt und Steigung, 19
durch zwei Punkte, 19
Parameterform, 19
Giga, 18
Gradiend, 22
H
B
Bessel-Funktion, 27
Binomialkoeffizient
Hekto, 18
n
k
I
, 26
Integration
logarithmische, 24
partielle, 24
Substitutionsregel, 24
Umkehrfunktion, 24
C
centi, 17
cos-, 21
D
J
deci, 17
Deka, 18
Differentialoperator, siehe Ableitungsoperator
Differentiation, 21
Kettenregel, 21
logarithmische, 22
parameterabhängiges Integral, 22
Produktregel, 21
Quotientenregel, 21
Divergenz, 22
Jakobimatrix, 23
K
Kettenregel, 21
Kilo, 18
Komplexe Zahlen, 25
L
Laplace-Operator, 22
l’Hospitalsche Regel, 22
Logarithmus
Rechenregeln, 21
E
Exa, 18
28
Index
M
Y
Matrix
Funktional, 23
Hesse, 24
Jakobi, 23
Mega, 18
micro, 17
milli, 17
Yotta, 18
yotto, 17
Z
Zahl
komplexe, 25
Wurzel, 25
zepto, 17
Zeta, 18
N
nano, 17
P
Peta, 18
pico, 17
Produktregel, 21
Q
Quadratische Gleichung, 19
Quotientenregel, 21
R
Reihe
geometrische, 26
harmonische, 26
Reihen, 26
Rotation rot, 23
S
sin-, 21
T
Tera, 18
U
Union-Bound, 27
W
Wurzel
komplexe, 25
29
Herunterladen