Mathematik für Informatiker III

Werbung
Mathematik für Informatiker III
Institut für Informatik
Freie Universität Berlin
Dozent: Dr. Klaus Kriegel
Mitschrift: Jan Sebastian Siwy
Wintersemester 2002/03
Inhaltsverzeichnis
Einleitung
2
1 Stochastik
1.1 Wahrscheinlichkeitsräume . . . . . . . . . . . . . . . . .
1.1.1 Wiederholung . . . . . . . . . . . . . . . . . . . .
1.1.2 Stetige Wahrscheinlichkeitsräume . . . . . . . . .
1.1.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit
1.2 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Diskrete Zufallsvariablen . . . . . . . . . . . . . .
1.2.2 Stetige Zufallsvariablen . . . . . . . . . . . . . . .
1.3 Erwartungswert . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Bestimmung des Erwartungswertes . . . . . . . .
1.3.2 Abweichungen vom Erwartungswert . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Lineare Algebra
2.1 Vektoren – der intuitive Ansatz . . . . . . . . . . . . . . . . . . .
2.1.1 Koordinatenfreie Einführung . . . . . . . . . . . . . . . . .
2.1.2 Koordinatensystem . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Zusammenhang zwischen Vektoren und linearen Gleichungssystemen (LGS) . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Linearkombinationen und lineare Hülle . . . . . . . . . . .
2.3 Lineare Unabhängigkeit, Basis und Dimension . . . . . . . . . . .
2.3.1 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . .
2.3.2 Erzeugendensystem und Basis . . . . . . . . . . . . . . . .
2.3.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Kern und Bild von linearen Abbildungen . . . . . . . . . .
2.4.3 Spezielle Homomorphismen . . . . . . . . . . . . . . . . .
2.4.4 Rang einer linearen Abbildung . . . . . . . . . . . . . . . .
1
3
3
3
4
10
13
13
16
19
19
21
26
26
26
28
29
30
30
32
33
35
35
39
42
45
45
49
51
53
2.5
Matrizen . . . . . . . . . . . . . . . . . .
2.5.1 Einleitung . . . . . . . . . . . . .
2.5.2 Multiplikation von Matrizen . . .
2.5.3 Lineare Abbildungen . . . . . . .
2.6 Rang einer Matrix . . . . . . . . . . . .
2.6.1 Einleitung . . . . . . . . . . . . .
2.6.2 Elementare Umformungen . . . .
2.6.3 Obere Dreiecksform . . . . . . . .
2.6.4 Elementarmatrizen . . . . . . . .
2.7 Lineare Gleichungssysteme . . . . . . . .
2.7.1 Einleitung . . . . . . . . . . . . .
2.7.2 Gauß’scher Algorithmus . . . . .
2.7.3 Quotientenraum . . . . . . . . . .
2.8 Inverse Matrizen . . . . . . . . . . . . .
2.8.1 Einheitsmatrix . . . . . . . . . .
2.8.2 Inverse Matrizen . . . . . . . . .
2.9 Determinanten . . . . . . . . . . . . . .
2.9.1 Einleitung . . . . . . . . . . . . .
2.9.2 Eigenschaften von Determinanten
2.9.3 Cramer’sche Regel . . . . . . . .
2.9.4 Anwendungen von Determinanten
2.10 Euklidische Vektorräume . . . . . . . . .
2.11 Affiner Raum (intuitiver Zugang) . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 54
. 54
. 55
. 56
. 62
. 62
. 64
. 65
. 68
. 70
. 70
. 73
. 78
. 81
. 81
. 81
. 84
. 84
. 87
. 92
. 93
. 98
. 105
3 Endliche Körper und Codierungstheorie
3.1 Restklassenarithmetik . . . . . . . . . . . . .
3.1.1 ... . . . . . . . . . . . . . . . . . . . . .
3.1.2 RSA-Kryptosysteme . . . . . . . . . .
3.2 Grundbegriffe der Codierungstheorie . . . . .
3.3 Allgemeine Schranken für die Informationsrate
3.4 Linear Codes . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
110
110
110
114
115
121
124
Einleitung
Themen der Vorlesung:
• Stochastik (Wahrscheinlichkeitstheorie)
diskret → kontinuierlich
Ereignis → messbare Ereignisse
Erwartungswert: Summe → Integral
Maße für die Abweichung vom Erwartungswert
• Lineare Algebra
Vektoren
Basis
Matrix
lineare Gleichungssysteme
• Endliche Körper und Codierungstheorie
3
Kapitel 1
Stochastik
1.1
1.1.1
Wahrscheinlichkeitsräume
Wiederholung
Erläuterung: Ein endlicher diskreter Wahrscheinlichkeitsraum (Ω, p) besteht
aus einer endlichen Menge Ω von elementaren Ereignissen von einer Verteilungsfunktion p:
p : Ω → [0, 1]
für die gilt:
X
p(a) = 1
a∈Ω
Jede Teilmenge A ⊆ Ω ist ein Ereignis. Die Verteilungsfunktion p wird erweitert
zu einem Wahrscheinlichkeitsmaß, das ebenfalls mit p bezeichnet wird:
X
p(a)
p : 2Ω → [0, 1] mit p(A) =
a∈A
Ω
Bemerkung: Der Ausdruck 2 bezeichnet die Potenzmenge von Ω:
2Ω = P(Ω)
Hinweis: Diese Definitionen sind erweiterbar auf abzählbare Mengen Ω von
Elementarereignissen.
Beispiel: Es sei gegeben ein Würfel mit den Ereignissraum Ω = {1, 2, . . . 6}
und der gleichverteilten Verteilungsfunktion p. Das Ereignis A sei der Wurf einer
geraden Zahl
A = {2, 4, 6}
Die Wahrscheinlichkeit für das Ereignis A beträgt:
1 1 1
1
p(A) = + + =
6 6 6
2
4
Eigenschaften: Für das Verscheinlichkeitsmaß gilt (Ā = Ω\A):
p(Ā) = 1 − p(A)
p(A ∪ B) = p(A) + p(B)
für alle A, B ⊆ Ω mit A ∩ B = ∅.
1.1.2
Stetige Wahrscheinlichkeitsräume
Verallgemeinerung: Ergebnisse (eines Experiments) sind reelle Zahlen oder
(noch allgemeiner) Elemente einer überabzählbaren Menge (z.B. Punkte in einem
Raum, Punkte in einer Kreisscheibe).
Probleme: Aus der bisherigen Definition eines diskreten Wahrscheinlichkeitsraumes ergeben sich folgende Probleme:
• Der Ausdruck
X
p(a)
a∈Ω
ist nicht sinnvoll, wenn Ω überabzählbar ist.
• Die Potenzmenge der Ereignisse
2Ω = P(Ω)
führt als Ereignismenge zu weiteren Schwierigkeiten.
Modell:
• Nicht alle A ⊆ Ω sind Ereignisse (messbar).
• Die Menge F der Ereignisse ist eine Teilmenge von 2Ω mit den folgenden
Eigenschaften:
A ∈ F ⇒ Ā ∈ F
∞
[
A1 , A2 , . . . ∈ F ⇒
Ai ∈ F
i=1
Anmekung: Eine Mengenfamilie F mit den beiden Eigenschaften nennt
man eine σ-Algebra. Ist eine Mengefamilie nur abgeschlossen bezüglich
Komplement und endlichen Vereinigungen, so nennt man sie eine Algebra.
5
Definition: Ein Wahrscheinlichkeitsraum ist ein Trippel (Ω, F, p), wobei
• F ⊆ 2Ω ist eine σ-Algebra über Ω
• p : F → [0, 1] ist ein Wahrscheinlichkeitsmaß mit
– p(Ā) = 1 − p(A) für alle A ∈ F
– für jede Folge A1 , A2 , . . . von paarweise disjunkten Ereignissen Ai ∈ F
gilt
!
∞
∞
[
X
p
Ai =
p(Ai )
i=1
i=1
Eigenschaften und Folgerungen:
• F ist abgeschlossen gegen endliche und abzählbare Durchschnitte:
A, B ∈ F ⇒ A ∩ B = Ā ∪ B̄ ∈ F
∞
∞
\
[
A1 , A2 , . . . ∈ F ⇒
Ai =
Āi ∈ F
i=1
i=1
• F ist abgeschlossen gegen Mengendifferenzen:
A\B = A ∩ B̄
• p ist monoton:
A ⊆ B ⇒ p(A) ≤ p(B)
Denn aus A ⊆ B folgt:
B = A ∪ (B\A)
Die Vereinigung A ∪ (B\A) ist disjunkt. Daraus folgt:
p(A) ≤ p(A) + p(B\A) = p(B)
Satz: Ist A1 ⊆ A2 ⊆ . . . eine aufsteigende Folge von Ereignissen und ist A die
Vereinigung dieser Ereignisse
∞
[
A=
Ai
i=1
dann gilt die für die Wahrscheinlichkeit von A
p(A) = lim p(An )
n→∞
6
Beweis:
• Die Folge p(A1 ), p(A2 ), . . . ist monoton wachsend und beschränkt. Damit
ist sie auch konvergent.
• Aus A1 ⊆ A2 ⊆ . . . folgt
A = A1 ∪ (A2 \A1 ) ∪ (A3 \A2 ) ∪ . . .
| {z } | {z }
B2
B3
Die Vereinigung ist disjunkt. Damit ergibt sich für die Wahrscheinlichkeit
von A:
∞
X
p(A) = p(A1 ) +
p(Bi )
i=2
= p(A1 ) + lim
n→∞
=
n
X
p(Bi )
i=2
lim (p(A1 ) + (p(A2 ) − p(A1 )) + (p(A3 ) − p(A2 )) + . . .
n→∞
+(p(An ) − p(An−1 )))
=
lim p(An )
n→∞
Hinweis: Analog gilt für B1 ⊇ B2 ⊇ . . . mit B als Schnitt über diese Ereignisse
B=
∞
\
Bi
i=1
die Wahrscheinlichkeit von B:
p(B) = lim p(Bn )
n→∞
Beispiel: Betrachtet werden zufällige reelle Zahlen aus dem Intervall [0, 1] mit
Gleichverteilung:
• Jedes Intervall (a, b] ist Ereignis. Die Wahrscheinlichkeit für dieses Ereignis
beträgt
p((a, b]) = b − a
• Aus der σ-Algebra-Eigenschaft folgt, dass dann auch offene und abgeschlossenen Intervalle in F sein müssen.
– abgeschlossene Intervalle:
[a, b] =
∞ \
i=1
7
a i
a − ,b
i
– offene Intervalle:
(a, b) = (a, 1]\[b, 1]
– auch jede reelle Zahl aus dem Intervall [0, 1]:
∀x ∈ [0, 1] {x} ∈ F
Die Ereignismenge F besteht somit aus allen abzählbaren disjunkten Vereinigungen von Intervallen (offen, abgeschlossen, halboffen oder Punkt):
∞
[
hai , bi i ∈ F
i=1
wobei bi ≥ ai und h∈ {[, (} und i ∈ {), ]} und bi ≤ ai+1 .
Für die Wahrscheinlichkeit eines solchen Ereignisses gilt somit:
!
∞
∞
[
X
p
hai , bi i =
(bi − ai )
i=1
i=1
Beispiel: Ananlog kann die Gleichverteilung für zufällige Punkte aus dem Einheitsquadrat [0, 1] × [0, 1] definiert werden.
p((a, b] × (c, d]) = (b − a)(d − c)
8
Achtung: Der Begriff Gleichverteilung ist nicht bei jeder Objektklasse so leicht
zu beschreiben. Zur Veranschaulichung werden zufällige Geraden betrachtet, die
den Einheitskreis S schneiden, und die Länge l der Sehne gemessen.
Das Ereignis A besteht aus allen Geraden, die S schneiden, für die gilt, dass l ≥ 1.
• 1. Ansatz:
Schnittpunkte von Geraden von S sind gleichverteilt auf S. Betrachten nur
Geraden durch festen Punkt P ∈ S.
Geraden durch P sind gleichverteilt bezüglich des Winkels α zur Tangente
(0 ≤ α ≤ π).
l≥1 ⇔
p(A) =
π
5π
≤α≤
6
6
5π
π
−6
2
6
= ≈ 0,67
π
3
9
• 2. Ansatz:
Alle Richtungen sind gleichverteilts, deshalb betrahten wir nur Geraden
einer bestimmten Richtung, o.B.d.A. nur horizonrale Geraden.
Geraden sind gleichverteilt bezüglich −1 ≤ h ≤ 1.
√
2
1
3
2
h +
=1 ⇒ h=
2
2
√
√
3
2· 2
3
=
≈ 0,87
p(A) =
2
2
• 3. Ansatz:
Jede Gerade ist durch den Mittelpunkt q auf ihrer Sehne bestimmt (außer
Durchmesser: sind vernachlässigbar).
Annahme: Punkte q sind gleichverteilt auf Kreisscheibe.
√
3
l ≥ 1 ⇔ Abstand von q zu (0, 0) ≤
2√
Fläche von Kreis mit Radius 23
π · 34
3
p(A) =
=
=
Fläche von Einheitskreis
π·1
4
10
1.1.3
Bedingte Wahrscheinlichkeit und Unabhängigkeit
Definition: Sei (Ω, F, p) ein Wahrscheinlichkeitsraum, die Ereignisse A, B ∈ F
und p(B) > 0, so ist die bedingte Wahrscheinlichkeit von Ereignis A unter B
gegeben durch
p(A ∩ B)
p(A | B) =
p(B)
Beispiel:
Sei Ω = [0, 1] × [0, 1] eine Menge der Ereignisse mit Gleichverteilung:
• A = {(x, y) | x ≥ 13 }
• B = {(x, y) | y ≥ 13 }
• C = {(x, y) | x ≤ 32 }
2
3
4
p(A ∩ B) =
9
1
p(A ∩ C) =
3
p(A) = p(B) = p(C) =
p(A | B) =
p(A | C) =
11
4
9
2
3
1
3
2
3
=
2
= p(A)
3
=
1
6= p(A)
2
Definition: Zwei Ereignisse A und B sind unabhängig, wenn
p(A ∩ B) = p(A) · p(B)
Folgerung: Wenn A und B unabhängig und p(B) > 0, dann
p(A | B) = p(A)
Definition: Eine Familie {Ai | i ∈ I} von Ereignissen ist unabhängig, wenn für
jede endliche Teilmenge J ⊆ I
!
\
Y
p
Ai =
p(Ai )
i∈J
i∈J
Achtung: Es gibt Familien von paarweise unabhängigen Ereignissen, die nicht
unabhängig sind.
Beispiel: Sei Ω = {a, b, c, d} eine Menge der Elementarereignisse mit den Wahrscheinlichkeiten p(a) = p(b) = p(c) = p(d) = 14 . Es seien gegeben die folgenden
Ereignisse:
• A = {a, d}
• B = {b, d}
• C = {c, d}
1
2
1
p(A ∩ B) =
= p(A) · p(B)
4
1
p(A ∩ C) =
= p(A) · p(C)
4
1
p(B ∩ C) =
= p(B) · p(C)
4
p(A) = p(B) = p(C) =
Das heißt, dass die Ereignisse paarweise unabhängig sind. Dennoch ist die Familie
mit den Ereignissen {A, B, C} nicht unabhängig:
p(A ∩ B ∩ C) =
1
1
6=
= p(A) · p(B) · p(C)
4
8
12
Satz (Partitionstheorem): Sei {B1 , B2 , . . .} eine Partition von Ω, wobei für
alle Bi gilt, dass p(Bi ) > 0. Dann ist
X
p(A) =
p(A | Bi ) · p(Bi ) für alle A ∈ F
i
Beweis:
p(A) = p(A ∩ Ω)
!!
= p A∩
[
Bi
i
!
[
= p
(A ∩ Bi )
(disjkunte Vereinigung)
i
=
X
p(A ∩ Bi )
i
=
X p(A ∩ Bi )
p(Bi )
i
=
X
· p(Bi )
p(A | Bi ) · p(Bi )
i
Beispiel: Morgen früh regnet es (R) oder schneit (S) oder es gibt keinen Niederschlag (K).
• Bei Regen ist die Wahrscheinlichkeit für eine Busverspätung 31 .
• Bei Schnee ist die Wahrscheinlichkeit für eine Busverspätung 32 .
• Bei Regen ist die Wahrscheinlichkeit für eine Busverspätung 61 .
Die Wettervorhersage:
• p(R) =
1
5
• p(S) = p(K) =
2
5
p(Busverspätung) =
1 1 2 2 1 2
2+8+2
12
2
· + · + · =
=
=
3 5 3 5 6 5
30
30
5
13
1.2
Zufallsvariablen
1.2.1
Diskrete Zufallsvariablen
Definition: Sei (Ω, F, p) ein Wahrscheinlichkeitsraum. Eine Funktion
X:Ω→R
ist eine diskrete Zufallsvariable, falls
• das Bild der Zufallsvariable
Im X = {x ∈ R | ∃ ω ∈ Ω x = X(ω)}
abzählbar ist und
• für alle x ∈ R:
X −1 (x) = {ω | X(ω) = x} ∈ F
Konsequenz: Für alle T ⊆ R ist
X −1 (T ) ∈ F
denn
[
X −1 (T ) =
X −1 (x)
x∈(T ∩ Im X)
Definition: Sei X eine diskrete Zufallsvariable auf (Ω, F, p). Die Gewichtsfunktion pX : R → [0, 1] von X sei wie folgt definiert:
pX (x) = p(X −1 (x))
Oft verwendet man für pX (x) auch die intuitivere Schreibweise p(X = x).
Konsequenz:
X
x∈Im X
X
pX (x) =
p({ω | X(ω) = x})
x∈Im X
!
= p
[
{ω | X(ω) = x}
x∈Im X
= p(Ω) = 1
Die Funktion pX charakterisiert die Zufallsvariable X sehr genau, in dem Sinne,
dass man für jede solche Beschreibung eine Realisierung durch einen Wahrscheinlichkeitsraum und eine Zufallsvariable finden kann.
14
Sei S ⊆ R abzählbar und für jedes s ∈ S sei eine Zahl πs ∈ [ 0, 1 ] gegeben mit
X
πs = 1
s∈S
Konstruktion:
• Ω=S
• F = P(S)
P
• p(A) =
πs für jedes A ⊆ S
s∈A
• X:Ω→R
• X(s) = s
Beispiele: p ohne Zusatz ist eine Zahl aus [ 0, 1 ], q = 1 − p
1. Bernoulli-Verteilung:
Eine Zufallsvariable X mit Bernoulli-Verteilung:
• Im X = {0, 1}
• pX (0) = q und pX (1) = p
Probe: pX (0) + pX (1) = p + q = p + (1 − q) = 1
z.B. Münzwurf mit unfairer“ Münze:
”
• Wahrscheinlichkeit für Kopf K: p
• Wahrscheinlichkeit für Zahl Z: q = 1 − p
Die Zufallsvariable wird folgendermaßen definiert:
X : {K, Z} → {0, 1}
X(K) = 1
X(Z) = 0
2. Binominialverteilung
Eine Zufallsvariable X mit Binominialverteilung mit den Parametern n und p:
• Im X = {0, 1, . . . , n} und
• pX (k) = nk pk q n−k für alle k ∈ {0, 1, . . . , n}
15
Probe:
n
P
pX (k) =
n
P
n
k
k=0
k=0
pk q n−k = (p + q)n = 1n = 1
Binominialverteilung tritt auf z.B. bei n-facher Wiederholung eines BernoulliExperiments (unabhängig).
• Ω = {K, Z}n
• ω = (a1 , a2 , . . . , an ) mit ai = {K, Z}
• p(ω) = pk(ω) · q z(ω)
• X(ω) := k(ω)
mit k(ω) = Anzahl der Köpfe in ω und z(ω) = Anzahl der Zahlen in ω
Wahrscheinlichkeit, dass bei n Münzwürfen genau k-mal Kopf fällt:
pX (k) = p({ω | X(ω) = k})
= p({ω | k(ω) = k})
X
=
p(ω)
ω mit
k(w)=k
X
=
pk q n−k
ω mit
k(w)=k
=
n
k
pk q n−k
3. Geometrische Verteilung:
Wiederholung eines Wurfes einer (p, q)-Münze so lange, bis zum erstem mal
K auftritt:
• Ω = {K, ZK, ZZK, ZZZK, ZZZZK, . . .}
• p((K)) = p, p((ZK) = qp, p((Zl K)) = q l p
• X(ω) = |ω| (Anzahl der Würfe)
• Im(X) = {1, 2, 3, . . .}
• pX (k) = p({ω | |ω| = k}) = p(Zk−1 K) = q k−1 · p
4. Poisson-Verteilung:
Eine Zufallsvariable X mit Poisson-Verteilung mit Parameter λ:
• Im(X) = N
• pX (k) =
1
k!
(inkl. der Null)
λk e−λ
16
∞
P
Probe:
pX (k) =
∞
P
k=0
k=0
1
k!
λk e−λ = e−λ ·
P∞
1
k=0 k!
λk = e−λ · eλ = 1
Die Poisson-Verteilung tritt auf als Grenzwert von Binominialverteilung mit
n groß, p klein, λ = n · p und k n.
n
k
1.2.2
k
· p · (1 − p)
n−k
n λ k
=
(1 − p)n−k
k
n
n −k
k
k
n λ
λ
λ
≈
·
· 1−
· 1−
k! nk
n
n
λk −λ
·e
≈
k!
Stetige Zufallsvariablen
Definition: Eine Zufallsvariable auf (Ω, F, p) ist eine Abbildung X : Ω → R,
so dass für alle x ∈ R gilt:
{ω ∈ Ω | X(ω) ≤ x} ∈ F
Definition: Die Funktion
FX (x) = p({ω ∈ Ω | X(ω) ≤ x})
nennt man die Verteilungsfunktion von X.
Lemma: Für jede Verteilungsfunktion F = FX einer Variablen X : Ω → R gilt:
a) x ≤ y
⇒ F (x) ≤ F (y)
b) lim F (x) = 0 und lim F (x) = 1
x→−∞
x→∞
c) ∀ x ∈ R
lim F (x + h) = F (x)
h→0+
Beweis: Sei Ax = {ω ∈ Ω | X(ω) ≤ x} ∈ F und F (x) = p(Ax )
a) x ≤ y
⇒ Ax ⊆ Ay
⇒ p(Ax ) ≤ p(Ay )
| {z } | {z }
F (x)
b) ∅ =
Ω=
∞
T
A−x
x=1
∞
S
Ax
x=1
F (y)
⇒ 0 = p(∅) = lim p(A−x ) = lim F (x)
x→∞
x→−∞
⇒ 1 = p(Ω) = lim p(An ) = lim F (x)
x→∞
17
x→∞
Achtung: Die Funktion FX ist nicht zwingend stetig, z.B. bei geometrischer
Verteilung:
FX
1
0,75
0,5
0,25
1
2
3
4
5
6
7
8
9
k
Definition: Eine Zufallsvariable X : Ω → R ist stetig, wenn eine Funktion
f : R → R+ existiert, so dass
Z x
f (n) dn
FX (x) =
∞
f wird Dichte der Verteilung genannt.
Beispiel: Gleichverteilung im Intervall [ 1, 3 ].
Ist 1 ≤ y ≤ x ≤ 3, so ist
p({ω | ω ∈ [ y, x ]}) =
x−y
3−1
X hat die Verteilung
FX (x) = p({ω | X(ω) ≤ x}) =
18
x−1
x−1
=
3−1
2
Suche f , so dass
Z
∞
f (n) dn
FX (x) =
−∞
FX
1
0,75
f
0,5
0,25
0
1
2
3
Gesuchte Funktion lautet:
f (x) =


1
2
falls

0
sonst
x ∈ [ 1, 3 ]
Vergleich:
• diskret
– Gewichtsfunktion pX
– Addition der Einzelwahrscheinlichkeiten
• stetig
– Dichtefunktion f
– Integrieren über der Dichtefunktion
19
x
1.3
1.3.1
Erwartungswert
Bestimmung des Erwartungswertes
Definition: Ist X : Ω → R eine diskrete Zufallsvariable, so ist der der Erwartungswert von X definiert durch
X
X
E(X) =
x · pX (x) =
x · p({ω | X(ω) = x})
x∈ImX
x∈ImX
falls diese Reihe absolut konvergiert.
Definition: Ist X : Ω → R eine stetige Zufallsvariable mit der Dichtefunktion f , so ist
Z ∞
E(X) =
x · f (x)dx
∞
falls beide uneigentlichen Integrale existieren.
Lemma (Linearität der Erwartungswerte): Sind X und Y Zufallsvariablen
über (Ω, F, p) mit den Erwartungswerten E(X) und E(Y ), dann gilt:
• E(X + Y ) = E(X) + E(Y )
mit (X + Y )(ω) = X(ω) + Y (ω)
• E(α · X) = α · E(X)
mit (α · X)(ω) = α · X(ω) und α ∈ R
Beispiele:
1. Zufallsvariable X mit Bernoulli-Verteilung mit Parameter p:
• ImX = {0, 1}
• pX (1) = p und pX (0) = 1 − p
• E(X) = 1 · p + 0 · (1 − p) = p
2. Zufallsvariable X mit Binominialverteilung mit den Parametern n und p:
1 falls i-ter Wurf K ist
• X = X1 + X2 + X3 + . . . Xn mit Xi =
0 falls i-ter Wurf Z ist
• E(Xi ) = p
• E(X) = E(X1 ) + E(X2 ) + E(X3 ) + . . . + E(Xn ) = n · p
20
3. Zufallsvariable X mit geometrischer Verteilung mit Parameter p:
• ImX = N+
• pX (k) = (1 − p)k−1 · p = q k−1 · p
Bestimmung des Erwartungswertes:
E(X) =
∞
X
k · (1 − p)k−1 · p
k=1
∞
X
= p·
k=1
∞
X
= p·
q k−1 +
∞
X
qk + q ·
q k−1 +
k=2
∞
X
!
q k−1 + . . .
k=3
∞
X
k
2
qk + q ·
k=0
k=0
∞
X
q + ...
k=0
q
q2
1
+
+
+ ...
p·
1−q 1−q 1−q
p
· 1 + q + q2 + . . .
1−q
1
1·
1−q
1
p
=
=
=
=
4. Zufallsvariable X mit Poisson-Verteilung mit Paramter λ:
• ImX = N
• pX (k) =
1
k!
· λk · e−λ
Bestimmung des Erwartungswertes:
E(X) =
∞
X
k·
1
· λk · e−λ
k!
k·
1
· λk · e−λ
(k − 1)!
k=0
=
∞
X
k=1
= λ·
∞
X
k·
k=1
= λ
21
1
· λk−1 · e−λ
(k − 1)!
!
5. stetige Zufallsvariable X mit Gleichverteilung über einem Intervall [ a, b ]:
Z ∞
x · f (x)dx
E(X) =
∞
Z b
1
=
x·
dx
b−a
a
Z b
1
=
x dx
·
b−a a
b
1
1 2
=
·
x
b−a 2
a
1
1 2 1 2
=
·
b − a
b−a
2
2
2
2
b −a
=
2(b − a)
(b + a)(b − a)
=
2(b − a)
a+b
=
2
1.3.2
Abweichungen vom Erwartungswert
Satz (Markow-Ungleichung): Sei X : Ω → R≥0 eine Zufallsvariable mit dem
Erwartungswert E(X) unt t > 0, dann gilt:
p(X ≥ t) ≤
E(X)
t
Beweis für diskrete Variablen:
X
x · p(X = x)
E(X) =
x∈ImX
=
X
x · p(X = x) +
x∈ImX
x<t
≥
X
x∈ImX
x≥t
x · p(X = x)
x∈ImX
x≥t
≥ t·
X
X
p(X = x)
x∈ImX
x≥t
= t · p(X ≥ t)
E(X)
≥ p(X ≥ t)
t
22
x · p(X = x)
Satz: Sei X : Ω → R eine diskrete Zufallsvariable und g : R → R eine beliebige
Funktion, dann ist Y = gX : Ω → Ω eine Zufallsvariable mit
Y (ω) = g(X(ω))
und
X
E(Y ) =
g(x) · pX (x)
x∈ImX
falls diese Reihe absolut konvergiert.
Beispiel: Sei X eine Zufallsvariable mit geometrischer Verteilung mit dem Parametern p und g(x) = x2 eine Funktion (q = 1 − p):
E(gX) = E(X 2 )
=
∞
X
k 2 · q k−1 · p
k=1
=
∞
X
2
1 ·q
k−1
·p+
k=1
= 1 + (1 + 2) · q ·
∞
X
k=2
∞
X
2
2
(2 − 1 ) ·q
| {z }
k−1
·p+
(2+1)(2−1)
p · q k−1 +(1 + 4) · q 2 ·
|k=1 {z
1
∞
X
k=1
∞
X
(32 − 22 ) ·q k−1 · p + . . .
| {z }
(3+2)(3−2)
p · q k−1 +(1 + 6) · q 3 · . . .
|k=1 {z
}
1
}
= 1 + q + q2 + q3 + . . . + 2 · q + 4 · q2 + 6 · q3 + . . .
∞
2q X
1
+ 2 ·
k · qk · p
=
1 − q p k=0
=
1 2q
+
p p2
=
p + 2 − 2p
p2
=
2−p
p2
Definition: Die Erwartungswerte E(X i ) werden i-tes Moment von X genannt.
23
Definition: Die Varianz einer Zufallsvariable X mit E(X) = µ ist
Var (X) =
=
=
=
=
=
E((X − µ)2 )
E((X − E(X))2 )
E X 2 − 2 · X · E(X) + (E(X))2
E(X 2 ) − 2 · E(X) · E(X) + (E(X))2
E(X 2 ) − 2 · (E(X))2 + (E(X))2
E(X 2 ) − (E(X))2
| {z }
| {z }
2. Moment
Die Größe σ =
(1. Moment)2
p
Var (X) wird Standardabweichung von X genannt.
Beispiele:
1. Zufallsvariable X mit Bernoulli-Verteilung mit Parameter p:
Var (X) = E(X 2 ) − (E(X))2
= (12 · p + 02 · (1 − p)) − (1 · p + 0 · (1 − p))2
= p − p2
2. Zufallsvariable X mit Binominialverteilung mit den Parametern n und p:
An der Stelle kann genutzt werden, dass für unabhängige Zufallsvariablen
gilt:
• Var (X + Y ) = Var (X) + Var (Y )
• p(X = x ∧ Y = y) = p(X = x) · p(Y = y)
Eine Zufallsvariable X mit Binominialverteilung ist eine Summe aus unabhängigen Bernoulli-Variablen:
X = X 1 + X2 + . . . + X n
Damit ergibt sich für die Varianz:
Var (X) = n · (p − p2 )
3. Zufallsvariable X mit geometrischer Verteilung mit Parameter p:
Var (X) = E(X 2 ) − (E(X))2
2
2−p
1
=
−
p2
p
1−p
=
p2
1
1
= 2−
p
p
24
Satz (Tschebyscheff-Ungleichung): Sei X eine Zufallsvariable mit dem Erwartungswert E(X) = µ und der Varianz Var (X) = σ 2 , dann gilt für alle c > 0:
p(|X − µ| ≥ c) ≤
σ2
c2
Spezialfall für E(X) = µ = 0:
E(X 2 )
p(|X| ≥ c) ≤
c2
Beispiel: Zufallsvariable X mit Binominialverteilung mit den Parametern n
und p = 21 :
1
n
=
2
2
2 !
1
1
n
Var (X) = n ·
−
= = σ2
2
2
4
n
Wähle: c =
4
n
4
n n 4
≤
p X − ≥
2 =
n
2
4
n
E(X) = n ·
4
lim
n→∞
4
= 0
n
Das heißt, dass die Wahrscheinlichkeit dafür, dass bei n Würfen weniger als
oder mehr als 43 der Ergebnisse Köpfe sind, geht für große n gegen 0.
Dagegen die Abschätzung mit der Markow-Ungleichung:
n
3
2
≤ 32 =
p X ≥ ·n
4
3
·n
4
25
1
4
Gaus’sche Normalverteilung: N (µ, σ 2 ) mit Dichtefunktion f
f (x) = √
1
1
2πσ 2
2
· e− 2σ2 ·(x−µ)
Hinweis: Der Abstand von µ zum Wendepunkt von f (x) beträgt σ.
26
Kapitel 2
Lineare Algebra
2.1
2.1.1
Vektoren – der intuitive Ansatz
Koordinatenfreie Einführung
−→
Definition: Ein Vektor wird durch geordnetes Punktepaar AB repräsentiert
(veranschaulicht durch die gerichtete Strecke von A nach B), wobei zwei Vektoren
−−→
−→
AB und A0 B 0 gleich sind, wenn es eine Translation (Parallelverschiebung) gibt,
die A in A0 und B in B 0 überführt.
Zur Betonung des Aspekts, dass der Anfangspunkt beliebig sein kann, wird der
Begriff des freien Vektors verwendet.
Legt man einen Bezugspunkt O im Raum fest und betrachtet für einen beliebigen
−→
Punkt P den Vektor OP , so wird dieser der Ortsvektor von P genannt.
27
Addition von Vektoren: Vertoren werden durch Aneinanderkettung addiert.
Kommutativität kann man durch Parallelogrammeigenschaften sehen.
−→ −→
Nullvektor: Der Vektor OO = AA wird Nullvektor genannt und kurz mit ~0 bezeichnet. Der Nullvektor ist das neutrale Element der Addition:
~v + ~0 = ~v
−→
−→
Inverser Vektor: Der Vektor BA wird als zu AB invers bezeichnet:
−→ −→ −→ ~
AB + BA = AA = 0
−→
Betrag: Der Betrag (Länge,
−→ Norm) des Vektors AB ist der Abstand zwischen
A und B und wird mit AB bezeichnet.
Multiplikation mit Skalaren:
Liegen drei Punkte A, B und C in dieser Reihefolge auf einer Geraden und ist
−→
−→
AB
=
λ
·
AC so sagt man
−→
−→
AB = λ · AC
Auf diese Weise wird Multiplikation von reellen Zahlen (Skalaren) mit Vektoren
eingeführt.
28
2.1.2
Koordinatensystem
Betrachtet man zusätzlich ein Koordinatensystem im Raum mit dem Ursprung
O = (0, 0, 0), so kann jedem Punkt P = (p1 , p2 , p3 ) der Ortsvektor
 
p
−→  1 
OP = p2
p3
zugeordnet werden.
Kosequenz: Aus P = (p1 , p2 , p3 ) und Q = (q1 , q2 , q3 ) folgt:


q1 − p 1
−→ 
P Q = q2 − p 2 
q3 − p 3
Addition:
    

x1
y1
x 1 + y1
x2  + y2  = x2 + y2 
x3
y3
x 3 + y3
Multiplikation mit Skalaren:
  

x1
λ · x1
λ · x2  = λ · x2 
x3
λ · x3
29
Betrag:
 
x
p

~v = y  ⇒ k~v k = x2 + y 2 + z 2
z
Fazit: Man kann Vektoren im Raum genauso darstellen wie Punkte, aber im
Gegensatz zu Punkten können Vektoren addiert und mit Skalaren multipliziert
werden.
2.1.3
Zusammenhang zwischen Vektoren und linearen Gleichungssystemen (LGS)
Beispiel: Die folgenden Probleme sind äquivalent:
• Hat dieses lineare Gleichungssystem eine Lösung?
5α + 3β = −1
4α + β = 2
3α − β = 5
• Gibt es entsprechende α und β?
 
   
5
3
−1
α 4 + β  1  =  2 
3
−1
5
• Liegt der Punkt (−1, 2, 5) in der Ebene, die von den Punkten (0, 0, 0),
(5, 4, 3) und (3, 1, −1) aufgespannt wird?
30
2.2
Vektorräume
2.2.1
Vektorräume
Definition: Eine Menge K mit zwei Operationen ⊕ und und zwei Elementen 0 und 1 (wobei 0 6= 1) ist ein Körper , falls
• (K, ⊕) ist kommutative Gruppe mit neutralem Element 0
(k ist inverses Element zu k bezüglich ⊕)
• (K\{0}, ) ist kommutative Gruppe mit neutralem Element 1
(k −1 =
1
k
ist inverses Element zu k bezüglich )
• ∀ k, l, m ∈ K k (l ⊕ m) = (k l) ⊕ (k m)
(Distributivität)
Beispiele: Q, R, C (nicht Z)
Definition: Eine Menge V mit den Operationen
• ⊕:V ×V →V
• : K ×V →V
und dem Element ~0 wird Vektorraum (VR) über dem Körper K genannt, falls
• (V, ⊕) ist kommutative Gruppe mit neutralem Element ~0
(~v ist inverses Element zu ~v bezüglich ⊕)
• ∀ λ, µ ∈ K ∀ ~v ∈ V λ (µ ~v ) = (λ · µ) ~v
(Assoziativität der Multiplikationen)
• ∀ ~v ∈ V 1 ~v = ~v
(neutrales Element bezüglich der Multiplikation)
• ∀ λ, µ ∈ K ∀ ~v ∈ V (λ + µ) ~v = (λ ~v ) ⊕ (µ ~v )
(Distributivität 1)
• ∀ λ ∈ K ∀ ~v , w
~ ∈ V λ (~v ⊕ w)
~ = (λ ~v ) ⊕ (λ w)
~
(Distributivität 2)
31
Beispiele:
1. Der reelle Vektorraum Rn über dem Körper R:
V = Rn = {(x1 , . . . xn ) | xi ∈ R}
Addition:

   

x1
y1
x1 + y 1
 ..   ..   .. 
 . + . = . 
xn
yn
xn + y n
Multiplikation:

 

x1
λx1
  

λ  ...  =  ... 
xn
Nullvektor:
λxn
 
0

~0 =  ... 

0
Inverser Vektor:

 

x1
−x1
  

−  ...  =  ... 
xn
−xn
2. Der Vektorraum der stetigen Funktionen über dem Körper R:
V = {f | f : [ 0, 1 ] → R, stetig}
Addition:
(f + g)(x) = f (x) + g(x)
Multiplikation:
(λf )(x) = λ(f (x))
3. Der Vektorraum R über dem Körper Q
V = R und K = Q
Addition:
Multiplikation:
−−−−→
~r, ~s ∈ R ~r + ~s = (r + s)
−−−→
λ ∈ Q ~r ∈ R λ · ~r = (λ · r)
32
2.2.2
Unterräume
Definition: Eine Teilmenge U 6= ∅ eines Vektorraums V über K ist Unterraum
(Untervektorraum, UR) von V , falls
• ∀ ~v , w
~ ∈ U ~v + w
~ ∈U
• ∀ ~v ∈ U ∀ λ ∈ K λ~v ∈ U
Beispiele:
1. V = Rn = {(x1 , . . . xn ) | xi ∈ R}
→ U = {(x1 , x2 , 0, . . . 0) | x1 , x2 ∈ R}
→ speziell für R3 : jede Ebene und jede Gerade durch (0, 0, 0)
2. V = {f | f : [0, 1] → R, stetig}
→ U = {f | f : [0, 1] → R, f ist konstant}
→ U 0 = {f | f : [0, 1] → R, f ist linear, d.h. f (x) = ax + b}
3. V = R über dem Körper Q
√
→ U = {q1 + q2 2 | q1 , q2 ∈ Q}
Satz: Sei V ein Vektorraum
Tüber einem Körper K und {Ui | i ∈ I} eine Familie
von Unterräumen, dann ist Ui auch ein Unterraum von V .
i∈I
Beweis: Sei ~u, ~v ∈
T
Ui und λ ∈ K, dann gilt
i∈I
• ~u und ~v sind Elemente von allen Ui
• ~u + ~v und λ~u sind Elemente von allen Ui
T
T
Daraus folgt, dass ~u + ~v ∈ Ui und λ~u ∈ Ui .
i∈I
i∈I
33
Beispiel: Durchschnitt von xy-Ebene und der yz-Ebene in R3 ist die y-Achse.
Folgerung:
• Der Nullvektor ~0 gehört zu jeden Unterraum:
∀ U UR V gilt ~0 ∈ U
• Zu jeden Vektor ~v aus dem Unterraum gehört auch der inverse Vektor −~v
zum Unterraum:
∀ U UR V ∀ ~v ∈ U gilt − ~v ∈ U
2.2.3
Linearkombinationen und lineare Hülle
Definition: Sind ~v1 , ~v2 , . . . ~vk ∈ V und λ1 , λ2 , . . . λk ∈ K, so nennt man den
Vektor
λ1~v1 + λ2~v2 + . . . + λk~vk
eine Linearkombination (LK) aus ~v1 , ~v2 , . . . ~vk .
Lemma: Die Menge aller Linearkombinationen
{λ1~v1 + λ2~v2 + . . . + λk~vk | λi ∈ K}
der Vektoren ~v1 , ~v2 , . . . ~vk bildet einen Unterraum.
34
Beweis: Seien ~v , w
~ ∈ U und α ∈ K mit
• ~v = λ1~u1 + λ2~u2 + . . . + λk ~uk
• w
~ = µ1~u1 + µ2~u2 + . . . + µk ~uk
dann gilt:
~v + w
~ = (λ1~u1 + λ2~u2 + . . . + λk ~uk ) + (µ1~u1 + µ2~u2 + . . . + µk ~uk )
= (λ1 + µ1 )u~1 + (λ2 + µ2 )u~2 + . . . + (λk + µk )~uk ∈ U
α~v = α(λ1~u1 + λ2~u2 + . . . + λk ~uk )
= (αλ1 )~u1 + (αλ2 )~u2 + . . . + (αλk )~uk ∈ U
Definition: Sei M ⊆ V eine Menge von Vektoren, dann ist die lineare Hülle
(Lin) von M der kleinste (bezüglich Inklusion) Unterraum von V , der M enthält,
d.h.
\
Lin(M ) =
U
U UR V
M ⊆U
Satz: Die lineare Hülle einer Menge M ⊆ V ist die Menge aller Linearkombinationen der Vektoren ~vi ∈ M :
Lin(M ) = {λ1~v1 + . . . λk~vk | λi ∈ K, ~vi ∈ M }
Beweis: Zum Einen bildet die Menge aller Linearkombinationen der Vektoren
~vi ∈ M (rechte Seite) einen Unterraum (siehe Lemma). Zum Anderen enthält jeder Unterraum U , der M enthält, auch die Menge aller Linearkombinationen der
Vektoren ~vi ∈ M (Abgeschlossenheit von Unterräumen bezüglich der Addition
und der Multiplikation mit Skalaren). Daraus folgt, dass die Menge aller Linearkombinationen der Vektoren ~vi ∈ M der kleinste Unterraum ist, der M enthält.
35
2.3
Lineare Unabhängigkeit, Basis und Dimension
2.3.1
Lineare Unabhängigkeit
Definition: Eine Menge {~v1 , ~v2 , . . . ~vk } von k Vektoren heißt linear abhängig
(l.a.), wenn eine Linearkombination existiert, mit
λ1~v1 + λ2~v2 + . . . + λk~vk = ~0
wobei mindestens ein λi 6= 0 ist.
Definition: Eine Menge {~v1 , ~v2 , . . . ~vk } von k Vektoren heißt linear unabhängig
(l.u.), wenn sie nicht linear abhängig ist.
Satz: Eine Menge M ⊆ V ist linear unabhängig, wenn jede endliche Teilmenge
von M linear unabhängig ist.
Folgerungen:
1. Es kann bei Aufzählungen von Vektoren zu Mehrfachnennungen kommen
(im Gegensatz zu Mengen). In diesem Fall folgt lineare Abhängigkeit.
Beispiel: Sei ~v1 , ~v2 , . . . eine Aufzählung und ~v5 = ~v7 , dann ist die Aufzählung
linear abhängig, weil
~0 = 1 · ~v5 + (−1) · ~v7
2. Aus ~0 ∈ M folgt lineare Abhängigkeit, denn
~0 = λ · ~0 (auch wenn λ 6= 0)
3. Sei M linear unabhängig und λ1 , λ2 , . . . λk ∈ K, dann folgt aus
∀ ~v1 , ~v2 , . . . ~vk ∈ M
(i 6= j → ~vi 6= ~vj )
~0 = λ1~v1 + λ2~v2 + . . . + λk~vk
dass für alle λi gelten muss
λi = 0
(i = 1, 2, . . . k)
Das heißt: Es existiert keine nichttriviale Linearkombination von ~0.
4. Wenn M linear abhängig ist, dann existiert eine nichttriviale Linearkombination von ~0.
36
Beispiel: Die Vektoren
   
0
1
1 , 1 ∈ R3
1
1
sind linear unabhängig, dann ist der Nullvektor ~0 ist eine Linearkombination
dieser Vektoren:
 
 
  

0
0
1
λ2
~0 = 0 = λ1 1 + λ2 1 = λ1 + λ2 
0
1
1
λ1 + λ2
0 = λ2
0 = λ1 + λ2
0 = λ1 + λ2
Daraus folgt, dass λ1 = λ2 = 0.
Satz: Für jede Teilmenge M ⊆ V (über dem Körper K) sind die folgenden
Aussagen äquivalent:
• Aussage A:
Die Menge M ist linear unabhängig.
• Aussage B:
Kein Vektor ~v ∈ M kann als Linearkombination aus den übrigen Vektoren
aus M dargestellt werden.
• Aussage C:
Jeder Vektor ~v ∈ Lin(M ) hat eindeutige Darstellung als Linearkombination
aus M .
Beweis: Der Satz wird nach folgendem Schema gezeigt:
¬A
⇒
1. Schritt
¬B
⇒
2. Schritt
¬C
⇒
3. Schritt
¬A
Die drei Aussagen in ihrer Negation:
• Aussage ¬ A:
Es existiert eine nichttriviale Linearkombination von ~0.
• Aussage ¬ B:
Es existiert ein Vektor ~v ∈ M , der eine Linearkombination der übrigen
Vektoren ist.
37
• Aussage ¬ C:
Es existiert ein Vektor ~v ∈ Lin(M ) mit verschiedenen Linearkombinationen
aus M .
Beweisschritte:
• Schritt 1:
Es existiert folgende nichttriviale Linearkombination von ~0:
~0 = λ1~v1 + λ2~v2 + . . . + λk~vk
mit ~v1 , ~v2 , . . . ~vk ∈ M , λ1 , λ2 , . . . λk ∈ K und ∃ λi 6= 0.
Ohne Beschränkung der Allgemeinheit gelte λ1 6= 0. Damit kann die Gleichung nach ~v1 umgeformt werden:
λ2
λ3
λk
~v1 = −
~v2 + −
~v3 + . . . + −
~vk
λ1
λ1
λ1
Damit existiert ein Vektor ~v1 , der Linearkombination der übrigen Vektoren
ist:
~v1 ∈ Lin(M \ {~v1 })
• Schritt 2:
Es existiert ein Vektor ~v1 , der Linearkombination der übrigen Vektoren ist:
~v1 = λ2~v2 + λ3~v3 + . . . + λk~vk
Damit existieren mindestens zwei verschiedene Linearkombinationen von
v~1 :
~v1 = 1 · ~v1 + 0 · ~v2 + 0 · ~v3 + . . . + 0 · ~vk
= 0 · ~v1 + λ2 · ~v2 + λ3 · ~v3 + . . . + λk · ~vk
• Schritt 3:
Es existiert ein Vektor ~v ∈ Lin(M ) mit verschiedenen Linearkombinationen
aus M :
~v = λ1~u1 + λ2~u2 + . . . + λm~um
= µ1 w
~ 1 + µ2 w
~ 2 + . . . + µn w
~n
mit
{~u1 , ~u2 , . . . ~um } ∪ {w
~ 1, w
~ 2, . . . w
~ n } = {~v1 , ~v2 , . . . ~vk } ⊆ M
38
Die beiden Linearkombinationen von ~v ausgedrückt als Linearkombinationen der die Vektoren aus {~v1 , ~v2 , . . . ~vk }:
~v = λ01~v1 + λ02~v2 + . . . + λ0k~vk
= µ01~v1 + µ02~v2 + . . . + µ0k~vk
mit
λ0i
=
λj
0
falls ~vi = ~uj
sonst
und
µ0i
=
µj
0
falls ~vi = w
~j
sonst
Da es sich um verschiedene Linearkombinationen handelt, existiert ein i0
mit λ0i0 6= µ0i0 . Daraus folgt:
~0 = ~v − ~v
= (λ01~v1 + λ02~v2 + . . . + λ0k~vk ) − (µ01~v1 + µ02~v2 + . . . + µ0k~vk )
= (λ01 − µ01 )~v1 + . . . + (λ0i0 − µ0i0 ) ~vi0 + . . . + (λ0k − µ0k )~vk
| {z }
6=0
Damit existiert eine nichttriviale Linearkombination von ~0.
• Beispiel zu Schritt 3:
1
0
1
= 1·
+2·
2
0
1
1
0
= 1·
+1·
1
1
Die Menge aller Vektoren, aus beiden Linearkombinationen:
1
0
1
,
,
0
1
1
Die beiden Linearkombinationen mit Hilfe aller Vektoen aus dieser Menge:
1
1
0
1
= 1·
+2·
+0·
2
0
1
1
1
0
1
= 0·
+1·
+1·
0
1
1
39
Nichttriviale Linearkombination von ~0:
0
1
1
=
−
0
2
2
1
0
1
1
0
1
= 1·
+2·
+0·
− 0·
+1·
+1·
0
1
1
0
1
1
1
0
1
= (1 − 0) ·
+ (2 − 1) ·
+ (0 − 1) ·
0
1
1
1
0
1
= 1·
+1·
−1·
0
1
1
2.3.2
Erzeugendensystem und Basis
Definition: Eine Teilmenge M ⊆ V heißt Erzeugendensystem von V , wenn die
lineare Hülle von M der Vektorraum V ist:
Lin(M ) = V
Definition: Eine Teilmenge M ⊆ V heißt Basis, wenn sie Erzeugendensystem
von V und linear unabhängig ist.
Folgerung: Eine Teilmenge M ⊆ V ist genau dann eine Basis von V , wenn
jeder Vektor ~v ∈ V eine eindeutige Darstellung als Linearkombination aus M
hat.
Beispiele:
• kanonische Basis von Rn :
 
1
0
 
~e1 =  ..  ,
.
0
 
0
1
 
~e2 =  ..  ,
.
0
...
 
0
0
 
~en =  .. 
.
1
Für die kanonische Basis gilt:
 
a1
 a2 
 
 ..  = a1~e1 + a2~e2 + . . . + an~en
.
an
40
• weitere Basis von Rn :
 
1
0
 
~e1 =  ..  ,
.
0
 
1
1
 
~e2 =  ..  ,
.
0
...
 
1
1
 
~en =  .. 
.
1
• Standardbasis für den Vektorraum R[x] der Polynome:
~e1 = 1,
~e2 = x,
~e3 = x2 ,
...
Folgerung: Für jede Teilmenge M ⊆ V sind die folgenden Bedingungen äquivalent:
• Aussage A:
Die Menge M ist Basis von V .
• Aussage B:
Die Menge M ist minimales Erzeugendensystem von V .
• Aussage C:
Die Menge M ist eine maximale linear unabhängige Menge.
Bemerkung: Die Begriffe minimal“ und maximal“ gelten in Bezug auf Inklusion.
”
”
Lemma: Ist die Teilmenge M ⊆ V linear unabhängig und der Vektor ~v Element
von V , aber nicht Element aus der linearen Hüllen von M , dann ist die Menge
M ∪ {~v } ebenfalls linear unabhängig:
M ⊆ V l.u. ∧ ~v ∈ V
∧ ~v ∈
/ Lin(M ) ⇒ M ∪ {~v } l.u.
Beweis (indirekt): Angenommen die Teilmenge M ⊆ V ist linear unabhängig
und der Vektor ~v Element von V , aber nicht Element aus der linearen Hüllen von
M , und die Menge M ∪ {~v } ist linear abhängig. Damit existiert eine nichttriviale
Linearkombination von ~0 (mit ∃ λi 6= 0 ∨ λ 6= 0):
~0 = λ1~v1 + λ2~v2 + . . . + λk~vk + λ~v
Wenn λ 6= 0, dann lässt sich die Gleichung nach ~v umformen:
λ1
λ2
λk
~v1 + −
~v2 + . . . + −
~vk
~v = −
λ
λ
λ
41
Damit ist der Vektor ~v in der linearen Hüllen von M :
~v ∈ Lin(M )
Dies wäre ein Widerspruch zur Annahme. Damit ist λ = 0. Daraus folgt:
∃ λi 6= 0
~0 = λ1~v1 + λ2~v2 + . . . + λk~vk
Dies ist ein Widerspruch, da die Menge M linear unabhängig ist und damit keine
nichttriviale Linearkombination von ~0 existiert.
Basisergänzungssatz (Steinitz): Seien
• V ein Vektorraum über dem Körper K
• M eine Teilmenge von V
• N eine Teilmenge von V
Ist die Menge M linear unabhängig und die lineare Hülle von M ∪ N der Vektorraum V , dann kann man die Menge M durch eventuelle Hinzunahme von
Vektoren aus der Menge N zu einer Basis des Vektorraumes V erweitern.
Beweis: Induktion nach k = |N |:
• Induktionsanfang (k = 0, das heißt N = ∅):
Die Menge M ist Basis, weil M linear unabhängig ist und
Lin(M ) = Lin(M ∪ ∅) = Lin(M ∪ N ) = V
• Induktionsschritt (k − 1 → k):
• Fall 1: Lin(M ) = V
Daraus folgt, dass die Menge M Basis ist.
• Fall 2: Lin(M ) 6= V
Sei der Vektor ~v Element von N , aber nicht Element aus der linearen
Hüllen von M . Damit ist die Menge M ∪ {~v } ebenfalls linear unabhängig.
Die Menge M wird also um den Vektor ~v erweitert, und die Menge N
wird um den Vektor ~v reduziert:
|N \ {~v }| = k − 1
Nach Induktionsvoraussetzung existiert eine Erweiterung der Menge M zur Basis.
42
Beispiele:
1. Sei M1 die folgende linear unabhängige Menge und N1 die kanonische Basis
von R3 :
    
0 
 1



1 , 1
M1 =


0
1
Man kann jeden der drei Vektoren aus N1 als Basisergänzung wählen.
2. Sei M2 die folgende linear unabhängige Menge und N2 die kanonische Basis
von R3 :
    
1 
 1



0 , 1
M2 =


0
0
Der Vektor ~e1 ist bereits in M2 enthalten und damit keine Ergänzung
von M2 , der Vektor ~e2 ist auch keine Basisergänzung, weil M2 ∪ {~e2 } linear abhängig wäre, doch der dritte Vektor ~e3 ergänzt die Menge M2 zu
einer Basis.
Austauschlemma: Sind die Mengen {~v1 , ~v2 , . . . ~vn } und {w
~ 1, w
~ 2, . . . w
~ m } Basen
von V , dann gibt es für jeden Vektor ~vi einen Vektor w
~ j , so dass die Menge
({~v1 , ~v2 , . . . ~vn } \ {~vi }) ∪ {w
~j}
ebenfalls Basis von V ist.
2.3.3
Dimension
Definition: Besitzt ein Vektorraum V eine endliche Basis {~v1 , ~v2 , . . . ~vn }, dann
ist V endlich-dimensional und n heißt die Dimension von V :
dim V = n
Ein Vektorraum, der keine endliche Basis besitzt, ist unendlich-dimensional :
dim V = ∞
Folgerung: Ist die Menge M = {~v1 , ~v2 , . . . ~vk } Teilmenge eines Vektorraums V
und ist k > dim V , so ist M linear abhängig.
Satz: Jeder Vektorraum besitzt eine Basis.
43
Satz: Ist die Dimension eines Vektorraumes V endlich und U ein Unterraum
von V , dann gilt:
dim U ≤ dim V
und
dim U < dim V
⇔ U 6= V
Definition: Sind U1 und U2 Unterräume von V , so heißt
U1 + U2 = {~x + ~y | ~x ∈ U1 , ~y ∈ U2 }
die Summe von U1 und U2 .
Beispiele:
1. Sei V = R4 :
U1 = Lin({~e1 , ~e2 , ~e4 })
U2 = Lin({~e1 , ~e3 , ~e4 })
U1 + U2 = R4
2. Sei V = R3 :
U1
U2
U1 + U2
 
 1 

−1 
= Lin


1
 
 1 
= Lin  −1 


−1
   
   
1 
0 
 1
 1
= Lin  −1 , −1  = Lin  −1 , 0 




1
−1
0
1
Bemerkung: U1 + U2 ist die Ebene senkrecht zu xy-Ebene auf der Geraden y = −x durch den Ursprung (0, 0, 0).
Satz: Die Summe von zwei Unterräumen ist ein Unterraum. Für zwei endlichdimensionale Unterräume U1 und U2 gilt:
dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 )
44
Beweisidee:
• Die Basis von U1 ∩ U2 sei:
{~v1 , ~v2 , . . . ~vr }
• Ergänzung der Basis von U1 ∩ U2 zur Basis von U1 :
{~v1 , ~v2 , . . . ~vr , ~u1 , ~u2 , . . . ~us }
• Ergänzung der Basis von U1 ∩ U2 zur Basis von U2 :
{~v1 , ~v2 , . . . ~vr , w
~ 1, w
~ 2, . . . w
~ t}
• Man zeigt: Die Basis von U1 + U2 ist:
{~v1 , ~v2 , . . . ~vr , ~u1 , ~u2 , . . . ~us , w
~ 1, w
~ 2, . . . w
~ t}
• Damit gilt für die Dimenstionen:
– dim(U1 + U2 ) = r + s + t
– dim U1 = r + s
– dim U2 = r + t
– dim(U1 ∩ U2 ) = r
Daraus folgt:
dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 )
|
{z
} | {z } | {z } |
{z
}
r+s+t
r+s
r+t
r
Beispiele:
1. Sei U1 eine Ebene durch den Ursprung (0, 0, 0) und U2 eine Gerade durch
den Ursprung (0, 0, 0) mit U2 6⊂ U1 . Daraus heißt:
• dim U1 = 2
• dim U2 = 1
• dim(U1 ∩ U2 ) = 0 (weil U1 ∩ U2 = ~0)
Daraus folgt:
• dim(U1 + U2 ) = 3
Damit ist U1 + U2 = R3 .
45
2. Seien U1 und U2 Ebenen durch den Ursprung (0, 0, 0) mit U1 6= U2 . Daraus
heißt:
• dim U1 = 2
• dim U2 = 2
• dim(U1 ∩ U2 ) = 1 (weil U1 ∩ U2 eine Gerade ist)
Daraus folgt:
• dim(U1 + U2 ) = 3
Damit ist U1 + U2 = R3 .
2.4
2.4.1
Lineare Abbildungen
Einleitung
Definition: Seien V und W Vektorräume über dem Körper K. Eine Abbildung
f : V → W heißt linear (Vektorraumhomomorphismus), wenn für alle ~v , w
~ ∈V
und für alle λ ∈ K gilt:
f (~v + w)
~ = f (~v ) + f (w)
~
f (λ · ~v ) = λ · f (~v )
Hom(V, W ) bezeichnet die Menge aller linearer Abbildungen f : V → W .
Beobachtungen:
• Sei f ∈ Hom(V, W ), dann gilt:
f (λ1~v1 + λ2~v2 + . . . + λk~vk ) = λ1 · f (~v1 ) + λ2 · f (~v2 ) + . . . + λk · f (~vk )
• Die Verknüpfung von linearen Abbildungen f : V → W und g : W → Y ist
eine lineare Abbildung gf : V → Y mit
gf (~v ) = g(f (~v ))
• Die Menge aller linearen Abbildungen Hom(V, W ) ist selbst ein Vektorraum
mit den Operationen:
• (f + g)(~v ) = f (~v ) + g(~v )
• (λ · f )(~v ) = λ · f (~v )
46
Denn für alle f, g ∈ Hom(V, W ), ~u, ~v ∈ V und λ ∈ K:
(f + g)(~u) + (f + g)(~v ) =
=
=
=
f (~u) + g(~u) + f (~v ) + g(~v )
f (~u) + f (~u) + g(~v ) + g(~v )
f (~u + ~v ) + g(~u + ~v )
(f + g)(~u + ~v )
→ f + g ∈ Hom(V, W )
λ · (f + g)(~u) =
=
=
=
λ · (f (~u) + g(~u))
λ · f (~u) + λ · g(~u)
f (λ~u) + g(λ~u)
(f + g)(λ~u)
→ λ · f ∈ Hom(V, W )
Beispiele: f, g, h, j : R2 → R2
a) Spiegelung an der x-Achse :
x
x
f
=
y
−y
47
b) Spiegelung an der Geraden y = x:
x
y
g
=
y
x
c) Projektion auf die y-Achse:
x
0
h
=
y
y
48
d) Drehung um 45◦ :
1
j
=
0
0
j
=
1
√1
2
√1
2
!
− √12
!
√1
2
x
1
0
j
= j x
+y
y
0
1
1
0
= x·j
+y·j
0
1
!
!
√1
√1
−
2
= x · √12 + y ·
√1
2
=
√1
2
√1
2
49
x−
x+
2
√1
2
√1
2
y
y
!
2.4.2
Kern und Bild von linearen Abbildungen
Definition: Sei f ∈ Hom(V,W ) eine lineare Abbildung, so ist ihr Kern (Ker f )
und ihr Bild (Im f ) folgendermaßen definiert:
Ker f = {~v ∈ V | f (~v ) = ~0}
Im f = {w
~ ∈ W | ∃ ~v f (~v ) = w}
~
Beispiele: Kerne und Bilder aus dem obigen Beispiel (siehe 2.4.1)
a) Ker f = {~0}:
x
x
0
f
=
=
⇔ x=0 ∧ y=0
y
−y
0
Im f = R2 :
• f ist eine Abbildung von R2 nach R2 , und zwar f −1 = f .
b) Ker g = {~0}:
x
y
0
g
=
=
⇔ x=0 ∧ y=0
y
x
0
Im g = R2 :
• g ist eine Abbildung von R2 nach R2 , und zwar g −1 = g.
1
c) Ker h = Lin
:
0
x
0
0
h
=
=
⇔ y=0
y
y
0
0
Im h = Lin
:
1
• die x-Komponente aller Elemente aus dem Bild ist 0.
d) Ker j = {~0}:
x
j
=
y
√1
2
√1
2
x−
x+
√1
2
√1
2
y
y
!
0
=
⇔ x=0 ∧ y=0
0
Im f = R2 :
• j ist eine Abbildung von R2 nach R2 und j ist bijektiv, so dass folgende
Umkehrabbildung existiert:
!
√1 x + √1 y
x
−1
2
2
j
=
y
− √12 x + √12 y
50
Lemma: Der Kern und das Bild einer linearen Abbildung f ∈ Hom(V, W ) sind
Unterräume von V bzw. W :
Ker f UR V
Im f UR W
Beweis (Kern): Seien ~u, ~v ∈ Ker f und λ ∈ K (Körper zu V ).
• Prüfe, ob Ker f mindestens ein Element enthält:
f (~0) = f (~0 − ~0)
= f (~0) − f (~0)
= ~0
Damit ist ~0 ∈ Ker f .
• Prüfe Abgeschlossenheit gegenüber der Addition:
f (~u + ~v ) =
=
=
f (~u) + f (~v )
~0 + ~0 (da ~u, ~v ∈ Ker f )
~0
Damit ist auch ~u + ~v ∈ Ker f .
• Prüfe Abgeschlossenheit gegenüber der Multiplikation mit Skalaren:
f (λ~u) = λ · f (~u)
= λ · ~0 (da ~u ∈ Ker f )
= ~0
Damit ist auch λ~u ∈ Ker f .
Beweis (Bild): Seien ~u, ~v ∈ Im f und λ ∈ K (Körper zu W ).
• Prüfe, ob Im f mindestens ein Element enthält:
f (~0) = ~0
(siehe oben)
Damit ist ~0 ∈ Im f .
• Prüfe Abgeschlossenheit gegenüber der Addition:
~u + ~v = f (~p) + f (~q) (mit f (~p) = ~u und f (~q) = ~v )
= f (~p + ~q)
= f (~r) (mit ~r = p~ + ~q ∈ V )
Damit ist auch ~u + ~v ∈ Im f .
51
• Prüfe Abgeschlossenheit gegenüber der Multiplikation mit Skalaren:
λ~u = λ · f (~p) (mit f (~p) = ~u)
= f (λ~p)
= f (~r) (mit ~r = λ~p ∈ V )
Damit ist auch λ~u ∈ Im f .
Lemma: Eine lineare Abbildung f ∈ Hom(V, W ) ist genau dann injektiv, wenn
ihr Kern nur aus dem Nullvektor besteht:
Ker f = {~0}
Beweis (⇒): Da f (~0) = ~0 und f injektiv ist, bildet kein anderer Vektor auf ~0
ab. Damit liegt außer dem Nullvektor kein anderer Vektor im Ker f .
Beweis durch Widerspruch (⇐): Angenommen Ker f = {~0} und f ist nicht
injektiv, dann existieren zwei Vektoren ~u, ~v ∈ V , so dass
~u 6= ~v ∧ f (~u) = f (~v )
Daraus folgt:
f (~u − ~v ) = f (~u) − f (w)
~ = ~0
Damit liegt ~u − ~v 6= ~0 in Ker f . Dies ist ein Widerspruch, da Ker f = {~0}.
2.4.3
Spezielle Homomorphismen
Definitionen: Einen Homomorphismus f ∈ Hom(V, W ) nennt man einen
• Monomorphismus, wenn f injektiv ist,
• Epimorphismus, wenn f surjektiv ist,
• Isomorphismus, wenn f bijektiv ist,
• Endomorphismus, wenn V = W ,
• Automorphismus, wenn V = W und f bijektiv ist.
Satz: Ist f ∈ Hom(V, W ) ein Isomorphismus, dann ist auch f −1 ∈ Hom(W, V )
ein Isomorphismus.
Satz: Die Verkettung von Isomorphismen ist auch wieder ein Isomorphismus.
52
Satz: Seien
• V, W Vektorräume über K,
• die Menge {~v1 , ~v2 , . . . ~vn } ⊆ V eine Basis von V und
• w
~ 1, w
~ 2, . . . w
~ n ∈ W beliebig,
dann gibt es eine eindeutige lineare Abbildung f ∈ Hom(V, W ) definiert durch
f (~vi ) = w
~ i für i = 1, 2, . . . n
Beweis: Jeder Vektor ~v ∈ V hat eine eindeutige Darstellung als Linearkombination aus {~v1 , ~v2 , . . . ~vn }:
~v = λ1~v1 + λ2~v2 + . . . + λn~vn
• Zu zeigen ist, dass eine entsprechende lineare Abbildung existiert. Dazu
wird die Abbildung des Vektors ~v folgendermaßen definiert:
f (~v ) = λ1 w
~ 1 + λ2 w
~ 2 + . . . + λn w
~n
= λ1 · f (~v1 ) + λ2 · f (~v2 ) + . . . + λn · f (~vn )
Außerdem gilt:
f (~v ) = f (λ1~v1 + λ2~v2 + . . . + λn~vn )
Daraus folgt:
f (λ1~v1 + λ2~v2 + . . . + λn~vn ) = λ1 · f (~v1 ) + λ2 · f (~v2 ) + . . . + λn · f (~vn )
Damit ist f eine lineare Abbildung.
• Außerdem ist zu zeigen, dass f eine eindeutige lineare Abbildung ist:
Angenommen es existiert eine lineare Abbildung g 6= f mit g(~vi ) = w
~ i.
Damit gilt:
g(~v ) =
=
=
=
g(λ1~v1 + λ2~v2 + . . . + λn~vn )
λ1 · g(~v1 ) + λ2 · g(~v2 ) + . . . + λn · g(~vn )
λ1 w
~ 1 + λ2 w
~ 2 + . . . + λn w
~n
f (~v )
Das heißt, für alle ~v ∈ V gilt g(~v ) = f (~v ). Damit ist g = f . Dies ein
Widerspruch zur Annahme.
Folgerung: Zu zwei n-dimentionalen Vektorräumen existiert mindestens ein
Isomorphismus, der den einen Vektorraum in den anderen überführt.
53
2.4.4
Rang einer linearen Abbildung
Definition: Der Rang einer linearen Abbildung f ∈ Hom(V, W ) ist die Dimension des Bildes von f :
rg f = dim(Im f)
Satz (Dimensionsformel für lineare Abbildungen): Für jede lineare Abbildung f ∈ Hom(V, W ) gilt:
dim(Ker f ) + dim(Im f ) = dim V
dim(Ker f ) +
rg f
= dim V
Beweis: Sei {~v1 , ~v2 , . . . ~vk } eine Basis von Ker f ⊆ V :
Ker f = Lin({~v1 , ~v2 , . . . ~vk }) und {~v1 , ~v2 , . . . ~vk } ist l.u.
Diese Basis wird durch die Vektoren {~vk+1 , ~vk+2 , . . . ~vn } zu einer Basis von V
erweitert:
V = Lin({~v1 , . . . ~vk , ~vk+1 , . . . ~vn }) und {~v1 , . . . ~vk , ~vk+1 , . . . ~vn } ist l.u.
Zu zeigen ist, dass {f (~vk+1 ), f (~vk+2 ), . . . f (~vn )} eine Basis von Im f ist.
• Angenommen w
~ ∈ Im f :
w
~ = f (~v )
= f (λ1 · ~v1 + . . . + λk · ~vk + λk+1 · ~vk+1 + . . . + λn · ~vn )
= λ1 · f (~v1 ) + . . . + λk · f (~vk ) + λk+1 · f (~vk+1 ) + . . . + λn · f (~vn )
Da ~v1 , ~v2 , . . . ~vk ∈ Ker f , gilt f (~v1 ) = f (~v2 ) = . . . = f (~vk ) = ~0. Daraus folgt:
w
~ = λk+1 · f (~vk+1 ) + λk+2 · f (~vk+2 ) + . . . + λn · f (~vn )
Damit ist {f (~vk+1 ), f (~vk+2 ), . . . f (~vn )} Erzeugendensystem von Im f .
• Der Nullvektor ~0 sei eine Linearkombination dieses Erzeugendensystems:
~0 = λk+1 · f (~vk+1 ) + λk+2 · f (~vk+2 ) + . . . + λn · f (~vn )
= f (λk+1 · ~vk+1 + λk+2 · ~vk+2 + . . . + λn · ~vn )
= f (~u)
Daraus folgt, dass ~u ∈ Ker f . Da ~u eine eindeutige Darstellung bezüglich
der Basis {~v1 , . . . ~vk , ~vk+1 , . . . ~vn } hat und bereits mit der Basis {~v1 , ~v2 , . . . ~vk }
darstellbar ist, gilt:
λk+1 = λk+2 = . . . = λn = 0
54
Daraus folgt:
• Die Dimension des Kern von f beträgt k:
dim(Ker f ) = k
• Die Dimension des Bildes von f beträgt n − k:
dim(Im f ) = n − k
• Die Dimension von V beträgt n:
dim V = n
Damit gilt:
k
+
n−k
=
n
⇔ dim(Ker f ) + dim(Im f ) = dim V
2.5
Matrizen
2.5.1
Einleitung
Definition: Eine m×n-Matrix über K ist eine Anordnung von m×n Elementen
aus K nach dem folgenden Schema:


a1 1 a1 2 · · · a1 n
 a2 1 a2 2 · · · a2 n 


A =  ..
..
.. 
...
 .
.
. 
am 1 am 2 · · · am n
Alternative Schreibweise:
A = (ai j )(i,j)∈m×n
wobei ai j die Einträge (Koeffizieten) der Matrix sind.
Definition: Die Menge aller m × n-Matrizen über K wird mit M (m × n, K)
bezeichnet.
55
Beobachtung: Die Menge M (m × n, K) ist ein Vektorraum mit den folgenden
Operationen (λ ∈ K):

 



a1 1 · · · a1 n
b1 1 · · · b1 n
a1 1 + b 1 1 · · · a1 n + b 1 n
 a2 1 + b 2 1 · · · a2 n + b 2 n 
 a2 1 · · · a2 n   b 2 1 · · · b 2 n 


 


+
=
 ..





.
.
.
.
.
.
.
.
..
..   ..
..
.. 
..
..
..
 .


am 1 · · · am n
bm 1 · · · bm n
am 1 + b m 1 · · · am n + b m n




a1 1 · · · a1 n
λ · a1 1 · · · λ · a1 n
 a2 1 · · · a2 n 
 λ · a2 1 · · · λ · a2 n 




λ ·  ..
=

 ..
..
.. 
...
...
 .


.
.
. 
am 1 · · · am n
λ · am 1 · · · λ · am n
2.5.2
Multiplikation von Matrizen
Definition: Seien A und B Matrizen folgender Gestalt
• A = (ai j )(i,j)∈p×q ∈ M (p × q, K) und
• B = (bi j )(i,j)∈q×r ∈ M (q × r, K),
dann ist C = A · B = (ci j )(i,j)∈p×r definiert durch:
c i j = ai 1 · b 1 j + ai 2 · b 2 j + . . . + ai q · b q j
q
X
=
ai k · b k j
k=1
Regel:
Zeile × Spalte“
”
Satz: Die Multiplikation von Matrizen ist assoziativ:
(A · B) · C = A · (B · C)
Achtung: Die Multiplikation von Matrizen ist nicht kommutativ:
A · B 6= B · A
56
2.5.3
Lineare Abbildungen
Definition: Sei
• f ∈ Hom(V, W ) eine lineare Abbildung,
• die Menge {~v1 , ~v2 , . . . ~vn } Basis von V und
• die Menge {w
~ 1, w
~ 2, . . . w
~ m } Basis von W ,
dann wird der Abbildung f eine Matrix A ∈ M (m × n, K) zugeordnet durch
Darstellung der Bilder der Basisvektoren f (~vi ) in der Basis {w
~ 1, w
~ 2, . . . w
~ m } mit
f (~v1 ) = a1 1 w
~ 1 + a2 1 w
~ 2 + . . . + am 1 w
~m
f (~v2 ) = a1 2 w
~ 1 + a2 2 w
~ 2 + . . . + am 2 w
~m
..
.
f (~vn ) = a1 n w
~ 1 + a2 n w
~ 2 + . . . + am n w
~m
Umgekehrt bestimmt jede Matrix A ∈ M (m × n, K) eine Abbildung f , durch die
oberen Formeln.
Regel: Die j-te Spalte der Matrix A stellt f (~vj ) dar.
Folgerung: Die Vektorräume der linearen Abbildungen Hom(V, W ) und der
Matrizen M (m × n, K) sind isomorph (n = rg V und m = rg W ).
Festlegung: Für den Vektorraum V = K n wird die Standardbasis verwendet:
 
 
 
1
0
0
0
1
0
 
 
 
0 (n) 0 (n) 0
(n)
~e1 =   , ~e2 =   , ~en =  
 .. 
 .. 
 .. 
.
.
.
0
0
1
Entsprechendes gilt für W = K m .
(n)
Regel: Die j-te Spalte von der Matrix A entspricht im Folgenden f ~ej
.
57
Beobachtung: Sei A ∈ M (m × n, K) die zur Abbidlung f ∈ Hom(K n , K m )
zugehörige Matrix wobei für K n die Standardbasis verwendet wird. Wird zudem
ein Vektor mit k Koeffizienten als k × 1-Matrix aufgefasst, dann gilt:
A · ~v = f (~v )

a1 1
 a2 1

A · ~v =  ..
 .
···
···
...
a1 2
a2 2
..
.
am 1 am 2 · · ·



= 

  
a1 n
x1

a2 n 
x2 


..  · 


.
.
.

.
xn
am n
a1 1 · x1 + a1 2 · x2 + . . . + a1 n · xn
a2 1 · x 1 + a2 2 · x 2 + . . . + a2 n · x n
..
.
am 1 · x 1 + am 2 · x 2 + . . . + am n · x n







x1
  x2  
 
f (~v ) = f  .. 
 . 
xn
(n)
= f x1 · ~e1
(n)
+ x2 · ~e2
+ . . . + xn · ~en(n)
(n)
(n)
+ . . . + xn · f ~en(n)
+ x2 · f ~e2
= x1 · f ~e1






a1 1
a1 2
a1 n
 a2 1 
 a2 2 
 a2 n 






= x1 ·  ..  + x2 ·  ..  + . . . + xn ·  .. 
 . 
 . 
 . 
am 1



= 

am 2
a1 1 · x 1 + a1 2 · x 2 + . . . + a1 n · x n
a2 1 · x 1 + a2 2 · x 2 + . . . + a2 n · x n
..
.
am 1 · x 1 + am 2 · x 2 + . . . + am n · x n
⇒ A · ~v = f (~v )
58
am n





Satz: Sind f ∈ Hom(K p , K q ) und g ∈ Hom(K q , K r ) lineare Abbildungen und
A ∈ M (p × q, K) und B ∈ M (q × r, K) die zu f und g gehörigen Matrizen
bezüglich der Standardbasen von K p bzw. K q , dann entspricht das Produkt der
Matrizen A · B der Verkettung der Abbildungen f g:
C = A · B ∈ M (p × r, K) ←→ f g ∈ Hom(K p , K r )
(p)
Beweis: Für alle Basisvektoren ~ek
(q)
(q)
(gf ) ~ek
= f g ~ek
∈ K p mit k = 1, 2, . . . p gilt:


b1 k
  b2 k  
 
= f  .. 
 . 
br k
= f
(r)
b1 k · ~e1
+
(r)
b2 k · ~e2
+ ... +
br k · ~er(r)
(r)
(r)
+ . . . + br k · f ~er(r)
+ b2 k · f ~e2
= b1 k · f ~e1
 
 
 
a1 r
a1 2
a1 1
 a2 r 
a2 2 
a2 1 
 
 
 
= b1 k ·  ..  + b2 k ·  ..  + . . . + bq k ·  .. 
 . 
 . 
 . 
aq r
aq 2
aq 1


a1 1 · b 1 k + a1 2 · b 2 k + . . . + a1 r · b q k
 a2 1 · b 1 k + a2 2 · b 2 k + . . . + a2 r · b q k 


= 

..


.
aq 1 · b 1 k + aq 2 · b 2 k + . . . + aq r · b q k
59

(q)
A · B · ~ek
a1 1
 a2 1

=  ..
 .
ap 1

···
· · ·

= 

···
 
0
a1 2 · · · a1 q
b1 1 b1 2 · · · b1 r
.
b2 1 b2 1 · · · b2 r   .. 
a2 1 · · · a2 q 
 
  
..
..  ·  ..
.. . .
..  · 1 ← k-te Zeile
..
.
. .  .
.
.   .
.
 .. 
ap 1 · · · ap q
bq 1 bq 1 · · · bq r
0
 

0
a1 1 · b 1 k + a1 2 · b 2 k + . . . + aq 1 · b q k · · ·
 .. 
.
a2 1 · b 1 k + a2 2 · b 2 k + . . . + a2 r · b q k · · · 
  
·

1
..
 .
.
 .. 
aq 1 · b 1 k + aq 2 · b 2 k + . . . + aq r · b q k · · ·
0
↑
 

k-te Spalte


a1 1 · b 1 k + a1 2 · b 2 k + . . . + a1 r · b q k
 a2 1 · b 1 k + a2 2 · b 2 k + . . . + a2 r · b q k 


= 

..


.
aq 1 · b 1 k + aq 2 · b 2 k + . . . + aq r · b q k
Daraus folgt:
(q)
(q)
= A · B · ~ek
∀k (gf ) ~ek
Beispiele:
a) Skalierung des Raumes Rn um einen Faktor c ∈ R:
• Definition der Abbildung:


 
c · x1
x1
 x2   c · x2 
  

fRn  ..  =  .. 
 .   . 
c · xn
xn
• Abbildung der Basisvektoren:
   
 
 
1
c
0
0
0
0 1
c
 
   
 
 ..  7→  ..  ,  ..  7→  ..  , . . .
.
. .
.
0
0
0
0
• Matrix:

Af,Rn

0 ··· 0
c · · · 0

.. . . .. 
. .
.
0 0 ··· c
c
0

=  ..
.
60
 
 
0
0
0
0
 
 
 ..  7→  .. 
.
.
1
c
b) Projektion von R3 auf die xy-Ebene (nach R3 ):
• Definition der Abbildung:
   
x
x





y
g
= y
z
0
• Abbildung der Basisvektoren:
 
   
   
 
1
1
0
0
0
0
0 7→ 0 , 1 7→ 1 , 0 7→ 0
0
0
0
0
1
0
• Matrix:


1 0 0
Bg = 0 1 0
0 0 0
c) Projektion von R3 auf die xy-Ebene (nach R2 ):
• Definition der Abbildung:
 
x
x
0  
y
g
=
y
z
• Abbildung der Basisvektoren:
 
 
 
1
0
0
0 7→ 1 , 1 7→ 0 , 0 7→ 0
0
1
0
0
0
1
• Matrix:
Bg0 0
1 0 0
=
0 1 0
61
d) Drehung () von R2 um einen Winkel ϕ:
• Definition der Abbildung:
x
x · cos ϕ − y · sin ϕ
h
=
y
x · sin ϕ + y · cos ϕ
• Abbildung der Basisvektoren:
− sin ϕ
1
cos ϕ
0
7→
,
7→
0
sin ϕ
1
cos ϕ
• Matrix:
cos ϕ − sin ϕ
Ch =
sin ϕ cos ϕ
e) Drehung () von R2 um einen Winkel ϕ mit anschließender Skalierung um
den Faktor c ∈ R:
• Definition der Abbildung:
x
x · cos ϕ − y · sin ϕ
= fR2
(fR2 h)
y
x · sin ϕ + y · cos ϕ
x · c · cos ϕ − y · c · sin ϕ
=
x · c · sin ϕ + y · c · cos ϕ
• Matrix:
Af,R2 · Ch
c 0
cos ϕ − sin ϕ
=
·
0 c
sin ϕ cos ϕ
c · cos ϕ −c · sin ϕ
=
c · sin ϕ c · cos ϕ
62
2.6
Rang einer Matrix
2.6.1
Einleitung
Definition: Sei A ∈ M (m × n, K) eine Matrix und f ∈ Hom(K n , K m ) die
zugehörige lineare Abbildung (bezüglich der Standardbasis), dann ist der Rang
von A definiert als
rg A := rg f = dim (Im f )
Der Zeilenrang von A ist die maximale Anzahl von linear unabhängigen Zeilenvektoren aus A.
Der Spaltenrang von A ist die maximale Anzahl von linear unabhängigen Spaltenvektoren aus A.
Lemma: Ist ~vi ein Spaltenvektor (Zeilenvektor) von A, der sich als Linearkombination der übrigen Spalten (Zeilen) darstellen lässt und ist A0 die Matrix A
ohne Spalte (Zeile) ~vi , dann gilt:
Spaltenrang A0 = Spaltenrang A bzw. Zeilenrang A0 = Zeilenrang A
Satz: Der Rang, der Spaltenrang und der Zeilenrang einer Matrix A sind gleich:
rg A = Spaltenrang A = Zeilenrang A
Beweis:
• Zu zeigen ist, dass rg A = Spaltenrang A:
Die Spalten von A sind die Bilder der Basisvektoren. Daraus folgt, dass die
Spaltenvektoren Erzeugendensystem für Im f sind. Damit ist die maximale
linear unabhängige Teilmenge der Spaltenvektoren die Basis von Im f . Also
ist der Spaltenrang von A die Dimension von Im f :
Spaltenrang A = dim (Im f ) = rg A
• Zu zeigen ist, dass Spaltenrang A = Zeilenrang A:
Streiche aus A Zeilen und/oder Spalten, die jeweils Linearkombinationen
der übrigen Zeilen bzw. Spalten sind, solange das möglich ist.
A 7→ A0 7→ A00 7→ . . . 7→ A(end)
Nach dem Lemma gilt:
n := Spaltenrang A = Spaltenrang A(end)
m := Zeilenrang A = Zeilenrang A(end)
63
– Angenommen, dass n < m:
Das heißt, dass A(end) m Zeilen hat, aber m Vektoren können in K n
nicht linear unabhängig sein. Damit muss einer der Vektoren eine Linearkombination der übrigen Vektoren sein. Dies ist ein Widerspruch
zur Annahme. Also ist n ≥ m.
– Angenommen, dass n > m:
Das heißt, dass A(end) n Spalten hat, aber n Vektoren können in K m
nicht linear unabhängig sein. Damit muss einer der Vektoren eine Linearkombination der übrigen Vektoren sein. Dies ist ein Widerspruch
zur Annahme. Also ist n = m.
Definition: Sei A = (ai j ) ∈ M (m × n, K) eine Matrix, dann ist transponierte
Matrix von A definiert durch
At = (ati j ) ∈ M (n × m, K) mit ati j = aj i
Beispiel:
t
1 0
2 1  = 1 2 4
0 1 0
4 0

Folgerung: Der Rang einer Matrix A und der transponierten Matrix At ist
gleich.
rg A = rg At
64
2.6.2
Elementare Umformungen
Feststellung: Der Rang einer Matrix kann mit den folgenden elementaren Umformungen bestimmt werden:
• Typ 1: Vertauschung von zwei Zeilen (Spalen).
• Typ 2: Multiplikation einer Zeile (Spalte) mit einem Skalar λ 6= 0.
• Typ 3: Addition des λ-fachen einer Zeile (Spalte) zu einer anderen Zeile (Spalte).
Satz: Elementare Umformungen ändern den Rang einer Matrix nicht.
Beweis:
• Typ 1 und 2: trivial
• Typ 3: Sei ~vi ein Zeilenvektor vor und ~vi∗ nach der Umformung, ~vk sei ein
anderer Zeilenvektor und λ ∈ K ein Skalar:
~vi∗ = ~vi + λ~vk
Die ursprüngliche Matrix sei A und die Matrix nach der Umformung A∗ :
A∗ = A(~v ↔ ~v ∗ )
Sei w
~ darstellbar als Linearkombination aus den Zeilenvektoren von A:
w
~ = µ1~v1 + µ2~v2 + . . . + µi~vi + . . . + µk~vk + . . . + µn~vn
Damit ist der Vektor w
~ auch als Linearkombination aus den Zeilenvektoren
von A∗ darstellbar:
w
~ = µ1~v1 + µ2~v2 + . . . + µi~vi∗ + . . . + (µk − λµi )~vk + . . . + µn~vn
Daraus folgt:
Lin(Zeilenvektoren von A) = Lin(Zeilenvektoren von A∗ )
Da die Dimension gleich bleibt, bleibt auch der Rang gleich.
65
2.6.3
Obere Dreiecksform
Definition: Die Matrix A ist in oberer Dreiecksform, wenn die Matrix die folgende Form hat (das Symbol ∗ steht für beliebigen Inhalt):


a1 1 ∗
∗ ··· ∗
∗ ··· ∗

.. . . .. 
 0 a2 2 ∗ · · · ∗
. . 
.


.
.
.
.

..
.. . . ... 
0 a3 3 . .
 0

 .

.
.
.
.
.
.
 ..
.. . . .. 
..
..
.. ∗
A=

 0
0 · · · 0 ar r ∗ · · · ∗ 


 0 ··· ··· ··· 0

0
·
·
·
0



 ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
 .
.
.
.
. . 
.
.
0 ··· 0
0 ··· ··· ··· 0
Für die Werte a1 1 , a2 2 , a3 3 , . . . ar r muss dabei gelten:
a1 1 · a2 2 · a3 3 · . . . · ar r 6= 0
Beobachtung: Der Rang einer solchen Matrix ist r.
Verfahren: Überführung einer Matrix A ∈ M (m×n, K) in obere Dreiecksform:
• Die Matrix A0 wird mit der Matrix A initialisiert.
A0 := A
• Anschließend Ak mit k = 0, 1, . . . min(m, n) das folgende Verfahren angewandt. Dabei muss Ak vor jeder Inkrementierung von k folgende Form
haben:


∗
···
∗
a1 1 ∗
∗ ··· ∗

..
.. 
...
 0 a2 2 ∗ · · · ∗
.
. 

..
.. 
..
...
...


0 a3 3
.
. 
.
 0
 .
..
..
.. 
..
..
..
 .
.
. ∗
.
.
.
. 
Ak =  .

 0

∗
·
·
·
∗
0
·
·
·
0
a
kk


 0 ··· ··· ··· 0

b
·
·
·
b
k+1
k+1
k+1
n


 ..
..
..
.. 
..
..
..
..
 .
.
.
.
.
.
.
. 
0 ··· ··· ··· 0
bm k+1 · · · bm n
Die Koeffzienten bi j (mit i = k + 1, k + 2, . . . m und j = k + 1, k + 2, . . . n)
sind beliebig, und es gilt a1 1 · a2 2 · a3 3 · . . . · ak k 6= 0.
66
Die Teilmatrix von Ak , die nur aus den Elementen bp q besteht, wird im
Folgenden mit B bezeichnet:


bk+1 k+1 · · · bk+1 n

.. 
..
B =  ...
.
. 
bm k+1
···
bm n
Verfahren für Ak :
– Falls für alle bi j aus B gilt
bi j = 0
dann ist das Verfahren abgeschlossen. Die Matrix Ak hat obere Dreiecksform.
– Sonst werden folgende Umformungen durchgeführt:
a) Vertausche Zeilen und/oder Spalten, die durch B gehen, um einen
Koeffizieten bi,j 6= 0 an die Stelle a0k+1 k+1 zu bringen:


∗
∗ ···
∗
a1 1 ∗ · · · ∗


..
..
..
...

 0 a2 2 . . . ∗
.
.
.

 .
.
.
.
...
... ...

 .
.
.
.
.
.
.
.
∗




0
0
0
a
∗
∗
·
·
·
∗


k
k
0
Ak = 

0
0
ak+1 k+1 · · · · · · ak+1 n 
 0 ··· ··· 0

 .
..
... ...
 ..
.
b0k+2 k+1 · · · · · · b0k+2 n 



 ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.

 .
.
.
.
.
.
.
.
0
0
0 ··· ··· 0
bm k+1 · · · · · · bm n
67
b) Für b0k+2 k+1 , b0k+3 k+1 , . . . b0m k+1 werden durch Typ-3-Umformungen
Nullen erzeugt:


a1 1 ∗ · · · ∗
∗
∗
···
∗


..
..
..
..

 0 a2 2 . . . ∗
.
.
.
.
 .

.
.
.
..
..
..
 .

.
.
.
.
.
.
.
.
.
.
∗




0
0
0
a
∗
∗
·
·
·
∗


k
k
0
Ak = 

0
0
ak+1 k+1
···
· · · ak+1 n 
 0 ··· ··· 0
 .

..
..
..
 ..
.
.
0
b00k+2 k+2 · · · b00k+2 n 
.


 ..

.
.
.
.
.
.
.
.
.
.
.
.
.
.
 .

.
.
.
.
.
.
.
00
00
0
bm k+2 · · · bm n
0 ··· ··· 0
Dies wird durch folgende Operation realisiert (i = k+2, k+3, . . . m
und j = k + 1, k + 2, . . . n):
b00i j
:=
b0i j
−
a0i k+1
·
b0k+1 j
a0k+1 k+1
Beispiel:
• Folgende Matrix A soll in obere Dreiecksform umgeformt werden:


0 −2 4
2 1 0 


1 0 2 
2 0 3
• Vertausche die erste und die dritte Zeile, so dass an der Stelle a1 1 ein
Koeffizient 6= 0 steht:


1 0 2
2 1 0 


0 −2 4
2 0 3
• Erzeuge an den Stellen a2 1 und a4 1 Nullen durch Typ-3-Umformungen mit
der ersten Zeile:

 

1
0
2
1 0
2
2 − 1 · 2 1 − 0 · 2 0 − 2 · 2 0 1 −4

=

 0
−2
4  0 −2 4 
2−1·2 0−0·2 3−2·2
0 0 −1
68
• An der Stelle a2 2 befindet sich ein Koeffizient 6= 0. Damit muss nur noch
an der Stelle a2 3 eine Null erzeugt werden:

 

1
0
2
1 0 2
0
 0 1 −4
1
−4

 

0 −2 − (−2) · 1 4 − (−2) · (−4) = 0 0 −4
0
0
−1
0 0 −1
• An der Stelle a3 3 muss eine Null erzeugt werden:
 


1 0 2
1 0
2
 0 1 −4
0 1
−4
=


0 0
 0 0 −4
−4
0 0 0
0 0 −1 − 41 · (−4)
2.6.4
Elementarmatrizen
Beobachtung: Elementare Matrixumformungen können auch durch Multiplikation mit sogenannten Elementarmatrizen realisiert werden.
• Typ 1:
Für die Vertauschung der i-ten und der j-ten Zeile (Spalte) in einer Matrix
A wird folgende Matrix durch Abwandlung der Einheitsmatrix konstruiert:


1
...


0




1




0 ··· → ··· 1

 ←− i-te Zeile


.
.
.. 1
..






.
.
Ti j = 

.
↓
↑


..
..


.
1 .




1 ··· ← ··· 0

 ←− j-te Zeile


1




..


.
0
1
Vertauschung der i-ten und der j-ten Zeile:
A0 = Ti j · A
Vertauschung der i-ten und der j-ten Spalte:
A00 = A · Ti j
69
• Typ 2:
Für die Multiplikation einer Zeile (Spalte) mit dem Faktor λ in einer Matrix
A wird eine Matrix konstruiert, in welcher in der Diagonalen der Einheitsmatrix in der entsprechenden Zeile (Spalte) eine Eins durch λ ersetzt:


1
...


0




1




λ
Si λ = 
 ←− i-te Zeile


1




..


.
0
1
Multiplkation der i-ten Zeile mit λ:
A0 = Si λ · A
Multiplkation der j-ten Spalte mit λ:
A00 = A · Si λ
• Typ 3:
Für die Addition des λ-fachen einer Zeile (Spalte) zu einer anderen Zeile
(Spalte) in einer Matrix A wird eine Einheitsmatrix um ein λ folgendermaßen erweitert:


1
...


0




.
..






..
Ki j λ = 
 ←− i-te Zeile
. λ


..


.




...


0
1
↑
j-te Spalte
Addition des λ-fachen der j-ten Zeile zur i-ten Zeile:
A 0 = Ki j λ · A
Addition des λ-fachen der i-ten Spalte zur j-ten Spalte:
A00 = A · Ki j λ
70
2.7
2.7.1
Lineare Gleichungssysteme
Einleitung
Definition: Ein lineares Gleichungssystem (LGS) mit Koeffizienten in einem
Körper K, mit m Gleichungen und n Unbekannten wird durch eine Matrix
A = (ai j )(i,j)∈m×n ∈ M (m × n, K)
und einem Vektor


b1
 b2 

~b = 
 ..  ∈ K m
 . 
bm
repräsentiert. Das lineare Gleichungssystem wird folgendermaßen interpretiert:
a1 1 · x 1
a2 1 · x 1
..
.
+ a1 2 · x 2
+ a2 2 · x 2
..
.
+ . . . + a1 n · x n
+ . . . + a2 n · x n
..
.
= b1
= b2
..
.
am 1 · x1 + am 2 · x2 + . . . + am n · xn = bm
Man bezeichnet mit (A | b) folgende Matrix:

a1 1 a1 2 · · · a1 n b 1
 a2 1 a2 2 · · · a2 n b 2

(A | b) =  ..
..
..
..
 .
.
.
.
am 1 am 2 · · · am n b m





Beobachtung: x1 , x2 , . . . xn bilden genau dann eine Lösung des linearen Gleichungssystems, wenn
 
x1
 x2 
 
A ·  ..  = ~b
.
xn
71
Satz: Die Gleichung A · ~x = ~b ist genau dann lösbar, wenn
rg A = rg(A | b)
Beweis:
rg A = rg(A | b)
⇔ Spaltenrang(A) = Spaltenrang(A | b)

 


 

a1 1
a1 2
a1 n 



 a2 1   a2 2 

 a2 n  
 
 


 
~
⇔ b ∈ Lin   ..  ,  ..  , . . .  ..  
 .   . 


 . 



 a

am 2
am n
m1






a1 n
a1 2
a1 1
 a2 n 
 a2 2 
 a2 1 






~
⇔ ∃x1 , x2 , . . . xn b = x1 ·  ..  + x2 ·  ..  + . . . + xn ·  .. 
 . 
 . 
 . 
am n
am 2
am 1
 
x1
 x2 
 
⇔ ∃x1 , x2 , . . . xn A ·  ..  = ~b
.
xn
Definition: Ein lineares Gleichungssystem mit ~b = ~0 (m) wird homogenes Gleichungssystem genannt.
Beobachtung: Zu jedem linearen Gleichungssystem kann durch Ersetzung von ~b
durch ~0 (m) ein homogenes Gleichungssystem gefunden werden.
Definition: Die Lösungsmenge eines linaren Gleichungssystems aus A und ~b
ist folgermaßen definiert:
Lös(A, ~b) = {~x | A · ~x = ~b}
Satz: Sei A ∈ M (m × n, K) die Matrix einer linearen Abbildung f : K n → K m
bezüglich der Standardbasis, dann ist
a) Die Lösungsmenge Lös(A, ~0 (m) ) ist gleich Ker f . Damit ist Lös(A, ~0 (m) ) ein
Unterraum von K n .
72
b) Sei ~b ∈ K m und ~x, ~y ∈ Lös(A, ~b), dann gilt:
~x − ~y ∈ Lös(A, ~0 (m) )
c) Sei ~b ∈ K m , ~x ∈ Lös(A, ~b) und ~z ∈ Lös(A, ~0 (m) ), dann gilt:
~x + ~z ∈ Lös(A, ~b)
Beweis:
a) Durch Einsetzen der jeweiligen Definitionen folgt:
Lös(A, ~0 (m) ) = {~x | A · ~x = ~0 (m) }
= {~x | f (~x) = ~0 (m) }
= Ker f
b) Seien ~x, ~y ∈ Lös(A, ~b), dann gilt:
f (~x) = ~b und f (~y ) = ~b
Daraus folgt:
f (~x − ~y ) = f (~x) − f (~y ) = ~b − ~b = ~0
Das heißt:
~x − ~y ∈ Lös(A, ~0 (m) )
c) Seien ~x ∈ Lös(A, ~b) und ~z ∈ Lös(A, ~0 (m) ), dann gilt:
f (~x) = ~b und f (~z) = ~0
Daraus folgt:
f (~x + ~z) = f (~x) − f (~z) = ~b − ~0 = ~b
Das heißt:
~x + ~z ∈ Lös(A, ~b)
Beobachtung: Sei A ∈ M (m × n, K) die Matrix einer linearen Abbildung
f : K n → K m bezüglich der Standardbasis, dann ist die Lösungsmenge Lös(A, b)
genau dann nicht leer, wenn ~b ∈ Im f .
73
2.7.2
Gauß’scher Algorithmus
Verfahren: Ein lineares Gleichungssystem aus A und ~b kann nach folgendem
Algorithmus gelöst werden:
a) Überprüfung, ob das lineare Gleichungssystem eine Lösung hat: Man bringt
die Matrix A in obere Dreiecksform, aber erweitert alle Schritte auf die Matrix (A | b) ohne Elementarumformungen mit letzter Spalte vorzunehmen.
Achtung: Spaltenvertauschungen in A bedeuten Variablenvertauschung im
linearen Gleichungssystem.
Ergebnis:








A0 = 






a01 1
∗
∗
···
∗
0
a02 2
∗
0
..
.
0
..
.
···
..
.
..
.
∗
..
.
0
0
..
.
0
···
..
.
0
···
a03 3
..
.
∗
· · · 0 a0r r
··· ··· 0
..
..
..
.
.
.
··· ··· 0
∗
..
.
..
.
..
.
∗
0
..
.
··· ∗
. . . ..
.
. . ..
. .
. . ..
. .
··· ∗
··· 0
. . ..
. .
0 ···
0
b01


b02 


b03 
.. 
. 

b0r 

b0r+1 

.. 
. 
b0m
• Fall 1: Falls mindestens ein b0i 6= 0 mit i = r + 1, r + 2, . . . m existiert,
dann ist rg (A) < rg(A | b), und das System hat keine Lösung. Das
Verfahren wird abgebrochen.
• Fall 2: Falls b0r+1 = b0r+2 = . . . = b0m = 0, dann ist rg (A) = rg(A | b),
und das System hat eine Lösung.
Im Folgenden wird das System auf folgende Form reduziert:
 0

∗ · · · ∗ b01
a1 1 ∗
∗ ··· ∗
.. . . ..


. . b02 
 0 a02 2 ∗ · · · ∗
.


..
.. . . ..
..
0
0 
(T | S | b0 ) = 
.
.
0
0
a
.
.
b
.

33
3 
 .
..
.. . . ..
.. 
... ...
 ..
. .
.
.
. 
∗
0
0
0 · · · 0 ar r ∗ · · · ∗ b0r
74
b) Bestimmung einer speziellen Lösung von (T | S | b0 ):
Zur Bestimmung einer speziellen Lösung von (T | S | b0 ) wird das lineare
Gleichungssystem folgendermaßer geteilt:


x1
 x2 
 


 . 
x1
xr+1
 . 
 . 
 x2 
xr+2 


 


(T | S) ·  xr  = T ·  ..  + S ·  ..  = ~b0


.
 . 
xr+1 
 . 
xr
xn
 .. 
xn
Man wählt xr+1 = xr+2 = . . . = xn = 0.
Gleichungssystem wiefolgt:

 
a01 1 a01 2
x1
 0 a0
 x2 
22

 
T ·  ..  = ~b0 ⇒  ..
..
 .
.
.
0 ···
xr
Dadurch reduziert sich das lineare
    
b01
x1
· · · a01 r
   0
· · · a02 r 
  x 2   b2 
·
.=.

..
..
.
.   ..   .. 
b0r
xr
0 a0r r
Die Werte von x1 , x2 , . . . xr können nun direkt bestimmt werden:
b0r = a0r r · xr
b0r−1 = a0r−1 r−1 · xr−1 + a0r−1 r · xr
⇒
xr =
⇒
xr−1 =
b0r
a0r r
b0r−1 −a0r−1 r ·xr
a0r−1 r−1
..
.
b01 = a01 1 · x1 + . . . + a01 r · xr
⇒
x1 =
b01 −a01 r ·xr −...−a01 2 ·x2
a01 1
Der Vektor mit einer speziellen Lösung des linearen Gleichungssystem werde
mit ~x bezeichnet:

  
x1
x1
 x2   x2 
 .  .
 .  .
 .  .

  
~x =  xr  = xr 

  
xr+1   0 
 .  .
 ..   .. 
xn
0
75
c) Bestimmung einer Basis der Lösungsmenge des homogenen Gleichungssystems (T | S | ~0 (r) ):
Zur Bestimmung des j-ten Basisvektors von


x1
 x2 
 


 . 
x1
xr+1
 . 
 . 
 x2 
xr+2 


 


(T | S) ·  xr  = T ·  ..  + S ·  ..  = ~0 (r)


.
 . 
xr+1 
 . 
xr
xn
 .. 
xn
wählt man
xr+j = 1 und xr+1 = . . . = xr+j−1 = xr+j+1 = . . . xn = 0
Im Folgenden gelte:
S = (si j )(i,j)∈r×(n−r)
Damit erhält man das

a01 1
 0

 ..
 .
0
folgende lineare Gleichungssystem
   

x1
−s1 j
a01 2 · · · a01 r
  

a02 2 · · · a02 r 
 x2  −s2 j 
..  ·  ..  =  .. 
..
..
.
.
.  .  . 
0
· · · 0 ar r
xr
−sr j
Bemerkung: Der Vektor


−s1 j
−s2 j 


 .. 
 . 
−sr j
ist dabei der j-Spaltenvektor aus S, multipliziert mit −1.
Die Werte von x1 , x2 , . . . xr können nun wie bei der speziellen Lösung bestimmt werden.
Der j-te Basisvektor des homogenen Gleichungssystem werde mit ~xj bezeichnet.
Das Verfahren muss für alle n − r Spalten von S durchgeführt werden.
76
d) Bestimmung der allgemeinen Lösung von (T | S | b):
Mit Hilfe der speziellen Lösung des linaren Gleichungssystem und der Basisvektoren der Lösungsmenge der homogenen Gleichungssystem lässt sich
die Lösungsmenge des linearen Gleichungssystem folgermaßen darstellen:
(
)
n−r
X
Lös(A | b) = Lös(T |S | b0 ) = ~x +
λj · ~xj | λ1 , λ2 , . . . λn−r ∈ R
j=1
Beispiel: Gegeben sei das folgende Gleichungssystem:
x1
2x1
− x1
2x2 + x3 − x4
− x2 + 2x3
+ 5x3
− x2 − 3x3 + 2x4
=
6
= −1
=
3
= −6
a) Die dazugehörige Matrix (A | b):


6
0
2
1 −1
 1 −1
2
0 −1 


 2
0
5
0
3 
−1 −1 −3
2 −6
Diese Matrix muss zuerst in obere Dreiecksform überführt werden.
Erste und zweite Zeile vertauschen:

1 −1
2
0 −1
 0
2
1
−1
6

 2
3
0
5
0
−1 −1 −3
2 −6
In der ersten Spalte unter a1 1 Nullen erzeugen:

1 −1
2
0 −1
 0
2
1 −1
6

 0
5
2
1
0
0 −2 −1
2 −7








In der zweiten Spalte unter a2 2 Nullen erzeugen:


1 −1
2
0 −1
 0
2
1 −1
6 


 0
0
0
1 −1 
0
0
0
1 −1
77
Dritte und vierte Spalte tauschen, um an der Stelle a3 3 einen Wert 6= 0 zu
erzeugen (Achtung: x3 ↔ x4 ):


1 −1
0
2 −1
 0
2 −1
1
6 


 0
0
1
0 −1 
0
0
1
0 −1
In der dritten Spalte unter a3 3 Nullen erzeugen:


1 −1
0 2 −1
 0
2 −1 1
6 


 0
0
1 0 −1 
0
0
0 0
0
Die Matrix hat nun obere Dreiecksform.
Es existiert eine Lösung, da der untere Teil von ~b aus einer Null besteht.
Die Matrix kann nun folgendermaßen reduziert werden:


1 −1
0 2 −1
 0
6 
2 −1 1
0
0
1 0 −1
Das lineare Gleichungssystem wird geteilt:

    


1 −1
0
x1
2
−1
 0
2 −1  · x2  + 1 · (x3 ) =  6 
0
0
1
x4
0
−1
b) Bestimmung der speziellen Lösung:

   

1 −1
0
x1
−1
 0
2 −1  · x2  =  6 
0
0
1
x4
−1
Wähle x3 = 0 und bestimme die übrigen Variablen:
2 · x2
1 · x1 + (−1) · x2
1 · x4 = −1
+ (−1) · x4 =
6
+
0 · x4 = −1
78
⇒
⇒
⇒
x4 = −1
x2 = 2,5
x1 = 1,5
c) Bestimmung des ersten (und einzigen) Basisvektors von (A | ~0 (4) ):

   

1 −1
0
x1
−2
 0
2 −1  · x2  =  −1 
0
0
1
x4
0
Wähle x3 = 1 und bestimme die übrigen Variablen:
2 · x2
1 · x1 + (−1) · x2
1 · x4 =
0
+ (−1) · x4 = −1
+
0 · x4 = −2
⇒
⇒
⇒
x4 =
0
x2 = −0,5
x1 = −2,5
d) Lösungsmenge:
 



1,5
−2,5




 

−0,5
2,5




Lös(A | b) =   + λ · 
|
λ
∈
R
0
1 






−1
0
2.7.3
Quotientenraum
Beobachtung: Die Lösungsmenge ist kein Unterraum, aber eine Verschie”
bung“ eines Unterraums.
Definition: Sei V ein Vektorraum, U ein Unterraum von V und ~v ein Vektor
aus V , dann nennt man
~v + U = {~v + ~u | ~u ∈ U }
die Nebenklasse von ~v bezüglich U .
Satz: Sei V ein Vektorraum, U ein Unterraum von V und w,
~ w
~ zwei Vektoren
aus V , dann gilt:
~v + U = w
~ +U
⇔ ~v − w
~ ∈U
⇔ w
~ ∈ ~v + U
Definition: Sei V ein Vektorraum, U ein Unterraum von V und K der Körper
von V , dann bezeichnet man die Menge
V/U = {~v + U | ~v ∈ V }
als Quotientenraum von V nach U .
79
Beobachtung: Der Quotientenraum V/U ist ein Vektorraum mit folgenden
Operationen (~v , w
~ ∈ V , λ ∈ K)
(~v + U ) + (w
~ + U ) = (~v + w)
~ +U
λ · (~v + U ) = (λ · ~v ) + U
und dem neutralen Element ~0 + U = U .
Beobachtung: Sei V/U ein Quotientenraum, dann ist ~v + U ∈ V/U eine Äquivalenzklasse von ~v bezüglich der Relation Differenz ist in U“.
”
Satz: Sei V ein Vektorraum, U ein Unterraum von V , dann ist
dim V/U = dim V − dim U
Beweisidee: Man definiert eine Abbildung ϕ : V → V/U durch
~v 7→ ~v + U
Die Abbidlung ϕ ist linear und surjektiv (epimorph). Damit ist das Im ϕ = V/U .
Außerdem ist Ker ϕ = U , denn
∀ ~v ∈ U ~v + U = U = ~0 + U
Nach der Dimensionsformel gilt somit:
dim V = dim(Ker ϕ) + dim(Im ϕ) = dim U + dim V/U
80
Beobachtung: Seien A ∈ M (m × n, K) eine Matrix, f ∈ Hom(K n , K m ) die
dazugehörige Abbildung, ~b, ~c ∈ K n sowie ~x, ~y ∈ K m Vektoren und λ ∈ K ein
Skalar.
• Addition:
Lös(A, ~b + ~c) = (~x + ~y ) + Ker f
m
Lös(A, ~b) = ~x + Ker f und Lös(A, ~c) = ~y + Ker f
• Multiplikation mit Skalaren:
Lös(A | ~b) = ~x + Ker f
m
Lös(A | λ ~b) = λ ~x + Ker f
Lösungsmengen haben damit die Struktur von Vektorräumen.
Beispiel: Sei A ∈ M (2 × 2, R) eine Matrix und f ∈ Hom(R2 , R2 ) die dazugehörige Abbildung (bezüglich der Standardbasis):
1 2
x
x + 2y
A=
↔ f
=
2 4
y
2x + 4y
Bestimmung von Ker f (also von Lös(A, ~0 (2) )):
x + 2y = 0 und 2x + 4y = 0
Daraus folgt:
Lös(A, ~0
(2)
) = Ker f = Lin
Sei ~b ∈ R2 ein Vektor, dann gilt:
Lös(A, ~b) ∈ R2/Ker f
81
2
−1
2.8
2.8.1
Inverse Matrizen
Einheitsmatrix
Definition: Die Matrix


1 0 ··· ··· 0
.

..
..
.
. .. 
0 1
. .
. . . . . . .. 
.
.
En = 
.
.
.

 ∈ M (n × n, K)
. .

.
..
. . 1 0
 ..
0 ··· ··· 0 1
ist neutrales Element der Matrixmultiplikation in M (n × n, K) und wird als Einheitsmatrix bezeichnet. Das heißt (A ∈ M (n × n, K)):
En · A = A = A · En
2.8.2
Inverse Matrizen
Definition: Sei A ∈ M (n × n, K), dann ist A−1 die zu A inverse Matrix, wenn
A · A−1
= En
= A−1 · A
Achtung: Die Menge M (n × n, K) ist keine Gruppe. Es gibt z.B. gibt es kein
inverses Element für die Nullmatrix:



 

0 ··· 0
0 ··· 0
0 ··· 0
 




∀ A ∈ M (n × n, K)  ... . . . ...  · A = A ·  ... . . . ...  =  ... . . . ...  6= En
0 ··· 0
0 ··· 0
0 ··· 0
Satz: Die Matrix A ∈ M (n×n, K) ist genau dann invertierbar, wenn rg A = n.
Beweis: Aufgrund des Zusammenhanges zu linearen Abbildungen lässt sich
jeder Matrix eine Funktion f ∈ Hom(K n , K n ) zuordnen, sowie umgekehrt jeder
linearen Abbildung eine Matrix zuordnen:
A ↔ f
Daraus folgt:
• Surjektivität von f :
rg A = n ⇔ dim(Im f ) = n ⇔ f ist surjektiv
82
• Injektivität von f :
dim(Im f ) = n ⇔ dim(Ker f ) = 0 ⇔ f ist injektiv
|
{z
}
dim K n −dim(Im f )
• Umkehrbarkeit von f :
Da f surjektiv und injektiv ist, ist f bijektiv. Damit existiert eine Umkehrabbildung f −1 ∈ Hom(K n , K n ) und damit auch die dazugehörige Matrix
A0 ∈ M (n × n, K):
f −1 ↔ A0
• Verkettung von Funktionen als Matrixmultiplikation:
A · A−1
↔ f · f −1 = IdK n
↔ En
⇒ A · A−1 = En
Beobachtungen:
a) Seien A, B, C ∈ M (n × n, K) Matrixen und A · B = C.
Überführt man mit den gleichen elementaren Zeilenumformungen A in A0
und C in C 0 (ohne B zu verändern), so gilt A0 · B = C 0 .
Grund: Zeilenumformungen entsprechen Multiplikation mit Elementarmatrizen von links:
A0 · B = Dk · . . . · D2 · D1 ·A · B = Dk · . . . · D2 · D1 · C = C 0
|
{z
}
|
{z
}
b) Sei A ∈ M (n × n, K) eine Matrix.
Ist die Matrix A invertierbar, so kann man A mit elementaren Zeilenumformungen in En überführen.
Grund: Die Matrix A hat vollen Rang haben.
c) Sei A ∈ M (n × n, K) eine Matrix.
Überführt man die Matrix A durch Zeilenumformungen in En und wendet
die gleichen Umformungen auf En an, so erhält man A−1 .
Grund: Man wendet die Beobachtung a) an:
A
En
A · A−1 = En
En
X
En · A−1 = Dk · . . . · D1 ·A · A−1 = Dk · . . . · D1 ·En = X
|
{z
}
|
{z
}
En · A−1 = X ⇒ X = A−1
83
Beispiel:


2 0
1 2
−1 4

2 0
−1 2
−1 4

2 0
−1 2
0 2

0 4
−1 2
0 2

0 4
−1 0
0 2

0 0
−1 0
0 2

1 0 0
En = 0 1 0
0 0 1
1

A= 1
0

1
0
0

1
0
0

1
0
0

1
0
0

1
0
0

Probe:


1 0 0
0 1 0 = En
0 0 1


1 0 0
−1 1 0
0 0 1


1
0 0
−1 1 0
1 −1 1


−1 2 0
−1 1 0
1 −1 1


−1 2
0
−2 2 −1
1 −1 1


−3 4 −2
−2 2 −1
1 −1 1


−3
4
−2
2
−2
1  = A−1
0,5 −0,5 0,5

 
 

1 2 0
−3
4
−2
1 0 0
1 1 2  ·  2
−2
1  = 0 1 0
0 −1 4
0,5 −0,5 0,5
0 0 1
84
2.9
Determinanten
2.9.1
Einleitung
Definition: Die Determinante det A ist eine Kenngröße einer quadratischen
Matrix A ∈ M (n × n, K), die wie folgt bestimmen kann:
• Fall 1: n = 1
det a1 1 = a1 1
• Fall 2: n > 1
Entwicklung nach der ersten Spalte:
n
X
det A =
(−1)i+1 ai 1 · det Ai 1
i=1
Dabei ist Ai 1 die Matrix, die man aus A durch Streichen der i-ten Zeile
und der ersten Spalte enthält.
Schreibweise: Für die Determinante wird folgende Schreibweise vereinbart:


a1 1 · · · a1 n a
·
·
·
a
11
1n
..
.. := det  ..
.. 
.
.
.
.
.
 .
.
.
. . 
am 1 · · · am n am 1 · · · am n
Beispiel:
0
1
0
0
1
2
1
0
2
4
5
2
0 1 2 0
6
= (−1)2+1 · 1 · 1 5 1
1
0 2 0
0
5 1 2
= − 1·
−
1
·
2
2 0
0
0
= − ((5 · 0 − 2 · 1) − (2 · 0 − 2 · 0))
= 2
85
Beobachtung: Für die Spezialfälle n = 2 und n = 3 existiert eine einfache
Methode zur Bestimmung der Determinenten:
a1 1 a1 2 a2 1 a2 2 = a1 1 · a2 2 − a1 2 · a2 1
a1 1 a1 2 a1 3 a2 1 a2 2 a2 3 = (a1 1 · a2 2 · a3 3 + a1 2 · a2 3 · a3 1 + a1 3 · a2 1 · a3 2 )
a3 1 a3 2 a3 3 − (a1 3 · a2 2 · a3 1 + a1 1 · a2 3 · a3 2 + a1 2 · a2 1 · a3 3 )
Achtung: Ab n = 4 funktioniert diese Methode nicht mehr!
Definition: Eine Funktion f : M (m × n, K) → L heißt linear in jeder Zeile,
wenn folgende Bedingungen erfüllt sind:
• Seien A, A0 ∈ M (m × n, K) Matrizen. Wenn sich A und A0
Zeile unterscheiden, dann gilt:



a1 1
a1 1 · · · a1 n
.. 
...
 ..
 ..
. 
 .
 .

 0

0
a
·
·
·
a
f (A) + f (A ) = f  p 1
p n  + f  ap 1
 .
 .


.. 
..
 ..
 ..
.
.
am 1 · · · am n
am 1


a1 1
···
a1 n
..
..
...


.
.




= f ap 1 + a0p 1 · · · ap n + a0p n 


..
..
...


.
.
am 1
···
am n
86
nur in der p-ten
···
...

a1 n
.. 
. 

· · · a0p n 

.. 
..
.
. 
· · · am n
• Sei A, ∈ M (m × n, K) eine Matrix und λ ∈ K ein Skalar, dann gilt für
alle p ≤ m:


a1 1 · · · a1 n
.. 
...
 ..
. 
 .


λ · f (A) = λ · f  ap 1 · · · ap n 
 .

.. 
..
 ..
.
. 
am 1 · · · am n


a1 1
···
a1 n
.. 
...
 ..
. 
 .


= f λ · ap 1 · · · λ · ap n 
 .

.. 
..
 ..
.
. 
am 1 · · ·
am n
Eine Funktion f : M (m × n, K) → L heißt linear in jeder Spalte, wenn folgende
Bedingungen erfüllt sind:
• Seien A, A0 ∈ M (m × n, K) Matrizen. Wenn sich A und A0 nur in der p-ten
Spalte unterscheiden, dann gilt:


a1 1 · · · a1 p · · · a1 n

..
.. 
..
..
f (A) + f (A0 ) = f  ...
.
.
.
. 
am 1 · · · am p · · · am n


a1 1 · · · a01 p · · · a1 n

..
.. 
..
..
+f  ...
.
.
.
. 
am 1 · · ·

a0m p · · ·
am n

a1 1 · · · a1 p + a01 p · · · a1 n

..
.. 
..
..
= f  ...
.
.
.
. 
0
am 1 · · · am p + am p · · · am n
87
• Sei A, ∈ M (m × n, K) eine Matrix und λ ∈ K
alle p ≤ n:

a1 1 · · · a1 p
 ..
..
..
λ · f (A) = λ · f  .
.
.
am 1 · · · am p

a1 1 · · · λ · a1 p
 ..
..
..
= f  .
.
.
am 1 · · · λ · am p
ein Skalar, dann gilt für

· · · a1 n
.. 
..
.
. 
· · · am n

· · · a1 n
.. 
..
.
. 
···
am n
Satz: Es gibt genau eine Abbildung det : M (n × n, K) → K mit den folgenden
Eigenschaften:
• Die Abbildung det ist linear in jeder Zeile.
• Wenn rg A < n, dann gilt det A = 0.
• Für die Determinante der Einheitsmatrix En gilt: det En = 1.
Diese Abbildung lässt sich durch die am Anfang angegebene Entwicklungsformel
bestimmen.
Beobachtung: Die Abbidlung det ist ebenfalls linear in jeder Spalte.
2.9.2
Eigenschaften von Determinanten
Beobachtung: Die Abbildung det ist invariant gegenüber Typ-3-Zeilen- oder
Spaltenumformungen:
• Zeilenumformungen:
Umformung:

a1 1
 ..
 .

 ai 1
 .
A=
 ..
a
 j1
 .
 ..
an 1


a1 1
a1 n
.. 
..


. 
.


 ai 1 + λ · aj 1
· · · ai n 

.. 
..
0
..

.
.  −→ A = 
.


· · · aj n 
a


j1

.. 
..
...

. 
.
· · · an n
an 1
···
...
88

···
a1 n
..

..
.

.

· · · ai n + λ · aj n 

..
..

.
.


···
aj n


..
...

.
···
an n
Betrachtung der Determinante von A0 :
a1 1
···
a1 n
..
..
..
.
.
.
ai 1 + λ · aj 1 · · · ai n + λ · aj n ..
..
...
det A0 = .
.
aj 1
···
aj n
.
.
.
..
..
..
an 1
···
an n
a1 1 · · · a1 n a1 1
···
a1 n .. ..
.. ..
...
...
.
. .
. ai 1 · · · ai n λ · aj 1 · · · λ · aj n .
.. + ..
.. ..
..
= ..
.
.
. .
. a
···
aj n j 1 · · · aj n aj 1
.
.. ..
.. ...
...
..
.
.
. an 1 · · · an n an 1 · · ·
an n a1 1 · · · a1 n .. ..
..
.
.
. ai 1 · · · ai n .
.. = det A
...
= ..
. a
j 1 · · · aj n .
.. ...
..
. an 1 · · · an n 
a1 1
 ..
 .

λ · aj 1
 .
weil rg 
 ..
 a
 j1
 .
 ..
an 1
• Spaltenumformungen: analog
89
···
...
···
..
.
···
...
···

a1 n
.. 
. 

λ · aj n 
.. 
. 
<n
aj n 

.. 
. 
an n
Beobachtung: Vertauschung von zwei Zeilen (Spalten) bewirkt Vorzeichenänderung der Determinanten:
• Vertauschung der i-ten und der j-ten Zeilen in der Matrix A ∈ M (n×n, K)
mit Hilfe von Typ-2- und Typ-3-Zeilenumformungen:
1. Matrix A:


a1 1 · · · a1 n
.. 
 ..
...
 .
. 


 ai 1 · · · ai n 
 .
.. 
..
.
A=
.
.
. 


a

 j 1 · · · aj n 
 .
.. 
..
 ..
.
. 
an 1 · · · an n
2. Addition der j-ten Zeile zur i-ten Zeile (Typ 3):


a1 1
···
a1 n
..
..


..
.


.
.


ai 1 + aj 1 · · · ai n + aj n 


..
..
...


.
.


 a
···
aj n 


j1


.
.
.
..
..
..


an 1
···
an n
3. Subtraktion der i-ten Zeile von der j-ten Zeile (Typ 3):


a1 1
···
a1 n
..
..


..
.


.
.




ai 1 + aj 1
···
ai n + aj n


.
.
.


.
.
.
.
.
.


a − (a + a ) · · · a − (a + a )
 j1
i1
j1
jn
in
jn 


..
..
...


.
.
···
an 1

a1 1
..
.



ai 1 + aj 1

..
= 
.

 −a

i1

.
..

an 1

···
a1 n
..

..
.

.

· · · ai n + aj n 

..
...

.

···
−ai n 


..
..

.
.
···
an n
90
an n
4. Addition der j-ten Zeile zur i-ten

a1 1
..


.

 ai 1 + aj 1 − ai 1

..

.


−ai 1


..

.
an 1

a1 1
 ..
 .

 aj 1
 .
= 
 ..
−a
 i1
 .
 ..
an 1
···
..
.
···
...
Zeile (Typ 3):
···
...
a1 n
..
.




· · · ai n + aj n − ai n 

..
..

.
.


···
−ai n


..
...

.
···
an n

a1 n
.. 
. 

aj n 
.. 
. 

· · · −ai n 

.. 
..
.
. 
· · · an n
5. Multiplikation der j-ten Zeile

a1 1
 ..
 .

 aj 1
 .
 ..

a
 i1
 .
 ..
an 1
mit −1 (Typ 2):

· · · a1 n
.. 
...
. 

· · · aj n 
.. 
0
..
.
. 
=A
· · · ai n 

.. 
...
. 
· · · an n
Betrachtung der Determinante von A0 :
Da die Determinante einer Matrix invariant gegenüber Typ-3-Zeilenumformungen ist, wirkt sich nur die Typ-2-Zeilenumformung, die Multiplikation einer Zeile mit −1, auf die Determinante aus: Aufgrund der Linearität
der Determinante in einer Zeile, muss die Determinate durch diese Operation ebenfalls mit −1 multipliziert werden:
a1 1 · · · a1 n a1 1 · · · a1 n .. .. ..
..
..
..
.
.
.
.
. . aj 1 · · · aj n aj 1 · · · aj n .
.. .. = − ..
...
...
..
. . .
−a
a
·
·
·
−a
·
·
·
a
i1
i1
i n
in
.
.
.. .. ..
..
..
..
.
.
. . an 1 · · · an n an 1 · · · an n 91
• Vertauschung der i-ten und der j-ten Spalten in der Matrix A ∈ M (n×n, K)
mit Hilfe von Typ-2- und Typ-3-Spaltenumformungen: analog
Folgerung: Vertauschung von zwei Zeilen (Spalten) bewirkt eine Vorzeichenänderung der Determinanten.
Folgerung: Die Determinante kann als Produkt der Diagonalelemente einer
oberen Dreiecksmatrix nach elementaren Typ-1- und Typ-3-Zeilenumformungen
(Spaltenumformungen) bestimmt werden, wobei für jeden Zeilentausch (Spaltentausch) noch mit −1 multipliziert werden muss.
Beispiel:
• Matrix A:


1 1 2
A = 1 1 3
2 3 3
• Subtraktion der ersten Zeile von der zweiten Zeile:


1 1 2
0 0 1
2 3 3
• Subtraktion des zweifachen der ersten

1 1
0 0
0 1
Zeile von der dritten Zeile:

2
1
−1
• Vertauschung der zweiten und der dritten Zeile:


1 1 2
0 1 −1 = A0
0 0 1
Anzahl der Vertauschungen: i = 1
• Bestimmung der Determinante von
1 1
0
det A = 0 1
0 0
A0 :
2 −1 = 1 · 1 · 1 = 1
1
• Bestimmung der Determinante von A:
det A = (−1)i · det A0 = −1 · 1 = −1
92
Beobachtung: Man kann zeigen, dass die Determinante einer Matrix A nach
beliebigen Zeilen und beliebigen Spalten entwickelt werden kann:
• Entwicklung nach der k-ten Zeile:
det A =
n
X
(−1)k+j · det Ak j
j=1
• Entwicklung nach der l-ten Spalte:
det A =
n
X
(−1)i+l · det Ai l
i=1
Beispiel:
7 3 0 −1
7 3 −1
2 4 0 5 = (−1)3+3 · 2 · 2 4 5 8 −5 2 4 2 1 0 2 1 0 0 3 −1
7 −1
−1·
= 2 · 2 · 2 5 4 5
= 2 · (2 · 19 − 1 · 37) = 2
Beobachtung: Die Determinanten einer Matrix A und der zu A transponierten
Matrix At sind gleich:
det A = det At
2.9.3
Cramer’sche Regel
Regel: Sei A ∈ M (n × n, K) eine Matrix mit rg A = n und ~b ∈ K n ein Vektor.
Hat das lineare Gleichungssystem aus A und ~b eine eindeutige Lösung, dann lässt
sich diese Lösung folgermaßen bestimmen:
 
x1
 x2 
det Ai
 
~x =  ..  mit xi =
det A
.
xn
Dabei ist Ai die Matrix, die man erhält, wenn man die i-te Spalte von A durch
~b ersetzt.
93
Beispiel: Es ist Lösung des folgenden linearen Gleichungssystem zu bestimmen:
2x1 + 3x2 = 5
2 3
x1
5
↔
·
=
x1 − 2x2 = 2
1 −2
x2
2
Anwendung der Cramer’schen Regel:
5 3 2 −2
−10 − 6
16
=
x1 = =
−4 − 3
7
2 3 1 −2
2 5 1 2 4−5
1
=
=
x2 = −4 − 3
7
2 3 1 −2
2.9.4
Anwendungen von Determinanten
Festlegung: Im Folgenden werden Punkte wie die Ortsvektoren dieser Punkte
behandelt.
Definition: Es wird eine Funktion mydet : K 2 × K 2 × K 2 → K definiert:
px qx rx mydet(~p, ~q, ~r) = py qy ry 1 1 1
Beobachtung: Jeder Ortsvektor ~t ∈ R2 zu einem Punkt T lässt sich eindeutig
darstellen als Linearkombination der Ortsvektoren p~, ~q und ~r eines Dreiecks P QR:
~t = a · p~ + b · ~q + c · ~r mit a + b + c = 1
Die Zahlen a, b und c heißen die baryzentrischen Koordinaten oder auch Schwerpunktskoordinaten. Befinden sich nämlich die Massen a, b und c mit Gesamtmasse 1 an den Punkten P , Q und R, dann ist T der Schwerpunkt. Mit der
Cramer’schen Regel werden a, b und c als Lösung eines linearen Gleichungssystem dann wiefolgt bestimmt:
a =
mydet(~t, ~q, ~r)
mydet(~p, ~q, ~r)
b =
mydet(~p, ~t, ~r)
mydet(~p, ~q, ~r)
c =
mydet(~p, ~q, ~t)
mydet(~p, ~q, ~r)
94
Beobachtung: Mit Hilfe der baryzentrischen Koordinaten lässt sich in der
Computergrafik Warping realisieren:
Beobachtung: Seien p~, ~q, ~r ∈ R2 Ortsvektoren der Punkte P , Q und R.
• Die Punkte P , Q und R liegen genau dann auf einer Linie, wenn
mydet(~p, ~q, ~r) = 0
−→
• Der Punkt R liegt genau dann links von der gerichteten Geraden P Q, wenn
mydet(~p, ~q, ~r) > 0
−→
• Der Punkt R liegt genau dann rechts von der gerichteten Geraden P Q,
wenn
mydet(~p, ~q, ~r) < 0
• Die Fläche es von P , Q und R aufgespannten Dreiecks beträgt:
mydet(~p, ~q, ~r) 2
95
Beispiel: Seien P = (−2, −3), Q = (3, 5) und R = (8, 14) Punkte in R2 :
Bestimmung von mydet:
−2 3 8 −3 5 14 = −10 + 42 − 24 − 40 + 9 + 28 = 5 > 0
1 1 1
−−−−−−−−−→
Daraus folgt, dass (8, 14) links von der gerichteten Geraden (−2, −3)(3, 5) liegt
und dass die Fläche des von den drei Punkten aufgespannten Dreiecks 2,5 beträgt.
Beobachtung: Diese Eigenschaften lassen sich auch auf höhere Dimensionen
übertragen. Seien P , Q, R und S Punkte in R3 , dann ist
px qx rx sx 1 py qy ry sy ·
6 pz qz rz sz 1 1 1 1
das Volumen des von den vier Punkten aufgespannten Simplexes. Falls die vier
Punkte auf einer Ebene liegen, ist der Wert 0.
96
Definition: Für A ∈ M (n×n, K) wird die komplementäre Matrix à = (ãi j )(i,j)∈n2
definiert durch:
ãi j = (−1)i+j · det Aj i
Dabei ist Aj i die Matrix, die man aus A durch Streichen der j-ten Zeile und der
i-ten Spalte enthält.
Beobachtung: Man kann leicht nachrechnen, dass auf der Diagonalen von A· Ã
immer det A steht, denn das is die Zeilenentwicklung von det A. Mit etwas mehr
Aufwand kann man zeigen, dass sonst nur Nullen in A · Ã auftreten:


det A
0
···
···
0
.. 

..
.
.
 0
. 
det A . .

 .
.
.
.
.
..
.. 
..
..
A · Ã = 

 ..

 .
.
.
. . det A
..
 ..
0 
0
···
···
0
det A
Folgerung: Ist det A 6= 0, dann ist A invertierbar und
A−1 =
Ã
det A
Spezialfall: Für A ∈ M (2 × 2, K) gilt:
−1
1
a b
d −b
=
·
für ad − bc 6= 0
c d
−c a
ad − bc
Satz: Für alle A, B ∈ M (n × n, K) gilt:
det(A · B) = det A · det B
Folgerung: Man kann jeden Endomorphismus f : K n → K n eindeutig seine
Determinante zuordnen als det A für diese Matrix A von f bezüglich der Standardbasis.
Satz: Sei f : K n → K n ein Endomorphismus, A die zu f gehörende Matrix
bezüglich der Standardbasis und B eine zu f gehörende Matrix bezüglich einer
anderen Basis, dann gilt:
det A = det B
97
... Vorlesung vom 19.12.2002 (fehlt)
98
2.10
Euklidische Vektorräume
Definition: Sei V ein reeller Vektorraum. Ein Skalarprodukt über V ist eine
Abbildung < , >: V × V → R mit folgenden drei Eigenschaften:
1. Biliniarität, d.h. für jedes ~v ∈ V sind die Abbildungen
• < , ~v >: V → R mit w
~ 7→< w,
~ ~v > oder
• < ~v , >: V → R mit w
~ 7→< ~v , w
~>
sind linear.
2. Symmetrie, d.h. < ~v , w
~ >=< w,
~ ~v > für alle ~v , w
~ ∈V.
3. Positive Definitheit, d.h. < ~v , ~v >> 0 für alle ~v 6= ~0.
Ein Euklidischer Vekttorraum ist ein reeller Vektorraum mit einem Skalarprodukt.
Beispiele:
1. V = Rn , Standardskalarprodukt:
h(x1 , x2 , . . . xn ), (y1 , y2 , . . . yn )i = x1 y1 · x2 y2 + . . . + xn yn
h(1, 5, 0, 3), (3, 0, 7, −4)i = 3 + 0 + 0 + (−12) = −9
2. V = {f : [−1, 1] → R | stetige Funktion}
Z 1
f (x)g(x)dx
hf, gi :=
−1
Definition: Die Norm eines Vektors ~v in einem Euklidischen Raum ist definiert
durch
k~v k = h~v , ~v i
Beispiel:
k(1, 2, 0, 2, 4)k =
√
1 + 4 + 0 + 4 + 16 =
√
25 = 5
Das ist auch der Abstand zwischen (0, 0, . . . 0) und (1, 2, 0, 2, 4) in R5 .
Beispiel: in R3 . . .
99
Satz (Ungleichung von Cauchy-Schwarz): In jedem Euklidschen Vektorraum gilt für alle ~u, ~v ∈ V
|h~u, ~v i| ≤ k~uk · k~v k
Speziell für Rn mit ~u = (a1 , a2 , . . . an ) und ~v = (b1 , b2 , . . . bn ):
q
q
2 2
2
|a1 b1 + a2 b2 + . . . + an bb | ≤ a1 , a2 , . . . an · b21 , b22 , . . . b2n
Für V = {f : [−1, 1] → R | stetige Funktion}:
sZ
Z
1
|
1
1
(f (x))2 dx ·
f (x)g(x)dx| ≤
−1
sZ
−1
(g(x))2 dx
−1
Beweis:
1. Fall 1: ~v = ~0, dann ergibt die Cauchy-Schwarz-Ungleichung 0 = 0 (also
korrekt)
2. Fall 2: ~v 6= ~0
λ :=
h~u, ~v i
h~u, ~v i
=
h~v , ~v i
k~v k2
Nun betrachtet man:
0 ≤ h~u − λ~v , ~u − λ~v i
= h~u, ~u − λ~v i − λh~v , ~u − λ~v i
= h~u, ~ui − λh~u, ~v i − λh~v , ~ui + λ2 h~v , ~v i
h~u, ~v i2 h~u, ~v i2 · k~v k2
+
= k~uk2 − 2 ·
k~v k
k~v k4
h~u, ~v i2
= k~uk2 −
k~v k2
Also:
h~u, ~v i2 ≤ k~uk2 · k~v k2
⇒ |h~u, ~v i| ≤ k~uk · k~v k
Satz: Die Norm in einem Euklidischen Vektorraum hat die folgenden Eigenschaften:
1. k~v k ≥ 0 für alle ~v ∈ V
2. k~v k = 0 ⇔ ~v = ~0
3. kλ~v k = |λ|k~v k
4. k~v + ~u ≤ k~v k + k~ukk
100
Beweis:
1.
kλ~v k =
=
=
=
=
p
hλ~v , λ~v i
p
λh~v , λ~v i
p
λ2 h~v , ~v i
√
p
λ2 · h~v , ~v i
|λ|k~v k
2.
(k~v k + k~uk)2 =
≥
=
=
k~v k2 + 2k~v kk~uk + k~uk2
k~v k2 + 2h~v , ~ui + k~uk2
h~v , ~v i + 2h~v , ~ui + h~u, ~ui
...
Beispiel: Normale Dreiecksungleichung aus der Geometrie:
GRAFIK
Winkel: Für ~v , w
~ ∈ V definieren wir den Öffnungswinkel
α(~v , w)
~ = arccos
h~v , wi
~
k~v kkwk
~
GRAFIK mit ~v = (1, 0) und w
~ = (2, 2)
1·2+0·2
√
^(~v , w)
~ = arccos √
1 + 0 + 22 22
2
√
= arccos
2· 2
π
=
= 45◦
4
In Kosinussatz die Formel einsetzen.
c2 = a2 + b2 − 2ab cos ϕ
c2 = h~u − ~v , ~u − ~v i = h~u, ~ui + h~v , ~v i − 2h~u, ~v i
= k~uk2 + k~v k2 − 2k~ukk~v k ·
= a2 + b2 − 2ab cos ϕ
h~u, ~v i
ϕ = arccos
k~ukk~v k
GRAFIK: Kosinus- (0 → π) und Arcuskosinus-Funktion
101
h~u, ~v i
k~ukk~v k
Definition: Zwei Vektoren ~u und ~v in einem Euklidischen Vektorraum (V, h , i)
heißen orthogonal (senkrecht) zueinander, wenn h~u, ~v i = 0 ist.
^(~u, ~v ) =
π
2
⇔ h~u, ~v i = 0 ⇔ ~u steht senkrecht auf ~v
Schreibweise:
~u⊥~v
Für eine Teilmenge M ⊆ V schreibt man M ⊥~u, falls h~v , ~ui = 0 für alle ~v ∈ M .
Definition: Das orthogonale Komplement M ⊥ einer Menge M ⊆ V ist definiert
als
M ⊥ = {~u ∈ V | M ⊥~u}
GRAFIK: einige Vektoren aus M (auf einer Linie) und einige aus M ⊥ (auch auf
einer Linie, aber orthogonal zu den aus M )
Satz: Die Menge M ⊥ ist ein Unterraum.
Beweis:
• Der Nullvektoren gehört zu M ⊥ .
• Addition:
~u, u~0 ∈ M ⊥ ⇒ h~u, ~v i = hu~0 , ~v i = 0 für alle ~v ∈ M
= h~u + u~0 , ~v i = h~u, ~v i + hu~0 , ~v i = 0
⇒ ~u + u~0 ∈ M ⊥
• Multiplikation: . . .
Definition: Eine Menge von Vektoren ~v1 , ~v2 , . . . ~vr wird Orthonormalsystem
genannt, falls k~vi k = 1 für alle i = 1, 2, . . . r und h~vi , ~vj i = 0 für alle i 6= j.
kürzer:
1 falls i = j
h~vi , ~vj i = δi j =
0 sonst
Beispiel: Standardbasis für 4D.
Lemma 1: Die Vektoren eines Orthogonalsystem sind linear unabhängig.
102
Beweis: Angenommen λ1~v1 + λ2~v2 + . . . + λr~vr = ~0.
Zeige: λ1 = λ2 = . . . = λr = 0
0 = h~0, ~vi i
= hλ1~v1 + λ2~v2 + . . . + λr~vr , ~vi i
= λ1 h~v1 , ~vi i + . . . + λi h~vi , ~vi i + . . . + λr h~vr , ~vi i
| {z }
| {z }
| {z }
=0
=1
=0
= λi
Lemma 2: Ist {~v1 , ~v2 , . . . ~vn } eine orthonormale Basis von V , so gilt für jedes
~v ∈ V die folgende Entwicklungsformel:
n
X
~v =
h~v , ~vi i~vi
i=1
Beweis: Nachrechnen
     
1
0
0





0 , 1 , 0
Beispiel:
0
0
1
 
 
 
 
2
1
0
0
3 = (2 + 0 + 0) 0 + (0 + 3 + 0) 1 + (0 + 0 + 0) 0
0
0
0
1
Lemma 3: Ist ~v1 , ~v2 , . . . ~vr ein Orthonormalsystem in V und U = Lin({~v1 , ~v2 , . . . ~vr }),
so hat jedes ~v ∈ V eine eindeutige Darstellung
~v = ~u + w
~ mit ~u ∈ U und w
~ ∈ U⊥
Dabei ist
~u =
r
X
h~v , ~vi i~vi
i=0
und
w
~ = ~v − ~u
√
2
√2
2
2
!
, k~v1 k = 1
Beispiel: V = R2 , r = 1, ~v1 =
3
~v =
= ~u + w
~ wobei ~u ∈ Lin(~v1 ) und w⊥~
~ v1
2
103
GRAFIK: U mit ~v1 und U ⊥ , außerdem ~v , ~v wird auf U und U ⊥ projiziert
~u = h~v , ~v1 i~v1
√ !
√
5 2 √22
=
2
2
2
5
2
=
5
2 5 1 3
2
w
~ =
− 25 =
1
−
2
2
2
Satz (Erhard Schmidt’sches Orthonormalisierungsverfahren): Sei {~v1 , ~v2 , . . . ~vr }
linear unabhängig, dann bilden die Vektoren
ṽ1 =
ṽk+1
~v1
k~v1 k
P
~vk+1 − ki=1 h~vk+1 , ṽi iṽi
für k = 1, 2, . . . r − 1
= Pk
~vk+1 − i=1 h~vk+1 , ṽi iṽi ein Orthonormalsystem mit den Eigenschaften, dass
Lin({~v1 , ~v2 , . . . ~vi }) = Lin({ṽ1 , ṽ2 , . . . ṽi })
für i = 1, 2, . . . r.
104
 
 
 
2
−3
1





Beispiel: ~v1 = 2 , ~v2 = −1 , ~v3 = 2
0
0
3
   √2 
2
√2
1
ṽ1 = √ 2 =  22 
8 0
0
 
 √2 
−3
√
√2
ṽ2 − h~v2 , ṽ1 iṽ1 = −1 − (−2 2)  22 
0
0
   
−3
2
= −1 + 2
0
0
 
−1
= 1
0
 
−1
1
0
ṽ2 =  
−1  1 
0  − √2 
= 
√2
2
2

0
 
√
√
1
3
2
2
2 −
ṽ1 −
ṽ2
2
2
3
ṽ3
  3  1
1
−2
2
= 2 −  32  −  12 
3
0
0

.

.
=
.
= . . . Normieren
Definition: Orthogonale Projektion von ~v in den Unterraum U = Lin(~v1 , ~v2 , . . . ~vr )
PU (~v ) = h~v , ~v1 i · ~v1 + . . . + h~v , ~vr i · ~vr ∈ U
w
~ := ~v −PU (~v ) , man kann zeigen, dass w⊥U
~
, d.h. w
~ ∈ U ⊥ , folglich ist PU (w)
~ = ~0
105
GRAFIK
Die Orthonormalprojektion PU : V → U hat die folgenden zwei Eigenschaften:
• PU beschränkt auf U ist die identische Abbildung
2
Beispiel: U = Lin
in V = R2
1
Aufgabe: Berechne die Matrix der Projektion PU .
GRAFIK: Gerade y =
1
x
2
1
0
mit Projektion der Basisvektoren
und
auf
0
1
die Gerade
1. Orthonormalbasis für U
~v1
ṽ1
2
=
1
2
2
1
1
= √ =
= 2 5
1 √2
5
√1
5
!
√2
5
√1
5
!
√2
5
√1
5
!
2. Projektion
PU (~v ) = h~v , ṽ1 i · ṽ1
Setze für ~v die Basisvektoren ~e1 und ~e2 ein:
!+
* √2
1
1
·
PU
=
, √15
0
0
5
!+
* √2
0
0
PU
·
=
, √15
1
1
5
3. Matrix:
4
5
2
5
2.11
2
5
1
5
4
=
5
2
5
2
=
5
1
5
0,8 0,4
=
0,4 0,2
Affiner Raum (intuitiver Zugang)
Motivation: Anwendung des Skalarprodukts in der affinen Geometrie
Mengen:
• V Vektorraum (hier über R, d.h. V = R2 , R3 )
• A Punktmenge
106
Operationen:
• Punkt + Vektor 7→ Punkt
• Punkt − Punkt 7→ Vektor
GRAFIK: zwei Punkte p und q und ein Verbindungsvektor ~v mit
~q = p + ~v
~v = q − p
Eigenschaft:
p + (~v + w)
~ = (p + ~v ) + w
~
Standardmodell für A ist V selbst.
affiner Unterraum: U ⊆ V Untervektorraum, p ∈ A
p + U = {p + ~u | ~u ∈ U }
Beispiele:
• affine Unterräume in A = R2 :
– Punkte (dim U = 0)
– Geraden (dim U = 1)
– ganz R2 (dim U = 2)
• affine Unterräume in A = R3 :
– Punkte (dim U = 0)
– Geraden (dim U = 1)
– Ebenen (dim U = 2)
– ganz R3 (dim U = 3)
Geradengleichungen: V = A = R2
1. Gerade durch einen Punkt und parallel zu einem Vektorunterraum
• U ⊆ V ist ein 1-dimensionaler Vektorunterraum U = {λ~u | λ ∈ R}
• p∈A
107
Gerade durch p parallel zu U in Parameterdarstellung:
L = {p + λ~u | λ ∈ R}
2. Gerade durch zweu Punkte:
• p = (x, y)
• p0 = (x0 , y 0 )
Schreibweisen:
L = {p + λ(p0 − p) | λ ∈ R}
= {q = (xq , yq ) | xq = x + λ(x0 − x), yq = y + λ(y 0 − y), λ ∈ R}
= {q = (xq , yq ) | xq (y 0 − y) − x(y 0 − y) = yq (x0 − x) − y(x0 − x)}
|
{z
} |
{z
}
=λ(x0 −x)(y 0 −y)
= {q = (xq , yq ) | axq + byq = c}
=λ(x0 −x)(y 0 −y)
(Koordinantendarstellung von L)
mit a = y 0 − y, b = x0 − x und c = −y(x0 − x) + x(y 0 − y)
HNS:
GRAFIK: Gerade L und parallele Gerade UL durch den Ursprung und
Normalenvektor ~n, außerdem PUL (q − 0) und w
~ = d · ~n
• Normalenvektor ~n von L ist senkrecht zu UL und k~nk = 1
• Abstand d von (0, 0) zu L, d.h. (0, 0) + d · ~n ∈ L
Hesse-Normalform von L:
L = {q | hq − 0, ~ni = d}
Das heißt:
hq − 0, ~ni =
=
=
=
hPUL (q − 0), ~ni + hw,
~ ~ni
0 + hd~n, ~ni
dh~n, ~ni
d
Bestimmung der Hesse-Normalform aus der Parameterform:
L = {p + λ~v | λ ∈ R}
Aufgabe: Bestimme ~n und d!
1. ṽ =
~v
k~v k
Orthonormalbasis von UL
2. ~n0 = d~n = (p − 0) − PUL (p − 0) = (p − 0) − h(p − 0), ṽi · ṽ
3. d = k~n0 k und ~n =
~
n0
d
108
... Vorlesung vom 16.02.2002 (fehlt)
109
... Vorlesung vom 21.02.2002 (fehlt)
110
Kapitel 3
Endliche Körper und
Codierungstheorie
3.1
3.1.1
Restklassenarithmetik
...
... Vorlesung vom 21.02.2002 (fehlt)
111
252
158
54
36
=
=
=
=
1 · 138 + 54
3 · 53 + 36
1 · 36 + 18
2 · 18 + 0
Die Umkehrung des Euklidischen Algorithmus liefert eine Darstellung des ggT(a, b)
als Linearkombination aus a und b mit ganzzahligen Koeffizienten.
18 =
=
=
=
=
54 − 1 · 36 (36 = 198 − 3 · 54)
54 − (198 − 3 · 54)
4 · 54 − 198 (54 = 252 − 198)
4 · (252 − 198) − 198
4 · 252 − 5 · 198
Satz: Sind a, b ∈ Z+ , dann existieren r, s ∈ Z, so dass ggT(a, b) = r · a + s · b.
Satz: Seien m und a zwei positive, teilerfremnde Zahlen, dasnn gibt es genau
ein b ∈ {1, 2, . . . m − 1}, so dass a · b ≡ 1(modm).
Beweis: ggT(a, m) = 1 = r · a + s · m für geeignete r, s ∈ Z. Setzen b := r
mod m ∈ {6 0, 1, . . . m − 1}.
• b ≡ r(modm)
• a ≡ a(modm)
• 0 ≡ s · m(modm)
•
• a · b ≡ r · a(modm)
• a · b + 0 ≡ r · a + s · m(modm) ≡ 1(modm)
Eindeutigkeit: Angenommen a · b ≡ a · c ≡ 1(modm) und 0 < c ≤ b ≤ m − 1
a · (b − c) ≡ 1| {z
− 1}(modm)
=0
a · (b − c) ist durch m teilbar ⇒ (b − c) is durch m teilbar und 0 ≤ b − c < m − 1
⇒ b − c = 0 ⇒ b = c ⇒ Eindeutigkeit
112
Folgerung: Ist p eine Primzahl und a ∈ {1, 2, . . . p − 1}, dann gibt es ein
eindeutiges b ∈ {1, 2, . . . p − 1}, so dass a · b ≡ 1(modp). b wird die zu a inverse
Zahl bezüglich p genannt.
Folgerung: Die Zahlen {0, 1, . . . p − 1}, wobei p Primzahl, bilden mit der Addition und Multiplikation modulo p einen Körper. Dieser Körper wird mit Zp oder
mit GF(p) bezeichnet.
Beispiel: Z7 = {0, 1, 2, 3, 4, 5, 6}:
4+5 = 2
4·4 = 2
1·1
6·6
2·8
3·5
=
=
=
=
1
1
1
1
3 · x = 4 | · 3−1
5 · 3 ·x = 5 · 4 = 6
|{z}
=1
Beispiel: Löse 7 · x = 5 in Z17 .
Inverses zu 7 mod 17:
17
3
7
1
−1
7
=
=
=
=
=
2·7+3
17 − 2 · 7
2·3+1
7 − 2 · 3 = 7 − 2 · (17 − 2 · 7) = 5 · 7 − 2 · 17
(5 mod 17) = 5
7·x = 5 |·5
1·x = 5·5=8
Chinesischer Restklassensatz: Seien m1 , m2 , . . . mn ∈ Z+ paarweise teilerfremd und m = m1 · m2 · mn , dann gibt es für beliebige a1 , a2 , . . . an ∈ Z eine Zahl
113
x ∈ {0, 1, . . . m − 1}, so dass die folgenden Komvergenzen erfüllt sind:
x ≡ a1 (modm1 )
x ≡ a2 (modm2 )
..
.
x ≡ an (modmn )
Beispiel: m1 = 99, m2 = 100, m3 = 101, a1 = 80, a2 = 63, a3 = 27
Beweis:
1. Finde Zahlen, die ≡ 1(modmi ) und ≡ 0(modmj ) mit j 6= i sind
m
M1 =
= m2 · m3 · . . . · mn
m1
m
= ...
M2 =
m2
..
.
m
Mn =
= ...
mn
ggT(mk , Mk ) = 1 d.h. ∃yk ≡ 1(modmk )
Mk · yk ≡ 1 (mod mk )
Das sind diese Zahlen, denn Mk · yk is duch jedes ml (l 6= k) teilbar, d.h.
Mk · yk ≡ 0(modml ).
Setze
x = (a1 · y1 · M1 + . . . + an · yn · Mn )
mod m
Prüfe, dass alle Kongruenzen erfüllt sind.
Kleiner Satz von Fermat: Ist p eine Primzahl, dann gilt für jede nicht durch
p teilbare Zahl a ∈ Z:
ap−1 ≡ 1 (mod p)
Beispiele:
• Wähle p = 7 und a = 2:
a6 = 64
64 ≡ 1 (mod 7)
• Wähle p = 7 und a = 3:
a6 = 729
729 ≡ 1 (mod 7)
114
3.1.2
RSA-Kryptosysteme
Teilnehmen (party) verschicken Nachrichten m ∈ {0, 1}n :
Alice
m
↓
E(m) ∈ {0,1}l(n)
Bob
D(E(m)) = m
↓
E(m)
Gegener (adversary) Eve
↓
E(m)
↓
m
?
Rivers, Shamir, Adlerman 78
• p, q zwei große Primzahlen
• n=p·q
• e ∈ Z: ggT(e, (p − 1)(q − 1)) = 1
• d ∈ Z: d · e ≡ 1 (mod (p − 1)(q − 1))
1. Bob gibt n, e bekannt (p, q, d geheim)
2. Alice verschlüsselt Nachricht m (|m| < log n):
m0 = E(m) := me
mod n
3. Bob entschlüsselt m0 :
D(m0 ) := m0d
mod n
Behauptung:
D(E(m)) = m
Beweis:
d · e = 1 + k · (p − 1)(q − 1)
Zu zeigen:
(me )d = m1+k(p−1)(q−1) ≡ m (mod n)
genügt zu zeigen (Chinesicher Restsatz):
(me )d ≡ m (mod p)
und (me )d ≡ m (mod q)
115
1. Fall 1:
m ≡ 0 (mod p)
(trivial)
2. Fall 2:
(me )d ≡ m · (mp−1 )(q−1)·k
≡ m · 1(p−1)·k (mod p)
(md )d ≡ m (mod p)
Authetisierung mit RSA:
• 2’): Alice schickt Zufallsstring m
• 3’): Bob schickt m0 = D(m) zurück
• 4’): Alice überprüft E(m0 ) = m ?
Vorteile:
• Parameter leicht zu erzeugen (randomisierter Primzahltest)
• Ver- und Entschlüsselung leicht zu berechnen (Spezialchip)
• sicher in der Praxis (unter Einhaltung bestimmter Regeln)
Nachteile:
• nur sicher, wenn es keine effiziente Algorithmen zur Faktorisierung gibt
• möglicherweise auch ohne Faktorisierungsalgorithmus zu brechen
• mit Quantencomputern ist Faktorisierung in Polynomialzeit möglich (P.
Shor)
Aufgabe: Kryptographie auf Grundlage N P -schwerer Probleme.
3.2
Grundbegriffe der Codierungstheorie
Corierungstheorie – Verschlüsselung von Informationen unter den folgenden Aspekten:
1. Codierung soll helfen, eine Information geheim zu halten.
116
2. Codierung soll so kurz wie möglich sein
3. Fehler in der Übertragung sollten erkanntund korrigiert werden.
Teilgebiete:
1. Kryptographie (RSA, Einwegfunktionen, Pseudozufallsgeneratoren, ...)
2. Datenkompression (Hufman, ...)
3. Fehlerkorrigierende Codes (Hamming Code, linearer Code, ...)
Modell:
Reininformation
↓
Verschlüsselte Information
Kanalcodierung
↓
Sender
Reininformation
↑
Verschlüsselte Information
↑
Empfänger
Quellencodierung
Kanal
⇑
Störung
Kanalalphanet: Q, |Q| = q, häufig Q = {0, 1}, q = 2
Definition: Eine (Kanal-)Codierung ist eine injektive Funktion c : I → Qn ,
wobei I eine Informationsmenge ist (z.B. Alphabet oder bereits Menge der Codewörter aus einer Quellcodierung). Das Bild C = Im c wird ein Code genannt.
Hier besteht der Code nur aus Wörtern gleicher Länge, das nennt man einen
Blockcode.
Definition: Seinen v = (v1 , v2 , . . . vn ) und w = (w1 , w2 , . . . wn ) ∈ Qn . Wir
definieren den Hamming-Abstand der Worte v und w als Anzahl der Stellen, an
denen sie sich unterscheiden:
d(v, w) = |{i | 1 ≤ i ≤ n und vi 6= wi }|
Beispiel:
d((0,1,0,1,0,0,1), (0,1,1,0,1,1,1)) = 4
Beobachtung: Der Hamming-Abstand hat alle Eigenschaften einer Abstandsfunktion, d.h. für alle u, v, w ∈ Qn gilt:
1. d(u, v) ≥ 0 und d(u, v) = 0 ⇔ u = v
2. d(u, v) = d(v, u)
3. d(u, v) + d(v, w) ≥ d(u, w) (Dreiecksungleichung)
117
Quellencodieru
Kanalcodierun
Definition: Die Minimalabstand eines Codes C ⊆ Qn ist
d(C) := min({d(c, c0 ) | c 6= c0 , c, c0 ∈ C})
Wir verwenden c, c0 , c1 , c2 für Codewörter und allgemein u, w, v für Wörter aus
Qn .
Beispiel:
c : {a, b, c, d}
a
b
c
d
→
7→
7→
7→
7→
Q3
(0, 0, 0)
(0, 1, 1)
(1, 0, 1)
(1, 1, 0)
C = {(0, 0, 0), (0, 1, 1), (1, 0, 1), (1, 1, 0)}
d(C) = 2
Prinzip: Wird ein Wort w ∈ Qn empfangen, so sucht man ein (oder besser das)
Codewort c mit minimalem Abstand zu w.
Wann ist c richtig?
Empfangen w ∈ Qn :
1. w ∈
/ C, dann ist ein Fehler aufgetreten
2. Wenn wir wissen, dass höchstens 1 Fehler aufgetreten ist, und c ∈ C ist das
einzige Codewort mit d(w, c) = 1, dann ist c das ursprüngliche Codewort.
Definition: Ein Code C ist k-fehlererkennend, wenn bei jedem empfangengenen
Wort w, das ≤ k Fehler, enthält, erkannt wird, ob Übertragungsfehler aufgetreten
sind.
Definition: Ein Code C ist k-fehlerkorrigierend, wenn bei jedem empfangenen
Wort, das ≤ k Fehler erhält, die Fehler korrigiert werden könnn, d.h. dass das
ursprüngliche Codewort bestimmt werden kann.
Definition: Für v ∈ Qn definieren wir die Kugel mit Radius t um v durch
Bt (v) = {w ∈ Qn | d(v, w) ≤ t}
GRAFIK: von Henning übertragen
118
Satz: C ist k-fehlerkorrigierend genau dann, wenn ∀c 6= c0 ∈ C Bk (c)∩Bk (c0 ) =
∅ genau dann, wenn d(C) ≥ 2k + 1 (Minimalabstand von C)
Beweis:
• Erste Äquivalenz: bei der Üertragung von c treten ≤ k Fehler auf, dann
liegt empfangenes Wort w ∈ Bk (c), d.h. w gehört eindeutig zu c.
• Zweite Äquivalenz:
GRAFIK: von Henning übertragen
Satz: C ist k-fehlererkennend genau dann, wenn ∀c ∈ C Bk (c) ∩ (C\{c}) = ∅
genau dann, wenn d(C) ≥ k + 1.
Beweis: wie oben
Beispiele: Einfache Konstruktion mit Paritätsbits und Mehrfachcodierung:
I = Qm mit Q = {0, 1}
1. Paritätsbit: cpar : Qm → Qm+1
cpar (v1 , v2 , . . . vm ) = ( v1 , v2 , . . . vm , p ) mit p = v1 + v2 + . . . + vm (mod 2)
|
{z
}
gerade Anzahl von 1
Daraus folgt: Cpar = Im cpar hat den Minimalabstand 2, d.h. Cpar ist 1fehlererkennend.
2. Doppelcodierung: c2 : Qm → Q2m
c2 (v1 , v2 , . . . vm ) = (v1 , v2 , . . . vm , v1 , v2 , . . . vm )
Daraus folgt: C2 = Im c2 hat den Minimalsbstand 2, d.h. C2 ist 1-fehlererkennend.
3. Dreifachcodierung: c3 : Qm → Q3m
c3 (v1 , v2 , . . . vm ) = (v1 , v2 , . . . vm , v1 , v2 , . . . vm , v1 , v2 , . . . vm )
Daraus folgt: C3 = Im c3 hat den Minimalsbstand 3, d.h. C3 ist 1-fehlerkorrigierend.
4. Doppelcodierung mit Paritätsbit: c2+par : Qm → Q2m+1
c2+par (v1 , v2 , . . . vm ) = (v1 , v2 , . . . vm , v1 , v2 , . . . vm , p) mit p = v1 +v2 +. . . vm (mod 2)
Daraus folgt: C2+par = Im c2+par hat den Minimalabstand 3:
119
• Fall 1: d(v, w) = 1 (v, w ∈ Qm ) ⇒ d(c2+par (v), c2+par (w)) = |1 {z
+ 1} + |{z}
1
d(v,w)
p
• Fall 2: d(v, w) ≥ 2 (v, w ∈ Qm ) ⇒ d(c2+par (v), c2+par (w)) ≥ 2 + 2 = 4
d.h. C2+par ist 1-fehlerkorrigierend.
5. Kreuzsicherungscode m = l2 : ckr : Qm → Qm+2l
Stelle Elemente von Qm in einer quadratischen Matrix dar und gib für jede
Spalte und für jede Zeile das Paritätsbit dazu:


v1
v2
· · · vl
 vl+1
vl+2
· · · v2l 



..
..
.. 
.
.

. . 
.
.
v(l−1)+l+1 v(l−1)+l+2 . . . vl2
(Bemerkung: Um Paritätsbits in den Zeilen und Spalten erweitern (Zeilen:
pi , Spalten p̄j ))
Ckr = Im ckr hat Minimalabstand 3, d.h. ist 1-fehlerkorrigierend.
v, w ∈ Qm
• d(v, w) ≥ 3 ⇒ d(ccr (v), ccr (w)) ≥ 3
• d(v, w) = 2 dann liegen die zwei Unterschiede in verschiedenen Zeilen
i und j oder in verschiedenen Spalten k, k 0
1
d(. . .) ≥ 2 + |{z}
1 + |{z}
pi
pj
• d(v, w)1, sei Unterschied in Zeile i und Spalte j
d(. . .) = |{z}
1 + |{z}
1 + |{z}
1 =3
d(u,v)
p̄i
pj
Definition: Die Informationsrate eines Codes C ⊆ Qn ist der Quotient
logq |C|
n
Das beschreibt das Verhältnis der Längen des Infomationsworts und des Codeworts.
120
Beispiele:
1. Für C2+par :
m
1
.
2m + 1
2
2. Für Ckr :
√
√
√
2· m
2
m+2· m−2 m
√
√ ≈1− √
=1−
m+2· m
m+2· m
m
Fragen:
1. Geht es noch besser?
2. Wie korrigiert man 2 und noch mehr Fehler?
Idee für eine Verbesserung (Hamming):
v = (v1 , . . . v4 ) Q = {0, 1} + 3 Redundanzbits
r1 = v2 + v3 + v4 (mod 2)
r2 = v1 + v3 + v4 (mod 2)
r3 = v1 + v2 + v4 (mod 2)
Minimalabstand 3
Codierung durch Matrixmultiplikation

1 0 0
0 1 0

0 0 1

c(v) = 
0 0 0
0 1 1

1 0 1
1 1 0
|
{z
über Z2 :
 

0
v1


0   v2 

v1
v3 
0
 v2   
   
1
 · v3  = v4 

r1 
1
 
v
4
r2 
1
1
r3
}
Generatormatrix
Zur Decodierung mit 1-Fehlerkorrektur verwendet

1 0 1 0 1 0

H= 0 1 1 0 0 1
0 0 0 1 1 1
121
man die folgede Prüfmatrix:

1
1
1
Berechnung:
 
 
v1
v1
v2 
v2 
  
     

v3 
v3 
1 0 1 0 1 0 1
a1
v1 + v3 + r1 + r3
 
 
 
     

...
H ·
v4  = 0 1 1 0 0 1 1 · v4  = a2 =
r1 
r1 
0 0 0 1 1 1 1
a3
...
 
 
r2 
r2 
r3
r3
Daraus folgt:
• Fehlererkennung: Es gilt H · w
~ = ~0 genau dann, wenn keine Fehler (oder
≥ 2 Fehler) aufgetreten sind.
 
a1
~

• Fehlerkorrektur: Wenn H · w
~ 6= 0, dann gibt a2  die Stelle an, an welcher
a3
der Fehler aufgetreten ist:
 
1
0
1. Bit falsch (v~1 )
0
 
0
1
2. Bit falsch (v~2 )
0
 
1
1
3. Bit falsch (v~3 )
0
 
0
0
4. Bit falsch (v~4 )
1
3.3
Allgemeine Schranken für die Informationsrate
Modell eines binären, symmetrischen Kanals:
• Kanalalphabet Q = {0, 1}, Bitfolge wird übertragen
• Wahrscheinlichkeit, dass i-tes Bit fehlerhaft übertragen wird, ist gleich p <
1
, unabhängig davon, ob dieses Bit 0 oder 1 war.
2
• Die Ereignisse, dass erstes bzw. zweites, drittes . . . Bit falsch übertragen
werden, sind unabhängig.
122
Lemma: Die Wahrscheinlichkeit, dass bei der Übertragung eines Wortes der
Länge n genau k Fehler auftreten, ist gleich
n
· pk · (1 − p)n−k
k
Satz von Shannon: Gegeben ein binärer symmetrischer Kanal mit Fehlerwahrscheinlichkeit p und ε > 0:
• Zu jedem
R < 1 + p · log2 (p) + (1 − p) · log2 (1 − p)
gibt es einen Code C mit Informationsrate ≥ R, so dass die Wahrscheinlichkeit einer falschen Decodierung (bei nächster Nachbar“-Suche) höchstens
”
ε ist.
• Zu jedem
R < 1 + p · log2 (p) + (1 − p) · log2 (1 − p)
gibt es eine Konstante KR > 0, so dass jeder Code mit der Informationsrate ≥ R eine Wahrscheinlichkeit ≥ KR für die falsche Decodierung eines
Codeworts hat.
Definition: Die Kapazität eines binären symmetrischen Kanals mit Fehlerwahrscheinlichkeit p ist:
H(p) = 1 + p · log2 (p) + (1 − p) · log2 (1 − p)
Nachteile des Shannon-Satzes:
1. Der Satz ist nicht konstruktiv.
2. Wählt man ε klein, dann folgt daraus, dass n sehr groß ist.
3. Nächster Nachbar“-Suche sehr komplex.
”
Alternative Ansatz: Wenn |Q| = q und ~r ∈ Qn , dann gilt
Bk (~v ) =
k X
n
i=0
i
(q − 1)i
• i = 0, 1, . . . k: Abstand zu ~v
• ni : Stellen, an denen Unterschied zu ~v auftritt
• (q − 1)i : Möglichkeiten an diesen Stellen etwas anderes als in ~v zu schreiben
123
Erinnerung: Ein Code C ist genau dann k-fehlerkorrigierend, wenn ∀c 6= c0 ∈
C gilt
Bk (c) ∩ Bk (c0 ) = ∅
genau dann, wenn der Minimalsabstand d(C) ≥ 2k + 1
Satz: Sei C ⊆ Qn ein Code mit d(C) ≥ 2k + 1, dann gilt
|C| ·
k X
n
i=1
i
(q − 1)i ≤ q n
Beweisidee: Die Kugeln müssen disjunkt sein.
Definition: Ein Code C ⊆ Qn mit Minimalabstand d(C) = 2k + 1 ist perfekt,
wenn
k X
n
(q − 1)i = q n
|C| ·
i
i=1
Beispiel: Der Hamming-Code aus dem letzten Abschnitt ist perfekt. Angaben
zu de Code:
• q = |Q| = 2
• |C| = 24
• n=7
• d(C) = 3
• k=1
Daraus folgt:
|C| ·
k X
n
i=1
i
(q − 1)i = 24 · (1 + 8) = 27 = 2n
Folgerung: Aus der Schranke
|C| ·
k X
n
i=1
i
(q − 1)i ≤ q n
kann man ableiten, dass ein binärer k-fehlerkorrigierender Code der Länge n muss
≈ k · log2 n Redundanzbits haben.
124
Satz: Ist s ≤ n und g eine Zahl, die
g·
s−1 X
n
i=0
i
(q − 1)i ≤ q n
erfüllt, dann gibt es in Qn einen Code c mit Minimalabstand s und |C| = g.
Beweisidee: Da (g − 1) Kugeln vom Radius s − 1 Qn noch nicht überdecken,
folgt daraus, dass C erweitert werden kann.
3.4
Linear Codes
Endliche Körper:
• Für jede Primzahl p ist Zp ein Körper
Zp = {0, 1, . . . p − 1}
• Für jede Primzahlpotenz q = pm gibt es einen Körper GF(q), der genau q
Elemente hat. Die Körper haben die Charakteristik p, d.h.
1| + 1 +
{z. . . + 1} = 0
p
GF(q) ist eine Erweiterung von Zp
Definition: Ein Code C heißt linear, wenn C ein Untervektorraum eines Hammingraumes H(n, q) ist, wobei H(n, q) die Menge der Wörter der Länge n über
GF(q) ist, d.h.
H(n, q) ∼
= (GF(q))n
Beispiel: Der Hamming-Code aus 3.2 ist ein linearer Code in H(7, 2), denn er
ist Bild einer linearen Abbildung
(GF(2))4 → (GF(2))7
Die Dimenstion dieses Codes (Unterraumes) ist 4, wir sprechen von einem (7, 4)Code.
Beobachtung: Ein (n, k)-Code in H(n, q) hat q k Elemente (q k Linearkombinationen der k Basisvektoren). Dieser Code hat die Informationsrate
k
1
1
· logq |C| = · logq q k =
n
n
n
125
Definition: Für ein ~v ∈ H(n, q) ist das Gewicht w(~v ) die Anzahl der Stellen,
an denen ~v ungleich 0 ist.
Definition: Das Minimalgewicht von C ist definiert als
w(C) = min{w(~v ) | ~v ∈ C}
~v 6=~0
Beispiel: Für das Beispiel aus 3.2 ist w(C) = 3.
Satz: Für jeden linearen Code C gilt:
w(C) = d(C)
Das heißt: Das Minimalgewicht ist gleich dem Minimalabstand.
Beweis:
a) Zu zeigen: w(C) ≥ d(C):
w(C) = d(~v , ~0)
| {z }
≥ d(C)
| {z }
für ein ~v ∈ C denn ~v , ~0 ∈ C
b) Zu zeigen: w(C) ≤ d(C):
d(C) wird realisiert als d(~u, ~v ) für ~u, ~v ∈ C mit ~u 6= ~v :
~0 = ~v − ~v und ~u − ~v ∈ C (Unterraum)
Dann folgt:
w(C) ≤ w(~u − ~v ) = d(~u − ~v , ~0) = d(~u, ~v ) = d(C)
Definition: Generatormatrix von C:
∀xin(GF(q))k G · x ∈ C und G spannt C auf
Prüfmatrix/Checkmatix von C
∀v ∈ C H · v = (0) (C = Ker H)
126
Hmmpf: Jeder lineare Code C der Dimension k in H(n, q) kann eindeutig (in
Bezug auf den Code) durch eine Generatormatrix G ∈ M (n×k, GF(q)) dargestellt
werden:
• Wähle Basis von C (als Spaltenvektoren) und stelle aus den k Basisvektoren
eine Matrix auf.
• Damit beschreibt G eine Codierung
c : (GF(q))k → (GF(q))n
• Eine Matrix H ∈ M ((n − k) × n, GF(q)) wird Prüfmatrix (Checkmatrix)
von C genannt, wenn C der Kern der von H beschriebenen Abbildung:
h : (GF(q))n → (GT(q))n−k
Achtung: Nach der Dimensionsformel ist
n = dim(Ker h) + dim(Im h)
= dim C + rg H
= k + rg H
rg H = n − k
Das heißt: Die Zeilen von H sind linear unabhängig.
Hmmpf: Für ~v ∈ H(n, q) gilt:
~v ∈ C
⇔ H · ~v = ~0
Satz: G ∈ M (n × k, GF(q)), H ∈ M ((n − k) × n, GF(q)) mit rg G = k und
rg H = n − k bilden genau dann ein Paar Generator/Checkmatrix für einen
linearen Code C, wenn
H · G = (0)
Anwendung: Eine Generatormatrix ist in Standardform, wenn sie die Gestalt
Ek
G=
A
hat. In diesem Fall ist die Matrix
H = (−A En−k )
eine passende Checkmatrix.
von Henning abscheiben!!!
127
Satz: C ein (n, k)-Code mit Prüfmatrix H, dann gilt:
d(C) ≥ d ⇔ je zwei d − 1 Spalten von H sind linear unabhängig
Beweis (⇒): Angenommen H enthält d − 1 linear abhängige Spalten (wir
nehmen an, die ersten d − 1), genau dann wenn
∃α1 , α2 , · · · αd−1 (nicht alle 0)
so dass
α1 · H1 + α2 · H2 + . . . + αd−1 · Hd−1 = 0
genau dann, wenn
α
~ = (α1 , . . . αd−1 , 0, . . . 0) 6= 0
Dann:
H · ~a =
n
X
αi · Hi =
i=1
d−1
X
αi · Hi +
i=1
n
X
αi · Hi = 0
i=d
d.h. ~a ∈ Ker H = C
d(C) = w(C) ≤ w(~
α) ≤ d − 1
Kommentar: α
~ = ā ≤ d − 1
Beweis (⇐): ~v ∈ C, ~v 6= ~0, dann H · ~v = ~0, wenn w(~v ) ≤ d − 1. Das heißt, wir
finden ≤ d − 1 Spalten von H die linear abhängig sind.
Folgerung: (Fall d = 3 des Satzes)
C ist (n, k)-Code mit Prüfmatrix H.
d(C) ≥ 3 ⇔ ∃2 Spalten von H sind linear unabhängig
Wichtig: Sind keine Spalten von H vielfache von einander, dann ist C 1fehlerkorrigierend.
Beispiel: Code aus 3.2
Prüfmatrix:


1 0 1 0 1 0 1
H = 0 1 1 0 0 1 1
0 0 0 1 1 1 1
Aus der Prüfmatrix folgt, dass der Hamming-Code ist 1-fehlerkorrigierend.
128
Weiteres Beispiel: Trippel-Check-Code:
Prüfmatrix:


−1 −1 0 1 0 0
H = −1 0 −1 0 1 0
0 −1 −1 0 0 1
Generatormatrix:

1
0

0
G=
1

1
0
0
1
0
1
0
1

0
0

1

0

1
1
Das heißt:
(a, b, c) 7→ (a, b, c, a + b, a + c, b + c)
Typischerweise wird hier der Körper GF(3) benutzt.
Allgemeine binäre Hamming-Codes: Ziel: 1-fehlerkorrigierend, hohe Informationsrate
n Länge des Codes, H Prüfmatrix
n = dim(Ker H) +dim(Im H)
{z
}
|
dim C
Informationsrate:
n−k
dim(Ker H)
=
n
n
Ist dim(Im H) = k fest, dann wollen wir n groß, damit die Informationsrate groß
ist.
• Möglichst viele Spalten (⇒ möglichst große Informationsrate)
• Alle Spalten verschieden (und 6= ~0)
damit der Code 1-fehlerkorrigierend ist
Definition: Der binäre Hamming-Code Ham2 k hat als Prüfmatrix die Matrix
Hk der n Spalten alle verschiedenen binären Vektoren der Länge k (ohne ~0)
Beispiel: Erstes Beispiel:
0 1 1
Ham2 2 H2 =
(a) 7→ (a, a, a) textdim = 1 Länge = 3
1 0 1
129
Zweites Beispiel:


1 0 1 0 0 1 1
Ham2 3 H§ = 1 0 0 1 1 0 1
0 1 1 0 1 0 1
Das ist (bis auf Permutation der Spalten) der Hamming-Code von früher
dim = 4 Länge = 7 d = 3
Drittes Beispiel:

1
 0
Ham2 4 
 0
0
0
1
0
0
1
1
0
0
0
0
1
0
1
0
1
0
0
1
1
0
1
1
1
0
0
0
0
1
1
0
0
1
0
1
0
1
1
1
0
1
0
0
1
1
1
0
1
1
0
1
1
1

1
1 

1 
1
Satz: Hamk ist ein linearer Code mit den Parametern d(Hamk) = 3, Länge(Hamk) =
2k − 1, dim(Ham(k)) = 2k − k−1
Informationsrate für große Werte:
k
2 −k−1
lim
=1
2k − 1
Proposition: Der Hamming-Code Hamk ist 1-perfekt.
Erinnerung: C Code mit C ⊆ Qn miz d(C) = 2t − 1 ist perfekt, wenn
|C| ·
t X
n
k
i=0
(q − 1)t = q n
(die t-Kugeln um die Codewörter füllen den Raum Qn perfekt aus)
Beweis: t = 1, q = 2, n = 2k − 1
k −k−1
|C = ddim C | = 22
Größe der Kugeln:
t k
X
2 −1
i=0
k
|C|Erdk = 22
1 = 1 + (2k − 1) = 2k
k −k−1
k −1
· 2k = 22
130
= 2n
• Ham3 kann als Ausgangspunkt für die Konstruktor von 3-perfekten Codes
genommen werden d() = 7
Galay Codes
G23 ist binärer (23, 12)-Code
• Codes über adenren Körpern inbesondere GF(2k )
RCH Codes, RS-Codes
131
Herunterladen