Algebra und Diskrete Mathematik fuer Informatik

Werbung
Zusammenfassung Algebra und Diskrete Mathematik für Informatik
Stefan Haider
[email protected]
Wintersemester 2011/12
Inhaltsverzeichnis
1 Grundlagen
1.1 Elementare Zahlentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Elementare Beweistechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Elementare Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2
3
3
2 Kombinatorik
2.1 Abzählprinzipien . . . . . . . . .
2.2 Kombinatorische Grundaufgaben
2.3 Schubfachprinzip . . . . . . . . .
2.4 Elementare Identitäten . . . . . .
.
.
.
.
4
4
4
4
4
3 Mengenlehre
3.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Kardinalität und Abzählbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
7
4 Rekursionen
4.1 Lineare Differenzengleichungen 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Differenzengleichungen höherer Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . .
8
8
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Graphentheorie
5.1 Definitionen: . . . . . . . . . . . . .
5.2 Zusammenhang . . . . . . . . . . . .
5.3 Graphrelationen . . . . . . . . . . .
5.4 Bäume und Wälder . . . . . . . . . .
5.5 Planare Graphen . . . . . . . . . . .
5.6 Euler’sche und Hamilton’sche Linien
5.7 Algorithmen auf Graphen . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
12
12
12
13
14
6 Algebraische Strukturen
6.1 Gruppentheorie . . . .
6.2 Ringe . . . . . . . . .
6.3 Integritätsringe . . . .
6.4 Körper . . . . . . . . .
6.5 Verbände . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
17
18
18
18
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
7 Lineare Algebra
7.1 Vektoren . . . . . . . . . . . . .
7.2 Vektorraum . . . . . . . . . . .
7.3 Matrizen . . . . . . . . . . . . .
7.4 Lineare Abbildungen . . . . . .
7.5 Lineare Gleichungssysteme . . .
7.6 Determinanten . . . . . . . . .
7.7 Eigenwerte und Eigenvektoren
7.8 Skalarprodukt . . . . . . . . . .
7.9 Algebra für Analysis . . . . . .
.
.
.
.
.
.
.
.
.
20
20
20
22
23
24
24
26
27
28
8 Algebraische Codierungstheorie
8.1 Blockcodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Gruppencodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Linearcodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
29
29
30
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
Grundlagen
1.1
1.1.1
Elementare Zahlentheorie
Natürliche Zahlen
Basis für den Beweis über vollständige Induktion.
Peano Axiome
1. 0 ∈ N
2. ∀n∃n0 ∈ N
3. @n0 ∈ N : n = 0
4. ∀m, n ∈ N : m0 = n0 ⇒ m = n
5. Induktionsprinzip
S⊇N
0∈S
∀n ∈ N : n ∈ S ⇒ n0 ∈ S
1.1.2
Rationale Zahlen
Alle Zahlen
die durch Brüche
entstehen.
na
o
Q=
|a, b ∈ Z, b 6= 0
b
1.1.3
Reelle Zahlen
Rationale Zahlen inklusive nicht periodische Dezimalzahlen.
R=Q∪I
1.1.4
Komplexe Zahlen
C = {a + bi|a, b ∈ R}
a...Realteil
b...Imaginärteil
i2 = −1
kartesische Koordinaten: (a, b)
Polarkoordinaten: [r, ϕ]
Z = r (cos ϕ + i sin ϕ)
Wurzelziehen in C Z = [r, ψ]
gesucht sind alle W n= Z
√ ψ + 2kπ
Wk = n r,
k = 0, 1, 2, ..., n − 1
n
man erhält in der Gauß’schen Zahlenebene ein gleichseitiges n-Eck.
1.1.5
Zahlentheorie
Teilbarkeit a|b ⇔ ∃c ∈ Z : b = a · c
triviale Teiler: 1 und die Zahl selbst
d = ggT (a, b) ⇔ d|a, d|b ∧ t|a, t|b ⇒ t|d∀t ∈ Z
Berechnung des ggT mittels Euklid’schen Algorithmus. ggT (a, b) ∗ kgV (a, b) = a ∗ b
3
Primzahlen
p ≥ 2 ist prim ⇔ es gilt nicht p = r ∗ s mit r < p, s < p
Fundamentalsatz der Zahlentheorie Jede natürliche Zahl a ≥ 2 lässt sich eindeutig (bis auf
die Reihenfolge) als Produkt von Primzahlen darstellen.
Kongruenzen und Restklassen a, b ∈ Z, m ≥ 2
a ≡ b mod m ⇔ m|a − b ⇒ a − b = m ∗ q q ∈ Z Mit Restklassen kann normal gerechnet werden.
Es gibt m verschiedene Restklassen:
1. 0 = {0, ±m, ±2m, ...}
2. 1 = {1, 1 ± m, 1 ± 2m, ...}
3. m − 1 = {m − 1, m − 11 ± m, m − 1 ± 2m, ...}
4. m = 0
1.2
1.2.1
Elementare Beweistechniken
Beweis durch vollständige Induktion
1. Vermutung
Eine Vermutung P (n) wie ”Die Summe der ersten n geraden Zahlen ergibt n2 .”wird aufgestellt.
2. Induktionsanfang
Man findet den Punkt ab dem die Vermutung gilt. P (0) ist wahr
3. Induktionsschritt n → n + 1
Durch den Induktionsschritt folgt, dass P (n) → P (n + 1)∀n ∈ N
1.2.2
Beweis durch Widerspruch
Man nimmt an, das Gegenteil der Behauptung gilt. Anschließend führt man den Beweis auf einen
Widerspruch. Durch ein Gegenbeispiel ist es möglich festzustellen, dass die ursprüngliche Behauptung
gilt.
1.3
Elementare Logik
Interdisziplinär :-)
siehe FMOD, TGI, etc.
4
2
Kombinatorik
2.1
Abzählprinzipien
A...endliche Menge
|A|...Anzahl der Elemente in A
• Summenregel: |A ∪ B| = |A| + |B| falls A ∩ B = ∅
• Produktregel: |A × B| = |A| × |B|
• Gleichheitsregel: ∃f : A → B bijektiv |A| = |B|
2.2
Kombinatorische Grundaufgaben
• Variation mit Wiederholung / Anordnung ohne Einschränkung: nk
Ziehen mit zurücklegen
• Variation ohne Wiederholung / Anordnung verschiedener Elemente:
Ziehen ohne zurücklegen
n!
(n−k)!
• Permutation einer Menge: n!
Anordnungsmöglichkeiten einer n-elementigen Menge
• Permutation einer Multimenge: k1 !·kn!2 !·...
Anordnungsmöglichkeiten einer Menge mit gleichartigen Elementen
n!
• Kombination ohne Wiederholung / Auswahl einer Teilmenge: nk = k!(n−k)!
Ziehen ohne Zurücklegen (Reihenfolge egal)
(n+k+1)!
• Kombination mit Wiederholung / Auswahl einer Teilmenge: n+k−1
= k!(n−1)!
k
Ziehen ohne zurücklegen (mehrere gleichartige Elemente)
2.3
Schubfachprinzip
n...Objekte
k...Boxen oder Schubfächer
Man verteilt n Objekte auf k Schubfächer. Dabei muss n > k gelten.
Satz
2.4
Es gibt mindestens eine Box mit mehr als einem Objekt.
Elementare Identitäten
Binomialidentitäten
n
P
k=0
Binomischer Lehrsatz
n
k
= 2n Summe der Zeilen des Pascal’schen Dreiecks.
(x + y)n =
n
P
k=0
n
k
· xn−k · y k
5
2.4.1
Inklusions-Exklusions-Prinzip
A
B
C
|A ∪ B ∪ C| = |A| + |B| + |C| − |A ∩ B| − |A ∩ C| − |B ∩ C| + |A ∩ B ∩ C|
Notation der Siebformel |
n
S
i=1
Ai | =
(−1)|I|+1 · |
P
∅6=I⊆<1,2,...,n>
6
T
i∈I
Ai |
3
Mengenlehre
E...Universum
• ∅ ist die leere Menge
• M = Q Die Mengen M und Q beinhalten die gleichen Elemente.
• M ⊆ Q M ist Teilmenge von Q.
• A ∪ B Vereinigung
• A ∩ B Durchschnitt
• A \ B Mengendifferenz
• Ā = {x|x ∈
/ A} Komplement
• A 4 B = (A \ B) ∪ (B \ A)
• A × B kartesisches Produkt
• A
S1 ∪ A2 ∪ A3 ∪ ...
Ai
i∈I
• P (A) Potenzmenge von A
|P (A)| = 2|A|
3.1
Relationen
aRb ”a steht in Relation zu b”
Eine Relation R zwischen zwei Mengen A und B ist eine Teilmenge des kartesischen Produkts (R ⊆
A × B). Ist A=B spricht man von einer binären Relation auf A.
Graph der Relation G(R)
• Menge der Knoten entspricht der Menge A
• Menge der Kanten welche 2 Knoten genau dann verbindet, falls aRb gilt.
Äquivalenzrelation
Eine binäre Relation ist eine Äquivalenzrelation falls gilt:
1. Reflexivität: ∀a ∈ A : aRa
2. Symmetrie: ∀a, b ∈ A : aRb ⇒ bRa
3. Transitivität: ∀a, b, c ∈ A : aRb ∧ bRc ⇒ aRc
Partitionen Unter Partitionen einer Menge versteht man ein System von Teilmengen Ai (i ∈ I) mit
den Eigenschaften:
1. ∀i ∈ I : Ai 6= ∅
2. ∀i, j ∈ I : i 6= j ∧ Ai ∩ Aj = ∅
S
3. A =
Ai
i∈I
7
Halbordnungsrelationen
Halbordnungsrelationen beschreiben eine Hierarchie.
1. Reflexivität: ∀a ∈ A : aRa
2. Antisymmetrie: (aRb ∧ bRa) ⇒ a = b
3. Transitivität: ∀a, b, c ∈ A : aRb ∧ bRc ⇒ aRc
Eine Halbordnung ist in Totalordnung, wenn je zwei Elemente einer Relation miteinander vergleichbar
sind. (∀a, b ∈ A : aRb ∨ bRa)
Hasse-Diagramme(Darstellung von HO-Relationen)
• Ausgangspunkt ist der Graph der Relation
• alle Schlingen können weggelassen werden
• Kanten existieren nur zwischen direkten Nachfolgern (Transitive Verbindungen werden reduziert)
• alle Elemente werden entsprechend ihrer Größe angeordnet (größte Elemente oben)
• die Orientierung der Kanten kann vernachlässigt werden (da sie immer nach oben zeigen)
3.1.1
Funktionen
f : A → B ⇔ f (a) = b ⇔ aRf b A bezeichnet man als Definitionsmenge, B als Wertemenge Funktionen
sind spezielle Relationen bei denen zu einem Urbild genau 1 Bild zugeordnet wird.
Arten von Funktionen:
• injektiv: es gibt höchstens ein f (a) = b (∀a1 , a2 ∈ A : a1 6= a2 ⇒ f (a1 ) 6= f (a2 ))
• surjektiv: ∀b ∈ B∃a ∈ A : f (a) = b
• bijektiv: injektiv ∩ surjektiv: ∀b ∈ B, a ∈ A : f (a) = b
Inverse Funktion Es gibt nur dann eine inverse Funktion zu einer Funktion, falls die Funktion
bijektiv ist.
3.2
Kardinalität und Abzählbarkeit
Mächtigkeit von Mengen
1. Abzählbar unendlich (ℵ0 ):
Ganze Zahlen, Rationale Zahlen (nach 1. Cantor’schem Diagonalverfahren)
2. Überabzählbar unendlich(c):
Reelle Zahlen (nach 2. Cantor’schem Diagonalverfahren)
8
4
Rekursionen
Rekursionen basieren auf dem Prinzip ein Problem auf bekannte, gelöste Probleme zurückzuführen.
Derangements/fixpunktfreie Permutationen Rekursion 2. Ordnung (benötigt 2 Startwerte)
Dn = (n − 1)Dn−2 + (n − 1)Dn−1
4.1
Lineare Differenzengleichungen 1. Ordnung
Allgemein: xn+1 = an xn + bn
Beispiel Türme von Hanoi xn ...minimale Anzahl an Zügen für Turm der Höhe n
xn = 2xn−1 + 1 n ≥ 2, x1 = 1
4.1.1
1. Ordnung mit konstanten Koeffizienten
lösen der Rekursion durch iterieren
xn+1 = axn + b
für a 6= 1:
n −1
xn = an x0 + b( aa−1
)
für a = 1:
xn = x0 + nb Die Lösung einer Differenzengleichung wird erst durch Angabe eines Anfangswertes
eindeutig.
4.1.2
1. Ordnung mit abhängigen Koeffizienten
Aufspalten der Lösung in homogenen und partikulären Teil:
[h]
[p]
xn = xn + xn
Die allgemein
der entsprechenden homogenen Differenzengleichung xn+1 = an xn ist:
n−1 Lösung
Q
[h]
xn = C
ai
i=0
Partikulärlösung
• Variation der Konstanten (ist immer möglich)
• Methode des unbestimmten Ansatzes (ist nur bei schönen“ Rekursionen möglich)
”
Ersetzen von
n−1C in
der allgemeinen Lösung durch die Folge von Konstanten Cn .
Q
[p]
x n = Cn
ai
i=0
[p]
Beispiel Türme von Hanoi“: xn = Cn 2n
”
[p]
einsetzen der Partikulärlösung xn = Cn 2n in die Ursprungs-Rekursion xn+1 = 2xn + 1:
Cn+1 2n+1 = 2Cn 2n + 1
Umformung in Richtung Cn :
1
Cn+1 = Cn + 2n+1
1
Cn = C0 + 21 + 212 + 21n
Durch einsetzen eines Startwertes x0 = 1 erhalten wir die Lösung für die Folge Cn : Cn =
n
P
( 21 )k =
k=0
1−( 21 )n−1
1−( 12 )
Durch einsetzen der Lösung für die Konstanten in die Partikulärlösung und das Addieren mit der
9
homogenen Lösung erhält man die Lösung:
xn = C · 2n + 2n+1 − 1
4.2
Differenzengleichungen höherer Ordnung
xn+2 + a · xn+1 + b · xn = Sn
Sn ...Störfunktion
4.2.1
Potenzansatz
xn = λ n
λn+2 + a · λn+1 + b · λn = 0
λn (λ2 + a · λ + b) = 0
λ2 + a · λ + b nennt man das charakteristische Polynom
Lösung mittels
Lösungsformel für quadratische Gleichungen:
√
−a± a2 −4·b
λ1,2 =
2
Diskriminante a2 − 4 · b
• Diskriminante > 0: 2 reelle Lösungen für λ1,2
Die Folgen xn1 = λn1 und xn2 = λn2 sind Lösungen der Differenzengleichung.
[h]
xn = C1 · λn1 + C2 · λn2 dabei sind die beiden Konstanten C1 und C2 frei wählbar. Durch Angabe
von Startwerten können die Konstanten berechnet werden.
• Diskriminante < 0: 2 komplexe Lösungen für λ1,2
man erhält λn1 = [rn , n · ϕ] = rn · (cos(n · ϕ) + i · sin(n · ϕ))
und λn2 = [rn , −n · ϕ] = rn · (cos(−n · ϕ) + i · sin(−n · ϕ)) = rn · (cos(n · ϕ) − i · sin(n · ϕ))
[h]
xn = C1 · (rn · (cos(n · ϕ) − i · sin(n · ϕ))) + C2 · (rn · (cos(n · ϕ) − i · sin(n · ϕ)))
[h]
xn = rn · ((C1 + C2 ) · cos(n · ϕ) + (i · C1 − i · C2 ) · sin(n · ϕ))
Definieren neuer Konstanten D1 = C1 + C2 und D2 = i · C1 − i · C2 D1 , D2 ∈ R
[h]
xn = rn · (D1 · cos(n · ϕ) + D2 · sin(n · ϕ))
• Diskriminante = 0: 1 reelle Lösung λ1 = λ2
n · λn1 ist ebenfalls Lösung der Rekursion dadurch erhält man:
[h]
xn = C1 · λn1 + C2 · n · λn1 = (C1 + C2 · n) · λn1
4.2.2
Partikulärlösung durch Versuchslösung
Störfunktion
1
rn
sin(r · n) oder cos(r · n)
nk
k
n · rn
Versuchslösung
A
A · rn
A · sin(r · n) + B · cos(r · n)
A0 + A1 · n + A2 · n2 + ... + Ak · nk
(A0 + A1 · n + A2 · n2 + ... + Ak · nk ) · rn
(1)
(2)
Superpositionsprinzip Sn = Sn + Sn
Aufspalten der Störfunktion mit anschließender Addition der Ansatzlösungen.
10
4.2.3
Differenzengleichungen mit konstanten Koeffizienten höherer Ordnung
xn+k + ak−1 · xn+k−1 + ... + a1 · xn+1 + a0 · xn = Sn
Lösungsweg analog zu Grad 2:
• Lösung der homogenen DGL mittels Potenzansatz.
• Lösung der Störfunktion mittels Versuchslösung.
4.2.4
Methode der erzeugenden Funktion
Kommt hoffentlich nicht :-/
Zuordnung der Folge zu einer formalen Potenzreihe.
x(z) = x0 + x1 · z 1 + x2 · z 2 + x3 · z 3 + ...
Die Koeffizienten erhält man durch Taylorreihenentwicklung um z = 0.
11
5
Graphentheorie
V...Knotenmenge
E...Kantenmenge
G = (V, E)
• ungerichtete Graphen:
N (v) = {w ∈ V : (v, w) ∈ E}
• gerichtete Graphen:
Γ+ (v) = N achf olger = {w ∈ V : (v, w) ∈ E}
Γ− (v) = V orgaenger = {w ∈ V : (w, v) ∈ E}
5.1
Definitionen:
• Ein Graph heißt einfach/schlicht falls keine Schlingen oder Mehrfachkanten auftreten.
• Quelle: |Γ− (v)| = d− (v) = Hingrad = 0
• Senke: |Γ+ (v)| = d+ (v) = W eggrad = 0
• Kantenfolge(ungerichtet): Folge von Kanten, wobei der Endknoten immer der Anfangsknoten
der darauffolgenden Kante ist.
• Kantenzug(gerichtet): Kantenfolge eines gerichteten Graphen.
• geschlossene Kantenfolge/-zug: Anfangspunkt=Endpunkt
• Weg(ungerichtet): Kantenfolge in der keine Knoten und keine Kanten mehrfach vorkommen.
• Pfad/Bahn(gerichtet): Kantenzug in der keine Knoten und keine Kanten mehrfach vorkommen.
• Kreis(ungerichtet): Weg mit Anfangspunkt=Endpunkt
• Zyklus(gerichtet): Pfad mit Anfangspunkt=Endpunkt
• Falls es eine Kantenfolge von v nach w gibt, gibt es auch einen Weg von v nach w der nur Kanten
der ursprünglichen KF enthält.
• Schatten: der ungerichtet Graph zu einem gerichteten.
Handschlag-Lemma
• gerichteter
Graph: P
P +
d (v) = |E| =
d− (v)
v∈V
v∈V
• einfacher
ungerichteter Graph:
P
d(v) = 2 · |E|
v∈V
5.2
Zusammenhang
Zusammenhang ungerichteter Graph
• ungerichteter Graph heißt zusammenhängend, falls jeder Knoten v ∈ V von w ∈ V erreichbar
ist.
• ein maximal zusammenhängender Teilgraph eines Graphen heißt Zusammenhangskomponente.
12
Zusammenhang gerichteter Graph
• stark zusammenhängend: Es existiert ein Kantenzug von v nach w v, w ∈ V : v¬w.
• schwach zusammenhängend: Es existiert ein Kantenzug von v nach w aber nur bei Missachtung
der Richtung der Kanten.
5.2.1
Adjazenzmatrix
Die Adjazenzmatrix gibt die Anzahl der Kanten von vi nach vj an.
Wege A(G)...Adjazenzmatrix des Graphen
A2 = A(G) · A(G) definiert die Anzal Kantenfolgen der Länge 2 von vi nach vj .
Ak definiert die Anzahl Kantenfolgen der Länge k von vi nach vj .
A0 ...Einheitsmatrix
M = A0 + A1 + A2 + ... + Al
l = min(|V | − 1, |E|)
• aij = 0 in der Matrix M zeigt, dass es keine Kantenfolge zwischen den Knoten vi und vj gibt.
Außerdem zeigt ein derartiger Eintrag, dass der Graph NICHT stark zusammenhängend ist.
• Wenn für alle aij gilt aij ¬0 dann ist der Graph stark zusammenhängend.
• Ein Weg zwischen
5.3
Graphrelationen
Isomorphie Graphen sind von gleicher Gestalt wenn
G = (V, E)
G0 = (V 0 , E 0 )
∃ϕ : V → V 0
(v, w) ∈ E(G) ⇔ (ϕ(v), ϕ(w)) ∈ E 0 (G0 )
Graphenminor Erlaubte Operationen um zu einem Graphenminor zu gelangen:
• Kantenkontraktion: Verschmelzung von Knoten zu Superknoten
• Entfernen von Kanten und Knoten alleine würde zu einem Teilgraphen aber nicht zwingend zu
einem Minor führen.
5.4
Bäume und Wälder
• Kreisfreie, ungerichtete Graphen sind Wälder.
• Zusammenhängende, kreisfreie, ungerichtete Graphen sind Bäume.
• Zusammenhangskomponenten von Wäldern sind Bäume.
• k...Anzahl der Bäume
α0 (T ) = |V |
α1 (T ) = |E|
α0 (T ) = α1 (T ) + k
5.5
Planare Graphen
Planare Graphen sind kreuzungsfrei darstellbar.
13
Eulersche Polyederformel α0 (G) − α1 (G) + α2 (G) = k + 1
k...Anzahl der Zusammenhangskomponenten
α0 (G) = |V |
α1 (G) = ||
α3 (G) =Anzahl der Gebiete
Satz von Kuratowski-Wagner Ein Graph ist genau dann plättbar, falls er weder K5 noch K3,3
als Graphenminor enthält.
Vierfarbsatz Es gibt in jedem einfachen planaren Graphen eine zulässige Knotenfärbung mit maximal 4 Farben.
5.6
5.6.1
Euler’sche und Hamilton’sche Linien
Euler’sche Linie
Eine Kantenfolge im Graph G heißt Euler’sche Linie, falls jeder Knoten und jede Kante in der Kantenfolge enthalten sind, und zusätzlich jede Kante genau einmal enthalten ist.
Satz
Ungerichteter Graph G besitzt genau dann eine geschlossene EL falls:
• Graph zusammenhängend
• ∀v ∈ V : d(v) ≡ 0 mod 2
Satz
Ungerichteter Graph G besitzt genau dann eine offen EL falls:
• Graph zusammenhängend
• ∀v ∈ V \ {AK, EK} : d(v) ≡ 0 mod 2
• AK : d(v) ≡ 1 mod 2
• EK : d(v) ≡ 1 mod 2
Satz
Gerichteter Graph G besitzt genau dann eine geschlossene EL falls:
• Graph ist schwach zusammenhängend
• ∀v ∈ V : d+ (v) = d− (v)
Satz
Gerichteter Graph G besitzt genau dann eine offen EL falls:
• Graph ist schwach zusammenhängend
• ∀v ∈ V \ {AK, EK} : d+ (v) = d− (v)
• AK : d+ (v) = d− (v) + 1
• EK : d+ (v) = d− (v) − 1
5.6.2
Hamilton’sche Linie
Eine Kantenfolge, die jeden Knoten des Graphen genau einmal beinhaltet.
• offen HL: AK 6= EK
• geschlossene HL: AK = EK
14
Satz von Ore Ungerichteter einfacher Graph G. Falls für je 2 Knoten v, w die durch keine Kante
verbunden sind gilt, d(v) + d(w) ≥ |V |, dann besitzt G eine geschlossene HL.
5.7
5.7.1
Algorithmen auf Graphen
Kruskal-Algorithmus
Findet in einem ungerichteten Graph G immer einen min./max. spannenden Wald.
Vorgehensweise
1. Sortieren der Kanten nach deren Bewertung
2. Schrittweises Konstruieren durch einfügen neuer Kanten solange kein Kreis entsteht. Kanten die
einen Kreis entstehen lassen werden verworfen.
Man erhält je nach Sortierung der Kanten einen minimalen oder maximalen spannenden Wald/Baum.
5.7.2
Dijkstra-Algorithmus
Findet einen kürzesten Weg von Knoten v nach Knoten w. Nach vollständiger Abarbeitung des Algorithmus ist es möglich einen Entfernungsbaum zu erstellen.
Vorgehensweise
1. Ausgehend vom Startknoten sucht man jenen Knoten mit der minimalen Entfernung und markiert diesen.
2. Anschließend wiederholt man die Suche nach einem Knoten mit der minimalen Entfernung unter
denen die noch nicht markiert wurden.
3. Man hat einen kürzesten Weg gefunden, wenn der Zielknoten markiert ist.
15
6
Algebraische Strukturen
6.1
Gruppentheorie
Gruppe
M onoid
Halbgruppe
Gruppoid
1. Gruppoid: allgemeine algebraische Struktur
2. Halbgruppe: zusätzlich assoziativ
3. Monoid: zusätzlich neutrales Element
4. Gruppe: zusätzlich inverses Element
5. abelsche Gruppe: zusätzlich kommutativ
6.1.1
Untergruppen
gegeben Gruppe hG, ◦i
U 6= ∅, U ⊆ G
falls hU, ◦i selbst eine Gruppe ist, ist U Untergruppe von G
Das neutrale Element e muss immer Teil der Untergruppe sein.
Die Anzahl der Elemente der Untergruppe ist Teiler der Anzahl der Elemente der Gruppe. |U | | |G|
Triviale Untergruppen h{e}, ◦i und hG, ◦i
Untergruppenkriterien
• hU, ◦i ist abgeschlossen, ∀a, b ∈ U : a ◦ b ∈ U
• Assoziativität
• Neutrales Element
• Inverses Elemnt zu jedem Element
Es genügt allerdings zu zeigen, dass die Abgeschlossenheit gegeben ist:
∀a, b ∈ U : a ◦ b ∈ U ∧ a−1 ∈ U
6.1.2
Nebenklassen
gegeben: Gruppe G, Untergruppe U, a ∈ G
Linksnebenklasse a ◦ U = {a ◦ u|u ∈ U }
16
Rechtnebenklasse U ◦ a = {u ◦ a|u ∈ U }
2 Nebenklassen sind entweder gleich oder haben keine gleichen Elemente.
|a ◦ U | = |U | jede Nebenklasse hat dadurch gleich viele Elemente
Satz von Lagrange Die Ordnung(=Anzahl der Elemente) einer Untergruppe ist immer Teiler der
Gruppenordnung.
Potenzen


e



a
an =

an−1 ◦ a



(a−1 )−n
für n = 0
für n = 1
rekursiv für n > 1
für n < 0
Ordnung
• Alle Potenzen von a sind verschieden
ordG (a) = ∞
Untergruppen mit solchen Elementen sind ebenfalls unendlich.
• Nicht alle Potenzen von a sind verschieden
ordG (a) = min(k > 0|ak = e)
Untergruppen mit solchen Elementen sind zyklisch
(Bsp.: Drehung im S3 ).
Kleiner Satz von Fermat
dann gilt a|G| = e
Normalteiler
Normalteiler.
6.1.3
gegeben hG, ◦i endliche Gruppe
Sind die Linksnebenklassen und Rechtsnebenklassen gleich spricht man von einem
Homomorphismus
Eine Abbildung ϕ : G → H zwischen 2 Gruppen hG, ◦i, hH, ?i nennt man Gruppen-Homomorphismus
wenn gilt: ∀a, b ∈ G : ϕ(a ◦ b) = ϕ(a) ? ϕ(b)
• ϕ(eG ) → eH
• ϕ(a−1 ) = ϕ(a)−1
Kern eines Homomorphismus Alle Elemente der Ausgangsgruppe, die auf das neutrale Element
der Zielgruppe abgebildet werden.
ker ϕ = {a ∈ G : ϕ(a) = eH }
Satz
Kern eines Homomorphismus ist Normalteiler von G
Homomorphiesatz hG, ◦i, hH, ?i, ϕ : G → H
G/kerϕ ∼
= ϕ(G) ⇔ a ◦ ker ϕ ∼
= ϕ(a)
Isomorphismus ist bijektiver Homomorphismus.
Direktes Produkt hG × H, i
alle geordneten Paare = (a, b) : a ∈ G ∧ b ∈ H
Operation wird komponentenweise angewendet.
17
6.1.4 Permutationsgruppen
1
2
...
n
π=
π(1) π(2)
π(n)
Vorzeichen der Permutation sgnπ = (−1)Inversionen
Inversionen: links stehen größere Elemente als weiter rechts in der Permutation
6.2
Ringe
hR, +, ·i
• hR, +i kommutative Gruppe
• hR, ·i Halbgruppe
• Distributivgesetz: (a + b) · c = a · c + b · c
c · (a + b) = c · a + c · b
Beispiele für Ringe
• hZ, +, ·i
• hQ, +, ·i
• hR, +, ·i
• hC, +, ·i
• hZm , +, ·i
• hRn×n , +, ·i
• Polynome
• Formale Potenzreihe
Zusätzliche Eigenschaften
• hR, ·i kommutativ: kommutativer Ring
• hR, ·i neutrales Element Besitz
⇒ Kommutativer Ring mit Einselement (Bsp.:hZ, +, ·i)
Polynomring Ring mit endlich vielen Koeffizient ak 6= 0 aus R[x].
∞
P
ak · xk : a ∈ R
k=0
• Addition: p(x) + q(x) =
∞
P
(pk + qk ) · xk
k=0
• Multiplikation (Cauchy Produkt): p(x) · q(x) =
18
∞
P
k
P
k=0
j=0
!
pj · qk−j
· xk
6.3
Integritätsringe
Kommutative Ringe mit Einselement ohne Nullteiler (2 Elemente 6= 0 die 0 ergeben), nennt man
Integritätsringe.
• hZ, +, ·i ist Integritätsring
• hZ4 , +, ·i ist nicht Integritätsring
• hZp , +, ·i ist dann endlicher Integritätsring, wenn p Primzahl ist
• Polynome
• Formale Potenzreihe
Ringideal
I Ideal
6.4
Ein Unterring U heißt ideal, falls ∀a ∈ R : a · U ⊆ U und U · a ⊆ U gilt.
hR/I, +, ·i Nebenklassen von R und I sind ebenfalls Ring.
Körper
Kommutative Ringe mit Einselement die für jedes Element 6= 0 ein multiplikatives Inverses besitzen,
nennt man Körper.
Satz
• Jeder Körper ist Integritätsring.
• Falls Integritätsring endlich dann ist die Struktur ein Körper.
Satz
gilt.
6.4.1
Es gibt genau dann einen endlichen Körper mit n Elementen, falls n = pk : p = P rimzahl, k ≥ 1
Konstruktion endlicher Körper
R = hZp [x], +, ·i
I = hq(x) · Zp [x], +, ·i q(x) ist irreduzibles(nicht faktorisierbar) Polynom
Bilden der Nebenklassen
einen endlichen Körper.
6.5
hZp [x], +, ·i/hq(x) · Zp [x], +, ·i ⇒ die entstehenden Nebenklassen bilden
Verbände
B = {0, 1}
Damit hB, ∧, ∨i ein Verband ist muss gelten:
• hB, ∨i ist kommutative Halbgruppe
• hB, ∧i ist kommutative Halbgruppe
• es gilt das Absorptionsgesetz sodass:
x ∧ (x ∨ y) = x
x ∨ (x ∧ y) = x
Verbände sind besondere Halbordnungen.
Eine Halbordnung ist genau dann ein Verband, wenn je 2 Elemente ein Infimum und Supremum
besitzen:
19
Infimum
• c = inf(a, b) ⇔ c ≤ a ∧ c ≤ b
• ∀d : d ≤ a ∧ d ≤ b ⇒ d ≤ c
Supremum
• c = sup(a, b) ⇔ a ≤ c ∧ b ≤ c
• ∀d : a ≤ d ∧ b ≤ d ⇒ c ≤ d
6.5.1
Boolesche Algebra
Einen Verband nennt man Boolesche Algebra wenn zusätzlich gilt:
• Distributivgesetz:
a ∧ (b ∨ c) = (a ∧ b) ∨ (a ∧ c)
a ∨ (b ∧ c) = (a ∨ b) ∧ (a ∨ c)
(
0: a∨0=a
• neutrales Element:
1: a∧1=a
(
a ∨ a0 = 1
• Komplement: ∀a ∈ A∃a0
a ∧ a0 = 0
Es gibt bis auf Isomorphie nur eine Boolesche Algebra: hB n , ∧, ∨i
Jede endliche Boolesche Algebra hat 2n Elemente.
20
7
Lineare Algebra
7.1
Vektoren
Vektoraddition hR2 , +i ist kommutative Gruppe
• assoziativ: ~a + ~b + ~c = ~a + ~b + ~c
• neutrales Element: ~0
• inverses Element: ~a + ~a0 = ~0 ⇒ ~a0 = −~a
Skalarmultiplikation R × R2 → R2
• λ · ~a + ~b = λ · ~a + λ · ~b
• (λ · µ) · ~a = λ · (µ · ~a)
• (λ + µ) · ~a = λ · ~a + µ · ~a
• 1 · ~a = veca
7.2
Vektorraum
V heißt Vektorraum über den Körper K.
hV, +, Ki
Es gilt:
• Vektoraddition: V × V → V
• Skalarmultiplikation: K × V → V
7.2.1
Unterraum
W ⊆V
W ist Vektorraum wenn Unterraumkriterien gelten.
Unterraumkriterien
W 6= 0 ist genau dann Unterraum von V falls:
• ∀~a, ~b ∈ W : ~a + ~b ∈ W
• ∀~a ∈ W, λ ∈ K : λ · ~a ∈ W
Nebenraum ~a + W
7.2.2
Linearkombination
hV, +, Ki M ⊆ V
(
λ1 · v~1 + λ2 · v~2 + ... + λn · v~n :
Kleinster Unterraum von ~a:
W = {λ · ~a, λ ∈ R}
v~1 ...v~n
λ1 ...λn
∈M
∈K
Menge aller Linearkombinationen aus ~a:
~
Kleinster
Unterraum der
n
o ~a und b enthält
W = λ · ~a + µ · ~b, λ, µ ∈ R
Menge aller Linearkombinationen aus ~a und ~b:
21
Lineare Hülle Solche kleinsten Unterräume über Vektoren nennt man Lineare Hülle:
[M ] = {λ1 · v~1 + λ2 · v~2 + ... + λn · v~n , n ∈ N, v~1 ...v~n ∈ M, λ1 ...λn ∈ K}
7.2.3
Lineare Abhängigkeit
M linearabhängig
λ1 · v~1 + ... + λn · v~n = ~0 ⇒ ∃(λ1 , ..., λn ) 6= (0, ..., 0)
M linearunabhängig
7.2.4
λ1 · v~1 + ... + λn · v~n = ~0 ⇒ λ1 = ... = λn = 0
Vektorbasis
Jeder Vektor aus V kann mittels Linearkombination der Basisvektoren erzeugt werden.
1. ~a, ~b...linear unabhängig
2. [~a, ~b] = {λ1 · v~1 + λ2 · v~2 + ... + λn · v~n , n ∈ N, λ1 ...λn ∈ K} = V
Satz Es gibt immer genau eine Möglichkeit einen Vektor als Linearkombination der Basisvektoren
darzustellen.
   
 
1
0
0 



   
 0 
0
1






Kanonische Basisvektoren
... , ... , ..., ...





0
0
1
Satz
Jede Basis von V hat genau dim(V ) Basisvektoren.
Austauschlemma Ersetzen eines Vektors in der Menge M = {v~1 , v~2 , ..., v~n } von Vektoren durch
Vektor ~0 genau dann zulässig falls:
• ~a = µ1 · v~1 + µ2 · v~2 + ... + µn · v~n + µj · v~j
• µj 6= 0 ⇒ man kann v~j durch ~a ersetzen.
n
o
~
~
Koordinaten bezüglich Basis Basis B = b1 , ..., bn
 
λ1
 λ2 

~x ∈ V : ~x = λ1 · b~1 + ... + λn · b~n = 
 ... 
λn
Bsp. Polynome Basis R2 [x] : b1 = x0 , b2 = x1 , b3 = x2
P1 (x) = α1 + β1 · x + γ1 · x2
2
P2 (x) = α2 + β2 ·
x +
γ2 · x
 

α1
α2
α1 + α2
P1 (x) + P1 (x) =  β1  +  β2  = β1 + β2
γ1
γ2
γ1 + γ2
22
7.3
Matrizen
m×
n Matrix über Körper 
K
a11 a12 · · · a1n
 a21 a22 · · · a2n 


A= .
..
.. 
 ..
.
a
. 
ij
am1 am2 · · ·
7.3.1
amn
Definitionen
• Wenn m = n nennt man die Matrix quadratisch.
• Falls A = AT nennt man die Matrix symmetrisch.
Transposition
Die Matrix AT ist die an der Hauptdiagonale gespiegelte Matrix A.

Matrizen-Addition
a11 + b11 · · ·

..
..
A+B =
.
.
am1 + bm1 · · ·

λ · a11 · · ·
 ..
..
Skalarmultiplikation λ · A =  .
.
λ · am1 · · ·

a1n + b1n

..

.
amn + bmn

λ · a1n
.. 
. 
λ · amn
Multiplikation von Matrizen Matrizen können nur multipliziert werden wenn: die Anzahl der
Spalten der Matrix A = Anzahl der Zeilen der Matrix B ist.
A ∈ K m×n
B ∈ K n×q
A · B = C ∈ K m×q
n
P
cij = a~i · b~j =
aik · bkj = aj1 · b1j + aj2 · b2j + ... + ajn · bnj
k=1
Gesetze
• Assoziativität
• Distributivität
• neutrales Element bezüglich Multiplikation ist Einheitsmatrix:
I ∈ K n×n
• NICHT! kommutativ A · B 6= B · A
7.3.2
Inverses Element
Es kann nur zu einer quadratischen
Matrix

 eine Inverse Matrix geben. Dabei gilt:
1 0 0 0
0 1 0 0


A−1 · A = A · A−1 = In = 
.. 
.
.
0 0
. .
0 0 ··· 1
Eine invertierbare Matrix nennt man regulär. Nicht invertierbar Matrizen sind singulär.
23
Invertierbarkeit
sind.
Eine Matrix ist genau dann invertierbar falls die Spaltenvektoren linear unabhängig
Rang einer Matrix Die Dimension der linearen Hülle der Zeilen-/Spaltenvektoren nennt man
Rang(rg(A)). Es gilt, dass der Zeilenrang gleich dem Spaltenrang einer Matrix ist.
Man bringt die Matrix mittels elementarer Spaltenumformungen in Treppenform. Die Anzahl der
Stufen = der Rang der Matrix.
Elementare Spaltenumformungen
1. Spalten können vertauscht werden.
2. Spalten können mit Skalaren λ 6= 0 multipliziert werden.
3. Vielfache der Spalte a~i kann zur Spalte a~j addiert werden (aufgrund des Austauschlemmas).
Analoges Vorgehen funktioniert auch für Zeilenumformungen.
Inverse Matrix bestimmen Man führt die selben Umformungen die man auf die Matrix A anwendet auch auf der Matrix In durch. Die elementaren Umformungen iteriert man solange, bis die
ursprüngliche Matrix in Einheitsform ist. Die ursprüngliche Matrix In ist nun die Matrix A−1 .
7.4
Lineare Abbildungen
Abbildungen von einem Vektorraum V in einen anderen Vektorraum W kann man in eine Matrix
codieren. So kann man beispielsweise Drehungen, Spiegelungen oder Projektionen einfach in eine
Abbildungsmatrix kodieren um durch einfache Multiplikation den Wert aus V in W zu überführen.
• ~x −→ f (~x)
• ~y −→ f (~y )
• ~x + ~y −→ f (~x + ~y )
• λ · ~x −→ f (λ · ~x)
Abbildungsmatrix
Die Abbildungsmatrix
wird aus den Abbildungen
der kanonischen Basisvekto
ren (e~1 , e~2 , · · · , e~n ) gebildet. A = f (e~1 ) f (e~2 ) · · · f (e~n )
Inverse Abbildung Nur möglich wenn f bijektiv ist.
f :A
f −1 : A−1
Also wird die Umkehroperation durch eine invertierte Abbildungsmatrix dargestellt.
Hintereinanderausführung von Abbildungen g ◦ f (~x) = g(f (~x)) = B · (A · ~x) = B · A · ~x
TB,C = TE,C · TB,E = (TC,E )−1 · TB,E
Kern einer Abbildung ker f = {~x ∈ V : f (~x) = ~0)
dim(ker f ) = def f ...Defekt von f
Rang einer Abbildung Bild von f: f (V ) = {f (~x) : ~x ∈ V }
rgf = dim(f (V ))...Rang von f
24
Rangformel
7.5
dim V = def f + rgf
Lineare Gleichungssysteme

a11
 ..
A= .
am1
···
..
.
···
    
b1
x1
a1n
..  ·  ..  =  .. 
.   .  .
xn
amn
Satz von Kronecker-Capelli
rg(A|~b)
7.5.1
bn
Es gibt Lösungen des linearen Gleichungssystems falls gilt: rg(A) =
Gauß Algorithmus
• Man verwendet die erweiterte Systemmatrix ((A|~b)).
• Durch elementare Zeilenumformungen bringt man die Matrix in eine Halbdiagonalform. Da gibt
es mehrerer Fälle.
• Bei Fall 1 reduziert man das Gleichungssystem auf die übrigbleibenden Gleichungen und bildet
Lösungen welche die Gleichungen erfüllen.
• Bei Fall 3 führt man weiter elementare Zeilenumformungen durch, bis ober- und unterhalb der
Diagonale nur mehr 0 stehen bleiben. Dann können die Ergebnisse direkt aus dem Ergebnisvektor
~b ausgelesen werden
Matrixformen

6= 0
 0 =
6 0

1. keine Lösung: 
 0
0 =
6 0
0
0
0

6= 0
 0


2. unendlich viele Lösungen:  0

 0
0

6= 0
 0 6= 0

3. eindeutige Lösung: 
 0
0
0
0
7.6
b1
b2
..
.





0 bi =
6 0

b1
6= 0
b2 

.. 
0 6= 0
.

0
0 0 0
0
0 0 0

b1
b2 

.. 
6= 0
.
0 6= 0 bn
Determinanten
Definition Determinante
vgl. Wikipedia
Leibniz-Formel
n
P
Q
det A = π∈Sn sgn(π)
ai,π(i)
i=1
Hauptdiagonale-Nebendiagonale
2x2 Matrix
a11 a12 a21 a22 = a11 · a22 − a12 · a21
25
3x3
a11
a21
a31
Matrix Hauptdiagonalen-Nebendiagonalen
a12 a13 a22 a23 = a11 · a22 · a33 + a12 · a23 · a31 + a13 · a21 · a32 − a13 · a22 · a31 − a11 · a23 · a32 − a12 · a21 · a33
a32 a33 Satz
Die Determinante ist genau dann ungleich null wenn A invertierbar ist.
Satz
A, B ∈ K n×n :
• det(A · B) = det A · detB
• det A 6= 0 : det A−1 =
1
det A
• det AT = det A
Rechenregeln mit Determinanten
• A’ entsteht aus A durch Multiplikation der Spalte v mit einem Faktor λ.
det A0 = λ · det A
• A’ entsteht aus A durch Addition eines Vielfachen einer Spalte zu einer anderen.
det A0 = det A
• A’ entsteht aus A durch Vertausche von 2 Spalten.
det A0 = − det A
Kofaktor Der Kofaktor Aij einer Matrix A ist die Determinante der Matrix in der die i-te Zeile und
die j-te Spalte gleich 0 gesetzt werden mit der Ausnahme von aij = 1.
i+j · D
Aij = (−1)
ij
a1,1 . . .
a1,j−1 0 a1,j+1 . . .
a1,n ..
..
..
..
.. ..
.
.
.
.
.
. ai−1,1 . . . ai−1,j−1 0 ai−1,j+1 . . . ai−1,n ...
0
1
0
...
0 Dij = 0
ai+1,1 . . . ai+1,j−1 0 ai+1,j+1 . . . ai+1,n ..
..
..
..
.. ..
.
.
.
.
.
. an,1 . . . an,j−1 0 an,j+1 . . . an,n Vereinfacht: Der Kofaktor ist die Determinante der Matrix, in welcher die i-te Zeile und j-te
Spalte gestrichen werden.
7.6.1
Laplace’scher Entwicklungssatz
Mit dem Laplaceschen Entwicklungssatz kann man die Determinante einer n × n-Matrix schrittweise
berechnen. So kann man entweder nach einer Zeile oder Spalte entwickeln.
• Entwicklung nach der j-ten Spalte: det A =
n
P
i=1
• Entwicklung nach der i-ten Zeile: det A =
n
P
aij · Aij =
n
P
(−1)i+j · aij · det Dij
i=1
(−1)i+j · aij · det Dij
j=1
26

+ − + ···
− + −





.
Das Vorzeichen für die Entwicklung ergibt sich aus folgender Matrix:
.

.
+ −

..
.

Vereinfacht: Man reduziert die Determinantenberechnung auf kleiner Matrizen. Man summiert
(−1)i+j · aij · det Dij auf. Wobei das Vorzeichen((−1)i+j ) aus der obenstehenden Matrix ausgelesen
werden kann, aij der Wert an der aktuellen Stelle ist und det Dij die Determinante der um i-te Zeile
und j-te Spalte reduzierten Matrix. (−1)i+j · det Dij ist der Kofaktor Aij
Inverse Matrix berechnen A−1 =
 bezeichnet die Kofaktormatrix.
1
det A
· ÂT
Cramersche Regel Ausgangspunkt ist ein lineares Gleichungssystem mit Koeffizientenmatrix A
und dem Lösungsvektor b in der Form Ax = b.
Das Gleichungssytem hat eine gleiche Anzahl an Gleichungen sowie Unbekannten (A ist quadratisch)
und ist eindeutig lösbar ist. Das Gleichungssystem ist genau dann eindeutig lösbar, falls det(A) 6= 0
ist.
In diesem Fall kann die i-te Lösung x durch:
i)
xi = det(A
det(A) bestimmt werden.
Die Matrix Ai wird gebildet, indem die i-te Spalte durch Lösungsvektor b ersetzt wird.
7.7
Eigenwerte und Eigenvektoren
Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor,
dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur gestreckt,
und man bezeichnet den Skalierungsfaktor als Eigenwert der Abbildung.
Definition Eigenwert lineare Abbildung f : V −→ V
λ ∈ K ist Eigenwert von f, falls ∃~x ∈ V \ {~0} : f (~x) = λ · ~x
Definition Eigenvektor Man nennt ~x den zum Eigenwert λ zugehörigen Eigenvektor. ~x ∈ K n :
A · ~x = λ · ~x
Eigenwertberechnung Die Gleichung (λ · In − A) = XA (λ) nennt man charakteristisches Polynom. λ ist genau dann Eigenwert, wenn XA (λ) = 0.
det (λ · In − A) = 0 bildet eine Gleichung, welche mittels der Lösungsformel gelöst werden kann(bei
Polynomgrad 2).
Durch lösen der Gleichungen erhält man die Eigenwerte.
Eigenvektorberechnung Durch Einsetzen der Eigenwerte λn in die Gleichung:
(λ · In − A) · ~x = ~0
erhält man eine Lineares Gleichungssystem welches als Ergebnis die Eigenvektoren liefert. Der Eigenvektor ist kein eindeutiges Ergebnis, da die Vektoren immer beliebig gestreckt werden kann und
trotzdem die Eigenschaften eines Eigenvektors erfüllt.
27
Diagonalisierbare Matrix Wenn gilt A = T · diag(λ1 , · · · , λn ) · T −1 dann nennt man A diagonalisierbar.
T = (x~1 , · · · , x~n )
So lässt sich zum Beispiel die Potenz der Matrix A einfach folgendermaßen bestimmen:
m
−1
Am = T · D · T −1 · T · D · T −1 · · · T · D · T −1 = T · Dm · T −1 = T · diag(λm
1 , · · · , λn ) · T
7.8
Skalarprodukt
Definition Das Skalarprodukt ist definiert als:
h~x, ~y i = x1 · y1 + x2 · y2 + · · · + xn · yn
Orthogonalität
Falls h~x, ~y i = 0 heißen die beiden Vektoren orthogonal zueinander.
Rechenregeln
1. h~x, ~y i = h~y , ~xi
2. h~x, y~2 + y~2 i = h~x, y~1 i + h~x, y~2 i
3. hλ · ~x, ~y i = h~x, λ · ~y i = λ · h~x, ~y i
4. h~x, ~xi ≥ 0 ∧ h~x, ~xi = 0 ⇔ ~x = ~0
Länge eines Vektors ||~x|| =
p
p
h~x, ~xi = x21 + x22 + · · · + x2n
Normierter Vektor ||~x|| = 1
Eigenschaften der Länge eines Vektors
1. ||~x|| ≥ 0 ∧ ||~x|| = 0 ⇔ ~x = ~0
2. ||λ · ~x|| = |λ| · ||~x||
3. Dreiecksregel: ||~x + ~y || ≤ ||~x|| + ||~y ||
4. ||~x + ~y ||2 = (||~x|| + ||~y ||)2
Cauchy-Schwarz-Ungleichung
| h~x, ~y i | ≤ ||~x|| · ||~y ||
Pythagoräischer Lehrsatz ~x, ~y orthogonal : ||~x + ~y ||2 = ||~x||2 + ||~y ||2
Winkel zwischen Vektoren cos ϕ =
7.8.1
h~
x,~
yi
||~
x||·||~
y ||
Orthonormalbasis
Die Basis B =
ander sind.(
D
E
0
b~i , b~j =
1
{b~1 , · · · b~n } ist Orthonormalbasis wenn alle Basisvektoren paarweise orthogonal zueini 6= j
i=j
Satz
Ist B Orthonormalbasis, dann gilt
E
n D
P
~x ∈ Rn : ~x =
~x, b~i · b~i
i=1
28
Definition
7.8.2
P ∈ Rn×n heißt orthogonale Matrix, falls die Spalten von P ein Orthonormalbasis bilden.
Orthogonale Matrix
P T · P = In → P T = P −1
Spektralsatz In einer symmetrischen reellen Matrix a ⊆ Rn×n gilt:
Es gibt reelle
Eigenwerte

 und eine zugehörige Orthonormalbasis von Eigenvektoren.
λ1 · · · 0


A = P ·  0 ... 0  · PT
0
7.9
···
λn
Algebra für Analysis
• Matrix G heißt positiv definit: f (~x) = ~xT · G · ~x > 0, ∀~x ∈ Rn \ {0}
• Matrix G heißt negativ definit: f (~x) = ~xT · G · ~x < 0, ∀~x ∈ Rn \ {0}
• Ansonsten heißt Matrix G indefinit.
Wie feststellen ob positiv/negativ definit?
1. Spektralsatz:
• positiv definit: alle Eigenwerte ¿ 0
• negativ definit: alle Eigenwerte ¡ 0
• indefinit: Mischung
2. Hauptminorenkriterium
29
8
Algebraische Codierungstheorie
Quellcodierung Informationen werden in Blöcke über endliches Alphabet übersetzt.
8.1
Blockcodes
Codewörter
Menge von Wörtern gleicher Länge über endliches Alphabet(=Eingabealphabet).
Codierung fc : I ⊆ Ak −→ An
fc (I) = C ⊆ An I · · · Information
Ak · · · Nachrichtenwörter der Länge k
An · · · Empfangswörter der Länge n
C · · · Codewörter
8.1.1
Fehlererkennung
Zuteilung des Empfangsworts An zu Kategorien:
• Richtig
• Fehlerhaft
• Unentscheidbar
Wenn R∩F = ∅∧U = ∅ dann nennt man das Erkennungsschema vollständig. Fehler sind nur erkennbar
wenn kein anderes Codewort in der Umgebung des Codeworts ist.
8.1.2
Fehlerkorrektur-Korrekturschema
Ein Empfangswort wird den Codeworten zugeteilt. Dafür gelten folgende Voraussetzungen:
1. Anforderungen an den Kanal
2. Anforderungen an die Codierung
Regel
Die Hamming-Distanz zwischen v und Codewort C unter allen Codewörtern soll minimal sein.
Hamming-Distanz x = (x1 , · · · , xn ) ∈ An
y = (y1 , · · · , yn ) ∈ An
d(x, y) · · · Anzahl der Stellen i mit xi 6= yi
Satz
Blockcode c mit:
1. Erkennungsschema E(C) erkennt alle Fehler an höchstens s Stellen, wenn dmin (C) ≥ s + 1.
2. Damit Korrekturschema K(C) ALLE Fehler an höchstens s Stellen korrigieren kann muss dmin (C) ≥
2s + 1 sein.
8.2
Gruppencodes
Gruppencodes sind spezielle Blockcodes. hA, +i ist kommutative Gruppe
hAn , +i n-te direkte Produkt von A=Empfangsraum ist auch Gruppe
Codewörter C bilden Untergruppe von An
30
8.2.1
Codierung
fc : I ⊆ Ak −→ An
Die Codierungsfunktion ist dabei Gruppenhomomorphismus.
Erzeugendensystem Das Erzeugendensystem ist eindeutig bestimmt. Die Codierung vereinfacht
sich hier wesentlich, da man keine Tabelle zum codieren mehr benötigt sondern nur mehr eine Codierungsfunktion.
8.2.2
Fehlerkorrektur
Definition Ein Korrekturschema K(C) korrigiert Fehlermuster e falls alle Fehler der Form C → C +e
korrigiert werden.
Satz Es gibt kein Korrekturschema welches gleichzeitig Fehlermuster e und e’ korrigiert falls e − e0 ∈
C.
Daher gilt in jedem Korrekturschema, dass in jeder Nebenklasse v + C höchstens ein Fehlerwort e( v)
welches korrigiert wird liegt.
8.2.3
Konstruktion eines Korrekturschemas
1. Bilde Nebenklassenzerlegung von An nach Untergruppe C.
2. In jeder Nebenklasse v + C suche die Wörter von minimalen Hamminggewicht.
3. Falls Nebenklasse v+C das Wort mit minimalen Gewicht e( v) eindeutig bestimmt ist heißt dieses
Element Anführer der Nebenklasse. Falls nicht eindeutig wähle man ein Wort von minimalen
Gewicht.
Man bildet Korrekturschema
K(C) : e(v) + C ∈ Rc , ∀c ∈ C
8.3
Linearcodes
Linearcodes sind spezielle Gruppencodes.
Voraussetzung
• hA, +, 0, −, 1i ist endlicher Körper (|A| = P rimzahln )
• I sei Unterraum von Am , hier I = Ak
• Codierungsabbildung ist bijektive lineare Abbildung und kann dadurch mittels einer Matrix
beschrieben werden.
Definition Ein Blockcode C ⊆ An heißt Linearcode, falls C ein Unterraum von An ist. Falls
dim(C) = k, dann spricht man von einem (n, k)-Linearcode über A.
Codierungsabbildung x = (x1 , x2 , · · · , xk ) ∈ Ak
G = Ak×n
fc (x) = x · G
Decodierung Die inverse Abbildung lässt sich durch die Matrix G bestimmen.
Es muss gelten: G · G = Ik
Die pseudoinverse Matrix G bestimmt man durch Lösen des zugehörigen linearen Gleichungssystems.
31
8.3.1
Fehlerkorrektur
Kontrollmatrix ker ϕ = C ⊥
C ⊥ ist ein (n, n − k)-Linearcode über A. Die (n − k) Basisvektoren kann man zu einer (n − k) × n
Kontrollmatrix H zusammenfügen.
Syndrom
SH (v) : v · H T ∈ An−k
1. v ∈ C ↔ SH (v) = N ullwort
2. v + C = w + C ↔ SH (v) = SH (w)
In der Praxis werden die Syndrome der Nebenklassenanführer gespeichert. Wenn ein Wort v empfangen
wird:
• berechnet man das Syndrom,
• sieht in der Tabelle nach welcher Anführer e(v) dieses Syndrom besitzt,
• führt man die Korrektur C = v − e(v) durch.
32
Herunterladen