Algebra und Diskrete Mathematik fuer Informatik

Werbung
Zusammenfassung Algebra und Diskrete
Mathematik für Informatik
Stefan Haider
1125543
TU Wien
Wintersemester 2011/12
Inhaltsverzeichnis
1 Grundlagen
1.1 Elementare Zahlentheorie . . . . . . . . . . . . . . . . . . . .
1.2 Elementare Beweistechniken . . . . . . . . . . . . . . . . . . .
1.3 Elementare Logik . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
4
5
2 Kombinatorik
2.1 Abzählprinzipien . . . . . . . . .
2.2 Kombinatorische Grundaufgaben
2.3 Schubfachprinzip . . . . . . . . .
2.4 Elementare Identitäten . . . . . .
.
.
.
.
6
6
6
6
6
3 Mengenlehre
3.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Kardinalität und Abzählbarkeit . . . . . . . . . . . . . . . . .
8
8
10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Rekursionen
11
4.1 Lineare Differenzengleichungen 1. Ordnung . . . . . . . . . . 11
4.2 Differenzengleichungen höherer Ordnung . . . . . . . . . . . . 12
5 Graphentheorie
5.1 Definitionen: . . . . . . . . . . . . .
5.2 Zusammenhang . . . . . . . . . . . .
5.3 Graphrelationen . . . . . . . . . . .
5.4 Bäume und Wälder . . . . . . . . . .
5.5 Planare Graphen . . . . . . . . . . .
5.6 Euler’sche und Hamilton’sche Linien
5.7 Algorithmen auf Graphen . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
15
16
16
16
17
18
6 Algebraische Strukturen
6.1 Gruppentheorie . . . .
6.2 Ringe . . . . . . . . .
6.3 Integritätsringe . . . .
6.4 Körper . . . . . . . . .
6.5 Verbände . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
21
22
22
23
7 Lineare Algebra
7.1 Vektoren . . . . . . . . . . . . .
7.2 Vektorraum . . . . . . . . . . .
7.3 Matrizen . . . . . . . . . . . . .
7.4 Lineare Abbildungen . . . . . .
7.5 Lineare Gleichungssysteme . . .
7.6 Determinanten . . . . . . . . .
7.7 Eigenwerte und Eigenvektoren
7.8 Skalarprodukt . . . . . . . . . .
7.9 Algebra für Analysis . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
25
27
29
30
31
33
34
35
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8 Algebraische Codierungstheorie
36
8.1 Gruppencodes . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.2 Linearcodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2
1
Grundlagen
1.1
1.1.1
Elementare Zahlentheorie
Natürliche Zahlen
Basis für den Beweis über vollständige Induktion.
Peano Axiome
1. 0 ∈ N
2. ∀n∃n0 ∈ N
3. @n0 ∈ N : n = 0
4. ∀m, n ∈ N : m0 = n0 ⇒ m = n
5. Induktionsprinzip
S⊇N
0∈S
∀n ∈ N : n ∈ S ⇒ n0 ∈ S
1.1.2
Rationale Zahlen
Alle Zahlen
die durch Brüche
entstehen.
na
o
Q=
|a, b ∈ Z, b 6= 0
b
1.1.3
Reelle Zahlen
Rationale Zahlen inklusive nicht periodische Dezimalzahlen.
R=Q∪I
1.1.4
Komplexe Zahlen
C = {a + bi|a, b ∈ R}
a...Realteil
b...Imaginärteil
i2 = −1
kartesische Koordinaten: (a, b)
Polarkoordinaten: [r, ϕ]
Z = r (cos ϕ + i sin ϕ)
Wurzelziehen in C Z = [r, ψ]
gesucht sind alle W n= Z
√ ψ + 2kπ
Wk = n r,
k = 0, 1, 2, ..., n − 1
n
man erhält in der Gauß’schen Zahlenebene ein gleichseitiges n-Eck.
3
1.1.5
Zahlentheorie
Teilbarkeit a|b ⇔ ∃c ∈ Z : b = a · c
triviale Teiler: 1 und die Zahl selbst
d = ggT (a, b) ⇔ d|a, d|b ∧ t|a, t|b ⇒ t|d∀t ∈ Z
Berechnung des ggT mittels Euklid’schen Algorithmus. ggT (a, b)∗kgV (a, b) =
a∗b
Primzahlen
p ≥ 2 ist prim ⇔ es gilt nicht p = r ∗ s mit r < p, s < p
Fundamentalsatz der Zahlentheorie Jede natürliche Zahl a ≥ 2
lässt sich eindeutig (bis auf die Reihenfolge) als Produkt von Primzahlen
darstellen.
Kongruenzen und Restklassen a, b ∈ Z, m ≥ 2
a ≡ b mod m ⇔ m|a − b ⇒ a − b = m ∗ q q ∈ Z Mit Restklassen kann
normal gerechnet werden.
Es gibt m verschiedene Restklassen:
1. 0 = {0, ±m, ±2m, ...}
2. 1 = {1, 1 ± m, 1 ± 2m, ...}
3. m − 1 = {m − 1, m − 11 ± m, m − 1 ± 2m, ...}
4. m = 0
1.2
1.2.1
Elementare Beweistechniken
Beweis durch vollständige Induktion
1. Vermutung
Eine Vermutung P (n) wie ”Die Summe der ersten n geraden Zahlen
ergibt n2 .”wird aufgestellt.
2. Induktionsanfang
Man findet den Punkt ab dem die Vermutung gilt. P (0) ist wahr
3. Induktionsschritt n → n + 1
Durch den Induktionsschritt folgt, dass P (n) → P (n + 1)∀n ∈ N
1.2.2
Beweis durch Widerspruch
Man nimmt an, das Gegenteil der Behauptung gilt. Anschließend führt man
den Beweis auf einen Widerspruch. Durch ein Gegenbeispiel ist es möglich
festzustellen, dass die ursprüngliche Behauptung gilt.
4
1.3
Elementare Logik
Interdisziplinär :-)
siehe FMOD, TGI, etc.
5
2
Kombinatorik
2.1
Abzählprinzipien
A...endliche Menge
|A|...Anzahl der Elemente in A
• Summenregel: |A ∪ B| = |A| + |B| falls A ∩ B = ∅
• Produktregel: |A × B| = |A| × |B|
• Gleichheitsregel: ∃f : A → B bijektiv |A| = |B|
2.2
Kombinatorische Grundaufgaben
• Variation mit Wiederholung / Anordnung ohne Einschränkung: nk
Ziehen mit zurücklegen
• Variation ohne Wiederholung / Anordnung verschiedener Elemente:
n!
(n−k)!
Ziehen ohne zurücklegen
• Permutation einer Menge: n!
Anordnungsmöglichkeiten einer n-elementigen Menge
• Permutation einer Multimenge: k1 !·kn!2 !·...
Anordnungsmöglichkeiten einer Menge mit gleichartigen Elementen
• Kombination ohne Wiederholung / Auswahl einer Teilmenge: nk =
n!
k!(n−k)!
Ziehen ohne Zurücklegen (Reihenfolge egal)
• Kombination mit Wiederholung / Auswahl einer Teilmenge:
(n+k+1)!
k!(n−1)!
n+k−1
k
=
Ziehen ohne zurücklegen (mehrere gleichartige Elemente)
2.3
Schubfachprinzip
n...Objekte
k...Boxen oder Schubfächer
Man verteilt n Objekte auf k Schubfächer. Dabei muss n > k gelten.
Satz
2.4
Es gibt mindestens eine Box mit mehr als einem Objekt.
Elementare Identitäten
Binomialidentitäten
n
P
k=0
n
k
= 2n Summe der Zeilen des Pascal’schen
Dreiecks.
6
Binomischer Lehrsatz
(x + y)n =
n
P
k=0
2.4.1
n
k
· xn−k · y k
Inklusions-Exklusions-Prinzip
A
B
C
|A ∪ B ∪ C| = |A| + |B| + |C| − |A ∩ B| − |A ∩ C| − |B ∩ C| + |A ∩ B ∩ C|
Notation der Siebformel |
n
S
Ai | =
i=1
P
∅6=I⊆<1,2,...,n>
7
(−1)|I|+1 · |
T
i∈I
Ai |
3
Mengenlehre
E...Universum
• ∅ ist die leere Menge
• M = Q Die Mengen M und Q beinhalten die gleichen Elemente.
• M ⊆ Q M ist Teilmenge von Q.
• A ∪ B Vereinigung
• A ∩ B Durchschnitt
• A \ B Mengendifferenz
• Ā = {x|x ∈
/ A} Komplement
• A 4 B = (A \ B) ∪ (B \ A)
• A × B kartesisches Produkt
• A
S1 ∪ A2 ∪ A3 ∪ ...
Ai
i∈I
• P (A) Potenzmenge von A
|P (A)| = 2|A|
3.1
Relationen
aRb ”a steht in Relation zu b”
Eine Relation R zwischen zwei Mengen A und B ist eine Teilmenge des
kartesischen Produkts (R ⊆ A × B). Ist A=B spricht man von einer binären
Relation auf A.
Graph der Relation G(R)
• Menge der Knoten entspricht der Menge A
• Menge der Kanten welche 2 Knoten genau dann verbindet, falls aRb
gilt.
Äquivalenzrelation
gilt:
Eine binäre Relation ist eine Äquivalenzrelation falls
1. Reflexivität: ∀a ∈ A : aRa
2. Symmetrie: ∀a, b ∈ A : aRb ⇒ bRa
3. Transitivität: ∀a, b, c ∈ A : aRb ∧ bRc ⇒ aRc
8
Partitionen Unter Partitionen einer Menge versteht man ein System von
Teilmengen Ai (i ∈ I) mit den Eigenschaften:
1. ∀i ∈ I : Ai 6= ∅
2. ∀i, j ∈ I : i 6= j ∧ Ai ∩ Aj = ∅
S
3. A =
Ai
i∈I
Halbordnungsrelationen
archie.
Halbordnungsrelationen beschreiben eine Hier-
1. Reflexivität: ∀a ∈ A : aRa
2. Antisymmetrie: (aRb ∧ bRa) ⇒ a = b
3. Transitivität: ∀a, b, c ∈ A : aRb ∧ bRc ⇒ aRc
Eine Halbordnung ist in Totalordnung, wenn je zwei Elemente einer Relation
miteinander vergleichbar sind. (∀a, b ∈ A : aRb ∨ bRa)
Hasse-Diagramme(Darstellung von HO-Relationen)
• Ausgangspunkt ist der Graph der Relation
• alle Schlingen können weggelassen werden
• Kanten existieren nur zwischen direkten Nachfolgern (Transitive Verbindungen werden reduziert)
• alle Elemente werden entsprechend ihrer Größe angeordnet (größte
Elemente oben)
• die Orientierung der Kanten kann vernachlässigt werden (da sie immer
nach oben zeigen)
3.1.1
Funktionen
f : A → B ⇔ f (a) = b ⇔ aRf b A bezeichnet man als Definitionsmenge,
B als Wertemenge Funktionen sind spezielle Relationen bei denen zu einem
Urbild genau 1 Bild zugeordnet wird.
Arten von Funktionen:
• injektiv: es gibt höchstens ein f (a) = b (∀a1 , a2 ∈ A : a1 6= a2 ⇒
f (a1 ) 6= f (a2 ))
• surjektiv: ∀b ∈ B∃a ∈ A : f (a) = b
• bijektiv: injektiv ∩ surjektiv: ∀b ∈ B, a ∈ A : f (a) = b
9
Inverse Funktion Es gibt nur dann eine inverse Funktion zu einer Funktion, falls die Funktion bijektiv ist.
3.2
Kardinalität und Abzählbarkeit
Mächtigkeit von Mengen
1. Abzählbar unendlich (ℵ0 ):
Ganze Zahlen, Rationale Zahlen (nach 1. Cantor’schem Diagonalverfahren)
2. Überabzählbar unendlich(c):
Reelle Zahlen (nach 2. Cantor’schem Diagonalverfahren)
10
4
Rekursionen
Rekursionen basieren auf dem Prinzip ein Problem auf bekannte, gelöste
Probleme zurückzuführen.
Derangements/fixpunktfreie Permutationen Rekursion 2. Ordnung
(benötigt 2 Startwerte) Dn = (n − 1)Dn−2 + (n − 1)Dn−1
4.1
Lineare Differenzengleichungen 1. Ordnung
Allgemein: xn+1 = an xn + bn
Beispiel Türme von Hanoi xn ...minimale Anzahl an Zügen für Turm
der Höhe n
xn = 2xn−1 + 1 n ≥ 2, x1 = 1
4.1.1
1. Ordnung mit konstanten Koeffizienten
lösen der Rekursion durch iterieren
xn+1 = axn + b
für a 6= 1:
n −1
xn = an x0 + b( aa−1
)
für a = 1:
xn = x0 + nb Die Lösung einer Differenzengleichung wird erst durch Angabe
eines Anfangswertes eindeutig.
4.1.2
1. Ordnung mit abhängigen Koeffizienten
Aufspalten der Lösung in homogenen und partikulären Teil:
[h]
[p]
xn = xn + xn
Die allgemein Lösung der entsprechenden homogenen Differenzengleichung
xn+1 = a
n xn ist:
n−1
Q
[h]
xn = C
ai
i=0
Partikulärlösung
• Variation der Konstanten (ist immer möglich)
• Methode des unbestimmten Ansatzes (ist nur bei schönen“ Rekursio”
nen möglich)
Ersetzen von C in der allgemeinen Lösung durch die Folge von Konstanten
Cn .
n−1 Q
[p]
x n = Cn
ai
i=0
11
[p]
Beispiel Türme von Hanoi“: xn = Cn 2n
”
[p]
einsetzen der Partikulärlösung xn = Cn 2n in die Ursprungs-Rekursion
xn+1 = 2xn + 1:
Cn+1 2n+1 = 2Cn 2n + 1
Umformung in Richtung Cn :
1
Cn+1 = Cn + 2n+1
Cn = C0 + 211 + 212 + 21n
Durch einsetzen eines Startwertes x0 = 1 erhalten wir die Lösung für die
n
P
1−( 21 )n−1
( 12 )k = 1−(
Folge Cn : Cn =
1
)
k=0
2
Durch einsetzen der Lösung für die Konstanten in die Partikulärlösung und
das Addieren mit der homogenen Lösung erhält man die Lösung:
xn = C · 2n + 2n+1 − 1
4.2
Differenzengleichungen höherer Ordnung
xn+2 + a · xn+1 + b · xn = Sn
Sn ...Störfunktion
4.2.1
Potenzansatz
xn = λn
λn+2 + a · λn+1 + b · λn = 0
λn (λ2 + a · λ + b) = 0
λ2 + a · λ + b nennt man das charakteristische Polynom
Lösung mittels
Lösungsformel für quadratische Gleichungen:
√
−a± a2 −4·b
λ1,2 =
2
Diskriminante a2 − 4 · b
• Diskriminante > 0: 2 reelle Lösungen für λ1,2
Die Folgen xn1 = λn1 und xn2 = λn2 sind Lösungen der Differenzengleichung.
[h]
xn = C1 · λn1 + C2 · λn2 dabei sind die beiden Konstanten C1 und C2
frei wählbar. Durch Angabe von Startwerten können die Konstanten
berechnet werden.
• Diskriminante < 0: 2 komplexe Lösungen für λ1,2
man erhält λn1 = [rn , n · ϕ] = rn · (cos(n · ϕ) + i · sin(n · ϕ))
und λn2 = [rn , −n · ϕ] = rn · (cos(−n · ϕ) + i · sin(−n · ϕ)) = rn · (cos(n ·
ϕ) − i · sin(n · ϕ))
[h]
xn = C1 ·(rn ·(cos(n·ϕ)−i·sin(n·ϕ)))+C2 ·(rn ·(cos(n·ϕ)−i·sin(n·ϕ)))
[h]
xn = rn · ((C1 + C2 ) · cos(n · ϕ) + (i · C1 + i · C2 ) · sin(n · ϕ))
Definieren neuer Konstanten D1 = C1 + C2 und D2 = i · C1 + i · C2
12
D1 , D2 ∈ R
[h]
xn = rn · (D1 · cos(n · ϕ) + D2 · sin(n · ϕ))
• Diskriminante = 0: 1 reelle Lösung λ1 = λ2
n · λn1 ist ebenfalls Lösung der Rekursion dadurch erhält man:
[h]
xn = C1 · λn1 + C2 · n · λn1 = (C1 + C2 · n) · λn1
4.2.2
Partikulärlösung durch Versuchslösung
Störfunktion
1
rn
sin(r · n) oder cos(r · n)
nk
k
n · rn
Versuchslösung
A
A · rn
A · sin(r · n) + B · cos(r · n)
A0 + A1 · n + A2 · n2 + ... + Ak · nk
(A0 + A1 · n + A2 · n2 + ... + Ak · nk ) · rn
(1)
(2)
Superpositionsprinzip Sn = Sn + Sn
Aufspalten der Störfunktion mit anschließender Addition der Ansatzlösungen.
4.2.3
Differenzengleichungen mit konstanten Koeffizienten höherer
Ordnung
xn+k + ak−1 · xn+k−1 + ... + a1 · xn+1 + a0 · xn = Sn
Lösungsweg analog zu Grad 2:
• Lösung der homogenen DGL mittels Potenzansatz.
• Lösung der Störfunktion mittels Versuchslösung.
4.2.4
Methode der erzeugenden Funktion
Kommt hoffentlich nicht :-/
Zuordnung der Folge zu einer formalen Potenzreihe.
x(z) = x0 + x1 · z 1 + x2 · z 2 + x3 · z 3 + ...
Die Koeffizienten erhält man durch Taylorreihenentwicklung um z = 0.
13
5
Graphentheorie
V...Knotenmenge
E...Kantenmenge
G = (V, E)
• ungerichtete Graphen:
N (v) = {w ∈ V : (v, w) ∈ E}
• gerichtete Graphen:
Γ+ (v) = N achf olger = {w ∈ V : (v, w) ∈ E}
Γ− (v) = V orgaenger = {w ∈ V : (w, v) ∈ E}
5.1
Definitionen:
• Ein Graph heißt einfach/schlicht falls keine Schlingen oder Mehrfachkanten auftreten.
• Quelle: |Γ− (v)| = d− (v) = Hingrad = 0
• Senke: |Γ+ (v)| = d+ (v) = W eggrad = 0
• Kantenfolge(ungerichtet): Folge von Kanten, wobei der Endknoten immer der Anfangsknoten der darauffolgenden Kante ist.
• Kantenzug(gerichtet): Kantenfolge eines gerichteten Graphen.
• geschlossene Kantenfolge/-zug: Anfangspunkt=Endpunkt
• Weg(ungerichtet): Kantenfolge in der keine Knoten und keine Kanten
mehrfach vorkommen.
• Pfad/Bahn(gerichtet): Kantenzug in der keine Knoten und keine Kanten mehrfach vorkommen.
• Kreis(ungerichtet): Weg mit Anfangspunkt=Endpunkt
• Zyklus(gerichtet): Pfad mit Anfangspunkt=Endpunkt
• Falls es eine Kantenfolge von v nach w gibt, gibt es auch einen Weg
von v nach w der nur Kanten der ursprünglichen KF enthält.
• Schatten: der ungerichtet Graph zu einem gerichteten.
14
Handschlag-Lemma
• gerichteter
Graph: P
P +
d (v) = |E| =
d− (v)
v∈V
v∈V
• einfacher
ungerichteter Graph:
P
d(v) = 2 · |E|
v∈V
5.2
Zusammenhang
Zusammenhang ungerichteter Graph
• ungerichteter Graph heißt zusammenhängend, falls jeder Knoten v ∈
V von w ∈ V erreichbar ist.
• ein maximal zusammenhängender Teilgraph eines Graphen heißt Zusammenhangskomponente.
Zusammenhang gerichteter Graph
• stark zusammenhängend: Es existiert ein Kantenzug von v nach w
v, w ∈ V : v¬w.
• schwach zusammenhängend: Es existiert ein Kantenzug von v nach w
aber nur bei Missachtung der Richtung der Kanten.
5.2.1
Adjazenzmatrix
Die Adjazenzmatrix gibt die Anzahl der Kanten von vi nach vj an.
Wege A(G)...Adjazenzmatrix des Graphen
A2 = A(G) · A(G) definiert die Anzal Kantenfolgen der Länge 2 von vi nach
vj .
Ak definiert die Anzahl Kantenfolgen der Länge k von vi nach vj .
A0 ...Einheitsmatrix
M = A0 + A1 + A2 + ... + Al
l = min(|V | − 1, |E|)
• aij = 0 in der Matrix M zeigt, dass es keine Kantenfolge zwischen den
Knoten vi und vj gibt. Außerdem zeigt ein derartiger Eintrag, dass
der Graph NICHT stark zusammenhängend ist.
• Wenn für alle aij gilt aij ¬0 dann ist der Graph stark zusammenhängend.
• Ein Weg zwischen
15
5.3
Graphrelationen
Isomorphie Graphen sind von gleicher Gestalt wenn
G = (V, E)
G0 = (V 0 , E 0 )
∃ϕ : V → V 0
(v, w) ∈ E(G) ⇔ (ϕ(v), ϕ(w)) ∈ E 0 (G0 )
Graphenminor Erlaubte Operationen um zu einem Graphenminor zu gelangen:
• Kantenkontraktion: Verschmelzung von Knoten zu Superknoten
• Entfernen von Kanten und Knoten alleine würde zu einem Teilgraphen
aber nicht zwingend zu einem Minor führen.
5.4
Bäume und Wälder
• Kreisfreie, ungerichtete Graphen sind Wälder.
• Zusammenhängende, kreisfreie, ungerichtete Graphen sind Bäume.
• Zusammenhangskomponenten von Wäldern sind Bäume.
• k...Anzahl der Bäume
α0 (T ) = |V |
α1 (T ) = |E|
α0 (T ) = α1 (T ) + k
5.5
Planare Graphen
Planare Graphen sind kreuzungsfrei darstellbar.
Eulersche Polyederformel α0 (G) − α1 (G) + α2 (G) = k + 1
k...Anzahl der Zusammenhangskomponenten
α0 (G) = |V |
α1 (G) = ||
α3 (G) =Anzahl der Gebiete
Satz von Kuratowski-Wagner Ein Graph ist genau dann plättbar, falls
er weder K5 noch K3,3 als Graphenminor enthält.
Vierfarbsatz Es gibt in jedem einfachen planaren Graphen eine zulässige
Knotenfärbung mit maximal 4 Farben.
16
5.6
5.6.1
Euler’sche und Hamilton’sche Linien
Euler’sche Linie
Eine Kantenfolge im Graph G heißt Euler’sche Linie, falls jeder Knoten und
jede Kante in der Kantenfolge enthalten sind, und zusätzlich jede Kante
genau einmal enthalten ist.
Satz
Ungerichteter Graph G besitzt genau dann eine geschlossene EL falls:
• Graph zusammenhängend
• ∀v ∈ V : d(v) ≡ 0 mod 2
Satz
Ungerichteter Graph G besitzt genau dann eine offen EL falls:
• Graph zusammenhängend
• ∀v ∈ V \ {AK, EK} : d(v) ≡ 0 mod 2
• AK : d(v) ≡ 1 mod 2
• EK : d(v) ≡ 1 mod 2
Satz
Gerichteter Graph G besitzt genau dann eine geschlossene EL falls:
• Graph ist schwach zusammenhängend
• ∀v ∈ V : d+ (v) = d− (v)
Satz
Gerichteter Graph G besitzt genau dann eine offen EL falls:
• Graph ist schwach zusammenhängend
• ∀v ∈ V \ {AK, EK} : d+ (v) = d− (v)
• AK : d+ (v) = d− (v) + 1
• EK : d+ (v) = d− (v) − 1
5.6.2
Hamilton’sche Linie
Eine Kantenfolge, die jeden Knoten des Graphen genau einmal beinhaltet.
• offen HL: AK 6= EK
• geschlossene HL: AK = EK
17
Satz von Ore Ungerichteter einfacher Graph G. Falls für je 2 Knoten v, w
die durch keine Kante verbunden sind gilt, d(v) + d(w) ≥ |V |, dann besitzt
G eine geschlossene HL.
5.7
5.7.1
Algorithmen auf Graphen
Kruskal-Algorithmus
Findet in einem ungerichteten Graph G immer einen min./max. spannenden
Wald.
Vorgehensweise
1. Sortieren der Kanten nach deren Bewertung
2. Schrittweises Konstruieren durch einfügen neuer Kanten solange kein
Kreis entsteht. Kanten die einen Kreis entstehen lassen werden verworfen.
Man erhält je nach Sortierung der Kanten einen minimalen oder maximalen
spannenden Wald/Baum.
5.7.2
Dijkstra-Algorithmus
Findet einen kürzesten Weg von Knoten v nach Knoten w. Nach vollständiger
Abarbeitung des Algorithmus ist es möglich einen Entfernungsbaum zu erstellen.
Vorgehensweise
1. Ausgehend vom Startknoten sucht man jenen Knoten mit der minimalen Entfernung und markiert diesen.
2. Anschließend wiederholt man die Suche nach einem Knoten mit der
minimalen Entfernung unter denen die noch nicht markiert wurden.
3. Man hat einen kürzesten Weg gefunden, wenn der Zielknoten markiert
ist.
18
6
Algebraische Strukturen
6.1
Gruppentheorie
Gruppe
M onoid
Halbgruppe
Gruppoid
1. Gruppoid: allgemeine algebraische Struktur
2. Halbgruppe: zusätzlich assoziativ
3. Monoid: zusätzlich neutrales Element
4. Gruppe: zusätzlich inverses Element
5. abelsche Gruppe: zusätzlich kommutativ
6.1.1
Untergruppen
gegeben Gruppe hG, ◦i
U 6= ∅, U ⊆ G
falls hU, ◦i selbst eine Gruppe ist, ist U Untergruppe von G
Das neutrale Element e muss immer Teil der Untergruppe sein.
Die Anzahl der Elemente der Untergruppe ist Teiler der Anzahl der Elemente der Gruppe. |U | | |G|
Triviale Untergruppen h{e}, ◦i und hG, ◦i
Untergruppenkriterien
• hU, ◦i ist abgeschlossen, ∀a, b ∈ U : a ◦ b ∈ U
• Assoziativität
• Neutrales Element
• Inverses Elemnt zu jedem Element
19
Es genügt allerdings zu zeigen, dass die Abgeschlossenheit gegeben ist:
∀a, b ∈ U : a ◦ b ∈ U ∧ a−1 ∈ U
6.1.2
Nebenklassen
gegeben: Gruppe G, Untergruppe U, a ∈ G
Linksnebenklasse a ◦ U = {a ◦ u|u ∈ U }
Rechtnebenklasse U ◦ a = {u ◦ a|u ∈ U }
2 Nebenklassen sind entweder gleich oder haben keine gleichen Elemente.
|a ◦ U | = |U | jede Nebenklasse hat dadurch gleich viele Elemente
Satz von Lagrange Die Ordnung(=Anzahl der Elemente) einer Untergruppe ist immer Teiler der Gruppenordnung.
Potenzen


e



a
an =

an−1 ◦ a



(a−1 )−n
für n = 0
für n = 1
rekursiv für n > 1
für n < 0
Ordnung
• Alle Potenzen von a sind verschieden
ordG (a) = ∞
Untergruppen mit solchen Elementen sind ebenfalls unendlich.
• Nicht alle Potenzen von a sind verschieden
ordG (a) = min(k > 0|ak = e)
Untergruppen mit solchen Elementen sind zyklisch
(Bsp.: Drehung im S3 ).
Kleiner Satz von Fermat
dann gilt a|G| = e
gegeben hG, ◦i endliche Gruppe
Normalteiler Sind die Linksnebenklassen und Rechtsnebenklassen gleich
spricht man von einem Normalteiler.
6.1.3
Homomorphismus
Eine Abbildung ϕ : G → H zwischen 2 Gruppen hG, ◦i, hH, ?i nennt man
Gruppen-Homomorphismus wenn gilt: ∀a, b ∈ G : ϕ(a ◦ b) = ϕ(a) ? ϕ(b)
• ϕ(eG ) → eH
20
• ϕ(a−1 ) = ϕ(a)−1
Kern eines Homomorphismus Alle Elemente der Ausgangsgruppe, die
auf das neutrale Element der Zielgruppe abgebildet werden.
ker ϕ = {a ∈ G : ϕ(a) = eH }
Satz
Kern eines Homomorphismus ist Normalteiler von G
Homomorphiesatz hG, ◦i, hH, ?i, ϕ : G → H
G/kerϕ ∼
= ϕ(G) ⇔ a ◦ ker ϕ ∼
= ϕ(a)
Isomorphismus ist bijektiver Homomorphismus.
Direktes Produkt hG × H, i
alle geordneten Paare = (a, b) : a ∈ G ∧ b ∈ H
Operation wird komponentenweise angewendet.
6.1.4 Permutationsgruppen
1
2
...
n
π=
π(1) π(2)
π(n)
Vorzeichen der Permutation sgnπ = (−1)Inversionen
Inversionen: links stehen größere Elemente als weiter rechts in der Permutation
6.2
Ringe
hR, +, ·i
• hR, +i kommutative Gruppe
• hR, ·i Halbgruppe
• Distributivgesetz: (a + b) · c = a · c + b · c
c · (a + b) = c · a + c · b
Beispiele für Ringe
• hZ, +, ·i
• hQ, +, ·i
• hR, +, ·i
• hC, +, ·i
• hZm , +, ·i
21
• hRn×n , +, ·i
• Polynome
• Formale Potenzreihe
Zusätzliche Eigenschaften
• hR, ·i kommutativ: kommutativer Ring
• hR, ·i neutrales Element Besitz
⇒ Kommutativer Ring mit Einselement (Bsp.:hZ, +, ·i)
Polynomring Ring mit endlich vielen Koeffizient ak 6= 0 aus R[x].
∞
P
ak · xk : a ∈ R
k=0
• Addition: p(x) + q(x) =
∞
P
(pk + qk ) · xk
k=0
• Multiplikation (Cauchy Produkt): p(x) · q(x) =
6.3
∞
P
k
P
k=0
j=0
!
pj · qk−j
· xk
Integritätsringe
Kommutative Ringe mit Einselement ohne Nullteiler (2 Elemente 6= 0 die 0
ergeben), nennt man Integritätsringe.
• hZ, +, ·i ist Integritätsring
• hZ4 , +, ·i ist nicht Integritätsring
• hZp , +, ·i ist dann endlicher Integritätsring, wenn p Primzahl ist
• Polynome
• Formale Potenzreihe
Ringideal Ein Unterring U heißt ideal, falls ∀a ∈ R : a · U ⊆ U und
U · a ⊆ U gilt.
I Ideal
6.4
hR/I, +, ·i Nebenklassen von R und I sind ebenfalls Ring.
Körper
Kommutative Ringe mit Einselement die für jedes Element 6= 0 ein multiplikatives Inverses besitzen, nennt man Körper.
22
Satz
• Jeder Körper ist Integritätsring.
• Falls Integritätsring endlich dann ist die Struktur ein Körper.
Satz Es gibt genau dann einen endlichen Körper mit n Elementen, falls
n = pk : p = P rimzahl, k ≥ 1 gilt.
6.4.1
Konstruktion endlicher Körper
R = hZp [x], +, ·i
I = hq(x) · Zp [x], +, ·i q(x) ist irreduzibles(nicht faktorisierbar) Polynom
Bilden der Nebenklassen hZp [x], +, ·i/hq(x) · Zp [x], +, ·i ⇒ die entstehenden Nebenklassen bilden einen endlichen Körper.
6.5
Verbände
B = {0, 1}
Damit hB, ∧, ∨i ein Verband ist muss gelten:
• hB, ∨i ist kommutative Halbgruppe
• hB, ∧i ist kommutative Halbgruppe
• es gilt das Absorptionsgesetz sodass:
x ∧ (x ∨ y) = x
x ∨ (x ∧ y) = x
Verbände sind besondere Halbordnungen.
Eine Halbordnung ist genau dann ein Verband, wenn je 2 Elemente ein
Infimum und Supremum besitzen:
Infimum
• c = inf(a, b) ⇔ c ≤ a ∧ c ≤ b
• ∀d : d ≤ a ∧ d ≤ b ⇒ d ≤ c
Supremum
• c = sup(a, b) ⇔ a ≤ c ∧ b ≤ c
• ∀d : a ≤ d ∧ b ≤ d ⇒ c ≤ d
23
6.5.1
Boolesche Algebra
Einen Verband nennt man Boolesche Algebra wenn zusätzlich gilt:
• Distributivgesetz:
a ∧ (b ∨ c) = (a ∧ b) ∨ (a ∧ c)
a ∨ (b ∧ c) = (a ∨ b) ∧ (a ∨ c)
(
0: a∨0=a
• neutrales Element:
1: a∧1=a
(
a ∨ a0 = 1
• Komplement: ∀a ∈ A∃a0
a ∧ a0 = 0
Es gibt bis auf Isomorphie nur eine Boolesche Algebra: hB n , ∧, ∨i
Jede endliche Boolesche Algebra hat 2n Elemente.
24
7
Lineare Algebra
7.1
Vektoren
Vektoraddition hR2 , +i ist kommutative Gruppe
• assoziativ: ~a + ~b + ~c = ~a + ~b + ~c
• neutrales Element: ~0
• inverses Element: ~a + ~a0 = ~0 ⇒ ~a0 = −~a
Skalarmultiplikation R × R2 → R2
• λ · ~a + ~b = λ · ~a + λ · ~b
• (λ · µ) · ~a = λ · (µ · ~a)
• (λ + µ) · ~a = λ · ~a + µ · ~a
• 1 · ~a = veca
7.2
Vektorraum
V heißt Vektorraum über den Körper K.
hV, +, Ki
Es gilt:
• Vektoraddition: V × V → V
• Skalarmultiplikation: K × V → V
7.2.1
Unterraum
W ⊆V
W ist Vektorraum wenn Unterraumkriterien gelten.
Unterraumkriterien
W 6= 0 ist genau dann Unterraum von V falls:
• ∀~a, ~b ∈ W : ~a + ~b ∈ W
• ∀~a ∈ W, λ ∈ K : λ · ~a ∈ W
Nebenraum ~a + W
25
7.2.2
Linearkombination
hV, +, Ki M ⊆ V
(
λ1 · v~1 + λ2 · v~2 + ... + λn · v~n :
v~1 ...v~n
λ1 ...λn
Kleinster Unterraum von ~a:
W = {λ · ~a, λ ∈ R}
∈M
∈K
Menge aller Linearkombinationen aus ~a:
Kleinster Unterraum der ~a und ~b enthält
nationen
n aus ~a und ~b:
o
W = λ · ~a + µ · ~b, λ, µ ∈ R
Menge aller Linearkombi-
Lineare Hülle Solche kleinsten Unterräume über Vektoren nennt man
Lineare Hülle:
[M ] = {λ1 · v~1 + λ2 · v~2 + ... + λn · v~n , n ∈ N, v~1 ...v~n ∈ M, λ1 ...λn ∈ K}
7.2.3
Lineare Abhängigkeit
M linearabhängig
λ1 · v~1 + ... + λn · v~n = ~0 ⇒ ∃(λ1 , ..., λn ) 6= (0, ..., 0)
M linearunabhängig
7.2.4
λ1 · v~1 + ... + λn · v~n = ~0 ⇒ λ1 = ... = λn = 0
Vektorbasis
Jeder Vektor aus V kann mittels Linearkombination der Basisvektoren erzeugt werden.
1. ~a, ~b...linear unabhängig
2. [~a, ~b] = {λ1 · v~1 + λ2 · v~2 + ... + λn · v~n , n ∈ N, λ1 ...λn ∈ K} = V
Satz Es gibt immer genau eine Möglichkeit einen Vektor als Linearkombination der Basisvektoren darzustellen.
   
 
c1
c0
c0 



   
 0 
0
1






Kanonische Basisvektoren
 ...  ,  ...  , ...,  ... 





0
0
1
Satz
Jede Basis von V hat genau dim(V ) Basisvektoren.
26
Austauschlemma Ersetzen eines Vektors in der Menge M = {v~1 , v~2 , ..., v~n }
von Vektoren durch Vektor ~0 genau dann zulässig falls:
• ~a = µ1 · v~1 + µ2 · v~2 + ... + µn · v~n + µj · v~j
• µj 6= 0 ⇒ man kann v~j durch ~a ersetzen.
n
o
Koordinaten bezüglich Basis Basis B = b~1 , ..., b~n
 
λ1
 λ2 

~x ∈ V : ~x = λ1 · b~1 + ... + λn · b~n = 
 ... 
λn
Bsp. Polynome Basis R2 [x] : b1 = x0 , b2 = x1 , b3 = x2
P1 (x) = α1 + β1 · x + γ1 · x2
2
P2 (x) = α2 + β2 ·
x +
γ2 · x
 

α1
α2
α1 + α2
P1 (x) + P1 (x) =  β1  +  β2  = β1 + β2
γ1
γ2
γ1 + γ2
7.3
Matrizen
m×
n Matrix über Körper 
K
a11 a12 · · · a1n
 a21 a22 · · · a2n 


A= .
..
.. 
.
 .
.
a
. 
ij
am1 am2 · · ·
7.3.1
amn
Definitionen
• Wenn m = n nennt man die Matrix quadratisch.
• Falls A = AT nennt man die Matrix symmetrisch.
Transposition
Matrix A.
Die Matrix AT ist die an der Hauptdiagonale gespiegelte

Matrizen-Addition
a11 + b11 · · ·

..
..
A+B =
.
.
am1 + bm1 · · ·
27

a1n + b1n

..

.
amn + bmn

λ · a11 · · ·
 ..
..
Skalarmultiplikation λ · A =  .
.
λ · am1 · · ·

λ · a1n
.. 
. 
λ · amn
Multiplikation von Matrizen Matrizen können nur multipliziert werden wenn: die Anzahl der Spalten der Matrix A = Anzahl der Zeilen der
Matrix B ist.
A ∈ K m×n
B ∈ K n×q
A · B = C ∈ K m×q
n
P
aik · bkj = aj1 · b1j + aj2 · b2j + ... + ajn · bnj
cij = a~i · b~j =
k=1
Gesetze
• Assoziativität
• Distributivität
• neutrales Element bezüglich Multiplikation ist Einheitsmatrix:
I ∈ K n×n
• NICHT! kommutativ A · B 6= B · A
7.3.2
Inverses Element
Es kann nur zu einer quadratischen Matrix eine Inverse Matrix geben. Dabei
gilt:


1 0 0 0
0 1 0 0


−1
−1
A · A = A · A = In = 
.
0 0 . . . .. 
0 0 ··· 1
Eine invertierbare Matrix nennt man regulär. Nicht invertierbar Matrizen
sind singulär.
Invertierbarkeit Eine Matrix ist genau dann invertierbar falls die Spaltenvektoren linear unabhängig sind.
Rang einer Matrix Die Dimension der linearen Hülle der Zeilen-/Spaltenvektoren
nennt man Rang(rg(A)). Es gilt, dass der Zeilenrang gleich dem Spaltenrang
einer Matrix ist.
Man bringt die Matrix mittels elementarer Spaltenumformungen in Treppenform. Die Anzahl der Stufen = der Rang der Matrix.
28
Elementare Spaltenumformungen
1. Spalten können vertauscht werden.
2. Spalten können mit Skalaren λ 6= 0 multipliziert werden.
3. Vielfache der Spalte a~i kann zur Spalte a~j addiert werden (aufgrund
des Austauschlemmas).
Analoges Vorgehen funktioniert auch für Zeilenumformungen.
Inverse Matrix bestimmen Man führt die selben Umformungen die
man auf die Matrix A anwendet auch auf der Matrix In durch. Die elementaren Umformungen iteriert man solange, bis die ursprüngliche Matrix
in Einheitsform ist. Die ursprüngliche Matrix In ist nun die Matrix A−1 .
7.4
Lineare Abbildungen
Abbildungen von einem Vektorraum V in einen anderen Vektorraum W
kann man in eine Matrix codieren. So kann man beispielsweise Drehungen,
Spiegelungen oder Projektionen einfach in eine Abbildungsmatrix kodieren
um durch einfache Multiplikation den Wert aus V in W zu überführen.
• ~x −→ f (~x)
• ~y −→ f (~y )
• ~x + ~y −→ f (~x + ~y )
• λ · ~x −→ f (λ · ~x)
Abbildungsmatrix
Die Abbildungsmatrix wird aus den
Abbildungen der
kanonischen Basisvektoren (e~1 , e~2 , · · · , e~n ) gebildet. A =
f (e~1 ) f (e~2 ) · · ·
Inverse Abbildung Nur möglich wenn f bijektiv ist.
f :A
f −1 : A−1
Also wird die Umkehroperation durch eine invertierte Abbildungsmatrix
dargestellt.
Hintereinanderausführung von Abbildungen
B · (A · ~x) = B · A · ~x
TB,C = TE,C · TB,E = (TC,E )−1 · (TB,E )−1
Kern einer Abbildung ker f = {~x ∈ V : f (~x = ~0)
dim(ker f ) = def f ...Defekt von f
29
g ◦ f (~x) = g(f (~x)) =
f (e~n )
Rang einer Abbildung Bild von f: f (V ) = {f (~x) : ~x ∈ V }
rgf = dim(f (V ))...Rang von f
Rangformel
7.5
dim V = def f + rgf
Lineare Gleichungssysteme

a11
 ..
A= .
am1
···
..
.
···
    
a1n
x1
b1
..  ·  ..  =  .. 
.   .  .
amn
xn
bn
Satz von Kronecker-Capelli Es gibt Lösungen des linearen Gleichungssystems falls gilt: rg(A) = rg(A|~b)
7.5.1
Gauß Algorithmus
• Man verwendet die erweiterte Systemmatrix ((A|~b)).
• Durch elementare Zeilenumformungen bringt man die Matrix in eine
Halbdiagonalform. Da gibt es mehrerer Fälle.
• Bei Fall 1 reduziert man das Gleichungssystem auf die übrigbleibenden
Gleichungen und bildet Lösungen welche die Gleichungen erfüllen.
• Bei Fall 3 führt man weiter elementare Zeilenumformungen durch, bis
ober- und unterhalb der Diagonale nur mehr 0 stehen bleiben. Dann
können die Ergebnisse direkt aus dem Ergebnisvektor ~b ausgelesen
werden
Matrixformen


6= 0
b1
 0 =
6 0
b2 


1. keine Lösung: 
.. 
 0
0 =
6 0
. 
0
0
0 0 bi 6= 0


6= 0
b1
 0 6= 0
b2 



.. 
2. unendlich viele Lösungen:  0
0 =
6 0
.


 0
0
0 0 0
0
0
0 0 0
30

6= 0
b1
 0 =
6 0
b2 


3. eindeutige Lösung: 
.. 
 0
0 =
6 0
.
0
0
0 6= 0 bn

7.6
Determinanten
Definition Determinante
vgl. Wikipedia
Leibniz-Formel
n
Q
P
ai,π(i)
det A = π∈Sn sgn(π)
i=1
Hauptdiagonale-Nebendiagonale
2x2 Matrix
a11 a12 a21 a22 = a11 · a22 − a12 · a21
3x3 Matrix Hauptdiagonalen-Nebendiagonalen
a11 a12 a13 a21 a22 a23 = a11 · a22 · a33 + a12 · a23 · a31 + a13 · a21 · a32 − a13 · a22 · a31 −
a31 a32 a33 a11 · a23 · a32 − a12 · a21 · a33
Satz
ist.
Die Determinante ist genau dann ungleich null wenn A invertierbar
Satz
A, B ∈ K n×n :
• det(A · B) = det A · detB
• det A 6= 0 : det A−1 =
1
det A
• det AT = det A
Rechenregeln mit Determinanten
• A’ entsteht aus A durch Multiplikation der Spalte v mit einem Faktor
λ.
det A0 = λ · det A
• A’ entsteht aus A durch Addition eines Vielfachen einer Spalte zu einer
anderen.
det A0 = det A
• A’ entsteht aus A durch Vertausche von 2 Spalten.
det A0 = − det A
31
Kofaktor Der Kofaktor Aij einer Matrix A ist die Determinante der Matrix in der die i-te Zeile und die j-te Spalte gleich 0 gesetzt werden mit der
Ausnahme von aij = 1.
i+j · D
Aij = (−1)
ij
a1,1 . . .
a
0
a
.
.
.
a
1,j−1
1,j+1
1,n
..
.
.
.
.
..
..
..
..
.. .
.
ai−1,1 . . . ai−1,j−1 0 ai−1,j+1 . . . ai−1,n ...
0
1
0
...
0 Dij = 0
ai+1,1 . . . ai+1,j−1 0 ai+1,j+1 . . . ai+1,n ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. an,1 . . . an,j−1 0 an,j+1 . . . an,n Vereinfacht: Der Kofaktor ist die Determinante der Matrix, in welcher
die i-te Zeile und j-te Spalte gestrichen werden.
7.6.1
Laplace’scher Entwicklungssatz
Mit dem Laplaceschen Entwicklungssatz kann man die Determinante einer
n × n-Matrix schrittweise berechnen. So kann man entweder nach einer Zeile
oder Spalte entwickeln.
• Entwicklung nach der j-ten Spalte: det A =
n
P
i=1
aij · det Dij
n
P
• Entwicklung nach der i-ten Zeile: det A =
aij · Aij =
n
P
(−1)i+j ·
i=1
(−1)i+j · aij · det Dij
j=1


+ − + ···

− + −




..
Das Vorzeichen für die Entwicklung ergibt sich aus folgender Matrix:

.
+
−


..
.
Vereinfacht: Man reduziert die Determinantenberechnung auf kleiner
Matrizen. Man summiert (−1)i+j ·aij ·det Dij auf. Wobei das Vorzeichen((−1)i+j )
aus der obenstehenden Matrix ausgelesen werden kann, aij der Wert an der
aktuellen Stelle ist und det Dij die Determinante der um i-te Zeile und j-te
Spalte reduzierten Matrix. (−1)i+j · det Dij ist der Kofaktor Aij
Inverse Matrix berechnen A−1 =
 bezeichnet die Kofaktormatrix.
32
1
det A
· ÂT
Cramersche Regel Ausgangspunkt ist ein lineares Gleichungssystem mit
Koeffizientenmatrix A und dem Lösungsvektor b in der Form Ax = b.
Das Gleichungssytem hat eine gleiche Anzahl an Gleichungen sowie Unbekannten (A ist quadratisch) und ist eindeutig lösbar ist. Das Gleichungssystem ist genau dann eindeutig lösbar, falls det(A) 6= 0 ist.
In diesem Fall kann die i-te Lösung x durch:
i)
xi = det(A
det(A) bestimmt werden.
Die Matrix Ai wird gebildet, indem die i-te Spalte durch Lösungsvektor b
ersetzt wird.
7.7
Eigenwerte und Eigenvektoren
Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht
verändert wird. Ein Eigenvektor wird also nur gestreckt, und man bezeichnet den Skalierungsfaktor als Eigenwert der Abbildung.
Definition Eigenwert lineare Abbildung f : V −→ V
λ ∈ K ist Eigenwert von f, falls ∃~x ∈ V \ {~0} : f (~x) = λ · ~x
Definition Eigenvektor Man nennt ~x den zum Eigenwert λ zugehörigen
Eigenvektor. ~x ∈ K n : A · ~x = λ · ~x
Eigenwertberechnung Die Gleichung (λ · In − A) = XA (λ) nennt man
charakteristisches Polynom. λ ist genau dann Eigenwert, wenn XA (λ) = 0.
det (λ · In − A) = 0 bildet eine Gleichung, welche mittels der Lösungsformel
gelöst werden kann(bei Polynomgrad 2).
Durch lösen der Gleichungen erhält man die Eigenwerte.
Eigenvektorberechnung Durch Einsetzen der Eigenwerte λn in die Gleichung:
(λ · In − A) · ~x = ~0
erhält man eine Lineares Gleichungssystem welches als Ergebnis die Eigenvektoren liefert. Der Eigenvektor ist kein eindeutiges Ergebnis, da die Vektoren immer beliebig gestreckt werden kann und trotzdem die Eigenschaften
eines Eigenvektors erfüllt.
Diagonalisierbare Matrix Wenn gilt A = T ·diag(λ1 , · · · , λn )·T −1 dann
nennt man A diagonalisierbar.
T = (x~1 , · · · , x~n )
So lässt sich zum Beispiel die Potenz der Matrix A einfach folgendermaßen
bestimmen:
m
Am = T ·D·T −1 ·T ·D·T −1 · · · T ·D·T −1 = T ·Dm ·T −1 = T ·diag(λm
1 , · · · , λn )·
T −1
33
7.8
Skalarprodukt
Definition Das Skalarprodukt ist definiert als:
h~x, ~y i = x1 · y1 + x2 · y2 + · · · + xn · yn
Orthogonalität
zueinander.
Falls h~x, ~y i = 0 heißen die beiden Vektoren orthogonal
Rechenregeln
1. h~x, ~y i = h~y , ~xi
2. h~x, y~2 + y~2 i = h~x, y~1 i + h~x, y~2 i
3. hλ · ~x, ~y i = h~x, λ · ~y i = λ · h~x, ~y i
4. h~x, ~xi ≥ 0 ∧ h~x, ~xi = 0 ⇔ ~x = ~0
Länge eines Vektors ||~x|| =
p
p
h~x, ~xi = x21 + x22 + · · · + x2n
Normierter Vektor ||~x|| = 1
Eigenschaften der Länge eines Vektors
1. ||~x|| ≥ 0 ∧ ||~x|| = 0 ⇔ ~x = ~0
2. ||λ · ~x|| = |λ| · ||~x||
3. Dreiecksregel: ||~x + ~y || ≤ ||~x|| + ||~y ||
4. ||~x + ~y ||2 = (||~x|| + ||~y ||)2
Cauchy-Schwarz-Ungleichung
| h~x, ~y i | ≤ ||~x|| · ||~y ||
Pythagoräischer Lehrsatz ~x, ~y orthogonal : ||~x + ~y ||2 = ||~x||2 + ||~y ||2
Winkel zwischen Vektoren cos ϕ =
7.8.1
h~
x,~
yi
||~
x||·||~
y ||
Orthonormalbasis
Die Basis B = {b~1 , · · · b~n } ist Orthonormalbasis wenn alle Basisvektoren
paarweise orthogonal
zueinander sind.
(
D
E
0
i
=
6
j
b~i , b~j =
1 i=j
34
Satz
~x ∈
Rn
Ist B Orthonormalbasis, dann gilt
E
n D
P
: ~x =
~x, b~i · b~i
i=1
Definition P ∈ Rn×n heißt orthogonale Matrix, falls die Spalten von P
ein Orthonormalbasis bilden.
7.8.2
Orthogonale Matrix
P T · P = In → P T = P −1
Spektralsatz In einer symmetrischen reellen Matrix a ⊆ Rn×n gilt:
Es gibt reelle Eigenwerte und eine zugehörige Orthonormalbasis von Eigenvektoren.

λ1 · · · 0


A = P ·  0 ... 0  · PT
0
7.9
···
λn
Algebra für Analysis
• Matrix G heißt positiv definit: f (~x) = ~xT · G · ~x > 0, ∀~x ∈ Rn \ {0}
• Matrix G heißt negativ definit: f (~x) = ~xT · G · ~x < 0, ∀~x ∈ Rn \ {0}
• Ansonsten heißt Matrix G indefinit.
Wie feststellen ob positiv/negativ definit?
1. Spektralsatz:
• positiv definit: alle Eigenwerte ¿ 0
• negativ definit: alle Eigenwerte ¡ 0
• indefinit: Mischung
2. Hauptminorenkriterium
35
8
Algebraische Codierungstheorie
TODO work in progress
8.1
Gruppencodes
8.2
Linearcodes
36
Herunterladen