Formelsammlung Mathestudium FH-Trier - Wolfgang

Werbung
Formelsammlung
Mathematische Grundlagen
für die Informatik
Wolfgang Führer
[email protected]
August 2007
Inhaltsverzeichnis
1 Lineare Algebra
1.1
1
Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.1
Abelsche Gruppe (1 Operation - + oder *) . . . . . . . . . . . . .
1
1.1.2
Körper ( 2 Operationen - + und *) . . . . . . . . . . . . . . . . . .
1
1.1.3
Vektorraum V über K . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.1.4
Linearkombination . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.1.5
Linear unabhängig . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.1.6
Dimension von V . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.7
Homomorphismus (lineare Abbildung) . . . . . . . . . . . . . . . . 14
1.1.8
Bilinearform
1.1.9
Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.10 Orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.1.11 Orthogonalraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2
1.3
1.4
Lineare Gleichungssysteme (LGS) . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.1
Matrizenprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.2
Lösungsmenge eines LGS . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.3
Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.4
Gauss-Jordan-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 22
Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3.1
Typen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3.2
Matrizen Transposition . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.3
Matrizen Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.4
Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.5
Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.3.6
Matrizentransformationen . . . . . . . . . . . . . . . . . . . . . . . 27
Determinanten und invertierbare Matrizen . . . . . . . . . . . . . . . . . . 28
1.4.1
Matrix Aij
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
ii
Inhaltsverzeichnis
1.4.2
Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.3
Reguläre Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.4
Matrixgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.5
Inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2 Graphentheorie
2.1
34
Graphen Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.1.1
Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.1.2
Schlinge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.1.3
Schlichter Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.1.4
Grad eines Knoten . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.5
Handschlaglemma . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.6
Vollständiger Graph . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.7
Komplementgraph . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.1.8
Untergraph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.1.9
Kantenzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.10 Zusammenhängender Graph . . . . . . . . . . . . . . . . . . . . . . 37
2.1.11 Isomorphe Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.12 Wald . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.1.13 Baum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2
2.3
2.4
2.5
Gerichtete Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1
Gerichteter Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.2
Grad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.3
Gerichteter Kantenzug . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.4
Starker Zusammenhang . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.5
Azyklischer Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Darstellung von Graphen im Computer . . . . . . . . . . . . . . . . . . . 40
2.3.1
Adjazenzmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.2
Adjazenzliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Durchsuchen von Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.1
Tiefensuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.2
Artikulationspunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.3
Breitensuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.4
Topologisches Sortieren . . . . . . . . . . . . . . . . . . . . . . . . 44
Kreis und Wegeprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.5.1
Eulersche Kreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
iii
Inhaltsverzeichnis
2.6
2.7
2.5.2
Algorithmus von Hierholzer . . . . . . . . . . . . . . . . . . . . . . 46
2.5.3
Hamiltonsche Kreise . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Kürzeste Wege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.1
Kantengewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.2
Abstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.3
Algorithmus von Dijkstra . . . . . . . . . . . . . . . . . . . . . . . 48
Aufspannende Bäume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.7.1
Aufspannender Baum . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.7.2
Minimal aufspannender Baum . . . . . . . . . . . . . . . . . . . . . 51
2.7.3
Abzählung von aufspannenden Bäumen . . . . . . . . . . . . . . . 52
2.7.4
Prüfercode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.7.5
Algorithmus von Prim . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.7.6
Algorithmus von Kruskal . . . . . . . . . . . . . . . . . . . . . . . 55
2.7.7
Traveling Salesman Problem (TSP) . . . . . . . . . . . . . . . . . . 56
3 Wahrscheinlichkeit
3.1
3.2
3.3
3.4
57
Der Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.1
Ereignisfeld I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.2
Vollständiges Ereignissystem . . . . . . . . . . . . . . . . . . . . . 58
3.1.3
Eigenschaften der relativen Häufigkeit . . . . . . . . . . . . . . . . 58
3.1.4
Eigenschaften der Wahrscheinlichkeit . . . . . . . . . . . . . . . . . 58
3.1.5
De Morgansche Regeln . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1.6
Kombinatorische Formeln . . . . . . . . . . . . . . . . . . . . . . . 59
Der klassische Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . 59
3.2.1
Laplace Versuch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.2
Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . 60
3.2.3
Produktformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.4
Stochastisch unabhängig . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.5
Produktformel für bedingte Wahrscheinlichkeit . . . . . . . . . . . 61
Totale Wahrscheinlichkeit und Bayes’sche Formel . . . . . . . . . . . . . . 62
3.3.1
Totale Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . 62
3.3.2
Formel von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Diskrete Zufallsgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.1
Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.2
Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.3
Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
iv
Inhaltsverzeichnis
3.5
Stetige Zufallsgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.1
Dichtefunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.2
Verteilungsfunktion
3.5.3
Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . 67
3.5.4
Gleichverteilung auf [a,b] . . . . . . . . . . . . . . . . . . . . . . . 68
3.5.5
Dreiecksverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.5.6
Exponentialverteilung mit Parameter λ . . . . . . . . . . . . . . . 68
3.5.7
Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.5.8
Satz von Moivre und Laplace . . . . . . . . . . . . . . . . . . . . . 69
3.5.9
Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . 70
. . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.10 Ungleichung von Tschebyscheff . . . . . . . . . . . . . . . . . . . . 70
3.5.11 Übersichtstabelle Verteilungsfunktionen . . . . . . . . . . . . . . . 71
4 Formeln
72
4.1
Differentialrechnung - Regeln zur Ableitung . . . . . . . . . . . . . . . . . 72
4.2
Integralrechnung - Stammfunktionen und Regeln . . . . . . . . . . . . . . 73
5 Programme
74
5.1
Geogebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.2
Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.3
yEd Graph Editor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.4
math4u2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.5
GraphAnalyser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.6
Lyx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.7
Sonstiges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6 Literaturverzeichnis
90
v
1 Lineare Algebra
1.1 Vektorräume
1.1.1 Abelsche Gruppe (1 Operation - + oder *)
Eine Abelsche Gruppe (G,◦) besteht aus einer Menge G und einer Operation ◦ : G×G →
G, (a, b) → a ◦ b, so dass folgende Axiome erfüllt sind:
1. (a ◦ b) ◦ c = a ◦ (b ◦ c), ∀a, b, c ∈ G (Assoziativgesetz)
2. Es gibt ein neutrales Element e ∈ G mit ∀a ∈ G : e ◦ a = a = a ◦ e
3. Es gibt ein inverses Element e ∈ G mit ∀a ∈ G, ∃a0 ∈ G : a0 ◦ a = e = a ◦ a0
4. ∀a, b ∈ G : a ◦ b = b ◦ a (Kommutativgesetz)
1.1.2 Körper ( 2 Operationen - + und *)
Ein Körper ist eine algebraische Struktur, bestehend aus einer Menge K von Elementen,
zusammen mit den Verknüpfungen + und *. Die Verknüpfungen ordnen je zwei Elementen α, β ∈ K wieder ein Element α + β und α ∗ β aus der Menge K zu. Damit eine solche
Menge K als Körper bezeichnet werden kann, müssen verschiedene Gesetze erfüllt sein:
1. (K, +) ist eine abelsche Gruppe mit neutralem Element 0.
2. (K \ {0} , ∗) ist eine abelsche Gruppe mit dem neutralen Element 1.
3. ∀α, β, γ ∈ K : α ∗ (β + γ) = (α ∗ β) + (α ∗ γ) (Distributivgesetz)
1
1 Lineare Algebra
1.1.3 Vektorraum V über K
Es gibt eine Verknüpfung ∗ : K × V → V mit den Eigenschaften:
1∗x = x
x∈V
α ∗ (x +v y) = α ∗ x +v α ∗ y
α ∈ K, x, y ∈ V
(α +k β) ∗ x = α ∗ x +v β ∗ x
α, β ∈ K, x ∈ V
(α · β) ∗ x = α ∗ x +v β ∗ x
α, β ∈ K, x ∈ V
(1.1)
Das additive Einselement von V ist 0v und heißt Nullvektor von V .
Jeder Vektorraum V besitzt zwei “triviale” Unterräume, nämlich U = {0} und U = V .
Satz:
Sei V ein Vektorraum über dem Körper K. U ⊆ V ist genau dann ein Unterraum von
V, wenn für alle α, β ∈ K und alle a, b ∈ U gilt:
α∗a+β∗b∈U
2
(1.2)
1 Lineare Algebra
1.1.3.1 Beispiel
Ist U1 = {(x, y) | 3x − 4y = 0} ein Unterraum von R2 ?
Feststellung: Unterraum ist gegeben wenn α ∗ a + β ∗ b ∈ U
Gegeben: α, β ∈ R und (k, l), (m, n) ∈ U1
Das heißt:
3k − 4l = 0
3m − 4n = 0
(a)
(b)
Zu zeigen: α(k, l) + β(m, n) ∈ U1
(c)
Rechnung:
α(k,l)+β(m,n)
=
(αk,αl)+(βm,βn)
=
(αk+βm,αl+βn)
Eingesetzt:
3(αk+βm)−4(αl+βn)
=
0
=
3αk+3βm−4αl−4βn
=
α(3k−4l)+β(3m−4n)
=
α· 0
=
+β·
0
(d)
0
wegen (a) und (b)
(e)
Man sieht, dass (e) = (d) und somit ist (c) bewiesen. U1 ist ein Unterraum von R2 .
3
1 Lineare Algebra
1.1.3.2 Beispiel
Ist U2 = {(x, y) | x − 2y = 1} ein Unterraum von R2 ?
Feststellung: Unterraum ist gegeben wenn α ∗ a + β ∗ b ∈ U
Gegeben: α, β ∈ R und (k, l), (m, n) ∈ U2
Das heißt:
k − 2l = 1
m − 2n = 1
(a)
(b)
Zu zeigen: α(k, l) + β(m, n) ∈ U2
(c)
Rechnung:
α(k,l)+β(m,n)
=
(αk,αl)+(βm,βn)
=
(αk+βm,αl+βn)
Eingesetzt:
(αk+βm)−2(αl+βn)
=
1
=
αk+βm−2αl−2βn
=
α(k−2l)+β(m−2n)
=
α·
=
1
+β·
(α+β)·1
(d)
1
wegen (a) und (b)
(e)
Man sieht, dass (e) 6=(d). U2 wäre nur dann ein Unterraum von R2 wenn (α + β) = 1. Deshalb ist U2 kein
Unterraum von R2 .
Satz:
Die skalaren Vielfachen eines Vektors bilden einen Unterraum.
Satz:
Sei V ein Vektorraum über dem Körper K und x ∈ V dann gilt:
1. SpanK (x) = {y | y = α ∗ x, a ∈ K} ist ein Unterraum von V
2. Sei y ∈ SpanK (x) mit y 6= 0. Dann SpanK (x) = SpanK (y)
(jedes Element von SpanK (x) - außer dem Nullvektor - kann also als “Vertreter”
dieses Unterraums gewählt werden).
4
1 Lineare Algebra
1.1.4 Linearkombination
Es sei V ein Vektorraum über K sowie α1 , ..., αm ∈ K und a1 , ..., am ∈ V, m ≥ 1. Dann
heißt
a=
m
X
αi ai = α1 a1 + ... + αm am
i=1
eine Linearkombination von a1 , ..., am .
Satz:
Sei V ein Vektorraum über dem Körper K und
A = {x1 , ..., xm } ⊆ V
eine nicht leere Menge von Vektoren aus V. Dann ist
SpanK (A) = {α1 x1 + α2 x2 + ... + αm xm | αi ∈ K, 1 ≤ i ≤ m}
ein Unterraum von V .
Die Menge der Linearkombinationen von Vektoren eines Vektorraums bilden einen von
diesen Vektoren aufgespannten Unterraum.
Man schreibt auch SpanK (A) = Kx1 + ... + Kxm =
Pm
i=1 Kxi
oder noch kürzer
SpanK (A) = K · A .
1.1.5 Linear unabhängig
Sei V ein Vektorraum über dem Körper K. Die Vektoren a1 , ..., am ∈ V heißen linear
abhängig, falls es eine nicht triviale Linearkombination gibt, mit
α1 a1 + ... + αm am = 0
Die triviale Linearkombination wäre wenn α1 = α2 = ... = αm = 0 .
5
(1.3)
1 Lineare Algebra
Satz:
Sei V ein Vektorraum über dem Körper K, dann sind die Vektoren a1 , ..., am ∈ V
linear abhängig genau dann, wenn mindestens ein Vektor ai eine Linearkombination der
anderen ist.
m
X
ai =
αj aj
j=1,j6=i
Eine Menge von Vektoren ist linear unabhängig genau dann, wenn sich keines ihrer
Elemente als Linearkombination der anderen Elemente darstellen läßt.
1.1.5.1 Beispiel
Beweisen sie das die Vektoren B =













1
1
0


,

1
0
1



,

0
1
1











linear unabhängig sind!
Feststellung: Die Vektoren sind linear unabhängig, wenn es für die Linearkombination



α·

1
1
0






+β·


1
0
1






+γ·


0
1
1
 
 
 
=
 
0
0
0





nur die triviale gibt.
D.h. wenn α = β = γ = 0 sind (nach 1.3).
Rechnung:
α
α
+
β
β
...
β
...
−γ
α
...
+
...
−γ
α
...
+
β
...
β
...
α,
γ
...
β,
...
⇒
+
+
...
γ
γ
...
+
+
...
γ
γ
...
+
+
...
γ
γ
γ
...
=
=
=
...
=
=
=
...
=
=
=
...
=
0
0
0
...
0
0
0
...
0
0
0
...
0
⇒
α = −γ
⇒
β=γ
⇒
γ=0
⇒
triviale F orm
Somit sind die Vektoren linear unabhängig und stellen einen Unterraum in R3 dar. SpanK (B) = R3 .
6
1 Lineare Algebra
Alternative Rechnung mittels Gauss-Jordan:

1 1 0 |

 1 0 1 |
0 1 1 |

1 1 0 |

 0 0 2 |
0 1 1 |

1 0 −1 |

1
|
 0 0
0 1
1
|

1 0 0 |

 0 0 1 |
0 1 0 |

0

0 
0

0

0 
0

0

0 
0

0

0 
0
Z2−Z1
−→
Z2+Z3
Z2/2
−→
Z1−Z3
Z1+Z2
−→
Z3−Z2
⇒ α = 0, β = 0, γ = 0
Alternative Rechnung mittels Determinante:


1 1 0


Wenn die Determinante det  1 0 1  6= 0 dann sind die Vektoren linear unabhängig.
0 1 1

1

det  1
0
1
0
1
+

0
&

1  nach Sarrus:
1
+
&
1
1
0
+
&
1
0
1
0
1
1
−
.
1
1
0
−
.
1
0
1
−
.
= 1·0 · 1 + 1 · 1 · 0 + 0 · 1 · 1 − 0 · 0 · 0 − 1 · 1 · 1 − 1 · 1 · 1 = 0 + 0 + 0 − 0 − 1 − 1 = −2
Die Determinante ergibt -2, somit 6= 0 und somit sind die Vektoren linear unabhängig.
7
1 Lineare Algebra
1.1.5.2 Beispiel






1
1
1






Im Vektorraum R3 betrachten wir die Vektoren u =  2  , v =  2  , w =  2 . Zeigen sie, dass
2
−1
5
sich w aus einer Linearkombination von u und v darstellen lässt.
Zu zeigen: α · u + β · b = w
Wenn man u, v und w als Matrix sieht und u, v ∈ A , w ∈ B dann ist
·
A

1

 2
2

1

2 
−1
x
α
β
·
=
B
=
B
!
Die Matrixmultiplikation entspricht
1α + 1β
=
1
2α + 2β
=
2
2α + (−1)β
=
5
Die zweite Zeile kann wegfallen, da sie Zeile 1 entspricht. Wir lösen mit erweiterter Koeffizientenmatrix:
1
2
1
−1
|
|
1
5
!
→
1
0
1
−3
|
|
1
3
!
→
1
0
1
1
Also ist 2 · u + (−1) · v = w.
8
|
|
1
−1
!
→
1
0
0
1
|
|
2
−1
!
⇒ α = 2, β = −1
1 Lineare Algebra
1.1.5.3 Beispiel
Stellt B =












1
1
0



,

1
0
1



,

0
1
1











= SpanK (B) eine Basis für R3 dar?
Feststellung: Die Vektoren stellen eine Basis für R3 dar, wenn die Skalare α, β und γ in der Linearkombination



α·

1
1
0






+β·


1
0
1






+γ·


0
1
1
 
 
 
=
 
x
y
z





durch x, y und/oder z darstellbar sind und linear unabhängig sind.
Lineare Unabhängigkeit wurde in der vorangegangenen Aufgabe festgestellt.
Rechnung:
α
α
+
β
β
...
β
...
(y − γ)
α
...
+
...
(y − γ)
α
...
+
β
...
β
...
(x − y + γ)
...
...
γ
=
+
+
...
γ
γ
...
+
+
...
γ
γ
...
+
+
...
γ
γ
...
=
=
=
...
=
=
=
...
=
=
=
...
z−x+y
2
x
y
z
...
x
y
z
...
x
y
z
...
⇒
α=y−γ
⇒
β =x−y+γ
⇒
γ=
(c)
9
z−x+y
2
(a)
(b)
1 Lineare Algebra
(c) in (b) eingesetzt
β
=
x−y+γ
=
x−y+ z−x+y
2
=
2x − 2y + z−x+y
2
2
2
=
x+z−y
2
=
y−γ
=
y− z−x+y
2
=
2y
− z−x+y
2
2
=
y+x−z
2
(d)
(c) in (a) eingesetzt
α
(e)
Da α, β und γ wie in (e), (d) und (c) gezeigt durch x, y, z darstellbar sind (und die Vektoren linear unabhängig
sind - Aufgabe davor) stellt B eine Basis für R3 dar.
Alternative Rechnung mittels Gauss-Jordan:


1 1 0 | x


 1 0 1 | y 
0 1 1 | z


1
1
0 | x


 0 −1 1 | y − x 
1
1 | z
 0

1 1 0 | x


 0 0 2 | y−x+z 
0 1 1 | z

1 1 0 | x


 0 0 1 | y−x+z

2
0
1
1
|
z

1 0 −1 | x − z

 0 0
1
| y−x+z
2
2z
0
1
0
|
− y−x+z
= z+x−y
2
2
2

y−x+z
2x−2z
+
= x+y−z
1 0 0 |
2
2
2

 0 0 1 | y−x+z
2
0 1 0 | z+x−y
2

1 0 0 | x+y−z
2


 0 0 1 | y−x+z

2
0 1 0 | z+x−y
2
Z2−Z1
−→
Z2+Z3
−→
Z1−Z3
−→
Z2/2
Z3−Z2
−→

Z1+Z2
−→



−→


⇒


 α=
γ=


β=
x+y−z
2
y−x+z
2
z+x−y
2





Kommt zum gleichen Ergebnis. Achtung beim Auslesen von β und γ! 2. Spalte ist β, 3. Spalte ist γ!
10
1 Lineare Algebra
1.1.6 Dimension von V
Sei V ein endlichdimensionaler Vektorraum über dem Körper K und B ∈ V eine Basis
von V. Dann heißt din(V ) =| B | die Dimension von V. Für den Vektorraum V = {0}
setzen wir dim(V ) = 0.
Für jeden Körper K gilt:
dim(K n ) = n
(1.4)
1.1.6.1 Beispiel
Berechnen sie die Koordinaten des Vektors (1, 1, 1) ∈ R3 bezüglich der Basis B =












1
1
0



,

1
0
1



,

0
1
1






 .




Rechnung:
Die Lösung aus der Aufgabe zuvor zeigt, das α =
x+y−z
2
,β=
z+x−y
2
und γ =
y−x+z
2
sind.
Für (x, y, z) = (1, 1, 1) gilt:

(1, 1, 1)
=

1+1−1 

2


=

1
2

1
1
0

1
1
0




 1−1+1 
+

2





 1
+ 2 


1
0
1




 1
+ 2 


1
0
1
0
1
1




 1−1+1 
+

2


0
1
1










Die Koordinaten von (1, 1, 1) bezüglich B sind also ( 12 , 12 , 12 ).
Man kann die Aufgabe aber auch ohne vorherige Berechnung von α, β und γ lösen. Man nutzt dazu die Matrizenmultiplikation.





1   1   0 









Die Basisvektoren B = 
stellen dabei die Matrix B dar. Multipliziert man die Basis B
 1 , 0 , 1 









0
1
1 
mit dem Vektor X der Basis, erhält man die Koordinaten C = (1, 1, 1) bezüglich B . Formal wird das deutlicher:

1

 1
0
B
1
0
1

0

1 
1
∗
X
=
∗
X
=
 C 
1


 1 
1
11
⇒
X
=
B −1
∗
⇒
X
=
B −1
∗
 C 
1


 1 
1
1 Lineare Algebra
Wir müssen also die inverse Matrix B −1 bestimmen. Das geht mit Gauss-Jordan indem wir B zu einer Einheitsmatrix umwandeln und seine Einheitsmatrix E alle Operationen mitmachen lassen.
···
1
1
0
···
1
0
0
···
1
0
0
···
1
0
0
···
1
0
0
···
1
0
0
···
B
···
1
0
1
···
1
−1
1
···
1
0
1
···
0
0
1
···
0
0
1
···
0
1
0
···
E
···
0
1
0
···
0
1
1
···
0
2
1
···
−1
1
1
···
0
1
0
···
0
0
1
···
···
|
|
|
···
|
|
|
···
|
|
|
···
|
|
|
···
|
|
|
···
|
|
|
···
···
1
0
0
···
1
−1
0
···
1
−1
0
···
1
− 12
0
···
E
···
0
1
0
···
0
1
0
···
0
1
0
···
0
···
0
0
1
···
0
0
1
···
0
1
1
···
−1
1
2
1
2
0
···
1
···
− 12
1
2
− 12
1
2
1
2
1
2
− 12
···
···
1
2
1
2
− 12
1
2
− 12
1
2
···
···
B −1
⇒
X
Z2 − Z1
−→
Z2 + Z3
−→
Z2/2
−→
Z1 − Z3
Z1 + Z2
−→
Z3 − Z2
Z2 ↔ Z3
−→
1
2
1
2
···
− 12
1
2
1
2
···
Setzen wir nun in obige Formel ein:

1

 1
0
B
1
0
1
∗
X
=

0

1 
1
∗
X
=
 C 
1


 1 
1
B −1
=

⇒
X
=
=


1
2
1
2
− 12
1
2
− 12
1
 2
1
 21
 2
1
2
∗
− 12

1
2
1
2



∗
 C 
1


 1 
1


Die Koordinaten von (1, 1, 1) bezüglich B sind also ( 12 , 12 , 12 ).
Diese Methode scheint keinen (Schreib-)Vorteil gegenüber der anderen zu haben, allerdings sollte man bedenken
das das erzeugen einer inversen Matrix bei einem Taschenrechner oder einem CAS-Programm nur ein Tastendruck
ist und “Invert(B)*C” sofort das Ergebnis liefert. Für die praktische Arbeit ist das Wissen um diese Vorgehensweise unerlässlich.
12
1 Lineare Algebra
Die sinnvollste Vorgehensweise auf Papier wäre aber:
B
∗
X
=
⇒
C
E
∗
X
dann ist X = C.

1 1 0

 1 0 1
 0 1 1
1
1
0

 0 −1 1
1
1
0
1 1 0

 0 0 2
 0 1 1
1 1 0

 0 0 1
 0 1 1
1 1 0

 0 0 1
 0 1 0
1 0 0

 0 0 1
 0 1 0
1 0 0

 0 1 0
0 0 1

1

1 
1 
| 1

| 0 
| 1
| 1

| 1 
| 1 
| 1

| 12 
| 1 
| 1

| 12 
1
| 2 
| 12

| 12 
| 12 
| 12

| 12 
1
| 2
|
|
|
Die Koordinaten von (1, 1, 1) bezüglich B sind also ( 12 , 12 , 12 ).
13
Z2−Z1
−→
Z2+Z3
−→
Z2÷2
−→
Z3−Z2
−→
Z1−Z3
−→
Z2↔Z3
−→
=
C
1 Lineare Algebra
1.1.7 Homomorphismus (lineare Abbildung)
Seien V und W Vektorräume über dem Körper K und die Abbildung f : V → W sei
definiert durch:
f (a + b) = f (a) + f (b)
f (α ∗ a) = α ∗ f (a)
(1.5)
für alle a, b ∈ V und α ∈ K, dann heißt f lineare Abbildung oder Homomorphismus. Wenn f zusätzlich bijektiv ist, d.h. es existiert ein Umkehrhomomorphismus, dann
spricht man von einem Isomorphismus.
Satz:
Sei f : V → W ein lineare Abbildung des Vektorraums V auf den Vektorraum W. Dann
gilt:
1. f (~0) = ~0
2. f (α ∗ a + β ∗ b) = α ∗ f (a) + β ∗ f (b) für alle a, b ∈ V und alle α, β ∈ K
3. f (−a) = −f (a) für alle a ∈ V
4. Die Menge Bild(f ) = {f (x) | x ∈ V } ist ein Unterraum von W, der so genannte
Bildraum von f.
5. Die Menge Kern(f ) = {x ∈ V | f (x) = ~0} ist ein Unterraum von W, der so
genannte Kern von f.
Satz:
Es seien V und W endlichdimensionale Vektorräume über dem Körper K sowie
f : V → W eine lineare Abbildung von V nach W. Dann gilt:
dim(v) = dim(Kern(f )) + dim(Bild(f )
14
(1.6)
1 Lineare Algebra
Folgerung:
Sei f : V → W eine lineare Abbildung des Vektorraums V auf den Vektor W. Dann gilt:
1. ~0 ∈ Kern(f ) Der Kern ist also niemals leer.
2. f ist injektiv genau dann, wenn Kern(f ) = {~0} gilt.
3. f ist surjektiv genau dann, wenn Bild(f ) = W gilt.
4. Ist f bijektiv (injektiv und surjektiv), dann ist f −1 eine lineare Abbildung von W
nach V.
15
1 Lineare Algebra
1.1.7.1 Beispiel
Sei f : R3 → R eine Abbildung definiert durch: f (x, y, z) = x + y + z.
a) Ist f eine lineare Abbildung?
Wenn f eine lineare Abbildung ist gilt:
1.
f (a + b) = f (a) + f (b)
2.
f (α ∗ a) = α ∗ f (a)
Für (k, l, m), (r, s, t) ∈ R3 und α ∈ R muß gelten:
1.



f 


s
 

 

l + r 
 

m
t

linke Seite:


f 


rechte Seite:


f

 
k
 
k
l
m

k
l
m





+f 


=




r
s
t


r






l +f  s 



m
t
k


f


s
r
t
 
 
+
 




=
=
k+r 

l+s 

m+t
k+r+l+s+m+t
k+l+m+r+s+t
(a)
=
k+l+m+r+s+t
(b)
=


f






2.


 
 
f α∗
 
 
linke Seite:
 
 
f α
 

rechte Seite:


α∗f 

k
l
m








α∗f 

k
l
m

k
l
m
=




k
l
m







=
αk 


αl 

αm
αk + αl + αm
=
α ∗ (k + l + m)
=
αk + αl + αm
=


f 

(c)





(d)
Da 1. (a) = (b) und 2. (c) = (d) sind die Bedingungen erfüllt und f ist eine lineare Abbildung.
16
1 Lineare Algebra
b) Bestimmen sie Bild(f )!
Zu jeder Zahl z ∈ R existiert z.B. das Tripel (z, 0, 0) ∈ R3 mit f (z, 0, 0) = z + 0 + 0 = z . Somit ist Bild(f ) = R
da jedes z ∈ R dargestellt werden kann.
c) Bestimmen sie Kern(f )!
Kern(f )
=
=
=
=
(x, y, z) ∈ R3 | f (x, y, z) = 0
(x, y, z) ∈ R3 | x + y + z = 0
(x, y, z) ∈ R3 | x + y = −z
(x, y, −(x + y)) ∈ R3 | x, y ∈ R
Der Kern(f ) besteht somit aus Tripel, die aus einer beliebigen Kombination von x, y ∈ R gebildet werden.
Folgerung für f :
aus a) f ist eine lineare Abbildung (Homomorphismus)
aus b) Bild(f ) = R.
ist f surjektiv
n Somit
o
aus c) Kern(f ) 6= ~0 . Somit ist f nicht injektiv.
Somit ist f ein Homomorphismus von V → W aber kein Isomorphismus weil c) nicht gegeben ist.
1.1.8 Bilinearform
Sei V ein Vektorraum über dem Körper K. Gelten für die Abbildung φ : V × V → K
die Bedingungen
φ(α ∗ x + β ∗ y, z) = α ∗ φ(x, z) + β ∗ φ(y, z)
φ(x, α ∗ y + β ∗ z) = α ∗ φ(x, y) + β ∗ φ(x, z)
(1.7)
für alle x, y, z ∈ V und α, β ∈ K, dann heißt φ eine Bilinearform. Gilt zusätzlich φ(x, y) =
φ(y, x), dann heißt φ symmetrische Bilinearform.
17
1 Lineare Algebra
1.1.8.1 Beispiel
Die Abbildung φ : R3 × R3 → R sei definiert durch


k
l
m


φ 

r
s
t


,











⇐⇒
k
l
m
 
 
 
φ
 

r
s
t


=kr+ls−mt

a) Ist φ eine Bilinearform?
Für (k, l, m), (r, s, t), (u, v, w) ∈ R3 und α, β ∈ R muß gelten:
=
φ(α∗x+β∗y,z)
α∗φ(x,z)+β∗φ(y,z)
1.


 
 
φα∗
 
linke Seite:
k
l
m






+β∗


r
s
t

u
v
w


,









φ 

=




α∗φ

rechte Seite:
αk
αl
αm



,

u
v
w






+β∗φ



βr
βs
βt






=


φ

=
=
=
αku+βru+αlv+βsv−αmw−βtw
αku+αlv−αmw+βru+βsv−βtw
=
α∗(ku+lv−mw)+β∗(ru+sv−tw)
=
αku+αlv−αmw+βru+βsv−βtw
(αk+βr)u+(αl+βs)v−(αm+βt)w
(a)

u
v
w


,

 
αk   βr   u

 
+ βs , v
αl 

 
w
βt
αm


αk + βr   u 


, v 
αl + βs 


αm + βt
w




(b)
2.



φ 

k
l
m



linke Seite:


φ


rechte Seite:
r
s
t

k
l
m





,α∗




α∗φ

k
l
m



,


u
v
w




+β∗







,α∗


r
s
t

r
s
t






=


α∗φ


u
v
w





+β∗







+β∗φ


k
l
m
k
l
m



,

r
s
t






+β∗φ


k
l
m



,

u
v
w











=


φ 

=
=
=
αkr+βku+αls+βlv−αmt−βmw
αkr+αkr−αmt+βku+βlv−βmw
=
α∗(kr+ls−mt)+β∗(ku+lv−mw)



,

u
v
w
k
l
m



,

αr + βu
αs + βv
αt + βw





k(αr+βu)+l(αs+βv)−m(αt+βw)




αkr+αkr−αmt+βku+βlv−βmw
Da 1. (a)=(b) und 2. (c)=(d) zutreffen ist φ eine Bilinearform.
18
(c)

(d)
1 Lineare Algebra
b) Ist φ eine symmetrische Bilinearform?

Ist


φ

k
l
m



,

u
v
w






=φ


u
v
w



,

k
l
m





?
ku+lv−mw
=
uk+lv−wm
ku+lv−mw
=
ku+lv−mw
φ ist also eine symmetrische Bilinearform.
1.1.9 Skalarprodukt
Für die Elemente eines Vektorraums ist bisher nur eine Operation bekannt, nämlich die
Addition von Vektoren. Die Multiplikation von Vektoren, das Skalarprodukt, ist wie
folgt definiert:
Sei K ein Körper. Die Abbildung ⊗ : K n × K n → K definiert durch

x1


x⊗y =
xi yi mit x = 


i=1
x2
..
.
n
X


y1





 y2 
 und y =  . 

 . 

 . 
xn
yn
(1.8)
heißt Skalarprodukt oder auch inneres Produkt von x und y.
1.1.10 Orthogonal
Sei K ein Körper. Zwei Vektoren x, y ∈ K n , n ∈ N heißen orthogonal, falls x ∗ y = 0.
Schreibweise x ⊥ y . Gilt x ⊥ y für den Vektor x, y ∈ K n , dann heißt x selbstorthogonal.
1.1.11 Orthogonalraum
Sei K ein Körper und V ein Unterraum von K n . Dann heißt die Menge
V ⊥ = {x ∈ K n | x ⊥ y f uer alle y ∈ V }
der Orthogonalraum oder Dualraum zu V.
19
1 Lineare Algebra
1.1.11.1 Beispiel
Es seien x = (1, 2, 3) und y = (8, 5, −6) Vektoren aus R3 . Sind x und y orthogonal?



x·y=(1,2,3)·

8
5
−6



=1·8+2·5+3·(−6)=0

Damit ist gezeigt das x und y orthogonal zueinander sind.
Satz:
Sei K ein Körper und V ein Vektorraum von K n . Dann gilt:
1. V ⊥ ist ebenfalls ein Unterraum von K n
2. dim(V ) + dim(V ⊥ ) = dim(K n ) = n
3. (V ⊥ )⊥ = V
4. (K n )⊥ = {0}
1.2 Lineare Gleichungssysteme (LGS)
Es sei m, n ∈ N. Ein System gmn (x) von m linearen Gleichungen mit n Unbekannten
x1 , ..., xn über einem Körper K ist gegeben durch:
a11 x1
+
a12 x2
+ ··· +
a21 x1
..
.
+
..
.
a21 x2
..
.
+ · · · + a2n Xn = b2
..
..
..
..
.
.
.
.
.
= ..
a1n xn
= b1
am1 x1 + am2 x2 + · · · + amn xn = bn
Dabei heißen die aij , bj ∈ K, 1 ≤ i ≤ m, 1 ≤ j ≤ n, Koeffizienten des Gleichungssystems,
b = (b1 , ..., bm ) ∈ K m heißt auch Ereignisvektor von gmn (x). Ist bi = 0, 1 ≤ i ≤ m, dann
heißt gmn (x) homogen, sonst inhomogen.
Für x = (x1 , ..., xn ) sei GLK
mn [x] die Menge aller (m × n)-Gleichungssysteme über dem
Körper K.
20
1 Lineare Algebra
1.2.1 Matrizenprodukt

Wenn man
b1
 b2

b=
 ..
 .
bm



 ∈ Km



und
x1
 x2

x=
 ..
 .
xn



 ∈ Kn


als (m × 1) bzw. als (n × 1) Matrizen
auffasst, läßt sich ein (m×n) Gleichungssystem gmn (x) auch als Matrizenprodukt A∗x =
b darstellen.
1.2.2 Lösungsmenge eines LGS
Ein lineares Gleichungssystem (A,b) über dem Körper K heißt lösbar, falls es einen
Vektor l = (l1 , ..., ln ) ∈ K n gibt, so dass A · l = b gibt. l heißt Lösung von (A,b) in K.
Die Menge
L(A, b) = {l ∈ K n | A · l = b}
aller Lösungen von (A,b) in K heißt Lösungsmenge von (A,b) in K. Gibt es keine Lösung,
d.h. ist L(A, b) = Ø, dann heißt (A,b) nicht lösbar in K.
Zwei Gleichungssysteme (A1 , b1 ) und (A2 , b2 ) heißen äquivalent genau dann, wenn sie dieselben Lösungen besitzen, d.h. wenn L(A1 , b1 ) = L(A2 , b2 ) gilt. Schreibweise: (A1 , b1 ) ≡
(A2 , b2 ).
Satz:
Jedes homogene Gleichungssystem (A,0) ist lösbar.
Satz:
Sind l, l1 , l2 ∈ L(A, 0), dann gilt l1 + l2 ∈ L(A, 0) sowie α · l ∈ L(A, 0) für alle α ∈ K.
1.2.3 Transformationen
Die Anwendung dieser Transformationen auf ein Gleichungssystem läßt dessen Lösungsraum unverändert.
1. Vertauschen von Zeilen
2. Vertauschen von Spalten
3. Addition eines Vielfachen einer Zeile zu einer anderen Zeile
4. Multiplikation einer Zeile mit einem Faktor
21
1 Lineare Algebra
1.2.4 Gauss-Jordan-Verfahren
Jedes Gleichungssystem (A, b) ∈ GLK
mn [x] läßt sich durch endliche Anwendung der Transformationen in ein äquivalentes Gleichungssystem der Art















1
0
..
.
0
0
..
.
0
0
1
..
.
0
0
..
.
0
···
···
..
.
···
···
···
···
0
0
..
.
1
0
..
.
0
···
···
..
.
···
···
..
.
···
a1,r+1
a2,r+1
..
.
ar,r+1
0
..
.
0
aa,n
a2,n
..
.
ar,n
0
..
.
0
b1
b2
..
.
br
br+1
..
.
bm















umformen (Gauss-Jordan-Verfahren).
1. Ist eines der bi 6= 0 für i ≥ r + 1, dann besitzt (A,b) keine Lösung.
2. Ist r=n, dann hat das Gleichungssystem die Form
x1
x2
..
.
xn
=
=
..
.
=
b1
b2
..
.
bn
Hieraus ergibt sich die eindeutige Lösung l = (b1 , ..., bn ).
3. Ist r < n, dann ergibt sich eine mehrdeutige Lösung, d.h. es gibt unendlich viele
Lösungen: Man wählt die n − r Unbekannten xr+k = λk , 1 ≤ k ≤ n − r. Die
Lösungen für xk, 1 ≤ k ≤ r ergeben sich dann durch:
xk = bk − ak,r+1 λ1 − ak,r+2 λ2 − . . . ak,n λn−r
Wählt man konkrete λk ∈ K, spricht man von einer speziellen Lösung.
• Das Gleichungssystem (A, b) ∈ GLK
mn [x] ist genau dann lösbar, wenn rang(A)=rang(A,b)
ist.
• Gilt rang(A)=n, dann besitzt das Gleichungssystem (A, b) ∈ GLK
mn [x] eine eindeutig bestimmte Lösung.
• Die Dimension des Lösungsraums des Gleichungssystems (A, 0) ∈ GLK
mn [x] ist gegeben durch
dim(L(A, 0)) = n − rang(A)
22
(1.9)
1 Lineare Algebra
1.2.4.1 Beispiel
1.
Entsteht durch die Anwendung des Gauss-Jordan-Verfahrens eine Zeile, in der links vom Gleichheitszeichen
eine Null steht und rechts eine Zahl ungleich Null, d.h. eine falsche Aussage, dann besitzt das lineare
Gleichungssystem keine Lösung.

1

A= 0
0
0
1
0

5

0 
5
⇒ 0 6= 5
−1
1
0



⇒ keine Loesung
1. F all


rang(A) =2, rang(A,B)=3 .
2.
Hat man nach Anwenden des Gauss-Jordan-Verfahrens eine Dreiecksform erhalten, so gibt es genauso viele
Gleichungen wie Unbekannte und das lineare Gleichungssystem besitzt genau eine Lösung.

1

A= 0
0
1
1
0




6

0 
⇒ x3 = 4
4
3
1
1
weiter : x2 = −4, x1 = −1
2. F all


rang(A)=3, rang(A,b)=3 .
3.
Entsteht während des Anwendens des Gauss-Jordan-Verfahrens Null-Zeilen, d.h. es gibt weniger Gleichungen als Unbekannte, dann besitzt das Gleichungssystem unendlich viele Lösungen.

1
 0

A=
 0
0
0
1
0
0
0
0
3
0
1
4
1
0
2
1
2
0
















⇒







0
0
0
0




∗x4





= 0 ⇒ x4 kann beliebig gewaehlt werden 






(A, b) ∈ GLK
44 ⇒ n = 4
rang(A, b) = rang(A) = r = 3
Da r<n gibt es eine mehrdeutige Lösung.
xr+k = λk , 1 ≤ k ≤ n − r ⇒ x3+1 = λ1 ⇒ x4 = λ1
x4 = λ 1
Die Lösungen:
x1 = b1 − a1,r+1 λ1 =
x2 = b2 − a2,r+1 λ1 =
x3 = b3 − a3,r+1 λ1 =
2 − 1 · λ1
1 − 4 · λ1
2
− 13 · λ1
3
(3. Zeile ÷ 3 !)
Der Lösungsvektor:






2
−1
2 − 1 · λ1






x =  1 − 4 · λ1  ⇒ l =  1  , l1 =  −4 
1
2
1
2
− 3 · λ1
−3
3
3
L(A, b) = {x | x = l + λ1 · l1 , λ1 ∈ R}
l ist eine spezielle Lösung (für λ1 = 0 ) des inhomogenen Gleichungssystems (A,b).
23
3. F all
1 Lineare Algebra
λ1 · l1 ist die Lösungsmenge des homogenen Gleichungssystems (A,0).
Es ist dim(L(A, 0)) = n − rang(A) = 4 − 3 = 1.
l1 ist der Basisvektor von L(A, 0).
Satz:
Die Lösungsmenge L(A, b) läßt sich wie folgt darstellen:
L(A, b) = l + L(A, 0)
1.3 Matrizen
1.3.1 Typen
Die Matrix

A
=
a1,1
 a2,1

(ai,j ) = 
..


.
am,1
a1,2
a2,2
..
.
am,2
···
···
..
.
···
a1,n
a2,n
..
.
am,n






heißt Koeffizientenmatrix.
Die Elemente a1,1 , a1,2 , ..., a1,n stellen den 1. Zeilenvektor dar. Die Elemente a1,1 , a2,1 , ..., am,1
den 1. Spaltenvektor und a1,1 , a2,2 , ..., am,n die Diagonalelemente.
Die Matrix



(A, b) = 


a1,1
a2,1
..
.
am,1
a1,2
a2,2
..
.
am,2
···
···
..
.
···
a1,n
a2,n
..
.
am,n
b1
b2
..
.
bm






heißt erweiterte Koeffizientenmatrix. Die Koeffizienten des Gleichungssystems, b = (b1 , ..., bm ) ∈
K m heißt auch Ereignisvektor.
Die Matrix



A=


a1,1
0
..
.
0
0
a2,2
..
.
0
24
···
···
..
.
···
0
0
..
.
am,n






1 Lineare Algebra
ist eine Diagonalmatrix. Nur die Diagonalelemente haben einen Wert.
Die Matrix

a1,1
 a2,1

A=
..


.
am,1
···
···
..
.
···
a1,2
a2,2
..
.
am,2
a1,m
a2,m
..
.
am,m






ist eine quadratische Matrix.
Die Matrix

1
0
..
.
0


A=


···
···
..
.
···
0
1
..
.
0
0
0
..
.
1






ist eine Einheitsmatrix. Dabei sind die Diagonalelemente 1 und die Restlichen 0. Schreibweise: A = Em oder A = E.
Die Matrix

1
0
..
.
0


A=


···
···
..
.
···
0
1
..
.
0
a
0
..
.
1






ist eine Elementarmatrix Eij (a). Hier E1j (a).
Die Matrix

1

A= 2
3
2
4
5

3

5 
6
ist eine symmetrische Matrix. Spiegelt man die Matrixelemente an der Diagonalen so
verändert sich die Matrix nicht.
Die Matrix AT
A=
a1,1
a2,1
a1,2
a2,2
a1,3
a2,3

!
⇒
ist die transponierte Matrix von A.
25
AT
a1,1

=  a1,2
a1,3

a2,1

a2,2 
a2,3
1 Lineare Algebra
1.3.2 Matrizen Transposition
k gilt: AT
1. Für alle Matrizen A ∈ Mmn
T
=A
k ist genau dann symmetrisch, falls A = AT
2. A ∈ Mmn
K und α ∈ K. Für die Transposition gelten folgende Regeln:
3. Es seien A, B ∈ Mmn
- (A + B)T = AT + B T
- (α ∗ A)T = α ∗ AT
- (A · B)T = B T · AT
1.3.3 Matrizen Addition
K und α ∈ K. Dann ist
Seien A, B ∈ Mmn
1. C = A + B definiert durch (cij ) = (aij + bij ) die Summe von A und B
2. α ∗ A definiert durch (α ∗ aij )
1.3.4 Matrizenmultiplikation
K sowie B ∈ M K . Dann ist das Produkt C = A ∗ B ∈ M K definiert
Es seien A ∈ Mml
mn
ln
durch
cij =
l
X
aik ∗ bkj , 1 ≤ i ≤ m, 1 ≤ j ≤ n
(1.10)
k=1
Durch geeignete Partitionierung lässt sich die Matrizenmultiplikation in speziellen Fällen
vereinfachen:
A = (A1 | A2 )
und
B=
dabei habe A1 p Spalten und B1 p Zeilen. Dann gilt
A ∗ B = A1 ∗ B1 + A2 ∗ B2
26
B1
B2
1 Lineare Algebra
1.3.5 Rang einer Matrix
Die maximale Anzahl linear unabhängiger Zeilenvektoren (Spaltenvektoren) einer Matrix
K heißt Rang von A, dieser wird mit rang(A)bezeichnet.
A ∈ Mmn
Satz:
K gilt, dass ihr Zeilen- und Spaltenrang gleich sind.
Für jede Matrix A ∈ Mmn
1.3.6 Matrizentransformationen
Die Anwendung folgender Operationen läßt den Rang einer Matrix unverändert.
1. Vertauschen von Zeilen
2. Vertauschen von Spalten
3. Addition eines Vielfachen einer Zeile zu einer anderen Zeile
4. Multiplikation einer Zeile mit einem Faktor
5. Addition eines Vielfachen einer Spalte zu einer anderen Spalte
6. Multiplikation einer Spalte mit einem Faktor
27
1 Lineare Algebra
1.4 Determinanten und invertierbare Matrizen
1.4.1 Matrix Aij
K , m ≥ 2, dann ist die Matrix A ∈ M K , 1 ≤ i, j ≤ m die Matrix A die
Sei A ∈ Mm
ij
ij
m−1
entsteht, wenn man aus Matrix A die i-te Zeile und die j-te Spalte herausstreicht.
1.4.2 Determinante
K mit m ≥ 2, dann ist
Sei A ∈ M1K , dann ist det(A) = a11 . Ist A ∈ Mm
det(A) = a11 ∗ det(A11 ) − a12 ∗ det(A12 ) + ... + (−1)1+m ∗ a1m ∗ det(A1m )
m
X
=
(−1)1+j ∗ aij ∗ det(Aij )
(1.11)
j=1
Für alle A ∈ M2K
a
11 a12
gilt:
a21 a22
= a11 a22 − a12 a21
1.4.2.1 Beispiel
det(A)
a
21
− a12 a31
=
a11
a21
a31
a12
a22
a32
a13
a23
a33
=
a
22
+a11 a32
a23
a33
=
+a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
a23
a33
a
21
+ a13 a31
a22
a32
Die Berechnung von Determinanten erfolgt immer nach Entwicklung von Zeilen und Spalten. In diesem Beispiel
nach der Entwicklung der 1. Zeile.
1
det(A) = 4
7
2
5
8
3
6
9
=
5
1
8
=
1 · (−3) − 2 · (−6) + 3 · (−3)
=
0
28
6
9
4
− 2
7
6
8
4
+ 3
7
5
8
1 Lineare Algebra
Satz:
K sowie 1 ≤ p, q, s, t ≤ m und α ∈ K n gilt:
Sei A ∈ Mm
1. Ist eine Zeile oder Spalte von A gleich Null, dann ist die Determinante gleich Null.
2. Die Determinante einer Matrix ist gleich der Determinante ihrer Transponierten:
det(A) = det(AT ).
3. Wird eine Zeile oder Spalte mit einem Skalar multipliziert, verändert sich auch die
Determinante um diesen Faktor.
det(rows=∗α (A)) = α ∗ det(A)
det(columnt=∗α (A)) = α ∗ det(A)
4. Hat A zwei identische, benachbarte Zeilen, dann ist ihre Determinante gleich Null.
Für Spalten gilt das gleiche.
5. Wird zu einer Zeile (Spalte) das α-fache einer Nachbarzeile (-spalte) addiert, dann
ändert sich der Wert der Determinante nicht.
det(rows=+α(s+1) (A)) = α ∗ det(A)
det(columnt=+α(t+1) (A)) = α ∗ det(A)
6. Werden zwei benachbarte Zeilen (Spalten) von A vertauscht, dann wird die Determinante negativ.
det(rows,s+1 (A)) = −det(A)
det(columnt,t+1 (A)) = −det(A)
Satz:
K . Folgende Aussagen sind äquivalent:
Sei A ∈ Mm
1. Die Zeilenvektoren (Spaltenvektoren) von A sind linear unabhängig
2. rang(A) = m
3. det(A) 6= 0
29
1 Lineare Algebra
Folgerung:
Sei (A, b) ∈ GLK
m . Folgende Aussagen sind äquivalent:
1. det(A) = 0
2. rang(A) = rang(A, b) < m
3. (A, 0) besitzt nicht nur die triviale Lösung
4. Falls (A, b) lösbar ist, dann ist die Lösung mehrdeutig
Satz:
Es seien A, B ∈ GLm (K). Dann gilt:
det(A · B) = det(A) · det(B)
det(A−1 ) = (det(A))−1
det(An ) = (det(A))n
1.4.3 Reguläre Matrix
K regulär genau dann, wenn det(A) 6= 0 ist. Wir beWir nennen eine Matrix A ∈ Mm
zeichnen mit GLm (K)die Menge der regulären Matrizen über dem Körper K.
Folgerung:
Ist A ∈ GLm (K) und ist b ∈ K m , dann ist das Gleichungssystem (A, b) ∈ GLK
m eindeutig
lösbar.
1.4.4 Matrixgleichung
Ein lineares Gleichungssystem A ∗ x = b kann man verallgemeinern zu einem linearen
Matrizen-Gleichungssystem A∗X = B, indem man die beiden Vektoren x,b als Matrizen
K und X = (x ), 1 ≤ i, j ≤ m.
auffasst, mit B ∈ Mm
ij
Dann gilt ebenfalls:
Die Matrixgleichung A ∗ X = B besitzt für A ∈ GLm (K) eine eindeutige Lösung X ∈
GLm (K).
30
1 Lineare Algebra
1.4.4.1 Beispiel
Wir wollen folgendes Matrizen-Gleichungssystem lösen:
−1
3
!
2
2
∗
x11
x21
x12
x22
!
4
−2
=
5
1
!
Dies erfolgt normalerweise durch Lösen der beiden linearen Gleichungssysteme.
−1
3
−1
3
2
2
!
2
2
!
∗
∗
x11
x21
!
x12
x22
!
!
4
−2
=
5
1
=
⇒
−1x11 + 2x21
3x11 + 2x21
!
=
=
−1x12 + 2x22
3x12 + 2x22
⇒
=
=
4
−2
5
1
0
1
− 32
!
⇒
1
0
0
1
−1
2
!
⇒
1
0
5
4
Beide Gleichungssysteme lassen sich aber auch gleichzeitig mit dem Gauss-Jordan-Verfahren lösen. Dabei wird A
zur Einheitsmatrix E umgeformt. Aus A ∗ X = B wird E ∗ X = X und ergibt damit die Lösung.
A
B
−1
2
3
···
2
···
1
−2
0
···
8
···
1
0
0
1
..
.
.
..
···
..
.
..
.
···
.
..
..
.
4
5
−2
···
1
···
−4
−5
10
···
16
···
− 23
−1
5
4
2
E
−1
3
2
2
X
!
∗
− 32
5
4
−1
2
!
=
4
−2
Satz:
A ∗ X = B ⇒ X = A−1 ∗ B
Y ∗ A = B ⇒ Y = B ∗ A−1
31
5
1
!
1 Lineare Algebra
1.4.5 Inverse Matrix
Es sei A ∈ GLK
m eine reguläre Matrix. Die eindeutige Lösung der Gleichung A ∗ X = E
heißt die zu A inverse Matrix. Diese wird mit A−1 bezeichnet. Sie wird nach dem GaussJordan-Verfahren gebildet.
1.4.5.1 Beispiel


A=
···
A
···
···
1
0
1
2
−1
0
−3
···
2
···
2
···
1
0
1
0
−1
−2
0
···
2
···
5
···
1
0
1
0
1
2
0
···
0
···
1
···
1
0
0
0
1
0
0
···
0
···
1
···
E
Es ist also:

A
−1

=
1
2
−3
..
.
···
..
.
..
.
..
.
···
.
..
..
.
..
.
···
..
.
..
.
..
.
···
..
.
..
.
..
.
···
..
.
2
4
−1
0
1
2

1

0  ∈ GL3 (R)
2
···
E
···
···
1
0
0
Z2−2·Z1
0
1
0
−→
0
···
0
···
1
···
Z3+3·Z1
1
0
0
Z2·(−1)
−2
1
0
−→
3
···
0
···
1
···
Z3+2·Z2
1
0
0
Z2−2·Z3
2
−1
0
−→
−1
···
2
···
1
···
2
−2
−1
4
−5
−2
−1
···
2
···
1
···
A−1
−2
−5
2
32

1

−2  ∈ GL3 (R)
1
1 Lineare Algebra
Folgerung:
Für alle reguläre Matrizen A ∈ GLm (K)gilt:
1. A ∗ Em = Em ∗ A = A
2. (A−1 )T = (AT )−1
3. A ∗ A−1 = A−1 ∗ A = Em
Für Elementarmatrizen gilt:
• (Eij (a))−1 = Eij (−a)
33
2 Graphentheorie
2.1 Graphen Grundlagen
2.1.1 Graph
Ein Graph G = (V, E, γ) ist ein Tripel bestehend aus:
• V, einer nicht leeren Menge von Knoten (Vertex)
• E, einer Menge von Kanten (Edges)
• γ, einer Inzidenzabbildung mit γ : E → {X | X ⊆ V, 1 ≤ |X| ≤ 2}
Zwei Knoten a, b ∈ V heißen adjazent, wenn eine Kante e ∈ E existiert mit γ(e) = {a, b}.
Ein Knoten a ∈ V heißt inzident zu der Kante e ∈ E, wenn a ∈ γ(e) gilt.
Ein Graph G = (V, E, γ) heißt endlich, wenn die Knotenmenge V und die Kantenmenge
E endlich ist.
2.1.2 Schlinge
Wir nennen eine Kante e ∈ E Schlinge, wenn sie nur zu einem Knoten inzident ist. Zwei
Kanten e1 , e2 ∈ E heißen parallel, wenn sie zu den selben Knoten inzident sind.
2.1.3 Schlichter Graph
Ein Graph G, der keine Schlingen und keine parallelen Kanten enthält, heißt schlicht.
Da schlichte Graphen weder Schlingen noch parallele Kanten haben, können wir sie
einfacher beschreiben. Wir beschreiben einen schlichten Graphen G = (V, E, γ) durch
eine Knotenmenge V und eine Kantenmenge E ⊆ {{v, w} | v, w ∈ V, v 6= w}, die aus
zweielementigen Teilmengen von V besteht.
34
2 Graphentheorie
2.1.4 Grad eines Knoten
Der Grad deg(v) eines Knoten v ∈ V ist die Anzahl der zu v inzidenten Kanten. Hierbei
zählen Schlingen doppelt. Der Maximalgrad ∆(G) eines Graphen G ist definiert durch:
∆(G) := max {deg(v) | v ∈ V }
der Minimalgrad δ(G) durch:
δ(G) := min {deg(v) | v ∈ V }
Ein Knoten v mit deg(v) = 0 heißt isoliert.
Ein Knoten v mit deg(v) = 1 heißt Blatt.
2.1.5 Handschlaglemma
Jede Kante {v, w} geht genau zweimal in einen Knotengrad ein, was auch für Schlingen
gilt, da diese doppelt zählen. Damit erhalten wir das so genannte Handschlaglemma.
Für jeden endlichen Graphen G = (V, E, γ) gilt:
X
deg(v) = 2 |E|
(2.1)
v∈V
Korollar: In endlichen Graphen ist die Anzahl der Knoten mit ungeraden Grad gerade.
2.1.6 Vollständiger Graph
Es sei G = (V, E) ein Graph. Gilt {v, w} ∈ E für alle v, w ∈ V, v 6= w, dann heißt G
vollständig. Den vollständigen Graphen mit n Knoten bezeichnen wir mit Kn .
Ein vollständige Graph G = (V, E) hat alle möglichen Kanten für die Knotenmenge V.
Seine Kantenanzahl beträgt
|V |
|V | (|V | − 1)
=
2
2
35
(2.2)
2 Graphentheorie
2.1.7 Komplementgraph
Für einen Graphen G = (V, E) heißt der Graph G = (V, E)mit
E = {{v, w} | v, w ∈ V, v 6= w} \ E
Komplementgraph von G.
Der Komplementgraph G hat genau die Kanten, die G nicht hat. Für einen vollständigen
Graphen besteht der Komplementgraph aus lauter isolierten Knoten.
2.1.8 Untergraph
Es sei G = (V, E) ein Graph. Ein Graph H = (W, F ) mit W ⊆ V und F ⊆ E heißt
Untergraph von G. Für W = V ist H ein aufspannender Untergraph von G. Gilt
F = {{v, w} | {v, w} ∈ E, v, w ∈ W }
dann heißt H induzierter Untergraph von G. Den durch die Knotenmenge W induzierten
Untergraphen von G bezeichnen wir auch mit G(W).
Graph: G
Untergraph:
Teil der Knoten und Teil der Kanten.
Aufspannender Untergraph:
Induzierter Untergraph:
Besitzt alle Knoten, aber Kanten dürfen fehlen.
Knoten und die zum Knoten "dazugehörigen"
Kanten entfallen.
36
2 Graphentheorie
2.1.9 Kantenzug
Es sei G = (V, E) ein Graph. Eine Folge (v0 , v1 , ..., vn ) von Knoten mit ei := {vi−1 , vi } ∈
E für i = 1, 2, ..., n heißt Kantenzug. Die Länge des Kantenzuges ist n.
Ein Kantenzug, bei dem die ei alle verschieden sind, nennen wir Weg.
Ein geschlossener Weg heißt Kreis.
Ein einfacher Weg bzw. einfacher Kreis ist ein Weg (bzw. Kreis), bei dem die Knoten vi
paarweise verschieden sind (bzw. mit Ausnahme von v0 = vn ).
2.1.10 Zusammenhängender Graph
Ein Graph G = (V, E) heißt zusammenhängend, wenn zwischen je zwei Knoten von G
ein Weg existiert. Eine Zusammenhangskomponente von G ist ein durch eine Knotenmenge U ⊆ V induzierter Untergraph G(U), der zusammenhängend und bezüglich der
Knotenzahl maximal ist.
Satz:
Jeder zusammenhängende Graph G = (V, E) mit n Knoten hat mindestens n-1 Kanten.
Graph mit 4 Zusammenhangskomponenten:
2.1.11 Isomorphe Graphen
Zwei Graphen G1 = (V1 , E1 ) und G2 = (V2 , E2 ) heißen isomorph, wenn es eine bijektive
Abbildung ϕ : V1 → V2 gibt, so dass für alle v, w ∈ V1 gilt:
{v, w} ∈ E1 ⇐⇒ {ϕ(v), ϕ(w)} ∈ E2
Wir nennen ϕ einen Isomorphismus von G1 auf G2 und schreiben G1 ∼
= G2 .
Zwei Graphen sind genau dann isomorph, wenn der eine Graph aus dem anderen durch
Umbenennung der Knoten hervorgeht.
37
2 Graphentheorie
2.1.12 Wald
Ein Graph G = (V, E), der keinen Kreis enthält, heißt Wald.
2.1.13 Baum
Ein Graph G = (V, E), der keinen Kreis enthält und zusammenhängend ist heißt Baum.
Satz: Für einen Graphen G = (V, E) mit |V | = n sind die folgenden Aussagen äquivalent:
1. G ist ein Baum.
2. Je zwei Knoten G sind durch genau einen Weg verbunden.
3. G ist zusammenhängend, aber für jede Kante e ∈ E ist G0 = (V, E \ {e}) nicht
zusammenhängend.
4. G ist kreisfrei, aber für je zwei nicht adjazente Knoten v,w von G enthält G00 =
(V, E ∪ {{v, w}} genau einen Kreis
• Für Bäume gilt: |E| = |V | − 1
2.2 Gerichtete Graphen
2.2.1 Gerichteter Graph
Ein gerichteter Graph G = (V, A) besteht aus
1. V, einer nicht leeren Menge von Knoten
2. A, einer Menge von gerichteten Kanten, die aus geordneten Paaren (v,w) mit v, w ∈
V, v 6= w besteht
Für eine gerichtete Kante a = (v, w) heißt v der Anfangsknoten und w der Endknoten.
38
2 Graphentheorie
2.2.2 Grad
Es sei G = (V, A) ein gerichteter Graph. Die Zahl
indeg(v) := |{(x, v) | (x, v) ∈ A}|
heißt Eingangsgrad und
outdeg(v) := |{(v, y) | (v, y) ∈ A}|
heißt Ausgangsgrad von v ∈ V .
Für einen gerichteten Graphen gilt
X
indeg(v) =
v∈V
X
outdeg(v)
(2.3)
v∈V
2.2.3 Gerichteter Kantenzug
Es sei G = (V, A) ein gerichteter Graph. Ein gerichteter Kantenzug ist ein Folge (v0 , ..., vn )
von Knoten mit ei := (vi−1 , vi ) ∈ A für i = 1, ..., n.
2.2.4 Starker Zusammenhang
G heißt stark zusammenhängend, wenn es für je zwei Knoten v, w ∈ V einen gerichteten
Weg von v nach w gibt.
Dafür muß indeg(v) für alle Knoten >0 sein. Jeder Knoten muß jeden anderen Knoten
über einen gerichteten Weg erreichen können.
Zusammenhang
starker Zusammenhang
39
2 Graphentheorie
2.2.5 Azyklischer Graph
Ein gerichteter Graph G = (V, A) heißt azyklisch oder kreisfrei, wenn G keinen einfachen,
gerichteten Kreis der Länge ≥ 2 enthält.
Gerichteter, kreisfreier Graph heißt im englischen “directed acyclic graph” oder dag.
2.3 Darstellung von Graphen im Computer
2.3.1 Adjazenzmatrix
Gegeben sei ein Graph G = (V, E) mit V = {v1 , ..., vn } . Die n × n-Matrix A = (aij ) mit
(
aij =
1 f alls {vi , vj } ∈ E
0 sonst
heißt Adjazenzmatrix von G.
Für nicht gerichtete Graphen ist die Adjazenzmatrix symmetrisch mit Nullen auf der
Diagonalen.






A=





a
b
c
d
e
a
b
c
d
e
0
1
0
0
1
1
0
1
1
0
0
1
0
1
0
0
1
1
0
1
1
0
0
1
0












Satz:
Für einen allgemeinen Graphen G = (V, E) gibt das Element aij der Matrix AK die
Anzahl der Kantenzüge der Länge K von i nach j an.
Liegt ein dag vor, gibt aij von AK sogar die Anzahl der Wege der Länge K von i nach
j an.
40
2 Graphentheorie
Als Beispiel hier ein dag und einige Potenzen seiner Adjazenzmatrix.








A=







a








A2 = 







a
b
c
d
e
f
g
0
0
0
0
0
0
0
b
0
0
0
0
0
0
0
c
0
0
0
0
0
0
0
d
2
0
0
0
0
0
0
e
0
1
1
0
0
0
0
f
0
1
1
0
0
0
0
g
0
0
0
2
0
0
0
























A3 = 







a
b
c
d
e
f
g
a
b
c
d
e
f
g
a
b
c
d
e
f
g
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
1
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
1
1
0
a
b
c
d
e
f
g
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
2
0
0
0
0
0
0
2
0
0
0
0
0
0
0
2
2
0
0
0
0
































In A3 kann man sehen, das es z.B 2 verschiedene Wege von Knoten a (waagerecht) nach Knoten e mit
der Kantenlänge 3 gibt.
2.3.2 Adjazenzliste
Gegeben sei ein Graph G = (V, E) mit V = {v1 , ..., vn } , n ≥ 1. Für 1 ≤ i ≤ n seien
vi1 , vi2 , ..., vin die mit den Knoten vi adjazenten Knoten. Die Liste
Ai = (vi1 , vi2 , ..., vin )
heißt Adjazenzliste von vi und die Liste L = (A1 , ..., An ) der Adjazenzlisten ist die
Adjazenzlistendarstellung von G.
Aa = (b, e)
Ab = (a, c, d)
Ac = (b, d)
Ad = (b, c, e)
Ae = (a, d)
41
2 Graphentheorie
2.4 Durchsuchen von Graphen
2.4.1 Tiefensuche
Tiefensuche für Bäume: Wenn ein Knoten v betreten wurde, dann arbeite rekursiv alle
Nachbarn von v ab und kehre anschließend zu dem Knoten zurück, von dem aus v
betreten wurde. Das bedeutet, dass wir zuerst in die Tiefe gehen, bevor wir einen weiteren
Nachbarn eines Knotens besuchen.
⇒a→b→c→d→e
Satz: Der Zeitaufwand für die Tiefensuche beträgt O(|V | + |E|).
Die Tiefensuche kann dazu verwendet werden, die Anzahl der Zusammenhangskomponenten zu ermitteln. Dazu zählt man wie oft man mit einem noch nicht besuchten Knoten
die Tiefensuche neu anfangen muss.
2.4.2 Artikulationspunkt
Für einen Graphen G = (V, E) heißt ein Knoten a ∈ V Artikulationspunkt, wenn die
Anzahl der Zusammenhangskomponenten von G(V \ {a}) größer ist als die von G.
Anschaulich: Durch die Wegnahme eines Artikulationspunktes und den dazu inzidenten
Kanten zerfällt der Graph in weitere Teile.
2.4.3 Breitensuche
Bei der Breitensuche werden alle Nachbarn von v in eine Warteschlange W eingetragen,
die diejenigen Knoten enthält, von denen aus der Graph weiter durchsucht werden muss.
In jeder Interation der Breitensuche nehmen wir den ersten Knoten w aus der Warteschlange W heraus, ermitteln alle Nachbarn von w, die noch nicht erreicht worden sind
und fügen diese Nachbarn in die Warteschlange ein.
42
2 Graphentheorie
⇓
W
a →
b
(b, e)
→ (e, c, d)
e →
(c, d)
→
(d)
d →
()
c
Satz: Der Zeitaufwand für die Breitensuche beträgt O(|V | + |E|).
Auch mit der Breitensuche kann man die Anzahl der Zusammenhangskomponenten ermitteln.
Eine andere Anwendung für die Breitensuche ist die Bestimmung der Abstände zwischen
einem Knoten a ∈ V und allen anderen Knoten v ∈ V . Es wird implizit ein kürzester
Weg ermittelt.
43
2 Graphentheorie
2.4.4 Topologisches Sortieren
Es sei G = (V, A) ein gerichteter, kreisfreier Graph (dag) mit V = {v1 , ..., vn } . Eine
Knotenreihenfolge L = (vi1 , ..., vin ) aller Knoten aus V heißt topologische Sortierung von
G, wenn die folgende Bedingung erfüllt ist:
f uer alle (vij , vik ) ∈ A gilt
ij < ik
Das heißt, für jede Kante (v, w) ∈ A ist v vor w in L.
Bei der topologischen Sortierung beginnt man zunächst mit einem Knoten v mit indeg(v) =
0. Dieser Knoten ist von keinem anderen Knoten abhängig. Anschließend entfernt man
alle Kanten, die von diesen Knoten ausgehen. Nun schreibt man wieder alle Knoten mit
indeg = 0 auf und entfernt wieder alle abgehenden Kanten. Diese Vorgehensweise wiederholt man solange, bis alle Knoten in der Liste aufgenommen worden sind.
c→
a→
e→
44
d→
b→
f
2 Graphentheorie
2.5 Kreis und Wegeprobleme
2.5.1 Eulersche Kreise
Es sei G = (V, E) ein Graph. Ein Weg, der jede Kante von G genau einmal enthält, heißt
eulerscher Weg oder Eulerweg. Ein Kreis, der jede Kante von G genau einmal enthält,
heißt eulerscher Kreis oder Eulerkreis. Wenn G einen eulerschen Kreis enthält, dann
heißt G eulersch.
Satz:
Ein Graph G = (V, E) ist genau dann eulersch, wenn die beiden Bedingungen
(1) G ist bis auf isolierte Knoten zusammenhängend
(2) G hat keinen Knoten mit ungeradem Grad
erfüllt sind. Gilt (1) und
(2’) G hat höchstens zwei Knoten mit ungeradem Grad
dann existiert ein eulerscher Weg für G.
Als Beispiel hier das “Haus vom Nikolaus” und Varianten. Die Zahlen an den Knoten
geben deren Grad deg(v) an.
Eulerweg
kein Eulerweg
Eulerkreis
Eulerweg
max 2 deg(v) = ungerade
alle deg(v) = ungerade
alle deg(v) = gerade
max 2 deg(v) = ungerade
Für einen nicht eulerschen Graphen (enthält keinen Eulerkreis), der einen Eulerweg besitzt, folgt, dass der Eulerweg in einem der beiden Knoten mit ungeradem Grad beginnt
und in dem anderen Knoten mit ungeradem Grad endet.
45
2 Graphentheorie
2.5.2 Algorithmus von Hierholzer
Mit dem Algorithmus von Hierholzer kann man zuverlässig einen Eulerkreis (wenn vorhanden) ermitteln.
Es sei G = (V, E) ein bis auf isolierte Knoten zusammenhängender Graph. Alle Knoten
von G haben geraden Grad.
1. Wähle einen beliebigen Knoten v0 ∈ V . Wähle anschließend, solange dies möglich
ist, Knoten v1 , v2 , ..., vi , ...., so dass (v0 , ..., vi ) jeweils ein Weg in G ist. Unter den
gegebenen Voraussetzungen entsteht so automatisch ein Kreis K. Setze w := v0
und gehe zu 2.
2. Prüfe, ob K alle Kanten von G enthält. Wenn ja, dann STOP, ansonsten gehe zu
3.
3. Laufe ab W entlang K bis zu einem Knoten w’, der mit einer nicht in K enthaltenen
Kante inzident ist. Gehe zu 4.
4. Konstruiere wie unter 1. ausgehend von w’ einen Kreis K’, der keine Kanten von
K enthält.
Füge K’ in den Kreis K an der Stelle w’ ein. Setze w := w0 .
Gehe zu 2.
Der Algorithmus kann auch zur Konstruktion von Eulerwegen benutzt werden. Dabei
startet man mit einem der beiden Knoten mit ungeradem Grad und konstruiert im 1.
Schritt einen Weg zum andern Knoten mit ungeradem Grad. Anschließend werden die
restlichen Knoten eingebunden.
2.5.3 Hamiltonsche Kreise
Es ein G = (V, E) ein Graph. Ein Weg, der jeden Knoten von G genau einmal enthält,
heißt hamiltonscher Kreis. G heißt hamiltonsch, wenn G einen hamiltonschen Kreis enthält.
Im Gegensatz zu eulerschen Graphen ist für hamiltonsche Graphen keine einfache äquivalente Charakterisierung bekannt. Wir betrachten deshalb nur ein hinreichendes Kriterium.
46
2 Graphentheorie
Satz: Es sei G = (V, E) ein Graph mit n := |V | ≥ 3. Gilt
∀v, w ∈ V : deg(v) + deg(w) ≥ n,
dann ist G hamiltonsch.
Hier ein paar Beispiele. Die Zahlen an den Knoten geben deren Grad deg(v) an.
hamiltonsch und
hamiltonsch, aber
nicht hamiltonsch,
weder hamiltonsch,
eulersch
nicht eulersch
aber eulersch
noch eulersch
n=4
n=5
n=5
n=5
min [deg(v) + deg(w)] = 4
min [deg(v) + deg(w)] = 6
min [deg(v) + deg(w)] = 4
min [deg(v) + deg(w)] = 2
2.6 Kürzeste Wege
2.6.1 Kantengewicht
Es sei G = (V, E) ein Graph sowie w : E → R eine Bewertung der Kanten mit reellen
Zahlen.
Für jede Kante e ∈ E heißt w(e) die Länge oder das Gewicht von e. Für einen Kantenzug
P
K = (v0 , ..., vk ) ist w(K) := ki=1 w ({vi−1 , vi }) die Länge von K.
Je nach Anwendung können auch negative Werte für Kantengewichte sinnvoll sein, beispielsweise wenn die Gewichte Gewinne oder Verluste repräsentieren sollen.
2.6.2 Abstand
Es sei G = (V, E) ein Graph mit Kantengewichtsfunktion w : E → R und es gelte
w(e) ≥ 0 für alle Kanten e ∈ E.
Der Abstand d(v, w) zweier Knoten v, w ∈ V ist das Minimum der Längen aller einfachen
Wege von v nach w.
Falls es keinen einfachen Weg von v nach w gibt, setzen wir d(v, w) = ∞.
47
2 Graphentheorie
2.6.3 Algorithmus von Dijkstra
Es sei G = (V, E) ein Graph mit einer nicht negativen Längenfunktion w auf E und
v0 ∈ V . Der Dijkstra-Algorithmus berechnet die kürzesten Abstände d(v) von v0 zu
allen Knoten v ∈ V .
1. Setze d(v0 ) := 0, d(v) := ∞ für alle v ∈ V \ {v0 } , U := V .
2. Falls U = ∅, dann STOP. Sonst weiter mit 3.
3. Finde ein u ∈ U , für das d(u) minimal ist.
4. Für alle v ∈ U mit {u, v} ∈ E setze d(v) := min {d(v), d(u) + w ({u, v})}.
5. Setze U := U \ {u}. Gehe zu 2.
48
2 Graphentheorie
Als Beispiel wird hier die Ermittlung der kürzesten Wege von a zu allen anderen Knoten nach Dijkstra
als Graphik und in verkürzter Tabellenform gezeigt.
Bild 2 ist wie folgt zu lesen: Kante {a, d} steht als kürzester Weg zwischen a und d fest (Strichdicke 3).
Von d aus untersucht man nun die Punkte b,e,h und g (Strichdicke 2). Dabei stellt man fest, dass die
Kante w {a, b} = 9 von w {a, d, b} = 7 unterboten wird und bei den folgenden Betrachtungen ignoriert
werden kann (gestrichelt). Als nächstes wird man mit der Kante fortfahren, die das geringste Gewicht
hat. Das ist hier die Kante{d, b} = 2 und kommt nun zu Bild 3.
49
2 Graphentheorie
Tabellarisch kann das für Bild 2 so aussehen:
Von
a
d
Knotensumme
0
5
a
0
—
b
9
7
5→
0
—
—
—
—
—
—
—
—
—
—
—
—
—
—
c
d
e
18
f
g
31
h
23
i
Dabei arbeitet man spaltenweise von links nach rechts und trägt in die Zeilen jeweils die Knotensumme
(hier Entfernung von Knoten d ) plus die Kantenlänge zum nächsten erreichbaren Knoten ein. Dann
wählt man den niedrigsten Wert aus der Spalte aus und trägt ihn als nächsten Knoten im Kopf ein.
Darunter seine Knotensumme. Als nächstes würde man hier den Konten b mit seiner Knotensumme 7 in
den Kopf eintragen. Stehen mehrere Werte in einer Zeile, streicht man zur besseren Übersicht alle Werte
bis auf den kleinsten durch (hier Werte verkleinert).
Gesamt:
Von
a
d
b
c
f
e
h
i
g
Summe
0
5
7
11
13
14
17
17
19
a
0
—
—
—
—
—
—
—
—
b
9
7→
0
—
—
—
—
—
—
11→
0
—
—
—
—
—
0
—
—
—
—
—
—
—
18
17
14→
0
—
—
—
0
—
—
—
—
—
—
c
d
e
5→
f
13→
g
31
h
23
←15
19
18
i
17
17→
0
19
Den kürzeste Weg von a nach i ermittelt man nun rückwärts. Der kürzeste Weg von a nach i beträgt 17
(letzte Zeile, kleinster Wert) und hat Knoten f (senkrecht) als Vorgänger. Knoten f (waagerecht) hat mit
kleinstem Wert 13 Knoten b als Vorgänger. Knoten b hat mit Wert 7 Knoten d als Vorgänger. Knoten
4
6
2
5
d hat mit kleinstem Wert 5 Knoten a als Vorgänger. Also i ← f ← b ← d ← a.
50
2 Graphentheorie
2.7 Aufspannende Bäume
2.7.1 Aufspannender Baum
Es sei G = (V, E) ein zusammenhängender Graph. Ein aufspannender Untergraph B =
(V, E 0 ) von G heißt aufspannender Baum von G genau dann, wenn B ein Baum ist.
Ein aufspannender Baum ist also ein zusammenhängender, kreisfreier, aufspannender
Untergraph eines Graphen G.
Hier ein paar aufspannende Bäume für das Haus des Nikolaus:
2.7.2 Minimal aufspannender Baum
Es sei G = (V, E) ein zusammenhängender Graph mit einer Kantenbewertung w : E →
R.
• Für F ⊆ E heißt w(F ) :=
P
e∈F
w(e) das Gewicht der Kantenmenge F.
• Es sei B = (V, F ) ein aufspannender Baum von G. Dann ist w(B) := w(F ) das
Gewicht des aufspannenden Baums B.
• Ein aufspannender Baum B von G heißt minimal aufspannender Baum von G,
wenn w(B) ≤ w(B 0 ) für alle aufspannenden Bäume B’ von G gilt.
Hier ein möglicher minimal aufspannender Baum für das Haus vom Nikolaus mit Kantenbewertung:
51
2 Graphentheorie
2.7.3 Abzählung von aufspannenden Bäumen
Satz von Cayley:
Es gibt nn−2 verschiedene aufspannende Bäume für den vollständigen Graphen Kn .
2.7.4 Prüfercode
Der Prüfercode ist eine Bijektion zwischen aufspannendem Baum Kn und Wörtern von
natürlichen Zahlen der Länge n−2. Diese Bijektion wurde 1918 von Heinz Prüfer entdeckt
und wird daher auch als Prüfercode bezeichnet.
Der Algorithmus zur Ermittlung des Prüfercodes:
1. Wähle das Blatt vi ∈ V mit der kleinsten Knotennummer.
2. Schreibe den adjazenten (benachbarten) Knoten als Prüfziffer auf.
3. Entferne das Blatt vi und die inzidente Kante aus dem Baum.
4. Wenn |V | > 2 gehe zu 1.
5. STOP
4
41
411
52
4114
2 Graphentheorie
Aus einem Prüfercode kann man auch wieder einen aufspannenden Baum erzeugen:
1. Besteht der Prüfercode aus n Ziffern zeichne n + 2 Knoten und nummeriere sie
entsprechend.
2. Wähle die kleinste Knotennummer die nicht im Prüfercode vorkommt und die noch
nicht gewählt wurde (◦).
3. Markiere den Knoten als gewählt (•).
4. Verbinde diesen Knoten mit dem Knoten der 1. Prüfziffer.
5. Streiche die erste Prüfziffer aus Prüfercode.
6. Gehe nach 2. wenn Prüfercode noch Prüfziffern enthält
7. Verbinde die zwei letzten, noch nicht gewählten Knoten (◦).
4114
4114
4
die letzten beiden verbinden
114
14
fertig
53
2 Graphentheorie
2.7.5 Algorithmus von Prim
Mit dem Algorithmus von Prim kann man einen minimal aufspannenden Baum konstruieren.
Man geht dabei folgendermaßen vor:
1. Man wählt einen beliebigen Knoten aus dem Graphen G = (V, E) als Startpunkt aus. Er
bildet den Ursprung des minimal aufspannenden Baumes U .
2. Verbinde diesen Knoten mit den am nächsten liegenden Knoten im Ursprungsbaum G =
(V, E) der nicht schon in U liegt. Es entsteht ein erweiterter Baum U (Strichdicke 3).
3. Suche den nächsten Knoten aus G der nicht in U liegt und am nächsten zu einem der
Knoten in U steht. Also alle Knoten aus U untersuchen und den Knoten finden, der mit
der kürzeste Kante mit U verbunden ist (Strichdicke 1).
4. Sind noch Knoten in G, die nicht in U sind gehe nach 2.
54
2 Graphentheorie
2.7.6 Algorithmus von Kruskal
Mit dem Algorithmus von Kruskal kann man ebenfalls einen minimal aufspannenden Baum
konstruieren. Man geht dabei folgendermaßen vor:
1. Man betrachtet alle Knoten isoliert und jeden Knoten als eine Zusammenhangskomponente
(Wald).
2. Zuerst sucht man die kürzeste Kante aus G und verbindet die beiden inzidenten Knoten.
Dies startet den minimal aufspannenden Baum U .
3. Nun sucht man wieder die kürzeste Kante in G, die noch nicht in U ist, und verbindet die
beiden inzidenten Knoten.
4. Ab jetzt sucht man wieder die nächste, kürzeste Kante in G, die noch nicht in U ist. Diese
nimmt man aber nur in U auf, wenn dadurch zwei Zusammenhangskomponenten (Knoten,
der noch nicht in U ist, oder Teilbäume von U ) verbunden werden.
5. Wenn es noch Knoten gibt, die nicht mit U verbunden sind, gehe nach 4.
55
2 Graphentheorie
2.7.7 Traveling Salesman Problem (TSP)
Für das Traveling Salesman Problem gibt es keinen allgemeinen Lösungsalgorithmus.
Man kann aber die Güte einer gefundenen “Rundreise” bewerten. Dazu verwendet man
die untere und obere Schranke.
Satz: Es sei G = (V, E) ein vollständiger Graph mit der Kantenbewertung w : E → N.
Weiterhin sein T SP ∗ eine optimale TSP-Tour und MST sein ein minimal aufspannender
Baum für G und w. Dann gilt:
w(M ST ) ≤ w(T SP ∗ )
Die Größe w(M ST ) ist die sogenannte untere Schranke für das Traveling Salesman
Problem.
Satz: Es sei G = (V, E) ein vollständiger Graph mit der Kantenbewertung w : E → N,
für die die Dreiecksungleichnung gilt. Weiterhin sein T SP ∗ eine optimale TSP-Tour und
MST sein ein minimal aufspannender Baum für G und w. Dann gilt:
w(M ST ) ≤ w(T SP ∗ ) ≤ 2 · w(M ST )
Eine optimale TSP-Tour ist also mindestens so lang wie ein minimal aufspannender
Baum des Graphen G aber höchstens 2 mal so groß.
Eine TSP-Tour konstruiert man zunächst einmal über eine Tiefensuche. Den so entstandenen Baum verbessert man anschließend mit dem 2 − opt. Verfahren. Dabei sucht man
in der aktuellen Lösung nach zwei Kanten, die gegen zwei nicht in der Lösung enthaltenen Kanten ausgetauscht werden können, so dass eine kürzere Tour entsteht.
56
3 Wahrscheinlichkeit
3.1 Der Wahrscheinlichkeitsraum
Wahrscheinlichkeitsraum [Ω, I, P]
Ω = Menge der möglichen Ereignisse
I = Ereignisfeld. Ist eine Menge von Teilmenge von Ω die wir Ergebnisse nennen
P = Wahrscheinlichkeitsverteilung (0≤P≤1)
V = zufälliger Versuch
ω = ein mögliches Ergebnis bei der Durchführung von V ( Element von Ω)
Ereignisfelder zu einem zufälligen Versuch sind nicht eindeutig bestimmt.
Es gibt Elementarmengen (Einermengen) und zusammengesetzte Ereignisse.
Sicheres Ereignis :
Unmögliches Ereignis :
Ω
Ω= Ø
3.1.1 Ereignisfeld I
Sei V ein zufälliger Versuch mit der Grundmenge Ω. Ein Ereignisfeld I=I(Ω) zu V über
Ω ist eine Menge von Ereignissen A⊆Ω, die folgende Eigenschaft besitzt:
1. I enthält das unmögliche Ereignis Ø und das sichere Ereignis Ω, also Ø∈I und
Ω∈I.
2. Wenn A∈I und B∈I, so ist auch A∪B ∈I und A∩B∈I.
3. Wenn A∈I, so ist auch das Komplement A∈I.
4. Mit abzählbar unendlich vielen Ereignissen Ai ∈I, i=1,2,..., sind auch deren Summe
∞
∞
S
T
Ai und deren Produkt
Ai in I enthalten.
i=1
i=1
57
3 Wahrscheinlichkeit
3.1.2 Vollständiges Ereignissystem
Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld I. Eine Menge
von Ereignissen A1 , A2 ,..., An , Ai ⊆Ω für i=1,...,n , heißt vollständiges Ereignissystem
in I, falls gilt:
1. Ai ∩Aj =Ø für i 6= j
2. A1 ∪A2 ∪· · · Ak =Ω
3.1.3 Eigenschaften der relativen Häufigkeit
hn (A) = relative Häufigkeit
1. 0 ≤ hn (A)
2. hn (Ω)= 1
3. Wenn A∩B =Ø dann hn (A∪B) = hn (A) + hn (B)
3.1.4 Eigenschaften der Wahrscheinlichkeit
P(A) = Wahrscheinlichkeit des Ergebnisses A bei einmaliger Durchführung von V
1. 0≤P(A)≤1
2. P(Ø) = 0 , P(Ω) = 1
3. P(A) = 1 - P(A)
4. P(
n
S
Ai ) =
i=1
n
P
P(Ai ) , für alle n∈N, falls Ai ∩Aj = Ø für i 6= j
i=1
5. P(A∪B) = P(A) + P(B) - P(A∩B)
6. Wenn A ⊆ B, so ist P(A) ≤ P(B)
58
3 Wahrscheinlichkeit
3.1.5 De Morgansche Regeln
(A ∪ B)M
= AM ∩ B M
(A ∩ B)M
= AM ∪ B M
(3.1)
Nimmt man den 3. Satz der Eigenschaften der Wahrscheinlichkeit P (A) = 1 − P (A)
hinzu ergeben sich folgende Ableitungen:
1. P(A1 ∪A2 ) = 1-P(A1 ∩A2 ) weil P(A1 ∪ A2 )=P(A1 ∩A2 )
2. P(A1 ∩A2 ) = 1-P(A1 ∪A2 ) weil P(A1 ∩ A2 )=P(A1 ∪A2 )
3.1.6 Kombinatorische Formeln
Die Menge der möglichen Vertauschungen von n Elementen sind:
n!
(3.2)
Die Menge der k-elementige Teilmengen einer n-elementigen Menge sind:
n
k
!
=
n!
k!(n − k)!
(3.3)
3.2 Der klassische Wahrscheinlichkeitsbegriff
3.2.1 Laplace Versuch
Sei V ein zufälliger Versuch mit der endlichen Grundmenge Ω={ω1 ,..., ωm }. Ist p(ωi )=p
für alle i=1,...,m , so heißt Laplace-Versuch.
Satz: (Klassische Wahrscheinlichkeit in Laplace-Versuchen)
Sei V ein Laplace Versuch mit der Grundmenge Ω={ω1 ,..., ωm }. Dann gilt:
1
und
1. P({ωi })= m
2. P(A)= |A|
|Ω| für jedes Ereignis A∈I = ℘(Ω)
59
3 Wahrscheinlichkeit
3.2.2 Bedingte Wahrscheinlichkeit
Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld I. Seien A∈I
und B∈I zwei beliebige Ereignisse zu V mit P(B)>0. Dann heißt
P (A|B) =
P (A ∩ B)
P (B)
(3.4)
bedingte Wahrscheinlichkeit von A unter der Bedingung B.
3.2.3 Produktformel
Verändert die Information über das Eintreten von B die Chancen für A nicht, d.h. gilt
P(A|B)=P(A), so heißen A und B stochastisch unabhängig.
Für zwei unabhängige Ereignisse gilt die Produktformel:
P (A ∩ B) = P (A) · P (B)
(3.5)
3.2.4 Stochastisch unabhängig
Wenn P(A) = P(A|B) dann sind A und B stochastisch unabhängig.
Beispiel: Sind die beiden Ereignisse A = “Würfeln einer geraden Zahl” und B = “Würfeln
einer Zahl ≥4” stochastisch unabhängig?
1. P(A) = 1/2 ⇒{2,4,6}
2. P(B) = 1/2 ⇒{4,5,6}
3. P(A|B) = 2/6 ⇒{4,6}
Da P(A) 6= P(A|B) sind A und B stochastisch abhängig.
Die Produktformel zeigt das gleiche:
2
3
3
; P (A) = ; P (B) =
6
6
6
1
P (A ∩ B) 6= P (A) · P (B) =
4
P (A ∩ B) =
60
3 Wahrscheinlichkeit
3.2.5 Produktformel für bedingte Wahrscheinlichkeit
Hat man 2 stochastisch unabhängige Ereignisse, so ergibt sich bei Umformung der Definitionsgleichung für die bedingte Wahrscheinlichkeit die Produktformel:
P (A ∩ B) = P (A|B) · P (B)
(3.6)
Für beliebig viele Ereignisse:
Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld I = I(Ω).
Seien Ai ∈I , i=1,...,n , n beliebige Ereignisse. Dann gilt:
P (A1 ∩ A2 ∩ · · · ∩ An ) = P (A1 ) · P (A2 |A1 ) · P (A3 |A1 ∩ A2 ) · · · · · · P (An |A1 ∩ · · · ∩ An−1 )
61
3 Wahrscheinlichkeit
3.3 Totale Wahrscheinlichkeit und Bayes’sche Formel
3.3.1 Totale Wahrscheinlichkeit
Sind A1 ,A2 ,..., An ein vollständiges System von Ereignissen, so gilt:
B=(A1 ∩B)∪(A2 ∩B)∪· · · ∪(An ∩B), wobei alle Ereignisse (Ai ∩B) und (Aj ∩B) paarweise
für i 6= j disjunkt sind. Nach Axiom 4 der Wahrscheinlichkeit erhalten wir dann
P (B) =
n
[
!
(Ai ∩ B)
i=1
=
n
X
P (Ai ∩ B)
i=1
und aus dem Multiplikationssatz für zwei Ereignisse folgt daraus
P (B) =
n
X
P (B|Ai ) · P (Ai )
(3.7)
i=1
Diese Formel wird als Formel der totalen Wahrscheinlichkeit bezeichnet.
3.3.1.1 Beispiel
Aufgabe mit 2 Ereignissen: B ist unter den Voraussetzungen A1 und A2 eingetreten. Gegeben: P(A1 )
= 0,6 und P(A2 ) = 0,4 und P(B|A1 ) = 0,2 und P(B|A2 ) = 0,1. Ereignis A1 und A2 treten mit einer
Wahrscheinlichkeit von 60% und 40% auf. B tritt unter der Bedingung A1 nur zu 20% auf und unter
der Bedingung A2 sogar nur zu 10%.
Wie hoch ist die Wahrscheinlichkeit das das Ereignis B überhaupt Eintritt?
Rechnung:
P (B)
=
P (B|A1 )·P (A1 )+P (B|A2 )·P (A2 )
=
0,2·0,6+0,1·0,4
=
0,16
Während A1 und A2 mit einer Wahrscheinlichkeit von 0,6 und 0,4 auftreten, tritt B mit einer totalen Wahrscheinlichkeit von 0,16 auf.
Die Summe von P(B|Ai ) muss dabei ≤1 sein weil das Ergebnis B in seiner Gesamtheit bei allen Ereignissen Ai
nicht öfter als 100% auftreten kann.
62
3 Wahrscheinlichkeit
3.3.2 Formel von Bayes
Sind A1 , A2 ,..., An ein vollständiges System von Ereignissen und B ein weiteres Ereignis,
so gilt:
P (Aj |B) =
P (B|Aj ) · P (Aj )
P (Aj ∩ B)
P (B|Aj ) · P (Aj )
=
= n
P
P (B)
T otale W ahrsch. von B
P (B|Ai ) · P (Ai )
(3.8)
i=1
3.3.2.1 Beispiel
Aufgabe mit 2 Ereignissen: B ist unter den Voraussetzungen A1 und A2 eingetreten. Gegeben: P(A1 )
= 0,6 und P(A2 ) = 0,4 und P(B|A1 ) = 0,2 und P(B|A2 ) = 0,1. Ereignis A1 und A2 treten mit einer
Wahrscheinlichkeit von 60% und 40% auf.. B tritt unter der Bedingung A1 nur zu 20% auf und unter
der Bedingung A2 sogar nur zu 10%.
Wie hoch ist die Wahrscheinlichkeit das das Ereignis A1 Auslöser war wenn B Eintritt?
Rechnung:
P (A1 |B)
=
P (A1 ∩B)
P (B)
=
P (B|A1 )·P (A1 )
P (B|A1 )·P (A1 )+P (B|A2 )·P (A2 )
=
0,2·0,6
0,2·0,6+0,1·0,4
=
0,75
=
P (B|A1 )·P (A1 )
n
P
P (B|Ai )·P (Ai )
i=1
Wenn das Ereignis B eingetreten ist, ist Ereignis A1 mit einer Wahrscheinlichkeit von 0, 75 der Auslöser dafür
gewesen.
63
3 Wahrscheinlichkeit
3.4 Diskrete Zufallsgrößen
Eine Zufallsgröße X heißt diskret, falls ihr Wertebereich X endlich oder abzählbar unendlich ist, falls also gilt: X = {a1 , a2 , ..., an }, k ∈ N, k ≤ ∞, ai ∈ R.
3.4.1 Gleichverteilung
Schreibweise: X ∼ R({a1 , a2 , ..., ak })
Eine Zufallsgröße besitzt eine (diskrete) Gleichverteilung auf der endlichen Menge X =
{a1 , a2 , ..., ak }, wenn sie die Werte a1 , a2 , ..., ak mit derselben endlichen Wahrscheinlichkeit
pi = P (X = ai ) =
1
k
(3.9)
für alle i=1,...,k annimmt. X beschreibt eine Auswahl “auf gut Glück” aus der Menge
= {a1 , a2 , ..., ak }.
64
3 Wahrscheinlichkeit
3.4.2 Binomialverteilung
Schreibweise: X ∼ B({a1 , a2 , ..., ak })
n
pi = P (X = i) =
i
!
pi (1 − p)n−i , i = 0, 1, ..., n
(3.10)
3.4.2.1 Beispiel
Aufgabe: Eine Firma, die CD’s herstellt, gibt ihre Ausschussrate (Anteil defekter CD’s) mit 1% an. Wie
groß ist die Wahrscheinlichkeit dafür, dass in einem Paket von 5 CD’s mehr als eine defekt ist?
Rechnung:


1
Xi =

0
def ekt = p
heile
=1−p
P (Xi =1)
=
0,01
P (Xi =0)
=
0,99
P (X>1)
=
1−P (X≤1)
=
1−P (Xi =0)−P (Xi =1)


=
1−
=
1−1·1·0,995 −5·0,01·0,994
=
1−0,951−0,048
=
0,001
5
0

0,010 (1−0,01)5−0 −
5
1

0,011 (1−0,01)5−1
Die Wahrscheinlichkeit dafür, das in einem Paket von 5 CD’s mehr als eine defekt ist liegt bei 0,1%.
65
3 Wahrscheinlichkeit
3.4.3 Poissonverteilung
Schreibweise: X ∼ P (λ)
pi = P (X = i) =
λi −λ
e , i = 0, 1, 2, ...
i!
(3.11)
Die Poissonverteilung findet als Modell oft Anwendung, wenn eine Zufallsgröße X zählt,
wie viele Ereignisse von einer großen Anzahl unabhängiger Ereignisse mit recht kleiner
Wahrscheinlichkeit eintreten.
Sie dient für λ = n · p als Approximation der Binomial-Wahrscheinlichkeiten für große n
und kleine p (Empfehlung: n>20, p<0,01).
3.4.3.1 Beispiel
Aufgabe: Die Anzahl X der Anrufe, die in einer Telefonzentrale in einer Stunde eintreffen sei poissonverteilt mit dem Parameter λ = 5 (d.h., im Schnitt treffen in diesem Zeitraum ca. 5 Anrufe ein). Die
Kunden rufen unabhängig voneinander an. Wie hoch ist die Wahrscheinlichkeit, dass in einer Stunde
höchstens 2 Anrufe eintreffen?
P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
=
=
50 −5
51 −5
52 −5
e +
e +
e
0!
1!
2!
25 −5
e−5 + 5e−5 +
e
= 0, 12
2!
Die Wahrscheinlichkeit dafür, das in einer Stunde höchstens 2 Anrufe eintreffen beträgt 12%.
66
3 Wahrscheinlichkeit
3.5 Stetige Zufallsgrößen
3.5.1 Dichtefunktion
Eine Zufallsgröße X heißt stetig, wenn eine integrierbare Funktion f : R → R mit folgenden Eigenschaften existiert:
1. f (x) ≥ 0 f uer alle x ∈ R
2.
∞
´
f (x)dx = 1
−∞
b́
3. P (a < X ≤ b) = f (x)dx f uer alle a, b ∈ R
a
Die Funktion f heißt Dichtefunktion oder kurz Dichte von X.
Man kann die Dichtefunktion bestimmen, wenn man die Verteilungsfunktion kennt. Es
gilt: F 0 (x) = f (x).
3.5.2 Verteilungsfunktion
Die Verteilungsfunktion ist das Integral der Dichtefunktion:
ˆx
F (x) = P (X ≤ x) =
f (u)du
−∞
Eine Intevallwahrscheinlichkeit berechnet sich nach:
P (a ≤ x ≤ b) = F (b) − F (a)
3.5.3 Bedingte Wahrscheinlichkeiten
Man kann auch bedingte Wahrscheinlichkeiten berechnen.
Für die Ereignisse A = ”X ≥ a” und B = ”X ≤ b” gilt: P (B|A) = P (A ∩ B)/P (A).
Folglich ist
P (X ≤ b|X ≥ a) =
P (a ≤ X ≤ b)
F (b) − F (a)
=
P (X ≥ a)
1 − F (a)
67
(3.12)
3 Wahrscheinlichkeit
3.5.4 Gleichverteilung auf [a,b]
Schreibweise: X ∼ R([a, b])
Eine Zufallsgröße X besitzt eine Gleichverteilung auf dem Intervall [a,b] , wenn ihre
Dichte die folgende Gestalt besitzt:
f (x) =


1
b−a
f uer a ≤ x ≤ b
0
(3.13)
sonst
3.5.5 Dreiecksverteilung
Schreibweise: X ∼ D([a, c, b])
Eine Zufallsgröße X besitzt eine Dreiecksverteilung auf [a,b] mit der Höhe c, wenn ihre
Dichte die Gestalt besitzt:
f (x) =

2(x−a)



 (c−a)(b−a)
2(b−x)
(b−c)(b−a)



0
f alls a ≤ x ≤ c
f alls c ≤ x ≤ b
(3.14)
sonst
3.5.6 Exponentialverteilung mit Parameter λ
Schreibweise: X ∼ E(λ)
Eine exponentialverteilte Zufallsgröße nimmt Werte im Intervall [0, ∞)an. Die Dichte
einer Exponentialverteilung mit dem Parameter λ > 0 hat die Gestalt:

λe−λx
f (x) =
0
f uer x ≥ 0
(3.15)
f uer x < 0
Die Exponentialverteilung dient oft als Modell für zufällige Abbauzeiten zufälliger Zwischenzeiten zwischen dem Eintreffen zweier Signale in einer Empfängerstation, zufällige
Lebensdauern, wie z.B. die Zeit bis zum Ausfall eines technischen Gerätes, die Laufzeit
eines Jobs im Computer oder die Zeitdauer eines Telefongespräches.
68
3 Wahrscheinlichkeit
3.5.7 Normalverteilung
Schreibweise: X ∼ N (µ, σ 2 )
f (x) = √
1
2πσ 2
e−
(x−µ)2
2σ 2
(3.16)
Das Bild ist die Gauss’sche Glockenkurve. Sie hat ihren Gipfel bei x = µ und ist umso
flacher, je größer σ 2 ist.
Eine besondere Normalverteilung ist diejenige mit den Parametern µ = 0 und σ =
1, d.h. N(0,1). Sie wird als Standardnormalverteilung bezeichnet. Als Symbol für die
Dichtefunktion verwendet man ϕ(x) und für die Verteilungsfunktion Φ(x).
Jede beliebige Normalverteilung lässt sich mit Hilfe der Verteilungsfunktion der Standardnormalverteilung berechnen.
Ist X normalverteilt mit den Parametern µ und σ 2 , so ist X ∗ = (X − µ)/σ standardnormalverteilt. Aus diesem Satz folgt:
x−µ
x−µ
F (x) = P (X ≤ x) = P X ≤
=Φ
σ
σ
(3.17)
D.h. die Verteilungsfunktion F einer beliebigen Normalverteilung erfüllt die Transformationsvorschrift:
F (x) = Φ
x−µ
σ
(3.18)
3.5.8 Satz von Moivre und Laplace
Approximation der Binomialverteilung durch die Normalverteilung.
Eine mit den Parametern n und p binomialverteilte Zufallsgröße X ist für große n näherungsweise normalverteilt mit:
EX
= n·p
V ar(X) = n · p · (1 − p)
69
(3.19)
3 Wahrscheinlichkeit
3.5.9 Erwartungswert und Varianz
Es gelten folgende Eigenschaften für Erwartungswert und Varianz von Zufallsgrößen:
E(a · X + b) = a · EX + b
E(X1 + X2 + ... + Xn ) = EX1 + EX2 + ... + EXn
V ar(a · X + b) = a2 · V ar(X)
(3.20)
V ar(X) = E(X − EX)2
Für stochastisch unabhängige Zufallsgrößen gilt darüber hinaus:
V ar(X1 + X2 + ... + Xn ) = V ar(X1 ) + V ar(X2 ) + ... + V ar(Xn )
(3.21)
3.5.10 Ungleichung von Tschebyscheff
Ohne die Verteilung von X genauer zu kennen (aber gegebenen EX) kann man Wahrscheinlichkeiten von Abweichungen vom Erwartungswert EX nach der Ungleichung von
Tschebyscheff abschätzen:
P (|X − EX| < c) ≥ 1 −
Allerdings kann diese Abschätzung sehr grob sein.
70
V ar(x)
c2
(3.22)
3 Wahrscheinlichkeit
3.5.11 Übersichtstabelle Verteilungsfunktionen
Verteilung von x
Formel
Symbol
E(X)
Var(X)
p
p(1 − p)
B(n,p)
np
np(1 − p)
P(λ)
λ
λ
R([a,b])
a+b
2
(b−a)2
12
D([a,c,b])
a+b+c
3
a2 +b2 +c2 −ab−ac−bc
18
E(λ)
1
λ
1
λ2
N(µ, σ 2 )
µ
σ2
Zweipunktvert. mit
Erfolgswahrsch. p
n
i
pi (1 − p)n−1
Binomialvert. mit den
Parametern n und p
λi −λ
i! e
1
b−a


2(x−a)
(c−a)(b−a)
 2(b−x)
(b−c)(b−a)
Poissonvert. mit
Parameter λ
Gleichvert. auf [a,b]
:a≤x≤c
Dreiecksvert. auf [a,b]
:c≤x≤b
mit Häufigkeitspunkt c
λe−λx
Exponentialvert. mit
Parameter λ
(x−µ)2
−
2σ 2
√ 1 e
2πσ 2
Normalvert. mit den
Parametern µ und σ 2
71
4 Formeln
4.1 Differentialrechnung - Regeln zur Ableitung
f (x) = xn → f 0 (x) = n · xn−1
p
p
p
−1
f (x) = x q → f 0 (x) = · x q
q
f (x) = a · xn → f 0 (x) = a · n · xn−1
f (x) = a → f 0 (x) = 0
f (x) = ax → f 0 (x) = ax · ln(a)
1
f (x) = ln(x) → f 0 (x) =
x
f (x) = f1 (x) ± f2 (x) → f 0 (x) = f10 (x) ± f20 (x)
f (x) = u · v → f 0 (x) = u · v 0 + v · u0
0
u
v0
0
+
→ f (x) = u · v
u
v
0
0
f (x) = u · v · w → f (x) = u · v · w + u · v 0 · w + u · v · w0
0
v 0 w0
u
0
+ +
→ f (x) = u · v · w
u
v
w
0
0
u
v·u −u·v
f (x) =
→ f 0 (x) =
v
v2
f (x) = f (g(x)) → g(x) = z → f 0 (x) = f 0 (z) · g 0 (x)
f 0 (x) = innere Abl. g 0 (x) · aeuβere Abl. f 0 (z)
1
−g 0 (x)
f (x) =
→ f 0 (x) = 2
g(x)
g (x)
72
4 Formeln
4.2 Integralrechnung - Stammfunktionen und Regeln
f (x) = c → F (x) = c · x
1
f (x) = x → F (x) = · x2
2
1
f (x) = x2 → F (x) = · x3
3
xn+1
f (x) = xn → F (x) =
+c
n+1
x−n+1
x1−n
f (x) = x−n → F (x) =
+c=
+c
−n + 1
1−n
f (x) = sin(x) → F (x) = −cos(x)
f (x) = cos(x) → F (x) = sin(x)
f (x) = ex → F (x) = ex
f (x) = ln(x) → F (x) = x · (ln(x) − 1)
f (x) = c · g(x) → F (x) = c · G(x)
f (x) = g(x) + h(x) → F (x) = G(x) + H(x)
ˆb
ˆa
f (x)dx
=
−
a
f (x)dx
b
ˆc
ˆb
f (x)dx
ˆc
=
a
f (x)dx +
f (x)dx f r a < b < c
a
b
ˆb
ˆb
h · f (x)dx
=
h·
a
f (x)dx
a
ˆb
ˆb
(f (x) + g(x))dx
=
a
ˆb
f (x)dx +
a
ˆb
g(x)dx
a
ˆb
(f (x) · g(x))dx
(f 0 (x) · g(x) + f (x) · g 0 (x))dx
=
a
a
ˆb
ˆb
0
(f (x) · g 0 (x))dx
(f (x) · g(x))dx +
=
a
a
73
5 Programme
5.1 Geogebra
Geogebra ist eine Java-Applikation, mit der man geometrisch konstruieren, aber auch
Funktionen graphisch anzeigen lassen kann. Durch die Möglichkeit, Variablen/Werte
als Schieberegler auf die Zeichnungsfläche zu bringen, kann man Aufgaben zum Teil
interaktiv lösen.
Das Programmpaket findet man unter http://www.geogebra.org.
74
5 Programme
5.2 Maxima
Maxima ist ein freies Computer-Algebra-System (CAS), mit dem sich viele Aufgabenstellungen während des Studiums nachrechnen oder überprüfen lassen. Funktionsdiagramme, die sich schnell erzeugen lassen, helfen oft, sich in Aufgabenstellungen schneller
zurechtzufinden und auch ein Gefühl für die Auswirkungen unterschiedlicher Parameter
zu bekommen.
Das Programmpaket findet man unter http://wxmaxima.sourceforge.net. Eine weitere Quelle mit vielen Beispielen ist http://maxima.weilharter.info/.
Hinweis:
Maxima nummeriert Eingaben und Ausgaben (Ergebnisse) durch.
(%i27) zeigt die 27. Eingabe
(%o27) zeigt das 27. Ergebnis.
Ergebnisse können unter Bezugnahme des Outputmarkers weiter verwendet werden.
Der Ausdruck ’37*%o27’ wird den Wert 37 mit dem Ergebnis der Eingabe 27 multiplizieren.
Variablen definiert man mit einem Doppelpunkt ⇒ Var:3;
Funktionen definiert man mit Doppelpunkt und Gleichheitszeichen ⇒ funk:=sin(Var);
75
5 Programme
Hier ein Beispiel für die Anwendung von Maxima in der linearen Algebra:
76
5 Programme
Hier ein Beispiel für die Anwendung von Maxima in der Wahrscheinlichkeitsrechnung:
77
5 Programme
78
5 Programme
79
5 Programme
80
5 Programme
81
5 Programme
82
5 Programme
83
5 Programme
5.3 yEd Graph Editor
Die Graphiken in diesem Tutorial sind mit diesem freien Graph Editor erzeugt worden. Auch diese Applikation arbeitet auf Basis von Java. Sie kann Zeichnungen nicht
nur anfertigen, sondern erzeugte Graphen auch untersuchen und analysieren (z.B. auf
Zyklenfreiheit, Knoten- und Kantenanzahl). Knoten und Kanten sind vielfältig darstellbar. Der Graph bleibt beim Verschieben von Knoten verbunden und kann auf Wunsch in
mehrere vordefinierte Arten umgeformt werden (z.B. hierarchisch, organisch oder UML).
So kann man den Graphen auf diese Weise auf Mausklick topologisch sortiert anzeigen
lassen.
Vor dem Erzeugen eines neuen Graphen, empfiehlt es sich unter ’Datei > Standard
Knoten ...’ und ’Datei > Standard Kante ...’ die gewünschten Eigenschaften festzulegen,
um nicht nachträglich alle Komponenten nachdefinieren zu müssen.
Das Programmpaket findet man unter http://www.yworks.com/en/products_yed_about.
htm.
84
5 Programme
5.4 math4u2
math4u2 ist ein Programmpaket, das eher für den Lehrer/Tutor gedacht ist, um im
Unterricht anschauliches, interaktives Lehren in den Gebieten der Mathematik zu ermöglichen. Nach etwas Einarbeitungszeit kann man auch mit diesem Programm gute
Funktionsanalysen machen.
Das Programmpaket findet man unter http://www.math4u2.de.
85
5 Programme
5.5 GraphAnalyser
Der GraphAnalyser ist ein kleines Programm, das einen Graphen in Form einer Textdatei
entgegen nimmt und ihn auswertet. Das Ergebnis erhält man als Textdatei zurück.
Das Programm habe ich während des Studiums der Graphentheorie geschrieben. Es
erlaubt das Überprüfen von Ergebnissen.
Das Programmpaket findet man unter http://www.wolfgang-fuehrer.de/fh_trier/
Dieser Graph hätte folgende Eingabedatei:
Diesen Text speichert man unter einem Namen ab und läßt die Datei anschließend auf
das Icon des GraphAnalyser fallen. Als Ergebnis erhält man ein Textfile, das automatisch öffnet.
86
5 Programme
87
5 Programme
5.6 Lyx
Wer sich fragt mit welchem Programm dieses Script erstellt worden ist - hier ist die
Antwort.
Mit Lyx kann man den Text “Quasi” in WYSIWYG erstellen, obwohl das TEX eigentlich
widerspricht. Ich benötigte nur eine sehr kurze Einarbeitungsphase, um sehr produktiv
arbeiten zu können.
Das Programmpaket findet man unter http://www.lyx.org
88
5 Programme
5.7 Sonstiges
Einige der Aufgaben, die ich mit den Programmen gelöst habe, werde ich auf meiner
Website http://www.wolfgang-fuehrer.de/fh_trier/ zur Verfügung stellen. Das Abtippen wird man sich also sparen können. Wenn nichts dagegen spricht, werde ich diese
Formelsammlung als PDF dort auch ablegen.
Für Hinweise zu Fehlern oder wichtigen Ergänzungen bin ich dankbar. Ich werde diese
schnellst möglich beheben bzw. einfügen.
Meine E-Mail Adresse lautet: [email protected]
Ich bitte um etwas Geduld, wenn es um die Beantwortung von E-Mails geht. Beruf und
Studium und Familie ... da kann die zur Verfügung stehende Zeit schon mal etwas knapp
werden :-)
89
6 Literaturverzeichnis
[1]
Kurt-Ulrich Witt. Unterlagen für das Fernstudium Informatik FH-Trier. MAT
4. Mathematische Grundlagen für die Informatik - Lineare Algebra und Einführung in die Codierungstheorie.
[2]
Peter Becker. Unterlagen für das Fernstudium Informatik FH-Trier. MAT 5.
Mathematische Grundlagen für die Informatik - Graphentheorie.
[3]
Barbara Grabowski. Unterlagen für das Fernstudium Informatik FH-Trier.
MAT 6. Mathematische Grundlagen für die Informatik - Wahrscheinlichkeitstheorie und Statistik.
[4]
Diplom Informatiker Markus Schwinn. Mitschriften und Unterlagen des Tutoriums zu MAT 4, Sommersemester 2007.
[5]
Dr. Andreas Lux. Mitschriften und Unterlagen des Tutoriums zu MAT 5,
Sommersemester 2007.
[6]
Diplom Informatiker Hermann Schloss. Mitschriften und Unterlagen des Tutoriums zu MAT 6, Sommersemester 2007.
90
Stichwortverzeichnis
Abelsche Gruppe, 1
Diskrete Zufallsgrößen, 64
Ableitung, 72
Dreiecksverteilung, 68
Abstand, 47
Edges, 34
adjazent, 34
Eingansgrad, 39
Adjazenzmatrix, 40
Einheitsmatrix, 25
Artikualtionspunkt, 42
Elementarmatrix, 25
Aufspannender Baum, 51
endlicher Graph, 34
azyklisch, 40
Ereignisfeld, 57
Azyklische Graph, 40
Erwartungswert, 70
Baum, 38
Eulerkreis, 45
Bayes, 63
Eulerweg, 45
bijektiv, 14
Exponentialverteilung, 68
bijektive, 37
Gauß, 69
Bilinearform, 17
Gauss-Jordan-Verfahren, 22
Binomialverteilung, 65
Geogebra, 74
Blatt, 35
geordnete Paare, 38
Breitensuche, 42
Gerichteter Graph, 38
Gleichverteilung, 64, 68
Cayley, 52
Glockenkurve, 69
De Morgansche Regeln, 59
Grad, 35, 39
Determinante, 28
Graph, 34
Diagonalmatrix, 25
Graphen, 34
Dichtefunktion, 67
Differentialrechnung, 72
Hamiltonsche Kreise, 46
Dijkstra Algorithums, 48
Handschlaglemma, 35
Dimension, 11
Hierholzer Algorithmus, 46
91
Stichwortverzeichnis
homogen, 20
Matrix Aij, 28
Homomorphismus, 14
Matrixgleichung, 30
Matrizen, 24
inhomogen, 20
Matrizen Addition, 26
inneres Produkt, 19
Matrizen Transposition, 26
Integralrechnung, 73
Matrizenmultiplikation, 26
Intevallwahrscheinlichkeit, 67
Matrizentransformationen, 27
Inverse Matrix, 32
Maxima, 75
inzident, 34
Maximalgrad, 35
Inzidenzabbildung, 34
Minimal aufspannender Baum, 51
isoliert, 35
Minimalgrad, 35
isomorph, 37
Normalverteilung, 69
Isomorphe Graphen, 37
Isomorphismus, 14, 37
Orthogonal, 19
Orthogonalraum, 19
Körper, 1
Kürzeste Wege, 47
Poissonverteilung, 66
Kantanlänge, 47
Prüfercode, 52
Kante (gerichtet), 38
Prim Algorithmus, 54
Kanten, 34
Produktformel, 60, 61
Kantengewicht, 47
Kantenzug, 37
quadratische Matrix, 25
Kantenzug (gerichtet), 39
Knoten, 34
Rang einer Matrix, 27
Koeffizientenmatrix, 24
Reguläre Matrix, 30
Kombinatorische Formeln, 59
relativeHäufigkeit, 58
Komplementgraph, 36
Schlichter Graph, 34
Kreis, 37
Schlinge, 34
kreisfrei, 40
Skalarprodukt, 19
Kruskal Algorithmus, 55
Stammfunktionen, 73
Laplace-Versuch, 59
Standartnormalverteilung, 69
Linear unabhängig, 5
Starker Zusammenhang, 39
lineare Abbildung, 14
Stetige Zufallsgrößen, 67
Lineares Gleichungssysteme, 20
stochastisch unabhängig, 60
Linearkombination, 5
symmetrische Matrix, 25
math4u2, 85
Tiefensuche, 42
92
Stichwortverzeichnis
Topologisches sortieren, 44
Transformationen, 21
transponierte Matrix, 25
Traveling Salesman Problem, 56
triviale Unterräume, 2
TSP, 56
Umkehrhomomorphismus, 14
untere Schranke, 56
Untergraph, 36
Untergraph (aufspannender), 36
Untergraph (induzierter), 36
Unterraum, 2–4
Varianz, 70
Vektorraum, 2, 11
Verteilungsfunktion, 67
Verteilungsfunktionen, 71
Verterx, 34
Vollständiger Graph, 35
vollständiger Graph, 52
Wahrscheinlichkeit (bedingte), 60, 67
Wahrscheinlichkeit (totale), 62
Wahrscheinlichkeitsraum, 57
Wald, 38
Warteschlange, 42
Weg, 37
yEd Graph Editor, 84
Zusammenhängender Graph, 37
Zusammenhangskomponenten, 42
93
Herunterladen