Formelsammlung Mathematische Grundlagen für die Informatik Wolfgang Führer [email protected] August 2007 Inhaltsverzeichnis 1 Lineare Algebra 1.1 1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1 Abelsche Gruppe (1 Operation - + oder *) . . . . . . . . . . . . . 1 1.1.2 Körper ( 2 Operationen - + und *) . . . . . . . . . . . . . . . . . . 1 1.1.3 Vektorraum V über K . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.4 Linearkombination . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.5 Linear unabhängig . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.6 Dimension von V . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.1.7 Homomorphismus (lineare Abbildung) . . . . . . . . . . . . . . . . 14 1.1.8 Bilinearform 1.1.9 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.1.10 Orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.1.11 Orthogonalraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.2 1.3 1.4 Lineare Gleichungssysteme (LGS) . . . . . . . . . . . . . . . . . . . . . . . 20 1.2.1 Matrizenprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.2.2 Lösungsmenge eines LGS . . . . . . . . . . . . . . . . . . . . . . . 21 1.2.3 Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.2.4 Gauss-Jordan-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 22 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.3.1 Typen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.3.2 Matrizen Transposition . . . . . . . . . . . . . . . . . . . . . . . . 26 1.3.3 Matrizen Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 1.3.4 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . 26 1.3.5 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.3.6 Matrizentransformationen . . . . . . . . . . . . . . . . . . . . . . . 27 Determinanten und invertierbare Matrizen . . . . . . . . . . . . . . . . . . 28 1.4.1 Matrix Aij . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 ii Inhaltsverzeichnis 1.4.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.4.3 Reguläre Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.4.4 Matrixgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.4.5 Inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2 Graphentheorie 2.1 34 Graphen Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.1.1 Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.1.2 Schlinge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.1.3 Schlichter Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.1.4 Grad eines Knoten . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.1.5 Handschlaglemma . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.1.6 Vollständiger Graph . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.1.7 Komplementgraph . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.1.8 Untergraph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.1.9 Kantenzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.1.10 Zusammenhängender Graph . . . . . . . . . . . . . . . . . . . . . . 37 2.1.11 Isomorphe Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.1.12 Wald . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.1.13 Baum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.2 2.3 2.4 2.5 Gerichtete Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.2.1 Gerichteter Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.2.2 Grad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.2.3 Gerichteter Kantenzug . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.2.4 Starker Zusammenhang . . . . . . . . . . . . . . . . . . . . . . . . 39 2.2.5 Azyklischer Graph . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Darstellung von Graphen im Computer . . . . . . . . . . . . . . . . . . . 40 2.3.1 Adjazenzmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.3.2 Adjazenzliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Durchsuchen von Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.4.1 Tiefensuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.4.2 Artikulationspunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.4.3 Breitensuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.4.4 Topologisches Sortieren . . . . . . . . . . . . . . . . . . . . . . . . 44 Kreis und Wegeprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.5.1 Eulersche Kreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 iii Inhaltsverzeichnis 2.6 2.7 2.5.2 Algorithmus von Hierholzer . . . . . . . . . . . . . . . . . . . . . . 46 2.5.3 Hamiltonsche Kreise . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Kürzeste Wege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.6.1 Kantengewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.6.2 Abstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.6.3 Algorithmus von Dijkstra . . . . . . . . . . . . . . . . . . . . . . . 48 Aufspannende Bäume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.7.1 Aufspannender Baum . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.7.2 Minimal aufspannender Baum . . . . . . . . . . . . . . . . . . . . . 51 2.7.3 Abzählung von aufspannenden Bäumen . . . . . . . . . . . . . . . 52 2.7.4 Prüfercode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.7.5 Algorithmus von Prim . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.7.6 Algorithmus von Kruskal . . . . . . . . . . . . . . . . . . . . . . . 55 2.7.7 Traveling Salesman Problem (TSP) . . . . . . . . . . . . . . . . . . 56 3 Wahrscheinlichkeit 3.1 3.2 3.3 3.4 57 Der Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.1.1 Ereignisfeld I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.1.2 Vollständiges Ereignissystem . . . . . . . . . . . . . . . . . . . . . 58 3.1.3 Eigenschaften der relativen Häufigkeit . . . . . . . . . . . . . . . . 58 3.1.4 Eigenschaften der Wahrscheinlichkeit . . . . . . . . . . . . . . . . . 58 3.1.5 De Morgansche Regeln . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.1.6 Kombinatorische Formeln . . . . . . . . . . . . . . . . . . . . . . . 59 Der klassische Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . 59 3.2.1 Laplace Versuch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.2.2 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . 60 3.2.3 Produktformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.2.4 Stochastisch unabhängig . . . . . . . . . . . . . . . . . . . . . . . . 60 3.2.5 Produktformel für bedingte Wahrscheinlichkeit . . . . . . . . . . . 61 Totale Wahrscheinlichkeit und Bayes’sche Formel . . . . . . . . . . . . . . 62 3.3.1 Totale Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . 62 3.3.2 Formel von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 Diskrete Zufallsgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.4.1 Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.4.2 Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 3.4.3 Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 iv Inhaltsverzeichnis 3.5 Stetige Zufallsgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.5.1 Dichtefunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.5.2 Verteilungsfunktion 3.5.3 Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . 67 3.5.4 Gleichverteilung auf [a,b] . . . . . . . . . . . . . . . . . . . . . . . 68 3.5.5 Dreiecksverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.5.6 Exponentialverteilung mit Parameter λ . . . . . . . . . . . . . . . 68 3.5.7 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3.5.8 Satz von Moivre und Laplace . . . . . . . . . . . . . . . . . . . . . 69 3.5.9 Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . 70 . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.5.10 Ungleichung von Tschebyscheff . . . . . . . . . . . . . . . . . . . . 70 3.5.11 Übersichtstabelle Verteilungsfunktionen . . . . . . . . . . . . . . . 71 4 Formeln 72 4.1 Differentialrechnung - Regeln zur Ableitung . . . . . . . . . . . . . . . . . 72 4.2 Integralrechnung - Stammfunktionen und Regeln . . . . . . . . . . . . . . 73 5 Programme 74 5.1 Geogebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 5.2 Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.3 yEd Graph Editor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.4 math4u2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 5.5 GraphAnalyser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.6 Lyx . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.7 Sonstiges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 6 Literaturverzeichnis 90 v 1 Lineare Algebra 1.1 Vektorräume 1.1.1 Abelsche Gruppe (1 Operation - + oder *) Eine Abelsche Gruppe (G,◦) besteht aus einer Menge G und einer Operation ◦ : G×G → G, (a, b) → a ◦ b, so dass folgende Axiome erfüllt sind: 1. (a ◦ b) ◦ c = a ◦ (b ◦ c), ∀a, b, c ∈ G (Assoziativgesetz) 2. Es gibt ein neutrales Element e ∈ G mit ∀a ∈ G : e ◦ a = a = a ◦ e 3. Es gibt ein inverses Element e ∈ G mit ∀a ∈ G, ∃a0 ∈ G : a0 ◦ a = e = a ◦ a0 4. ∀a, b ∈ G : a ◦ b = b ◦ a (Kommutativgesetz) 1.1.2 Körper ( 2 Operationen - + und *) Ein Körper ist eine algebraische Struktur, bestehend aus einer Menge K von Elementen, zusammen mit den Verknüpfungen + und *. Die Verknüpfungen ordnen je zwei Elementen α, β ∈ K wieder ein Element α + β und α ∗ β aus der Menge K zu. Damit eine solche Menge K als Körper bezeichnet werden kann, müssen verschiedene Gesetze erfüllt sein: 1. (K, +) ist eine abelsche Gruppe mit neutralem Element 0. 2. (K \ {0} , ∗) ist eine abelsche Gruppe mit dem neutralen Element 1. 3. ∀α, β, γ ∈ K : α ∗ (β + γ) = (α ∗ β) + (α ∗ γ) (Distributivgesetz) 1 1 Lineare Algebra 1.1.3 Vektorraum V über K Es gibt eine Verknüpfung ∗ : K × V → V mit den Eigenschaften: 1∗x = x x∈V α ∗ (x +v y) = α ∗ x +v α ∗ y α ∈ K, x, y ∈ V (α +k β) ∗ x = α ∗ x +v β ∗ x α, β ∈ K, x ∈ V (α · β) ∗ x = α ∗ x +v β ∗ x α, β ∈ K, x ∈ V (1.1) Das additive Einselement von V ist 0v und heißt Nullvektor von V . Jeder Vektorraum V besitzt zwei “triviale” Unterräume, nämlich U = {0} und U = V . Satz: Sei V ein Vektorraum über dem Körper K. U ⊆ V ist genau dann ein Unterraum von V, wenn für alle α, β ∈ K und alle a, b ∈ U gilt: α∗a+β∗b∈U 2 (1.2) 1 Lineare Algebra 1.1.3.1 Beispiel Ist U1 = {(x, y) | 3x − 4y = 0} ein Unterraum von R2 ? Feststellung: Unterraum ist gegeben wenn α ∗ a + β ∗ b ∈ U Gegeben: α, β ∈ R und (k, l), (m, n) ∈ U1 Das heißt: 3k − 4l = 0 3m − 4n = 0 (a) (b) Zu zeigen: α(k, l) + β(m, n) ∈ U1 (c) Rechnung: α(k,l)+β(m,n) = (αk,αl)+(βm,βn) = (αk+βm,αl+βn) Eingesetzt: 3(αk+βm)−4(αl+βn) = 0 = 3αk+3βm−4αl−4βn = α(3k−4l)+β(3m−4n) = α· 0 = +β· 0 (d) 0 wegen (a) und (b) (e) Man sieht, dass (e) = (d) und somit ist (c) bewiesen. U1 ist ein Unterraum von R2 . 3 1 Lineare Algebra 1.1.3.2 Beispiel Ist U2 = {(x, y) | x − 2y = 1} ein Unterraum von R2 ? Feststellung: Unterraum ist gegeben wenn α ∗ a + β ∗ b ∈ U Gegeben: α, β ∈ R und (k, l), (m, n) ∈ U2 Das heißt: k − 2l = 1 m − 2n = 1 (a) (b) Zu zeigen: α(k, l) + β(m, n) ∈ U2 (c) Rechnung: α(k,l)+β(m,n) = (αk,αl)+(βm,βn) = (αk+βm,αl+βn) Eingesetzt: (αk+βm)−2(αl+βn) = 1 = αk+βm−2αl−2βn = α(k−2l)+β(m−2n) = α· = 1 +β· (α+β)·1 (d) 1 wegen (a) und (b) (e) Man sieht, dass (e) 6=(d). U2 wäre nur dann ein Unterraum von R2 wenn (α + β) = 1. Deshalb ist U2 kein Unterraum von R2 . Satz: Die skalaren Vielfachen eines Vektors bilden einen Unterraum. Satz: Sei V ein Vektorraum über dem Körper K und x ∈ V dann gilt: 1. SpanK (x) = {y | y = α ∗ x, a ∈ K} ist ein Unterraum von V 2. Sei y ∈ SpanK (x) mit y 6= 0. Dann SpanK (x) = SpanK (y) (jedes Element von SpanK (x) - außer dem Nullvektor - kann also als “Vertreter” dieses Unterraums gewählt werden). 4 1 Lineare Algebra 1.1.4 Linearkombination Es sei V ein Vektorraum über K sowie α1 , ..., αm ∈ K und a1 , ..., am ∈ V, m ≥ 1. Dann heißt a= m X αi ai = α1 a1 + ... + αm am i=1 eine Linearkombination von a1 , ..., am . Satz: Sei V ein Vektorraum über dem Körper K und A = {x1 , ..., xm } ⊆ V eine nicht leere Menge von Vektoren aus V. Dann ist SpanK (A) = {α1 x1 + α2 x2 + ... + αm xm | αi ∈ K, 1 ≤ i ≤ m} ein Unterraum von V . Die Menge der Linearkombinationen von Vektoren eines Vektorraums bilden einen von diesen Vektoren aufgespannten Unterraum. Man schreibt auch SpanK (A) = Kx1 + ... + Kxm = Pm i=1 Kxi oder noch kürzer SpanK (A) = K · A . 1.1.5 Linear unabhängig Sei V ein Vektorraum über dem Körper K. Die Vektoren a1 , ..., am ∈ V heißen linear abhängig, falls es eine nicht triviale Linearkombination gibt, mit α1 a1 + ... + αm am = 0 Die triviale Linearkombination wäre wenn α1 = α2 = ... = αm = 0 . 5 (1.3) 1 Lineare Algebra Satz: Sei V ein Vektorraum über dem Körper K, dann sind die Vektoren a1 , ..., am ∈ V linear abhängig genau dann, wenn mindestens ein Vektor ai eine Linearkombination der anderen ist. m X ai = αj aj j=1,j6=i Eine Menge von Vektoren ist linear unabhängig genau dann, wenn sich keines ihrer Elemente als Linearkombination der anderen Elemente darstellen läßt. 1.1.5.1 Beispiel Beweisen sie das die Vektoren B = 1 1 0 , 1 0 1 , 0 1 1 linear unabhängig sind! Feststellung: Die Vektoren sind linear unabhängig, wenn es für die Linearkombination α· 1 1 0 +β· 1 0 1 +γ· 0 1 1 = 0 0 0 nur die triviale gibt. D.h. wenn α = β = γ = 0 sind (nach 1.3). Rechnung: α α + β β ... β ... −γ α ... + ... −γ α ... + β ... β ... α, γ ... β, ... ⇒ + + ... γ γ ... + + ... γ γ ... + + ... γ γ γ ... = = = ... = = = ... = = = ... = 0 0 0 ... 0 0 0 ... 0 0 0 ... 0 ⇒ α = −γ ⇒ β=γ ⇒ γ=0 ⇒ triviale F orm Somit sind die Vektoren linear unabhängig und stellen einen Unterraum in R3 dar. SpanK (B) = R3 . 6 1 Lineare Algebra Alternative Rechnung mittels Gauss-Jordan: 1 1 0 | 1 0 1 | 0 1 1 | 1 1 0 | 0 0 2 | 0 1 1 | 1 0 −1 | 1 | 0 0 0 1 1 | 1 0 0 | 0 0 1 | 0 1 0 | 0 0 0 0 0 0 0 0 0 0 0 0 Z2−Z1 −→ Z2+Z3 Z2/2 −→ Z1−Z3 Z1+Z2 −→ Z3−Z2 ⇒ α = 0, β = 0, γ = 0 Alternative Rechnung mittels Determinante: 1 1 0 Wenn die Determinante det 1 0 1 6= 0 dann sind die Vektoren linear unabhängig. 0 1 1 1 det 1 0 1 0 1 + 0 & 1 nach Sarrus: 1 + & 1 1 0 + & 1 0 1 0 1 1 − . 1 1 0 − . 1 0 1 − . = 1·0 · 1 + 1 · 1 · 0 + 0 · 1 · 1 − 0 · 0 · 0 − 1 · 1 · 1 − 1 · 1 · 1 = 0 + 0 + 0 − 0 − 1 − 1 = −2 Die Determinante ergibt -2, somit 6= 0 und somit sind die Vektoren linear unabhängig. 7 1 Lineare Algebra 1.1.5.2 Beispiel 1 1 1 Im Vektorraum R3 betrachten wir die Vektoren u = 2 , v = 2 , w = 2 . Zeigen sie, dass 2 −1 5 sich w aus einer Linearkombination von u und v darstellen lässt. Zu zeigen: α · u + β · b = w Wenn man u, v und w als Matrix sieht und u, v ∈ A , w ∈ B dann ist · A 1 2 2 1 2 −1 x α β · = B = B ! Die Matrixmultiplikation entspricht 1α + 1β = 1 2α + 2β = 2 2α + (−1)β = 5 Die zweite Zeile kann wegfallen, da sie Zeile 1 entspricht. Wir lösen mit erweiterter Koeffizientenmatrix: 1 2 1 −1 | | 1 5 ! → 1 0 1 −3 | | 1 3 ! → 1 0 1 1 Also ist 2 · u + (−1) · v = w. 8 | | 1 −1 ! → 1 0 0 1 | | 2 −1 ! ⇒ α = 2, β = −1 1 Lineare Algebra 1.1.5.3 Beispiel Stellt B = 1 1 0 , 1 0 1 , 0 1 1 = SpanK (B) eine Basis für R3 dar? Feststellung: Die Vektoren stellen eine Basis für R3 dar, wenn die Skalare α, β und γ in der Linearkombination α· 1 1 0 +β· 1 0 1 +γ· 0 1 1 = x y z durch x, y und/oder z darstellbar sind und linear unabhängig sind. Lineare Unabhängigkeit wurde in der vorangegangenen Aufgabe festgestellt. Rechnung: α α + β β ... β ... (y − γ) α ... + ... (y − γ) α ... + β ... β ... (x − y + γ) ... ... γ = + + ... γ γ ... + + ... γ γ ... + + ... γ γ ... = = = ... = = = ... = = = ... z−x+y 2 x y z ... x y z ... x y z ... ⇒ α=y−γ ⇒ β =x−y+γ ⇒ γ= (c) 9 z−x+y 2 (a) (b) 1 Lineare Algebra (c) in (b) eingesetzt β = x−y+γ = x−y+ z−x+y 2 = 2x − 2y + z−x+y 2 2 2 = x+z−y 2 = y−γ = y− z−x+y 2 = 2y − z−x+y 2 2 = y+x−z 2 (d) (c) in (a) eingesetzt α (e) Da α, β und γ wie in (e), (d) und (c) gezeigt durch x, y, z darstellbar sind (und die Vektoren linear unabhängig sind - Aufgabe davor) stellt B eine Basis für R3 dar. Alternative Rechnung mittels Gauss-Jordan: 1 1 0 | x 1 0 1 | y 0 1 1 | z 1 1 0 | x 0 −1 1 | y − x 1 1 | z 0 1 1 0 | x 0 0 2 | y−x+z 0 1 1 | z 1 1 0 | x 0 0 1 | y−x+z 2 0 1 1 | z 1 0 −1 | x − z 0 0 1 | y−x+z 2 2z 0 1 0 | − y−x+z = z+x−y 2 2 2 y−x+z 2x−2z + = x+y−z 1 0 0 | 2 2 2 0 0 1 | y−x+z 2 0 1 0 | z+x−y 2 1 0 0 | x+y−z 2 0 0 1 | y−x+z 2 0 1 0 | z+x−y 2 Z2−Z1 −→ Z2+Z3 −→ Z1−Z3 −→ Z2/2 Z3−Z2 −→ Z1+Z2 −→ −→ ⇒ α= γ= β= x+y−z 2 y−x+z 2 z+x−y 2 Kommt zum gleichen Ergebnis. Achtung beim Auslesen von β und γ! 2. Spalte ist β, 3. Spalte ist γ! 10 1 Lineare Algebra 1.1.6 Dimension von V Sei V ein endlichdimensionaler Vektorraum über dem Körper K und B ∈ V eine Basis von V. Dann heißt din(V ) =| B | die Dimension von V. Für den Vektorraum V = {0} setzen wir dim(V ) = 0. Für jeden Körper K gilt: dim(K n ) = n (1.4) 1.1.6.1 Beispiel Berechnen sie die Koordinaten des Vektors (1, 1, 1) ∈ R3 bezüglich der Basis B = 1 1 0 , 1 0 1 , 0 1 1 . Rechnung: Die Lösung aus der Aufgabe zuvor zeigt, das α = x+y−z 2 ,β= z+x−y 2 und γ = y−x+z 2 sind. Für (x, y, z) = (1, 1, 1) gilt: (1, 1, 1) = 1+1−1 2 = 1 2 1 1 0 1 1 0 1−1+1 + 2 1 + 2 1 0 1 1 + 2 1 0 1 0 1 1 1−1+1 + 2 0 1 1 Die Koordinaten von (1, 1, 1) bezüglich B sind also ( 12 , 12 , 12 ). Man kann die Aufgabe aber auch ohne vorherige Berechnung von α, β und γ lösen. Man nutzt dazu die Matrizenmultiplikation. 1 1 0 Die Basisvektoren B = stellen dabei die Matrix B dar. Multipliziert man die Basis B 1 , 0 , 1 0 1 1 mit dem Vektor X der Basis, erhält man die Koordinaten C = (1, 1, 1) bezüglich B . Formal wird das deutlicher: 1 1 0 B 1 0 1 0 1 1 ∗ X = ∗ X = C 1 1 1 11 ⇒ X = B −1 ∗ ⇒ X = B −1 ∗ C 1 1 1 1 Lineare Algebra Wir müssen also die inverse Matrix B −1 bestimmen. Das geht mit Gauss-Jordan indem wir B zu einer Einheitsmatrix umwandeln und seine Einheitsmatrix E alle Operationen mitmachen lassen. ··· 1 1 0 ··· 1 0 0 ··· 1 0 0 ··· 1 0 0 ··· 1 0 0 ··· 1 0 0 ··· B ··· 1 0 1 ··· 1 −1 1 ··· 1 0 1 ··· 0 0 1 ··· 0 0 1 ··· 0 1 0 ··· E ··· 0 1 0 ··· 0 1 1 ··· 0 2 1 ··· −1 1 1 ··· 0 1 0 ··· 0 0 1 ··· ··· | | | ··· | | | ··· | | | ··· | | | ··· | | | ··· | | | ··· ··· 1 0 0 ··· 1 −1 0 ··· 1 −1 0 ··· 1 − 12 0 ··· E ··· 0 1 0 ··· 0 1 0 ··· 0 1 0 ··· 0 ··· 0 0 1 ··· 0 0 1 ··· 0 1 1 ··· −1 1 2 1 2 0 ··· 1 ··· − 12 1 2 − 12 1 2 1 2 1 2 − 12 ··· ··· 1 2 1 2 − 12 1 2 − 12 1 2 ··· ··· B −1 ⇒ X Z2 − Z1 −→ Z2 + Z3 −→ Z2/2 −→ Z1 − Z3 Z1 + Z2 −→ Z3 − Z2 Z2 ↔ Z3 −→ 1 2 1 2 ··· − 12 1 2 1 2 ··· Setzen wir nun in obige Formel ein: 1 1 0 B 1 0 1 ∗ X = 0 1 1 ∗ X = C 1 1 1 B −1 = ⇒ X = = 1 2 1 2 − 12 1 2 − 12 1 2 1 21 2 1 2 ∗ − 12 1 2 1 2 ∗ C 1 1 1 Die Koordinaten von (1, 1, 1) bezüglich B sind also ( 12 , 12 , 12 ). Diese Methode scheint keinen (Schreib-)Vorteil gegenüber der anderen zu haben, allerdings sollte man bedenken das das erzeugen einer inversen Matrix bei einem Taschenrechner oder einem CAS-Programm nur ein Tastendruck ist und “Invert(B)*C” sofort das Ergebnis liefert. Für die praktische Arbeit ist das Wissen um diese Vorgehensweise unerlässlich. 12 1 Lineare Algebra Die sinnvollste Vorgehensweise auf Papier wäre aber: B ∗ X = ⇒ C E ∗ X dann ist X = C. 1 1 0 1 0 1 0 1 1 1 1 0 0 −1 1 1 1 0 1 1 0 0 0 2 0 1 1 1 1 0 0 0 1 0 1 1 1 1 0 0 0 1 0 1 0 1 0 0 0 0 1 0 1 0 1 0 0 0 1 0 0 0 1 1 1 1 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 12 | 1 | 1 | 12 1 | 2 | 12 | 12 | 12 | 12 | 12 1 | 2 | | | Die Koordinaten von (1, 1, 1) bezüglich B sind also ( 12 , 12 , 12 ). 13 Z2−Z1 −→ Z2+Z3 −→ Z2÷2 −→ Z3−Z2 −→ Z1−Z3 −→ Z2↔Z3 −→ = C 1 Lineare Algebra 1.1.7 Homomorphismus (lineare Abbildung) Seien V und W Vektorräume über dem Körper K und die Abbildung f : V → W sei definiert durch: f (a + b) = f (a) + f (b) f (α ∗ a) = α ∗ f (a) (1.5) für alle a, b ∈ V und α ∈ K, dann heißt f lineare Abbildung oder Homomorphismus. Wenn f zusätzlich bijektiv ist, d.h. es existiert ein Umkehrhomomorphismus, dann spricht man von einem Isomorphismus. Satz: Sei f : V → W ein lineare Abbildung des Vektorraums V auf den Vektorraum W. Dann gilt: 1. f (~0) = ~0 2. f (α ∗ a + β ∗ b) = α ∗ f (a) + β ∗ f (b) für alle a, b ∈ V und alle α, β ∈ K 3. f (−a) = −f (a) für alle a ∈ V 4. Die Menge Bild(f ) = {f (x) | x ∈ V } ist ein Unterraum von W, der so genannte Bildraum von f. 5. Die Menge Kern(f ) = {x ∈ V | f (x) = ~0} ist ein Unterraum von W, der so genannte Kern von f. Satz: Es seien V und W endlichdimensionale Vektorräume über dem Körper K sowie f : V → W eine lineare Abbildung von V nach W. Dann gilt: dim(v) = dim(Kern(f )) + dim(Bild(f ) 14 (1.6) 1 Lineare Algebra Folgerung: Sei f : V → W eine lineare Abbildung des Vektorraums V auf den Vektor W. Dann gilt: 1. ~0 ∈ Kern(f ) Der Kern ist also niemals leer. 2. f ist injektiv genau dann, wenn Kern(f ) = {~0} gilt. 3. f ist surjektiv genau dann, wenn Bild(f ) = W gilt. 4. Ist f bijektiv (injektiv und surjektiv), dann ist f −1 eine lineare Abbildung von W nach V. 15 1 Lineare Algebra 1.1.7.1 Beispiel Sei f : R3 → R eine Abbildung definiert durch: f (x, y, z) = x + y + z. a) Ist f eine lineare Abbildung? Wenn f eine lineare Abbildung ist gilt: 1. f (a + b) = f (a) + f (b) 2. f (α ∗ a) = α ∗ f (a) Für (k, l, m), (r, s, t) ∈ R3 und α ∈ R muß gelten: 1. f s l + r m t linke Seite: f rechte Seite: f k k l m k l m +f = r s t r l +f s m t k f s r t + = = k+r l+s m+t k+r+l+s+m+t k+l+m+r+s+t (a) = k+l+m+r+s+t (b) = f 2. f α∗ linke Seite: f α rechte Seite: α∗f k l m α∗f k l m k l m = k l m = αk αl αm αk + αl + αm = α ∗ (k + l + m) = αk + αl + αm = f (c) (d) Da 1. (a) = (b) und 2. (c) = (d) sind die Bedingungen erfüllt und f ist eine lineare Abbildung. 16 1 Lineare Algebra b) Bestimmen sie Bild(f )! Zu jeder Zahl z ∈ R existiert z.B. das Tripel (z, 0, 0) ∈ R3 mit f (z, 0, 0) = z + 0 + 0 = z . Somit ist Bild(f ) = R da jedes z ∈ R dargestellt werden kann. c) Bestimmen sie Kern(f )! Kern(f ) = = = = (x, y, z) ∈ R3 | f (x, y, z) = 0 (x, y, z) ∈ R3 | x + y + z = 0 (x, y, z) ∈ R3 | x + y = −z (x, y, −(x + y)) ∈ R3 | x, y ∈ R Der Kern(f ) besteht somit aus Tripel, die aus einer beliebigen Kombination von x, y ∈ R gebildet werden. Folgerung für f : aus a) f ist eine lineare Abbildung (Homomorphismus) aus b) Bild(f ) = R. ist f surjektiv n Somit o aus c) Kern(f ) 6= ~0 . Somit ist f nicht injektiv. Somit ist f ein Homomorphismus von V → W aber kein Isomorphismus weil c) nicht gegeben ist. 1.1.8 Bilinearform Sei V ein Vektorraum über dem Körper K. Gelten für die Abbildung φ : V × V → K die Bedingungen φ(α ∗ x + β ∗ y, z) = α ∗ φ(x, z) + β ∗ φ(y, z) φ(x, α ∗ y + β ∗ z) = α ∗ φ(x, y) + β ∗ φ(x, z) (1.7) für alle x, y, z ∈ V und α, β ∈ K, dann heißt φ eine Bilinearform. Gilt zusätzlich φ(x, y) = φ(y, x), dann heißt φ symmetrische Bilinearform. 17 1 Lineare Algebra 1.1.8.1 Beispiel Die Abbildung φ : R3 × R3 → R sei definiert durch k l m φ r s t , ⇐⇒ k l m φ r s t =kr+ls−mt a) Ist φ eine Bilinearform? Für (k, l, m), (r, s, t), (u, v, w) ∈ R3 und α, β ∈ R muß gelten: = φ(α∗x+β∗y,z) α∗φ(x,z)+β∗φ(y,z) 1. φα∗ linke Seite: k l m +β∗ r s t u v w , φ = α∗φ rechte Seite: αk αl αm , u v w +β∗φ βr βs βt = φ = = = αku+βru+αlv+βsv−αmw−βtw αku+αlv−αmw+βru+βsv−βtw = α∗(ku+lv−mw)+β∗(ru+sv−tw) = αku+αlv−αmw+βru+βsv−βtw (αk+βr)u+(αl+βs)v−(αm+βt)w (a) u v w , αk βr u + βs , v αl w βt αm αk + βr u , v αl + βs αm + βt w (b) 2. φ k l m linke Seite: φ rechte Seite: r s t k l m ,α∗ α∗φ k l m , u v w +β∗ ,α∗ r s t r s t = α∗φ u v w +β∗ +β∗φ k l m k l m , r s t +β∗φ k l m , u v w = φ = = = αkr+βku+αls+βlv−αmt−βmw αkr+αkr−αmt+βku+βlv−βmw = α∗(kr+ls−mt)+β∗(ku+lv−mw) , u v w k l m , αr + βu αs + βv αt + βw k(αr+βu)+l(αs+βv)−m(αt+βw) αkr+αkr−αmt+βku+βlv−βmw Da 1. (a)=(b) und 2. (c)=(d) zutreffen ist φ eine Bilinearform. 18 (c) (d) 1 Lineare Algebra b) Ist φ eine symmetrische Bilinearform? Ist φ k l m , u v w =φ u v w , k l m ? ku+lv−mw = uk+lv−wm ku+lv−mw = ku+lv−mw φ ist also eine symmetrische Bilinearform. 1.1.9 Skalarprodukt Für die Elemente eines Vektorraums ist bisher nur eine Operation bekannt, nämlich die Addition von Vektoren. Die Multiplikation von Vektoren, das Skalarprodukt, ist wie folgt definiert: Sei K ein Körper. Die Abbildung ⊗ : K n × K n → K definiert durch x1 x⊗y = xi yi mit x = i=1 x2 .. . n X y1 y2 und y = . . . xn yn (1.8) heißt Skalarprodukt oder auch inneres Produkt von x und y. 1.1.10 Orthogonal Sei K ein Körper. Zwei Vektoren x, y ∈ K n , n ∈ N heißen orthogonal, falls x ∗ y = 0. Schreibweise x ⊥ y . Gilt x ⊥ y für den Vektor x, y ∈ K n , dann heißt x selbstorthogonal. 1.1.11 Orthogonalraum Sei K ein Körper und V ein Unterraum von K n . Dann heißt die Menge V ⊥ = {x ∈ K n | x ⊥ y f uer alle y ∈ V } der Orthogonalraum oder Dualraum zu V. 19 1 Lineare Algebra 1.1.11.1 Beispiel Es seien x = (1, 2, 3) und y = (8, 5, −6) Vektoren aus R3 . Sind x und y orthogonal? x·y=(1,2,3)· 8 5 −6 =1·8+2·5+3·(−6)=0 Damit ist gezeigt das x und y orthogonal zueinander sind. Satz: Sei K ein Körper und V ein Vektorraum von K n . Dann gilt: 1. V ⊥ ist ebenfalls ein Unterraum von K n 2. dim(V ) + dim(V ⊥ ) = dim(K n ) = n 3. (V ⊥ )⊥ = V 4. (K n )⊥ = {0} 1.2 Lineare Gleichungssysteme (LGS) Es sei m, n ∈ N. Ein System gmn (x) von m linearen Gleichungen mit n Unbekannten x1 , ..., xn über einem Körper K ist gegeben durch: a11 x1 + a12 x2 + ··· + a21 x1 .. . + .. . a21 x2 .. . + · · · + a2n Xn = b2 .. .. .. .. . . . . . = .. a1n xn = b1 am1 x1 + am2 x2 + · · · + amn xn = bn Dabei heißen die aij , bj ∈ K, 1 ≤ i ≤ m, 1 ≤ j ≤ n, Koeffizienten des Gleichungssystems, b = (b1 , ..., bm ) ∈ K m heißt auch Ereignisvektor von gmn (x). Ist bi = 0, 1 ≤ i ≤ m, dann heißt gmn (x) homogen, sonst inhomogen. Für x = (x1 , ..., xn ) sei GLK mn [x] die Menge aller (m × n)-Gleichungssysteme über dem Körper K. 20 1 Lineare Algebra 1.2.1 Matrizenprodukt Wenn man b1 b2 b= .. . bm ∈ Km und x1 x2 x= .. . xn ∈ Kn als (m × 1) bzw. als (n × 1) Matrizen auffasst, läßt sich ein (m×n) Gleichungssystem gmn (x) auch als Matrizenprodukt A∗x = b darstellen. 1.2.2 Lösungsmenge eines LGS Ein lineares Gleichungssystem (A,b) über dem Körper K heißt lösbar, falls es einen Vektor l = (l1 , ..., ln ) ∈ K n gibt, so dass A · l = b gibt. l heißt Lösung von (A,b) in K. Die Menge L(A, b) = {l ∈ K n | A · l = b} aller Lösungen von (A,b) in K heißt Lösungsmenge von (A,b) in K. Gibt es keine Lösung, d.h. ist L(A, b) = Ø, dann heißt (A,b) nicht lösbar in K. Zwei Gleichungssysteme (A1 , b1 ) und (A2 , b2 ) heißen äquivalent genau dann, wenn sie dieselben Lösungen besitzen, d.h. wenn L(A1 , b1 ) = L(A2 , b2 ) gilt. Schreibweise: (A1 , b1 ) ≡ (A2 , b2 ). Satz: Jedes homogene Gleichungssystem (A,0) ist lösbar. Satz: Sind l, l1 , l2 ∈ L(A, 0), dann gilt l1 + l2 ∈ L(A, 0) sowie α · l ∈ L(A, 0) für alle α ∈ K. 1.2.3 Transformationen Die Anwendung dieser Transformationen auf ein Gleichungssystem läßt dessen Lösungsraum unverändert. 1. Vertauschen von Zeilen 2. Vertauschen von Spalten 3. Addition eines Vielfachen einer Zeile zu einer anderen Zeile 4. Multiplikation einer Zeile mit einem Faktor 21 1 Lineare Algebra 1.2.4 Gauss-Jordan-Verfahren Jedes Gleichungssystem (A, b) ∈ GLK mn [x] läßt sich durch endliche Anwendung der Transformationen in ein äquivalentes Gleichungssystem der Art 1 0 .. . 0 0 .. . 0 0 1 .. . 0 0 .. . 0 ··· ··· .. . ··· ··· ··· ··· 0 0 .. . 1 0 .. . 0 ··· ··· .. . ··· ··· .. . ··· a1,r+1 a2,r+1 .. . ar,r+1 0 .. . 0 aa,n a2,n .. . ar,n 0 .. . 0 b1 b2 .. . br br+1 .. . bm umformen (Gauss-Jordan-Verfahren). 1. Ist eines der bi 6= 0 für i ≥ r + 1, dann besitzt (A,b) keine Lösung. 2. Ist r=n, dann hat das Gleichungssystem die Form x1 x2 .. . xn = = .. . = b1 b2 .. . bn Hieraus ergibt sich die eindeutige Lösung l = (b1 , ..., bn ). 3. Ist r < n, dann ergibt sich eine mehrdeutige Lösung, d.h. es gibt unendlich viele Lösungen: Man wählt die n − r Unbekannten xr+k = λk , 1 ≤ k ≤ n − r. Die Lösungen für xk, 1 ≤ k ≤ r ergeben sich dann durch: xk = bk − ak,r+1 λ1 − ak,r+2 λ2 − . . . ak,n λn−r Wählt man konkrete λk ∈ K, spricht man von einer speziellen Lösung. • Das Gleichungssystem (A, b) ∈ GLK mn [x] ist genau dann lösbar, wenn rang(A)=rang(A,b) ist. • Gilt rang(A)=n, dann besitzt das Gleichungssystem (A, b) ∈ GLK mn [x] eine eindeutig bestimmte Lösung. • Die Dimension des Lösungsraums des Gleichungssystems (A, 0) ∈ GLK mn [x] ist gegeben durch dim(L(A, 0)) = n − rang(A) 22 (1.9) 1 Lineare Algebra 1.2.4.1 Beispiel 1. Entsteht durch die Anwendung des Gauss-Jordan-Verfahrens eine Zeile, in der links vom Gleichheitszeichen eine Null steht und rechts eine Zahl ungleich Null, d.h. eine falsche Aussage, dann besitzt das lineare Gleichungssystem keine Lösung. 1 A= 0 0 0 1 0 5 0 5 ⇒ 0 6= 5 −1 1 0 ⇒ keine Loesung 1. F all rang(A) =2, rang(A,B)=3 . 2. Hat man nach Anwenden des Gauss-Jordan-Verfahrens eine Dreiecksform erhalten, so gibt es genauso viele Gleichungen wie Unbekannte und das lineare Gleichungssystem besitzt genau eine Lösung. 1 A= 0 0 1 1 0 6 0 ⇒ x3 = 4 4 3 1 1 weiter : x2 = −4, x1 = −1 2. F all rang(A)=3, rang(A,b)=3 . 3. Entsteht während des Anwendens des Gauss-Jordan-Verfahrens Null-Zeilen, d.h. es gibt weniger Gleichungen als Unbekannte, dann besitzt das Gleichungssystem unendlich viele Lösungen. 1 0 A= 0 0 0 1 0 0 0 0 3 0 1 4 1 0 2 1 2 0 ⇒ 0 0 0 0 ∗x4 = 0 ⇒ x4 kann beliebig gewaehlt werden (A, b) ∈ GLK 44 ⇒ n = 4 rang(A, b) = rang(A) = r = 3 Da r<n gibt es eine mehrdeutige Lösung. xr+k = λk , 1 ≤ k ≤ n − r ⇒ x3+1 = λ1 ⇒ x4 = λ1 x4 = λ 1 Die Lösungen: x1 = b1 − a1,r+1 λ1 = x2 = b2 − a2,r+1 λ1 = x3 = b3 − a3,r+1 λ1 = 2 − 1 · λ1 1 − 4 · λ1 2 − 13 · λ1 3 (3. Zeile ÷ 3 !) Der Lösungsvektor: 2 −1 2 − 1 · λ1 x = 1 − 4 · λ1 ⇒ l = 1 , l1 = −4 1 2 1 2 − 3 · λ1 −3 3 3 L(A, b) = {x | x = l + λ1 · l1 , λ1 ∈ R} l ist eine spezielle Lösung (für λ1 = 0 ) des inhomogenen Gleichungssystems (A,b). 23 3. F all 1 Lineare Algebra λ1 · l1 ist die Lösungsmenge des homogenen Gleichungssystems (A,0). Es ist dim(L(A, 0)) = n − rang(A) = 4 − 3 = 1. l1 ist der Basisvektor von L(A, 0). Satz: Die Lösungsmenge L(A, b) läßt sich wie folgt darstellen: L(A, b) = l + L(A, 0) 1.3 Matrizen 1.3.1 Typen Die Matrix A = a1,1 a2,1 (ai,j ) = .. . am,1 a1,2 a2,2 .. . am,2 ··· ··· .. . ··· a1,n a2,n .. . am,n heißt Koeffizientenmatrix. Die Elemente a1,1 , a1,2 , ..., a1,n stellen den 1. Zeilenvektor dar. Die Elemente a1,1 , a2,1 , ..., am,1 den 1. Spaltenvektor und a1,1 , a2,2 , ..., am,n die Diagonalelemente. Die Matrix (A, b) = a1,1 a2,1 .. . am,1 a1,2 a2,2 .. . am,2 ··· ··· .. . ··· a1,n a2,n .. . am,n b1 b2 .. . bm heißt erweiterte Koeffizientenmatrix. Die Koeffizienten des Gleichungssystems, b = (b1 , ..., bm ) ∈ K m heißt auch Ereignisvektor. Die Matrix A= a1,1 0 .. . 0 0 a2,2 .. . 0 24 ··· ··· .. . ··· 0 0 .. . am,n 1 Lineare Algebra ist eine Diagonalmatrix. Nur die Diagonalelemente haben einen Wert. Die Matrix a1,1 a2,1 A= .. . am,1 ··· ··· .. . ··· a1,2 a2,2 .. . am,2 a1,m a2,m .. . am,m ist eine quadratische Matrix. Die Matrix 1 0 .. . 0 A= ··· ··· .. . ··· 0 1 .. . 0 0 0 .. . 1 ist eine Einheitsmatrix. Dabei sind die Diagonalelemente 1 und die Restlichen 0. Schreibweise: A = Em oder A = E. Die Matrix 1 0 .. . 0 A= ··· ··· .. . ··· 0 1 .. . 0 a 0 .. . 1 ist eine Elementarmatrix Eij (a). Hier E1j (a). Die Matrix 1 A= 2 3 2 4 5 3 5 6 ist eine symmetrische Matrix. Spiegelt man die Matrixelemente an der Diagonalen so verändert sich die Matrix nicht. Die Matrix AT A= a1,1 a2,1 a1,2 a2,2 a1,3 a2,3 ! ⇒ ist die transponierte Matrix von A. 25 AT a1,1 = a1,2 a1,3 a2,1 a2,2 a2,3 1 Lineare Algebra 1.3.2 Matrizen Transposition k gilt: AT 1. Für alle Matrizen A ∈ Mmn T =A k ist genau dann symmetrisch, falls A = AT 2. A ∈ Mmn K und α ∈ K. Für die Transposition gelten folgende Regeln: 3. Es seien A, B ∈ Mmn - (A + B)T = AT + B T - (α ∗ A)T = α ∗ AT - (A · B)T = B T · AT 1.3.3 Matrizen Addition K und α ∈ K. Dann ist Seien A, B ∈ Mmn 1. C = A + B definiert durch (cij ) = (aij + bij ) die Summe von A und B 2. α ∗ A definiert durch (α ∗ aij ) 1.3.4 Matrizenmultiplikation K sowie B ∈ M K . Dann ist das Produkt C = A ∗ B ∈ M K definiert Es seien A ∈ Mml mn ln durch cij = l X aik ∗ bkj , 1 ≤ i ≤ m, 1 ≤ j ≤ n (1.10) k=1 Durch geeignete Partitionierung lässt sich die Matrizenmultiplikation in speziellen Fällen vereinfachen: A = (A1 | A2 ) und B= dabei habe A1 p Spalten und B1 p Zeilen. Dann gilt A ∗ B = A1 ∗ B1 + A2 ∗ B2 26 B1 B2 1 Lineare Algebra 1.3.5 Rang einer Matrix Die maximale Anzahl linear unabhängiger Zeilenvektoren (Spaltenvektoren) einer Matrix K heißt Rang von A, dieser wird mit rang(A)bezeichnet. A ∈ Mmn Satz: K gilt, dass ihr Zeilen- und Spaltenrang gleich sind. Für jede Matrix A ∈ Mmn 1.3.6 Matrizentransformationen Die Anwendung folgender Operationen läßt den Rang einer Matrix unverändert. 1. Vertauschen von Zeilen 2. Vertauschen von Spalten 3. Addition eines Vielfachen einer Zeile zu einer anderen Zeile 4. Multiplikation einer Zeile mit einem Faktor 5. Addition eines Vielfachen einer Spalte zu einer anderen Spalte 6. Multiplikation einer Spalte mit einem Faktor 27 1 Lineare Algebra 1.4 Determinanten und invertierbare Matrizen 1.4.1 Matrix Aij K , m ≥ 2, dann ist die Matrix A ∈ M K , 1 ≤ i, j ≤ m die Matrix A die Sei A ∈ Mm ij ij m−1 entsteht, wenn man aus Matrix A die i-te Zeile und die j-te Spalte herausstreicht. 1.4.2 Determinante K mit m ≥ 2, dann ist Sei A ∈ M1K , dann ist det(A) = a11 . Ist A ∈ Mm det(A) = a11 ∗ det(A11 ) − a12 ∗ det(A12 ) + ... + (−1)1+m ∗ a1m ∗ det(A1m ) m X = (−1)1+j ∗ aij ∗ det(Aij ) (1.11) j=1 Für alle A ∈ M2K a 11 a12 gilt: a21 a22 = a11 a22 − a12 a21 1.4.2.1 Beispiel det(A) a 21 − a12 a31 = a11 a21 a31 a12 a22 a32 a13 a23 a33 = a 22 +a11 a32 a23 a33 = +a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) a23 a33 a 21 + a13 a31 a22 a32 Die Berechnung von Determinanten erfolgt immer nach Entwicklung von Zeilen und Spalten. In diesem Beispiel nach der Entwicklung der 1. Zeile. 1 det(A) = 4 7 2 5 8 3 6 9 = 5 1 8 = 1 · (−3) − 2 · (−6) + 3 · (−3) = 0 28 6 9 4 − 2 7 6 8 4 + 3 7 5 8 1 Lineare Algebra Satz: K sowie 1 ≤ p, q, s, t ≤ m und α ∈ K n gilt: Sei A ∈ Mm 1. Ist eine Zeile oder Spalte von A gleich Null, dann ist die Determinante gleich Null. 2. Die Determinante einer Matrix ist gleich der Determinante ihrer Transponierten: det(A) = det(AT ). 3. Wird eine Zeile oder Spalte mit einem Skalar multipliziert, verändert sich auch die Determinante um diesen Faktor. det(rows=∗α (A)) = α ∗ det(A) det(columnt=∗α (A)) = α ∗ det(A) 4. Hat A zwei identische, benachbarte Zeilen, dann ist ihre Determinante gleich Null. Für Spalten gilt das gleiche. 5. Wird zu einer Zeile (Spalte) das α-fache einer Nachbarzeile (-spalte) addiert, dann ändert sich der Wert der Determinante nicht. det(rows=+α(s+1) (A)) = α ∗ det(A) det(columnt=+α(t+1) (A)) = α ∗ det(A) 6. Werden zwei benachbarte Zeilen (Spalten) von A vertauscht, dann wird die Determinante negativ. det(rows,s+1 (A)) = −det(A) det(columnt,t+1 (A)) = −det(A) Satz: K . Folgende Aussagen sind äquivalent: Sei A ∈ Mm 1. Die Zeilenvektoren (Spaltenvektoren) von A sind linear unabhängig 2. rang(A) = m 3. det(A) 6= 0 29 1 Lineare Algebra Folgerung: Sei (A, b) ∈ GLK m . Folgende Aussagen sind äquivalent: 1. det(A) = 0 2. rang(A) = rang(A, b) < m 3. (A, 0) besitzt nicht nur die triviale Lösung 4. Falls (A, b) lösbar ist, dann ist die Lösung mehrdeutig Satz: Es seien A, B ∈ GLm (K). Dann gilt: det(A · B) = det(A) · det(B) det(A−1 ) = (det(A))−1 det(An ) = (det(A))n 1.4.3 Reguläre Matrix K regulär genau dann, wenn det(A) 6= 0 ist. Wir beWir nennen eine Matrix A ∈ Mm zeichnen mit GLm (K)die Menge der regulären Matrizen über dem Körper K. Folgerung: Ist A ∈ GLm (K) und ist b ∈ K m , dann ist das Gleichungssystem (A, b) ∈ GLK m eindeutig lösbar. 1.4.4 Matrixgleichung Ein lineares Gleichungssystem A ∗ x = b kann man verallgemeinern zu einem linearen Matrizen-Gleichungssystem A∗X = B, indem man die beiden Vektoren x,b als Matrizen K und X = (x ), 1 ≤ i, j ≤ m. auffasst, mit B ∈ Mm ij Dann gilt ebenfalls: Die Matrixgleichung A ∗ X = B besitzt für A ∈ GLm (K) eine eindeutige Lösung X ∈ GLm (K). 30 1 Lineare Algebra 1.4.4.1 Beispiel Wir wollen folgendes Matrizen-Gleichungssystem lösen: −1 3 ! 2 2 ∗ x11 x21 x12 x22 ! 4 −2 = 5 1 ! Dies erfolgt normalerweise durch Lösen der beiden linearen Gleichungssysteme. −1 3 −1 3 2 2 ! 2 2 ! ∗ ∗ x11 x21 ! x12 x22 ! ! 4 −2 = 5 1 = ⇒ −1x11 + 2x21 3x11 + 2x21 ! = = −1x12 + 2x22 3x12 + 2x22 ⇒ = = 4 −2 5 1 0 1 − 32 ! ⇒ 1 0 0 1 −1 2 ! ⇒ 1 0 5 4 Beide Gleichungssysteme lassen sich aber auch gleichzeitig mit dem Gauss-Jordan-Verfahren lösen. Dabei wird A zur Einheitsmatrix E umgeformt. Aus A ∗ X = B wird E ∗ X = X und ergibt damit die Lösung. A B −1 2 3 ··· 2 ··· 1 −2 0 ··· 8 ··· 1 0 0 1 .. . . .. ··· .. . .. . ··· . .. .. . 4 5 −2 ··· 1 ··· −4 −5 10 ··· 16 ··· − 23 −1 5 4 2 E −1 3 2 2 X ! ∗ − 32 5 4 −1 2 ! = 4 −2 Satz: A ∗ X = B ⇒ X = A−1 ∗ B Y ∗ A = B ⇒ Y = B ∗ A−1 31 5 1 ! 1 Lineare Algebra 1.4.5 Inverse Matrix Es sei A ∈ GLK m eine reguläre Matrix. Die eindeutige Lösung der Gleichung A ∗ X = E heißt die zu A inverse Matrix. Diese wird mit A−1 bezeichnet. Sie wird nach dem GaussJordan-Verfahren gebildet. 1.4.5.1 Beispiel A= ··· A ··· ··· 1 0 1 2 −1 0 −3 ··· 2 ··· 2 ··· 1 0 1 0 −1 −2 0 ··· 2 ··· 5 ··· 1 0 1 0 1 2 0 ··· 0 ··· 1 ··· 1 0 0 0 1 0 0 ··· 0 ··· 1 ··· E Es ist also: A −1 = 1 2 −3 .. . ··· .. . .. . .. . ··· . .. .. . .. . ··· .. . .. . .. . ··· .. . .. . .. . ··· .. . 2 4 −1 0 1 2 1 0 ∈ GL3 (R) 2 ··· E ··· ··· 1 0 0 Z2−2·Z1 0 1 0 −→ 0 ··· 0 ··· 1 ··· Z3+3·Z1 1 0 0 Z2·(−1) −2 1 0 −→ 3 ··· 0 ··· 1 ··· Z3+2·Z2 1 0 0 Z2−2·Z3 2 −1 0 −→ −1 ··· 2 ··· 1 ··· 2 −2 −1 4 −5 −2 −1 ··· 2 ··· 1 ··· A−1 −2 −5 2 32 1 −2 ∈ GL3 (R) 1 1 Lineare Algebra Folgerung: Für alle reguläre Matrizen A ∈ GLm (K)gilt: 1. A ∗ Em = Em ∗ A = A 2. (A−1 )T = (AT )−1 3. A ∗ A−1 = A−1 ∗ A = Em Für Elementarmatrizen gilt: • (Eij (a))−1 = Eij (−a) 33 2 Graphentheorie 2.1 Graphen Grundlagen 2.1.1 Graph Ein Graph G = (V, E, γ) ist ein Tripel bestehend aus: • V, einer nicht leeren Menge von Knoten (Vertex) • E, einer Menge von Kanten (Edges) • γ, einer Inzidenzabbildung mit γ : E → {X | X ⊆ V, 1 ≤ |X| ≤ 2} Zwei Knoten a, b ∈ V heißen adjazent, wenn eine Kante e ∈ E existiert mit γ(e) = {a, b}. Ein Knoten a ∈ V heißt inzident zu der Kante e ∈ E, wenn a ∈ γ(e) gilt. Ein Graph G = (V, E, γ) heißt endlich, wenn die Knotenmenge V und die Kantenmenge E endlich ist. 2.1.2 Schlinge Wir nennen eine Kante e ∈ E Schlinge, wenn sie nur zu einem Knoten inzident ist. Zwei Kanten e1 , e2 ∈ E heißen parallel, wenn sie zu den selben Knoten inzident sind. 2.1.3 Schlichter Graph Ein Graph G, der keine Schlingen und keine parallelen Kanten enthält, heißt schlicht. Da schlichte Graphen weder Schlingen noch parallele Kanten haben, können wir sie einfacher beschreiben. Wir beschreiben einen schlichten Graphen G = (V, E, γ) durch eine Knotenmenge V und eine Kantenmenge E ⊆ {{v, w} | v, w ∈ V, v 6= w}, die aus zweielementigen Teilmengen von V besteht. 34 2 Graphentheorie 2.1.4 Grad eines Knoten Der Grad deg(v) eines Knoten v ∈ V ist die Anzahl der zu v inzidenten Kanten. Hierbei zählen Schlingen doppelt. Der Maximalgrad ∆(G) eines Graphen G ist definiert durch: ∆(G) := max {deg(v) | v ∈ V } der Minimalgrad δ(G) durch: δ(G) := min {deg(v) | v ∈ V } Ein Knoten v mit deg(v) = 0 heißt isoliert. Ein Knoten v mit deg(v) = 1 heißt Blatt. 2.1.5 Handschlaglemma Jede Kante {v, w} geht genau zweimal in einen Knotengrad ein, was auch für Schlingen gilt, da diese doppelt zählen. Damit erhalten wir das so genannte Handschlaglemma. Für jeden endlichen Graphen G = (V, E, γ) gilt: X deg(v) = 2 |E| (2.1) v∈V Korollar: In endlichen Graphen ist die Anzahl der Knoten mit ungeraden Grad gerade. 2.1.6 Vollständiger Graph Es sei G = (V, E) ein Graph. Gilt {v, w} ∈ E für alle v, w ∈ V, v 6= w, dann heißt G vollständig. Den vollständigen Graphen mit n Knoten bezeichnen wir mit Kn . Ein vollständige Graph G = (V, E) hat alle möglichen Kanten für die Knotenmenge V. Seine Kantenanzahl beträgt |V | |V | (|V | − 1) = 2 2 35 (2.2) 2 Graphentheorie 2.1.7 Komplementgraph Für einen Graphen G = (V, E) heißt der Graph G = (V, E)mit E = {{v, w} | v, w ∈ V, v 6= w} \ E Komplementgraph von G. Der Komplementgraph G hat genau die Kanten, die G nicht hat. Für einen vollständigen Graphen besteht der Komplementgraph aus lauter isolierten Knoten. 2.1.8 Untergraph Es sei G = (V, E) ein Graph. Ein Graph H = (W, F ) mit W ⊆ V und F ⊆ E heißt Untergraph von G. Für W = V ist H ein aufspannender Untergraph von G. Gilt F = {{v, w} | {v, w} ∈ E, v, w ∈ W } dann heißt H induzierter Untergraph von G. Den durch die Knotenmenge W induzierten Untergraphen von G bezeichnen wir auch mit G(W). Graph: G Untergraph: Teil der Knoten und Teil der Kanten. Aufspannender Untergraph: Induzierter Untergraph: Besitzt alle Knoten, aber Kanten dürfen fehlen. Knoten und die zum Knoten "dazugehörigen" Kanten entfallen. 36 2 Graphentheorie 2.1.9 Kantenzug Es sei G = (V, E) ein Graph. Eine Folge (v0 , v1 , ..., vn ) von Knoten mit ei := {vi−1 , vi } ∈ E für i = 1, 2, ..., n heißt Kantenzug. Die Länge des Kantenzuges ist n. Ein Kantenzug, bei dem die ei alle verschieden sind, nennen wir Weg. Ein geschlossener Weg heißt Kreis. Ein einfacher Weg bzw. einfacher Kreis ist ein Weg (bzw. Kreis), bei dem die Knoten vi paarweise verschieden sind (bzw. mit Ausnahme von v0 = vn ). 2.1.10 Zusammenhängender Graph Ein Graph G = (V, E) heißt zusammenhängend, wenn zwischen je zwei Knoten von G ein Weg existiert. Eine Zusammenhangskomponente von G ist ein durch eine Knotenmenge U ⊆ V induzierter Untergraph G(U), der zusammenhängend und bezüglich der Knotenzahl maximal ist. Satz: Jeder zusammenhängende Graph G = (V, E) mit n Knoten hat mindestens n-1 Kanten. Graph mit 4 Zusammenhangskomponenten: 2.1.11 Isomorphe Graphen Zwei Graphen G1 = (V1 , E1 ) und G2 = (V2 , E2 ) heißen isomorph, wenn es eine bijektive Abbildung ϕ : V1 → V2 gibt, so dass für alle v, w ∈ V1 gilt: {v, w} ∈ E1 ⇐⇒ {ϕ(v), ϕ(w)} ∈ E2 Wir nennen ϕ einen Isomorphismus von G1 auf G2 und schreiben G1 ∼ = G2 . Zwei Graphen sind genau dann isomorph, wenn der eine Graph aus dem anderen durch Umbenennung der Knoten hervorgeht. 37 2 Graphentheorie 2.1.12 Wald Ein Graph G = (V, E), der keinen Kreis enthält, heißt Wald. 2.1.13 Baum Ein Graph G = (V, E), der keinen Kreis enthält und zusammenhängend ist heißt Baum. Satz: Für einen Graphen G = (V, E) mit |V | = n sind die folgenden Aussagen äquivalent: 1. G ist ein Baum. 2. Je zwei Knoten G sind durch genau einen Weg verbunden. 3. G ist zusammenhängend, aber für jede Kante e ∈ E ist G0 = (V, E \ {e}) nicht zusammenhängend. 4. G ist kreisfrei, aber für je zwei nicht adjazente Knoten v,w von G enthält G00 = (V, E ∪ {{v, w}} genau einen Kreis • Für Bäume gilt: |E| = |V | − 1 2.2 Gerichtete Graphen 2.2.1 Gerichteter Graph Ein gerichteter Graph G = (V, A) besteht aus 1. V, einer nicht leeren Menge von Knoten 2. A, einer Menge von gerichteten Kanten, die aus geordneten Paaren (v,w) mit v, w ∈ V, v 6= w besteht Für eine gerichtete Kante a = (v, w) heißt v der Anfangsknoten und w der Endknoten. 38 2 Graphentheorie 2.2.2 Grad Es sei G = (V, A) ein gerichteter Graph. Die Zahl indeg(v) := |{(x, v) | (x, v) ∈ A}| heißt Eingangsgrad und outdeg(v) := |{(v, y) | (v, y) ∈ A}| heißt Ausgangsgrad von v ∈ V . Für einen gerichteten Graphen gilt X indeg(v) = v∈V X outdeg(v) (2.3) v∈V 2.2.3 Gerichteter Kantenzug Es sei G = (V, A) ein gerichteter Graph. Ein gerichteter Kantenzug ist ein Folge (v0 , ..., vn ) von Knoten mit ei := (vi−1 , vi ) ∈ A für i = 1, ..., n. 2.2.4 Starker Zusammenhang G heißt stark zusammenhängend, wenn es für je zwei Knoten v, w ∈ V einen gerichteten Weg von v nach w gibt. Dafür muß indeg(v) für alle Knoten >0 sein. Jeder Knoten muß jeden anderen Knoten über einen gerichteten Weg erreichen können. Zusammenhang starker Zusammenhang 39 2 Graphentheorie 2.2.5 Azyklischer Graph Ein gerichteter Graph G = (V, A) heißt azyklisch oder kreisfrei, wenn G keinen einfachen, gerichteten Kreis der Länge ≥ 2 enthält. Gerichteter, kreisfreier Graph heißt im englischen “directed acyclic graph” oder dag. 2.3 Darstellung von Graphen im Computer 2.3.1 Adjazenzmatrix Gegeben sei ein Graph G = (V, E) mit V = {v1 , ..., vn } . Die n × n-Matrix A = (aij ) mit ( aij = 1 f alls {vi , vj } ∈ E 0 sonst heißt Adjazenzmatrix von G. Für nicht gerichtete Graphen ist die Adjazenzmatrix symmetrisch mit Nullen auf der Diagonalen. A= a b c d e a b c d e 0 1 0 0 1 1 0 1 1 0 0 1 0 1 0 0 1 1 0 1 1 0 0 1 0 Satz: Für einen allgemeinen Graphen G = (V, E) gibt das Element aij der Matrix AK die Anzahl der Kantenzüge der Länge K von i nach j an. Liegt ein dag vor, gibt aij von AK sogar die Anzahl der Wege der Länge K von i nach j an. 40 2 Graphentheorie Als Beispiel hier ein dag und einige Potenzen seiner Adjazenzmatrix. A= a A2 = a b c d e f g 0 0 0 0 0 0 0 b 0 0 0 0 0 0 0 c 0 0 0 0 0 0 0 d 2 0 0 0 0 0 0 e 0 1 1 0 0 0 0 f 0 1 1 0 0 0 0 g 0 0 0 2 0 0 0 A3 = a b c d e f g a b c d e f g a b c d e f g 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 1 0 a b c d e f g 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 2 0 0 0 0 0 0 0 2 2 0 0 0 0 In A3 kann man sehen, das es z.B 2 verschiedene Wege von Knoten a (waagerecht) nach Knoten e mit der Kantenlänge 3 gibt. 2.3.2 Adjazenzliste Gegeben sei ein Graph G = (V, E) mit V = {v1 , ..., vn } , n ≥ 1. Für 1 ≤ i ≤ n seien vi1 , vi2 , ..., vin die mit den Knoten vi adjazenten Knoten. Die Liste Ai = (vi1 , vi2 , ..., vin ) heißt Adjazenzliste von vi und die Liste L = (A1 , ..., An ) der Adjazenzlisten ist die Adjazenzlistendarstellung von G. Aa = (b, e) Ab = (a, c, d) Ac = (b, d) Ad = (b, c, e) Ae = (a, d) 41 2 Graphentheorie 2.4 Durchsuchen von Graphen 2.4.1 Tiefensuche Tiefensuche für Bäume: Wenn ein Knoten v betreten wurde, dann arbeite rekursiv alle Nachbarn von v ab und kehre anschließend zu dem Knoten zurück, von dem aus v betreten wurde. Das bedeutet, dass wir zuerst in die Tiefe gehen, bevor wir einen weiteren Nachbarn eines Knotens besuchen. ⇒a→b→c→d→e Satz: Der Zeitaufwand für die Tiefensuche beträgt O(|V | + |E|). Die Tiefensuche kann dazu verwendet werden, die Anzahl der Zusammenhangskomponenten zu ermitteln. Dazu zählt man wie oft man mit einem noch nicht besuchten Knoten die Tiefensuche neu anfangen muss. 2.4.2 Artikulationspunkt Für einen Graphen G = (V, E) heißt ein Knoten a ∈ V Artikulationspunkt, wenn die Anzahl der Zusammenhangskomponenten von G(V \ {a}) größer ist als die von G. Anschaulich: Durch die Wegnahme eines Artikulationspunktes und den dazu inzidenten Kanten zerfällt der Graph in weitere Teile. 2.4.3 Breitensuche Bei der Breitensuche werden alle Nachbarn von v in eine Warteschlange W eingetragen, die diejenigen Knoten enthält, von denen aus der Graph weiter durchsucht werden muss. In jeder Interation der Breitensuche nehmen wir den ersten Knoten w aus der Warteschlange W heraus, ermitteln alle Nachbarn von w, die noch nicht erreicht worden sind und fügen diese Nachbarn in die Warteschlange ein. 42 2 Graphentheorie ⇓ W a → b (b, e) → (e, c, d) e → (c, d) → (d) d → () c Satz: Der Zeitaufwand für die Breitensuche beträgt O(|V | + |E|). Auch mit der Breitensuche kann man die Anzahl der Zusammenhangskomponenten ermitteln. Eine andere Anwendung für die Breitensuche ist die Bestimmung der Abstände zwischen einem Knoten a ∈ V und allen anderen Knoten v ∈ V . Es wird implizit ein kürzester Weg ermittelt. 43 2 Graphentheorie 2.4.4 Topologisches Sortieren Es sei G = (V, A) ein gerichteter, kreisfreier Graph (dag) mit V = {v1 , ..., vn } . Eine Knotenreihenfolge L = (vi1 , ..., vin ) aller Knoten aus V heißt topologische Sortierung von G, wenn die folgende Bedingung erfüllt ist: f uer alle (vij , vik ) ∈ A gilt ij < ik Das heißt, für jede Kante (v, w) ∈ A ist v vor w in L. Bei der topologischen Sortierung beginnt man zunächst mit einem Knoten v mit indeg(v) = 0. Dieser Knoten ist von keinem anderen Knoten abhängig. Anschließend entfernt man alle Kanten, die von diesen Knoten ausgehen. Nun schreibt man wieder alle Knoten mit indeg = 0 auf und entfernt wieder alle abgehenden Kanten. Diese Vorgehensweise wiederholt man solange, bis alle Knoten in der Liste aufgenommen worden sind. c→ a→ e→ 44 d→ b→ f 2 Graphentheorie 2.5 Kreis und Wegeprobleme 2.5.1 Eulersche Kreise Es sei G = (V, E) ein Graph. Ein Weg, der jede Kante von G genau einmal enthält, heißt eulerscher Weg oder Eulerweg. Ein Kreis, der jede Kante von G genau einmal enthält, heißt eulerscher Kreis oder Eulerkreis. Wenn G einen eulerschen Kreis enthält, dann heißt G eulersch. Satz: Ein Graph G = (V, E) ist genau dann eulersch, wenn die beiden Bedingungen (1) G ist bis auf isolierte Knoten zusammenhängend (2) G hat keinen Knoten mit ungeradem Grad erfüllt sind. Gilt (1) und (2’) G hat höchstens zwei Knoten mit ungeradem Grad dann existiert ein eulerscher Weg für G. Als Beispiel hier das “Haus vom Nikolaus” und Varianten. Die Zahlen an den Knoten geben deren Grad deg(v) an. Eulerweg kein Eulerweg Eulerkreis Eulerweg max 2 deg(v) = ungerade alle deg(v) = ungerade alle deg(v) = gerade max 2 deg(v) = ungerade Für einen nicht eulerschen Graphen (enthält keinen Eulerkreis), der einen Eulerweg besitzt, folgt, dass der Eulerweg in einem der beiden Knoten mit ungeradem Grad beginnt und in dem anderen Knoten mit ungeradem Grad endet. 45 2 Graphentheorie 2.5.2 Algorithmus von Hierholzer Mit dem Algorithmus von Hierholzer kann man zuverlässig einen Eulerkreis (wenn vorhanden) ermitteln. Es sei G = (V, E) ein bis auf isolierte Knoten zusammenhängender Graph. Alle Knoten von G haben geraden Grad. 1. Wähle einen beliebigen Knoten v0 ∈ V . Wähle anschließend, solange dies möglich ist, Knoten v1 , v2 , ..., vi , ...., so dass (v0 , ..., vi ) jeweils ein Weg in G ist. Unter den gegebenen Voraussetzungen entsteht so automatisch ein Kreis K. Setze w := v0 und gehe zu 2. 2. Prüfe, ob K alle Kanten von G enthält. Wenn ja, dann STOP, ansonsten gehe zu 3. 3. Laufe ab W entlang K bis zu einem Knoten w’, der mit einer nicht in K enthaltenen Kante inzident ist. Gehe zu 4. 4. Konstruiere wie unter 1. ausgehend von w’ einen Kreis K’, der keine Kanten von K enthält. Füge K’ in den Kreis K an der Stelle w’ ein. Setze w := w0 . Gehe zu 2. Der Algorithmus kann auch zur Konstruktion von Eulerwegen benutzt werden. Dabei startet man mit einem der beiden Knoten mit ungeradem Grad und konstruiert im 1. Schritt einen Weg zum andern Knoten mit ungeradem Grad. Anschließend werden die restlichen Knoten eingebunden. 2.5.3 Hamiltonsche Kreise Es ein G = (V, E) ein Graph. Ein Weg, der jeden Knoten von G genau einmal enthält, heißt hamiltonscher Kreis. G heißt hamiltonsch, wenn G einen hamiltonschen Kreis enthält. Im Gegensatz zu eulerschen Graphen ist für hamiltonsche Graphen keine einfache äquivalente Charakterisierung bekannt. Wir betrachten deshalb nur ein hinreichendes Kriterium. 46 2 Graphentheorie Satz: Es sei G = (V, E) ein Graph mit n := |V | ≥ 3. Gilt ∀v, w ∈ V : deg(v) + deg(w) ≥ n, dann ist G hamiltonsch. Hier ein paar Beispiele. Die Zahlen an den Knoten geben deren Grad deg(v) an. hamiltonsch und hamiltonsch, aber nicht hamiltonsch, weder hamiltonsch, eulersch nicht eulersch aber eulersch noch eulersch n=4 n=5 n=5 n=5 min [deg(v) + deg(w)] = 4 min [deg(v) + deg(w)] = 6 min [deg(v) + deg(w)] = 4 min [deg(v) + deg(w)] = 2 2.6 Kürzeste Wege 2.6.1 Kantengewicht Es sei G = (V, E) ein Graph sowie w : E → R eine Bewertung der Kanten mit reellen Zahlen. Für jede Kante e ∈ E heißt w(e) die Länge oder das Gewicht von e. Für einen Kantenzug P K = (v0 , ..., vk ) ist w(K) := ki=1 w ({vi−1 , vi }) die Länge von K. Je nach Anwendung können auch negative Werte für Kantengewichte sinnvoll sein, beispielsweise wenn die Gewichte Gewinne oder Verluste repräsentieren sollen. 2.6.2 Abstand Es sei G = (V, E) ein Graph mit Kantengewichtsfunktion w : E → R und es gelte w(e) ≥ 0 für alle Kanten e ∈ E. Der Abstand d(v, w) zweier Knoten v, w ∈ V ist das Minimum der Längen aller einfachen Wege von v nach w. Falls es keinen einfachen Weg von v nach w gibt, setzen wir d(v, w) = ∞. 47 2 Graphentheorie 2.6.3 Algorithmus von Dijkstra Es sei G = (V, E) ein Graph mit einer nicht negativen Längenfunktion w auf E und v0 ∈ V . Der Dijkstra-Algorithmus berechnet die kürzesten Abstände d(v) von v0 zu allen Knoten v ∈ V . 1. Setze d(v0 ) := 0, d(v) := ∞ für alle v ∈ V \ {v0 } , U := V . 2. Falls U = ∅, dann STOP. Sonst weiter mit 3. 3. Finde ein u ∈ U , für das d(u) minimal ist. 4. Für alle v ∈ U mit {u, v} ∈ E setze d(v) := min {d(v), d(u) + w ({u, v})}. 5. Setze U := U \ {u}. Gehe zu 2. 48 2 Graphentheorie Als Beispiel wird hier die Ermittlung der kürzesten Wege von a zu allen anderen Knoten nach Dijkstra als Graphik und in verkürzter Tabellenform gezeigt. Bild 2 ist wie folgt zu lesen: Kante {a, d} steht als kürzester Weg zwischen a und d fest (Strichdicke 3). Von d aus untersucht man nun die Punkte b,e,h und g (Strichdicke 2). Dabei stellt man fest, dass die Kante w {a, b} = 9 von w {a, d, b} = 7 unterboten wird und bei den folgenden Betrachtungen ignoriert werden kann (gestrichelt). Als nächstes wird man mit der Kante fortfahren, die das geringste Gewicht hat. Das ist hier die Kante{d, b} = 2 und kommt nun zu Bild 3. 49 2 Graphentheorie Tabellarisch kann das für Bild 2 so aussehen: Von a d Knotensumme 0 5 a 0 — b 9 7 5→ 0 — — — — — — — — — — — — — — c d e 18 f g 31 h 23 i Dabei arbeitet man spaltenweise von links nach rechts und trägt in die Zeilen jeweils die Knotensumme (hier Entfernung von Knoten d ) plus die Kantenlänge zum nächsten erreichbaren Knoten ein. Dann wählt man den niedrigsten Wert aus der Spalte aus und trägt ihn als nächsten Knoten im Kopf ein. Darunter seine Knotensumme. Als nächstes würde man hier den Konten b mit seiner Knotensumme 7 in den Kopf eintragen. Stehen mehrere Werte in einer Zeile, streicht man zur besseren Übersicht alle Werte bis auf den kleinsten durch (hier Werte verkleinert). Gesamt: Von a d b c f e h i g Summe 0 5 7 11 13 14 17 17 19 a 0 — — — — — — — — b 9 7→ 0 — — — — — — 11→ 0 — — — — — 0 — — — — — — — 18 17 14→ 0 — — — 0 — — — — — — c d e 5→ f 13→ g 31 h 23 ←15 19 18 i 17 17→ 0 19 Den kürzeste Weg von a nach i ermittelt man nun rückwärts. Der kürzeste Weg von a nach i beträgt 17 (letzte Zeile, kleinster Wert) und hat Knoten f (senkrecht) als Vorgänger. Knoten f (waagerecht) hat mit kleinstem Wert 13 Knoten b als Vorgänger. Knoten b hat mit Wert 7 Knoten d als Vorgänger. Knoten 4 6 2 5 d hat mit kleinstem Wert 5 Knoten a als Vorgänger. Also i ← f ← b ← d ← a. 50 2 Graphentheorie 2.7 Aufspannende Bäume 2.7.1 Aufspannender Baum Es sei G = (V, E) ein zusammenhängender Graph. Ein aufspannender Untergraph B = (V, E 0 ) von G heißt aufspannender Baum von G genau dann, wenn B ein Baum ist. Ein aufspannender Baum ist also ein zusammenhängender, kreisfreier, aufspannender Untergraph eines Graphen G. Hier ein paar aufspannende Bäume für das Haus des Nikolaus: 2.7.2 Minimal aufspannender Baum Es sei G = (V, E) ein zusammenhängender Graph mit einer Kantenbewertung w : E → R. • Für F ⊆ E heißt w(F ) := P e∈F w(e) das Gewicht der Kantenmenge F. • Es sei B = (V, F ) ein aufspannender Baum von G. Dann ist w(B) := w(F ) das Gewicht des aufspannenden Baums B. • Ein aufspannender Baum B von G heißt minimal aufspannender Baum von G, wenn w(B) ≤ w(B 0 ) für alle aufspannenden Bäume B’ von G gilt. Hier ein möglicher minimal aufspannender Baum für das Haus vom Nikolaus mit Kantenbewertung: 51 2 Graphentheorie 2.7.3 Abzählung von aufspannenden Bäumen Satz von Cayley: Es gibt nn−2 verschiedene aufspannende Bäume für den vollständigen Graphen Kn . 2.7.4 Prüfercode Der Prüfercode ist eine Bijektion zwischen aufspannendem Baum Kn und Wörtern von natürlichen Zahlen der Länge n−2. Diese Bijektion wurde 1918 von Heinz Prüfer entdeckt und wird daher auch als Prüfercode bezeichnet. Der Algorithmus zur Ermittlung des Prüfercodes: 1. Wähle das Blatt vi ∈ V mit der kleinsten Knotennummer. 2. Schreibe den adjazenten (benachbarten) Knoten als Prüfziffer auf. 3. Entferne das Blatt vi und die inzidente Kante aus dem Baum. 4. Wenn |V | > 2 gehe zu 1. 5. STOP 4 41 411 52 4114 2 Graphentheorie Aus einem Prüfercode kann man auch wieder einen aufspannenden Baum erzeugen: 1. Besteht der Prüfercode aus n Ziffern zeichne n + 2 Knoten und nummeriere sie entsprechend. 2. Wähle die kleinste Knotennummer die nicht im Prüfercode vorkommt und die noch nicht gewählt wurde (◦). 3. Markiere den Knoten als gewählt (•). 4. Verbinde diesen Knoten mit dem Knoten der 1. Prüfziffer. 5. Streiche die erste Prüfziffer aus Prüfercode. 6. Gehe nach 2. wenn Prüfercode noch Prüfziffern enthält 7. Verbinde die zwei letzten, noch nicht gewählten Knoten (◦). 4114 4114 4 die letzten beiden verbinden 114 14 fertig 53 2 Graphentheorie 2.7.5 Algorithmus von Prim Mit dem Algorithmus von Prim kann man einen minimal aufspannenden Baum konstruieren. Man geht dabei folgendermaßen vor: 1. Man wählt einen beliebigen Knoten aus dem Graphen G = (V, E) als Startpunkt aus. Er bildet den Ursprung des minimal aufspannenden Baumes U . 2. Verbinde diesen Knoten mit den am nächsten liegenden Knoten im Ursprungsbaum G = (V, E) der nicht schon in U liegt. Es entsteht ein erweiterter Baum U (Strichdicke 3). 3. Suche den nächsten Knoten aus G der nicht in U liegt und am nächsten zu einem der Knoten in U steht. Also alle Knoten aus U untersuchen und den Knoten finden, der mit der kürzeste Kante mit U verbunden ist (Strichdicke 1). 4. Sind noch Knoten in G, die nicht in U sind gehe nach 2. 54 2 Graphentheorie 2.7.6 Algorithmus von Kruskal Mit dem Algorithmus von Kruskal kann man ebenfalls einen minimal aufspannenden Baum konstruieren. Man geht dabei folgendermaßen vor: 1. Man betrachtet alle Knoten isoliert und jeden Knoten als eine Zusammenhangskomponente (Wald). 2. Zuerst sucht man die kürzeste Kante aus G und verbindet die beiden inzidenten Knoten. Dies startet den minimal aufspannenden Baum U . 3. Nun sucht man wieder die kürzeste Kante in G, die noch nicht in U ist, und verbindet die beiden inzidenten Knoten. 4. Ab jetzt sucht man wieder die nächste, kürzeste Kante in G, die noch nicht in U ist. Diese nimmt man aber nur in U auf, wenn dadurch zwei Zusammenhangskomponenten (Knoten, der noch nicht in U ist, oder Teilbäume von U ) verbunden werden. 5. Wenn es noch Knoten gibt, die nicht mit U verbunden sind, gehe nach 4. 55 2 Graphentheorie 2.7.7 Traveling Salesman Problem (TSP) Für das Traveling Salesman Problem gibt es keinen allgemeinen Lösungsalgorithmus. Man kann aber die Güte einer gefundenen “Rundreise” bewerten. Dazu verwendet man die untere und obere Schranke. Satz: Es sei G = (V, E) ein vollständiger Graph mit der Kantenbewertung w : E → N. Weiterhin sein T SP ∗ eine optimale TSP-Tour und MST sein ein minimal aufspannender Baum für G und w. Dann gilt: w(M ST ) ≤ w(T SP ∗ ) Die Größe w(M ST ) ist die sogenannte untere Schranke für das Traveling Salesman Problem. Satz: Es sei G = (V, E) ein vollständiger Graph mit der Kantenbewertung w : E → N, für die die Dreiecksungleichnung gilt. Weiterhin sein T SP ∗ eine optimale TSP-Tour und MST sein ein minimal aufspannender Baum für G und w. Dann gilt: w(M ST ) ≤ w(T SP ∗ ) ≤ 2 · w(M ST ) Eine optimale TSP-Tour ist also mindestens so lang wie ein minimal aufspannender Baum des Graphen G aber höchstens 2 mal so groß. Eine TSP-Tour konstruiert man zunächst einmal über eine Tiefensuche. Den so entstandenen Baum verbessert man anschließend mit dem 2 − opt. Verfahren. Dabei sucht man in der aktuellen Lösung nach zwei Kanten, die gegen zwei nicht in der Lösung enthaltenen Kanten ausgetauscht werden können, so dass eine kürzere Tour entsteht. 56 3 Wahrscheinlichkeit 3.1 Der Wahrscheinlichkeitsraum Wahrscheinlichkeitsraum [Ω, I, P] Ω = Menge der möglichen Ereignisse I = Ereignisfeld. Ist eine Menge von Teilmenge von Ω die wir Ergebnisse nennen P = Wahrscheinlichkeitsverteilung (0≤P≤1) V = zufälliger Versuch ω = ein mögliches Ergebnis bei der Durchführung von V ( Element von Ω) Ereignisfelder zu einem zufälligen Versuch sind nicht eindeutig bestimmt. Es gibt Elementarmengen (Einermengen) und zusammengesetzte Ereignisse. Sicheres Ereignis : Unmögliches Ereignis : Ω Ω= Ø 3.1.1 Ereignisfeld I Sei V ein zufälliger Versuch mit der Grundmenge Ω. Ein Ereignisfeld I=I(Ω) zu V über Ω ist eine Menge von Ereignissen A⊆Ω, die folgende Eigenschaft besitzt: 1. I enthält das unmögliche Ereignis Ø und das sichere Ereignis Ω, also Ø∈I und Ω∈I. 2. Wenn A∈I und B∈I, so ist auch A∪B ∈I und A∩B∈I. 3. Wenn A∈I, so ist auch das Komplement A∈I. 4. Mit abzählbar unendlich vielen Ereignissen Ai ∈I, i=1,2,..., sind auch deren Summe ∞ ∞ S T Ai und deren Produkt Ai in I enthalten. i=1 i=1 57 3 Wahrscheinlichkeit 3.1.2 Vollständiges Ereignissystem Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld I. Eine Menge von Ereignissen A1 , A2 ,..., An , Ai ⊆Ω für i=1,...,n , heißt vollständiges Ereignissystem in I, falls gilt: 1. Ai ∩Aj =Ø für i 6= j 2. A1 ∪A2 ∪· · · Ak =Ω 3.1.3 Eigenschaften der relativen Häufigkeit hn (A) = relative Häufigkeit 1. 0 ≤ hn (A) 2. hn (Ω)= 1 3. Wenn A∩B =Ø dann hn (A∪B) = hn (A) + hn (B) 3.1.4 Eigenschaften der Wahrscheinlichkeit P(A) = Wahrscheinlichkeit des Ergebnisses A bei einmaliger Durchführung von V 1. 0≤P(A)≤1 2. P(Ø) = 0 , P(Ω) = 1 3. P(A) = 1 - P(A) 4. P( n S Ai ) = i=1 n P P(Ai ) , für alle n∈N, falls Ai ∩Aj = Ø für i 6= j i=1 5. P(A∪B) = P(A) + P(B) - P(A∩B) 6. Wenn A ⊆ B, so ist P(A) ≤ P(B) 58 3 Wahrscheinlichkeit 3.1.5 De Morgansche Regeln (A ∪ B)M = AM ∩ B M (A ∩ B)M = AM ∪ B M (3.1) Nimmt man den 3. Satz der Eigenschaften der Wahrscheinlichkeit P (A) = 1 − P (A) hinzu ergeben sich folgende Ableitungen: 1. P(A1 ∪A2 ) = 1-P(A1 ∩A2 ) weil P(A1 ∪ A2 )=P(A1 ∩A2 ) 2. P(A1 ∩A2 ) = 1-P(A1 ∪A2 ) weil P(A1 ∩ A2 )=P(A1 ∪A2 ) 3.1.6 Kombinatorische Formeln Die Menge der möglichen Vertauschungen von n Elementen sind: n! (3.2) Die Menge der k-elementige Teilmengen einer n-elementigen Menge sind: n k ! = n! k!(n − k)! (3.3) 3.2 Der klassische Wahrscheinlichkeitsbegriff 3.2.1 Laplace Versuch Sei V ein zufälliger Versuch mit der endlichen Grundmenge Ω={ω1 ,..., ωm }. Ist p(ωi )=p für alle i=1,...,m , so heißt Laplace-Versuch. Satz: (Klassische Wahrscheinlichkeit in Laplace-Versuchen) Sei V ein Laplace Versuch mit der Grundmenge Ω={ω1 ,..., ωm }. Dann gilt: 1 und 1. P({ωi })= m 2. P(A)= |A| |Ω| für jedes Ereignis A∈I = ℘(Ω) 59 3 Wahrscheinlichkeit 3.2.2 Bedingte Wahrscheinlichkeit Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld I. Seien A∈I und B∈I zwei beliebige Ereignisse zu V mit P(B)>0. Dann heißt P (A|B) = P (A ∩ B) P (B) (3.4) bedingte Wahrscheinlichkeit von A unter der Bedingung B. 3.2.3 Produktformel Verändert die Information über das Eintreten von B die Chancen für A nicht, d.h. gilt P(A|B)=P(A), so heißen A und B stochastisch unabhängig. Für zwei unabhängige Ereignisse gilt die Produktformel: P (A ∩ B) = P (A) · P (B) (3.5) 3.2.4 Stochastisch unabhängig Wenn P(A) = P(A|B) dann sind A und B stochastisch unabhängig. Beispiel: Sind die beiden Ereignisse A = “Würfeln einer geraden Zahl” und B = “Würfeln einer Zahl ≥4” stochastisch unabhängig? 1. P(A) = 1/2 ⇒{2,4,6} 2. P(B) = 1/2 ⇒{4,5,6} 3. P(A|B) = 2/6 ⇒{4,6} Da P(A) 6= P(A|B) sind A und B stochastisch abhängig. Die Produktformel zeigt das gleiche: 2 3 3 ; P (A) = ; P (B) = 6 6 6 1 P (A ∩ B) 6= P (A) · P (B) = 4 P (A ∩ B) = 60 3 Wahrscheinlichkeit 3.2.5 Produktformel für bedingte Wahrscheinlichkeit Hat man 2 stochastisch unabhängige Ereignisse, so ergibt sich bei Umformung der Definitionsgleichung für die bedingte Wahrscheinlichkeit die Produktformel: P (A ∩ B) = P (A|B) · P (B) (3.6) Für beliebig viele Ereignisse: Sei V ein zufälliger Versuch mit der Grundmenge Ω und dem Ereignisfeld I = I(Ω). Seien Ai ∈I , i=1,...,n , n beliebige Ereignisse. Dann gilt: P (A1 ∩ A2 ∩ · · · ∩ An ) = P (A1 ) · P (A2 |A1 ) · P (A3 |A1 ∩ A2 ) · · · · · · P (An |A1 ∩ · · · ∩ An−1 ) 61 3 Wahrscheinlichkeit 3.3 Totale Wahrscheinlichkeit und Bayes’sche Formel 3.3.1 Totale Wahrscheinlichkeit Sind A1 ,A2 ,..., An ein vollständiges System von Ereignissen, so gilt: B=(A1 ∩B)∪(A2 ∩B)∪· · · ∪(An ∩B), wobei alle Ereignisse (Ai ∩B) und (Aj ∩B) paarweise für i 6= j disjunkt sind. Nach Axiom 4 der Wahrscheinlichkeit erhalten wir dann P (B) = n [ ! (Ai ∩ B) i=1 = n X P (Ai ∩ B) i=1 und aus dem Multiplikationssatz für zwei Ereignisse folgt daraus P (B) = n X P (B|Ai ) · P (Ai ) (3.7) i=1 Diese Formel wird als Formel der totalen Wahrscheinlichkeit bezeichnet. 3.3.1.1 Beispiel Aufgabe mit 2 Ereignissen: B ist unter den Voraussetzungen A1 und A2 eingetreten. Gegeben: P(A1 ) = 0,6 und P(A2 ) = 0,4 und P(B|A1 ) = 0,2 und P(B|A2 ) = 0,1. Ereignis A1 und A2 treten mit einer Wahrscheinlichkeit von 60% und 40% auf. B tritt unter der Bedingung A1 nur zu 20% auf und unter der Bedingung A2 sogar nur zu 10%. Wie hoch ist die Wahrscheinlichkeit das das Ereignis B überhaupt Eintritt? Rechnung: P (B) = P (B|A1 )·P (A1 )+P (B|A2 )·P (A2 ) = 0,2·0,6+0,1·0,4 = 0,16 Während A1 und A2 mit einer Wahrscheinlichkeit von 0,6 und 0,4 auftreten, tritt B mit einer totalen Wahrscheinlichkeit von 0,16 auf. Die Summe von P(B|Ai ) muss dabei ≤1 sein weil das Ergebnis B in seiner Gesamtheit bei allen Ereignissen Ai nicht öfter als 100% auftreten kann. 62 3 Wahrscheinlichkeit 3.3.2 Formel von Bayes Sind A1 , A2 ,..., An ein vollständiges System von Ereignissen und B ein weiteres Ereignis, so gilt: P (Aj |B) = P (B|Aj ) · P (Aj ) P (Aj ∩ B) P (B|Aj ) · P (Aj ) = = n P P (B) T otale W ahrsch. von B P (B|Ai ) · P (Ai ) (3.8) i=1 3.3.2.1 Beispiel Aufgabe mit 2 Ereignissen: B ist unter den Voraussetzungen A1 und A2 eingetreten. Gegeben: P(A1 ) = 0,6 und P(A2 ) = 0,4 und P(B|A1 ) = 0,2 und P(B|A2 ) = 0,1. Ereignis A1 und A2 treten mit einer Wahrscheinlichkeit von 60% und 40% auf.. B tritt unter der Bedingung A1 nur zu 20% auf und unter der Bedingung A2 sogar nur zu 10%. Wie hoch ist die Wahrscheinlichkeit das das Ereignis A1 Auslöser war wenn B Eintritt? Rechnung: P (A1 |B) = P (A1 ∩B) P (B) = P (B|A1 )·P (A1 ) P (B|A1 )·P (A1 )+P (B|A2 )·P (A2 ) = 0,2·0,6 0,2·0,6+0,1·0,4 = 0,75 = P (B|A1 )·P (A1 ) n P P (B|Ai )·P (Ai ) i=1 Wenn das Ereignis B eingetreten ist, ist Ereignis A1 mit einer Wahrscheinlichkeit von 0, 75 der Auslöser dafür gewesen. 63 3 Wahrscheinlichkeit 3.4 Diskrete Zufallsgrößen Eine Zufallsgröße X heißt diskret, falls ihr Wertebereich X endlich oder abzählbar unendlich ist, falls also gilt: X = {a1 , a2 , ..., an }, k ∈ N, k ≤ ∞, ai ∈ R. 3.4.1 Gleichverteilung Schreibweise: X ∼ R({a1 , a2 , ..., ak }) Eine Zufallsgröße besitzt eine (diskrete) Gleichverteilung auf der endlichen Menge X = {a1 , a2 , ..., ak }, wenn sie die Werte a1 , a2 , ..., ak mit derselben endlichen Wahrscheinlichkeit pi = P (X = ai ) = 1 k (3.9) für alle i=1,...,k annimmt. X beschreibt eine Auswahl “auf gut Glück” aus der Menge = {a1 , a2 , ..., ak }. 64 3 Wahrscheinlichkeit 3.4.2 Binomialverteilung Schreibweise: X ∼ B({a1 , a2 , ..., ak }) n pi = P (X = i) = i ! pi (1 − p)n−i , i = 0, 1, ..., n (3.10) 3.4.2.1 Beispiel Aufgabe: Eine Firma, die CD’s herstellt, gibt ihre Ausschussrate (Anteil defekter CD’s) mit 1% an. Wie groß ist die Wahrscheinlichkeit dafür, dass in einem Paket von 5 CD’s mehr als eine defekt ist? Rechnung: 1 Xi = 0 def ekt = p heile =1−p P (Xi =1) = 0,01 P (Xi =0) = 0,99 P (X>1) = 1−P (X≤1) = 1−P (Xi =0)−P (Xi =1) = 1− = 1−1·1·0,995 −5·0,01·0,994 = 1−0,951−0,048 = 0,001 5 0 0,010 (1−0,01)5−0 − 5 1 0,011 (1−0,01)5−1 Die Wahrscheinlichkeit dafür, das in einem Paket von 5 CD’s mehr als eine defekt ist liegt bei 0,1%. 65 3 Wahrscheinlichkeit 3.4.3 Poissonverteilung Schreibweise: X ∼ P (λ) pi = P (X = i) = λi −λ e , i = 0, 1, 2, ... i! (3.11) Die Poissonverteilung findet als Modell oft Anwendung, wenn eine Zufallsgröße X zählt, wie viele Ereignisse von einer großen Anzahl unabhängiger Ereignisse mit recht kleiner Wahrscheinlichkeit eintreten. Sie dient für λ = n · p als Approximation der Binomial-Wahrscheinlichkeiten für große n und kleine p (Empfehlung: n>20, p<0,01). 3.4.3.1 Beispiel Aufgabe: Die Anzahl X der Anrufe, die in einer Telefonzentrale in einer Stunde eintreffen sei poissonverteilt mit dem Parameter λ = 5 (d.h., im Schnitt treffen in diesem Zeitraum ca. 5 Anrufe ein). Die Kunden rufen unabhängig voneinander an. Wie hoch ist die Wahrscheinlichkeit, dass in einer Stunde höchstens 2 Anrufe eintreffen? P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = = 50 −5 51 −5 52 −5 e + e + e 0! 1! 2! 25 −5 e−5 + 5e−5 + e = 0, 12 2! Die Wahrscheinlichkeit dafür, das in einer Stunde höchstens 2 Anrufe eintreffen beträgt 12%. 66 3 Wahrscheinlichkeit 3.5 Stetige Zufallsgrößen 3.5.1 Dichtefunktion Eine Zufallsgröße X heißt stetig, wenn eine integrierbare Funktion f : R → R mit folgenden Eigenschaften existiert: 1. f (x) ≥ 0 f uer alle x ∈ R 2. ∞ ´ f (x)dx = 1 −∞ b́ 3. P (a < X ≤ b) = f (x)dx f uer alle a, b ∈ R a Die Funktion f heißt Dichtefunktion oder kurz Dichte von X. Man kann die Dichtefunktion bestimmen, wenn man die Verteilungsfunktion kennt. Es gilt: F 0 (x) = f (x). 3.5.2 Verteilungsfunktion Die Verteilungsfunktion ist das Integral der Dichtefunktion: ˆx F (x) = P (X ≤ x) = f (u)du −∞ Eine Intevallwahrscheinlichkeit berechnet sich nach: P (a ≤ x ≤ b) = F (b) − F (a) 3.5.3 Bedingte Wahrscheinlichkeiten Man kann auch bedingte Wahrscheinlichkeiten berechnen. Für die Ereignisse A = ”X ≥ a” und B = ”X ≤ b” gilt: P (B|A) = P (A ∩ B)/P (A). Folglich ist P (X ≤ b|X ≥ a) = P (a ≤ X ≤ b) F (b) − F (a) = P (X ≥ a) 1 − F (a) 67 (3.12) 3 Wahrscheinlichkeit 3.5.4 Gleichverteilung auf [a,b] Schreibweise: X ∼ R([a, b]) Eine Zufallsgröße X besitzt eine Gleichverteilung auf dem Intervall [a,b] , wenn ihre Dichte die folgende Gestalt besitzt: f (x) = 1 b−a f uer a ≤ x ≤ b 0 (3.13) sonst 3.5.5 Dreiecksverteilung Schreibweise: X ∼ D([a, c, b]) Eine Zufallsgröße X besitzt eine Dreiecksverteilung auf [a,b] mit der Höhe c, wenn ihre Dichte die Gestalt besitzt: f (x) = 2(x−a) (c−a)(b−a) 2(b−x) (b−c)(b−a) 0 f alls a ≤ x ≤ c f alls c ≤ x ≤ b (3.14) sonst 3.5.6 Exponentialverteilung mit Parameter λ Schreibweise: X ∼ E(λ) Eine exponentialverteilte Zufallsgröße nimmt Werte im Intervall [0, ∞)an. Die Dichte einer Exponentialverteilung mit dem Parameter λ > 0 hat die Gestalt: λe−λx f (x) = 0 f uer x ≥ 0 (3.15) f uer x < 0 Die Exponentialverteilung dient oft als Modell für zufällige Abbauzeiten zufälliger Zwischenzeiten zwischen dem Eintreffen zweier Signale in einer Empfängerstation, zufällige Lebensdauern, wie z.B. die Zeit bis zum Ausfall eines technischen Gerätes, die Laufzeit eines Jobs im Computer oder die Zeitdauer eines Telefongespräches. 68 3 Wahrscheinlichkeit 3.5.7 Normalverteilung Schreibweise: X ∼ N (µ, σ 2 ) f (x) = √ 1 2πσ 2 e− (x−µ)2 2σ 2 (3.16) Das Bild ist die Gauss’sche Glockenkurve. Sie hat ihren Gipfel bei x = µ und ist umso flacher, je größer σ 2 ist. Eine besondere Normalverteilung ist diejenige mit den Parametern µ = 0 und σ = 1, d.h. N(0,1). Sie wird als Standardnormalverteilung bezeichnet. Als Symbol für die Dichtefunktion verwendet man ϕ(x) und für die Verteilungsfunktion Φ(x). Jede beliebige Normalverteilung lässt sich mit Hilfe der Verteilungsfunktion der Standardnormalverteilung berechnen. Ist X normalverteilt mit den Parametern µ und σ 2 , so ist X ∗ = (X − µ)/σ standardnormalverteilt. Aus diesem Satz folgt: x−µ x−µ F (x) = P (X ≤ x) = P X ≤ =Φ σ σ (3.17) D.h. die Verteilungsfunktion F einer beliebigen Normalverteilung erfüllt die Transformationsvorschrift: F (x) = Φ x−µ σ (3.18) 3.5.8 Satz von Moivre und Laplace Approximation der Binomialverteilung durch die Normalverteilung. Eine mit den Parametern n und p binomialverteilte Zufallsgröße X ist für große n näherungsweise normalverteilt mit: EX = n·p V ar(X) = n · p · (1 − p) 69 (3.19) 3 Wahrscheinlichkeit 3.5.9 Erwartungswert und Varianz Es gelten folgende Eigenschaften für Erwartungswert und Varianz von Zufallsgrößen: E(a · X + b) = a · EX + b E(X1 + X2 + ... + Xn ) = EX1 + EX2 + ... + EXn V ar(a · X + b) = a2 · V ar(X) (3.20) V ar(X) = E(X − EX)2 Für stochastisch unabhängige Zufallsgrößen gilt darüber hinaus: V ar(X1 + X2 + ... + Xn ) = V ar(X1 ) + V ar(X2 ) + ... + V ar(Xn ) (3.21) 3.5.10 Ungleichung von Tschebyscheff Ohne die Verteilung von X genauer zu kennen (aber gegebenen EX) kann man Wahrscheinlichkeiten von Abweichungen vom Erwartungswert EX nach der Ungleichung von Tschebyscheff abschätzen: P (|X − EX| < c) ≥ 1 − Allerdings kann diese Abschätzung sehr grob sein. 70 V ar(x) c2 (3.22) 3 Wahrscheinlichkeit 3.5.11 Übersichtstabelle Verteilungsfunktionen Verteilung von x Formel Symbol E(X) Var(X) p p(1 − p) B(n,p) np np(1 − p) P(λ) λ λ R([a,b]) a+b 2 (b−a)2 12 D([a,c,b]) a+b+c 3 a2 +b2 +c2 −ab−ac−bc 18 E(λ) 1 λ 1 λ2 N(µ, σ 2 ) µ σ2 Zweipunktvert. mit Erfolgswahrsch. p n i pi (1 − p)n−1 Binomialvert. mit den Parametern n und p λi −λ i! e 1 b−a 2(x−a) (c−a)(b−a) 2(b−x) (b−c)(b−a) Poissonvert. mit Parameter λ Gleichvert. auf [a,b] :a≤x≤c Dreiecksvert. auf [a,b] :c≤x≤b mit Häufigkeitspunkt c λe−λx Exponentialvert. mit Parameter λ (x−µ)2 − 2σ 2 √ 1 e 2πσ 2 Normalvert. mit den Parametern µ und σ 2 71 4 Formeln 4.1 Differentialrechnung - Regeln zur Ableitung f (x) = xn → f 0 (x) = n · xn−1 p p p −1 f (x) = x q → f 0 (x) = · x q q f (x) = a · xn → f 0 (x) = a · n · xn−1 f (x) = a → f 0 (x) = 0 f (x) = ax → f 0 (x) = ax · ln(a) 1 f (x) = ln(x) → f 0 (x) = x f (x) = f1 (x) ± f2 (x) → f 0 (x) = f10 (x) ± f20 (x) f (x) = u · v → f 0 (x) = u · v 0 + v · u0 0 u v0 0 + → f (x) = u · v u v 0 0 f (x) = u · v · w → f (x) = u · v · w + u · v 0 · w + u · v · w0 0 v 0 w0 u 0 + + → f (x) = u · v · w u v w 0 0 u v·u −u·v f (x) = → f 0 (x) = v v2 f (x) = f (g(x)) → g(x) = z → f 0 (x) = f 0 (z) · g 0 (x) f 0 (x) = innere Abl. g 0 (x) · aeuβere Abl. f 0 (z) 1 −g 0 (x) f (x) = → f 0 (x) = 2 g(x) g (x) 72 4 Formeln 4.2 Integralrechnung - Stammfunktionen und Regeln f (x) = c → F (x) = c · x 1 f (x) = x → F (x) = · x2 2 1 f (x) = x2 → F (x) = · x3 3 xn+1 f (x) = xn → F (x) = +c n+1 x−n+1 x1−n f (x) = x−n → F (x) = +c= +c −n + 1 1−n f (x) = sin(x) → F (x) = −cos(x) f (x) = cos(x) → F (x) = sin(x) f (x) = ex → F (x) = ex f (x) = ln(x) → F (x) = x · (ln(x) − 1) f (x) = c · g(x) → F (x) = c · G(x) f (x) = g(x) + h(x) → F (x) = G(x) + H(x) ˆb ˆa f (x)dx = − a f (x)dx b ˆc ˆb f (x)dx ˆc = a f (x)dx + f (x)dx f r a < b < c a b ˆb ˆb h · f (x)dx = h· a f (x)dx a ˆb ˆb (f (x) + g(x))dx = a ˆb f (x)dx + a ˆb g(x)dx a ˆb (f (x) · g(x))dx (f 0 (x) · g(x) + f (x) · g 0 (x))dx = a a ˆb ˆb 0 (f (x) · g 0 (x))dx (f (x) · g(x))dx + = a a 73 5 Programme 5.1 Geogebra Geogebra ist eine Java-Applikation, mit der man geometrisch konstruieren, aber auch Funktionen graphisch anzeigen lassen kann. Durch die Möglichkeit, Variablen/Werte als Schieberegler auf die Zeichnungsfläche zu bringen, kann man Aufgaben zum Teil interaktiv lösen. Das Programmpaket findet man unter http://www.geogebra.org. 74 5 Programme 5.2 Maxima Maxima ist ein freies Computer-Algebra-System (CAS), mit dem sich viele Aufgabenstellungen während des Studiums nachrechnen oder überprüfen lassen. Funktionsdiagramme, die sich schnell erzeugen lassen, helfen oft, sich in Aufgabenstellungen schneller zurechtzufinden und auch ein Gefühl für die Auswirkungen unterschiedlicher Parameter zu bekommen. Das Programmpaket findet man unter http://wxmaxima.sourceforge.net. Eine weitere Quelle mit vielen Beispielen ist http://maxima.weilharter.info/. Hinweis: Maxima nummeriert Eingaben und Ausgaben (Ergebnisse) durch. (%i27) zeigt die 27. Eingabe (%o27) zeigt das 27. Ergebnis. Ergebnisse können unter Bezugnahme des Outputmarkers weiter verwendet werden. Der Ausdruck ’37*%o27’ wird den Wert 37 mit dem Ergebnis der Eingabe 27 multiplizieren. Variablen definiert man mit einem Doppelpunkt ⇒ Var:3; Funktionen definiert man mit Doppelpunkt und Gleichheitszeichen ⇒ funk:=sin(Var); 75 5 Programme Hier ein Beispiel für die Anwendung von Maxima in der linearen Algebra: 76 5 Programme Hier ein Beispiel für die Anwendung von Maxima in der Wahrscheinlichkeitsrechnung: 77 5 Programme 78 5 Programme 79 5 Programme 80 5 Programme 81 5 Programme 82 5 Programme 83 5 Programme 5.3 yEd Graph Editor Die Graphiken in diesem Tutorial sind mit diesem freien Graph Editor erzeugt worden. Auch diese Applikation arbeitet auf Basis von Java. Sie kann Zeichnungen nicht nur anfertigen, sondern erzeugte Graphen auch untersuchen und analysieren (z.B. auf Zyklenfreiheit, Knoten- und Kantenanzahl). Knoten und Kanten sind vielfältig darstellbar. Der Graph bleibt beim Verschieben von Knoten verbunden und kann auf Wunsch in mehrere vordefinierte Arten umgeformt werden (z.B. hierarchisch, organisch oder UML). So kann man den Graphen auf diese Weise auf Mausklick topologisch sortiert anzeigen lassen. Vor dem Erzeugen eines neuen Graphen, empfiehlt es sich unter ’Datei > Standard Knoten ...’ und ’Datei > Standard Kante ...’ die gewünschten Eigenschaften festzulegen, um nicht nachträglich alle Komponenten nachdefinieren zu müssen. Das Programmpaket findet man unter http://www.yworks.com/en/products_yed_about. htm. 84 5 Programme 5.4 math4u2 math4u2 ist ein Programmpaket, das eher für den Lehrer/Tutor gedacht ist, um im Unterricht anschauliches, interaktives Lehren in den Gebieten der Mathematik zu ermöglichen. Nach etwas Einarbeitungszeit kann man auch mit diesem Programm gute Funktionsanalysen machen. Das Programmpaket findet man unter http://www.math4u2.de. 85 5 Programme 5.5 GraphAnalyser Der GraphAnalyser ist ein kleines Programm, das einen Graphen in Form einer Textdatei entgegen nimmt und ihn auswertet. Das Ergebnis erhält man als Textdatei zurück. Das Programm habe ich während des Studiums der Graphentheorie geschrieben. Es erlaubt das Überprüfen von Ergebnissen. Das Programmpaket findet man unter http://www.wolfgang-fuehrer.de/fh_trier/ Dieser Graph hätte folgende Eingabedatei: Diesen Text speichert man unter einem Namen ab und läßt die Datei anschließend auf das Icon des GraphAnalyser fallen. Als Ergebnis erhält man ein Textfile, das automatisch öffnet. 86 5 Programme 87 5 Programme 5.6 Lyx Wer sich fragt mit welchem Programm dieses Script erstellt worden ist - hier ist die Antwort. Mit Lyx kann man den Text “Quasi” in WYSIWYG erstellen, obwohl das TEX eigentlich widerspricht. Ich benötigte nur eine sehr kurze Einarbeitungsphase, um sehr produktiv arbeiten zu können. Das Programmpaket findet man unter http://www.lyx.org 88 5 Programme 5.7 Sonstiges Einige der Aufgaben, die ich mit den Programmen gelöst habe, werde ich auf meiner Website http://www.wolfgang-fuehrer.de/fh_trier/ zur Verfügung stellen. Das Abtippen wird man sich also sparen können. Wenn nichts dagegen spricht, werde ich diese Formelsammlung als PDF dort auch ablegen. Für Hinweise zu Fehlern oder wichtigen Ergänzungen bin ich dankbar. Ich werde diese schnellst möglich beheben bzw. einfügen. Meine E-Mail Adresse lautet: [email protected] Ich bitte um etwas Geduld, wenn es um die Beantwortung von E-Mails geht. Beruf und Studium und Familie ... da kann die zur Verfügung stehende Zeit schon mal etwas knapp werden :-) 89 6 Literaturverzeichnis [1] Kurt-Ulrich Witt. Unterlagen für das Fernstudium Informatik FH-Trier. MAT 4. Mathematische Grundlagen für die Informatik - Lineare Algebra und Einführung in die Codierungstheorie. [2] Peter Becker. Unterlagen für das Fernstudium Informatik FH-Trier. MAT 5. Mathematische Grundlagen für die Informatik - Graphentheorie. [3] Barbara Grabowski. Unterlagen für das Fernstudium Informatik FH-Trier. MAT 6. Mathematische Grundlagen für die Informatik - Wahrscheinlichkeitstheorie und Statistik. [4] Diplom Informatiker Markus Schwinn. Mitschriften und Unterlagen des Tutoriums zu MAT 4, Sommersemester 2007. [5] Dr. Andreas Lux. Mitschriften und Unterlagen des Tutoriums zu MAT 5, Sommersemester 2007. [6] Diplom Informatiker Hermann Schloss. Mitschriften und Unterlagen des Tutoriums zu MAT 6, Sommersemester 2007. 90 Stichwortverzeichnis Abelsche Gruppe, 1 Diskrete Zufallsgrößen, 64 Ableitung, 72 Dreiecksverteilung, 68 Abstand, 47 Edges, 34 adjazent, 34 Eingansgrad, 39 Adjazenzmatrix, 40 Einheitsmatrix, 25 Artikualtionspunkt, 42 Elementarmatrix, 25 Aufspannender Baum, 51 endlicher Graph, 34 azyklisch, 40 Ereignisfeld, 57 Azyklische Graph, 40 Erwartungswert, 70 Baum, 38 Eulerkreis, 45 Bayes, 63 Eulerweg, 45 bijektiv, 14 Exponentialverteilung, 68 bijektive, 37 Gauß, 69 Bilinearform, 17 Gauss-Jordan-Verfahren, 22 Binomialverteilung, 65 Geogebra, 74 Blatt, 35 geordnete Paare, 38 Breitensuche, 42 Gerichteter Graph, 38 Gleichverteilung, 64, 68 Cayley, 52 Glockenkurve, 69 De Morgansche Regeln, 59 Grad, 35, 39 Determinante, 28 Graph, 34 Diagonalmatrix, 25 Graphen, 34 Dichtefunktion, 67 Differentialrechnung, 72 Hamiltonsche Kreise, 46 Dijkstra Algorithums, 48 Handschlaglemma, 35 Dimension, 11 Hierholzer Algorithmus, 46 91 Stichwortverzeichnis homogen, 20 Matrix Aij, 28 Homomorphismus, 14 Matrixgleichung, 30 Matrizen, 24 inhomogen, 20 Matrizen Addition, 26 inneres Produkt, 19 Matrizen Transposition, 26 Integralrechnung, 73 Matrizenmultiplikation, 26 Intevallwahrscheinlichkeit, 67 Matrizentransformationen, 27 Inverse Matrix, 32 Maxima, 75 inzident, 34 Maximalgrad, 35 Inzidenzabbildung, 34 Minimal aufspannender Baum, 51 isoliert, 35 Minimalgrad, 35 isomorph, 37 Normalverteilung, 69 Isomorphe Graphen, 37 Isomorphismus, 14, 37 Orthogonal, 19 Orthogonalraum, 19 Körper, 1 Kürzeste Wege, 47 Poissonverteilung, 66 Kantanlänge, 47 Prüfercode, 52 Kante (gerichtet), 38 Prim Algorithmus, 54 Kanten, 34 Produktformel, 60, 61 Kantengewicht, 47 Kantenzug, 37 quadratische Matrix, 25 Kantenzug (gerichtet), 39 Knoten, 34 Rang einer Matrix, 27 Koeffizientenmatrix, 24 Reguläre Matrix, 30 Kombinatorische Formeln, 59 relativeHäufigkeit, 58 Komplementgraph, 36 Schlichter Graph, 34 Kreis, 37 Schlinge, 34 kreisfrei, 40 Skalarprodukt, 19 Kruskal Algorithmus, 55 Stammfunktionen, 73 Laplace-Versuch, 59 Standartnormalverteilung, 69 Linear unabhängig, 5 Starker Zusammenhang, 39 lineare Abbildung, 14 Stetige Zufallsgrößen, 67 Lineares Gleichungssysteme, 20 stochastisch unabhängig, 60 Linearkombination, 5 symmetrische Matrix, 25 math4u2, 85 Tiefensuche, 42 92 Stichwortverzeichnis Topologisches sortieren, 44 Transformationen, 21 transponierte Matrix, 25 Traveling Salesman Problem, 56 triviale Unterräume, 2 TSP, 56 Umkehrhomomorphismus, 14 untere Schranke, 56 Untergraph, 36 Untergraph (aufspannender), 36 Untergraph (induzierter), 36 Unterraum, 2–4 Varianz, 70 Vektorraum, 2, 11 Verteilungsfunktion, 67 Verteilungsfunktionen, 71 Verterx, 34 Vollständiger Graph, 35 vollständiger Graph, 52 Wahrscheinlichkeit (bedingte), 60, 67 Wahrscheinlichkeit (totale), 62 Wahrscheinlichkeitsraum, 57 Wald, 38 Warteschlange, 42 Weg, 37 yEd Graph Editor, 84 Zusammenhängender Graph, 37 Zusammenhangskomponenten, 42 93