Zusammenfassung Algebra und Diskrete Mathematik für Informatik Stefan Haider [email protected] Wintersemester 2011/12 Inhaltsverzeichnis 1 Grundlagen 1.1 Elementare Zahlentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Elementare Beweistechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Elementare Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 3 2 Kombinatorik 2.1 Abzählprinzipien . . . . . . . . . 2.2 Kombinatorische Grundaufgaben 2.3 Schubfachprinzip . . . . . . . . . 2.4 Elementare Identitäten . . . . . . . . . . 4 4 4 4 4 3 Mengenlehre 3.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Kardinalität und Abzählbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 4 Rekursionen 4.1 Lineare Differenzengleichungen 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Differenzengleichungen höherer Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Graphentheorie 5.1 Definitionen: . . . . . . . . . . . . . 5.2 Zusammenhang . . . . . . . . . . . . 5.3 Graphrelationen . . . . . . . . . . . 5.4 Bäume und Wälder . . . . . . . . . . 5.5 Planare Graphen . . . . . . . . . . . 5.6 Euler’sche und Hamilton’sche Linien 5.7 Algorithmen auf Graphen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 11 12 12 12 13 14 6 Algebraische Strukturen 6.1 Gruppentheorie . . . . 6.2 Ringe . . . . . . . . . 6.3 Integritätsringe . . . . 6.4 Körper . . . . . . . . . 6.5 Verbände . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 17 18 18 18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 7 Lineare Algebra 7.1 Vektoren . . . . . . . . . . . . . 7.2 Vektorraum . . . . . . . . . . . 7.3 Matrizen . . . . . . . . . . . . . 7.4 Lineare Abbildungen . . . . . . 7.5 Lineare Gleichungssysteme . . . 7.6 Determinanten . . . . . . . . . 7.7 Eigenwerte und Eigenvektoren 7.8 Skalarprodukt . . . . . . . . . . 7.9 Algebra für Analysis . . . . . . . . . . . . . . . 20 20 20 22 23 24 24 26 27 28 8 Algebraische Codierungstheorie 8.1 Blockcodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Gruppencodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Linearcodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 29 29 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Grundlagen 1.1 1.1.1 Elementare Zahlentheorie Natürliche Zahlen Basis für den Beweis über vollständige Induktion. Peano Axiome 1. 0 ∈ N 2. ∀n∃n0 ∈ N 3. @n0 ∈ N : n = 0 4. ∀m, n ∈ N : m0 = n0 ⇒ m = n 5. Induktionsprinzip S⊇N 0∈S ∀n ∈ N : n ∈ S ⇒ n0 ∈ S 1.1.2 Rationale Zahlen Alle Zahlen die durch Brüche entstehen. na o Q= |a, b ∈ Z, b 6= 0 b 1.1.3 Reelle Zahlen Rationale Zahlen inklusive nicht periodische Dezimalzahlen. R=Q∪I 1.1.4 Komplexe Zahlen C = {a + bi|a, b ∈ R} a...Realteil b...Imaginärteil i2 = −1 kartesische Koordinaten: (a, b) Polarkoordinaten: [r, ϕ] Z = r (cos ϕ + i sin ϕ) Wurzelziehen in C Z = [r, ψ] gesucht sind alle W n= Z √ ψ + 2kπ Wk = n r, k = 0, 1, 2, ..., n − 1 n man erhält in der Gauß’schen Zahlenebene ein gleichseitiges n-Eck. 1.1.5 Zahlentheorie Teilbarkeit a|b ⇔ ∃c ∈ Z : b = a · c triviale Teiler: 1 und die Zahl selbst d = ggT (a, b) ⇔ d|a, d|b ∧ t|a, t|b ⇒ t|d∀t ∈ Z Berechnung des ggT mittels Euklid’schen Algorithmus. ggT (a, b) ∗ kgV (a, b) = a ∗ b 3 Primzahlen p ≥ 2 ist prim ⇔ es gilt nicht p = r ∗ s mit r < p, s < p Fundamentalsatz der Zahlentheorie Jede natürliche Zahl a ≥ 2 lässt sich eindeutig (bis auf die Reihenfolge) als Produkt von Primzahlen darstellen. Kongruenzen und Restklassen a, b ∈ Z, m ≥ 2 a ≡ b mod m ⇔ m|a − b ⇒ a − b = m ∗ q q ∈ Z Mit Restklassen kann normal gerechnet werden. Es gibt m verschiedene Restklassen: 1. 0 = {0, ±m, ±2m, ...} 2. 1 = {1, 1 ± m, 1 ± 2m, ...} 3. m − 1 = {m − 1, m − 11 ± m, m − 1 ± 2m, ...} 4. m = 0 1.2 1.2.1 Elementare Beweistechniken Beweis durch vollständige Induktion 1. Vermutung Eine Vermutung P (n) wie ”Die Summe der ersten n geraden Zahlen ergibt n2 .”wird aufgestellt. 2. Induktionsanfang Man findet den Punkt ab dem die Vermutung gilt. P (0) ist wahr 3. Induktionsschritt n → n + 1 Durch den Induktionsschritt folgt, dass P (n) → P (n + 1)∀n ∈ N 1.2.2 Beweis durch Widerspruch Man nimmt an, das Gegenteil der Behauptung gilt. Anschließend führt man den Beweis auf einen Widerspruch. Durch ein Gegenbeispiel ist es möglich festzustellen, dass die ursprüngliche Behauptung gilt. 1.3 Elementare Logik Interdisziplinär :-) siehe FMOD, TGI, etc. 4 2 Kombinatorik 2.1 Abzählprinzipien A...endliche Menge |A|...Anzahl der Elemente in A • Summenregel: |A ∪ B| = |A| + |B| falls A ∩ B = ∅ • Produktregel: |A × B| = |A| × |B| • Gleichheitsregel: ∃f : A → B bijektiv |A| = |B| 2.2 Kombinatorische Grundaufgaben • Variation mit Wiederholung / Anordnung ohne Einschränkung: nk Ziehen mit zurücklegen • Variation ohne Wiederholung / Anordnung verschiedener Elemente: Ziehen ohne zurücklegen n! (n−k)! • Permutation einer Menge: n! Anordnungsmöglichkeiten einer n-elementigen Menge • Permutation einer Multimenge: k1 !·kn!2 !·... Anordnungsmöglichkeiten einer Menge mit gleichartigen Elementen n! • Kombination ohne Wiederholung / Auswahl einer Teilmenge: nk = k!(n−k)! Ziehen ohne Zurücklegen (Reihenfolge egal) (n+k+1)! • Kombination mit Wiederholung / Auswahl einer Teilmenge: n+k−1 = k!(n−1)! k Ziehen ohne zurücklegen (mehrere gleichartige Elemente) 2.3 Schubfachprinzip n...Objekte k...Boxen oder Schubfächer Man verteilt n Objekte auf k Schubfächer. Dabei muss n > k gelten. Satz 2.4 Es gibt mindestens eine Box mit mehr als einem Objekt. Elementare Identitäten Binomialidentitäten n P k=0 Binomischer Lehrsatz n k = 2n Summe der Zeilen des Pascal’schen Dreiecks. (x + y)n = n P k=0 n k · xn−k · y k 5 2.4.1 Inklusions-Exklusions-Prinzip A B C |A ∪ B ∪ C| = |A| + |B| + |C| − |A ∩ B| − |A ∩ C| − |B ∩ C| + |A ∩ B ∩ C| Notation der Siebformel | n S i=1 Ai | = (−1)|I|+1 · | P ∅6=I⊆<1,2,...,n> 6 T i∈I Ai | 3 Mengenlehre E...Universum • ∅ ist die leere Menge • M = Q Die Mengen M und Q beinhalten die gleichen Elemente. • M ⊆ Q M ist Teilmenge von Q. • A ∪ B Vereinigung • A ∩ B Durchschnitt • A \ B Mengendifferenz • Ā = {x|x ∈ / A} Komplement • A 4 B = (A \ B) ∪ (B \ A) • A × B kartesisches Produkt • A S1 ∪ A2 ∪ A3 ∪ ... Ai i∈I • P (A) Potenzmenge von A |P (A)| = 2|A| 3.1 Relationen aRb ”a steht in Relation zu b” Eine Relation R zwischen zwei Mengen A und B ist eine Teilmenge des kartesischen Produkts (R ⊆ A × B). Ist A=B spricht man von einer binären Relation auf A. Graph der Relation G(R) • Menge der Knoten entspricht der Menge A • Menge der Kanten welche 2 Knoten genau dann verbindet, falls aRb gilt. Äquivalenzrelation Eine binäre Relation ist eine Äquivalenzrelation falls gilt: 1. Reflexivität: ∀a ∈ A : aRa 2. Symmetrie: ∀a, b ∈ A : aRb ⇒ bRa 3. Transitivität: ∀a, b, c ∈ A : aRb ∧ bRc ⇒ aRc Partitionen Unter Partitionen einer Menge versteht man ein System von Teilmengen Ai (i ∈ I) mit den Eigenschaften: 1. ∀i ∈ I : Ai 6= ∅ 2. ∀i, j ∈ I : i 6= j ∧ Ai ∩ Aj = ∅ S 3. A = Ai i∈I 7 Halbordnungsrelationen Halbordnungsrelationen beschreiben eine Hierarchie. 1. Reflexivität: ∀a ∈ A : aRa 2. Antisymmetrie: (aRb ∧ bRa) ⇒ a = b 3. Transitivität: ∀a, b, c ∈ A : aRb ∧ bRc ⇒ aRc Eine Halbordnung ist in Totalordnung, wenn je zwei Elemente einer Relation miteinander vergleichbar sind. (∀a, b ∈ A : aRb ∨ bRa) Hasse-Diagramme(Darstellung von HO-Relationen) • Ausgangspunkt ist der Graph der Relation • alle Schlingen können weggelassen werden • Kanten existieren nur zwischen direkten Nachfolgern (Transitive Verbindungen werden reduziert) • alle Elemente werden entsprechend ihrer Größe angeordnet (größte Elemente oben) • die Orientierung der Kanten kann vernachlässigt werden (da sie immer nach oben zeigen) 3.1.1 Funktionen f : A → B ⇔ f (a) = b ⇔ aRf b A bezeichnet man als Definitionsmenge, B als Wertemenge Funktionen sind spezielle Relationen bei denen zu einem Urbild genau 1 Bild zugeordnet wird. Arten von Funktionen: • injektiv: es gibt höchstens ein f (a) = b (∀a1 , a2 ∈ A : a1 6= a2 ⇒ f (a1 ) 6= f (a2 )) • surjektiv: ∀b ∈ B∃a ∈ A : f (a) = b • bijektiv: injektiv ∩ surjektiv: ∀b ∈ B, a ∈ A : f (a) = b Inverse Funktion Es gibt nur dann eine inverse Funktion zu einer Funktion, falls die Funktion bijektiv ist. 3.2 Kardinalität und Abzählbarkeit Mächtigkeit von Mengen 1. Abzählbar unendlich (ℵ0 ): Ganze Zahlen, Rationale Zahlen (nach 1. Cantor’schem Diagonalverfahren) 2. Überabzählbar unendlich(c): Reelle Zahlen (nach 2. Cantor’schem Diagonalverfahren) 8 4 Rekursionen Rekursionen basieren auf dem Prinzip ein Problem auf bekannte, gelöste Probleme zurückzuführen. Derangements/fixpunktfreie Permutationen Rekursion 2. Ordnung (benötigt 2 Startwerte) Dn = (n − 1)Dn−2 + (n − 1)Dn−1 4.1 Lineare Differenzengleichungen 1. Ordnung Allgemein: xn+1 = an xn + bn Beispiel Türme von Hanoi xn ...minimale Anzahl an Zügen für Turm der Höhe n xn = 2xn−1 + 1 n ≥ 2, x1 = 1 4.1.1 1. Ordnung mit konstanten Koeffizienten lösen der Rekursion durch iterieren xn+1 = axn + b für a 6= 1: n −1 xn = an x0 + b( aa−1 ) für a = 1: xn = x0 + nb Die Lösung einer Differenzengleichung wird erst durch Angabe eines Anfangswertes eindeutig. 4.1.2 1. Ordnung mit abhängigen Koeffizienten Aufspalten der Lösung in homogenen und partikulären Teil: [h] [p] xn = xn + xn Die allgemein der entsprechenden homogenen Differenzengleichung xn+1 = an xn ist: n−1 Lösung Q [h] xn = C ai i=0 Partikulärlösung • Variation der Konstanten (ist immer möglich) • Methode des unbestimmten Ansatzes (ist nur bei schönen“ Rekursionen möglich) ” Ersetzen von n−1C in der allgemeinen Lösung durch die Folge von Konstanten Cn . Q [p] x n = Cn ai i=0 [p] Beispiel Türme von Hanoi“: xn = Cn 2n ” [p] einsetzen der Partikulärlösung xn = Cn 2n in die Ursprungs-Rekursion xn+1 = 2xn + 1: Cn+1 2n+1 = 2Cn 2n + 1 Umformung in Richtung Cn : 1 Cn+1 = Cn + 2n+1 1 Cn = C0 + 21 + 212 + 21n Durch einsetzen eines Startwertes x0 = 1 erhalten wir die Lösung für die Folge Cn : Cn = n P ( 21 )k = k=0 1−( 21 )n−1 1−( 12 ) Durch einsetzen der Lösung für die Konstanten in die Partikulärlösung und das Addieren mit der 9 homogenen Lösung erhält man die Lösung: xn = C · 2n + 2n+1 − 1 4.2 Differenzengleichungen höherer Ordnung xn+2 + a · xn+1 + b · xn = Sn Sn ...Störfunktion 4.2.1 Potenzansatz xn = λ n λn+2 + a · λn+1 + b · λn = 0 λn (λ2 + a · λ + b) = 0 λ2 + a · λ + b nennt man das charakteristische Polynom Lösung mittels Lösungsformel für quadratische Gleichungen: √ −a± a2 −4·b λ1,2 = 2 Diskriminante a2 − 4 · b • Diskriminante > 0: 2 reelle Lösungen für λ1,2 Die Folgen xn1 = λn1 und xn2 = λn2 sind Lösungen der Differenzengleichung. [h] xn = C1 · λn1 + C2 · λn2 dabei sind die beiden Konstanten C1 und C2 frei wählbar. Durch Angabe von Startwerten können die Konstanten berechnet werden. • Diskriminante < 0: 2 komplexe Lösungen für λ1,2 man erhält λn1 = [rn , n · ϕ] = rn · (cos(n · ϕ) + i · sin(n · ϕ)) und λn2 = [rn , −n · ϕ] = rn · (cos(−n · ϕ) + i · sin(−n · ϕ)) = rn · (cos(n · ϕ) − i · sin(n · ϕ)) [h] xn = C1 · (rn · (cos(n · ϕ) − i · sin(n · ϕ))) + C2 · (rn · (cos(n · ϕ) − i · sin(n · ϕ))) [h] xn = rn · ((C1 + C2 ) · cos(n · ϕ) + (i · C1 − i · C2 ) · sin(n · ϕ)) Definieren neuer Konstanten D1 = C1 + C2 und D2 = i · C1 − i · C2 D1 , D2 ∈ R [h] xn = rn · (D1 · cos(n · ϕ) + D2 · sin(n · ϕ)) • Diskriminante = 0: 1 reelle Lösung λ1 = λ2 n · λn1 ist ebenfalls Lösung der Rekursion dadurch erhält man: [h] xn = C1 · λn1 + C2 · n · λn1 = (C1 + C2 · n) · λn1 4.2.2 Partikulärlösung durch Versuchslösung Störfunktion 1 rn sin(r · n) oder cos(r · n) nk k n · rn Versuchslösung A A · rn A · sin(r · n) + B · cos(r · n) A0 + A1 · n + A2 · n2 + ... + Ak · nk (A0 + A1 · n + A2 · n2 + ... + Ak · nk ) · rn (1) (2) Superpositionsprinzip Sn = Sn + Sn Aufspalten der Störfunktion mit anschließender Addition der Ansatzlösungen. 10 4.2.3 Differenzengleichungen mit konstanten Koeffizienten höherer Ordnung xn+k + ak−1 · xn+k−1 + ... + a1 · xn+1 + a0 · xn = Sn Lösungsweg analog zu Grad 2: • Lösung der homogenen DGL mittels Potenzansatz. • Lösung der Störfunktion mittels Versuchslösung. 4.2.4 Methode der erzeugenden Funktion Kommt hoffentlich nicht :-/ Zuordnung der Folge zu einer formalen Potenzreihe. x(z) = x0 + x1 · z 1 + x2 · z 2 + x3 · z 3 + ... Die Koeffizienten erhält man durch Taylorreihenentwicklung um z = 0. 11 5 Graphentheorie V...Knotenmenge E...Kantenmenge G = (V, E) • ungerichtete Graphen: N (v) = {w ∈ V : (v, w) ∈ E} • gerichtete Graphen: Γ+ (v) = N achf olger = {w ∈ V : (v, w) ∈ E} Γ− (v) = V orgaenger = {w ∈ V : (w, v) ∈ E} 5.1 Definitionen: • Ein Graph heißt einfach/schlicht falls keine Schlingen oder Mehrfachkanten auftreten. • Quelle: |Γ− (v)| = d− (v) = Hingrad = 0 • Senke: |Γ+ (v)| = d+ (v) = W eggrad = 0 • Kantenfolge(ungerichtet): Folge von Kanten, wobei der Endknoten immer der Anfangsknoten der darauffolgenden Kante ist. • Kantenzug(gerichtet): Kantenfolge eines gerichteten Graphen. • geschlossene Kantenfolge/-zug: Anfangspunkt=Endpunkt • Weg(ungerichtet): Kantenfolge in der keine Knoten und keine Kanten mehrfach vorkommen. • Pfad/Bahn(gerichtet): Kantenzug in der keine Knoten und keine Kanten mehrfach vorkommen. • Kreis(ungerichtet): Weg mit Anfangspunkt=Endpunkt • Zyklus(gerichtet): Pfad mit Anfangspunkt=Endpunkt • Falls es eine Kantenfolge von v nach w gibt, gibt es auch einen Weg von v nach w der nur Kanten der ursprünglichen KF enthält. • Schatten: der ungerichtet Graph zu einem gerichteten. Handschlag-Lemma • gerichteter Graph: P P + d (v) = |E| = d− (v) v∈V v∈V • einfacher ungerichteter Graph: P d(v) = 2 · |E| v∈V 5.2 Zusammenhang Zusammenhang ungerichteter Graph • ungerichteter Graph heißt zusammenhängend, falls jeder Knoten v ∈ V von w ∈ V erreichbar ist. • ein maximal zusammenhängender Teilgraph eines Graphen heißt Zusammenhangskomponente. 12 Zusammenhang gerichteter Graph • stark zusammenhängend: Es existiert ein Kantenzug von v nach w v, w ∈ V : v¬w. • schwach zusammenhängend: Es existiert ein Kantenzug von v nach w aber nur bei Missachtung der Richtung der Kanten. 5.2.1 Adjazenzmatrix Die Adjazenzmatrix gibt die Anzahl der Kanten von vi nach vj an. Wege A(G)...Adjazenzmatrix des Graphen A2 = A(G) · A(G) definiert die Anzal Kantenfolgen der Länge 2 von vi nach vj . Ak definiert die Anzahl Kantenfolgen der Länge k von vi nach vj . A0 ...Einheitsmatrix M = A0 + A1 + A2 + ... + Al l = min(|V | − 1, |E|) • aij = 0 in der Matrix M zeigt, dass es keine Kantenfolge zwischen den Knoten vi und vj gibt. Außerdem zeigt ein derartiger Eintrag, dass der Graph NICHT stark zusammenhängend ist. • Wenn für alle aij gilt aij ¬0 dann ist der Graph stark zusammenhängend. • Ein Weg zwischen 5.3 Graphrelationen Isomorphie Graphen sind von gleicher Gestalt wenn G = (V, E) G0 = (V 0 , E 0 ) ∃ϕ : V → V 0 (v, w) ∈ E(G) ⇔ (ϕ(v), ϕ(w)) ∈ E 0 (G0 ) Graphenminor Erlaubte Operationen um zu einem Graphenminor zu gelangen: • Kantenkontraktion: Verschmelzung von Knoten zu Superknoten • Entfernen von Kanten und Knoten alleine würde zu einem Teilgraphen aber nicht zwingend zu einem Minor führen. 5.4 Bäume und Wälder • Kreisfreie, ungerichtete Graphen sind Wälder. • Zusammenhängende, kreisfreie, ungerichtete Graphen sind Bäume. • Zusammenhangskomponenten von Wäldern sind Bäume. • k...Anzahl der Bäume α0 (T ) = |V | α1 (T ) = |E| α0 (T ) = α1 (T ) + k 5.5 Planare Graphen Planare Graphen sind kreuzungsfrei darstellbar. 13 Eulersche Polyederformel α0 (G) − α1 (G) + α2 (G) = k + 1 k...Anzahl der Zusammenhangskomponenten α0 (G) = |V | α1 (G) = || α3 (G) =Anzahl der Gebiete Satz von Kuratowski-Wagner Ein Graph ist genau dann plättbar, falls er weder K5 noch K3,3 als Graphenminor enthält. Vierfarbsatz Es gibt in jedem einfachen planaren Graphen eine zulässige Knotenfärbung mit maximal 4 Farben. 5.6 5.6.1 Euler’sche und Hamilton’sche Linien Euler’sche Linie Eine Kantenfolge im Graph G heißt Euler’sche Linie, falls jeder Knoten und jede Kante in der Kantenfolge enthalten sind, und zusätzlich jede Kante genau einmal enthalten ist. Satz Ungerichteter Graph G besitzt genau dann eine geschlossene EL falls: • Graph zusammenhängend • ∀v ∈ V : d(v) ≡ 0 mod 2 Satz Ungerichteter Graph G besitzt genau dann eine offen EL falls: • Graph zusammenhängend • ∀v ∈ V \ {AK, EK} : d(v) ≡ 0 mod 2 • AK : d(v) ≡ 1 mod 2 • EK : d(v) ≡ 1 mod 2 Satz Gerichteter Graph G besitzt genau dann eine geschlossene EL falls: • Graph ist schwach zusammenhängend • ∀v ∈ V : d+ (v) = d− (v) Satz Gerichteter Graph G besitzt genau dann eine offen EL falls: • Graph ist schwach zusammenhängend • ∀v ∈ V \ {AK, EK} : d+ (v) = d− (v) • AK : d+ (v) = d− (v) + 1 • EK : d+ (v) = d− (v) − 1 5.6.2 Hamilton’sche Linie Eine Kantenfolge, die jeden Knoten des Graphen genau einmal beinhaltet. • offen HL: AK 6= EK • geschlossene HL: AK = EK 14 Satz von Ore Ungerichteter einfacher Graph G. Falls für je 2 Knoten v, w die durch keine Kante verbunden sind gilt, d(v) + d(w) ≥ |V |, dann besitzt G eine geschlossene HL. 5.7 5.7.1 Algorithmen auf Graphen Kruskal-Algorithmus Findet in einem ungerichteten Graph G immer einen min./max. spannenden Wald. Vorgehensweise 1. Sortieren der Kanten nach deren Bewertung 2. Schrittweises Konstruieren durch einfügen neuer Kanten solange kein Kreis entsteht. Kanten die einen Kreis entstehen lassen werden verworfen. Man erhält je nach Sortierung der Kanten einen minimalen oder maximalen spannenden Wald/Baum. 5.7.2 Dijkstra-Algorithmus Findet einen kürzesten Weg von Knoten v nach Knoten w. Nach vollständiger Abarbeitung des Algorithmus ist es möglich einen Entfernungsbaum zu erstellen. Vorgehensweise 1. Ausgehend vom Startknoten sucht man jenen Knoten mit der minimalen Entfernung und markiert diesen. 2. Anschließend wiederholt man die Suche nach einem Knoten mit der minimalen Entfernung unter denen die noch nicht markiert wurden. 3. Man hat einen kürzesten Weg gefunden, wenn der Zielknoten markiert ist. 15 6 Algebraische Strukturen 6.1 Gruppentheorie Gruppe M onoid Halbgruppe Gruppoid 1. Gruppoid: allgemeine algebraische Struktur 2. Halbgruppe: zusätzlich assoziativ 3. Monoid: zusätzlich neutrales Element 4. Gruppe: zusätzlich inverses Element 5. abelsche Gruppe: zusätzlich kommutativ 6.1.1 Untergruppen gegeben Gruppe hG, ◦i U 6= ∅, U ⊆ G falls hU, ◦i selbst eine Gruppe ist, ist U Untergruppe von G Das neutrale Element e muss immer Teil der Untergruppe sein. Die Anzahl der Elemente der Untergruppe ist Teiler der Anzahl der Elemente der Gruppe. |U | | |G| Triviale Untergruppen h{e}, ◦i und hG, ◦i Untergruppenkriterien • hU, ◦i ist abgeschlossen, ∀a, b ∈ U : a ◦ b ∈ U • Assoziativität • Neutrales Element • Inverses Elemnt zu jedem Element Es genügt allerdings zu zeigen, dass die Abgeschlossenheit gegeben ist: ∀a, b ∈ U : a ◦ b ∈ U ∧ a−1 ∈ U 6.1.2 Nebenklassen gegeben: Gruppe G, Untergruppe U, a ∈ G Linksnebenklasse a ◦ U = {a ◦ u|u ∈ U } 16 Rechtnebenklasse U ◦ a = {u ◦ a|u ∈ U } 2 Nebenklassen sind entweder gleich oder haben keine gleichen Elemente. |a ◦ U | = |U | jede Nebenklasse hat dadurch gleich viele Elemente Satz von Lagrange Die Ordnung(=Anzahl der Elemente) einer Untergruppe ist immer Teiler der Gruppenordnung. Potenzen e a an = an−1 ◦ a (a−1 )−n für n = 0 für n = 1 rekursiv für n > 1 für n < 0 Ordnung • Alle Potenzen von a sind verschieden ordG (a) = ∞ Untergruppen mit solchen Elementen sind ebenfalls unendlich. • Nicht alle Potenzen von a sind verschieden ordG (a) = min(k > 0|ak = e) Untergruppen mit solchen Elementen sind zyklisch (Bsp.: Drehung im S3 ). Kleiner Satz von Fermat dann gilt a|G| = e Normalteiler Normalteiler. 6.1.3 gegeben hG, ◦i endliche Gruppe Sind die Linksnebenklassen und Rechtsnebenklassen gleich spricht man von einem Homomorphismus Eine Abbildung ϕ : G → H zwischen 2 Gruppen hG, ◦i, hH, ?i nennt man Gruppen-Homomorphismus wenn gilt: ∀a, b ∈ G : ϕ(a ◦ b) = ϕ(a) ? ϕ(b) • ϕ(eG ) → eH • ϕ(a−1 ) = ϕ(a)−1 Kern eines Homomorphismus Alle Elemente der Ausgangsgruppe, die auf das neutrale Element der Zielgruppe abgebildet werden. ker ϕ = {a ∈ G : ϕ(a) = eH } Satz Kern eines Homomorphismus ist Normalteiler von G Homomorphiesatz hG, ◦i, hH, ?i, ϕ : G → H G/kerϕ ∼ = ϕ(G) ⇔ a ◦ ker ϕ ∼ = ϕ(a) Isomorphismus ist bijektiver Homomorphismus. Direktes Produkt hG × H, i alle geordneten Paare = (a, b) : a ∈ G ∧ b ∈ H Operation wird komponentenweise angewendet. 17 6.1.4 Permutationsgruppen 1 2 ... n π= π(1) π(2) π(n) Vorzeichen der Permutation sgnπ = (−1)Inversionen Inversionen: links stehen größere Elemente als weiter rechts in der Permutation 6.2 Ringe hR, +, ·i • hR, +i kommutative Gruppe • hR, ·i Halbgruppe • Distributivgesetz: (a + b) · c = a · c + b · c c · (a + b) = c · a + c · b Beispiele für Ringe • hZ, +, ·i • hQ, +, ·i • hR, +, ·i • hC, +, ·i • hZm , +, ·i • hRn×n , +, ·i • Polynome • Formale Potenzreihe Zusätzliche Eigenschaften • hR, ·i kommutativ: kommutativer Ring • hR, ·i neutrales Element Besitz ⇒ Kommutativer Ring mit Einselement (Bsp.:hZ, +, ·i) Polynomring Ring mit endlich vielen Koeffizient ak 6= 0 aus R[x]. ∞ P ak · xk : a ∈ R k=0 • Addition: p(x) + q(x) = ∞ P (pk + qk ) · xk k=0 • Multiplikation (Cauchy Produkt): p(x) · q(x) = 18 ∞ P k P k=0 j=0 ! pj · qk−j · xk 6.3 Integritätsringe Kommutative Ringe mit Einselement ohne Nullteiler (2 Elemente 6= 0 die 0 ergeben), nennt man Integritätsringe. • hZ, +, ·i ist Integritätsring • hZ4 , +, ·i ist nicht Integritätsring • hZp , +, ·i ist dann endlicher Integritätsring, wenn p Primzahl ist • Polynome • Formale Potenzreihe Ringideal I Ideal 6.4 Ein Unterring U heißt ideal, falls ∀a ∈ R : a · U ⊆ U und U · a ⊆ U gilt. hR/I, +, ·i Nebenklassen von R und I sind ebenfalls Ring. Körper Kommutative Ringe mit Einselement die für jedes Element 6= 0 ein multiplikatives Inverses besitzen, nennt man Körper. Satz • Jeder Körper ist Integritätsring. • Falls Integritätsring endlich dann ist die Struktur ein Körper. Satz gilt. 6.4.1 Es gibt genau dann einen endlichen Körper mit n Elementen, falls n = pk : p = P rimzahl, k ≥ 1 Konstruktion endlicher Körper R = hZp [x], +, ·i I = hq(x) · Zp [x], +, ·i q(x) ist irreduzibles(nicht faktorisierbar) Polynom Bilden der Nebenklassen einen endlichen Körper. 6.5 hZp [x], +, ·i/hq(x) · Zp [x], +, ·i ⇒ die entstehenden Nebenklassen bilden Verbände B = {0, 1} Damit hB, ∧, ∨i ein Verband ist muss gelten: • hB, ∨i ist kommutative Halbgruppe • hB, ∧i ist kommutative Halbgruppe • es gilt das Absorptionsgesetz sodass: x ∧ (x ∨ y) = x x ∨ (x ∧ y) = x Verbände sind besondere Halbordnungen. Eine Halbordnung ist genau dann ein Verband, wenn je 2 Elemente ein Infimum und Supremum besitzen: 19 Infimum • c = inf(a, b) ⇔ c ≤ a ∧ c ≤ b • ∀d : d ≤ a ∧ d ≤ b ⇒ d ≤ c Supremum • c = sup(a, b) ⇔ a ≤ c ∧ b ≤ c • ∀d : a ≤ d ∧ b ≤ d ⇒ c ≤ d 6.5.1 Boolesche Algebra Einen Verband nennt man Boolesche Algebra wenn zusätzlich gilt: • Distributivgesetz: a ∧ (b ∨ c) = (a ∧ b) ∨ (a ∧ c) a ∨ (b ∧ c) = (a ∨ b) ∧ (a ∨ c) ( 0: a∨0=a • neutrales Element: 1: a∧1=a ( a ∨ a0 = 1 • Komplement: ∀a ∈ A∃a0 a ∧ a0 = 0 Es gibt bis auf Isomorphie nur eine Boolesche Algebra: hB n , ∧, ∨i Jede endliche Boolesche Algebra hat 2n Elemente. 20 7 Lineare Algebra 7.1 Vektoren Vektoraddition hR2 , +i ist kommutative Gruppe • assoziativ: ~a + ~b + ~c = ~a + ~b + ~c • neutrales Element: ~0 • inverses Element: ~a + ~a0 = ~0 ⇒ ~a0 = −~a Skalarmultiplikation R × R2 → R2 • λ · ~a + ~b = λ · ~a + λ · ~b • (λ · µ) · ~a = λ · (µ · ~a) • (λ + µ) · ~a = λ · ~a + µ · ~a • 1 · ~a = veca 7.2 Vektorraum V heißt Vektorraum über den Körper K. hV, +, Ki Es gilt: • Vektoraddition: V × V → V • Skalarmultiplikation: K × V → V 7.2.1 Unterraum W ⊆V W ist Vektorraum wenn Unterraumkriterien gelten. Unterraumkriterien W 6= 0 ist genau dann Unterraum von V falls: • ∀~a, ~b ∈ W : ~a + ~b ∈ W • ∀~a ∈ W, λ ∈ K : λ · ~a ∈ W Nebenraum ~a + W 7.2.2 Linearkombination hV, +, Ki M ⊆ V ( λ1 · v~1 + λ2 · v~2 + ... + λn · v~n : Kleinster Unterraum von ~a: W = {λ · ~a, λ ∈ R} v~1 ...v~n λ1 ...λn ∈M ∈K Menge aller Linearkombinationen aus ~a: ~ Kleinster Unterraum der n o ~a und b enthält W = λ · ~a + µ · ~b, λ, µ ∈ R Menge aller Linearkombinationen aus ~a und ~b: 21 Lineare Hülle Solche kleinsten Unterräume über Vektoren nennt man Lineare Hülle: [M ] = {λ1 · v~1 + λ2 · v~2 + ... + λn · v~n , n ∈ N, v~1 ...v~n ∈ M, λ1 ...λn ∈ K} 7.2.3 Lineare Abhängigkeit M linearabhängig λ1 · v~1 + ... + λn · v~n = ~0 ⇒ ∃(λ1 , ..., λn ) 6= (0, ..., 0) M linearunabhängig 7.2.4 λ1 · v~1 + ... + λn · v~n = ~0 ⇒ λ1 = ... = λn = 0 Vektorbasis Jeder Vektor aus V kann mittels Linearkombination der Basisvektoren erzeugt werden. 1. ~a, ~b...linear unabhängig 2. [~a, ~b] = {λ1 · v~1 + λ2 · v~2 + ... + λn · v~n , n ∈ N, λ1 ...λn ∈ K} = V Satz Es gibt immer genau eine Möglichkeit einen Vektor als Linearkombination der Basisvektoren darzustellen. 1 0 0 0 0 1 Kanonische Basisvektoren ... , ... , ..., ... 0 0 1 Satz Jede Basis von V hat genau dim(V ) Basisvektoren. Austauschlemma Ersetzen eines Vektors in der Menge M = {v~1 , v~2 , ..., v~n } von Vektoren durch Vektor ~0 genau dann zulässig falls: • ~a = µ1 · v~1 + µ2 · v~2 + ... + µn · v~n + µj · v~j • µj 6= 0 ⇒ man kann v~j durch ~a ersetzen. n o ~ ~ Koordinaten bezüglich Basis Basis B = b1 , ..., bn λ1 λ2 ~x ∈ V : ~x = λ1 · b~1 + ... + λn · b~n = ... λn Bsp. Polynome Basis R2 [x] : b1 = x0 , b2 = x1 , b3 = x2 P1 (x) = α1 + β1 · x + γ1 · x2 2 P2 (x) = α2 + β2 · x + γ2 · x α1 α2 α1 + α2 P1 (x) + P1 (x) = β1 + β2 = β1 + β2 γ1 γ2 γ1 + γ2 22 7.3 Matrizen m× n Matrix über Körper K a11 a12 · · · a1n a21 a22 · · · a2n A= . .. .. .. . a . ij am1 am2 · · · 7.3.1 amn Definitionen • Wenn m = n nennt man die Matrix quadratisch. • Falls A = AT nennt man die Matrix symmetrisch. Transposition Die Matrix AT ist die an der Hauptdiagonale gespiegelte Matrix A. Matrizen-Addition a11 + b11 · · · .. .. A+B = . . am1 + bm1 · · · λ · a11 · · · .. .. Skalarmultiplikation λ · A = . . λ · am1 · · · a1n + b1n .. . amn + bmn λ · a1n .. . λ · amn Multiplikation von Matrizen Matrizen können nur multipliziert werden wenn: die Anzahl der Spalten der Matrix A = Anzahl der Zeilen der Matrix B ist. A ∈ K m×n B ∈ K n×q A · B = C ∈ K m×q n P cij = a~i · b~j = aik · bkj = aj1 · b1j + aj2 · b2j + ... + ajn · bnj k=1 Gesetze • Assoziativität • Distributivität • neutrales Element bezüglich Multiplikation ist Einheitsmatrix: I ∈ K n×n • NICHT! kommutativ A · B 6= B · A 7.3.2 Inverses Element Es kann nur zu einer quadratischen Matrix eine Inverse Matrix geben. Dabei gilt: 1 0 0 0 0 1 0 0 A−1 · A = A · A−1 = In = .. . . 0 0 . . 0 0 ··· 1 Eine invertierbare Matrix nennt man regulär. Nicht invertierbar Matrizen sind singulär. 23 Invertierbarkeit sind. Eine Matrix ist genau dann invertierbar falls die Spaltenvektoren linear unabhängig Rang einer Matrix Die Dimension der linearen Hülle der Zeilen-/Spaltenvektoren nennt man Rang(rg(A)). Es gilt, dass der Zeilenrang gleich dem Spaltenrang einer Matrix ist. Man bringt die Matrix mittels elementarer Spaltenumformungen in Treppenform. Die Anzahl der Stufen = der Rang der Matrix. Elementare Spaltenumformungen 1. Spalten können vertauscht werden. 2. Spalten können mit Skalaren λ 6= 0 multipliziert werden. 3. Vielfache der Spalte a~i kann zur Spalte a~j addiert werden (aufgrund des Austauschlemmas). Analoges Vorgehen funktioniert auch für Zeilenumformungen. Inverse Matrix bestimmen Man führt die selben Umformungen die man auf die Matrix A anwendet auch auf der Matrix In durch. Die elementaren Umformungen iteriert man solange, bis die ursprüngliche Matrix in Einheitsform ist. Die ursprüngliche Matrix In ist nun die Matrix A−1 . 7.4 Lineare Abbildungen Abbildungen von einem Vektorraum V in einen anderen Vektorraum W kann man in eine Matrix codieren. So kann man beispielsweise Drehungen, Spiegelungen oder Projektionen einfach in eine Abbildungsmatrix kodieren um durch einfache Multiplikation den Wert aus V in W zu überführen. • ~x −→ f (~x) • ~y −→ f (~y ) • ~x + ~y −→ f (~x + ~y ) • λ · ~x −→ f (λ · ~x) Abbildungsmatrix Die Abbildungsmatrix wird aus den Abbildungen der kanonischen Basisvekto ren (e~1 , e~2 , · · · , e~n ) gebildet. A = f (e~1 ) f (e~2 ) · · · f (e~n ) Inverse Abbildung Nur möglich wenn f bijektiv ist. f :A f −1 : A−1 Also wird die Umkehroperation durch eine invertierte Abbildungsmatrix dargestellt. Hintereinanderausführung von Abbildungen g ◦ f (~x) = g(f (~x)) = B · (A · ~x) = B · A · ~x TB,C = TE,C · TB,E = (TC,E )−1 · TB,E Kern einer Abbildung ker f = {~x ∈ V : f (~x) = ~0) dim(ker f ) = def f ...Defekt von f Rang einer Abbildung Bild von f: f (V ) = {f (~x) : ~x ∈ V } rgf = dim(f (V ))...Rang von f 24 Rangformel 7.5 dim V = def f + rgf Lineare Gleichungssysteme a11 .. A= . am1 ··· .. . ··· b1 x1 a1n .. · .. = .. . . . xn amn Satz von Kronecker-Capelli rg(A|~b) 7.5.1 bn Es gibt Lösungen des linearen Gleichungssystems falls gilt: rg(A) = Gauß Algorithmus • Man verwendet die erweiterte Systemmatrix ((A|~b)). • Durch elementare Zeilenumformungen bringt man die Matrix in eine Halbdiagonalform. Da gibt es mehrerer Fälle. • Bei Fall 1 reduziert man das Gleichungssystem auf die übrigbleibenden Gleichungen und bildet Lösungen welche die Gleichungen erfüllen. • Bei Fall 3 führt man weiter elementare Zeilenumformungen durch, bis ober- und unterhalb der Diagonale nur mehr 0 stehen bleiben. Dann können die Ergebnisse direkt aus dem Ergebnisvektor ~b ausgelesen werden Matrixformen 6= 0 0 = 6 0 1. keine Lösung: 0 0 = 6 0 0 0 0 6= 0 0 2. unendlich viele Lösungen: 0 0 0 6= 0 0 6= 0 3. eindeutige Lösung: 0 0 0 0 7.6 b1 b2 .. . 0 bi = 6 0 b1 6= 0 b2 .. 0 6= 0 . 0 0 0 0 0 0 0 0 b1 b2 .. 6= 0 . 0 6= 0 bn Determinanten Definition Determinante vgl. Wikipedia Leibniz-Formel n P Q det A = π∈Sn sgn(π) ai,π(i) i=1 Hauptdiagonale-Nebendiagonale 2x2 Matrix a11 a12 a21 a22 = a11 · a22 − a12 · a21 25 3x3 a11 a21 a31 Matrix Hauptdiagonalen-Nebendiagonalen a12 a13 a22 a23 = a11 · a22 · a33 + a12 · a23 · a31 + a13 · a21 · a32 − a13 · a22 · a31 − a11 · a23 · a32 − a12 · a21 · a33 a32 a33 Satz Die Determinante ist genau dann ungleich null wenn A invertierbar ist. Satz A, B ∈ K n×n : • det(A · B) = det A · detB • det A 6= 0 : det A−1 = 1 det A • det AT = det A Rechenregeln mit Determinanten • A’ entsteht aus A durch Multiplikation der Spalte v mit einem Faktor λ. det A0 = λ · det A • A’ entsteht aus A durch Addition eines Vielfachen einer Spalte zu einer anderen. det A0 = det A • A’ entsteht aus A durch Vertausche von 2 Spalten. det A0 = − det A Kofaktor Der Kofaktor Aij einer Matrix A ist die Determinante der Matrix in der die i-te Zeile und die j-te Spalte gleich 0 gesetzt werden mit der Ausnahme von aij = 1. i+j · D Aij = (−1) ij a1,1 . . . a1,j−1 0 a1,j+1 . . . a1,n .. .. .. .. .. .. . . . . . . ai−1,1 . . . ai−1,j−1 0 ai−1,j+1 . . . ai−1,n ... 0 1 0 ... 0 Dij = 0 ai+1,1 . . . ai+1,j−1 0 ai+1,j+1 . . . ai+1,n .. .. .. .. .. .. . . . . . . an,1 . . . an,j−1 0 an,j+1 . . . an,n Vereinfacht: Der Kofaktor ist die Determinante der Matrix, in welcher die i-te Zeile und j-te Spalte gestrichen werden. 7.6.1 Laplace’scher Entwicklungssatz Mit dem Laplaceschen Entwicklungssatz kann man die Determinante einer n × n-Matrix schrittweise berechnen. So kann man entweder nach einer Zeile oder Spalte entwickeln. • Entwicklung nach der j-ten Spalte: det A = n P i=1 • Entwicklung nach der i-ten Zeile: det A = n P aij · Aij = n P (−1)i+j · aij · det Dij i=1 (−1)i+j · aij · det Dij j=1 26 + − + ··· − + − . Das Vorzeichen für die Entwicklung ergibt sich aus folgender Matrix: . . + − .. . Vereinfacht: Man reduziert die Determinantenberechnung auf kleiner Matrizen. Man summiert (−1)i+j · aij · det Dij auf. Wobei das Vorzeichen((−1)i+j ) aus der obenstehenden Matrix ausgelesen werden kann, aij der Wert an der aktuellen Stelle ist und det Dij die Determinante der um i-te Zeile und j-te Spalte reduzierten Matrix. (−1)i+j · det Dij ist der Kofaktor Aij Inverse Matrix berechnen A−1 = Â bezeichnet die Kofaktormatrix. 1 det A · ÂT Cramersche Regel Ausgangspunkt ist ein lineares Gleichungssystem mit Koeffizientenmatrix A und dem Lösungsvektor b in der Form Ax = b. Das Gleichungssytem hat eine gleiche Anzahl an Gleichungen sowie Unbekannten (A ist quadratisch) und ist eindeutig lösbar ist. Das Gleichungssystem ist genau dann eindeutig lösbar, falls det(A) 6= 0 ist. In diesem Fall kann die i-te Lösung x durch: i) xi = det(A det(A) bestimmt werden. Die Matrix Ai wird gebildet, indem die i-te Spalte durch Lösungsvektor b ersetzt wird. 7.7 Eigenwerte und Eigenvektoren Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur gestreckt, und man bezeichnet den Skalierungsfaktor als Eigenwert der Abbildung. Definition Eigenwert lineare Abbildung f : V −→ V λ ∈ K ist Eigenwert von f, falls ∃~x ∈ V \ {~0} : f (~x) = λ · ~x Definition Eigenvektor Man nennt ~x den zum Eigenwert λ zugehörigen Eigenvektor. ~x ∈ K n : A · ~x = λ · ~x Eigenwertberechnung Die Gleichung (λ · In − A) = XA (λ) nennt man charakteristisches Polynom. λ ist genau dann Eigenwert, wenn XA (λ) = 0. det (λ · In − A) = 0 bildet eine Gleichung, welche mittels der Lösungsformel gelöst werden kann(bei Polynomgrad 2). Durch lösen der Gleichungen erhält man die Eigenwerte. Eigenvektorberechnung Durch Einsetzen der Eigenwerte λn in die Gleichung: (λ · In − A) · ~x = ~0 erhält man eine Lineares Gleichungssystem welches als Ergebnis die Eigenvektoren liefert. Der Eigenvektor ist kein eindeutiges Ergebnis, da die Vektoren immer beliebig gestreckt werden kann und trotzdem die Eigenschaften eines Eigenvektors erfüllt. 27 Diagonalisierbare Matrix Wenn gilt A = T · diag(λ1 , · · · , λn ) · T −1 dann nennt man A diagonalisierbar. T = (x~1 , · · · , x~n ) So lässt sich zum Beispiel die Potenz der Matrix A einfach folgendermaßen bestimmen: m −1 Am = T · D · T −1 · T · D · T −1 · · · T · D · T −1 = T · Dm · T −1 = T · diag(λm 1 , · · · , λn ) · T 7.8 Skalarprodukt Definition Das Skalarprodukt ist definiert als: h~x, ~y i = x1 · y1 + x2 · y2 + · · · + xn · yn Orthogonalität Falls h~x, ~y i = 0 heißen die beiden Vektoren orthogonal zueinander. Rechenregeln 1. h~x, ~y i = h~y , ~xi 2. h~x, y~2 + y~2 i = h~x, y~1 i + h~x, y~2 i 3. hλ · ~x, ~y i = h~x, λ · ~y i = λ · h~x, ~y i 4. h~x, ~xi ≥ 0 ∧ h~x, ~xi = 0 ⇔ ~x = ~0 Länge eines Vektors ||~x|| = p p h~x, ~xi = x21 + x22 + · · · + x2n Normierter Vektor ||~x|| = 1 Eigenschaften der Länge eines Vektors 1. ||~x|| ≥ 0 ∧ ||~x|| = 0 ⇔ ~x = ~0 2. ||λ · ~x|| = |λ| · ||~x|| 3. Dreiecksregel: ||~x + ~y || ≤ ||~x|| + ||~y || 4. ||~x + ~y ||2 = (||~x|| + ||~y ||)2 Cauchy-Schwarz-Ungleichung | h~x, ~y i | ≤ ||~x|| · ||~y || Pythagoräischer Lehrsatz ~x, ~y orthogonal : ||~x + ~y ||2 = ||~x||2 + ||~y ||2 Winkel zwischen Vektoren cos ϕ = 7.8.1 h~ x,~ yi ||~ x||·||~ y || Orthonormalbasis Die Basis B = ander sind.( D E 0 b~i , b~j = 1 {b~1 , · · · b~n } ist Orthonormalbasis wenn alle Basisvektoren paarweise orthogonal zueini 6= j i=j Satz Ist B Orthonormalbasis, dann gilt E n D P ~x ∈ Rn : ~x = ~x, b~i · b~i i=1 28 Definition 7.8.2 P ∈ Rn×n heißt orthogonale Matrix, falls die Spalten von P ein Orthonormalbasis bilden. Orthogonale Matrix P T · P = In → P T = P −1 Spektralsatz In einer symmetrischen reellen Matrix a ⊆ Rn×n gilt: Es gibt reelle Eigenwerte und eine zugehörige Orthonormalbasis von Eigenvektoren. λ1 · · · 0 A = P · 0 ... 0 · PT 0 7.9 ··· λn Algebra für Analysis • Matrix G heißt positiv definit: f (~x) = ~xT · G · ~x > 0, ∀~x ∈ Rn \ {0} • Matrix G heißt negativ definit: f (~x) = ~xT · G · ~x < 0, ∀~x ∈ Rn \ {0} • Ansonsten heißt Matrix G indefinit. Wie feststellen ob positiv/negativ definit? 1. Spektralsatz: • positiv definit: alle Eigenwerte ¿ 0 • negativ definit: alle Eigenwerte ¡ 0 • indefinit: Mischung 2. Hauptminorenkriterium 29 8 Algebraische Codierungstheorie Quellcodierung Informationen werden in Blöcke über endliches Alphabet übersetzt. 8.1 Blockcodes Codewörter Menge von Wörtern gleicher Länge über endliches Alphabet(=Eingabealphabet). Codierung fc : I ⊆ Ak −→ An fc (I) = C ⊆ An I · · · Information Ak · · · Nachrichtenwörter der Länge k An · · · Empfangswörter der Länge n C · · · Codewörter 8.1.1 Fehlererkennung Zuteilung des Empfangsworts An zu Kategorien: • Richtig • Fehlerhaft • Unentscheidbar Wenn R∩F = ∅∧U = ∅ dann nennt man das Erkennungsschema vollständig. Fehler sind nur erkennbar wenn kein anderes Codewort in der Umgebung des Codeworts ist. 8.1.2 Fehlerkorrektur-Korrekturschema Ein Empfangswort wird den Codeworten zugeteilt. Dafür gelten folgende Voraussetzungen: 1. Anforderungen an den Kanal 2. Anforderungen an die Codierung Regel Die Hamming-Distanz zwischen v und Codewort C unter allen Codewörtern soll minimal sein. Hamming-Distanz x = (x1 , · · · , xn ) ∈ An y = (y1 , · · · , yn ) ∈ An d(x, y) · · · Anzahl der Stellen i mit xi 6= yi Satz Blockcode c mit: 1. Erkennungsschema E(C) erkennt alle Fehler an höchstens s Stellen, wenn dmin (C) ≥ s + 1. 2. Damit Korrekturschema K(C) ALLE Fehler an höchstens s Stellen korrigieren kann muss dmin (C) ≥ 2s + 1 sein. 8.2 Gruppencodes Gruppencodes sind spezielle Blockcodes. hA, +i ist kommutative Gruppe hAn , +i n-te direkte Produkt von A=Empfangsraum ist auch Gruppe Codewörter C bilden Untergruppe von An 30 8.2.1 Codierung fc : I ⊆ Ak −→ An Die Codierungsfunktion ist dabei Gruppenhomomorphismus. Erzeugendensystem Das Erzeugendensystem ist eindeutig bestimmt. Die Codierung vereinfacht sich hier wesentlich, da man keine Tabelle zum codieren mehr benötigt sondern nur mehr eine Codierungsfunktion. 8.2.2 Fehlerkorrektur Definition Ein Korrekturschema K(C) korrigiert Fehlermuster e falls alle Fehler der Form C → C +e korrigiert werden. Satz Es gibt kein Korrekturschema welches gleichzeitig Fehlermuster e und e’ korrigiert falls e − e0 ∈ C. Daher gilt in jedem Korrekturschema, dass in jeder Nebenklasse v + C höchstens ein Fehlerwort e( v) welches korrigiert wird liegt. 8.2.3 Konstruktion eines Korrekturschemas 1. Bilde Nebenklassenzerlegung von An nach Untergruppe C. 2. In jeder Nebenklasse v + C suche die Wörter von minimalen Hamminggewicht. 3. Falls Nebenklasse v+C das Wort mit minimalen Gewicht e( v) eindeutig bestimmt ist heißt dieses Element Anführer der Nebenklasse. Falls nicht eindeutig wähle man ein Wort von minimalen Gewicht. Man bildet Korrekturschema K(C) : e(v) + C ∈ Rc , ∀c ∈ C 8.3 Linearcodes Linearcodes sind spezielle Gruppencodes. Voraussetzung • hA, +, 0, −, 1i ist endlicher Körper (|A| = P rimzahln ) • I sei Unterraum von Am , hier I = Ak • Codierungsabbildung ist bijektive lineare Abbildung und kann dadurch mittels einer Matrix beschrieben werden. Definition Ein Blockcode C ⊆ An heißt Linearcode, falls C ein Unterraum von An ist. Falls dim(C) = k, dann spricht man von einem (n, k)-Linearcode über A. Codierungsabbildung x = (x1 , x2 , · · · , xk ) ∈ Ak G = Ak×n fc (x) = x · G Decodierung Die inverse Abbildung lässt sich durch die Matrix G bestimmen. Es muss gelten: G · G = Ik Die pseudoinverse Matrix G bestimmt man durch Lösen des zugehörigen linearen Gleichungssystems. 31 8.3.1 Fehlerkorrektur Kontrollmatrix ker ϕ = C ⊥ C ⊥ ist ein (n, n − k)-Linearcode über A. Die (n − k) Basisvektoren kann man zu einer (n − k) × n Kontrollmatrix H zusammenfügen. Syndrom SH (v) : v · H T ∈ An−k 1. v ∈ C ↔ SH (v) = N ullwort 2. v + C = w + C ↔ SH (v) = SH (w) In der Praxis werden die Syndrome der Nebenklassenanführer gespeichert. Wenn ein Wort v empfangen wird: • berechnet man das Syndrom, • sieht in der Tabelle nach welcher Anführer e(v) dieses Syndrom besitzt, • führt man die Korrektur C = v − e(v) durch. 32