Mathematik für Informatiker III Institut für Informatik Freie Universität Berlin Dozent: Dr. Klaus Kriegel Mitschrift: Jan Sebastian Siwy Wintersemester 2002/03 Inhaltsverzeichnis Einleitung 2 1 Stochastik 1.1 Wahrscheinlichkeitsräume . . . . . . . . . . . . . . . . . 1.1.1 Wiederholung . . . . . . . . . . . . . . . . . . . . 1.1.2 Stetige Wahrscheinlichkeitsräume . . . . . . . . . 1.1.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit 1.2 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Diskrete Zufallsvariablen . . . . . . . . . . . . . . 1.2.2 Stetige Zufallsvariablen . . . . . . . . . . . . . . . 1.3 Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Bestimmung des Erwartungswertes . . . . . . . . 1.3.2 Abweichungen vom Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Lineare Algebra 2.1 Vektoren – der intuitive Ansatz . . . . . . . . . . . . . . . . . . . 2.1.1 Koordinatenfreie Einführung . . . . . . . . . . . . . . . . . 2.1.2 Koordinatensystem . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Zusammenhang zwischen Vektoren und linearen Gleichungssystemen (LGS) . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3 Linearkombinationen und lineare Hülle . . . . . . . . . . . 2.3 Lineare Unabhängigkeit, Basis und Dimension . . . . . . . . . . . 2.3.1 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . 2.3.2 Erzeugendensystem und Basis . . . . . . . . . . . . . . . . 2.3.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Kern und Bild von linearen Abbildungen . . . . . . . . . . 2.4.3 Spezielle Homomorphismen . . . . . . . . . . . . . . . . . 2.4.4 Rang einer linearen Abbildung . . . . . . . . . . . . . . . . 1 3 3 3 4 10 13 13 16 19 19 21 26 26 26 28 29 30 30 32 33 35 35 39 42 45 45 49 51 53 2.5 Matrizen . . . . . . . . . . . . . . . . . . 2.5.1 Einleitung . . . . . . . . . . . . . 2.5.2 Multiplikation von Matrizen . . . 2.5.3 Lineare Abbildungen . . . . . . . 2.6 Rang einer Matrix . . . . . . . . . . . . 2.6.1 Einleitung . . . . . . . . . . . . . 2.6.2 Elementare Umformungen . . . . 2.6.3 Obere Dreiecksform . . . . . . . . 2.6.4 Elementarmatrizen . . . . . . . . 2.7 Lineare Gleichungssysteme . . . . . . . . 2.7.1 Einleitung . . . . . . . . . . . . . 2.7.2 Gauß’scher Algorithmus . . . . . 2.7.3 Quotientenraum . . . . . . . . . . 2.8 Inverse Matrizen . . . . . . . . . . . . . 2.8.1 Einheitsmatrix . . . . . . . . . . 2.8.2 Inverse Matrizen . . . . . . . . . 2.9 Determinanten . . . . . . . . . . . . . . 2.9.1 Einleitung . . . . . . . . . . . . . 2.9.2 Eigenschaften von Determinanten 2.9.3 Cramer’sche Regel . . . . . . . . 2.9.4 Anwendungen von Determinanten 2.10 Euklidische Vektorräume . . . . . . . . . 2.11 Affiner Raum (intuitiver Zugang) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 . 54 . 55 . 56 . 62 . 62 . 64 . 65 . 68 . 70 . 70 . 73 . 78 . 81 . 81 . 81 . 84 . 84 . 87 . 92 . 93 . 98 . 105 3 Endliche Körper und Codierungstheorie 3.1 Restklassenarithmetik . . . . . . . . . . . . . 3.1.1 ... . . . . . . . . . . . . . . . . . . . . . 3.1.2 RSA-Kryptosysteme . . . . . . . . . . 3.2 Grundbegriffe der Codierungstheorie . . . . . 3.3 Allgemeine Schranken für die Informationsrate 3.4 Linear Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 110 110 114 115 121 124 Einleitung Themen der Vorlesung: • Stochastik (Wahrscheinlichkeitstheorie) diskret → kontinuierlich Ereignis → messbare Ereignisse Erwartungswert: Summe → Integral Maße für die Abweichung vom Erwartungswert • Lineare Algebra Vektoren Basis Matrix lineare Gleichungssysteme • Endliche Körper und Codierungstheorie 3 Kapitel 1 Stochastik 1.1 1.1.1 Wahrscheinlichkeitsräume Wiederholung Erläuterung: Ein endlicher diskreter Wahrscheinlichkeitsraum (Ω, p) besteht aus einer endlichen Menge Ω von elementaren Ereignissen von einer Verteilungsfunktion p: p : Ω → [0, 1] für die gilt: X p(a) = 1 a∈Ω Jede Teilmenge A ⊆ Ω ist ein Ereignis. Die Verteilungsfunktion p wird erweitert zu einem Wahrscheinlichkeitsmaß, das ebenfalls mit p bezeichnet wird: X p(a) p : 2Ω → [0, 1] mit p(A) = a∈A Ω Bemerkung: Der Ausdruck 2 bezeichnet die Potenzmenge von Ω: 2Ω = P(Ω) Hinweis: Diese Definitionen sind erweiterbar auf abzählbare Mengen Ω von Elementarereignissen. Beispiel: Es sei gegeben ein Würfel mit den Ereignissraum Ω = {1, 2, . . . 6} und der gleichverteilten Verteilungsfunktion p. Das Ereignis A sei der Wurf einer geraden Zahl A = {2, 4, 6} Die Wahrscheinlichkeit für das Ereignis A beträgt: 1 1 1 1 p(A) = + + = 6 6 6 2 4 Eigenschaften: Für das Verscheinlichkeitsmaß gilt (Ā = Ω\A): p(Ā) = 1 − p(A) p(A ∪ B) = p(A) + p(B) für alle A, B ⊆ Ω mit A ∩ B = ∅. 1.1.2 Stetige Wahrscheinlichkeitsräume Verallgemeinerung: Ergebnisse (eines Experiments) sind reelle Zahlen oder (noch allgemeiner) Elemente einer überabzählbaren Menge (z.B. Punkte in einem Raum, Punkte in einer Kreisscheibe). Probleme: Aus der bisherigen Definition eines diskreten Wahrscheinlichkeitsraumes ergeben sich folgende Probleme: • Der Ausdruck X p(a) a∈Ω ist nicht sinnvoll, wenn Ω überabzählbar ist. • Die Potenzmenge der Ereignisse 2Ω = P(Ω) führt als Ereignismenge zu weiteren Schwierigkeiten. Modell: • Nicht alle A ⊆ Ω sind Ereignisse (messbar). • Die Menge F der Ereignisse ist eine Teilmenge von 2Ω mit den folgenden Eigenschaften: A ∈ F ⇒ Ā ∈ F ∞ [ A1 , A2 , . . . ∈ F ⇒ Ai ∈ F i=1 Anmekung: Eine Mengenfamilie F mit den beiden Eigenschaften nennt man eine σ-Algebra. Ist eine Mengefamilie nur abgeschlossen bezüglich Komplement und endlichen Vereinigungen, so nennt man sie eine Algebra. 5 Definition: Ein Wahrscheinlichkeitsraum ist ein Trippel (Ω, F, p), wobei • F ⊆ 2Ω ist eine σ-Algebra über Ω • p : F → [0, 1] ist ein Wahrscheinlichkeitsmaß mit – p(Ā) = 1 − p(A) für alle A ∈ F – für jede Folge A1 , A2 , . . . von paarweise disjunkten Ereignissen Ai ∈ F gilt ! ∞ ∞ [ X p Ai = p(Ai ) i=1 i=1 Eigenschaften und Folgerungen: • F ist abgeschlossen gegen endliche und abzählbare Durchschnitte: A, B ∈ F ⇒ A ∩ B = Ā ∪ B̄ ∈ F ∞ ∞ \ [ A1 , A2 , . . . ∈ F ⇒ Ai = Āi ∈ F i=1 i=1 • F ist abgeschlossen gegen Mengendifferenzen: A\B = A ∩ B̄ • p ist monoton: A ⊆ B ⇒ p(A) ≤ p(B) Denn aus A ⊆ B folgt: B = A ∪ (B\A) Die Vereinigung A ∪ (B\A) ist disjunkt. Daraus folgt: p(A) ≤ p(A) + p(B\A) = p(B) Satz: Ist A1 ⊆ A2 ⊆ . . . eine aufsteigende Folge von Ereignissen und ist A die Vereinigung dieser Ereignisse ∞ [ A= Ai i=1 dann gilt die für die Wahrscheinlichkeit von A p(A) = lim p(An ) n→∞ 6 Beweis: • Die Folge p(A1 ), p(A2 ), . . . ist monoton wachsend und beschränkt. Damit ist sie auch konvergent. • Aus A1 ⊆ A2 ⊆ . . . folgt A = A1 ∪ (A2 \A1 ) ∪ (A3 \A2 ) ∪ . . . | {z } | {z } B2 B3 Die Vereinigung ist disjunkt. Damit ergibt sich für die Wahrscheinlichkeit von A: ∞ X p(A) = p(A1 ) + p(Bi ) i=2 = p(A1 ) + lim n→∞ = n X p(Bi ) i=2 lim (p(A1 ) + (p(A2 ) − p(A1 )) + (p(A3 ) − p(A2 )) + . . . n→∞ +(p(An ) − p(An−1 ))) = lim p(An ) n→∞ Hinweis: Analog gilt für B1 ⊇ B2 ⊇ . . . mit B als Schnitt über diese Ereignisse B= ∞ \ Bi i=1 die Wahrscheinlichkeit von B: p(B) = lim p(Bn ) n→∞ Beispiel: Betrachtet werden zufällige reelle Zahlen aus dem Intervall [0, 1] mit Gleichverteilung: • Jedes Intervall (a, b] ist Ereignis. Die Wahrscheinlichkeit für dieses Ereignis beträgt p((a, b]) = b − a • Aus der σ-Algebra-Eigenschaft folgt, dass dann auch offene und abgeschlossenen Intervalle in F sein müssen. – abgeschlossene Intervalle: [a, b] = ∞ \ i=1 7 a i a − ,b i – offene Intervalle: (a, b) = (a, 1]\[b, 1] – auch jede reelle Zahl aus dem Intervall [0, 1]: ∀x ∈ [0, 1] {x} ∈ F Die Ereignismenge F besteht somit aus allen abzählbaren disjunkten Vereinigungen von Intervallen (offen, abgeschlossen, halboffen oder Punkt): ∞ [ hai , bi i ∈ F i=1 wobei bi ≥ ai und h∈ {[, (} und i ∈ {), ]} und bi ≤ ai+1 . Für die Wahrscheinlichkeit eines solchen Ereignisses gilt somit: ! ∞ ∞ [ X p hai , bi i = (bi − ai ) i=1 i=1 Beispiel: Ananlog kann die Gleichverteilung für zufällige Punkte aus dem Einheitsquadrat [0, 1] × [0, 1] definiert werden. p((a, b] × (c, d]) = (b − a)(d − c) 8 Achtung: Der Begriff Gleichverteilung ist nicht bei jeder Objektklasse so leicht zu beschreiben. Zur Veranschaulichung werden zufällige Geraden betrachtet, die den Einheitskreis S schneiden, und die Länge l der Sehne gemessen. Das Ereignis A besteht aus allen Geraden, die S schneiden, für die gilt, dass l ≥ 1. • 1. Ansatz: Schnittpunkte von Geraden von S sind gleichverteilt auf S. Betrachten nur Geraden durch festen Punkt P ∈ S. Geraden durch P sind gleichverteilt bezüglich des Winkels α zur Tangente (0 ≤ α ≤ π). l≥1 ⇔ p(A) = π 5π ≤α≤ 6 6 5π π −6 2 6 = ≈ 0,67 π 3 9 • 2. Ansatz: Alle Richtungen sind gleichverteilts, deshalb betrahten wir nur Geraden einer bestimmten Richtung, o.B.d.A. nur horizonrale Geraden. Geraden sind gleichverteilt bezüglich −1 ≤ h ≤ 1. √ 2 1 3 2 h + =1 ⇒ h= 2 2 √ √ 3 2· 2 3 = ≈ 0,87 p(A) = 2 2 • 3. Ansatz: Jede Gerade ist durch den Mittelpunkt q auf ihrer Sehne bestimmt (außer Durchmesser: sind vernachlässigbar). Annahme: Punkte q sind gleichverteilt auf Kreisscheibe. √ 3 l ≥ 1 ⇔ Abstand von q zu (0, 0) ≤ 2√ Fläche von Kreis mit Radius 23 π · 34 3 p(A) = = = Fläche von Einheitskreis π·1 4 10 1.1.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit Definition: Sei (Ω, F, p) ein Wahrscheinlichkeitsraum, die Ereignisse A, B ∈ F und p(B) > 0, so ist die bedingte Wahrscheinlichkeit von Ereignis A unter B gegeben durch p(A ∩ B) p(A | B) = p(B) Beispiel: Sei Ω = [0, 1] × [0, 1] eine Menge der Ereignisse mit Gleichverteilung: • A = {(x, y) | x ≥ 13 } • B = {(x, y) | y ≥ 13 } • C = {(x, y) | x ≤ 32 } 2 3 4 p(A ∩ B) = 9 1 p(A ∩ C) = 3 p(A) = p(B) = p(C) = p(A | B) = p(A | C) = 11 4 9 2 3 1 3 2 3 = 2 = p(A) 3 = 1 6= p(A) 2 Definition: Zwei Ereignisse A und B sind unabhängig, wenn p(A ∩ B) = p(A) · p(B) Folgerung: Wenn A und B unabhängig und p(B) > 0, dann p(A | B) = p(A) Definition: Eine Familie {Ai | i ∈ I} von Ereignissen ist unabhängig, wenn für jede endliche Teilmenge J ⊆ I ! \ Y p Ai = p(Ai ) i∈J i∈J Achtung: Es gibt Familien von paarweise unabhängigen Ereignissen, die nicht unabhängig sind. Beispiel: Sei Ω = {a, b, c, d} eine Menge der Elementarereignisse mit den Wahrscheinlichkeiten p(a) = p(b) = p(c) = p(d) = 14 . Es seien gegeben die folgenden Ereignisse: • A = {a, d} • B = {b, d} • C = {c, d} 1 2 1 p(A ∩ B) = = p(A) · p(B) 4 1 p(A ∩ C) = = p(A) · p(C) 4 1 p(B ∩ C) = = p(B) · p(C) 4 p(A) = p(B) = p(C) = Das heißt, dass die Ereignisse paarweise unabhängig sind. Dennoch ist die Familie mit den Ereignissen {A, B, C} nicht unabhängig: p(A ∩ B ∩ C) = 1 1 6= = p(A) · p(B) · p(C) 4 8 12 Satz (Partitionstheorem): Sei {B1 , B2 , . . .} eine Partition von Ω, wobei für alle Bi gilt, dass p(Bi ) > 0. Dann ist X p(A) = p(A | Bi ) · p(Bi ) für alle A ∈ F i Beweis: p(A) = p(A ∩ Ω) !! = p A∩ [ Bi i ! [ = p (A ∩ Bi ) (disjkunte Vereinigung) i = X p(A ∩ Bi ) i = X p(A ∩ Bi ) p(Bi ) i = X · p(Bi ) p(A | Bi ) · p(Bi ) i Beispiel: Morgen früh regnet es (R) oder schneit (S) oder es gibt keinen Niederschlag (K). • Bei Regen ist die Wahrscheinlichkeit für eine Busverspätung 31 . • Bei Schnee ist die Wahrscheinlichkeit für eine Busverspätung 32 . • Bei Regen ist die Wahrscheinlichkeit für eine Busverspätung 61 . Die Wettervorhersage: • p(R) = 1 5 • p(S) = p(K) = 2 5 p(Busverspätung) = 1 1 2 2 1 2 2+8+2 12 2 · + · + · = = = 3 5 3 5 6 5 30 30 5 13 1.2 Zufallsvariablen 1.2.1 Diskrete Zufallsvariablen Definition: Sei (Ω, F, p) ein Wahrscheinlichkeitsraum. Eine Funktion X:Ω→R ist eine diskrete Zufallsvariable, falls • das Bild der Zufallsvariable Im X = {x ∈ R | ∃ ω ∈ Ω x = X(ω)} abzählbar ist und • für alle x ∈ R: X −1 (x) = {ω | X(ω) = x} ∈ F Konsequenz: Für alle T ⊆ R ist X −1 (T ) ∈ F denn [ X −1 (T ) = X −1 (x) x∈(T ∩ Im X) Definition: Sei X eine diskrete Zufallsvariable auf (Ω, F, p). Die Gewichtsfunktion pX : R → [0, 1] von X sei wie folgt definiert: pX (x) = p(X −1 (x)) Oft verwendet man für pX (x) auch die intuitivere Schreibweise p(X = x). Konsequenz: X x∈Im X X pX (x) = p({ω | X(ω) = x}) x∈Im X ! = p [ {ω | X(ω) = x} x∈Im X = p(Ω) = 1 Die Funktion pX charakterisiert die Zufallsvariable X sehr genau, in dem Sinne, dass man für jede solche Beschreibung eine Realisierung durch einen Wahrscheinlichkeitsraum und eine Zufallsvariable finden kann. 14 Sei S ⊆ R abzählbar und für jedes s ∈ S sei eine Zahl πs ∈ [ 0, 1 ] gegeben mit X πs = 1 s∈S Konstruktion: • Ω=S • F = P(S) P • p(A) = πs für jedes A ⊆ S s∈A • X:Ω→R • X(s) = s Beispiele: p ohne Zusatz ist eine Zahl aus [ 0, 1 ], q = 1 − p 1. Bernoulli-Verteilung: Eine Zufallsvariable X mit Bernoulli-Verteilung: • Im X = {0, 1} • pX (0) = q und pX (1) = p Probe: pX (0) + pX (1) = p + q = p + (1 − q) = 1 z.B. Münzwurf mit unfairer“ Münze: ” • Wahrscheinlichkeit für Kopf K: p • Wahrscheinlichkeit für Zahl Z: q = 1 − p Die Zufallsvariable wird folgendermaßen definiert: X : {K, Z} → {0, 1} X(K) = 1 X(Z) = 0 2. Binominialverteilung Eine Zufallsvariable X mit Binominialverteilung mit den Parametern n und p: • Im X = {0, 1, . . . , n} und • pX (k) = nk pk q n−k für alle k ∈ {0, 1, . . . , n} 15 Probe: n P pX (k) = n P n k k=0 k=0 pk q n−k = (p + q)n = 1n = 1 Binominialverteilung tritt auf z.B. bei n-facher Wiederholung eines BernoulliExperiments (unabhängig). • Ω = {K, Z}n • ω = (a1 , a2 , . . . , an ) mit ai = {K, Z} • p(ω) = pk(ω) · q z(ω) • X(ω) := k(ω) mit k(ω) = Anzahl der Köpfe in ω und z(ω) = Anzahl der Zahlen in ω Wahrscheinlichkeit, dass bei n Münzwürfen genau k-mal Kopf fällt: pX (k) = p({ω | X(ω) = k}) = p({ω | k(ω) = k}) X = p(ω) ω mit k(w)=k X = pk q n−k ω mit k(w)=k = n k pk q n−k 3. Geometrische Verteilung: Wiederholung eines Wurfes einer (p, q)-Münze so lange, bis zum erstem mal K auftritt: • Ω = {K, ZK, ZZK, ZZZK, ZZZZK, . . .} • p((K)) = p, p((ZK) = qp, p((Zl K)) = q l p • X(ω) = |ω| (Anzahl der Würfe) • Im(X) = {1, 2, 3, . . .} • pX (k) = p({ω | |ω| = k}) = p(Zk−1 K) = q k−1 · p 4. Poisson-Verteilung: Eine Zufallsvariable X mit Poisson-Verteilung mit Parameter λ: • Im(X) = N • pX (k) = 1 k! (inkl. der Null) λk e−λ 16 ∞ P Probe: pX (k) = ∞ P k=0 k=0 1 k! λk e−λ = e−λ · P∞ 1 k=0 k! λk = e−λ · eλ = 1 Die Poisson-Verteilung tritt auf als Grenzwert von Binominialverteilung mit n groß, p klein, λ = n · p und k n. n k 1.2.2 k · p · (1 − p) n−k n λ k = (1 − p)n−k k n n −k k k n λ λ λ ≈ · · 1− · 1− k! nk n n λk −λ ·e ≈ k! Stetige Zufallsvariablen Definition: Eine Zufallsvariable auf (Ω, F, p) ist eine Abbildung X : Ω → R, so dass für alle x ∈ R gilt: {ω ∈ Ω | X(ω) ≤ x} ∈ F Definition: Die Funktion FX (x) = p({ω ∈ Ω | X(ω) ≤ x}) nennt man die Verteilungsfunktion von X. Lemma: Für jede Verteilungsfunktion F = FX einer Variablen X : Ω → R gilt: a) x ≤ y ⇒ F (x) ≤ F (y) b) lim F (x) = 0 und lim F (x) = 1 x→−∞ x→∞ c) ∀ x ∈ R lim F (x + h) = F (x) h→0+ Beweis: Sei Ax = {ω ∈ Ω | X(ω) ≤ x} ∈ F und F (x) = p(Ax ) a) x ≤ y ⇒ Ax ⊆ Ay ⇒ p(Ax ) ≤ p(Ay ) | {z } | {z } F (x) b) ∅ = Ω= ∞ T A−x x=1 ∞ S Ax x=1 F (y) ⇒ 0 = p(∅) = lim p(A−x ) = lim F (x) x→∞ x→−∞ ⇒ 1 = p(Ω) = lim p(An ) = lim F (x) x→∞ 17 x→∞ Achtung: Die Funktion FX ist nicht zwingend stetig, z.B. bei geometrischer Verteilung: FX 1 0,75 0,5 0,25 1 2 3 4 5 6 7 8 9 k Definition: Eine Zufallsvariable X : Ω → R ist stetig, wenn eine Funktion f : R → R+ existiert, so dass Z x f (n) dn FX (x) = ∞ f wird Dichte der Verteilung genannt. Beispiel: Gleichverteilung im Intervall [ 1, 3 ]. Ist 1 ≤ y ≤ x ≤ 3, so ist p({ω | ω ∈ [ y, x ]}) = x−y 3−1 X hat die Verteilung FX (x) = p({ω | X(ω) ≤ x}) = 18 x−1 x−1 = 3−1 2 Suche f , so dass Z ∞ f (n) dn FX (x) = −∞ FX 1 0,75 f 0,5 0,25 0 1 2 3 Gesuchte Funktion lautet: f (x) = 1 2 falls 0 sonst x ∈ [ 1, 3 ] Vergleich: • diskret – Gewichtsfunktion pX – Addition der Einzelwahrscheinlichkeiten • stetig – Dichtefunktion f – Integrieren über der Dichtefunktion 19 x 1.3 1.3.1 Erwartungswert Bestimmung des Erwartungswertes Definition: Ist X : Ω → R eine diskrete Zufallsvariable, so ist der der Erwartungswert von X definiert durch X X E(X) = x · pX (x) = x · p({ω | X(ω) = x}) x∈ImX x∈ImX falls diese Reihe absolut konvergiert. Definition: Ist X : Ω → R eine stetige Zufallsvariable mit der Dichtefunktion f , so ist Z ∞ E(X) = x · f (x)dx ∞ falls beide uneigentlichen Integrale existieren. Lemma (Linearität der Erwartungswerte): Sind X und Y Zufallsvariablen über (Ω, F, p) mit den Erwartungswerten E(X) und E(Y ), dann gilt: • E(X + Y ) = E(X) + E(Y ) mit (X + Y )(ω) = X(ω) + Y (ω) • E(α · X) = α · E(X) mit (α · X)(ω) = α · X(ω) und α ∈ R Beispiele: 1. Zufallsvariable X mit Bernoulli-Verteilung mit Parameter p: • ImX = {0, 1} • pX (1) = p und pX (0) = 1 − p • E(X) = 1 · p + 0 · (1 − p) = p 2. Zufallsvariable X mit Binominialverteilung mit den Parametern n und p: 1 falls i-ter Wurf K ist • X = X1 + X2 + X3 + . . . Xn mit Xi = 0 falls i-ter Wurf Z ist • E(Xi ) = p • E(X) = E(X1 ) + E(X2 ) + E(X3 ) + . . . + E(Xn ) = n · p 20 3. Zufallsvariable X mit geometrischer Verteilung mit Parameter p: • ImX = N+ • pX (k) = (1 − p)k−1 · p = q k−1 · p Bestimmung des Erwartungswertes: E(X) = ∞ X k · (1 − p)k−1 · p k=1 ∞ X = p· k=1 ∞ X = p· q k−1 + ∞ X qk + q · q k−1 + k=2 ∞ X ! q k−1 + . . . k=3 ∞ X k 2 qk + q · k=0 k=0 ∞ X q + ... k=0 q q2 1 + + + ... p· 1−q 1−q 1−q p · 1 + q + q2 + . . . 1−q 1 1· 1−q 1 p = = = = 4. Zufallsvariable X mit Poisson-Verteilung mit Paramter λ: • ImX = N • pX (k) = 1 k! · λk · e−λ Bestimmung des Erwartungswertes: E(X) = ∞ X k· 1 · λk · e−λ k! k· 1 · λk · e−λ (k − 1)! k=0 = ∞ X k=1 = λ· ∞ X k· k=1 = λ 21 1 · λk−1 · e−λ (k − 1)! ! 5. stetige Zufallsvariable X mit Gleichverteilung über einem Intervall [ a, b ]: Z ∞ x · f (x)dx E(X) = ∞ Z b 1 = x· dx b−a a Z b 1 = x dx · b−a a b 1 1 2 = · x b−a 2 a 1 1 2 1 2 = · b − a b−a 2 2 2 2 b −a = 2(b − a) (b + a)(b − a) = 2(b − a) a+b = 2 1.3.2 Abweichungen vom Erwartungswert Satz (Markow-Ungleichung): Sei X : Ω → R≥0 eine Zufallsvariable mit dem Erwartungswert E(X) unt t > 0, dann gilt: p(X ≥ t) ≤ E(X) t Beweis für diskrete Variablen: X x · p(X = x) E(X) = x∈ImX = X x · p(X = x) + x∈ImX x<t ≥ X x∈ImX x≥t x · p(X = x) x∈ImX x≥t ≥ t· X X p(X = x) x∈ImX x≥t = t · p(X ≥ t) E(X) ≥ p(X ≥ t) t 22 x · p(X = x) Satz: Sei X : Ω → R eine diskrete Zufallsvariable und g : R → R eine beliebige Funktion, dann ist Y = gX : Ω → Ω eine Zufallsvariable mit Y (ω) = g(X(ω)) und X E(Y ) = g(x) · pX (x) x∈ImX falls diese Reihe absolut konvergiert. Beispiel: Sei X eine Zufallsvariable mit geometrischer Verteilung mit dem Parametern p und g(x) = x2 eine Funktion (q = 1 − p): E(gX) = E(X 2 ) = ∞ X k 2 · q k−1 · p k=1 = ∞ X 2 1 ·q k−1 ·p+ k=1 = 1 + (1 + 2) · q · ∞ X k=2 ∞ X 2 2 (2 − 1 ) ·q | {z } k−1 ·p+ (2+1)(2−1) p · q k−1 +(1 + 4) · q 2 · |k=1 {z 1 ∞ X k=1 ∞ X (32 − 22 ) ·q k−1 · p + . . . | {z } (3+2)(3−2) p · q k−1 +(1 + 6) · q 3 · . . . |k=1 {z } 1 } = 1 + q + q2 + q3 + . . . + 2 · q + 4 · q2 + 6 · q3 + . . . ∞ 2q X 1 + 2 · k · qk · p = 1 − q p k=0 = 1 2q + p p2 = p + 2 − 2p p2 = 2−p p2 Definition: Die Erwartungswerte E(X i ) werden i-tes Moment von X genannt. 23 Definition: Die Varianz einer Zufallsvariable X mit E(X) = µ ist Var (X) = = = = = = E((X − µ)2 ) E((X − E(X))2 ) E X 2 − 2 · X · E(X) + (E(X))2 E(X 2 ) − 2 · E(X) · E(X) + (E(X))2 E(X 2 ) − 2 · (E(X))2 + (E(X))2 E(X 2 ) − (E(X))2 | {z } | {z } 2. Moment Die Größe σ = (1. Moment)2 p Var (X) wird Standardabweichung von X genannt. Beispiele: 1. Zufallsvariable X mit Bernoulli-Verteilung mit Parameter p: Var (X) = E(X 2 ) − (E(X))2 = (12 · p + 02 · (1 − p)) − (1 · p + 0 · (1 − p))2 = p − p2 2. Zufallsvariable X mit Binominialverteilung mit den Parametern n und p: An der Stelle kann genutzt werden, dass für unabhängige Zufallsvariablen gilt: • Var (X + Y ) = Var (X) + Var (Y ) • p(X = x ∧ Y = y) = p(X = x) · p(Y = y) Eine Zufallsvariable X mit Binominialverteilung ist eine Summe aus unabhängigen Bernoulli-Variablen: X = X 1 + X2 + . . . + X n Damit ergibt sich für die Varianz: Var (X) = n · (p − p2 ) 3. Zufallsvariable X mit geometrischer Verteilung mit Parameter p: Var (X) = E(X 2 ) − (E(X))2 2 2−p 1 = − p2 p 1−p = p2 1 1 = 2− p p 24 Satz (Tschebyscheff-Ungleichung): Sei X eine Zufallsvariable mit dem Erwartungswert E(X) = µ und der Varianz Var (X) = σ 2 , dann gilt für alle c > 0: p(|X − µ| ≥ c) ≤ σ2 c2 Spezialfall für E(X) = µ = 0: E(X 2 ) p(|X| ≥ c) ≤ c2 Beispiel: Zufallsvariable X mit Binominialverteilung mit den Parametern n und p = 21 : 1 n = 2 2 2 ! 1 1 n Var (X) = n · − = = σ2 2 2 4 n Wähle: c = 4 n 4 n n 4 ≤ p X − ≥ 2 = n 2 4 n E(X) = n · 4 lim n→∞ 4 = 0 n Das heißt, dass die Wahrscheinlichkeit dafür, dass bei n Würfen weniger als oder mehr als 43 der Ergebnisse Köpfe sind, geht für große n gegen 0. Dagegen die Abschätzung mit der Markow-Ungleichung: n 3 2 ≤ 32 = p X ≥ ·n 4 3 ·n 4 25 1 4 Gaus’sche Normalverteilung: N (µ, σ 2 ) mit Dichtefunktion f f (x) = √ 1 1 2πσ 2 2 · e− 2σ2 ·(x−µ) Hinweis: Der Abstand von µ zum Wendepunkt von f (x) beträgt σ. 26 Kapitel 2 Lineare Algebra 2.1 2.1.1 Vektoren – der intuitive Ansatz Koordinatenfreie Einführung −→ Definition: Ein Vektor wird durch geordnetes Punktepaar AB repräsentiert (veranschaulicht durch die gerichtete Strecke von A nach B), wobei zwei Vektoren −−→ −→ AB und A0 B 0 gleich sind, wenn es eine Translation (Parallelverschiebung) gibt, die A in A0 und B in B 0 überführt. Zur Betonung des Aspekts, dass der Anfangspunkt beliebig sein kann, wird der Begriff des freien Vektors verwendet. Legt man einen Bezugspunkt O im Raum fest und betrachtet für einen beliebigen −→ Punkt P den Vektor OP , so wird dieser der Ortsvektor von P genannt. 27 Addition von Vektoren: Vertoren werden durch Aneinanderkettung addiert. Kommutativität kann man durch Parallelogrammeigenschaften sehen. −→ −→ Nullvektor: Der Vektor OO = AA wird Nullvektor genannt und kurz mit ~0 bezeichnet. Der Nullvektor ist das neutrale Element der Addition: ~v + ~0 = ~v −→ −→ Inverser Vektor: Der Vektor BA wird als zu AB invers bezeichnet: −→ −→ −→ ~ AB + BA = AA = 0 −→ Betrag: Der Betrag (Länge, −→ Norm) des Vektors AB ist der Abstand zwischen A und B und wird mit AB bezeichnet. Multiplikation mit Skalaren: Liegen drei Punkte A, B und C in dieser Reihefolge auf einer Geraden und ist −→ −→ AB = λ · AC so sagt man −→ −→ AB = λ · AC Auf diese Weise wird Multiplikation von reellen Zahlen (Skalaren) mit Vektoren eingeführt. 28 2.1.2 Koordinatensystem Betrachtet man zusätzlich ein Koordinatensystem im Raum mit dem Ursprung O = (0, 0, 0), so kann jedem Punkt P = (p1 , p2 , p3 ) der Ortsvektor p −→ 1 OP = p2 p3 zugeordnet werden. Kosequenz: Aus P = (p1 , p2 , p3 ) und Q = (q1 , q2 , q3 ) folgt: q1 − p 1 −→ P Q = q2 − p 2 q3 − p 3 Addition: x1 y1 x 1 + y1 x2 + y2 = x2 + y2 x3 y3 x 3 + y3 Multiplikation mit Skalaren: x1 λ · x1 λ · x2 = λ · x2 x3 λ · x3 29 Betrag: x p ~v = y ⇒ k~v k = x2 + y 2 + z 2 z Fazit: Man kann Vektoren im Raum genauso darstellen wie Punkte, aber im Gegensatz zu Punkten können Vektoren addiert und mit Skalaren multipliziert werden. 2.1.3 Zusammenhang zwischen Vektoren und linearen Gleichungssystemen (LGS) Beispiel: Die folgenden Probleme sind äquivalent: • Hat dieses lineare Gleichungssystem eine Lösung? 5α + 3β = −1 4α + β = 2 3α − β = 5 • Gibt es entsprechende α und β? 5 3 −1 α 4 + β 1 = 2 3 −1 5 • Liegt der Punkt (−1, 2, 5) in der Ebene, die von den Punkten (0, 0, 0), (5, 4, 3) und (3, 1, −1) aufgespannt wird? 30 2.2 Vektorräume 2.2.1 Vektorräume Definition: Eine Menge K mit zwei Operationen ⊕ und und zwei Elementen 0 und 1 (wobei 0 6= 1) ist ein Körper , falls • (K, ⊕) ist kommutative Gruppe mit neutralem Element 0 (k ist inverses Element zu k bezüglich ⊕) • (K\{0}, ) ist kommutative Gruppe mit neutralem Element 1 (k −1 = 1 k ist inverses Element zu k bezüglich ) • ∀ k, l, m ∈ K k (l ⊕ m) = (k l) ⊕ (k m) (Distributivität) Beispiele: Q, R, C (nicht Z) Definition: Eine Menge V mit den Operationen • ⊕:V ×V →V • : K ×V →V und dem Element ~0 wird Vektorraum (VR) über dem Körper K genannt, falls • (V, ⊕) ist kommutative Gruppe mit neutralem Element ~0 (~v ist inverses Element zu ~v bezüglich ⊕) • ∀ λ, µ ∈ K ∀ ~v ∈ V λ (µ ~v ) = (λ · µ) ~v (Assoziativität der Multiplikationen) • ∀ ~v ∈ V 1 ~v = ~v (neutrales Element bezüglich der Multiplikation) • ∀ λ, µ ∈ K ∀ ~v ∈ V (λ + µ) ~v = (λ ~v ) ⊕ (µ ~v ) (Distributivität 1) • ∀ λ ∈ K ∀ ~v , w ~ ∈ V λ (~v ⊕ w) ~ = (λ ~v ) ⊕ (λ w) ~ (Distributivität 2) 31 Beispiele: 1. Der reelle Vektorraum Rn über dem Körper R: V = Rn = {(x1 , . . . xn ) | xi ∈ R} Addition: x1 y1 x1 + y 1 .. .. .. . + . = . xn yn xn + y n Multiplikation: x1 λx1 λ ... = ... xn Nullvektor: λxn 0 ~0 = ... 0 Inverser Vektor: x1 −x1 − ... = ... xn −xn 2. Der Vektorraum der stetigen Funktionen über dem Körper R: V = {f | f : [ 0, 1 ] → R, stetig} Addition: (f + g)(x) = f (x) + g(x) Multiplikation: (λf )(x) = λ(f (x)) 3. Der Vektorraum R über dem Körper Q V = R und K = Q Addition: Multiplikation: −−−−→ ~r, ~s ∈ R ~r + ~s = (r + s) −−−→ λ ∈ Q ~r ∈ R λ · ~r = (λ · r) 32 2.2.2 Unterräume Definition: Eine Teilmenge U 6= ∅ eines Vektorraums V über K ist Unterraum (Untervektorraum, UR) von V , falls • ∀ ~v , w ~ ∈ U ~v + w ~ ∈U • ∀ ~v ∈ U ∀ λ ∈ K λ~v ∈ U Beispiele: 1. V = Rn = {(x1 , . . . xn ) | xi ∈ R} → U = {(x1 , x2 , 0, . . . 0) | x1 , x2 ∈ R} → speziell für R3 : jede Ebene und jede Gerade durch (0, 0, 0) 2. V = {f | f : [0, 1] → R, stetig} → U = {f | f : [0, 1] → R, f ist konstant} → U 0 = {f | f : [0, 1] → R, f ist linear, d.h. f (x) = ax + b} 3. V = R über dem Körper Q √ → U = {q1 + q2 2 | q1 , q2 ∈ Q} Satz: Sei V ein Vektorraum Tüber einem Körper K und {Ui | i ∈ I} eine Familie von Unterräumen, dann ist Ui auch ein Unterraum von V . i∈I Beweis: Sei ~u, ~v ∈ T Ui und λ ∈ K, dann gilt i∈I • ~u und ~v sind Elemente von allen Ui • ~u + ~v und λ~u sind Elemente von allen Ui T T Daraus folgt, dass ~u + ~v ∈ Ui und λ~u ∈ Ui . i∈I i∈I 33 Beispiel: Durchschnitt von xy-Ebene und der yz-Ebene in R3 ist die y-Achse. Folgerung: • Der Nullvektor ~0 gehört zu jeden Unterraum: ∀ U UR V gilt ~0 ∈ U • Zu jeden Vektor ~v aus dem Unterraum gehört auch der inverse Vektor −~v zum Unterraum: ∀ U UR V ∀ ~v ∈ U gilt − ~v ∈ U 2.2.3 Linearkombinationen und lineare Hülle Definition: Sind ~v1 , ~v2 , . . . ~vk ∈ V und λ1 , λ2 , . . . λk ∈ K, so nennt man den Vektor λ1~v1 + λ2~v2 + . . . + λk~vk eine Linearkombination (LK) aus ~v1 , ~v2 , . . . ~vk . Lemma: Die Menge aller Linearkombinationen {λ1~v1 + λ2~v2 + . . . + λk~vk | λi ∈ K} der Vektoren ~v1 , ~v2 , . . . ~vk bildet einen Unterraum. 34 Beweis: Seien ~v , w ~ ∈ U und α ∈ K mit • ~v = λ1~u1 + λ2~u2 + . . . + λk ~uk • w ~ = µ1~u1 + µ2~u2 + . . . + µk ~uk dann gilt: ~v + w ~ = (λ1~u1 + λ2~u2 + . . . + λk ~uk ) + (µ1~u1 + µ2~u2 + . . . + µk ~uk ) = (λ1 + µ1 )u~1 + (λ2 + µ2 )u~2 + . . . + (λk + µk )~uk ∈ U α~v = α(λ1~u1 + λ2~u2 + . . . + λk ~uk ) = (αλ1 )~u1 + (αλ2 )~u2 + . . . + (αλk )~uk ∈ U Definition: Sei M ⊆ V eine Menge von Vektoren, dann ist die lineare Hülle (Lin) von M der kleinste (bezüglich Inklusion) Unterraum von V , der M enthält, d.h. \ Lin(M ) = U U UR V M ⊆U Satz: Die lineare Hülle einer Menge M ⊆ V ist die Menge aller Linearkombinationen der Vektoren ~vi ∈ M : Lin(M ) = {λ1~v1 + . . . λk~vk | λi ∈ K, ~vi ∈ M } Beweis: Zum Einen bildet die Menge aller Linearkombinationen der Vektoren ~vi ∈ M (rechte Seite) einen Unterraum (siehe Lemma). Zum Anderen enthält jeder Unterraum U , der M enthält, auch die Menge aller Linearkombinationen der Vektoren ~vi ∈ M (Abgeschlossenheit von Unterräumen bezüglich der Addition und der Multiplikation mit Skalaren). Daraus folgt, dass die Menge aller Linearkombinationen der Vektoren ~vi ∈ M der kleinste Unterraum ist, der M enthält. 35 2.3 Lineare Unabhängigkeit, Basis und Dimension 2.3.1 Lineare Unabhängigkeit Definition: Eine Menge {~v1 , ~v2 , . . . ~vk } von k Vektoren heißt linear abhängig (l.a.), wenn eine Linearkombination existiert, mit λ1~v1 + λ2~v2 + . . . + λk~vk = ~0 wobei mindestens ein λi 6= 0 ist. Definition: Eine Menge {~v1 , ~v2 , . . . ~vk } von k Vektoren heißt linear unabhängig (l.u.), wenn sie nicht linear abhängig ist. Satz: Eine Menge M ⊆ V ist linear unabhängig, wenn jede endliche Teilmenge von M linear unabhängig ist. Folgerungen: 1. Es kann bei Aufzählungen von Vektoren zu Mehrfachnennungen kommen (im Gegensatz zu Mengen). In diesem Fall folgt lineare Abhängigkeit. Beispiel: Sei ~v1 , ~v2 , . . . eine Aufzählung und ~v5 = ~v7 , dann ist die Aufzählung linear abhängig, weil ~0 = 1 · ~v5 + (−1) · ~v7 2. Aus ~0 ∈ M folgt lineare Abhängigkeit, denn ~0 = λ · ~0 (auch wenn λ 6= 0) 3. Sei M linear unabhängig und λ1 , λ2 , . . . λk ∈ K, dann folgt aus ∀ ~v1 , ~v2 , . . . ~vk ∈ M (i 6= j → ~vi 6= ~vj ) ~0 = λ1~v1 + λ2~v2 + . . . + λk~vk dass für alle λi gelten muss λi = 0 (i = 1, 2, . . . k) Das heißt: Es existiert keine nichttriviale Linearkombination von ~0. 4. Wenn M linear abhängig ist, dann existiert eine nichttriviale Linearkombination von ~0. 36 Beispiel: Die Vektoren 0 1 1 , 1 ∈ R3 1 1 sind linear unabhängig, dann ist der Nullvektor ~0 ist eine Linearkombination dieser Vektoren: 0 0 1 λ2 ~0 = 0 = λ1 1 + λ2 1 = λ1 + λ2 0 1 1 λ1 + λ2 0 = λ2 0 = λ1 + λ2 0 = λ1 + λ2 Daraus folgt, dass λ1 = λ2 = 0. Satz: Für jede Teilmenge M ⊆ V (über dem Körper K) sind die folgenden Aussagen äquivalent: • Aussage A: Die Menge M ist linear unabhängig. • Aussage B: Kein Vektor ~v ∈ M kann als Linearkombination aus den übrigen Vektoren aus M dargestellt werden. • Aussage C: Jeder Vektor ~v ∈ Lin(M ) hat eindeutige Darstellung als Linearkombination aus M . Beweis: Der Satz wird nach folgendem Schema gezeigt: ¬A ⇒ 1. Schritt ¬B ⇒ 2. Schritt ¬C ⇒ 3. Schritt ¬A Die drei Aussagen in ihrer Negation: • Aussage ¬ A: Es existiert eine nichttriviale Linearkombination von ~0. • Aussage ¬ B: Es existiert ein Vektor ~v ∈ M , der eine Linearkombination der übrigen Vektoren ist. 37 • Aussage ¬ C: Es existiert ein Vektor ~v ∈ Lin(M ) mit verschiedenen Linearkombinationen aus M . Beweisschritte: • Schritt 1: Es existiert folgende nichttriviale Linearkombination von ~0: ~0 = λ1~v1 + λ2~v2 + . . . + λk~vk mit ~v1 , ~v2 , . . . ~vk ∈ M , λ1 , λ2 , . . . λk ∈ K und ∃ λi 6= 0. Ohne Beschränkung der Allgemeinheit gelte λ1 6= 0. Damit kann die Gleichung nach ~v1 umgeformt werden: λ2 λ3 λk ~v1 = − ~v2 + − ~v3 + . . . + − ~vk λ1 λ1 λ1 Damit existiert ein Vektor ~v1 , der Linearkombination der übrigen Vektoren ist: ~v1 ∈ Lin(M \ {~v1 }) • Schritt 2: Es existiert ein Vektor ~v1 , der Linearkombination der übrigen Vektoren ist: ~v1 = λ2~v2 + λ3~v3 + . . . + λk~vk Damit existieren mindestens zwei verschiedene Linearkombinationen von v~1 : ~v1 = 1 · ~v1 + 0 · ~v2 + 0 · ~v3 + . . . + 0 · ~vk = 0 · ~v1 + λ2 · ~v2 + λ3 · ~v3 + . . . + λk · ~vk • Schritt 3: Es existiert ein Vektor ~v ∈ Lin(M ) mit verschiedenen Linearkombinationen aus M : ~v = λ1~u1 + λ2~u2 + . . . + λm~um = µ1 w ~ 1 + µ2 w ~ 2 + . . . + µn w ~n mit {~u1 , ~u2 , . . . ~um } ∪ {w ~ 1, w ~ 2, . . . w ~ n } = {~v1 , ~v2 , . . . ~vk } ⊆ M 38 Die beiden Linearkombinationen von ~v ausgedrückt als Linearkombinationen der die Vektoren aus {~v1 , ~v2 , . . . ~vk }: ~v = λ01~v1 + λ02~v2 + . . . + λ0k~vk = µ01~v1 + µ02~v2 + . . . + µ0k~vk mit λ0i = λj 0 falls ~vi = ~uj sonst und µ0i = µj 0 falls ~vi = w ~j sonst Da es sich um verschiedene Linearkombinationen handelt, existiert ein i0 mit λ0i0 6= µ0i0 . Daraus folgt: ~0 = ~v − ~v = (λ01~v1 + λ02~v2 + . . . + λ0k~vk ) − (µ01~v1 + µ02~v2 + . . . + µ0k~vk ) = (λ01 − µ01 )~v1 + . . . + (λ0i0 − µ0i0 ) ~vi0 + . . . + (λ0k − µ0k )~vk | {z } 6=0 Damit existiert eine nichttriviale Linearkombination von ~0. • Beispiel zu Schritt 3: 1 0 1 = 1· +2· 2 0 1 1 0 = 1· +1· 1 1 Die Menge aller Vektoren, aus beiden Linearkombinationen: 1 0 1 , , 0 1 1 Die beiden Linearkombinationen mit Hilfe aller Vektoen aus dieser Menge: 1 1 0 1 = 1· +2· +0· 2 0 1 1 1 0 1 = 0· +1· +1· 0 1 1 39 Nichttriviale Linearkombination von ~0: 0 1 1 = − 0 2 2 1 0 1 1 0 1 = 1· +2· +0· − 0· +1· +1· 0 1 1 0 1 1 1 0 1 = (1 − 0) · + (2 − 1) · + (0 − 1) · 0 1 1 1 0 1 = 1· +1· −1· 0 1 1 2.3.2 Erzeugendensystem und Basis Definition: Eine Teilmenge M ⊆ V heißt Erzeugendensystem von V , wenn die lineare Hülle von M der Vektorraum V ist: Lin(M ) = V Definition: Eine Teilmenge M ⊆ V heißt Basis, wenn sie Erzeugendensystem von V und linear unabhängig ist. Folgerung: Eine Teilmenge M ⊆ V ist genau dann eine Basis von V , wenn jeder Vektor ~v ∈ V eine eindeutige Darstellung als Linearkombination aus M hat. Beispiele: • kanonische Basis von Rn : 1 0 ~e1 = .. , . 0 0 1 ~e2 = .. , . 0 ... 0 0 ~en = .. . 1 Für die kanonische Basis gilt: a1 a2 .. = a1~e1 + a2~e2 + . . . + an~en . an 40 • weitere Basis von Rn : 1 0 ~e1 = .. , . 0 1 1 ~e2 = .. , . 0 ... 1 1 ~en = .. . 1 • Standardbasis für den Vektorraum R[x] der Polynome: ~e1 = 1, ~e2 = x, ~e3 = x2 , ... Folgerung: Für jede Teilmenge M ⊆ V sind die folgenden Bedingungen äquivalent: • Aussage A: Die Menge M ist Basis von V . • Aussage B: Die Menge M ist minimales Erzeugendensystem von V . • Aussage C: Die Menge M ist eine maximale linear unabhängige Menge. Bemerkung: Die Begriffe minimal“ und maximal“ gelten in Bezug auf Inklusion. ” ” Lemma: Ist die Teilmenge M ⊆ V linear unabhängig und der Vektor ~v Element von V , aber nicht Element aus der linearen Hüllen von M , dann ist die Menge M ∪ {~v } ebenfalls linear unabhängig: M ⊆ V l.u. ∧ ~v ∈ V ∧ ~v ∈ / Lin(M ) ⇒ M ∪ {~v } l.u. Beweis (indirekt): Angenommen die Teilmenge M ⊆ V ist linear unabhängig und der Vektor ~v Element von V , aber nicht Element aus der linearen Hüllen von M , und die Menge M ∪ {~v } ist linear abhängig. Damit existiert eine nichttriviale Linearkombination von ~0 (mit ∃ λi 6= 0 ∨ λ 6= 0): ~0 = λ1~v1 + λ2~v2 + . . . + λk~vk + λ~v Wenn λ 6= 0, dann lässt sich die Gleichung nach ~v umformen: λ1 λ2 λk ~v1 + − ~v2 + . . . + − ~vk ~v = − λ λ λ 41 Damit ist der Vektor ~v in der linearen Hüllen von M : ~v ∈ Lin(M ) Dies wäre ein Widerspruch zur Annahme. Damit ist λ = 0. Daraus folgt: ∃ λi 6= 0 ~0 = λ1~v1 + λ2~v2 + . . . + λk~vk Dies ist ein Widerspruch, da die Menge M linear unabhängig ist und damit keine nichttriviale Linearkombination von ~0 existiert. Basisergänzungssatz (Steinitz): Seien • V ein Vektorraum über dem Körper K • M eine Teilmenge von V • N eine Teilmenge von V Ist die Menge M linear unabhängig und die lineare Hülle von M ∪ N der Vektorraum V , dann kann man die Menge M durch eventuelle Hinzunahme von Vektoren aus der Menge N zu einer Basis des Vektorraumes V erweitern. Beweis: Induktion nach k = |N |: • Induktionsanfang (k = 0, das heißt N = ∅): Die Menge M ist Basis, weil M linear unabhängig ist und Lin(M ) = Lin(M ∪ ∅) = Lin(M ∪ N ) = V • Induktionsschritt (k − 1 → k): • Fall 1: Lin(M ) = V Daraus folgt, dass die Menge M Basis ist. • Fall 2: Lin(M ) 6= V Sei der Vektor ~v Element von N , aber nicht Element aus der linearen Hüllen von M . Damit ist die Menge M ∪ {~v } ebenfalls linear unabhängig. Die Menge M wird also um den Vektor ~v erweitert, und die Menge N wird um den Vektor ~v reduziert: |N \ {~v }| = k − 1 Nach Induktionsvoraussetzung existiert eine Erweiterung der Menge M zur Basis. 42 Beispiele: 1. Sei M1 die folgende linear unabhängige Menge und N1 die kanonische Basis von R3 : 0 1 1 , 1 M1 = 0 1 Man kann jeden der drei Vektoren aus N1 als Basisergänzung wählen. 2. Sei M2 die folgende linear unabhängige Menge und N2 die kanonische Basis von R3 : 1 1 0 , 1 M2 = 0 0 Der Vektor ~e1 ist bereits in M2 enthalten und damit keine Ergänzung von M2 , der Vektor ~e2 ist auch keine Basisergänzung, weil M2 ∪ {~e2 } linear abhängig wäre, doch der dritte Vektor ~e3 ergänzt die Menge M2 zu einer Basis. Austauschlemma: Sind die Mengen {~v1 , ~v2 , . . . ~vn } und {w ~ 1, w ~ 2, . . . w ~ m } Basen von V , dann gibt es für jeden Vektor ~vi einen Vektor w ~ j , so dass die Menge ({~v1 , ~v2 , . . . ~vn } \ {~vi }) ∪ {w ~j} ebenfalls Basis von V ist. 2.3.3 Dimension Definition: Besitzt ein Vektorraum V eine endliche Basis {~v1 , ~v2 , . . . ~vn }, dann ist V endlich-dimensional und n heißt die Dimension von V : dim V = n Ein Vektorraum, der keine endliche Basis besitzt, ist unendlich-dimensional : dim V = ∞ Folgerung: Ist die Menge M = {~v1 , ~v2 , . . . ~vk } Teilmenge eines Vektorraums V und ist k > dim V , so ist M linear abhängig. Satz: Jeder Vektorraum besitzt eine Basis. 43 Satz: Ist die Dimension eines Vektorraumes V endlich und U ein Unterraum von V , dann gilt: dim U ≤ dim V und dim U < dim V ⇔ U 6= V Definition: Sind U1 und U2 Unterräume von V , so heißt U1 + U2 = {~x + ~y | ~x ∈ U1 , ~y ∈ U2 } die Summe von U1 und U2 . Beispiele: 1. Sei V = R4 : U1 = Lin({~e1 , ~e2 , ~e4 }) U2 = Lin({~e1 , ~e3 , ~e4 }) U1 + U2 = R4 2. Sei V = R3 : U1 U2 U1 + U2 1 −1 = Lin 1 1 = Lin −1 −1 1 0 1 1 = Lin −1 , −1 = Lin −1 , 0 1 −1 0 1 Bemerkung: U1 + U2 ist die Ebene senkrecht zu xy-Ebene auf der Geraden y = −x durch den Ursprung (0, 0, 0). Satz: Die Summe von zwei Unterräumen ist ein Unterraum. Für zwei endlichdimensionale Unterräume U1 und U2 gilt: dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ) 44 Beweisidee: • Die Basis von U1 ∩ U2 sei: {~v1 , ~v2 , . . . ~vr } • Ergänzung der Basis von U1 ∩ U2 zur Basis von U1 : {~v1 , ~v2 , . . . ~vr , ~u1 , ~u2 , . . . ~us } • Ergänzung der Basis von U1 ∩ U2 zur Basis von U2 : {~v1 , ~v2 , . . . ~vr , w ~ 1, w ~ 2, . . . w ~ t} • Man zeigt: Die Basis von U1 + U2 ist: {~v1 , ~v2 , . . . ~vr , ~u1 , ~u2 , . . . ~us , w ~ 1, w ~ 2, . . . w ~ t} • Damit gilt für die Dimenstionen: – dim(U1 + U2 ) = r + s + t – dim U1 = r + s – dim U2 = r + t – dim(U1 ∩ U2 ) = r Daraus folgt: dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ) | {z } | {z } | {z } | {z } r+s+t r+s r+t r Beispiele: 1. Sei U1 eine Ebene durch den Ursprung (0, 0, 0) und U2 eine Gerade durch den Ursprung (0, 0, 0) mit U2 6⊂ U1 . Daraus heißt: • dim U1 = 2 • dim U2 = 1 • dim(U1 ∩ U2 ) = 0 (weil U1 ∩ U2 = ~0) Daraus folgt: • dim(U1 + U2 ) = 3 Damit ist U1 + U2 = R3 . 45 2. Seien U1 und U2 Ebenen durch den Ursprung (0, 0, 0) mit U1 6= U2 . Daraus heißt: • dim U1 = 2 • dim U2 = 2 • dim(U1 ∩ U2 ) = 1 (weil U1 ∩ U2 eine Gerade ist) Daraus folgt: • dim(U1 + U2 ) = 3 Damit ist U1 + U2 = R3 . 2.4 2.4.1 Lineare Abbildungen Einleitung Definition: Seien V und W Vektorräume über dem Körper K. Eine Abbildung f : V → W heißt linear (Vektorraumhomomorphismus), wenn für alle ~v , w ~ ∈V und für alle λ ∈ K gilt: f (~v + w) ~ = f (~v ) + f (w) ~ f (λ · ~v ) = λ · f (~v ) Hom(V, W ) bezeichnet die Menge aller linearer Abbildungen f : V → W . Beobachtungen: • Sei f ∈ Hom(V, W ), dann gilt: f (λ1~v1 + λ2~v2 + . . . + λk~vk ) = λ1 · f (~v1 ) + λ2 · f (~v2 ) + . . . + λk · f (~vk ) • Die Verknüpfung von linearen Abbildungen f : V → W und g : W → Y ist eine lineare Abbildung gf : V → Y mit gf (~v ) = g(f (~v )) • Die Menge aller linearen Abbildungen Hom(V, W ) ist selbst ein Vektorraum mit den Operationen: • (f + g)(~v ) = f (~v ) + g(~v ) • (λ · f )(~v ) = λ · f (~v ) 46 Denn für alle f, g ∈ Hom(V, W ), ~u, ~v ∈ V und λ ∈ K: (f + g)(~u) + (f + g)(~v ) = = = = f (~u) + g(~u) + f (~v ) + g(~v ) f (~u) + f (~u) + g(~v ) + g(~v ) f (~u + ~v ) + g(~u + ~v ) (f + g)(~u + ~v ) → f + g ∈ Hom(V, W ) λ · (f + g)(~u) = = = = λ · (f (~u) + g(~u)) λ · f (~u) + λ · g(~u) f (λ~u) + g(λ~u) (f + g)(λ~u) → λ · f ∈ Hom(V, W ) Beispiele: f, g, h, j : R2 → R2 a) Spiegelung an der x-Achse : x x f = y −y 47 b) Spiegelung an der Geraden y = x: x y g = y x c) Projektion auf die y-Achse: x 0 h = y y 48 d) Drehung um 45◦ : 1 j = 0 0 j = 1 √1 2 √1 2 ! − √12 ! √1 2 x 1 0 j = j x +y y 0 1 1 0 = x·j +y·j 0 1 ! ! √1 √1 − 2 = x · √12 + y · √1 2 = √1 2 √1 2 49 x− x+ 2 √1 2 √1 2 y y ! 2.4.2 Kern und Bild von linearen Abbildungen Definition: Sei f ∈ Hom(V,W ) eine lineare Abbildung, so ist ihr Kern (Ker f ) und ihr Bild (Im f ) folgendermaßen definiert: Ker f = {~v ∈ V | f (~v ) = ~0} Im f = {w ~ ∈ W | ∃ ~v f (~v ) = w} ~ Beispiele: Kerne und Bilder aus dem obigen Beispiel (siehe 2.4.1) a) Ker f = {~0}: x x 0 f = = ⇔ x=0 ∧ y=0 y −y 0 Im f = R2 : • f ist eine Abbildung von R2 nach R2 , und zwar f −1 = f . b) Ker g = {~0}: x y 0 g = = ⇔ x=0 ∧ y=0 y x 0 Im g = R2 : • g ist eine Abbildung von R2 nach R2 , und zwar g −1 = g. 1 c) Ker h = Lin : 0 x 0 0 h = = ⇔ y=0 y y 0 0 Im h = Lin : 1 • die x-Komponente aller Elemente aus dem Bild ist 0. d) Ker j = {~0}: x j = y √1 2 √1 2 x− x+ √1 2 √1 2 y y ! 0 = ⇔ x=0 ∧ y=0 0 Im f = R2 : • j ist eine Abbildung von R2 nach R2 und j ist bijektiv, so dass folgende Umkehrabbildung existiert: ! √1 x + √1 y x −1 2 2 j = y − √12 x + √12 y 50 Lemma: Der Kern und das Bild einer linearen Abbildung f ∈ Hom(V, W ) sind Unterräume von V bzw. W : Ker f UR V Im f UR W Beweis (Kern): Seien ~u, ~v ∈ Ker f und λ ∈ K (Körper zu V ). • Prüfe, ob Ker f mindestens ein Element enthält: f (~0) = f (~0 − ~0) = f (~0) − f (~0) = ~0 Damit ist ~0 ∈ Ker f . • Prüfe Abgeschlossenheit gegenüber der Addition: f (~u + ~v ) = = = f (~u) + f (~v ) ~0 + ~0 (da ~u, ~v ∈ Ker f ) ~0 Damit ist auch ~u + ~v ∈ Ker f . • Prüfe Abgeschlossenheit gegenüber der Multiplikation mit Skalaren: f (λ~u) = λ · f (~u) = λ · ~0 (da ~u ∈ Ker f ) = ~0 Damit ist auch λ~u ∈ Ker f . Beweis (Bild): Seien ~u, ~v ∈ Im f und λ ∈ K (Körper zu W ). • Prüfe, ob Im f mindestens ein Element enthält: f (~0) = ~0 (siehe oben) Damit ist ~0 ∈ Im f . • Prüfe Abgeschlossenheit gegenüber der Addition: ~u + ~v = f (~p) + f (~q) (mit f (~p) = ~u und f (~q) = ~v ) = f (~p + ~q) = f (~r) (mit ~r = p~ + ~q ∈ V ) Damit ist auch ~u + ~v ∈ Im f . 51 • Prüfe Abgeschlossenheit gegenüber der Multiplikation mit Skalaren: λ~u = λ · f (~p) (mit f (~p) = ~u) = f (λ~p) = f (~r) (mit ~r = λ~p ∈ V ) Damit ist auch λ~u ∈ Im f . Lemma: Eine lineare Abbildung f ∈ Hom(V, W ) ist genau dann injektiv, wenn ihr Kern nur aus dem Nullvektor besteht: Ker f = {~0} Beweis (⇒): Da f (~0) = ~0 und f injektiv ist, bildet kein anderer Vektor auf ~0 ab. Damit liegt außer dem Nullvektor kein anderer Vektor im Ker f . Beweis durch Widerspruch (⇐): Angenommen Ker f = {~0} und f ist nicht injektiv, dann existieren zwei Vektoren ~u, ~v ∈ V , so dass ~u 6= ~v ∧ f (~u) = f (~v ) Daraus folgt: f (~u − ~v ) = f (~u) − f (w) ~ = ~0 Damit liegt ~u − ~v 6= ~0 in Ker f . Dies ist ein Widerspruch, da Ker f = {~0}. 2.4.3 Spezielle Homomorphismen Definitionen: Einen Homomorphismus f ∈ Hom(V, W ) nennt man einen • Monomorphismus, wenn f injektiv ist, • Epimorphismus, wenn f surjektiv ist, • Isomorphismus, wenn f bijektiv ist, • Endomorphismus, wenn V = W , • Automorphismus, wenn V = W und f bijektiv ist. Satz: Ist f ∈ Hom(V, W ) ein Isomorphismus, dann ist auch f −1 ∈ Hom(W, V ) ein Isomorphismus. Satz: Die Verkettung von Isomorphismen ist auch wieder ein Isomorphismus. 52 Satz: Seien • V, W Vektorräume über K, • die Menge {~v1 , ~v2 , . . . ~vn } ⊆ V eine Basis von V und • w ~ 1, w ~ 2, . . . w ~ n ∈ W beliebig, dann gibt es eine eindeutige lineare Abbildung f ∈ Hom(V, W ) definiert durch f (~vi ) = w ~ i für i = 1, 2, . . . n Beweis: Jeder Vektor ~v ∈ V hat eine eindeutige Darstellung als Linearkombination aus {~v1 , ~v2 , . . . ~vn }: ~v = λ1~v1 + λ2~v2 + . . . + λn~vn • Zu zeigen ist, dass eine entsprechende lineare Abbildung existiert. Dazu wird die Abbildung des Vektors ~v folgendermaßen definiert: f (~v ) = λ1 w ~ 1 + λ2 w ~ 2 + . . . + λn w ~n = λ1 · f (~v1 ) + λ2 · f (~v2 ) + . . . + λn · f (~vn ) Außerdem gilt: f (~v ) = f (λ1~v1 + λ2~v2 + . . . + λn~vn ) Daraus folgt: f (λ1~v1 + λ2~v2 + . . . + λn~vn ) = λ1 · f (~v1 ) + λ2 · f (~v2 ) + . . . + λn · f (~vn ) Damit ist f eine lineare Abbildung. • Außerdem ist zu zeigen, dass f eine eindeutige lineare Abbildung ist: Angenommen es existiert eine lineare Abbildung g 6= f mit g(~vi ) = w ~ i. Damit gilt: g(~v ) = = = = g(λ1~v1 + λ2~v2 + . . . + λn~vn ) λ1 · g(~v1 ) + λ2 · g(~v2 ) + . . . + λn · g(~vn ) λ1 w ~ 1 + λ2 w ~ 2 + . . . + λn w ~n f (~v ) Das heißt, für alle ~v ∈ V gilt g(~v ) = f (~v ). Damit ist g = f . Dies ein Widerspruch zur Annahme. Folgerung: Zu zwei n-dimentionalen Vektorräumen existiert mindestens ein Isomorphismus, der den einen Vektorraum in den anderen überführt. 53 2.4.4 Rang einer linearen Abbildung Definition: Der Rang einer linearen Abbildung f ∈ Hom(V, W ) ist die Dimension des Bildes von f : rg f = dim(Im f) Satz (Dimensionsformel für lineare Abbildungen): Für jede lineare Abbildung f ∈ Hom(V, W ) gilt: dim(Ker f ) + dim(Im f ) = dim V dim(Ker f ) + rg f = dim V Beweis: Sei {~v1 , ~v2 , . . . ~vk } eine Basis von Ker f ⊆ V : Ker f = Lin({~v1 , ~v2 , . . . ~vk }) und {~v1 , ~v2 , . . . ~vk } ist l.u. Diese Basis wird durch die Vektoren {~vk+1 , ~vk+2 , . . . ~vn } zu einer Basis von V erweitert: V = Lin({~v1 , . . . ~vk , ~vk+1 , . . . ~vn }) und {~v1 , . . . ~vk , ~vk+1 , . . . ~vn } ist l.u. Zu zeigen ist, dass {f (~vk+1 ), f (~vk+2 ), . . . f (~vn )} eine Basis von Im f ist. • Angenommen w ~ ∈ Im f : w ~ = f (~v ) = f (λ1 · ~v1 + . . . + λk · ~vk + λk+1 · ~vk+1 + . . . + λn · ~vn ) = λ1 · f (~v1 ) + . . . + λk · f (~vk ) + λk+1 · f (~vk+1 ) + . . . + λn · f (~vn ) Da ~v1 , ~v2 , . . . ~vk ∈ Ker f , gilt f (~v1 ) = f (~v2 ) = . . . = f (~vk ) = ~0. Daraus folgt: w ~ = λk+1 · f (~vk+1 ) + λk+2 · f (~vk+2 ) + . . . + λn · f (~vn ) Damit ist {f (~vk+1 ), f (~vk+2 ), . . . f (~vn )} Erzeugendensystem von Im f . • Der Nullvektor ~0 sei eine Linearkombination dieses Erzeugendensystems: ~0 = λk+1 · f (~vk+1 ) + λk+2 · f (~vk+2 ) + . . . + λn · f (~vn ) = f (λk+1 · ~vk+1 + λk+2 · ~vk+2 + . . . + λn · ~vn ) = f (~u) Daraus folgt, dass ~u ∈ Ker f . Da ~u eine eindeutige Darstellung bezüglich der Basis {~v1 , . . . ~vk , ~vk+1 , . . . ~vn } hat und bereits mit der Basis {~v1 , ~v2 , . . . ~vk } darstellbar ist, gilt: λk+1 = λk+2 = . . . = λn = 0 54 Daraus folgt: • Die Dimension des Kern von f beträgt k: dim(Ker f ) = k • Die Dimension des Bildes von f beträgt n − k: dim(Im f ) = n − k • Die Dimension von V beträgt n: dim V = n Damit gilt: k + n−k = n ⇔ dim(Ker f ) + dim(Im f ) = dim V 2.5 Matrizen 2.5.1 Einleitung Definition: Eine m×n-Matrix über K ist eine Anordnung von m×n Elementen aus K nach dem folgenden Schema: a1 1 a1 2 · · · a1 n a2 1 a2 2 · · · a2 n A = .. .. .. ... . . . am 1 am 2 · · · am n Alternative Schreibweise: A = (ai j )(i,j)∈m×n wobei ai j die Einträge (Koeffizieten) der Matrix sind. Definition: Die Menge aller m × n-Matrizen über K wird mit M (m × n, K) bezeichnet. 55 Beobachtung: Die Menge M (m × n, K) ist ein Vektorraum mit den folgenden Operationen (λ ∈ K): a1 1 · · · a1 n b1 1 · · · b1 n a1 1 + b 1 1 · · · a1 n + b 1 n a2 1 + b 2 1 · · · a2 n + b 2 n a2 1 · · · a2 n b 2 1 · · · b 2 n + = .. . . . . . . . . .. .. .. .. .. .. .. .. . am 1 · · · am n bm 1 · · · bm n am 1 + b m 1 · · · am n + b m n a1 1 · · · a1 n λ · a1 1 · · · λ · a1 n a2 1 · · · a2 n λ · a2 1 · · · λ · a2 n λ · .. = .. .. .. ... ... . . . . am 1 · · · am n λ · am 1 · · · λ · am n 2.5.2 Multiplikation von Matrizen Definition: Seien A und B Matrizen folgender Gestalt • A = (ai j )(i,j)∈p×q ∈ M (p × q, K) und • B = (bi j )(i,j)∈q×r ∈ M (q × r, K), dann ist C = A · B = (ci j )(i,j)∈p×r definiert durch: c i j = ai 1 · b 1 j + ai 2 · b 2 j + . . . + ai q · b q j q X = ai k · b k j k=1 Regel: Zeile × Spalte“ ” Satz: Die Multiplikation von Matrizen ist assoziativ: (A · B) · C = A · (B · C) Achtung: Die Multiplikation von Matrizen ist nicht kommutativ: A · B 6= B · A 56 2.5.3 Lineare Abbildungen Definition: Sei • f ∈ Hom(V, W ) eine lineare Abbildung, • die Menge {~v1 , ~v2 , . . . ~vn } Basis von V und • die Menge {w ~ 1, w ~ 2, . . . w ~ m } Basis von W , dann wird der Abbildung f eine Matrix A ∈ M (m × n, K) zugeordnet durch Darstellung der Bilder der Basisvektoren f (~vi ) in der Basis {w ~ 1, w ~ 2, . . . w ~ m } mit f (~v1 ) = a1 1 w ~ 1 + a2 1 w ~ 2 + . . . + am 1 w ~m f (~v2 ) = a1 2 w ~ 1 + a2 2 w ~ 2 + . . . + am 2 w ~m .. . f (~vn ) = a1 n w ~ 1 + a2 n w ~ 2 + . . . + am n w ~m Umgekehrt bestimmt jede Matrix A ∈ M (m × n, K) eine Abbildung f , durch die oberen Formeln. Regel: Die j-te Spalte der Matrix A stellt f (~vj ) dar. Folgerung: Die Vektorräume der linearen Abbildungen Hom(V, W ) und der Matrizen M (m × n, K) sind isomorph (n = rg V und m = rg W ). Festlegung: Für den Vektorraum V = K n wird die Standardbasis verwendet: 1 0 0 0 1 0 0 (n) 0 (n) 0 (n) ~e1 = , ~e2 = , ~en = .. .. .. . . . 0 0 1 Entsprechendes gilt für W = K m . (n) Regel: Die j-te Spalte von der Matrix A entspricht im Folgenden f ~ej . 57 Beobachtung: Sei A ∈ M (m × n, K) die zur Abbidlung f ∈ Hom(K n , K m ) zugehörige Matrix wobei für K n die Standardbasis verwendet wird. Wird zudem ein Vektor mit k Koeffizienten als k × 1-Matrix aufgefasst, dann gilt: A · ~v = f (~v ) a1 1 a2 1 A · ~v = .. . ··· ··· ... a1 2 a2 2 .. . am 1 am 2 · · · = a1 n x1 a2 n x2 .. · . . . . xn am n a1 1 · x1 + a1 2 · x2 + . . . + a1 n · xn a2 1 · x 1 + a2 2 · x 2 + . . . + a2 n · x n .. . am 1 · x 1 + am 2 · x 2 + . . . + am n · x n x1 x2 f (~v ) = f .. . xn (n) = f x1 · ~e1 (n) + x2 · ~e2 + . . . + xn · ~en(n) (n) (n) + . . . + xn · f ~en(n) + x2 · f ~e2 = x1 · f ~e1 a1 1 a1 2 a1 n a2 1 a2 2 a2 n = x1 · .. + x2 · .. + . . . + xn · .. . . . am 1 = am 2 a1 1 · x 1 + a1 2 · x 2 + . . . + a1 n · x n a2 1 · x 1 + a2 2 · x 2 + . . . + a2 n · x n .. . am 1 · x 1 + am 2 · x 2 + . . . + am n · x n ⇒ A · ~v = f (~v ) 58 am n Satz: Sind f ∈ Hom(K p , K q ) und g ∈ Hom(K q , K r ) lineare Abbildungen und A ∈ M (p × q, K) und B ∈ M (q × r, K) die zu f und g gehörigen Matrizen bezüglich der Standardbasen von K p bzw. K q , dann entspricht das Produkt der Matrizen A · B der Verkettung der Abbildungen f g: C = A · B ∈ M (p × r, K) ←→ f g ∈ Hom(K p , K r ) (p) Beweis: Für alle Basisvektoren ~ek (q) (q) (gf ) ~ek = f g ~ek ∈ K p mit k = 1, 2, . . . p gilt: b1 k b2 k = f .. . br k = f (r) b1 k · ~e1 + (r) b2 k · ~e2 + ... + br k · ~er(r) (r) (r) + . . . + br k · f ~er(r) + b2 k · f ~e2 = b1 k · f ~e1 a1 r a1 2 a1 1 a2 r a2 2 a2 1 = b1 k · .. + b2 k · .. + . . . + bq k · .. . . . aq r aq 2 aq 1 a1 1 · b 1 k + a1 2 · b 2 k + . . . + a1 r · b q k a2 1 · b 1 k + a2 2 · b 2 k + . . . + a2 r · b q k = .. . aq 1 · b 1 k + aq 2 · b 2 k + . . . + aq r · b q k 59 (q) A · B · ~ek a1 1 a2 1 = .. . ap 1 ··· · · · = ··· 0 a1 2 · · · a1 q b1 1 b1 2 · · · b1 r . b2 1 b2 1 · · · b2 r .. a2 1 · · · a2 q .. .. · .. .. . . .. · 1 ← k-te Zeile .. . . . . . . . . .. ap 1 · · · ap q bq 1 bq 1 · · · bq r 0 0 a1 1 · b 1 k + a1 2 · b 2 k + . . . + aq 1 · b q k · · · .. . a2 1 · b 1 k + a2 2 · b 2 k + . . . + a2 r · b q k · · · · 1 .. . . .. aq 1 · b 1 k + aq 2 · b 2 k + . . . + aq r · b q k · · · 0 ↑ k-te Spalte a1 1 · b 1 k + a1 2 · b 2 k + . . . + a1 r · b q k a2 1 · b 1 k + a2 2 · b 2 k + . . . + a2 r · b q k = .. . aq 1 · b 1 k + aq 2 · b 2 k + . . . + aq r · b q k Daraus folgt: (q) (q) = A · B · ~ek ∀k (gf ) ~ek Beispiele: a) Skalierung des Raumes Rn um einen Faktor c ∈ R: • Definition der Abbildung: c · x1 x1 x2 c · x2 fRn .. = .. . . c · xn xn • Abbildung der Basisvektoren: 1 c 0 0 0 0 1 c .. 7→ .. , .. 7→ .. , . . . . . . . 0 0 0 0 • Matrix: Af,Rn 0 ··· 0 c · · · 0 .. . . .. . . . 0 0 ··· c c 0 = .. . 60 0 0 0 0 .. 7→ .. . . 1 c b) Projektion von R3 auf die xy-Ebene (nach R3 ): • Definition der Abbildung: x x y g = y z 0 • Abbildung der Basisvektoren: 1 1 0 0 0 0 0 7→ 0 , 1 7→ 1 , 0 7→ 0 0 0 0 0 1 0 • Matrix: 1 0 0 Bg = 0 1 0 0 0 0 c) Projektion von R3 auf die xy-Ebene (nach R2 ): • Definition der Abbildung: x x 0 y g = y z • Abbildung der Basisvektoren: 1 0 0 0 7→ 1 , 1 7→ 0 , 0 7→ 0 0 1 0 0 0 1 • Matrix: Bg0 0 1 0 0 = 0 1 0 61 d) Drehung () von R2 um einen Winkel ϕ: • Definition der Abbildung: x x · cos ϕ − y · sin ϕ h = y x · sin ϕ + y · cos ϕ • Abbildung der Basisvektoren: − sin ϕ 1 cos ϕ 0 7→ , 7→ 0 sin ϕ 1 cos ϕ • Matrix: cos ϕ − sin ϕ Ch = sin ϕ cos ϕ e) Drehung () von R2 um einen Winkel ϕ mit anschließender Skalierung um den Faktor c ∈ R: • Definition der Abbildung: x x · cos ϕ − y · sin ϕ = fR2 (fR2 h) y x · sin ϕ + y · cos ϕ x · c · cos ϕ − y · c · sin ϕ = x · c · sin ϕ + y · c · cos ϕ • Matrix: Af,R2 · Ch c 0 cos ϕ − sin ϕ = · 0 c sin ϕ cos ϕ c · cos ϕ −c · sin ϕ = c · sin ϕ c · cos ϕ 62 2.6 Rang einer Matrix 2.6.1 Einleitung Definition: Sei A ∈ M (m × n, K) eine Matrix und f ∈ Hom(K n , K m ) die zugehörige lineare Abbildung (bezüglich der Standardbasis), dann ist der Rang von A definiert als rg A := rg f = dim (Im f ) Der Zeilenrang von A ist die maximale Anzahl von linear unabhängigen Zeilenvektoren aus A. Der Spaltenrang von A ist die maximale Anzahl von linear unabhängigen Spaltenvektoren aus A. Lemma: Ist ~vi ein Spaltenvektor (Zeilenvektor) von A, der sich als Linearkombination der übrigen Spalten (Zeilen) darstellen lässt und ist A0 die Matrix A ohne Spalte (Zeile) ~vi , dann gilt: Spaltenrang A0 = Spaltenrang A bzw. Zeilenrang A0 = Zeilenrang A Satz: Der Rang, der Spaltenrang und der Zeilenrang einer Matrix A sind gleich: rg A = Spaltenrang A = Zeilenrang A Beweis: • Zu zeigen ist, dass rg A = Spaltenrang A: Die Spalten von A sind die Bilder der Basisvektoren. Daraus folgt, dass die Spaltenvektoren Erzeugendensystem für Im f sind. Damit ist die maximale linear unabhängige Teilmenge der Spaltenvektoren die Basis von Im f . Also ist der Spaltenrang von A die Dimension von Im f : Spaltenrang A = dim (Im f ) = rg A • Zu zeigen ist, dass Spaltenrang A = Zeilenrang A: Streiche aus A Zeilen und/oder Spalten, die jeweils Linearkombinationen der übrigen Zeilen bzw. Spalten sind, solange das möglich ist. A 7→ A0 7→ A00 7→ . . . 7→ A(end) Nach dem Lemma gilt: n := Spaltenrang A = Spaltenrang A(end) m := Zeilenrang A = Zeilenrang A(end) 63 – Angenommen, dass n < m: Das heißt, dass A(end) m Zeilen hat, aber m Vektoren können in K n nicht linear unabhängig sein. Damit muss einer der Vektoren eine Linearkombination der übrigen Vektoren sein. Dies ist ein Widerspruch zur Annahme. Also ist n ≥ m. – Angenommen, dass n > m: Das heißt, dass A(end) n Spalten hat, aber n Vektoren können in K m nicht linear unabhängig sein. Damit muss einer der Vektoren eine Linearkombination der übrigen Vektoren sein. Dies ist ein Widerspruch zur Annahme. Also ist n = m. Definition: Sei A = (ai j ) ∈ M (m × n, K) eine Matrix, dann ist transponierte Matrix von A definiert durch At = (ati j ) ∈ M (n × m, K) mit ati j = aj i Beispiel: t 1 0 2 1 = 1 2 4 0 1 0 4 0 Folgerung: Der Rang einer Matrix A und der transponierten Matrix At ist gleich. rg A = rg At 64 2.6.2 Elementare Umformungen Feststellung: Der Rang einer Matrix kann mit den folgenden elementaren Umformungen bestimmt werden: • Typ 1: Vertauschung von zwei Zeilen (Spalen). • Typ 2: Multiplikation einer Zeile (Spalte) mit einem Skalar λ 6= 0. • Typ 3: Addition des λ-fachen einer Zeile (Spalte) zu einer anderen Zeile (Spalte). Satz: Elementare Umformungen ändern den Rang einer Matrix nicht. Beweis: • Typ 1 und 2: trivial • Typ 3: Sei ~vi ein Zeilenvektor vor und ~vi∗ nach der Umformung, ~vk sei ein anderer Zeilenvektor und λ ∈ K ein Skalar: ~vi∗ = ~vi + λ~vk Die ursprüngliche Matrix sei A und die Matrix nach der Umformung A∗ : A∗ = A(~v ↔ ~v ∗ ) Sei w ~ darstellbar als Linearkombination aus den Zeilenvektoren von A: w ~ = µ1~v1 + µ2~v2 + . . . + µi~vi + . . . + µk~vk + . . . + µn~vn Damit ist der Vektor w ~ auch als Linearkombination aus den Zeilenvektoren von A∗ darstellbar: w ~ = µ1~v1 + µ2~v2 + . . . + µi~vi∗ + . . . + (µk − λµi )~vk + . . . + µn~vn Daraus folgt: Lin(Zeilenvektoren von A) = Lin(Zeilenvektoren von A∗ ) Da die Dimension gleich bleibt, bleibt auch der Rang gleich. 65 2.6.3 Obere Dreiecksform Definition: Die Matrix A ist in oberer Dreiecksform, wenn die Matrix die folgende Form hat (das Symbol ∗ steht für beliebigen Inhalt): a1 1 ∗ ∗ ··· ∗ ∗ ··· ∗ .. . . .. 0 a2 2 ∗ · · · ∗ . . . . . . . .. .. . . ... 0 a3 3 . . 0 . . . . . . . .. .. . . .. .. .. .. ∗ A= 0 0 · · · 0 ar r ∗ · · · ∗ 0 ··· ··· ··· 0 0 · · · 0 .. . . . . . . . . . . . . . . . . . . . . . . 0 ··· 0 0 ··· ··· ··· 0 Für die Werte a1 1 , a2 2 , a3 3 , . . . ar r muss dabei gelten: a1 1 · a2 2 · a3 3 · . . . · ar r 6= 0 Beobachtung: Der Rang einer solchen Matrix ist r. Verfahren: Überführung einer Matrix A ∈ M (m×n, K) in obere Dreiecksform: • Die Matrix A0 wird mit der Matrix A initialisiert. A0 := A • Anschließend Ak mit k = 0, 1, . . . min(m, n) das folgende Verfahren angewandt. Dabei muss Ak vor jeder Inkrementierung von k folgende Form haben: ∗ ··· ∗ a1 1 ∗ ∗ ··· ∗ .. .. ... 0 a2 2 ∗ · · · ∗ . . .. .. .. ... ... 0 a3 3 . . . 0 . .. .. .. .. .. .. . . . ∗ . . . . Ak = . 0 ∗ · · · ∗ 0 · · · 0 a kk 0 ··· ··· ··· 0 b · · · b k+1 k+1 k+1 n .. .. .. .. .. .. .. .. . . . . . . . . 0 ··· ··· ··· 0 bm k+1 · · · bm n Die Koeffzienten bi j (mit i = k + 1, k + 2, . . . m und j = k + 1, k + 2, . . . n) sind beliebig, und es gilt a1 1 · a2 2 · a3 3 · . . . · ak k 6= 0. 66 Die Teilmatrix von Ak , die nur aus den Elementen bp q besteht, wird im Folgenden mit B bezeichnet: bk+1 k+1 · · · bk+1 n .. .. B = ... . . bm k+1 ··· bm n Verfahren für Ak : – Falls für alle bi j aus B gilt bi j = 0 dann ist das Verfahren abgeschlossen. Die Matrix Ak hat obere Dreiecksform. – Sonst werden folgende Umformungen durchgeführt: a) Vertausche Zeilen und/oder Spalten, die durch B gehen, um einen Koeffizieten bi,j 6= 0 an die Stelle a0k+1 k+1 zu bringen: ∗ ∗ ··· ∗ a1 1 ∗ · · · ∗ .. .. .. ... 0 a2 2 . . . ∗ . . . . . . . ... ... ... . . . . . . . . ∗ 0 0 0 a ∗ ∗ · · · ∗ k k 0 Ak = 0 0 ak+1 k+1 · · · · · · ak+1 n 0 ··· ··· 0 . .. ... ... .. . b0k+2 k+1 · · · · · · b0k+2 n .. . . . . . . . . . . . . . . . . . . . . . . 0 0 0 ··· ··· 0 bm k+1 · · · · · · bm n 67 b) Für b0k+2 k+1 , b0k+3 k+1 , . . . b0m k+1 werden durch Typ-3-Umformungen Nullen erzeugt: a1 1 ∗ · · · ∗ ∗ ∗ ··· ∗ .. .. .. .. 0 a2 2 . . . ∗ . . . . . . . . .. .. .. . . . . . . . . . . . ∗ 0 0 0 a ∗ ∗ · · · ∗ k k 0 Ak = 0 0 ak+1 k+1 ··· · · · ak+1 n 0 ··· ··· 0 . .. .. .. .. . . 0 b00k+2 k+2 · · · b00k+2 n . .. . . . . . . . . . . . . . . . . . . . . . . 00 00 0 bm k+2 · · · bm n 0 ··· ··· 0 Dies wird durch folgende Operation realisiert (i = k+2, k+3, . . . m und j = k + 1, k + 2, . . . n): b00i j := b0i j − a0i k+1 · b0k+1 j a0k+1 k+1 Beispiel: • Folgende Matrix A soll in obere Dreiecksform umgeformt werden: 0 −2 4 2 1 0 1 0 2 2 0 3 • Vertausche die erste und die dritte Zeile, so dass an der Stelle a1 1 ein Koeffizient 6= 0 steht: 1 0 2 2 1 0 0 −2 4 2 0 3 • Erzeuge an den Stellen a2 1 und a4 1 Nullen durch Typ-3-Umformungen mit der ersten Zeile: 1 0 2 1 0 2 2 − 1 · 2 1 − 0 · 2 0 − 2 · 2 0 1 −4 = 0 −2 4 0 −2 4 2−1·2 0−0·2 3−2·2 0 0 −1 68 • An der Stelle a2 2 befindet sich ein Koeffizient 6= 0. Damit muss nur noch an der Stelle a2 3 eine Null erzeugt werden: 1 0 2 1 0 2 0 0 1 −4 1 −4 0 −2 − (−2) · 1 4 − (−2) · (−4) = 0 0 −4 0 0 −1 0 0 −1 • An der Stelle a3 3 muss eine Null erzeugt werden: 1 0 2 1 0 2 0 1 −4 0 1 −4 = 0 0 0 0 −4 −4 0 0 0 0 0 −1 − 41 · (−4) 2.6.4 Elementarmatrizen Beobachtung: Elementare Matrixumformungen können auch durch Multiplikation mit sogenannten Elementarmatrizen realisiert werden. • Typ 1: Für die Vertauschung der i-ten und der j-ten Zeile (Spalte) in einer Matrix A wird folgende Matrix durch Abwandlung der Einheitsmatrix konstruiert: 1 ... 0 1 0 ··· → ··· 1 ←− i-te Zeile . . .. 1 .. . . Ti j = . ↓ ↑ .. .. . 1 . 1 ··· ← ··· 0 ←− j-te Zeile 1 .. . 0 1 Vertauschung der i-ten und der j-ten Zeile: A0 = Ti j · A Vertauschung der i-ten und der j-ten Spalte: A00 = A · Ti j 69 • Typ 2: Für die Multiplikation einer Zeile (Spalte) mit dem Faktor λ in einer Matrix A wird eine Matrix konstruiert, in welcher in der Diagonalen der Einheitsmatrix in der entsprechenden Zeile (Spalte) eine Eins durch λ ersetzt: 1 ... 0 1 λ Si λ = ←− i-te Zeile 1 .. . 0 1 Multiplkation der i-ten Zeile mit λ: A0 = Si λ · A Multiplkation der j-ten Spalte mit λ: A00 = A · Si λ • Typ 3: Für die Addition des λ-fachen einer Zeile (Spalte) zu einer anderen Zeile (Spalte) in einer Matrix A wird eine Einheitsmatrix um ein λ folgendermaßen erweitert: 1 ... 0 . .. .. Ki j λ = ←− i-te Zeile . λ .. . ... 0 1 ↑ j-te Spalte Addition des λ-fachen der j-ten Zeile zur i-ten Zeile: A 0 = Ki j λ · A Addition des λ-fachen der i-ten Spalte zur j-ten Spalte: A00 = A · Ki j λ 70 2.7 2.7.1 Lineare Gleichungssysteme Einleitung Definition: Ein lineares Gleichungssystem (LGS) mit Koeffizienten in einem Körper K, mit m Gleichungen und n Unbekannten wird durch eine Matrix A = (ai j )(i,j)∈m×n ∈ M (m × n, K) und einem Vektor b1 b2 ~b = .. ∈ K m . bm repräsentiert. Das lineare Gleichungssystem wird folgendermaßen interpretiert: a1 1 · x 1 a2 1 · x 1 .. . + a1 2 · x 2 + a2 2 · x 2 .. . + . . . + a1 n · x n + . . . + a2 n · x n .. . = b1 = b2 .. . am 1 · x1 + am 2 · x2 + . . . + am n · xn = bm Man bezeichnet mit (A | b) folgende Matrix: a1 1 a1 2 · · · a1 n b 1 a2 1 a2 2 · · · a2 n b 2 (A | b) = .. .. .. .. . . . . am 1 am 2 · · · am n b m Beobachtung: x1 , x2 , . . . xn bilden genau dann eine Lösung des linearen Gleichungssystems, wenn x1 x2 A · .. = ~b . xn 71 Satz: Die Gleichung A · ~x = ~b ist genau dann lösbar, wenn rg A = rg(A | b) Beweis: rg A = rg(A | b) ⇔ Spaltenrang(A) = Spaltenrang(A | b) a1 1 a1 2 a1 n a2 1 a2 2 a2 n ~ ⇔ b ∈ Lin .. , .. , . . . .. . . . a am 2 am n m1 a1 n a1 2 a1 1 a2 n a2 2 a2 1 ~ ⇔ ∃x1 , x2 , . . . xn b = x1 · .. + x2 · .. + . . . + xn · .. . . . am n am 2 am 1 x1 x2 ⇔ ∃x1 , x2 , . . . xn A · .. = ~b . xn Definition: Ein lineares Gleichungssystem mit ~b = ~0 (m) wird homogenes Gleichungssystem genannt. Beobachtung: Zu jedem linearen Gleichungssystem kann durch Ersetzung von ~b durch ~0 (m) ein homogenes Gleichungssystem gefunden werden. Definition: Die Lösungsmenge eines linaren Gleichungssystems aus A und ~b ist folgermaßen definiert: Lös(A, ~b) = {~x | A · ~x = ~b} Satz: Sei A ∈ M (m × n, K) die Matrix einer linearen Abbildung f : K n → K m bezüglich der Standardbasis, dann ist a) Die Lösungsmenge Lös(A, ~0 (m) ) ist gleich Ker f . Damit ist Lös(A, ~0 (m) ) ein Unterraum von K n . 72 b) Sei ~b ∈ K m und ~x, ~y ∈ Lös(A, ~b), dann gilt: ~x − ~y ∈ Lös(A, ~0 (m) ) c) Sei ~b ∈ K m , ~x ∈ Lös(A, ~b) und ~z ∈ Lös(A, ~0 (m) ), dann gilt: ~x + ~z ∈ Lös(A, ~b) Beweis: a) Durch Einsetzen der jeweiligen Definitionen folgt: Lös(A, ~0 (m) ) = {~x | A · ~x = ~0 (m) } = {~x | f (~x) = ~0 (m) } = Ker f b) Seien ~x, ~y ∈ Lös(A, ~b), dann gilt: f (~x) = ~b und f (~y ) = ~b Daraus folgt: f (~x − ~y ) = f (~x) − f (~y ) = ~b − ~b = ~0 Das heißt: ~x − ~y ∈ Lös(A, ~0 (m) ) c) Seien ~x ∈ Lös(A, ~b) und ~z ∈ Lös(A, ~0 (m) ), dann gilt: f (~x) = ~b und f (~z) = ~0 Daraus folgt: f (~x + ~z) = f (~x) − f (~z) = ~b − ~0 = ~b Das heißt: ~x + ~z ∈ Lös(A, ~b) Beobachtung: Sei A ∈ M (m × n, K) die Matrix einer linearen Abbildung f : K n → K m bezüglich der Standardbasis, dann ist die Lösungsmenge Lös(A, b) genau dann nicht leer, wenn ~b ∈ Im f . 73 2.7.2 Gauß’scher Algorithmus Verfahren: Ein lineares Gleichungssystem aus A und ~b kann nach folgendem Algorithmus gelöst werden: a) Überprüfung, ob das lineare Gleichungssystem eine Lösung hat: Man bringt die Matrix A in obere Dreiecksform, aber erweitert alle Schritte auf die Matrix (A | b) ohne Elementarumformungen mit letzter Spalte vorzunehmen. Achtung: Spaltenvertauschungen in A bedeuten Variablenvertauschung im linearen Gleichungssystem. Ergebnis: A0 = a01 1 ∗ ∗ ··· ∗ 0 a02 2 ∗ 0 .. . 0 .. . ··· .. . .. . ∗ .. . 0 0 .. . 0 ··· .. . 0 ··· a03 3 .. . ∗ · · · 0 a0r r ··· ··· 0 .. .. .. . . . ··· ··· 0 ∗ .. . .. . .. . ∗ 0 .. . ··· ∗ . . . .. . . . .. . . . . .. . . ··· ∗ ··· 0 . . .. . . 0 ··· 0 b01 b02 b03 .. . b0r b0r+1 .. . b0m • Fall 1: Falls mindestens ein b0i 6= 0 mit i = r + 1, r + 2, . . . m existiert, dann ist rg (A) < rg(A | b), und das System hat keine Lösung. Das Verfahren wird abgebrochen. • Fall 2: Falls b0r+1 = b0r+2 = . . . = b0m = 0, dann ist rg (A) = rg(A | b), und das System hat eine Lösung. Im Folgenden wird das System auf folgende Form reduziert: 0 ∗ · · · ∗ b01 a1 1 ∗ ∗ ··· ∗ .. . . .. . . b02 0 a02 2 ∗ · · · ∗ . .. .. . . .. .. 0 0 (T | S | b0 ) = . . 0 0 a . . b . 33 3 . .. .. . . .. .. ... ... .. . . . . . ∗ 0 0 0 · · · 0 ar r ∗ · · · ∗ b0r 74 b) Bestimmung einer speziellen Lösung von (T | S | b0 ): Zur Bestimmung einer speziellen Lösung von (T | S | b0 ) wird das lineare Gleichungssystem folgendermaßer geteilt: x1 x2 . x1 xr+1 . . x2 xr+2 (T | S) · xr = T · .. + S · .. = ~b0 . . xr+1 . xr xn .. xn Man wählt xr+1 = xr+2 = . . . = xn = 0. Gleichungssystem wiefolgt: a01 1 a01 2 x1 0 a0 x2 22 T · .. = ~b0 ⇒ .. .. . . . 0 ··· xr Dadurch reduziert sich das lineare b01 x1 · · · a01 r 0 · · · a02 r x 2 b2 · .=. .. .. . . .. .. b0r xr 0 a0r r Die Werte von x1 , x2 , . . . xr können nun direkt bestimmt werden: b0r = a0r r · xr b0r−1 = a0r−1 r−1 · xr−1 + a0r−1 r · xr ⇒ xr = ⇒ xr−1 = b0r a0r r b0r−1 −a0r−1 r ·xr a0r−1 r−1 .. . b01 = a01 1 · x1 + . . . + a01 r · xr ⇒ x1 = b01 −a01 r ·xr −...−a01 2 ·x2 a01 1 Der Vektor mit einer speziellen Lösung des linearen Gleichungssystem werde mit ~x bezeichnet: x1 x1 x2 x2 . . . . . . ~x = xr = xr xr+1 0 . . .. .. xn 0 75 c) Bestimmung einer Basis der Lösungsmenge des homogenen Gleichungssystems (T | S | ~0 (r) ): Zur Bestimmung des j-ten Basisvektors von x1 x2 . x1 xr+1 . . x2 xr+2 (T | S) · xr = T · .. + S · .. = ~0 (r) . . xr+1 . xr xn .. xn wählt man xr+j = 1 und xr+1 = . . . = xr+j−1 = xr+j+1 = . . . xn = 0 Im Folgenden gelte: S = (si j )(i,j)∈r×(n−r) Damit erhält man das a01 1 0 .. . 0 folgende lineare Gleichungssystem x1 −s1 j a01 2 · · · a01 r a02 2 · · · a02 r x2 −s2 j .. · .. = .. .. .. . . . . . 0 · · · 0 ar r xr −sr j Bemerkung: Der Vektor −s1 j −s2 j .. . −sr j ist dabei der j-Spaltenvektor aus S, multipliziert mit −1. Die Werte von x1 , x2 , . . . xr können nun wie bei der speziellen Lösung bestimmt werden. Der j-te Basisvektor des homogenen Gleichungssystem werde mit ~xj bezeichnet. Das Verfahren muss für alle n − r Spalten von S durchgeführt werden. 76 d) Bestimmung der allgemeinen Lösung von (T | S | b): Mit Hilfe der speziellen Lösung des linaren Gleichungssystem und der Basisvektoren der Lösungsmenge der homogenen Gleichungssystem lässt sich die Lösungsmenge des linearen Gleichungssystem folgermaßen darstellen: ( ) n−r X Lös(A | b) = Lös(T |S | b0 ) = ~x + λj · ~xj | λ1 , λ2 , . . . λn−r ∈ R j=1 Beispiel: Gegeben sei das folgende Gleichungssystem: x1 2x1 − x1 2x2 + x3 − x4 − x2 + 2x3 + 5x3 − x2 − 3x3 + 2x4 = 6 = −1 = 3 = −6 a) Die dazugehörige Matrix (A | b): 6 0 2 1 −1 1 −1 2 0 −1 2 0 5 0 3 −1 −1 −3 2 −6 Diese Matrix muss zuerst in obere Dreiecksform überführt werden. Erste und zweite Zeile vertauschen: 1 −1 2 0 −1 0 2 1 −1 6 2 3 0 5 0 −1 −1 −3 2 −6 In der ersten Spalte unter a1 1 Nullen erzeugen: 1 −1 2 0 −1 0 2 1 −1 6 0 5 2 1 0 0 −2 −1 2 −7 In der zweiten Spalte unter a2 2 Nullen erzeugen: 1 −1 2 0 −1 0 2 1 −1 6 0 0 0 1 −1 0 0 0 1 −1 77 Dritte und vierte Spalte tauschen, um an der Stelle a3 3 einen Wert 6= 0 zu erzeugen (Achtung: x3 ↔ x4 ): 1 −1 0 2 −1 0 2 −1 1 6 0 0 1 0 −1 0 0 1 0 −1 In der dritten Spalte unter a3 3 Nullen erzeugen: 1 −1 0 2 −1 0 2 −1 1 6 0 0 1 0 −1 0 0 0 0 0 Die Matrix hat nun obere Dreiecksform. Es existiert eine Lösung, da der untere Teil von ~b aus einer Null besteht. Die Matrix kann nun folgendermaßen reduziert werden: 1 −1 0 2 −1 0 6 2 −1 1 0 0 1 0 −1 Das lineare Gleichungssystem wird geteilt: 1 −1 0 x1 2 −1 0 2 −1 · x2 + 1 · (x3 ) = 6 0 0 1 x4 0 −1 b) Bestimmung der speziellen Lösung: 1 −1 0 x1 −1 0 2 −1 · x2 = 6 0 0 1 x4 −1 Wähle x3 = 0 und bestimme die übrigen Variablen: 2 · x2 1 · x1 + (−1) · x2 1 · x4 = −1 + (−1) · x4 = 6 + 0 · x4 = −1 78 ⇒ ⇒ ⇒ x4 = −1 x2 = 2,5 x1 = 1,5 c) Bestimmung des ersten (und einzigen) Basisvektors von (A | ~0 (4) ): 1 −1 0 x1 −2 0 2 −1 · x2 = −1 0 0 1 x4 0 Wähle x3 = 1 und bestimme die übrigen Variablen: 2 · x2 1 · x1 + (−1) · x2 1 · x4 = 0 + (−1) · x4 = −1 + 0 · x4 = −2 ⇒ ⇒ ⇒ x4 = 0 x2 = −0,5 x1 = −2,5 d) Lösungsmenge: 1,5 −2,5 −0,5 2,5 Lös(A | b) = + λ · | λ ∈ R 0 1 −1 0 2.7.3 Quotientenraum Beobachtung: Die Lösungsmenge ist kein Unterraum, aber eine Verschie” bung“ eines Unterraums. Definition: Sei V ein Vektorraum, U ein Unterraum von V und ~v ein Vektor aus V , dann nennt man ~v + U = {~v + ~u | ~u ∈ U } die Nebenklasse von ~v bezüglich U . Satz: Sei V ein Vektorraum, U ein Unterraum von V und w, ~ w ~ zwei Vektoren aus V , dann gilt: ~v + U = w ~ +U ⇔ ~v − w ~ ∈U ⇔ w ~ ∈ ~v + U Definition: Sei V ein Vektorraum, U ein Unterraum von V und K der Körper von V , dann bezeichnet man die Menge V/U = {~v + U | ~v ∈ V } als Quotientenraum von V nach U . 79 Beobachtung: Der Quotientenraum V/U ist ein Vektorraum mit folgenden Operationen (~v , w ~ ∈ V , λ ∈ K) (~v + U ) + (w ~ + U ) = (~v + w) ~ +U λ · (~v + U ) = (λ · ~v ) + U und dem neutralen Element ~0 + U = U . Beobachtung: Sei V/U ein Quotientenraum, dann ist ~v + U ∈ V/U eine Äquivalenzklasse von ~v bezüglich der Relation Differenz ist in U“. ” Satz: Sei V ein Vektorraum, U ein Unterraum von V , dann ist dim V/U = dim V − dim U Beweisidee: Man definiert eine Abbildung ϕ : V → V/U durch ~v 7→ ~v + U Die Abbidlung ϕ ist linear und surjektiv (epimorph). Damit ist das Im ϕ = V/U . Außerdem ist Ker ϕ = U , denn ∀ ~v ∈ U ~v + U = U = ~0 + U Nach der Dimensionsformel gilt somit: dim V = dim(Ker ϕ) + dim(Im ϕ) = dim U + dim V/U 80 Beobachtung: Seien A ∈ M (m × n, K) eine Matrix, f ∈ Hom(K n , K m ) die dazugehörige Abbildung, ~b, ~c ∈ K n sowie ~x, ~y ∈ K m Vektoren und λ ∈ K ein Skalar. • Addition: Lös(A, ~b + ~c) = (~x + ~y ) + Ker f m Lös(A, ~b) = ~x + Ker f und Lös(A, ~c) = ~y + Ker f • Multiplikation mit Skalaren: Lös(A | ~b) = ~x + Ker f m Lös(A | λ ~b) = λ ~x + Ker f Lösungsmengen haben damit die Struktur von Vektorräumen. Beispiel: Sei A ∈ M (2 × 2, R) eine Matrix und f ∈ Hom(R2 , R2 ) die dazugehörige Abbildung (bezüglich der Standardbasis): 1 2 x x + 2y A= ↔ f = 2 4 y 2x + 4y Bestimmung von Ker f (also von Lös(A, ~0 (2) )): x + 2y = 0 und 2x + 4y = 0 Daraus folgt: Lös(A, ~0 (2) ) = Ker f = Lin Sei ~b ∈ R2 ein Vektor, dann gilt: Lös(A, ~b) ∈ R2/Ker f 81 2 −1 2.8 2.8.1 Inverse Matrizen Einheitsmatrix Definition: Die Matrix 1 0 ··· ··· 0 . .. .. . . .. 0 1 . . . . . . . . .. . . En = . . . ∈ M (n × n, K) . . . .. . . 1 0 .. 0 ··· ··· 0 1 ist neutrales Element der Matrixmultiplikation in M (n × n, K) und wird als Einheitsmatrix bezeichnet. Das heißt (A ∈ M (n × n, K)): En · A = A = A · En 2.8.2 Inverse Matrizen Definition: Sei A ∈ M (n × n, K), dann ist A−1 die zu A inverse Matrix, wenn A · A−1 = En = A−1 · A Achtung: Die Menge M (n × n, K) ist keine Gruppe. Es gibt z.B. gibt es kein inverses Element für die Nullmatrix: 0 ··· 0 0 ··· 0 0 ··· 0 ∀ A ∈ M (n × n, K) ... . . . ... · A = A · ... . . . ... = ... . . . ... 6= En 0 ··· 0 0 ··· 0 0 ··· 0 Satz: Die Matrix A ∈ M (n×n, K) ist genau dann invertierbar, wenn rg A = n. Beweis: Aufgrund des Zusammenhanges zu linearen Abbildungen lässt sich jeder Matrix eine Funktion f ∈ Hom(K n , K n ) zuordnen, sowie umgekehrt jeder linearen Abbildung eine Matrix zuordnen: A ↔ f Daraus folgt: • Surjektivität von f : rg A = n ⇔ dim(Im f ) = n ⇔ f ist surjektiv 82 • Injektivität von f : dim(Im f ) = n ⇔ dim(Ker f ) = 0 ⇔ f ist injektiv | {z } dim K n −dim(Im f ) • Umkehrbarkeit von f : Da f surjektiv und injektiv ist, ist f bijektiv. Damit existiert eine Umkehrabbildung f −1 ∈ Hom(K n , K n ) und damit auch die dazugehörige Matrix A0 ∈ M (n × n, K): f −1 ↔ A0 • Verkettung von Funktionen als Matrixmultiplikation: A · A−1 ↔ f · f −1 = IdK n ↔ En ⇒ A · A−1 = En Beobachtungen: a) Seien A, B, C ∈ M (n × n, K) Matrixen und A · B = C. Überführt man mit den gleichen elementaren Zeilenumformungen A in A0 und C in C 0 (ohne B zu verändern), so gilt A0 · B = C 0 . Grund: Zeilenumformungen entsprechen Multiplikation mit Elementarmatrizen von links: A0 · B = Dk · . . . · D2 · D1 ·A · B = Dk · . . . · D2 · D1 · C = C 0 | {z } | {z } b) Sei A ∈ M (n × n, K) eine Matrix. Ist die Matrix A invertierbar, so kann man A mit elementaren Zeilenumformungen in En überführen. Grund: Die Matrix A hat vollen Rang haben. c) Sei A ∈ M (n × n, K) eine Matrix. Überführt man die Matrix A durch Zeilenumformungen in En und wendet die gleichen Umformungen auf En an, so erhält man A−1 . Grund: Man wendet die Beobachtung a) an: A En A · A−1 = En En X En · A−1 = Dk · . . . · D1 ·A · A−1 = Dk · . . . · D1 ·En = X | {z } | {z } En · A−1 = X ⇒ X = A−1 83 Beispiel: 2 0 1 2 −1 4 2 0 −1 2 −1 4 2 0 −1 2 0 2 0 4 −1 2 0 2 0 4 −1 0 0 2 0 0 −1 0 0 2 1 0 0 En = 0 1 0 0 0 1 1 A= 1 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 Probe: 1 0 0 0 1 0 = En 0 0 1 1 0 0 −1 1 0 0 0 1 1 0 0 −1 1 0 1 −1 1 −1 2 0 −1 1 0 1 −1 1 −1 2 0 −2 2 −1 1 −1 1 −3 4 −2 −2 2 −1 1 −1 1 −3 4 −2 2 −2 1 = A−1 0,5 −0,5 0,5 1 2 0 −3 4 −2 1 0 0 1 1 2 · 2 −2 1 = 0 1 0 0 −1 4 0,5 −0,5 0,5 0 0 1 84 2.9 Determinanten 2.9.1 Einleitung Definition: Die Determinante det A ist eine Kenngröße einer quadratischen Matrix A ∈ M (n × n, K), die wie folgt bestimmen kann: • Fall 1: n = 1 det a1 1 = a1 1 • Fall 2: n > 1 Entwicklung nach der ersten Spalte: n X det A = (−1)i+1 ai 1 · det Ai 1 i=1 Dabei ist Ai 1 die Matrix, die man aus A durch Streichen der i-ten Zeile und der ersten Spalte enthält. Schreibweise: Für die Determinante wird folgende Schreibweise vereinbart: a1 1 · · · a1 n a · · · a 11 1n .. .. := det .. .. . . . . . . . . . . am 1 · · · am n am 1 · · · am n Beispiel: 0 1 0 0 1 2 1 0 2 4 5 2 0 1 2 0 6 = (−1)2+1 · 1 · 1 5 1 1 0 2 0 0 5 1 2 = − 1· − 1 · 2 2 0 0 0 = − ((5 · 0 − 2 · 1) − (2 · 0 − 2 · 0)) = 2 85 Beobachtung: Für die Spezialfälle n = 2 und n = 3 existiert eine einfache Methode zur Bestimmung der Determinenten: a1 1 a1 2 a2 1 a2 2 = a1 1 · a2 2 − a1 2 · a2 1 a1 1 a1 2 a1 3 a2 1 a2 2 a2 3 = (a1 1 · a2 2 · a3 3 + a1 2 · a2 3 · a3 1 + a1 3 · a2 1 · a3 2 ) a3 1 a3 2 a3 3 − (a1 3 · a2 2 · a3 1 + a1 1 · a2 3 · a3 2 + a1 2 · a2 1 · a3 3 ) Achtung: Ab n = 4 funktioniert diese Methode nicht mehr! Definition: Eine Funktion f : M (m × n, K) → L heißt linear in jeder Zeile, wenn folgende Bedingungen erfüllt sind: • Seien A, A0 ∈ M (m × n, K) Matrizen. Wenn sich A und A0 Zeile unterscheiden, dann gilt: a1 1 a1 1 · · · a1 n .. ... .. .. . . . 0 0 a · · · a f (A) + f (A ) = f p 1 p n + f ap 1 . . .. .. .. .. . . am 1 · · · am n am 1 a1 1 ··· a1 n .. .. ... . . = f ap 1 + a0p 1 · · · ap n + a0p n .. .. ... . . am 1 ··· am n 86 nur in der p-ten ··· ... a1 n .. . · · · a0p n .. .. . . · · · am n • Sei A, ∈ M (m × n, K) eine Matrix und λ ∈ K ein Skalar, dann gilt für alle p ≤ m: a1 1 · · · a1 n .. ... .. . . λ · f (A) = λ · f ap 1 · · · ap n . .. .. .. . . am 1 · · · am n a1 1 ··· a1 n .. ... .. . . = f λ · ap 1 · · · λ · ap n . .. .. .. . . am 1 · · · am n Eine Funktion f : M (m × n, K) → L heißt linear in jeder Spalte, wenn folgende Bedingungen erfüllt sind: • Seien A, A0 ∈ M (m × n, K) Matrizen. Wenn sich A und A0 nur in der p-ten Spalte unterscheiden, dann gilt: a1 1 · · · a1 p · · · a1 n .. .. .. .. f (A) + f (A0 ) = f ... . . . . am 1 · · · am p · · · am n a1 1 · · · a01 p · · · a1 n .. .. .. .. +f ... . . . . am 1 · · · a0m p · · · am n a1 1 · · · a1 p + a01 p · · · a1 n .. .. .. .. = f ... . . . . 0 am 1 · · · am p + am p · · · am n 87 • Sei A, ∈ M (m × n, K) eine Matrix und λ ∈ K alle p ≤ n: a1 1 · · · a1 p .. .. .. λ · f (A) = λ · f . . . am 1 · · · am p a1 1 · · · λ · a1 p .. .. .. = f . . . am 1 · · · λ · am p ein Skalar, dann gilt für · · · a1 n .. .. . . · · · am n · · · a1 n .. .. . . ··· am n Satz: Es gibt genau eine Abbildung det : M (n × n, K) → K mit den folgenden Eigenschaften: • Die Abbildung det ist linear in jeder Zeile. • Wenn rg A < n, dann gilt det A = 0. • Für die Determinante der Einheitsmatrix En gilt: det En = 1. Diese Abbildung lässt sich durch die am Anfang angegebene Entwicklungsformel bestimmen. Beobachtung: Die Abbidlung det ist ebenfalls linear in jeder Spalte. 2.9.2 Eigenschaften von Determinanten Beobachtung: Die Abbildung det ist invariant gegenüber Typ-3-Zeilen- oder Spaltenumformungen: • Zeilenumformungen: Umformung: a1 1 .. . ai 1 . A= .. a j1 . .. an 1 a1 1 a1 n .. .. . . ai 1 + λ · aj 1 · · · ai n .. .. 0 .. . . −→ A = . · · · aj n a j1 .. .. ... . . · · · an n an 1 ··· ... 88 ··· a1 n .. .. . . · · · ai n + λ · aj n .. .. . . ··· aj n .. ... . ··· an n Betrachtung der Determinante von A0 : a1 1 ··· a1 n .. .. .. . . . ai 1 + λ · aj 1 · · · ai n + λ · aj n .. .. ... det A0 = . . aj 1 ··· aj n . . . .. .. .. an 1 ··· an n a1 1 · · · a1 n a1 1 ··· a1 n .. .. .. .. ... ... . . . . ai 1 · · · ai n λ · aj 1 · · · λ · aj n . .. + .. .. .. .. = .. . . . . . a ··· aj n j 1 · · · aj n aj 1 . .. .. .. ... ... .. . . . an 1 · · · an n an 1 · · · an n a1 1 · · · a1 n .. .. .. . . . ai 1 · · · ai n . .. = det A ... = .. . a j 1 · · · aj n . .. ... .. . an 1 · · · an n a1 1 .. . λ · aj 1 . weil rg .. a j1 . .. an 1 • Spaltenumformungen: analog 89 ··· ... ··· .. . ··· ... ··· a1 n .. . λ · aj n .. . <n aj n .. . an n Beobachtung: Vertauschung von zwei Zeilen (Spalten) bewirkt Vorzeichenänderung der Determinanten: • Vertauschung der i-ten und der j-ten Zeilen in der Matrix A ∈ M (n×n, K) mit Hilfe von Typ-2- und Typ-3-Zeilenumformungen: 1. Matrix A: a1 1 · · · a1 n .. .. ... . . ai 1 · · · ai n . .. .. . A= . . . a j 1 · · · aj n . .. .. .. . . an 1 · · · an n 2. Addition der j-ten Zeile zur i-ten Zeile (Typ 3): a1 1 ··· a1 n .. .. .. . . . ai 1 + aj 1 · · · ai n + aj n .. .. ... . . a ··· aj n j1 . . . .. .. .. an 1 ··· an n 3. Subtraktion der i-ten Zeile von der j-ten Zeile (Typ 3): a1 1 ··· a1 n .. .. .. . . . ai 1 + aj 1 ··· ai n + aj n . . . . . . . . . a − (a + a ) · · · a − (a + a ) j1 i1 j1 jn in jn .. .. ... . . ··· an 1 a1 1 .. . ai 1 + aj 1 .. = . −a i1 . .. an 1 ··· a1 n .. .. . . · · · ai n + aj n .. ... . ··· −ai n .. .. . . ··· an n 90 an n 4. Addition der j-ten Zeile zur i-ten a1 1 .. . ai 1 + aj 1 − ai 1 .. . −ai 1 .. . an 1 a1 1 .. . aj 1 . = .. −a i1 . .. an 1 ··· .. . ··· ... Zeile (Typ 3): ··· ... a1 n .. . · · · ai n + aj n − ai n .. .. . . ··· −ai n .. ... . ··· an n a1 n .. . aj n .. . · · · −ai n .. .. . . · · · an n 5. Multiplikation der j-ten Zeile a1 1 .. . aj 1 . .. a i1 . .. an 1 mit −1 (Typ 2): · · · a1 n .. ... . · · · aj n .. 0 .. . . =A · · · ai n .. ... . · · · an n Betrachtung der Determinante von A0 : Da die Determinante einer Matrix invariant gegenüber Typ-3-Zeilenumformungen ist, wirkt sich nur die Typ-2-Zeilenumformung, die Multiplikation einer Zeile mit −1, auf die Determinante aus: Aufgrund der Linearität der Determinante in einer Zeile, muss die Determinate durch diese Operation ebenfalls mit −1 multipliziert werden: a1 1 · · · a1 n a1 1 · · · a1 n .. .. .. .. .. .. . . . . . . aj 1 · · · aj n aj 1 · · · aj n . .. .. = − .. ... ... .. . . . −a a · · · −a · · · a i1 i1 i n in . . .. .. .. .. .. .. . . . . an 1 · · · an n an 1 · · · an n 91 • Vertauschung der i-ten und der j-ten Spalten in der Matrix A ∈ M (n×n, K) mit Hilfe von Typ-2- und Typ-3-Spaltenumformungen: analog Folgerung: Vertauschung von zwei Zeilen (Spalten) bewirkt eine Vorzeichenänderung der Determinanten. Folgerung: Die Determinante kann als Produkt der Diagonalelemente einer oberen Dreiecksmatrix nach elementaren Typ-1- und Typ-3-Zeilenumformungen (Spaltenumformungen) bestimmt werden, wobei für jeden Zeilentausch (Spaltentausch) noch mit −1 multipliziert werden muss. Beispiel: • Matrix A: 1 1 2 A = 1 1 3 2 3 3 • Subtraktion der ersten Zeile von der zweiten Zeile: 1 1 2 0 0 1 2 3 3 • Subtraktion des zweifachen der ersten 1 1 0 0 0 1 Zeile von der dritten Zeile: 2 1 −1 • Vertauschung der zweiten und der dritten Zeile: 1 1 2 0 1 −1 = A0 0 0 1 Anzahl der Vertauschungen: i = 1 • Bestimmung der Determinante von 1 1 0 det A = 0 1 0 0 A0 : 2 −1 = 1 · 1 · 1 = 1 1 • Bestimmung der Determinante von A: det A = (−1)i · det A0 = −1 · 1 = −1 92 Beobachtung: Man kann zeigen, dass die Determinante einer Matrix A nach beliebigen Zeilen und beliebigen Spalten entwickelt werden kann: • Entwicklung nach der k-ten Zeile: det A = n X (−1)k+j · det Ak j j=1 • Entwicklung nach der l-ten Spalte: det A = n X (−1)i+l · det Ai l i=1 Beispiel: 7 3 0 −1 7 3 −1 2 4 0 5 = (−1)3+3 · 2 · 2 4 5 8 −5 2 4 2 1 0 2 1 0 0 3 −1 7 −1 −1· = 2 · 2 · 2 5 4 5 = 2 · (2 · 19 − 1 · 37) = 2 Beobachtung: Die Determinanten einer Matrix A und der zu A transponierten Matrix At sind gleich: det A = det At 2.9.3 Cramer’sche Regel Regel: Sei A ∈ M (n × n, K) eine Matrix mit rg A = n und ~b ∈ K n ein Vektor. Hat das lineare Gleichungssystem aus A und ~b eine eindeutige Lösung, dann lässt sich diese Lösung folgermaßen bestimmen: x1 x2 det Ai ~x = .. mit xi = det A . xn Dabei ist Ai die Matrix, die man erhält, wenn man die i-te Spalte von A durch ~b ersetzt. 93 Beispiel: Es ist Lösung des folgenden linearen Gleichungssystem zu bestimmen: 2x1 + 3x2 = 5 2 3 x1 5 ↔ · = x1 − 2x2 = 2 1 −2 x2 2 Anwendung der Cramer’schen Regel: 5 3 2 −2 −10 − 6 16 = x1 = = −4 − 3 7 2 3 1 −2 2 5 1 2 4−5 1 = = x2 = −4 − 3 7 2 3 1 −2 2.9.4 Anwendungen von Determinanten Festlegung: Im Folgenden werden Punkte wie die Ortsvektoren dieser Punkte behandelt. Definition: Es wird eine Funktion mydet : K 2 × K 2 × K 2 → K definiert: px qx rx mydet(~p, ~q, ~r) = py qy ry 1 1 1 Beobachtung: Jeder Ortsvektor ~t ∈ R2 zu einem Punkt T lässt sich eindeutig darstellen als Linearkombination der Ortsvektoren p~, ~q und ~r eines Dreiecks P QR: ~t = a · p~ + b · ~q + c · ~r mit a + b + c = 1 Die Zahlen a, b und c heißen die baryzentrischen Koordinaten oder auch Schwerpunktskoordinaten. Befinden sich nämlich die Massen a, b und c mit Gesamtmasse 1 an den Punkten P , Q und R, dann ist T der Schwerpunkt. Mit der Cramer’schen Regel werden a, b und c als Lösung eines linearen Gleichungssystem dann wiefolgt bestimmt: a = mydet(~t, ~q, ~r) mydet(~p, ~q, ~r) b = mydet(~p, ~t, ~r) mydet(~p, ~q, ~r) c = mydet(~p, ~q, ~t) mydet(~p, ~q, ~r) 94 Beobachtung: Mit Hilfe der baryzentrischen Koordinaten lässt sich in der Computergrafik Warping realisieren: Beobachtung: Seien p~, ~q, ~r ∈ R2 Ortsvektoren der Punkte P , Q und R. • Die Punkte P , Q und R liegen genau dann auf einer Linie, wenn mydet(~p, ~q, ~r) = 0 −→ • Der Punkt R liegt genau dann links von der gerichteten Geraden P Q, wenn mydet(~p, ~q, ~r) > 0 −→ • Der Punkt R liegt genau dann rechts von der gerichteten Geraden P Q, wenn mydet(~p, ~q, ~r) < 0 • Die Fläche es von P , Q und R aufgespannten Dreiecks beträgt: mydet(~p, ~q, ~r) 2 95 Beispiel: Seien P = (−2, −3), Q = (3, 5) und R = (8, 14) Punkte in R2 : Bestimmung von mydet: −2 3 8 −3 5 14 = −10 + 42 − 24 − 40 + 9 + 28 = 5 > 0 1 1 1 −−−−−−−−−→ Daraus folgt, dass (8, 14) links von der gerichteten Geraden (−2, −3)(3, 5) liegt und dass die Fläche des von den drei Punkten aufgespannten Dreiecks 2,5 beträgt. Beobachtung: Diese Eigenschaften lassen sich auch auf höhere Dimensionen übertragen. Seien P , Q, R und S Punkte in R3 , dann ist px qx rx sx 1 py qy ry sy · 6 pz qz rz sz 1 1 1 1 das Volumen des von den vier Punkten aufgespannten Simplexes. Falls die vier Punkte auf einer Ebene liegen, ist der Wert 0. 96 Definition: Für A ∈ M (n×n, K) wird die komplementäre Matrix à = (ãi j )(i,j)∈n2 definiert durch: ãi j = (−1)i+j · det Aj i Dabei ist Aj i die Matrix, die man aus A durch Streichen der j-ten Zeile und der i-ten Spalte enthält. Beobachtung: Man kann leicht nachrechnen, dass auf der Diagonalen von A· à immer det A steht, denn das is die Zeilenentwicklung von det A. Mit etwas mehr Aufwand kann man zeigen, dass sonst nur Nullen in A · à auftreten: det A 0 ··· ··· 0 .. .. . . 0 . det A . . . . . . . .. .. .. .. A · à = .. . . . . . det A .. .. 0 0 ··· ··· 0 det A Folgerung: Ist det A 6= 0, dann ist A invertierbar und A−1 = à det A Spezialfall: Für A ∈ M (2 × 2, K) gilt: −1 1 a b d −b = · für ad − bc 6= 0 c d −c a ad − bc Satz: Für alle A, B ∈ M (n × n, K) gilt: det(A · B) = det A · det B Folgerung: Man kann jeden Endomorphismus f : K n → K n eindeutig seine Determinante zuordnen als det A für diese Matrix A von f bezüglich der Standardbasis. Satz: Sei f : K n → K n ein Endomorphismus, A die zu f gehörende Matrix bezüglich der Standardbasis und B eine zu f gehörende Matrix bezüglich einer anderen Basis, dann gilt: det A = det B 97 ... Vorlesung vom 19.12.2002 (fehlt) 98 2.10 Euklidische Vektorräume Definition: Sei V ein reeller Vektorraum. Ein Skalarprodukt über V ist eine Abbildung < , >: V × V → R mit folgenden drei Eigenschaften: 1. Biliniarität, d.h. für jedes ~v ∈ V sind die Abbildungen • < , ~v >: V → R mit w ~ 7→< w, ~ ~v > oder • < ~v , >: V → R mit w ~ 7→< ~v , w ~> sind linear. 2. Symmetrie, d.h. < ~v , w ~ >=< w, ~ ~v > für alle ~v , w ~ ∈V. 3. Positive Definitheit, d.h. < ~v , ~v >> 0 für alle ~v 6= ~0. Ein Euklidischer Vekttorraum ist ein reeller Vektorraum mit einem Skalarprodukt. Beispiele: 1. V = Rn , Standardskalarprodukt: h(x1 , x2 , . . . xn ), (y1 , y2 , . . . yn )i = x1 y1 · x2 y2 + . . . + xn yn h(1, 5, 0, 3), (3, 0, 7, −4)i = 3 + 0 + 0 + (−12) = −9 2. V = {f : [−1, 1] → R | stetige Funktion} Z 1 f (x)g(x)dx hf, gi := −1 Definition: Die Norm eines Vektors ~v in einem Euklidischen Raum ist definiert durch k~v k = h~v , ~v i Beispiel: k(1, 2, 0, 2, 4)k = √ 1 + 4 + 0 + 4 + 16 = √ 25 = 5 Das ist auch der Abstand zwischen (0, 0, . . . 0) und (1, 2, 0, 2, 4) in R5 . Beispiel: in R3 . . . 99 Satz (Ungleichung von Cauchy-Schwarz): In jedem Euklidschen Vektorraum gilt für alle ~u, ~v ∈ V |h~u, ~v i| ≤ k~uk · k~v k Speziell für Rn mit ~u = (a1 , a2 , . . . an ) und ~v = (b1 , b2 , . . . bn ): q q 2 2 2 |a1 b1 + a2 b2 + . . . + an bb | ≤ a1 , a2 , . . . an · b21 , b22 , . . . b2n Für V = {f : [−1, 1] → R | stetige Funktion}: sZ Z 1 | 1 1 (f (x))2 dx · f (x)g(x)dx| ≤ −1 sZ −1 (g(x))2 dx −1 Beweis: 1. Fall 1: ~v = ~0, dann ergibt die Cauchy-Schwarz-Ungleichung 0 = 0 (also korrekt) 2. Fall 2: ~v 6= ~0 λ := h~u, ~v i h~u, ~v i = h~v , ~v i k~v k2 Nun betrachtet man: 0 ≤ h~u − λ~v , ~u − λ~v i = h~u, ~u − λ~v i − λh~v , ~u − λ~v i = h~u, ~ui − λh~u, ~v i − λh~v , ~ui + λ2 h~v , ~v i h~u, ~v i2 h~u, ~v i2 · k~v k2 + = k~uk2 − 2 · k~v k k~v k4 h~u, ~v i2 = k~uk2 − k~v k2 Also: h~u, ~v i2 ≤ k~uk2 · k~v k2 ⇒ |h~u, ~v i| ≤ k~uk · k~v k Satz: Die Norm in einem Euklidischen Vektorraum hat die folgenden Eigenschaften: 1. k~v k ≥ 0 für alle ~v ∈ V 2. k~v k = 0 ⇔ ~v = ~0 3. kλ~v k = |λ|k~v k 4. k~v + ~u ≤ k~v k + k~ukk 100 Beweis: 1. kλ~v k = = = = = p hλ~v , λ~v i p λh~v , λ~v i p λ2 h~v , ~v i √ p λ2 · h~v , ~v i |λ|k~v k 2. (k~v k + k~uk)2 = ≥ = = k~v k2 + 2k~v kk~uk + k~uk2 k~v k2 + 2h~v , ~ui + k~uk2 h~v , ~v i + 2h~v , ~ui + h~u, ~ui ... Beispiel: Normale Dreiecksungleichung aus der Geometrie: GRAFIK Winkel: Für ~v , w ~ ∈ V definieren wir den Öffnungswinkel α(~v , w) ~ = arccos h~v , wi ~ k~v kkwk ~ GRAFIK mit ~v = (1, 0) und w ~ = (2, 2) 1·2+0·2 √ ^(~v , w) ~ = arccos √ 1 + 0 + 22 22 2 √ = arccos 2· 2 π = = 45◦ 4 In Kosinussatz die Formel einsetzen. c2 = a2 + b2 − 2ab cos ϕ c2 = h~u − ~v , ~u − ~v i = h~u, ~ui + h~v , ~v i − 2h~u, ~v i = k~uk2 + k~v k2 − 2k~ukk~v k · = a2 + b2 − 2ab cos ϕ h~u, ~v i ϕ = arccos k~ukk~v k GRAFIK: Kosinus- (0 → π) und Arcuskosinus-Funktion 101 h~u, ~v i k~ukk~v k Definition: Zwei Vektoren ~u und ~v in einem Euklidischen Vektorraum (V, h , i) heißen orthogonal (senkrecht) zueinander, wenn h~u, ~v i = 0 ist. ^(~u, ~v ) = π 2 ⇔ h~u, ~v i = 0 ⇔ ~u steht senkrecht auf ~v Schreibweise: ~u⊥~v Für eine Teilmenge M ⊆ V schreibt man M ⊥~u, falls h~v , ~ui = 0 für alle ~v ∈ M . Definition: Das orthogonale Komplement M ⊥ einer Menge M ⊆ V ist definiert als M ⊥ = {~u ∈ V | M ⊥~u} GRAFIK: einige Vektoren aus M (auf einer Linie) und einige aus M ⊥ (auch auf einer Linie, aber orthogonal zu den aus M ) Satz: Die Menge M ⊥ ist ein Unterraum. Beweis: • Der Nullvektoren gehört zu M ⊥ . • Addition: ~u, u~0 ∈ M ⊥ ⇒ h~u, ~v i = hu~0 , ~v i = 0 für alle ~v ∈ M = h~u + u~0 , ~v i = h~u, ~v i + hu~0 , ~v i = 0 ⇒ ~u + u~0 ∈ M ⊥ • Multiplikation: . . . Definition: Eine Menge von Vektoren ~v1 , ~v2 , . . . ~vr wird Orthonormalsystem genannt, falls k~vi k = 1 für alle i = 1, 2, . . . r und h~vi , ~vj i = 0 für alle i 6= j. kürzer: 1 falls i = j h~vi , ~vj i = δi j = 0 sonst Beispiel: Standardbasis für 4D. Lemma 1: Die Vektoren eines Orthogonalsystem sind linear unabhängig. 102 Beweis: Angenommen λ1~v1 + λ2~v2 + . . . + λr~vr = ~0. Zeige: λ1 = λ2 = . . . = λr = 0 0 = h~0, ~vi i = hλ1~v1 + λ2~v2 + . . . + λr~vr , ~vi i = λ1 h~v1 , ~vi i + . . . + λi h~vi , ~vi i + . . . + λr h~vr , ~vi i | {z } | {z } | {z } =0 =1 =0 = λi Lemma 2: Ist {~v1 , ~v2 , . . . ~vn } eine orthonormale Basis von V , so gilt für jedes ~v ∈ V die folgende Entwicklungsformel: n X ~v = h~v , ~vi i~vi i=1 Beweis: Nachrechnen 1 0 0 0 , 1 , 0 Beispiel: 0 0 1 2 1 0 0 3 = (2 + 0 + 0) 0 + (0 + 3 + 0) 1 + (0 + 0 + 0) 0 0 0 0 1 Lemma 3: Ist ~v1 , ~v2 , . . . ~vr ein Orthonormalsystem in V und U = Lin({~v1 , ~v2 , . . . ~vr }), so hat jedes ~v ∈ V eine eindeutige Darstellung ~v = ~u + w ~ mit ~u ∈ U und w ~ ∈ U⊥ Dabei ist ~u = r X h~v , ~vi i~vi i=0 und w ~ = ~v − ~u √ 2 √2 2 2 ! , k~v1 k = 1 Beispiel: V = R2 , r = 1, ~v1 = 3 ~v = = ~u + w ~ wobei ~u ∈ Lin(~v1 ) und w⊥~ ~ v1 2 103 GRAFIK: U mit ~v1 und U ⊥ , außerdem ~v , ~v wird auf U und U ⊥ projiziert ~u = h~v , ~v1 i~v1 √ ! √ 5 2 √22 = 2 2 2 5 2 = 5 2 5 1 3 2 w ~ = − 25 = 1 − 2 2 2 Satz (Erhard Schmidt’sches Orthonormalisierungsverfahren): Sei {~v1 , ~v2 , . . . ~vr } linear unabhängig, dann bilden die Vektoren ṽ1 = ṽk+1 ~v1 k~v1 k P ~vk+1 − ki=1 h~vk+1 , ṽi iṽi für k = 1, 2, . . . r − 1 = Pk ~vk+1 − i=1 h~vk+1 , ṽi iṽi ein Orthonormalsystem mit den Eigenschaften, dass Lin({~v1 , ~v2 , . . . ~vi }) = Lin({ṽ1 , ṽ2 , . . . ṽi }) für i = 1, 2, . . . r. 104 2 −3 1 Beispiel: ~v1 = 2 , ~v2 = −1 , ~v3 = 2 0 0 3 √2 2 √2 1 ṽ1 = √ 2 = 22 8 0 0 √2 −3 √ √2 ṽ2 − h~v2 , ṽ1 iṽ1 = −1 − (−2 2) 22 0 0 −3 2 = −1 + 2 0 0 −1 = 1 0 −1 1 0 ṽ2 = −1 1 0 − √2 = √2 2 2 0 √ √ 1 3 2 2 2 − ṽ1 − ṽ2 2 2 3 ṽ3 3 1 1 −2 2 = 2 − 32 − 12 3 0 0 . . = . = . . . Normieren Definition: Orthogonale Projektion von ~v in den Unterraum U = Lin(~v1 , ~v2 , . . . ~vr ) PU (~v ) = h~v , ~v1 i · ~v1 + . . . + h~v , ~vr i · ~vr ∈ U w ~ := ~v −PU (~v ) , man kann zeigen, dass w⊥U ~ , d.h. w ~ ∈ U ⊥ , folglich ist PU (w) ~ = ~0 105 GRAFIK Die Orthonormalprojektion PU : V → U hat die folgenden zwei Eigenschaften: • PU beschränkt auf U ist die identische Abbildung 2 Beispiel: U = Lin in V = R2 1 Aufgabe: Berechne die Matrix der Projektion PU . GRAFIK: Gerade y = 1 x 2 1 0 mit Projektion der Basisvektoren und auf 0 1 die Gerade 1. Orthonormalbasis für U ~v1 ṽ1 2 = 1 2 2 1 1 = √ = = 2 5 1 √2 5 √1 5 ! √2 5 √1 5 ! √2 5 √1 5 ! 2. Projektion PU (~v ) = h~v , ṽ1 i · ṽ1 Setze für ~v die Basisvektoren ~e1 und ~e2 ein: !+ * √2 1 1 · PU = , √15 0 0 5 !+ * √2 0 0 PU · = , √15 1 1 5 3. Matrix: 4 5 2 5 2.11 2 5 1 5 4 = 5 2 5 2 = 5 1 5 0,8 0,4 = 0,4 0,2 Affiner Raum (intuitiver Zugang) Motivation: Anwendung des Skalarprodukts in der affinen Geometrie Mengen: • V Vektorraum (hier über R, d.h. V = R2 , R3 ) • A Punktmenge 106 Operationen: • Punkt + Vektor 7→ Punkt • Punkt − Punkt 7→ Vektor GRAFIK: zwei Punkte p und q und ein Verbindungsvektor ~v mit ~q = p + ~v ~v = q − p Eigenschaft: p + (~v + w) ~ = (p + ~v ) + w ~ Standardmodell für A ist V selbst. affiner Unterraum: U ⊆ V Untervektorraum, p ∈ A p + U = {p + ~u | ~u ∈ U } Beispiele: • affine Unterräume in A = R2 : – Punkte (dim U = 0) – Geraden (dim U = 1) – ganz R2 (dim U = 2) • affine Unterräume in A = R3 : – Punkte (dim U = 0) – Geraden (dim U = 1) – Ebenen (dim U = 2) – ganz R3 (dim U = 3) Geradengleichungen: V = A = R2 1. Gerade durch einen Punkt und parallel zu einem Vektorunterraum • U ⊆ V ist ein 1-dimensionaler Vektorunterraum U = {λ~u | λ ∈ R} • p∈A 107 Gerade durch p parallel zu U in Parameterdarstellung: L = {p + λ~u | λ ∈ R} 2. Gerade durch zweu Punkte: • p = (x, y) • p0 = (x0 , y 0 ) Schreibweisen: L = {p + λ(p0 − p) | λ ∈ R} = {q = (xq , yq ) | xq = x + λ(x0 − x), yq = y + λ(y 0 − y), λ ∈ R} = {q = (xq , yq ) | xq (y 0 − y) − x(y 0 − y) = yq (x0 − x) − y(x0 − x)} | {z } | {z } =λ(x0 −x)(y 0 −y) = {q = (xq , yq ) | axq + byq = c} =λ(x0 −x)(y 0 −y) (Koordinantendarstellung von L) mit a = y 0 − y, b = x0 − x und c = −y(x0 − x) + x(y 0 − y) HNS: GRAFIK: Gerade L und parallele Gerade UL durch den Ursprung und Normalenvektor ~n, außerdem PUL (q − 0) und w ~ = d · ~n • Normalenvektor ~n von L ist senkrecht zu UL und k~nk = 1 • Abstand d von (0, 0) zu L, d.h. (0, 0) + d · ~n ∈ L Hesse-Normalform von L: L = {q | hq − 0, ~ni = d} Das heißt: hq − 0, ~ni = = = = hPUL (q − 0), ~ni + hw, ~ ~ni 0 + hd~n, ~ni dh~n, ~ni d Bestimmung der Hesse-Normalform aus der Parameterform: L = {p + λ~v | λ ∈ R} Aufgabe: Bestimme ~n und d! 1. ṽ = ~v k~v k Orthonormalbasis von UL 2. ~n0 = d~n = (p − 0) − PUL (p − 0) = (p − 0) − h(p − 0), ṽi · ṽ 3. d = k~n0 k und ~n = ~ n0 d 108 ... Vorlesung vom 16.02.2002 (fehlt) 109 ... Vorlesung vom 21.02.2002 (fehlt) 110 Kapitel 3 Endliche Körper und Codierungstheorie 3.1 3.1.1 Restklassenarithmetik ... ... Vorlesung vom 21.02.2002 (fehlt) 111 252 158 54 36 = = = = 1 · 138 + 54 3 · 53 + 36 1 · 36 + 18 2 · 18 + 0 Die Umkehrung des Euklidischen Algorithmus liefert eine Darstellung des ggT(a, b) als Linearkombination aus a und b mit ganzzahligen Koeffizienten. 18 = = = = = 54 − 1 · 36 (36 = 198 − 3 · 54) 54 − (198 − 3 · 54) 4 · 54 − 198 (54 = 252 − 198) 4 · (252 − 198) − 198 4 · 252 − 5 · 198 Satz: Sind a, b ∈ Z+ , dann existieren r, s ∈ Z, so dass ggT(a, b) = r · a + s · b. Satz: Seien m und a zwei positive, teilerfremnde Zahlen, dasnn gibt es genau ein b ∈ {1, 2, . . . m − 1}, so dass a · b ≡ 1(modm). Beweis: ggT(a, m) = 1 = r · a + s · m für geeignete r, s ∈ Z. Setzen b := r mod m ∈ {6 0, 1, . . . m − 1}. • b ≡ r(modm) • a ≡ a(modm) • 0 ≡ s · m(modm) • • a · b ≡ r · a(modm) • a · b + 0 ≡ r · a + s · m(modm) ≡ 1(modm) Eindeutigkeit: Angenommen a · b ≡ a · c ≡ 1(modm) und 0 < c ≤ b ≤ m − 1 a · (b − c) ≡ 1| {z − 1}(modm) =0 a · (b − c) ist durch m teilbar ⇒ (b − c) is durch m teilbar und 0 ≤ b − c < m − 1 ⇒ b − c = 0 ⇒ b = c ⇒ Eindeutigkeit 112 Folgerung: Ist p eine Primzahl und a ∈ {1, 2, . . . p − 1}, dann gibt es ein eindeutiges b ∈ {1, 2, . . . p − 1}, so dass a · b ≡ 1(modp). b wird die zu a inverse Zahl bezüglich p genannt. Folgerung: Die Zahlen {0, 1, . . . p − 1}, wobei p Primzahl, bilden mit der Addition und Multiplikation modulo p einen Körper. Dieser Körper wird mit Zp oder mit GF(p) bezeichnet. Beispiel: Z7 = {0, 1, 2, 3, 4, 5, 6}: 4+5 = 2 4·4 = 2 1·1 6·6 2·8 3·5 = = = = 1 1 1 1 3 · x = 4 | · 3−1 5 · 3 ·x = 5 · 4 = 6 |{z} =1 Beispiel: Löse 7 · x = 5 in Z17 . Inverses zu 7 mod 17: 17 3 7 1 −1 7 = = = = = 2·7+3 17 − 2 · 7 2·3+1 7 − 2 · 3 = 7 − 2 · (17 − 2 · 7) = 5 · 7 − 2 · 17 (5 mod 17) = 5 7·x = 5 |·5 1·x = 5·5=8 Chinesischer Restklassensatz: Seien m1 , m2 , . . . mn ∈ Z+ paarweise teilerfremd und m = m1 · m2 · mn , dann gibt es für beliebige a1 , a2 , . . . an ∈ Z eine Zahl 113 x ∈ {0, 1, . . . m − 1}, so dass die folgenden Komvergenzen erfüllt sind: x ≡ a1 (modm1 ) x ≡ a2 (modm2 ) .. . x ≡ an (modmn ) Beispiel: m1 = 99, m2 = 100, m3 = 101, a1 = 80, a2 = 63, a3 = 27 Beweis: 1. Finde Zahlen, die ≡ 1(modmi ) und ≡ 0(modmj ) mit j 6= i sind m M1 = = m2 · m3 · . . . · mn m1 m = ... M2 = m2 .. . m Mn = = ... mn ggT(mk , Mk ) = 1 d.h. ∃yk ≡ 1(modmk ) Mk · yk ≡ 1 (mod mk ) Das sind diese Zahlen, denn Mk · yk is duch jedes ml (l 6= k) teilbar, d.h. Mk · yk ≡ 0(modml ). Setze x = (a1 · y1 · M1 + . . . + an · yn · Mn ) mod m Prüfe, dass alle Kongruenzen erfüllt sind. Kleiner Satz von Fermat: Ist p eine Primzahl, dann gilt für jede nicht durch p teilbare Zahl a ∈ Z: ap−1 ≡ 1 (mod p) Beispiele: • Wähle p = 7 und a = 2: a6 = 64 64 ≡ 1 (mod 7) • Wähle p = 7 und a = 3: a6 = 729 729 ≡ 1 (mod 7) 114 3.1.2 RSA-Kryptosysteme Teilnehmen (party) verschicken Nachrichten m ∈ {0, 1}n : Alice m ↓ E(m) ∈ {0,1}l(n) Bob D(E(m)) = m ↓ E(m) Gegener (adversary) Eve ↓ E(m) ↓ m ? Rivers, Shamir, Adlerman 78 • p, q zwei große Primzahlen • n=p·q • e ∈ Z: ggT(e, (p − 1)(q − 1)) = 1 • d ∈ Z: d · e ≡ 1 (mod (p − 1)(q − 1)) 1. Bob gibt n, e bekannt (p, q, d geheim) 2. Alice verschlüsselt Nachricht m (|m| < log n): m0 = E(m) := me mod n 3. Bob entschlüsselt m0 : D(m0 ) := m0d mod n Behauptung: D(E(m)) = m Beweis: d · e = 1 + k · (p − 1)(q − 1) Zu zeigen: (me )d = m1+k(p−1)(q−1) ≡ m (mod n) genügt zu zeigen (Chinesicher Restsatz): (me )d ≡ m (mod p) und (me )d ≡ m (mod q) 115 1. Fall 1: m ≡ 0 (mod p) (trivial) 2. Fall 2: (me )d ≡ m · (mp−1 )(q−1)·k ≡ m · 1(p−1)·k (mod p) (md )d ≡ m (mod p) Authetisierung mit RSA: • 2’): Alice schickt Zufallsstring m • 3’): Bob schickt m0 = D(m) zurück • 4’): Alice überprüft E(m0 ) = m ? Vorteile: • Parameter leicht zu erzeugen (randomisierter Primzahltest) • Ver- und Entschlüsselung leicht zu berechnen (Spezialchip) • sicher in der Praxis (unter Einhaltung bestimmter Regeln) Nachteile: • nur sicher, wenn es keine effiziente Algorithmen zur Faktorisierung gibt • möglicherweise auch ohne Faktorisierungsalgorithmus zu brechen • mit Quantencomputern ist Faktorisierung in Polynomialzeit möglich (P. Shor) Aufgabe: Kryptographie auf Grundlage N P -schwerer Probleme. 3.2 Grundbegriffe der Codierungstheorie Corierungstheorie – Verschlüsselung von Informationen unter den folgenden Aspekten: 1. Codierung soll helfen, eine Information geheim zu halten. 116 2. Codierung soll so kurz wie möglich sein 3. Fehler in der Übertragung sollten erkanntund korrigiert werden. Teilgebiete: 1. Kryptographie (RSA, Einwegfunktionen, Pseudozufallsgeneratoren, ...) 2. Datenkompression (Hufman, ...) 3. Fehlerkorrigierende Codes (Hamming Code, linearer Code, ...) Modell: Reininformation ↓ Verschlüsselte Information Kanalcodierung ↓ Sender Reininformation ↑ Verschlüsselte Information ↑ Empfänger Quellencodierung Kanal ⇑ Störung Kanalalphanet: Q, |Q| = q, häufig Q = {0, 1}, q = 2 Definition: Eine (Kanal-)Codierung ist eine injektive Funktion c : I → Qn , wobei I eine Informationsmenge ist (z.B. Alphabet oder bereits Menge der Codewörter aus einer Quellcodierung). Das Bild C = Im c wird ein Code genannt. Hier besteht der Code nur aus Wörtern gleicher Länge, das nennt man einen Blockcode. Definition: Seinen v = (v1 , v2 , . . . vn ) und w = (w1 , w2 , . . . wn ) ∈ Qn . Wir definieren den Hamming-Abstand der Worte v und w als Anzahl der Stellen, an denen sie sich unterscheiden: d(v, w) = |{i | 1 ≤ i ≤ n und vi 6= wi }| Beispiel: d((0,1,0,1,0,0,1), (0,1,1,0,1,1,1)) = 4 Beobachtung: Der Hamming-Abstand hat alle Eigenschaften einer Abstandsfunktion, d.h. für alle u, v, w ∈ Qn gilt: 1. d(u, v) ≥ 0 und d(u, v) = 0 ⇔ u = v 2. d(u, v) = d(v, u) 3. d(u, v) + d(v, w) ≥ d(u, w) (Dreiecksungleichung) 117 Quellencodieru Kanalcodierun Definition: Die Minimalabstand eines Codes C ⊆ Qn ist d(C) := min({d(c, c0 ) | c 6= c0 , c, c0 ∈ C}) Wir verwenden c, c0 , c1 , c2 für Codewörter und allgemein u, w, v für Wörter aus Qn . Beispiel: c : {a, b, c, d} a b c d → 7→ 7→ 7→ 7→ Q3 (0, 0, 0) (0, 1, 1) (1, 0, 1) (1, 1, 0) C = {(0, 0, 0), (0, 1, 1), (1, 0, 1), (1, 1, 0)} d(C) = 2 Prinzip: Wird ein Wort w ∈ Qn empfangen, so sucht man ein (oder besser das) Codewort c mit minimalem Abstand zu w. Wann ist c richtig? Empfangen w ∈ Qn : 1. w ∈ / C, dann ist ein Fehler aufgetreten 2. Wenn wir wissen, dass höchstens 1 Fehler aufgetreten ist, und c ∈ C ist das einzige Codewort mit d(w, c) = 1, dann ist c das ursprüngliche Codewort. Definition: Ein Code C ist k-fehlererkennend, wenn bei jedem empfangengenen Wort w, das ≤ k Fehler, enthält, erkannt wird, ob Übertragungsfehler aufgetreten sind. Definition: Ein Code C ist k-fehlerkorrigierend, wenn bei jedem empfangenen Wort, das ≤ k Fehler erhält, die Fehler korrigiert werden könnn, d.h. dass das ursprüngliche Codewort bestimmt werden kann. Definition: Für v ∈ Qn definieren wir die Kugel mit Radius t um v durch Bt (v) = {w ∈ Qn | d(v, w) ≤ t} GRAFIK: von Henning übertragen 118 Satz: C ist k-fehlerkorrigierend genau dann, wenn ∀c 6= c0 ∈ C Bk (c)∩Bk (c0 ) = ∅ genau dann, wenn d(C) ≥ 2k + 1 (Minimalabstand von C) Beweis: • Erste Äquivalenz: bei der Üertragung von c treten ≤ k Fehler auf, dann liegt empfangenes Wort w ∈ Bk (c), d.h. w gehört eindeutig zu c. • Zweite Äquivalenz: GRAFIK: von Henning übertragen Satz: C ist k-fehlererkennend genau dann, wenn ∀c ∈ C Bk (c) ∩ (C\{c}) = ∅ genau dann, wenn d(C) ≥ k + 1. Beweis: wie oben Beispiele: Einfache Konstruktion mit Paritätsbits und Mehrfachcodierung: I = Qm mit Q = {0, 1} 1. Paritätsbit: cpar : Qm → Qm+1 cpar (v1 , v2 , . . . vm ) = ( v1 , v2 , . . . vm , p ) mit p = v1 + v2 + . . . + vm (mod 2) | {z } gerade Anzahl von 1 Daraus folgt: Cpar = Im cpar hat den Minimalabstand 2, d.h. Cpar ist 1fehlererkennend. 2. Doppelcodierung: c2 : Qm → Q2m c2 (v1 , v2 , . . . vm ) = (v1 , v2 , . . . vm , v1 , v2 , . . . vm ) Daraus folgt: C2 = Im c2 hat den Minimalsbstand 2, d.h. C2 ist 1-fehlererkennend. 3. Dreifachcodierung: c3 : Qm → Q3m c3 (v1 , v2 , . . . vm ) = (v1 , v2 , . . . vm , v1 , v2 , . . . vm , v1 , v2 , . . . vm ) Daraus folgt: C3 = Im c3 hat den Minimalsbstand 3, d.h. C3 ist 1-fehlerkorrigierend. 4. Doppelcodierung mit Paritätsbit: c2+par : Qm → Q2m+1 c2+par (v1 , v2 , . . . vm ) = (v1 , v2 , . . . vm , v1 , v2 , . . . vm , p) mit p = v1 +v2 +. . . vm (mod 2) Daraus folgt: C2+par = Im c2+par hat den Minimalabstand 3: 119 • Fall 1: d(v, w) = 1 (v, w ∈ Qm ) ⇒ d(c2+par (v), c2+par (w)) = |1 {z + 1} + |{z} 1 d(v,w) p • Fall 2: d(v, w) ≥ 2 (v, w ∈ Qm ) ⇒ d(c2+par (v), c2+par (w)) ≥ 2 + 2 = 4 d.h. C2+par ist 1-fehlerkorrigierend. 5. Kreuzsicherungscode m = l2 : ckr : Qm → Qm+2l Stelle Elemente von Qm in einer quadratischen Matrix dar und gib für jede Spalte und für jede Zeile das Paritätsbit dazu: v1 v2 · · · vl vl+1 vl+2 · · · v2l .. .. .. . . . . . . v(l−1)+l+1 v(l−1)+l+2 . . . vl2 (Bemerkung: Um Paritätsbits in den Zeilen und Spalten erweitern (Zeilen: pi , Spalten p̄j )) Ckr = Im ckr hat Minimalabstand 3, d.h. ist 1-fehlerkorrigierend. v, w ∈ Qm • d(v, w) ≥ 3 ⇒ d(ccr (v), ccr (w)) ≥ 3 • d(v, w) = 2 dann liegen die zwei Unterschiede in verschiedenen Zeilen i und j oder in verschiedenen Spalten k, k 0 1 d(. . .) ≥ 2 + |{z} 1 + |{z} pi pj • d(v, w)1, sei Unterschied in Zeile i und Spalte j d(. . .) = |{z} 1 + |{z} 1 + |{z} 1 =3 d(u,v) p̄i pj Definition: Die Informationsrate eines Codes C ⊆ Qn ist der Quotient logq |C| n Das beschreibt das Verhältnis der Längen des Infomationsworts und des Codeworts. 120 Beispiele: 1. Für C2+par : m 1 . 2m + 1 2 2. Für Ckr : √ √ √ 2· m 2 m+2· m−2 m √ √ ≈1− √ =1− m+2· m m+2· m m Fragen: 1. Geht es noch besser? 2. Wie korrigiert man 2 und noch mehr Fehler? Idee für eine Verbesserung (Hamming): v = (v1 , . . . v4 ) Q = {0, 1} + 3 Redundanzbits r1 = v2 + v3 + v4 (mod 2) r2 = v1 + v3 + v4 (mod 2) r3 = v1 + v2 + v4 (mod 2) Minimalabstand 3 Codierung durch Matrixmultiplikation 1 0 0 0 1 0 0 0 1 c(v) = 0 0 0 0 1 1 1 0 1 1 1 0 | {z über Z2 : 0 v1 0 v2 v1 v3 0 v2 1 · v3 = v4 r1 1 v 4 r2 1 1 r3 } Generatormatrix Zur Decodierung mit 1-Fehlerkorrektur verwendet 1 0 1 0 1 0 H= 0 1 1 0 0 1 0 0 0 1 1 1 121 man die folgede Prüfmatrix: 1 1 1 Berechnung: v1 v1 v2 v2 v3 v3 1 0 1 0 1 0 1 a1 v1 + v3 + r1 + r3 ... H · v4 = 0 1 1 0 0 1 1 · v4 = a2 = r1 r1 0 0 0 1 1 1 1 a3 ... r2 r2 r3 r3 Daraus folgt: • Fehlererkennung: Es gilt H · w ~ = ~0 genau dann, wenn keine Fehler (oder ≥ 2 Fehler) aufgetreten sind. a1 ~ • Fehlerkorrektur: Wenn H · w ~ 6= 0, dann gibt a2 die Stelle an, an welcher a3 der Fehler aufgetreten ist: 1 0 1. Bit falsch (v~1 ) 0 0 1 2. Bit falsch (v~2 ) 0 1 1 3. Bit falsch (v~3 ) 0 0 0 4. Bit falsch (v~4 ) 1 3.3 Allgemeine Schranken für die Informationsrate Modell eines binären, symmetrischen Kanals: • Kanalalphabet Q = {0, 1}, Bitfolge wird übertragen • Wahrscheinlichkeit, dass i-tes Bit fehlerhaft übertragen wird, ist gleich p < 1 , unabhängig davon, ob dieses Bit 0 oder 1 war. 2 • Die Ereignisse, dass erstes bzw. zweites, drittes . . . Bit falsch übertragen werden, sind unabhängig. 122 Lemma: Die Wahrscheinlichkeit, dass bei der Übertragung eines Wortes der Länge n genau k Fehler auftreten, ist gleich n · pk · (1 − p)n−k k Satz von Shannon: Gegeben ein binärer symmetrischer Kanal mit Fehlerwahrscheinlichkeit p und ε > 0: • Zu jedem R < 1 + p · log2 (p) + (1 − p) · log2 (1 − p) gibt es einen Code C mit Informationsrate ≥ R, so dass die Wahrscheinlichkeit einer falschen Decodierung (bei nächster Nachbar“-Suche) höchstens ” ε ist. • Zu jedem R < 1 + p · log2 (p) + (1 − p) · log2 (1 − p) gibt es eine Konstante KR > 0, so dass jeder Code mit der Informationsrate ≥ R eine Wahrscheinlichkeit ≥ KR für die falsche Decodierung eines Codeworts hat. Definition: Die Kapazität eines binären symmetrischen Kanals mit Fehlerwahrscheinlichkeit p ist: H(p) = 1 + p · log2 (p) + (1 − p) · log2 (1 − p) Nachteile des Shannon-Satzes: 1. Der Satz ist nicht konstruktiv. 2. Wählt man ε klein, dann folgt daraus, dass n sehr groß ist. 3. Nächster Nachbar“-Suche sehr komplex. ” Alternative Ansatz: Wenn |Q| = q und ~r ∈ Qn , dann gilt Bk (~v ) = k X n i=0 i (q − 1)i • i = 0, 1, . . . k: Abstand zu ~v • ni : Stellen, an denen Unterschied zu ~v auftritt • (q − 1)i : Möglichkeiten an diesen Stellen etwas anderes als in ~v zu schreiben 123 Erinnerung: Ein Code C ist genau dann k-fehlerkorrigierend, wenn ∀c 6= c0 ∈ C gilt Bk (c) ∩ Bk (c0 ) = ∅ genau dann, wenn der Minimalsabstand d(C) ≥ 2k + 1 Satz: Sei C ⊆ Qn ein Code mit d(C) ≥ 2k + 1, dann gilt |C| · k X n i=1 i (q − 1)i ≤ q n Beweisidee: Die Kugeln müssen disjunkt sein. Definition: Ein Code C ⊆ Qn mit Minimalabstand d(C) = 2k + 1 ist perfekt, wenn k X n (q − 1)i = q n |C| · i i=1 Beispiel: Der Hamming-Code aus dem letzten Abschnitt ist perfekt. Angaben zu de Code: • q = |Q| = 2 • |C| = 24 • n=7 • d(C) = 3 • k=1 Daraus folgt: |C| · k X n i=1 i (q − 1)i = 24 · (1 + 8) = 27 = 2n Folgerung: Aus der Schranke |C| · k X n i=1 i (q − 1)i ≤ q n kann man ableiten, dass ein binärer k-fehlerkorrigierender Code der Länge n muss ≈ k · log2 n Redundanzbits haben. 124 Satz: Ist s ≤ n und g eine Zahl, die g· s−1 X n i=0 i (q − 1)i ≤ q n erfüllt, dann gibt es in Qn einen Code c mit Minimalabstand s und |C| = g. Beweisidee: Da (g − 1) Kugeln vom Radius s − 1 Qn noch nicht überdecken, folgt daraus, dass C erweitert werden kann. 3.4 Linear Codes Endliche Körper: • Für jede Primzahl p ist Zp ein Körper Zp = {0, 1, . . . p − 1} • Für jede Primzahlpotenz q = pm gibt es einen Körper GF(q), der genau q Elemente hat. Die Körper haben die Charakteristik p, d.h. 1| + 1 + {z. . . + 1} = 0 p GF(q) ist eine Erweiterung von Zp Definition: Ein Code C heißt linear, wenn C ein Untervektorraum eines Hammingraumes H(n, q) ist, wobei H(n, q) die Menge der Wörter der Länge n über GF(q) ist, d.h. H(n, q) ∼ = (GF(q))n Beispiel: Der Hamming-Code aus 3.2 ist ein linearer Code in H(7, 2), denn er ist Bild einer linearen Abbildung (GF(2))4 → (GF(2))7 Die Dimenstion dieses Codes (Unterraumes) ist 4, wir sprechen von einem (7, 4)Code. Beobachtung: Ein (n, k)-Code in H(n, q) hat q k Elemente (q k Linearkombinationen der k Basisvektoren). Dieser Code hat die Informationsrate k 1 1 · logq |C| = · logq q k = n n n 125 Definition: Für ein ~v ∈ H(n, q) ist das Gewicht w(~v ) die Anzahl der Stellen, an denen ~v ungleich 0 ist. Definition: Das Minimalgewicht von C ist definiert als w(C) = min{w(~v ) | ~v ∈ C} ~v 6=~0 Beispiel: Für das Beispiel aus 3.2 ist w(C) = 3. Satz: Für jeden linearen Code C gilt: w(C) = d(C) Das heißt: Das Minimalgewicht ist gleich dem Minimalabstand. Beweis: a) Zu zeigen: w(C) ≥ d(C): w(C) = d(~v , ~0) | {z } ≥ d(C) | {z } für ein ~v ∈ C denn ~v , ~0 ∈ C b) Zu zeigen: w(C) ≤ d(C): d(C) wird realisiert als d(~u, ~v ) für ~u, ~v ∈ C mit ~u 6= ~v : ~0 = ~v − ~v und ~u − ~v ∈ C (Unterraum) Dann folgt: w(C) ≤ w(~u − ~v ) = d(~u − ~v , ~0) = d(~u, ~v ) = d(C) Definition: Generatormatrix von C: ∀xin(GF(q))k G · x ∈ C und G spannt C auf Prüfmatrix/Checkmatix von C ∀v ∈ C H · v = (0) (C = Ker H) 126 Hmmpf: Jeder lineare Code C der Dimension k in H(n, q) kann eindeutig (in Bezug auf den Code) durch eine Generatormatrix G ∈ M (n×k, GF(q)) dargestellt werden: • Wähle Basis von C (als Spaltenvektoren) und stelle aus den k Basisvektoren eine Matrix auf. • Damit beschreibt G eine Codierung c : (GF(q))k → (GF(q))n • Eine Matrix H ∈ M ((n − k) × n, GF(q)) wird Prüfmatrix (Checkmatrix) von C genannt, wenn C der Kern der von H beschriebenen Abbildung: h : (GF(q))n → (GT(q))n−k Achtung: Nach der Dimensionsformel ist n = dim(Ker h) + dim(Im h) = dim C + rg H = k + rg H rg H = n − k Das heißt: Die Zeilen von H sind linear unabhängig. Hmmpf: Für ~v ∈ H(n, q) gilt: ~v ∈ C ⇔ H · ~v = ~0 Satz: G ∈ M (n × k, GF(q)), H ∈ M ((n − k) × n, GF(q)) mit rg G = k und rg H = n − k bilden genau dann ein Paar Generator/Checkmatrix für einen linearen Code C, wenn H · G = (0) Anwendung: Eine Generatormatrix ist in Standardform, wenn sie die Gestalt Ek G= A hat. In diesem Fall ist die Matrix H = (−A En−k ) eine passende Checkmatrix. von Henning abscheiben!!! 127 Satz: C ein (n, k)-Code mit Prüfmatrix H, dann gilt: d(C) ≥ d ⇔ je zwei d − 1 Spalten von H sind linear unabhängig Beweis (⇒): Angenommen H enthält d − 1 linear abhängige Spalten (wir nehmen an, die ersten d − 1), genau dann wenn ∃α1 , α2 , · · · αd−1 (nicht alle 0) so dass α1 · H1 + α2 · H2 + . . . + αd−1 · Hd−1 = 0 genau dann, wenn α ~ = (α1 , . . . αd−1 , 0, . . . 0) 6= 0 Dann: H · ~a = n X αi · Hi = i=1 d−1 X αi · Hi + i=1 n X αi · Hi = 0 i=d d.h. ~a ∈ Ker H = C d(C) = w(C) ≤ w(~ α) ≤ d − 1 Kommentar: α ~ = ā ≤ d − 1 Beweis (⇐): ~v ∈ C, ~v 6= ~0, dann H · ~v = ~0, wenn w(~v ) ≤ d − 1. Das heißt, wir finden ≤ d − 1 Spalten von H die linear abhängig sind. Folgerung: (Fall d = 3 des Satzes) C ist (n, k)-Code mit Prüfmatrix H. d(C) ≥ 3 ⇔ ∃2 Spalten von H sind linear unabhängig Wichtig: Sind keine Spalten von H vielfache von einander, dann ist C 1fehlerkorrigierend. Beispiel: Code aus 3.2 Prüfmatrix: 1 0 1 0 1 0 1 H = 0 1 1 0 0 1 1 0 0 0 1 1 1 1 Aus der Prüfmatrix folgt, dass der Hamming-Code ist 1-fehlerkorrigierend. 128 Weiteres Beispiel: Trippel-Check-Code: Prüfmatrix: −1 −1 0 1 0 0 H = −1 0 −1 0 1 0 0 −1 −1 0 0 1 Generatormatrix: 1 0 0 G= 1 1 0 0 1 0 1 0 1 0 0 1 0 1 1 Das heißt: (a, b, c) 7→ (a, b, c, a + b, a + c, b + c) Typischerweise wird hier der Körper GF(3) benutzt. Allgemeine binäre Hamming-Codes: Ziel: 1-fehlerkorrigierend, hohe Informationsrate n Länge des Codes, H Prüfmatrix n = dim(Ker H) +dim(Im H) {z } | dim C Informationsrate: n−k dim(Ker H) = n n Ist dim(Im H) = k fest, dann wollen wir n groß, damit die Informationsrate groß ist. • Möglichst viele Spalten (⇒ möglichst große Informationsrate) • Alle Spalten verschieden (und 6= ~0) damit der Code 1-fehlerkorrigierend ist Definition: Der binäre Hamming-Code Ham2 k hat als Prüfmatrix die Matrix Hk der n Spalten alle verschiedenen binären Vektoren der Länge k (ohne ~0) Beispiel: Erstes Beispiel: 0 1 1 Ham2 2 H2 = (a) 7→ (a, a, a) textdim = 1 Länge = 3 1 0 1 129 Zweites Beispiel: 1 0 1 0 0 1 1 Ham2 3 H§ = 1 0 0 1 1 0 1 0 1 1 0 1 0 1 Das ist (bis auf Permutation der Spalten) der Hamming-Code von früher dim = 4 Länge = 7 d = 3 Drittes Beispiel: 1 0 Ham2 4 0 0 0 1 0 0 1 1 0 0 0 0 1 0 1 0 1 0 0 1 1 0 1 1 1 0 0 0 0 1 1 0 0 1 0 1 0 1 1 1 0 1 0 0 1 1 1 0 1 1 0 1 1 1 1 1 1 1 Satz: Hamk ist ein linearer Code mit den Parametern d(Hamk) = 3, Länge(Hamk) = 2k − 1, dim(Ham(k)) = 2k − k−1 Informationsrate für große Werte: k 2 −k−1 lim =1 2k − 1 Proposition: Der Hamming-Code Hamk ist 1-perfekt. Erinnerung: C Code mit C ⊆ Qn miz d(C) = 2t − 1 ist perfekt, wenn |C| · t X n k i=0 (q − 1)t = q n (die t-Kugeln um die Codewörter füllen den Raum Qn perfekt aus) Beweis: t = 1, q = 2, n = 2k − 1 k −k−1 |C = ddim C | = 22 Größe der Kugeln: t k X 2 −1 i=0 k |C|Erdk = 22 1 = 1 + (2k − 1) = 2k k −k−1 k −1 · 2k = 22 130 = 2n • Ham3 kann als Ausgangspunkt für die Konstruktor von 3-perfekten Codes genommen werden d() = 7 Galay Codes G23 ist binärer (23, 12)-Code • Codes über adenren Körpern inbesondere GF(2k ) RCH Codes, RS-Codes 131