Jürgen Guddat Lineare Algebra I Kurzfassung der Vorlesung im SS 04 Ausarbeitung: H. Grassmann, P. Mbunga 13. Juli 2004 Inhaltsverzeichnis 1 Reelle Vektorräume 1.1 Der n und seine algebraische Struktur . . . . . . . 1.2 Reelle Vektorräume . . . . . . . . . . . . . . . . . . . 1.3 Lineare Unterräume . . . . . . . . . . . . . . . . . . 1.4 Lineare Unabhängigkeit, lineare Anhängigkeit, Basis, 1.5 Koordinaten eines Vektors . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . Dimesion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lösungen linearer Gleichungssysteme – der Gaußsche Algorithmus 1 1 2 3 4 4 5 3 Einführung in die Matrizenrechnung und Lösbarkeitsbedingungen für lineare Gleichungssysteme 7 4 Affine Räume 4.1 Axiome des affinen Raums, Punktbasen, Koordinatensysteme . . . . . . . . . . . . . . 4.2 Affine Unterräume: Geraden, Ebenen, Hyperebenen . . . . . . . . . . . . . . . . . . . . 8 8 9 5 Lineare Abbildungen von Vektorräumen 5.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Kern und Bild einer linearen Abbildung . . . . . . . . . . . . . . . . . . . 5.3 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . 5.4 Basiswechsel und Koordinatentransformationen . . . . . . . . . . . . . . . 5.5 Eigenvektoren und Eigenwerte einer Matrix bzw. eines linearen Operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 10 11 13 14 6 Determinanten 6.1 Leibnizsche Definition, Regel von Sarrus, Cramersche Regel . . . 6.1.1 Deteminanten 2. Ordnung . . . . . . . . . . . . . . . . . . 6.1.2 Determinanten 3. Ordnung . . . . . . . . . . . . . . . . . 6.2 Die Leibnizsche Definition für eine Determinante n-ter Ordnung 6.3 Eigenschaften von Determinanten . . . . . . . . . . . . . . . . . . 6.3.1 Abgeleitete Eigenschaften von Determinanten . . . . . . . 6.4 Berechnung von Deteminanten . . . . . . . . . . . . . . . . . . . 6.5 Einige Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 16 16 17 18 20 21 21 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reelle Vektorräume n 1.1 Der Sei die Menge der reellen Zahlen. Definition 1.1 und seine algebraische Struktur n := {(x1 , . . . , xn ) | xi ∈ , i = 1, . . . , n} ist die Menge aller n-tupel reeller Zahlen. In n erklärt man die Addition zwischen zwei Elementen und die Multiplikation eines n-tupels mit einer reellen Zahl wie folgt: Definition 1.2 Seien (x1 , . . . , xn ) und (y1 , . . . , yn ) ∈ n , c ∈ . Addition: (x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn ) Multiplikation mit einer reellen Zahl: c · (x1 , . . . , xn ) = (c · x1 , . . . , c · xn ) 1 Die Elemente x = (x1 , . . . , xn ), a = (a1 , . . . , an ) ∈ Satz 1.1 In n werden Vektoren genannt. gelten die folgenden Rechenregeln: n 1. Für alle a, b, c ∈ gilt (a + b) + c = a + (b + c) (Assoziativität) 2. Es gibt einen Vektor o ∈ n , so daß für alle a ∈ Elements, wir nennen es Nullvektor). n 3. Zu jedem Vektor a ∈ inversen Vektors). n 4. Für alle a, b ∈ 5. Für alle c1 , c2 ∈ n ,a ∈ n 7. Für alle c ∈ , a, b ∈ 1.2 gilt a + o = a (Existenz eines neutralen n mit a + (−a) = o (Existenz eines zu a gilt a + b = b + a (Kommutativgesetz). 6. Für alle a ∈ 8. Für alle c1 , c2 ∈ existiert ein Vektor −a ∈ n gilt (c1 c2 )a = c1 (c2 a) (Assoziativgesetz). gilt 1a = a. n ,a ∈ gilt c(a + b) = ca + cb (1. Distributivgesetz). n gilt (c1 + c2 )a = c1 a + c2 a (2. Distrubutivgesetz). Reelle Vektorräume Definition 1.3 (V, +, ·) heißt reeller Vektorraum, wenn V eine nichtleere Menge ist und Abbildungen + : V × V −→ V, · × V −→ V gegeben sind, so daß die Eigenschaften 1.,...,8. aus Satz 1.1 erfüllt sind. Die Elemente von V heißen Vektoren, Die Opreation + heißt Addition von Vektoren, die Operation · heißt Multiplikatioan von Vektoren mit Skalaren. Beispiele: 1. ( n , +, ·) nach Satz 1.1 2. ( , +, ·), dies ist 3. G = {x ∈ n 4. F = {f : −→ 1 = | x = α · a, α ∈ n }, wobei a ∈ , a 6= o gegeben ist }, die Menge aller Funktionen von in Die Operationen in F sind wie folgt erklärt: Seien f, g ∈ F , dann ist die Funktion f + g wie folgt erklärt: (f + g)(x) = f (x) + g(x) für alle x ∈ die Funktion cf, c ∈ , ist durch (cf )(x) = cf (x) für alle x ∈ definiert. Satz 1.2 (F, +, ·) ist ein reeller Vektorraum. Aus den obigen Vektorraumaxiomen lassen sich einige Rechenregeln ableiten, z.B. 1. Das Nullelement (der Nullvektor) eines Vektorraums ist eindeutig bestimmt. 2. Zu jedem Vektor a bibt es genau einen negativen Vektor −a. 3. In V läßt sich wie folgt eine Subtraktion definieren; für a, b ∈ V setzt man a − b = a + (−b). 2 4. Jede Gleichung der Form a + x = x besitzt in V genau eine Lösung x. 5. Weiter gelten die folgenden Regeln für die Multiplikation mit Skalaren: (a) 0 · a = o (b) c · o = o (c) c · a = o ⇔ c = 0 oder a = o (d) −a = (−1)a (e) −ca = (−c)a = c(−a) (f) für beliebige r, s ∈ r(a − b) = ra − rb (r − s)a = ra − sa 1.3 , a, b ∈ V gilt Lineare Unterräume Definition 1.4 Es sei (V, +, ·) ein reeller Vektorraum; eine nichtleere Teilmenge U ⊆ V heißt (linearer) Unterraum von V , wenn für alle x, y ∈ U und c ∈ gilt x + y ∈ U und cx ∈ U . Satz 1.3 Wenn V ein reller Vektorraum und U ein linearer Unterraum von V ist, so ist U ein reeller Vektorraum. Prinzipien zur Konstruktion linearer Unterräume: Durchschnitt, Summe, lineare Hülle Satz 1.4 Der Durchschnitt beliebig vieler linearer Unterräume eines Vektorraums V ist ein linearer Unterraum von V . Seien U1 , U2 ⊆ V Unterräume, dann setzen wir U1 + U1 = {x = u1 + u2 | u1 ∈ U1 , u2 ∈ U2 }. Satz 1.5 U1 + U2 ist ein Unterraum von V Definition 1.5 Sei V ein reeller Vektorrraumund a1 , . . . , an ∈ V . Jeder Vektor der Form b= n X ci vi i=1 mit beliebigen Skalaren ci ∈ wird eine Linearkombination der Vektoren a1 , . . . , an genannt. Definition 1.6 (Lineare Hülle) Es sei M ⊆ V, M 6= ∅, dann bezeichnet lin(M ) die Menge aller Linearkombinationen aus je endlich vielen Elementen aus M , sie wird die lineare Hülle vom M genannt. Satz 1.6 Es sei V ein reeller Vektorraum und ∅ 6= M ⊆ V . Dann ist lin(M ) ein linearer Unterraum und M ⊆ lin(M ). Definition 1.7 Es sei V ein reeller Vektorraum und E ⊆ V . Die Menge E heißt Erzeugendensystem von V , wenn lin(E) = V ist. Der Vektorraum V heißt endlich erzeugbar, wenn V ein endliches Erzeugendensystem besitzt. 3 1.4 Lineare Unabhängigkeit, lineare Anhängigkeit, Basis, Dimesion Definition 1.8 Endlich viele Vektoren x1 , . . . , xn ∈ V heißen linear unabhängig, falls aus n X c i xi = o i=1 folgt c1 = 0, i = 1, . . . , n; anderes gesagt: Der Nullvektor ist nur auf triviale Art als Linearkombination der Vektoren xi darstellbar. Pn Andernfalls heißen die Vektoren linear abhängig, d.h. die Gleichung i=1 ci xi = o hat eine nichttriviale Lösung. Definition 1.9 Eine (nicht notwendigerweise endliche) Teilmenge M ⊆ V heißt linear unabhängig, falls jeweils endlich viele Vektoren aus M linear unabhängig sind, anderenfalls linear abhängig. Definition 1.10 Eine Teilmenge B ⊂ V heißt Basis von V , wenn B linear unabhängig ist und V = lin(B) ist. Satz 1.7 Jeder endlich erzeugte Vektorraum besitzt eine (endliche) Basis. Zum Beweis benötigen wir das folgende Lemma 1.1 Es sei M ⊂ V eine Teilmenge aus mindestens zwei Vektoren; Pn dann ist M genau dann linear abhängig, wenn es x, x1 , . . . , xn ∈ M und C1 , . . . , cn ∈ mit x = i=1 ci xi gibt. Satz 1.8 (Basisaustauschsatz von Steinitz / Graßmann) Es sei B = {b1 , . . . , bn } eine Basis von V und die Vektoren c1 , . . . , ck ∈ V seien linear unabhängig. Dann gilt k ≤ n und bei geeigneter Numerierung der Vektoren ist {c1 , . . . , ck , bk+1 , . . . bn } eine Basis von V Zum Beweis benötigen wir das folgende Lemma 1.2 Es sei B = {b1 , . . . , bn } eine Basis von V und b ∈ V besitze eine Darstellung b = P n 0 j=1 xj bj . Falls ein k mit xk 6= 0 existiert, so ist auch die Menge B = {b1 , . . . , bk−1 , b, bk+1 , . . . , bn } eine Basis von V . Folgerung 1.1 Zwei Basen eines endlich erzeugten Vektorraums haben gleichviele Elemente. Satz 1.9 (Basisergänzungssatz) Jede linear unabhängige Menge von Vektoren eines endlich erzeugten Vektorraums läßt sich zu einer Basis ergänzen. Definition 1.11 Es sei V ein endlich erzeugter Vektorraum und B eine Basis von V . Dann ist die Dimension von V definiert durch dimV = #B. Lemma 1.3 Es sei V ein Vektorraum der Dimension n. Ist B eine linear unabhängige Menge von Vektoren aus V , so ist B genau dann eine Basis von V , wenn #B = n ist. Ist U ⊆ V ein Unterraum, so ist dimU ≤ n und wenn dimU = n ist, so gilt V = U . Folgerung 1.2 dimV = n gilt genau dann, wenn V n linear unabhängige Vektoren besitzt und je n + 1 Vektoren aus V linear abhängig sind. Satz 1.10 (Dimensionssatz) Es seien S, T ⊆ V Unterräume, dann gilt dimS + dimT = dim(S ∩ T ) + dim(S + T ). 1.5 Koordinaten eines Vektors Definition 1.12 Die Koordinaten eines PnVektore x ∈ V bezüglich der Basis B = {b1 , . . . , bn } sind durch das n-tupel (x1 , . . . , xn ) mit x = i=1 xi bi gegeben. 4 2 Lösungen linearer Gleichungssysteme – der Gaußsche Algorithmus Wir betrachten ein Gleichungssystem (G) a11 x1 + . . . + a1n xn = b1 ··· am1 x1 + . . . + amn xn = bm Die Matrix (das rechteckige Schema) a11 am1 . . . a1n ··· . . . amn heißt die Koeffizientenmatrix des Gleichungssystems; die Matrix a11 . . . a1n b1 ··· am1 . . . amn bm heißt die erweiterte Koeffizientenmatrix. b1 x1 . . Wenn wir x = .. ∈ n und b = .. ∈ bm xn Matrixprodukt schreiben: m setzen, so können wir das Gleichungssystem als Es sei A = (aij ) eine (m, n)-Matrix (mit m Zeilen und n Spalten) und B = (bjk ) eine (n, k)-Matrix, dann heißt die Matrix n X aij bjk ) A·B =( j=1 deren Produktmatrix, dies ist eine (m, k)-Matrix. Speziell ist a11 A · x = ai1 ··· am1 ... ··· ... a1n ain . . . amn x1 a11 x1 + . . . + a1n xn .. . = ··· · . am1 x1 + . . . + amn xn xn Definition 2.1 Das Gleichungssystem G heißt lösbar, wenn {x ∈ n | Ax = b} 6= ∅ ist; wenn {x ∈ n | Ax = b} = ∅ ist, so ist G unlösbar; die Menge {x ∈ n | Ax = b} heißt die Lösungsmenge von G. Es stellen sich die folgenden Fragen: 1. Existieren Lösungen oder ist die Lösungsmenge leer? 2. Gibt es eine eindeutig bestimmte Lösung? 3. Wie bestimmt man Lösungen bzw. stellt man die Unlösbarkeit fest? Wir beginnen mit der dritten Frage. Grundidee des Gaußschen Algorithmus Dies ist ein schematisches Additionsverfahren, wobei sich die Lösungsmenge des Systems nicht ändert; man erhält eine Dreiecksgestalt der Koeffizientenmatrix oder eine ähnlich einfache Gestalt, an der die Lösungsmenge direkt ablesbar ist. 5 Definition 2.2 Zwei lineare Gleichungssysteme mit n Unbekannten heißen äquivalent, wenn sie dieselbe Lösungsmenge besitzen. Speziell sind alle unlösbaren Gleichungssysteme mit n Unbekannten äquivalent. Definition 2.3 Unter einer elementaren Umformung eines linearen Gleichungssystems versteht man jede der folgenden Operationen. I. Vertauschen zweier Gleichungen (bzw. Zeilen in (A | b). II. Multuplikation der l-ten Gleichung (bzw. aller Elemente der l-ten Zeile) mit einer Zahl r ∈ und Addition zur i-ten Gleichung (i 6= l) (bzw. entsprechende Operationen mit den Zeilen). Für die i-te Gleichung (bzw. Zeile) gilt also a0ij = aij + ralj , b0i = bi + rbl , l 6= j. III. Die Multiplikation einer Gleichung (bzw. einer Zeile) mit r 6= 0. Konkretisierung der Grundidee des Gaußschen Algorithmus Wir wollen G durch elementare Umformungen in ein äquivalentes Gleichungssystem überführen, dessen Lösungsmenge man unmittelbar angeben kann. Dies ist möglich wegen Satz 2.1 Bei einer elementaren Umformung geht ein lineares Gleichungssystem in ein äquivalentes über, d.h. die Lösungsmengen sind gleich. Wir machen Umformungen Ax = b ↔ A0 x = b0 , Trapezgestalt) hat: ? ? ... ? 0 ? ... ? bzw. ··· 0 ... 0 ? wobei A0 eine der folgenden Formen (Dreiecks- oder ? ... ? ... ? ? ... ? ... ? . ··· 0 ... 0 ? ... ? ? 0 Gaußscher Algorithmus 1. Wir wählen in G eine Gleichung, die sog. Eliminationsgleichung aus, in der ein Koeffizient 6= 0 ist, sei dies ai∗ 1 x1 + . . . + ai∗ j ∗ xi∗ + . . . + ai∗ n xn = bi∗ mit ai∗ j ∗ 6= 0. Das Element ai∗ j ∗ heißt Zentralelement, die entsprechende Zeile bzw. Spalte Zentralzeile bzw. Zentralspalte, man nennt es auch Pivotelement, -zeile, -spalte. Nun setzen wir aij ∗ cij = − für i = 1, . . . , m, i 6= i∗ . a i∗ j ∗ 2. Die Eliminationsgleichung wird nacheinander mit den Faktoren cij ∗ multipliziert das Ergebnis wird zur i-ten Zeile addiert. Die neu entstandenen Elemente berechnen sich nach der sog. Kreuzregel: aij · ai∗ j ∗ − ai∗ j · aij ∗ ai∗ j · aij ∗ a0ij = = aij − . a i∗ j ∗ a i∗ j ∗ Struktur der Lösungsmenge eines linearen Gleichungssytsems Wir betrachten das Gleichungssystem G: Ax = b mit m Gleichungen und n Unbekannten; wir unterscheiden zwei Fälle: b = 0, also das homogene System Ax = 0 und b 6= 0, ein inhomogenes System. Wir nennen Ax = 0 das zu Ax = b gehörige homogene Gleichungssystem. Satz 2.2 Die Menge {x ∈ n | Ax = 0} ist ein Unterraum von n . n Satz 2.3 Es sei Uh = {x ∈ | Ax = 0} und es sei y eine Lösung des inhomogenen Systems. Dann läßt sich die Lösungsmenge Uih des inhomogenen Systems wie folgt beschreiben: Uih = {z ∈ n | z = y + x für ein x ∈ Uh }, d.h. Uih = y + Uh . 6 3 Einführung in die Matrizenrechnung und Lösbarkeitsbedingungen für lineare Gleichungssysteme Definition 3.1 Es seien m, n ∈ fest gwählt, aij ∈ , i = 1, . . . m; j = 1, . . . , n. dann heißt ein Schema der Form a11 . . . a1n = (aij ) i=1,...,m = (aij )m,n A= ··· j=1,...,n am1 . . . amn eine (m, n)-Matrix bzw. Matrix vom Typ (m, n); m ist die Anzahl der Zeilen, n ist die Anzahl der Spalten von A. Zwei Matrizen A = (aij )m,n und B = (bij )p,q sind vom Typ gleich, wenn m = p, n = q ist. Wenn m = n ist, so heißt A eine quadratische Matrix. Seien A = (aij )m,n und B = (bij )m,n zwei Matrizen gleichen Typs und r ∈ , dann setzen wir A + B = C mit cij = aij + bij , rA = C mit cij = r · aij . Matrizenmultiplikation (siehe auch Kapitel 2): Seien A = (aij )p,q und B = (bij )r,s ; das Matrixprodukt A · B ist nur definiert, wenn q = r ist. Wir setzen dann A · B = C = (cik )p,s mit cik = q X aij bjk . j=1 Es erweist sich als günstig, folgende Schreibweisen für eine (p, q)- Matrix A einzuführen: a1i . A = (a1 , . . . , an ) mit ai = .. , api die Matrix wird durch ihre Spaltenvektoren beschrieben. 1 a .. mit ai = (ai1 , . . . , aiq ), A= . p a die Matrix wird durch ihre Zeilenvektoren beschrieben. Definition 3.2 AT = (dij )q,p mit dij = aji heißt die zu A transponierte Matrix. x1 .. n In Zukunft fassen wir x ∈ als (n, 1)-Matrix, also als Spaltenvektor x = auf. . xn y1 .. Pn n T , dann nennt man x y = (x1 , . . . , xn ) . = i=1 xi yi das SkaDefinition 3.3 Seien x, y ∈ yn larprodukt oder inneres Produkt der Vektoren x, y. Satz 3.1 Es sei Mm,n die Menge aller (m, n)-Matrizen, dann ist Mm,n mit den oben eingeführten Operationen ein Vektorraum und es ist dimMm,n = m · n. Satz 3.2 Sind für die Matrizen A, B, C die Produkte AB und BC erklärt, so existieren auch die Produkte (AB)C und A(BC) und es gilt (AB)C = A(BC) (Assoziativgesetz der Matrixmultiplikation). Sind für die Matrizen A, B, C das Produkt AB und die Summe B + C erklärt, dann existieren auch die Produkte AC und A(B + C) sowie AB + AC und es gilt A(B + C) = AB + AC (Distributivgesetz) Sind für die Matrizen A, B, C die Summe A + B und das Produkt AC erklärt, dann gilt (A + B)C = AC + BC (anderes Distributivgesetz). 7 Rang einer Matrix Es sei A = (aij )m,n eine Matrix mit den Spalten a1 , . . . , an und den Zeile a1 , . . . , am . Dann erzeugen die Vektoren ai , i = 1, . . . , n in m einen Unterraum der Dimension rs ≤ m und die Vektoren ajT , j = i, . . . , m erzeugen in n einen Unterraum der Dimension rz ≤ n. Definition 3.4 rs heißt Spaltenrang und rz heißt Zeilenrang der Matrix A. Satz 3.3 Zeilenrang und Spaltenrang der Matrix A sind gleich: rz = rs . Definition 3.5 Der Rang rg(A) der Matrix A ist der Zeilen- bzw. Spaltenrang der Matrix A, d.h. rg(A) ist die Maximalzahl linear unabhängiger Zeilen- bzw. Spaltenvektoren in A. Satz 3.4 rg(A) = rg(AT ). Definition 3.6 Eine (n, n)-Matrix A heißt regulär, wenn rg(A) = n, andernfalls heißt sie singulär. Verfahren zur Bestimmung des Rangs einer Matrix Wenn m ≤ n, so betrachtet man die Zeilenvektoren von A und prüft die lineare Unabhängigkeit; wenn ja, so ist rg(A) = m. Andernfalls nimmt man m − 1 der Zeilenvektoren usw. Wenn m > n, so betrachtet man die Spaltenvektoren von A. Lösbarkeitsbedingung für lineare Gleichungssysteme und die Struktur der Lösungsmenge Satz 3.5 Das Gleichungssystem Ax = b ist genau dann lösbar, wenn rg(A) = rg(A | b). 1 0 ... 0 .. . Definition 3.7 Sei A eine reguläre Matrix. Die Matrix E = 0 . . . 1 0 nennt man Ein- 0 ... 0 1 heitsmatrix, weil AE = A = EA gilt. Dann heißt die Matrix X mit XA = E (bzw. AY = E) die zu A inverse Matrix, sie wird mit A−1 bezeichnet. Satz 3.6 Wenn A regulär ist, so existiert genau eine Inverse A−1 . Wenn A regulär ist, so ist auch A−1 regulär und es gilt (A−1 )−1 = A. Wenn r 6= 0 ist, dann gilt für eine reguläre Matrix A: (rA)−1 = 1r A−1 . Satz 3.7 Ist für die Matrizen A, B das Produkt AB erklärt, dann ist (AB)T = B T AT . Sind A, B reguläre Matrizen, so ist auch AB regulär und es gilt (AB)−1 = B −1 A−1 . Ist A eine reguläre Matrix, dann ist (A−1 )T = (AT )−1 . Satz 3.8 Wenn rg(A) = r ist, so ist {x ∈ n . n | Ax = 0} ein (n − r)-dimensionaler Unterraum von Folgerung 3.1 Wenn m ≥ n und rg(A) = n ist, so hat das Gleichungssystem Ax = 0 nur die triviale Lösung. 4 4.1 Affine Räume Axiome des affinen Raums, Punktbasen, Koordinatensysteme Definition 4.1 (A, V, →) heißt reeller affiner Raum, wenn A eine nichtleere Menge, V ein reeller −−→ Vektorraum und → eine Abbildung ist, die jedem Paar (P, Q) mit P, Q ∈ A einen Vektor P Q aus V zuordnet. Dabei soll gelten: −− → Zu jedem P ∈ A und jedem v ∈ V gibt es genau ein Q ∈ A mit v = P Q. −− → − − → −→ Für alle P, Q, R ∈ A gilt P Q + QR = P R. 8 Die Elemente von A heißen die Punkte des affinen Raums. Die Zuordnung (P, v) 7→ Q beschreibt das Antragen eines Vektors an einen Punkt und ergibt einen neuen Punkt. Das heißt, wir haben eine neue −− → −− → Abbildung + : A × V → A mittels (P, v) 7→ Q mit P + v = Q gdw. P Q = v, also P + P Q = Q. Definition 4.2 A sei reeller affiner Raum mit V als zugehörigem Vektorraum; wir setzen dimA = dimV . −−−→ Definition 4.3 Je d+1 Punkte P 0 , P 1 , . . . , P d heißen affin unabhängig, wenn die Vektoren P 0 P i , i = 1, . . . , d linear unabhängig sind, andernfalls affin abhängig. Definition 4.4 Es sei (A, V, →) ein n-dimensionaler affiner Raum. Die Menge {P 0 , P 1 , . . . , P n } heißt Punktbasis, wenn P 0 , P 1 , . . . , P n affin unabhängig sind. −−→ −−− → Eine geordnete Punktbasis (O, P 1 , . . . , P n ) bzw. das Tupel (O, OP 1 , . . . , OP n ) heißt Koordinatensystem; O heißt dessen Koordinatenursprung. Wenn speziell (im n ) O = (0, . . . , 0), P i = (0, . . . , 1, . . . , 0) gewählt ist, so sprechen wir vom kartesichen Koordinatensystem. Bezüglich eines Koordinatensystems können wir jedem Punkt X ∈ A eindeutig ein Zahlentupel (x1 , . . . , xn ) mit −−→ − −− → X = O + x1 OP 1 + . . . + xn OP n zuordnen, dies nennen wir das Koordinatentupel von X. −−→ −−→ −−→ Wenn (y1 , . . . , yn ) die Koordinaten von Y sind, dann besitzt der Vektor XY = OY − OX = (y1 − −−→1 −−− → x1 )OP + . . . + (yn − xn )OP n die Koordinaten (y1 − x1 , . . . , yn − xn ). Satz 4.1 (Abhängigkeitskriterium für Punkte) Die Punkte P 0 , P 1 , . . . , P d ∈ A sind genau dann affin abhängig, wenn es reelle Zahlen r1 , . . . , rn gibt, so daß d X i=o |ri | > 0, d X ri = 0, i=0 d X ri P i i=0 gilt. 4.2 Affine Unterräume: Geraden, Ebenen, Hyperebenen Definition 4.5 Es sei A ein reeller affiner Raum mit zugehörigem Vektorraum V . Die Menge T ⊆ A heißt affiner Unterraum von A, wenn es einen Punkt P ∈ A und einen linearenUnterraum U ⊆ V −−→ gibt, so daß T = {X ∈ A | P X ∈ U } gilt. Andere Schreibweise: T = P + U . Definition 4.6 Eindimensionale Unterräume von A heißen Geraden, zweidimensionale Unterräume heißen Ebenen, (n − 1)-dimensionale Unterräume eines n-dimensionalen Raums heißen Hyperebenen. Satz 4.2 Sei A ∈ Mm,n , rg(A) = r, dann ist die Lösungsmenge L des Gleichungssystems Ax = b ein (n − r)-dimensionaler affiner Unterraum von n , und zwar ist L = P + U , wobei P eine spezielle“ ” Lösung von Ax = b und U der Lösungsraum des zugehörigen homogenen Gleichungssystems Ax = 0 ist. Satz 4.3 Sei (A, V ) ein affiner Raum, dann ist g genau dann eine Gerade in A, wenn es einen Punkt p ∈ A und einen Vektor o 6= v ∈ V gibt mit g = g(P, a) := {X ∈ A | X = P + ta für alle t ∈ } Definition 4.7 A sei ein affiner Raum und g1 = g(P, a), g2 = g(Q, b) zwei Geraden in A. Dann heißen g1 und g2 parallel, wenn b ∈ lin(a) ist; wenn zudem g1 6= g2 ist, so heißen die Geraden echt parallel. Satz 4.4 Eine Teilmenge E ⊂ A ist genau dann eine Ebene in A, wenn es einen Punkt p ∈ E und linear unabhängige Vektoren a, b ∈ V gibt,so daß gilt E = {X ∈ A | X = P + t1 a + t2 b, t1 , t2 ∈ }. 9 Definition 4.8 Es sei A ein affiner Raum und E1 , E2 Ebenen in A, diese heißen parallel, wenn sie denselben zugehörigen Vektorraum besitzen. Eine Gerade g in A heißt parallel zur Ebene E, wenn der Vektorraum von g ein linearer Unterraum des Vektorraums von E ist. Definition 4.9 Sei M ⊂ A eine Teilmenge des affinen Raums A. Dann heißt Af f (M ) der kleinste affine Unterraum von A, der M enthält. 5 5.1 Lineare Abbildungen von Vektorräumen Definition und Beispiele Definition 5.1 Seien V, V 0 Vektorräume, ϕ : V −→ V 0 sei eine Abbildung. ϕ heißt lineare Abbildung, wenn ϕ(x + y) = ϕ(x) + ϕ(y) für alle x, y ∈ V (Additivität) und ϕ(rx) = rϕ(x) für alle x ∈ V, r ∈ (Homogenität) gilt, d.h. ϕ ist operationestreu bezüglich der linearen Operrationen in V und V 0 . ϕ heißt Isomorphismus von V auf V 0 , wenn ϕ eine bijektive lineare Abbildung ist. Einfache Eigenschaften linearer Abbildungen Sei ϕ : V −→ V 0 linear, dann gilt ϕ(−x) = −ϕ(x) für alle x ∈ V 0 ϕ(o) von V 0 ) P = o (Nullvektor P ϕ( ri ai ) = ri ϕ(ai ) für beliebige ai ∈ V, ri ∈ . Beispiele und Gegenbeispiele ϕ((x, y) = x − y ϕ((x, y) = x · y ϕ((x, y) = x + y + 1 ϕ(x) = r · x Sei V ein n-dimensionaler Vektorraum und B = {a1 , . . . , an } eine Basis von V . Dann hat jeder Voktor x ∈ V eine eindeutige Darstellung mit Hilfe der Basis B: x= n X xi a i , i=1 also x = (x1 , . . . , xn )B . Wir setzen ϕB (x) = (x1 , . . . , xn ), jedem Vektor wird sein Koordinatentupel bezüglich B zugeordnet, also ϕB : V −→ n . Satz 5.1 ϕB ist ein Isomorphismus. Satz 5.2 Es sei ϕ : V −→ V 0 ein Isomorphismus, dann sind die Vektoren x1 , . . . , xn ∈ V genau dann linear unabhängig, wenn ϕ(x1 ), . . . , ϕ(xn ) ∈ V 0 linear unabhängig sind. Folgerung 5.1 Alle n-dimensionalen Vektorräume sind zu 5.2 n isomorph. Kern und Bild einer linearen Abbildung Definition 5.2 Es sei ϕ : V −→ V 0 eine lineare Abbildung, dann heißt die Menge ker(ϕ) = {x ∈ V | ϕ(x) = o0 } der Kern (kernel) von ϕ und im(ϕ) = {ϕ(x) | x ∈ V } heißt das Bild (image) von ϕ. Einige Folgerungen 10 Folgerung 5.2 Es sei ϕ : V −→ V 0 eine lineare Abbildung, dann gilt 1. ker ϕ ist ein linearer Unterraum von V . 2. im ϕ ist ein linearer Unterraum von V 0 . 3. ϕ ist injektiv gdw. ker ϕ = {o}. 4. ϕ ist surjektiv gdw. im ϕ = V 0 . Folgerung 5.3 Es sei V ein endlichdimensionaler Vektorraum und V 0 ein beliebiger Vektorraum und ϕ : V −→ V 0 eine lineare Abbildung, dann gilt 1. ker ϕ ist endlichdimensional. 2. im ϕ ist endlichdimensional. Defekt und Rang Definition 5.3 Es sei V ein endlichdimensionaler Vektorraum sowie V 0 ein beliebiger Vektorraum und ϕ : V −→ V 0 eine lineare Abbildung, wir setzen def ϕ = dim kerϕ (Defekt von ϕ), rg ϕ = dim im ϕ (Rang von ϕ). Satz 5.3 (Dimensionsformel für lineare Abbildungen) Es sei V ein endlichdimensionaler Vektorraum, V 0 ein beliebiger Vektorraum und ϕ : V −→ V 0 eine lineare Abbildung, dann gilt def ϕ + rg ϕ = dim V. Folgerung 5.4 Es sei V ein endlichdimensionaler Vektorraum und V 0 ein beliebiger Vektorraum und ϕ : V −→ V 0 eine lineare Abbildung. 1. ϕ ist injektiv gdw. def ϕ = 0. 2. ϕ ist surjektiv gdw rg ϕ = dim V . 3. Es sei dim V = n und {a1 , . . . , an } eine Basis von V . Die Abbildung ϕ ist ein Isomorphismus gdw {ϕ(a1 ), . . . , ϕ(an )} ist eine Basis von V 0 ist. Satz 5.4 Isomorphe Vektorräume V, V 0 besitzen die gleiche Dimension. Gilt umgekehrt dim V = dim V 0 < ∞, so sind V und V 0 isomorph. Satz 5.5 (Prinzip der linearen Fortsetzung) Es seien V, V 0 Vektorräume mit dim V = n und B = {a1 , . . . , an } eine Basis von V . Dann gilt: Zu jedem n-tupel (a01 , . . . , a0n ) von Vektoren aus V 0 gibt es genau eine lineare Abbildung ϕ : V −→ V 0 mit ϕ(ai ) = a0i , i = 1, . . . , n. 5.3 Lineare Abbildungen und Matrizen Es sei A eine Matrix vom Typ(m, n), dann ist für x ∈ n durch ϕ(x) = Ax eine lineare Abbildung ϕ : n −→ m definiert. Wir werden sehen, daß jede lineare Abbildung von n in m von dieser Form ist. Das Prinzip der linearen Fortsetzung verhilft uns zu einer noch allgemeineren Aussage: Es seien V, V 0 endlichdimensionale Vektorräume, dim V = n, dim V 0 = m, ϕ : V −→ V 0 eine lineare Abbildung, B = (a1 , . . . , an ) eine Basis von V und B 0 = (b1 , . . . , bm ) eine Basis von V 0 . Wir wissen, daß ϕ durch ϕ(a1 ), . . . , ϕ(an ) bereits eindeutig bestimmt ist. Weiter läßt sich ϕ(ai ) ∈ V 0 in eindeutiger Weise aus den Vektoren aus B 0 linear kombinieren: ϕ(aj ) = m X aij bi , j = 1, . . . , n. i=1 11 Wir ordnen der Abbildung ϕ die folgende Matrix zu: a11 . . . a1j ... BB 0 Aϕ = ai1 . . . aij ... am1 . . . amj ... a1n ain ... . . . amn (in der j-ten Spalte stehen die Koordinaten des Bildes des j-ten Basisvektors). Diese Matrix ist bei gegebenen B, B 0 durch ϕ eindeutig bestimmt. Zu verschiedenen linearen Abbildungen gehören verschiedene Matrizen. Aus dem Prinzip der linearen Fortsetzng folgt: Satz 5.6 Zu jeder Matrix A ∈ Mmn und Basen B, B 0 von V, V 0 gibt es eine lineare Abbildung ϕ : BB 0 V −→ V 0 mit A = Aϕ . Satz 5.7 Es seien x= n X xi ai und ϕ(x) = i=1 m X x0j aj j=1 die Darstellungen von X, ϕ(x) durch die jeweiligen Basen, dann gilt x0j = n X aji xi , j = 1, . . . , m, i=1 also x1 . A · .. = xn Wir veranschaulichen das durch ein Diagramm“ ” ϕ V −→ B y x BB Aϕ −→ 0 x01 .. . . x0m 0 V y B0 ϕ(x) Zusammenfassung der bisherigen Ergebnisse Sei L(V, V 0 ) = {ϕ | ϕ : V −→ V 0 ist lineare Abbildung }. Mm,n = {A | A ist eine (m, n)-Matrix. Wenn dim V = n, dim V 0 = m, B eine Basis von V und B 0 eine Basis von V 0 ist, so läßt sich L(V, V 0 ) eineindeutig in die Menge Mm,n abbilden. Diese Abbildung ist auch surjektiv, d.h. jede Matrix ist beschreibende Matrix einer linearen Abbildung bzgl. B, B 0 : 0 . Satz 5.8 Zu jeder Matrix A vom Typ (m, n) gibt es eine lineare Abbildung ϕ mit A = A B,B ϕ 0 B,B Satz 5.9 rg ϕ = rg Aϕ . Folgerungen 0 ϕ ist injektiv gdw. rg AB,B = n. ϕ B,B 0 ϕ ist surjektiv gdw. rg Aϕ = m. B,B 0 = n. ϕ ist Isomorhismus gdw. A ist quadratisch und rg Aϕ ker ϕ ist der Lösungsraum des linearen Gleichungssystems AB,B ϕ 12 0 x1 0 . .. = ... . xn 0 b1 x1 b1 0 . ... = ... im ϕ ist die Menge der Tupel .. , für die das lineare Gleichungssystems AB,B ϕ bm xn bm lösbar ist. Satz 5.10 Die Abbildung L(V, V 0 ) −→ Mm,n ϕ 7→ AB,B ϕ 0 ist ein Isomorphismus. Folgerung 5.5 L(V, V 0 ) ist ein Vektorraum der Dimension m · n. 5.4 Basiswechsel und Koordinatentransformationen Es sei V ein n-dimensionaler Vektorraum und B = {a1 , . . . , an }, B ∗ = {a∗1 , . . . a∗n } seien Basen von V , zu x ∈ V sei x = (x1 , . . . , xn )B , x = (x∗1 , . . . , x∗n )B ∗ . Der Übergang von B (alter Basis) zu B ∗ (neuer Basis) heißt Basiswechsel, gesucht ist der Zusammenhang zwischen den alten und den neuen Koordinaten von x. Zur Beschreibung des Basiswechels benutzen wir die gewonnenen Erkenntnisse über lineare Abbildungen und Matrizen. Durch die Zuordnung a1 7→ a∗1 , . . . , an 7→ a∗n ist nach linearen Fortsetzung eine lineare Abbildung ϕ : V −→ V gegeben; für Pn dem Prinzip der P n x = i=1 xi ai gilt ϕ(x) = i=1 xi a∗i . Wir wissen, daß ϕ ein Isomorphismus ist, denn ϕ überführt eine Basis von V in eine Basis von V . Bezüglich B, B läßt sich ϕ durch die (quadratische) Matrix U = AB,B beschreiben. In der j-ten ϕ Spalte von U stehen die Koordinaten von ϕ(aj ) = a∗j bezüglich B, also die Koordinaten der neuen Basisvektoren bezüglich der alten Basis: n X a∗j = uij ai , j = 1, . . . , n (∗) i=1 Diese Formel heißt Basistransformation von B zu B ∗ und U heißt die Übergangsmatrix von B nach B ∗ . Diese Basistransformation bewirkt nun die Koordinatentransformation: Sei x= n X xi a i , x = i=1 dann ist x= n X j=1 also x∗j a∗j = n X x∗j ( i=j n X i=1 xi = n X n X x∗j a∗j , j=1 n X n n X X ∗ uij ai ) = ( uij xj )ai = xi a i , i=1 j=1 i=1 uij x∗j , i = 1, . . . , n j=1 oder ∗ x1 x1 . ... = U .. . x∗n xn Nun ist die Matrix U invertierbar, da sie einen Isomorphismus beschreibt, also ist ∗ x1 x1 .. . ., = U −1 .. , x∗n xn 13 (∗∗) hier werden die neuen Koordinaten durch die alten beschrieben. Hinweis: Wenn man den Zusammenhang zwischen alter und neuer Basis (formal) als Matrixprodukt schreiben will (wie oben in (*)) ∗ a1 a1 .. . ., = H .. , a∗n an so ist H = U , die obige Koordinatentransormation (**) wird dann durch (H T )−1 beschrieben, diese Matrix heißt die zu H kontragrendiente Matrix (die Koordinaten eines Vektors transformieren sich kontragredient zu den Basisvektoren). T Sei nun dimV = n und ϕ : V −→ V eine lineare Abbildung, B = {a1 , . . . , an } eine Basis von V und ABB die beschreibende Matrix. Wir wollen den Basiswechsel von B zur Basis B ∗ = {a∗1 , . . . , a∗n } ϕ vollziehen; wie ändert sich dabei die beschreibende Matrix? ∗ B Satz 5.11 Sei A = ABB ϕ , A = Aϕ Dann gilt ∗ B∗ und U die Übergangsmatrix beim Basiswechsel von B zu B ∗ . A∗ = U −1 AU. Definition 5.4 Seien A, B quadratische Matrizen; sie heißen ähnlich (A ∼ B), wenn es eine invertierbare Matrix C mit A = C −1 AC gibt. Folgerung 5.6 Die Ähnlichkeit von Matrizen ist eine Äquivalenzrelation. Satz 5.12 Zwei Matrizen beschreiben genau dann die gleiche lineare Abbildung, wenn sie ähnlich sind. 5.5 Eigenvektoren und Eigenwerte einer Matrix bzw. eines linearen Operators Definition 5.5 Eine lineare Abbildung eines Vektorraums V in sich nennen wir einen linearen Operator auf V . Sei ϕ : V −→ V ein linearer Operator und dimV = n. Wir fragen, ob es in der Ähnlichkeitsklasse aller den Operator ϕ beschreibenden Matrizen eine Matrix von besonders einfacher Gestalt gibt. Diagonalmatrizen haben eine besonders einfache Gestalt. Sei etwa λ1 . . . 0 .. A= . 0 . . . λn P eine beschreibende Matrix von ϕ zur Basis {a1 , . . . , an }. Dann gilt ϕ(ai ) P = λi ai . Für x = xi ai , also x = (x1 , . . . , xn )B , gilt demnach ϕ(x) = (λ1 x1 , . . . , λn xn )B , d.h. ϕ(x) = λi xi ai . Es wird nicht immer möglich sein, zu einem gegebenen Operator eine solche Basis zu finden. Es stellen sich daher die folgenden Fragen: Wann läßt sich ϕ durch eine Diagonalmatrix beschreiben? Wie findet man eine solche Matrix? Definition 5.6 Sei ϕ ein linearer Operator auf V . Die Zahl λ heißt Eigenwert von ϕ, wenn es ein x ∈ V, x 6= o mit ϕ(x) = λx gibt. Der Vektor x 6= o heißt Eigenvektor von ϕ zum Eigenwert λ, wenn ϕ(x) = λx gilt. in betrachten wir Beispiele: Im Vektorraum der beliebig oft differenzierbaren Funktionen von den Differentialoperator f 7→ f 0 , dann ist die Funktion f (x) = eλx ein Eigenvektor zum Eigenwert λ, denn f 0 = λeλx . Zum identischen Operator idV ist jeder Vektor x ∈ V, x 6= o Eigenvektor zum Eigenwert 1. Sei ϕ : V −→ V ein linearer Operator und λ ein Eigenwert von ϕ. Mit Eλ∗ϕ bezeichnen wir die Menge aller Eigenvektoren zum Eigenwert λ. Dann ist Eλϕ := Eλ∗ϕ ∪ {o} ein linearer Unterraum von V . 14 Folgerung 5.7 Der lineare Operator ϕ auf V läßt sich genau dann durch eine Diagonalmatrix beschreiben, wenn V eine Basis aus Eigenvektoren besitzt. Es stellt sich also die Frage, wann Eigenvektoren linear unabhängig sind. Eine erste Antwort gibt der Satz 5.13 Sei ϕ : V −→ V ein linearer Operator und vi , i = 1, . . . , m seien Eigenvektoren von ϕ zum Eigenwert λi . Wenn nun λi 6= λj für alle i 6= j gilt, so ist {v1 , . . . , vm } linear unabhängig. Die Umkehrung des Satzes ist nicht richtig, denn es gibt linear unabhängige Eigenvektoren, die zum selben Eigenwert gehören. Wie berechnet man die Eigenwerte und Eigenvektoren eines linearen Operators? Sei ϕ : V −→ V, dimV = n, dann gilt: λ ist Eigenwert von ϕ ⇔ es gibt ein x ∈ V, x 6= o mit ϕ(x) = λx ⇔ es gibt ein x ∈ V, x 6= o mit ϕ(x) = λidV (x) ⇔ es gibt ein x ∈ V, x 6= o mit (ϕ − λidV )(x) = o ⇔ die Gleichung (ϕ − λidV )(x) = o besitzt eine nichttriviale Lösung ⇔ ker(ϕ − λidV ) 6= {o} ⇔ rg(ϕ − λidV ) < n ⇔ rg(A − λE) < n, wo A = ABB die Abbildung ϕ bezüglich einer Basis B beschreibt. ϕ Die zu einem gegebenen Eigenwert λ gehörigen Eigenvektoren finden wir als Lösung der homogenen Gleichung (ϕ − λidV )(x) = 0 bzw. (A − λE)x = o. Satz 5.14 Es sei V ein n-dimensionaler Vektorraum, ϕ : V −→ V ein linearer Operator, λ ∈ x ∈ V , dann gilt: und 1. λ ist Eigenwert von ϕ gdw. rg(ϕ − λidV ) < n. 2. x ist Eigenvektor von ϕ mit dem Eigenwert λ gdw. x eine nichttriviale Lösung von (ϕ − λidV )(x) = o ist. Sei Eλ∗ϕ die Menge aller nichtrivialen Lösungen von (ϕ − λidV )(x) = o, Eλϕ sei der Lösungsraum von (ϕ − λidV )(x) = o, er heißt der Eigenraum von ϕ zum Eigenwert λ. Beispiel: 3 4 . Ist diese Matrix diagonalisierbar, d.h. ist sie zu einer Diagonalmatrix ähnlich? 6 5 3−λ 4 < 2 gdw. die Spalten diser Matrix linear abhängig sind, dies Es ist rg(A − λE) = rg 6 5−λ ist für λ = 9 und λ = −1 der Fall. Also besitzt A zwei verschiedene Eigenwerte, also zwei linear unabhängige Eigenvektoren, also ist A diagonalisierbar, die beschreibende Matrix bezüglich einer Basis aus Eigenvektoren hat die Gestalt 9 0 . 0 −1 9 0 ? Dies ist die Übergangsmatrix von der kanoWie finden wir eine Matrix C mit c−1 AC = 0 −1 nischen Basis zueiner Basis aus Eigenvektoren. 4 1 1 4 ϕ ϕ . ), also C = ), E−1 = lin( Es ist E9 = lin( 6 −1 −1 6 Sei A = 6 6.1 Determinanten Leibnizsche Definition, Regel von Sarrus, Cramersche Regel Der Ausgangspunkt der Deteminantentheorie war die Suche nach einer einheitlichen Lösungsformel für lineare Gleichungssysteme; Leibniz (1646 - 1716) führte 1678 den Begriff der Determinante ein (der Matrix-Begriff wurde erst 1850 vom englischen Mathematiker Sylvester eingeführt). 15 6.1.1 Deteminanten 2. Ordnung Wir betrachten das lineare Gleichungssystem a11 x1 + a12 x2 = b1 a21 x1 + a22 x2 = b2 , falls die Nenner von Null verschieden sind, erhalten wir als Lösung b1 a22 − b2 a12 b2 a11 − b1 a21 , x2 = . a11 a22 − a21 a12 a11 a22 − a21 a12 a11 a12 Definition 6.1 Es sei A = , dann ist detA = |A| = a11 a22 − a12 a21 die Deteminante a21 a22 a a12 von A, wir schreiben auch |A| = 11 . a21 a22 x1 = Dann lautet die obige Lösungsformel a11 b1 a21 b2 , x2 = a11 a12 a21 a22 b1 a12 b2 a22 , x1 = a11 a12 a21 a22 diese Formel heißt Cramersche Regel. 6.1.2 Determinanten 3. Ordnung Definition 6.2 Es sei wir setzen a11 A = a21 a31 a12 a22 a32 a13 a23 , a33 |A| = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 + a13 a22 a31 , dies ist die Determinante von A, wir schreiben auch a11 a12 detA = a21 a22 a31 a32 a13 a23 . a33 Die Formel für die Determinante 3. Ordnung heißt Regel von Sarrus. Jeder Summand enthält genau ein Element aus jeder Zeile und jeder Spalte der Matrix A. Wie oben erhalten wir eine Cramersche Regel zur Lösung eines linearen Gleichungssystems mit drei Unbekannten. Um diese Konstruktion für den Fall von n-reihigen Matrizen verallgemeinern zu können, benötigen wir ein paar neue Begriffe. Definition 6.3 Sei M eine endliche Menge; eine bijektive Abbildung π : M −→ M heißt Permutation von M . Es sei M = {1, 2, . . . , n} und π eine Permutation von M , i 7→ π(i); wir beschreiben diese Permuation wie folgt: 1 2 3 ... n π= π(1) π(2) π(3 . . . π(n)) Die Menge aller Permutationen einer n-elementigen Menge bezeichnen wir mit Sn , diese Menge hat n! Elemente. 16 Definition 6.4 Sei π ∈ Sn . Ein Paar (π(i), π(j)) heißt Inversion von π, wenn i < j, aber π(i) > π(j) ist. π heißt gerade Permutation, wenn π eine gerade Anzahl von Inversionen besitzt. π heißt ungerade Permutation, wenn π eine ungerade Anzahl von Inversionen besitzt. Die Zahl sgn(π) = (−1)(Anzahl der Inversionen von π) heißt Signum von π. Es ist sgn(π) = 1, wenn π eine gerade Permutation ist, sonst = −1. Die Determinante 3. Ordnung läßt sich dann so schreiben: a11 a12 a13 X detA = a21 a22 a23 = sgn(π)a1π(1) a2π(2) a3π(3) . a31 a32 a33 π∈Sn Definition 6.5 Die Determinante ein (n, n)-Matrix A ist a11 . . . a1n X = detA = ... sgn(π)a1π(1) . . . anπ(n) . an1 . . . ann π∈Sn 6.2 Die Leibnizsche Definition für eine Determinante n-ter Ordnung Definition 6.6 (Determinante n-ter Ordnung) Es sei a11 a21 A= ... an1 |A| := X π∈Sn a12 a22 .. . ··· ··· .. . an2 ··· a1n a2n . a nn ann sgnπ · a1π(1) · a2π(2) · · · anπ(n) 1. Die Determinante |A| einer n-reihigen quadratischen Matrix ist eine reelle Bemerkung 6.1 Zahl . 2. |A| ist die Summe von n! Summanden (soviele Summanden wie es Permutationen gibt von {1, . . . , n}) 3. Im Fall n = 2, 3 lassen sich die Determinanten nach der Definition leicht berechnen. Für n > 3 weniger handlich; n = 4, 24 Summanden; n = 5, 120; n = 6, 720 4. In Spezialfällen ist die Formel zur Berechnung nützlich. Beispiel 6.1 (a) 0 0 0 A= −2 0 0 0 1 0 0 0 0 0 0 0 0 −4 0 0 0 0 0 0 1 0 0 0 0 −3 0 1 0 0 , 0 0 0 |A| := X π∈S6 sgnπ · a1π(1) · a2π(2) · · · a6π(6) Die Summe besteht aus 720 Summanden. Alle, mit Ausnahme eines einzigen, gleich Null. a16 a22 a33 a41 a55 a64 = −24, denn a16 = a22 = 1, a33 = −4, a41 = −2, a55 = −3, a64 = 1, 1 2 3 4 5 6 π= 6 2 3 1 5 4 17 (1) a11 0 0 2. 1. Sei A = . .. 0 a22 0 .. . 0 0 a33 ··· ··· .. 0 0 0 .. . =⇒ |A| = a11 a22 · · · ann . 0 0 0 · · · ann Begründung: In der Leibnizschen Determinantenformel tritt in jedem anderen Summanden mindestens einmal die Null auf. 6.3 Eigenschaften von Determinanten Frage: Wie verändert sich die Determinante, wenn man Zeilenumformungen an der Matrix vornimmt? Z.B. • Welchen Einfluss hat die Multiplikation einer Zeile von A mit einer reellen Zahl auf die Determinante? • Vertauschungen von Zeilen einer Matrix. i = 1, . . . , n j = 1, . . . , n Bezeichung für die i-te Zeile von A: Zi Z1 .. . =⇒ A = Zi mit Zi = (ai1 , . . . , ain ), . .. Zn Es sei A = (aij ) , Z1 .. . |A| = Zi . .. Zn Satz 6.1 Sei A eine quadratische Matrix. Dann gilt: 1. Multipliziert man eine Zeile von A mit einer reelen Zahl α, so ist die Determinante der neuen Matrix das α-fache von |A|: Z1 Z1 . . . . . . (2) αZi = α Zi . . . . . . Zn Zn Beispiel: 5 21 8 1 0 9 5 10 12 = 3 7 8 1 1 0 9 1 10 4 = 3 · 5 7 8 1 1 5 0 9 2 4 1 (3) 2. Ist eine Zeile von A die Summe von 2 Vektoren, so ist die determinante |A| von A die Summe von 2 Determinanten: Z1 Z1 Z1 .. .. ... . . Z0 Z + Z0 (4) + Z = i i i . .i .. . . . . . Zn Zn Zn Beispiel: 1 4 7 1 5 8 3 1 6 = 1 9 7 18 2 2 8 3 1 3 + 3 9 7 2 3 8 3 3 9 (5) 3. Vertauscht man 2 Zeilen von A, so ändert die Determinante ihr Vorzeichen: Z1 Z1 . . . . . . Zj Zi . . .. = − . . Z Zi j . . . . . . Zn Zn Beispiel: 1 4 7 4. 2 5 8 4 3 6 = − 1 7 9 5 2 8 1 0 also 0 ... 0 |Enn | = 1, 0 1 0 .. . 6 7 3 = 4 9 1 0 0 0 1 ··· ··· 0 . ··· .. 8 5 2 9 6 3 0 0 0 = 1 .. . 1 (6) (7) (8) Beweis (ÜA) : folgt mit Hilfe von Definition 6.6. 4 folgt unmittelbar aus Definition 6.6 (siehe Bemerkung 6.1) 3: überlegt man sich leicht mit Hilfe von Definition 6.6 2 mit Definition 6.6: ··· a1n Z1 a11 .. .. .. . . . 0 0 0 Zi + Zi = ai1 + ai1 · · · ain + ain .. .. .. . . . Zn an1 ··· ann X = sgnπ · a1π(1) · a2π(2) · · · (aiπ(i) + a0iπ(i) ) · · · anπ(n) = X π∈Sn π∈Sn sgnπ · a1π(1) · a2π(2) · · · aiπ(i) · · · anπ(n) + 1 analog nach Definition 6.6 X π∈Sn sgnπ · a1π(1) · a2π(2) · · · a0iπ(i) · · · anπ(n) Z1 Z1 . . . .. . = Zi + Zi0 . . . . . . Zn Zn Bemerkung 6.2 Die im Satz 6.1 aufgeführten Eigenschaften heißen Grundeigenschaften der Determinanten, weil man aus ihnen alle anderen Eigenschaften von Determinanten ableiten kann, ohne auf die Definition zurückzugehen. Mit diesen Eigencshaften kann man eine axiomatische Definition einer Determinante vornehmen, die Weierstraßsche Determinantendefinition: Sei Mnn =⇒ R eindeutige Abbildung. Wenn man zusätzlich verlangt, dass die Funktion die Bedingung 1 bis 4 erfüllt, so kann man zeigen, dass es genau eine Funktion gibt, die das Verlangte leistet, nämlich X sgnπ · a1π(1) · · · anπ(n) (9) A 7→ π∈Sn 19 mit 1-4 (Weierstraßsche axiomatische Determinatendefinition). Die Funktion ist wegen 1 und 2 linear in jedem Argument. Man nennt solche Funktionen Multilinearformen (n-fache Linearformen). 6.3.1 Abgeleitete Eigenschaften von Determinanten Satz 6.2 Sei A eine n-reihige quadratische Matrix. Dann gilt 5. Besteht eine Matrix nur aus Nullen, so ist |A| = 0 6. Stimmen in A zwei Zeilen überrein, so |A| = 0. 7. Addiert man in A zu einer zeile ein skalares Vielfaches einer anderen Zeile, so stimmt die Determinante der so erhaltenen matrix mit |A| überrein. 8. Sind Zeilenvektoren von A linear abhängig, so ist |A| = 0. Beweis 5. Mit Hilfe von 1 aus Satz 6.1, |O| = α · |O|, α = 0 ∈ R 6. Zi = Zj . Wir tauschen in A beide Zeilen miteinander Satz 6.1,(3) =⇒ 7. |A| = −|A| −→ |A| = 0 Z1 Z1 Z1 Z1 .. .. .. .. . . . . Zi + αZj Zj Zi Satz 6.1:(2),(1) Zi . .. ... + α .. 6. = = .. . . Z Zj Zj Zj j . .. .. .. .. . . . Zn Zn Zn Zn (10) (11) 8. A hat wenigstens 2 Zeilen. Wegen der linearen Abhängigkeit der Zeilenvektoren, ist eine Zeile LK der übrigen Zeilen, o.B.d.A. Pn Zi i=2 αi Zi n n X Z2 S 6.1,(2),(1) X Z2 6. = αi .. = 0 ( Zi kommt zweimal vor) Z1 = αi Zi =⇒ |A| = .. . . i=2 i=2 Zn Zn (12) Satz 6.3 Es gilt |AT | = |A|. Beweis Übungen, Hinweis: mit Def. 6.6 Folgerungen aus Satz 6.3: Alle Aussagen über Determinanten bleiben richtig, wenn man in ihnen das Wort Zeile durch Spalte ersetzt . Satz 6.4 (Multiplikationssatz für Matrizen) Für beliebige n-reihige quadratische Matrizen A, B gilt: |A · B| = |A| · |B|. 20 6.4 Berechnung von Deteminanten 1. Möglichkeit Mit Hilfe der Definiton: Für eine 10-reihige Matrix sind hier 10! Produkte von je 10 Faktoren zu bilden, also sind 32659200 Multiplikationen auszuführen; ein Computer, der in der Sekunde 1 Million Multiplikationen ausführt, würde 33 Sekunden benötigen. Bei einer 25-reihigen Matrix dauert das 1013 Jahre (das Alter des Universums beträgt schätzungsweise 1010 Jahre). 2. Möglichkeit Überführung der gegebenen Matrix mit Hilfe des Gaußschen Algorithmus in eine Dreiecksmatrix: Man benötigt folgende Umformungen: Vertauschen zweier Zeilen oder Spalten; bei jeder Vertauschung ändert sich das Vorzeichen, bei k Vertauschen haben wir den Faktor (−1)k . Addition eises skalaren Vielfachen einer Zeile (oder Spalte) zu einer anderen. 3. Möglichkeit Entwicklung der Determinante nach einer Zeile (oder Spalte): Bei diesem Verfahren wird die Berechnung einer Determinante n-ter Ordnung auf die Berechnung von Determinanten (n−1)er Ordnung zurückgeführt. Das Verfahren verläuft wie folgt: Sei A = (aij ); die Matrix Uij entstehe aus A durch Streichen der i-ten Zeile und der j-ten Spalte, dies ist also eine Matrix vom Typ (n − 1, n − 1), wir nennen |Uij | die Unterdeterminante oder den Minor zum Element aij . Die Zahl Aij = (−1)i+j |Uij | heißt die Adjunkte des Elöements aij . Satz 6.5 (Laplacescher Entwicklungssatz 1 ) Sei A eine n-reihige Matrix und j ein Index mit 1 ≤ j ≤ n, dann gilt (Entwicklung von |A| nach der j-ten Spalte) |A| = n X aij Aij = i=1 n X i=1 (−1)i+j aij |Uij | . Bemerkungen: Der Gaußsche Algorithmus ist das effektivste Berechnungsverfahren, eine konsequente Anwendung des Entwicklungssatzes (Verkleinerung der Reihenzahl) führt letzendlich wieder auf n! Rechenoperationen; die Entwicklung nach einer Zeile empfiehlt sich, wenn diese viele Nullen enthält. Die Entwicklung von |AT | nach der i-ten Spalte ist identisch mit der Entwicklung von |A| nach der i-ten Zeile: n X |A| = aik Aik . k=1 Folgerung 6.1 Sei A eine quadratische n-reihige Matrix, dann gilt für alle j, k, 1 ≤ j, k ≤ n n X i=1 6.5 aij Aik = 0, falls j 6= k. Einige Anwendungen Satz 6.6 Für jede quadratische Matrix A vom Typ (n, n) gilt |A| 6= 0 gdw. rgA = n. Satz 6.7 det c11 0 ... .. . ... c1n cnn = c11 · . . . · cnn . Satz 6.8 (Cramersche Regel) Es Sei Ax = b ein lineares Gleichungssystem mit quadratischer Koeffizientenmatrix A, dann gilt Das System ist genau dann eindeutig lösbar, wenn |A| 6= 0. Ist |A| 6= 0, so berechnet sich die einzige Lösung (x1 , . . . , xn ) nach der Formel xi = |Ai | , |A| wobei Ai diejenige Matrix ist, die aus A entsteht, wenn man die i-te Spalte durch die rechte Seite des Systems ersetzt. 21 Folgerung 6.2 Für jedes j, k, 1 ≤ j ≤ k ≤ n gilt Darstellung der Inversen einer Matrix Pn i=1 aij Aik = 0, falls j 6= k ist. Satz 6.9 Sei A invertierbar, dann gilt A−1 A 1 11 = |A| A1n ... ... ... An1 Ann . Wir kehren zu der Frage nach der Diagonalisierbarkeit einer n × n-Matrix zurück. Dies ist der Fall, wenn es n linear unabhängige Eigenvektoren gibt. Um dies entscheiden zu können, berechnen wir zunächst alle Eigenwerte von A und dann zu jedem Eigenwert λ den Eigenraum EλA . Wenn A r verschiedene Eigenwerte besitzt und d1 , . . . , dr die Dimensionen der zugehörigen Eigenräume sind, so ist A genau dann diagonalisierbar, wenn d1 + . . . + dr = n ist. Die reelle Zahl λ ist genau dann Eigenwert von A, wenn rg(A − λE) < n ist, und dies ist genau dann der Fall, wenn |A − λE| = 0 ist. Definition 6.7 pA (λ) = |A − λE| heißt das charakteristische Polynom der Matrix A. Sei p(λ) = αn λn + αn−1 λn−1 + . . . + α1 λ + α0 , dann ist αn = (−1)n αn−1 = (−1)n−1 (a11 + . . . + ann ) α0 = p(0) = |A| Die Zahl a11 + . . . + ann heißt die Spur der Matrix A. Satz 6.10 Ähnliche Matrizen haben dasselbe charakteristische Polynom. Dieser Satz gibt die Rechfertigung für die folgende Definition 6.8 Sei V ein reeller Vektorraum und ϕ : V −→ V ein linearer Operator, dann heißt das charakteristische Polynom einer beliebigen, ϕ beschreibenden Matrix A das charakteristische Polynom: pϕ (λ) = pA (λ). Bemerkungen 1. Das charakteristische Polynom eines linearen Operators ϕ auf einem n-dimensionalen Vektorraum V hat den Grad n. 2. Die Eigenwerte von ϕ sind die Nullstellen des charakteristischen Polynoms von ϕ. 3. Jeder lineare Operator hat höchstns n verschiedene Eigenwerte. 4. Es gibt lineare Operatoren, die keine (reellen) Eigenwerte und somit keine Eigenvektoren besitzen. 5. Wenn pϕ (λ) genau n reelle Nullstellen besitzt, so ist ϕ diagonalisierbar (die Umkehrung gilt nicht). 6. λ∗ ist genau dann Eigenwert von ϕ, wenn pϕ (λ) = (λ − λ∗ )q(λ) ist. 7. Wenn λ∗ ein Eigenwert von ϕ ist und pϕ (λ) = (λ − λ∗ )k r(λ) mit r(λ∗ ) 6= 0 ist, so heißt λ∗ k-fache Nullstelle von pϕ (λ). Die Zahl k heißt die algebraische Vielfachheit des Eigenwerts λ∗ , die Dimension des Eigenraums Eλϕ∗ heißt dessen geometrische Vielfachheit. 8. Zwischen der geometrischen Vielfachheit d und der algebraischen Vielfachkeit k besteht die Beziehung 1 ≤ d ≤ k ≤ n. Folgerung 6.3 ϕ ist genau dann diagonalisierbar, wenn pϕ (λ) in Linearfaktoren zerfällt und für jeden Eigenwert die algebraische und die geometrische Vielfachheit übereinstimmt. 22