Universität Regensburg Lineare Algebra Dozent: Prof. Bernd Ammann LATEX: Frank Reinhold Wintersemester 2007/2008 Sommersemester 2008 Inhaltsverzeichnis 1 Gruppen, Ringe, 1.1 Gruppe . . . 1.2 Ring . . . . . 1.3 Körper . . . . Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 3 2 Matrizen 2.1 n × m-Matrix . . . . . . . . 2.2 Addition von Matrizen . . . 2.3 Multiplikation von Matrizen 2.4 Multiplikation von Matrizen 2.5 Transposition . . . . . . . . 2.6 Lineare Gleichungssysteme . 2.7 Quadratische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . mit Skalaren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 4 4 4 4 4 3 Vektorräume, Basen 3.1 Vektorraum . . . . 3.2 Basis . . . . . . . . 3.3 Dimension . . . . . 3.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 6 6 4 Lineare Abbildungen 4.1 Matrix einer Linearen Abbildung . 4.2 Homomorphismen als Vektorräume 4.3 Dualraum . . . . . . . . . . . . . . 4.4 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 6 7 5 Determinanten 5.1 Symmetrische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Berechnung von Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 8 8 6 Eigenwerte und Eigenvektoren 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Euklidische und Unitäre Vektorräume 7.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Euklidische Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Isometrien, orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . 7.5 Isometrien, unitäre Matrizen . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Orthonormale Hauptachsentransformation von rellen Bilinearformen . . 7.7 Hauptachsentransformation von rellen Bilinearformen . . . . . . . . . . 7.8 Orthonormale Hauptachsentransformation von symmetrischen Matrizen 7.9 Unitäre Hauptachsentransformation von hermiteschen Matrizen . . . . . 7.10 Adjungierte Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 9 9 9 10 10 10 10 10 11 7.11 Orthonormale Hauptachsentransformation von selbstadjungierten Matrizen . . . . . . . . . . . . 11 8 Polynome und Ringe 8.1 Polynome . . . . . . . . . . . . . . . . . . . . 8.2 Addition und Multiplikation von Polynomen . 8.3 Ringe . . . . . . . . . . . . . . . . . . . . . . 8.4 Eigenschaften der Polynome . . . . . . . . . . 8.5 Polynomdivision . . . . . . . . . . . . . . . . 8.6 Nullstellen von Polynomen . . . . . . . . . . . 8.7 Ideale und Hauptideale . . . . . . . . . . . . . 8.8 Teiler, irreduzible und Primelemente . . . . . 8.9 Größter gemeinsamer Teiler . . . . . . . . . . 8.10 Primfaktorzerlegung . . . . . . . . . . . . . . 8.11 Algebraische Abgeschlossenheit . . . . . . . . 8.12 Reelle Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 11 11 11 12 12 12 13 13 13 13 14 9 Charakteristisches und Minimalpolynom 9.1 Charakteristisches Polynom . . . . . . . . 9.2 Minimalpolynom . . . . . . . . . . . . . . 9.3 Normalformen von Endomorphismen . . . 9.4 Nilpotenz . . . . . . . . . . . . . . . . . . 9.5 Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 14 14 15 15 15 10 Diagonalisierbarkeit 10.1 Normalformen von Endomorphismen auf Räumen mit Skalarprodukt 10.2 Quadratwurzel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Polarzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4 Normalformen von Endomorphismen in Euklidischen Vektorräumen 10.5 Normalformen von Isometrien und orthogonalen Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 16 16 17 17 17 . . . . . . . . . . 11 Affine Räume 17 11.1 Quadrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 12 Tensorprodukt 18 13 Äußeres Produkt 19 14 Algebra 20 Frank Reinhold 1 Lineare Algebra Gruppen, Ringe, Körper 1.1 Gruppe Seite 23-28 Eine Gruppe ist eine Menge X mit einer Verknüpfung ◦, für die gilt: 1. Assoziativität: ∀x, y, z ∈ X gilt: (x ◦ y) ◦ z = x ◦ (y ◦ z). 2. Neutrales Elemente: ∃e ∈ X, sodass ∀x ∈ X gilt: e ◦ x = x = x ◦ e. 3. Inverses Element: ∀x ∈ X∃y ∈ X, sodass gilt: x ◦ y = e = y ◦ x. 4. (Kommutativität: ∀x, y ∈ X gilt: x ◦ y = y ◦ x) ⇒ abelsche Gruppe. 1.2 Ring Seite 28-31 Ein Ring ist eine Menge R mit zwei Verknüpfungen +, ·, für die gilt: 1. (R, +) ist eine abelsche Gruppe. 2. (R, ·) ist assoziativ. 3. +, · erfüllen das Distributivgesetz: ∀x, y, z ∈ R gilt: x · (y + z) = x · y + x · z. 4. ((R, ·) besitzt ein neutrales Elemten) ⇒ Ring mit 1. 5. ((R, ·) ist kommutativ) ⇒ kommutativer Ring. 1.3 Körper Seite 31 Ein Körper ist eine Menge K mit zwei Verknüpfungen +, ·, für die gilt: 1. (R, +) ist eine abelsche Gruppe. 2. (R, ·) ist eine abelsche Gruppe. 3. +, · erfüllen das Distributivgesetz. 2 2.1 Matrizen n × m-Matrix Seite 33-34 Eine Abbildung {1, . . . , n} × {1, . . . , m} → R, (i, j) 7→ aij heißt ! n × m-Matrix. a11 ··· a1m .. .. A ∈ Mat(n, m; K) dann ist A von der Form: A = . . . an1 ··· anm Für n = 1: A = ( a11 ···!a1m ) heißt Zeilenvektor. a11 .. Für m = 1: A = heißt Spaltenvektor. . an1 Ist n = m, dann heißt die Matrix quadratische Matrix. 2.2 Addition von Matrizen Seite 34 Seien A, B ∈ Mat(n, m; K). Dann ist die Addition von Matrizen definiert als a11 · · · a1m b11 · · · b1m a11 + b11 · · · .. + .. .. = .. A + B := ... . . . . an1 · · · anm bn1 · · · bnm an1 + bn1 · · · 6. Februar 2009 a1m + b1m .. . anm + bnm Seite 3 Lineare Algebra 2.3 Frank Reinhold Multiplikation von Matrizen Seite 34-35 Man kann eine k × l-Matrix mit einer m × n-Matrix multiplizieren, falls l = m. Wir definieren das Produkt Pl zweier Matrizen (cij )i∈{1,...,k},j∈{1,...,n} durch cij := x=1 aix bxj 2.4 Multiplikation von Matrizen mit Skalaren Seite 35 Seien µ, λ ∈ R, A, B ∈ Mat(n, m; K). Dann ist λ(aij ) = (λaij ) λ(AB) = (λA)C = A(λC), λµA = µλA (λ + µ)A = λA + µA, µ(A + B) = µA + µB 2.5 Transposition Seite 36 Die Abbildung T : Mat(n, m; K) → Mat(m, n; K), (aij ) 7→ (aji ) heißt Transposition. Es gilt: (AT )T = A, (A + B)T = AT + B T , (AB)T = B T AT 2.6 Lineare Gleichungssysteme Seite 38-40; Wikipedia, Stichwort: Lösbarkeit“ ” Ein Vektor x ist eine Lösung des linearen Gleichungssystems, wenn Ax = b gilt. Ob und wie viele Lösungen ein Gleichungssystem besitzt, ist unterschiedlich. Bei linearen Gleichungssystemen treten drei Fälle auf: 1. das lineare Gleichungssystem hat keine Lösung. 2. das lineare Gleichungssystem hat genau eine Lösung. 3. das lineare Gleichungssystem hat unendlich viele Lösungen, falls K kein endlicher Körper ist, ansonsten ist die Anzahl der Lösungen eine Potenz der Mächtigkeit von K. Dabei ist das lineare Gleichungssystem genau dann lösbar, wenn der Rang der Koeffizientenmatrix A gleich dem Rang der erweiterten Koeffizientenmatrix ist. Entspricht der Rang der (erweiterten) Koeffizientenmatrix auch noch der Anzahl der Unbekannten, so besitzt das Gleichungssystem genau eine Lösung. Bei einem quadratischen Gleichungssystem gibt die Determinante Auskunft über die Lösbarkeit. Das Gleichungssystem ist genau dann eindeutig lösbar, wenn der Wert der Determinante der Koeffizientenmatrix ungleich null ist. Ist der Wert jedoch gleich null, hängt die Lösbarkeit von den Werten der Nebendeterminanten ab. Bei diesen wird jeweils eine Spalte der Koeffizientenmatrix durch die Spalte der rechten Seite (den Vektor b) ersetzt. Nur wenn alle Nebendeterminanten den Wert null haben, kann das System unendlich viele Lösungen haben, ansonsten ist das Gleichungssystem unlösbar. Insbesondere Gleichungssysteme mit mehr Gleichungen als Unbekannten besitzen oft keine Lösung. Beispielsweise besitzt das folgende Gleichungssystem keine Lösung, da x1 nicht beide Gleichungen erfüllen kann: 3x1 = 2 4x1 = 2 . Lösungen werden dann meist über die Ausgleichungsrechnung definiert und bestimmt. Dass ein lineares Gleichungssystem unendlich viele Lösungen hat, kann nur vorkommen, wenn es weniger linear unabhängige Gleichungen als Unbekannte gibt. Beispielsweise besitzt das folgende, aus nur einer Gleichung bestehende Gleichungssystem unendlich viele Lösungen, nämlich alle Vektoren mit x2 = 1 − x1 : x1 + x2 = 1. Sei Ax = 0 ein homogenes Gleichungssystem, A ∈ Mat(n, m; R), x ∈ Rm . Dann gilt: Lös(Ax = 0) ist eine Untergruppe von (Rm , +) und falls x ∈ Lös(Ax = 0) und λ ∈ R, dann auch λx ∈ Lös(Ax = 0). Beweis: A · 0 = 0 ⇒ 0 ∈ Lös(Ax = 0) 6= ∅. Falls x, y ∈ Lös(Ax = 0), dann Ax = Ay = 0 ⇒ A(x + y) = Ax + Ay = 0 + 0 = 0 ⇒ (x + y) ∈ Lös(Ax = 0) 2.7 Quadratische Matrizen Seite 40-41 Die Menge Mat(n, n; R) bildet, mit Matrizenmultiplikation und Matrizenaddition versehen, einen Ring. Eine Matrix A heißt invertierbar, falls es ein B ∈ Mat(n, n; R) gibt, sodass AB = BA = 1. Seite 4 6. Februar 2009 Frank Reinhold 3 Lineare Algebra Vektorräume, Basen 3.1 Vektorraum Seite 43-45 Ein Vektorraum über K ist eine Menge V , versehen mit einer Addition + : V × V → V , (v, w) 7→ v + w und einer Multiplikation mit Skalaren · : K × V → V , (λ, v) 7→ λv, mit folgenden Eigenschaften: 1. (V, +) ist eine abelsche Gruppe. 2. ∀v ∈ V gilt 1K · v = v. 3. Assoziativität: ∀λ, µ ∈ K und ∀v ∈ V gilt: (λmu)v = λ(µv) 4. Distributivität: ∀λ, µ ∈ K und ∀v, w ∈ V gilt: (λ +K µ)v = λv + λw, λ(v + w) = λv + λw Eine Teilmenge U ⊆ V mit der auf U eingeschränkten Addition und Multilikation mit Skalaren ist genau dann ein Untervektorraum, wenn: 1. U 6= ∅. 2. U abgeschlossen bzgl. Addition. 3. U abgeschlossen bzgl. Multiplikation mit Skalaren. 3.2 Basis Seite 46-56 T Seien A ⊆ V , IA,V := {U |U ist Untervektorraum von V ∧ A ⊆ U }, dann ist span A := (U |U ∈ IA,V ) der von A erzeugte Untervektorraum. Falls span A = V , dann erzeugt A ⊆ V den Vektorraum V . P Es gilt: v ∈ span A, genau dann wenn ∃λa , a ∈ A mit v = a∈A λa a (Linearkombination). Im unendlichen funktioniert das mit einer quasi-endlichen Familie von Skalaren analog. Eine Familie von Vektoren (vP i |i ∈ I) heißt linear abhängig, wenn es nicht-triviale quasi-endliche Familien von Skalaren (λi |i ∈ I) gibt, mit ( i∈I λi vi = 0. i=j . i 6= j Wir definieren ei := (δij )j∈{1,...,n} ∈ Kn als die kanonische Basis von Kn . Eine V erzeugende Familie von Vektoren ist genau dann minimal, wenn sie linear unabhängig ist. Eine linear unabhängige Familie von Vektoren erzeugt V genau dann, wenn sie maximal ist. Dann ist diese Familie von Vektoren eine Basis von V. Sei V ein Vektorraum, n ∈ N und (vi |i ∈ {1, . . . , n}) eine V erzeugende Familie. Dann besitzt V eine Basis. Basis-Ergänzungssatz: Sei V ein Vektorraum, (vi |i ∈ I) eine linear unabhängige Familie von Vektoren in V und (vi |i ∈ J), J ⊇ I eine V erzeugende Familie. Dann gibt es eine Indexmenge K mit I ⊆ K ⊆ J, sodass (vi |i ∈ K) eine Basis von V ist. Beweis: Sei U := {(vi |i ∈ L)|I ⊆ L ⊆ J, (vi |i ∈ L) linear unabhängig}. Wir wollen zeigen, dass (U, ≤) mindestens ein maximales Elemente (vi |i ∈ K) enthält. Dies ist dann die gesuchte Basis. Alle Elemente von U sind von der Form (vi |i ∈ Iu ). Die vi sind immer die selben, nur Iu hängt von u ab. Wir müssen also maximale Elemente von U := {L ⊆ J|I ⊆ L, (vi |i ∈ L) linear unabhängig} bezüglich der Relation ⊆ bestimmen. Um die Existenz eines maximalen Elements zu zeigen, wenden wir das Lemma von Zorn an. Sei Q eine total S S ˜ ist linear geordnete Teilmenge von U . Wir definieren I˜ := Q = A∈Q A ⊆ J. Nun behaupten wir: (vi |i ∈ I) unabhängig. P ˜ Um die Behauptung zu zeigen, nehmen wir an, dass 0 = i∈I˜ λi vi für eine quasi-endliche Familie (λi |i ∈ I). P ˆ ˜ Sei I := {i ∈ I|λi 6= 0}, also 0 = i∈Iˆ λi vi . ˆ hat ein maximales Element Zu jedem i ∈ Iˆ wählen wir ein Ii ∈ Q mit i ∈ Ii . Die endliche Menge {Ii |i ∈ I} bezüglich ⊆, das wir I¯ nennen. Es ist ein Maximum dieser Menge, da diese Menge Teilmenge der total geordneten ¯ Da diese Familie (vi |i ∈ I) ¯ linear unabhängig ist, folgt λi = 0 für alle i und die Menge Q ist. Es folgt Iˆ ⊆ I. Behauptung ist gezeigt. ˜ ist somit eine obere Schranke von Q in U . Das Lemma von Zorn kann angewendet werden Die Familie (vi |i ∈ I) und die Existenz eines maximalen Elements folgt. Kronecker-Symbol: δij = 6. Februar 2009 1 0 Seite 5 Lineare Algebra 3.3 Frank Reinhold Dimension Seite 57-59 Die Zeilenumformungen des Gauß’schen Verfahrens sind Äquivalenzumformungen. Sei r, k ∈ N und (v1 , . . . , vr ) ein linear unabhängiger r-Tupel von Vektoren in Kk . Dann gilt r ≤ k. Sei V ein Vektorraum mit Basis (vi |i ∈ I). Dann ist die Dimension des Vektorraumes V definiert als: dim V = #I. 3.4 Basiswechsel Seite 62-63 Sei (b1 , . . . , bn ) eine Basis von V und (v1 , . . . , vn ) = (b1 , . . . , bn )A. Dann besitzt A genau ein Links- und Rechtsinverses, wenn (v1 , . . . , vn ) eine Basis von V ist. Die Menge der invertierbaren Matrizen in Mat(n, n; K) nennen wir die allgemeine lineare Gruppe GL(n; K). Seien B = (b1 , . . . , bn ) und V = (v1 , . . . , vn ) = (b1 , . . . , bn )A zwei Basen. Ein Vektor w ∈ W habe bezüglich der Basis V die Koordinaten (λ1 , . . . , λn ). Dann gilt: Pn λ1 λ1 i=1 a1i λi .. w = v1 · · · vn ... = b1 · · · bn A ... = b1 · · · bn . Pn a λ λn λn i=1 ni i Sei (b1 , . . . , bn ) eine Basis und (v1 , . . . , vm ) = (b1 , . . . , bn )A. Falls A ∈ Mat(n, m; K) ein Rechtsinverses besitzt, so erzeugt (v1 , . . . , vm ) den Raum. Falls A ein Linksinverses besitzt, so ist (v1 , . . . , vm ) linear unabhängig. 4 Lineare Abbildungen Seite 65-69 Eine Abbildung f : V → W heißt linear, wenn f (λa + b) = λf (a) + f (b) ∀λ ∈ K, a, b ∈ V gilt. Man nennt eine lineare Abbildung auch Homomorphismus. Einen surjektiven Homomorphismus nennt man Epimorphismus, einen injektiven Monomorphismus, einen bijektiven Isomorphismus. Einen Homomorphismus V → V nennt man Endomorphismus, einen bijektiven Endomorphismus nennt man Automorphismus. Der Kern von f : ker f := {v ∈ V |f (v) = 0} = f −1 ({0}) ist ein Untervektorraum von V . Das Bild von f : im f := {f (v)|v ∈ V } = f (V ) ist ein Untervektorraum von W . Sei f linear, dann ist f injektiv, genau dann wenn ker f = {0}. Beweis: Sei f injektiv, dann hat 0 genau ein Urbild. 0 ∈ ker f , also ist ker f = {0}. Sei nun ker f = {0}. Falls f (v) = f (w) für v, w ∈ V gilt, dann haben wir f (v − w) = f (v) − f (w) = 0, also v − w ∈ ker f . Also folgt v = w ⇒ f injektiv. Rangformel: Sei f : V → W linear. Dann gilt dim V = dim ker f + dim im f . Der Rang von f ist definiert als Rang f = dim im f . 4.1 Matrix einer Linearen Abbildung Seite 70-72 Sei f : Km → Kn eine lineare Abbildung. Dann gibt es eine Matrix A ∈ Mat(n, m; K), sodass f = LA : Km → Kn , v 7→ Av ist. Diese Matrix erhält man leicht als A := ( L(e1 ) ··· L(em ) ). (v ,...,v )·A (v ,...,v ) Basiswechsel: Mat(w11 ,...,wnm )·B (f ) = B −1 · Mat(w11 ,...,wnm ) (f ) · A. 4.2 Homomorphismen als Vektorräume Seite 72-73 Die Menge hom(V, W ) versehen mit der Addition + : hom(V, W ) × hom(V, W ) → hom(V, W ), (f, g) 7→ (v → 7 (f + g)(v) = f (v) + g(v)) und der Multiplikation mit Skalaren · : K × hom(V, W ) → hom(V, W ), (α, f ) 7→ (v → 7 (αf )(v) = αf (v)) ist ein K-Vektorraum. 4.3 Dualraum Seite 73-77 Wir nennen V 0 = hom(V, K) den Dualraum zu V . Vektoren in V 0 nennt man auch Linearformen auf V . Ist a ∈ V 0 , a 6= 0, dim V = n, dann ist ker a ein n − 1-dimensionaler Untervektorraum von V . Sei V endlich-dimensional und (b1 , . . . , bn ) eine Basis von V , dann definieren wir für i ∈ {1, . . . , n} die Linearform b0i : V → K durch die Angabe der Bilder der Basis (b1 , . . . , bn ): b0i (bj ) := δij . Ist (b1 , . . . , bn ) eine Basis Seite 6 6. Februar 2009 Frank Reinhold Lineare Algebra von V , so ist (b01 , . . . , b0n ) eine Basis von V 0 . P n 0 0 0 Beweis (Lineare Unabhängigkeit): Sei i=1 λi bi = 0V ∈ V . Wir setzen bj ein und erhalten: 0K = Pn Pn 0 0 0 0V 0 (bj ) = i=1 λi bi (bj ) = i=1 λi δij = λj . Also sind alle λj = 0 und deswegen (b1 , . . . , bn ) linear unabhängig. Pn Beweis (Erzeugendensystem): Sei a ∈ V 0 . Unser Ziel ist es λi zu finden, so dass a = i=1 λi b0i . Um die Formel zu motivieren, nehmenPwir zunächst an, wir hätten sie bereits gezeigt und werten auf bj aus und erhalPn n ten: a(bj ) = i=1 λi b0i (bj ) = i=1 λi δij = λj . Wenn esPalso λj mit den gewünschten Eigenschaften gibt, dann n λj = a(bj ). Wir probieren also aus: λi := a(bi ), ã = i=1 λi b0i . Es folgt dann wie oben a(bj ) = λj = ã(bj ). Somit stimmen a und ã auf der Basis (b1 , . . . , bn ) überein, also ã = a. Es folgt, dass (b01 , . . . , b0n ) den Raum V 0 erzeugt. (w0 ) Sei (v1 , . . . , vm ) eine Basis von V , (w1 , . . . , wn ) eine Basis von W und f : V → W linear, dann gilt: Mat(v0i) (f 0 ) = i T (vi ) Mat(wi ) (f ) . ∼ (im f )0 . Sei f : V → W ein Homomorphismus zwischen beliebigen Vektorräumen. Dann gilt: im(f 0 ) = 4.4 Rang Seite 77-81 Wir nennen dim im LA = Rang LA den Spaltenrang von A. Offensichtlich ist der Zeilenrang von A gleich dem Spaltenrang von AT , das heißt der Zeilenrang von A ist gleich dim im LAT . Für jede Matrix A ∈ Mat(n, n; K) stimmen Zeilenrang und Spaltenrang überein. Beweis mit Dualräumen: Sei S der Spaltenrang und Z der Zeilenrang von A. Es gilt nach Definition: S = dim im LA und Z ist der Spaltenrang von AT . Wir drücken die Abbildung (LA )0 : (Kn )0 → (Km )0 in den (e0 ,...,e0 ) Basen (e01 , . . . , e0n ) und (e01 , . . . , e0m ) aus. Dann ist Mat(e01 ,...,e0n ) ((LA )0 ) = AT . Es folgt Z = Rang ((LA )0 ) = m 1 dim im ((LA )0 ). Andererseits ist im ((LA )0 ) isomorph zu (im LA )0 und somit Z = dim(im LA )0 = dim im LA = S. Elementare Zeilenumformungen bewahren den Zeilen- bzw. Spaltenrang. Sei A ∈ Mat(n, m; K). Dann erhalten wir aus A durch endlich viele elementare Zeilenumformungen eine Matrix in Zeilenstufenform. 5 Determinanten Seite 83-85 Sei A := ( aa11 21 a12 a22 ). Wir definieren die Determinante von A als det A := a11 a22 −a12 a21 . Diese Abbilung erfüllt: 1. det A 6= 0 ⇔ A invertierbar ⇔ Rang A = 2 2. det A = det AT 3. Bilinearität in Spalten und Zeilen 4. Alternierend in Spalten und Zeilen 5. det AB = det A det B, det 12 = 1, det A−1 = (det A)−1 Sei V ein 2-dimensionaler Vektorraum mit zwei Basen vi und wi . Dann gilt: Die Determinante ist unabhängig von der Wahl der Basis. vi −1 i i Beweis: Wähle B, sodass Matvvii (f ) = B −1 Matw Matw wi (f )B. Dann ist det Matvi (f ) = det(B wi (f )B) = w w (det B)−1 det Matwii (f ) det B = det Matwii (f ). Geometrische Interpretation: Ein Parallelogram werde von a = ( aa11 ) und b = ( aa12 ) aufgespannt. Dann ist 21 22 a11 a12 der Flächeninhalt gegeben durch | det ( a21 a22 ) |. 5.1 Symmetrische Gruppe Seite 85-89 Wir versehen die Menge Sn := Bij({1, . . . , n}), n ∈ N mit der Verkettung von Abbildungen. Dies ist eine Gruppe mit neutralem Element Id{1,...,n} . Man nennt sie die Permutationsgruppe oder Symmetrische Gruppe zum Index n. Eine Permutation σ ∈ Sn heißt Transposition von i und j, falls σ(i) = j, σ(j) = i und σ(k) = k ∀k ∈ {1, . . . , n} \ {i, j}. σ = [i, j] ist also ein Zykel der Länge 2. Zwei Zykel heißen disjunkt, wenn kein Element sowogl von σ1 , als auch von σ2 verschoben wird, also entweder σ1 (i) = i, oder σ2 (i) = i ∀i ∈ {1, . . . , n}. Jede Permutation ist die Verkettung von disjunkten Zykeln. Jede 6. Februar 2009 Seite 7 Lineare Algebra Frank Reinhold Permutation ist die Verkettung von Transpositionen. Ein Fehlstand einer Permutation σ ∈ Sn ist eine Teilmenge {i, j} ⊆ {1, . . . , n}, i < j mit σ(i) > σ(j). Q ∈ {−1, 1}. Für τ, σ ∈ Sn gilt: sgn(τ ◦ σ) = sgn(τ ) sgn(σ). Signum: sgn(σ) := 1≤i<j≤n σ(j)−σ(i) j−i Eine Permutation ist genau dann gerade, wenn sie die Verkettung einer geraden Anzahl von Transpositionen ist, oder wenn sie eine gerade Anzahl von Fehlständen hat. 5.2 Multilineare Abbildungen Seite 89-97 Seien V1 , . . . , Vr , W Vektorräume über K. Eine Abbildung f : V1 × . . . × Vr → W heißt multilinear, falls ∀j ∈ {1, . . . , r} und alle v1 ∈ V1 , . . . , vr ∈ Vr die Abbildung Vj → W , v 7→ f (v1 , . . . , v, . . . , vr ) linear ist. Für 2-linear sagt man auch Bilinear. Pn Das kanonische Skalarprodukt auf Rn ist bilinear: Rn × Rn → R, (x, y) 7→ hx, yi = i=1 xi yi Eine Abbildung F : V × . . . × V → W heißt alternierend, falls für alle v1 , . . . , vn ∈ V und i 6= j gilt: F (v1 , . . . , vi , . . . , vj , . . . , vn ) = −F (v1 , . . . , vj , . . . , vi , . . . , vn ). Für alternierende r-lineare Abbildungen F und σ ∈ Sr gilt: F (vσ(1) , . . . , vσ(r) ) = sgn(σ)F (v1 , . . . , vr ). Die Funktion a1n a11 X (sgn(σ)) · aσ(1)1 · . . . · aσ(n)n det : Kn × . . . × Kn → K, ... . . . ... 7→ σ∈S n ann an1 ist eine Determinantenform auf Kn . Für A, B ∈ Mat(n, n; K) gilt: 1. det(AB) = det(A) det(B) 2. Eine Matrix A ist genau dann invertierbar, wenn det(A) 6= 0. 3. Für alle quadratischen Matrizen A gilt: det(A) = det(AT ). Sei f : V → V ein Endomorphismus, B eine Basis von V . Dann definieren wir die Determinante von f als det(f ) := det(MatB B (f )). 5.3 Berechnung von Determinanten Seite 97-102 Diagonalmatrizen: det(Diag(λ1 , . . . , λn )) = λ1 · . . . · λn Gauß’sches Verfahren: Elementare Zeilen- und Spaltenumformungen vom Typ 1 - Multiplikation einer Zeile mit λ1 - multiplizieren die Determinante mit λ. Typ 2 - Addition einer Zeile zu einer anderen - erhält die Determinante. Typ 3 - vertauschen zweier Zeilen - wechselt das Vorzeichen der Determinante. Blockmatrizen: det ( A0 B C ) = det(A) det(C) P n Laplacescher Entwicklungssatz: det(A) = i=1 (−1)i+j · aij · det(Âij ) Cramersche Regel: Aad · A = det(A) · 1n = A · Aad 6 Eigenwerte und Eigenvektoren Seite 103-108 Sei V ein K-Vektorraum und F : V → V ein Endomorphismus. Ein Skalar λ ∈ K heißt Eigenwert von F , wenn es ein v ∈ V \ {0} gibt, sodass F (v) = λv ist. Der Vektor v heißt der zu λ gehörige Eigenvektor von F . Der Vektorraum EignF (λ) := ker(F − λ · Id) heißt der zu λ gehörige Eigenvektorraum von F . Seine Dimension heißt Multiplizität des Eigenwertes λ. Zwei Matrizen C, Ĉ heißen ähnlich, falls es ein A ∈ GL(n, K) gibt mit Ĉ = A−1 CA. Eine Matrix C ∈ Mat(n, n; K) heißt diagonal, falls cij = 0 ∀i 6= j. Sie heißt trigonal, falls cij = 0 ∀i > j. Ein Endomorphismus ist diagonalisierbar, falls es eine Basis B von V gibt, sodass MatB B (f ) diagonal ist. Eine Matrix ist genau dann diagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix ist. Die Summe von verschiedenen Eigenräumen ist direkt. Ist n = dim V , dann gibt es höchstens n verschiedene Eigenwerte und die Summe der Multiplizitäten aller Eigenwerte ist höchstens n. Wir definieren die charakteristische Polynomfunktion von f als χf : K → K, χf (λ) = det(λ · Id − f ). Für eine Matrix A als χa : K → K, χA (λ) = det(λ · 1 − A). Es gilt χf (x) = 0 genau dann, wenn x ein Eigenwert von f ist. Beweis: x ist Eigenwert von f , genau dann wenn 0 6= Eignf (x) = ker(f − x · Id), genau dann wenn x · Id − f nicht invertierbar ist, genau dann wenn det(x · Id − f ) = 0. Seite 8 6. Februar 2009 Frank Reinhold 7 Lineare Algebra Euklidische und Unitäre Vektorräume 7.1 Bilinearformen Seite 109-111 Sei V ein K-Vektorraum. Eine Abbildung F : V × V → K heißt Bilinearform auf V , falls ∀w ∈ V die Abbildung V → K, v 7→ F (v, w) und V → K, v 7→ F (w, v) linear sind. Den Raum aller Bilinearformen auf V bezeichnen wir mit Bilin(V ). Eine Bilinearform heißt symmetrisch, falls F (v, w) = F (w, v) ∀v, w ∈ V . Den Raum aller symmetrischen Bilinearformen auf V bezeichnen wir als Sym2 (V ). Sei (b1 , . . . , bn ) eine Basis von V . Die Abbildung mat(bi) : Bilin(V ) → Mat(n, n; K) ist ein Isomorphismus. Basistransformation: Seien (b1 , . . . , bn ) und (d1 , . . . , dn ) = (b1 , . . . , bn ) · C zwei Basen von V . Dann gilt: mat(di ) (F ) = C T · mat(bi ) (F ) · C. 7.2 Euklidische Vektorräume Seite 111-115 Eine symmetrische Bilinearform G ∈ Bilin(V ) heißt positiv definit, falls G(v, v) > 0 ∀v ∈ V \ {0}. Eine positiv definite symmetrische Bilinearform bezeichnen wir als Skalarprodukt auf V . Ein Euklidischer Vektorraum ist ein Paar (V, G), wobei V ein reeller Vektorraum und G ein Skalarprodukt auf V ist. Cauchy-Schwarzsche-Ungleichung: Auf einem Euklidischen Vektorraum (V, G) gilt ∀x, y ∈ V : G(x, y)2 ≤ G(x, x)G(y, y) p und Gleichheit, wenn x und y linear abhängig sind. Wir definieren die von G induzierte Norm als kxkG := G(x, x). Sind v, w ∈ V \ {0}, so definiert man den Winkel zwischen v und w als die Zahl α ∈ [0, π], sodass cos(α) = G(v,w) kvkkwk . Eine Familie von Vektoren (vi |i ∈ I) heißt orthogonal, falls vi ⊥wi ∀i ∈ I ⇔ G(vi , wi ) = 0 ∀i ∈ I. Sie heißt orthonormal, wenn sie orthogonal ist und zusätzlich gilt kvi kG = 1 ∀i ∈ I. Jede orthogonale Familie von Vektoren ist linear unabhängig. Gram-Schmidtsches-Orthonormalisierungsverfahren: Sei (v1 , . . . , vn ) eine beliebige Basis von V . Dann bestimmen wir induktiv: b1 := 7.3 k X v1 b̂2 , b̂2 := v2 − G(v2 , b1 )b1 , b2 := G(vi+1 , bi )bi , . . . , b̂k+1 := vk+1 − kv1 k kb̂2 k i=1 Unitäre Vektorräume Seite 115-118 Eine Abbildung f : V → W heißt semi-linear, falls ∀v, w ∈ V und λ ∈ C gilt: f (λv + w) = λ̄f (v) + f (w). Sei V ein komplexer Vektorraum. Eine Abbildung G : V × V → C heißt sesqui-linear, falls ∀w ∈ V die Abbildung V → C, v 7→ G(w, v) semi-linear und V → C, v 7→ G(v, w) linear ist. Den Raum aller Sesquilinearformen auf V bezeichnen wir als Sesqui(V ). Eine Sesquilinearform heißt hermitesch, falls G(v, w) = G(w, v). Eine Sesquilinearform heißt positiv definit, Pn falls ∀v T∈ V \ {0} gilt: G(v, v) ∈ R und G(v, v) > 0. Wir definieren hv, wiC := n i=1 vi w̄i = v w̄ als das kanonische Skalarprodukt auf C. Wir sagen A ∈ Mat(n, n; C) ist hermitesch oder selbstadjungiert, wenn ĀT = A. Jede positiv definite Sesquilinearform ist hermitesch. Ein komplexes Skalarprodukt auf V ist eine positiv definite Sesquilinearform auf V . Ein unitärer Vektorraum ist ein Paar (V, G), wobei V ein komplexer Vektorraum und G ein komplexes Skalarprodukt auf V ist. 7.4 Isometrien, orthogonale Matrizen Seite 118-119 Seien V, W Euklidische Vektorräume. Eine Abbildung f : V → W heißt Isometrie, falls f linear ist und ∀v, w ∈ V gilt hf (v), f (w)iW = hv, wiV . Isometrien sind injektiv. Eine Matrix heißt orthogonal, falls LA : Rn → Rn eine Isometrie ist, wobei A ∈ Mat(n, n; R). Für orthogonale Matrizen ist äquivalent: 1. A oder AT ist orthogonal. 2. AAT = AT A = 1n 3. Die Spalten bzw. Zeilen von A bilden eine Orthonormalbasis. 6. Februar 2009 Seite 9 Lineare Algebra Frank Reinhold Die orthogonalen n × n-Matrizen bilden, versehen mit der Matrizenmultiplikation, eine Gruppe, die sogenannte orthogonale Gruppe O(n), eine Untergruppe von GL(n; R). Beispiel: Die Abbildung R → R2 , x 7→ ( x0 ) ist eine Isometrie. 7.5 Isometrien, unitäre Matrizen Seite 120-121 Seien V, W unitäre Vektorräume. Eine Abbildung f : V → W heißt Isometrie, falls f linear ist und ∀v, w ∈ V gilt hf (v), f (w)iW = hv, wiV . Eine Matrix heißt unitär, falls LA : Cn → Cn eine Isometrie ist, wobei A ∈ Mat(n, n; C). Für unitäre Matrizen ist äquivalent: 1. A, Ā, AT , oder ĀT ist unitär. 2. AĀT = ĀT A = 1n 3. Die Spalten bzw. Zeilen von A bilden eine Orthonormalbasis. Die unitären n × n-Matrizen bilden, versehen mit der Matrizenmultiplikation, eine Gruppe, die sogenannte unitäre Gruppe U (n), eine Untergruppe von GL(n; C). 7.6 Orthonormale Hauptachsentransformation von rellen Bilinearformen Seite 124 Sei (V, h., .i) ein n-dimensionaler Euklidischer Vektorraum, F ∈ Sym2 (V ). Dann gibt es eine Orthonormalbasis (b1 , . . . , bn ) und λ1 , . . . , λn ∈ R, sodass λ1 0 mat(bi ) (F ) = . .. λ2 0 ··· 0 ··· .. . .. . 0 0 .. . 0 λn Oder anders ausgedrückt: F (bi , bj ) = δij λi . 7.7 Hauptachsentransformation von rellen Bilinearformen Seite 125 Sei V ein endlich-dimensionaler Vektorraum und F ∈ Sym2 (V ). Dann gibt es eine orthogonale Basis (b1 , . . . , bn ), sodass 1r 0 0 mat(bi ) (F ) = 0 −1s 0 , r + s + t = n 0 0 0t Die Basis (bi ) berechnet sich folgendermaßen: Man führt eine orthonormale Hauptachsentransformation von reellen Bilinearformen √ durch und teilt die Basisvektoren der Orthonormalbasis (ci ) durch die Wurzel des zugehörigen Eigenwertes λi . 7.8 Orthonormale Hauptachsentransformation von symmetrischen Matrizen Seite 125-126 Sei A eine symmetrische n × n-Matrix. Dann gibt es eine Matrix S ∈ O(n), sodass S T AS = S −1 AS eine Diagonalmatrix ist. Zwei quadratische Matrizen A, B ∈ Mat(n, n; R) sind orthogonal ähnlich, falls es ein S ∈ O(n) gibt mit B = S T AS. Eine Matrix A ist orthogonal diagonalisierbar, falls sie orthogonal ähnlich zu einer Diagonalmatrix ist. Eine Matrix A ist genau dann orthogonal diagonalisierbar, wenn A symmetrisch ist. 7.9 Unitäre Hauptachsentransformation von hermiteschen Matrizen Seite 129-130 Sei A ∈ Mat(n, n; C) hermitesch. Dann gibt es eine Matrix U ∈ U (n), sodass Ū T AU = U −1 AU eine Diagonalmatrix ist und auf der Diagonalen nur reelle Einträge stehen. Seite 10 6. Februar 2009 Frank Reinhold 7.10 Lineare Algebra Adjungierte Homomorphismen Seite 130-132 Sei f ∈ hom(V, W ). Ein Operator g ∈ hom(W, V ) heißt adjungiert zu f , falls ∀v ∈ V und w ∈ W gilt: hw, f (v)iW = hg(w), viV . Zu f ∈ hom(V, W ) gibt es genau einen adjungierten Homomorphismus f ∗ . Es gilt (f ∗ )∗ = f . Die Abbildung hom(V, W ) → hom(W, V ), f 7→ f ∗ ist eine semilineare Bilinearform. Es gilt: ker f ∗ = (im f )⊥ und im f ∗ = (ker f )⊥ , sowie f ∗ injektiv ⇔ f surjektiv, f ∗ surjektiv ⇔ f injektiv. Sei V ein endlich-dimensionaler unitärer, bzw. Euklidischer Vektorraum. Ein Endomorphismus f ∈ End(V ) heißt selbstadjungiert, wenn f ∗ = f . 7.11 Orthonormale Hauptachsentransformation von selbstadjungierten Matrizen Seite 132-133 Sei V ein endlich-dimensionaler unitärer, bzw. Euklidischer Vektorraum und f ∈ End(V ). Dann ist f genau dann selbstadjungiert, wenn es eine Orthonormalbasis B von V gibt, sodass MatB B (f ) eine relle Diagonalmatrix ist. 8 Polynome und Ringe 8.1 Polynome Seite 3 Ein Polynom über R ist ein Rechenausdruck der Form P = a0 +a1 X +a2 X 2 +. . .+am X m , in den wir Elemente eines Ringes S ⊇ R einsetzen können. P : R → R, r 7→ P (r) heißt die zu P assoziierte Polynomfunktion. ai heißen Koeffizienten zu P . Zwei Polynome P = a0 + . . . + am X m und Q = b0 + . . . + bn X n sind gleich, falls: 1. ai = bi ∀i ∈ {0, . . . min{m, n}} 2. ai = 0 ∀i mit n < i ≤ m 3. bi = 0 ∀i mit m < i ≤ n 8.2 Addition und Multiplikation von Polynomen Seite 3-5 Sei R ein kommutativer Ring. Wir definieren R[X] := Abbe (N0 , R) die Menge der quasi-endlichen Abbildungen N0 → R als den Ring der Polynome über R. Elemente von R[X] heißen Polynome. Addition: (ai )i∈N0 + (bi )i∈N0 := (ai + bi )i∈N0 P Multiplikation: (ai )i∈N0 · (bi )i∈N0 := (ci )i∈N0 mit ci = k+l=i;k,l∈N0 ak bl 8.3 Ringe Seite 5 Seien R, S Ringe mit 1. Eine Abbildung ϕ : R → S heißt Homomorphismus von Ringen, falls ϕ(x + y) = ϕ(x) + ϕ(y) und ϕ(xy) = ϕ(x)ϕ(y) ∀x, y ∈ R und ϕ(1) = 1. Ein Element a eines Ringes R heißt Nullteiler von R, falls a 6= 0 und ∃b ∈ R \ {0} mit ab = 0. R heißt Nullteilerfrei, wenn es keine Nullteiler gibt. R heißt Integritätsring, wenn: 1. R ist kommutativer Ring. 2. 1 6= 0 3. R ist Nullteilerfrei. Jeder Körper ist ein Integritätsring, jeder Unterring eines Integritätsrings ist selbst ein Integritätsring. 8.4 Eigenschaften der Polynome Seite 6-8 Ein Monom ist ein Polynom der Form aX m , a ∈ R, m ∈ N0 . Das X in R[X] nennt man die Unbestimmte des Polynomrings R[X]. deg P := max{i ∈ N0 |ai 6= 0} heißt Grad des Polynoms. Sei R ein Ring und P, Q ∈ R[X], dann gilt: 1. deg(P + Q) ≤ max{deg P, deg Q} 6. Februar 2009 Seite 11 Lineare Algebra Frank Reinhold 2. deg(P Q) ≤ deg Q + deg P , Gleichheit gilt, falls R Nullteilerfrei ist. Sei ϕ : R → S ein Homomorphismus von Ringen,PR kommutativ. PmFür A ∈ S definieren wir die Evaluation m oder Einsetzabbildung ev ϕA : R[X] → S, P = i=0 ai X i 7→ i=0 ϕ(ai )Ai . Sei ϕ : R → S ein Homomorphismus von Ringen. Dann gilt: 1. ev ϕA |R = ϕ 2. evϕ A (X) = A ϕ ϕ 3. evϕ A (P + Q) = evA (P ) + evA (Q) 4. evϕ A ist ein Homomorphismus von Ringen ⇔ ∀r ∈ R gilt ϕ(r)A = Aϕ(r). 8.5 Polynomdivision Seite 8-9 Seien P, Q ∈ K[X], Q 6= 0. Dann gibt es (eindeutige) S, T ∈ K[X], sodass P = QS + T mit deg T < deg Q. Beispiel: 6X 3 − 5X 2 − 11X − 6 ÷ X − 2 = 6X 2 + 7X + 3 − 6X 3 + 12X 2 7X 2 − 11X − 7X 2 + 14X 3X − 6 − 3X + 6 0 8.6 Nullstellen von Polynomen Seite 9 Sei P ∈ K[X]. α ∈ K heißt Nullstelle von P , falls P (α) = 0. α ∈ K ist Nullstelle, genau dann wenn ∃Q ∈ K[X] : Q(X − α) = P . Beweis: Sei P = Q(X − α) ⇒ P (α) = Q(α)(α − α) = 0. Sei P (α) = 0. Dividiere P durch (X − α) ⇒ P = S(X − α) + T mit deg T < deg(X − α) = 1 ⇒ ∃c ∈ K : T = c. 0 = P (α) = S(α)(α − α) + T (α) = c ⇒ c = T ==∈ K[X] 8.7 Ideale und Hauptideale Seite 10-12 Sei R ein Ring, I ⊆ R heißt Ideal, falls: 1. (I, +) ist eine Untergruppe von (R, +). 2. x · a ∈ I ∀x ∈ R, a ∈ I 3. a · x ∈ I ∀x ∈ R, a ∈ I Man schreibt kurz I / R. Insbesondere ist I abgeschlossen unter Addition, x 7→ −x, Multiplikation. Beispiel: Sei R = Z, k ∈ Z, dann ist {n · k|n ∈ Z} / Z. Sei f : R → S ein Homomorphismus T von Ringen, dann ist im f ein Unterring und ker f ein Ideal. Sei (ai )i∈I eine Familie von Idealen. Dann ist i∈I ai wieder ein Ideal. T Sei M ⊆ R. (M ) := M ⊆A⊆R A/R das kleinste Ideal von R, das M enthält. (M ) heißt das von M erzeugte Ideal in R. M heißt Erzeugendensystem von (M ). Falls M endlich ist, M := {a1 , . . . , an } dann schreibt man (a1 , . . . , an ) = ({a1 , . . . , an }). Ein Ideal heißt endlich erzeugt, falls ∃a1 , . . . , an ∈ A mit A = (a1 , . . . , an ) und Hauptideal, falls ∃b ∈ A mit A = (b). Ein Ring heißt Hauptidealring, falls R ein Integritätsring ist und jedes Ideal von R ist ein Hauptideal. Beispiel: Z ist ein Hauptidealring. Ein Euklidischer Ring ist ein Integritätsring R mit einer Abbildung d : R \ {0} → N0 , sodass ∀p, q ∈ R, q 6= 0 : ∃s, t ∈ R mit p = qs + t mit t = 0, oder d(t) < d(q). Alle Euklidischen Ringe sind Hauptidealringe. Beispiel: R = Z, d : Z → N0 , x 7→ |x|, dann ist (Z, d) ein Euklidischer Ring. Seite 12 6. Februar 2009 Frank Reinhold 8.8 Lineare Algebra Teiler, irreduzible und Primelemente Seite 12-14 Seien R, S Integritätsringe. R∗ := {invertierbare Elemente in R} = {Einheiten von R}. Wir sagen a teilt b, wenn a|b ⇔ ∃c ∈ R : b = ca. Seien a, b ∈ R \ {0}. a und b heißen assoziiert, wenn a ∼ b ⇔ a|b ∧ b|a ⇔ ∃c ∈ R∗ : b = ca. Dies ist eine Äquivalenzrelation. a ist ein echter Teiler von b ⇔ a|b ∧ a ∈ / R∗ ∧ a 6∼ b. a ist ∗ ∗ irreduzibel ⇔ a ∈ / R ∧ a hat keine echten Teiler ⇔ a ∈ / R ∧ Falls a = bc, dann b ∈ R∗ ∨ c ∈ R∗ . a ist ∗ reduzibel ⇔ ∃b, c ∈ R \ (R ∪ {0}), a = bc. a ist prim ⇔ a ∈ / R∗ ∧ ∀b, c ∈ R : a|bc ⇒ a|b ∨ a|c. In einem Integritätsring folgt aus prim die Irreduzibilität. Es gilt für a ∈ R: 1. a invertierbar ⇔ (a) = R 2. a|b ⇔ (b) ⊆ (a) 3. a ist echter Teiler von b ⇔ (b) ( (a) ∧ (a) 6= R 4. a ∼ b ⇔ (b) = (a) 5. Sei p ∈ R \ (R∗ ∪ {0}), p irreduzibel ⇔ 6 ∃ Hauptideal (b) ( R, sodass (p) ( (b). Ein Polynom heißt normiert, falls am = 1 mit P = a0 + . . . + am X m , am 6= 0. 8.9 Größter gemeinsamer Teiler Seite 15-16 c ist ein kleinstes gemeinsames Vielfaches kgV von a, b ⇔ (c) = (a)∩(b). d ist ein größter gemeinsamer Teiler ggT von a, b ⇔ (a, b) = (d). Euklidischer Algorithmus: Beim euklidischen Algorithmus wird in aufeinanderfolgenden Schritten jeweils eine Division mit Rest durchgeführt, wobei der Rest im nächsten Schritt zum neuen Divisor wird. Der Divisor, bei dem sich Rest 0 ergibt, ist der größte gemeinsame Teiler der Ausgangszahlen. Beispiel: 1071 : 1029 1029 : 42 42 : 21 =1 Rest 42 = 24 Rest 21 =2 Rest 0 Somit ist 21 der größte gemeinsame Teiler von 1071 und 1029. |m·n| . Damit lässt sich das Zusammenhang von ggT und kgV: Es gilt die folgende Formel kgV(m, n) = ggT(m,n) kgV berechnen, falls der ggT (z. B. mit dem euklidischen Algorithmus) bereits bestimmt wurde. Umgekehrt kann man mit dieser Formel auch den ggT aus dem kgV berechnen. 8.10 Primfaktorzerlegung Seite 16-18 Existenz: Sei R ein Hauptidealring, a ∈ R \ (R∗ ∪ {0}). Dann gibt es k ∈ N und irreduzible Elemente p1 , . . . , pk ∈ R, sodass a = p1 · . . . · pk . Qr Qs Eindeutigkeit: Sei R ein Hauptidealring. Es gelte i=1 pi = j=1 qj , wobei p1 , . . . , pr , q1 , . . . , qs Primelemente sind. Dann gilt r = s und ∃σ ∈ Sr , sodass pi ∼ qσ(i) ∀i ∈ {1, . . . , r}. Ein Ring, in dem die Zerlegung in irreduzible Elemente immer existiert und eindeutig ist, heißt faktorieller Ring. Wir sagen α ist eine Nullstelle von P mit Multiplizität m ∈ N, wenn (X − α)m |P , aber (X − α)m+1 6 |P . Sei P ∈ K[X] Pn \ {0}, α1 , . . . , αn ∈ K verschiedene Nullstellen von P . Sei mi die Multiplizität der Nullstelle αi . Dann gilt i=1 mi ≤ deg P . 8.11 Algebraische Abgeschlossenheit Seite 19 Ein Körper K heißt algebraisch abgeschlossen, falls jedes Polynom P ∈ K[X] mit deg P ≥ 1 mindestens eine Nullstelle besitzt. Es gilt dann sogar: Zu jedem P ∈ K[X] \ K gibt es r ∈ K ∗ und α1 , . . . , αm ∈ K mit P = r · (X − α1 ) · . . . · (X − αm ). Fundamentalsatz der Algebra: C ist algebraisch abgeschlossen. 6. Februar 2009 Seite 13 Lineare Algebra 8.12 Frank Reinhold Reelle Polynome Seite 19-21 Ein Polynom P ∈ R[X] ist irreduzibel, genau dann wenn deg P = 1 oder deg P = 2 mit P (X) = aX 2 + bX + c mit 4ac > b2 . Beweis: Sei 4ac > b2 . Angenommen P wäre reduzibel, dann ∃S1 , S2 ∈ R[X] mit deg S1 = deg S2 = 1 und P = S1 S2 . P = S1 S2 = (p1 X + q1 )(p2 X + q2 ) = p1 p2 X 2 + (p1 q2 + p2 q1 )X + q1 q2 ⇒ b2 = (p1 q2 + p2 q1 )2 = (p1 q2 − p2 q1 )2 + 4(p1 p2 q1 q2 ) ≥ 4ac 9 Charakteristisches und Minimalpolynom 9.1 Charakteristisches Polynom Seite 21-28 Sei K ein Körper, A ∈ Mat(n, n; K). Das charakteristische Polynom von A ist definiert als χA := det(X · 1 − A). Seien A, B ∈ Mat(n, n; K). Dann gilt: 1. χA ist ein normiertes Polynom vom Grad n. 2. Sind A und B ähnlich, so gilt χA = χB . 3. χAB = χBA 4. χAT = χA 5. χA (0) = (−1)n · det(A) Sei R ein nicht-kommutativer Ring. A ∈ R, P ∈ R[X]. gilt evAP (P (X − A)) = 0. Pm PDann m m i i+1 i Beweis: Sei P = a X , a ∈ R. P (X − A) = a X − i i i i=0 i=0 ai AX . Dann ist evA (P (X − A)) = Pm Pm i=0 i i+1 − i=0 ai AA = 0 i=0 ai A Cayley-Hamilton: Sei K ein Körper, A ∈ Mat(n, n; K). Dann ist χA (A) = 0, also evA (χA ) = 0. Beweis: ev : (X − A) ∈ (Mat(n, n; K))[X] → Mat(n, n; K[X]), Ψ : Mat(n, n; K[X]) → (Mat(n, n; K))[X]. χA = P det(ev(X − A)) =P det(A). Die Cramersche Regel gilt in K[X]: Aad · A = det(A) · 1n = χA · 1n . Schreibe n n i χA = i=0 ci A = evA ( i=0 (ci · 1n )X i ) = evA (Ψ(χA · 1n )) = evA (Ψ(Aad ) · Ψ(A)) = evA (Ψ(Aad ) · (X − A)) = 0 Pn Sei A ∈ Mat(n, n; K), A = (aij )ij . Dann = i=0 aii . Sei χA das Pnist die i Spur von A definiert als tr(A) charakteristische Polynom von A. χA = i=0 ci X . Dann ist cn = 1, c0 = (−1)n det(A) und cn−1 = − tr(A). Es gilt: 1. tr(AB) = tr(BA) = (n − 1)te Koeffizient von −χAB 2. tr(AT ) = tr(A) ∀A ∈ Mat(n, n; K) 3. D ∈ GL(n; K) ⇒ tr(A) = tr(D−1 AD) Sei f ∈ End(V ) und Ab := Matbb (f ) bezüglich einer Basis b von V . Dann ist χf = χAb das charakteristische Polynom des Endomorphismus f und tr(f ) = tr(Ab ) die von f . Diese Definition ist invariant unter QSpur n Basiswechsel. f ist triangulierbar, genau dann wenn χf = i=1 (X − λi ), λi 6= λj ∀i 6= j, das heißt χf zerfällt vollständig in Linearfaktoren. Ist K algebraisch abgeschlossen, so ist jeder Endomorphismus triangulierbar. 9.2 Minimalpolynom Seite 28 Sei µA ∈ K[X] das eindeutig bestimmte, normierte Polynom mit ker(evA ) = (µA ). Dann heißt µA das Minimalpolynom von A. Es gilt: 1. χA (A) = 0 ⇒ χA ∈ ker(evA ) = (µA ) ⇒ µA |χA 2. λ Eigenwert von A ⇒ µA (λ) = 0 Seite 14 6. Februar 2009 Frank Reinhold 9.3 Lineare Algebra Normalformen von Endomorphismen Seite 29-32 Zwei Elemente r, s eines Hauptidealringes R heißen teilerfremd, wenn 1 ein ggT von r und s ist. Sie U ein Unterraum von V . f ∈ End(V ). Dann heißt U invariant unter f , falls f (U ) ⊆ U . Ein Endomorphismus π ∈ End(V ) heißt idempotent, falls π 2 = π, V = im(f ) ⊕ ker(f ). Es gibt zu jeder Zerlegung von V = U1 ⊕ U2 eine Abbildung π ∈ End(V ) mit π 2 = π, im(π) = U1 ,ker(π) = U2 . Man nennt sie die Projektion von U1 mit Kern U2 . Zerlegungssatz für beliebig viele Faktoren: Sei V ein Vektorraum über K, f ∈ End(V ) und P ∈ K[X]\{0} mit P (f ) = 0. Gilt P = Q1 · . . . · Qm für paarweise teilerfremde Qi ∈ K[X], so gilt: 1. Ui := ker Qi (f ) sind f -invariant. 2. V := U1 ⊕ . . . ⊕ Um 3. Es gibt Polynome Ri ∈ K[X], sodass Ri (f ) ist die Projektion auf Ui mit ker 9.4 L j6=i Uj . Nilpotenz Seite 32-35 Sei K ein Körper, V ein K-Vektorraum. A ∈ Mat(n, n; K) heißt nilpotent, falls Ak = 0 für ein k ∈ N. Analog ist die Definition bei Endomorphismen zu verstehen. Falls k minimal gewählt ist, so ist A nilpotent von Stufe k. Sei A ∈ Mat(n, n; K) eine strikte obere Dreiecksmatrix mit (aij ) und aij = 0 ∀i ≥ j. Dann gilt An = 0. Falls A ∈ Mat(n, n; K) nilpotent ist, gilt An = 0. A ∈ Mat(n, n; K) ist ähnlich zu einer strikten oberen Dreiecksmatrix ⇔ A ist nilpotent. 9.5 Jordansche Normalform Seite 36-38 Ein Polynom P ∈ K[X] \ {0} zerfällt, wenn es r, α1 , . . . , αk ∈ K gibt, sodass P = r · (X − α1 ) · . . . · (X − αk ). Ein n × n- Jordankästchen zum Eigenwert λ ∈ K ist die Matrix λ 0 0 1 .. . 0 .. . ∈ Mat(n, n; K) 0 λ Sei V ein n-dimensionaler Vektorraum, f ∈ End(V ). Angenommen χf zerfällt, dann besitzt V eine Basis b, sodass Jλ1 ,m1 .. Matbb (f ) = . Jλk ,mk Charakteristisches- und Minimalpolynom in dieser Form: {λ1 , . . . , λk } = {α1 , . . . , αr } wobei λ mehrfach Pλj =αi Qr genannt werden darf, die α jedoch paarweise verschieden sind. ki = j∈{1,...,k} mj . Dann ist χf = i=1 (X−αi )li mit 1 ≤ li ≤ ki und µ(Jλ,m ) = (X −λ)m . µf = kgV(µ(Jλ1 ,m1 ), . . . , µ(Jλk ,mk )) ⇒ li = maxj∈{1,...,k},λj =αi mj ≥ 1. Die Länge des größten Jordanblockes eines Eigenwertes λk ist gleich der Multiplizität des Eigenwertes im Minimalpolynom µA . 10 Diagonalisierbarkeit Seite 38-40 α ∈ K heißt mehrfache Nullstelle eines Polynoms P ∈ K[X], falls (X −α)2 |P . Sei V ein endlich-dimensionaler Vektorraum, f ∈ End(V ). f ist diagonalisierbar ⇔ χf zerfällt und µf hat keine mehrfachen Nullstellen. Seien f, g ∈ End(V ) diagonalisierbar. f, g heißen simultan diagonalisierbar, falls es eine Basis b von V gibt, sodass Matbb (f ) und Matbb (g) Diagonalmatrizen sind. Dies ist genau dann der Fall, wenn f ◦g = g◦f , sie kommutieren. 6. Februar 2009 Seite 15 Lineare Algebra 10.1 Frank Reinhold Normalformen von Endomorphismen auf Räumen mit Skalarprodukt Seite 40-47 Zwei Matrizen A, B ∈ Mat(n, n; K) heißen unitär/orthogonal ähnlich, falls es ein M ∈ U (n)/O(n) gibt mit A = M −1 BM . A ist unitär/orthogonal diagonalisierbar ⇔ ∃ONB b, sodass A = Matbb (LA ) diagonal ist. Jeder Endomorphismus f ∈ End(V ), mit V ist ein C-Vektorraum, ist trigonalisierbar. Ein Endomorphismus f ∈ End(V ) heißt normal, falls f ∗ f = f f ∗ , analog bei Matrizen. Sind A und B unitär ähnlich, A normal, dann ist auch B normal. Für normale Endomorphismen f ∈ End(V ) gilt: 1. kf (x)k = kf ∗ (x)k 2. ker f = ker f ∗ 3. V = ker f ⊕ im f 4. Der Eigenraum zum Eigenwert λ von f ist gleich dem Eigenraum zum Eigenwert λ̄ von f ∗ . 5. µf hat nur einfache Nullstellen, also ist f diagonalisierbar. Spektralsätze: 1. Sei K = C, A ∈ Mat(n, n; C) normal, also AĀT = ĀT A. Dann gilt: ∃U ∈ U (n) mit λ1 0 .. U −1 AU = . 0 λn 2. Sei K = R, A ∈ Mat(n, n; R) eine Isometrie, also AAT = 1n . Dann gilt: ∃P ∈ O(n) mit λ1 0 .. . λ cos ϕi − sin ϕi r −1 O AO = , ϕi ∈ [0, 2π), , Ai = sin ϕi A1 cos ϕi .. . 0 Al |λi | = 1 3. Sei K = R, A ∈ Mat(n, n; R) selbstadjungiert, also AT = A, oder A symmetrisch. Dann gilt: ∃P ∈ O(n) mit λ1 0 .. P −1 AP = . 0 λn Wir sagen f ist positiv definit, falls f selbstadjungiert ist und falls hx, f (x)i > 0 ∀x ∈ V \ {0}, positiv semi-definit, falls f selbstadjungiert ist und hx, f (x)i ≥ 0 ∀x ∈ V \ {0}, indefinit, falls f selbstadjungiert ist und weder positiv, noch negativ definit. Sei V ein C-Vektorraum, f ∈ End(V ) normal, λ1 , . . . , λn die Eigenwerte von f , die entsprechend ihrer Multiplizitäten vorkommen. Dann gilt: 1. f ist unitär ⇔ |λj | = 1 ∀j ∈ {1, . . . , n}. 2. f ist selbstadjungiert ⇔ λj ∈ R ∀j ∈ {1, . . . , n} ⇔ Bf ist hermitesch. 3. f positiv semi-definit ⇔ λj ≥ 0 ∀j ∈ {1, . . . , n}. 10.2 Quadratwurzel Seite 47 Sei V ein C-Vektorraum, f ∈ End(V ) positiv definit. Dann gibt es ein g ∈ End(V ), sodass g ≥ 0 und g 2 = f , die Quadratwurzel von f ist. Zur Berechnung von g diagonalisiert man f , zieht die Wurzel aus der Diagonalmatrix, und führt sie mittels der umgekehrten Basistransformation zurück. Die so erhaltene Matrix entspricht g. Seite 16 6. Februar 2009 Frank Reinhold 10.3 Lineare Algebra Polarzerlegung Seite 48-49 Sei U N (V ) die Menge der isometrischen Isomorphismen von V . U N (Cn ) ∼ = U (N ), dim V = n ∈ N, V ein unitärer Vektorraum. Zu jedem f ∈ End(V ) gibt es ein u ∈ U N (V ), g ∈ End(V ), sodass f = u ◦ g. Zu jeder Matrix A ∈ Mat(n, n; C) gibt es U ∈ U (N ), G ∈ Mat(n, n; C), sodass A = U · G und G ist positiv semi-definit. Dann gilt weiterhin: 1. U ∗ = U −1 , G∗ = G ⇒ A∗ = (U G)∗ = G∗ U ∗ = GU −1 ⇒ A∗ A = G2 , also ist G die Quadratwurzel von A∗ A. 2. ker A = {0} ⇒ G invertierbar ⇒ U = AG−1 . 10.4 Normalformen von Endomorphismen in Euklidischen Vektorräumen Seite 49-53 Sei K = R, V ein Euklidischer Vektorraum, N 3 n R[X], dann ist f orthogonal trigonalisierbar. f selbstadjungiert ist, bzw. A symmetrisch ist. f heißt AAT ist. Sei f ein Endomorphismus mit f 2 = −Id. Dann gibt J b .. Matb (f ) = . = dim V , f ∈ End(V ), A ∈ Mat(n, n; R). Zerfällt χf in ist orthogonal diagonalisierbar, genau dann wenn f normal, falls f ∗ f = f f ∗ , A heißt normal, falls AT A = es eine Basis b, sodass 0 1 mit J = −1 0 J Ist V ein Euklidischer Vektorraum, und f normal, dann kann man sogar eine ONB mit dieser Eigenschaft finden. Ist A normal, A2 = −1, dann ist A orthogonal ähnlich zu einer solchen Matrix. In der Primfaktorzerlegung des Minimalpolynoms eines normalen Endomorphismus kommt jeder Primfaktor höchstens einmal vor. 10.5 Normalformen von Isometrien und orthogonalen Matrizen Seite 53-54 Sei f ∈ End(V ) eine Isometrie, A = Matbb (f ) ∈ O(n) und b eine ONB von V . Dann existiert eine ONB d von V , m, k, l ∈ N0 , k + l + 2m = n = dim V , γ1 , . . . , γm ∈ (0, π), sodass 1k Matdd (f ) = 11 −1 l cos γ1 − sin γ1 sin γ1 cos γ1 .. . cos γm − sin γm sin γm cos γm Affine Räume Seite 55-58 Sei K ein Körper, V ein Vektorraum über K. Ein Affiner Raum über V ist eine nicht-leere Menge A mit einer Operation + : V × A → A, sodass: 1. ∀v, w ∈ V, a ∈ A : (v + w) + a = v + (w + a). 2. ∀a, b ∈ A gibt es genau ein v ∈ V , sodass b = v + a, v := b − a. Eine Abbildung ϕ : A0 → A1 zwischen zwei Affinen Räumen über K-Vektorräumen V0 , V1 ist eine Affine Abbildung, falls es ein Lϕ ∈ hom(V0 , V1 ) gibt, mit: ϕ(v + a) = Lϕ (v) + ϕ(a) ∀v ∈ V, a ∈ A. Aff(A) := {ϕ : A → A|ϕ ist ein Affiner Automorphismus}, (Aff(A), ◦) ist eine Gruppe. L : Aff(A) → GL(V ) ist ein Gruppenhomomorphismus. Tv (a) = v + a heißt Translation um den Vektor v. Tv ◦ Tw = Tv+w . Ein Affines Koordinatensystem ist gegeben durch (a0 , . . . , an ) ∈ A × . . . × A, sodass (a0~a1 , . . . , a0~an ) eine T T Basis von V ist. Für a ∈ A ist dann vs (a) = ( x1 ··· xn ) der Koordinatenvektor, µs (a) = ( 1 x1 ··· xn ) der inhomogene Koordinatenvektor. Sei (V, Φ) ein Euklidischer Vektorraum über R. Dann heißt (A, V, Φ) Euklidischer Affiner Raum und d(a, b) = 6. Februar 2009 Seite 17 Lineare Algebra Frank Reinhold q ~ = Φ(ab, ~ ab) ~ heißt Abstand zwischen a und b. Eine affine Abbildung heißt Isometrie, genau dann wenn kabk d(ϕ(a), ϕ(b)) = d(a, b) ist. Eine Isometrie heißt Bewegung, falls ϕ bijektiv ist. 11.1 Quadrik Seite 59-62 f : Rn → R heißt quadratische Funktion, falls x1 X X f ... = αij xi xj + 2 · αj xj + α0 xn Qf : {a ∈ A|f (vs (a)) = 0} heißt affine Quadrik. Zwei Quadriken Q, Q0 heißen kongruent, genau dann wenn eine Bewegung ϕ mit ϕ(Q) = Q0 existiert. Normalform der Quadriken: In jeder Äquivalenzklasse [Q] existiert eine Quadrik mit Gleichung: r X i=1 r X i=1 r X λi x2i = 0 λi ∈ R, r ≤ n λi x2i = 1 λi ∈ R, r ≤ n λi x2i = 2xr+1 λi ∈ R, r ≤ n − 1 i=1 12 Tensorprodukt Seite 63-77 Bil(V1 , V2 , W ) := {F : V1 × V2 → W |F bilinear} ist ein K-Vektorraum. Wir wollen einen Vektorraum Z bestimmen, sodass Bil(V1 , V2 , W ) = hom(Z, W ). Universelle Eigenschaft des Tensorproduktes: Seien V1 , V2 Vektorräume über K. Dann gibt es einen K-Vektorraum Z und eine bilineare Abbildung H : V1 × V2 → Z mit den folgenden Eigenschaften: Zu jeder bilinearen Abbildung F : V1 × V2 → W gibt es genau eine lineare Abbildung F̂ : Z → W , sodass /W s9 s ss ss ss H s s ss F̂ ssss Z V1 × V2 F kommutiert, also F = F̂ ◦ H. Eindeutigkeit: 0 W s9 s s s F 0 sss s α s s s s s ss /W F V1 × VK2 KK KK KK KK α0 KK F0 KK K% W0 0 Aber: 9W ss s s F 0 sss Id ss s s s s s s / W0 V1 × V2 0 ⇒ (α0 ◦ α) ◦ F 0 = Id ◦ F 0 = F 0 F Wir definieren V1 ⊗ V2 := Z als das Tensorprodukt von V1 und V2 . F⊗ := F̂ die von F induzierte lineare Abbildung F⊗ : V1 ⊗ V2 → W . Seien v1 , ṽ1 ∈ V1 , v2 , ṽ2 ∈ V2 , λ ∈ K. Ein Tensorprodukt ist ein Paar (V ⊗ W, F⊗ : V × W → V ⊗ W ) bestehend aus einem Vektorraum und einer bilinearen Abbildung, die die universelle Eigenschaft des Tensorproduktes erfüllt. Für das Tensorprodukt gilt: Seite 18 6. Februar 2009 Frank Reinhold Lineare Algebra 1. (v1 + ṽ1 ) ⊗ v2 = v1 ⊗ v2 + ṽ1 ⊗ v2 2. (λv1 ) ⊗ v2 = λ(v1 ⊗ v2 ) 3. v1 ⊗ (λv2 ) = λ(v1 ⊗ v2 ) 4. v1 ⊗ (v2 + ṽ2 ) = v1 ⊗ v2 + v1 ⊗ ṽ2 5. {v1 ⊗ v2 |v1 ∈ V1 , v2 ∈ V2 } ⊆ V1 ⊗ V2 im Allgemeinen nicht gleich! Kein Untervektorraum! Elemente von V ⊗ W heißen Tensoren. Ein Tensor t ∈ V ⊗ W heißt zerlegbar, wenn es v ∈ V und w ∈ W gibt, sodass t = v ⊗ w gilt. Matrixdarstellung von Tensoren: Sei b = (b1 , . . . , bn ) eine Basis von V , c = (c1 , . . . , cm ) eine Basis von W . bP⊗ c = (bi ⊗ cj )i∈{1,...,n},j∈{1,...,m} eine Basis von V ⊗ W . Dann ist ϑb⊗c : Mat(n, m; K) → V ⊗ W, (aij )ij 7→ n Pm i=1 j=1 aij · bi ⊗ cj ein Isomorphismus von Vektorräumen. Basiswechsel: Sei v = b · R eine weitere Basis von V , w = c · S eine weitere Basis von W . Es gilt ∀t ∈ V ⊗ W : −1 T R · ϑ−1 v⊗w (t) · S = ϑb⊗c (t). Insbesondere gilt: dim V < ∞, dim W < ∞ ⇒ dim V ⊗ W = dim V · dim W < ∞. Zerlegbarkeit: Sei t ∈ V ⊗ W , dann sind äquivalent: 1. t ist zerlegbar. 2. Es existiert eine Basis b von V und c von W , sodass Rang(ϑ−1 b⊗c (t)) ≤ 1. 3. Dies gilt für alle Basen von V und W . Beispielaufgabe: ∃f : R2 ⊗ R2 → R2 mit f (v, w) = R2 × R2 → R2 bilinear, mit f ◦ H = g ⇒ g(v, w) = v12 w2 ? Annahme: Es existiert solch ein f . ⇒ ∃g : 2 v22 w1 v1 w2 . Widerspruch zur Bilinearität, wie sich leicht v2 w12 überprüfen lässt. Also existiert f nicht. 13 Äußeres Produkt Seite 77-85 Universelle Eigenschaft des Äußeren Produktes: Sei V ein K-Vektorraum, r ∈ N. Dann gibt es einen Vektorraum Z und eine alternierende r-lineare Abbildung A : V × . . . × V → Z, sodass gilt: Zu jeder alternierenden r-linearen Abbildung ω : V × . . . × V → W gibt es genau eine lineare Abbildung ω∧ : Z → W , sodass ω /W V × ... × V s9 s ss ss ss A s s ss ω∧ ssss Z kommutiert, also ω = ω∧ ◦ A. Wir schreiben Λr V = V ∧ . . . ∧ V dür dieses Z. A : V × . . . × V → Λr V heißt kanonische Abbildung. Man nennt es das r-fache äußere Produkt von V , oder r-fache äußere Potenz, oder Dach-Produkt. Es gilt: span(im(A)) = Λr V Rechenregeln: 1. λ(v1 ∧ . . . ∧ vr ) = v1 ∧ . . . ∧ (λvi ) ∧ . . . ∧ vr 2. v1 ∧ . . . ∧ vi + vj ∧ . . . ∧ vr = v1 ∧ . . . ∧ vi ∧ . . . ∧ vr + v1 ∧ . . . ∧ vj ∧ . . . ∧ vr 3. v1 ∧ . . . ∧ vr = 0 falls vi = vj für i < j 4. 0 = (v1 + v2 ) ∧ (v1 + v2 ) = v1 ∧ v1 + v1 ∧ v2 + v2 ∧ v1 + v2 ∧ v2 ⇒ v1 ∧ v2 = −v2 ∧ v1 Basis von Λr V : Sei (b1 , . . . , bn ) eine Basis von V . Dann ist B = (bi1 ∧ . . . ∧ bir |(i1 , . . . , ir ) ∈ J), J := {(i1 , . . . , ir ) ∈ {1, . . . , n}r |i1 < . . . < ir } eine Basis von Λr V . Es gilt: dim V = n ⇒ dim Λr V = ( nr ) Beispiel: Sei K = R, V = R3 , (e1 , e2 , e3 ) eine Basis von V . Dann ist (e1 ∧ e2 , e1 ∧ e3 , e2 ∧ e3 ) eine Basis von Λ2 V . Beispiel: Sei (v1 , . . . , vn ) eine Basis von V . Dann ist vi ∧ vj , i < j eine Basis von Λ2 V , vi ∧ vj ∧ vk , i < j < k eine Basis von Λ3 V , etc. 6. Februar 2009 Seite 19 Lineare Algebra 14 Frank Reinhold Algebra Seite 85-87 Eine K-Algebra A ist ein Vektorraum, auf dem eine K-lineare Abbildung • : A × A → A existiert, sodass (A, +, •) ein Ring ist. Falls der Ring kommutativ ist, nennt man die Algebra kommutative Algebra, mit 1 Algebra mit 1. Beispiel: Mat(n, n; K) ist eine K-Algebra, nicht kommutativ, falls n ≥ 2. Beispiel: K[X] ist eine K-Algebra. Nr V := V ⊗ . . . ⊗ V , Λr V := V ∧ . . . ∧ V . Nr Ns Nr+s Es gibt genau eine bilineare Abbildung µr,s : ( V )×( V)→ V , sodass (v1 ⊗ . . . ⊗ vr , w1 ⊗ . . . ⊗ ws ) 7→ v1 ⊗ . . . ⊗ vr ⊗ w1 ⊗ . . . ⊗ ws . Diese Abbildung ist assoziativ. N∗ L Ni Algebra der Tensoren: V = i∈N0 V. Es gibt genau eine bilineare Abbildung ηr,s : (Λr V )×(Λs V ) → Λr+s V , sodass (v1 ∧. . .∧vr , w1 ∧. . .∧ws ) 7→ v1 ∧ . . . ∧ vr ∧ w1 ∧ . . . ∧ wsL . Diese Abbildung ist assoziativ. Äußere Algebra: Λ∗ V = i∈N0 Λi V . Seite 20 6. Februar 2009