Grundbegriffe aus der Vorlesung Lineare Algebra 16. September 2015 1 Inhaltsverzeichnis 1 Vektorräume 3 2 Lineare Abbildungen 4 3 Der Dualraum 5 4 Bilinearformen 6 5 Determinanten 7 6 Euklidische und unitäre Vektorräume 6.1 Euklidische Vektorräume . . . . . . . 6.2 Unitäre Vektorräume . . . . . . . . . 6.3 Selbst-adjungierte Abbildungen . . . 6.4 Normale Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 10 11 12 7 Polynome 12 8 Eigenwerte, Eigenvektoren, Diagonalisierbarkeit 14 9 Trigonalisierbarkeit 16 10 Jordan-Normalform 10.1 Polynome von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . 16 17 11 Quotientenräume 19 12 Vektorraum der r-Formen 19 13 Orientierungen von Vektorräumen 21 2 1 Vektorräume Ein Vektorraum über einem Körper K (auch: K-Vektorraum) ist eine abelsche Gruppe (V, +) zusammen mit einer Abbildung · : K × V → V, (λ, v) 7→ λ · v (der skalaren Multiplikation), für die folgende Eigenschaften erfüllt sind: 1. ∀ λ ∈ K, u, v ∈ V : λ · (u + v) = λ · u + λ · v 2. ∀ λ, µ ∈ K, u ∈ V : (λ + µ) · v = λ · v + µ · v, (λ µ) · v = λ(µ · v), 1·v =v Sei V ein K-Vektorraum. Eine Teilmenge W ⊂ V heißt Untervektorraum von V (kurz: Unterraum), falls 1. 0V ∈ W, 2. ∀v, w ∈ W : v + w ∈ W, 3. ∀v ∈ W, λ ∈ K : λ·v ∈W Sei V ein K-Vektorraum und v1 , . . . , vm ∈ V . Ein Vektor w ∈ V der Form w = λ1 v1 + . . . + λm vm , λ1 , . . . λm ∈ K heißt Linearkombination der Vektoren v1 , . . . vm . Sei V ein K-Vektorraum und sei U ⊂ V eine beliebige Teilmenge. Dann ist die lineare Hülle von U in V ( auch: der von U aufgespannte Raum ) definiert als spanK (U ) := {v ∈ V | v ist Linearkombination von Vektoren aus U} Seien v1 , . . . , vm ∈ V , dann ist die lineare Hülle des m-Tupels (v1 , . . . , vm ) definiert als spanK (v1 , . . . , vm ) := {λ1 v1 + . . . + λm vm | λ1 , . . . , λm ∈ K} Sei V ein K-Vektorraum. Vektoren v1 , . . . vm ∈ V heißen linear unabhängig falls: λ1 v1 + . . . + λm vm = 0 mit λ1 , . . . , λm ∈ K ⇒ λ1 = . . . = λm = 0 . D.h. eine Linearkombination der Vektoren v1 , . . . , vm ist nur der Nullvektor, falls alle Koeffizienten Null sind. Sei V ein K-Vektorraum und M ⊂ V . 1. M heißt Erzeugendensystem von V falls: spanK (M ) = V 2. M heißt Basis von V , falls M ein linear unabhängiges Erzeugendensystem ist. 3 Die kanonische Basis (auch: Standardbasis) des Vektorraumes V = K n ist definiert als B = (e1 , . . . , en ) mit ei = (0, . . . , 0, 1, 0, . . . , 0)T , wobei die Eins an der i-ten Stelle steht. Ein K-Vektorraum V heißt endlich erzeugt, falls es ein endliches Erzeugendensystem von V gibt, d.h. es existiert eine Menge M = {v1 , . . . , vm } mit V = spanK (M ). Ein K-Vektorraum V heißt n-dimensional, dimK V = n, falls er eine Basis mit n Vektoren besitzt. Anderenfalls nennt man V unendlich-dimensional, dimK V = ∞. Sei V ein K-Vektorraum mit Unterräumen W1 , . . . , Wr ⊂ V . Die Summe der Unterräume W1 , . . . , Wr ist definiert als W1 + . . . + Wr := {v = w1 + . . . + wr ∈ V | wi ∈ Wi , i = 1, ..., r} . Ein K-Vektorraum V heißt direkte Summe seiner Unterräume W1 , W2 ⊂ V falls V = W1 + W2 und W1 ∩ W2 = {0} . In diesem Fall schreibt man: V = W1 ⊕ W2 . Sei V ein K-Vektorraum mit einem Unterraum W ⊂ V . Ein Komplement von W in V , auch direkter Summand von V zu W , ist ein Unterraum W 0 ⊂ V mit V = W ⊕ W0 . 2 Lineare Abbildungen Eine Abbildung F : V → W zwischen zwei K-Vektorräumen V und W heißt K-lineare Abbildung, falls für alle u, v ∈ V und λ ∈ K gilt: F (u + v) = F (u) + F (v) und F (λu) = λ F (u) . Eine bijektive lineare Abbildung heißt Isomorphismus. In diesem Fall heißen die Vektorräume V und W zueinander isomorph, man schreibt: V ∼ = W . Eine lineare Abbildung F : V → V heißt Endomorphismus von V und ein Isomorphismus F : V → V heißt Automorphismus von V . 4 Hom K (V ; W ) := {F : V → W | K−linear} Raum der K-linearen Abbildungen (dies ist ein Vektorraum). End K (V ) := Hom K (V, V ), Raum der Endomorphismen von V (dies ist ein Ring, sogar eine K-Algebra). AutK (V ) := GL (V ) = {F : V → V | F Isomorphismus} , speziell: GL n (K) = GL (K n ): Raum der K-linearen Isomorphismen (allgemeine lineare Gruppe von V ). Sei K ein Körper. Eine K-Algebra ist ein Ring R mit Eins, der gleichzeitig ein K-Vektorraum ist, so dass zusätzlich für alle f, g ∈ R und λ ∈ K gilt: λ · (g · f ) = (λ · g) · f = g · (λ · f ) . Sei F : V → W eine K-lineare Abbildung. Man definiert: 1. Kern von F : Ker F = {v ∈ V | F (v) = 0} 2. Bild von F : Im F = {F (v) | v ∈ V } 3. Rang von F : Rang (F ) = dim Im (F ) Eine Projektion ist eine lineare Abbildung P : V → V mit P 2 = P . Jede Projektion definiert eine direkte Summenzerlegung: V = Ker P ⊕ Im P . Die Projektion P ist dann die Projektion auf den Unterraum Im P . Umgekehrt definiert jede direkte Summenzerlegung V = U ⊕ W Projektionen auf die Unterräume U bzw. W . Sei F : V → W eine K-lineare Abbildung zwischen zwei K-Vektorräumen V, W mit Basen A = (v1 , . . . , vn ) von V und B = (w1 , . . . , wm ) von W . Die darstellende Matrix von F , bzgl. der BasenPA und B ist die Matrix MBA (F ) = (aij ) ∈ M (m × n, K), die definiert ist durch F (vj ) = m i=1 aij wi , j = 1, . . . , n. Sei V ein K-Vektorraum mit einer Basis A = (v1 , . . . , vn ). Dann ist der kanonische Basisisomorphismus ΦA : V → K n definiert durch ΦA (vi ) = ei , i = 1, . . . , n, d.h. ΦA (v) = (x1 , . . . , xn ) falls v = x1 v1 + . . . + xn vn . 3 Der Dualraum Sei V ein K-Vektorraum. Der Dualraum V ∗ von V ist definiert als V ∗ := Hom K (V, K) = {λ : V → K | K − linear} . 5 Vektoren im Dualraum V ∗ nennt man Linearformen oder auch lineare Funktionale. Sei V ein K-Vektorraum mit einer Basis A = (v1 , . . . , vn ). Dann ist die zu A duale Basis eine Basis A∗ = (v1∗ , . . . , vn∗ ) von V ∗ , definiert durch vi∗ (vj ) := δij , für 1 ≤ i, j ≤ n. Fakten: Zu jeder Basis existiert eine eindeutig bestimmte duale Basis. Jede Linearform λ ∈ V ∗ schreibt sich als λ = λ1 v1∗ + . . . + λn vn∗ , wobei sich die Koeffizienten λi ergeben als λi = λ(vi ), i = 1, . . . , n. Es gilt: dim V = dim V ∗ . Für euklidische Vektorräume gibt es einen kanonischen Isomorphismus Φ : V → V ∗ , v 7→ λv mit λv (w) := hw, vi. Man nennt V ∗ ∗ := (V ∗ )∗ den Bidualraum von V . Es gibt eine kanonische Identifizierung j : V → V ∗ ∗ mit j(v)(λ) := λ(v). Sei F : V → W eine K-lineare Abbildung. Die zu F duale Abbildung F ∗ : W ∗ → V ∗ ist für λ ∈ W ∗ und v ∈V definiert als: F ∗ (λ)(v) = λ(F v), d.h. F ∗ (λ) = λ ◦ F . Fakten: Die Zuordnung F 7→ F ∗ ist K-linear. Es gilt: (F ◦ G)∗ = G∗ ◦ F ∗ und Id∗V = IdV ∗ . Weiter ist F genau dann ein Isomorphismus, wenn F ∗ es ist und: (F ∗ )−1 = (F −1 )∗ . Sei F : V → W linear, sei A eine Basis in V und B eine Basis in W , dann gilt ∗ MAB∗ (F ∗ ) = (MBA (F ))T . Sei U ⊂ V ein Unterraum. Dann ist der Annullator von U ein Unterraum U 0 ⊂ V ∗ definiert durch: U 0 = {λ ∈ V ∗ | λ(u) = 0 ∀ u ∈ U } . Fakten: Es gilt: dim U 0 = dim V − dim U und Im F ∗ = (Ker F )0 bzw. Ker F ∗ = (Im F )0 . Daraus folgt insbesondere Rang (F ∗ ) = Rang (F ). 4 Bilinearformen Sei V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung b : V × V −→ K, (v, w) 7→ b(v, w) , so dass für alle v, v 0 , w, w0 ∈ V und λ ∈ K gilt b(v + v 0 , w) = b(v, w) + b(v 0 , w), b(λv, w) = λ b(v, w) b(v, w + w0 ) = b(v, w) + b(v, w0 ), b(v, λw) = λ b(v, w) 6 Eine Bilinearform b : V × V → K heißt symmetrisch, falls für alle v, w ∈ V gilt b(v, w) = b(w, v) . Eine Bilinearform heißt schiefsymmetrisch oder alternierend, falls entsprechend b(v, w) = − b(w, v) . Eine Bilinearform heißt positiv definit, falls für alle v ∈ V mit v 6= 0 gilt: b(v, v) > 0 . Eine Bilinearform b : V × V → K heißt nicht ausgeartet oder regulär, falls sie durch die Abbildung v 7→ b(·, v) einen Isomorphismus V → V ∗ definiert. Äquivalent dazu ist, dass kein v0 ∈ V, v0 6= 0 existiert mit b(v, v0 ) = 0, für alle v ∈ V . Die zu einer Bilinearform b : V × V → K gehörende quadratische Form qb ist definiert durch qb : V → K, qb (v) := b(v, v) . Sei K ein Körper mit char(K) 6= 2 d.h. 2 6= 0 in K. Dann ist eine Bilinearform b über die Polarisierungsformel vollständig durch die zugehörige quadratische Form qb bestimmt: b(v, w) = 5 1 (qb (v + w) − qb (v) − qb (w)) . 2 Determinanten Die symmetrische Gruppe Sn ist die Gruppe der bijektiven Abbildungen der Menge {1, . . . , n}. Die Gruppenelemente der symmetrischen Gruppe nennt man Permutationen. Permutationen, die genau zwei Elemente vertauschen und die restlichen Elemente festlassen heißen Transpositionen. Zu einer Permutation σ ∈ Sn ist die Permutationsmatrix Pσ ∈ Mn (R) definiert durch (Pσ )ij = δσ(i),j , wobei R irgendein Ring mit Eins ist. Das Signum einer Permutation σ ∈ Sn ist definiert als sign (σ) := det(Pσ ). Es gilt: sign σ = (−1)a(σ) , wobei a(σ) die Anzahl der Fehlstände ist, d.h. die Anzahl der Paare (i, j) mit i < j und σ(i) > σ(j). Permutation mit Signum +1 heißen gerade, die mit Signum -1 heißen ungerade. 7 Das Signum einer Permutation σ ∈ Sn lässt sich auch berechnen durch: Y σ(i) − σ(j) = det(eσ(1) , . . . , eσ(n) ) . sign σ = i − j i<j Fakten: Jede Permutation lässt sich als Produkt von Transpositionen schreiben. Die Abbildung σ 7→ sign (σ) ist ein Gruppenhomomorphismus. Die Menge An der geraden Permutationen ist eine Untergruppe in Sn , mit: |An | = 12 |Sn | = 21 n!. Die Leibniz-Formel gibt folgende Vorschrift zur Berechnung der Determinante einer Matrix A = (aij ) ∈ Mn (K): X det A = sign σ aσ(1)1 · . . . · aσ(n)n . σ∈Sn Der Laplace-Entwicklungssatz gibt folgende Vorschrift zur Berechnung der Determinante einer Matrix A = (aij ) ∈ Mn (K): det A = n X (−1)i+j aij det Aij , i=1 wobei Aij ∈ Mn−1 (K) die Matrix ist, die man aus A durch das Streichen der iten Zeile und jten Spalte erhält, wobei j ∈ {1, . . . , n} beliebig. Bemerkung: Die Determinante wird definiert durch die Formel aus dem Laplace-Entwicklungssatz für j = 1, d.h. mit der Entwicklung nach der ersten Spalte. Diese Definition und auch die Leibniz-Formel sowie der Laplace-Entwicklungssatz gelten dann auch für Matrizen, die Einträge in einem Ring R mit Eins haben. Fakten: Sei A ∈ M (n × l, R), l ≤ n, R ein kommutativer Ring mit Eins. Es bezeichne Ai1 ,...,il ∈ Ml (R) die Matrix, die aus den Zeilen zi1 , . . . , zil von A besteht. Die Formel von Cauchy-Binet besagt: X det(AT · B) = det(Ai1 ,...,il ) · det(Bi1 ,...,il ) , i1 <...<il dabei sind A, B ∈ M (n × l, R). Spezialfall: det(A · B) = det A · det B, für A, B ∈ Mn (R). Man nennt X G(A) := det(AT · A) = det(Ai1 ,...,il )2 ≥ 0 i1 <...<il die Gramsche Determinante von A. Es gilt Rang (A) ≥ l genau dann, wenn det(AT · A) > 0. Seien v1 , . . . , vl ∈ Rn und A die Matrix A = (v1 , . . . , vl ) ∈ M (n × l, R). Dann definiert man das l-dimensionale Volumen desp durch die Vektoren v1 , . . . , vl aufgespannten Parallelepipeds (Spat) durch Vol (v1 , . . . , vl ) := G(A) und insbesondere Vol (v1 , . . . , vn ) = | det A|. Weiter gilt det A = det AT . 8 6 6.1 Euklidische und unitäre Vektorräume Euklidische Vektorräume Ein euklidischer Raum ist ein reeller Vektorraum V mit einer symmetrischen, positiv definiten Bilinearform b : V × V → R. Eine solche Bilinearform b nennt man euklidisches Skalarprodukt. Man schreibt auch b(·, ·) = h·, ·i. Das kanonische Skalarprodukt (auch Standardskalarprodukt) auf Rn ist ein euklidisches Skalarprodukt auf Rn definiert durch: hv, wi := v T · w = v1 w1 + . . . + vn wn . für Vektoren v = (v1 , . . . , vn )T und w = (w1 , . . . , wn ) aus Rn .. Jedes euklidische Skalarprodukt b definiert eine (euklidische) Norm durch p b(v, v) kvk = und einen Abstand, oder Metrik durch d(v, w) = kv − wk . Sei (V, h·, ·i) ein euklidischer Vektorraum. Zwei Vektoren v, w ∈ V heißen zueinander orthogonal, falls hv, wi = 0. Ein Orthonormalsystem in V ist eine Menge von Vektoren v1 , v2 , . . . mit hvj , vk i = δjk , d.h. die Vektoren haben die Länge 1 und sind paarweise orthogonal. Eine Orthonormalbasis ist eine Basis von V , die zusätzlich ein Orthonormalsystem ist. Fakten: Die kanonische Basis von Rn ist eine Orthonormalbasis bzgl. des kanonischen Skalarproduktes von Rn . Jeder euklidische Vektorraum besitzt eine Orthonormalbasis, die aus einer beliebigen Basis durch das Gram-Schmidt-Verfahren konstruiert wird. Sei M ⊂ V eine beliebige Teilmenge. Dann ist das orthogonale Komplement von M definiert durch: M ⊥ := {v ∈ V | hv, wi = 0 ∀ w ∈ M } Sei U ⊂ V ein Unterraum. Dann gilt V = U ⊕ U ⊥ und die orthogonale Projektion auf U ist definiert durch pU : V → U, pU (v) = u falls v = u + w mit u ∈ U und w ∈ U ⊥ . Eine orthogonale Abbildung zwischen zwei euklidischen Vektorräumen (V, h·, ·iV ) und (W, h·, ·iW ) ist eine lineare Abbildung F : V → W mit hF v, F wiW = hv, wiV . 9 für alle Vektoren v, w ∈ V . Die orthogonale Gruppe, oder Gruppe der orthogonalen Matrizen ist definiert als O(n) := {A ∈ Mn (R) | A · AT = En } , wobei En die Einheitsmatrix bezeichnet. Dies ist die Gruppe der orthogonalen Abbildungen FA : Rn → Rn , die gegeben sind durch Matrizenmultiplikation mit A, wobei auf Rn das kanonische Skalarprodukt fixiert ist. Fakten: Die orthogonalen Matrizen in O(n) sind genau die Matrizen, deren Spalten (bzw. Zeilen) eine Orthonormalbasis von Rn bilden (bzgl. des kanonischen Skalarproduktes) . Orthogonale Endomorphismen euklidischer Vektorräume sind im Allgemeinen nicht diagonalisierbar. Man hat aber immer eine Normalform orthogonaler Endomorphismen: es existiert eine Orthonormalbasis B, so dass die darstellende Matrix MB (F ) von folgender Form ist: MB (F ) = diag (λ1 , . . . , λr , M1 , . . . , Ms ) dabei ist λi = ±1, i = 1, . . . , r und Mi , i = 1, . . . , s sind 2 × 2-Drehmatrizen. 6.2 Unitäre Vektorräume Sei V ein komplexer Vektorraum, d.h. K = C. Eine hermitesche Form auf V ist eine Abbildung h : V × V → C mit folgenden Eigenschaften h(u + v, w) = h(u, w) + h(v, w), h(λ v, w) = λ h(v, w), h(v, w) = h(w, v) für alle u, v, w ∈ V und λ ∈ C. Eine hermitesche Form ist also linear im ersten und anti-linear im zweiten Argument, dh. im zweiten Argument gilt h(u, v + w) = h(u, v) + h(u, w), h(u, λv) = λ̄ h(u, v) . für alle u, v, w ∈ W und λ ∈ C. Ein unitärer Vektorraum ist ein komplexer Vektorraum V zusammen mit einer positiv definiten hermiteschen Form h. Diese nennt man dann unitäres Skalarprodukt auf V . Positiv definit heißt hier wieder h(v, v) > 0 für alle Vektoren v ∈ V, v 6= 0. Diese Definition ist sinnvoll, da h(v, v) ∈ R für hermitesche Formen h. Das kanonische Skalarprodukt auf Cn ist ein unitäres Skalarprodukt auf Cn definiert durch hv, wi := v̄ T · w = v1 w̄1 + . . . + vn w̄n . Orthogonalität von Vektoren, Orthonormalbasen, orthogonale Projektionen, orthogonale Komplemente und das Gram-Schmidt-Verfahren sind analog zu euklidischen Vektorräumen definiert. 10 Eine lineare Abbildung F : V → W zwischen zwei unitären Vektorräumen V und W heißt unitär, falls für alle Vektoren v, w ∈ V gilt: hF v, F wiW = hv, wiV . Eine Matrix A ∈ Mn (C) heißt unitär, falls die durch Matrizenmultiplikation gegebenen Abbildung FA : Cn → Cn bezüglich des kanonischen Skalarproduktes unitär ist. Äquivalent dazu ist die Bedingung A · ĀT = E. Die unitäre Gruppe U(n) ist die Menge der unitären Matrizen, d.h. U(n) := { A ∈ Mn (C) | A · ĀT = E } . Unitäre Matrizen sind genau die Matrizen, deren Zeilen (bzw. Spalten) eine Orthonormalbasis bilden (bzgl. des kanonischen Skalarproduktes auf Cn ). Die spezielle unitäre Gruppe SU(n) ist eine Untergruppe von U(n) definiert durch SU(n) := {A ∈ U(n) | det A = 1}. Fakten: Unitäre Endomorphismen (Matrizen) sind diagonalisierbar. Eigenwerte unitärer Endomorphismen (Matrizen) sind komplexe Zahlen der Länge eins, d.h. komplexe Zahlen der Form ei t mit t ∈ R. Es gilt O(n) ⊂ U(n) ⊂ GL n (C) und GL n (R) ⊂ GL n (C). 6.3 Selbst-adjungierte Abbildungen Zu jeder linearen Abbildung F : V → W zwischen zwei euklidischen bzw. unitären Vektorräumen existiert eine eindeutig bestimmte lineare Abbildung F ad : W → V , die zu F adjungierte Abbildung, die charakterisiert ist durch die Gleichung hF v, wi = hv, F ad wi , für alle v ∈ V und w ∈ W . Seien (v1 , . . . , vn ) bzw. (w1 , . . . , wm ) Orthonormalbasen von V bzw. W , dann ist F ad definiert durch F ad wi = n X hF vk , wi i vk für i = 1, . . . , m . k=1 Mit Hilfe der kanonischen Identifizierungen Φ : V → V ∗ bzw.. Ψ : W → W ∗ , gegeben durch: Φ(v0 ) = (v 7→ hv, v0 i) und Ψ(w0 ) = (w 7→ hw, w0 i), kann F ad auch geschrieben werden als F ad = Φ−1 ◦ F ∗ ◦ Ψ . Ein Endomorphismus F ∈ End V eines euklidischen bzw. unitären Vektorraumes (V, h·, ·i) heißt selbst-adjungiert, falls für alle v, w ∈ V gilt: hF v, wi = hv, F wi . 11 Äquvivalent dazu ist, daß die darstellende Matrix A = MB (F ) von F bezüglich einer Orthonormalbasis B von V eine symmetrische Matrix, d.h. A = AT , bzw. eine hermitesche Matrix, d.h. A = ĀT , ist. Selbst-adjungierte Abbildungen sind Endomorphismen, die mit ihrer adjungierten Abbildung F ad übereinstimmen. Fakten: Selbst-adjungierte Abbildungen, und entsprechend symmetrische bzw. hermitesche Matrizen, sind diagonalisierbar. Die Eigenwerte hermitescher Matrizen sind reell. Es gilt: Im F ad = (Ker F )⊥ , 6.4 Ker F ad = (Im F )⊥ , V = Ker F ⊕ Im F ad = Ker F ad ⊕ Im F . Normale Abbildungen Ein Endomorphismus F ∈ End V eines unitären Vektorraumes (V, h·, ·i) heißt normal, falls F ◦ F ad = F ad ◦ F . Entsprechend heißt eine Matrix A ∈ Mn (C) normal, falls A · ĀT = ĀT · A. Fakten: Beispiele normaler Endomorphismen sind: unitäre, selbst-adjungierte und schiefhermitesche (F ad = −F ) Abbildungen. Normale Endomorphismen sind diagonalisierbar. Jeder diagonalisierbare Endomorphismus von V mit einer Orthonormalbasis von Eigenvektoren ist normal. Sei F normal, dann gilt: Ker F ad = Ker F, 7 Im F ad = Im F, V = Ker F ⊕ Im F . Polynome Sei K ein Körper. Ein Polynom über K ist eine Folge a = (a0 , a1 , a2 , . . .) mit ai ∈ K, so dass es ein N ≥ 0 gibt, mit ai = 0 für alle i ≥ N . Seien zwei Polynome gegeben: a (an ) und b = (bn ), dann definiert man a + b = (an + bn ) und a · b = (cn ) mit cn = P= n j=1 aj · bn−j . Weiter definiert man eine skalare Multiplikation: λ · a := (λ an ). Damit wird die Menge K[x] aller Polynome zu einem K-Vektorraum und einem kommutativen Ring mit Eins (der Polynomring). Definiert man x := (0, 1, 0, . . .), dann ist ein Polynom ein Ausdruck der Gestalt: P = an xn + an−1 xn−1 + . . . + a1 x + a0 . Die Zahlen a0 , . . . , an heißen Koeffizienten des Polynoms. Sind alle Koeffizienten gleich Null, so spricht man vom Nullpolynom, P = 0. Ist P nicht das Nullpolynom, so definiert man den Grad von P durch deg(P ) := max { i | ai 6= 0 } . Ein Polynom vom Grad n mit an = 1 heißt normiert. Die Potenzen 1, x, x2 , . . . bilden eine Basis des Vektorraumes K[x]. 12 Jedes Polynom P ∈ K[x] definiert eine Abbildung P̃ : K → K (polynomiale Abbildung) durch: P̃ (λ) = an λn + an−1 λn−1 + . . . + a0 . Die Zuordnung P 7→ P̃ definiert den Auswertungshomomorphismus K[x] → Abb (K, K). Für Körper K mit unendlich vielen Elementen ist dieser injektiv, d.h. man kann dann P und P̃ identifizieren. Eine Zahl λ ∈ K heißt Nullstelle von P ∈ K[x], falls P̃ (λ) = 0. Man schreibt dann auch einfach P̃ (λ) = 0. Unter dem Abspalten von Linearfaktoren versteht man folgende Aussage. Sei P ∈ K[x] und sei λ ∈ K eine Nullstelle von P . Dann existiert ein eindeutig bestimmtes Polynom Q ∈ K[x] mit deg(Q) = deg(P ) − 1 und P = (x − λ) Q, man sagt von P wurde der Linearfaktor (x − λ) abgespalten. Sei P ∈ K[x], P 6= 0. Für λ ∈ K heißt µ(P, λ) := max { r ∈ N | P = (x − λ)r Q, Q ∈ K[x] } die Vielfachheit der Nullstelle λ von P . Man sagt ein Polynom P ∈ K[x] zerfällt in Linearfaktoren, falls es sich in folgender Form schreiben läßt: P = a (x − λ1 )r1 · . . . · (x − λk )rk mit a ∈ K. Man spricht dann von einer Linearfaktorzerlegung von P . Analog zu den ganzen Zahlen hat man auch für Polynome eine Division mit Rest: die Polynomdivision. Zu je zwei Polynomen p, q ∈ K[x] mit p, q 6= 0 und deg q ≤ deg p existieren eindeutig bestimmte Polynome h, r ∈ K[x] mit p = h · q + r und deg(r) < deg(q) . Der Polynomring K[x] ist wie der Ring der ganzen Zahlen Z ein sogenanntener euklidischer Ring, d.h. es existiert ein euklidischer Algorithmus. Darunter versteht man folgendes Verfahren: Seien P1 , P2 ∈ K[x] mit P1 , P2 6= 0 und deg P1 ≤ deg P2 . Man betrachtet eine Folge von Polynomdivisionen mit Rest: P1 = Q1 · P2 + P3 .. .. . . Pk = Qk · Pk+1 + Pk+2 .. .. . . Pn−1 = Qn−1 · Pn mit deg P3 < deg P2 mit deg Pk+2 < deg Pk+1 mit deg Pn < deg Pn−1 Dann gilt: 1. Pn ist der größte gemeinsame Teiler von P1 und P2 , d.h. Pn |P1 , Pn |P2 und falls P |P1 , P |P2 dann folgt P |Pn . 2. Pn = P · P1 + Q · P2 für gewisse Polynome P, Q ∈ K[x] 13 Der Fundamentalsatz der Algebra besagt, daß jedes nicht-konstante Polynom über C mindestens eine Nullstelle besitzt. Damit besitzt jedes komplexe Polynom eine Linearfaktorzerlegung. Der Wurzelsatz von Vieta besagt: Sei P = xn + an−1 xn−1 + . . . + a1 x + a0 ein Polynom, dass vollständig in Linearfaktoren zerfällt, mit Nullstellen λ1 , . . . , λn (die nicht paarweise verschieden sein müssen), d.h. P = a(x − λ1 ) . . . (x − λn ). Dann berechnen sich die Koeffizienten ak als ak = (−1)n−k sn−k (λ1 , . . . , λn ) . Dabei sind sk die elementarsymmetrischen Funktionen, definiert durch X sr (λ1 , . . . , λn ) := λi1 · . . . · λir . i1 <...<ir Insbesondere gilt: a0 = P (0) = (−1)n λ1 · . . . · λn und an−1 = −λ1 − . . . − λn . Sei P ∈ C[x] ein Polynom mit reellen Koeffizienten. Man sagt P ist ein reelles Polynom: P ∈ R[x] ⊂ C[x]. Dann ist mit jedem λ ∈ C auch die konjugiert komplexe Zahl λ̄ eine Nullstelle. Die Nullstellen λ und λ̄ haben die gleiche Vielfachheit. Insbesondere hat jedes reelles Polynom ungeraden Grades eine reelle Nullstelle. 8 Eigenwerte, Eigenvektoren, Diagonalisierbarkeit Sei V ein K-Vektorraum und sei F ∈ End V . Ein λ ∈ K heißt Eigenwert von F , falls es einen Vektor v ∈ V mit v 6= 0 gibt, für den F v = λv gilt. In diesem Fall nennt man v einen Eigenvektor von F zum Eigenwert λ. Sei F ∈ End V und λ ∈ K . Dann ist der Eigenraum von F zum Eigenwert λ definiert als Eλ (F ) := {v ∈ V | F v = λv} , d.h. Eλ (F ) ist die Menge der Eigenvektoren von F zum Eigenwert λ, zusammen mit dem Nullvektor. Ein F ∈ End V heißt diagonalisierbar, wenn es eine Basis aus Eigenvektoren gibt. Das ist genau dann der Fall, wenn es eine Basis B von V gibt, für die die darstellende Matrix MB (F ) eine Diagonalmatrix ist. Eine Matrix A ∈ Mn (K) heißt diagonalisierbar, falls die durch A definierte Abbildung FA : K n → K n , x 7→ A · x diagonalisierbar ist, oder falls ein S ∈ GL n (K) existiert, so dass S · A · S−1 eine Diagonalmatrix ist. 14 Zwei Endomorphismen F, G ∈ End V heißen simultan diagonalisierbar, falls eine Basis von V existiert, die aus Vektoren besteht, die gleichzeitig Eigenvektoren von F und G sind. Fakten: Zwei diagonalisierbare Endomorphismen F, G sind genau dann simultan diagonalisierbar, wenn sie kommutieren, d.h. wenn F ◦ G = G ◦ F gilt. Es folgt, dass dann die Eigenräume von G invariant unter F sind und umgekehrt. Die gleichzeitig diagonalsierende Basis erhält man, indem man z.B. die Einschränkungen von F auf die Eigenräume von G diagonalisiert. Sei F ∈ End V . Dann ist das charakteristische Polynom von F definiert durch: PF := det(F − x IdV ) ∈ K[x] . Sei A die darstellende Matrix von F bzgl. irgendeiner Basis von V , dann gilt PF = det(A − x E) ∈ K[x], wobei E die Einheitsmatrix bezeichnet. Dieser Ausdruck definiert auch das charakteristische Polynom PA für eine beliebige Matrix A ∈ Mn (K). Fakten: Die Nullstellen des charakteristischen Polynoms sind genau die Eigenwerte von F bzw. A. Ähnliche Matrizen haben das gleiche charakteristische Polynom. Schreibt man das charakteristische Polynom als PF = an xn + an−1 xn−1 + . . . + a0 . Dann gilt: an = (−1)n , an−1 = (−1)n−1 Tr (A), a0 = PF (0) = det F . Sei F ∈ End V mit charakteristische Polynom PF . Die algebraische Vielfachheit des Eigenwertes λ von F ist definiert als die Vielfachheit der Nullstelle λ von PF . Man schreibt µalg (F, λ) = µ(PF , λ) . Zerfällt das charakteristische Polynom PF in Linearfaktoren, d.h. hat man PF = ± (x − λ1 )r1 · . . . · (x − λk )rk , wobei die λi , mit i = 1, . . . , k die paarweise verschiedenen Nullstellen von PF seien, dann ist µalg (F, λi ) = ri . Die geometrische Vielfachheit des Eigenwertes λ ist definiert als Dimension des Eigenraumes zum Eigenwert λ. Man schreibt µgeom (F, λ) = dim Eλ (F ) . Fakten: Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhänging. Sei λ ein Eigenwert von F ∈ End V dann gilt: 1 ≤ µgeom (F, λ) ≤ µalg (F, λ) ≤ dim V . Ein Endomorphismus ist genau dann diagonalisierbar, wenn PF in Linearfaktoren zerfällt und für alle Eigenwerte geometrische und algebraische Vielfachheiten übereinstimmen. Weiter ist F ∈ End V genau dann diagonalisierbar, wenn V direkte Summe der Eigenräume von F ist. 15 9 Trigonalisierbarkeit Sei V ein K-Vektorraum und F ∈ End V . Ein Unterraum W ⊂ V heißt F-invariant, falls: F (W ) ⊂ W , d.h. F (w) ∈ W für alle w ∈ W . Der Nullvektorraum {0} und der ganze Vektorraum V sind triviale invariante Unterräume, d.h. sie sind für jedes F ∈ End V invariant. Sei F ∈ End V und sei dim V = n, dann definiert man: (i) Eine Fahne in V ist ein Tupel (Vr )r=0,...,n von Unterräumen in V mit {0} := V0 ⊂ V1 ⊂ . . . ⊂ Vn := V mit dim Vr = r für r = 0, . . . , n. (ii) Eine Fahne heißt F-invariant, falls für jedes r der Unterraum Vr F -invariant ist. Ein Endomorphismus F ∈ End V heißt trigonalisierbar, falls eine F -invariante Fahne in V existiert. Äquivalent dazu ist: Es existiert eine Basis B von V , für die die darstellende Matrix MB (F ) eine obere Dreiecksmatrix ist. Eine Matrix A = (aij ) ∈ Mn (K) heißt obere Dreiecksmatrix, falls aij = 0 für i > j. Eine Matrix A ∈ Mn (K) heißt trigonalisierbar, falls die durch Matrizenmultiplikation gegebene Abbildung FA : K n → K n , x 7→ Ax trigonalisierbar ist, oder falls ein S ∈ GL (n, K) existiert, so daß SAS −1 eine obere Dreiecksmatrix ist. Fakten: Endomorphismen oder Matrizen sind genau dann trigonalisierbar, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt. 10 Jordan-Normalform Eine Normalform einer gewissen Menge von Endomorphismen ist die einfachst mögliche Matrixform, auf die die darstellenden Matrizen dieser Endomorphismen durch Wahl einer geeigneten Basis gebracht werden können, insbesondere wenn die Endomorphismen nicht diagonalisierbar sind. Damit sind z.B. die Diagonalmatrizen Normalform von unitären und selbstadjungierten Endomorphismen, während die Normalform der orthogonalen Endomorphismen aus den Matrizen bestehen, die auf der Diagonalen entweder ±1 oder 2 × 2- Drehmatrizen zu stehen haben und die sonst Null sind. 16 Sei A eine beliebige Matrixdarstellung eines Endomorphismus F ∈ End V und sei  eine Normalform von F . Dann existiert eine invertierbare Matrix S mit S −1 A S = Â. Die Spalten von S sind dabei genau die Basisvektoren von V bzgl. der die Matrix von F in Normalform ist. Ist F diagonalisierbar dann sind die Spalten von S genau die Eigenvektoren von F . 10.1 Polynome von Endomorphismen Der Einsetzungshomomorphismus ΦF : K[x] → End V , ordnet jedem Polyonom P einen Endomorphismus ΦF (P ) := P (F ). Insbesondere wird dem Polynom P = xk der Endomorphismus P (F ) = F k = F ◦ . . . ◦ F zugeordnet, dabei geht das Polynom P = x0 = 1 auf die Identität IdV . Fakten: Der Einsetzungshomomorphismus ist ein Ringhomomorphismus. Für zwei Polynome P1 , P2 gilt: (P1 · P2 )(F ) = P1 (F ) ◦ P2 (F ). Das Bild Im ΦF = {P (F ) | P ∈ K[x]} ist ein kommutativer Unterring. Weiter gilt: Ker ΦF = {P | P (F ) = 0} ist ein Ideal. Sei R ein kommutativer Ring. Eine Teilmenge I ⊂ R heißt Ideal, falls I eine Untergruppe bzgl. der Addition ist und für alle a ∈ I und b ∈ R gilt a · b ∈ I. Der Polynomring K[x] ist ein Hauptidealring, d.h. jedes Ideal I ⊂ K[x] ist von der Form I = Q · K[x] = {Q · P | P ∈ K[x]}. Sei F ∈ End V , dann ist das Minimalpolynom MF ∈ K[x] das eindeutig bestimmte normierte Polynom mit Ker ΦF = MF · K[x]. Das Minimalpolynom von F ist als das normiertes Polynom von minimalem Grad, dass die Gleichung MF (F ) = 0 erfüllt. Fakten: Ist P ein Polynom mit P (F ) = 0, dann gilt MF |P . Ist F diagonalisierbar und gilt PF = ±(x − λ1 )r1 · . . . · (x − λk )rk , mit paarweise verschiedenen Eigenwerten λi , dann folgt MF = (x − λ1 ) · . . . · (x − λk ). Der Satz von Cayley-Hamilton besagt: PF (F ) = 0, wobei PF das charakteristische Polynom von F ist. Daraus folgt insbesondere, dass das Minimalpolynom ein Teiler des charakteristischen Polynoms ist. Zerfällt PF in Linearfaktoren, so auch MF und es treten die gleichen Faktoren auf. Der Zerlegungssatz besagt: seien P, Q, R Polynome mit P = Q · R und seien Q, R teilerfremd, dann ist Ker P (F ) = Ker Q(F ) ⊕ Ker R(F ). Die Summanden sind F -invariant und die Projektionen auf die Summanden können als Polynom in F geschrieben werden. Insbesondere erhält man eine direkte Summenzerlegung von V für Polynome P in Ker ΦF . Sei V ein K-Vektorraum mit n = dim V . Ein Endomorphismus F ∈ End V heißt nilpotent, falls eine Zahl k ∈ N existiert mit F k = 0. Äquivalent dazu ist, dass das charakteristische Polynom die Form PF = ±xn hat bzw. dass eine Basis von V existiert, für die die darstellende Matrix von F eine obere Dreiecksmatrix ist, bei der Nullen auf der Diagonalen stehen. 17 Insbesondere ist also Null der einzige Eigenwert eines nilpotenten Endomorphismus. Nilpotente Endomorphismen F mit F 6= 0 sind nicht diagonalisierbar (analog für Matrizen). Sei F ein Endomorphismus von V für den das charakteristische Polynom PF in Linearfaktoren zerfällt, mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk . Dann ist der verallgemeinerte Eigenraum V (λj ) von F zum Eigenwert λj definiert durch V (λj ) := Ker (F − λj )rj , dabei ist rj die algebraische Vielfachheit des Eigenwertes λj und gleichzeitig auch die Dimension von V (λj ). In der Definition kann man rj auch durch sj ersetzen, wobei sj der Exponent des Faktors (x − λj ) im Minimalpolynoms von F ist. Fakten: Der Vektorraum V zerfällt in die direkte, F -invariante Summe der verallgemeinerten Eigenräume (Hauptraumzerlegung): V = V (λ1 ) ⊕ . . . ⊕ V (λk ) Man hat folgende Kette von Inklusionen von Unterräumen: Eλj (F ) = Ker (F −λj Id) ⊂ Ker (F −λj Id)2 ⊂ . . . ⊂ Ker (F −λj Id)sj = . . . = Ker (F −λj Id)rj . Dabei ist sj der erste Exponent ab dem Gleichheit in der Kette auftritt. Der Endomorphismus F schreibt sich als F = D + N , mit D diagonalisierbar, N nilpotent und D ◦ N = N ◦ D. Auf dem verallgemeinerten Eigenraum V (λ) hat man D = λ Id und N = F − λ Id. Ein Jordan-Block ist eine Matrix Jr (λ) ∈ Mr (K), mit Einträgen λ auf der Diagonalen, Einsen auf der ersten (oberen) Nebendiagonalen und Nullen sonst. Eine Jordan-Normalform eines Endomorphismus F ist eine darstellende Matrix von F , die Jordan-Blöcke entlang der Diagonalen hat und deren sonstigen Einträge Null sind. Fakten: Ist K algebraisch abgeschlossen, dh. zerfällt jedes Polynom über K in Linearfaktoren, z.B. K = C, dann besitzt jeder Endomorphismus eines K-Vektorraumes eine JordanNormalform. Sei F ∈ End V ein Endomorphismus mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk . Die algebraische Vielfachheit des Eigenwertes λj sei rj , die geometrische sei dj und sj sei der Exponent von x − λj im Minimalpolynom. Dann läßt sich die Jordan-Normalform J von F aus folgenden Eigenschaften ableiten: 1. Die Matrix J besteht aus k quadratischen Blöcken Aj ∈ Mrj (K) mit j = 1, . . . , k, in denen jeweils λj auf der Diagonalen steht. 2. Jede Matrix Aj besteht aus dj Jordan-Blöcken Ji (λj ), mit i = 1, . . . , dj . 18 3. Dabei gibt es dim ker(F − λj )r − dim ker(F − λj )r−1 Blöcke mit mindestens r Zeilen. 4. Der größte Jordan-Block in Aj hat sj Zeilen 11 Quotientenräume Sei V ein K-Vektorraum und U ⊂ V ein Unterraum, dann ist auf V eine Äquivalenzrelation definiert durch: v ∼ w ↔ v − w ∈ U . Die Menge der Äquivalenzrelationen V /∼ = V /U bezeichnet man als den Quotientenraum (V nach U ). Der Quotientenraum besitzt genau eine Vektorraumstruktur, bzgl. der die kanonische Projektion π : V → V /U , v 7→ [v] eine lineare Abbildung wird, d.h. man definiert Addition und skalare Multiplikation von Äquivalenzklassen durch [v] + [w] := [v + w] und λ [v] := [λ v]. Der Nullvektor in V /U ist der Unterraum U selbst: 0V /U = [0V ] = U . Punkte in V /U , also Teilmengen der Form v + U = {v + u|u ∈ U }, nennt man affine Unterräume von V . Fakten: Die wichtigsten Eigenschaften der Quotientenräume sind: 1. Die kanonische Projektion π : V → V /U ist surjektiv und Ker π = U . 2. Für endlich-dimensionale Vektorräume V gilt: dim V /U = dim V − dim U 3. Sei F : V → W eine lineare Abbildung mit U ⊂ Ker F . Dann gibt es eine eindeutig bestimmte Abbildung F̃ : V /U → W mit F = F̃ ◦ π. Weiter gilt: Ker F̃ = (Ker F )/U . Insbesondere gilt ganz allgemein: Im F ∼ = V /Ker F . 4. Sei U 0 irgendein Komplement des Unterraumes U , d.h. es gelte V = U ⊕ U 0 , dann definiert die kanonische Projektion einen Isomorphismus: π 0 := π|U 0 : U 0 → V /U . 12 Vektorraum der r-Formen Sei V ein K-Vektorraum eine Abbildung D : V × . . .r−mal . . . × V → K heißt multi-linear, falls sie in jedem Eintrag linear ist, d.h. falls die Abbildung V → K vi 7→ D(v1 , . . . , vi , . . . , vr ) für feste Vektoren vk , k 6= i linear ist. Eine multi-lineare Abbildung heißt alternierend falls, D(v1 , . . . , vr ) = 0 sobald ein Paar (i, j) mit i 6= j und vi = vj existiert. Ist V ein Vektorraum der Charakteristik ungleich zwei, d.h. gilt 1 + 1 6= 0, dann sind alternierende Abbildungen genau die, die beim Vertauschen zweier Einträge das Vorzeichen wechseln, d.h. wo gilt D(v1 , . . . , vi , . . . , vj , . . . , vr ) = − D(v1 , . . . , vj , . . . , vi , . . . , vr ) . 19 Beispiel: Die Determinante einer n×n-Matrix ist eine multi-lineare, alternierende Abbildung det : M (n × n, K) ∼ = K n × . . .n−mal . . . × K n → K , die auf der Einheitsmatrix den Wert Eins annimmt. Es kann gezeigt worden, dass durch diese drei Bedingungen die Determinante eindeutig festgelegt ist. Die Determinante interpretiert man hier als multi-lineare Abbildung auf den Spalten der gegebenen Matrix. Sei V ein r-dimensionaler komplexer oder reeller Vektorraum. Eine (alternierende) r-Form auf V ist eine multilineare und alternierende Abbildung ω : V × . . . r mal . . . × V → K Der Raum der r-Formen wird mit Λr V ∗ bezeichnet. Dabei ist Λ0 V ∗ = K, Λ1 V ∗ = V ∗ und Λ2 V ∗ ist der Raum der schiefsymmetrischen Bilinearformen und Λk V ∗ = {0} für k > dim V . Sei ω ∈ Λr V ∗ und η ∈ Λs V ∗ . Dann ist das Dachprodukt ω ∧ η eine (r+s)-Form definiert durch: 1 X sign (σ) ω(vσ(1) , . . . , vσ(r) ) η(vσ(r+1) , . . . , vσ(r+s) ) . ω ∧ η(v1 , . . . , vr+s ) := r!s! σ∈S r+s Als äußere Algebra bezeichnet man den Raum aller Formen (mit dem Dachprodukt). Insbesondere gilt für λ, µ ∈ V ∗ , dass (λ ∧ µ)(v, w) = λ(v)µ(w) − λ(w)µ(v) und allgemeiner gilt für λ1 , . . . , λr ∈ V ∗ und v1 , . . . , vr ∈ V die Formel (λ1 ∧. . .∧λr )(v1 , . . . , vr ) = det(λi (vj )) . Eigenschaften: Es gelten folgende grundlegende Rechenregeln für das Dachprodukt: 1. α ∧ (β + γ) = α ∧ β + α ∧ γ 2. α ∧ β = (−1)r·s β ∧ α und α ∧ (β ∧ γ) = (α ∧ β) ∧ γ für α ∈ Λr V ∗ , β ∈ Λs V ∗ Daraus folgt α ∧ α = 0 falls α ∈ Λ2r+1 V ∗ und λσ(1) ∧ . . . ∧ λσ(r) = sign (σ)λ1 ∧ . . . ∧ λr . Sei (v1 , . . . , vn ) eine Basis von V mit dualer Basis (v1∗ , . . . , vn∗ ) dann sind die r-Formen vi∗1 ∧. . .∧vi∗r für 1 ≤ i1 < . . . < ir ≤ n eine Basis im Raum der r-Formen Λr V ∗ . Insbesondere gilt: dim Λr V ∗ = nr . Sei F : V → W eine lineare Abbildung, dann ist das Zurückziehen von k-Formen bzw. die pull-back-Abbildung F ∗ = Λk (F ) : Λk W ∗ → Λk V ∗ definiert durch (F ∗ ω)(v1 , . . . , vk ) := ω(F v1 , . . . , F vk ) für ω ∈ Λk W ∗ und v1 , . . . , vk ∈ V . Eigenschaften: Es gelten folgende Rechenregeln für das Zurückziehen von Formen: 20 1. F ∗ ist K-linear 2. (F ◦ G)∗ = G∗ ◦ F ∗ 3. F ∗ (α ∧ β) = (F ∗ α) ∧ (F ∗ β) 4. F ∗ (ω) = det(F ) ω 13 für ω ∈ Λdim V V ∗ Orientierungen von Vektorräumen Sei V ein reeller Vektorraum. Dann nennt man zwei Basen gleichorientiert, falls der Basiswechselisomorphismus eine positive Determinante hat. Seien A = {v1 , . . . , vn } und B = {w1 , . . . , wn } zwei Basen von V . Dann ist der Basiswechselisomorphismus F definiert durch F vi = wi für i = 1, . . . , n. Die Eigenschaft gleichorientiert zu sein definiert eine Äquivalenzrelation auf der Menge der Basen von V . Man hat genau zwei Äquivalenzklassen. Eine Orientierung auf V ist eine Äquivalenzklassen gleichorientierter Basen von V . Die Basen der fixierten Orientierung nennt man positiv orientiert die anderen entsprechend negativ orientiert. Der Raum Rn hat eine kanonische Orientierung. Das ist die Äquivalenzklassen in der die kanonische Basis liegt. Die Orientierung auf einem n-dimensionalen Vektorraum V kann festgelegt werden durch die Wahl einer Volumenform, d.h. einer von Null verschiedenen n-Form, also ω ∈ Λn V ∗ \ {0} . Die Menge der Basen von Rn kann identifiziert werden mit der Menge der invertierbaren Matrizen GL n (R). Entsprechend hat man folgende disjunkte Zerlegung: GL n (R) = GL + ∪ GL − , mit GL + = {A ∈ Mn (R)| det A > 0} und GL − = {A ∈ Mn (R)| det A < 0} . Dabei entspricht GL + der Menge der positiv orientierten Basen der kanonischen Orientierung von Rn . Zwei Basen A, B von Rn heißen stetig ineinander deformierbar, falls die entsprechenden Matrizen A, B ∈ GL n (R) verbindbar sind, d.h. falls in GL n (R) ein stetiger Weg von A nach B existiert. Das ist äquivalent dazu, dass die Basen gleichorientiert sind. 21