Grundbegriffe aus der Vorlesung Lineare Algebra I+II 30. Juli 2009 Eine Gruppe ist ein Paar (G, ∗) bestehend aus einer Menge G und einer Verknüpfung ∗ : G × G → G, (a, b) 7→ a ∗ b, mit: 1. (a ∗ b) ∗ c = a ∗ (b ∗ c) 2. ∃ e ∈ G : e∗a=a (Assoziativität) für alle a ∈ G (Existenz des neutralen Elements) 3. ∀ a ∈ G ∃ a−1 ∈ G : a−1 ∗ a = e (Existenz des Inversen) Die Gruppe heisst abelsch oder kommutativ, falls für alle a, b ∈ G : a ∗ b = b ∗ a. Eine Abbildung f : G → H zwischen zwei Gruppen (G, ∗G ) und (H, ∗H ) heisst Gruppenhomomorphismus falls für alle a, b ∈ G gilt: f (a ∗G b) = f (a) ∗H f (b). Der Kern von f , bezeichnet mit ker(f ), ist definiert als die Menge aller Elemente aus G, die unter f auf eH abgebildet werden. Ein Ring ist ein Tripel (R, +, ·) bestehend aus einer Menge R und zwei Verknüpfungen +, · mit: 1. (R, +) ist eine abelsche Gruppe 2. (u · v) · w = u · (v · w) ∀ u, v, w ∈ R 3. u · (v + w) = u · v + u · w ∀ u, v, w ∈ R 4. (u + v) · w = u · w + v · w ∀ u, v, w ∈ R Ein Ring R heisst nullteilerfrei falls für alle a, b ∈ R mit a · b = 0 immer a = 0 oder b = 0 folgt. Ein Körper ist ein Ring (K, +, ·), für den (K \ {0}, ·) eine abelsche Gruppe ist. Ein Vektorraum über einem Körper K (auch: K-Vektorraum) ist eine abelsche Gruppe (V, +) zusammen mit einer Abbildung · : K × V → V, (λ, v) 7→ λ · v (der skalaren Multiplikation), für die folgende Eigenschaften erfüllt sind: 1 1. ∀λ ∈ K, u, v ∈ V : λ · (u + v) = λ · u + λ · v 2. ∀λ, µ ∈ K, u ∈ V : (λ + µ) · v = λ · v + µ · v, (λµ) · v = λ(µ · v), 1·v =v Sei V ein K-Vektorraum. Eine Teilmenge W ⊂ V heisst Untervektorraum von V (kurz: Unterraum), falls 1. 0 ∈ W, 2. ∀ v, w ∈ W : v + w ∈ W, 3. ∀ v ∈ W, λ ∈ K : λ·v ∈W Bedingung (1) ist äquivalent zu: W 6= ∅. Ein Unterraum heisst echt falls er von den trivialen Unterräumen V und {0} verschieden ist. Sei V ein K-Vektorraum und v1 , . . . , vm ∈ V . Ein Vektor w ∈ V der Form w = λ 1 v1 + . . . + λ m vm , λ1 , . . . λm ∈ K heisst Linearkombination der Vektoren v1 , . . . , vm . Sei V ein K-Vektorraum und sei U ⊂ V eine beliebige Teilmenge. Dann ist die lineare Hülle von U in V ( auch: der von U aufgespannte Raum ) definiert als spanK (U ) := {v ∈ V | v ist Linearkombination von Vektoren aus U} Seien v1 , . . . , vm ∈ V dann ist die lineare Hülle des m-Tupels (v1 , . . . , vm ) definiert als spanK (v1 , . . . , vm ) := {λ1 v1 + . . . + λm vm | λ1 , . . . , λm ∈ K} Die lineare Hülle spanK (U ) ist der kleinste Unterraum, der die Menge U enthält. Sei V ein K-Vektorraum. Vektoren v1 , . . . , vm ∈ V heissen linear unabhängig falls λ1 v1 + . . . + λm vm = 0 mit λ1 , . . . , λm ∈ K ⇒ λ1 = . . . = λm = 0 D.h. eine Linearkombination der Vektoren v1 , . . . , vm ist genau dann der Nullvektor, falls alle Koeffizienten Null sind. Eine Menge M ⊂ V heisst linear unabhängig, falls jede endliche Teilmenge von Vektoren {v1 , . . . , vm } ⊂ M linear unabhängig ist. Dazu äquivalent sind: kein Vektor v ∈ M ist Linearkombination von Vektoren aus M \ {v} bzw. jeder Vektor aus spanK (M ) lässt sich eindeutig als Linearkombination von Vektoren aus M schreiben. Sei V ein K-Vektorraum und M ⊂ V . 2 1. M heisst Erzeugendensystem falls: spanK (M ) = V 2. M heisst Basis von V , falls M ein linear unabhängiges Erzeugendensystem ist. Äquivalente Beschreibungen sind: eine Basis M ist ein minimales Erzeugendensystem, d.h. für alle v ∈ M ist M \ {v} kein Erzeugendensystem und eine Basis ist eine maximale linear unabhängige Menge, d.h für alle v ∈ V \ M ist M ∪ {v} linear abhängig. Jeder Vektorraum besitzt eine Basis. Die kanonische Basis (auch: Standardbasis) des Vektorraumes V = K n ist definiert als B = {e1 , . . . , en } mit ei = (0, . . . , 0, 1, 0, . . . , 0), mit der Eins an der i-ten Stelle. Ein K-Vektorraum V heisst endlich erzeugt, falls es ein endliches Erzeugendensystem von V gibt, d.h. es existiert eine Menge M = {v1 , . . . , vm } mit V = spanK (M ). Basisauswahlsatz: Sei M ⊂ V ein endliches Erzeugendensystem von V , dann existiert eine Teilmenge B ⊂ M , die eine Basis von V ist. Ein K-Vektorraum V heisst n-dimensional, dimK V = n, falls er eine Basis mit n Vektoren besitzt. Anderenfalls nennt man V unendlich-dimensional, dimK V = ∞. Sei V ein K-Vektorraum mit Unterräumen W1 , . . . , Wr ⊂ V . Die Summe der Unterräume W1 , . . . , Wr ist definiert als W1 + . . . + Wr := { v = w1 + . . . + wr ∈ V | wi ∈ Wi , i = 1, . . . , r } . Ein K-Vektorraum V heisst direkte Summe seiner Unterräume W1 , W2 ⊂ V falls V = W1 + W2 und W1 ∩ W2 = {0} . Die zweite Bedingung ist dazu äquivalent, dass die Zerlegung v = w1 + w2 eindeutig ist. Sei V ein K-Vektorraum mit einem Unterraum W ⊂ V . Ein Komplement von W in V , auch direkter Summand von V zu W , ist ein Unterraum W 0 ⊂ V mit V = W ⊕ W0 . Jeder Unterraum besitzt ein Komplement. Dieses ist nicht eindeutig bestimmt. Eine Abbildung F : V → W zwischen zwei K-Vektorräumen V und W heisst K-linear, falls für alle u, v ∈ V und λ ∈ K gilt: F (u + v) = F (u) + F (v) und 3 F (λu) = λ F (u) . Eine bijektive lineare Abbildung heisst Isomorphismus. In diesem Fall heissen die Vektorräume V und W zueinander isomorph, man schreibt: V ∼ = W . Eine lineare Abbildung F : V → V heisst Endomorphismus von V und ein Isomorphismus F : V → V heisst Automorphismus von V . Eine lineare Abbildung ist eindeutig festgelegt durch ihren Wert auf den Vektoren einer fixierten Basis. Sei F : V → W eine K-lineare Abbildung. Man definiert 1. Kern von F ker F = {v ∈ V | F (v) = 0} 2. Bild von F ImF = {F (v) | v ∈ V } 3. Rang von F rang(F ) = dim Im(F ) Kern und Bild von F sind Unterräume in V bzw. W . Eine lineare Abbildung F : V → W ist injektiv gdw. ker F = {0} und surjektiv gdw. im F = W . Gilt dim V = dim W < ∞, dann ist F surjektiv gdw F injektiv ist. Die lineare Abbildung F ist ein Isomorphismus gdw. F Basen von V in Basen von W überführt. Die Dimensionsformel für lineare Abbildungen besagt: dim V = dim ker F + dim im F . Eine Projektion ist eine lineare Abbildung P : V → V mit P 2 = P . Zu jeder Aufspaltung V = U ⊕ W gehören zwei Projektionen (die Projektionen auf die Summanden) und zu jeder Projektion P gehört eine Aufspaltung V = U ⊕ W mit U = ker P und W = im P . HomK (V, W ) := { F : V → W | K − linear } Raum der K-linearen Abbildungen (Vektorraum) EndK (V ) := HomK (V, V ) = { F : V → V | K − linear } Raum der Endomorphismen von V (Endomorphismenring, sogar K-Algebra) AutK (V ) := GL(V ) = { F : V → V | Isomorphismen } Raum der K-linearen Isomorphismen (allgemeine lineare Gruppe) Sei K ein Körper. Eine K-Algebra ist ein Ring R mit Eins, der gleichzeitig ein KVektorraum ist, so dass zusätzlich für alle f, g ∈ R und λ ∈ K gilt: λ(g · f ) = (λg) · f = g · (λf ) . 4 Das Zentrum einer Gruppe G ist die Untergruppe definiert als: Zent(G) := { f ∈ G | g · f = f · g ∀ g ∈ G} . Das Zentrum der Gruppe GL(V ) besteht aus den Abbildungen λ IdV , für beliebige λ ∈ K. Sei V ein K-Vektorraum. Der Dualraum V ∗ von V ist definiert als V ∗ := HomK (V, K) = { λ : V → K | K − linear } . Vektoren im Dualraum V ∗ nennt man Linearformen oder auch lineare Funktionale. Sei F : V → W eine K-lineare Abbildung. Die zu F duale Abbildung F ∗ : W ∗ → V ∗ ist für λ ∈ W ∗ und v ∈ V definiert als: F ∗ (λ)(v) = λ(F v) . Eine m × n-Matrix über K, oder mit Koeffizienten in K, ist eine Anordnung von n · mSkalaren aij , i = 1, . . . , m, j = 1, . . . , n in einem rechteckigem Schema, mit n Spalten und m Zeilen. Man schreibt A = (aij ). Die Menge aller m × n-Matrizen bezeichnet man mit M (m × n, K). Sei F : K n → K m eine K-lineare Abbildung. Die darstellende Matrix zu F ist die eindeutig bestimmte Matrix A = M (F ) ∈ M (m × n, K) mit F (x) = A · x, wobei x ∈ K n als Spaltenvektor geschrieben ist und A·x die Matrixmultiplikation von A und x bezeichnet. Die Spalten von M (F ) sind die Bilder der kanonischen Basisvektoren ej unter F , d.h. F (ej ) = Pm i=1 aij ei , j = 1, . . . , n. Dabei bezeichnen die ej die Vektoren der kanonischen Basis von Rn und auch der von Rm . Sei F : V → W eine K-lineare Abbildung. Zwischen zwei K-Vektorräumen V, W mit Basen A = {v1 , . . . , vn } in V und B = {w1 , . . . , wm } in W . Die darstellende Matrix zu F , bzgl. der Basen und B ist die Matrix A = MBA (F ) ∈ M (m × n, K) eindeutig definiert PA m durch F (vj ) = i=1 aij wi , j = 1, . . . , n. Die Spalten von M (F ) sind die Bilder unter F der Basisvektoren vj ausgedrückt als Linearkombination in den Vektoren wi . In den Spalten von M (F ) stehen also die Koeffizienten dieser Linearkombinationen. 5 Sei V ein K-Vektorraum mit einer Basis A = {v1 , . . . , vn }. Dann ist der kanonische Basisisomorphismus definiert als ΦA : K n −→ V, (x1 , . . . , xn ) 7→ x1 v1 + . . . + xn vn , d.h. ΦA (ei ) = vi , i = 1, . . . , n, dabei bezeichnet {ei } die kanonische Basis von K n . Man sagt auch: durch ΦA ist auf V ein Koordinatensystem definiert und bezeichnet ΦA auch als Koordinatenisomorphismus. Der Rang einer Matrix A ∈ M (m × n, K) ist definiert als der Rang der zugehörigen linearen Abbildung F : K n → K m , x 7→ A · x oder äquivalent als die Dimension des von den Spaltenvektoren von A in K m aufgespannten Unterraumes. Eine Matrix A ∈ M (n×n, K) heißt invertierbar genau dann, wenn die zugehörigen linearen Abbildung F : K n → K n , x 7→ A · x ein Isomorphismus ist, oder äquivalent dazu, wenn eine Matrix A−1 ∈ M (n × n, K) existiert mit A−1 · A = A · A−1 = En wobei En die n × n-Einheitsmatrix bezeichnet, dh. En = (aij ) mit aij = δij . Die Matrix A−1 ist eindeutig bestimmt und heißt die zu A inverse Matrix. Die Menge der invertierbaren Matrizen bildet die allgemeine lineare Gruppe, für diese schreibt man: GL(n, K) = {A ∈ M (n × n, K) | A invertierbar} Sei V ein K-Vektorraum mit einer Basis A = {v1 , . . . , vn }. Dann ist die duale Basis eine Basis A∗ = {v1∗ , . . . , vn∗ } von V ∗ , definiert durch vi∗ (vj ) := δij . Sei U ⊂ V ein Unterraum. Dann ist der Annullator von U ein Unterraum U 0 ⊂ V ∗ definiert durch: U 0 = {λ ∈ V ∗ | λ(u) = 0 ∀ u ∈ U } . Sei A ∈ M (m × n, K) eine m × n-Matrix. Dann ist die zu A = (aij ) transponierte Matrix AT definiert durch: AT = (bij ) mit bij = aj i 6 d.h. man erhält die Matrix AT durch ”Spiegelung” von A an der Diagonalen. Eine Matrix A heißt symmetrisch falls A = AT , schiefsymmetrisch falls A = −AT , hermitesch falls A = ĀT und schiefhermitesch falls A = −ĀT . Symmetrische Matrizen mit rellen Einträgen sind insbesondere hermitesch. Die transponierte Matrix AT ist die Matrix der zur Abbildung F : K n → K m mit F (x) = A · x gehörenden dualen Abbildung F ∗ : (K m )∗ ∼ = K n bzgl. der dualen = K m → (K n )∗ ∼ n ∗ kanonischen Basis in (K ) . Für eine Matrix A ∈ M (m × n, K) ist der Spaltenrang die Dimension des von den Spalten von A in K m aufgespannten Unterraumes. Der Zeilenrang ist die Dimension des von den Zeilen von A aufgespannten Unterraumes in K n . Spalten- und Zeilenrang stimmen mit dem Rang überein. Sei V ein K-Vektorraum mit Basen A und B. Die Transformationsmatrix des Basiswechsels von der Basis A zur Basis B ist definiert als: TBA = Φ−1 B ◦ ΦA . Zwei Matrizen A, B ∈ M (m × n, K) heissen äquivalent, wenn es zwei Matrizen S ∈ GL(m, K) und T ∈ GL(n, K) gibt mit: B = S · A · T −1 . Zwei quadratische Matrizen A, B ∈ M (n × n, K) heissen ähnlich, wenn es eine Matrix T ∈ GL(n, K) gibt mit B = T · A · T −1 . Sei V ein K-Vektorraum. Ein affiner Unterraum von V (kurz: affiner Raum) ist eine Teilmenge der Form: X = v0 + W = {v0 + w | w ∈ W } wobei W ⊂ V ein Unterraum und v0 ∈ V ist. Die Dimension eines affinen Raumes X ist die Dimension des zugehörigen Unterraumes W . Eine affine Abbildung ist eine Abbildung f : V → W mit f (v) = F (v) + w0 für eine lineare Abbildung F : V → W und ein festes w0 ∈ W . Sei A ∈ M (m × n, K) und b ∈ Rm gegeben. Dann ist die Gleichung A · x = b ein lineares Gleichungssystem mit m Gleichungen und n Unbekannten x1 , . . . , xn , die Koordinaten des Vektors x ∈ K n . Ist b = 0 spricht man von einem homogenen Gleichungssystem. Der Lösungsraum ist gegeben als Lös(A, b) = {x ∈ K n | Ax = b} 7 Die Matrix A bezeichnet man als Koeffizientenmatrix des linearen Gleichungssystems Ax = b. Die erweiterte Koeffizientenmatrix (A, b) erhält man aus A durch Hinzunahme von b als neue Spalte. Sei V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung b : V × V −→ K, (v, w) 7→ b(v, w) so dass für alle v, v 0 , w, w0 ∈ V und λ ∈ K gilt b(v + v 0 , w) = b(v, w + w0 ) = b(v, w) + b(v 0 , w), b(v, w) + b(v, w0 ), b(λv, w) = λ b(v, w) b(v, λw) = λ b(v, w) Eine Bilinearform b : V × V → K heißt symmetrisch falls für alle v, w ∈ V gilt b(v, w) = b(w, v) . Eine Bilinearform heißt schiefsymmetrisch oder alternierend falls entsprechend b(v, w) = − b(w, v) . Eine Bilinearform heißt positiv definit falls für alle v ∈ V mit v 6= 0 gilt: b(v, v) > 0 . Eine Bilinearform b : V × V → K heißt nicht ausgeartet oder regulär, falls sie durch die Abbildung v 7→ b(·, v) einen Isomorphismus V → V ∗ definiert. Äquivalent dazu ist, dass kein v0 ∈ V, v0 6= 0 existiert mit b(v, v0 ) = 0 ∀v ∈ V . Die zu einer Bilinearform b : V × V → K gehörende quadratische Form qb ist definiert durch qb : V → K, qb (v) := b(v, v) . Sei K ein Körper mit char(K) 6= 2 d.h. 2 6= 0 in K. Dann ist eine Bilinearform b über die Polarisierungsformel vollständig durch die zugehörige quadratische Form qb bestimmt: b(v, w) = 1 (qb (v + w) − qb (v) − qb (w)) . 2 Es besteht eine bijektive Beziehung zwischen Bilinearformen und quadratischen Matrizen. Sei B = (v1 , . . . , vn ) eine Basis von V . Dann ist die darstellende Matrix B = (Bij ) einer Bilinearform b definiert durch Bij = b(vi , vj ). Auf dem K-Vektorraum K n schreibt sich jede Bilinearform als b(x, y) = xT By, wobei dann B die darstellende Matrix von b ist. Analog schreibt sich eine Bilinearform auf einem beliebigen Vektorraum unter Benutzung 8 des Koordinatenisomorphismus ΦB : K n → V . Sei B 0 eine darstellende Matrix von b bzgl. einer weiteren Basis B 0 von V . Dann gilt folgendes Transformationsverhalten: B 0 = S T BS, wobei S die Transformationsmatrix des Basiswechsels ist. Symmetrische Bilinearformen haben symmetrische Darstellungsmatrizen. Eine Matrix heißt positiv definit, wenn sie eine positiv definite Bilinearform definiert. Eine symmetrische Matrix ist positiv definit, falls alle Eigenwerte oder alle Hauptminoren positiv sind. Der Satz über die Hauptachsentransformation besagt: Sei V ein reeller Vektorraum mit einer symmetrischen Bilinearform b : V × V → R. Dann existiert eine Basis w1 , . . . , wn von V , so dass für die quadratische Form qb zu b gilt: qb (v) = x21 + . . . + x2r − x2r+1 − . . . − x2r+s für alle v ∈ V mit v = x1 w1 + . . . + xn wn . Nach dem Trägheitssatz von Sylvester sind die Zahlen r und s eindeutig durch die Bilinearform b festgelegt. Sie ergeben sich als maximale Dimension der Unterräume von V auf denen qb für von Null verschiedene Vektoren positiv bzw negativ ist oder auch als Anzahl der positiven bzw. negativen Eigenwerte der darstellenden Matrix. Ein euklidischer Raum ist ein reeller Vektorraum V mit einer symmetrischen, positiv definiten Bilinearform b : V × V → R. Eine solche Bilinearform b nennt man euklidisches Skalarprodukt. Man schreibt auch b(·, ·) = h·, ·i. Jede symmetrische positiv definite Matrix definiert ein euklidisches Skalarprodukt. Jedes euklidische Skalarprodukt b definiert eine (euklidische) Norm durch p kvk = b(v, v) und einen Abstand, oder Metrik durch d(v, w) = kv − wk zwischen Vektoren v und w in V . Das Quadrat der Norm ist die zum Skalarprodukt gehörende quadratische Form. Sei (V, h·, ·i) ein euklidischer Vektorraum. Zwei Vektoren v, w ∈ V heißen zueinander orthogonal falls hv, wi = 0 gilt. Ein Orthonormalsystem in V ist eine Menge von Vektoren v1 , v2 , . . . mit hvj , vk i = δjk , d.h. die Vektoren haben die Länge 1 und sind paarweise orthogonal. Eine Orthonormalbasis ist eine Basis von V , die zusätzlich ein Orthonormalsystem ist. Nach dem Gram-Schmidt-Verfahren besitzt jeder euklidische oder unitäre Vektorraum eine Orthonormalbasis. Sei M ⊂ V eine beliebige Teilmenge. Dann ist das orthogonale Komplement von M definiert durch: M ⊥ := {v ∈ V | hv, wi = 0 ∀ w ∈ M } Für eine beliebige Teilmenge M ⊂ V ist M ⊥ ein Untervektorraum von V . 9 Sei U ⊂ V ein Unterraum. Dann gilt V = U ⊕ U ⊥ und die orthogonale Projektion auf U ist definiert durch pU : V → U, pU (v) = u falls v = u + w mit u ∈ U und w ∈ U ⊥ . Eine orthogonale Abbildung zwischen zwei euklidischen Vektorräumen (V, h·, ·i)V und (W, h·, ·i)W ist eine lineare Abbildung F : V → W mit hF v, F wiW = hv, wiV . für alle Vektoren v, w ∈ V . Orthogonale Abbildungen F : V → W sind injektiv. Sie sind bijektiv falls zusätzlich dim V = dim W gilt. Die orthogonale Gruppe, oder Gruppe der orthogonalen Matrizen ist definiert als O(n) := {A ∈ M (n × n, R) | A · AT = E} . Es ist die Gruppe der orthogonalen Abbildungen A : Rn → Rn , die gegeben sind durch Matrizenmultiplikation mit A. Orthogonale Matrizen sind darstellende Matrizen orthogonaler Endomorphismen bzgl. ONBs. Es gilt A ∈ O(n) genau dann, wenn die Spalten von A eine ONB bilden. Orthogonale Matrizen haben Determinante ±1. Die Menge der orthogonalen Matrizen mit Determinante +1 ist eine Untergruppe von O(n): die spezielle orthogonale Gruppe SO(n). Sei V ein komplexer Vektorraum. Eine hermitesche Form auf V ist eine Abbildung h : V × V → C mit folgenden Eigenschaften h(u + v, w) = h(u, w) + h(v, w), h(λ v, w) = λ h(v, w), h(v, w) = h(w, v) für alle u, v, w ∈ V und λ ∈ C. Eine hermitesche Form ist also linear im ersten und anti-linear im zweiten Argument, dh. im zweiten Argument gilt h(u, v + w) = h(u, v) + h(u, w), h(u, λv) = λ̄ h(u, v) . für alle u, v, w ∈ W und λ ∈ C. Hermitesche Matrizen (A = ĀT ) sind darstellende Matrizen für hermitesche Formen bzgl. Orthonormalbasen. Ein unitärer Vektorraum ist ein komplexer Vektorraum V zusammen mit einer positiv definiten hermiteschen Form h. Diese nennt man dann unitäres Skalarprodukt auf V . Positiv definit heißt hier wieder h(v, v) > 0 für alle Vektoren v ∈ V, v 6= 0. Diese Definition ist sinnvoll, da h(v, v) ∈ R für hermitesche Formen h. Jede positiv-definite hermitesche Matrix definiert ein unitäres Skalarprodukt. 10 Das kanonische Skalarprodukt auf Cn ist ein unitäres Skalarprodukt auf Cn definiert durch hv, wi := v1 w̄1 + . . . + vn w̄n . Orthogonalität von Vektoren, Orthonormalbasen, orthogonale Projektionen und orthogonale Komplemente sind analog zu euklidischen Vektorräumen definiert. Eine lineare Abbildung F : V → W zwischen zwei unitären Vektorräumen V und W heißt unitär falls für alle Vektoren v, w ∈ V gilt: hF v, F wi = hv, wi . Unitäre Abbildungen F : V → W sind injektiv. Sie sind bijektiv falls zusätzlich dim V = dim W gilt. Eine Matrix A ∈ M (n×n, C) heißt unitär, falls die durch Matrizenmultiplikation gegebenen Abbildung A : Cn → Cn bezüglich des kanonischen Skalarproduktes unitär ist. Äquivalent dazu ist die Bedingung A · ĀT = E. Die unitäre Gruppe U(n) ist die Menge der unitären Matrizen, d.h. U(n) := { A ∈ M (n × n, C) | A · Āt = E } . Unitäre Matrizen sind darstellende Matrizen unitärer Endomorphismen bzgl. ONBs. Es gilt A ∈ U(n) genau dann, wenn die Spalten von A eine ONB bilden. Die Determinante unitärer Matrizen ist eine komplexe Zahl der Länge 1, dh. von der Form eit für t ∈ R. Die Menge der unitären Matrizen mit Determinante 1 ist eine Untergruppe von U(n): die spezielle unitäre Gruppe SU(n). Sei V ein K-Vektorraum eine Abbildung D : V × . . .r−mal . . . × V → K heißt (r-fach) multilinear, falls sie in jedem Eintrag linear ist, d.h. falls die Abbildung V → K vi 7→ D(v1 , . . . , vi , . . . , vr ) für feste Vektoren vk , k 6= i linear ist. Eine multi-lineare Abbildung heißt alternierend falls, D(v1 , . . . , vr ) = 0 sobald ein Paar (i, j), i 6= j mit vi = vj existiert. Ist V ein Vektorraum der Charakteristik ungleich zwei, d.h. gilt 1 + 1 6= 0, dann sind alternierende Abbildungen genau die, die beim Vertauschen zweier Einträge das Vorzeichen wechseln, d.h. wo gilt D(v1 , . . . , vi , . . . , vj , . . . , vr ) = − D(v1 , . . . , vj , . . . , vi , . . . , vr ) . Die Menge der r-fach multilinearen und alternierenden Abbildungen auf V wird mit Λr V ∗ bezeichnet und auch Raum der r-Formen genannt. Der Raum der ¡n¢ r-Formen auf einem n-dimensionalen Vektorraum V ist ein Vektorraum der Dimension r . 11 Die Determinante einer n × n-Matrix ist eine multi-lineare, alternierende Abbildung det : M (n × n, K) ∼ = K n × . . .n−mal . . . × K n → K , die auf der Einheitsmatrix den Wert Eins annimmt. Durch diese drei Bedingungen ist die Determinante eindeutig festgelegt. Die Determinante interpretiert man hier als multi-lineare Abbildung auf den Spalten der gegebenen Matrix. Die Existenz der Determinante folgt aus der Leibniz-Formel bzw. dem Laplace-Entwicklungssatz. Existenz und Eindeutigkeit der Determinante ist äquivalent dazu, dass der Raum der n-Formen auf Rn ein-dimensional ist. Die symmetrische Gruppe Sn ist die Gruppe der bijektiven Abbildungen der Menge {1, . . . , n}. Die Gruppenelemente der symmetrischen Gruppe nennt man Permutationen. Permutationen, die genau zwei Elemente vertauschen und die restlichen Elemente festlassen heißen Transpositionen. Das Signum einer Permutation σ ∈ Sn ist definiert als sign σ := (−1)a(σ) , wobei a(σ) die Anzahl der Fehlstände ist, d.h. die Anzahl der Paare (i, j) mit i < j und σ(i) > σ(j). Permutation mit Signum +1 heißen gerade, die mit Signum -1 heißen ungerade. Jede Permutation schreibt sich als Verknüpfung von Transpositionen. In dieser Darstellung ist nur die Parität (gerade oder ungerade) der Anzahl der benötigten Transpositionen eindeutig bestimmt. Die geraden Permutationen bilden eine Untergruppe von Sn . Das Signum ist ein Gruppenhomomorphismus sign : Sn → Z2 . Das Signum berechnet sich auch nach der Formel Y σ(j) − σ(i) sign σ = . j−i i<j Die Leibniz-Formel gibt folgende Vorschrift zur Berechnung der Determinante einer Matrix A = (aij ) ∈ M (n × n, K): X det A = sign σ aσ(1)1 · . . . · aσ(n)n . σ∈Sn Hieraus folgt sofort det A = det AT für beliebige quadratische Matrizen A. Der Laplace-Entwicklungssatz gibt folgende Vorschrift zur Berechnung der Determinante einer Matrix A = (aij ) ∈ M (n × n, K): det A = n X (−1)i+j aij det Aij , i=1 12 wobei Aij ∈ M ((n − 1) × (n − 1), K) die Matrix ist, die man aus A durch das Streichen der iten Zeile und jten Spalte erhält. Summation über i bzw. über j ergibt die Entwicklung nach der jten Spalte bzw. nach der iten Zeile. Sei A ∈ M (n × n, K) die zu A komplementäre Matrix à ist definiert durch à = (ãij ) mit ãij = (−1)i+j det Aji . Die 1. Cramersche Regel besagt A · à = à · A = det A E, wobei E die Einheitsmatrix bezeichnet. Die 2. Cramersche Regel besagt, dass sich der Lösungsvektor x des linearen Gleichungssystems Ax = b berechnet als x = det1 A à · b. Insbesondere ist die ite Komponente von à · b die Determinante der Matrix, die aus A hervorgeht, in dem man die ite Spalte durch den Vektor b ersetzt. Sei V ein n-dimensionaler K-Vektorraum und sei F ∈ End V . Dann ist die Determinante des Endomorphismus F definiert als der Skalar det F in folgender Gleichung: F ∗ D = det F D für ein beliebiges D ∈ Λn V ∗ . Der Skalar det F ist wohldefiniert, da Λn V ∗ eindimensional ist. Äquivalent dazu ist die Determinante eines Endomorphismus F ∈ End V definiert als die Determinante einer darstellenden Matrix von F . Dies ist wohldefiniert, da sich die Determinante von darstellenden Matrizen zu verschiedenen Basen nicht unterscheiden. Der Determinanten Multiplikationssatz ist die Formel det A · B = det A · det B, für beliebige Matrizen A, B ∈ M (n × n, K). Die analoge Aussage gilt für die Derminante der Verknüpfung zweier Endomorphismen. Insbesondere folgt det A−1 = det1 A . Die spezielle lineare Gruppe ist definiert als SL(n, K) = {A ∈ M (n × n, K) | det A = 1}. Die spezielle lineare Gruppe ist eine Untergruppe der allgemeinen linearen Gruppe GL(n, K). Analog zur speziellen linearen Gruppe sind die spezielle orthogonale Gruppe und die spezielle unitäre Gruppe definiert. Der Raum der r-Formen Λr V ∗ besitzt eine Algebrenstruktur, dh. man hat ein Produkt von r-Formen: Sei ω ∈ Λr V ∗ und η ∈ Λs V ∗ , dann ist das Dachprodukt ω ∧ η eine (r+s)-Form definiert durch: 1 X ω ∧ η(v1 , . . . , vr+s ) := sign σ ω(vσ(1) , . . . , vσ(r) ) η(vσ(r+1) , . . . , vσ(r+s) ) . r!s! σ∈S r+s Als äußere Algebra bezeichnet man den Raum aller Formen (mit dem Dachprodukt), d.h. Λ V ∗ := Λ0 V ∗ ⊕ . . . ⊕ Λn V ∗ . 13 Sei F : V → W eine lineare Abbildung, dann ist das Zurückziehen von k-Formen bzw. die pull-back-Abbildung F ∗ : Λk W ∗ → Λk V ∗ definiert durch (F ∗ ω)(v1 , . . . , vk ) := ω(F v1 , . . . , F vk ) für ω ∈ Λk W ∗ und v1 , . . . , vk ∈ V . Sei A ∈ M (m × n, K) und k ≤ min{m, n} eine k-reihige Teilmatrix A0 ∈ M (k × k, K) entsteht aus A durch Streichen von m − k Zeilen und n − k Spalten. In diesem Fall nennt man det A0 eine Unterdeterminante oder auch k-reihiger Minor. Die Hauptminoren einer Matrix A sind die Determinanten, der quadratischen Teilmatrizen in der oberen linken Ecke von A. Sei A ∈ M (n×l, K), für 1 ≤ i1 < . . . < il ≤ n bezeichne Ai1 ,...,il ∈ M (l×l, K) die Matrix, die aus den Zeilen i1 , . . . , il von A besteht. Die Gramsche Determinante von A ist definiert als G(A) = det(AT A), sie berechnet sich als X G(A) = (det Ai1 ,...,il )2 . i1 <...<il Sei V ein reeller Vektorraum. Dann nennt man zwei Basen gleichorientiert, falls der Basiswechselisomorphismus eine positive Determinante hat. Seien A = {v1 , . . . , vn } und B = {w1 , . . . , wn } zwei Basen von V . Dann ist der Basiswechselisomorphismus F definiert durch F vi = wi für i = 1, . . . , n. Die Eigenschaft gleichorientiert zu sein definiert eine Äquivalenzrelation auf der Menge der Basen von V . Man hat genau zwei Äquivalenzklassen. Eine Orientierung auf V ist eine Äquivalenzklassen gleichorientierter Basen von V . Die Basen der fixierten Orientierung nennt man positiv orientiert die anderen entsprechend negativ orientiert. Der Raum Rn hat eine kanonische Orientierung. Das ist die Äquivalenzklassen in der die kanonische Basis liegt. Die Orientierung auf einem n-dimensionalen Vektorraum V kann festgelegt werden durch die Wahl einer Volumenform, d.h. einer von Null verschiedenen n-Form, also ω ∈ Λn V ∗ \ {0} Die Menge der Basen von Rn kann identifiziert werden mit der Menge der invertierbaren Matrizen GL(n, R). Entsprechend hat man folgende disjunkte Zerlegung: GL(n, R) = GL+ ∪ GL− mit GL± = {A ∈ M (n × n, R)| det A = ±}. Dabei entspricht GL+ der kanonischen Orientierung. 14 Zwei Basen A, B von Rn heißen stetig ineinander deformierbar, falls die entsprechenden Matrizen A, B ∈ GL(n, R) verbindbar sind, d.h. falls in GL(n, R) ein stetiger Weg von A nach B existiert. Das ist äquivalent dazu, daß die Basen gleichorientiert sind. Sei V ein K-Vektorraum und sei F ∈ End V . Ein λ ∈ K heißt Eigenwert von F , falls es einen Vektor v ∈ V mit v 6= 0 gibt, für den F v = λ v gilt. In diesem Fall nennt man v einen Eigenvektor von F zum Eigenwert λ. Ein F ∈ End V heißt diagonalisierbar wenn es eine Basis aus Eigenvektoren gibt. Das ist genau dann der Fall, wenn es eine Basis B von V gibt, für die die darstellende Matrix MB (F ) eine Diagonalmatrix ist. Eine Matrix A ∈ M (n × n, K) heißt diagonalisierbar, falls die entsprechende Abbildung A : K n → K n , x 7→ Ax diagonalisierbar ist, oder falls ein S ∈ GL(n, K) existiert, so daß SAS −1 eine Diagonalmatrix ist. Sei F ∈ End V und λ ∈ K. Dann ist der Eigenraum von F zum Eigenwert λ definiert als Eig (F, λ) := { v ∈ V | F v = λ v } . D.h. Eig (F, λ) ist die Menge der Eigenvektoren von F zum Eigenwert λ, zusammen mit dem Nullvektor. Sei F ∈ End V das charakteristische Polynom von F ist definiert durch: PF (x) := det (F − x IdV ) Eine Zahl λ ist genau dann Nullstelle des charakteristischen Polynoms von F , wenn λ ein Eigenwert von F ist. Es gilt PF (0) = det F , ausserdem ist PF ein Polynom nten Grades, falls V n-dimensional ist. Sei A die darstellende Matrix von F bzgl. irgendeiner Basis von V , dann gilt PF (x) = PA (x) := det (A − x E) , wobei E die Einheitsmatrix bezeichnet. Zueinander ähnliche Matrizen haben das gleiche charakteristische Polynom. Sei K ein Körper und x eine Unbestimmte. Ein Polynom über K ist ein Ausdruck der Gestalt: p = a0 + a1 x + . . . + an xn . Die Zahlen a0 , . . . , an heißen Koeffizienten des Polynoms. Sind alle Koeffizienten gleich Null, so spricht man vom Nullpolynom, p = 0. Ist p nicht das Nullpolynom, so definiert man den Grad von p durch deg(p) := max { i | ai 6= 0 } . 15 Ein Polynom vom Grad n mit an = 1 heißt normiert. “Unbestimmte” x soll hier einfach einen Buchstaben bezeichnen, für den man z.B. Zahlen aus K einsetzen kann. Der Raum der Polynome über K ist ein Ring, den man als den Polynomring über K bezeichnet, man schreibt K[x]. Man kann Polynome also nach den üblichen Regeln addieren und multiplizieren, wie für ganze Zahlen hat man auch eine Polynomdivision mit Rest. Jedes Polynom p ∈ K[x] definiert eine Abbildung p̃ : K → K (polynomiale Funktion) durch: p̃(λ) = a0 + a1 λ + . . . + an λn . Die Zuordnung p 7→ p̃ definiert den Auswertungshomomorphismus K[x] → Abb(K, K). Für Körper K mit unendlich vielen Elementen ist dieser injektiv, d.h. man kann dann p und p̃ identifizieren. Eine Zahl λ ∈ K heißt Nullstelle von p ∈ K[x] falls p(λ) = 0. Genauer müßte man p̃(λ) = 0 schreiben. Unter dem Abspalten von Linearfaktoren versteht man folgende Aussage. Sei p ∈ K[x] und sei λ ∈ K eine Nullstelle von p. Dann existiert ein eindeutig bestimmtes Polynom q ∈ K[x] mit deg(q) = deg(p) − 1 und p = (x − λ)q. Man sagt von p wurde der Linearfaktor (x − λ) abgespalten. Sei p ∈ K[x], p 6= 0. Für λ ∈ K heißt µ(P, λ) := max { r ∈ N | p = (x − λ)r q, q ∈ K[x] } die Vielfachheit der Nullstelle λ von p. Man sagt ein Polynom p ∈ K[x] zerfällt in Linearfaktoren, falls es sich in folgender Form schreiben läßt: p = a (x − λ1 )r1 · . . . · (x − λk )rk mit a ∈ K. Man spricht dann von einer Linearfaktorzerlegung von p. Der Fundamentalsatz der Algebra besagt, daß jedes nicht konstante Polynom über C mindestens eine Nullstelle besitzt. Damit besitzt jedes nicht konstante komplexe Polynom eine Linearfaktorzerlegung. Der Wurzelsatz von Vieta besagt, daß sich für ein beliebiges normiertes Polynom p = a0 + a1 x + . . . + an−1 xn−1 + xn , mit Nullstellen λ1 , . . . , λn (die nicht paarweise verschieden sein müssen), die Koeffizienten ak sich folgendermaßen berechnen lassen: ak = (−1)n−k sn−k (λ1 , . . . , λn ) . Dabei sind sk die elementarsymmetrischen Funktionen, definiert durch X sr (t1 , . . . , tn ) := ti1 · . . . · tir . i1 <...<ir 16 Seien P1 , P2 ∈ K[x] zwei Polynome mit P1 , P2 6= 0 und deg P2 ≤ deg P1 , dann ist der Euklidische Algorithmus eine Folge von Polynom-Divisionen mit Rest: P1 = Q1 P2 + P3 , P2 = Q2 P3 + P4 , . . . , Pn−1 = Qn−1 Pn , wobei immer deg Pk+1 ≤ deg Pk . Es gilt: Pn ist der größte gemeinsame Teiler von P1 und P2 . Es existieren Polynome P, Q mit Pn = P P1 + QP2 . Sei F ∈ End V mit charakteristische Polynom PF . Die algebraische Vielfachheit des Eigenwertes λ ist definiert als die Vielfachheit der Nullstelle λ von PF . Man schreibt µalg (F, λ) = µ(PF , λ) Zerfällt das charakteristische Polynom PF in Linearfaktoren, d.h. hat man PF = ± (x − λ1 )r1 · . . . · (x − λk )rk , wobei die λi , mit i = 1, . . . , k die paarweise verschiedenen Nullstellen von PF seien, dann ist µalg (F, λi ) = ri . Die geometrische Vielfachheit des Eigenwertes λ ist definiert als Dimension des Eigenraumes zum Eigenwert λ. Man schreibt µgeom (F, λ) = dim Eig(F, λ) . Es gilt immer µgeom (F, λ) ≤ µalg (F, λ). Ein Endomorphismus F ist genau dann diagonalisierbar, wenn sein charakteristisches Polynom in Linearfaktoren zerfällt und algebraische gleich geometrischer Vielfachheit ist. Zwei Endomorphismen F, G ∈ End V heißen simultan diagonalisierbar falls V eine Basis aus Vektoren besitzt, die gleichzeitig Eigenvektoren von F und von G sind. Dies ist genau dann erfüllt, wenn F und G kommutieren, dh. wenn F ◦ G = G ◦ F gilt. Sei V ein K-Vektorraum und F : V → V sei K-linear, d.h. ein Endomorphismus von V . Ein Unterraum W ⊂ V heißt F-invariant, falls: F (W ) ⊂ W , d.h. F (w) ∈ W für alle w ∈ W . Der Nullvektorraum {0} und der ganze Vektorraum V sind triviale invariante Unterräume, d.h. sie sind für jedes F ∈ End V invariant. Sei F ∈ End V und sei dim V = n, dann definiert man: 17 (i) Eine Fahne in V ist ein Tupel (Vr )r=0,...,n von Unterräumen in V mit {0} := V0 ⊂ V1 ⊂ . . . ⊂ Vn := V mit dim Vr = r für r = 0, . . . , n. (ii) Eine Fahne heißt F-invariant, falls für jedes r der Unterraum Vr F -invariant ist. Ein Endomorphismus F ∈ End V heißt trigonalisierbar falls eine F -invariante Fahne in V existiert.Äquivalent dazu ist: Es existiert eine Basis B von V für die die darstellende Matrix MB (F ) eine obere Dreiecksmatrix ist. Eine Matrix A = (aij ) ∈ M (n × n, K) heißt obere Dreiecksmatrix falls aij = 0 für i > j. Eine Matrix A ∈ M (n × n, K) heißt trigonalisierbar falls die entsprechende Abbildung A : K n → K n , x 7→ Ax trigonalisierbar ist, oder falls ein S ∈ GL(n, K) existiert, so daß SAS −1 eine obere Dreiecksmatrix ist. Endomorphismen oder Matrizen sind genau dann trigonalisierbar, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt. Insbesondere ist jeder Endomorphismus eines komplexen Vektorraumes bzw. jede komplexwertige Matrix trigonalisierbar. Ein Endomorphismus F ∈ End V eines euklidischen bzw. unitären Vektorraumes (V, h·, ·i) heißt selbstadjungiert falls für alle v, w ∈ V gilt: hF v, wi = hv, F wi Äquvivalent dazu ist, daß die darstellende Matrix A = MB (F ) von F bezüglich einer Orthonormalbasis B von V eine symmetrische Matrix, d.h. A = AT , bzw. eine hermitesche Matrix, d.h. A = ĀT , ist. Selbstadjungierte Abbildungen sind Endomorphismen, die mit ihrer adjungierten Abbildung F ad übereinstimmen. Sei F : V → W eine lineare Abbildung. Dann ist die zu F adjungierte Abbildung F ad : W → V ist charakterisiert durch die Gleichung hF v, wi = hv, F ad wi , die für alle v ∈ V und w ∈ W erfüllt sein muß. Definiert wird F ad durch F ad = Φ−1 ◦ F ∗ ◦ Ψ wobei Ψ bzw Φ die kanonischen Identifizierungen W → W ∗ bzw. V → V ∗ sind, gegeben als: Φ(v0 ) = (v 7→ hv, v0 i) und Ψ(w0 ) = (w 7→ hw, w0 i). 18 Ein Endomorphismus F ∈ End V eines unitären Vektorraumes (V, h·, ·i) heißt normal falls F ad ◦ F = F ◦ F ad . Eine Matrix A ∈ M (n × n, K) heißt normal falls A · ĀT = ĀT · A. Unitäre, selbst-adjungierte und schief-hermitesche (F ad = −F ) Endomorphismen sind normal. Ein Endomorphismus ist genau dann normal wenn eine Orthonormalbasis aus Eigenvektoren existiert. Eine Normalform einer gewissen Menge von Endomorphismen ist die einfachst mögliche Matrixform, auf die die darstellenden Matrizen dieser Endomorphismen durch Wahl einer geeigneten Basis gebracht werden können, insbesondere wenn die Endomorphismen nicht diagonalisierbar sind. Damit sind z.B. die Diagonalmatrizen Normalform von unitären und selbstadjungierten Endomorphismen, während die Normalform der orthogonalen Endomorphismen aus den Matrizen bestehen, die auf der Diagonalen entweder ±1 oder 2×2- Drehmatrizen zu stehen haben und die sonst Null sind. Sei A eine beliebige darstellende Matrix eines Endomorphismus F ∈ End V und sei  eine Normalform von F . Dann existiert eine invertierbare Matrix S mit S −1 A S = Â. Die Spalten von S sind dabei genau die Basisvektoren von V bzgl. der die Matrix von F in Normalform ist. Ist F diagonalisierbar dann sind die Spalten von S genau die Eigenvektoren von F . Sei F ∈ End V , dann ist der Einsetzungshomomorphismus definiert als die Abbildung ΦF : K[x] → End V mit ΦF (P ) = P (F ), dh. für ein Polynom P = a0 + a1 x + . . . + an xn ist P (F ) der Endomorphismus P (F ) = a0 Id + a1 F + . . . + an F n . Der Kern von ΦF ist ein Ideal erzeugt vom Minimalpolynom. Das Bild von ΦF , also die Menge aller Endomorphismen der Form P (F ), bildet eine kommutative Teilmenge (Unteralgebra) von End V . Sei F ∈ End V , dann ist das Minimalpolynom MF ∈ K[x] definiert als das eindeutig bestimmte normierte Polynom von minimalem Grad, dass die Gleichung MF (F ) = 0 erfüllt. Der Satz von Cayley-Hamilton besagt, PF (F ) = 0, wobei PF das charakteristische Polynom von F ist. Daraus folgt insbesondere, dass das Minimalpolynom ein Teiler des charakteristischen Polynoms ist. Zerfällt PF in Linearfaktoren, so auch MF und es treten die gleichen Faktoren auf. Ein Endomorphismus F ∈ End V heißt nilpotent, falls eine Zahl k ∈ N existiert mit F k = 0. Entsprechend sind nilpotente Matrizen definiert. 19 Äquivalent dazu ist, dass das charakteristische Polynom die Form PF = ±xdim V hat bzw. dass F durch eine obere Dreiecksmatrix realisiert wird, bei der Nullen auf der Diagonalen stehen. Insbesondere ist also Null der einzige Eigenwert eines nilpotenten Endomorphismus. Das Minimalpolynom eines nilpotenten Endomorphismus F ist von der Form xs . Dabei ist s der kleinste Exponent, für den F s = 0 gilt. Es folgt s ≤ dim V . Der Zerlegungssatz besagt: Sei F ∈ End V und sei P ∈ K[x] ein Polynom mit einer Zerlegung P = Q1 · . . . · Qk in paarweise teilerfremde Faktoren, dann erhält man eine F invariante Zerlegung k M ker P (F ) = ker Qi (F ) . i=1 Für F ∈ End V ist der verallgemeinerte Eigenraum (auch Hauptraum) V (λj ) zum Eigenwert λj definiert durch V (λj ) := ker(F − λj )rj dabei ist rj die algebraische Vielfachheit des Eigenwertes λj und gleichzeitig auch die Dimension von V (λj ). In der Definition kann man rj auch durch sj ersetzen, wobei sj der Exponent des Faktors (x − λj ) im Minimalpolynoms von F ist. Der Vektorraum V zerfällt in die direkte, F invariante Summe der verallgemeinerten Eigenräume. Ein Jordan-Block ist eine Matrix Jr (λ) ∈ M (r × r, K), mit λ’s auf der Diagonalen und Einsen auf der ersten (oberen) Nebendiagonalen. Eine Jordan-Normalform ist eine Matrix, die Jordan-Blöcke entlang der Diagonalen hat und deren sonstigen Einträge Null sind. Ist K algebraisch abgeschlossen, dh. zerfällt jedes Polynom über K in Linearfaktoren, z.B. K = C, dann besitzt jeder Endomorphismus eines K-Vektorraumes eine Jordan-Normalform. Sei F ∈ End V ein Endomorphismus mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk . Die algebraische Vielfachheit des Eigenwertes λj sei rj , die geometrische sei dj und der Exponent von (x − λj ) im Minimalpolynom von F sei sj . Dann läßt sich die JordanNormalform J von F aus folgenden Eigenschaften ableiten: Die Matrix J besteht aus k quadratischen Blöcken Aj mit rj , j = 1, . . . , k Zeilen, in denen jeweils λj auf der Diagonalen steht. Jede Matrix Aj besteht aus dj Jordan-Blöcken. Dabei gibt es mehr als dim ker(F − λj )s+1 − dim ker(F − λj )s Blöcke mit mehr als s Zeilen. Der größte JordanBlock in Aj hat sj Zeilen. Der Exponent sj ist der kleinste Exponent m mit ker(F − λj )m = ker(F − λj )rj , d.h. ab dem Exponenten m gilt Gleichheit in der Kette: Eig(F ; λj ) = ker(F −λj ) ⊂ ker(F −λj )2 ⊂ . . . ⊂ ker(F −λj )sj = . . . = ker(F −λj )rj . 20