92 Kapitel 4 Multilineare Algebra 4.1 Determinantenfunktionen Wir fixieren wieder einen Körper K, etwa IR oder C. Aus dem Vorkurs kennen wir das Spatprodukt dreier Vektoren des IR 3 v3 v 2 λv 1 v 1 Sind ~v1 , ~v2 und ~v3 linear unabhängige Vektoren, so kann mit Hilfe von ∆(~v1 , ~v2 , ~v3 ) := det(~v1 , ~v2 , ~v3 ) das Volumen des von diesen 3 Vektoren erzeugten Spats ausgedrückt werden: Es ist gegeben durch V = |∆(~v1 , ~v2 , ~v3 )|. Ferner erfüllt ∆ die folgenden Forderungen: (i) Sollte einer der Vektoren ~0 sein, so ist V = 0 93 94 KAPITEL 4. MULTILINEARE ALGEBRA (ii) Unter Vertauschen zweier Vektoren ändert sich V nicht, denn ∆(~v2 , ~v1 , ~v3 ) = −∆(~v1 , ~v2 , ~v3 ), entsprechendes gilt, wenn man 2 andere Vektoren vertauscht. (iii) Multiplizieren wir den Vektor ~v1 mit einer Zahl λ, so gilt ∆(λ~v1 , ~v2 , ~v3 ) = λ∆(~v1 , ~v2 , ~v3 ). Entsprechendes gilt, wenn wir einen beiden anderen Vektoren mit λ multiplizieren. (iv) Addieren wir zu ~v1 einen Vektor ~v10 , so entsteht ∆(~v1 , ~v2 , ~v3 ) + ∆(~v10 , ~v2 , ~v3 ) = ∆(~v1 + ~v10 , ~v2 , ~v3 ) Entsprechendes gilt, wenn wir zum zweiten oder dritten Vektor einen anderen addieren. Wir wollen jetzt Funktionen wie das ∆ in höherer Dimension untersuchen. Definition. Unter einer Determinantenfunktion auf K n verstehen wir eine Funktion ∆ : n n K × ... × K n} −→ K, die die folgenden Gesetze erfüllt: | × K {z n−mal • ∆ ist jedem Argument linear, d.h.: Sind j ∈ {1, ..., n} und ~v1 , ..., ~vj−1 , ~vj+1 , ..., ~vn fest, so gilt ∆(~v1 , ..., ~vj−1 , ~a +~b, ~vj+1 , ..., ~vn ) = ∆(~v1 , ..., ~vj−1 , ~a, ~vj+1 , ..., ~vn )+∆(~v1 , ..., ~vj−1 , ~b, ~vj+1 , ..., ~vn ) ∆(~v1 , ..., ~vj−1 , λ~a, ~vj+1 , ..., ~vn ) = λ∆(~v1 , ..., ~vj−1 , ~a, ~vj+1 , ..., ~vn ) für alle ~a, ~b ∈ K n und λ ∈ K. • Für i, j ∈ {1, 2, ...., n} mit i < j und ~v1 , ..., ~vn ∈ K n gilt ∆(~v1 , ..., ~vi−1 , ~vj , ~vi+1 , ..., ~vj−1 , ~vi , ~vj+1 , ..., ~vn ) = −∆(~v1 , ..., ~vi−1 , ~vi , ~vi+1 , ..., ~vj−1 , ~vj , ~vj+1 , ..., ~vn ) Die erste Eigenschaft nennt man Multilinearität. Hat eine Multilinearform die zweite Eigenschaft, nennt man sie alternierend. Folgende Eigenschaft ergibt sich aus obiger Definition: 4.1.2 Hilfssatz. Ist ∆ : K n × ... × K n −→ K eine Determinantenfunktion, so gilt für linear abhängige Vektoren ~a1 , ...., ~an ∈ K n immer ∆(~a1 , ...., ~an ) = 0 Beweis. Denn ist etwa ~a1 = λ2~a2 + ... + λn~an , so finden wir leicht: ∆(~a1 , ...., ~an ) = λ2 ∆(~a2 , ~a2 , ...., ~an ) + λ3 ∆(~a3 , ~a2 , ~a3 , ...., ~an ) +... + λn ∆(~an , ~a2 , ...., ~an ) = 0 4.1. DETERMINANTENFUNKTIONEN 95 Wir wollen im Folgenden untersuchen, wie viele solche Determinantenfunktionen es gibt. Wenn wir gegebene Vektoren ~v1 , ..., ~vn in irgendeiner Weise vertauschen, so wird dabei ∆(~v1 , ..., ~vn ) in einer bestimmenten Weise sein Vorzeichen ändern. Wie das geschieht, untersuchen wir zuerst. Dazu untersuchen wir Permutationen Im Folgenden sei An die Menge der Zahlen 1, ...., n. Definition. Unter einer Permutation in n Ziffern verstehen wir eine bijektive Abbildung σ : An −→ An . Die Menge Sn aller derartiger Abbildungen bildet mit der Komposition eine Gruppe, die man die symmetrische Gruppe nennt. Eine Permutation τ wird als Transposition bezeichnet, wenn es zwei Zahlen i < j in An gibt, so dass τ (i) = j, τ (j) = i, während alle anderen Elemente durch τ auf sich selbst abgebildet werden. Durch Induktion nach n zeigt man 4.1.3 Hilfssatz. Die Gruppe Sn hat n! Elemente Wir benötigen das folgende technische Hilfsmittel: Definition. Ist σ ∈ Sn , so nennen wir ein Paar (i, j) ∈ An × An einen Fehlstand von σ, wenn i < j, aber σ(i) > σ(j) gilt. Als Vorzeichen von σ definieren wir die Zahl Y σ(i) − σ(j) sign (σ) := i−j i<j Wir müssen das Vorzeichen von Permutationen untersuchen. 4.1.4 Hilfssatz. Sei σ ∈ Sn . a) Dann ist sign (σ) = {−1, 1}. Ist m die Anzahl der Fehlstände von σ, so wird sign (σ) = (−1)m . b) Stets gilt für σ, τ ∈ Sn : sign (σ ◦ τ ) = sign (σ)sign (τ ) c) Ist σ eine Transposition, die die Zahlen i und j vertauscht (i < j), dann gilt sign (σ) = −1. d) Man kann σ als Komposition von endlich vielen Transpositionen darstellen e) Ist σ aus m Transpositionen aufgebaut, so ist sign (σ) = (−1)m . Q Q Beweis. a) Wir zeigen, dass i<j (σ(i) − σ(j)) und k<` (k − `) bis (allenfalls) auf ein Vorzeichen übereinstimmen. Ist i < j, so ist σ(i) − σ(j) schon (abgesehen von möglicherweise einem Vorzeichen) einer der Faktoren k − ` mit k := σ(i), ` := σ(j), wenn σ(i) < σ(j) bezw. k := σ(j), ` := σ(i), wenn σ(i) > σ(j). 96 KAPITEL 4. MULTILINEARE ALGEBRA Ist k < `, so argumentieren wir ähnlich: Falls σ −1 (k) < σ −1 (`) wählen wir i := σ −1 (k) und j := σ −1 (`). Wenn σ −1 (k) > σ −1 (`), so setzen wir i := σ −1 (`) und j := σ −1 (k) . Dann wird stets k − ` = ±(σ(i) − σ(j) ). In der Produktformel für sign (σ) tragen nur die Fehlstände zu einem Vorzeichenwechsel bei. Daher gilt auch die zweite Behauptung. b) Wir schreiben für σ, τ ∈ Sn : Y σ ◦ τ (i) − σ ◦ τ (j) sign (σ ◦ τ ) = i−j i<j = Y σ ◦ τ (i) − σ ◦ τ (j) Y τ (i) − τ (j) · τ (i) − τ (j) i−j i<j i<j = Y σ ◦ τ (i) − σ ◦ τ (j) · sign (τ ) τ (i) − τ (j) i<j Q σ◦τ (i)−σ◦τ (j) = sign (σ) sein muss. Dazu stellen wir fest, dass i<j τ (i)−τ (j) Q σ◦τ (i)−σ◦τ (j) (i) jeder der Faktoren τ (i)−τ (j) schon in dem Produkt k<` σ(k)−σ(`) vorkommt und k−` Q σ(k)−σ(`) σ◦τ (i)−σ◦τ (j) (ii) jeder Faktor k−` schon in dem Produkt i<j τ (i)−τ (j) steckt. (j) Angenommen also, dass i < j sei. Ist dann weiter sogar τ (i) < τ (j), so wird σ◦ττ (i)−σ◦τ = (i)−τ (j) σ(k)−σ(`) σ◦τ (i)−σ◦τ (j) , wobei k := τ (i), ` := τ (j). Wenn dagegen τ (i) > τ (j) ist, so schreiben wir τ (i)−τ (j) = k−` σ◦τ (j)−σ◦τ (i) = σ(k)−σ(`) , diesmal mit k := τ (j), ` = τ (i). Dann ist wieder k < `. Das erledigt (i). τ (j)−τ (i) k−` −1 Wir überlegen uns noch, dass Die Aussage (ii) wird entsprechend gezeigt, man ersetze lediglich σ durch σ . Zu c) Wir geben alle Fehlstände von σ an und stellen fest, dass ihre Anzahl ungerade ist. Es sind dies genau die Paare (i, i + 1), (i, i + 2), ..., (i, j), das sind j − i an der Zahl, und weiter (i + 1, j), (i + 2, j), ..., (j − 1, j), also j − i − 1 viele. Die anderen Paare haben die Gestalt (k, `), wobei k 6= i, ` 6= j. Somit hat σ gerade 2(j − i) − 1 Fehlstände. Zu d) Das zeigt man z. B. durch Induktion nach n ≥ 2. Für n = 2 ist nichts zu tun, da S2 nur aus Id und der Vertauschung von 1 und 2 besteht. Ist die Behauptung für n richtig, so ist sie es auch für n + 1, denn wenn σ(n + 1) = n + 1, so kann σ so als Element von Sn angesehen werden und ist damit Produkt von Transpositionen in An . Jede solche Transposition τ ist aber auch schon durch τ (n + 1) = n + 1 zu einem Element von Sn+1 fortsetzbar. Ist nun i0 := σ(n + 1) 6= n + 1, so sei τ die Vertauschung von i0 und n + 1. Dann ist τ ◦ σ(n + 1) = n + 1, also nach dem schon Bewiesenen τ ◦ σ als Produkt von Transpositionen darstellbar. Dasselbe gilt dann für σ = τ ◦ (τ ◦ σ). Zu e) Das folgt aus b) und c). Beispiel: Ist n = 6 und σ durch die Tabelle i σ(i) 1 2 3 3 5 1 4 5 6 2 6 4 4.1. DETERMINANTENFUNKTIONEN 97 gegeben, so sind (1, 3), (1, 5), (2, 3), (2, 5), (2, 6), (4, 5) und (4, 6) die Fehlstände von σ, somit ist sign (σ) = −1. Zum anderen ist σ Produkt der drei Transpositionen, welche 1 mit 3, sowie 4 mit 6 und 2 mit 5 vertauschen. Wir können uns jetzt der Frage zuwenden, wieviele Determinantenfunktionen es auf K n gibt. Dazu brauchen wir noch den 4.1.5 Hilfssatz. Ist ∆ : K n ×...×K n −→ K eine Determinantenfunktion, so gilt für irgendeine Permutation σ ∈ Sn und Vektoren ~v1 , ..., ~vn ∆(~vσ(1) , ....., ~vσ(n) ) = sign (σ)∆(~v1 , ..., ~vn ) Beweis. Wir zerlegen σ in ein Produkt von Transpositionen, also σ = τ1 ◦ τ2 ◦ ... ◦ τr . Dann haben wir (mit σ 0 := τ2 ◦ ... ◦ τr ): ∆(~vσ(1) , ....., ~vσ(n) ) = ∆(~vτ1 ◦σ0 (1) , ....., ~vτ1 ◦σ0 (n) ) = sign (τ1 )∆(~vσ0 (1) , ....., ~vσ0 (n) ) Dann schreiben wir σ 00 = τ3 ◦ ... ◦ τr und wiederholen obiges Argument. Es folgt ∆(~vσ0 (1) , ....., ~vσ0 (n) ) = sign (τ2 )∆(~vσ00 (1) , ....., ~vσ00 (n) ) So fahren wir fort und erhalten schließlich ∆(~vσ(1) , ....., ~vσ(n) ) = sign (τ1 )sign (τ2 ) · ... · sign (τr )∆(~v1 , ..., ~vn ) = sign (σ)∆(~v1 , ..., ~vn ) Damit können wir alle Determinantenfunktionen angeben: ~ 1 , ..., A ~n ∈ Kn 4.1.6 Satz. a) Wir definieren für A X ~ 1 , ..., A ~ n) = ∆0 ( A sign (σ)Aσ(1) 1 Aσ(2) 2 · ... · Aσ(n) n , σ∈Sn ~ ` sein soll. wobei Ak ` der k.te Eintrag des Vektors A Dann ist ∆0 eine Determinantenfunktion. b) Ist ∆ : K n ×...×K n −→ K eine Determinantenfunktion, so gilt, wenn wir γ := ∆(~e 1 , ..., ~e n ) setzen: ∆ = γ∆0 , c) Je 2 nichtverschwindende Determinantenfunktionen ∆1 , ∆2 : K n × ... × K n −→ K unterscheiden sich nur um einen konstanten Faktor. d) Zwei Determinantenfunktionen stimmen überein, wenn ihre Werte bei (~e 1 , ..., ~e n ) übereinstimmen. 98 KAPITEL 4. MULTILINEARE ALGEBRA Beweis. Wir prüfen die Linearität im 1. Argument (die Linearität in den anderen Argumenten ~ 1, A ~1 0, A ~ 1 00 , A ~ 2 , ..., A ~ n haben wir wird entsprechend nachgeprüft). Für A X ~1 0 + A ~ 1 00 , A ~ 2 , ..., A ~ n) = ∆0 ( A sign (σ) A0σ(1) 1 + A00σ(1) 1 Aσ(2) 2 · ... · Aσ(n) n σ∈Sn X = sign (σ)A0σ(1) 1 Aσ(2) 2 · ... · Aσ(n) n σ∈Sn X + sign (σ)A00σ(1) 1 Aσ(2) 2 · ... · Aσ(n) n σ∈Sn ~ 1 0, A ~ 2 , ..., A ~ n ) + ∆ 0 (A ~ 1 00 , A ~ 2 , ..., A ~ n) = ∆ 0 (A und ~ 1, A ~ 2 , ..., A ~ n) = ∆0 (λA X sign (σ)(λAσ(1) 1 )Aσ(2) 2 · ... · Aσ(n) n σ∈Sn = λ X sign (σ)Aσ(1) 1 Aσ(2) 2 · ... · Aσ(n) n σ∈Sn ~ 1, A ~ 2 , ..., A ~ n) = λ∆0 (A ~ 1 , ..., A ~ n ) zwei Argumente. Ist dann τ ∈ Sn die zuAngenommen, wir vertauschen in ∆0 (A gehörige Transposition, so finden wir X ~ τ (1) , ..., A ~ τ (n) ) = ∆0 ( A sign (σ)Aσ(1) τ (1) Aσ(2) τ (2) · ... · Aσ(n) τ (n) σ∈Sn = X sign (σ)Aσ◦τ (τ (1)) τ (1) Aσ◦τ (τ (2)) τ (2) · ... · Aσ◦τ (τ (n)) τ (n) σ∈Sn = X sign (σ)Aσ◦τ (1) 1 Aσ◦τ (2) 2 · ... · Aσ◦τ (n) n σ∈Sn = − X sign (σ ◦ τ )Aσ◦τ (1) 1 Aσ◦τ (2) 2 · ... · Aσ◦τ (n) n σ∈Sn = − X sign (π)Aπ(1) 1 Aπ(2) 2 · ... · Aπ(n) n π∈Sn ~ 1 , ..., A ~ n) = −∆0 (A Das beweist die Behauptung a). P ~ ` = n Ak`~e k für ` = 1, ..., n. Dann wird Zu b) Wir schreiben A k=1 ~1, A ~ 2, A ~ 3 , ..., A ~ n) = ∆(A n X k1 =1 ~ 2 , ..., A ~ n) Ak1 1 ∆(~e k1 , A 4.2. DETERMINANTEN VON MATRIZEN = = n X k1 =1 n X A k1 1 A k1 1 k1 =1 99 n X k2 =1 n X ~ n) Ak2 1 ∆(~e k1 , ~e k2 , ..., A A k2 1 k2 =1 n X ~ n) Ak3 1 ∆(~e k1 , ~e k2 , ~e k3 , ..., A k3 =1 .. . = n X n X k1 =1 k2 =1 ··· n X Ak1 1 Ak2 2 · ... · Akn n ∆(~e k1 , ~e k2 , ..., ~e kn ) kn =1 Nun aber ist ∆(~e k1 , ~e k2 , ..., ~e kn ) 6= 0 nur dann, wenn (k1 , ...., kn ) eine Vertauschung der Zahlen 1, ..., n ist. Anderenfalls stimmen 2 der Vektoren ~e k1 , ~e k2 , ..., ~e kn überein. Somit wird aber X ~1, A ~ 2, A ~ 3 , ..., A ~ n) = ∆(A Aπ(1) 1 Aπ(2) 2 · ... · Aπ(n) n ∆(~e π(1) , ...., ~e π(n) ) π∈Sn = X sign (π)Aπ(1) 1 Aπ(2) 2 · ... · Aπ(n) n ∆(~e 1 , ..., ~e n ) π∈Sn ~ 1 , ..., A ~ n) = γ∆0 (A Zu c) Wir schreiben ∆1 = γ1 ∆0 , ∆2 = γ2 ∆0 , wie in Teil b). Sicher gilt γ1 , γ2 6= 0, also folgt ∆1 = γ1 ∆2 γ2 d) ist nun klar. 4.2 Determinanten von Matrizen In Analogie zum Fall der 2 × 2 oder 3 × 3 - Matrizen beschreiben wir Determinanten bei n × nMatrizen so: Definition. Ist A eine n × n-Matrix, so setzen wir det(A ) := ∆0 (A · ~e 1 , ...., A · ~e n ) (Determinante von A ). Dann gilt 4.2.1 Hilfssatz. Ist A eine n × n-Matrix, so wird det(A ) = det(A T ). 100 KAPITEL 4. MULTILINEARE ALGEBRA Beweis. Wir schreiben A = (aij )ni,j=1 . Ist dann σ ∈ Sn , so wird, wenn wir die Faktoren von a1 σ(1) · ... · anσ(n) gemäß der Permutation σ −1 vertauschen: a1 σ(1) · ... · anσ(n) = aσ−1 (1) 1 · ... · aσ−1 (n) n Wir setzen das in die Definition von det(A T ) ein und erhalten X det(A T ) = sign (σ)a1 σ(1) · ... · anσ(n) σ∈Sn X = sign (σ)aσ−1 (1) 1 · ... · aσ−1 (n) n σ∈Sn X = sign (σ −1 )aσ−1 (1) 1 · ... · aσ−1 (n) n σ∈Sn X = sign (π)aπ(1) 1 · ... · aπ(n) n π∈Sn = det(A ) Folgende Regeln ergeben sich leicht aus der Tatsache, dass ∆0 eine Determinantenfunktion ist: 4.2.2 Hilfssatz. Angenommen, es seien A und B zwei n × n-Matrizen. Dann gilt: (i) Wenn B aus A durch Vertauschen zweier Spalten (Zeilen) entsteht, so ist det(B) = − det(A ) (ii) Wenn die Spalten (Zeilen) von A linear abhängig sind, ist det(A ) = 0. (iii) Wenn B aus A dadurch entsteht, dass zu einer Spalte (Zeile) eine Linearkombination der anderen Spalten (Zeilen) addiert wird, dann ist det(B) = det(A ). (iv) Wenn die 1. Spalte von A gerade ~e 1 ist, so gilt det(A ) = det(A 0 ) wobei A 0 die (n − 1) × (n − 1)-Matrix ist, welche aus A durch Weglassen der 1. Spalte und 1. Zeile entsteht. (v) Ist die j.te Spalte von A gerade der Vektor ~e i , dann wird det(A ) = (−1)i+j det(Af(j, i)), wobei die (n − 1) × (n − 1)-Matrix Af(j, i) aus A durch Weglassen der i.-ten Zeile und j.-ten Spalte entsteht. Beweis. Wir behandeln nur (iv) und (v), der Rest ist direkt aus der Definition der Determinante abzulesen. Dazu schreiben wir X det(A ) = sign (π)aπ(1) 1 · ... · aπ(n) n π∈Sn = X sign (π)aπ(1) 1 · ... · aπ(n) n π∈Sn , π(1)=1 = X σ Permutation auf {2,...,n} sign (σ)aσ(2) 2 · ... · aσ(n) n 4.2. DETERMINANTEN VON MATRIZEN = X 101 sign (σ)aσ(2) 2 · ... · aσ(n) n σ∈Sn−1 = det(A 0 ) Mit der Eigenschaft (i) erhalten wir auch (v), nämlich nach Vertauschen der j.-ten Spalte mit jeder der (j − 1) vorherigen Spalten und anschließendem Vertauschen der i.-ten Zeile mit jeder der vorherigen: a11 .. . ai−1 1 det(A ) = det ai 1 ai+1 1 . .. an1 ... a1 j−1 .. . 0 a1 j+1 .. . ... a1n .. . ai−1 n ain ai+1 n .. . an n ... ... . . . ai−1 j−1 0 ai−1 j+1 . . . . . . ai j−1 1 ai j+1 . . . . . . ai+1 j−1 0 ai+1 j+1 . . . .. .. ... . . ... . . . an j−1 0 an j+1 . . . 0 a11 . . . a1 j−1 a1 j+1 . . . .. .. . ... . 0 a21 . . . 0 ai−1 1 . . . ai−1 j−1 ai−1 j+1 . . . ai j+1 . . . = (−1)j−1 det 1 ai1 . . . ai j−1 0 ai+1 1 . . . ai+1 j−1 ai+1 j+1 . . . .. .. .. 0 . ... . . ... 0 an1 . . . an j−1 an j+1 . . . 1 ai1 . . . ai j−1 ai j+1 0 a11 . . . a1 j−1 a 1 j+1 .. .. 0 a21 . . . . . . . .. . . . .. ... = (−1)j−1+i−1 det 0 a i−1 1 . . . ai−1 j−1 ai−1 j+1 0 a . . . ai+1 j−1 ai+1 j+1 i+1 . .. .. .. 0 . . ... 0 an1 . . . an j−1 an j+1 = (−1)i+j det(Af(j, i)) Erste Anwendungen: Hat die Matrix A Kästchengestalt, also Er A = 0 A2 A3 a1n .. . ai−1 n ain ai+1 n .. . an n ... ... ... .. . ain a1n .. . . . . ai−1 n . . . ai+1 n .. ... . ... an n 102 KAPITEL 4. MULTILINEARE ALGEBRA wobei Er die r ×r- Einheitsmatrix, A2 eine r ×(n−r)-Matrix und A3 eine (n−r)×(n−r)-Matrix ist, so gilt det(A ) = det(A3 ) Wir müssen dazu lediglich Punkt (iv) des Hilfssatzes iterieren. Beispiel (Vandermonde-Matrix). Angenommen, x1 , ..., xn ∈ K. Dannn bezeichnet man als Vandermonde-Matrix V (x1 , ..., xn ) die Matrix 1 x1 x21 . . . xn−1 1 1 x2 x2 . . . xn−1 2 2 n−1 2 V (x1 , ..., xn ) = 1 x3 x3 . . . x3 .. .. .. .. .. . . . . . 2 n−1 1 x n xn . . . x n Wir subtrahieren jetzt von der n-ten Spalte das x1 -fache der (n − 1)-ten Spalte, von der (n − 1)ten Spalte das x1 -fache der (n − 2)-ten Spalte. So fortfahrend erhalten wir für die Determinante V (x1 , ..., xn ) der Vandermonde- Matrix: 1 x1 x2 . . . xn−1 1 1 1 x2 x2 . . . xn−1 2 2 1 x3 x2 . . . xn−1 V (x1 , ..., xn ) = 3 3 .. .. .. .. .. . . . . . 2 n−1 1 x n xn . . . x n 1 0 0 ... 0 1 x2 − x1 x2 − x1 x2 . . . xn−1 − x1 xn−2 2 2 2 n−1 n−2 2 = 1 x 3 − x 1 x3 − x 1 x3 . . . x 3 − x 1 x3 .. .. .. .. .. . . . . . 2 n−1 n−2 1 x n − x 1 xn − x 1 xn . . . x n − x 1 xn 1 0 0 . . . 0 0 x2 − x1 x2 − x1 x2 . . . xn−1 − x1 xn−2 2 2 2 n−1 n−2 2 = 0 x 3 − x 1 x3 − x 1 x3 . . . x 3 − x 1 x3 .. .. .. .. .. . . . . . n−2 0 xn − x1 x2n − x1 xn . . . xn−1 − x 1 xn n = (x2 − x1 )(x3 − x1 ) · . . . · (xn − x1 )V (x2 , ...., xn ) wobei V (x2 , ...., xn ) die Vandermonde-Determinante vom Format (n − 1) × (n − 1) ist. Iterieren wir dies, so erhalten wir schließlich Y V (x1 , ..., xn ) = (xi − xj ) i<j 4.2. DETERMINANTEN VON MATRIZEN 103 Die Vandermonde-Matrix ist also genau dann invertierbar, wenn die x1 , ..., xn paarweise verschieden sind. Die Determinante einer Produktmatrix rechnen wir aus wie folgt: 4.2.3 Satz. (Produktsatz für Determinanten). Sind A und B zwei n × n-Matrizen, so wird det(A · B) = det(A ) det(B) Beweis. Wir benutzen den Struktursatz über Determinantenfunktionen. Es wird nämlich durch ∆1 (~v1 , ...., ~vn ) = det(A · ~v1 , ...., A · ~vn ) eine Determinantenfunktion auf K n erklärt. Diese ist aber dann identisch mit ∆1 (~e 1 , ..., ~e n )∆0 = det(A )∆0 Wählen wir dann als ~v1 , ...., ~vn die Spalten von B, so folgt die Behauptung, da det(A · B) = ∆1 (B · ~e 1 , ...., B · ~e n ) = det(A )∆0 (B · ~e 1 , ...., B · ~e n ) = det(A ) det(B) 4.2.4 Folgerung. a) Genau dann ist eine n × n-Matrix invertierbar, wenn det(A ) 6= 0 gilt. b) Hat eine Matrix A Kästchengestalt, ist also von der Form A1 A2 A = 0 A3 wobei A1 eine r × r-Matrix, A2 eine r × (n − r)-Matrix und A3 eine (n − r) × (n − r)-Matrix ist, so gilt det(A ) = det(A1 ) det(A3 ) Beweis. a) Gibt es eine Matrix A 0 mit A 0 · A = En , so wird det(A 0 ) det(A ) = 1, somit sehen wir, dass det(A ) 6= 0 sein muss. Ist umgekehrt det(A ) 6= 0, so müssen die Spalten von A linear unabhängig sein, also ist rg (A ) = n. Damit folgt nach früheren Argumenten aus Kap. 3 die Invertierbarkeit von A . b) Wenn det(A1 ) = 0, sind die Spalten von A1 linear abhängig, also auch die Spalten von A . Damit ist det(A ) = 0 = det(A1 ) det(A3 ). Wenn aber det(A1 ) nicht verschwindet, finden wir −1 0 Er A1 A2 A1 · A = 0 En−r 0 A3 104 KAPITEL 4. MULTILINEARE ALGEBRA Mit dem Multiplikationssatz folgt die Behauptung, da die erste Matrix die Determinante det(A1 ) und die zweite die Determinante det(A3 ) hat. Der Entwicklungssatz In Dimension 3 hatten wir schon früher (Vorkurs, Vorlesung) gesehen, dass wir eine 3 × 3Determinante nach Zeilen entwickeln können. Nun übertragen wir das auf den allgemeinen Fall: 4.2.5 Satz (Entwicklungssatz von Laplace für Determinanten). Sei A = (aij )ni,j=1 eine Matrix. Dann gilt für beliebiges j ∈ {1, 2, ..., n} det(A ) = n X i=1 (−1)i+j aij det(Af(j, i) ) wobei die (n − 1) × (n − 1)-Matrix Af(j, i) aus A durch Weglassen der i.-ten Zeile und j.-ten Spalte entsteht. Beweis. In der Tat haben wir det(A ) = det (A · ~e 1 , ..., A · ~e j−1 , A · ~e j , A · ~e j+1 , ..., A · ~e n ) n X = aij det (A · ~e 1 , ..., A · ~e j−1 , ~e i , A · ~e j+1 , ..., A · ~e n ) i=1 a11 . . . a1 j−1 .. .. . ... . n ai−1 1 . . . ai−1 j−1 X = aij det ai 1 . . . ai j−1 i=1 ai+1 1 . . . ai+1 j−1 . .. .. . ... an1 . . . an j−1 n X = (−1)i+j aij det(Af(j, i) ) 0 a1 j+1 .. . ... ... ... ... ... 0 ai−1 j+1 1 ai j+1 0 ai+1 j+1 .. . ... 0 an j+1 . . . a1n .. . ai−1 n ain ai+1 n .. . an n i=1 Damit können wir die Koeffizienten der Inversen einer Matrix durch die Matrizen Af(j, i) darstellen: 4.2.6 Satz. Sei A = (aij )ni,j=1 eine Matrix. Dann gilt für Af:= ((−1)i+j det(Af(i, j) ) )ni,j=1: Ist also A invertierbar, so wird Af· A = det(A ) · En A −1 = 1 Af det(A ) 4.3. ALTERNIERENDE P-FORMEN 105 Beweis. Der (k, l)-te Term von Af· A ist n X (−1) k+ν ν=1 det(Af(k, ν) )aν l = n X aν l det (A · ~e 1 , ..., A · ~e k−1 , ~e ν , A · ~e k+1 , ..., A · ~e n ) ν=1 = det (A · ~e 1 , ..., A · ~e k−1 , A ~e l , A · ~e k+1 , ..., A · ~e n ) Ist jetzt k = l, so ist der letztere Ausdruck gerade det(A ), ist dagegen k 6= l, so ist der letzte Term die Determinante einer Matrix, in der an der l.-ten und k.-ten Stelle die gleiche Spalte steht. Das ergibt null. Das beweist die erste Behauptung, die zweite ist dann klar. Auf lineare Gleichungssysteme angewendet, ergibt der Satz 4.2.7 Satz (Cramersche Regel). Ist A · ~x = ~b ein lineares Gleichungssystem aus n Gleichungen für n Unbekannte, so gilt, wenn A invertierbar ist, für den Lösungsvektor: 1 ~ det A · ~e 1 , ..., A · ~e k−1 , b, A · ~e k+1 , ..., A · ~e n , 1 ≤ k ≤ n xk = det(A ) Beweis. Es gilt xk = (A −1 · ~b)k n X 1 = (−1)k+ν det(Af(k, ν) )bν det(A ) ν=1 n X 1 = bν det (A · ~e 1 , ..., A · ~e k−1 , ~e ν , A · ~e k+1 , ..., A · ~e n ) det(A ) ν=1 1 = det A · ~e 1 , ..., A · ~e k−1 , ~b, A · ~e k+1 , ..., A · ~e n det(A ) 4.3 Alternierende p-Formen Sei in diesem Abschnitt K ein Körper. Ferner sollen alle auftretenden Vektorräume endlich erzeugt sein. Definition. a) Sind V1 , ...., Vp Vektorräume, p ∈ IN , so bezeichnen wir mit Mp (V1 , ...., Vp ) den Vektorraum aller p-fach linearen Abbildungen λ : V1 × ... × Vp −→ K. Ist V1 = ... = Vp , so schreiben wir Mp (V ) statt Mp (V, ...., V ). Jedes λ ∈ Mp (V1 , ...., Vp ) ist also in jedem einzelnen Argument linear, wenn man die anderen Argumente fest lässt. Wir nennen die Elemente von Mp (V1 , ...., Vp ) daher auch p-Linearformen. 106 KAPITEL 4. MULTILINEARE ALGEBRA b) Wir nennen eine Multilinearform λ ∈ Mp (V ) alternierend, wenn für alle ~v1 , ..., ~vp ∈ V der Term λ(~v1 , ..., ~vp ) das Vorzeichen wechselt, wenn man irgendwelche zwei der Argumente miteinander V vertauscht. c) Mit p V ∗ bezeichnen wir den Vektorraum der alternierenden Multilinearformen. Dann gilt in Analogie zu den Betrachtungen über Determinantenfunktionen auf K n : V 4.3.1 Satz. Ist λ ∈ p (V ∗ ), so gilt: a) Für alle ~v1 , ..., ~vp ∈ V und σ ∈ Sp ist λ(~vσ(1) , ...., ~vσ(p) ) = sign (σ)λ(~v1 , ..., ~vp ) Ferner ist λ(~v1 , ..., ~vp ) = 0,Vwenn ~v1 , ..., ~vp linear abhängig sein sollten. b) Wenn p > n, so ist p V ∗ = {~0}. c) Ist p = n, so stimmen zwei V alternierende n-Linearformen auf V bis auf eine Konstante überein. Insbesondere ist also dim n V ∗ = 1. Beweis. Man zeigt a) ähnlich wie den Satz 4.1.5. Aus a) folgt sofort b), da nun p Vektoren immer linear abhängig sein müssen. Zu c) Wir fixieren eine Basis ~b1 , ..., ~bn von V . Sind dann ~v1 , ..., ~vn ∈ V , so stellen wir jedes ~vj als n X ~vj = aij~bi i=1 dar. Eine Rechnung ähnlich der zum Beweis von Satz 4.1.6 liefert dann für eine n-Form λ ∈ V n ∗ V : X λ(~v1 , ..., ~vn ) = sign (σ)aσ(1) 1 · ... · aσ(n) n λ(~b1 , ...., ~bn ) Ist nun also µ ∈ Vn p∈Sp V ∗ eine weitere n-Form, so folgt ebenso X µ(~v1 , ..., ~vn ) = sign (σ)aσ(1) 1 · ... · aσ(n) n µ(~b1 , ...., ~bn ) p∈Sp Wenn also µ 6= 0 sein soll, muss schon µ(~b1 , ..., ~bn ) 6= 0 sein. Dann ist aber λ= λ(~b1 , ...., ~bn ) ·µ µ(~b1 , ...., ~bn ) V Das zeigt, dass dim n V ∗ ≤ 1 sein muss. Ferner erhalten wir durch das oben Geschriebene eine Idee, wie wir eine alternierende n-Form λ0 6= 0 auf V finden können. Wir wählen nämlich zu ~b1 , ..., ~bn die Dualbasis b∗ , ..., b∗ für V ∗ und definieren 1 n X λ0 (~v1 , ...., ~vn ) := sign (σ)b∗σ(1) (~v1 ) · ... · b∗σ(n) (~vn ) p∈Sp 4.3. ALTERNIERENDE P-FORMEN Diese Form V gehört dann zu ist dim n V ∗ = 1. Vn 107 V ∗ und ist wegen λ0 (~b1 , ...., ~bn ) = 1 auch nicht die 0-Form. Also Wir wollen nun das Tensorprodukt und äußere Produkt einführen: Definition. Sind V1 , ...., Vp und W1 , ..., Wq endlich erzeugte Vektorräume und φ ∈ Mp (V1 , ...., Vp ),ψ ∈ q M (W1 , ...., Wq ), so definieren wir das Tensorprodukt φ ⊗ ψ von φ und ψ als φ ⊗ ψ(~v1 , ....., ~vp , w ~ 1 , ..., w ~ q ) := φ(~v1 , ...., ~vp )ψ(w ~ 1 , ..., w ~ q) für ~vj ∈ Vj und w ~ k ∈ Wk . Dann wird φ ⊗ ψ ein Element aus M(V1 , ...., Vp , W1 , ..., Wq ). Das folgende ist leicht zu überprüfen: 4.3.2 Hilfssatz. Angenommen, es seien V1 , ..., Vp , W1 , ..., Wq , U1 , ..., Ur Vektorräume und φ ∈ Mp (V1 , ...., Vp ),ψ ∈ Mq (W1 , ..., Wq ) und ω ∈ Mr (U1 , ..., Ur ). Dann wird φ ⊗ (ψ ⊗ ω) = (φ ⊗ ψ) ⊗ ω sowie (φ + ψ) ⊗ ω = φ ⊗ ω + ψ ⊗ ω und ω ⊗ (φ + ψ) = ω ⊗ φ + ω ⊗ ψ Multilinearformen kann man mit Hilfe linearer Abbildungen von einem Vektorraum auf einen anderen ”verpflanzen” 4.3.3 Hilfssatz. Ist W ein weiterer endlich erzeugter Vektorraum über K und die Abbildung f : V −→ W linear, so wird für jedes φ ∈ Mp (W ) durch f ∗ φ(~v1 , ...., ~vp ) := φ(f (~v1 ), ...., f (~vp )) eine p-Linearform auf V definiert. V V Dabei bildet f ∗ den Raum p W ∗ nach p (V ∗ ) ab. Dies ermöglicht eine Definition der Determinante eines Endomorphismus f : V −→ V : V 4.3.4 Hilfssatz. Sei f : V −→ V eine lineare Abbildung und λ0 ∈ n V ∗ nicht Null. Dann ist die Zahl det(f ) ∈ K durch die Forderung f ∗ λ0 = det(f )λ0 widerspruchsfrei definiert. Beweis. Zu zeigen ist nun: Es gibt eine Zahl α ∈ K, so dass für Vjede (nicht-triviale) alternierende n-Form λ auf V gilt f ∗ λ = α · λ. In der Tat sei jetzt λ0 ∈ n V ∗ nicht null. Dann finden wir eine Zahl α ∈ K mit f ∗ λ0 = αλ0 . Ist jetzt λ1 eine weitere nichttriviale alternierende n-Form auf V , so wissen wir, dass mit einer Zahl β 6= 0 gilt: λ1 = βλ0 . Das liefert uns aber f ∗ λ1 = βf ∗ λ0 = αβλ0 = αλ1 108 KAPITEL 4. MULTILINEARE ALGEBRA Die zu λ0 gefundene Zahl α kann man also auch für jede weitere n-Form λ1 6= 0 verwenden. Sie hängt nicht von der Wahl von λ0 ab. Weiter gilt (Ü.A.) • Sind f, g ∈ End (V ), so ist det(f ◦ g) = det(f ) · det(g) • Angenommen, B sei eine Basis von V und A = A B,f,B . Dann gilt det(f ) = det(A ), • f ∈ End (V ) ist bijektiv genau dann, wenn det(f ) 6= 0. Was ist die Dimension von Mp (V1 , ...., Vp )? Die Antwort ist in dem nächsten Struktursatz enthalten: 4.3.5 Satz. Seien Vj Vektorräume der Dimension nj , mit j = 1, ..., p. Wählen wir Basen ~b(1) , ..., ~b(1) ~ (2) ~ (2) ~ (p) ~ (p) n1 von V1 , b1 , ..., bn2 von V2 ,...., b1 , ..., bnp von Vp , so wird die Familie 1 (1) (p) B := {(~bi1 )∗ ⊗ ... ⊗ (~bip )∗ | 1 ≤ i1 ≤ n1 , 1 ≤ i2 ≤ n2 , ...., 1 ≤ ip ≤ np } eine Basis von M(V1 , ..., Vp ). Insbesondere ist also M(V1 , ..., Vp ) = n1 · ... · np . b) Ist W ein endlich erzeugter Vektorraum, so gibt es zu jeder p-fach linearen Abbildung F : V ∗ × ... × V ∗ −→ W genau eine lineare Abbildung F : Mp (V ) −→ W mit F (λ1 , ..., λp ) = F (λ1 ⊗ ... ⊗ λp ) für λ1 , ..., λp ∈ V ∗ . Beweis. Ist Φ ∈ M(V1 , ..., Vp ), so gilt für Vektoren ~xj ∈ Vj , 1 ≤ j ≤ p zusammen mit xj = nj X (j) (j) (~bk )∗ (~xj )~bk , 1 ≤ j ≤ q k=1 also Φ(~x1 , ...., ~xp ) = Φ = = = n1 X (1) (1) (~bi1 )∗ (~x1 )~bi1 , ..., i1 =1 np X ip =1 (p) (p) (~bip )∗ (~xp )~bip (1) (p) (1) (p) (~bi1 )∗ (~x1 ) · ... · (~bip )∗ (~xp )Φ(~bi1 , ..., ~bip ) i1 =1 np X ip =1 n1 X i1 =1 np X ip =1 (1) (p) (1) (p) Φ ~bi1 , ..., ~bip (~bi1 )∗ (~x1 ) · ... · (~bip )∗ (~xp ) n1 X np X (1) (p) (1) (p) ~ ~ Φ bi1 , ..., bip (~bi1 )∗ ⊗ ... ⊗ (~bip )∗ (~x1 , ...., ~xp ) n1 X i1 =1 ... ... ... ip =1 4.3. ALTERNIERENDE P-FORMEN Das bedeutet Φ= n1 X ... i1 =1 np X ip =1 109 (1) (p) (1) (p) Φ ~bi1 , ..., ~bip (~bi1 )∗ ⊗ ... ⊗ (~bip )∗ Die Familie B erzeugt also M(V1 , ..., Vp ). Zur linearen Unabhängigkeit: Sind αi1 ,....,ip ∈ K Koeffizienten, so dass λ := n1 X i1 =1 ... np X (1) (p) αi1 ,....,ip (~bi1 )∗ ⊗ ... ⊗ (~bip )∗ = 0 ip =1 so finden wir (1) (p) αi1 ,....,ip = λ(bi1 , ...., bip ) = 0 Zu b) Sei F : V ∗ × ... × V ∗ −→ W linear. Dann können wir F durch seine Werte auf einer Basis von Mp (V ) eindeutig beschreiben. Wir wählen die Basis aus Teil a) und setzen (1) ∗ (p) ∗ ~ ~ F (bi1 ) ⊗ ... ⊗ (bip ) = F (~bi1 , ...., ~bip ) für alle i1 , ..., ip ∈ {1, 2, ..., n}. Wir wollen das äußere Produkt zweier Multilinearformen einführen. Dazu verwenden wir einen Antisymmetrisierungsoperator: 4.3.6 Hilfssatz. Für ϕ ∈ Mp (V ) setzen wir A(ϕ)(~v1 , ..., ~vp ) := 1 X sign (σ)ϕ(~vσ(1) , ..., ~vσ(p) ) p! σ∈S p für ~v1 , ..., ~vp ∈ V . Dann gilt V a) A(ϕ) ∈ p V ∗ Vp ∗ p b) Der Operator A : M (V ) −→ V ist linear, und es gilt A ◦ A = A. Vp ∗ c) Ist ϕ ∈ V , so wird A(ϕ) = ϕ. Beweis. a) Wir müssen dazu nur den entsprechenden Beweis aus dem Abschnitt über Determinantenfunktionen wiederholen. b)VDer erste Teil ist elementar. Zum Beweis der zweiten Behauptung sei τ ∈ Sp . Dann ist für 0 ϕ ∈ p V ∗ und ~v1 , ..., ~vp ∈ V : ϕ0 (~vτ (1) , ..., ~vτ (p) ) = sign (τ )ϕ0 (~v1 , ..., ~vp ) 110 KAPITEL 4. MULTILINEARE ALGEBRA also 1 X sign (σ)ϕ0 (~vσ(1) , ..., ~vσ(p) ) p! σ∈S p 1 X 0 = ϕ (~v1 , ..., ~vp ) p! σ∈S A(ϕ0 )(~v1 , ..., ~vp ) = p 0 = ϕ (~v1 , ..., ~vp ) Ist nun ϕ ∈ Mp (V ), so wenden wir das soeben Geschriebene auf ϕ0 := A(ϕ) ∈ c) folgt aus der Definition von A. Vp V ∗ an. Definition. Für zwei Multilinearformen ϕ ∈ M (V ), ψ ∈ M (V ) bezeichnen wir alternierende (p + q)-Form (p + q)! ϕ ∧ ψ := A(ϕ ⊗ ψ) p!q! als das äußere Produkt von ϕ mit ψ. Das äußere Produkt hat folgende Eigenschaften: p q 4.3.7 Satz. Seien ϕ ∈ Mp (V ), ψ ∈ Mq (V ). a) Dann ist A(ϕ ⊗ A(ψ)) = A(ϕ ⊗ ψ) = A(A(ϕ) ⊗ ψ) b Ist ω ∈ Mr (V ), so ϕ ∧ (ψ ∧ ω) = (ϕ ∧ ψ) ∧ ω c) Sind ϕ, ψ und ω wie in b) und q = r, so gilt ϕ ∧ (ψ + ω) = (ϕ ∧ ψ) + (ϕ ∧ ω) d) Sind ϕ und ψ alternierend, gilt das Antikommutativgesetz ϕ ∧ ψ = (−1)pq ψ ∧ ϕ Beweis. Zu a) Es gilt A(ϕ ⊗ A(ψ))(~v1 , ..., ~vp+q ) = X 1 sign (ϕ)ϕ(~vπ(1) , ..., ~vπ(p) )A(ψ)(~vπ(p+1) , ..., ~vπ(p+q) ) (p + q)! π∈S p+q = X X 1 sign (ϕ)ϕ(~vπ(1) , ..., ~vπ(p) ) sign (σ 0 )ψ(~vπ◦σ(p+1) , ...., ~vπ◦σ(p+q) ) (p + q)! π∈S 0 p+q σ∈Sq Dabei ist S0q die Menge der bijektiven Abbildungen von {p + 1, ..., p + q} in sich. Jedes σ ∈ S0q induziert mittels σ b(j) := j, wenn j ≤ p, σ b (j) = σ(j), wenn j > p 4.3. ALTERNIERENDE P-FORMEN 111 eine Permutation aus Sp+q mit sign (b σ ) = sign (σ). Setzen wir dies ein, so finden wir X X 1 sign (π)ϕ(~vπ(1) , ..., ~vπ(p) ) sign (σ 0 )ψ(~vπ◦σ(p+1) , ...., ~vπ◦σ(p+q) ) (p + q)!q! π∈S 0 σ∈Sq p+q = X X 1 sign (π) sign (b σ )ϕ(~vπ◦bσ (1) , ..., ~vπ◦bσ (p) )ψ(~vπ◦bσ (p+1) , ...., ~vπ◦bσ (p+q) ) (p + q)!q! π∈S σ∈S0 p+q = 1 (p + q)!q! q X X σ∈S0q = π∈Sp+q sign (π ◦ σ b)ϕ(~vπ◦bσ (1) , ..., ~vπ◦bσ (p) )ψ(~vπ◦bσ (p+1) , ...., ~vπ◦bσ (p+q) ) 1 X A(ϕ ⊗ ψ)(~v1 , ..., ~vp+q ) = A(ϕ ⊗ ψ)(~v1 , ..., ~vp+q ) q! 0 σ∈Sq Denn mit π durchläuft für jedes σ ∈ S0q auch π ◦ σ b alle Permutationen von Sp+q genau einmal. Genauso zeigt man die 2. Behauptung. b) und c) folgen nun aus (a) zusammen mit der Definition des äußeren Produktes. d) Für ~v1 , ..., ~vp+q ∈ V haben wir, wenn τ ∈ Sp+q ϕ ∧ ψ(~v1 , ..., ~vp+q ) = 1 X sign (σ)ϕ(~vσ(1) , ..., ~vσ(p) )ψ(~vσ(p+1) , ..., ~vσ(p+q) ) p!q! σ∈S p+q und ψ ∧ ϕ(~v1 , ..., ~vp+q ) = 1 X sign (σ)ψ(~vσ(1) , ..., ~vσ(q) )ϕ(~vσ(q+1) , ..., ~vσ(p+q) ) p!q! σ∈S p+q Wir wählen jetzt τ (j) := q + j wenn j − p wenn 1≤j≤p p+1≤j ≤p+q Dann wird 1 X sign (σ)ψ(~vσ◦τ (p+1) , ..., ~vσ◦τ (p+q) )ϕ(~vσ◦τ (1) , ..., ~vσ◦τ (p) ) p!q! σ∈S p+q X 1 = sign (τ ) sign (σ ◦ τ )ϕ(~vσ◦τ (1) , ..., ~vσ◦τ (p) )ψ(~vσ◦τ (p+1) , ..., ~vσ◦τ (p+q) ) p!q! σ∈S ψ ∧ ϕ(~v1 , ..., ~vp+q ) = p+q pq = (−1) ϕ ∧ ψ(~v1 , ..., ~vp+q ) denn τ hat das Vorzeichen (−1)pq . Analog zum Struktursatz für Multilinearformen haben wir den folgenden Satz: 112 KAPITEL 4. MULTILINEARE ALGEBRA 4.3.8 Satz. a) Ist B = {~b1 , ..., ~bn } eine Basis von V , so ist Bp := {b∗i1 ∧ ... ∧ ~b∗ip | 1 ≤ i1 < ... < ip ≤ n} n eine Basis von V . Es folgt dim V = . p b) Ist F : V ∗ × ... × V ∗ −→ W eine alternierende p-fach lineare Abbildung in den Vektorraum W , so gibt es genau eine lineare Abbildung Vp Vp ∗ ∗ F : p ^ V ∗ −→ W mit F (λ1 , ...., λp ) = F (λ1 ∧ ... ∧ λp ) für alle λ1 , ..., λp ∈ V ∗ . Beweis. Zunächst haben wir λ1 ∧ ... ∧ λp = p!A(λ1 ⊗ ... ⊗ λp ) für alle λ1 , ..., λp ∈ V ∗ . Insbesondere ist dann λ1 ∧ ... ∧ λp (~v1 , ..., ~vp ) = det( (λi (~vj ) )pi,j=1 ) Wenn also jetzt ϕ ∈ Vp V ∗ , so gilt ϕ(~v1 , ..., ~vp ) = ϕ = n X n X b∗j1 (~v1 )~bj1 , j1 =1 ... j1 =1 n X n X j2 =1 b∗j2 (~v2 )~bj2 , ...., n X jp =1 b∗jp (~vp )~bjp ϕ(~bj1 , ...., ~bjp )b∗j1 (~v1 ) · . . . · b∗jp (~vp ) jp =1 Da aber ϕ alternierend ist, tragen zu dieser Summe nur solche (j1 , ..., jp ) bei, die paarweise verschiedene Einträge aufweisen. Wir ordnen diese Beiträge weiter: Obige Summe ist n X j1 =1 X ... n X ϕ(~bj1 , ...., ~bjp )b∗j1 (~v1 ) · . . . · b∗jp (~vp ) = jp =1 X 1≤i1 <...<ip ≤n {j1 ,...,jp }={i1 ,...,ip } ϕ(~bj1 , ...., ~bjp )b∗j1 (~v1 ) · . . . · b∗jp (~vp ) 4.3. ALTERNIERENDE P-FORMEN X = X 113 sign (σ)ϕ(~bi1 , ...., ~bip )b∗iσ(1) (~v1 ) · . . . · b∗iσ(p) (~vp ) 1≤i1 <...<ip ≤n σ∈Sp X = ϕ(~bi1 , ...., ~bip )b∗i1 ∧ . . . ∧ b∗ip (~v1 , ..., ~vp ) 1≤i1 <...<ip ≤n V Somit wird p V ∗ durch Bp erzeugt. Angenommen nun, es gelte X αi1 ,....,ip b∗i1 ∧ . . . ∧ b∗ip = 0 1≤i1 <...<ip ≤n Bezeichnen wir die linke Seite mit ϕ, dann wird αj1 ,...,jp = ϕ(~bj1 , ...., ~bjp ) = 0 Damit sind alle Formen b∗i1 ∧ . . . ∧ b∗ip , linear unabhängig. Durch Abzählen der b∗i1 ∧ . . . ∧ b∗ip mit Vp ∗ n 1 ≤ i1 < i2 < ... < ip finden wir dim V = . p Zu b). Ist F : V ∗ × ... × V ∗ −→ W eine alternierende p-fach lineare Abbildung in den ~ ~ Vektorraum W , so setzen wir F (b∗i1 ∧ ... ∧ bip )∗ = VpF (b∗i1 , ..., bip ), für i1 < i2 < ... < ip . Das definiert die gewünschte lineare Abbildung F auf ganz V . Die Eindeutigkeit ist nun ebenfalls klar. 4.3.9 Satz. Ist W ein endlich erzeugter Vektorraum, Vso gibt es V zu gegebenen F1 , ..., Fp ∈ p ∗ ∗ ∗ Hom (V, W ) genau eine lineare Abbildung F1 ∧ ... ∧ Fp : W −→ p V ∗ , so dass F1∗ ∧ ... ∧ Fp∗ (µ1 ∧ ... ∧ µp ) = F1∗ (µ1 ) ∧ ... ∧ Fp (µp ) für alle µ1 , ..., µp ∈ W ∗ . V Beweis. Denn durch F : W ∗ × ... × W ∗ −→ p V ∗ , mit F (µ1 , ...., µp ) := F1∗ (µ1 ) ∧ ... ∧ Fp (µp ) ist eine alternierende p-fach lineare Abbildung definiert. Das zugehörige F ist gerade das gewünschte F1∗ ∧ ... ∧ Fp∗ . Eine weitere Anwendung des Struktursatzes ist 4.3.10 Satz. Sind λ1 , ..., λp ∈ V ∗ , so sind äquivalent: a) λ1 ∧ ... ∧ λp = 0 b) die λ1 , ..., λp sind linear abhängig. 114 KAPITEL 4. MULTILINEARE ALGEBRA ∗ Beweis. Aus b) folgt a): Halten wir ~v1 , ..., ~vp ∈ V fest, so ist die Abbildung F : V ... × V }∗ −→ | × {z p−mal K, F (`1 , ..., `p ) := (`1 ∧ ... ∧ `p )(~v1 , ..., ~vp ) eine alternierende p-Linearform, denn F (`1 , ..., `p ) = det( (`i (~vj ))pi,j=1 ) Sind jetzt λ1 , ..., λp linear abhängige Formen, so ist F (λ1 , ..., λp ) = 0, für jede Wahl von ~v1 , ..., ~vp ∈ V. V Aus a) folgt b). Sei Ep := p V ∗ . Für jedes µ ∈ Ep∗ definiert p+1 X fµ (`1 , ..., `p+1 ) := (−1)i µ(`1 ∧ ... ∧ `i−1 ∧ `i+1 ∧ ... ∧ `p+1 )`i i=1 eine alternierende (p + 1)-lineare Abbildung von V ∗ × ... × V ∗ nach V ∗ . Es gibt daher eine lineare Abbildung Fµ : Ep+1 −→ V ∗ mit fµ (`1 , ..., `p+1 ) = Fµ (`1 ∧ ... ∧ `p+1 ) Wir beweisen nun die Behauptung durch Induktion nach p. Für p = 1 ist alles klar. Angenommen, die Behauptung gelte für p. Sind dann λ1 , ..., λp+1 ∈ V ∗ Formen mit λ1 ∧ ... ∧ λp+1 = 0, so unterscheiden wir 2 Fälle: Ist λ1 ∧ ... ∧ λp = 0, so sind λ1 , ..., λp , also erst recht λ1 , ..., λp+1 linear abhängig. Wenn nun λ1 ∧ ... ∧ λp 6= 0, dann gibt es ein µ ∈ Ep∗ mit µ(λ1 ∧ ... ∧ λp ) 6= 0. Nun ist aber fµ (λ1 , ..., λp+1 ) = Fµ (λ1 ∧ ... ∧ λp+1 ) = 0 Das ergibt (−1)p+1 µ(λ1 ∧ ... ∧ λp )λp+1 = − p X (−1)i µ(`1 ∧ ... ∧ `i−1 ∧ `i+1 ∧ ... ∧ `p+1 )`i i=1 also λp+1 ∈ Span (λ1 , ...., λp ).