Untitled

Werbung
92
Kapitel 4
Multilineare Algebra
4.1
Determinantenfunktionen
Wir fixieren wieder einen Körper K, etwa IR oder C.
Aus dem Vorkurs kennen wir das Spatprodukt dreier Vektoren des IR 3
v3
v
2
λv
1
v
1
Sind ~v1 , ~v2 und ~v3 linear unabhängige Vektoren, so kann mit Hilfe von
∆(~v1 , ~v2 , ~v3 ) := det(~v1 , ~v2 , ~v3 )
das Volumen des von diesen 3 Vektoren erzeugten Spats ausgedrückt werden: Es ist gegeben
durch V = |∆(~v1 , ~v2 , ~v3 )|.
Ferner erfüllt ∆ die folgenden Forderungen:
(i) Sollte einer der Vektoren ~0 sein, so ist V = 0
93
94
KAPITEL 4. MULTILINEARE ALGEBRA
(ii) Unter Vertauschen zweier Vektoren ändert sich V nicht, denn ∆(~v2 , ~v1 , ~v3 ) = −∆(~v1 , ~v2 , ~v3 ),
entsprechendes gilt, wenn man 2 andere Vektoren vertauscht.
(iii) Multiplizieren wir den Vektor ~v1 mit einer Zahl λ, so gilt ∆(λ~v1 , ~v2 , ~v3 ) = λ∆(~v1 , ~v2 , ~v3 ).
Entsprechendes gilt, wenn wir einen beiden anderen Vektoren mit λ multiplizieren.
(iv) Addieren wir zu ~v1 einen Vektor ~v10 , so entsteht
∆(~v1 , ~v2 , ~v3 ) + ∆(~v10 , ~v2 , ~v3 ) = ∆(~v1 + ~v10 , ~v2 , ~v3 )
Entsprechendes gilt, wenn wir zum zweiten oder dritten Vektor einen anderen addieren.
Wir wollen jetzt Funktionen wie das ∆ in höherer Dimension untersuchen.
Definition. Unter einer Determinantenfunktion auf K n verstehen wir eine Funktion ∆ :
n
n
K
× ... × K n} −→ K, die die folgenden Gesetze erfüllt:
| × K {z
n−mal
• ∆ ist jedem Argument linear, d.h.: Sind j ∈ {1, ..., n} und ~v1 , ..., ~vj−1 , ~vj+1 , ..., ~vn fest, so
gilt
∆(~v1 , ..., ~vj−1 , ~a +~b, ~vj+1 , ..., ~vn ) = ∆(~v1 , ..., ~vj−1 , ~a, ~vj+1 , ..., ~vn )+∆(~v1 , ..., ~vj−1 , ~b, ~vj+1 , ..., ~vn )
∆(~v1 , ..., ~vj−1 , λ~a, ~vj+1 , ..., ~vn ) = λ∆(~v1 , ..., ~vj−1 , ~a, ~vj+1 , ..., ~vn )
für alle ~a, ~b ∈ K n und λ ∈ K.
• Für i, j ∈ {1, 2, ...., n} mit i < j und ~v1 , ..., ~vn ∈ K n gilt
∆(~v1 , ..., ~vi−1 , ~vj , ~vi+1 , ..., ~vj−1 , ~vi , ~vj+1 , ..., ~vn ) = −∆(~v1 , ..., ~vi−1 , ~vi , ~vi+1 , ..., ~vj−1 , ~vj , ~vj+1 , ..., ~vn )
Die erste Eigenschaft nennt man Multilinearität. Hat eine Multilinearform die zweite Eigenschaft, nennt man sie alternierend.
Folgende Eigenschaft ergibt sich aus obiger Definition:
4.1.2 Hilfssatz. Ist ∆ : K n × ... × K n −→ K eine Determinantenfunktion, so gilt für linear
abhängige Vektoren ~a1 , ...., ~an ∈ K n immer
∆(~a1 , ...., ~an ) = 0
Beweis. Denn ist etwa ~a1 = λ2~a2 + ... + λn~an , so finden wir leicht:
∆(~a1 , ...., ~an ) = λ2 ∆(~a2 , ~a2 , ...., ~an ) + λ3 ∆(~a3 , ~a2 , ~a3 , ...., ~an )
+... + λn ∆(~an , ~a2 , ...., ~an )
= 0
4.1. DETERMINANTENFUNKTIONEN
95
Wir wollen im Folgenden untersuchen, wie viele solche Determinantenfunktionen es gibt.
Wenn wir gegebene Vektoren ~v1 , ..., ~vn in irgendeiner Weise vertauschen, so wird dabei ∆(~v1 , ..., ~vn )
in einer bestimmenten Weise sein Vorzeichen ändern. Wie das geschieht, untersuchen wir zuerst.
Dazu untersuchen wir
Permutationen
Im Folgenden sei An die Menge der Zahlen 1, ...., n.
Definition. Unter einer Permutation in n Ziffern verstehen wir eine bijektive Abbildung σ :
An −→ An . Die Menge Sn aller derartiger Abbildungen bildet mit der Komposition eine Gruppe,
die man die symmetrische Gruppe nennt.
Eine Permutation τ wird als Transposition bezeichnet, wenn es zwei Zahlen i < j in An gibt,
so dass τ (i) = j, τ (j) = i, während alle anderen Elemente durch τ auf sich selbst abgebildet
werden.
Durch Induktion nach n zeigt man
4.1.3 Hilfssatz. Die Gruppe Sn hat n! Elemente
Wir benötigen das folgende technische Hilfsmittel:
Definition. Ist σ ∈ Sn , so nennen wir ein Paar (i, j) ∈ An × An einen Fehlstand von σ, wenn
i < j, aber σ(i) > σ(j) gilt.
Als Vorzeichen von σ definieren wir die Zahl
Y σ(i) − σ(j)
sign (σ) :=
i−j
i<j
Wir müssen das Vorzeichen von Permutationen untersuchen.
4.1.4 Hilfssatz. Sei σ ∈ Sn .
a) Dann ist sign (σ) = {−1, 1}. Ist m die Anzahl der Fehlstände von σ, so wird sign (σ) =
(−1)m .
b) Stets gilt für σ, τ ∈ Sn :
sign (σ ◦ τ ) = sign (σ)sign (τ )
c) Ist σ eine Transposition, die die Zahlen i und j vertauscht (i < j), dann gilt sign (σ) = −1.
d) Man kann σ als Komposition von endlich vielen Transpositionen darstellen
e) Ist σ aus m Transpositionen aufgebaut, so ist sign (σ) = (−1)m .
Q
Q
Beweis. a) Wir zeigen, dass i<j (σ(i) − σ(j)) und k<` (k − `) bis (allenfalls) auf ein Vorzeichen übereinstimmen. Ist i < j, so ist σ(i) − σ(j) schon (abgesehen von möglicherweise einem Vorzeichen) einer der Faktoren k − ` mit k := σ(i), ` := σ(j), wenn σ(i) < σ(j) bezw.
k := σ(j), ` := σ(i), wenn σ(i) > σ(j).
96
KAPITEL 4. MULTILINEARE ALGEBRA
Ist k < `, so argumentieren wir ähnlich: Falls σ −1 (k) < σ −1 (`) wählen wir i := σ −1 (k) und
j := σ −1 (`). Wenn σ −1 (k) > σ −1 (`), so setzen wir i := σ −1 (`) und j := σ −1 (k) . Dann wird stets
k − ` = ±(σ(i) − σ(j) ).
In der Produktformel für sign (σ) tragen nur die Fehlstände zu einem Vorzeichenwechsel bei.
Daher gilt auch die zweite Behauptung.
b) Wir schreiben für σ, τ ∈ Sn :
Y σ ◦ τ (i) − σ ◦ τ (j)
sign (σ ◦ τ ) =
i−j
i<j
=
Y σ ◦ τ (i) − σ ◦ τ (j) Y τ (i) − τ (j)
·
τ (i) − τ (j)
i−j
i<j
i<j
=
Y σ ◦ τ (i) − σ ◦ τ (j)
· sign (τ )
τ
(i)
−
τ
(j)
i<j
Q
σ◦τ (i)−σ◦τ (j)
= sign (σ) sein muss. Dazu stellen wir fest, dass
i<j
τ (i)−τ (j)
Q
σ◦τ (i)−σ◦τ (j)
(i) jeder der Faktoren τ (i)−τ (j) schon in dem Produkt k<` σ(k)−σ(`)
vorkommt und
k−`
Q
σ(k)−σ(`)
σ◦τ (i)−σ◦τ (j)
(ii) jeder Faktor k−` schon in dem Produkt i<j τ (i)−τ (j) steckt.
(j)
Angenommen also, dass i < j sei. Ist dann weiter sogar τ (i) < τ (j), so wird σ◦ττ (i)−σ◦τ
=
(i)−τ (j)
σ(k)−σ(`)
σ◦τ (i)−σ◦τ (j)
, wobei k := τ (i), ` := τ (j). Wenn dagegen τ (i) > τ (j) ist, so schreiben wir τ (i)−τ (j) =
k−`
σ◦τ (j)−σ◦τ (i)
= σ(k)−σ(`)
, diesmal mit k := τ (j), ` = τ (i). Dann ist wieder k < `. Das erledigt (i).
τ (j)−τ (i)
k−`
−1
Wir überlegen uns noch, dass
Die Aussage (ii) wird entsprechend gezeigt, man ersetze lediglich σ durch σ .
Zu c) Wir geben alle Fehlstände von σ an und stellen fest, dass ihre Anzahl ungerade ist.
Es sind dies genau die Paare (i, i + 1), (i, i + 2), ..., (i, j), das sind j − i an der Zahl, und weiter
(i + 1, j), (i + 2, j), ..., (j − 1, j), also j − i − 1 viele. Die anderen Paare haben die Gestalt (k, `),
wobei k 6= i, ` 6= j. Somit hat σ gerade 2(j − i) − 1 Fehlstände.
Zu d) Das zeigt man z. B. durch Induktion nach n ≥ 2. Für n = 2 ist nichts zu tun, da
S2 nur aus Id und der Vertauschung von 1 und 2 besteht. Ist die Behauptung für n richtig,
so ist sie es auch für n + 1, denn wenn σ(n + 1) = n + 1, so kann σ so als Element von Sn
angesehen werden und ist damit Produkt von Transpositionen in An . Jede solche Transposition
τ ist aber auch schon durch τ (n + 1) = n + 1 zu einem Element von Sn+1 fortsetzbar. Ist nun
i0 := σ(n + 1) 6= n + 1, so sei τ die Vertauschung von i0 und n + 1. Dann ist τ ◦ σ(n + 1) = n + 1,
also nach dem schon Bewiesenen τ ◦ σ als Produkt von Transpositionen darstellbar. Dasselbe gilt
dann für σ = τ ◦ (τ ◦ σ).
Zu e) Das folgt aus b) und c).
Beispiel: Ist n = 6 und σ durch die Tabelle
i
σ(i)
1 2 3
3 5 1
4 5
6 2
6
4
4.1. DETERMINANTENFUNKTIONEN
97
gegeben, so sind (1, 3), (1, 5), (2, 3), (2, 5), (2, 6), (4, 5) und (4, 6) die Fehlstände von σ, somit
ist sign (σ) = −1. Zum anderen ist σ Produkt der drei Transpositionen, welche 1 mit 3, sowie 4
mit 6 und 2 mit 5 vertauschen.
Wir können uns jetzt der Frage zuwenden, wieviele Determinantenfunktionen es auf K n gibt.
Dazu brauchen wir noch den
4.1.5 Hilfssatz. Ist ∆ : K n ×...×K n −→ K eine Determinantenfunktion, so gilt für irgendeine
Permutation σ ∈ Sn und Vektoren ~v1 , ..., ~vn
∆(~vσ(1) , ....., ~vσ(n) ) = sign (σ)∆(~v1 , ..., ~vn )
Beweis. Wir zerlegen σ in ein Produkt von Transpositionen, also σ = τ1 ◦ τ2 ◦ ... ◦ τr . Dann haben
wir (mit σ 0 := τ2 ◦ ... ◦ τr ):
∆(~vσ(1) , ....., ~vσ(n) ) = ∆(~vτ1 ◦σ0 (1) , ....., ~vτ1 ◦σ0 (n) ) = sign (τ1 )∆(~vσ0 (1) , ....., ~vσ0 (n) )
Dann schreiben wir σ 00 = τ3 ◦ ... ◦ τr und wiederholen obiges Argument. Es folgt
∆(~vσ0 (1) , ....., ~vσ0 (n) ) = sign (τ2 )∆(~vσ00 (1) , ....., ~vσ00 (n) )
So fahren wir fort und erhalten schließlich
∆(~vσ(1) , ....., ~vσ(n) ) = sign (τ1 )sign (τ2 ) · ... · sign (τr )∆(~v1 , ..., ~vn ) = sign (σ)∆(~v1 , ..., ~vn )
Damit können wir alle Determinantenfunktionen angeben:
~ 1 , ..., A
~n ∈ Kn
4.1.6 Satz. a) Wir definieren für A
X
~ 1 , ..., A
~ n) =
∆0 ( A
sign (σ)Aσ(1) 1 Aσ(2) 2 · ... · Aσ(n) n ,
σ∈Sn
~ ` sein soll.
wobei Ak ` der k.te Eintrag des Vektors A
Dann ist ∆0 eine Determinantenfunktion.
b) Ist ∆ : K n ×...×K n −→ K eine Determinantenfunktion, so gilt, wenn wir γ := ∆(~e 1 , ..., ~e n )
setzen:
∆ = γ∆0 ,
c) Je 2 nichtverschwindende Determinantenfunktionen ∆1 , ∆2 : K n × ... × K n −→ K unterscheiden sich nur um einen konstanten Faktor.
d) Zwei Determinantenfunktionen stimmen überein, wenn ihre Werte bei (~e 1 , ..., ~e n ) übereinstimmen.
98
KAPITEL 4. MULTILINEARE ALGEBRA
Beweis. Wir prüfen die Linearität im 1. Argument (die Linearität in den anderen Argumenten
~ 1, A
~1 0, A
~ 1 00 , A
~ 2 , ..., A
~ n haben wir
wird entsprechend nachgeprüft). Für A
X
~1 0 + A
~ 1 00 , A
~ 2 , ..., A
~ n) =
∆0 ( A
sign (σ) A0σ(1) 1 + A00σ(1) 1 Aσ(2) 2 · ... · Aσ(n) n
σ∈Sn
X
=
sign (σ)A0σ(1) 1 Aσ(2) 2 · ... · Aσ(n) n
σ∈Sn
X
+
sign (σ)A00σ(1) 1 Aσ(2) 2 · ... · Aσ(n) n
σ∈Sn
~ 1 0, A
~ 2 , ..., A
~ n ) + ∆ 0 (A
~ 1 00 , A
~ 2 , ..., A
~ n)
= ∆ 0 (A
und
~ 1, A
~ 2 , ..., A
~ n) =
∆0 (λA
X
sign (σ)(λAσ(1) 1 )Aσ(2) 2 · ... · Aσ(n) n
σ∈Sn
= λ
X
sign (σ)Aσ(1) 1 Aσ(2) 2 · ... · Aσ(n) n
σ∈Sn
~ 1, A
~ 2 , ..., A
~ n)
= λ∆0 (A
~ 1 , ..., A
~ n ) zwei Argumente. Ist dann τ ∈ Sn die zuAngenommen, wir vertauschen in ∆0 (A
gehörige Transposition, so finden wir
X
~ τ (1) , ..., A
~ τ (n) ) =
∆0 ( A
sign (σ)Aσ(1) τ (1) Aσ(2) τ (2) · ... · Aσ(n) τ (n)
σ∈Sn
=
X
sign (σ)Aσ◦τ (τ (1)) τ (1) Aσ◦τ (τ (2)) τ (2) · ... · Aσ◦τ (τ (n)) τ (n)
σ∈Sn
=
X
sign (σ)Aσ◦τ (1) 1 Aσ◦τ (2) 2 · ... · Aσ◦τ (n) n
σ∈Sn
= −
X
sign (σ ◦ τ )Aσ◦τ (1) 1 Aσ◦τ (2) 2 · ... · Aσ◦τ (n) n
σ∈Sn
= −
X
sign (π)Aπ(1) 1 Aπ(2) 2 · ... · Aπ(n) n
π∈Sn
~ 1 , ..., A
~ n)
= −∆0 (A
Das beweist die Behauptung a).
P
~ ` = n Ak`~e k für ` = 1, ..., n. Dann wird
Zu b) Wir schreiben A
k=1
~1, A
~ 2, A
~ 3 , ..., A
~ n) =
∆(A
n
X
k1 =1
~ 2 , ..., A
~ n)
Ak1 1 ∆(~e k1 , A
4.2. DETERMINANTEN VON MATRIZEN
=
=
n
X
k1 =1
n
X
A k1 1
A k1 1
k1 =1
99
n
X
k2 =1
n
X
~ n)
Ak2 1 ∆(~e k1 , ~e k2 , ..., A
A k2 1
k2 =1
n
X
~ n)
Ak3 1 ∆(~e k1 , ~e k2 , ~e k3 , ..., A
k3 =1
..
.
=
n X
n
X
k1 =1 k2 =1
···
n
X
Ak1 1 Ak2 2 · ... · Akn n ∆(~e k1 , ~e k2 , ..., ~e kn )
kn =1
Nun aber ist ∆(~e k1 , ~e k2 , ..., ~e kn ) 6= 0 nur dann, wenn (k1 , ...., kn ) eine Vertauschung der Zahlen
1, ..., n ist. Anderenfalls stimmen 2 der Vektoren ~e k1 , ~e k2 , ..., ~e kn überein. Somit wird aber
X
~1, A
~ 2, A
~ 3 , ..., A
~ n) =
∆(A
Aπ(1) 1 Aπ(2) 2 · ... · Aπ(n) n ∆(~e π(1) , ...., ~e π(n) )
π∈Sn
=
X
sign (π)Aπ(1) 1 Aπ(2) 2 · ... · Aπ(n) n ∆(~e 1 , ..., ~e n )
π∈Sn
~ 1 , ..., A
~ n)
= γ∆0 (A
Zu c) Wir schreiben ∆1 = γ1 ∆0 , ∆2 = γ2 ∆0 , wie in Teil b). Sicher gilt γ1 , γ2 6= 0, also folgt
∆1 =
γ1
∆2
γ2
d) ist nun klar.
4.2
Determinanten von Matrizen
In Analogie zum Fall der 2 × 2 oder 3 × 3 - Matrizen beschreiben wir Determinanten bei n × nMatrizen so:
Definition. Ist A eine n × n-Matrix, so setzen wir
det(A ) := ∆0 (A · ~e 1 , ...., A · ~e n )
(Determinante von A ).
Dann gilt
4.2.1 Hilfssatz. Ist A eine n × n-Matrix, so wird det(A ) = det(A T ).
100
KAPITEL 4. MULTILINEARE ALGEBRA
Beweis. Wir schreiben A = (aij )ni,j=1 . Ist dann σ ∈ Sn , so wird, wenn wir die Faktoren von
a1 σ(1) · ... · anσ(n) gemäß der Permutation σ −1 vertauschen:
a1 σ(1) · ... · anσ(n) = aσ−1 (1) 1 · ... · aσ−1 (n) n
Wir setzen das in die Definition von det(A T ) ein und erhalten
X
det(A T ) =
sign (σ)a1 σ(1) · ... · anσ(n)
σ∈Sn
X
=
sign (σ)aσ−1 (1) 1 · ... · aσ−1 (n) n
σ∈Sn
X
=
sign (σ −1 )aσ−1 (1) 1 · ... · aσ−1 (n) n
σ∈Sn
X
=
sign (π)aπ(1) 1 · ... · aπ(n) n
π∈Sn
= det(A )
Folgende Regeln ergeben sich leicht aus der Tatsache, dass ∆0 eine Determinantenfunktion
ist:
4.2.2 Hilfssatz. Angenommen, es seien A und B zwei n × n-Matrizen. Dann gilt:
(i) Wenn B aus A durch Vertauschen zweier Spalten (Zeilen) entsteht, so ist det(B) =
− det(A )
(ii) Wenn die Spalten (Zeilen) von A linear abhängig sind, ist det(A ) = 0.
(iii) Wenn B aus A dadurch entsteht, dass zu einer Spalte (Zeile) eine Linearkombination
der anderen Spalten (Zeilen) addiert wird, dann ist det(B) = det(A ).
(iv) Wenn die 1. Spalte von A gerade ~e 1 ist, so gilt det(A ) = det(A 0 ) wobei A 0 die (n −
1) × (n − 1)-Matrix ist, welche aus A durch Weglassen der 1. Spalte und 1. Zeile entsteht.
(v) Ist die j.te Spalte von A gerade der Vektor ~e i , dann wird det(A ) = (−1)i+j det(Af(j, i)),
wobei die (n − 1) × (n − 1)-Matrix Af(j, i) aus A durch Weglassen der i.-ten Zeile und j.-ten
Spalte entsteht.
Beweis. Wir behandeln nur (iv) und (v), der Rest ist direkt aus der Definition der Determinante abzulesen. Dazu schreiben wir
X
det(A ) =
sign (π)aπ(1) 1 · ... · aπ(n) n
π∈Sn
=
X
sign (π)aπ(1) 1 · ... · aπ(n) n
π∈Sn , π(1)=1
=
X
σ Permutation auf {2,...,n}
sign (σ)aσ(2) 2 · ... · aσ(n) n
4.2. DETERMINANTEN VON MATRIZEN
=
X
101
sign (σ)aσ(2) 2 · ... · aσ(n) n
σ∈Sn−1
= det(A 0 )
Mit der Eigenschaft (i) erhalten wir auch (v), nämlich nach Vertauschen der j.-ten Spalte mit
jeder der (j − 1) vorherigen Spalten und anschließendem Vertauschen der i.-ten Zeile mit jeder
der vorherigen:

a11
 ..
 .

 ai−1 1

det(A ) = det  ai 1

 ai+1 1
 .
 ..
an1
...
a1 j−1
..
.
0
a1 j+1
..
.
...

a1n
.. 
. 

ai−1 n 

ain 

ai+1 n 
.. 
. 
an n
...
...
. . . ai−1 j−1 0 ai−1 j+1 . . .
. . . ai j−1 1 ai j+1 . . .
. . . ai+1 j−1 0 ai+1 j+1 . . .
..
..
...
.
.
...
. . . an j−1 0 an j+1 . . .

0 a11 . . . a1 j−1
a1 j+1 . . .
..
..

.
...
.
 0 a21 . . .

 0 ai−1 1 . . . ai−1 j−1 ai−1 j+1 . . .

ai j+1 . . .
= (−1)j−1 det  1 ai1 . . . ai j−1

 0 ai+1 1 . . . ai+1 j−1 ai+1 j+1 . . .

..
..
..
 0
.
...
.
.
...
0 an1 . . . an j−1
an j+1 . . .

1 ai1 . . . ai j−1
ai j+1
 0 a11 . . . a1 j−1
a
1 j+1

..
..

 0 a21 . . .
.
.
 .
.
 .. . . .
..
...
= (−1)j−1+i−1 det 
 0 a
i−1 1 . . . ai−1 j−1 ai−1 j+1

 0 a
. . . ai+1 j−1 ai+1 j+1

i+1

.
..
..
..
 0
.
.
...
0 an1 . . . an j−1
an j+1
= (−1)i+j det(Af(j, i))
Erste Anwendungen:
Hat die Matrix A Kästchengestalt, also

 Er
A =

0

A2



A3

a1n
.. 
. 

ai−1 n 

ain 

ai+1 n 
.. 
. 
an n
...
...
...
..
.
ain
a1n
..
.
. . . ai−1 n
. . . ai+1 n
..
...
.
...
an n














102
KAPITEL 4. MULTILINEARE ALGEBRA
wobei Er die r ×r- Einheitsmatrix, A2 eine r ×(n−r)-Matrix und A3 eine (n−r)×(n−r)-Matrix
ist, so gilt
det(A ) = det(A3 )
Wir müssen dazu lediglich Punkt (iv) des Hilfssatzes iterieren.
Beispiel (Vandermonde-Matrix). Angenommen, x1 , ..., xn ∈ K. Dannn bezeichnet man als
Vandermonde-Matrix V (x1 , ..., xn ) die Matrix


1 x1 x21 . . . xn−1
1
 1 x2 x2 . . . xn−1 
2
2


n−1 
2

V (x1 , ..., xn ) =  1 x3 x3 . . . x3 
 .. ..
..
..
.. 
 . .
.
.
. 
2
n−1
1 x n xn . . . x n
Wir subtrahieren jetzt von der n-ten Spalte das x1 -fache der (n − 1)-ten Spalte, von der (n − 1)ten Spalte das x1 -fache der (n − 2)-ten Spalte. So fortfahrend erhalten wir für die Determinante
V (x1 , ..., xn ) der Vandermonde- Matrix:
1 x1 x2 . . . xn−1 1
1
1 x2 x2 . . . xn−1 2
2
1 x3 x2 . . . xn−1 V (x1 , ..., xn ) = 3
3
.. ..
.. ..
..
. .
. .
.
2
n−1
1 x n xn . . . x n 1
0
0
...
0
1 x2 − x1 x2 − x1 x2 . . . xn−1 − x1 xn−2 2
2
2
n−1
n−2 2
= 1 x 3 − x 1 x3 − x 1 x3 . . . x 3 − x 1 x3 ..
..
..
..
..
.
.
.
.
.
2
n−1
n−2
1 x n − x 1 xn − x 1 xn . . . x n − x 1 xn 1
0
0
.
.
.
0
0 x2 − x1 x2 − x1 x2 . . . xn−1 − x1 xn−2 2
2
2
n−1
n−2 2
= 0 x 3 − x 1 x3 − x 1 x3 . . . x 3 − x 1 x3 ..
..
..
..
..
.
.
.
.
.
n−2 0 xn − x1 x2n − x1 xn . . . xn−1
− x 1 xn
n
= (x2 − x1 )(x3 − x1 ) · . . . · (xn − x1 )V (x2 , ...., xn )
wobei V (x2 , ...., xn ) die Vandermonde-Determinante vom Format (n − 1) × (n − 1) ist. Iterieren
wir dies, so erhalten wir schließlich
Y
V (x1 , ..., xn ) =
(xi − xj )
i<j
4.2. DETERMINANTEN VON MATRIZEN
103
Die Vandermonde-Matrix ist also genau dann invertierbar, wenn die x1 , ..., xn paarweise verschieden sind.
Die Determinante einer Produktmatrix rechnen wir aus wie folgt:
4.2.3 Satz. (Produktsatz für Determinanten). Sind A und B zwei n × n-Matrizen, so wird
det(A · B) = det(A ) det(B)
Beweis. Wir benutzen den Struktursatz über Determinantenfunktionen. Es wird nämlich
durch
∆1 (~v1 , ...., ~vn ) = det(A · ~v1 , ...., A · ~vn )
eine Determinantenfunktion auf K n erklärt. Diese ist aber dann identisch mit
∆1 (~e 1 , ..., ~e n )∆0 = det(A )∆0
Wählen wir dann als ~v1 , ...., ~vn die Spalten von B, so folgt die Behauptung, da
det(A · B) = ∆1 (B · ~e 1 , ...., B · ~e n ) = det(A )∆0 (B · ~e 1 , ...., B · ~e n ) = det(A ) det(B)
4.2.4 Folgerung. a) Genau dann ist eine n × n-Matrix invertierbar, wenn det(A ) 6= 0 gilt.
b) Hat eine Matrix A Kästchengestalt, ist also von der Form


 A1 A2 

A =


0 A3
wobei A1 eine r × r-Matrix, A2 eine r × (n − r)-Matrix und A3 eine (n − r) × (n − r)-Matrix ist,
so gilt
det(A ) = det(A1 ) det(A3 )
Beweis. a) Gibt es eine Matrix A 0 mit A 0 · A = En , so wird det(A 0 ) det(A ) = 1, somit sehen
wir, dass det(A ) 6= 0 sein muss.
Ist umgekehrt det(A ) 6= 0, so müssen die Spalten von A linear unabhängig sein, also ist
rg (A ) = n. Damit folgt nach früheren Argumenten aus Kap. 3 die Invertierbarkeit von A .
b) Wenn det(A1 ) = 0, sind die Spalten von A1 linear abhängig, also auch die Spalten von A .
Damit ist det(A ) = 0 = det(A1 ) det(A3 ). Wenn aber det(A1 ) nicht verschwindet, finden wir

 

−1
0   Er A1 A2 
 A1 
·

A =
 

0 En−r
0 A3
104
KAPITEL 4. MULTILINEARE ALGEBRA
Mit dem Multiplikationssatz folgt die Behauptung, da die erste Matrix die Determinante det(A1 )
und die zweite die Determinante det(A3 ) hat.
Der Entwicklungssatz
In Dimension 3 hatten wir schon früher (Vorkurs, Vorlesung) gesehen, dass wir eine 3 × 3Determinante nach Zeilen entwickeln können. Nun übertragen wir das auf den allgemeinen Fall:
4.2.5 Satz (Entwicklungssatz von Laplace für Determinanten). Sei A = (aij )ni,j=1 eine Matrix.
Dann gilt für beliebiges j ∈ {1, 2, ..., n}
det(A ) =
n
X
i=1
(−1)i+j aij det(Af(j, i) )
wobei die (n − 1) × (n − 1)-Matrix Af(j, i) aus A durch Weglassen der i.-ten Zeile und j.-ten
Spalte entsteht.
Beweis. In der Tat haben wir
det(A ) = det (A · ~e 1 , ..., A · ~e j−1 , A · ~e j , A · ~e j+1 , ..., A · ~e n )
n
X
=
aij det (A · ~e 1 , ..., A · ~e j−1 , ~e i , A · ~e j+1 , ..., A · ~e n )
i=1

a11 . . . a1 j−1
..
 ..
.
...
 .

n
 ai−1 1 . . . ai−1 j−1
X

=
aij det  ai 1 . . . ai j−1

i=1
 ai+1 1 . . . ai+1 j−1
 .
..
 ..
.
...
an1 . . . an j−1
n
X
=
(−1)i+j aij det(Af(j, i) )
0
a1 j+1
..
.
...
...
...
...
...
0 ai−1 j+1
1 ai j+1
0 ai+1 j+1
..
.
...
0 an j+1 . . .

a1n
.. 
. 

ai−1 n 

ain 

ai+1 n 
.. 
. 
an n
i=1
Damit können wir die Koeffizienten der Inversen einer Matrix durch die Matrizen Af(j, i)
darstellen:
4.2.6 Satz. Sei A = (aij )ni,j=1 eine Matrix. Dann gilt für Af:= ((−1)i+j det(Af(i, j) ) )ni,j=1:
Ist also A invertierbar, so wird
Af· A = det(A ) · En
A −1 =
1
Af
det(A )
4.3. ALTERNIERENDE P-FORMEN
105
Beweis. Der (k, l)-te Term von Af· A ist
n
X
(−1)
k+ν
ν=1
det(Af(k, ν) )aν l =
n
X
aν l det (A · ~e 1 , ..., A · ~e k−1 , ~e ν , A · ~e k+1 , ..., A · ~e n )
ν=1
= det (A · ~e 1 , ..., A · ~e k−1 , A ~e l , A · ~e k+1 , ..., A · ~e n )
Ist jetzt k = l, so ist der letztere Ausdruck gerade det(A ), ist dagegen k 6= l, so ist der letzte
Term die Determinante einer Matrix, in der an der l.-ten und k.-ten Stelle die gleiche Spalte
steht. Das ergibt null. Das beweist die erste Behauptung, die zweite ist dann klar.
Auf lineare Gleichungssysteme angewendet, ergibt der Satz
4.2.7 Satz (Cramersche Regel). Ist A · ~x = ~b ein lineares Gleichungssystem aus n Gleichungen
für n Unbekannte, so gilt, wenn A invertierbar ist, für den Lösungsvektor:
1
~
det A · ~e 1 , ..., A · ~e k−1 , b, A · ~e k+1 , ..., A · ~e n , 1 ≤ k ≤ n
xk =
det(A )
Beweis. Es gilt
xk = (A −1 · ~b)k
n
X
1
=
(−1)k+ν det(Af(k, ν) )bν
det(A ) ν=1
n
X
1
=
bν det (A · ~e 1 , ..., A · ~e k−1 , ~e ν , A · ~e k+1 , ..., A · ~e n )
det(A ) ν=1
1
=
det A · ~e 1 , ..., A · ~e k−1 , ~b, A · ~e k+1 , ..., A · ~e n
det(A )
4.3
Alternierende p-Formen
Sei in diesem Abschnitt K ein Körper. Ferner sollen alle auftretenden Vektorräume endlich
erzeugt sein.
Definition. a) Sind V1 , ...., Vp Vektorräume, p ∈ IN , so bezeichnen wir mit Mp (V1 , ...., Vp ) den
Vektorraum aller p-fach linearen Abbildungen λ : V1 × ... × Vp −→ K. Ist V1 = ... = Vp , so
schreiben wir Mp (V ) statt Mp (V, ...., V ).
Jedes λ ∈ Mp (V1 , ...., Vp ) ist also in jedem einzelnen Argument linear, wenn man die anderen
Argumente fest lässt. Wir nennen die Elemente von Mp (V1 , ...., Vp ) daher auch p-Linearformen.
106
KAPITEL 4. MULTILINEARE ALGEBRA
b) Wir nennen eine Multilinearform λ ∈ Mp (V ) alternierend, wenn für alle ~v1 , ..., ~vp ∈ V
der Term λ(~v1 , ..., ~vp ) das Vorzeichen wechselt, wenn man irgendwelche zwei der Argumente
miteinander
V vertauscht.
c) Mit p V ∗ bezeichnen wir den Vektorraum der alternierenden Multilinearformen.
Dann gilt in Analogie zu den Betrachtungen über Determinantenfunktionen auf K n :
V
4.3.1 Satz. Ist λ ∈ p (V ∗ ), so gilt:
a) Für alle ~v1 , ..., ~vp ∈ V und σ ∈ Sp ist
λ(~vσ(1) , ...., ~vσ(p) ) = sign (σ)λ(~v1 , ..., ~vp )
Ferner ist λ(~v1 , ..., ~vp ) = 0,Vwenn ~v1 , ..., ~vp linear abhängig sein sollten.
b) Wenn p > n, so ist p V ∗ = {~0}.
c) Ist p = n, so stimmen zwei V
alternierende n-Linearformen auf V bis auf eine Konstante
überein. Insbesondere ist also dim n V ∗ = 1.
Beweis. Man zeigt a) ähnlich wie den Satz 4.1.5. Aus a) folgt sofort b), da nun p Vektoren immer
linear abhängig sein müssen.
Zu c) Wir fixieren eine Basis ~b1 , ..., ~bn von V . Sind dann ~v1 , ..., ~vn ∈ V , so stellen wir jedes ~vj
als
n
X
~vj =
aij~bi
i=1
dar. Eine Rechnung ähnlich der zum Beweis von Satz 4.1.6 liefert dann für eine n-Form λ ∈
V
n ∗
V :
X
λ(~v1 , ..., ~vn ) =
sign (σ)aσ(1) 1 · ... · aσ(n) n λ(~b1 , ...., ~bn )
Ist nun also µ ∈
Vn
p∈Sp
V ∗ eine weitere n-Form, so folgt ebenso
X
µ(~v1 , ..., ~vn ) =
sign (σ)aσ(1) 1 · ... · aσ(n) n µ(~b1 , ...., ~bn )
p∈Sp
Wenn also µ 6= 0 sein soll, muss schon µ(~b1 , ..., ~bn ) 6= 0 sein. Dann ist aber
λ=
λ(~b1 , ...., ~bn )
·µ
µ(~b1 , ...., ~bn )
V
Das zeigt, dass dim n V ∗ ≤ 1 sein muss. Ferner erhalten wir durch das oben Geschriebene eine
Idee, wie wir eine alternierende n-Form λ0 6= 0 auf V finden können. Wir wählen nämlich zu
~b1 , ..., ~bn die Dualbasis b∗ , ..., b∗ für V ∗ und definieren
1
n
X
λ0 (~v1 , ...., ~vn ) :=
sign (σ)b∗σ(1) (~v1 ) · ... · b∗σ(n) (~vn )
p∈Sp
4.3. ALTERNIERENDE P-FORMEN
Diese Form
V gehört dann zu
ist dim n V ∗ = 1.
Vn
107
V ∗ und ist wegen λ0 (~b1 , ...., ~bn ) = 1 auch nicht die 0-Form. Also
Wir wollen nun das Tensorprodukt und äußere Produkt einführen:
Definition. Sind V1 , ...., Vp und W1 , ..., Wq endlich erzeugte Vektorräume und φ ∈ Mp (V1 , ...., Vp ),ψ ∈
q
M (W1 , ...., Wq ), so definieren wir das Tensorprodukt φ ⊗ ψ von φ und ψ als
φ ⊗ ψ(~v1 , ....., ~vp , w
~ 1 , ..., w
~ q ) := φ(~v1 , ...., ~vp )ψ(w
~ 1 , ..., w
~ q)
für ~vj ∈ Vj und w
~ k ∈ Wk . Dann wird φ ⊗ ψ ein Element aus M(V1 , ...., Vp , W1 , ..., Wq ).
Das folgende ist leicht zu überprüfen:
4.3.2 Hilfssatz. Angenommen, es seien V1 , ..., Vp , W1 , ..., Wq , U1 , ..., Ur Vektorräume und φ ∈
Mp (V1 , ...., Vp ),ψ ∈ Mq (W1 , ..., Wq ) und ω ∈ Mr (U1 , ..., Ur ). Dann wird
φ ⊗ (ψ ⊗ ω) = (φ ⊗ ψ) ⊗ ω
sowie
(φ + ψ) ⊗ ω = φ ⊗ ω + ψ ⊗ ω
und
ω ⊗ (φ + ψ) = ω ⊗ φ + ω ⊗ ψ
Multilinearformen kann man mit Hilfe linearer Abbildungen von einem Vektorraum auf einen
anderen ”verpflanzen”
4.3.3 Hilfssatz. Ist W ein weiterer endlich erzeugter Vektorraum über K und die Abbildung
f : V −→ W linear, so wird für jedes φ ∈ Mp (W ) durch
f ∗ φ(~v1 , ...., ~vp ) := φ(f (~v1 ), ...., f (~vp ))
eine p-Linearform auf V definiert.
V
V
Dabei bildet f ∗ den Raum p W ∗ nach p (V ∗ ) ab.
Dies ermöglicht eine Definition der Determinante eines Endomorphismus f : V −→ V :
V
4.3.4 Hilfssatz. Sei f : V −→ V eine lineare Abbildung und λ0 ∈ n V ∗ nicht Null. Dann ist
die Zahl det(f ) ∈ K durch die Forderung f ∗ λ0 = det(f )λ0 widerspruchsfrei definiert.
Beweis. Zu zeigen ist nun: Es gibt eine Zahl α ∈ K, so dass für
Vjede (nicht-triviale) alternierende n-Form λ auf V gilt f ∗ λ = α · λ. In der Tat sei jetzt λ0 ∈ n V ∗ nicht null. Dann finden
wir eine Zahl α ∈ K mit f ∗ λ0 = αλ0 . Ist jetzt λ1 eine weitere nichttriviale alternierende n-Form
auf V , so wissen wir, dass mit einer Zahl β 6= 0 gilt: λ1 = βλ0 . Das liefert uns aber
f ∗ λ1 = βf ∗ λ0 = αβλ0 = αλ1
108
KAPITEL 4. MULTILINEARE ALGEBRA
Die zu λ0 gefundene Zahl α kann man also auch für jede weitere n-Form λ1 6= 0 verwenden. Sie
hängt nicht von der Wahl von λ0 ab.
Weiter gilt (Ü.A.)
• Sind f, g ∈ End (V ), so ist det(f ◦ g) = det(f ) · det(g)
• Angenommen, B sei eine Basis von V und A = A B,f,B . Dann gilt det(f ) = det(A ),
• f ∈ End (V ) ist bijektiv genau dann, wenn det(f ) 6= 0.
Was ist die Dimension von Mp (V1 , ...., Vp )? Die Antwort ist in dem nächsten Struktursatz
enthalten:
4.3.5 Satz. Seien Vj Vektorräume der Dimension nj , mit j = 1, ..., p. Wählen wir Basen
~b(1) , ..., ~b(1)
~ (2)
~ (2)
~ (p)
~ (p)
n1 von V1 , b1 , ..., bn2 von V2 ,...., b1 , ..., bnp von Vp , so wird die Familie
1
(1)
(p)
B := {(~bi1 )∗ ⊗ ... ⊗ (~bip )∗ | 1 ≤ i1 ≤ n1 , 1 ≤ i2 ≤ n2 , ...., 1 ≤ ip ≤ np }
eine Basis von M(V1 , ..., Vp ). Insbesondere ist also M(V1 , ..., Vp ) = n1 · ... · np .
b) Ist W ein endlich erzeugter Vektorraum, so gibt es zu jeder p-fach linearen Abbildung
F : V ∗ × ... × V ∗ −→ W genau eine lineare Abbildung F : Mp (V ) −→ W mit
F (λ1 , ..., λp ) = F (λ1 ⊗ ... ⊗ λp )
für λ1 , ..., λp ∈ V ∗ .
Beweis. Ist Φ ∈ M(V1 , ..., Vp ), so gilt für Vektoren ~xj ∈ Vj , 1 ≤ j ≤ p zusammen mit
xj =
nj
X
(j)
(j)
(~bk )∗ (~xj )~bk , 1 ≤ j ≤ q
k=1
also

Φ(~x1 , ...., ~xp ) = Φ 
=
=
=
n1
X
(1)
(1)
(~bi1 )∗ (~x1 )~bi1 , ...,
i1 =1
np
X
ip =1

(p)
(p)
(~bip )∗ (~xp )~bip 
(1)
(p)
(1)
(p)
(~bi1 )∗ (~x1 ) · ... · (~bip )∗ (~xp )Φ(~bi1 , ..., ~bip )
i1 =1
np
X
ip =1
n1
X
i1 =1
np
X
ip =1
(1)
(p)
(1)
(p)
Φ ~bi1 , ..., ~bip (~bi1 )∗ (~x1 ) · ... · (~bip )∗ (~xp )
n1
X
np
X
(1)
(p)
(1)
(p)
~
~
Φ bi1 , ..., bip (~bi1 )∗ ⊗ ... ⊗ (~bip )∗ (~x1 , ...., ~xp )
n1
X
i1 =1
...
...
...
ip =1
4.3. ALTERNIERENDE P-FORMEN
Das bedeutet
Φ=
n1
X
...
i1 =1
np
X
ip =1
109
(1)
(p)
(1)
(p)
Φ ~bi1 , ..., ~bip (~bi1 )∗ ⊗ ... ⊗ (~bip )∗
Die Familie B erzeugt also M(V1 , ..., Vp ).
Zur linearen Unabhängigkeit: Sind αi1 ,....,ip ∈ K Koeffizienten, so dass
λ :=
n1
X
i1 =1
...
np
X
(1)
(p)
αi1 ,....,ip (~bi1 )∗ ⊗ ... ⊗ (~bip )∗ = 0
ip =1
so finden wir
(1)
(p)
αi1 ,....,ip = λ(bi1 , ...., bip ) = 0
Zu b) Sei F : V ∗ × ... × V ∗ −→ W linear. Dann können wir F durch seine Werte auf einer
Basis von Mp (V ) eindeutig beschreiben. Wir wählen die Basis aus Teil a) und setzen
(1) ∗
(p) ∗
~
~
F (bi1 ) ⊗ ... ⊗ (bip ) = F (~bi1 , ...., ~bip )
für alle i1 , ..., ip ∈ {1, 2, ..., n}.
Wir wollen das äußere Produkt zweier Multilinearformen einführen. Dazu verwenden wir
einen Antisymmetrisierungsoperator:
4.3.6 Hilfssatz. Für ϕ ∈ Mp (V ) setzen wir
A(ϕ)(~v1 , ..., ~vp ) :=
1 X
sign (σ)ϕ(~vσ(1) , ..., ~vσ(p) )
p! σ∈S
p
für ~v1 , ..., ~vp ∈ V .
Dann gilt V
a) A(ϕ) ∈ p V ∗
Vp ∗
p
b) Der Operator
A
:
M
(V
)
−→
V ist linear, und es gilt A ◦ A = A.
Vp ∗
c) Ist ϕ ∈
V , so wird A(ϕ) = ϕ.
Beweis. a) Wir müssen dazu nur den entsprechenden Beweis aus dem Abschnitt über Determinantenfunktionen wiederholen.
b)VDer erste Teil ist elementar. Zum Beweis der zweiten Behauptung sei τ ∈ Sp . Dann ist für
0
ϕ ∈ p V ∗ und ~v1 , ..., ~vp ∈ V :
ϕ0 (~vτ (1) , ..., ~vτ (p) ) = sign (τ )ϕ0 (~v1 , ..., ~vp )
110
KAPITEL 4. MULTILINEARE ALGEBRA
also
1 X
sign (σ)ϕ0 (~vσ(1) , ..., ~vσ(p) )
p! σ∈S
p
1 X 0
=
ϕ (~v1 , ..., ~vp )
p! σ∈S
A(ϕ0 )(~v1 , ..., ~vp ) =
p
0
= ϕ (~v1 , ..., ~vp )
Ist nun ϕ ∈ Mp (V ), so wenden wir das soeben Geschriebene auf ϕ0 := A(ϕ) ∈
c) folgt aus der Definition von A.
Vp
V ∗ an.
Definition. Für zwei Multilinearformen ϕ ∈ M (V ), ψ ∈ M (V ) bezeichnen wir alternierende
(p + q)-Form
(p + q)!
ϕ ∧ ψ :=
A(ϕ ⊗ ψ)
p!q!
als das äußere Produkt von ϕ mit ψ.
Das äußere Produkt hat folgende Eigenschaften:
p
q
4.3.7 Satz. Seien ϕ ∈ Mp (V ), ψ ∈ Mq (V ).
a) Dann ist
A(ϕ ⊗ A(ψ)) = A(ϕ ⊗ ψ) = A(A(ϕ) ⊗ ψ)
b Ist ω ∈ Mr (V ), so
ϕ ∧ (ψ ∧ ω) = (ϕ ∧ ψ) ∧ ω
c) Sind ϕ, ψ und ω wie in b) und q = r, so gilt
ϕ ∧ (ψ + ω) = (ϕ ∧ ψ) + (ϕ ∧ ω)
d) Sind ϕ und ψ alternierend, gilt das Antikommutativgesetz
ϕ ∧ ψ = (−1)pq ψ ∧ ϕ
Beweis. Zu a) Es gilt
A(ϕ ⊗ A(ψ))(~v1 , ..., ~vp+q ) =
X
1
sign (ϕ)ϕ(~vπ(1) , ..., ~vπ(p) )A(ψ)(~vπ(p+1) , ..., ~vπ(p+q) )
(p + q)! π∈S
p+q
=
X
X
1
sign (ϕ)ϕ(~vπ(1) , ..., ~vπ(p) )
sign (σ 0 )ψ(~vπ◦σ(p+1) , ...., ~vπ◦σ(p+q) )
(p + q)! π∈S
0
p+q
σ∈Sq
Dabei ist S0q die Menge der bijektiven Abbildungen von {p + 1, ..., p + q} in sich. Jedes σ ∈ S0q
induziert mittels
σ
b(j) := j, wenn j ≤ p, σ
b (j) = σ(j), wenn j > p
4.3. ALTERNIERENDE P-FORMEN
111
eine Permutation aus Sp+q mit sign (b
σ ) = sign (σ). Setzen wir dies ein, so finden wir
X
X
1
sign (π)ϕ(~vπ(1) , ..., ~vπ(p) )
sign (σ 0 )ψ(~vπ◦σ(p+1) , ...., ~vπ◦σ(p+q) )
(p + q)!q! π∈S
0
σ∈Sq
p+q
=
X
X
1
sign (π)
sign (b
σ )ϕ(~vπ◦bσ (1) , ..., ~vπ◦bσ (p) )ψ(~vπ◦bσ (p+1) , ...., ~vπ◦bσ (p+q) )
(p + q)!q! π∈S
σ∈S0
p+q
=
1
(p + q)!q!
q
X X
σ∈S0q
=
π∈Sp+q
sign (π ◦ σ
b)ϕ(~vπ◦bσ (1) , ..., ~vπ◦bσ (p) )ψ(~vπ◦bσ (p+1) , ...., ~vπ◦bσ (p+q) )
1 X
A(ϕ ⊗ ψ)(~v1 , ..., ~vp+q ) = A(ϕ ⊗ ψ)(~v1 , ..., ~vp+q )
q!
0
σ∈Sq
Denn mit π durchläuft für jedes σ ∈ S0q auch π ◦ σ
b alle Permutationen von Sp+q genau einmal.
Genauso zeigt man die 2. Behauptung.
b) und c) folgen nun aus (a) zusammen mit der Definition des äußeren Produktes.
d) Für ~v1 , ..., ~vp+q ∈ V haben wir, wenn τ ∈ Sp+q
ϕ ∧ ψ(~v1 , ..., ~vp+q ) =
1 X
sign (σ)ϕ(~vσ(1) , ..., ~vσ(p) )ψ(~vσ(p+1) , ..., ~vσ(p+q) )
p!q! σ∈S
p+q
und
ψ ∧ ϕ(~v1 , ..., ~vp+q ) =
1 X
sign (σ)ψ(~vσ(1) , ..., ~vσ(q) )ϕ(~vσ(q+1) , ..., ~vσ(p+q) )
p!q! σ∈S
p+q
Wir wählen jetzt
τ (j) :=
q + j wenn
j − p wenn
1≤j≤p
p+1≤j ≤p+q
Dann wird
1 X
sign (σ)ψ(~vσ◦τ (p+1) , ..., ~vσ◦τ (p+q) )ϕ(~vσ◦τ (1) , ..., ~vσ◦τ (p) )
p!q! σ∈S
p+q
X
1
=
sign (τ )
sign (σ ◦ τ )ϕ(~vσ◦τ (1) , ..., ~vσ◦τ (p) )ψ(~vσ◦τ (p+1) , ..., ~vσ◦τ (p+q) )
p!q!
σ∈S
ψ ∧ ϕ(~v1 , ..., ~vp+q ) =
p+q
pq
= (−1) ϕ ∧ ψ(~v1 , ..., ~vp+q )
denn τ hat das Vorzeichen (−1)pq .
Analog zum Struktursatz für Multilinearformen haben wir den folgenden Satz:
112
KAPITEL 4. MULTILINEARE ALGEBRA
4.3.8 Satz. a) Ist B = {~b1 , ..., ~bn } eine Basis von V , so ist
Bp := {b∗i1 ∧ ... ∧ ~b∗ip | 1 ≤ i1 < ... < ip ≤ n}
n
eine Basis von
V . Es folgt dim
V =
.
p
b) Ist F : V ∗ × ... × V ∗ −→ W eine alternierende p-fach lineare Abbildung in den Vektorraum
W , so gibt es genau eine lineare Abbildung
Vp
Vp
∗
∗
F :
p
^
V ∗ −→ W
mit
F (λ1 , ...., λp ) = F (λ1 ∧ ... ∧ λp )
für alle λ1 , ..., λp ∈ V ∗ .
Beweis. Zunächst haben wir
λ1 ∧ ... ∧ λp = p!A(λ1 ⊗ ... ⊗ λp )
für alle λ1 , ..., λp ∈ V ∗ . Insbesondere ist dann
λ1 ∧ ... ∧ λp (~v1 , ..., ~vp ) = det( (λi (~vj ) )pi,j=1 )
Wenn also jetzt ϕ ∈
Vp
V ∗ , so gilt

ϕ(~v1 , ..., ~vp ) = ϕ 
=
n
X
n
X
b∗j1 (~v1 )~bj1 ,
j1 =1
...
j1 =1
n
X
n
X
j2 =1
b∗j2 (~v2 )~bj2 , ....,
n
X
jp =1

b∗jp (~vp )~bjp 
ϕ(~bj1 , ...., ~bjp )b∗j1 (~v1 ) · . . . · b∗jp (~vp )
jp =1
Da aber ϕ alternierend ist, tragen zu dieser Summe nur solche (j1 , ..., jp ) bei, die paarweise
verschiedene Einträge aufweisen. Wir ordnen diese Beiträge weiter: Obige Summe ist
n
X
j1 =1
X
...
n
X
ϕ(~bj1 , ...., ~bjp )b∗j1 (~v1 ) · . . . · b∗jp (~vp ) =
jp =1
X
1≤i1 <...<ip ≤n {j1 ,...,jp }={i1 ,...,ip }
ϕ(~bj1 , ...., ~bjp )b∗j1 (~v1 ) · . . . · b∗jp (~vp )
4.3. ALTERNIERENDE P-FORMEN
X
=
X
113
sign (σ)ϕ(~bi1 , ...., ~bip )b∗iσ(1) (~v1 ) · . . . · b∗iσ(p) (~vp )
1≤i1 <...<ip ≤n σ∈Sp
X
=
ϕ(~bi1 , ...., ~bip )b∗i1 ∧ . . . ∧ b∗ip (~v1 , ..., ~vp )
1≤i1 <...<ip ≤n
V
Somit wird p V ∗ durch Bp erzeugt.
Angenommen nun, es gelte
X
αi1 ,....,ip b∗i1 ∧ . . . ∧ b∗ip = 0
1≤i1 <...<ip ≤n
Bezeichnen wir die linke Seite mit ϕ, dann wird
αj1 ,...,jp = ϕ(~bj1 , ...., ~bjp ) = 0
Damit sind alle Formen b∗i1 ∧ . . . ∧ b∗ip , linear unabhängig. Durch Abzählen der b∗i1 ∧ . . . ∧ b∗ip mit
Vp ∗
n
1 ≤ i1 < i2 < ... < ip finden wir dim
V =
.
p
Zu b). Ist F : V ∗ × ... × V ∗ −→ W eine alternierende p-fach lineare Abbildung in den
~
~
Vektorraum W , so setzen wir F (b∗i1 ∧ ... ∧ bip )∗ =
VpF (b∗i1 , ..., bip ), für i1 < i2 < ... < ip . Das definiert
die gewünschte lineare Abbildung F auf ganz
V . Die Eindeutigkeit ist nun ebenfalls klar.
4.3.9 Satz. Ist W ein endlich erzeugter Vektorraum, Vso gibt es V
zu gegebenen F1 , ..., Fp ∈
p
∗
∗
∗
Hom (V, W ) genau eine lineare Abbildung F1 ∧ ... ∧ Fp :
W −→ p V ∗ , so dass
F1∗ ∧ ... ∧ Fp∗ (µ1 ∧ ... ∧ µp ) = F1∗ (µ1 ) ∧ ... ∧ Fp (µp )
für alle µ1 , ..., µp ∈ W ∗ .
V
Beweis. Denn durch F : W ∗ × ... × W ∗ −→ p V ∗ , mit F (µ1 , ...., µp ) := F1∗ (µ1 ) ∧ ... ∧ Fp (µp ) ist
eine alternierende p-fach lineare Abbildung definiert. Das zugehörige F ist gerade das gewünschte
F1∗ ∧ ... ∧ Fp∗ .
Eine weitere Anwendung des Struktursatzes ist
4.3.10 Satz. Sind λ1 , ..., λp ∈ V ∗ , so sind äquivalent:
a) λ1 ∧ ... ∧ λp = 0
b) die λ1 , ..., λp sind linear abhängig.
114
KAPITEL 4. MULTILINEARE ALGEBRA
∗
Beweis. Aus b) folgt a): Halten wir ~v1 , ..., ~vp ∈ V fest, so ist die Abbildung F : V
... × V }∗ −→
| × {z
p−mal
K,
F (`1 , ..., `p ) := (`1 ∧ ... ∧ `p )(~v1 , ..., ~vp )
eine alternierende p-Linearform, denn
F (`1 , ..., `p ) = det( (`i (~vj ))pi,j=1 )
Sind jetzt λ1 , ..., λp linear abhängige Formen, so ist F (λ1 , ..., λp ) = 0, für jede Wahl von ~v1 , ..., ~vp ∈
V.
V
Aus a) folgt b). Sei Ep := p V ∗ . Für jedes µ ∈ Ep∗ definiert
p+1
X
fµ (`1 , ..., `p+1 ) :=
(−1)i µ(`1 ∧ ... ∧ `i−1 ∧ `i+1 ∧ ... ∧ `p+1 )`i
i=1
eine alternierende (p + 1)-lineare Abbildung von V ∗ × ... × V ∗ nach V ∗ . Es gibt daher eine lineare
Abbildung Fµ : Ep+1 −→ V ∗ mit
fµ (`1 , ..., `p+1 ) = Fµ (`1 ∧ ... ∧ `p+1 )
Wir beweisen nun die Behauptung durch Induktion nach p. Für p = 1 ist alles klar. Angenommen, die Behauptung gelte für p. Sind dann λ1 , ..., λp+1 ∈ V ∗ Formen mit λ1 ∧ ... ∧ λp+1 = 0,
so unterscheiden wir 2 Fälle: Ist λ1 ∧ ... ∧ λp = 0, so sind λ1 , ..., λp , also erst recht λ1 , ..., λp+1
linear abhängig. Wenn nun λ1 ∧ ... ∧ λp 6= 0, dann gibt es ein µ ∈ Ep∗ mit µ(λ1 ∧ ... ∧ λp ) 6= 0.
Nun ist aber
fµ (λ1 , ..., λp+1 ) = Fµ (λ1 ∧ ... ∧ λp+1 ) = 0
Das ergibt
(−1)p+1 µ(λ1 ∧ ... ∧ λp )λp+1 = −
p
X
(−1)i µ(`1 ∧ ... ∧ `i−1 ∧ `i+1 ∧ ... ∧ `p+1 )`i
i=1
also λp+1 ∈ Span (λ1 , ...., λp ).
Herunterladen