Definition 10 Eine n × n-Matrix A heißt invertierbar, falls es eine n × n

Werbung
23
Werner, Universität Münster, SS 11
Definition 10 Eine n × n-Matrix A heißt invertierbar, falls es eine n × nMatrix B gibt mit
AB = BA = En
Man bezeichnet die Matrix B aus (ii) als die zu A inverse Matrix und
schreibt B = A−1 . Eine solche Schreibweise ist eigentlich nur gerechtfertigt, wenn es nur eine Matrix B mit dieser Eigenschaft gibt. Ist aber B 0 eine
weitere Matrix mit B 0 A = AB 0 = En , dann folgt
B 0 = B 0 En = B 0 (AB) = (B 0 A)B = En B = B
Diese Eindeutigkeit hilft ganz wesentlich, um die folgenden Rechenregeln
nachzuweisen, die für alle n ∈ N und n × n-Matrizen A, B gelten:
En = En−1
(A−1 )−1 = A
sowie
(AB)−1 = B −1 A−1 .
Ist n = 1, so gilt L(K, K) = {(α) | α ∈ K }, die Matrix (α) ist invertierbar
genau dann, wenn α 6= 0, und (α)−1 = 1/α. Für die zuvor besprochene
Spiegelung S gilt S = S −1 , ein vielleicht gewöhnungsbedürftiges Verhalten,
wenn man bedenkt, dass in K nur die Zahlen ±1 ihr eigenes Inverses darstellen (und ja S 6= ±E2 ). Auch die Drehungen Dϕ sind invertierbar, und es
gilt Dϕ−1 = D−ϕ .
Satz 10 Es sei V ein reeller Vektorraum der endlichen Dimension n, Φ :
V → V eine lineare Abbildung und A = (αij ) = M (Φ)B die Matrixdarstellung von Φ bezüglich der Basis B. Dann sind äquivalent:
(i) Die Matrix A ist invertierbar.
(ii) Die Spaltenvektoren α
~ 1, . . . , α
~ n von A bilden eine Basis des Kn .
(iii) Es gibt eine n × n-Matrix B mit AB = En .
(iv) Es gibt eine n × n-Matrix C mit CA = En .
Ist eine dieser Bedingungen erfüllt, so gilt in (iv) und (v) jeweils B = C =
A−1
Für die meisten dieser Bedingungen ist ihre Äquivalenz recht leicht einzusehen. So ist die Äquivalenz von (i),(iii) und (iv) im wesentlichen die Aussage,
dass eine lineare Abbildung surjektiv genau dann ist, wenn sie injektiv ist
(Korollar 8.1). Die Äquivalenz von (i) mit (ii) folgt im wesentlich aus dem
Basisfortsetzungssatz sowie der Art, wie aus einer lineare Abbildung eine
Matrix entsteht.
Ist nun die Matrix A invertierbar, so folgt dann, dass
~x = A−1~b
Mathematik für Physiker II (Kurzskript)
24
tatsächlich die (eindeutig bestimmte) Lösung des Systems A~x = ~b. Obwohl
das einfach aussieht, steckt aber selbst in einem solchen Fall immer noch
viel Arbeit in der Berechnung von A−1 .
Wir werden im folgenden beliebige lineare Gleichungssysteme mit Hilfe so
genannter elementarer Umformungen einer Matrix B angreifen. Bei diesen
handelt es sich um
(a) Multiplikation einer Zeile mit einem Skalar λ
(b) Vertauschen zweier Zeilen von B
(c) Für s 6= t und λ ∈ K: Ersetzen des Zeilenvektors α
~ s = (αs1 , . . . , αsm )
durch den Vektor α
~ s + λ~
αt .
Von etwas anderer Art ist die Operation
(d) Vertauschen zweier Spalten von B,
die wir im nächsten Abschnitt näher ansehen werden. Wir wollen uns zur Sicherheit klar machen, dass diese Umformungen nichts an der Lösungsmenge
ändern. Die Überlegungen fußen auf der Tatsache, dass für jede invertierbare
Matrix T und alle Vektoren ~x ∈ Kn gilt
A~x = ~b
⇐⇒
T A~x = T~b
und dass die elementaren Umformungen (a)–(c) durch Multiplikation mit
invertierbaren Matrizen realisiert werden können. Wir betrachten die erweiterte Koeffizientenmatrix


α11 . . . α1n b1

..
..  .
B = (A | b) =  ...
.
.
αn1 . . . αnn bn
Die invertierbaren Matrizen, die man für die Realisierung der elementaren
Umformungen braucht, verwenden die so genannten Matrixeinheiten,
Eij = (δis δjt )s=1,...,n, t=1,...,m ,
i = 1, . . . , n, j = 1, . . . , m,
die m × n-Matrizen also, die an allen Stellen eine Nulleintrag besitzen bis
auf die j-te Stelle in der i-ten Zeile, an der sich eine 1 befindet. Eine solche
Matrix hat die Eigenschaft, dass sie beim Multiplizieren von links aus einer
Matrix A deren j-te Zeile herausschneidet, diese zur i-ten Zeile des Produkts
macht und den Rest mit Nullen auffüllt:
!
n
X
Eij A =
δis δjt αtu
= (δis αju )s,u .
t=1
s,u
25
Werner, Universität Münster, SS 11
Damit führt die Linksmultiplikation mit En +λEst die Umformung des Typs
(c) durch. Da wir genau wissen, was hier vor sich geht, können wir eine
Inverse direkt angeben: Multiplikation von links mit En − λEst zieht das
λ-fache von Zeile Nummer t wieder von Zeile Nummer s ab, was aber nur
klappt, wenn s 6= t ist. Rechnerisch sieht das so aus:
(En − λEst )(En + λEst ) = En − λ
2
2
Est
= En − λ
2
n
X
!
δis δtk δks δtj
= En
k=1
Die Multiplikation der Zeile s mit λ wird durch Linksmultiplikation mit
En + (λ − 1)Ess realisiert (die Inverse ist En − (λ−1 − 1)Ess ), und der Austausch zweier Zeilen geschieht durch Linksmultiplikation mit der Permutationsmatrix
Πst = En − Ess − Ett + Est + Ets ,
einer Matrix, die zu sich selbst invers ist. Ist λ 6= 0, so nennen wir die
Matrizen λEn , En + λEst und Πst Elementarmatrizen.
Die Größe der Lösungsmenge ist bestimmt durch die Größe des Kerns von
A, die sich aufgrund des Rangsatzes aus dem Rang von A ableiten lässt:
dim Ker A = m − rg A.
Definition 11 Es sei A = (αij ) eine Matrix. Die Zahl
dim lin {~
αj | j = 1, . . . , m } =: rgS A
nennt man den Spaltenrang,
j
dim lin α
~ | j = 1, . . . , m =: rgZ A
den Zeilenrang von A.
Satz 11 Für jede Matrix A gilt
rgS A = rgZ A = rg A.
Dass rgZ A = rg A, folgt aus
lin {~
αi | i = 1, . . . , n } = lin {A~ei | i = 1, . . . , n } = {A~x | ~x ∈ Km } = Im A.
Die Gleichheit rgS A = rgZ A ist etwas schwieriger einzusehen und wird
später wieder aufgegriffen.
Mathematik für Physiker II (Kurzskript)
6.2.3
26
Der Gauß-Algorithmus
Die Lösungen eines linearen Gleichungssystems A~x = ~b kann man mit Hilfe
des Gauß-Verfahrens bestimmen. Und zwar gelingt es in einem ersten Schritt
stets, eine gegebene Matrix A mittels elementarer Umformungen auf die so
genannte Zeilenstufenform,
0
0 . . . 0 α1j
1
0 . . . 0
0

.
..
..
 ..
.
.

 ..
.
..
..
.
.
A0 = 
 ..
..
..
.
.
.

0 . . . 0
0

 ..
..
..
.
.
.
0 ... 0
0

... ... ...
0
. . . 0 α2j
2
..
.
0
..
..
.
.
..
.
0
... 0
0
..
..
.
.
...
0
...
... ...
... ...
...
...
... ...
..
. ...
...
...
...
..
.
0
0
..
.
... ...
...
0
αrj
r
0
..
.
0

0
. . . α1m
0 
. . . α2m

.. 
...
. 

.. 
...
. 
.

0 
. . . αrm

...
0 

.. 
..
.
. 
...
0
zu bringen, in der für die Indizes 1 ≤ j1 < j2 < · · · < r ≤ m die Zahlen
0 , . . . , α0
α1j
rjr alle von Null verschieden sind:
1
Im Fall A = 0 ist nichts zu tun, und so kann man annehmen, dass es in A
von Null verschiedene Einträge gibt. Ist αij derjenige von Null verschiedene
Eintrag, für den j der kleinste, auf diese Weise auftretende Index ist, so
setzen wir j = j1 , vertauschen die Zeile i mit der Zeile 1 und addieren
passende Vielfache der jetzt ersten Zeile zu allen weiteren, so dass deren
j-tes Element verschwindet — die Elemente davor sind ja jeweils auf Grund
der Wahl von j = j1 bereits gleich Null. Die Matrix A ist auf diese Weise
dann von der Form
01,j1
α
~ 11
0
A1 =
,
0n−1,j1 A1
wo 0r,s eine Nullmatrix mit r Zeilen und s Spalten sowie A1 eine (m − j1 ) ×
n−1-Matrix ist. Verfährt man nun mit A1 in derselben Weise, so gelangt man
zu einer (m − j1 − j2 ) × n Matrix A2 und so fort, bis nach r + 1 Schritten die
Matrix Ar+1 die Nullmatrix und die gewünschte Zeilenstufenform erreicht
ist.
Man kann diese Zeilenstufenform weiter verbessern: Durch Addition geeigneter Vielfacher der Zeile i zu den darüber stehenden Zeilen gelingt es, in
der Matrix A0 auch die über den Zahlen αkjk stehenden Zahlen zu Null zu
machen. Wenn man jetzt jeder der ersten k = 1, . . . , r Zeilen jeweils durch
das Element αkjk dividiert und dann die Spalten j1 , . . . , jr nacheinander
nach vorne tauscht, so erhält A schließlich die Form
Er
∗
00
A =
0n−r,r 0n−r,m−r
27
Werner, Universität Münster, SS 11
Wir fassen diese Überlegungen in dem folgenden Resultat zusammen:
Satz 12 Es sei A eine m × n-Matrix.
(i) Durch Anwendung elementarer Zeilenumformungen gelingt es stets, A
auf Zeilenstufenform zu bringen.
(ii) Lässt man außerdem noch den Austausch von Spalten zu, so kann A
auf die Form
Er
∗
0n−r,r 0n−r,m−r
gebracht werden.
Für die Lösung des linearen Gleichungssystems bringt man die erweiterte
Koeffizientenmatrix


α11 α12 . . . α1m b1
 α21 α22 . . . α2m b2 


(A | ~b) =  .
..
..
..
.. 
.
 .
.
.
.
.
αn1 αn2 . . . αnm bn
auf die Gestalt
0
(A | ~b) =
Er
A0
0n−r,r 0n−r,m−r
~b0
0
b~0
!
,
A0 ∈ Mm−r,r (K), ~b00 ∈ Kr , ~b01 ∈ Kn−r .
1
Ist hierin ~b01 6= ~0, so besitzt A~x = ~b keine Lösung. Ist ~b01 = ~0, so ist
0 ~b
~x0 = ~ 0
0n−r
0 )
eine Partikulärlösung. Ist A0 = (αij
~ j0 , j =
i=1,...,r; j=r+1,...,m , und sind α
0
r + 1, . . . , m die Spaltenvektoren von A , so ist eine Basis des homogenen
Gleichungssystems gegeben durch die Vektoren
0
−~
α
00
α
~j =
, j = r + 1, . . . , m.
δkj k
Dabei ist unbedingt die zuvor vorgenommenen Vertauschung der Variablen
zu beachten.
Eine kleine Modifikation des Gauß-Algorithmus erlaubt die Berechnung
der Inversen einer invertierbaren Matrix A. Da die Elementarmatrizen alle
invertierbar sind, ist für eine invertierbare Matrix A die aus dem GaußAlgorithmus sich ergebende Matrix ebenfalls invertierbar. Da eine invertierbare Matrix keinen nicht-trivialen Kern besitzen darf, muss aus A die Matrix
En entstehen. Sind ε1 , . . . , εk die Elementarmatrizen, die man im Fall von
Mathematik für Physiker II (Kurzskript)
28
A für die elementaren Zeilenumformungen benötigt, und sind π1 , . . . , π` die
Permutationsmatrizen, die für den Austausch der Spalten von Nöten sind,
so ist ja
ε1 · · · εk Aπ1 · · · π` = En .
Hieraus ergibt sich, da die πi zu sich selbst invers sind, π1 · · · π` ε1 · · · εk A =
En , was
A−1 = π1 · · · π` ε1 · · · εk
zeigt. (Vertauschung von Spalten sind eigentlich überflüssig, wie sich im
nächsten Abschnitt zeigen wird; denn die Stufen, die man nach Anwendung
des Gauß-Algorithmus auf eine invertierbare Matrix erhält, sind jeweils nur
einen Koeffizienten breit.)
6.3
6.3.1
Multilinearformen
Volumen
Der von den linear unabhängigen Vektoren ~v1 , . . . , ~vn im Kn aufgespannte
n-Spat ist die kleinste Teilmenge des Kn , die die 2n Punkte δ1~v1 + δ2~v2 +
· · · + δn~vn , δi ∈ {0, 1}, enthält. Ein 2-Spat ist also ein Parallelogramm, und
ein 3-Spat ist der ‘schiefe’ Quader, den man in der Schule bisweilen auch als
‘Spat’ bezeichnet. Wir wollen im Folgenden überlegen, welche Eigenschaften
eine von n Vektoren des Kn abhängige Funktion
Voln : Rn × Rn × · · · × Rn → R
besitzen muss, damit wir guten Gewissens davon ausgehen können, dass
Voln (~v1 , . . . , ~vn ) das Volumen des Spats errechnet, der von den Vektoren
~v1 , . . . , ~vn aufgespannt wird. Die ersten beiden Bedingungen,
(ML1) Für alle ~v1 , . . . , ~vn , jede natürliche Zahl i = 1, . . . , n und jeden Vektor w
~ ∈ Rn gilt
Voln (~v1 , . . . , ~vi + w,
~ . . . , ~vn ) =
= Voln (~v1 , . . . , ~vi , . . . , ~vn ) + Voln (~v1 , . . . , w,
~ . . . , ~vn )
(ML2) Für alle ~v1 , . . . , ~vn , jede natürliche Zahl i = 1, . . . , n und jede Zahl
λ ∈ R gilt
Voln (~v1 , . . . , λ~vi , . . . , ~vn ) = λ Voln (~v1 , . . . , ~vi , . . . , ~vn )
besagen, dass Voln in jeder Variablen linear ist. Dass beide Bedingungen
für Volumina gelten sollten, lässt sich elementargeometrisch im R2 und R3
veranschaulichen. Nicht sofort ersichtlich ist allerdings, weshalb die Skalare (und damit auch das Volumen) in (M L2) negativ sein können. Um ein
negatives Volumen kommen wir aber nicht herum, wenn wir die Eigenschaft
29
Werner, Universität Münster, SS 11
(AML)0 Für alle ~v1 , . . . , ~vn , und jedes Paar natürlicher Zahlen 1 ≤ i < j ≤
n gilt
Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = 0,
falls ~vi = ~vj gilt.
hinzuziehen. Sie besagt, dass das Volumen eines Spats dann verschwinden
muss, wenn zwei seiner Seiten gleich sind. Aus (M L1) und (AM L)0 folgt
nun wegen
0 = Voln (~v1 , . . . , ~vi + ~vj , . . . , ~vi + ~vj , . . . , ~vn ) =
= Voln (~v1 , . . . , ~vi , . . . , ~vi , . . . , ~vn ) + Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn )+
+ Voln (~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ) + Voln (~v1 , . . . , ~vj , . . . , ~vj , . . . , ~vn ) =
= Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) + Voln (~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn )
dass Voln auch die Eigenschaft
(AML) Für alle ~v1 , . . . , ~vn , und jedes Paar natürlicher Zahlen 1 ≤ i < j ≤ n
gilt
Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = − Voln (~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ).
Definition 12 Es seien V und W reelle Vektorräume. Eine Abbildung
Φ:Vn →W
heißt multilinear, falls sie in jeder ihrer Variablen linear ist (also die Bedingungen (M L1) und (M L2) erfüllt). Φ heißt alternierend, wenn zusätzlich
die Bedingung (AM L) für Φ erfüllt ist.
Ist W = R so spricht man auch von einer (alternierenden) Multilinearform.
Alternierende Multilinearformen haben die folgenden zusätzlichen, leicht zu
zeigenden Eigenschaften:
• Für ~v1 , . . . , ~vn , i 6= j und α ∈ R gilt
ϕ(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = ϕ(~v1 , . . . , ~vi + α~vj , . . . , ~vj , . . . , ~vn ).
• Ist die Menge {~v1 , . . . , ~vn } linear abhängig, so folgt
ϕ(~v1 , . . . , ~vn ) = 0.
Wir werden später sehen, dass umgekehrt aus ϕ(~v1 , . . . , ~vn ) = 0 stets die
lineare Abhängigkeit der Vektoren ~v1 , . . . , ~vn folgt, falls ϕ nur von der identisch verschwindenden Nullform verschieden ist.
Mathematik für Physiker II (Kurzskript)
30
Auch für Multilinearformen gibt es “Matrixdarstellungen”, die allerdings, je
nacht Typ, von mehr als nur zwei Indizes abhängen; denn auch hier gibt
es einen Basisfortsetzungssatz, der besagt, dass alle Informationen über eine
multilineare Abbildung bereits durch deren Verhalten auf den Basisvektoren
festgelegt ist. Ist ϕ zunächst eine Multilinearform, so folgt für eine Basis
~b1 , . . . , ~bn von V unter Ausnutzung der Multilinearität


n
n
n
X
X
X
ϕ(~v1 , ~v2 , . . . , ~vn ) = ϕ 
v1j~bj ,
v2j~bj , . . . ,
vnj~bj  =
j=1
j=1
n
X
=
j=1
v1j1 v2j2 · · · vnjn ϕ(~bj1 , ~bj2 , . . . , ~bjn ).
j1 ,j2 ,...,jn =1
Setzt man hier αj1 ,...,jn = ϕ(~bj1 , ~bj1 , . . . , ~bjn ), so gilt also
ϕ(~v1 , ~v2 , . . . , ~vn ) =
n
X
αj1 ,...,jn v1j1 v2j2 · · · vnjn .
j1 ,j2 ,...,jn =1
Ein wichtiger Spezialfall stellt eine Linearform ϕ : V → K dar. Diese ist
durch ein Tupel (α1 , . . . , αn ) gegeben (also einer Matrix, die aus nur einer
Zeile besteht), und sieht damit einem Vektor sehr ähnlich. (Sie unterscheidet
sich allerdings deutlich von einem solchen, wenn man betrachtet, was passiert, wenn man in der Darstellung die Bezugsbasis wechselt.) Man nennt
den Raum dieser Abbildungen auch den Dualraum von V .
Wie viele Möglichkeiten, eine alernierende Multilinearform Voln zu definieren gibt es nun? Ist ϕ zusätzlich alternierend, so verschwindet der Ausdruck ϕ(~bj1 , ~bj1 , . . . , ~bjn ) sofort, wenn zwei Basisvektoren gleich sind, und es
genügt, sich auf solche Indizes j1 , . . . , jn zu konzentrieren, unter denen jede der Zahlen 1, . . . , n genau einmal vorkommt. Eine andere Formulierung
dieses Sachverhalts ist, dass die Abbildung i → ji eine Permutation der Menge {1, . . . , n} sein muss. Für spezielle Permutationen, die nämlich, die zwei
Elemente vertauschen und die anderen fest lassen (die sogenannten Transpositionen), kennen wir die Auswirkung auf den Wert von ϕ. Im nächsten
Abschnitt werden wir das mathematische Handwerkszeug bereit stellen, um
die Frage zu beantworten: Wie hängen
ϕ(~b1 , . . . , ~bn )
und
ϕ(~bπ(1) , . . . , ~bπ(n) )
miteinander zusammen? Schön wäre es, wenn wir jede Permutation als eine Verknüpfung von Transpositionen schreiben könnten und, zur Kontrolle
über die Vorzeichenwechsel, auch ein ungefähres Bild über die dazu zu verwendende Anzahl hätten.
31
6.3.2
Werner, Universität Münster, SS 11
Neues über die Gruppe der Permutationen
Die Menge der Permutationen der Menge {1, . . . , n},
Sn = {π : {1, . . . , n} →: {1, . . . , n} | π ist bijektiv } ,
war eins der ersten Beispiele hier für eine Gruppe. Gleich im Anschluss wird
auch noch die zweiteinfachste Gruppe, Z2 = {1, −1} auftreten, in der die
Gruppenoperation die Multiplikation ist.
Für das Problem, die möglichen Volumenformen weiter zu untersuchen, ist
der folgende Satz wichtig.
Satz 13 Jedes Element von Sn ist Produkt von Transpositionen.
Zum Beweis definierien wir für jede Permutation π ∈ Sn die Zahl r(π) ∈
{0, 1, . . . , n} durch
n
o
r(π) = max k ∈ {0, . . . , n} π |{1,...,k} = id{1,...,k} ,
und wir beweisen dieses Lemma durch absteigende Induktion über r(π): Ist
r(π) = n, so ist nichts zu beweisen. Gilt die Aussage für alle π ∈ Sn mit
r(π) = r ≥ 1, und ist π0 ∈ Sn mit r(π0 ) = r − 1, so ist π0 (r) > r. Bezeichnet
τ die Transposition, die π0 (r) mit r vertauscht, so gilt r(τ ◦ π0 ) = r, und
τ ◦ π0 sowie π0 selbst sind Verknüpfungen von Transpositionen.—
Um über die Anzahl der für eine Permutation notwendigen Transpositionen einen (wenigstens sehr groben) Überblick zu erhalten, verwenden wir
die Funktion
sign : Sn → Q
Y
sign(π) =
1≤i<j≤n
π(i) − π(j)
.
i−j
Satz 14 Die Funktion sign ist ein surjektiver Gruppenhomomorphismus auf
die Gruppe Z2 , und es gilt
sign(π) = (−1)s ,
wo s die Anzahl der Fehlstände von π ist, d.h. den Paaren (i, j), für die gilt
i < j und π(i) > π(j).
Ist τ ∈ Sn eine Transposition, so gilt
sign(τ ) = −1.
Nicht ganz offensichtlich ist zunächst, dass sign ausschließlich Werte in der
Menge {±1} annimmt. Da aber eine gegebene Bijektion π die Paare (i, j)
Mathematik für Physiker II (Kurzskript)
32
bijektiv aufeinander abbildet, stimmen bis auf die Reihenfolge in den Paaren
die Mengen
{(i, j) | 1 ≤ i < j ≤ n }
{(π(i), π(j)) | 1 ≤ i < j ≤ n }
und
überein. Daher folgt
Y
Y
(i − j) = ±
π(i) − π(j)
1≤i<j≤n
1≤i<j≤n
sowie sign(π) ∈ {±1}. Zugleich wird deutlich, dass das Vorzeichen auf der
rechten Seite durch die Anzahl der so genannten Fehlstände bestimmt wird,
d.h. den Paaren (i, j), für die gilt i < j und π(i) > π(j). Um zu zeigen,
dass sign ein Gruppenhomomorphismus ist, machen wir zunächst die Beobachtung, dass für jede Menge M von Paaren (i, j) ∈ {1, . . . , n}2 mit der
Eigenschaft, dass bis auf die Reihenfolge in den Paaren jede zweielementige
Teilmenge von {1, . . . , n} genau einmal vorkommt gilt
sign(π) =
Y
(i,j)∈M
π(i) − π(j)
;
i−j
denn Unterschiede zum Fall der Menge M0 = {(i, j) | i < j } kann es ja nur
durch die Reihenfolge der Paare geben, und diese wird nach Bildung der
Differenzen durch die Division in den Faktoren wieder ausgeglichen. Für
eine Permutation π ∈ Sn ist die Menge Mπ = {(π(i), π(j)) | 1 ≤ i < j ≤ n }
eine von der soeben beschriebenen Art, und unsere Beobachtung ist nun gut
für die letzte Gleichheit in
Y
sign(π2 π1 ) =
1≤i<j≤n
=
Y
1≤i<j≤n
π2 π1 (i) − π2 π1 (j)
=
i−j
π2 (π1 (i)) − π2 (π1 (j))
π1 (i) − π1 (j)
Y
1≤i<j≤n
π1 (i) − π1 (j)
=
i−j
= sign(π2 ) sign(π1 ),
d.h. sign ist ein Homomorphismus. Vertauscht τ lediglich die Elemente
i < j, so besitzt τ genau j − i Fehlstände der Form (i, k), und genauso
viele Fehlstände der Form (l, j). Und da der Fehlstand (i, j) hierbei doppelt gezählt wird, ist die Anzahl der Fehlstände gleich 2(j − i) − 1, und
sign(τ ) = −1.
Korollar 14.1 Jede Permutation ist entweder nur das Produkt einer geraden Anzahl von Transpositionen oder das einer ungeraden Anzahl. In beiden
Fällen gilt für eine Darstellung π = τ1 . . . τk
sign(π) = (−1)k .
Herunterladen