23 Werner, Universität Münster, SS 11 Definition 10 Eine n × n-Matrix A heißt invertierbar, falls es eine n × nMatrix B gibt mit AB = BA = En Man bezeichnet die Matrix B aus (ii) als die zu A inverse Matrix und schreibt B = A−1 . Eine solche Schreibweise ist eigentlich nur gerechtfertigt, wenn es nur eine Matrix B mit dieser Eigenschaft gibt. Ist aber B 0 eine weitere Matrix mit B 0 A = AB 0 = En , dann folgt B 0 = B 0 En = B 0 (AB) = (B 0 A)B = En B = B Diese Eindeutigkeit hilft ganz wesentlich, um die folgenden Rechenregeln nachzuweisen, die für alle n ∈ N und n × n-Matrizen A, B gelten: En = En−1 (A−1 )−1 = A sowie (AB)−1 = B −1 A−1 . Ist n = 1, so gilt L(K, K) = {(α) | α ∈ K }, die Matrix (α) ist invertierbar genau dann, wenn α 6= 0, und (α)−1 = 1/α. Für die zuvor besprochene Spiegelung S gilt S = S −1 , ein vielleicht gewöhnungsbedürftiges Verhalten, wenn man bedenkt, dass in K nur die Zahlen ±1 ihr eigenes Inverses darstellen (und ja S 6= ±E2 ). Auch die Drehungen Dϕ sind invertierbar, und es gilt Dϕ−1 = D−ϕ . Satz 10 Es sei V ein reeller Vektorraum der endlichen Dimension n, Φ : V → V eine lineare Abbildung und A = (αij ) = M (Φ)B die Matrixdarstellung von Φ bezüglich der Basis B. Dann sind äquivalent: (i) Die Matrix A ist invertierbar. (ii) Die Spaltenvektoren α ~ 1, . . . , α ~ n von A bilden eine Basis des Kn . (iii) Es gibt eine n × n-Matrix B mit AB = En . (iv) Es gibt eine n × n-Matrix C mit CA = En . Ist eine dieser Bedingungen erfüllt, so gilt in (iv) und (v) jeweils B = C = A−1 Für die meisten dieser Bedingungen ist ihre Äquivalenz recht leicht einzusehen. So ist die Äquivalenz von (i),(iii) und (iv) im wesentlichen die Aussage, dass eine lineare Abbildung surjektiv genau dann ist, wenn sie injektiv ist (Korollar 8.1). Die Äquivalenz von (i) mit (ii) folgt im wesentlich aus dem Basisfortsetzungssatz sowie der Art, wie aus einer lineare Abbildung eine Matrix entsteht. Ist nun die Matrix A invertierbar, so folgt dann, dass ~x = A−1~b Mathematik für Physiker II (Kurzskript) 24 tatsächlich die (eindeutig bestimmte) Lösung des Systems A~x = ~b. Obwohl das einfach aussieht, steckt aber selbst in einem solchen Fall immer noch viel Arbeit in der Berechnung von A−1 . Wir werden im folgenden beliebige lineare Gleichungssysteme mit Hilfe so genannter elementarer Umformungen einer Matrix B angreifen. Bei diesen handelt es sich um (a) Multiplikation einer Zeile mit einem Skalar λ (b) Vertauschen zweier Zeilen von B (c) Für s 6= t und λ ∈ K: Ersetzen des Zeilenvektors α ~ s = (αs1 , . . . , αsm ) durch den Vektor α ~ s + λ~ αt . Von etwas anderer Art ist die Operation (d) Vertauschen zweier Spalten von B, die wir im nächsten Abschnitt näher ansehen werden. Wir wollen uns zur Sicherheit klar machen, dass diese Umformungen nichts an der Lösungsmenge ändern. Die Überlegungen fußen auf der Tatsache, dass für jede invertierbare Matrix T und alle Vektoren ~x ∈ Kn gilt A~x = ~b ⇐⇒ T A~x = T~b und dass die elementaren Umformungen (a)–(c) durch Multiplikation mit invertierbaren Matrizen realisiert werden können. Wir betrachten die erweiterte Koeffizientenmatrix α11 . . . α1n b1 .. .. . B = (A | b) = ... . . αn1 . . . αnn bn Die invertierbaren Matrizen, die man für die Realisierung der elementaren Umformungen braucht, verwenden die so genannten Matrixeinheiten, Eij = (δis δjt )s=1,...,n, t=1,...,m , i = 1, . . . , n, j = 1, . . . , m, die m × n-Matrizen also, die an allen Stellen eine Nulleintrag besitzen bis auf die j-te Stelle in der i-ten Zeile, an der sich eine 1 befindet. Eine solche Matrix hat die Eigenschaft, dass sie beim Multiplizieren von links aus einer Matrix A deren j-te Zeile herausschneidet, diese zur i-ten Zeile des Produkts macht und den Rest mit Nullen auffüllt: ! n X Eij A = δis δjt αtu = (δis αju )s,u . t=1 s,u 25 Werner, Universität Münster, SS 11 Damit führt die Linksmultiplikation mit En +λEst die Umformung des Typs (c) durch. Da wir genau wissen, was hier vor sich geht, können wir eine Inverse direkt angeben: Multiplikation von links mit En − λEst zieht das λ-fache von Zeile Nummer t wieder von Zeile Nummer s ab, was aber nur klappt, wenn s 6= t ist. Rechnerisch sieht das so aus: (En − λEst )(En + λEst ) = En − λ 2 2 Est = En − λ 2 n X ! δis δtk δks δtj = En k=1 Die Multiplikation der Zeile s mit λ wird durch Linksmultiplikation mit En + (λ − 1)Ess realisiert (die Inverse ist En − (λ−1 − 1)Ess ), und der Austausch zweier Zeilen geschieht durch Linksmultiplikation mit der Permutationsmatrix Πst = En − Ess − Ett + Est + Ets , einer Matrix, die zu sich selbst invers ist. Ist λ 6= 0, so nennen wir die Matrizen λEn , En + λEst und Πst Elementarmatrizen. Die Größe der Lösungsmenge ist bestimmt durch die Größe des Kerns von A, die sich aufgrund des Rangsatzes aus dem Rang von A ableiten lässt: dim Ker A = m − rg A. Definition 11 Es sei A = (αij ) eine Matrix. Die Zahl dim lin {~ αj | j = 1, . . . , m } =: rgS A nennt man den Spaltenrang, j dim lin α ~ | j = 1, . . . , m =: rgZ A den Zeilenrang von A. Satz 11 Für jede Matrix A gilt rgS A = rgZ A = rg A. Dass rgZ A = rg A, folgt aus lin {~ αi | i = 1, . . . , n } = lin {A~ei | i = 1, . . . , n } = {A~x | ~x ∈ Km } = Im A. Die Gleichheit rgS A = rgZ A ist etwas schwieriger einzusehen und wird später wieder aufgegriffen. Mathematik für Physiker II (Kurzskript) 6.2.3 26 Der Gauß-Algorithmus Die Lösungen eines linearen Gleichungssystems A~x = ~b kann man mit Hilfe des Gauß-Verfahrens bestimmen. Und zwar gelingt es in einem ersten Schritt stets, eine gegebene Matrix A mittels elementarer Umformungen auf die so genannte Zeilenstufenform, 0 0 . . . 0 α1j 1 0 . . . 0 0 . .. .. .. . . .. . .. .. . . A0 = .. .. .. . . . 0 . . . 0 0 .. .. .. . . . 0 ... 0 0 ... ... ... 0 . . . 0 α2j 2 .. . 0 .. .. . . .. . 0 ... 0 0 .. .. . . ... 0 ... ... ... ... ... ... ... ... ... .. . ... ... ... ... .. . 0 0 .. . ... ... ... 0 αrj r 0 .. . 0 0 . . . α1m 0 . . . α2m .. ... . .. ... . . 0 . . . αrm ... 0 .. .. . . ... 0 zu bringen, in der für die Indizes 1 ≤ j1 < j2 < · · · < r ≤ m die Zahlen 0 , . . . , α0 α1j rjr alle von Null verschieden sind: 1 Im Fall A = 0 ist nichts zu tun, und so kann man annehmen, dass es in A von Null verschiedene Einträge gibt. Ist αij derjenige von Null verschiedene Eintrag, für den j der kleinste, auf diese Weise auftretende Index ist, so setzen wir j = j1 , vertauschen die Zeile i mit der Zeile 1 und addieren passende Vielfache der jetzt ersten Zeile zu allen weiteren, so dass deren j-tes Element verschwindet — die Elemente davor sind ja jeweils auf Grund der Wahl von j = j1 bereits gleich Null. Die Matrix A ist auf diese Weise dann von der Form 01,j1 α ~ 11 0 A1 = , 0n−1,j1 A1 wo 0r,s eine Nullmatrix mit r Zeilen und s Spalten sowie A1 eine (m − j1 ) × n−1-Matrix ist. Verfährt man nun mit A1 in derselben Weise, so gelangt man zu einer (m − j1 − j2 ) × n Matrix A2 und so fort, bis nach r + 1 Schritten die Matrix Ar+1 die Nullmatrix und die gewünschte Zeilenstufenform erreicht ist. Man kann diese Zeilenstufenform weiter verbessern: Durch Addition geeigneter Vielfacher der Zeile i zu den darüber stehenden Zeilen gelingt es, in der Matrix A0 auch die über den Zahlen αkjk stehenden Zahlen zu Null zu machen. Wenn man jetzt jeder der ersten k = 1, . . . , r Zeilen jeweils durch das Element αkjk dividiert und dann die Spalten j1 , . . . , jr nacheinander nach vorne tauscht, so erhält A schließlich die Form Er ∗ 00 A = 0n−r,r 0n−r,m−r 27 Werner, Universität Münster, SS 11 Wir fassen diese Überlegungen in dem folgenden Resultat zusammen: Satz 12 Es sei A eine m × n-Matrix. (i) Durch Anwendung elementarer Zeilenumformungen gelingt es stets, A auf Zeilenstufenform zu bringen. (ii) Lässt man außerdem noch den Austausch von Spalten zu, so kann A auf die Form Er ∗ 0n−r,r 0n−r,m−r gebracht werden. Für die Lösung des linearen Gleichungssystems bringt man die erweiterte Koeffizientenmatrix α11 α12 . . . α1m b1 α21 α22 . . . α2m b2 (A | ~b) = . .. .. .. .. . . . . . . αn1 αn2 . . . αnm bn auf die Gestalt 0 (A | ~b) = Er A0 0n−r,r 0n−r,m−r ~b0 0 b~0 ! , A0 ∈ Mm−r,r (K), ~b00 ∈ Kr , ~b01 ∈ Kn−r . 1 Ist hierin ~b01 6= ~0, so besitzt A~x = ~b keine Lösung. Ist ~b01 = ~0, so ist 0 ~b ~x0 = ~ 0 0n−r 0 ) eine Partikulärlösung. Ist A0 = (αij ~ j0 , j = i=1,...,r; j=r+1,...,m , und sind α 0 r + 1, . . . , m die Spaltenvektoren von A , so ist eine Basis des homogenen Gleichungssystems gegeben durch die Vektoren 0 −~ α 00 α ~j = , j = r + 1, . . . , m. δkj k Dabei ist unbedingt die zuvor vorgenommenen Vertauschung der Variablen zu beachten. Eine kleine Modifikation des Gauß-Algorithmus erlaubt die Berechnung der Inversen einer invertierbaren Matrix A. Da die Elementarmatrizen alle invertierbar sind, ist für eine invertierbare Matrix A die aus dem GaußAlgorithmus sich ergebende Matrix ebenfalls invertierbar. Da eine invertierbare Matrix keinen nicht-trivialen Kern besitzen darf, muss aus A die Matrix En entstehen. Sind ε1 , . . . , εk die Elementarmatrizen, die man im Fall von Mathematik für Physiker II (Kurzskript) 28 A für die elementaren Zeilenumformungen benötigt, und sind π1 , . . . , π` die Permutationsmatrizen, die für den Austausch der Spalten von Nöten sind, so ist ja ε1 · · · εk Aπ1 · · · π` = En . Hieraus ergibt sich, da die πi zu sich selbst invers sind, π1 · · · π` ε1 · · · εk A = En , was A−1 = π1 · · · π` ε1 · · · εk zeigt. (Vertauschung von Spalten sind eigentlich überflüssig, wie sich im nächsten Abschnitt zeigen wird; denn die Stufen, die man nach Anwendung des Gauß-Algorithmus auf eine invertierbare Matrix erhält, sind jeweils nur einen Koeffizienten breit.) 6.3 6.3.1 Multilinearformen Volumen Der von den linear unabhängigen Vektoren ~v1 , . . . , ~vn im Kn aufgespannte n-Spat ist die kleinste Teilmenge des Kn , die die 2n Punkte δ1~v1 + δ2~v2 + · · · + δn~vn , δi ∈ {0, 1}, enthält. Ein 2-Spat ist also ein Parallelogramm, und ein 3-Spat ist der ‘schiefe’ Quader, den man in der Schule bisweilen auch als ‘Spat’ bezeichnet. Wir wollen im Folgenden überlegen, welche Eigenschaften eine von n Vektoren des Kn abhängige Funktion Voln : Rn × Rn × · · · × Rn → R besitzen muss, damit wir guten Gewissens davon ausgehen können, dass Voln (~v1 , . . . , ~vn ) das Volumen des Spats errechnet, der von den Vektoren ~v1 , . . . , ~vn aufgespannt wird. Die ersten beiden Bedingungen, (ML1) Für alle ~v1 , . . . , ~vn , jede natürliche Zahl i = 1, . . . , n und jeden Vektor w ~ ∈ Rn gilt Voln (~v1 , . . . , ~vi + w, ~ . . . , ~vn ) = = Voln (~v1 , . . . , ~vi , . . . , ~vn ) + Voln (~v1 , . . . , w, ~ . . . , ~vn ) (ML2) Für alle ~v1 , . . . , ~vn , jede natürliche Zahl i = 1, . . . , n und jede Zahl λ ∈ R gilt Voln (~v1 , . . . , λ~vi , . . . , ~vn ) = λ Voln (~v1 , . . . , ~vi , . . . , ~vn ) besagen, dass Voln in jeder Variablen linear ist. Dass beide Bedingungen für Volumina gelten sollten, lässt sich elementargeometrisch im R2 und R3 veranschaulichen. Nicht sofort ersichtlich ist allerdings, weshalb die Skalare (und damit auch das Volumen) in (M L2) negativ sein können. Um ein negatives Volumen kommen wir aber nicht herum, wenn wir die Eigenschaft 29 Werner, Universität Münster, SS 11 (AML)0 Für alle ~v1 , . . . , ~vn , und jedes Paar natürlicher Zahlen 1 ≤ i < j ≤ n gilt Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = 0, falls ~vi = ~vj gilt. hinzuziehen. Sie besagt, dass das Volumen eines Spats dann verschwinden muss, wenn zwei seiner Seiten gleich sind. Aus (M L1) und (AM L)0 folgt nun wegen 0 = Voln (~v1 , . . . , ~vi + ~vj , . . . , ~vi + ~vj , . . . , ~vn ) = = Voln (~v1 , . . . , ~vi , . . . , ~vi , . . . , ~vn ) + Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn )+ + Voln (~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ) + Voln (~v1 , . . . , ~vj , . . . , ~vj , . . . , ~vn ) = = Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) + Voln (~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ) dass Voln auch die Eigenschaft (AML) Für alle ~v1 , . . . , ~vn , und jedes Paar natürlicher Zahlen 1 ≤ i < j ≤ n gilt Voln (~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = − Voln (~v1 , . . . , ~vj , . . . , ~vi , . . . , ~vn ). Definition 12 Es seien V und W reelle Vektorräume. Eine Abbildung Φ:Vn →W heißt multilinear, falls sie in jeder ihrer Variablen linear ist (also die Bedingungen (M L1) und (M L2) erfüllt). Φ heißt alternierend, wenn zusätzlich die Bedingung (AM L) für Φ erfüllt ist. Ist W = R so spricht man auch von einer (alternierenden) Multilinearform. Alternierende Multilinearformen haben die folgenden zusätzlichen, leicht zu zeigenden Eigenschaften: • Für ~v1 , . . . , ~vn , i 6= j und α ∈ R gilt ϕ(~v1 , . . . , ~vi , . . . , ~vj , . . . , ~vn ) = ϕ(~v1 , . . . , ~vi + α~vj , . . . , ~vj , . . . , ~vn ). • Ist die Menge {~v1 , . . . , ~vn } linear abhängig, so folgt ϕ(~v1 , . . . , ~vn ) = 0. Wir werden später sehen, dass umgekehrt aus ϕ(~v1 , . . . , ~vn ) = 0 stets die lineare Abhängigkeit der Vektoren ~v1 , . . . , ~vn folgt, falls ϕ nur von der identisch verschwindenden Nullform verschieden ist. Mathematik für Physiker II (Kurzskript) 30 Auch für Multilinearformen gibt es “Matrixdarstellungen”, die allerdings, je nacht Typ, von mehr als nur zwei Indizes abhängen; denn auch hier gibt es einen Basisfortsetzungssatz, der besagt, dass alle Informationen über eine multilineare Abbildung bereits durch deren Verhalten auf den Basisvektoren festgelegt ist. Ist ϕ zunächst eine Multilinearform, so folgt für eine Basis ~b1 , . . . , ~bn von V unter Ausnutzung der Multilinearität n n n X X X ϕ(~v1 , ~v2 , . . . , ~vn ) = ϕ v1j~bj , v2j~bj , . . . , vnj~bj = j=1 j=1 n X = j=1 v1j1 v2j2 · · · vnjn ϕ(~bj1 , ~bj2 , . . . , ~bjn ). j1 ,j2 ,...,jn =1 Setzt man hier αj1 ,...,jn = ϕ(~bj1 , ~bj1 , . . . , ~bjn ), so gilt also ϕ(~v1 , ~v2 , . . . , ~vn ) = n X αj1 ,...,jn v1j1 v2j2 · · · vnjn . j1 ,j2 ,...,jn =1 Ein wichtiger Spezialfall stellt eine Linearform ϕ : V → K dar. Diese ist durch ein Tupel (α1 , . . . , αn ) gegeben (also einer Matrix, die aus nur einer Zeile besteht), und sieht damit einem Vektor sehr ähnlich. (Sie unterscheidet sich allerdings deutlich von einem solchen, wenn man betrachtet, was passiert, wenn man in der Darstellung die Bezugsbasis wechselt.) Man nennt den Raum dieser Abbildungen auch den Dualraum von V . Wie viele Möglichkeiten, eine alernierende Multilinearform Voln zu definieren gibt es nun? Ist ϕ zusätzlich alternierend, so verschwindet der Ausdruck ϕ(~bj1 , ~bj1 , . . . , ~bjn ) sofort, wenn zwei Basisvektoren gleich sind, und es genügt, sich auf solche Indizes j1 , . . . , jn zu konzentrieren, unter denen jede der Zahlen 1, . . . , n genau einmal vorkommt. Eine andere Formulierung dieses Sachverhalts ist, dass die Abbildung i → ji eine Permutation der Menge {1, . . . , n} sein muss. Für spezielle Permutationen, die nämlich, die zwei Elemente vertauschen und die anderen fest lassen (die sogenannten Transpositionen), kennen wir die Auswirkung auf den Wert von ϕ. Im nächsten Abschnitt werden wir das mathematische Handwerkszeug bereit stellen, um die Frage zu beantworten: Wie hängen ϕ(~b1 , . . . , ~bn ) und ϕ(~bπ(1) , . . . , ~bπ(n) ) miteinander zusammen? Schön wäre es, wenn wir jede Permutation als eine Verknüpfung von Transpositionen schreiben könnten und, zur Kontrolle über die Vorzeichenwechsel, auch ein ungefähres Bild über die dazu zu verwendende Anzahl hätten. 31 6.3.2 Werner, Universität Münster, SS 11 Neues über die Gruppe der Permutationen Die Menge der Permutationen der Menge {1, . . . , n}, Sn = {π : {1, . . . , n} →: {1, . . . , n} | π ist bijektiv } , war eins der ersten Beispiele hier für eine Gruppe. Gleich im Anschluss wird auch noch die zweiteinfachste Gruppe, Z2 = {1, −1} auftreten, in der die Gruppenoperation die Multiplikation ist. Für das Problem, die möglichen Volumenformen weiter zu untersuchen, ist der folgende Satz wichtig. Satz 13 Jedes Element von Sn ist Produkt von Transpositionen. Zum Beweis definierien wir für jede Permutation π ∈ Sn die Zahl r(π) ∈ {0, 1, . . . , n} durch n o r(π) = max k ∈ {0, . . . , n} π |{1,...,k} = id{1,...,k} , und wir beweisen dieses Lemma durch absteigende Induktion über r(π): Ist r(π) = n, so ist nichts zu beweisen. Gilt die Aussage für alle π ∈ Sn mit r(π) = r ≥ 1, und ist π0 ∈ Sn mit r(π0 ) = r − 1, so ist π0 (r) > r. Bezeichnet τ die Transposition, die π0 (r) mit r vertauscht, so gilt r(τ ◦ π0 ) = r, und τ ◦ π0 sowie π0 selbst sind Verknüpfungen von Transpositionen.— Um über die Anzahl der für eine Permutation notwendigen Transpositionen einen (wenigstens sehr groben) Überblick zu erhalten, verwenden wir die Funktion sign : Sn → Q Y sign(π) = 1≤i<j≤n π(i) − π(j) . i−j Satz 14 Die Funktion sign ist ein surjektiver Gruppenhomomorphismus auf die Gruppe Z2 , und es gilt sign(π) = (−1)s , wo s die Anzahl der Fehlstände von π ist, d.h. den Paaren (i, j), für die gilt i < j und π(i) > π(j). Ist τ ∈ Sn eine Transposition, so gilt sign(τ ) = −1. Nicht ganz offensichtlich ist zunächst, dass sign ausschließlich Werte in der Menge {±1} annimmt. Da aber eine gegebene Bijektion π die Paare (i, j) Mathematik für Physiker II (Kurzskript) 32 bijektiv aufeinander abbildet, stimmen bis auf die Reihenfolge in den Paaren die Mengen {(i, j) | 1 ≤ i < j ≤ n } {(π(i), π(j)) | 1 ≤ i < j ≤ n } und überein. Daher folgt Y Y (i − j) = ± π(i) − π(j) 1≤i<j≤n 1≤i<j≤n sowie sign(π) ∈ {±1}. Zugleich wird deutlich, dass das Vorzeichen auf der rechten Seite durch die Anzahl der so genannten Fehlstände bestimmt wird, d.h. den Paaren (i, j), für die gilt i < j und π(i) > π(j). Um zu zeigen, dass sign ein Gruppenhomomorphismus ist, machen wir zunächst die Beobachtung, dass für jede Menge M von Paaren (i, j) ∈ {1, . . . , n}2 mit der Eigenschaft, dass bis auf die Reihenfolge in den Paaren jede zweielementige Teilmenge von {1, . . . , n} genau einmal vorkommt gilt sign(π) = Y (i,j)∈M π(i) − π(j) ; i−j denn Unterschiede zum Fall der Menge M0 = {(i, j) | i < j } kann es ja nur durch die Reihenfolge der Paare geben, und diese wird nach Bildung der Differenzen durch die Division in den Faktoren wieder ausgeglichen. Für eine Permutation π ∈ Sn ist die Menge Mπ = {(π(i), π(j)) | 1 ≤ i < j ≤ n } eine von der soeben beschriebenen Art, und unsere Beobachtung ist nun gut für die letzte Gleichheit in Y sign(π2 π1 ) = 1≤i<j≤n = Y 1≤i<j≤n π2 π1 (i) − π2 π1 (j) = i−j π2 (π1 (i)) − π2 (π1 (j)) π1 (i) − π1 (j) Y 1≤i<j≤n π1 (i) − π1 (j) = i−j = sign(π2 ) sign(π1 ), d.h. sign ist ein Homomorphismus. Vertauscht τ lediglich die Elemente i < j, so besitzt τ genau j − i Fehlstände der Form (i, k), und genauso viele Fehlstände der Form (l, j). Und da der Fehlstand (i, j) hierbei doppelt gezählt wird, ist die Anzahl der Fehlstände gleich 2(j − i) − 1, und sign(τ ) = −1. Korollar 14.1 Jede Permutation ist entweder nur das Produkt einer geraden Anzahl von Transpositionen oder das einer ungeraden Anzahl. In beiden Fällen gilt für eine Darstellung π = τ1 . . . τk sign(π) = (−1)k .