Lineare Algebra II Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis 1 Determinanten 1.1 3 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.1 Lineare Gleichungssysteme mit 2 Gleichungen . . . . . . . . . . . . . 4 1.1.2 Lineare Gleichungssysteme mit 3 Gleichungen . . . . . . . . . . . . . 6 1.1.3 Lineare Gleichungssysteme mit 4 Gleichungen . . . . . . . . . . . . . 9 1.2 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3 Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.4 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . . . . . 16 1.5 Effektive Berechnung von Determinanten . . . . . . . . . . . . . . . . . . . . 20 1.6 Geometrische Deutung der Determinante . . . . . . . . . . . . . . . . . . . . 23 1.7 Weitere Anwendungen von Determinanten . . . . . . . . . . . . . . . . . . . 24 2 Eigenwerte und Eigenvektoren 27 2.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3 Berechnung von Eigenwerten . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.4 Diagonalisierung von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 41 2.5 Iterative Berechnung von Eigenwerten und Eigenvektoren . . . . . . . . . . 44 2.6 Effiziente Berechnung des Page-Rankings . . . . . . . . . . . . . . . . . . . . 47 1 INHALTSVERZEICHNIS 3 Vektorräume mit Skalarprodukt 2 52 3.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.2 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.3 Norm und Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.4 Koordinaten bezüglich einer Orthonormalbasis . . . . . . . . . . . . . . . . . 61 3.5 Das Orthogonalisierungs-Verfahren von Gram-Schmidt . . . . . . . . . . . . 64 3.6 Orthogonale Komplemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.7 Näherungslösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 3.7.1 Orthogonalprojektion als Näherungen . . . . . . . . . . . . . . . . . 72 3.7.2 Näherungslösungen für lineare Gleichungssysteme . . . . . . . . . . . 74 3.8 Orthogonale und unitäre lineare Abbildungen . . . . . . . . . . . . . . . . . 81 ZHAW bodr, 28. April 2014 LA2Manuskript.tex Kapitel 1 Determinanten 1.1 Motivation Wir betrachten quadratische lineare Gleichungssysteme a11 x1 a21 x1 .. . an1 x1 + a12 x2 + · · · + a1n xn = b1 + a22 x2 + · · · + a2n xn = b2 .. .. .. . . . + an2 x2 + · · · + ann xn = bn mit Koeffizienten aij aus einem Körper K, die sich eindeutig lösen lassen. Ziel ist es, in systematischer Art und Weise (d.h. mit Hilfe einer einzigen Formel) die Lösung des linearen Gleichungssystems zu berechnen. Wir kennen bereits das Eliminationsverfahren von Gauss, um die Lösung zu berechnen. Dabei wird das Gleichungssystem so umgeformt, dass in der i-ten Zeile die ersten i − 1 Unbekannten x1 , . . . , xi−1 eliminiert sind. Insbesondere würde in der letzten Zeile nur noch die Unbekannte xn vorkommen und die restlichen Unbekannten xi könnten nun rekursiv durch Rückwärtseinsetzen bestimmt werden. Daraus liesse sich im Prinzip eine einzige Formel zur Berechnung der Lösung ableiten, wenn nicht bei der Durchführung des Algorithmus unterschiedliche Zeilenpermutationen (und ggf. Spaltenpermutationen) notwendig wären, die je nach der Struktur der Matrix auch noch unterschiedlich ausfallen können. Da es n! viele unterschiedliche Zeilenpermutationen bei n Zeilen gibt, müsste man n! viele Lösungsformeln angeben. Um daraus eine einzige Formel für die Lösung zu destillieren, müsste man nun all diese n! vielen Lösungsformeln in eine einheitliche Form bringen, die unabhängig von der jeweiligen Zeilenpermutationen ist. Da wir an einer einheitlichen Lösungsformel interessiert sind, ist dieses Vorgehen eher ungeeignet, weil es unübersichtlich ist. Stattdessen werden wir rekursiv vorgehen. Wir entwickeln zuerst ein Verfahren für 2 Gleichungen, dann für 3 Gleichungen, und so fort. 3 KAPITEL 1. DETERMINANTEN 4 Bei der Lösung eines Systems mit n Gleichungen machen wir uns dabei zunutze, dass wir schon eine Lösungsformel für Systeme mit n − 1 Gleichungen kennen. Am Ende werden wir versuchen, die gemeinsame Struktur der Lösungsformel zu erkennen. Dies wird unweigerlich auf den Begriff der Determinante führen. 1.1.1 Lineare Gleichungssysteme mit 2 Gleichungen Wir beginnen mit dem quadratischen linearen Gleichungssystem a11 x1 + a12 x2 = b1 a21 x1 + a22 x2 = b2 Um x2 zu eliminieren, multiplizieren wir die erste Gleichung mit a22 und die zweite mit −a12 . Addieren wir die so entstandenen Gleichungen, so erhalten wir (a11 a22 − a21 a12 )x1 = b1 a22 − b2 a12 , woraus x1 = b1 a22 − b2 a12 a11 a22 − a21 a12 folgt. Wir können erkennen, dass sowohl der Zähler als auch der Nenner nach dem gleichen Prinzip aufgebaut sind. Deshalb führen wir für diese Ausdrücke ein neues Symbol ein: a11 a12 a21 a22 := a11 a22 − a21 a12 . Dieses Symbol wird die Determinante der Matrix ( ) a11 a12 a21 a22 genannt. Damit bekommt die Formel für x1 die Form b1 a12 b2 a22 x1 = a11 a12 a21 a22 In analoger Weise berechnen wir die zweite Komponente x2 der Lösung. Um x1 im Gleichungssystem zu eliminieren, multiplizieren wir die erste Gleichung mit −a21 und die zweite mit a11 . Addieren wir die beiden so entstandenen Gleichungen, so erhalten wir −(a12 a21 − a22 a11 )x2 = −(b1 a21 − b2 a11 ), ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 5 Benutzen wir unser neues Symbol, so folgt b − 1 b2 x2 = a12 − a22 a11 a21 a11 a21 Die beiden Nenner von x1 und x2 unterscheiden sich nur in der Reihenfolge der Spalten und durch das Vorzeichen. Aber wegen a11 a22 − a21 a12 = −(a12 a21 − a22 a11 ) gilt a11 a12 = − a12 a11 , a21 a22 a22 a21 d.h. in Wirklichkeit sind die beiden Nenner die gleichen. Damit erhalten wir die Cramersche Regel für 2 Gleichungen und 2 Unbekannte: x1 = b1 b2 a11 a21 a12 a22 a12 a22 x2 = a11 a21 a11 a21 b1 b2 a12 a22 Ausserdem halten wir die folgenden Eigenschaften fest: • Vertauscht man zwei Spalten der Matrix, so dreht sich das Vorzeichen um. • Vertauscht man zwei Zeilen der Matrix, so dreht sich das Vorzeichen um. • Transponiert man die Matrix, so ändert sich der Ausdruck a11 a12 a21 a22 nicht. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 1.1.2 6 Lineare Gleichungssysteme mit 3 Gleichungen Wir fahren fort mit dem quadratischen linearen Gleichungssystem a11 x1 + a12 x2 + a13 x3 = b1 a21 x1 + a22 x2 + a23 x3 = b2 a31 x1 + a32 x2 + a33 x3 = b3 Um x2 und x3 zu eliminieren, multiplizieren wir die i-te Gleichung mit einem Skalar λi ∈ K und addieren alle drei so erhaltenen Gleichungen. Für die Skalare λ1 , λ2 , λ3 müssen dabei die folgenden Gleichungen gelten: a12 λ1 + a22 λ2 + a32 λ3 = 0 a13 λ1 + a23 λ2 + a33 λ3 = 0 Da wir vorausgesetzt haben, dass das ursprüngliche Gleichungssystem lösbar ist, muss dies auch für das obige Gleichungssystem gelten. Schreiben wir dieses System um in a12 λ1 + a22 λ2 = −a32 λ3 a13 λ1 + a23 λ2 = −a33 λ3 so können wir die Cramersche anwenden und erhalten a22 a23 λ1 = a12 a13 Regel für lineare Gleichungssysteme mit 2 Gleichungen a32 a33 λ3 a22 a23 a12 a13 λ2 = − a12 a13 a32 a33 λ3 a22 a23 Dabei ist der Parameter λ3 noch frei wählbar, wobei natürlich λ3 ̸= 0 sein muss, weil sonst keine Umformung des ursprünglichen Gleichungssystem stattfindet. Es ist zweckmässig, für λ3 den Wert a12 a22 λ3 = a13 a23 zu wählen, weil sich damit die Ausdrücke für λ1 und λ2 besonders einfach werden: a12 a32 a22 a32 λ2 = − λ1 = a13 a33 a23 a33 Multiplizieren wir nun die ursprünglichen drei Gleichungen mit diesen drei Faktoren und addieren die so entstandenen Gleichungen, so werden die Unbekannten x2 und x3 eliminiert und wir erhalten für x1 : a a a a a a b1 22 32 − b2 12 32 + b3 12 22 a13 a23 a13 a33 a23 a33 x1 = a12 a22 a12 a32 a22 a32 + a31 − a21 a11 a13 a23 a13 a33 a23 a33 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 7 Zähler und Nenner dieses Ausdrucks folgen wieder einem gemeinsamen Bildungsgesetz: Es wird die alternierende (d.h. mit wechselndem Vorzeichen) Summe der Produkte der Elemente in der ersten Spalte der Matrizen a11 a12 a13 b1 a12 a13 a21 a22 a23 b2 a22 a23 a31 a32 a33 b3 a32 a33 mit den Determinanten derjenigen 2 × 2-Untermatrizen, welche durch Streichen der ersten Spalte und der fraglichen Zeile entstehen. Damit wir diesen Ausdruck etwas übersichtlicher schreiben können, müssen wir weitere Notation einführen. Definition 1.1 Sei A eine n × n-Matrix und seien 1 ≤ i, j, ≤ n. Die (n − 1) × (n − 1)-Matrix Aij sei diejenige Untermatrix von A, welche aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Die Matrix Aij heisst eine Streichungsmatrix von A. Mit Hilfe dieser Definition lässt sich das obige Bildungsgesetz für eine 3×3-Matrix A = (aij ) wie folgt beschreiben: a22 a32 a12 a32 a12 a22 a11 |A11 | − a21 |A21 | + a31 |A31 | = a11 − a21 + a31 a23 a33 a13 a33 a13 a23 Wie zuvor bei 2 Gleichungen mit der Matrix A als a11 a12 |A| = a21 a22 a31 a32 2 Unbekannten definieren wir nun die Determinante a13 a23 := a11 |A11 | − a21 |A21 | + a31 |A31 | a33 Damit lässt sich die erste Komponente x1 der Lösung beschreiben durch b1 a12 a13 b2 a22 a23 b3 a32 a33 x1 = a11 a12 a13 a21 a22 a23 a31 a32 a33 Ganz entsprechend berechnet man die beiden anderen Komponenten. Zur Berechnung von x2 multipliziert man die erste Gleichung mit −|A12 |, die zweite mit |A22 |, die dritte mit ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 8 −|A32 | und addiert die drei so entstandenen Gleichungen. Man erhält so x2 = −b1 |A11 | + b2 |A21 | − b3 |A31 | −a12 |A12 | + a22 |A22 | − a32 |A32 | Im Fall von 2 Gleichungen hatten sich die Nenner der beiden Lösungen als identisch mit |A| erwiesen. Dies gilt auch im jetzigen Fall: |A| = a11 |A11 | − a21 |A21 | + a31 |A31 | a22 a32 a12 a32 a12 a22 = a11 − a21 + a31 a23 a33 a13 a33 a13 a23 = a11 a22 a33 − a21 a12 a33 + a31 a12 a23 − a11 a32 a23 + a21 a32 a13 − a31 a22 a13 = −a12 a21 a33 + a12 a31 a23 + a22 a11 a33 − a22 a31 a13 − a32 a11 a23 + a32 a21 a13 = −a12 |A12 | + a22 |A22 | − a32 |A32 | Für die letzte verbliebene Komponente x3 wird analog verfahren. Insgesamt erhält man die Cramersche Regel für 3 Gleichungen und 3 Unbekannte: x1 = ZHAW b 1 b 2 b3 a 11 a 21 a31 a12 a22 a32 a12 a22 a32 a13 a23 a33 a13 a23 a33 x2 = a 11 a 21 a31 a 11 a 21 a31 b1 b2 b3 a12 a22 a32 a13 a23 a33 a13 a23 a33 x3 = a 11 a 21 a31 a 11 a 21 a31 a12 a22 a32 a12 a22 a32 b1 b2 b3 a13 a23 a33 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 9 Wir halten wieder die folgenden Eigenschaften für Determinanten fest: • Vertauscht man zwei Spalten der Matrix, so dreht sich das Vorzeichen um. • Vertauscht man zwei Zeilen der Matrix, so dreht sich das Vorzeichen um. • Mutlipliziert man eine Spalte oder eine Zeile mit einem Faktor λ, so multipliziert sich die Determinante ebenfalls um den Faktor λ. • Transponiert man die Matrix, so ändert sich der Ausdruck a11 a12 a13 a21 a22 a23 a31 a32 a33 nicht. 1.1.3 Lineare Gleichungssysteme mit 4 Gleichungen Wir fahren fort mit dem quadratischen linearen Gleichungssystem a11 x1 a21 x1 a31 x1 a41 x1 + + + + a12 x2 a22 x2 a32 x2 a42 x2 + + + + a13 x3 a23 x3 a33 x3 a43 x3 + + + + a14 x4 a24 x4 a34 x4 a44 x4 = = = = b1 b2 b3 b4 Elimination von x2 , x3 und x4 mittels der Cramerschen Regel für 3 × 3-Systeme liefert x1 = b1 |A11 | − b2 |A21 | + b3 |A31 | − b4 |A41 | a11 |A11 | − a21 |A21 | + a31 |A31 | − a41 |A41 | Dabei ist jede in der Formel auftauchende Determinante |Aij | die alternierende Summe von 6 Produkten aus 3 Matrixkoefffizienten. Rechnet man den Nenner dieses Ausdrucks vollständig aus, so erhält man also eine alternierende Summe von 24 Produkten aus je 4 Matrixkoefffizienten: a11 |A11 | a11 a22 a33 a44 − a11 a32 a23 a44 a11 a42 a23 a34 − a11 a22 a43 a34 a11 a32 a43 a24 − a11 a42 a33 a24 ZHAW − − + + − + + a21 |A21 | a21 a12 a33 a44 a21 a32 a13 a44 a21 a42 a13 a34 a21 a12 a43 a34 a21 a32 a43 a14 a21 a42 a33 a14 + + − − + − − a31 |A31 | a31 a12 a23 a44 a31 a22 a13 a44 a31 a42 a13 a24 a31 a12 a43 a24 a31 a22 a43 a14 a31 a42 a23 a14 + − + + − + + a41 |A41 | = a41 a12 a23 a34 a41 a22 a13 a34 a41 a32 a13 a24 a41 a12 a33 a24 a41 a22 a33 a14 a41 a32 a23 a14 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 10 Diese alternierende Summe heisst die Determinante der Matrix A und wird mit a11 a12 a13 a14 a21 a22 a23 a24 := a11 |A11 | − a21 |A21 | + a31 |A31 | + a41 |A41 | |A| = a31 a32 a33 a34 a41 a42 a43 a44 bezeichnet. Damit ergibt sich b1 b2 b3 b4 x1 = a11 a21 a31 a41 a12 a22 a32 a42 a13 a23 a33 a43 a12 a22 a32 a42 a13 a23 a33 a43 a14 a24 a34 a44 a14 a24 a34 a44 Entsprechende Formeln bekommen wir für die anderen Unbekannten x2 , x3 und x4 . ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 1.2 11 Permutationen Definition 1.2 Sei n ∈ N und M = {1, 2, 3, . . . , n}. Eine bijektive Abbildung π : M → M heisst eine Permutation von M . Für eine Permutation π schreiben wir ( ) 1 2 ... n π= . π(1) π(2) . . . π(n) Die Menge aller Permutationen von M wird mit Sn gekennzeichnet. Die Menge Sn hat n! Elemente. Da jede Permutation π bijektiv ist, gibt es stets eine Umkehrabbildung π −1 von π. Zwei Permutationen σ und τ lassen sich hintereinander ausführen und ergeben dadurch eine neue Permutation π, geschrieben als Produkt π = στ . Dabei wird zuerst σ und danach τ ausgeführt. Die identische Permutation id ist gegeben durch ( ) 1 2 ... n id = . 1 2 ... n Definition 1.3 Eine Permutation π ∈ Sn heisst ein Zyklus der Länge t oder t-Zyklus, wenn es t verschiedene Zahlen v1 , . . . , vt ∈ M gibt, so dass für alle 1 ≤ i ≤ n gilt: vk+1 falls i = vk und k ̸= t π(i) = v1 falls i = vk und k = t i sonst Für einen t-Zyklus schreibt man in diesem Fall π = (v1 , . . . , vt ). Zyklen der Länge 2 werden Transpositionen genannt. Für t-Zyklen gelten die folgenden Eigenschaften: 1. (v1 , . . . , vt ) = (vt , v1 , . . . , vt−1 ) = · · · = (v2 , . . . , vt , v1 ) 2. (v1 , . . . , vt )−1 = (vt , vt−1 , . . . , v1 ) 3. (v1 , v2 )−1 = (v1 , v2 ) ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN Beispiel 1.1 Es ist Beispiel 1.2 Es ist Beispiel 1.3 Es ist 12 ( ) 1 2 3 4 = (1324) 3 4 2 1 ( ) 1 2 3 4 = (132) 3 1 2 4 ( ) 1 2 3 4 = (13)(24) 3 4 1 2 Satz 1.1 Jeder t-Zyklus ist Produkt von t − 1 Transpositionen. Beweis Es ist (v1 , . . . , vt ) = (v1 , v2 )(v1 , v3 ) . . . (v1 , vt−1 )(v1 , vt ). □ Satz 1.2 Jede Permutation τ ∈ Sn kann auf eindeutige Weise als Produkt paarweise elementefremder Zyklen geschrieben werden. Insbesondere ist jede Permutation ein Produkt von Transpositionen. Beweis Sei B(τ ) = {i ∈ M | τ (i) ̸= i} und sei b die Anzahl der Elemente von B. Der Beweis wird mittels vollständiger Induktion über b geführt. Für den Induktionsanfang b = 0 folgt, dass B(τ ) die leere Menge ist, d.h. es ist τ (i) = i für alle i ∈ M , d.h. τ ist die Identität und für diese gilt die Aussage des Satzes in trivialer Weise. Für den Induktionsschritt sei b > 0. Sei v1 das kleinste Element aus B. Betrachte die endliche Menge {v1 , v2 := τ (v1 ), v3 := τ (v2 ), . . . }. Wähle ein minimales t ∈ M , so dass vt+1 ∈ {v1 , . . . , vt } gilt. Dann ist vt+1 = v1 , denn andernfalls wäre vt+1 = τ (vi ) für ein i < t und es würde τ (vt ) = vt+1 = τ (vi ) und somit vt = vi folgen, was der Minimalität von t widerspricht. Setze σ1 = (v1 , . . . , vt ). ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 13 Nach Wahl von t ist τ (i) = σ1 (i) bzw. σ1−1 τ (i) = i für 1 ≤ i ≤ t. Also ist insbesondere B(σ1−1 τ ) = B(τ )\{v1 , . . . , vn }. Nach Induktionsvoraussetzung gibt es paarweise elementefremde Zyklen σ2 , . . . , σm , so dass sich σ1−1 τ schreiben lässt als σ1−1 τ = σ2 . . . σm . Wegen B(σ1−1 τ ) = B(τ )\{v1 , . . . , vn } sind die Zyklen σ2 , . . . , σm auch elementefremd zu {v1 , . . . , vn } und wir haben insgesamt (nach Anwendung von σ1 auf beiden Seiten der Gleichung) τ = σ1 σ2 . . . σm . □ Dies beweist den Satz. Beispiel 1.4 Es ist ( ) 1 2 3 4 5 6 7 8 9 = (13245)(678) = (13)(12)(14)(15)(67)(68) 3 4 2 5 1 7 8 6 9 Beispiel 1.5 Es ist ( ) 1 2 3 4 5 6 7 8 9 = (1469358) = (14)(16)(19)(13)(15)(18) 4 2 5 6 8 9 7 1 3 Beispiel 1.6 Es ist ( ) 1 2 3 4 5 6 7 8 9 = (156234)(789) = (15)(16)(12)(13)(14)(78)(79) 5 3 4 1 6 2 8 9 7 Definition 1.4 Für eine Permutation π ∈ Sn heisst sign(π) = ∏ 1≤i<j≤n π(i) − π(j) i−j das Signum von π. Bemerkung. Das Signum lässt sich als Abbildung von Sn nach Q auffassen. Wir werden nachfolgend zeigen, dass die Abbildung sign tatsächlich nur die Werte -1 und 1 annimmt. Satz 1.3 Für eine Transposition τ ∈ Sn ist sign(τ ) = −1. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 14 Beweis Sei τ = (s, t). Dann ist sign(τ ) = sign(s, t) = ∏ 1≤i<j≤n i,j̸=s i,j̸=t i−j ∏ s−j ∏ i−t s−t · . i−j t−j i−s t−s 1≤j≤n j̸=s,t 1≤i≤n i̸=s,t Das erste Produkt ist 1, die beiden mittleren Produkte zusammengenommen ergeben ebenfalls 1, während der letzte einzelne Faktor −1 ist. Damit folgt insgesamt sign(τ ) = −1. □ Satz 1.4 Die Signum-Abbildung sign nimmt nur die Werte +1 und −1 an. Für jede Permutation π ∈ Sn ist sign(π −1 ) = sign(π). Beweis Wir zeigen zuerst, dass für zwei Permutationen σ, τ ∈ Sn sign(στ ) = sign(σ) · sign(τ ) gilt: sign(στ ) = ∏ 1≤i<j≤n στ (i) − στ (j) i−j = ∏ 1≤i<j≤n στ (i) − στ (j) · τ (i) − τ (j) ∏ 1≤i<j≤n τ (i) − τ (j) i−j = sign(σ) · sign(τ ) Da sich jede Permutation als Produkt von Transpositionen schreiben lässt und für für Transpositionen τ das Signum −1 ist, folgt, dass die Signum-Abbildung für eine beliebige Permutation die Werte +1 und −1 annimmt. Wegen ππ −1 = id und sign( id )= 1 folgt 1 = sign(id) = sign(ππ −1 ) = sign(π) · sign(π −1 ), woraus sign(π −1 ) = sign(π) folgt, da das Signum nur die Werte +1 und -1 annehmen kann. □ Folgerung Jede Permutation π ∈ Sn lässt sich entweder als Produkt von gradzahling vielen oder von ungradzahling vielen Transpositionen schreiben. Im ersten Fall heisst die Permutation gerade, im zweiten Fall ungerade. Das Signum einer geraden Permutation ist +1, das einer ungeraden Permutation ist −1. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 1.3 15 Definition der Determinante Mit Hilfe des Signum-Abbildung können wir die Vorzeichenregel für die Bildung der Determinante formulieren: Der Ausdruck aπ(1),1 aπ(2),2 · · · · · aπ(n),n aus dem ersten Abschnitt dieses Kapitels hat genau das Vorzeichen sign(π). Definition 1.5 Die Determinante einer n × n-Matrix A = (aij ) ist die folgende alternierende Summe von Produkten von Matrixkomponenten, die mit det(A) oder |A| bezeichnet wird: ∑ det(A) = |A| = sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n . π∈Sn Für 2 × 2- und 3 × 3-Matrizen ergeben sich aus dieser Definition folgende Regeln zur Berechnung der Determinante (Sarrus-Regeln): Satz 1.5 Für eine 2 × 2-Matrix A = (aij ) ist det(A) = a11 a22 − a12 a21 . Satz 1.6 Für eine 3 × 3-Matrix A = (aij ) ist det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 . ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 1.4 16 Rechenregeln für Determinanten Satz 1.7 Die Abbildung det : Mat(n × n, K) → K : A 7→ det(A) besitzt folgende Eigenschaften: 1. Entsteht die Matrix A′ aus A durch Multiplikation einer einzigen Spalte mit λ ∈ K, so gilt det(A′ ) = λ det(A). 2. Sind A, A′ , A′′ Matrizen, die sich nur in der i-ten Spalte unterscheiden, und ist die i-te Spalte von A′′ die Summe der i-ten Spalten von A und A′ , so gilt det(A′′ ) = det(A) + det(A′ ). 3. Besitzt die Matrix A zwei gleiche Spalten, so ist det(A) = 0. 4. Besitzt die Matrix A eine Null-Spalte, so ist det(A) = 0. 5. Die Abbildung det ist antisymmetrisch bzgl. der Spalten, d.h. entsteht die Matrix A′ aus A durch Vertauschen zweier Spalten, so gilt det(A′ ) = − det(A). 6. Für die Einheitsmatrix In gilt det(In ) = 1. 7. Es ist det(AT ) = det(A). ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 17 Beweis 1) Es ist ∑ det(A′ ) = sign(π)a′π(1),1 a′π(2),2 · · · · · a′π(n),n π∈Sn ∑ = sign(π)aπ(1),1 aπ(2),2 · . . . (λaπ(j),j ) · · · · · aπ(n),n π∈Sn = λ ∑ sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n π∈Sn = λ det(A). 2) Es ist det(A) = ∑ sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n π∈Sn = ∑ sign(π)aπ(1),1 aπ(2),2 · . . . (a′π(j),j + a′′π(j),j ) · · · · · aπ(n),n π∈Sn = ∑ sign(π)a′π(1),1 · · · · · a′π(n),n + π∈Sn ∑ sign(π)a′′π(1),1 · · · · · a′′π(n),n π∈Sn ′ ′′ = det(A ) + det(A ). 3) Seien die i-te und die j-te Spalte von A identisch. Sei τ ∈ Sn die Transposition, die i und j vertauscht, also τ = (i, j). Dann gilt für jede beliebige Permutation π ∈ Sn aπ(1),1 aπ(2),2 · · · · · aπ(n),n = aπτ (1),1 aπτ (2),2 · · · · · aπτ (n),n und sign(π) = −sign(πτ ). Unterteilt man also die Summe ∑ sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n π∈Sn in zwei Teile, nämlich allen geraden und allen ungeraden Permutationen, so sieht man, dass beide Teile gleich sind bis auf ein unterschiedliches Vorzeichen. Also folgt insgesamt det(A) = 0. 4) Ist etwa die erste Spalte v1 von A = (v1 , . . . , vn ) der Nullvektor, so folgt aus Teil 3) 0 = det(v2 , v2 , . . . , vn ) = det(v1 , v2 , . . . , vn ) + det(v2 , v2 , . . . , vn ) = det(v1 , v2 , . . . , vn ) = det(A). 5) Wir definieren drei neue Matrizen A∗ , A∗∗ und A∗∗∗ . Die Matrix A∗ entsteht aus A durch Ersetzen der i-ten Spalte durch die j-te Spalte. Die Matrix A∗∗ entsteht aus A durch ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 18 Ersetzen der j-ten Spalte durch die i-te Spalte. Die Matrix A∗∗∗ entsteht aus A durch Ersetzen der i-ten und der j-ten Spalte durch die ihre Summe. Diese drei Matrizen haben jeweils zwei gleiche Spalten und daher gilt: det(A∗ ) = 0, det(A∗∗ ) = 0, det(A∗∗∗ ) = 0. Wegen Teil 2) folgt det(A∗ ) = det(A∗∗ ) + det(A′ ) + det(A) + det(A∗∗∗ ), also 0 = det(A′ ) + det(A) bzw. det(A) = − det(A′ ). 6) Ausser für die identische Permutation id (die nichts permutiert), sind alle Summanden in der Determinanten-Summe Null. Deshalb ist det(In ) = sign(id)1 · · · · · 1 = 1. 7) Es ist wegen sign(π −1 ) = sign(π) ∑ det(AT ) = sign(π)a1,π(1) a2,π(2) · · · · · an,π(n) π∈Sn = ∑ sign(π)aπ−1 (1),1 aπ−1 (2),2 · · · · · aπ−1 (n),n π∈Sn = ∑ sign(π −1 )aπ−1 (1),1 aπ−1 (2),2 · · · · · aπ−1 (n),n π∈Sn = ∑ sign(τ )aτ (1),1 aτ (2),2 · · · · · aτ (n),n π∈Sn □ = det(A). Beispiel 1.7 Die Determinante einer der drei Typen von Elementarmatrizen lässt sich einfach bestimmen: • Es ist nach Teil 1) 1 .. . i,λ λ det(En ) = det .. . ZHAW = λ det 1 1 .. . = λ det(In ) = λ. 1 .. . 1 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 19 • Es ist nach Teil 2), Teil 4) und Teil 7) 1 .. . 1 λ ij,λ .. det(En ) = det . 1 .. . = det(In ) + det 1 .. . 1 1 λ .. . 0 .. . 1 = 1 + 0 = 1. • Die Matrix Enij 1 .. . 0 1 . . = . 1 0 .. . 1 entsteht aus der Einheitsmatrix In durch Vertauschen der i-ten mit der j-ten Spalte. Nach Teil 5) und Teil 6) ist daher det(Enij ) = − det(In ) = −1. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 20 Abschliessend untersuchen wir, wie sich die Zeilen- und Spaltenumformungen beim GaussAlgorithmus auf die Determinante auswirken: Satz 1.8 Die Abbildung det : Mat(n × n, K) → K : A 7→ det(A) verhält sich bei den Spaltenund Zeilenumformungen des Eliminationsverfahrens von Gauss wie folgt 1. Bei Vertauschung zweier Zeilen (Spalten) multipliziert sich die Determinante mit −1. 2. Bei der Addition des Vielfachen einer Zeile (Spalte) zu einer anderen Zeile ändert sich die Determinante nicht. 3. Bei Multiplikation einer Zeile (Spalte) mit einem Faktor λ multipliziert sich die Determinante mit dem gleichen Faktor λ. Beweis Dies folgt sofort aus dem letzten Satz: Aussage 1) folgt aus Teil 4), Aussage 2) folgt aus den Teilen 1), 2) und 3), Aussage 3) folgt aus Teil 1). □ 1.5 Effektive Berechnung von Determinanten Satz 1.9 Sei A = (aij ) eine n × n-Dreiecksmatrix. Dann ist det(A) = a11 a22 · · · · · ann . Beweis Sei A eine obere Dreiecksmatrix. Dann ist aij = 0 für i > j. Ein Produkt (π)a1,π(1) a2,π(2) · · · · · an,π(n) ist immer 0, ausser wenn π(k) ≤ k für alle 1 ≤ k ≤ n Dies ist aber nur für π = id der Fall. Also folgt det(A) = sign(id)a11 a22 · · · · · ann = a11 a22 · · · · · ann . □ Will man die Determinante einer 10 × 10-Matrix ausrechnen, so sind 10! = 3′ 628′ 800 Produkte mit jeweils 10 Faktoren zu berechnen. Dies ergibt insgesamt 3′ 628′ 800 · 9 = ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 21 32′ 659′ 200 Multiplikationen. Die Komplexität zur Berechnung der Determinante ist also sehr hoch. Andererseits ist das Berechnen der Determinante einer Dreiecksmatrix sehr gering. Dies legt es nahe, den Gauss-Algorithmus zum Lösen linearer Gleichungssysteme mit der Determinanten-Berechnung zu kombinieren. Nach Satz 1.6 wissen wir auch genau, was bei jedem Schritt des Gauss-Algorithmus mit der Determinante passiert. Man muss nur die Anzahl der Vertauschungen von Zeilen oder Spalten notieren, sowie das Multiplizieren einer Zeile oder Spalte mit einem skalaren Faktor λ. Die Addition des Vielfachen einer Zeile zu einer anderen Zeile beeinflusst die Determinante nicht. Beispiel 1.8 Zur Berechnung der Determinante der Matrix 1 −1 −4 1 A= 0 −2 0 −2 wenden wir den Gauss-Algorithmus an terminante verändern: λi2 x1 x2 x3 x4 1 −1 0 3 4 −4 1 0 2 0 −2 1 3 0 −2 1 2 0 0 1 1 3 2 3 2 und protokollieren diejenigen Schritte, die die Dec 0 0 0 0 λi3 x1 1 0 −2/3 0 −2/3 0 x2 x3 x4 −1 0 3 −3 0 14 −2 1 3 −2 1 2 c 0 0 0 0 λi4 x1 x2 x3 x4 c x1 x2 x3 x4 c 1 −1 0 3 0 1 −1 0 3 0 0 −3 0 14 0 0 −3 0 14 0 0 0 1 −19/3 0 0 0 1 −19/3 0 −1 0 0 1 −22/3 0 0 0 0 −1 0 Da weder Zeilen- oder Spaltenvertauschungen, noch Multiplizieren einer Zeile mit einem Faktor verwendet wurde, sind die Determinanten der Ausgangsmatrix und der entstandenen Dreiecksmatrix gleich. Nach Satz 1.7 ist damit det(A) = 1 · (−3) · 1 · (−1) = 3. Beispiel 1.9 Berechnung der Determinante der Matrix 3 0 1 2 4 1 −1 2 A= 0 −1 2 3 1 −2 0 2 Anwendung des Gauss-Algorithmus liefert x1 x2 x3 x4 3 0 1 2 4 1 −1 2 0 −1 2 3 1 −2 0 2 ZHAW x1 x2 x3 x4 1 −2 0 2 −4 4 1 −1 2 0 −1 2 3 −3 3 0 1 2 x1 x2 x3 x4 1 −2 0 2 0 9 −1 −6 0 −1 2 3 0 6 1 −4 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 22 x1 x2 x3 x4 1 −2 0 2 0 −1 2 3 9 0 9 −1 −6 6 0 6 1 −4 x1 x2 x3 x4 1 −2 0 2 0 −1 2 3 0 0 17 21 −13/17 0 0 13 14 x1 x2 x3 x4 1 −2 0 2 0 −1 2 3 0 0 17 21 0 0 0 −35/17 x1 x2 x3 x4 1 −2 0 2 0 −1 2 3 0 0 17 21 0 0 0 −35 Beim Übergang von Schema (1) zu (2) und von (3) zu (4) wurden jeweils zwei Zeilen vertauscht. Am Ende wurde die letzte Zeile mit 17 multipliziert. Also ergibt sich (−1) · (−1) · 17 · det(A) = 1 · (−1) · 17 · (−35), also det(A) = 35. Wir wollen nun die Formel aus dem ersten Teil dieses Kapitels nochmals aufnehmen und allgemein formulieren: Satz 1.10 Entwicklungssatz von Laplace. Für eine n × n-Matrix A = (aij ) gilt 1. Entwicklung nach der i-ten Zeile von A: det(A) = n ∑ (−1)i+j aij det(Aij ) j=1 2. Entwicklung nach der j-ten Spalte von A: det(A) = n ∑ (−1)i+j aij det(Aij ) i=1 Satz 1.11 Produktsatz für Determinanten. Für n × n-Matrizen A und B gilt det(A · B) = det(A) · det(B). ZHAW bodr, 28. April 2014 LA2Manuskript.tex row operation to the appropriate identity matrix. The matrix E is also denoted by Ai j c , Mi c , or Pi j , respectively, for the operations add c times row j to i operation, multiply row i by c, and permute rows i and j, respectively. 2) The Row Reduction Theorem asserts that every matrix A can be row reduced to a unique row echelon reduced matrix R. In matrix form: There is a unique row reduced matrix R and some elementary Ei with E p E1 A R, or equivalently, A F1 Fp R where Fi Ei 1 are also elementary. 3) AKAPITEL matrix A 1. determines a linear transformation: It takes vectors x and gives vectors Ax. 23 DETERMINANTEN §2. Restrictions All matrices must be square. Determinants are not defined for non-square matrices. 1.6 Geometrische Deutung der Determinante §3. Motivation Determinants whether a matrix has an inverse. They give areas and play a crucial role Die Flächedetermine F eines Parallelogramms, in the change of variables formula in multivariable calculus. Let’s compute the area of the parallelogram determined by vectors a b and c d . See Figure 1. c b a (c, d) (a+c, b+d) b c d d c b (0, 0) a (a, b) b c Figure 1. The area is a c b d 2 12 ab 2 12 cdT 2bc ab adT cb cd ab cd 2bc ad bc. welches durch zwei Vektoren v1 = (a, b) und v2 = (c, d) aufgespannt wird, kann berechTentative definition: The determinant of a 2 by 2 matrix is net durch 1 1a b a b F = (a + c)(b + d) − (2 ab)det − 2( cd) − 2bc = ab + ad +ad cb + bc cd − ab − cd − 2bc = ad − bc. 2 2c d c d Dies entspricht genau der Determinante der Matrix which is the “signed” area of the parallelogram with sides determine by the rows of the matrix. ( the parallelepiped ) A similar argument for the signed volume of (box with parallel sides) whose a c sides are determined by vectors a b c , d e bf and g h i shows d a b c Entsprechendes gilt im auch höherdimensionalen Räumen. Somit d dreidimensionalen e f aei b fund g cdh gec h f a idb beschreiben Determinanten und Volumina. Dies erlaubt es unter anderem, das g h Flächen i Volumen im Rn für n ≥ 4 einzuführen. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 1.7 24 Weitere Anwendungen von Determinanten Wir wollen nun zu unserem Ausgangspunkt, dem Lösen linearer Gleichungssysteme, zurückkommen. Satz 1.12 Die Cramersche Regel. Sei A eine n × n-Matrix mit det(A) ̸= 0. Dann ist jedes lineare Gleichungssystem Ax = b eindeutig lösbar und die j-te Komponente berechnen durch a11 . . . .. . an1 . . . xj = a11 .. . an1 xj der Lösung x = (x1 , . . . , xn )T lässt sich b1 . . . a1n .. .. . . bn . . . ann , . . . a1n .. . . . . ann wobei b = (b1 , . . . , bn )T ist. Beweis Sei Bi die Matrix, die aus der Matrix A durch Ersetzen der i-ten Spalte durch den Vektor b entsteht. Seien a1 , . . . .an die Spaltenvektoren von A. Die Matrizengleichung Ax = b ist gleichbedeutend mit der Gleichung a1 x1 + · · · + an xn = b. Ersetzt man also in der Matrix Bj den Spaltenvektor b durch a1 x1 + · · · + an xn , so können wir die Determinante von Bj wie folgt berechnen (verwende dazu Satz 1.7, Teil 1 und 2): det(Bj ) = x1 det(A1 ) + . . . xn det(An ), wobei die Matrix Ai aus A entsteht, indem die j-te Spalte aj durch die i-te Spalte ai ersetzt. Damit ist Aj = A, weil hier aj durch aj ersetzt wird. Für i ̸= j besitzt Ai zwei gleiche Spalten, nämlich an den Spalten i und j die Spalte ai . Nach Satz 1.7 ist damit für i ̸= j det(Ai ) = 0 und det(Aj ) = det(A). Damit folgt insgesamt det(Bj ) = xj det(Aj ) = xj det(A). □ ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 25 Satz 1.13 Berechnung der inversen Matrix. Sei A eine n × n-Matrix mit det(A) ̸= 0. Dann ist A invertierbar und für die inverse Matrix B = (bij ) = A−1 von A gilt bij = (−1)i+j det(Aji ) . det(A) Beweis Die j-te Spalte von A−1 ist wegen AA−1 = In die Lösung Xj des Gleichungssystems AXj = ej , wobei ej der j-te Einheitsvektor ist. Nach der Cramerschen Regel erhält man für die i-te Komponente bij von Xi : a11 . . . 0 . . . a1n .. .. .. . . . aj1 . . . 1 . . . ajn .. .. .. . . . an1 . . . 0 . . . ann bij = a11 . . . a1n .. .. . . an1 . . . ann Die im Zähler stehende Determinante ist (−1)i+j det(Aji ), was aus dem Laplaceschen Entwicklungssatz folgt. Im Nenner steht det(A). □ Satz 1.14 Für eine n × n-Matrix A gilt: Rang(A) = n ⇐⇒ det(A) ̸= 0 Insbesondere sind die Zeilen (Spalten) der Matrix A genau dann linear unabhängig, wenn det(A) ̸= 0 gilt. Beweis Sei Ā die nach dem Gauss-Algorithmus aus A entstandene obere Dreiecksmatrix. Es ist nach Satz 1.9 det(Ā) = ā11 . . . ānn . ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 1. DETERMINANTEN 26 Ist Rang(A) = n, so sind die Pivot-Elemente ā11 , . . . , ānn alle ungleich 0, also ist auch det(Ā) ̸= 0. Nach Satz 1.8 ist dann auch det(A) ̸= 0. Ist umgekehrt det(A) ̸= 0, so ist wieder nach Satz 1.8 auch det(Ā) ̸= 0. Also müssen alle Pivot-Elemente ā11 , . . . , ānn alle ungleich 0 sein, woraus Rang(A) = n folgt. □ ZHAW bodr, 28. April 2014 LA2Manuskript.tex Kapitel 2 Eigenwerte und Eigenvektoren 2.1 Motivation Definition 2.1 Sei V ein Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung von V in V . Ein Vektor v ̸= 0, für den f (v) = λv für ein λ ∈ K gilt, heisst ein Eigenvektor der linearen Abbildung f zum Eigenwert λ. Definition 2.2 Sei V ein Vektorraum über einem Körper K und sei A eine Matrix über K. Ein Vektor v ̸= 0, für den Av = λv für ein λ ∈ K gilt, heisst ein Eigenvektor von A zum Eigenwert λ. Bemerkung Die Lösung X des Pagerank-Problems P X = X ist ein Eigenvektor der linearen Abbildung f (v) = P · v zum Eigenwert 1. Bemerkung Ein Eigenvektor v einer lineare Abbildung f wird also von f mit dem Faktor λ ”gestreckt” (λ > 1) oder ”gestaucht” (0 < λ < 1) oder unverändert gelassen (λ = 1) und/oder in seiner Richtung umgekehrt (λ < 0). 27 KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 28 Eigenwerte und Eigenvektoren spielen in vielen Bereichen der Physik eine grosse Rolle. Auch in der Statistik gibt es Anwendungen (Cluster-Analyse, HauptkomponentenAnalyse). Weniger nahe liegende Anwendungsbereiche gibt es in der Geologie und in der Bildverarbeitung, z.B. bei der Gesichter-Erkennung (Eigengesichter). Beispiel 2.1 Eigengesichter basieren auf einem Verfahren von Sirovich und Kirby, mit dem effizient Gesichter komprimiert und wiederhergestellt werden können. Das geschieht mit Hilfe einiger Hauptkomponenten aus der Hauptkomponentenanalyse. Die Hauptkomponenten sind dabei nichts anderes als Eigenvektoren einer speziellen Matrix. Dazu betrachtet man ein Bild als Folge von Helligkeitswerten eines Pixels. Hat ein Bild n Pixel, so kann dieses BIld als ein Vektor v ∈ Rn betrachtet werden, wobei die Komponente vi den Helligkeitswert des Pixels Nummer i darstellt. Zuerst werden Trainingsbilder B1 , . . . Bn der Gesichter eingelesen und in den entsprechenden Vektoren v1 , . . . , vn gespeichert. Aus dem Trainingsset wird nun ein ”Durchschnittsgesicht” B gebildet, was durch den Vektor w repräsentiert wird: 1∑ vi . w= n n i=1 Von jedem Bild Bi wird nun ein Differenzgesicht Di gebildet, welches durch einen Vektor di dargestellt wird: di = vi − w. Die aus diesen Spaltenvektoren d1 , . . . , dn gebildete Matrix wird mit D bezeichnet. Mit Hilfe der Differenzbilder wird eine sog. Kovarianzmatrix C erstellt: C = DDT . Die Eigenvektoren der Matrix C sind die Hauptkomponenten, die wegen ihres gesichtsähnlichen Aussehens von Turk und Pentland als Eigengesichter benannt wurden. Zwei Gesichter werden als gleich (ähnlich) angesehen, wenn sie die gleichen Eigenvektoren (Eigenwerte) haben. Das untenstehende Bild zeigt Beispiele von Eigengesichtern: ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 29 Beispiel 2.2 Unter dem Link http://www.mathematik.uni-stuttgart.de/studium/infomat/HM-Stroppel-Material/Eigenvektoren findet man interaktive Anwendungen zur Illustration von Eigenwerten und Eigenvektoren. 2.2 Definitionen Definition 2.3 Sei V ein Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung von V in V . Für einen Eigenwert λ von f heisst die Menge Uλ := {v ∈ V | f (v) = λv} aller Eigenvektoren zum Eigenwert λ der Eigenraum von f zum Eigenwert λ. Satz 2.1 Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung. Dann ist jeder Eigenraum Uλ von f ist ein Unterraum von V . Die Dimension dim Uλ von Uλ heisst geometrische Multiplizität von λ. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 30 Beweis Wir müssen zeigen, dass für u, v ∈ Uλ die Summe u + v ebenfalls in Uλ ist. Wegen f (u + v) = f (u) + f (v) = λu + λv = λ(u + v) ist dies aber der Fall. Ausserdem müssen wir nachweisen, dass für v ∈ Uλ und µ ∈ K auch µv ∈ Uλ ist. Dies folgt jedoch aus: f (µv) = µf (v) = µ(λv) = λ(µv). 2.3 Berechnung von Eigenwerten Ist f : V → V : v 7→ f (v) = Av eine lineare Abbildung, die durch die quadratische n × n-Matrix A definiert ist, so gilt für einen Eigenvektor v zum Eigenwert λ f (v) = Av = λv (A − λIn )v = Av − λv = 0. bzw. Das bedeutet aber, dass der Eigenvektor v ̸= 0 eine nichttriviale Lösung des homogenen linearen Gleichungssystem (A − λIn )v = 0 ist. Dies bedeutet, dass de Rang der Matrix A − λIn kleiner als n sein muss, bzw. det(A − λIn ) = 0 gelten muss. Ist a11 a21 A= . .. a12 a22 .. . . . . a1n . . . a2n .. , . an1 an2 . . . ann so lautet die obige Gleichung a11 − λ a12 ... a1n a21 a22 − λ . . . a2n = 0. .. .. .. . . . an1 an2 . . . ann − λ ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 31 Satz 2.2 Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V : v 7→ f (v) = Av eine lineare Abbildung mit zugehöriger n × n-Matrix A. Dann gilt: 1. Ein Skalar λ ∈ K ist ein Eigenwert von f genau dann, wenn det(A − λIn ) = 0 ist. 2. Ein Skalar λ ∈ K ist ein Eigenwert von f genau dann, wenn λ eine Nullstelle des charakteristischen Polynoms pA (x) = det(A − xIn ) = (−1)n xn + cn−1 xn−1 + · · · + c0 ist. Beweis Teil 1) wurde schon bewiesen, Teil 2) folgt nach Definition der Determinante und durch Einsetzen von λ in das charakteristische Polynom. □ Beispiel 2.3 Wir wollen alle Eigenwerte und Eigenvektoren der linearen Abbildung ( ) 2 2 f : R2 → R2 : v 7→ f (v) = 3 1 bestimmen. Dazu berechnen wir zuerst das charakteristische Polynom 2 − x 2 = (2−x)(1−x)−2·3 = x2 −3x−4 = (x−4)(x+1). pA (x) = det(A−xI2 ) = 3 1 − x Dieses Polynom hat die Nullstellen 4 und −1, d.h. 4 und −1 sind alle Eigenwerte von f . Wir bestimmen nun die Eigenräume von f zu diesen Eigenwerten. Wir beginnen mit dem Eigenraum U−1 zum Eigenwert −1. Dazu müssen wir alle Lösungen des homogenen linearen Gleichungssystems ( )( ) ( )( ) ( ) 2 − (−1) 2 x1 3 2 x1 0 = = 3 1 − (−1) x2 3 2 x2 0 berechnen. Der Rang der auftretenden Matrix ist 1, d.h. die Lösungsmenge hat Dimension 2 − 1 = 1. Dessen Lösungsmenge ist gerade der Eigenraum zum Eigenwert −1: { ( ) } {( )} 2 2 U−1 = t | t ∈ R = Lin −3 −3 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 32 Der Eigenraum U4 zum Eigenwert 4 ist der Lösungsraum des homogenen linearen Gleichungssystems ( )( ) ( )( ) ( ) 2−4 2 x1 −2 2 x1 0 = = 3 1−4 x2 3 −3 x2 0 berechnen. Wieder ist der Rang der auftretenden Matrix 1, d.h. die Lösungsmenge hat erneut Dimension 2 − 1 = 1. Es ist { ( ) } {( )} 1 1 U4 = t | t ∈ R = Lin . 1 1 Drückt man die Matrix A der linearen Abbildung f nicht bezgl. der kanonischen Basis B1 = {e1 , e2 } aus, sondern über die beiden Eigenvektoren {( ) ( )} 2 1 B2 = , , −3 1 so bekommt die zu f gehörige Matrix A′ die Gestalt ( ) −1 0 A′ = , 0 4 denn es ist ( ) ( ) 2 2 f( )=− −3 −3 und ( ) ( ) 1 1 f( )=4 . 1 1 Beispiel 2.4 Wir wollen alle Eigenwerte und Eigenvektoren der linearen 0 0 f : R3 → R3 : v 7→ f (v) = 1 2 1 0 Abbildung −2 1 3 bestimmen. Dazu berechnen wir das charakteristische Polynom −x 0 −2 1 = −x3 + 5x2 − 8x + 4 = −(x − 1)(x − 2)2 . pA (x) = det(A − xI3 ) = 1 2 − x 1 0 3 − x Dieses Polynom hat die Nullstellen 1 und 2, d.h. 1 und 2 sind sämtliche Eigenwerte von f . Wir bestimmen nun die Eigenräume von f zu diesen Eigenwerten. Wir beginnen mit dem Eigenraum U1 zum Eigenwert 1. Dazu müssen wir alle Lösungen des homogenen linearen Gleichungssystems 0 x1 −1 0 −2 x1 −1 0 −2 1 2−1 1 x2 = 1 1 1 x2 = 0 0 x3 1 0 2 x3 1 0 3−1 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 33 berechnen. In der Gauss-Form hat obige Matrix die Form −1 0 −2 0 1 −1 , 0 0 0 d.h. der Rang der auftretenden Matrix ist 2 und somit hat die Lösungsmenge die Dimension 3 − 2 = 1. Die Lösungsmenge ist gerade der Eigenraum zum Eigenwert 1: −2 −2 U1 = t 1 | t ∈ R = Lin 1 1 1 Der Eigenraum U2 zum Eigenwert 2 ist der Lösungsraum des homogenen linearen Gleichungssystems −2 0 −2 x1 −2 0 −2 x1 0 1 2−2 1 x2 = 1 0 1 x2 = 0 1 0 3−2 x3 1 0 1 x3 0 berechnen. In der Gauss-Form hat obige Matrix die Form −2 0 −2 0 0 0 , 0 0 0 d.h. der Rang der auftretenden Matrix ist 1 und somit hat die Lösungsmenge die Dimension 3 − 1 = 2. Es ist −1 0 0 −1 U2 = s 0 + t 1 | s, t ∈ R = Lin 0 , 1 . 1 0 1 0 Drückt man die Matrix A der linearen Abbildung f nicht bezgl. der kanonischen Basis B1 = {e1 , e2 , e3 } aus, sondern über die drei Eigenvektoren 0 −1 −2 B2 = 1 , 0 , 1 , 0 1 1 so bekommt die zu f gehörige Matrix A′ die 1 A′ = 0 0 ZHAW Gestalt 0 0 2 0 , 0 2 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN denn es ist −2 −2 f ( 1 ) = 1 1 1 −1 −1 und f ( 0 ) = 2 0 1 1 34 0 0 und f (1) = 2 1 . 0 0 Beispiel 2.5 Wir wollen alle Eigenwerte und Eigenvektoren der linearen Abbildung ( ) −2 −1 2 2 f : R → R : v 7→ f (v) = 5 2 bestimmen. Dazu berechnen wir zuerst das charakteristische Polynom −2 − x −1 = (−2 − x)(2 − x) − 5 · (−1) = x2 + 1. pA (x) = det(A − xI2 ) = 5 2 − x Dieses Polynom hat keine reellen Nullstellen. Also hat die lineare Abbildung über dem Körper R der reellen Zahlen keine Eigenwerte und damit auch keine Eigenvektoren. Das Polynom hat aber die beiden komplexen Nullstellen i, −i ∈ C. Dabei ist i ∈ C die imaginäre Einheit, für die i2 = −1 gilt. Jede komplexe Zahl z ∈ C lässt sich eindeutig darstellen als z = a + bi, a, b ∈ R wobei a der Realteil und b der Imaginärteil von z genannt wird. Man rechnet mit komplexen Zahlen genauso wie mit den reellen Zahlen, wobei man nur i2 = 1 beachten muss. Für z1 = a + bi ∈ C und z2 = c + di ∈ C ist z1 + z2 = (a + bi) + (c + di) = (a + c) + (b + d)i und z1 ·z2 = (a+bi)(c+di) = ac+bci+adi+bdi2 = ac+(bc+ad)i+bd(−1) = (ac−bd)+(bc+ad)i. Satz 2.3 Fundamentalsatz der Algebra. Jedes Polynom p vom Grad n mit Koeffizienten aus C zerfällt über C in n Linearfaktoren: p(x) = (x − c1 )(x − c2 ) . . . (x − cn ). Die komplexen Zahlen c1 , . . . , cn müssen dabei nicht verschieden sein. Alles folgende gilt nur über dem Körper C der komplexen Zahlen. Wir bestimmen wieder die Eigenräume von f zu den Eigenwerten i und −i. Wir beginnen mit dem Eigenraum Ui zum ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 35 Eigenwert i. Dazu müssen wir alle Lösungen des homogenen linearen Gleichungssystems ( )( ) ( ) −2 − i −1 x1 0 = 5 2−i x2 0 berechnen. In der Gauss-Form hat obige Matrix die Form ( ) 1 52 − 15 i . 0 0 Der Rang der auftretenden Matrix ist somt 1, d.h. die Lösungsmenge hat Dimension 2−1 = 1. Dessen Lösungsmenge ist der Eigenraum zum Eigenwert i: { ( ) } {( )} 2−i 2−i Ui = t | t ∈ C = Lin −5 −5 Für den Eigenraum U−i zum Eigenwert −i müssen wir alle Lösungen des homogenen linearen Gleichungssystems ( )( ) ( ) −2 + i −1 x1 0 = 5 2+i x2 0 berechnen. In der Gauss-Form hat obige Matrix die Form ( ) 1 25 + 15 i . 0 0 Der Rang der auftretenden Matrix ist somt 1, d.h. die Lösungsmenge hat Dimension 2−1 = 1. Dessen Lösungsmenge ist der Eigenraum zum Eigenwert i: { ( ) } {( )} 2+i 2+i Ui = t | t ∈ C = Lin −5 −5 Drückt man die Matrix A der linearen Abbildung f nicht bezgl. der kanonischen Basis B1 = {e1 , e2 } aus, sondern über die beiden Eigenvektoren {( ) ( )} 2−i 2+i B2 = , , −5 −5 so bekommt die zu f gehörige Matrix A′ die Gestalt ( ) i 0 ′ A = , 0 −i denn es ist ZHAW ( ) ( ) 2−i 2−i f( )=i −5 −5 und ( ) ( ) 2+i 2+i f( ) = −i . −5 −5 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 36 Satz 2.4 Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung. Dann hat f höchstens n verschiedene Eigenwerte. Beweis Da jeder Eigenwert Nullstelle des charakteristischen Polynoms p von f ist und der Grad von p genau n ist, und p damit höchstens n verschiedene Nullstellen haben kann, folgt sie Aussage des Satzes. □ Satz 2.5 Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V : v 7→ f (v) = Av eine lineare Abbildung mit zugehöriger n × n-Matrix A. Sei pA (x) = det(A − xIn ) = (−1)n xn + cn−1 xn−1 + · · · + c0 das charakteristische Polynom von f . Dann ist (−1)n−1 cn−1 = a11 + a22 + · · · + ann die sog. Spur der Matrix A und c0 = det(A). Beweis Die Formel für cn−1 folgt aus der Summendarstellung (Definition) der Determinante, die Formel für c0 folgt aus c0 = pA (0) = det(A − 0In ) = det(A). □ ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 37 Definition 2.4 Sei f : V → V eine lineare Abbildung mit charakteristischem Polynom p(x) = (x − λ)r q(x), wobei λ keine Nullstelle vom Polynom q ist. Dann heisst rλ := r die algebraische Vielfachheit des Eigenwertes λ. Satz 2.6 Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung. Ist λ ∈ K ein Eigenwert von f . Dann ist die geometrische Vielfachheit gλ von λ kleiner gleich der algebraischen Vielfachheit rλ von λ. Beweis Sei m = gλ die Dimension des Eigenraumes U λ. Wir wählen eine Basis {v1 , . . . , vm } von von Uλ und ergänzen diese zu einer Basis B = {v1 , . . . , vm , vm+1 , . . . , vn } von V . Wegen f (vi ) = λvi für alle 1 ≤ i ≤ m wird die lineare Abbildung bezüglich der Basis B durch die folgende Matrix A dargestellt: λ 0 ··· 0 0 0 λ ··· 0 0 .. .. .. .. . . . . . . . C 0 0 ··· λ 0 0 0 ··· 0 λ , A= 0 0 ··· 0 0 0 0 ··· 0 0 . . . . . . . . . . . . . . . D 0 0 ··· 0 0 0 0 ··· 0 0 wobei die Matrix C genau m Zeilen hat. Damit bekommt das charakteristische Polynom ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 38 p mit Hilfe des Laplaceschen Entwicklungssatz für Determinanten die Form x−λ 0 ··· 0 0 0 x − λ · · · 0 0 .. .. . . .. .. .. . . . C 0 0 ··· x − λ 0 0 0 ··· 0 x−λ = (x−λ)m det(D′ ). p(x) = det(A−xIn ) = 0 ··· 0 0 0 0 0 · · · 0 0 .. .. .. .. .. ′ . . . . . D 0 0 ··· 0 0 0 0 ··· 0 0 Daraus folgt aber m = gλ ≤ rλ . □ Beispiel 2.6 Sei f : R3 → R3 : v 7→ f (v) = Av eine lineare Abbildung, die durch eine Matrix 1 1 0 A = 0 1 1 0 0 1 gegeben ist. Die Eigenwerte von f sind gegeben durch die Nullstellen des charakteristischen Polynoms 1 − x 1 0 1−x 1 = (1 − x)3 . p(x) = det(A − xIn ) = 0 0 0 1 − x Damit ist 1 der einzige Eigenwert von f . Die algebraische Vielfachheit r1 dieses Eigenwertes ist r1 = 3. Wir rechnen nun die geometrische Vielfachheit g1 aus. Die Eigenvektoren zum Eigenwert 1 sind genau die Lösungen des linearen Gleichungssystems 0 x1 0 1 0 x2 = 0 . Bx = (A − 1 · In )x = 0 0 1 0 x3 0 0 0 Die obige Matrix B hat den Rang 2, d.h. g1 = dim U1 = dim Lös((A − 1 · In )x = 0) = 3 − Rang(B) = 3 − 2 = 1. In diesem Beispiel ist also die geometrische Vielfachheit des Eigenwertes 1 kleiner als dessen algebraische Vielfachheit. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 39 Satz 2.7 Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung. Sind λ1 , . . . , λr ∈ K paarweise verschiedene Eigenwerte von f und sind v1 , . . . , vr Eigenvektoren zu diesen Eigenwerten, so sind v1 , . . . , vr linear unabhängig. Beweis Da v1 , . . . , vr Eigenvektoren sind, sind diese vom Nullvektor verschieden. Wir bewiesen den Satz mittels vollständiger Induktion über r. Induktionsanfang: Für r = 1 gilt die Aussage, da v1 ̸= 0 ist. Induktionsschritt: Sei r > 2 und es gelte sie Aussage für r − 1. Wir nehmen an, dass µ1 v1 + µ2 v2 + · · · + µr vr = 0. für µ1 , . . . , µr ∈ K gilt. Multipliziert man diese Gleichung mit λr , so erhält man λr µ1 v1 + λr µ2 v2 + · · · + λr µr vr = 0. Wenden wir auf die erste Gleichung die lineare Abbildung f an, so folgt f (µ1 v1 + · · · + µr vr ) = f (µ1 v1 ) + · · · + f (µr vr ) = λ1 µ1 v1 + · · · + λr µr vr = f (0) = 0. Subtrahiert man diese Gleichung von der mittleren, so folgt µ1 (λr − λ1 )v1 + · · · + µr−1 (λr − λr−1 )vr−1 + µr (λr − λr )vr = 0. Weil der letzte Summand gleich 0 ist, folgt µ1 (λr − λ1 )v1 + · · · + µr−1 (λr − λr−1 )vr−1 = 0. Da nach Induktionsvoraussetzung die Vektoren v1 , . . . , vr−1 linear unabhängig sind, und die Differenzen λr − λi ̸= 0 sind, folgt µ1 = · · · = µr−1 = 0. Wegen vr = ̸ 0 ist dann aber auch µr = 0. Also haben wir nachgewiesen, dass die Vektoren v1 , . . . , vr linear unabhängig sind. □ ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 40 Beispiel 2.7 In der untenstehenden Tabelle findet man nochmal alle Begriffe an Beispielen zusammengefasst. Satz 2.8 Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V : v 7→ Dv eine lineare Abbildung, die von einer Dreiecksmatrix D beschrieben wird. Dann sind die Eigenwerte von f genau die Diagonalelemente d11 , . . . , dnn von D. Beweis Das charakteristische Polynom p von f wird durch Determinante der Dreiecksmatrix D − xIn beschrieben. In deren Diagonale stehen die Komponenten dii − x. Nach Satz 1.9 folgt damit p(x) = det(D − xIn ) = (d11 − x)(d22 − x) . . . (dnn − x). Die Nullstellen dieses Polynoms sind gerade die Diagonalelemente d11 , . . . , dnn . ZHAW □ bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 2.4 41 Diagonalisierung von Matrizen Sei B1 = {a1 , . . . , an } eine Basis eines n-dimensionalen Vektorraums V und f : V −→ V eine lineare Abbildung. Bezüglich der Basis B1 lässt sich die lineare Abbildung f mit einer n × n Matrix A beschreiben. Sei x ∈ V und y = f (x) ∈ V , dann gilt bezüglich Basis B1 n ∑ x= xk ak n ∑ und y = k=1 k=1 x1 = ... y1 = ... Die Vektoren xB1 yk ak . und yB1 yn xn sind die Koordinatenvektoren der Vektoren x und y. Für die Matrix A gilt a11 . . . a1n .. = (f (a ) , . . . , f (a ) ), A = ... 1 B1 n B1 . an1 . . . ann wobei f (ak ) = n ∑ aik ai ⇒ f (ak )B1 i=1 a1k = ... , k = 1, . . . , n. ank Die Matrix A ist auf die Basis B1 bezogen. Nun soll eine neue Basis (b1 , . . . , bn ) in V gefunden werden, so dass die Matrix D der linearen Abbildung bezüglich der neuen Basis B2 die Form λ1 0 . . . 0 0 λ2 0 . . . 0 . . . . . 0 . D= 0 .. . 0 0 ... 0 λn hat. Es gilt D = (f (b1 )B2 , . . . , f (bn )B2 ) 0 .. . = λk . .. . 0 mit f (bk )B2 Daraus folgt f (bk ) = 0 · b1 + . . . + 0 · bk−1 + λk bk + 0 · bk+1 + . . . + 0 · bn = λk bk . ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 42 Also ist bk ein Eigenvektor der linearen Abbildung f zum Eigenwert λk . Die Basis B2 besteht also aus Eigenvektoren. Beispiel 2.8 Wir bestimmen die Eigenwerte der linearen B1 = {a1 , a2 , a3 }. Die Matrix A sei 0 A = 1 0 Abbildung f : V −→ V bezüglich der Basis 0 −2 2 1 . 0 3 Wir lösen die charakteristische Gleichung −λ 0 −2 1 = (−λ)(2 − λ)(3 − λ). 0 = det(A − λI) = 1 2 − λ 0 0 3 − λ Die Lösungen und somit die Eigenwerte sind λ1 = 0, λ2 = 2, λ2 = 3. Die Diagonalmatrix D kann man somit sofort angeben: 0 0 0 D = 0 2 0 . 0 0 3 Als nächstes bestimmen wir die Eigenvektoren. Die Bestimmungsgleichung dafür ist (A − λI)xB1 = 0. Für λ1 = 0 gilt: (A − λ1 I)xB1 ⇔ x 0 1 0 0 0 −2 x 0 y = 0 . = 1 2 1 0 0 3 z 0 y z 0 −2 0 2 1 0 0 3 0 ⇔ x 1 0 0 y 2 0 0 z 0 0 1 0 0 0 Die Lösungen sind x = −2y, y ∈ R, z = 0. Der Eigenraum zu λ1 = 0 ist xB1 Mit y = 1 erhalten wir den Eigenvektor: −2 b1B1 = 1 0 ZHAW ⇔ −2 = y 1 . 0 b1 = −2a1 + a2 . bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN Für λ2 = 2 folgt 43 (A − λ2 I)xB1 ⇔ x −2 1 0 −2 0 −2 x 0 1 0 1 y = 0 . = 0 0 1 z 0 y z 0 −2 0 0 1 0 0 1 0 ⇔ x 1 0 0 y 0 0 0 z 0 0 1 0 0 0 Die Lösungen sind x = 0, y ∈ R, z = 0. Der Eigenraum zu λ2 = 2 ist xB1 0 = y 1. Mit 0 y = 1 erhalten wir den Eigenvektor: b2B1 Für λ3 = 3 folgt 0 = 1 0 ⇔ b2 = a2 . (A − λ2 I)xB1 ⇔ −3 0 −2 x 0 = 1 −1 1 y = 0 . 0 0 0 z 0 x y z −3 0 −2 0 1 −1 1 0 0 0 0 0 ⇔ x 1 0 0 y z 2 0 3 0 1 − 13 0 0 0 0 Die Lösungen sind x = − 23 z, y = 13 z, z ∈ R. Der Eigenraum zu λ3 = 3 ist xB1 −2 = 31 z 1 . 3 Mit z = 3 erhalten wir zahlenmässig einen einfachsten Eigenvektor: −2 b3B1 = 1 ⇔ b3 = −2a1 + a2 + 3a3 . 3 Die Matrix S hat als Spaltenvektoren die Koordinaten der Eigenvektoren b1B1 , b2B1 , b3B1 . Die Matrizen S und T = S −1 lauten somit: −3 0 −2 −2 0 −2 1 S = (b1B1 , b2B1 , b3B1 ) = 1 1 1 , T = 3 6 0 . 6 0 0 2 0 0 3 Zur Probe muss D = T AS gelten: 0 0 0 −2 0 −2 0 0 −2 −3 0 −2 1 3 6 0 1 2 1 1 1 1 = 0 2 0 6 0 0 3 0 0 3 0 0 3 0 0 2 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 2.5 44 Iterative Berechnung von Eigenwerten und Eigenvektoren Die Eigenwerte einer Matrix A können mit Hilfe des charakteristischen Polynoms p(x) = det(A − xIn ) berechnet werden. Man berechnet dazu die Nullstellen des charakteristischen Polynoms. Auf dieser Basis arbeitende Algorithmen werden als direkte Verfahren bezeichnet. Für die numerische Lösung realistischer Eigenwertprobleme (für Dimension n > 10) ist der obige Ansatz nicht gut geeignet. Dieses Vorgehen verursacht selbst bei raffinierter Implementierung einen erheblichen Rechenaufwand. Das Hauptproblem liegt aber darin, dass die Polynomnullstellen ausserordentlich empfindlich gegenüber Störungen der Polynomkoeffizienten sein können. In diesem Abschnitt beschreiben wir ein Verfahren, wie sich Eigenwerte und Eigenvektoren numerisch berechnen lassen. Ziel dabei ist es, einen oder mehrere Eigenvektoren einer Matrix A und die dazu gehörigen Eigenwerte mit möglichst geringem Rechenaufwand zu approximieren. Definition 2.5 Für eine komplexe Zahl z = a + ib mit a, b ∈ R heisst die reelle Zahl |z| = √ (a2 + b2 ) der Betrag von z. Wir brauchen nun ein Mass für die Länge eines Vektors. Die Länge eines Vektors wird auch als Norm bezeichnet. Definition 2.6 Für einen Vektor v = (v1 , . . . , vn )T ∈ Rn , Cn heisst die reelle Zahl v u n u∑ |vi |2 ∥v∥ = t i=1 die Norm von v. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 45 Bemerkung Für K = Rn , Cn , v = (v1 , . . . , vn )T ∈ Kn und λ ∈ K ist ∥λv∥ = |λ|∥v∥. Nun sind wir in der Lage, ein erstes iteratives Verfahren zum Berechnen von Eigenwerten und Eigenvektoren anzugeben. Satz 2.9 Potenzmethode nach von Mises. Sei A eine n × n-Matrix über dem Körper K = R oder K = C. Die Matrix A besitze die komplexen Eigenwerte λ1 , . . . , λn ∈ C mit |λ1 | > |λ2 | ≥ |λ3 | ≥ · · · ≥ |λn | und den zugehörigen Eigenvektoren w1 , . . . , wn ∈ Cn . Sei v = µ1 w1 + µ2 w2 + · · · + µn wn ∈ Kn ein Vektor mit µ1 ̸= 0. Setze v (0) := v und v (k+1) := Av (k) = Ak+1 v für alle k ∈ N. Dann konvergiert die Folge ∥v (k+1) ∥ ,k ∈ N ∥v (k) ∥ gegen |λ1 |. Man verwendet für diesen Sachverhalt die Schreibweise ∥v (k+1) ∥ = |λ1 |. k→∞ ∥v (k) ∥ lim Zudem gilt w1 v (k) =± . (k) k→∞ ∥v ∥w1 ∥ ∥ lim Bemerkung Die Eigenwerte λ1 , . . . , λn ∈ C ebenso wie die Vektoren w1 , . . . , wn ∈ Cn müssen nicht unbedingt paarweise verschieden sein. Beweis Es ist für alle 1 ≤ i ≤ n Awi = λi wi und für alle k ∈ N Ak wi = Ak−1 (Awi ) = Ak−1 (λi wi ) = λi Ak−1 wi . ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 46 Daraus folgt Ak wi = λki wi und wir bekommen in der Summe v (k+1) = Av (k) = Ak+1 v = Ak+1 (µ1 w1 + µ2 w2 + · · · + µn wn ) = µ1 Ak+1 w1 + µ2 Ak+1 w2 + · · · + µn Ak+1 wn k+1 k+1 = µ1 λk+1 1 w1 + µ2 λ2 w2 + · · · + µn λn wn ( ( )k+1 ( )k+1 ) λ λn 2 = λk+1 µ1 w1 + µ2 w2 + · · · + µ n wn . 1 λ1 λ1 Wegen |λ1 | > |λ2 | ≥ |λ3 | ≥ · · · ≥ |λn | folgt für 2 ≤ i ≤ n ( lim k→∞ λi λ1 ) =0 und somit ∥v (k+1) ∥ ∥λk1 µ1 w1 ∥ |λk1 |∥µ1 w1 ∥ |λ1 |k = lim = lim = lim = lim |λ1 | = |λ1 |. k→∞ ∥v (k) ∥ k→∞ ∥λk−1 µ1 w1 ∥ k→∞ |λk−1 |∥µ1 w1 ∥ k→∞ |λ1 |k−1 k→∞ 1 1 lim □ Beispiel 2.9 Es soll mit Hilfe der Potenzmethode der betragsgrösste Eigenvektor und sein Eigenwert berechnet werden für die Matrix ( ) −2 2 A= . 2 −5 Berechnen wir die Eigenwerte direkt, so erhalten wir das charakteristische Polynom −2 − x 2 = x2 + 7x + 6 = (x + 1)(x + 6). p(x) = det(A − xI2 ) = 2 −5 − x Damit sind λ1 = −1 und λ2 = −6 die Eigenwerte von A. Für den Eigenwert λ2 berechnen wir den Eigenraum U2 durch Lösen des linearen Gleichungssystems ( )( ) ( )( ) ( ) −2 + 6 2 x1 −4 2 x1 0 = = 2 −5 + 6 x2 2 −1 x2 0 Die Lösungsmenge dieses Systems ist gerade der Eigenraum U2 und via Gauss-Elimination erhalten wir (( )) 1 U2 = Lin . −2 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 47 Nun wollen wir den betragsmässig grössten Eigenwert λ2 von A mit der Potenzmethode iterativ berechnen. Dazu starten wir mit dem Vektor ( ) 1 (0) v = . −1 Dann erhalten wir iterativ: 2.6 ) 1 −1 ) ( −0.4961 , ( 0.8682 ) −0.4555 , ( 0.8902 ) −0.4486 , ( 0.8937 ) −0.4474 , ( 0.8943 ) −0.4473 , 0.8944 √ v (0) ∥v (0) ∥ = v (1) ∥v (1) ∥ = v (2) ∥v (2) ∥ = v (3) ∥v (3) ∥ = v (4) ∥v (4) ∥ = v (5) ∥v (5) ∥ = ( 2 2 ∥v (1) ∥ ∥v (0) ∥ = 5.9846 ∥v (2) ∥ ∥v (1) ∥ = 5.9996 ∥v (3) ∥ ∥v (2) ∥ = 6.0000 ∥v (4) ∥ ∥v (3) ∥ = 6.0000 ∥v (5) ∥ ∥v (4) ∥ = 6.0000 Effiziente Berechnung des Page-Rankings Die Potenzmethode von Mises wird zur effektiven Berechnung des Page-Ranks bei Google eingesetzt, weil die direkten Methoden bei vielen Millionen Webseiten zu viel Rechenzeit benötigen. Da die Potenzmethode von Mises aber immer nur einen Eigenvektor zum betragsmässig grössten Eigenwert liefert und der Page-Rank ein Eigenvektor zum Eigenwert 1 ist, müssen wir wissen, dass alle weiteren Eigenwerte der Page-Rank-Gleichung betragsmässig kleiner als 1 sind. Nur dies sichert, dass die Potenzmethode auch den Page-Rank liefert. Das Nachprüfen dieses Sachverhaltes werden wir in zwei Schritten einteilen. Wir definieren die 1-Norm eines Vektors v ∈ Rn als ∥v∥1 := |v1 | + |v2 | + · · · + |vn |. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 48 Damit können wir den ersten Schritt formulieren. Satz 2.10 Sei M eine positive spalten-stochastische Matrix (siehe Manuskript Lineare Algebra I, Abschnitte 2.7. und 3.6). Sei U := {u ∈ Rn | u1 + u2 + · · · + nn = 0}. Dann ist für alle v ∈ Rn Mv ∈ U und für alle v ∈ Rn gilt die Ungleichung ∥M v∥1 ≤ c∥v∥1 mit einem reellen Faktor c < 1. Beweis Sei M = (mij ), v = (v1 , . . . , vn )T ∈ Rn und w = (w1 , . . . , wn )T = M v. Dann ist wi = n ∑ mij vj j=1 und n ∑ wi = i=1 n n ∑ ∑ mij vj = i=1 j=1 n ∑ vj i=1 n ∑ mij = j=1 n ∑ vj = 0, i=1 also M v ∈ U . Um die Ungleichung zu beweisen, verwenden wir ) ( n n n n n n ∑ ∑ ∑ ∑ ∑ ∑ mij vj = vj sign(wi )mij . ∥w∥1 = |wi | = sign(wi )wi = sign(wi ) i=1 i=1 j=1 i=1 Wir definieren als Abkürzung aj = n ∑ j=1 i=1 sign(wi )mij . i=1 Dann wird aus der obigen Gleichung: ∥w∥1 = n ∑ aj vj . j=1 Wegen n ∑ mij = 1 i=1 bekommen wir 1 + aj = n ∑ i=1 ZHAW mij + n ∑ i=1 sign(wi )mij = n ∑ (1 + sign(wi ))mij . i=1 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 49 Wegen 1 + sign(wi ) ≥ 0 und mij > 0 und da aufgrund w ∈ U der Vektor w Komponenten mit unterschiedlichen Vorzeichen haben muss, gilt 1 + aj = n ∑ (1 + sign(wi ))mij ≥ i=1 n ∑ (1 + sign(wi )) min mij ≥ 2 min mij . 1≤i≤n i=1 1≤i≤n Analog gilt 1 − aj = n ∑ (1 − sign(wi ))mij ≤ i=1 n ∑ (1 − sign(wi )) min mij ≤ 2 min mij . 1≤i≤n i=1 1≤i≤n Somit haben wir insgesamt −1 < −1 + 2 min mij ≤ aj ≤ 1 − 2 min mij < 1. 1≤i≤n 1≤i≤n Setze wir nun c := |1 − 2 min1≤i≤n mij |, so gilt |aj | ≤ c < 1 und wir erhalten die gesuchte Ungleichung n n n n ∑ ∑ ∑ ∑ ∥w∥1 = a j vj = aj vj ≤ |aj ||vj | ≤ c |vj | = c∥v∥1 . j=1 j=1 j=1 j=1 Im zweiten Schritt zeigen wir jetzt, dass die Potenzmethode von Mises auf das Page-RankProblem anwendbar ist, weil die Page-Rank-Matrix M eine positive spalten-stochastische Matrix ist. Satz 2.11 Jede positive spalten-stochastische Matrix M hat einen eindeutig bestimmten Vektor p mit positiven Komponenten und ∥p∥1 = 1, so dass Mp = p ist. Der Vektor p lässt sich dabei durch die Potenzmethode von Mises berechnen, wobei jeder Startvektor p0 mit positiven Komponenten und ∥p0 ∥1 = 1 zugelassen ist. Beweis Nach Satz 3.14 (Lineare Algebra 1) ist der Eigenraum E1 von M zum Eigenwert 1 höchstens eindimensional. Wegen Rang(M − In ) < n folgt dim E1 ≥ 1, also ingesamt dim E1 = 1. Nach Satz 3.12 (Lineare Algebra 1) hat jeder Vektor in E1 entweder lauter positive oder lauter negative Komponenten. Damit gibt es genau einen Vektor p mit lauter positiven Komponenten und ∥p∥1 = 1. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 50 Sei nun p0 ∈ Rn ein beliebiger Vektor mit lauter positiven Komponenten und ∥p0 ∥1 = 1. Setzen wir v := p0 − p, so muss die Summe der Komponenten von v Null ergeben, d.h. es ist v ∈ U , wobei U wie in Satz 2.10 definiert ist. Damit haben wir M k p0 = M k (p + v) = M k p + M k v = p + M k v bzw. M k p0 − p = M k v. Nach Satz 2.10 folgt ∥M k v∥1 = ck ∥v∥1 für ein c ∈ R mit 0 < c < 1 und wir erhalten somit lim ∥M k v∥1 = lim ck ∥v∥1 = ∥v∥1 lim ck = 0. k→∞ k→∞ k→∞ Also ist lim M k p0 = p. k→∞ Beispiel 2.10 Wir wollen den Page-Rank der Web-Site 1 3 5 4 2 mit Hilfe der Potenzmethode berechnen. Für die modifizierte PageRank-Matrix (LIneare Algebra I, Abschnitt 3.6) M = (1 − ρ)P + ρS ergibt sich für ρ = 0.15 0.03 0.88 M = 0.03 0.03 0.03 ZHAW 0.88 0.03 0.03 0.03 0.03 0.03 0.03 0.03 0.88 0.03 0.03 0.03 0.03 0.03 0.88 0.455 0.03 0.455 0.03 0.03 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN 51 Berechnet man die Lösung der Gleichung M x = x mit dem Gauss-Algorithmus exakt und wählt einen Lösungsvektor p mit lauter positiven Einträgen und ∥p∥1 = 1, so erhält man 0.2 0.2 p= 0.285 0.285 0.03 Wendet man die Potenzmethode auf den Startvektor 0.1 0.1 p0 = 0.1 0.1 0.6 an, so erhalten wir schrittweise die Näherungslösungen 0.1150 0.1278 0.1150 0.1278 1 2 , 0.3573 M p0 = 0.3700 , M p0 = 0.3700 0.3573 0.0300 0.0300 0.1803 0.1803 10 M p0 = 0.3047 , 0.3047 0.0300 0.1961 0.1961 20 M p0 = 0.2889 , 0.2889 0.0300 0.1386 0.1386 3 0.3464 M p0 = 0.3464 0.0300 0.2000 0.2000 50 M p0 = 0.2850 0.2850 0.0300 Damit ist man nach 50 Iterationen auf vier Stellen genau. ZHAW bodr, 28. April 2014 LA2Manuskript.tex Kapitel 3 Vektorräume mit Skalarprodukt 3.1 Motivation In diesem Kapitel wird in reellen und komplexen Vektorräumen eine zusätzliche Struktur definiert, die die Einführung einer Massbestimmung (Metrik) gestattet. Sie ermöglicht es, die Länge eines Vektors und den Winkel zwischen zwei Vektoren zu definieren. Diese zusätzliche Struktur wird durch das skalare Produkt bestimmt und zu dem Begriff des euklidischen bzw. unitären Vektorraums führt. Skalare Produkte können in reellen und komplexen Vektorräumen auf mannigfache Art definiert werden und führen zu verschiedenen Massbestimmungen. Die Begriffe Länge und Winkel erweisen sich also als Relativbegriffe, die von der Wahl des skalaren Produkts abhängen. Wesentlich ist besonders der Begriff der Orthogonalität. Aus der Schule ist bekannt, dass zwei Geraden g1 und g2 in der Ebene R2 , die durch lineare Funktionen f1 (x) = m1 x und f2 (x) = m2 x beschrieben werden, genau dann senkrecht aufeinander stehen, wenn m1 · m2 = −1 gilt. Die beiden Geraden lassen sich durch lineare Hüllen geeigneter Vektoren beschreiben: (( )) (( )) u1 u2 g1 = Lin und g2 = Lin v1 v2 Ist u1 , u2 ̸= 0, so gilt v1 v2 = m1 und = m2 . u1 u2 Die Gleichung m1 · m2 = −1 ist damit gleichbedeutend mit v1 v2 = −1 u1 u2 oder u1 u2 + v1 v2 = 0. 52 KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 53 Die Summe u1 u2 + v1 v2 scheint also etwas mit dem ”Winkel” zwischen den beiden Geraden g1 und g2 zu tun zu haben. Wir werden sehen, dass diese Summe das euklidische Skalarprodukt zwischen den beiden Vektoren (u1 , v1 )T und (u2 , v2 )T ist. Ein Skalarprodukt kann man also als Abbildung ansehen, die zwei Vektoren ein Körperelement zuweist. Dies führt auf die Definition einer Bilinearform. 3.2 Definitionen Definition 3.1 Sei V ein Vektorraum über einem Körper K. Eine Abbildung β : V × V → K : (u, v) 7→ β(u, v), die jedem Paar (u, v) von Vektoren aus V ein Körperelement β(u, v) zuordnet heisst eine Bilinearform, wenn folgende Bedingungen gelten: • Additivität 1: Für alle u, v, w ∈ V ist β(u + v, w) = β(u, w) + β(v, w) • Additivität 2: Für alle u, v, w ∈ V ist β(u, v + w) = β(u, v) + β(u, w) • Invarianz bzgl. Skalarmultiplikation: Für alle u, v ∈ V und λ ∈ K ist β(λu, v) = β(u, λv) = λβ(u, v) Bemerkung Für eine Bilinearform β : V × V → K und u, v, w, x ∈ V und λ, µ ∈ K gilt also: β(λ(u + v), µ(w + x)) = λµβ(u + v, w + x) = λµ(β(u, w) + β(u, x) + β(v, w) + β(v, x)) Da unsere Winkelmessung später nicht von der Reihenfolge der Vektoren abhängen soll, wollen wir nur solche Bilinearformen β zulassen, die symmetrisch sind, für die also β(u, v) = β(v, u) gilt. Dies führt auf den Begriff des Skalarprodukt. Bitte beachten Sie bitte, dass wegen der zweiten Bedingung, die für die Längenmessung von Vektoren wichtig ist, der Körper ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 54 K immer die reellen Zahlen R sind. Definition 3.2 Sei V ein Vektorraum über den reellen Zahlen R. Eine Bilinearform β : V × V → R : (u, v) 7→ β(u, v), von V heisst Skalarprodukt, wenn sie folgende Eigenschaften besitzt: • Symmetrie: Für alle u, v ∈ V ist β(u, v) = β(v, u) • Positivität: Für alle u ∈ V, u ̸= 0 ist β(u, u) > 0 Folgerung Wegen β(0, y) = β(0 · 0, y) = 0 · β(0, y) = 0 folgt β(0, 0) = 0. Wegen (b) folgt β(x, x) = 0 Für jeden Vektor x ∈ V gilt daher ⇒ x = 0. β(x, x) ≥ 0. Für ein skalares Produkt β(x, y) von V schreiben wir in Zukunft ⟨x, y⟩ = β(x, y) Beispiel 3.1 Sei B = {v1 , . . . , vn } eine Basis eines Vektorraums V . Bezüglich dieser Basis lassen sich beliebige Vektoren x, y ∈ V als Linearkombinationen ausdrücken: x= n ∑ xk vk , y= k=1 n ∑ yk v k . k=1 Somit kann man umkehrbar eindeutig den Vektoren x, y die Koordinatenvektoren x1 y1 .. .. xB = . , yB = . xn yn zuordnen. Durch ⟨x, y⟩ = n ∑ xk yk k=1 wird ein Skalarprodukt definiert, welches das kanonische Skalarprodukt genannt wird. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 55 Beispiel 3.2 Sei V = R2 . ( ) ( ) x1 y1 Seien x = und y = Vektoren aus R2 , dann wird mit x2 y2 ⟨x, y⟩ = 3x1 y1 + 2x2 y2 ein Skalarprodukt definiert. Es erfüllt die Symmetrie: ⟨x, y⟩ = 3x1 y1 + 2x2 y2 = 3y1 x1 + 2y2 x2 = ⟨y, x⟩. Weiter gilt: ⟨x + y, z⟩ = 3(x1 + y1 )z1 + 2(x2 + y2 )z2 = (3x1 z1 + 2x2 z2 ) + (3y1 z1 + 2y2 z2 ) = ⟨x, z⟩ + ⟨y, z⟩. Mit der Symmetrie ist es auch im zweiten Argument linear. Ferner gilt für λ ∈ R: ⟨λx, y⟩ = 3(λx1 )y1 + 2(λx2 )y2 = λ(3x1 y1 + 2x2 y2 ) = λ⟨x, y⟩. Schliesslich ist ⟨x, x⟩ = 3x21 + 2x22 , so dass offenbar ⟨x, x⟩ ≥ 0 gilt. Ferner ist ⟨x, x⟩ = 0, wenn x1 = x2 = 0 und damit x = 0 gilt. Beispiel 3.3 Es seien a und b zwei reelle Zahlen mit a < b, und V sei der Vektorraum aller auf dem Intervall [a, b] definierten und stetigen reellen Funktionen. Setzt man für je zwei Funktionen f, g ∈ V ∫b ⟨f, g⟩ = f (t)g(t)dt, a so wird ein Skalarprodukt definiert. a) Symmetrie ∫b ⟨f, g⟩ = ∫b g(t)f (t)dt = ⟨g, f ⟩. f (t)g(t)dt = a a b) Bilinearität ∫b ∫b ∫b ⟨f + g, h⟩ = [f (t) + g(t)]h(t)dt = f (t)h(t)dt + g(t)h(t)dt = ⟨f, h⟩ + ⟨g, h⟩. a ZHAW a a bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 56 Analog im zweiten Argument. Ferner ist für λ ∈ R: ∫b ⟨λf, g⟩ = ∫b λf (t)g(t)dt = λ a f (t)g(t)dt = λ⟨f, g⟩. a c) Positive Definitheit. Für f ̸= 0 gilt ∫b ⟨f, f ⟩ = f 2 (t)dt > 0. a Definition 3.3 Ein Vektorraum V über dem Körper R, in dem zusätzlich ein skalares Produkt ⟨x, y⟩ ausgezeichnet ist, wird ein euklidischer Vektorraum genannt. Wir wollen nun den Begriff des Skalarproduktes auf komplexe Vektorräume ausdehnen. Dazu brauchen wir den Begriff der konjugiert komplexen Zahl. Jede komplexe Zahl z ∈ C lässt sich darstellen als Summe z = a + ib mit a, b ∈ R, dem Realteil a und dem Imaginärteil b. Zu dieser Zahl z definieren wir die zu z konjugierte Zahl z als z = a − ib. Das Produkt zz ist dabei stets eine reelle, nicht-negative Zahl: zz = (a + ib)(a − ib) = a2 + iab − iab − i2 b2 = a2 + b2 . ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 57 Definition 3.4 Sei V ein Vektorraum über den komplexen Zahlen C. Eine Abbildung β : V × V → C : (u, v) 7→ β(u, v), von V heisst hermitesche Form, wenn sie folgende Eigenschaften besitzt: • Additivität 1: Für alle u, v, w ∈ V ist β(u + v, w) = β(u, w) + β(v, w) • Additivität 2: Für alle u, v, w ∈ V ist β(u, v + w) = β(u, v) + β(u, w) • Invarianz bzgl. Skalarmultiplikation: Für alle u, v ∈ V und λ ∈ C ist β(λu, v) = λβ(u, v) • Konjugiertheit der Skalarmultiplikation: Für alle u, v ∈ V und λ ∈ C ist β(u, λv) = λβ(u, v) • Symmetrie: Für alle u, v ∈ V ist β(u, v) = β(v, u) • Positivität: Für alle u ∈ V, u ̸= 0 ist β(u, u) > 0 Definition 3.5 Ein Vektorraum V über dem Körper C, in dem zusätzlich eine hermitesche Form ⟨x, y⟩ ausgezeichnet ist, wird ein unitärer Vektorraum genannt. Beispiel 3.4 Sei B = {v1 , . . . , vn } eine Basis eines komplexen Vektorraums V . Bezüglich dieser Basis lassen sich beliebige Vektoren x, y ∈ V als Linearkombinationen ausdrücken: x= n ∑ xk vk , y= k=1 n ∑ yk v k . k=1 Somit kann man umkehrbar eindeutig den Vektoren x, y die Koordinatenvektoren x1 y1 .. .. xB = . , yB = . xn yn zuordnen. Durch ⟨x, y⟩ = n ∑ xk yk k=1 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 58 wird eine hermitesche Form definiert, welches die kanonische hermitesche Form genannt wird. Man vergleiche dieses Beispiel mit Beispiel 3.1. Der einzige Unterschied ist die konjugiert komplexe Zahl am Ende der letzten Formel. 3.3 Norm und Orthogonalität In diesem Paragraphen ist V stets ein euklidischer oder unitärer Vektorraum. Das skalare Produkt zweier Vektoren u, v ∈ V wird wieder mit ⟨u, v⟩ bezeichnet. Definition 3.6 Sei V ein euklidischer oder unitärer Vektorraum. Für jeden Vektor v ∈ V gilt ⟨v, v⟩ ≥ 0. Daher ist √ ∥v∥ = ⟨v, v⟩. eine nicht-negative reelle Zahl, die man die Norm oder Länge des Vektors v nennt. Satz 3.1 Sei V ein euklidischer oder unitärer Vektorraum. Dann gilt die Schwarzsche Ungleichung: |⟨u, v⟩|2 ≤ ⟨u, u⟩⟨v, v⟩ = ∥u∥2 ∥v∥2 . Beweis Für u = 0 oder v = 0 folgt ⟨u, v⟩ = 0 und ⟨u, u⟩ = 0 oder ⟨v, v⟩ = 0. Somit gilt in diesen Fall die Gleichheit. Sei also u ̸= 0 und v ̸= 0 .Dann folgt ⟨u, u⟩ > 0 und ⟨v, v⟩ > 0. Für einen beliebigen Skalar λ folgt 0 ≤ ⟨u − λv, u − λv⟩ = ⟨u, u⟩ − λ⟨u, v⟩ − λ⟨v, u⟩ + λλ⟨v, v⟩. Setzen wir λ= ⟨u, v⟩ , ⟨v, v⟩ also λ = ⟨u, v⟩ ⟨v, v⟩ in der obigen Gleichung ein, so erhält man ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 0 ≤ ⟨u − λv, u − λv⟩ = ⟨u, u⟩ − = ⟨u, u⟩ − 59 ⟨u, v⟩⟨u, v⟩ ⟨u, v⟩⟨v, u⟩ ⟨u, v⟩⟨u, v⟩ − + ⟨v, v⟩ ⟨v, v⟩ ⟨v, v⟩ ⟨u, v⟩⟨v, u⟩ ⟨u, v⟩⟨u, v⟩ = ⟨u, u⟩ − . ⟨v, v⟩ ⟨v, v⟩ Durch Multiplikation mit ⟨v, v⟩ folgt 0 ≤ ⟨u, u⟩⟨v, v⟩ − ⟨u, v⟩⟨u, v⟩ ⇔ ⟨u, v⟩⟨u, v⟩ = |⟨u, v⟩|2 ≤ ⟨u, u⟩⟨v, v⟩. □ und daraus die Behauptung. Satz 3.2 Die Norm eines Vektors v ∈ V hat folgende Eigenschaften. 1. ∥v∥ ≥ 0. 2. ∥v∥ = 0 ⇔ v=0 3. ∥λv∥ = |λ| · ∥v∥ 4. Dreiecksungleichung: Für alle u, v ∈ V : ∥u + v∥ ≤ ∥u∥ + ∥v∥ Beweis 1. Gilt nach Definition der Norm. 2. Wegen ⟨v, v⟩ = 0 ⇔ v = 0 folgt ∥v∥ = 3. ∥λv∥ = √ ⟨λv, λv⟩ = √ √ λλ⟨v, v⟩ = ⟨v, v⟩ = 0 ⇔ v = 0. √ √ λλ ⟨v, v⟩ = |λ|∥v∥. 4. Es gilt ∥u + v∥2 = ⟨u + v, u + v⟩ = ⟨u, u⟩ + ⟨u, v⟩ + ⟨v, u⟩ + ⟨v, v⟩ = ⟨u, u⟩ + ⟨u, v⟩ + ⟨u, v⟩ + ⟨v, v⟩ = ∥u∥2 + 2Re(⟨u, v⟩) + ∥v∥2 . Für eine komplexe Zahl z = a + ib gilt: Re(z) = a ≤ |a| = √ √ a2 ≤ a2 + b2 = |z|. Somit Re(⟨u, v⟩) ≤ |⟨u, v⟩|. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 60 Aus der Schwarzschen Ungleichung |⟨u, v⟩|2 ≤ ∥u∥2 ∥v∥2 folgt durch Wurzelziehen |⟨u, v⟩| ≤ ∥u∥∥v∥. Somit ∥u + v∥2 = ∥u∥2 + 2Re(⟨u, v⟩) + ∥v∥2 ≤ ∥u∥2 + 2∥u∥∥v∥ + ∥v∥2 = (∥u∥ + ∥v∥)2 . Daraus folgt die Dreiecksungleichung ∥u + v∥ ≤ ∥u∥ + ∥v∥. □ Definition 3.7 Ein Vektor v ∈ V heisst normiert, wenn ∥v∥ = 1 gilt. Bemerkung Ist v ∈ V vom Nullvektor verschieden, so ist 1 ∥v∥ v 1 1 ∥ ∥v∥ v∥ = | ∥v∥ |∥v∥ = ein normierter Vektor, denn es gilt 1 ∥v∥ ∥v∥ = 1. Definition 3.8 Für zwei vom Nullvektor verschiedene Vektoren u, v ∈ V definiert man den Kosinus des Winkels φ zwischen diesen Vektoren durch cos(φ) = ⟨u, v⟩ . ∥u∥ · ∥v∥ Definition 3.9 Zwei vom Nullvektor verschiedene Vektoren u und v eines euklidischen bzw. unitären Vektorraums V heissen orthogonal, wenn gilt: ⟨u, v⟩ = 0. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 3.4 61 Koordinaten bezüglich einer Orthonormalbasis Definition 3.10 Sei V ein euklidischer oder unitärer Vektorraum. Eine Basis B = (b1 , . . . , bn ) heisst Orthogonalbasis von V , wenn für alle i, j ∈ {1, . . . , n} gilt ⟨bi , bj ⟩ = 0 Eine Orthogonalbasis B = (b1 , . . . , bn ) heisst Orthonormalbasis von V , wenn für alle i ∈ {1, . . . , n} gilt ||bi || = 1. Satz 3.3 Es sei B = {b1 , . . . , bn } eine Orthonormalbasis von V . Sind dann u1 , . . . , un bzw. v1 , . . . , vn die Koordinaten der Vektoren u und v bezüglich dieser Basis, so gilt ⟨u, v⟩ = n ∑ uk vk k=1 und für die Koordinaten selbst uk = ⟨u, bk ⟩ für k = 1, . . . , n, d.h. es ist u= n ∑ uk bk = n ∑ ⟨u, bk ⟩bk . k=1 k=1 Beweis Für die Orthonormalbasis B = {b1 , . . . , bn } von V gilt: { ⟨bi , bj ⟩ = δij = 1 falls i = j 0 falls i ̸= j Hierdurch erhält man ⟨u, v⟩ = n ⟨∑ ui bi , i=1 und ⟨u, bk ⟩ = n ⟨∑ i=1 ZHAW n ∑ ⟩ vj bj = j=1 n ∑ ui vj ⟨bi , bj ⟩ = i,j=1 n ∑ uk vk k=1 n n ⟩ ∑ ∑ ui bi , bk = ui ⟨bi , bk ⟩ = ui δik = uk . i=1 i=1 □ bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT Beispiel 3.5 Die Vektoren 1 0 e1 = 0 , .. . 0 1 e2 = 0 , .. . 0 ... 0 62 0 0 en = ... 0 1 bilden eine Orthonormalbasis des Rn . Beispiel 3.6 Sei P2 der Vektorraum der Polynome vom Grad zwei. Seien p, q ∈ P2 . Wir definieren ein Skalarprodukt in P2 : ∫1 ⟨p, q⟩ = p(x)q(x)dx. −1 Die Polynome √ √ 2 2 , p0 (x) = p1 (x) = 3 2 x, √ p2 (x) = 2 5 8 (3x − 1) bilden eine Orthonormalbasis für P2 . Denn ∫1 ⟨p0 , p0 ⟩ = 1 2 dx = 1, ⟨p0 , p1 ⟩ = √ −1 x2 dx = 1, ⟨p1 , p2 ⟩ = 3 2 xdx = 0, ⟨p0 , p2 ⟩ = √ 5 4 −1 ∫1 ⟨p1 , p1 ⟩ = ∫1 3 2 √ −1 ∫1 15 4 −1 ∫1 (3x2 − 1)dx = 0 ∫1 2 5 x(3x − 1)dx = 0, ⟨p2 , p2 ⟩ = 8 (3x2 − 1)2 dx = 1. −1 −1 Sei p(x) = 3x2 − 4x + 1 ∈ P2 , dann gilt nach Satz 3.3: ∫1 x0 = ⟨p(x), p0 ⟩ = ∫1 √ p(x)p0 (x)dx = 22 (3x3 − 4x + 1)dx = 2 2 √ −1 ∫1 x1 = ⟨p(x), p1 ⟩ = −1 √ ∫1 √ p(x)p1 (x)dx = 32 (3x3 − 4x + 1)xdx = − 4 3 6 . −1 ∫1 x2 = ⟨p(x), p2 ⟩ = −1 √ ∫1 √ p(x)p2 (x)dx = 58 (3x3 − 4x + 1)(3x2 − 1)dx = 2 510 . −1 −1 Somit p(x) = x0 p0 (x)+x1 p1 (x)+x2 p2 (x) ZHAW ⇔ √ √ √ √ √ √ 3x2 −4x+1 = 2 2 22 − 4 3 6 32 x+2 510 58 (3x2 −1). bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 63 Aus einer Orthogonalbasis B = {b1 , . . . , bn } erhalten wir durch Normalisieren eine Orthonormalbasis B ′ eines Vektorraums V : { b bn } 1 B′ = ,..., . ∥b1 ∥ ∥bn ∥ Mit Satz 3.3 gilt dann für einen Vektor v ∈ V : v= n ∑ k=1 vk ⟨ bk ⟩ vk = v, für k = 1, . . . , n. ∥bk ∥ bk , ∥bk ∥ Es gilt ⟨ v, bk ⟩ 1 = ⟨v, bk ⟩. ∥bk ∥ ∥bk ∥ Somit hat man den folgenden Satz hergeleitet. Satz 3.4 Es sei B = {b1 , . . . , bn } eine Orthogonalbasis von V . Die Darstellung eines Vektors v ∈ V als Linearkombination der Basisvektoren aus B ist v= n ∑ ⟨v, bk ⟩ k=1 ∥bk ∥2 bk . Satz 3.5 Jedes Orthogonalsystem S = {b1 , . . . , bm } ist linear unabhängig. Beweis Es sei S = {v1 , . . . , vm } ein Orthogonalsystem. Wir zeigen, dass aus der Gleichung m ∑ λk bk = 0 k=1 die Relation λ1 = λ2 = . . . = λn = 0 folgt. Zunächst gilt für jeden Vektor bi aus S: m ∑ ⟨ λk bk , bi ⟩ = ⟨0, bi ⟩ k=1 ⇔ m ∑ λk ⟨bk , bi ⟩ = 0 ⇔ λi ⟨bi , bi ⟩ = 0. k=1 Nach Voraussetzung ist bi ̸= 0 und damit ⟨bi , bi ⟩ ̸= 0, woraus wir λi = 0 für alle i = 1, . . . , m schliessen. Somit ist S linear unabhängig. □ ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 3.5 64 Das Orthogonalisierungs-Verfahren von Gram-Schmidt Nachdem wir uns von der Nützlichkeit von Orthonormalbasen überzeugt haben, werden wir jetzt zeigen, dass jede beliebige Basis eines euklidischen oder unitären Vektorraums durch eine Basis mit orthogonalen, resp. orthonormalen, Vektoren ersetzt werden kann, sofern die Dimension des Vektorraums V endlich (abzählbar unendlich) ist. Das Gram-Schmidt’sche Orthonormalisierungs-Verfahren ist ein konstruktives Verfahren. Satz 3.6 Zu jedem endlichen (oder abzählbar-unendlichen) System {v1 , v2 , . . .} linear unabhängiger Vektoren eines euklidischen oder unitären Vektorraums V gibt es genau ein entsprechendes Orthonormalsystem {b1 , b2 , . . .}, so dass für k = 1, 2, . . . die Vektoren v1 , . . . , vk und b1 , . . . , bk denselben Unterraum Uk von V aufspannen, d.h. es ist Uk = Lin(v1 , . . . , vk ) = Lin(b1 , . . . , bk ). Das Orthonormalsystem {b1 , b2 , . . .} wird dabei wie folgt rekursiv definiert: b1 = 1 ∥v1 ∥ v1 , cn+1 = vn+1 − n ∑ ⟨vn+1 , bi ⟩bi , bn+1 = 1 ∥cn+1 ∥ cn+1 . i=1 Beweis Die Vektoren b1 , b2 , . . . werden induktiv definiert. Bei einem endlichen System {v1 , . . . , vm } bricht das Verfahren nach m Schritten ab. Wegen der vorausgesetzten linearen Unabhängigkeit der Vektoren {v1 , v2 , . . .} gilt v1 ̸= 0, und b1 = 1 ∥v1 ∥ v1 (3.1) ist ein normierter Vektor. Die Vektoren v1 und b1 erzeugen denselben Unterraum U1 = Lin(v1 ) = Lin(b1 ). Es seien jetzt bereits die orthonormalen Vektoren b1 , . . . , bn so konstruiert, dass für k = 1, . . . , n Uk = Lin(v1 , . . . , vk ) = Lin(b1 , . . . , bk ) erfüllt ist. Nach Satz 3.5 sind die Vektoren {b1 , . . . , bk } linear unabhängig. Dann definieren wir bn+1 = vn+1 − n ∑ ⟨vn+1 , bi ⟩bi . (3.2) i=1 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 65 Der Vektor bn+1 ist eine Linearkombination der orthonormalen Vektoren b1 , . . . , bn und vn+1 , somit ist bn+1 ∈ Lin(b1 , . . . , bn , vn+1 ). Somit Lin(b1 , . . . , bn , vn+1 ) = Lin(b1 , . . . , bn , bn+1 ). Mit Berücksichtigung der Induktionsvoraussetzung Un = Lin(v1 , . . . , vn ) = Lin(b1 , . . . , bn ) ergibt sich Un+1 = Lin(v1 , . . . , vn , vn+1 ) = Lin(b1 , . . . , bn , vn+1 ) = Lin(b1 , . . . , bn , bn+1 ). Weil nach Voraussetzung die Vektoren v1 , . . . , vn , vn+1 linear unabhängig sind, folgt dim(Un+1 ) = n + 1 und weil die linearen Hüllen gleich sind, sind die Vektoren b1 , . . . , bn , bn+1 ebenfalls linear unabhängig. Insbesondere gilt bn+1 ̸= 0, denn wäre bn+1 = 0, dann würde vn+1 n ∑ = ⟨vn+1 , bi ⟩bi , i=1 gelten und somit wäre vn+1 wegen Lin(v1 , . . . , vn ) = Lin(b1 , . . . , bn ) eine Linearkombination der linear unabhängigen Vektoren v1 , . . . , vn . Dies ist ein Widerspruch zur Voraussetzung. Mit der Orthonormalität der Vektoren {b1 , . . . , bn } folgt für j = 1, . . . , n: n n ∑ ∑ ⟩ ⟨ ⟨vn+1 , bj ⟩⟨bi , bj ⟩ ⟨bn+1 , bj ⟩ = vn+1 − ⟨vn+1 , bi ⟩bi , bj = ⟨vn+1 , bj ⟩ − i=1 i=1 = ⟨vn+1 , bj ⟩ − ⟨vn+1 , bj ⟩ = 0. Der Vektor bn+1 ist somit orthogonal zu jedem Vektor bj , j = 1, . . . , n. Wir setzen bn+1 = 1 ∥bn+1 ∥ bn+1 . (3.3) Dieser Vektor ist orthonormal zu bj , j = 1, . . . , n. Die Vektoren b1 , . . . , bn+1 bilden also ein Orthonormalsystem für den Unterraum Un+1 . □ Beispiel 3.7 In dem reellen Vektorraum R3 sei das skalare Produkt je zweier Vektoren u1 u = u2 , u3 v1 v = v2 v3 durch ⟨u, v⟩ = u1 v1 + u2 v2 + u3 v3 definiert. Das Orthonormalisierungs-Verfahren werde auf die Vektoren 0 1 2, 4 1 , v3 = 2 , v2 = v1 = −1 −2 −1 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 66 angewandt. Man erhält: b1 c2 b2 c3 b3 2 1 1 = v1 = 2 , ∥v1 ∥ 3 −1 1 2, 1 2 1 = v2 − ⟨v2 , b1 ⟩b1 = 1 − 2 = − 1 , 3 3 −2 −1 4 1 −1 = ∥c12 ∥ c2 = √ 1 , 3 2 4 2 −2 ∑ = v3 − ⟨v3 , bi ⟩bi = v3 − ⟨v3 , b1 ⟩b1 − ⟨v3 , b2 ⟩b2 = 2 , i=1 0 −1 1 1 1 . = ∥b3 ∥ b3 = √ 2 0 Beispiel 3.8 Ersetzen wir das Skalarprodukt aus dem vorherigen Beispiel durch ⟨u, v⟩ = 2u1 v1 + u2 v2 + 4u3 v3 , so ändert sich das Resultat des Orthonormalisierungs-Verfahren wie folgt: b1 c2 b2 c3 b3 ZHAW 2 1 1 = v1 = 2 , ∥v1 ∥ 4 −1 2 −6 1 14 1 2 −6 , 1 − = = v2 − ⟨v2 , b1 ⟩b1 = 16 8 −1 −9 −2 −2 1 1 −2 , = ∥c2 ∥ c2 = √ 4 3 −3 −16 1 32 , = v3 − ⟨v3 , bi ⟩bi = v3 − ⟨v3 , b1 ⟩b1 − ⟨v3 , b2 ⟩b2 = 12 i=1 0 −1 1 = ∥b13 ∥ b3 = √ 2 . 6 0 2 ∑ bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 67 Beispiel 3.9 In dem reellen Vektorraum aller in [0, 1] stetigen reellen Funktionen sei das skalare Produkt durch ∫1 ⟨f, g⟩ = f (t)g(t)dt 0 definiert. Das Orthonormalisierungs-Verfahren soll auf die Polynome a0 (t) = 1 = t0 , a2 (t) = t2 , a1 (t) = t, a3 (t) = t3 , . . . angewandt werden. Die Funktionen des entstehenden Orthonormalsystems sollen hier mit e0 (t), e1 (t), e2 (t), . . . ∫1 bezeichnet werden. Mit ⟨a0 , a0 ⟩ = ⟨1, 1⟩ = dt = t|10 = 1 folgt 0 e0 (t) = ∫1 Mit ⟨a1 , e0 ⟩ = ⟨t, 1⟩ = tdt = t2 1 1 2 0= 2 1 ∥a0 ∥ a0 = 1. folgt 0 1 b1 = a1 − ⟨a1 , e0 ⟩e0 = t − , 2 ∫1 1 und mit ⟨b1 , b1 ⟩ = (t − 12 )2 dt = 31 (t − 12 )3 0 = 1 12 folgt 0 e1 (t) = √ 1 b1 = 12(t − 12 ). ∥b1 ∥ Mit ∫1 ⟨a2 , e0 ⟩ = ⟨t , 1⟩ = 2 tdt = t3 1 1 3 0= 3 , 0 und √ √ ∫ 2 √ 4 1 ⟨a2 , e1 ⟩ = ⟨t , 12(t − 2 )⟩ = 12 t (t − 21 )dt = 12( t4 − 1 2 √ 12 t3 1 = ) 6 0 12 0 folgt b2 = a2 − ⟨a2 , e0 ⟩e0 − ⟨a2 , e1 ⟩e1 = t2 − 1 3 − (t − 21 ) = t2 − t + 16 . ∫1 Daraus ergibt sich mit ⟨b2 , b2 ⟩ = (t2 − t + 61 )2 dt = 15 t5 − 21 t4 + 94 t3 − 61 t2 + 1 1 1 36 t 0 = 180 0 e2 (t) = ZHAW √ 1 b2 = 6 5(t2 − t + 16 ). ∥b2 ∥ bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 3.6 68 Orthogonale Komplemente Definition 3.11 Zwei Teilmengen M und N eines euklidischen oder unitären Vektorraumes V heissen orthogonal, wenn ⟨v, u⟩ = 0 für alle Vektoren v ∈ M und u ∈ N erfüllt ist, d.h. wenn alle Vektoren aus M auf allen Vektoren aus N senkrecht stehen. Bezeichnung: M ⊥ N . Wenn hierbei z.B. die Menge M aus nur einem Vektor v besteht, wird statt {v} ⊥ N einfacher v ⊥ N geschrieben. Die leere Menge und der Nullraum sind zu jeder Teilmenge von V orthogonal. Definition 3.12 Sei M eine Teilmenge des euklidischen oder unitären Vektorraumes V . Dann heisst M ⊥ = {v ∈ V | v ⊥ M } = {v ∈ V | ⟨v, m⟩ = 0, m ∈ M } das orthogonale Komplement von M in V . Satz 3.7 Das orthogonale Komplement M ⊥ einer Teilmenge M des Vektorraumes V ist ein Unterraum. Beweis Seien v1 , v2 und v aus M ⊥ und λ ∈ K = R oder C, dann folgt ⟨v1 , m⟩ = 0, ⟨v2 , m⟩ = 0 für alle m ∈ M. Somit ⟨v1 + v2 , m⟩ = ⟨v1 , m⟩ + ⟨v2 , m⟩ = 0 + 0 = 0 Ferner ⟨λv1 , m⟩ = λ⟨v1 , m⟩ = λ · 0 = 0 ⇒ ⇒ v1 + v2 ∈ M ⊥ . λv1 ∈ M ⊥ . □ Beispiel 3.10 2 1 2 , b2 = −5 aus R3 . Wir bestimmen das orthogonale Sei M = {b1 , b2 } mit b1 = 4 −1 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 69 x Komplement M ⊥ . Sei v = y aus R3 und v ∈ M ⊥ , dann folgt z x y z ⇔ ⇔ 1 2 −1 0 ⟨v, b2 ⟩ = 0 2x − 5y + 4z = 0 2 −5 4 0 −1 1 2 Also x = − 3 z, y = 3 z, z ∈ R, oder v = z 2 . Somit ist 3 ⟨v, b1 ⟩ = 0, x + 2y − z = 0 rref −→ x y z 1 0 13 0 1 − 23 0 0 M ⊥ = {v ∈ R3 | ⟨v, v⟩ = 0, v ∈ M } −1 mit v = λ 2 , λ ∈ R ein eindimensionaler Unterraum von R3 . 3 Satz 3.8 Projektionssatz. Sei U ein endlich-dimensionaler Unterraum eines euklidischen oder unitären Vektorraumes V . Dann besitzt jeder Vektor v aus V eine eindeutige Darstellung v = u1 + u2 , wobei u1 in U und u2 in U ⊥ liegt. Es gilt V = U ⊕ U ⊥. Der Vektor v wird sozusagen auf den Unterraum U orthogonal projiziert. Der Vektor u1 heisst Orthogonalprojektion von v auf U . Der Vektor u2 ist die zu U orthogonale Komponente von v. Beweis Wir zeigen zuerst die Existenz der Vektoren u1 und u2 und dann ihre Eindeutigkeit. Nach dem Gram-Schmidt-Verfahren besitzt U als endlich-dimensionaler Unterraum eine Orthonormalbasis {b1 , . . . , bn }. Wir setzen u1 = n ∑ ⟨v, bk ⟩bk und u2 = v − u1 . k=1 Offenbar ist u1 + u2 = u1 + (v − u1 ) = v. Ausserdem liegt u1 als Linearkombination von {b1 , . . . , bn } in U . Es bleibt zu zeigen, dass u2 orthogonal zu U ist, also dass ⟨u2 , u⟩ = 0 gilt. Für jeden Vektor u aus U ist ⟨u2 , u⟩ = ⟨v − u1 , u⟩ = ⟨v, u⟩ − ⟨u1 , u⟩. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT Da sich u als Linearkombination u= n ∑ 70 λk bk k=1 darstellen lässt, ergibt sich ⟨v, u⟩ = ⟨v, n ∑ n n n ∑ ∑ ∑ λk bk ⟩ = ⟨ λk ⟨bk , v⟩ = λk ⟨v, bk ⟩. λk bk , v⟩ = k=1 k=1 k=1 k=1 Ferner haben wir ⟨u1 , u⟩ = ⟨u1 , n ∑ λk bk ⟩ = k=1 n ∑ λk ⟨u1 , bk ⟩ = k=1 = n ∑ k=1 n ∑ λk ⟨ λk k=1 n ∑ ⟨v, bi ⟩bi , bk ⟩ i=1 n ∑ n ∑ i=1 k=1 ⟨v, bi ⟩⟨bi , bk ⟩ = λk ⟨v, bk ⟩. Somit ist ⟨u2 , u⟩ = ⟨v, u⟩ − ⟨u1 , u⟩ = 0, also folgt u2 ∈ U ⊥ . Um die Eindeutigkeit der Zerlegung zu zeigen, betrachten wir Vektoren u′1 aus U und u′2 orthogonal zu U mit v = u′1 + u′2 . Für die Vektoren u1 und u2 gilt v = u1 + u2 , also ist 0 = v − v = (u′1 + u′2 ) − (u1 + u2 ) = (u′1 − u1 ) + (u′2 − u2 ) ⇔ u1 − u′1 = u′2 − u2 . Weil U und U ⊥ Unterräume sind, gilt also u1 , u′1 ∈ U ⇒ u1 − u′1 ∈ U u2 , u′2 ∈ U ⇒ u′2 − u2 ∈ U ⊥ , ⟨u1 − u′1 , u′2 − u2 ⟩ = 0. Mit u1 − u′1 = u′2 − u2 folgt 0 = ⟨u1 − u′1 , u′2 − u2 ⟩ = ⟨u′2 − u2 , u′2 − u2 ⟩. Ein Skalarprodukt hat die Eigenschaft ⟨v, v⟩ = 0 ⇔ v = 0. Somit folgt u′2 − u2 = 0 Folglich ZHAW ⇔ u1 − u′1 = u′2 − u2 = 0 u′2 = u2 . ⇔ u′1 = u1 . bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 71 Jeder Vektor v ∈ V lässt sich eindeutig in die Vektoren u1 aus U und u2 aus U ⊥ zerlegen: v = u1 + u2 . Somit gilt V = U + U ⊥. Wir zeigen, dass die Summe direkt ist, d.h. U ∩ U ⊥ = {0}. Sei v ∈ U ∩ U ⊥ , also v ∈ U und v ∈ U ⊥ , dann folgt ⟨v, v⟩ = 0 ⇔ v = 0. Somit U ∩ U ⊥ = {0} und V = U ⊕ U ⊥ . □ Die untenstehende Abbildung illustriert den Satz 3.8. Dabei ist U der von den Vektoren b1 und b2 erzeugte Unterraum: U = Lin(b1 , b2 ). U ⊥ ist das orthogonale Komplement zu U und ist eindimensional. Nach Satz 3.8 lässt sich jeder Vektor v aus V eindeutig in zwei Vektoren zerlegen: v = u1 + u2 , u1 ∈ U, u2 ∈ U ⊥ . Für die Ortogonalprojektion u1 ∈ U von v auf U schreiben wir im Folgenden projU v, also projU v = u1 . Mit dieser Notation gilt nach Satz 3.8 v = projU v + w, ZHAW projU v ∈ U, w ∈ U ⊥. bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 72 Wenn der endlich-dimensionale Unterraum U eine Orthonormal- oder Orthogonalbasis hat, dann lässt sich die Ortogonalprojektion projU v, wie der folgende Satz zeigt, elegant mit Hilfe des Satzes 3.3, resp. Satz 3.4 in dieser Basis ausdrücken. Satz 3.9 Sei U ein endlich-dimensionaler Unterraum eines euklidischen oder unitären Vektorraumes V . a) Ist B = {b1 , . . . , bn } eine Orthonormalbasis von U , so gilt für jeden Vektor v ∈ V n ∑ projU v = ⟨v, bk ⟩bk . k=1 b) Ist B = {b1 , . . . , bn } eine Orthogonalbasis von U , so gilt für jeden Vektor v ∈ V projU v = n ∑ ⟨v, bk ⟩ k=1 ∥bk ∥2 bk . Beispiel 3.11 Sei U = Lin(b1 , b2 ) mit b1 = (1, 2, 0)T und b2 = (2, −1, −2)T im euklidischen Raum R3 . Wie man leicht nachrechnet, ist B = {b1 , b2 } eine orthogonale Basis für den Unterraum U . Sei v = (3, −1, 1)T ein Vektor aus R3 . Mit Satz 3.9 folgt für die orthogonale Projektion von v auf U 1 2 59 ⟨v, b2 ⟩ 1 ⟨v, b1 ⟩ 5 1 −7 . projU v = b1 + b2 = 2 + −1 = 2 2 ∥b1 ∥ ∥b2 ∥ 5 9 45 0 −2 −50 Aus v = projU v + w folgt 3 59 76 1 1 −7 = −38 w = v − projU v = −1 − 45 45 1 −50 95 ∈ U ⊥. Dass w ∈ U ⊥ ist, überprüft man leicht nach, indem man ⟨w, b1 ⟩ = 0 und ⟨w, b2 ⟩ = 0 nachweist. 3.7 3.7.1 Näherungslösungen Orthogonalprojektion als Näherungen Viele praktische Probleme in der Mathematik und anderen Wissenschaften lassen sich nicht exakt, sondern nur näherungsweise lösen. Wir werden jetzt Verfahren entwickeln, um mit ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 73 Hilfe der Orthogonalprojektion solche Approximationen zu erhalten. Sei V ein euklidischer oder unitärer Vektorraum und sei U ein endlich-dimensionaler Unterraum von V . Sei v ein beliebiger Vektor aus V . Wir wollen nun einen Vektor u in U so finden, dass der gegebene Vektor v am besten durch u approximiert wird, d.h. wir bilden den Fehlervektor d = v − u. Der Vektor u ∈ U ist die beste Approximation für den Vektor v ∈ V , wenn die Länge des Fehlervektors minimal wird, d.h. finde u in U so, dass ∥d∥ = ∥v − u∥ minimal wird. Die Länge des Fehlervektors d wird minimal, wenn u = projU v ist, d.h., wenn d orthogonal auf U steht. Im folgenden Satz wird das präzisiert und bewiesen. Satz 3.10 Sei U ein endlich-dimensionaler Unterraum eines euklidischen oder unitären Vektorraumes V und sei v ein beliebiger Vektor aus V . Dann ist projU v die beste Näherung von v in U , d.h. ∥v − projU v∥ < ∥v − u∥ für jeden von projU v verschiedenen Vektor u aus U . Die folgende Abbildung skizziert diese Näherung. v − projU v U v d=v−u u • projU v ∥v − u∥ wird minimal für u = projU v Beweis Aus Satz 3.8 wissen wir, dass es einen Vektor projU v ∈ U gibt, und v sich wie folgt eindeutig zerlegen lässt v = projU v + w, projU v ∈ U, w ∈ U ⊥. Für jeden Vektor u ∈ U ist v − u = v − projU v + projU v − u. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 74 Weil U ein Unterraum ist und projU v ∈ U , u ∈ U ist, folgt projU v − u ∈ U . Es gilt w = v − projU v ∈ U ⊥ , also folgt ⟨v − projU v, projU v − u⟩ = 0. Mit Hilfe dieser Tatsache schliessen wir v − u = (v − projU v) + (projU v − u) ∥v − u∥2 = ∥(v − projU v) + (projU v − u)∥2 = ⟨(v − projU v) + (projU v − u), (v − projU v) + (projU v − u)⟩ = ⟨v − projU v, v − projU v⟩ + ⟨projU v − u, projU v − u⟩ = ∥v − projU v∥2 + ∥projU v − u∥2 . Mit u ̸= projU v ist ∥projU v − u∥2 > 0, also ∥v − u∥2 > ∥v − projU v∥2 und damit ∥v − u∥ > ∥v − projU v∥, u ∈ U, u ̸= projU v. □ Bemerkung Die beste Approximation des Vektors v ∈ V mit einem Vektor aus u ∈ U hat man mit u = projU v. Für den Fehlervektor gilt ∈ U ⊥, d = v − projU v d.h. der Fehlervektor d steht orthogonal zum Unterraum U und im Falle eines euklidischen Vektorraums V gilt v u n u∑ d2k . ∥d∥ = t k=1 Die Summe der Fehlerquadrate ist minimal. 3.7.2 Näherungslösungen für lineare Gleichungssysteme Die Näherungslösung für ein lineares Gleichungssystem wird auch als Lineare Ausgleichsrechnung bezeichnet. Problemstellung Seien x, y, z die Längen dreier Strassenstücke zwischen vier Städten A, B, C, D, wie in der untenstehenden Figur skizziert: ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT A x bC y B bC 75 C bC z D bC Aus messtechnischen Gründen können die Längen x, y, z nicht einzeln gemessen werden. Folgende Teilstücke werden gemessen: AB = 35 km, AC = 67 km, AD = 89 km, BD = 53 km, CD = 20 km. Frage: Wie gross sind die einzelnen Strecken x, y, z? Wie man sofort sieht, ist AD ̸= AC + CD. Diese Tatsache hat mit Messfehler zu tun. Wie formulieren die gegebenen Grössen als lineares Gleichungssystem: x = 35 x + y = 67 x + y + z = 89 ⇔ y + z = 53 z = 20 1 1 1 0 0 0 35 0 x 67 1 y = 89 . 53 1 z 1 20 0 1 1 1 0 Dieses lineare Gleichungssystem hat keine Lösung. Wir müssen die gesuchten Werte x, y und z durch ausgeglichene Werte ersetzen, resp. berechnen. Die gemessenen Teilstücke AB, AC, AD, BD, CD sind mit Messfehler behaftet, die allerdings unbekannt sind. Seien dk , k = 1, . . . , 5 die unbekannten Messfehler. Berücksichtigen wir, dass jede Messung einen Fehler haben kann, so kann das lineare Gleichungssystem unter bestimmten Voraussetzungen gelöst werden. Das um die Fehler korrigierte Gleichungssystem lautet: x = 35 − d1 d1 = 35 − x d2 = 67 − (x + y) x + y = 67 − d2 x + y + z = 89 − d3 d3 = 89 − (x + y + z) ⇔ y + z = 53 − d4 d4 = 53 − (y + z) z = 20 − d5 d5 = 20 − z ⇔ d1 35 1 d2 67 1 d3 = 89−1 d4 53 0 d5 20 0 0 1 1 1 0 0 0 x 1 y . 1 z 1 Allgemein: d = c − Av, mit 1 1 A= 1 0 0 0 1 1 1 0 0 0 1 , 1 1 x v = y , z 35 67 c= 89 , 53 20 (3.4) d1 d2 d= d3 . d4 d5 Dabei ist v der Lösungsvektor mit den gesuchten ausgeglichenen Werten x, y, z, der Vektor c ist der Vektor mit den Messwerten und schliesslich ist der Vektor d der Fehlervektor. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 76 Wir suchen nun einen optimalen Vektor v so, dass ∥d∥ minimal wird. Nach unseren Vorbereitungen kann man dieses Problem als eine orthogonale Projektion des Vektors c ∈ R5 auf einen Unterraum U auffassen: d = c − projU c, projU c ∈ U. projU c = Av, Der Vektor Av muss im Unterraum U liegen. Der Unterraum wird durch die Spaltenvektoren der Matrix A aufgespannt. Das sieht man folgendermassen ein. Sei allgemein A eine m × n Matrix und v ∈ Rn : a11 . . . a1n v1 .. . .. , v = ... A= . . vn am1 . . . amn Dann folgt a11 x1 + . . . + a1n xn a11 a1n . . .. Av = = v1 .. + . . . + vn .. = v1 a1 + . . . vn an , . am1 x1 + . . . + amn xn am1 amn mit a1 , . . . , an als Spaltenvektoren der Matrix A. Somit folgt Av = v1 a1 + . . . xn an und Av ∈ U = Lin(a1 , . . . , an ). Der Vektor c wird also auf den Unterraum U = Lin(a1 , . . . , an ) projiziert. Mit projU c hat man die ”beste” Lösung, denn der Fehlervektor d hat dann minimale Länge und steht orthogonal auf dem Unterraum U . Für die beste Lösung für v gilt Av = projU c. Falls die Spaltenvektoren a1 , . . . , an der Matrix A orthonormal resp. orthogonal, dann kann man projU v mit Satz 3.9 berechnen: projU c = n ∑ ⟨c, ak ⟩ak , k=1 resp. projU c = n ∑ ⟨c, ak ⟩ k=1 ∥ak ∥2 ak . Weil diese Bedingungen an die Spaltenvektoren der Matrix A selten erfüllt sind, geben wir eine andere Lösung an. Der Vektor d ist für die beste Lösung orthogonal zum Unterraum U , d.h. orthogonal zu allen Spaltenvektoren a1 , . . . , an der Matrix A. Für i = 1, . . . , n gilt demzufolge: 0 = ⟨d, ai ⟩ = ⟨c − Av, ai ⟩ = ⟨c − n ∑ k=1 xk ak , ai ⟩ = ⟨c, ai ⟩ − n ∑ xk ⟨ak , ai ⟩. k=1 ( )T Für den Vektor x = x1 . . . xn erhalten wir ein lineares Gleichungssystem ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT ⟨a1 , a1 ⟩x1 + . . . + ⟨a1 , an ⟩xn = ⟨a1 , c⟩ .. . . = .. 77 ⟨a1 , c⟩ ⟨a1 , a1 ⟩ . . . ⟨a1 , an ⟩ x1 .. .. .. .. . . = . . . ⟨an , c⟩ ⟨an , a1 ⟩ . . . ⟨an , an ⟩ xn ⇔ ⟨an , a1 ⟩x1 + . . . + ⟨an , an ⟩xn = ⟨an , c⟩ Weil wir den euklidischen Vektorraum Rn haben, ist das Skalarprodukt ⟨x, y⟩ = xT · y. Somit T aT1 · a1 . . . aT1 · an x1 a1 · c .. .. .. = .. . . . . aTn · a1 . . . aTn · an xn aTn · c ⇔ AT Ax = AT c. Wir fassen zusammen. Wir gehen von einem linearen Gleichungssystem Ax = c aus, welches z.B. durch kleine Messfehler die Lösbarkeit verliert. Man nennt ein solches Gleichungssystem inkonsistent. In diesem Fall beschränkt man sich darauf, eine Näherungslösung x zu finden, für die die euklidische Norm des Fehlervektors d = c − Ax möglichst klein ist. Das oben genannte Konzept wird auch als Methode der kleinsten Quadrate bezeichnet. Satz 3.11 Liegt ein inkonsistentes lineares Gleichungssystem Ax = c vor, so löst man mit der Methode der kleinsten Quadrate das konsistente lineare Gleichungssystem AT Ax = AT c. Seine Lösungen sind Näherungslösungen des gegebenen inkonsistenten Systems. Ausserdem gilt für diese Lösungen Ax = projU c, wobei der Unterraum U = Lin(a1 , . . . , an ) ist, mit den Spaltenvektoren von A = (a1 , . . . , an ). Wir lösen nun unser ursprüngliches Problem, welches inkonsistent ist: x = 35 x + y = 67 Ax = c ⇔ x + y + z = 89 y + z = 53 z = 20 ZHAW ⇔ 1 1 1 0 0 0 1 1 1 0 35 0 67 x 0 y = 89 . 1 53 1 z 20 1 bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 78 Das konsistente lineare Gleichungssystem ist 3 2 1 x 191 AT Ax = AT c ⇔ 2 3 2 y = 209 . 1 2 3 z 162 Lösen wir dieses lineare Gleichungssystem x 3 2 1 y 2 3 2 z 1 191 2 209 3 162 rref −→ x 1 0 0 y 0 1 0 z 0 35.125 0 32.5 1 20.625 dann ist die ausgeglichene Lösung x = 35.125, y = 32.5, z = 20.625. Beispiel 3.12 Ein Fahrzeug wird mit der Geschwindigkeit v durch Vollbremsung auf den Stillstand abgebremst. Für den Bremsweg s soll folgende Modellfunktion gewählt werden: s = f (a, b, c, v) = av 2 + bv + c. Die Koeffizienten a, b, c sind über Messungen zu berechnen. Eine Messserie ist in der folgenden Tabelle dargestellt. v [m/s] s [m] Somit 9 3 17 5 20 9 25 14 35 23 d1 = s1 − f (av12 + bv1 + c) = 3 − (81a + 9b + c) d2 = s2 − f (av22 + bv2 + c) = 5 − (289a + 17b + c) d3 = s3 − f (av32 + bv3 + c) = 9 − (400a + 20b + c) d4 = s4 − f (av42 + bv4 + c) = 14 − (625a + 25b + c) d5 = s5 − f (av52 + bv5 + c) = 23 − (1225a + 35b + c) In Matrixform 81 3 d1 d2 5 289 d3 = 9 − 400 d4 14 625 1225 23 d5 9 17 20 25 35 1 1 a 1 b c 1 1 ⇔ d = c − Ax. Dies ist ein inkonsistentes lineares Gleichungssystem. Nach Satz 3.11 bilden wir 42213 a 2141332 72142 2620 2620 106 b = 1447 . AT Ax = AT c ⇔ 72142 54 c 2620 106 5 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 79 Die Auflösen des konsistenten Gleichungssystem liefert a b c 2141332 72142 2620 72142 72142 2620 106 2620 2620 106 562 106 a 1 0 0 rref −→ b 0 1 0 c 0 0.0157 0 0.1121 1 0.2020 a = 0.0157 s2 /m, b = 0.1121 s, c = 0.2020 m. Die Modellfunktion ist s = 0.0157v 2 + 0.1121v + 0.2020 und ist in der untenstehenden Abbildung skizziert. y P5 bC 20 P4 15 bC P3 10 bC P2 5 bC P1 bC x 0 5 10 15 20 25 30 35 Die ausgeglichene Modellfunktion s = 0.0157v 2 + 0.1121v + 0.2020 0 Ausgleichen einer Geraden Zwei Grössen x und y sollen linear voneinander abhängen, die Modellfunktion ist also eine lineare Funktion: y = f (x) = mx + c. Die zwei Parameter m und c sind nicht bekannt und sollen mit Hilfe verschiedener Punkte Pk (xk /yk ), k = 1, . . . , n bestimmt werden. Dabei liegen die Punkte wegen Messungenauigkeiten nicht auf der Geraden mit der Funktion y = mx + c. Vielmehr streuen sie um die Gerade herum. Geometrisch sieht dann das Problem so aus: y Pk (xk /yk ) y = f (x) = mx + c bC bC bC x1 ZHAW bC dk bC bC xk xn x bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 80 Wir müssen also die ”beste” Gerade durch die gegebenen Punkte Pk (xk , yk ), k = 1, . . . , n legen. Diese wird mit der Methode der kleinsten Fehlerquadrate gefunden. Setzt man den Wert xk in f (x) = mx + c ein, dann hat man eine Differenz zum gemessenen Wert yk : dk = yk − f (xk ) = yk − mxk − c, k = 1, . . . , n. Also x1 y1 d1 .. .. .. . = . − . d1 = y1 − mx1 − c .. . ⇔ yn dn dn = yn − mxn − c xn 1 ( ) .. m . c 1 ⇔ d = c − Ax Wir erhalten ein inkonsistentes lineares Gleichungssystem Ax = c, welches wir mit Hilfe von Satz 3.11 wie folgt lösen. AT Ax = AT c. Beispiel 3.13 Gegeben sind die Punkte P1 (1/1), P2 (2/1.5), P3 (3.5/2), P4 (4.5/2), P5 (5/2.5), P6 (6/3). Gesucht ist eine Gerade durch diese Punkte mittels Ausgleichsrechnung. Aufgabe: In der untenstehenden Abbildung sind die gegebenen Punkte eingezeichnet. Lege zuerst von ”Hand” eine ”gute” Gerade g : y = mx + c durch die Punkte und bestimme durch Messung die Koeffizienten m und c dieser Geraden. P6 y bC P5 bC P3 2 P4 bC bC P2 bC 1 P1 bC x 1 2 3 4 5 6 Aufgabe: Finde die ”beste” Gerade Lösung: m = . . ., c = ... Lösung mit Ausgleichsrechnung: AT Ax = AT c. 1 1 1 1.5 2 1 ( ) 3.5 1 , c = 2 , x = m . A= 2 4.5 1 c 2.5 5 1 3 6 1 ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 81 Das konsistente Gleichungssystem ist ( T T A Ax = A c ⇔ 98.5 22 22 6 )( ) ( ) m 50.5 = c 12 Lösen wir dieses lineare Gleichungssystem m c 98.5 22 50.5 22 6 12 rref −→ m c 1 0 0.3645 0 1 0.6636 dann ist die ausgeglichene Lösung m = 0.3645, 3.8 c = 0.6636. Orthogonale und unitäre lineare Abbildungen Im Folgenden untersuchen wir lineare Abbildungen, welche das Skalarprodukt invariant lassen. Definition 3.13 Sei V ein euklidischer oder unitärer Vektorraum V . Die lineare Abbildung f : V −→ V heisst orthogonal, falls für alle u, v ∈ V gilt: ⟨f (u), f (v)⟩ = ⟨u, v⟩. Die lineare Abbildung f : V −→ V heisst längentreu, falls für alle v ∈ V gilt: ∥f (v)∥ = ∥v∥. Satz 3.12 Sei V ein euklidischer oder unitärer Vektorraum V . Sei f : V −→ V eine lineare Abbildung. Die Abbildung f ist genau dann orthogonal, wenn sie längentreu ist. Das heisst, für alle u, v ∈ V gilt: ⟨f (u), f (v)⟩ = ⟨u, v⟩ ⇔ ∥f (v)∥ = ∥v∥. Beweis 1) Es gelte für alle u, v ∈ V : ⟨f (u), f (v)⟩ = ⟨u, v⟩. Somit gilt auch ⟨f (v), f (v)⟩ = ⟨v, v⟩. Dies ist äquivalent zu ∥f (v)∥2 = ∥v∥2 . Also folgt ∥f (v)∥ = ∥v∥. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 82 2) Umgekehrt gelte für alle v ∈ V die Beziehung ∥f (v)∥ = ∥v∥. Sei λ ∈ C und u ein beliebiger Vektor aus V , dann folgt mit der Voraussetzung: ∥f (u + λv)∥ = ∥u + λv∥ ⇔ ∥f (u + λv)∥2 = ∥u + λv∥2 . Weil f linear ist, folgt für die linke Seite dieser Gleichung ∥f (u + λv)∥2 = ⟨f (u) + λf (v), f (u) + λf (v)⟩ = ⟨f (u), f (u) + λf (v)⟩ + λ⟨f (v), f (u) + λf (v)⟩ = ⟨f (u) + λf (v), f (u)⟩ + λ⟨f (u) + λf (v), f (v)⟩ = ⟨f (u), f (u)⟩ + λ ⟨f (v), f (u)⟩ + λ[⟨f (u), f (v)⟩ + λ ⟨f (v), f (v)⟩] = ⟨f (u), f (u)⟩ + λ⟨f (u), f (v)⟩ + λ⟨f (u), f (v)⟩ + λλ⟨f (v), f (v)⟩ = ⟨u, u⟩ + λ⟨f (u), f (v)⟩ + λ⟨f (u), f (v)⟩ + λλ⟨v, v⟩. Für die rechte Seite der Gleichung gilt: ∥u + λv∥2 = ⟨u + λv, u + λv⟩ = ⟨u, u + λv⟩ + λ⟨v, u + λv⟩ = ⟨u + λv, u⟩ + λ⟨u + λv, v⟩ = ⟨u, u⟩ + λ ⟨v, u⟩ + λ[⟨u, v⟩ + λ ⟨v, v⟩] = ⟨u, u⟩ + λ⟨u, v⟩ + λ⟨u, v⟩ + λλ⟨v, v⟩. Somit folgt λ⟨f (u), f (v)⟩ + λ⟨f (u), f (v)⟩ = λ⟨u, v⟩ + λ⟨u, v⟩, für alle λ ∈ C. Wir werten diese Gleichung für λ = 1 und λ = −j aus und berücksichtigen, dass z + z = 2Re(z) und z − z = 2Im(z)j ist. Also λ=1: ⟨f (u), f (v)⟩ + ⟨f (u), f (v)⟩ = ⟨u, v⟩ + ⟨u, v⟩ 2Re(⟨f (u), f (v)⟩) = 2Re(⟨u, v⟩) Re(⟨f (u), f (v)⟩) = Re(⟨u, v⟩) und λ = −j : j⟨f (u), f (v)⟩ − j⟨f (u), f (v)⟩ = j⟨u, v⟩ − j⟨u, v⟩ ⟨f (u), f (v)⟩ − ⟨f (u), f (v)⟩ = ⟨u, v⟩ − ⟨u, v⟩ 2Im(⟨f (u), f (v)⟩)j = 2Im(⟨u, v⟩)j Im(⟨f (u), f (v)⟩) = Im(⟨u, v⟩) Somit schliessen wir ZHAW ⟨f (u), f (v)⟩ = ⟨u, v⟩. □ bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 83 Beispiel 3.14 Sei V ein euklidischer Vektorraum mit einer Orthonormalbasis B = {e1 , . . . , en }. Die Koordinatenabbildung v1 n ∑ .. n v k ek , k : V −→ R , k(v) = vB = . , mit v = k=1 vn welche bijektiv ist, ist eine orthogonale Abbildung. Zur Erinnerung: Ist die Basis des Vektorraums V orthonormal, so ist nach Satz 3.3 das Skalarprodukt von zwei Vektoren u und v aus V das Skalarprodukt der Koordinatenvektoren k(u) und k(v): ⟨u, v⟩ = ⟨k(u), k(v)⟩ = n ∑ u k vk . k=1 ∑n Wir beweisen diese Tatsache nochmals. Seien u = k=1 uk ek und v = folgt u1 v1 .. .. k(u) = . und k(v) = . . un vn ∑n k=1 vk ek , dann Somit n n n n ∑ ∑ ∑ ∑ ⟨u, v⟩ = ⟨ ui ei , vj ej ⟩ = ui vj ⟨ei , ej ⟩ = uk vk = ⟨k(u), k(v)⟩. i=1 j=1 i,j=1 k=1 Die Koordinatenabbildung k ist somit orthogonal und nach Satz 3.12 auch längentreu. Beispiel 3.15 Sei V ein euklidischer Vektorraum mit einer Orthonormalbasis B = {e1 , e2 , e3 }. Die lineare Abbildung f : V −→ V, f (v) = k −1 (A · k(v)) √ 2√2 1 −3 1 ist mit der Matrix A = 3√ 2 √2 1 3 definiert. Wir zeigen, dass die lineare Abbil2 − 2 4 0 dung f orthogonal ist. Für einen Vektor x ∈ V gilt k(f (x)) = A · k(x). Weil die Koordinatenabbildung k : V −→ R3 orthogonal ist, gilt für zwei Vektoren u, v aus V : ⟨f (u), f (v)⟩ = ⟨k(f (u)), k(f (v))⟩ = ⟨A · k(u), A · k(v)⟩ = (A · k(u))T · A · k(v) = (k(u))T · AT · A · k(v). ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 84 Für das Produkt AT · A gilt: √ √ √ √ 2√2 1 −3 1 0 0 2 2 2 2 − 2 1 AT · A = 1 1 4 · 2 √2 1 3 = 0 1 0 18 0 0 1 −3 3 0 − 2 4 0 Somit folgt ⟨f (u), f (v)⟩ = (k(u))T · AT · A · k(v) = (k(u))T · I · k(v) = (k(u))T · k(v) = ⟨k(u), k(v)⟩ = ⟨u, v⟩. Also ist die lineare Abbildung f orthogonal. Definition 3.14 Eine n × n Matrix A heisst orthogonal, falls gilt AT A = AAT = I. Die wichtigsten Eigenschaften orthogonaler Abbildungen sind im nächsten Satz zusammengefasst. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 85 Satz 3.13 Sei B = {e1 , . . . , en } eine Orthonormalbasis des endlich-dimensionalen euklidischen Vektorraums V . Die lineare Abbildung f : V −→ V, f (v) = k −1 (A · k(v)) sei mit einer n × n Matrix A gegeben. Dann sind folgende Aussagen äquivalent: a) f ist orthogonal. b) f ist längentreu. c) Die Spaltenvektoren a1 , . . . , an von A = (a1 , . . . , an ) bilden eine orthonormale Basis in Rn . d) Die Matrix A ist orthogonal. Beweis Nach Satz 3.12 sind die Aussagen a) und b) gleichwertig. Zu zeigen: b) ⇒ c). Sei f längentreu, dann ist f auch orthogonal. Die Koordinatenabbildung k : V −→ Rn ist orthogonal, also ist die Verkettung k ◦ f : V −→ Rn ebenfalls orthogonal. Seien a1 , . . . , an die Spaltenvektoren der Matrix A. Wir wissen, dass die Spaltenvektoren der Matrix A die Koordinatenvektoren der Bildvektoren der Basisvektoren sind, also: ak = k(f (ek )) = k ◦ f (ek ), k = 1, . . . , n. Wir schliessen: { ⟨ai , aj ⟩ = ⟨k ◦ f (ei ), k ◦ f (ej )⟩ = ⟨ei , ej ⟩ = 0, i ̸= j 1, i = j Somit sind die Spaltenvektoren a1 , . . . , an der Matrix A orthogonal. Mit Satz 3.5 wissen wir, dass jedes Orthogonalsystem von Vektoren linear unabhängig sind, somit sind die Spaltenvektoren a1 , . . . , an der Matrix A linear unabhängig und sie spannen den Rn auf. Sie bilden also eine orthonormale Basis für den Rn . Zu zeigen: c) ⇒ d). Die Spaltenvektoren a1 , . . . , an der Matrix A bilden eine orthonormale Basis in Rn , d.h. { 0 i ̸= j ⟨ai , aj ⟩ = 1 i = j. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 86 Mit ⟨ai , aj ⟩ = aTi · aj , i, j = 1, . . . , n folgt AT · A = I, d.h. A ist eine orthogonale Matrix. Zu zeigen: d) ⇒ a). Es gelte AT · A = I, somit für die Spaltenvektoren ai der Matrix A { { 0 i = ̸ j 0 i ̸= j aTi · aj = ⇔ ⟨ai , aj ⟩ = ⟨k(f (ei )), k(f (ej ))⟩ = 1 i=j 1 i=j Mit der Eigenschaft, dass die Koordinatenabbildung k orthogonal ist, folgt { 0 i ̸= j ⟨f (ei ), f (ej )⟩ = 1 i = j. Seien u = ∑n k=1 uk ek und v = ∑n k=1 vk ek Vektoren aus V , dann folgt n n ∑ ∑ ⟨f (u), f (v)⟩ = ⟨ ui f (ei ), vj f (ej )⟩ = i=1 n ∑ j=1 ui vj ⟨f (ei ), f (ej )⟩ = i,j=1 n ∑ uk vk = ⟨k(u), k(v)⟩ = ⟨u, v⟩. k=1 □ Somit ist f orthogonal. Satz 3.14 Sei V ein euklidischer Vektorraum. Die lineare Abbildung f : V −→ V sei orthogonal. Dann ist sie auch winkeltreu, d.h. der Zwischenwinkel der Vektoren u und v aus V ist gleich dem Zwischenwinkel der Bildvektoren f (u) und f (v). Also: cos(φ) = ⟨u, v⟩ ⟨f (u), f (v)⟩ = . ∥u∥ · ∥v∥ ∥f (u)∥ · ∥f (v)∥ Beweis Aus Satz 3.13 wissen wir, dass wenn f orthogonal ist, dann ist f auch längentreu, somit gilt ⟨f (u), f (v)⟩ ⟨u, v⟩ cos(φ) = = . ∥f (u)∥ · ∥f (v)∥ ∥u∥ · ∥v∥ □ ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT 87 Beispiel 3.16 Sei V ein drei-dimensionaler euklidischer Vektorraum mit einer orthonormalen Basis B = {e1 , e2 , e3 } und f : V −→ Veine lineareAbbildung. Bezüglich der Basis B sei der 3 2 6 Abbildung f die Matrix A = 17 −6 3 2 zugeordnet. Wie man durch Nachrechnen 2 6 −3 T sieht, gilt A A = I. Die Matrix A ist somit orthogonal. Nach Satz 3.13 und 3.14 ist die Abbildung f orthogonal, längentreu und winkeltreu. Wir wollen dies anhand der Vektoren u und v aus V überprüfen, welche folgende Koordinatenvektoren haben: −3 2 k(u) = 2 , k(v) = √1 . 1 6 Der Zusammenhang zwischen linearer Abbildung f und Matrix A ist mit folgendem kommutativen Diagramm gegeben: f x∈ V V ∋ y = f (x) k k x B ∈ Rn A Rn ∋ yB = A · yB Kommutativ heisst in diesem Diagramm A · k(x) = k(f (x)). Wir schliessen 16 k(f (u)) = A · k(u) = 71 −4 , 13 √ −7 + 6√ 6 k(f (v)) = A · k(v) = 17 21 +√ 2 6. −3 6 Wir wissen, dass k eine orthogonale Abbildung ist. Damit folgt √ √ √ √ 1 (−112 + 96 6 − 84 − 8 6 − 39 6) = −4 + 6. ⟨f (u), f (v)⟩ = ⟨k(f (u)), k(f (v))⟩ = 49 Andererseits ist ⟨u, v⟩ = ⟨k(u), k(v)⟩ = −6 + 2 + √ √ 6 = −4 + 6. Somit ⟨u, v⟩ = ⟨f (u), f (v)⟩, d.h. f ist orthogonal. Die Längentreue sieht man wie folgt ein. √ √ √ ∥f (u)∥ = ⟨f (u), f (u)⟩ = ⟨k(f (u)), k(f (u))⟩ = 71 256 + 16 + 169 = 3, und ∥u∥ = √ ⟨u, u⟩ = √ ⟨k(u), k(u)⟩ = 3. Also ist ∥f (u)∥ = ∥u∥. Die Winkeltreue folgt sofort aus der Orthogonalität von f und der Längentreue. ZHAW bodr, 28. April 2014 LA2Manuskript.tex KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT Beispiel 3.17 Die Drehmatrix im R2 88 ( ) cos(φ) − sin(φ) D= sin(φ) cos(φ) und die Drehmatrizen im R3 1 0 0 Dx,φ = 0 cos(φ) − sin(φ) , 0 sin(φ) cos(φ) cos(φ) − sin(φ) 0 Dz,φ = sin(φ) cos(φ) 0 . 0 0 1 Dy,φ cos(φ) 0 sin(φ) 0 1 0 , = − sin(φ) 0 cos(φ) sind orthogonale Matrizen. Denn ( )( ) ( ) cos(φ) sin(φ) cos(φ) − sin(φ) 1 0 = , − sin(φ) cos(φ) sin(φ) cos(φ) 0 1 1 0 0 1 0 0 1 0 0 = 0 cos(φ) sin(φ) 0 cos(φ) − sin(φ) = 0 1 0 . 0 − sin(φ) cos(φ) 0 sin(φ) cos(φ) 0 0 1 DT · D = T Dx,φ · Dx,φ Analog für Dy,φ und Dz,φ . Orthogonale Matrizen haben folgende Eigenschaften. Satz 3.15 a) Die Inverse einer orthogonalen Matrix ist orthogonal. b) Das Produkt orthogonaler Matrizen ist orthogonal. c) Für eine orthogonale Matrix A gilt det(A) = ±1. Beweis Seien A und B orthogonale Matrizen. a) Aus AT · A = I folgt A−1 = AT . Also (A−1 )T · A−1 = (AT )T · A−1 = A · A−1 = I. Also ist A−1 eine orthogonale Matrix. b) Aus AT · A = I und B T · B = I folgt (A · B)T · (A · B) = B T · AT · A · B = I. c) Aus AT · A = I folgt 1 = det(I) = det(AT · A) = det(AT ) · det(A) = det2 (A). Somit det(A) = ±1. ZHAW □ bodr, 28. April 2014 LA2Manuskript.tex