Lineare Algebra II

Werbung
Lineare Algebra II
Zürcher Hochschule für Angewandte Wissenschaften
Richard Bödi
Basierend auf dem Linearen Algebra Manuskript von Roger
Manz.
Inhaltsverzeichnis
1 Determinanten
1.1
3
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.1.1
Lineare Gleichungssysteme mit 2 Gleichungen . . . . . . . . . . . . .
4
1.1.2
Lineare Gleichungssysteme mit 3 Gleichungen . . . . . . . . . . . . .
6
1.1.3
Lineare Gleichungssysteme mit 4 Gleichungen . . . . . . . . . . . . .
9
1.2
Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3
Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4
Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5
Effektive Berechnung von Determinanten . . . . . . . . . . . . . . . . . . . . 20
1.6
Geometrische Deutung der Determinante . . . . . . . . . . . . . . . . . . . . 23
1.7
Weitere Anwendungen von Determinanten . . . . . . . . . . . . . . . . . . . 24
2 Eigenwerte und Eigenvektoren
27
2.1
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2
Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3
Berechnung von Eigenwerten . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4
Diagonalisierung von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.5
Iterative Berechnung von Eigenwerten und Eigenvektoren . . . . . . . . . . 44
2.6
Effiziente Berechnung des Page-Rankings . . . . . . . . . . . . . . . . . . . . 47
1
INHALTSVERZEICHNIS
3 Vektorräume mit Skalarprodukt
2
52
3.1
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2
Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3
Norm und Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.4
Koordinaten bezüglich einer Orthonormalbasis . . . . . . . . . . . . . . . . . 61
3.5
Das Orthogonalisierungs-Verfahren von Gram-Schmidt . . . . . . . . . . . . 64
3.6
Orthogonale Komplemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.7
Näherungslösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.7.1
Orthogonalprojektion als Näherungen . . . . . . . . . . . . . . . . . 72
3.7.2
Näherungslösungen für lineare Gleichungssysteme . . . . . . . . . . . 74
3.8
Orthogonale und unitäre lineare Abbildungen . . . . . . . . . . . . . . . . . 81
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
Kapitel 1
Determinanten
1.1
Motivation
Wir betrachten quadratische lineare Gleichungssysteme
a11 x1
a21 x1
..
.
an1 x1
+ a12 x2 + · · · + a1n xn = b1
+ a22 x2 + · · · + a2n xn = b2
..
..
..
.
.
.
+ an2 x2 + · · · + ann xn = bn
mit Koeffizienten aij aus einem Körper K, die sich eindeutig lösen lassen.
Ziel ist es, in systematischer Art und Weise (d.h. mit Hilfe einer einzigen Formel) die
Lösung des linearen Gleichungssystems zu berechnen. Wir kennen bereits das Eliminationsverfahren von Gauss, um die Lösung zu berechnen. Dabei wird das Gleichungssystem
so umgeformt, dass in der i-ten Zeile die ersten i − 1 Unbekannten x1 , . . . , xi−1 eliminiert
sind. Insbesondere würde in der letzten Zeile nur noch die Unbekannte xn vorkommen und
die restlichen Unbekannten xi könnten nun rekursiv durch Rückwärtseinsetzen bestimmt
werden. Daraus liesse sich im Prinzip eine einzige Formel zur Berechnung der Lösung
ableiten, wenn nicht bei der Durchführung des Algorithmus unterschiedliche Zeilenpermutationen (und ggf. Spaltenpermutationen) notwendig wären, die je nach der Struktur der
Matrix auch noch unterschiedlich ausfallen können. Da es n! viele unterschiedliche Zeilenpermutationen bei n Zeilen gibt, müsste man n! viele Lösungsformeln angeben. Um
daraus eine einzige Formel für die Lösung zu destillieren, müsste man nun all diese n! vielen Lösungsformeln in eine einheitliche Form bringen, die unabhängig von der jeweiligen
Zeilenpermutationen ist.
Da wir an einer einheitlichen Lösungsformel interessiert sind, ist dieses Vorgehen eher
ungeeignet, weil es unübersichtlich ist. Stattdessen werden wir rekursiv vorgehen. Wir
entwickeln zuerst ein Verfahren für 2 Gleichungen, dann für 3 Gleichungen, und so fort.
3
KAPITEL 1. DETERMINANTEN
4
Bei der Lösung eines Systems mit n Gleichungen machen wir uns dabei zunutze, dass wir
schon eine Lösungsformel für Systeme mit n − 1 Gleichungen kennen. Am Ende werden wir
versuchen, die gemeinsame Struktur der Lösungsformel zu erkennen. Dies wird unweigerlich
auf den Begriff der Determinante führen.
1.1.1
Lineare Gleichungssysteme mit 2 Gleichungen
Wir beginnen mit dem quadratischen linearen Gleichungssystem
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
Um x2 zu eliminieren, multiplizieren wir die erste Gleichung mit a22 und die zweite mit
−a12 . Addieren wir die so entstandenen Gleichungen, so erhalten wir
(a11 a22 − a21 a12 )x1 = b1 a22 − b2 a12 ,
woraus
x1 =
b1 a22 − b2 a12
a11 a22 − a21 a12
folgt. Wir können erkennen, dass sowohl der Zähler als auch der Nenner nach dem gleichen
Prinzip aufgebaut sind. Deshalb führen wir für diese Ausdrücke ein neues Symbol ein:
a11 a12 a21 a22 := a11 a22 − a21 a12 .
Dieses Symbol wird die Determinante der Matrix
(
)
a11 a12
a21 a22
genannt. Damit bekommt die Formel für x1 die Form
b1 a12 b2 a22 x1 = a11 a12 a21 a22 In analoger Weise berechnen wir die zweite Komponente x2 der Lösung. Um x1 im Gleichungssystem zu eliminieren, multiplizieren wir die erste Gleichung mit −a21 und die zweite
mit a11 . Addieren wir die beiden so entstandenen Gleichungen, so erhalten wir
−(a12 a21 − a22 a11 )x2 = −(b1 a21 − b2 a11 ),
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
5
Benutzen wir unser neues Symbol, so folgt
b
− 1
b2
x2 = a12
− a22
a11 a21 a11 a21 Die beiden Nenner von x1 und x2 unterscheiden sich nur in der Reihenfolge der Spalten
und durch das Vorzeichen. Aber wegen
a11 a22 − a21 a12 = −(a12 a21 − a22 a11 )
gilt
a11 a12 = − a12 a11 ,
a21 a22 a22 a21 d.h. in Wirklichkeit sind die beiden Nenner die gleichen.
Damit erhalten wir die Cramersche Regel für 2 Gleichungen und 2 Unbekannte:
x1 =
b1
b2
a11
a21
a12 a22 a12 a22 x2 =
a11
a21
a11
a21
b1 b2 a12 a22 Ausserdem halten wir die folgenden Eigenschaften fest:
• Vertauscht man zwei Spalten der Matrix, so dreht sich das Vorzeichen um.
• Vertauscht man zwei Zeilen der Matrix, so dreht sich das Vorzeichen um.
• Transponiert man die Matrix, so ändert sich der Ausdruck
a11 a12 a21 a22 nicht.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
1.1.2
6
Lineare Gleichungssysteme mit 3 Gleichungen
Wir fahren fort mit dem quadratischen linearen Gleichungssystem
a11 x1 + a12 x2 + a13 x3 = b1
a21 x1 + a22 x2 + a23 x3 = b2
a31 x1 + a32 x2 + a33 x3 = b3
Um x2 und x3 zu eliminieren, multiplizieren wir die i-te Gleichung mit einem Skalar λi ∈ K
und addieren alle drei so erhaltenen Gleichungen. Für die Skalare λ1 , λ2 , λ3 müssen dabei
die folgenden Gleichungen gelten:
a12 λ1 + a22 λ2 + a32 λ3 = 0
a13 λ1 + a23 λ2 + a33 λ3 = 0
Da wir vorausgesetzt haben, dass das ursprüngliche Gleichungssystem lösbar ist, muss dies
auch für das obige Gleichungssystem gelten. Schreiben wir dieses System um in
a12 λ1 + a22 λ2 = −a32 λ3
a13 λ1 + a23 λ2 = −a33 λ3
so können wir die Cramersche
anwenden und erhalten
a22
a23
λ1 = a12
a13
Regel für lineare Gleichungssysteme mit 2 Gleichungen
a32 a33 λ3
a22 a23 a12
a13
λ2 = − a12
a13
a32 a33 λ3
a22 a23 Dabei ist der Parameter λ3 noch frei wählbar, wobei natürlich λ3 ̸= 0 sein muss, weil sonst
keine Umformung des ursprünglichen Gleichungssystem stattfindet. Es ist zweckmässig,
für λ3 den Wert
a12 a22 λ3 = a13 a23 zu wählen, weil sich damit die Ausdrücke für λ1 und λ2 besonders einfach werden:
a12 a32 a22 a32 λ2 = − λ1 = a13 a33 a23 a33 Multiplizieren wir nun die ursprünglichen drei Gleichungen mit diesen drei Faktoren und
addieren die so entstandenen Gleichungen, so werden die Unbekannten x2 und x3 eliminiert
und wir erhalten für x1 :
a
a
a
a a a b1 22 32 − b2 12 32 + b3 12 22 a13 a23
a13 a33
a23 a33
x1 =
a12 a22 a12 a32 a22 a32 + a31 − a21 a11 a13 a23 a13 a33 a23 a33 ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
7
Zähler und Nenner dieses Ausdrucks folgen wieder einem gemeinsamen Bildungsgesetz:
Es wird die alternierende (d.h. mit wechselndem Vorzeichen) Summe der Produkte der
Elemente in der ersten Spalte der Matrizen




a11 a12 a13
b1 a12 a13
a21 a22 a23 
b2 a22 a23 
a31 a32 a33
b3 a32 a33
mit den Determinanten derjenigen 2 × 2-Untermatrizen, welche durch Streichen der ersten
Spalte und der fraglichen Zeile entstehen.
Damit wir diesen Ausdruck etwas übersichtlicher schreiben können, müssen wir weitere
Notation einführen.
Definition 1.1
Sei A eine n × n-Matrix und seien 1 ≤ i, j, ≤ n. Die (n − 1) × (n − 1)-Matrix Aij sei
diejenige Untermatrix von A, welche aus A durch Streichen der i-ten Zeile und j-ten
Spalte entsteht. Die Matrix Aij heisst eine Streichungsmatrix von A.
Mit Hilfe dieser Definition lässt sich das obige Bildungsgesetz für eine 3×3-Matrix A = (aij )
wie folgt beschreiben:
a22 a32 a12 a32 a12 a22 a11 |A11 | − a21 |A21 | + a31 |A31 | = a11 − a21 + a31 a23 a33 a13 a33 a13 a23 Wie zuvor bei 2 Gleichungen mit
der Matrix A als
a11 a12
|A| = a21 a22
a31 a32
2 Unbekannten definieren wir nun die Determinante
a13 a23 := a11 |A11 | − a21 |A21 | + a31 |A31 |
a33 Damit lässt sich die erste Komponente x1 der Lösung beschreiben durch
b1 a12 a13 b2 a22 a23 b3 a32 a33 x1 = a11 a12 a13 a21 a22 a23 a31 a32 a33 Ganz entsprechend berechnet man die beiden anderen Komponenten. Zur Berechnung von
x2 multipliziert man die erste Gleichung mit −|A12 |, die zweite mit |A22 |, die dritte mit
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
8
−|A32 | und addiert die drei so entstandenen Gleichungen. Man erhält so
x2 =
−b1 |A11 | + b2 |A21 | − b3 |A31 |
−a12 |A12 | + a22 |A22 | − a32 |A32 |
Im Fall von 2 Gleichungen hatten sich die Nenner der beiden Lösungen als identisch mit
|A| erwiesen. Dies gilt auch im jetzigen Fall:
|A| = a11 |A11 | − a21 |A21 | + a31 |A31 |
a22 a32 a12 a32 a12 a22 = a11 − a21 + a31 a23 a33 a13 a33 a13 a23 = a11 a22 a33 − a21 a12 a33 + a31 a12 a23 − a11 a32 a23 + a21 a32 a13 − a31 a22 a13
= −a12 a21 a33 + a12 a31 a23 + a22 a11 a33 − a22 a31 a13 − a32 a11 a23 + a32 a21 a13
= −a12 |A12 | + a22 |A22 | − a32 |A32 |
Für die letzte verbliebene Komponente x3 wird analog verfahren. Insgesamt erhält man
die Cramersche Regel für 3 Gleichungen und 3 Unbekannte:
x1 =
ZHAW
b
1
b
2
b3
a
11
a
21
a31
a12
a22
a32
a12
a22
a32
a13 a23 a33 a13 a23 a33 x2 =
a
11
a
21
a31
a
11
a
21
a31
b1
b2
b3
a12
a22
a32
a13 a23 a33 a13 a23 a33 x3 =
a
11
a
21
a31
a
11
a
21
a31
a12
a22
a32
a12
a22
a32
b1 b2 b3 a13 a23 a33 bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
9
Wir halten wieder die folgenden Eigenschaften für Determinanten fest:
• Vertauscht man zwei Spalten der Matrix, so dreht sich das Vorzeichen um.
• Vertauscht man zwei Zeilen der Matrix, so dreht sich das Vorzeichen um.
• Mutlipliziert man eine Spalte oder eine Zeile mit einem Faktor λ, so multipliziert
sich die Determinante ebenfalls um den Faktor λ.
• Transponiert man die Matrix, so ändert sich der Ausdruck
a11 a12 a13 a21 a22 a23 a31 a32 a33 nicht.
1.1.3
Lineare Gleichungssysteme mit 4 Gleichungen
Wir fahren fort mit dem quadratischen linearen Gleichungssystem
a11 x1
a21 x1
a31 x1
a41 x1
+
+
+
+
a12 x2
a22 x2
a32 x2
a42 x2
+
+
+
+
a13 x3
a23 x3
a33 x3
a43 x3
+
+
+
+
a14 x4
a24 x4
a34 x4
a44 x4
=
=
=
=
b1
b2
b3
b4
Elimination von x2 , x3 und x4 mittels der Cramerschen Regel für 3 × 3-Systeme liefert
x1 =
b1 |A11 | − b2 |A21 | + b3 |A31 | − b4 |A41 |
a11 |A11 | − a21 |A21 | + a31 |A31 | − a41 |A41 |
Dabei ist jede in der Formel auftauchende Determinante |Aij | die alternierende Summe
von 6 Produkten aus 3 Matrixkoefffizienten. Rechnet man den Nenner dieses Ausdrucks
vollständig aus, so erhält man also eine alternierende Summe von 24 Produkten aus je 4
Matrixkoefffizienten:
a11 |A11 |
a11 a22 a33 a44
− a11 a32 a23 a44
a11 a42 a23 a34
− a11 a22 a43 a34
a11 a32 a43 a24
− a11 a42 a33 a24
ZHAW
−
−
+
+
−
+
+
a21 |A21 |
a21 a12 a33 a44
a21 a32 a13 a44
a21 a42 a13 a34
a21 a12 a43 a34
a21 a32 a43 a14
a21 a42 a33 a14
+
+
−
−
+
−
−
a31 |A31 |
a31 a12 a23 a44
a31 a22 a13 a44
a31 a42 a13 a24
a31 a12 a43 a24
a31 a22 a43 a14
a31 a42 a23 a14
+
−
+
+
−
+
+
a41 |A41 |
=
a41 a12 a23 a34
a41 a22 a13 a34
a41 a32 a13 a24
a41 a12 a33 a24
a41 a22 a33 a14
a41 a32 a23 a14
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
10
Diese alternierende Summe heisst die Determinante der Matrix A und wird mit
a11 a12 a13 a14 a21 a22 a23 a24 := a11 |A11 | − a21 |A21 | + a31 |A31 | + a41 |A41 |
|A| = a31 a32 a33 a34 a41 a42 a43 a44 bezeichnet.
Damit ergibt sich
b1
b2
b3
b4
x1 = a11
a21
a31
a41
a12
a22
a32
a42
a13
a23
a33
a43
a12
a22
a32
a42
a13
a23
a33
a43
a14 a24 a34 a44 a14 a24 a34 a44 Entsprechende Formeln bekommen wir für die anderen Unbekannten x2 , x3 und x4 .
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
1.2
11
Permutationen
Definition 1.2
Sei n ∈ N und M = {1, 2, 3, . . . , n}. Eine bijektive Abbildung π : M → M heisst eine
Permutation von M . Für eine Permutation π schreiben wir
(
)
1
2
...
n
π=
.
π(1) π(2) . . . π(n)
Die Menge aller Permutationen von M wird mit Sn gekennzeichnet. Die Menge Sn hat
n! Elemente. Da jede Permutation π bijektiv ist, gibt es stets eine Umkehrabbildung
π −1 von π. Zwei Permutationen σ und τ lassen sich hintereinander ausführen und
ergeben dadurch eine neue Permutation π, geschrieben als Produkt π = στ . Dabei
wird zuerst σ und danach τ ausgeführt. Die identische Permutation id ist gegeben
durch
(
)
1 2 ... n
id =
.
1 2 ... n
Definition 1.3
Eine Permutation π ∈ Sn heisst ein Zyklus der Länge t oder t-Zyklus, wenn es t
verschiedene Zahlen v1 , . . . , vt ∈ M gibt, so dass für alle 1 ≤ i ≤ n gilt:


vk+1 falls i = vk und k ̸= t
π(i) = v1
falls i = vk und k = t


i
sonst
Für einen t-Zyklus schreibt man in diesem Fall
π = (v1 , . . . , vt ).
Zyklen der Länge 2 werden Transpositionen genannt.
Für t-Zyklen gelten die folgenden Eigenschaften:
1. (v1 , . . . , vt ) = (vt , v1 , . . . , vt−1 ) = · · · = (v2 , . . . , vt , v1 )
2. (v1 , . . . , vt )−1 = (vt , vt−1 , . . . , v1 )
3. (v1 , v2 )−1 = (v1 , v2 )
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
Beispiel 1.1
Es ist
Beispiel 1.2
Es ist
Beispiel 1.3
Es ist
12
(
)
1 2 3 4
= (1324)
3 4 2 1
(
)
1 2 3 4
= (132)
3 1 2 4
(
)
1 2 3 4
= (13)(24)
3 4 1 2
Satz 1.1
Jeder t-Zyklus ist Produkt von t − 1 Transpositionen.
Beweis
Es ist (v1 , . . . , vt ) = (v1 , v2 )(v1 , v3 ) . . . (v1 , vt−1 )(v1 , vt ).
□
Satz 1.2
Jede Permutation τ ∈ Sn kann auf eindeutige Weise als Produkt paarweise elementefremder Zyklen geschrieben werden. Insbesondere ist jede Permutation ein Produkt von Transpositionen.
Beweis
Sei B(τ ) = {i ∈ M | τ (i) ̸= i} und sei b die Anzahl der Elemente von B. Der Beweis wird
mittels vollständiger Induktion über b geführt.
Für den Induktionsanfang b = 0 folgt, dass B(τ ) die leere Menge ist, d.h. es ist τ (i) = i
für alle i ∈ M , d.h. τ ist die Identität und für diese gilt die Aussage des Satzes in trivialer
Weise.
Für den Induktionsschritt sei b > 0. Sei v1 das kleinste Element aus B. Betrachte die
endliche Menge
{v1 , v2 := τ (v1 ), v3 := τ (v2 ), . . . }.
Wähle ein minimales t ∈ M , so dass vt+1 ∈ {v1 , . . . , vt } gilt. Dann ist vt+1 = v1 , denn
andernfalls wäre vt+1 = τ (vi ) für ein i < t und es würde τ (vt ) = vt+1 = τ (vi ) und
somit vt = vi folgen, was der Minimalität von t widerspricht. Setze σ1 = (v1 , . . . , vt ).
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
13
Nach Wahl von t ist τ (i) = σ1 (i) bzw. σ1−1 τ (i) = i für 1 ≤ i ≤ t. Also ist insbesondere
B(σ1−1 τ ) = B(τ )\{v1 , . . . , vn }.
Nach Induktionsvoraussetzung gibt es paarweise elementefremde Zyklen σ2 , . . . , σm , so dass
sich σ1−1 τ schreiben lässt als
σ1−1 τ = σ2 . . . σm .
Wegen B(σ1−1 τ ) = B(τ )\{v1 , . . . , vn } sind die Zyklen σ2 , . . . , σm auch elementefremd zu
{v1 , . . . , vn } und wir haben insgesamt (nach Anwendung von σ1 auf beiden Seiten der
Gleichung)
τ = σ1 σ2 . . . σm .
□
Dies beweist den Satz.
Beispiel 1.4
Es ist
(
)
1 2 3 4 5 6 7 8 9
= (13245)(678) = (13)(12)(14)(15)(67)(68)
3 4 2 5 1 7 8 6 9
Beispiel 1.5
Es ist
(
)
1 2 3 4 5 6 7 8 9
= (1469358) = (14)(16)(19)(13)(15)(18)
4 2 5 6 8 9 7 1 3
Beispiel 1.6
Es ist
(
)
1 2 3 4 5 6 7 8 9
= (156234)(789) = (15)(16)(12)(13)(14)(78)(79)
5 3 4 1 6 2 8 9 7
Definition 1.4
Für eine Permutation π ∈ Sn heisst
sign(π) =
∏
1≤i<j≤n
π(i) − π(j)
i−j
das Signum von π.
Bemerkung. Das Signum lässt sich als Abbildung von Sn nach Q auffassen. Wir werden
nachfolgend zeigen, dass die Abbildung sign tatsächlich nur die Werte -1 und 1 annimmt.
Satz 1.3
Für eine Transposition τ ∈ Sn ist sign(τ ) = −1.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
14
Beweis
Sei τ = (s, t). Dann ist
sign(τ ) = sign(s, t) =
∏
1≤i<j≤n
i,j̸=s
i,j̸=t
i−j ∏ s−j ∏ i−t s−t
·
.
i−j
t−j
i−s t−s
1≤j≤n
j̸=s,t
1≤i≤n
i̸=s,t
Das erste Produkt ist 1, die beiden mittleren Produkte zusammengenommen ergeben ebenfalls 1, während der letzte einzelne Faktor −1 ist. Damit folgt insgesamt sign(τ ) = −1. □
Satz 1.4
Die Signum-Abbildung sign nimmt nur die Werte +1 und −1 an. Für jede Permutation
π ∈ Sn ist
sign(π −1 ) = sign(π).
Beweis
Wir zeigen zuerst, dass für zwei Permutationen σ, τ ∈ Sn
sign(στ ) = sign(σ) · sign(τ )
gilt:
sign(στ ) =
∏
1≤i<j≤n
στ (i) − στ (j)
i−j
=
∏
1≤i<j≤n
στ (i) − στ (j)
·
τ (i) − τ (j)
∏
1≤i<j≤n
τ (i) − τ (j)
i−j
= sign(σ) · sign(τ )
Da sich jede Permutation als Produkt von Transpositionen schreiben lässt und für für
Transpositionen τ das Signum −1 ist, folgt, dass die Signum-Abbildung für eine beliebige
Permutation die Werte +1 und −1 annimmt.
Wegen ππ −1 = id und sign( id )= 1 folgt
1 = sign(id) = sign(ππ −1 ) = sign(π) · sign(π −1 ),
woraus
sign(π −1 ) = sign(π)
folgt, da das Signum nur die Werte +1 und -1 annehmen kann.
□
Folgerung
Jede Permutation π ∈ Sn lässt sich entweder als Produkt von gradzahling vielen oder
von ungradzahling vielen Transpositionen schreiben. Im ersten Fall heisst die Permutation
gerade, im zweiten Fall ungerade. Das Signum einer geraden Permutation ist +1, das
einer ungeraden Permutation ist −1.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
1.3
15
Definition der Determinante
Mit Hilfe des Signum-Abbildung können wir die Vorzeichenregel für die Bildung der Determinante formulieren: Der Ausdruck
aπ(1),1 aπ(2),2 · · · · · aπ(n),n
aus dem ersten Abschnitt dieses Kapitels hat genau das Vorzeichen sign(π).
Definition 1.5
Die Determinante einer n × n-Matrix A = (aij ) ist die folgende alternierende Summe
von Produkten von Matrixkomponenten, die mit det(A) oder |A| bezeichnet wird:
∑
det(A) = |A| =
sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n .
π∈Sn
Für 2 × 2- und 3 × 3-Matrizen ergeben sich aus dieser Definition folgende Regeln zur
Berechnung der Determinante (Sarrus-Regeln):
Satz 1.5
Für eine 2 × 2-Matrix A = (aij ) ist
det(A) = a11 a22 − a12 a21 .
Satz 1.6
Für eine 3 × 3-Matrix A = (aij ) ist
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 .
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
1.4
16
Rechenregeln für Determinanten
Satz 1.7
Die Abbildung det : Mat(n × n, K) → K : A 7→ det(A) besitzt folgende Eigenschaften:
1. Entsteht die Matrix A′ aus A durch Multiplikation einer einzigen Spalte mit
λ ∈ K, so gilt
det(A′ ) = λ det(A).
2. Sind A, A′ , A′′ Matrizen, die sich nur in der i-ten Spalte unterscheiden, und ist
die i-te Spalte von A′′ die Summe der i-ten Spalten von A und A′ , so gilt
det(A′′ ) = det(A) + det(A′ ).
3. Besitzt die Matrix A zwei gleiche Spalten, so ist
det(A) = 0.
4. Besitzt die Matrix A eine Null-Spalte, so ist
det(A) = 0.
5. Die Abbildung det ist antisymmetrisch bzgl. der Spalten, d.h. entsteht die
Matrix A′ aus A durch Vertauschen zweier Spalten, so gilt
det(A′ ) = − det(A).
6. Für die Einheitsmatrix In gilt
det(In ) = 1.
7. Es ist
det(AT ) = det(A).
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
17
Beweis
1) Es ist
∑
det(A′ ) =
sign(π)a′π(1),1 a′π(2),2 · · · · · a′π(n),n
π∈Sn
∑
=
sign(π)aπ(1),1 aπ(2),2 · . . . (λaπ(j),j ) · · · · · aπ(n),n
π∈Sn
= λ
∑
sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n
π∈Sn
= λ det(A).
2) Es ist
det(A) =
∑
sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n
π∈Sn
=
∑
sign(π)aπ(1),1 aπ(2),2 · . . . (a′π(j),j + a′′π(j),j ) · · · · · aπ(n),n
π∈Sn
=
∑
sign(π)a′π(1),1 · · · · · a′π(n),n +
π∈Sn
∑
sign(π)a′′π(1),1 · · · · · a′′π(n),n
π∈Sn
′
′′
= det(A ) + det(A ).
3) Seien die i-te und die j-te Spalte von A identisch. Sei τ ∈ Sn die Transposition, die i
und j vertauscht, also τ = (i, j). Dann gilt für jede beliebige Permutation π ∈ Sn
aπ(1),1 aπ(2),2 · · · · · aπ(n),n = aπτ (1),1 aπτ (2),2 · · · · · aπτ (n),n
und
sign(π) = −sign(πτ ).
Unterteilt man also die Summe
∑
sign(π)aπ(1),1 aπ(2),2 · · · · · aπ(n),n
π∈Sn
in zwei Teile, nämlich allen geraden und allen ungeraden Permutationen, so sieht man,
dass beide Teile gleich sind bis auf ein unterschiedliches Vorzeichen. Also folgt insgesamt
det(A) = 0.
4) Ist etwa die erste Spalte v1 von A = (v1 , . . . , vn ) der Nullvektor, so folgt aus Teil 3)
0 = det(v2 , v2 , . . . , vn ) = det(v1 , v2 , . . . , vn ) + det(v2 , v2 , . . . , vn )
= det(v1 , v2 , . . . , vn )
= det(A).
5) Wir definieren drei neue Matrizen A∗ , A∗∗ und A∗∗∗ . Die Matrix A∗ entsteht aus A
durch Ersetzen der i-ten Spalte durch die j-te Spalte. Die Matrix A∗∗ entsteht aus A durch
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
18
Ersetzen der j-ten Spalte durch die i-te Spalte. Die Matrix A∗∗∗ entsteht aus A durch
Ersetzen der i-ten und der j-ten Spalte durch die ihre Summe. Diese drei Matrizen haben
jeweils zwei gleiche Spalten und daher gilt:
det(A∗ ) = 0,
det(A∗∗ ) = 0,
det(A∗∗∗ ) = 0.
Wegen Teil 2) folgt
det(A∗ ) = det(A∗∗ ) + det(A′ ) + det(A) + det(A∗∗∗ ),
also
0 = det(A′ ) + det(A)
bzw.
det(A) = − det(A′ ).
6) Ausser für die identische Permutation id (die nichts permutiert), sind alle Summanden
in der Determinanten-Summe Null. Deshalb ist
det(In ) = sign(id)1 · · · · · 1 = 1.
7) Es ist wegen sign(π −1 ) = sign(π)
∑
det(AT ) =
sign(π)a1,π(1) a2,π(2) · · · · · an,π(n)
π∈Sn
=
∑
sign(π)aπ−1 (1),1 aπ−1 (2),2 · · · · · aπ−1 (n),n
π∈Sn
=
∑
sign(π −1 )aπ−1 (1),1 aπ−1 (2),2 · · · · · aπ−1 (n),n
π∈Sn
=
∑
sign(τ )aτ (1),1 aτ (2),2 · · · · · aτ (n),n
π∈Sn
□
= det(A).
Beispiel 1.7
Die Determinante einer der drei Typen von Elementarmatrizen lässt sich einfach bestimmen:
• Es ist nach Teil 1)

1
 ..

.

i,λ

λ
det(En ) = det 

..

.
ZHAW








 = λ det 






1

1
..
.



 = λ det(In ) = λ.
1


..
. 
1
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
19
• Es ist nach Teil 2), Teil 4) und Teil 7)

1
 ..

.


1
λ


ij,λ
..
det(En ) = det 
.


1


..

.







= det(In ) + det 





1
..
.













1





1
λ


..

.


0


..
. 
1
= 1 + 0 = 1.
• Die Matrix
Enij

1
 ..

.


0
1


.
.
=
.


1
0


..

.













1
entsteht aus der Einheitsmatrix In durch Vertauschen der i-ten mit der j-ten Spalte.
Nach Teil 5) und Teil 6) ist daher
det(Enij ) = − det(In ) = −1.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
20
Abschliessend untersuchen wir, wie sich die Zeilen- und Spaltenumformungen beim GaussAlgorithmus auf die Determinante auswirken:
Satz 1.8
Die Abbildung det : Mat(n × n, K) → K : A 7→ det(A) verhält sich bei den Spaltenund Zeilenumformungen des Eliminationsverfahrens von Gauss wie folgt
1. Bei Vertauschung zweier Zeilen (Spalten) multipliziert sich die Determinante mit
−1.
2. Bei der Addition des Vielfachen einer Zeile (Spalte) zu einer anderen Zeile ändert
sich die Determinante nicht.
3. Bei Multiplikation einer Zeile (Spalte) mit einem Faktor λ multipliziert sich die
Determinante mit dem gleichen Faktor λ.
Beweis
Dies folgt sofort aus dem letzten Satz: Aussage 1) folgt aus Teil 4), Aussage 2) folgt aus
den Teilen 1), 2) und 3), Aussage 3) folgt aus Teil 1).
□
1.5
Effektive Berechnung von Determinanten
Satz 1.9
Sei A = (aij ) eine n × n-Dreiecksmatrix. Dann ist
det(A) = a11 a22 · · · · · ann .
Beweis
Sei A eine obere Dreiecksmatrix. Dann ist aij = 0 für i > j. Ein Produkt
(π)a1,π(1) a2,π(2) · · · · · an,π(n)
ist immer 0, ausser wenn π(k) ≤ k für alle 1 ≤ k ≤ n Dies ist aber nur für π = id der Fall.
Also folgt
det(A) = sign(id)a11 a22 · · · · · ann = a11 a22 · · · · · ann .
□
Will man die Determinante einer 10 × 10-Matrix ausrechnen, so sind 10! = 3′ 628′ 800
Produkte mit jeweils 10 Faktoren zu berechnen. Dies ergibt insgesamt 3′ 628′ 800 · 9 =
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
21
32′ 659′ 200 Multiplikationen. Die Komplexität zur Berechnung der Determinante ist also
sehr hoch. Andererseits ist das Berechnen der Determinante einer Dreiecksmatrix sehr
gering. Dies legt es nahe, den Gauss-Algorithmus zum Lösen linearer Gleichungssysteme
mit der Determinanten-Berechnung zu kombinieren. Nach Satz 1.6 wissen wir auch genau,
was bei jedem Schritt des Gauss-Algorithmus mit der Determinante passiert. Man muss nur
die Anzahl der Vertauschungen von Zeilen oder Spalten notieren, sowie das Multiplizieren
einer Zeile oder Spalte mit einem skalaren Faktor λ. Die Addition des Vielfachen einer
Zeile zu einer anderen Zeile beeinflusst die Determinante nicht.
Beispiel 1.8
Zur Berechnung der Determinante der Matrix

1 −1
−4 1
A=
 0 −2
0 −2
wenden wir den Gauss-Algorithmus an
terminante verändern:
λi2 x1 x2 x3 x4
1 −1 0 3
4 −4 1
0 2
0 −2 1 3
0 −2 1 2
0
0
1
1

3
2

3
2
und protokollieren diejenigen Schritte, die die Dec
0
0
0
0
λi3
x1
1
0
−2/3 0
−2/3 0
x2 x3 x4
−1 0 3
−3 0 14
−2 1 3
−2 1 2
c
0
0
0
0
λi4 x1 x2 x3
x4
c
x1 x2 x3
x4
c
1 −1 0
3
0
1 −1 0
3
0
0 −3 0
14
0
0 −3 0
14
0
0
0
1 −19/3 0
0
0
1 −19/3 0
−1 0
0
1 −22/3 0
0
0
0
−1
0
Da weder Zeilen- oder Spaltenvertauschungen, noch Multiplizieren einer Zeile mit einem
Faktor verwendet wurde, sind die Determinanten der Ausgangsmatrix und der entstandenen Dreiecksmatrix gleich. Nach Satz 1.7 ist damit
det(A) = 1 · (−3) · 1 · (−1) = 3.
Beispiel 1.9
Berechnung der Determinante der Matrix


3 0
1 2
4 1 −1 2

A=
0 −1 2 3
1 −2 0 2
Anwendung des Gauss-Algorithmus liefert
x1 x2 x3 x4
3
0
1
2
4
1 −1 2
0 −1 2
3
1 −2 0
2
ZHAW
x1 x2 x3 x4
1 −2 0
2
−4 4
1 −1 2
0 −1 2
3
−3 3
0
1
2
x1 x2 x3 x4
1 −2 0
2
0
9 −1 −6
0 −1 2
3
0
6
1 −4
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
22
x1 x2 x3 x4
1 −2 0
2
0 −1 2
3
9 0
9 −1 −6
6 0
6
1 −4
x1 x2 x3 x4
1 −2 0 2
0 −1 2 3
0
0 17 21
−13/17 0
0 13 14
x1 x2 x3
x4
1 −2 0
2
0 −1 2
3
0
0 17
21
0
0
0 −35/17
x1 x2 x3 x4
1 −2 0
2
0 −1 2
3
0
0 17 21
0
0
0 −35
Beim Übergang von Schema (1) zu (2) und von (3) zu (4) wurden jeweils zwei Zeilen
vertauscht. Am Ende wurde die letzte Zeile mit 17 multipliziert. Also ergibt sich
(−1) · (−1) · 17 · det(A) = 1 · (−1) · 17 · (−35),
also
det(A) = 35.
Wir wollen nun die Formel aus dem ersten Teil dieses Kapitels nochmals aufnehmen und
allgemein formulieren:
Satz 1.10
Entwicklungssatz von Laplace. Für eine n × n-Matrix A = (aij ) gilt
1. Entwicklung nach der i-ten Zeile von A:
det(A) =
n
∑
(−1)i+j aij det(Aij )
j=1
2. Entwicklung nach der j-ten Spalte von A:
det(A) =
n
∑
(−1)i+j aij det(Aij )
i=1
Satz 1.11
Produktsatz für Determinanten. Für n × n-Matrizen A und B gilt
det(A · B) = det(A) · det(B).
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
row operation to the appropriate identity matrix. The matrix E is also denoted by Ai j c , Mi c ,
or Pi j , respectively, for the operations add c times row j to i operation, multiply row i by c, and
permute rows i and j, respectively.
2) The Row Reduction Theorem asserts that every matrix A can be row reduced to a unique row
echelon reduced matrix R. In matrix form: There is a unique row reduced matrix R and some
elementary Ei with E p E1 A R, or equivalently, A F1 Fp R where Fi Ei 1 are also elementary.
3) AKAPITEL
matrix A 1.
determines
a linear transformation: It takes vectors x and gives vectors Ax. 23
DETERMINANTEN
§2. Restrictions
All matrices must be square. Determinants are not defined for non-square matrices.
1.6
Geometrische Deutung der Determinante
§3. Motivation
Determinants
whether a matrix has an inverse. They give areas and play a crucial role
Die Flächedetermine
F eines Parallelogramms,
in the change of variables formula in multivariable calculus.
Let’s compute the area of the parallelogram determined by vectors a b and c d . See Figure 1.
c
b
a
(c, d)
(a+c, b+d)
b
c
d
d
c
b
(0, 0)
a
(a, b)
b
c
Figure 1.
The area is a c b d 2 12 ab 2 12 cdT 2bc ab adT cb cd ab cd 2bc ad bc.
welches durch zwei Vektoren v1 = (a, b) und v2 = (c, d) aufgespannt wird, kann berechTentative
definition: The determinant of a 2 by 2 matrix is
net durch
1
1a b
a b
F = (a + c)(b + d) − (2 ab)det
− 2( cd) − 2bc = ab + ad +ad
cb + bc
cd − ab − cd − 2bc = ad − bc.
2
2c d
c d
Dies entspricht genau der Determinante der Matrix
which is the “signed” area of the parallelogram with sides determine by the rows of the matrix.
( the parallelepiped
)
A similar argument for the signed volume of
(box with parallel sides) whose
a c
sides are determined by vectors a b c , d e bf and
g h i shows
d
a b c
Entsprechendes gilt im
auch höherdimensionalen
Räumen. Somit
d dreidimensionalen
e f
aei b fund
g cdh
gec h f a idb
beschreiben Determinanten
und Volumina. Dies erlaubt es unter anderem, das
g h Flächen
i
Volumen im Rn für n ≥ 4 einzuführen.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
1.7
24
Weitere Anwendungen von Determinanten
Wir wollen nun zu unserem Ausgangspunkt, dem Lösen linearer Gleichungssysteme, zurückkommen.
Satz 1.12
Die Cramersche Regel. Sei A eine n × n-Matrix mit det(A) ̸= 0. Dann ist jedes
lineare Gleichungssystem
Ax = b
eindeutig lösbar und die j-te Komponente
berechnen durch
a11 . . .
..
.
an1 . . .
xj =
a11
..
.
an1
xj der Lösung x = (x1 , . . . , xn )T lässt sich
b1 . . . a1n ..
.. .
. bn . . . ann ,
. . . a1n .. . . . . ann wobei b = (b1 , . . . , bn )T ist.
Beweis
Sei Bi die Matrix, die aus der Matrix A durch Ersetzen der i-ten Spalte durch den Vektor
b entsteht. Seien a1 , . . . .an die Spaltenvektoren von A. Die Matrizengleichung
Ax = b
ist gleichbedeutend mit der Gleichung
a1 x1 + · · · + an xn = b.
Ersetzt man also in der Matrix Bj den Spaltenvektor b durch a1 x1 + · · · + an xn , so können
wir die Determinante von Bj wie folgt berechnen (verwende dazu Satz 1.7, Teil 1 und 2):
det(Bj ) = x1 det(A1 ) + . . . xn det(An ),
wobei die Matrix Ai aus A entsteht, indem die j-te Spalte aj durch die i-te Spalte ai
ersetzt. Damit ist Aj = A, weil hier aj durch aj ersetzt wird. Für i ̸= j besitzt Ai zwei
gleiche Spalten, nämlich an den Spalten i und j die Spalte ai . Nach Satz 1.7 ist damit für
i ̸= j
det(Ai ) = 0
und
det(Aj ) = det(A).
Damit folgt insgesamt
det(Bj ) = xj det(Aj ) = xj det(A).
□
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
25
Satz 1.13
Berechnung der inversen Matrix. Sei A eine n × n-Matrix mit det(A) ̸= 0. Dann
ist A invertierbar und für die inverse Matrix B = (bij ) = A−1 von A gilt
bij =
(−1)i+j det(Aji )
.
det(A)
Beweis
Die j-te Spalte von A−1 ist wegen AA−1 = In die Lösung Xj des Gleichungssystems
AXj = ej ,
wobei ej der j-te Einheitsvektor ist. Nach der Cramerschen Regel erhält man für die i-te
Komponente bij von Xi :
a11 . . . 0 . . . a1n ..
..
.. .
.
. aj1 . . . 1 . . . ajn ..
..
.. .
.
. an1 . . . 0 . . . ann bij =
a11 . . . a1n ..
.. .
. an1 . . . ann Die im Zähler stehende Determinante ist (−1)i+j det(Aji ), was aus dem Laplaceschen Entwicklungssatz folgt. Im Nenner steht det(A).
□
Satz 1.14
Für eine n × n-Matrix A gilt:
Rang(A) = n ⇐⇒ det(A) ̸= 0
Insbesondere sind die Zeilen (Spalten) der Matrix A genau dann linear unabhängig,
wenn det(A) ̸= 0 gilt.
Beweis
Sei Ā die nach dem Gauss-Algorithmus aus A entstandene obere Dreiecksmatrix. Es ist
nach Satz 1.9
det(Ā) = ā11 . . . ānn .
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 1. DETERMINANTEN
26
Ist Rang(A) = n, so sind die Pivot-Elemente ā11 , . . . , ānn alle ungleich 0, also ist auch
det(Ā) ̸= 0. Nach Satz 1.8 ist dann auch det(A) ̸= 0.
Ist umgekehrt det(A) ̸= 0, so ist wieder nach Satz 1.8 auch det(Ā) ̸= 0. Also müssen alle
Pivot-Elemente ā11 , . . . , ānn alle ungleich 0 sein, woraus Rang(A) = n folgt.
□
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
Kapitel 2
Eigenwerte und Eigenvektoren
2.1
Motivation
Definition 2.1
Sei V ein Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung
von V in V . Ein Vektor v ̸= 0, für den
f (v) = λv
für ein λ ∈ K gilt, heisst ein Eigenvektor der linearen Abbildung f zum Eigenwert
λ.
Definition 2.2
Sei V ein Vektorraum über einem Körper K und sei A eine Matrix über K. Ein Vektor
v ̸= 0, für den
Av = λv
für ein λ ∈ K gilt, heisst ein Eigenvektor von A zum Eigenwert λ.
Bemerkung
Die Lösung X des Pagerank-Problems P X = X ist ein Eigenvektor der linearen Abbildung
f (v) = P · v zum Eigenwert 1.
Bemerkung
Ein Eigenvektor v einer lineare Abbildung f wird also von f mit dem Faktor λ ”gestreckt”
(λ > 1) oder ”gestaucht” (0 < λ < 1) oder unverändert gelassen (λ = 1) und/oder in seiner
Richtung umgekehrt (λ < 0).
27
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
28
Eigenwerte und Eigenvektoren spielen in vielen Bereichen der Physik eine grosse Rolle. Auch in der Statistik gibt es Anwendungen (Cluster-Analyse, HauptkomponentenAnalyse). Weniger nahe liegende Anwendungsbereiche gibt es in der Geologie und in der
Bildverarbeitung, z.B. bei der Gesichter-Erkennung (Eigengesichter).
Beispiel 2.1
Eigengesichter basieren auf einem Verfahren von Sirovich und Kirby, mit dem effizient Gesichter komprimiert und wiederhergestellt werden können. Das geschieht mit Hilfe einiger
Hauptkomponenten aus der Hauptkomponentenanalyse. Die Hauptkomponenten sind dabei nichts anderes als Eigenvektoren einer speziellen Matrix. Dazu betrachtet man ein Bild
als Folge von Helligkeitswerten eines Pixels. Hat ein Bild n Pixel, so kann dieses BIld als
ein Vektor v ∈ Rn betrachtet werden, wobei die Komponente vi den Helligkeitswert des
Pixels Nummer i darstellt.
Zuerst werden Trainingsbilder B1 , . . . Bn der Gesichter eingelesen und in den entsprechenden Vektoren v1 , . . . , vn gespeichert. Aus dem Trainingsset wird nun ein ”Durchschnittsgesicht” B gebildet, was durch den Vektor w repräsentiert wird:
1∑
vi .
w=
n
n
i=1
Von jedem Bild Bi wird nun ein Differenzgesicht Di gebildet, welches durch einen Vektor
di dargestellt wird:
di = vi − w.
Die aus diesen Spaltenvektoren d1 , . . . , dn gebildete Matrix wird mit D bezeichnet. Mit
Hilfe der Differenzbilder wird eine sog. Kovarianzmatrix C erstellt:
C = DDT .
Die Eigenvektoren der Matrix C sind die Hauptkomponenten, die wegen ihres gesichtsähnlichen Aussehens von Turk und Pentland als Eigengesichter benannt wurden. Zwei Gesichter
werden als gleich (ähnlich) angesehen, wenn sie die gleichen Eigenvektoren (Eigenwerte)
haben. Das untenstehende Bild zeigt Beispiele von Eigengesichtern:
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
29
Beispiel 2.2
Unter dem Link
http://www.mathematik.uni-stuttgart.de/studium/infomat/HM-Stroppel-Material/Eigenvektoren
findet man interaktive Anwendungen zur Illustration von Eigenwerten und Eigenvektoren.
2.2
Definitionen
Definition 2.3
Sei V ein Vektorraum über einem Körper K und sei f : V → V eine lineare Abbildung
von V in V . Für einen Eigenwert λ von f heisst die Menge
Uλ := {v ∈ V | f (v) = λv}
aller Eigenvektoren zum Eigenwert λ der Eigenraum von f zum Eigenwert λ.
Satz 2.1
Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V eine
lineare Abbildung. Dann ist jeder Eigenraum Uλ von f ist ein Unterraum von V . Die
Dimension dim Uλ von Uλ heisst geometrische Multiplizität von λ.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
30
Beweis
Wir müssen zeigen, dass für u, v ∈ Uλ die Summe u + v ebenfalls in Uλ ist. Wegen
f (u + v) = f (u) + f (v) = λu + λv = λ(u + v)
ist dies aber der Fall. Ausserdem müssen wir nachweisen, dass für v ∈ Uλ und µ ∈ K auch
µv ∈ Uλ ist. Dies folgt jedoch aus:
f (µv) = µf (v) = µ(λv) = λ(µv).
2.3
Berechnung von Eigenwerten
Ist f : V → V : v 7→ f (v) = Av eine lineare Abbildung, die durch die quadratische
n × n-Matrix A definiert ist, so gilt für einen Eigenvektor v zum Eigenwert λ
f (v) = Av = λv
(A − λIn )v = Av − λv = 0.
bzw.
Das bedeutet aber, dass der Eigenvektor v ̸= 0 eine nichttriviale Lösung des homogenen
linearen Gleichungssystem
(A − λIn )v = 0
ist. Dies bedeutet, dass de Rang der Matrix A − λIn kleiner als n sein muss, bzw.
det(A − λIn ) = 0
gelten muss. Ist

a11
 a21

A= .
 ..
a12
a22
..
.

. . . a1n
. . . a2n 

..  ,
. 
an1 an2 . . . ann
so lautet die obige Gleichung
a11 − λ
a12
...
a1n a21
a22 − λ . . .
a2n = 0.
..
..
..
.
.
.
an1
an2
. . . ann − λ
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
31
Satz 2.2
Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei
f : V → V : v 7→ f (v) = Av
eine lineare Abbildung mit zugehöriger n × n-Matrix A. Dann gilt:
1. Ein Skalar λ ∈ K ist ein Eigenwert von f genau dann, wenn
det(A − λIn ) = 0
ist.
2. Ein Skalar λ ∈ K ist ein Eigenwert von f genau dann, wenn λ eine Nullstelle des
charakteristischen Polynoms
pA (x) = det(A − xIn ) = (−1)n xn + cn−1 xn−1 + · · · + c0
ist.
Beweis
Teil 1) wurde schon bewiesen, Teil 2) folgt nach Definition der Determinante und durch
Einsetzen von λ in das charakteristische Polynom.
□
Beispiel 2.3
Wir wollen alle Eigenwerte und Eigenvektoren der linearen Abbildung
(
)
2 2
f : R2 → R2 : v 7→ f (v) =
3 1
bestimmen. Dazu berechnen wir zuerst das charakteristische Polynom
2 − x
2 = (2−x)(1−x)−2·3 = x2 −3x−4 = (x−4)(x+1).
pA (x) = det(A−xI2 ) = 3
1 − x
Dieses Polynom hat die Nullstellen 4 und −1, d.h. 4 und −1 sind alle Eigenwerte von f .
Wir bestimmen nun die Eigenräume von f zu diesen Eigenwerten. Wir beginnen mit dem
Eigenraum U−1 zum Eigenwert −1. Dazu müssen wir alle Lösungen des homogenen linearen
Gleichungssystems
(
)( ) (
)( ) ( )
2 − (−1)
2
x1
3 2
x1
0
=
=
3
1 − (−1)
x2
3 2
x2
0
berechnen. Der Rang der auftretenden Matrix ist 1, d.h. die Lösungsmenge hat Dimension
2 − 1 = 1. Dessen Lösungsmenge ist gerade der Eigenraum zum Eigenwert −1:
{ ( )
}
{( )}
2
2
U−1 = t
| t ∈ R = Lin
−3
−3
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
32
Der Eigenraum U4 zum Eigenwert 4 ist der Lösungsraum des homogenen linearen Gleichungssystems
(
)( ) (
)( ) ( )
2−4
2
x1
−2 2
x1
0
=
=
3
1−4
x2
3 −3
x2
0
berechnen. Wieder ist der Rang der auftretenden Matrix 1, d.h. die Lösungsmenge hat
erneut Dimension 2 − 1 = 1. Es ist
{ ( )
}
{( )}
1
1
U4 = t
| t ∈ R = Lin
.
1
1
Drückt man die Matrix A der linearen Abbildung f nicht bezgl. der kanonischen Basis
B1 = {e1 , e2 }
aus, sondern über die beiden Eigenvektoren
{( ) ( )}
2
1
B2 =
,
,
−3
1
so bekommt die zu f gehörige Matrix A′ die Gestalt
(
)
−1 0
A′ =
,
0 4
denn es ist
( )
( )
2
2
f(
)=−
−3
−3
und
( )
( )
1
1
f(
)=4
.
1
1
Beispiel 2.4
Wir wollen alle Eigenwerte und Eigenvektoren der linearen

0 0
f : R3 → R3 : v 7→ f (v) = 1 2
1 0
Abbildung

−2
1
3
bestimmen. Dazu berechnen wir das charakteristische Polynom
−x
0
−2 1 = −x3 + 5x2 − 8x + 4 = −(x − 1)(x − 2)2 .
pA (x) = det(A − xI3 ) = 1 2 − x
1
0
3 − x
Dieses Polynom hat die Nullstellen 1 und 2, d.h. 1 und 2 sind sämtliche Eigenwerte von f .
Wir bestimmen nun die Eigenräume von f zu diesen Eigenwerten. Wir beginnen mit dem
Eigenraum U1 zum Eigenwert 1. Dazu müssen wir alle Lösungen des homogenen linearen
Gleichungssystems
   
  

0
x1
−1 0 −2
x1
−1
0
−2
 1 2−1
1  x2  =  1 1 1  x2  = 0
0
x3
1 0 2
x3
1
0
3−1
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
33
berechnen. In der Gauss-Form hat obige Matrix die Form


−1 0 −2
 0 1 −1 ,
0 0 0
d.h. der Rang der auftretenden Matrix ist 2 und somit hat die Lösungsmenge die Dimension
3 − 2 = 1. Die Lösungsmenge ist gerade der Eigenraum zum Eigenwert 1:
  

  
 −2

 −2 
U1 = t  1  | t ∈ R = Lin  1 




1
1
Der Eigenraum U2 zum Eigenwert 2 ist der Lösungsraum des homogenen linearen Gleichungssystems

  
   
−2
0
−2
x1
−2 0 −2
x1
0
 1 2−2








1
x2 =
1 0 1
x2 = 0
1
0
3−2
x3
1 0 1
x3
0
berechnen.
In der Gauss-Form hat obige Matrix die Form


−2 0 −2
 0 0 0 ,
0 0 0
d.h. der Rang der auftretenden Matrix ist 1 und somit hat die Lösungsmenge die Dimension
3 − 1 = 2. Es ist
  

    
 
−1
0
0 


 −1
U2 = s  0  + t 1 | s, t ∈ R = Lin  0  , 1 .




1
0
1
0
Drückt man die Matrix A der linearen Abbildung f nicht bezgl. der kanonischen Basis
B1 = {e1 , e2 , e3 }
aus, sondern über die drei Eigenvektoren
     
0 
−1
 −2
B2 =  1  ,  0  , 1 ,


0
1
1
so bekommt die zu f gehörige Matrix A′ die

1
A′ = 0
0
ZHAW
Gestalt

0 0
2 0 ,
0 2
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
denn es ist
 
 
−2
−2
f ( 1 ) =  1 
1
1
 
 
−1
−1
und f ( 0 ) = 2  0 
1
1
34
 
 
0
0
und f (1) = 2 1 .
0
0
Beispiel 2.5
Wir wollen alle Eigenwerte und Eigenvektoren der linearen Abbildung
(
)
−2 −1
2
2
f : R → R : v 7→ f (v) =
5
2
bestimmen. Dazu berechnen wir zuerst das charakteristische Polynom
−2 − x −1 = (−2 − x)(2 − x) − 5 · (−1) = x2 + 1.
pA (x) = det(A − xI2 ) = 5
2 − x
Dieses Polynom hat keine reellen Nullstellen. Also hat die lineare Abbildung über dem
Körper R der reellen Zahlen keine Eigenwerte und damit auch keine Eigenvektoren. Das
Polynom hat aber die beiden komplexen Nullstellen i, −i ∈ C. Dabei ist i ∈ C die imaginäre Einheit, für die
i2 = −1
gilt. Jede komplexe Zahl z ∈ C lässt sich eindeutig darstellen als
z = a + bi,
a, b ∈ R
wobei a der Realteil und b der Imaginärteil von z genannt wird. Man rechnet mit
komplexen Zahlen genauso wie mit den reellen Zahlen, wobei man nur i2 = 1 beachten
muss. Für z1 = a + bi ∈ C und z2 = c + di ∈ C ist
z1 + z2 = (a + bi) + (c + di) = (a + c) + (b + d)i
und
z1 ·z2 = (a+bi)(c+di) = ac+bci+adi+bdi2 = ac+(bc+ad)i+bd(−1) = (ac−bd)+(bc+ad)i.
Satz 2.3
Fundamentalsatz der Algebra. Jedes Polynom p vom Grad n mit Koeffizienten aus
C zerfällt über C in n Linearfaktoren:
p(x) = (x − c1 )(x − c2 ) . . . (x − cn ).
Die komplexen Zahlen c1 , . . . , cn müssen dabei nicht verschieden sein.
Alles folgende gilt nur über dem Körper C der komplexen Zahlen. Wir bestimmen wieder die
Eigenräume von f zu den Eigenwerten i und −i. Wir beginnen mit dem Eigenraum Ui zum
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
35
Eigenwert i. Dazu müssen wir alle Lösungen des homogenen linearen Gleichungssystems
(
)( ) ( )
−2 − i −1
x1
0
=
5
2−i
x2
0
berechnen. In der Gauss-Form hat obige Matrix die Form
(
)
1 52 − 15 i
.
0
0
Der Rang der auftretenden Matrix ist somt 1, d.h. die Lösungsmenge hat Dimension 2−1 =
1. Dessen Lösungsmenge ist der Eigenraum zum Eigenwert i:
{ (
)
}
{(
)}
2−i
2−i
Ui = t
| t ∈ C = Lin
−5
−5
Für den Eigenraum U−i zum Eigenwert −i müssen wir alle Lösungen des homogenen
linearen Gleichungssystems
(
)( ) ( )
−2 + i −1
x1
0
=
5
2+i
x2
0
berechnen. In der Gauss-Form hat obige Matrix die Form
(
)
1 25 + 15 i
.
0
0
Der Rang der auftretenden Matrix ist somt 1, d.h. die Lösungsmenge hat Dimension 2−1 =
1. Dessen Lösungsmenge ist der Eigenraum zum Eigenwert i:
{ (
)
}
{(
)}
2+i
2+i
Ui = t
| t ∈ C = Lin
−5
−5
Drückt man die Matrix A der linearen Abbildung f nicht bezgl. der kanonischen Basis
B1 = {e1 , e2 }
aus, sondern über die beiden Eigenvektoren
{(
) (
)}
2−i
2+i
B2 =
,
,
−5
−5
so bekommt die zu f gehörige Matrix A′ die Gestalt
(
)
i 0
′
A =
,
0 −i
denn es ist
ZHAW
(
)
(
)
2−i
2−i
f(
)=i
−5
−5
und
(
)
(
)
2+i
2+i
f(
) = −i
.
−5
−5
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
36
Satz 2.4
Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V eine
lineare Abbildung. Dann hat f höchstens n verschiedene Eigenwerte.
Beweis
Da jeder Eigenwert Nullstelle des charakteristischen Polynoms p von f ist und der Grad
von p genau n ist, und p damit höchstens n verschiedene Nullstellen haben kann, folgt sie
Aussage des Satzes.
□
Satz 2.5
Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei
f : V → V : v 7→ f (v) = Av
eine lineare Abbildung mit zugehöriger n × n-Matrix A. Sei
pA (x) = det(A − xIn ) = (−1)n xn + cn−1 xn−1 + · · · + c0
das charakteristische Polynom von f . Dann ist
(−1)n−1 cn−1 = a11 + a22 + · · · + ann
die sog. Spur der Matrix A und
c0 = det(A).
Beweis
Die Formel für cn−1 folgt aus der Summendarstellung (Definition) der Determinante, die
Formel für c0 folgt aus
c0 = pA (0) = det(A − 0In ) = det(A).
□
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
37
Definition 2.4
Sei f : V → V eine lineare Abbildung mit charakteristischem Polynom
p(x) = (x − λ)r q(x),
wobei λ keine Nullstelle vom Polynom q ist. Dann heisst rλ := r die algebraische
Vielfachheit des Eigenwertes λ.
Satz 2.6
Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V
eine lineare Abbildung. Ist λ ∈ K ein Eigenwert von f . Dann ist die geometrische
Vielfachheit gλ von λ kleiner gleich der algebraischen Vielfachheit rλ von λ.
Beweis
Sei m = gλ die Dimension des Eigenraumes U λ. Wir wählen eine Basis {v1 , . . . , vm } von
von Uλ und ergänzen diese zu einer Basis B = {v1 , . . . , vm , vm+1 , . . . , vn } von V . Wegen
f (vi ) = λvi
für alle 1 ≤ i ≤ m wird die lineare Abbildung bezüglich der Basis B durch die folgende
Matrix A dargestellt:


λ 0 ··· 0 0
 0 λ ··· 0 0



.. ..
 .. .. . .

 . .

. . .
C


 0 0 ··· λ 0



 0 0 ··· 0 λ


,
A=

 0 0 ··· 0 0

 0 0 ··· 0 0



 . . .

.
.
.
.
.
.
.
 . .

. . .
D


 0 0 ··· 0 0

0 0 ··· 0 0
wobei die Matrix C genau m Zeilen hat. Damit bekommt das charakteristische Polynom
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
38
p mit Hilfe des Laplaceschen Entwicklungssatz für Determinanten die Form
x−λ
0
···
0
0
0
x
−
λ
·
·
·
0
0
..
..
.
.
..
..
..
.
.
.
C
0
0
··· x − λ
0
0
0
···
0
x−λ
= (x−λ)m det(D′ ).
p(x) = det(A−xIn ) = 0
···
0
0
0
0
0
·
·
·
0
0
..
..
..
..
..
′
.
.
.
.
.
D
0
0
···
0
0
0
0
···
0
0
Daraus folgt aber
m = gλ ≤ rλ .
□
Beispiel 2.6
Sei f : R3 → R3 : v 7→ f (v) = Av eine lineare Abbildung, die durch eine Matrix


1 1 0
A = 0 1 1
0 0 1
gegeben ist. Die Eigenwerte von f sind gegeben durch die Nullstellen des charakteristischen
Polynoms
1 − x
1
0 1−x
1 = (1 − x)3 .
p(x) = det(A − xIn ) = 0
0
0
1 − x
Damit ist 1 der einzige Eigenwert von f . Die algebraische Vielfachheit r1 dieses Eigenwertes
ist
r1 = 3.
Wir rechnen nun die geometrische Vielfachheit g1 aus. Die Eigenvektoren zum Eigenwert
1 sind genau die Lösungen des linearen Gleichungssystems
   

0
x1
0 1 0





x2 = 0 .
Bx = (A − 1 · In )x = 0 0 1
0
x3
0 0 0
Die obige Matrix B hat den Rang 2, d.h.
g1 = dim U1 = dim Lös((A − 1 · In )x = 0) = 3 − Rang(B) = 3 − 2 = 1.
In diesem Beispiel ist also die geometrische Vielfachheit des Eigenwertes 1 kleiner als
dessen algebraische Vielfachheit.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
39
Satz 2.7
Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei f : V → V
eine lineare Abbildung. Sind λ1 , . . . , λr ∈ K paarweise verschiedene Eigenwerte von
f und sind v1 , . . . , vr Eigenvektoren zu diesen Eigenwerten, so sind v1 , . . . , vr linear
unabhängig.
Beweis
Da v1 , . . . , vr Eigenvektoren sind, sind diese vom Nullvektor verschieden. Wir bewiesen den
Satz mittels vollständiger Induktion über r.
Induktionsanfang: Für r = 1 gilt die Aussage, da v1 ̸= 0 ist.
Induktionsschritt: Sei r > 2 und es gelte sie Aussage für r − 1.
Wir nehmen an, dass
µ1 v1 + µ2 v2 + · · · + µr vr = 0.
für µ1 , . . . , µr ∈ K gilt. Multipliziert man diese Gleichung mit λr , so erhält man
λr µ1 v1 + λr µ2 v2 + · · · + λr µr vr = 0.
Wenden wir auf die erste Gleichung die lineare Abbildung f an, so folgt
f (µ1 v1 + · · · + µr vr ) = f (µ1 v1 ) + · · · + f (µr vr ) = λ1 µ1 v1 + · · · + λr µr vr = f (0) = 0.
Subtrahiert man diese Gleichung von der mittleren, so folgt
µ1 (λr − λ1 )v1 + · · · + µr−1 (λr − λr−1 )vr−1 + µr (λr − λr )vr = 0.
Weil der letzte Summand gleich 0 ist, folgt
µ1 (λr − λ1 )v1 + · · · + µr−1 (λr − λr−1 )vr−1 = 0.
Da nach Induktionsvoraussetzung die Vektoren v1 , . . . , vr−1 linear unabhängig sind, und
die Differenzen λr − λi ̸= 0 sind, folgt
µ1 = · · · = µr−1 = 0.
Wegen vr =
̸ 0 ist dann aber auch µr = 0. Also haben wir nachgewiesen, dass die Vektoren
v1 , . . . , vr linear unabhängig sind.
□
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
40
Beispiel 2.7
In der untenstehenden Tabelle findet man nochmal alle Begriffe an Beispielen zusammengefasst.
Satz 2.8
Sei V ein n-dimensionaler Vektorraum über einem Körper K und sei
f : V → V : v 7→ Dv
eine lineare Abbildung, die von einer Dreiecksmatrix D beschrieben wird. Dann sind
die Eigenwerte von f genau die Diagonalelemente d11 , . . . , dnn von D.
Beweis
Das charakteristische Polynom p von f wird durch Determinante der Dreiecksmatrix D −
xIn beschrieben. In deren Diagonale stehen die Komponenten
dii − x.
Nach Satz 1.9 folgt damit
p(x) = det(D − xIn ) = (d11 − x)(d22 − x) . . . (dnn − x).
Die Nullstellen dieses Polynoms sind gerade die Diagonalelemente d11 , . . . , dnn .
ZHAW
□
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
2.4
41
Diagonalisierung von Matrizen
Sei B1 = {a1 , . . . , an } eine Basis eines n-dimensionalen Vektorraums V und f : V −→ V
eine lineare Abbildung. Bezüglich der Basis B1 lässt sich die lineare Abbildung f mit einer
n × n Matrix A beschreiben. Sei x ∈ V und y = f (x) ∈ V , dann gilt bezüglich Basis B1
n
∑
x=
xk ak
n
∑
und y =
k=1
k=1

x1
 
=  ... 


y1
 
=  ... 

Die Vektoren
xB1
yk ak .
und yB1
yn
xn
sind die Koordinatenvektoren der Vektoren x und y. Für die Matrix A gilt


a11 . . . a1n

..  = (f (a ) , . . . , f (a ) ),
A =  ...
1 B1
n B1
. 
an1 . . . ann

wobei
f (ak ) =
n
∑
aik ai
⇒
f (ak )B1
i=1

a1k
 
=  ...  ,
k = 1, . . . , n.
ank
Die Matrix A ist auf die Basis B1 bezogen. Nun soll eine neue Basis (b1 , . . . , bn ) in V
gefunden werden, so dass die Matrix D der linearen Abbildung bezüglich der neuen Basis
B2 die Form


λ1 0 . . .
0
 0 λ2 0 . . . 0 




.
.
.
.
.
0
. 
D=
0

 ..

.
0
0 ...
0 λn
hat. Es gilt
D = (f (b1 )B2 , . . . , f (bn )B2 )

0
 .. 
.
 

=
λk  .
 .. 
.
0

mit
f (bk )B2
Daraus folgt
f (bk ) = 0 · b1 + . . . + 0 · bk−1 + λk bk + 0 · bk+1 + . . . + 0 · bn = λk bk .
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
42
Also ist bk ein Eigenvektor der linearen Abbildung f zum Eigenwert λk . Die Basis B2
besteht also aus Eigenvektoren.
Beispiel 2.8
Wir bestimmen die Eigenwerte der linearen
B1 = {a1 , a2 , a3 }. Die Matrix A sei

0
A = 1
0
Abbildung f : V −→ V bezüglich der Basis

0 −2
2 1 .
0 3
Wir lösen die charakteristische Gleichung
−λ
0
−2 1 = (−λ)(2 − λ)(3 − λ).
0 = det(A − λI) = 1 2 − λ
0
0
3 − λ
Die Lösungen und somit die Eigenwerte sind
λ1 = 0,
λ2 = 2,
λ2 = 3.
Die Diagonalmatrix D kann man somit sofort angeben:


0 0 0
D = 0 2 0  .
0 0 3
Als nächstes bestimmen wir die Eigenvektoren. Die Bestimmungsgleichung dafür ist
(A − λI)xB1 = 0.
Für λ1 = 0 gilt:

(A − λ1 I)xB1
⇔
x
0
1
0
   
0 0 −2
x
0





y = 0 .
= 1 2 1
0 0 3
z
0
y
z
0 −2 0
2
1 0
0
3 0
⇔
x
1
0
0
y
2
0
0
z
0 0
1 0
0 0
Die Lösungen sind x = −2y, y ∈ R, z = 0. Der Eigenraum zu λ1 = 0 ist xB1
Mit y = 1 erhalten wir den Eigenvektor:
 
−2
b1B1 =  1 
0
ZHAW
⇔

−2
= y  1 .
0

b1 = −2a1 + a2 .
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
Für λ2 = 2 folgt
43

(A − λ2 I)xB1
⇔
x
−2
1
0
   
−2 0 −2
x
0





1 0 1
y = 0 .
=
0 0 1
z
0
y
z
0 −2 0
0
1 0
0
1 0
⇔
x
1
0
0
y
0
0
0
z
0 0
1 0
0 0
Die Lösungen sind x = 0, y ∈ R, z = 0. Der Eigenraum zu λ2 = 2 ist xB1
 
0
= y 1. Mit
0
y = 1 erhalten wir den Eigenvektor:
b2B1
Für λ3 = 3 folgt
 
0
= 1
0
⇔
b2 = a2 .

(A − λ2 I)xB1
⇔
   
−3 0 −2
x
0
=  1 −1 1  y  = 0 .
0
0
0
z
0
x
y
z
−3
0 −2 0
1 −1
1 0
0
0
0 0
⇔
x
1
0
0
y
z
2
0
3 0
1 − 13 0
0
0 0
Die Lösungen sind x = − 23 z, y = 13 z, z ∈ R. Der Eigenraum zu λ3 = 3 ist xB1


−2
= 31 z  1 .
3
Mit z = 3 erhalten wir zahlenmässig einen einfachsten Eigenvektor:
 
−2
b3B1 =  1  ⇔ b3 = −2a1 + a2 + 3a3 .
3
Die Matrix S hat als Spaltenvektoren die Koordinaten der Eigenvektoren b1B1 , b2B1 , b3B1 .
Die Matrizen S und T = S −1 lauten somit:




−3 0 −2
−2 0 −2
1
S = (b1B1 , b2B1 , b3B1 ) =  1 1 1  , T =  3 6 0  .
6
0 0 2
0 0 3
Zur Probe muss D = T AS gelten:

 



0 0 0
−2 0 −2
0 0 −2
−3 0 −2
1
3 6 0  1 2 1   1 1 1  = 0 2 0 
6
0 0 3
0 0 3
0 0 3
0 0 2
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
2.5
44
Iterative Berechnung von Eigenwerten und Eigenvektoren
Die Eigenwerte einer Matrix A können mit Hilfe des charakteristischen Polynoms
p(x) = det(A − xIn )
berechnet werden. Man berechnet dazu die Nullstellen des charakteristischen Polynoms.
Auf dieser Basis arbeitende Algorithmen werden als direkte Verfahren bezeichnet.
Für die numerische Lösung realistischer Eigenwertprobleme (für Dimension n > 10) ist der
obige Ansatz nicht gut geeignet. Dieses Vorgehen verursacht selbst bei raffinierter Implementierung einen erheblichen Rechenaufwand. Das Hauptproblem liegt aber darin, dass
die Polynomnullstellen ausserordentlich empfindlich gegenüber Störungen der Polynomkoeffizienten sein können.
In diesem Abschnitt beschreiben wir ein Verfahren, wie sich Eigenwerte und Eigenvektoren
numerisch berechnen lassen. Ziel dabei ist es, einen oder mehrere Eigenvektoren einer
Matrix A und die dazu gehörigen Eigenwerte mit möglichst geringem Rechenaufwand zu
approximieren.
Definition 2.5
Für eine komplexe Zahl z = a + ib mit a, b ∈ R heisst die reelle Zahl
|z| =
√
(a2 + b2 )
der Betrag von z.
Wir brauchen nun ein Mass für die Länge eines Vektors. Die Länge eines Vektors wird auch
als Norm bezeichnet.
Definition 2.6
Für einen Vektor v = (v1 , . . . , vn )T ∈ Rn , Cn heisst die reelle Zahl
v
u n
u∑
|vi |2
∥v∥ = t
i=1
die Norm von v.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
45
Bemerkung
Für K = Rn , Cn , v = (v1 , . . . , vn )T ∈ Kn und λ ∈ K ist
∥λv∥ = |λ|∥v∥.
Nun sind wir in der Lage, ein erstes iteratives Verfahren zum Berechnen von Eigenwerten
und Eigenvektoren anzugeben.
Satz 2.9
Potenzmethode nach von Mises.
Sei A eine n × n-Matrix über dem Körper K = R oder K = C. Die Matrix A besitze
die komplexen Eigenwerte λ1 , . . . , λn ∈ C mit
|λ1 | > |λ2 | ≥ |λ3 | ≥ · · · ≥ |λn |
und den zugehörigen Eigenvektoren w1 , . . . , wn ∈ Cn . Sei
v = µ1 w1 + µ2 w2 + · · · + µn wn ∈ Kn
ein Vektor mit µ1 ̸= 0. Setze
v (0) := v
und
v (k+1) := Av (k) = Ak+1 v
für alle k ∈ N. Dann konvergiert die Folge
∥v (k+1) ∥
,k ∈ N
∥v (k) ∥
gegen |λ1 |. Man verwendet für diesen Sachverhalt die Schreibweise
∥v (k+1) ∥
= |λ1 |.
k→∞ ∥v (k) ∥
lim
Zudem gilt
w1
v (k)
=±
.
(k)
k→∞ ∥v
∥w1 ∥
∥
lim
Bemerkung
Die Eigenwerte λ1 , . . . , λn ∈ C ebenso wie die Vektoren w1 , . . . , wn ∈ Cn müssen nicht
unbedingt paarweise verschieden sein.
Beweis
Es ist für alle 1 ≤ i ≤ n
Awi = λi wi
und für alle k ∈ N
Ak wi = Ak−1 (Awi ) = Ak−1 (λi wi ) = λi Ak−1 wi .
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
46
Daraus folgt
Ak wi = λki wi
und wir bekommen in der Summe
v (k+1) = Av (k)
= Ak+1 v
= Ak+1 (µ1 w1 + µ2 w2 + · · · + µn wn )
= µ1 Ak+1 w1 + µ2 Ak+1 w2 + · · · + µn Ak+1 wn
k+1
k+1
= µ1 λk+1
1 w1 + µ2 λ2 w2 + · · · + µn λn wn
(
( )k+1
( )k+1 )
λ
λn
2
= λk+1
µ1 w1 + µ2
w2 + · · · + µ n
wn .
1
λ1
λ1
Wegen
|λ1 | > |λ2 | ≥ |λ3 | ≥ · · · ≥ |λn |
folgt für 2 ≤ i ≤ n
(
lim
k→∞
λi
λ1
)
=0
und somit
∥v (k+1) ∥
∥λk1 µ1 w1 ∥
|λk1 |∥µ1 w1 ∥
|λ1 |k
=
lim
=
lim
=
lim
= lim |λ1 | = |λ1 |.
k→∞ ∥v (k) ∥
k→∞ ∥λk−1 µ1 w1 ∥
k→∞ |λk−1 |∥µ1 w1 ∥
k→∞ |λ1 |k−1
k→∞
1
1
lim
□
Beispiel 2.9
Es soll mit Hilfe der Potenzmethode der betragsgrösste Eigenvektor und sein Eigenwert
berechnet werden für die Matrix
(
)
−2 2
A=
.
2 −5
Berechnen wir die Eigenwerte direkt, so erhalten wir das charakteristische Polynom
−2 − x
2 = x2 + 7x + 6 = (x + 1)(x + 6).
p(x) = det(A − xI2 ) = 2
−5 − x
Damit sind λ1 = −1 und λ2 = −6 die Eigenwerte von A. Für den Eigenwert λ2 berechnen
wir den Eigenraum U2 durch Lösen des linearen Gleichungssystems
(
)( ) (
)( ) ( )
−2 + 6
2
x1
−4 2
x1
0
=
=
2
−5 + 6
x2
2 −1
x2
0
Die Lösungsmenge dieses Systems ist gerade der Eigenraum U2 und via Gauss-Elimination
erhalten wir
(( ))
1
U2 = Lin
.
−2
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
47
Nun wollen wir den betragsmässig grössten Eigenwert λ2 von A mit der Potenzmethode
iterativ berechnen. Dazu starten wir mit dem Vektor
( )
1
(0)
v =
.
−1
Dann erhalten wir iterativ:
2.6
)
1
−1 )
(
−0.4961
,
( 0.8682 )
−0.4555
,
( 0.8902 )
−0.4486
,
( 0.8937 )
−0.4474
,
( 0.8943 )
−0.4473
,
0.8944
√
v (0)
∥v (0) ∥
=
v (1)
∥v (1) ∥
=
v (2)
∥v (2) ∥
=
v (3)
∥v (3) ∥
=
v (4)
∥v (4) ∥
=
v (5)
∥v (5) ∥
=
(
2
2
∥v (1) ∥
∥v (0) ∥
= 5.9846
∥v (2) ∥
∥v (1) ∥
= 5.9996
∥v (3) ∥
∥v (2) ∥
= 6.0000
∥v (4) ∥
∥v (3) ∥
= 6.0000
∥v (5) ∥
∥v (4) ∥
= 6.0000
Effiziente Berechnung des Page-Rankings
Die Potenzmethode von Mises wird zur effektiven Berechnung des Page-Ranks bei Google
eingesetzt, weil die direkten Methoden bei vielen Millionen Webseiten zu viel Rechenzeit
benötigen.
Da die Potenzmethode von Mises aber immer nur einen Eigenvektor zum betragsmässig
grössten Eigenwert liefert und der Page-Rank ein Eigenvektor zum Eigenwert 1 ist, müssen
wir wissen, dass alle weiteren Eigenwerte der Page-Rank-Gleichung betragsmässig kleiner
als 1 sind. Nur dies sichert, dass die Potenzmethode auch den Page-Rank liefert.
Das Nachprüfen dieses Sachverhaltes werden wir in zwei Schritten einteilen. Wir definieren
die 1-Norm eines Vektors v ∈ Rn als
∥v∥1 := |v1 | + |v2 | + · · · + |vn |.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
48
Damit können wir den ersten Schritt formulieren.
Satz 2.10
Sei M eine positive spalten-stochastische Matrix (siehe Manuskript Lineare Algebra
I, Abschnitte 2.7. und 3.6). Sei U := {u ∈ Rn | u1 + u2 + · · · + nn = 0}. Dann ist für
alle v ∈ Rn
Mv ∈ U
und für alle v ∈ Rn gilt die Ungleichung
∥M v∥1 ≤ c∥v∥1
mit einem reellen Faktor c < 1.
Beweis
Sei M = (mij ), v = (v1 , . . . , vn )T ∈ Rn und w = (w1 , . . . , wn )T = M v. Dann ist
wi =
n
∑
mij vj
j=1

und
n
∑
wi =
i=1
n
n ∑
∑
mij vj =
i=1 j=1
n
∑
vj 
i=1
n
∑

mij  =
j=1
n
∑
vj = 0,
i=1
also M v ∈ U . Um die Ungleichung zu beweisen, verwenden wir


)
( n
n
n
n
n
n
∑
∑
∑
∑
∑
∑
mij vj  =
vj
sign(wi )mij .
∥w∥1 =
|wi | =
sign(wi )wi =
sign(wi ) 
i=1
i=1
j=1
i=1
Wir definieren als Abkürzung
aj =
n
∑
j=1
i=1
sign(wi )mij .
i=1
Dann wird aus der obigen Gleichung:
∥w∥1 =
n
∑
aj vj .
j=1
Wegen
n
∑
mij = 1
i=1
bekommen wir
1 + aj =
n
∑
i=1
ZHAW
mij +
n
∑
i=1
sign(wi )mij =
n
∑
(1 + sign(wi ))mij .
i=1
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
49
Wegen 1 + sign(wi ) ≥ 0 und mij > 0 und da aufgrund w ∈ U der Vektor w Komponenten
mit unterschiedlichen Vorzeichen haben muss, gilt
1 + aj =
n
∑
(1 + sign(wi ))mij ≥
i=1
n
∑
(1 + sign(wi )) min mij ≥ 2 min mij .
1≤i≤n
i=1
1≤i≤n
Analog gilt
1 − aj =
n
∑
(1 − sign(wi ))mij ≤
i=1
n
∑
(1 − sign(wi )) min mij ≤ 2 min mij .
1≤i≤n
i=1
1≤i≤n
Somit haben wir insgesamt
−1 < −1 + 2 min mij ≤ aj ≤ 1 − 2 min mij < 1.
1≤i≤n
1≤i≤n
Setze wir nun c := |1 − 2 min1≤i≤n mij |, so gilt
|aj | ≤ c < 1
und wir erhalten die gesuchte Ungleichung
n
n
n
n
∑
∑
∑
∑
∥w∥1 =
a j vj = aj vj ≤
|aj ||vj | ≤ c
|vj | = c∥v∥1 .
j=1
j=1
j=1
j=1
Im zweiten Schritt zeigen wir jetzt, dass die Potenzmethode von Mises auf das Page-RankProblem anwendbar ist, weil die Page-Rank-Matrix M eine positive spalten-stochastische
Matrix ist.
Satz 2.11
Jede positive spalten-stochastische Matrix M hat einen eindeutig bestimmten Vektor
p mit positiven Komponenten und ∥p∥1 = 1, so dass
Mp = p
ist. Der Vektor p lässt sich dabei durch die Potenzmethode von Mises berechnen, wobei
jeder Startvektor p0 mit positiven Komponenten und ∥p0 ∥1 = 1 zugelassen ist.
Beweis
Nach Satz 3.14 (Lineare Algebra 1) ist der Eigenraum E1 von M zum Eigenwert 1 höchstens
eindimensional. Wegen Rang(M − In ) < n folgt dim E1 ≥ 1, also ingesamt dim E1 = 1.
Nach Satz 3.12 (Lineare Algebra 1) hat jeder Vektor in E1 entweder lauter positive oder
lauter negative Komponenten. Damit gibt es genau einen Vektor p mit lauter positiven
Komponenten und ∥p∥1 = 1.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
50
Sei nun p0 ∈ Rn ein beliebiger Vektor mit lauter positiven Komponenten und ∥p0 ∥1 = 1.
Setzen wir
v := p0 − p,
so muss die Summe der Komponenten von v Null ergeben, d.h. es ist v ∈ U , wobei U wie
in Satz 2.10 definiert ist. Damit haben wir
M k p0 = M k (p + v) = M k p + M k v = p + M k v
bzw.
M k p0 − p = M k v.
Nach Satz 2.10 folgt
∥M k v∥1 = ck ∥v∥1
für ein c ∈ R mit 0 < c < 1 und wir erhalten somit
lim ∥M k v∥1 = lim ck ∥v∥1 = ∥v∥1 lim ck = 0.
k→∞
k→∞
k→∞
Also ist
lim M k p0 = p.
k→∞
Beispiel 2.10
Wir wollen den Page-Rank der Web-Site
1
3
5
4
2
mit Hilfe der Potenzmethode berechnen. Für die modifizierte PageRank-Matrix (LIneare
Algebra I, Abschnitt 3.6)
M = (1 − ρ)P + ρS
ergibt sich für ρ = 0.15

0.03
0.88

M =
0.03
0.03
0.03
ZHAW
0.88
0.03
0.03
0.03
0.03
0.03
0.03
0.03
0.88
0.03

0.03 0.03
0.03 0.03 

0.88 0.455

0.03 0.455
0.03 0.03
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 2. EIGENWERTE UND EIGENVEKTOREN
51
Berechnet man die Lösung der Gleichung M x = x mit dem Gauss-Algorithmus exakt und
wählt einen Lösungsvektor p mit lauter positiven Einträgen und ∥p∥1 = 1, so erhält man


0.2
 0.2 



p=
0.285
0.285
0.03
Wendet man die Potenzmethode auf den Startvektor
 
0.1
0.1
 

p0 = 
0.1
0.1
0.6
an, so erhalten wir schrittweise die Näherungslösungen




0.1150
0.1278
0.1150
0.1278




1
2
,


0.3573
M p0 = 0.3700 ,
M p0 = 


0.3700
0.3573
0.0300
0.0300


0.1803
0.1803


10

M p0 = 
0.3047 ,
0.3047
0.0300


0.1961
0.1961


20

M p0 = 
0.2889 ,
0.2889
0.0300


0.1386
0.1386


3

0.3464
M p0 = 


0.3464
0.0300


0.2000
0.2000


50

M p0 = 
0.2850
0.2850
0.0300
Damit ist man nach 50 Iterationen auf vier Stellen genau.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
Kapitel 3
Vektorräume mit Skalarprodukt
3.1
Motivation
In diesem Kapitel wird in reellen und komplexen Vektorräumen eine zusätzliche Struktur definiert, die die Einführung einer Massbestimmung (Metrik) gestattet. Sie ermöglicht
es, die Länge eines Vektors und den Winkel zwischen zwei Vektoren zu definieren. Diese
zusätzliche Struktur wird durch das skalare Produkt bestimmt und zu dem Begriff des euklidischen bzw. unitären Vektorraums führt. Skalare Produkte können in reellen und
komplexen Vektorräumen auf mannigfache Art definiert werden und führen zu verschiedenen Massbestimmungen. Die Begriffe Länge und Winkel erweisen sich also als Relativbegriffe, die von der Wahl des skalaren Produkts abhängen. Wesentlich ist besonders der
Begriff der Orthogonalität.
Aus der Schule ist bekannt, dass zwei Geraden g1 und g2 in der Ebene R2 , die durch lineare
Funktionen f1 (x) = m1 x und f2 (x) = m2 x beschrieben werden, genau dann senkrecht
aufeinander stehen, wenn
m1 · m2 = −1
gilt. Die beiden Geraden lassen sich durch lineare Hüllen geeigneter Vektoren beschreiben:
(( ))
(( ))
u1
u2
g1 = Lin
und
g2 = Lin
v1
v2
Ist u1 , u2 ̸= 0, so gilt
v1
v2
= m1
und
= m2 .
u1
u2
Die Gleichung m1 · m2 = −1 ist damit gleichbedeutend mit
v1 v2
= −1
u1 u2
oder
u1 u2 + v1 v2 = 0.
52
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
53
Die Summe u1 u2 + v1 v2 scheint also etwas mit dem ”Winkel” zwischen den beiden Geraden g1 und g2 zu tun zu haben. Wir werden sehen, dass diese Summe das euklidische
Skalarprodukt zwischen den beiden Vektoren (u1 , v1 )T und (u2 , v2 )T ist. Ein Skalarprodukt kann man also als Abbildung ansehen, die zwei Vektoren ein Körperelement zuweist.
Dies führt auf die Definition einer Bilinearform.
3.2
Definitionen
Definition 3.1
Sei V ein Vektorraum über einem Körper K. Eine Abbildung
β : V × V → K : (u, v) 7→ β(u, v),
die jedem Paar (u, v) von Vektoren aus V ein Körperelement β(u, v) zuordnet heisst
eine Bilinearform, wenn folgende Bedingungen gelten:
• Additivität 1: Für alle u, v, w ∈ V ist β(u + v, w) = β(u, w) + β(v, w)
• Additivität 2: Für alle u, v, w ∈ V ist β(u, v + w) = β(u, v) + β(u, w)
• Invarianz bzgl. Skalarmultiplikation: Für alle u, v ∈ V und λ ∈ K ist
β(λu, v) = β(u, λv) = λβ(u, v)
Bemerkung
Für eine Bilinearform β : V × V → K und u, v, w, x ∈ V und λ, µ ∈ K gilt also:
β(λ(u + v), µ(w + x)) = λµβ(u + v, w + x) = λµ(β(u, w) + β(u, x) + β(v, w) + β(v, x))
Da unsere Winkelmessung später nicht von der Reihenfolge der Vektoren abhängen soll,
wollen wir nur solche Bilinearformen β zulassen, die symmetrisch sind, für die also
β(u, v) = β(v, u)
gilt. Dies führt auf den Begriff des Skalarprodukt. Bitte beachten Sie bitte, dass wegen
der zweiten Bedingung, die für die Längenmessung von Vektoren wichtig ist, der Körper
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
54
K immer die reellen Zahlen R sind.
Definition 3.2
Sei V ein Vektorraum über den reellen Zahlen R. Eine Bilinearform
β : V × V → R : (u, v) 7→ β(u, v),
von V heisst Skalarprodukt, wenn sie folgende Eigenschaften besitzt:
• Symmetrie: Für alle u, v ∈ V ist β(u, v) = β(v, u)
• Positivität: Für alle u ∈ V, u ̸= 0 ist β(u, u) > 0
Folgerung
Wegen
β(0, y) = β(0 · 0, y) = 0 · β(0, y) = 0
folgt β(0, 0) = 0. Wegen (b) folgt
β(x, x) = 0
Für jeden Vektor x ∈ V gilt daher
⇒
x = 0.
β(x, x) ≥ 0.
Für ein skalares Produkt β(x, y) von V schreiben wir in Zukunft
⟨x, y⟩ = β(x, y)
Beispiel 3.1
Sei B = {v1 , . . . , vn } eine Basis eines Vektorraums V . Bezüglich dieser Basis lassen sich
beliebige Vektoren x, y ∈ V als Linearkombinationen ausdrücken:
x=
n
∑
xk vk ,
y=
k=1
n
∑
yk v k .
k=1
Somit kann man umkehrbar eindeutig den Vektoren x, y die Koordinatenvektoren
 
 
x1
y1
 .. 
 .. 
xB =  .  , yB =  . 
xn
yn
zuordnen. Durch
⟨x, y⟩ =
n
∑
xk yk
k=1
wird ein Skalarprodukt definiert, welches das kanonische Skalarprodukt genannt wird.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
55
Beispiel 3.2
Sei V =
R2 .
( )
( )
x1
y1
Seien x =
und y =
Vektoren aus R2 , dann wird mit
x2
y2
⟨x, y⟩ = 3x1 y1 + 2x2 y2
ein Skalarprodukt definiert. Es erfüllt die Symmetrie:
⟨x, y⟩ = 3x1 y1 + 2x2 y2 = 3y1 x1 + 2y2 x2 = ⟨y, x⟩.
Weiter gilt:
⟨x + y, z⟩ = 3(x1 + y1 )z1 + 2(x2 + y2 )z2
= (3x1 z1 + 2x2 z2 ) + (3y1 z1 + 2y2 z2 )
= ⟨x, z⟩ + ⟨y, z⟩.
Mit der Symmetrie ist es auch im zweiten Argument linear. Ferner gilt für λ ∈ R:
⟨λx, y⟩ = 3(λx1 )y1 + 2(λx2 )y2
= λ(3x1 y1 + 2x2 y2 )
= λ⟨x, y⟩.
Schliesslich ist
⟨x, x⟩ = 3x21 + 2x22 ,
so dass offenbar ⟨x, x⟩ ≥ 0 gilt. Ferner ist ⟨x, x⟩ = 0, wenn x1 = x2 = 0 und damit x = 0
gilt.
Beispiel 3.3
Es seien a und b zwei reelle Zahlen mit a < b, und V sei der Vektorraum aller auf dem
Intervall [a, b] definierten und stetigen reellen Funktionen. Setzt man für je zwei Funktionen
f, g ∈ V
∫b
⟨f, g⟩ = f (t)g(t)dt,
a
so wird ein Skalarprodukt definiert.
a) Symmetrie
∫b
⟨f, g⟩ =
∫b
g(t)f (t)dt = ⟨g, f ⟩.
f (t)g(t)dt =
a
a
b) Bilinearität
∫b
∫b
∫b
⟨f + g, h⟩ = [f (t) + g(t)]h(t)dt = f (t)h(t)dt + g(t)h(t)dt = ⟨f, h⟩ + ⟨g, h⟩.
a
ZHAW
a
a
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
56
Analog im zweiten Argument. Ferner ist für λ ∈ R:
∫b
⟨λf, g⟩ =
∫b
λf (t)g(t)dt = λ
a
f (t)g(t)dt = λ⟨f, g⟩.
a
c) Positive Definitheit.
Für f ̸= 0 gilt
∫b
⟨f, f ⟩ =
f 2 (t)dt > 0.
a
Definition 3.3
Ein Vektorraum V über dem Körper R, in dem zusätzlich ein skalares Produkt ⟨x, y⟩
ausgezeichnet ist, wird ein euklidischer Vektorraum genannt.
Wir wollen nun den Begriff des Skalarproduktes auf komplexe Vektorräume ausdehnen.
Dazu brauchen wir den Begriff der konjugiert komplexen Zahl. Jede komplexe Zahl
z ∈ C lässt sich darstellen als Summe
z = a + ib
mit a, b ∈ R, dem Realteil a und dem Imaginärteil b. Zu dieser Zahl z definieren wir die
zu z konjugierte Zahl z als
z = a − ib.
Das Produkt zz ist dabei stets eine reelle, nicht-negative Zahl:
zz = (a + ib)(a − ib) = a2 + iab − iab − i2 b2 = a2 + b2 .
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
57
Definition 3.4
Sei V ein Vektorraum über den komplexen Zahlen C. Eine Abbildung
β : V × V → C : (u, v) 7→ β(u, v),
von V heisst hermitesche Form, wenn sie folgende Eigenschaften besitzt:
• Additivität 1: Für alle u, v, w ∈ V ist β(u + v, w) = β(u, w) + β(v, w)
• Additivität 2: Für alle u, v, w ∈ V ist β(u, v + w) = β(u, v) + β(u, w)
• Invarianz bzgl. Skalarmultiplikation: Für alle u, v ∈ V und λ ∈ C ist β(λu, v) =
λβ(u, v)
• Konjugiertheit der Skalarmultiplikation: Für alle u, v ∈ V und λ ∈ C ist
β(u, λv) = λβ(u, v)
• Symmetrie: Für alle u, v ∈ V ist β(u, v) = β(v, u)
• Positivität: Für alle u ∈ V, u ̸= 0 ist β(u, u) > 0
Definition 3.5
Ein Vektorraum V über dem Körper C, in dem zusätzlich eine hermitesche Form ⟨x, y⟩
ausgezeichnet ist, wird ein unitärer Vektorraum genannt.
Beispiel 3.4
Sei B = {v1 , . . . , vn } eine Basis eines komplexen Vektorraums V . Bezüglich dieser Basis
lassen sich beliebige Vektoren x, y ∈ V als Linearkombinationen ausdrücken:
x=
n
∑
xk vk ,
y=
k=1
n
∑
yk v k .
k=1
Somit kann man umkehrbar eindeutig den Vektoren x, y die Koordinatenvektoren
 
 
x1
y1
 .. 
 .. 
xB =  .  , yB =  . 
xn
yn
zuordnen. Durch
⟨x, y⟩ =
n
∑
xk yk
k=1
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
58
wird eine hermitesche Form definiert, welches die kanonische hermitesche Form genannt wird.
Man vergleiche dieses Beispiel mit Beispiel 3.1. Der einzige Unterschied ist die konjugiert
komplexe Zahl am Ende der letzten Formel.
3.3
Norm und Orthogonalität
In diesem Paragraphen ist V stets ein euklidischer oder unitärer Vektorraum. Das skalare
Produkt zweier Vektoren u, v ∈ V wird wieder mit ⟨u, v⟩ bezeichnet.
Definition 3.6
Sei V ein euklidischer oder unitärer Vektorraum. Für jeden Vektor v ∈ V gilt ⟨v, v⟩ ≥ 0.
Daher ist
√
∥v∥ = ⟨v, v⟩.
eine nicht-negative reelle Zahl, die man die Norm oder Länge des Vektors v nennt.
Satz 3.1
Sei V ein euklidischer oder unitärer Vektorraum. Dann gilt die Schwarzsche Ungleichung:
|⟨u, v⟩|2 ≤ ⟨u, u⟩⟨v, v⟩ = ∥u∥2 ∥v∥2 .
Beweis
Für u = 0 oder v = 0 folgt
⟨u, v⟩ = 0
und
⟨u, u⟩ = 0 oder ⟨v, v⟩ = 0.
Somit gilt in diesen Fall die Gleichheit. Sei also u ̸= 0 und v ̸= 0 .Dann folgt ⟨u, u⟩ > 0
und ⟨v, v⟩ > 0. Für einen beliebigen Skalar λ folgt
0 ≤ ⟨u − λv, u − λv⟩ = ⟨u, u⟩ − λ⟨u, v⟩ − λ⟨v, u⟩ + λλ⟨v, v⟩.
Setzen wir
λ=
⟨u, v⟩
,
⟨v, v⟩
also λ =
⟨u, v⟩
⟨v, v⟩
in der obigen Gleichung ein, so erhält man
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
0 ≤ ⟨u − λv, u − λv⟩ = ⟨u, u⟩ −
= ⟨u, u⟩ −
59
⟨u, v⟩⟨u, v⟩ ⟨u, v⟩⟨v, u⟩ ⟨u, v⟩⟨u, v⟩
−
+
⟨v, v⟩
⟨v, v⟩
⟨v, v⟩
⟨u, v⟩⟨v, u⟩
⟨u, v⟩⟨u, v⟩
= ⟨u, u⟩ −
.
⟨v, v⟩
⟨v, v⟩
Durch Multiplikation mit ⟨v, v⟩ folgt
0 ≤ ⟨u, u⟩⟨v, v⟩ − ⟨u, v⟩⟨u, v⟩
⇔
⟨u, v⟩⟨u, v⟩ = |⟨u, v⟩|2 ≤ ⟨u, u⟩⟨v, v⟩.
□
und daraus die Behauptung.
Satz 3.2
Die Norm eines Vektors v ∈ V hat folgende Eigenschaften.
1. ∥v∥ ≥ 0.
2. ∥v∥ = 0
⇔
v=0
3. ∥λv∥ = |λ| · ∥v∥
4. Dreiecksungleichung: Für alle u, v ∈ V : ∥u + v∥ ≤ ∥u∥ + ∥v∥
Beweis
1. Gilt nach Definition der Norm.
2. Wegen ⟨v, v⟩ = 0 ⇔ v = 0 folgt
∥v∥ =
3. ∥λv∥ =
√
⟨λv, λv⟩ =
√
√
λλ⟨v, v⟩ =
⟨v, v⟩ = 0
⇔
v = 0.
√ √
λλ ⟨v, v⟩ = |λ|∥v∥.
4. Es gilt
∥u + v∥2 = ⟨u + v, u + v⟩
= ⟨u, u⟩ + ⟨u, v⟩ + ⟨v, u⟩ + ⟨v, v⟩
= ⟨u, u⟩ + ⟨u, v⟩ + ⟨u, v⟩ + ⟨v, v⟩
= ∥u∥2 + 2Re(⟨u, v⟩) + ∥v∥2 .
Für eine komplexe Zahl z = a + ib gilt:
Re(z) = a ≤ |a| =
√
√
a2 ≤ a2 + b2 = |z|.
Somit
Re(⟨u, v⟩) ≤ |⟨u, v⟩|.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
60
Aus der Schwarzschen Ungleichung
|⟨u, v⟩|2 ≤ ∥u∥2 ∥v∥2
folgt durch Wurzelziehen
|⟨u, v⟩| ≤ ∥u∥∥v∥.
Somit
∥u + v∥2 = ∥u∥2 + 2Re(⟨u, v⟩) + ∥v∥2
≤ ∥u∥2 + 2∥u∥∥v∥ + ∥v∥2
= (∥u∥ + ∥v∥)2 .
Daraus folgt die Dreiecksungleichung ∥u + v∥ ≤ ∥u∥ + ∥v∥.
□
Definition 3.7
Ein Vektor v ∈ V heisst normiert, wenn ∥v∥ = 1 gilt.
Bemerkung
Ist v ∈ V vom Nullvektor verschieden, so ist
1
∥v∥ v
1
1
∥ ∥v∥
v∥ = | ∥v∥
|∥v∥ =
ein normierter Vektor, denn es gilt
1
∥v∥ ∥v∥
= 1.
Definition 3.8
Für zwei vom Nullvektor verschiedene Vektoren u, v ∈ V definiert man den Kosinus
des Winkels φ zwischen diesen Vektoren durch
cos(φ) =
⟨u, v⟩
.
∥u∥ · ∥v∥
Definition 3.9
Zwei vom Nullvektor verschiedene Vektoren u und v eines euklidischen bzw. unitären
Vektorraums V heissen orthogonal, wenn gilt:
⟨u, v⟩ = 0.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
3.4
61
Koordinaten bezüglich einer Orthonormalbasis
Definition 3.10
Sei V ein euklidischer oder unitärer Vektorraum. Eine Basis B = (b1 , . . . , bn ) heisst
Orthogonalbasis von V , wenn für alle i, j ∈ {1, . . . , n} gilt
⟨bi , bj ⟩ = 0
Eine Orthogonalbasis B = (b1 , . . . , bn ) heisst Orthonormalbasis von V , wenn für alle
i ∈ {1, . . . , n} gilt
||bi || = 1.
Satz 3.3
Es sei B = {b1 , . . . , bn } eine Orthonormalbasis von V . Sind dann u1 , . . . , un bzw.
v1 , . . . , vn die Koordinaten der Vektoren u und v bezüglich dieser Basis, so gilt
⟨u, v⟩ =
n
∑
uk vk
k=1
und für die Koordinaten selbst uk = ⟨u, bk ⟩ für k = 1, . . . , n, d.h. es ist
u=
n
∑
uk bk =
n
∑
⟨u, bk ⟩bk .
k=1
k=1
Beweis
Für die Orthonormalbasis B = {b1 , . . . , bn } von V gilt:
{
⟨bi , bj ⟩ = δij =
1 falls i = j
0 falls i ̸= j
Hierdurch erhält man
⟨u, v⟩ =
n
⟨∑
ui bi ,
i=1
und
⟨u, bk ⟩ =
n
⟨∑
i=1
ZHAW
n
∑
⟩
vj bj =
j=1
n
∑
ui vj ⟨bi , bj ⟩ =
i,j=1
n
∑
uk vk
k=1
n
n
⟩ ∑
∑
ui bi , bk =
ui ⟨bi , bk ⟩ =
ui δik = uk .
i=1
i=1
□
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
Beispiel 3.5
Die Vektoren
 
1
0
 
 
e1 = 0 ,
 .. 
.
 
0
1
 
 
e2 = 0 ,
 .. 
.
0
...
0
62
 
0
0
 
 
en =  ... 
 
0
1
bilden eine Orthonormalbasis des Rn .
Beispiel 3.6
Sei P2 der Vektorraum der Polynome vom Grad zwei. Seien p, q ∈ P2 . Wir definieren ein
Skalarprodukt in P2 :
∫1
⟨p, q⟩ = p(x)q(x)dx.
−1
Die Polynome
√
√
2
2 ,
p0 (x) =
p1 (x) =
3
2 x,
√
p2 (x) =
2
5
8 (3x
− 1)
bilden eine Orthonormalbasis für P2 . Denn
∫1
⟨p0 , p0 ⟩ =
1
2
dx = 1,
⟨p0 , p1 ⟩ =
√
−1
x2 dx = 1, ⟨p1 , p2 ⟩ =
3
2
xdx = 0,
⟨p0 , p2 ⟩ =
√
5
4
−1
∫1
⟨p1 , p1 ⟩ =
∫1
3
2
√
−1
∫1
15
4
−1
∫1
(3x2 − 1)dx = 0
∫1
2
5
x(3x − 1)dx = 0, ⟨p2 , p2 ⟩ = 8 (3x2 − 1)2 dx = 1.
−1
−1
Sei p(x) = 3x2 − 4x + 1 ∈ P2 , dann gilt nach Satz 3.3:
∫1
x0 = ⟨p(x), p0 ⟩ =
∫1
√
p(x)p0 (x)dx = 22 (3x3 − 4x + 1)dx = 2 2
√
−1
∫1
x1 = ⟨p(x), p1 ⟩ =
−1
√ ∫1
√
p(x)p1 (x)dx = 32 (3x3 − 4x + 1)xdx = − 4 3 6 .
−1
∫1
x2 = ⟨p(x), p2 ⟩ =
−1
√ ∫1
√
p(x)p2 (x)dx = 58 (3x3 − 4x + 1)(3x2 − 1)dx = 2 510 .
−1
−1
Somit
p(x) = x0 p0 (x)+x1 p1 (x)+x2 p2 (x)
ZHAW
⇔
√ √
√ √
√ √
3x2 −4x+1 = 2 2 22 − 4 3 6 32 x+2 510 58 (3x2 −1).
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
63
Aus einer Orthogonalbasis B = {b1 , . . . , bn } erhalten wir durch Normalisieren eine Orthonormalbasis B ′ eines Vektorraums V :
{ b
bn }
1
B′ =
,...,
.
∥b1 ∥
∥bn ∥
Mit Satz 3.3 gilt dann für einen Vektor v ∈ V :
v=
n
∑
k=1
vk
⟨
bk ⟩
vk = v,
für k = 1, . . . , n.
∥bk ∥
bk
,
∥bk ∥
Es gilt
⟨
v,
bk ⟩
1
=
⟨v, bk ⟩.
∥bk ∥
∥bk ∥
Somit hat man den folgenden Satz hergeleitet.
Satz 3.4
Es sei B = {b1 , . . . , bn } eine Orthogonalbasis von V . Die Darstellung eines Vektors
v ∈ V als Linearkombination der Basisvektoren aus B ist
v=
n
∑
⟨v, bk ⟩
k=1
∥bk ∥2
bk .
Satz 3.5
Jedes Orthogonalsystem S = {b1 , . . . , bm } ist linear unabhängig.
Beweis
Es sei S = {v1 , . . . , vm } ein Orthogonalsystem. Wir zeigen, dass aus der Gleichung
m
∑
λk bk = 0
k=1
die Relation λ1 = λ2 = . . . = λn = 0 folgt. Zunächst gilt für jeden Vektor bi aus S:
m
∑
⟨
λk bk , bi ⟩ = ⟨0, bi ⟩
k=1
⇔
m
∑
λk ⟨bk , bi ⟩ = 0
⇔
λi ⟨bi , bi ⟩ = 0.
k=1
Nach Voraussetzung ist bi ̸= 0 und damit ⟨bi , bi ⟩ ̸= 0, woraus wir λi = 0 für alle i = 1, . . . , m
schliessen. Somit ist S linear unabhängig.
□
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
3.5
64
Das Orthogonalisierungs-Verfahren von Gram-Schmidt
Nachdem wir uns von der Nützlichkeit von Orthonormalbasen überzeugt haben, werden wir
jetzt zeigen, dass jede beliebige Basis eines euklidischen oder unitären Vektorraums durch
eine Basis mit orthogonalen, resp. orthonormalen, Vektoren ersetzt werden kann, sofern die
Dimension des Vektorraums V endlich (abzählbar unendlich) ist. Das Gram-Schmidt’sche
Orthonormalisierungs-Verfahren ist ein konstruktives Verfahren.
Satz 3.6
Zu jedem endlichen (oder abzählbar-unendlichen) System {v1 , v2 , . . .} linear unabhängiger Vektoren eines euklidischen oder unitären Vektorraums V gibt es genau ein entsprechendes Orthonormalsystem {b1 , b2 , . . .}, so dass für k = 1, 2, . . . die Vektoren
v1 , . . . , vk und b1 , . . . , bk denselben Unterraum Uk von V aufspannen, d.h. es ist
Uk = Lin(v1 , . . . , vk ) = Lin(b1 , . . . , bk ).
Das Orthonormalsystem {b1 , b2 , . . .} wird dabei wie folgt rekursiv definiert:
b1 =
1
∥v1 ∥ v1 ,
cn+1 = vn+1 −
n
∑
⟨vn+1 , bi ⟩bi ,
bn+1 =
1
∥cn+1 ∥ cn+1 .
i=1
Beweis
Die Vektoren b1 , b2 , . . . werden induktiv definiert. Bei einem endlichen System {v1 , . . . , vm }
bricht das Verfahren nach m Schritten ab.
Wegen der vorausgesetzten linearen Unabhängigkeit der Vektoren {v1 , v2 , . . .} gilt v1 ̸= 0,
und
b1 =
1
∥v1 ∥ v1
(3.1)
ist ein normierter Vektor. Die Vektoren v1 und b1 erzeugen denselben Unterraum
U1 = Lin(v1 ) = Lin(b1 ).
Es seien jetzt bereits die orthonormalen Vektoren b1 , . . . , bn so konstruiert, dass für k =
1, . . . , n
Uk = Lin(v1 , . . . , vk ) = Lin(b1 , . . . , bk )
erfüllt ist. Nach Satz 3.5 sind die Vektoren {b1 , . . . , bk } linear unabhängig. Dann definieren
wir
bn+1 = vn+1 −
n
∑
⟨vn+1 , bi ⟩bi .
(3.2)
i=1
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
65
Der Vektor bn+1 ist eine Linearkombination der orthonormalen Vektoren b1 , . . . , bn und
vn+1 , somit ist
bn+1 ∈ Lin(b1 , . . . , bn , vn+1 ).
Somit
Lin(b1 , . . . , bn , vn+1 ) = Lin(b1 , . . . , bn , bn+1 ).
Mit Berücksichtigung der Induktionsvoraussetzung Un = Lin(v1 , . . . , vn ) = Lin(b1 , . . . , bn )
ergibt sich
Un+1 = Lin(v1 , . . . , vn , vn+1 ) = Lin(b1 , . . . , bn , vn+1 ) = Lin(b1 , . . . , bn , bn+1 ).
Weil nach Voraussetzung die Vektoren v1 , . . . , vn , vn+1 linear unabhängig sind, folgt
dim(Un+1 ) = n + 1
und weil die linearen Hüllen gleich sind, sind die Vektoren b1 , . . . , bn , bn+1 ebenfalls linear
unabhängig. Insbesondere gilt bn+1 ̸= 0, denn wäre bn+1 = 0, dann würde
vn+1
n
∑
=
⟨vn+1 , bi ⟩bi ,
i=1
gelten und somit wäre vn+1 wegen Lin(v1 , . . . , vn ) = Lin(b1 , . . . , bn ) eine Linearkombination
der linear unabhängigen Vektoren v1 , . . . , vn . Dies ist ein Widerspruch zur Voraussetzung.
Mit der Orthonormalität der Vektoren {b1 , . . . , bn } folgt für j = 1, . . . , n:
n
n
∑
∑
⟩
⟨
⟨vn+1 , bj ⟩⟨bi , bj ⟩
⟨bn+1 , bj ⟩ = vn+1 −
⟨vn+1 , bi ⟩bi , bj = ⟨vn+1 , bj ⟩ −
i=1
i=1
= ⟨vn+1 , bj ⟩ − ⟨vn+1 , bj ⟩ = 0.
Der Vektor bn+1 ist somit orthogonal zu jedem Vektor bj , j = 1, . . . , n. Wir setzen
bn+1 =
1
∥bn+1 ∥ bn+1 .
(3.3)
Dieser Vektor ist orthonormal zu bj , j = 1, . . . , n. Die Vektoren b1 , . . . , bn+1 bilden also ein
Orthonormalsystem für den Unterraum Un+1 .
□
Beispiel 3.7
In dem reellen Vektorraum R3 sei das skalare Produkt je zweier Vektoren

u1
u = u2  ,
u3

 
v1
v = v2 
v3
durch ⟨u, v⟩ = u1 v1 + u2 v2 + u3 v3 definiert. Das Orthonormalisierungs-Verfahren werde auf
die Vektoren
 
 
 
0
1
2,





4
1 , v3 =
2 , v2 =
v1 =
−1
−2
−1
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
66
angewandt. Man erhält:

b1
c2
b2
c3
b3

2
1
1
=
v1 =  2  ,
∥v1 ∥
3
−1
 
 
 
1
2,
1
2
1
= v2 − ⟨v2 , b1 ⟩b1 =  1  −  2  = − 1 ,
3
3
−2
−1
4
 
1
−1
= ∥c12 ∥ c2 = √ 1 ,
3 2 4
 
2
−2
∑
= v3 −
⟨v3 , bi ⟩bi = v3 − ⟨v3 , b1 ⟩b1 − ⟨v3 , b2 ⟩b2 =  2  ,
i=1
0
 
−1
1  
1
1 .
= ∥b3 ∥ b3 = √
2
0
Beispiel 3.8
Ersetzen wir das Skalarprodukt aus dem vorherigen Beispiel durch
⟨u, v⟩ = 2u1 v1 + u2 v2 + 4u3 v3 ,
so ändert sich das Resultat des Orthonormalisierungs-Verfahren wie folgt:

b1
c2
b2
c3
b3
ZHAW

2
1
1
=
v1 =  2  ,
∥v1 ∥
4
−1
 
 
 
2
−6
1
14   1  


2
−6 ,
1 −
=
= v2 − ⟨v2 , b1 ⟩b1 =
16
8
−1
−9
−2
 
−2
1  
1
−2 ,
= ∥c2 ∥ c2 = √
4 3 −3


−16
1 
32  ,
= v3 −
⟨v3 , bi ⟩bi = v3 − ⟨v3 , b1 ⟩b1 − ⟨v3 , b2 ⟩b2 =
12
i=1
0
 
−1
1
= ∥b13 ∥ b3 = √  2  .
6
0
2
∑
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
67
Beispiel 3.9
In dem reellen Vektorraum aller in [0, 1] stetigen reellen Funktionen sei das skalare Produkt
durch
∫1
⟨f, g⟩ = f (t)g(t)dt
0
definiert. Das Orthonormalisierungs-Verfahren soll auf die Polynome
a0 (t) = 1 = t0 ,
a2 (t) = t2 ,
a1 (t) = t,
a3 (t) = t3 , . . .
angewandt werden. Die Funktionen des entstehenden Orthonormalsystems sollen hier mit
e0 (t),
e1 (t),
e2 (t), . . .
∫1
bezeichnet werden. Mit ⟨a0 , a0 ⟩ = ⟨1, 1⟩ =
dt = t|10 = 1
folgt
0
e0 (t) =
∫1
Mit ⟨a1 , e0 ⟩ = ⟨t, 1⟩ =
tdt =
t2 1
1
2 0= 2
1
∥a0 ∥ a0
= 1.
folgt
0
1
b1 = a1 − ⟨a1 , e0 ⟩e0 = t − ,
2
∫1
1
und mit ⟨b1 , b1 ⟩ = (t − 12 )2 dt = 31 (t − 12 )3 0 =
1
12
folgt
0
e1 (t) =
√
1
b1 = 12(t − 12 ).
∥b1 ∥
Mit
∫1
⟨a2 , e0 ⟩ = ⟨t , 1⟩ =
2
tdt =
t3 1
1
3 0= 3 ,
0
und
√
√ ∫ 2
√
4
1
⟨a2 , e1 ⟩ = ⟨t , 12(t − 2 )⟩ = 12 t (t − 21 )dt = 12( t4 −
1
2
√
12
t3 1
=
)
6 0
12
0
folgt
b2 = a2 − ⟨a2 , e0 ⟩e0 − ⟨a2 , e1 ⟩e1 = t2 −
1
3
− (t − 21 ) = t2 − t + 16 .
∫1
Daraus ergibt sich mit ⟨b2 , b2 ⟩ = (t2 − t + 61 )2 dt = 15 t5 − 21 t4 + 94 t3 − 61 t2 +
1
1 1
36 t 0 = 180
0
e2 (t) =
ZHAW
√
1
b2 = 6 5(t2 − t + 16 ).
∥b2 ∥
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
3.6
68
Orthogonale Komplemente
Definition 3.11
Zwei Teilmengen M und N eines euklidischen oder unitären Vektorraumes V heissen
orthogonal, wenn ⟨v, u⟩ = 0 für alle Vektoren v ∈ M und u ∈ N erfüllt ist, d.h. wenn
alle Vektoren aus M auf allen Vektoren aus N senkrecht stehen. Bezeichnung: M ⊥ N .
Wenn hierbei z.B. die Menge M aus nur einem Vektor v besteht, wird statt {v} ⊥ N
einfacher v ⊥ N geschrieben. Die leere Menge und der Nullraum sind zu jeder Teilmenge
von V orthogonal.
Definition 3.12
Sei M eine Teilmenge des euklidischen oder unitären Vektorraumes V . Dann heisst
M ⊥ = {v ∈ V | v ⊥ M } = {v ∈ V | ⟨v, m⟩ = 0, m ∈ M }
das orthogonale Komplement von M in V .
Satz 3.7
Das orthogonale Komplement M ⊥ einer Teilmenge M des Vektorraumes V ist ein
Unterraum.
Beweis
Seien v1 , v2 und v aus M ⊥ und λ ∈ K = R oder C, dann folgt
⟨v1 , m⟩ = 0,
⟨v2 , m⟩ = 0 für alle m ∈ M.
Somit
⟨v1 + v2 , m⟩ = ⟨v1 , m⟩ + ⟨v2 , m⟩ = 0 + 0 = 0
Ferner
⟨λv1 , m⟩ = λ⟨v1 , m⟩ = λ · 0 = 0
⇒
⇒
v1 + v2 ∈ M ⊥ .
λv1 ∈ M ⊥ .
□
Beispiel 3.10

 
2
1



2 , b2 = −5 aus R3 . Wir bestimmen das orthogonale
Sei M = {b1 , b2 } mit b1 =
4
−1

ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
69
 
x
Komplement M ⊥ . Sei v = y  aus R3 und v ∈ M ⊥ , dann folgt
z
x y
z
⇔
⇔
1 2 −1 0
⟨v, b2 ⟩ = 0
2x − 5y + 4z = 0
2 −5 4 0
 
−1
1
2

Also x = − 3 z, y = 3 z, z ∈ R, oder v = z 2 . Somit ist
3
⟨v, b1 ⟩ = 0,

x + 2y − z = 0
rref
−→
x y z
1 0 13
0 1 − 23
0
0
M ⊥ = {v ∈ R3 | ⟨v, v⟩ = 0, v ∈ M }

−1
mit v = λ  2 , λ ∈ R ein eindimensionaler Unterraum von R3 .
3
Satz 3.8
Projektionssatz. Sei U ein endlich-dimensionaler Unterraum eines euklidischen oder
unitären Vektorraumes V . Dann besitzt jeder Vektor v aus V eine eindeutige Darstellung
v = u1 + u2 ,
wobei u1 in U und u2 in U ⊥ liegt. Es gilt
V = U ⊕ U ⊥.
Der Vektor v wird sozusagen auf den Unterraum U orthogonal projiziert. Der Vektor
u1 heisst Orthogonalprojektion von v auf U . Der Vektor u2 ist die zu U orthogonale
Komponente von v.
Beweis
Wir zeigen zuerst die Existenz der Vektoren u1 und u2 und dann ihre Eindeutigkeit.
Nach dem Gram-Schmidt-Verfahren besitzt U als endlich-dimensionaler Unterraum eine
Orthonormalbasis {b1 , . . . , bn }. Wir setzen
u1 =
n
∑
⟨v, bk ⟩bk
und u2 = v − u1 .
k=1
Offenbar ist
u1 + u2 = u1 + (v − u1 ) = v.
Ausserdem liegt u1 als Linearkombination von {b1 , . . . , bn } in U . Es bleibt zu zeigen, dass
u2 orthogonal zu U ist, also dass ⟨u2 , u⟩ = 0 gilt. Für jeden Vektor u aus U ist
⟨u2 , u⟩ = ⟨v − u1 , u⟩ = ⟨v, u⟩ − ⟨u1 , u⟩.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
Da sich u als Linearkombination
u=
n
∑
70
λk bk
k=1
darstellen lässt, ergibt sich
⟨v, u⟩ = ⟨v,
n
∑
n
n
n
∑
∑
∑
λk bk ⟩ = ⟨
λk ⟨bk , v⟩ =
λk ⟨v, bk ⟩.
λk bk , v⟩ =
k=1
k=1
k=1
k=1
Ferner haben wir
⟨u1 , u⟩ = ⟨u1 ,
n
∑
λk bk ⟩ =
k=1
n
∑
λk ⟨u1 , bk ⟩ =
k=1
=
n
∑
k=1
n
∑
λk ⟨
λk
k=1
n
∑
⟨v, bi ⟩bi , bk ⟩
i=1
n
∑
n
∑
i=1
k=1
⟨v, bi ⟩⟨bi , bk ⟩ =
λk ⟨v, bk ⟩.
Somit ist
⟨u2 , u⟩ = ⟨v, u⟩ − ⟨u1 , u⟩ = 0,
also folgt u2 ∈ U ⊥ . Um die Eindeutigkeit der Zerlegung zu zeigen, betrachten wir Vektoren
u′1 aus U und u′2 orthogonal zu U mit
v = u′1 + u′2 .
Für die Vektoren u1 und u2 gilt
v = u1 + u2 ,
also ist
0 = v − v = (u′1 + u′2 ) − (u1 + u2 ) = (u′1 − u1 ) + (u′2 − u2 )
⇔
u1 − u′1 = u′2 − u2 .
Weil U und U ⊥ Unterräume sind, gilt
also
u1 , u′1 ∈ U
⇒
u1 − u′1 ∈ U
u2 , u′2 ∈ U
⇒
u′2 − u2 ∈ U ⊥ ,
⟨u1 − u′1 , u′2 − u2 ⟩ = 0.
Mit u1 − u′1 = u′2 − u2 folgt
0 = ⟨u1 − u′1 , u′2 − u2 ⟩ = ⟨u′2 − u2 , u′2 − u2 ⟩.
Ein Skalarprodukt hat die Eigenschaft ⟨v, v⟩ = 0 ⇔ v = 0. Somit folgt
u′2 − u2 = 0
Folglich
ZHAW
⇔
u1 − u′1 = u′2 − u2 = 0
u′2 = u2 .
⇔
u′1 = u1 .
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
71
Jeder Vektor v ∈ V lässt sich eindeutig in die Vektoren u1 aus U und u2 aus U ⊥ zerlegen:
v = u1 + u2 .
Somit gilt
V = U + U ⊥.
Wir zeigen, dass die Summe direkt ist, d.h. U ∩ U ⊥ = {0}. Sei v ∈ U ∩ U ⊥ , also v ∈ U und
v ∈ U ⊥ , dann folgt
⟨v, v⟩ = 0 ⇔ v = 0.
Somit
U ∩ U ⊥ = {0} und V = U ⊕ U ⊥ .
□
Die untenstehende Abbildung illustriert den Satz 3.8. Dabei ist U der von den Vektoren
b1 und b2 erzeugte Unterraum:
U = Lin(b1 , b2 ).
U ⊥ ist das orthogonale Komplement zu U und ist eindimensional.
Nach Satz 3.8 lässt sich jeder Vektor v aus V eindeutig in zwei Vektoren zerlegen:
v = u1 + u2 ,
u1 ∈ U,
u2 ∈ U ⊥ .
Für die Ortogonalprojektion u1 ∈ U von v auf U schreiben wir im Folgenden projU v,
also
projU v = u1 .
Mit dieser Notation gilt nach Satz 3.8
v = projU v + w,
ZHAW
projU v ∈ U,
w ∈ U ⊥.
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
72
Wenn der endlich-dimensionale Unterraum U eine Orthonormal- oder Orthogonalbasis hat,
dann lässt sich die Ortogonalprojektion projU v, wie der folgende Satz zeigt, elegant mit
Hilfe des Satzes 3.3, resp. Satz 3.4 in dieser Basis ausdrücken.
Satz 3.9
Sei U ein endlich-dimensionaler Unterraum eines euklidischen oder unitären Vektorraumes V .
a) Ist B = {b1 , . . . , bn } eine Orthonormalbasis von U , so gilt für jeden Vektor v ∈ V
n
∑
projU v =
⟨v, bk ⟩bk .
k=1
b) Ist B = {b1 , . . . , bn } eine Orthogonalbasis von U , so gilt für jeden Vektor v ∈ V
projU v =
n
∑
⟨v, bk ⟩
k=1
∥bk ∥2
bk .
Beispiel 3.11
Sei U = Lin(b1 , b2 ) mit b1 = (1, 2, 0)T und b2 = (2, −1, −2)T im euklidischen Raum R3 .
Wie man leicht nachrechnet, ist B = {b1 , b2 } eine orthogonale Basis für den Unterraum U .
Sei v = (3, −1, 1)T ein Vektor aus R3 . Mit Satz 3.9 folgt für die orthogonale Projektion
von v auf U
 
 


1
2
59
⟨v, b2 ⟩
1
⟨v, b1 ⟩
5
1 
−7  .
projU v =
b1 +
b2 = 2 + −1 =
2
2
∥b1 ∥
∥b2 ∥
5
9
45
0
−2
−50
Aus v = projU v + w folgt






3
59
76
1 
1 
−7  =
−38
w = v − projU v = −1 −
45
45
1
−50
95
∈ U ⊥.
Dass w ∈ U ⊥ ist, überprüft man leicht nach, indem man ⟨w, b1 ⟩ = 0 und ⟨w, b2 ⟩ = 0
nachweist.
3.7
3.7.1
Näherungslösungen
Orthogonalprojektion als Näherungen
Viele praktische Probleme in der Mathematik und anderen Wissenschaften lassen sich nicht
exakt, sondern nur näherungsweise lösen. Wir werden jetzt Verfahren entwickeln, um mit
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
73
Hilfe der Orthogonalprojektion solche Approximationen zu erhalten.
Sei V ein euklidischer oder unitärer Vektorraum und sei U ein endlich-dimensionaler Unterraum von V . Sei v ein beliebiger Vektor aus V . Wir wollen nun einen Vektor u in U so
finden, dass der gegebene Vektor v am besten durch u approximiert wird, d.h. wir bilden
den Fehlervektor
d = v − u.
Der Vektor u ∈ U ist die beste Approximation für den Vektor v ∈ V , wenn die Länge des
Fehlervektors minimal wird, d.h. finde u in U so, dass
∥d∥ = ∥v − u∥
minimal wird. Die Länge des Fehlervektors d wird minimal, wenn u = projU v ist, d.h.,
wenn d orthogonal auf U steht. Im folgenden Satz wird das präzisiert und bewiesen.
Satz 3.10
Sei U ein endlich-dimensionaler Unterraum eines euklidischen oder unitären Vektorraumes V und sei v ein beliebiger Vektor aus V . Dann ist projU v die beste Näherung
von v in U , d.h.
∥v − projU v∥ < ∥v − u∥
für jeden von projU v verschiedenen Vektor u aus U .
Die folgende Abbildung skizziert diese Näherung.
v − projU v
U
v
d=v−u
u
•
projU v
∥v − u∥ wird minimal für u = projU v
Beweis
Aus Satz 3.8 wissen wir, dass es einen Vektor projU v ∈ U gibt, und v sich wie folgt
eindeutig zerlegen lässt
v = projU v + w,
projU v ∈ U,
w ∈ U ⊥.
Für jeden Vektor u ∈ U ist
v − u = v − projU v + projU v − u.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
74
Weil U ein Unterraum ist und projU v ∈ U , u ∈ U ist, folgt projU v − u ∈ U . Es gilt
w = v − projU v ∈ U ⊥ , also folgt
⟨v − projU v, projU v − u⟩ = 0.
Mit Hilfe dieser Tatsache schliessen wir
v − u = (v − projU v) + (projU v − u)
∥v − u∥2 = ∥(v − projU v) + (projU v − u)∥2
= ⟨(v − projU v) + (projU v − u), (v − projU v) + (projU v − u)⟩
= ⟨v − projU v, v − projU v⟩ + ⟨projU v − u, projU v − u⟩
= ∥v − projU v∥2 + ∥projU v − u∥2 .
Mit u ̸= projU v ist ∥projU v − u∥2 > 0, also
∥v − u∥2 > ∥v − projU v∥2
und damit
∥v − u∥ > ∥v − projU v∥,
u ∈ U,
u ̸= projU v.
□
Bemerkung
Die beste Approximation des Vektors v ∈ V mit einem Vektor aus u ∈ U hat man mit
u = projU v. Für den Fehlervektor gilt
∈ U ⊥,
d = v − projU v
d.h. der Fehlervektor d steht orthogonal zum Unterraum U und im Falle eines euklidischen
Vektorraums V gilt
v
u n
u∑
d2k .
∥d∥ = t
k=1
Die Summe der Fehlerquadrate ist minimal.
3.7.2
Näherungslösungen für lineare Gleichungssysteme
Die Näherungslösung für ein lineares Gleichungssystem wird auch als Lineare Ausgleichsrechnung bezeichnet.
Problemstellung
Seien x, y, z die Längen dreier Strassenstücke zwischen vier Städten A, B, C, D, wie in
der untenstehenden Figur skizziert:
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
A
x
bC
y
B
bC
75
C
bC
z
D
bC
Aus messtechnischen Gründen können die Längen x, y, z nicht einzeln gemessen werden.
Folgende Teilstücke werden gemessen:
AB = 35 km,
AC = 67 km,
AD = 89 km,
BD = 53 km,
CD = 20 km.
Frage: Wie gross sind die einzelnen Strecken x, y, z?
Wie man sofort sieht, ist AD ̸= AC + CD. Diese Tatsache hat mit Messfehler zu tun. Wie
formulieren die gegebenen Grössen als lineares Gleichungssystem:

x = 35
x + y = 67
x + y + z = 89
⇔
y + z = 53
z = 20
1
1

1

0
0

 
0  
35



0 x
67




1 y = 89
.
53
1 z
1
20
0
1
1
1
0
Dieses lineare Gleichungssystem hat keine Lösung. Wir müssen die gesuchten Werte x, y
und z durch ausgeglichene Werte ersetzen, resp. berechnen. Die gemessenen Teilstücke
AB, AC, AD, BD, CD sind mit Messfehler behaftet, die allerdings unbekannt sind. Seien
dk ,
k = 1, . . . , 5
die unbekannten Messfehler. Berücksichtigen wir, dass jede Messung einen Fehler haben
kann, so kann das lineare Gleichungssystem unter bestimmten Voraussetzungen gelöst werden. Das um die Fehler korrigierte Gleichungssystem lautet:
x = 35 − d1
d1 = 35 − x
d2 = 67 − (x + y)
x + y = 67 − d2
x + y + z = 89 − d3
d3 = 89 − (x + y + z)
⇔
y + z = 53 − d4
d4 = 53 − (y + z)
z = 20 − d5
d5 = 20 − z
⇔
    
d1
35
1
d2  67 1
    
d3  = 89−1
    
d4  53 0
d5
20
0
0
1
1
1
0

0  
0
 x
 
1
 y .
1 z
1
Allgemein:
d = c − Av,
mit

1
1

A=
1
0
0
0
1
1
1
0

0
0

1
,
1
1
 
x

v = y ,
z
 
35
67
 

c=
89 ,
53
20
(3.4)
 
d1
d2 
 

d=
d3  .
d4 
d5
Dabei ist v der Lösungsvektor mit den gesuchten ausgeglichenen Werten x, y, z, der Vektor
c ist der Vektor mit den Messwerten und schliesslich ist der Vektor d der Fehlervektor.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
76
Wir suchen nun einen optimalen Vektor v so, dass ∥d∥ minimal wird. Nach unseren Vorbereitungen kann man dieses Problem als eine orthogonale Projektion des Vektors c ∈ R5
auf einen Unterraum U auffassen:
d = c − projU c,
projU c ∈ U.
projU c = Av,
Der Vektor Av muss im Unterraum U liegen. Der Unterraum wird durch die Spaltenvektoren der Matrix A aufgespannt. Das sieht man folgendermassen ein. Sei allgemein A eine
m × n Matrix und v ∈ Rn :

 

a11 . . . a1n
v1
 ..


.
..  , v =  ... 
A= .
.
vn
am1 . . . amn
Dann folgt






a11 x1 + . . . + a1n xn
a11
a1n


 . 
 . 
..
Av = 
 = v1  ..  + . . . + vn  ..  = v1 a1 + . . . vn an ,
.
am1 x1 + . . . + amn xn
am1
amn
mit a1 , . . . , an als Spaltenvektoren der Matrix A. Somit folgt
Av = v1 a1 + . . . xn an
und Av ∈ U = Lin(a1 , . . . , an ).
Der Vektor c wird also auf den Unterraum U = Lin(a1 , . . . , an ) projiziert. Mit projU c
hat man die ”beste” Lösung, denn der Fehlervektor d hat dann minimale Länge und steht
orthogonal auf dem Unterraum U . Für die beste Lösung für v gilt
Av = projU c.
Falls die Spaltenvektoren a1 , . . . , an der Matrix A orthonormal resp. orthogonal, dann kann
man projU v mit Satz 3.9 berechnen:
projU c =
n
∑
⟨c, ak ⟩ak ,
k=1
resp.
projU c =
n
∑
⟨c, ak ⟩
k=1
∥ak ∥2
ak .
Weil diese Bedingungen an die Spaltenvektoren der Matrix A selten erfüllt sind, geben wir
eine andere Lösung an. Der Vektor d ist für die beste Lösung orthogonal zum Unterraum
U , d.h. orthogonal zu allen Spaltenvektoren a1 , . . . , an der Matrix A. Für i = 1, . . . , n gilt
demzufolge:
0 = ⟨d, ai ⟩ = ⟨c − Av, ai ⟩ = ⟨c −
n
∑
k=1
xk ak , ai ⟩ = ⟨c, ai ⟩ −
n
∑
xk ⟨ak , ai ⟩.
k=1
(
)T
Für den Vektor x = x1 . . . xn erhalten wir ein lineares Gleichungssystem
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
⟨a1 , a1 ⟩x1 + . . . + ⟨a1 , an ⟩xn = ⟨a1 , c⟩
..
.
.
= ..
77

  
⟨a1 , c⟩
⟨a1 , a1 ⟩ . . . ⟨a1 , an ⟩
x1
 ..
  ..   .. 
..
 .
 .  =  . .
.
⟨an , c⟩
⟨an , a1 ⟩ . . . ⟨an , an ⟩
xn

⇔
⟨an , a1 ⟩x1 + . . . + ⟨an , an ⟩xn = ⟨an , c⟩
Weil wir den euklidischen Vektorraum Rn haben, ist das Skalarprodukt
⟨x, y⟩ = xT · y.
Somit

   T 
aT1 · a1 . . . aT1 · an
x1
a1 · c
 ..
..   ..  =  .. 
 .
.  .   . 
aTn · a1 . . . aTn · an
xn
aTn · c
⇔
AT Ax = AT c.
Wir fassen zusammen. Wir gehen von einem linearen Gleichungssystem Ax = c aus, welches
z.B. durch kleine Messfehler die Lösbarkeit verliert. Man nennt ein solches Gleichungssystem inkonsistent. In diesem Fall beschränkt man sich darauf, eine Näherungslösung x zu
finden, für die die euklidische Norm des Fehlervektors d = c − Ax möglichst klein ist. Das
oben genannte Konzept wird auch als Methode der kleinsten Quadrate bezeichnet.
Satz 3.11
Liegt ein inkonsistentes lineares Gleichungssystem Ax = c vor, so löst man mit der
Methode der kleinsten Quadrate das konsistente lineare Gleichungssystem
AT Ax = AT c.
Seine Lösungen sind Näherungslösungen des gegebenen inkonsistenten Systems. Ausserdem gilt für diese Lösungen
Ax = projU c,
wobei der Unterraum U = Lin(a1 , . . . , an ) ist, mit den Spaltenvektoren von A =
(a1 , . . . , an ).
Wir lösen nun unser ursprüngliches Problem, welches inkonsistent ist:
x = 35
x + y = 67
Ax = c
⇔
x + y + z = 89
y + z = 53
z = 20
ZHAW
⇔

1
1

1

0
0
0
1
1
1
0
 

35
0  
67
x
0
 

y  = 89 .
1
 

53
1 z
20
1
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
78
Das konsistente lineare Gleichungssystem ist

  

3 2 1
x
191
AT Ax = AT c ⇔ 2 3 2 y  = 209 .
1 2 3
z
162
Lösen wir dieses lineare Gleichungssystem
x
3
2
1
y
2
3
2
z
1 191
2 209
3 162
rref
−→
x
1
0
0
y
0
1
0
z
0 35.125
0 32.5
1 20.625
dann ist die ausgeglichene Lösung
x = 35.125,
y = 32.5,
z = 20.625.
Beispiel 3.12
Ein Fahrzeug wird mit der Geschwindigkeit v durch Vollbremsung auf den Stillstand abgebremst. Für den Bremsweg s soll folgende Modellfunktion gewählt werden:
s = f (a, b, c, v) = av 2 + bv + c.
Die Koeffizienten a, b, c sind über Messungen zu berechnen. Eine Messserie ist in der
folgenden Tabelle dargestellt.
v [m/s]
s [m]
Somit
9
3
17
5
20
9
25
14
35
23
d1 = s1 − f (av12 + bv1 + c) = 3 − (81a + 9b + c)
d2 = s2 − f (av22 + bv2 + c) = 5 − (289a + 17b + c)
d3 = s3 − f (av32 + bv3 + c) = 9 − (400a + 20b + c)
d4 = s4 − f (av42 + bv4 + c) = 14 − (625a + 25b + c)
d5 = s5 − f (av52 + bv5 + c) = 23 − (1225a + 35b + c)
In Matrixform
    
81
3
d1
d2   5   289
    
d3  =  9  −  400
    
d4  14  625
1225
23
d5
9
17
20
25
35

1  
1
 a
 
1
 b

c
1
1
⇔
d = c − Ax.
Dies ist ein inkonsistentes lineares Gleichungssystem. Nach Satz 3.11 bilden wir

  

42213
a
2141332 72142 2620
2620 106   b  =  1447  .
AT Ax = AT c ⇔  72142
54
c
2620
106
5
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
79
Die Auflösen des konsistenten Gleichungssystem liefert
a
b
c
2141332 72142 2620 72142
72142
2620 106 2620
2620
106
562
106
a
1
0
0
rref
−→
b
0
1
0
c
0 0.0157
0 0.1121
1 0.2020
a = 0.0157 s2 /m, b = 0.1121 s, c = 0.2020 m. Die Modellfunktion ist
s = 0.0157v 2 + 0.1121v + 0.2020
und ist in der untenstehenden Abbildung skizziert.
y
P5
bC
20
P4
15
bC
P3
10
bC
P2
5
bC
P1
bC
x
0
5
10
15
20
25
30
35
Die ausgeglichene Modellfunktion s = 0.0157v 2 + 0.1121v + 0.2020
0
Ausgleichen einer Geraden
Zwei Grössen x und y sollen linear voneinander abhängen, die Modellfunktion ist also
eine lineare Funktion: y = f (x) = mx + c. Die zwei Parameter m und c sind nicht bekannt
und sollen mit Hilfe verschiedener Punkte Pk (xk /yk ), k = 1, . . . , n bestimmt werden. Dabei
liegen die Punkte wegen Messungenauigkeiten nicht auf der Geraden mit der Funktion
y = mx + c. Vielmehr streuen sie um die Gerade herum. Geometrisch sieht dann das
Problem so aus:
y
Pk (xk /yk )
y = f (x) = mx + c
bC
bC
bC
x1
ZHAW
bC
dk
bC
bC
xk
xn
x
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
80
Wir müssen also die ”beste” Gerade durch die gegebenen Punkte Pk (xk , yk ), k = 1, . . . , n
legen. Diese wird mit der Methode der kleinsten Fehlerquadrate gefunden. Setzt man den
Wert xk in f (x) = mx + c ein, dann hat man eine Differenz zum gemessenen Wert yk :
dk = yk − f (xk ) = yk − mxk − c,
k = 1, . . . , n.
Also
   
x1
y1
d1
 ..   ..   ..
 . = . − .

d1 = y1 − mx1 − c
..
.
⇔
yn
dn
dn = yn − mxn − c
xn

1 ( )
..  m
. c
1
⇔
d = c − Ax
Wir erhalten ein inkonsistentes lineares Gleichungssystem Ax = c, welches wir mit Hilfe
von Satz 3.11 wie folgt lösen.
AT Ax = AT c.
Beispiel 3.13
Gegeben sind die Punkte P1 (1/1), P2 (2/1.5), P3 (3.5/2), P4 (4.5/2), P5 (5/2.5), P6 (6/3).
Gesucht ist eine Gerade durch diese Punkte mittels Ausgleichsrechnung.
Aufgabe: In der untenstehenden Abbildung sind die gegebenen Punkte eingezeichnet. Lege
zuerst von ”Hand” eine ”gute” Gerade g : y = mx + c durch die Punkte und bestimme
durch Messung die Koeffizienten m und c dieser Geraden.
P6
y
bC
P5
bC
P3
2
P4
bC
bC
P2
bC
1
P1
bC
x
1
2
3
4
5
6
Aufgabe: Finde die ”beste” Gerade
Lösung:
m = . . .,
c = ...
Lösung mit Ausgleichsrechnung: AT Ax = AT c.
 


1
1 1
1.5
 2 1
 


( )
 
3.5 1
, c =  2 , x = m .
A=
2
4.5 1
c
 


2.5
 5 1
3
6 1
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
81
Das konsistente Gleichungssystem ist
(
T
T
A Ax = A c
⇔
98.5 22
22
6
)( ) (
)
m
50.5
=
c
12
Lösen wir dieses lineare Gleichungssystem
m
c
98.5 22 50.5
22
6
12
rref
−→
m c
1 0 0.3645
0 1 0.6636
dann ist die ausgeglichene Lösung
m = 0.3645,
3.8
c = 0.6636.
Orthogonale und unitäre lineare Abbildungen
Im Folgenden untersuchen wir lineare Abbildungen, welche das Skalarprodukt invariant
lassen.
Definition 3.13
Sei V ein euklidischer oder unitärer Vektorraum V . Die lineare Abbildung f : V −→ V
heisst orthogonal, falls für alle u, v ∈ V gilt:
⟨f (u), f (v)⟩ = ⟨u, v⟩.
Die lineare Abbildung f : V −→ V heisst längentreu, falls für alle v ∈ V gilt:
∥f (v)∥ = ∥v∥.
Satz 3.12
Sei V ein euklidischer oder unitärer Vektorraum V . Sei f : V −→ V eine lineare
Abbildung. Die Abbildung f ist genau dann orthogonal, wenn sie längentreu ist. Das
heisst, für alle u, v ∈ V gilt:
⟨f (u), f (v)⟩ = ⟨u, v⟩
⇔
∥f (v)∥ = ∥v∥.
Beweis
1) Es gelte für alle u, v ∈ V : ⟨f (u), f (v)⟩ = ⟨u, v⟩. Somit gilt auch ⟨f (v), f (v)⟩ = ⟨v, v⟩.
Dies ist äquivalent zu ∥f (v)∥2 = ∥v∥2 . Also folgt ∥f (v)∥ = ∥v∥.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
82
2) Umgekehrt gelte für alle v ∈ V die Beziehung ∥f (v)∥ = ∥v∥. Sei λ ∈ C und u ein
beliebiger Vektor aus V , dann folgt mit der Voraussetzung:
∥f (u + λv)∥ = ∥u + λv∥
⇔
∥f (u + λv)∥2 = ∥u + λv∥2 .
Weil f linear ist, folgt für die linke Seite dieser Gleichung
∥f (u + λv)∥2 = ⟨f (u) + λf (v), f (u) + λf (v)⟩
= ⟨f (u), f (u) + λf (v)⟩ + λ⟨f (v), f (u) + λf (v)⟩
= ⟨f (u) + λf (v), f (u)⟩ + λ⟨f (u) + λf (v), f (v)⟩
= ⟨f (u), f (u)⟩ + λ ⟨f (v), f (u)⟩ + λ[⟨f (u), f (v)⟩ + λ ⟨f (v), f (v)⟩]
= ⟨f (u), f (u)⟩ + λ⟨f (u), f (v)⟩ + λ⟨f (u), f (v)⟩ + λλ⟨f (v), f (v)⟩
= ⟨u, u⟩ + λ⟨f (u), f (v)⟩ + λ⟨f (u), f (v)⟩ + λλ⟨v, v⟩.
Für die rechte Seite der Gleichung gilt:
∥u + λv∥2 = ⟨u + λv, u + λv⟩
= ⟨u, u + λv⟩ + λ⟨v, u + λv⟩
= ⟨u + λv, u⟩ + λ⟨u + λv, v⟩
= ⟨u, u⟩ + λ ⟨v, u⟩ + λ[⟨u, v⟩ + λ ⟨v, v⟩]
= ⟨u, u⟩ + λ⟨u, v⟩ + λ⟨u, v⟩ + λλ⟨v, v⟩.
Somit folgt
λ⟨f (u), f (v)⟩ + λ⟨f (u), f (v)⟩ = λ⟨u, v⟩ + λ⟨u, v⟩,
für alle λ ∈ C.
Wir werten diese Gleichung für λ = 1 und λ = −j aus und berücksichtigen, dass z + z =
2Re(z) und z − z = 2Im(z)j ist. Also
λ=1:
⟨f (u), f (v)⟩ + ⟨f (u), f (v)⟩ = ⟨u, v⟩ + ⟨u, v⟩
2Re(⟨f (u), f (v)⟩) = 2Re(⟨u, v⟩)
Re(⟨f (u), f (v)⟩) = Re(⟨u, v⟩)
und
λ = −j :
j⟨f (u), f (v)⟩ − j⟨f (u), f (v)⟩ = j⟨u, v⟩ − j⟨u, v⟩
⟨f (u), f (v)⟩ − ⟨f (u), f (v)⟩ = ⟨u, v⟩ − ⟨u, v⟩
2Im(⟨f (u), f (v)⟩)j = 2Im(⟨u, v⟩)j
Im(⟨f (u), f (v)⟩) = Im(⟨u, v⟩)
Somit schliessen wir
ZHAW
⟨f (u), f (v)⟩ = ⟨u, v⟩.
□
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
83
Beispiel 3.14
Sei V ein euklidischer Vektorraum mit einer Orthonormalbasis B = {e1 , . . . , en }. Die Koordinatenabbildung
 
v1
n
∑
 .. 
n
v k ek ,
k : V −→ R , k(v) = vB =  .  , mit v =
k=1
vn
welche bijektiv ist, ist eine orthogonale Abbildung.
Zur Erinnerung:
Ist die Basis des Vektorraums V orthonormal, so ist nach Satz 3.3 das Skalarprodukt von
zwei Vektoren u und v aus V das Skalarprodukt der Koordinatenvektoren k(u) und k(v):
⟨u, v⟩ = ⟨k(u), k(v)⟩ =
n
∑
u k vk .
k=1
∑n
Wir beweisen diese Tatsache nochmals. Seien u = k=1 uk ek und v =
folgt
 
 
u1
v1
 .. 
 .. 
k(u) =  .  und k(v) =  .  .
un
vn
∑n
k=1 vk ek ,
dann
Somit
n
n
n
n
∑
∑
∑
∑
⟨u, v⟩ = ⟨
ui ei ,
vj ej ⟩ =
ui vj ⟨ei , ej ⟩ =
uk vk = ⟨k(u), k(v)⟩.
i=1
j=1
i,j=1
k=1
Die Koordinatenabbildung k ist somit orthogonal und nach Satz 3.12 auch längentreu.
Beispiel 3.15
Sei V ein euklidischer Vektorraum mit einer Orthonormalbasis B = {e1 , e2 , e3 }. Die lineare
Abbildung
f : V −→ V, f (v) = k −1 (A · k(v))
 √

2√2 1 −3
1 
ist mit der Matrix A = 3√
2 √2 1 3  definiert. Wir zeigen, dass die lineare Abbil2
− 2 4 0
dung f orthogonal ist.
Für einen Vektor x ∈ V gilt
k(f (x)) = A · k(x).
Weil die Koordinatenabbildung k : V −→ R3 orthogonal ist, gilt für zwei Vektoren u, v
aus V :
⟨f (u), f (v)⟩ = ⟨k(f (u)), k(f (v))⟩ = ⟨A · k(u), A · k(v)⟩
= (A · k(u))T · A · k(v)
= (k(u))T · AT · A · k(v).
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
84
Für das Produkt AT · A gilt:
√
√   √
 √
 

2√2 1 −3
1 0 0
2 2 2 2 − 2
1 
AT · A =
1
1
4  ·  2 √2 1 3  = 0 1 0
18
0 0 1
−3
3
0
− 2 4 0
Somit folgt
⟨f (u), f (v)⟩ = (k(u))T · AT · A · k(v)
= (k(u))T · I · k(v)
= (k(u))T · k(v) = ⟨k(u), k(v)⟩
= ⟨u, v⟩.
Also ist die lineare Abbildung f orthogonal.
Definition 3.14
Eine n × n Matrix A heisst orthogonal, falls gilt
AT A = AAT = I.
Die wichtigsten Eigenschaften orthogonaler Abbildungen sind im nächsten Satz zusammengefasst.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
85
Satz 3.13
Sei B = {e1 , . . . , en } eine Orthonormalbasis des endlich-dimensionalen euklidischen
Vektorraums V . Die lineare Abbildung
f : V −→ V,
f (v) = k −1 (A · k(v))
sei mit einer n × n Matrix A gegeben. Dann sind folgende Aussagen äquivalent:
a) f ist orthogonal.
b) f ist längentreu.
c) Die Spaltenvektoren a1 , . . . , an von A = (a1 , . . . , an ) bilden eine orthonormale Basis
in Rn .
d) Die Matrix A ist orthogonal.
Beweis
Nach Satz 3.12 sind die Aussagen a) und b) gleichwertig.
Zu zeigen: b) ⇒ c).
Sei f längentreu, dann ist f auch orthogonal. Die Koordinatenabbildung k : V −→ Rn ist
orthogonal, also ist die Verkettung k ◦ f : V −→ Rn ebenfalls orthogonal. Seien a1 , . . . , an
die Spaltenvektoren der Matrix A. Wir wissen, dass die Spaltenvektoren der Matrix A die
Koordinatenvektoren der Bildvektoren der Basisvektoren sind, also:
ak = k(f (ek )) = k ◦ f (ek ),
k = 1, . . . , n.
Wir schliessen:
{
⟨ai , aj ⟩ = ⟨k ◦ f (ei ), k ◦ f (ej )⟩ = ⟨ei , ej ⟩ =
0, i ̸= j
1, i = j
Somit sind die Spaltenvektoren a1 , . . . , an der Matrix A orthogonal. Mit Satz 3.5 wissen
wir, dass jedes Orthogonalsystem von Vektoren linear unabhängig sind, somit sind die
Spaltenvektoren a1 , . . . , an der Matrix A linear unabhängig und sie spannen den Rn auf.
Sie bilden also eine orthonormale Basis für den Rn .
Zu zeigen: c) ⇒ d).
Die Spaltenvektoren a1 , . . . , an der Matrix A bilden eine orthonormale Basis in Rn , d.h.
{
0 i ̸= j
⟨ai , aj ⟩ =
1 i = j.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
86
Mit ⟨ai , aj ⟩ = aTi · aj , i, j = 1, . . . , n folgt
AT · A = I,
d.h. A ist eine orthogonale Matrix.
Zu zeigen: d) ⇒ a).
Es gelte AT · A = I, somit für die Spaltenvektoren ai der Matrix A
{
{
0
i
=
̸
j
0 i ̸= j
aTi · aj =
⇔ ⟨ai , aj ⟩ = ⟨k(f (ei )), k(f (ej ))⟩ =
1 i=j
1 i=j
Mit der Eigenschaft, dass die Koordinatenabbildung k orthogonal ist, folgt
{
0 i ̸= j
⟨f (ei ), f (ej )⟩ =
1 i = j.
Seien u =
∑n
k=1 uk ek
und v =
∑n
k=1 vk ek
Vektoren aus V , dann folgt
n
n
∑
∑
⟨f (u), f (v)⟩ = ⟨
ui f (ei ),
vj f (ej )⟩
=
i=1
n
∑
j=1
ui vj ⟨f (ei ), f (ej )⟩ =
i,j=1
n
∑
uk vk = ⟨k(u), k(v)⟩ = ⟨u, v⟩.
k=1
□
Somit ist f orthogonal.
Satz 3.14
Sei V ein euklidischer Vektorraum. Die lineare Abbildung f : V −→ V sei orthogonal.
Dann ist sie auch winkeltreu, d.h. der Zwischenwinkel der Vektoren u und v aus V
ist gleich dem Zwischenwinkel der Bildvektoren f (u) und f (v). Also:
cos(φ) =
⟨u, v⟩
⟨f (u), f (v)⟩
=
.
∥u∥ · ∥v∥
∥f (u)∥ · ∥f (v)∥
Beweis
Aus Satz 3.13 wissen wir, dass wenn f orthogonal ist, dann ist f auch längentreu, somit
gilt
⟨f (u), f (v)⟩
⟨u, v⟩
cos(φ) =
=
.
∥f (u)∥ · ∥f (v)∥
∥u∥ · ∥v∥
□
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
87
Beispiel 3.16
Sei V ein drei-dimensionaler euklidischer Vektorraum mit einer orthonormalen Basis B =
{e1 , e2 , e3 } und f : V −→ Veine lineareAbbildung. Bezüglich der Basis B sei der
3 2 6
Abbildung f die Matrix A = 17 −6 3 2  zugeordnet. Wie man durch Nachrechnen
2 6 −3
T
sieht, gilt A A = I. Die Matrix A ist somit orthogonal. Nach Satz 3.13 und 3.14 ist die
Abbildung f orthogonal, längentreu und winkeltreu. Wir wollen dies anhand der Vektoren
u und v aus V überprüfen, welche folgende Koordinatenvektoren haben:
 
 
−3
2
k(u) = 2 , k(v) = √1  .
1
6
Der Zusammenhang zwischen linearer Abbildung f und Matrix A ist mit folgendem kommutativen Diagramm gegeben:
f
x∈ V
V ∋ y = f (x)
k
k
x B ∈ Rn
A
Rn ∋ yB = A · yB
Kommutativ heisst in diesem Diagramm
A · k(x) = k(f (x)).
Wir schliessen


16
k(f (u)) = A · k(u) = 71 −4 ,
13
√ 

−7 + 6√ 6
k(f (v)) = A · k(v) = 17  21 +√
2 6.
−3 6
Wir wissen, dass k eine orthogonale Abbildung ist. Damit folgt
√
√
√
√
1
(−112 + 96 6 − 84 − 8 6 − 39 6) = −4 + 6.
⟨f (u), f (v)⟩ = ⟨k(f (u)), k(f (v))⟩ = 49
Andererseits ist
⟨u, v⟩ = ⟨k(u), k(v)⟩ = −6 + 2 +
√
√
6 = −4 + 6.
Somit ⟨u, v⟩ = ⟨f (u), f (v)⟩, d.h. f ist orthogonal.
Die Längentreue sieht man wie folgt ein.
√
√
√
∥f (u)∥ = ⟨f (u), f (u)⟩ = ⟨k(f (u)), k(f (u))⟩ = 71 256 + 16 + 169 = 3,
und
∥u∥ =
√
⟨u, u⟩ =
√
⟨k(u), k(u)⟩ = 3.
Also ist ∥f (u)∥ = ∥u∥. Die Winkeltreue folgt sofort aus der Orthogonalität von f und der
Längentreue.
ZHAW
bodr, 28. April 2014 LA2Manuskript.tex
KAPITEL 3. VEKTORRÄUME MIT SKALARPRODUKT
Beispiel 3.17
Die Drehmatrix im R2
88
(
)
cos(φ) − sin(φ)
D=
sin(φ) cos(φ)
und die Drehmatrizen im R3


1
0
0
Dx,φ = 0 cos(φ) − sin(φ) ,
0 sin(φ) cos(φ)


cos(φ) − sin(φ) 0
Dz,φ =  sin(φ) cos(φ) 0 .
0
0
1

Dy,φ

cos(φ) 0 sin(φ)
0
1
0 ,
=
− sin(φ) 0 cos(φ)
sind orthogonale Matrizen. Denn
(
)(
) (
)
cos(φ) sin(φ)
cos(φ) − sin(φ)
1 0
=
,
− sin(φ) cos(φ)
sin(φ) cos(φ)
0 1


 

1
0
0
1
0
0
1 0 0
= 0 cos(φ) sin(φ)  0 cos(φ) − sin(φ) = 0 1 0 .
0 − sin(φ) cos(φ)
0 sin(φ) cos(φ)
0 0 1
DT · D =
T
Dx,φ
· Dx,φ
Analog für Dy,φ und Dz,φ .
Orthogonale Matrizen haben folgende Eigenschaften.
Satz 3.15
a) Die Inverse einer orthogonalen Matrix ist orthogonal.
b) Das Produkt orthogonaler Matrizen ist orthogonal.
c) Für eine orthogonale Matrix A gilt det(A) = ±1.
Beweis
Seien A und B orthogonale Matrizen.
a) Aus AT · A = I folgt A−1 = AT . Also
(A−1 )T · A−1 = (AT )T · A−1 = A · A−1 = I.
Also ist A−1 eine orthogonale Matrix.
b) Aus AT · A = I und B T · B = I folgt
(A · B)T · (A · B) = B T · AT · A · B = I.
c) Aus AT · A = I folgt
1 = det(I) = det(AT · A) = det(AT ) · det(A) = det2 (A).
Somit det(A) = ±1.
ZHAW
□
bodr, 28. April 2014 LA2Manuskript.tex
Herunterladen