Unterräume Lineare Abbbildungen Gauß

Werbung
12 Lineare Algebra - Übersicht
Themen:
◮
Unterräume
◮
Lineare Abbbildungen
◮
Gauß-Algorithmus
◮
Eigenwerte und Normalformen
Unterräume
K
Sei X ein Vektorraum über . Eine Teilmenge M ⊂ X heißt
Unterraum von X , wenn sie bezüglich der algebraischen
Operationen Addition und Skalarmultiplikation abgeschlossen ist,
wenn also
x, y ∈ M ⇒ αx + βy ∈ M
∀α, β ∈
K.
Unterräume
K
Sei X ein Vektorraum über . Eine Teilmenge M ⊂ X heißt
Unterraum von X , wenn sie bezüglich der algebraischen
Operationen Addition und Skalarmultiplikation abgeschlossen ist,
wenn also
x, y ∈ M ⇒ αx + βy ∈ M
∀α, β ∈
K.
Ein Unterraum ist damit selber ein Vektorraum, weil er die
Rechenregeln vom zu Grunde liegenden Vektorraum erbt.
Beispiele für Unterräume
Sind x1 , . . . , xk ∈ X , so heißt
©
U = span {x1 , . . . , xk } = z = α1 x1 +. . .+αk xk : α1 , . . . , αk ∈
der von x1 , . . . , xk aufgespannte Unterraum.
Kª
Beispiele für Unterräume
Sind x1 , . . . , xk ∈ X , so heißt
©
U = span {x1 , . . . , xk } = z = α1 x1 +. . .+αk xk : α1 , . . . , αk ∈
der von x1 , . . . , xk aufgespannte Unterraum.
Aufgabe: Man zeige, dass U tatsächlich ein Unterraum ist.
Kª
Beispiele für Unterräume
Sind x1 , . . . , xk ∈ X , so heißt
©
U = span {x1 , . . . , xk } = z = α1 x1 +. . .+αk xk : α1 , . . . , αk ∈
der von x1 , . . . , xk aufgespannte Unterraum.
Kª
Aufgabe: Man zeige, dass U tatsächlich ein Unterraum ist.
Für k = 1 und x1 6= 0 ist U die Gerade durch den Nullpunkt mit
Richtung x1 .
Linare Abbildungen
Seien X , Y Vektorräume über dem Körper
f : X → Y heißt linear, wenn
K. Eine Abbildung
f (αx + βy ) = αf (x) + βf (y ) ∀α, β ∈
K ∀x, y ∈ X .
Linare Abbildungen
Seien X , Y Vektorräume über dem Körper
f : X → Y heißt linear, wenn
K. Eine Abbildung
f (αx + βy ) = αf (x) + βf (y ) ∀α, β ∈
K ∀x, y ∈ X .
Sind x1 , . . . , xk Vektoren in X , so ist f durch die Werte
f (x1 ), . . . , f (xk ) eindeutig auf dem von x1 , . . . , xk aufgespannten
Unterraum festgelegt.
Beweis
Mit einem Induktionsschluss folgt nämlich aus der Bedingung der
Linearität, dass
f (α1 x1 + . . . + αk xk ) = α1 f (x1 ) + . . . + αk f (xk ).
Beweis
Mit einem Induktionsschluss folgt nämlich aus der Bedingung der
Linearität, dass
f (α1 x1 + . . . + αk xk ) = α1 f (x1 ) + . . . + αk f (xk ).
Insbesondere: Ist x1 , . . . , xn eine Basis des Vektorraums, so ist die
lineare Abbildung f auf ganz X durch die Werte f (x1 ), . . . , f (xn )
festgelegt.
Matrixdarstellung einer linearen Abbildung
K
K
K
Sei f : n → m linear. Wir nehmen die kanonische Basis
e1 , . . . , en von n und entwickeln die Werte f (ei ) nach der
′ von
m
kanonischen Basis e1′ , . . . , em
K
f (ej ) =
m
X
i=1
aij ei′ .
Matrixdarstellung einer linearen Abbildung
K
K
K
Sei f : n → m linear. Wir nehmen die kanonische Basis
e1 , . . . , en von n und entwickeln die Werte f (ei ) nach der
′ von
m
kanonischen Basis e1′ , . . . , em
K
f (ej ) =
m
X
aij ei′ .
i=1
Die aij stellen wir als Matrix zusammen


a11 . . . a1n

..  = (a )
A =  ...
ij i=1,...,m,
. 
am1 . . . amn
j=1,...,n
∈
Km×n .
Matrixdarstellung einer linearen Abbildung
Für
x = (x1 , . . . , xn )T =
n
X
xj ej
j=1
folgt
f (x) = f
n
³X
xj ej =
j=1
=
m
n X
X
j=1
´
n
X
xj f (ej )
j=1
aij xj
ei = Ax.
|{z}
i=1
Zeile×Spalte
Matrix-Multiplikation
Um f (x) = Ax zu bekommen, wird die Multiplikation
Matrix × Vektor so definiert, wie sie definiert ist.
Matrix-Multiplikation
Um f (x) = Ax zu bekommen, wird die Multiplikation
Matrix × Vektor so definiert, wie sie definiert ist.
Gleiches gilt für die Multiplikation zweier Matrizen: Sie soll die
Komposition zweier linearer Abbildungen darstellen.
Matrix-Multiplikation
Um f (x) = Ax zu bekommen, wird die Multiplikation
Matrix × Vektor so definiert, wie sie definiert ist.
Gleiches gilt für die Multiplikation zweier Matrizen: Sie soll die
Komposition zweier linearer Abbildungen darstellen.
K
K
K
K
K
Seien f : m → l und g : n → m mit Matrixdarstellungen
A ∈ l×m von f und B ∈ m×n von g , also
X
X
f (y ) =
aij yj ei′′ , g (x) =
bkl xl ek′ ,
K
ij
mit {ei′′ }=Basis von
kl
Kl , {ei′}=Basis von Km .
Matrix-Multiplikation
Damit gilt
f (g (x)) = f
³X
kl
=
X
kli
´ X
X
bkl xl ek′ =
bkl xl f (ek′ ) =
bkl xl aik ei′′
kl
xl ei′′ = ABx.
a b
|ik{z kl}
Zeile×Spalte
kli
Folgerungen
Das Hintereinanderschalten von allgemeinen Abbildungen ist
assoziativ. Insbesondere gilt das für lineare Abbildungen. Daher ist
auch das Matrizenprodukt assoziativ
(AB)C = A(BC ).
Folgerungen
Das Hintereinanderschalten von allgemeinen Abbildungen ist
assoziativ. Insbesondere gilt das für lineare Abbildungen. Daher ist
auch das Matrizenprodukt assoziativ
(AB)C = A(BC ).
K
Jede lineare Abbildung f : n →
ihre Matrix A ∈ m×n . Daher
K
dim{f :
Km ist eindeutig bestimmt durch
Kn → Km linear} = dim Km×n = mn.
Kern und Bildraum einer linearen Abbildung
Seien X , Y Vektorräume über dem Körper
f : X → Y sei linear.
K und die Abbildung
Der Kern oder Nullraum von f ist
Kern f = {x ∈ X : f (x) = 0} ⊂ X .
Wegen f (0) = 0 ist der Kern nichtleer.
Kern und Bildraum einer linearen Abbildung
Seien X , Y Vektorräume über dem Körper
f : X → Y sei linear.
K und die Abbildung
Der Kern oder Nullraum von f ist
Kern f = {x ∈ X : f (x) = 0} ⊂ X .
Wegen f (0) = 0 ist der Kern nichtleer. Der Bildraum von f ist
f (X ) = {y = f (x) : x ∈ X } ⊂ Y .
Kern und Bildraum einer linearen Abbildung
Seien X , Y Vektorräume über dem Körper
f : X → Y sei linear.
K und die Abbildung
Der Kern oder Nullraum von f ist
Kern f = {x ∈ X : f (x) = 0} ⊂ X .
Wegen f (0) = 0 ist der Kern nichtleer. Der Bildraum von f ist
f (X ) = {y = f (x) : x ∈ X } ⊂ Y .
Satz Kern f ist Unterraum von X und f (X ) ist Unterraum von Y .
Beweis
Sind x, x ′ ∈ Kern f , so
f (αx + βx ′ ) = αf (x) + βf (x ′ ) = 0,
also αx + βx ′ ∈ Kern f .
Beweis
Sind x, x ′ ∈ Kern f , so
f (αx + βx ′ ) = αf (x) + βf (x ′ ) = 0,
also αx + βx ′ ∈ Kern f .
Sind y , y ′ ∈ f (X ), so gibt es x, x ′ ∈ X mit f (x) = y und
f (x ′ ) = y ′ . Daher
αy + βy ′ = αf (x) + βf (x ′ ) = f (αx + βx ′ ) ∈ f (X ).
Die Rangformel
Ist X endlich dimensional und f : X → Y linear, so definieren wir
den Rang rang (f ) und den Defekt defekt f von f durch
rang f = dim f (X ),
defekt f = dim Kern f .
Die Rangformel
Ist X endlich dimensional und f : X → Y linear, so definieren wir
den Rang rang (f ) und den Defekt defekt f von f durch
rang f = dim f (X ),
defekt f = dim Kern f .
Klar, rang f , defekt f ≤ dim X .
Satz (Rangformel) Es gilt
defekt f + rang f = dim X .
Beweis der Rangformel
Sei dim X = n. Sei x1 , . . . , xk eine Basis von Kern f . Diese können
wir dann durch xk+1 , . . . , xn zu einer Basis von X ergänzen. Es gilt
f (X ) = span {f (x1 ), . . . , f (xn )} = span {f (xk+1 ), . . . , f (xn )}
Beweis der Rangformel
Sei dim X = n. Sei x1 , . . . , xk eine Basis von Kern f . Diese können
wir dann durch xk+1 , . . . , xn zu einer Basis von X ergänzen. Es gilt
f (X ) = span {f (x1 ), . . . , f (xn )} = span {f (xk+1 ), . . . , f (xn )}
Wären die Vektoren f (xk+1 ), . . . , f (xn ) linear abhängig, so
αk+1 f (xk+1 ) + . . . + αn f (xn ) = 0, und damit
αk+1 xk+1 + . . . + αn xn ∈ Kern f .
Beweis der Rangformel
Sei dim X = n. Sei x1 , . . . , xk eine Basis von Kern f . Diese können
wir dann durch xk+1 , . . . , xn zu einer Basis von X ergänzen. Es gilt
f (X ) = span {f (x1 ), . . . , f (xn )} = span {f (xk+1 ), . . . , f (xn )}
Wären die Vektoren f (xk+1 ), . . . , f (xn ) linear abhängig, so
αk+1 f (xk+1 ) + . . . + αn f (xn ) = 0, und damit
αk+1 xk+1 + . . . + αn xn ∈ Kern f .
Dies widerspricht der Konstruktion der xi , denn ein nichttriviales
Element des Kerns darf sich nicht als Linearkombination der
xk+1 , . . . , xn darstellen lassen. Daher rang f = dim f (X ) = n − k.
Lineare Gleichungssystem und Abbildungen
Sei A ∈
Km×n und b ∈ Km . Das lineare Gleichungssystem
Ax = b
können wir auch mit der zugehörigen linearen Abbildung
f : n → m , f (x) = Ax deuten.
K
K
Lineare Gleichungssystem und Abbildungen
Sei A ∈
Km×n und b ∈ Km . Das lineare Gleichungssystem
Ax = b
können wir auch mit der zugehörigen linearen Abbildung
f : n → m , f (x) = Ax deuten.
K
K
Seien a1 , . . . , an die Spaltenvektoren von A, A = (a1 | . . . |an ). Dann
Ax = b ⇔
n
X
j=1
mit x = (x1 , . . . , xn )T .
xj aj = b ⇔ f (x) = b
Lineare Gleichungssystem und Abbildungen
Das Gleichungssystem Ax = b ist daher genau dann lösbar, wenn
b ∈ f ( n ).
K
Lineare Gleichungssystem und Abbildungen
Das Gleichungssystem Ax = b ist daher genau dann lösbar, wenn
b ∈ f ( n ).
K
Wir definieren den Spaltenrang rang A als die Anzahl der linear
unabhängigen Spaltenvektoren von A. Dieser stimmt mit dem Rang
der zugehörigen Abbildung f (x) = Ax überein.
Lineare Gleichungssystem und Abbildungen
Das lineare Gleichungssystem Ax = b ist daher genau dann für jede
rechte Seite b lösbar, wenn rang A = m.
Lineare Gleichungssystem und Abbildungen
Das lineare Gleichungssystem Ax = b ist daher genau dann für jede
rechte Seite b lösbar, wenn rang A = m.
Dazu ist natürlich n ≥ m erforderlich.
Lineare Gleichungssystem und Abbildungen
Das lineare Gleichungssystem Ax = b ist daher genau dann für jede
rechte Seite b lösbar, wenn rang A = m.
Dazu ist natürlich n ≥ m erforderlich.
Ist x eine Lösung von Ax = b so ist die Lösungsmenge der affine
Raum
x + Kern f .
In Matrixschreibweise ist Kern f = {y : Ay = 0}.
Lineare Gleichungssystem und Abbildungen
Das lineare Gleichungssystem Ax = b ist daher genau dann für jede
rechte Seite b lösbar, wenn rang A = m.
Dazu ist natürlich n ≥ m erforderlich.
Ist x eine Lösung von Ax = b so ist die Lösungsmenge der affine
Raum
x + Kern f .
In Matrixschreibweise ist Kern f = {y : Ay = 0}.
Nach der Rangformel ist
defekt f = dim Kern f = n − rang A.
Der Spezialfall m = n
Bei m = n gibt es folgende Möglichkeiten:
rang A = n : Das lineare Gleichungssystem Ax = b ist für alle b
eindeutig lösbar.
rang A < n : Das lineare Gleichungssystem Ax = b ist nicht für alle
b lösbar. Gibt es eine Lösung x, so ist die Lösungsmenge der affine
Raum x + Kern f mit dim Kern f = n − rang A.
Der Spezialfall m = n
Liegt der Fall rang A = n vor, so heißt die Matrix A regulär.
Der Spezialfall m = n
Liegt der Fall rang A = n vor, so heißt die Matrix A regulär.
Meine Lieblingsfrage in einer Prüfung: Nennen sie die 1000
äquivalenten Bedingungen zur Regularität von A.
Äquivalente Bedingungen für reguläres A im Fall m = n
◮
rang A = n
Äquivalente Bedingungen für reguläres A im Fall m = n
◮
rang A = n
◮
Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar.
Äquivalente Bedingungen für reguläres A im Fall m = n
◮
rang A = n
◮
Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar.
◮
Das Gleichungssystem Ax = b ist für alle b lösbar.
Äquivalente Bedingungen für reguläres A im Fall m = n
◮
rang A = n
◮
Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar.
◮
Das Gleichungssystem Ax = b ist für alle b lösbar.
◮
Das homogene Gleichungssystem Ax = 0 ist eindeutig lösbar
(durch x = 0).
Äquivalente Bedingungen für reguläres A im Fall m = n
◮
rang A = n
◮
Das Gleichungssystem Ax = b ist für alle b eindeutig lösbar.
◮
Das Gleichungssystem Ax = b ist für alle b lösbar.
◮
Das homogene Gleichungssystem Ax = 0 ist eindeutig lösbar
(durch x = 0).
◮
det A 6= 0
Die Inverse von regulären Matrizen
Ist die n × n-Matrix regulär, so können wir für jedes b das
Gleichungssystem Ax = b lösen.
Die Inverse von regulären Matrizen
Ist die n × n-Matrix regulär, so können wir für jedes b das
Gleichungssystem Ax = b lösen.
Insbesondere sind Axi = ei eindeutig lösbar, e1 , . . . , en sind die
kanonischen Einheitsvektoren.
Die Inverse von regulären Matrizen
Wir stellen die Lösungen von Axi = ei als Spaltenvektoren einer
Matrix zusammen:
A−1 = (x1 | . . . |xn ) ⇒ AA−1 = (Ax1 | . . . |Axn ) = (e1 | . . . |en ) = E
Die Inverse von regulären Matrizen
Wir stellen die Lösungen von Axi = ei als Spaltenvektoren einer
Matrix zusammen:
A−1 = (x1 | . . . |xn ) ⇒ AA−1 = (Ax1 | . . . |Axn ) = (e1 | . . . |en ) = E
mit der Einheitsmatrix



E =


1
0
..
.

0


.

..
. 
1
Die Inverse von regulären Matrizen
Wir stellen die Lösungen von Axi = ei als Spaltenvektoren einer
Matrix zusammen:
A−1 = (x1 | . . . |xn ) ⇒ AA−1 = (Ax1 | . . . |Axn ) = (e1 | . . . |en ) = E
mit der Einheitsmatrix



E =


1
0
..
.

0


.

..
. 
1
Es gilt also AA−1 = A−1 A = E . Die regulären n × n-Matrizen
bilden eine Gruppe mit neutralem Element E .
Gauß-Algorithmus
Wenn in der Klausur keine Aufgabe vorkommt, in der der
Gauß-Algorithmus an einem konkreten Beispiel vorgeführt werden
muss, gebe ich einen aus.
Gauß-Algorithmus
Wenn in der Klausur keine Aufgabe vorkommt, in der der
Gauß-Algorithmus an einem konkreten Beispiel vorgeführt werden
muss, gebe ich einen aus.
K
K
Sei A ∈ m×n und b ∈ m . Zu lösen ist Ax = b mit Hilfe des
Gauß-Algorithmus, dem Standard-Verfahren für dieses Problem.
Gauß-Algorithmus
Wenn in der Klausur keine Aufgabe vorkommt, in der der
Gauß-Algorithmus an einem konkreten Beispiel vorgeführt werden
muss, gebe ich einen aus.
K
K
Sei A ∈ m×n und b ∈ m . Zu lösen ist Ax = b mit Hilfe des
Gauß-Algorithmus, dem Standard-Verfahren für dieses Problem.
Wir betrachten immer das erweiterte System
(A|b) ∈
Km×(n+1),
wobei b (wie immer bei uns) als Spaltenvektor aufgefasst wird.
Gauß-Algorithmus
Die Lösungsmenge von Ax = b wird nicht verändert, wenn
◮
eine Zeile von (A|b) auf eine andere addiert wird,
Gauß-Algorithmus
Die Lösungsmenge von Ax = b wird nicht verändert, wenn
◮
eine Zeile von (A|b) auf eine andere addiert wird,
◮
eine Zeile mit einem α ∈
K \ {0} multipliziert wird,
Gauß-Algorithmus
Die Lösungsmenge von Ax = b wird nicht verändert, wenn
◮
eine Zeile von (A|b) auf eine andere addiert wird,
◮
eine Zeile mit einem α ∈
◮
zwei Zeilen von (A|b) miteinander vertauscht werden.
K \ {0} multipliziert wird,
Gauß-Algorithmus im Fall m = n
Sei A regulär. Mit Hilfe der angegebenen Operationen erreicht man
in diesem Fall, dass A zu einer rechten oberen Dreiecksmatrix wird:


∗ ∗ ... ∗ ∗ ∗
 0 ∗ ... ∗ ∗ ∗ 




.
.
.
.
.
.
.
.
(Ã|b̃) =  0 0
. . . . 


 0 0 ... ∗ ∗ ∗ 
0 0 ... 0 ∗ ∗
Gauß-Algorithmus im Fall m = n
Sei A regulär. Mit Hilfe der angegebenen Operationen erreicht man
in diesem Fall, dass A zu einer rechten oberen Dreiecksmatrix wird:


∗ ∗ ... ∗ ∗ ∗
 0 ∗ ... ∗ ∗ ∗ 




.
.
.
.
.
.
.
.
(Ã|b̃) =  0 0
. . . . 


 0 0 ... ∗ ∗ ∗ 
0 0 ... 0 ∗ ∗
In diesem Fall sind die Elemente auf der Hauptdiagonalen 6= 0 und
die eindeutige Lösung wird durch Elimination von unten nach oben
bestimmt.
Gauß-Algorithmus im Fall m = n
Ist rang A < n, so wendet man am besten Spaltenvertauschung an,
wenn man in einer Spalte kein Pivot-Element findet.
Gauß-Algorithmus im Fall m = n
Ist rang A < n, so wendet man am besten Spaltenvertauschung an,
wenn man in einer Spalte kein Pivot-Element findet.
Vertauscht man die Spalte i mit Spalte j, so werden auch die
Unbekannten xi und xj miteinander vertauscht, was man sich merkt.
Gauß-Algorithmus im Fall m = n
Sei rang A = n − 1. Mit Hilfe
erreicht man in diesem Fall:

∗
 0


(Ã|b̃) =  0

 0
0
der angegebenen Operationen
∗ ··· ∗ ∗ ∗
∗ ··· ∗ ∗ ∗
. . .
.
0 . . .. .. ..
0 ··· ∗ ∗ ∗
0 · · · 0 0 b̃n







Gauß-Algorithmus im Fall m = n
Ist b̃n =
6 0, so ist das lineare Gleichungssystem unlösbar, weil die
letzte Gleichung nicht erfüllt werden kann.
Gauß-Algorithmus im Fall m = n
Ist b̃n =
6 0, so ist das lineare Gleichungssystem unlösbar, weil die
letzte Gleichung nicht erfüllt werden kann.
Ist b̃n = 0, so kann man für xn einen beliebigen Wert vorgeben und
man erhält eine Lösung x.
Gauß-Algorithmus im Fall m = n
Ist b̃n =
6 0, so ist das lineare Gleichungssystem unlösbar, weil die
letzte Gleichung nicht erfüllt werden kann.
Ist b̃n = 0, so kann man für xn einen beliebigen Wert vorgeben und
man erhält eine Lösung x.
Um den Kern zu bestimmen, gibt man sich im homogenen System
Ãx = 0 für xn die 1 ∈ vor und bestimmt wieder von unten nach
oben einen Vektor y , der das homogene System löst. Die
Lösungsmenge ist dann
K
x + {λy : λ ∈
K}.
Gauß-Algorithmus - m < n
K
Ist A ∈ m×n mit m < n, so ist das Gleichungssystem
unterbestimmt. Hat man Vollrang, also rang A = m, so erreicht
man mit den angegebenen Operationen die Form


∗ ∗ ··· ∗ ∗ ··· ∗ ∗


 0 ∗ · · · ∗ ∗ · · · ∗ ... 




(Ã|b̃) =  0 0 . . . ... ... · · · ... ...  , aii 6= 0 für i = 1, . . . , m.


.. 

 0 0 ··· ∗ ∗ ··· ∗ . 
0 0 ··· 0 ∗ ··· ∗ ∗
Gauß-Algorithmus - m < n
Man setzt xm+1 , . . . , xn = 0 und erhält eine Lösung von Ax = b.
Den Kern bestimmt man wieder, indem man b̃ = 0 und ein xj ,
j = m + 1, . . . , n zu 1 setzt. Die zugehörigen x (j) bilden dann eine
Basis des Kerns.
Gauß-Algorithmus - m < n
Man setzt xm+1 , . . . , xn = 0 und erhält eine Lösung von Ax = b.
Den Kern bestimmt man wieder, indem man b̃ = 0 und ein xj ,
j = m + 1, . . . , n zu 1 setzt. Die zugehörigen x (j) bilden dann eine
Basis des Kerns.
Spaltenvertauschungen rückgängig machen!
Gauß-Algorithmus - m > n
Bei einem überbestimmten Gleichungssystem m > n erhalten wir im
Fall rang A = m nach Anwendung des Gauß-Algorithmus die Form
!
Ã
R b̃R
.
(Ã|b̃) =
0 b̃0
Gauß-Algorithmus - m > n
Bei einem überbestimmten Gleichungssystem m > n erhalten wir im
Fall rang A = m nach Anwendung des Gauß-Algorithmus die Form
!
Ã
R b̃R
.
(Ã|b̃) =
0 b̃0
R ist eine reguläre rechte obere Dreiecksmatrix. Das
Gleichungssystem ist genau dann lösbar, wenn b̃0 = 0.
Das Unterraum-Zugehörigkeitsproblem
Sei X =
Kn und
Gehört x ∈ X zu U?
U = span {x1 , . . . , xk }.
Das Unterraum-Zugehörigkeitsproblem
Sei X =
Kn und
U = span {x1 , . . . , xk }.
Gehört x ∈ X zu U?
Wir stellen die Spaltenvektoren xi zu einer Matrix zusammen:
A = (x1 | . . . |xk ) ∈
Kn×k
und wenden auf das Gleichungssystem Ay = x den
Gauß-Algorithmus an. x ∈ U genau dann, wenn Ay = x lösbar ist.
Testen auf lineare Abhängigkeit
Sind die Vektoren x1 , . . . , xk ∈
unabhängig?
Kn linear abhängig oder linear
Testen auf lineare Abhängigkeit
Sind die Vektoren x1 , . . . , xk ∈
unabhängig?
Kn linear abhängig oder linear
Auf
A = (x1 | . . . |xk ) ∈
Kn×k
wenden wir wieder den Gauß-Algorithmus an. Die Vektoren sind
genau dann linear unabhängig, wenn Ay = 0 nur durch y = 0
gelöst wird.
Ähnlichkeitstransformation
C
Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre
Matrix T gibt mit A = T −1 BT .
Ähnlichkeitstransformation
C
Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre
Matrix T gibt mit A = T −1 BT .
Ähnlichkeit ist eine Äquivalenzrelation.
Ähnlichkeitstransformation
C
Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre
Matrix T gibt mit A = T −1 BT .
Ähnlichkeit ist eine Äquivalenzrelation.
Sei T = (t1 | . . .P
|tn ). y = Tx lässt sich so interpretieren: Der Vektor
y lässt sich als i ti xi darstellen. Also sind die xi die Koordinaten
von y , wenn er durch die Basis {ti } dargestellt wird.
Ähnlichkeitstransformation
C
Zwei Matrizen A, B ∈ n×n heißen ähnlich, wenn es eine reguläre
Matrix T gibt mit A = T −1 BT .
Ähnlichkeit ist eine Äquivalenzrelation.
Sei T = (t1 | . . .P
|tn ). y = Tx lässt sich so interpretieren: Der Vektor
y lässt sich als i ti xi darstellen. Also sind die xi die Koordinaten
von y , wenn er durch die Basis {ti } dargestellt wird.
B ist daher die Darstellungsmatrix der Abbildung f (x) = Ax, wenn
f bezüglich der Basis {ti } dargestellt wird.
Eigenwerte und Eigenvektoren
Von nun an X =
x∈
A∈
Cn und K = C!
Cn \ {0} heißt Eigenvektor zum Eigenwert λ ∈ C der Matrix
Cn×n , wenn
Ax = λx.
Eigenwerte und Eigenvektoren
Von nun an X =
x∈
A∈
Cn und K = C!
Cn \ {0} heißt Eigenvektor zum Eigenwert λ ∈ C der Matrix
Cn×n , wenn
Ax = λx.
Interpretation: U = span {x} ist ein invarianter Raum der Matrix
A, also A(U) ⊂ U.
Eigenwerte und Eigenvektoren
Von nun an X =
x∈
A∈
Cn und K = C!
Cn \ {0} heißt Eigenvektor zum Eigenwert λ ∈ C der Matrix
Cn×n , wenn
Ax = λx.
Interpretation: U = span {x} ist ein invarianter Raum der Matrix
A, also A(U) ⊂ U.
Gibt es n linear unabhängige Eigenvektoren, wissen wir, wie die
Matrix tickt.
Eigenwerte und Eigenvektoren
Sei Aλ = A − λE , E ist die Einheitsmatrix.
Eigenwerte und Eigenvektoren
Sei Aλ = A − λE , E ist die Einheitsmatrix.
Es gilt
λ ist Eigenwert ⇔ Aλ ist singulär ⇔ det Aλ = 0.
Eigenwerte und Eigenvektoren
Sei Aλ = A − λE , E ist die Einheitsmatrix.
Es gilt
λ ist Eigenwert ⇔ Aλ ist singulär ⇔ det Aλ = 0.
p(λ) = det Aλ heißt charakteristisches Polynom. Es gilt grad p = n.
charakteristisches Polynom
p(λ) = det Aλ = det(A − λE ).
Ähnliche Matrizen haben das gleiche charakteristische Polynom:
det(TAT −1 − λE ) = det(T (A − λE )T −1 )
= det T · det Aλ · det T −1 = det Aλ = p(λ).
charakteristisches Polynom
p(λ) = det Aλ = det(A − λE ).
Ähnliche Matrizen haben das gleiche charakteristische Polynom:
det(TAT −1 − λE ) = det(T (A − λE )T −1 )
= det T · det Aλ · det T −1 = det Aλ = p(λ).
Für p(λ) = bn λn + · · · + b1 λ + b0 gilt offenbar
n
bn = (−1) ,
n−1
b1 = (−1)
n
X
i=1
aii = (−1)n−1 spur A,
a0 = det A.
charakteristisches Polynom
p(λ) = det Aλ = det(A − λE ).
Ähnliche Matrizen haben das gleiche charakteristische Polynom:
det(TAT −1 − λE ) = det(T (A − λE )T −1 )
= det T · det Aλ · det T −1 = det Aλ = p(λ).
Für p(λ) = bn λn + · · · + b1 λ + b0 gilt offenbar
n
bn = (−1) ,
n−1
b1 = (−1)
n
X
aii = (−1)n−1 spur A,
i=1
Diese Größen müssen bei ähnlichen Matrizen gleich sein!
a0 = det A.
Algebraische und geometrische Vielfachheit
Nach dem Fundamentalsatz der Algebra hat p(λ) = det Aλ genau n
Nullstellen, wenn man mehrfache Nullstellen auch mehrfach zählt,
α1
p(λ) = (λ1 − λ)
αk
. . . (λk − λ)
mit
k
X
i=1
αi = n.
Algebraische und geometrische Vielfachheit
Nach dem Fundamentalsatz der Algebra hat p(λ) = det Aλ genau n
Nullstellen, wenn man mehrfache Nullstellen auch mehrfach zählt,
α1
p(λ) = (λ1 − λ)
αk
. . . (λk − λ)
mit
k
X
αi = n.
i=1
λ1 , . . . , λk sind die Eigenwerte.
αi heißt algebraische Vielfachheit des Eigenwerts λi .
Algebraische und geometrische Vielfachheit
Nach dem Fundamentalsatz der Algebra hat p(λ) = det Aλ genau n
Nullstellen, wenn man mehrfache Nullstellen auch mehrfach zählt,
α1
p(λ) = (λ1 − λ)
αk
. . . (λk − λ)
mit
k
X
αi = n.
i=1
λ1 , . . . , λk sind die Eigenwerte.
αi heißt algebraische Vielfachheit des Eigenwerts λi .
γi = dim Kern Aλi heißt geometrische Vielfachheit des Eigenwerts
λi .
Algebraische und geometrische Vielfachheit
Kern Aλi heißt Eigenraum zum Eigenwert λi .
Algebraische und geometrische Vielfachheit
Kern Aλi heißt Eigenraum zum Eigenwert λi .
γi = dim Kern Aλi
ist daher die Anzahl der linear unabhängigen Eigenvektoren zum
Eigenwert λi .
Algebraische und geometrische Vielfachheit
Kern Aλi heißt Eigenraum zum Eigenwert λi .
γi = dim Kern Aλi
ist daher die Anzahl der linear unabhängigen Eigenvektoren zum
Eigenwert λi .
Lemma Es gilt γi ≤ αi .
geometrische ≤ algebraische Vielfachheit - Beweis
Sei x1 , . . . , xγi eine Basis des Eigenraums zum Eigenwert λi .
Ergänze dies durch xγi +1 , . . . , xn zu einer Basis des n .
C
geometrische ≤ algebraische Vielfachheit - Beweis
Sei x1 , . . . , xγi eine Basis des Eigenraums zum Eigenwert λi .
Ergänze dies durch xγi +1 , . . . , xn zu einer Basis des n .
C
Setze
T = (x1 | . . . |xn ).
Dann







−1
T AT = 





λi
∗
λi
..
.
λi
0
∗







.





geometrische ≤ algebraische Vielfachheit - Beweis
Sei x1 , . . . , xγi eine Basis des Eigenraums zum Eigenwert λi .
Ergänze dies durch xγi +1 , . . . , xn zu einer Basis des n .
C
Setze
T = (x1 | . . . |xn ).
Dann







−1
T AT = 





λi
Daher p(λ) = (λi − λ)γi p0 (λ).
∗
λi
..
.
λi
0
∗







.





Verschiedene Eigenwerte
Lemma Eigenvektoren zu verschiedenen Eigenwerten sind linear
unabhängig.
Verschiedene Eigenwerte
Lemma Eigenvektoren zu verschiedenen Eigenwerten sind linear
unabhängig.
Beweis: Durch Induktion über die Anzahl k der Eigenvektoren. Da
ein Eigenvektor nicht verschwindet, ist k = 1 gezeigt.
Verschiedene Eigenwerte
Lemma Eigenvektoren zu verschiedenen Eigenwerten sind linear
unabhängig.
Beweis: Durch Induktion über die Anzahl k der Eigenvektoren. Da
ein Eigenvektor nicht verschwindet, ist k = 1 gezeigt.
Seien λ1 , . . . , λk+1 paarweise verschiedene Eigenwerte der Matrix
A. Die Induktionsvoraussetzung ist dann: Die zugehörigen
Eigenvektoren x1 , . . . , xk sind linear unabhängig.
Beweis
Angenommen,
xk+1 ließe sich nach den xi entwickeln,
P
xk+1 = ki=1 αi xi . Dann
k
X
i=1
λk+1 αi xi = λk+1 xk+1 = Axk+1
Beweis
Angenommen,
xk+1 ließe sich nach den xi entwickeln,
P
xk+1 = ki=1 αi xi . Dann
k
X
λk+1 αi xi = λk+1 xk+1 = Axk+1
i=1
=A
k
³X
i=1
k
´ X
λi αi xi .
αi xi =
i=1
Beweis
Angenommen,
xk+1 ließe sich nach den xi entwickeln,
P
xk+1 = ki=1 αi xi . Dann
k
X
λk+1 αi xi = λk+1 xk+1 = Axk+1
i=1
=A
k
³X
i=1
k
´ X
λi αi xi .
αi xi =
i=1
Da die xi linear unabhängig sind, folgt
λk+1 αi = λi αi ,
i = 1, . . . , k.
Wegen xk+1 6= 0 muss αi0 6= 0 gelten für ein i0 .
Beweis
Angenommen,
xk+1 ließe sich nach den xi entwickeln,
P
xk+1 = ki=1 αi xi . Dann
k
X
λk+1 αi xi = λk+1 xk+1 = Axk+1
i=1
=A
k
³X
i=1
k
´ X
λi αi xi .
αi xi =
i=1
Da die xi linear unabhängig sind, folgt
λk+1 αi = λi αi ,
i = 1, . . . , k.
Wegen xk+1 6= 0 muss αi0 6= 0 gelten für ein i0 .
Das liefert jedoch λk+1 = λi0 und damit einen Widerspruch.
Diagonalisierbare Matrizen
Bilden die Eigenvektoren von A ∈
A diagonalisierbar.
Cn×n eine Basis des Cn , so heißt
Diagonalisierbare Matrizen
Bilden die Eigenvektoren von A ∈
A diagonalisierbar.
Cn×n eine Basis des Cn , so heißt
A ist genau dann diagonalisierbar, wenn γi = αi für i = 1, . . . , k
(vgl. letztes Lemma).
Diagonalisierbare Matrizen
Bilden die Eigenvektoren von A ∈
A diagonalisierbar.
Cn×n eine Basis des Cn , so heißt
A ist genau dann diagonalisierbar, wenn γi = αi für i = 1, . . . , k
(vgl. letztes Lemma).
In diesem Fall schreiben wir Axi = λi xi , i = 1, . . . , n. Wir können
die Eigenvektoren zu einer Matrix zusammenstellen
T = (x1 |x2 | . . . |xn ) ⇒ AT = DT ⇒ A = T −1 DT
mit

λ1


D=
0
0
..
.
λn


.

Wichtige Klassen diagonalisierbarer Matrizen
Reelle Matrizen (A ∈
◮
Rn×n )
Symmetrische Matrizen, d.h. A = AT ,
Wichtige Klassen diagonalisierbarer Matrizen
Reelle Matrizen (A ∈
Rn×n )
◮
Symmetrische Matrizen, d.h. A = AT ,
◮
oder allgemeiner: Normale Matrizen, d.h. AAT = AT A,
Wichtige Klassen diagonalisierbarer Matrizen
Reelle Matrizen (A ∈
Rn×n )
◮
Symmetrische Matrizen, d.h. A = AT ,
◮
oder allgemeiner: Normale Matrizen, d.h. AAT = AT A,
◮
insbesondere orthogonale Matrizen, d.h. UU T = E .
Wichtige Klassen diagonalisierbarer Matrizen
Reelle Matrizen (A ∈
Rn×n )
◮
Symmetrische Matrizen, d.h. A = AT ,
◮
oder allgemeiner: Normale Matrizen, d.h. AAT = AT A,
◮
insbesondere orthogonale Matrizen, d.h. UU T = E .
Komplexe Matrizen (A ∈
◮
Cn×n )
Hermitesche Matrizen, d.h. A = AH ,
Wichtige Klassen diagonalisierbarer Matrizen
Reelle Matrizen (A ∈
Rn×n )
◮
Symmetrische Matrizen, d.h. A = AT ,
◮
oder allgemeiner: Normale Matrizen, d.h. AAT = AT A,
◮
insbesondere orthogonale Matrizen, d.h. UU T = E .
Komplexe Matrizen (A ∈
Cn×n )
◮
Hermitesche Matrizen, d.h. A = AH ,
◮
oder allgemeiner: Normale Matrizen, d.h. AAH = AH A,
Wichtige Klassen diagonalisierbarer Matrizen
Reelle Matrizen (A ∈
Rn×n )
◮
Symmetrische Matrizen, d.h. A = AT ,
◮
oder allgemeiner: Normale Matrizen, d.h. AAT = AT A,
◮
insbesondere orthogonale Matrizen, d.h. UU T = E .
Komplexe Matrizen (A ∈
Cn×n )
◮
Hermitesche Matrizen, d.h. A = AH ,
◮
oder allgemeiner: Normale Matrizen, d.h. AAH = AH A,
◮
insbesondere unitäre Matrizen, d.h. UU H = E .
Beispiel 1
Man bringe die Matrix
Ã
0 2
−1 3
auf Normalform.
!
Beispiel 1
Man bringe die Matrix
Ã
0 2
−1 3
!
auf Normalform.
1. Schritt: Eigenwerte bestimmen:
p(λ) = det(A − λE ) = (−λ)((3 − λ) + 2 = 0 ⇒ λ1 = 1, λ2 = 2.
Da die Eigenwerte verschieden sind, ist A diagonalisierbar.
Beispiel 1
λ1 = 1, λ2 = 2.
2. Schritt: Eigenvektoren bestimmen:
Ã
!
à !
−1 2
2
Aλ1 =
⇒ x1 =
,
−1 2
1
Beispiel 1
λ1 = 1, λ2 = 2.
2. Schritt: Eigenvektoren bestimmen:
Ã
!
à !
−1 2
2
Aλ1 =
⇒ x1 =
,
−1 2
1
Ã
!
à !
−2 2
1
Aλ2 =
⇒ x2 =
−1 1
1
Beispiel 1
A=
Ã
!
0 2
,
−1 3
à !
à !
1
2
x1 =
, x2 =
1
1
3. Schritt: T und T −1 bestimmen.
Beispiel 1
A=
Ã
!
0 2
,
−1 3
à !
à !
1
2
x1 =
, x2 =
1
1
3. Schritt: T und T −1 bestimmen.
Im diagonalisierbaren Fall wird die Matrix T aus den Eigenvektoren
gebildet:
Ã
!
Ã
!
2 1
1 −1
−1
T =
⇒ T =
.
1 1
−1 2
Es gilt dann D = T −1 AT mit D = diag (1, 2).
Beispiel 2
Man bringe die Matrix
auf Normalform.
Ã
!
−2 4
−1 2
Beispiel 2
Man bringe die Matrix
Ã
!
−2 4
−1 2
auf Normalform.
1. Schritt: Eigenwerte bestimmen:
p(λ) = det(A − λE ) = (−2 − λ)(2 − λ) + 4 = λ2 = 0
Die algebraische Vielfachheit von λ = 0 ist 2.
Beispiel 2
2. Schritt: Eigenvektor(en) bestimmen:
Ã
!
à !
−2 4
2
A = A0 =
⇒ x=
,
−1 2
1
Beispiel 2
2. Schritt: Eigenvektor(en) bestimmen:
Ã
!
à !
−2 4
2
A = A0 =
⇒ x=
,
−1 2
1
Die geometrische Vielfachheit ist also nur 1.
Beispiel 2
2. Schritt: Eigenvektor(en) bestimmen:
Ã
!
à !
−2 4
2
A = A0 =
⇒ x=
,
−1 2
1
Die geometrische Vielfachheit ist also nur 1.
In dieser Konstallation (α1 = 2, γ1 = 1) ist nach der Theorie der
Jordanschen Normalform das Gleichungssystem
A0 x 2 = x 1
lösbar.
Beispiel 2
2. Schritt: Eigenvektor(en) bestimmen:
Ã
!
à !
−2 4
2
A = A0 =
⇒ x=
,
−1 2
1
Die geometrische Vielfachheit ist also nur 1.
In dieser Konstallation (α1 = 2, γ1 = 1) ist nach der Theorie der
Jordanschen Normalform das Gleichungssystem
A0 x 2 = x 1
lösbar.
Klar, die Lösung ist nicht eindeutig wegen A0 x1 = 0.
Beispiel 2
2. Schritt: Eigenvektor(en) bestimmen:
Ã
!
à !
−2 4
2
A = A0 =
⇒ x=
,
−1 2
1
Die geometrische Vielfachheit ist also nur 1.
In dieser Konstallation (α1 = 2, γ1 = 1) ist nach der Theorie der
Jordanschen Normalform das Gleichungssystem
A0 x 2 = x 1
lösbar.
Klar, die Lösung ist nicht eindeutig wegen A0 x1 = 0.
Eine Lösung ist x2 = (1, 1)T .
Beispiel 2
à !
à !
2
1
x1 =
, x2 =
1
1
3. Schritt: T und T −1 bestimmen.
Beispiel 2
à !
à !
2
1
x1 =
, x2 =
1
1
3. Schritt: T und T −1 bestimmen.
Die Vektoren x1 , x2 bilden eine Jordan-Kette, also
A0 x1 = 0,
A0 x 2 = x 1 .
Beispiel 2
à !
à !
2
1
x1 =
, x2 =
1
1
3. Schritt: T und T −1 bestimmen.
Die Vektoren x1 , x2 bilden eine Jordan-Kette, also
A0 x1 = 0,
A0 x 2 = x 1 .
x1 ist der Eigenvektor, x2 heißt Hauptvektor.
Beispiel 2
à !
à !
2
1
x1 =
, x2 =
1
1
Die Matrix T wird in diesem Fall aus der Jordankette gebildet:
!
!
Ã
Ã
2 1
1
−1
T =
⇒ T −1 =
.
1 1
−1 2
Beispiel 2
à !
à !
2
1
x1 =
, x2 =
1
1
Die Matrix T wird in diesem Fall aus der Jordankette gebildet:
!
!
Ã
Ã
2 1
1
−1
T =
⇒ T −1 =
.
1 1
−1 2
Es gilt J = T −1 AT mit
!
Ã
0 1
.
J=
0 0
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
1. γ1 = 1: In diesem einfachen Fall bestimmt man den einzigen
Eigenvektor x1 und löst sukzessive Aλ1 x2 = x1 und Aλ1 x3 = x2 .
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
1. γ1 = 1: In diesem einfachen Fall bestimmt man den einzigen
Eigenvektor x1 und löst sukzessive Aλ1 x2 = x1 und Aλ1 x3 = x2 .
Beide Probleme sind nicht eindeutig lösbar, eine beliebige Lösung
reicht. Mit dieser Jordan-Kette setzt man T = (x1 |x2 |x3 ) und es gilt


λ1 1 0


J = T −1 AT mit J =  0 λ1 1  .
0 0 λ1
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 .
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 .
Hier haben wir das Problem, dass beide Probleme Aλ1 x = x1 und
Aλ1 x = x2 unlösbar sein können.
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 .
Hier haben wir das Problem, dass beide Probleme Aλ1 x = x1 und
Aλ1 x = x2 unlösbar sein können.
Man führt Gauß-Elimination mit dem erweiterten System
(A|x1 |x2 ) → (Ã|x̃1 |x̃2 )
durch. Man bestimmt dann beliebige µ1 , µ2 (nicht beide = 0) mit
µ1 x̃1,3 + µ2 x̃2,3 = 0 und dann den Hauptvektor x3 mit
Aλ1 x3 = µ1 x1 + µ2 x2 .
Allgemeinere Fälle
Wir betrachten n = 3 mit Eigenwert λ1 mit α1 = 3.
2. γ1 = 2: Man bestimmt eine Basis des Eigenraums x1 , x2 .
Hier haben wir das Problem, dass beide Probleme Aλ1 x = x1 und
Aλ1 x = x2 unlösbar sein können.
Man führt Gauß-Elimination mit dem erweiterten System
(A|x1 |x2 ) → (Ã|x̃1 |x̃2 )
durch. Man bestimmt dann beliebige µ1 , µ2 (nicht beide = 0) mit
µ1 x̃1,3 + µ2 x̃2,3 = 0 und dann den Hauptvektor x3 mit
Aλ1 x3 = µ1 x1 + µ2 x2 .
Man setzt y2 = µ1 x1 + µ2 x2 und y1 = x1 oder y1 = x2 , so dass
y1 , y2 eine Basis des Eigenraums bilden.
Allgemeinere Fälle
Aλ1 y1 = 0,
Aλ1 y2 = 0,
Aλ1 x3 = y2 .
Allgemeinere Fälle
Aλ1 y1 = 0,
Aλ1 y2 = 0,
Aλ1 x3 = y2 .
Mit dem Eigenvektor y1 und der Jordan-Kette y2 , x3 setzt man
T = (y1 |y2 |x3 ) und es gilt


λ1 0 0


J = T −1 AT mit J =  0 λ1 1  .
0 0 λ1
Herunterladen