2.5 Gekoppelte lineare Differentialgleichungen

Werbung
50
2.5
Kapitel 2. Lineare Algebra II
Gekoppelte lineare Differentialgleichungen
Die Untersuchung der Normalformen von Matrizen soll nun auf die Lösung von gekoppelten Differentialgleichungen angewendet werden. Hier zunächst zwei Beispiele
dazu.
2.45 Beispiel Nehmen wir an, wir betrachten eine Population von Raubtieren und
eine Population von dazugehörigen Beutetieren. Weil die Raubtiere die Beute fressen, sinkt mit steigender Anzahl Raubtiere die Menge an Beute, so dass sich daraufhin die Überlebenschancen der Raubtiere verschlechtern und ihre Anzahl wieder
abnimmt. Dadurch können mehr Beutetiere überleben, was wiederum (mit Zeitverzögerung) zum Anwachsen der Raubtierpopulation führt. Dieser Sachverhalt wird
durch die sogenannten Räuber-Beute-Gleichungen modelliert. Eine vereinfachte Version davon sei nun beschrieben. Die Funktion x1 (t) gebe die Anzahl der Raubtiere an
(jeweils zum Zeitpunkt t) und x2 (t) die Anzahl der Beutetiere, und es seien durchschnittlich n1 Raubtiere und n2 Beutetiere vorhanden. Natürlich sind die Anzahlen
eigentlich immer ganze Zahlen, aber bei genügend grossen Populationen können wir
uns die Funktionen x1 , x2 als stetige Funktionen von R≥0 nach R≥0 denken. Dann
gehen wir von folgenden Differentialgleichungen aus:
x′1 (t) = α (x2 (t) − n2 )
x′2 (t) = −α (x1 (t) − n1 )
Hier steht t ∈ R, t ≥ 0 für die Zeit, und α > 0 ist eine Proportionalitätskonstante.
Die Lösung dieses Systems lautet
x1 (t) = n1 + c cos(αt + ω) und x2 (t) = n2 − c sin(αt + ω) (t ≥ 0).
Hier sind c, ω passende Konstanten. Ist zum Beispiel konkret α = 2π
, so lautet die
60
Lösung des Systems zu den Anfangswerten x1 (0) = n1 + c und x2 (0) = n2 :
x1 (t) = n1 + c cos(
2π
2π
t) und x2 (t) = n2 − c sin( t) .
60
60
Beutetiere
n2
Raubtiere
n1 + c
n1
30
60
90
120
150
t [Tage]
Wenn die Zeit t in Tagen gemessen wird, ist hier nach 60 Tagen zum erstenmal der
Ausgangszustand wieder erreicht.
2.5. Gekoppelte lineare Differentialgleichungen
51
2.46 Beispiel Nehmen wir nun an, die Funktionen x1 (t) und x2 (t) beschreiben
die Grösse von zwei Populationen, die wechselseitig voneinander profitieren (zum
Beispiel Bienen und Apfelbäume, oder Spatzen und Vogelbeerbäume, deren Samen
durch die Spatzen weitergetragen werden). Dann lautet ein vereinfachtes entsprechendes System von Differentialgleichungen:
x′1 (t) = αx2 (t)
x′2 (t) = αx1 (t)
Die allgemeine Lösung dieses Systems lautet für t ∈ R:
x1 (t) = c1 eαt + c2 e−αt
und x2 (t) = c1 eαt − c2 e−αt
mit Konstanten c1 , c2 ∈ R.
Die Konstanten ergeben sich wiederum aus den Startpopulationen zum Zeitpunkt
t = 0:
1
1
c1 = (x1 (0) + x2 (0)) und c2 = (x1 (0) − x2 (0)) .
2
2
Unter einem System zweier gekoppelter linearer Differentialgleichungen erster
Ordnung mit konstanten Koeffizienten versteht man ein System von Gleichungen
folgender Form:
x′1 (t) = ax1 (t) + bx2 (t)
x′2 (t) = cx1 (t) + dx2 (t)
Dabei sind a, b, c, d vorgegebene Zahlen und x1 (t) und x2 (t) sind gesuchte differenzierbare Funktionen in der Variablen t ∈ R. Wir können die Koeffizienten zu einer
a b
2×2-Matrix A =
zusammenfassen, und x1 (t), x2 (t) als Komponenten einer
c d
vektorwertigen Funktion γ von t auffassen. Damit erhalten wir für das Differentialgleichungssystem folgende kompakte Schreibweise:
′ x1 (t)
x1 (t)
′
γ (t) =
=A·
= A · γ(t) .
x′2 (t)
x2 (t)
Das System aus dem Beispiel der zwei voneinander profitierenden Populationen lautet in Matrixschreibweise:
′ x1 (t)
0 α
x1 (t)
=
·
.
x′2 (t)
α 0
x2 (t)
Auch das Differentialgleichungssystem des Räuber-Beute-Modells lässt sich in Matrixschreibweise darstellen. Setzen wir nämlich x̃1 (t) = x1 (t)−n1 und x̃2 (t) = x2 (t)−n2 ,
dann erfüllen x̃1 und x̃2 das folgende lineare Differentialgleichungssystem:
′ x̃1 (t)
0 α
x̃1 (t)
=
·
.
x̃′2 (t)
−α 0
x̃2 (t)
52
Kapitel 2. Lineare Algebra II
Die beiden Koeffizientenmatrizen unterscheiden sich nur an einer Stelle durch ein
Vorzeichen, und doch haben die entsprechenden Differentialgleichungssysteme völlig
verschiedene Lösungen! Wir werden gleich sehen, dass die Gestalt der Lösungen
davon abhängt, welche Normalform die Koeffizientenmatrix hat.
Besonders einfach ist die Situation, wenn die Koeffizientenmatrix diagonalisierbar ist. Dann kann man nämlich durch einen Basiswechsel erreichen, dass die Gleichungen “entkoppelt” werden. Die entsprechende Aussage soll hier gleich in allgemeinerer Form für n miteinander gekoppelte Funktionen angegeben werden. Ein
System aus n gekoppelten linearen Differentialgleichungen erster Ordnung mit konstanten Koeffizienten ist ein Gleichungssystem der folgenden Form:
x′1 (t) = a11 x1 (t) + a12 x2 (t) + · · · + a1n xn (t)
x′2 (t) = a21 x1 (t) + a22 x2 (t) + · · · + a2n xn (t)
..
.
x′n (t) = an1 x1 (t) + an2 x2 (t) + · · · + ann xn (t)
Dabei sind xj (t) differenzierbare Funktionen in einer Variablen (zum Beispiel sich
gegenseitig beeinflussende Konzentrationen von Substanzen), und aij sind Zahlen.
Wiederum können wir die Koeffizienten des Systems zu einer Matrix A (diesmal einer
n × n-Matrix) zusammenfassen und das System in kompakterer Form schreiben:
 ′



x1 (t)
x1 (t)
 x′2 (t) 
 x (t) 
′
 = A ·  2.  = A · γ(t) .
γ (t) = 
.
 .. 
 .. 
x′n (t)
xn (t)
Die Menge der Lösungen γ eines vorgegebenen Systems bildet einen linearen Unterraum im Vektorraum aller vektorwertigen Funktionen, und zwar kann man zeigen,
dass die Lösungsmenge stets die Dimension n hat. Es gibt also n freie Parameter,
die durch die Anfangswerte festgelegt werden können.
2.47 Beispiel Ist A eine Diagonalmatrix mit Diagonaleinträgen λ1 , . . . , λn , dann
lautet das entsprechende Differentialgleichungssystem



 ′
λ1 x1 (t)
x1 (t)
 λ x (t) 
 x′2 (t) 
′
 = Aγ(t) =  2 .2  .
γ (t) = 
.


 .. 
..
x′n (t)
λn xn (t)
Das System besteht also in diesem Fall eigentlich aus n entkoppelten Differentialgleichungen der Form x′j (t) = λj xj (t) (j = 1, . . . , n) mit den Lösungen xj (t) = cj eλj t
(t ∈ R).
Ist die Koeffizientenmatrix A diagonalisierbar, so können wir sie durch einen Basiswechsel in Diagonalgestalt überführen. Führt man dies aus, erhält man folgendes
Resultat.
2.5. Gekoppelte lineare Differentialgleichungen
53
2.48 Satz Ist A diagonalisierbar mit linear unabhängigen Eigenvektoren v1 , v2 , . . . , vn
zu Eigenwerten λ1 , λ2 , . . . , λn , dann lautet die allgemeine Lösung des Systems γ ′ (t) =
Aγ(t) folgendermassen:


x1 (t)
γ(t) =  ...  = c1 eλ1 t v1 + c2 eλ2 t v2 + · · · + eλn t vn .
xn (t)
Hier sind c1 , c2 , . . . , cn frei wählbare Konstanten.
Beweis. Durch den Wechsel auf die Basis B, gebildet aus den Eigenvektoren v1 , . . . , vn ,
geht die Matrix A in Diagonalform über. Genauer gilt folgendes: die lineare Abbildung, die bezogen auf die kanonische Standardbasis e1 , . . . , en durch Multiplikation
mit A beschrieben ist, wird bezogen auf die Basis B durch Multiplikation mit der
Diagonalmatrix mit Diagonaleinträgen λ1 , . . . , λn beschrieben. Das heisst, die Koordinaten x̃1 (t), . . . , x̃n (t) des Vektors γ(t), ausgedrückt in der Basis B, erfüllen das
entkoppelte Differentialgleichungssystem x̃′j (t) = λj x̃j (t) (j = 1, . . . , n). Also gilt
x̃j (t) = cj eλj t , wobei c1 , . . . , cn Konstanten sind. Dies ist gerade die Behauptung.
q.e.d.
2.49 Beispiel Schauen wir uns zunächst das in der Einführung angegebene Beispiel von zwei voneinander profitierenden Populationen nochmals
an. Hier
lautet
0 α
die Koeffizientenmatrix des Differentialgleichungssystems A =
. Die Eiα 0
1
genwerte dieser Matrix sind ±α, der Vektor v1 =
ist Eigenvektor zu λ1 = α
1
1
und v2 =
ist Eigenvektor zu λ2 = −α. Entsprechend lautet die allgemeine
−1
Lösung des Differentialgleichungssystems
αt
1
x1 (t)
1
c1 e + c2 e−αt
−αt
αt
,
γ(t) =
+ c2 e
=
= c1 e
c1 eαt − c2 e−αt
1
−1
x2 (t)
wie bereits angegeben.
2.50 Beispiel Wir betrachten das Differentialgleichungssystem
x′1 (t) = 3x1 (t) + 2x2 (t)
x′2 (t) = x1 (t) + 4x2 (t)
3 2
1
2
Dann ist A =
. Für diese Matrix sind v1 =
und v2 =
Eigen1 4
1
−1
vektoren zu den Eigenwerten λ1 = 5 bzw. λ2 = 2 von A. Die allgemeine Lösung
lautet daher
5t
2
c1 e + 2c2 e2t
1
2t
5t
.
=
+ c2 e
γ(t) = c1 e
c1 e5t − c2 e2t
−1
1
54
Kapitel 2. Lineare Algebra II
Nehmen wir nun an, A sei eine reelle 2 × 2-Matrix mit komplex konjugierten
Eigenwerten s ± it (wobei t > 0 ist). Dann können wir analog zum eben beschriebenen Vorgehen Eigenvektoren über den komplexen Zahlen berechnen, daraus die
komplexen Lösungen des Differentialgleichungssystems bilden und schliesslich zum
Real- bzw. Imaginärteil übergehen, um reelle Lösungen zu erhalten. Wir wenden
dies Verfahren jetzt auf das in der Einleitung angegebene Räuber-Beute-Modell an.
2.51 Beispiel
Das Modell liess sich zurückführen auf das Systemzur
Matrix A =
0 α
1
. Diese Matrix hat die komplexen Eigenvektoren v1 =
zum Eigen−α 0
i
1
wert iα und v2 =
zum Eigenwert −iα. Die komplexe Lösung des Differenti−i
algleichungssystems lautet also
z(t)
1
1
iαt
−iαt
= c̃1 e
+ c̃2 e
.
w(t)
i
−i
Aus dem Real- und dem Imaginärteil lassen sich folgende reelle Lösungen zusammensetzen:
cos(αt)
sin(αt)
γ(t) = c1
+ c2
.
− sin(αt)
cos(αt)
Mit c1 = c cos(ω) und c2 = −c sin(ω) wird daraus, wie bereits angegeben:
c cos(αt + ω)
γ(t) =
.
−c sin(αt + ω)
Kapitel 3
Quadratische Formen und symmetrische Matrizen
3.1
Skalarprodukte und Normen
Das übliche Skalarprodukt für Vektoren aus dem R2 ist folgendermassen erklärt:
x
x2
hv, wi = h 1 ,
i := x1 x2 + y1 y2 .
y1
y2
x
Die Länge eines Vektors v =
, die hier mit ||v|| notiert wird, ist nach dem Satz
y
von Pythagoras gegeben durch:
p
||v|| = x2 + y 2 .
Die geometrische Bedeutung des Skalarprodukts ist folgende: hv, wi gibt die Länge
der Projektion von v in Richtung von w, multipliziert mit der Länge von w an.
Bezeichnet α den Winkel zwischen v und w, so gilt:
hv, wi = ||v|| · ||w|| · cos α .
Also ist hv, wi = 0 genau dann, wenn die Vektoren v und w senkrecht aufeinander
stehen. Und es ergibt sich folgendes:
3.1 Satz (Cauchy-Schwarzsche Ungleichung)
|hv, wi| ≤ ||v|| · ||w|| für alle v, w ∈ R2 .
Gleichheit gilt genau dann, wenn v, w linear abhängig sind.
Dieses “Standardskalarprodukt” ist das Vorbild für den folgenden Begriff:
3.2 Definition Ein Skalarprodukt auf einem reellen Vektorraum V ist eine Abbildung h , i: V × V → R mit folgenden Eigenschaften:
(i) hv, vi ∈ R>0 für alle 0 6= v ∈ V ; h0, 0i = 0.
(ii) hu, αv + βwi = αhu, vi + βhu, wi für alle u, v, w ∈ V , α, β ∈ R.
(iii) hu, vi = hv, ui für alle u, v ∈ V .
Jedes Skalarprodukt auf V liefert auch einen Längenbegriff auf V , eine sogenannte Norm, nämlich
p
||v|| := hv, vi für alle v ∈ V .
Wegen der Eigenschaft (i) ist dieser Ausdruck wohldefiniert.
56
Kapitel 3. Quadratische Formen und symmetrische Matrizen
3.3 Beispiele
1. Das Standardskalarprodukt auf Rn ist so erklärt:
   
v1
w1
n
X
..   .. 

hv, wi = h .
,
vk wk .
. i=
k=1
vn
wn
Die Eigenschaften (i)-(iii) sind erfüllt, wie man direkt nachrechnen kann. Die
dazugehörige Länge ist die vertraute euklidische Länge:
q
||v|| = v12 + . . . + vn2 für alle v ∈ V .
Für n = 1 stimmt || || mit dem Betrag überein.
2. Eine andere Möglichkeit, ein Skalarprodukt auf R2 zu erklären, ist zum Beispiel
folgende:
x
x2
hv, wi = h 1 ,
i = 2x1 x2 + 3y1y2 .
y1
y2
Auch hier sinddie Rechenregeln (i)-(iii) erfüllt, und die zugehörige Norm laup
x
tet hier ||
|| = 2x2 + 3y 2. Man kann diese Art der Längenmessung so
y
verstehen, dass wir die x- und die y-Richtung jeweils neu skaliert haben.
3. Sei V der Vektorraum der stetigen, reellwertigen Funktionen auf dem abgeschlossenen Intervall [a, b]. Dann definiert auch folgende Vorschrift ein Skalarprodukt:
Z
b
hf, gi :=
f (x)g(x)dx .
a
Die zugehörige Norm lautet:
||f || =
s
Z
b
f (x)2 dx .
a
Die Linearitätseigenschaft (ii) ergibt sich direkt aus der Linearität des Integrals
und die Symmetrie (iii) ist offensichtlich. Für (i) ist es wichtig, dass es sich um
stetige Funktionen handelt. Ist f ∈ C 0 [a, b], dann ist f 2 eine stetige Funktion
mit f 2 (x) ≥ 0 für alle x. Eine nichtnegative, stetige Funktion kann nur dann
als Integralwert Null liefern, wenn es sich um die Nullfunktion handelt.
3.4 Satz (Cauchy-Schwarzsche Ungleichung) für jedes Skalarprodukt auf V und
die dazugehörige Norm gilt:
|hv, wi| ≤ ||v|| · ||w|| für alle v, w ∈ V .
Gleichheit gilt genau dann, wenn v, w linear abhängig sind.
In Anlehnung an die geometrische Bedeutung des Standardskalarprodukts des
R und R3 sagt man, zwei Vektoren u, v ∈ V seien senkrecht zueinander oder orthogonal , wenn hv, wi = 0. Dafür gibt es auch die Notation v ⊥ w.
2
3.1. Skalarprodukte und Normen
57
3.5 Definition Eine Basis (v1 , . . . , vn ) von V heisst Orthonormalbasis, falls vi ⊥ vj
für alle i 6= j und ||vj || = 1 für alle j. Das heisst anders ausgedrückt:
0 für i 6= j
.
hvi , vj i =
1 für i = j
Eine Orthonormalbasis liefert also ein rechtwinkliges Koordinatensystem.
3.6 Beispiele
dukt.
• Standardbasis (e1 , . . . , en ) für Rn mit dem Standardskalarpro-
1
• Die Basis des R gebildet aus v1 =
und v2 =
1
bezogen auf das Standardskalarprodukt).
√1
2
2
√1
2
−1
1
(wiederum
Wenn man einen Vektor v ∈ V durch eine Orthonormalbasis ausdrücken möchte,
muss man jeweils die Skalarprodukte von v mit den Basisvektoren bestimmen. Denn
es gilt:
3.7 Bemerkung Ist (v1 , . . . , vn ) eine Orthonormalbasis von V , so gilt für jedes
v ∈ V:
n
X
hvj , vivj .
v=
j=1
Das Skalarprodukt hvj , vi gibt also jeweils die Projektion von v in Richtung von
vj an.
P
P
P
Beweis. Ist v = nk=1 αk vk , so gilt hvj , vi = hvj , nk=1 αk vk i = nk=1 αk hvj , vk i =
αj . Also stimmt hvj , vi mit dem (eindeutig bestimmten) Koeffizienten αj überein.
q.e.d.
3.8 Satz Jeder endlichdimensionale reelle Vektorraum mit Skalarprodukt hat eine
Orthonormalbasis.
Beweis. Dazu startet man mit einer beliebigen Basis (u1 , . . . , un ) von V und konstruiert daraus rekursiv mithilfe des Orthonormalisierungsverfahrens eine Orthonormalbasis (v1 , . . . , vn ), und zwar so, dass für k = 1, . . . , n gilt:
lin(v1 , . . . , vk ) = lin(u1 , . . . , uk ) .
Den ersten Vektor v1 wählt man parallel zu u1 , aber auf Länge 1 normiert, also
v1 := ||uu11 || . Um den zweiten Vektor v2 zu definieren, geht man aus von der Zerlegung
von u2 in eine Komponente in Richtung von v1 und eine Komponente w von u2
senkrecht zu v1 . Da hv1 , u2 i die Länge der Projektion von u2 auf v1 bezeichnet, gilt:
w = u2 − hv1 , u2 iv1 . Nun wählt man v2 parallel zu w, aber auf Länge 1 normiert,
w
also v2 := ||w||
. Der dritte Vektor v3 wird aus u3 konstruiert, indem man zunächst
58
Kapitel 3. Quadratische Formen und symmetrische Matrizen
die Projektionen auf v1 und v2 abzieht und dann auf Länge 1 normiert, usw. Hier
das Resultat:
u2 − hv1 , u2 iv1
u1
,
v2 :=
,
v1 :=
||u1||
||u2 − hv1 , u2 iv1 ||
und für k = 3, . . . , n
Pk−1
uk − j=1
hvj , uk ivj
vk :=
.
Pk−1
||uk − j=1 hvj , uk ivj ||
Man kann direkt nachrechnen, dass (v1 , . . . , vn ) eine Orthonormalbasis ist.
q.e.d.
3.9 Beispiel Sei V ⊂ R3 die Ebene, definiert durch die Gleichung 2x + 3y
z = 0,
 −
1
zusammen mit dem von R3 geerbten Skalarprodukt. Die Vektoren u1 =  0  und
2
 
0

u2 = 1  aus V sind linear unabhängig, stehen aber nicht senkrecht aufeinander,
3
denn hu1 , u2 i = 6. Das Orthonormalisierungsverfahren, angewendet auf (u1, u2 ),
liefert hier:
 
1
u1
1  
v1 =
=√
0 .
||u1||
5 2


−6
Weiter ist hv1 , u2i = √65 und daher u2 − hv1 , u2iv1 = 15  5 . Wir erhalten
3


−6
1 
√
v2 =
5 .
70
3
Wie gewünscht, gelten hv1 , v2 i = 0 und ||v1 || = ||v2 || = 1. Also ist (v1 , v2 ) eine
Orthonormalbasis für die Ebene V .
3.2
Hauptsatz über symmetrische Matrizen
3.10 Definition Unter der Transponierten einer Matrix A = (aij )1≤i,j≤n versteht
man diejenige Matrix AT = (aji )1≤i,j≤n , die aus A durch Spiegeln der Einträge an
der Hauptdiagonalen hervorgeht. Eine quadratische Matrix A heisst symmetrisch,
wenn A = AT .


1 2 3
Die Transponierte der Matrix A =  4 6 8  lautet zum Beispiel AT =
11



 13 17
1 4 11
1 2 3
 2 6 13 . Die Matrix B =  2 6 4  ist symmetrisch.
3 8 17
3 4 8
3.2. Hauptsatz über symmetrische Matrizen
59
Es gilt der folgende wichtige Satz, den wir hier ohne Beweis angeben.
3.11 Hauptsatz Jede symmetrische reelle n × n-Matrix A ist diagonalisierbar,
und es gibt sogar eine Orthonormalbasis des Rn (mit dem Standardskalarprodukt)
aus Eigenvektoren von A. Anders gesagt: es gibt eine invertierbare Matrix S mit
S −1 = S T , so dass S T AS Diagonalform hat.
Die von den Eigenvektoren aufgespannten Geraden nennt man Hauptachsen
von A, und die Koordinatentransformation auf die Orthonormalbasis aus Eigenvektoren heisst deshalb auch Hauptachsentransformation.
3.12 Bemerkung Sind die Vektoren v1 , . . . , vn in Rn linear unabhängig, so ist die
aus den Spalten v1 , . . . , vn gebildete Matrix S bekanntlich invertierbar. Die Einträge
der Produktmatrix S T S =: C geben die Skalarprodukte von Paaren von Vektoren
an:
cij = hvi , vj i für alle i, j.
Also bilden die Vektoren v1 , . . . , vn genau dann eine Orthonormalbasis, wenn S T S =
E ist, das heisst, wenn die Transponierte der Matrix S bereits ihre Inverse bildet.
Eine solche Matrix S wird auch als orthogonal bezeichnet.
Nun zunächst einige Beispiele zum Hauptsatz:
2 2
3.13 Beispiele
1. Die Matrix A =
ist offenbar symmetrisch. Die Spur
2 5
dieser Matrix beträgt 7 und die Determinante ist 6. Die Eigenwerte von A sind
alsoλ1 = 6 und λ2 = 1. Als zugehörige
Eigenvektoren können wir wählen v1 =
1
2
√1
zu λ1 und v2 = √15
zu λ2 . Die Vektoren v1 , v2 sind so gewählt,
5
2
−1
dass sie Länge 1 haben, und sie stehen tatsächlich senkrecht aufeinander, denn
hv1 , v2 i = 0.
3 2
2. Die Matrix B =
ist nicht symmetrisch. B ist zwar ebenfalls diagonali1 4
sierbar, aber nicht durch
Denn die Eigenrichtungen,
eine
Orthonormalbasis.
1
2
aufgespannt durch v1 =
und v2 =
, stehen nicht senkrecht aufein1
−1
ander.
3. Die ebene Spiegelung an der Gerade g, die den Winkel ϕ zur x-Achse bildet,
wird beschrieben durch die Matrix
cos(2ϕ)
sin(2ϕ)
.
sin(2ϕ) − cos(2ϕ)
Jede solche Matrix ist symmetrisch, und tatsächlich sind die Spiegelungsachse
und die dazu senkrechte Gerade durch den Nullpunkt Eigenrichtungen der
Spiegelung zu den Eigenwerten 1 bzw. −1.
60
Kapitel 3. Quadratische Formen und symmetrische Matrizen
Wir werden uns hier darauf beschränken, eine Teilaussage des Hauptsatzes zu
beweisen. Dazu zunächst eine Vorbemerkung zum Rechnen mit Transponierten:
3.14 Lemma Sei A eine Matrix vom Typ m × l und B eine Matrix vom Typ l × n.
Dann gilt
(AB)T = B T AT .
Beweis. Bezeichne C = AB das Produkt der Matrizen A und B. Der Eintrag in
der Zeile i und Spalte j von C wird berechnet, indem man die i-te Zeile von A
komponentenweise mit der j-ten Spalte von B multipliziert und alles aufaddiert.
Das heisst:
l
X
aik bkj .
cij =
k=1
T
Gehen wir über zur Transponierten C der Matrix C, dann rückt der Eintrag cij an
die Stelle (j, i), also in die j-te Zeile und i-te Spalte.
Vergleichen wir nun mit dem Matrizenprodukt D = B T AT . Der Eintrag dji wird
berechnet, indem man die j-te Zeile von B T (d.h., die j-te Spalte von B) komponentenweise mit der i-ten Spalte von AT (also der i-ten Zeile von A) multipliziert
und alles aufaddiert. Das heisst:
dji =
l
X
bkj aik = cij .
k=1
Damit ist alles gezeigt.
q.e.d.
3.15 Folgerung Sei A ∈ Mn×n (R) symmetrisch. Je zwei Eigenvektoren zu verschiedenen Eigenwerten von A stehen aufeinander senkrecht.
Beweis. Angenommen, die Vektoren 0 6= v, w ∈ Rn sind Eigenvektoren von A zu
den Eigenwerten λ 6= µ. Das heisst Av = λv und Aw = µw. Wir können das
Standardskalarprodukt auf Rn auch in der Form hv, wi = v T · w schreiben, wobei
mit · das Matrizenprodukt gemeint ist. Nun haben wir einerseits hAv, wi = λhv, wi,
und andererseits mit der eben gezeigten Rechenregel hAv, wi = (Av)T w = v T AT w =
v T (Aw) = hv, Awi = µhv, wi. Da λ 6= µ ist, muss also hv, wi = 0 sein.
q.e.d.
Herunterladen