50 2.5 Kapitel 2. Lineare Algebra II Gekoppelte lineare Differentialgleichungen Die Untersuchung der Normalformen von Matrizen soll nun auf die Lösung von gekoppelten Differentialgleichungen angewendet werden. Hier zunächst zwei Beispiele dazu. 2.45 Beispiel Nehmen wir an, wir betrachten eine Population von Raubtieren und eine Population von dazugehörigen Beutetieren. Weil die Raubtiere die Beute fressen, sinkt mit steigender Anzahl Raubtiere die Menge an Beute, so dass sich daraufhin die Überlebenschancen der Raubtiere verschlechtern und ihre Anzahl wieder abnimmt. Dadurch können mehr Beutetiere überleben, was wiederum (mit Zeitverzögerung) zum Anwachsen der Raubtierpopulation führt. Dieser Sachverhalt wird durch die sogenannten Räuber-Beute-Gleichungen modelliert. Eine vereinfachte Version davon sei nun beschrieben. Die Funktion x1 (t) gebe die Anzahl der Raubtiere an (jeweils zum Zeitpunkt t) und x2 (t) die Anzahl der Beutetiere, und es seien durchschnittlich n1 Raubtiere und n2 Beutetiere vorhanden. Natürlich sind die Anzahlen eigentlich immer ganze Zahlen, aber bei genügend grossen Populationen können wir uns die Funktionen x1 , x2 als stetige Funktionen von R≥0 nach R≥0 denken. Dann gehen wir von folgenden Differentialgleichungen aus: x′1 (t) = α (x2 (t) − n2 ) x′2 (t) = −α (x1 (t) − n1 ) Hier steht t ∈ R, t ≥ 0 für die Zeit, und α > 0 ist eine Proportionalitätskonstante. Die Lösung dieses Systems lautet x1 (t) = n1 + c cos(αt + ω) und x2 (t) = n2 − c sin(αt + ω) (t ≥ 0). Hier sind c, ω passende Konstanten. Ist zum Beispiel konkret α = 2π , so lautet die 60 Lösung des Systems zu den Anfangswerten x1 (0) = n1 + c und x2 (0) = n2 : x1 (t) = n1 + c cos( 2π 2π t) und x2 (t) = n2 − c sin( t) . 60 60 Beutetiere n2 Raubtiere n1 + c n1 30 60 90 120 150 t [Tage] Wenn die Zeit t in Tagen gemessen wird, ist hier nach 60 Tagen zum erstenmal der Ausgangszustand wieder erreicht. 2.5. Gekoppelte lineare Differentialgleichungen 51 2.46 Beispiel Nehmen wir nun an, die Funktionen x1 (t) und x2 (t) beschreiben die Grösse von zwei Populationen, die wechselseitig voneinander profitieren (zum Beispiel Bienen und Apfelbäume, oder Spatzen und Vogelbeerbäume, deren Samen durch die Spatzen weitergetragen werden). Dann lautet ein vereinfachtes entsprechendes System von Differentialgleichungen: x′1 (t) = αx2 (t) x′2 (t) = αx1 (t) Die allgemeine Lösung dieses Systems lautet für t ∈ R: x1 (t) = c1 eαt + c2 e−αt und x2 (t) = c1 eαt − c2 e−αt mit Konstanten c1 , c2 ∈ R. Die Konstanten ergeben sich wiederum aus den Startpopulationen zum Zeitpunkt t = 0: 1 1 c1 = (x1 (0) + x2 (0)) und c2 = (x1 (0) − x2 (0)) . 2 2 Unter einem System zweier gekoppelter linearer Differentialgleichungen erster Ordnung mit konstanten Koeffizienten versteht man ein System von Gleichungen folgender Form: x′1 (t) = ax1 (t) + bx2 (t) x′2 (t) = cx1 (t) + dx2 (t) Dabei sind a, b, c, d vorgegebene Zahlen und x1 (t) und x2 (t) sind gesuchte differenzierbare Funktionen in der Variablen t ∈ R. Wir können die Koeffizienten zu einer a b 2×2-Matrix A = zusammenfassen, und x1 (t), x2 (t) als Komponenten einer c d vektorwertigen Funktion γ von t auffassen. Damit erhalten wir für das Differentialgleichungssystem folgende kompakte Schreibweise: ′ x1 (t) x1 (t) ′ γ (t) = =A· = A · γ(t) . x′2 (t) x2 (t) Das System aus dem Beispiel der zwei voneinander profitierenden Populationen lautet in Matrixschreibweise: ′ x1 (t) 0 α x1 (t) = · . x′2 (t) α 0 x2 (t) Auch das Differentialgleichungssystem des Räuber-Beute-Modells lässt sich in Matrixschreibweise darstellen. Setzen wir nämlich x̃1 (t) = x1 (t)−n1 und x̃2 (t) = x2 (t)−n2 , dann erfüllen x̃1 und x̃2 das folgende lineare Differentialgleichungssystem: ′ x̃1 (t) 0 α x̃1 (t) = · . x̃′2 (t) −α 0 x̃2 (t) 52 Kapitel 2. Lineare Algebra II Die beiden Koeffizientenmatrizen unterscheiden sich nur an einer Stelle durch ein Vorzeichen, und doch haben die entsprechenden Differentialgleichungssysteme völlig verschiedene Lösungen! Wir werden gleich sehen, dass die Gestalt der Lösungen davon abhängt, welche Normalform die Koeffizientenmatrix hat. Besonders einfach ist die Situation, wenn die Koeffizientenmatrix diagonalisierbar ist. Dann kann man nämlich durch einen Basiswechsel erreichen, dass die Gleichungen “entkoppelt” werden. Die entsprechende Aussage soll hier gleich in allgemeinerer Form für n miteinander gekoppelte Funktionen angegeben werden. Ein System aus n gekoppelten linearen Differentialgleichungen erster Ordnung mit konstanten Koeffizienten ist ein Gleichungssystem der folgenden Form: x′1 (t) = a11 x1 (t) + a12 x2 (t) + · · · + a1n xn (t) x′2 (t) = a21 x1 (t) + a22 x2 (t) + · · · + a2n xn (t) .. . x′n (t) = an1 x1 (t) + an2 x2 (t) + · · · + ann xn (t) Dabei sind xj (t) differenzierbare Funktionen in einer Variablen (zum Beispiel sich gegenseitig beeinflussende Konzentrationen von Substanzen), und aij sind Zahlen. Wiederum können wir die Koeffizienten des Systems zu einer Matrix A (diesmal einer n × n-Matrix) zusammenfassen und das System in kompakterer Form schreiben: ′ x1 (t) x1 (t) x′2 (t) x (t) ′ = A · 2. = A · γ(t) . γ (t) = . .. .. x′n (t) xn (t) Die Menge der Lösungen γ eines vorgegebenen Systems bildet einen linearen Unterraum im Vektorraum aller vektorwertigen Funktionen, und zwar kann man zeigen, dass die Lösungsmenge stets die Dimension n hat. Es gibt also n freie Parameter, die durch die Anfangswerte festgelegt werden können. 2.47 Beispiel Ist A eine Diagonalmatrix mit Diagonaleinträgen λ1 , . . . , λn , dann lautet das entsprechende Differentialgleichungssystem ′ λ1 x1 (t) x1 (t) λ x (t) x′2 (t) ′ = Aγ(t) = 2 .2 . γ (t) = . .. .. x′n (t) λn xn (t) Das System besteht also in diesem Fall eigentlich aus n entkoppelten Differentialgleichungen der Form x′j (t) = λj xj (t) (j = 1, . . . , n) mit den Lösungen xj (t) = cj eλj t (t ∈ R). Ist die Koeffizientenmatrix A diagonalisierbar, so können wir sie durch einen Basiswechsel in Diagonalgestalt überführen. Führt man dies aus, erhält man folgendes Resultat. 2.5. Gekoppelte lineare Differentialgleichungen 53 2.48 Satz Ist A diagonalisierbar mit linear unabhängigen Eigenvektoren v1 , v2 , . . . , vn zu Eigenwerten λ1 , λ2 , . . . , λn , dann lautet die allgemeine Lösung des Systems γ ′ (t) = Aγ(t) folgendermassen: x1 (t) γ(t) = ... = c1 eλ1 t v1 + c2 eλ2 t v2 + · · · + eλn t vn . xn (t) Hier sind c1 , c2 , . . . , cn frei wählbare Konstanten. Beweis. Durch den Wechsel auf die Basis B, gebildet aus den Eigenvektoren v1 , . . . , vn , geht die Matrix A in Diagonalform über. Genauer gilt folgendes: die lineare Abbildung, die bezogen auf die kanonische Standardbasis e1 , . . . , en durch Multiplikation mit A beschrieben ist, wird bezogen auf die Basis B durch Multiplikation mit der Diagonalmatrix mit Diagonaleinträgen λ1 , . . . , λn beschrieben. Das heisst, die Koordinaten x̃1 (t), . . . , x̃n (t) des Vektors γ(t), ausgedrückt in der Basis B, erfüllen das entkoppelte Differentialgleichungssystem x̃′j (t) = λj x̃j (t) (j = 1, . . . , n). Also gilt x̃j (t) = cj eλj t , wobei c1 , . . . , cn Konstanten sind. Dies ist gerade die Behauptung. q.e.d. 2.49 Beispiel Schauen wir uns zunächst das in der Einführung angegebene Beispiel von zwei voneinander profitierenden Populationen nochmals an. Hier lautet 0 α die Koeffizientenmatrix des Differentialgleichungssystems A = . Die Eiα 0 1 genwerte dieser Matrix sind ±α, der Vektor v1 = ist Eigenvektor zu λ1 = α 1 1 und v2 = ist Eigenvektor zu λ2 = −α. Entsprechend lautet die allgemeine −1 Lösung des Differentialgleichungssystems αt 1 x1 (t) 1 c1 e + c2 e−αt −αt αt , γ(t) = + c2 e = = c1 e c1 eαt − c2 e−αt 1 −1 x2 (t) wie bereits angegeben. 2.50 Beispiel Wir betrachten das Differentialgleichungssystem x′1 (t) = 3x1 (t) + 2x2 (t) x′2 (t) = x1 (t) + 4x2 (t) 3 2 1 2 Dann ist A = . Für diese Matrix sind v1 = und v2 = Eigen1 4 1 −1 vektoren zu den Eigenwerten λ1 = 5 bzw. λ2 = 2 von A. Die allgemeine Lösung lautet daher 5t 2 c1 e + 2c2 e2t 1 2t 5t . = + c2 e γ(t) = c1 e c1 e5t − c2 e2t −1 1 54 Kapitel 2. Lineare Algebra II Nehmen wir nun an, A sei eine reelle 2 × 2-Matrix mit komplex konjugierten Eigenwerten s ± it (wobei t > 0 ist). Dann können wir analog zum eben beschriebenen Vorgehen Eigenvektoren über den komplexen Zahlen berechnen, daraus die komplexen Lösungen des Differentialgleichungssystems bilden und schliesslich zum Real- bzw. Imaginärteil übergehen, um reelle Lösungen zu erhalten. Wir wenden dies Verfahren jetzt auf das in der Einleitung angegebene Räuber-Beute-Modell an. 2.51 Beispiel Das Modell liess sich zurückführen auf das Systemzur Matrix A = 0 α 1 . Diese Matrix hat die komplexen Eigenvektoren v1 = zum Eigen−α 0 i 1 wert iα und v2 = zum Eigenwert −iα. Die komplexe Lösung des Differenti−i algleichungssystems lautet also z(t) 1 1 iαt −iαt = c̃1 e + c̃2 e . w(t) i −i Aus dem Real- und dem Imaginärteil lassen sich folgende reelle Lösungen zusammensetzen: cos(αt) sin(αt) γ(t) = c1 + c2 . − sin(αt) cos(αt) Mit c1 = c cos(ω) und c2 = −c sin(ω) wird daraus, wie bereits angegeben: c cos(αt + ω) γ(t) = . −c sin(αt + ω) Kapitel 3 Quadratische Formen und symmetrische Matrizen 3.1 Skalarprodukte und Normen Das übliche Skalarprodukt für Vektoren aus dem R2 ist folgendermassen erklärt: x x2 hv, wi = h 1 , i := x1 x2 + y1 y2 . y1 y2 x Die Länge eines Vektors v = , die hier mit ||v|| notiert wird, ist nach dem Satz y von Pythagoras gegeben durch: p ||v|| = x2 + y 2 . Die geometrische Bedeutung des Skalarprodukts ist folgende: hv, wi gibt die Länge der Projektion von v in Richtung von w, multipliziert mit der Länge von w an. Bezeichnet α den Winkel zwischen v und w, so gilt: hv, wi = ||v|| · ||w|| · cos α . Also ist hv, wi = 0 genau dann, wenn die Vektoren v und w senkrecht aufeinander stehen. Und es ergibt sich folgendes: 3.1 Satz (Cauchy-Schwarzsche Ungleichung) |hv, wi| ≤ ||v|| · ||w|| für alle v, w ∈ R2 . Gleichheit gilt genau dann, wenn v, w linear abhängig sind. Dieses “Standardskalarprodukt” ist das Vorbild für den folgenden Begriff: 3.2 Definition Ein Skalarprodukt auf einem reellen Vektorraum V ist eine Abbildung h , i: V × V → R mit folgenden Eigenschaften: (i) hv, vi ∈ R>0 für alle 0 6= v ∈ V ; h0, 0i = 0. (ii) hu, αv + βwi = αhu, vi + βhu, wi für alle u, v, w ∈ V , α, β ∈ R. (iii) hu, vi = hv, ui für alle u, v ∈ V . Jedes Skalarprodukt auf V liefert auch einen Längenbegriff auf V , eine sogenannte Norm, nämlich p ||v|| := hv, vi für alle v ∈ V . Wegen der Eigenschaft (i) ist dieser Ausdruck wohldefiniert. 56 Kapitel 3. Quadratische Formen und symmetrische Matrizen 3.3 Beispiele 1. Das Standardskalarprodukt auf Rn ist so erklärt: v1 w1 n X .. .. hv, wi = h . , vk wk . . i= k=1 vn wn Die Eigenschaften (i)-(iii) sind erfüllt, wie man direkt nachrechnen kann. Die dazugehörige Länge ist die vertraute euklidische Länge: q ||v|| = v12 + . . . + vn2 für alle v ∈ V . Für n = 1 stimmt || || mit dem Betrag überein. 2. Eine andere Möglichkeit, ein Skalarprodukt auf R2 zu erklären, ist zum Beispiel folgende: x x2 hv, wi = h 1 , i = 2x1 x2 + 3y1y2 . y1 y2 Auch hier sinddie Rechenregeln (i)-(iii) erfüllt, und die zugehörige Norm laup x tet hier || || = 2x2 + 3y 2. Man kann diese Art der Längenmessung so y verstehen, dass wir die x- und die y-Richtung jeweils neu skaliert haben. 3. Sei V der Vektorraum der stetigen, reellwertigen Funktionen auf dem abgeschlossenen Intervall [a, b]. Dann definiert auch folgende Vorschrift ein Skalarprodukt: Z b hf, gi := f (x)g(x)dx . a Die zugehörige Norm lautet: ||f || = s Z b f (x)2 dx . a Die Linearitätseigenschaft (ii) ergibt sich direkt aus der Linearität des Integrals und die Symmetrie (iii) ist offensichtlich. Für (i) ist es wichtig, dass es sich um stetige Funktionen handelt. Ist f ∈ C 0 [a, b], dann ist f 2 eine stetige Funktion mit f 2 (x) ≥ 0 für alle x. Eine nichtnegative, stetige Funktion kann nur dann als Integralwert Null liefern, wenn es sich um die Nullfunktion handelt. 3.4 Satz (Cauchy-Schwarzsche Ungleichung) für jedes Skalarprodukt auf V und die dazugehörige Norm gilt: |hv, wi| ≤ ||v|| · ||w|| für alle v, w ∈ V . Gleichheit gilt genau dann, wenn v, w linear abhängig sind. In Anlehnung an die geometrische Bedeutung des Standardskalarprodukts des R und R3 sagt man, zwei Vektoren u, v ∈ V seien senkrecht zueinander oder orthogonal , wenn hv, wi = 0. Dafür gibt es auch die Notation v ⊥ w. 2 3.1. Skalarprodukte und Normen 57 3.5 Definition Eine Basis (v1 , . . . , vn ) von V heisst Orthonormalbasis, falls vi ⊥ vj für alle i 6= j und ||vj || = 1 für alle j. Das heisst anders ausgedrückt: 0 für i 6= j . hvi , vj i = 1 für i = j Eine Orthonormalbasis liefert also ein rechtwinkliges Koordinatensystem. 3.6 Beispiele dukt. • Standardbasis (e1 , . . . , en ) für Rn mit dem Standardskalarpro- 1 • Die Basis des R gebildet aus v1 = und v2 = 1 bezogen auf das Standardskalarprodukt). √1 2 2 √1 2 −1 1 (wiederum Wenn man einen Vektor v ∈ V durch eine Orthonormalbasis ausdrücken möchte, muss man jeweils die Skalarprodukte von v mit den Basisvektoren bestimmen. Denn es gilt: 3.7 Bemerkung Ist (v1 , . . . , vn ) eine Orthonormalbasis von V , so gilt für jedes v ∈ V: n X hvj , vivj . v= j=1 Das Skalarprodukt hvj , vi gibt also jeweils die Projektion von v in Richtung von vj an. P P P Beweis. Ist v = nk=1 αk vk , so gilt hvj , vi = hvj , nk=1 αk vk i = nk=1 αk hvj , vk i = αj . Also stimmt hvj , vi mit dem (eindeutig bestimmten) Koeffizienten αj überein. q.e.d. 3.8 Satz Jeder endlichdimensionale reelle Vektorraum mit Skalarprodukt hat eine Orthonormalbasis. Beweis. Dazu startet man mit einer beliebigen Basis (u1 , . . . , un ) von V und konstruiert daraus rekursiv mithilfe des Orthonormalisierungsverfahrens eine Orthonormalbasis (v1 , . . . , vn ), und zwar so, dass für k = 1, . . . , n gilt: lin(v1 , . . . , vk ) = lin(u1 , . . . , uk ) . Den ersten Vektor v1 wählt man parallel zu u1 , aber auf Länge 1 normiert, also v1 := ||uu11 || . Um den zweiten Vektor v2 zu definieren, geht man aus von der Zerlegung von u2 in eine Komponente in Richtung von v1 und eine Komponente w von u2 senkrecht zu v1 . Da hv1 , u2 i die Länge der Projektion von u2 auf v1 bezeichnet, gilt: w = u2 − hv1 , u2 iv1 . Nun wählt man v2 parallel zu w, aber auf Länge 1 normiert, w also v2 := ||w|| . Der dritte Vektor v3 wird aus u3 konstruiert, indem man zunächst 58 Kapitel 3. Quadratische Formen und symmetrische Matrizen die Projektionen auf v1 und v2 abzieht und dann auf Länge 1 normiert, usw. Hier das Resultat: u2 − hv1 , u2 iv1 u1 , v2 := , v1 := ||u1|| ||u2 − hv1 , u2 iv1 || und für k = 3, . . . , n Pk−1 uk − j=1 hvj , uk ivj vk := . Pk−1 ||uk − j=1 hvj , uk ivj || Man kann direkt nachrechnen, dass (v1 , . . . , vn ) eine Orthonormalbasis ist. q.e.d. 3.9 Beispiel Sei V ⊂ R3 die Ebene, definiert durch die Gleichung 2x + 3y z = 0, − 1 zusammen mit dem von R3 geerbten Skalarprodukt. Die Vektoren u1 = 0 und 2 0 u2 = 1 aus V sind linear unabhängig, stehen aber nicht senkrecht aufeinander, 3 denn hu1 , u2 i = 6. Das Orthonormalisierungsverfahren, angewendet auf (u1, u2 ), liefert hier: 1 u1 1 v1 = =√ 0 . ||u1|| 5 2 −6 Weiter ist hv1 , u2i = √65 und daher u2 − hv1 , u2iv1 = 15 5 . Wir erhalten 3 −6 1 √ v2 = 5 . 70 3 Wie gewünscht, gelten hv1 , v2 i = 0 und ||v1 || = ||v2 || = 1. Also ist (v1 , v2 ) eine Orthonormalbasis für die Ebene V . 3.2 Hauptsatz über symmetrische Matrizen 3.10 Definition Unter der Transponierten einer Matrix A = (aij )1≤i,j≤n versteht man diejenige Matrix AT = (aji )1≤i,j≤n , die aus A durch Spiegeln der Einträge an der Hauptdiagonalen hervorgeht. Eine quadratische Matrix A heisst symmetrisch, wenn A = AT . 1 2 3 Die Transponierte der Matrix A = 4 6 8 lautet zum Beispiel AT = 11 13 17 1 4 11 1 2 3 2 6 13 . Die Matrix B = 2 6 4 ist symmetrisch. 3 8 17 3 4 8 3.2. Hauptsatz über symmetrische Matrizen 59 Es gilt der folgende wichtige Satz, den wir hier ohne Beweis angeben. 3.11 Hauptsatz Jede symmetrische reelle n × n-Matrix A ist diagonalisierbar, und es gibt sogar eine Orthonormalbasis des Rn (mit dem Standardskalarprodukt) aus Eigenvektoren von A. Anders gesagt: es gibt eine invertierbare Matrix S mit S −1 = S T , so dass S T AS Diagonalform hat. Die von den Eigenvektoren aufgespannten Geraden nennt man Hauptachsen von A, und die Koordinatentransformation auf die Orthonormalbasis aus Eigenvektoren heisst deshalb auch Hauptachsentransformation. 3.12 Bemerkung Sind die Vektoren v1 , . . . , vn in Rn linear unabhängig, so ist die aus den Spalten v1 , . . . , vn gebildete Matrix S bekanntlich invertierbar. Die Einträge der Produktmatrix S T S =: C geben die Skalarprodukte von Paaren von Vektoren an: cij = hvi , vj i für alle i, j. Also bilden die Vektoren v1 , . . . , vn genau dann eine Orthonormalbasis, wenn S T S = E ist, das heisst, wenn die Transponierte der Matrix S bereits ihre Inverse bildet. Eine solche Matrix S wird auch als orthogonal bezeichnet. Nun zunächst einige Beispiele zum Hauptsatz: 2 2 3.13 Beispiele 1. Die Matrix A = ist offenbar symmetrisch. Die Spur 2 5 dieser Matrix beträgt 7 und die Determinante ist 6. Die Eigenwerte von A sind alsoλ1 = 6 und λ2 = 1. Als zugehörige Eigenvektoren können wir wählen v1 = 1 2 √1 zu λ1 und v2 = √15 zu λ2 . Die Vektoren v1 , v2 sind so gewählt, 5 2 −1 dass sie Länge 1 haben, und sie stehen tatsächlich senkrecht aufeinander, denn hv1 , v2 i = 0. 3 2 2. Die Matrix B = ist nicht symmetrisch. B ist zwar ebenfalls diagonali1 4 sierbar, aber nicht durch Denn die Eigenrichtungen, eine Orthonormalbasis. 1 2 aufgespannt durch v1 = und v2 = , stehen nicht senkrecht aufein1 −1 ander. 3. Die ebene Spiegelung an der Gerade g, die den Winkel ϕ zur x-Achse bildet, wird beschrieben durch die Matrix cos(2ϕ) sin(2ϕ) . sin(2ϕ) − cos(2ϕ) Jede solche Matrix ist symmetrisch, und tatsächlich sind die Spiegelungsachse und die dazu senkrechte Gerade durch den Nullpunkt Eigenrichtungen der Spiegelung zu den Eigenwerten 1 bzw. −1. 60 Kapitel 3. Quadratische Formen und symmetrische Matrizen Wir werden uns hier darauf beschränken, eine Teilaussage des Hauptsatzes zu beweisen. Dazu zunächst eine Vorbemerkung zum Rechnen mit Transponierten: 3.14 Lemma Sei A eine Matrix vom Typ m × l und B eine Matrix vom Typ l × n. Dann gilt (AB)T = B T AT . Beweis. Bezeichne C = AB das Produkt der Matrizen A und B. Der Eintrag in der Zeile i und Spalte j von C wird berechnet, indem man die i-te Zeile von A komponentenweise mit der j-ten Spalte von B multipliziert und alles aufaddiert. Das heisst: l X aik bkj . cij = k=1 T Gehen wir über zur Transponierten C der Matrix C, dann rückt der Eintrag cij an die Stelle (j, i), also in die j-te Zeile und i-te Spalte. Vergleichen wir nun mit dem Matrizenprodukt D = B T AT . Der Eintrag dji wird berechnet, indem man die j-te Zeile von B T (d.h., die j-te Spalte von B) komponentenweise mit der i-ten Spalte von AT (also der i-ten Zeile von A) multipliziert und alles aufaddiert. Das heisst: dji = l X bkj aik = cij . k=1 Damit ist alles gezeigt. q.e.d. 3.15 Folgerung Sei A ∈ Mn×n (R) symmetrisch. Je zwei Eigenvektoren zu verschiedenen Eigenwerten von A stehen aufeinander senkrecht. Beweis. Angenommen, die Vektoren 0 6= v, w ∈ Rn sind Eigenvektoren von A zu den Eigenwerten λ 6= µ. Das heisst Av = λv und Aw = µw. Wir können das Standardskalarprodukt auf Rn auch in der Form hv, wi = v T · w schreiben, wobei mit · das Matrizenprodukt gemeint ist. Nun haben wir einerseits hAv, wi = λhv, wi, und andererseits mit der eben gezeigten Rechenregel hAv, wi = (Av)T w = v T AT w = v T (Aw) = hv, Awi = µhv, wi. Da λ 6= µ ist, muss also hv, wi = 0 sein. q.e.d.