Merke Spaltenvektoren: Bild der Basisvektoren Lineare Algebra Christian Schluchter, [email protected] Matrix Sei A : Rn → Rm linear. Die Basisvektoren e1 = (1, 0, ..., 0), e2 = (0, 1, 0, ..., 0), ..., en = (0, ..., 0, 1) ∈ Rn spannen den Raum Rn auf, d.h. jeder Vektor v ∈ Rn schreibt sich eindeutig als Linearkombination der Vektoren ei . Alle Spaltenvektoren nebeneinander zusammengefasst nennt man Matrix. 20. Februar 2008 Inhaltsverzeichnis 1 Begriffe 2 Matrizen für lineare Abbildungen 2.1 Rechenregeln . . . . . . . . . . . . . . . . . . . 2.1.1 Produkt zweier Matrizen . . . . . . . . 2.1.2 Inversion . . . . . . . . . . . . . . . . . 2.1.3 Gauss-Algorithmus . . . . . . . . . . . 2.2 Spezielle Matrizen . . . . . . . . . . . . . . . . 2.3 Eigenschaften . . . . . . . . . . . . . . . . . . . 2.3.1 Linearität . . . . . . . . . . . . . . . . . 2.3.2 lineare Abhängigkeit ⇔ det= 0 . . . . 2.3.3 Invertierbarkeit (Regularität)⇔ det , 0 2.3.4 Diagonalisierbarkeit . . . . . . . . . . 2.4 Folgerungen . . . . . . . . . . . . . . . . . . . 2.5 Rang und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 2 3 3 3 3 3 3 4 4 Determinante 3.1 Berechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Strategien . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Regeln . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Verhalten der Determinante unter Zeilenoperationen: 3.1.4 Spezielle Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 5 5 5 5 4 Norm 4.1 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 5 Vektorräume 5.1 Die Basis eines Vektorraums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Reelle Vektorräume und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 6 6 7 6 Lineare Gleichungssysteme 6.1 Lösbarkeit von Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 Koordinatentransformationen 7.1 Transformationsformeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Orthonormale Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 8 8 Eigenwertproblem 9 Systeme linearer Differentialgleichungen 9.1 Exponentialfunktion für Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 DGL Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.1 Rechenregeln 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A+B=B+A (A + B) + C = A + (B + C) (A + B)C = AC + BC A(B + C) = AB + AC Im · A = A · Im = A (AB)C = A(BC) (λA)B = A(λB) = λ(AB) (A + B)T = AT + BT ) (AB)T = BT AT Sind A und B invertierbar, so auch AB, es gilt: (AB)−1 = B−1 A−1 ! a ·A=A· a b b zur Kommutation a 0 von der Form C = CB! = BC gilt für alle Matrizen B, falls C 0 a 2.1.1 Produkt zweier Matrizen 8 10 10 10 Satz Das Produkt AB einer (m × n)-Matrix A = [aij ] und einer (n × p)Matrix B = [bij ] ist eine (m × p)-Matrix, deren Elemente cik wie folgt erhalten werden: 1 Begriffe Dimension Anzahl linear unabhängiger Vektoren (entspricht bei Matrix dem Rang) cik := n X aij b jk = ai1 b1k + ai2 b2k + ... + ain bnk j=1 Isomorphismus Die Abbildungen φ und ψ sind isomorph gdw φ und ψ sind zueinander invers und beide linear. oder elmik (AB) = rowi (A) nilpotent Eine Potenz einer Matrix ist 0. span a, b, ..., z Raum, von den Vektoren a bis z aufgespannt (diese Vektoren müssen nicht zwangsläufig lin. unabh. sein) · Ska.p. colk (B) Beispiele: a11 a21 Spur Summe der Diagonalelemente einer Matrix. Regel: spur (MN) = spur (NM) a12 a22 ! · b11 b21 b12 b22 ! = a11 b11 + a12 b21 a21 b11 + a22 b21 a11 b12 + a12 b22 a21 b12 + a22 b22 ! a c b d !2 = a2 + bc ca + dc ab + bc bc + d2 2.1.2 Inversion Vorgehen allgemeine Matrix: 2 Matrizen für lineare Abbildungen a 1. d g Merke Eine m × n-Matrix hat m Zeilen und n Spalten. b e h c f i 1 0 0 0 1 0 0 0 1 ∗ 2. Bringe die Matrix links auf Dreiecksform, oder die Form 0 0 1 ∗ ∗ ∗ 0 0 ∗ ∗ ∗ ∗ 1 3. Weiteres auflösen nach der Form 0 0 0 1 0 0 0 1 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ Satz Zu jeder Matrix M ∈ Rm×n existiert eine lineare Abbildung A : Rn → Rm mit Mat(A) = M Dreiecksmatrix 1 0 Bestimme die Inverse zu 0 0 1 0 a b c 1 0 1 d e 0 1 0 1 f 0 0 0 0 0 0 1 0 0 Umwandlung mit Gauss zu: ∗ ∗ 0 0 0 1 0 1 0 0 ∗ ∗ 0 ∗ ∗ 0 1 0 0 0 0 1 ∗ ∗ In diesem Beispiel: 1 −a 0 0 0 1 0 1 0 0 0 1 0 0 1 0 0 0 0 0 0 0 0 1 a 1 0 0 0 0 1 0 ∗ ∗ ∗ ∗ b d 1 0 0 0 0 1 ∗ ∗ ∗ ∗ c e f 1 b d 0 b 0 d b a b Merke Die Summe zweier linearer Funktionen ist wieder eine lineare Funktion. Das Produkt einer linearen Funktion mit einer Konstanten ist wieder eine lineare Funktion. → Die Menge aller linearen Funktionen ist ein UVR. −b + ad −d 1 0 spezielle Matrizen ! a b 1 A= → A−1 = det(A) c d 1 0 0 0 a 0 −1 A = → A = 0 0 1 1 0 b 0 a 0 −1 A = → A = 0 0 1 a A = c 0 a A = 0 c a b A = b b f − ad f − c + ae −e + d f −f 1 d −c 1 0 0 1 0 0 d 0 −c 1 0 → A−1 = det(A) e 0 d 0 1 −c e → A−1 = det(A) 0 0 b c −1 b → Ansatz : A = d d a 1 a 0 0 1 0 2.3.2 lineare Abhängigkeit ⇔ det= 0 linear abhängig Die Vektoren v1 , v2 , ..., vn ∈ V sind linear abhängig, falls es Zahlen λ1 , λ2 , ..., λn ∈ R gibt, nicht alle 0, so dass λ1 v1 + λ2 v2 + ... + λn vn = 0. ! −b a 0 0 0 1 −b 0 1 −b a 0 0 0 Merke Ist die Anzahl Vektoren grösser als deren Dimension, sind sie linear abhängig. det(A) e −b a det(A) 0 e d d c d d c 0 0 Merke Zum testen der linearen Abhängigkeit von Vektoren, schreibe sie als Zeilenvektoren in eine Matrix und wende das Gaussverfahren an oder berechne die Determinante. Entsteht eine 0-Zeile, oder ist die Determinante =0, sind sie linear abhängig. 2.3.3 Invertierbarkeit (Regularität)⇔ det , 0 2.1.3 Gauss-Algorithmus Satz erlaubte Operationen • Multiplikation einer Zeile mit einer Zahl 1. Alle Elementarmatrizen sind invertierbar. • Vertauschen von Zeilen (nicht aber Spalten) 2. Jede invertierbare Matrix A ∈ Rn×n ist ein Produkt von Elementarmatrizen. • Vielfaches einer Zeile zu einer anderen addieren 3. A ist invertierbar, wenn der Rang(A) = n (d.h. wenn A regulär ist ⇔ det(A) , 0). 2.2 Spezielle Matrizen Spiegelung SG an der Geraden y = ba x MSG = cos(2α) sin(2α) sin(2α) − cos(2α) ! α = arctan a b Merke Eine reguläre Matrix ist invertierbar. Eine nicht invertierbare Matrix heisst singulär. Drehung Dα um 0 mit Drehwinkel α MDα = cos(α) sin(α) − sin(α) cos(α) 2.3.4 Diagonalisierbarkeit ! diagonalisierbar Eine Matrix M ∈ Rn×n heisst diagonalisierbar, falls eine invertierbare Matrix T ∈ Rn×n existiert, so dass T−1 · M · T Diagonalform hat. Es gibt eine Basis aus EV (Eigenbasis). 2.3 Eigenschaften 2.3.1 Linearität Folgerungen: • Zwei Abbildungsmatrizen einer linearen Abbildung A : V → V sind immer konjugiert. lineare Abbildung Eine Abbildung A : Rn → Rm heisst linear, falls gilt: A(p + tv) = A(p) + tA(v) ∀p, v ∈ Rn , t ∈ R Es muss gelten A(0) = 0. • Eine reelle, symmetrische Matrix ist diagonalisierbar. 2 Satz Eine Matrix A ∈ Rn×n /Cn×n ist genau dann über R/C diagonalisierbar, wenn Dimensionsformel Es sei A eine (m × n)−Matrix und L0 der Lösungsraum des homogenen Gleichungssystems Ax = 0 (der Kern). Dann gilt 1. χA (t) n reelle Nullstellen hat dim L0 = n − rang A 2. Die Eigenräume Eλ (Menge der EV zu λ) haben als Dimension die Vielfachheit der Nullstelle λ Merke Abb. A : V → W mit (m × n)-Matrix Merke Quadrieren einer Diagonalmatrix quadriert die Diagonalmatrixeinträge: !2 ! a 0 a2 0 = 0 b 0 b2 dim V = n dim W = m dim(im A) = rang A ≤ m Bsp Abbildung A : R3 → R2 ⇒ dim A = 3 L0 = z − Achse (wird auf 0 abgebildet) Merke λ1 λ2 .. . λn λ a 1 11 λ a 2 21 = .. . λn an1 a 11 a 21 . . . an1 λ1 a12 λ2 a22 .. . λn an2 ... ... ... ... ... ... λ1 a1p λ2 a2p .. . λn anp a1p a2p .. . anp n = 3; dim L0 = 1 ⇒ dim Bild = 2 3 Determinante Satz Seien A, B ∈ Rn×n (Determinante nur für quadratische Matrizen definiert). 1. A ist singulär ⇔ det (A) = 0 2.4 Folgerungen 2. Es gilt det(AB) = det(A)det(B) ∀A, B. A symmetrisch (A = AT ) . • alle EW sind reell • es existiert eine Orthonormalbasis von EV 3.1 Berechnung A orthogonal (AT = A−1 ) . 3.1.1 Strategien • Abb. ist längentreu • die Spalten von A bilden eine orthonormale Basis in Rn • Überprüfe lineare Abhängigkeit, dann det=0 A, B schiefsymmetrisch (antisymmetrisch) . • Umformen zu Kästchenform, dann Produkt der Determinanten der Kästchen • Ai,j = −A j,i • 0 −a −b a 0 −c b c 0 • Umformen zu Dreiecksmatrix, dann Produkt der Diagonalelemente det(A) , 0 . • • • • • • • • Auflösen nach Zeilen/Spalten A ist invertierbar, also regulär Rang(A)=Anzahl Zeilen von A alle Vektoren der Matrix sind linear unabhängig (A−1 )−1 = A (AT )−1 = (A−1 )T Ax = b für jedes b eindeutig lösbar Ax = 0 hat nur triviale Lösung x = 0 3.1.2 Regeln A : (n × n)-Matrix det(−A) = (−1)n det(A) det(λA) = λn det(A) det(AB) = det(A)det(B) 2.5 Rang und Dimension det(A−1 ) = 1 det(A) det(A + B) , det(A) + det(B) Satz Ist eine (m × n)−Matrix gegeben, so spannen die m Zeilenvektoren einen Unterraum Z von Rn auf, den Zeilenraum von A, und die n Kolonnenvektoren einen Unterraum K von Rn , den Kolonnenraum. Z und K besitzen dieselbe Dimension, den Rang der Matrix A. det(A) = det(AT ) für A schiefsymmetrisch, mit n ungerade: det= 0 3 4 Norm Determinante = Produkt der Diagonalele- Dreiecksmatrizen mente euklidsche Norm ||x||2 := p x1 2 + x2 2 + x3 2 Maximumsnorm ||x||∞ :=max(|x1 |, |x2 |, |x3 |) Norm einer Funktion || f || :=max| f (x)| Kästchenform Hat die Matrix A Kästchenform mit quadratischen Teilmatrizen A1 und A2 : [A1 ] 0 A= so gilt 0 [A2 ] Lp -Norm ||x||2 := 4.1 Rechenregeln ||v|| ≥= 0 ||v|| = 0 ⇔ v = 0 ||a + b|| ≤ ||a|| + ||b|| ||λa|| = |λ| ||a|| x, y orthogonal: ||x + y||2 = ||x||2 + ||y||2 = ||x − y||2 ! a c b d ! 2 × 2-Matrix det 5 Vektorräume Beispiel für 3 × 3-Matrix c i +gdet x1 2 + x2 2 + x3 2 ! detA = detA1 · detA2 Auflösen nach Spalten + b− c+ a e f = det d− + g h i ! e f b adet −ddet h i h p p b e Körper Ein Körper ist eine Menge mit Addition und Multiplikation und zu k ∈ K ∃ − k zu k ∈ K mit k , 0 ∃ k−1 (k · k−1 = 1). ! c f = ad − bc Vektorraum Ein Vektorraum über einem Körper R (C) ist eine Menge V auf welcher eine Addition + : V×V → V und eine skalare Multiplikation · : R × V → V existieren und es gelten folgende Bedingungen: ∀v, w, u ∈ V, α ∈ R 1. v + w = w + v (u + v) + w = u + (v + w) 3.1.3 Verhalten der Determinante unter Zeilenoperationen: 2. Es existiert ein Element 0 ∈ V, so dass 0 + v = v Zeilen-/Spaltentausch: Die det ändert Vorzeichen. 3. Zu jedem v ∈ V existiert ein additiv Inverses ”−v”. v + (−v) = 0 Multiplikation einer Zeile mit λ: det multiplizert sich mit λ. Add. des Vielfachen einer Zeile zu einer anderen: det bleibt 4. α(x + y) = αx + αy, (α + β)x = αx + βx (αβ)x = α(βx), 1 · x = x 3.1.4 Spezielle Determinanten Vandermonde-Determinante V(λ1 , ..., λn ) := det 1 λ1 λ1 2 .. . λ1 n−1 1 λ2 λ2 2 .. . λ2 n−1 ... 1 λn λn 2 .. . λn n−1 Unterraum Eine Teilmenge U eines Vektorraums V heisst ein Unterraum (Untervektorraum UVR) von V, wenn U bezüglich der in V erklärten Operationen abgeschlossen ist, das heisst: Für beliebige x, y ∈ U, λ ∈ R müssen x + y und λx wieder in U liegen. 5.1 Die Basis eines Vektorraums Es gilt V(λ1 , ..., λn ) = Y Basis Ein linear unabhängiges Erzeugendensystem eines Vektorraums V heisst eine Basis von V. Ist (b1 , b2 , ..., bn ) eine Basis des Vektorraums V, so besitzt jeder Vektor x ∈ V eine Darstellung (λ j − λi ) i<j Bsp. V(λ1 , λ2 , λ3 ) = det 1 λ1 λ1 2 1 λ2 λ2 2 1 λ3 λ3 2 = (λ2 − λ1 )(λ3 − λ1 )(λ3 − λ2 ) Insbesondere ist genau dann V(λ1 , ..., λn ) = 0, wenn zwei λi übereinstimmen. x = ξ1 b1 + ξ2 b2 + ... + ξn bn = n X k=1 mit eindeutig bestimmten Koeffizienten ξk . 4 ξk bk Satz Alle Basen eines endlich erzeugten Vektorraums V bestehen aus derselben Anzahl Vektoren. Satz 1. Ein reguläres System A · x = c ist für jedes c ∈ R eindeutig lösbar. 2. Ein singuläres n × n -System ist nicht immer lösbar. Es hat für gewisse rechte Seiten c keine Lösung, für andere unendlich viele. Es gilt jedoch L0 , ∅, sogar dim(L0 ) ≥ 1. Satz Jede Menge linear unabhängiger Vektoren in V lassen sich zu einer Basis von V ergänzen. 6.1 Lösbarkeit von Systemen Merke Um einen linear unabhängigen Vektor v zu finden, suche senkrechten Vektor. Dazu schreibe die vorhandenen Vektoren als Zeilen in eine Matrix A. Das Gleichungssystem Av = 0 liefert v. 5.2 Reelle Vektorräume und lineare Abbildungen Bsp Für welche a, b, c, d ist ax3 + bx2 + cx + d Linearkombination von x3 , (x + 1)3 , (x + 2)3 ? reeller Vektorraum Rn mit komponentenweiser Addition und Streckung mit reellen Zahlen heisst reeller Vektorraum. ax3 + bx2 + cx + d hat dim= 4 ex3 + f (x + 1)3 + g(x + 2)3 hat dim= 3 a, b, c oder d ist also frei wählbar! Merke Eine Abbildung A : V → V ist regulär, wenn sie den Rang n hat, sonst singulär 7 Koordinatentransformationen 7.1 Transformationsformeln Satz Es seien V , W zwei endlich-dim. Vektorräume, A : V → W linear. Dann existieren zwei Basen v und w von V und W, so dass die Abbildungsmatrix Matv,w (A) folgende Form hat: v,w Mat (A) = | 1 0 .. . | 0 .. . {z ... 1 } r {z 0 ... .. . . . . | {z } k 0 Transformationsmatrix Tv,v = (tij ) ∈ Rn×n ist eine Transfor0 mationsmatrix. Es gilt also: v0 = v · Tv,v Merke In den Kolonnen von T stehen die alten Koordinaten der neuen Basisvektoren. } n=r+k Hier ist r = Rang(A), Merke Für eine zulässige Koordinatentransformation muss die Inverse T−1 zu T existieren. k =dim(Kern(A)) Merke Die Spur einer Matrix ist invariant unter Basistransformation. 6 Lineare Gleichungssysteme Merke Ein Punkt x = (x1 , ..., xn ) kann geschrieben werden als Kern Lösungsmenge des homogenen Gleichungssystems Ax = 0 L0 = Kern(A) = {v ∈ Rn | A(v) = 0}L0 ist ein UVR in Rn x= n X xi ei i=1 bzw. in neuen Koordinaten Satz Ein homohenes Gl.System hat nicht triviale Lösungen gdw r < n. Wobei r: Rang und n: Anzahl Zeilen x= n X k=1 5 x0k e0k Es folgt xi = n X tik x0k Merke : Alternative chp Berechnung 2 × 2-Matrix pA (λ) = λ2 − tr(A)λ + det(A) (1 ≤ i ≤ n) k=1 In Matrizenform 3 × 3-Matrix 0 x=T·x Satz 0 0 Transformationsformel für Matrizen Matv ,v (A) 0 v,v v,v Mat (A) · T 0 0 (Tv,v = T; Tv ,v = T−1 ) pA (λ) = λ3 − tr(A)λ2 + (det(A1 ) + det(A2 ) + det(A3 ))λ − det(A) = 0 Tv ,v · Merke • Jeder Vektor e , 0 ist EV zum EW 0. Ist kern A = {0}(d.h. A ist regulär), so ist 0 kein EW von A. 7.2 Orthonormale Basen • Die Summe der Diagonaleinträge (die Spur) jeder Matrix ist gleich der Summe der EW. • Wenn Eigenvektoren die Spalten von einer Matrix T sind, bildet T Vektoren in der neuen Basis auf Vektoren in der alten Basis ab. Merke Ist die neue Basis ebenfalls orthonormal, ist T orthogonal, es gilt T−1 = TT • Nullvektor ist nie ein EV, Null kann aber ein EW sein. • Bei einer Diagonalmatrix sind EW gerade die Diagonalelemente −→ det ist Produkt der EW konjugiert Zwei quadratische Matrizen M0 und M ∈ Rn×n heissen konjugiert, falls eine invertierbare Matrix T ∈ Rn×n existiert mit M0 = T−1 MT Satz A reell, symmetrisch, dann gilt: Zwei konjugierte Matrizen beschreiben die gleiche Abbildung mit einer anderen Basis. • A ist diagonalisierbar Bedingung für konjugiert: gleicher Rang • Es gibt eine orthonormale Eigenbasis zu A • Es gibt eine orthogonale Matrix T, sodass T−1 AT = TT AT diagonal ist. In der Diagonalen stehen die EW von A, Spalten von T sind normierte EV von A. 8 Eigenwertproblem • EV von versch. EW stehen senkrecht aufeinander Definitionen Eigenvektor, Eigenwert Ein Vektor e , 0, für den mit einem geeigneten λ ∈ R gilt Ae = λe, heisst ein Eigenvektor der Abbildung A; die betreffende Zahl λ ist der zugehörige Eigenwert von A. Satz Zu verschiedenen EW gehörende EV sind linear unabhängig. Eigenvektoren ändern durch die Multiplikation mit der zugehörigen Matrix ihre Wirkungslinie nicht. λ0 ist EW zu EV v Berechnung der EV zu EW: Satz über symmetrische Matrizen Ist A ∈ Rn×n eine symmetrische Matrix mit Eigenwerten λ1 , ..., λn , so gilt: ⇔ f (v) = λ0 · v ⇔ det( f − λ0 Id ) = 0 1. Alle EW sind reell. ⇒ (A − λ0 Id )v = 0 2. EV, die zu verschiedenen EW gehören, stehen aufeinander senkrecht. geometrische Vielfachheit Anzahl der frei wählbaren Parameter eines EV. 3. Es gibt eine orthonormale Basis (e01 , ..., e0n ) von Rn mit α − β 1 −1 β Beispiel: u = = α 0 + β 1 α 1 0 → geom.Vielfachheit 2 A0 = diag(λ1 , ..., λn ) Eigenraum Der Eigenraum Eλ zum EW λ enthält sämtliche EV zum EW λ. Eλ := {x ∈ V|Ax = λx} 4. Es gibt eine orthogonale Matrix T mit A = T · diag(λ1 , ..., λn ) · T0 6 3. Berechne Berechnung von Ak 2. T = (EV1 , EV2 , ...), D EW1 = 0 0 . . . EWn 3. Ak = (T−1 DT)k = T−1 Dk T 9 Systeme linearer Differentialgleichungen . 0 0 1 0 0 1 0 . . . . . .. 0 −a0 0 −a1 ... ... 0 0 .. . 0 ... ... 1 −an−1 = = x0 x 1 . . . x n−1 . . 0 y (t) y00 (t) .. . (n) y (t) = x1 (t) .. . xn−1 (t) −an−1 xn−1 − an−2 xn−2 − ... − a0 x −λ 0 = 0 −a0 Exponentialfunktion Unter der Exponentialfunktion für die 2 3 Matrix M ∈ Rn×n verstehen wir eM = 1 + M + M2! + M3! + ... .. 4. Zur Berechnung von etA müssen wir die EW von A bestimmen. Berechne χA (λ) = chp(λ) = det(A − λId ) 9.1 Exponentialfunktion für Matrizen λ1 Merke Falls A = 0 tλ 0 e 1 .. . tλ 0 e n = d dt x(t) 1. EW und EV berechnen x00 (t) x01 (t) .. . x0n−1 (t) 1 −λ 0 1 0 . . . . . 0 −a1 ... ... . . ... ... 0 0 . . . . . −λ 1 −an−1 − λ = Entwicklung nach letzter Zeile n a1 λ + a0 )(−1) 0 diagonal ist, dann gilt etA = λn (λn + an−1 λn−1 + ... + Alternative zur direkten Berechnung von etA 1. Bestimme die EW von A: λ1 − λn 2. Bestimme die zugehörigen EV: v1 − vn Merke Falls AN = 0 ist, dann gilt etA = 1 + tA + (tA)2 2! + ... + 3. Dann bilden die Vektoren eλ1 t v1 −eλn t vn die Lösungsmatrix. (tA)N−1 (N−1)! λ 0 e 1 −1 −1 .. eTDT = T T . λ n 0 e Allgemein: Falls A diagonalisierbar ist, d.h. es existiert T ∈ Rn×n mit −1 T−1 AT = D = diagonal , dann gilt: etA = et(TDT ) = TetD T−1 . Hauptsatz Sei A ∈ Rn×n eine quadratische Matrix, dann bilden die Spalten der Matrix etA eine Basis für den Lösungsraum der Diff.-gleichung x0 = Ax(t). 9.2 DGL Lösung Satz aus Analysis Die Lösungen der DGL y(n) + ... + a0 y = 0 sind von der Form y(t) = b1 eλ1 t + b2 eλ2 t + ... + bn eλn t , wobei die λi Nullstellen von χA (λ) sind. Falls ein λi zu hohe Multiplizität hat (grosse Vielfachheit), dann muss man noch die Ausdrücke der Form teλi t , t2 eλi t ,etc. dazunehmen. Wie bringe ich die DGL y(n) + an−1 y(n−1) + ... + a0 y in die Form d dt x(t) = Ax(t)? 1. Setze x0 (t) = y(t), x1 (t) = y0 (t), ..., xn−1 (t) = y(n−1) (t) 2. Fasse diese Koordinaten zu einem Vektor x(t) = x0 (t) x1 (t) .. . xn−1 (t) 7