Kapitel 4 Lineare Differentialgleichungen 4.1 Lineare Systeme mit variablen Koeffizienten 4.2 Die Matrix–Exponentialfunktion 4.3 Lineare System mit konstanten Koeffizienten 4.4 Lineare Differentialgleichungen höherer Ordnung 4.5 Lineare Differentialgleichungen mit analytischen Koeffizienten 4.6 Die Laplace–Transformation 4.1 Lineare Systeme mit variablen Koeffizienten Wir betrachten in diesem Abschnitt Differentialgleichungssysteme der Gestalt y 0 = A(t)y + g(t) (4.1) mit stetigen Funktionen A : I → Rn×n und g : I → Rn auf einem offenen Intervall I ⊆ R. Man bezeichnet (4.1) als ein lineares Differentialgleichungssystem. Im Falle g ≡ 0 spricht man von einem homogenen linearen Differentialgleichungssystem, anderenfalls von einem inhomogenen linearen Differentialgleichungssystem. Wir beweisen zunächst einen Existenz– und Eindeutigkeitssatz. Satz 4.1 Gegeben seien ein offenes Intervall I und ein lineares Differentialgleichungssystem y 0 (t) = A(t)y(t) + g(t) mit stetigen Funktionen A : I → Rn×n und g : I → Rn . Dann gibt es zu jedem Paar (t0 , y0 ) ∈ I × Rn genau eine auf ganz I definierte Lösung y des zugehörigen Anfangswertproblems. Beweis: Wir setzen f (t, y) := A(t)y + g(t) für die rechte Seite der linearen Differentialgleichung. Der Beweis erfolgt nun weitgehend analog zu dem des Satzes 3.9 von Picard–Lindelöf. 73 74 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Zu diesem Zweck wählen wir zunächst ein kompaktes Teilintervall J ⊆ I. Aus Stetigkeitsgründen existiert dann die Zahl L := max kA(t)k t ∈ J}. Hiermit erhält man für alle t ∈ J und alle y, ỹ ∈ Rn unter Verwendung des Lemmas 3.5 die Abschätzung f (t, y) − f (t, ỹ) = A(t)(y − ỹ) ≤ kA(t)k ky − ỹk ≤ Lky − ỹk, so dass f einer Lipschitz–Bedingung bezüglich y genügt. Wegen Satz 3.11 kann es daher höchstens eine Lösung für ein gegebenes Anfangswertproblem bei linearen Differentialgleichungssystemen geben. Zum Nachweis der Existenz benutzen wir zu einem gegebenen Anfangswert y(t0 ) = y0 wieder die zugehörigen Picard–Iterierten y0 (t) := y0 , yk+1 (t) := y0 + Z t t0 f τ, yk (τ ) dτ für k = 0, 1, . . . Da unsere spezielle rechte Seite f für alle y ∈ Rn definiert ist, kann der Schritt 1 aus dem Beweis des Satzes 3.9 hier entfallen. Die Rolle der Konstanten M im Satz 3.9 übernimmt jetzt die Konstante K := max ky1 (t) − y0 (t)k t ∈ J . Durch vollständige Induktion zeigt man wie im Schritt 2 des Beweises von Satz 3.9 die Gültigkeit der Ungleichung k yk+1 (t) − yk (t) ≤ KLk |t − t0 | k! (4.2) für alle k ∈ N0 . Hieraus folgt wiederum die gleichmäßige Konvergenz der Funktionenfolge {yk } auf dem Intervall J gegen eine (dann automatisch stetige) Grenzfunktion y∗ , vergleiche den Schritt 3 im Beweis des Satzes 3.9. Wie im Schritt 4 desselben Beweises erhält man schließlich, dass diese Grenzfunktion y∗ eine Lösung der gegebenen Anfangswertaufgabe auf dem kompakten Intervall J ist. Da es zu jedem t ∈ I ein kompaktes Intervall J ⊆ I mit t, t0 ∈ J gibt, folgt aus der gerade bewiesenen Existenz und Eindeutigkeit einer Lösung auf J auch die Existenz und Eindeutigkeit auf dem gesamten Intervall I. 2 Wir vernachlässigen im Folgenden die Anfangsbedingung und untersuchen die Struktur der allgemeinen Lösung des linearen Systems (4.1). Dazu unterscheiden wir den homogenen und inhomogenen Fall und setzen Lhom := y : I → Rn y löst y 0 = A(t)y 4.1. LINEARE SYSTEME MIT VARIABLEN KOEFFIZIENTEN sowie 75 Linhom := y : I → Rn y löst y 0 = A(t)y + g(t) . Dann gilt zunächst das folgende Resultat. Lemma 4.2 Die Menge Lhom bildet einen Vektorraum. Beweis: Offenbar ist Lhom eine Teilmenge des Vektorraums aller differenzierbaren Funktionen von I in Rn . Zum Beweis der Behauptung brauchen wir daher nur die Kriterien für einen Teilraum zu verifizieren: • Es ist offenbar 0 ∈ Lhom . • Mit y1 , y2 ∈ Lhom ist auch y1 + y2 ∈ Lhom wegen (y1 + y2 )0 = y10 + y20 = A(t)y1 + A(t)y2 = A(t)(y1 + y2 ). • Mit y ∈ Lhom und α ∈ R ist auch αy ∈ Lhom wegen (αy)0 = αy 0 = αA(t)y = A(t)(αy). Damit ist das Lemma auch schon bewiesen. 2 Wir wollen uns als Nächstes die Dimension des Lösungsraums Lhom überlegen. Dazu sei daran erinnert, dass gegebene Funktionen ϕ1 , . . . , ϕk : I → Rn linear unabhängig sind, wenn die folgende Implikation gilt: α1 ϕ1 + . . . + α k ϕk = 0 =⇒ αi = 0 ∀i = 1, . . . , k. Ausführlich lässt sich dies auch schreiben als α1 ϕ1 (t) + . . . + αk ϕk (t) = 0 ∀t ∈ I =⇒ αi = 0 ∀i = 1, . . . , k. In dieser Formulierung wird auch deutlich, dass das Intervall I eine Rolle spielt. Handelt es sich bei den Funktionen ϕ1 , . . . , ϕk speziell um Lösungen des homogenen linearen Differentialgleichungssystems zu (4.1), so gilt die folgende starke Charakterisierung der linearen Unabhängigkeit, die für beliebige Funktionen ϕ1 , . . . , ϕk im Allgemeinen nicht richtig ist. Lemma 4.3 Seien y1 , . . . , yk ∈ Lhom Lösungen des homogenen Systems y 0 = A(t)y. Dann sind die folgenden Aussagen äquivalent: (a) y1 , . . . , yk sind linear unabhängig. (b) Es existiert ein t0 ∈ I derart, dass die Vektoren y1 (t0 ), . . . , yk (t0 ) ∈ Rn linear unabhängig sind. (c) Für jedes t ∈ I sind die Vektoren y1 (t), . . . , yk (t) ∈ Rn linear unabhängig. 76 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Beweis: Die Implikationen (c) =⇒ (b) =⇒ (a) sind klar. Also ist nur noch die Richtung (a) =⇒ (c) zu zeigen. Seien daher y1 , . . . , yk linear unabhängig und t ∈ I beliebig. Angenommen, die Vektoren y1 (t), . . . , yk (t) wären linear abhängig. Dann gibt es Koeffizienten α1 , . . . , αk ∈ R, die nicht alle gleich Null sind, mit α1 y1 (t) + . . . + αk yk (t) = 0. Wegen Lemma 4.2 ist y := α1 y1 + . . . + αk yk ∈ Lhom . Außerdem gilt y(t) = 0. Also ist y eine Lösung des Anfangswertproblems y 0 = A(t)y, y(t) = 0. Dieses hat aber auch die triviale Lösung z ≡ 0. Wegen der Eindeutigkeit der Lösung gemäß Satz 4.1 ist dann y ≡ z ≡ 0. Also sind die Funktionen y1 , . . . , yk linear abhängig, Widerspruch. 2 Nach diesen Vorbereitungen können wir jetzt die Dimension des Lösungsraums Lhom angeben. Satz 4.4 (a) Lhom ist ein n-dimensionaler Vektorraum. (b) Linhom = yp + Lhom ist ein affiner Raum, wobei yp eine partikuläre Lösung des inhomogenen Systems (4.1) bezeichnet. Beweis: (a) Seien b1 , . . . , bn ∈ Rn eine Basis des Rn . Wegen Satz 4.1 gibt es dann zu einem fest gewählten t0 ∈ I eindeutig bestimmte Lösungen yi des Anfangswertproblems y 0 = A(t)y, y(t0 ) = bi . Wegen Lemma 4.3 sind diese Lösungen linear unabhängig, woraus dim Lhom ≥ n folgt. Andererseits ist dim Lhom ≤ n, denn gäbe es n + 1 linear unabhängige Lösungen y1 , . . . , yn+1 , so müssten die Vektoren y1 (t0 ), . . . , yn+1 (t0 ) ∈ Rn wegen Lemma 4.3 linear unabhängig sein, was wegen dim Rn = n nicht sein kann. (b) Sei yp eine beliebige partikuläre Lösung des inhomogenen Systems y 0 = A(t)y+g(t). Wir zeigen zunächst die Inklusion Linhom ⊆ yp + Lhom . Sei dazu yq ∈ Linhom beliebig gegeben. Setze y := yp − yq . Dann gilt y 0 = yp0 − yq0 = (Ayp + g) − (Ayq + g) = A(yp − yq ) = Ay, also y ∈ Lhom . Wegen yq = yp − y folgt yq ∈ yp + Lhom , denn mit y gehört auch −y zu Lhom . Als Nächstes verifizieren wir die Inklusion yp + Lhom ⊆ Linhom . Sei dazu yq ∈ yp + Lhom beliebig gewählt. Dann existiert ein y ∈ Lhom mit yq = yp + y. Folglich ist yq0 = yp0 + y 0 = (Ayp + g) + Ay = A(yp + y) + g = Ayq + g und yq somit eine Lösung des inhomogenen Systems. Der Satz 4.4 motiviert die folgende Definition. 2 4.1. LINEARE SYSTEME MIT VARIABLEN KOEFFIZIENTEN 77 Definition 4.5 Unter einem Fundamentalsystem der Differentialgleichung y 0 = A(t)y versteht man eine Basis y1 , . . . , yn des Lösungsraums Lhom . Seien nun y1 , . . . , yn ∈ Lhom insgesamt n (nicht notwendig linear unabhängige) Lösungen von y 0 = A(t)y. Mittels dieser Lösungen definieren wir die Matrix | | Y (t) := y1 (t) . . . yn (t) ∈ Rn×n für jedes t ∈ I. (4.3) | | Die zugehörige Determinante w(t) := det Y (t) , t ∈ I, heißt Wronski–Determinante der gegebenen Lösungen y1 , . . . , yn . Diese liefert ein recht einfaches Kriterium dafür, ob diese Lösungen linear unabhängig sind. Satz 4.6 Für die Wronski–Determinante gelten die folgenden Aussagen: (a) Es ist w(t) ≡ 0 für alle t ∈ I genau dann, wenn die Lösungen y1 , . . . , yn ∈ Lhom linear abhängig sind. (b) Es ist w(t) 6= 0 für alle t ∈ I genau dann, wenn die Lösungen y1 , . . . , yn ∈ Lhom linear unabhängig sind. Insbesondere ist die Wronski–Determinante entweder identisch Null, oder sie verschwindet für kein einziges t ∈ I. Beweis: Die Aussagen folgen unmittelbar aus dem Lemma 4.3, indem man dort speziell k = n wählt. 2 Die in (4.3) definierte Matrix Y (t) ist im Folgenden von zentraler Bedeutung und erhält daher nun einen eigenen Namen für den Fall, dass die Lösungen y1 , . . . , yn linear unabhängig sind, also ein Fundamentalsystem von y 0 = A(t)y bilden. Definition 4.7 Bilden die Funktionen y1 , . . . , yn ein Fundamentalsystem der Differentialgleichung y 0 = A(t)y, so bezeichnet man die hiermit definierte Matrix Y (t) aus (4.3) als die zugehörige Fundamentalmatrix dieses Fundamentalsystems. Die Berechnung einer Determinante ist im Allgemeinen recht aufwändig, im Falle der Wronski–Determinante ist jedoch das folgende Resultat manchmal hilfreich. Satz 4.8 ( Formel von Liouville ) Die Wronski–Determinante w(t) von n linear unabhängigen Lösungen des homogenen Systems y 0 = A(t)y genügt der skalaren linearen Differentialgleichung w 0 = Spur A(t) w. 78 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Sie besitzt daher die Darstellung w(t) = w(t0 )e Rt t0 SpurA(s)ds für alle t, t0 ∈ I. Beweis: Seien y1 , . . . , yn linear unabhängige Lösungen von y 0 = A(t)y und Y (t) die zugehörige Fundamentalmatrix. Aus der Leibniz–Darstellung einer Determinante folgt dann (Beweis als Aufgabe) n 0 X det Y (t) = det y1 (t), . . . , yk−1 (t), yk0 (t), yk+1 (t), . . . , yn (t) . k=1 Setze nun B(t) := Y (t)−1 A(t)Y (t), wobei wir natürlich ausgenutzt haben, dass Y (t) stets regulär ist. Dann gilt Y 0 (t) = A(t)Y (t) = Y (t)B(t). (4.4) Bezeichnen wir die k-te Spalte von B(t) mit bk (t) und die Elemente dieser Matrix mit bik (t), so ergibt sich aus (4.4) durch Vergleich der k-ten Spalten die Identität yk0 (t) = Y (t)bk (t) = n X bik (t)yi (t). i=1 Mit (??) und der Linearität der Determinante in jeder Spalte erhalten wir deshalb 0 w 0 (t) = det Y (t) n X = det y1 (t), . . . , yk0 (t), . . . , yn (t) = = k=1 n X n X bik (t) det y1 (t), . . . , yi (t), . . . , yn (t) k=1 i=1 n X bkk (t) det y1 (t), . . . , yk (t), . . . , yn (t) k=1 = n X bkk (t) det Y (t) k=1 = Spur B(t) det Y (t) = Spur A(t) w(t), denn ähnliche Matrizen haben dieselbe Spur. Außerdem haben wir hierbei ausgenutzt, dass die Determinante einer Matrix verschwindet, sobald diese Matrix zwei gleiche Spaltenvektoren besitzt und somit singulär ist. 4.1. LINEARE SYSTEME MIT VARIABLEN KOEFFIZIENTEN 79 Also genügt w(t) einer skalaren linearen Differentialgleichung, woraus sich mit Satz 2.1 insbesondere die explizite Darstellung für w(t) ergibt. 2 Die Bestimmung eines Fundamentalsystems für die Lösung der homogenen Gleichung y 0 (t) = A(t)y(t) ist im Allgemeinen ziemlich schwierig. Wir werden in Kürze eine Methode für den Spezialfall angeben, wo A(t) = A ∈ Rn×n eine konstante Matrix ist. Hat man allerdings ein solches Fundamentalsystem y1 , . . . , yn vorliegen und definiert die zugehörige Matrix Y (t) gemäß (4.3), so gelingt die Bestimmung einer partikulären Lösung wie im skalaren Fall mittels der Methode der Variation der Konstanten. Diese benutzt als Idee wieder die Tatsache, dass sich jede Lösung von y 0 = A(t)y schreiben lässt als y(t) = Y (t)α mit einem konstanten Vektor α ∈ Rn . Um zu einer partikulären Lösung des inhomogenen Systems zu gelangen, fassen wir α als differenzierbare Funktion von t auf. Wir machen also den Ansatz yp (t) := Y (t)α(t) mit einer noch näher zu spezifizierenden Funktion α : I → Rn . Differentiation liefert dann yp0 (t) = Y 0 (t)α(t) + Y (t)α0 (t) = A(t)Y (t)α(t) + Y (t)α0 (t) = A(t)yp (t) + Y (t)α0 (t). Also ist yp genau dann eine Lösung des inhomogenen Systems y 0 = A(t)y + g(t), wenn Y (t)α0 (t) = g(t) für alle t ∈ I gilt. Da Y (t) für alle t ∈ I regulär ist, liefert dies α0 (t) = Y (t)−1 g(t) für alle t ∈ I. Komponentenweise Integration ergibt somit α(t) = C + Z t t0 Y (s)−1 g(s)ds für alle t ∈ I mit einer Integrationskonstanten C ∈ Rn . Somit ist Z t yp (t) = Y (t)α(t) = Y (t)C + Y (t) Y (s)−1 g(s)ds für alle t ∈ I. t0 Die Konstante C berechnet sich aus der Anfangsbedingung y(t0 ) = y0 zu y0 = yp (t0 ) = Y (t0 )C ⇐⇒ C = Y (t0 )−1 y0 . Wir fassen unsere Ausführungen in dem folgenden Satz zusammen. 80 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Satz 4.9 Sei Y (t) die Fundamentalmatrix eines beliebigen Fundamentalsystems des homogenen Problems y 0 = A(t)y. Dann ist Z t −1 −1 Y (s) g(s)ds für alle t ∈ I y(t) = Y (t) Y (t0 ) y0 + t0 die eindeutige Lösung der Anfangswertaufgabe y 0 = A(t)y + g(t), y(t0 ) = y0 . Aus dem Beweis des Satzes 4.4 ist klar, wie man die Spalten yk (t) einer Fundamentalmatrix erhält: Man wähle eine beliebige Basis b1 , . . . , bn des Rn und bestimme yk (t) als eindeutige Lösung des Anfangswertproblems y 0 = A(t)y, y(t0 ) = bk . Die sich speziell durch die Wahl von bk = ek (ek bezeichnet hierbei den k-ten Einheitsvektor im Rn ) ergebende Wahl der Basis liefert die so genannte Haupt–Fundamentalmatrix oder Übergangsmatrix , wobei wir den zweitgenannten Begriff noch erläutern müssen. Sei dazu Y (t) eine beliebige Fundamentalmatrix der linearen Differentialgleichung y 0 = A(t)y. Die im Satz 4.9 angegebene Lösungsformel scheint zunächst von der Wahl der Fundamentalmatrix Y (t) (bzw. des zugehörigen Fundamentalsystems) abzuhängen. Tatsächlich ist dies nicht der Fall. Wähle hierzu eine weitere Fundamentalmatrix Ỹ (t) von y 0 = A(t)y. Dann ist wegen Satz 4.9 (mit g ≡ 0) sowohl die Funktion y(t) := Y (t)Y (t0 )−1 y0 als auch die Abbildung ỹ(t) := Ỹ (t)Ỹ (t0 )−1 y0 eine Lösung des Anfangswertproblems y 0 = A(t)y, y(t0 ) = y0 . Die Lösung eines solchen Anfangswertproblems ist aber eindeutig. Da t0 ∈ I und y0 ∈ Rn hierbei beliebig sein können, ergibt sich hieraus unmittelbar Y (t)Y (t0 )−1 = Ỹ (t)Ỹ (t0 )−1 für alle t, t0 ∈ I. Die von dem speziellen Fundamentalsystem daher unabhängige Matrix Λ(t, t0 ) := Y (t)Y (t0 )−1 heißt Übergangsmatrix und stimmt gerade mit der weiter oben eingeführten Haupt–Fundamentalmatrix überein, denn einerseits bilden die Spalten von Λ(t, t0 ) offenbar ein Fundamentalsystem von y 0 = A(t)y, andererseits ist Λ(t0 , t0 ) = I, die k-te Spalte von Λ(t, t0 ) löst also gerade das Anfangswertproblem y 0 = A(t)y, y(t0 ) = ek für k = 1, . . . , n. Mittels der Übergangsmatrix lässt sich die Lösungsformel aus dem Satz 4.9 auch schreiben als Z t Λ(t, s)g(s)ds y(t) = Λ(t, t0 )y0 + t0 für alle t ∈ I. 81 4.2. DIE MATRIX–EXPONENTIALFUNKTION 4.2 Die Matrix–Exponentialfunktion Dieser Abschnitt führt ein mehr technisches Hilfsmittel ein, das mit Differentialgleichungen zunächst nur sehr wenig zu tun hat, ab dem nächsten Abschnitt jedoch massiv zur Untersuchung von gewissen Klassen von linearen Differentialgleichungen benutzt wird. Dazu bezeichnen wir in diesem gesamten Abschnitt mit dem Symbol k · k eine beliebige (aber feste) Vektornorm im Rn sowie mit kAk := sup x6=0 kAxk kxk für A ∈ Rn×n die zugehörige (induzierte) Matrixnorm im Rn×n . Wir wollen im Folgenden den Ausdruck eA für A ∈ Rn×n sinnvoll definieren. Sei dazu A ∈ Rn×n beliebig und setze k sk (A) := I + A + Ak X A` A2 A3 + +...+ = 2! 3! k! `! `=0 für k ∈ N0 . Aus den im Lemma 3.5 genannten Eigenschaften der induzierten Matrixnorm folgt dann für k > m unmittelbar m+1 k A A sk (A) − sm (A) = (m + 1)! + . . . + k! kAk k kAm+1 k ≤ +...+ (m + 1)! k! m+1 kAk kAkk ≤ +...+ (m + 1)! k! ∞ X kAkm+` . ≤ (m + `)! `=1 Nun gilt bekanntlich ∞ ` X t `=0 `! = et für alle t ∈ R, insbesondere konvergiert diese Reihe (absolut) für alle t ∈ R. Also gilt lim k→∞ ∞ ` X t `=k `! = 0, denn die Reihenreste bei konvergenten Reihen werden beliebig klein. Somit existiert zu jedem ε > 0 ein n0 ∈ N mit ∞ X `=1 ∞ X tm+` t` = < ε für alle m ≥ n0 . (m + `)! `=m+1 `! 82 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Daher existiert zu jedem ε > 0 auch ein n0 ∈ N mit sk (A) − sm (A) < ε für alle k > m ≥ n0 . Also ist {sk (A)} ein Cauchy–Folge in dem vollständigen Raum (Rn×n , k · k) und deshalb konvergent (sogar absolut). Aus diesem Grund ist die folgende Definition der Matrix– Exponentialfunktion sinnvoll. Definition 4.10 Für jedes A ∈ Rn×n setzen wir A e := lim sk (A) = k→∞ ∞ X Ak k=0 k! . Entsprechend definieren wir für t ∈ R und A ∈ Rn×n e tA := ∞ X (tA) k k=0 k! = ∞ X tk k=0 k! Ak und nennen die Abbildung t 7→ etA die Matrix–Exponentialfunktion. In einigen Fällen lässt sich der Ausdruck eA leicht berechnen. Wir betrachten dazu einige Beispiele. Beispiel 4.11 (a) Ist A = (a) ∈ R1×1 , so stimmt eA mit der üblichen Definition der Exponentialfunktion überein. (b) Ist D = diag(d1 , . . . , dn ) ∈ Rn×n eine Diagonalmatrix, so ist D k = diag(dk1 , . . . , dkn ) für alle k ∈ N. Für eA erhalten wir daher eD = diag(ed1 , . . . , edn ). (c) Ist A ∈ Rn×n symmetrisch, so existieren aufgrund des Spektralsatzes eine orthogonale Matrix Q ∈ Rn×n und eine Diagonalmatrix D = diag(d1 , . . . , dn ) mit A = QDQT . Wegen (QDQT )k = QD k QT für alle k ∈ N0 folgt dann eA = e QDQT = ∞ X (QDQT )k k=0 k! = ∞ X QD k QT k=0 wobei eD wie ein Teil (b) gegeben ist. k! =Q ∞ X Dk k=0 k! ! QT = QeD QT , 83 4.2. DIE MATRIX–EXPONENTIALFUNKTION (d) Handelt es sich bei A ∈ Rn×n um eine nilpotente Matrix vom Index m, gilt also Am−1 6= 0 und Am = 0, so bricht die unendliche Reihe in der Definition von eA nach endlich vielen Summationen ab, und wir haben A e = ∞ X Ak k=0 k! = m−1 X k=0 Ak A2 Am−1 =I +A+ +...+ . k! 2! (m − 1)! Beispielsweise ist die Matrix A := wegen 2 A =A·A= 01 00 01 00 01 00 = 00 00 nilpotent vom Index 2. 3 Wir formulieren als Nächstes eine Reihe von wichtigen Eigenschaften der Matrix–Exponentialfunktion. Man beachte dabei insbesondere die Analogie zu den entsprechenden Eigenschaften der skalaren Exponentialfunktion. Satz 4.12 (a) Es ist e0 = I, wobei 0 ∈ Rn×n die Nullmatrix bezeichnet. (b) Sind A, B ∈ Rn×n zwei kommutierende Matrizen, gilt also AB = BA, so ist eA+B = eA eB = eB eA . (c) Die Matrix eA ist für jedes A ∈ Rn×n invertierbar mit (eA )−1 = e−A . (d) Die Abbildung t 7→ etA mit festem A ∈ Rn×n ist differenzierbar mit d tA e = AetA . dt (e) Es ist det(eA ) = eSpur(A) für alle A ∈ Rn×n , wobei Spur(A) := a11 + . . . + ann die Spur von A bezeichnet. (f ) Für jede reguläre Matrix B ∈ Rn×n ist eBAB −1 = BeA B −1 . 84 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Beweis: Die Behauptung (a) ist nach Definition von sk (A) klar. (b) Es seien A, B ∈ Rn×n mit AB = BA gegeben. Dann berechnen wir mit Hilfe des Cauchy–Produktes für (absolut konvergente) Reihen ! ∞ ! ∞ l k X X B A eA eB = k! l! k=0 l=0 ∞ X k X Al B k−l = l! (k − l)! k=0 l=0 ∞ k X 1 X k l k−l AB = l k! k=0 l=0 = ∞ X (A + B)k k=0 A+B = e k! . Dabei können wir in der vorletzten Gleichung den binomischen Lehrsatz anwenden, da die Matrizen A und B nach Voraussetzung kommutieren. (c) Zunächst ist (A)(−A) = −A2 = (−A)(A). Nach (b) ist demnach eA+(−A) = eA e−A . Andererseits ist nach (a) eA+(−A) = eA−A = e0 = I, woraus die Behauptung folgt. (d) Offensichtlich ist für t, h ∈ R die Relation (tA)(hA) = (hA)(tA) erfüllt, d.h., die beiden Matrizen tA und hA kommutieren. Folglich ist wegen Teil (b) und daher e(tA)+(hA) − etA e(t+h)A − etA = h h hA e − I tA = e h hA h2 A2 + + . . . etA = A I+ 2! 3! d tA e(t+h)A − etA e = lim = AetA , h→0 dt h insbesondere existiert also der Differentialquotient. 85 4.2. DIE MATRIX–EXPONENTIALFUNKTION (e) Den Beweis dieses (im Folgenden nicht weiter benötigten) Teils überlassen wir dem Leser aus Übung. (f) Aus (BAB −1 )2 = BAB −1 BAB −1 = BA2 B −1 ergibt sich induktiv die Gültigkeit von (BAB −1 )k = BAk B −1 ∀k ∈ N, woraus mit der Stetigkeit der Abbildung A 7→ BAB −1 unmittelbar ∞ ∞ ∞ X −1 k X X BAB Ak −1 BAk B −1 −1 BAB = =B B = BeA B −1 e = k! k! k! k=0 k=0 k=0 folgt. 2 Einfache Beispiele zeigen, dass man im Satz 4.12 (b) nicht auf die Kommutativität der beiden Matrizen A und B verzichten kann (Aufgabe). Wegen Satz 4.12 hat die Matrix–Exponentialfunktion F : R → Rn×n , F (t) := etA , insbesondere die beiden Eigenschaften d F (t) = AF (t) und F (0) = I. (4.5) dt Hierdurch ist die Matrix–Exponentialfunktion bereits eindeutig bestimmt, denn es gilt das nachstehende Resultat, das im nächsten Abschnitt dann noch eine gewisse Rolle spielen wird. Satz 4.13 Sei F : R → Rn×n eine stetig differenzierbare Funktion mit den beiden Eigenschaften (4.5). Dann gilt F (t) = etA . Beweis: Betrachte die Funktion g(t) := e−tA F (t). Dann ist wegen Satz 4.12 g 0 (t) = −Ae−tA F (t) + e−tA F 0 (t) = −e−tA AF (t) + e−tA AF (t) = 0. Also ist g(t) konstant, wegen g(0) = e−0 F (0) = I gilt daher g(t) = I für alle t ∈ R. Dies impliziert F (t) = etA , und zwar erneut wegen Satz 4.12. 2 Die Definition des Ausdrucks eA und alle diesbezüglichen Aussagen gelten übrigens auch für komplexe Matrizen A ∈ Cn×n . Die Beweise können hierfür wörtlich übernommen werden. Wir erwähnen diese leichte Verallgemeinerung an dieser Stelle, da später aufgrund von eventuell komplexen Eigenwerten durchaus komplexe Matrizen im Zusammenhang mit der Matrix–Exponentialfunktion auftreten. 86 4.3 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Lineare Systeme mit konstanten Koeffizienten Wir betrachten in diesem Abschnitt lineare Differentialgleichungssysteme der Gestalt y 0 = Ay + g(t), y(t0 ) = y0 (4.6) mit einer stetigen Funktion g : I → Rn und einer konstanten Matrix A ∈ Rn×n . Insbesondere beschäftigen wir uns mit der Frage, wie man eine Fundamentallösung für das homogene System y 0 = Ay (4.7) erhält, denn hieraus lässt sich mittels Variation der Konstanten sofort die Lösung des inhomogenen Anfangswertproblems bestimmen, vergleiche die Ausführungen am Ende des Abschnitts 4.1. Aufgrund des Satzes 4.12 ist Y (t) := etA eine Haupt–Fundamentalmatrix von (4.7). Wir halten dieses Ergebnis formal in dem folgenden Resultat fest. Satz 4.14 Das homogene lineare Differentialgleichungssystem y 0 = Ay besitzt die Haupt– Fundamentalmatrix Y (t) := etA , die Spalten von etA bilden also ein Fundamentalsystem. Aus den Sätzen 4.9 und 4.14 erhalten wir unmittelbar die nachstehende Darstellung für die Lösung des inhomogenen Systems mit konstanten Koeffizienten. Satz 4.15 Die Lösung des linearen Anfangswertproblems (4.6) lässt sich mittels der Matrix– Exponentialfunktion schreiben als Z t (t−t0 )A y(t) = e y0 + e(t−s)A g(s)ds . t0 Der Satz 4.15 wird für uns das zentrale Resultat zur Gewinnung einer Lösung des Problems (4.6) darstellen. Bevor wir hierauf jedoch näher eingehen, betrachten wir zwecks Motivation zunächst einen Spezialfall. Dabei lassen wir uns von der Tatsache leiten, dass bei linearen Differentialgleichungen Lösungen stets in Form von Exponentialfunktionen auftraten. Deshalb probieren wir hier ebenfalls den Ansatz y(t) := eλt v (4.8) mit einem λ ∈ C sowie v ∈ Cn (beachte, dass wir sowohl λ als auch v hier komplex wählen). Einsetzen in die Differentialgleichung liefert die Bedingung λeλt v = y 0 (t) = Ay(t) = eλt Av. Division durch eλt 6= 0 ergibt somit Av = λv. Also ist y(t) = eλt v genau dann eine Lösung von y 0 = Ay, wenn λ ein Eigenwert von A zum Eigenvektor v ist (dies erklärt nachträglich, warum wir in unserem Ansatz (4.8) auch komplexe Werte für λ zulassen, denn reelle Matrizen können durchaus komplexe Eigenwerte haben). Besitzt A daher n linear unabhängige Eigenvektoren, so erhalten wir auf diese Weise ein Fundamentalsystem. Damit haben wir das folgende Resultat bewiesen. 4.3. LINEARE SYSTEME MIT KONSTANTEN KOEFFIZIENTEN 87 Satz 4.16 Die Matrix A ∈ Rn×n besitze n linear unabhängige Eigenvektoren v1 , . . . , vn ∈ Cn mit zugehörigen Eigenwerten λ1 , . . . , λn ∈ C. Dann bilden die Funktionen yk (t) := eλk t vk für k = 1, . . . , n ein Fundamentalsystem von y 0 = Ay. Das Ergebnis des Satzes 4.16 lässt sich auch mittels des Satzes 4.15 und den Eigenschaften der Matrix–Exponentialfunktion gewinnen: Unter den im Satz 4.16 genannten Voraussetzungen ist die Matrix A diagonalisierbar, also A = SDS −1 mit der Diagonalmatrix D = diag(λ1 , . . . , λn ) und einer Matrix S = (v1 , . . . , vn ) ∈ Cn×n , deren Spalten vk gerade die Eigenvektoren von A zu den Eigenwerten λk sind. Dann ist y 0 = Ay ⇐⇒ y 0 = SDS −1 y ⇐⇒ z 0 = Dz mit z(t) := S −1 y(t). Aus dem Satz 4.14 und den Eigenschaften der Matrix–Exponentialfunktion folgt, dass die Abbildungen etλ1 tλ .. zk (t) := Z(t)ek = etD ek = ek = e k ek . etλn für k = 1, . . . , n ein Fundamentalsystem von z 0 = Dz bilden. Durch Rücktransformation erhalten wir hieraus das Fundamentalsystem yk (t) := Szk (t) = etλk Sek = etλk vk für k = 1, . . . , n von y 0 = Ay aus dem Satz 4.16. Dieses so gefundene Fundamentalsystem hat allerdings zwei Nachteile: • Ist λk bzw. vk komplex, so liefert die zugehörige Funktion yk (t) = eλk t vk eine komplexe Lösung der reellen Differentialgleichung y 0 = Ay. • Eine reelle Matrix besitzt im Allgemeinen keine n linear unabhängigen Eigenvektoren. Dies ist genau dann der Fall, wenn A diagonalisierbar ist, anderenfalls kann man den Satz 4.16 nicht anwenden. Diese beiden Nachteile treten beispielsweise bei symmetrischen Matrizen A ∈ Rn×n nicht auf. In diesem Fall gibt es n linear unabhängige (sogar orthonormale) Eigenvektoren zu n reellen (nicht notwendig verschiedenen) Eigenwerten. Nun wird die Matrix A in den meisten Anwendungen leider nicht symmetrisch sein, so dass es zur Vermeidung der beiden obigen Nachteile weiterer Überlegungen bedarf. Sei zunächst λ = µ + iν mit ν 6= 0 ein nicht–reeller Eigenwert von A ∈ Rn×n mit zugehörigem Eigenvektor v = u + iw, u, w ∈ Rn . Dann ist auch λ ein Eigenwert von A zum Eigenvektor v. Wir erhalten im Satz 4.16 somit die beiden komplexen Lösungen y(t) = eλt v und z(t) = eλt v. 88 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Durch die Setzungen y1 (t) := Re y(t) = eµt cos(νt)u − sin(νt)w , y2 (t) := Im y(t) = eµt sin(νt)u + cos(νt)w erhalten wir hieraus zwei reelle Lösungen von y 0 = Ay, die linear unabhängig sind, was wir in dem folgenden Resultat zeigen (alternativ könnte man auch den Real– und Imaginärteil der komplexen Lösung z wählen). Lemma 4.17 Die beiden gerade definierten Funktionen y1 (t) und y2 (t) sind zwei reelle und linear unabhängige Lösungen der Differentialgleichung y 0 = Ay. Beweis: Offenbar sind mit y auch der Realteil y1 und der Imaginärteil y2 Lösungen von y 0 = Ay, wie man unmittelbar durch Einsetzen in die Differentialgleichung sowie Vergleich von Real– und Imaginärteil erkennt. Zu zeigen bleibt somit nur die lineare Unabhängigkeit der beiden Abbildungen y1 und y2 . Seien dazu α1 , α2 ∈ R gegebene Skalare mit α1 y1 (t) + α2 y2 (t) = 0 ∀t ∈ R. Dies lässt sich nach Umordnung der Terme schreiben als α1 cos(νt) + α2 sin(νt) u + α2 cos(νt) − α1 sin(νt) w = 0 ∀t ∈ R. Setzen wir hier zum einen t = 0 und zum anderen t = ein, so erhalten wir die beiden Gleichungen π 2ν (nach Voraussetzung ist ν 6= 0) α1 u + α2 w = 0 und α2 u − α1 w = 0. Multiplizieren wir die erste Gleichung mit α2 und die zweite Gleichung mit α1 , so bekommen wir α1 α2 u + α22 w = 0 und α1 α2 u − α12 w = 0. Subtraktion dieser beiden Gleichungen ergibt (α12 + α22 )w = 0. Wegen w 6= 0 (sonst müsste λ nämlich doch ein reeller Eigenwert sein) folgt hieraus α1 = α2 = 0 und damit die behauptete lineare Unabhängigkeit von y1 und y2 . 2 Auf die gerade beschriebene Weise verfährt man mit jedem Paar von konjugiert–komplexen Eigenwerten bzw. –vektoren im Satz 4.16. Hinzu kommen die Lösungen y(t) = eλt v, die zu reellen Eigenwerten λ und (ohne Einschränkung) reellen Eigenvektoren v gehören. Besitzt die Matrix A somit n linear unabhängige Eigenvektoren, so erhalten wir mit dem Satz 4.16 und den obigen Überlegungen ein reelles Fundamentalsystem. Kommen wir nun zur Behandlung des zweiten Nachteils. Die Matrix A möge also keine n linear unabhängigen Eigenvektoren haben, ist also nicht diagonalisierbar. Dann können wir A immer noch auf Jordansche Normalform transformieren. Wir erinnern hierzu an dieses zentrale Resultat aus der linearen Algebra. 4.3. LINEARE SYSTEME MIT KONSTANTEN KOEFFIZIENTEN 89 Satz 4.18 ( Jordansche Normalform ) Sei A ∈ Rn×n gegeben. Dann existiert eine reguläre (unter Umständen komplexe) Matrix S, so dass die Matrix J = S −1 AS von so genannter Jordanscher Normalform ist, d.h., J ist eine Block–Diagonalmatrix der Gestalt J = diag Jn1 (λ1 ), Jn2 (λ2 ), . . . , Jnr (λr ) mit n1 + . . . + nr = n und den so genannten Jordan–Blöcken λk 1 0 . λk . . Jk := Jnk (λk ) := ∈ Cnk ×nk . .. 1 0 λk (4.9) für k = 1, . . . , r. (Die λk sind dabei natürlich die Eigenwerte der Matrix A.) Um das homogene Differentialgleichungssystem y 0 = Ay für eine im Allgemeinen nicht diagonalisierbare Matrix A lösen zu können, gehen wir im Prinzip wie im Anschluss an den Satz 4.16 vor und verwenden statt der Diagonalisierbarkeit von A die Jordansche Normalform A = SJS −1 mit J, S wie im Satz 4.18. Dann gilt y 0 = Ay ⇐⇒ y 0 = SJS −1 y ⇐⇒ z 0 = Jz mit z(t) := S −1 y(t). (4.10) Aufgrund der speziellen Gestalt der Matrix J zerfällt das System z 0 = Jz dabei in die r voneinander unabhängigen Differentialgleichungssysteme zk0 = Jk zk ∀k = 1, . . . , r, (4.11) wobei Jk = Jnk (λk ) den Jordan–Block aus (4.9) bezeichnet und die Abbildung z entsprechend in die Block–Komponenten z = (z1 , . . . , zr ) mit zk (t) ∈ Rnk (k = 1, . . . , r) zerlegt wurde. Wegen Satz 4.14 bilden die Spalten der zugehörigen Fundamentalmatrix Zk (t) := etJk dann ein Fundamentalsystem von (4.11), so dass wir einen möglichst einfachen Ausdruck für etJk suchen. Dieser wird durch das folgende Resultat geliefert. Satz 4.19 Für einen Jordan–Block Jk = Jnk (λk ) ∈ Cnk ×nk gemäß (4.9) gilt n −1 t2 1 t · · · (nt kk−1)! 2! .. .. 0 1 . t . tJk λk t . . . t2 e = e .. . . . . . . . . 2! . .. .. . 1 t 0 ··· ··· 0 1 (4.12) 90 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Beweis: Wir bezeichnen die rechte Seite in (4.12) mit F (t). Wegen Satz 4.13 genügt es wegen F (0) = I zu zeigen, dass F 0 (t) = Jk F (t) gilt. Mit tj−1 d tj = dt j! (j − 1)! folgt aus der Produktregel aber sofort n −2 0 1 t · · · (nt kk−2)! .. .. 0 0 . . 1 0 λk t . . . F (t) = λk F (t) + e .. . . . . t . .. .. . 0 1 0 ··· ··· 0 0 0 λk 0 0 ··· 0 .. .. . . 0 0 λk 0 . . . . . . . . . = . . . . 0 F (t) + .. . . .. .. .. . λk 0 0 0 · · · · · · 0 λk = Jk F (t), was zu zeigen war. 1 0 ··· .. . 0 1 .. .. .. . . . .. . 0 ··· ··· 0 0 .. . 0 F (t) 1 0 2 Zur Illustration der bisherigen Resultate betrachten wir eine Matrix A ∈ R6×6 , deren Jordansche Normalform die Gestalt λ1 1 λ1 1 λ 1 J = λ2 λ3 1 λ3 habe mit gewissen (nicht notwendig verschiedenen) Eigenwerten λ1 , λ2 , λ3 . In diesem Fall liegen also drei Jordan–Blöcke vor. Wegen Satz 4.19, angewandt auf jeden dieser drei Jordan–Blöcke, erhalten wir für das transformierte System z 0 = Jz die Fundamentalmatrix λ1 t e teλ1 t 21 t2 eλ1 t e λ1 t teλ1 t λ t 1 e , Z(t) = λ2 t e eλ3 t teλ3 t e λ3 t 4.3. LINEARE SYSTEME MIT KONSTANTEN KOEFFIZIENTEN 91 deren Spalten das gewünschte Fundamentalsystem von z 0 = Jz liefern. Durch Rücktransformation Y (t) := SZ(t) erhält man hieraus eine Fundamentalmatrix des Ausgangssystems y 0 = Ay. Die Spalten sind gegeben durch yk (t) = Y (t)ek = SZ(t)ek = Szk (t). Zur Berechnung des Fundamentalsystems yk (t) (k = 1, . . . , n) benötigt man neben den Eigenwerten λk somit auch die Spalten der Matrix S. Im Falle einer diagonalisierbaren Matrix handelt es sich dabei gerade um die Eigenvektoren von A, im Allgemeinen kommen zu den Eigenvektoren auch noch so genannte Hauptvektoren hinzu. Wir erinnern daher an dieser Stelle an einige weitere Tatsachen aus der linearen Algebra. Unter einem Hauptvektor der Stufe p zum Eigenwert λ von A ∈ Rn×n versteht man einen (eventuell komplexen) Vektor v mit der Eigenschaft (A − λI)p v = 0 und (A − λI)p−1 v 6= 0. Ein Hauptvektor der Stufe p = 1 ist daher gerade ein Eigenvektor von A zum Eigenwert λ. Eine Jordan–Kette ist eine Folge von Vektoren v1 , . . . , vk mit der Eigenschaft (A − λI)v1 = 0, v1 6= 0, (A − λI)vi+1 = vi ∀i = 1, . . . , k − 1. Die Elemente v1 , . . . , vk einer solchen Jordan–Kette sind offenbar linear unabhängig, und der Vektor vi ist dabei ein Hauptvektor der Stufe i zum Eigenwert λ. Mittels einer solchen Jordan–Kette lassen sich also Eigen– und Hauptvektoren berechnen, wobei diese allerdings nicht eindeutig bestimmt sind, da die Matrix A − λI singulär ist. Wir illustrieren die Ergebnisse dieses Abschnittes an einem Beispiel. Beispiel 4.20 Betrachte die homogene Differentialgleichung 0 1 0 y 0 = Ay mit A := 4 3 −4 . 1 2 −1 (4.13) Zunächst bestimmt man die Eigenwerte von A als Nullstellen des charakteristischen Polynoms p(λ) := det(A − λI). Im vorliegenden Fall hat dieses die Gestalt p(λ) = −λ(λ − 1)2 . Folglich ist λ1 := 0 ein einfacher Eigenwert und λ2 := 1 ein doppelter Eigenwert. Aus der Gleichung (A − λ1 I)v1 = 0 erhält man beispielsweise den Eigenvektor v1 = (1, 0, 1)T . Entsprechend ergibt sich aus der Gleichung (A−λ2 I)v2 = 0 der Eigenvektor v2 = (4, 4, 6)T , und es existiert kein weiterer hierzu linear unabhängiger Eigenvektor, so dass die geometrische Vielfachheit des Eigenwertes λ2 in diesem Fall echt kleiner ist als die algebraische Vielfachheit. Wir benötigen daher noch einen Hauptvektor der Stufe 2 zum Eigenwert λ2 . Nach den obigen Ausführungen erhalten wir einen solchen aus dem Ansatz (A − λ2 I)v3 = v2 . Beispielsweise erhält man hieraus v3 = (0, 4, 1)T . 92 KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN Aus diesen Ausführungen ergibt sich insbesondere, dass die Matrix A die Jordansche Normalform 0 0 0 J = 0 1 1 0 0 1 besitzt. Die Lösung des zu y 0 = Ay gemäß (4.10) äquivalenten transformierten Systems z 0 = Jz ist wegen λt 0 0 e 1 Z(t) = etJ = 0 eλ2 t teλ2 t 0 e λ2 t 0 gegeben durch 1 z1 (t) := eλ1 t 0 , 0 0 z2 (t) := eλ2 t 1 , 0 0 0 z3 (t) := teλ2 t 1 + eλ2 t 0 . 0 1 Mit S := (v1 , v2 , v3 ) erhalten wir somit aus yk := Szk für k = 1, 2, 3 das Fundamentalsystem 1 y1 (t) := 0 , 1 4 y2 (t) := et 4 , 6 0 4 t 4 y3 (t) := e + t 4 1 6 für die gegebene Differentialgleichung (4.13). 2 Treten bei der obigen Berechnung wieder (konjugiert–) komplexe Lösungen auf (etwa durch komplexe Eigenwerte), so erhält man in Analogie zur Argumentation beim Lemma 4.17 durch den Übergang auf Real– und Imaginärteil wieder zwei reelle Lösungen. 4.4 Lineare Differentialgleichungen höherer Ordnung Eine lineare Differentialgleichung n-ter Ordnung hat die Gestalt y (n) + an−1 (t)y (n−1) + . . . + a0 (t)y = b(t) (4.14) mit gewissen stetigen Funktionen ai , b : I → R (i = 0, 1, . . . , n − 1), die auf einem Intervall I ⊆ R definiert sind. Speziell für b ≡ 0 spricht man von einer homogenen linearen Differentialgleichung n-ter Ordnung, anderenfalls von einer inhomogenen linearen Differentialgleichung n-ter Ordnung. Wegen Satz 1.15 ist (4.14) äquivalent zu dem linearen Differentialgleichungssystem erster Ordnung y 0 = A(t)y + g(t) (4.15) 93 4.4. LINEARE DIFFERENTIALGLEICHUNGEN HÖHERER ORDNUNG mit und y= y1 y2 .. . yn := y y0 .. . y (n−1) 0 1 0 0 0 1 . . .. .. .. . A(t) := . . .. .. 0 0 ··· −a0 (t) −a1 (t) · · · Aus den Sätzen 4.1 und 4.4 erhalten wir somit resultat. , 0 .. g(t) := . 0 b(t) (4.16) ... 0 0 ... 0 0 . .. .. . (4.17) . .. .. .. . . . ··· 0 1 · · · −an−2 (t) −an−1 (t) das folgende Existenz– und Eindeutigkeits- Satz 4.21 Seien I ⊆ R ein gegebenes Intervall und ai , b : I → R stetige Funktionen. Dann gelten die folgenden Aussagen: (a) Die Menge aller Lösungen der homogenen linearen Differentialgleichung n-ter Ordnung bildet einen Vektorraum der Dimension n. (b) Jede Lösung y von (4.14) hat die Gestalt y = yh + yp , wobei yh eine beliebige Lösung der homogenen Differentialgleichung und yp eine partikuläre Lösung der inhomogenen Differentialgleichung (4.14) ist. (c) Das zugehörige Anfangswertproblem (n−1) y (n) + an−1 (t)y (n−1) + . . . + a0 (t)y = b(t), y(t0 ) = y0 , y 0 (t0 ) = y00 , . . . , y (n−1) (t0 ) = y0 (n−1) hat für beliebig vorgegebene Werte t0 ∈ I und y0 , y00 . . . , y0 ganz I definierte) Lösung. ∈ R genau eine (auf Sei als Nächstes Y (t) eine Fundamentalmatrix des zu (4.14) gehörenden Systems (4.15) mit y, g, A gemäß (4.16), (4.17). Ferner bezeichnen wir mit w(t) := det Y (t) wieder die entsprechende Wronski–Matrix. Aufgrund der speziellen Gestalt von A(t) in (4.17) ist SpurA(t) = −an−1 (t). Wegen Satz 4.8 lautet die Formel von Liouvillle daher w 0 = −an−1 (t)w. Sind y1 , . . . , yn linear unabhängige Lösungen der Differentialgleichung n-ter Ordnung aus (4.14), so hat die Fundamentalmatrix Y (t) des zugehörigen Systems (4.15) erster Ordnung aufgrund des Zusammenhangs aus dem Satz 1.15 offenbar die Gestalt y1 y2 ··· yn y10 y20 ··· yn0 Y (t) = (4.18) . .. .. .. .. . . . . (n−1) y1 (n−1) y2 (n−1) · · · yn