Kapitel 4 Lineare Differentialgleichungen

Werbung
Kapitel 4
Lineare Differentialgleichungen
4.1 Lineare Systeme mit variablen Koeffizienten
4.2 Die Matrix–Exponentialfunktion
4.3 Lineare System mit konstanten Koeffizienten
4.4 Lineare Differentialgleichungen höherer Ordnung
4.5 Lineare Differentialgleichungen mit analytischen Koeffizienten
4.6 Die Laplace–Transformation
4.1
Lineare Systeme mit variablen Koeffizienten
Wir betrachten in diesem Abschnitt Differentialgleichungssysteme der Gestalt
y 0 = A(t)y + g(t)
(4.1)
mit stetigen Funktionen A : I → Rn×n und g : I → Rn auf einem offenen Intervall I ⊆ R.
Man bezeichnet (4.1) als ein lineares Differentialgleichungssystem. Im Falle g ≡ 0 spricht
man von einem homogenen linearen Differentialgleichungssystem, anderenfalls von einem
inhomogenen linearen Differentialgleichungssystem.
Wir beweisen zunächst einen Existenz– und Eindeutigkeitssatz.
Satz 4.1 Gegeben seien ein offenes Intervall I und ein lineares Differentialgleichungssystem
y 0 (t) = A(t)y(t) + g(t)
mit stetigen Funktionen A : I → Rn×n und g : I → Rn . Dann gibt es zu jedem Paar
(t0 , y0 ) ∈ I × Rn genau eine auf ganz I definierte Lösung y des zugehörigen Anfangswertproblems.
Beweis: Wir setzen
f (t, y) := A(t)y + g(t)
für die rechte Seite der linearen Differentialgleichung. Der Beweis erfolgt nun weitgehend
analog zu dem des Satzes 3.9 von Picard–Lindelöf.
73
74
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Zu diesem Zweck wählen wir zunächst ein kompaktes Teilintervall J ⊆ I. Aus Stetigkeitsgründen existiert dann die Zahl
L := max kA(t)k t ∈ J}.
Hiermit erhält man für alle t ∈ J und alle y, ỹ ∈ Rn unter Verwendung des Lemmas 3.5
die Abschätzung
f (t, y) − f (t, ỹ) = A(t)(y − ỹ) ≤ kA(t)k ky − ỹk ≤ Lky − ỹk,
so dass f einer Lipschitz–Bedingung bezüglich y genügt. Wegen Satz 3.11 kann es daher
höchstens eine Lösung für ein gegebenes Anfangswertproblem bei linearen Differentialgleichungssystemen geben.
Zum Nachweis der Existenz benutzen wir zu einem gegebenen Anfangswert y(t0 ) = y0
wieder die zugehörigen Picard–Iterierten
y0 (t) := y0 ,
yk+1 (t) := y0 +
Z
t
t0
f τ, yk (τ ) dτ
für k = 0, 1, . . .
Da unsere spezielle rechte Seite f für alle y ∈ Rn definiert ist, kann der Schritt 1 aus dem
Beweis des Satzes 3.9 hier entfallen.
Die Rolle der Konstanten M im Satz 3.9 übernimmt jetzt die Konstante
K := max ky1 (t) − y0 (t)k t ∈ J .
Durch vollständige Induktion zeigt man wie im Schritt 2 des Beweises von Satz 3.9 die
Gültigkeit der Ungleichung
k
yk+1 (t) − yk (t) ≤ KLk |t − t0 |
k!
(4.2)
für alle k ∈ N0 . Hieraus folgt wiederum die gleichmäßige Konvergenz der Funktionenfolge
{yk } auf dem Intervall J gegen eine (dann automatisch stetige) Grenzfunktion y∗ , vergleiche
den Schritt 3 im Beweis des Satzes 3.9. Wie im Schritt 4 desselben Beweises erhält man
schließlich, dass diese Grenzfunktion y∗ eine Lösung der gegebenen Anfangswertaufgabe
auf dem kompakten Intervall J ist.
Da es zu jedem t ∈ I ein kompaktes Intervall J ⊆ I mit t, t0 ∈ J gibt, folgt aus der
gerade bewiesenen Existenz und Eindeutigkeit einer Lösung auf J auch die Existenz und
Eindeutigkeit auf dem gesamten Intervall I.
2
Wir vernachlässigen im Folgenden die Anfangsbedingung und untersuchen die Struktur der
allgemeinen Lösung des linearen Systems (4.1). Dazu unterscheiden wir den homogenen und
inhomogenen Fall und setzen
Lhom := y : I → Rn y löst y 0 = A(t)y
4.1. LINEARE SYSTEME MIT VARIABLEN KOEFFIZIENTEN
sowie
75
Linhom := y : I → Rn y löst y 0 = A(t)y + g(t) .
Dann gilt zunächst das folgende Resultat.
Lemma 4.2 Die Menge Lhom bildet einen Vektorraum.
Beweis: Offenbar ist Lhom eine Teilmenge des Vektorraums aller differenzierbaren Funktionen von I in Rn . Zum Beweis der Behauptung brauchen wir daher nur die Kriterien für
einen Teilraum zu verifizieren:
• Es ist offenbar 0 ∈ Lhom .
• Mit y1 , y2 ∈ Lhom ist auch y1 + y2 ∈ Lhom wegen
(y1 + y2 )0 = y10 + y20 = A(t)y1 + A(t)y2 = A(t)(y1 + y2 ).
• Mit y ∈ Lhom und α ∈ R ist auch αy ∈ Lhom wegen
(αy)0 = αy 0 = αA(t)y = A(t)(αy).
Damit ist das Lemma auch schon bewiesen.
2
Wir wollen uns als Nächstes die Dimension des Lösungsraums Lhom überlegen. Dazu sei
daran erinnert, dass gegebene Funktionen ϕ1 , . . . , ϕk : I → Rn linear unabhängig sind,
wenn die folgende Implikation gilt:
α1 ϕ1 + . . . + α k ϕk = 0
=⇒
αi = 0 ∀i = 1, . . . , k.
Ausführlich lässt sich dies auch schreiben als
α1 ϕ1 (t) + . . . + αk ϕk (t) = 0 ∀t ∈ I
=⇒
αi = 0 ∀i = 1, . . . , k.
In dieser Formulierung wird auch deutlich, dass das Intervall I eine Rolle spielt. Handelt
es sich bei den Funktionen ϕ1 , . . . , ϕk speziell um Lösungen des homogenen linearen Differentialgleichungssystems zu (4.1), so gilt die folgende starke Charakterisierung der linearen
Unabhängigkeit, die für beliebige Funktionen ϕ1 , . . . , ϕk im Allgemeinen nicht richtig ist.
Lemma 4.3 Seien y1 , . . . , yk ∈ Lhom Lösungen des homogenen Systems y 0 = A(t)y. Dann
sind die folgenden Aussagen äquivalent:
(a) y1 , . . . , yk sind linear unabhängig.
(b) Es existiert ein t0 ∈ I derart, dass die Vektoren y1 (t0 ), . . . , yk (t0 ) ∈ Rn linear unabhängig sind.
(c) Für jedes t ∈ I sind die Vektoren y1 (t), . . . , yk (t) ∈ Rn linear unabhängig.
76
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Beweis: Die Implikationen (c) =⇒ (b) =⇒ (a) sind klar. Also ist nur noch die Richtung
(a) =⇒ (c) zu zeigen. Seien daher y1 , . . . , yk linear unabhängig und t ∈ I beliebig. Angenommen, die Vektoren y1 (t), . . . , yk (t) wären linear abhängig. Dann gibt es Koeffizienten
α1 , . . . , αk ∈ R, die nicht alle gleich Null sind, mit
α1 y1 (t) + . . . + αk yk (t) = 0.
Wegen Lemma 4.2 ist
y := α1 y1 + . . . + αk yk ∈ Lhom .
Außerdem gilt y(t) = 0. Also ist y eine Lösung des Anfangswertproblems y 0 = A(t)y, y(t) =
0. Dieses hat aber auch die triviale Lösung z ≡ 0. Wegen der Eindeutigkeit der Lösung
gemäß Satz 4.1 ist dann y ≡ z ≡ 0. Also sind die Funktionen y1 , . . . , yk linear abhängig,
Widerspruch.
2
Nach diesen Vorbereitungen können wir jetzt die Dimension des Lösungsraums Lhom angeben.
Satz 4.4
(a) Lhom ist ein n-dimensionaler Vektorraum.
(b) Linhom = yp + Lhom ist ein affiner Raum, wobei yp eine partikuläre Lösung des inhomogenen Systems (4.1) bezeichnet.
Beweis: (a) Seien b1 , . . . , bn ∈ Rn eine Basis des Rn . Wegen Satz 4.1 gibt es dann zu
einem fest gewählten t0 ∈ I eindeutig bestimmte Lösungen yi des Anfangswertproblems
y 0 = A(t)y, y(t0 ) = bi . Wegen Lemma 4.3 sind diese Lösungen linear unabhängig, woraus
dim Lhom ≥ n folgt. Andererseits ist dim Lhom ≤ n, denn gäbe es n + 1 linear unabhängige
Lösungen y1 , . . . , yn+1 , so müssten die Vektoren y1 (t0 ), . . . , yn+1 (t0 ) ∈ Rn wegen Lemma
4.3 linear unabhängig sein, was wegen dim Rn = n nicht sein kann.
(b) Sei yp eine beliebige partikuläre Lösung des inhomogenen Systems y 0 = A(t)y+g(t). Wir
zeigen zunächst die Inklusion Linhom ⊆ yp + Lhom . Sei dazu yq ∈ Linhom beliebig gegeben.
Setze y := yp − yq . Dann gilt
y 0 = yp0 − yq0 = (Ayp + g) − (Ayq + g) = A(yp − yq ) = Ay,
also y ∈ Lhom . Wegen yq = yp − y folgt yq ∈ yp + Lhom , denn mit y gehört auch −y zu Lhom .
Als Nächstes verifizieren wir die Inklusion yp + Lhom ⊆ Linhom . Sei dazu yq ∈ yp + Lhom
beliebig gewählt. Dann existiert ein y ∈ Lhom mit yq = yp + y. Folglich ist
yq0 = yp0 + y 0 = (Ayp + g) + Ay = A(yp + y) + g = Ayq + g
und yq somit eine Lösung des inhomogenen Systems.
Der Satz 4.4 motiviert die folgende Definition.
2
4.1. LINEARE SYSTEME MIT VARIABLEN KOEFFIZIENTEN
77
Definition 4.5 Unter einem Fundamentalsystem der Differentialgleichung y 0 = A(t)y
versteht man eine Basis y1 , . . . , yn des Lösungsraums Lhom .
Seien nun y1 , . . . , yn ∈ Lhom insgesamt n (nicht notwendig linear unabhängige) Lösungen
von y 0 = A(t)y. Mittels dieser Lösungen definieren wir die Matrix


|
|
Y (t) :=  y1 (t) . . . yn (t)  ∈ Rn×n für jedes t ∈ I.
(4.3)
|
|
Die zugehörige Determinante
w(t) := det Y (t) ,
t ∈ I,
heißt Wronski–Determinante der gegebenen Lösungen y1 , . . . , yn . Diese liefert ein recht
einfaches Kriterium dafür, ob diese Lösungen linear unabhängig sind.
Satz 4.6 Für die Wronski–Determinante gelten die folgenden Aussagen:
(a) Es ist w(t) ≡ 0 für alle t ∈ I genau dann, wenn die Lösungen y1 , . . . , yn ∈ Lhom
linear abhängig sind.
(b) Es ist w(t) 6= 0 für alle t ∈ I genau dann, wenn die Lösungen y1 , . . . , yn ∈ Lhom
linear unabhängig sind.
Insbesondere ist die Wronski–Determinante entweder identisch Null, oder sie verschwindet
für kein einziges t ∈ I.
Beweis: Die Aussagen folgen unmittelbar aus dem Lemma 4.3, indem man dort speziell
k = n wählt.
2
Die in (4.3) definierte Matrix Y (t) ist im Folgenden von zentraler Bedeutung und erhält
daher nun einen eigenen Namen für den Fall, dass die Lösungen y1 , . . . , yn linear unabhängig
sind, also ein Fundamentalsystem von y 0 = A(t)y bilden.
Definition 4.7 Bilden die Funktionen y1 , . . . , yn ein Fundamentalsystem der Differentialgleichung y 0 = A(t)y, so bezeichnet man die hiermit definierte Matrix Y (t) aus (4.3) als
die zugehörige Fundamentalmatrix dieses Fundamentalsystems.
Die Berechnung einer Determinante ist im Allgemeinen recht aufwändig, im Falle der
Wronski–Determinante ist jedoch das folgende Resultat manchmal hilfreich.
Satz 4.8 ( Formel von Liouville )
Die Wronski–Determinante w(t) von n linear unabhängigen Lösungen des homogenen Systems y 0 = A(t)y genügt der skalaren linearen Differentialgleichung
w 0 = Spur A(t) w.
78
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Sie besitzt daher die Darstellung
w(t) = w(t0 )e
Rt
t0
SpurA(s)ds
für alle t, t0 ∈ I.
Beweis: Seien y1 , . . . , yn linear unabhängige Lösungen von y 0 = A(t)y und Y (t) die zugehörige Fundamentalmatrix. Aus der Leibniz–Darstellung einer Determinante folgt dann
(Beweis als Aufgabe)
n
0 X
det Y (t) =
det y1 (t), . . . , yk−1 (t), yk0 (t), yk+1 (t), . . . , yn (t) .
k=1
Setze nun
B(t) := Y (t)−1 A(t)Y (t),
wobei wir natürlich ausgenutzt haben, dass Y (t) stets regulär ist. Dann gilt
Y 0 (t) = A(t)Y (t) = Y (t)B(t).
(4.4)
Bezeichnen wir die k-te Spalte von B(t) mit bk (t) und die Elemente dieser Matrix mit
bik (t), so ergibt sich aus (4.4) durch Vergleich der k-ten Spalten die Identität
yk0 (t)
= Y (t)bk (t) =
n
X
bik (t)yi (t).
i=1
Mit (??) und der Linearität der Determinante in jeder Spalte erhalten wir deshalb
0
w 0 (t) = det Y (t)
n
X
=
det y1 (t), . . . , yk0 (t), . . . , yn (t)
=
=
k=1
n X
n
X
bik (t) det y1 (t), . . . , yi (t), . . . , yn (t)
k=1 i=1
n
X
bkk (t) det y1 (t), . . . , yk (t), . . . , yn (t)
k=1
=
n
X
bkk (t) det Y (t)
k=1
= Spur B(t) det Y (t)
= Spur A(t) w(t),
denn ähnliche Matrizen haben dieselbe Spur. Außerdem haben wir hierbei ausgenutzt, dass
die Determinante einer Matrix verschwindet, sobald diese Matrix zwei gleiche Spaltenvektoren besitzt und somit singulär ist.
4.1. LINEARE SYSTEME MIT VARIABLEN KOEFFIZIENTEN
79
Also genügt w(t) einer skalaren linearen Differentialgleichung, woraus sich mit Satz 2.1
insbesondere die explizite Darstellung für w(t) ergibt.
2
Die Bestimmung eines Fundamentalsystems für die Lösung der homogenen Gleichung
y 0 (t) = A(t)y(t) ist im Allgemeinen ziemlich schwierig. Wir werden in Kürze eine Methode für den Spezialfall angeben, wo A(t) = A ∈ Rn×n eine konstante Matrix ist. Hat
man allerdings ein solches Fundamentalsystem y1 , . . . , yn vorliegen und definiert die zugehörige Matrix Y (t) gemäß (4.3), so gelingt die Bestimmung einer partikulären Lösung
wie im skalaren Fall mittels der Methode der Variation der Konstanten. Diese benutzt
als Idee wieder die Tatsache, dass sich jede Lösung von y 0 = A(t)y schreiben lässt als
y(t) = Y (t)α mit einem konstanten Vektor α ∈ Rn . Um zu einer partikulären Lösung des
inhomogenen Systems zu gelangen, fassen wir α als differenzierbare Funktion von t auf.
Wir machen also den Ansatz
yp (t) := Y (t)α(t)
mit einer noch näher zu spezifizierenden Funktion α : I → Rn . Differentiation liefert dann
yp0 (t) = Y 0 (t)α(t) + Y (t)α0 (t)
= A(t)Y (t)α(t) + Y (t)α0 (t)
= A(t)yp (t) + Y (t)α0 (t).
Also ist yp genau dann eine Lösung des inhomogenen Systems y 0 = A(t)y + g(t), wenn
Y (t)α0 (t) = g(t) für alle t ∈ I
gilt. Da Y (t) für alle t ∈ I regulär ist, liefert dies
α0 (t) = Y (t)−1 g(t) für alle t ∈ I.
Komponentenweise Integration ergibt somit
α(t) = C +
Z
t
t0
Y (s)−1 g(s)ds für alle t ∈ I
mit einer Integrationskonstanten C ∈ Rn . Somit ist
Z t
yp (t) = Y (t)α(t) = Y (t)C + Y (t)
Y (s)−1 g(s)ds für alle t ∈ I.
t0
Die Konstante C berechnet sich aus der Anfangsbedingung y(t0 ) = y0 zu
y0 = yp (t0 ) = Y (t0 )C
⇐⇒
C = Y (t0 )−1 y0 .
Wir fassen unsere Ausführungen in dem folgenden Satz zusammen.
80
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Satz 4.9 Sei Y (t) die Fundamentalmatrix eines beliebigen Fundamentalsystems des homogenen Problems y 0 = A(t)y. Dann ist
Z t
−1
−1
Y (s) g(s)ds
für alle t ∈ I
y(t) = Y (t) Y (t0 ) y0 +
t0
die eindeutige Lösung der Anfangswertaufgabe
y 0 = A(t)y + g(t),
y(t0 ) = y0 .
Aus dem Beweis des Satzes 4.4 ist klar, wie man die Spalten yk (t) einer Fundamentalmatrix
erhält: Man wähle eine beliebige Basis b1 , . . . , bn des Rn und bestimme yk (t) als eindeutige
Lösung des Anfangswertproblems y 0 = A(t)y, y(t0 ) = bk . Die sich speziell durch die Wahl
von bk = ek (ek bezeichnet hierbei den k-ten Einheitsvektor im Rn ) ergebende Wahl der
Basis liefert die so genannte Haupt–Fundamentalmatrix oder Übergangsmatrix , wobei wir
den zweitgenannten Begriff noch erläutern müssen.
Sei dazu Y (t) eine beliebige Fundamentalmatrix der linearen Differentialgleichung y 0 =
A(t)y. Die im Satz 4.9 angegebene Lösungsformel scheint zunächst von der Wahl der Fundamentalmatrix Y (t) (bzw. des zugehörigen Fundamentalsystems) abzuhängen. Tatsächlich
ist dies nicht der Fall. Wähle hierzu eine weitere Fundamentalmatrix Ỹ (t) von y 0 = A(t)y.
Dann ist wegen Satz 4.9 (mit g ≡ 0) sowohl die Funktion
y(t) := Y (t)Y (t0 )−1 y0
als auch die Abbildung
ỹ(t) := Ỹ (t)Ỹ (t0 )−1 y0
eine Lösung des Anfangswertproblems y 0 = A(t)y, y(t0 ) = y0 . Die Lösung eines solchen
Anfangswertproblems ist aber eindeutig. Da t0 ∈ I und y0 ∈ Rn hierbei beliebig sein
können, ergibt sich hieraus unmittelbar
Y (t)Y (t0 )−1 = Ỹ (t)Ỹ (t0 )−1
für alle t, t0 ∈ I. Die von dem speziellen Fundamentalsystem daher unabhängige Matrix
Λ(t, t0 ) := Y (t)Y (t0 )−1
heißt Übergangsmatrix und stimmt gerade mit der weiter oben eingeführten Haupt–Fundamentalmatrix überein, denn einerseits bilden die Spalten von Λ(t, t0 ) offenbar ein Fundamentalsystem von y 0 = A(t)y, andererseits ist Λ(t0 , t0 ) = I, die k-te Spalte von Λ(t, t0 ) löst
also gerade das Anfangswertproblem y 0 = A(t)y, y(t0 ) = ek für k = 1, . . . , n. Mittels der
Übergangsmatrix lässt sich die Lösungsformel aus dem Satz 4.9 auch schreiben als
Z t
Λ(t, s)g(s)ds
y(t) = Λ(t, t0 )y0 +
t0
für alle t ∈ I.
81
4.2. DIE MATRIX–EXPONENTIALFUNKTION
4.2
Die Matrix–Exponentialfunktion
Dieser Abschnitt führt ein mehr technisches Hilfsmittel ein, das mit Differentialgleichungen zunächst nur sehr wenig zu tun hat, ab dem nächsten Abschnitt jedoch massiv zur
Untersuchung von gewissen Klassen von linearen Differentialgleichungen benutzt wird.
Dazu bezeichnen wir in diesem gesamten Abschnitt mit dem Symbol k · k eine beliebige
(aber feste) Vektornorm im Rn sowie mit
kAk := sup
x6=0
kAxk
kxk
für A ∈ Rn×n
die zugehörige (induzierte) Matrixnorm im Rn×n .
Wir wollen im Folgenden den Ausdruck eA für A ∈ Rn×n sinnvoll definieren. Sei dazu
A ∈ Rn×n beliebig und setze
k
sk (A) := I + A +
Ak X A`
A2 A3
+
+...+
=
2!
3!
k!
`!
`=0
für k ∈ N0 . Aus den im Lemma 3.5 genannten Eigenschaften der induzierten Matrixnorm
folgt dann für k > m unmittelbar
m+1
k
A
A
sk (A) − sm (A) = (m + 1)! + . . . + k! kAk k
kAm+1 k
≤
+...+
(m + 1)!
k!
m+1
kAk
kAkk
≤
+...+
(m + 1)!
k!
∞
X kAkm+`
.
≤
(m + `)!
`=1
Nun gilt bekanntlich
∞ `
X
t
`=0
`!
= et
für alle t ∈ R,
insbesondere konvergiert diese Reihe (absolut) für alle t ∈ R. Also gilt
lim
k→∞
∞ `
X
t
`=k
`!
= 0,
denn die Reihenreste bei konvergenten Reihen werden beliebig klein. Somit existiert zu
jedem ε > 0 ein n0 ∈ N mit
∞
X
`=1
∞
X
tm+`
t`
=
< ε für alle m ≥ n0 .
(m + `)! `=m+1 `!
82
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Daher existiert zu jedem ε > 0 auch ein n0 ∈ N mit
sk (A) − sm (A) < ε für alle k > m ≥ n0 .
Also ist {sk (A)} ein Cauchy–Folge in dem vollständigen Raum (Rn×n , k · k) und deshalb
konvergent (sogar absolut). Aus diesem Grund ist die folgende Definition der Matrix–
Exponentialfunktion sinnvoll.
Definition 4.10 Für jedes A ∈ Rn×n setzen wir
A
e := lim sk (A) =
k→∞
∞
X
Ak
k=0
k!
.
Entsprechend definieren wir für t ∈ R und A ∈ Rn×n
e
tA
:=
∞
X
(tA) k
k=0
k!
=
∞
X
tk
k=0
k!
Ak
und nennen die Abbildung t 7→ etA die Matrix–Exponentialfunktion.
In einigen Fällen lässt sich der Ausdruck eA leicht berechnen. Wir betrachten dazu einige
Beispiele.
Beispiel 4.11 (a) Ist A = (a) ∈ R1×1 , so stimmt eA mit der üblichen Definition der
Exponentialfunktion überein.
(b) Ist D = diag(d1 , . . . , dn ) ∈ Rn×n eine Diagonalmatrix, so ist
D k = diag(dk1 , . . . , dkn ) für alle k ∈ N.
Für eA erhalten wir daher
eD = diag(ed1 , . . . , edn ).
(c) Ist A ∈ Rn×n symmetrisch, so existieren aufgrund des Spektralsatzes eine orthogonale
Matrix Q ∈ Rn×n und eine Diagonalmatrix D = diag(d1 , . . . , dn ) mit A = QDQT .
Wegen (QDQT )k = QD k QT für alle k ∈ N0 folgt dann
eA = e
QDQT
=
∞
X
(QDQT )k
k=0
k!
=
∞
X
QD k QT
k=0
wobei eD wie ein Teil (b) gegeben ist.
k!
=Q
∞
X
Dk
k=0
k!
!
QT = QeD QT ,
83
4.2. DIE MATRIX–EXPONENTIALFUNKTION
(d) Handelt es sich bei A ∈ Rn×n um eine nilpotente Matrix vom Index m, gilt also
Am−1 6= 0 und Am = 0, so bricht die unendliche Reihe in der Definition von eA nach
endlich vielen Summationen ab, und wir haben
A
e =
∞
X
Ak
k=0
k!
=
m−1
X
k=0
Ak
A2
Am−1
=I +A+
+...+
.
k!
2!
(m − 1)!
Beispielsweise ist die Matrix
A :=
wegen
2
A =A·A=
01
00
01
00
01
00
=
00
00
nilpotent vom Index 2.
3
Wir formulieren als Nächstes eine Reihe von wichtigen Eigenschaften der Matrix–Exponentialfunktion. Man beachte dabei insbesondere die Analogie zu den entsprechenden Eigenschaften der skalaren Exponentialfunktion.
Satz 4.12
(a) Es ist e0 = I, wobei 0 ∈ Rn×n die Nullmatrix bezeichnet.
(b) Sind A, B ∈ Rn×n zwei kommutierende Matrizen, gilt also AB = BA, so ist
eA+B = eA eB = eB eA .
(c) Die Matrix eA ist für jedes A ∈ Rn×n invertierbar mit
(eA )−1 = e−A .
(d) Die Abbildung t 7→ etA mit festem A ∈ Rn×n ist differenzierbar mit
d tA
e = AetA .
dt
(e) Es ist
det(eA ) = eSpur(A)
für alle A ∈ Rn×n ,
wobei Spur(A) := a11 + . . . + ann die Spur von A bezeichnet.
(f ) Für jede reguläre Matrix B ∈ Rn×n ist
eBAB
−1
= BeA B −1 .
84
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Beweis: Die Behauptung (a) ist nach Definition von sk (A) klar.
(b) Es seien A, B ∈ Rn×n mit AB = BA gegeben. Dann berechnen wir mit Hilfe des
Cauchy–Produktes für (absolut konvergente) Reihen
! ∞
!
∞
l
k
X
X
B
A
eA eB =
k!
l!
k=0
l=0
∞ X
k
X
Al B k−l
=
l! (k − l)!
k=0 l=0
∞
k X
1 X k l k−l
AB
=
l
k!
k=0
l=0
=
∞
X
(A + B)k
k=0
A+B
= e
k!
.
Dabei können wir in der vorletzten Gleichung den binomischen Lehrsatz anwenden, da die
Matrizen A und B nach Voraussetzung kommutieren.
(c) Zunächst ist (A)(−A) = −A2 = (−A)(A). Nach (b) ist demnach
eA+(−A) = eA e−A .
Andererseits ist nach (a)
eA+(−A) = eA−A = e0 = I,
woraus die Behauptung folgt.
(d) Offensichtlich ist für t, h ∈ R die Relation (tA)(hA) = (hA)(tA) erfüllt, d.h., die beiden
Matrizen tA und hA kommutieren. Folglich ist wegen Teil (b)
und daher
e(tA)+(hA) − etA
e(t+h)A − etA
=
h
h
hA
e − I tA
=
e
h
hA h2 A2
+
+ . . . etA
= A I+
2!
3!
d tA
e(t+h)A − etA
e = lim
= AetA ,
h→0
dt
h
insbesondere existiert also der Differentialquotient.
85
4.2. DIE MATRIX–EXPONENTIALFUNKTION
(e) Den Beweis dieses (im Folgenden nicht weiter benötigten) Teils überlassen wir dem
Leser aus Übung.
(f) Aus
(BAB −1 )2 = BAB −1 BAB −1 = BA2 B −1
ergibt sich induktiv die Gültigkeit von
(BAB −1 )k = BAk B −1
∀k ∈ N,
woraus mit der Stetigkeit der Abbildung A 7→ BAB −1 unmittelbar
∞ ∞
∞
X
−1 k
X
X
BAB
Ak −1
BAk B −1 −1
BAB
=
=B
B = BeA B −1
e
=
k!
k!
k!
k=0
k=0
k=0
folgt.
2
Einfache Beispiele zeigen, dass man im Satz 4.12 (b) nicht auf die Kommutativität der
beiden Matrizen A und B verzichten kann (Aufgabe).
Wegen Satz 4.12 hat die Matrix–Exponentialfunktion
F : R → Rn×n ,
F (t) := etA ,
insbesondere die beiden Eigenschaften
d
F (t) = AF (t) und F (0) = I.
(4.5)
dt
Hierdurch ist die Matrix–Exponentialfunktion bereits eindeutig bestimmt, denn es gilt das
nachstehende Resultat, das im nächsten Abschnitt dann noch eine gewisse Rolle spielen
wird.
Satz 4.13 Sei F : R → Rn×n eine stetig differenzierbare Funktion mit den beiden Eigenschaften (4.5). Dann gilt F (t) = etA .
Beweis: Betrachte die Funktion g(t) := e−tA F (t). Dann ist wegen Satz 4.12
g 0 (t) = −Ae−tA F (t) + e−tA F 0 (t) = −e−tA AF (t) + e−tA AF (t) = 0.
Also ist g(t) konstant, wegen g(0) = e−0 F (0) = I gilt daher g(t) = I für alle t ∈ R. Dies
impliziert F (t) = etA , und zwar erneut wegen Satz 4.12.
2
Die Definition des Ausdrucks eA und alle diesbezüglichen Aussagen gelten übrigens auch für
komplexe Matrizen A ∈ Cn×n . Die Beweise können hierfür wörtlich übernommen werden.
Wir erwähnen diese leichte Verallgemeinerung an dieser Stelle, da später aufgrund von
eventuell komplexen Eigenwerten durchaus komplexe Matrizen im Zusammenhang mit der
Matrix–Exponentialfunktion auftreten.
86
4.3
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Lineare Systeme mit konstanten Koeffizienten
Wir betrachten in diesem Abschnitt lineare Differentialgleichungssysteme der Gestalt
y 0 = Ay + g(t),
y(t0 ) = y0
(4.6)
mit einer stetigen Funktion g : I → Rn und einer konstanten Matrix A ∈ Rn×n . Insbesondere beschäftigen wir uns mit der Frage, wie man eine Fundamentallösung für das
homogene System
y 0 = Ay
(4.7)
erhält, denn hieraus lässt sich mittels Variation der Konstanten sofort die Lösung des
inhomogenen Anfangswertproblems bestimmen, vergleiche die Ausführungen am Ende des
Abschnitts 4.1.
Aufgrund des Satzes 4.12 ist Y (t) := etA eine Haupt–Fundamentalmatrix von (4.7).
Wir halten dieses Ergebnis formal in dem folgenden Resultat fest.
Satz 4.14 Das homogene lineare Differentialgleichungssystem y 0 = Ay besitzt die Haupt–
Fundamentalmatrix Y (t) := etA , die Spalten von etA bilden also ein Fundamentalsystem.
Aus den Sätzen 4.9 und 4.14 erhalten wir unmittelbar die nachstehende Darstellung für
die Lösung des inhomogenen Systems mit konstanten Koeffizienten.
Satz 4.15 Die Lösung des linearen Anfangswertproblems (4.6) lässt sich mittels der Matrix–
Exponentialfunktion schreiben als
Z t
(t−t0 )A
y(t) = e
y0 +
e(t−s)A g(s)ds .
t0
Der Satz 4.15 wird für uns das zentrale Resultat zur Gewinnung einer Lösung des Problems
(4.6) darstellen. Bevor wir hierauf jedoch näher eingehen, betrachten wir zwecks Motivation
zunächst einen Spezialfall. Dabei lassen wir uns von der Tatsache leiten, dass bei linearen Differentialgleichungen Lösungen stets in Form von Exponentialfunktionen auftraten.
Deshalb probieren wir hier ebenfalls den Ansatz
y(t) := eλt v
(4.8)
mit einem λ ∈ C sowie v ∈ Cn (beachte, dass wir sowohl λ als auch v hier komplex wählen).
Einsetzen in die Differentialgleichung liefert die Bedingung
λeλt v = y 0 (t) = Ay(t) = eλt Av.
Division durch eλt 6= 0 ergibt somit Av = λv. Also ist y(t) = eλt v genau dann eine
Lösung von y 0 = Ay, wenn λ ein Eigenwert von A zum Eigenvektor v ist (dies erklärt
nachträglich, warum wir in unserem Ansatz (4.8) auch komplexe Werte für λ zulassen,
denn reelle Matrizen können durchaus komplexe Eigenwerte haben). Besitzt A daher n
linear unabhängige Eigenvektoren, so erhalten wir auf diese Weise ein Fundamentalsystem.
Damit haben wir das folgende Resultat bewiesen.
4.3. LINEARE SYSTEME MIT KONSTANTEN KOEFFIZIENTEN
87
Satz 4.16 Die Matrix A ∈ Rn×n besitze n linear unabhängige Eigenvektoren v1 , . . . , vn ∈
Cn mit zugehörigen Eigenwerten λ1 , . . . , λn ∈ C. Dann bilden die Funktionen
yk (t) := eλk t vk
für k = 1, . . . , n
ein Fundamentalsystem von y 0 = Ay.
Das Ergebnis des Satzes 4.16 lässt sich auch mittels des Satzes 4.15 und den Eigenschaften
der Matrix–Exponentialfunktion gewinnen: Unter den im Satz 4.16 genannten Voraussetzungen ist die Matrix A diagonalisierbar, also A = SDS −1 mit der Diagonalmatrix
D = diag(λ1 , . . . , λn ) und einer Matrix S = (v1 , . . . , vn ) ∈ Cn×n , deren Spalten vk gerade
die Eigenvektoren von A zu den Eigenwerten λk sind. Dann ist
y 0 = Ay ⇐⇒ y 0 = SDS −1 y ⇐⇒ z 0 = Dz
mit z(t) := S −1 y(t).
Aus dem Satz 4.14 und den Eigenschaften der Matrix–Exponentialfunktion folgt, dass die
Abbildungen


etλ1


tλ
..
zk (t) := Z(t)ek = etD ek = 
 ek = e k ek
.
etλn
für k = 1, . . . , n ein Fundamentalsystem von z 0 = Dz bilden. Durch Rücktransformation
erhalten wir hieraus das Fundamentalsystem
yk (t) := Szk (t) = etλk Sek = etλk vk
für k = 1, . . . , n von y 0 = Ay aus dem Satz 4.16.
Dieses so gefundene Fundamentalsystem hat allerdings zwei Nachteile:
• Ist λk bzw. vk komplex, so liefert die zugehörige Funktion yk (t) = eλk t vk eine komplexe
Lösung der reellen Differentialgleichung y 0 = Ay.
• Eine reelle Matrix besitzt im Allgemeinen keine n linear unabhängigen Eigenvektoren.
Dies ist genau dann der Fall, wenn A diagonalisierbar ist, anderenfalls kann man den
Satz 4.16 nicht anwenden.
Diese beiden Nachteile treten beispielsweise bei symmetrischen Matrizen A ∈ Rn×n nicht
auf. In diesem Fall gibt es n linear unabhängige (sogar orthonormale) Eigenvektoren zu
n reellen (nicht notwendig verschiedenen) Eigenwerten. Nun wird die Matrix A in den
meisten Anwendungen leider nicht symmetrisch sein, so dass es zur Vermeidung der beiden
obigen Nachteile weiterer Überlegungen bedarf.
Sei zunächst λ = µ + iν mit ν 6= 0 ein nicht–reeller Eigenwert von A ∈ Rn×n mit
zugehörigem Eigenvektor v = u + iw, u, w ∈ Rn . Dann ist auch λ ein Eigenwert von A zum
Eigenvektor v. Wir erhalten im Satz 4.16 somit die beiden komplexen Lösungen
y(t) = eλt v
und z(t) = eλt v.
88
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Durch die Setzungen
y1 (t) := Re y(t) = eµt cos(νt)u − sin(νt)w ,
y2 (t) := Im y(t) = eµt sin(νt)u + cos(νt)w
erhalten wir hieraus zwei reelle Lösungen von y 0 = Ay, die linear unabhängig sind, was wir
in dem folgenden Resultat zeigen (alternativ könnte man auch den Real– und Imaginärteil
der komplexen Lösung z wählen).
Lemma 4.17 Die beiden gerade definierten Funktionen y1 (t) und y2 (t) sind zwei reelle
und linear unabhängige Lösungen der Differentialgleichung y 0 = Ay.
Beweis: Offenbar sind mit y auch der Realteil y1 und der Imaginärteil y2 Lösungen von
y 0 = Ay, wie man unmittelbar durch Einsetzen in die Differentialgleichung sowie Vergleich
von Real– und Imaginärteil erkennt.
Zu zeigen bleibt somit nur die lineare Unabhängigkeit der beiden Abbildungen y1 und
y2 . Seien dazu α1 , α2 ∈ R gegebene Skalare mit
α1 y1 (t) + α2 y2 (t) = 0 ∀t ∈ R.
Dies lässt sich nach Umordnung der Terme schreiben als
α1 cos(νt) + α2 sin(νt) u + α2 cos(νt) − α1 sin(νt) w = 0 ∀t ∈ R.
Setzen wir hier zum einen t = 0 und zum anderen t =
ein, so erhalten wir die beiden Gleichungen
π
2ν
(nach Voraussetzung ist ν 6= 0)
α1 u + α2 w = 0 und α2 u − α1 w = 0.
Multiplizieren wir die erste Gleichung mit α2 und die zweite Gleichung mit α1 , so bekommen
wir
α1 α2 u + α22 w = 0 und α1 α2 u − α12 w = 0.
Subtraktion dieser beiden Gleichungen ergibt
(α12 + α22 )w = 0.
Wegen w 6= 0 (sonst müsste λ nämlich doch ein reeller Eigenwert sein) folgt hieraus
α1 = α2 = 0 und damit die behauptete lineare Unabhängigkeit von y1 und y2 .
2
Auf die gerade beschriebene Weise verfährt man mit jedem Paar von konjugiert–komplexen
Eigenwerten bzw. –vektoren im Satz 4.16. Hinzu kommen die Lösungen y(t) = eλt v, die zu
reellen Eigenwerten λ und (ohne Einschränkung) reellen Eigenvektoren v gehören. Besitzt
die Matrix A somit n linear unabhängige Eigenvektoren, so erhalten wir mit dem Satz 4.16
und den obigen Überlegungen ein reelles Fundamentalsystem.
Kommen wir nun zur Behandlung des zweiten Nachteils. Die Matrix A möge also keine
n linear unabhängigen Eigenvektoren haben, ist also nicht diagonalisierbar. Dann können
wir A immer noch auf Jordansche Normalform transformieren. Wir erinnern hierzu an
dieses zentrale Resultat aus der linearen Algebra.
4.3. LINEARE SYSTEME MIT KONSTANTEN KOEFFIZIENTEN
89
Satz 4.18 ( Jordansche Normalform )
Sei A ∈ Rn×n gegeben. Dann existiert eine reguläre (unter Umständen komplexe) Matrix
S, so dass die Matrix J = S −1 AS von so genannter Jordanscher Normalform ist, d.h., J
ist eine Block–Diagonalmatrix der Gestalt
J = diag Jn1 (λ1 ), Jn2 (λ2 ), . . . , Jnr (λr )
mit n1 + . . . + nr = n und den so genannten Jordan–Blöcken


λk 1
0
.


λk . .


Jk := Jnk (λk ) := 
 ∈ Cnk ×nk
.
.. 1 

0
λk
(4.9)
für k = 1, . . . , r. (Die λk sind dabei natürlich die Eigenwerte der Matrix A.)
Um das homogene Differentialgleichungssystem y 0 = Ay für eine im Allgemeinen nicht
diagonalisierbare Matrix A lösen zu können, gehen wir im Prinzip wie im Anschluss an
den Satz 4.16 vor und verwenden statt der Diagonalisierbarkeit von A die Jordansche
Normalform A = SJS −1 mit J, S wie im Satz 4.18. Dann gilt
y 0 = Ay ⇐⇒ y 0 = SJS −1 y ⇐⇒ z 0 = Jz
mit z(t) := S −1 y(t).
(4.10)
Aufgrund der speziellen Gestalt der Matrix J zerfällt das System z 0 = Jz dabei in die r
voneinander unabhängigen Differentialgleichungssysteme
zk0 = Jk zk
∀k = 1, . . . , r,
(4.11)
wobei Jk = Jnk (λk ) den Jordan–Block aus (4.9) bezeichnet und die Abbildung z entsprechend in die Block–Komponenten z = (z1 , . . . , zr ) mit zk (t) ∈ Rnk (k = 1, . . . , r) zerlegt
wurde. Wegen Satz 4.14 bilden die Spalten der zugehörigen Fundamentalmatrix
Zk (t) := etJk
dann ein Fundamentalsystem von (4.11), so dass wir einen möglichst einfachen Ausdruck
für etJk suchen. Dieser wird durch das folgende Resultat geliefert.
Satz 4.19 Für einen Jordan–Block Jk = Jnk (λk ) ∈ Cnk ×nk gemäß (4.9) gilt


n −1
t2
1 t
· · · (nt kk−1)!
2!


..
..
 0 1

.
t
.


tJk
λk t  . .
.
t2
e = e  .. . . . . . . . .

2!
 .

..
 ..

. 1
t
0 ··· ···
0
1
(4.12)
90
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Beweis: Wir bezeichnen die rechte Seite in (4.12) mit F (t). Wegen Satz 4.13 genügt es
wegen F (0) = I zu zeigen, dass F 0 (t) = Jk F (t) gilt. Mit
tj−1
d tj
=
dt j!
(j − 1)!
folgt aus der Produktregel aber sofort

n −2
0 1
t · · · (nt kk−2)!

..
..
 0 0
.
.
1

0
λk t  .
.
.
F (t) = λk F (t) + e  .. . . . .
t
 .
..
 ..
. 0
1
0 ··· ··· 0
0



0
λk 0
0 ··· 0
.. 


..
. . 
 0
 0 λk 0

 .
 . .
.
.


.
.
.
.
=  .
.
.
. 0  F (t) + 
 ..

 .
 .
..
 ..
 ..
. λk 0 
0
0 · · · · · · 0 λk
= Jk F (t),
was zu zeigen war.








1
0
···
..
.
0
1
.. .. ..
.
.
.
..
. 0
··· ···
0

0
.. 
. 

0 
 F (t)

1 
0
2
Zur Illustration der bisherigen Resultate betrachten wir eine Matrix A ∈ R6×6 , deren
Jordansche Normalform die Gestalt


λ1 1


λ1 1




λ
1

J =


λ2



λ3 1 
λ3
habe mit gewissen (nicht notwendig verschiedenen) Eigenwerten λ1 , λ2 , λ3 . In diesem Fall
liegen also drei Jordan–Blöcke vor. Wegen Satz 4.19, angewandt auf jeden dieser drei
Jordan–Blöcke, erhalten wir für das transformierte System z 0 = Jz die Fundamentalmatrix

 λ1 t
e
teλ1 t 21 t2 eλ1 t


e λ1 t
teλ1 t


λ
t
1


e
,
Z(t) = 
λ2 t


e



eλ3 t teλ3 t 
e λ3 t
4.3. LINEARE SYSTEME MIT KONSTANTEN KOEFFIZIENTEN
91
deren Spalten das gewünschte Fundamentalsystem von z 0 = Jz liefern. Durch Rücktransformation
Y (t) := SZ(t)
erhält man hieraus eine Fundamentalmatrix des Ausgangssystems y 0 = Ay. Die Spalten
sind gegeben durch yk (t) = Y (t)ek = SZ(t)ek = Szk (t). Zur Berechnung des Fundamentalsystems yk (t) (k = 1, . . . , n) benötigt man neben den Eigenwerten λk somit auch die
Spalten der Matrix S. Im Falle einer diagonalisierbaren Matrix handelt es sich dabei gerade um die Eigenvektoren von A, im Allgemeinen kommen zu den Eigenvektoren auch noch
so genannte Hauptvektoren hinzu.
Wir erinnern daher an dieser Stelle an einige weitere Tatsachen aus der linearen Algebra.
Unter einem Hauptvektor der Stufe p zum Eigenwert λ von A ∈ Rn×n versteht man einen
(eventuell komplexen) Vektor v mit der Eigenschaft
(A − λI)p v = 0 und (A − λI)p−1 v 6= 0.
Ein Hauptvektor der Stufe p = 1 ist daher gerade ein Eigenvektor von A zum Eigenwert
λ. Eine Jordan–Kette ist eine Folge von Vektoren v1 , . . . , vk mit der Eigenschaft
(A − λI)v1 = 0, v1 6= 0,
(A − λI)vi+1 = vi ∀i = 1, . . . , k − 1.
Die Elemente v1 , . . . , vk einer solchen Jordan–Kette sind offenbar linear unabhängig, und
der Vektor vi ist dabei ein Hauptvektor der Stufe i zum Eigenwert λ. Mittels einer solchen
Jordan–Kette lassen sich also Eigen– und Hauptvektoren berechnen, wobei diese allerdings
nicht eindeutig bestimmt sind, da die Matrix A − λI singulär ist.
Wir illustrieren die Ergebnisse dieses Abschnittes an einem Beispiel.
Beispiel 4.20 Betrachte die homogene Differentialgleichung


0 1 0
y 0 = Ay mit A :=  4 3 −4  .
1 2 −1
(4.13)
Zunächst bestimmt man die Eigenwerte von A als Nullstellen des charakteristischen Polynoms p(λ) := det(A − λI). Im vorliegenden Fall hat dieses die Gestalt p(λ) = −λ(λ − 1)2 .
Folglich ist λ1 := 0 ein einfacher Eigenwert und λ2 := 1 ein doppelter Eigenwert. Aus der
Gleichung (A − λ1 I)v1 = 0 erhält man beispielsweise den Eigenvektor v1 = (1, 0, 1)T . Entsprechend ergibt sich aus der Gleichung (A−λ2 I)v2 = 0 der Eigenvektor v2 = (4, 4, 6)T , und
es existiert kein weiterer hierzu linear unabhängiger Eigenvektor, so dass die geometrische
Vielfachheit des Eigenwertes λ2 in diesem Fall echt kleiner ist als die algebraische Vielfachheit. Wir benötigen daher noch einen Hauptvektor der Stufe 2 zum Eigenwert λ2 . Nach
den obigen Ausführungen erhalten wir einen solchen aus dem Ansatz (A − λ2 I)v3 = v2 .
Beispielsweise erhält man hieraus v3 = (0, 4, 1)T .
92
KAPITEL 4. LINEARE DIFFERENTIALGLEICHUNGEN
Aus diesen Ausführungen ergibt sich insbesondere, dass die Matrix A die Jordansche
Normalform


0 0 0
J = 0 1 1 
0 0 1
besitzt. Die Lösung des zu y 0 = Ay gemäß (4.10) äquivalenten transformierten Systems
z 0 = Jz ist wegen

 λt
0
0
e 1
Z(t) = etJ =  0 eλ2 t teλ2 t 
0
e λ2 t
0
gegeben durch


1
z1 (t) := eλ1 t  0  ,
0


0
z2 (t) := eλ2 t  1  ,
0


 
0
0
z3 (t) := teλ2 t  1  + eλ2 t  0  .
0
1
Mit S := (v1 , v2 , v3 ) erhalten wir somit aus yk := Szk für k = 1, 2, 3 das Fundamentalsystem


1
y1 (t) :=  0  ,
1


4
y2 (t) := et  4  ,
6


 
0
4
t 


4
y3 (t) := e
+ t 4 
1
6
für die gegebene Differentialgleichung (4.13).
2
Treten bei der obigen Berechnung wieder (konjugiert–) komplexe Lösungen auf (etwa durch
komplexe Eigenwerte), so erhält man in Analogie zur Argumentation beim Lemma 4.17
durch den Übergang auf Real– und Imaginärteil wieder zwei reelle Lösungen.
4.4
Lineare Differentialgleichungen höherer Ordnung
Eine lineare Differentialgleichung n-ter Ordnung hat die Gestalt
y (n) + an−1 (t)y (n−1) + . . . + a0 (t)y = b(t)
(4.14)
mit gewissen stetigen Funktionen ai , b : I → R (i = 0, 1, . . . , n − 1), die auf einem Intervall I ⊆ R definiert sind. Speziell für b ≡ 0 spricht man von einer homogenen linearen
Differentialgleichung n-ter Ordnung, anderenfalls von einer inhomogenen linearen Differentialgleichung n-ter Ordnung.
Wegen Satz 1.15 ist (4.14) äquivalent zu dem linearen Differentialgleichungssystem
erster Ordnung
y 0 = A(t)y + g(t)
(4.15)
93
4.4. LINEARE DIFFERENTIALGLEICHUNGEN HÖHERER ORDNUNG
mit
und



y=


y1
y2
..
.
yn






 := 



y
y0
..
.
y (n−1)
0
1
0

0
0
1

.
.
..

..
..
.

A(t) := 
.
.

..
..


0
0
···
−a0 (t) −a1 (t) · · ·
Aus den Sätzen 4.1 und 4.4 erhalten wir somit
resultat.


,


0
 .. 


g(t) :=  . 
 0 
b(t)

(4.16)

...
0
0

...
0
0

.
..

..
.

(4.17)
.
..
..
..

.
.
.


···
0
1
· · · −an−2 (t) −an−1 (t)
das folgende Existenz– und Eindeutigkeits-
Satz 4.21 Seien I ⊆ R ein gegebenes Intervall und ai , b : I → R stetige Funktionen. Dann
gelten die folgenden Aussagen:
(a) Die Menge aller Lösungen der homogenen linearen Differentialgleichung n-ter Ordnung bildet einen Vektorraum der Dimension n.
(b) Jede Lösung y von (4.14) hat die Gestalt y = yh + yp , wobei yh eine beliebige Lösung
der homogenen Differentialgleichung und yp eine partikuläre Lösung der inhomogenen
Differentialgleichung (4.14) ist.
(c) Das zugehörige Anfangswertproblem
(n−1)
y (n) + an−1 (t)y (n−1) + . . . + a0 (t)y = b(t), y(t0 ) = y0 , y 0 (t0 ) = y00 , . . . , y (n−1) (t0 ) = y0
(n−1)
hat für beliebig vorgegebene Werte t0 ∈ I und y0 , y00 . . . , y0
ganz I definierte) Lösung.
∈ R genau eine (auf
Sei als Nächstes Y (t) eine Fundamentalmatrix des zu (4.14) gehörenden Systems (4.15)
mit y, g, A gemäß (4.16), (4.17). Ferner bezeichnen wir mit w(t) := det Y (t) wieder die
entsprechende Wronski–Matrix. Aufgrund der speziellen Gestalt von A(t) in (4.17) ist
SpurA(t) = −an−1 (t). Wegen Satz 4.8 lautet die Formel von Liouvillle daher
w 0 = −an−1 (t)w.
Sind y1 , . . . , yn linear unabhängige Lösungen der Differentialgleichung n-ter Ordnung aus
(4.14), so hat die Fundamentalmatrix Y (t) des zugehörigen Systems (4.15) erster Ordnung
aufgrund des Zusammenhangs aus dem Satz 1.15 offenbar die Gestalt


y1
y2
···
yn
 y10
y20
···
yn0 


Y (t) = 
(4.18)
.
..
..
..
..
.


.
.
.
(n−1)
y1
(n−1)
y2
(n−1)
· · · yn
Herunterladen