Kapitel 4 Differentialgleichungen

Werbung
( 0) =
2
0)
()=
3(
+
0
+
0
.
+
0)
0)
2(
3
( 0) =
(
+
0)
und
0
.
,
0
()=
1(
( )=
2
und
Also ist
( 0) =
( 0) =
1
und
( 0) =
0
und die Geschwindigkeit ist , d.h.
0
( 0) =
Es gibt viele Wurftechniken, und nur wenige davon können auf einfache Weise durch ein mathematisches Modell beschrieben werden; wir
ignorieren daher den genauen Vorgang des Abwurfs und gehen davon
aus, daß der Gegenstand irgendwie eine Anfangsgeschwindigkeit erreicht hat im Abwurfpunkt mit Koordinaten ( 0 0 0 ); den Zeitpunkt
des Abwurfs bezeichnen wir mit 0 .
Diese Gleichungen sind erfüllt, wann immer ( ) und ( ) lineare Funktionen von sind und ( ) eine quadratische Funktion mit führendem
Koeffizienten
. Die sechs noch fehlenden Koeffizienten dieser drei
Polynomfunktionen geben uns die Anfangsbedingungen: Zum Zeitpunkt = 0 ist
Ein in die Luft geworfener Gegenstand bewegt sich unter gewissen Bedingungen näherungsweise auf einer parabelförmigen Bahn. Wir wollen
diese etwas vage Aussage präzisieren und mathematisch herleiten.
.
Ein einfaches Beispiel hierfür liefert das zweite NEWTONsche Gesetz,
wonach die zeitliche Ableitung des Impuls eines Teilchens gleich der
auf das Teilchen wirkenden Kraft ist.
¨( ) =
¨ ( ) = 0 und
¨( ) = 0
a) Wurfparabel
Die Bewegung des Gegenstandes wird dann durch zwei Naturgesetze
bestimmt: Das Gravitationsgesetz beschreibt den Effekt der Erdanziehung, und das zweite NEWTONsche Gesetz sagt uns, wie sich diese Kraft
auf die Bewegung des Gegenstands auswirkt. Die Gravitation können
wir aufgrund der gemachten Annahmen als konstant annehmen, d.h. auf
2
wirkt die Kraft
, wobei
98
einen Körper der Masse
die Gravitationsbeschleunigung an der Erdoberfläche ist; bei üblicher“
”
Ausrichtung des Koordinatensystems wirkt sie in Richtung der negativen
-Achse. Diese Gravitationskraft ist nach dem zweiten NEWTONschen
Gesetz gleich der Ableitung des Impulses nach der Zeit; wenn wir die
Masse als konstant voraussetzen, ist das also gleich mal der Ableitung der Geschwindigkeit oder mal der zweiten Ableitung des Orts.
Wir haben somit das Differentialgleichungssystem
§1: Definitionen und erste Beispiele
Differentialgleichungssysteme sind so ziemlich das wichtigste mathematischen Hilfsmittel der Naturwissenschaften und der Technik. Die
dahinterstehende Grundidee ist einfach: Man kann zwar nur selten a
priori sagen, wie sich ein System über einen längeren Zeitraum hinweg entwickeln wird, aber man hat oft aufgrund von Naturgesetzen eine
klare Vorstellung über die Zustandsänderung im nächsten Augenblick,
d.h. also über den Wert der zeitlichen Ableitung der Zustandsgrößen in
Abhängigkeit vom gegenwärtigen Zustand des Systems.
Kapitel 4
Differentialgleichungen
Als nächstes nehmen wir an, daß wir den Luftwiderstand vernachlässigen können, eine Annahme, die beim Kugelstoßen kaum zu Fehlern
führt, die aber beispielsweise für einen Fallschirmspringer (auch mit
geschlossenem Fallschirm) oder einen Papierflieger völlig unrealistisch
ist. Als nächstes wollen wir auch noch annehmen, daß wir nur relativ geringe Wurfhöhen erreichen, so daß die Erdanziehung als konstant
angenommen werden kann.
Kap. 4: Differentialgleichungen
()=
= 0,
0
)
.
#"
!
!
!
!
!
!
$
#"
!
!
!
!
!
$
"
#"
%"
!
!
$'&
Falls die Funktionen
nur von 1 ( )
( ) abhängen und nicht
auch noch direkt von der Zeit spricht man von einem autonomen
System. Da Naturgesetze nicht von der Zeit abhängen, hat man es in
naturwissenschaftlich-technischen Anwendungen meist mit autonomen
Systemen zu tun; man kann allerdings auch den Einfluß von Umgebungsgrößen in einem zeitabhängigen Term zusammenfassen und so
ein nichtautonomes System erhalten.
() .
Wir kennen bereits eine Funktion, die sich so verhält, wie es die obige Differentialgleichung angibt, nämlich die Exponentialfunktion
,
und natürlich entspricht auch für jedes konstante Vielfache dieser Funktion die Differentiation einfach der Multiplikation mit
. Das sind dann
aber bereits alle Funktionen mit dieser Eigenschaft, denn der Quotient
()
()=
= ()
)
1(
%"
"
()=
!
()
)
1(
.. ..
. .
$
2
()
genügt – zumindest, wenn diese Masse hinreichend groß ist. (Im atomaren Bereich muß man auch statistische Effekte berücksichtigen, aber ab
etwa 1010 Atomen können die für alle praktischen Fälle vernachlässigt
werden.)
)=
2(
)
()
1(
!
1
!
)=
!
1(
"
( )=
Wir betrachten ein System, das durch zeitlich veränderliche Größen
( ) beschrieben wird; unter einem System von Differenti1( )
algleichungen oder kurz einer Differentialgleichung verstehen wir eine
Vorschrift, die die zeitlichen Ableitungen 1 ( )
( ) aus den Funktionswerten berechnet:
0
Das gerade durchgerechnete Beispiel war insofern untypisch für Differentialgleichungen, als auf den rechten Seite der Gleichungen nur
Konstanten standen; üblicherweise wird man dort Funktionen erwarten,
die nicht nur von abhängen (so daß man sie einfach integrieren kann),
sondern auch noch von den gesuchten Funktionen. Beim radioaktiven
Zerfall etwa ist die pro (kleiner) Zeiteinheit zerfallende Masse proportio0, die
nal zur noch vorhandenen Masse, es gibt also eine Konstante
sogenannte Zerfallskonstante, so daß die zum Zeitpunkt vorhandene
Masse ( ) der Gleichung
=(
c) Differentialgleichungen und Differentialgleichungssysteme
0)
b) Radioaktiver Zerfall
(
0
( ) ( ) liegen also in der Tat auf einer Parabel.
die Punkte
,
0
+
0
()
1
1
ist. Indem wir = 0 setzen, sehen wir, daß die Konstante = (0)
gleich der zum Zeitpunkt 0 vorhandenen Masse ist; falls wir stattdessen
die Masse 0 = ( 0 ) zu einem anderen Zeitpunkt 0 kennen, können
wir analog zum obigen Beispiel auch schreiben
1
3
dividieren; wir
()
1
( )=
+
hängt von der Zeit ab. Andernfalls können wir durch
erhalten
()
2
0
und
()=
()
+
0 =
0
0
+
0)
3(
+
()
2
0)
=
(
()
ist also gleich einer Konstanten , so daß
+
hat die Ableitung
()=
()
()=
einer Lösungsfunktion und der Funktion
Kap. 4: Differentialgleichungen
Diese Gleichungen beschreiben in der Tat fast immer eine Parabel: Falls
wir die -Achse des Koordinatensystems so wählen, daß die Anfangsgeschwindigkeit in der (
)-Ebene liegt, ist 2 = 0. Falls auch 1
verschwindet, falls wir den Gegenstand also senkrecht nach oben (oder
gar unten) werfen, sind ( ) = 0 und ( ) = 0 konstant und nur
Höhere Mathematik II WS 2006/2007
Falls wir, wie in den Beispiel aus den vorangegangenen Abschnitten, die
Werte der beteiligten Funktionen zu einem festen Zeitpunkt = 0 kennen, reden wir von einem Anfangswertproblem. Solche Probleme treten
!
(
)
)
(
(
)
+
( )+
*
" 0
( ) = ( ),
*
1
+
" * "
0( )
1( )
,
"
!
!
!
1
(
1)
()
()
( ).
"
"
* "
"
*
* "
* "
"
"
"
"
( )+
+
*
*
" * "
/
.
0
0
=
2( 0)
=
2
für ein festes
1( 0)
( 0) =
Eventuell haben wir noch Anfangsbedingungen der Form
()
%"
()
( ) ( ) ¨( )
1)
*
+
( )+
( )+
1(
2(
()
)
)
.
( )
( )
-
(
) 2( ) +
2(
) 1( ) +
1(
()=
()
()
0
2
*
+
1
"
)= ()
1
1(
&
)
+
+
%"
1(
*
) 2( ) +
22 (
..
.
) 1( ) +
21 (
..
.
*
)=
2(
) 2( ) +
12 (
)=
..
.
!
) 1( ) +
11 (
*
+
..
.
!
)=
!
1(
"
2( )
)
Wir betrachten in diesem Abschnitt Systeme von Differentialgleichungen, wie sie zu Beginn dieses Paragraphen definiert wurden, unter der
(sehr) einschränkenden Voraussetzungen, daß die rechten Seiten linear
( ) sind; wir betrachten also
in den gesuchten Funktionen 1 ( )
ein System
1( ) =
1(
) eine Lösung der obigen Glei-
+
Für jede Lösung ( ) der obigen Gleichung ist dann das -tupel
2(
)=
)
d) Systeme linearer Differentialgleichungen
0(
mit der Idee, daß sich ( ) so verhalten soll wie die -te Ableitung
von ( ). Dazu bilden wir das Differentialgleichungssystem
1( )
die sogenannten linearen Differentialgleichungen -ter Ordnung mit
konstanten Koeffizienten. Auch diese Gleichungen lassen sich leicht auf
die obige Form bringen: Wir betrachten neue Funktionen
( )+
Somit beschreiben das System von Differentialgleichungen erster Ordnung und die eine Differentialgleichung höherer Ordnung genau dasselbe Phänomen. Wie wir im vorigen Kapitel gesehen haben, läßt sich
die Differentialgleichung höherer Ordnung recht gut mit Hilfe von
LAPLACE-Transformationen lösen; in diesem Kapitel werden wir sehen,
daß der im letzten Semester entwickelte (und im folgenden noch auszubauende) Apparat der linearen Algebra eine strukturelle Übersicht über
die Lösungsmenge des Systems. Erst die Kombination beider Ansätze
liefert ein vollständiges Bild.
" 1)
1(
Auch wenn das Differentialgleichungssystem als Anfangswertproblem
gegeben ist, läßt sich das leicht in Anfangswerte für die Gleichung
höherer Ordung umschreiben: Hier werden die Werte ( 0 ) ( 0 ) usw.
bis ( 1) ( 0 ) vorgegeben.
(
1
( )+
( )
Ein für die Informationstechnik wichtiger Spezialfall sind Gleichungen
der Form
und wir kennen für jede der sechs beteiligten Funktionen ihren Wert an
der Stelle = 0 .
( ) = ( ),
() =
,
( ) = ( ),
( ) = 0,
!
( ) = ( ),
( ) = 0,
!
0(
!
einführen, können wir das System schreiben als
)
"
()= ()
2(
und
)
()= ()
1(
des Differentialgleichungssystems ist
chung.
)
()= ()
0(
eine Lösung des Systems, und für jede Lösung
Kap. 4: Differentialgleichungen
Auch Differentialgleichungen, in denen wie im Beispiel der Wurfparabel
höhere Ableitungen vorkommen, lassen sich so interpretieren: Wenn
wir dort die drei Komponenten des Geschwindigkeitsvektors als neue
Funktionen
typischerweise dann auf, wenn das weitere Verhalten eines konkreten
Systems vorhergesagt werden soll.
Höhere Mathematik II WS 2006/2007
-
-
"
%"
"
!
!
!
.
" !
!
!
0
1
1
2
1
2
1
-
3
7
6
2
2
5
4
4
&
+ &
9
+
9
9
D
=
=
+
&
=
6
+
C
:;:;<
:;:;<
:;:;<
6
>;>;?
"
()
>;>;?
*
+@"
9
*
=
"
*
!
!
!
!
!
*
"
!
6
6
*
:;:A<
*
( )+ ( )
()=
E
()
( )+ ( )
F
* "
* "
() =
6
E
6
6
E
()
und ( ) löst also in der Tat das zugehörige homogene System.
()
()
()
( )+ ( );
F
()
()
()
()
()
+
=
()=
()= ()
( ) hat somit die Ableitung
( ) + ( ) und
+
die Differenz ( ) = ( )
( )=
( )=
b) Sind ( ) und ( ) zwei Lösungen von ( ), so ist
()
()
>;>;?
%"
>;>A?
* "
"
!
+
!
!
6
Um die Lösungsmenge des Differentialgleichungssystems ( ) zu verstehen, müssen wir nach diesem Lemma zwei Teilaufgaben lösen:
1.) Wir müssen den Vektorraum der Lösungen des homogenen Systems
bestimmen.
2.) Wir müssen uns wenigstens eine Lösung des inhomogenen Systems
verschaffen – oder zumindest wissen, daß eine existiert.
Um im einfachsten Fall zu sehen, wie so etwas funktionieren könnte,
betrachten wir ein System“ aus genau einer Gleichung
”
( ) = ( ) ( )+ ( );
+
+ &
-
+ &
Analog zum Fall linearer Gleichungssystemen gilt auch hier
6
In Analogie zu den linearen Gleichungssystemen bezeichnen wir das
System ( ) als homogen, wenn ( ) der Nullvektor ist, wenn also alle
Funktionen ( ) verschwinden; andernfalls bezeichnen wir es als inhomogen. Das homogene System zu einem gegebenen inhomogenen
System soll einfach dasjenige System sein, in dem alle ( ) durch null
ersetzt wurden.
6
wobei die Ableitung eines Vektors von Funktionen natürlich der Vektor
der abgeleiteten Funktionen sein soll. Falls es Anfangsbedingungen gibt,
können sie nun in der kompakte Form ( 0 ) = geschrieben werden.
C
-
+
( )+ ( ),
* &8
C
F
()
/
( )=
()
6
)
2( )
erhalten wir die übersichtlichere Form
1(
,
..
.
.
D +
..
() .
C
2
( )+
6
()
()
1
)
(
22 )
..
.
C
( )+
12 (
()
()
( )=
=
()=
( )+
()
6
)
(
21 )
..
.
6
()
() =
()=
( )+
und
11 (
.
ist, gilt auch
()
6
()
und
()=
C
()
()
Beweis: a) Wir müssen zeigen, daß für zwei Lösungen ( ) und ( )
eines homogenen Systems auch jede Linearkombination ( ) + ( )
mit
wieder eine Lösung ist. Das ist aber klar, denn wenn
-
Wir können die Funktionen ( ) ( ) und die Anfangswerte jeweils
zu Vektoren zusammenfassen und die Koeffizientenfunktionen ( ) zu
einer Matrix: Mit
1( )
1( )
1
(
)
2
2( )
2
()=
( )=
=
..
..
..
.
.
.
.
0
cos
0
+
/
()
()
()=
()= ()
Lemma: a) Die Menge aller Lösungen eines homogenen Differentialgleichungssystems der Form ( ) ist ein -Vektorraum.
b) Ist das System nicht homogen und ist ( ) eine feste Lösung, so läßt
sich jede andere Lösung ( ) schreiben als ( ) = ( ) + ( ) mit einer
Lösung ( ) des zugehörigen homogenen Systems; die Lösungsmenge
ist also ein affiner Raum.
Kap. 4: Differentialgleichungen
Für das im letzten Kapitel betrachtete Beispiel des elektrischen Schwingkreises mit angelegter Wechselspannung etwa haben wir bei dieser Sicht
der Dinge die beiden Funktionen ( ), die Ladung des Kondensators
zum Zeitpunkt , und ( ) = ( ), die resultierende Stromstärke; das
Differentialgleichungssystem ( ) ist hier also
Höhere Mathematik II WS 2006/2007
B
-
+
*
G
+
/
H
/
* *
/
*
D
*
D
D
D
*
I
D
I
*
D
KML
O
O
KML
D
I
I
*
5
J
*
()
Y
()=
( )
6
KQL
O
P
()
mit
mit
"/
.
N
N
K Z
X
Y
X
N
N
N
?
Das Problem dabei ist nur, daß wir hier nicht die geringste Ahnung
haben, was die rechte Seite bedeuten soll; unser nächstes Ziel wird sein,
ihr eine Bedeutung zu geben und uns dann zu überlegen, ob bzw. unter
welchen Bedingungen die obige Formel korrekt ist.
()=
( )
.
Damit ist in diesem Fall das erste Problem auf eine einfache Integration
zurückgeführt.
könnte vielleicht gelten
()=
/
wobei das Vorzeichen wegen der Stetigkeit von im gesamten Intervall
konstant ist, da die Exponentialfunktion nie null wird.
()
,
()= ()
Es wäre schön, wenn wir im mehrdimensionalen Fall genauso vorgehen
könnten: In Analogie zu
()=
( )
K L
oder
( )
*
=
+
KWL
( )
N
()=
oder
*
und umgekehrt ist auch jede dieser Funktionen eine Lösung. Insbesondere ist die Lösungsmenge ein eindimensionalen Vektorraum.
.
+
()
mit einem
ln ( ) =
/
Integration beider Seiten führt auf
( )
in jedem Intervall, in dem ( ) nirgends verschwindet.
U
()
= ()
()
()=
V
ln ( ) =
Somit hat jede Lösung die Form
und allgemein haben wir somit
()
()
=
= ( ),
()
()
T
() =
ln
ist. In einem Intervall, in dem ( ) negativ ist, gilt entsprechend
()
= ()
()
T
ln ( ) =
Der Quotient links ist bekanntlich die logarithmische Ableitung von ( );
falls dies nicht mehr bekannt sein sollte, zeigt eine einfache Anwendung
der Kettenregel, daß in einem Intervall, in dem ( ) positiv ist,
Unter der Annahme, daß wir das dürfen, dividieren wir durch ( ) und
erhalten
()
= ( ).
()
Falls nicht, gibt es einen Punkt 1
0 , so daß ( 1 ) = 0 ist. Wegen
der Stetigkeit von ( ) ist die Funktion dann auch in einer Umgebung
von 1 von Null verschieden, d.h. dort können wir die obigen Argumente
anwenden und sehen, daß ( ) dort die Form ( ) hat mit irgendeiner
Funktion . Da als differenzierbare Funktion insbesondere überall
stetig sein muß und ( ) nirgends verschwindet, ist das nicht möglich.
Genauso überlegt man sich, daß ( ) für jedes
0 verschwinden
muß, ( ) ist also gleich der Nullfunktion. Diese ist somit die einzige
Lösung, die noch zusätzlich betrachtet werden muß. Insbesondere folgt
daraus auch, daß eine Lösungsfunktion, die in irgendeinem Punkt positiv
bzw. negativ ist, überall positiv bzw. negativ sein muß, denn eine stetige
Funktion kann ihr Vorzeichen nur wechseln, wenn sie in irgendeinem
Punkt null wird; wie wir gerade gesehen haben, ist das genau dann der
Fall, wenn sie überall verschwindet.
S
( ).
/
( )= ( )
Wir beginnen mit der Lösung des homogenen Systems
Bleibt noch die Frage, was passiert, wenn ( ) an irgendeinem Punkt 0
eine Nullstelle haben sollte. Wir wollen uns überlegen, daß ( ) dann
auch für jedes
0 verschwinden muß.
nach
Kap. 4: Differentialgleichungen
dabei nehmen wir an, daß eine differenzierbare Funktion von
:
stetige Funktionen.
sei und
Höhere Mathematik II WS 2006/2007
R
[
\
]_^
&
,
`
]
b
c
a
& a
,
^
&
b
`
c
6
+
& a
Das Quadrat von
c
Um diese Formel leichter anwenden zu können, machen wir sie mutwillig schlechter und begnügen uns damit, daß jeder Eintrag von
höchstens den Betrag ( ) ( ) hat.
6
6
c
6
6
c
+
Z
*
6
c
*
`
c
c
6
5
k
5
6
c
+
*
a
h
Z
&
& a
1
3!
+
1
2!
k
k
d
+
m
,
l
];^
&
& a
,
^
&
d
k
&
^
1
+
1
5
=
.
1 0
1 1
1
5!
1
(2 + 1)!
+
ist aber gleich der Einheits1
4!
=0
&
1
l
.
+
cosh 1 sinh 1
sinh 1 cosh 1
i
1
+
1
1
];^
+ sinh 1
1
(2 )!
+
0 1
1 0
=
6
+
c
,
+
k
i
=0
6
k
1
2
i
Z
5
m
=
h
h
= cosh 1
j
j
5
.
j
i
=0
)
i
5
=
=
h
j
+
c
2
1
k
=
=
c
matrix und daher ist
i
+
6
i
+
gleich der Nullmatrix, d.h.
1 1
=
= + =
0 1
j
=
Z i
2
Z als auch
2
Z
und
sowohl
h
abschätzen:
Dazu müssen wir die Größe der Einträge in den Matrizen
Sind allgemein
zwei
-Matrizen und sind die Beträge aller
Einträge von kleiner oder gleich und die von kleiner oder gleich ,
so kann es in
offensichtlich keinen Eintrag geben, dessen Betrag
größer ist als
: Schließlich ist jeder Eintrag in der Produktmatrix
eine Summe von Summanden, deren jeder Produkt je eines Eintrags
von und von ist.
h
!
g
h
j
(
hat daher jeder Eintrag einen Betrag kleiner
Z
=0
6
1
!
H
c
Ist nun der Betrag des größten Eintrags in der Matrix , so folgt
höchstens Zahlen bis zum Betrag ( ) stehen
induktiv sofort, daß in
können; in der endlichen Teilsumme
6
Wir können natürlich nicht erwarten, daß die Matrixexponentialfunktion
alle schönen Eigenschaften der gewöhnlichen Exponentialfunktion erbt.
Beispielsweise ist nur schwer vorstellbar, daß für beliebige Matrizen
und gelten sollte + =
: Da für zwei Matrizen und
stets + = + ist, müßte dann auch
=
sein, was
zumindest unwahrscheinlich aussieht. In der Tat ist etwa für
0 1
0 0
=
und
=
0 0
1 0
`
Damit ist klar, daß
eine
-Matrix sein soll, und das erklärt auch,
warum oben der Konstantenvektor 0 auf der rechten Seite steht. Was
wir uns noch überlegen müssen, ist die Konvergenz der Reihe.
Z
.
e
=0
Hf
=
b
f) Eigenschaften der Matrixexponentialfunktion
-Matrix
a
def
" Damit wissen wir also, daß die Matrix
für jede
existiert; somit ist die Funktion
wohldefiniert.
\
1
!
" -Matrix
,
\
also setzen wir analog für eine
& !
b
=0
" =
\
Wir orientieren uns wieder am Eindimensionalen: Für eine reelle Zahl
ist
Letztere Summe konvergiert für
gegen
, und damit muß
auch die Matrixsumme absolut konvergieren, denn die Reihe für
ist
konvergente Majorante des Betrags eines jeden Eintrags. Insbesondere
hat jeder Eintrag von
höchstens den Betrag
.
Kap. 4: Differentialgleichungen
e) Die Matrixexponentialfunktion
Höhere Mathematik II WS 2006/2007
j
j
,
&
i
Z
6
]
j
k
^
m
,
]_^
l
&
& 5
]_^
,
&
O
6
c
,
&
k
6
Z
Z
h
n"
/"
h
c
.
Z
h
Z
/
.
Z
o
Z
o
\
c
p
p
\
\
q
p
]_^
k
T
Z
U
U
&
c
]
=
+
2
=
^
&
.
.
=2
(
)
!
2
=
.
+
2
(1 +
2 2
)
,
H
=0
( )
.
( + 2)!
c
c
6
6
c
6
0
lim
0, denn wie
bleibt also insbesondere beschränkt. Dies gilt auch für
zweimalige Anwendung der DE L’HOSPITALschen Regel oder TAYLOREntwicklung zeigen, ist der Grenzwert dann 12 . Damit existiert
=0
)
=
( + 2)!
(
,
( )
,
( + 2)!
U
]
6
^
&
6
=1
6
c
6
c
6
c
für kommutierende Matrizen in der Tat erfüllt ist.
,
Nach der obigen Diskussion ist jeder Eintrag der Matrix in der rechtsstehenden Summenmatrix höchstens gleich
!
U
*
2
6
U
&
+
Z =1
&
)
U
&
+
(
6
L +
1
=
Z 6
*
2
Dabei ist
T
( + )
Z &
T
2
6
U
U
U
) =
6
^
( +
Ts
]
*
die wegen der für beliebige Matrizen gültigen Gleichung
6
,
T
,
2
Z U
U
+
Z
+2
Z &
2
U
U
2
) =
H
T
U
( +
6
zur Identität
Z
Z 6
&
2
U
+
Da die Matrizen
und
miteinander vertauschbar sind, ist nach dem
gerade bewiesenen Lemma ( + ) =
, also
0
T
( + )
T
,
+2
g
lim
Z
]_^
2
`
k
U
2
r
6
( + ) =
Beweis: Die Ableitung ist definiert als
=
&
Beim Rechnen mit Polynomen in und verwendet man keine speziellen Eigenschaften dieser Variablen außer, daß sie kommutieren. Damit
kann man in so eine Polynomidentität auch kommutierende Matrizen
und einsetzen: Beispielsweise führt die Polynomidentität
.
Beweis: Für zwei reelle Zahlen
ist + =
=
; damit gilt
dieselbe Formel auch für zwei reellwertige Variablen und . Wenn
wir in allen Potenzreihen alle - und -Potenzen oberhalb der -ten
ignorieren, sagt die Gleichung aus, daß drei Polynome in und als
Polynome identisch sind.
ist die Funktion
g
stetig differenzierbar mit Ableitung
-Matrix
H
.
6
.
Satz: Für jede
Die für uns wichtigste Anwendung hiervon ist
/
ist
.
Z
=
l
6
( + )
k
H
=
m
"/
=
5
Z
Insbesondere ist für
Z
=
c
mit
6
+
sinh
cosh
n"
Lemma: Für zwei Matrizen
6
Zum Glück gilt aber wenigstens
h
i
=0
=0
i
=0
j
cosh
sinh
=
1
(2 + 1)!
+
1
(2 )!
=
Da zwei skalare Vielfache derselben Matrix stets miteinander kommutieren, folgt damit auch die letzte Aussage des Lemmas.
=
Z
1 0
1
h
=
=
h
1
!
+
=
=
0
und
und
h
1
0 1
=
c
+
speziell stets
Z
=
Z
+
Damit ist für kommutierende Matrizen
Kap. 4: Differentialgleichungen
6
Allgemeiner ist
Höhere Mathematik II WS 2006/2007
,
Ts
j
6
c
0
Z
D Z
6
D
6
Z
Z 6
Z U
Z Z
Ts
U
6
6
6
D Z
Z
D
6
T
t
Z
T
u
ZT
Z
6
6
i
j
j
i
i
6
i
6
6
6
6
j
j
Z
6
Z
/"
+
6
Z
Z
6
~
() () =
n€
D E
D
* ~
v
w
c) Für einen konstanten Vektor
:(
()
=
v
v
v
v
v
v
9
Z
:;:A<
2

,
H
1
~
2
+
2
* * 1+
D
und
)
D 
/"
=
ist
( )+
~
.
~
()
.
()
ist
( ).
()
)
1
:(
( )+
() =

1+
b) Für
seien zwei matrixwertige Funktionen
). Dann ist
( )+
:( )
Lemma: a)
auf dem offenen Intervall (
~
H
=
,
Zumindest für Summen und Produkte gelten, wenn man von der Nichtkommutativität der Multiplikation absieht, für matrixwertige Funktionen
die üblichen Regeln:
* +
~
( )
1
1
Alles was uns zu deren theoretischer Lösung jetzt noch fehlt sind Rechenregeln für den Umgang mit Ableitungen von Matrixfunktionen; für
die praktische Lösung fehlen natürlich auch noch Verfahren zur effizienten Berechnung der Matrixexponentialfunktion.
~

€/
1
+
~
n
1+

+
1
H

+
2
/"
( ).

1+
Z
n"
Dies ist natürlich kein Beweis dafür, daß die Ableitung von ( ) ungleich
( )
()
ist, aber im vorliegenden Fall ist die Ableitung in der Tat
verschieden sowohl von ( ) ( ) als auch von ( )
( ): Mit den
Methoden, die wir im nächsten Abschnitt kennenlernen werden, können
wir durch eine (alles andere als angenehme) Rechnung zeigen, daß
.
1 1
0 0
( )=
6
()
aber
0 1
0 1
2
ist. Wir müssen uns bei diesem Ansatz also begnügen mit linearen
homogenen Differentialgleichungen mit konstanten Koeffizienten.
v
()=
<
:;:;<
w
()
6
9
also
<
,
1+
v
0
0 1
0 0
Z
v
()=
9
beispielsweise ist
v
>;>;?
ist, bräuchten wir für einen Beweis nach obigem Vorbild, daß ( )
und ( ) miteinander kommutieren; dies ist aber im allgemeinen nicht
der Fall. Für
1
( )=
1 1
x
w
()=
1
+
2
1
4
( )+ ( )
?
( )+
D
v
1+
+
2
0
1
1
|
=
D Z
v
0
1+
4
2
?
( + )
( )
x
z{
=
ist; dies war offensichtlich zu optimistisch: Da
v
()
z{
v
=
0
v
und
v x
v
( )
v
|
1
2
}x
2
z{
=
( )
9
z{
=
|
1+
1
v
v
()
z{
x
4
x
2
v x
|
Am Ende des vorigen Abschnitts hatten wir gehofft, daß vielleicht auch
für jede matrixwertige Funktion ( ) gelten könnte, daß
4
+
+
v
+
2
z{
( )
2
+
x
1
1+
x
z{
aber
=
, da der Vorfaktor
1
=
gegen Null geht. Dies ist auch gleich
, denn da
mit
jeder seiner Potenzen vertauschbar ist, ist es auch mit jeder endlichen
Teilsumme der Reihe von
vertauschbar, also auch mit
selbst.
=
1
z{
0
yx
2
z{
= lim
( )
z{
2
T
( + )
Kap. 4: Differentialgleichungen
0
und somit ist
Höhere Mathematik II WS 2006/2007
D w
D
F
>;>A?
v
Höhere Mathematik II WS 2006/2007
0
0
~
&8
$'&8

$'&8

~
8
^
&8

ƒ
€
,
‚
€
F
~
E
^
8
ƒ
ƒ
8
ƒ
ƒ
$ &
ƒ
ƒ
ƒ
$ &

$'&

~
~
‚
,
„

i
j
i

j
5
i
j
*
+
O
/"
.
Z
H
g
6
Z
$
Z
6
Z
$
Z
6
6
+
/"
H
* Zumindest ein Fall ist problemlos: Ist nämlich
0
0
1
0
0
2
=
..
.. . .
..
.
.
.
.
Die Matrixexponentialfunktion ist zwar wohldefiniert, aber eine matrixwertige Potenzreihe ist für allgemeine Matrizen nicht gerade einfach
zu berechnen. Wir brauchen daher alternative Rechenverfahren.
!
!
6
Z !
!
D
D
9
:;:A<
…
6
Z Z Z Z 6
6
Z 6
0 0
eine Diagonalmatrix, ist offensichtlich
1
0
2
0
=
..
..
..
.
.
.
0
0
!
"
!
!
!
!
N
N
9
†
Z
Z wie behauptet.
j
!
,
0
0
..
.
=
0
+
()=
i
*
d.h.
D
()
j
*
>;>A?
=
i
*
=
0
i
i
6
def
denn die Matrix ist mit
vertauschbar. Damit haben alle Komponenten von die Ableitung Null, sind also konstant, und somit ist
( ) = 0 ein konstanter Vektor mit der Eigenschaft, daß
j
+
( ) = 0,
( )+
+
( )=
j
( )+
i
()=
*
+
§2: Eigenwerte, Eigenvektoren und Hauptvektoren
+
Nun sei : ( )
irgendeine differenzierbare vektorwertige Funk( ) ist. Wir betrachten die
tion mit der Eigenschaft, daß ( ) =
( ). Deren Ableitung ist
Funktion ( ) =
i
*
Beweis: Da
die Ableitung
hat, ist die Ableitung der vektorwertigen Funktion ( ) =
0 nach der zuletzt bewiesenen Formel
gleich
( ).
,
also
in
der
Tat
gleich
0
/"
Als erstes Beispiel betrachten wir das Anfangswertproblem
( ) = ( ) und
( ) = ( ) mit
(0) =
und
(0) =
oder
()
()
(0)
0 1
=
mit
=
.
1 0
()
()
(0)
Die Koeffizientenmatrix ist gleich der zu Beginn des Abschnitts betrachteten Beispielmatrix , deren Exponentialfunktion wird dort berechnet
haben; die Lösung des Anfangswertproblems ist also
cosh + sinh
cosh
sinh
=
=
.
sinh
cosh
sinh + cosh
j
Satz: Die sämtlichen Lösungen des homogenen Differentialgleichungssystems =
sind genau die Funktionen
.
0 mit 0
j
Damit haben wir alles zusammen und können zeigen
6
c) Ist der Spezialfall + und = 1 von b), wobei zusätzlich noch
eine konstante Funktion ist, so daß alle Terme mit ( ) verschwinden.
( ).
()
( )+
g
()
Wir wußten bereits, daß die Lösungen einen Vektorraum bilden; obiges
Korollar sagt uns, daß dieser Vektorraum die Dimension hat und daß
für jede reelle Zahl 0 die Abbildung
( 0 ) ein Isomorphismus auf
ist.
den
.
H
)-Komponente von
die (
() ,
()
( )+
Z ()
/"
=1
=1
( ),
()
ist die Funktion
.
Korollar: Für jeden Vektor 0
und jede reelle Zahl 0
gibt
es genau eine differenzierbare Funktion ( ) mit den Eigenschaften, daß
()=
( ) und ( 0 ) = 0 ist; dies ist ( ) = ( 0 ) 0 .
/
b) Die ( )-Komponente von
und deren Ableitung ist
0
Beweis: a) Sind
( ) und
( ) die Komponenten der Matrizen
und , so sind die Summen ( ) + ( ) die Komponenten von + ,
und deren Ableitung ist die Summe der Ableitungen.
Kap. 4: Differentialgleichungen
B
>;>A?
Nˆ‡
!
!
!
!
!
!
!
!
:;:A<
0
G
6
H
H
"Š
g
r
’
Offensichtlich ist mit einem Vektor auch jedes Vielfache (außer dem
nach Definition ausgeschlossenen Nullvektor) ein Eigenvektor zum selben Eigenwert; allgemeiner ist sogar jede Linearkombination (außer 0)
von Eigenvektoren zum Eigenwert wieder ein Eigenvektor zum Eigenwert , d.h. die Eigenvektoren zu einem festen Eigenwert bilden
zusammen mit dem Nullvektor einen Untervektorraum von , den sogenannten Eigenraum von .
Š
‹
‰"
H
‰"
"
‹
q
q
‹
"
"q
Œ
‰"
"/
6
6
Œ
heißt geometrische
!
Lemma: Sind 1
Eigenvektoren der linearen Abbildung
:
zu verschiedenen Eigenwerten 1
, so sind diese
Vektoren linear unabhängig.
Definition: Die Dimension des Eigenraums von
Vielfachheit des Eigenwerts .
!
!

.
#“
!
!
!

H

’
Š
!
!
!
o
”•
”
Š
/
Š
o
Š
.
!
– &
!
!
–
#“
–
o
!
!
!
&
&
‰
&
=0
o
o
–
–
o
’
‘

Š

–
Š
.
Ž
.

H

’
’
1 1
+
+
= 0.
ist. Andererseits können wir obige Gleichung auch einfach mit
tiplizieren mit dem Ergebnis, daß
+
1 1 1
+
ist. Wenden wir auf beide Seiten dieser Gleichung die Abbildung
und beachten, daß ( ) =
ist, folgt, daß auch
=0
+
1 1
o
+
mul-
an
Beweis: Angenommen, 1
seien linear abhängig. Dann können
finden, so daß zwar 1
linear abhängig
wir eine Zahl 2
.
Es
gibt
daher
Skalare
sind, nicht aber 1
, so daß
1
“
’
0 heißt
Definition: a) sei ein -Vektorraum. Ein Vektor
Eigenvektor der linearen Abbildung :
zum Eigenwert
,
wenn ( ) =
ist.
"Š
Zur Bequemlichkeit der Leser sei die Definition noch einmal wiederholt:
.
Š"

a) Mehr über Eigenwerte und Eigenvektoren
’
:
n"
Wir arbeiten dabei wieder, wie im ersten Kapitel, über einem beliebigen
Körper , denn auch wenn uns im Augenblick zur Anwendung auf
Differentialgleichungen nur die Fälle = und = interessieren,
hat die hier entwickelte Theorie doch auch interessante Anwendungen
über anderen Körpern: Eigenvektoren über endlichen Körpern spielen
beispielsweise bei einigen Problem der Signalverarbeitung eine Rolle.
.
c) Eigenwerte und Eigenvektoren einer Matrix
Eigenwerte und Eigenvektoren der linearen Abbildung
sind die
einen Eigenvektor zum Eigen-
’
Wir wissen bereits aus dem letzten Semester (Kap. I, 3j1)), welche
Bedingung eine Basis von
bzw.
erfüllen muß, damit eine Matrix
bezüglich dieser Basis Diagonalgestalt hat: Die Basisvektoren müssen
allesamt Eigenvektoren von sein. Aus Kap. I, 6i) wissen wir auch,
wie man Eigenwerte und ausgehend davon Eigenvektoren mit Hilfe von
Determinanten bestimmen kann. In diesem Paragraphen wollen wir wir
die entsprechende Theorie noch etwas weiterentwickeln und sehen, daß
sich die Berechnung einer beliebigen Matrixexponentialfunktion auf die
beiden gerade diskutierten Spezialfälle zurückführen läßt.
6
Noch ein weiterer Fall ist relativ unproblematisch: für eine obere (oder
untere) Dreiecksmatrix mit Nullen in der Hauptdiagonalen. Eine solche Matrix definiert eine lineare Abbildung
, die den -ten
Einheitsvektor
in den von +1 bis
erzeugten Untervektorraum
bildet ihn entsprechend in den von +2
abbildet. Das Quadrat von
bis
erzeugten Untervektorraum ab und so weiter, spätestens
ist
also die Nullmatrix. Damit wird die Potenzreihe der Exponentialfunktion zu einer endlichen Summe, die, wir wir bereits in zwei Beispielen
gesehen haben, zumindest für kleine leicht berechnet werden kann.
.
heißt Eigenwert von , falls
hat.
Š
b)
wert
Kap. 4: Differentialgleichungen
0
wieder eine Diagonalmatrix, wobei die Exponentialfunktion einfach
komponentenweise auf die Diagonaleinträge ihres Arguments angewandt wird.
Höhere Mathematik II WS 2006/2007
R
o
o
–
o
o
o
[
0
+
+
1(
1)
1
=0

’
k
6
o
o
–
–
o
6
o
o
o
6
o
–
o
k
6
k
6
–
o
!
!
!
o
!
!
!
/
–
o
#“
S
!
!
!
Š
.
k
6
k
6
/
]
—

/
7
]
/
7
/
—
$
H
H
/
$ g
]
—
r
’
7
7
7
’
7
7
Z
6
k
6
Z
2
6
7
3
3
7
6
2
9
6
:;<
)=
2
2
14)(
>;?
(
4
8
5
1
=
=
1
5
8
4
.
72)
berechnen für die bereits in Kap. I, 6i) betrach-
Œ
det(
Wie wir dort nachgerechnet haben, ist hier
bzw.
k
Wir wollen
tete Matrix
b) Ein erstes Beispiel
Damit ist klar, wie man Eigenwerte und Eigenvektoren berechnen kann:
Man löse die Gleichung det(
) = 0 und dann für jede Nullstelle
dieser Gleichung das lineare Gleichungssystem (
) = 0. Dieses
homogene lineare Gleichungssystem hat nie maximalen Rang, da es
nach Definition eines Eigenwerts nichttriviale Lösungen geben muß;
kommt man also auf ein eindeutig lösbares Gleichungssystem (und damit
auf den Nullvektor als einzige Lösung), ist das immer ein Zeichen für
einen Rechenfehler.
&
Eigenwertprobleme für lineare Abbildungen, die durch Differentialoperatoren gegeben sind, spielen in vielen Anwendungen eine wichtige
Rolle; im Hinblick auf solche Anwendungen bezeichnet man die Menge aller Eigenwerte einer linearen Abbildung oder Matrix auch als deren
Spektrum. Dieses Wort kommt daher, daß z.B. beim (mehrdimensionalen) Differentialoperator, der die Schwingungen des Fells einer Trommel
beschreibt, die Eigenwerte gerade die Frequenzen sind, die die Trommel
produzieren kann.
Œ
2
; genauso sind sinh und cosh Eigenvektoren
zum Eigenwert
2
zum Eigenwert . Für = 0 degenerieren diese beiden Eigenvektoren
jeweils zu null und eins, wodurch ein Eigenwert verschwindet; dafür
kommt die Identität als neuer Eigenvektor hinzu. Damit ist also jede
reelle Zahl Eigenwert von mit einer geometrischen Vielfachheit von
mindestens zwei. (Wir werden im nächsten Paragraphen sehen, daß die
Vielfachheit immer gleich zwei ist.)

Eigenwerte und Eigenvektoren sind auch interessant für Selbstabbil(
)
dungen eines unendlichdimensionalen Vektorraums: Ist =
beispielsweise der Vektorraum aller beliebig oft stetig differenzierbarer
reeller Funktionen, so sind sin und cos Eigenvektoren der linearen
Abbildung
(
)
(
)
:
¨
’
linear unabhängig.
1
k
In letzterer Form ist dies jenes homogene lineare Gleichungssystem für
die Komponenten von , das wir bereits in Kap. I, 6i1) betrachtet haben.
Wie jedes homogene lineare Gleichungssystem hat es den Nullvektor
als Lösung, der allerdings nach Definition genau aus diesem Grund nicht
als Eigenvektor betrachtet wird. Weitere Lösungen gibt es genau dann,
des Gleichungssystems singulär ist, wenn also
wenn die Matrix
det(
) verschwindet. Somit ist
genau dann ein Eigenwert, wenn det(
) = 0 ist; die zugehörigen Eigenvektoren sind
die nichttrivialen Lösungen des homogenen linearen Gleichungssystems
) = 0.
(
Also sind die Vektoren
H
zwischen 1
1 . Da diese Vektoren linear unabhängig sind,
müssen alle Koeffizienten verschwinden. Da die Eigenwerte 1
aber allesamt verschieden sind, ist dies nur möglich, wenn 1 bis
1
verschwinden. Wegen
= 0 muß dann aber auch
verschwinden, im Widerspruch zur angenommenen linearen Unabhängigkeit von
.
1
1) 1
1(
Uns interessieren hauptsächlich Eigenwerte und Eigenvektoren in endlichdimensionalen Vektorräumen. Dort können wir konkret mit Matrizen
, so ist ( ) =
rechnen; ist die Abbildungsmatrix zu :
=
oder (
) = 0 ist, wobei wie
äquivalent dazu, daß
üblich die Einheitsmatrix bezeichnet.
Kap. 4: Differentialgleichungen
0
Durch Subtraktion der letzten beiden Gleichungen voneinander erhalten
wir eine lineare Abhängigkeit
Höhere Mathematik II WS 2006/2007
k
6
+
9
+
mit Nullstellen 1 = 2 = 0
dazu hatten wir die Vektoren
1
2
1 =
2 =
1
0
0
9
:;<
+
=
> ?
;
9
:;<
> ?
;
=
:;<
&
+ &
+
+
+
+
’
+
’
+
’
+
+
+
+
’
c
e
c
E
=
>;?
9
:;<
e
6
E
1
c
e
c
c
e
c
š
€F
1
mal
›œ
c
€
c
e
c
=
=
e
k
e
=
9
1
.
= 18 wird
=
=
9
d
:;<
c
:;<
d
>;?
Z
1
1
c
€
c
€e
c
c
1
=
1
1
=
1
c
€
e
€e
E
e
c
=
9
c
e
c
F
c
c
€
c
e
c
E
c
€e
c
=
>;?
9
:;<
=
>;?
9
:;<
=
> ?
;
9
:;<
.
1
,
; für
=
1
=
1
.
/
1
=
!
1
=
]_^
h
=0
1
!
1
=
c
^
h
€
d
|
=
9
:A<
c
c
&
+ &
wie behauptet.
]
=0
1
1
,
da
eine natürliche Zahl ist, für die wir die Formel bereits bewiesen
haben. Schließlich ist auch
=
€e
=
1
€
Also ist
1
1
irgendeine
= 0 gibt es ebenfalls keine
-Matrix die Einheitsmatrix
1
1
invers zu
,
`
=
1
e
1
1
da
die Einheitsmatrix ist. Für
Probleme, da die nullte Potenz jeder
ist, und für negative schließlich ist
denn
1
c
F
,
€F
c
=
c
c
k
mit
€e
e
c
=
c
e
c
e
1 5
1 13
1 13
1 5
c
c
c
2
3
0
1
h
c
c
1
2
1
0
1
|

e
€
, so ist
d
€e
k
4
und
h
c
die vier Einheitsvektoren des
=
e
Zum Beweis betrachten wir zunächst eine natürliche Zahl
diese ist
1
d
€
=
.
eine invertierbare Matrix,
eine ganze Zahl, so ist
.
c
4
Lemma: Ist
Matrix und
Š"
.
c
0
0
0
1
=
4
n"
c
Damit läßt sich auch
berechnen: Sind nämlich
1
0
0
0
1
0
und
1 =
2 =
3 =
0
0
1
0
0
0
4 und
™
bei der die Eigenwerte von in der Hauptdiagonalen stehen und alle
sonstigen Einträge verschwinden. Bei dieser Matrix haben wir keinerlei
Probleme mit der Berechnung der Exponentialfunktion: Offensichtlich
ist
1 0 0
0
1 0
0
0
0 1 0
0
0 1
0
0
=
und
=
.
4
4
0 0
0 0
0
0
18
18
0 0
0
0 0 0
,
daher die Abbildungs-
und
=
=
>;?
’
0 0
0 0
4 0
0 18
=
+
0
0
0
0
+
0
0
0
0
:;<
hat
9
+
4)
>;?
3
=
c
2
6
Š"
1
c
n"
Bezüglich der neuen Basis (
matrix
.
4
6
( 4 ) = 18
c
und
:;<
3
9
4
c
>;?
( 3) =
=
Wir wollen uns überlegen, daß sich eine solche Relation auch in Potenzen
sowie in die Exponentialfunktion hineinziehen läßt:
=
2
6
0 0
0 0
4 0
0 18
e
( 2) = 0
0
0
0
0
3
6
1
+ &
c
=
0
0
0
0
.
=0
c
ist, d.h.
&
Also ist
&
1
=
1 2
e
Eigenvektor zum Eigenwert
=
&
4
c
und
+ &
oder
mit
c
( 1) = 0
&
&
3
6
1
+ &
=
=
&
c
zu
und die Gleichung
5
13
13
5
= 18. Als Eigenvektoren
˜
1
1
1
1
4
=
4 und
gefunden, wobei
=
Kap. 4: Differentialgleichungen
2
3
0
1
3
Höhere Mathematik II WS 2006/2007
B
d
c
c
€e
c
€
€F
c
e
E
c
>;?
>;?
:;<
>A?
,
B
=
9
x
x
|
x
x
|
x
x
x
x
x
|
x
x
|
:A<
x
4
+35+10
18
>A?
x
|
x
|
x
|
|
x
x
x
x
x
x
|
˜
k
6
6
k
4
.
$
1
1
+
2
2
+
+
" * "
" * "
" &
* &
`
6
* &8
6
"
"
k
6
* "
"
*
(
1
%"
$
+
).
1
0
. Dann ist
+
"
"
"
*
1 2
1
=
(
1
+
2
+
+
* "
#"
k
6
6
),
und genauso zeigt man auch daß der allgemeine Koeffizient
die
Summe aller möglicher Produkte aus
Nullstellen ist, multipliziert
mit ( 1) . Diese Aussage bezeichnet man als den Wurzelsatz von
VIÈTE.
= ( 1)
0
und
Dies läßt sich ausmultiplizieren und liefert dann einen Zusammenhang
zwischen Nullstellen und Koeffizienten: Beispielsweise ist
2)
2
!
( )=(
2
1 )(
mit höchstem Koeffizient eins habe die Nullstellen
( )=
+
Bei Polynomen mit ganzzahligen (und eventuell auch rationalen) Nullstellen, ist dazu der Wurzelsatz von VIÈTE ein vielversprechender Ansatzpunkt: Angenommen, das Polynom -ten Grades
!
"
6
6
Demgemäß sind also die Eigenwerte von gleich den Nullstellen des
charakteristischen Polynoms von , und wir sollten uns wenigsten kurz
überlegen, wie man die Nullstellen eines solchen Polynoms bestimmen
kann.
+
*
!
) heißt charakteristisches Polynom
P
"
Definition: Das Polynom det(
der Matrix .
+
*
der Diagonaleinträge. Die restlichen Produkte, die zur Determinante
1 mit behaftete
aufsummiert werden, enthalten zwischen null und
Faktoren, die Summe ist also ein Polynom vom Grad mit höchstem
Term ( 1)
.
11
+ Terme niedrigerer Ordnung
) = ( 1)
P
*
(
2
2
+
*
*
)
ž
4
=
+
2
2
Bei Polynomen höherer Grade, die man nicht auf einfache Weise über
binomische Formeln oder ähnliches in kleinere Faktoren zerlegen kann,
ist es oft einen Versuch wert, einige der Lösungen zu erraten, um so den
Grad des Polynoms zu reduzieren.
=
w
1 2
4
2
*
*
(
+
ist, hat das linksstehende Polynom die Nullstellen
2
2
*
Es ist kein Zufall, daß im obigen Beispiel die Gleichung det(
)=0
auf ein Polynom vierten Grades führte: Ist = ( ) eine
-Matrix,
so hat die Matrix
in der Diagonalen die Einträge
,
ansonsten stimmen alle Einträge mit denen von überein. Berechnet
man daher det(
) gemäß der definierenden Formel, so gibt es
genau ein Produkt, in dem mit behaftete Faktoren vorkommen,
nämlich das Produkt
+
c) Das charakteristische Polynom und seine Nullstellen
alles andere als angenehm ist. Dies zeigt wieder einmal, wieviel man
sich ersparen kann, wenn man vor Beginn einer Rechnung eine gute
Basis bzw. ein gutes Koordinatensystem wählt.
27
x
4
|
19+9
*
18
10
18
4
x
x
+26
1 9
4
+ =
18
x
53+27
+
*
10
|
4
|
+37
18
+26
2
+17 27
4
4
4
|
9
+1 27
+17 27
*
18
x
18
18
10
26
10
=
4
4
+
17 9
4
1 9
x
17 9
i
18
18
+
26
x
18
j
4
10
S
+1 27
|
26
18
4
+37
x
18
+
26
:;<
19+9
x
+26
|
4
18
>;?
9
10
x
18
18
+26
x
4
+35+10
c
4
9
|
53+27
Z
c
27
*
1
72
Zur Bestimmung der Eigenwerte muß man somit die Nullstellen des charakteristischen Polynoms finden. Für ein Polynom vom Grad höchstens
zwei (oder aber ein Polynom, das man als Produkt solcher Polynome
schreiben kann) ist das nicht schwer: Nullstellen eines linearen Polynoms erhält man durch eine einfache Division, solche eines quadratischen durch quadratische Ergänzung: Da für = 0
1 0 0
0
0 1 0
0
1
,
=
4
0 0
0
18
0 0 0
was sich zumindest im Prinzip ausrechnen läßt – auch wenn das Ergebnis
Kap. 4: Differentialgleichungen
In unserem Fall erhalten wir
Höhere Mathematik II WS 2006/2007
B
* &
8
,
& "
B0
"
"
*
* &
$
= 51 = 3 17 .
14 + 51 ,
*
0
2
P
P
P
Da das Produkt aller Nullstellen gleich diesem Wert sein muß, kommen
– falls alle Nullstellen ganzzahlig sind – für diese nur die Werte 1 3
und 17 in Frage. Da das Produkt aller vier Nullstellen gleich 51 ist,
gibt es jeweils genau eine Nullstelle vom Betrag 3 bzw. 17, sowie zwei
Nullstellen vom Betrag eins. Welche Vorzeichen wirklich auftreten, läßt
sich durch Einsetzen festellen oder aber auch dadurch, daß nach VIÈTE
die Summe aller Nullstellen gleich 14 sein muß. Das ist offenbar nur
möglich, wenn sowohl +1 als auch 1 Nullstellen sind, sowie 17
und +3. In der Tat zeigt Einsetzen, daß dies auch tatsächlich Nullstellen
sind. (Das Einsetzen ist notwendig, da wir nicht sicher sein können, daß
wirklich alle Nullstellen ganzzahlig sind.)
so ist
*
52
3
10176
4
8
16
2
+ 27648 + 32768
32
3
+
2
+
¢ ¡ Ÿ +
=0
=
+
3
wenden wir zunächst einen ähnlichen Trick an wie die quadratische Ergänzung beim Fall
der quadratischen Gleichungen: Durch die Substitution
Für die kubische Gleichung
Falls man nicht sicher sein kann, daß alle Nullstellen ganzzahlig sind,
gibt es immer noch eine ganze Reihe von Methoden, um Nullstellen
exakt zu berechnen: Beispielsweise kennt die Computeralgebra Algorithmen, um ein Polynom (soweit dies möglich ist) in ein Produkt von
Polynomen kleineren Grades zu zerlegen mit Koeffizienten aus einem
vorgegebenen Körper, der (in einem hier nicht präzisierten) Sinne nicht
zu weit vom Körper der rationalen Zahlen bzw. einem endlichen Körper
entfernt ist, und es gibt auch, seit der ersten Hälfte des sechzehnten
Jahrhunderts, allgemeine Formeln zur Lösung von Gleichungen dritten
und vierten Grades. Diese Formeln spielen wegen ihrer Komplexität und
numerischen Instabilität in der Praxis keine sonderlich große Rolle und
sollen daher hier nur im Kleindruck behandelt werden:
£
In diesem extrem einfachen (und konstrierten) Fall führt also die Primfaktorzerlegung direkt zur Lösung; in komplizierteren Fällen, wenn 0
Man beachte, daß diese Vorgehensweise nur funktioniert, wenn das
Polynom höchsten Koeffizienten eins hat; andernfalls ist das Produkt
der Nullstellen gleich dem Quotienten aus konstantem Koeffizienten
und führendem Koeffizienten mal ( 1)Grad .
die Nullstellen sind.
2
3
1
+ 14
*
4
$
( )=
gibt sie das Produkt aller Nullstellen. Falls die alle ganzzahlig sind,
lohnt es sich also, die Teiler von 0 zu testen. Ist beispielsweise
1 2
=
5400
0
4
15
318
P
( 1)
5
&
etwa ist 0 = 32768 = 2 ; hier wissen wir also nur, daß – sofern alle
Nullstellen ganzzahlig sind – jede Nullstelle die Form 2 haben muß,
wobei die Summe aller Exponenten gleich 15 sein muß und die Anzahl
der negativen Vorzeichen gerade. Einsetzen zeigt, daß
+ 27
*
( )=
6
Beim Polynom
Für das Erraten von Nullstellen einfacher Polynome, bei denen man
(aus inhaltlichen Gründen oder aber weil so etwas in Übungs- und
Klausuraufgaben fast die Regel ist) ganzzahlige Lösungen erwartet, ist
vor allem die erstgenannte Beziehung wichtig: In der Form
mehr Primfaktoren hat, muß man zunächst alle Kombinationsmöglichkeiten, die zum Produkt 0 führen können, in Betracht ziehen und davon
dann durch Einsetzen potentieller Nullstellen alle bis auf die tatsächlichen Nullstellen eliminieren.
Kap. 4: Differentialgleichungen
B
FRANÇOIS VIÈTE (1540–1603) studierte Jura an der
Universität Poitiers, danach arbeitete er als Hauslehrer.
1573, ein Jahr nach dem Massaker an den Hugenotten,
berief ihn CHARLES IX (obwohl VIÈTE Hugenotte war)
in die Regierung der Bretagne; unter HENRI III wurde er
geheimer Staatsrat. 1584 wurde er auf Druck der katholischen Liga vom Hofe verbannt und beschäftigte sich
fünf Jahre lang mit Mathematik. Unter HENRI IV arbeitete er wieder am Hof und knackte u.a. verschlüsselte
Botschaften an den spanischen König PHILIP II. In seinem Buch In artem analyticam isagoge rechnete er als
erster systematisch mit symbolischen Größen.
Höhere Mathematik II WS 2006/2007
B
¡
Ÿ
¤ *
BG
+
+
¥
¡
¤
Ÿ
§
¤©
Ÿ
¨
¤
¢¦
¤
Ÿ
=
3
+
+3
¤
3
( + )+ ( + )+
=0.
©
«
ª
¨
«
ª
«
ª
«
ª
«
«
ª
«
ª
ª
¤
ª
©
¦
©
«
¦
ª
«
ª
ª
­
­
2
+
£
¢
®
­
=0
­
¢
£
­
­
¦
®
£
­
¢
­
¦
­
¢¦
°
£
¢
¢
­
¦
¯
®
¢
=
³}´y´}µ ¦
3
²
«
°
¯
¦
°
3
§
¥
©
§
¥
²
©
2
+
¨
3
+
+
2
4
;
2
+ )2 =
4
+2
2
+
2
= (2
º¦
º
¤
º
¤
º
¤
©
¦
¨
©
³}´y´}µ ¦
ª
+ )2
=
®
+ )2 = (
2
¾¤
2
¨
= 0.
+
+ steht, ist
)
¦
(
¯
(
Falls rechts das Quadrat eines linearen Polynoms
(
©
2
2
¤
3
±
und
+
¤
¨
2
+ ),
¦
oder umgekehrt.
©
¤
2
©
4
=
©
2
²
3
¨
¤
+
Ÿ 2
¡ ¤º
+
2
¤­
.
.
+
+ = 0. Für eine beliebige Zahl
dies führt auf eine Gleichung der Form +
folgt daraus für jede Nullstelle dieser Gleichung die Beziehung
durch die Substitution
¤ 3
¥
Ÿ
=
°
§
3
3
+
½
sind, also
ª
+
3
Auch biquadratische Gleichungen lassen sich auflösen: Hier eliminiert man den kubischen
Term von
4
+ 3+ 2+
+ =0
¢ 2
­
¡
2
¤
2
Ÿ die beiden Zahlen
¦
£ 3
3
¡ 3
=
¢ und
3
£
3
3
= 0 und
3
«
Auf die kubische Gleichung angewandt heißt das, daß
und die
3
¦
ist, muß also die eine gleich
2
+
¨
Da die Summe dieser beiden Lösungen gleich
andere gleich sein.
¨
4
2
+
¤
eine Lösung der ursprünglichen Gleichung
+
=
©¤
Ÿ
.
eine Lösung der Gleichung
3
¡
=
2
+
ª
2
2
2
¨
ist; wir müssen also einfach eine quadratische Gleichung lösen und erhalten
oder
®
=
ª
+
«
2
ª
¤
)=
³}´y´yµ ¦
ª¦
(
«
±
folgt, daß
«
+
©
=
3
°
©
irgendeiner der drei möglichen Werte der Wurzel, so ist
=
²
und
¦
bekannt, so können wir leicht die
¤
¨
=
ª¬
¥
+
¤
§
und
,
ª
Sind aber Summe und Produkt zweier Zahlen
Zahlen selbst bestimmen: Aus
ª
3.
«
und
¦
3
«
¨
wir kennen also Summe und Produkt von
¨
3
¶
3
¦
=
¤
3
·
3
º
und
»
=
¦
Daraus können wir die drei richtigen herausfiltern, wenn wir beachten, daß wir nicht nur
das Produkt von 3 und 3 kennen, sondern auch das von und , nämlich
3. Damit
ist der zweite Summand in der Formel für eindeutig durch den ersten bestimmt, und es
gibt nur die zu erwartenden drei Lösungen: Ist
¹
3
¦
1+ 3
1
3
und
2
2
alle dritte Potenz eins haben, ist mit jeder Kubikwurzel einer Zahl auch mal einer
dieser drei Zahlen Kubikwurzel; es gibt also (für = 0) drei verschiedene Kubikwurzeln,
und somit hat obige Formel für gleich neun mögliche Interpretationen.
1
·
+
2
2
º
¼
3
3
¹
ist. Dann ist
Da die Zerlegung von in eine Summe äußerst willkürlich ist, können wir hoffen, daß
diese Gleichung für die beiden Variablen und auch Lösungen hat, wenn wir zusätzliche
Bedingungen stellen: Die obige Gleichung für wird beispielsweise sicherlich dann gelöst,
wenn
3
und 3 =
+ 3=
3
ª
+
«
2
³}´y´yµ ¦
¤
+3
©
2
±
¸
+3
¨
3
+
³}´y´yµ ¦
¸
3
©
2
3
©
¦
+
°
©
=
²
+
¥
2
2
§
+
±
Damit sind wir fast fertig. Das verbleibende Problem ist, daß hier formal eine Lösung
steht, wohingegen wir für eine kubische Gleichung drei Lösungen erwarten. Dieses Problem verkehrt sich sofort in sein Gegenteil, wenn wir beachten, daß genauso, wie die
Quadratwurzel nur bis aufs Vorzeichen bestimmt ist, die Kubikwurzel nur bis dritte Einheitswurzeln bestimmt ist: Da die drei komplexen Zahlen
3
zweier Variablen und erhalten
¤
durch die Summe
=
°
=0
£
,
Uns interessiert nur die Summe der beiden Zahlen, also
²
+
2 3
+
+
27 2
¥
¨
3
¡
3
2
B
schreiben können. Zur Lösung dieser Gleichung ersetzen wir
3
Kap. 4: Differentialgleichungen
§
was wir auch kurz als
wird die Gleichung zu
Höhere Mathematik II WS 2006/2007
R
º
­
¾¤
®
Á ¦
¯
¤
º
À
¾¤
¿
®
º
¤
±
«
±
[
B
­
º
¤
©
¤
) 2
+ 2
im allgemeinen kein Quadrat
Nun wird die rechte Seite (2
eines linearen Polynoms in sein, wir können aber hoffen, daß es zumindest für gewisse
spezielle Werte der bislang noch willkürlichen Konstante eines ist.
º
¦
¨
¦
º¦
¤
Ä
¤
Ã
Â
+4
2
+8
+
2
4
Ä
Â
¦
­
¨
©
¤
©
¦
º
­
º
¨
º
¦
­
º
¨
¦
º¦
º
¦
verschwinden. Dies ist eine kubische Gleichung für ; indem wir diese Gleichung lösen
und eine der Lösungen für einsetzen, erhalten wir die vier Lösungen der biquadratischen
Gleichung.
3
Â
8
¤
)=
Ã
2
¤
)(
Ä
4(2
Ã
2
2 +
+ ist genau dann Quadrat eines linearen, wenn
Ein quadratisches Polynom
2 +
die beiden Nullstellen der quadratischen Gleichung
+ = 0 übereinstimmen.
Nach der obigen Lösungsformel für quadratische Gleichungen ist dies genau dann der
=0
Fall, wenn dort der Ausdruck unter der Wurzel verschwindet, d.h. wenn 2 4
ist. In unserem Fall muß also
º
Die erste Lösung einer kubischen Gleichung geht wohl
aus SCIPIONE DEL FERRO (1465–1526) zurück, der von
1496 bis zu seinem Tod an der Universität Bologna lehrte. 1515 fand er eine Methode, um die Nullstellen von
3+
= für positive Werte von und zu bestimmen
(Negative Zahlen waren damals in Europa noch nicht im
Gebrauch). Er veröffentlichte diese jedoch nie, so daß
NICCOLO FONTANA (1499–1557, oberes Bild), genannt
TARTAGLIA (der Stotterer), dieselbe Methode 1535 noch
einmal entdeckte und gleichzeitig auch noch eine Modifikation, um einen leicht verschiedenen Typ kubischer
Gleichungen zu lösen. TARTAGLIA war mathematischer
Autodidakt, war aber schnell als Fachmann anerkannt
und konnte seinen Lebensunterhalt als Mathematiklehrer in Verona und Venedig verdienen.
¨ ©
¨
©
Für die Berechnung von Eigenvektoren sind schon die Lösungen einer
kubischen Gleichung nach CARDANOs Formel im allgemeinen zu kompliziert, als daß man ohne Computer damit rechnen könnte; dasselbe
gilt erst recht für höhere Grade. Insbesondere sind die Formeln in vielen
Fällen numerisch instabil, da annähernd gleich große Zahlen voneinander subtrahiert werden. Die Numerik geht daher aus gutem Grund
anders vor, wenn sie Nullstellen von Polynomen berechnet.
Der ABELsche Satz besagt selbstverständlich nicht, daß Gleichungen höheren als vierten
Grades unlösbar seien; er sagt nur, daß es im allgemeinen nicht möglich ist, die Lösungen
durch Wurzelausdrücke in den Koeffizienten darzustellen: Für eine allgemeine Lösungsformel muß man also außer Wurzeln und Grundrechenarten noch weitere Funktionen
zulassen. Beispielsweise fanden sowohl HERMITE als auch KRONECKER 1858 Lösungsformeln für Gleichungen fünften Grades mit sogenannten elliptischen Modulfunktionen;
1870 löste JORDAN damit Gleichungen beliebigen Grades.
Der norwegische Mathematiker NILS HENRIK ABEL
(1802–1829) ist trotz seinen frühen Todes (an Tuberkulose) Initiator vieler Entwicklungen der Mathematik des
neunzehnten Jahrhunderts; Begriffe wie abelsche Gruppen, abelsche Integrale, abelsche Funktionen, abelsche
Varietäten, die auch in der heutigen Mathematik noch
allgegenwärtig sind, verdeutlichen seinen Einfluß. Zu
seinem 200. Geburtstag stiftete die norwegische Regierung einen ABEL-Preises für Mathematik mit gleicher
Ausstattung und Vergabebedingungen wie die Nobelpreise; erster Preisträger war 2003 JEAN-PIERRE SERRE
( 1926) vom Collège de France für seine Arbeiten über
algebraische Geometrie, Topologie und Zahlentheorie.
Die Grundidee seines Beweises liegt in der Betrachtung von Symmetrien innerhalb der
Lösungsmenge, ähnlich wie wir in einem späteren Abschnitt einige Differentialgleichungen durch Symmetriebetrachtungen lösen werden. Unmöglichkeitsbeweise sind allerdings
deutlich aufwendiger als Lösungsversuche mit Hilfe von Symmetriebetrachtungen; daher
kann über Einzelheiten des ABELschen Beweises hier nichts weiter gesagt werden. Interessenten finden ihn in fast jedem Algebralehrbuch im Kapitel über GALOIS-Theorie.
Å
Die Lösung allgemeiner kubischer Gleichungen geht
auf den Mathematiker, Arzt und Naturforscher GIROLAMO CARDANO (1501–1576, unteres Bild) zurück, dem
TARTAGLIA nach langem Drängen und unter dem Siegel der Verschwiegenheit seine Methode mitgeteilt hatte. LODOVICO FERRARI (1522–1565) kam 14-jährig als
Diener zu CARDANO; als dieser merkte, daß FERRARI
schreiben konnte, machte er ihn zu seinem Sekretär.
1540 fand er die Lösungsmethode für biquadratische
Gleichungen; 1545 veröffentlichte CARDANO in seinem
Buch Ars magna die Lösungsmethodem für kubische
und biquadratische Gleichungen.
Nach der erfolgreichen Auflösung der kubischen und biquadratischen Gleichungen in der
ersten Hälfte des sechzehnten Jahrhunderts beschäftigten sich natürlich viele Mathematiker mit dem nächsten Fall, der Gleichung fünften Grades. Hier gab es jedoch über 250
Jahre lang keinerlei Fortschritt, bis zu Beginn des neunzehnten Jahrhunderts ABEL glaubte,
eine Lösung gefunden zu haben. Er entdeckte dann aber recht schnell seinen Fehler und
bewies stattdessen 1824, daß es unmöglich ist, die Lösungen einer allgemeinen Gleichung
fünften (oder höheren) Grades durch Grundrechenarten und Wurzeln auszudrücken.
Kap. 4: Differentialgleichungen
B
wir können die Gleichung also auflösen.
Höhere Mathematik II WS 2006/2007
B
$
a
a
$
$
a
a
Ist eine Nullstelle eines Polynoms ( ), so kann ( ) bekanntlich
durch (
) geteilt werden, und heißt -fache Nullstelle von ( ),
wenn ( ) durch (
) teilbar ist, nicht aber durch (
) +1 .
“
“
a
a
$
a
6
•
’
•
•
i
6
j
Æ;Æ;Æ;Æ
Æ;Æ;Æ;Æ
k
6
2
= 0,
\
i
i
H
/
sin
cos
Ç
H
/
’
2 2
!
i
:
cos
sin
`
!
Ç
Ç
6
=
j
“
mit Abbildungsmatrix
cos
sin
cos + sin
Ç
;
j
2
.
•
5
.
Beweis: a) Der Eigenwert der
-Matrix habe die geometrische
Vielfachheit , d.h. der zugehörige Eigenraum habe die Dimension .
Wir wählen eine Basis 1
dieses Eigenraums und ergänzen sie
zu einer Basis des gesamten Vektorraums; bezüglich dieser Basis sei
die Abbildungsmatrix der linearen Abbildung
+
2
.
Satz: a) Die geometrische Vielfachheit eines Eigenwerts ist stets kleiner
oder gleich der algebraischen Vielfachheit.
b) Die Summe der algebraischen Vielfachheiten der verschiedenen Eigenwerte einer linearen Abbildung ist kleiner oder gleich der Dimension
des Vektorraums.
+
:
0
6
Das Beispiel der Abbildung
also gerade die Menge aller Vektoren der Form 0 und somit eindimensional. Die geometrische Vielfachheit des Eigenwerts eins ist daher nur
eins.
+0
1
0
’
Allgemein gilt für die algebraischen und geometrischen Vielfachheiten
von Eigenvektoren
0
=0
2
fassen wir als Abbildung von 2 nach 2 auf, gibt es also zwei Eigenwerte. Beide haben die algebraische und geometrische Vielfachheit
eins; zugehörige Eigenvektoren sind etwa 1 und 1 . Wählen wir
diese beiden Vektoren als Basis, so wird die Abbildungsmatrix von
bezüglich dieser neuen Basis zur Diagonalmatrix
& i
& 2
Æ;Æ;ÆAÆ
j
+1
Ç
˜
&
1
& 0
Ç
É
1
Ç
‰
É
0
Ç
’
die doppelte Nullstelle eins, = 1 ist also ein Eigenwert mit algebraischer Vielfachheit zwei. Der zugehörige Eigenraum ist die Lösungsmenge des linearen Gleichungssystems
2
P
,
‰
)
6
= (1
Ç
1
Æ;Æ;ÆAÆ
Ç
1
2
) + sin
È&
Abgesehen vom Fall sin = 0, wenn gleich der positiven oder negativen Einheitsmatrix ist, hat dieses Polynom keine reelle Nullstelle, da es
nur positive Werte annimmt. Es hat aber natürlich die beiden komplexen
Nullstellen
sin =
;
1 2 = cos
Ç
)=
É
det(
= (cos
etwa hat das charakteristische Polynom
cos
Im obigen Beispiel hatte also der Eigenwert Null die algebraische Vielfachheit zwei, die anderen beiden hatten algebraische Vielfachheit eins.
Die Dimension des jeweiligen Eigenraums, die geometrische Vielfachheit also, war genauso groß, jedoch muß dies im allgemeinen nicht der
Fall sein: Für die Matrix
1 1
=
0 1
Ç
cos
sin
Ç
Definition: Wir sagen, der Eigenwert von bzw. habe die algebraische Vielfachheit , wenn eine -fache Nullstelle des charakteristischen
Polynoms ist.
sin
zeigt, daß es überhaupt keine Eigenwerte geben muß, denn hier ist das
charakteristische Polynom gleich
Kap. 4: Differentialgleichungen
G
d) Vielfachheiten von Eigenwerten
Höhere Mathematik II WS 2006/2007
"Š
6
Ç
H
H
"Š
g
r
!
’
•
Ç
n
/
j
.
Ç
g
Ç
Höhere Mathematik II WS 2006/2007
G
+
+
!
!
6
-
5
!
!
!
9
“
=
-
-
!
-
+ &
’
!
!
!
!
!
!
!
!
!
!
!
!
!
!
!
6
+ &
>A>;>A>;>;>;>;>;>A>;?
-
Ê
!
-
!
:A:;:A:;:;:;:;:;:A:;<
!
!
!
-
e
•
`
•
5
k
=
-
9
-
!
!
!
!
!
!
-
-
!
!
!
!
!
!
!
!
!
!
!
!
!
:;:;:;:A:;:;:A:;:;:;<
•
6
!
!
Ñ
• !
!
!
•
>;>;>;>A>;>;>A>;>;>;?
-
•
Î
Í
!
!
ÊÌË
-
•
!
!
`
!
•
“
k
"
+
•
Ñ
•
)(det )
)
1
,
, wohingegen das charakte-
) .
•
Zum Abschluß dieses Abschnitts sei noch ein Kriterium angegeben,
wann es für eine lineare Abbildung eine Basis aus Eigenwerten gibt,
wann also die Abbildungsmatrix bezüglich einer geeigneten Basis Diagonalgestalt hat:
denn der Grad eines Teilers kann nicht größer sein als der des Polynoms
selbst.
+
1
k
e
“
“
k
5
) teilbar.
) durch (
”
Somit ist det(
(
).
1
Ñ
) det(
1)
•
Dies ist ein Polynom vom Grad 1 +
+
ristische Polynom Grad hat; daher ist
(
)=(
k
die verschiedenen Eigenwerte von
und sind
1
ihre
algebraischen
Vielfachheiten,
so
ist
das
charakteristische
1
Polynom det(
) teilbar durch
b) Sind
det(
1
Unabhängig von diesem Ergebnis wollen wir noch festhalten, daß nach
der gerade durchgeführten Rechnung für eine beliebige Matrix und
1
eine invertierbare Matrix die beiden Matrizen und
dasselbe charakteristische Polynom haben; insbesondere haben also die
Abbildungsmatrizen einer linearen Abbildung zu verschiedenen Basen
dasselbe charakteristische Polynom.
WÑ
Zur Berechnung ihrer Determinanten verwenden wir den LAPLACEschen
Entwicklungssatz: Da in der ersten Zeile (oder Spalte) nur an der ersten
Stelle ein von Null verschiedener Eintrag steht, ist diese Determinante
gleich (
) mal der Determinante jener Matrix, die durch Streichen
der ersten Zeile und Spalte entsteht. Falls
1 ist, hat diese neue Matrix
dieselbe Form, wir können den LAPLACEschen Entwicklungssatz also
noch einmal anwenden usw.; wir erhalten schließlich
6
!
)-Einheitsmatrix bezeichnet.
5
(
)
5
’
wobei
ÒÑ
0
k
c
.
6
und haben also dasselbe charakteristische Polynom, und somit ist
auch das charakteristische Polynom von durch (
) teilbar. Die
algebraische Vielfachheit von ist daher mindestens .
“
0
die (
“Ó
0
c
6
0
..
.
6
c
..
k
c
0
..
.
c
6
0
..
.
k
6
,
).
c
•
0
Š"
c
0
6
..
.
+ &
.
c
6
6
..
“
in der Diagonalen steht,
c
det(
6
= det(
c
Für
gilt dasselbe, nur daß jetzt
d.h. diese Matrix hat die Form
0
0
0
0
..
..
..
..
..
.
.
.
.
.
c
= det
c
)
(
k
1
1
.
) = det(
c
0
..
.
6
5
1
!
c
k
..
k
k
0
..
.
+
c
0
..
.
Ï
!
0 0
0
wobei uns weder die mit bezeichneten Körperelemente noch die
(
) (
)-Matrix
weiter zu interessieren brauchen.
!
•
6
= det
!
) = det(
+@"
det(
Ð
,
0
0
5
c
=
k
Was uns wirklich interessiert, ist aber nicht det(
), sondern
). Ist die Matrix des Basiswechsels von der Standardbasis
det(
des
auf die Basis 1
, jene Matrix also, deren Spaltenvek1
und
toren die sind, so ist =
G
Da 1
Eigenvektoren zum Eigenwert sind, ist ( ) =
. In
den ersten Spalten von
steht also jeweils in der Diagonalen das
Element und ansonsten überall die Null. hat somit die Form
0
0
0
0
.. .. . .
.
..
..
..
. ..
.
. .
.
.
Kap. 4: Differentialgleichungen
’
“
"
k
5
’
G
0

H
’

’



’
H
’
‘

+@"
!
!
+
!
+ &
+ &
+ &
’
+ &
&
1
‘
&
.
";Ô
ÆAÆ;Æ;Æ;Æ;Æ
!
!
!
!
ÆAÆ;Æ;Æ;Æ;Æ
det(
6
&
!

!
!
‚
‚
+ 8
"
!
!
k
&
&
8
!
!
!
’
=1
^
<
’
,
=
=1
&
+ 8
+ &
8
&8
+ &
&
`
&
)
“
so ist wegen der Symmetrie des Skalarprodukts
eine symmetrische
-Matrix .
=
def
=1
8
&8
5
“Õ
o
•
)
5
&
, wir haben also
.
•
=
"
"
&
&
•
o
^
=1
^
=1
.
Die Matrix legt das Skalarprodukt eindeutig fest, denn für zwei beliebige Vektoren
wie oben ist
=
=1
&
•
&
&
ist. Außerdem gibt es wegen 2.) zu jedem
einen -dimensionalen
Eigenraum, also linear unabhängige Eigenvektoren. Da Eigenvektoren
"
^
=1
m
Setzen wir
l
"
=
9
"
8
=
+
&
+

) 8
+
+
+ &
1
‘
+ 8
) 8
1
+ 8
schreiben, wobei wir annehmen können, daß die paarweise verschieden sind. Dann ist die algebraische Vielfachheit von . Da das charakteristische Polynom den Grad hat, folgt, daß
&
?
)
^
=
(
+ &
&
^
1
=
)
"
)
und
&
"
^
(
"
=1
"
^
aus einem endlichdimensionalen EUKLIDischen Vektorraum mit Basis 1
ist wegen der Linearität des Skalarprodukts in beiden
Argumenten
=
+ &
) &
Wegen 1) läßt sich das charakteristische Polynom in der Form
TEschen)
Symmetrische und HERMITEsche Matrizen hängen eng mit (HERMISkalarprodukten zusammen: Für zwei Vektoren
Wie wir im letzten Paragraphen gesehen haben, kann die geometrische
Vielfachheit eines Eigenwerts kleiner sein als die algebraische, und im
Falle einer reellen Matrix müssen nicht auch die Eigenwerte reell sein. In
diesem Abschnitt wollen wir sehen, daß solche Dinge bei symmetrischen
(und auch den noch zu definierenden HERMITEschen) Matrizen nicht
möglich sind.
e) Eigenwerte symmetrischer und Hermitescher Matrizen

Umgekehrt erfülle die Abbildung die Bedingungen 1) und 2); wir
müssen zeigen, daß es eine Basis aus Eigenvektoren von gibt.
)=
..
..
=
(
)
.
.
=1
0
zerfällt in der Tat in Linearfaktoren. Die algebraische Vielfachheit des
Eigenwerts
ist gleich der Anzahl jeder Indizes
1
, für
die
=
ist; dies ist auch die geometrische Vielfachheit, denn der
Eigenraum wird aufgespannt von den Vektoren zu diesen . Also sind
1) und 2) erfüllt.
6
’
0
..
.
Da die Basisvektoren
Eigenvektoren sind, gibt es zu jedem
ein
Körperelement , so daß ( ) =
ist; bezüglich dieser Basis hat die
Abbildungsmatrix von daher Diagonalgestalt, und das charakteristische Polynom

Beweis: Zunächst sei :
eine lineare Abbildung derart, daß
eine Basis 1
aus Eigenvektoren von habe. Wir müssen
zeigen, daß 1.) und 2.) erfüllt sind.
’
zu verschiedenen Eigenwerten nach dem Lemma vom Anfang dieses
Abschnitts stets linear unabhängig sind, ist auch das System all dieser
Eigenvektoren linear unabhängig und somit eine Basis, denn es besteht
aus = dim Vektoren. Damit ist eine Basis aus Eigenvektoren von
gefunden.
Kap. 4: Differentialgleichungen
G
Satz: Zur linearen Abbildung :
eines -dimensionalen Vektorraums gibt es genau dann eine Basis aus Eigenvektoren von , wenn
1.) das charakteristische Polynom von als Produkt von Linearfaktoren
geschrieben werden kann
2.) die geometrische Vielfachheit eines jeden Eigenwerts gleich der
algebraischen ist.
Höhere Mathematik II WS 2006/2007
B
8&
) 8
&
8
)
&
•
&
H

G
G
`

n"
/"
5
.
/

"
.
) &
&
"
"
+ &
) &
^
)
9
+ &
&
^
l
&
"
^
"
^
=
?
&
"
^
m
^
)
+ 8
+ &
)8
&
8
&
+ 8
)8
+ 8
+ &
<
8
+ &
&
&
&8
so ist nun
=
. Matrizen mit dieser Eigenschaft wollen wir als
HERMITEsch bezeichnen.
,
!
=
‰
def
"
&
8
&8
Um dies etwas kompakter ausdrücken zu können, definieren wir
n"
"‰
6
* &8
6
6
* &8
n"
"‰
6
.
der konjugiert
=
=
6
=
9
.
6
6
=
9
6
6
6
?
<
<
"
?
"
`
6
×
6
Ø
Ö 6
6
=
und
Somit haben wir die beiden Darstellungen
=
6
=
=
.
6
-Matrizen identifizieren;
Schließlich wollen wir Vektoren hier mit 1
insbesondere rechnen wir mit dem transponierten Vektor“
”
=( 1
).
, d.h.
.
6
6
,
Bislang gilt alles noch für beliebige
-Matrizen; um die Symmetrie
bzw. HERMITE-Eigenschaft von ins Spiel zu bringen, betrachten wir
den Vektor ( ) =
. Da nach Voraussetzung
= ist, können
schreiben, und die linke
wir die rechte Seite der Gleichung auch als
Seite als ( ) =
, da Eigenvektor von ist. Somit können wir die
auch schreiben als
Zahl
=
(Letztere Schreibweise sieht zwar grausam aus, läßt sich aber nicht
vermeiden, wenn man Vektoren mit Pfeilen kennzeichnet. Alternativen
wie der Fettdruck von Vektoren funktionieren weder an der Tafel noch
in einer Mitschrift, und für Frakturbuchstaben wie
können sich
leider nur wenige Studenten begeistern.)
/"
S
1
..
.
.
=
‰
heißt
6
1
6
..
.
=
6
Beweis: a) Ist
ein Eigenwert von , so gibt es nach Definition
=
ist. Da die komplexe Konjugation
einen Vektor = 0, so daß
mit sämtlichen Grundrechenarten vertauschbar ist, folgt, daß
6
c) Zu einem Vektor
komplexe Vektor.
6
sei eine symmetrische reelle oder HERMITEsche (komplexe)
Satz:
Matrix.
a) Dann sind alle Eigenwerte von reell.
b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal bezüglich des Standard- bzw. HERMITEschen Skalarprodukts.
c) Für jeden Eigenwert von ist die geometrische Vielfachheit gleich
der algebraischen Vielfachheit.
d)
bzw.
hat eine Orthonormalbasis aus Eigenvektoren von .
‰"
Definition: a) Für eine Matrix = ( )
bezeichnen wir die
Matrix =
als die zu konjugiert komplexe Matrix.
b)
heißt HERMITEsch, falls = ist.
Das Hauptziel dieses Abschnitts ist
TEsche Matrix mit reellen Einträgen
6
Setzen wir auch hier wieder
!
=1
!
=1
=1
+
=1
.
)
=
.
=
/"
mit
‰"
keine Wirkung hat, ist eine HERMIeinfach eine symmetrische Matrix;
wir können uns im folgenden bei den Beweisen daher auf HERMITEsche
Matrizen beschränken und erhalten trotzdem Ergebnisse, die auch für
reelle symmetrische Matrizen gelten.
/
=1
=
Da die komplexe Konjugation auf
)
und
, so
=1
+
1
=

‘
Ist ein HERMITEscher Vektorraum, wieder mit Basis
ist jetzt für zwei Vektoren
)
Mit dieser Bezeichnung kann das Standardskalarprodukt zweier Vektoren
als Matrixprodukt
geschrieben werden; das StandardHERMITEsche Produkt in
ist entsprechend
.
Kap. 4: Differentialgleichungen
G
Diese Formel definiert umgekehrt auch für jede symmetrische Ma, allerdings
trix
eine bilineare Abbildung
muß diese nicht positiv definit und damit kein Skalarprodukt sein.
Höhere Mathematik II WS 2006/2007
R
*
6
*
6
`
"
!
!
!
Höhere Mathematik II WS 2006/2007
[
G
S
S
)
C
c
,
)
C
C
C
)
C
)
6
)
)
6
)
6
)
6
)
6
)
)
,
S
C
C
)
)
5
9
:;:;:A:;:;:;:;:;:A:;<
”•
=
1
0
>;>;>A>;>;>;>;>;>A>;?
!
!
!
!
!
!
!
!
!
!
5
6
6
k
!
!
,
•
e
9

=
.
,
•

+
•
‘
+
+
“
!
!
!
/"

!
!
!
!
!
!
!
!
!
!
‰"
!
‘
+@"
!
!
!
Ù
6

H
g
’
6

H
(
!
Ù
c
,
‚
!
+ &
5
,
!
)
!
:A:;:;:;:;:;:A:;:;:;<
wobei
•
.
0
5
0
die (
!
0
..
.
!
!
0
•
!
..
!
!
!
0
..
.
!
!
0
..
.
.
0 0
0
wobei
eine (
) (
)-Matrix ist, die uns nicht weiter zu
interessieren braucht. Damit hat
die Form
0
0
0
0
0
0
0
0
..
..
..
..
..
..
..
.
.
.
.
.
.
.
0
0 ,
0
0
0
..
.
!
..
0
!
!
0
..
.
0
!
0
..
.
0
!
=
!
!
!
c
c
,
Bezüglich der Standardbasis hat sie als Abbildungsmatrix; für uns
interessanter ist aber die Abbildungsmatrix bezüglich der neuen Basis . Dazu sei
die Matrix mit Spaltenvektoren ; da der Eintrag
an der Stelle ( ) eines Matrixprodukts das (Standard-)Skalarprodukt
des -ten Zeilenvektors des ersten Faktors mit dem -ten Spaltenvektor des zweiten Faktors ist, steht an der Stelle ( ) der Matrix
c
+ &
’
!
.
5
!
Ê
;
6
,
=
:
c
=
Nun betrachten wir die lineare Abbildung
,
sei also ein Eigenwert von mit geometrischer Vielfachheit , d.h.
der zugehörige Eigenraum habe die Dimension . Wir wählen eine Basis
davon und ergänzen sie zu einer Basis = 1
1
des gesamten Vektorraums
=
oder
. Indem wir nötigenfalls
das GRAM-SCHMIDTsche Orthogonalisierungsverfahren anwenden und
anschließend die Längen aller Vektoren auf eins normieren, können wir
annehmen, daß es sich dabei um eine Orthonormalbasis handelt.
Beim Beweis von c) gehen wir im wesentlichen genauso vor wie im
vorigen Abschnitt, als wir zeigten, daß die geometrische Vielfachheit
eines Eigenwerts stets kleiner oder gleich der algebraischen ist; die
zusätzliche Annahme über die Matrix wird zeigen, daß hier die beiden
Vielfachheiten sogar gleich sind.
als
5
Die ersten Basisvektoren sind Eigenvektoren von zum Eigenwert ; für
ist daher ( ) =
, d.h. in der -ten Spalte von
steht an der -ten Stelle die reelle Zahl und ansonsten überall die Null,
genau wie auch im vorigen Abschnitt. Im Gegensatz zu dort haben wir
nun aber eine HERMITEsche Matrix; da in der -ten Spalte abgesehen
von auf der Hauptdiagonalen nur Nullen stehen, muß daher dasselbe
auch für die -te Zeile gelten; die Matrix hat also die Form
0
0
0
0
0
0
0
0
.. .. . .
..
..
..
..
. .
.
. .
.
.
+ &
= . Die
verschwin-
6
=
.
c
+ &
Wie wir schon wissen, sind alle Eigenwerte reell, d.h.
obige Gleichungskette kann daher nur richtig sein, wenn
det, d.h. wenn und orthogonal sind.
=
=
1
c
=
=
6
=
=
1
c
)
)=
c
6
= (
1
.
c
)
6
= (
1
6
= (
c
5
Dann ist
.
6
=
und
5
=
c
eine HERMITEsche Matrix
auch
=
und
k
Aus dieser Formel folgt, daß mit
ist, denn
1
. Da
+ 8
=
c
sei Eigenvektor zum davon
c
=
c
b) sei Eigenvektor zum Eigenwert , und
verschiedenen Eigenwert , d.h.
und damit
+ &
=
und
Ù
das (Standard) HERMITEsche Produkt der Vektoren
Orthonormalbasis gewählt wurde, ist daher
G
die nur dann beide richtig sein können, wenn = und somit reell ist;
denn
kann wegen der Definitheit HERMITEscher Skalarprodukte für
einen Vektor = 0 nicht verschwinden.
Kap. 4: Differentialgleichungen
•
Î
!
Í
ÊÌË
)-Einheitsmatrix bezeichnet.
>A>;>;>;>;>;>A>;>;>;?
•
`
`
!
•
k
“
"
‚
‚
G
5
6
5
k
k
) det(
)
k
•
k
“
"
e
e
`
5
6
k
ist, wobei
die (
) (
)-Einheitsmatrix bezeichnet. Wir
müssen zeigen, daß die algebraische Vielfachheit von genau gleich
ist, daß also keine Nullstelle von det(
) sein kann.
)=(
“
) = det(
5
det(
Wie in Abschnitt d) folgt auf Grund der obigen Form der Matrix
aus dem LAPLACEschen Entwicklungssatz, daß
“
k
“
"
"
•
•
)
e
k
•
e
“
e
von
5
der Vektor
"
) “
=
0
1
=
9
)
) “
<

Ç
’
?
) "
Ç
i
>A>;>;>;>;>A>;?
:A:;:;:;:;:A:;<
) "
6
e
5
+
+
Tatsächlich läßt es sich immer dadurch lösen, daß man zu einem größeren Körper übergeht: Nach dem Fundamentalsatz der Algebra, zerfällt
jedes Polynom mit komplexen (also insbeondere auch mit reellen) Koeffizienten über den komplexen Zahlen in Linearfaktoren. Für andere
Körper als die reellen oder komplexen Zahlen zeigt die Algebra, daß es
zu jedem Polynom über einem Körper stets einen Erweiterungskörper
gibt, der als Vektorraum über dem Ausgangskörper endliche Dimension hat, so daß das gegebene Polynom dort in Linearfaktoren zerfällt.
Mit Methoden, die im allgemeinen nicht konstruktiv sind, folgt sogar,
dadurch lösen, daß wir zu einem größeren Körper übergegangen sind,
nämlich von den reellen zu den komplexen Zahlen.
“
!
!
!
+ &
•
Wir wissen dann, daß die Summe der algebraischen Vielfachheiten aller
Eigenwerte gleich der Dimension des Vektorraums ist und daß alle
Eigenwerte reell sind; da die algebraischen gleich den geometrischen
’
Ç
d) ist nun eine einfache Folgerung aus den übrigen Aussagen sogenannten Fundamentalsatz der Algebra, wonach jedes reelle oder komplexe
Polynom über den komplexen Zahlen in Linearfaktoren zerfällt:
Ç
die algebraische Vielfachheit , und c) ist gezeigt.
H
Das zweite dieser Probleme konnten wir zumindest beim Beispiel der
Matrix
cos
sin
sin
cos
j
Also hat

..
.

ein Eigenvektor von und damit von – Eigenvektoren hängen schließlich nur von der linearen Abbildung ab, nicht von einer speziellen Abbildungsmatrix. Dies widerspricht aber der Voraussetzung, daß der Eierzeugt wird, denn ist linear
genraum zum Eigenwert von 1
unabhängig von diesen .
=
9
1
=
..
.
0
..
.
’
Falls die lineare Abbildung :
Eigenwerte hat, deren geometrische Vielfachheit kleiner als die algebraische ist, haben wir keine
Chance auf eine Basis, bezüglich derer die Abbildungsmatrix von
Diagonalgestalt hat: Die Elemente einer solchen Basis wären allesamt
Eigenvektoren, und bei zu kleiner geometrischer Vielfachheit gibt es
nicht genügend linear unabhängige Eigenvektoren. Außerdem gibt es
offensichtlich keine Chance auf eine Diagonalgestalt, wenn das charakteristische Polynom von nicht in Linearfaktoren zerfällt, denn dann
ist schon die Summe der algebraischen Vielfachheiten der Eigenwerte
kleiner als die Dimension von .
f) Hauptvektoren und und die Jordan-Zerlegung

), so hätte
den Eigenwert ,
Wäre Nullstelle von det(
es gäbe also einen (
)-dimensionalen Eigenvektor von . Wegen
der speziellen Form der Matrix ist für jeden Eigenvektor
Eigenvektoren, die eine Basis von

Für jeden einzelnen Eigenraum können wir die Eigenvektoren nach
GRAM-SCHMIDT so wählen, daß sie eine Orthonormalbasis bilden; da
Eigenvektoren zu verschiedenen Eigenwerten stets orthogonal sind, ist
die Vereinigungsmenge dieser Basen Orthonormalbasis von .
Vielfachheiten sind, gibt es also
bilden.
Kap. 4: Differentialgleichungen
Wie wir uns schon im vorigen Abschnitt überlegten beim Beweis, daß die
geometrische Vielfachheit eines Eigenwerts immer kleiner oder gleich
der algebraischen ist, haben und dasselbe charakterische Polynom;
da wir die Matrix besser kennen, rechnen wir mit ihr.
Höhere Mathematik II WS 2006/2007
R R Ý
ÚÞ
Ú
9
?
Ð
Ý
6
c
Ý
<
Ý
Ú

+@"
Ú
ß

=
o
und
o
Ú
^
&
Ú
”
Ú
’
’
’


H
’

”
=1
^
=
= 0
o
Ú
ß Ú
8
Ú &
á&
Þ
8
Ú &
&
Ú &
Ú
’
o

’
’
6
1
9
..
!
Ú
’
Ú

‘
Ú
+

+
“
‘
!
!
!

+@"
!
+
!
!
..
.
0
>;>;>A>;>;>;>;>A?
6
o
!
!
!
Ú &
:;:;:A:;:;:;:;:A<
6 &
”
9
Ú &
=
5
6
Kandidaten für Untervektorräume
liefern die Haupträume:
hat, wobei die
die Abbildungsmatrizen der Einschränkungen
Abbildungen von
nach
sind.
0
!
.
!
!
0
..
.
!
!
..
.
6
2
0
=
0
Ú &
0
’ Û Üãâ

•
’
?
c
Ú
Ú
<
6
’
Ñ
’
Ú &
ä

.
ä
.
S
Ñ
’
•
Definition: a) Ein Vektor
heißt Hauptvektor von zum Eigengibt,
so daß (
wert , wenn es ein
id) ( ) = 0 ist. Falls
0
1
id)
= 0 ist, bezeichnen wir als die Stufe des Hauptvektors.
(
zu
ist. Falls hierbei die allesamt -invariant sind, können wir ihre Basen
aneinandersetzen und erhalten eine Basis, bezüglich derer die Abbildungsmatrix die Gestalt
+
Ú
+
, daß
von
Ï
1
!
=
o_à
=1
!
sei, wenn
=
!
1
Ú
1
Ú
=
Allgemein sagen wir für Untervektorräume
die direkte Summe
=
Ð
Ú
Ú
H
’ ÛÜ
5
`•
•
mit einer
-Matrix , der Abbildungsmatrix von
:
, einer
(
) (
)-Matrix und einer (
) -Matrix . Die fette Null
soll hier, wie auch in den noch folgenden Matrizen, stets eine Nullmatrix
der jeweils korrekten Größe bezeichnen.


0
’
Ý
Für das folgende wollen wir der Einfachheit halber annehmen, daß
endliche Dimension habe. Dann ist erst recht jeder -invariante Unterraum
endlichdimensional, wir können also eine endliche Basis 1
von
finden und diese ergänzen zu einer Basis
von
.
Da
( )
ist, liegen die Bilder der ersten
1
Basisvektoren wieder in , d.h. die Abbildungsmatrix bezüglich dieser
Basis hat die Form
Ï
.
’
0
Ú
0
Úß

Die -Invarianz der Eigenräume im Sinne dieser Definition ist klar,
denn auf einem Eigenraum ist einfach die Multiplikation mit dem
zugehörigen Eigenwert.
Ý
sei eine lineare Abbildung. Ein Untervektorraum
Definition: :
heißt invariant unter oder kurz -invariant, wenn ( )
ist.
Ý
“
Die Lösung wird darin bestehen, daß wir solchen Eigenwerten Räume
zuordnen, die größer sind als die Eigenräume, aber immer noch eine gut
an die Abbildung angepaßte Basis haben. Insbesondere sollen sie, genau
wie die Eigenräume, invariant sein unter der betrachteten Abbildung:
+
Somit können wir das Problem, daß das charakteristische Polynom eventuell nicht genügend viele Nullstellen hat, im wesentlichen ignorieren.
Ernster ist das Problem mit Eigenwerten, deren geometrische Vielfachheit kleiner ist als die algebraische. Damit wollen wir uns in diesem
Abschnitt beschäftigen.
Noch besser wird die Situation, wenn ein -invariantes Komplement
hat, wenn es also einen weiteren -invarianten Untervektorraum gibt,
= 0 . (Wir sagen dann, =
so daß = + ist und
sei die direkte Summe von und .) In diesem Fall können wir für +1
bis die Vektoren einer Basis von
nehmen, und da nun auch
auf
sich selbst abgebildet wird, haben wir eine Abbildungsmatrix der Form
Kap. 4: Differentialgleichungen
daß es stets einen (im allgemeinen unendlichdimensionalen) Erweiterungskörper gibt, über dem jedes Polynom in Linearfaktoren zerfällt,
den sogenannte algebraischen Abschluß des Ausgangskörpers. Einzelheiten findet man in jedem Lehrbuch der Algebra.
Höhere Mathematik II WS 2006/2007
R
`•
™
c
•
`
•
R 0
’
å
Insbesondere sind die Hauptvektoren der Stufe eins genau die Eigenvektoren zum Eigenwert : Der Nullvektor ist nämlich kein Hauptvektor
erster Stufe, da er bereits von (
id)0 = id auf 0 abgebildet wird.
’
’
ä
’
æ
æ
Ñ
’
’
å
ä

Ñ
’
ä
’
Ñ
ä
å
’

å
’
’
å
’
‚
’
8
8
8
å
‚
’
å
.
å
’
’
’
( )
ist also ein Hauptvektor der Stufe höchstens
1 und somit
insbesondere ein Element von
. Da mit auch
in
liegt, ist
damit auch ( ) = ( )
+
ein Hauptvektor.
’
’
Ñ
)
’
Ñ
)
!
!
)
’
’
Ñ
id) ( ( )
+

’
’
)
’
’
wieder ein Element des Bilds und damit auch ( ) selbst.
Ñ

+
( )=(
’
‘
‘
+
Beweis: Wir beginnen mit einer Basis 1
des Eigenraums
1
des
Raums aller
zu und ergänzen diese zu einer Basis 1
2
Hauptvektoren der Stufe höchstens zwei und so weiter, bis eine Basis
des gesamten Hauptraums erreicht ist.
1
!
+1
’
!
id)
’

+
“
id)( ) = (
å
+
=(
‘
( )
id) ( )
Lemma: Der Hauptraum
hat eine Basis, bezüglich derer die Abbildungsmatrix von eine obere Dreiecksmatrix ist. Alle Hauptdiagonaleinträge dieser Matrix sind gleich .
Ñ
=(
Das Schöne an der FITTING-Zerlegung ist, daß sie rekursiv fortgesetzt
id) auch -invariant ist, können wir für die
werden kann: Da Bild(
Einschränkung von auf diesen Unterraum einen Hauptraum zu einem
anderen Eigenwert abspalten usw. Bevor wir uns das genauer überlegen,
wollen wir uns aber zunächst eine gute Basis für den Hauptraum
verschaffen.
’
id) folgt genauso: Für
nach diesem Lemma heißt FITTING-Zerlegung.
,
Der deutsche Mathematiker HANS FITTING (1906–1938) beschäftigte sich vor allem mit
der Untersuchung von Operatoren (und Operatorenringen). Trotz seines frühen Todes
konnte er damit wesentliche Beiträge zur Algebra leisten, vor allem auch zur Erforschung
der Struktur von Gruppen.
Die Zerlegung von
.
id) = dim
id) ,
Die Invarianz von Bild(
ist
id) + dim Bild(
die beiden Untervektorräume erzeugen somit ganz

= 0,
( )
)
’
id)
’
å
=(
’
id)( )
(
Ñ
Ñ
1
)
Ñ
1
Ñ
id)

id) ( ) = (
(
’
ein Hauptvektor der Stufe , so ist
Ñ

Ist
Ñ
unter .
Beweis: Beginnen wir mit der Invarianz von
’
’
ist ein -invarianter Unterraum von . Bezeichnet die
Lemma:
größte Stufe eines Hauptvektors aus
, so ist Bild(
id) ein invariantes Komplement.
dim Kern(
’
dim Kern(
also ist
’

Der Nutzen der Haupträume ergibt sich aus folgendem
id) = dim
dim Bild(
)
lineare Abbildungen, und die Hauptvektoren der Stufe höchstens sind
gerade die Elemente des Kerns dieser Abbildung. Da wir von einem endlichdimensionalen Vektorraum ausgehen, kann die Folge dieser Kerne
nicht unbeschränkt wachsen, es gibt also ein maximales , das als Stufe
eines Hauptvektors auftreten kann. Mit diesem ist der Hauptraum
gerade der Kern von (
id) .
’
Ñ
id)
(
id)
Ñ
Ñ
id) = (
)
Nach der Dimensionsformel ist
)
(
.
Es ist klar, daß die Hauptvektoren einen Untervektorraum bilden, denn
id) sind auch dessen Schachtelungen
mit (

Als nächstes müssen wir zeigen, daß der Durchschnitt der beiden Räume
nur aus dem Nullvektor besteht. Dazu sei ein Vektor aus diesem
Durchschnitt. Dann liegt sowohl im Kern als auch im Bild der linearen
id) , es gibt also einen Vektor
derart, daß
Abbildung (
=(
id) ( ) ist, und (
id) ( ) = (
id)2 ( ) = 0. Damit
liegt aber im Hauptraum zu , d.h. = (
id) ( ) = 0.
heißt Haupt-
Kap. 4: Differentialgleichungen
B
b) Die Menge aller Hauptvektoren von zum Eigenwert
raum zu und wird mit
bezeichnet.
Höhere Mathematik II WS 2006/2007
R
“
!
!
“
+
!
!
!
)
’
R G
ä
+ &
(
Ñ
’
( )
id)( )
+ &
’
= 0,
Ñ
id)
ä
+ &
+ &
’
’
+ &
’
,
+ &
+ &
’
+ 8
+ &
+ &
’
+ 8
– 8&
&
^
8
+ &
‘

+
+ &
’
+
“
!
!
!



9
=
’
Š
H
!
6
!
!
!
!
’
!
6
1
.
)=(
)
1
1
“
6
1
det(
1
)
k
k
:;:;:A:;:;:A:;:;<
6
ist, das charakteristische Polynom von
ist also ein Teiler des charak1
teristischen Polynoms von und zerfällt somit auch in Linearfaktoren.
det(
’

>;>;>A>;>;>A>;>;?
o
!
!
’
!



å
Insbesondere hat es (mindestens) eine Nullstelle 2 ; wir können deren
Hauptraum
in 1 betrachten und damit 1 genau wie oben weiter
2
und dessen invariantes Komplement 2 . Nimmt man
zerlegen in
2
’ Ûé
,
6 &
&
Beweis: Falls es zu eine Basis gibt, bezüglich derer die Abbildungsmatrix von eine Dreiecksmatrix ist, ist bezüglich dieser Basis auch
•
Entwicklung des charakteristischen Polynoms det(
) nach der
ersten Spalte, gefolgt von der Entwicklung des Rests nach seiner ersten
Spalte und so weiter, bis die ersten 1 = dim 1 Spalten aufgebraucht
sind, zeigt, daß
!
c
0
..
.
0
…
!
å
..
.
:;:;<
!
.
!
!
..
!
!
.
6
..
.
!
!
..
k
..
.
9
1
hat mit Dreiecksmatrizen , die auf der Hauptdiagonalen den -ten
Eigenwert stehen haben.
Š
>;>;?
0
-
0
-
..
.
0

=
-
1

2
’
1
>A?
0
..
.
0
:A<
mit einer oberen Dreiecksmatrix
’
1
6
1
=
0

0
0

0
9
c
eines endlichdimensioSatz: Zu einer linearen Abbildung :
nalen -Vektorraums gibt es genau dann eine Basis von , bezüglich
derer die Abbildungsmatrix von eine Dreiecksmatrix ist, wenn das
charakteristische Polynom von über als Produkt von Linearfaktoren
geschrieben werden kann. Alsdann kann die Basis so gewählt werden,
daß die Abbildungsmatrix die Form
å
…
=

=
1
å
1
ß
Abspaltung immer weiterer Haupträume auch vom invarianten Komplement führt schließlich zum
å
hat die Abbildungsmatrix daher in der
Nach dem Lemma von der FITTING-Zerlegung gibt es zu
ein 1
invariantes Komplement 1 , so daß =
ist.
Wir
ergänzen
die
1
1
zu
einer
Basis
von
Basis von
;
bezüglich
durch
eine
Basis
von
1
1
dieser Basis hat dann eine Abbildungsmatrix der Form
’ Ûç è
Bezüglich der Basis 1
Tat die gewünschte Form.
.
=1
k
1
6
+
Falls umgekehrt das charakteristische Polynom in Linearfaktoren zerfällt, gibt es auf jeden Fall Eigenwerte; 1 sei einer davon, und 1 sei
der zugehörige Hauptraum. Dazu gibt es nach dem gerade bewiesenen
Lemma eine Basis, bezüglich derer die Abbildungsmatrix von
1
eine obere Dreiecksmatrix ist, deren sämtliche Hauptdiagonaleinträge
gleich 1 sind.
å
( )=
( )
ist also ein Hauptvektor der Stufe höchstens
1. Nach
Konstruktion der Basis ist ( )
daher eine Linearkombination
von Basisvektoren mit Indizes echt kleiner , d.h.
1
1
=(
Ñ
id)
id) ( ) = (
(
6
k
eine Dreiecksmatrix. Da die Determinante einer Dreiecksmatrix
gerade das Produkt der Diagonaleinträge ist, bekommen wir als charak) ein Produkt von Linearfaktoren.
teristisches Polynom det(
sei Hauptvektor der Stufe ; dann ist
Kap. 4: Differentialgleichungen
Der Vektor
Höhere Mathematik II WS 2006/2007
R
R
å
6
’
’
R
[
å


…
9
6
:;:;:;:;:A<
c
>;>;>;>;>A?
=
-
9
-
6
!
!
!
!
!
!
…
>;>;?
’
9
!
!
!
!
…
!
!
!
!
!
…
:;:;:A:;:;:A:;:;:;<
6
:;:;<
!
!
!
!
-
&
9
!
!
!
!
!
&
!
&
!
!
… &
’
•
“
`•
&
:;:;<
… &
)
2
“
2
&
) 1(
-
1
>;>;?
’
k
)=(
o
(
1
)
,
-Matrix, so ist das charak-
>;>;>A>;>;>A>;>;>;?
det(
-
..
.
=
.. . .
.
.
0 0
zu den Eigenwerten von . Ist
eine
teristische Polynom von
…
0
..
.
=
=
q
hat mit oberen Dreiecksmatrizen
0
6
0
&
..
.
…
.
6
..
… &
..
.
…
Ziel unserer Betrachtungen in diesem Paragraphen war die Berechnung
von Potenzen und Exponentialfunktionen einer Matrix. Mit der JORDANmiteinander
Zerlegung ist dies im wesentlichen erreicht: Da und
MARIE ENNEMOND CAMILLE JORDAN (1838–1922) arbeitete bei der Herleitung dieser und weiterer Zerlegungen nicht mit komplexen Matrizen, sondern mit Matrizen über endlichen Körpern, motiviert durch Fragen aus
der Gruppentheorie und Lösbarkeitsfragen für nichtlineare Gleichungen. Weitere Arbeiten beschäftigen sich
mit der Anwendung gruppentheoretischer Methoden auf
die Geometrie sowie mit der Topologie, wo er z.B. bewies, daß jede doppeltpunktfreie geschlossene Kurve
die Ebene in zwei Gebiete zerlegt. Außerdem entwickelte er neue Methoden zum Nachweis der Konvergenz von
FOURIER-Reihen.
Diese Zerlegung aus diesem Satz bezeichnet man nach dem französischen Mathematiker CAMILLE JORDAN als JORDAN-Zerlegung.
… &
..
.
6
…
=
’
q
0
6
q
2
q
…
0
q
0
…
0
q
1

2
q
.
.. . .
.
. ..
.
0 0
2
Auf diese Weise lassen sich sukzessive immer weitere Haupträume abspalten, bis schließlich eine Basis erreicht ist, bezüglich derer die Abbildungsmatrix von die Form
…
0
..
.
’
=

2
H
Beweis: Wir nehmen natürlich die Basis aus dem gerade beendeten
Beweis; die Diagonalmatrix soll genau aus den Diagonalelementen
der Abbildungsmatrix
bestehen, also die Eigenwerte entsprechend
ihrer algebraischen Vielfachheiten als Diagonalelemente enthalten, und
=
. Für jede einzelne Dreiecksmatrix aus dem obigen Beweis
kommutiert der Diagonalanteil mit dem Rest, da der Diagonalanteil
gerade das -fache der Einheitsmatrix ist. Damit ist auch
=
,
denn bei beiden Multiplikationen treffen, abgesehen von den Nullen,
immer nur Einträge aus einem
aufeinander.

2
…
2
in LinearfakSatz: Falls das charakteristische Polynom von :
toren zerfällt, gibt es eine Basis von , bezüglich derer die Abbildungsmatrix von als = + geschrieben werden kann, wobei eine
Diagonalmatrix ist und eine obere Dreiecksmatrix mit Nullen in der
Hauptdiagonalen. Außerdem ist
=
.
…
mit einer neuen Dreiecksmatrix
…
0
0
å
2
=
0
&
2
•
0
.
&
=
sind also gerade die algebraischen Vielfachheiten der
Für spätere Anwendungen wollen wir das gerade bewiesene Ergebnis
noch etwas umformulieren:
die
Kap. 4: Differentialgleichungen
R
nun als Basisvektoren von zunächst die Basisvektoren von
wie
1
und
schließlich
noch
oben, dann entsprechende Basisvektoren für
2
solche für 2 , hat die Abbildungsmatrix 2 bezüglich dieser neuen Basis
die Form
0
0
1
Höhere Mathematik II WS 2006/2007
q
…
“Õ
6
R
Ñ q
Ñ €…
i
ê
ä
^
€
Ñ
†
ê
†
…
…
q
8 …
‚
…
†
…
q
10
+ 10
9
+ 45
2
8
…
ë
=
und
3
=0
0
0
2
0
0
0
0
3
4
0
.
.
q
q
†
ê
q
†
…
Z
…
6
,
q
,
+ 8
+ &
+ &
ë
‚
”
ä
,
”
,
”
‚
‚
+ 8
+ 8
ä
,
+ &
Ñ ë
und
†
ä
Ñ ë
Ñ q
+
+
:;:;:A<
1
2
2
Ñ q
=
0
0
0
1
0
0
0
0
1
1
0
0
0
0
0
1
0
0
0 0 0
0 0 0
0 0
0
0
0 0
>;>;>A?
0
0
2
1
0
0
0
7
4
1
=
9
ê
ä
=
9
6
=
9
2
0
0
0
0
0
ê
=
2
,
Mehr als Potenzen interessiert uns die Exponentialfunktion einer Matrix;
auch diese läßt sich über die JORDAN-Zerlegung berechnen: Da und
kommutieren, ist
= + =
mit
=
:;:;:;<
,
:;:;:;<
9
0
0
3
4
1
9
1024 5120 0 0
0
0
1024 0 0
0
0
0
1 20 390
0
0
0 1 40
0
0
0 0
1
>;>;>;?
10
=
=
0
0
2
1
0
=
0
0
8
0
0
q
ist, also ist beispielsweise
2
0
0
0
0
0
q
Als Beispiel betrachten wir die Matrix
2 1 0
0 2 0
= 0 0 1
0 0 0
0 0 0
…
0
0
0
0
0
0
0
0
0
0
>A>;>;?
>;>;>;?
Die Abbildungsmatrix
von ( ) ist daher ebenfalls eine obere Dreiecksmatrix mit Nullen in der Hauptdiagonalen; zusätzlich stehen auch
noch in den
1 schrägen Reihen oberhalb und parallel zur Hauptdiagonale lauter Nullen, und spätestens wenn größer oder gleich der
größten Stufe eines Hauptvektors wird, ist
gleich der Nullmatrix.
:A:;:;<
0
0
0
0
0
=
1
0
0
0
0
=
Mit der JORDAN-Zerlegung können wir diese Aussage nun noch etwas
präzisieren: Die lineare Abbildung zu bildet den -ten Basisvektor
ab in den von Basisvektoren mit
1 erzeugten Unterraum. Für
diese Basisvektoren gilt eine analoge Aussage, (2) ( ) liegt daher im
Unterraum, den die
mit
2 aufspannen. Induktiv folgt, daß
( )
( ) im von den
mit
aufgespannten Untervektorraum
liegt; falls
negativ wird, ist das natürlich der Nullraum.
9
0
0
0
0
0
und
0
0
0
0
0
:A:;:;<
ist eine obere Dreiecksmatrix mit Nullen in der Hauptdiagonalen,
wir wissen also bereits, daß es einen Exponenten gibt, ab dem alle
Potenzen gleich der Nullmatrix sind, so daß die Exponentialreihe zu
einer endlichen Summe wird und auch in der binomischen Formel selbst
für große nur relativ wenige Summanden auftreten.
0
0
0
0
1
>A>;>;?
Eine kurze Rechnung zeigt, daß
=
0
0
0
1
0
=
=
.
Die Potenzen von
sind sehr einfach zu berechnen:
ist wieder
eine Diagonalmatrix, ihre Diagonalelemente sind die -ten Potenzen der
Diagonalelemente von ; genauso ist
einfach die Diagonalmatrix
mit den Exponentialfunktionen der Einträge von als Einträgen.
,
0
0
1
0
0
9
=0
0
2
0
0
0
=
+
=
2
0
0
0
0
die offensichtlich von der oben betrachteten Form ist; hier ist
Kap. 4: Differentialgleichungen
und
€q
)
j
+
der übliche“ bino”
q
+
…
(
kommutieren, gilt für Potenzen der Summe
mische Lehrsatz, d.h.
Höhere Mathematik II WS 2006/2007
[
…
>;>;>A?
:;:;:A<
q
q
k
>;>;>A?
:;:;:A<
[
=
ê
Z
†
q
k
ê
:;:;:A<
q
…
q
>;>;>A?
9
=
>;>;>A?
ê
Z
†
:;:;:A<
q
…
i
6
6
j
i
S
j
i
j
i
i
j
j
i
j
i
j
i
=
+
()=
6
=
1 6
0 4
+
2
+
2
+
()
()
( )+5 ( )+2 ( )
()
2
1
1
=
i
+
…
0 6
0 0
i
1
5
2
1
2
1
,
2 ( )+ ( ).
0
4
Hier ist
()=
( )=2 ( )
1
0
,
3
2
.
+
+
2
+
2
+
3
Wir haben Eigenvektoren und Hauptvektoren in erster Linie eingeführt,
um Differentialgleichungen zu lösen; daher soll das etwas ausführlichere
Beispiel in diesem Abschnitt ebenfalls mit einer Differentialgleichung
beginnen: Gesucht sind die Lösungen des Differentialgleichungssystems
g) Ein Beispiel
+2
2
q
=
+
2
j
=
j
und in der Tat ist
i
i
j
=
…
1 0
0 2
…
0 3
0 0
“q
0 6
0 0
0 3
0 0
+
…
0 3
0 0
2
q
1 0
0 2
+
q
beispielsweise ist
3
…
†
+
2
ê
=
3
) =
€
def
)=
•
0 3
0 0
+
…
+
+
…
†
1 0
0 2
(
q
ê
=
0
q
hat acht Summanden; die -te Potenz hat 2 , und von denen überleben
viele auch dann, wenn
schon für relativ kleine verschwindet. Für
die Matrixexponentialfunktion, in die alle Potenzen eingehen, ist also
ziemlich klar, daß es für nichtkommutierende Matrizen und keinen
geben kann.
vernünftigen Zusammenhang zwischen + und
(
q
…
1 3
0 2
…
q
q
=
q
…
Zur Vorsicht sei noch einmal ausdrücklich darauf hingewiesen, daß es
für diese Rechnungen sehr wesentlich war, daß und
miteinander
kommutieren; es reicht nicht, wenn wir die Matrix nur auf irgendeine Dreiecksgestalt bringen und dann als Summe einer Diagonalmatrix
und einer oberen Dreiecksmatrix mit Nullen in der Hauptdiagonalen
schreiben. Für
.
…
q
0
2
…
…
q
0
0
3
q
2
)+
q
…
0
0
0
+
q
0
0
+4
4
(
…
0
0
2
) =
q
0
0
+
…
ist, aber wir können
+
nicht zusammenfassen zu 2
. Mit
wachsendem Exponenten verschlimmert sich die Situation drastisch;
schon
(
q
0
0
0
0
=
…
=
Z
9
…
q
=
:A:;:;<
q
2
q
…
2
=
…
2
…
kommutieren, ist
,
q
und
q
und da auch
2
Der Grund für die Verschiedenheit der Ergebnisse beim Quadrat liegt
natürlich darin, daß wir im allgemeinen nur sagen können, daß
1
0
0
0
Z
=
i
2 2
,
1
2
+
j
=
†
0
0
3 +4
4
1
3
S
2
j
0 0
0 0
1 2
0 1
0 0
2
1 9
0 4
ê
0
3
=
j
1
0
0
0
0
>A>;>;?
=
und genauso ist
2
i
berechnen:
.
verschieden von
6
0
0
0
7
4
+
0
0
0
0
2
=
0
0
0
0
0
=
9
2
0
0
0
0
2
i
=
2
Kap. 4: Differentialgleichungen
Entsprechend läßt sich auch
also ist
Höhere Mathematik II WS 2006/2007
[
m
l
j
j
q
q
…
…
[0
3
2
21 + 18 =
(
2)(
2
3) .
k
6
m
l
6
k
m
l
i
3
j
i
j
l
6
k
i
m
l
0
0
3
0
1
3
l
3
0
0
=
j
2
1
0
=
=
d
Z
m
3
0
.
3
3
.
3
3
m
l
Z
m
l
0
3
0
0
was bezüglich der Standardbasis der Vektor
2
0
2
3
3
2
+
=
+
1
2
l
1
m
=
=
3
3
2
0
2
,
l
l
k
6
2
2
1
3
=
3
m
2
1
1
0
und
l
3
ist also
0
2
3
0
+
2
1
1
=
=
2
2
2
1
ist. Bezüglich der Basis
=
1
+
3
3
.
Um daraus
zu berechnen, müssen wir die Standardbasis des
durch die Hauptvektoren ausdrücken; man überzeugt sich leicht, daß
1
3
i
m
=
i
3
0
Damit ist
und
i
3
6
j
j
1
1
0
i
j
sieht man, daß sich
m
ist also ein Eigenvektor und erzeugt auch den Eigenraum, denn da die
erste Spalte kein Vielfaches der zweiten ist, hat die Matrix den Rang
zwei. Die geometrische Vielfachheit des Eigenwerts drei ist also nur eins:
Um zu einer Dreiecksmatrix zu kommen, müssen wir einen Hauptvektor
zweiter Stufe berechnen. Aus
1
1
1
2
(
3 ) =
1
1
1
1
1
1
j
=
e
i
2
l
i
0
1
1
stimmen die zweite und die dritte Spalte miteinander überein,
l
1
2
2
1
2
2
j
1
1
1
`
=
j
3
erzeugt also den Eigenraum. In
m
i
Da das Quadrat des zweiten Summanden verschwindet, ist
0
1
1 0
0
1
1
0
0
=
+
=
0 1
0
0
0
1
1
m
1
1
1
=
ist die mittlere Spalte gleich der Summe der beiden äußeren,
2
6
Wir haben also den Eigenwert zwei mit algebraischer und somit auch
geometrischer Vielfachheit eins und den Eigenwert drei mit algebraischer Vielfachheit zwei. In der Matrix
0
1
1
1
3
2
2 =
1
2
1
+8
6
)=
det(
j
3
linear unabhängiger Kandidat anbietet. Da
3
4 =3 3
=
3
2
1
ist, hat bezüglich der Basis 1 2 3 die Form
2 0
0
1 ,
= 0 3
0 0
3
der erste Kasten“ ist also einfach eine 1 1-Matrix und der zweite ist
”
3
1
3 0
0
1
=
+
.
0
3
0 3
0
0
als von
ist
Kap. 4: Differentialgleichungen
[
und das charakteristische Polynom von
Höhere Mathematik II WS 2006/2007
B
/
m
m
l
l
m
[G
l
+
m
3
3
=
m
l
2
3
2
+
3
Z
3
m
m
l
m
l
Z
Z
l
m
l
l
m
2
0
( )
( )
=
+ &
Ñ ë
‚
ë
ì
&8
&8
,
q
,
l
=
9
<
q
q
m
?
Satz: Falls das charakteristische Polynom von :
als Produkt
von Linearfaktoren geschrieben werden kann, gibt es eine Basis von ,
In diesem speziellen Fall sind die Potenzen von also ohne jeden Aufwand zu berechnen, und tatsächlich genügen solche Matrizen schon
vollständig für eine Normalform der Abbildungsmatrix, die sogenannte
JORDAN-Normalform:
+ &
Die im vorigen Abschnitt konstruierte Normalform für Abbildungsmatrizen wird für alle Zwecke dieser Vorlesung ausreichen. Trotzdem ist
sie nicht ganz befriedigend, da die Dreiecksmatrizen immer noch sehr
willkürlich und damit komplizierter als notwendig sind. Für Interessenten sei in diesem Abschnitt gezeigt, wie sich die bislang erreichte
.
0
) mit
Ñ 1 falls
=
,
0 sonst
denn die zu
gehörige lineare Abbildung bildet einfach den -ten
Basisvektor auf den ( 1)-ten ab oder auf den Nullvektor, falls es keinen
1)-ten Basisvektor mehr gibt, und entsprechend ist ( ) ( ) =
(
beziehungsweise 0.
=(
,
h) Ergänzung: Die Jordan-Normalform
0)
3
0
Ñ q
( 0 + 0 + 0) 2
( 0 + 0) 3
3
( 0+ 0+
0 + ( + 2) 0 + ( + 1) 0
2
+
(
( 0 + 0 + 0)
+
1)
0
0+
0
3
3
+
m
2
3
2
Ñ
=
2
Ñ
3
3
&8
+
3
&8
3
3
ì
2
=
1 falls
=1
.
0 sonst
verschiebt sich einfach die
Bei der sukzessiven Potenzierung von
Reihe von Einsen jeweils um eins weiter nach außen, d.h.
=(
) mit
bei denen direkt oberhalb der Hauptdiagonale lauter Einsen stehen,
während alle anderen Einträge verschwinden, d.h.
q
2
2
.
,
3
2
3
3
‚
2
2
,
=
2
3
3
ä
()
()
()
0
genügt, ist also
(0) =
und
0
(0) =
0
q
(0) =
2
,
Die Lösung, die den Anfangsbedingungen
3
3
+
2
3
2
3
2
q
+
3
:;:;:;:;<
2
2
!
=
!
3
!
3
..
0 0
0 0
.. ..
. .
0 1
0 0
>;>;>;>;?
2
9
!
!
2
!
!
!
3
!
.
!
2
!
!
2
=
0 1 0
0 0 1
.. ..
. .
0 0 0
0 0 0
Die Potenzen einer oberen Dreiecksmatrix mit Nullen in der Hauptdiagonalen verschwinden, wie wir gesehen haben, ab einem meist überschaubar kleinen Exponenten, aber die Potenzen bis dahin muß man
doch mühsam von Hand ausrechnen. Eine Ausnahme, bei der alles klar
ist, bilden Matrizen der Form
=
3
2
3
0
3
2
0 =
+ 3
2
3
1
ist. Da in den Spalten einer Matrix die Bilder der Basisvektoren stehen,
ist somit
l
3
3
2
2
3
.
2
3
l
3
m
und
Z
+
2
1
2
2
=
3
0
1
0
1
0 =
0
Genauso überlegt man sich, daß
Dreiecksgestalt noch weiter vereinfachen läßt, indem man die bislang
noch ziemlich willkürlichen Basen der Haupträume etwas geschickter
wählt. Für das folgende werden wir die Ergebnisse dieses Abschnitts
nicht benötigen; er kann also gefahrlos überlesen werden.
2
Kap. 4: Differentialgleichungen
[
Also ist, bezüglich der Standardbasis ausgedrückt,
Höhere Mathematik II WS 2006/2007
R



H
’
[
[
6
:A:;:;:;:;:A:;:;:;<
+
í
“
–
o
!
&
9
ë
–
‚
=
!
!
!
!
!
!
!
&
–
o
+
+
+
8 ë
!
í &
( )+
+
o
–
–
!
:;:A:;:;<
( )
ë
1
“
( )+
+
( +1)
+
– “
0
( )+
1
1
1
(
( +
1)
1)
( )
( ) = 0.
8 ë
“
‚
•
– “
“
+
“
“
‚
8 ë
V•
“
,
8 ë
î•
o
ë
!
!
!
!
( + )
&
>A>;>;>;>;>A>;>;>;?
>;>A>;>;?
&
’
!
+
o
í &
’
–
–
–&
å
’
“
+
“
( )
!
!
!
“
ë
“
ë
8
ë
–
’
=
wählen, und bezüglich dieser Basis ist
2)
å
,
&
ï
&
’
!
’
,
&
ï
ë
&
’ Ûç è
,
&

ë
=
,
+
!
!

+
>;>;>;>A>;>;?
9
!
!
!
!
!
!
!
!
!
!
‘
“
!
q
ë
ë
!
+
:;:;:;:A:;:;<
1
0 0 0
0 0 0
0
und das ist gerade eines der JORDAN-Kästchen aus der Formulierung des
Satzes.
( )=
1
+
1
für
1 für
( )=
.
und
für
=
1
0
für = 1
1
Die Abbildungsmatrix von hat somit die einfache Gestalt
1 0
0 0
0
1
0 0
0 0
0 0
,
.. .. ..
.. ..
. . .
. .
1
ë
=
“
2
+
( )
“
als Basisvektoren von
1)
(
ë
=
+
ë
1
“
“
(
die Nullabbildung ist, treten hier nur die Summanden
für
wirklich auf, für =
1 also nur der
( ) mit
Summand 0 ( 1) ( ). Da ( 1) ( ) ungleich dem Nullvektor ist,
muß also 0 = 0 sein. Anwendung von ( 2) zeigt als nächstes, daß
.
1 = 0 ist, und genauso zeigt man sukzessive das Verschwinden aller
Also können wir
Da
=
+
0
( )
( )
–
so ist auch für jedes
– “
+
“
å
+ &
&
+ &
“
+
+ &
ë
+ &
bildet den Basisvektor daher ab in das Erzeugnis der Basisvektoren
1 bis
1 ; insbesondere geht 1 auf den Nullvektor. Wiederholte Anwendung von zeigt, daß für jeden Basisvektor gilt: ( 1) ( ) = 0,
wobei der Exponent von für die wiederholte Anwendung der Abbildung stehen soll. Insbesondere ist also ( ) ( ) = 0 für alle
.
“
– &
dabei ist die Abbildungsmatrix von id bezüglich jeder beliebigen Basis gleich dem -fachen der Einheitsmatrix, und zumindest bezüglich
ist die Abder im vorigen Abschnitt konstruierten Basis 1
bildungsmatrix von eine obere Dreiecksmatrix
mit Nullen in der
Hauptdiagonalen.
ë
“
Beweis: Wir gehen aus von der Zerlegung von in die Haupträume zu
den Eigenwerten von und betrachten einen festen Hauptraum
. Die
Einschränkung von auf diesen Untervektorraum läßt sich zerlegen in
eine Summe
= id + ;
+
+
+
zu den Eigenwerten von . Die Anzahl der Kästchen
zu einem festen Eigenwert ist die geometrische Vielfachheit dieses Eigenwerts, die
Summe ihrer Zeilenzahlen die algebraische.
“
1
ë
ë
0
0
+
0
0
.
!
“
“
=
!
“
..
0
0
..
.
!
+
..
.
0
0
0
1
allesamt ungleich dem Nullvektor. Sie sind auch linear unabhängig, denn
ist
( 1)
( ) = 0,
+ 1 ( )+
+
0
1
ë
+
0
..
.
í
“
1
o
“
hat mit oberen Dreiecksmatrizen
!
..
.
+
0
!
.
!
!
..
•
0
!
!
..
.
Hat der Nilpotenzgrad seinen größtmöglichen Wert , so sind die Vektoren
( 1)
( )
( )
ë
..
.
0
2
0
=
0
0
ë
=
9
í
1
o
Es könnte sein, daß es schon eine kleinere Zahl gibt, so daß ( )
die Nullabbildung ist; die kleinste solche Zahl bezeichnen wir als den
Nilpotenzgrad von .
die Form
Kap. 4: Differentialgleichungen
[
bezüglich derer die Abbildungsmatrix von
Höhere Mathematik II WS 2006/2007
!
!
!
!
!
!
ë
ë
.
ë
Höhere Mathematik II WS 2006/2007
[
ë
å
o
o
ë
S
( )
=
.
•
o
o
o
!
!
!
ë
ë
ë
å
ë
Ú
’
Ú
å
7
Š
H

7
Ð
o
S
ë
)
7
Æ;Æ
å
Ú
Ý
.
Ï
)
,
)
ë
7
)
7
Ý
ÚÞ
Ú
–
–
)
o
o
!
!
!
)
.
ñÚ
ë
8 ë
–
–
o
8 ë
7
o
Ý
8 ë
–
)
–&
o
‚
8 ë
î
!
ä
!
!
Ñ ë
–
!
!
!
o
‚
Ý
‚
ÚÞ
8 ë
å
)
)
7
å
Ý
Ý
Ú
dim
ñÚ
+dim
Ý
= dim
”
dim
Ý
und
ñÝ
dim
)
dim
( ) =0
( ) =0
ñÚ
Die Dimension von läßt sich zumindest nach unten leicht abschätzen:
( )
Bezüglich einer Basis von
wird jede Gleichung
( ) = 0
zu einer linearen Gleichung in den Koeffizienten von , der Untervektorraum
ist also die Lösungsmenge eines homogenen linearen
Gleichungssystems aus Gleichungen in dim
Variablen. Daher ist
)
Ý
= 0,
In jedem der konstruierten Teilräume liegt genau ein eindimensionaler Teilraum aus Eigenvektoren (und dem Nullvektor), nämlich der
vom ersten Basisvektor aufgespannte. Der Eigenraum zu wird also von diesen ersten Basisvektoren aufgespannt und seine Dimension,
die geometrische Vielfachheit von , ist damit gleich der Anzahl der
JORDAN-Kästchen zu . Die algebraische Vielfachheit ist wegen der
speziellen Gestalt der Abbildungsmatrix natürlich die Anzahl der
=
ist, sind wir damit fertig; anderfalls können wir wieder
Falls
von in finden und einen
wie oben ein invariantes Komplement
weiteren Teilraum abspalten, usw. Jeder solche Teilraum führt auf ein
JORDAN-Kästchen, und das Verfahren bricht schließlich ab, da wir in
einem endlichdimensionalen Vektorraum arbeiten.
.
( ) für
1. Da
gleich dem Nullvektor ist,
für = 0
=
0
ist,
und
erniedrigt
man immer weiter,
folgt für =
1, daß
1
folgt nacheinander das Verschwinden aller Koeffizienten . Somit ist
in der Tat der Nullraum.
1)
’
( )
( )=0
ò o
( )
ñ
( )+
”
+1
(
( )
( )
ist eine nilpotente Abbildung von einem Nilpotenzgrad
; wenn wir also einen Vektor
hernehmen, für den
( )
( ) = 0 ist, können wir die gleiche Kontruktion wie oben mit
noch einmal durchführen und erhalten einen neuen invarianten Unterraum
mit einer Basis, bezüglich derer ein JORDAN-Kästchen
als Abbildungsmatrix hat.
Auch
ë Ûð
1
7
S
+
7
ë
( )+
7
o
1
)
( )
ist. Die einzige neue Bedingung ist
( ) = 0, und die ist trivialer( )
weise erfüllt, da
invariant unter
die Nullabbildung ist. Also ist
und somit ein invariantes Komplement von .
7
( ) =
)
)
liegt, ist
ë
1)
7
auch in
( +
ë
7
( )
ë
Ý
schreiben, und wenn
ë
+
)
+
)
)
o
Ú
1 1
7
Ý
=
=
=
1)
ë
Der Durchschnitt
besteht nur aus dem Nullvektor, denn jeder
Vektor aus läßt sich als
ë
ë
.
( ) =
( ) =0
o
1)
( ) =
7
7
(
7
ë
=
ë
)
( ) =
E
o
( )=
ë
ë
)
=
)
(2)
(
( )=
( ) =
F
)
Um weitere Kästchen zu bekommen, brauchen wir ein invariantes Kom. Dazu wählen wir irgendeine lineare Abbildung
plement von in
:
, für die ( ) = 0 ist und setzen
Ý
=
falls
d.h.
.
=
E
( )
o
(
( ) =
invariant ist. Dazu
F
linear unabhängig sind, allerdings spannen sie nur einen -dimensionalen Teilraum von
auf. Dieser Teilraum ist -invariant und damit
auch -invariant, denn bildet einfach die Basisvektoren aufeinander
beziehungsweise auf den Nullvektor ab, und die Abbildungsmatrizen
bezüglich dieser Basis sehen genauso aus wie oben; auch zu gehört
also ein JORDAN-Kästchen.
ë
2)
Úß
(
=
)
2
å
( )
Úß
1)
Ý
(
ist, geht das nur, wenn das GleichÝ
Wir müssen uns noch überlegen, daß
unter
müssen wir zeigen, daß für alle
gilt
.
=
å
ë
1
Ý
Da
Untervektorraum von
heitszeichen gilt, d.h.
=
Falls der Nilpotenzgrad von kleiner als ist, können wir nicht so
argumentieren. Wir können aber immerhin einen Vektor
finden,
so daß ( 1) ( ) = 0 ist, denn erst ( ) ist die Nullabbildung. Genau wie
oben folgt, daß
Kap. 4: Differentialgleichungen
å
Ý
î
Úß
å
Ý
Ý
î
in der Hauptdiagonalen, d.h. gleich der Summe der Zeilenzahlen der
JORDAN-Kästchen zu .
Höhere Mathematik II WS 2006/2007
9
=
>;>;>;?
:;:;:;<
6
+

‘
!
!
!
å
/
+
å
m
l
q
+
+
+
q
6
+
4
+
+
3
und
+
6
+
+
6
+
0
0
0
1
1
!
4
,
die Gestalt
+
!
=
9
=
5
c
‰"
`
ñ 6
=
c
5
.
:;:;:A<
Z
1
,
. Dann ist auch
1
-Matrix, deren Spalten die Vektoren aus
6
mit einer Dreiecksmatrix
Ist
die komplexe
sind, ist dann also
=

0
0
1
1
0
!
0
0
1
0
0
+
5
5
‘
1
2
0
0
0
6
c
2
0
0
0
0
=
-Matrix ist. Zumindest über
wobei eine reelle oder komplexe
den komplexen Zahlen zerfällt ihr charakteristisches Polynom in Linearfaktoren, es gibt also eine Basis von , bezüglich derer als obere
Dreiecksmatrix geschrieben werden kann.
Ù
1
+
5
5
‰"
hat bezüglich der Basis
=
+
4
daher ist
=
+
3
3;
5
6
und die Matrix
=
+
und weiter auf
und
`
3
+
4
4
+
auf
+4
3
6
unter
=3
5
4
( ),
3
=2
()=
Wir betrachten ein Differentialgleichungssystem
a) Systeme homogener linearer Differentialgleichungen mit
konstanten Koeffizienten
In 2g) haben wir bereits ein Beispiel behandelt, und genauso können
wir natürlich auch im allgemeinen Fall vorgehen:
6
geht also
3
Nach diesem längeren Einschub aus der linearen Algebra haben wir
nun das Rüstzeug zusammen, um eine ganze Reihen von Differentialgleichungen und Differentialgleichungssystemen lösen zu können. Als
erstes kehren wir zurück zu den Systemen homogener linearer Differentialgleichungen mit konstanten Koeffizienten, die ja der Ausgangspunkt
für diesen Einschub waren.
Œ
den maximalen Nilpotenzgrad hat, ist etwa 5 , denn 5 wird abgebildet
auf 3 3 + 4 4 ; da 3 auf den Nullvektor geht und 4 auf 2 3 , wird dieser
Vektor weiter abgebildet auf 8 3 , was schließlich auf den Nullvektor
abgebildet wird. Mit
j
0 2 3
0 0 4
0 0 0
l
=
m
Die Basis des 5 sei 1
5 ; davon können wir 1 = 1 und
2 = 2 als Basis von
2 gleich übernehmen.
1 wird von 3 4 und 5
aufgespannt; ein Vektor aus diesem dreidimensionalen Raum, der unter
.
vom Ende des vorigen Abschnitts. Links oben steht schon ein JORDANKästchen zum Eigenwert zwei, rechts unten müssen wir noch etwas
arbeiten.
1 1 0
0 1 1
0 0 1
§3: Lineare Differentialgleichungen und Differentialgleichungssysteme
2 1
0 2
i
Um wenigstens ein ganz einfaches Beispiel zu sehen, betrachten wir die
Matrix
2 1 0 0 0
0 2 0 0 0
= 0 0 1 2 3
0 0 0 1 4
0 0 0 0 1
und
mit den beiden JORDAN-Kästchen
Kap. 4: Differentialgleichungen
Ù
O
n"
c
c
>;>;>A?
Herunterladen