( 0) = 2 0) ()= 3( + 0 + 0 . + 0) 0) 2( 3 ( 0) = ( + 0) und 0 . , 0 ()= 1( ( )= 2 und Also ist ( 0) = ( 0) = 1 und ( 0) = 0 und die Geschwindigkeit ist , d.h. 0 ( 0) = Es gibt viele Wurftechniken, und nur wenige davon können auf einfache Weise durch ein mathematisches Modell beschrieben werden; wir ignorieren daher den genauen Vorgang des Abwurfs und gehen davon aus, daß der Gegenstand irgendwie eine Anfangsgeschwindigkeit erreicht hat im Abwurfpunkt mit Koordinaten ( 0 0 0 ); den Zeitpunkt des Abwurfs bezeichnen wir mit 0 . Diese Gleichungen sind erfüllt, wann immer ( ) und ( ) lineare Funktionen von sind und ( ) eine quadratische Funktion mit führendem Koeffizienten . Die sechs noch fehlenden Koeffizienten dieser drei Polynomfunktionen geben uns die Anfangsbedingungen: Zum Zeitpunkt = 0 ist Ein in die Luft geworfener Gegenstand bewegt sich unter gewissen Bedingungen näherungsweise auf einer parabelförmigen Bahn. Wir wollen diese etwas vage Aussage präzisieren und mathematisch herleiten. . Ein einfaches Beispiel hierfür liefert das zweite NEWTONsche Gesetz, wonach die zeitliche Ableitung des Impuls eines Teilchens gleich der auf das Teilchen wirkenden Kraft ist. ¨( ) = ¨ ( ) = 0 und ¨( ) = 0 a) Wurfparabel Die Bewegung des Gegenstandes wird dann durch zwei Naturgesetze bestimmt: Das Gravitationsgesetz beschreibt den Effekt der Erdanziehung, und das zweite NEWTONsche Gesetz sagt uns, wie sich diese Kraft auf die Bewegung des Gegenstands auswirkt. Die Gravitation können wir aufgrund der gemachten Annahmen als konstant annehmen, d.h. auf 2 wirkt die Kraft , wobei 98 einen Körper der Masse die Gravitationsbeschleunigung an der Erdoberfläche ist; bei üblicher“ ” Ausrichtung des Koordinatensystems wirkt sie in Richtung der negativen -Achse. Diese Gravitationskraft ist nach dem zweiten NEWTONschen Gesetz gleich der Ableitung des Impulses nach der Zeit; wenn wir die Masse als konstant voraussetzen, ist das also gleich mal der Ableitung der Geschwindigkeit oder mal der zweiten Ableitung des Orts. Wir haben somit das Differentialgleichungssystem §1: Definitionen und erste Beispiele Differentialgleichungssysteme sind so ziemlich das wichtigste mathematischen Hilfsmittel der Naturwissenschaften und der Technik. Die dahinterstehende Grundidee ist einfach: Man kann zwar nur selten a priori sagen, wie sich ein System über einen längeren Zeitraum hinweg entwickeln wird, aber man hat oft aufgrund von Naturgesetzen eine klare Vorstellung über die Zustandsänderung im nächsten Augenblick, d.h. also über den Wert der zeitlichen Ableitung der Zustandsgrößen in Abhängigkeit vom gegenwärtigen Zustand des Systems. Kapitel 4 Differentialgleichungen Als nächstes nehmen wir an, daß wir den Luftwiderstand vernachlässigen können, eine Annahme, die beim Kugelstoßen kaum zu Fehlern führt, die aber beispielsweise für einen Fallschirmspringer (auch mit geschlossenem Fallschirm) oder einen Papierflieger völlig unrealistisch ist. Als nächstes wollen wir auch noch annehmen, daß wir nur relativ geringe Wurfhöhen erreichen, so daß die Erdanziehung als konstant angenommen werden kann. Kap. 4: Differentialgleichungen ()= = 0, 0 ) . #" ! ! ! ! ! ! $ #" ! ! ! ! ! $ " #" %" ! ! $'& Falls die Funktionen nur von 1 ( ) ( ) abhängen und nicht auch noch direkt von der Zeit spricht man von einem autonomen System. Da Naturgesetze nicht von der Zeit abhängen, hat man es in naturwissenschaftlich-technischen Anwendungen meist mit autonomen Systemen zu tun; man kann allerdings auch den Einfluß von Umgebungsgrößen in einem zeitabhängigen Term zusammenfassen und so ein nichtautonomes System erhalten. () . Wir kennen bereits eine Funktion, die sich so verhält, wie es die obige Differentialgleichung angibt, nämlich die Exponentialfunktion , und natürlich entspricht auch für jedes konstante Vielfache dieser Funktion die Differentiation einfach der Multiplikation mit . Das sind dann aber bereits alle Funktionen mit dieser Eigenschaft, denn der Quotient () ()= = () ) 1( %" " ()= ! () ) 1( .. .. . . $ 2 () genügt – zumindest, wenn diese Masse hinreichend groß ist. (Im atomaren Bereich muß man auch statistische Effekte berücksichtigen, aber ab etwa 1010 Atomen können die für alle praktischen Fälle vernachlässigt werden.) )= 2( ) () 1( ! 1 ! )= ! 1( " ( )= Wir betrachten ein System, das durch zeitlich veränderliche Größen ( ) beschrieben wird; unter einem System von Differenti1( ) algleichungen oder kurz einer Differentialgleichung verstehen wir eine Vorschrift, die die zeitlichen Ableitungen 1 ( ) ( ) aus den Funktionswerten berechnet: 0 Das gerade durchgerechnete Beispiel war insofern untypisch für Differentialgleichungen, als auf den rechten Seite der Gleichungen nur Konstanten standen; üblicherweise wird man dort Funktionen erwarten, die nicht nur von abhängen (so daß man sie einfach integrieren kann), sondern auch noch von den gesuchten Funktionen. Beim radioaktiven Zerfall etwa ist die pro (kleiner) Zeiteinheit zerfallende Masse proportio0, die nal zur noch vorhandenen Masse, es gibt also eine Konstante sogenannte Zerfallskonstante, so daß die zum Zeitpunkt vorhandene Masse ( ) der Gleichung =( c) Differentialgleichungen und Differentialgleichungssysteme 0) b) Radioaktiver Zerfall ( 0 ( ) ( ) liegen also in der Tat auf einer Parabel. die Punkte , 0 + 0 () 1 1 ist. Indem wir = 0 setzen, sehen wir, daß die Konstante = (0) gleich der zum Zeitpunkt 0 vorhandenen Masse ist; falls wir stattdessen die Masse 0 = ( 0 ) zu einem anderen Zeitpunkt 0 kennen, können wir analog zum obigen Beispiel auch schreiben 1 3 dividieren; wir () 1 ( )= + hängt von der Zeit ab. Andernfalls können wir durch erhalten () 2 0 und ()= () + 0 = 0 0 + 0) 3( + () 2 0) = ( () ist also gleich einer Konstanten , so daß + hat die Ableitung ()= () ()= einer Lösungsfunktion und der Funktion Kap. 4: Differentialgleichungen Diese Gleichungen beschreiben in der Tat fast immer eine Parabel: Falls wir die -Achse des Koordinatensystems so wählen, daß die Anfangsgeschwindigkeit in der ( )-Ebene liegt, ist 2 = 0. Falls auch 1 verschwindet, falls wir den Gegenstand also senkrecht nach oben (oder gar unten) werfen, sind ( ) = 0 und ( ) = 0 konstant und nur Höhere Mathematik II WS 2006/2007 Falls wir, wie in den Beispiel aus den vorangegangenen Abschnitten, die Werte der beteiligten Funktionen zu einem festen Zeitpunkt = 0 kennen, reden wir von einem Anfangswertproblem. Solche Probleme treten ! ( ) ) ( ( ) + ( )+ * " 0 ( ) = ( ), * 1 + " * " 0( ) 1( ) , " ! ! ! 1 ( 1) () () ( ). " " * " " * * " * " " " " " ( )+ + * * " * " / . 0 0 = 2( 0) = 2 für ein festes 1( 0) ( 0) = Eventuell haben wir noch Anfangsbedingungen der Form () %" () ( ) ( ) ¨( ) 1) * + ( )+ ( )+ 1( 2( () ) ) . ( ) ( ) - ( ) 2( ) + 2( ) 1( ) + 1( ()= () () 0 2 * + 1 " )= () 1 1( & ) + + %" 1( * ) 2( ) + 22 ( .. . ) 1( ) + 21 ( .. . * )= 2( ) 2( ) + 12 ( )= .. . ! ) 1( ) + 11 ( * + .. . ! )= ! 1( " 2( ) ) Wir betrachten in diesem Abschnitt Systeme von Differentialgleichungen, wie sie zu Beginn dieses Paragraphen definiert wurden, unter der (sehr) einschränkenden Voraussetzungen, daß die rechten Seiten linear ( ) sind; wir betrachten also in den gesuchten Funktionen 1 ( ) ein System 1( ) = 1( ) eine Lösung der obigen Glei- + Für jede Lösung ( ) der obigen Gleichung ist dann das -tupel 2( )= ) d) Systeme linearer Differentialgleichungen 0( mit der Idee, daß sich ( ) so verhalten soll wie die -te Ableitung von ( ). Dazu bilden wir das Differentialgleichungssystem 1( ) die sogenannten linearen Differentialgleichungen -ter Ordnung mit konstanten Koeffizienten. Auch diese Gleichungen lassen sich leicht auf die obige Form bringen: Wir betrachten neue Funktionen ( )+ Somit beschreiben das System von Differentialgleichungen erster Ordnung und die eine Differentialgleichung höherer Ordnung genau dasselbe Phänomen. Wie wir im vorigen Kapitel gesehen haben, läßt sich die Differentialgleichung höherer Ordnung recht gut mit Hilfe von LAPLACE-Transformationen lösen; in diesem Kapitel werden wir sehen, daß der im letzten Semester entwickelte (und im folgenden noch auszubauende) Apparat der linearen Algebra eine strukturelle Übersicht über die Lösungsmenge des Systems. Erst die Kombination beider Ansätze liefert ein vollständiges Bild. " 1) 1( Auch wenn das Differentialgleichungssystem als Anfangswertproblem gegeben ist, läßt sich das leicht in Anfangswerte für die Gleichung höherer Ordung umschreiben: Hier werden die Werte ( 0 ) ( 0 ) usw. bis ( 1) ( 0 ) vorgegeben. ( 1 ( )+ ( ) Ein für die Informationstechnik wichtiger Spezialfall sind Gleichungen der Form und wir kennen für jede der sechs beteiligten Funktionen ihren Wert an der Stelle = 0 . ( ) = ( ), () = , ( ) = ( ), ( ) = 0, ! ( ) = ( ), ( ) = 0, ! 0( ! einführen, können wir das System schreiben als ) " ()= () 2( und ) ()= () 1( des Differentialgleichungssystems ist chung. ) ()= () 0( eine Lösung des Systems, und für jede Lösung Kap. 4: Differentialgleichungen Auch Differentialgleichungen, in denen wie im Beispiel der Wurfparabel höhere Ableitungen vorkommen, lassen sich so interpretieren: Wenn wir dort die drei Komponenten des Geschwindigkeitsvektors als neue Funktionen typischerweise dann auf, wenn das weitere Verhalten eines konkreten Systems vorhergesagt werden soll. Höhere Mathematik II WS 2006/2007 - - " %" " ! ! ! . " ! ! ! 0 1 1 2 1 2 1 - 3 7 6 2 2 5 4 4 & + & 9 + 9 9 D = = + & = 6 + C :;:;< :;:;< :;:;< 6 >;>;? " () >;>;? * +@" 9 * = " * ! ! ! ! ! * " ! 6 6 * :;:A< * ( )+ ( ) ()= E () ( )+ ( ) F * " * " () = 6 E 6 6 E () und ( ) löst also in der Tat das zugehörige homogene System. () () () ( )+ ( ); F () () () () () + = ()= ()= () ( ) hat somit die Ableitung ( ) + ( ) und + die Differenz ( ) = ( ) ( )= ( )= b) Sind ( ) und ( ) zwei Lösungen von ( ), so ist () () >;>;? %" >;>A? * " " ! + ! ! 6 Um die Lösungsmenge des Differentialgleichungssystems ( ) zu verstehen, müssen wir nach diesem Lemma zwei Teilaufgaben lösen: 1.) Wir müssen den Vektorraum der Lösungen des homogenen Systems bestimmen. 2.) Wir müssen uns wenigstens eine Lösung des inhomogenen Systems verschaffen – oder zumindest wissen, daß eine existiert. Um im einfachsten Fall zu sehen, wie so etwas funktionieren könnte, betrachten wir ein System“ aus genau einer Gleichung ” ( ) = ( ) ( )+ ( ); + + & - + & Analog zum Fall linearer Gleichungssystemen gilt auch hier 6 In Analogie zu den linearen Gleichungssystemen bezeichnen wir das System ( ) als homogen, wenn ( ) der Nullvektor ist, wenn also alle Funktionen ( ) verschwinden; andernfalls bezeichnen wir es als inhomogen. Das homogene System zu einem gegebenen inhomogenen System soll einfach dasjenige System sein, in dem alle ( ) durch null ersetzt wurden. 6 wobei die Ableitung eines Vektors von Funktionen natürlich der Vektor der abgeleiteten Funktionen sein soll. Falls es Anfangsbedingungen gibt, können sie nun in der kompakte Form ( 0 ) = geschrieben werden. C - + ( )+ ( ), * &8 C F () / ( )= () 6 ) 2( ) erhalten wir die übersichtlichere Form 1( , .. . . D + .. () . C 2 ( )+ 6 () () 1 ) ( 22 ) .. . C ( )+ 12 ( () () ( )= = ()= ( )+ () 6 ) ( 21 ) .. . 6 () () = ()= ( )+ und 11 ( . ist, gilt auch () 6 () und ()= C () () Beweis: a) Wir müssen zeigen, daß für zwei Lösungen ( ) und ( ) eines homogenen Systems auch jede Linearkombination ( ) + ( ) mit wieder eine Lösung ist. Das ist aber klar, denn wenn - Wir können die Funktionen ( ) ( ) und die Anfangswerte jeweils zu Vektoren zusammenfassen und die Koeffizientenfunktionen ( ) zu einer Matrix: Mit 1( ) 1( ) 1 ( ) 2 2( ) 2 ()= ( )= = .. .. .. . . . . 0 cos 0 + / () () ()= ()= () Lemma: a) Die Menge aller Lösungen eines homogenen Differentialgleichungssystems der Form ( ) ist ein -Vektorraum. b) Ist das System nicht homogen und ist ( ) eine feste Lösung, so läßt sich jede andere Lösung ( ) schreiben als ( ) = ( ) + ( ) mit einer Lösung ( ) des zugehörigen homogenen Systems; die Lösungsmenge ist also ein affiner Raum. Kap. 4: Differentialgleichungen Für das im letzten Kapitel betrachtete Beispiel des elektrischen Schwingkreises mit angelegter Wechselspannung etwa haben wir bei dieser Sicht der Dinge die beiden Funktionen ( ), die Ladung des Kondensators zum Zeitpunkt , und ( ) = ( ), die resultierende Stromstärke; das Differentialgleichungssystem ( ) ist hier also Höhere Mathematik II WS 2006/2007 B - + * G + / H / * * / * D * D D D * I D I * D KML O O KML D I I * 5 J * () Y ()= ( ) 6 KQL O P () mit mit "/ . N N K Z X Y X N N N ? Das Problem dabei ist nur, daß wir hier nicht die geringste Ahnung haben, was die rechte Seite bedeuten soll; unser nächstes Ziel wird sein, ihr eine Bedeutung zu geben und uns dann zu überlegen, ob bzw. unter welchen Bedingungen die obige Formel korrekt ist. ()= ( ) . Damit ist in diesem Fall das erste Problem auf eine einfache Integration zurückgeführt. könnte vielleicht gelten ()= / wobei das Vorzeichen wegen der Stetigkeit von im gesamten Intervall konstant ist, da die Exponentialfunktion nie null wird. () , ()= () Es wäre schön, wenn wir im mehrdimensionalen Fall genauso vorgehen könnten: In Analogie zu ()= ( ) K L oder ( ) * = + KWL ( ) N ()= oder * und umgekehrt ist auch jede dieser Funktionen eine Lösung. Insbesondere ist die Lösungsmenge ein eindimensionalen Vektorraum. . + () mit einem ln ( ) = / Integration beider Seiten führt auf ( ) in jedem Intervall, in dem ( ) nirgends verschwindet. U () = () () ()= V ln ( ) = Somit hat jede Lösung die Form und allgemein haben wir somit () () = = ( ), () () T () = ln ist. In einem Intervall, in dem ( ) negativ ist, gilt entsprechend () = () () T ln ( ) = Der Quotient links ist bekanntlich die logarithmische Ableitung von ( ); falls dies nicht mehr bekannt sein sollte, zeigt eine einfache Anwendung der Kettenregel, daß in einem Intervall, in dem ( ) positiv ist, Unter der Annahme, daß wir das dürfen, dividieren wir durch ( ) und erhalten () = ( ). () Falls nicht, gibt es einen Punkt 1 0 , so daß ( 1 ) = 0 ist. Wegen der Stetigkeit von ( ) ist die Funktion dann auch in einer Umgebung von 1 von Null verschieden, d.h. dort können wir die obigen Argumente anwenden und sehen, daß ( ) dort die Form ( ) hat mit irgendeiner Funktion . Da als differenzierbare Funktion insbesondere überall stetig sein muß und ( ) nirgends verschwindet, ist das nicht möglich. Genauso überlegt man sich, daß ( ) für jedes 0 verschwinden muß, ( ) ist also gleich der Nullfunktion. Diese ist somit die einzige Lösung, die noch zusätzlich betrachtet werden muß. Insbesondere folgt daraus auch, daß eine Lösungsfunktion, die in irgendeinem Punkt positiv bzw. negativ ist, überall positiv bzw. negativ sein muß, denn eine stetige Funktion kann ihr Vorzeichen nur wechseln, wenn sie in irgendeinem Punkt null wird; wie wir gerade gesehen haben, ist das genau dann der Fall, wenn sie überall verschwindet. S ( ). / ( )= ( ) Wir beginnen mit der Lösung des homogenen Systems Bleibt noch die Frage, was passiert, wenn ( ) an irgendeinem Punkt 0 eine Nullstelle haben sollte. Wir wollen uns überlegen, daß ( ) dann auch für jedes 0 verschwinden muß. nach Kap. 4: Differentialgleichungen dabei nehmen wir an, daß eine differenzierbare Funktion von : stetige Funktionen. sei und Höhere Mathematik II WS 2006/2007 R [ \ ]_^ & , ` ] b c a & a , ^ & b ` c 6 + & a Das Quadrat von c Um diese Formel leichter anwenden zu können, machen wir sie mutwillig schlechter und begnügen uns damit, daß jeder Eintrag von höchstens den Betrag ( ) ( ) hat. 6 6 c 6 6 c + Z * 6 c * ` c c 6 5 k 5 6 c + * a h Z & & a 1 3! + 1 2! k k d + m , l ];^ & & a , ^ & d k & ^ 1 + 1 5 = . 1 0 1 1 1 5! 1 (2 + 1)! + ist aber gleich der Einheits1 4! =0 & 1 l . + cosh 1 sinh 1 sinh 1 cosh 1 i 1 + 1 1 ];^ + sinh 1 1 (2 )! + 0 1 1 0 = 6 + c , + k i =0 6 k 1 2 i Z 5 m = h h = cosh 1 j j 5 . j i =0 ) i 5 = = h j + c 2 1 k = = c matrix und daher ist i + 6 i + gleich der Nullmatrix, d.h. 1 1 = = + = 0 1 j = Z i 2 Z als auch 2 Z und sowohl h abschätzen: Dazu müssen wir die Größe der Einträge in den Matrizen Sind allgemein zwei -Matrizen und sind die Beträge aller Einträge von kleiner oder gleich und die von kleiner oder gleich , so kann es in offensichtlich keinen Eintrag geben, dessen Betrag größer ist als : Schließlich ist jeder Eintrag in der Produktmatrix eine Summe von Summanden, deren jeder Produkt je eines Eintrags von und von ist. h ! g h j ( hat daher jeder Eintrag einen Betrag kleiner Z =0 6 1 ! H c Ist nun der Betrag des größten Eintrags in der Matrix , so folgt höchstens Zahlen bis zum Betrag ( ) stehen induktiv sofort, daß in können; in der endlichen Teilsumme 6 Wir können natürlich nicht erwarten, daß die Matrixexponentialfunktion alle schönen Eigenschaften der gewöhnlichen Exponentialfunktion erbt. Beispielsweise ist nur schwer vorstellbar, daß für beliebige Matrizen und gelten sollte + = : Da für zwei Matrizen und stets + = + ist, müßte dann auch = sein, was zumindest unwahrscheinlich aussieht. In der Tat ist etwa für 0 1 0 0 = und = 0 0 1 0 ` Damit ist klar, daß eine -Matrix sein soll, und das erklärt auch, warum oben der Konstantenvektor 0 auf der rechten Seite steht. Was wir uns noch überlegen müssen, ist die Konvergenz der Reihe. Z . e =0 Hf = b f) Eigenschaften der Matrixexponentialfunktion -Matrix a def " Damit wissen wir also, daß die Matrix für jede existiert; somit ist die Funktion wohldefiniert. \ 1 ! " -Matrix , \ also setzen wir analog für eine & ! b =0 " = \ Wir orientieren uns wieder am Eindimensionalen: Für eine reelle Zahl ist Letztere Summe konvergiert für gegen , und damit muß auch die Matrixsumme absolut konvergieren, denn die Reihe für ist konvergente Majorante des Betrags eines jeden Eintrags. Insbesondere hat jeder Eintrag von höchstens den Betrag . Kap. 4: Differentialgleichungen e) Die Matrixexponentialfunktion Höhere Mathematik II WS 2006/2007 j j , & i Z 6 ] j k ^ m , ]_^ l & & 5 ]_^ , & O 6 c , & k 6 Z Z h n" /" h c . Z h Z / . Z o Z o \ c p p \ \ q p ]_^ k T Z U U & c ] = + 2 = ^ & . . =2 ( ) ! 2 = . + 2 (1 + 2 2 ) , H =0 ( ) . ( + 2)! c c 6 6 c 6 0 lim 0, denn wie bleibt also insbesondere beschränkt. Dies gilt auch für zweimalige Anwendung der DE L’HOSPITALschen Regel oder TAYLOREntwicklung zeigen, ist der Grenzwert dann 12 . Damit existiert =0 ) = ( + 2)! ( , ( ) , ( + 2)! U ] 6 ^ & 6 =1 6 c 6 c 6 c für kommutierende Matrizen in der Tat erfüllt ist. , Nach der obigen Diskussion ist jeder Eintrag der Matrix in der rechtsstehenden Summenmatrix höchstens gleich ! U * 2 6 U & + Z =1 & ) U & + ( 6 L + 1 = Z 6 * 2 Dabei ist T ( + ) Z & T 2 6 U U U ) = 6 ^ ( + Ts ] * die wegen der für beliebige Matrizen gültigen Gleichung 6 , T , 2 Z U U + Z +2 Z & 2 U U 2 ) = H T U ( + 6 zur Identität Z Z 6 & 2 U + Da die Matrizen und miteinander vertauschbar sind, ist nach dem gerade bewiesenen Lemma ( + ) = , also 0 T ( + ) T , +2 g lim Z ]_^ 2 ` k U 2 r 6 ( + ) = Beweis: Die Ableitung ist definiert als = & Beim Rechnen mit Polynomen in und verwendet man keine speziellen Eigenschaften dieser Variablen außer, daß sie kommutieren. Damit kann man in so eine Polynomidentität auch kommutierende Matrizen und einsetzen: Beispielsweise führt die Polynomidentität . Beweis: Für zwei reelle Zahlen ist + = = ; damit gilt dieselbe Formel auch für zwei reellwertige Variablen und . Wenn wir in allen Potenzreihen alle - und -Potenzen oberhalb der -ten ignorieren, sagt die Gleichung aus, daß drei Polynome in und als Polynome identisch sind. ist die Funktion g stetig differenzierbar mit Ableitung -Matrix H . 6 . Satz: Für jede Die für uns wichtigste Anwendung hiervon ist / ist . Z = l 6 ( + ) k H = m "/ = 5 Z Insbesondere ist für Z = c mit 6 + sinh cosh n" Lemma: Für zwei Matrizen 6 Zum Glück gilt aber wenigstens h i =0 =0 i =0 j cosh sinh = 1 (2 + 1)! + 1 (2 )! = Da zwei skalare Vielfache derselben Matrix stets miteinander kommutieren, folgt damit auch die letzte Aussage des Lemmas. = Z 1 0 1 h = = h 1 ! + = = 0 und und h 1 0 1 = c + speziell stets Z = Z + Damit ist für kommutierende Matrizen Kap. 4: Differentialgleichungen 6 Allgemeiner ist Höhere Mathematik II WS 2006/2007 , Ts j 6 c 0 Z D Z 6 D 6 Z Z 6 Z U Z Z Ts U 6 6 6 D Z Z D 6 T t Z T u ZT Z 6 6 i j j i i 6 i 6 6 6 6 j j Z 6 Z /" + 6 Z Z 6 ~ () () = n D E D * ~ v w c) Für einen konstanten Vektor :( () = v v v v v v 9 Z :;:A< 2 , H 1 ~ 2 + 2 * * 1+ D und ) D /" = ist ( )+ ~ . ~ () . () ist ( ). () ) 1 :( ( )+ () = 1+ b) Für seien zwei matrixwertige Funktionen ). Dann ist ( )+ :( ) Lemma: a) auf dem offenen Intervall ( ~ H = , Zumindest für Summen und Produkte gelten, wenn man von der Nichtkommutativität der Multiplikation absieht, für matrixwertige Funktionen die üblichen Regeln: * + ~ ( ) 1 1 Alles was uns zu deren theoretischer Lösung jetzt noch fehlt sind Rechenregeln für den Umgang mit Ableitungen von Matrixfunktionen; für die praktische Lösung fehlen natürlich auch noch Verfahren zur effizienten Berechnung der Matrixexponentialfunktion. ~ / 1 + ~ n 1+ + 1 H + 2 /" ( ). 1+ Z n" Dies ist natürlich kein Beweis dafür, daß die Ableitung von ( ) ungleich ( ) () ist, aber im vorliegenden Fall ist die Ableitung in der Tat verschieden sowohl von ( ) ( ) als auch von ( ) ( ): Mit den Methoden, die wir im nächsten Abschnitt kennenlernen werden, können wir durch eine (alles andere als angenehme) Rechnung zeigen, daß . 1 1 0 0 ( )= 6 () aber 0 1 0 1 2 ist. Wir müssen uns bei diesem Ansatz also begnügen mit linearen homogenen Differentialgleichungen mit konstanten Koeffizienten. v ()= < :;:;< w () 6 9 also < , 1+ v 0 0 1 0 0 Z v ()= 9 beispielsweise ist v >;>;? ist, bräuchten wir für einen Beweis nach obigem Vorbild, daß ( ) und ( ) miteinander kommutieren; dies ist aber im allgemeinen nicht der Fall. Für 1 ( )= 1 1 x w ()= 1 + 2 1 4 ( )+ ( ) ? ( )+ D v 1+ + 2 0 1 1 | = D Z v 0 1+ 4 2 ? ( + ) ( ) x z{ = ist; dies war offensichtlich zu optimistisch: Da v () z{ v = 0 v und v x v ( ) v | 1 2 }x 2 z{ = ( ) 9 z{ = | 1+ 1 v v () z{ x 4 x 2 v x | Am Ende des vorigen Abschnitts hatten wir gehofft, daß vielleicht auch für jede matrixwertige Funktion ( ) gelten könnte, daß 4 + + v + 2 z{ ( ) 2 + x 1 1+ x z{ aber = , da der Vorfaktor 1 = gegen Null geht. Dies ist auch gleich , denn da mit jeder seiner Potenzen vertauschbar ist, ist es auch mit jeder endlichen Teilsumme der Reihe von vertauschbar, also auch mit selbst. = 1 z{ 0 yx 2 z{ = lim ( ) z{ 2 T ( + ) Kap. 4: Differentialgleichungen 0 und somit ist Höhere Mathematik II WS 2006/2007 D w D F >;>A? v Höhere Mathematik II WS 2006/2007 0 0 ~ &8 $'&8 $'&8 ~ 8 ^ &8 , F ~ E ^ 8 8 $ & $ & $'& ~ ~ , i j i j 5 i j * + O /" . Z H g 6 Z $ Z 6 Z $ Z 6 6 + /" H * Zumindest ein Fall ist problemlos: Ist nämlich 0 0 1 0 0 2 = .. .. . . .. . . . . Die Matrixexponentialfunktion ist zwar wohldefiniert, aber eine matrixwertige Potenzreihe ist für allgemeine Matrizen nicht gerade einfach zu berechnen. Wir brauchen daher alternative Rechenverfahren. ! ! 6 Z ! ! D D 9 :;:A< 6 Z Z Z Z 6 6 Z 6 0 0 eine Diagonalmatrix, ist offensichtlich 1 0 2 0 = .. .. .. . . . 0 0 ! " ! ! ! ! N N 9 Z Z wie behauptet. j ! , 0 0 .. . = 0 + ()= i * d.h. D () j * >;>A? = i * = 0 i i 6 def denn die Matrix ist mit vertauschbar. Damit haben alle Komponenten von die Ableitung Null, sind also konstant, und somit ist ( ) = 0 ein konstanter Vektor mit der Eigenschaft, daß j + ( ) = 0, ( )+ + ( )= j ( )+ i ()= * + §2: Eigenwerte, Eigenvektoren und Hauptvektoren + Nun sei : ( ) irgendeine differenzierbare vektorwertige Funk( ) ist. Wir betrachten die tion mit der Eigenschaft, daß ( ) = ( ). Deren Ableitung ist Funktion ( ) = i * Beweis: Da die Ableitung hat, ist die Ableitung der vektorwertigen Funktion ( ) = 0 nach der zuletzt bewiesenen Formel gleich ( ). , also in der Tat gleich 0 /" Als erstes Beispiel betrachten wir das Anfangswertproblem ( ) = ( ) und ( ) = ( ) mit (0) = und (0) = oder () () (0) 0 1 = mit = . 1 0 () () (0) Die Koeffizientenmatrix ist gleich der zu Beginn des Abschnitts betrachteten Beispielmatrix , deren Exponentialfunktion wird dort berechnet haben; die Lösung des Anfangswertproblems ist also cosh + sinh cosh sinh = = . sinh cosh sinh + cosh j Satz: Die sämtlichen Lösungen des homogenen Differentialgleichungssystems = sind genau die Funktionen . 0 mit 0 j Damit haben wir alles zusammen und können zeigen 6 c) Ist der Spezialfall + und = 1 von b), wobei zusätzlich noch eine konstante Funktion ist, so daß alle Terme mit ( ) verschwinden. ( ). () ( )+ g () Wir wußten bereits, daß die Lösungen einen Vektorraum bilden; obiges Korollar sagt uns, daß dieser Vektorraum die Dimension hat und daß für jede reelle Zahl 0 die Abbildung ( 0 ) ein Isomorphismus auf ist. den . H )-Komponente von die ( () , () ( )+ Z () /" =1 =1 ( ), () ist die Funktion . Korollar: Für jeden Vektor 0 und jede reelle Zahl 0 gibt es genau eine differenzierbare Funktion ( ) mit den Eigenschaften, daß ()= ( ) und ( 0 ) = 0 ist; dies ist ( ) = ( 0 ) 0 . / b) Die ( )-Komponente von und deren Ableitung ist 0 Beweis: a) Sind ( ) und ( ) die Komponenten der Matrizen und , so sind die Summen ( ) + ( ) die Komponenten von + , und deren Ableitung ist die Summe der Ableitungen. Kap. 4: Differentialgleichungen B >;>A? N ! ! ! ! ! ! ! ! :;:A< 0 G 6 H H " g r Offensichtlich ist mit einem Vektor auch jedes Vielfache (außer dem nach Definition ausgeschlossenen Nullvektor) ein Eigenvektor zum selben Eigenwert; allgemeiner ist sogar jede Linearkombination (außer 0) von Eigenvektoren zum Eigenwert wieder ein Eigenvektor zum Eigenwert , d.h. die Eigenvektoren zu einem festen Eigenwert bilden zusammen mit dem Nullvektor einen Untervektorraum von , den sogenannten Eigenraum von . " H " " q q " "q " "/ 6 6 heißt geometrische ! Lemma: Sind 1 Eigenvektoren der linearen Abbildung : zu verschiedenen Eigenwerten 1 , so sind diese Vektoren linear unabhängig. Definition: Die Dimension des Eigenraums von Vielfachheit des Eigenwerts . ! ! . # ! ! ! H ! ! ! o / o . ! & ! ! # o ! ! ! & & & =0 o o o . . H 1 1 + + = 0. ist. Andererseits können wir obige Gleichung auch einfach mit tiplizieren mit dem Ergebnis, daß + 1 1 1 + ist. Wenden wir auf beide Seiten dieser Gleichung die Abbildung und beachten, daß ( ) = ist, folgt, daß auch =0 + 1 1 o + mul- an Beweis: Angenommen, 1 seien linear abhängig. Dann können finden, so daß zwar 1 linear abhängig wir eine Zahl 2 . Es gibt daher Skalare sind, nicht aber 1 , so daß 1 0 heißt Definition: a) sei ein -Vektorraum. Ein Vektor Eigenvektor der linearen Abbildung : zum Eigenwert , wenn ( ) = ist. " Zur Bequemlichkeit der Leser sei die Definition noch einmal wiederholt: . " a) Mehr über Eigenwerte und Eigenvektoren : n" Wir arbeiten dabei wieder, wie im ersten Kapitel, über einem beliebigen Körper , denn auch wenn uns im Augenblick zur Anwendung auf Differentialgleichungen nur die Fälle = und = interessieren, hat die hier entwickelte Theorie doch auch interessante Anwendungen über anderen Körpern: Eigenvektoren über endlichen Körpern spielen beispielsweise bei einigen Problem der Signalverarbeitung eine Rolle. . c) Eigenwerte und Eigenvektoren einer Matrix Eigenwerte und Eigenvektoren der linearen Abbildung sind die einen Eigenvektor zum Eigen- Wir wissen bereits aus dem letzten Semester (Kap. I, 3j1)), welche Bedingung eine Basis von bzw. erfüllen muß, damit eine Matrix bezüglich dieser Basis Diagonalgestalt hat: Die Basisvektoren müssen allesamt Eigenvektoren von sein. Aus Kap. I, 6i) wissen wir auch, wie man Eigenwerte und ausgehend davon Eigenvektoren mit Hilfe von Determinanten bestimmen kann. In diesem Paragraphen wollen wir wir die entsprechende Theorie noch etwas weiterentwickeln und sehen, daß sich die Berechnung einer beliebigen Matrixexponentialfunktion auf die beiden gerade diskutierten Spezialfälle zurückführen läßt. 6 Noch ein weiterer Fall ist relativ unproblematisch: für eine obere (oder untere) Dreiecksmatrix mit Nullen in der Hauptdiagonalen. Eine solche Matrix definiert eine lineare Abbildung , die den -ten Einheitsvektor in den von +1 bis erzeugten Untervektorraum bildet ihn entsprechend in den von +2 abbildet. Das Quadrat von bis erzeugten Untervektorraum ab und so weiter, spätestens ist also die Nullmatrix. Damit wird die Potenzreihe der Exponentialfunktion zu einer endlichen Summe, die, wir wir bereits in zwei Beispielen gesehen haben, zumindest für kleine leicht berechnet werden kann. . heißt Eigenwert von , falls hat. b) wert Kap. 4: Differentialgleichungen 0 wieder eine Diagonalmatrix, wobei die Exponentialfunktion einfach komponentenweise auf die Diagonaleinträge ihres Arguments angewandt wird. Höhere Mathematik II WS 2006/2007 R o o o o o [ 0 + + 1( 1) 1 =0 k 6 o o o 6 o o o 6 o o k 6 k 6 o ! ! ! o ! ! ! / o # S ! ! ! . k 6 k 6 / ] / 7 ] / 7 / $ H H / $ g ] r 7 7 7 7 7 Z 6 k 6 Z 2 6 7 3 3 7 6 2 9 6 :;< )= 2 2 14)( >;? ( 4 8 5 1 = = 1 5 8 4 . 72) berechnen für die bereits in Kap. I, 6i) betrach- det( Wie wir dort nachgerechnet haben, ist hier bzw. k Wir wollen tete Matrix b) Ein erstes Beispiel Damit ist klar, wie man Eigenwerte und Eigenvektoren berechnen kann: Man löse die Gleichung det( ) = 0 und dann für jede Nullstelle dieser Gleichung das lineare Gleichungssystem ( ) = 0. Dieses homogene lineare Gleichungssystem hat nie maximalen Rang, da es nach Definition eines Eigenwerts nichttriviale Lösungen geben muß; kommt man also auf ein eindeutig lösbares Gleichungssystem (und damit auf den Nullvektor als einzige Lösung), ist das immer ein Zeichen für einen Rechenfehler. & Eigenwertprobleme für lineare Abbildungen, die durch Differentialoperatoren gegeben sind, spielen in vielen Anwendungen eine wichtige Rolle; im Hinblick auf solche Anwendungen bezeichnet man die Menge aller Eigenwerte einer linearen Abbildung oder Matrix auch als deren Spektrum. Dieses Wort kommt daher, daß z.B. beim (mehrdimensionalen) Differentialoperator, der die Schwingungen des Fells einer Trommel beschreibt, die Eigenwerte gerade die Frequenzen sind, die die Trommel produzieren kann. 2 ; genauso sind sinh und cosh Eigenvektoren zum Eigenwert 2 zum Eigenwert . Für = 0 degenerieren diese beiden Eigenvektoren jeweils zu null und eins, wodurch ein Eigenwert verschwindet; dafür kommt die Identität als neuer Eigenvektor hinzu. Damit ist also jede reelle Zahl Eigenwert von mit einer geometrischen Vielfachheit von mindestens zwei. (Wir werden im nächsten Paragraphen sehen, daß die Vielfachheit immer gleich zwei ist.) Eigenwerte und Eigenvektoren sind auch interessant für Selbstabbil( ) dungen eines unendlichdimensionalen Vektorraums: Ist = beispielsweise der Vektorraum aller beliebig oft stetig differenzierbarer reeller Funktionen, so sind sin und cos Eigenvektoren der linearen Abbildung ( ) ( ) : ¨ linear unabhängig. 1 k In letzterer Form ist dies jenes homogene lineare Gleichungssystem für die Komponenten von , das wir bereits in Kap. I, 6i1) betrachtet haben. Wie jedes homogene lineare Gleichungssystem hat es den Nullvektor als Lösung, der allerdings nach Definition genau aus diesem Grund nicht als Eigenvektor betrachtet wird. Weitere Lösungen gibt es genau dann, des Gleichungssystems singulär ist, wenn also wenn die Matrix det( ) verschwindet. Somit ist genau dann ein Eigenwert, wenn det( ) = 0 ist; die zugehörigen Eigenvektoren sind die nichttrivialen Lösungen des homogenen linearen Gleichungssystems ) = 0. ( Also sind die Vektoren H zwischen 1 1 . Da diese Vektoren linear unabhängig sind, müssen alle Koeffizienten verschwinden. Da die Eigenwerte 1 aber allesamt verschieden sind, ist dies nur möglich, wenn 1 bis 1 verschwinden. Wegen = 0 muß dann aber auch verschwinden, im Widerspruch zur angenommenen linearen Unabhängigkeit von . 1 1) 1 1( Uns interessieren hauptsächlich Eigenwerte und Eigenvektoren in endlichdimensionalen Vektorräumen. Dort können wir konkret mit Matrizen , so ist ( ) = rechnen; ist die Abbildungsmatrix zu : = oder ( ) = 0 ist, wobei wie äquivalent dazu, daß üblich die Einheitsmatrix bezeichnet. Kap. 4: Differentialgleichungen 0 Durch Subtraktion der letzten beiden Gleichungen voneinander erhalten wir eine lineare Abhängigkeit Höhere Mathematik II WS 2006/2007 k 6 + 9 + mit Nullstellen 1 = 2 = 0 dazu hatten wir die Vektoren 1 2 1 = 2 = 1 0 0 9 :;< + = > ? ; 9 :;< > ? ; = :;< & + & + + + + + + + + + + c e c E = >;? 9 :;< e 6 E 1 c e c c e c F 1 mal c c e c = = e k e = 9 1 . = 18 wird = = 9 d :;< c :;< d >;? Z 1 1 c c e c c 1 = 1 1 = 1 c e e E e c = 9 c e c F c c c e c E c e c = >;? 9 :;< = >;? 9 :;< = > ? ; 9 :;< . 1 , ; für = 1 = 1 . / 1 = ! 1 = ]_^ h =0 1 ! 1 = c ^ h d | = 9 :A< c c & + & wie behauptet. ] =0 1 1 , da eine natürliche Zahl ist, für die wir die Formel bereits bewiesen haben. Schließlich ist auch = e = 1 Also ist 1 1 irgendeine = 0 gibt es ebenfalls keine -Matrix die Einheitsmatrix 1 1 invers zu , ` = 1 e 1 1 da die Einheitsmatrix ist. Für Probleme, da die nullte Potenz jeder ist, und für negative schließlich ist denn 1 c F , F c = c c k mit e e c = c e c e 1 5 1 13 1 13 1 5 c c c 2 3 0 1 h c c 1 2 1 0 1 | e , so ist d e k 4 und h c die vier Einheitsvektoren des = e Zum Beweis betrachten wir zunächst eine natürliche Zahl diese ist 1 d = . eine invertierbare Matrix, eine ganze Zahl, so ist . c 4 Lemma: Ist Matrix und " . c 0 0 0 1 = 4 n" c Damit läßt sich auch berechnen: Sind nämlich 1 0 0 0 1 0 und 1 = 2 = 3 = 0 0 1 0 0 0 4 und bei der die Eigenwerte von in der Hauptdiagonalen stehen und alle sonstigen Einträge verschwinden. Bei dieser Matrix haben wir keinerlei Probleme mit der Berechnung der Exponentialfunktion: Offensichtlich ist 1 0 0 0 1 0 0 0 0 1 0 0 0 1 0 0 = und = . 4 4 0 0 0 0 0 0 18 18 0 0 0 0 0 0 , daher die Abbildungs- und = = >;? 0 0 0 0 4 0 0 18 = + 0 0 0 0 + 0 0 0 0 :;< hat 9 + 4) >;? 3 = c 2 6 " 1 c n" Bezüglich der neuen Basis ( matrix . 4 6 ( 4 ) = 18 c und :;< 3 9 4 c >;? ( 3) = = Wir wollen uns überlegen, daß sich eine solche Relation auch in Potenzen sowie in die Exponentialfunktion hineinziehen läßt: = 2 6 0 0 0 0 4 0 0 18 e ( 2) = 0 0 0 0 0 3 6 1 + & c = 0 0 0 0 . =0 c ist, d.h. & Also ist & 1 = 1 2 e Eigenvektor zum Eigenwert = & 4 c und + & oder mit c ( 1) = 0 & & 3 6 1 + & = = & c zu und die Gleichung 5 13 13 5 = 18. Als Eigenvektoren 1 1 1 1 4 = 4 und gefunden, wobei = Kap. 4: Differentialgleichungen 2 3 0 1 3 Höhere Mathematik II WS 2006/2007 B d c c e c F c e E c >;? >;? :;< >A? , B = 9 x x | x x | x x x x x | x x | :A< x 4 +35+10 18 >A? x | x | x | | x x x x x x | k 6 6 k 4 . $ 1 1 + 2 2 + + " * " " * " " & * & ` 6 * &8 6 " " k 6 * " " * ( 1 %" $ + ). 1 0 . Dann ist + " " " * 1 2 1 = ( 1 + 2 + + * " #" k 6 6 ), und genauso zeigt man auch daß der allgemeine Koeffizient die Summe aller möglicher Produkte aus Nullstellen ist, multipliziert mit ( 1) . Diese Aussage bezeichnet man als den Wurzelsatz von VIÈTE. = ( 1) 0 und Dies läßt sich ausmultiplizieren und liefert dann einen Zusammenhang zwischen Nullstellen und Koeffizienten: Beispielsweise ist 2) 2 ! ( )=( 2 1 )( mit höchstem Koeffizient eins habe die Nullstellen ( )= + Bei Polynomen mit ganzzahligen (und eventuell auch rationalen) Nullstellen, ist dazu der Wurzelsatz von VIÈTE ein vielversprechender Ansatzpunkt: Angenommen, das Polynom -ten Grades ! " 6 6 Demgemäß sind also die Eigenwerte von gleich den Nullstellen des charakteristischen Polynoms von , und wir sollten uns wenigsten kurz überlegen, wie man die Nullstellen eines solchen Polynoms bestimmen kann. + * ! ) heißt charakteristisches Polynom P " Definition: Das Polynom det( der Matrix . + * der Diagonaleinträge. Die restlichen Produkte, die zur Determinante 1 mit behaftete aufsummiert werden, enthalten zwischen null und Faktoren, die Summe ist also ein Polynom vom Grad mit höchstem Term ( 1) . 11 + Terme niedrigerer Ordnung ) = ( 1) P * ( 2 2 + * * ) 4 = + 2 2 Bei Polynomen höherer Grade, die man nicht auf einfache Weise über binomische Formeln oder ähnliches in kleinere Faktoren zerlegen kann, ist es oft einen Versuch wert, einige der Lösungen zu erraten, um so den Grad des Polynoms zu reduzieren. = w 1 2 4 2 * * ( + ist, hat das linksstehende Polynom die Nullstellen 2 2 * Es ist kein Zufall, daß im obigen Beispiel die Gleichung det( )=0 auf ein Polynom vierten Grades führte: Ist = ( ) eine -Matrix, so hat die Matrix in der Diagonalen die Einträge , ansonsten stimmen alle Einträge mit denen von überein. Berechnet man daher det( ) gemäß der definierenden Formel, so gibt es genau ein Produkt, in dem mit behaftete Faktoren vorkommen, nämlich das Produkt + c) Das charakteristische Polynom und seine Nullstellen alles andere als angenehm ist. Dies zeigt wieder einmal, wieviel man sich ersparen kann, wenn man vor Beginn einer Rechnung eine gute Basis bzw. ein gutes Koordinatensystem wählt. 27 x 4 | 19+9 * 18 10 18 4 x x +26 1 9 4 + = 18 x 53+27 + * 10 | 4 | +37 18 +26 2 +17 27 4 4 4 | 9 +1 27 +17 27 * 18 x 18 18 10 26 10 = 4 4 + 17 9 4 1 9 x 17 9 i 18 18 + 26 x 18 j 4 10 S +1 27 | 26 18 4 +37 x 18 + 26 :;< 19+9 x +26 | 4 18 >;? 9 10 x 18 18 +26 x 4 +35+10 c 4 9 | 53+27 Z c 27 * 1 72 Zur Bestimmung der Eigenwerte muß man somit die Nullstellen des charakteristischen Polynoms finden. Für ein Polynom vom Grad höchstens zwei (oder aber ein Polynom, das man als Produkt solcher Polynome schreiben kann) ist das nicht schwer: Nullstellen eines linearen Polynoms erhält man durch eine einfache Division, solche eines quadratischen durch quadratische Ergänzung: Da für = 0 1 0 0 0 0 1 0 0 1 , = 4 0 0 0 18 0 0 0 was sich zumindest im Prinzip ausrechnen läßt – auch wenn das Ergebnis Kap. 4: Differentialgleichungen In unserem Fall erhalten wir Höhere Mathematik II WS 2006/2007 B * & 8 , & " B0 " " * * & $ = 51 = 3 17 . 14 + 51 , * 0 2 P P P Da das Produkt aller Nullstellen gleich diesem Wert sein muß, kommen – falls alle Nullstellen ganzzahlig sind – für diese nur die Werte 1 3 und 17 in Frage. Da das Produkt aller vier Nullstellen gleich 51 ist, gibt es jeweils genau eine Nullstelle vom Betrag 3 bzw. 17, sowie zwei Nullstellen vom Betrag eins. Welche Vorzeichen wirklich auftreten, läßt sich durch Einsetzen festellen oder aber auch dadurch, daß nach VIÈTE die Summe aller Nullstellen gleich 14 sein muß. Das ist offenbar nur möglich, wenn sowohl +1 als auch 1 Nullstellen sind, sowie 17 und +3. In der Tat zeigt Einsetzen, daß dies auch tatsächlich Nullstellen sind. (Das Einsetzen ist notwendig, da wir nicht sicher sein können, daß wirklich alle Nullstellen ganzzahlig sind.) so ist * 52 3 10176 4 8 16 2 + 27648 + 32768 32 3 + 2 + ¢ ¡ + =0 = + 3 wenden wir zunächst einen ähnlichen Trick an wie die quadratische Ergänzung beim Fall der quadratischen Gleichungen: Durch die Substitution Für die kubische Gleichung Falls man nicht sicher sein kann, daß alle Nullstellen ganzzahlig sind, gibt es immer noch eine ganze Reihe von Methoden, um Nullstellen exakt zu berechnen: Beispielsweise kennt die Computeralgebra Algorithmen, um ein Polynom (soweit dies möglich ist) in ein Produkt von Polynomen kleineren Grades zu zerlegen mit Koeffizienten aus einem vorgegebenen Körper, der (in einem hier nicht präzisierten) Sinne nicht zu weit vom Körper der rationalen Zahlen bzw. einem endlichen Körper entfernt ist, und es gibt auch, seit der ersten Hälfte des sechzehnten Jahrhunderts, allgemeine Formeln zur Lösung von Gleichungen dritten und vierten Grades. Diese Formeln spielen wegen ihrer Komplexität und numerischen Instabilität in der Praxis keine sonderlich große Rolle und sollen daher hier nur im Kleindruck behandelt werden: £ In diesem extrem einfachen (und konstrierten) Fall führt also die Primfaktorzerlegung direkt zur Lösung; in komplizierteren Fällen, wenn 0 Man beachte, daß diese Vorgehensweise nur funktioniert, wenn das Polynom höchsten Koeffizienten eins hat; andernfalls ist das Produkt der Nullstellen gleich dem Quotienten aus konstantem Koeffizienten und führendem Koeffizienten mal ( 1)Grad . die Nullstellen sind. 2 3 1 + 14 * 4 $ ( )= gibt sie das Produkt aller Nullstellen. Falls die alle ganzzahlig sind, lohnt es sich also, die Teiler von 0 zu testen. Ist beispielsweise 1 2 = 5400 0 4 15 318 P ( 1) 5 & etwa ist 0 = 32768 = 2 ; hier wissen wir also nur, daß – sofern alle Nullstellen ganzzahlig sind – jede Nullstelle die Form 2 haben muß, wobei die Summe aller Exponenten gleich 15 sein muß und die Anzahl der negativen Vorzeichen gerade. Einsetzen zeigt, daß + 27 * ( )= 6 Beim Polynom Für das Erraten von Nullstellen einfacher Polynome, bei denen man (aus inhaltlichen Gründen oder aber weil so etwas in Übungs- und Klausuraufgaben fast die Regel ist) ganzzahlige Lösungen erwartet, ist vor allem die erstgenannte Beziehung wichtig: In der Form mehr Primfaktoren hat, muß man zunächst alle Kombinationsmöglichkeiten, die zum Produkt 0 führen können, in Betracht ziehen und davon dann durch Einsetzen potentieller Nullstellen alle bis auf die tatsächlichen Nullstellen eliminieren. Kap. 4: Differentialgleichungen B FRANÇOIS VIÈTE (1540–1603) studierte Jura an der Universität Poitiers, danach arbeitete er als Hauslehrer. 1573, ein Jahr nach dem Massaker an den Hugenotten, berief ihn CHARLES IX (obwohl VIÈTE Hugenotte war) in die Regierung der Bretagne; unter HENRI III wurde er geheimer Staatsrat. 1584 wurde er auf Druck der katholischen Liga vom Hofe verbannt und beschäftigte sich fünf Jahre lang mit Mathematik. Unter HENRI IV arbeitete er wieder am Hof und knackte u.a. verschlüsselte Botschaften an den spanischen König PHILIP II. In seinem Buch In artem analyticam isagoge rechnete er als erster systematisch mit symbolischen Größen. Höhere Mathematik II WS 2006/2007 B ¡ ¤ * BG + + ¥ ¡ ¤ § ¤© ¨ ¤ ¢¦ ¤ = 3 + +3 ¤ 3 ( + )+ ( + )+ =0. © « ª ¨ « ª « ª « ª « « ª « ª ª ¤ ª © ¦ © « ¦ ª « ª ª ­ ­ 2 + £ ¢ ® ­ =0 ­ ¢ £ ­ ­ ¦ ® £ ­ ¢ ­ ¦ ­ ¢¦ ° £ ¢ ¢ ­ ¦ ¯ ® ¢ = ³}´y´}µ ¦ 3 ² « ° ¯ ¦ ° 3 § ¥ © § ¥ ² © 2 + ¨ 3 + + 2 4 ; 2 + )2 = 4 +2 2 + 2 = (2 º¦ º ¤ º ¤ º ¤ © ¦ ¨ © ³}´y´}µ ¦ ª + )2 = ® + )2 = ( 2 ¾¤ 2 ¨ = 0. + + steht, ist ) ¦ ( ¯ ( Falls rechts das Quadrat eines linearen Polynoms ( © 2 2 ¤ 3 ± und + ¤ ¨ 2 + ), ¦ oder umgekehrt. © ¤ 2 © 4 = © 2 ² 3 ¨ ¤ + 2 ¡ ¤º + 2 ¤­ . . + + = 0. Für eine beliebige Zahl dies führt auf eine Gleichung der Form + folgt daraus für jede Nullstelle dieser Gleichung die Beziehung durch die Substitution ¤ 3 ¥ = ° § 3 3 + ½ sind, also ª + 3 Auch biquadratische Gleichungen lassen sich auflösen: Hier eliminiert man den kubischen Term von 4 + 3+ 2+ + =0 ¢ 2 ­ ¡ 2 ¤ 2 die beiden Zahlen ¦ £ 3 3 ¡ 3 = ¢ und 3 £ 3 3 = 0 und 3 « Auf die kubische Gleichung angewandt heißt das, daß und die 3 ¦ ist, muß also die eine gleich 2 + ¨ Da die Summe dieser beiden Lösungen gleich andere gleich sein. ¨ 4 2 + ¤ eine Lösung der ursprünglichen Gleichung + = ©¤ . eine Lösung der Gleichung 3 ¡ = 2 + ª 2 2 2 ¨ ist; wir müssen also einfach eine quadratische Gleichung lösen und erhalten oder ® = ª + « 2 ª ¤ )= ³}´y´yµ ¦ ª¦ ( « ± folgt, daß « + © = 3 ° © irgendeiner der drei möglichen Werte der Wurzel, so ist = ² und ¦ bekannt, so können wir leicht die ¤ ¨ = ª¬ ¥ + ¤ § und , ª Sind aber Summe und Produkt zweier Zahlen Zahlen selbst bestimmen: Aus ª 3. « und ¦ 3 « ¨ wir kennen also Summe und Produkt von ¨ 3 ¶ 3 ¦ = ¤ 3 · 3 º und » = ¦ Daraus können wir die drei richtigen herausfiltern, wenn wir beachten, daß wir nicht nur das Produkt von 3 und 3 kennen, sondern auch das von und , nämlich 3. Damit ist der zweite Summand in der Formel für eindeutig durch den ersten bestimmt, und es gibt nur die zu erwartenden drei Lösungen: Ist ¹ 3 ¦ 1+ 3 1 3 und 2 2 alle dritte Potenz eins haben, ist mit jeder Kubikwurzel einer Zahl auch mal einer dieser drei Zahlen Kubikwurzel; es gibt also (für = 0) drei verschiedene Kubikwurzeln, und somit hat obige Formel für gleich neun mögliche Interpretationen. 1 · + 2 2 º ¼ 3 3 ¹ ist. Dann ist Da die Zerlegung von in eine Summe äußerst willkürlich ist, können wir hoffen, daß diese Gleichung für die beiden Variablen und auch Lösungen hat, wenn wir zusätzliche Bedingungen stellen: Die obige Gleichung für wird beispielsweise sicherlich dann gelöst, wenn 3 und 3 = + 3= 3 ª + « 2 ³}´y´yµ ¦ ¤ +3 © 2 ± ¸ +3 ¨ 3 + ³}´y´yµ ¦ ¸ 3 © 2 3 © ¦ + ° © = ² + ¥ 2 2 § + ± Damit sind wir fast fertig. Das verbleibende Problem ist, daß hier formal eine Lösung steht, wohingegen wir für eine kubische Gleichung drei Lösungen erwarten. Dieses Problem verkehrt sich sofort in sein Gegenteil, wenn wir beachten, daß genauso, wie die Quadratwurzel nur bis aufs Vorzeichen bestimmt ist, die Kubikwurzel nur bis dritte Einheitswurzeln bestimmt ist: Da die drei komplexen Zahlen 3 zweier Variablen und erhalten ¤ durch die Summe = ° =0 £ , Uns interessiert nur die Summe der beiden Zahlen, also ² + 2 3 + + 27 2 ¥ ¨ 3 ¡ 3 2 B schreiben können. Zur Lösung dieser Gleichung ersetzen wir 3 Kap. 4: Differentialgleichungen § was wir auch kurz als wird die Gleichung zu Höhere Mathematik II WS 2006/2007 R º ­ ¾¤ ® Á ¦ ¯ ¤ º À ¾¤ ¿ ® º ¤ ± « ± [ B ­ º ¤ © ¤ ) 2 + 2 im allgemeinen kein Quadrat Nun wird die rechte Seite (2 eines linearen Polynoms in sein, wir können aber hoffen, daß es zumindest für gewisse spezielle Werte der bislang noch willkürlichen Konstante eines ist. º ¦ ¨ ¦ º¦ ¤ Ä ¤ à  +4 2 +8 + 2 4 Ä Â ¦ ­ ¨ © ¤ © ¦ º ­ º ¨ º ¦ ­ º ¨ ¦ º¦ º ¦ verschwinden. Dies ist eine kubische Gleichung für ; indem wir diese Gleichung lösen und eine der Lösungen für einsetzen, erhalten wir die vier Lösungen der biquadratischen Gleichung. 3  8 ¤ )= à 2 ¤ )( Ä 4(2 à 2 2 + + ist genau dann Quadrat eines linearen, wenn Ein quadratisches Polynom 2 + die beiden Nullstellen der quadratischen Gleichung + = 0 übereinstimmen. Nach der obigen Lösungsformel für quadratische Gleichungen ist dies genau dann der =0 Fall, wenn dort der Ausdruck unter der Wurzel verschwindet, d.h. wenn 2 4 ist. In unserem Fall muß also º Die erste Lösung einer kubischen Gleichung geht wohl aus SCIPIONE DEL FERRO (1465–1526) zurück, der von 1496 bis zu seinem Tod an der Universität Bologna lehrte. 1515 fand er eine Methode, um die Nullstellen von 3+ = für positive Werte von und zu bestimmen (Negative Zahlen waren damals in Europa noch nicht im Gebrauch). Er veröffentlichte diese jedoch nie, so daß NICCOLO FONTANA (1499–1557, oberes Bild), genannt TARTAGLIA (der Stotterer), dieselbe Methode 1535 noch einmal entdeckte und gleichzeitig auch noch eine Modifikation, um einen leicht verschiedenen Typ kubischer Gleichungen zu lösen. TARTAGLIA war mathematischer Autodidakt, war aber schnell als Fachmann anerkannt und konnte seinen Lebensunterhalt als Mathematiklehrer in Verona und Venedig verdienen. ¨ © ¨ © Für die Berechnung von Eigenvektoren sind schon die Lösungen einer kubischen Gleichung nach CARDANOs Formel im allgemeinen zu kompliziert, als daß man ohne Computer damit rechnen könnte; dasselbe gilt erst recht für höhere Grade. Insbesondere sind die Formeln in vielen Fällen numerisch instabil, da annähernd gleich große Zahlen voneinander subtrahiert werden. Die Numerik geht daher aus gutem Grund anders vor, wenn sie Nullstellen von Polynomen berechnet. Der ABELsche Satz besagt selbstverständlich nicht, daß Gleichungen höheren als vierten Grades unlösbar seien; er sagt nur, daß es im allgemeinen nicht möglich ist, die Lösungen durch Wurzelausdrücke in den Koeffizienten darzustellen: Für eine allgemeine Lösungsformel muß man also außer Wurzeln und Grundrechenarten noch weitere Funktionen zulassen. Beispielsweise fanden sowohl HERMITE als auch KRONECKER 1858 Lösungsformeln für Gleichungen fünften Grades mit sogenannten elliptischen Modulfunktionen; 1870 löste JORDAN damit Gleichungen beliebigen Grades. Der norwegische Mathematiker NILS HENRIK ABEL (1802–1829) ist trotz seinen frühen Todes (an Tuberkulose) Initiator vieler Entwicklungen der Mathematik des neunzehnten Jahrhunderts; Begriffe wie abelsche Gruppen, abelsche Integrale, abelsche Funktionen, abelsche Varietäten, die auch in der heutigen Mathematik noch allgegenwärtig sind, verdeutlichen seinen Einfluß. Zu seinem 200. Geburtstag stiftete die norwegische Regierung einen ABEL-Preises für Mathematik mit gleicher Ausstattung und Vergabebedingungen wie die Nobelpreise; erster Preisträger war 2003 JEAN-PIERRE SERRE ( 1926) vom Collège de France für seine Arbeiten über algebraische Geometrie, Topologie und Zahlentheorie. Die Grundidee seines Beweises liegt in der Betrachtung von Symmetrien innerhalb der Lösungsmenge, ähnlich wie wir in einem späteren Abschnitt einige Differentialgleichungen durch Symmetriebetrachtungen lösen werden. Unmöglichkeitsbeweise sind allerdings deutlich aufwendiger als Lösungsversuche mit Hilfe von Symmetriebetrachtungen; daher kann über Einzelheiten des ABELschen Beweises hier nichts weiter gesagt werden. Interessenten finden ihn in fast jedem Algebralehrbuch im Kapitel über GALOIS-Theorie. Å Die Lösung allgemeiner kubischer Gleichungen geht auf den Mathematiker, Arzt und Naturforscher GIROLAMO CARDANO (1501–1576, unteres Bild) zurück, dem TARTAGLIA nach langem Drängen und unter dem Siegel der Verschwiegenheit seine Methode mitgeteilt hatte. LODOVICO FERRARI (1522–1565) kam 14-jährig als Diener zu CARDANO; als dieser merkte, daß FERRARI schreiben konnte, machte er ihn zu seinem Sekretär. 1540 fand er die Lösungsmethode für biquadratische Gleichungen; 1545 veröffentlichte CARDANO in seinem Buch Ars magna die Lösungsmethodem für kubische und biquadratische Gleichungen. Nach der erfolgreichen Auflösung der kubischen und biquadratischen Gleichungen in der ersten Hälfte des sechzehnten Jahrhunderts beschäftigten sich natürlich viele Mathematiker mit dem nächsten Fall, der Gleichung fünften Grades. Hier gab es jedoch über 250 Jahre lang keinerlei Fortschritt, bis zu Beginn des neunzehnten Jahrhunderts ABEL glaubte, eine Lösung gefunden zu haben. Er entdeckte dann aber recht schnell seinen Fehler und bewies stattdessen 1824, daß es unmöglich ist, die Lösungen einer allgemeinen Gleichung fünften (oder höheren) Grades durch Grundrechenarten und Wurzeln auszudrücken. Kap. 4: Differentialgleichungen B wir können die Gleichung also auflösen. Höhere Mathematik II WS 2006/2007 B $ a a $ $ a a Ist eine Nullstelle eines Polynoms ( ), so kann ( ) bekanntlich durch ( ) geteilt werden, und heißt -fache Nullstelle von ( ), wenn ( ) durch ( ) teilbar ist, nicht aber durch ( ) +1 . a a $ a 6 i 6 j Æ;Æ;Æ;Æ Æ;Æ;Æ;Æ k 6 2 = 0, \ i i H / sin cos Ç H / 2 2 ! i : cos sin ` ! Ç Ç 6 = j mit Abbildungsmatrix cos sin cos + sin Ç ; j 2 . 5 . Beweis: a) Der Eigenwert der -Matrix habe die geometrische Vielfachheit , d.h. der zugehörige Eigenraum habe die Dimension . Wir wählen eine Basis 1 dieses Eigenraums und ergänzen sie zu einer Basis des gesamten Vektorraums; bezüglich dieser Basis sei die Abbildungsmatrix der linearen Abbildung + 2 . Satz: a) Die geometrische Vielfachheit eines Eigenwerts ist stets kleiner oder gleich der algebraischen Vielfachheit. b) Die Summe der algebraischen Vielfachheiten der verschiedenen Eigenwerte einer linearen Abbildung ist kleiner oder gleich der Dimension des Vektorraums. + : 0 6 Das Beispiel der Abbildung also gerade die Menge aller Vektoren der Form 0 und somit eindimensional. Die geometrische Vielfachheit des Eigenwerts eins ist daher nur eins. +0 1 0 Allgemein gilt für die algebraischen und geometrischen Vielfachheiten von Eigenvektoren 0 =0 2 fassen wir als Abbildung von 2 nach 2 auf, gibt es also zwei Eigenwerte. Beide haben die algebraische und geometrische Vielfachheit eins; zugehörige Eigenvektoren sind etwa 1 und 1 . Wählen wir diese beiden Vektoren als Basis, so wird die Abbildungsmatrix von bezüglich dieser neuen Basis zur Diagonalmatrix & i & 2 Æ;Æ;ÆAÆ j +1 Ç & 1 & 0 Ç É 1 Ç É 0 Ç die doppelte Nullstelle eins, = 1 ist also ein Eigenwert mit algebraischer Vielfachheit zwei. Der zugehörige Eigenraum ist die Lösungsmenge des linearen Gleichungssystems 2 P , ) 6 = (1 Ç 1 Æ;Æ;ÆAÆ Ç 1 2 ) + sin È& Abgesehen vom Fall sin = 0, wenn gleich der positiven oder negativen Einheitsmatrix ist, hat dieses Polynom keine reelle Nullstelle, da es nur positive Werte annimmt. Es hat aber natürlich die beiden komplexen Nullstellen sin = ; 1 2 = cos Ç )= É det( = (cos etwa hat das charakteristische Polynom cos Im obigen Beispiel hatte also der Eigenwert Null die algebraische Vielfachheit zwei, die anderen beiden hatten algebraische Vielfachheit eins. Die Dimension des jeweiligen Eigenraums, die geometrische Vielfachheit also, war genauso groß, jedoch muß dies im allgemeinen nicht der Fall sein: Für die Matrix 1 1 = 0 1 Ç cos sin Ç Definition: Wir sagen, der Eigenwert von bzw. habe die algebraische Vielfachheit , wenn eine -fache Nullstelle des charakteristischen Polynoms ist. sin zeigt, daß es überhaupt keine Eigenwerte geben muß, denn hier ist das charakteristische Polynom gleich Kap. 4: Differentialgleichungen G d) Vielfachheiten von Eigenwerten Höhere Mathematik II WS 2006/2007 " 6 Ç H H " g r ! Ç n / j . Ç g Ç Höhere Mathematik II WS 2006/2007 G + + ! ! 6 - 5 ! ! ! 9 = - - ! - + & ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! 6 + & >A>;>A>;>;>;>;>;>A>;? - Ê ! - ! :A:;:A:;:;:;:;:;:A:;< ! ! ! - e ` 5 k = - 9 - ! ! ! ! ! ! - - ! ! ! ! ! ! ! ! ! ! ! ! ! :;:;:;:A:;:;:A:;:;:;< 6 ! ! Ñ ! ! ! >;>;>;>A>;>;>A>;>;>;? - Î Í ! ! ÊÌË - ! ! ` ! k " + Ñ )(det ) ) 1 , , wohingegen das charakte- ) . Zum Abschluß dieses Abschnitts sei noch ein Kriterium angegeben, wann es für eine lineare Abbildung eine Basis aus Eigenwerten gibt, wann also die Abbildungsmatrix bezüglich einer geeigneten Basis Diagonalgestalt hat: denn der Grad eines Teilers kann nicht größer sein als der des Polynoms selbst. + 1 k e k 5 ) teilbar. ) durch ( Somit ist det( ( ). 1 Ñ ) det( 1) Dies ist ein Polynom vom Grad 1 + + ristische Polynom Grad hat; daher ist ( )=( k die verschiedenen Eigenwerte von und sind 1 ihre algebraischen Vielfachheiten, so ist das charakteristische 1 Polynom det( ) teilbar durch b) Sind det( 1 Unabhängig von diesem Ergebnis wollen wir noch festhalten, daß nach der gerade durchgeführten Rechnung für eine beliebige Matrix und 1 eine invertierbare Matrix die beiden Matrizen und dasselbe charakteristische Polynom haben; insbesondere haben also die Abbildungsmatrizen einer linearen Abbildung zu verschiedenen Basen dasselbe charakteristische Polynom. WÑ Zur Berechnung ihrer Determinanten verwenden wir den LAPLACEschen Entwicklungssatz: Da in der ersten Zeile (oder Spalte) nur an der ersten Stelle ein von Null verschiedener Eintrag steht, ist diese Determinante gleich ( ) mal der Determinante jener Matrix, die durch Streichen der ersten Zeile und Spalte entsteht. Falls 1 ist, hat diese neue Matrix dieselbe Form, wir können den LAPLACEschen Entwicklungssatz also noch einmal anwenden usw.; wir erhalten schließlich 6 ! )-Einheitsmatrix bezeichnet. 5 ( ) 5 wobei ÒÑ 0 k c . 6 und haben also dasselbe charakteristische Polynom, und somit ist auch das charakteristische Polynom von durch ( ) teilbar. Die algebraische Vielfachheit von ist daher mindestens . 0 die ( Ó 0 c 6 0 .. . 6 c .. k c 0 .. . c 6 0 .. . k 6 , ). c 0 " c 0 6 .. . + & . c 6 6 .. in der Diagonalen steht, c det( 6 = det( c Für gilt dasselbe, nur daß jetzt d.h. diese Matrix hat die Form 0 0 0 0 .. .. .. .. .. . . . . . c = det c ) ( k 1 1 . ) = det( c 0 .. . 6 5 1 ! c k .. k k 0 .. . + c 0 .. . Ï ! 0 0 0 wobei uns weder die mit bezeichneten Körperelemente noch die ( ) ( )-Matrix weiter zu interessieren brauchen. ! 6 = det ! ) = det( +@" det( Ð , 0 0 5 c = k Was uns wirklich interessiert, ist aber nicht det( ), sondern ). Ist die Matrix des Basiswechsels von der Standardbasis det( des auf die Basis 1 , jene Matrix also, deren Spaltenvek1 und toren die sind, so ist = G Da 1 Eigenvektoren zum Eigenwert sind, ist ( ) = . In den ersten Spalten von steht also jeweils in der Diagonalen das Element und ansonsten überall die Null. hat somit die Form 0 0 0 0 .. .. . . . .. .. .. . .. . . . . . Kap. 4: Differentialgleichungen " k 5 G 0 H H +@" ! ! + ! + & + & + & + & & 1 & . ";Ô ÆAÆ;Æ;Æ;Æ;Æ ! ! ! ! ÆAÆ;Æ;Æ;Æ;Æ det( 6 & ! ! ! + 8 " ! ! k & & 8 ! ! ! =1 ^ < , = =1 & + 8 + & 8 &8 + & & ` & ) so ist wegen der Symmetrie des Skalarprodukts eine symmetrische -Matrix . = def =1 8 &8 5 Õ o ) 5 & , wir haben also . = " " & & o ^ =1 ^ =1 . Die Matrix legt das Skalarprodukt eindeutig fest, denn für zwei beliebige Vektoren wie oben ist = =1 & & & ist. Außerdem gibt es wegen 2.) zu jedem einen -dimensionalen Eigenraum, also linear unabhängige Eigenvektoren. Da Eigenvektoren " ^ =1 m Setzen wir l " = 9 " 8 = + & + ) 8 + + + & 1 + 8 ) 8 1 + 8 schreiben, wobei wir annehmen können, daß die paarweise verschieden sind. Dann ist die algebraische Vielfachheit von . Da das charakteristische Polynom den Grad hat, folgt, daß & ? ) ^ = ( + & & ^ 1 = ) " ) und & " ^ ( " =1 " ^ aus einem endlichdimensionalen EUKLIDischen Vektorraum mit Basis 1 ist wegen der Linearität des Skalarprodukts in beiden Argumenten = + & ) & Wegen 1) läßt sich das charakteristische Polynom in der Form TEschen) Symmetrische und HERMITEsche Matrizen hängen eng mit (HERMISkalarprodukten zusammen: Für zwei Vektoren Wie wir im letzten Paragraphen gesehen haben, kann die geometrische Vielfachheit eines Eigenwerts kleiner sein als die algebraische, und im Falle einer reellen Matrix müssen nicht auch die Eigenwerte reell sein. In diesem Abschnitt wollen wir sehen, daß solche Dinge bei symmetrischen (und auch den noch zu definierenden HERMITEschen) Matrizen nicht möglich sind. e) Eigenwerte symmetrischer und Hermitescher Matrizen Umgekehrt erfülle die Abbildung die Bedingungen 1) und 2); wir müssen zeigen, daß es eine Basis aus Eigenvektoren von gibt. )= .. .. = ( ) . . =1 0 zerfällt in der Tat in Linearfaktoren. Die algebraische Vielfachheit des Eigenwerts ist gleich der Anzahl jeder Indizes 1 , für die = ist; dies ist auch die geometrische Vielfachheit, denn der Eigenraum wird aufgespannt von den Vektoren zu diesen . Also sind 1) und 2) erfüllt. 6 0 .. . Da die Basisvektoren Eigenvektoren sind, gibt es zu jedem ein Körperelement , so daß ( ) = ist; bezüglich dieser Basis hat die Abbildungsmatrix von daher Diagonalgestalt, und das charakteristische Polynom Beweis: Zunächst sei : eine lineare Abbildung derart, daß eine Basis 1 aus Eigenvektoren von habe. Wir müssen zeigen, daß 1.) und 2.) erfüllt sind. zu verschiedenen Eigenwerten nach dem Lemma vom Anfang dieses Abschnitts stets linear unabhängig sind, ist auch das System all dieser Eigenvektoren linear unabhängig und somit eine Basis, denn es besteht aus = dim Vektoren. Damit ist eine Basis aus Eigenvektoren von gefunden. Kap. 4: Differentialgleichungen G Satz: Zur linearen Abbildung : eines -dimensionalen Vektorraums gibt es genau dann eine Basis aus Eigenvektoren von , wenn 1.) das charakteristische Polynom von als Produkt von Linearfaktoren geschrieben werden kann 2.) die geometrische Vielfachheit eines jeden Eigenwerts gleich der algebraischen ist. Höhere Mathematik II WS 2006/2007 B 8& ) 8 & 8 ) & & H G G ` n" /" 5 . / " . ) & & " " + & ) & ^ ) 9 + & & ^ l & " ^ " ^ = ? & " ^ m ^ ) + 8 + & )8 & 8 & + 8 )8 + 8 + & < 8 + & & & &8 so ist nun = . Matrizen mit dieser Eigenschaft wollen wir als HERMITEsch bezeichnen. , ! = def " & 8 &8 Um dies etwas kompakter ausdrücken zu können, definieren wir n" " 6 * &8 6 6 * &8 n" " 6 . der konjugiert = = 6 = 9 . 6 6 = 9 6 6 6 ? < < " ? " ` 6 × 6 Ø Ö 6 6 = und Somit haben wir die beiden Darstellungen = 6 = = . 6 -Matrizen identifizieren; Schließlich wollen wir Vektoren hier mit 1 insbesondere rechnen wir mit dem transponierten Vektor“ ” =( 1 ). , d.h. . 6 6 , Bislang gilt alles noch für beliebige -Matrizen; um die Symmetrie bzw. HERMITE-Eigenschaft von ins Spiel zu bringen, betrachten wir den Vektor ( ) = . Da nach Voraussetzung = ist, können schreiben, und die linke wir die rechte Seite der Gleichung auch als Seite als ( ) = , da Eigenvektor von ist. Somit können wir die auch schreiben als Zahl = (Letztere Schreibweise sieht zwar grausam aus, läßt sich aber nicht vermeiden, wenn man Vektoren mit Pfeilen kennzeichnet. Alternativen wie der Fettdruck von Vektoren funktionieren weder an der Tafel noch in einer Mitschrift, und für Frakturbuchstaben wie können sich leider nur wenige Studenten begeistern.) /" S 1 .. . . = heißt 6 1 6 .. . = 6 Beweis: a) Ist ein Eigenwert von , so gibt es nach Definition = ist. Da die komplexe Konjugation einen Vektor = 0, so daß mit sämtlichen Grundrechenarten vertauschbar ist, folgt, daß 6 c) Zu einem Vektor komplexe Vektor. 6 sei eine symmetrische reelle oder HERMITEsche (komplexe) Satz: Matrix. a) Dann sind alle Eigenwerte von reell. b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal bezüglich des Standard- bzw. HERMITEschen Skalarprodukts. c) Für jeden Eigenwert von ist die geometrische Vielfachheit gleich der algebraischen Vielfachheit. d) bzw. hat eine Orthonormalbasis aus Eigenvektoren von . " Definition: a) Für eine Matrix = ( ) bezeichnen wir die Matrix = als die zu konjugiert komplexe Matrix. b) heißt HERMITEsch, falls = ist. Das Hauptziel dieses Abschnitts ist TEsche Matrix mit reellen Einträgen 6 Setzen wir auch hier wieder ! =1 ! =1 =1 + =1 . ) = . = /" mit " keine Wirkung hat, ist eine HERMIeinfach eine symmetrische Matrix; wir können uns im folgenden bei den Beweisen daher auf HERMITEsche Matrizen beschränken und erhalten trotzdem Ergebnisse, die auch für reelle symmetrische Matrizen gelten. / =1 = Da die komplexe Konjugation auf ) und , so =1 + 1 = Ist ein HERMITEscher Vektorraum, wieder mit Basis ist jetzt für zwei Vektoren ) Mit dieser Bezeichnung kann das Standardskalarprodukt zweier Vektoren als Matrixprodukt geschrieben werden; das StandardHERMITEsche Produkt in ist entsprechend . Kap. 4: Differentialgleichungen G Diese Formel definiert umgekehrt auch für jede symmetrische Ma, allerdings trix eine bilineare Abbildung muß diese nicht positiv definit und damit kein Skalarprodukt sein. Höhere Mathematik II WS 2006/2007 R * 6 * 6 ` " ! ! ! Höhere Mathematik II WS 2006/2007 [ G S S ) C c , ) C C C ) C ) 6 ) ) 6 ) 6 ) 6 ) 6 ) ) , S C C ) ) 5 9 :;:;:A:;:;:;:;:;:A:;< = 1 0 >;>;>A>;>;>;>;>;>A>;? ! ! ! ! ! ! ! ! ! ! 5 6 6 k ! ! , e 9 = . , + + + ! ! ! /" ! ! ! ! ! ! ! ! ! ! " ! +@" ! ! ! Ù 6 H g 6 H ( ! Ù c , ! + & 5 , ! ) ! :A:;:;:;:;:;:A:;:;:;< wobei . 0 5 0 die ( ! 0 .. . ! ! 0 ! .. ! ! ! 0 .. . ! ! 0 .. . . 0 0 0 wobei eine ( ) ( )-Matrix ist, die uns nicht weiter zu interessieren braucht. Damit hat die Form 0 0 0 0 0 0 0 0 .. .. .. .. .. .. .. . . . . . . . 0 0 , 0 0 0 .. . ! .. 0 ! ! 0 .. . 0 ! 0 .. . 0 ! = ! ! ! c c , Bezüglich der Standardbasis hat sie als Abbildungsmatrix; für uns interessanter ist aber die Abbildungsmatrix bezüglich der neuen Basis . Dazu sei die Matrix mit Spaltenvektoren ; da der Eintrag an der Stelle ( ) eines Matrixprodukts das (Standard-)Skalarprodukt des -ten Zeilenvektors des ersten Faktors mit dem -ten Spaltenvektor des zweiten Faktors ist, steht an der Stelle ( ) der Matrix c + & ! . 5 ! Ê ; 6 , = : c = Nun betrachten wir die lineare Abbildung , sei also ein Eigenwert von mit geometrischer Vielfachheit , d.h. der zugehörige Eigenraum habe die Dimension . Wir wählen eine Basis davon und ergänzen sie zu einer Basis = 1 1 des gesamten Vektorraums = oder . Indem wir nötigenfalls das GRAM-SCHMIDTsche Orthogonalisierungsverfahren anwenden und anschließend die Längen aller Vektoren auf eins normieren, können wir annehmen, daß es sich dabei um eine Orthonormalbasis handelt. Beim Beweis von c) gehen wir im wesentlichen genauso vor wie im vorigen Abschnitt, als wir zeigten, daß die geometrische Vielfachheit eines Eigenwerts stets kleiner oder gleich der algebraischen ist; die zusätzliche Annahme über die Matrix wird zeigen, daß hier die beiden Vielfachheiten sogar gleich sind. als 5 Die ersten Basisvektoren sind Eigenvektoren von zum Eigenwert ; für ist daher ( ) = , d.h. in der -ten Spalte von steht an der -ten Stelle die reelle Zahl und ansonsten überall die Null, genau wie auch im vorigen Abschnitt. Im Gegensatz zu dort haben wir nun aber eine HERMITEsche Matrix; da in der -ten Spalte abgesehen von auf der Hauptdiagonalen nur Nullen stehen, muß daher dasselbe auch für die -te Zeile gelten; die Matrix hat also die Form 0 0 0 0 0 0 0 0 .. .. . . .. .. .. .. . . . . . . . + & = . Die verschwin- 6 = . c + & Wie wir schon wissen, sind alle Eigenwerte reell, d.h. obige Gleichungskette kann daher nur richtig sein, wenn det, d.h. wenn und orthogonal sind. = = 1 c = = 6 = = 1 c ) )= c 6 = ( 1 . c ) 6 = ( 1 6 = ( c 5 Dann ist . 6 = und 5 = c eine HERMITEsche Matrix auch = und k Aus dieser Formel folgt, daß mit ist, denn 1 . Da + 8 = c sei Eigenvektor zum davon c = c b) sei Eigenvektor zum Eigenwert , und verschiedenen Eigenwert , d.h. und damit + & = und Ù das (Standard) HERMITEsche Produkt der Vektoren Orthonormalbasis gewählt wurde, ist daher G die nur dann beide richtig sein können, wenn = und somit reell ist; denn kann wegen der Definitheit HERMITEscher Skalarprodukte für einen Vektor = 0 nicht verschwinden. Kap. 4: Differentialgleichungen Î ! Í ÊÌË )-Einheitsmatrix bezeichnet. >A>;>;>;>;>;>A>;>;>;? ` ` ! k " G 5 6 5 k k ) det( ) k k " e e ` 5 6 k ist, wobei die ( ) ( )-Einheitsmatrix bezeichnet. Wir müssen zeigen, daß die algebraische Vielfachheit von genau gleich ist, daß also keine Nullstelle von det( ) sein kann. )=( ) = det( 5 det( Wie in Abschnitt d) folgt auf Grund der obigen Form der Matrix aus dem LAPLACEschen Entwicklungssatz, daß k " " ) e k e e von 5 der Vektor " ) = 0 1 = 9 ) ) < Ç ? ) " Ç i >A>;>;>;>;>A>;? :A:;:;:;:;:A:;< ) " 6 e 5 + + Tatsächlich läßt es sich immer dadurch lösen, daß man zu einem größeren Körper übergeht: Nach dem Fundamentalsatz der Algebra, zerfällt jedes Polynom mit komplexen (also insbeondere auch mit reellen) Koeffizienten über den komplexen Zahlen in Linearfaktoren. Für andere Körper als die reellen oder komplexen Zahlen zeigt die Algebra, daß es zu jedem Polynom über einem Körper stets einen Erweiterungskörper gibt, der als Vektorraum über dem Ausgangskörper endliche Dimension hat, so daß das gegebene Polynom dort in Linearfaktoren zerfällt. Mit Methoden, die im allgemeinen nicht konstruktiv sind, folgt sogar, dadurch lösen, daß wir zu einem größeren Körper übergegangen sind, nämlich von den reellen zu den komplexen Zahlen. ! ! ! + & Wir wissen dann, daß die Summe der algebraischen Vielfachheiten aller Eigenwerte gleich der Dimension des Vektorraums ist und daß alle Eigenwerte reell sind; da die algebraischen gleich den geometrischen Ç d) ist nun eine einfache Folgerung aus den übrigen Aussagen sogenannten Fundamentalsatz der Algebra, wonach jedes reelle oder komplexe Polynom über den komplexen Zahlen in Linearfaktoren zerfällt: Ç die algebraische Vielfachheit , und c) ist gezeigt. H Das zweite dieser Probleme konnten wir zumindest beim Beispiel der Matrix cos sin sin cos j Also hat .. . ein Eigenvektor von und damit von – Eigenvektoren hängen schließlich nur von der linearen Abbildung ab, nicht von einer speziellen Abbildungsmatrix. Dies widerspricht aber der Voraussetzung, daß der Eierzeugt wird, denn ist linear genraum zum Eigenwert von 1 unabhängig von diesen . = 9 1 = .. . 0 .. . Falls die lineare Abbildung : Eigenwerte hat, deren geometrische Vielfachheit kleiner als die algebraische ist, haben wir keine Chance auf eine Basis, bezüglich derer die Abbildungsmatrix von Diagonalgestalt hat: Die Elemente einer solchen Basis wären allesamt Eigenvektoren, und bei zu kleiner geometrischer Vielfachheit gibt es nicht genügend linear unabhängige Eigenvektoren. Außerdem gibt es offensichtlich keine Chance auf eine Diagonalgestalt, wenn das charakteristische Polynom von nicht in Linearfaktoren zerfällt, denn dann ist schon die Summe der algebraischen Vielfachheiten der Eigenwerte kleiner als die Dimension von . f) Hauptvektoren und und die Jordan-Zerlegung ), so hätte den Eigenwert , Wäre Nullstelle von det( es gäbe also einen ( )-dimensionalen Eigenvektor von . Wegen der speziellen Form der Matrix ist für jeden Eigenvektor Eigenvektoren, die eine Basis von Für jeden einzelnen Eigenraum können wir die Eigenvektoren nach GRAM-SCHMIDT so wählen, daß sie eine Orthonormalbasis bilden; da Eigenvektoren zu verschiedenen Eigenwerten stets orthogonal sind, ist die Vereinigungsmenge dieser Basen Orthonormalbasis von . Vielfachheiten sind, gibt es also bilden. Kap. 4: Differentialgleichungen Wie wir uns schon im vorigen Abschnitt überlegten beim Beweis, daß die geometrische Vielfachheit eines Eigenwerts immer kleiner oder gleich der algebraischen ist, haben und dasselbe charakterische Polynom; da wir die Matrix besser kennen, rechnen wir mit ihr. Höhere Mathematik II WS 2006/2007 R R Ý ÚÞ Ú 9 ? Ð Ý 6 c Ý < Ý Ú +@" Ú ß = o und o Ú ^ & Ú Ú H =1 ^ = = 0 o Ú ß Ú 8 Ú & á& Þ 8 Ú & & Ú & Ú o 6 1 9 .. ! Ú Ú Ú + + ! ! ! +@" ! + ! ! .. . 0 >;>;>A>;>;>;>;>A? 6 o ! ! ! Ú & :;:;:A:;:;:;:;:A< 6 & 9 Ú & = 5 6 Kandidaten für Untervektorräume liefern die Haupträume: hat, wobei die die Abbildungsmatrizen der Einschränkungen Abbildungen von nach sind. 0 ! . ! ! 0 .. . ! ! .. . 6 2 0 = 0 Ú & 0 Û Üãâ ? c Ú Ú < 6 Ñ Ú & ä . ä . S Ñ Definition: a) Ein Vektor heißt Hauptvektor von zum Eigengibt, so daß ( wert , wenn es ein id) ( ) = 0 ist. Falls 0 1 id) = 0 ist, bezeichnen wir als die Stufe des Hauptvektors. ( zu ist. Falls hierbei die allesamt -invariant sind, können wir ihre Basen aneinandersetzen und erhalten eine Basis, bezüglich derer die Abbildungsmatrix die Gestalt + Ú + , daß von Ï 1 ! = o_à =1 ! sei, wenn = ! 1 Ú 1 Ú = Allgemein sagen wir für Untervektorräume die direkte Summe = Ð Ú Ú H ÛÜ 5 ` mit einer -Matrix , der Abbildungsmatrix von : , einer ( ) ( )-Matrix und einer ( ) -Matrix . Die fette Null soll hier, wie auch in den noch folgenden Matrizen, stets eine Nullmatrix der jeweils korrekten Größe bezeichnen. 0 Ý Für das folgende wollen wir der Einfachheit halber annehmen, daß endliche Dimension habe. Dann ist erst recht jeder -invariante Unterraum endlichdimensional, wir können also eine endliche Basis 1 von finden und diese ergänzen zu einer Basis von . Da ( ) ist, liegen die Bilder der ersten 1 Basisvektoren wieder in , d.h. die Abbildungsmatrix bezüglich dieser Basis hat die Form Ï . 0 Ú 0 Úß Die -Invarianz der Eigenräume im Sinne dieser Definition ist klar, denn auf einem Eigenraum ist einfach die Multiplikation mit dem zugehörigen Eigenwert. Ý sei eine lineare Abbildung. Ein Untervektorraum Definition: : heißt invariant unter oder kurz -invariant, wenn ( ) ist. Ý Die Lösung wird darin bestehen, daß wir solchen Eigenwerten Räume zuordnen, die größer sind als die Eigenräume, aber immer noch eine gut an die Abbildung angepaßte Basis haben. Insbesondere sollen sie, genau wie die Eigenräume, invariant sein unter der betrachteten Abbildung: + Somit können wir das Problem, daß das charakteristische Polynom eventuell nicht genügend viele Nullstellen hat, im wesentlichen ignorieren. Ernster ist das Problem mit Eigenwerten, deren geometrische Vielfachheit kleiner ist als die algebraische. Damit wollen wir uns in diesem Abschnitt beschäftigen. Noch besser wird die Situation, wenn ein -invariantes Komplement hat, wenn es also einen weiteren -invarianten Untervektorraum gibt, = 0 . (Wir sagen dann, = so daß = + ist und sei die direkte Summe von und .) In diesem Fall können wir für +1 bis die Vektoren einer Basis von nehmen, und da nun auch auf sich selbst abgebildet wird, haben wir eine Abbildungsmatrix der Form Kap. 4: Differentialgleichungen daß es stets einen (im allgemeinen unendlichdimensionalen) Erweiterungskörper gibt, über dem jedes Polynom in Linearfaktoren zerfällt, den sogenannte algebraischen Abschluß des Ausgangskörpers. Einzelheiten findet man in jedem Lehrbuch der Algebra. Höhere Mathematik II WS 2006/2007 R ` c ` R 0 å Insbesondere sind die Hauptvektoren der Stufe eins genau die Eigenvektoren zum Eigenwert : Der Nullvektor ist nämlich kein Hauptvektor erster Stufe, da er bereits von ( id)0 = id auf 0 abgebildet wird. ä æ æ Ñ å ä Ñ ä Ñ ä å å å 8 8 8 å å . å ( ) ist also ein Hauptvektor der Stufe höchstens 1 und somit insbesondere ein Element von . Da mit auch in liegt, ist damit auch ( ) = ( ) + ein Hauptvektor. Ñ ) Ñ ) ! ! ) Ñ id) ( ( ) + ) wieder ein Element des Bilds und damit auch ( ) selbst. Ñ + ( )=( + Beweis: Wir beginnen mit einer Basis 1 des Eigenraums 1 des Raums aller zu und ergänzen diese zu einer Basis 1 2 Hauptvektoren der Stufe höchstens zwei und so weiter, bis eine Basis des gesamten Hauptraums erreicht ist. 1 ! +1 ! id) + id)( ) = ( å + =( ( ) id) ( ) Lemma: Der Hauptraum hat eine Basis, bezüglich derer die Abbildungsmatrix von eine obere Dreiecksmatrix ist. Alle Hauptdiagonaleinträge dieser Matrix sind gleich . Ñ =( Das Schöne an der FITTING-Zerlegung ist, daß sie rekursiv fortgesetzt id) auch -invariant ist, können wir für die werden kann: Da Bild( Einschränkung von auf diesen Unterraum einen Hauptraum zu einem anderen Eigenwert abspalten usw. Bevor wir uns das genauer überlegen, wollen wir uns aber zunächst eine gute Basis für den Hauptraum verschaffen. id) folgt genauso: Für nach diesem Lemma heißt FITTING-Zerlegung. , Der deutsche Mathematiker HANS FITTING (1906–1938) beschäftigte sich vor allem mit der Untersuchung von Operatoren (und Operatorenringen). Trotz seines frühen Todes konnte er damit wesentliche Beiträge zur Algebra leisten, vor allem auch zur Erforschung der Struktur von Gruppen. Die Zerlegung von . id) = dim id) , Die Invarianz von Bild( ist id) + dim Bild( die beiden Untervektorräume erzeugen somit ganz = 0, ( ) ) id) å =( id)( ) ( Ñ Ñ 1 ) Ñ 1 Ñ id) id) ( ) = ( ( ein Hauptvektor der Stufe , so ist Ñ Ist Ñ unter . Beweis: Beginnen wir mit der Invarianz von ist ein -invarianter Unterraum von . Bezeichnet die Lemma: größte Stufe eines Hauptvektors aus , so ist Bild( id) ein invariantes Komplement. dim Kern( dim Kern( also ist Der Nutzen der Haupträume ergibt sich aus folgendem id) = dim dim Bild( ) lineare Abbildungen, und die Hauptvektoren der Stufe höchstens sind gerade die Elemente des Kerns dieser Abbildung. Da wir von einem endlichdimensionalen Vektorraum ausgehen, kann die Folge dieser Kerne nicht unbeschränkt wachsen, es gibt also ein maximales , das als Stufe eines Hauptvektors auftreten kann. Mit diesem ist der Hauptraum gerade der Kern von ( id) . Ñ id) ( id) Ñ Ñ id) = ( ) Nach der Dimensionsformel ist ) ( . Es ist klar, daß die Hauptvektoren einen Untervektorraum bilden, denn id) sind auch dessen Schachtelungen mit ( Als nächstes müssen wir zeigen, daß der Durchschnitt der beiden Räume nur aus dem Nullvektor besteht. Dazu sei ein Vektor aus diesem Durchschnitt. Dann liegt sowohl im Kern als auch im Bild der linearen id) , es gibt also einen Vektor derart, daß Abbildung ( =( id) ( ) ist, und ( id) ( ) = ( id)2 ( ) = 0. Damit liegt aber im Hauptraum zu , d.h. = ( id) ( ) = 0. heißt Haupt- Kap. 4: Differentialgleichungen B b) Die Menge aller Hauptvektoren von zum Eigenwert raum zu und wird mit bezeichnet. Höhere Mathematik II WS 2006/2007 R ! ! + ! ! ! ) R G ä + & ( Ñ ( ) id)( ) + & = 0, Ñ id) ä + & + & + & , + & + & + 8 + & + & + 8 8& & ^ 8 + & + + & + ! ! ! 9 = H ! 6 ! ! ! ! ! 6 1 . )=( ) 1 1 6 1 det( 1 ) k k :;:;:A:;:;:A:;:;< 6 ist, das charakteristische Polynom von ist also ein Teiler des charak1 teristischen Polynoms von und zerfällt somit auch in Linearfaktoren. det( >;>;>A>;>;>A>;>;? o ! ! ! å Insbesondere hat es (mindestens) eine Nullstelle 2 ; wir können deren Hauptraum in 1 betrachten und damit 1 genau wie oben weiter 2 und dessen invariantes Komplement 2 . Nimmt man zerlegen in 2 Ûé , 6 & & Beweis: Falls es zu eine Basis gibt, bezüglich derer die Abbildungsmatrix von eine Dreiecksmatrix ist, ist bezüglich dieser Basis auch Entwicklung des charakteristischen Polynoms det( ) nach der ersten Spalte, gefolgt von der Entwicklung des Rests nach seiner ersten Spalte und so weiter, bis die ersten 1 = dim 1 Spalten aufgebraucht sind, zeigt, daß ! c 0 .. . 0 ! å .. . :;:;< ! . ! ! .. ! ! . 6 .. . ! ! .. k .. . 9 1 hat mit Dreiecksmatrizen , die auf der Hauptdiagonalen den -ten Eigenwert stehen haben. >;>;? 0 - 0 - .. . 0 = - 1 2 1 >A? 0 .. . 0 :A< mit einer oberen Dreiecksmatrix 1 6 1 = 0 0 0 0 9 c eines endlichdimensioSatz: Zu einer linearen Abbildung : nalen -Vektorraums gibt es genau dann eine Basis von , bezüglich derer die Abbildungsmatrix von eine Dreiecksmatrix ist, wenn das charakteristische Polynom von über als Produkt von Linearfaktoren geschrieben werden kann. Alsdann kann die Basis so gewählt werden, daß die Abbildungsmatrix die Form å = = 1 å 1 ß Abspaltung immer weiterer Haupträume auch vom invarianten Komplement führt schließlich zum å hat die Abbildungsmatrix daher in der Nach dem Lemma von der FITTING-Zerlegung gibt es zu ein 1 invariantes Komplement 1 , so daß = ist. Wir ergänzen die 1 1 zu einer Basis von Basis von ; bezüglich durch eine Basis von 1 1 dieser Basis hat dann eine Abbildungsmatrix der Form Ûç è Bezüglich der Basis 1 Tat die gewünschte Form. . =1 k 1 6 + Falls umgekehrt das charakteristische Polynom in Linearfaktoren zerfällt, gibt es auf jeden Fall Eigenwerte; 1 sei einer davon, und 1 sei der zugehörige Hauptraum. Dazu gibt es nach dem gerade bewiesenen Lemma eine Basis, bezüglich derer die Abbildungsmatrix von 1 eine obere Dreiecksmatrix ist, deren sämtliche Hauptdiagonaleinträge gleich 1 sind. å ( )= ( ) ist also ein Hauptvektor der Stufe höchstens 1. Nach Konstruktion der Basis ist ( ) daher eine Linearkombination von Basisvektoren mit Indizes echt kleiner , d.h. 1 1 =( Ñ id) id) ( ) = ( ( 6 k eine Dreiecksmatrix. Da die Determinante einer Dreiecksmatrix gerade das Produkt der Diagonaleinträge ist, bekommen wir als charak) ein Produkt von Linearfaktoren. teristisches Polynom det( sei Hauptvektor der Stufe ; dann ist Kap. 4: Differentialgleichungen Der Vektor Höhere Mathematik II WS 2006/2007 R R å 6 R [ å 9 6 :;:;:;:;:A< c >;>;>;>;>A? = - 9 - 6 ! ! ! ! ! ! >;>;? 9 ! ! ! ! ! ! ! ! ! :;:;:A:;:;:A:;:;:;< 6 :;:;< ! ! ! ! - & 9 ! ! ! ! ! & ! & ! ! & ` & :;:;< & ) 2 2 & ) 1( - 1 >;>;? k )=( o ( 1 ) , -Matrix, so ist das charak- >;>;>A>;>;>A>;>;>;? det( - .. . = .. . . . . 0 0 zu den Eigenwerten von . Ist eine teristische Polynom von 0 .. . = = q hat mit oberen Dreiecksmatrizen 0 6 0 & .. . . 6 .. & .. . Ziel unserer Betrachtungen in diesem Paragraphen war die Berechnung von Potenzen und Exponentialfunktionen einer Matrix. Mit der JORDANmiteinander Zerlegung ist dies im wesentlichen erreicht: Da und MARIE ENNEMOND CAMILLE JORDAN (1838–1922) arbeitete bei der Herleitung dieser und weiterer Zerlegungen nicht mit komplexen Matrizen, sondern mit Matrizen über endlichen Körpern, motiviert durch Fragen aus der Gruppentheorie und Lösbarkeitsfragen für nichtlineare Gleichungen. Weitere Arbeiten beschäftigen sich mit der Anwendung gruppentheoretischer Methoden auf die Geometrie sowie mit der Topologie, wo er z.B. bewies, daß jede doppeltpunktfreie geschlossene Kurve die Ebene in zwei Gebiete zerlegt. Außerdem entwickelte er neue Methoden zum Nachweis der Konvergenz von FOURIER-Reihen. Diese Zerlegung aus diesem Satz bezeichnet man nach dem französischen Mathematiker CAMILLE JORDAN als JORDAN-Zerlegung. & .. . 6 = q 0 6 q 2 q 0 q 0 0 q 1 2 q . .. . . . . .. . 0 0 2 Auf diese Weise lassen sich sukzessive immer weitere Haupträume abspalten, bis schließlich eine Basis erreicht ist, bezüglich derer die Abbildungsmatrix von die Form 0 .. . = 2 H Beweis: Wir nehmen natürlich die Basis aus dem gerade beendeten Beweis; die Diagonalmatrix soll genau aus den Diagonalelementen der Abbildungsmatrix bestehen, also die Eigenwerte entsprechend ihrer algebraischen Vielfachheiten als Diagonalelemente enthalten, und = . Für jede einzelne Dreiecksmatrix aus dem obigen Beweis kommutiert der Diagonalanteil mit dem Rest, da der Diagonalanteil gerade das -fache der Einheitsmatrix ist. Damit ist auch = , denn bei beiden Multiplikationen treffen, abgesehen von den Nullen, immer nur Einträge aus einem aufeinander. 2 2 in LinearfakSatz: Falls das charakteristische Polynom von : toren zerfällt, gibt es eine Basis von , bezüglich derer die Abbildungsmatrix von als = + geschrieben werden kann, wobei eine Diagonalmatrix ist und eine obere Dreiecksmatrix mit Nullen in der Hauptdiagonalen. Außerdem ist = . mit einer neuen Dreiecksmatrix 0 0 å 2 = 0 & 2 0 . & = sind also gerade die algebraischen Vielfachheiten der Für spätere Anwendungen wollen wir das gerade bewiesene Ergebnis noch etwas umformulieren: die Kap. 4: Differentialgleichungen R nun als Basisvektoren von zunächst die Basisvektoren von wie 1 und schließlich noch oben, dann entsprechende Basisvektoren für 2 solche für 2 , hat die Abbildungsmatrix 2 bezüglich dieser neuen Basis die Form 0 0 1 Höhere Mathematik II WS 2006/2007 q Õ 6 R Ñ q Ñ i ê ä ^ Ñ ê q 8 q 10 + 10 9 + 45 2 8 ë = und 3 =0 0 0 2 0 0 0 0 3 4 0 . . q q ê q Z 6 , q , + 8 + & + & ë ä , , + 8 + 8 ä , + & Ñ ë und ä Ñ ë Ñ q + + :;:;:A< 1 2 2 Ñ q = 0 0 0 1 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 >;>;>A? 0 0 2 1 0 0 0 7 4 1 = 9 ê ä = 9 6 = 9 2 0 0 0 0 0 ê = 2 , Mehr als Potenzen interessiert uns die Exponentialfunktion einer Matrix; auch diese läßt sich über die JORDAN-Zerlegung berechnen: Da und kommutieren, ist = + = mit = :;:;:;< , :;:;:;< 9 0 0 3 4 1 9 1024 5120 0 0 0 0 1024 0 0 0 0 0 1 20 390 0 0 0 1 40 0 0 0 0 1 >;>;>;? 10 = = 0 0 2 1 0 = 0 0 8 0 0 q ist, also ist beispielsweise 2 0 0 0 0 0 q Als Beispiel betrachten wir die Matrix 2 1 0 0 2 0 = 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 >A>;>;? >;>;>;? Die Abbildungsmatrix von ( ) ist daher ebenfalls eine obere Dreiecksmatrix mit Nullen in der Hauptdiagonalen; zusätzlich stehen auch noch in den 1 schrägen Reihen oberhalb und parallel zur Hauptdiagonale lauter Nullen, und spätestens wenn größer oder gleich der größten Stufe eines Hauptvektors wird, ist gleich der Nullmatrix. :A:;:;< 0 0 0 0 0 = 1 0 0 0 0 = Mit der JORDAN-Zerlegung können wir diese Aussage nun noch etwas präzisieren: Die lineare Abbildung zu bildet den -ten Basisvektor ab in den von Basisvektoren mit 1 erzeugten Unterraum. Für diese Basisvektoren gilt eine analoge Aussage, (2) ( ) liegt daher im Unterraum, den die mit 2 aufspannen. Induktiv folgt, daß ( ) ( ) im von den mit aufgespannten Untervektorraum liegt; falls negativ wird, ist das natürlich der Nullraum. 9 0 0 0 0 0 und 0 0 0 0 0 :A:;:;< ist eine obere Dreiecksmatrix mit Nullen in der Hauptdiagonalen, wir wissen also bereits, daß es einen Exponenten gibt, ab dem alle Potenzen gleich der Nullmatrix sind, so daß die Exponentialreihe zu einer endlichen Summe wird und auch in der binomischen Formel selbst für große nur relativ wenige Summanden auftreten. 0 0 0 0 1 >A>;>;? Eine kurze Rechnung zeigt, daß = 0 0 0 1 0 = = . Die Potenzen von sind sehr einfach zu berechnen: ist wieder eine Diagonalmatrix, ihre Diagonalelemente sind die -ten Potenzen der Diagonalelemente von ; genauso ist einfach die Diagonalmatrix mit den Exponentialfunktionen der Einträge von als Einträgen. , 0 0 1 0 0 9 =0 0 2 0 0 0 = + = 2 0 0 0 0 die offensichtlich von der oben betrachteten Form ist; hier ist Kap. 4: Differentialgleichungen und q ) j + der übliche“ bino” q + ( kommutieren, gilt für Potenzen der Summe mische Lehrsatz, d.h. Höhere Mathematik II WS 2006/2007 [ >;>;>A? :;:;:A< q q k >;>;>A? :;:;:A< [ = ê Z q k ê :;:;:A< q q >;>;>A? 9 = >;>;>A? ê Z :;:;:A< q i 6 6 j i S j i j i i j j i j i j i = + ()= 6 = 1 6 0 4 + 2 + 2 + () () ( )+5 ( )+2 ( ) () 2 1 1 = i + 0 6 0 0 i 1 5 2 1 2 1 , 2 ( )+ ( ). 0 4 Hier ist ()= ( )=2 ( ) 1 0 , 3 2 . + + 2 + 2 + 3 Wir haben Eigenvektoren und Hauptvektoren in erster Linie eingeführt, um Differentialgleichungen zu lösen; daher soll das etwas ausführlichere Beispiel in diesem Abschnitt ebenfalls mit einer Differentialgleichung beginnen: Gesucht sind die Lösungen des Differentialgleichungssystems g) Ein Beispiel +2 2 q = + 2 j = j und in der Tat ist i i j = 1 0 0 2 0 3 0 0 q 0 6 0 0 0 3 0 0 + 0 3 0 0 2 q 1 0 0 2 + q beispielsweise ist 3 + 2 ê = 3 ) = def )= 0 3 0 0 + + + 1 0 0 2 ( q ê = 0 q hat acht Summanden; die -te Potenz hat 2 , und von denen überleben viele auch dann, wenn schon für relativ kleine verschwindet. Für die Matrixexponentialfunktion, in die alle Potenzen eingehen, ist also ziemlich klar, daß es für nichtkommutierende Matrizen und keinen geben kann. vernünftigen Zusammenhang zwischen + und ( q 1 3 0 2 q q = q Zur Vorsicht sei noch einmal ausdrücklich darauf hingewiesen, daß es für diese Rechnungen sehr wesentlich war, daß und miteinander kommutieren; es reicht nicht, wenn wir die Matrix nur auf irgendeine Dreiecksgestalt bringen und dann als Summe einer Diagonalmatrix und einer oberen Dreiecksmatrix mit Nullen in der Hauptdiagonalen schreiben. Für . q 0 2 q 0 0 3 q 2 )+ q 0 0 0 + q 0 0 +4 4 ( 0 0 2 ) = q 0 0 + ist, aber wir können + nicht zusammenfassen zu 2 . Mit wachsendem Exponenten verschlimmert sich die Situation drastisch; schon ( q 0 0 0 0 = = Z 9 q = :A:;:;< q 2 q 2 = 2 kommutieren, ist , q und q und da auch 2 Der Grund für die Verschiedenheit der Ergebnisse beim Quadrat liegt natürlich darin, daß wir im allgemeinen nur sagen können, daß 1 0 0 0 Z = i 2 2 , 1 2 + j = 0 0 3 +4 4 1 3 S 2 j 0 0 0 0 1 2 0 1 0 0 2 1 9 0 4 ê 0 3 = j 1 0 0 0 0 >A>;>;? = und genauso ist 2 i berechnen: . verschieden von 6 0 0 0 7 4 + 0 0 0 0 2 = 0 0 0 0 0 = 9 2 0 0 0 0 2 i = 2 Kap. 4: Differentialgleichungen Entsprechend läßt sich auch also ist Höhere Mathematik II WS 2006/2007 [ m l j j q q [0 3 2 21 + 18 = ( 2)( 2 3) . k 6 m l 6 k m l i 3 j i j l 6 k i m l 0 0 3 0 1 3 l 3 0 0 = j 2 1 0 = = d Z m 3 0 . 3 3 . 3 3 m l Z m l 0 3 0 0 was bezüglich der Standardbasis der Vektor 2 0 2 3 3 2 + = + 1 2 l 1 m = = 3 3 2 0 2 , l l k 6 2 2 1 3 = 3 m 2 1 1 0 und l 3 ist also 0 2 3 0 + 2 1 1 = = 2 2 2 1 ist. Bezüglich der Basis = 1 + 3 3 . Um daraus zu berechnen, müssen wir die Standardbasis des durch die Hauptvektoren ausdrücken; man überzeugt sich leicht, daß 1 3 i m = i 3 0 Damit ist und i 3 6 j j 1 1 0 i j sieht man, daß sich m ist also ein Eigenvektor und erzeugt auch den Eigenraum, denn da die erste Spalte kein Vielfaches der zweiten ist, hat die Matrix den Rang zwei. Die geometrische Vielfachheit des Eigenwerts drei ist also nur eins: Um zu einer Dreiecksmatrix zu kommen, müssen wir einen Hauptvektor zweiter Stufe berechnen. Aus 1 1 1 2 ( 3 ) = 1 1 1 1 1 1 j = e i 2 l i 0 1 1 stimmen die zweite und die dritte Spalte miteinander überein, l 1 2 2 1 2 2 j 1 1 1 ` = j 3 erzeugt also den Eigenraum. In m i Da das Quadrat des zweiten Summanden verschwindet, ist 0 1 1 0 0 1 1 0 0 = + = 0 1 0 0 0 1 1 m 1 1 1 = ist die mittlere Spalte gleich der Summe der beiden äußeren, 2 6 Wir haben also den Eigenwert zwei mit algebraischer und somit auch geometrischer Vielfachheit eins und den Eigenwert drei mit algebraischer Vielfachheit zwei. In der Matrix 0 1 1 1 3 2 2 = 1 2 1 +8 6 )= det( j 3 linear unabhängiger Kandidat anbietet. Da 3 4 =3 3 = 3 2 1 ist, hat bezüglich der Basis 1 2 3 die Form 2 0 0 1 , = 0 3 0 0 3 der erste Kasten“ ist also einfach eine 1 1-Matrix und der zweite ist ” 3 1 3 0 0 1 = + . 0 3 0 3 0 0 als von ist Kap. 4: Differentialgleichungen [ und das charakteristische Polynom von Höhere Mathematik II WS 2006/2007 B / m m l l m [G l + m 3 3 = m l 2 3 2 + 3 Z 3 m m l m l Z Z l m l l m 2 0 ( ) ( ) = + & Ñ ë ë ì &8 &8 , q , l = 9 < q q m ? Satz: Falls das charakteristische Polynom von : als Produkt von Linearfaktoren geschrieben werden kann, gibt es eine Basis von , In diesem speziellen Fall sind die Potenzen von also ohne jeden Aufwand zu berechnen, und tatsächlich genügen solche Matrizen schon vollständig für eine Normalform der Abbildungsmatrix, die sogenannte JORDAN-Normalform: + & Die im vorigen Abschnitt konstruierte Normalform für Abbildungsmatrizen wird für alle Zwecke dieser Vorlesung ausreichen. Trotzdem ist sie nicht ganz befriedigend, da die Dreiecksmatrizen immer noch sehr willkürlich und damit komplizierter als notwendig sind. Für Interessenten sei in diesem Abschnitt gezeigt, wie sich die bislang erreichte . 0 ) mit Ñ 1 falls = , 0 sonst denn die zu gehörige lineare Abbildung bildet einfach den -ten Basisvektor auf den ( 1)-ten ab oder auf den Nullvektor, falls es keinen 1)-ten Basisvektor mehr gibt, und entsprechend ist ( ) ( ) = ( beziehungsweise 0. =( , h) Ergänzung: Die Jordan-Normalform 0) 3 0 Ñ q ( 0 + 0 + 0) 2 ( 0 + 0) 3 3 ( 0+ 0+ 0 + ( + 2) 0 + ( + 1) 0 2 + ( ( 0 + 0 + 0) + 1) 0 0+ 0 3 3 + m 2 3 2 Ñ = 2 Ñ 3 3 &8 + 3 &8 3 3 ì 2 = 1 falls =1 . 0 sonst verschiebt sich einfach die Bei der sukzessiven Potenzierung von Reihe von Einsen jeweils um eins weiter nach außen, d.h. =( ) mit bei denen direkt oberhalb der Hauptdiagonale lauter Einsen stehen, während alle anderen Einträge verschwinden, d.h. q 2 2 . , 3 2 3 3 2 2 , = 2 3 3 ä () () () 0 genügt, ist also (0) = und 0 (0) = 0 q (0) = 2 , Die Lösung, die den Anfangsbedingungen 3 3 + 2 3 2 3 2 q + 3 :;:;:;:;< 2 2 ! = ! 3 ! 3 .. 0 0 0 0 .. .. . . 0 1 0 0 >;>;>;>;? 2 9 ! ! 2 ! ! ! 3 ! . ! 2 ! ! 2 = 0 1 0 0 0 1 .. .. . . 0 0 0 0 0 0 Die Potenzen einer oberen Dreiecksmatrix mit Nullen in der Hauptdiagonalen verschwinden, wie wir gesehen haben, ab einem meist überschaubar kleinen Exponenten, aber die Potenzen bis dahin muß man doch mühsam von Hand ausrechnen. Eine Ausnahme, bei der alles klar ist, bilden Matrizen der Form = 3 2 3 0 3 2 0 = + 3 2 3 1 ist. Da in den Spalten einer Matrix die Bilder der Basisvektoren stehen, ist somit l 3 3 2 2 3 . 2 3 l 3 m und Z + 2 1 2 2 = 3 0 1 0 1 0 = 0 Genauso überlegt man sich, daß Dreiecksgestalt noch weiter vereinfachen läßt, indem man die bislang noch ziemlich willkürlichen Basen der Haupträume etwas geschickter wählt. Für das folgende werden wir die Ergebnisse dieses Abschnitts nicht benötigen; er kann also gefahrlos überlesen werden. 2 Kap. 4: Differentialgleichungen [ Also ist, bezüglich der Standardbasis ausgedrückt, Höhere Mathematik II WS 2006/2007 R H [ [ 6 :A:;:;:;:;:A:;:;:;< + í o ! & 9 ë = ! ! ! ! ! ! ! & o + + + 8 ë ! í & ( )+ + o ! :;:A:;:;< ( ) ë 1 ( )+ + ( +1) + 0 ( )+ 1 1 1 ( ( + 1) 1) ( ) ( ) = 0. 8 ë + 8 ë V , 8 ë î o ë ! ! ! ! ( + ) & >A>;>;>;>;>A>;>;>;? >;>A>;>;? & ! + o í & & å + ( ) ! ! ! ë ë 8 ë = wählen, und bezüglich dieser Basis ist 2) å , & ï & ! , & ï ë & Ûç è , & ë = , + ! ! + >;>;>;>A>;>;? 9 ! ! ! ! ! ! ! ! ! ! ! q ë ë ! + :;:;:;:A:;:;< 1 0 0 0 0 0 0 0 und das ist gerade eines der JORDAN-Kästchen aus der Formulierung des Satzes. ( )= 1 + 1 für 1 für ( )= . und für = 1 0 für = 1 1 Die Abbildungsmatrix von hat somit die einfache Gestalt 1 0 0 0 0 1 0 0 0 0 0 0 , .. .. .. .. .. . . . . . 1 ë = 2 + ( ) als Basisvektoren von 1) ( ë = + ë 1 ( die Nullabbildung ist, treten hier nur die Summanden für wirklich auf, für = 1 also nur der ( ) mit Summand 0 ( 1) ( ). Da ( 1) ( ) ungleich dem Nullvektor ist, muß also 0 = 0 sein. Anwendung von ( 2) zeigt als nächstes, daß . 1 = 0 ist, und genauso zeigt man sukzessive das Verschwinden aller Also können wir Da = + 0 ( ) ( ) so ist auch für jedes + å + & & + & + + & ë + & bildet den Basisvektor daher ab in das Erzeugnis der Basisvektoren 1 bis 1 ; insbesondere geht 1 auf den Nullvektor. Wiederholte Anwendung von zeigt, daß für jeden Basisvektor gilt: ( 1) ( ) = 0, wobei der Exponent von für die wiederholte Anwendung der Abbildung stehen soll. Insbesondere ist also ( ) ( ) = 0 für alle . & dabei ist die Abbildungsmatrix von id bezüglich jeder beliebigen Basis gleich dem -fachen der Einheitsmatrix, und zumindest bezüglich ist die Abder im vorigen Abschnitt konstruierten Basis 1 bildungsmatrix von eine obere Dreiecksmatrix mit Nullen in der Hauptdiagonalen. ë Beweis: Wir gehen aus von der Zerlegung von in die Haupträume zu den Eigenwerten von und betrachten einen festen Hauptraum . Die Einschränkung von auf diesen Untervektorraum läßt sich zerlegen in eine Summe = id + ; + + + zu den Eigenwerten von . Die Anzahl der Kästchen zu einem festen Eigenwert ist die geometrische Vielfachheit dieses Eigenwerts, die Summe ihrer Zeilenzahlen die algebraische. 1 ë ë 0 0 + 0 0 . ! = ! .. 0 0 .. . ! + .. . 0 0 0 1 allesamt ungleich dem Nullvektor. Sie sind auch linear unabhängig, denn ist ( 1) ( ) = 0, + 1 ( )+ + 0 1 ë + 0 .. . í 1 o hat mit oberen Dreiecksmatrizen ! .. . + 0 ! . ! ! .. 0 ! ! .. . Hat der Nilpotenzgrad seinen größtmöglichen Wert , so sind die Vektoren ( 1) ( ) ( ) ë .. . 0 2 0 = 0 0 ë = 9 í 1 o Es könnte sein, daß es schon eine kleinere Zahl gibt, so daß ( ) die Nullabbildung ist; die kleinste solche Zahl bezeichnen wir als den Nilpotenzgrad von . die Form Kap. 4: Differentialgleichungen [ bezüglich derer die Abbildungsmatrix von Höhere Mathematik II WS 2006/2007 ! ! ! ! ! ! ë ë . ë Höhere Mathematik II WS 2006/2007 [ ë å o o ë S ( ) = . o o o ! ! ! ë ë ë å ë Ú Ú å 7 H 7 Ð o S ë ) 7 Æ;Æ å Ú Ý . Ï ) , ) ë 7 ) 7 Ý ÚÞ Ú ) o o ! ! ! ) . ñÚ ë 8 ë o 8 ë 7 o Ý 8 ë ) & o 8 ë î ! ä ! ! Ñ ë ! ! ! o Ý ÚÞ 8 ë å ) ) 7 å Ý Ý Ú dim ñÚ +dim Ý = dim dim Ý und ñÝ dim ) dim ( ) =0 ( ) =0 ñÚ Die Dimension von läßt sich zumindest nach unten leicht abschätzen: ( ) Bezüglich einer Basis von wird jede Gleichung ( ) = 0 zu einer linearen Gleichung in den Koeffizienten von , der Untervektorraum ist also die Lösungsmenge eines homogenen linearen Gleichungssystems aus Gleichungen in dim Variablen. Daher ist ) Ý = 0, In jedem der konstruierten Teilräume liegt genau ein eindimensionaler Teilraum aus Eigenvektoren (und dem Nullvektor), nämlich der vom ersten Basisvektor aufgespannte. Der Eigenraum zu wird also von diesen ersten Basisvektoren aufgespannt und seine Dimension, die geometrische Vielfachheit von , ist damit gleich der Anzahl der JORDAN-Kästchen zu . Die algebraische Vielfachheit ist wegen der speziellen Gestalt der Abbildungsmatrix natürlich die Anzahl der = ist, sind wir damit fertig; anderfalls können wir wieder Falls von in finden und einen wie oben ein invariantes Komplement weiteren Teilraum abspalten, usw. Jeder solche Teilraum führt auf ein JORDAN-Kästchen, und das Verfahren bricht schließlich ab, da wir in einem endlichdimensionalen Vektorraum arbeiten. . ( ) für 1. Da gleich dem Nullvektor ist, für = 0 = 0 ist, und erniedrigt man immer weiter, folgt für = 1, daß 1 folgt nacheinander das Verschwinden aller Koeffizienten . Somit ist in der Tat der Nullraum. 1) ( ) ( )=0 ò o ( ) ñ ( )+ +1 ( ( ) ( ) ist eine nilpotente Abbildung von einem Nilpotenzgrad ; wenn wir also einen Vektor hernehmen, für den ( ) ( ) = 0 ist, können wir die gleiche Kontruktion wie oben mit noch einmal durchführen und erhalten einen neuen invarianten Unterraum mit einer Basis, bezüglich derer ein JORDAN-Kästchen als Abbildungsmatrix hat. Auch ë Ûð 1 7 S + 7 ë ( )+ 7 o 1 ) ( ) ist. Die einzige neue Bedingung ist ( ) = 0, und die ist trivialer( ) weise erfüllt, da invariant unter die Nullabbildung ist. Also ist und somit ein invariantes Komplement von . 7 ( ) = ) ) liegt, ist ë 1) 7 auch in ( + ë 7 ( ) ë Ý schreiben, und wenn ë + ) + ) ) o Ú 1 1 7 Ý = = = 1) ë Der Durchschnitt besteht nur aus dem Nullvektor, denn jeder Vektor aus läßt sich als ë ë . ( ) = ( ) =0 o 1) ( ) = 7 7 ( 7 ë = ë ) ( ) = E o ( )= ë ë ) = ) (2) ( ( )= ( ) = F ) Um weitere Kästchen zu bekommen, brauchen wir ein invariantes Kom. Dazu wählen wir irgendeine lineare Abbildung plement von in : , für die ( ) = 0 ist und setzen Ý = falls d.h. . = E ( ) o ( ( ) = invariant ist. Dazu F linear unabhängig sind, allerdings spannen sie nur einen -dimensionalen Teilraum von auf. Dieser Teilraum ist -invariant und damit auch -invariant, denn bildet einfach die Basisvektoren aufeinander beziehungsweise auf den Nullvektor ab, und die Abbildungsmatrizen bezüglich dieser Basis sehen genauso aus wie oben; auch zu gehört also ein JORDAN-Kästchen. ë 2) Úß ( = ) 2 å ( ) Úß 1) Ý ( ist, geht das nur, wenn das GleichÝ Wir müssen uns noch überlegen, daß unter müssen wir zeigen, daß für alle gilt . = å ë 1 Ý Da Untervektorraum von heitszeichen gilt, d.h. = Falls der Nilpotenzgrad von kleiner als ist, können wir nicht so argumentieren. Wir können aber immerhin einen Vektor finden, so daß ( 1) ( ) = 0 ist, denn erst ( ) ist die Nullabbildung. Genau wie oben folgt, daß Kap. 4: Differentialgleichungen å Ý î Úß å Ý Ý î in der Hauptdiagonalen, d.h. gleich der Summe der Zeilenzahlen der JORDAN-Kästchen zu . Höhere Mathematik II WS 2006/2007 9 = >;>;>;? :;:;:;< 6 + ! ! ! å / + å m l q + + + q 6 + 4 + + 3 und + 6 + + 6 + 0 0 0 1 1 ! 4 , die Gestalt + ! = 9 = 5 c " ` ñ 6 = c 5 . :;:;:A< Z 1 , . Dann ist auch 1 -Matrix, deren Spalten die Vektoren aus 6 mit einer Dreiecksmatrix Ist die komplexe sind, ist dann also = 0 0 1 1 0 ! 0 0 1 0 0 + 5 5 1 2 0 0 0 6 c 2 0 0 0 0 = -Matrix ist. Zumindest über wobei eine reelle oder komplexe den komplexen Zahlen zerfällt ihr charakteristisches Polynom in Linearfaktoren, es gibt also eine Basis von , bezüglich derer als obere Dreiecksmatrix geschrieben werden kann. Ù 1 + 5 5 " hat bezüglich der Basis = + 4 daher ist = + 3 3; 5 6 und die Matrix = + und weiter auf und ` 3 + 4 4 + auf +4 3 6 unter =3 5 4 ( ), 3 =2 ()= Wir betrachten ein Differentialgleichungssystem a) Systeme homogener linearer Differentialgleichungen mit konstanten Koeffizienten In 2g) haben wir bereits ein Beispiel behandelt, und genauso können wir natürlich auch im allgemeinen Fall vorgehen: 6 geht also 3 Nach diesem längeren Einschub aus der linearen Algebra haben wir nun das Rüstzeug zusammen, um eine ganze Reihen von Differentialgleichungen und Differentialgleichungssystemen lösen zu können. Als erstes kehren wir zurück zu den Systemen homogener linearer Differentialgleichungen mit konstanten Koeffizienten, die ja der Ausgangspunkt für diesen Einschub waren. den maximalen Nilpotenzgrad hat, ist etwa 5 , denn 5 wird abgebildet auf 3 3 + 4 4 ; da 3 auf den Nullvektor geht und 4 auf 2 3 , wird dieser Vektor weiter abgebildet auf 8 3 , was schließlich auf den Nullvektor abgebildet wird. Mit j 0 2 3 0 0 4 0 0 0 l = m Die Basis des 5 sei 1 5 ; davon können wir 1 = 1 und 2 = 2 als Basis von 2 gleich übernehmen. 1 wird von 3 4 und 5 aufgespannt; ein Vektor aus diesem dreidimensionalen Raum, der unter . vom Ende des vorigen Abschnitts. Links oben steht schon ein JORDANKästchen zum Eigenwert zwei, rechts unten müssen wir noch etwas arbeiten. 1 1 0 0 1 1 0 0 1 §3: Lineare Differentialgleichungen und Differentialgleichungssysteme 2 1 0 2 i Um wenigstens ein ganz einfaches Beispiel zu sehen, betrachten wir die Matrix 2 1 0 0 0 0 2 0 0 0 = 0 0 1 2 3 0 0 0 1 4 0 0 0 0 1 und mit den beiden JORDAN-Kästchen Kap. 4: Differentialgleichungen Ù O n" c c >;>;>A?