II. Semester 1 1. Matrizen 1.1. Definition von Matrizen Ein rechteckiges Schema der Form a11 a12 a13 . . . .. .. A = a21 a22 . . am1 am2 . . . . . . a1n .. . (1.1) amn von m · n Zahlen aij heißt Matrix oder auch (m × n)-Matrix. Der erste Index i bezeichnet die Zeilen, der zweite Index j bezeichnet die Spalten der Matrix. aij heißen Elemente oder Komponenten der Matrix. Die Elemente der Matrix können beliebige “mathematische Objekte” sein. Sind alle aij = 0, spricht man von einer m × n-Nullmatrix. Ist m = n, so handelt es sich um eine quadratische Matrix. Sind in der quadratischen Matrix nuir die Diagonalelemente von Null verschieden und gleich, handelt es sich um eine Einheitsmatrix 1 0 ... 0 0 1 . . . 0 E= (1.2) =1 . . . 0 ... ... 0 1 Einer quadratischen Matrix lässt sich eine Determinante zuordnen det(A) = |A| a11 . . . det(A) = ... am1 . . . (1.3) a1n .. ∈ R für a ∈ R ij . amn (1.4) Beispiel: 3 5 3 5 = 3 · (−3) − 5 · 2 = −19 A= ⇒ det(A) = 2 −3 2 −3 Der allgemeine Fall wird später behandelt. Die transponierte Matrix AT zu einer (n × m) Matrix A ist gegeben durch a11 . . . am1 .. AT = ... . a1n . . . amn (1.5) 3 1. Matrizen und ist eine (m × n) Matrix. Beispiel 2 3 −1T 2 3 3 1 4 = 3 1 −1 4 (1.6) 1.2. Rechenregeln für Matrizen 1.2.1. Addition und Subtraktion Die Summe S und die Differenz D sind definiert als Sij = (A ⊕ B)ij = aij + bij (1.7) Dij = (A B)ij = aij − bij (1.8) (1.9) Dies bedeutet, daß die Rechenoperationen elementweise definiert sind. Beispiel 5 1 −2 −3 3 −2 = − 2 1 −1 4 1 5 Addition und Subtraktion werden auf die normale Addition und Subtraktion von reellen oder komplexen Zahlen zurückgeführt. Falls A und B nicht die gleiche Spaltenund Zeilenahl haben, sind Summe und Differenz nicht definiert. Aus der Definition der Matrixaddition folgt unmittelbar die Matrixmultiplikation mit einem Skalar λa11 . . . λa1n .. , λ ∈ R λA = ... (1.10) . λam1 . . . λamn 1.2.2. Multiplikation von Matrizen Um die Rechenregeln für die Multiplikation zu motivieren, schauen wir uns zuerst die Multiplikation von Matrix und Vektor an. Dabei ist das Beispiel von linearen Gleichungssystemen besonders interessant. Betrachten wir das Gleichungssystem 2x1 − 3x2 = 16 (1.11a) −x1 + 2x2 = −10 (1.11b) Dann kann man dieses System formell als 2 −3 x1 16 = −1 2 x2 −10 {z } | {z } | {z } | A 4 ~ x ~c (1.12) 1.2. Rechenregeln für Matrizen schreiben, wobei wir hier die Kurzschreibweise für ein Produkt aus Matrix und Vektor gebildet haben 2x1 − 3x2 16 A~x = ~c ⇔ = (1.13) −1x1 + 2x2 −10 Existiert die Matrix A−1 , so gilt A−1 A~x = A−1~c ⇒ ~x = A−1~c (1.14) Während die Vorgehensweise formell klar ist, stellen sich dennoch mehrere Fragen: • Wie multipliziert man Matrix und Vektor? • Wie multipliziert man Matrizen? • Wie findet man A−1 zu A? Aus der Matrixnotation für das Gleichungssystem 1.11 kann man die allgemeine Multiplikation von Matrix und Vektor direkt ablesen X (A~x)i = aij xj (1.15) j Anschaulich bedeutet dies, daß die Komponente i des resultierenden Vektors sich durch Multiplizieren der Zeile i der Matrix mit dem Vektor ergibt. Dieser Zusammenhang lässt sich mit der Einsteinschen Summenkonvention einfacher schreiben X aij xj = aij xj (1.16) j Die Einsteinsche Summenkonvention besagt: Tritt in einer Summe ein Index doppelt auf, so wird über diesen Index summiert. Kehren wir nun zu dem linearen Gleichungssystem Gl. 1.11 und seiner Matrixformulierung zurück x1 2x1 − 3x2 2 −3 16 16 ⇔ (1.17) = = −1 2 x2 −10 −x1 + 2x2 −10 Multipliziert man nun eine weitere Matrix von links (wir stellen später fest, daß die Matrixmultiplikation nicht kommutativ ist) an die Gleichung, so erhält man x1 16 2 3 2 −3 2 3 = (1.18) −10 1 2 −1 2 x2 1 2 | {z } B Für die linke Seite findet man durch die Multiplikation von Matrix von Vektor 2 3 2x1 + (−3)x2 2 · 2x1 + 2(−3)x2 + 3(−1)x1 + 3 · 2x2 = 1 20 (−1)x1 + 2x2 1 · 2x2 + 1(−3)x2 + 2(−1)x1 + 2 · 2x2 1x1 + 0x2 1 0 x1 = = 0x1 + 1x2 0 1 x2 (1.19) (1.20) 5 1. Matrizen Für die rechte Seite gilt 2 3 1 2 16 2 · 16 + 3(−10) 2 = −10 1 · 16 + 2(−10) −4 (1.21) 1 0 x1 2 = 0 1 x2 −4 (1.22) Womit dann gilt Daraus lässt sich auch sofort die Lösung des Gleichungssystems ablesen. Außerdem zeigt sich, daß die Matrix B tatsächlich die Matrix A−1 sein muß, da sie die Gleichung löst. Allgemein gilt für die Multiplikation von Matrizen b11 b12 b21 b22 a11 a12 (b11 a11 + b12 a21 ) (b11 a12 + b12 a22 = a21 a22 (b21 a11 + b22 a21 ) (b21 a12 + b22 a22 (1.23) oder in Kurzform (BA)ij = X bik akj (1.24) k Das Element i, j ergibt sich also aus der Multiplikation der Zeile i der ersten Matrix mit der Spalte j der zweiten Matrix. Definition Die Elemente der aus einer (l × m) Matrix A und einer (m × n) Matrix B gebildeten Produktmatrix C = AB sind durch cij = m X aik bkj k=1 gegeben. Die Produktmatrix ist eine (l × n) Matrix. Beispiel 2 1 1 1 1 1 0 3 4 1 2 = 0 2 1 1 0 2 3 4 2 = 1 0 2 1 9 10 3 2 2 3 4 4 3 8 3 3 6 Die Matrizen müssen nicht vom gleichen Typ sein. Es genügt, daß die Spaltenzahl der ersten (linken) gleich der Zeilenzahl der zweiten (rechten) Matrix ist. Es ist, wie im Beispiel gezeigt, offensichtlich, daß die Matrixmultiplikation nicht kommutativ ist. 6 1.3. Determinanten 1.3. Determinanten Jeder quadratischen Matrix A lässtsich eine Determinante |A| = det(A) zuordnen. Dabei bedeutet die Notation der Betragsstriche nicht, daß die Determinante eine positive Zahl sein muß. Definition Die Determinante eine quadratischen (n × n) Matrix ist gegeben durch a11 . . . |A| = ... an1 . . . a1n .. = a ∆ − a ∆ · · · ± a ∆ 11 11 12 12 1n 1n . ann (1.25) Die ∆1n sind ((n − 1) × (n − 1)) Unterdeterminanten von A |A| = n X (−1)1+j a1j ∆1j (1.26) j=1 mit der Definition der Unterdeterminanten a11 .. . a ∆ij = (i−1)1 a(i+1)1 .. . an1 ... ... ... ... a1(j−1) a1(j+1) ... .. . a(i−1)(j−1) a(i−1)(j+1) . . . a(i+1)(j−1) a(i+1)(j+1) . . . .. . an(j−1) an(j+1) ... a1n a(i−1)n a(i+1)n ann (1.27) In den Unterdeterminanten zu (i, j) sind also die Zeile i und die Spalte j gestrichen. Beispiel 3 1 −2 4 2 0 = −1 −2 5 2 0 4 0 4 2 3 − 1 + (−2) −2 5 −1 5 −1 −2 = 3(2 · 5 − 0 · (−2)) − 1(4 · 5 + 0 · (−1)) − 2(4 · (−2) − 2(−1)) = 22 Sonderfälle für Determinanten n=1 det(A) = a11 (1.28) n=2 det(A) = a11 a22 − a12 a21 (1.29) n=3 det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 −a11 a23 a32 − a12 a21 a33 − a13 a22 a31 (1.30) 7 1. Matrizen 1.3.1. Eigenschaften von Determinanten 1. Eine Determinante |A| ist homogen in Bezug auf die Elemente einer Spalte oder Zeile. D.h. multipliziert man eine Zeile oder Spalte mit einer Zahl λ, so gilt a11 . . . a1n a11 . . . a1n .. .. .. .. . . . . λai1 . . . λain = λ ai1 . . . ain = λ|A| (1.31) .. .. .. .. . . . . an1 . . . ann an1 . . . ann Damit gilt auch |λA| = λn |A| (1.32) 2. Eine Determinante wechselt das Vorzeichen, wenn zwei benachbarte Zeilen oder Spalten vertauscht werden a11 a21 .. . an1 ... ... ... ... a21 a1n a11 a2n = − .. .. . . an1 ann ... ... ... ... a2n a1n .. . ann (1.33) 3. Die Determinante der transponierten Matrix |AT | stimmt mit der Determinante von |A| überein 4. Eine Determinante ändert sich nicht, wen zu einer Zeile oder Spalte das Vielfache einer anderen Zeile oder Spalte hinzu addiert wird a11 . . . a1n a11 + λai1 . . . a1n + λain .. .. .. .. . . . . ai1 . . . ain = ai1 ... ain (1.34) .. .. .. .. . . . . an1 . . . ann an1 ... ann 1.3.2. Laplacescher Entwicklungssatz Die Berechnung einer Determinanten kann auch durch Entwicklung nach einer beliebigen Zeile oder Spalte erfolgen |A| = X j 8 (−1)i+j aij ∆ij (1.35) 1.4. Das Inverse einer Matrix Dabei bedeutet hier die Summe über Spalte j, daß nach Zeile i entwickelt wird. Alternativ ist natürlich die Entwicklung nach Spalte j möglich X |A| = (−1)i+j aij ∆ij (1.36) i Der Faktor (−1)i+j ordnet den Unterdeterminanten ein Schachbrettmuster für die Vorzeichen zu + − + . . . − + − . . . (1.37) + − + . . . . . . . . . . . . . . . Für die Determinanten größerer Matrizen führt man diese Entwicklung für die Unterdeterminanten fort. 1.3.3. Definition über Indexpermutation Die mathematisch elegante Definition der Determinanten verwendet die Permutation. Die Determinante |A| einer Matrix A ist die durch X |A| = (−1)P a1j1 a2j2 . . . anjn (1.38) P gegebene Zahl, die durch die Summation über alle n! Permutationen der Spaltenindizes aus der natürlichen Reihenfolge 1, 2, . . . , n gebildet wird. Dabei gibt P an, wie viele Indexvertauschungen (Transpositionen) nötig sind, um eine bestimmte Permutation zu erreichen. 1.4. Das Inverse einer Matrix Das Ziel unserer Rechnung zu Beginn war ja, ein lineares Gleichungssystem zu lösen. Dazu benötigen wir eine Matrix A−1 , für die gilt A−1 A = 1. Definition: Die inverse Matrix A−1 zu einer quadratischen Matrix A erfüllt A−1 A = 1 und AA−1 = 1. Ihre Elemente sind gegeben durch (A−1 )ij = 1 1 (−1)i+j ∆ji = (−1)i+j ∆Tij |A| |A| (1.39) Natürlich kann man die Elemente von A−1 durch das Lösen des Gleichungssystems A−1 A = 1 bestimmen, aber dies widerspricht dem eigentlichen Sinn des Verfahrens. Beispiel: Wir kennen schon BA = 2 3 1 2 2 −3 −1 2 =1 9 1. Matrizen Offensichtlich gilt B = A−1 . Prüfen wir dies mit der Definition det(A) = 1 (A−1 )11 = (−1)1+1 ∆11 = (−1)2 · 2 = 2 (A−1 )12 = (−1)1+2 ∆21 = (−1)3 · (−3) = 3 (A−1 )21 = (−1)2+1 ∆12 = (−1)3 · (−1) = 1 (A−1 )22 = (−1)2+2 ∆22 = (−1)4 · 2 = 2 1.5. Das Gauß-Verfahren Determinanten lassen sich besonders einfach für Matrizen in Dreiecksform berechnen a11 . . . . . . . . . a1 n .. a22 . . . . . . . .. .. . . .. .. 0 . . ann Hier ist die Determinante das Produkt der Diagonalelemente. Da die Dreiecksform auch für die Läsung von Gleichungssystemen vorteilhaft ist, wäre es nützlich, ein Verfahren zu haben, das dies leistet. Das Gauß-Verfahren ist ein solches Verfahren, das sich auch automatisieren lässt. Das Verfahren soll folgendes leisten: Aus der Matrix a11 ... a1n .. A = ... . an1 . . . ann soll in (n − 1) Schritten eine Diagonalmatrix entstehen. Die Schritte sind dabei 1. Schritt a11 0 .. . 0 a12 a122 .. . ... ... a1n2 . . . a1n a12n .. . a1nn Hier bezeichnen die Superskripte der Elemente den Schritt 2. Schritt a11 a12 . . . 0 a1 . . . 22 0 0 a233 .. .. . . 0 0 a2n2 10 ... ... ... .. . ... a1n a12n a23n .. . a2nn 1.5. Das Gauß-Verfahren 3. Schritt a11 a12 0 a1 22 0 0 .. .. . . 0 0 ... ... ... ... a233 . . . .. . ... 0 a1n a12n a23n .. . an−1 nn Um die Nullen unterhalb der Diagonale zu erzeugen, müssen folgende Rechnungen durchgeführt werden 1. Schritt: Zeilenumformungen, um unter a11 Nullen zu erzeugen ⇒ Die neuen Elemente der zweiten Zeile bis zur n-ten Zeile a21 a21 ! ⇒ a122 = a22 − a12 0 = a121 = a21 − a11 a11 a11 a21 1 a23 = a23 − a13 a11 ... a 21 a12n = a2n − a1n a11 .. . an1 an1 ! 1 0 = an1 = an1 − a11 ⇒ a1n2 = an2 − a12 a11 a11 an1 1 an3 = an3 − a13 a11 ... a n1 a1nn = ann − a1n a11 2. Schritt: Zeilenumformungen, um unter a122 Nullen zu erzeugen ! 0 = a232 = a132 − a122 a132 ⇒ a122 a233 = a133 − a123 a132 a122 ... a23n = a13n − a12n a132 a122 a2n3 = a1n3 − a123 a1n2 a122 .. . ! 0 = a2n2 = a1n2 − a122 a1n2 ⇒ a122 ... a2nn = a1nn − a12n a1n2 a122 11 1. Matrizen (n−2) (n-1). Schritt: Zeilenumformungen, um unter a(n−1)(n−1) Nullen zu erzeugen ! 0= an−1 n,(n−1) = an−2 n,(n−1) − an−2 n,(n−1) (n−2) a(n−1),(n−1) n−2 a(n−1),(n−1) ⇒ n−1 ann = n−2 ann − an−2 n,n−1 n−2 an−1,n n−2 an−1,n−1 Aus diesen Beziehungen lässt sich folgendes allgemeines Schema herleiten: Nach dem k-ten Schritt gilt akij = ak−1 ij − k−1 k−1 aik akj k−1 akk mit a0ij = aij (1.40) wobei folgende Indizes durchlaufen werden k = 1, . . . , n − 1 i = k + 1, . . . , n j = k, . . . , n Ein Problem taucht auf, wenn Diagonalelemente Null sind. Dem kann man dann mit Zeilenvertauschung abhelfen. Formuliert man ein lineares Gleichungssystem mit Hilfe von Matrizen, so ist nun leicht zu erkennen, daß in der Dreiecksform, die sich aus dem Gauß-Verfahren ergibt, die Lösung direkt abzulesen ist: In der letzten Zeile steht die Lösung für das letzte Element und durch Einsetzen in die jeweils darüber liegende Zeile ist es möglich auch für die anderen Komponenten die Lösung abzulesen. Die Berechnung der Determinanten der Dreiecksmatrix ist trivial: Das Produkt der Diagonalelemente ist die Determinante der Matrix. Unter Verwendung der Determinanteneigenschaften aus Kapitel 1.3.1, kann man dann den Transformationsfaktor für jeden Schritt des Gauß-Verfahrens bestimmen. 1.6. Cramersche Regel Das Gauß-Verfahren ist an sich sehr effizient bei der Lösung von Gleichungssystemen, aber auch bei der Berechnung von Determinanten. Es gibt allerdings zur Lösung linearer Gleichungssysteme ein weiteres Lösungsverfahren, daß auf der Berechnung von Determinanten fusst. Die sogenannte Cramersche Regel für Gleichungssysteme der Form A~x = ~b. |Ai | A~x = ~b ⇒ xi = |A a11 . . . .. mitAi = . an1 . . . 12 a1,i−1 .. . b1 .. . a1,i+1 .. . ... an,i−1 bn an,i+1 . . . a1n .. . ann 1.7. Transformation von Vektoren Dieses Verfahren funktioniert ohne dabei inverse Matrizen zu verwenden, dafür müssen natürlich mehrere Determinanten berechnet werden. Generell funktioniert das Verfahren folgendermaßen: Definiert man ein Xi 1 x1 .. .. . . 1 xi−1 det(Xi ) = xi xi Xi = xi+1 1 .. .. . . xn 1 wobei die Werte des Vektors ~x in der i-ten Spalte eingetragen sind. Damit ist dann AXi = Ai ⇒ det(AXi ) = det(A) · det(Xi ) = det(Ai xi det(A) |Ai | ⇒ xi = |A| = det(Ai ) 1.7. Transformation von Vektoren Aus den Rechenregeln für Matrizen können wir sehen, daß das Produkt einer (n × n) Matrix und eines Vektors aus Rn wiederum ein Rn Vektor ist. Daraus folgt, daß diese Matrizen als Transformationsmatrizen für Vektoren aufgefasst werden können. Als Beispiel betrachten wir die Matrizen 2 0 −1 0 0 −1 C= B= A= 0 1 0 1 1 0 Betrachten wir nun die Vektoren ~x = 1 1 ~y = 1 −1 Dann folgt −1 A~x = 1 1 A~y = 1 −1 B~x = 1 −1 B~y = −1 2 C~x = 1 2 C~y = −1 An Hand der Beispiele (s. Abb. 1.1) kann man erkennen, daß A eine Drehung beschreibt, B hingegen eine Spiegelung. C ist anscheinend eine Streckung. 13 1. Matrizen x2 x2 1 1 x1 1 1 x1 Abbildung 1.1.: Beispiele für die Transformation eines Vektors (s. Text). Links die Transformation des Vektors ~x, rechts ~y . Die durchgezogene Linie bezeichnet den ursprünglichen Vektor, gestrichelt A, Strichpunkt B, Punkt C. Im folgenden sollen nun die verschiedenen relevanten Verfahren zur Bestimmung von Transformationsmatrizen vorgestellt werden. Dabei geht es im wesentlichen um Drehungen und Spiegelungen. Hier werden nicht nur Vektoren transformiert, sondern in manchen Fällen die Koordinatensysteme. Die Anwendung in der Physik ist offensichtlich: Die Beschreibung physikalischer Systeme ist nicht in jedem Koordinatensystem gleich schwierig. 1.7.1. Drehung eines Vektors Die Drehung eines Vektors, wie in Abb. 1.2 dargestellt, ist graphisch einfach darstellbar. Die wichtigste Eigenschaft ist dabei die Erhaltung der Länge des Vektors. Grundsätzlich lassen sich folgende Relationen feststellen v = |~v | = |~v 0 | α = α1 + α2 v1 = v sin α1 v2 = v cos α1 v10 = −v sin α2 v20 = v cos α2 Die Vorzeichen vor den Komponenten des gedrehten Vektors ergeben sich hier aus der umgekehrten Drehrichtung des Winkels α2 . Mit Hilfe der Additionstheoreme sin(α ± β) = sin α cos β ± sin β cos α cos(α ± β) = cos α cos β ∓ sin α sin β 14 1.7. Transformation von Vektoren x2 a v v’ a 1 a 2 x1 Abbildung 1.2.: Drehung eines Vektors ~v um den Winkel α 15 1. Matrizen kann man nun die Winkel α1 und α2 zusammenführen sin α = sin(α1 + α2 ) = sin α1 cos α2 + sin α2 cos α1 v2 v10 v1 v20 − v v v v cos α = cos(α1 + α2 ) = cos α1 cos α2 − sin α1 sin α2 = v2 v20 v1 v10 + v v v v ⇒ v1 v20 = v 2 sin α + v2 v10 = v 2 cos α = v2 v20 + v1 v10 2 2 ⇒ v1 v cos α = v2 v sin α + | · v1 v22 v10 | + v2v0 {z 1 }1 v 2 v10 ⇒ v10 = v1 cos α − v2 sin α v20 = v1 sin α + v2 cos α Dieses Ergebnis können wir nun als Matrix formulieren 0 v1 cos α − sin α v1 = sin α cos α v2 v20 (1.41) 1.7.2. Drehung des Koordinatensystems Mit der hier beschriebenen Methodik können wir nun beschreiben, wie man einen Vektor in einem bestehenden Koordinatensystem dreht. Tatsächlich benötigt man die Drehung eines Koordinatensystems bei gleichem Vektor häufiger. Der Hintergrund dafür ist meist, daß ein gegebener physikalischer Zustand (also der Vektor) in anderen Koordinaten beschrieben werden soll. Diesen Umstand beschreiben wir nun folgendermaßen 0 v1 v ~v = = 10 v2 K v2 K 0 Der Vektor bleibt also gleich (s. Abb. 1.3) nur seine Darstellung ändert sich Es gilt v1 = v cos β v2 = v sin β v10 = v cos(β − α) = v cos β cos α + v sin β sin α v20 = v sin(β − α) = v sin β cos α − v cos β sin α ⇒ v10 = v1 cos α + v2 sin α v20 = −v1 sin α + v2 cos α 16 1.7. Transformation von Vektoren x2 x 2‘ v2 v v1’ v2’ x 1‘ a v b 1 x1 Abbildung 1.3.: Drehung eines Vektors ~v um den Winkel α 17 1. Matrizen Also gilt 0 v1 cos α sin α v1 = 0 v2 K 0 − sin α cos α v2 K (1.42) Diese Drehmatrix dreht nun das Koordinatensystem. Der Vektor bleibt dabei erhalten, aber seine Darstellung ändert sich. Tatsächlich unterscheidet sich diese Drehmatrix von der Drehmatrix zur Drehung von Vektoren nur durch das Vorzeichen des Drehwinkels. 1.7.3. Darstellung in 3D Die bisherige Darstellung der Drehung erfolgte immer nur in 2D. In 3D kann man die oben gemachten Rechnung analog ausführen und erhält für die Drehungen des Koordinatensystems um die Koordinatenachsen folgendes 1 0 0 x1 -Achse Dx1 = 0 cos α sin α (1.43) 0 − sin α cos α cos α 0 − sin α 1 0 x2 -Achse Dx2 = 0 (1.44) sin α 0 cos α cos α sin α 0 x3 -Achse Dx3 = − sin α cos α 0 (1.45) 0 0 1 Stellt man nun die Einheitsvektoren des neuen Koordinatensystems im alten Koordinatensystem dar (Abb. 1.4), so erhält man (hier ist die Drehung um die x1 -Achse angenommen 0 ~e02 = cos α (1.46) sin α 0 (1.47) ~e03 = − sin α cos α Analog gilt für die x2 -Achse cos α ~e01 = 0 − sin α sin α ~e03 = 0 cos α 18 (1.48) (1.49) 1.7. Transformation von Vektoren x3 x 3‘ e3 e3’ x 2‘ e2’ e2 x2 x1 Abbildung 1.4.: Einheitsvektoren von Ausgangs-KS und gedrehtem KS bei Drehung um x1 und die x3 -Achse cos α ~e01 = sin α 9 − sin α ~e02 = cos α 0 (1.50) (1.51) Die Einheitsvektoren des gedrehten Koordinatensystems K 0 sind gleich den Zeilen der Drehmatrix, die K in K 0 überführt. Welches ist nun die Matrix, mit der man K 0 in K überführt? Beispiel cos α sin α 0 Dx3 = − sin α cos α 0 0 0 1 19 1. Matrizen Das Inverse kann man mit der Formel 1.39 berechen (D−1 x3 )ij = (−1)i+j ∆ji |Dx3 | |Dx3 | = cos2 α + sin2 α = 1 Wobei die Unterdeterminanten ∆11 = cos α ∆12 = − sin α ∆13 = 0 ∆21 = sin α ∆22 = cos α ∆23 = 0 ∆31 = 0 ∆32 =0 ∆33 = 0 Daraus folgt D−1 x3 cos α − sin α 0 = sin α cos α 0 0 0 1 (1.52) Diese Matrix erfüllt D−1 = DT . Matrizen der Inverses ihrer Transponierten entspricht heißen orthogonal. Folgerungen • Drehmatrizen haben die Determinante 1 • Drehmatrizen sind orthogonale Matrizen mit D−1 = DT • Die Einheitsvektoren des Koordinatensystems K 0 sind die Zeilen von D, die K in K 0 überführt • Die Einheitsvektoren des Koordinatensystems K sind die Spalten von D, die K in K 0 überführt 1.7.4. Eigenschaften von Drehungen Aus der Tatsache, daß die Zeilen der Drehmatrix K 0 in K enthält, folgt 0 ~e1 · ~e1 ~e01 · ~e2 U = ~e02 · ~e1 ~e02 · ~e2 ~e03 · ~e1 ~e03 · ~e2 für K → K 0 die Einheitsvektoren von ~e01 · ~e3 ~e02 · ~e3 ~e03 · ~e3 mit ~e0i · ~ej = Uij = cos ](~e0i , ~ej ). Da die ~e0i , ~ei Einheitsvektoren ⇒ 3 X k=1 20 u2ik = 1 für i = 1, 2, 3 1.7. Transformation von Vektoren Außerdem sind sie orthogonal zueinander ⇒ 3 X uik ujk = 1 für i = 1, 2, 3 i 6= j k=1 also ⇒ 3 X uik ujk = δij k=1 Die Matrix der Drehung hat 9 Elemente, 6 davon sind durch die vorangegangenen Bedingungen definiert. Damit bleiben 3 wahlfreie Eelemente. Satz: Jede Drehung im R3 lässt sich durch drei Einzeldrehungen um die Koordinatenachsen erzeugen U11 U12 U13 (1.53) U = U21 U22 U23 U31 U32 U33 = D1 (α)D2 (β)D3 (γ) (1.54) cos β cos γ cos β sin γ − sin β = − cos α sin γ + sin α sin β cos γ cos α cos γ + sin α sin β sin γ sin α cos β sin α sin γ + cos α sin β cos γ − sin α cos γ + cos α sin β sin γ cos α cos β (1.55) Die drei Winkel α, β, γ liefern somit die drei Bedingungen für die drei letzten Elemente. Die Wahl genau dieser drei Winkel ist dabei nicht zwingend. Alternativ werden häufig die Eulerschen Winkel verwendet. Statt dreimal um die Koordinatenachsen zu drehen kann man auch um eine beliebige Achse drehen. Hier ergeben sich die drei Elemente aus der Richtung der Drehachse und dem Winkel. Da die Länge der Drehachse keine Rolle spielt, ergeben sich aus der Achse selber nur zwei Komponenten. Es gilt dabei 1 1 cos ϕ = (Spur(U) − 1) = (U11 + U22 + U 33 −1) {z } 2 2 | (1.56) Spur(U) T = U + UT − (Spur(U) − 1)1 T13 T23 T33 ist die Drehachse (1.57) (1.58) Beispiel 45 −108 44 1 60 −19 −108 U= 125 100 60 45 |U| = 1 21 1. Matrizen Für die Einheitsvektoren gilt 45 1 −108 ~e01 = 125 44 60 1 −19 ~e02 = 125 −108 100 1 60 ~e03 = 125 45 Die Drehachse und der Drehwinkel lassen sich nun berechnen 1 71 Spur U = (45 − 19 + 45) = 125 125 1 71 125 ⇒ cos ϕ = ( − ) = −0.216 2 125 125 ⇒ ϕ = 102.47◦ 144 −48 144 1 −48 16 −48 T= 125 144 −48 144 1 144 −48 144 Drehachse 125 1 3 −1 3 Einheitsvektor √ 19 Die Drehmatrix lässt sich dann unter Kenntnis von Drehachse und Drehwinkel bestimmen. d~ sei der Einheitsvektor entlang der Drehachse und ϕ der Drehwinkel X U = Uij = di dj + cos ϕ(δij − di dj ) − sin φ ijk dk k Beispiel 1 27 3 −1 3 d~ = √ cos ϕ = − 125 19 9 −3 9 1 −3 1 −3 ⇒ di dj = 19 9 −3 9 10 3 −9 27 3 18 3 cos ϕ(δij di dj ) = − 125 · 19 −9 3 10 q 27 2 0 3 1 − 1 − ( 125 ) X −3 0 3 √ sin ϕ ijk dk = 19 k −1 −3 0 1.8. Spiegelung, Drehspiegelung, Inversion Die bisher betrachteten Transformationen hatten insbesondere gemein, daß die Determinante ihrer Transformationsmatrix 1 war. Das bedeutet insbesondere, daß die Länge von Vektoren erhalten bleibt und sich die Händigkeit des Koordinatensystems nicht ändert. 22 1.8. Spiegelung, Drehspiegelung, Inversion x3‘=x3 x3 Spiegelung x2 x2‘ x1 x1‘=x1 Abbildung 1.5.: Spiegelung an der x1 − x3 -Ebene Der nächste Schritt ist nun die Betrachtung von Transformationen mit Determinante -1. Damit bleibt zwar weiterhin die Länge von Vektoren erhalten, die Händigkeit des Systems ändert sich aber. Neben der anschaulichen Bedeutung der Händigkeit gibt es natürlich auch eine mathematischere Definition: Die Händigkeit eines Koordinatensystems lässt sich aus dem Kreuzprodukt seiner Einheitsvektoren ablesen. Für ein rechtshändiges Koordinatensystem gilt ~ei × ~ej = ijk (1.59) wobei ijk der Epsilon-Tensor oder auch das Levi-Civita-Symbol ist. 1.8.1. Spiegelung Die Transformationsmatrix für die Spiegelung ist die Einheitsmatrix mit einer -1 in der Zeile, die der gespiegelten Achse entspricht. BeispielSpiegelung an der x1 − x3 -Ebene (s. Abb. 1.5) 1 0 0 S = 0 −1 0 0 0 1 Hier wird nun aus dem ursprünglich rechtshändigen ein linkshändiges Koordinatensystem. 23 1. Matrizen x3 Inversion x1‘ x2 x2‘ x1 x3‘ Abbildung 1.6.: Inversion 1.8.2. Inversion Bei der Inversion werden alle Achsen gespiegelt (s. Abb. 1.6) −1 0 0 I = 0 −1 0 0 0 −1 (1.60) 1.8.3. Drehspiegelung Die Drehspiegelung ist letztlich nur eine Kombination von Drehung und Spiegelung BeispielDrehung um x3 , Spiegelung von x2 1 0 0 cos α sin α 0 cos α sin α 0 0 −1 0 − sin α cos α 0 = sin α − cos α 0 0 0 1 0 0 1 0 0 1 Siehe auch Abb. 1.7 24 1.8. Spiegelung, Drehspiegelung, Inversion x3 x3‘’=x3 SD x2‘’ x2 x1‘’ x1 x3‘=x3 S D x2‘ x1‘=x1 Abbildung 1.7.: Drehung um x3 , Spiegelung von x2 25 1. Matrizen 1.9. Eigenwerte und Eigenvektoren In den vorhergehenden Abschnitten haben wir gesehen, daß man das Produkt aus Matrix und Vektor als Transformation eines Vektors betrachten kann. Nun gibt es Transformationen, für die gilt A~x = λ~x (1.61) Die Transformation eines Vektors ergibt also ein skalares Vielfaches des Vektors selber. Man erkennt leicht, daß für Drehmatrizen die Drehachse ein Vektor ist, der solch eine Relation erfüllt. Die Gleichung dazu bezeichnet man als Eigenwertgleichung. Ein typisches Beispiel für die Anwendung dieser Gleichung ist z.B. das Trägheitsmoment ~ = I~ L ω ~ = mr2 ω ergibt sich eine Eigenwertgleichung. mit L Die grundsätzliche Idee findet dann später auch in der Quantenmechanik Anwendung, wo in der Schrödinger-Gleichung HΨ = EΨ H ein Operator ist, dessen Eigenwerte bestimmt werden. Die Idee des Eigenwerts soll nun am Beispiel von harmonischen Oszillatoren beschrieben werden. Von den HO ist bekannt, daß sie charakteristische Frequenzen haben. Deren Verbindung mit Eigenwerten leiten wir nun her. Die gedämpfte Schwingung wird durch folgende DGL beschrieben mẍ(t) = −cx(t) − β ẋ(t) r c ω0 = m ẋ = v γ= β m Damit lässt sich diese DGL zweiter Ordnung als Vektor von DGL erster Ordnung schreiben d x x 0 1 ẋ = v ↔ = 2 2 v −ω0 −γ v̇ = −ω0 − γv dt v Um diese Gleichung zu lösen, machen wir uns nun das Wissen zu Nutze, daß die Lösung als gedämpfe Schwingung geschrieben werden kann x(t) = x0 eλt v(t) = v0 eλt Damit ergibt sich dann die Gleichung x 0 1 x0 λt λ 0 eλt = e v0 −ω02 −γ v0 x0 0 1 x0 λ = v0 −ω02 −γ v0 26 1.9. Eigenwerte und Eigenvektoren Offensichtlich ist es also möglich, auch aus einer DGL eine Matrixgleichung zu entwickeln. Wie lösen wir nun im Allgemeinen Gleichungen der Form A~x = λ~x (1.62) mit n × n Matrizen A, Vektoren der Länge n und λ ∈ C. Es zeigt sich, daß es für λ insgesamt ≤ n verschiedene Lösungen ∈ C gibt. λ = 0 ist die Triviallösung, die keine weitere Beachtung findet. Um das System zu lösen, schreiben wir es als (A − λ1)~x = 0 um. Daraus kann man ablesen, daß, wenn (A − λ1)−1 existieren würde, die Lösung (A − λ1)−1 (A − λ1)~x = 0 ⇒ 1~x = 0 wäre. Die Existenz des Inversen führt also immer nur zur Triviallösung. Wir suchen also eine nicht-invertierbare Matrix. Eine Matrix ist aber genau dann nicht invertierbar, wenn ihre Determinante Null ist |A − λ1| = 0 Definition Lösungen des Polynoms n-ten Grades a11 − λ a12 ... a21 a22 − λ . . . |A − λ1| = . .. . . . an1 an2 ... = Pn (λ) = 0 ann − λ a1n a2n .. . (1.63) heißen Eigenwerte der Matrix A. Pn (λ) hat nach dem Hauptsatz der Algebra n Lösungen in C, die aber nicht verschieden sein müssen (entartete Eigenwerte). Aus den Eigenwerten λ lassen sich die Eigenvektoren xλ ermitteln (bis auf konstante Faktoren) Beispiel 7 4 4 1 7−λ 4 = (7 − λ)(1 − λ) − 16 = 0 4 1−λ A= ⇒ |A − λ1| = λ1,2 = λ2 − 8λ − 9 = 0 √ = 4 ± 16 + 9 = 4 ± 5 λ1 = 9 λ2 = 1 27 1. Matrizen Die berechneten Eigenwerte werden nun in die Eigenwertgleichung eingesetzt, um nach dem Eigenvektor zu lösen −2xλ1 ,1 4xλ1 ,2 λ1 = 9 ⇒ (A − 91)xλ1 = =0 4xλ1 ,1 −8xλ1 ,2 ⇒ −2xλ1 ,1 + 4xλ1 ,2 = 0 Beide Zeilen sind linear unabhängig, damit kann man eine Komponente willkürlich festlegen xλ1 ,2 = 1 ⇒ xλ1 ,1 = 2 2 ~xλ1 = 1 Für den Eigenwert λ2 = −1 folgt dann ~xλ2 = 1 −2 Man stellt fest, daß ~xλ1 · ~xλ2 = 0 gilt. Die Eigenvektoren stehen senkrecht aufeinander. Kommen wir zurück zum physikalischen Beispiel: 0 1 ⇒ |A − λ1| = 0 A= −ω02 −γ λ2 + γλ + ω02 = 0 r γ2 γ λ1,2 = − ± − ω02 2 4 Das sind die bekannten Lösungen für ein Pendel. Man findet λ1 = λ∗2 Nun noch zu einem komplexeren Beispiel 2 −1 2 A = −1 2 −2 2 −2 5 ⇒ |A − λ1| = 0 = λ3 − 9λ2 + 15λ − 7 λ1 = 7 ist offensichtlich eine Nullstelle. Nach Polynomdivision verbleibt λ2 − 2λ + 1 = 0 ⇒ λ2 = λ3 = 1 Das ist eine entartete Nullstelle! Für λ1 = 7 findet man den Eigenvektor (1, −1, 2). Für λ2 = λ3 = 1 erhält man die Bestimmungsgleichung x1 − x2 + 2x3 = 0 28 1.9. Eigenwerte und Eigenvektoren Damit kann man zwei Komponenten willkürlich und unterschiedlich wählen 1 −2 0 x λ2 = 1 x λ3 = 0 1 Es gilt xλ1 · xλ3 = 0 und xλ1 · xλ2 = 0. xλ2 und xλ3 müssen nicht orthogonal zueinander sein, es finden sich aber orthogonale Lösungne. Behalten wir xλ1 und nennen es ~y1 . xλ2 steht schon senkrecht auf xλ1 , daher behalten wir es ebenfalls und nennen es ~y2 . Damit bleibt xλ3 übrig, das zwar auf ~y1 senkrecht steht, nicht aber auf ~y2 . ~y3 = xλ3 + αxλ2 ist aber auch ein Eigenvektor. Wir suchen jetzt ein α für das gilt ~y3 · ~y2 = (xλ3 + αxλ2 ) · xλ2 = 0 1 ⇒ ~y1 = −1 2 ⇒ −2 + 2α = 0 ⇒ α = 1 1 −1 1 ~y2 = 1 ~y1 = 0 1 1.9.1. Eigenschafte der Eigenwerte |A| = Spur A = n Y α=1 n Y λα (1.64) λα (1.65) α=1 Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig. Eigenwerte reeller symmetrischer Matrizen sind reell, ebenso für hermitesche Matrizen (hermitesch: A = A† ⇔ aij = a∗ji ). Eigenvektoren reel-symmetirscher Matrizen stehen paarweise senkrecht zueinander. 29 2. Vektoranalysis Mit der Kenntnis der linearen Algebra und insbesondere der Kenntnis der Matrizenrechnung können wir uns nun erheblich detaillierter mit den Funktionen mehrerer Veränderlicher beschäftigen. Wir erinnern uns an den Nabla-Operator ∂ ∂ ∂ , , (2.1) ∇= ∂x1 ∂x2 ∂x3 und an die Ableitung eines Vektorfeldes ∂A1 ... ∂x1 .. 0 A = . ∂An ∂x1 ... ∂A1 ∂xm .. ⇒ A0 = ∂Ai ij . ∂xj ∂A (2.2) n ∂xm die sogenannte Jacobi- oder Funktionalmatrix. Ebenfalls haben wir die Hesse-Matrix eines Skalarfeldes kennengelernt ∂2Φ ∂2Φ . . . 2 ∂x ∂x m 1 2 ∂x. 1 .. ⇒ Hij = ∂ Φ . H= (2.3) . . ∂xi ∂xj 2 2 ∂ Φ ∂ Φ ∂x1 ∂xm . . . ∂x2 m Was können wir mit unserem Wissen über Matrizen nun anfangen? Wir erinnern uns an lokale Extreme: Gegeben sei eine Funktion Φ(~r) : Rn → R und es sei ∇Φ(~r) = 0 an der Stelle ~r0 , dann lässt sich die Hesse-Matrix bestimmen. Mit der Kenntnis der Eigenwerte lässt sich jetzt sagen Eine Matrix ist positiv definit, wenn alle Eigenwerte positiv sind. Beispiel: Φ(~r) = x21 + x1 x2 + x22 + x1 + x2 + 1 ∇Φ = 2.1. Skalar- und Vektorfelder Die Unterscheidung von Skalar- und Vektorfelder ist erst einmal trivial: Skalarfelder ordnen jedem Punkt des Raums ein Skalar zu, Vektorfelder einen Vektor. Dabei ist es üblicherweise so, daß Vektorfelder eine Abbildung Rn → Rn sind. Dies ist aber nicht notwendigerweise so. Typische Beispiele sind: 31 2. Vektoranalysis Abbildung 2.1.: Gemeinsame Darstellung eines Vektor- und eines Skalarfeldes: In Blau und Rot ist im Hintergrund eine Dichteverteilung dargestellt. Blau sind Gebiete niedriger Dichte, Rot hoher Dichte. Darüber gelegt ist ein Geschwindigkeitsfeld: Die Pfeile geben die Richtung an, die Farbe die Länge des Vektors Skalarfelder Temperatur, Ladungsdichte, Massendichte, elektrisches Potential, Luftdruck Vektorfelder Strömung, Stromdichte, elektrisches/magnetisches Feld, magnetisches Potential Typischerweise werden Skalarfelder durch farbige Darstellungen oder Höhenlinien dargestellt, Vektorfelder hingegen durch Pfeildarstellungen. 2.2. Gradient, Divergenz, Rotation Der Nabla-Operator ist aus dem vergangenen Semester schon bekannt ∇= ∂ ∂x1 ∂ ∂x2 ∂ ∂x3 (2.4) Damit ist auch direkt die einfachste Anwendung des Nabla-Operators definiert: Der Gradient. 2.2.1. Gradient Mathematisch gesehen ist der Gradient die Anwendung des Nabla-Operators auf ein Skalarfeld. Anschaulich stellt der Gradient die Richtungsableitung entlang der Koordi- 32 2.2. Gradient, Divergenz, Rotation natenachsen dar ∇Φ = ∂Φ ∂x1 ∂Φ ∂x2 ∂Φ ∂x3 (2.5) Der Zusammenhang mit der Richtungsableitung in Richtung des normierten Vektors ~n ist nun der folgende ∂Φ Φ(~r + ~n) − Φ(~r) = = ∇Φ · ~n ∂~n |~n| (2.6) Beispiel Φ(x1 , x2 , x3 ) = x21 + 3x2 x23 ⇒ ∇Φ = (2x1 , 3x23 , 6x2 x3 ) 2.2.2. Divergenz Die Divergenz ist das Skalarprodukt aus Nabla-Operator und Vektor ∂ A1 ∂x1 ∂ ~ ∇ · A = ∂x2 · A2 ∂ A3 ∂x (2.7) 3 ∂A1 ∂A2 ∂A3 + + (2.8) = ∂x1 ∂x2 ∂x3 Neben der mathematischen Herleitung hat die Divergenz natürlich auch eine physikalische Bedeutung: Mit der Divergenz sind Quellen und Senken eines Feldes verknüpft. Zur Illustration ist in Abb. 2.2 die Strömung entlang der x1 -Achse durch einen Würfel ~ r) = n(~r)~v (~r) ein Strom, der sich aus Teilchenzahl und Strömungsdargestellt. Dabei sei A(~ geschwindigkeit zusammensetzt. Mit ∆N + Teilchen pro ∆tin ∆V ∆N − Teilchen pro ∆taus ∆V kann man jetzt die Teilchenänderung im Volumen ∆V bestimmen ∆x1 ∆N + = A1 (x1 − )∆F ∆t 2 ∂A1 ∆x1 ≈ A1 (x1 ) − . . . ∆F ∆t ∂x1 2 ∆x1 ∆N − = A1 (x1 + )∆F ∆t 2 ∂A1 ∆x1 ≈ A1 (x1 ) + . . . ∆F ∆t ∂x1 2 ∆N = ∆N + − ∆N − ∂A1 ∂A1 =− ∆x1 ∆F ∆t = − ∆V ∆t ∂x1 ∂x1 33 2. Vektoranalysis A1(x1+D x1/2) A1(x1-D x1/2) D x1 Abbildung 2.2.: Fluß entlang der x1 -Achse durch einen Würfel mit der Breite ∆x1 und einer Querschnittsfläche ∆F . Nun kann man den Übergang von endlichen Volumen und endlichen Zeit zu infinitesimalen Volumina und Zeiten machen lim ∆V →0,∆t→0 = ∆N ∆V ∆t =− ∂A1 ∂x1 Damit folgt dann, wenn man dieselbe Betrachtung für alle Dimensionen durchführt ∂n ∂n = ∂t A~ ∂t ∂A1 ∂A2 ∂A3 =− + + ∂x1 ∂x2 ∂x3 ~ = −∇ · A Über die Divergenz ist es also möglich die Teilchenzahländerung in einem Volumen durch eine Strömung zu bestimmen. Dies führt dann zur Kontinuitätsgleichung ∂n ~=0 +∇·A ∂t (2.9) Allgemeiner kennzeichnet die Divergenz die Quellen eines Feldes 34 ~=0⇒ ∇·A ~>0⇒ ∇·A quellenfrei ~<0⇒ ∇·A Senke Quelle 2.2. Gradient, Divergenz, Rotation 2.2.3. Rotation Die letzte Operation mit dem Nabla-Operator ist das Kreuzprodukt von Nabla und einem Vektorfeld ~= ∇·A ∂ ∂x∂ 1 ∂x2 ∂ ∂x3 = ∂A3 ∂x2 ∂A ∂x31 ∂A2 ∂x1 A1 × A2 A3 2 − ∂A ∂x3 3 − ∂A ∂x1 1 + ∂A ∂x2 (2.10) (2.11) Den Sinn dieser sog. Rotation erkennt man nicht auf Anhieb, aber über eine Hilfskonstruktion kann man ihr eine physikalische Bedeutung geben. Im Rahmen der Betrachtung ˆ = 0 gilt. Wie kann man nun der Divergenz hat sich gezeigt, daß für quellfreie Felder ∇·~A ˆ konstruieren ~ quellfreie Felder konstruieren? Über ein Hilfsfeld A kann man sich nun~A Âi = X aijk j,k ∂Ak ∂xj X ∂ X ∂Ak ˆ = ∇ ·~A aijk ∂xi ∂xj i = X aijk i,j,k j,k ∂2A k ∂xi ∂xj =0 ˆ mit Es zeigt sich, daß für aijk = ijk die Gleichung erfüllt ist. Und es gilt, jedes Feld~A ˆ = ~A X i,j,k ijk ∂Ak ~ =∇×A ∂xj ist quellenfrei. 2.2.4. Rechenregeln Rechenregeln für den Nabla-Operator lassen sich formal aus den Rechenregeln für Skalarund Kreuzprodukt zusammen mit den Ableitungsregeln herleiten. Dabei muss man die Produktregel anwenden, wenn der Nabla-Operator links von einem Produkt steht. 35 2. Vektoranalysis ~ und B ~ Vektorfelder, so gilt: Sind ψ, ϕ und f Skalarfelder (Funktionen) und A ~ ~ + ϕ∇ψ ~ ∇(ψϕ) = ψ ∇ϕ ~ A ~ · B) ~ = (A ~ · ∇) ~ B ~ + (B ~ · ∇) ~ A ~+A ~ × (∇ ~ × B) ~ +B ~ × (∇ ~ × A) ~ ∇( ~ · (ϕA) ~ = ϕ∇ ~ ·A ~+A ~ · ∇ϕ ~ ∇ ~ · (A ~ × B) ~ =B ~ · (∇ ~ × A) ~ −A ~ · (∇ ~ × B) ~ ∇ (2.12) (2.13) (2.14) (2.15) ~ · (∇ϕ) ~ ∇ = div (grad ϕ) = ∆ϕ ~ · (∇ ~ × A) ~ = div (rot A) ~ =0 ∇ ~ × (∇ϕ) ~ ∇ = rot (grad ϕ) = 0 (2.16) (2.17) (2.18) ~ × ϕA ~ = ϕ∇ ~ ×A ~−A ~ × ∇ϕ ~ ∇ ~ × (A ~ × B) ~ = (B ~ · ∇) ~ A ~ − B( ~ ∇ ~ · A) ~ + A( ~ ∇ ~ · B) ~ − (A ~ · ∇) ~ B ~ ∇ (2.20) ~ × (∇ ~ × A) ~ = rot (rot A) ~ = grad (div A) ~ − ∆A ~ ∇ (2.21) (2.19) (Abschnitt ist aus der Wikipedia entnommen) 2.3. Koordinatensystem (Wiederholung) Physikalische Probleme lassen sich auf verschiedene Weisen mit Hilfe von Koordinaten beschreiben. Dabei zeigt sich, daß wenn die Koordinaten dem Problem und insbesondere seinen Symmetrien angepasst sind, die mathematische Beschreibung meist sehr viel einfacher wird. Es ist z.B. leicht einzusehen, daß eine Beschreibung von Planetenbahnen in kartesischen Koordinaten problematisch ist. Noch deutlich wird es allerdings, wenn man die Bewegung eines Körpers auf einer Kugeloberfläche betrachtet: Bei Verwendung kartesischer Koordinaten ist man auf 3 Raumkoordinaten angewiesen, während man bei Verwendung von Kugelkoordinaten sich auf zwei Winkelkoordinaten beschränken kann. Die kartesischen Koordinaten haben dennoch eine herausragende Stellung, was insbesondere an ihrer Symmetrie liegt. Im folgenden sollen noch einmal die beiden anderen relevanten Koordinatensysteme vorgestellt werden und ihre zentralen Eigenschaften. Aufbauend darauf werden im nächsten Abschnitt dann die dazugehörigen Differentialoperatoren dargestellt. Alle hier vorgestellten Koordinatensysteme sind orthogonale Koordinatensysteme, dies ist keine zwingende Eigenschaft für ein Koordinatensystem, aber eine überaus praktische. Definition Lässt sich jeder Vektor ~u eines Vektorraums V über den Körper K als Linearkombination ~u = u1~v1 + u2~v2 + · · · + un~vn = n X ui~vi i=1 ui ∈ K 36 ~vi ∈ V (2.22) 2.3. Koordinatensystem (Wiederholung) einer Menge B = {~v1 , . . . , ~vn }, n ∈ N linear unabhängiger Vektoren darstellen, so ist B eine Basis von V . Die Abbildung ΦB : Rn → V ; ΦB (u1 , . . . , un ) = ~u heißt Koordinatensystem. Die Basisvektoren eines Koordinatensystems lassen sich nun mit dieser Definition bestimmen. In kartesischen Koordinaten gilt allgemein X ~u = ui~ei i X ∂~u ⇒ d~u = ( )dui ∂ui i X ∂~u = | | e~i dui ∂u i | {zi} =1 X = dui~ei i Damit lässt sich aus d~u/dui jeder Basisvektor bestimmen. In diese Rechnung ist eingegangen, daß die Basisvektoren nicht von den Koordinaten abhängen. Dies ist in krummlinigen Koordinaten meist anders X ~u = ui~e~ui i X ∂~u ⇒ d~u = ( )dui ∂ui i X ∂~u | ~eui dui = | ∂u i | {zi} i.A. 6=1 = ⇒ ~eui = X dui~eui i ∂~ u ∂ui ∂~ u | ∂u | i Auf diese Weise lassen sich dann die Basisvektoren berechnen. Der Term gui = | ∂~u | ∂ui (2.23) Heißt dabei Metrikkoeffizient. Seine anschauliche Bedeutung ist dabei der zurückgelegte Weg für eine infinitesimale Änderung entlang des Einheitsvektors ~eui . Direkt damit verbunden ist auch die sogenannte Funktionaldeterminante zu bestimmen. Diese wird im weiteren benötigt, um die Integration in krummlinigen Koordinaten durchzuführen. Dabei ist zu beachten, daß nur in kartesischen Koordinaten das Integrationsgebiet aus inifinitesimalen Würfeln besteht. In krummlinigen Koordinaten. Für die 37 2. Vektoranalysis korrekte Beschreibung der Integration nimmt man an, daß man ein kartesisches Koordinatensystem und ein anderes Koordinatensystem hat ~r : (x, y, z) ↔ (u, v, w) Jeder Punkt soll in beiden Koordinatensystem eindeutig definiert sein, damit muß es bijektive Funktionen u = u(x, y, z) v = v(x, y, z) w = w(x, y, z) geben. Daraus lässt sich wiederum durch Taylor-Entwicklung die Änderung der u, v, w zu bestimmen ∆u = u(x + ∆x, y + ∆y, z + ∆z) = (∂x u)∆x + (∂y u)∆y + (∂z u)∆z ∆v = · · · = (∂x v)∆x + (∂y v)∆y + (∂z v)∆z ∆u = . . . (∂x w)∆x + (∂y w)∆y + (∂z w)∆z Dies lässt sich vereinfacht als Funktionaldeterminante schreiben ∂x u ∂y u ∂z u ∂(u, v, w) = ∂x v ∂y v ∂z v ∂(x, y, z) ∂x w ∂y w ∂z w Damit hat man nun einen Mechanismus an der Hand, um die infinetisimale Veränderung von (u, v, w) mit (x, y, z) zu beschreiben (Tatsächlich kann man diesen Zusammenhang auch durch das Produkt der Metrikkoeffizienten bestimmen). Dies kann man dann im nächsten Schritt verwenden, um das Volumenelement der Integration zu bestimmen. φ(x, y, z) → φ(x(u, v, w), . . . ) = φ̃(u, v, w) Z Z ∂(u, v, w) φ(x, y, z)dxdydz = φ̃(u, v, w) dudvdw ∂(x, y, z) V V = gu gv gw φ̃(u, v, w) (2.24) (2.25) (2.26) Die Funktionaldeterminante ergibt also die Größe des Volumenelements eines bestimmten Koordinatensystems. 2.3.1. Kartesische Koordinaten Die Vectordarstellung ist x1 ~r = x1~e1 + x2~e2 + x3~e3 = x2 x3 (2.27) Eine Transformation in kartesische Koordinaten erübrigt sich. Die Funktionaldeterminante ist natürlich 1. 38 2.3. Koordinatensystem (Wiederholung) π 3/2 π P(r,φ,z) φ r z 0 1/2 π Abbildung 2.3.: Darstellung der Zylinderkoordinaten. In der x, y-Ebene beschreiben r und ϕ einen Punkt, z dann seine Höhe über der Ebene. (Quelle: Wikipedia) 2.3.2. Zylinderkoordinaten Zylinderkoordinaten ergeben sich aus den ebenen Polarkoordinaten durch Hinzufügen einer weiteren (kartesischen) Achse. In Abb. 2.3 sind die Koordinaten dargestellt. Für die Achsen werden meist die Bezeichner (ρ, ϕ, z) oder (r, ϕ, z) verwendet. Es gilt ~r = ρ~eρ + z~ez (2.28) (Dies ist auch der Grund, wieso üblicherweise ρ als Achsenname benutzt wird: r ist die Länge des Vektors). Die kartesischen Koordinaten ergeben sich aus den Zylinderkoordinaten durch x = ρ cos ϕ (2.29) y = ρ sin ϕ (2.30) z=z (2.31) Um die Zylinderkoordinaten aus kartesischen Koordinaten zu gewinnen, geht man folgendermaßen vor p ρ = x2 + y 2 (2.32) z=z ( arccos xρ ϕ= 2π − arccos xρ (2.33) für y ≥ 0 für y < 0 (2.34) 39 2. Vektoranalysis Dabei ist hier der Winkel zwischen [0, 2π] definiert. Viele Programmiersprachen besitzen eine Funktion atan2 um die Fallunterscheidung beim Winkel zu umgehen. Aus der Umrechnung der Koordinatensysteme lassen sich nun auch die Einheitsvektoren bestimmen (hier nur für Polarkoordinaten vorgerechnet, da die z-Achse sich nicht ändert) ~r = x~ex + y~ey = ρ cos ϕ~ex + ρ sin ϕ~ey ∂~r ∂~r ⇒ = cos ϕ~ex + sin ϕ~ey ⇒ | | = gρ = 1 ∂ρ ∂ρ ∂~r ∂~r = −ρ sin ϕ~ex + ρ cos ϕ~ey ⇒ | | = gϕ = ρ ∂ϕ ∂ϕ ⇒ ~eρ = cos ϕ~ex + sin ϕ~ey ~eϕ = − sin ϕ~ex + cos ϕ~ey Hier kann man auch die Bedeutung des Metrikkoeffizienten gϕ erkennen: Eine Bewegung entlang ~eϕ ist offensichtlich eine Kreisbewegung, damit ist der zurücklegte Weg ein Kreissegment der Länge ρ∆ϕ. Für die Funktionaldeterminante gilt cos ϕ −ρ sin ϕ 0 ∂(x, y, z) det = sin ϕ ρ cos ϕ 0 = ρ < /math > ∂(ρ, ϕ, z) 0 0 1 (2.35) Folglich ergibt sich für das Volumenelement dV: dV = ρ dρ dϕ dz (2.36) 2.3.3. Kugelkoordinaten Die Kugel- oder sphärischen Koordinaten haben als Koordinaten den Kugelradius r und die Winkel ϕ (Azimuth) und θ (Polarwinkel). Dieses Koordinatensystem wird in ähnlicher Weise auch von den Geographen verwendet, allerdings falsch: Während in der Physik der Polarwinkel von [0; π] geht, wird in der Geographie [−π/2, π/2] verwendet. Die Transformationsgleichungen von kartesischen in Kugelkoordinaten lauten p (2.37) r = x2 + y 2 + z 2 arctan( xy ) x > 0, Sgn(y) π x = 0, 2 ϕ = atan2(y, x) = (2.38) y arctan( ) + π x < 0 ∧ y ≥ 0, x arctan( y ) − π x < 0 ∧ y < 0. x z z π z θ = arccos p = arccos = − arctan p (2.39) 2 2 2 2 r 2 x +y +z x + y2 40 2.3. Koordinatensystem (Wiederholung) 3/2 π π P(r,φ,θ) θ r φ r0 0 1/2 π Abbildung 2.4.: Die Abbildung zeigt einen Punkt P mit den kartesischen Koordinaten (x, y, z) und den Kugelkoordinaten (r, ϕ, θ) (Quelle: Wikipedia) Die Rücktransformation erfolgt nach den Gleichungen x = r · sin θ · cos ϕ (2.40) y = r · sin θ · sin ϕ (2.41) z = r · cos θ (2.42) Die Einheitsvektoren der sphärischen Koordinaten lauten damit: sin θ · cos ϕ er = sin θ · sin ϕ cos θ cos θ · cos ϕ eθ = cos θ · sin ϕ − sin θ − sin ϕ eϕ = + cos ϕ 0 (2.43) (2.44) (2.45) Die Herleitung ist letztlich identisch mit der Herleitung, wie sie für Zylinderkoordinaten vorgeführt wurde. Die Funktionalmatrix lautet hier nun sin θ cos ϕ r cos θ cos ϕ −r sin θ sin ϕ ∂(x, y, z) = sin θ sin ϕ r cos θ sin ϕ r sin θ cos ϕ (2.46) ∂(r, θ, ϕ) cos θ −r sin θ 0 41 2. Vektoranalysis Daraus folgt das Volumenelement dV = r2 sin θ dϕ dθ dr (2.47) Und die Metrikkoeffizienten gr = 1 gθ = r gϕ = r sin θ (2.48) 2.4. Differentialoperatoren in krummlinigen Koordinaten Die verschiedenen Differentialoperatoren wurden ja schon mit Hilfe physikalischer Beispiele motiviert, letztlich muß nun der Übergang zu anderen Volumenelementen gemacht werden. Dazu verwenden ein allgemeines Koordinatensystem mit den Variablen (u, v, w) und den dazugehörigen Metrikkoeffizienten gu , gv , gw . Dann gilt für infinitesimale Abstände d~r = gu du~eu + gv dv~ev + gw dw~ew dV = gu gv gw dudvdw (2.49) (2.50) Analog gilt dies natürlich auf für Flächen. 2.4.1. Gradient und Nabla-Operator Der Gradient lässt sich als Richtungsableitung verstehen. Diesen Ansatz verwenden wir nun, um die Transformation auf ein anderes Koordinatensystem durchzuführen dΦ = (grad Φ) · d~r = (∇Φ) · d~r ∂~r ∂~r ∂~r = (∇Φ) · du + dv + dw ∂u ∂v ∂w = ((∇Φ)u~eu + (∇Φ)v ~ev + (∇Φ)w~ew ) · (gu du~eu + gv dv~ev + gw dw~ew ) = (∇Φ)u gu du + (∇Φ)v gv dv + (∇Φ)w gw dw Andererseits gilt aber auch für die linke Seite ∂Φ ∂Φ ∂Φ dΦ = du + dv + dw ∂u ∂v ∂w was das totale Differential ausgeschrieben ist. Durch Vergleich der Differentialterme erhält man dann 1 ∂Φ 1 ∂Φ 1 ∂Φ (∇Φ)u = (∇Φ)v = (∇Φ)w = gu ∂u gv ∂v gw ∂w 1 ∂Φ 1 ∂Φ 1 ∂Φ ⇒ grad Φ = ∇Φ = ~eu + ~ev + ~ew gu ∂u gv ∂v gw ∂w 42 2.4. Differentialoperatoren in krummlinigen Koordinaten Au(u+? u/2) Au(u-? u/2) Abbildung 2.5.: Das zu Abb. 2.2 analoge Bild für beliebige orthogonale Koordinaten. Zylinderkoordinaten ∇= ∂ 1 ∂ ∂ ~eρ + ~eϕ + ~ez ∂ρ ρ ∂ϕ ∂z (2.51) Kugelkoordinaten ∇ = ~er 1 ∂ 1 ∂ ∂ + ~eθ + ~eϕ ∂r r ∂θ r sin θ ∂ϕ (2.52) 2.4.2. Divergenz Um die Divergenz herzuleiten wurde in kartesische Koordinaten der Fluß durch einen Würfel beschrieben. Für beliebige orthogonale Koordinaten ergibt sich ein beliebiges Volumen, wie in Abb. 2.5 dargestellt. Die überaus komplexe Form mag sich zwar ergeben, wenn man den den Einheitsvektoren folgt (in Kugelkoordinaten ergibt sich so z.B. eine Kugelschale), aber letztlich interessieren uns nur infinitesimale Volumina. Für die gilt dann: ∆V = gu gv gw ∆u∆v∆w (2.53) Und für den in der Abbildung dargestellten Fluß in u-Richtung, der durch die v − wFläche geht gilt dann ∆F = gv gw ∆v∆w (2.54) 43 2. Vektoranalysis Damit ergibt sich folgende Rechnung ∆u )∆F ∆t 2 ∆u = Au (u ∓ )gv gw ∆v∆w∆t 2 ∂ ∆u ≈ (Au gv gw + (Au gv gw ) )∆v∆w∆t ∂u 2 ⇒ ∆N = ∆N + − ∆N − ∂ = − (Au gv gw )∆u∆v∆w∆t ∂u ∂ ∆V ∆t = − (Au gv gw ) ∂u gu gv gw ∆N ± = Au (u ∓ Und wiederum analog kann man den Übergang zu unendlich kleinen Volumina und unendlich kleinen Zeiten machen ! lim ∆N ∆V ∆V →0,∆t→0 ∆t = ∂n ∂t Au 1 ∂ =− (A0 gv gw ) gu gv gw ∂u ∂n 1 ∂ ∂ ∂n ∂ = =− (Au gv gw ) + (Av gu gw ) + (Aw gu gv ) ⇒ ∂t A~ ∂t gu gv gw ∂u ∂v ∂w Zylinderkoordinaten ~ = 1 ∂ (ρAρ ) + 1 ∂Aϕ + ∂Az ∇·A ρ ∂ρ ρ ∂ϕ ∂z (2.55) Kugelkoordinaten ~= ∇·A 1 ∂ 2 1 ∂ 1 ∂ (r Ar ) + (sin θAθ ) + Aϕ r2 ∂r r sin θ ∂θ r sin θ ∂ϕ (2.56) BeispielWann ist ein Feld in Kugelkoordinaten quellenfrei? Hierzu haben wir schon einmal ausströmende Badeenten betrachtet. Nehmen wir an, daß wir im Zentrum einer Kugel eine Entenquelle haben von der radial Enten ausströmen. Wie verhält sich die Entendichte, wenn keine Quellen vorhanden sind und die Geschwindigkeit der Enten konstant ist? Im ersten Schritt erkennt man, daß die Dichte ρE (~r) = ρE (r) sein muß, da es sich um eine radiale Bewegung handelt. Damit sind Kugelkoordinaten die geeignete Wahl. Um 44 2.4. Differentialoperatoren in krummlinigen Koordinaten Quellfreiheit zu garantieren, muß ∇ · (ρE (r)~vE ) = 0 gelten. ~vE = v0~er 1 ∂ 2 ! (r v0 ρE (r)) = 0 r2 ∂r ∂ 2 (r ρE (r)) = 0 ∂r r2 ρE (r) = c c ρE (r) = 2 r 2.4.3. Laplace-Operator Der Laplace-Operator, die zweite Ableitung in mehreren Dimensionen kann aus Gradient und Divergenz direkt hergeleitet werden, da ∆ = ∇ · ∇ gilt. ∂ gv gw ∂ ∂ gu gw ∂ ∂ gv gu ∂ 1 + + (2.57) ∆= gu gv gw ∂u gu ∂u ∂v gv ∂v ∂w gw ∂w Zylinderkoordinaten 1 ∂ ∆= ρ ∂ρ ∂ 1 ∂2 ∂2 ρ + 2 2+ 2 ∂ρ ρ ∂φ ∂z (2.58) Kugelkoordinaten ∆= 2 ∂ 1 ∂2 1 cos θ ∂ 1 ∂2 ∂2 + + + + 2 ∂r2 r ∂r r2 ∂θ2 r2 sin θ ∂θ r2 sin θ ∂ϕ2 (2.59) 2.4.4. Rotation Formell lässt sich die Rotation wieder mit dem Argument der Quellfreiheit konstruieren: Wir suchen ein Feld, dessen Divergenz Null ist. Dieses Feld lässt sich über die Rotation eines anderen Feldes konstruieren. Allgemein kann die Rotation in krummlinigen Koordinaten als Determinate schreiben ~eu ~ev ~ew g g g g g u w v gu v w ∂ ∂ ~= ∂ ∇×A (2.60) ∂u ∂v ∂w g A g A g A u u v v w w Oder ausgeschrieben ~= ∇×A ∂ ∂ 1 (gw Aw ) − (gv Av ) ~eu gv gw ∂v ∂w 1 ∂ ∂ + (gu Au ) − (gw Aw ) ~ev gu gw ∂w ∂u 1 ∂ ∂ + (gv Av ) − (gu Au ) ~ew gu gw ∂u ∂v (2.61) 45 2. Vektoranalysis Zylinderkoordinaten ∂Aϕ ∂Aρ ∂Az ∂Aρ 1 ∂ 1 ∂Az ~ ~eρ + ~eϕ + ~ez ∇×A= − − (ρAϕ ) − ρ ∂ϕ ∂z ∂z ∂ρ ρ ∂ρ ∂ϕ (2.62) Kugelkoordinaten 1 ∂ 1 1 ∂Ar ∂Aθ ∂ ∇×A= er + (Aϕ sin θ) − − (rAϕ ) eθ r sin θ ∂θ ∂ϕ r sin θ ∂ϕ ∂r ∂Ar 1 ∂ (rAθ ) − eϕ + r ∂r ∂θ (2.63) 2.4.5. Anwendungen BeispielElektrischer Dipol in Zylinderkoordinaten Gegeben sei das Potential Φ und p~ = p~ez Φ(~r) = 1 p~~r 1 pz = 3 2 4π0 r 4π0 (ρ + z 2 )3/2 Mit den neu gewonnen Kenntnissen über Differentialoperatoren ist es nun möglich das elektrische Feld zu berechnen ∂Φ 1 ∂Φ ∂Φ ∇Φ = ~eρ ( ) + ~eϕ ( ) + ~ez ( ) ∂ρ ρ ∂ϕ ∂z pz2ρ 1 3 = ~eρ − 4π0 2 (ρ2 + z 2 )5/2 3 pz2ρ 1 p + ~ez (− + ) 4π0 2 (ρ2 + z 2 )5/2 (ρ2 + z 2 )3/2 p · ~r) 1 p~ 1 3(~ (ρ~eρ + z~ez ) + = 5 4π0 r | {z } 4π0 r3 ~ r Interessant ist es nun, die Divergenz und Rotation des elektrischen Feldes zu berechnen. 1 ∂ ∂Ez ~ = 1 ∇·E (ρEρ ) + 4π0 ρ ∂ρ ∂z 1 15pz 15pz(ρ2 + z 2 ) = − 4π0 (ρ2 + z 2 )5/2 (ρ2 + z 2 )7/2 = 0für r 6= 0 ∂Eρ ∂Ez ~ ∇×E = − ∂z ∂ρ 3pρ 5 6pz 2 ρ 5 6pz 2 ρ 3 2pρ = 2 − + − 5/2 7/2 7/2 2 2 2 2 2 2 2 (ρ + z ) 2 (ρ + z ) 2 (ρ + z 2 )5/2 (ρ + z ) =0 46 2.5. Oberflächenintegrale und Integralsätze E@rD Φ@rD 1.0 1.4 0.8 1.2 0.6 1.0 0.4 0.8 0.2 0.6 rR 0.5 1.0 1.5 2.0 2.5 rR 3.0 0.5 1.0 1.5 2.0 2.5 3.0 Abbildung 2.6.: Potential und elektrisches Feld der homogen geladenen Kugel ~ =0 Da nur ein Dipolmoment im Ursprung vorliegt, ist es nicht verwunderlich, daß ∇ · E ist. Bei näherer Betrachtung zeigt sich aber, daß genau im Ursprung die Divergenz nicht Null ist. Dies ist verträglich mit der Annahme zweier entgegengesetzter Ladungen, die das Dipolmoment bilden. BeispielHomogen geladene Kugel Das Potential Φ ist gegeben durch ( q/r r>R 1 Φ(~r) = r2 4π0 23 Rq (1 − 3R r≥R 2) Daraus kann man das elektrische Feld berechnen 3 Berechnung des elektrischen Feldes ∇Φ = ~er ∂Φ ∂r 1 1 ∂Φ ∂Φ + ~eθ r ∂r + ~eφ r sin θ ∂r |{z} |{z} =0 = 1 4π0 ( q ~e r2 r r q R3 ~er =0 r>R 2.5. Oberflächenintegrale und Integralsätze Zusammen mit dem Begriff der Divergenz stellt sich die Frage, wie sich z.B. die Anzahl von Gasmolekülen in einem Volumen ändert, wenn ein bestimmter Strömung vorliegt, wie groß also der Fluß durch die Oberfläche des Volumens ist. Die Divergenz ist quasi die differentielle Antwort auf die Frage. Mit Hilfe eines Oberflächenintegrals kann man nun den tatsächlichen Fluß durch eine Oberfläche bestimmen. Im einfachsten Beispiel, dem Fluß durch eine Röhre (Abb. 2.7), kann man den Fluß ~ r) relativ einfach bestimmen: Es gibt eine Querschnittsfläche F , durch die ein Fluß A(~ 47 2. Vektoranalysis Abbildung 2.7.: Fluß durch eine Röhre. Durch die Geometrie kann die Strömung nur senkrecht durch Querschnittsfläche gehen. fließt. Auf Grund R der Geometrie ist der Fluß immer senkrecht zur Oberfläche womit der gesamte Fluß F A(~r)df ist. ~ verschwunden, eben weil Nun ist in diesem Beispiel aber die vektorielle Natur von A Fluß und Fläche senkrecht aufeinander stehen. Wenn man nun den Fluß durch eine beliebige Oberfläche (Abb. 2.8) berechnen will, muß man sich Gedanken über den Winkel zwischen Fläche und Strömung machen. Dabei stellt man fest, daß nur Strömungen, die senkrecht zur Fläche verlaufen, auch einen Fluß durch die Fläche verursachen. Um nun den Fluß zu berechnen teilt man die Fläche F in Teilflächen ∆f auf. Zu jeder ~ . Damit ist der Fluß dann Teilfläche gehört eine Flächennormale ∆f ΦF = X → ~ (~r)i i → ∞, |∆f | → 0 ~ ri ) · ∆f A(~ Z ~ (~r) ~ r) · df A(~ (2.64) F i ~ gleich 0, wenn Strömung und Fläche parallel sind. ~ · df Dabei ist A 2.5.1. Gauß’scher Satz Nun geht es darum, die Divergenz, die im Rahmen der Kontinuitätsgleichung die Dichteänderung in einem Volumen beschreibt, mit dem Fluß durch die Oberfläche des Volumens zu verknüpfen. (Es wird sich im weiteren zeigen, daß nicht nur hydrodynamische Beispiele, sondern auch elektrodynamische Beispiele anführen lassen.) ~ r) und darin ein Volumen V mit geschlossenere Satz: Gegeben sei ein Vektorfeld A(~ ~ Oberfläche FV , deren Normale df (~r) nach außen gerichtet sein. Dann gilt I FV ~ (~r) = ~ r) · df A(~ Z ~ r)dV ∇ · A(~ (2.65) V ~ r) = ~r in einem Würfel. Die Berechnung des OberflächenBeispielDas Vektorfeld A(~ ~ = ~ez dxdy (und integrals ist bei weitem nicht so trivial, wie es aussieht. Zwar ist df entsprechend für die anderen Seite des Würfels), aber das Vektorfeld hat einen nicht- 48 2.5. Oberflächenintegrale und Integralsätze D f Abbildung 2.8.: Eine beliebige Fläche, durch die eine (gestrichelte) Strömung fließt. Die Fläche wird in einzelne Teilflächen zerlegt mit jeweils eigener Flächen~ . normale ∆f 49 2. Vektoranalysis konstanten Winkel zur Oberfläche. Mit dem Satz von Gauß wird das aber ziemlich trivial I ~ (~r) ΦFV = ~r · df ZFV ∇ · ~rdV = ZV 3dV = 3V = V Da in diesem Beispiel die Divergenz des Vektorfeldes nicht vom Ort abhängt, ist das Ergebnis auch nicht von dem tatsächlichen Volumen abhängig. Betrachten wir das nun für ein Wirbelfeld ~ r) = ∇ × A(~ ~ r) B(~ I ~ ~ r) · df ⇒ ΦFV = B(~ Z ~ = ∇ · BdV V Z ~ =0 ∇ · (∇ × A) = {z } V | =0 ~ entweder völlig im Inneren von V liegt oder aber genauso Anschaulich heißt das, daß B viele Feldlinien in das Volumen hineingehen, wie herauskommen. Beweisskizze: ~ durch die Oberfläche eines kleinen Würfelvolumens ∆V Der Fluß eines Vektorfeldes A ist gegeben durch I ~ ~ · df A ΦF∆V = F∆V ∆N ~ ≈ ≈ ∇ · A∆V ∆t Nun kann man ein beliebiges Integrationsvolumen in unendlich viele unendlich kleine Würfel zerlegen. Die Flüsse an den Oberflächen im Inneren des Volumens heben sich gegenseitig auf, so daß nur der Fluß durch die äußere Oberfläche relevant ist. BeispielNun noch ein weiteres Beispiel, diesmal aber in anderen Koordinaten. Gegeben sei das Feld einer Punktladung ~ r) = E(~ 1 q ~er 4π0 r2 Wie groß ist der Fluß durch eine beliebige Fläche, die q umschließt? Fluß durch eine Kugel um q I Z 2π Z π 1 q ~ ~ ~e · ~er R2 sin θdθdφ E · df = 2 r FK 0 0 4π0 r q = 0 50 2.5. Oberflächenintegrale und Integralsätze q Abbildung 2.9.: Das beliebige Volumen um q wird in zwei Gebiete geteilt: Eine Kugel im Inneren und die schraffierte Fläche zwischen Kugel und beliebigem Volumen Statt nun das beliebige Volumen zu betrachten, nehmen wir ein Volumen, das innen von der Kugel und außen von der beliebigen Oberfläche begrenzt wird (Abb. 2.9. Wieso? Nun, wenn man die Divergenz des elektrischen Feldes betrachtet, stellt man fest, daß gilt ~ = ∇·E 1 ∂ 2 1 q (r )=0 r2 ∂r 4π0 r2 (Nur im Ursprung liegt eine Ladung, damit muß das elektrische Feld außerhalb des Ursprungs quellenfrei sein). Somit gilt I I I ~ ~ ~ ~ ~ ~ · df E · df = 0 = E · df − E FK +F FK | {z } F q/0 I ⇒ F ~ = q ~ · df E 0 Der Fluß des elektrischen Feldes durch eine beliebige Oberfläche ist also gleich der Summe der eingeschlossenen Ladung! 2.5.2. Der Stokes’sche Satz Während der Satz von Gauß Aussagen über Oberflächenintegrale von Feldern mit Quellen macht, bezieht sich der Satz von Stokes auf quellenfreie Felder. 51 2. Vektoranalysis Im Falle endlicher Flächen gilt I 1 ~ ~ · dr ~ ~n · (∇ × A) ≈ A ∆F C∆F I ~ ~ ≈ ~ · dr ·(∇ × A) A ⇒ ∆F ~ n | {z } (2.66) (2.67) C∆F ~ df Dabei ist ∆F die Fläche, C∆F deren Umrandung und ~n deren Flächennormale. Mit einer ähnlichen Argumentation wie beim Satz von Gauß ist es nun möglich, aus unendlich vielen unendlich kleinen Flächen kann man eine große Fläche zusammensetzen, wobei sich die Umrandungen im inneren wieder aufheben. I Z ~ ~ ~ ~ r) · df A(~r) · dr = ∇ × A(~ (2.68) C∆F F Der Stokes’sche Satz bildet einen Zusammenhang zwischen Kurven- und Flächenintegralen. Das Wegintegral entlang einer geschlossenen Kurve ist vom Weg unabhängig, wenn ~ = 0 (→ konservative Kraftfelder) ∇×A BeispielGegeben sei das Vektorfeld ~ = 1B ~ × ~r A 2 ~ Wir wollen nun mit der Kurve C, einem Kreis mit mit einem konstanten Vektor B. Radius R das Wegintegral berechnen I I 1~ ~ ~ ~ A · dr = B · ~r × |{z} dr Spatprodukt! 2 C =r~eφ dφ Z 2π 1~ = B · R2~er × ~eφ dφ 2 0 ~ · ~ez πR2 =B ~ · F~ =B Nun wenden wir den Satz von Stokes an. Eine Nebenrechnung vorweg ~ × B) ~ = (B ~ · ∇)A ~ − B(∇ ~ ~ − (~a · ∇)B ~ + A(∇ ~ ~ ∇ × (A · A) · B) ~ × ~r) = (~r · ∇)B ~ − ~r(∇ · B) ~ + B(∇ ~ ~ · ∇)~r ⇒ ∇ × (B · ~r) − (B | {z } | {z } | {z } | {z } =0 =0 ~ =3B ~ B Damit folgt dann I C ~ = ~ · dr A Z ~ ~ · dF ∇×A FC Z ~ =B ~ ~ · F~ =B· dF FC Stoeks liefert das gleiche Ergebnis allerdings schneller und zusätzlich mit einer Aussage über allgemeine Flächen. 52 2.6. Einschub: Zeitableitung der Einheitsvektoren 2.6. Einschub: Zeitableitung der Einheitsvektoren Bisher haben wir uns mit räumlichen Ableitungen in verschiedenen orthogonalen Koordinatensystemen beschäftigt. Es zeigt sich allerdings, daß auch die zeitliche Ableitung ein wenig mehr Betrachtung benötigt. Daher sollen hier noch einmal Geschwindigkeit und Beschleunigung in nicht-kartesischen Koordinatensystemen betrachtet werden. Ebene Polarkoordinaten Wir haben folgende Einheitsvektoren ~er = cos ϕ~e1 + sin ϕ~e2 ~eϕ = − sin ϕ~e1 + cos ϕ~e2 In dieser Darstellung enthalten die Einheitsvektoren nicht-konstante Terme, so daß die zeitliche Ableitung nicht verschwindet ˙ r = ϕ̇(− sin ϕ~e1 + cos ϕ~e2 ) = φ̇~eϕ ~e ˙ ϕ = ϕ̇(− cos ϕ~e1 − sin ϕ~e2 ) = −ϕ̇~er ~e In Polarkoordinaten gilt ~r = r~er und somit ˙ = ṙ~er + r~e˙ r ~v =~r = ṙ~er + rϕ̇~eϕ ˙ = r̈~er + ṙ~e˙ r + ṙϕ̇~eϕ + rϕ̈~eϕ + rϕ̇~e˙ ϕ ~a =~v = (r̈ − rϕ̇2 )~er + (2ṙϕ̇ + rϕ̈)~eϕ Kugelkoordinaten Die Rechnung für Kugelkoordinaten folgt dem selben Muster wie in den ebenen Polarkoordinaten, allerdings mit deutlich mehr Termen. Hier sei nur das Ergebnis angegeben ~v = ṙ~er + rθ̇~eθ + rϕ̇ sin θ~eϕ ~a = (r̈ + rθ̇2 − rϕ̇2 sin2 θ)~er + + (2ṙθ̇ + rθ̈ − rϕ̇2 sin θ cos θ)~eθ + + (2ṙφ̇ sin θ + 2rφ̇θ̇ cos θ + rϕ̈ sin θ)~eϕ 53 3. Differentialgleichungen Wir haben nun schon die Kulturtechniken Differenzieren und Integrieren kennengelernt. Aber bisher nur bei bekannten Funktionen. Wie sieht aber aus, wenn wir einen funktionellen Zusammenhang suchen? Betrachten wir das Beispiel des Populationswachstums: Eine Population von, sagen wir mal Bakterien im Mensaessen, habe zum Zeitpunkt t die Größe P (t). Ihre Größenänderung hängt von der aktuellen Populationsgröße ab (DGL I ) ∆P ∝ P (t)∆t ⇒ ∆P = P (t + ∆t) − P (t) = γP (t)∆t ∆P dP lim = = Ṗ = γP ∆t→0 ∆t dt γ = const Daraus kann man direkt P (t) = C exp(γt), C = const als allgemeine Lösung der DGL ablesen. Erfahrungen zeigen, daß keine Population für immer ein exponentielles Wachstum aufweist. In den meisten Fällen gibt es eine maximale Population Pmax (DGL II ) dP = τ P (Pmax − P ) = γP − τ P 2 , dt γ = τ Pmax , γ, τ = const Diese DGL heißt logistische DGL. Schlimmstenfalls sind γ, τ zeitabhängig (DGL III ) und es existiert eine externe Populationszuname oder -abnahme (DGL IV ). Diese verschiedenen DGL kann man klassifizieren nach folgenden Gesichtspunkten • DGL I ist linear, DGL II, III sind nichtlinear • DGL I, II haben konstante, DGL III hingegen variable Koeffizienten • DGL I, II, III sind homogen, DGL IV ist inhomogen • Alle DGL sind 1. Ordnung Ein Beispiel für DGL 2. Ordnung ist die Newtonsche Bewegungsgleichung m d2~r ¨ = F (~r, t) = m~r dt 55 3. Differentialgleichungen 3.1. Grundbegriffe Definition Eine DGL für eine Funktion einer einzelnen unabhängigen Variable heißt gewöhnliche DGL (ODE, ordinary differential equation). Sind mehrere unabhängige Variablen und partielle Ableitungen im Spiel, sprechen wir von einer partiellen DGL (PDE, partial differential equation). Die höchste auftretende Ableitung bestimmt die Ordnung der DGL. Eine gewöhnliche DGL n-ter Ordnung hat die allgemeine implizite Form F (x, y, y 0 , y 00 , . . . , y (n) ) = 0 (3.1) mit einer Funktion F von (n + 2) unabhängigen Variablen. Ist es möglich, die DGL auf y n = f (x, y, y 0 , y 00 , . . . , y (n−1) ) (3.2) umzuformen, liegt eine explizite DGL vor. 3.2. Lineare DGL 1. Ordnung Die allgemeine Form einer linearen DGL 1. Ordnung ist y0 = dy = γ(x)y(x) + s(x) dx (3.3) mit y = y(x). Wenn die Störfunktion s(x) = 0 ist, liegt eine homogene DGL 1. Ordnung vor, sonst eine inhomogene DGL. Die homogene Gleichung besitzt eine allgemeine Lösung, die man aus der Separation der Variablen gewinnen kann dy dy = γ(x)y ⇒ dy y Z y ⇒ y(x0 ) = γ(x)dx dy 0 y0 Z x (3.4) γ(x0 )dx0 (3.5) γ(x0 )dx0 0 0 γ(x )dx (3.6) = x Z 0x ⇒ log(y) − log(y(x0 )) ⇒ y(x) = Z x0 x = y(x0 ) exp (3.7) x0 Der gegebene Wert y(x0 ) heißt Anfangswert und das Problem mit y 0 = γ(x)y und y(x0 ) = y0 definierte Problem wird als Anfangswertproblem bezeichnet. Ohne speziellen Anfangswert spricht man von der allgemeinen Lösung Z x 0 0 y(x) = C exp γ(x )dx , C = const (3.8) x0 56 3.2. Lineare DGL 1. Ordnung BeispielVerkaufsrückgang bei steigenden Preisen V (p) sei der wöchentliche Verkauf eines Produkts zum Stückpreis p Annahme: Die Verkaufsänderungsrate sei dV 1 λ =− dp V p dann lässt sich mit der Trennung der Variablen die Lösung direkt schreiben als Z p λ 0 V (p) = V (p0 ) exp (− 0 )dp p p0 p = V (p0 ) exp(−λ log( )) p0 λ p0 = V (p0 ) p Die Lösung zeigt zwar qualitativ das richtige Verhalten (der Verkauf nimmt bei steigenden Preisen ab), aber lim V (p) = ∞ p→∞ ist sicher keine realistische Annahme. Daher ein besserer Ansatz dV V = −λ , dp µ+p µ, λ = const > 0 Damit kann man wiederum durch direktes Ansetzen der Lösung folgedes erhalten λ p0 V (p) = V (p0 ) µ+p womit dann auch gilt lim V (p) = V (p0 ) p→∞ p0 µ λ <∞ Allgemeine Lösung der inhomogenen DGL 1. Ordnung Bisher haben wir die Lösung einer DGL betrachtet, deren Störglied s(x) = 0 ist. Nun wollen wir einen Schritt weitergehen und auch inhomogene DGL betrachten. Dazu betrachten wir zuerst einmal irgendeine partikuläre Lösung yp (x) der inhomogenen DGL y 0 = γ(x)y + s(x) und eine beliebige andere Lösung y(x). Dann kann man folgende Rechnung anstellen z 0 (x) = (y(x) − yp (x))0 = y 0 (x) − yp0 (x) = (γ(x)y(x) + s(x)) − (γ(x)yp (x) + s(x)) = γ(x)(y(x) − yp (x)) = γ(x)z(x) 57 3. Differentialgleichungen Damit ist z(X) = y(x) − yp (x) offenbar Lösung der homogenen DGL Z x 0 0 z(x) = C exp γ(x )dx = y(x) − yp (x) x0 Z x 0 0 ⇒ y(x) = yp (x) + C exp γ(x )dx x0 Die Lösung der inhomogenen DGL ergibt sich aus der Summe einer speziellen (partikulären) Lösung der inhomogenen DGL und der allgemeinen Lösung der homogenen DGL. Wie findet man nun eine Lösung der inhomogenen DGL? Zuerst betrachtet man y 0 = γ(x)y homogen + s(x) | {z } Z ⇒yh = C exp 0 γ(x )dx 0 Um nun aus der homogenen Lösung yh (x) die Lösung der inhomogenen DGL zu gewinnen, nimmt man nun an, daß C keine Konstante mehr ist (Variation der Konstanten) Z 0 0 y = C(x) exp γ(x )dx Z Z dy 0 0 0 0 0 ⇒ = C (x) exp γ(x )dx + C(x)γ(x) exp γ(x )dx dx Diese Ableitung kann man nun in die ursprüngliche inhomogene DGL einsetzen und erhält dann Z Z Z C 0 (x) exp γ(x0 )dx0 + C(x)γ(x) exp γ(x0 )dx0 = C(x)γ(x) exp γ(x0 )dx0 + s(x) Daraus folgt dann Z 0 0 C (x) = s(x) exp − γ(x )dx 0 Dies ist wiederum eine DGL, diesmal allerdings eine homogene, deren Lösung trivial ist Z Z 0 00 00 C(x) = s(x ) exp − γ(x )dx dx0 + C2 Z Z Z y(x) = exp γ(x0 )dx0 dx ( s(x0 ) exp − γ(x00 )dx00 dx0 + C2 ) Beispiel y 0 = sin(x) − 58 y x 3.3. Homogene DGL 1. Ordnung Zuerst lösen wir die homogene DGL y0 = − y dy ⇒ x y =− log |y| dx x = − log |x| + log |C| ⇒ yh = C x Nun können wir die Konstanten variieren C(x) x dy C 0 (x)x − C(x) = dx x2 0 C (x)x − C(x) C(x) = sin(x) − 2 x2 x 0 ⇒ C (x) = x sin(x) y= ⇒ C(x) = sin(x) − x cos(x) + C2 C2 + sin(x) ⇒ y(x) = − cos(X) x 3.3. Homogene DGL 1. Ordnung Einen Sonderfall bilden sogenannte homogenen DGL 1. Ordnung. Diese haben die allgemeine Form y0 = f ( y x (3.9) Diese lassen sich durch ein geeignetes Substitutionsverfahren lösen, das hier kurz angerissen werden soll. y 0 = xu0 + u = f (u) f (u) − u u0 = x y(x) = xu(x) → → Es ist leicht zu sehen, daß es sich hier um eine DGL mit getrennten Variablen handelt, die mit bekannten Methoden gelöst werden kann Z du = f (u) − u Z dx x Anschließend kann u(x) wieder benutzt werden, um y(x) bestimmt werden. 59 3. Differentialgleichungen Beispiel y0 = ⇒ u0 = u− 1 u2 y x2 − x y2 −u x 1 =− 2 xu Z Z dx u3 ⇒ u2 du = − ⇒ x 3 = − log x u = (C − 3 log x)1/3 ⇒ y = x(C − 3 log x)1/3 3.4. Nichtlineare DGL 1. Ordnung Es gibt unendlich viele DGL diesen Typs. Es ist zwar möglich, die DGL weiter zu klassifizieren und zum Teil auch zu lösen, aber nicht immer kommt man auf eine Lösung. Hier sollen zwei Verfahren vorgestellt werden und die Existenz der Lösung bewiesen werden. Separation der Variablen Kann man die DGL auf die Form dy = f (x)g(y) dx (3.10) bringen, so lässt sich das bekannte Verfahren der Separation der Variablen verwenden Z Z dy dy = f (x)dx ⇒ = f (x)dx (3.11) g(y) g(y) BeispielDosis-/Wirkungsfunktion eines Medikaments • W (x) Wirkung von x Einheiten • S Sättigung • Beobachtun: dW dx =K W 2 , x K ist eine Konstante und es gilt limx→∞ W (x) = S Nun gilt dx dW =K 2 2 W x 1 x =− +C ⇒− W K x ⇒ W (x) = − Cx − k Als Randbedingung haben wir noch den Limes für x → ∞ lim W (x) = S = − x→∞ 60 1 1 ⇒C=− C S 3.5. Lineare DGL 2. Ordnung 3.5. Lineare DGL 2. Ordnung Viele Probleme der Physik sind als DGL 2. Ordnung zu klassifizieren (Newtonsche Bewegungsgleichung, Schrödingergleichung, Wellengleichung etc.). Die allgemeine Form ist y 00 (x) + a(x)y 0 (x) + b(x)y(x) = s(x) (3.12) Auch hier liegt für s(x) = 0 eine homogene DGL vor. 3.5.1. Lineare DGL 2. Ordnung mit variablen Koeffiziente Die allgemeine homogene Lösung mit stetigen Koeffizienten a(x), b(x) lautet y(x) = c1 y1 (x) + c2 y2 (x) (3.13) folgt also dem sogenannten Superpositionsprinzip. y1 (x) und y2 (x) sind dabei linear unabhängige Lösungen, d.h. die Wronski-Determinante ist von Null verschieden y1 (x) y2 (x) 6= 0 W (y1 , y2 )(x) = 0 (3.14) y1 y20 Die Wronski-Determinante macht Aussagen über die lineare Unabhängigkeit von Lösungen, wie ihre Form zustande kommt, sehen wir später bei der Umformung von DGL 2. Ordnung in Systeme von DGL 1. Ordnung. Die beiden linear unabhängigen Lösungen bilden das Fundamentalsystem der homogenen DGL. Wie auch schon bei der DGL 1. Ordnung ergibt sich die Lösung der inhomogenen DGL aus einer partikulären Lösung und der allgemeinen homogenen Lösung. Mit der Lösung der DGL 2. Ordnung mit variablen Koeffizienten werden wir uns im Rahmen dieser Vorlesung nicht weiter beschäftigen, da dies z.T. relativ komplex ist. 3.5.2. Homogene lineare DGL 2. Ordnung mit konstanten Koeffizienten Während die DGL mit variablen Koeffizienten durchaus sehr komplex sein kann, gibt es für die DGL mit konstanten Koeffizienten ein sehr effizientes Standardverfahren. Ausgehend von der DGL y 00 (x) + ay 0 (x) + by(x) = 0 (3.15) wählt man den sog. Eulerschen Ansatz. Dabei geht man davon aus, daß sich die Lösung als Exponentialfunktion schreiben lässt y(x) = C exp(λx) C, λ = const (3.16) Damit können nun erste und zweite Ableitung berechnet werden y 0 = Cλ exp(λx) = λy(x) 00 2 2 y = Cλ exp(λx) = λ y(x) (3.17) (3.18) 61 3. Differentialgleichungen Setzt man nun diesen Ansatz in die ursprüngliche DGL ein, so erhält man eine algebraische Gleichung λ2 y(x) + λay(x) + by(x) = 0 (3.19) 2 (3.20) ⇒ λ + λa + b = 0 Diese algebraische Gleichung ist trivial lösbar. Allerdings müssen Spezialfälle berücksichtigt werden. Mit ∆ = a2 − 4b und C1 , C2 = const ∈ R folgt √ λ1,2 = 21 (−a ± ∆, ∆ > 0 C1 exp(λ1 x) + C2 exp(λ2 x) y(x) = (C1 + C2 x) exp(− a2 x) (3.21) ∆=0 √ −∆ a (C1 cos(βx) + C2 sin(βx)) exp(αx) α = − 2 , β = 2 , ∆ < 0 Der Fall ∆ = 0 führt zu zwei identischen Nullstellen und somit zu einer entarteten Lösung. Da eine DGL 2. Ordnung aber immer zwei verschiedene Lösungen hat, muß hier noch eine zweite Lösung konstruiert werden. Diese zweite Lösung ist hier x exp(λx). Für DGL höherer Ordnung ist das Verfahren identisch und bei mehrfachen Nullstellen wird mit Polynomen eine weitere unabhängige Lösung konstruiert. Schwingungen Die DGL 2. Ordnung mit konstanten Koeffizienten lassen sich in der Regel als Schwingungsgleichungen identifizieren mit der Form mẍ = −µẋ |{z} −kx |{z} , µ, k = const Reibung Rückstellkraft ⇒ ẍ + µ m} | {z a + k =0 m | {z } b ⇒∆= µ 2 m +4 k m Abhängig vom Vorzeichen von ∆ ergeben sich dann gedämpfte Schwingung, Kriechfall und aperiodischer Grenzfall. Hier sei noch einmal der Fall ∆ = 0 (aperiodischer Grenzfall dokumentiert ∆=0 ⇒k µ2 4m µ ⇒ x(t) = (C1 + C2 t) exp − t 2m µ Es gilt dabei x(0) = C1 und ẋ(0) = C2 − 2m C1 . Damit lässt sich aus bekannten Anfangswerten die bestimmte Lösung angeben µ µ x(t) = (x(0) + ( x(0) + ẋ(0))t) exp − t 2m 2m 62 3.5. Lineare DGL 2. Ordnung 3.5.3. Inhomogene lineare DGL 2. Ordnung mit konstanten Koeffizienten Bisher wurden die externen Einflüsse vernachlässigt, so wie eine periodische Anregug bei der Schwingungsgleichung. Hier sollen nun für die inhomogene Gleichung Lösungsverfahren aufgezeigt werden. Allgemeine Form der DGL y 00 (x) + ay 0 (x) + by(x) = s(x), a, b = const (3.22) Wie schon bei der DGL 1. Ordnung gilt hier, daß sich die Lösung aus der Lösung der homogenen und einer partikulären Lösung ergibt. Ebenfalls wie bei DGL 1. Ordnung kann man diese DGL über Variation der Konstanten formell lösen, allerdings mit zwei zu variierenden Konstanten. Der Vollständigkeit halber sei die Lösung angegeben Rx R 0 )s(x0 )dx0 − exp(λ x) x exp(−λ x0 )s(x0 )dx0 1 exp(λ x) exp(−λ x λ1 = 6 λ2 2 2 1 1 λ1 −λ2 x0 x0 R yp (x) = R exp(λx) x x exp(−λx0 )s(x0 )dx0 − x x0 exp(−λx0 )s(x0 )dx0 λ1 = λ2 = λ x0 x0 (3.23) Und genau wie bei der exakten Formulierung der Variation der Konstanten für DGL 1. Ordnung ist auch hier dieser Ansatz formell richtig, aber meist unpraktikabel. Tatsächlich werden meist folgende Verfahren genutzt • geeigneter Ansatz (auch geschicktes Raten) • Variation der Konstanten (nicht nach dem formellen Endergebnis) • Laplace-Transformation Geeigneter Ansatz Für bestimmte Störfunktionen s(x) kann man leicht geeignete Lösungsansätze wählen. Ein sehr häufiger Fall ist eine Funktion der Form ( cos(βx) 2 m s(x) = (k0 + k1 x + k2 x + . . . km x ) exp(αx) (3.24) sin(βx) Man kann schon vermuten, daß die Lösung auch wieder die Form Polynom multipliziert mit komplexer Exponentialfunktion hat. Um die genaue Lösung zu formalisieren, benötigt man noch einmal das charakteristische Polynom, das wir für die homogene Gleichung hergeleitet haben. Für die homogene Gleichung erfüllt diese ja die Bedingung P (λ1,2 ) = 0. Als partikuläre Lösung erhält man ((A0 + A1 x + · · · + Am xm ) cos(βx) +(B + B x + · · · + B xm ) sin(βx)) exp(αx) fürP (α + iβ) 6= 0 0 1 m yp (x) = ν x ((A0 + A1 x + · · · + Am xm ) cos(βx) +(B + B x + · · · + B xm ) sin(βx)) exp(αx) für(α + iβ)νfache Nullstellevonp 0 1 m (3.25) 63 3. Differentialgleichungen Die tatsächliche Lösung erhält man dann durch Verwendung dieses Lösungsansatzes und Koeffizientenvergleich. Beispiel ÿ + 4ẏ = cos(2t) Für die homogene Lösung erhält man ÿh + 4ẏh = 0 yh (t) = C exp(λt) ⇒ λ2 + 4λ = 0 p(λ) = λ2 + 4λ Die Lösungen sind somit λ = −4 und λ = 0 Für die Inhomogenität vergleichen wir erst einmal die Form und erhalten dann k0 = 1 k1 = · · · = km = 0 α = 0 β = 2 Eingesetzt in das charakteristische Polynom liefert dies P (0 + 2i) = −4 + 8i 6= 0 Somit ist klar, welchen Lösungsansatz wir wählen müssen. Damit gilt dann yp = A0 cos(2t) + B0 sin(2t) ẏp = −2A0 sin(2t) + 2B0 cos(2t) ÿp = −4A0 cos(2t) − 4B0 sin(2t) Das können wir nun in die DGL einsetzen und Koeffizientenweise (hier also nach Sinusund Kosinustermen, bei Polynomen höherer Ordnung auch nach Potenz von x mal Sinus oder Kosinus vergleichen) 8A0 + 4B0 = 0 −4A0 + 8B0 = 1 Daraus ergibt sich A0 = −1/20 und B0 = 1/10. Die allgemeine Lösung lautet dann y(t) = C1 + C2 exp(−4t) + 1 1 sin(2t) − cos(2t) 10 20 Variation der Konstanten Die formelle Lösung der Variation der Konstanten haben wir schon zu Beginn des Abschnitts gesehen, hier soll noch einmal das Grundprinzip vorgestellt werden. yh (x) = C1 y1 (x) + C2 y2 (x) (3.26) yp (x) = C1 (x)y1 (x) + C2 (x)y2 (x) 0 (3.27) 0 0 0 ẏp (x) = C1 (x)y1 (x) + C2 (x)y2 (x) + C1 (x) y1 (x) + C2 (x) y2 (x) 64 (3.28) 3.5. Lineare DGL 2. Ordnung Natürlich könnte man an dieser Stelle weitergehen und auch die zweite Ableitungen berechnen und anschließend in die DGL einsetzen. Dies führt allerdings nicht zu einer Lösung. Stattdessen stellen wir zwei Forderungen auf: 1. C1 (x)0 y1 (x) + C2 (x)0 y2 (x) = 0 ⇒yp0 = C1 y100 + C2 y200 + C10 y10 + (3.29) C20 y20 2. Ċ1 ẏ1 + Ċ2 ẏ2 = s(x) (3.30) Dies lässt sich dann wiederum in die ursprüngliche DGL einsetzen C1 y100 + C2 y200 + C10 y10 + C20 y20 +a(C1 y10 + C2 y20 ) + b(C1 y1 + C2 y2 ) = s(x) | {z } (3.31) s(x) ⇒ C1 y100 + ay10 + by1 +C2 y200 + ay20 + by2 = 0 | {z } | {z } =0 (3.32) =0 Die Konstruktion liefert eine partikuläre Lösung mit C10 y1 + C2 y20 = 0 (3.33) C10 y10 (3.34) + C2 y20 =s Dieses Gleichungssystem lässt sich dann für C1 und C2 lösen. Mit Gleichungssystemen von DGL 1. Ordnung werden wir uns im nächsten Abschnitt detailliert beschäftigen, hier dennoch ein Beispiel ÿ + 4ẏ = cos(2t) ⇒ λ2 + 4λ = 0 ⇒ λ1 = 0, λ2 = −4 ⇒ yh (t) = C1 + C2 exp(−4t) ⇒ C10 (t) yp (t) 0 + C2 (t) exp(−4t) −4C20 exp(−4t) = C1 (t) + C2 (t) exp(−4t) =0 = cos(2t) 1 ⇒ C20 (t) = − exp(4t) cos(2t) 4 1 0 C1 (t) = cos(2t) 4 Das muß dann einfach nur noch integriert werden 1 sin(2t) 8 1 1 C2 (t) = − (2 cos(2t) + sin(2t)) exp(4t) 4 10 C1 (t) = 65 3. Differentialgleichungen 3.6. Lineare DGL n-ter Ordnung Nehmen wir ein System von N homogenen, lineare DGL mit yi0 = N X aij yj i = 1, 2, . . . , N (3.35) j=1 wobei die aij konstant sind. Auch hier findet sich wieder ein Exponentialansatz yi (x) = Yi exp(λx) λYi exp(λx) = N X aij Yj exp(λx) (3.36) (3.37) j=1 ⇒ N X (λδij − aij )Yj = (3.38) j=1 Das ist, wie man leicht erkennt, eine Eigenwertgleichung, da wir nur an nicht-trivialen Lösungen (Yj 6= 0) interessiert sind. Aus det(aij − λ1) = 0 (3.39) folgen dann die N Eigenwerte mit der entsprechenden Lösung exp(λx). Die Eigenvektoren entsprechen dann den Vektoren Yj BeispielGegeben sei das DGL-System y10 = y2 y20 = ay1 + by2 Dieses Gleichungssystem lässt sich schreiben als 0 y1 y1 0 1 = y2 a b y2 Daraus folgt dann die Eigenwertgleichung −λ 1 a b − λ = 0 p Mit den Lösungen λ1,2 = −b/2 ± b2 /4 − a. Damit folgen die Lösungen exp(λ1,2 x). Aus dem Beispiel folgen nun die Eigenwerte und somit die Exponentialfunktionen in der Lösung. Wie kommt man aber nun auf die endgültige Lösung? Wir brauchen noch die Vektoren. Hier zeigt sich, daß die Lösung als ~y (x) = N X i=1 66 Ci ~yi (x) (3.40) 3.6. Lineare DGL n-ter Ordnung schreiben lässt. Auch hier müssen wir lineare Unabhängigkeit erfüllen. Y (x) = (~y1 (x), ~y2 (x), . . . , ~yN (x)) (3.41) W (x) = det Y (x) 6= 0 (3.42) Die Wronski-Determinante (die hier anders definiert ist, als bei der DGL 2. Ordnung!), zeigt hier auch wieder die lineare Unabhängigkeit. Die Lösung ist nun, daß jede Lösung mit ihrem Eigenvektor eingeht. Beispiel 0 y1 1 2 y1 = y2 2 1 y2 Die Berechnung der Eigenwerte liefert λ1 = 3 und λ2 = −1. Die zugehörigen Eigenvektoren sind ~yλ1 = (1, 1) und ~yλ2 = (−1, 1). Damit ist die Lösung der DGL −1 1 exp(−x) exp(3x) + C2 ~y (x) = C1 1 1 Ein Fall wird hier nicht behandelt: Der Fall entarteter Eigenwerte. Für entartete Eigenwerte stellt sich die Frage, ob sich dafür linear unabhängige Eigenvektoren finden lassen. Für die weitere Betrachtung sei auf die Vorlesung Mathematik III für Physiker verwiesen. DGL n-ter Ordnung und Systeme von n DGL 1. Ordnung Zwischen Systemen von n DGL 1. Ordnung und DGL n-ter Ordnung besteht ein einfacher Zusammenhang: Jede DGL n-ter Ordnung lässt sich in System von n DGL 1. Ordnung transformieren und zwar über folgenden Zusammenhang y (n) + a1 y (n−1) + · · · + an y(x) = 0 (3.43) yn = y yn−1 = y y1 = y ⇒ y10 + a1 y1 + · · · + an yn = (3.44) 0 (3.45) (n) (3.46) 0 0yi+1 = yi (3.47) Durch diese Trafo wird jede Ableitung durch eine eigene Variable ersetzt. Damit ergibt sich auch die Lösung nach dem selben Schema. Nun wird auch klar, wieso die Wronski-Determinante für Systeme und DGL höherer Ordnung unterschiedlich definiert sind und dennoch dasselbe liefern: Für DGL höherer Ordnung lassen sich in der WronskiDeterminante die Ableitungen dann durch unabhängige Variablen ersetzen und man erhält eine identische Definition der Wronski-Determinante. Alternativ kann man aber auch für die DGL n-ter Ordnung direkt den Eulerschen Ansatz anwenden. Dies führt dann wiederum zu algebraischen Gleichungen (n-ter Ordnung). Die Lösung ist dann ebenfalls trivial. Die Lösung von inhomogenen DGL höherer Ordnung soll hier ebenfalls nicht behandelt werden. 67 3. Differentialgleichungen 3.7. Existenz und Eindeutigkeitssatz Neben der technischen Lösung von DGL sollte man noch einen wichtigen theoretischen Aspekt berücksichtigen: Sind DGL überhaupt lösbar und falls ja, wie viele Lösungen gibt es. Im Fall der DGL erster Ordnung gibt es hier einen wichtigen Satz, der Aussagen darüber macht: Den Existenz- und Eindeutigkeitssatz von Picard-Lindelöf. Das Anfangswertproblem dy = f (x, y) dy y(x0 ) = y0 x, y ∈ R (3.48) besitzt auf dem Intervall [x0 −α; x0 +α] mit α = min(a, Mb undM = max |f (x, y)| genau eine Lösung, wenn f (x, y) stetig auf dem Rechteck R = {(x, y)|x − x0 | ≤ a, |y − y0 | ≤ b} und es eine positive Lipschitz-Konstante L gibt mit |f (x, y) − f (, ŷ)| ≤ L|y − ŷ| (3.49) (Die Funktion ist also Lipschitz-stetig auf R). Der Satz zeigt Existenz und Eindeutigkeit der Lösung, aber auch ihre iterative Konstruierbarkeit. Numerische Lösung Eine große Zahl nichtlinearer DGL lassen sich prinzipiell nicht analytisch lösen. In der Physik jenseits dieser Vorlesung sind die meisten DGL tatsächlich auch nicht analytisch lösbar. Um dieses Problem zu umgehen wird eine Reihe numerischer Verfahren verwendet. Das einfachste dieser Verfahren ist das Euler-Verfahren, das aber für eine tatsächliche Benutzung viel zu langsam konvergiert. Stattdessen wird in sehr vielen Fällen das Runge-Kutta-Verfahren verwendet. Auch wenn das RK-Verfahren das belieteste Standardverfahren ist, gibt es auch ein paar Fallstricke. Die sollen aber in einer anderen Vorlesung besprochen werden. Für das Runge-Kutta-Verfahren nimmt man ein Anfangswertproblem mit einer expliziten DGL 1. Ordnung an, so daß sich die DGL als dy = f (x, y) y(x0 ) = y0 dx (3.50) schreiben lässt. Wir wollen den Wert y(b) auf dem Intervall [a; b] bestimmen. Dazu teilt man das Intervall in n äquidistante Intervalle der Länge h = b−a n . xi+1 = xi x0 = a (3.51) xn = b (3.52) Damit kann man in erster Ordnung die Lösung schrittweise approximieren dy = y(xi ) + hf (xi , yi ) y(xi+1 ) = y(xi ) + h dy xi 68 (3.53) 3.8. Separierbare partielle DGL Das wäre dann das oben erwähnte Eulerverfahren. Graphisch entspricht es dem Verfolgen der Tangente an der Kurve. Dadurch, daß dieses Verfahren “1. Ordnung” ist, benötigt man sehr viele Einzelschritte, um eine Lösung zu berechnen. Erheblich besser wird es, wenn man Runge-Kutta 4. Ordnung verwendet y( xi+1 ) = y(xi ) + ki h ki = (k1i + k2i + k3i + k4i ) 6 k1i = f (xi , yi ) h h k2i = f (xi + , yi + k1i )k3i 2 2 (3.54) (3.55) (3.56) = f (xi + h h , yi + k2i ) 2 2 (3.57) Auch dieses Verfahren kann man graphisch mit Tangenten darstellen, allerdings werden hier mehrfach verbesserte Werte für den Mittelpunkt der Tangente bestimmt. 3.8. Separierbare partielle DGL Bisher haben wir uns ausschließlich mit DGL von einer Variablen beschäftigt. Tatsächlich sind die meisten DGL von mehreren Variablen abhängig. Auf der anderen Seite besteht aber das Problem, daß partielle DGL nur in einer Unterklasse überhaupt potentiell lösbar sind. Dies sind die separierbaren partiellen DGL. Die DGL für das Zentralkraftproblem, das Wasserstoffatom oder auch nur die mehrdimensionale Schwingungsgleichung fallen in diese Kategorie. Ein typischer Vertreter dieser Klasse von DGL ist die Helmholtzgleichung ∂2Ψ ∂2Ψ ∂2Ψ + + + k2 Ψ = 0 ∂x2 ∂y 2 ∂z 2 (3.58) Diese Gleichung geht in nur einer Dimension auf die Schwingungsgleichung einer Seite zurück und beschreibt hier die Schwingung einer Membran. Wie geht man nun bei der Lösung dieser DGL vor? Aus der Physik kann man annehmen, daß bei der Schwingung einer Membran die einzelnen Richtungen sich überlagern, man also schreiben kann Ψ(x, y, z) = X(x)Y (y)Z(z) (3.59) Die Tatsache, daß x, y, z nicht explizit vorkommen und es keine gemischten Ableitungen gibt, spricht auch dafür. Diesen Ansatz kann man nun in die DGL einsetzen YZ ∂2X ∂2Y ∂2Z + XZ + XY + k 2 XY Z = 0 ∂x2 ∂y 2 ∂z 2 1 ∂2X 1 ∂2Y 1 ∂2Z ⇒ + + = −k 2 X ∂x2 Y ∂y 2 Z ∂z 2 (3.60) (3.61) 69 3. Differentialgleichungen Der Trick ist nun, daß jeder der Summanden auf der linken Seite nur von einer Variable abhängt. Damit muß jeder Term einzeln konstant sein. Dies lässt sich leicht verstehen: Wird im ersten Term x geändert, y und z bleiben aber konstant, so muß der x-abhängige Term konstant sein, denn alle anderen Terme sind konstant. Nun weist man jedem Term einzeln ein Separationskonstante zu: 1 ∂2X 1 ∂2Y 1 ∂2Z 2 2 = −l = −k − − X ∂x2 Y ∂y 2 Z ∂z 2 1 ∂2Y ⇒ = −m2 Y ∂y 2 1 ∂2Z = −k 2 − l2 − m2 = −n2 Z ∂z 2 (3.62) (3.63) (3.64) Die Wahl des negativen Vorzeichens ist prinzipiell beliebig, da wir die Lösung aber kennen, zeigt es sich, daß das eine günstige Wahl ist. Die l, m, n parametrisieren die Lösung. Da zwischen diesen drei Parametern und k eine Beziehung festgelegt ist, hängt die Lösung nur von zwei Parametern ab Ψlm (x, y, z) = Xl (x)Ym (y)Zn (z) 2 2 2 2 k =l +m +n X Ψ= al,m Ψl,m (3.65) (3.66) (3.67) l,m BeispielQuadratische Trommel ∂2Ψ ∂2Ψ + + k2 Ψ = 0 ∂x2 ∂y 2 Ψ(0, y) = Ψ(a, y) = Ψ(x, 0) = Ψ(x, a) = 0 Dieses Beispiel entspricht einer am Rand eingespannten Trommel (die Auslenkung an den Kanten ist 0) mit einer Federkonstante k. Wir wählen den Ansatz Ψ(x, y) = X(x)Y (y). 1 ∂2X 1 ∂2Y + X ∂x2 Y ∂y 2 ∂2X ∂x2 ∂2Y ∂y 2 l2 + m2 = −k 2 = −l2 X = −m2 Y = k2 Die Lösung der separierten DGL ist trivial Xl (x) = Al sin(lx) + Bl cos(lx) 70 3.8. Separierbare partielle DGL Wie nicht anders zu erwarten, hat auch diese DGL 2. Ordnung zwei Lösungen. Aus den Randbedingungen kann man jetzt folgende Schlüsse ziehen Xl (0) = 0 ⇒ Bl = 0 Xl (a) = 0 ⇒ sin(la) = 0 Die Cosinus-Lösungen verschwinden schon einmal, aus dem rechten Rand gewinnen wir aber eine Aussage über l!. la = nl π nl ∈ N Wir gewinnen also eine diskrete Quantenzahl. Anschaulich beschreibt diese Quantenzahl die Zahl der Wellenberge, die sich unterbringen lässt. Es folgt daraus n2l + n2m = k 2 a2 π2 Zu jedem k gehören also Kombinationen von nl und nm , die die x und y Lösung beschreiben. BeispielWellengleichung Die Helmholtzgleichung beschreibt die Schwingung einer Membran, allerdings nur deren Ortsanteil. Um die zeitliche Entwicklung einer Schwingung zu betrachten, schauen wir uns die Wellengleichung (hier in 1D) an 2 ∂2u 2∂ u − c =0 ∂t2 ∂x2 u soll hier wieder die Randbedingung u(0, t) = u(l, t) = 0 erfüllen. Wiederum machen wir einen Separationsansatz u(x, t) = X(x)T (t) es folgt X 00 1 T̈ (x) = 2 (t) X c T X 00 + λ2 X = 0 T̈ + c2 λ2 T = 0 Für λ = 0 lauten die Lösungen X(x) = a0 + a1 x und T (t) = b0 + b1 t. Es ist offensichtlich, daß diese Lösungen nur für a0 = a1 = b0 = b1 = 0 die Randbedingungen erfüllen können. Ansonsten lauten die Lösungen X(x) = a1 cos(λx) + a2 sin(λx) T (t) = b1 cos(cλt) + b2 sin(cλt) 71 3. Differentialgleichungen Wie schon im vorherigen Beispiel, kann man für den Ortsanteil folgern, daß a1 = 0 ist und λn = nπ , l n∈N Nun kann man aber noch die Anfangsbedingungen des Problems berücksichtigen u(x, 0) = φ(x), ut (x, 0) = ψ(x) Wie muß man nun die Lösung zusammensetzen, um die Anfangsbedingunen zu erfüllen? u(x, t) = u(x, 0) = ut (x, 0) = ∞ X n=1 ∞ X n=1 ∞ X sin( nπ nπ nπ x) An cos( ct) + Bn sin( ct) l l l An sin( cBn n=1 nπ ! x) = φ(x) l nπ nπ ! sin( x) = ψ(x) l l Hier hat man nun auf der linken Seite der Gleichung eine unendlich Summe von Lösungen stehen. Wie findet man nun die Koeffizienten An und Bn heraus? Hier kann man sich zu Nutze machen, daß die Lösungen orthogonale Funktionen sind, die folgende Relation erfüllen Z l nπ mπ 1 sin( x) sin( x) = δnm l l 2 0 Damit ist es nun möglich, die Koeffizienten zu bestimmen, indem man mit den orthogonalen Funktionen multipliziert und über die [0; l] integriert 2 l Z l nπ φ(x) sin( x)dx l 0 Z l nπ 2 ψ(x) sin( x)dx Bn = nπl 0 l An = Man erkennt, daß es sich hier offensichtlich um eine Fouriertransformation handelt! Grundsätzlich stellen die Lösungen, die auf diese Weise für die separierten DGL gewonnen werden, immer orthogonale Funktionen dar. Separierbare partielle DGL in krummlinigen Koordinaten Im vorherigen Abschnitt haben wir die Helmholtzgleichung kennengelernt. Diese lässt sich allgemein als ∆u(~x) + k 2 u(~x) = h(x) (3.68) schreiben. Wenn wir nun statt einer quadratischen Membran zu einer kreisförmigen Membran übergehen und Lösungen annehmen, die radialsymmetrisch sind (u(~x) = f (r)), 72 3.9. Fourier- und Laplace-Transformation können wir den Radialanteil des Laplace-Operators verwenden (hier allgemein für ndimensionale Probleme) 1 ∂ ∂2 n−1 ∂ n−1 ∂ ∆r = n−1 r = 2+ (3.69) r ∂r ∂r ∂r r ∂r Dies wiederum führt zur DGL n−1 0 f (r) + k 2 f (r) = 0 (3.70) r Die Lösung dieser DGL ist nun im Gegensatz zum kartesischen Problem alles andere als trivial. Es wird sich im nächsten Semester zeigen, daß die Lösung die zylindrischen Besselfunktionen sind. BeispielBewegung om konservativen Zentralkraftfeld Der Klassiker unter den DGL ist die Bewegung im Zentralkraftfeld. Es gelte F~ (~r) = F (~r)~er , womit F~ konservativ ist ∇ × F~ = 0. Nun lässt sich daraus ein Potential ableiten f 00 (r) + ! F~ (~r) = F (r)~er = −∇V (~r ∂V 1 ∂V 1 ∂V =− ~er − ~eθ − ~eϕ ∂r r ∂θ r sin θ ∂ϕ woraus dann wiederum folgt, daß V (~r) = V (r) ist. Nun haben wir zwar nicht die DGL separiert, haben dafür aber unser Problem auf andere Weise radikal vereinfacht. Wir können nun neue Gleichung formulieren E = 1/2m(ṙ)2 + V (r) = const ~ = ~r × p~ = const L ~˙ = Die Energieerhaltung ist trivial, die Erhaltung des Drehimpulses ergibt sich aus L F~ × ~r = 0. Jetzt können wir aber wieder unser Wissen über die Zeitableitung der Einheitsvektoren anwenden ~r = r~er ⇒ ~r˙ = ṙ~er + rθ̇~eθ + r sin θϕ̇~eϕ 3.9. Fourier- und Laplace-Transformation Im vergangenen Semester haben Sie schon die Fouriertransformation kennengelernt. Die Fouriertransformation ist ein Beispiel für eine Reihe von verschiedenen Integraltransformationen. Es gibt eine Reihe relevanter Zusammenhänge zwischen der Lösung von Differentialgleichungen und den Integraltransformationen: • Integraltransformationen können DGL in gewöhnliche Gleichung umwandeln • Integraltransformationen erlauben die Darstellung von Funktionen in orthogonalen Funktionsräumen Den letzteren Punkt wurde schon in den vorherigen Abschnitten bei der Lösung inhomogener DGL angewandt. Daher soll hier noch einmal kurz auf den ersten Punkt eingegangen werden. 73 3. Differentialgleichungen 3.9.1. Fouriertransformation Die FT ist definiert über Z ∞ 1 ˜ F (k) = f (x) = √ f (x) exp(−ikx)dx 2π −∞ Z ∞ 1 F (k) exp(ikx)dk f (x) = F̃ (k) = √ 2π −∞ (3.71) (3.72) Die FT entspricht damit einer Zerlegung der Funktion in den orthogonalen Funktionssatz sin und cos (zumindest bei der Betrachtung der FT in endlichen Intervallen). Eine besondere Eigenschaft der FT ist folgende ∂f˜(x) = −ik f˜(x) = −ikF (k) (3.73) ∂x Damit ist es dan trivial möglich, DGL in gewöhnliche Gleichung zu transformieren. In den einfachen Fällen entspricht dies der Annahme eines Exponentialansatzes für die Lösung, wie z.B. für den harmonischen Oszillator. mẍ + Dx = 0 −mω 2 x̃ + Dx̃ = 0 D ⇒ ω2 = m Gerade für den Fall von partiellen DGL wird dies aber signifikant interessanter, da sich z.B. die Poisson-Gleichung, damit umformen lässt ∂2φ ∂2φ + 2 = 4πρ ∂x2 ∂y 2 2 kx Φ̃ + ky Φ = 4π ρ̃ ∆Φ = Die weiteren Anwendungen folgen dann im nächsten Semester. 3.9.2. Laplace-Transformation Die Laplace-Transformation von f (t) für t ≥ 0 ist definiert über Z ∞ F (s) = exp(−st)f (t)dt = L[f ] 0 Beispiel Z ∞ f (t) = 1 ⇒ F (s) = exp(−st)dt Z T = lim exp(−st)dt 0 T →∞ 0 1 1 = lim (− exp(−sT )) − (− exp(−0)) T →∞ s s 1 = s 74 (3.74) 3.9. Fourier- und Laplace-Transformation Genau wie bei der Fouriertransformation gibt es auch hier einen Satz über die Transformation von Differentialoperatoren L(f (k) (t) = sk L(f (t)) − sk−1 f (0) − sk−2 f˙(0) − . . . f (k−1) (0) (3.75) Man erkennt deutlich, daß hier - im Gegensatz zur FT - die Anfangswerte der Funktion f eine Rolle spielen. Damit ist die Laplace-Transformation ideal geeignet, um Anfangswertprobleme zu lösen. Beispiel ÿ + 4ẏ = cos(2t) y(0) = 0 ẏ(0) = 1 2 L(ÿ) = s L(y) − sy(0) − ẏ(0) = s2 L(y) − 1 L(ẏ) = sL(y) − y(0) = sL(y) s L(cos(2t)) = 2 s>0 s +4 Wendet man nun die Laplace-Transformation auf die Ausgangsgleichung an, so erhält man s s2 + 4 s2 + s + 4 ⇒ L(y) = 2 (s + 4)(s2 + 4s) s2 L(y) − 1 + 4sL(y)) Um nun die Rücktransformation durchzuführen, zerlegt man den Term auf der rechten Seite in seine Partialbrüche L(y) = 1 1 1 s 1 1 1 − + + 20 s + 4 20 s2 + 4 5 s2 + 4 s(s + 4) Die Rücktransformation der Laplace-Transformation ist leider nicht so trivial wie bei der FT, ihre genaue Funktionsweise wird erst im vierten Semester besprochen. Allerdings ist sie für bestimmte Funktionen tabelliert. 1 s+4 s L(cos(2t)) = 2 s +4 1 1 L( sin(2t)) = 2 2 s +4 1 1 L( (1 − exp(−4t)) = 4 s(s + 4) L(exp(−4t)) = Womit sich dann auch diese DGL lösen lässt. 75