Mathematik für Physiker, Informatiker und Ingenieure I Skriptum des WS 2007/08 Prof. Dr. M. v. Golitschek Institut für Mathematik Universität Würzburg Literatur: Suchen Sie doch hin und wieder die Bibliotheken der Physik oder der Mathematik auf ! Hier ist eine kleine Anzahl guter Lehrbücher : 1. W. Pavel, R. Winkler : Mathematik für Naturwissenschaftler. Pearson Studium, 2007. 2. A. Hoffmann, B. Marx, W. Vogt : Mathematik für Ingenieure 1, 2. Pearson Studium, 2005 bzw. 2006. 3. D. Hachenberger : Mathematik für Informatiker. Pearson Studium, 2005. 4. H. Kerner, W. von Wahl : Mathematik für Physiker. Springer-Verlag, 2006. 5. H. Neunzert, W.G. Eschmann, et. al.: Analysis 1, Analysis 2. Springer-Verlag 1993. Inhaltsangabe Kapitel I : Grundlagen der Mengenlehre 1. 2. 3. 4. 5. Mengen und Teilmengen Verknüpfungen von Mengen Relationen Abbildungen Direkter Beweis und Widerspruchsbeweis 1 Kapitel II : Grundwissen über Zahlen 1. Die natürlichen Zahlen. Induktionsbeweis (Beweis durch vollständige Induktion) 2. Rationale und reelle Zahlen 3. Komplexe Zahlen Kapitel III: Folgen und Reihen 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Zahlenfolgen, Konvergenz, Grenzwert Konvergenzkriterien für Folgen Unendliche Reihen Teilfolgen. Satz von Bolzano und Weierstraß Reell- oder komplexwertige stetige Funktionen Die Sätze von Bolzano, Heine, Weierstraß Potenzreihen Die Exponentialfunktion Die trigonometrischen Funktionen Die Umkehrfunktion Kapitel IV: Differential- und Integralrechnung einer reellen Variablen 1. 2. 3. 4. 5. 6. 7. Das Riemannsche Integral Differenzierbarkeit einer Funktion Differenzieren der Umkehrfunktion Der Hauptsatz der Infinitesimalrechnung Anwendung: Berechnung von Weglängen Das uneigentliche Integral Tangenten. Das Newton Verfahren zur Berechnung von Nullstellen 8. Extrema von Funktionen, Wendepunkte, Satz von Rolle Mittelwertsatz der Differentialrechnung, 9. Der Taylorsche Satz, Taylor-Reihen 10. Die Regel von l’Hospital Kapitel V: Lineare Algebra. Teil 1 1. 2. 3. 4. 5. Linearer Raum Lineare Abbildungen, Lineare Gleichungssysteme Das Eliminationsverfahren von Gauß Der Rang einer Matrix Determinanten Anhang : Lineare Differentialgleichungen mit konstanten Koeffizienten 2 Kapitel I : Grundlagen der Mengenlehre §1. Mengen und Teilmengen Wir verzichten aus Zeitgründen auf eine ausführliche Darstellung einer axiomatischen Mengenlehre, sondern behandeln nur die unverzichtbaren Grundlagen der Mengenlehre aus dem mathematischen Alltag. Wir beginnen mit einer einfachen Definition der Menge, die auf Georg Cantor (1845 - 1918), den Begründer der Mengenlehre, zurückgeht: Eine Menge ist eine Zusammenfassung von bestimmten, wohlunterscheidbaren Objekten unserer Anschauung oder unseres Denkens zu einem Ganzen. In der Mengenlehre haben sich zahlreiche Definitionen, Begriffe und Bezeichnungen fachübergreifend etabliert, die wir nun an Beispielen kennenlernen wollen : Es sei A := {2, 4, 6, 8, 10}, das heißt, die Menge A besteht aus den Zahlen 2, 4, 6, 8, 10. Man sagt auch: Die Zahlen 2, 4, 6, 8, 10 sind die Elemente der Menge A. Die Mächtigkeit der Menge A ist |A| = 5. Es gilt : 4 ∈ A und 7 6∈ A : Die Zahl 4 ist Element von A, aber 7 liegt nicht in A. Wir unterscheiden die Aussagen : 4 ∈ A und {4} ⊂ A. §2. Verknüpfungen von Mengen: Außer A := {2, 4, 6, 8, 10} seien die Mengen B := {1, 2, 5, 7, 8, 11} und C := {4, 6, 10} gegeben. Es gelten folgende Aussagen : A ∩ B = {2, 8} ist der Durchschnitt der Mengen A und B, A ∪ B = {1, 2, 4, 5, 6, 7, 8, 10, 11} ist deren Vereinigung, C ⊂ A (C ist in A enthalten). C ∩ B = ∅ (der Durchschnitt von B und C ist die leere Menge ∅). A \ C := {2, 8} ( das Komplement von C in A). Definition: Es ist n o P(C) = ∅, {4}, {6}, {10}, {4, 6}, {4, 10}, {6, 10}, {4, 6, 10} die Menge aller Teilmengen von C, die sogenannte Potenzmenge von C. Die Potenzmenge von C wird auch durch 2C bezeichnet. Offensichtlich ist |P(C)| = 8 = 2|C| . Aufgabe: Wie groß ist die Mächtigkeit der Potenzmenge von A := {2, 4, 6, 8, 10} ? Definition: Es seien X und Y zwei nichtleere Mengen. Dann heißt X × Y := {(x, y) : x ∈ X, y ∈ Y } 3 das kartesische Produkt von X und Y . Es besteht aus allen geordneten Paaren (x, y) mit erster Komponente x ∈ X und zweiter Komponente y ∈ Y . Beispiele: 1. Sei X := {2, 4, 6} und Y := {1, 7}, dann ist X × Y = {(2, 1), (4, 1), (6, 1), (2, 7), (4, 7), (6, 7)}. Allgemein gilt: |X × Y | = |X| · |Y |. 2. IN2 := IN × IN = {(j, k) : j, k ∈ IN}. §3. Relationen Definitionen: (a) Es seien A, B Mengen, sowie R ⊆ A × B. Dann heißt das Tripel (R, A, B) eine Relation zwischen A und B. Anstelle von (a, b) ∈ R schreibt man auch aRb. (b) Sei A = B. Die Relation (R, A, A) habe folgende Eigenschaften: 1. R ist reflexiv, d.h. für jedes a ∈ A ist (a, a) ∈ R; 2. R ist symmetrisch, d.h. aus (a, b) ∈ R folgt (b, a) ∈ R; 3. R ist transitiv, d.h. aus (a, b) ∈ R und (b, c) ∈ R folgt (a, c) ∈ R. Dann heißt (R, A, A) eine Äquivalenzrelation auf A. Anstelle von (a, b) ∈ R schreibt man oft a ∼ b, und anstelle von (R, A, A) kürzer (A, ∼). (c) Sei A = B. Die Relation (R, A, A) habe folgende Eigenschaften: 1. R ist reflexiv; 2. R ist antisymmetrisch, d.h. gilt sowohl (a, b) ∈ R als auch (b, a) ∈ R, so ist a = b; 3. R ist transitiv. Dann heißt (R, A, A) eine Ordnungsrelation auf A. Anstelle von (a, b) ∈ R schreibt man oft a b, und anstelle von (R, A, A) kürzer (A, ). Man sagt auch : Durch wird auf A eine partielle Ordnung eingeführt. Eine partielle Ordnung heißt totale Ordnung auf A, falls für alle a, b ∈ A stets a b oder b a gilt. Beispiele: 1. aus der Algebra Es sei IN := {1, 2, 3, . . .} die Menge aller natürlichen Zahlen. Sei p ∈ IN fest gewählt, z.B. p = 7. Dann wird durch folgende Vorschrift eine Äquivalenzrelation definiert: Es ist a ∼ b genau dann, wenn b − a durch p teilbar ist. Durch diese Äquivalenzrelation wird die Menge IN in p Äquivalenzklassen eingeteilt. Wir schreiben für k = 0, 1, 2, . . . , p − 1 [k] := {a ∈ IN : a ∼ k}, 4 k = 0, 1, . . . , p − 1. Anstelle von a ∈ [k] sagt man auch ” a ist gleich k modulo p”, [k] heißt auch Restklasse modulo p. 2. Es sei A = IN × IN. Wir schreiben auch A = IN2 . Auf A sei folgende Relation gegeben: Seien a = (a1 , a2 ) ∈ A, b = (b1 , b2 ) ∈ A. Dann gilt (a, b) ∈ R genau dann, wenn gleichzeitig a1 ≤ b1 und a2 ≤ b2 erfüllt sind. Offensichtlich ist das Tripel (R, A, A) eine Ordnungsrelation. Auf A wird aber nur eine partielle Ordnung eingeführt. §4. Abbildungen Definition: Es seien A, B Mengen. Eine Relation (f, A, B) heißt Abbildung (Funktion, Transformation) von A nach B, falls es zu jedem a ∈ A genau ein b ∈ B gibt, für das (a, b) ∈ f erfüllt ist. Anstelle von (f, A, B) schreiben wir stets f :A→B und sagen : ” f ist eine Abbildung(Funktion, Transformation) von A nach B ”. Anstelle von (a, b) ∈ f schreiben wir b = f (a). Definition: Es sei f : A → B eine Abbildung von A nach B. Wir nennen A den Definitionsbereich von f und im(f ) := {f (a) : a ∈ A} das Bild (image) von f . Sei B̃ ⊂ B eine nichtleere Teilmenge von B, dann heißt f −1 (B̃) := {x ∈ A : f (x) ∈ B̃} das Urbild von B̃. Beachte, dass f −1 (B̃) = ∅ sein kann. Die Abbildung f : A → B heißt surjektiv, falls im(A) = B, f : A → B heißt injektiv, falls für alle a, a′ ∈ A mit a 6= a′ stets f (a) 6= f (a′ ) ist, f : A → B heißt bijektiv, falls f sowohl injektiv als auch surjektiv ist. Beispiele: 1. (aus der Kombinatorik) Es sei n ∈ IN und A := {1, 2, . . . , n}. Die bijektiven Abbildungen σ : A → A heißen Permutationen. In der Kombinatorik beweist man: Die Anzahl der Permutationen der Zahlen 1, 2, . . . , n ist n! := n Y k=1 k := 1 · 2 · 3 · · · (n − 1) · n. 2. : (aus der Algebra) 5 Es sei IN die Menge aller natürliche Zahlen {1, 2, . . .}. Sei p ∈ IN fest gewählt. Sei B := {0, 1, 2, . . . , p − 1}. Die Abbildung f : IN → B sei definiert durch die Vorschrift, dass n − f (n), n ∈ IN, durch p teilbar ist. Offensichtlich ist die Abbildung f surjektiv, aber nicht injektiv. Die Restklassen [k] können wir auch beschreiben durch [k] = f −1 ({k}), k = 0, 1, 2, . . . , p − 1. Insbesondere ist [0] = f −1 ({0}) die Menge aller Vielfachen von p. 3. Polarkoordinaten Es sei IR2 die Menge aller Paare reeller Zahlen. Dann gibt es zu jedem Paar (x, y) ∈ IR2 , (x, y) 6= (0, 0), genau ein Paar (r, t) von reellen Zahlen mit r > 0 und 0 ≤ t < 2π, so dass x = r cos t , y = r sin t. Die Zahlen (r, t) heißen Polarkoordinaten von (x, y). Mit Hilfe der Polarkoordinaten wird eine Bijektion φ : (0, ∞) × [0, 2π) → IR2 \ {(0, 0)} definiert. Definition (Umkehrabbildung): Es sei f : A → B eine bijektive Abbildung. Dann existiert zu f die Umkehrabbildung f −1 : B → A. Diese ist definiert durch f −1 ◦ f = idA die identische Abbildung von A auf A, also durch f −1 (f (x)) = x für alle x ∈ A. Wir sehen sofort ein, dass dann auch f ◦ f −1 = idB gilt, was wir auch in der komisch aussehenden Form (f −1 )−1 = f ausdrücken können. Definition (Komposition): Es seien A, B, C Mengen, sowie f : A → B und g : B → C Abbildungen. Deren Komposition g ◦ f : A → C ist definiert durch die Vorschrift (g ◦ f )(x) := g(f (x)), x ∈ A. Definition (Abzählbarkeit): Eine unendliche Menge A heißt abzählbar, falls es eine Bijektion f : A → IN gibt. Ansonsten heißt A überabzählbar. Beispiel: Es sei p eine natürliche Zahl. Dann ist die Menge A aller durch p teilbaren natürlichen Zahlen abzählbar. Beweis: Es sei g : IN → A gegeben durch g(m) := pm, m ∈ IN. Offensichtlich ist g eine Bijektion von IN auf A. Dann ist f := g −1 eine Bijektion von A auf IN. Beachte: Dies ist ein direkter Beweis. 6 Ohne Beweis wollen wir einen Satz von Cantor vorstellen : Satz. (Cantor) Sei A eine beliebige nichtleere Menge und 2A ihre Potenzmenge. Dann existiert keine Surjektion f : A → 2A . §5. Direkter Beweis und Widerspruchsbeweis (indirekter Beweis) Wir haben in §4 an zwei Beispielen den direkten Beweis kennengelernt. Oft läßt sich der Beweis einer Aussage einfacher mit Hilfe eines Widerspruchsbeweises bestätigen. Hier ein berühmtes Beispiel aus der Zahlentheorie: Satz. √ Die Zahl 2 ist nicht rational. √ ist. Dies bedeutet, dass es zwei natürliche Beweis: Wir nehmen an, dass 2 rational √ Zahlen p und q gibt mit der Eigenschaft 2 = p/q oder äquivalent, 2q 2 = p2 . Sind p und q gleichzeitig gerade Zahlen, so kürzen wir p und q solange gleichzeitig durch 2 bis entweder p oder q oder beide ungerade sind. Wegen 2q 2 = p2 ist p2 eine gerade Zahl. Daher ist aber p selbst ebenfalls gerade. Also existiert p0 ∈ IN mit p = 2p0 . Wir kürzen die Gleichung 2q 2 = p2 links und rechts durch 2 und erhalten die neue Gleichung q 2 = 2p20 . Folglich sind q 2 und daher auch q gerade: q und p sind gerade Zahlen, im Widerspruch zur Annahme, dass mindestes p oder q ungerade sind. 7 Kapitel II : Grundwissen über Zahlen §1. Die natürlichen Zahlen Die natürlichen Zahlen bezeichnen wir durch IN = {1, 2, 3, . . .}. Wir könnten auch wie die alten Römer die Beschreibungen {I, II, III, IV, . . .} wählen, oder ganz einfach durch Striche {|, ||, |||, ||||, . . .}. Dies alles sind äquivalente Darstellungen der natürlichen Zahlen. Im Jahre 1892 hat der italienische Mathematiker Guiseppe Peano (1858-1932) vorgeschlagen, die natürlichen Zahlen IN mit Hilfe des folgenden Axiomensystems präzise einzuführen: (P1) (P2) (P3) (P4) (P5) Es gibt ein ausgezeichnetes Element in IN, das wir mit 1 ∈ IN bezeichnen; zu jedem n ∈ IN gibt es genau einen Nachfolger succ(n) ∈ IN; nur 1 ∈ IN ist kein Nachfolger; falls n 6= m, dann ist succ(n) 6= succ(m); hat M ⊂ IN die beiden Eigenschaften (a) 1 ∈ M , (b) ist n ∈ M , so auch succ(n) ∈ M , dann ist M = IN. Offensichtlich kann man beginnend mit n + 1 := succ(n) , n + 2 := (n + 1) + 1 := succ(succ(n)), · · · in IN eine Addition einführen und durch die Vorschrift n ≤ m : ⇐⇒ es existiert q ∈ IN mit n + q = m ein totale Ordnung auf IN einführen. Diese Ordnungsrelation besitzt die Wohlordnungseigenschaft: Jede nichtleere Teilmenge von IN besitzt genau ein kleinstes Element. Wir schreiben IN0 := IN ∪ {0}, und bezeichnen die Menge der ganzen Zahlen mit Z = {· · · , −2, −1, 0, 1, 2, · · ·}. Aus der Grundschule ist bekannt, wie man in Z addiert und multipliziert, und auch wie in Z eine totale Ordnung definiert wird. Wir wollen in abstrakter Form die wichtigsten Rechenregeln (auch Axiome genannt) dieser Addition und Multiplikation zusammenstellen: In der Menge K := Z erfüllt die Addition + : K × K → K die Rechenregeln (A1) a + b = b + a, für alle a, b ∈ K (kommutativ); 8 für alle a, b, c ∈ K (assoziativ); (A2) (a + b) + c = a + (b + c), (A3) es gibt ein Element 0 ∈ K (Nullelement), so dass 0 + a = a für alle a ∈ K; (A4) zu jedem a ∈ K gibt es ein b ∈ K , so dass a + b = 0. Ein solches b bezeichnen wir mit −a. Wir definieren die Subtraktion ” − ” in K durch a − b := a + (−b). Man sagt: K bildet bezüglich der Addition ”+” eine kommutative (abelsche) Gruppe. In der Menge K := Z erfüllt die Multiplikation ∗ : K × K → K die Rechenregeln (M1) a ∗ b = b ∗ a, für alle a, b ∈ K (kommutativ) (M2) (a ∗ b) ∗ c = a ∗ (b ∗ c), (M3) Es gibt ein Element e ∈ K (Einselement) mit e 6= 0 , so dass e ∗ a = a für alle a ∈ K für alle a, b, c ∈ K (assoziativ) Offensichtlich ist in (M3) das Einselement e = 1, die Zahl 1. In der Folge werden wir meist ab anstelle von a ∗ b schreiben. Die Axiome von Peano ermöglichen es, durch einen induktiven Beweis (= durch vollständige Induktion) eine Aussage A(n) für alle n ∈ IN zu beweisen. Dieser induktive Beweis besteht aus • dem Induktionsanfang, • der Induktionsannahme und • dem Induktionsschluß. Beispiele: 1. Beweise die Aussage : 1+2+3+···+n = Dies schreiben wir auch kurz n X k= k=1 n(n + 1) . 2 n+1 . 2 Direkter Beweis des jungen Carl Friedrich Gauß, 1777-1855 : Es ist 2(1 + 2 + 3 + · · · + n) =(1 + n) + (2 + {n − 1}) + (3 + {n − 2}) + · · · + (n + 1) =n(n + 1). 9 (A(n)) Induktiver Beweis: Es gilt offensichtlich die Aussage A(1). Angenommen, es gelte A(n) für ein n ∈ IN. Dann ist n+1 n X X k =n+1+ k , k=1 k=1 und somit bei Verwendung der Induktionsannahme A(n) erhalten wir n+1 X k =n+1+ k=1 woraus n+1 X k=1 k= n(n + 1) , 2 (n + 1)(n + 2) , 2 folgt. Dies ist aber die Aussage A(n + 1). 2. Beweise die Aussage 1 3 2 2n + 3n + n . 1+2 +3 +···+n = 6 2 2 2 (A(n)) Induktiver Beweis: Es gilt offensichtlich A(1). Angenommen, es gelte A(n) für ein n ∈ IN. Dann ist n n+1 X X 2 2 k2 , k = (n + 1) + k=1 k=1 und somit bei Verwendung der Induktionsannahme A(n) erhalten wir n+1 X k 2 = (n + 1)2 + k=1 woraus n+1 X k=1 1 3 2n + 3n2 + n , 6 1 3 2 k = 2(n + 1) + 3(n + 1) + (n + 1) , 6 2 folgt. Dies ist aber die Aussage A(n + 1). 3. Beweise, dass es zu n ∈ IN genau n! Permutationen der Zahlen {1, 2, . . . , n} gibt. Induktiver Beweis: 10 Die Aussage gilt für n = 1, denn für n = 1 gibt es genau 1 = 1! Permutationen. Die Aussage sei richtig für ein n ∈ IN. Beweis für n + 1: In einer Permutation kann die Zahl n + 1 an jeder der n + 1 Positionen stehen. Andererseits gibt es nach Induktionsvoraussetzung zu fester Position von n + 1 genau n! Permutationen. Also ist die Anzahl der Permutationen der Zahlen {1, 2, . . . , n+1} gleich (n + 1) ∗ n! = (n + 1)!. 4. Lotto Es seien k und n natürliche Zahlen, k ≤ n. Es sei N (n, k) die Anzahl der Möglichkeiten, aus n Elementen k Elemente ohne Berücksichtigung der Reihenfolge auszuwählen. Es ist n(n − 1) · · · (n − k + 1) n . := N (n, k) = 1 · 2···k k Induktiver Beweis: Zunächst müssen wir die Aussage A(n) richtig formulieren: Zu n ∈ IN besagt A(n), dass n , für alle k = 1, 2, . . . , n. N (n, k) = k Offensichtlich ist A(1) richtig. Angenommen, es gelte A(n) für ein n ∈ IN. n+1 Für k = n + 1 ist N (n + 1, n + 1) = 1 = n+1 . Für k = 1 ist N (n + 1, 1) = n + 1 = . n+1 1 Sei k = 2, 3, . . . , n. Bei einer Probe unterscheiden wir, ob alle k Elemente in {1; 2; . . . ; n} liegen, oder ob eines der Elemente = n + 1 ist. Folglich ist N (n + 1, k) = N (n, k) + N (n, k − 1). Nach der Induktionsannahme ist also n n + N (n + 1, k) = k−1 k und somit, wie man leicht nachrechnet, n+1 , N (n + 1, k) = k quod erat demonstrandum. Man kann auch induktiv definieren. Zum Beispiel 0! := 1, 1! := 1, n! := n ∗ (n − 1)! = 1 ∗ 2 ∗ · · · ∗ n =: 11 n Y k=1 k. Man sagt ” n-Fakultät ”. Insbesondere kann man auch schreiben n! n = k!(n − k)! k und für k = 1, 2, . . . , n n = 1. 0 5. Binomischer Lehrsatz Es sei n ∈ IN, sowie a und b zwei reelle oder komplexe Zahlen. Dann gilt n (a + b) = n X n k k=0 ak bn−k . Hierbei definieren wir a0 = 1, b0 := 1, selbst wenn a = 0 oder b = 0, sowie Induktiver Beweis: Die Aussage ist richtig für n = 1, denn n 0 := 1. 1 1 0 1 0 1 a b . a b + (a + b) = b + a = 1 0 1 Sei die Aussage richtig für n. Dann ist sie auch richtig für n + 1, denn (a + b) n+1 n = (a + b) ∗ (a + b) = (a + b) n X n k=0 k ak bn−k n n X n k+1 n−k X n k n+1−k a b , a b + = k k k=0 k=0 und nach Umsortieren der Summen folgt hieraus (a + b) n+1 = n+1 X k=0 n + 1 k n+1−k a b , k und somit die Aussage für n + 1. Definition. Eine natürliche Zahl p > 1 heißt Primzahl, wenn es keine natürlichen Zahlen p1 > 1, p2 > 1 gibt, so dass p = p1 p2 . Zum Beispiel sind 2, 3, 5, 7, 11, 13, 17, 19 Primzahlen. Wieviele Primzahlen < 100, < 1000, < 10000, < 30000 gibt es ? 12 Antwort: es gibt 25 Primzahlen kleiner als 100, es gibt 168 Primzahlen kleiner als 1000, es gibt 1229 Primzahlen kleiner als 10000, es gibt 3245 Primzahlen kleiner als 30000. Geschichte: Erathostenes (276 - 194 B.C), Bibliothekar der großen Bücherei in Alexandria, erfand das Sieb der Primzahlen, auch Sieb des Erathostenes genannt. Und so funktioniert es, um die Primzahlen ≤ m zu ermitteln: 1. Schreibe die natürlichen Zahlen Zm := {1, 2, 3, · · · , m} auf. 2. Kreise die Zahl 2 ein streiche jede 2-te Zahl von Zm , also 4, 6, 8, . . .. 3. Kreise die nächste verbliebene Zahl von Zm ein, also die Zahl 3, und streiche alle Vielfachen dieser Zahl. 4. Führe dieses Verfahren in dieser Weise fort. Die kleinste nicht gestrichene Zahl ist stets die nächste Primzahl. √ m ist. 5. Beende dieses Verfahren, sobald die kleinste noch nicht gestrichene Zahl > √ Alle noch nicht gestrichenen Zahlen zwischen m und m sind Primzahlen. §2. Rationale und reelle Zahlen Die Menge der rationalen Zahlen besteht aus den Zahlenpaaren o Q := (p, q) p ∈ Z, q ∈ IN , n und wir schreiben Q := Hierbei heißen p1 q1 und p2 q2 o np p ∈ Z, q ∈ IN . q gleich, wenn p1 q2 = p2 q1 . Definition. Es heißen p ∈ Z und q ∈ Z teilerfremd (in Zeichen (p, q) = 1, falls es kein n ∈ IN, n 6= 1, gibt, für das p = p1 n, q = q1 n mit p1 , q1 ∈ Z richtig ist. Daher können wir auch schreiben o np : p ∈ Z, q ∈ IN, (p, q) = 1 . Q= q Definition. In Q führen wir die Addition und Multiplikation ein: p2 p1 q2 + p2 q1 p1 + := , q1 q2 q1 q2 p1 p2 p1 p2 ∗ := . q1 q2 q1 q2 13 Die ganzen Zahlen p ∈ Z werden durch die Zuordnung p → dere entspricht dann das Einselement e = 1 dem Bruch 11 . p 1 in Q eingebettet. Insbeson- Aufgabe : Überprüfen Sie, dass die rationalen Zahlen Q die Axiome (A1)-(A4), (M1)(M3) für K := Q besitzen, sowie (M4) Zu jedem a ∈ K mit a 6= 0 gibt es ein c ∈ K, so dass a ∗ c = e mit dem Einselement e = 1. Ein solches c bezeichnen wir mit a−1 . Wir definieren die Subtraktion ” − ” in Q durch a − b := a + (−b), das heißt durch p2 p1 q2 − p2 q1 p1 − = . q1 q2 q1 q2 Wir definieren die Division ” : ” in Q durch a : b := a ∗ b−1 , das heißt durch p1 p2 p1 q2 p1 q2 : := ∗ = , q1 q2 q1 p2 q1 p2 p2 6= 0. Prüfen Sie nach, dass für K = Q das Distributivgesetz gilt: (D) Für alle Elemente a, b, c ∈ K gilt (a + b) ∗ c = a ∗ c + b ∗ c. (Distributivgesetz) Definition. Auf einer Menge K mit mindestens 2 Elementen sei eine Addition + : K × K → K und eine Multiplikation ∗ : K × K → K definiert. Sind die Axiome (A1)-(A4), (M1)-(M4) und (D) erfüllt, so heißt K ein Körper (bezüglich + und ∗). Die ganzen Zahlen bilden also keinen Körper, aber die rationalen Zahlen. Nach diesem Ausflug in die Algebra wollen wir zurückkehren in den Alltag des Rechnens mit rationalen Zahlen. Dezimaldarstellung rationaler Zahlen = Dezimalbruch 185 = 23.125 = 2 ∗ 101 + 3 ∗ 100 + 1 ∗ 10−1 + 2 ∗ 10−2 + 5 ∗ 10−3 , 8 4 = 1.3333 · · · = 1.3, 3 111 = 10.0909 · · · = 10.09. 11 14 Satz 2.1. Jede rationale Zahl läßt sich als endlicher oder periodisch unendlicher Dezimalbruch schreiben. Umgekehrt ist jeder endliche oder periodisch unendliche Dezimalbruch eine rationale Zahl. Beweis: Der Beweis beruht auf der Konvergenz geometrischer Reihen, die wir erst später diskutieren. Dualdarstellung rationaler Zahlen: 128 + 32 + 16 + 8 + 1 27 + 25 + 24 + 23 + 20 185 = = 8 8 23 4 2 1 0 −3 = 2 + 2 + 2 + 2 + 2 = LOLLL.OOL, 4 = L.OLOL · · · = L.OL, 3 111 = LOLO.OOOLOLLLOL. 11 Warum braucht man reelle√Zahlen? Viele wichtigen Zahlen der Mathematik sind reell, aber nicht rational, etwa 2 (siehe Kapitel I), aber auch die Quadratwurzel jeder anderen Primzahl oder auch die Kreiszahl π = 3.14159265 . . . und die Eulersche Zahl, e = 2.718281828 . . .. In der Analysisvorlesung der Mathematiker werden die reellen Zahlen meist eingeführt (a) durch Dedekindsche Schnitte, oder durch (b) Intervallschachtelung oder (c) als Äquivalenzklassen von Cauchyfolgen rationaler Zahlen. Wir machen uns das Leben viel leichter, indem wir einfacher definieren: Definition. Die reellen Zahlen IR bestehen aus allen endlichen und unendlichen Dezimalbrüchen. Beweisen Sie : Jede reelle Zahl x kann als Dualbruch dargestellt werden. Umgekehrt beschreibt jeder Dualbruch eine reelle Zahl. Es ist x rational genau dann, wenn dieser Dualbruch endlich oder periodisch unendlich ist. Wenn wir später die geometrischen Reihen definieren, werden wir die Definition der reellen Zahlen besser verstehen. Für den Augenblick genügt es zu wissen, dass die reellen Zahlen x von der Form x = ±xn xn−1 · · · x0 .x−1 x−2 x−3 · · · , 15 xi ∈ {0, 1, 2, . . . , 9}, sind, wobei diese Schreibweise bedeutet, dass n n−1 −1 −2 x = ± xn ∗ 10 + xn−1 ∗ 10 + · · · + x0 + x−1 ∗ 10 + x−2 ∗ 10 + · · · . Offensichtlich ist für jedes m ∈ IN |x − (±xn xn−1 · · · x0 .x−1 x−2 · · · x−m )| ≤ 10−m . Also läßt sich jede reelle Zahl x beliebig genau durch rationale Zahlen annähern. Man sagt: ”Die rationalen Zahlen Q liegen dicht in IR .” Frage: Wie definiert man die Addition und die Multiplikation zweier endlicher oder unendlicher Dezimalbrüche? Überlegen Sie, dass die reellen Zahlen mit dieser Addition und Multiplikation einen Körper bilden, also die Axiome (A1)-(A4), (M1)-(M4), (D) erfüllen. §3. Komplexe Zahlen | eine hervorragende Rolle. In der theoretischen Physik spielen die komplexen Zahlen C Durch folgendes Problem wird man schnell zur Einführung der komplexen Zahlen angeregt: | , in dem Erweitere den Körper der reellen Zahlen IR möglichst einfach zu einem Körper C die quadratische Gleichung z2 + 1 = 0 eine Lösung besitzt! Eine Lösung dieses Problems wird gegeben durch Definition. | 1. Es besteht C aus allen Paaren z = (x, y), x, y ∈ IR. x heißt Realteil von z, y Imaginärteil von z. Wir schreiben x =Re(z), y =Im(z). 2. Zwei komplexe Zahlen z1 = (x1 , y1 ) und z2 = (x2 , y2 ) heißen gleich, wenn x1 = x2 und y1 = y2 . | wird definiert durch 3. Die Addition in C z1 + z2 = (x1 + x2 , y1 + y2 ). 4. | wird definiert durch Die Multiplikation in C z1 z2 = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ). 5. | wird mit i bezeichnet. Anstelle von z = (x, y) schreibt man Das Element (0, 1) ∈ C z = x + iy, anstelle von (x, 0) schreibt man x. 16 Satz 3.1. | bilden einen Körper mit Nullelement 0 1. Die komplexen Zahlen C und Einselement 1, das heißt mit (0, 0) und (1, 0). | ist eineindeutig und erhält 2. Die Zuordnung x → (x, 0) von x ∈ IR nach (x, 0) ∈ C die Addition und Multiplikation. | die beiden Lösungen z = ±i. 3. Die Gleichung z 2 + 1 = 0 hat in C Beweis. Wir beweisen nur: Sei z = x + iy, z 6= 0. Dann ist das inverse Element in (M4) z −1 = x−iy x2 +y 2 . | führen wir die Subtraktion ein durch In C z1 − z2 := (x1 − x2 ) + i(y1 − y2 ) und die Division (falls z2 6= 0) durch x − iy 2 2 x22 + y22 x y − x y (x1 x2 + y1 y2 ) 2 1 1 2 = + i . x22 + y22 x22 + y22 z1 : z2 := z1 z2−1 = (x1 + iy1 ) Des weiteren definieren wir den Betrag einer komplexen Zahl z = x + iy durch |z| := p x2 + y 2 , und die zu z konjugiert komplexe Zahl durch z := x − iy. Dann erhalten wir folgende Rechenregeln, die das Rechnen mit komplexen Zahlen sehr erleichtern: 17 Satz 3.2. Es seien z, z1 , z2 komplexe Zahlen. Dann gilt: z1 + z2 = z1 + z2 , z1 z2 = z1 z2 , z1 z1 = , z2 z2 (z) = z, genau dann, wenn z ∈ IR, 1 Re(z) = (z + z), 2 1 i Im(z) = (z − z) = − (z − z), 2i 2 |z| ≥ 0 , |z| = 0 genau dann, wenn z=z |z1 z2 | = |z1 ||z2 |, z1 |z1 | = z2 |z2 | , |z| = |z|, |z|2 = zz = zz = x2 + y 2 , |z1 ± z2 | ≤ |z1 | + |z2 |, z = 0, für alle z = x + iy, ||z1 | − |z2 || ≤ |z1 ± z2 |. Beweisen Sie : Es gelten die Rechenregeln |z1 z2 | = |z1 ||z2 | , z1 |z1 | = z2 |z2 | . Neben der Darstellung z = x + iy einer komplexen Zahl z ist auch die Darstellung in der x − y−Ebene mit aufeinander senkrecht stehenden x- und y-Achsen üblich und nützlich. | als die Gaußsche Zahlenebene. Es hat z dann die PolarkoorMan bezeichnet dann C dinatendarstellung z = |z|(cos (φ) + i sin (φ)). Hierbei ist φ der Winkel zwischen der x-Achse und der Strecke 0, z, also zum Beispiel φ = π/2 für z = iy, y > 0, oder φ = 3π/2 für z = −iy, y > 0. Natürlich kann man anstelle von φ auch φ + 2πk, k ∈ Z, nehmen. Im Falle z = 0 ist φ beliebig wählbar. Wie man leicht nachrechnen kann, gilt 18 Satz 3.3. Es seien z, z1 , z2 komplexe Zahlen, z = |z|(cos (φ) + i sin (φ)) 6= 0, z1 = |z1 |(cos (φ1 ) + i sin (φ1 )), z2 = |z2 |(cos (φ2 ) + i sin (φ2 )) 6= 0. Dann ist z n = |z|n (cos (nφ) + i sin (nφ)) , −n −n für alle n ∈ IN, z = |z| (cos (nφ) − i sin (nφ)) , für alle n ∈ IN, z1 z2 = |z1 z2 | (cos (φ1 + φ2 ) + i sin (φ1 + φ2 )) |z1 | z1 = (cos (φ1 − φ2 ) + i sin (φ1 − φ2 )) . z2 |z2 | Insbesondere gilt die Formel von Moivre (cos (φ) + i sin (φ))n = cos (nφ) + i sin (nφ) für alle n ∈ Z, und alle φ ∈ IR. Aus dieser Formel von Moivre folgt sofort, dass für n ∈ IN die Lösungen der Gleichung z n = 1 (das heißt, die n-ten Einheitswurzeln) gegeben sind durch zν := cos (2πν/n) + i sin (2πν/n), ν = 0, 1, . . . , n − 1, oder auch etwas allgemeiner: Satz 3.4. Es sei ζ = |ζ|(cos (ψ) + i sin (ψ)) 6= 0, gegeben. Für n ∈ IN hat die Gleichung z n − ζ = 0 die n verschiedenen Lösungen ψ 2πν ψ 2πν 1/n cos zν := |ζ| + i sin , ν = 0, 1, . . . , n − 1. + + n n n n Aber wir können auch allgemeine reelle quadratische Gleichungen z 2 + pz + q = 0, p, q ∈ IR, (3.1) | lösen. Denn durch quadratische Ergänzung ist (3.1) äquivalent zu in C p 2 p2 (z + ) = − q. 2 4 Ist also ∆ := p2 4 − q positiv, dann sind die beiden Lösungen z1 und z2 reell, nämlich p √ z1 = − + ∆ 2 , p √ z2 = − − ∆. 2 Ist ∆ = 0, dann haben wir nur die Lösung z1 = z2 = − p2 . Ist aber ∆ negativ, so erhalten wir die beiden Lösungen r r p p p2 p2 z1 = − + i q − , z2 = − − i q − . 2 4 2 4 19 Anhang 1: Hauptsatz der Algebra | → C | der Form Jedes algebraische Polynom Pn : C Pn (z) = a0 + a1 z + · · · + an z n , | , a a 0 , . . . , an ∈ C n 6= 0, (3.2) vom Grade n besitzt n komplexe Nullstellen z1 , . . . , zn , und es gilt Pn (z) = an n Y k=1 (z − zk ) | . für alle z ∈ C Zum Beweis dieser Aussage benötigen wir 1. den Nachweis, dass jedes Polynom vom Grade ≥ 1 mindestens eine Nullstelle besitzt, 2. den Euklidischen Algorithmus: Gegeben seien die Koeffizienten a0 , . . . , an des algebraischen Polynoms Pn in (3.2). und eine Nullstelle z1 von Pn . Gesucht sind die Koeffizienten b0 , . . . , bn−1 des algebraischen Polynoms Pn−1 (z) = b0 + b1 z + · · · + bn−1 z n−1 , das die Gleichung Pn (z) = (z − z1 )Pn−1 (z) fizientenvergleich erhalten wir bn−1 := an ; for k:=n-2 downto 0 do bk := z1 bk+1 + ak+1 ; | für alle z ∈ C erfüllt. Durch Koef- Anhang 2: Wir werden später die folgende Formeln begründen: eiφ = cos φ + i sin φ, e−iφ = cos φ − i sin φ für alle φ ∈ IR. Folgerungen: Statt z = |z|(cos φ + i sin φ) schreiben wir z = |z|eiφ , es gilt eiφ − e−iφ eiφ + e−iφ , sin φ = , cos φ = 2 2i und die Formel von Moivre wird zu (eiφ )n = einφ . Anhang 3: Rationale Funktionen Seien P und Q algebraische Polynome. Dann heißt deren Quotient R := P/Q eine rationale | definiert, falls Q(z) 6= 0 ist. Mit Hilfe Funktion. Offensichtlich ist R(z) an Stelle z ∈ C des Euklidischen Algorithmus oder des Hauptsatzes der Algebra sehen wir sofort ein, dass sich jede rationale Funktion darstellen läßt als Quotient zweier algebraischer Polynome P und Q, die keine gemeinsame Nullstelle besitzen. 20 Kapitel III: Folgen und Reihen §1. Zahlenfolgen, Konvergenz, Grenzwert Eine Zahlenfolge (oder kurz Folge) besteht aus unendlich vielen reellen oder komplexen Zahlen mit genau festgelegter Reihenfolge. Zum Beispiel 1, 2, 3, 4, · · · Wir schreiben: 0, 1, 22 , 32 , 42 , · · · 1 ∞ , 1 + n2 n=0 (an )∞ n=1 (sn )∞ n=0 (n)∞ n=1 , Wir schreiben: (n2 )∞ n=0 , 1 n mit an = 1 + , n n k X 1 . mit sn = 3 k=0 Definition 1.1. (Cauchyfolge) Eine Zahlenfolge (an )∞ n=1 heißt Cauchyfolge, wenn es zu jedem ε > 0 eine natürliche Zahl Nε gibt, die nur von ε und der Folge abhängt, so dass |an − am | < ε für alle m > Nε , n > Nε . (1.1) Ist (an ) keine Cauchyfolge, so nennen wir sie divergent. Definition 1.2. (Grenzwert) | heißt Grenzwert der Zahlenfolge (a )∞ Eine Zahl a ∈ C n n=1 , wenn es zu jedem ε > 0 eine natürliche Zahl Nε gibt, die nur von ε und der Folge abhängt, so dass |an − a| < ε für alle n > Nε . (1.2) Wir schreiben dann a = lim an n→∞ und sagen: ∞ ”Die Folge (an )∞ n=1 ist konvergent”, oder ”die Folge (an )n=1 konvergiert gegen a”. Bemerkung: Bei den Definitionen 1.1 und 1.2 ist es gleichgültig, ob es sich um eine Folge ∞ ∞ (an )∞ n=1 oder (an )n=0 oder (an )n=2 etc. handelt. 21 Satz 1.1. ∞ 1. Besitzt eine Zahlenfolge (an )∞ n=1 einen Grenzwert a, so ist (an )n=1 eine Cauchyfolge. 2. Jede reelle oder komplexe Cauchyfolge (an )∞ n=1 besitzt einen eindeutigen Grenzwert. Beweis: 1. Besitzt (an )∞ n=1 einen Grenzwert a, so gibt es nach Definition 1.2 zu jedem ε > 0 ein Nε ∈ IN mit der Eigenschaft (1.2). Folglich gilt für alle m, n > Nε |an − am | = |(an − a) + (a − am | ≤ |an − a| + |a − am | < 2ε. Daher ist die Bedingung (1.1) zum Beispiel erfüllt für Nε/2 . 2. (Indirekter Beweis.) Es seien a und b Grenzwerte der Folge (an )∞ n=1 . Nach Definition 1.2 gibt es zu jedem ε > 0 natürliche Zahlen Nε und Ñε , so dass |an − a| < ε für alle n > Nε , |an − b| < ε für alle n > Ñε . Dann ist aber |a − b| = |a − an + an − b| ≤ |a − an | + |an − b| < 2ε für alle n > max{Nε , Ñε }. Dies ist aber für beliebig kleine ε > 0 nur möglich, wenn a = b ist. Der Beweis der Existenz eines Grenzwertes a einer Cauchyfolge folgt aus der Konstruktion der reellen und komplexen Zahlen in Kapitel II. Wir wollen hier aber keinen detaillierten Beweis geben. Bemerkung: | einen Grenzwert besitzt, sagt man : Da jede Cauchyfolge in IR oder C | ”IR und C sind vollständig (bezüglich des Betrags | · |).” Hingegen sind die rationalen Zahlen Q nicht vollständig, denn es gibt Cauchyfolgen in Q, die in Q keinen Grenzwert besitzen, zum Beispiel die Folge x1 := 1 , xn+1 := x2n + 2 , 2xn n = 1, 2, . . . , (1.3) √ die aus rationalen Zahlen besteht und sehr schnell gegen 2 konvergiert. Aber wie beweist man dies? Die durch die Rekursionsformel (1.3) beschriebene Methode nennt man Babylonisches √ √ Wurzelziehen. Wir können so nicht nur 2, sondern a für irgend ein a > 0 berechnen. Nur müssen wir (1.3) ersetzen durch x1 := 1 , xn+1 := x2n + a , 2xn 22 n = 1, 2, . . . . √ Beweisen Sie: es ist x2 > x3 > · · · > xn > xn+1 > · · · > a und √ √ (xn − a)2 für alle n ≥ 1. xn+1 − a = 2xn Hieraus erkennen wir die quadratische Konvergenz der Folge (xn )∞ n=1 gegen √ a. Bemerkung: Newton-Verfahren Das Newton-Verfahrens ist das wichtigste numerische Verfahren zur Bestimmung einer Nullstelle x∗ einer differenzierbaren Funktion f : Sei x1 eine Näherung von x∗ . Dann berechne die Folge xn+1 := xn − f (xn ) , f ′ (xn ) n = 1, 2, . . . . Ist f ′ (x∗ ) 6= 0 und liegt der Startwert x1 genügend nahe bei x∗ , so konvergiert die Folge ∗ (xn )∞ n=1 quadratisch gegen x . Wir erkennen, dass das Babylonische Wurzelziehen ein Spezialfall des Newton-Verfahrens ist für f (x) := x2 − a. Beispiele divergenter und konvergenter Folgen: 1. Die Folge (n)∞ n=0 ist divergent. 2. Die Folge (1/n)∞ n=1 ist Cauchyfolge und konvergiert gegen a = 0. 3. Geometrische Reihe | mit |α| < 1. Dann konvergiert die Folge Sei α ∈ C (sn )∞ n=0 mit sn = n X αk k=0 gegen den Grenzwert schreiben 1 1−α . Wir sagen: Die Reihe ∞ X αk = k=0 P∞ k=0 αk konvergiert gegen 1 . 1−α 1 1−α und (1.4) Beweis: Wir rechnen zunächst nach, dass für jedes n ∈ IN (1 − α) Also ist n X k=0 αk = n X k=0 αk = 1 − αn+1 . 1 − αn+1 1−α 23 für alle n ∈ IN. (1.5) Wegen limn→∞ αn+1 = 0 gilt daher (1.4). Diese letzte Aussage wollen wir etwas präziser nachrechnen: Zu vorgegebenem ε > 0 wählen wir ein Nε so groß, dass |α|Nε < ε. Dann ist wegen (1.5) n αn+1 1 n+1 X ε k = |α| − α = < 1 − α 1−α |1 − α| |1 − α| für alle n > Nε . k=0 Um Definition 1.2 exakt nachzuvollziehen, müssen wir noch Nε geeignet anpassen. Wie dies geht, ist offensichtlich und soll hier und auch in Zukunft unterbleiben. In den beiden letzten Beispielen hatten wir den großen Vorteil, dass wir den Grenzwert erraten oder leicht bestimmen konnten. Daher konnten wir Definition 1.2 verwenden. Häufig erkennt man den Grenzwert nicht so leicht. Dann verwendet man Definition 1.1 wie im folgenden Beispiel : 4. Die Reihe ∞ X 1 k! k=0 ist konvergent. Ihr Grenzwert heißt Eulersche Zahl, e = 2.718281828 . . .. Beweis: Pn Es ist sn := k=0 1 k! |sm − sn | = und somit für n < m m X k=n+1 1 1 1 1 1+ , = +···+ k! (n + 1)! n+2 (n + 1)(n + 2) · · · m und somit |sm − sn | < 2 1 < . (n + 1)! n Um das Cauchykriterium (1.1) der Definition 1.1 zu erfüllen, müssen wir zu ε > 0 zum Beispiel Nε := 1 + [1/ε] wählen. Hierbei bedeutet [1/ε] die größte ganze Zahl ≤ 1/ε. Bemerkung: Eine Zahlenfolge (an )∞ n=1 heißt Nullfolge, wenn ihr Grenzwert gleich 0 ist. Sie heißt beschränkt, wenn es eine positive Zahl M gibt, so dass |an | ≤ M für alle n ∈ IN. Es ist leicht zu zeigen, dass konvergente Folgen beschränkt sind. 24 Eine dumme Frage: Sind beschränkte Folgen stets konvergent ? Manchmal bleibt es uns nicht erspart, die Konvergenz von Folgen mit Hilfe der ε-Kriterien (1.1) oder (1.2) zu beweisen. Aber mit zunehmender Erfahrung und Kenntnissen läßt sich diese unangenehme Epsilontik meist vermeiden, wenn man die folgenden Rechenregeln für konvergente Folgen anwendet. Satz 1.2. ∞ Es seien (an )∞ n=1 und (bn )n=1 konvergente (reelle oder komplexe) Zahlenfolgen mit den Grenzwerten a und b. Dann gilt: lim (an + bn ) = a + b ; n→∞ lim (an − bn ) = a − b ; n→∞ lim an bn = ab ; n→∞ a an = falls bn 6= 0, b 6= 0 . n→∞ bn b Beweis: Nur Mut, versuchen Sie, den leichten Beweis dieses Satzes alleine zu führen. lim Einige wichtige Grenzwerte : 1. Für jede reelle Zahl α > 0 ist lim α1/n = 1. n→∞ 2. Es sei (zn )∞ n=1 eine komplexe Zahlenfolge, zn = xn + iyn , xn , yn ∈ IR. Sie ist konver∞ gent genau dann, wenn die Folgen (xn )∞ n=1 und (yn )n=1 der Real- und Imaginärteile konvergieren, und es gilt lim zn = lim xn + i lim yn . n→∞ 3. n→∞ n→∞ Es gilt sogar lim n1/n = 1 n→∞ , lim n−1/n = 1. n→∞ Wir wollen nun plausibel machen, dass n1/n gegen 1 konvergiert: Zunächst sehen wir sofort ein, dass n1/n > 1 ist für alle n ≥ 2. Sei nun ε > 0 beliebig gewählt. Angenommen, es erfülle n ≥ 2 die Ungleichung n1/n ≥ 1 + ε. Dann ist n(n − 1)ε2 n 2 n n , ε > ε+ n ≥ (1 + ε) ≥ 1 + 2 2 1 was nur im Falle n < 1 + 2ε−2 möglich ist. 25 §2. Konvergenzkriterien für Folgen Zum Nachweis der Konvergenz einer Folge reeller oder komplexer Zahlen haben wir bisher kennengelernt: • das Nachprüfen der Definition 1.2, falls der Grenzwert bereits bekannt ist, oder • das Nachprüfen der Definition 1.1, falls der Grenzwert unbekannt ist, • die Verwendung des Satzes 1.2 über Summen, Differenzen, Produkte, Quotienten ∞ von Folgen (an )∞ n=1 , (bn )n=1 , deren Konvergenz oder gar Grenzwerte a und b bereits bekannt sind. Des weiteren werden wir nun • das Monotoniekriterium und • das Einschließungskriterium kennenlernen. Satz 2.1. Jede monoton steigende, nach oben beschränkte Folge (an )∞ n=1 ist konvergent; ebenso jede monoton fallende, nach unten beschränkte Folge. Beweis: Es gelte an ≤ an+1 für alle n ∈ IN mit n ≥ 1 , oder auch nur an ≤ an+1 für alle n ≥ N0 , ab einem N0 ∈ IN. Außerdem gebe es ein M ∈ IR, so dass an ≤ M für alle n ≥ N0 . Indirekter Beweis: Angenommen, diese Folge (an )∞ n=1 ist keine Cauchyfolge. Nach Definition 1.1 existiert dann ein ε > 0, für das kein Nε existiert mit der Eigenschaft |am − an | < ε für alle m > Nε , n > Nε . Für dieses ε > 0 gibt es also unendlich viele Indexpaare (mk , nk ), k ∈ IN, so dass n1 < m1 ≤ n2 < m2 ≤ n3 < m3 ≤ · · · und |amk − ank | ≥ ε , k ∈ IN. Wegen der Monotonie der Folge ist dann aber für alle j ∈ IN amj = amj − anj + anj ≥ ε + anj ≥ ε + amj−1 ≥ · · · ≥ (j − 1)ε + am1 . Lassen wir j gegen ∞ gehen, so folgt lim amj = ∞, was der Beschränktheit der Folge (an )∞ n=1 widerspricht. Dieser Widerspruch beweist, dass unsere Annahme falsch ist. Folglich ist (an )∞ n=1 eine Cauchyfolge. Wie wir bereits in §1 argumentiert haben (Satz 1.1), besitzt jede Cauchyfolge in IR einen eindeutigen Grenzwert. 26 Satz 2.2. ∞ Es seien (an )∞ n=1 und (bn )n=1 zwei reelle konvergente Folgen, wobei an ≤ bn für alle n ≥ N0 . 1. Dann ist lim an ≤ n→∞ lim bn . n→∞ 2. Gilt sogar a := limn→∞ an = limn→∞ bn , so konvergiert jede Folge (cn )∞ n=1 ebenso gegen a, falls sie die Bedingungen an ≤ cn ≤ bn für alle n ≥ N0 erfüllt. Beweis: Wende die Definition 1.2 der Konvergenz an. Beispiele: 1. PDie Eulersche Zahl e = 2.718281828 . . . ist definiert als Grenzwert der Reihe ∞ 1 k=0 k! . Es gilt aber auch 1 n 1+ = e . n→∞ n lim Diese Folge ist monoton wachsend und beschränkt. Die Beschränktheit der Folge erkennen wir aus dem binomischen Satz : Es ist n n−k 1 1 n X n = an := 1 + k n n k=0 (2.1) 1 n−1 1 (n − 1)(n − 2) 1 =1+1+ + +···+ 2! n 3! n·n n! und somit an ≤ 1 + 1 + 1 1 1 + +···+ 2! 3! n! und somit an < e. Um die Monotonie zu erkennen, schreiben wir an+1 1 n+1 1 n 1 1 n(n − 1) := 1 + =1+1+ + +···+ n+1 2! n + 1 3! (n + 1)(n + 1) (n + 1)! und vergleichen diese Summanden von an+1 mit denen in (2.1). 27 Das Monotoniekriterium des Satzes 2.1 liefert nun die Konvergenz der Folge. Den Grenzwert e ersehen wir, wenn wir in (2.1) n gegen ∞ laufen lassen. 2. Mit Hilfe von Satz 1.2 können wir die Grenzwerte recht wilder Folgen ausrechnen: Wir erkennen sofort, dass für k ∈ IN 1 = 0. n→∞ nk lim Dann ist für vorgegebene reelle oder komplexe Zahlen ak , bk , k = 0, 1, . . . , 5, a 0 + a 1 n + a 2 n2 + · · · + a 5 n5 n→∞ b0 + b1 n + b2 n2 + · · · + b5 n5 a0 n−5 + a1 n−4 + a2 n−3 + · · · + a5 = lim n→∞ b0 n−5 + b1 n−4 + b2 n−3 + · · · + b5 a5 , falls b5 6= 0, b5 = +∞, falls a5 > 0, b5 = 0, b4 > 0 . lim 3. Es sei a0 > 0 vorgegeben, sowie die Rekursionsformel an+1 := a2n + 9 , 5an + 3 n = 0, 1, . . . . Wir erkennen sofort, dass alle an positiv sind und nach oben beschränkt sind. Es ist nicht sofort zu sehen, dass die Folge konvergiert. Falls sie aber konvergiert, so muß der Grenzwert a die Gleichung a2 + 9 a= 5a + 3 √ erfüllen. Also wäre a = 83 ( 17 − 1). Variieren Sie das C-Programm ”wurzel.c”, um die Konvergenz mit Startwert a0 = 1 zu bestätigen. Beachten Sie, dass die Folge (an )∞ n=0 nur langsam gegen a konvergiert. 4. Und zum Schluß eine harte Nuß: Eine Folge komplexer Zahlen (zk )∞ k=1 soll die Rekursionsformel zk+2 − 2zk+1 + 2zk = 1, k ∈ IN, erfüllen. Bestimmen Sie alle Anfangswerte (z1 , z2 ), für die die Folge konvergiert ! Ergebnis: Nur die Startwerte z1 = z2 = 1 führen zu einer konvergenten Folge, nämlich zu zn = 1, n ∈ IN. 28 §3. Unendliche Reihen Definition 3.1. Es sei (ak )∞ k=0 eine Folge reeller oder komplexer Zahlen. Setze sn := n X ak , n = 0, 1, 2, . . . . k=0 Wir nennen die Zahlenfolge tialsumme der Reihe. (sn )∞ n=0 Wir sprechen ”von der Reihe P∞ k=0 eine (unendliche) Reihe, und sn heißt die n-te Par- ak ”. Definition P 3.2. ∞ Eine Reihe k=0 ak heißt konvergent mit Wert oder Summe s und schreiben s= ∞ X ak , k=0 falls die Folge (sn )∞ n=0 gegen s konvergiert. Beispiele: 1. Geometrische Reihe | mit |z| < 1 ist Für jedes z ∈ C ∞ X zk = k=0 1 . 1−z 2. Reihendarstellung von e: Es ist ∞ X 1 1 1 1 1 e = = 1+1+ + + + + ···. k! 2 6 24 120 k=0 3. Harmonische Reihe: Die Reihe ∞ X 1 k k=1 divergiert (gegen +∞). Beweis von 3.: Es ist für jedes n ∈ IN 2n n 2n 2n X X X 1 X1 1 1 1 − = ≥ = . k k k 2n 2 k=1 k=1 k=n+1 k=n+1 Pn Folglich ist die Folge sn = k=1 k1 der Partialsummen keine Cauchyfolge; die harmonische Reihe ist divergent und es gilt ∞ X 1 = ∞. k k=1 29 Eine notwendige Bedingung an konvergente Reihen gibt der folgende einfache Satz wieder: Satz 3.1. P∞ Konvergiert die Reihe k=0 ak , so ist die Folge (ak )∞ k=0 eine Nullfolge. Beweis: Pn Nach Definition 3.2 ist die Folge sn = k=0 ak , n ∈ IN, eine Cauchyfolge. Dies bedeutet nach Definition 1.1, dass es zu jedem ε > 0 eine natürliche Zahl Nε gibt, die nur von ε und der Folge abhängt, so dass |sn − sm | < ε für alle m > Nε , n > Nε . Setzen wir die Definition von sn und sm ein, so wird für m > n | m X k=n+1 ak | < ε für alle m > Nε , n > Nε . Insbesondere für m = n + 1 ist |an+1 | < ε für alle n > Nε . Aber dies ist die Bedingung der Definition 1.2 für eine Nullfolge . Aber aufgepaßt: Bei der harmonischen Reihe ist die Folge ak = P∞ die Reihe k=1 k1 divergiert . 1 k eine Nullfolge, aber Manchmal kann man mit dem folgenden Satz die Konvergenz von Reihen nachweisen: Satz 3.2. Leibnizsches Konvergenzkriterium. Hat die Folge (ak )∞ k=0 folgende Eigenschaften ∞ (a) (ak )k=0 ist Nullfolge, (b) |ak+1 | ≤ |ak | für alle k ≥ N0 , ab einem N0 ∈ IN, (c) ak+1 ak < 0 für alle k ≥ N0 . P∞ Dann konvergiert die Reihe k=0 ak . Beweis: Wir prüfen das Konvergenzkriterium der Definition 1.1 nach: Zu ε > 0 wählen wir Nε so groß, dass Nε > N0 , sowie |ak | < ε für alle k > Nε erfüllt ist. Dann ist für alle Nε < n < m m n X X ak − ak = an+1 + · · · + am ≤ |an+1 | < ε. k=0 k=0 Nach Definition 1.1 ist die Folge P n k=0 ak ∞ n=0 30 eine Cauchyfolge. Beispiel: Die Reihe ∞ X (−1)k−1 k=1 k =1− 1 1 1 + − +··· 2 3 4 konvergiert, und zwar gegen ln 2 = 0.69314718 . . . (ln = natürlicher Logarithmus). Nützlich ist die folgende Rechenregel für konvergente Reihen: Satz 3.3. P P∞ ∞ Seien s = k=0 ak und d = k=0 bk konvergente Reihen. Dann ist die Reihe ∞ X | , αak + βbk , α, β ∈ C k=0 konvergent und hat die Summe αs + βd. Beweis: Dies können Sie doch alleine, oder ? Viele Reihen P∞ k=0 ak sind sogar absolut konvergent. Dies bedeutet, dass die Reihe ∞ X k=0 |ak | konvergiert. Leicht sehen Sie ein, dass gilt: Satz 3.4. Eine absolut konvergente Reihe ist konvergent, und es gilt ∞ ∞ X X |ak |. ≤ a k k=0 k=0 Beweis: Dies können Sie doch auch alleine, oder ? Sie müssen nur anwenden, dass für beliebige m > n m n X X ak − ak = an+1 + an+2 + · · · + am ≤ |an+1 | + |an+2 | + · · · + |am | k=0 k=0 erfüllt ist. Aber die Umkehrung des Satzes 3.4 ist nicht immer richtig. Zum Beispiel konvergiert die Reihe P∞ P∞ 1 k−1 1 k=1 (−1) k=1 k divergiert. k = ln 2, aber die harmonische Reihe Insbesondere bei den Potenzreihen werden die drei folgenden Kriterien • das Majorantenkriterium, • das Quotientenkriterium, • das Wurzelkriterium, einfache Hilfsmittel sein, um schnell die absolute Konvergenz einer Reihe zu beweisen. 31 Satz 3.5. Majorantenkriterium P∞ P∞ Besitzt die Reihe k=0 ak eine konvergente Majorante s = k=0 bk , das heißt mit der Eigenschaft |ak | ≤ bk , für alle k ∈ IN0 := IN ∪ {0}, P∞ dann konvergiert die Reihe k=0 ak absolut, und es ist ∞ ∞ X X ak ≤ |ak | ≤ s. (3.1) k=0 k=0 Beweis: Pn Die Folge sn = k=0 |ak |, n ∈ IN, ist monoton steigend und durch s nach oben beschränkt. Nach 3.2 konvergiert somit die Reihe P∞ Satz 2.1 ist diese Folge konvergent. Nach PDefinition ∞ k=0 |ak |, und nach Satz 3.4 auch die Reihe k=0 ak . Satz 3.6. Quotientenkriterium P∞ Für die Reihe k=0 ak gebe es eine natürliche Zahl N und eine positive Zahl M < 1, so dass a k+1 (3.2) ≤ M für alle k ≥ N ak erfüllt ist. Dann ist die Reihe absolut konvergent. Satz 3.7. Wurzelkriterium P∞ Für die Reihe k=0 ak gebe es eine natürliche Zahl N und eine positive Zahl M < 1, so dass |ak |1/k ≤ M für alle k ≥ N (3.3) erfüllt ist. Dann ist die Reihe absolut konvergent. Beweis von Satz 3.6 und 3.7: Wir benutzen das Majorantenkriterium (Satz 3.5) und die Konvergenz der geometrischen P∞ 1 für 0 < M < 1. Prüfen Sie nach, dass in Satz 3.6 eine konvergente Reihe k=0 M k = 1−M Majorante gegeben ist durch bk := |ak |, bk := M k−N |aN |, k > N, k = 0, . . . , N, und in Satz 3.7 durch bk := |ak |, k = 0, . . . , N − 1, bk := M k , k ≥ N. In Satz 3.7 tauchen die Zahlen |ak |1/k auf. Deren Definition ist klar: Für ak 6= 0 ist βk := |ak |1/k die positive Zahl, die die Gleichung βkk = |ak | erfüllt. Aber wie berechnet man βk ? Wie wir später sehen werden, am einfachsten nach der Formel 1 |ak |1/k = exp ln |ak | , k 32 also mit Hilfe der Exponentialfunktion exp und dem (natürlichen) Logarithmus ln. Beispiele: P∞ | mit |z| < 1 und alle α ∈ IR. 1. Die Reihe k=1 k α z k konvergiert absolut für alle z ∈ C α (Die Definition von k für α 6∈ Q wird erst später in der Vorlesung gebracht). Den Beweis führen wir mit dem Quotientenkriterium, denn es gilt (k + 1)α (k + 1)α |z k+1 | = |z|. k α |z k | kα Ist α ≤ 0, dann folgt (k + 1)α |z k+1 | ≤ |z|, k α |z k | für alle k ∈ IN, und wir können in Satz 3.6 M = |z| und N = 1 wählen. Ist α > 0, so können wir wegen (k + 1)α lim =1 k→∞ kα und |z|−1/2 > 1 die Zahl N ∈ IN so groß wählen, dass (k + 1)α ≤ |z|−1/2 kα für alle k ≥ N erfüllt ist. Dann ist (k + 1)α |z k+1 | (k + 1)α ≤ |z| ≤ |z|1/2 α k α k |z | k für alle k ≥ N. Also gilt das Quotientenkriterium für M = |z|1/2 . 2. Die Reihe ∞ X zk k=0 (3.4) k! | konvergiert für alle z ∈ C absolut. Um das Quotientenkriterium anzuwenden, betrachten wir die Quotienten |z| |z k+1 | |z k | : = , (k + 1)! k! k+1 k ∈ IN. Wählen wir N ∈ IN so groß, dass N ≥ 2|z| ist, so wird |z k+1 | |z k | 1 : ≤ (k + 1)! k! 2 33 für alle k ≥ N ; und das Quotientenkriterium ist erfüllt für dieses N und M = 1/2. Später werden wir die Summe in (3.4) die Exponentialfunktion nennen, exp (z) := ∞ X zk k=0 k! | . für alle z ∈ C (3.5) Anstelle von exp (z) schreibt man auch ez . Manchmal muß man zwei Reihen mit einander multiplizieren. Dann ist der folgende Satz sehr hilfreich. Satz P 3.8. Cauchysches P∞ Produkt zweier Reihen. ∞ Sind k=0 ak und k=0 bk absolut konvergente Reihen, so ist deren Cauchysches Produkt ∞ X k=0 a0 bk + a1 bk−1 + · · · + ak b0 = a0 b0 + (a0 b1 + a1 b0 ) + (a0 b2 + a1 b1 + a2 b0 ) + · · · (3.6) ebenfalls absolut konvergent. Für die Grenzwerte gilt ∞ X k X aj bk−j = k=0 j=0 ∞ X k=0 ak ! ∞ X bk k=0 ! . (3.7) Beweis: Für jedes n ∈ IN ist ρn := ≤ ≤ ≤ n X |a0 bk + a1 bk−1 + · · · + ak b0 | k=0 n X k=0 n X k=0 ∞ X k=0 |a0 ||bk | + |a1 ||bk−1 | + · · · + |ak ||b0 | |ak | |ak | n X k=0 ∞ X k=0 |bk | |bk | . Dies beweist, dass die Folge (ρn )∞ n=0 nach oben beschränkt ist. Da sie monoton wachsend ist, konvergiert sie nach Satz 2.1. Folglich ist das Cauchysche Produkt (3.6) absolut konvergent, und konvergiert deshalb nach Satz 3.4. 34 Um (3.7) zu beweisen, betrachten wir für n ∈ IN 2n 2n 2n X X X a b − (a b + a b + · · · + a b ) k k 0 k 1 k−1 k 0 k=0 k=0 k=0 = |a1 b2n + a2 (b2n + b2n−1 ) + · · · + a2n (b2n + b2n−1 + · · · + b0 )| ≤ |a1 ||b2n | + |a2 |(|b2n | + |b2n−1 |) + · · · + |a2n |(|b2n | + |b2n−1 | + · · · + |b0 |) 2n 2n n n X X X X ≤ |ak | |bk | − |ak | |bk | , k=0 k=0 k=0 k=0 und die letzte Zeile konvergiert gegen 0 für n → ∞. Wichtige Anwendung: Produkte von Potenzreihen : | absolut konvergenten Potenzreihen Als bedeutendes Beispiel betrachten wir die beiden in C C(z) := ∞ X (−1)k z 2k k=0 , (2k)! S(z) := ∞ X (−1)k z 2k+1 k=0 (2k + 1)! . Später werden wir cos (z) (Kosinus) anstelle von C(z) und sin (z) (Sinus) anstelle von S(z) schreiben. k 2k+1 z (−1)k z 2k | den Satz 3.8 an für a und bk = (−1) , dann Wenden wir für festes z ∈ C k = (2k)! (2k+1)! ist a0 b0 = z, und für k ≥ 1 a0 bk + · · · + ak b0 = k X aj bk−j j=0 k X (−1)j z 2j (−1)k−j z 2k+1−2j = (2j)! (2k + 1 − 2j)! j=0 k 2k+1 = (−1) z k X j=0 1 1 (2j)! (2k + 1 − 2j)! k (2k + 1)! (−1)k z 2k+1 X = (2k + 1)! j=0 (2j)!(2k + 1 − 2j)! k (−1)k z 2k+1 X 2k + 1 (−1)k z 2k+1 22k+1 = = (2k + 1)! j=0 2j + 1 (2k + 1)! 2 = 1 (−1)k (2z)2k+1 . 2 (2k + 1)! Also haben wir die Funktionalgleichung S(2z) = 2S(z)C(z), bewiesen. 35 | , z∈C (3.8) §4. Teilfolgen. Satz von Bolzano und Weierstraß Definition. Sei 1 ≤ n1 < n2 < . . . eine unendliche Folge natürlicher Zahlen, so heißt die Folge (anj )∞ j=1 eine Teilfolge der Folge (ak )∞ k=1 . Satz 4.1. Jede Teilfolge einer konvergenten Zahlenfolge ist ebenfalls konvergent und hat denselben Grenzwert. Beweis: Dies folgt direkt aus den ε-Kriterien der Definitionen 1.1 oder 1.2. Satz 4.2. Auswahlsatz von Bolzano und Weierstraß Jede beschränkte reelle Zahlenfolge (ak )∞ k=1 enthält mindestens eine konvergente Teilfolge. Beweis: Es seien b0 und c0 untere bzw. obere Schranken der Folge (ak )∞ k=1 , das heißt, b0 ≤ ak ≤ c0 für alle k ∈ IN. Für k = 1, 2, 3, . . . konstruieren wir sukzessive die Teilintervalle [bk , ck ] wie folgt: (a) Setze dk := (bk−1 + ck−1 )/2 und zerlege [bk−1 , ck−1 ] in die beiden Teilintervalle [bk−1 , dk ] und [dk , ck−1 ]. (b) Enthält [bk−1 , dk ] unendlich viele Elemente der Folge (ak )∞ k=1 , so setze [bk , ck ] := [bk−1 , dk ], ansonsten [bk , ck ] := [dk , ck−1 ]. Wähle nun die Teilfolge (ank )∞ k=1 so aus, dass ank in [bk , ck ] liegt und 1 ≤ n1 < n2 < . . . erfüllt. Jetzt können Sie sicher selbst beweisen, dass (ank )∞ k=1 eine Cauchyfolge ist. Definition. | Eine Zahl c ∈ C heißt Häufungspunkt der Folge (an )∞ n=1 , wenn es eine konvergente Teilfolge gibt mit Grenzwert c. Der interessierte Leser kann den folgenden Satz sicher sofort beweisen: Satz 4.3. Jede beschränkte reelle Folge (an )∞ n=1 besitzt einen größten und einen kleinsten Häufungspunkt. In Zeichen: lim sup an ”Limes superior” lim inf an ”Limes inferior”. n→∞ n→∞ Sie können sich auch selbst schnell überlegen, dass aus den Quotientenkriterien des Satzes 3.6 und dem Wurzelkriterium des Satzes 3.7 der folgende Satz sofort folgt: 36 Satz 4.4. P ∞ Die Reihe k=0 ak ist absolut konvergent, falls lim sup |ak |1/k < 1, k→∞ und auch wenn ak 6= 0 ab einem Index N und lim sup k→∞ |ak+1 | < 1 |ak | erfüllt ist. Mit Hilfe dieses Satzes 4.4 können und dürfen wir ab jetzt die absolute Konvergenz vieler Reihen einfach nachweisen. Hierzu ein Beispiel: P∞ | Sei m ∈ Z vorgegeben. Die Reihe k=1 k m z k konvergiert absolut für jedes z ∈ C mit |z| < 1, denn es ist für z 6= 0 lim sup k→∞ 1 m (k + 1)m |z k+1 | |z| = |z| < 1. = lim sup 1 + k m |z k | k k→∞ Aber auch die Divergenz von Reihen kann häufig schnell erkannt werden, und zwar mit Hilfe des Satz 4.5. P ∞ Die Reihe k=0 ak konvergiert nicht und damit auch nicht absolut, falls lim sup |ak |1/k > 1, (4.1) k→∞ und auch nicht, wenn ak 6= 0 ab einem Index N und lim inf k→∞ |ak+1 | > 1 |ak | (4.2) erfüllt ist. Beweis. Es sei (4.1) erfüllt. Dann existiert eine Teilfolge k1 < k2 < · · · natürlicher Zahlen mit |akj |1/kj ≥ 1 für alle j ∈ IN. Folglich ist (ak )∞ k=1 keine Nullfolge. Nach Satz 3.1 konvergiert die Reihe daher nicht. Es sei (4.2) erfüllt. Dann existert ein Index M ∈ IN, so dass ak 6= 0, sowie |ak+1 |/|ak | ≥ 1 für alle k ≥ M . Insbesondere gilt |ak | ≥ |aM | für alle k ≥ M . Folglich ist (ak )∞ k=1 keine Nullfolge. Nach Satz 3.1 konvergiert die Reihe daher nicht. 37 Beweisen Sie mit Hilfe des Auswahlsatzes von Bolzano und Weierstraß den folgenden Satz 4.6. Eine beschränkte reelle Folge ist konvergent genau dann, wenn sie nur einen Häufungspunkt besitzt. Beweisen Sie mit Hilfe des Satzes 4.6, dass die in §2 gegebene Folge (ak )∞ k=0 mit Startwert a0 > 0, gegeben durch die Rekursionsformel ak+1 a2k + 9 , := 5ak + 3 k = 0, 1, . . . , konvergiert. Zum Schluß noch eine interessante Frage mit einer erstaunlichen Antwort: Wie viele Häufungspunkte kann eine rationale Zahlenfolge haben? Antwort: Man kann die rationalen Zahlen als Folge (an )∞ n=1 schreiben. Man sagt : ”Die rationalen Zahlen sind abzählbar”. Folglich ist jede reelle Zahl ein Häufungspunkt dieser Folge. Hier ist der Beweis für das Intervall [0, 1]: Wir numerieren die rationalen Zahlen Q ∩ [0, 1] = np q o : (p, q) = 1, 0 ≤ p ≤ q, q ∈ IN zeilenweise von links nach rechts wie folgt: q=1 : 0, 1, q=2 : 1/2, q=3 : 1/3, 2/3, q=4 : 1/4, 3/4, q=5 : 1/5, 2/5, 3/5, 4/5, q=6 : 1/6, 5/6, und so weiter. 38 §5. Reell- oder komplexwertige stetige Funktionen Die bekanntesten Funktionen einer Variablen sind die algebraischen Polynome P vom Grade ≤ n. Meist werden sie dargestellt in der Form P (x) = n X a k xk . k=0 Trigonometrische Polynome vom Grad ≤ n der Periode 2π werden in der Regel dargestellt in der Form n X ak cos (kt) + bk sin (kt) T (t) = a0 + k=1 oder (in komplexer Form) T (t) = n X ck eikt . k=−n Die Variablen x oder t sind meist reell und aus einem abgeschlossenen Intervall [a, b] := {x ∈ IR : a ≤ x ≤ b}, halboffenem Intervall [a, b) := {x ∈ IR : a ≤ x < b}, (a, b] := {x ∈ IR : a < x ≤ b}, oder einem offenen Intervall (a, b) := {x ∈ IR : a < x < b}. Wie in Kapitel I schreiben wir f : D → IR | , oder f : D → C zum Beispiel f : [a, b] → IR mit Definitionsbereich D = [a, b]. Als Graph von f definieren wir die Punktmenge x 2 ∈ IR : x ∈ D . G= f (x) Durch den Graph solcher Funktionen f können wir Kurven in der Ebene beschreiben. Zum Beispiel beschreibt p f (x) = 1 − x2 , −1 ≤ x ≤ 1, den oberen Einheitskreis in der rechtwinkligen x − y-Ebene. Mit Hilfe von zwei Funktionen f1 : [a, b] → IR, f2 : [a, b] → IR kann man eine Kurve in der Ebene oft besser beschreiben: f1 (t) : a≤t≤b . K := f2 (t) Diese Darstellung der Kurve K heißt parametrische Darstellung, und K hat einen Anfang, A = (f1 (a), f2 (a)) und ein Ende B = (f1 (b), f2 (b)). Zum Beispiel beschreibt a cos (t) : 0 ≤ t ≤ 2π K := b sin (t) eine Ellipse mit Halbachsen a und b. Wir kommen nun zu dem Begriff der Stetigkeit einer Funktion f . 39 Definition 5.1. (Stetigkeit) | heißt stetig im Es sei D ein reelles Intervall. Eine Funktion f : D → IR oder f : D → C Punkt x0 ∈ D, falls es zu jedem ε > 0 ein δ = δε > 0 gibt, das von ε, f, x0 , D abhängen kann, so dass |f (x) − f (x0 )| < ε für alle x ∈ D mit |x − x0 | < δ. (5.1) f heißt stetig in D, wenn f in jedem Punkt in D stetig ist. f heißt gleichmäßig stetig in D, falls zu jedem ε > 0 ein δ > 0 mit der Eigenschaft (5.1) existiert, wobei δ von ε, f und D abhängen kann, nicht aber von x0 ∈ D. Satz 5.1. | ist stetig im Punkt x ∈ D genau dann, wenn Eine Funktion f : D → IR oder f : D → C 0 lim f (xn ) = f (x0 ) n→∞ (5.2) erfüllt ist für alle Folgen (xn )∞ n=1 ⊂ D mit lim xn = x0 . n→∞ (5.3) Beweis: 1. Es sei f in x0 ∈ D stetig, und (xn )∞ n=1 eine Folge in D mit der Eigenschaft (5.3). Zu ε > 0 sei δ das δ der Definition 5.1 . Wegen (5.1) gibt es ein Nε , so dass |xn − x0 | < δ für alle n > Nε . Wegen (5.2) ist dann |f (xn ) − f (x0 )| < ε für alle n > Nε , wodurch die Konvergenz (5.1) bewiesen ist. 2. Es gelte (5.2) für jede Folge in D mit der Eigenschaft (5.3). Angenommen, es sei f nicht stetig in x0 . Dann gibt es ein ε > 0, so dass zu jedem n ∈ IN und jedem δn := 1/n ein xn ∈ D existiert, für das |xn − x0 | < δn , |f (xn ) − f (x0 )| ≥ ε erfüllt ist. Dies widerspricht aber (5.2). Dieser Widerspruch beweist die Stetigkeit von f in x0 . Beispiele: √ 1. Die Funktion f : [0, ∞) → IR, f (x) := x, ist stetig in jedem Punkt x0 ∈ [0, ∞). Beweis: Sei zunächst x0 = 0. Für x > 0 ist dann √ |f (x) − f (x0 )| = x. 40 Zu vorgegebenem ε > 0 wählen wir δ := ε2 . Dann ist |f (x) − f (x0 )| = √ x < ε für alle |x − x0 | = x < δ. Also ist (5.1) erfüllt. Sei nun x0 > 0. Dann ist √ √ |x − x0 | |x − x0 | | x − x0 | = √ . √ ≤ √ x0 x + x0 √ Zu vorgegebenem ε > 0 wählen wir δ := ε x0 . Dann ist √ √ δ | x − x0 | < √ = ε für alle |x − x0 | < δ. x0 Also ist erneut (5.1) erfüllt. Nun eine Herausforderung an Sie: Zeigen Sie, dass man im letzten Beispiel zu ε >√0 für jedes x0 ≥ 0 stets δ = ε2 wählen kann, um (5.1) zu befriedigen. Also ist f (x) = x im Intervall [0, ∞) gleichmäßig stetig. 2. Die Funktion f : (0, 1] → IR, f (x) := 1/x, ist stetig in jedem Punkt x0 ∈ (0, 1], aber nicht gleichmäßig stetig in (0, 1]. Den einfachen Beweis überlasse ich Ihnen. Sehr nützlich für den Nachweis der Stetigkeit von Funktionen ist der folgende Satz: Satz 5.2. Es seien f und g stetige reell- oder komplexwertige Funktionen in D. Dann sind auch die folgenden Funktionen stetig in D: 1. f + g, definiert durch (f + g)(x) := f (x) + g(x), x ∈ D; | , wobei αf definiert ist durch (αf )(x) := αf (x), 2. αf , für alle α ∈ C x ∈ D; 3. f g, definiert durch (f g)(x) := f (x)g(x), x ∈ D; f (x) f f x ∈ D, falls g(x) 6= 0 in D; 4. g , definiert durch g (x) := g(x) , √ f , falls f (x) ≥ 0 für alle x ∈ D. 5. Beweis: Wir wollen den Beweis nur für die Aussage (4.) führen: Wegen der Stetigkeit von f und g in x0 gilt nach Satz 5.1 für jede Folge in D mit der Eigenschaft lim xn = x0 , n→∞ dass lim f (xn ) = f (x0 ) , n→∞ 41 lim g(xn ) = g(x0 ). n→∞ Nach Satz 5.1 ist dann wegen g(x0 ) 6= 0 lim n→∞ f (x0 ) f (xn ) = . g(xn ) g(x0 ) Erneut wegen Satz 5.1 folgt hieraus die Stetigkeit von f g in x0 . Manchmal sind zwei oder mehrere Funktionen in einander verschachtelt, zum Beispiel r 1 − x2 g(x) := , −1 ≤ x ≤ 1, 1 + x2 die sich aus den Funktionen √ 1 − x2 F (t) = t, 0 ≤ t < ∞, und f (x) = , −1 ≤ x ≤ 1, 1 + x2 zusammensetzt. Aus der Stetigkeit von f und F folgt die Stetigkeit von g wegen des folgenden Satzes: Satz 5.3. | . Es habe f : D → K den Wertebereich B. Sei F : B ∗ → K Es sei K = IR oder K = C mit B ⊆ B ∗ . Ist f stetig in x0 ∈ D und F stetig in f (x0 ), dann ist g := F ◦ f : D → K stetig in x0 . Hierbei bedeutet g := F ◦ f , dass g(x) := F (f (x)), x ∈ D. Beweis: Wir verwenden Satz 5.1: Sei (xn )∞ n=1 eine beliebige Folge in D, die gegen x0 konvergiert. Wegen der Stetigkeit von f in x0 konvergiert die Folge yn := f (xn ), n ∈ IN, gegen y0 := f (x0 ). Nun ist aber F stetig in y0 . Folglich konvergiert die Folge F (yn ), n ∈ IN, gegen F (y0 ). Wegen der Definition von g = F ◦ f ist dies gleichbedeutend mit der Konvergenz von g(xn ) gegen g(x0 ), womit wegen Satz 5.1 die Stetigkeit von g in x0 bewiesen ist. Weitere Beispiele: 3. Die Polynome P (z) = n X ak z k , k=0 | ak ∈ C | . sind stetige Funktionen bezüglich jedes Definitionsbereichs D ⊂ C 4. Die rationalen Funktionen Pn ak z k | , , ak , bk ∈ C R(z) = Pk=0 m k b z k=0 k | , der keine Nullsind stetige Funktionen bezüglich Definitionsbereichs D ⊂ C Pm jedes k stellen des Nennerpolynoms k=0 bk z enthält. Liegt x0 nicht in D, ist aber ein Häufungspunkt von D, so definieren wir : 42 Definition 5.2. | . Dann schreiben wir Es sei D ⊆ IR und x0 ein Häufungspunkt von D. Sei f : D → C y0 = lim f (x), x→x0 falls lim f (xn ) = y0 (5.4) n→∞ für jede Folge (xn )∞ n=1 ⊂ D mit Grenzwert x0 erfüllt ist. Wir schreiben y0 = lim f (x), x→x0 + wenn (5.4) richtig ist für alle Folgen (xn )∞ n=1 ⊂ D, die von rechts gegen x0 konvergieren, und y0 = lim f (x), x→x0 − wenn (5.4) richtig ist für alle Folgen (xn )∞ n=1 ⊂ D, die von links gegen x0 konvergieren. Beispiel: Es sei f : IR → IR gegeben durch x2 , lim f (x) = 1 , f (x) = x≥0 x<0. 1 1−x , Dann ist x→0− lim f (x) = 0, x→0+ aber lim f (x) x→0 existiert nicht. Sie können sofort selber die folgende einfache Aussage beweisen: Satz 5.4. | Es sei D = (a, b) := {x ∈ IR : a < x < b} ein offenes Intervall. Eine Funktion f : D → C ist stetig in x0 ∈ D genau dann, wenn f (x0 ) = lim f (x) = lim f (x) = lim f (x). x→x0 x→x0 + x→x0 − §6. Die Sätze von Bolzano, Heine, Weierstraß Wir wollen nun drei wichtige und nützliche Sätze über stetige Funktionen zusammenstellen. 43 Satz 6.1. (Zwischenwertsatz von Bolzano) Es sei f : [a, b] → IR auf dem abgeschlossenen Intervall [a, b] := {x ∈ IR : a ≤ x ≤ b} stetig, und es gelte f (a) < f (b) (oder f (b) < f (a)). Dann existiert zu jedem η mit f (a) < η < f (b) mindestens ein ξ ∈ (a, b) mit f (ξ) = η. Beweis: Erinnern Sie sich an den Beweis des Auswahlsatzes von Bolzano und Weierstraß? Auch der Beweis des vorliegenden Zwischenwertsatzes wird über das Bisektionsverfahren = Halbierungsverfahren geführt. Wir setzen a0 := a und b0 := b. Zu dem vorgegebenen η, f (a) < η < f (b), definieren wir die Folge von Intervallen [ak , bk ], k ∈ IN, der Länge bk −ak = 2−k (b −a) nach der folgenden Vorschrift: Setze ck := (ak + bk )/2 und [ak , bk ] := [ck , bk−1 ], falls f (ck ) < η, [ak , bk ] := [ak−1 , ck ], falls f (ck ) > η, STOP, falls f (ck ) = η, denn dann hat ξ := ck die gewünschte Eigenschaft f (ξ) = η. Aus der Bedingung bk −ak = 2−k (b−a) folgt sofort, dass die Folge (ck )∞ k=1 eine Cauchyfolge ist, und wegen der Stetigkeit von f ist limk→∞ f (ck ) = η. Satz 6.2. (Heine) Ist f : [a, b] → IR im abgeschlossenen Intervall [a, b] stetig, so ist f in [a, b] sogar gleichmäßig stetig. Beweis: Wir führen den Beweis indirekt: Angenommen, f wäre stetig in [a, b], aber nicht gleichmäßig stetig. Dann gäbe es ein ε > 0 mit folgender Eigenschaft: Zu jedem δ > 0 gibt es xδ , tδ ∈ [a, b] mit |xδ − tδ | < δ , |f (xδ ) − f (tδ )| ≥ ε. Wir wählen nun δ = 1/n, n ∈ IN, und betrachten die beiden Folgen ξn := xδn , ηn := tδn , n ∈ IN. Die Folge (ξn )∞ n=1 liegt in [a, b], ist also beschränkt. Nach dem Auswahlsatz 4.2 von Bolzano und Weierstraß existiert eine konvergente Teilfolge (ξnj )∞ j=1 . Deren Grenzwert ξ liegt in [a, b]. Wegen |ξn − ηn | < 1/n, n ∈ IN, konvergiert auch (ηnj )∞ j=1 gegen ξ. Wegen der Stetigkeit von f in ξ ist dann lim f (ξnj ) = lim f (ηnj ) = f (ξ). j→∞ j→∞ Dies widerspricht aber den Ungleichungen |f (ξnj ) − f (ηnj )| ≥ ε, j ∈ IN. Aus diesem Widerspruch folgt die gleichmäßige Stetigkeit von f in [a, b]. 44 Satz 6.3. (Weierstraß) Ist f : [a, b] → IR im abgeschlossenen Intervall [a, b] stetig, dann ist f in [a, b] beschränkt und nimmt ihr Maximum und ihr Minimum an. Das heißt, es existieren x0 ∈ [a, b] und x1 ∈ [a, b] mit f (x0 ) = min f (x) , f (x1 ) = max f (x). a≤x≤b a≤x≤b Beweis: Es sei (xn )∞ n=1 ⊂ [a, b] eine Minimalfolge für f , das heißt, lim f (xn ) = inf f (x). n→∞ x∈[a,b] ∞ Nach Satz 4.2 besitzt (xn )∞ n=1 ⊂ [a, b] eine konvergente Teilfolge (ξnj )j=1 , deren Grenzwert ξ in [a, b] liegt. Da f stetig in ξ ist, folgt f (ξ) = lim f (xnj ) j→∞ und somit f (ξ) = inf f (x), x∈[a,b] quod erat demonstrandum. Der Beweis für die Existenz eines Maximums ist analog. §7. Potenzreihen Definition 7.1. Sei (ak )∞ k=1 eine reelle oder komplexe Zahlenfolge. Dann heißt der Ausdruck ∞ X ak z k k=0 formale Potenzreihe. Satz 7.1. P∞ 1. Jede Potenzreihe k=0 ak z k besitzt einen Konvergenzradius ρ: | | mit |z| < ρ, und divergiert für alle z ∈ C die Potenzreihe konvergiert absolut für alle z ∈ C mit |z| > ρ. 2. Der Konvergenzradius ρ kann berechnet werden nach der Formel 1 = lim sup |ak |1/k . ρ k→∞ 45 3. Gibt es ein N ∈ IN, so dass ak 6= 0 für alle k ≥ N , dann ist |ak | , k→∞ |ak+1 | ρ = lim falls dieser Grenzwert existiert. Beweis: Die Aussagen dieses Satzes folgen direkt aus Satz 4.4 und Satz 4.5. Aber eines müssen wir stets beachten: Für |z| = ρ ist es oft schwierig, die Konvergenz oder Divergenz der Potenzreihe zu beweisen. Wenn Sie gar nicht weiter wissen, nehmen Sie doch den Computer und berechnen Sie sn = n X ak z k , n = 0, 1, . . . , k=0 | mit |z| = ρ. für verschiedene z ∈ C Beispiele: P∞ k 1. Die Potenzreihe k=1 zk hat den Konvergenzradius ρ = 1. Sie konvergiert für z = −1 | und divergiert für z = 1 (harmonische Reihe). Was aber passiert für alle anderen z ∈ C mit |z| = 1, zum Beispiel für z = i oder z = −i ? k P∞ substituieren wir zuerst w = 3z−2. Dann hat die Potenzreihe 2. In der Reihe k=1 (3z−2) k2 P∞ wk | k=1 k2 den Konvergenzradius ρ = 1. Sie konvergiert absolut für alle w ∈ C mit |w| ≤ 1 | mit |w| > 1. Daher konvergiert (siehe Übungsaufgabe 17), und divergiert für alle w ∈ C P∞ (3z−2)k | mit |z − 2/3| ≤ 1/3 und divergiert für alle z ∈ C | mit absolut für alle z ∈ C k=1 k2 |z − 2/3| > 1/3. 3. In der Reihe ∞ X (2k + (−2)k )(3z 2 − 9)k 2k + 5 k=1 substituieren wir zunächst w = 3z 2 − 9. Die Reihe ∞ X (2k + (−2)k )wk 2k + 5 k=1 | hat den Konvergenzradius ρ = 1/2. Also haben wir absolute Konvergenz für alle z ∈ C 2 2 mit |3z − 9| < 1/2, das heißt für |z − 3| < 1/6. | eine Funktion Durch eine Potenzreihe wird innerhalb des offenen Konvergenzkreises in C | definiert in D := {z ∈ C | : |z| < ρ}, und zwar durch f : Dρ → C ρ f (z) := ∞ X ak z k , k=0 46 z ∈ Dρ . Wie wir im nächsten Satz sehen werden, ist f stetig in Dρ , ja sogar beliebig oft komplex | (komplex) differenzierbar in z ∈ D , falls der differenzierbar. Hierbei heißt f : Dρ → C 0 ρ Grenzwert f (z) − f (z0 ) lim z→z0 ,z6=z0 z − z0 existiert. Dieser Grenzwert heißt 1.Ableitung von f in z0 und wird mit f ′ (z0 ) bezeichnet. Es heißt f zweimal differenzierbar in z0 , falls f und f ′ in z0 differenzierbar sind, et cetera. Satz 7.2. P∞ Die Potenzreihe k=0 ak z k habe einen Konvergenzradius ρ > 0 oder ρ = ∞. Dann ist die durch ∞ X f (z) = a k z k , z ∈ Dρ , k=0 | in D definierte Funktion f : Dρ → C ρ stetig und beliebig oft differenzierbar, und es ist ′ f (z) = ∞ X kak z k−1 , z ∈ Dρ , k=1 ′′ f (z) = ∞ X k=2 und allgemein k(k − 1)ak z k−2 , ∞ f (q) (z) X k ak z k−q , = q q! k=q z ∈ Dρ , z ∈ Dρ , q ∈ IN. Beweis: Diesen Beweis wollen wir nicht führen. Wie wäre es, wenn Sie hierzu die Literatur befragen würden ? Stattdessen wollen wir an Beispielen zeigen, wie nützlich dieser Satz ist: Die geometrische Reihe hat den Konvergenzradius ρ = 1, ∞ X 1 f (z) = = zk , 1−z k=0 |z| < 1. Folglich ist nach Satz 7.2 ∞ X 1 kz k−1 , = f (z) = 2 (1 − z) ′ k=1 ∞ |z| < 1. X 2 f (z) = k(k − 1)z k−2 . |z| < 1. = (1 − z)3 ′′ k=2 47 | absolut konvergenten Potenzreihen Differenzieren wir gliedweise die in ganz C exp (z) = ∞ X zk k=0 k! , sin (z) = ∞ X (−1)k z 2k+1 (2k + 1)! k=0 , cos (z) = ∞ X (−1)k z 2k k=0 (2k)! , so erhalten wir deren Ableitungen exp (z) ′ = exp (z) , sin (z) ′ = cos (z) , cos (z) ′ = − sin (z). §8. Die Exponentialfunktion Wir haben schon früher die Exponentialfunktion definiert durch exp(z) := ∞ X zk k=0 k! , | , z∈C (8.1) und mit Hilfe des Quotienten- oder Wurzelkriteriums festgestellt, dass diese Reihe für alle | absolut konvergiert. Nach Satz 7.2 ist exp in C | stetig und beliebig oft (komplex) z ∈C differenzierbar. Wir wollen einige wichtige Eigenschaften von exp zusammenstellen: Satz 8.1. 1. exp(0) = 1, exp ist streng monoton steigend in [0, ∞), insbesondere ist exp(x) > 1 für alle x > 1; | , 2. exp(z + w) = exp(z) exp(w) für alle z, w ∈ C | , sowie insbesondere exp(z) exp(−z) = 1 für alle z ∈ C exp (z1 + z2 + · · · + zn ) = n Y k=1 | . exp (zk ) für alle z1 , . . . , zn ∈ C | . Ist z = x + iy mit Real- und Imaginärteil x und y, dann 3. exp (z) 6= 0 für alle z ∈ C gilt exp (z) = exp (x) exp (iy) , | exp (z)| = exp (x). (8.2) 4. exp ist streng monoton steigend in (−∞, 0], sowie 0 < exp(x) < 1 für alle x < 0; 5. lim exp(x) = 0 , lim exp(x) = +∞. x→−∞ x→+∞ Beweis: 1. Dies können wir sofort aus der Potenzreihe (8.1) ablesen. 48 2. Mit Hilfe des Cauchyproduktes berechnen wir ! ∞ X k ∞ ∞ ℓ j X X Xz z j wk−j w =1+ exp(z) exp(w) = j! ℓ! j! (k − j)! j=0 j=0 k=1 ℓ=0 ∞ ∞ k X X 1 X k j k−j 1 =1+ z w =1+ (z + w)k = exp(z + w). j k! k! k=1 j=0 k=1 | . Also gilt exp(z) exp(w) = exp(z + w) für alle z, w ∈ C Setzen wir w = −z, so folgt exp(z) exp(−z) = exp(z − z) = exp(0) = 1. 3. Wegen exp(z) exp(−z) = 1 kann exp(z) nicht 0 sein. Wegen | exp (iy)| = 1 für y ∈ IR (Übungsaufgabe) folgt die rechte Gleichung in (8.2). 4. Wegen exp(x) exp(−x) = 1 und der Monotonie von exp(x) für 0 ≤ x < ∞, folgt die Monotonie für −∞ < x < 0. Außerdem folgen die Ungleichungen 0 < exp(x) < 1 −∞ < x < 0, da exp(x) > 1 für x > 0. 5. Offensichtlich strebt exp(x) gegen +∞ für x → +∞, was wir sofort aus der Potenzreihe (8.1) ersehen. Wegen exp(−x) = 1/ exp(x) strebt exp(x) gegen 0 für x → −∞. Anstelle der Bezeichnung exp(z) ist auch die Schreibweise ez gebräuchlich. Wir wollen nun erklären, wie es zu dieser Schreibweise kam: Wir haben schon früher die Eulersche Zahl e definiert durch ∞ X 1 1 1 1 1 =1+1+ + + + + · · · = 2.718281828..., e= k! 2 6 24 120 k=0 also durch e = e1 = exp(1). Sei nun n ∈ IN, und wenden wir die Formel exp(z + w) = exp(z) exp(w) mehrfach an, so erhalten wir n exp(n) = exp((n − 1) + 1) = exp(n − 1) exp(1) = · · · = exp(1) , also exp(n) = en . Ähnlich können wir zeigen, dass für jede rationale Zahl r = p/q mit q ∈ IN und p ∈ Z, exp(p/q) = exp(1/q) gilt, was wir auch schreiben können als p = exp(p) p 1/q er = ep/q = e1/q = ep . 49 1/q Hierbei müssen wir beachten, dass exp(x) > 0 für alle x ∈ IR, und dass wir schon früher die Zahl β := a1/q mit a > 0 und q ∈ IN definiert haben als die positive Zahl mit der Eigenschaft β q = a. Für alle anderen x ∈ IR, x 6∈ Q, definieren wir die x-te Potenz ex von e durch ex := exp(x), aber auch ez := exp(z) | . für alle anderen z ∈ C §9. Die trigonometrischen Funktionen Wie schon früher erwähnt, definieren wir den Kosinus und den Sinus durch die Potenzreihen ∞ ∞ X X (−1)k z 2k+1 (−1)k z 2k | . , sin (z) := , z∈C cos (z) := (2k)! (2k + 1)! k=0 k=0 Beide Funktionen gehören zur Klasse der trigonometrischen Funktionen. Wie wir | , und sogar beliebig oft schon früher gezeigt haben, sind beide Funktionen stetig in C | . differenzierbar in C Da wir die Potenzreihen innerhalb ihres Konvergenzkreises (hier: | innerhalb C) gliedweise differenzieren dürfen, erhalten wir die Ableitungen sin (z) ′ = cos (z) ′ = ∞ X (−1)k (2k + 1)z 2k k=1 ∞ X k=1 (2k + 1)! = cos (z), (−1)k (2k)z 2k−1 = − sin (z), (2k)! | , z∈C | . z∈C Sofort erkennen wir weitere Eigenschaften der obigen Potenzreihen, zum Beispiel cos (0) = 1, sin (0) = 0, cos (−z) = cos (z), der Kosinus ist eine gerade Funktion, sin (−z) = − sin (z), der Sinus ist eine ungerade Funktion. Wir haben auch schon bewiesen, dass sin (2z) = 2 sin (z) cos (z) ist. Ähnlich, mit Hilfe des Cauchyproduktes (das heißt, durch Vergleich der Koeffizienten der Potenzen 1, z, z 2 , z 3 , . . .) beweist man die folgenden Additionstheoreme: Satz 9.1. | Es gilt für alle z, η ∈ C sin (z + η) = sin (z) cos (η) + cos (z) sin (η), sin (z − η) = sin (z) cos (η) − cos (z) sin (η), cos (z + η) = cos (z) cos (η) − sin (z) sin (η), cos (z − η) = cos (z) cos (η) + sin (z) sin (η). 50 Setzen wir in der 4.Gleichung des Satzes 9.1 η = z, so folgt (sin (z))2 + (cos (z))2 = 1, | , z∈C was wir bereits in den Übungen bewiesen haben. Erinnern möchte ich auch an die Identität exp (ix) = cos (x) + i sin (x), x ∈ IR | ) , ( oder auch x ∈ C die wir auch schreiben als eix = cos (x) + i sin (x), x ∈ IR | ) . ( oder auch x ∈ C Für jede natürliche Zahl n ist exp (inx) = exp (i(n − 1)x + ix) = exp (i(n − 1)x) exp (ix) = · · · = (exp (ix))n . Wegen exp (inx) = cos (nx) + i sin (nx), x ∈ IR folgt somit die Formel von Moivre aus Kapitel II, (cos (x) + i sin (x))n = cos (nx) + i sin (nx) für alle x ∈ IR, n ∈ IN. (9.1a) Auf ähnliche Weise können Sie sofort zeigen, dass (cos (x) + i sin (x))−n = cos (nx) − i sin (nx) für alle x ∈ IR, n ∈ IN. (9.1b) | . Die beiden Gleichungen (9.1) gelten sogar für alle x ∈ C Aus der Potenzreihe (9.1) des Sinus erkennen wir sofort, dass sin (x) > 0 für 0 < x ≤ 2 ist. Wir definieren die Zahl π als die kleinste positive Nullstelle der Sinus-Funktion. Es ist π = 3.14159265 . . .. Also ist sin (x) > 0 für 0 < x < π, sin (π) = 0. Aus den Additionstheorem folgt sofort Satz 9.2. 1. Es ist cos (0) = 1 , 0 < cos (x) < 1, 0 < x < π/2 , cos (π/2) = 0. 2. Die Sinus- und die Kosinusfunktion sind 2π-periodisch, das heißt, sin (z + 2π) = sin (z) , cos (z + 2π) = cos (z) | . für alle z ∈ C 3. Es gilt π sin z + = cos (z) 2 , π cos z + = − sin (z) 2 51 | . für alle z ∈ C Den einfachen Beweis dieses Satzes will ich Ihnen überlassen. Aufgaben: 1. Zeichnen Sie die Sinus- und die Kosinusfunktion, aber auch die Funktionen sin (2x), sin (3x) cos (2x), cos (3x), sowie sin (2πx). 2. Zeichnen Sie den Tangens und Kotangens, die wir folgendermaßen definieren: sin (x) , cos (x) cos (x) cot (x) := , sin (x) − tan (x) := π π <x< , 2 2 0 < x < π. Beachten Sie, dass cos (x + π2 ) π − sin (x) cot (x + ) = = − tan (x). π = 2 sin (x + 2 ) cos (x) Geometrisch bedeutet dies, dass wir den Graph des Tangens erhalten, wenn wir den Graph des Kotangens nach links um π/2 verschieben und dann an der x-Achse spiegeln. 3. Erklären Sie die geometrische Bedeutung des Sinus, Kosinus, Tangens und Kotangens am Einheitskreis {(x, y) ∈ IR2 : x2 + y 2 = 1}. Verwenden Sie hierbei, dass eiπ/2 = i, eiπ = −1, e2πi = 1, sowie die Gleichungen eit = cos (t) + i sin (t), eint = cos (nt) + i sin (nt), t ∈ IR, t ∈ IR, n ∈ IN. Beweisen Sie den ”Pythagoras” mit Hilfe der Gleichung (sin (t))2 + (cos (t))2 = 1, t ∈ IR. 4. Erinnern Sie sich an die Polarkoordinatendarstellung der komplexen Zahlen, z = |z| cos (t) + i sin (t) . §10. Die Umkehrfunktion Definition 10.1. Es sei D ein reelles Intervall und f : D → IR eine streng monoton steigende oder streng 52 monoton fallende Funktion mit Wertebereich B. Dann besitzt f eine Umkehrfunktion, die wir mit f −1 : B → IR bezeichnen und die durch f −1 f (x) := x für alle x ∈ D, (10.1) eindeutig definiert ist. Eine gleichwertige Definition der Umkehrfunktion ist gegeben durch −1 f f (y) := y für alle y ∈ B, (10.2) denn es ist f −1 ◦ f = f ◦ f −1 = id (die Identität auf D oder B). Mit Hilfe des Satzes 5.1 erkennen wir sofort, dass die Umkehrfunktionen stetiger Funktionen auch stetig sind. Geometrisch hatodie Umkehrfunktion eine einfache Deutung: Tragen Sie den Graph n x in ein rechtwinkliges x − y-Koordinatenkreuz ein, so erhalten Sie den f (x) : x ∈ D n o Graph f −1x(x) : x ∈ B der Umkehrfunktion f −1 durch Spiegelung an der Diagonalen n o x x : x ∈ IR . 10.1. Der Logarithmus ln (natürlicher Logarithmus) Die Umkehrfunktion der Exponentialfunktion exp : IR → IR nennen wir den Logarithmus ln, ln : (0, ∞) → IR. Der Logarithmus hat den Definitionsbereich (0, ∞) = {exp (x) : x ∈ IR}. Also ist exp (ln (x)) = x für alle 0 < x < ∞, ln (exp (x)) = x für alle x ∈ IR. Offensichtlich ist ln (1) = 0 , ln (e) = 1 , lim ln (x) = −∞ x→0+ , lim ln (x) = +∞. x→+∞ Wir wollen nun einige Eigenschaften des Logarithmus herleiten: 53 Satz 10.1. Es ist ln (x1 x2 ) = ln (x1 ) + ln (x2 ) für alle x1 > 0, x2 > 0, 1 ln = − ln (x) für alle x > 0, x ln (xn ) = n ln (x) für alle x > 0, n ∈ Z 1 ln (x1/n ) = ln (x) für alle x > 0, n ∈ IN. n Beweis: Diese Eigenschaften des Logarithmus folgen sofort aus ln (1) = 0, exp (0) = 1 und aus exp (x1 + x2 ) = exp (x1 ) exp (x2 ), x1 , x2 ∈ IR. Erinnern Sie sich? Die letzte Gleichung dieses Satzes 10.1 haben wir schon früher verwendet, um in Satz 7.1 den Konvergenzradius ρ einer Potentreihe auszurechnen, 1 1 = lim sup |ak |1/k = lim sup exp ln (|ak |) . ρ k k→∞ k→∞ | definiert durch Wir haben am Ende des §8 die Schreibweise ex , x ∈ IR, und sogar ez , z ∈ C ex := exp(x) , ez := exp(z). Etwas allgemeiner definieren wir nun Definition 10.2. Es sei a > 0 eine positive reelle Zahl und x ∈ IR, dann definieren wir die x-te Potenz von a durch ax := exp (x ln (a)) und schreiben auch ax = ex ln (a) . Ohne Schwierigkeiten (??) können Sie nun die folgenden Rechenregeln beweisen: Satz 10.2. Es ist ax+t = ax at x für alle a > 0, x ∈ IR, t ∈ IR ln (a ) = x ln (a) für alle a > 0, x ∈ IR t ax = axt für alle a > 0, x ∈ IR, t ∈ IR. 10.2. Die zyklometrischen Funktionen Der Sinus ist streng monoton steigend im Intervall [− π2 , π2 ] und hat dort den Wertebereich [−1, 1]. Deren Umkehrfunktion nennen wir den Arkus Sinus, arcsin : [−1, 1] → IR. 54 Der Kosinus ist streng monoton fallend im Intervall [0, π] und hat dort den Wertebereich [−1, 1]. Deren Umkehrfunktion nennen wir den Arkus Kosinus, arccos : [−1, 1] → IR. Der Tangens ist streng monoton steigend im offenen Intervall (− π2 , π2 ) und hat dort den Wertebereich (−∞, +∞). Deren Umkehrfunktion nennen wir den Arkus Tangens, arctan : IR → IR. Der Kotangens ist streng monoton fallend im offenen Intervall (0, π) und hat dort den Wertebereich (−∞, +∞). Deren Umkehrfunktion nennen wir den Arkus Kotangens, arccot : IR → IR. Aufgabe: Zeichnen Sie diese zyklometrischen Funktionen. 55 Kapitel IV: Differential- und Integralrechnung einer reellen Variablen §1. Das Riemannsche Integral Ein Rechteck mit den vier Eckpunkten (a, 0) , (a, c) , (b, 0) , (b, c) , hat den Flächeninhalt F = (b − a)c. Ein Trapez mit den vier Eckpunkten (a, 0) , (a, c) , (b, 0) , (b, d) , hat den Flächeninhalt F = b−a 2 (d + c). Sei nun eine stetige nichtnegative Funktion f : [a, b] → IR gegeben. Dann kann man den Flächeninhalt der durch die x-Achse, die zwei Geraden x = a, x = b und durch die Kurve y = f (x), a ≤ x ≤ b, aufgespannte Fläche näherungsweise berechnen, und zwar indem man 1. das Intervall [a, b] partitioniert in n ∈ IN Teile, ∆ : a = x0 < x1 < · · · < xn = b, 2. für j = 0, 1, . . . , n − 1 einen Punkt ξj ∈ [xj , xj+1 ] wählt und die Flächeninhalte der so gewonnenen Teilrechtecke der Höhe f (ξj ) summiert, F ≈ J := n−1 X j=0 (xj+1 − xj )f (ξj ). (1.1) Man nennt die Zahl J eine Riemannsche Zwischensumme. Nimmt f auch negative Werte an, so werden in der Summe in (1.1) die Flächenteile unterhalb der x-Achse nicht addiert, sondern subtrahiert. Ein numerisch interessanter Spezialfall ist hierbei die Trapezregel: 1. das Intervall [a, b] wird in n ∈ IN gleichgroße Teile zerlegt, ∆ : a = x0 < · · · < xk = a + kh < · · · < xn = b, mit Schrittweite h := b−a , n 2. und man wählt die ξj so, dass f (ξj ) = f (xj ) + f (xj+1 ) , 2 j = 0, 1, . . . , n − 1. Dann ist h ∗ f (ξj ) der (±)Flächeninhalt des durch die vier Punkte (xj , 0) , (xj , f (xj )) , (xj+1 , 0) , (xj+1 , f (xj+1 )) , gegebenen Trapez, und der (±)Flächeninhalt F wird approximiert durch die Trapezsumme f (a) n−1 X f (b) T (f ) := h f (xj ) + . (1.2) + 2 2 j=1 Allgemein definieren wir das (Riemannsche) Integral wie folgt 56 Definition 1.1. Es sei f : [a, b] → IR eine beschränkte Funktion. Dann heißt f integrierbar in [a, b], wenn die Folge n−1 X (n) (n) (n) Jn := (xj+1 − xj )f (ξj ), n ∈ IN (1.3) j=0 für alle Partitionen (n) ∆n : a = x 0 (n) < · · · < xk < · · · < x(n) n =b mit lim |∆n | = 0, n→∞ (n) (n) |∆n | := max{xj+1 − xj (n) (n) : j = 0, . . . , n − 1} (n) und alle Zwischenstellen ξj ∈ [xj , xj+1 ] stets gegen dieselbe Zahl konvergiert. Diesen Grenzwert bezeichnen wir mit Z b f oder ausführlicher mit a Z a b f (x) dx oder Z b f (t) dt. a Satz 1.1. Ist f : [a, b] → IR in [a, b] stetig, dann ist f integrierbar. Beweis: Diesen Beweis überlasse ich Ihnen. Ein Hinweis: Benutzen Sie die gleichmäßige Stetigkeit von f (Satz 6.2 von Heine). Beispiele: Rb 1. f (x) = c, a c dx = c(b − a), Rb 2. f (x) = xn mit n ∈ IN. Es ist a xn dx = (bn+1 − an+1 )/(n + 1). Rb 3. Es ist a ex dx = eb − ea . Rb 4. Es ist a cos x dx = sin b − sin a. Rb 5. Es ist a sin x dx = − cos b + cos a. R b iαx 1 iαb iαa | . 6. Es ist a e dx = iα e − e für jedes α ∈ IR oder sogar α ∈ C Rb 1 b1+α − a1+α für jedes α > −1. 7. Es ist a xα dx = 1+α Die Beweise dieser Formeln wollen wir zurückstellen, denn diese Formeln werden sofort aus dem Hauptsatz der Infinitesimalrechnung folgen. Wir wollen nun ohne Beweis einige einfache, aber sehr nützliche Rechenregeln für das Integrieren auflisten: 57 Satz 1.2. 1. Sind f : [a, b] → IR und g : [a, b] → IR in [a, b] integrierbar, so sind auch f + g und αf , | , in [a, b] integrierbar, und es gilt α∈C Z b (f + g) = a Z b f+ b Z g Z , αf = α Z b f. a a a a b 2. Ist f : [a, b] → IR in [a, b] integrierbar, so ist f in jedem Teilintervall [c, d] ⊂ [a, b] integrierbar. Insbesondere ist f in jedem Interval [a, x0 ] und [x0 , b] mit a < x0 < b integrierbar, und es gilt Z b Z x0 Z b f= f+ f. a a x0 3. Sei ∆ : a = x0 < x1 < · · · < xn = b. Ist f : [a, b] → IR in jedem Teilintervall [xj , xj+1 ], 0 ≤ j < n integrierbar, so ist f in [a, b] integrierbar, und es gilt b Z f= a n−1 X Z xj+1 j=0 f. xj Beweis: Verwenden Sie die Definition 1.1 des Riemannschen Integrals. Zum Beispiel sind alle stückweise stetigen Funktionen in [a, b] integrierbar. Hierbei nennen wir eine Funktion f : [a, b] → IR stückweise stetig, falls eine Partition ∆ : a = x0 < x1 < · · · < xm = b existiert, so dass f in jedem offenen Interval (xj , xj+1 ), j = 0, . . . , m − 1, stetig und beschränkt ist, und die Grenzwerte lim f (x), j = 0, . . . , m − 1, lim f (x), j = 1, . . . , m x→xj + x→xj − existieren. Sehr einfach folgt aus Definition 1.1 die folgende Aussage: Ist f : [a, b] → IR in [a, b] integrierbar, so ist auch |f | : [a, b] → IR in [a, b] integrierbar, und es gilt Z b Z b f ≤ |f |. a a Eine direkte Folge der Definition 1.1 ist auch der nächste Satz 1.3. (Mittelwertsatz der Integralrechnung) Sind f und g stetige Funktionen in [a, b], und ist g(x) ≥ 0 in [a, b] (oder g(x) ≤ 0 in [a, b]), dann existiert ein ξ ∈ (a, b) mit der Eigenschaft Z b f g = f (ξ) a Z a 58 b g. Insbesondere im Falle g ≡ 1 gibt es ein ξ ∈ (a, b) mit Z b f = f (ξ)(b − a). a Ist f : [a, b] → IR in [a, b] integerierbar, so schreiben wir manchmal aus Bequemlichkeit Z a Z b f := − f. b a In §4 werden wir über den Hauptsatz der Infinitesimalrechnung sprechen. Er liefert Techniken zur Berechnung von Integralen. Diese Techniken haben alle das Ziel, die Stammfunktionen von f zu finden, zum Beispiel mit Hilfe der Substitutionsregel oder durch partielle Integration. §2. Differenzierbarkeit einer Funktion In diesem § ist D stets ein reelles Intervall (offen, abgeschlossen oder halboffen). Definition 2.1. | ) mit D ⊆ IR. Dann heißt f in x ∈ D differenzierbar, Es sei f : D → IR ( oder f : D → C 0 falls der Grenzwert f (x) − f (x0 ) f ′ (x0 ) := lim x→x0 ,x∈D x − x0 ′ existiert. Anstelle von f schreiben wir auch df df , oder . dx dt Der Grenzwert f ′ (x0 ) heißt 1.Ableitung (oder Ableitung) von f in x0 . Ist f in jedem Punkt x ∈ D differenzierbar, so wird hierdurch die Funktion f ′ : D → IR | ) definiert. Ist f ′ stetig in D, so schreiben wir (oder f ′ : D → C f ′ ∈ C(D) (C = continuous) und auch f ∈ C 1 (D). Ist f ′ differenzierbar in x0 ∈ D, schreiben wir f ′′ (x0 ) := (f ′ )′ (x0 ) (2.Ableitung). Existiert f ′′ in D und ist f ′′ stetig in D, so schreiben wir f ∈ C 2 (D), u.s.w. Definition 2.2. | ) mit D ⊆ IR. Dann heißt f in x Es sei f : D → IR ( oder f : D → C 0 ∈ D rechtsseitig differenzierbar, falls der Grenzwert f (x) − f (x0 ) f ′ (x0 +) := lim x→x0 +,x∈D x − x0 existiert. Analog definieren wir die linksseitige Ableitung f (x) − f (x0 ) . f ′ (x0 −) := lim x→x0 −,x∈D x − x0 Aus der Definition 2.1 der Differenzierbarkeit folgt sofort der folgende 59 Satz 2.1. Ist f differenzierbar in x0 ∈ D, so ist f stetig in D. Beispiele: Beweisen Sie ′ d n x := xn = nxn−1 . 1. : Es ist dx 2. : Es ist 3. : Es ist 4. : Es ist d x x dx e = e . d dx sin x = cos x. d dx cos x = − sin x. Sehr hilfreich beim Differenzieren von Funktionen sind die folgenden Rechenregeln, insbesondere die Produktregel, Quotientenregel, Kettenregel. Satz 2.2. | ) in x Es sei D ⊆ IR und x0 ∈ D. Sind f : D → IR und g : D → IR (oder → C 0 | differenzierbar, dann sind auch die Funktionen f + g, αf mit α ∈ C, f g und f /g mit g(x0 ) 6= 0 in x0 differenzierbar, und es gilt: (f + g)′ (x0 ) = f ′ (x0 ) + g ′ (x0 ) , (αf )′ (x0 ) = αf ′ (x0 ), (f g)′ (x0 ) = f ′ (x0 )g(x0 ) + f (x0 )g ′ (x0 ), f f ′ (x0 )g(x0 ) − f (x0 )g ′ (x0 ) (x0 ) = g g(x0 )2 (Produktregel) (Quotientenregel). Beweis: Wir beweisen nur die Quotientenregel: Für x ∈ D ist 1 f (x) f (x0 ) 1 f (x)g(x0) − f (x0 )g(x) = − x − x0 g(x) g(x0 ) x − x0 g(x0 )g(x) {f (x) − f (x0 )}g(x0 ) f (x0 ){g(x) − g(x0 )} 1 − = g(x0 )g(x) x − x0 x − x0 ′ ′ f (x0 )g(x0 ) − f (x0 )g (x0 ) → für x → x0 , x ∈ D. g(x0 )2 Hierbei haben wir verwendet, dass die in x0 differenzierbaren Funktionen f und g in x0 stetig sind. Satz 2.3. (Kettenregel) Es sei f : D → IR in x0 ∈ D differenzierbar und habe den Wertebereich B. Es sei F : B ∗ → IR in y0 := f (x0 ) differenzierbar, und es gelte mit B ⊆ B ∗ . Dann ist die Funktion g := F ◦ f : D → IR ebenfalls in x0 differenzierbar, und g ′ (x0 ) = F ′ (y0 )f ′ (x0 ). 60 Beweis: Es sei zunächst (xn )∞ n=1 ⊂ D eine Folge mit f (xn ) 6= f (x0 ). Dann ist f (xn ) − f (x0 ) F (f (xn )) − F (f (x0 )) g(xn ) − g(x0 ) , = xn − x 0 f (xn ) − f (x0 ) xn − x0 und wegen der Differenzierbarkeit und somit der Stetigkeit von F in y0 und f in x0 , g(xn ) − g(x0 ) F (f (xn )) − F (f (x0 )) f (xn ) − f (x0 ) lim lim = lim n→∞ n→∞ n→∞ xn − x 0 f (xn ) − f (x0 ) xn − x0 = F ′ (f (x0 )f ′ (x0 ). ′ Ist aber (xn )∞ n=1 ⊂ D eine Folge mit f (xn ) = f (x0 ), dann ist f (x0 ) = 0 und auch g(xn ) = g(x0 ) und somit g(xn ) − g(x0 ) = 0 = F ′ f (x0 ) f ′ (x0 ), n→∞ xn − x0 lim quod erat demonstrandum. Beispiele: 1. Es ist für −π/2 < x < π/2 nach der Quotientenregel sin x ′ (tan x)′ = cos x (sin x)′ cos x − sin x(cos x)′ = cos2 x cos2 x + sin2 x 1 = = . 2 cos x cos2 x 2. Es ist für 0 < x < π nach der Quotientenregel cos x ′ (cot x)′ = sin x (cos x)′ sin x − cos x(sin x)′ = sin2 x 1 − sin2 x − cos2 x =− 2 . = 2 sin x sin x 3. Es ist für x ∈ IR und n ∈ IN nach der Kettenregel ′ n sin x = n(sinn−1 x) cos x. 4. Für x 6= 0 und n ∈ IN ist nach der Quotientenregel ′ 1 ′ 0 ∗ xn − nxn−1 x−n = = , xn x2n 61 also ′ −n x = −nx−n−1 . Hieraus folgt nach der Kettenregel für alle x ∈ IR mit x 6= π/2 mod(π), dass ′ cos−n x = n(cos x)−n−1 sin x. 5. Für a > 0 und x ∈ IR ist ′ ′ x x ln a a = e = ex ln a ln a = ax ln a. 6. Es sei f : [0, ∞) → IR definiert durch f (x) := xx für x > 0 und f (0) := 1. Für x > 0 ist f in x0 = 0 stetig wegen xx = ex ln x → e0 = 1 = f (0). Hierbei haben wir benutzt, dass lim{x ln x} = 0 für x → 0+. Des weiteren ist für x > 0 nach der Kettenregel ′ ′ x ln x ln x + x(ln x) = xx (ln (x) + 1), f (x) = e denn wie wir im nächsten Paragraphen sehen werden ist (ln x)′ = 1/x für x > 0. Aber existiert f ′ (0+) ? Wir müssen betrachten ∞ f (x) − f (0) ex ln x − 1 1 X (x ln x)k = = x x x k! k=1 = ln x + ∞ X k=2 xk−1 (ln x)k → −∞ k! für x → 0 + . Haben Sie Angst vor Rechenfehlern? Nehmen wir an, Sie haben die Ableitung der Funktion 2 e−2x sin (2x − 5) √ f (x) = , x ∈ IR, (2.1) 1 + x2 mit Hilfe der Quotientenregel und Kettenregel ausgerechnet und wollen sicher sein, dass Ihre Formel stimmt. Dann nehmen Sie doch den Computer und berechnen Sie für kleine Werte h > 0 die Differenzenquotienten f (x + h) − f (x) ≈ f ′ (x) oder h f (x) − f (x − h) ≈ f ′ (x) oder h f (x + h) − f (x − h) ≈ f ′ (x) (zentraler Differenzenquotient) 2h an mehreren Stellen x ∈ IR und vergleichen Sie diese Werte mit den Werten der Formel (2.1). §3. Differenzieren der Umkehrfunktion Es sei D ⊆ IR ein Intervall und f : D → IR eine streng monotone Funktion. 62 Satz 3.1. Ist f in x0 ∈ D differenzierbar mit f ′ (x0 ) 6= 0, so ist deren Umkehrfunktion f −1 in y0 := f (x0 ) differenzierbar, und es ist (f −1 )′ (y0 ) = 1 . f ′ (x0 ) (3.1) Beweis: Da f in x0 differenzierbar ist, ist f nach Satz 2.1 in x0 stetig. Also ist f −1 in y0 stetig, und es gilt für y = f (x) f −1 (y) − f −1 (y0 ) x − x0 1 = → ′ y − y0 f (x) − f (x0 ) f (x0 ) für y → y0 . Die Formel (3.1) folgt auch aus der Kettenregel. Denn wegen x = f −1 (f (x)), x ∈ D, wird durch beidseitiges Differenzieren nach der Kettenregel 1 = (f −1 )′ (y)f ′ (x), y = f (x). Beispiele: 1. f (x) = ex , x ∈ IR. Wegen (ex )′ = ex ist nach (3.1) (ln y)′ = 1 1 = , x e y y > 0. 2. f (x) = xα , x > 0, α 6= 0. Wegen xα = eα ln x folgt aus der Kettenregel, dass (xα )′ = eα ln x α(ln x)′ = αxα−1 . 3. f (x) = sin x, −π/2 ≤ x ≤ π/2. Nach Satz 3.1 ist 1 1 = (sin x)′ cos x 1 1 =p =p , 1 − y2 1 − sin2 x (arcsin y)′ = Also ist (arcsin x)′ = √ 1 , 1 − x2 63 −1 < y < 1. −1 < x < 1. Ähnlich beweist man 1 , −1 < x < 1, 1 − x2 1 , −∞ < x < +∞, (arctan x)′ = 1 + x2 1 , −∞ < x < +∞. (arccotx)′ = − 1 + x2 (arccos x)′ = − √ | . Dann ist nach der Kettenregel 4. Es sei f (x) = eiλx , x ∈ IR, mit λ ∈ C f ′ (x) = iλeiλx f ′′ (x) = (iλ)2 eiλx , f (3) (x) = (iλ)3 eiλx , , und allgemein f (k) (x) = (iλ)k eiλx , k ∈ IN. Anwendung: Alle Lösungen der homogenen linearen Differentialgleichung y ′′ (t) + by ′ (t) + cy(t) = 0, a < t < b, (3.2) | sind von der Form mit den konstanten Koeffizienten b, c ∈ C y(t) = αeiλ1 t + βeiλ2 t , | , α, β ∈ C (3.3a) falls die Nullstellen λ1 und λ2 des Polynoms P (z) := z 2 + bz + c verschieden sind. Ist P (z) = z 2 + bz + c von der Form P (z) = (z − λ)2 , so werden durch y(t) = αeiλt + βteiλt , | , α, β ∈ C (3.3b) alle Nullstellen der homogenen Differentialgleichung (3.2) beschrieben. Überprüfen Sie diese Aussage durch Einsetzen von (3.3) in (3.2). §4. Der Hauptsatz der Infinitesimalrechnung Wie wir schon in §1 gehört haben (und wie Sie es auch am Gymnasium äußerst ausführlich eingeübt haben) liefert der Hauptsatz der Infinitesimalrechnung Techniken zur Berechnung von Integralen. Diese Techniken haben alle das Ziel, die Stammfunktionen von f zu finden, zum Beispiel mit Hilfe der Substitutionsregel oder durch partielle Integration. Und hier ist diese Wunderwaffe: Satz 4.1. Es seien f : [a, b] → IR und F : [a, b] → IR auf [a, b] stetige Funktionen. Ist F in (a, b) differenzierbar und F ′ (x) = f (x) für alle x ∈ (a, b), (4.1) dann gilt Z b a f (t)dt = F (b) − F (a), 64 (4.2) sowie x Z f (t)dt = F (x) − F (a) für alle x ∈ [a, b], a (4.3) Beweis: Es sei ∆n : a = x0 < x1 < · · · < xn = b irgendeine Partition des Intervalls [a, b]. Wenden wir den Mittelwertsatz der Differentialrechnung an, Satz 8.3, so existiert ein ξj ∈ (xj , xj+1 ) mit F (xj+1 ) − F (xj ) . F ′ (ξj ) = xj+1 − xj Wegen (4.1) gilt daher F (xj+1 ) − F (xj ) = f (ξj )(xj+1 − xj ) für j = 0, 1, . . . , n − 1. Durch Addition über alle j folgt hieraus F (b) − F (a) = n−1 X j=0 f (ξj )(xj+1 − xj ) =: J(∆n ). Da f stetig in [a, b] ist, ist f dort auch integrierbar. Nach Definition 1.1 des Riemannschen Integrals ist daher Z b lim J(∆n ) = f (t)dt. |∆n |→0 a Folglich gilt (4.2). Wenden wir (4.2) an für das Intervall [a, x] (anstelle von [a, b]), so folgt sofort (4.3) . Natürlich können Sie aus Satz 4.1 folgern, dass Z b x f (t)dt = F (b) − F (x) für alle x ∈ [a, b] richtig ist. Oder? Wichtige Beispiele: 1. Für α ∈ IR, α 6= −1 ist (xα+1 )′ = (α + 1)xα für alle x > 0. Daher gilt nach Satz 4.1 Z b xα dx = a bα+1 − aα+1 α+1 65 für alle a, b > 0. 2. Wegen (ln x)′ = x1 , x > 0, und ln 1 = 0 ist ln x = 3. Es ist Z Z x 1 dt t x cos t dt = sin x , 0 für alle x > 0. Z x 0 sin t dt = 1 − cos x. Definition 4.1. Es sei D ein reelles Intervall und f : D → IR in D stetig. Dann heißt F : D → IR Stammfunktion von f , falls F ′ (x) = f (x) für alle ”inneren Punkte” x ∈ D. Satz 4.2. Es sei D ein reelles Intervall, D = [a, b], D = (a, b], D = [a, b), oder D = (a, b), wobei a = −∞ und b = +∞ möglich sei. Sei f : D → IR in D stetig. Dann wird die Gesamtheit aller Stammfunktionen von f beschrieben durch F (x) = Z x f (t)dt + C, x0 x ∈ D, (4.4) wobei x0 ein beliebiger Punkt aus D ist und C eine beliebige reelle Zahl ist. Beweis: 1. Wir zeigen, dass jede Funktion der Form (4.4) eine Stammfunktion von f ist: Sei x ∈ (a, b), x + h ∈ D mit h 6= 0. Dann ist nach Definition von F F (x + h) − F (x) = Z x+h x0 f− Z x f x0 R x+h und somit F (x + h) − F (x) = x f . Nach Satz 1.3 (MWS der Integralrechnung) existiert R x+h ein ξh ∈ (x, x + h), so dass f (ξh )h = x f , und somit ist F (x + h) − F (x) = lim f (ξh ) = f (x). h→0 h→0 h lim Folglich ist F in x differenzierbar und F ′ (x) = f (x). Ist x = a, so gilt diese Aussage für die rechsseitige Ableitung F ′ (a+). Ist x = b, so gilt diese Aussage für die linksseitige Ableitung F ′ (b−). 2. Wir zeigen, dass sich die Stammfunktionen von f nur um eine Konstante unterscheiden: Seien F1 und F2 Stammfunktionen von f . Setze G := F2 − F1 . Dann ist G : D → IR stetig in D und erfüllt G′ = F2′ − F1′ = 0 in D. Nach Satz 4.1 ist dann für ein x0 ∈ D 66 G(x) = G(x0 ) + Z x x0 G′ = G(x0 ) für alle x ∈ D. Hiermit ist Satz 4.2 vollständig bewiesen. Definition 4.2. Es sei D ein reelles Intervall und f : D → IR stetig in D. Dann nennt man die Gesamtheit R aller Stammfunktionen von f das unbestimmte Integral von f und schreibt hierfür f . In den Formelsammlungen findet man viele Stammfunktionen. Hier ist eine kleine Auswahl. Durch Differenzieren können Sie sofort die Richtigkeit dieser Beispiele nachprüfen: Z xn+1 + C, x ∈ IR, für alle n ∈ IN xn dx = n+1 Z xα+1 + C, x > 0, für alle α 6= −1 xα dx = α+1 Z dx = ln x + C, x > 0, x Z ex dx = ex + C, x ∈ IR, Z ln x dx = x ln x − x + C, x > 0, Z ax + C, x ∈ IR, für a > 0, a 6= 1, ax dx = ln a Z cos x dx = sin x + C, x ∈ IR Z sin x dx = − cos x + C, x ∈ IR Z dx π π = tan x + C, − < x < , 2 cos x 2 2 Z dx = − cot x + C, 0 < x < π, sin2 x Z dx √ = arcsin x + C, −1 < x < 1 1 − x2 Z dx = arctan x + C, −∞ < x < +∞, 1 + x2 Z π π tan x dx = − ln (cos x) + C, − < x < , 2 2 Z cot x dx = ln (sin x) + C, 0 < x < π. 67 Aus dem Hauptsatz der Infinitesimalrechnung gewinnen wir zwei weitere Methoden zur Berechnung bestimmter Integrale, • die partielle Integration • Integration durch Substitution Satz 4.3. (Partielle Integration) Es seien f : [a, b] → IR und g : [a, b] → IR in [a, b] stetig differenzierbar. Dann gilt Z b Z b ′ f (x)g(x)dx = f (b)g(b) − f (a)g(a) − f (x)g ′ (x)dx. a Wir schreiben auch a h ib f (x)g(x) := f (b)g(b) − f (a)g(a). a Beweis: Nach der Produktregel ist (f g)′ = f ′ g + f g ′ . Unter Verwendung des Satzes 4.1 für die Funktion f g : [a, b] → IR ist daher Z b Z b h ib Z b ′ ′ f (x)g(x) = (f g) = f g+ f g ′, a a a a qed Satz 4.4. (Integration durch Substitution) Es sei x : [α, β] → IR in [α, β] stetig differenzierbar ( in α rechtseitig, in β linksseitig). Es sei B der Bildbereich der Funktion x. Es sei B ⊆ [a, b] und f : [a, b] → IR in [a, b] stetig. Dann gilt Z x(β) Z β f (x)dx = f (x(t))x′ (t)dt. x(α) α Etwas einprägsamer können wir dies auch schreiben als Z β Z x(β) dx(t) dt. f (x(t)) f (x)dx = dt α x(α) Beweis: Es bezeichne F eine Stammfunktion von f . Nach der Kettenregel ist dann d F (x(t)) = F ′ (x(t))x′ (t) = f (x(t))x′ (t), dt α ≤ t ≤ β. Daher folgt aus Satz 4.1 für g(t) := F (x(t)) und somit g ′ (t) = f (x(t))x′ (t), dass Rβ g(β) − g(α) = α g ′ (t)dt, was äquivalent ist zu F (x(β)) − F (x(α)) = 68 Z β f (x(t))x′ (t)dt. α Andererseits ist F eine Stammfunktion von f . Erneut wegen Satz 4.1 ist Z b F (b) − F (a) = f (x)dx. a Ein Vergleich beider Formeln beweist die Aussage des Satzes 4.4. Beispiele: 1. f (x) = − cos x, g(x) = x: Z π h iπ Z x sin x dx = − x cos x + 0 0 π cos x dx = π. 0 2. Nach Substitutionsregel ist für x = t2 , x′ (t) = 2t, x(0) = 0,x(1) = 1, Z Z Z 1 i1 π 2t t 1 1 1 1 dx 1h arctan x = . dt = dt = = 4 2 0 1 + (t2 )2 2 0 1 + x2 2 8 0 0 1+t 3. Die Fläche des Halbkreises mit Radius r > 0 wird durch die Substitution x(t) = r cos t, 0 ≤ t ≤ π, und x′ (t) = −r sin t, sowie x(0) = r, x(π) = −r, Z r p Z π Z 0 p p 2 sin t 1 − cos2 t dt r 2 − x2 dx = (−r sin t) r 2 − r 2 cos2 t dt = r −r 0 π = r2 Z π 0 sin2 t dt = 2 r 2 Z π (1 + cos (2t))dt = 0 §5. Anwendung: Berechnung von Weglängen. πr 2 . 2 Kurven im IRn Eine Kurve im IR2 kann dargestellt sein durch eine Gleichung, zum Beispiel beschreibt die Gleichung (y − y0 )2 (x − x0 )2 + =1 a2 b2 eine Ellipse mit Mittelpunkt (x0 , y0 ) und den Halbachsen a > 0 und b > 0. In Parameterdarstellung wird dieselbe Ellipse beschrieben durch f (t) = (x(t), y(t)) = (a cos t, b sin t), 0 ≤ t ≤ 2π, und hat in dieser Darstellung eine Durchlaufrichtung mit Anfangspunkt f (0) und Endpunkt f (2π). Eine elliptische Schraubenlinie im IR3 um die Achse {(x0 , y0 , z) ∈ IR3 | z ∈ IR} mit Anstiegsgeschwindigkeit c > 0 und 5 Windungen hat in Parameterdarstellung die Form f (t) = (x(t), y(t), z(t)) = (x0 + a cos t, y0 + b sin t, ct), Ihr Anfangspunkt ist f (0), ihr Endpunkt f (10π). 69 0 ≤ t ≤ 10π. Definition 5.1. Sei [a, b] ⊂ IR ein endliches reelles Intervall. Sei f = (f1 , f2 , . . . , fn ) : [a, b] → IRn stetig auf [a, b]. Die Punktmenge K := {f (t) ∈ IRn | a ≤ t ≤ b} heißt Kurve im IRn , mit Parameterdarstellung (f , [a, b]). Ist f (a) = f (b). so heißt die Kurve geschlossen. Sind alle Punkte f (t), a ≤ t < b, verschieden, so heißt sie Jordankurve. Die Ellipse ist also eine geschlossene Jordankurve, die Schraubenlinie ist ebenfalls eine Jordankurve, aber nicht geschlossen. Existieren in t ∈ [a, b] die Ableitungen fk′ (t), k = 1, . . . , n, und ist die Euklidische Norm kf ′ (t)k2 := n X k=1 fk′ (t)2 !1/2 von Null verschieden, so nennen wir den Vektor Tf (t) := 1 f ′ (t) ′ kf (t)k2 der (Euklidischen) Länge kTf (t)k2 = 1 den Tangentenvektor der Kurve K im Punkt f (t) und die Gerade T := {g(τ ) := f (t) + (τ − t)f ′ (t) | τ ∈ IR} die Tangente an die Kurve K im Punkt f (t). Hierbei bedeuten f ′ (a) die rechtsseitigen und f ′ (b) die linksseitigen Ableitungen. Die Kurve K heißt glatt, falls Tf (t) für jedes t ∈ [a, b] existiert und auf [a, b] eine stetige Funktion ist. Die Kurve K heißt stückweise glatt, falls es eine Partition a = t0 < t1 < · · · < tm = b des Intervalls [a, b] gibt, so dass die m Teilkurven in jedem Intervall [tk−1 , tk ], k = 1, . . . , m, glatt sind. Beachte: Es kann von der Parameterdarstellung abhängen, ob ein Punktmenge als glatte oder als nichtglatte Kurve dargestellt wird. Zum Bespiel beschreiben die beiden Kurven (t, t2 ) ∈ IR2 | − 1 ≤ t ≤ 1 und 3 6 (t , t ) ∈ IR2 | − 1 ≤ t ≤ 1 70 dieselbe Parabel, aber in der ersten Darstellung ist die Kurve glatt, in der zweiten Darstellung existiert der Tangentenvektor im Punkt (0, 0) nicht wegen f1′ (0) = f2′ (0) = 0. Die Bogenlänge von Kurven im IRn Die Kurve K ⊂ IRn sei dargestellt durch (f , [a, b]), mit stetiger Funktion f . Zu jeder Partition ∆ : a = t0 < t1 < · · · < tm = b von [a, b] ist die Länge des Polygonzugs durch die m + 1 Punkte f (t0 ), f (t1 ), . . . , f (tm ) der Kurve durch den Ausdruck n m 2 X X fk (tj ) − fk (tj−1 ) L∆ (K) = j=1 k=1 !1/2 (5.1) gegeben. Die Kurve K heißt rektifizierbar, falls L(K) := sup L∆ (K) ∆ endlich ist, und L(K) heißt die Bogenlänge der Kurve K. Satz 5.1. Ist K eine stückweise glatte Kurve, dargestellt durch (f , [a, b]), so ist K rektifizierbar, und v Z bu n uX t (fk′ (t))2 dt. (5.2) L(K) = a k=1 Beweis: Die Formel (5.2) folgt sofort aus der Formel (5.1) und dem Mittelwertsatz der Differentialrechnung. Man kann nachprüfen, dass die so definierte Bogenlänge nicht von der Parameterdarstellung der Kurve K abhängt. Um dies nachzuvollziehen, muß man die Substitutionregel bei der Integration von Funktionen einer reellen Variablen anwenden. Beispiel 1: Die Bogenlänge des Graphen einer Funktion Es sei g ∈ C 1 [a, b] und f (t) := (t, g(t)), a ≤ t ≤ b, der zu g gehörende Graph. Dann ist die Bogenlänge dieses Graphen nach Satz 5.1 zu berechnen nach der Formel Z bp 1 + g ′ (t)2 dt. L(K) = (5.3) a Beispiel 2: Die Bogenlänge einer Ellipse Wie schon öfters erwähnt, hat die Ellipse mit Mittelpunkt (0, 0) und den Halbachsen a > 0, b > 0 die Parameterdarstellung f (t) = (a cos t, b sin t) 71 , 0 ≤ t ≤ 2π. Die Formel des Satzes 5.1 führt zu Z Z 2π p 2 2 2 2 a sin t + b cos t dt = 4b L(K) = 0 0 π/2 p 1 − α sin2 t dt (5.4) mit α := (b2 − a2 )/b2 . Für den Kreis ist a = b, also α = 0 und somit L(K) = 2πb. Ist a 6= b, so sollten Sie nicht zu lange in der Formelsammlung nach einer Stammfunktion suchen. Sie werden eine solche nicht finden. Die Werte dieser Integrale sind tabelliert unter dem Stichwort elliptische Integrale. Im Zeitalter der schnellen Computer können Sie diese Integrale aber mit Hilfe der Trapezregel oder besser der Simpsonregel berechnen. Die Trapezregel haben wir bereits im Wintersemester kennengelernt. Die Simpsonregel zur näherungsweisen BerechRb nung des Integrals a f (t)dt hat die Form : Wähle n ∈ IN und berechne h := (b − a)/(2n). Je größer n, um so näher liegt die folgende Rb Zahl S(h) bei a f (t)dt: n n−1 X X b − a S(h) := f (a) + f (b) + 4 f (a + (2k − 1)h) + 2 f (a + 2kh) 6n k=1 k=1 b−a = f (a) + 4f (a + h) + 2f (a + 2h) + 4f (a + 3h) + · · · + 4f (b − h) + f (b) . 6n §6. Das uneigentliche Integral Die Definition des Riemannschen Integrals in §1 betrachtet nur beschränkte Funktionen f : [a, b] → IR auf endlichen Intervallen [a, b]. Das uneigentliche Integral erweitert diesen Integralbegriff durch Grenzwertbildung auf unbeschränkte Funktionen f und unbeschränkte Intervalle. Wir wollen hier einige Beispiele geben. Beispiele: 1. Wir definieren Z ∞ −x e 0 dx := lim b→∞ Z b −x e 0 dx = lim b→∞ h −x −e ib 0 = 1. 2. Wir definieren Z 1 Z b ib h x x √ √ dx := lim dx = lim − (1 − x2 )1/2 = 1. b→1− 0 b→1− 0 1 − x2 1 − x2 0 3. Wir definieren Z 0 ∞ dx √ := lim a→0+,b→+∞ x(1 + x) 72 Z a b √ dx . x(1 + x) Nach der Substitution x(t) := t2 wird Z 0 ∞ dx √ = lim x(1 + x) α→0+,β→+∞ Z β α √ 2t dt t2 (1 + t2 ) β dt α→0+,β→+∞ α 1 + t2 h iβ π =2 lim arctan t = 2 = π. α→0+,β→+∞ 2 α =2 lim Z 4. Die Gammafunktion ist definiert durch das uneigentliche Integral Z ∞ e−t tx−1 dt für 0 < x < ∞. Γ(x) := 0 Insbesondere ist Γ(1) = 1 und es gilt die Rekursionsformel Γ(x + 1) = xΓ(x) für 0 < x < ∞. Hieraus folgt Γ(n + 1) = n! für alle n ∈ IN. §7. Tangenten. Das Newton Verfahren zur Berechnung von Nullstellen Es sei f : (a, b) → IR im Punkt x0 ∈ (a, b) differenzierbar. Dann heißt die Gerade (=Polynom vom Grade ≤ 1) g : IR → IR, g(x) = f (x0 ) + f ′ (x0 )(x − x0 ), die Tangente an f in x0 . Offensichtlich ist die Tangente g charakterisiert durch die Eigenschaften g(x0 ) = f (x0 ) und g ′ (x0 ) = f ′ (x0 ). Das Newtonverfahren zur Bestimmung von Nullstellen: Mit Hilfe von Tangenten kann man sehr effektiv die Nullstellen einer stetig differenzierbare Funktion f : (a, b) → IR ausrechnen: Sei ζ ∈ (a, b) eine Nullstelle von f . Um ζ zu finden, wählen wir einen Startpunkt x0 ∈ (a, b). Die Tangente an f in x0 ist gegeben durch g(x) = f (x0 ) + f ′ (x0 )(x − x0 ). Ist f ′ (x0 ) 6= 0, so besitzt diese Tangente die Nullstelle x1 = x0 − 73 f (x0 ) . f ′ (x0 ) Liegt x1 in (a, b), so bilden wir die Tangente an f in x1 und berechnen deren Nullstelle x2 = x1 − f (x1 ) , f ′ (x1 ) und so weiter. Ist f ′ (ζ) 6= 0 und liegt der Startpunkt x0 nahe genug bei ζ, so konvergiert die Folge (xk )∞ k=0 , f (xk ) xk+1 := xk − ′ , k = 0, 1, . . . , (7.1) f (xk ) schnell gegen die Nullstelle ζ. Liegt der Startpunkt x0 zu weit von ζ entfernt, so kann x1 oder ein späteres xk außerhalb von (a, b) liegen oder die Folge (xk )∞ k=0 kann divergieren. Bemerkung: Wenden wir das Newtonverfahren (7.1) an für die Funktion f (x) = x2 − a mit a > 0 und Startpunkt x0 = 1, so erhalten wir aus (7.1) wegen f ′ (x) = 2x die Rekursionsformel xk+1 := xk − x2 + a x2k − a = k , 2xk 2xk k = 0, 1, . . . , des Babylonischen Wurzelziehens. §8. Extrema von Funktionen, Wendepunkte, Satz von Rolle Mittelwertsatz der Differentialrechnung, Wir sagen, dass die Funktion f : (a, b) → IR in x0 ∈ (a, b) ein relatives Minimum besitzt, wenn es ein δ > 0 gibt, so dass für die δ-Umgebung Uδ (x0 ) := {x ∈ IR : |x − x0 | < δ} von x0 die Aussage f (x) ≥ f (x0 ) für alle x ∈ Uδ (x0 ) ∩ D gilt. Analog definieren wir relative Maxima von f . Ist f in (a, b) differenzierbar, so liefert der folgende Satz eine notwendige (aber keine hinreichende) Bedingung für ein relatives Extremum. Satz 8.1. Ist f : (a, b) → IR in (a, b) differenzierbar und besitzt f in x0 ∈ (a, b) ein relatives Minimum oder Maximum, so ist f ′ (x0 ) = 0. 74 Beweis: Sei x0 ein relatives Minimum von f . Dann ist f ′ (x0 ) = f ′ (x0 −) = lim x→x0 − f (x) − f (x0 ) ≤ 0, x − x0 da f (x) ≥ f (x0 und x < x0 . Des weiteren ist f (x) − f (x0 ) ≥ 0, x→x0 + x − x0 f ′ (x0 ) = f ′ (x0 +) = lim da nun f (x) ≥ f (x0 und x > x0 . Folglich ist f ′ (x0 ) = 0. Existiert f ′′ (x0 ), so sind die Bedingungen f ′ (x0 ) = 0, f ′′ (x0 ) > 0 hinreichend dafür, dass x0 ein relatives Minimum von f ist. Und f ′ (x0 ) = 0, f ′′ (x0 ) < 0 garantieren, dass x0 ein relatives Maximum von f ist. Aus dem Gymnasium wissen wir auch, dass die zweimal differenzierbare Funktion f in x0 einen Wendepunkt besitzt, falls f ′′ in x0 das Vorzeichen wechselt. Die Bedingung f ′′ (x0 ) = 0 ist notwendig für einen Wendepunkt. Wir wollen nun zwei wichtige Anwendungen von Satz 8.1 beweisen: Satz 8.2. (Satz von Rolle) Ist f : [a, b] → IR in [a, b] stetig und in (a, b) differenzierbar, und gilt f (a) = f (b), dann existiert ein ξ ∈ (a, b) mit f ′ (ξ) = 0. Beweis: Nach Satz 6.3 von Weierstraß besitzt f in (a, b) ein absolutes Maximum ξ oder ein absolutes Minimum ξ, das natürlich auch ein relatives Maximum oder Minimum ist. Für dieses ist nach Satz 8.1 f ′ (ξ) = 0. Aus dem Satz 8.2 von Rolle folgt : Ist f : (a, b) → IR in (a, b) differenzierbar und hat f in (a, b) n Nullstellen, so besitzt deren 1.Ableitung f ′ in (a, b) mindestens n − 1 Nullstellen. Beim Beweis des Hauptsatzes der Infinitesimalrechnung, Satz 4.1, haben wir den folgenden Satz verwendet: Satz 8.3. (Mittelwertsatz der Differentialrechnung) Ist f : [a, b] → IR in [a, b] stetig und in (a, b) differenzierbar, so existiert ein ξ ∈ (a, b) mit f ′ (ξ) = f (b) − f (a) . b−a Beweis: Wende den letzten Satz 8.2 an auf die Funktion (x − a) g(x) = f (x) − f (b) − f (a) . (b − a) 75 Denn es ist g(a) = g(b) = f (a). Folglich existiert ein ξ ∈ (a, b) mit g ′ (ξ) = 0. Für dieses ξ ist f (b) − f (a) , 0 = g ′ (ξ) = f ′ (ξ) − b−a woraus die Aussage des Satzes 8.3 folgt. §9. Der Taylorsche Satz, Taylor-Reihen Wir haben in §7 die Tangente an eine differenzierbare Funktion f im Punkt x0 berechnet durch y(x) = f (x0 ) + f ′ (x0 )(x − x0 ), x ∈ IR. Diese Tangente ist die Gerade, die im Punkt x0 denselben Funktionswert und dieselbe 1. Ableitung wie f besitzt. Ist f sogar zweimal differenzierbar, so wird durch y(x) = f (x0 ) + f ′ (x0 )(x − x0 ) + f ′′ (x0 ) (x − x0 )2 , 2 x ∈ IR, die Parabel (= algebraisches Polynom vom Grad ≤ 2) berechnet, die im Punkt x0 denselben Funktionswert und dieselbe 1. und 2. Ableitung wie f besitzt. Durch Differenzieren können Sie sofort nachprüfen, dass durch Pn (x) = n X f (k) (x0 ) k! k=0 (x − x0 )k das algebraische Polynom Pn vom Grad ≤ n bestimmt wird mit Pn (x0 ) = f (x0 ) , Pn(k) (x0 ) = f (k) (x0 ) für k = 1, 2, . . . , n. Der folgende Taylorsche Satz gibt Auskunft, wie groß die Fehlerfunktion Rn := f − Pn ist: Satz 9.1. (Taylorscher Satz ) Sei n ∈ IN ∪ {0}. Sei f : (a, b) → IR (n + 1)-mal stetig differenzierbar. Dann gilt für alle x0 ∈ (a, b) und alle x ∈ (a, b) die Gleichung f (x) = n X f (k) (x0 ) k=0 k! (x − x0 )k + Rn (x, x0 ) mit dem Restglied (a) in Integralform 1 Rn (x, x0 ) = n! Z x x0 76 (x − t)n f (n+1) (t)dt, (b) in der Lagrangeschen Form (x − x0 )n+1 (n+1) f (ξx,x0 ) für ein geeignetes ξx,x0 ∈ (x0 , x). Rn (x, x0 ) = (n + 1)! Beweis: Wir beweisen zunächst (a) durch vollständige Induktion nach n: n = 0: nach dem Hauptsatz der Infinitesimalrechnung ist f (x) = f (x0 ) + Z x x0 1 f (t)dt = f (x0 ) + 0! ′ Z x x0 (x − t)0 f ′ (t)dt. Also gilt (a) für n = 0. Es sei nun (a) richtig für ein n ≥ 0. Durch partielle Integration folgt dann 1 Rn (x, x0 ) = n! Z x x0 (x − t)n f (n+1) (t)dt t=x Z (x − t)n+1 (n+1) 1 x (x − t)n+1 (n+2) 1 − f (t) f (t)dt + = n! n+1 n! x0 n+1 t=x0 Z x (x − x0 )n+1 (n+1) 1 = (x − t)n+1 f (n+2) (t)dt f (x0 ) + (n + 1)! (n + 1)! x0 = (x − x0 )n+1 (n+1) f (x0 ) + Rn+1 (x, x0 ). (n + 1)! Also hat auch Rn+1 (x, x0 ) die gewünschte Gestalt (a). Die Lagrangesche Form (b) des Restgliedes folgt sofort aus (a): Die Funktion g(t) = (x−t)n ändert im Intervall (x0 , x) nicht ihr Vorzeichen. Daher können wir den Mittelwertsatz der Integralrechnung anwenden für das Integral 1 Rn (x, x0 ) = n! Z x x0 (x − t)n f (n+1) (t)dt. Dann existiert ein ξx,x0 ∈ (x0 , x) mit f (n+1) (ξx,x0 ) Rn (x, x0 ) = n! Z x x0 (x − t)n dt = Also gilt auch (b). Beispiele: 77 f (n+1) (ξx,x0 ) (x − x0 )n+1 . (n + 1)! 1. f (x) = sin x und x0 = 0: Wegen f (0) = 0, f ′ (0) = cos 0 = 1, f (2k) (0) = 0, f (2k+1) (0) = (−1)k , k ∈ IN, ist nach Satz 9.1 sin x − n X (−1)k x2k+1 k=0 (2k + 1)! = x2n+2 (−1)n+1 sin ξx,0 (2n + 2)! für ein geeignetes ξx,0 ∈ (0, x). √ 2. f (x) = 1 + x und x0 = 0: Es ist f ′ (x) = 1 (1 + x)−1/2 2 und somit √ , 1 f ′′ (x) = − (1 + x)−3/2 4 1+x =1+ Folglich ist für 0 < x < 1 1+ , f (3) (x) = 3 (1 + x)−5/2 , 8 −5/2 x x2 x3 1 + ξx,0 . − + 2 8 16 x x2 √ x3 x x2 − < 1+x=1+ − + . 2 8 2 8 16 Lassen wir in Satz 9.1 n gegen ∞ streben, so gewinnen wir Satz 9.2. Sei f : (a, b) → IR in (a, b) beliebig oft differenzierbar. Seien x0 ∈ (a, b) und x ∈ (a, b). Dann gilt ∞ X f (k) (x0 ) (x − x0 )k (9.1) f (x) = k! k=0 genau dann, wenn lim Rn (x, x0 ) = 0. n→∞ Die Reihe in (9.1) heißt Taylorreihe von f in x0 . 78 Beispiele: 1. f (x) = sin x und x0 = 0: Wegen f (2k) (x) = (−1)k sin x , f (2k+1) (x) = (−1)k cos x ist f (2k) (0) = 0, f (2k+1) (0) = (−1)k , und somit sin x = n X (−1)k x2k+1 k=0 + R2n+1 (x, 0) (2k + 1)! mit R2n+1 (x, 0) = x2n+2 (2n+2) f (ξx,x0 ) für ein geeignetes ξx,0 ∈ (0, x). (2n + 2)! Folglich ist |R2n+1 (x, 0)| ≤ |x|2n+2 → 0 für n → ∞. (2n + 2)! 2. f (x) = ln (1 + x) und x0 = 0: Es ist f ′ (x) = 1 1 (−1)k−1 (k − 1)! (k) , f ′′ (x) = − , f (x) = , 1+x (1 + x)2 (1 + x)k Daher ist für x > −1 und n ∈ IN ln (x + 1) = n X f (k) (0) k=1 mit 1 |Rn (x, 0)| = n! Rechnen Sie nach, dass k! Z 0 k x + Rn (x, 0) = x n X (−1)k−1 xk k k=1 n (n+1) (x − t) f Z (t)dt = 0 x k ∈ IN. + Rn (x, 0) (x − t)n dt. n+1 (1 + t) |Rn (x, 0)| → 0 für −1 < x < 1 gilt. Somit haben Sie bewiesen, dass ln (x + 1) = ∞ X (−1)k−1 xk k=1 k für −1 < x < 1. Im Grenzfall x → 1− ergibt dies das uns schon lange bekannte Resultat ln 2 = ∞ X (−1)k−1 k=1 k . 3. Als weiteres Beispiel betrachten wir die Funktion f (x) = (1 + x)α in −1 < x < 1 und x0 = 0: Beweisen Sie den folgenden Satz. 79 Satz 9.3. Es sei α ∈ IR, α 6∈ IN ∪ {0}. Dann gilt für alle −1 < x < 1 α (1 + x) = ∞ X α k=0 wobei wir definieren k xk = 1 + αx + α(α − 1) 2 x + ···, 2 Qk−1 1 α = k! j=0 (α − j), k ∈ IN k 1, k = 0. Insbesondere ist für α = 1/2 √ x x2 x3 1+x=1+ − + −··· 2 8 16 für −1 < x < 1. §10. Die Regel von l’Hospital Bei der Berechnung von Grenzwerten lim x→x0 f (x) g(x) hat man häufig die fatale Situation, dass lim f (x) = 0 x→x0 und gleichzeitig lim g(x) = 0 x→x0 ist. Oder bei der Berechnung von lim f (x)g(x), x→x0 dass lim f (x) = 0 x→x0 und gleichzeitig lim g(x) = ∞ x→x0 ist. Dann helfen oft die beiden folgenden Sätze über die Regel von l’Hospital: Satz 10.1. Sei n ∈ {0} ∪ IN. Es seien f : [a, b] → IR und g : [a, b] → IR in [a, b] (n + 1)-mal stetig differenzierbar (in a rechtsseitig und in b linksseitig differenzierbar) und es gelte f (a+) = · · · = f (n) (a+) = 0 , Dann ist g(a+) = · · · = g (n) (a+) = 0, f (x) f (n+1) (a+) = (n+1) . x→a+ g(x) g (a+) lim 80 g (n+1) (a+) 6= 0. Die analoge Aussage gilt für die linksseitigen Grenzwerte in b, oder die Grenzwerte in x0 ∈ (a, b). Beweis: Nach Satz 9.1 existiert zu a < x < b ein ξx ∈ (a, x) und ηx ∈ (a, x), so dass f (a) + · · · + f (x) = g(x) g(a) + · · · + (x−a)n+1 (n+1) (ξx ) (n+1)! f (x−a)n+1 (n+1) (ηx ) (n+1)! g = f (n+1) (ξx ) g (n+1) (ηx ) → f (n+1) (a+) g (n+1) (a+) für x → a+. Der Beweis für x → b− oder x → x0 , x0 ∈ (a, b), verläuft analog. Satz 10.2. Sei n ∈ {0} ∪ IN. Es seien f : [a, ∞) → IR und g : [a, ∞) → IR in [a, ∞) (n + 1)-mal stetig differenzierbar und es gelte lim f (x) = · · · = lim f (n) (x) = 0 , x→+∞ x→+∞ lim g(x) = · · · = lim g (n) (x) = 0, x→+∞ x→+∞ sowie lim f (n+1) (x) =: α , x→+∞ Dann ist lim g (n+1) (x) =: β, x→+∞ β 6= 0. α f (x) = . x→+∞ g(x) β lim Die analoge Aussage gilt für die Grenzwerte in −∞. Beweis: Nach Satz 9.1 existiert zu jedem x ≥ a ein ξx ∈ (x, x + 1) und ηx ∈ (x, x + 1), so dass f (x) + · · · + f (x + 1) = g(x + 1) g(x) + · · · + = f (n) (x) n! g (n) (x) n! + + f (n+1) (ξx ) (n+1)! g (n+1) (ηx ) (n+1)! f (x)(n + 1)! + · · · + f (n) (x)(n + 1) + f (n+1) (ξx ) g(x)(n + 1)! + · · · + g (n) (x)(n + 1) + g (n+1) (ηx ) → α β für x → ∞. Der Beweis für x → −∞ verläuft analog. Beispiele: 1. Für jedes a ∈ IR ist a x = ea . lim 1 + x→∞ x 81 (10.1) Beweis: Wir substituieren x = 1/t. Dann ist ln h a x i a ln (1 + at) = x ln 1 + = 1+ x x t Für x → +∞ konvergiert t → 0+. Nach Satz 10.1 für f (t) = ln (1 + at) und g(t) = t ist dann a h ln (1 + at) a x i 1+at = lim = lim = a. lim ln 1 + x→+∞ t→0+ t→0+ 1 x t Wegen der Stetigkeit der e-Funktion gilt daher (10.1). 2. Es ist lim x→∞ (1 + x)1/3 − x1/3 = 0. Beweis: Wir substituieren x = 1/t3 . Dann ist (1 + x) 1/3 −x 1/3 f (t) (t3 + 1)1/3 − 1 := . = t g(t) Wegen f ′ (t) = 31 (t3 + 1)−2/3 ∗ 3t2 → 0 für t → 0+ und g ′ (t) = 1 folgt aus Satz 10.1 lim x→∞ f ′ (t) (1 + x)1/3 − x1/3 = lim ′ = 0. t→0+ g (t) 82 Kapitel V Lineare Algebra. Teil 1 §1. Linearer Raum (Vektorraum) Es ist K stets der Körper der reellen Zahlen IR oder der Körper der komplexen Zahlen | . ( Viele Definitionen und Ergebnisse dieses Kapitels gelten auch für andere Körper wie C etwa K = Zp , p Primzahl.) Es sei n eine natürliche Zahl. Mit IRn bezeichnen wir die Menge aller (geordneten) n-Tupel reeller Zahlen, also IRn := {u = (a1 , a2 , . . . , an ) : ai ∈ IR, i = 1, 2, . . . , n}, | n bezeichnen wir die Menge aller (geordneten) n-Tupel komplexer Zahlen, also mit C | n := {u = (a , a , . . . , a ) | , i = 1, 2, . . . , n}. C : ai ∈ C 1 2 n Anstelle von (a1 , a2 , . . . , an ) schreiben wir oft auch a1 a2 · . · · an Im Kn definieren wir eine Addition + : Kn × Kn → Kn wie folgt: Seien a1 b1 a2 b2 · · u = , v = , · · · · an bn dann definieren wir a1 + b1 a2 + b2 · u + v := , · · an + bn das heißt, wir addieren u und v komponentenweise. 83 Im Kn definieren wir die skalare Multiplikation ∗ : K × Kn → Kn wie folgt: αa1 αa2 · α ∗ u := , · · αan für α ∈ K, u ∈ Kn , das heißt, wir multiplizieren jede Komponente von u mit α. Anstelle von α ∗ u schreiben wir kürzer αu. Wir können leicht nachprüfen, dass die folgenden Rechenregeln gelten: (A1) u + v = v + u für alle u, v ∈ Kn , (kommutativ) (A2) (u + v) + w = u + (v + w) für alle u, v, w ∈ Kn , (assoziativ) (A3) Für das Element 0 = (0, . . . , 0) ∈ Kn gilt u + 0 = u für alle u ∈ Kn , (A4) Für jedes u ∈ Kn gibt es genau ein v ∈ Kn , (nämlich v = (−a1 , −a2 , . . . , −an )) mit der Eigenschaft u + v = 0. Wir schreiben auch v = −u. (B1) (B2) (B3) (B4) α(u + v) = αu + αv für alle u, v ∈ Kn , α ∈ K, (α + β)u = αu + βu für alle u ∈ Kn , α, β ∈ K, α(βu) = (αβ)u für alle u ∈ Kn , α, β ∈ K, 1u = u für alle u ∈ Kn . | n mit der oben definierten Addition und skalaren Multiplikation sind Der IRn und der C wichtige Beispiele der folgenden allgemeinen Definition; Definition 1.1. Eine Menge V von Elementen u, v, w, . . . heißt linearer Raum über K oder Vektorraum über K, wenn eine Vektoraddition + : V × V → V und eine skalare Multiplikation ∗ : K × V → V definiert sind mit den Eigenschaften (A1)-(A4) und (B1)-(B4). Beispiele: | n ist ein linearer Raum über C | . 1. Der IRn ist ein linearer Raum über IR, der C 2. Es sei a < b gegeben. Es bezeichne C[a, b] die Menge aller auf [a, b] stetigen reellwertigen Funktionen. In C[a, b] definieren wir die Addition durch f + g : (f + g)(x) := f (x) + g(x), x ∈ [a, b], und die skalare Multiplikation durch αf : (αf )(x) := αf (x), 84 x ∈ [a, b]. Dann ist C[a, b] ein linearer Raum über IR. 3. Zu n ∈ IN sei V = Pn die Menge aller reellwertigen algebraischen Polynome vom Grade ≤ n, versehen mit der Addition und skalaren Multiplikation des Beispiels 2. 4. Gegeben seien die Funktionen c0 , c1 , c2 ∈ C[a, b]. Die Lösungen der lineare Differentialgleichung c0 (x)y ′′ (x) + c1 (x)y ′ (x) + c2 (x)y(x) = 0, a ≤ x ≤ b, bilden einen linearen Raum über IR (bezüglich der Addition und skalaren Multiplikation des Beispiels 2). Definition 1.2. Es sei V ein linearer Raum über K. Es heißt b ∈ V Linearkombination von v1 , . . . , vn ∈ V , falls es Zahlen α1 , . . . , αn ∈ K gibt, so dass b= n X αk vk . k=1 Die Menge aller Linearkombinationen von v1 , . . . , vn heißt lineare Hülle von v1 , . . . , vn , in Zeichen span{v1 , . . . , vn }. Es sei X ⊆ V eine nichtleere Teilmenge von V . Dann definieren wir span(X) = n nX k=1 o αk uk | αk ∈ K, uk ∈ X, n ∈ IN . Wir nennen span(X) die lineare Hülle von X. Beispiel 5: span{1, cos x, sin x, cos (2x), sin (2x)} = T2 sind die reellen trigonometrischen Polynome vom Grad ≤ 2. Definition 1.3. Es sei V ein linearer Raum über K. Die Vektoren v1 , . . . , vn ∈ V heißen linear abhängig, wenn es Zahlen (α1 , . . . , αn ) ∈ Kn gibt, (α1 , . . . , αn ) 6= (0, 0, . . . , 0), so dass n X αk vk = 0 Nullvektor in V . k=1 Ansonsten heißen v1 , . . . , vn ∈ V linear unabhängig. Wie müssen wir vorgehen, wenn wir die lineare Unabhängigkeit von Vektoren v1 , . . . , vn nachweisen wollen? Ganz einfach, wir nehmen an, für die Zahlen α1 , . . . , αn gelte n X αk vk = 0 k=1 85 und beweisen, dass dann alle α1 , . . . , αn gleich 0 sind. Beispiel 6: Die Vektoren 2 0 0 , des IR3 sind linear unabhängig. 1 3 0 4 −2 2 , Beweis: Wir nehmen an, für die Zahlen α1 , α2 , α3 gelte 2 1 4 0 α1 0 + α2 3 + α3 −2 = 0 . 0 0 2 0 Dies ist gleichbedeutend mit 2α1 + α2 + 4α3 = 0 3α2 − 2α3 = 0 2α3 = 0. Aus der 3.Gleichung folgt nun, dass α3 = 0 ist, aus der 2. Gleichung folgt α2 = 0 und aus der 1.Gleichung α1 = 0. Beispiel 7: Es sei n ∈ IN, und V = Pn sei die Menge aller reellen algebraischen Polynome vom Grad ≤ n. Die Polynome P0 , P1 , . . . , Pn seien von der Form Pk (x) = k X cjk xj , cjk ∈ IR, j=0 ckk 6= 0. Dann sind die Polynome P0 , P1 , . . . , Pn linear unabhängig. Beweis: Wir nehmen an, für die Zahlen α0 , . . . , αn gelte n X k=0 αk Pk (x) = 0 für alle x ∈ IR. Dies ist äquivalent zu 0= n X k=0 αk k X cjk x j=0 j = n X x j=0 j n X αk cjk k=j für alle x ∈ IR. Dies ist genau dann der Fall, wenn alle Koeffizienten βj := n X αk cjk , k=j 86 j = 0, 1, . . . , n, gleich Null sind. Aus 0 = βn = αn cnn folgt αn = 0. Aus 0 = βn−1 = αn−1 cn−1,n−1 + αn cn−1,n folgt αn−1 cn−1,n−1 = 0 und somit αn−1 = 0, und so weiter. Definition 1.4. Es sei V ein linearer Raum über K. Die Vektoren v1 , . . . , vn ∈ V bilden eine Basis von V , falls 1. v1 , . . . , vn linear unabhängig sind, und 2. V = span{v1 , . . . , vn }. Beispiel 8: Es sei n ∈ IN. Die Monome 1, x, . . . , xn bilden eine Basis von Pn . Lemma 1.1. Es sei v1 , . . . , vn eine Basis von V . Dann besitzt jedes u ∈ V eine eindeutige Darstellung n X u= αk vk , αk ∈ K. (1.1) k=1 Mit anderen Worten: Die Abbildung Φ : Kn → V , definiert durch (1.1), ist eine Bijektion. Beweis: Nach Definition 1.4.2 besitzt u eine Darstellung (1.1). Pn Pn Besitzt u eine weitere Darstellung u = k=1 βk vk , βk ∈ K, so folgt 0 = u − u = k=1 (αk − βk )vk . Wegen Definition 1.4.1 ist αk − βk = 0, k = 1, . . . , n. Lemma 1.2. Im linearer Raum V über K gebe es höchstens endlich viele linear unabhängige Vektoren. Es seien v1 , . . . , vr linear unabhängige Vektoren aus V . Dann existieren Vektoren vr+1 , . . . , vn in V , so dass v1 , . . . , vr , vr+1 , . . . , vn eine Basis von V bilden. Beweis: Ist v1 , . . . , vr bereits eine Basis von V , so ist n = r und wir sind fertig. Ist v1 , . . . , vr keine Basis von V , so existiert ein u ∈ V , das nicht in span{v1 , . . . , vr } liegt. Folglich sind v1 , . . . , vr , u linear unabhängig, und wir wählen vr+1 := u. Wir wenden dieselben Argumente für v1 , . . . , vr , vr+1 an. Ist v1 , . . . , vr , vr+1 keine Basis von V , so nehmen wir ein u ∈ V mit u 6∈ span{v1 , . . . , vr , vr+1 } und setzen vr+2 := u, und so weiter. Satz 1.1. Es sei v1 , . . . , vn eine Basis von V . Dann gilt: 1. Sei m > n. Je m Vektoren aus V sind linear abhängig. 2. Je n linear unabhängige Vektoren aus V bilden eine Basis von V . Aus Satz 1.1 folgt: Jede Basis von V besteht aus derselben Anzahl n von Vektoren. Wir sagen ”n ist die Dimension von V ” und schreiben n = dim V . 87 Beweis von Satz 1.1: 1. Es sei m > n, sowie u1 , u2 , . . . , um Vektoren aus V . Nach Lemma 1.1 besitzt jedes uj eine eindeutige Darstellung uj = n X αjk ∈ K, αjk vk , k=1 j = 1, 2, . . . , m. Wir wollen prüfen, ob die Vektoren u1 , . . . , um linear abhängig sind. Es sei also m X cj uj = 0, j=1 für geeignete cj ∈ K. Dies ist äquivalent zu 0= = m X j=1 n X k=1 cj uj = m X j=1 vk m X j=1 cj n X k=1 αjk vk cj αjk . Wegen der linearen Unabhängigkeit der vk ist dies äquivalent zu dem linearen Gleichungssystem (LGS) m X cj αjk = 0, k = 1, . . . , n, (1.2) j=1 bestehend aus n linearen Gleichungen mit den m unbekannten Koeffizienten cj ∈ K, j = 1, . . . , m. Aus dem Gaußschen Eliminationsverfahren des §3 wird folgen, dass das LGS (1.2) im Falle m > n Lösungen (c1 , c2 , . . . , cm ) 6= (0, 0, . . . , 0) besitzt. Folglich sind die Vektoren u1 , . . . , um linear abhängig. 2. Es seien u1 , . . . , un linear unabhängige Vektoren in V . Sei span{u1 , . . . , un } ⊂ V . Dann gibt es ein u ∈ V , das nicht in span{u1 , . . . , un } liegt, und es sind u1 , . . . , un , u linear unabhängig. Nach Saty 1.1.1 ist dies aber unmöglich. Aus diesem Widerspruch folgt, dass je n linear unabhängige Vektoren u1 , . . . , un eine Basis bilden. Definition 1.5. Eine nichtleere Teilmenge V0 eines linearen Raumes V über K heißt Unterraum von V , falls V0 selbst ein linearer Raum über K ist. Lemma 1.3. Eine nichtleere Teilmenge V0 eines linearen Raums V über K ist ein Unterraum von V genau dann, wenn 1. aus u ∈ V0 und v ∈ V0 folgt u + v ∈ V0 , 2. aus u ∈ V0 und α ∈ K folgt αu ∈ V0 ; Dies bedeutet für α = 0: Es ist 0 ∈ V0 , 88 und für α = −1: Ist u ∈ V0 , so auch −u ∈ V0 . Beweis: Um zu zeigen, dass V0 ⊂ V ein Unterraum ist, müssen wir die Axiome (A1)-(A4) und (B1)-(B4) der Definition 1.1 nachprüfen. Diese Axiome sind genau dann erfüllt, wenn (1)-(2) gilt, wie Sie sicher sofort nachprüfen können. Lemma 1.4. Es sei V ein linearer Raum über K, und (Ui )i∈I sei eine Familie von Unterräumen von V . Dann ist \ V0 := Ui i∈I ein Unterraum von V . Beweis: Wir prüfen die Bedingungen (1)-(2) des Lemma 1.3 nach. Lemma 1.5. Es sei V ein linearer Raum über K, und X ⊆ V eine nichtleere Teilmenge von V . Dann ist die lineare Hülle span(X) von X ein Unterraum von V . Offensichtlich ist span(X) der kleinste Unterraum in V , der X enthält. Beweis: Nach Definition 1.2 ist span(X) = n nX k=1 o αk uk | αk ∈ K, uk ∈ X, n ∈ IN . Offensichtlich ist daher X ⊆ span(X). Ebenso sind für V0 := span(X) die Bedingungen (1) und (2) von Lemma 1.3 erfüllt. Also ist span(X) ein Unterraum von V . Definition 1.6. Es sei V ein linearer Raum über K. Seien U und W Unterräume von V . 1. Wir schreiben n o U + W := u + w | u ∈ U, w ∈ W . 2. Ist U + W = V und U ∩ W = {0}, so schreiben wir V = U ⊕ W und nennen V die direkte Summe von U und W . Man nennt dann U und W auch zueinander komplementäre Unterräume von V . Satz 1.2. Die Summe U + W zweier Unterräume von V ist erneut ein Unterraum von V . Ist die Dimension von U und von W endlich, so gilt die Dimensionsformel dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ). (1.3) Beweis: Mit Hilfe von Lemma 1.3 sehen wir sofort, dass U + W und U ∩ W Unterräume von V sind. 89 Sei U ∩ W = {0}. Dann ist dim(U ∩ W ) = 0. Ist u1 , . . . , uk eine Basis von U und w1 , . . . , wm eine Basis von W , so ist u1 , . . . , uk , w1 , . . . , wm eine Basis von U + W , und die Formel (1.3) ist richtig. Sei nun dim(U ∩ W ) = r ≥ 1 und v1 , . . . , vr eine Basis von U ∩ W . Sei die Dimension von U gleich k und die Dimension von W gleich m. Unter Verwendung von Lemma 1.2 ergänzen wir v1 , . . . , vr zu einer Basis v1 , . . . , vr , u1 , . . . , uk−r von U und zu einer Basis v1 , . . . , vr , w1 , . . . , wm−r von W und erkennen, dass die Vektoren v1 , . . . , vr , u1 , . . . , uk−r , w1 , . . . , wm−r linear unabhängig sind und eine Basis von U + W bilden. Dies beweist (1.3). §2. Lineare Abbildungen, Lineare Gleichungssysteme In diesem § sind U , V und W lineare Räume über dem Körper K. Definition 2.1. Eine Abbildung φ : V → W heißt linear, falls 1. φ(u + v) = φ(u) + φ(v) für alle u, v ∈ V , 2. φ(αv) = αφ(v) für alle α ∈ K, v ∈ V . Definition 2.2. Es sei φ : V → W eine lineare Abbildung. Die Menge n o ker φ := v ∈ V | φ(v) = 0 heißt Kern von φ. Definition 2.3. Zwei lineare Räume V und W über K heißen isomorph, wenn eine lineare Bijektion φ : V → W existiert. Man nennt φ einen Isomorphismus zwischen den linearen Räumen V und W . In Lemma 2.1 und Lemma 2.2 wollen wir einige einfache Aussagen für lineare Abbildungen angeben, die Sie ohne Schwierigkeiten selbst beweisen können, oder? Lemma 1. 2. 3. 4. 2.1. Es sei φ : V → W eine lineare Abbildung . Dann gilt: φ(0) = 0, φ(−v) = −φ(v) für alle v ∈ V . Der Kern von φ ist ein linearer Unterraum von V . Das Bild n o im φ := φ(v) | v ∈ V ist ein linearer Unterraum von W . 90 5. Ist φ : V → W ein Isomorphismus, so ist die Umkehrabbildung φ−1 : W → V ebenfalls linear und somit ein Isomorphismus zwischen W und V . Lemma 2.2. Es sei φ : V → W eine lineare Abbildung. 1. φ ist injektiv genau dann, wenn ker φ = {0}. 2. Es sei v1 , v2 , . . . , vn eine Basis von V . Es ist φ injektiv genau dann, wenn φ(v1 ), φ(v2 ), . . . , φ(vn ) eine Basis von im φ ist. Satz 2.1. (Struktursatz für lineare Räume) Es sei V ein linearer Raum über K der Dimension n. Dann sind Kn und V isomorph. Insbesondere sind zwei endlich-dimensionale lineare Räume (über demselben Körper K) genau dann isomorph, wenn sie dieselbe Dimension haben. Beweis: Es sei v1 , . . . , vn eine Basis von V . Nach Lemma 1.1 besitzt jedes u ∈ V eine eindeutige Darstellung n X u= αk vk , αk ∈ K. (1.1) k=1 Die durch (1.1) gegebene Abbildung Φ : Kn → V ist daher bijektiv. Sie ist aber auch linear. Insbesondere werden die Einheitsvektoren 1 0 0 e1 = · · 0 0 1 0 e2 = · · 0 , ,···, 0 0 · en = · 0 1 (2.1) auf die Vektoren v1 , v2 , . . . , vn abgebildet. Haben die linearen Räume V und W (über K) dieselbe Dimension n, so wählen wir eine Basis v1 , . . . , vn von V und eine Basis w1 , . . . , wn von W . Wie wir sofort nachprüfen können, wird durch φ(vk ) := wk , k = 1, . . . , n, ein Isomorphismus φ : V → W definiert. Denn nach Lemma 1.1 besitzt jedes u ∈ V eine eindeutige Darstellung u= n X αk vk , k=1 Durch φ(u) := n X αk ∈ K. (1.1) αk wk . k=1 wird dann φ(u) für jedes u ∈ V definiert. Da w1 , . . . , wn linear unabhängig sind, sind die Bilder φ(u) für verschiedene (α1 , . . . , αn ) ∈ Kn verschieden. 91 Wir wollen nun die linearen Abbildungen φ : Kn → Km studieren, das heißt, mit V := Kn und W := Km , n, m ∈ IN. Offensichtlich hat Kn die Dimension n, und die Einheitsvektoren (2.1) bilden eine Basis von Kn . Eine lineare Abbildung φ : Kn → Km ist eindeutig bestimmt durch die Vektoren φ(ek ), k = 1, 2, . . . , n, der Einheitsvektoren ek des Kn . Schreiben wir a11 a12 a1n a21 a22 a2n · · · φ(e1 ) = , φ(e2 ) = , · · · , φ(en ) = , · · · · · · am1 am2 amn so ist die linear Abbildung φ : Kn → Km eindeutig gegeben durch die m × n-Matrix a11 a12 a13 · · a1n a21 a22 a23 · · a2n a31 a32 a33 · · a3n A= · · · · · · · · · · · · · · · · · · am1 am2 am3 · · amn Der Vektor x1 x2 x = · = (x1 , x2 , . . . , xn )T ∈ Kn · xn (”transponiert”) hat dann das Bild Pn a1k xk Pk=1 n Pk=1 a2k xk n k=1 a3k xk φ(x) = x1 φ(e1 ) + x2 φ(e2 ) + · · · + xn φ(en ) = ··· . ··· Pn · · · k=1 amk xk (2.2) Um den Ausdruck (2.2) kürzer zu beschreiben, führen wir das Matrizenprodukt ein zwischen der m × n-Matrix A = (ajk )m,n j,k=1 und der n × 1-Matrix x (= Spaltenvektor n x ∈ K ) und schreiben anstelle von (2.2) φ(x) = Ax. (2.3) Der Spaltenvektor Ax wird auch als m × 1-Matrix aufgefaßt. Seine j-te Komponente ist n X ajk xk , j = 1, . . . , m. (Ax)j = k=1 92 Beachte: Durch die Einführung des Matrizenprodukts zwischen m × n-Matrizen A und Vektoren x ∈ Kn werden durch (2.3) alle linearen Abbildungen φ : Kn → Km beschrieben genau dann, wenn A = (ajk )m,n j,k=1 alle m × n-Matrizen mit Elementen ajk ∈ K durchläuft. In den Anwendungen treten häufig lineare Gleichungssysteme (LGS) auf. Das Lösen von LGS ist eine der wichtigsten Aufgaben der Angewandten Mathematik. Hierzu betrachten wir die folgende Aufgabe: Gegeben sei die lineare Abbildung φ : Kn → Km durch die m × n-Matrix A = (ajk )m,n j,k=1 , sowie ein Vektor b1 b2 · b= ∈ Km . · · bm Finden Sie alle Urbilder von b der Abbildung φ ! Eine äquivalente Formulierung dieser Aufgabe: Bestimme alle Lösungen x ∈ Kn des LGS Ax = b. Weil es so wichtig ist, wollen wir die Definition eines LGS wiederholen: Ein m × n lineares Gleichungssystem (LGS) besteht aus den m linearen Gleichungen n X ajk xk = bj , j = 1, . . . , m, (2.4) k=1 für die n Unbekannten x1 , . . . , xn aus K. Um das lineare Gleichungssystem (2.4) kompakter zu schreiben, führen wir die m × nMatrix a11 a12 a13 · · · a1n a21 a22 a23 · · · a2n a31 a32 a33 · · · a3n A= · · · · · · · · · · · · · · · · · · · · · am1 am2 am3 · · · amn ein, mit den n Spaltenvektoren a1k a2k a3k m ∈ K , k = 1, . . . , n, m × 1 − Matrix · · · amk 93 und den m Zeilenvektoren (aj1 , aj2 , aj3 , . . . , ajn ) ∈ Kn , j = 1, 2, . . . , m. 1 × n − Matrix Das lineare Gleichungssystem können wir schreiben als a11 a12 a1n b1 a21 a22 a2n a a a b 31 32 3n 2 x1 · + x2 · + · · · + x n · = · . · · · · · · · · am1 am2 amn bm (2.5) Aus (2.5) folgt sofort der nächste Satz 2.2. Das lineare Gleichungssystem (2.4) hat eine Lösung x ∈ Kn genau dann, wenn die rechte Seite b als Linearkombination (2.5) der Spaltenvektoren von A darstellbar ist. Über die Struktur der Lösungsgesamtheit eines linearen Gleichungssystems geben die beiden nächsten Sätze Auskunft: Satz 2.3. Die Lösungen x ∈ Kn des homogenen linearen Gleichungssystems n X ajk xk = 0, j = 1, . . . , m, (2.6) k=1 bilden einen Unterraum des Kn , genannt Kern von A. Beweis: Es seien x ∈ Kn und x′ ∈ Kn Lösungen von (2.6). Dann sind auch x + x′ und αx, α ∈ K, Lösungen von (2.6), denn es gilt n X ajk (xk + k=1 sowie x′k ) = n X ajk xk + k=1 n X k=1 ajk (αxk ) = α n X ajk x′k = 0, j = 1, . . . , m, k=1 n X ajk xk = 0, j = 1, . . . , m. k=1 Satz 2.4. Das lineare Gleichungssystem (2.4) sei lösbar. Sei x0 eine Lösung von (2.4). Sei V0 der Kern von A. Dann beschreibt n o x0 + v | v ∈ V0 (2.7) 94 die Gesamtheit aller Lösungen von (2.4). Insbesondere ist x0 die einzige Lösung von (2.4), wenn V0 = {0} ist. Beweis: Es sei x = (x1 , . . . , xn )T ∈ V0 . Dann ist n X ajk (x0k + xk ) = k=1 n X ajk x0k + n X ajk xk = bj + 0, j = 1, . . . , m. k=1 k=1 Seien umgekehrt x0 = (x01 , . . . , x0n )T und x1 = (x11 , . . . , x1n )T Lösungen von (2.4). Dann gilt für x := x1 − x0 , dass n X ajk xk = k=1 = n X k=1 n X k=1 ajk x1k − ajk (x1k − x0k ) n X k=1 ajk x0k = bj − bj = 0, j = 1, . . . , m. Also ist x = x1 − x0 Lösung des homogenen linearen Gleichungssystems. Beispiel: Es sei K = IR. Das LGS 4x1 + 3x2 + 7x3 = 7 x1 − x2 =0 schreiben wir in Matrixform als 4 3 1 −1 7 0 x1 x2 = 7 . 0 x3 Dann ist die Lösungsgesamtheit gegeben durch 1 0 0 + α 1 , 1 −1 α ∈ IR . Anstelle des Vektors x0 = (0, 0, 1)T können wir irgend eine andere Lösung setzen, zum Beispiel wird die Lösungsgesamtheit auch beschrieben durch 1 1 1 + α 1 | α ∈ IR . 0 −1 95 Satz 2.5. (Dimensionssatz) Es sei φ : V → W eine lineare Abbildung. Es sei V endlich-dimensional. Dann gilt dim (ker φ) + dim (im φ) = dim V . (2.8) Beweis: Ist ker φ = {0}, also dim (ker φ) = 0, und sind v1 , . . . , vn eine Basis von V , so bilden die Vektoren φ(v1 ), φ(v2 ), . . . , φ(vn ) nach Lemma 2.2 eine Basis von im φ. Folglich ist dim (im φ) = n, und es gilt die Formel (2.8). Es sei nun dim (ker φ) = r ≥ 1, und v1 , . . . , vr sei eine Basis von ker φ. Ist r = n, dann ist im φ = {0}, und es gilt (2.8). Sei nun 1 ≤ r < n. Nach Lemma 1.1 ergänzen wir v1 , . . . , vr zu einer Basis v1 , . . . , vr , vr+1 , . . . , vn von V . Wir zeigen: φ(vr+1 ), . . . , φ(vn ) ist eine Basis von im φ: 1. Es ist n o im φ = φ(u) | u ∈ V = n nX k=1 = αk φ(vk ) | αk ∈ K n n X k=r+1 o o αk φ(vk ) | αk ∈ K , da φ(vk ) = 0 für k = 1, . . . , r. Also ist im φ = span {vr+1 , . . . , vn }. 2. Die Vektoren φ(vr+1 ), . . . , φ(vn ) sind linear unabhängig, denn aus folgt n n X X 0= αk φ(vk ) = φ αk vk k=r+1 und daher n X Pn k=r+1 αk φ(vk ) = 0 k=r+1 k=r+1 αk vk ∈ ker φ. Also gibt es β1 , . . . , βr ∈ K mit n X αk vk = r X βj vj . j=1 k=r+1 Da aber v1 , . . . , vr , vr+1 , . . . , vn linear unabhängig sind, sind alle Koeffizienten αr+1 , . . . , αn , β1 , . . . , βr gleich Null. Insgesamt haben wir daher bewiesen: Ist dim (ker φ) = r so ist dim (im φ) = n − r. 96 §3. Eliminationsverfahren Es ist das Ziel des (Gaußschen) Eliminationsverfahrens, alle Lösungen x = (x1 , x2 , . . . , xn )T ∈ Kn des linearen Gleichungssystems (LGS) n X ajk xk = bj , j = 1, . . . , m, (3.1) k=1 m×n m zu finden. Hierbei sind A = (ajk )m,n und b = (bj )m vorgegeben. j=1 ∈ K j,k ∈ K Dieses LGS wird daher vollständig beschrieben durch die m × (n + 1)-Matrix a11 a21 a31 (A, b) = · · · am1 a12 a22 a32 · · · am2 · · · · · · · a13 a23 a33 · · · am3 · · · · · · · · · · · · · · a1n a2n a3n · · · amn b1 b2 b3 · . · · bm (3.2) Grundlage des Eliminationsverfahrens ist der folgende Satz: Satz 3.1. Die Lösungsmenge des LGS (3.1) ändert sich nicht bei den folgenden elementaren Zeilenumformungen: 1. zwei Zeilen von (3.2) werden vertauscht, 2. Eine Zeile in (3.2) wird mit α ∈ K, α 6= 0, multipliziert, 3. in (3.2) wird das Vielfache einer Zeile zu einer anderen Zeile addiert. Grundgedanke des Eliminationsverfahrens: Durch die elementare Zeilenumformungen 1., 2., 3. wird (A, b) übergeführt in die Form r11 0 0 (R, c) = 0 · · 0 r12 r22 0 0 · · 0 r13 r23 r33 0 · · 0 · · · · · · · · · · · · · · · r1n · r2n · r3n · · · · · · · rmn c1 c2 c3 · , · · cn wobei die m × n-Matrix R die folgende Form erhalten soll: rjk = 0 für 1 ≤ k < j ≤ m, falls n ≥ m rjk = 0 für 1 ≤ k < j ≤ m und k ≤ n, falls n < m. Wie man im Einzelnen vorgehen sollte, wollen wir an zwei Beispielen beschreiben: Beispiel 1: Es sei K = IR und 97 (3.3) 1 (A, b) = 2 2 2 0 2 −2 3 −1 1 2 0 −2 0 −1 1.Schritt: 1 2 0 −2 0 0 2.Schritt: 1 1 3 2 1 2 0 −2 −1 | 1 | 0 | 2 1 1 −1 0 −2 0 1 1 −1.5 1 | 0 | 0 | 1 −2 0 1 | 1 0 | −2 0 | 1 Eine Lösung ist gegeben durch x03 = 0, x04 = −2/3, x05 = 0, x02 = 2/3, x01 = 1/3. Die Lösungsgesamtheit ist −1 2 1 2 0 −1 1 x = 0 + α 1 + β 0 , 3 0 0 −2 1 0 0 Beispiel 2: Sei K = IR und mit irgendeiner Zahl c ∈ K. 0 (A, b) = 1 2 1 0 2 1 2 0 2 0 0 2 1 2 1 4 c 2 1 2 1 4 c 1 1 c−2 | 1 | 0 | 2 | 0 | 1 | 2 | 0 | 1. | 2 Ist c = 2, so ist das LGS nicht lösbar. Ist c 6= 2, so folgt x3 = 2/(c − 2), 1 x2 = 21 1 − x3 = 12 − c−2 , x1 = −2x2 − x3 = −1 + 2 c−2 − 2 c−2 = −1. 98 α, β ∈ K. §4. Der Rang einer Matrix Definition 4.1. Es sei A eine m × n-Matrix. Die maximale Anzahl linear unabhängiger Spaltenvektoren von A heißt Spaltenrang von A, die maximale Anzahl linear unabhängiger Zeilenvektoren von A heißt Zeilenrang von A. Beispiel: Die Matrix 0 0 1 2 2 4 1 1 2 2 0 0 hat den Zeilenrang = 2 und den Spaltenrang = 2 . Satz 4.1. Für jede m × n-Matrix gilt Zeilenrang = Spaltenrang. Daher sprechen wir vom Rang einer Matrix. Beweis: Der Rang einer Matrix ändert sich nicht bei den elementaren Zeilenumformungen des Satzes 3.1, aber auch nicht bei Spaltentausch. Ist A die Nullmatrix, dann ist Zeilenrang = Spaltenrang = 0 . Es sei m × n-Matrix A = (ajk )m,n j,k=1 nicht die Nullmatrix. Dann erhält man für ein q ∈ IN durch elementare Zeilenumformungen und Spaltentausch stets die folgende Matrixform erreichen : r11 0 0 0 · R= · 0 0 · · 0 r12 r22 0 0 · · 0 0 · · 0 r13 r23 r33 0 · · 0 0 · · 0 · · · r44 · · · · · · · · · · · · · · · · · · · · 0 · 0 · · · · · · · · · · · · rqq 0 · · · · · · · · · · · · · · · · · · · · · · · · · wobei rjj 6= 0 für j = 1, . . . , q, sowie rjk = 0 für alle 1 ≤ k < j. Im Falle q = m entfallen die unteren Nullzeilen in (4.1). 99 · · · · · · · · · · · r1n r2n r3n r4n · · , rqn 0 · · 0 (4.1) Im Falle q = n < m erhalten wir die m × n-Matrix r11 0 0 0 · R= · 0 0 · · 0 r12 r22 0 0 · · 0 0 · · 0 r13 r23 r33 0 · · 0 0 · · 0 · · · r44 · · · · · · · · · · · · · · · · · · · · 0 · 0 · · · · · · r1n r2n r3n r4n · · , rnn 0 · · 0 (4.1)′ und im Falle q = n = m erhalten wir die n × n-Matrix r11 0 0 R= 0 · · 0 r12 r22 0 0 · · 0 r13 r23 r33 0 · · 0 · · · r44 · · · · · · · · · · · · · · · · 0 r1n r2n r3n r4n · · rnn Für die Matrix R in (4.1) ist Zeilenrang = Spaltenrang = q. Hieraus und aus Satz 3.1 folgt sofort der folgende wichtige Satz 4.2. Gegeben sei das LGS n X ajk xk = bj , j = 1, . . . , m. k=1 1. Das LGS ist lösbar genau dann, wenn Rang(A) = Rang(A, b). Man sagt: ”Rang(A) ist gleich dem Rang der erweiterten Matrix (A, b).” 2. Die Lösungsmenge V0 des homogenen linearen Gleichungssystems n X ajk xk = 0, j = 1, . . . , m k=1 hat die Dimension n − Rang(A). 100 (4.2) §5. Determinanten Problem 1: In einem rechtwinkligen Koordinatensystem der Ebene spannen die Einheitsvektoren E1 und E2 das Einheitsquadrat der Fläche 1 auf. Bestimme die Fläche des Parallelogramms, das von den beiden Vektoren x1 E1 + y1 E2 , x2 E1 + y2 E2 aufgespannt wird. Antwort: Der Flächeninhalt ist x1 y2 − x2 y1 =: det x1 y1 x2 y2 . Problem 2: In einem rechtwinkligen Koordinatensystem des Raums spannen die Einheitsvektoren E1 , E2 , E3 den Einheitswürfel des Volumens 1 auf. Bestimme das Volumen des schiefen Würfels, der von den drei Vektoren x1 E1 + y1 E2 + z1 E3 , x2 E1 + y2 E2 + z2 E3 , x3 E1 + y3 E2 + z3 E3 aufgespannt wird. Antwort: Das Volumen ist x1 y2 z3 − x1 y3 z2 + x2 y3 z1 − x2 y1 z3 + x3 y1 z2 − x3 y2 z1 x1 =: det y1 z1 x2 y2 z2 x3 y3 . z3 Der Flächeninhalt oder das Volumen sind dabei negativ, wenn die Vektoren negativ orientiert sind. Für allgemeines n ∈ IN definiert man a11 a21 a31 A= · · · an1 mit den n Spaltenvektoren die Determinante einer n × n-Matrix a12 a13 · · · a1n a22 a23 · · · a2n a32 a33 · · · a3n · · · · · · · · · · · · · · · · · · an2 an3 · · · ann a1k a2k a3k ak := · ∈ Kn , · · ank 101 k = 1, . . . , n, in folgender Weise: Wie bisher bezeichne Kn×n die Menge aller n × n-Matrizen. Gesucht ist eine Abbildung det : Kn×n → K mit den Eigenschaften (D1) Die Abbildung det ist linear bezüglich jeder Spalte von A = (a1 , a2 , . . . , an ); hierbei bedeutet die Linearität bezüglich der Spalte j, dass det a1 , . . . , aj−1 , aj + bj , aj+1 , . . . , an = det a1 , . . . , aj−1 , aj , aj+1 , . . . , an + det a1 , . . . , aj−1 , bj , aj+1 , . . . , an det a1 , . . . , aj−1 , αaj , aj+1 , . . . , an = αdet a1 , . . . , aj−1 , aj , aj+1 , . . . , an für alle α ∈ K. (D2) Beim Vertauschen zweier Spalten in A = (a1 , a2 , . . . , an ) ändert sich das Vorzeichen; (D3) Die Determinante der n × n-Einheitsmatrix 1 0 0 In = (e1 , e2 , . . . , en ) = · · 0 0 1 0 · · 0 0 0 1 · · 0 0 0 0 · · 0 · · · · · · · · · · · 0 0 0 0 0 0 1 ist gleich 1. Allgemein gilt Satz 5.1. Für jedes n ∈ IN ist durch die Eigenschaften (D1), (D2), (D3) genau eine Abbildung det : Kn×n → K bestimmt, und zwar ist a11 a12 a13 · · · a1n a21 a22 a23 · · · a2n a31 a32 a33 · · · a3n X det · sign(σ) · aσ1 ,1 · aσ2 ,2 · ·aσn ,n . · · · · · · = · · · · · · σ∈Πn · · · · · · · · an1 an2 an3 · · · ann Hierbei definieren wir n o Πn := σ = (σ1 , σ2 , . . . , σn ) | σ ist Permutation der Zahlen 1, 2, . . . , n und sign(σ) := 1, falls σ = (σ1 , σ2 , . . . , σn ) durch eine gerade Anzahl von Vertauschungen zweier Komponenten aus (1, 2, . . . , n) entstanden ist, und 102 sign(σ) := −1, falls σ = (σ1 , σ2 , . . . , σn ) durch eine ungerade Anzahl von Vertauschungen zweier Komponenten aus (1, 2, . . . , n) entstanden ist. Wir prüfen sofort nach, dass durch Satz 5.1 im Falle n = 3 gerade die Lösungsformel des Problems 2 herauskommt. Die Determinante hat die folgenden weiteren Eigenschaften: Satz 5.2. Es sei A eine n × n-Matrix. Es bezeichne a11 a12 a13 AT = · · · a1n a21 a22 a23 · · · a2n a31 a32 a33 · · · a3n · · · · · · · · · · · · · · · an1 · an2 · an3 · · · · · · · ann die transponierte Matrix der n × n-Matrix A. Es gilt det(AT ) = det(A). (5.1) Beweis: Dies folgt sofort aus der Formel des Satzes 5.1. Definition 5.1. Eine n × n-Matrix A = (ajk )nj,k=1 heißt symmetrisch, falls AT = A, das heißt, falls akj = ajk für alle 1 ≤ j, k ≤ n. Satz 5.3. Es sei A eine n × n-Matrix. Es ist sind die folgenden Aussagen äquivalent: det(A) = 0 det(AT ) = 0 die Spaltenvektoren von A sind linear abhängig die Zeilenvektoren von A sind linear abhängig Rang(A) = Rang(AT ) ≤ n − 1. Zur Berechnung der Determinante det(A) benutzen wir das Gaußsche Eliminationsverfahren unter Verwendung des folgenden Satzes. 103 Satz 5.4. Es sei a1 a2 A= · · an eine n × n-Matrix mit den Zeilenvektoren aj = (aj1 , aj2 , ·, ajn), j = 1, . . . , n. Es gelten die Rechenregeln a1 a2 · det j = α det(A), αa · an Für k 6= j ist α ∈ K. a1 · j−1 a j k det a + αa = det(A), α ∈ K, aj+1 · an 1 1 a a · · j k a a det · = −det · . k j a a · · n a an Beweis: Wir verwenden die Aussage det(AT ) = det(A) des Satzes 5.2 und verwenden für AT die Eigenschaften (D1) und (D2). Wir wenden diese Regeln an folgendem Beispiel an und erhalten nach mehreren Schritten: 0 1 det 2 0 3 5 2 1 3 0 1 0 1 0 2 0 = · · · = 3det 0 1 0 0 104 5 1 0 0 0 1 −1 0 2 0 = 9, 0 −3 denn eine obere n × n Dreiecksmatrix r11 r12 r13 0 r22 r23 0 r33 0 R= · · · · · · · · · 0 0 0 · · · · · · · · · · · · · · · · · · · · 0 r1n r2n r3n · · · rnn hat nach Satz 5.1 die Determinante det(R) = n Y rjj . j=1 Enthält eine n × n- Matrix A viele Nullen, so kann man zur Berechnung der Determinante den folgenden Entwicklungssatz mit Erfolg anwenden: Satz 5.5. Es sei A eine n × n-Matrix. Für 1 ≤ j, k ≤ n bezeichnen wir mit Ajk die (n − 1) × (n − 1)-Matrix, die aus A durch Streichen der Zeile j und der Spalte k hervorgeht. 1. Entwickeln nach Zeile j: Es gilt n X det(A) = (−1)j+k ajk det(Ajk ). k=1 2. Entwickeln nach Spalte k: Es gilt n X det(A) = (−1)j+k ajk det(Ajk ). j=1 Wenden wir den Entwicklungssatz auf das letzte Beispiel an, so erhalten wir 0 1 det 2 0 3 5 2 1 1 = −3det 2 3 0 1 0 0 0 3 0 2 = det 1 0 2 1 2 1 1 0 2 = −3(1 − 4) = 9. 1 Von theoretischer, aber nicht von numerischer Bedeutung ist die Cramersche Regel zur Lösung von LGS: 105 Satz 5.6. Gegeben sei das LGS n X ajk xk = bj , j = 1, . . . , n. k=1 Erfüllt die Matrix A = (ajk )nj,k=1 durch a11 · a21 · 1 · det · xj = det(A) · · an1 · die Bedingung det(A) 6= 0, so ist die Lösung gegeben a1,j−1 a2,j−1 · · an,j−1 b1 b2 · · bn a1,j+1 a2,j+1 · · an,j+1 · a1n · a2n · · , · · · ann j = 1, . . . , n. Beweis: Es bezeichne b1 b2 b := · · bn , a1k a2k ak := · , · ank k = 1, . . . , n. Das LGS ist äquivalent zu x1 a1 + x2 a2 + · · · + xn an = b. Daher ist für j = 1, 2, . . . , n det a1 , . . . , aj−1 , b, aj+1 , . . . , an n X = det a1 , . . . , aj−1 , xk ak , aj+1 , . . . , an k=1 = n X xk det a1 , . . . , aj−1 , ak , aj+1 , . . . , an k=1 = xj det a1 , . . . , aj−1 , aj , aj+1 , . . . , an = xj det(A), quod erat demonstrandum. Man nennt eine n × n-Matrix A regulär oder nicht-singulär, falls det(A) 6= 0 ist. Ist det(A) = 0, so heißt A singulär . Aus den bisherigen Diskussionen können wir den folgenden sehr wichtigen Satz über LGS gewinnen: 106 Satz 5.7. Gegeben sei die n × n-Matrix A. Dann sind die folgenden Aussagen äquivalent: 1. det(A) 6= 0, 2. Das LGS Ax = b ist für jede rechte Seite b ∈ Kn eindeutig lösbar, 3. Das homogene LGS Ax = 0 hat nur die Lösung x = 0. Aus dem letzten Satz können wir eine wichtige Anwendung aus der Interpolationstheorie herleiten: Interpolationsproblem: Sei d ∈ IN und Ω ⊂ IRd . Es seien n linear unabhängige Funktionen uk : Ω → IR, k = 1, . . . , n, gegeben, die einen linearen Raum V := span{u1 , u2 , . . . , un } aufspannen. Zu gegebenen n verschiedenen Punkten (Orten) xi ∈ Ω, i = 1, . . . , n, und n reellen Zahlen yi , i = 1, . . . , n, bestimme man v ∈ V mit der Eigenschaft v(xi ) = yi , i = 1, . . . , n. Lösung: Das Interpolationsproblem kann keine, eine oder viele Lösungen haben. Wir machen den Ansatz n X v= ck uk . k=1 Dann können wir das Interpolationsproblem schreiben als lineares Gleichungssystem n X ck uk (xi ) = yi , i = 1, . . . , n. k=1 Oder in Matrixschreibweise : Ac = b, u1 (x1 ) u1 (x2 ) · · u1 (xn ) u2 (x1 ) u2 (x2 ) · · u2 (xn ) u3 (x1 ) u3 (x2 ) · · u3 (xn ) · · · · · y1 c1 · un (x1 ) · un (x2 ) c2 y2 · · · = · . · · · · yn cn · un (xn ) Wegen Satz 5.7 sind daher die folgenden Aussagen äquivalent: (a) det(A) 6= 0, (b) Das Interpolationsproblem ist für jedes n-Tupel y1 , y2 , . . . , yn eindeutig lösbar, (c) Das homogene Interpolationsproblem v(xi ) = 0, i = 1, . . . , n, hat nur die Lösung v = 0 (Nullfunktion). Wir wollen dies für die Interpolation durch algebraische Polynome V = Pn vom Grade ≤ n anwenden. Nach dem Hauptsatz der Algebra wissen wir, dass zu gegebenen n + 1 = dim(Pn ) verschiedenen reellen oder komplexen Stellen xi , i = 0, . . . , n, das homogene 107 Interpolationsproblem nur das Nullpolynom als Lösung hat. Also gilt die Eigenschaft (c). Hierzu ist (b) äquivalent. Also ist bewiesen, | | und n + 1 Zahlen y , . . . , y dass es zu n + 1 verschiedenen Punkten x0 , . . . , xn in C 0 n in C genau ein algebraisches Polynom P vom Grade ≤ n gibt mit P (xj ) = yj , j = 0, . . . , n. Da jedes trigonometrische Polynom T (t) = n X ck eikt , k=−n | , ck ∈ C (∗) vom Grade ≤ n, das nicht identisch Null ist, auf dem Intervall [0, 2π) höchstens 2n Nullstellen hat, folgt aus Satz 5.7 (Teil 3), dass es zu 2n + 1 verschiedenen Punkten 0 ≤ t0 < t1 < · · · < t2n < 2π | genau ein trigonometrisches Polynom T der Form (∗) und 2n + 1 Zahlen y0 , . . . , y2n in C gibt mit T (tj ) = yj , j = 0, . . . , 2n. Sind die Stützstellen tj äquidistant, das heißt, ist 0 = t 0 < · · · < tj = 4πn 2πj < · · · < t2n = , 2n + 1 2n + 1 dann berechnet man die Koeffizienten ck des trigonometrischen Interpolationspolynoms T durch 2n 1 X yj e−iktj , k = −n, . . . , n. ck = 2n + 1 j=0 108 Anhang: Lineare Differentialgleichungen mit konstanten Koeffizienten Wir beginnen mit der Diskussion homogener Differentialgleichungen 2. Ordnung mit kon| : Gesucht sind alle Funktionen y ∈ C 2 [a, b], y : [a, b] → C | , stanten Koeffizienten a0 , a1 ∈ C d.h. 2-mal stetig differenzierbar in [a, b], die die Differentialgleichung (DGL) y ′′ (x) + a1 y ′ (x) + a0 y(x) = 0, a ≤ x ≤ b, (1) erfüllen. Wir erkennen sofort, dass die Lösungsgesamtheit von (1) einen Unterraum von | . Durch C 2 [a, b] bilden, denn sind y, y1 , y2 Lösungen von (1), so auch y1 + y2 und αy, α ∈ C den Ansatz | , y(x) = eλx , λ ∈ C versuchen wir, Lösungen von (1) zu finden. In (1) eingesetzt ergibt dies λ2 eλx + λa1 eλx + a0 eλx = 0, a ≤ x ≤ b. Da eλx 6= 0, x ∈ [a, b], ist dies äquivalent zur quadratischen Gleichung λ2 + λa1 + a0 = 0. (2) Wir nehmen nun an, dass a0 und a1 reell sind. Wir berechnen ∆ := (a21 )/4 − a0 . Die Lösungen von (2) sind dann gegeben durch −a1 √ + ∆ , 2 p −a1 λ1 = + i |∆| , 2 −a1 √ − ∆, falls ∆ > 0, 2 p −a1 λ2 = − i |∆|, falls ∆ < 0, 2 −a1 λ1 = λ2 = falls ∆ = 0. 2 Ist ∆ = 0, so prüfen wir nach, dass die Funktion λ1 = λ2 = y(x) := xeλx , λ := −a1 , 2 die DGL (1) erfüllt. Satz 1. Seien a0 , a1 ∈ IR. Im Fall ∆ := (a21 )/4 − a0 6= 0 ist die Lösungsgesamtheit von (1) gegeben durch n o | span{eλ1 x , eλ2 x } = y(x) = c1 eλ1 x + c2 eλ2 x : c1 , c2 ∈ C . Und im Falle ∆ = 0 durch λ1 x span{e wobei λ := −a1 /2. λ1 x , xe n } = y(x) = c1 eλx + c2 xeλx : o c1 , c2 ∈ C , | Wir sind auch interessiert an den reellen Lösungen der DGL (1). Es gilt 109 Satz 2. Seien a0 , a1 ∈ IR. Im Fall ∆ > 0 ist die reelle Lösungsgesamtheit von (1) gegeben durch n y(x) = c1 eλ1 x + c2 eλ2 x o c1 , c2 ∈ IR . : Im Fall ∆ < 0 ist die reelle Lösungsgesamtheit von (1) gegeben durch n p p y(x) = e−a1 x/2 c1 cos ( |∆|x) + c2 sin ( |∆|x) Und im Falle ∆ = 0 durch n y(x) = e−a1 x/2 (c1 + c2 x) : o c1 , c2 ∈ IR . o c1 , c2 ∈ IR . : | und β ∈ C | gegeben. Beweisen Sie: Seien α ∈ C Anfangswertproblem (AWP): In der Lösungsmenge der DGL (1) des Satzes 1 gibt es genau ein y mit y(a) = α, y ′ (a) = β. Beispiel 1. Bestimme die Lösung des AWP y ′′ (x) + 4y ′ (x) + 8y(x) = 0, y(0) = 1, y ′ (0) = 0. 0 ≤ x < ∞, Lösung: Wegen a0 = 8 und a1 = 4 ist ∆ := (a21 )/4 − a0 = −4. Nach Satz 2 hat die gesuchte Lösung die Form y(x) = e−2x (c1 cos (2x) + c2 sin (2x)) : c1 , c2 ∈ IR. Dann ist y(0) = c1 = 1 und y ′ (0) = −2 ∗ c1 + 2 ∗ c2 = 0, also c1 = c2 = 1 und y(x) = e−2x (cos (2x) + sin (2x)) . Randwertproblem (RWP): Finde ein y der Lösungsmenge der DGL (1) des Satzes 1, für das y(a) = α, y(b) = β. Beispiel 2. Es sei b > 0 gegeben. Bestimme die Lösung des RWP y ′′ (x) + 9y(x) = 0, 0 ≤ x ≤ b, y(0) = 0, y(b) = 1. Lösung: Es ist a0 = 9 und a1 = 0 und somit ∆ = −9. Nach Satz 2 hat die gesuchte Lösung die Form y(x) = c1 cos (3x) + c2 sin (3x) 110 : c1 , c2 ∈ IR. Die Randbedingungen liefern y(0) = c1 = 0 , y(b) = c2 sin (3b) = 1. Ergebnis: Das RWP hat eine eindeutige Lösung, wenn sin (3b) 6= 0. Im Falle sin (3b) = 0, also b = π/3, 2π/3, . . ., besitzt das RWP keine Lösung. Beispiel 3. Bestimme alle Lösungen des RWP y ′′ (x) + 9y(x) = 0, 0 ≤ x ≤ π/3, y(0) = 0, y(π/3) = 0. Lösung: Wie in Beispiel 2 haben die gesuchten Lösungen die Form y(x) = c1 cos (3x) + c2 sin (3x) : c1 , c2 ∈ IR. Die Randbedingungen liefern y(0) = c1 = 0 und y(π/3) = c1 cos (π) + c2 sin (π) = −c1 = 0. Mit andern Worten: Jedes c2 ∈ IR liefert eine Lösung des RWP, nämlich y(x) = c2 sin (3x). Wir betrachten nun zu n ∈ IN die homogene Differentialgleichung y (n) (x) + n−1 X ak y (k) (x) = 0, k=0 a ≤ x ≤ b, (3) der Ordnung n mit konstanten Koeffizienten a0 , . . . , an−1 . Hierbei bedeutet y (0) (x) := y(x). Ähnlich wie in Satz 1 führt der Ansatz y(x) = eλx zu Lösungen von (3), und zwar für alle Nullstellen des Polynoms P (λ) := n X ak λk , an := 1. k=0 Nach dem Hauptsatz der Algebra kann das Polynom P dargestellt werden in der Form P (λ) = m Y j=1 (λ − λj )qj . Hierbei sind λ1 , . . . , λm die verschiedenen Nullstellen von P , und qj ∈ IN ist die algebraische Vielfachheit der Nullstelle λj von P . Die komplexe Lösungsgesamtheit von (3) ist gegeben durch n | : y : [a, b] → C y(x) = m X λj x e j=1 j −1 qX k=0 111 ajk x k : ajk o ∈C . | Beim Anfangswertproblem der DGL (3) sind die Zahlen α0 , α1 , . . . , αn−1 gegeben. Dann gibt es genau eine Lösung y von (3) mit y (q)(a) = αq , q = 0, 1, . . . , n − 1. Frage: Welches lineare Gleichungssystem bestehend aus n Gleichungen und n Unbekannten muß man lösen, um die Lösung y dieses Anfangswertproblems zu finden ? Wesentlich schwieriger zu lösen sind DGLen der Form y (n) (x) + n−1 X ak y (k) (x) = g(x), k=0 a ≤ x ≤ b, (4) mit einer stetigen Funktion g, also g ∈ C[a, b]. Hat man eine Lösung y0 von (4) gefunden, so ist die Lösungsgesamtheit von (4) gegeben durch n | : y : [a, b] → C o y = y0 + homogene Lösungen . Beispiel 4.(Resonanz) Bestimme die Lösung des AWP y ′′ (x) + 9y(x) = 18 sin (3x), 0 ≤ x < ∞, y(0) = 0, y ′ (0) = 0. Lösung: Die Lösung y(x) = sin (3x) − 3x cos (3x) ist nicht leicht zu finden. Wir prüfen nach, dass y(0) = 0, y ′ (x) = 3 cos (3x) − 3 cos (3x) + 9x sin (3x) = 9x sin (3x), also y ′ (0) = 0, sowie y ′′ (x) = 9 sin (3x) + 27x cos (3x) und somit y ′′ (x) + 9y(x) = 9 sin (3x) + 27x cos (3x) + 9 sin (3x) − 27x cos (3x) = 18 sin (3x). finis WS 2007/08 112