Höhere Mathematik I Universität Stuttgart, WS 2008/09 Prof. Dr. M. Griesemer Empfehlungen zum Studium der HM I Der Vorlesung folgen (d.h. alles jetzt verstehen) I Vorlesungsstoff aufarbeiten I Aufgaben lösen I Prüfungsvorbereitung I Ausgleich zum Studium Literatur 1. Bärwolff: Höhere Mathematik 2. Blatter: Ingenieur-Analysis (www.math.ethz.ch/ blatter/) 3. Brauch, Dreyer, Haacke: Mathematik für Ingenieure 4. Fischer, Kaul: Mathematik für Physiker (3Bd.) 5. Kerner, von Wahl: Mathematik für Physiker 6. Kimmerle, Stroppel: Analysis / Lineare Algebra 7. Meyberg, Vachenauer: Höhere Mathematik (2Bd.) Quantendynamik ∂2 ∂ i ψ(x, t) = − 2 ψ(x, t), ∂t ∂x ψ(0, t) = 0 = ψ(π, t). Aussagenlogik Aussagen Eine Aussage ist ein Satz in Worten oder Zeichen, welche eindeutig als wahr oder falsch deklariert werden kann. Aussagen sind: I 2+2=5 I Durch zwei verschiedene Punkte gibt es genau eine Gerade I Morgen scheint die Sonne Keine Aussagen sind: I Elektronen sind blau I Die Beatles waren bessere Musiker als Beethoven Aussagen Ein Axiom oder ein Postulat ist eine Aussage, welche gemäß Vereinbarung wahr ist. Beispiele: I Zu jeder Geraden g und zu jedem nicht auf g liegenden Punkt P gibt es genau eine Gerade, welche durch P verläuft und zu g parallel ist. I Die Lichtgeschwindigkeit im Vakuum ist unabhängig vom Bewegungszustand von Quelle und Beobachter. Ein Theorem, Satz, Lemma oder Korollar ist eine wahre Aussage, welche aus den Axiomen hergeleitet werden kann. Eine Aussagenform ist ein Satz in Worten oder Zeichen, welcher mindestens eine Variable enthält, und für jede zulässige Belegung der Variablen zu einer Aussage wird (Bsp.: x < 1). Nicht, und, oder Wir benutzen a, b, c . . . zur Abkürzung von Aussagen (a := 5 ist ” eine Primzahl.“) Die möglichen Wahrheitswerte einer Aussage bezeichnen wir mit 1 (wahr) und 0 (falsch). Die Wahrheitswerte der neuen Aussagen: ¬a a∨b a∧b nicht a“ ” a oder b“ ” a und b“ ” ¬a 1 0 1 0 a 0 1 0 1 b 0 0 1 1 a∨b 0 1 1 1 a∧b 0 0 0 1 hängen nur von den Wahrheitswerten von a und b ab, und sind definiert durch obige Wahrheitswertetabelle. Implikation und Äquivalenz Seien a und b zwei Aussageformen. a⇒b : a⇔b : aus a folgt b“ ” bedeutet: falls a wahr ist, dann ist auch b wahr, a ist äquivalent zu b“ ” bedeutet: a ist genau dann wahr, wenn b wahr ist. Bemerkung: a ⇒ b und a ⇔ b sind keine Aussagen, sondern beschreiben Beziehungen zwischen den Aussageformen a und b. (siehe Vortragsübung) Satz 1.1 Die Implikation a ⇒ b und deren Kontraposition ¬b ⇒ ¬a sind logisch äquivalent. Beweis: Vortragsübung. Satz 1.2 (De Morgansche Regeln) ¬(a ∧ b) ⇔ ¬a ∨ ¬b ¬(a ∨ b) ⇔ ¬a ∧ ¬b Satz 1.3 (Distributivgesetze) a ∧ (b ∨ c) ⇔ (a ∧ b) ∨ (a ∧ c) a ∨ (b ∧ c) ⇔ (a ∨ b) ∧ (a ∨ c). Quantoren Sei a(x) eine Aussageform. ∀x : a(x) für alle x gilt a(x)“ ” ist dieVund-Verknüpfung aller Aussagen a(x). Man schreibt daher auch x : a(x). ∃x : a(x) es gibt ein x, so dass a(x) gilt“ ” ist dieWoder-Verknüpfung aller Aussagen a(x). Man schreibt daher auch x : a(x). De Morgansche Regeln: ¬∀x : a(x) ⇔ ∃x : ¬a(x), ¬∃x : a(x) ⇔ ∀x : ¬a(x). Mengen Eine Menge M ist eine Zusammenfassung von Objekten m, genannt Elemente von M, zu einem Ganzen. m∈M : m 6∈ M : m ist Element von M“ ” m ist nicht Element von M“. ” ∅ bezeichnet die leere Menge (sie enthält kein Element). Mengen kann man beschreiben durch Aufzählung der Elemente: {1, 3, 7} = {3, 1, 7} = {1, 1, 3, 7} oder mit Hilfe einer Aussageform a(x): M := {x ∈ X |a(x)} ist die Menge der Elemente x ∈ X für welche die Aussage a(x) wahr ist. Wichtige Beispiele N := {1, 2, 3, . . .} Menge der natürlichen Zahlen, N0 := {0, 1, 2, 3, . . .} Z := {0, ±1, ±2, . . .} Menge der ganzen Zahlen, m Q := { |(m ∈ Z) ∧ (n ∈ N)} Menge der rationalen Zahlen, n R := Menge der reellen Zahlen, C := Menge der komplexen Zahlen. Teilmengen Eine Menge A heißt Teilmenge der Menge B: A⊂B falls jedes Element von A auch ein Element von B ist. Dabei ist A = B erlaubt. Es gilt also: ∅ ⊂ A, A ⊂ A. Beispiele: N ⊂ N0 ⊂ Z ⊂ Q ⊂ R ⊂ C. Die Menge aller Teilmengen einer Menge A heißt Potenzmenge von A und wird mit P(A) bezeichnet. Beispiel: P({1, 3, 7}) = ∅, {1}, {3}, {7}, {1, 3}, {1, 7}, {3, 7}, {1, 3, 7} . Mengenoperationen Seien A und B zwei Mengen. A ∩ B := {x|x ∈ A ∧ x ∈ B} Durchschnitt A ∪ B := {x|x ∈ A ∨ x ∈ B} Vereinigung A\B := {x|x ∈ A ∧ x 6∈ B} = Differenz {x ∈ A|x 6∈ B}. Die Mengen A und B heißen disjunkt, falls A ∩ B = ∅. Falls A Teilmenge einer Grundmenge X ist, über welche kein Zweifel besteht, dann heißt Ac := X \A, das Komplement von A. Kartesisches Produkt Das kartesische Produkt von zwei Mengen A, B ist die Menge A × B := {(x, y )|x ∈ A, y ∈ B} der geordneten Paare (a, b). Also B × A 6= A × B. Für n Mengen A1 , . . . An ist A1 × A2 × · · · An := {(a1 , . . . , an )|ai ∈ Ai } die Menge der geordneten n-Tupel (a1 , . . . , an ), und An := |A × A{z × · · · A} . n Faktoren Abbildungen Seien A, B zwei beliebige Mengen. Eine Abbildung oder Funktion f von A nach B, in Zeichen: f : A → B, ist eine Vorschrift, welche jedem Element x ∈ A ein Element y ∈ B zuordnet. Man schreibt y = f (x), oder f : x 7→ f (x). A heißt Definitionsbereich, f (A) := {f (x)|x ∈ A} heißt Wertebereich oder Bildmenge von f . f ist der Name der Funktion und f (x) ist der Wert der Funktion an der Stelle x. Für U ⊂ A und V ⊂ B ist f (U) := {f (x)|x ∈ U} f −1 (V ) := {x|f (x) ∈ V } Bild von U, Urbild von V . Der Graph der Abbildung f ist die Menge G(f ) := {(x, y )|x ∈ A, y = f (x)}. Die Umkehrabbildung Eine Abbildung f : A → B heißt injektiv, falls für alle x, y ∈ A gilt: f (x) = f (y ) ⇒ x = y. f heißt surjektiv, falls f (A) = B, und f heißt bijektiv, falls f injektiv und surjektiv ist. Ist f bijektiv, dann existiert die Umkehrabbildung f −1 : B → A, definiert durch y = f (x) ⇔ x = f −1 (y ). Es gilt also f −1 (f (x)) = x und f (f −1 (y )) = y . Vorsicht: f −1 (y ) 6= f (y )−1 ! Im Fall A, B ⊂ R bekommt man den Graphen von f −1 durch Spiegelung des Graphen von f an der Geraden y = x in R2 . Einschränkung einer Funktion Sei f : A → B gegeben und sei U ⊂ A. Die Einschränkung oder Restriktion von f auf U ist die neue Abbildung f U : U → B, (f U)(x) = f (x). Bemerkungen. I Durch geeignete Wahl von U kann eine nicht-injektive Funktion injektiv gemacht werden. I Falls B wählbar ist, dann wird f durch die Wahl B = f (A) surjektiv. Beispiel. Mit f (x) = x 2 meint man in der Regel eine Funktion, mit A = B = R. f ist also weder injektiv noch surjektiv. Durch die √ Wahl A = B = {x ∈ R|x ≥ 0} wird f bijektiv und f −1 (x) = x. Komposition von Funktionen Sind f : X → Y und g : Y → Z zwei gegebene Abbildungen, dann ist die Verknüpfung (Zusammensetzung, Komposition) g ◦f :X →Z von f und g definiert durch (g ◦ f )(x) := g (f (x)). Satz 1.4 Die Verknüpfung von Abbildungen ist assoziativ. D.h., wenn f : X → Y , g : Y → Z und h : Z → W , dann (h ◦ g ) ◦ f = h ◦ (g ◦ f ). Satz 1.5 Sind f : X → Y und g : Y → Z bijektiv, dann ist auch g ◦ f : X → Z bijektiv und es gilt (g ◦ f )−1 = f −1 ◦ g −1 . Reelle Zahlen Vollständige Induktion Die Elemente von N := {1, 2, 3. . . .} heißen natürliche Zahlen. Alle Eigenschaften der natürlichen Zahlen, z.B. I m, n ∈ N ⇒ m + n ∈ N, m · n ∈ N I Jede nichtleere Teilmenge von N hat ein kleinstes Element. lassen sich aus fünf Axiomen herleiten (Peanosche Axiome, siehe Bärwolff). Das wichtigste für uns ist das Induktionsaxiom: Falls M ⊂ N, 1 ∈ M und n ∈ M ⇒ (n + 1) ∈ M, dann gilt M = N. Beweisprinzip der vollständigen Induktion: Sei n0 ∈ Z und für jedes n ≥ n0 sei a(n) eine Aussage. Falls: 1. a(n0 ) ist wahr, 2. a(n) ⇒ a(n + 1), dann ist a(n) wahr für alle n ≥ n0 . (Wähle M = {k ∈ N|a(n0 − 1 + k) ist wahr} im Induktionsaxiom) Rekursive Definitionen Fakultät: (n + 1)! = n! · (n + 1) 0! = 1, Potenzen: a0 := 1, an+1 := an · a, für alle a ∈ R. Summen und Produktzeichen: n X n Y ak = a1 + a2 + . . . + an , k=1 ak = a1 a2 · · · an k=1 werden rekursiv definiert: 1 X k=1 1 Y ak := a1 , ak := a1 , k=1 n+1 X k=1 n+1 Y k=1 ak := ak := n X k=1 n Y ak + an+1 ak · an+1 k=1 Binomialkoeffizienten Für k, n ∈ N0 mit k ≤ n definiert man n n! n(n − 1) . . . (n − k + 1) = := k k!(n − k)! k! Es gilt n n =1= , 0 n n n = . k n−k Lemma 1.6 Für alle k, n ∈ N mit k ≤ n gilt n+1 n n = + . k k −1 k Bemerkung: diese Rekursionsbeziehung führt auf das Pascalsche Dreieck. Binomische Formel Satz 1.7 Für beliebige a, b ∈ R und jede natürliche Zahl n gilt n X n n−k k (a + b)n = a b . k k=0 Rationale und irrationale Zahlen Reelle Zahlen, die sich schreiben lassen als m/n mit m ∈ Z und n ∈ N heißen rationale Zahlen. Reelle Zahlen, welche sich nicht so schreiben lassen heißen irrationale Zahlen. Die Summe m/n + p/q und das Produkt m/n · p/q von zwei rationalen Zahlen ist wieder eine rationale Zahl, und wenn m/n 6= 0, dann ist auch die Inverse n/m eine rationale Zahl. Es √ gibt aber auch irrationale Zahlen! Zum Beispiel: 2, π, e = 2.71828 . . . Satz 1.8 Eine reelle Zahl ist genau dann rational, wenn sie eine abbrechende oder eine periodische Dezimalbruchdarstellung hat. Es gilt 0.b1 b2 . . . bk = b1 b2 . . . bk 99 . . . 9 mit k Neunen im Nenner. Wir stellen uns reelle Zahlen als Punkte auf der Zahlengeraden vor. Intervalle Seien a, b ∈ R. a < b, sprich a ist kleiner als b“, bedeutet dass ” b − a > 0, und a ≤ b ⇔ (a < b) ∨ a = b. Eine Teilmenge I ⊂ R heißt Intervall, falls x, y ∈ I ∧ (x < t < y ) ⇒ t ∈ I . Für a, b ∈ R definiert man [a, b] := {x ∈ R|a ≤ x ≤ b} abgeschlossenes Intervall (a, b) := {x ∈ R|a < x < b} offenes Intervall [a, b) := {x ∈ R|a ≤ x < b} (a, b] := {x ∈ R|a < x ≤ b} [a, ∞) := {x ∈ R|a ≤ x} (a, ∞) := {x ∈ R|x > a}, und analog für (−∞, b] und (−∞, b). Die Intervalle [a, b) und (a, b] nennt man halboffen. (±∞ sind keine reelle Zahlen!) Schranken und Vollständigkeitsaxiom Sei S ⊂ R. S heißt nach oben beschränkt, falls ein b ∈ R existiert, mit S ⊂ (−∞, b] (d.h. x ∈ S ⇒ x ≤ b) Die Zahl b nennt man dann eine obere Schranke von S. Die Menge S heißt nach unten beschränkt, falls eine Zahl a ∈ R existiert, mit S ⊂ [a, ∞), und dann heißt a eine untere Schranke. Die Menge S heißt beschränkt, wenn sie eine untere Schranke a und eine obere Schranke b hat, so dass S ⊂ [a, b]. Vollständigkeitsaxiom: Jede nicht leere, nach oben beschränkte Menge S ⊂ R, hat eine kleinste obere Schranke, genannt Supremum von S, sup(S). Bemerkungen: I Das Vollständigkeitsaxiom garantiert die Existenz irrationaler √ Zahlen, wie z.B. 2: √ 2 = sup{x ∈ Q|x 2 < 2}. I Aus dem Vollständigkeitsaxiom folgt, dass jede nach unten beschränkte Menge U ⊂ R eine grösste untere Schranke hat. Man nennt Sie Infimum von U, inf(U). Es gilt inf(U) = − sup{−u|u ∈ U}. I I Wenn β := sup(S) in S liegt, dann heißt β größtes oder maximales Element von S. Man schreibt dann β = max(S). Wenn α = inf(U) in U liegt, dann heißt α kleinstes oder minimales Element von U und man schreibt α = min(U). Um auszudrücken, dass S nicht nach oben und U nicht nach unten beschränkt ist, schreibt man auch sup(S) = ∞, inf(U) = −∞. Ungleichungen Für alle rellen Zahlen x, y , a, b gilt x ≤ y, a ≤ b ⇒ x + a ≤ y + b x ≤ y , 0 ≤ a ⇒ xa ≤ ya x ≤y 0<x ≤y ⇒ −x ≥ −y 1 1 ⇒ 0< ≤ y x Diese Beziehungen kann man herleiten aus den Definitionen von <, ≤ und den Tatsachen (Axiomen), dass die Summe und das Produkt von zwei positiven Zahlen positiv ist. Der Betrag |a| einer reellen Zahl a ist definiert durch a, falls a ≥ 0 |a| := −a, falls a < 0. Folglich gilt |a| = max{a, −a}, |a| = | − a| und a = ±|a|. Satz 1.9 Für alle a, b ∈ R gilt (i) |a| ≥ 0 und |a| = 0 ⇔ (a = 0) (ii) |a · b| = |a||b| (iii) |a + b| ≤ |a| + |b| Körpereigenschaften von R Ein Körper ist eine Menge K für deren Elemente zwei Operationen + : K ×K →K · : K ×K →K (Addition) (Multiplikation) definiert sind, welche folgende Eigenschaften haben: (K1) Die Addition ist kommutativ und assoziativ: a + b = b + a, a + (b + c) = (a + b) + c (K2) Es gibt ein Element 0 ∈ K , genannt Null, sodass a+0=a für alle a ∈ K (K3) Zu jedem Element a ∈ K gibt es ein Element (−a) ∈ K , sodass a + (−a) = 0. (K4) Die Multiplikation ist kommutativ und assoziativ: a · b = b · a, a · (b · c) = (a · b) · c (K5) Es gibt ein Element 1 ∈ K \{0}, genannt Eins, so dass a·1=a für alle a ∈ K (K6) Zu jedem Element a ∈ K \{0} gibt es ein Element a−1 ∈ K , so dass a · a−1 = 1. (K7) Für alle Elemente a, b, c ∈ K gilt das Distributivgesetz a · (b + c) = a · b + a · c. Alle algebraischen Eigenschaften von R folgen aus der Tatsache, dass R die Körperaxiome erfüllt. Da diese auch von den komplexen Zahlen erfüllt werden, kann man mit den komplexen Zahlen rechnen wie mit reellen Zahlen. Komplexe Zahlen Definition von C Die Menge R × R versehen mit der Addition (a, b) + (c, d) = (a + c, b + d) und der Multiplikation (a, b) · (c, d) = (ac − bd, ad + bc) wird mit C bezeichnet. Die Elemente von C heißen komplexe Zahlen. Satz 1.10 C ist ein Körper. R ⊂ C und Imaginäre Einheit Für die Elemente der Teilmenge R × {0} = {(a, 0)|a ∈ R} gilt (a, 0) + (b, 0) = (a + b, 0) (a, 0) · (b, 0) = (ab, 0). Das heißt, R × {0} ist invariant unter Addition und Multiplikation und verhält sich unter diesen Operationen gleich wie R. Wir werden daher im folgenden (a, 0) ∈ C mit a ∈ R identifizieren und R als Teilmenge von C auffassen. Die komplexe Zahl i := (0, 1) ∈ C heißt imaginäre Einheit. Satz 1.11 i 2 = −1 und a + ib = (a, b) für alle a, b ∈ R. Realteil, Imaginärteil und komplexe Konjugation Sei z = a + ib ∈ C, dann heißt a Realteil von z, a = Re(z), und b heißt Imaginärteil von z, b = Im(z). Weiter ist z̄ := a − ib die zu z konjugiert komplexe Zahl. Satz 1.12 Für alle z, w ∈ C gilt (i) z + w = z̄ + w̄ (ii) zw = z̄ w̄ (iii) Re(z) = (z + z̄)/2, (iv) z ∈R (v) z = a + ib ⇔ Im(z) = (z − z̄)/(2i) z = z̄ ⇒ zz̄ = a2 + b 2 . Betrag einer komplexen Zahl Sei z = a + ib ∈ C (a, b ∈ R), dann heißt p √ |z| := zz̄ = a2 + b 2 (absoluter) Betrag von z. Offenbar ist der Betrag von z = a + ib der Abstand des Punktes (a, b) ∈ R2 vom Ursprung (0, 0). Satz 1.13 Seien z, w ∈ C, dann gilt (i) |z| ≥ 0 und (|z| = 0 ⇔ z = 0) (ii) |zw | = |z||w | (iii) |z + w | ≤ |z| + |w | (Dreiecksungleichung) (iv) | Re(z)|, | Im(z)| ≤ |z| ≤ | Re(z)| + | Im(z)| (v) z 6= 0 ⇒ z −1 = z̄/|z|2 Konsequenzen der Dreiecksungleichung Korollar 1.14 (1) z1 , . . . , zn ∈ C ⇒ n n X X |zk |, zk ≤ k=1 k=1 (2) z, w ∈ C ⇒ |z| − |w | ≤ |z − w |. Polardarstellung einer komplexen Zahl Für ϕ ∈ R definieren wir e iϕ := cos ϕ + i sin ϕ Offensichtlich gilt |e iϕ | = 1, e i0 = 1, e iπ/2 = i, e iπ = −1 und e i(ϕ+2π) = e iϕ . Aus den Formeln für cos(ϕ1 + ϕ2 ) und sin(ϕ1 + ϕ2 ) folgt, dass e i(ϕ1 +ϕ2 ) = e iϕ1 e iϕ2 . (1) Jede komplexe Zahl z hat eine Polardarstellung z = |z|e iϕ wobei das Argument ϕ ∈ R nur bis auf ein ganzzahliges Vielfaches von 2π bestimmt ist, und für z = 0 beliebig gewählt werden kann. Aus (1) folgt für z1 = |z1 |e iϕ1 und z2 = |z2 |e iϕ2 , dass z1 z2 = |z1 ||z2 |e i(ϕ1 +ϕ2 ) . (2) Potenzen und binomische Formel Sei z ∈ C und n ∈ N. Dann wird z n rekursiv definiert durch z 0 := 1 und z n+1 := z n z. Weiter ist z −n := (z −1 )n . Satz 1.15 Für alle z, w ∈ C\{0} und alle n, m ∈ Z gilt (i) (zw )n = z n w n , (ii) z n z m = z n+m (iii) (z n )m = z (nm) z −n = (z n )−1 Für alle z, w ∈ C und für alle n ∈ N gilt die binomische Formel: n X n n−k k (z + w ) = z w . k n k=0 Wurzeln Wir suchen die komplexen Lösungen z der Gleichung z n = w für gegebenes w ∈ C. Sei z = |z|e iα , w = |w |e iβ und sei z n = w . Dann folgt aus (2) und e 2πi = 1, dass z n = |z|n e iαn = |w |e i(β+2πk) , k ∈ Z. Wir definieren daher: zk := |w |1/n e i(β+2πk)/n , k ∈ Z. Dann gilt zkn = w wobei z−n = z0 = zn = z2n etc. Satz 1.16 Für jede komplexe Zahl w = |w |e iβ 6= 0 hat die Gleichung z n = w mit n ∈ N, genau n verschiedene Lösungen, nämlich die n-ten Wurzeln zk := |w |1/n e i(β/n+2πk/n) , k = 0, . . . , n − 1. Polynome und rationale Funktionen Polynome Eine Abbildung p : C → C heißt Polynom n-ten Grades, wenn es Zahlen a0 , . . . , an ∈ C gibt, mit an 6= 0 und p(x) = n X ak x k = a0 + a1 x + . . . an x n . k=0 Die Zahlen a0 , . . . , an ∈ C heißen Koeffizienten des Polynoms f . Summe und Produkt von zwei Polynomen sind wieder Polynome, denn n X k ak x + k=0 n X k=0 ak x k · n X k=0 m X bk x bk x k=0 k k n X = (ak + bk )x k = k=0 m+n X k=0 x k k X ak−l bl l=0 wobei ak−l := 0 für k − l > n und bl := 0 für l > m. Satz 1.17 Die Koeffizienten eines Polynoms sind eindeutig bestimmt: aus n X k ak x = k=0 n X bk x k für alle x ∈ R k=0 folgt, dass ak = bk , für k = 0 . . . n. Fundamentalsatz der Algebra Satz 1.18 (Fundamentalsatz der Algebra) Jedes Polynom p vom Grad n ≥ 1 hat mindestens eine Nullstelle. D.h. es gibt eine komplexe Zahl α mit p(α) = 0. (Beweis in HM3) Satz 1.19 Jedes Polynom p(x) = Faktorisierung über C: Pn k=0 ak x k von Grad n ≥ 1, besitzt die p(x) = an (x − α1 )m1 (x − α2 )m2 · · · (x − αr )mr , mit den verschiedenen Nullstellen αi der Vielfachheit mi , (i = 1, . . . , r ), m1 + m2 + . . . + mr = n. Ein Polynom vom Grad n ≥ 1 hat also genau n Nullstellen in C, wobei jede Nullstelle so oft gezählt wird, wie ihre Vielfachheit angibt. Polynome mit reellen Koeffizienten Satz 1.20 Ist α eine Nullstelle der Vielfachheit m eines Polynoms mit reellen Koeffizienten, dann ist auch α eine Nullstelle der Vielfachheit m. Satz 1.21 P Jedes Polynom p(x) = nk=0 ak x k mit n ≥ 1, ak ∈ R, an 6= 0 hat die Faktorisierung über R p(x) = an (x−b1 )m1 · · · (x−br )mr (x 2 +c1 x+d1 )k1 · · · (x 2 +cs x+ds )ks mit reellen Nullstellen bi der Vielfachheit mi (i = 1 . . . r ) und quadratischen Polynomen x 2 + ci x + di der Vielfachheit ki (i = 1 . . . s), die in R keine Nullstellen haben. Rationale Funktionen Ein Quotient zweier Polynome p(x) an x n + . . . + a1 x + a0 = , q(x) bm x m + . . . + b1 x + b0 an 6= 0, bm 6= 0, (3) heißt rationale Funktion. Der Definitionsbereich von p/q ist die Menge {x ∈ C | q(x) 6= 0}. Satz 1.22 Jede rationale Funktion (3) mit Zählergrad ≥ Nennergrad (n ≥ m), lässt sich darstellen in der Form p(x) r (x) = h(x) + q(x) q(x) mit einem Polynom h und einem Restpolynom r wobei r = 0 oder Grad(r ) < Grad(q). Diese Darstellung ist eindeutig. Lineare Algebra Rn und Cn als Vektorräume Sei K = R oder K = C. Wir definieren in K n = K × . . . × K eine Addition von zwei n-Tupeln ~x = (x1 , . . . , xn ) und ~y = (y1 , . . . , yn ) durch ~x + ~y := (x1 + y1 , . . . , xn + yn ), und eine Multiplikation von einer Zahl λ ∈ K mit einem n-Tupel ~x = (x1 , . . . , xn ) durch λ~x := (λx1 , . . . , λxn ). Die Elemente von K n versehen mit diesen Operationen nennt man Vektoren (statt n-Tupel). Der Vektor ~0 = (0, . . . , 0) heißt Nullvektor. Man definiert ~x − ~y := ~x + (−~y ). Für die Vektoroperationen in K n gelten folgende Rechenregeln: I Die Vektoraddition ist kommutativ und assoziativ, ~x + ~0 = ~x für alle x ∈ K n , I ~x + (−~x ) = ~0 für alle x ∈ K n . I Ausserdem gilt für alle λ, µ ∈ K und alle ~x , ~y ∈ K n : I λ(~x + ~y ) = λ~x + λ~y , I (λ + µ)~x = λ~x + µ~x , I (λµ)~x = λ(µ~x ), I 1~x = ~x . Damit wird K n zu einem n-dimensionalen Vektorraum (vgl. spätere Definition abstrakter Vektorräume) Lineare Gleichungssysteme Ein reelles lineares Gleichunssystem mit m Gleichungen und n Unbekannten ist von der Form a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 .. .. .. . . . am1 x1 + am2 x2 + . . . + amn xn = bm wobei aik , bi , für 1 ≤ i ≤ m, 1 ≤ k ≤ n gegebene reelle Zahlen sind. Das System heißt homogen, wenn b1 = b2 = · · · = bm = 0, sonst heißt es inhomogen. Wir interessieren uns für die Lösungsmenge, d.h. die Menge der n-Tupel (x1 , . . . , xn ), welche alle m Gleichungen gleichzeitig lösen. Das Gauß’sche Lösungsverfahren Bei folgenden Umformungen ändert sich die Lösungsmenge eines lineare Gleichungssystems nicht. Wir sagen: das Gleichungssystem geht in ein äquivalentes Gleichungssystem über. 1. Vertauschung zweier Gleichungen. 2. Multiplikation einer Gleichung mit λ 6= 0. 3. Addition des λ-fachen der iten Gleichung zur j-ten Gleichung. Diese Feststellung ist die Grundlage Gauß’sches Lösungsverfahren. Matrizen Eine reelle m × n-Matrix ist ein rechteckiges Schema von reellen Zahlen a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n A= . .. .. .. = (aik ). . . . . . am1 am2 am3 . . . amn Das Element aik steht in der i-ten Zeile und der k-ten Spalte. Man definiert die Summe von zwei m × n Matrizen A = (aik ) und B = (bik ) durch A + B := (aik + bik ) und das Produkt einer Matrix A = (aik ) mit einer Zahl λ ∈ R durch λA := (λaik ). Weiter ist A − B := A + (−B). Diese Addition und die skalare Multiplikation von m × n Matrizen unterscheidet sich nicht von den entsprechenden Operationen in Rnm . Somit gilt für alle m × n Matrizen A, B und alle λ, µ ∈ R: I Die Matrixaddition ist kommutativ und assoziativ, I A+0=A I A + (−A) = 0 I λ(A + B) = λA + λB, I (λ + µ)A = λA + µA, I (λµ)A = λ(µA), I 1A = A. Hier bezeichnet 0 die m × n-Nullmatrix deren Elemente lauter Nullen sind. Eine m × 1 Matrix a1 a2 .. ∈ Rm . am nennt man auch Spaltenvektor. Eine 1 × n-Matrix (a1 , a2 , . . . , an ) ∈ Rn heißt Zeilenvektor. Wir definieren das Produkt eines Zeilenvektors aus Rn mit einem Spaltenvektor aus Rn durch b1 n b2 X (a1 , a2 , . . . , an ) . := ak bk . .. k=1 bn Ein lineares Gleichungssystem mit m Gleichungen und n Unbekannten lässt sich somit schreiben als a11 a12 . . . a1n x1 b1 a21 a22 . . . a2n x2 b2 .. .. .. = .. . . . . . am1 am2 . . . bm xn amn Links steht die Koeffizientenmatrix A = (aij ) angewandt auf den Spaltenvektor ~x mit den unbekannten Komponenten xi , d.h, jede Zeile von A wird multipliziert mit dem Spaltenvektor ~x . Kurz A~x = ~b wobei x1 x2 ~x := . , .. b1 b2 ~b := .. . . xn bm Die Umformungen des Gauß’schen Lösungsverfahrens lassen sich übersichtlich ausführen an der erweiterten Koeffizientenmatrix: a11 a12 . . . a1n b1 a21 a22 . . . a2n b2 ~ (A, b) := . . . .. .. .. am1 am2 . . . amn bm Die Gleichungsumformungen entsprechen den folgenden elementaren Zeilenumformungen: 1. Vertauschen von zwei Zeilen 2. Multiplikation einer Zeile mit einer Zahl λ 6= 0, 3. Addition (Subtraktion) des λ-fachen einer Zeile zu einer anderen Zeile. Das homogene System A~x = ~0 Im Fall ~b = ~0 genügt die einfache“ Koeffizientenmatrix: ” a11 a12 . . . a1n a21 a22 . . . a2n .. .. . . . am1 am2 . . . amn Vorwärtselimination: I Zeilen vertauschen bis a11 6= 0, (bzw bis a12 6= 0, falls a11 = . . . = am1 = 0), I subtrahiere I subtrahiere I etc. Das Resultat ist: a21 a11 -faches a31 a11 -faches der ersten Zeile von zweiter Zeile, der ersten Zeile von dritter Zeile, • ∗ ∗ ∗ ∗ ∗ 0 ∗ ∗ ∗ ∗ ∗ .. . A1 0 ∗ ∗ ∗ ∗ ∗ An der •-Stelle ist eine Zahl 6= 0, über die Zahlen an den ∗-Stellen wird nichts ausgesagt, und A1 bezeichnet eine (m − 1) × (n − 1) Matrix. Falls A1 die Nullmatrix ist, ist man fertig. Sonst wiederholt man das Eliminationsverfahren mit A1 . Nach höchstens m − 1 Eliminationsschritten gelangt man zu einer Matrix M in Zeilenstufenform, z.B. auf: • ∗ ∗ ∗ ∗ ∗ 0 0 • ∗ ∗ ∗ M= 0 0 0 • ∗ ∗ . 0 0 0 0 0 0 Rückwärtssubstitution I Die Unbekannten zu den Spalten ohne • sind freie Variablen. Wir bezeichnen sie mit λ1 , . . . , λn−r . I Im Gleichungssystem das der Matrix M entspricht bringt man die freien Variablen λ1 , . . . , λn−r auf die rechte Seite und berechnet der Reihe nach, von unten nach oben, die zu den •-Stellen gehörenden abhängigen Variablen (in Abhängigkeit von λ1 , . . . , λn−r ). Die so bestimmte Lösung heißt allgemeine Lösung des Systems. Der Rang der m × n-Matrix A, RangA, ist die Anzahl der von Null verschiedenen Zeilen in der Zeilenstufenmatrix M, welche aus A mittels Gauß-Elimination erzielten wurde. Offensichtlich ist RangA ≤ m. Satz 2.1 Sei A eine m × n Matrix. Dann enthält allgemeine Lösung des homogenen Systems A~x = ~0: n − RangA frei wählbare Parameter. Falls RangA = n dann ist ~0 ist die einzige Lösung. Für RangA < n, z.B. wenn m < n, dann gibt es von Null verschiedene Lösungen. Das inhomogene System A~x = ~b I Vorwärtselimination an der Matrix (A, ~b) liefert • ∗ ∗ ∗ ∗ ∗ d1 0 0 • ∗ ∗ ∗ : ~ (M, d) = 0 0 0 • ∗ ∗ dr . 0 0 0 0 0 0 dm I Falls eine der Zahlen dr +1 , . . . , dm verschieden von 0 ist, dann ist M~x = ~d nicht lösbar, also hat auch A~x = ~b keine Lösung Die Rücksubstitution im Fall dr +1 = . . . = dm = 0 wird analog wie bei homogenen Systemen durchgeführt. Alternative: man berechne zuerst eine spezielle Lösung ~v0 ∈ Rn , z.B. mit λ1 = . . . = λn−r = 0, und dann die allgemeine Lösung ~u (λ1 , . . . , λn−r ) von M~x = ~0. Dann ist I ~v0 + ~u (λ1 , . . . , λn−r ) die allgemeine Lösung von M~x = ~d. Satz 2.2 Sei A eine reelle m × n Matrix und sei ~b ∈ Rm . (a) A~x = ~b ist genau dann lösbar, wenn Rang(A, ~b) = Rang(A). (b) Falls A~x = ~b lösbar ist, dann ist die allgemeine Lösung von der Form ~v = ~v0 + ~u wobei ~v0 eine spezielle Lösung von A~x = ~b und ~u die allgemeine Lösung von A~x = 0 ist. ~v0 + ~u enthält n − Rang(A) frei wählbare Parameter. (c) Ist A~x = ~b lösbar und Rang(A) = n =Anzahl der Variablen, dann ist die Lösung eindeutig. Das Produkt zweier Matrizen Das Produkt C := AB einer m × n Matrix A = (aij ) und einer n × r Matrix B = (bjk ) ist eine m × r Matrix C = (cij ) definiert durch cik := n X aij bjk = ai1 b1k + . . . + ain bnk . j=1 I Im allgemeinen ist AB 6= BA. I Ist A eine m × n Matrix und ist ~x ∈ Rn ein Spaltenvektor, dann ist A~x ein Matrixprodukt. I Das Produkt eines Zeilenvektors mit einem Spaltenvektor ist ein Spezialfall des Matrixprodukts. Die n × n Einheitsmatrix En = (δij ) ist definiert durch 1, i = j, δij = 0, i 6= j. δij heißt Kroneckersymbol. Satz 2.3 Seien A, A1 , A2 m × n Matrizen, B, B1 , B2 n × r Matrizen und sei C eine r × s Matrix. Dann gilt: (a) (A1 + A2 )B = A1 B + A2 B, (b) λ(AB) = (λA)B = A(λB), (c) (AB)C = A(BC ), (d) Em A = AEn = A. A(B1 + B2 ) = AB1 + AB2 , (λ ∈ R), Transponierte einer Matrix Sei A eine m × n Matrix. Dann ist AT die n × m Matrix, welche aus A durch Spiegelung an der Diagonalen ensteht: die i-te Spalte von AT ist die die i-te Zeile von A, (AT )ji = Aij . AT heißt die zu A transponierte Matrix. Insbesondere ist a1 (a1 , . . . , an )T = ... , an T b1 .. . = (b1 , . . . , bn ) bn Satz 2.4 Seien A, B m × n Matrizen und sei C eine n × r Matrix. Dann gilt: (a) (A + B)T = AT + B T , (b) (λA)T = λAT , (c) (AT )T = A, (d) (AC )T = C T AT . Eine n × n Matrix heißt symmetrisch, falls AT = A, sie heißt schiefsymmetrisch (antisymmetrisch), falls AT = −A. Offensichtlich gilt AT = A ⇔ aij = aji AT = −A ⇔ aij = −aji . I Ist A schiefsymmetrisch, dann ist aii = 0 für alle i = 1, . . . , n. I Für jede n × n Matrix, sind A + AT , AT A und AAT symmetrisch, und A − AT ist schiefsymmetrisch. I Die Einheitsmatrix En ist symmetrisch. Invertierbare Matrizen Im folgenden ist E := En und auch alle anderen Matrizen sind quadratisch. Satz 2.5 Seien A, B, C n × n Matrizen mit BA = E = AC . Dann gilt B = C . Eine n × n Matrix A heißt invertierbar, falls eine n × n Matrix B existiert mit AB = E = BA. Nach Satz 2.5 ist B eindeutig durch A bestimmt. B heißt Inverse von A und wird mit A−1 bezeichnet. Beispiele: 1. Für λ 6= 0 ist λE invertierbar und (λE )−1 = λ−1 E . 2. Falls ad − bc 6= 0, dann hat 1 a b d −b −1 A= die Inverse A = . c d −c a ad − bc Satz 2.6 (a) Ist A invertierbar, dann auch A−1 , und (A−1 )−1 = A. (b) Sind A, B invertierbar, dann auch AB, und (AB)−1 = B −1 A−1 . (c) AT ist genau dann invertierbar, wenn A invertierbar ist, und dann gilt (AT )−1 = (A−1 )T . Satz 2.7 Folgende Aussagen über eine n × n Matrix A sind äquivalent: (a) A ist invertierbar. (b) Es gibt eine n × n Matrix B mit AB = E . (c) Es gibt eine n × n Matrix C mit CA = E . (d) A~x = 0 ⇒ ~x = ~0. (e) RangA = n. Diagonalmatrizen Eine Matrix der Form a1 0 · · · 0 a2 diag(a1 , . . . , an ) := . .. .. . 0 ··· 0 .. . an heißt Diagonalmatrix. Z.B. ist En = diag(1, . . . , 1) und es gilt diag(a1 , . . . , an ) diag(b1 , . . . , bn ) = diag(a1 b1 , . . . , an bn ). Falls ai 6= 0 für alle i, dann ist diag(a1 , . . . , an ) invertierbar und es gilt diag(a1 , . . . , an )−1 = diag( 1 1 , . . . , ). a1 an Dreiecksmatrizen Quadratische Matrizen der Form ∗ ∗ ∗ ∗ 0 ∗ ∗ ∗ 0 0 ∗ ∗ , 0 0 0 ∗ ∗ ∗ ∗ ∗ 0 ∗ ∗ ∗ 0 0 ∗ ∗ 0 0 , 0 ∗ heißen Dreiecksmatrizen. Jede Diagonalmatrix ist eine Dreiecksmatrix. Satz 2.8 Eine Dreiecksmatrix A = (aij ) ist genau dann invertierbar, wenn alle Diagonalelemente aii verschieden von Null sind. Der abstrakte Vektorraum Se K = R oder K = C. Eine nichtleere Menge V für deren Elemente eine Addition a + b und eine Multiplikation λa mit Zahlen λ ∈ K definiert ist heißt K -Vektorraum, oder Vektorraum über K , wenn folgende Axiome erfüllt sind: (V1) Die Addition ist kommutativ und assoziativ. (V2) Es gibt ein Element 0 ∈ V , genannt Nullvektor, mit a + 0 = a für alle a ∈ V . (V3) Zu jedem a ∈ V gibt es ein Element −a ∈ V mit a + (−a) = 0. (V4) 1a = a für alle a ∈ V . (V5) λ(µa) = (λµ)a für alle λ, µ ∈ K , a ∈ V . (V6) λ(a + b) = λa + λb für alle λ ∈ K , a, b ∈ V . (V7) (λ + µ)a = λa + µa für alle λ, µ ∈ K , a ∈ V . Die Elemente eines Vektorraums nennt man Vektoren; statt a + (−b) schreibt man a − b. Beispiele von Vektorräumen I Rn ist eine Vektorraum über R, Cn ist ein Vektorraum über C. I Die Mengen der reellen m × n Matrizen bilden einen Vektorraum über R. I Die Menge aller Funktionen f : [a, b] → R bei festen a, b ∈ R zuammen mit den Operationen (f + g )(x) := f (x) + g (x), (λf )(x) := λf (x), ist eine R-Vektorraum. I Die Menge der Polynome vom Grad ≤ n, Pn := {a0 + a1 x + . . . + an x n | ai ∈ K } bilden einen Vektorraum über K . Sei V ein Vektorraum über K . Eine nichtleere Teilmenge U ⊂ V heißt Unterraum von V , wenn (U1) u, v ∈ U ⇒ (U2) u ∈ U, λ ∈ K u + v ∈ U, ⇒ λu ∈ U. Bemerkungen: I Ein Unterraum eines K -Vektorraums ist wieder ein K -Vektorraum. I Jeder Unterraum enthält den Nullvektor. I Jeder Vektorraum V hat die Unterräume U = {0} und U = V. Jede aus endliche vielen Vektoren v1 , . . . , vk ∈ V gebildete Summe k X λi vi , λi ∈ K , i=1 heißt Linearkombination der vi . Die Menge aller Linearkombinationen der vi , Lin(v1 , . . . , vk ) := k nX o λi vi λi ∈ K i=1 heißt lineare Hülle der vi . Lin(v1 , . . . , vk ) ist ein Unterraum von V .Ein Unterraum U wird von den Vektoren v1 , . . . , vk erzeugt, falls U = Lin(v1 , . . . , vk ). Man sagt auch, {v1 , . . . , vk } ist ein Erzeugendensystem von U. Lineare Unabhängigkeit Endliche viele Vektoren v1 , . . . , vk heißen linear abhängig, wenn es PkZahlen λ1 , . . . , λk ∈ K gibt, nicht alle gleich Null, so dass i=1 λi vi = 0. Im Fall k > 1 ist das äquivalent dazu, dass sich einer der Vektoren vi als Linearkombination der anderen schreiben lässt. Z.B. k−1 X vk = µi v i . i=1 Endliche viele Vektoren v1 , . . . , vk heißen linear unabhängig, wenn sie nicht linear abhängig sind, d.h., wenn k X λi vi = 0 ⇒ λ1 = λ2 . . . = λk = 0. i=1 Satz 2.9 Ist A eine m × n Matrix in Zeilenstufenform, dann sind die von Null verschiedenen Zeilenvektoren linear unabhängig. Satz 2.10 Für eine n × n Matrix sind folgende Aussagen äquivalent: I A ist invertierbar I Die Spalten von A sind linear unabhängig. I Die Zeilen von A sind linear unabhängig. Satz 2.11 Für Vektoren v1 , . . . , vk , w ∈ V gilt: (a) Lin(v1 , . . . , vk , w ) = Lin(v1 , . . . , vk ) ⇔ w ∈ Lin(v1 , . . . , vk ). (b) v1 , . . . , vk sind linear unabhängig ⇔ zur Erzeugung von Lin(v1 , . . . , vk ) kann kein vi weggelassen werden. Basis und Dimension Eine Familie von linear unabhängigen Vektoren v1 , . . . , vn ∈ V mit V = Lin(v1 , . . . , vn ) heißt Basis von V . Satz 2.12 Ist v1 , . . . , vn eine Basis von V , dann hat jeder Vektor a ∈ V eine Darstellung a = λ1 v1 + λ2 v2 + · · · + λn vn . wobei die Zahlen λ1 , . . . , λn ∈ K eindeutig bestimmt sind. Jede Familie von m > n Vektoren ist linear abhängig. Sind v1 , . . . , vn und w1 , . . . , wm zwei Basen von V , dann folgt aus Satz 2.12, dass m = n. Die Anzahl Vektoren einer Basis heißt Dimension von V . Die Dimension von {0} ist per Vereinbarung gleich Null. Existenz einer Basis Ein Vektorraum V heißt endlich erzeugt, wenn es endlich viele Vektoren w1 , . . . , wr gibt, mit V = Lin(w1 , . . . , wr ). Satz 2.13 Jedes Erzeugendensystem w1 , . . . , wr von V lässt sich (durch Weglassen von Vektoren) zu einer Basis von V reduzieren und dim Lin(w1 , . . . , wr ) ist die Maximalzahl linear unabhängiger Vektoren die in w1 , . . . , wr gefunden werden können. Insbesondere hat jeder endlich erzeugte Vektorraum eine Basis. Satz 2.14 Sei V ein endlich erzeugter Vektorraum. Dann lässt sich jede Familie linear unabhängiger Vektoren v1 , . . . , vk ∈ V zu einer Basis von V erweitern. Aus den Sätzen 2.13 und 2.14 folgt sofort: Satz 2.15 Sei V ein Vektorraum der Dimension n. (a) Ist V = Lin(v1 , . . . , vn ), dann bilden v1 , . . . , vn eine Basis. (b) Sind die Vektoren v1 , . . . , vn linear unabhängig, dann bilden sie eine Basis. Satz 2.16 Ist U ein Unterraum eines endlich dimensionalen Vektorraums V und U 6= V , dann ist U endlich dimensional und dim U < dim V . Zeilen- und Spaltenraum einer Matrix Sei A eine m × n Matrix. Der durch die Spaltenvektoren a1 , . . . , an von A aufgespannte Unterraum von Rm ist der Spaltenraum von A = Lin(a1 , . . . , an ) = {Ax | x ∈ Rn }. Der durch die Zeilenvektoren z1 , . . . , zm von A aufgespannte Unterraum von Rn ist der Zeilenraum von A = Lin(z1 , . . . , zn ) = {y T A | y ∈ Rm }. Der Kern der Matrix A ist der Unterraum von Rn definiert durch KernA := {x ∈ Rn | Ax = 0}. Satz 2.17 Sei A eine m × n Matrix. (a) Entsteht M aus A durch endliche viele elementare Zeilenumformungen, dann gibt es eine invertierbare m × m Matrix P mit M = PA. (b) Entsteht N aus A durch endlich viele elementare Spaltenumformungen, dann gibt es eine invertierbare n × n Matrix Q mit N = AQ. Satz 2.18 Bei elementaren Zeilenumformungen ändert sich der Zeilenraum nicht, bei elementaren Spaltenumformungen ändert sich der Spaltenraum nicht. Insbesondere gilt RangA = Dimension des Zeilenraums von A. Theorem 2.19 Sei A eine m × n Matrix. Dann gilt (a) RangA = Dimension des Zeilenraums von A, = Dimension des Spaltenraums von A. (b) RangA + dim(KernA) = n. (c) Es gibt eine invertierbare m × m Matrix P und eine invertierbare n × n Matrix Q, derart dass Er 0 PAQ = , r = RangA. 0 0 Determinanten Die Determinante einer 2 × 2 Matrix a1 b1 A= ist det A := a1 b2 − a2 b1 . a2 b2 Also ist A genau dann invertierbar, wenn det A 6= 0. Die Determinate einer 3 × 3 Matrix a1 b1 c1 A = a2 b2 c2 a3 b3 c3 ist definiert durch b2 c2 b1 c1 b1 c1 det A :=a1 det − a2 det + a3 det b3 c3 b3 c3 b2 c2 =a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1 Rekursive Definition der Determinante Sei A = (aij ) eine n × n Matrix. I Für n = 1, d.h. A = (a11 ), ist die det A = a11 . I Für n ≥ 2 ist (Entwicklung nach der ersten Spalte): det A = n X (−1)i+1 ai1 det Ai1 i=1 = a11 det A11 − a21 det A21 + . . . (−1)n+1 an1 det An1 , wobei Ai1 die (n − 1) × (n − 1) Matrix ist, welche aus A durch Entfernen der i-ten Zeile und der erste Spalte ensteht. Rechenregeln für Determinanten Satz 2.20 Für jede n × n Matrix A gilt: (a) Entsteht à aus A durch vertauschen zweier Zeilen, dann gilt det à = − det A. (b) det A ist linear als Funktion der Zeilenvektoren von A. D.h., a1 λa1 det a2 = λ det a2 , .. .. . . a1 + b1 a1 b1 a2 a2 a2 det = det + det .. .. .. . . . und analog für die anderen Zeilen von A. Folgerungen: I Sind zwei Zeilenvektoren von A gleich, dann ist det A = 0. I det(λA) = λn det A wenn A eine n × n Matrix ist. Korollar 2.21 Die elementaren Zeilenumformungen: 1. Vertauschen von zwei Zeilen, 2. Multiplikation einer Zeile mit λ 6= 0, 3. Addition des λ-fachen einer Zeile zu einer anderen Zeile, verändern die Determinante um den Faktor −1, λ bzw. 1. Eine Elementarmatrix P ist eine quadratische Matrix, welche eine elementare Zeilenumformung erzeugt. Die Determinante von P stimmt überein mit dem Zahlenfaktor −1, λ bzw. 1 um welchen die Determinante sich ändert bei der P entsprechenden Zeilenumfomung. Es gilt also: det(PA) = det(P) det(A). Satz 2.22 Jede invertierbare Matrix ist das Produkt von Elementarmatrizen. Theorem 2.23 Für n × n Matrizen A, B gilt: (a) A ist genau dann invertierbar wenn det A 6= 0. (b) det AT = det A und Satz 2.20 gilt auch für die Spaltenvektoren einer Matrix. (c) det(AB) = det(A) det(B). Satz 2.24 Das durch die Vektoren a, b ∈ R2 aufgespannte Parallelogramm hat den Flächeninhalt | det(a, b)|. Das durch die Vektoren a, b, c ∈ R3 aufgespannte Parallelepiped (Spat) hat das Volumen | det(a, b, c)|. Folgerungen aus Theorem 2.23: Seien A, B, C n × n-Matrizen. Dann gilt det(AB) = det(BA), det(Ak ) = det(A)k , k ∈ N, det(A−1 ) = det(A)−1 , det(C −1 AC ) = det(A), falls A invertierbar ist, falls C invertierbar ist. wobei Ak durch A0 = E und Ak+1 = Ak A definiert ist. Ist A eine k × k, D C eine (n − k) × k A det 0 eine (n − k) × (n − k), B eine k × (n − k) und Matrix, dann gilt B A 0 = det A det D = det D C D Entwicklung von det A nach beliebiger Spalte/Zeile Sei A = (aij ) eine n × n Matrix und sei Aij die (n − 1) × (n − 1) Matrix welche aus A durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. Dann gelten folgende Entwicklungsformeln: Entwicklung nach der j-ten Spalte: det A = n X (−1)i+j aij det Aij i=1 Entwicklung nach der i-ten Zeile: det A = n X j=1 (−1)i+j aij det Aij Cramersche Regel und inverse Matrix Sei A = (a1 , . . . , an ) eine invertierbare n × n Matrix und sei b ∈ Rn . Dann ist die (eindeutige) Lösung des Gleichungssystems Ax = b gegeben durch die Cramersche Regel xi = 1 det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ). det A (i-te Spalte von A durch b ersetzt.) Satz 2.25 Sei A eine invertierbare n × n Matrix. Dann gilt: (A−1 )ik = 1 (−1)i+k det Aki det A wobei rechts die Reihenfolge der Indizes i, k gegenüber links vertauscht ist. Permutationen Eine Permutation der Zahlen {1, . . . , n} ist eine bijektive Abbildung σ : {1, . . . , n} → {1, . . . , n}. Die Permutation σ wird durch das Schema 1 2 3 ... n σ(1) σ(2) σ(3) . . . σ(n) vollständig beschrieben. Es gibt n! verschiedene Permutationen von {1, . . . , n}. Das Signum einer Permutation, sgn(σ), ist definiert durch sgn(σ) = (−1)r wobei r die Anzahl Vertauschungen zweier Elemente ist, welche notwendig ist um {1, . . . , n} in die Reihenfolge {σ(1), . . . , σ(n)} zu bringen. Die Permutation σ heißt gerade, wenn sgn(σ) = +1 und ungerade wenn sgn(σ) = −1. Die zyklischen Permutationen von {1, 2, 3}: 1 2 3 1 2 3 1 2 3 , , , 1 2 3 2 3 1 3 1 2 sind gerade, die anderen drei Permutationen sind ungerade. Satz 2.26 Die Determinate einer n × n Matrix A = (aij ) lässt sich schreiben als X det A = sgn(σ)a1σ(1) a2σ(2) · · · anσ(n) σ wobei über alle Permutationen σ von {1, . . . , n} zu summieren ist. Rn als Euklidischer Vektorraum Seien x, y ∈ Rn , x = (x1 , . . . , xn )T , y = (y1 , . . . , yn )T . Die Zahl T x · y := x y = n X xi yi i=1 heißt Skalarprodukt (inneres Produkt ) von x und y , und √ |x| := x · x heißt Betrag (oder Länge) von x. Ein Vektor x ∈ Rn heißt normiert oder Einheitsvektor, wenn |x| = 1. Vorsicht: (x · y )z 6= x(y · z). Satz 2.27 Für alle x, y , z ∈ Rn und alle λ ∈ R gilt (a) x · x ≥ 0 und x · x = 0 ⇔ x = 0. (b) x · y = y · x (c) x · (y + z) = x · y + x · z, und x · (λy ) = λ(x · y ), Satz 2.28 Für alle x, y ∈ Rn und alle λ ∈ R gilt (a) |x| ≥ 0 und |x| = 0 ⇔ x = 0. (b) |λx| = |λ||x|, (c) |x · y | ≤ |x||y | (Cauchy-Schwarzsche Ungleichung), (d) |x + y | ≤ |x| + |y | (Dreiecksungleichung). Satz 2.29 Seien x, y ∈ Rn und sei ϕ ∈ [0, π] der Winkel zwischen x und y . Dann gilt x · y = |x||y | cos ϕ. Zwei Vektoren x, y ∈ Rn heißen orthogonal, in Zeichen x ⊥ y , wenn x · y = 0. Der Nullvektor ist othogonal zu allen Vektoren. Sind x und y orthogonal, dann gilt |x + y |2 = |x|2 + |y |2 . Satz 2.30 (Satz von Pytagoras) Sind x1 , . . . , xk ∈ Rn paarweise othogonal, d.h. xi · xj = 0 für i 6= j, dann gilt 2 k k X X xi = |xi |2 i=1 i=1 Gram-Schmidtsches Orthogonalisierungsverfahren Eine Familie von Vektoren b1 , . . . , bk ∈ Rn heißt orthogonal wenn bi · bj = 0 für i 6= j und sie heißt orthonormal, wenn wenn sie othogonal ist und alle Vektoren normiert sind, d.h. wenn bi · bj = δij . Satz 2.31 I Jede orthogonale Familie {b1 , . . . , bk } ⊂ Rn ohne den Nullvektor ist linear unabhängig. I Ist b1 , . . . , bn eine orthonormale Basis (ONB) von Rn , dann gilt für jeden Vektor x ∈ Rn : n X x= (x · bi )bi i=1 Zu jedem System linear unabhängiger Vektoren a1 , . . . , ak ∈ Rn gibt es ein orthonormales System b1 , . . . , bk mit Lin{a1 , . . . , ak } = Lin{b1 , . . . , bk }. Insbesondere hat jeder Unterraum U ⊂ Rn eine ONB. Gram-Schmidtsches Orthogonalisierungsverfahren: b1 := a20 a1 |a1 | := a2 − (a2 · b1 )b1 , a30 := a3 − (a3 · b1 )b1 − (a3 · b2 )b2 , .. . ak0 a20 b2 := 0 |a2 | a30 b3 := 0 |a3 | .. . k−1 X := ak − (ak · bi )bi , i=1 ak0 bk := 0 |ak | Orthogonale Projektion Ist U ⊂ Rn eine beliebige Teilmenge und x ⊥ y für alle y ∈ U, dann schreiben wir x ⊥ U. Satz 2.32 Sei U ein Unterraum von Rn . Dann hat jeder Vektor x ∈ Rn eine eindeutige Zerlegung x = xU + yU , mit xU ∈ U, yU ⊥ U. Ist {b1 , . . . , bk } eine ONB von U, dann gilt xU = k X (x · bi )bi . i=1 xU heißt heißt orthogonale Projektion von x auf U. Das Vektorprodukt in R3 Das Vektorprodukt a ∧ b von zwei Vektoren a, b ∈ R3 , a = (a1 , a2 , a3 )T , b = (b1 , b2 , b3 )T ist definiert durch a2 b3 − a3 b2 a ∧ b := a3 b1 − a1 b3 a1 b2 − a2 b1 Offenbar gilt für alle Vektoren a, b, c ∈ R3 die Identität (a ∧ b) · c = det(a, b, c). Der Betrag des Spatprodukt (a ∧ b) · c ist nach Satz 2.24 das Volumen des durch a, b, c aufgespannten Spats. Folgerungen: I a ∧ b ist orthogonal zu a und b. I |a ∧ b| = |a||b| sin ϕ wobei ϕ ∈ [0, π] der Winkel zwischen a und b ist. I Die drei Vektoren a, b, a ∧ b bilden ein Rechtssystem, d.h. sie sind gleich orientiert wie e1 = (1, 0, 0), e2 = (0, 1, 0) und e3 = (0, 0, 1). Satz 2.33 Für alle a, b, c ∈ R3 gilt: (a) a ∧ b = −b ∧ a, also a ∧ a = 0, (b) λ(a ∧ b) = (λa) ∧ b = a ∧ (λb) für alle λ ∈ R, (c) a ∧ (b + c) = a ∧ b + a ∧ c, (a + b) ∧ c = a ∧ c + b ∧ c, (d) |a ∧ b|2 = |a|2 |b|2 − (a · b)2 . Satz 2.34 Für alle a, b, c, d ∈ R3 gelten die Identitäten: a ∧ (b ∧ c) = (a · c)b − (a · b)c (Grassmann) (a ∧ b) · (c ∧ d) = (a · c)(b · d) − (a · d)(b · c) (Lagrange). Das Vektorprodukt a ∧ b in der Darstellung a2 b2 a1 b1 a1 b1 a ∧ b = e1 det − e2 det + e3 det a3 b3 a3 b3 a2 b2 mit der Standardbasis e1 , e2 , e3 von R3 sieht aus wie die Determinante einer 3 × 3 Matrix deren erste Spalte aus e1 , e2 und e3 besteht, d.h. formal e1 a1 b1 a ∧ b = det e2 a2 b2 . e3 a3 b3 Lineare Abbildungen Seien V , W zwei Vektorräume über K (K = R oder K = C). Eine Abbildung F : V → W heißt linear falls für alle u, v ∈ V and alle λ ∈ K, F (λv ) = λF (v ), F (u + v ) = F (u) + F (v ). Für jede lineare Abbildung F ist F (0) = 0 und ! n n X X F λi vi = λi F (vi ). i=1 i=1 Der Kern {v ∈ V | F (v ) = 0} und das Bild {F (v ) | v ∈ V } einer linearen Abbildung F : V → W sind Unterräume von V bzw. W . Bemerkungen: (a) Sind F , G : V → W linear, dann sind auch F + G und λF linear. Somit ist die Menge der linearen Abbildungen von V nach W , Hom(V , W ) := {F : V → W |F ist linear} selbst auch ein Vektorraum über K (Raum der Homomorphismen). (b) Sind F : V → W und G : U → V linear, dann ist auch F ◦ G : U → W linear. (c) Ist F : V → W linear und bijektiv, dann ist auch F −1 : W → V linear. Matrizen linearer Abbildungen Satz 2.35 Zu jeder linearen Abbildung F : K n → K m gibt es eine m × n Matrix A = (aij ), aij ∈ K , so dass F (x) = Ax, für alle x ∈ K n . (4) Umgekehrt wird durch jede m × n Matrix A via (4) eine lineare Abbildung F : K n → K m definiert. Die Spalten von A sind die Bilder der Basisvektoren e1 , . . . , en von K n . Bemerkungen: (a) Sind F , G : K n → K m linear mit F (x) = Ax und G (x) = Bx, dann ist A + B die Matrix von F + G und λA ist die Matrix von λF . (b) Sind F : K n → K m und G : K l → K n linear mit F (x) = Ax und G (x) = Bx, dann ist AB die Matrix von F ◦ G , d.h (F ◦ G )(x) = ABx, für alle x ∈ K l . (c) Eine lineare Abbildung F : K n → K n mit F (x) = Ax ist genau dann bijektiv, wenn die Matrix A invertierbar ist, und dann gilt F −1 (x) = A−1 x. Satz 2.36 Sei F : K n → K m linear mit F (x) = Ax. Dann gilt (a) F ist genau dann injektiv wenn KernA = {0}. (b) F ist genau dann surjektiv wenn RangA = m. Aus diesem Satz und der Dimensionsformel RangA + dim(KernA) = n (Theorem 2.19) folgt sofort: Satz 2.37 Für eine lineare Abbildung F : K n → K n (quadratische Matrix!) sind äquivalent: (a) F ist injektiv, (b) F ist surjektiv, (c) F ist bijektiv. Orthogonale Abbildungen Eine reelle n × n Matrix A und auch die zugehörige lineare Abbildung F : Rn → Rn heißen orthogonal wenn AT = A−1 . Das wird durch folgenden Satz erklärt: Satz 2.38 Sei A eine reelle n × n Matrix. Dann sind äquivalent: (a) A ist orthogonal, (b) (Ax) · (Ay ) = x · y für alle x, y ∈ Rn , (c) |Ax| = |x| für alle x ∈ Rn , (d) die Spalten von A bilden eine ONB von Rn . (e) die Zeilen von A bilden eine ONB von Rn . Ist A orthogonal, dann gilt det A = ±1, denn aus E = AT A folgt 1 = det E = det AT A = (det A)2 . O(n) := Menge der orthogonalen n × n Matrizen, heißt orthogonale Gruppe des Rn . SO(n) := {A ∈ O(n) | det A = +1} heißt spezielle orthogonale Gruppe. Orthogonale Abbildungen sind I längentreu I winkeltreu I volumentreu Spiegelungen und Drehungen Die Spiegelung s : Rn → Rn am Ursprung 0 ∈ Rn , s(x) = −x, hat die orthogonale Matrix −E mit Determinante det(−E ) = (−1)n . Die Spiegelung an der Ebene a · x = 0 mit |a| = 1: s : R3 → R3 , s(x) = x − 2a(a · x) hat die orthogonale Matrix 1 − 2a12 −2a1 a2 −2a1 a3 E − 2aaT = −2a2 a1 1 − 2a22 −2a2 a3 −2a3 a1 −2a3 a2 1 − 2a32 mit det(E − 2aaT ) = −1. Offensichtlich ist diese Matrix symmetrisch. Das muss so sein, denn s −1 = s und somit gilt S T = S −1 = S für S = E − 2aaT . Eine Drehungen in der Ebene um 0 ∈ R2 wird beschrieben durch eine orthogonale Matrix: cos ϕ − sin ϕ D(ϕ) = , det D(ϕ) = 1. sin ϕ cos ϕ Drehungen um die x, y und z-Achse werden dargestellt durch SO(3) Matrizen 1 0 0 cos β 0 sin β 1 0 D1 (α) = 0 cos α − sin α , D2 (β) = 0 0 sin α cos α − sin β 0 cos β cos γ − sin γ 0 D3 (γ) = sin γ cos γ 0 0 0 1 Die Vorzeichen sind so gewählt, dass ein positiver Winkel zu einer Drehung im Gegenuhrzeigesinn führt wenn man gegen der Achse blickt. Die Drehung im Raum um die Achse parallel zu einem gegebenen Einheitsvektor a ∈ R3 mit Winkel ϕ ist eine orthogonale Abbildung d : R3 → R3 gegeben durch d(x) = (cos ϕ)x + (1 − cos ϕ)(x · a)a + (sin ϕ)a ∧ x. Die zugehörige Matrix ist: 0 −a3 a2 0 −a1 D = (cos ϕ)E + (1 − cos ϕ)aaT + (sin ϕ) a3 {z } | −a2 a1 0 symmetrisch | {z } antisymmetrisch (5) Man kann zeigen, dass D ∈ SO(3) ⇔ D ist Drehmatrix. Somit ist jede jede SO(3) Matrix von der Form (5). Ist D = (dij ) eine gegebene SO(3)-Matrix dann kann man den zugehörige Drehwinkel ϕ und den Vektor a aus den Elementen der Matrix D berechnen. Nach (5) gilt 1 cos ϕ = (SpurD − 1) mit 2 SpurD := d11 + d22 + d33 was einen Winkel ϕ ∈ [0, π] festlegt, und der zugehörige Vektor a ist gegeben durch d32 − d23 d a= , mit d := d13 − d31 |d| d21 − d12 falls ϕ 6= π und für ϕ = π kann für a eine normierte Lösung von (D − E )a = 0 gewählt werden. Euler-Winkel Sind b1 , b2 , b3 ∈ R3 orthonormierte Vektoren welche ein Rechtsystem bilden, zum Beispiel bk = Dek wobei D eine Drehmatrix ist, dann sind die Eulerschen Winkel ψ, ϕ, θ definiert durch folgende Figur, worin die Achsen x1000 , x2000 , x3000 durch die Vektoren b1 , b2 , b3 definiert sind. Es gilt also bk = D3 (ψ)D1 (θ)D3 (ϕ)ek . Jede Drehmatrix D lässt sich somit schreiben als D = D3 (ψ)D1 (θ)D3 (ϕ) . Basiswechsel Sei {e1 , . . . , en } die Standardbasis von K n und sei {b1 , . . . , bn } eine zweite Basis vonP K n . Dann lässt sich jeder Vektor x = (x1 , . . . , xn )T = ni=1 xi ei darstellen in der Form x= n X xk0 bk , (6) k=1 mit eindeutig bestimmten Koordinaten xk0 ∈ K . Der Spaltenvektor x 0 := (x10 , . . . , xn0 )T heißt Koordinatenvektor von x bezüglich der Basis {b1 , . . . , bn }. Aus (6) folgt, dass x = Bx 0 , x 0 = B −1 x, B := (b1 , . . . , bn ) P denn nk=1 xk0 bk = Bx 0 , wenn B die Matrix gebildet aus den Spaltenvektoren b1 , . . . , bn bezeichnet. Bemerkungen: I Im Fall der Standardbasis stimmt der Koordinatenvektor x 0 mit dem zugehörigen Vektor x ∈ K n überein. I Bei einem Basiswechsel ändert sich nur der Koordinatenvektor. Der Vektor selbst bleibt unverändet! Die Matrix A einer lineare Abbildung F : K n → K n besteht aus den Spaltenvektoren Ae1 , . . . , Aen . Diese Spaltenvektoren sind Koordinatenvektoren von F (e1 ), . . . , F (en ) bezüglich der Standardbasis. Ist {b1 , . . . , bn } eine beliebige Basis von K n , dann ist die Abbildungsmatrix C von F bezüglich {b1 , . . . , bn } definiert durch C = F (b1 )0 , . . . , F (bn )0 . F (bk )0 = Koordinatenvektor von F (bk ) bezüglich {b1 , . . . , bn }. Satz 2.39 Ist C die Abbildungsmatrix einer linearen Abbildung F : K n → K n bezüglich der Basis {b1 , . . . , bn }, dann gilt F (x)0 = Cx 0 , und C = B −1 AB, wobei x 0 , F (x)0 Koordinatenvektoren bezüglich der Basis {b1 , . . . , bn } sind, und A die Abbildungsmatrix von F bezüglich der Standardbasis von K n bezeichnet. Zwei n × n-Matrizen A, C heißen ähnlich, wenn es eine invertierbare Matrix B gibt, so dass C = B −1 AB. Eigenwerte und Eigenvektoren Sei A = (aij ) eine komplexe (oder reelle) n × n Matrix. Eine Zahl λ ∈ C heißt Eigenwert von A, wenn es einen Vektor b ∈ Cn , b 6= 0, gibt Ab = λb. Jeder Vektor b 6= 0 der diese Gleichung erfüllt heißt Eigenvektor von A zum Eigenwert λ. Satz 2.40 Eine komplexe Zahl λ ist genau dann ein Eigenwert der n × n Matrix A, wenn det(A − λE ) = 0. Zur Berechnung der Eigenwerte von A sind also die Nullstellen des charakteristisches Polynom χA (λ) := det(A − λE ) von A zu bestimmen. Für eine 2 × 2-Matrix A = a b c d gilt a−λ b χA (λ) = det = λ2 − (a + d)λ + (ad − bc) c d −λ = λ2 − (SpurA)λ + det A, und allgemein χA (λ) = (−λ)n + (SpurA)(−λ)n−1 + . . . + det A (7) wobei die Spur von A definiert ist durch Spur(A) := a11 + a22 + . . . + ann . Berechnung der Eigenwerte und Eigenvektoren I Nach Satz 1.19 hat χA eine Faktorisierung χA (λ) = (λ1 − λ)m1 · · · (λr − λ)mr . (8) Die Zahlen λ1 . . . , λr sind die Nullstellen von χA und somit die Eigenwerte von A. Die Vielfachheit mi der Nullstelle λi heißt algebraische Vielfachheit des Eigenwerts λi . I Die Eigenvektoren zum Eigenwert λi sind die von Null verschiedenen Lösungen des homogenen linearen Gleichungssystems (A − λi E )x = 0. Der Lösungsraum V (λi ) := Kern(A − λi E ) heißt Eigenraum zu λi . dim V (λi ) heißt geometrische Vielfachheit des Eigenwerts λi . Durch Ausmultiplizieren von (8) und Vergleich mit (7) bekommt man r r X Y i SpurA = mi λi , det A = λm i . i=1 i=1 Also gilt: SpurA = Summe der Eigenwerte det A = Produkt der Eigenwerte wenn in der Summe und im Produkt jeder Eigenwert so oft aufgenommen wird wie seine algebraische Vielfachheit angibt. Satz 2.41 Sei A eine komplexe oder reelle n × n-Matrix. (a) Sei b ein Eigenvektor von A mit Eigenwert λ. Dann ist b auch ein Eigenvektor von am Am + . . . + a1 A + a0 E und der zugehörige Eigenwert ist am λm + . . . + a1 λ + a0 . (b) A, AT und B −1 AB haben dasselbe charakteristische Polynom und deshalb auch dieselben Eigenwerte. Ist b ein Eigenvektor von A, dann ist B −1 b eine Eigenvektor von B −1 AB und umgekehrt. (c) A ist genau dann invertierbar wenn 0 keine Eigenwert von A ist. Ist λ ein Eigenwert von A mit Eigenvektor b, dann ist λ−1 eine Eigenvektor von A−1 mit demselben Eigenvektor b. Satz 2.42 Eigenvektoren b1 , . . . , br zu paarweise verschiedenen Eigenwerten λ1 , . . . , λr der Matrix A sind linear unabhängig. Satz 2.43 Sei A eine komplexe oder reelle n × n-Matrix. Falls A n linear unabhängige Eigenvektoren b1 , . . . , bn hat mit nicht notwendig verschiedenen Eigenwerten λ1 , . . . , λn , dann gilt λ1 0 · · · 0 0 λ2 −1 B AB = . , . . . . .. .. 0 ··· λn wobei B = (b1 , . . . , bn ). Anwendung von Satz 2.43: Berechnung von Ak . Symmetrische Matrizen und quadratische Formen Theorem 2.44 Für jede symmetrische reelle n × n Matrix A gilt: (a) Alle Eigenwerte sind reell. (b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal. (c) Algebraische und geometrische Vielfachheit jedes Eigenwerts stimmen überein. Korollar 2.45 Ist A eine symmetrische reelle n × n-Matrix, dann gibt es eine ONB von Rn bestehend aus Eigenvektoren von A. Nach Korollar 2.45 lässt sich eine symmetrische 3 × 3 Matrix durch eine Drehung des Koordinatensystems diagonalisieren, d.h. auf Diagonalgestalt bringen. Satz 2.46 Zwei symmetrische n × n Matrizen A, C mit AC = CA lassen sich gleichzeitig (orthogonal) diagonalisieren, d.h. es gibt eine ONB {b1 , . . . , bn } von Rn , so dass B −1 AB und B −1 CB Diagonalmatrizen sind wenn B = (b1 , . . . , bn ). Eine quadratische Form q ist eine Abbildung q : Rn → R mit q(x) = x T Ax wobei A eine reelle, symmetrische n × n Matrix ist. q heißt rein quadratisch wenn A eine Diagonalmatrix ist. Bemerkung: I Wenn die Matrix A nicht symmetrisch ist, dann kann man sie ersetzen durch die symmetrische Matrix (A + AT )/2 ohne dass sich dabei die quadratische Form q(x) = x T Ax ändert. I Eine Funktion f : Rn → R deren Graph bei 0 eine horizontale Tangentialeben hat, kann dort durch eine quadratische Form q : Rn → R approximiert werden (HM2). Das Studium von q gibt Aufschluss darüber, ob f bei 0 ein Maximum, ein Minimum oder keines von beidem hat. Basiswechsel. Sei b1 , . . . , bn eine Basis von Rn , B := (b1 , . . . , bn ), und sei x = By , d.h. y1 , . . . , yn sind die Koordinaten von x ∈ Rn bezüglich der neuen Basis. Dann gilt q(x) = x T Ax = (By )T ABy = y T (B T AB)y =: q̃(y ). Die quadratische Form q wir also bezüglich der Basis b1 , . . . , bn dargestellt durch die Matrix à = B T AB Bemerkungen: I Die Matrix einer quadratischen Form transformiert sich bei Basiswechsel nicht so wie die Matrix einer linearen Abbildung, ausser B T = B −1 . I Die Matrizen à = B T AB und A haben nicht dieselben Eigenwerte, ausser B T = B −1 , d.h. ausser {b1 , . . . , bn } eine ONB von Rn . Eine ONB {b1 , . . . , bn } heißt Hauptachsensystem von q, wenn q in dieser Basis rein quadratisch ist. Aus Korollar 2.45 folgt Jede quadratische Form hat ein Hauptachsensystem. Bestimmung eines Hauptachsensystems von q(x) = x T Ax: 1. Man bestimme die Eigenwerte λ1 , . . . , λr von A. 2. Zu jedem der verschiedenen Eigenwerte λi bestimmt man eine (i) (i) ONB {b1 , . . . , br } von V (λi ) = Kern(A − λi E ). (i) (i) 3. Die Vereingung ∪ri=1 {b1 , . . . , br } der Teilbasen ist ein Hauptachsensystem. Die Signatur einer symmetrischen Matrix A ist die das Zahlentripel (p, q, s) bestehend aus: p = Anzahl positiver Eigenwerte von A, q = Anzahl negativer Eigenwerte von A, s = Vielfachheit des Eigenwerts 0. Satz 2.47 (Trägheitssatz von Sylvester) Ist A eine symmetrische und W eine invertierbare n × n Matrix, dann haben A und W T AW die selbe Signatur Beweis: Siehe Meyberg, Vachenauer PageRank: die Bewertung einer Webpage durch Google Problemstellung: Sei n die Anzahl existierender Webseiten (ein paar Milliarden). Gesucht ist für jede Webpage i ∈ {1, . . . , n} eine Bewertung xi ≥ 0, welche ein Mass für die relative Wichtiggkeit der Seite darstellt. Suchmaschinen benötigen eine solche Bewertung um die gefundenen Webseiten nach Wichtigkeit zu ordnen. 1 es gibt einen Link von Seite j auf die Seite i. 0 sonst. n X nj := Lji = Anzahl Links von Seite j auf andere Seiten, Lji := i=1 n X Lji = Anzahl Links von anderen Seiten auf die Seite i. j=1 Lii := 0. Idee: Die Bewertungen x1 , . . . , xn sollen den Gleichungen n X 1 xi = Lji xj nj i = 1, . . . , n, (9) j=1 genügen. D.h. xi ist groß, wenn viele oder wichtige andere Webseiten einen Link auf die Seite i haben. Dabei ist der Wert eines Links reduziert wenn er von einer Seite mit vielen Links kommt. Gleichung (9) ist äquivalent zum Eigenwertproblem x = Ax, Aij := 1 Lji , nj x := (x1 , . . . , xn )T . Die Matrix A hat die Eigenschaften Aij ≥ 0 und Spaltensumme: n X Aij = 1, i=1 Man nennt solche Matrizen stochastisch. für alle j. (10) Satz 2.48 Sei A eine stochastische Matrix. Dann gilt: (a) Für alle Eigenwerte λ ∈ C von A gilt |λ| ≤ 1. (b) λ = 1 ist ein Eigenwert von A und es gibt einen Eigenvektor x = (x1 , . . . , xn ) mit xi ≥ 0. (c) Wenn Aij > 0 für alle i, j, dann hat der P Eigenwert 1 die n Vielfachheit 1 und für jedes v ∈ R , i vi 6= 0, ist der Limes lim Ak v k→∞ ein Eigenvektor von A zum Eigenwert 1. Problem: Die Bedingung Aij > 0 ist nicht erfüllt für die Matrix Aij = Lji /nj . Die Lösung von (10) ist daher in der Regel nicht eindeutig und der Limes in Teil (b) des obigen Satzes braucht nicht zu existieren. Lösung: Die Bedingung an x wir wie folgt modifiziert: x = αAx + (1 − α)e, e = (1, . . . , 1)T , (11) wobei α ∈ (0, 1). In der Praxis wird α = 0.85 gewählt. Jede Webseite hat also ein Gewicht von 0.15 unabhängig von der Linkstruktur des www. Die Lösung des Gleichungssystems (11) ist x = (1 − α)(E − αA)−1 e. (12) Weil die Berechnung der Inversen von E − αA zu aufwending ist berechnet man (12) durch Iteration der Gleichung (11): wenn x (k+1) := αAx (k) + (1 − α)e, dann ist limk→∞ x (k) die Lösung von (11) und zwar unabhängig von der Wahl von x (0) . Also, a PageRank for 26 million web pages can be computed in a few hours on a medium size workstation. (http://infolab.stanford.edu/ backrub/google.html) Problemstellung Welche der folgenden quadratischen Formen q : R2 → R sind bei (0, 0) minimal, d.h. q(x, y ) ≥ 0 für alle (x, y )? (a) q(x, y ) = x 2 + 2y 2 , -1.0 -0.5 0.0 0.5 (b) q(x, y ) = 2x 2 + 3xy − y 2 1.0 4 4 2 3 0 2 -2 1 -4 -1.0 0 -1.0 1.0 -0.5 0.5 -0.5 0.0 0.0 0.0 -0.5 0.5 0.5 1.0 -1.0 1.0 Welche der folgenden quadratischen Formen q : R2 → R sind bei (0, 0) minimal, d.h. q(x, y ) ≥ 0 für alle (x, y )? (c) q(x, y ) = x 2 +6xy + 2y 2 , q(x, y ) = 2x 2 −4xy +3y 2 (d) 1.0 1.0 0.5 0.5 0.0 0.0 -0.5 -0.5 -1.0 10 -1.0 10 5 5 0 0 -1.0 -1.0 -0.5 -0.5 0.0 0.0 0.5 0.5 1.0 1.0 Terminologie für quadratische Formen q : Rn → R mit q(x) = x T Ax, bzw. für symmetrische Matrizen A: für alle x 6= 0 gilt q(x) > 0 q(x) ≥ 0 q(x) ≤ 0 q(x) < 0 q(x1 ) > 0, q(x2 ) < 0 q bzw. A heißt positiv definit positiv semidefinit negativ semidefinit negativ definit indefinit. Diese Eigenschaften einer symmetrischen Matrix sind unabhängig von der Wahl der Basis, denn es gilt: A ist positiv definit ⇔ W T AW ist positiv definit wenn W eine invertierbare Matrix ist, und analog für positiv semidefinit, negativ semidefinit, etc. Sei A eine symmetrische n × n Matrix und b1 , . . . , bn ein Hauptachsensystem von A, d.h. eine ONB mit Abi = λi bi . Sei B = (b1 , . . . , bn ), dann ist A positiv definit genau dann wenn B T AB positiv definit ist und T T x (B AB)x = n X λi xi2 . i=1 Satz 2.49 Für jede symmetrische n × n Matrix A gilt: (i) A ist positiv definit ⇔ alle EW sind > 0, (ii) A ist positiv semidefinit ⇔ alle EW sind ≥ 0, (iii) A ist negativ semidefinit ⇔ alle EW sind ≤ 0, (iv ) A ist negativ definit ⇔ alle EW sind < 0, (v ) A ist indefinit ⇔ es gibt positive und negative EW. Typische Graphen -1.0 -0.5 0.5 0.0 1.0 2.0 1.5 q(x, y ) = x 2 + y 2 , positiv definit 1.0 0.5 0.0 -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 1.0 0.5 0.0 1.0 0.5 q(x, y ) = x 2 , positiv semidefinit 0.0 -1.0 -0.5 0.0 0.5 1.0 -1.0 -0.5 0.0 1.0 0.5 1.0 0.5 0.0 -0.5 q(x, y ) = x 2 − y 2 , indefinit -1.0 -1.0 -0.5 0.0 0.5 1.0 Sei A = (aij ) eine symmetrische n × n Matrix. Dann gilt: A ist positiv definit ⇒ aii > 0, für alle i. Die Positivität der Diagonalelemente aii ist aber nicht hinreichend dafür, dass A positiv definit ist. Folgender Satz gestattet zu prüfen ob eine Matrix positiv definit ist, ohne die Eigenwerte zu berechnen: Satz 2.50 (Jacobi) Eine symmetrische n × n Matrix A = (aij ) ist genau dann positiv definit, wenn die n Hauptuntermatrizen H1 = a11 , a . . . a 11 1k a11 a12 .. .. , . . . , H = A H2 = , . . . , Hk = . n . a21 a22 ak1 . . . akk positive Determinanten haben. Quadriken Transformation von Punktkoordinaten Jeder Punkt X = (x1 , . . . , xn ) ∈ Rn entspricht einem Ortsvektor x = (x1 , . . . , xn )T und umgekehrt. Aber man muss zwischen Koordinaten eines Punktes (oder Ortsvektors) und Koordinaten eines Vektors unterscheiden, da sie sich verschieden verhalten unter Basiswechsel. Ein affines Koordinatensystem K = (P; b1 , . . . , bn ) von Rn besteht aus einem Punkt P ∈ Rn und einer Basis {b1 , . . . , bn } von Rn (als Vektorraum). Die Koordinaten x10 , . . . , xn0 von X ∈ Rn bezüglich K sind bestimmt durch die Gleichung x =p+ n X xi0 bi . i=1 Wir schreiben XK := (x10 , . . . , xn0 ) und x 0 := B = (b1 , . . . , bn ) dann gilt offenbar: x = p + Bx 0 , Pn 0 i=1 xi bi . x 0 = B −1 (x − p). Ist Quadriken Eine Funktion p : Rn → R der Form T T p(x) = a0 + a x + x Ax = a0 + n X ai xi + X i=1 aij xi xj i,j mit a0 ∈ R, a ∈ Rn und AT = A = (aij ) heißt quadratisches Polynom in den Variablen x1 , . . . , xn . Insbesondere ist jede quadratische Form q(x) = x T Ax ein quadratisches Polynom. Die Menge aller Punkte x = (x1 , . . . , xn ) ∈ Rn , welche eine Gleichung der Form p(x) = x T Ax + aT x + β = 0, erfüllen, nennt man eine Quadrik (oder Hyperfläche zweiter Ordnung). Jede Niveaufläche {x ∈ Rn | p(x) = const} eines quadratischen Polynoms p ist also eine Quadrik. Beispiele von Quadriken in R2 1.0 0.8 x 2 + 2xy + 3y 2 − 2y − x = 0 0.6 0.4 0.2 -0.4 -0.2 0.2 0.4 0.6 0.8 1.0 -0.2 -0.4 1.0 0.5 x 2 − 6xy + 9y 2 − 2 = 0 -1.0 -0.5 0.5 1.0 -0.5 -1.0 0.5 -1.5 21 y2 −x + + xy + 4x + y − =0 2 20 -2.0 2 -2.5 -3.0 1.0 1.5 2.0 Normalform von Quadriken Die Quadrik x T Ax + aT x + β = 0 liegt in Normalform vor, wenn x T Ax rein quadratisch ist, und aT x + β durch keine affine Substitution verkürzt werden kann. Für eine Tabelle von Quadriken in Normalform siehe Meyberg/Vachenauer. Transformation auf Normalform: I Hauptachsentransformation: Bestimmung der Eigenwerte λ1 , . . . , λn von A und einer ONB zugehöriger Eigenvektoren b1 , . . . , bn . Die Quadrikengleichung im Koordinatensystem (0; b1 , . . . , bn ) lautet: λ1 y12 + . . . + λn yn2 + γ1 y1 + . . . + γn yn + β = 0 P wobei γi = bi · a und x = nk=1 yk bk . I Quadratische Ergänzung: Sei λ1 , . . . , λr 6= 0 und λr +1 , . . . , λn = 0. Durch quadratische Ergänzung erhalten wir r X λk yk2 + γk yk + β = k=1 r X k=1 wobei zk := yk + (γk /2λk ) und γ := b − I λk zk2 + γ γk2 k=1 4λk . Pr Reduktion des linearen Anteils. Falls γk 6= 0 für eine k ≥ r + 1, z.B. γn 6= 0, dann wird γ eliminiert durch γn yn + γ = γn zn mit zn := yn + (γ/γn ). Wir setzen zk := yk für die übrigen k’s und erhalten n X k=r +1 γk yk + γ = γ Pn k=r +1 γk zk alle γk = 0 ein γk 6= 0. Die Normalform wird angenommen im Koordinatensystem (Bu; b1 , . . . , bn ) wobei uk = −γk /2λk , k ≤ r , und für k ≥ r + 1, uk = 0 oder uk = −γ/γk . Zahlenfolgen und Grenzwerte Beispiele von Zahlenfolgen Für n ∈ N sei an := 1 , n bn = (−1)n−1 , cn = √ n n! Graphische Darstellung (Graphen): ì ì ì 3 ì ì 2 ì ì 1 æ à ì à æ -1 æ à æ æ à æ æ æ 2 4 6 8 à à à à Zahlenfolgen Eine Folge reeller Zahlen ist eine Abbildung N → R, n 7→ an . Man schreibt dafür (an )n∈N , (an )n≥1 , (an ), oder a1 , a2 , a3 . . . Die Zahlen an heißen Glieder der Folge. Eine Folge braucht nicht mit a1 zu beginnen; z.B. nennt man auch a5 , a6 , a7 , . . . eine Folge, da man durch die Umnumerierung der Glieder bn := an+4 , n ≥ 1, eine Folge in obigem Sinn definieren kann. Eine Folge heißt beschränkt, wenn es eine Zahl K gibt, mit |an | ≤ K für alle n ∈ N. Folgen und Flächenberechnung 1.0 1.0 1.0 1.0 0.8 0.8 0.8 0.8 0.6 0.6 0.6 0.6 0.4 0.4 0.4 0.4 0.2 0.2 0.2 0.2 0.2 0.4 0.6 0.8 1.0 0.2 0.4 0.6 0.8 1.0 a1 = 0.433013, 0.2 0.4 0.6 0.8 1.0 a2 = 0.623927, 0.2 0.4 0.6 0.8 1.0 a3 = 0.709955. an = Gesamtfläche der 2n − 1 Rechtecke unterhalb des Viertelskreises. Je größer n ist, desto besser wird die Fläche des Viertelskreises durch an approximiert. Wir werden später sehen, das an → π = 0.785398 . . . , 4 (n → ∞). Konvergenz Eine Folgen (an ) konvergiert (oder strebt) gegen die Zahl a, in Zeichen oder an → a, lim an = a, n→∞ (n → ∞), falls es zu jeder noch so kleinen Zahl ε > 0 einen Indexwert n0 ∈ N gibt, so dass n ≥ n0 ⇒ |an − a| < ε. æ Die Zahl a heißt Grenzwert der Folge (an ). Eine Folge heißt konvergent wenn sie einen Grenzwert hat, sonst heißt sie divergent. Eine Folge mit Grenzwert 0 heißt Nullfolge. Wichtigstes Beispiel: 1 = 0. n→∞ n lim Illustrationen von Konvergenz und Divergenz 1.6 1.4 æ æ æ 1.2 æ 1.0 æ 0.8 æ æ æ æ æ æ æ æ æ æ æ æ æ æ æ æ 0.6 5 æ 10 15 æ lim n→∞ 2.0 1.5 1.0 0.5 -0.5 -1.0 -1.5 æ æ æ æ æ 5 æ æ æ æ æ æ æ æ 15 æ æ 25 20 sin(n) 1+ n2 æ 10 æ 20 æ = 1. æ æ 20 æ æ 25 æ æ æ Die Folge an = (−1)n hat weder den Grenzwert 1 (siehe Figur) noch irgend einen anderen Grenzwert. Sie ist daher divergent. Satz 3.1 (a) Der Grenzwert einer konvergenten Folge ist eindeutig: falls limn→∞ an = a und limn→∞ an = b dann gilt a = b. (b) Jede konvergente Folge ist beschränkt. Korollar 3.2 Ist die Folge (an ) unbeschränkt, dann ist sie divergent. Die Folge (an ) divergiert gegen ∞ (oder strebt gegen ∞), in Zeichen lim an = ∞ oder an → ∞, n→∞ (n → ∞) falls zu jeder noch so großen Zahl K ∈ R eine Indexwert n0 ∈ N existiert, so dass n ≥ n0 ⇒ an > K . Divergenz gegen −∞ ist analog definiert. Geometrische Folge und geometrische Reihe Für jede reelle Zahl x gilt: x > 1, ∞ n 0 −1 < x < 1, lim x = n→∞ unbestimmt x ≤ −1. (13) Für jede reelle Zahl x 6= 1 gilt 1 − x n+1 sn := 1 + x + x + . . . + x = . 1−x 2 n (14) Die Folge (14) heißt geometrische Reihe. Sie ist konvergent für |x| < 1 und divergent für |x| ≥ 1. Nach (13) gilt ∞ X k=0 x k := lim (1 + x + x 2 + . . . + x n ) = n→∞ 1 , 1−x |x| < 1. Teilfolgen und Häufungspunkte Ist (an )n≥1 eine Folge und n1 < n2 < n3 , . . . eine aufsteigende Indexfolge, dann heißt die Folge an1 , an2 , an3 , . . . Teilfolge der Folge (an ). Satz 3.3 Hat die Folge (an ) den Grenzwert a, dann konvergiert auch jede Teilfolge von (an ) gegen a. Eine Zahl a ∈ R heißt Häufungspunkt der Folge (an ), wenn eine Teilfolge existiert, welche gegen a konvergiert. Insbesondere ist der Grenzwert einer Folge auch ein Häufungspunkt. Konvergenzkriterien und Rechenregeln Satz 3.4 (Vergleichskriterien) (a) Falls |an | ≤ bn für alle n ≥ n1 und limn→∞ bn = 0, dann gilt lim an = 0 n→∞ (b) Falls an ≤ bn ≤ cn für n ≥ n1 und limn→∞ an = L = limn→∞ cn , dann gilt lim bn = L. n→∞ (c) Falls limn→∞ an = a, limn→∞ bn = b, und an ≤ bn für alle n ≥ n1 , dann gilt a ≤ b. Bemerkung: Wenn an < bn für alle n ≥ n1 in Teil (c), dann folgt trotzdem nur a ≤ b. Das sieht man am Beispiel an = 0, bn = 1/n. æ æ 1.5 - 1.0 0.5 æ 0.0 - - æ æ - - æ æ - - - - æ æ æ - - - - æ æ æ - - - æ æ æ æ æ æ æ æ æ æ æ æ - - - - - 5 10 - − 15 20 25 1 1 + 2 sin(n) 3 ≤ ≤ . n n n Satz 3.5 (a) limn→∞ an = a ⇒ limn→∞ |an | = |a|. (b) an ≥ 0 und limn→∞ an = a ⇒ √ (c) limn→∞ n a = 1 für alle a > 0. √ (d) limn→∞ n n = 1. limn→∞ √ an = √ a. Satz 3.6 (Rechenregeln) Seien (an ) und (bn ) konvergente Folgen mit limn→∞ an = a und limn→∞ bn = b. Dann gilt (a) limn→∞ (an + bn ) = a + b. (b) limn→∞ (an bn ) = ab. (c) Falls b 6= 0, dann gibt es ein n1 mit bn 6= 0 für n ≥ n1 und a an = . n→∞ bn b lim Monotone Folgen Eine Folge (an )n≥1 heißt monoton wachsend, wenn an ≤ an+1 , für alle n ≥ 1. Sie heißt monoton fallend wenn an ≥ an+1 für alle n ≥ 1. Theorem 3.7 Jede beschränkte monotone Folge ist konvergent. Die Eulersche Zahl ∞ X 1 e := = 2, 71828 . . . k! k=0 ist derPGrenzwert der beschränkten, monoton wachsenden Folge 1 sn = nk=0 k! . Lemma 3.8 (Bernoullische Ungleichung) Für alle n ∈ N und alle x ≥ −1 gilt: (1 + x)n ≥ 1 + nx. Illustration für n = 2 und n = 3: -2.0 -1.5 -1.0 2.0 2.0 1.5 1.5 1.0 1.0 0.5 0.5 -0.5 0.5 1.0 -2.0 -1.5 -1.0 -0.5 0.5 -0.5 -0.5 -1.0 -1.0 1.0 Satz 3.9 Die Folge (1 + n1 )n ist monoton wachsend, beschränkt und n X 1 n 1 lim 1 + = lim = e. n→∞ n→∞ n k! k=0 Satz 3.10 Für alle x ∈ R existiert der Limes exp(x) := lim n→∞ x n 1+ n und es gilt exp(0) = 1, exp(x) > 0 und exp(−x) = 1/ exp(x). Satz 3.11 Für alle x ∈ R und alle rationalen Zahlen r gilt exp(xr ) = exp(x)r . Für rationale Zahlen r gilt nach Satz 3.9 und Satz 3.11, exp(r ) = exp(1)r = e r . Man definiert daher für alle x ∈ R: e x := exp(x). Graph der Exponentialfunktion: 3.0 2.5 2.0 1.5 1.0 0.5 -4 -3 -2 -1 0 1 2 Zinseszins Ein Guthaben a > 0 wird für ein Jahr zum Zinssatz r ∈ (0, 1), also 100r Prozent, angelegt. Das Endguthaben hängt davon ab, wie oft Zins ausgeschüttet wird: Zinsausschüttung jährlich monatlich täglich jede Stunde jede Sekunde kontinuierlich Endbetrag a(1 + r ) r 12 a(1 + 12 ) r 365 a(1 + 365 ) r a(1 + 8760 )8760 r a(1 + 31536000 )31536000 limn→∞ a(1 + nr )n = ae r Da die Folge (1 + nr )n monoton wachsend ist, ist der Endbetrag umso größer, je öfter Zins ausgeschüttet wird. Wurzelberechnung Satz 3.12 Sei b > 0, a0 > 0, und sei an+1 1 = 2 b an + . an Dann gilt a1 ≥ a2 ≥ a3 ≥ . . . und √ lim an = n→∞ Zur Berechnung von √ b. 3 wählen wir x0 = 2 und erhalten: x1 = 1.75 x2 = 1.7321... x3 = 1.732050810 x4 = 1.732050808 Limes superior und Limes inferior Sei (an ) eine Folge reeller Zahlen. Dann ist bn := sup ak = sup{ak | k ≥ n} k≥n offensichtlich eine monoton fallende Folge. Wenn sie beschränkt ist, dann ist sie konvergent. Sonst ist entweder bn = ∞ für alle n, oder limn→∞ bn = −∞. In jedem Fall ist also der Limes superior lim sup an := lim sup ak . n→∞ n→∞ k≥n wohldefiniert. Die Folge bn := inf k≥n ak = inf{ak | k ≥ n} ist monoton wachsend. Also existiert auch der Limes inferior lim inf an := lim inf ak . n→∞ I n→∞ k≥n Im allgemeinen gilt lim inf n→∞ an ≤ lim supn→∞ an . Für eine beschränkte Folge gilt lim inf an = kleinster Häufungspunkt von (an ), n→∞ lim sup an = größter Häufungspunkt von (an ). n→∞ I Eine Folge (an ) ist genau dann konvergent, wenn sie beschränkt ist und lim inf an = lim sup an , n→∞ (15) n→∞ und dann ist (15) der Grenzwert der Folge. I Jede beschränkte Folge (an ) hat eine konvergente Teilfolge. Z.B. die Teilfolge welche gegen den Häufungspunkt lim supn→∞ an konvergiert. (Satz von Bolzano - Weierstraß.) Das Cauchy-Kriterium Eine Folge (an ) heißt Cauchy-Folge, wenn zu jedem ε > 0 ein Indexwert n0 ∈ N existiert, so dass n, m ≥ n0 ⇒ |an − am | < ε. Theorem 3.13 Eine Folge reeller Zahlen ist genau dann konvergent, wenn sie eine Cauchy-Folge ist. Beweisidee: Mit Hilfe der Dreiecksungleichung ist es leicht zu zeigen, dass eine konvergente Folge das Cauchy-Kriterium erfüllt, und dass jede Cauchy-Folge beschränkt ist (Übung). Für eine Cauchy-Folge (an ) sind somit lim inf n→∞ an und lim supn→∞ an endlich und, wegen dem Cauchy-Kriterium, sogar gleich. Also ist jede Cauchy-Folge konvergent. Bestimmte Divergenz und Konsequenzen Satz 3.14 (a) Wenn limn→∞ an = ∞ und (bn ) beschränkt ist, dann gilt lim (an + bn ) = ∞, n→∞ bn = 0. n→∞ an lim (b) Wenn limn→∞ an = 0, an > 0 und limn→∞ bn = b 6= 0, dann gilt bn =∞ n→∞ an bn lim = −∞ n→∞ an lim b>0 b < 0. Grenzwerte von Funktionen Beispiele 1.5 1.0 0.5 -2 -1 1 2 1 2 -0.5 lim (x 3 − x) = 0 x→0 -1.0 -1.5 1.5 1.0 0.5 -2 -1 lim f (x) = −1, -0.5 x→0+ lim f (x) = 1 -1.0 x→0− -1.5 1.5 1.0 0.5 -1.0 -0.5 0.5 -0.5 -1.0 -1.5 1.0 lim sin(1/x) existiert nicht x→0 Eine Funktion f hat für x gegen a ≥ −∞ den rechtsseitigen Grenzwert c, in Zeichen: lim f (x) = c x→a+ oder f (x) → c für x → a+, wenn xn → a, (n → ∞) xn > a (16) ⇒ lim f (xn ) = c. n→∞ Dazu braucht f nur für a < x < a + ε definiert zu sein. Auch wenn f in a definiert ist, ist der Wert f (a) irrelevant für (16). Der linksseitige Grenzwert limx→a− f (x) = c ist analog definiert. Die Funktion f hat für x gegen a den Grenzwert c, in Zeichen: lim f (x) = c x→a oder f (x) → c, x → a, wenn limx→a+ f (x) = c = limx→a− f (x). Aus Satz 3.4 folgt: Satz 3.15 (Vergleichskriterien) (a) Wenn |f (x)| ≤ p(x) für x nahe a und limx→a p(x) = 0, dann gilt limx→a f (x) = 0. (b) Wenn f (x) ≤ g (x) ≤ h(x) für x nahe a und limx→a f (x) = c = limx→a h(x), dann gilt limx→a g (x) = c. (c) Wenn f (x) ≤ g (x) für x nahe a, limx→a f (x) = c und limx→a g (x) = d, dann gilt c ≤ d. Diese Aussagen gelten auch für einseitige Grenzwerte und wenn a = ±∞. 0.4 0.2 0.1 -0.2 -0.4 0.2 0.3 0.4 0.5 lim x sin x→0 1 x = 0. Wichtige Beispiele: lim cos x = 1, x→0 lim sin x = 0, (17) sin x = 1. x→0 x (18) x→0 cos x − 1 = 0, x→0 x lim lim 1.5 1.0 0.5 -15 -10 -5 5 10 15 -0.5 -1.0 Graph von (sin x)/x Aus Satz 3.6 folgt: Satz 3.16 (Rechenregeln) Aus limx→a f (x) = c und limx→a g (x) = d mit c, d ∈ R folgt (a) limx→a [f (x) + g (x)] = c + d (b) limx→a f (x)g (x) = cd (c) Falls d 6= 0, dann c f (x) = . x→a g (x) d lim Diese Aussagen gelten auch für einseitige Grenzwerte und wenn a = ±∞. Eine Funktion heißt monoton wachsend, wenn x1 < x2 ⇒ f (x1 ) ≤ f (x2 ). f heißt streng monoton wachsend, wenn x1 < x2 ⇒ f (x1 ) < f (x2 ). Monoton fallend und streng monoton fallend sind analog definiert. Eine Funktion heißt monoton, wenn sie entweder monoton wachsend oder monoton fallend ist. Satz 3.17 (Monotoniekriterium) Ist f : (a, b) → R monoton und beschränkt, dann existieren die einseitigen Grenzwerte f (a+) = lim f (x), x→a+ f (b−) = lim f (x). x→b− Stetigkeit Sei I ⊂ R ein Intervall. Eine Funktion f : I → R heißt stetig in x0 ∈ I , wenn lim f (x) = f (x0 ). x→x0 Ist x0 ein Randpunkt von I , dann ist limx→x0 f (x) als einseitiger Grenzwert zu verstehen. Die Funktion f ist stetig auf I , wenn sie in jedem Punkt x0 ∈ I stetig ist. Eine Funktion heißt stetig, wenn sie auf ihrem Definitionsbereich stetig ist. Beispiele stetiger Funktionen von x: 1 , x |x|, x n, √ x. sin x, cos x. Die Stetigkeit dieser Funktionen folgt aus Satz 3.5, Satz 3.6 und (17). Klassifikation von Unstetigkeiten f (x0 −) = f (x0 +) 6= f (x0 ) f (x0 −) 6= f (x0 +) (Sprungstelle) f (x0 −) oder f (x0 +) existiert nicht. (Unstetigkeit zweiter Art.) Satz 3.18 Sei I ⊂ R ein Intervall. (a) Sind f , g stetig auf I , dann auch f + g , αf (α ∈ R) und fg . Die Funktion f /g ist stetig auf {x ∈ I : g (x) 6= 0}. (b) Sind f : I → R und g : D → R stetig, wobei g (D) ⊂ I , dann ist auch die Komposition h : D → R, h(x) = f (g (x)) auf D stetig. Satz 3.18 (a) folgt aus Satz 3.16. Korollar 3.19 (a) Jedes Polynom p(x) = an x n + . . . + a1 x + a0 ist auf ganz R stetig. (b) Jede rationale Funktion p/q ist stetig in allen x ∈ R mit q(x) 6= 0. Theorem 3.20 Für jede auf einem abgeschlossenen, beschränkten Intervall [a, b] ⊂ R stetige Funktion f gilt: (a) Beschränktheit. Es gibt eine Schranke K mit |f (x)| ≤ K für alle x ∈ [a, b]. (b) Maximum und Minimum werden angenommen. Es gibt stets Punkte x0 , x1 ∈ [a, b] mit f (x0 ) ≤ f (x) ≤ f (x1 ), alle x ∈ [a, b]. (c) Zwischenwertsatz. Wenn f (x0 ) < c < f (x1 ) dann gibt es einen Punkt x̄ ∈ [a, b] mit f (x̄) = c. (d) Gleichmäßige Stetigkeit. Zu jedem ε > 0 gibt es ein δ > 0, so dass |x − x 0 | < δ ⇒ |f (x) − f (x 0 )| < ε. Gegenbeispiele 10 Die Funktion f : (0, 1) → R, f (x) = 1/x, ist stetig aber sie hat keine der Eigenschaften (a),(b),(d) aus dem Theorem. Grund: (0, 1) ist nicht abgeschlossen. 8 6 4 2 0.0 0.2 0.4 0.6 0.8 1.0 1.0 0.8 Die Funktion f : [1, ∞) → R, f (x) = 1/x, ist stetig aber sie nimmt kein Minimum an. Grund: [1, ∞) ist unbeschränkt. 0.6 0.4 0.2 2 4 6 8 10 Die Funktion f : [−1, 1] → R mit −1, −1 ≤ x ≤ 0 f (x) = 1 0<x ≤1 x, 4 3 2 1 -1.0 -0.5 0.5 -1 1.0 hat keine der Eigenschaften (a)-(d) aus Theorem 3.20. Grund: sie ist nicht stetig. Aus dem Zwischenwertsatz und der Stetigkeit von Polynomen folgt: Satz 3.21 (a) Ist f : [a, b] → R stetig und haben f (a) und f (b) entgegengesetzte Vorzeichen, dann hat f mindestens eine Nullstelle x̄ ∈ (a, b). D.h. a < x̄ < b und f (x̄) = 0. (b) Jedes Polynom mit ungeradem Grad n ≥ 1 hat mindestens eine reelle Nullstelle. Nullstellenbestimmung: Sei f (a) < 0 < f (b). Definiere rekursiv Intervalle [an , bn ] durch [a0 , b0 ] = [a, b] und wenn wenn an + b n )≤0 2 an + bn f( )>0 2 f( an + bn , bn+1 := bn , 2 an + bn := , an+1 := an . 2 dann an+1 := dann bn+1 x̄ = limn→∞ an = limn→∞ bn ist eine Nullstelle von f . Differentialrechnung Vorbemerkungen Im folgenden ist es wichtig zu unterscheiden zwischen einer Funktion f : I → R und dem Funktionswert f (x): f f (x) ist die Funktion, ist der Wert der Funktion an der Stelle x, wobei x ∈ I fest aber beliebig ist, sofern nichts anderes gesagt wird. Mit der Sprechweise “die Funktion 1/x” meint man “die Funktion f gegeben durch f (x) = 1/x”.– Addition, Multiplikation und Division von zwei Funktionen f , g : I → R sind punktweise definiert. D.h. (f + g )(x) := f (x) + g (x) (fg )(x) := f (x)g (x) f (x) f (x) := g g (x) wobei f /g den Definitionsbereich {x ∈ I | g (x) 6= 0} hat. Die Ableitung Sei I ⊂ R ein Interval und sei x0 ∈ I . Eine Funktion f : I → R heißt in x0 differenzierbar, wenn der Grenzwert f (x) − f (x0 ) f (x0 + h) − f (x0 ) = lim x→x0 h→0 h x − x0 lim existiert und endlich ist. Dieser Grenzwert heißt Ableitung von f an der Stelle x0 und wird mit f 0 (x0 ) oder df (x0 ) dx bezeichnet. Die Funktion f ist auf I differenzierbar, wenn f in jedem Punkt von I differenzierbar ist. In diesem Fall wird durch x 7→ f 0 (x) eine neuen Funktion erklärt, welche mit f0 oder df dx bezeichnet wird, und Ableitung von f heißt. Geometrische Interpretation der Ableitung f (x) − f (x0 ) x − x0 0 Steigung der Sekante durch (x0 , f (x0 )) und (x, f (x)) Steigung der Tangente an den Graphen von f im Punkt (x0 , f (x0 )). = f (x0 ) = Gleichung der Tangente durch (x0 , f (x0 )): Tangente fHxL y = f (x0 ) + f 0 (x0 )(x − x0 ) fHx0 L Sekante x0 x Physikalische Interpretation der Ableitung Sei s(t) ∈ R die Position eines Teilchens zur Zeit t. Dann ist ṡ(t0 ) := s(t) − s(t0 ) ds (t0 ) = lim t→t0 dt t − t0 = Geschwindigkeit zur Zeit t0 . Wird das Argument eine Funktion f nicht mit x, sondern mit t bezeichnet, dann schreibt man oft f˙ statt f 0 für die Ableitung. Beispiel: g 2 t ⇒ ṡ(t) = v0 − gt 2 Hier ist s(t) die Höhe eines Steins über Boden, wenn er zur Zeit t = 0 mit Geschwindigkeit v0 von der Höhe 0 aufgeworfen wird. g = 9.81m/s 2 . s(t) = v0 t − Analytische Interpretation der Ableitung Wenn f in x0 differenzierbar ist, dann gilt f (x0 + h) = f (x0 ) + f 0 (x0 )h + R(h) wobei f (x0 + h) − f (x0 ) R(h) = − f 0 (x0 ) −→ 0, h h (h → 0). Also ist R(h) klein im Vergleich zu |h|, wenn |h| klein ist. In diesem Sinn gilt: f (x0 + h) ≈ f (x0 ) + f 0 (x0 )h, |h| klein Umgekehrt, wenn f (x0 + h) = f (x0 ) + mh + R(h) wobei m ∈ R und R(h)/h → 0 für h → 0, dann ist f in x0 differenzierbar mit Ableitung m. Das Differential fHx0 +hL df=f'Hx0 Lh fHx0 L Df x0 x0 +h dx = ∆x = x − x0 = h Zuwachs des Arguments ∆f = f (x) − f (x0 ) tatsächlicher Zuwachs von f df = f 0 (x)h lineare Approximation des Zuwachses von f . Somit gilt: df = f 0 (x0 )dx. Die lineare Abbildung df : h 7→ f 0 (x0 )h heißt Differential von f an der Stelle x0 . Satz 4.1 Ist f : I → R ein x0 ∈ I differenzierbar, dann ist f dort auch stetig. Satz 4.2 Sind f , g : I → R differenzierbar und c ∈ R, dann sind auch f + g , cf , fg und f /g differenzierbar, und es gilt (a) (f + g )0 = f 0 + g 0 (b) (cf )0 = cf 0 (c) (d) (fg )0 = f 0 g + fg 0 0 f f 0 g − fg 0 = , g g2 0 1 g0 = − 2. g g Ist nur bekannt, dass f , g in x0 ∈ I differenzierbar sind, dann sind f + g , fg und, falls g (x0 ) 6= 0, f /g an der Stelle x0 differenzierbar und es gelten (a)–(d) an der Stelle x0 . Korollar 4.3 Jedes Polynom und jede rationale Funktion ist differenzierbar und d (an x n + . . . + a1 x + a0 ) = nan x n−1 + . . . + a1 , dx d 1 n ( n ) = − n+1 , n ∈ N. dx x x Satz 4.4 sin, cos, tan, cot sind differenzierbar und sin0 x = cos x, 1 , tan0 x = (cos x)2 cos0 x = − sin x, 1 cot0 x = − , (sin x)2 Lemma 4.5 Für alle x < 1 gilt 1 + x ≤ ex ≤ 1 . 1−x H1-xL-1 1+x Theorem 4.6 Die Exponentialfunktion ist differenzierbar, es gilt e x+y = e x e y für alle x, y ∈ R und d x e = ex . dx Satz 4.7 (Kettenregel) Die Komposition f ◦ g : x 7→ f (g (x)) von zwei differenzierbaren Funktionen f und g ist ebenfalls differenzierbar und d f (g (x)) = f 0 (g (x))g 0 (x). dx (19) Folgerungen: I d dx f (g (x)) 6= f 0 (g (x)), ausser wenn g 0 (x) = 1, und somit auch d df f (g (x)) 6= (g (x)). dx dx I Sind f , g und h differenzierbar, dann auch x 7→ f (g (h(x))) und d d f (g (h(x))) = f 0 (g (h(x))) g (h(x)) = f 0 (g (h(x)))g 0 (h(x))h0 (x). dx dx Höhere Ableitungen Seien f : I → R und f 0 : I → R differenzierbar. Die Ableitung (f 0 )0 der Ableitung f 0 heißt zweite Ableitung von f und wird mit f 00 , f (2) oder d d d 2f := f dx 2 dx dx bezeichnet. Die n-te Ableitung ist rekursiv definiert durch: f (0) := f , f (n) d nf d (n−1) := n := f dx dx Die Funktion f heißt n Mal differenzierbar, wenn alle Ableitungen von f bis zur n-ten Ableitung, f (n) , existieren. Die Funktion f heißt n Mal stetig differenzierbar, wenn sie n Mal differenzierbar ist und f (n) noch stetig ist. Satz 4.8 (Leibnizsche Regel) Sind f , g : I → R n Mal differenzierbar, dann ist auch fg n Mal differenzierbar und es gilt (fg )(n) n X n (k) (n−k) = f g . k k=0 Beispiel: (fg )0 = f 0 g + fg 0 (fg )00 = f 00 g + 2f 0 g 0 + fg 00 (fg )000 = f 000 g + 3f 00 g 0 + 3f 0 g 00 + fg 000 . Der Mittelwertsatz und Anwendungen der Differentialrechnung Maxima und Minima einer Funktion Die Zahl f (a) heißt globales Maximum von f : D → R, wenn f (x) ≤ f (a) für alle x ∈ D. Dann ist a ∈ D eine globale Maximalstelle. (Statt “global” sagt man auch “absolut”.) Die Zahl f (a) heißt lokales Maximum von f , wenn es ein δ > 0 gibt, so dass f (x) ≤ f (a) für x ∈ D, |x − a| < δ. Globales und lokales Minimum sind analog definiert. Extremum ist der gemeinsame Oberbegriff für Maximum und Minimum. Ein Punkt x0 ∈ D heißt stationärer Punkt (oder kritischer Punkt) von f , wenn f 0 (x0 ) = 0. x0 x1 x2 x3 x4 x5 x6 f (x1 ) = globales Minimum, f (x5 ) = globales Maximum, f (x1 ), f (x2 ), f (x4 ), f (x6 ) = lokale Minima, f (x0 ), f (x3 ), f (x5 ) = lokale Maxima, x2 , x3 , x4 , x5 = stationäre Punkte. Satz 4.9 Sei f : (a, b) → R differenzierbar und a < x0 < b. Dann gilt: x0 ist lokale Extremstelle ⇒ f 0 (x0 ) = 0. Umgekehrt braucht ein stationärer Punkt keine Extremstelle zu sein. Z.B. ist x = 0 ist ein stationärer Punkt von f (x) = x 3 aber keine lokale Extremstelle. Kandidaten für Extremstellen von f : I → R sind: (a) Die Randpunkte von I , (b) Die Punkte von I , wo f nicht differenzierbar ist, (c) die stationären Punkte aus dem Inneren von I . Der Mittelwertsatz Theorem 4.10 (Mittelwertsatz) Sei f : [a, b] → R stetig und in (a, b) differenzierbar. Dann gibt es einen inneren Punkt x0 ∈ (a, b) mit f (b) − f (a) = f 0 (x0 ). b−a a x0 b Satz 4.11 Sei I ein Intervall und sei f : I → R differenzierbar. Dann gilt: f 0 = 0 ⇔ f ist konstant, f 0 ≥ 0 ⇔ f ist monoton wachsend, f 0 ≤ 0 ⇔ f ist monoton fallend, f 0 > 0 ⇒ f ist streng monoton wachsend, f 0 < 0 ⇒ f ist streng monoton fallend. Mit f 0 = 0 ist gemeint, dass f 0 (x) = 0 für alle x ∈ I , f 0 ≥ 0 bedeutet f 0 (x) ≥ 0 für alle x ∈ I , etc. I In den letzten beiden Aussagen ist die Umkehrung “⇐” im allgemeinen falsch. Das sieht man am Beispiel der Funktionen f (x) = ±x 3 . Sie sind streng monoton obwohl f 0 (0) = 0. I Alle Aussagen sind falsch wenn I kein Intervall ist. Korollar 4.12 Ist I ein Interval und sind f , g : I → R differenzierbar, dann gilt: (a) f 0 = g 0 auf I ⇔ f = g + c wobei c eine Konstante ist. (b) f (n) = 0 ⇔ f ist ein Polynom vom Grad n − 1 oder kleiner. Theorem 4.13 Ist f : R → R differenzierbar, dann gilt f0 =f wobei c = f (0). ⇒ f (x) = ce x Satz 4.14 Sei f : (a, b) → R differenzierbar, x0 ∈ (a, b) und f 0 (x0 ) = 0. Falls es ein δ > 0 gibt, so dass f 0 (x) < 0, f 0 (x) > 0, x0 − δ < x < x0 , x0 < x < x0 + δ, f'<0 dann hat f in x0 ein lokales Minimum. Eine analoge Aussage gilt über lokale Maxima. f'>0 x0 Satz 4.15 Sei f : (a, b) → R zwei Mal stetig differenzierbar und f 0 (x0 ) = 0. Dann gilt f 00 (x0 ) > 0 ⇒ f hat in x0 ein lokales Minimum, f 00 (x0 ) < 0 ⇒ f hat in x0 ein lokales Maximum. Satz 4.16 (Verallgemeinerter Mittelwertsatz) Seien f , g : [a, b] → R stetig und in (a, b) differenzierbar. Falls g 0 (x) 6= 0 für alle x ∈ I , dann gibt es einen Punkt t ∈ (a, b) mit f (b) − f (a) f 0 (t) = 0 . g (b) − g (a) g (t) Theorem 4.17 (de l’Hospitalsche Regel) Seien f , g : (a, b) → R differenzierbar, b ≤ ∞, g 0 (x) 6= 0 für alle x ∈ (a, b) und zusätzlich (a) f (x) → 0, g (x) → 0 für x → b−, oder f (x) → ∞, g (x) → ∞ für x → b−, (b) limx→b− f 0 (x)/g 0 (x) existiert oder ist in {±∞}. Dann gilt: f (x) f 0 (x) lim = lim 0 . x→b− g (x) x→b− g (x) Nullstellen und Fixpunkte Das Newton-Verfahren xn+1 = xn − f (xn ) f 0 (xn ) x* x2 x1 x0 Ist x0 nahe genug an einer Nullstelle x ∗ von f , dann xn → x ∗ , (n → ∞) in vielen Fällen. Z.B. wenn f zwei Mal stetig differenzierbar ist und f 0 (x ∗ ) 6= 0 (siehe Thm. 4.18). Wenn zusätzlich a ≤ xn ≤ b für alle n ≥ 0, dann gilt ∗ ∗ 2 |xn+1 − x | ≤ M|xn − x | , maxx∈[a,b] |f 00 (x)| M := . minx∈[a,b] |f 0 (x)| D.h. die Anzahl der richtigen Nachkommastellen verdoppelt sich in jedem Schritt, wenn x0 nahe genug bei x ∗ ist. Fixpunkte Ein Punkt x ∗ ∈ R heißt Fixpunkt der Abbildung f wenn f (x ∗ ) = x ∗ . Das Problem einen Fixpunkt zu finden ist äquivalent zum Problem eine Nullstelle zu finden denn: x ist Fixpunkt von f ⇔ x ist Nullstelle von f (x) − x, x ist Nullstelle von f ⇔ x ist Fixpunkt von f (x) + x. Eine Funktion f : [a, b] → [a, b] hat mindestens einen Fixpunkt wenn sie stetig ist (Aufgabe 70), und genau einen Fixpunkt wenn sie differenzierbar ist mit |f 0 (x)| < 1 für alle x, Theorem 4.18 Theorem 4.18 Ist f : [a, b] → [a, b] differenzierbar mit |f 0 (x)| ≤ K < 1 für alle x ∈ [a, b]. Dann gilt: Existenz Es gibt genau ein x ∗ ∈ [a, b] mit f (x ∗ ) = x ∗ . Berechnung Die Iterationsfolge xn+1 = f (xn ) konvergiert gegen den Fixpunkt x ∗ und zwar für jede Wahl des Startwerts x0 ∈ [a, b]. Abschätzung Für alle n ∈ N gilt |xn − x ∗ | ≤ K |xn − xn−1 |. 1−K Definition von π Von einem analytischen Standpunkt ist es bequem π/2 als erste positive Nullstelle der Cosinusfunktion zu definieren wobei cos x definiert wird durch x2 x4 + − ... cos x = 1 − 2! 4! (siehe HM2). π/2 ist also ein Fixpunkt der Abbildung x 7→ x + cos x. Die Fixpunktiteration xn+1 = xn + cos xn mit Startwert x0 = 1.5 liefert x1 , x2 , x3 , . . . wobei: 2x1 = 3.141474403335406, 2x2 = 3.141592653589724, 2x3 = 3.141592653589793. (falsche Nachkommastellen sind rot.) Umkehrfunktionen Ist f : D → R injektiv, dann sagt man auch f sei invertierbar oder umkehrbar, denn f : D → f (D) ist dann bijektiv. Somit existiert eine Umkehrfunktion g : f (D) → D mit f (x) = y ⇔ g (y ) = x. Also gilt g (f (x)) = x für alle x ∈ D, f (g (y )) = y für alle y ∈ f (D), Man bezeichnet die Umkehrfunktion einer Funktion f meist mit f −1 . Der Graph von f −1 ist die Spiegelung des Graphen von f an der Geraden y = x. f -1 Satz 4.19 (a) Jede streng monotone Funktion f : D → R ist invertierbar. Jede differenzierbare Funktion f : I → R, I ein Intervall, mit f 0 (x) 6= 0 für alle x ∈ I , ist invertierbar. (b) Die Umkehrfunktion f −1 einer differenzierbaren Funktion f : I → R ist in einem Punkt y = f (x) genau dann differenzierbar, wenn f 0 (x) 6= 0, und dann gilt (f −1 )0 (y ) = 1 1 = . f 0 (x) f 0 (f −1 (y )) f Arcussinus 1 Π 2 Π 2 Die Sinusfunktion ist auf [−π/2, π/2] streng monoton wachsend und sin([−π/2, π/2]) = [−1, 1]. -1 Die Umkehrfunktion von sin [−π/2, π/2] heißt Arcussinus-Funktion. Es gilt arcsin : [−1, 1] → [−π/2, π/2] π π y = arcsin x ⇔ x = sin y , − ≤ y ≤ 2 2 Π 2 -1 1 Arcussinus ist differenzierbar in (−1, 1) und d 1 arcsin x = √ , dx 1 − x2 −1 < x < 1. - Π 2 Arcuscosinus 1 Π Die Cosinusfunktion ist z.B. auf [0, π] streng monoton fallend und cos([0, π]) = [−1, 1]. -1 Die Umkehrfunktion von cos [0, π] heißt Arcuscosinus-Funktion. Es gilt Π arccos : [−1, 1] → [0, π] y = arccos x ⇔ x = cos y , 0 ≤ y ≤ π . Arcuscosinus ist differenzierbar in (−1, 1) und d 1 arccos x = − √ , dx 1 − x2 −1 < x < 1. -1 1 Arcustangens Die Tangensfunktion auf (−π/2, π/2) streng monoton wachsend und tan(−π/2, π/2) = R. Die Umkehrfunktion von tan (−π/2, π/2) heißt Arcustangens. Es gilt - Π 2 Π 2 arctan : R → (−π/2, π/2) π π . y = arctan x ⇔ x = tan y , − < y < 2 2 Π 2 Arcustangens ist differenzierbar in R und d 1 arctan x = . dx 1 + x2 - Π 2 Tschebyschev Polynome Zu jedem n ∈ N gibt es ein Polynom Tn vom Grad n mit |x| ≤ 1. Tn (x) = cos(n arccos x), Tn erfüllt die Differentialgleichung: (1 − x 2 )Tn00 (x) − xTn0 (x) + n2 Tn (x) = 0. Aus T0 = 1, T1 (x) = x und der Rekursionsbeziehung Tn+1 (x) = 2xTn (x) − Tn−1 (x) folgt T0 T3 T0 (x) = 1, T4 T1 T1 (x) = x, T2 (x) = 2x 2 − 1, -1 T3 (x) = 4x 3 − 3x, 4 2 T4 (x) = 8x − 8x + 1. 1 T2 Übertragungsfunktion eines Tschebyschev-Tiefpassfilters: 2 U2 1 + ε2 (ω) = , (n gerade). U1 1 + ε2 Tn (ω) Graph für n = 8: 1+Ε2 1 1 Ω Exponentialfunktion und Logarithmus Wichtigste Eigenschaften der Exponentialfunktion Definition e x := lim 1 + n→∞ x n , n x ∈ R, e 0 = 1, e x > 0 für alle x ∈ R, und d x e = ex . dx e x+y = e x e y , Satz 4.20 lim e x = ∞, lim e x = 0 x→∞ lim x→∞ ex xn x→−∞ = ∞, 1 n ∈ N. Die Exponentialfunktion ist also streng monoton wachsend und exp(R) = (0, ∞). Der natürliche Logarithmus Die Umkehrfunktion der Exponentialfunktion exp : R → (0, ∞) heißt natürlicher Logarithmus und wird mit ln oder log bezeichnet: ln : (0, ∞) → R, y = ln x ⇔ e y = x. Aus dem Graph lesen wir ab, dass ln 1 = 0, ln x < 0 für 0 < x < 1, und ln x > 0 für x > 1. Satz 4.21 (a) limx→0+ ln x = −∞, (b) limx→∞ ln x = ∞, (c) ln(xy ) = ln x + ln y , ln( yx ) = ln x − ln y , (d) d 1 ln x = . dx x 1 Allgemeine Exponentialfunktionen und Logarithmen Für a > 0 und r ∈ Q gilt nach Satz 3.11 ar = (e ln(a) )r = e r ln(a) . Man definiert daher die Exponentialfunktion zur Basis a für alle x ∈ R durch: ax := e x ln a , a > 0. Eigenschaften: 10x ex 2x ax ay = ax+y , (ab)x = ax b x , ln(ax ) = x ln a, (ax )y = axy . n-te Wurzel von a > 0: 1 √ n a := a1/n . Die Exponentialfunktion x 7→ ax = e x ln a ist nicht zu verwechseln mit der Potenzfunktion x 7→ x α = e α ln x , wo x > 0, α ∈ R. d x a dx = ax ln a, x ∈ R, a > 0, d α x = αx α−1 , dx x > 0, α ∈ R. Α<0 Α>1 Satz 4.22 Graphen von x Α Für alle α > 0 gilt ln x lim α = 0. x→∞ x 0<Α<1 1 1 Die Funktion ax = exp(x ln a) ist streng monoton wachsend für a > 1 und streng monoton fallend für 0 < a < 1. Dabei werden alle Werte aus (0, ∞) angenommen. Die Inverse von x 7→ ax heißt Logarithmus zur Basis a und wird mit loga bezeichnet. Es gilt loga x = ln x , ln a x > 0. Eigenschaften von loga : loga (xy ) = loga x + loga y , d 1 loga x = . dx x ln a Die Hyperbolischen Funktionen sinh, cosh, tanh Jede Funktion f : R → R lässt sich zerlegen in f = u + g wobei 1 u(x) := (f (x) − f (−x)), 2 1 g (x) := (f (x) + f (−x)), 2 u(−x) = −u(x), g (−x) = g (x), der ungerade und der gerade Anteil von f sind. Im Fall f = exp erhält man sinh und cosh: cosh sinh x cosh x tanh x 1 := (e x − e −x ) 2 1 := (e x + e −x ) 2 sinh x := . cosh x tanh 1 -1 sinh Summenformeln: sinh(x + y ) = sinh x cosh y + cosh x sinh y , cosh(x + y ) = cosh x cosh y + sinh x sinh y , cosh2 x − sinh2 x = 1. Ableitungen: sinh0 x = cosh x, tanh0 x = 1 cosh2 x cosh0 x = sinh x. sinh ist umkehrbar auf ganz R, cosh ist umkehrbar auf [0, ∞). Die zugehörigen Umkehrfunktionen heißen area sinus hyperbolicus und area cosinus hyperbolicus. Es gilt p d 1 arsinh x = ln(x + x 2 + 1) arsinh x = √ dx x2 + 1 p d 1 arcosh x = ln(x + x 2 − 1) arcosh x = √ dx x2 − 1 Konvexe Funktionen Sei I ein Intervall. Eine Funktion f : I → R heißt konvex, wenn für alle x, y ∈ I gilt f (1 − λ)x + λy ≤ (1 − λ)f (x) + λf (y ), 0 < λ < 1. Der Funktionswert am gewichteten Mittel ist kleiner oder gleich das gewichtete Mittel der Funktionswerte. f heißt strikt konvex, wenn “<” gilt für x 6= y . f heißt (strikt) konkav, wenn (−f ) (strikt) konvex ist. fHyL H1-ΛLfHxL+ΛfHyL fHxL x H1-ΛLx+Λy y Satz 4.23 Ist f : (a, b) → R differenzierbar, dann gilt: f ist konvex ⇔ f ist strikt konvex ⇔ f 0 ist monoton wachsend, f 0 ist streng monoton wachsend, Aus Satz 4.23 und Satz 4.11 folgt: Satz 4.24 Ist f : (a, b) → R zwei Mal differenzierbar, dann gilt: f 00 ≥ 0 ⇔ f ist konvex, f 00 ≤ 0 ⇔ f ist konkav, f 00 > 0 ⇒ f ist strikt konvex, f 00 < 0 ⇒ f ist strikt konkav. Mit f 00 ≥ 0 ist gemeint, dass f 00 (x) ≥ 0 für alle x, etc. Satz 4.25 Sei f : (a, b) → R differenzierbar und a < x0 < b. Dann gilt für alle x ∈ (a, b): f ist konvex ⇒ f (x) ≥ f (x0 ) + f 0 (x0 )(x − x0 ), f ist konkav ⇒ f (x) ≤ f (x0 ) + f 0 (x0 )(x − x0 ). Satz 4.26 Für alle x > −1 gilt (1 + x)α ≥ 1 + αx, falls α < 0 oder α > 1, (1 + x)α ≤ 1 + αx, falls 0 < α < 1. .....Fortsetzung in HM2.