Mathematik Regenerative Energien, 1. Semster Valerian Kathan 24.6.2010 1 1 Wiederholung 1.1 Zahlenmengen 1.1.1 Natürliche Zahlen N N = {0, 1, 2, 3, . . . , n} ⇒ Die 0 ist ein Platzhalter. N+ = 1, 2, 3, . . . = N\{0} Eigenschaften: a) Zählen ⇔ 1 zu 1 Zuordnung N+ = {1, 2, 3, . . . } auf die Menge M n = die Zahl der Elemente in einer Menge M heisst abzählbar b) Addieren und Mulitplizieren sind uneingeschränkt möglich Subtrahieren und Dividieren sind uneingeschränkt möglich c) ∃ ein kleinstes Element 0 oder 1, aber kein grösstes Element. d) Natürliche Zahlen liegen diskret, d.h. zwischen den Zahlen (z.B.: 5 und 6) liegen keine Elemente 1.1.2 Ganze Zahlen Z Z = N ∪ {negative ganze Zahlen} = {. . . , −2, −1, 0, 1, 2, . . . } Eigenschaften: a) Z ist wie N abzählbar ⇒ hat gleich viele Elemente Einhaltung: ( − n2 für n = gerade Z = n+1 für n = ungerade 2 b) Addieren, Multiplizieren und Subtrahieren immer möglich Dividieren in Ausnahmefällen c) Es gibt weder ein kleinstes noch ein grösstes Element. d) Elemente von Z liegen ebenfalls diskret. 1.1.3 Rationale Zahlen Q n o Q = pq p ∈ Z, q ∈ N+ Rechnen im Q: p1 p2 p1 ∗ q2 + p2 ∗ q1 + = ∈Q q1 q2 q1 ∗ q2 2 p1 p2 p1 ∗ p2 ∗ = ∈Q q1 q2 q1 ∗ q2 Forderung: vollständig gekürzte Darstellung 3 = 2 1 1+ | {z2} ∈Z+ pq p<q a) Q ist abzählbar, mit dem Cantor’sche Diagonalverfahren. b) Addieren, Subtrahieren, Multiplizieren und Dividieren sind möglich ohne Einschränkungen (ausser 0 im Nenner). c) Es gibt weder ein kleinstes noch ein grösstes Element. d) Elemente von Q liegen dicht. 1.1.4 Reelle Zahlen R Es gibt kein c ∈ Q mit c2 = 2. Annahme: ∃ c = pq mit c ∗ c = 2 c= p q 2 = c2 = p2 q2 2q 2 = p2 ⇒ p2 ist eine ganze Zahl ⇒ p ist gerade p=2∗l p in 2q 2 = p2 einsetzen: 2q 2 = (2 ∗ l)2 2q 2 = 4l2 q 2 = 2l2 ⇒ q 2 ist eine gerade Zahl ⇒ q ist gerade ⇒c∈ /Q Ergänzung Q um die irrationalen Zahlen √ √ √ 3 c = 2, 3, 7, π, e ⇒ Reelle Zahlen R R ist grösser als Q, aber abzählbar a) Addieren, Subtrahieren, Multiplizieren und Dividieren sind möglich (ausser Teilen durch 0) b) Ist abzählbar 3 c) Q liegt dicht in R Jede reelle Zahl (= rationale Zahl und irrationale Zahl) lässt sich durch eine Folge von rationalen Zahlen darstellen. x0 = 3 2 √ 1 x0 + → 2 2 x0 xn+1 = ⇒ Die Dezimaldarstellung einer irrationalen Zahl ist unendlich lang, ohne Periode. d) R ist vollgeordnet, d.h. für a, b ∈ R i) a = b ii) a < b iii) a > b R+ = {x ∈ R|x > 0} R− = {x ∈ R|x < 0} R∗ = {R+ ∪ R− \{0}} Absolutbetrag: ∀a∈R ( a |a| = −a für a ≥ 0 für a < 0 Rechnen mit Beträgen: a) −|a| ≤ a ≤ |a| b) |a| ≤ b ⇔ −b ≤ a ≤ b c) Dreiecksungleichungen |a + b| ≤ |a| + |b| ||a| − |b|| ≤ |a − b| d) |a ∗ b| = |a| ∗ |b| a |a| = b |b| 4 Definition: Intervalle a 6= b ! [a; b] := {x ∈ R|a ≤ x ≤ b} [a; b[:= {x ∈ R|a ≤ x < b} ]a; b] := {x ∈ R|a < x ≤ b} ]a; b[:= {x ∈ R|a < x < b} Verabredung: Intveralle sollen stets 2 Elemente haben: a < b Definition: ∞ ∞ ist ein Hilfsymbol, keine reelle Zahl. x < +∞ ∀ x ∈ R −∞ < x ∀ x ∈ R R+ = [a; ∞[= {x ∈ R|a ≤ x < ∞} R =] − ∞; +∞[ 1.2 Funktionen Definition: f : M → N Definitionsbereich → Zielbereich f → f (n) m∈M x 7→ y n∈N x wird auf y abgebildet Beispiel: M ={a, b, c, d} N ={1, 2, 3} a →2 f (a) =2 b →1 f (b) =1 c →1 f (c) =1 d →1 f (d) =3 2 f (x) =x2 + 2 x →x + 2 M1 ∩M2 ( f1 (m) falls m ∈ M1 f (m) = f2 (m) falls m ∈ M2 M1 ,M2 5 Beispiel: a) ( x |x| = −x falls x ≥ 0 falls x < 0 b) 1 signum(x) = 0 −1 falls x ∈ R+ falls x = 0 falls x ∈ R− Definition: surjektiv: Jedes Element des Zielbereiches hat mindestens ein Abbild. ∀ y ∈ N ∃ x ∈ M : f (x) = 1 injektiv: Gleiche Bilder haben gleiche Urbilder. f (x1 ) = f (x2 ) ⇔ x1 = x2 bijektiv: f (x) ist injektiv und surjektiv Umkehrfunktion: f −1 : f (M ) 7→ M Bijektive Funktionen haben immer eine Umkehrfunktion. Komposition: g : N 7→ M g◦f (g ◦ f )(x) ∀x∈M g(f (x)) Beispiel: f =x2 g(f (x)) = g(x2 ) = x2 + 1 g =x + 1 b(g(x)) = f (x + 1) = (x + 1)2 Verkettung ist nicht kommutativ, Reihenfolge beachten! 6 1.3 Funktionen von reellen Veränderlichen Allgemein: f : M → N Verabredung: N = R i) Funktion ”monoton wachsend”: ∀ x1 ; x2 ∈ D : x1 < x2 ⇒ f (x1 ) ≤ f (x2 ) ii) Funktion ”streng monoton wachsend”: ∀ x1 ; x2 ∈ D : x1 < x2 ⇒ f (x1 ) < f (x2 ) iii) Funktion ”monoton fallend”: ∀ x1 ; x2 ∈ D : x1 > x2 ⇒ f (x1 ) ≥ f (x2 ) iv) Funktion ”streng monoton fallend”: ∀ x1 ; x2 ∈ D : x1 > x2 ⇒ f (x1 ) > f (x2 ) v) beschränkt: ∃ c ∈ R, ∀ x ∈ D : |f (x)| ≤ c Beispiel: 10 1 + x2 0 < f (x) ≤ 10 ⇒ f (x) =]0; 10] f (x) = Satz 1: Es sei f : D → R streng monoton wachsend/fallend Dann existiert f −1 : W → D, die auch streng monoton wachsend/fallend ist. Beispiel: x → x2 f (x) = x2 f : [0; +∞[ f (x) = x3 (√ 3 x falls x ≥ 0 f −1 (x) = √ 3 − x falls x < 0 p = signum(x) 3 |x| Definition: symmetrische Funktion bezüglich 0 x ∈ D ⇒ −x ∈ D 7 i) f heisst gerade ⇔ ∀ x ∈ D : f (−x) = f (+x) (Spiegelung an der y-Achse) ii) f heisst ungerade ⇔ ∀ x ∈ D : f (−x) = −f (x) (Spiegelung am Ursprung) f (−x) = f (x) f (x) = −f (x) f (−x) = −f (x) f (x) = 0 ∀x ∈ D ⇒ f (x) = 0 1.4 Rationale Funktionen Definition: Eine Funktion p : R → R heisst Polynom wenn p(x) = m X ak xk = a0 + a1 x + a2 x2 + · · · + am xm k=0 ak ∈ R, feste Zahl, am 6= 0 m =Grad des Polynoms m =grad(p(x)) Anmerkung: ak = 0 ⇔ p(x) = 0 grad (p) =n ∀x∈R grad (q) =m p(x) =1 + x2 grad (p ∗ q) =n + m q(x) = · · · + x3 grad (p + q) = max(n, m) 2 p(x) + q(x) =1 + x + x 3 p(x) ∗ q(x) =1 + · · · + x Nullstellen: Sei b eine Nullstelle von p(x)(⇒ p(b) = 0) dann kann man (x − b) ohne Rest aus p ausklammern. p(x) = (x − b) ∗ q(x) = n X an xn − k=0 = n X n X k=0 an bn = n X k=0 an (x − b) ∗ · · · = x − b ∗ q(x) ⇒ q(x) = k=0 an (xn − bn ) n−1 X xn−1−i b i=0) Satz 2: Vollständige Polynomzerlegung über R. Es sei p(x) ein reeller Punkt vom Grad n ≥ 1 dann gilt: p(x) = a ∗ (x − b1 )r1 ∗ · · · ∗ (x − bk )rk + (x2 + c1 x + d1 )s1 ∗ · · · ∗ (x2 + cl x + dl )sl a . . . Koeffizient des xn -Terms (n = grad p) b1 . . . bk = verschiedene Nullstellen in p 8 r1 . . . rk = Vielfachkeit der Nullstellen x2 + ciX + d . . . = unzerlegbare quadratische Therme s1 . . . sl = Vielfachkeiten Beispiel: p(x) = x7 + x6 + x5 + x4 − x3 − x2 − x1 − 1 raten b1 = 1 ⇒ (x − 1)R1 (x) p(x) = (x − 1)(x6 + 2x5 + 3x4 + 4x3 + . . . ) b2 = −1 p(x) = (x − 1)(x + 1)(x5 + x4 + 2x3 + . . . ) .. . p(x) = (x − 1)(x + 1)2 (x2 + 1)2 Satz 3: Identität von Polynomen gegeben: p(x) = n X ak x k q(x) = k=0 m X bk xk k=0 ∀ x ∈ R : p(x) = q(x) ⇒ ∀ k ∈ N : ak = bk ; n = m Grundlage für Koeffizientenvergleich. Gebrochen rationale Funktion Definition: i) Eine Funktion f (x) = p(x) q(x) (p,q-Polynome) ii) Falls grad p(x) < grad q(x) ⇒ echt gebrochen rational iii) Jede gebrochen rationale Funktion lässt sich schreiben als f (x) = p̃(x) + q(x) Satz 4: Partialbruchzerlegung (PBZ) Beispiel: 2x 1 1 = + x2 − 1 x+1 x−1 f (x) = p(x) q(x) echt gebrochen rational. Nennerfaktorisierung: q(x) = a(x − b1 )r1 . . . (x − bk )rk ∗ (x2 + c1 x + d1 )s1 . . . (x2 + c2 x + dl )sl 9 Dann lässt sich f (x) darstellen als Summe von: 1. Nullstelle: A1 A2 Ar 1 + + ··· + x − b1 x − b2 (x − b1 )r1 dito 2.,3. Nullstelle: B1 B2 Br1 + + ··· + x − b1 x − b2 (x − b2 )r2 Unzerlegbare quadratische Terme: C1 x + D 1 C2 x + D 2 C1 x + D 1 s + + . . . x2 + c1 x + d1 x2 + c2 x + d2 x2 + c1 x + d1 1 Danach lassen sich die Ai, Ci, Di durch Koeffizientenvergleich bestimmen. Beispiel: f (x) = 6x4 − 2x3 − 4x2 − 7x + 1 ⇒ PBZ möglich x5 − x4 − x2 + 1 1. Schritt: Zerlegung des Nenners q(x) = (x − 1)2 (x + 1)(x2 + x + 1) 2. Schritt: Partialbruchansatz f (x) = A1 A2 B1 C1 x + D p(x) + + + 2 = 2 (x − 1) (x − 1) x + 1 (x + x + 1) q(x) p(x) = A1 ∗(x−1)(x+1)(x2 +x+1)+A2 ∗(x+1)(x2 +x+1)+B2 ∗(x−1)2 (x2 +x+1)+(C1 x+D1 )(x1 )2 (x+1) Koeffizientenvergleich: p(x) = x4 (A1 + B1 + C1 ) + x3 (A1 + A2 − B1 . . . ) + x2 (. . . ) + x0 (. . . ) x4 : 6= A1 3 x : −2 = A1 +A2 x2 : −4 = 2A2 x : −7 = −A1 +2A2 1: 1 = −A1 +A2 +B1 +C1 −B1 −C1 −C1 −B1 +C1 +B1 +D1 −D1 −D1 +D1 A1 =2 A2 = − 1 B1 =3 C1 =1 D1 =1 ⇒ f (x) = 1 3 x+1 2 − + + 2 2 x − 1 (x − 1) x+1 x +x+1 2. Möglichkeit: Man kann in jeden Wert ∈ R einsetzen x = 1 : −6 = 2 ∗ 3 ∗ A2 ⇒ A2 = −1 10 x = −1 : 12 = 4 ∗ B1 ⇒ B1 = 3 x = 0 : 1 = −A1 + A2 + B1 + D1 = −A1 + 2 + D1 x = 2 : 51 = 21 ∗ A1 + 6 ∗ C1 + 3 ∗ B1 x = −2 : 3 = A1 + 2 ∗ C1 − D1 1.5 Potenz-, Wurzel-, Exponential- und Logarithmusfunktionen Was ist ab ? a 6= 0 i) a ∈ Rbel.b ∈ N+ , b > 0 ab = |a ∗ a ∗{za ∗ . .}. b-mal ii) Für a > 0, b = 1q q ∈ N : q ≥ 2 ⇒ aq |[a, ∞[ ist streng monoton wachsend ⇒ besitzt Umkehrfunktion aq := f −1 √ 1 9 = 9 2 ⇔ 32 = 9 1 a q = t ⇔ tq = a iii) Für a ≥ 0 : b = p q :p≥0 1 p p aq = aq iv) Für a ≥ 0 b irrational; b > 0 b lässt sich aus Folge rationaler Zahlen approximieren: b = lim bn n→∞ ⇒ Definition: für ab 1 1 a 1 + a x + a x2 + . . . v) Falls a 6= 0 definiert man für b < 0: ab := 1 1 = |b| a− b a zu berechnen nach i) - iv). Potenzgesetze a) (a ∗ b)α = aα ∗ bα b) a α b = 11 aα für b 6= 0 bα c) (aα )β = aα∗β d) aα ∗ aβ = aα+β Definition: f (x) = xα α ∈ R heisst Potenzfunktion. α = 1q , q ∈ N; q ≥ 2 heisst Wurzelfunktion. Exponentialfunktion Für alle a ∈ R+ fest, dann heisst: f (x) = ax Exponentialfunktion zur Basis a a = 1 → f (x) = 1x → trivial a ∈]0, 1[ lässt sich immer auf Basis > 1 zurückführen. ã := 1 ∈]1, ∞[ a 1 a= ã x 1 1 ax = = x = ã−x ã ã Voraussetzung: stets a > 1 Satz 6: Eigenschaften der Exponentialfunktion a > 1 fest, f (x) = ax i) D = R ii) f (0) = 1 iii) f (x) ist streng monoton wachsend ⇒ ∃ Umkehrfunktion f = a∗ f −1 (x) = loga (x) Satz 7: Eigenschaft der Logaritmusfunktion a, b > 1 x, y ∈ R+ t∈R i) loga (ax ) = x ∀ x ∈ R+ a ∗ loga x = x loga 1 = 0 12 ii) loga (x ∗ y) = loga x + loga y x loga = loga x − loga y y loga xt = t ∗ loga x iii) Basiswechsel loga x = logb x loga b logb x = z ⇒ x = bz loga x = y ⇒ x = ay bz = ay loga bz = loga ay z ∗ loga b = y z und y einsetzen: logb x ∗ loga b = loga x ⇔ logb x = 1 ∗ loga x = loga b k |{z} ∗ loga x Konstante Bedeutung: Jeder Logarithmus kann durch einen bekannten Logarithmus ausgedrückt werden, z.B.: ln x logb x = ln b lg x logb x = lg b Geometrische Interpretation: Umskalierung der y-Achse. Analog gilt die Basistransformation für die Exponentialfunktion, z.B.: x ax = eln a = ex∗ln a Hyperbolische Funktionen: Definition: Kosinus-Hyperbolicus (Def.-Bereich: R) 1 cosh x := (ex + e−x ) 2 1 sinh x := (ex − e−x ) 2 Eigenschaften: 13 (i) cosh(0) = 1 sinh(0) = 0 (ii) cosh ist eine gerade Funktion, denn 1 1 cosh(−x) = (e−x + e−(−x) ) = (ex + e−x ) = cosh(x) 2 2 sinh ist eine ungerade Funktion ⇒ f (−x) = −f (x) (iii) cosh2 x − sinh2 x = 1 (iv) ⇒ cosh2 x ≥ 1 ⇒ | cosh2 | ≥ 1 Wertebereich cosh : [1; ∞[ (v) sinh ist streng monoton wachsend, denn x1 < x2 ⇒ ex1 < ex2 −x1 > −x2 ⇒ e−x1 (1) > e−x2 ⇒ −e−x1 < −e−x2 (2) ex1 − e−x1 < ex2 − e−x2 1 x1 1 (e − e−x1 ) < (ex2 − e−x2 ) 2 2 | {z } | {z } sinh x1 (1)+(2) sinh x2 (vi) Also ∃ Umkehrfunktion sinh−1 x, die auf den Wertebereich von sinh x definiert ist. Herleitung von sinh−1 x: 1 y = sinh xy = (ex − e−x ) 2 2y = ex − e−x Substitution: u = ex > 0 (wichtig!) 2y = u − 1 u = u2 −1 u u2 − 2yu − 1 = 0 p u1,2 = y ± y 2 + 1 | {z } >0 u2 ist stets negativ. Wegen eindeutiger Auflösung deshalb u1 p p u1 = y + y 2 + 1 = ex ⇒ ln(y + y 2 + 1) = x Umkehrfunktion von y = sinh x : √ arsinh x = ln(x + x2 + 1) Area-Sinus-Hyperbolicus Analog: 14 cosh |[0, ∞[ ist streng monoton wachsend ∃ cosh−1 x arcosh x = ln(x + √ x2 − 1) Daraus abgeleitet: tanh x := sinh x cosh x , überall definiert, ungerade, beschränkt Anwendungsbeispiele: 1. ”Kettenkurve” 2. Freier Fall plus Luftwiderstand 15 1.6 Trigonometrische Funktionen und ihre Umkehrfunktionen Winkel im Grad- und Bogenmass: (Grafiken) Definition am Einheitskreis: 1. sin x, cos x definiert auf R Wertebereich [-1;1] 2. sin(x + 2π) = sin x cos(x + 2π) = cos x 3. Nullstellen sin x = 0 ⇐⇒ x = k ∗ π cos x = 0 ⇐⇒ x = π 2 +k∗π 4. sin(x + π) = − sin x cos(x + π) = − cos x 5. sin(−x) = − sin(x) ungerade cos(−x) = cos(x) 6. cos x = sin(x + π2 ) 7. sin2 x + cos2 x = 1 gerade (1. Graph) (Pythagoras am Einheitskreis) Definition: tan x = D = R\{ sin x cos x π + k ∗ π|k ∈ Z 2 Eigenschaften: 1. tan x ist ungerade 2. tan x = 0 ⇔ sin x = 0 sin(x+π) − sin(x) 3. tan(x + π) = cos(x+π) =− cos(x) = tan x ⇒ tan x ist π-periodisch ⇒ Man kann jede trigonometrische Funktion durch jede andere ausdrücken, unter Benutzung von: 16 a) sin2 x + cos2 x = 1 b) sin x cos x = tan x Additionstheoreme sin(x1 ± x2 ) = sin x1 ∗ cos x2 ± sin x2 ∗ cos x1 cos(x1 ± x2 ) = cos x1 ∗ cos x2 ∓ sin x1 ∗ sin x2 Daraus lässt sich ableiten: sin(2x) = 2 sin x ∗ cos x usw. → siehe Formelsammlung Frage: ∃ Umkehrfunktion von sin x, cos x und tan x? Da wegen Periodizität nicht injektiv, können auf dem Definitionsbereich keine Umkehrfunktionen existieren. Aber sin |[− π2 ; π2 ] ist streng monoton wachsend und nimmt alle Werte [-1;1] an. (bijektiv) π π ⇒ sin−1 x : |arcsin D = [−1; 1]; W = [− ; ] {z x} 2 2 Arcus−Sinus Achtung bei folgender Frage: Gesucht sind alle x ∈ R mit sin x = c, c ∈ [−1; 1] fest, gegeben: Analog: cos x ! 2 Lineare Gleichungssysteme, Matrizen, Determinaten 2.1 Der n-dimensionale Vektorraum Rn Was ist Rn ? n = 2: Seien M,N beliebige Mengen. Dann ist M×N die Produktmenge = Menge aller geordneten Paare (x, y) z.B.: Graph von f = {(m, n) ∈ M × N | n = f (m)} anschaulich: Punkte aus der Ebene, die durch die x- und y-Achse aufgespannt wird. Rn ⇒ Verallgemeinerung auf n Dimensionen. Vektoren: anschaulich: ”Pfeile” Alle Pfeile, die durch Parallelverschiebung in der Ebene (Raum) ineinander überführt werden können, stellen den selben Wert dar. 17 Vektoren, deren Anfangspunkt in (0,0) liegen heissen Urspurngsvektoren: Darstellung: ~a = (a1 , a2 , a3 , ...) mit den verallgemeinerten Achsenindizes ”1”(= x-Achse), ”2”(= y-Achse) usw. Addition: ~c = ~a + ~b = (a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 + b2 ) Komponentenweise Addition in R. Dito Subtraktion: ~c = ~a − ~b = ~a + (−~b) = (a1 − b1 , a2 − b2 ) Anmerkung: - Ursprungsvektoren zeigen auf Punkte in der Ebene (Raum) - Vektoren im Raum sind gegeben durch die Differenz der Koordinaten ihrer Zielund Anfangspunkte. Multiplikation: Für λ ∈ R : λ(a1 , a2 , ...) := (λa1 , λa2 , ...) komponentenweise Multiplikation. Satz 1: ~a, ~b, ~c ∈ Rn λ, µ ∈ R Dann gilt: (i) ~a + (~b + ~c) = (~a + ~b) + ~c (ii) ~a + ~b = ~b + ~a (iii) Neutrales Element der Addition ∃ ~n ∈ Rn mit ~a + ~n = ~a ∀ ~a ∈ Rn nämlich~0 = (0, 0, 0, . . . ) (iv) Zu jedem ~a = (a1 , a2 , . . . )∃ ein n-Tupel ~ã mit ~a+~ã = ~0, nämlich ~ã = (−a1 , −a2 , . . . ) = −~a (v) λ(µ~a) = (λµ)~a = µ(λ~a) (vi) (λ + µ)~a = λ~a + µ~a | {z } | {z } in Rn in R (vii) λ(~a + ~b) = λ~a + λ~b (viii) 1 ∗ ~a = ~a Jede Menge V, die obige acht Bedingungen erfüllt, heisst ein Vektorraum über R. Seine Elemente heissen Vektoren. (Auch die Menge aller Polynome bildet einen Vektorraum.) 18 Bemerkung: Aus λ~a = ~0 folgt λ = 0 ∨ ~a = 0 Definition: Es sei U eine Teilmenge des Vektorraumes V. U heisst ein Unterraum in V, wenn gilt: 1. U 6= { } 2. ∀~a, ~b ∈ U : ~a + ~b ∈ U 3. λ ∈ R, ∀~a ∈ U : λ~a ∈ U Beispiel für Unterräume: V = Rn Behauptung: U := {(x1 , x2 , . . . , xn ) ∈ Rn |x1 = 0} ist Untervektorraum von V, denn: 1. U 6= {}, denn (|{z} 0 , 0, 0, . . . , 0) ∈ U x1 2. ~a, ~b ∈ U beliebig, d.h. ~a = (a1 , a2 , a3 , . . . , an ), ~b = (b1 , b2 , b3 , . . . , bn ) ~a + ~b = (0| {z + 0}, a2 + b2 , a3 + b3 , . . . , an + bn ) ∈ U x1 Anmerkung: Wäre gefordert worden x1 = ”konstant”, wäre (2) wieder erfüllbar. 3. λ ∈ R beliebig, ~a = (0, a2 , a3 , . . . , an ) ∈ U beliebig, λ~a = (|{z} λ0 , λa2 , λa3 , . . . , λan ) ∈ U x1 =0 Basis des Vektorraumes z.B.: R2 ~a = λ~u + µ~v (~a = λ~u + µ~v + w ~ mitR3 Koordinatensystem: Beliebige Vektoren ~u und ~v zusammen mit einem Ursprungspunkt (0,0) bilden ein affines Koordinatensystem wenn ~u 6= ~0, ~v 6= ~0 und sie nicht linear abhängig (”parallel”) sind. Dann heissen ~u und ~v Basisvektoren. Definition linear (un-)abhängigkeit: Es seien v~1 , . . . , v~n Vektoren eines Vektorraumes. (i) v~1 , . . . , v~n heissen linear unabhängig, wenn gilt: eine Linearkombination λ1 v~1 + λ2 v~2 + . . . + λn v~n = n X i=1 19 λi v~i ergibt dann ~0, wenn alle λi = 0 ∀ λi , . . . , λn ∈ R : [λ1 v~1 + . . . + λn v~n = ~0 ⇒ λ1 = λ2 = . . . = λn = 0 Andernfalls heissen die Vektoren linear abhängig. (ii) v~1 , . . . , v~n heisst Basis eines Unterraumes U ⇔ [v~1 , . . . , v~n ] | {z } = U, v~1 , . . . , v~n M engeallerLinearkombinationen sind linear unabhängig. (Eine Basis ist die grösste Anzahl linear unabhängiger Vektoren in U) (iii) Ist v~1 , . . . , v~n eine Basis in U, dann hat U die Dimension n. dim U = n = Anzahl der benötigten Basiselemente Bemerkung: Sind v~2 und v~2 linear abhängig (”parallel”), z.B. v~2 = 2∗ v~1 , dann kann man ~0 auch durch λ1 = 1, λ2 = − 12 , λ3 = λ4 = . . . = 0 erhalten. Im Widerspruch zu (i). Ist v~1 = ~0, dann sind die v~i linear abhängig, denn 1 ∗ v~1 + 0 ∗ v~2 + . . . = 0 | {z } | {z } =~0 =~0 Karthesisches Koordinatensystem: Spezielle Wahl der Basisvektoren: |~ ei | = 1 e~i ⊥ e~j , i 6= j e~1 = (1, 0, 0, . . . , 0, 0) e~2 = (0, 1, 0, . . . , 0, 0) .. . e~n = (0, 0, 0, . . . , 0, 1) dim Rn = n Jeder Vektor ~x = (x1 , x2 , x3 , . . . , xn ) lässt sich aus e~1 , . . . , e~n erzeugen. Insbesondere sind die affinen Basisvektoren in R2 (siehe oben): u1 ~u = u~1 ∗ e~1 + u~2 ∗ e~2 = u2 ~v = v~1 ∗ e~1 + v~2 ∗ e~2 = v1 v2 z.B. allgemeiner Vektor ~a: ~ a = λ~ u + µ~ v u1 v1 Darstellung in affinen Koordinaten =λ +µ u2 v2 20 = (λu~1 + µv~1 ) ∗e~1 + (λu~2 + λv~2 ) ∗e~2 | | {z } {z } = a1 = a2 0 1 + a2 = a1 0 1 a1 = a2 Darstellung in karthesischen Koord. 2.2 Das Gauss’sche Eliminationsverfahren Beispiel: lineares Gleichungssystem 1. Schritt: (2) + 3 5 (1); (3) − (1) 5x1 + 2x2 − 2x3 = −3 (2) − 3x1 + x2 + x3 = 8 (3) x1 − 4x2 + 2x3 = −9 1 5 (1) 5x1 + 2x2 − 2x3 = −3 (1) 1 31 11 x2 − x3 = 5 5 5 22 12 42 0 − x2 + x3 = − 5 5 5 (2) 0+ (3) Zwischenschritt: (2) ∗ 5; (3) ∗ 5 5x1 + 2x2 − 2x3 = −3 (1) (2) 0 + 11x2 − x3 = 31 (3) 0 − 22x2 + 12x3 = −42 (1) 5x1 + 2x2 − 2x3 = −3 2. Schritt: (3) + 2 ∗ (2) (2) 0 + 11x2 − x3 = 31 (3) 0 + 0 + 10x3 = 20 3. Schritt: Rückwärtselimination (3) (3) in (2) (3)&(2) in (1) 10x3 = 20 ⇒ x3 = 2 33 ⇒ x2 = 3 11 5x1 + 2 ∗ 3 − 2 ∗ 2 = −3 ⇒= x1 = 1 11x2 − 2 = 31 ⇒ x2 = Definition: Seien x1 , . . . , xn Variablen (Unbekannte) ∈ R und aij , bi bekannte reelle Konstanten. 21 (i) Eine Gliederung der Gestalt a1 x1 + a2 x2 + · · · + an xn = b heisst linear. (ii) m lineare Gleichungen (m nicht unbedingt = n): a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .. . am1 x1 + am2 x2 + · · · + amn xn = bm die alle gleichzeitig erfüllt sein müssen, nennt man das lineare Gleichungssystem der Grösse (m, n) m - Anzahl der Gleichungen n - Anzahl der Unbekannten (iii) Ist m = n, so heisst das System quadratisch (iv) Die Konstanten aij heissen die Koeffizienten des Systems: i = 1 . . . m Nummer der Gleichung j = 1 . . . n Nummer der Variable (v) Die bi heissen rechte Seite des Systems oder Störglieder. (vi) Ein lineares Gleichungssystem heisst homogen ⇔ alle bi = 0, andernfalls inhomogen. Matrix-Schreibweise des linearen Gleichungssystems (LGS) Definition: Die Anordung der Koeffizienten aij eines LGS in der Form a11 . . . a1n .. .. = A .. . . . am1 . . . amn heisst Koeffizienten-Matrix des LGS. Fasst man die bi (rechte Seite) und auf: b1 b2 ~b = .. . xi (Variablen) als Komponenten zweier Vektoren x1 x2 und ~x = .. . bn xn Dann lässt sich das LGS schreiben als: a11 . . . a1n x1 .. .. .. = .. . . . . am1 . . . amn xn 22 b1 .. . bm oder kurz: A~x = ~b Fortsetzung folgt . . . Zurück zum Gauss’schen Eliminationsverfahren. Vereinfachte Schreibweise durch die erweiterte Koeffizientenmatrix: obiges Beispiel: 5 2 −2 −3 −3 8 1 1 1 −4 2 −9 Die xi brauchen nicht jedes mal mit angeschrieben werden! Durch identische Umformung in den Schritten 1. Schritt: 5 2 −2 −3 0 11 −1 31 0 −22 12 −42 2. Schritt: 5 2 −2 −3 0 11 −1 31 0 0 10 20 wurde die Staffelform erreicht, die sich besonders gut zur Lösung des Systems eignet. Schwierigkeiten bei der Lösung des LGS (i) Beim Lösungsweg: 3 3 1 −2 24 10 −13 25 −6 −4 1 −7 1. Schritt: (2) − 8 ∗ (1); (3) + 2 ∗ (1) 3 1 −2 3 0 2 3 1 (2) und (3) sind linear abhängig! 0 −2 −3 −1 2. Schritt: (3) + (2) 3 1 −2 3 0 2 3 1 ⇒ x3 = λ 0 0 0 0 (3) bedeutet: 0x1 + 0x2 + 0x3 = 0; immer erfüllt, kann weg weggelassen werden. ⇒ x3 = λ 23 λ∈R Rückwärtselimination: 1 2x2 + 3λ = 1 ⇒ x2 = (1 − 3λ) 2 in (1): 1 5 7 3x1 + (1 − 3λ) − 2λ = 3 ⇒ x1 = + λ 2 6 6 Lösungsvektor: (x1 , x2 , x3 ) = 7 3 5 1 , ,0 + λ ,− ,1 6 2 6 2 Parameterdarstellung einer Geraden im R3 (ii) Pleite Nr. 2: wie oben, ausser letzte Gleichung: 3 3 1 −2 0 2 3 1 bei (3): ”-2” statt ”-1” 0 −2 −3 −2 3 3 1 −2 0 2 3 1 0 0 0 −1 (3) bedeutet: 0x1 + 0x2 + 0x3 = −1 ⇒ LGS nicht lösbar! Beispiel: 3 1 −1 3 −1 2 2 −2 3 4 −1 5 2 −1 11 a 1. Schritt: (2) + (1); (3) − 3 ∗ (1); (4) − 2 ∗ (1) 1 −1 3 3 0 1 5 1 0 7 −10 −4 0 1 5 a−6 2. Schritt: (3) − 7 ∗ (2); (4) − (2) 1 −1 3 3 0 1 5 −2 0 0 −45 11 0 0 0 a−7 1. a = 7 ⇒ Parameter 2. a = 0 ⇒ 0x1 + 0x2 + 0x3 = −7 ⇒ LGS ist nicht lösbar! 24 (iii) Nicht - quadratische Systeme m < n der Unbekannten): Staffelform: x x 0 x 0 0 0 0 (Zahl der Gleichungen kleiner als die Zahl x x x 0 x x x x x x x x x x x x ⇒ letzte Zeile ist nie eindeutig lösbar. ⇒ oder das System ist generel unlösbar. (iv) dito mit m > n x 0 0 0 x x 0 0 x x x x x x x x ⇒ m − n redundante Gleichungen können weggelassen werden oder System ist unlösbar, wenn sich Gleichungen wiedersprechen. Frage: Wie erkennt man möglichst früh, ob ein LGS lösbar ist? Definition: Man nennt die Anzahl der Zeilen, die in der Staffelform der Matrix keine Nullzeile sind, den Rang der Matrix. rg A, bzw. rg Aerw Systematik: Anzahl der Unbekannten n =?: rg A rg Aerw Lösbarkeit 3 3 eindeutig 2 2 mehrdeutig (1 Parameter) Bemerkung: 1 1 mehrdeutig (2 Parameter) 2 3 keine Lösung 1. Der Rang einer Matrix ist ≤ Anzahl der Zeilen 2. Der Rang einer Matrix ist ≤ Anzahl der Spalten 3. A11 . . . A1n .. = .. A = ... . . Am1 . . . Amn z1 .. z = Zeile i von A . i zm Eine Matrix besteht aus m Zeilen, jede Zeile ist ein Vektor aus Rn . Definition: [z , z , . . . , zn ] | 1 2 {z } ist ein Unterraum des Rn . Durch M engeallerKombinationenausdenZeilen elementare Zeichenoperationen, die man zur Erzeugung der Staffelform braucht, 25 verändert man diesen Unterraum nicht. z1 .. ⇒A= . ⇔S= zm z10 z20 zr0 .. . r = rg A 0 [z1 , z2 , . . . , zm ] = [z10 , z20 , . . . , zr0 ] Aber die Zeilen der Staffelform S sind linear konstant, denn zu zeigen: λ1 z10 + λ2 z20 + · · · + λr zr0 = (0, 0, . . . , 0) ⇔ λi = 0 ∀i|1 ≤ i ≤ r z10 = (x, 0, . . . ) x 6= 0 z20 = (0, x, . . . ) .. . zr0 = (0, . . . , 0, x, . . . ) Dimension m λ1 (x, 0, . . . ) + λ2 (0, x, . . . ) + · · · + λr (0, . . . , x, . . . ) = (0, . . . , 0) 26 2.3 Matrizen Definition: (i) Ein rechteckiges Schema (reeller Zahlen) a11 . . . am1 .. i → ... . am1 . . . amn aus m Zeilen und n Spalten heisst (reelle) (m, n)-Matrix. Schreibweise: A = (aij ) B = (bij ) i = 1, . . . , m Zeilenindex j = 1, . . . , n Spaltenindex (ii) Ist m = 1, so heisst die Matrix ”Zeilenvektor”: (a , . . . , an ) 1 , a2 a1 a2 Ist n = 1, so heisst die Matrix ”Spaltenvektor”: . .. am (iii) Ist m = n, so heisst die Matrix quadratisch. Die Elemente der Form aij bilden die Hauptdiagonale: a11 a12 . . . a1n a21 a22 . . . a2n .. .. . . . . . am1 am2 . . . amn (iv) Zwei Matrizen A = (aij ) und B = (bij ) sind gleich ⇔ 1. Sie sind vom gleichen Typ 2. ∀i, j : aij = bij (v) Sei A eine (m, n)-Matrix: Durch die Vorschrift bij = aij Matrix B = AT Beispiel: 1 A = −1 0 erhält man die Matrix B, die zu A transponierte 2 2 5 7 T 5 →B=A = 1 −1 0 7 Definition: 27 (i) Eine Matrix heisst symmetrisch ⇔ A = AT aij = aij ∀i, j (ii) Eine Matrix heisst schiefsymmetrisch ⇔ A = −AT aij = aij ; insbesondere für j = i : aij = −aji = 0 ⇒ HauptdiagonalebestehtnurausN ullen (iii) Eine Matrix heisst untere bzw. obere Dreiecksmatrix ⇔ aij = 0 für i < j bzw. i>j (iv) A heisst Diagonalmatrix ⇔ aij = 0 für i 6= j Beispiel: 0 1 0 1 4 6 2 1 5 1 3 −1 1 0 −2 0 −2 7 0 2 0 0 0 3 5 −1 0 {z }| {z } | {z } | symmetrisch schief obereDreiecksmatrix Rechnen mit Matrizen Es seien A, B (m, n)-Matrizen vom gleichen Typ, λ ∈ R (i) C = A + B mit cij = aij + bij (ii) D = λ ∗ A mit dij = λaij Beide Operationen erfolgen Komponentenweise. Satz 2 Es bezeichnen Mm,n die Menge aller (m, n)-Matrizen mit reellen Einträgen. Dann ist Mm,n (R) ein Vektorraum über R. Es gilt aber (vgl. Satz 1) für beliebige Matrizen A, B, C ∈ Mm,n (R), λ, µ ∈ R (i) A + (B + C) = (A + B) + C (ii) A + B = B + A 0 ... 0 .. , die sogenannte (iii) Es gibt eine Matrix N mit A + N = A, nämlich N = ... . 0 ... 0 Nullmatrix (neutrales Element der Addition) (iv) Zu jedem A gibt es eine à ∈ Mm,n (R) mit A + à = N , nämlich à = −1 ∗ A (v) λ(µA) = (λµ)A (vi) (λ + µ)A = λA + µA (vii) λ(A + B) = λA + λB 28 (viii) 1 ∗ A = A Bemerkung: dim(Mm,n (R)) = m ∗ n, denn man erhält eine Basis, in dem man in der Nullmatrix jeweils jede Stelle 1 setzt und alle andere beibehält (= 0). Matrizen verhalten sich bei der Addition wie Zahlen! Multiplikation Es sei A eine (m, n)-Matrix, B eine (n, k)-Matrix. Das Produkt C = A ∗ B ist eine (m, k)-Matrix, deren Einträge cij sich folgendermassen ergeben: cij = x X ail ∗ blj l=1 a11 a21 .. . ai1 .. . am1 ... ... ... a1j a2j .. . aij .. . . . . amj a1n b11 b21 a2n .. .. . . . . . ain bi1 .. .. . . . . . amn bm1 ... ... ... ... ... b1j b2j .. . bij .. . . . . bmj b1n b2n .. .. . . = . . . cij . . . bin .. .. . . . . . bmn ... ... . . . cij = ai1 + bij + ai2 + · · · + ain ∗ bnj Beispiel: 1 0 1 1 1 3 12 3 2 3 1 −2 1 3 0 = 0 5 17 2 0 5 2 5 0 1 1 c22 = 0 ∗ 0 + 5 ∗ 1 + 2 ∗ 0 = 5 c13 = 2 ∗ 1 + 3 ∗ 3 + 1 ∗ 1 = 12 Bei der Matrizenmulitplikation ergeben sich, im Vergleich, zum Rechnen mit Zahlen ein paar Besonderheiten: (i) −2 3 1 3 1 1 0 0 0 1 ⇒ A ∗ B = 0 0 0 ⇒ N A = 6 −9 −3 B = 2 0 4 −6 −2 0 2 −1 0 0 0 Es kann sein A ∗ B = N , obwohl A 6= 0 und B 6= 0! (ii) 4 −6 −2 0 0 6= A ∗ B B ∗ A = 0 8 −12 −4 Die Matrizenmultiplikation ist im Normalfall nicht kommutativ! 29 (iii) fehlt leider! (iv) fehlt leider! Definition: 1 0 0 Die quadratische Matrix 0 1 0 heisst Einheitsmatrix E, bzw. En und wird mit I 0 0 1 bzw. In bezeichnet. Die Elemente eij von E sind gegeben durch: 1, falls i = j eij = 0, falls i 6= j Für En gilt: A ∗ En = A für jedes beliebige A ∈ Mm,n (R) und En ∗ B = B für jedes beliebige B ∈ Mm,n (R) Begründung: Es sei C = A ∗ En , dann gilt: cij = n X aij ∗ l=1 elj = aij ∗ 1 ⇒ C = A |{z} 1 nur für l=j Analog: En ∗ B = B E ist das neutrale Element der Matrizen-Multiplikation. F = B T ∗ AT B T = (b0ij ) AT = (a0ij ) ⇒ b0ij = bji a0ij = aji Nach Matrixmultiplikation: bij = n X b0il ∗ a0lj = l=1 n X l=1 bli ∗ ajl = n X ail ∗ bli l=1 ⇒ dij = fij ⇒ D = F ⇒ (A ∗ B)T = B T ∗ AT Folgende Regeln gelten bei Matrizen im Allgemeinen nicht: (i) a ∗ b = b ∗ a (ii) a2 = 0 ⇒ a = 0 (iii) a ∗ b = 0 ⇒ a = 0 oder b = 0 (iv) a ∗ b = a ∗ c ⇒ a = 0 oder b = c 30 (v) a2 = c ⇒ a = 0 oder a = 1 (vi) a2 = 1 ⇒ a = 1 oder a = −1 Frage: Gegeben sei eine quadratische Matrix A 6= N Gibt es eine Matrix B mit A ∗ B = E? Beispiele: (i) 1 −1 x1 x2 A= B= 1 1 x3 x4 x1 − x2 x3 − x4 1 0 A∗B = =E= x1 + x2 x3 + x4 0 1 4 Gleichungen für 4 Unbekannte x1 − x2 x1 + x2 x3 − x4 x3 + x4 =1 =0 =0 =1 ⇒ 2 LGSe der Grösse (2, 2) Die Koeffizientenmatrix beider Systeme sind gleich: 1 −1 und zwar A. Es ist 1 1 rg A = 2, aber maximal ⇒ eindeutig lösbar. x1 = 12 x2 = − 12 x3 = 12 x4 = 12 1 1 1 1 1 2 2 = ⇒B= − 12 12 2 −1 1 B erfüllt die Forderung A * B = E Probe: 1 1 1 2 0 1 1 −1 1 −1 1 1 2 2 ∗ = = =E A∗B = 1 1 − 12 12 1 −1 1 2 1 2 0 2 Ist B ∗ A = E? (Ja) (ii) 1 1 x1 x2 A= B= 1 1 x3 x4 x1 + x2 = 1 x1 + x2 = 0 A∗B =E ⇒ unlösbar x3 + x4 = 0 x3 + x4 = 1 31 Definition: Es sei A eine quadratische Matrix (i) Eine Matrix B mit A ∗ B = E heisst die zu A inverse Matrix. (ii) Besitzt A eine inverse Matrix, so heisst A regulär oder invertierbar. Bemerkung: (i) Man kann zeigen, dass, falls B existiert, diese eindeutig bestimmt ist. Man schreibt für die inverse Matrix von A B = A−1 (ii) Falls A ∗ B = E ⇒ B ∗ A = E Also gilt: A regulär ⇒ A ∗ A−1 = A−1 ∗ A = E Satz 4 Es sei A eine (m, n)-Matrix. Dann gilt: A ist regulär ⇔ rg A = n (maximal) Beweis: Wir haben zum Test der Invertierbarkeit von A n LGSe als Grösse (n, n) mit Koeffizientenmatrix A aufgestellt und auf Lösbarkeit untersucht. a11 . . . a1n x11 . . . x1n .. B = .. .. A = ... . . . am1 . . . amn xm1 . . . xmn [Alles vom Montag 29.03.2010] Verfahren zur Bestimmung der inversen Matrix: a11 . . . a1n .. eine (n, n) - Matrix. Es sei A = ... . an1 . . . ann Definition bestimmter Elementarmatrizen und Untersuchung der Multiplikationswirkung auf A: 1. k ∈ {1, 2, . . . , n}, λ ∈ R fest 1 0 1 λ Mk = .. . λ .. . 1 0 1 32 Linksmultiplikation: 1 0 .. λ Mk ∗ A = a11 . . . a1n . .. . . . a . . . a m1 nn . λ .. 0 . 1 a11 a21 .. . a12 a22 .. . ... ... a1n a2n .. . λak1 λak2 . . . λakn .. .. .. . . . an1 an2 . . . ann ⇒ Multiplikation mit Mkλ von links bewirkt, dass alle Elemente der k. Zeile mit λ multipliziert werden. 2. i, j ∈ {1, 2, . . . , n} mit i 6= j fest Vij ergibt sich aus der Einheitsmatrix durch Vertauschen 1 0 0 0 0 1 0 0 ... 0 0 1 0 . . . 0 0 0 1 0 0 1 0 0 0 1 0 E= V = ij .. 0 0 0 .. . . 0 . .. 0 1 0 der i. und j. Zeilen: 0 1 0 0 0 0 1 0 .. . ⇒ Multiplikation mit ij von links bewirkt Zeilentausch ⇒ Multiplikation mit ij von rechts bewirkt Spaltentausch 3. 1 0 Sij = 0 .. . 0 0 ... 1 0 ... 0 1 0 .. . 1 0 1 0 Sij ∗ A = 0 .. . 0 0 ... 1 0 ... 0 1 0 .. . 1 0 33 0 0 0 0 1 0 0 a11 . . . a1n . .. 0 ∗ .. . 0 an1 . . . ann 1 1 a11 ... ... .. . = aj1 + ai1 aj2 + ai2 . . . .. . an1 ... ... a1n .. . ajn + ain .. . ann Multiplikation mit Sij von links bewirkt Addition der j. Zeile in die i. Zeile. Damit sind alle elementaren Zeilenoperationen auf Multiplikation mit einer der Elementarmatrizen Mkλ , Vij , Sij zurückgeführt. ⇒ Das Gauss’sche Eliminationsverfahren ist darstellbar durch eine endliche Folge von Matrizenmultiplikationen von links. (Zur Erinnerung: Ziel ist die Inverse zu A!) Zur Prüfung der Existenz einer Inversen Matrix A−1 soll rg A bestimmt werden. Dazu Überführung von A in die Staffelform (Dreiecksmatrix D): 0k ∗ 0k−1 ∗ · · · ∗ 01 A = D 0i = Elementarmatrix Falls D schematisch so aussieht, existiert A−1 : D= D lässt sich nun durch eine weitere Folge von Element[...] in die Einheitsmatrix überführen: → → E = 0k+r ∗ · · · ∗ 0k+1 D = (0k+r . . . 0k+1 )(0k . . . 01 A) Beispiel: 3 1 0 1 0 3 0 1 1 0 0 0 1 0 1 0 1 0 0 0 1 0 1 0 1 0 1 0 0 0 1 0 1 1 0 0 34 =E 1 0 0 1 0 0 1 0 0 0 1 0 1 0 1 0 0 0 1 0 −2 1 −3 0 0 1 0 1 0 0 0 1 1 0 1 0 1 − 2 − 23 0 1 1 0 0 2 −2 0 1 0 0 0 1 1 3 0 1 −2 2 0 Satz 5: Es seien A, B reguläre (n, n) - Matrizen, λ ∈ R+ Dann gilt: (i) (A−1 )−1 = A (ii) (AT )−1 = (A−1 )T (iii) (Am )−1 = (A−1 )m (iv) (A ∗ B)−1 = B −1 ∗ A−1 (v) (λ ∗ A)−1 = 1 λ ∗ A−1 Beweis: (i). . . (v) haben stets die Gestalt x−1 = y zu zeigen also: y ist die Inverse von x: x ∗ y = E (i) A−1 ∗ A = A ∗ A−1 = E (ii) AT ∗ (A−1 )T = (A−1 ∗ A)T = E T = E (iii) Am ∗ (A−1 )m = (A ∗ A ∗ · · · ∗ A) (A−1 ∗ A−1 ∗ · · · ∗ A−1 ) = | {z }| {z } m-mal m-mal (A ∗ A ∗ · · · ∗ A) (A ∗ A−1 ) (A−1 ∗ A−1 ∗ · · · ∗ A−1 ) = | {z } | {z } | {z } =E (m−1)-mal (m−1)-mal A ∗ A−1 = E (iv) (A ∗ B)(B −1 ∗ A−1 ) = A ∗ (B ∗ B −1 ) ∗ A−1 = A ∗ A−1 = E (v) (λA)( λ1 ∗ A−1 ) = (λ ∗ λ1 )(A ∗ A−1 ) = 1 ∗ E = E 2.4 Determinanten Wiederholung: Wann ist das (2, 2)-LGS ax1 + bx2 = e cx1 + dx2 = f 35 a b eindeutig lösbar? ⇔ wenn rg =2 c d 4 Fälle: 1. c 6= 0, a 6= 0 a b c d ac bc ca da ac bc 0 ad − bc 2. c = 0, a 6= 0 a b 0 d 3. c 6= 0, a = 0 c d 0 b → 0 b c d 4. c = 0, a = 0 0 b 0 d rg A = 2 ⇔ ad − bc 6= 0. | {z } maximaler Rang ⇒ stets eindeutig lösbares LGS ⇒ Die Zahl ad − bc gibt Auskunft über die Lösbarkeit. bzw. ob A maximalen Rang hat bzw. ob A regulär (invertierbar) ist. Damit gilt Definition: Gegeben sei die (2, 2) - Matrix: A= a11 a12 a21 a22 Dann heisst die Zahl a11 ∗ a22 − a12 ∗ a21 die Determinate von A und wird mit a11 a12 = |A| det A = a21 a22 bezeichnet. 36 Wie lässt sich dieser Begriff für grössere n=3 a11 A = a21 a31 n verallgemeinern? a12 a13 a22 a23 a32 a33 Der Ausdruck D = a11 (a22 ∗ a33 − a23 ∗ a32 ) −a12 (a21 ∗ a33 − a23 ∗ a31 ) +a13 (a21 ∗ a32 − a22 ∗ a31 ) | | | {z } {z } {z } =det U11 =det U12 =det U13 spielt die gleiche Rolle wie oben, d.h. rg A = 3 ⇔ D 6= 0. Also (Bildungsregel): D = a11 ∗ det U11 − a12 ∗ det U12 + a13 ∗ det U13 = 3 X (−1)1+k a1k det U1k k=1 Wörtlich erweiterbar auf n > 3. Definition: Es sei A eine (n, n) - Matrix (n > 3) (i) Für festes i, j ∈ {1, . . . , n} bezeichne Uij diejenige Untermatrix, die durch Streichung der i. Zeile und j. Spalte entsteht. ((n − 1, n − 1) − Matrix) (ii) Man definiert die Determinante von A durch det A = 3 X (−1)1+k a1k det U1k für n ≤ 3 k=1 det A = a11 ∗ a22 − a12 ∗ a21 für = 2 Bemerkung: (i) det Mn,n (R) → R Funktion von quadratischen, reellen Matrizen nach R. (ii) Die Definition ist rekursiv. D.h. zur Berechnung der Grösse (n, n) benutzt man die Grösse (n − 1, n − 1) usw., bis (2, 2) Beispiel: 3 1 2 1 D = −4 2 4 0 0 4 0 3 1 6 2 −1 1 0 3 = 3 2 1 6 0 2 −1 2 0 3 −1 −4 1 6 4 2 −1 37 2 1 3 +0 −4 2 6 4 0 −1 2 1 0 −4 −4 2 1 4 0 2 det U11 1 6 = 1 2 −1 2 1 6 −0 2 0 −1 + 3 0 2 = 1(−1 − 12) + 3(4 − 0) = −13 + 12 = −1 −4 1 1 6 + 3 det U12 = 2 4 2 = 2(−1 − 12) + 3(−8 − 4) = −62 2 −1 −4 1 2 1 = 2(4 − 0) − 1(−8 − 4) = 20 − 1 det U14 = 2 4 2 0 2 D = 3(−1) − 1(−62) − 4(20) = −21 6= 0 Satz 7: det A = det A−1 ⇒ Man kann die Determinate auch nach jeder Spalte entwickeln. Bemerung: Beobachtung der Faktor (−1)i−k : ”Schachbrettartige” Verteilung der Vorzeichen beim Entwickeln: + − + − ... − + − + + − + − − + − + . . .. .. Beispiel: a) Entwickeln nach Zeile 4: 2 1 0 1 2 2 1 1 1 0 4 3 0 2 3 2 + 5 ∗ 4 3 0 −1 −1 1 1 = −2 ∗ 4 −1 −1 1 −1 −1 1 0 0 2 5 b) Entwickeln nach Spalte 2 1 4 3 −1 −1 0 0 3: 0 0 1 2 1 2 1 5 2 1 1 =1∗ 4 3 2 0 0 5 Satz 8: Multiplikationssatz Es seien A, B (n, n)-Matrizen. Dann gilt det(A ∗ B) = det(A) ∗ det(B) 38 2 1 1 −2∗ 4 3 2 −1 −1 1 Das gilt natürlich nicht für ” + ”! Entwicklungsregel für (3, 3)-Determinanten: a1 b1 c1 b c D = a2 b2 c2 = a1 ∗ 2 2 b3 c3 a3 b3 c3 a2 c2 a2 b2 − b1 ∗ a3 c3 + c1 a3 b3 = a1 (b2 c3 − c2 b3 ) − b1 (a2 c3 − c2 a3 ) + c1 (a2 b3 − b2 a3 ) a1 b2 c3 − a1 c2 b3 − b1 a2 c3 + b1 c2 a3 + c1 a2 b3 − c1 b2 a3 Die letzte Zeile führt auf folgendes Verfahren: a1 b1 c1 a1 b1 a2 b2 c2 a2 b2 a3 b3 c3 a3 b3 Das gilt aber nur für n = 2 und n = 3! Anwendung der Sätze auf bestimmte Matrizen: (i) Es sei A eine obere Dreiecksmatrix: a11 x a22 A= .. . 0 ann P Dann gilt: det A = a11 ∗ a22 ∗ · · · ∗ ann = ni=1 aii Beweis: a11 a22 det A = 0 a11 x a22 = a ∗ nn .. . 0 ann a11 a22 = ann ∗ an−1,n−1 ∗ 0 x .. x .. . an−2,n−2 a11 a12 = ann ∗ · · · ∗ a22 ∗ 0 a22 | {z } =a22 ∗a11 (−0∗a12 ) 39 . an−1,n−1 usw. (ii) Wegen det A = det AT gilt das auch für Dreiecksmatrizen. (iii) Auch für Diagonalmatrizen det A = n X aii i=1 Insbesondere det N = 0 und det E = 1 (iv) Falls A regulär ist, gilt: det(A ∗ A−1 ) = det E ⇒ det A ∗ det A−1 = 1 ⇒ falls det A 6= 0 : det A−1 = 1 det A Nun sollen die Determinanten der Elementarmatrizen berechnet werden: (v) 1 .. . λ λ det Mk = .. . 1 =λ (vi) det Vij = −1 z.B.: i = 2; j = 3 V23 1 0 0 = 0 0 1 0 1 0 =1∗ 0 1 1 0 = −1 (vii) 1 0 0 0 0 1 0 1 det Sij = .. . 1 = 1, da Dreiecksmatrix (v). . . (vii) beschreiben, wie sich die Determinanten bzw. elementaren Zeilenoperationen verhalten. Satz 9: Es sei A eine (n, n)-Matrix, A∗ sei die (n, n)-Matrix, die aus A durch eine elementare Zeilenoperation hervorgeht. Dann gilt: (i) Multiplikation der Zeile k mit λ ⇒ det A∗ = λ ∗ det A Insbesondere gilt: det λA∗ = λn ∗ det A (ii) Vertauschung der Zeile i und j ⇒ det A∗ = − det A 40 (iii) Addition einer Vielfachen 6= 0 der j. Zeile in die i. Zeile: det A∗ = det A Wegen det A = det AT gilt entsprechend auch für Spaltenoperationen. Beweis: (i) A∗ = Mkλ ∗ A det A∗ = det(Mkλ ∗ A) = det(Mkλ ) ∗ det A | {z } λ (ii) A∗ = Vij ∗ A det A∗ = det Vij ∗ det A | {z } −1 (iii) λ 6= 0 gegeben, dann: 1 A∗ = Mjλ ∗ Sij ∗ Miλ ∗ A 1 det A∗ = det Mjλ ∗ det Sij ∗ det Miλ ∗ det A | {z } | {z } | {z } 1 1 λ λ Wann ist eine Determinante = 0? Wenn (i) eine Zeile aus lauter Nullen besteht (ii) zwei Zeilen gleich sind (iii) eine Zeile eine Vielfache einer anderen Zeile ist (iv) wenn sich die k. Zeile aus λ(i. Zeile) + µ(j. Zeile) ergibt Alles gilt analog für die Spalten. Hauptsatz 2 Es sei A eine (n, n)-Matrix, dann sind folgenden Aussagen äquivalent: (i) rg A = n (maximal) (ii) A ist regulär ⇔ besitzt ein A−1 (iii) Jedes LGS mit A als Koeffizientenmatrix ist eindeutig lösbar - unabhängig von der rechten Seite. (iv) det A 6= 0 41 Bemerkung: Es wurde bereits bewiesen: A regulär ⇔ rg A = n ⇔ LGS eindeutig lösbar ⇔ det A 6= 0 Fehlt noch der Beweis: (iv) ⇔ (i) Die Aussage det A 6= 0 6= 0 ⇒ rg A = n (maximal) ist äquivalent zur Aussage: rg A < n ⇒ det A = 0 rg A < n heisst für A in Staffelform S gebracht. S hat mindestens eine Nullzeile. det A = det S, entwickelt nach der Nullzeile ⇒ det S = 0 = det A Definition: Zur Erinnerung: Der Entwicklungssatz von Laplace: det A = n X k=1 aik (−1)i+k det(Uik ) | {z } Aik (i) Aik = (−1)i+k det(Uik ) heisst die Adjunkte zu aik (ii) Die Matrix (Aik )T der Adjunkte heisst die zu A adjunkte Matrix Aadj Beispiel: Aadj 2 1 1 A = 4 3 2 0 0 5 1+1 3 2 A11 = (−1) 0 5 = 15 1+2 4 2 A12 = (−1) 0 5 = −20 1+3 4 3 A13 = (−1) 0 0 =0 A11 A21 A31 15 −5 −1 0 = A12 A22 A32 = −20 10 A13 A23 A33 0 0 2 Satz: Es sei A eine (n, n)-Matrix. Dann gilt: (i) Aadj ∗ A = A ∗ Aadj = (det A) ∗ E (ii) Falls A regulär ist, gilt A−1 = 1 det A ∗ Aadj Beweis: (ii) folgert aus (i): A ∗ Aadj = (det A) ∗E | {z } 6=0 42 1 ∗ (A ∗ Aadj ) = E det A 1 ∗ Aadj = E A∗ det A | {z } ⇒ A−1 (i) b11 . . . b1n a11 . . . a1n .. .. A = .. A = ... . . adj . bn1 . . . bnn an1 . . . ann wobei bil = Ali (transponiert!) wir bezeichnen A ∗ Aadj mit C C = A ∗ Aadj = (cik ) Zu zeigen: a.) cik = det A für jedes i = 1, . . . , n b.) cik = 0 für i 6= k Nach Definition der Matrixmultiplikation gilt immer: cik = n X ail bil = l=1 n X ail Alk = l=1 n X ail (−1)k+1 det(Uil ) l=1 1. Fall k = i (Hauptdiagonale) cii = n X ail (−1)i+k det(Uil = det A Entwicklung det A nach der i. Zeile) k=1 2. Fall k 6= 1 Betrachte folgende Matrix: a11 .. . ai1 A0 = ... ai1 .. . an1 . . . a1n .. . . . . ain .. . . . . ain .. . . . . ann ⇒ det A0 = 0 43 0 die Untermatrix von A0 , die durch Streichen der k. Zeile und der Es bezeichnet Ukl 0 = U für gegebenes k und beliebiges l. l. Spalte entsteht. Dann gilt Ukl kl 0 Wir bezeichnen nun det A durch entwickln nach der k. Zeile. 0 = det A0 = n X 0 ail (−1)k+l det(Ukl )= l=1 n X ail (−1)k+l det(Ukl ) = cik l=1 Folgerung: a b Ist A = eine reguläre (2, 2)-Matrix erhält man A−1 mittels Aadj c d 1 1 d −b −1 Aadj = A = a det A ad − bc −c mit det(x) = x für jedes (1, 1)-Matrix. Beispiel: 1 −1 3 0 −1 A = 4 2 3 −5 det A = 3 6= 0 ⇒ ∃A−1 Aadj ? 0 −1 =3 A11 = 1 3 −5 4 −1 = 18 A12 = −1 2 −5 .. . ⇒ A−1 3 −1 2 1 − 13 1 1 18 −11 13 = 6 − 11 Aadj = = 3 det A 3 12 −7 8 4 − 73 2 3 13 3 8 3 Lineare GSe und zugehörige Matrizen Es sei A eine (m, n)-Matrix, x eine (n, 1)-Matrix (=Spaltenvektor), b eine (m, 1)-Matrix. a11 . . . a1n x1 b1 .. .. .. . . A= . . x = . b = . am1 . . . amn Wir bilden A ∗ x: a11 ∗ x1 +a12 ∗ x2 a21 ∗ x1 +a22 ∗ x2 .. .. . . xn + . . . +a1n ∗ xn + . . . +a2n ∗ xn .. . am1 ∗ x1 +am2 ∗ x2 + . . . +amn ∗ xn bm a . . . a x1 b1 11 1n .. .. .. . . . . = . . . . = . am1 . . . amn xn bm 44 Linke Seite eines (m, n)-LGS mit den Unbekannten xi und der Koeffizientenmatrix A. Die Rechte Seite lässt sich als Vektor b schreiben. Das LGS a11 ∗ x1 +a12 ∗ x2 + . . . .. . am1 ∗ x1 +am2 ∗ x2 + . . . +a1n ∗ xn .. . = b1 .. . +amn ∗ xn = bm lässt sich also schreiben als A∗x=b homogenes System b = ~0. Satz: Gegeben sei das homogene LGS A ∗ x = 0 Es bezeichne H diejenige Teilmenge des Rn deren Elemente Lösungen dieses LGS sind. Dann ist H ein Unterraum von Rn . Beweis: 1. H 6= 0, denn es gilt stets die Triviallösung (homogenes LGS!). 2. Es seien x und y zwei Lösungsvektoren des homogenen LGS. Dann ist auch x + y ein Lösungsvektor: A(x + y) = A ∗ x + A ∗ y = 0 + 0 = 0 3. Es sei x ein Lösungsvektor, dann ist auch λx eine Lösung: A(λx) = λ ∗ (A ∗ x) = λ ∗ 0 = 0 Satz: Gegeben sei das inhomogene LGS A ∗ x = b. Dann gilt: i) Ist xS eine spezielle Lösung des inhomogenen LGS und ist xH eine beliebige Lösung des zugehörigen homogenen LGS A ∗ x = 0, so ist xS + xH ebenfalls eine Lösung des inhomogenen LGS A ∗ x = b. ii) Sind xS und xJ eine Lösung des gleichen inhomogenen LGS A∗x = b, so ist xS −xJ Lösung des zugehörigen homogenen LGS A ∗ x = 0 Beweis: i) A(xS + xH ) = A ∗ xS + A ∗ xH = b ii) A(xS − xJ ) = A ∗ xS − A ∗ xJ = 0 45 Lösungsweg eines inhomogenen LGS: A ∗ x = b 1. Man bestimmt den Lösungsraum als homogenes LGS A ∗ x = 0, räumlich H. 2. Man bestimme (z.B. durch Raten) eine Lösung xS des inhomogenen Systems A ∗ x=b 3. Man erhält die Lösungsgesamtheit J als inhomogenes System durch J = xS + H = {v ∈ Rn |v = xS + x ∈ H} Beispiel: x1 −3 1 2 −7 2 x2 4 7 −26 9 x3 = −10 7 −3 −5 19 −7 x4 1 2 −7 2 −3 0 1 −2 −1 −2 0 0 0 0 0 rg A = 2 ⇒ lösbar rg Aerw = 2 Lösung des homogenen LGS: x1 + 2x2 + (−7)x3 + 2x4 = 0 x2 + (−2)x3 + 1x4 = 0 wegen n − rg A = 4 − 2 = 2 sind 2 Parameter frei wählbar (d.h. dim H = 2) also z.B. x3 und x4 1. Lösungsvektor: x3 = 1; x4 = 0 ⇒ x2 = 2; x1 = 3 2. Lösungsvektor: x3 = 0; x4 = 1 ⇒ x2 = 1; x1 = −4 H[v~1 , v~2 ] v1 = (3, 2, 1, 0) v2 = (−4, 1, 0, 1) Eine spezielle Lösung als inhomogenes System erhält man dadurch, dass man alle frei wählbaren Parameter = 0 setzt: x1 + 2x2 = − 3 x3 =0 x2 = − 2 x4 =0 xS = (1, −2, 0, 0) 46 Lösungsgesamtheit: 1 3 −4 −2 2 1 J = xS + H = 0 + λ 1 + µ 0 0 0 1 λ, µ ∈ R bel. Wir betrachten speziell quadratische LGSe, also: A ∗ x = b mit A = (n, n) − Matrix b und x(n, 1) − Matrix (=Vektoren) Wir wissen: rg A = n ⇒ LGS ist eindeutig lösbar. ⇒ A−1 existiert Dann kann A ∗ x = b nach x aufgelöst werden: A∗x=b A−1 (A ∗ x) = A−1 ∗ b (A−1 ∗ A) ∗ x = x = A−1 ∗ b Satz: (Cramersche Regel) Es sei A ∗ x = b mit A regulär gegeben. Es sei ∆j(i = 1, . . . , n) diejenige Matrix, die aus A entsteht, wenn man die j. Spalte durch b ersetzt. Dann gilt für die Komponenten j der eindeutig bestimmten Lösung des LGS: det ∆j x∗j = det A Beispiel: 2 1 −2 x1 10 3 2 2 x2 = 1 5 4 3 x3 4 det A = −7 6= 0 10 1 −2 10 −19 −22 2 = 1 0 0 x1 : det A1 = 1 2 4 4 3 4 −4 −5 −19 −22 = −1 −4 −5 = −7 det A1 −7 = =1 det A −7 2 10 −2 2 = · · · = −14 x2 : det A2 = 3 1 5 4 3 x1 = 47 det A2 =2 det A x2 = x3 : det A3 = 21 ⇒ x3 = Beweis: 21 = −3 −7 a11 . . . b1 . . . a1n .. .. det Aj : . . an1 . . . bn . . . ann Entwickelt nach der j. Spalte: det Aj = n X (−1)k+j bk det(Ukj ) k=1 Ukj ist auch Unterdeterminante von A, denn A und Aj unterscheiden sich nur in der j. Spalte. Andererseits gilt: 1 1 −1 ∗ Aadj ∗ b = (Aadj ∗ b) x=A ∗b= det A det A n xj = 1 1 X 1 ∗ (Aadj ∗ b)j = (−1)1+k det(Ukj ) ∗ bk = ∗ det Aj det A det A det A k=1 Eigenwerte, Eigenvektoren Beispiel: Rotation des Nullpunktvektor x1 x2 um ϕ Grad. x01 = x1 ∗ cos ϕ − x2 ∗ sin ϕ x02 = x1 ∗ sin ϕ + x2 ∗ cos ϕ In Matrix-Schreibweise: 0 x1 cos ϕ − sin ϕ x1 = sin ϕ cos ϕ x2 x02 | {z } A∗x=b Jetzt ist x gegeben und b das gesuchte Ergebnis. Man sagt, ”Anwendung”der Matrix A auf dem Vektor x bildet ihn auf einem anderen Vektor b ab. (Im Beispiel durch eine Drehung um ϕ) Interessant sind die Fälle, bei denen diese ”Abbildung”lediglich eine Skalierung des Vektor x ergibt. Definition: Ein Vektor x 6= 0, für den A ∗ x = λ ∗ x, λ ∈ R, heisst Eigenvektor der Matrix A, die 48 Zahl λ heisst der zugehörige Eigenwert von A. Also x 6= 0, aber λ kann auch 0 sein. Bestimmung von Eigenwerten λ ist Eigenwert von A ⇔ A ∗ x = λ ∗ x für x 6= 0 ⇔A∗x−λ∗x=0 ⇔ A ∗ x − λ(E ∗ x) = 0 (A − λE) ∗ x = 0 → homogenes LGS ⇔ x ist eine nicht triviale Lösung eines homogenen LGS mit A − λE als Koeffizientenmatrix. ⇔ LGS (A − (λE))x = 0 ist mehrdeutig lösbar ⇔ det(A − λE) = 0 Man bildet also zur Bestimmung der Eigenwerte von A die Determinante a11 − λ a12 . . . a1n a21 a22 − λ . . . a2n det(A − λE) = .. .. .. . . . . . . an1 an2 . . . ann − λ und bestimmt alle λ mit det(. . . ) = 0 Der Ausdruck det(A − λE) ist ein Polynom in λ vom Grad n, dem Nullstellen die Eigenwerte sind. Dieses Polynom heisst ”charakteristisches Polynom von A”und wird mit pa (λ) bzeichnet. Hat man diese Eigenwerte λ1 , λ2 , . . . bestimmt, dann setzt man dieses λi in das homogene LGS ein und erhält die zugehörigen Vektoren xi als Lösung des homogenen LGS. Die xi sind die Eigenvektoren zu den λi . Die xi bilden den Eigenraum. Beispiel: Gesucht sind die Eigenwerte von 5 −9 0 A = 3 −7 0 0 0 2 charakteristisches Polynom von A ist 5−λ −9 0 3 −7 − λ 0 pA (λ) = 0 0 2−λ = (2 − λ)[(5 − λ)(−7 − λ) + 27] = (2 − λ)[−35 + 2λ + λ2 + 27] = −(λ − 2)(λ2 + 2λ − 8) 49 Die Nullstellen sind die Eigenwerte: λ1 = λ2 =2 λ3 = − 4 Eigenvektor: 5−2 −9 0 x1 0 3 −7 − 2 0 x2 = 0 λ1 = 2 : 0 0 2−2 x3 0 3 −9 0 1 −3 0 0 0 0 → 0 0 0 0 0 0 0 0 0 Eine Gleichung für 3 Variable ⇔ Lösungsruam hat die Dimension 2 1 : x1 − 3 ∗ x2 + 0 ∗ x3 = 0 1. Lösungsvektor z.B.: x1 = 3, x2 = 1, x3 = 0 2. Lösungsvektor z.B.: x1 = 0, x2 = 0, x3 = 1 ⇒ 2 linear unabhängige Lösungsvektoren (3, 1, 0) und (0, 0, 1) zu λ1 = 2 x1 5+4 −9 0 0 3 −7 + 4 0 x2 = 0 λ3 = −4 : 0 0 2+4 0 x3 9 −9 0 1 −1 0 1 −1 0 3 −3 0 → 0 0 0 → 0 0 1 0 0 6 0 0 1 0 0 0 Lösungsraum hat Dimension 1 z.B.: x1 = 1, x2 = 1, x3 = 0 ⇒ Eigenvektor zu λ = −4 ist (1, 1, 0) Probe: 1 5 −9 0 1 3 −7 0 1 = −4 1 0 0 0 2 0 Definition: Die Dimension des Eigenraumes zum Eigenwert λ heisst geometrische Vielfachheit um λ. Die Zahl, wie oft λ Nullstellen des char. Polynoms heisst algebraische Vielfachheit von λ. Es gilt 1 ≤ geom. Vielfachheit ≤ algebr. Vielfachheit. Satz: Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. 50 Beweis: Es sei v ein Eigenvektor zum Eigenwert λ, w ein Eigenvektor zum Eigenwert µ 6= λ. Es gilt also: A∗v =λ∗v A∗w =µ∗w Es seien α ∗ v + β ∗ w = 0 (Nullvektor) Zu zeigen ⇒ α = β = 0 Daraus folgt A(α ∗ v + β ∗ w) = 0 Damit 0 = A(αv) + A(βw) 0 = α(Av) + β(Aw) Definition: Eine quadratische Matrix A heisst diagonalisierbar ⇔ Es gibt eine reguläre Matrix P mit P −1 ∗ A ∗ P = Diagonalmatrix Satz: Es sei A eine (n, n)-Matrix. Dann gilt A ist diagonalisierbar ⇔ 1. PA (λ) zerfällt vollständig in Linearfaktoren 2. Für jeden Eigenwert ist die geometrische Vielfachheit gleich der algebraischen Vielfachheit. Falls 1. und 2. erfüllt sind erhält man die Matrix P durch folgendes Verfahren: Man bestimmt zu jedem Eigenraum Eλ eine Basis und schreibt alle diese Basisvektoren als Spalten einer Matrix P auf. Diese Spalten sind dann linear unabhängig ⇒ P ist regulär. P −1 ∗ A ∗ P ist dann die Diagonalmatrix, die die Eigenwerte von A in entsprechender Vielfachheit in der Diagonalen stehen hat. Aus obigen 5 −9 A = 3 −7 0 0 Beispiel: 0 0 enthält die Eigenwerte λ1 = 2 (doppelt) und λ3 = −4 (einfach). 2 3 0 1 Eigenvektoren zu λ1 : 1 , 0 und zu λ3 : 1 0 1 0 A ist diagonalisierbar, denn 1. PA (λ) = −(λ − 2)(λ − 2)(λ + 4) zerfällt vollständig in Linearfaktoren 51 2. Für jeden Eigenwert gilt algebraische Vielfachheit = geometrische Vielfachheit λ1 : 2 = 2 λ3 : 1 = 1 3 0 1 P = 1 0 1 ⇒ P −1 berechnen 0 1 0 3 0 1 1 0 0 1 0 1 0 1 0 0 1 0 0 0 1 1 0 1 0 1 0 0 1 0 0 0 1 3 0 1 1 0 0 1 0 1 0 1 0 0 1 0 0 0 1 0 0 −2 1 −3 0 1 1 1 0 0 2 −2 0 0 1 0 0 0 1 1 2 0 0 1 −2 3 0 1 1 5 −9 0 3 0 2 −2 0 0 1 3 −7 0 1 0 P −1 ∗ A ∗ P = 0 2 − 12 0 0 2 0 1 3 0 1 1 λ1 2 0 0 6 0 −4 2 −2 0 0 0 = 0 0 1 2 0 −4 = 0 2 2 0 0 0 −4 0 2 0 − 12 3 0 1 1 = 0 0 0 λ2 0 0 λ3 3 Differentialrechnung einer Veränderlichen 3.1 Konvergenz von Folgen Definition: Eine Folge reeller Zahlen an ist eine Funktion a : N → R. Man schreibt an statt a(n). Manchmal ist der Definitionsbereich auch N+ , aber die Menge {n ∈ N|n ≥ k fest}. Allgemein kann man auch Folgen von Vektoren, Funktionen, Matrizen, etc. betrachten. Beschreibungsmöglichkeiten: 1. explizit: durch Funktionsvorschrift an = 3n für jedes n ∈ N +1 n2 52 2. rekursiv: Startwert a0 + Berechnungsvorschrift (Rekursionsvorschrift) für an+1 , mit der allgemein an+1 aus an berechnet wird. Beispiel: (i) Es sei c ∈ R fest gegeben Definiere a0 = 1 Startwert und an+1 = c ∗ an Rekursionswert Damit: a1 = c ∗ a0 = c ∗ 1 = c a2 = c ∗ a1 = c ∗ c = c2 .. . an = cn (ii) a0 = 1 an+1 = an ∗ (n + 1) a1 = a0 ∗ (0 + 1) = 1 a2 = a1 ∗ (1 + 1) = 2 a3 = a2 ∗ (2 + 1) = 6 ⇒ Fakultät k! = 1 ∗ 2 ∗ · · · ∗ k (k + 1)! = (k + 1) ∗ k! (iii) Es sei α ∈ R fest gegeben Definition: a0 = 1 α−n an+1 = ∗ an n+1 a1 = α ∗ a0 = α α−1 1 a2 = ∗ α = (α − 1) ∗ α ∗ 2 2 (α − 2)(α − 1)(α − 0) a3 = 3∗2∗1 an = Folge der Binomialkoeffizienten und wird mit an = net. Eigenschaften: 1. Ist α eine natürliche Zahl, dann gilt: 53 α n ”α über n” bezeich- a) Falls α ≥ n α! α α = = n α−n n!(α − n)! b) Falls a < n α =0 n 2. Binomischer Satz: a, b ∈ R n ∈ N+ (a + b)n = n X ak ∗ bn−k ∗ b=0 α n α 3. ist die Anzahl der k-elementigen Teilmenge einer n-elementigen Menge, n z.B. Lotto ”6 aus 49” 49! 44 ∗ 45 ∗ 46 ∗ 47 ∗ 48 ∗ 49 49 = ”6-er im Lotto”: = =? 6 6!49! 2∗3∗4∗5∗6 (iv) Manchmal wird eine Rekursion auch allgemeiner durchgeführt: z.B.: Fibonacci-Reihe: a0 = 0 a1 = 1 an+1 = an + an−1 ∀n ≥ 1 a2 = 1 a3 = 2 ⇒ 0, 1, 1, 2, 3, 5, 8, . . . ”Fibonacci-Zahlen” Definition (Konvergenz von Folgen) Es sei an eine Folge reeller Zahlen, α ∈ R fest. (i) an konvergiert gegen a (limn→∞ an = a) ⇔ Für jedes beliebige ε ∈ R+ ∃n0 ∈ N, so dass ∀n > n0 : |an − a| < ε. z.B.: a0 = 1 an = an−1 + n1 (ii) an ”konvergiert” in R ⇔ Es gibt ein a ∈ R mit limn→∞ an = a (iii) an heisst ”Nullfolge” ⇔ limn→∞ an = 0 (iv) an konvergiert gegen +∞ ⇔ Für jedes beliebige c ∈ R+ gibt es ein n0 ∈ N, so dass für alle n ≥ n0 gilt an > c 54 (v) an konvergiert gegen −∞ (analog) Bemerkung: Falls an nicht konvergiert sagt man ”an divergiert”. Beispiele: (i) an = 1 n+1 ist eine Nullfolge, denn ε ∈ R+ fest. |an − a| < ε 1 n + 1 − 0 < ε 1 <ε n+1 1 <n+1 ε z.B.: ε= 1 1 1 ⇒ ∀n ≥ 1000 : <ε= 1000 n+1 1000 (ii) an = ln(n + 1) konvergiert gegen +∞, denn c ∈ R+ fest, beliebig an > c ln(n + 1) > c n + 1 > ec n > ec − 1 wähle n0 beliebig, wählen mit n0 > ec − 1 z.B.: c = 200 ⇒ n0 ≈ 7, 226 ∗ 1086 (iii) an = (−1)n ist nicht konvergent. Satz (Elementare Grenzwertsätze) Es seien an und bn konvergente Folgen in R mit lim an = a und lim bn = b n→∞ n→∞ a, b ∈ R c∈R Dann gilt: (i) limn→∞ (an ± bn ) = a ± b (ii) limn→∞ (c ∗ an ) = c ∗ a (iii) limn→∞ (an ∗ bn ) = a ∗ b 55 (iv) Falls bn 6= 0 für alle n und b 6= 0 a a = n→∞ b b lim (v) limn→∞ (an )c = ac Beispiel: an = 3n2 + 2n − 1 ∀n > 1 n2 − 1 Existiert limn→∞ an ? Da limn→∞ (n2 − 1) nicht in R existiert, kann (iv) nicht angewendet werden! n2 (3 + n2 − n1 n2 (1 − n12 1 1 2 Nenner: lim 2 = 0 = 0 ⇒ lim 1 − 2 = 1 n→∞ n n→∞ n 3 1 3 1 Zähler: lim 3 + − = lim (3) + lim + lim =3 n→∞ n→∞ n→∞ n n→∞ n n n deshalb Umformung: an = Satz (i) limn→∞ an = a mit a ∈ R ⇒ lim |an | = |a| Aber die Umkehrung ist im Allgemeinen falsch. z.B.: an = (−1)n lim |an | = | − 1| 6⇒ lim(−1)n = −1 n→∞ (ii) Aber wenn limn→∞ |an | = 0 ⇒ limn→∞ an = 0 (iii) Wenn an konvergent in R ist, das heisst lim 6∈ {−∞, ∞} ∀x ∈ D : |f (x)| ≤ c an ist beschränkt, das heisst ∀n ∈ N : |an | ≤ c jede in R konvergente Folge ist beschränkt. (iv) Sei limn→∞ an = 0 und bn eine beschränkte Folge limn→∞ (an ∗ bn ) = 0 Weitere wichtige Grundsätze: Es seien an , bn konvergente Folgen mit limn→∞ an = a, limn→∞ bn = b, a, b ∈ R. Dann gilt: (i) ∀n ∈ N : an ≤ bn ⇒ a ≤ b Achtung: Es gilt nicht: aus an < bn ⇒ a < b! z.B.: ∀n ∈ N : n1 < n2 1 2 = 0, lim = 0 6⇒ a < b n→∞ n n→∞ n lim 56 (ii) Sei cn eine dritte Folge mit ∀n ∈ N : an ≤ cn ≤ bn Falls limn→∞ an = limn→∞ bn ist, ist auch cn konvergent mit gleichem Grenzwert. Satz: Es sei an eine Folge, die (evtl. erst ab einem bestimmten Index) monoton wächst (d.h. an ≤ an+1 ) und der beschränkt ist (d.h. ∀n ∈ N : an ≤ c, dann gilt: limn→∞ an existiert in R und ist ≤ c. Das gilt analog für monoton fallende, nach unten beschränkte Folgen. Beispiel: Es sei c ∈ R+ fest und an = Behauptung: limn→∞ an = 0 cn n! Zu zeigen, dass limn→∞ an = a in R existiert. Dazu wird an rekursiv definiert: c0 a0 = 1 = 0! n+1 c c ∗ cn c an+1 = = = ∗ an (n + 1)! (n + 1) ∗ n! n+1 1. gilt für alle n ∈ N : an > 0, also nach unten beschränkt. 2. ist für alle n + 1 > c der Faktor c n+1 <1 Also ist die Folge von diesen n an (streng) monoton fallend. Nun gilt: an+1 = c ∗ an lim an+1 = lim an = a n→∞ n→∞ also lim an+1 = lim an ∗ lim n→∞ n→∞ n→∞ c =a∗0 n+1 weiter gilt: n Ist c negativ, so gilt für an = cn! n c |cn | |c|n c ∗ c ∗ c ∗ ... = = ⇒ lim |an | = 0 |an | = = n→∞ n! |n!| n! 1 ∗ 2 ∗ 3 ∗ ... Damit: ⇒ limn→∞ cn n! = 0 für jedes c ∈ R 3.2 Grenzwert von Funktionen und Stetigkeit Definition: Sei M ⊆ R Dann ist M̄ die sogennante abgeschlossende Hülle von M , die Menge aller derjenigen Elemente aus R ∨ {−∞, +∞} = R̂, die sich als Grenzwert einer Folge von Elementen aus M erhalten lassen. (i) Es gilt stets M ⊆ M̄ , da jedes Element x ∈ M sich als Grenzwert der Folge an = x erhalten lässt. 57 (ii) M =]a, b[⇒ M̄ = [a, b] z.B.: a = lim n→∞ b−a a+ n b−a n b = lim n→∞ b− (iii) M = [a, b] ⇒ M̄ = [a, b] (iv) M = Q ⇒ M̄ = R̂ Definition: Es sei f : D → R gegeben, x0 ∈ D̄, a ∈ R̂ (i) limx→x0 f (x) = a ⇔ für jede beliebige Folge xn von Elementen aus D mit limn→∞ xn = x0 gilt: limn→∞ f (xn ) = f (x0 ) (ii) limx→x+ f (x) = a ⇔ für jede beliebige Folge xn von Elementen aus D mit xn > x0 0 und limn→∞ xn = x0 gilt: limn→∞ f (xn ) = a ”rechtsseitiger Grenzwert” (iii) Analog der ”linksseitiger Grenzwert”. (xn < x0 ) Bemerkung: (i) Wenn limx→x0 f (x) existiert, dann existiert auch limx→x+ f (x) und limx→x− f (x) 0 0 und sind alle gleich. (ii) Aus limx→x+ f (x) = a ∧ limx→x− f (x) = a ⇒ limx→x0 f (x) = a 0 0 (iii) limx→∞ (x ∈ R ist ”stärker” als limn→∞ (n ∈ N Dazu: limn→∞ sin(nπ) = 0, da n ∈ N limx→∞ sin(πx) : für xn = n ergibt sich 0 (siehe oben) für xn = 21 + 2n ergibt sich limn→∞ sin( π2 + 2πn) = 1 6= 0 Bei der Annäherung des Arguments an ∞ ergeben sich zwei verschiedene Werte. Definition: (Stetigkeit) Es sei f : D → R, es sei x0 ∈ D, M ⊆ D (i) Eine Funktion heisst stetig in x0 ⇔ limx→x0 f (x) existiert und istf (x0 ) (ii) f heisst rechtsseitig stetig in x0 ⇔ limx→x+ f (x) = f (x0 ) 0 (iii) f heisst linksseitig stetig in x0 ⇔ limx→x− f (x) = f (x0 ) 0 58 (iv) f heisst stetig auf M ⇔ f ist stetig für jedes x0 ∈ M . (v) Ist x0 6∈ D, dann hat die Aussage ”f ist stetig in x0 ” keinen Sinn. Ist jedoch x0 ∈ D̄ und existiert limx→x0 f (x) in R, dann lässt sich f durch die Zusatzdefinition f (x0 ) := limx→x0 f (x) stetig fortsetzen / ergänzen. Beispiel: f : R → R, gegeben durch f (x) = 3x2 − 7x + 5 (i) zu zeigen: f ist stetig in jedem x0 ∈ R, denn: Es sei x0 beliebig fest gewählt xn eine beliebige Folge mit lim xn = x0 n→∞ lim f (xn ) = 3x2n + 7xn + 5 = 3x20 − 7x0 + 5 ⇒ lim f (x) = f (x0 ) = 3x20 − 7x0 + 5 n→∞ x→x0 f stetig in x0 ∀x0 ∈ R Genauso kann man zeigen: Jedes Polynom ist stetig an jeder Stelle. (ii) Sign: R ⇒ R +1 x ∈ R+ 0 x=0 Sign x = −1 x ∈ R− zu zeigen: Sign x ist stetig auf R+ , nicht stetig in x = 0 a) x ∈ R+ Für jede Folge xn mit lim xn = x0 > 0 n→∞ gilt ab einem bestimmten n0 : ∀n ≥ n0 : sign xn = +1 ⇒ limn→∞ sign xn = 1 sign x0 = 1 ⇒ stetig b) x ∈ R− analog c) x0 = 0 Der einseitige Grenzwert limx→0+ sign x = +1, da für jede Folge xn mit xn > 0 und limn→∞ xn = 0 ⇒ sign xn = +1 limx→0+ sign x = +1 ⇒ 6= limx→0− sign x = −1 genauso der linksseitige Grenzwert: ⇒ lim sign x existiert nicht ⇒ unstetig in 0 x→0 Satz: Es seien f und g stetig in x0 , α ∈ R (i) f ± g stetig in x0 59 (ii) f ∗ g stetig in x0 (iii) α ∗ f stetig in x0 (iv) falls g(x0 ) 6= 0: f g stetig in x0 Daraus folgt: Alle besprochenen Funktionen und ihre Umkehrfunktionen sind auf ihren jeweiligen Definitionsbereichen stetig. (Polynome, gebr.-rat. Funktionen, Potenz-, Wurzel-, trigonometrische Funktionen, . . . ) Satz: (Zwischenwertsatz - ZWS) Es sei f auf einem Intervall I stetig, a, b ∈ I mit a < b Dann gilt: Für alle η zwischen f (a) und f (b) gibt es mindestens ein ξ ∈]a, b[ mit f (ξ) = η ⇒ Graphen stetiger Funktionen lassen sich ”ohne abzusetzen” zeichnen. 3.3 Grundbegriffe der Differentialrechnung (Tangente, Differential, Ableitung) Definition: Es sei D ⊆ R x0 heisst innerer Punkt von D ⇔ es gibt ε ∈ R+ mit ]x0 − ε; x0 + ε[⊆ D ”links und rechts neben x0 liegen noch Punkte ∈ D”, bei x1 nicht. Im Folgenden sei x0 stets ein ”innerer” Punkt. Untersuchung des ”Wachstumsverhalten” von f (x) in x0 In x0 ist g steiler als f (wächst schneller) Warum? Für Geraden klar: messe Winkel zur x-Achse. Gesucht wird die Gerade, die f (x) in x0 am besten approximiert (Tangente). Gx0 sei die Menge aller Geraden, die durch (x0 , f (x0 )) gehen: g(x) = m ∗ x + b und g(x0 ) = f (x0 ) f (x0 ) = m ∗ x0 + b ⇒ b = f (x0 ) − m ∗ x0 g(x) ∈ Gx0 ⇔ g(x) = m ∗ x + f (x0 ) − m ∗ x0 = m ∗ (x − x0 ) + f (x0 ) Was zeichnet g1 vor g2 , g3 , . . . aus? Klar ist: lim∆x→0 R = 0, aber für g1 ist die Konvergenz schneller, dass heisst R geht schneller → 0 als ∆x selbst. R 0 für g1 lim = > 0 oder < 0 sonst ∆x→0 ∆x Definition: 60 (i) Eine Gerade g ∈ Gx0 heisst Tangente von f in x0 R f (x) − g(x) = 0 mit x = x0 + ∆x : R = f (x) − g(x) ⇔ lim =0 ∆x→0 ∆x ∆x→0 ∆x ⇔ lim (ii) Die Funktion f (x) heisst differenzierbar in x0 ⇔ f besitzt in x0 eine Tangente. Anders ausgedrückt: f (x) − g(x) =0 ∆x→0 ∆x f (x) − f (x0 ) f (x) − m ∗ (x − x0 ) − f (x0 ) x − x0 = lim −m =0 lim x→x0 x→x0 x − x0 x − x0 x − x0 lim ⇔ lim x→x0 f (x) − f (x0 ) =m∈R x − x0 ⇔ Tangente existiert (wenn m in R existiert) Definition: (x0 ) (i) Der Grenzwert limx→x0 f (x)−f x−x0 heisst ersteAbleitung von f in x0 und wird mit df df f 0 (x0 ) oder dx bezeichnet oder dx (x0 ) Der Ausruck x=x0 f (x)−f (x0 ) x−x0 heisst Differentialquotient. (ohne limes) (ii) f 0 (x0 ) = m heisst die Steigung der Funktion f in x0 . Also t(x) = f (x0 ) + f 0 (x0 ) ∗ (x − x0 ) ist die Gleichung der Tangente von f in x0 . Stetigkeit und Differenzierbarkeit sind lokale Begriffe. Generlle Aussagen wie ”f ist differenzierbar” oder ”g ist stetig” sind ohne Angabe von D unklar. f ist diffbar in x0 ⇒ f ist stetig in x0 . Aber die Umkehrung gilt nicht! Begründung: f diffbar in x0 ⇒ lim x→x0 f (x) − f (x0 ) existiert in R x − x0 zudem gilt lim (x − x0 ) = 0 x→x0 zusammen: lim f (x) − f (x0 ) (x−x0 ) = 0 ⇒ lim f (x) = lim f (x0 ) = f (x0 ) das ist die Definition der Steti x→x0 x→x0 x − x0 Ableitungen elementarer Funktionen (i) f : R → R x→c f (x) − f (x0 ) c−c = =⇒ lim = 0 x→x0 x − x0 x − x0 61 (ii) f (x) = |x| = x x≥0 −x x < 0 a) x0 ∈ R+ ⇒ f (x0 ) = x0 k = x − x0 f (x0 + k) − f (x0 ) x0 + k − x0 = = 1 ⇒ lim (. . . ) = 1 k→0 k k b) x0 ∈ R− f (x0 ) = −x0 = · · · ⇒ lim (. . . ) = 1 k→0 c) x0 = 0 limx→0+ = +1 limx→0− = −1 ⇒ lim existiert nicht, aber die Funktion ist stetig in x = 0 x→0 (iii) f (x) = xn , n ∈ N, n ≥ (f 0 (x) = n ∗ xn−1 f (x0 + k) − f (x0 ) 1 = ((x0 + k)n − xn0 ) k k n 1 X n n−1 x0 ∗ k n−k − xn0 = k k k=1 1 = k n X ! n n n n 0 n n−k x ∗ k − x0 x0 ∗ k + n 0 k k=1 n−1 X 1 = k = k=1 n−2 X k=1 = n−2 X k=1 = ! n n x0 ∗ k n−k k n n x0 ∗ k n−k−1 k n n n n−k−1 x0 ∗ k + xn−1 k n+1 0 n−2 X k=1 lim n n n n−k−1 x0 ∗ k + xn−1 ∗ k 0 k k−1 0 f (x0 + k) − f (x0 ) = n ∗ xn−1 = f 0 (x0 ) 0 k 62 (iv) f (x) = sin x x0 ∈ R Behauptung: f ist sin x0 diffbar mit f 0 (x0 ) = cos x0 f (x + k) − f (x0 ) 1 = (sin(x0 + k) − sin x0 ) k k 1 (sin x0 cos k + cos x0 sin k − sin x0 ) k cosk − 1 sin k = sin x0 + cos x0 k k f (x0 + k) − f (x0 ) lim = sin x0 ∗ 0 + cos x0 ∗ 1 = cos x0 k→0 k = x 0 ∈ R+ (v) f (x) = ln x 1 1 x0 + k k ln(x0 + k) − ln x0 = ln 1 + = ln k k x0 k x0 Substitution y = x0 k , statt k → 0+ untersuchen y → +∞ y 1 1 1 y = ln 1 + ln 1 + x0 y x0 y y 1 1 1 ln 1 + = lim y→+∞ x0 y x0 ⇒ ∀ x0 ∈ R+ : ln0 (x0 ) = 1 x0 Satz: (einfache Ableitungsregeln) Es sei f, g an der Stelle x0 differenzierbar, c ∈ R Dann gilt: (i) (f ± g)0 (x0 ) = f 0 (x0 ) + g 0 (x0 ) (ii) (c ∗ f )0 (x0 ) = c ∗ f 0 (x0 ) (iii) Produktregel (Leibnitz - Regel) (f ∗ g)0 (x0 ) = f 0 (x0 ) ∗ g(x0 ) − f (x0 ) + g 0 (x0 ) (iv) Quotientenregel, falls g(x0 ) 6= 0 0 f 0 (x0 )∗g(x0 )−g 0 (x0 )∗f (x0 ) f (x0 ) = g (g(x0 ))2 Beweis: (i) und (ii) sind trivial (iii) f (x0 +k)∗g(x0 +k)−f (x0 )∗g(x0 ) k = k1 (f (x0 + k) − f (x0 )) ∗ g(x0 ) + f (x0 )(g(x0 + k) − g(x0 )) 63 (iv) analog Anwendungsbeispiel für (iv) sin x f (x) = tan x = cos x sin0 x0 ∗cos x0 −cos0 x∗sin x0 sin x0 = tan0 (x0 ) = cos = x0 cos2 x0 oder = 1 + sin2 x0 cos2 x0 cos2 x0 +sin2 x0 cos2 x0 = 1 cos2 x = 1 + tan2 x0 Satz (Kettenregel) Es sei f in x0 und g in f (x) diffbar: Dann ist (g ∗ f ) in x0 differenzierbar mit g 0 (f (x)) = (g ∗ f )0 (x0 ) = g 0 (f (x0 )) ∗ f 0 (x0 ) 2 x + 2) Beispiel: ln x = ln(cos df (x) d mit f 0 (x) = dx f (x) = dx d ln(x) dx d d d k(x) ∗ g(x) ∗ f (x) = dg(x) df (x) dx ln0 (x) = = 1 ∗ 2f (x) ∗ (− sin x) g(x) 1 cos2 x +2 ∗ 2 cos x ∗ (−1) sin x = −2 sin x ∗ cos x cos2 x + 2 Satz (Abteilung der Umkehrfunktion) Es sei f (x) eine differenzierbare Funktion, die eine Umkehrfunktion besitzt. Dann ist auch f −1 (x) differenzierbar und es gilt (f −1 )0 (x) = 1 f 0 (f −1 (x0 )) An der Stelle f −1 (x0 ) darf f 0 nicht 0 sein (d.h. waagerechte Tangente haben) Beweis: Wenn f −1 existiert für alle x ∈ Df −1 , dann gilt (f ∗ f −1 )(x) = x Ableitung an der Stelle x: (f ∗ f −1 )0 (x0 ) = x0 (x0 ) = 1 f 0 (f −1 (x0 )) ∗ (f −1 )0 (x0 ) = 1 64 ⇒ (f −1 )0 (x0 ) = 1 f 0 (f −1 (x0 )) Beispiel: (Ableitungen weiterer wichtiger Funktionen) (i) f (x) = ln x also f −1 (x) = ex , Ableitung von ln x ist bekannt. (ex0 )0 = (f −1 )0 (x0 ) = 1 f 0 (f −1 (x0 )) = 1 1 = 1 = ex0 ⇒ (ex )0 = ex x 0 (ln(e0 )) ex0 (ii) f (x) = sin x auf − π2 ; π2 ⇒ f −1 = arcsin x (f −1 )0 (x0 ) = = 1 1 1 = = = f 0 (f −1 (x0 )) (sin(arcsin(x0 )))0 cos(arcsin(x0 )) 1 1 1 0 p √ √ = ⇒ arcsin (x) = 1 − x0 1−x cos(arccos( 1 − x20 )) ebenso: (iii) arctan00 (x) = 1 1+x2 (iv) f (x) = ax , a ∈ R+ fest = ex ln a (ax )0 = (ex ln a )0 = ex ln a ∗ (x ln a)0 = ex ∗ ln a Der Begriff ”Differenzial” R = f (x) − t(x) Wegen lim∆x→0 R = 0 ist lim ∆x→0 ∆f df + R df = lim = ∆x→0 ∆x dx dx df = f 0 (x0 ) heisst das Differential der Funktion f an der Stelle x0 . dx x0 df (x) d = f (x) heisst die Ableitung der Funktion f. dx dx Die Tangente in x0 approximiert der Funktion im Berührungspunkt (x0 , f (x0 )). Beispiel: f (x) = x2 x0 = 3; ∆x = 0, 1 ∆f = f (x0 + ∆x) − f (x0 ) = f (3, 1) − f (3) = (3, 1)2 − 32 = (3, 1 − 3)(3, 1 + 3) = 0, 61 ∆f 0,61 = = 6, 1 ∆x x 0,1 ∆f df 0 ⇒ = ∆f ∆x dx = 2 ∗ x0 = 6 ∆x x0 65 3.4 Der Mittelwertsatz und seine Anwendungen Definition: Es sei f : D → R gegeben, x0 ∈ D (i) f besitzt in x0 ein globales/absolutes Maximum ⇔ ∀ x ∈ D : f (x) ≤ f (x0 ) analog: globales/absolutes Minimum (ii) f besitzt in x0 ein lokales/relatives Maximum ⇔ ∃ ε ∈ R+ : 1. ]x0 − ε; x0 + ε[⊆ D 2. ∀ x ∈] x − ε; x0 + ε [: f (x) ≤ f (x0 ) |0 {z } ”ε−Umgebung” von x0 ⇒x0 ist ein innerer Punkt! (iii) f besitzt in x0 ein lokales Extremum ⇔ f besitzt in x0 ein lokales Minimum oder Maximum. Satz: (Fermat) Es sei I ein Intervall, f in x0 differenzierbar. Dann gilt: f besitzt in x0 ein lokales Extremum ⇒ f 0 (x0 ) = 0 Achtung ”⇐” gilt nicht! Beweis: f differenzierbar in x0 ⇒ limk→0 Lokales Maximum in x0 ⇒ f (x0 +k)−f (x0 ) k existiert. f (x0 + k) ≤ f (x0 ) f (x0 + k) − f (x0 ) ≤ 0 Damit gilt für k > 0 (1) und k < 0 (2) f (x0 + k) − f (x0 ) ≤0 k f (x0 + k) − f (x0 ) ≥0 k aus (1) lim f (x0 + k) − f (x0 ) ≤0 k lim f (x0 + k) − f (x0 ) ≥0 k k→0+ aus (2) k→0− Da f in x0 differenzierbar ist ⇒ lim · · · = lim · · · = 0 = f 0 (x0 ) k→0+ k→0− Satz (Rolle) Es sei f auf [a; b] stetig und auf ]a; b[ differenzierbar. 66 (1) (2) Ferner sei f (a) = f (b) Dann gilt: Es gibt mindestens ein ξ ∈ ]a, b[ mit f 0 (ξ) = 0 Beweis: 1. Fall: Für alle x ∈ [a, b] gilt f (x) = f (a) = f (b), d.h. f ist konstant auf [a, b] ⇒ f 0 (x) = 0 2. Fall: Es gibt ein x ∈]a, b[ mit f (x) 6= f (a) o. B. d. A.: f (x) > f (a) Da f auf [a, b] stetig ist, muss auf [a, b] auch ein lokales Maximum existieren, z.B. bei x = m ⇒ f 0 (m) = 0 ⇒ ξ = m Satz (Mittelwertsatz) Es sei f auf [a, b] stetig und auf ]a, b[ differenzierbar. (a) Dann existiert mindestens ein ξ ∈ ]a, b[ mit f 0 (ξ) = f (b)−f b−a Beweis: s(x) = f (b) − f (a) ∗ (x − a) + f (a) b−a Definition: Die Funktion g(x) = f (x) − s(x), ist wie f auf [a, b] stetig und auf ]a, b[ differenzierbar. Ausserdem gilt: f (b) − f (a) g(a) = − ∗ (a − a) + f (a) +f (a) = 0 b−a | {z } =s(a) dito g(b) = 0 Anwendung des Satzes von Rolle: ∃ ξ ∈ ]a, b[: g 0 (ξ) = 0 d.h.: f (b) − f (a) f (b) − f (a) = 0 ⇒ f 0 (ξ) = f 0 (ξ) − s0 (ξ) = f 0 (ξ) − b−a b−a Satz: Es sei I ein Intervall und f auf ganz I differenzierbar. Ferner ∀ x ∈I: f 0 (x) = 0 ⇒ Dann ist f konstant auf I. Beweis: Annahme: f ist nicht konstant ⇒ es gibt ein a < b mit f (a) 6= f (b). (a) Dann gibt es nach dem Mittelwertsatz ein ξ ∈ ]a, b[ mit f 0 (ξ) = f (b)−f 6= 0 b−a 0 ⇒ Widerspruch zur Voraussetzung f (x) = 0 im Intervall I. Satz: Es sei f auf einem Intervall I differenzierbar. Dann gilt: (∀ x0 ∈ I : f 0 (x0 ) ≥ 0) ⇔ f |I ist monoton wachsend Beweis: 67 1. ”⇐ ”f |I sei monoton wachsend Es sei x0 ∈ I fest gewählt. f (x0 + k) − f (x0 ) ≥0 k→0 k f 0 (x0 ) = lim 2. ”⇒” Es sie f 0 (x0 ) ≥ 0 ∀ x0 ∈ I: Beweis indirekt: Annahme f ist nicht monoton wachsend, d.h. ∃ a, b ∈ I mit a < b und f (a) > f (b) Nach dem Mittelwertsatz: ∃ ξ ∈]a, b[ mit f 0 (ξ) = f (b) − f (a) <0 b−a Analogie gilt für monoton fallend ”≤ 0”. Satz: Ist f 0 (x0 ) > 0 an einer Stelle x0 ∈ I, so gibt es eine ε-Umgebung ]x0 − ε, x0 + ε[ für die f |]x0 − ε, x0 + ε[ streng monoton wachsend ist. Aus diesen Sätzen folgen die Regeln für die Kurvendiskussion. Satz: (Bernoulli, de l’Hospital) f, g seien auf einem Intervall ]x0 , x0 + ε[ differenzierbar und auf [x0 , x + ε] stetig. Ferner sei g 0 (x) 6= 0 ∀ x ∈ ]x0 , x0 + ε[ und limx→x+ f (x) = limx→x+ g(x) = 0 0 0 Dann gilt: 0 (x) (x) Falls limx→x+ fg0 (x) existiert, dann existiert auch limx→x0 fg(x) und hat den gleichen Wert. 0 + − Der Satz gilt auch für x → x− 0 , x → x0 , x → ∞ , x → ∞ analog. Beweis: Es sei x ∈ ]x0 , x + ε[ Mittelwertsatz ist anwendbar für a = x0 , b = x für f und g. ∃ also ξ1 , ξ2 ∈ ]x0 , x[ mit Damit: f (x) − f (x0 ) g(x) − g(x0 ) = f 0 (ξ1 ) und = g 0 (ξ2 ) x − x0 x − x0 f (x) f (x) − f (x0 ) f (x) − f (x0 ) x − x0 f 0 (ξ1 ) = = ∗ = 0 g(x) g(x) − g(x0 ) x − x0 g(x) − g(x0 ) g (ξ2 ) + Für x → x+ 0 geht auch ξ1 , ξ2 → x0 falls limx→x+ 0 ⇒ lim x→x+ 0 Beispiel: Existiert limx→1 1+cos πx x2 −2x+1 f 0 (x) g 0 (x) existiert. f 0 (x) f 0 (ξ1 ) f (x) = lim = lim 0 0 + + g (x) x→x0 g (ξ2 ) x→x0 g(x) ? 68 Mit f (x) = 1 + cos πx und g(x) = x2 − 2x + 1 ist limx→1 f (x) = 0 und limx→1 g(x) = 0 Also de l’Hospital anwenden: f 0 (x) −π sin πx u(x) = = 0 g (x) 2x − 2 v(x) Es ist wiederum: lim u(x) = 0 lim v(x) = 0 x→1 Also nochmals: x→1 u0 (x) −π 2 cos πx = v 0 (x) 2 v 0 (x) −π 2 cos πx π2 = lim = , existiert also. x→1 u0 (x) x→1 2 2 lim Damit existiert auch limx→1 Damit auch limx→1 f 0 (x) g 0 (x) u(x) v(x) und ist = und limx→1 f (x) g(x) π2 2 . und alle sind = π2 2 . Satz: (2. Regel von Bernoulli, de l’Hospital) Voraussetzung wie oben, aber limx→x+ f (x) = ±∞ 0 Vorzeichen können verschieden sein. und limx→x0 g(x) = ±∞ Dann gilt: 0 (x) existiert, dann existiert auch limx→x+ = Falls limx→x+ fg0 (x) 0 0 Wert. Beweis: wie oben. f (x) g(x) und hat den gleichen Beispiel: lim x2 ∗ ex (3) lim x2 ∗ ex (4) x→∞ x→−∞ 1. Es gilt limx→∞ ex = +∞ und limx→∞ x2 = +∞ ⇒ limx→+∞ x2 ∗ ex = +∞ 2 2. limx→−∞ x2 ∗ ex = limx→+∞ (−x)2 ∗ e−x = limx→+∞ xex Damit liegt der Fall ” ∞ ∞ ” vor. Betrachte f 0 (x) 2x ∞ = x : wieder g 0 (x) e ∞ Nochmal (2x)0 2 = x x 0 (e ) e 69 2 = 0 ⇒ lim x2 ∗ ex = 0 x→−∞ ex ”Die e-Funktion ”schlägt” jede Potenz von x”: oder ”die ln-Funktion wird von jeder Potenz von x geschlagen.” lim x→∞ 3.5 Höhere Ableitungen Definition: Es sei f auf einem Intervall I differenzierbar, also existiert f 0 (x) für jedes x ∈ I. Ist f 0 (x) selbst weider in x0 ∈ I differenzierbar, so heisst (f 0 )0 (x0 ) die zweite Ableitung 2 von f und wird mit f 00 (x0 ) oder ddxf2 bezeichnet. Entsprechendes gilt für f 000 (x0 ) = x0 d d d d3 f (x ) = f (x ). 0 0 dx dx dx dx3 Allgemein: f (n) (x0 ) = (f (n−1) )0 (x0 ) , falls möglich. Insbesondere: f (0) (x) := f (x) Ist eine Funktion f auf D ⊆ R n-mal differenzierbar und ist f (n) auf D noch stetig, so schreibt man f ∈ C n (D) Ist f beliebig oft differenzierbar, so heisst f eine C ∞ -Funktion (f ∈ C ∞ (D)) Beispiele: (i) f (x) = sin x , cos x , ex sind C ∞ (R) (ii) für festes minN ist auf f (x) = xm ∈ C ∞ (R) f (0) (x) = xm f (1) (x) = m ∗ xm−1 .. . so lange, bis f (k) = konstant ist. Es gilt für k ≤ m: f (k) (x) = m ∗ (m − 1)(m − 2) . . . (m − (k − 1)) ∗ xm−k m ∗ (m − 1) . . . (m − k) . . . 1 m−k x (m − k) . . . 1 m! xm−k (m − k)! für k > m: f (k) (x) = 0 70 (iii) ( x2 sin x1 f (x) = 0 für x 6= 0 für x = 0 ist genau einmal differenzierbar auf R für x 6= 0 : C ∞ (R {0}) Differenzial: k 2 sin k1 − 0 f (0 + k) − f (0) 1 = = k ∗ sin k k k 1 1 =0 lim k ∗ sin = lim k ∗ lim sin k→0 k k→0 | {z } k→0 | {z k} =0 = beschränkt ( 2x sin x1 + x2 cos x1 ∗ − x12 = 2x sin x1 − cos x1 0 f (x) = 0 x 6= 0 x=0 2. Ableitung? lim 2x sin x→0 1 =0 x aber lim cos x→0 1 x f 0 (x) existiert nicht ⇒ limx→0 existiert nicht. ⇒ f 0 ist in x = 0 nicht stetig, also auch nicht differenzierbar. ⇒ f ist nur einmal differenzierbar in x = 0. 4 Integralrechnung einer Veränderlichen 4.1 Unbestimmte Integrale Definition: Gegeben: f : D → R Eine Funktion F : D → R heisst Stammfunktion von f , wenn ∀ x ∈ D : F 0 (x) = f (x) Bemerkung: Die Suche einer Stammfunktion, also die Umkehrung der Differenziation ist eine eindeutig lösbar, denn wenn F (x) Stammfunktion ist, dann auch F (x) + c, denn (F (x) + c)0 = F 0 (x) + 0 = f (x) Andererseits: Ist D ein Intervall, so gilt: Seien F1 (x) und F2 (x) zwei verschiedene Stammfunktionen von f (x), dann ist H(x) = F2 (x) − F1 (x) auf Ddifferenzierbar mit H 0 (x) = F20 (x) − F10 (x) = f (x) − f (x) = 0 71 ⇒ H(x) = konstant = C ⇒ F2 (x) = F1 (x) + c Definition: Die Menge aller Stammfunktionen einer gegebenen Funktion f (x) heisst das unbestimmte Integral von f (x) und wird mit Z f (x)dx bezeichnet. Beispiel: Z cos xdx = sin x + c Durch Umkehrung der Differenziationsregeln erhält man: Satz: (Grundintegrale) (i) n 6= −1 n∈R (ii) R 1 x dx (iii) R sin xdx = − cos x + c (iv) R cos xdx = sin x + c (v) R ex dx = ex + c (vi) R 1 dx 1+x2 (vii) R √ 1 dx 1−x2 Z xn dx = 1 xn+1 + c n+1 = ln |x| + c = arctan x + c = arcsin x + c Beweise: Durch Differenzieren. Satz: (Einfache Integrationsregeln) Durch Umkehrung der Differenziationsregeln erhält man: R R R (i) (f (x) + g(x))dx = f (x)dx + g(x)dx R R (ii) αf (x)dx = α f (x)dx ⇒ alle Polynome können integriert werden: Beispiel: Z (5x2 − 3x + 7)dx = Z Z Z 5x2 dx − 3xdx + 7dx = Z Z Z 2 5 x dx − 3 xdx + 7 dx = 72 1 1 5( x3 + c1 ) − 3( x2 + c2 ) + 7(x + c3 ) = 3 2 5 3 = x3 − x2 + 7x +5c1 − 3c2 + 7c3 | {z } 3 2 =c Satz: (Hauptsatz der Differenzial- und Integralrechnung, 1. Teil) Sei f (x) auf einem Intervall I stetig und positiv, a ∈ I fest, gegeben. Für x > a bezeichne A(x) die Fläche zwischen dem Graph f (x) und der x-Achse von a bis x. Behauptung: Es gibt ein ξ ∈]x, x + k[ mit f (ξ) ∗ k = ∆ Beweis: Da f stetig ist, gibt es im Intervall [x, x + k] ein globales Minimum f (m) und Maximum f (M ) von f . ⇒ ∀ t ∈ [x, x + k] : f (m) ≤ f (t) ≤ f (M ) Dann gilt für die Fläche ∆: f (m) ∗ k ≤ ∆ ≤ f (M ) ∗ k Nach dem Mittelwertsatz gibt es ein ξ mit x < ξ < x + k ⇒ ∆ = f (ξ) + k ⇒ A(x + k) = A(x) + ∆ = A(x) + f (ξ) ∗ k A(x + k) − A(x) = f (ξ) k A(x + k) − A(x) lim = f (x) k→0 k Dann ist die Funktion A(x) differenzierbar und A0 (x) = f (x) ⇒ A(x) ist eine Stammfunktion von f (x) R Bedeutung der Konstante c bei f (x) dx = A(x) + c: Je nachdem, wo man mit der Berechnung der Fläche beginnt, erhält man unterschiedliche c. Satz: (Hauptsatz der Differenzial- und Integralrechnung) Gegeben sei f (x), auf einem Intervall stetig und positiv, a ein fester Punkt im Intervall I. Für x > a bezeichnet Aa (x) die Fläche zwischen Graph f (x) und x-Achse von x = a → x. Für x < a bezeichnet Aa (x) das negative dieser Fläche. Dann gilt: Aa (x) ist eine Stammfunktion der Funktion f (x), und zwar diejenige, für die Aa (a) = 0 ist. Bemerkung: Hat f (x) im Intervall auch negative Werte, dann definieren wir eine Hilfsfunktion f˜(x) = f (x) + D so dass f˜(x) positiv im Intervall ist. ⇒ Aa (x) = A˜a (x) − D(x − a) 73 Dann ist ebenfalls 0 Aa (x) = A˜a (x) − D ∗ 1 = f˜(x) − D = f (x) + D − D = f (x) ⇒ Aa (a) = A˜a (a) −D ∗ 0 = 0 | {z } =0 4.2 Bestimmte Integrale Es sei für a ∈ I eine Stammfunktion Aa (x) bekannt. Für die Fläche zwischen b und c gilt dann A = Aa (c) − Aa (b) Für eine andere Stammfunktion F (x) gilt F (x) = Aa (x) + C Dann ist A = (F (c) − C) − (F (b) − C) = F (c) − F (b) | {z } | {z } =Aa (c) =Aa (b) ⇒ Die Fläche A lässt sich als Differenz beliebiger Stammfunktionen berechnen. Der Ausdruck Z c Fc − Fb = f (x) dx = [F (x)]cb , F (x) beliebige Stammfunktion von f (x) b heisst das bestimmte Integral von f (x) von b bis c. Das gilt auch für c < b. Satz (Hauptsatz der Differenzial- und Integralrechnung, 2. Teil) Ist f (x) auf einem Intervall I stetig und positiv und sind R c b, c ∈ I, b < c, so gilt: Fläche A zwischen Graph und x-Achse von b bis c = b f (x) dx Falls f (x) > 0 ∀ x ∈ I tatsächliche Fläche. Anderfalls: Z c F1 + F3 = (f (x) + D) dx b = (F (x) + D ∗ x)|cb = F (c) + D ∗ c − F (b) − D ∗ b Z c = F (c) − F (b) + D(c − b) Z c f (x) dx + (F2 + F3 ) ⇒ f (x) dx = F1 − F2 b b Daraus ergibt sich der Satz: Falls die bestimmten Integrale existieren: 74 (i) Rb (ii) Ra a f (x) dx = − Ra b f (x) dx f (x) dx = 0 Rb Rc Rc (iii) a f (x) dx + b f (x) dx = a f (x) dx F (b) − F (a) + F (c) − F (b) = F (c) − F (a) gilt für beliebige a, b, c a Satz: Rx Es sei f (x) stetig auf I, dann gilt F (x) = b + a f (t) dt ist eine Stammfunktion von f (x) und zwar diejenige, die an der Stelle x = a den Wert b hat. Anwendungsbeispiel: Es sei f (x) = |x − 1| gesucht ist diejenige Stammfunktion F (x) mit F (0) = 5 ( x−1 für x ≥ 1 f (x) = −x + 1 für x < 1 x Z f (t) dt F (x) = 5 + 0 1. Fall: x < 1 x Z F (x) = 5 + 0 1 (1 − t) dt = 5 + t − t2 2 x =5+x− 0 x2 −0 2 2. Fall: x ≥ 1 Z x Z |t − 1| dt = 5 + F (x) = 5 + 0 1 Z (1 − t) dt + 0 x (t − 1) dt 1 x 1 2 1 1 2 =5+ t− t + t −t 2 0 2 0 =5+1− x2 1 1 −0+ −x− +1 2 2 2 x2 =5+ −x 2 ( 2 −x + x + 5 ⇒ F (x) = x2 2 2 −x+5 für x < 1 für x ≥ 1 4.3 Integrationstechniken 4.3.1 Substitutionsregel (Umkehrung der Kettenregel der Differenziation d d d F (ϕ(t)) = F (ϕ(t)) ∗ ϕ(t) dt dϕ(t) dt 75 R d Sei F eine Stammfunktion von f , also dx F = f , oder F (x) + C = f (x) dx Z Z Z d ⇒ F (ϕ(t)) dt = F 0 (ϕ(t)) ∗ ϕ0 (t)dt = f (ϕ(t)) ∗ ϕ0 (t)dt dt Andererseits: Z d (F (ϕ(t))) dt = F (ϕ(t)) + c dt mit x = ϕ(t) : Z = F (x) + c = f (x)dx (1) und (2) ergeben zusammen: Satz (Substitutionsregel) Z Z f (x) dx = f (ϕ(t)) ∗ ϕ0 (t) dt mit x = ϕ(t) Diese Gleichung lässt sich auf zwei Arten benutzen: ”von rechts” und ”von links”. Beispiele: a) Anwendung von rechts: (i) R1. Substitution x = sin R t2 2 cos t dt = x dx sin | {z }t ∗ |{z} f (x)=x2 =ϕ(t) 2. Rechnung in x = 31 x2 + c 3. Rücksubstitution ⇒ Ergebnis = 31 sin3 t + c (ii) t ∗ e2 dt Umformung: R = 12 |{z} 2t ∗ R = = = 2 et |{z} dt 0 (t) =f (ϕ(t)) mit x=ϕ(t)=t2 :f (x)=ex R =ϕ 1 x e dx 2 1 x (e + c) 2 1 t2 2 e + c̃ (iii) ”Logarithemische Ableitung” k(t) beliebig, differenzierbar Z 0 Z k (t) 1 dt = ∗ k 0 (t) dt k(t) k(t) |{z} |{z} ϕ0 (t) f (ϕ(t)) 76 mit x = ϕ(t) = k(t) ⇒ f (x) = x1 Z Z 1 = f (x) dx = dx = ln |x| + c x Rücksubstitution: = ln |k(t)| + c Anwendung: Z Z tan t dt = Z t 1 dt = t2 + 1 2 Z sin t dt = − cos t Z − sin t = − ln | cos t| + c cos t p 2t 1 1 2 2 t2 + 1+c dt = ln |t +1|+c = ln(t +1)+c = ln t2 + 1 2 2 b) Anwendung ”von rechts” R√ (i) 2x − 1 dx Substitution: t = 2x − 1 x = t+1 2 = ϕ(t) d 1 1 0 = dx 2 = ϕ (t) ⇒ dx = 2 dt Z r Z √ Z Z √ 1 t+1 1 1 1 2x − 1 dx = 2∗ − 1 ∗ dt = t ∗ dt = t 2 dt ⇒ 2 2 2 2 |{z} dx = √ dx ( 1+x2 )3 3 3 1 2 1 ∗ ∗ t 2 + c = (2x − 1) 2 + c 2 3 3 dx (ii) R (iii) Substitution: t = arctan x x = tan t (= ϕ(t)) 1 cos2 t+sin2 t dx dt dt = cos2 t ⇒ dx = cos2 t dx = (1 + tan2 t) dt Z Z Z Z Z √ dx dx 1 + tan2 t dt √ √ = = dt = = cos2 t dt 3 3 2 2 2 ( 1 + x2 )3 1 + tan t (1 + x ) 2 (1 + tan t) 2 Z Z x = | cos t| dt = cos t dt = sin t + c = sin(arctan x) + c = √ +c 1 + x2 R dx = R 3 (1+x2 ) 2 ax+b Substitution: t = ax + b x = t−b a = ϕ(t) dx 1 dt 0 dt = ϕ (t) = a ⇒ dx = a Z Z Z dx dt 1 dt 1 1 = = = ∗ ln t + c = ∗ ln |ax + b| + c ax + b t∗a a t a a 77 (iv) R dx x2 +R2 R 6= 0 Z dx 1 = 2∗ 2 2 x +R R Z dx x2 R2 +1 x Substitution: t = R x=t∗R dx dt = R ⇒ dx = R dt Z R ∗ dt 1 1 x 1 = ∗ arctan t + c = ∗ arctan + c = 2 R t2 + 1 R R R Anwendung der Substitutionsregel auf bestimmte Integrale R 1. f (x) dx wird durch Substitution/Rücksubstitution gelöst (wie oben) ⇒ F (x) Rb Dann a f (x) dx = F (b) − F (a) Rb 2. a f (x) dx = Substitution: x = ϕ(t) (dx = ϕ0 (t) dt) inklusive der Grenzen: a := ϕ−1 (a) b := ϕ−1 (b) Z ϕ−1 (b) Z b f (x) dx = ϕ(t) ϕ0 (t) dt ϕ−1 (a) a Beispiel: Z 1 1. Substitution: t = x + 1 x = t − 1 = ϕ(t) dx 0 dt = ϕ (t) = 1 ⇒ dx = dt Grenzen: x = 1 ⇒ t = 2 x=2⇒t=3 Z 1 2 2 ln(x + 1)2 dx = x+1 ln(x + 1)2 dx = x+1 Z 2 3 2 ln t dt = t 2. Substitution: s = ln t t = es = ϕ(t) dt 0 s s ds = ϕ (t) = e ⇒ dt = e ds Grenzen: t = 2 ⇒ s = ln 2 t = 3 ⇒ s = ln 3 Z 2 Z 3 Z ln 3 2 ln 3 ln(x + 1)2 2 ln t 2s s dx = dt = ∗ e ds = s ln 2 = (ln 3)2 − (ln 2)2 s x + 1 t e 1 2 ln 2 78 Satz: (Bestimmte Integrale für Funktionen mit Symmetrieeigenschaften) Sei a ∈ R+ fest und das Integral existiert. Dann gilt: (i) f ist eine gerade Funktion: f (−x) = f (x) Z Z +a f (x) dx = 2 −a a f (x) dx 0 (ii) f ist ungerade: f (−x) = −f (x) Z +a f (x) dx = 0 −a 4.3.2 Partielle Integration Beruht auf der Produktregel: (u ∗ v)0 = u0 v + uv 0 Z (uv 0 ) dx = uv 0 = (u ∗ v)0 − u0 v Z Z 0 0 (u ∗ v) dx − (u v) dx = u ∗ v − (u0 v) dx Z Satz: (partielle Integration) Z u ∗ v 0 dx = u ∗ v − b Z 0 uv dx = [u ∗ a v]ba Z u0 v dx Z − b u0 v dx a Faustregel: v ist die ”komplizierte” Funktion. Beispiel: R (i) sin2 x dx Z Z 2 sin x dx = Z sin x ∗ sin x dx = u ∗ v − |{z} |{z} u0 v dx =v 0 =u u0 = cos x v = − cos x + c mit c = 0 der Einfachheit halber. Z Z = sin x(− cos x) − cos x(− cos x) dx = − sin x cos x + 2 cos | {z x} dx =1−sin2 x Z = − sin x cos x + Z 1 dx − sin2 x dx Vergleich zeigt: Z ⇒ A=B−A 1 sin2 x dx = − (sin x cos x + x) + c 2 79 R R ln x dx = 1 ∗ ln x dx = u ∗ v − u0 v dx v = x(+c) u0 = x1 Z Z Z Z 1 0 ln x dx = 1 ∗ ln x dx = u ∗ v − u v dx = ln x ∗ x − ∗ x dx = x ∗ ln x − x + c x R2 (iii) 1 x2 ex dx v = ex (+0) u0 = 2x Z 2 Z 2 Z 2 x 2 2 x 2 x 2 x ∗ ex dx 2x ∗ e dx = 4e − e − 2 x e dx = [x ∗ e ]1 − (ii) R 1 1 1 = 4e2 − e − 2 [x ∗ ex ]21 − Z 2 1 ∗ ex dx = 4e2 − e − 2(2e2 − e − (e2 − e)) = 2e2 − e 1 4.3.3 Integration mittels PBZ (für gebrochen rat. Funktionen) 1. Schritt: Durch Polynomdivision auf die Form ”Polynom + echt gebr. rat. Funktion” bringen. 2. Schritt: PBZ durchführen (für den echt gebr. rat. Teil) 3. Schritt: Integration der Einzelsummanden R A a) x−a dx = A ln |x − a| + c (Anwendung der Subst. Regel) b) Für n ≥ 2 Z A dx = (x − a)n Z A dx tn x=t+a dx = 1 ∗ dt Z Z dt A A =A = A t−n dt = ∗ t−n+1 + c = ∗ (x − a)1−n + c n t −n + 1 1−n c) R Cx+D x2 +cx+d dx x2 + cx + d unzerlegbar Z Z 1 x D dx +C dx x2 + cx + d x2 + cx + d | {z } | {z } I II I: Mit ∆ = 4c − d2 ( I= √2 arctan 2x+c √ ∆ ∆ √ √ 1 ln 2x+c−√−∆ −∆ 2x+c+ −∆ 80 für ∆ > 0 für ∆ < 0 II: II = Z 1 c ln(x2 + cx + d) − 2 2 dx x2 + cx + d | {z } =I 4.4 Uneigentliche Integrale Erweiterung des Begriffs ”bestimmtes Integral” durch zwei zusätzliche Grenzprozesse Z b f (x) dx; f auf [a, b] stetig; bestimmtes Integral existiert f : D → R; [a, b] ⊆ D; a Es gibt zwei Typen uneigentlicher Integrale 1. Typ: f besitzt auf [a, b] eine Stelle c, wo die Funktion eine Lücke oder Unstetigkeitsstelle hat. Dabei kann c in {a, b} oder ]a, b[ liegen. 1. Fall: c ist eine Integrationsgrenze, c = b Ru Man bildet für festesR u ∈ [a, b] das Integral a f (x) dx u Wenn nun limu→b− a f (x) dx existiert, dann heisst dieser Grenzwert ”das Rb eigentliche Integral von a bis b von f (x) dx ” (= a f (x) dx) Beispiel: R1 1 f (x) = √1−x ist für x ≥ 1 nicht definiert. Existiert 0 Für festes u ∈ [0, 1[ berechne: Z u 1 √ 1−x 0 | {z } √dx ? 1−x =t Substitution: t=1−x x=1−t dx = −dt Grenzen: x=0⇒t=1 x=u⇒t=1−u Z 1−u Z 1 √ 1 1 1 √ (−1) dt = t− 2 dt = [2t 2 ]11−u = 2 − 1 − u t 1 1−u Dann Limesbetrachtung: lim (2 − u→1− √ Z 1 − u) = 2 ⇒ 0 1 √ dx =2 1−x 2. Fall: c ∈ ]a, b[ Wie im 1. Fall wird der limu→c geprüft, aber sowohl u → c+ als auch u → c− . 81 2. Typ: Das Integrationsintervall ist unendlich lang. 1. Fall: a = −∞ oder b = +∞ Rb Analog Typ 1: Für u ∈ R fest bilde u f (x) dx Rb Rb dann limu→−∞ u f (x) du = −∞ f (x) dx 2. Fall: a = −∞ und b = +∞ Rc Man wähle einen Wert C ∈ R (meist C = 0) und prüft, ob −∞ f (x) dx und R +∞ R +∞ f (x) dx existieren. Falls ja, ist −∞ f (x) dx die Summe der beiden. c Bemerkung: R +u Es genügt nicht, zu zeigen, dass limu→∞ −u f (x) dx existiert. R +∞ R∞ R +u z.B. −∞ x3 dx existiert nicht, denn sonst würde auch 0 x3 dx existieren. Aber limu→∞ −u x3 dx = 0. 5 Komplexe Zahlen und Funktionen 5.1 Einführung Die quadratische Gleichung x2 + 2x + 2 = 0 ist in R nicht lösbar, denn x1/2 = −1 ± √ 1−2 . | {z } existiert nicht in R Allgemein: Die quadratische Gleichung x2 + px + q = 0 ergibt: v u p u p 2 −q x1/2 = − ± u 2 t | 2 {z } ”Diskriminante” D Dann hat die obige Gleichung a) zwei Lösungen, wenn D > 0 ist. b) eine Lösung, wenn D = 0 ist. c) keine Lösung, wenn D < 0 ist. ⇒ Es soll R durch Hinzunahme weiterer Zahlen so erweitert werden, dass auch Fall c) lösbar wird. Wie muss diese Erweiterung aussehen? x2 + px + q = 0 p 2 p 2 ⇔ x2 + px + = −q + 2 2 p 2 p 2 ⇔ x+ −q = 2 | {z2 } ≥0, falls x∈R 82 2 Es sei nun p4 − q < 0, also q − Damit wird p2 4 >0 p2 p 2 p 2 p 2 = = (−1) q − = (−1) x+ −q ⇔ x+ 2 4 2 4 r p2 q− 4 !2 Wenn es eine Zahl j ∈ M gäbe mit j 2 = −1, dann wäre !2 !2 r r p2 p2 p 2 2 =j q− x+ = j∗ q− 2 4 4 p ⇔x+ =j∗ 2 oder p x + = −j ∗ 2 r q− r p2 q− 4 r p ⇔ x1/2 = − ± j ∗ 2 Der eigentlich ”unlösbare” Fall D = p2 4 p2 4 q− p2 4 − q < 0 wird (formal) lösbar. R soll erweitert werden zu einer Menge M , derart, dass es ein j ∈ M gibt mit j 2 = −1 und in M die gleichen Rechengesetze wie in R gelten. Konsequenzen dieser Forderung Seien a, b, c beliebige reelle Zahlen. (K1) b∗j ∈M d∗j ∈M a + bj ∈ M c + dj ∈ M Insgesamt also: M 0 = {a + bj ∈ M |a, b ∈ R} ist eine Teilmenge von M (K2) a + bj ∈ M 0 und c + dj ∈ M 0 beliebig gegeben und a + bj = c + dj Dann gilt: a = c ∧ b = d, denn a + bj = c + dj ⇔ a − c = j(d − b) (a − c)2 = (−1)(d − b)2 ⇔ (a − c)2 + (d − b)2 = 0 | {z } | {z } ≥0 2 ≥0 2 ⇒ (a − c) = 0 ∧ (d − b) = 0 ⇒a=c∧b=d D.h.: Die Elemente von M0 sind in der Gestalt a + bj eindeutig beschrieben. (K3) Rechenregeln für Elemente aus M 0 : 83 a) (a + bj) + (c + dj) = (a + c) + (b + d) j ∈ M 0 | {z } | {z } ∈R ∈R b) (a + bj) − (c + dj) = (a − c) + (b − d j ∈ M 0 | {z } | {z } ∈R ∈R c) (a + bj) ∗ (c + dj) = ac + adj + cbj + bdj 2 = (ac − bd) + j(ad + bc) ∈ M 0 d) a+bj c+dj = c und d nicht gleichzeitig 0, d.h. c2 + d2 > 0 (a + bj) ∗ (c − dj) (ac + bd) + j(−ad + bc) a + bj = = = c + dj (c + dj) ∗ (c − dj) c2 − d2 j 2 (ac + bd) + j(bc − ad) ac + bd bc − ad = 2 +j 2 ∈ M0 2 2 2 c +d c +d c + d2 Dann gilt: M 0 ist gross genug, um j zu enthalten (j = 0 + 1 ∗ j), ferner alle x ∈ R (x = x + 0 ∗ j), und auf M 0 gelten alle Grundrechenarten. Ausserdem ist jedes Element aus M 0 eindeutig durch die Angabe der reellen Zahlen x und y gegeben. 5.2 Die komplexen Zahlen Definition: Die Menge M 0 = ˆ R2 (= Menge aller Paare reeller Zahlen) wird mit C bezeichnet und heisst ”die Menge der komplexen Zahlen”. (K3) legt folgende Definition nahe: a) Addition: (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) (Vektoraddition) b) Multiplikation: (x1 , y1 ) ∗ (x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ) +y1 y2 y1 x2 −y2 x1 c) Division: (x1 , y1 ) ÷ (x2 , y2 ) = x1xx22+y , x2 +y2 2 2 Satz: C ist ein Körper, d.h. für alle c1 , c2 , c3 | {z } 2 2 2 ∈ C gilt: Paare (x,y),x,y∈R 1. bezüglich Addition a) c1 + (c2 + c3 ) = (c1 + c2 ) + c3 (Assoziationsgesetz) b) c1 + c2 = c2 + c1 (Kommutativgesetz) c) N ∈ C mit c + N = c ∀ c ∈ C (neutrales Element der Addition) d) Für jedes c ∈ C gibt es ein c̃ ∈ C mit c + c̃ = N c = (a, b) ⇒ c̃ = (−a, −b) (inverses Element) 2. bezüglich Multiplikation: √ a) √ b) 84 c) Neutrales Element der Multiplikation: ∃ E ∈ C, so dass für jedes c ∈ C : E ∗ c = c E = (1, 0) d) Für jedes c ∈ C \ {(0, 0)} = C \ {N } gilt: ˜ ˜ Es gibt ein c̃ ∈ Cmit c̃ ∗ c = E a −b c̃˜ = a2 +b für c = (a, b) 2 , a2 +b2 3. Distributivgesetz: c1 ∗ (c2 + c3 ) = (c1 ∗ c2 ) + (c1 ∗ c3 ) Problem! Die Erweiterung des Zahlenbereichs muss ”abwärtskompatibel ”erfolgen. Siehe N → Z → ? Q→R→ − C D.h. N ⊂ Z ⊂ Q ⊂ R, aber R 6⊆ R2 , denn ein Element aus R2 besteht aus jeweils einem Paar (x, y), x, y ∈ R. Identifikation Man definiert eine Abbildung I : R → C, die jedem Element a ∈ R ein Element (a, 0) ∈ C zuordnet: a 7−→ (a, 0) und betrachtet statt R im folgenden stets I(R) = {(x, 0) ∈ C|x ∈ R} Nun versucht man x so zu beschreiben, dass sich R als Teilmenge von C identifizieren lässt. Alle Rechenoperationen zweier Zahlen in R muss auch in C zum reellen Ergebnis führen: a, b ∈ R I(a + }b) = I(a) + I(b) | {z | {z } in R in C I(a ∗ b) = I(a) ∗ I(b) |{z} | {z } in R in C I:R→C a 7→ (a, 0) erfüllt diese Bedingungen: linke Seite (1): I(a + b) = (a + b, 0) rechte Seite(1): I(a) + I(b) = (a, 0) + (b, 0) = (a + b, 0 + 0) linke Seite (2): I(a ∗ b) = (a ∗ b, 0) rechte Seite (2): I(a) ∗ I(b) = (a, 0) ∗ (b, 0) = (ab − 0 ∗ 0, a ∗ 0 + b ∗ 0) = (a ∗ b, 0) Damit gilt für jedes x ∈ R: (x, 0) = ˆ x Satz: Mit j := (0, 1) gilt: i) j 2 = j ∗ j = −1 ii) Für jedes x, y ∈ R: (x, y) = x +j ∗ y | {z } in C 85 Beweis: i) j 2 = j ∗ j = ˆ (0, 1) ∗ (0, 1) = (0 ∗ 0 − 1 ∗ 1, 0 ∗ 1 + 1 ∗ 0) = (−1, 0) = ˆ −1 ii) x+j∗y = ˆ (x, 0)+(0, 1)∗(y, 0) = (x, 0)+(0∗y−1∗0, 0∗0+1∗y) = (x, 0)+(0, y) = (x, y) Definition: i) j heisst imaginäre Einheit (nur für E-Techniker, sonst ”i ”) ii) für z = (x, y) ∈ C, entsprechend z = x + j ∗ y heisst x der Realteil (Rez) und y der Imaginärteil (Imz) von z. Üblicherweise rechnet man mit x + j ∗ y statt mit (x, y), und zwar wie mit reellen Variablen, zusätzlich aber j 2 =√−1 Achtung: Die Definition j := −1 ist Unsinn, denn p √ √ √ −1 = j 2 = −1 ∗ −1 = (−1) ∗ (−1) = 1 = +1 Beispiel: (3, 1) 1 − ∗ (1, 1) ∗ (1, 1) (2, −1) (2, 0) = (3 + j)(2 + j) 1 − (1 + 2j + j 2 ) (2 − j)(2 + j) 2 = = 6 + 5j + j 2 1 − (2j) 22 − j 2 2 5 + 5j −j =1+j−j =1 5 5.3 Die Gausssche Zahlenebene Die Zahl z = x + j ∗ y = (x, y) ∈ C stellt man sich als Punkt in einer Ebene mit karthesischen Koordinatensystem vor: Zahlen auf der waagerechten Achse: reelle Zahlen Zahlen auf der senkrechten Achse: (rein) imaginäre Zahlen Was bedeuten Addition und Multiplikation in C anschaulich? Addition: z1 = x 1 + j ∗ y1 z2 = x 2 + j ∗ y2 z1 + z2 = (x1 + x2 ) + j ∗ (y1 + y2 ) = (x1 + x2 , y1 + y2 ) entspricht der Vektoraddition in der Ebene 86 Multiplikation in C: (x1 , y1 ) ∗ (x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ) = z1 ∗ z2 | {z } | {z } z1 z2 Idee: Die Punkte der Ebene (x, y) in karthesischer Darstellung sollen auf andere Weise dargestellt werden: Durch Abstand zum Koordinatenursprung und Winkel zur positiven x-Achse. (Polarkoordinaten) Umrechnung: gegeben: (x, y) in karth. Koordinatensystem gesucht: p (r, ϕ) in Polarkoordinaten r = x2 + y 2 (Pythagoras) Für ϕ ist aber Fallunterscheidung nötig: a) 1. Quadrant: x > 0, y > 0 ϕ ∈ ]0, π2 [ tan ϕ = y y ⇒ ϕ = arctan x x b) 2. Quadrant x < 0, y > 0 ϕ0 + ϕ = π y π ⇒ ϕ0 ∈ ]0, [ −x 2 y y ϕ0 = arctan = − arctan −x x y ⇒ ϕ = π − ϕ0 = π + arctan x tan ϕ0 = c) 3. Quadrant x < 0, y < 0 ϕ = arctan y −π x d) 4. Quadrant ϕ = arctan xy e) Sonderfälle i) x-Achse \{N ullpunkt} ( ϕ = 0 falls x > 0 y=0⇒ ϕ = π falls x < 0 ii) y-Achse \{N ullpunkt} ( ϕ = π2 falls y > 0 x=0⇒ ϕ = − π2 falls y < 0 87 iii) Nullpunkt x = 0, y = 0, ϕ ist unbestimt p In allen Fällen ist r = x2 + y 2 unproblematisch. Zusammenfassung: p r = x2 + y 2 +1 0 -1 0 Manchmal wird der Winkel ϕ nur positiv gemessen, ϕ ∈ [0, 2π[. Dann ist alles gleich, nur die Korrekturtabelle ist: 0 +1 +1 +2 ϕ = arctan xy + k ∗ π mit k = Anmerkung: Rechentechnisch ist es oft einfacher ϕ über den arccos zu bestimmen. Polarkoordinaten (r, ϕ) gegeben. Gesucht: Karth. Koordinaten (x, y) y = r ∗ sin ϕ und x = r ∗ cos ϕ für alle Quadranten und auf den Achsen. Definition (Polarkoordinaten) Es sei z = x + jy ∈ C Die Polarkoordinate r heisst der Betrag von z und wird mit |z| bezeichnet. Die Polarkoordinate ϕ heisst das Argument von z und wird mit arg z bezeichnet. Damit: |z| = p (Re z)2 + (Im z)2 Im z +k∗π Re z Trigonometrische (EULER) Darstellung der komplexen Zahlen Für z ∈ C gilt z = x + jy und x = r ∗ cos ϕ y = r ∗ sin ϕ arg z = arctan z = r ∗ cos ϕ + jr sin ϕ = r(cos ϕ + j sin ϕ) Mit der Definition ejϕ = cos ϕ + j sin ϕ , ϕ ∈ R beliebig z = r ∗ ejϕ = |z| ∗ ej arg z Erklärung der Funktion ejϕ (Vorgriff auf 2. Semester) Funktionen lassen sich als Potenzreihen darstellen (in P. entwickeln) z.B.: x2n+1 x3 x5 + − · · · + (−1)n ± . . . |x| < ∞ sin x = x − 3! 5! (2n + 1)! cos x = 1 − x2 x4 x2n + − · · · + (−1)n ± ... 2! 4! (2n)! 88 |x| < ∞ x x2 x3 xn + + + ··· + + ... 1! 2! 3! n! Mit x = jϕ: (j 1 = j; j 2 = −1; j 3 = −j; j 4 = 1; j 5 = j; . . . ) ex = 1 + sin(jϕ) = jϕ − j ejϕ = 1 + jϕ − |x| < ∞ ϕ3 ϕ5 ϕ7 +j −j + · · · ± · · · = j ∗ sin ϕ 3! 5! 7! ϕ3 ϕ4 ϕ5 ϕ2 −j + +j − −j + +j . . . 2! 3! 4! 5! Damit ejϕ = cos ϕ + sin(jϕ) = cos ϕ + j sin ϕ Anschauliche Interpretation der Multiplikation komplexer Zahlen z1 , z2 gegeben in Euler-Darstellung, also z1 =|z1 | ∗ ejϕ1 z2 =|z2 | ∗ ejϕ2 Gesucht ist die Euler-Darstellung, also z = z1 ∗ z2 , also z = |z| ∗ ejϕ j (ϕ1 z = z1 ∗ z2 = (|z1 | ∗ ejϕ1 )(|z2 | ∗ ejϕ2 ) = (|z1 | ∗ |z2 |) ∗ ejϕ1 ∗ ejϕ2 = |z1 | ∗ |z2 | ∗e | {z } | +ϕ ) {z 2} =arg z |z| Damit: Betrag des Produkts = Produkt der Beträge Argument des Produkts = Summe der Argumente Beispiel Gegeben sei der Vektor (2, 3) √ Welcher Vektor ergibt sich bei Streckung auf das 2-fache und Drehung von 135◦ gegen den Uhr? a) geometrisch b) mit komplexer Multiplikation (2, 3) = b 2 + 3j = z1 Ferner die komplexe Zahl z2 , die die gegebene Drehstreckung repräsentiert: √ |z2 | = 2 3 arg z2 = 135◦ = b π 4 √ √ √ 3 3 3 1√ 1√ ⇒ z2 = 2 ∗ ej 4 π = 2(cos π + j sin π) = 2(− 2+j 2) = −1 + j 4 4 2 2 Der gesuchte Vektor ist (2 + 3j)(−1 + j) = −2 − 3 − j = −5 − j = b (−5, −1) 89 Verallgemeinerung Satz (von Moivre) Es sei z ∈ C in Euler-Darstellung gegeben, also z = |z| ∗ ej arg z Dann ist z n = |z|n ∗ ejn∗arg z für jedes n ∈ N Insbesondere für |z| = 1: |z|n = 1 Die Länge ändert sich nicht! Definition: Für z = x + jy ∈ C ist die konjugiert komplexe Zahl z (bzw. z ∗ ) definiert durch z(= z ∗ ) = x − jy Bemerkung: i) Spiegelung an der x-Achse (Re-Achse) ii) z = (z ∗ )∗ = z Re z =Re z Im z = − Im z |z| =|z| arg z = − arg z wenn z = z ⇒ z ∈ R iii) z1 + z2 = (x1 + jy1 ) + (x2 + jy2 ) = (x1 + x2 ) + j(y1 + y2 ) = (x1 + x2 ) − j(y1 + y2 ) = (x1 − jy1 ) + (x2 − jy2 ) = z1 + z2 Genauso z1 − z2 = z1 − z2 Aber auch z 1 ∗ z2 = z1 ∗ z 2 Insbesondere z n = (z)n z1 z2 = z1 z2 falls z2 6= 0 iv) z + z = (x + jy) + (x − jy) = 2x ⇒ x = 21 (z + z) ⇒ x = 12 (z + z) d.h. z+z ∈R 1 Re z = (z + z) 2 Analog auch Substraktion: j Im z = (z − z) 2 v) z ∗ z = (x + jy)(x − jy) = x2 + y 2 = |z|2 |z|2 = z ∗ z(= z ∗ z ∗ ) 90 Euler-Form bei Division z1 |z1 | ∗ ejϕ1 |z1 | = = ∗ ej(ϕ1 −ϕ2 ) z2 |z2 | ∗ ejϕ2 |z2 | Betrag des Quotienten = Quotient der Beträge Argument des Quotienten = Differenz der Argumente 5.4 ”Wurzeln”in C Da in C keine Ordnung besteht, sind Begriffe wie ”positiv”, ”negativ ”, ”¡ ”, ”¿ ”nicht möglich. Präzisierung der Fragestellung: Gegeben sei q ∈ C, n ∈ N, n ≥ 2 Gesucht sind alle Lösungen der Gleichung z n = q, z ∈ C Diese werden als ”n-Wurzel ”der komplexen Zahl q bezeichnet. Ist z n = q stets lösbar? Anwendung des Satzes von Moivre: Es sei q = |q| ∗ ejψ gegeben s Wir definieren z0 = |z0 | ∗ ejϕ0 mit |z0 | = |q| reelle Wurzel! n |{z} ∈R+ Dann gilt: z0n = (|z0 | ∗ ejϕ0 )n = |z0 |n ∗ ejnϕ0 p ψ = ( n |q|)n ∗ ejn n = |q| ∗ ejψ = q Also ist z0 eine Lösung der Gleichung z n = q. Die Eulersche Darstellung ist nur eindeutig, wenn ψ ∈ ] − π, +π] ist. Wegen der 2π-Periodizität von ejψ = cos ψ + j sin ψ stellt auch ψ + 2π den gleichen Wert wie eiψ (= ej(ψ+2π) ) dar. Also q = |q| ∗ ejψ = |q| ∗ ej(ψ+2π) Damit definiert man z1 ∈ C durch z1 = |z1 | ∗ ejϕ1 mit |z1 | = ψ ϕ1 = ψ+2π = + 2π n n ϕ |{z} =ϕ0 Damit z1n = (|z1 | ∗ ejϕ1 )n = |z1 |n ∗ ejnϕ1 p ψ+2π = ( n |q|)n ∗ ejn n 91 p n |q| = |q| ∗ ej(ψ+2π) = q ⇒ auch z1 ist eine Lösung von z n = q. Allgemein: z0 , z1 , z2 , . . . , zk zk = p n |q| ← für alle k gleich! ϕn = 2π ψ +k ∗ n n |{z} =ϕ0 Alle zk sind Lösungen von z n = q. Dabei gilt zn = z0 , denn zn = = p p ψ 2π n |q| ∗ ejϕn = n |q| ∗ ej( n +n n ) p p ψ n |q| ∗ ej( n +2π) = n |q| ∗ ejϕ0 = z0 ⇒ Nur z0 , z1 , . . . , zn−1 können unterschiedliche Lösungen von z n = q sein. Diese Lösungen haben alle den gleichen Betrag, die Winkel stellen aber unterschiedliche komplexe Zahlen dar, da n−1 max ∆ϕ = ϕn−1 − ϕ0 = ∗ 2π n kein Vollwinkel ist. Zusammenfassung: Die Gleichung z n = q hat in C stets genau n verschiedene Lösungen z0 . . . zn−1 die man folgendermassen erhält: q = |q| ∗ ejψ gegeben zk = |zk | ∗ ejϕk k = 0, 1, . . . , n − 1 mit |zk | = p n |q| ϕk = für alle k ψ 2π +k∗ n n Beispiel: q = 1 + j ; n = 3 → z 3 = 1 + j 1. Euler-Darstellung von q: |1 + j| = p |Re z|2 + |Im z|2 = arg(1 + j) = arctan p √ 12 + 12 = 2 Im 1 = arctan 1 = = ψ Re π 92 2. Lösung: z0 , z1 , z2 gegeben durch |zn | = q 3 √ 2= √ 6 2 ≈ 1.12 ψ 2π π +0∗ = 3 3 12 ψ 2π π 8π 3 ϕ1 = + 1 ∗ = + = π 3 3 12 12 4 2π 17π 7 ψ = = b− π ϕ2 = + 2 ∗ 3 3 12 12 π π z0 = |z0 | ∗ ejϕ0 = 1.12 cos + j sin = 1.08 + j0.29 12 12 z1 = −0.79 + 0.79j ϕ0 = z2 = −0.29 − 1.08j Beispiel: z 6 = 1 In R sind bereits zwei Lösungen bekannt: z = ±1 q = 1 ⇒ |q| = 1 und ψ = 0 √ 6 |zk | = 1 = 1 ψ 2π π π +k =0+k =k∗ 6 6 3 3 π 2π ϕ0 =0 ϕ1 = ϕ2 = 3 3 4π 2π 5π π ϕ3 =π ϕ4 = =− ϕ5 = =− 3 3 3 3 ϕk = ⇒ z0 = 1 ∗ ejϕ0 = cos 0 + j sin 0 = 1 π 1 1 √ π + j sin = + j ∗ 3 3 3 2 2 π π 1 1 √ = cos 2 + j sin 2 = − + j ∗ 3 3 3 2 2 z1 = 1 ∗ ejϕ1 = cos z2 = 1 ∗ ejϕ2 z3 = 1 ∗ ejϕ3 = cos π + j sin π = −1 4π 4π 1 1 √ + j sin =− −j ∗ 3 3 3 2 2 5π 5π 1 1 √ = cos + j sin = −j ∗ 3 3 3 2 2 z4 = 1 ∗ ejϕ4 = cos z5 = 1 ∗ ejϕ5 93