Mathematik für Physiker, Informatiker und Ingenieure I

Werbung
Mathematik für Physiker, Informatiker und Ingenieure I
Skriptum des WS 2007/08
Prof. Dr. M. v. Golitschek
Institut für Mathematik
Universität Würzburg
Literatur:
Suchen Sie doch hin und wieder die Bibliotheken der Physik oder der Mathematik auf !
Hier ist eine kleine Anzahl guter Lehrbücher :
1. W. Pavel, R. Winkler : Mathematik für Naturwissenschaftler.
Pearson Studium, 2007.
2. A. Hoffmann, B. Marx, W. Vogt : Mathematik für Ingenieure 1, 2.
Pearson Studium, 2005 bzw. 2006.
3. D. Hachenberger : Mathematik für Informatiker.
Pearson Studium, 2005.
4. H. Kerner, W. von Wahl : Mathematik für Physiker.
Springer-Verlag, 2006.
5. H. Neunzert, W.G. Eschmann, et. al.: Analysis 1, Analysis 2.
Springer-Verlag 1993.
Inhaltsangabe
Kapitel I : Grundlagen der Mengenlehre
1.
2.
3.
4.
5.
Mengen und Teilmengen
Verknüpfungen von Mengen
Relationen
Abbildungen
Direkter Beweis und Widerspruchsbeweis
1
Kapitel II : Grundwissen über Zahlen
1. Die natürlichen Zahlen.
Induktionsbeweis (Beweis durch vollständige Induktion)
2. Rationale und reelle Zahlen
3. Komplexe Zahlen
Kapitel III: Folgen und Reihen
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
Zahlenfolgen, Konvergenz, Grenzwert
Konvergenzkriterien für Folgen
Unendliche Reihen
Teilfolgen. Satz von Bolzano und Weierstraß
Reell- oder komplexwertige stetige Funktionen
Die Sätze von Bolzano, Heine, Weierstraß
Potenzreihen
Die Exponentialfunktion
Die trigonometrischen Funktionen
Die Umkehrfunktion
Kapitel IV: Differential- und Integralrechnung einer reellen Variablen
1.
2.
3.
4.
5.
6.
7.
Das Riemannsche Integral
Differenzierbarkeit einer Funktion
Differenzieren der Umkehrfunktion
Der Hauptsatz der Infinitesimalrechnung
Anwendung: Berechnung von Weglängen
Das uneigentliche Integral
Tangenten.
Das Newton Verfahren zur Berechnung von Nullstellen
8. Extrema von Funktionen, Wendepunkte, Satz von Rolle
Mittelwertsatz der Differentialrechnung,
9. Der Taylorsche Satz, Taylor-Reihen
10. Die Regel von l’Hospital
Kapitel V: Lineare Algebra. Teil 1
1.
2.
3.
4.
5.
Linearer Raum
Lineare Abbildungen, Lineare Gleichungssysteme
Das Eliminationsverfahren von Gauß
Der Rang einer Matrix
Determinanten
Anhang : Lineare Differentialgleichungen mit konstanten Koeffizienten
2
Kapitel I : Grundlagen der Mengenlehre
§1. Mengen und Teilmengen
Wir verzichten aus Zeitgründen auf eine ausführliche Darstellung einer axiomatischen
Mengenlehre, sondern behandeln nur die unverzichtbaren Grundlagen der Mengenlehre
aus dem mathematischen Alltag. Wir beginnen mit einer einfachen Definition der Menge,
die auf Georg Cantor (1845 - 1918), den Begründer der Mengenlehre, zurückgeht:
Eine Menge ist eine Zusammenfassung von bestimmten, wohlunterscheidbaren Objekten unserer Anschauung oder unseres Denkens zu einem Ganzen.
In der Mengenlehre haben sich zahlreiche Definitionen, Begriffe und Bezeichnungen fachübergreifend etabliert, die wir nun an Beispielen kennenlernen wollen :
Es sei A := {2, 4, 6, 8, 10}, das heißt, die Menge A besteht aus den Zahlen 2, 4, 6, 8, 10.
Man sagt auch: Die Zahlen 2, 4, 6, 8, 10 sind die Elemente der Menge A.
Die Mächtigkeit der Menge A ist |A| = 5.
Es gilt : 4 ∈ A und 7 6∈ A : Die Zahl 4 ist Element von A, aber 7 liegt nicht in A.
Wir unterscheiden die Aussagen : 4 ∈ A und {4} ⊂ A.
§2. Verknüpfungen von Mengen:
Außer A := {2, 4, 6, 8, 10} seien die Mengen B := {1, 2, 5, 7, 8, 11} und C := {4, 6, 10}
gegeben.
Es gelten folgende Aussagen :
A ∩ B = {2, 8} ist der Durchschnitt der Mengen A und B,
A ∪ B = {1, 2, 4, 5, 6, 7, 8, 10, 11} ist deren Vereinigung,
C ⊂ A (C ist in A enthalten).
C ∩ B = ∅ (der Durchschnitt von B und C ist die leere Menge ∅).
A \ C := {2, 8} ( das Komplement von C in A).
Definition: Es ist
n
o
P(C) = ∅, {4}, {6}, {10}, {4, 6}, {4, 10}, {6, 10}, {4, 6, 10}
die Menge aller Teilmengen von C, die sogenannte Potenzmenge von C. Die Potenzmenge
von C wird auch durch 2C bezeichnet. Offensichtlich ist |P(C)| = 8 = 2|C| .
Aufgabe: Wie groß ist die Mächtigkeit der Potenzmenge von A := {2, 4, 6, 8, 10} ?
Definition: Es seien X und Y zwei nichtleere Mengen. Dann heißt
X × Y := {(x, y) : x ∈ X, y ∈ Y }
3
das kartesische Produkt von X und Y . Es besteht aus allen geordneten Paaren (x, y)
mit erster Komponente x ∈ X und zweiter Komponente y ∈ Y .
Beispiele:
1. Sei X := {2, 4, 6} und Y := {1, 7}, dann ist
X × Y = {(2, 1), (4, 1), (6, 1), (2, 7), (4, 7), (6, 7)}.
Allgemein gilt: |X × Y | = |X| · |Y |.
2. IN2 := IN × IN = {(j, k) : j, k ∈ IN}.
§3. Relationen
Definitionen:
(a) Es seien A, B Mengen, sowie R ⊆ A × B. Dann heißt das Tripel (R, A, B) eine
Relation zwischen A und B. Anstelle von (a, b) ∈ R schreibt man auch aRb.
(b) Sei A = B. Die Relation (R, A, A) habe folgende Eigenschaften:
1. R ist reflexiv, d.h. für jedes a ∈ A ist (a, a) ∈ R;
2. R ist symmetrisch, d.h. aus (a, b) ∈ R folgt (b, a) ∈ R;
3. R ist transitiv, d.h. aus (a, b) ∈ R und (b, c) ∈ R folgt (a, c) ∈ R.
Dann heißt (R, A, A) eine Äquivalenzrelation auf A. Anstelle von (a, b) ∈ R schreibt
man oft a ∼ b, und anstelle von (R, A, A) kürzer (A, ∼).
(c) Sei A = B. Die Relation (R, A, A) habe folgende Eigenschaften:
1. R ist reflexiv;
2. R ist antisymmetrisch, d.h. gilt sowohl (a, b) ∈ R als auch (b, a) ∈ R, so ist a = b;
3. R ist transitiv.
Dann heißt (R, A, A) eine Ordnungsrelation auf A. Anstelle von (a, b) ∈ R schreibt man
oft a b, und anstelle von (R, A, A) kürzer (A, ).
Man sagt auch : Durch wird auf A eine partielle Ordnung eingeführt. Eine partielle
Ordnung heißt totale Ordnung auf A, falls für alle a, b ∈ A stets a b oder b a gilt.
Beispiele:
1. aus der Algebra
Es sei IN := {1, 2, 3, . . .} die Menge aller natürlichen Zahlen. Sei p ∈ IN fest gewählt,
z.B. p = 7. Dann wird durch folgende Vorschrift eine Äquivalenzrelation definiert:
Es ist a ∼ b genau dann, wenn b − a durch p teilbar ist.
Durch diese Äquivalenzrelation wird die Menge IN in p Äquivalenzklassen eingeteilt.
Wir schreiben für k = 0, 1, 2, . . . , p − 1
[k] := {a ∈ IN : a ∼ k},
4
k = 0, 1, . . . , p − 1.
Anstelle von a ∈ [k] sagt man auch ” a ist gleich k modulo p”,
[k] heißt auch Restklasse modulo p.
2. Es sei A = IN × IN. Wir schreiben auch A = IN2 . Auf A sei folgende Relation gegeben:
Seien a = (a1 , a2 ) ∈ A, b = (b1 , b2 ) ∈ A. Dann gilt (a, b) ∈ R genau dann, wenn
gleichzeitig a1 ≤ b1 und a2 ≤ b2 erfüllt sind.
Offensichtlich ist das Tripel (R, A, A) eine Ordnungsrelation. Auf A wird aber nur
eine partielle Ordnung eingeführt.
§4. Abbildungen
Definition: Es seien A, B Mengen. Eine Relation (f, A, B) heißt Abbildung (Funktion,
Transformation) von A nach B, falls es zu jedem a ∈ A genau ein b ∈ B gibt, für das
(a, b) ∈ f erfüllt ist. Anstelle von (f, A, B) schreiben wir stets
f :A→B
und sagen : ” f ist eine Abbildung(Funktion, Transformation) von A nach B ”. Anstelle
von (a, b) ∈ f schreiben wir b = f (a).
Definition: Es sei f : A → B eine Abbildung von A nach B. Wir nennen A den
Definitionsbereich von f und
im(f ) := {f (a) : a ∈ A}
das Bild (image) von f .
Sei B̃ ⊂ B eine nichtleere Teilmenge von B, dann heißt
f −1 (B̃) := {x ∈ A : f (x) ∈ B̃}
das Urbild von B̃. Beachte, dass f −1 (B̃) = ∅ sein kann.
Die Abbildung f : A → B heißt surjektiv, falls im(A) = B,
f : A → B heißt injektiv, falls für alle a, a′ ∈ A mit a 6= a′ stets f (a) 6= f (a′ ) ist,
f : A → B heißt bijektiv, falls f sowohl injektiv als auch surjektiv ist.
Beispiele:
1. (aus der Kombinatorik)
Es sei n ∈ IN und A := {1, 2, . . . , n}. Die bijektiven Abbildungen σ : A → A heißen
Permutationen. In der Kombinatorik beweist man: Die Anzahl der Permutationen
der Zahlen 1, 2, . . . , n ist
n! :=
n
Y
k=1
k := 1 · 2 · 3 · · · (n − 1) · n.
2. : (aus der Algebra)
5
Es sei IN die Menge aller natürliche Zahlen {1, 2, . . .}. Sei p ∈ IN fest gewählt. Sei B :=
{0, 1, 2, . . . , p − 1}. Die Abbildung f : IN → B sei definiert durch die Vorschrift, dass
n − f (n), n ∈ IN, durch p teilbar ist. Offensichtlich ist die Abbildung f surjektiv, aber
nicht injektiv. Die Restklassen [k] können wir auch beschreiben durch [k] = f −1 ({k}),
k = 0, 1, 2, . . . , p − 1. Insbesondere ist [0] = f −1 ({0}) die Menge aller Vielfachen von
p.
3. Polarkoordinaten
Es sei IR2 die Menge aller Paare reeller Zahlen. Dann gibt es zu jedem Paar (x, y) ∈
IR2 , (x, y) 6= (0, 0), genau ein Paar (r, t) von reellen Zahlen mit r > 0 und 0 ≤ t < 2π,
so dass
x = r cos t , y = r sin t.
Die Zahlen (r, t) heißen Polarkoordinaten von (x, y). Mit Hilfe der Polarkoordinaten
wird eine Bijektion
φ : (0, ∞) × [0, 2π) → IR2 \ {(0, 0)}
definiert.
Definition (Umkehrabbildung):
Es sei f : A → B eine bijektive Abbildung. Dann existiert zu f die Umkehrabbildung
f −1 : B → A. Diese ist definiert durch
f −1 ◦ f = idA
die identische Abbildung von A auf A,
also durch f −1 (f (x)) = x für alle x ∈ A.
Wir sehen sofort ein, dass dann auch f ◦ f −1 = idB gilt, was wir auch in der komisch
aussehenden Form
(f −1 )−1 = f
ausdrücken können.
Definition (Komposition):
Es seien A, B, C Mengen, sowie f : A → B und g : B → C Abbildungen. Deren Komposition g ◦ f : A → C ist definiert durch die Vorschrift (g ◦ f )(x) := g(f (x)), x ∈ A.
Definition (Abzählbarkeit):
Eine unendliche Menge A heißt abzählbar, falls es eine Bijektion f : A → IN gibt.
Ansonsten heißt A überabzählbar.
Beispiel:
Es sei p eine natürliche Zahl. Dann ist die Menge A aller durch p teilbaren natürlichen
Zahlen abzählbar.
Beweis: Es sei g : IN → A gegeben durch g(m) := pm, m ∈ IN. Offensichtlich ist g eine
Bijektion von IN auf A. Dann ist f := g −1 eine Bijektion von A auf IN.
Beachte: Dies ist ein direkter Beweis.
6
Ohne Beweis wollen wir einen Satz von Cantor vorstellen :
Satz. (Cantor)
Sei A eine beliebige nichtleere Menge und 2A ihre Potenzmenge. Dann existiert keine
Surjektion f : A → 2A .
§5. Direkter Beweis und Widerspruchsbeweis (indirekter Beweis)
Wir haben in §4 an zwei Beispielen den direkten Beweis kennengelernt. Oft läßt sich der
Beweis einer Aussage einfacher mit Hilfe eines Widerspruchsbeweises bestätigen. Hier
ein berühmtes Beispiel aus der Zahlentheorie:
Satz.
√
Die Zahl 2 ist nicht rational.
√
ist. Dies bedeutet, dass es zwei natürliche
Beweis: Wir nehmen an, dass 2 rational
√
Zahlen p und q gibt mit der Eigenschaft 2 = p/q oder äquivalent, 2q 2 = p2 . Sind p und q
gleichzeitig gerade Zahlen, so kürzen wir p und q solange gleichzeitig durch 2 bis entweder
p oder q oder beide ungerade sind.
Wegen 2q 2 = p2 ist p2 eine gerade Zahl. Daher ist aber p selbst ebenfalls gerade. Also
existiert p0 ∈ IN mit p = 2p0 . Wir kürzen die Gleichung 2q 2 = p2 links und rechts durch
2 und erhalten die neue Gleichung q 2 = 2p20 . Folglich sind q 2 und daher auch q gerade: q
und p sind gerade Zahlen, im Widerspruch zur Annahme, dass mindestes p oder q ungerade
sind.
7
Kapitel II : Grundwissen über Zahlen
§1. Die natürlichen Zahlen
Die natürlichen Zahlen bezeichnen wir durch
IN = {1, 2, 3, . . .}.
Wir könnten auch wie die alten Römer die Beschreibungen {I, II, III, IV, . . .} wählen,
oder ganz einfach durch Striche {|, ||, |||, ||||, . . .}.
Dies alles sind äquivalente Darstellungen der natürlichen Zahlen.
Im Jahre 1892 hat der italienische Mathematiker Guiseppe Peano (1858-1932) vorgeschlagen, die natürlichen Zahlen IN mit Hilfe des folgenden Axiomensystems präzise einzuführen:
(P1)
(P2)
(P3)
(P4)
(P5)
Es gibt ein ausgezeichnetes Element in IN, das wir mit 1 ∈ IN bezeichnen;
zu jedem n ∈ IN gibt es genau einen Nachfolger succ(n) ∈ IN;
nur 1 ∈ IN ist kein Nachfolger;
falls n 6= m, dann ist succ(n) 6= succ(m);
hat M ⊂ IN die beiden Eigenschaften
(a) 1 ∈ M ,
(b) ist n ∈ M , so auch succ(n) ∈ M ,
dann ist M = IN.
Offensichtlich kann man beginnend mit
n + 1 := succ(n) ,
n + 2 := (n + 1) + 1 := succ(succ(n)), · · ·
in IN eine Addition einführen und durch die Vorschrift
n ≤ m : ⇐⇒ es existiert q ∈ IN mit n + q = m
ein totale Ordnung auf IN einführen. Diese Ordnungsrelation besitzt die Wohlordnungseigenschaft:
Jede nichtleere Teilmenge von IN besitzt genau ein kleinstes Element.
Wir schreiben IN0 := IN ∪ {0}, und bezeichnen die Menge der ganzen Zahlen mit
Z = {· · · , −2, −1, 0, 1, 2, · · ·}.
Aus der Grundschule ist bekannt, wie man in Z addiert und multipliziert, und auch wie
in Z eine totale Ordnung definiert wird.
Wir wollen in abstrakter Form die wichtigsten Rechenregeln (auch Axiome genannt) dieser
Addition und Multiplikation zusammenstellen:
In der Menge K := Z erfüllt die Addition + : K × K → K die Rechenregeln
(A1)
a + b = b + a,
für alle a, b ∈ K (kommutativ);
8
für alle a, b, c ∈ K (assoziativ);
(A2)
(a + b) + c = a + (b + c),
(A3)
es gibt ein Element 0 ∈ K (Nullelement), so dass
0 + a = a für alle a ∈ K;
(A4)
zu jedem a ∈ K gibt es ein b ∈ K , so dass a + b = 0.
Ein solches b bezeichnen wir mit −a.
Wir definieren die Subtraktion ” − ” in K durch a − b := a + (−b).
Man sagt: K bildet bezüglich der Addition ”+” eine kommutative (abelsche) Gruppe.
In der Menge K := Z erfüllt die Multiplikation ∗ : K × K → K die Rechenregeln
(M1)
a ∗ b = b ∗ a,
für alle a, b ∈ K (kommutativ)
(M2)
(a ∗ b) ∗ c = a ∗ (b ∗ c),
(M3)
Es gibt ein Element e ∈ K (Einselement) mit e 6= 0 , so dass
e ∗ a = a für alle a ∈ K
für alle a, b, c ∈ K (assoziativ)
Offensichtlich ist in (M3) das Einselement e = 1, die Zahl 1.
In der Folge werden wir meist ab anstelle von a ∗ b schreiben.
Die Axiome von Peano ermöglichen es, durch einen induktiven Beweis
(= durch vollständige Induktion) eine Aussage A(n) für alle n ∈ IN zu beweisen. Dieser
induktive Beweis besteht aus
• dem Induktionsanfang,
• der Induktionsannahme und
• dem Induktionsschluß.
Beispiele:
1. Beweise die Aussage :
1+2+3+···+n =
Dies schreiben wir auch kurz
n
X
k=
k=1
n(n + 1)
.
2
n+1
.
2
Direkter Beweis des jungen Carl Friedrich Gauß, 1777-1855 : Es ist
2(1 + 2 + 3 + · · · + n)
=(1 + n) + (2 + {n − 1}) + (3 + {n − 2}) + · · · + (n + 1)
=n(n + 1).
9
(A(n))
Induktiver Beweis:
Es gilt offensichtlich die Aussage A(1).
Angenommen, es gelte A(n) für ein n ∈ IN.
Dann ist
n+1
n
X
X
k =n+1+
k ,
k=1
k=1
und somit bei Verwendung der Induktionsannahme A(n) erhalten wir
n+1
X
k =n+1+
k=1
woraus
n+1
X
k=1
k=
n(n + 1)
,
2
(n + 1)(n + 2)
,
2
folgt. Dies ist aber die Aussage A(n + 1).
2. Beweise die Aussage
1 3
2
2n + 3n + n .
1+2 +3 +···+n =
6
2
2
2
(A(n))
Induktiver Beweis:
Es gilt offensichtlich A(1).
Angenommen, es gelte A(n) für ein n ∈ IN.
Dann ist
n
n+1
X
X
2
2
k2 ,
k = (n + 1) +
k=1
k=1
und somit bei Verwendung der Induktionsannahme A(n) erhalten wir
n+1
X
k 2 = (n + 1)2 +
k=1
woraus
n+1
X
k=1
1 3
2n + 3n2 + n ,
6
1
3
2
k =
2(n + 1) + 3(n + 1) + (n + 1) ,
6
2
folgt. Dies ist aber die Aussage A(n + 1).
3. Beweise, dass es zu n ∈ IN genau n! Permutationen der Zahlen {1, 2, . . . , n} gibt.
Induktiver Beweis:
10
Die Aussage gilt für n = 1, denn für n = 1 gibt es genau 1 = 1! Permutationen.
Die Aussage sei richtig für ein n ∈ IN.
Beweis für n + 1: In einer Permutation kann die Zahl n + 1 an jeder der n + 1 Positionen
stehen. Andererseits gibt es nach Induktionsvoraussetzung zu fester Position von n + 1
genau n! Permutationen. Also ist die Anzahl der Permutationen der Zahlen {1, 2, . . . , n+1}
gleich (n + 1) ∗ n! = (n + 1)!.
4. Lotto
Es seien k und n natürliche Zahlen, k ≤ n. Es sei N (n, k) die Anzahl der Möglichkeiten,
aus n Elementen k Elemente ohne Berücksichtigung der Reihenfolge auszuwählen. Es ist
n(n − 1) · · · (n − k + 1)
n
.
:=
N (n, k) =
1 · 2···k
k
Induktiver Beweis:
Zunächst müssen wir die Aussage A(n) richtig formulieren: Zu n ∈ IN besagt A(n), dass
n
, für alle k = 1, 2, . . . , n.
N (n, k) =
k
Offensichtlich ist A(1) richtig.
Angenommen, es gelte A(n) für ein n ∈ IN. n+1
Für k = n + 1 ist N (n + 1, n + 1) = 1 = n+1
.
Für
k
=
1
ist
N
(n
+
1,
1)
=
n
+
1
=
.
n+1
1
Sei k = 2, 3, . . . , n. Bei einer Probe unterscheiden wir, ob alle k Elemente in {1; 2; . . . ; n}
liegen, oder ob eines der Elemente = n + 1 ist. Folglich ist
N (n + 1, k) = N (n, k) + N (n, k − 1).
Nach der Induktionsannahme ist also
n
n
+
N (n + 1, k) =
k−1
k
und somit, wie man leicht nachrechnet,
n+1
,
N (n + 1, k) =
k
quod erat demonstrandum.
Man kann auch induktiv definieren. Zum Beispiel 0! := 1, 1! := 1,
n! := n ∗ (n − 1)! = 1 ∗ 2 ∗ · · · ∗ n =:
11
n
Y
k=1
k.
Man sagt ” n-Fakultät ”.
Insbesondere kann man auch schreiben
n!
n
=
k!(n − k)!
k
und
für k = 1, 2, . . . , n
n
= 1.
0
5. Binomischer Lehrsatz
Es sei n ∈ IN, sowie a und b zwei reelle oder komplexe Zahlen. Dann gilt
n
(a + b) =
n X
n
k
k=0
ak bn−k .
Hierbei definieren wir a0 = 1, b0 := 1, selbst wenn a = 0 oder b = 0, sowie
Induktiver Beweis:
Die Aussage ist richtig für n = 1, denn
n
0
:= 1.
1 1 0
1 0 1
a b .
a b +
(a + b) = b + a =
1
0
1
Sei die Aussage richtig für n. Dann ist sie auch richtig für n + 1, denn
(a + b)
n+1
n
= (a + b) ∗ (a + b) = (a + b)
n X
n
k=0
k
ak bn−k
n n X
n k+1 n−k X n k n+1−k
a b
,
a b
+
=
k
k
k=0
k=0
und nach Umsortieren der Summen folgt hieraus
(a + b)
n+1
=
n+1
X
k=0
n + 1 k n+1−k
a b
,
k
und somit die Aussage für n + 1.
Definition. Eine natürliche Zahl p > 1 heißt Primzahl, wenn es keine natürlichen Zahlen
p1 > 1, p2 > 1 gibt, so dass p = p1 p2 . Zum Beispiel sind 2, 3, 5, 7, 11, 13, 17, 19 Primzahlen.
Wieviele Primzahlen < 100, < 1000, < 10000, < 30000 gibt es ?
12
Antwort:
es gibt 25 Primzahlen kleiner als 100,
es gibt 168 Primzahlen kleiner als 1000,
es gibt 1229 Primzahlen kleiner als 10000,
es gibt 3245 Primzahlen kleiner als 30000.
Geschichte:
Erathostenes (276 - 194 B.C), Bibliothekar der großen Bücherei in Alexandria, erfand das
Sieb der Primzahlen, auch Sieb des Erathostenes genannt. Und so funktioniert es, um die
Primzahlen ≤ m zu ermitteln:
1. Schreibe die natürlichen Zahlen Zm := {1, 2, 3, · · · , m} auf.
2. Kreise die Zahl 2 ein streiche jede 2-te Zahl von Zm , also 4, 6, 8, . . ..
3. Kreise die nächste verbliebene Zahl von Zm ein, also die Zahl 3,
und streiche alle Vielfachen dieser Zahl.
4. Führe dieses Verfahren in dieser Weise fort. Die kleinste nicht gestrichene Zahl ist
stets die nächste Primzahl.
√
m ist.
5. Beende dieses Verfahren, sobald die kleinste noch
nicht
gestrichene
Zahl
>
√
Alle noch nicht gestrichenen Zahlen zwischen m und m sind Primzahlen.
§2. Rationale und reelle Zahlen
Die Menge der rationalen Zahlen besteht aus den Zahlenpaaren
o
Q := (p, q) p ∈ Z, q ∈ IN ,
n
und wir schreiben
Q :=
Hierbei heißen
p1
q1
und
p2
q2
o
np p ∈ Z, q ∈ IN .
q
gleich, wenn p1 q2 = p2 q1 .
Definition. Es heißen p ∈ Z und q ∈ Z teilerfremd (in Zeichen (p, q) = 1, falls es kein
n ∈ IN, n 6= 1, gibt, für das p = p1 n, q = q1 n mit p1 , q1 ∈ Z richtig ist.
Daher können wir auch schreiben
o
np
: p ∈ Z, q ∈ IN, (p, q) = 1 .
Q=
q
Definition. In Q führen wir die Addition und Multiplikation ein:
p2
p1 q2 + p2 q1
p1
+
:=
,
q1
q2
q1 q2
p1 p2
p1 p2
∗
:=
.
q1 q2
q1 q2
13
Die ganzen Zahlen p ∈ Z werden durch die Zuordnung p →
dere entspricht dann das Einselement e = 1 dem Bruch 11 .
p
1
in Q eingebettet. Insbeson-
Aufgabe : Überprüfen Sie, dass die rationalen Zahlen Q die Axiome (A1)-(A4), (M1)(M3) für K := Q besitzen, sowie
(M4) Zu jedem a ∈ K mit a 6= 0 gibt es ein c ∈ K, so dass
a ∗ c = e mit dem Einselement e = 1.
Ein solches c bezeichnen wir mit a−1 .
Wir definieren die Subtraktion ” − ” in Q durch a − b := a + (−b), das heißt
durch
p2
p1 q2 − p2 q1
p1
−
=
.
q1
q2
q1 q2
Wir definieren die Division ” : ” in Q durch a : b := a ∗ b−1 , das heißt durch
p1 p2
p1 q2
p1 q2
:
:=
∗
=
,
q1 q2
q1 p2
q1 p2
p2 6= 0.
Prüfen Sie nach, dass für K = Q das Distributivgesetz gilt:
(D) Für alle Elemente a, b, c ∈ K gilt
(a + b) ∗ c = a ∗ c + b ∗ c.
(Distributivgesetz)
Definition.
Auf einer Menge K mit mindestens 2 Elementen sei eine Addition + : K × K → K und
eine Multiplikation ∗ : K × K → K definiert. Sind die Axiome (A1)-(A4), (M1)-(M4) und
(D) erfüllt, so heißt K ein Körper (bezüglich + und ∗).
Die ganzen Zahlen bilden also keinen Körper, aber die rationalen Zahlen.
Nach diesem Ausflug in die Algebra wollen wir zurückkehren in den Alltag des Rechnens
mit rationalen Zahlen.
Dezimaldarstellung rationaler Zahlen = Dezimalbruch
185
= 23.125 = 2 ∗ 101 + 3 ∗ 100 + 1 ∗ 10−1 + 2 ∗ 10−2 + 5 ∗ 10−3 ,
8
4
= 1.3333 · · · = 1.3,
3
111
= 10.0909 · · · = 10.09.
11
14
Satz 2.1. Jede rationale Zahl läßt sich als endlicher oder periodisch unendlicher Dezimalbruch schreiben. Umgekehrt ist jeder endliche oder periodisch unendliche Dezimalbruch
eine rationale Zahl.
Beweis: Der Beweis beruht auf der Konvergenz geometrischer Reihen, die wir erst später
diskutieren.
Dualdarstellung rationaler Zahlen:
128 + 32 + 16 + 8 + 1
27 + 25 + 24 + 23 + 20
185
=
=
8
8
23
4
2
1
0
−3
= 2 + 2 + 2 + 2 + 2 = LOLLL.OOL,
4
= L.OLOL · · · = L.OL,
3
111
= LOLO.OOOLOLLLOL.
11
Warum braucht man reelle√Zahlen? Viele wichtigen Zahlen der Mathematik sind reell,
aber nicht rational, etwa 2 (siehe Kapitel I), aber auch die Quadratwurzel jeder anderen Primzahl oder auch die Kreiszahl π = 3.14159265 . . . und die Eulersche Zahl,
e = 2.718281828 . . ..
In der Analysisvorlesung der Mathematiker werden die reellen Zahlen meist eingeführt
(a)
durch Dedekindsche Schnitte, oder durch
(b)
Intervallschachtelung oder
(c)
als Äquivalenzklassen von Cauchyfolgen rationaler Zahlen.
Wir machen uns das Leben viel leichter, indem wir einfacher definieren:
Definition. Die reellen Zahlen IR bestehen aus allen endlichen und unendlichen Dezimalbrüchen.
Beweisen Sie : Jede reelle Zahl x kann als Dualbruch dargestellt werden.
Umgekehrt beschreibt jeder Dualbruch eine reelle Zahl.
Es ist x rational genau dann, wenn dieser Dualbruch endlich oder periodisch unendlich
ist.
Wenn wir später die geometrischen Reihen definieren, werden wir die Definition der reellen
Zahlen besser verstehen. Für den Augenblick genügt es zu wissen, dass die reellen Zahlen
x von der Form
x = ±xn xn−1 · · · x0 .x−1 x−2 x−3 · · · ,
15
xi ∈ {0, 1, 2, . . . , 9},
sind, wobei diese Schreibweise bedeutet, dass
n
n−1
−1
−2
x = ± xn ∗ 10 + xn−1 ∗ 10
+ · · · + x0 + x−1 ∗ 10 + x−2 ∗ 10 + · · · .
Offensichtlich ist für jedes m ∈ IN
|x − (±xn xn−1 · · · x0 .x−1 x−2 · · · x−m )| ≤ 10−m .
Also läßt sich jede reelle Zahl x beliebig genau durch rationale Zahlen annähern. Man
sagt: ”Die rationalen Zahlen Q liegen dicht in IR .”
Frage: Wie definiert man die Addition und die Multiplikation zweier endlicher oder unendlicher Dezimalbrüche? Überlegen Sie, dass die reellen Zahlen mit dieser Addition und
Multiplikation einen Körper bilden, also die Axiome (A1)-(A4), (M1)-(M4), (D) erfüllen.
§3. Komplexe Zahlen
| eine hervorragende Rolle.
In der theoretischen Physik spielen die komplexen Zahlen C
Durch folgendes Problem wird man schnell zur Einführung der komplexen Zahlen angeregt:
| , in dem
Erweitere den Körper der reellen Zahlen IR möglichst einfach zu einem Körper C
die quadratische Gleichung
z2 + 1 = 0
eine Lösung besitzt!
Eine Lösung dieses Problems wird gegeben durch
Definition.
|
1. Es besteht C
aus allen Paaren z = (x, y), x, y ∈ IR. x heißt Realteil von z, y
Imaginärteil von z. Wir schreiben x =Re(z), y =Im(z).
2.
Zwei komplexe Zahlen z1 = (x1 , y1 ) und z2 = (x2 , y2 ) heißen gleich, wenn x1 = x2
und y1 = y2 .
| wird definiert durch
3. Die Addition in C
z1 + z2 = (x1 + x2 , y1 + y2 ).
4.
| wird definiert durch
Die Multiplikation in C
z1 z2 = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ).
5.
| wird mit i bezeichnet. Anstelle von z = (x, y) schreibt man
Das Element (0, 1) ∈ C
z = x + iy, anstelle von (x, 0) schreibt man x.
16
Satz 3.1.
| bilden einen Körper mit Nullelement 0
1. Die komplexen Zahlen C
und Einselement 1, das heißt mit (0, 0) und (1, 0).
| ist eineindeutig und erhält
2. Die Zuordnung x → (x, 0) von x ∈ IR nach (x, 0) ∈ C
die Addition und Multiplikation.
| die beiden Lösungen z = ±i.
3. Die Gleichung z 2 + 1 = 0 hat in C
Beweis. Wir beweisen nur:
Sei z = x + iy, z 6= 0. Dann ist das inverse Element in (M4)
z −1 =
x−iy
x2 +y 2 .
| führen wir die Subtraktion ein durch
In C
z1 − z2 := (x1 − x2 ) + i(y1 − y2 )
und die Division (falls z2 6= 0) durch
x − iy 2
2
x22 + y22
x y − x y (x1 x2 + y1 y2 )
2 1
1 2
=
+
i
.
x22 + y22
x22 + y22
z1 : z2 := z1 z2−1 = (x1 + iy1 )
Des weiteren definieren wir den Betrag einer komplexen Zahl z = x + iy durch
|z| :=
p
x2 + y 2 ,
und die zu z konjugiert komplexe Zahl durch
z := x − iy.
Dann erhalten wir folgende Rechenregeln, die das Rechnen mit komplexen Zahlen sehr
erleichtern:
17
Satz 3.2. Es seien z, z1 , z2 komplexe Zahlen. Dann gilt:
z1 + z2 = z1 + z2 ,
z1 z2 = z1 z2 ,
z1
z1
= ,
z2
z2
(z) = z,
genau dann, wenn z ∈ IR,
1
Re(z) = (z + z),
2
1
i
Im(z) = (z − z) = − (z − z),
2i
2
|z| ≥ 0 , |z| = 0 genau dann, wenn
z=z
|z1 z2 | = |z1 ||z2 |,
z1 |z1 |
=
z2 |z2 | ,
|z| = |z|,
|z|2 = zz = zz = x2 + y 2 ,
|z1 ± z2 | ≤ |z1 | + |z2 |,
z = 0,
für alle z = x + iy,
||z1 | − |z2 || ≤ |z1 ± z2 |.
Beweisen Sie : Es gelten die Rechenregeln
|z1 z2 | = |z1 ||z2 | ,
z1 |z1 |
=
z2 |z2 | .
Neben der Darstellung z = x + iy einer komplexen Zahl z ist auch die Darstellung in der
x − y−Ebene mit aufeinander senkrecht stehenden x- und y-Achsen üblich und nützlich.
| als die Gaußsche Zahlenebene. Es hat z dann die PolarkoorMan bezeichnet dann C
dinatendarstellung
z = |z|(cos (φ) + i sin (φ)).
Hierbei ist φ der Winkel zwischen der x-Achse und der Strecke 0, z, also zum Beispiel
φ = π/2 für z = iy, y > 0, oder φ = 3π/2 für z = −iy, y > 0. Natürlich kann man anstelle
von φ auch φ + 2πk, k ∈ Z, nehmen. Im Falle z = 0 ist φ beliebig wählbar.
Wie man leicht nachrechnen kann, gilt
18
Satz 3.3. Es seien z, z1 , z2 komplexe Zahlen, z = |z|(cos (φ) + i sin (φ)) 6= 0, z1 =
|z1 |(cos (φ1 ) + i sin (φ1 )), z2 = |z2 |(cos (φ2 ) + i sin (φ2 )) 6= 0. Dann ist
z n = |z|n (cos (nφ) + i sin (nφ)) ,
−n
−n
für alle n ∈ IN,
z = |z| (cos (nφ) − i sin (nφ)) , für alle n ∈ IN,
z1 z2 = |z1 z2 | (cos (φ1 + φ2 ) + i sin (φ1 + φ2 ))
|z1 |
z1
=
(cos (φ1 − φ2 ) + i sin (φ1 − φ2 )) .
z2
|z2 |
Insbesondere gilt die Formel von Moivre
(cos (φ) + i sin (φ))n = cos (nφ) + i sin (nφ) für alle n ∈ Z, und alle φ ∈ IR.
Aus dieser Formel von Moivre folgt sofort, dass für n ∈ IN die Lösungen der Gleichung
z n = 1 (das heißt, die n-ten Einheitswurzeln) gegeben sind durch
zν := cos (2πν/n) + i sin (2πν/n),
ν = 0, 1, . . . , n − 1,
oder auch etwas allgemeiner:
Satz 3.4. Es sei ζ = |ζ|(cos (ψ) + i sin (ψ)) 6= 0, gegeben. Für n ∈ IN hat die Gleichung
z n − ζ = 0 die n verschiedenen Lösungen
ψ 2πν ψ
2πν 1/n
cos
zν := |ζ|
+ i sin
, ν = 0, 1, . . . , n − 1.
+
+
n
n
n
n
Aber wir können auch allgemeine reelle quadratische Gleichungen
z 2 + pz + q = 0,
p, q ∈ IR,
(3.1)
| lösen. Denn durch quadratische Ergänzung ist (3.1) äquivalent zu
in C
p 2
p2
(z + ) =
− q.
2
4
Ist also ∆ :=
p2
4
− q positiv, dann sind die beiden Lösungen z1 und z2 reell, nämlich
p √
z1 = − + ∆
2
,
p √
z2 = − − ∆.
2
Ist ∆ = 0, dann haben wir nur die Lösung z1 = z2 = − p2 . Ist aber ∆ negativ, so erhalten
wir die beiden Lösungen
r
r
p
p
p2
p2
z1 = − + i q −
, z2 = − − i q − .
2
4
2
4
19
Anhang 1: Hauptsatz der Algebra
| → C
| der Form
Jedes algebraische Polynom Pn : C
Pn (z) = a0 + a1 z + · · · + an z n ,
| , a
a 0 , . . . , an ∈ C
n 6= 0,
(3.2)
vom Grade n besitzt n komplexe Nullstellen z1 , . . . , zn , und es gilt
Pn (z) = an
n
Y
k=1
(z − zk )
| .
für alle z ∈ C
Zum Beweis dieser Aussage benötigen wir
1. den Nachweis, dass jedes Polynom vom Grade ≥ 1 mindestens eine Nullstelle besitzt,
2. den Euklidischen Algorithmus: Gegeben seien die Koeffizienten a0 , . . . , an des
algebraischen Polynoms Pn in (3.2). und eine Nullstelle z1 von Pn . Gesucht sind die
Koeffizienten b0 , . . . , bn−1 des algebraischen Polynoms
Pn−1 (z) = b0 + b1 z + · · · + bn−1 z n−1 ,
das die Gleichung Pn (z) = (z − z1 )Pn−1 (z)
fizientenvergleich erhalten wir
bn−1 := an ;
for k:=n-2 downto 0 do
bk := z1 bk+1 + ak+1 ;
|
für alle z ∈ C
erfüllt. Durch Koef-
Anhang 2: Wir werden später die folgende Formeln begründen:
eiφ = cos φ + i sin φ,
e−iφ = cos φ − i sin φ für alle φ ∈ IR.
Folgerungen:
Statt z = |z|(cos φ + i sin φ) schreiben wir z = |z|eiφ ,
es gilt
eiφ − e−iφ
eiφ + e−iφ
, sin φ =
,
cos φ =
2
2i
und die Formel von Moivre wird zu (eiφ )n = einφ .
Anhang 3: Rationale Funktionen
Seien P und Q algebraische Polynome. Dann heißt deren Quotient R := P/Q eine rationale
| definiert, falls Q(z) 6= 0 ist. Mit Hilfe
Funktion. Offensichtlich ist R(z) an Stelle z ∈ C
des Euklidischen Algorithmus oder des Hauptsatzes der Algebra sehen wir sofort ein, dass
sich jede rationale Funktion darstellen läßt als Quotient zweier algebraischer Polynome P
und Q, die keine gemeinsame Nullstelle besitzen.
20
Kapitel III: Folgen und Reihen
§1. Zahlenfolgen, Konvergenz, Grenzwert
Eine Zahlenfolge (oder kurz Folge) besteht aus unendlich vielen reellen oder komplexen
Zahlen mit genau festgelegter Reihenfolge. Zum Beispiel
1, 2, 3, 4, · · ·
Wir schreiben:
0, 1, 22 , 32 , 42 , · · ·
1 ∞
,
1 + n2 n=0
(an )∞
n=1
(sn )∞
n=0
(n)∞
n=1 ,
Wir schreiben:
(n2 )∞
n=0 ,
1 n
mit an = 1 +
,
n
n k
X
1
.
mit sn =
3
k=0
Definition 1.1. (Cauchyfolge)
Eine Zahlenfolge (an )∞
n=1 heißt Cauchyfolge, wenn es zu jedem ε > 0 eine natürliche Zahl
Nε gibt, die nur von ε und der Folge abhängt, so dass
|an − am | < ε für alle m > Nε , n > Nε .
(1.1)
Ist (an ) keine Cauchyfolge, so nennen wir sie divergent.
Definition 1.2. (Grenzwert)
| heißt Grenzwert der Zahlenfolge (a )∞
Eine Zahl a ∈ C
n n=1 , wenn es zu jedem ε > 0 eine
natürliche Zahl Nε gibt, die nur von ε und der Folge abhängt, so dass
|an − a| < ε für alle n > Nε .
(1.2)
Wir schreiben dann
a = lim an
n→∞
und sagen:
∞
”Die Folge (an )∞
n=1 ist konvergent”, oder ”die Folge (an )n=1 konvergiert gegen a”.
Bemerkung: Bei den Definitionen 1.1 und 1.2 ist es gleichgültig, ob es sich um eine Folge
∞
∞
(an )∞
n=1 oder (an )n=0 oder (an )n=2 etc. handelt.
21
Satz 1.1.
∞
1. Besitzt eine Zahlenfolge (an )∞
n=1 einen Grenzwert a, so ist (an )n=1 eine Cauchyfolge.
2. Jede reelle oder komplexe Cauchyfolge (an )∞
n=1 besitzt einen eindeutigen Grenzwert.
Beweis:
1. Besitzt (an )∞
n=1 einen Grenzwert a, so gibt es nach Definition 1.2 zu jedem ε > 0 ein
Nε ∈ IN mit der Eigenschaft (1.2). Folglich gilt für alle m, n > Nε
|an − am | = |(an − a) + (a − am | ≤ |an − a| + |a − am | < 2ε.
Daher ist die Bedingung (1.1) zum Beispiel erfüllt für Nε/2 .
2. (Indirekter Beweis.)
Es seien a und b Grenzwerte der Folge (an )∞
n=1 . Nach Definition 1.2 gibt es zu jedem ε > 0
natürliche Zahlen Nε und Ñε , so dass
|an − a| < ε für alle n > Nε ,
|an − b| < ε für alle n > Ñε .
Dann ist aber
|a − b| = |a − an + an − b| ≤ |a − an | + |an − b| < 2ε für alle n > max{Nε , Ñε }.
Dies ist aber für beliebig kleine ε > 0 nur möglich, wenn a = b ist.
Der Beweis der Existenz eines Grenzwertes a einer Cauchyfolge folgt aus der Konstruktion
der reellen und komplexen Zahlen in Kapitel II. Wir wollen hier aber keinen detaillierten
Beweis geben.
Bemerkung:
| einen Grenzwert besitzt, sagt man :
Da jede Cauchyfolge in IR oder C
|
”IR und C sind vollständig (bezüglich des Betrags | · |).”
Hingegen sind die rationalen Zahlen Q nicht vollständig, denn es gibt Cauchyfolgen in Q,
die in Q keinen Grenzwert besitzen, zum Beispiel die Folge
x1 := 1
,
xn+1 :=
x2n + 2
,
2xn
n = 1, 2, . . . ,
(1.3)
√
die aus rationalen Zahlen besteht und sehr schnell gegen 2 konvergiert. Aber wie beweist
man dies?
Die durch die Rekursionsformel (1.3) beschriebene
Methode
nennt man Babylonisches
√
√
Wurzelziehen. Wir können so nicht nur 2, sondern a für irgend ein a > 0 berechnen.
Nur müssen wir (1.3) ersetzen durch
x1 := 1 ,
xn+1 :=
x2n + a
,
2xn
22
n = 1, 2, . . . .
√
Beweisen Sie: es ist x2 > x3 > · · · > xn > xn+1 > · · · > a und
√
√
(xn − a)2
für alle n ≥ 1.
xn+1 − a =
2xn
Hieraus erkennen wir die quadratische Konvergenz der Folge (xn )∞
n=1 gegen
√
a.
Bemerkung: Newton-Verfahren
Das Newton-Verfahrens ist das wichtigste numerische Verfahren zur Bestimmung einer
Nullstelle x∗ einer differenzierbaren Funktion f :
Sei x1 eine Näherung von x∗ . Dann berechne die Folge
xn+1 := xn −
f (xn )
,
f ′ (xn )
n = 1, 2, . . . .
Ist f ′ (x∗ ) 6= 0 und liegt der Startwert x1 genügend nahe bei x∗ , so konvergiert die Folge
∗
(xn )∞
n=1 quadratisch gegen x .
Wir erkennen, dass das Babylonische Wurzelziehen ein Spezialfall des Newton-Verfahrens
ist für f (x) := x2 − a.
Beispiele divergenter und konvergenter Folgen:
1. Die Folge (n)∞
n=0 ist divergent.
2. Die Folge (1/n)∞
n=1 ist Cauchyfolge und konvergiert gegen a = 0.
3. Geometrische Reihe
| mit |α| < 1. Dann konvergiert die Folge
Sei α ∈ C
(sn )∞
n=0
mit sn =
n
X
αk
k=0
gegen den Grenzwert
schreiben
1
1−α .
Wir sagen: Die Reihe
∞
X
αk =
k=0
P∞
k=0
αk konvergiert gegen
1
.
1−α
1
1−α
und
(1.4)
Beweis: Wir rechnen zunächst nach, dass für jedes n ∈ IN
(1 − α)
Also ist
n
X
k=0
αk =
n
X
k=0
αk = 1 − αn+1 .
1 − αn+1
1−α
23
für alle n ∈ IN.
(1.5)
Wegen limn→∞ αn+1 = 0 gilt daher (1.4). Diese letzte Aussage wollen wir etwas
präziser nachrechnen:
Zu vorgegebenem ε > 0 wählen wir ein Nε so groß, dass |α|Nε < ε.
Dann ist wegen (1.5)
n
αn+1 1
n+1
X
ε
k
= |α|
−
α = <
1 − α
1−α
|1 − α|
|1 − α|
für alle n > Nε .
k=0
Um Definition 1.2 exakt nachzuvollziehen, müssen wir noch Nε geeignet anpassen. Wie
dies geht, ist offensichtlich und soll hier und auch in Zukunft unterbleiben.
In den beiden letzten Beispielen hatten wir den großen Vorteil, dass wir den Grenzwert
erraten oder leicht bestimmen konnten. Daher konnten wir Definition 1.2 verwenden.
Häufig erkennt man den Grenzwert nicht so leicht. Dann verwendet man Definition 1.1
wie im folgenden Beispiel :
4. Die Reihe
∞
X
1
k!
k=0
ist konvergent. Ihr Grenzwert heißt Eulersche Zahl, e = 2.718281828 . . ..
Beweis:
Pn
Es ist sn := k=0
1
k!
|sm − sn | =
und somit für n < m
m
X
k=n+1
1
1
1
1
1+
,
=
+···+
k!
(n + 1)!
n+2
(n + 1)(n + 2) · · · m
und somit
|sm − sn | <
2
1
< .
(n + 1)!
n
Um das Cauchykriterium (1.1) der Definition 1.1 zu erfüllen, müssen wir zu ε > 0 zum
Beispiel
Nε := 1 + [1/ε]
wählen. Hierbei bedeutet [1/ε] die größte ganze Zahl ≤ 1/ε.
Bemerkung:
Eine Zahlenfolge (an )∞
n=1 heißt Nullfolge, wenn ihr Grenzwert gleich 0 ist. Sie heißt
beschränkt, wenn es eine positive Zahl M gibt, so dass
|an | ≤ M
für alle n ∈ IN.
Es ist leicht zu zeigen, dass konvergente Folgen beschränkt sind.
24
Eine dumme Frage: Sind beschränkte Folgen stets konvergent ?
Manchmal bleibt es uns nicht erspart, die Konvergenz von Folgen mit Hilfe der ε-Kriterien
(1.1) oder (1.2) zu beweisen. Aber mit zunehmender Erfahrung und Kenntnissen läßt sich
diese unangenehme Epsilontik meist vermeiden, wenn man die folgenden Rechenregeln
für konvergente Folgen anwendet.
Satz 1.2.
∞
Es seien (an )∞
n=1 und (bn )n=1 konvergente (reelle oder komplexe) Zahlenfolgen mit den
Grenzwerten a und b. Dann gilt:
lim (an + bn ) = a + b ;
n→∞
lim (an − bn ) = a − b ;
n→∞
lim an bn = ab ;
n→∞
a
an
=
falls bn 6= 0, b 6= 0 .
n→∞ bn
b
Beweis: Nur Mut, versuchen Sie, den leichten Beweis dieses Satzes alleine zu führen.
lim
Einige wichtige Grenzwerte :
1.
Für jede reelle Zahl α > 0 ist
lim α1/n = 1.
n→∞
2.
Es sei (zn )∞
n=1 eine komplexe Zahlenfolge, zn = xn + iyn , xn , yn ∈ IR. Sie ist konver∞
gent genau dann, wenn die Folgen (xn )∞
n=1 und (yn )n=1 der Real- und Imaginärteile
konvergieren, und es gilt
lim zn = lim xn + i lim yn .
n→∞
3.
n→∞
n→∞
Es gilt sogar
lim n1/n = 1
n→∞
,
lim n−1/n = 1.
n→∞
Wir wollen nun plausibel machen, dass n1/n gegen 1 konvergiert:
Zunächst sehen wir sofort ein, dass n1/n > 1 ist für alle n ≥ 2. Sei nun ε > 0 beliebig
gewählt. Angenommen, es erfülle n ≥ 2 die Ungleichung n1/n ≥ 1 + ε. Dann ist
n(n − 1)ε2
n 2
n
n
,
ε >
ε+
n ≥ (1 + ε) ≥ 1 +
2
2
1
was nur im Falle n < 1 + 2ε−2 möglich ist.
25
§2. Konvergenzkriterien für Folgen
Zum Nachweis der Konvergenz einer Folge reeller oder komplexer Zahlen haben wir bisher
kennengelernt:
• das Nachprüfen der Definition 1.2, falls der Grenzwert bereits bekannt ist, oder
• das Nachprüfen der Definition 1.1, falls der Grenzwert unbekannt ist,
• die Verwendung des Satzes 1.2 über Summen, Differenzen, Produkte, Quotienten
∞
von Folgen (an )∞
n=1 , (bn )n=1 , deren Konvergenz oder gar Grenzwerte a und b bereits
bekannt sind.
Des weiteren werden wir nun
• das Monotoniekriterium und
• das Einschließungskriterium
kennenlernen.
Satz 2.1.
Jede monoton steigende, nach oben beschränkte Folge (an )∞
n=1 ist konvergent; ebenso jede
monoton fallende, nach unten beschränkte Folge.
Beweis:
Es gelte an ≤ an+1 für alle n ∈ IN mit n ≥ 1 , oder auch nur an ≤ an+1 für alle n ≥ N0 ,
ab einem N0 ∈ IN. Außerdem gebe es ein M ∈ IR, so dass an ≤ M für alle n ≥ N0 .
Indirekter Beweis:
Angenommen, diese Folge (an )∞
n=1 ist keine Cauchyfolge.
Nach Definition 1.1 existiert dann ein ε > 0, für das kein Nε existiert mit der Eigenschaft
|am − an | < ε für alle m > Nε , n > Nε .
Für dieses ε > 0 gibt es also unendlich viele Indexpaare (mk , nk ), k ∈ IN, so dass
n1 < m1 ≤ n2 < m2 ≤ n3 < m3 ≤ · · ·
und
|amk − ank | ≥ ε ,
k ∈ IN.
Wegen der Monotonie der Folge ist dann aber für alle j ∈ IN
amj = amj − anj + anj ≥ ε + anj ≥ ε + amj−1 ≥ · · · ≥ (j − 1)ε + am1 .
Lassen wir j gegen ∞ gehen, so folgt lim amj = ∞, was der Beschränktheit der Folge
(an )∞
n=1 widerspricht. Dieser Widerspruch beweist, dass unsere Annahme falsch ist. Folglich ist (an )∞
n=1 eine Cauchyfolge. Wie wir bereits in §1 argumentiert haben (Satz 1.1),
besitzt jede Cauchyfolge in IR einen eindeutigen Grenzwert.
26
Satz 2.2.
∞
Es seien (an )∞
n=1 und (bn )n=1 zwei reelle konvergente Folgen, wobei
an ≤ bn
für alle n ≥ N0 .
1. Dann ist
lim an ≤
n→∞
lim bn .
n→∞
2. Gilt sogar a := limn→∞ an = limn→∞ bn , so konvergiert jede Folge (cn )∞
n=1 ebenso
gegen a, falls sie die Bedingungen
an ≤ cn ≤ bn
für alle n ≥ N0
erfüllt.
Beweis:
Wende die Definition 1.2 der Konvergenz an.
Beispiele:
1. PDie Eulersche Zahl e = 2.718281828 . . . ist definiert als Grenzwert der Reihe
∞
1
k=0 k! . Es gilt aber auch
1 n
1+
= e .
n→∞
n
lim
Diese Folge ist monoton wachsend und beschränkt.
Die Beschränktheit der Folge erkennen wir aus dem binomischen Satz : Es ist
n n−k
1
1 n X n
=
an := 1 +
k
n
n
k=0
(2.1)
1 n−1
1 (n − 1)(n − 2)
1
=1+1+
+
+···+
2! n
3!
n·n
n!
und somit
an ≤ 1 + 1 +
1
1
1
+ +···+
2! 3!
n!
und somit an < e. Um die Monotonie zu erkennen, schreiben wir
an+1
1 n+1
1 n
1
1
n(n − 1)
:= 1 +
=1+1+
+
+···+
n+1
2! n + 1 3! (n + 1)(n + 1)
(n + 1)!
und vergleichen diese Summanden von an+1 mit denen in (2.1).
27
Das Monotoniekriterium des Satzes 2.1 liefert nun die Konvergenz der Folge. Den Grenzwert e ersehen wir, wenn wir in (2.1) n gegen ∞ laufen lassen.
2. Mit Hilfe von Satz 1.2 können wir die Grenzwerte recht wilder Folgen ausrechnen:
Wir erkennen sofort, dass für k ∈ IN
1
= 0.
n→∞ nk
lim
Dann ist für vorgegebene reelle oder komplexe Zahlen ak , bk , k = 0, 1, . . . , 5,
a 0 + a 1 n + a 2 n2 + · · · + a 5 n5
n→∞ b0 + b1 n + b2 n2 + · · · + b5 n5
a0 n−5 + a1 n−4 + a2 n−3 + · · · + a5
= lim
n→∞ b0 n−5 + b1 n−4 + b2 n−3 + · · · + b5

 a5 ,
falls b5 6= 0,
b5
=

+∞, falls a5 > 0, b5 = 0, b4 > 0 .
lim
3. Es sei a0 > 0 vorgegeben, sowie die Rekursionsformel
an+1 :=
a2n + 9
,
5an + 3
n = 0, 1, . . . .
Wir erkennen sofort, dass alle an positiv sind und nach oben beschränkt sind. Es ist
nicht sofort zu sehen, dass die Folge konvergiert. Falls sie aber konvergiert, so muß
der Grenzwert a die Gleichung
a2 + 9
a=
5a + 3
√
erfüllen. Also wäre a = 83 ( 17 − 1). Variieren Sie das C-Programm ”wurzel.c”, um
die Konvergenz mit Startwert a0 = 1 zu bestätigen. Beachten Sie, dass die Folge
(an )∞
n=0 nur langsam gegen a konvergiert.
4. Und zum Schluß eine harte Nuß:
Eine Folge komplexer Zahlen (zk )∞
k=1 soll die Rekursionsformel
zk+2 − 2zk+1 + 2zk = 1,
k ∈ IN,
erfüllen. Bestimmen Sie alle Anfangswerte (z1 , z2 ), für die die Folge konvergiert !
Ergebnis: Nur die Startwerte z1 = z2 = 1 führen zu einer konvergenten Folge,
nämlich zu zn = 1, n ∈ IN.
28
§3. Unendliche Reihen
Definition 3.1.
Es sei (ak )∞
k=0 eine Folge reeller oder komplexer Zahlen. Setze
sn :=
n
X
ak
,
n = 0, 1, 2, . . . .
k=0
Wir nennen die Zahlenfolge
tialsumme der Reihe.
(sn )∞
n=0
Wir sprechen ”von der Reihe
P∞
k=0
eine (unendliche) Reihe, und sn heißt die n-te Par-
ak ”.
Definition P
3.2.
∞
Eine Reihe k=0 ak heißt konvergent mit Wert oder Summe s und schreiben
s=
∞
X
ak ,
k=0
falls die Folge
(sn )∞
n=0
gegen s konvergiert.
Beispiele:
1. Geometrische Reihe
| mit |z| < 1 ist
Für jedes z ∈ C
∞
X
zk =
k=0
1
.
1−z
2. Reihendarstellung von e:
Es ist
∞
X
1 1
1
1
1
e =
= 1+1+ + +
+
+ ···.
k!
2 6 24 120
k=0
3. Harmonische Reihe:
Die Reihe
∞
X
1
k
k=1
divergiert (gegen +∞).
Beweis von 3.: Es ist für jedes n ∈ IN
2n
n
2n
2n
X
X
X
1 X1
1
1
1
−
=
≥
= .
k
k
k
2n
2
k=1
k=1
k=n+1
k=n+1
Pn
Folglich ist die Folge sn = k=1 k1 der Partialsummen keine Cauchyfolge; die harmonische
Reihe ist divergent und es gilt
∞
X
1
= ∞.
k
k=1
29
Eine notwendige Bedingung an konvergente Reihen gibt der folgende einfache Satz wieder:
Satz 3.1.
P∞
Konvergiert die Reihe k=0 ak , so ist die Folge (ak )∞
k=0 eine Nullfolge.
Beweis:
Pn
Nach Definition 3.2 ist die Folge sn = k=0 ak , n ∈ IN, eine Cauchyfolge. Dies bedeutet
nach Definition 1.1, dass es zu jedem ε > 0 eine natürliche Zahl Nε gibt, die nur von ε und
der Folge abhängt, so dass
|sn − sm | < ε für alle m > Nε , n > Nε .
Setzen wir die Definition von sn und sm ein, so wird für m > n
|
m
X
k=n+1
ak | < ε
für alle m > Nε , n > Nε .
Insbesondere für m = n + 1 ist
|an+1 | < ε für alle n > Nε .
Aber dies ist die Bedingung der Definition 1.2 für eine Nullfolge .
Aber aufgepaßt:
Bei der harmonischen Reihe ist die Folge ak =
P∞
die Reihe k=1 k1 divergiert .
1
k
eine Nullfolge, aber
Manchmal kann man mit dem folgenden Satz die Konvergenz von Reihen nachweisen:
Satz 3.2. Leibnizsches Konvergenzkriterium.
Hat die Folge (ak )∞
k=0 folgende Eigenschaften
∞
(a) (ak )k=0 ist Nullfolge,
(b) |ak+1 | ≤ |ak | für alle k ≥ N0 , ab einem N0 ∈ IN,
(c) ak+1 ak < 0 für alle k ≥ N0 .
P∞
Dann konvergiert die Reihe k=0 ak .
Beweis:
Wir prüfen das Konvergenzkriterium der Definition 1.1 nach: Zu ε > 0 wählen wir Nε so
groß, dass Nε > N0 , sowie |ak | < ε für alle k > Nε erfüllt ist. Dann ist für alle Nε < n < m
m
n
X
X
ak −
ak = an+1 + · · · + am ≤ |an+1 | < ε.
k=0
k=0
Nach Definition 1.1 ist die Folge
P
n
k=0
ak
∞
n=0
30
eine Cauchyfolge.
Beispiel:
Die Reihe
∞
X
(−1)k−1
k=1
k
=1−
1 1 1
+ − +···
2 3 4
konvergiert, und zwar gegen ln 2 = 0.69314718 . . . (ln = natürlicher Logarithmus).
Nützlich ist die folgende Rechenregel für konvergente Reihen:
Satz 3.3. P
P∞
∞
Seien s = k=0 ak und d = k=0 bk konvergente Reihen. Dann ist die Reihe
∞ X
| ,
αak + βbk
, α, β ∈ C
k=0
konvergent und hat die Summe αs + βd.
Beweis: Dies können Sie doch alleine, oder ?
Viele Reihen
P∞
k=0
ak sind sogar absolut konvergent. Dies bedeutet, dass die Reihe
∞
X
k=0
|ak |
konvergiert. Leicht sehen Sie ein, dass gilt:
Satz 3.4.
Eine absolut konvergente Reihe ist konvergent, und es gilt
∞
∞
X
X
|ak |.
≤
a
k
k=0
k=0
Beweis: Dies können Sie doch auch alleine, oder ? Sie müssen nur anwenden, dass für
beliebige m > n
m
n
X
X
ak −
ak = an+1 + an+2 + · · · + am ≤ |an+1 | + |an+2 | + · · · + |am |
k=0
k=0
erfüllt ist.
Aber die Umkehrung des Satzes 3.4 ist nicht immer richtig. Zum Beispiel konvergiert die
Reihe
P∞
P∞ 1
k−1 1
k=1 (−1)
k=1 k divergiert.
k = ln 2, aber die harmonische Reihe
Insbesondere bei den Potenzreihen werden die drei folgenden Kriterien
• das Majorantenkriterium,
• das Quotientenkriterium,
• das Wurzelkriterium,
einfache Hilfsmittel sein, um schnell die absolute Konvergenz einer Reihe zu beweisen.
31
Satz 3.5. Majorantenkriterium
P∞
P∞
Besitzt die Reihe k=0 ak eine konvergente Majorante s = k=0 bk , das heißt mit der
Eigenschaft
|ak | ≤ bk , für alle k ∈ IN0 := IN ∪ {0},
P∞
dann konvergiert die Reihe k=0 ak absolut, und es ist
∞
∞
X
X
ak ≤
|ak | ≤ s.
(3.1)
k=0
k=0
Beweis:
Pn
Die Folge sn = k=0 |ak |, n ∈ IN, ist monoton steigend und durch s nach oben beschränkt.
Nach
3.2 konvergiert somit die Reihe
P∞ Satz 2.1 ist diese Folge konvergent. Nach
PDefinition
∞
k=0 |ak |, und nach Satz 3.4 auch die Reihe
k=0 ak .
Satz 3.6. Quotientenkriterium
P∞
Für die Reihe k=0 ak gebe es eine natürliche Zahl N und eine positive Zahl M < 1, so
dass
a
k+1 (3.2)
≤ M für alle k ≥ N
ak
erfüllt ist. Dann ist die Reihe absolut konvergent.
Satz 3.7. Wurzelkriterium
P∞
Für die Reihe k=0 ak gebe es eine natürliche Zahl N und eine positive Zahl M < 1, so
dass
|ak |1/k ≤ M für alle k ≥ N
(3.3)
erfüllt ist. Dann ist die Reihe absolut konvergent.
Beweis von Satz 3.6 und 3.7:
Wir benutzen
das Majorantenkriterium (Satz 3.5) und die Konvergenz der geometrischen
P∞
1
für 0 < M < 1. Prüfen Sie nach, dass in Satz 3.6 eine konvergente
Reihe k=0 M k = 1−M
Majorante gegeben ist durch
bk := |ak |,
bk := M k−N |aN |, k > N,
k = 0, . . . , N,
und in Satz 3.7 durch
bk := |ak |,
k = 0, . . . , N − 1,
bk := M k , k ≥ N.
In Satz 3.7 tauchen die Zahlen |ak |1/k auf. Deren Definition ist klar: Für ak 6= 0 ist
βk := |ak |1/k die positive Zahl, die die Gleichung βkk = |ak | erfüllt. Aber wie berechnet
man βk ? Wie wir später sehen werden, am einfachsten nach der Formel
1
|ak |1/k = exp
ln |ak | ,
k
32
also mit Hilfe der Exponentialfunktion exp und dem (natürlichen) Logarithmus ln.
Beispiele:
P∞
| mit |z| < 1 und alle α ∈ IR.
1. Die Reihe k=1 k α z k konvergiert absolut für alle z ∈ C
α
(Die Definition von k für α 6∈ Q wird erst später in der Vorlesung gebracht). Den
Beweis führen wir mit dem Quotientenkriterium, denn es gilt
(k + 1)α
(k + 1)α |z k+1 |
=
|z|.
k α |z k |
kα
Ist α ≤ 0, dann folgt
(k + 1)α |z k+1 |
≤ |z|,
k α |z k |
für alle k ∈ IN,
und wir können in Satz 3.6 M = |z| und N = 1 wählen. Ist α > 0, so können wir
wegen
(k + 1)α
lim
=1
k→∞
kα
und |z|−1/2 > 1 die Zahl N ∈ IN so groß wählen, dass
(k + 1)α
≤ |z|−1/2
kα
für alle k ≥ N
erfüllt ist. Dann ist
(k + 1)α |z k+1 |
(k + 1)α
≤
|z| ≤ |z|1/2
α
k
α
k |z |
k
für alle k ≥ N.
Also gilt das Quotientenkriterium für M = |z|1/2 .
2. Die Reihe
∞
X
zk
k=0
(3.4)
k!
|
konvergiert für alle z ∈ C
absolut. Um das Quotientenkriterium anzuwenden,
betrachten wir die Quotienten
|z|
|z k+1 | |z k |
:
=
,
(k + 1)! k!
k+1
k ∈ IN.
Wählen wir N ∈ IN so groß, dass N ≥ 2|z| ist, so wird
|z k+1 | |z k |
1
:
≤
(k + 1)! k!
2
33
für alle k ≥ N ;
und das Quotientenkriterium ist erfüllt für dieses N und M = 1/2.
Später werden wir die Summe in (3.4) die Exponentialfunktion nennen,
exp (z) :=
∞
X
zk
k=0
k!
| .
für alle z ∈ C
(3.5)
Anstelle von exp (z) schreibt man auch ez .
Manchmal muß man zwei Reihen mit einander multiplizieren. Dann ist der folgende Satz
sehr hilfreich.
Satz P
3.8. Cauchysches
P∞ Produkt zweier Reihen.
∞
Sind k=0 ak und k=0 bk absolut konvergente Reihen, so ist deren Cauchysches Produkt
∞ X
k=0
a0 bk + a1 bk−1 + · · · + ak b0 = a0 b0 + (a0 b1 + a1 b0 ) + (a0 b2 + a1 b1 + a2 b0 ) + · · · (3.6)
ebenfalls absolut konvergent. Für die Grenzwerte gilt
∞ X
k
X
aj bk−j =
k=0 j=0
∞
X
k=0
ak
!
∞
X
bk
k=0
!
.
(3.7)
Beweis:
Für jedes n ∈ IN ist
ρn :=
≤
≤
≤
n
X
|a0 bk + a1 bk−1 + · · · + ak b0 |
k=0
n X
k=0
n
X
k=0
∞
X
k=0
|a0 ||bk | + |a1 ||bk−1 | + · · · + |ak ||b0 |
|ak |
|ak |
n
X
k=0
∞
X
k=0
|bk |
|bk | .
Dies beweist, dass die Folge (ρn )∞
n=0 nach oben beschränkt ist. Da sie monoton wachsend ist, konvergiert sie nach Satz 2.1. Folglich ist das Cauchysche Produkt (3.6) absolut
konvergent, und konvergiert deshalb nach Satz 3.4.
34
Um (3.7) zu beweisen, betrachten wir für n ∈ IN
2n
2n
2n
X
X
X
a
b
−
(a
b
+
a
b
+
·
·
·
+
a
b
)
k
k
0 k
1 k−1
k 0 k=0
k=0
k=0
= |a1 b2n + a2 (b2n + b2n−1 ) + · · · + a2n (b2n + b2n−1 + · · · + b0 )|
≤ |a1 ||b2n | + |a2 |(|b2n | + |b2n−1 |) + · · · + |a2n |(|b2n | + |b2n−1 | + · · · + |b0 |)
2n
2n
n
n
X
X
X
X
≤
|ak |
|bk | −
|ak |
|bk | ,
k=0
k=0
k=0
k=0
und die letzte Zeile konvergiert gegen 0 für n → ∞.
Wichtige Anwendung: Produkte von Potenzreihen :
| absolut konvergenten Potenzreihen
Als bedeutendes Beispiel betrachten wir die beiden in C
C(z) :=
∞
X
(−1)k z 2k
k=0
,
(2k)!
S(z) :=
∞
X
(−1)k z 2k+1
k=0
(2k + 1)!
.
Später werden wir cos (z) (Kosinus) anstelle von C(z) und sin (z) (Sinus) anstelle von S(z)
schreiben.
k 2k+1
z
(−1)k z 2k
| den Satz 3.8 an für a
und bk = (−1)
, dann
Wenden wir für festes z ∈ C
k =
(2k)!
(2k+1)!
ist a0 b0 = z, und für k ≥ 1
a0 bk + · · · + ak b0 =
k
X
aj bk−j
j=0
k
X
(−1)j z 2j (−1)k−j z 2k+1−2j
=
(2j)!
(2k + 1 − 2j)!
j=0
k 2k+1
= (−1) z
k
X
j=0
1
1
(2j)! (2k + 1 − 2j)!
k
(2k + 1)!
(−1)k z 2k+1 X
=
(2k + 1)! j=0 (2j)!(2k + 1 − 2j)!
k (−1)k z 2k+1 X 2k + 1
(−1)k z 2k+1 22k+1
=
=
(2k + 1)! j=0 2j + 1
(2k + 1)!
2
=
1 (−1)k (2z)2k+1
.
2 (2k + 1)!
Also haben wir die Funktionalgleichung
S(2z) = 2S(z)C(z),
bewiesen.
35
| ,
z∈C
(3.8)
§4. Teilfolgen. Satz von Bolzano und Weierstraß
Definition.
Sei 1 ≤ n1 < n2 < . . . eine unendliche Folge natürlicher Zahlen, so heißt die Folge (anj )∞
j=1
eine Teilfolge der Folge (ak )∞
k=1 .
Satz 4.1.
Jede Teilfolge einer konvergenten Zahlenfolge ist ebenfalls konvergent und hat denselben
Grenzwert.
Beweis:
Dies folgt direkt aus den ε-Kriterien der Definitionen 1.1 oder 1.2.
Satz 4.2. Auswahlsatz von Bolzano und Weierstraß
Jede beschränkte reelle Zahlenfolge (ak )∞
k=1 enthält mindestens eine konvergente Teilfolge.
Beweis:
Es seien b0 und c0 untere bzw. obere Schranken der Folge (ak )∞
k=1 , das heißt, b0 ≤ ak ≤ c0
für alle k ∈ IN.
Für k = 1, 2, 3, . . . konstruieren wir sukzessive die Teilintervalle [bk , ck ] wie folgt:
(a) Setze dk := (bk−1 + ck−1 )/2 und zerlege [bk−1 , ck−1 ] in die beiden Teilintervalle
[bk−1 , dk ] und [dk , ck−1 ].
(b) Enthält [bk−1 , dk ] unendlich viele Elemente der Folge (ak )∞
k=1 , so setze [bk , ck ] :=
[bk−1 , dk ], ansonsten [bk , ck ] := [dk , ck−1 ].
Wähle nun die Teilfolge (ank )∞
k=1 so aus, dass ank in [bk , ck ] liegt und 1 ≤ n1 < n2 < . . .
erfüllt. Jetzt können Sie sicher selbst beweisen, dass (ank )∞
k=1 eine Cauchyfolge ist.
Definition.
|
Eine Zahl c ∈ C
heißt Häufungspunkt der Folge (an )∞
n=1 , wenn es eine konvergente
Teilfolge gibt mit Grenzwert c.
Der interessierte Leser kann den folgenden Satz sicher sofort beweisen:
Satz 4.3.
Jede beschränkte reelle Folge (an )∞
n=1 besitzt einen größten und einen kleinsten Häufungspunkt.
In Zeichen:
lim sup an
”Limes superior”
lim inf an
”Limes inferior”.
n→∞
n→∞
Sie können sich auch selbst schnell überlegen, dass aus den Quotientenkriterien des Satzes
3.6 und dem Wurzelkriterium des Satzes 3.7 der folgende Satz sofort folgt:
36
Satz 4.4. P
∞
Die Reihe k=0 ak ist absolut konvergent, falls
lim sup |ak |1/k < 1,
k→∞
und auch wenn ak 6= 0 ab einem Index N und
lim sup
k→∞
|ak+1 |
< 1
|ak |
erfüllt ist.
Mit Hilfe dieses Satzes 4.4 können und dürfen wir ab jetzt die absolute Konvergenz vieler
Reihen einfach nachweisen. Hierzu ein Beispiel:
P∞
|
Sei m ∈ Z vorgegeben. Die Reihe k=1 k m z k konvergiert absolut für jedes z ∈ C
mit
|z| < 1, denn es ist für z 6= 0
lim sup
k→∞
1 m
(k + 1)m |z k+1 |
|z| = |z| < 1.
=
lim
sup
1
+
k m |z k |
k
k→∞
Aber auch die Divergenz von Reihen kann häufig schnell erkannt werden, und zwar mit
Hilfe des
Satz 4.5. P
∞
Die Reihe k=0 ak konvergiert nicht und damit auch nicht absolut, falls
lim sup |ak |1/k > 1,
(4.1)
k→∞
und auch nicht, wenn ak 6= 0 ab einem Index N und
lim inf
k→∞
|ak+1 |
> 1
|ak |
(4.2)
erfüllt ist.
Beweis. Es sei (4.1) erfüllt. Dann existiert eine Teilfolge k1 < k2 < · · · natürlicher Zahlen
mit
|akj |1/kj ≥ 1 für alle j ∈ IN.
Folglich ist (ak )∞
k=1 keine Nullfolge. Nach Satz 3.1 konvergiert die Reihe daher nicht.
Es sei (4.2) erfüllt. Dann existert ein Index M ∈ IN, so dass ak 6= 0, sowie |ak+1 |/|ak | ≥ 1
für alle k ≥ M . Insbesondere gilt |ak | ≥ |aM | für alle k ≥ M . Folglich ist (ak )∞
k=1 keine
Nullfolge. Nach Satz 3.1 konvergiert die Reihe daher nicht.
37
Beweisen Sie mit Hilfe des Auswahlsatzes von Bolzano und Weierstraß den folgenden
Satz 4.6. Eine beschränkte reelle Folge ist konvergent genau dann, wenn sie nur einen
Häufungspunkt besitzt.
Beweisen Sie mit Hilfe des Satzes 4.6, dass die in §2 gegebene Folge (ak )∞
k=0 mit Startwert
a0 > 0, gegeben durch die Rekursionsformel
ak+1
a2k + 9
,
:=
5ak + 3
k = 0, 1, . . . ,
konvergiert.
Zum Schluß noch eine interessante Frage mit einer erstaunlichen Antwort: Wie viele
Häufungspunkte kann eine rationale Zahlenfolge haben?
Antwort: Man kann die rationalen Zahlen als Folge (an )∞
n=1 schreiben. Man sagt : ”Die
rationalen Zahlen sind abzählbar”. Folglich ist jede reelle Zahl ein Häufungspunkt dieser
Folge.
Hier ist der Beweis für das Intervall [0, 1]: Wir numerieren die rationalen Zahlen
Q ∩ [0, 1] =
np
q
o
: (p, q) = 1, 0 ≤ p ≤ q, q ∈ IN
zeilenweise von links nach rechts wie folgt:
q=1 : 0, 1,
q=2 : 1/2,
q=3 : 1/3, 2/3,
q=4 : 1/4, 3/4,
q=5 : 1/5, 2/5, 3/5, 4/5,
q=6 : 1/6, 5/6,
und so weiter.
38
§5. Reell- oder komplexwertige stetige Funktionen
Die bekanntesten Funktionen einer Variablen sind die algebraischen Polynome P vom
Grade ≤ n. Meist werden sie dargestellt in der Form
P (x) =
n
X
a k xk .
k=0
Trigonometrische Polynome vom Grad ≤ n der Periode 2π werden in der Regel dargestellt
in der Form
n X
ak cos (kt) + bk sin (kt)
T (t) = a0 +
k=1
oder (in komplexer Form)
T (t) =
n
X
ck eikt .
k=−n
Die Variablen x oder t sind meist reell und aus einem abgeschlossenen Intervall [a, b] :=
{x ∈ IR : a ≤ x ≤ b}, halboffenem Intervall [a, b) := {x ∈ IR : a ≤ x < b}, (a, b] := {x ∈
IR : a < x ≤ b}, oder einem offenen Intervall (a, b) := {x ∈ IR : a < x < b}.
Wie in Kapitel I schreiben wir
f : D → IR
| ,
oder f : D → C
zum Beispiel f : [a, b] → IR mit Definitionsbereich D = [a, b]. Als Graph von f
definieren wir die Punktmenge
x
2
∈ IR : x ∈ D .
G=
f (x)
Durch den Graph solcher Funktionen f können wir Kurven in der Ebene beschreiben. Zum
Beispiel beschreibt
p
f (x) = 1 − x2 , −1 ≤ x ≤ 1,
den oberen Einheitskreis in der rechtwinkligen x − y-Ebene.
Mit Hilfe von zwei Funktionen f1 : [a, b] → IR, f2 : [a, b] → IR kann man eine Kurve
in der Ebene oft besser beschreiben:
f1 (t)
: a≤t≤b .
K :=
f2 (t)
Diese Darstellung der Kurve K heißt parametrische Darstellung, und K hat einen Anfang, A = (f1 (a), f2 (a)) und ein Ende B = (f1 (b), f2 (b)). Zum Beispiel beschreibt
a cos (t)
: 0 ≤ t ≤ 2π
K :=
b sin (t)
eine Ellipse mit Halbachsen a und b.
Wir kommen nun zu dem Begriff der Stetigkeit einer Funktion f .
39
Definition 5.1. (Stetigkeit)
| heißt stetig im
Es sei D ein reelles Intervall. Eine Funktion f : D → IR oder f : D → C
Punkt x0 ∈ D, falls es zu jedem ε > 0 ein δ = δε > 0 gibt, das von ε, f, x0 , D abhängen
kann, so dass
|f (x) − f (x0 )| < ε für alle x ∈ D mit |x − x0 | < δ.
(5.1)
f heißt stetig in D, wenn f in jedem Punkt in D stetig ist.
f heißt gleichmäßig stetig in D, falls zu jedem ε > 0 ein δ > 0 mit der Eigenschaft (5.1)
existiert, wobei δ von ε, f und D abhängen kann, nicht aber von x0 ∈ D.
Satz 5.1.
| ist stetig im Punkt x ∈ D genau dann, wenn
Eine Funktion f : D → IR oder f : D → C
0
lim f (xn ) = f (x0 )
n→∞
(5.2)
erfüllt ist für alle Folgen (xn )∞
n=1 ⊂ D mit
lim xn = x0 .
n→∞
(5.3)
Beweis:
1. Es sei f in x0 ∈ D stetig, und (xn )∞
n=1 eine Folge in D mit der Eigenschaft (5.3). Zu
ε > 0 sei δ das δ der Definition 5.1 . Wegen (5.1) gibt es ein Nε , so dass
|xn − x0 | < δ
für alle n > Nε .
Wegen (5.2) ist dann
|f (xn ) − f (x0 )| < ε für alle n > Nε ,
wodurch die Konvergenz (5.1) bewiesen ist.
2. Es gelte (5.2) für jede Folge in D mit der Eigenschaft (5.3).
Angenommen, es sei f nicht stetig in x0 .
Dann gibt es ein ε > 0, so dass zu jedem n ∈ IN und jedem δn := 1/n ein xn ∈ D existiert,
für das
|xn − x0 | < δn , |f (xn ) − f (x0 )| ≥ ε
erfüllt ist. Dies widerspricht aber (5.2). Dieser Widerspruch beweist die Stetigkeit von f
in x0 .
Beispiele:
√
1. Die Funktion f : [0, ∞) → IR, f (x) := x, ist stetig in jedem Punkt x0 ∈ [0, ∞).
Beweis:
Sei zunächst x0 = 0. Für x > 0 ist dann
√
|f (x) − f (x0 )| = x.
40
Zu vorgegebenem ε > 0 wählen wir δ := ε2 . Dann ist
|f (x) − f (x0 )| =
√
x < ε für alle |x − x0 | = x < δ.
Also ist (5.1) erfüllt.
Sei nun x0 > 0. Dann ist
√
√
|x − x0 |
|x − x0 |
| x − x0 | = √
.
√ ≤ √
x0
x + x0
√
Zu vorgegebenem ε > 0 wählen wir δ := ε x0 . Dann ist
√
√
δ
| x − x0 | < √ = ε für alle |x − x0 | < δ.
x0
Also ist erneut (5.1) erfüllt.
Nun eine Herausforderung an Sie: Zeigen Sie, dass man im letzten Beispiel zu ε >√0 für
jedes x0 ≥ 0 stets δ = ε2 wählen kann, um (5.1) zu befriedigen. Also ist f (x) = x im
Intervall [0, ∞) gleichmäßig stetig.
2. Die Funktion f : (0, 1] → IR, f (x) := 1/x, ist stetig in jedem Punkt x0 ∈ (0, 1], aber
nicht gleichmäßig stetig in (0, 1]. Den einfachen Beweis überlasse ich Ihnen.
Sehr nützlich für den Nachweis der Stetigkeit von Funktionen ist der folgende Satz:
Satz 5.2.
Es seien f und g stetige reell- oder komplexwertige Funktionen in D. Dann sind auch die
folgenden Funktionen stetig in D:
1. f + g, definiert durch (f + g)(x) := f (x) + g(x), x ∈ D;
| , wobei αf definiert ist durch (αf )(x) := αf (x),
2. αf , für alle α ∈ C
x ∈ D;
3. f g, definiert durch (f g)(x) := f (x)g(x), x ∈ D;
f (x)
f
f
x ∈ D, falls g(x) 6= 0 in D;
4.
g , definiert durch g (x) := g(x) ,
√
f , falls f (x) ≥ 0 für alle x ∈ D.
5.
Beweis: Wir wollen den Beweis nur für die Aussage (4.) führen:
Wegen der Stetigkeit von f und g in x0 gilt nach Satz 5.1 für jede Folge in D mit der
Eigenschaft
lim xn = x0 ,
n→∞
dass
lim f (xn ) = f (x0 ) ,
n→∞
41
lim g(xn ) = g(x0 ).
n→∞
Nach Satz 5.1 ist dann wegen g(x0 ) 6= 0
lim
n→∞
f (x0 )
f (xn )
=
.
g(xn )
g(x0 )
Erneut wegen Satz 5.1 folgt hieraus die Stetigkeit von
f
g
in x0 .
Manchmal sind zwei oder mehrere Funktionen in einander verschachtelt, zum Beispiel
r
1 − x2
g(x) :=
, −1 ≤ x ≤ 1,
1 + x2
die sich aus den Funktionen
√
1 − x2
F (t) = t, 0 ≤ t < ∞, und f (x) =
, −1 ≤ x ≤ 1,
1 + x2
zusammensetzt. Aus der Stetigkeit von f und F folgt die Stetigkeit von g wegen des
folgenden Satzes:
Satz 5.3.
| . Es habe f : D → K den Wertebereich B. Sei F : B ∗ → K
Es sei K = IR oder K = C
mit B ⊆ B ∗ . Ist f stetig in x0 ∈ D und F stetig in f (x0 ), dann ist g := F ◦ f : D → K
stetig in x0 . Hierbei bedeutet g := F ◦ f , dass g(x) := F (f (x)), x ∈ D.
Beweis: Wir verwenden Satz 5.1:
Sei (xn )∞
n=1 eine beliebige Folge in D, die gegen x0 konvergiert. Wegen der Stetigkeit von
f in x0 konvergiert die Folge yn := f (xn ), n ∈ IN, gegen y0 := f (x0 ). Nun ist aber F stetig
in y0 . Folglich konvergiert die Folge F (yn ), n ∈ IN, gegen F (y0 ). Wegen der Definition
von g = F ◦ f ist dies gleichbedeutend mit der Konvergenz von g(xn ) gegen g(x0 ), womit
wegen Satz 5.1 die Stetigkeit von g in x0 bewiesen ist.
Weitere Beispiele:
3. Die Polynome
P (z) =
n
X
ak z k ,
k=0
|
ak ∈ C
| .
sind stetige Funktionen bezüglich jedes Definitionsbereichs D ⊂ C
4. Die rationalen Funktionen
Pn
ak z k
| ,
, ak , bk ∈ C
R(z) = Pk=0
m
k
b
z
k=0 k
| , der keine Nullsind stetige Funktionen bezüglich
Definitionsbereichs D ⊂ C
Pm jedes
k
stellen des Nennerpolynoms k=0 bk z enthält.
Liegt x0 nicht in D, ist aber ein Häufungspunkt von D, so definieren wir :
42
Definition 5.2.
| . Dann schreiben wir
Es sei D ⊆ IR und x0 ein Häufungspunkt von D. Sei f : D → C
y0 = lim f (x),
x→x0
falls
lim f (xn ) = y0
(5.4)
n→∞
für jede Folge (xn )∞
n=1 ⊂ D mit Grenzwert x0 erfüllt ist.
Wir schreiben
y0 = lim f (x),
x→x0 +
wenn (5.4) richtig ist für alle Folgen (xn )∞
n=1 ⊂ D, die von rechts gegen x0 konvergieren,
und
y0 = lim f (x),
x→x0 −
wenn (5.4) richtig ist für alle Folgen (xn )∞
n=1 ⊂ D, die von links gegen x0 konvergieren.
Beispiel: Es sei f : IR → IR gegeben durch
x2 ,
lim f (x) = 1
,
f (x) =
x≥0
x<0.
1
1−x ,
Dann ist
x→0−
lim f (x) = 0,
x→0+
aber
lim f (x)
x→0
existiert nicht. Sie können sofort selber die folgende einfache Aussage beweisen:
Satz 5.4.
|
Es sei D = (a, b) := {x ∈ IR : a < x < b} ein offenes Intervall. Eine Funktion f : D → C
ist stetig in x0 ∈ D genau dann, wenn
f (x0 ) = lim f (x) = lim f (x) = lim f (x).
x→x0
x→x0 +
x→x0 −
§6. Die Sätze von Bolzano, Heine, Weierstraß
Wir wollen nun drei wichtige und nützliche Sätze über stetige Funktionen zusammenstellen.
43
Satz 6.1. (Zwischenwertsatz von Bolzano)
Es sei f : [a, b] → IR auf dem abgeschlossenen Intervall [a, b] := {x ∈ IR : a ≤ x ≤ b} stetig,
und es gelte f (a) < f (b) (oder f (b) < f (a)). Dann existiert zu jedem η mit f (a) < η < f (b)
mindestens ein ξ ∈ (a, b) mit f (ξ) = η.
Beweis:
Erinnern Sie sich an den Beweis des Auswahlsatzes von Bolzano und Weierstraß? Auch
der Beweis des vorliegenden Zwischenwertsatzes wird über das Bisektionsverfahren =
Halbierungsverfahren geführt.
Wir setzen a0 := a und b0 := b. Zu dem vorgegebenen η, f (a) < η < f (b), definieren wir
die Folge von Intervallen [ak , bk ], k ∈ IN, der Länge bk −ak = 2−k (b −a) nach der folgenden
Vorschrift:
Setze ck := (ak + bk )/2 und
[ak , bk ] := [ck , bk−1 ], falls f (ck ) < η,
[ak , bk ] := [ak−1 , ck ], falls f (ck ) > η,
STOP, falls f (ck ) = η, denn dann hat ξ := ck die gewünschte Eigenschaft f (ξ) = η.
Aus der Bedingung bk −ak = 2−k (b−a) folgt sofort, dass die Folge (ck )∞
k=1 eine Cauchyfolge
ist, und wegen der Stetigkeit von f ist limk→∞ f (ck ) = η.
Satz 6.2. (Heine)
Ist f : [a, b] → IR im abgeschlossenen Intervall [a, b] stetig, so ist f in [a, b] sogar
gleichmäßig stetig.
Beweis:
Wir führen den Beweis indirekt:
Angenommen, f wäre stetig in [a, b], aber nicht gleichmäßig stetig. Dann gäbe es ein ε > 0
mit folgender Eigenschaft:
Zu jedem δ > 0 gibt es xδ , tδ ∈ [a, b] mit
|xδ − tδ | < δ
,
|f (xδ ) − f (tδ )| ≥ ε.
Wir wählen nun δ = 1/n, n ∈ IN, und betrachten die beiden Folgen ξn := xδn , ηn := tδn ,
n ∈ IN. Die Folge (ξn )∞
n=1 liegt in [a, b], ist also beschränkt. Nach dem Auswahlsatz 4.2 von
Bolzano und Weierstraß existiert eine konvergente Teilfolge (ξnj )∞
j=1 . Deren Grenzwert ξ
liegt in [a, b]. Wegen |ξn − ηn | < 1/n, n ∈ IN, konvergiert auch (ηnj )∞
j=1 gegen ξ. Wegen
der Stetigkeit von f in ξ ist dann
lim f (ξnj ) = lim f (ηnj ) = f (ξ).
j→∞
j→∞
Dies widerspricht aber den Ungleichungen
|f (ξnj ) − f (ηnj )| ≥ ε,
j ∈ IN.
Aus diesem Widerspruch folgt die gleichmäßige Stetigkeit von f in [a, b].
44
Satz 6.3. (Weierstraß)
Ist f : [a, b] → IR im abgeschlossenen Intervall [a, b] stetig, dann ist f in [a, b] beschränkt
und nimmt ihr Maximum und ihr Minimum an.
Das heißt, es existieren x0 ∈ [a, b] und x1 ∈ [a, b] mit
f (x0 ) = min f (x) ,
f (x1 ) = max f (x).
a≤x≤b
a≤x≤b
Beweis:
Es sei (xn )∞
n=1 ⊂ [a, b] eine Minimalfolge für f , das heißt,
lim f (xn ) = inf f (x).
n→∞
x∈[a,b]
∞
Nach Satz 4.2 besitzt (xn )∞
n=1 ⊂ [a, b] eine konvergente Teilfolge (ξnj )j=1 , deren Grenzwert
ξ in [a, b] liegt. Da f stetig in ξ ist, folgt
f (ξ) = lim f (xnj )
j→∞
und somit
f (ξ) = inf f (x),
x∈[a,b]
quod erat demonstrandum. Der Beweis für die Existenz eines Maximums ist analog.
§7. Potenzreihen
Definition 7.1.
Sei (ak )∞
k=1 eine reelle oder komplexe Zahlenfolge. Dann heißt der Ausdruck
∞
X
ak z k
k=0
formale Potenzreihe.
Satz 7.1.
P∞
1. Jede Potenzreihe k=0 ak z k besitzt einen Konvergenzradius ρ:
|
| mit |z| < ρ, und divergiert für alle z ∈ C
die Potenzreihe konvergiert absolut für alle z ∈ C
mit |z| > ρ.
2. Der Konvergenzradius ρ kann berechnet werden nach der Formel
1
= lim sup |ak |1/k .
ρ
k→∞
45
3. Gibt es ein N ∈ IN, so dass ak 6= 0 für alle k ≥ N , dann ist
|ak |
,
k→∞ |ak+1 |
ρ = lim
falls dieser Grenzwert existiert.
Beweis: Die Aussagen dieses Satzes folgen direkt aus Satz 4.4 und Satz 4.5.
Aber eines müssen wir stets beachten: Für |z| = ρ ist es oft schwierig, die Konvergenz
oder Divergenz der Potenzreihe zu beweisen. Wenn Sie gar nicht weiter wissen, nehmen
Sie doch den Computer und berechnen Sie
sn =
n
X
ak z k ,
n = 0, 1, . . . ,
k=0
| mit |z| = ρ.
für verschiedene z ∈ C
Beispiele:
P∞ k
1. Die Potenzreihe k=1 zk hat den Konvergenzradius ρ = 1. Sie konvergiert für z = −1
|
und divergiert für z = 1 (harmonische Reihe). Was aber passiert für alle anderen z ∈ C
mit |z| = 1, zum Beispiel für z = i oder z = −i ?
k
P∞
substituieren wir zuerst w = 3z−2. Dann hat die Potenzreihe
2. In der Reihe k=1 (3z−2)
k2
P∞ wk
|
k=1 k2 den Konvergenzradius ρ = 1. Sie konvergiert absolut für alle w ∈ C mit |w| ≤ 1
| mit |w| > 1. Daher konvergiert
(siehe Übungsaufgabe 17), und divergiert für alle w ∈ C
P∞ (3z−2)k
| mit |z − 2/3| ≤ 1/3 und divergiert für alle z ∈ C
| mit
absolut für alle z ∈ C
k=1
k2
|z − 2/3| > 1/3.
3. In der Reihe
∞
X
(2k + (−2)k )(3z 2 − 9)k
2k + 5
k=1
substituieren wir zunächst w = 3z 2 − 9. Die Reihe
∞
X
(2k + (−2)k )wk
2k + 5
k=1
|
hat den Konvergenzradius ρ = 1/2. Also haben wir absolute Konvergenz für alle z ∈ C
2
2
mit |3z − 9| < 1/2, das heißt für |z − 3| < 1/6.
| eine Funktion
Durch eine Potenzreihe wird innerhalb des offenen Konvergenzkreises in C
| definiert in D := {z ∈ C
| : |z| < ρ}, und zwar durch
f : Dρ → C
ρ
f (z) :=
∞
X
ak z k ,
k=0
46
z ∈ Dρ .
Wie wir im nächsten Satz sehen werden, ist f stetig in Dρ , ja sogar beliebig oft komplex
| (komplex) differenzierbar in z ∈ D , falls der
differenzierbar. Hierbei heißt f : Dρ → C
0
ρ
Grenzwert
f (z) − f (z0 )
lim
z→z0 ,z6=z0
z − z0
existiert. Dieser Grenzwert heißt 1.Ableitung von f in z0 und wird mit f ′ (z0 ) bezeichnet.
Es heißt f zweimal differenzierbar in z0 , falls f und f ′ in z0 differenzierbar sind, et cetera.
Satz 7.2.
P∞
Die Potenzreihe k=0 ak z k habe einen Konvergenzradius ρ > 0 oder ρ = ∞. Dann ist die
durch
∞
X
f (z) =
a k z k , z ∈ Dρ ,
k=0
| in D
definierte Funktion f : Dρ → C
ρ stetig und beliebig oft differenzierbar, und es ist
′
f (z) =
∞
X
kak z k−1 ,
z ∈ Dρ ,
k=1
′′
f (z) =
∞
X
k=2
und allgemein
k(k − 1)ak z k−2 ,
∞ f (q) (z) X k
ak z k−q ,
=
q
q!
k=q
z ∈ Dρ ,
z ∈ Dρ ,
q ∈ IN.
Beweis: Diesen Beweis wollen wir nicht führen. Wie wäre es, wenn Sie hierzu die Literatur
befragen würden ?
Stattdessen wollen wir an Beispielen zeigen, wie nützlich dieser Satz ist:
Die geometrische Reihe hat den Konvergenzradius ρ = 1,
∞
X
1
f (z) =
=
zk ,
1−z
k=0
|z| < 1.
Folglich ist nach Satz 7.2
∞
X
1
kz k−1 ,
=
f (z) =
2
(1 − z)
′
k=1
∞
|z| < 1.
X
2
f (z) =
k(k − 1)z k−2 . |z| < 1.
=
(1 − z)3
′′
k=2
47
| absolut konvergenten Potenzreihen
Differenzieren wir gliedweise die in ganz C
exp (z) =
∞
X
zk
k=0
k!
,
sin (z) =
∞
X
(−1)k z 2k+1
(2k + 1)!
k=0
,
cos (z) =
∞
X
(−1)k z 2k
k=0
(2k)!
,
so erhalten wir deren Ableitungen
exp (z)
′
= exp (z)
,
sin (z)
′
= cos (z)
,
cos (z)
′
= − sin (z).
§8. Die Exponentialfunktion
Wir haben schon früher die Exponentialfunktion definiert durch
exp(z) :=
∞
X
zk
k=0
k!
,
| ,
z∈C
(8.1)
und mit Hilfe des Quotienten- oder Wurzelkriteriums festgestellt, dass diese Reihe für alle
| absolut konvergiert. Nach Satz 7.2 ist exp in C
| stetig und beliebig oft (komplex)
z ∈C
differenzierbar.
Wir wollen einige wichtige Eigenschaften von exp zusammenstellen:
Satz 8.1.
1. exp(0) = 1, exp ist streng monoton steigend in [0, ∞), insbesondere ist exp(x) > 1
für alle x > 1;
| ,
2. exp(z + w) = exp(z) exp(w) für alle z, w ∈ C
| , sowie
insbesondere exp(z) exp(−z) = 1 für alle z ∈ C
exp (z1 + z2 + · · · + zn ) =
n
Y
k=1
| .
exp (zk ) für alle z1 , . . . , zn ∈ C
| . Ist z = x + iy mit Real- und Imaginärteil x und y, dann
3. exp (z) 6= 0 für alle z ∈ C
gilt
exp (z) = exp (x) exp (iy) , | exp (z)| = exp (x).
(8.2)
4. exp ist streng monoton steigend in (−∞, 0], sowie 0 < exp(x) < 1 für alle x < 0;
5. lim exp(x) = 0 ,
lim exp(x) = +∞.
x→−∞
x→+∞
Beweis:
1. Dies können wir sofort aus der Potenzreihe (8.1) ablesen.
48
2. Mit Hilfe des Cauchyproduktes berechnen wir


!
∞ X
k
∞
∞
ℓ
j
X
X
Xz
z j wk−j
w

=1+
exp(z) exp(w) = 
j!
ℓ!
j! (k − j)!
j=0
j=0
k=1
ℓ=0
∞
∞
k X
X
1 X k j k−j
1
=1+
z w
=1+
(z + w)k = exp(z + w).
j
k!
k!
k=1
j=0
k=1
| .
Also gilt exp(z) exp(w) = exp(z + w) für alle z, w ∈ C
Setzen wir w = −z, so folgt exp(z) exp(−z) = exp(z − z) = exp(0) = 1.
3. Wegen exp(z) exp(−z) = 1 kann exp(z) nicht 0 sein. Wegen | exp (iy)| = 1 für y ∈ IR
(Übungsaufgabe) folgt die rechte Gleichung in (8.2).
4. Wegen exp(x) exp(−x) = 1 und der Monotonie von exp(x) für 0 ≤ x < ∞, folgt
die Monotonie für −∞ < x < 0. Außerdem folgen die Ungleichungen 0 < exp(x) < 1
−∞ < x < 0, da exp(x) > 1 für x > 0.
5. Offensichtlich strebt exp(x) gegen +∞ für x → +∞, was wir sofort aus der Potenzreihe
(8.1) ersehen. Wegen exp(−x) = 1/ exp(x) strebt exp(x) gegen 0 für x → −∞.
Anstelle der Bezeichnung exp(z) ist auch die Schreibweise ez gebräuchlich. Wir wollen nun
erklären, wie es zu dieser Schreibweise kam:
Wir haben schon früher die Eulersche Zahl e definiert durch
∞
X
1 1
1
1
1
=1+1+ + +
+
+ · · · = 2.718281828...,
e=
k!
2 6 24 120
k=0
also durch
e = e1 = exp(1).
Sei nun n ∈ IN, und wenden wir die Formel exp(z + w) = exp(z) exp(w) mehrfach an, so
erhalten wir
n
exp(n) = exp((n − 1) + 1) = exp(n − 1) exp(1) = · · · = exp(1) ,
also
exp(n) = en .
Ähnlich können wir zeigen, dass für jede rationale Zahl r = p/q mit q ∈ IN und p ∈ Z,
exp(p/q) =
exp(1/q)
gilt, was wir auch schreiben können als
p
=
exp(p)
p 1/q
er = ep/q = e1/q = ep
.
49
1/q
Hierbei müssen wir beachten, dass exp(x) > 0 für alle x ∈ IR, und dass wir schon früher
die Zahl β := a1/q mit a > 0 und q ∈ IN definiert haben als die positive Zahl mit der
Eigenschaft β q = a.
Für alle anderen x ∈ IR, x 6∈ Q, definieren wir die x-te Potenz ex von e durch
ex := exp(x),
aber auch
ez := exp(z)
| .
für alle anderen z ∈ C
§9. Die trigonometrischen Funktionen
Wie schon früher erwähnt, definieren wir den Kosinus und den Sinus durch die Potenzreihen
∞
∞
X
X
(−1)k z 2k+1
(−1)k z 2k
| .
, sin (z) :=
, z∈C
cos (z) :=
(2k)!
(2k + 1)!
k=0
k=0
Beide Funktionen gehören zur Klasse der trigonometrischen Funktionen. Wie wir
| , und sogar beliebig oft
schon früher gezeigt haben, sind beide Funktionen stetig in C
| .
differenzierbar in C
Da wir die Potenzreihen innerhalb ihres Konvergenzkreises (hier:
|
innerhalb C) gliedweise differenzieren dürfen, erhalten wir die Ableitungen
sin (z)
′
=
cos (z)
′
=
∞
X
(−1)k (2k + 1)z 2k
k=1
∞
X
k=1
(2k + 1)!
= cos (z),
(−1)k (2k)z 2k−1
= − sin (z),
(2k)!
| ,
z∈C
| .
z∈C
Sofort erkennen wir weitere Eigenschaften der obigen Potenzreihen, zum Beispiel
cos (0) = 1, sin (0) = 0,
cos (−z) = cos (z), der Kosinus ist eine gerade Funktion,
sin (−z) = − sin (z), der Sinus ist eine ungerade Funktion.
Wir haben auch schon bewiesen, dass sin (2z) = 2 sin (z) cos (z) ist. Ähnlich, mit Hilfe des
Cauchyproduktes (das heißt, durch Vergleich der Koeffizienten der Potenzen 1, z, z 2 , z 3 , . . .)
beweist man die folgenden Additionstheoreme:
Satz 9.1.
|
Es gilt für alle z, η ∈ C
sin (z + η) = sin (z) cos (η) + cos (z) sin (η),
sin (z − η) = sin (z) cos (η) − cos (z) sin (η),
cos (z + η) = cos (z) cos (η) − sin (z) sin (η),
cos (z − η) = cos (z) cos (η) + sin (z) sin (η).
50
Setzen wir in der 4.Gleichung des Satzes 9.1 η = z, so folgt
(sin (z))2 + (cos (z))2 = 1,
| ,
z∈C
was wir bereits in den Übungen bewiesen haben.
Erinnern möchte ich auch an die Identität
exp (ix) = cos (x) + i sin (x),
x ∈ IR
| ) ,
( oder auch x ∈ C
die wir auch schreiben als
eix = cos (x) + i sin (x),
x ∈ IR
| ) .
( oder auch x ∈ C
Für jede natürliche Zahl n ist
exp (inx) = exp (i(n − 1)x + ix) = exp (i(n − 1)x) exp (ix) = · · · = (exp (ix))n .
Wegen
exp (inx) = cos (nx) + i sin (nx),
x ∈ IR
folgt somit die Formel von Moivre aus Kapitel II,
(cos (x) + i sin (x))n = cos (nx) + i sin (nx) für alle x ∈ IR, n ∈ IN.
(9.1a)
Auf ähnliche Weise können Sie sofort zeigen, dass
(cos (x) + i sin (x))−n = cos (nx) − i sin (nx) für alle x ∈ IR, n ∈ IN.
(9.1b)
| .
Die beiden Gleichungen (9.1) gelten sogar für alle x ∈ C
Aus der Potenzreihe (9.1) des Sinus erkennen wir sofort, dass sin (x) > 0 für 0 < x ≤ 2
ist. Wir definieren die Zahl π als die kleinste positive Nullstelle der Sinus-Funktion.
Es ist π = 3.14159265 . . .. Also ist sin (x) > 0 für 0 < x < π, sin (π) = 0. Aus den
Additionstheorem folgt sofort
Satz 9.2.
1. Es ist
cos (0) = 1 ,
0 < cos (x) < 1, 0 < x < π/2 ,
cos (π/2) = 0.
2. Die Sinus- und die Kosinusfunktion sind 2π-periodisch, das heißt,
sin (z + 2π) = sin (z)
,
cos (z + 2π) = cos (z)
| .
für alle z ∈ C
3. Es gilt
π
sin z +
= cos (z)
2
,
π
cos z +
= − sin (z)
2
51
| .
für alle z ∈ C
Den einfachen Beweis dieses Satzes will ich Ihnen überlassen.
Aufgaben:
1. Zeichnen Sie die Sinus- und die Kosinusfunktion, aber auch die Funktionen sin (2x),
sin (3x) cos (2x), cos (3x), sowie sin (2πx).
2. Zeichnen Sie den Tangens und Kotangens, die wir folgendermaßen definieren:
sin (x)
,
cos (x)
cos (x)
cot (x) :=
,
sin (x)
−
tan (x) :=
π
π
<x< ,
2
2
0 < x < π.
Beachten Sie, dass
cos (x + π2 )
π
− sin (x)
cot (x + ) =
= − tan (x).
π =
2
sin (x + 2 )
cos (x)
Geometrisch bedeutet dies, dass wir den Graph des Tangens erhalten, wenn wir den
Graph des Kotangens nach links um π/2 verschieben und dann an der x-Achse spiegeln.
3. Erklären Sie die geometrische Bedeutung des Sinus, Kosinus, Tangens und Kotangens
am Einheitskreis {(x, y) ∈ IR2 : x2 + y 2 = 1}. Verwenden Sie hierbei, dass
eiπ/2 = i,
eiπ = −1,
e2πi = 1,
sowie die Gleichungen
eit = cos (t) + i sin (t),
eint = cos (nt) + i sin (nt),
t ∈ IR,
t ∈ IR,
n ∈ IN.
Beweisen Sie den ”Pythagoras” mit Hilfe der Gleichung
(sin (t))2 + (cos (t))2 = 1,
t ∈ IR.
4. Erinnern Sie sich an die Polarkoordinatendarstellung der komplexen Zahlen,
z = |z| cos (t) + i sin (t) .
§10. Die Umkehrfunktion
Definition 10.1.
Es sei D ein reelles Intervall und f : D → IR eine streng monoton steigende oder streng
52
monoton fallende Funktion mit Wertebereich B. Dann besitzt f eine Umkehrfunktion,
die wir mit f −1 : B → IR bezeichnen und die durch
f
−1
f (x) := x
für alle x ∈ D,
(10.1)
eindeutig definiert ist.
Eine gleichwertige Definition der Umkehrfunktion ist gegeben durch
−1
f f (y) := y
für alle y ∈ B,
(10.2)
denn es ist
f −1 ◦ f = f ◦ f −1 = id
(die Identität auf D oder B).
Mit Hilfe des Satzes 5.1 erkennen wir sofort, dass die Umkehrfunktionen stetiger Funktionen auch stetig sind.
Geometrisch
hatodie Umkehrfunktion eine einfache Deutung: Tragen Sie den Graph
n
x
in ein rechtwinkliges x − y-Koordinatenkreuz ein, so erhalten Sie den
f (x) : x ∈ D
n
o
Graph f −1x(x) : x ∈ B der Umkehrfunktion f −1 durch Spiegelung an der Diagonalen
n o
x
x : x ∈ IR .
10.1. Der Logarithmus ln (natürlicher Logarithmus)
Die Umkehrfunktion der Exponentialfunktion exp : IR → IR nennen wir den Logarithmus
ln,
ln : (0, ∞) → IR.
Der Logarithmus hat den Definitionsbereich (0, ∞) = {exp (x) : x ∈ IR}. Also ist
exp (ln (x)) = x für alle 0 < x < ∞,
ln (exp (x)) = x für alle x ∈ IR.
Offensichtlich ist
ln (1) = 0 ,
ln (e) = 1 ,
lim ln (x) = −∞
x→0+
,
lim ln (x) = +∞.
x→+∞
Wir wollen nun einige Eigenschaften des Logarithmus herleiten:
53
Satz 10.1. Es ist
ln (x1 x2 ) = ln (x1 ) + ln (x2 ) für alle x1 > 0, x2 > 0,
1
ln = − ln (x) für alle x > 0,
x
ln (xn ) = n ln (x) für alle x > 0, n ∈ Z
1
ln (x1/n ) = ln (x) für alle x > 0, n ∈ IN.
n
Beweis:
Diese Eigenschaften des Logarithmus folgen sofort aus ln (1) = 0, exp (0) = 1 und aus
exp (x1 + x2 ) = exp (x1 ) exp (x2 ), x1 , x2 ∈ IR.
Erinnern Sie sich? Die letzte Gleichung dieses Satzes 10.1 haben wir schon früher verwendet, um in Satz 7.1 den Konvergenzradius ρ einer Potentreihe auszurechnen,
1
1
= lim sup |ak |1/k = lim sup exp
ln (|ak |) .
ρ
k
k→∞
k→∞
| definiert durch
Wir haben am Ende des §8 die Schreibweise ex , x ∈ IR, und sogar ez , z ∈ C
ex := exp(x) ,
ez := exp(z).
Etwas allgemeiner definieren wir nun
Definition 10.2.
Es sei a > 0 eine positive reelle Zahl und x ∈ IR, dann definieren wir die x-te Potenz von
a durch
ax := exp (x ln (a)) und schreiben auch ax = ex ln (a) .
Ohne Schwierigkeiten (??) können Sie nun die folgenden Rechenregeln beweisen:
Satz 10.2. Es ist
ax+t = ax at
x
für alle a > 0, x ∈ IR, t ∈ IR
ln (a ) = x ln (a) für alle a > 0, x ∈ IR
t
ax = axt für alle a > 0, x ∈ IR, t ∈ IR.
10.2. Die zyklometrischen Funktionen
Der Sinus ist streng monoton steigend im Intervall [− π2 , π2 ] und hat dort den Wertebereich
[−1, 1]. Deren Umkehrfunktion nennen wir den Arkus Sinus, arcsin : [−1, 1] → IR.
54
Der Kosinus ist streng monoton fallend im Intervall [0, π] und hat dort den Wertebereich
[−1, 1]. Deren Umkehrfunktion nennen wir den Arkus Kosinus, arccos : [−1, 1] → IR.
Der Tangens ist streng monoton steigend im offenen Intervall (− π2 , π2 ) und hat dort den
Wertebereich (−∞, +∞). Deren Umkehrfunktion nennen wir den Arkus Tangens,
arctan : IR → IR.
Der Kotangens ist streng monoton fallend im offenen Intervall (0, π) und hat dort den
Wertebereich (−∞, +∞). Deren Umkehrfunktion nennen wir den Arkus Kotangens,
arccot : IR → IR.
Aufgabe:
Zeichnen Sie diese zyklometrischen Funktionen.
55
Kapitel IV: Differential- und Integralrechnung einer reellen Variablen
§1. Das Riemannsche Integral
Ein Rechteck mit den vier Eckpunkten
(a, 0) , (a, c) , (b, 0) , (b, c) ,
hat den Flächeninhalt F = (b − a)c. Ein Trapez mit den vier Eckpunkten
(a, 0) , (a, c) , (b, 0) , (b, d) ,
hat den Flächeninhalt F = b−a
2 (d + c). Sei nun eine stetige nichtnegative Funktion f :
[a, b] → IR gegeben. Dann kann man den Flächeninhalt der durch die x-Achse, die zwei
Geraden x = a, x = b und durch die Kurve y = f (x), a ≤ x ≤ b, aufgespannte Fläche
näherungsweise berechnen, und zwar indem man
1. das Intervall [a, b] partitioniert in n ∈ IN Teile,
∆ : a = x0 < x1 < · · · < xn = b,
2. für j = 0, 1, . . . , n − 1 einen Punkt ξj ∈ [xj , xj+1 ] wählt und die Flächeninhalte der so
gewonnenen Teilrechtecke der Höhe f (ξj ) summiert,
F ≈ J :=
n−1
X
j=0
(xj+1 − xj )f (ξj ).
(1.1)
Man nennt die Zahl J eine Riemannsche Zwischensumme.
Nimmt f auch negative Werte an, so werden in der Summe in (1.1) die Flächenteile unterhalb der x-Achse nicht addiert, sondern subtrahiert.
Ein numerisch interessanter Spezialfall ist hierbei die Trapezregel:
1. das Intervall [a, b] wird in n ∈ IN gleichgroße Teile zerlegt,
∆ : a = x0 < · · · < xk = a + kh < · · · < xn = b,
mit Schrittweite h :=
b−a
,
n
2. und man wählt die ξj so, dass
f (ξj ) =
f (xj ) + f (xj+1 )
,
2
j = 0, 1, . . . , n − 1.
Dann ist h ∗ f (ξj ) der (±)Flächeninhalt des durch die vier Punkte
(xj , 0) , (xj , f (xj )) , (xj+1 , 0) , (xj+1 , f (xj+1 )) ,
gegebenen Trapez, und der (±)Flächeninhalt F wird approximiert durch die Trapezsumme
f (a) n−1
X
f (b) T (f ) := h
f (xj ) +
.
(1.2)
+
2
2
j=1
Allgemein definieren wir das (Riemannsche) Integral wie folgt
56
Definition 1.1.
Es sei f : [a, b] → IR eine beschränkte Funktion. Dann heißt f integrierbar in [a, b],
wenn die Folge
n−1
X (n)
(n)
(n)
Jn :=
(xj+1 − xj )f (ξj ), n ∈ IN
(1.3)
j=0
für alle Partitionen
(n)
∆n : a = x 0
(n)
< · · · < xk
< · · · < x(n)
n =b
mit
lim |∆n | = 0,
n→∞
(n)
(n)
|∆n | := max{xj+1 − xj
(n)
(n)
: j = 0, . . . , n − 1}
(n)
und alle Zwischenstellen ξj ∈ [xj , xj+1 ] stets gegen dieselbe Zahl konvergiert. Diesen
Grenzwert bezeichnen wir mit
Z
b
f
oder ausführlicher mit
a
Z
a
b
f (x) dx oder
Z
b
f (t) dt.
a
Satz 1.1. Ist f : [a, b] → IR in [a, b] stetig, dann ist f integrierbar.
Beweis: Diesen Beweis überlasse ich Ihnen. Ein Hinweis: Benutzen Sie die gleichmäßige
Stetigkeit von f (Satz 6.2 von Heine).
Beispiele:
Rb
1. f (x) = c, a c dx = c(b − a),
Rb
2. f (x) = xn mit n ∈ IN. Es ist a xn dx = (bn+1 − an+1 )/(n + 1).
Rb
3. Es ist a ex dx = eb − ea .
Rb
4. Es ist a cos x dx = sin b − sin a.
Rb
5. Es ist a sin x dx = − cos b + cos a.
R b iαx
1
iαb
iαa
| .
6. Es ist a e dx = iα e − e
für jedes α ∈ IR oder sogar α ∈ C
Rb
1
b1+α − a1+α für jedes α > −1.
7. Es ist a xα dx = 1+α
Die Beweise dieser Formeln wollen wir zurückstellen, denn diese Formeln werden sofort
aus dem Hauptsatz der Infinitesimalrechnung folgen.
Wir wollen nun ohne Beweis einige einfache, aber sehr nützliche Rechenregeln für das
Integrieren auflisten:
57
Satz 1.2.
1. Sind f : [a, b] → IR und g : [a, b] → IR in [a, b] integrierbar, so sind auch f + g und αf ,
| , in [a, b] integrierbar, und es gilt
α∈C
Z
b
(f + g) =
a
Z
b
f+
b
Z
g
Z
,
αf = α
Z
b
f.
a
a
a
a
b
2. Ist f : [a, b] → IR in [a, b] integrierbar, so ist f in jedem Teilintervall [c, d] ⊂ [a, b]
integrierbar. Insbesondere ist f in jedem Interval [a, x0 ] und [x0 , b] mit a < x0 < b
integrierbar, und es gilt
Z b
Z x0
Z b
f=
f+
f.
a
a
x0
3. Sei ∆ : a = x0 < x1 < · · · < xn = b. Ist f : [a, b] → IR in jedem Teilintervall [xj , xj+1 ],
0 ≤ j < n integrierbar, so ist f in [a, b] integrierbar, und es gilt
b
Z
f=
a
n−1
X Z xj+1
j=0
f.
xj
Beweis: Verwenden Sie die Definition 1.1 des Riemannschen Integrals.
Zum Beispiel sind alle stückweise stetigen Funktionen in [a, b] integrierbar.
Hierbei nennen wir eine Funktion f : [a, b] → IR stückweise stetig, falls eine Partition
∆ : a = x0 < x1 < · · · < xm = b existiert, so dass
f in jedem offenen Interval (xj , xj+1 ), j = 0, . . . , m − 1, stetig und beschränkt
ist, und die Grenzwerte
lim f (x), j = 0, . . . , m − 1,
lim f (x), j = 1, . . . , m
x→xj +
x→xj −
existieren.
Sehr einfach folgt aus Definition 1.1 die folgende Aussage:
Ist f : [a, b] → IR in [a, b] integrierbar, so ist auch |f | : [a, b] → IR in [a, b] integrierbar, und
es gilt
Z b Z b
f ≤
|f |.
a
a
Eine direkte Folge der Definition 1.1 ist auch der nächste
Satz 1.3. (Mittelwertsatz der Integralrechnung)
Sind f und g stetige Funktionen in [a, b], und ist g(x) ≥ 0 in [a, b] (oder g(x) ≤ 0 in [a, b]),
dann existiert ein ξ ∈ (a, b) mit der Eigenschaft
Z
b
f g = f (ξ)
a
Z
a
58
b
g.
Insbesondere im Falle g ≡ 1 gibt es ein ξ ∈ (a, b) mit
Z b
f = f (ξ)(b − a).
a
Ist f : [a, b] → IR in [a, b] integerierbar, so schreiben wir manchmal aus Bequemlichkeit
Z a
Z b
f := −
f.
b
a
In §4 werden wir über den Hauptsatz der Infinitesimalrechnung sprechen. Er liefert
Techniken zur Berechnung von Integralen. Diese Techniken haben alle das Ziel, die
Stammfunktionen von f zu finden, zum Beispiel mit Hilfe der Substitutionsregel oder
durch partielle Integration.
§2. Differenzierbarkeit einer Funktion
In diesem § ist D stets ein reelles Intervall (offen, abgeschlossen oder halboffen).
Definition 2.1.
| ) mit D ⊆ IR. Dann heißt f in x ∈ D differenzierbar,
Es sei f : D → IR ( oder f : D → C
0
falls der Grenzwert
f (x) − f (x0 )
f ′ (x0 ) :=
lim
x→x0 ,x∈D
x − x0
′
existiert. Anstelle von f schreiben wir auch
df
df
, oder
.
dx
dt
Der Grenzwert f ′ (x0 ) heißt 1.Ableitung (oder Ableitung) von f in x0 .
Ist f in jedem Punkt x ∈ D differenzierbar, so wird hierdurch die Funktion f ′ : D → IR
| ) definiert. Ist f ′ stetig in D, so schreiben wir
(oder f ′ : D → C
f ′ ∈ C(D) (C = continuous) und auch f ∈ C 1 (D).
Ist f ′ differenzierbar in x0 ∈ D, schreiben wir
f ′′ (x0 ) := (f ′ )′ (x0 ) (2.Ableitung).
Existiert f ′′ in D und ist f ′′ stetig in D, so schreiben wir f ∈ C 2 (D), u.s.w.
Definition 2.2.
| ) mit D ⊆ IR. Dann heißt f in x
Es sei f : D → IR ( oder f : D → C
0 ∈ D rechtsseitig
differenzierbar, falls der Grenzwert
f (x) − f (x0 )
f ′ (x0 +) :=
lim
x→x0 +,x∈D
x − x0
existiert. Analog definieren wir die linksseitige Ableitung
f (x) − f (x0 )
.
f ′ (x0 −) :=
lim
x→x0 −,x∈D
x − x0
Aus der Definition 2.1 der Differenzierbarkeit folgt sofort der folgende
59
Satz 2.1.
Ist f differenzierbar in x0 ∈ D, so ist f stetig in D.
Beispiele: Beweisen Sie ′
d n
x := xn = nxn−1 .
1. : Es ist dx
2. : Es ist
3. : Es ist
4. : Es ist
d x
x
dx e = e .
d
dx sin x = cos x.
d
dx cos x = − sin x.
Sehr hilfreich beim Differenzieren von Funktionen sind die folgenden Rechenregeln, insbesondere die Produktregel, Quotientenregel, Kettenregel.
Satz 2.2.
| ) in x
Es sei D ⊆ IR und x0 ∈ D. Sind f : D → IR und g : D → IR (oder → C
0
|
differenzierbar, dann sind auch die Funktionen f + g, αf mit α ∈ C, f g und f /g mit
g(x0 ) 6= 0 in x0 differenzierbar, und es gilt:
(f + g)′ (x0 ) = f ′ (x0 ) + g ′ (x0 ) ,
(αf )′ (x0 ) = αf ′ (x0 ),
(f g)′ (x0 ) = f ′ (x0 )g(x0 ) + f (x0 )g ′ (x0 ),
f f ′ (x0 )g(x0 ) − f (x0 )g ′ (x0 )
(x0 ) =
g
g(x0 )2
(Produktregel)
(Quotientenregel).
Beweis:
Wir beweisen nur die Quotientenregel:
Für x ∈ D ist
1 f (x) f (x0 ) 1 f (x)g(x0) − f (x0 )g(x) =
−
x − x0 g(x)
g(x0 )
x − x0
g(x0 )g(x)
{f (x) − f (x0 )}g(x0 ) f (x0 ){g(x) − g(x0 )}
1
−
=
g(x0 )g(x)
x − x0
x − x0
′
′
f (x0 )g(x0 ) − f (x0 )g (x0 )
→
für x → x0 , x ∈ D.
g(x0 )2
Hierbei haben wir verwendet, dass die in x0 differenzierbaren Funktionen f und g in x0
stetig sind.
Satz 2.3. (Kettenregel)
Es sei f : D → IR in x0 ∈ D differenzierbar und habe den Wertebereich B. Es sei
F : B ∗ → IR in y0 := f (x0 ) differenzierbar, und es gelte mit B ⊆ B ∗ . Dann ist die
Funktion g := F ◦ f : D → IR ebenfalls in x0 differenzierbar, und
g ′ (x0 ) = F ′ (y0 )f ′ (x0 ).
60
Beweis:
Es sei zunächst (xn )∞
n=1 ⊂ D eine Folge mit f (xn ) 6= f (x0 ). Dann ist
f (xn ) − f (x0 )
F (f (xn )) − F (f (x0 ))
g(xn ) − g(x0 )
,
=
xn − x 0
f (xn ) − f (x0 )
xn − x0
und wegen der Differenzierbarkeit und somit der Stetigkeit von F in y0 und f in x0 ,
g(xn ) − g(x0 )
F (f (xn )) − F (f (x0 ))
f (xn ) − f (x0 )
lim
lim
= lim
n→∞
n→∞
n→∞
xn − x 0
f (xn ) − f (x0 )
xn − x0
= F ′ (f (x0 )f ′ (x0 ).
′
Ist aber (xn )∞
n=1 ⊂ D eine Folge mit f (xn ) = f (x0 ), dann ist f (x0 ) = 0 und auch
g(xn ) = g(x0 ) und somit
g(xn ) − g(x0 )
= 0 = F ′ f (x0 ) f ′ (x0 ),
n→∞
xn − x0
lim
quod erat demonstrandum.
Beispiele:
1. Es ist für −π/2 < x < π/2 nach der Quotientenregel
sin x ′
(tan x)′ =
cos x
(sin x)′ cos x − sin x(cos x)′
=
cos2 x
cos2 x + sin2 x
1
=
=
.
2
cos x
cos2 x
2. Es ist für 0 < x < π nach der Quotientenregel
cos x ′
(cot x)′ =
sin x
(cos x)′ sin x − cos x(sin x)′
=
sin2 x
1
− sin2 x − cos2 x
=− 2 .
=
2
sin x
sin x
3. Es ist für x ∈ IR und n ∈ IN nach der Kettenregel
′
n
sin x = n(sinn−1 x) cos x.
4. Für x 6= 0 und n ∈ IN ist nach der Quotientenregel
′ 1 ′
0 ∗ xn − nxn−1
x−n =
=
,
xn
x2n
61
also
′
−n
x
= −nx−n−1 .
Hieraus folgt nach der Kettenregel für alle x ∈ IR mit x 6= π/2 mod(π), dass
′
cos−n x = n(cos x)−n−1 sin x.
5. Für a > 0 und x ∈ IR ist
′ ′
x
x ln a
a
= e
= ex ln a ln a = ax ln a.
6. Es sei f : [0, ∞) → IR definiert durch f (x) := xx für x > 0 und f (0) := 1. Für x > 0
ist f in x0 = 0 stetig wegen
xx = ex ln x → e0 = 1 = f (0).
Hierbei haben wir benutzt, dass lim{x ln x} = 0 für x → 0+. Des weiteren ist für
x > 0 nach der Kettenregel
′
′
x ln x
ln x + x(ln x) = xx (ln (x) + 1),
f (x) = e
denn wie wir im nächsten Paragraphen sehen werden ist (ln x)′ = 1/x für x > 0.
Aber existiert f ′ (0+) ? Wir müssen betrachten
∞
f (x) − f (0)
ex ln x − 1
1 X (x ln x)k
=
=
x
x
x
k!
k=1
= ln x +
∞
X
k=2
xk−1 (ln x)k
→ −∞
k!
für x → 0 + .
Haben Sie Angst vor Rechenfehlern? Nehmen wir an, Sie haben die Ableitung der Funktion
2
e−2x sin (2x − 5)
√
f (x) =
, x ∈ IR,
(2.1)
1 + x2
mit Hilfe der Quotientenregel und Kettenregel ausgerechnet und wollen sicher sein, dass
Ihre Formel stimmt. Dann nehmen Sie doch den Computer und berechnen Sie für kleine
Werte h > 0 die Differenzenquotienten
f (x + h) − f (x)
≈ f ′ (x) oder
h
f (x) − f (x − h)
≈ f ′ (x) oder
h
f (x + h) − f (x − h)
≈ f ′ (x) (zentraler Differenzenquotient)
2h
an mehreren Stellen x ∈ IR und vergleichen Sie diese Werte mit den Werten der Formel
(2.1).
§3. Differenzieren der Umkehrfunktion
Es sei D ⊆ IR ein Intervall und f : D → IR eine streng monotone Funktion.
62
Satz 3.1.
Ist f in x0 ∈ D differenzierbar mit f ′ (x0 ) 6= 0, so ist deren Umkehrfunktion f −1 in
y0 := f (x0 ) differenzierbar, und es ist
(f −1 )′ (y0 ) =
1
.
f ′ (x0 )
(3.1)
Beweis: Da f in x0 differenzierbar ist, ist f nach Satz 2.1 in x0 stetig. Also ist f −1 in y0
stetig, und es gilt für y = f (x)
f −1 (y) − f −1 (y0 )
x − x0
1
=
→ ′
y − y0
f (x) − f (x0 )
f (x0 )
für y → y0 .
Die Formel (3.1) folgt auch aus der Kettenregel. Denn wegen
x = f −1 (f (x)),
x ∈ D,
wird durch beidseitiges Differenzieren nach der Kettenregel
1 = (f −1 )′ (y)f ′ (x),
y = f (x).
Beispiele:
1. f (x) = ex , x ∈ IR. Wegen (ex )′ = ex ist nach (3.1)
(ln y)′ =
1
1
= ,
x
e
y
y > 0.
2. f (x) = xα , x > 0, α 6= 0. Wegen xα = eα ln x folgt aus der Kettenregel, dass
(xα )′ = eα ln x α(ln x)′ = αxα−1 .
3. f (x) = sin x, −π/2 ≤ x ≤ π/2. Nach Satz 3.1 ist
1
1
=
(sin x)′
cos x
1
1
=p
=p
,
1 − y2
1 − sin2 x
(arcsin y)′ =
Also ist
(arcsin x)′ = √
1
,
1 − x2
63
−1 < y < 1.
−1 < x < 1.
Ähnlich beweist man
1
, −1 < x < 1,
1 − x2
1
, −∞ < x < +∞,
(arctan x)′ =
1 + x2
1
, −∞ < x < +∞.
(arccotx)′ = −
1 + x2
(arccos x)′ = − √
| . Dann ist nach der Kettenregel
4. Es sei f (x) = eiλx , x ∈ IR, mit λ ∈ C
f ′ (x) = iλeiλx
f ′′ (x) = (iλ)2 eiλx
,
f (3) (x) = (iλ)3 eiλx ,
,
und allgemein f (k) (x) = (iλ)k eiλx , k ∈ IN.
Anwendung: Alle Lösungen der homogenen linearen Differentialgleichung
y ′′ (t) + by ′ (t) + cy(t) = 0,
a < t < b,
(3.2)
| sind von der Form
mit den konstanten Koeffizienten b, c ∈ C
y(t) = αeiλ1 t + βeiλ2 t ,
| ,
α, β ∈ C
(3.3a)
falls die Nullstellen λ1 und λ2 des Polynoms P (z) := z 2 + bz + c verschieden sind. Ist
P (z) = z 2 + bz + c von der Form P (z) = (z − λ)2 , so werden durch
y(t) = αeiλt + βteiλt ,
| ,
α, β ∈ C
(3.3b)
alle Nullstellen der homogenen Differentialgleichung (3.2) beschrieben. Überprüfen
Sie diese Aussage durch Einsetzen von (3.3) in (3.2).
§4. Der Hauptsatz der Infinitesimalrechnung
Wie wir schon in §1 gehört haben (und wie Sie es auch am Gymnasium äußerst ausführlich
eingeübt haben) liefert der Hauptsatz der Infinitesimalrechnung Techniken zur Berechnung von Integralen. Diese Techniken haben alle das Ziel, die Stammfunktionen
von f zu finden, zum Beispiel mit Hilfe der Substitutionsregel oder durch partielle
Integration. Und hier ist diese Wunderwaffe:
Satz 4.1.
Es seien f : [a, b] → IR und F : [a, b] → IR auf [a, b] stetige Funktionen. Ist F in (a, b)
differenzierbar und
F ′ (x) = f (x) für alle x ∈ (a, b),
(4.1)
dann gilt
Z
b
a
f (t)dt = F (b) − F (a),
64
(4.2)
sowie
x
Z
f (t)dt = F (x) − F (a) für alle x ∈ [a, b],
a
(4.3)
Beweis: Es sei ∆n : a = x0 < x1 < · · · < xn = b irgendeine Partition des Intervalls [a, b].
Wenden wir den Mittelwertsatz der Differentialrechnung an, Satz 8.3, so existiert
ein ξj ∈ (xj , xj+1 ) mit
F (xj+1 ) − F (xj )
.
F ′ (ξj ) =
xj+1 − xj
Wegen (4.1) gilt daher
F (xj+1 ) − F (xj ) = f (ξj )(xj+1 − xj )
für j = 0, 1, . . . , n − 1.
Durch Addition über alle j folgt hieraus
F (b) − F (a) =
n−1
X
j=0
f (ξj )(xj+1 − xj ) =: J(∆n ).
Da f stetig in [a, b] ist, ist f dort auch integrierbar. Nach Definition 1.1 des Riemannschen
Integrals ist daher
Z b
lim J(∆n ) =
f (t)dt.
|∆n |→0
a
Folglich gilt (4.2).
Wenden wir (4.2) an für das Intervall [a, x] (anstelle von [a, b]), so folgt sofort (4.3) .
Natürlich können Sie aus Satz 4.1 folgern, dass
Z
b
x
f (t)dt = F (b) − F (x) für alle x ∈ [a, b]
richtig ist. Oder?
Wichtige Beispiele:
1. Für α ∈ IR, α 6= −1 ist
(xα+1 )′ = (α + 1)xα
für alle x > 0.
Daher gilt nach Satz 4.1
Z
b
xα dx =
a
bα+1 − aα+1
α+1
65
für alle a, b > 0.
2. Wegen (ln x)′ = x1 , x > 0, und ln 1 = 0 ist
ln x =
3. Es ist
Z
Z
x
1
dt
t
x
cos t dt = sin x
,
0
für alle x > 0.
Z
x
0
sin t dt = 1 − cos x.
Definition 4.1.
Es sei D ein reelles Intervall und f : D → IR in D stetig. Dann heißt F : D → IR
Stammfunktion von f , falls
F ′ (x) = f (x) für alle ”inneren Punkte” x ∈ D.
Satz 4.2.
Es sei D ein reelles Intervall, D = [a, b], D = (a, b], D = [a, b), oder D = (a, b), wobei
a = −∞ und b = +∞ möglich sei. Sei f : D → IR in D stetig. Dann wird die Gesamtheit
aller Stammfunktionen von f beschrieben durch
F (x) =
Z
x
f (t)dt + C,
x0
x ∈ D,
(4.4)
wobei x0 ein beliebiger Punkt aus D ist und C eine beliebige reelle Zahl ist.
Beweis:
1. Wir zeigen, dass jede Funktion der Form (4.4) eine Stammfunktion von f ist:
Sei x ∈ (a, b), x + h ∈ D mit h 6= 0. Dann ist nach Definition von F
F (x + h) − F (x) =
Z
x+h
x0
f−
Z
x
f
x0
R x+h
und somit F (x + h) − F (x) = x f . Nach Satz 1.3 (MWS der Integralrechnung) existiert
R x+h
ein ξh ∈ (x, x + h), so dass f (ξh )h = x f , und somit ist
F (x + h) − F (x)
= lim f (ξh ) = f (x).
h→0
h→0
h
lim
Folglich ist F in x differenzierbar und F ′ (x) = f (x).
Ist x = a, so gilt diese Aussage für die rechsseitige Ableitung F ′ (a+). Ist x = b, so gilt
diese Aussage für die linksseitige Ableitung F ′ (b−).
2. Wir zeigen, dass sich die Stammfunktionen von f nur um eine Konstante unterscheiden:
Seien F1 und F2 Stammfunktionen von f . Setze G := F2 − F1 . Dann ist G : D → IR stetig
in D und erfüllt G′ = F2′ − F1′ = 0 in D. Nach Satz 4.1 ist dann für ein x0 ∈ D
66
G(x) = G(x0 ) +
Z
x
x0
G′ = G(x0 ) für alle x ∈ D.
Hiermit ist Satz 4.2 vollständig bewiesen.
Definition 4.2.
Es sei D ein reelles Intervall und f : D → IR stetig in D. Dann nennt man die Gesamtheit
R
aller Stammfunktionen von f das unbestimmte Integral von f und schreibt hierfür f .
In den Formelsammlungen findet man viele Stammfunktionen. Hier ist eine kleine
Auswahl. Durch Differenzieren können Sie sofort die Richtigkeit dieser Beispiele nachprüfen:
Z
xn+1
+ C, x ∈ IR, für alle n ∈ IN
xn dx =
n+1
Z
xα+1
+ C, x > 0, für alle α 6= −1
xα dx =
α+1
Z
dx
= ln x + C, x > 0,
x
Z
ex dx = ex + C, x ∈ IR,
Z
ln x dx = x ln x − x + C, x > 0,
Z
ax
+ C, x ∈ IR, für a > 0, a 6= 1,
ax dx =
ln a
Z
cos x dx = sin x + C, x ∈ IR
Z
sin x dx = − cos x + C, x ∈ IR
Z
dx
π
π
= tan x + C, − < x < ,
2
cos x
2
2
Z
dx
= − cot x + C, 0 < x < π,
sin2 x
Z
dx
√
= arcsin x + C, −1 < x < 1
1 − x2
Z
dx
= arctan x + C, −∞ < x < +∞,
1 + x2
Z
π
π
tan x dx = − ln (cos x) + C, − < x < ,
2
2
Z
cot x dx = ln (sin x) + C, 0 < x < π.
67
Aus dem Hauptsatz der Infinitesimalrechnung gewinnen wir zwei weitere Methoden zur
Berechnung bestimmter Integrale,
• die partielle Integration
• Integration durch Substitution
Satz 4.3. (Partielle Integration)
Es seien f : [a, b] → IR und g : [a, b] → IR in [a, b] stetig differenzierbar. Dann gilt
Z b
Z b
′
f (x)g(x)dx = f (b)g(b) − f (a)g(a) −
f (x)g ′ (x)dx.
a
Wir schreiben auch
a
h
ib
f (x)g(x) := f (b)g(b) − f (a)g(a).
a
Beweis:
Nach der Produktregel ist (f g)′ = f ′ g + f g ′ . Unter Verwendung des Satzes 4.1 für die
Funktion f g : [a, b] → IR ist daher
Z b
Z b
h
ib Z b
′
′
f (x)g(x) =
(f g) =
f g+
f g ′,
a
a
a
a
qed
Satz 4.4. (Integration durch Substitution)
Es sei x : [α, β] → IR in [α, β] stetig differenzierbar ( in α rechtseitig, in β linksseitig). Es
sei B der Bildbereich der Funktion x. Es sei B ⊆ [a, b] und f : [a, b] → IR in [a, b] stetig.
Dann gilt
Z x(β)
Z β
f (x)dx =
f (x(t))x′ (t)dt.
x(α)
α
Etwas einprägsamer können wir dies auch schreiben als
Z β
Z x(β)
dx(t)
dt.
f (x(t))
f (x)dx =
dt
α
x(α)
Beweis:
Es bezeichne F eine Stammfunktion von f . Nach der Kettenregel ist dann
d
F (x(t)) = F ′ (x(t))x′ (t) = f (x(t))x′ (t),
dt
α ≤ t ≤ β.
Daher folgt aus Satz 4.1 für g(t) := F (x(t)) und somit g ′ (t) = f (x(t))x′ (t), dass
Rβ
g(β) − g(α) = α g ′ (t)dt, was äquivalent ist zu
F (x(β)) − F (x(α)) =
68
Z
β
f (x(t))x′ (t)dt.
α
Andererseits ist F eine Stammfunktion von f . Erneut wegen Satz 4.1 ist
Z b
F (b) − F (a) =
f (x)dx.
a
Ein Vergleich beider Formeln beweist die Aussage des Satzes 4.4.
Beispiele:
1. f (x) = − cos x, g(x) = x:
Z π
h
iπ Z
x sin x dx = − x cos x +
0
0
π
cos x dx = π.
0
2. Nach Substitutionsregel ist für x = t2 , x′ (t) = 2t, x(0) = 0,x(1) = 1,
Z
Z
Z 1
i1 π
2t
t
1 1
1 1 dx
1h
arctan
x
= .
dt
=
dt
=
=
4
2 0 1 + (t2 )2
2 0 1 + x2
2
8
0
0 1+t
3. Die Fläche des Halbkreises mit Radius r > 0 wird durch die Substitution x(t) = r cos t,
0 ≤ t ≤ π, und x′ (t) = −r sin t, sowie x(0) = r, x(π) = −r,
Z r p
Z π
Z 0
p
p
2
sin t 1 − cos2 t dt
r 2 − x2 dx =
(−r sin t) r 2 − r 2 cos2 t dt = r
−r
0
π
= r2
Z
π
0
sin2 t dt =
2
r
2
Z
π
(1 + cos (2t))dt =
0
§5. Anwendung: Berechnung von Weglängen.
πr 2
.
2
Kurven im IRn
Eine Kurve im IR2 kann dargestellt sein durch eine Gleichung, zum Beispiel beschreibt die
Gleichung
(y − y0 )2
(x − x0 )2
+
=1
a2
b2
eine Ellipse mit Mittelpunkt (x0 , y0 ) und den Halbachsen a > 0 und b > 0.
In Parameterdarstellung wird dieselbe Ellipse beschrieben durch
f (t) = (x(t), y(t)) = (a cos t, b sin t),
0 ≤ t ≤ 2π,
und hat in dieser Darstellung eine Durchlaufrichtung mit Anfangspunkt f (0) und
Endpunkt f (2π).
Eine elliptische Schraubenlinie im IR3 um die Achse {(x0 , y0 , z) ∈ IR3 | z ∈ IR} mit
Anstiegsgeschwindigkeit c > 0 und 5 Windungen hat in Parameterdarstellung die Form
f (t) = (x(t), y(t), z(t)) = (x0 + a cos t, y0 + b sin t, ct),
Ihr Anfangspunkt ist f (0), ihr Endpunkt f (10π).
69
0 ≤ t ≤ 10π.
Definition 5.1. Sei [a, b] ⊂ IR ein endliches reelles Intervall. Sei
f = (f1 , f2 , . . . , fn ) : [a, b] → IRn
stetig auf [a, b]. Die Punktmenge
K := {f (t) ∈ IRn | a ≤ t ≤ b}
heißt Kurve im IRn , mit Parameterdarstellung (f , [a, b]).
Ist f (a) = f (b). so heißt die Kurve geschlossen. Sind alle Punkte f (t), a ≤ t < b,
verschieden, so heißt sie Jordankurve.
Die Ellipse ist also eine geschlossene Jordankurve, die Schraubenlinie ist ebenfalls eine
Jordankurve, aber nicht geschlossen.
Existieren in t ∈ [a, b] die Ableitungen fk′ (t), k = 1, . . . , n, und ist die Euklidische Norm
kf ′ (t)k2 :=
n
X
k=1
fk′ (t)2
!1/2
von Null verschieden, so nennen wir den Vektor
Tf (t) :=
1
f ′ (t)
′
kf (t)k2
der (Euklidischen) Länge kTf (t)k2 = 1 den Tangentenvektor der Kurve K im Punkt
f (t) und die Gerade
T := {g(τ ) := f (t) + (τ − t)f ′ (t) | τ ∈ IR}
die Tangente an die Kurve K im Punkt f (t).
Hierbei bedeuten f ′ (a) die rechtsseitigen und f ′ (b) die linksseitigen Ableitungen.
Die Kurve K heißt glatt, falls Tf (t) für jedes t ∈ [a, b] existiert und auf [a, b] eine stetige
Funktion ist.
Die Kurve K heißt stückweise glatt, falls es eine Partition a = t0 < t1 < · · · < tm = b
des Intervalls [a, b] gibt, so dass die m Teilkurven in jedem Intervall [tk−1 , tk ], k = 1, . . . , m,
glatt sind.
Beachte: Es kann von der Parameterdarstellung abhängen, ob ein Punktmenge als glatte
oder als nichtglatte Kurve dargestellt wird. Zum Bespiel beschreiben die beiden Kurven
(t, t2 ) ∈ IR2 | − 1 ≤ t ≤ 1
und
3 6
(t , t ) ∈ IR2 | − 1 ≤ t ≤ 1
70
dieselbe Parabel, aber in der ersten Darstellung ist die Kurve glatt, in der zweiten Darstellung existiert der Tangentenvektor im Punkt (0, 0) nicht wegen f1′ (0) = f2′ (0) = 0.
Die Bogenlänge von Kurven im IRn
Die Kurve K ⊂ IRn sei dargestellt durch (f , [a, b]), mit stetiger Funktion f . Zu jeder
Partition ∆ : a = t0 < t1 < · · · < tm = b von [a, b] ist die Länge des Polygonzugs durch
die m + 1 Punkte f (t0 ), f (t1 ), . . . , f (tm ) der Kurve durch den Ausdruck
n m
2
X
X
fk (tj ) − fk (tj−1 )
L∆ (K) =
j=1
k=1
!1/2
(5.1)
gegeben. Die Kurve K heißt rektifizierbar, falls
L(K) := sup L∆ (K)
∆
endlich ist, und L(K) heißt die Bogenlänge der Kurve K.
Satz 5.1. Ist K eine stückweise glatte Kurve, dargestellt durch (f , [a, b]), so ist K rektifizierbar, und
v
Z bu
n
uX
t
(fk′ (t))2 dt.
(5.2)
L(K) =
a
k=1
Beweis: Die Formel (5.2) folgt sofort aus der Formel (5.1) und dem Mittelwertsatz der
Differentialrechnung.
Man kann nachprüfen, dass die so definierte Bogenlänge nicht von der Parameterdarstellung der Kurve K abhängt. Um dies nachzuvollziehen, muß man die Substitutionregel bei
der Integration von Funktionen einer reellen Variablen anwenden.
Beispiel 1: Die Bogenlänge des Graphen einer Funktion
Es sei g ∈ C 1 [a, b] und
f (t) := (t, g(t)), a ≤ t ≤ b,
der zu g gehörende Graph. Dann ist die Bogenlänge dieses Graphen nach Satz 5.1 zu
berechnen nach der Formel
Z bp
1 + g ′ (t)2 dt.
L(K) =
(5.3)
a
Beispiel 2: Die Bogenlänge einer Ellipse
Wie schon öfters erwähnt, hat die Ellipse mit Mittelpunkt (0, 0) und den Halbachsen a > 0,
b > 0 die Parameterdarstellung
f (t) = (a cos t, b sin t)
71
,
0 ≤ t ≤ 2π.
Die Formel des Satzes 5.1 führt zu
Z
Z 2π p
2
2
2
2
a sin t + b cos t dt = 4b
L(K) =
0
0
π/2 p
1 − α sin2 t dt
(5.4)
mit α := (b2 − a2 )/b2 .
Für den Kreis ist a = b, also α = 0 und somit L(K) = 2πb. Ist a 6= b, so sollten Sie nicht
zu lange in der Formelsammlung nach einer Stammfunktion suchen. Sie werden eine solche
nicht finden. Die Werte dieser Integrale sind tabelliert unter dem Stichwort elliptische
Integrale. Im Zeitalter der schnellen Computer können Sie diese Integrale aber mit Hilfe
der Trapezregel oder besser der Simpsonregel berechnen. Die Trapezregel haben wir
bereits im Wintersemester kennengelernt. Die Simpsonregel zur näherungsweisen BerechRb
nung des Integrals a f (t)dt hat die Form :
Wähle n ∈ IN und berechne h := (b − a)/(2n). Je größer n, um so näher liegt die folgende
Rb
Zahl S(h) bei a f (t)dt:
n
n−1
X
X
b − a
S(h) :=
f (a) + f (b) + 4
f (a + (2k − 1)h) + 2
f (a + 2kh)
6n
k=1
k=1
b−a
=
f (a) + 4f (a + h) + 2f (a + 2h) + 4f (a + 3h) + · · · + 4f (b − h) + f (b) .
6n
§6. Das uneigentliche Integral
Die Definition des Riemannschen Integrals in §1 betrachtet nur beschränkte Funktionen
f : [a, b] → IR auf endlichen Intervallen [a, b].
Das uneigentliche Integral erweitert diesen Integralbegriff durch Grenzwertbildung
auf unbeschränkte Funktionen f und unbeschränkte Intervalle. Wir wollen hier einige
Beispiele geben.
Beispiele:
1. Wir definieren
Z
∞
−x
e
0
dx := lim
b→∞
Z
b
−x
e
0
dx = lim
b→∞
h
−x
−e
ib
0
= 1.
2. Wir definieren
Z 1
Z b
ib
h
x
x
√
√
dx := lim
dx = lim − (1 − x2 )1/2 = 1.
b→1− 0
b→1−
0
1 − x2
1 − x2
0
3. Wir definieren
Z
0
∞
dx
√
:=
lim
a→0+,b→+∞
x(1 + x)
72
Z
a
b
√
dx
.
x(1 + x)
Nach der Substitution x(t) := t2 wird
Z
0
∞
dx
√
=
lim
x(1 + x) α→0+,β→+∞
Z
β
α
√
2t dt
t2 (1 + t2 )
β
dt
α→0+,β→+∞ α 1 + t2
h
iβ
π
=2
lim
arctan t = 2 = π.
α→0+,β→+∞
2
α
=2
lim
Z
4. Die Gammafunktion ist definiert durch das uneigentliche Integral
Z ∞
e−t tx−1 dt für 0 < x < ∞.
Γ(x) :=
0
Insbesondere ist Γ(1) = 1 und es gilt die Rekursionsformel
Γ(x + 1) = xΓ(x) für 0 < x < ∞.
Hieraus folgt
Γ(n + 1) = n! für alle n ∈ IN.
§7. Tangenten. Das Newton Verfahren zur Berechnung von Nullstellen
Es sei f : (a, b) → IR im Punkt x0 ∈ (a, b) differenzierbar. Dann heißt die Gerade (=Polynom vom Grade ≤ 1)
g : IR → IR,
g(x) = f (x0 ) + f ′ (x0 )(x − x0 ),
die Tangente an f in x0 . Offensichtlich ist die Tangente g charakterisiert durch die
Eigenschaften
g(x0 ) = f (x0 ) und g ′ (x0 ) = f ′ (x0 ).
Das Newtonverfahren zur Bestimmung von Nullstellen:
Mit Hilfe von Tangenten kann man sehr effektiv die Nullstellen einer stetig differenzierbare Funktion f : (a, b) → IR ausrechnen:
Sei ζ ∈ (a, b) eine Nullstelle von f . Um ζ zu finden, wählen wir einen Startpunkt x0 ∈ (a, b).
Die Tangente an f in x0 ist gegeben durch g(x) = f (x0 ) + f ′ (x0 )(x − x0 ). Ist f ′ (x0 ) 6= 0,
so besitzt diese Tangente die Nullstelle
x1 = x0 −
73
f (x0 )
.
f ′ (x0 )
Liegt x1 in (a, b), so bilden wir die Tangente an f in x1 und berechnen deren Nullstelle
x2 = x1 −
f (x1 )
,
f ′ (x1 )
und so weiter. Ist f ′ (ζ) 6= 0 und liegt der Startpunkt x0 nahe genug bei ζ, so konvergiert
die Folge (xk )∞
k=0 ,
f (xk )
xk+1 := xk − ′
, k = 0, 1, . . . ,
(7.1)
f (xk )
schnell gegen die Nullstelle ζ. Liegt der Startpunkt x0 zu weit von ζ entfernt, so kann x1
oder ein späteres xk außerhalb von (a, b) liegen oder die Folge (xk )∞
k=0 kann divergieren.
Bemerkung: Wenden wir das Newtonverfahren (7.1) an für die Funktion f (x) = x2 −
a mit a > 0 und Startpunkt x0 = 1, so erhalten wir aus (7.1) wegen f ′ (x) = 2x die
Rekursionsformel
xk+1 := xk −
x2 + a
x2k − a
= k
,
2xk
2xk
k = 0, 1, . . . ,
des Babylonischen Wurzelziehens.
§8. Extrema von Funktionen, Wendepunkte, Satz von Rolle
Mittelwertsatz der Differentialrechnung,
Wir sagen, dass die Funktion f : (a, b) → IR in x0 ∈ (a, b) ein relatives Minimum besitzt,
wenn es ein δ > 0 gibt, so dass für die δ-Umgebung
Uδ (x0 ) := {x ∈ IR : |x − x0 | < δ}
von x0 die Aussage
f (x) ≥ f (x0 ) für alle x ∈ Uδ (x0 ) ∩ D gilt.
Analog definieren wir relative Maxima von f .
Ist f in (a, b) differenzierbar, so liefert der folgende Satz eine notwendige (aber keine
hinreichende) Bedingung für ein relatives Extremum.
Satz 8.1.
Ist f : (a, b) → IR in (a, b) differenzierbar und besitzt f in x0 ∈ (a, b) ein relatives Minimum
oder Maximum, so ist
f ′ (x0 ) = 0.
74
Beweis: Sei x0 ein relatives Minimum von f . Dann ist
f ′ (x0 ) = f ′ (x0 −) = lim
x→x0 −
f (x) − f (x0 )
≤ 0,
x − x0
da f (x) ≥ f (x0 und x < x0 . Des weiteren ist
f (x) − f (x0 )
≥ 0,
x→x0 +
x − x0
f ′ (x0 ) = f ′ (x0 +) = lim
da nun f (x) ≥ f (x0 und x > x0 . Folglich ist f ′ (x0 ) = 0.
Existiert f ′′ (x0 ), so sind die Bedingungen f ′ (x0 ) = 0, f ′′ (x0 ) > 0 hinreichend dafür, dass
x0 ein relatives Minimum von f ist. Und f ′ (x0 ) = 0, f ′′ (x0 ) < 0 garantieren, dass x0 ein
relatives Maximum von f ist.
Aus dem Gymnasium wissen wir auch, dass die zweimal differenzierbare Funktion f in
x0 einen Wendepunkt besitzt, falls f ′′ in x0 das Vorzeichen wechselt. Die Bedingung
f ′′ (x0 ) = 0 ist notwendig für einen Wendepunkt.
Wir wollen nun zwei wichtige Anwendungen von Satz 8.1 beweisen:
Satz 8.2. (Satz von Rolle)
Ist f : [a, b] → IR in [a, b] stetig und in (a, b) differenzierbar, und gilt f (a) = f (b), dann
existiert ein ξ ∈ (a, b) mit f ′ (ξ) = 0.
Beweis: Nach Satz 6.3 von Weierstraß besitzt f in (a, b) ein absolutes Maximum ξ oder
ein absolutes Minimum ξ, das natürlich auch ein relatives Maximum oder Minimum ist.
Für dieses ist nach Satz 8.1 f ′ (ξ) = 0.
Aus dem Satz 8.2 von Rolle folgt : Ist f : (a, b) → IR in (a, b) differenzierbar und hat f in
(a, b) n Nullstellen, so besitzt deren 1.Ableitung f ′ in (a, b) mindestens n − 1 Nullstellen.
Beim Beweis des Hauptsatzes der Infinitesimalrechnung, Satz 4.1, haben wir den folgenden
Satz verwendet:
Satz 8.3. (Mittelwertsatz der Differentialrechnung)
Ist f : [a, b] → IR in [a, b] stetig und in (a, b) differenzierbar, so existiert ein ξ ∈ (a, b) mit
f ′ (ξ) =
f (b) − f (a)
.
b−a
Beweis: Wende den letzten Satz 8.2 an auf die Funktion
(x − a) g(x) = f (x) −
f (b) − f (a) .
(b − a)
75
Denn es ist g(a) = g(b) = f (a). Folglich existiert ein ξ ∈ (a, b) mit g ′ (ξ) = 0. Für dieses ξ
ist
f (b) − f (a)
,
0 = g ′ (ξ) = f ′ (ξ) −
b−a
woraus die Aussage des Satzes 8.3 folgt.
§9. Der Taylorsche Satz, Taylor-Reihen
Wir haben in §7 die Tangente an eine differenzierbare Funktion f im Punkt x0 berechnet
durch
y(x) = f (x0 ) + f ′ (x0 )(x − x0 ), x ∈ IR.
Diese Tangente ist die Gerade, die im Punkt x0 denselben Funktionswert und dieselbe 1.
Ableitung wie f besitzt. Ist f sogar zweimal differenzierbar, so wird durch
y(x) = f (x0 ) + f ′ (x0 )(x − x0 ) +
f ′′ (x0 )
(x − x0 )2 ,
2
x ∈ IR,
die Parabel (= algebraisches Polynom vom Grad ≤ 2) berechnet, die im Punkt x0 denselben
Funktionswert und dieselbe 1. und 2. Ableitung wie f besitzt. Durch Differenzieren
können Sie sofort nachprüfen, dass durch
Pn (x) =
n
X
f (k) (x0 )
k!
k=0
(x − x0 )k
das algebraische Polynom Pn vom Grad ≤ n bestimmt wird mit
Pn (x0 ) = f (x0 )
,
Pn(k) (x0 ) = f (k) (x0 ) für k = 1, 2, . . . , n.
Der folgende Taylorsche Satz gibt Auskunft, wie groß die Fehlerfunktion Rn := f − Pn ist:
Satz 9.1. (Taylorscher Satz )
Sei n ∈ IN ∪ {0}. Sei f : (a, b) → IR (n + 1)-mal stetig differenzierbar. Dann gilt für alle
x0 ∈ (a, b) und alle x ∈ (a, b) die Gleichung
f (x) =
n
X
f (k) (x0 )
k=0
k!
(x − x0 )k + Rn (x, x0 )
mit dem Restglied
(a) in Integralform
1
Rn (x, x0 ) =
n!
Z
x
x0
76
(x − t)n f (n+1) (t)dt,
(b) in der Lagrangeschen Form
(x − x0 )n+1 (n+1)
f
(ξx,x0 ) für ein geeignetes ξx,x0 ∈ (x0 , x).
Rn (x, x0 ) =
(n + 1)!
Beweis:
Wir beweisen zunächst (a) durch vollständige Induktion nach n:
n = 0: nach dem Hauptsatz der Infinitesimalrechnung ist
f (x) = f (x0 ) +
Z
x
x0
1
f (t)dt = f (x0 ) +
0!
′
Z
x
x0
(x − t)0 f ′ (t)dt.
Also gilt (a) für n = 0.
Es sei nun (a) richtig für ein n ≥ 0. Durch partielle Integration folgt dann
1
Rn (x, x0 ) =
n!
Z
x
x0
(x − t)n f (n+1) (t)dt
t=x
Z
(x − t)n+1 (n+1)
1 x (x − t)n+1 (n+2)
1
−
f
(t)
f
(t)dt
+
=
n!
n+1
n! x0
n+1
t=x0
Z x
(x − x0 )n+1 (n+1)
1
=
(x − t)n+1 f (n+2) (t)dt
f
(x0 ) +
(n + 1)!
(n + 1)! x0
=
(x − x0 )n+1 (n+1)
f
(x0 ) + Rn+1 (x, x0 ).
(n + 1)!
Also hat auch Rn+1 (x, x0 ) die gewünschte Gestalt (a).
Die Lagrangesche Form (b) des Restgliedes folgt sofort aus (a):
Die Funktion g(t) = (x−t)n ändert im Intervall (x0 , x) nicht ihr Vorzeichen. Daher können
wir den Mittelwertsatz der Integralrechnung anwenden für das Integral
1
Rn (x, x0 ) =
n!
Z
x
x0
(x − t)n f (n+1) (t)dt.
Dann existiert ein ξx,x0 ∈ (x0 , x) mit
f (n+1) (ξx,x0 )
Rn (x, x0 ) =
n!
Z
x
x0
(x − t)n dt =
Also gilt auch (b).
Beispiele:
77
f (n+1) (ξx,x0 )
(x − x0 )n+1 .
(n + 1)!
1. f (x) = sin x und x0 = 0: Wegen
f (0) = 0, f ′ (0) = cos 0 = 1, f (2k) (0) = 0, f (2k+1) (0) = (−1)k ,
k ∈ IN,
ist nach Satz 9.1
sin x −
n
X
(−1)k x2k+1
k=0
(2k + 1)!
=
x2n+2
(−1)n+1 sin ξx,0
(2n + 2)!
für ein geeignetes ξx,0 ∈ (0, x).
√
2. f (x) = 1 + x und x0 = 0: Es ist
f ′ (x) =
1
(1 + x)−1/2
2
und somit
√
,
1
f ′′ (x) = − (1 + x)−3/2
4
1+x =1+
Folglich ist für 0 < x < 1
1+
,
f (3) (x) =
3
(1 + x)−5/2 ,
8
−5/2
x x2
x3 1 + ξx,0
.
−
+
2
8
16
x x2 √
x3
x x2
−
< 1+x=1+ −
+ .
2
8
2
8
16
Lassen wir in Satz 9.1 n gegen ∞ streben, so gewinnen wir
Satz 9.2.
Sei f : (a, b) → IR in (a, b) beliebig oft differenzierbar. Seien x0 ∈ (a, b) und x ∈ (a, b).
Dann gilt
∞
X
f (k) (x0 )
(x − x0 )k
(9.1)
f (x) =
k!
k=0
genau dann, wenn
lim Rn (x, x0 ) = 0.
n→∞
Die Reihe in (9.1) heißt Taylorreihe von f in x0 .
78
Beispiele:
1. f (x) = sin x und x0 = 0: Wegen
f (2k) (x) = (−1)k sin x
,
f (2k+1) (x) = (−1)k cos x
ist f (2k) (0) = 0, f (2k+1) (0) = (−1)k , und somit
sin x =
n
X
(−1)k x2k+1
k=0
+ R2n+1 (x, 0)
(2k + 1)!
mit
R2n+1 (x, 0) =
x2n+2 (2n+2)
f
(ξx,x0 ) für ein geeignetes ξx,0 ∈ (0, x).
(2n + 2)!
Folglich ist
|R2n+1 (x, 0)| ≤
|x|2n+2
→ 0 für n → ∞.
(2n + 2)!
2. f (x) = ln (1 + x) und x0 = 0: Es ist
f ′ (x) =
1
1
(−1)k−1 (k − 1)!
(k)
, f ′′ (x) = −
,
f
(x)
=
,
1+x
(1 + x)2
(1 + x)k
Daher ist für x > −1 und n ∈ IN
ln (x + 1) =
n
X
f (k) (0)
k=1
mit
1 |Rn (x, 0)| = n!
Rechnen Sie nach, dass
k!
Z
0
k
x + Rn (x, 0) =
x
n
X
(−1)k−1 xk
k
k=1
n (n+1)
(x − t) f
Z
(t)dt = 0
x
k ∈ IN.
+ Rn (x, 0)
(x − t)n
dt.
n+1
(1 + t)
|Rn (x, 0)| → 0 für −1 < x < 1 gilt.
Somit haben Sie bewiesen, dass
ln (x + 1) =
∞
X
(−1)k−1 xk
k=1
k
für −1 < x < 1.
Im Grenzfall x → 1− ergibt dies das uns schon lange bekannte Resultat
ln 2 =
∞
X
(−1)k−1
k=1
k
.
3. Als weiteres Beispiel betrachten wir die Funktion f (x) = (1 + x)α in −1 < x < 1 und
x0 = 0:
Beweisen Sie den folgenden Satz.
79
Satz 9.3.
Es sei α ∈ IR, α 6∈ IN ∪ {0}. Dann gilt für alle −1 < x < 1
α
(1 + x) =
∞ X
α
k=0
wobei wir definieren
k
xk = 1 + αx +
α(α − 1) 2
x + ···,
2
Qk−1
1
α
= k! j=0 (α − j), k ∈ IN
k
1,
k = 0.
Insbesondere ist für α = 1/2
√
x x2
x3
1+x=1+ −
+
−···
2
8
16
für −1 < x < 1.
§10. Die Regel von l’Hospital
Bei der Berechnung von Grenzwerten
lim
x→x0
f (x)
g(x)
hat man häufig die fatale Situation, dass
lim f (x) = 0
x→x0
und gleichzeitig
lim g(x) = 0
x→x0
ist. Oder bei der Berechnung von
lim f (x)g(x),
x→x0
dass
lim f (x) = 0
x→x0
und gleichzeitig
lim g(x) = ∞
x→x0
ist. Dann helfen oft die beiden folgenden Sätze über die Regel von l’Hospital:
Satz 10.1.
Sei n ∈ {0} ∪ IN. Es seien f : [a, b] → IR und g : [a, b] → IR in [a, b] (n + 1)-mal stetig
differenzierbar (in a rechtsseitig und in b linksseitig differenzierbar) und es gelte
f (a+) = · · · = f (n) (a+) = 0 ,
Dann ist
g(a+) = · · · = g (n) (a+) = 0,
f (x)
f (n+1) (a+)
= (n+1)
.
x→a+ g(x)
g
(a+)
lim
80
g (n+1) (a+) 6= 0.
Die analoge Aussage gilt für die linksseitigen Grenzwerte in b, oder die Grenzwerte in
x0 ∈ (a, b).
Beweis: Nach Satz 9.1 existiert zu a < x < b ein ξx ∈ (a, x) und ηx ∈ (a, x), so dass
f (a) + · · · +
f (x)
=
g(x)
g(a) + · · · +
(x−a)n+1 (n+1)
(ξx )
(n+1)! f
(x−a)n+1 (n+1)
(ηx )
(n+1)! g
=
f (n+1) (ξx )
g (n+1) (ηx )
→
f (n+1) (a+)
g (n+1) (a+)
für x → a+.
Der Beweis für x → b− oder x → x0 , x0 ∈ (a, b), verläuft analog.
Satz 10.2.
Sei n ∈ {0} ∪ IN. Es seien f : [a, ∞) → IR und g : [a, ∞) → IR in [a, ∞) (n + 1)-mal stetig
differenzierbar und es gelte
lim f (x) = · · · = lim f (n) (x) = 0 ,
x→+∞
x→+∞
lim g(x) = · · · = lim g (n) (x) = 0,
x→+∞
x→+∞
sowie
lim f (n+1) (x) =: α ,
x→+∞
Dann ist
lim g (n+1) (x) =: β,
x→+∞
β 6= 0.
α
f (x)
= .
x→+∞ g(x)
β
lim
Die analoge Aussage gilt für die Grenzwerte in −∞.
Beweis: Nach Satz 9.1 existiert zu jedem x ≥ a ein ξx ∈ (x, x + 1) und ηx ∈ (x, x + 1), so
dass
f (x) + · · · +
f (x + 1)
=
g(x + 1)
g(x) + · · · +
=
f (n) (x)
n!
g (n) (x)
n!
+
+
f (n+1) (ξx )
(n+1)!
g (n+1) (ηx )
(n+1)!
f (x)(n + 1)! + · · · + f (n) (x)(n + 1) + f (n+1) (ξx )
g(x)(n + 1)! + · · · + g (n) (x)(n + 1) + g (n+1) (ηx )
→
α
β
für x → ∞.
Der Beweis für x → −∞ verläuft analog.
Beispiele:
1. Für jedes a ∈ IR ist
a x
= ea .
lim 1 +
x→∞
x
81
(10.1)
Beweis: Wir substituieren x = 1/t. Dann ist
ln
h
a x i
a ln (1 + at)
= x ln 1 +
=
1+
x
x
t
Für x → +∞ konvergiert t → 0+. Nach Satz 10.1 für f (t) = ln (1 + at) und g(t) = t
ist dann
a
h
ln (1 + at)
a x i
1+at
= lim
= lim
= a.
lim ln 1 +
x→+∞
t→0+
t→0+ 1
x
t
Wegen der Stetigkeit der e-Funktion gilt daher (10.1).
2. Es ist
lim
x→∞
(1 + x)1/3 − x1/3 = 0.
Beweis: Wir substituieren x = 1/t3 . Dann ist
(1 + x)
1/3
−x
1/3
f (t)
(t3 + 1)1/3 − 1
:=
.
=
t
g(t)
Wegen f ′ (t) = 31 (t3 + 1)−2/3 ∗ 3t2 → 0 für t → 0+ und g ′ (t) = 1 folgt aus Satz 10.1
lim
x→∞
f ′ (t)
(1 + x)1/3 − x1/3 = lim ′
= 0.
t→0+ g (t)
82
Kapitel V
Lineare Algebra. Teil 1
§1. Linearer Raum (Vektorraum)
Es ist K stets der Körper der reellen Zahlen IR oder der Körper der komplexen Zahlen
| . ( Viele Definitionen und Ergebnisse dieses Kapitels gelten auch für andere Körper wie
C
etwa K = Zp , p Primzahl.)
Es sei n eine natürliche Zahl. Mit IRn bezeichnen wir die Menge aller (geordneten) n-Tupel
reeller Zahlen, also
IRn := {u = (a1 , a2 , . . . , an ) : ai ∈ IR, i = 1, 2, . . . , n},
| n bezeichnen wir die Menge aller (geordneten) n-Tupel komplexer Zahlen, also
mit C
| n := {u = (a , a , . . . , a )
| , i = 1, 2, . . . , n}.
C
: ai ∈ C
1 2
n
Anstelle von (a1 , a2 , . . . , an ) schreiben wir oft auch

a1
 a2 
 
 · 
 .
 · 
 
·
an

Im Kn definieren wir eine Addition + : Kn × Kn → Kn wie folgt:
Seien
 
 
a1
b1
 a2 
 b2 
 
 
 · 
 · 
u =   , v =  ,
·
 
 · 
 
 
·
·
an
bn
dann definieren wir

a1 + b1
 a2 + b2 


·


u + v := 
,
·




·
an + bn

das heißt, wir addieren u und v komponentenweise.
83
Im Kn definieren wir die skalare Multiplikation ∗ : K × Kn → Kn wie folgt:

αa1
 αa2 


 · 
α ∗ u := 
,
 · 


·
αan

für α ∈ K, u ∈ Kn ,
das heißt, wir multiplizieren jede Komponente von u mit α. Anstelle von α ∗ u schreiben
wir kürzer αu.
Wir können leicht nachprüfen, dass die folgenden Rechenregeln gelten:
(A1) u + v = v + u für alle u, v ∈ Kn , (kommutativ)
(A2) (u + v) + w = u + (v + w) für alle u, v, w ∈ Kn , (assoziativ)
(A3) Für das Element 0 = (0, . . . , 0) ∈ Kn gilt u + 0 = u für alle u ∈ Kn ,
(A4) Für jedes u ∈ Kn gibt es genau ein v ∈ Kn , (nämlich v = (−a1 , −a2 , . . . , −an )) mit
der Eigenschaft u + v = 0. Wir schreiben auch v = −u.
(B1)
(B2)
(B3)
(B4)
α(u + v) = αu + αv für alle u, v ∈ Kn , α ∈ K,
(α + β)u = αu + βu für alle u ∈ Kn , α, β ∈ K,
α(βu) = (αβ)u für alle u ∈ Kn , α, β ∈ K,
1u = u für alle u ∈ Kn .
| n mit der oben definierten Addition und skalaren Multiplikation sind
Der IRn und der C
wichtige Beispiele der folgenden allgemeinen Definition;
Definition 1.1. Eine Menge V von Elementen u, v, w, . . . heißt linearer Raum über
K oder Vektorraum über K, wenn eine Vektoraddition + : V × V → V und eine
skalare Multiplikation ∗ : K × V → V definiert sind mit den Eigenschaften (A1)-(A4) und
(B1)-(B4).
Beispiele:
| n ist ein linearer Raum über C
| .
1. Der IRn ist ein linearer Raum über IR, der C
2. Es sei a < b gegeben. Es bezeichne C[a, b] die Menge aller auf [a, b] stetigen reellwertigen Funktionen. In C[a, b] definieren wir die Addition durch
f + g : (f + g)(x) := f (x) + g(x),
x ∈ [a, b],
und die skalare Multiplikation durch
αf : (αf )(x) := αf (x),
84
x ∈ [a, b].
Dann ist C[a, b] ein linearer Raum über IR.
3. Zu n ∈ IN sei V = Pn die Menge aller reellwertigen algebraischen Polynome vom
Grade ≤ n, versehen mit der Addition und skalaren Multiplikation des Beispiels 2.
4. Gegeben seien die Funktionen c0 , c1 , c2 ∈ C[a, b]. Die Lösungen der lineare Differentialgleichung
c0 (x)y ′′ (x) + c1 (x)y ′ (x) + c2 (x)y(x) = 0,
a ≤ x ≤ b,
bilden einen linearen Raum über IR (bezüglich der Addition und skalaren Multiplikation des Beispiels 2).
Definition 1.2. Es sei V ein linearer Raum über K. Es heißt b ∈ V Linearkombination
von v1 , . . . , vn ∈ V , falls es Zahlen α1 , . . . , αn ∈ K gibt, so dass
b=
n
X
αk vk .
k=1
Die Menge aller Linearkombinationen von v1 , . . . , vn heißt lineare Hülle von v1 , . . . , vn ,
in Zeichen span{v1 , . . . , vn }.
Es sei X ⊆ V eine nichtleere Teilmenge von V . Dann definieren wir
span(X) =
n
nX
k=1
o
αk uk | αk ∈ K, uk ∈ X, n ∈ IN .
Wir nennen span(X) die lineare Hülle von X.
Beispiel 5:
span{1, cos x, sin x, cos (2x), sin (2x)} = T2
sind die reellen trigonometrischen Polynome vom Grad ≤ 2.
Definition 1.3. Es sei V ein linearer Raum über K. Die Vektoren v1 , . . . , vn ∈ V heißen
linear abhängig, wenn es Zahlen (α1 , . . . , αn ) ∈ Kn gibt, (α1 , . . . , αn ) 6= (0, 0, . . . , 0), so
dass
n
X
αk vk = 0 Nullvektor in V .
k=1
Ansonsten heißen v1 , . . . , vn ∈ V linear unabhängig.
Wie müssen wir vorgehen, wenn wir die lineare Unabhängigkeit von Vektoren v1 , . . . , vn
nachweisen wollen? Ganz einfach, wir nehmen an, für die Zahlen α1 , . . . , αn gelte
n
X
αk vk = 0
k=1
85
und beweisen, dass dann alle α1 , . . . , αn gleich 0 sind.
Beispiel 6: Die Vektoren
 
2
0
0
,
des IR3 sind linear unabhängig.
 
1
3
0


4
 −2 
2
,
Beweis: Wir nehmen an, für die Zahlen α1 , α2 , α3 gelte
 
 

  
2
1
4
0
α1  0  + α2  3  + α3  −2  =  0  .
0
0
2
0
Dies ist gleichbedeutend mit
2α1 + α2 + 4α3 = 0
3α2 − 2α3 = 0
2α3 = 0.
Aus der 3.Gleichung folgt nun, dass α3 = 0 ist, aus der 2. Gleichung folgt α2 = 0 und aus
der 1.Gleichung α1 = 0.
Beispiel 7: Es sei n ∈ IN, und V = Pn sei die Menge aller reellen algebraischen Polynome
vom Grad ≤ n. Die Polynome P0 , P1 , . . . , Pn seien von der Form
Pk (x) =
k
X
cjk xj ,
cjk ∈ IR,
j=0
ckk 6= 0.
Dann sind die Polynome P0 , P1 , . . . , Pn linear unabhängig.
Beweis: Wir nehmen an, für die Zahlen α0 , . . . , αn gelte
n
X
k=0
αk Pk (x) = 0 für alle x ∈ IR.
Dies ist äquivalent zu
0=
n
X
k=0
αk
k
X
cjk x
j=0
j
=
n
X
x
j=0
j
n
X
αk cjk
k=j
für alle x ∈ IR.
Dies ist genau dann der Fall, wenn alle Koeffizienten
βj :=
n
X
αk cjk ,
k=j
86
j = 0, 1, . . . , n,
gleich Null sind. Aus 0 = βn = αn cnn folgt αn = 0.
Aus
0 = βn−1 = αn−1 cn−1,n−1 + αn cn−1,n
folgt αn−1 cn−1,n−1 = 0 und somit αn−1 = 0, und so weiter.
Definition 1.4. Es sei V ein linearer Raum über K. Die Vektoren v1 , . . . , vn ∈ V bilden
eine Basis von V , falls
1. v1 , . . . , vn linear unabhängig sind, und
2. V = span{v1 , . . . , vn }.
Beispiel 8: Es sei n ∈ IN. Die Monome 1, x, . . . , xn bilden eine Basis von Pn .
Lemma 1.1. Es sei v1 , . . . , vn eine Basis von V . Dann besitzt jedes u ∈ V eine eindeutige
Darstellung
n
X
u=
αk vk , αk ∈ K.
(1.1)
k=1
Mit anderen Worten: Die Abbildung Φ : Kn → V , definiert durch (1.1), ist eine Bijektion.
Beweis: Nach Definition
1.4.2 besitzt u eine Darstellung (1.1).
Pn
Pn Besitzt u eine weitere
Darstellung u = k=1 βk vk , βk ∈ K, so folgt 0 = u − u = k=1 (αk − βk )vk . Wegen
Definition 1.4.1 ist αk − βk = 0, k = 1, . . . , n.
Lemma 1.2. Im linearer Raum V über K gebe es höchstens endlich viele linear unabhängige Vektoren. Es seien v1 , . . . , vr linear unabhängige Vektoren aus V . Dann existieren Vektoren vr+1 , . . . , vn in V , so dass v1 , . . . , vr , vr+1 , . . . , vn eine Basis von V bilden.
Beweis: Ist v1 , . . . , vr bereits eine Basis von V , so ist n = r und wir sind fertig.
Ist v1 , . . . , vr keine Basis von V , so existiert ein u ∈ V , das nicht in span{v1 , . . . , vr } liegt.
Folglich sind v1 , . . . , vr , u linear unabhängig, und wir wählen vr+1 := u.
Wir wenden dieselben Argumente für v1 , . . . , vr , vr+1 an. Ist v1 , . . . , vr , vr+1 keine Basis
von V , so nehmen wir ein u ∈ V mit u 6∈ span{v1 , . . . , vr , vr+1 } und setzen vr+2 := u, und
so weiter.
Satz 1.1. Es sei v1 , . . . , vn eine Basis von V . Dann gilt:
1. Sei m > n. Je m Vektoren aus V sind linear abhängig.
2. Je n linear unabhängige Vektoren aus V bilden eine Basis von V .
Aus Satz 1.1 folgt: Jede Basis von V besteht aus derselben Anzahl n von Vektoren. Wir
sagen ”n ist die Dimension von V ” und schreiben n = dim V .
87
Beweis von Satz 1.1:
1. Es sei m > n, sowie u1 , u2 , . . . , um Vektoren aus V . Nach Lemma 1.1 besitzt jedes uj
eine eindeutige Darstellung
uj =
n
X
αjk ∈ K,
αjk vk ,
k=1
j = 1, 2, . . . , m.
Wir wollen prüfen, ob die Vektoren u1 , . . . , um linear abhängig sind. Es sei also
m
X
cj uj = 0,
j=1
für geeignete cj ∈ K.
Dies ist äquivalent zu
0=
=
m
X
j=1
n
X
k=1
cj uj =
m
X
j=1
vk
m
X
j=1
cj
n
X
k=1
αjk vk
cj αjk .
Wegen der linearen Unabhängigkeit der vk ist dies äquivalent zu dem linearen Gleichungssystem (LGS)
m
X
cj αjk = 0, k = 1, . . . , n,
(1.2)
j=1
bestehend aus n linearen Gleichungen mit den m unbekannten Koeffizienten cj ∈ K,
j = 1, . . . , m. Aus dem Gaußschen Eliminationsverfahren des §3 wird folgen, dass das
LGS (1.2) im Falle m > n Lösungen (c1 , c2 , . . . , cm ) 6= (0, 0, . . . , 0) besitzt. Folglich sind
die Vektoren u1 , . . . , um linear abhängig.
2. Es seien u1 , . . . , un linear unabhängige Vektoren in V . Sei span{u1 , . . . , un } ⊂ V . Dann
gibt es ein u ∈ V , das nicht in span{u1 , . . . , un } liegt, und es sind u1 , . . . , un , u linear
unabhängig. Nach Saty 1.1.1 ist dies aber unmöglich. Aus diesem Widerspruch folgt, dass
je n linear unabhängige Vektoren u1 , . . . , un eine Basis bilden.
Definition 1.5. Eine nichtleere Teilmenge V0 eines linearen Raumes V über K heißt
Unterraum von V , falls V0 selbst ein linearer Raum über K ist.
Lemma 1.3. Eine nichtleere Teilmenge V0 eines linearen Raums V über K ist ein Unterraum von V genau dann, wenn
1. aus u ∈ V0 und v ∈ V0 folgt u + v ∈ V0 ,
2. aus u ∈ V0 und α ∈ K folgt αu ∈ V0 ;
Dies bedeutet für α = 0: Es ist 0 ∈ V0 ,
88
und für α = −1: Ist u ∈ V0 , so auch −u ∈ V0 .
Beweis: Um zu zeigen, dass V0 ⊂ V ein Unterraum ist, müssen wir die Axiome (A1)-(A4)
und (B1)-(B4) der Definition 1.1 nachprüfen. Diese Axiome sind genau dann erfüllt, wenn
(1)-(2) gilt, wie Sie sicher sofort nachprüfen können.
Lemma 1.4. Es sei V ein linearer Raum über K, und (Ui )i∈I sei eine Familie von Unterräumen von V . Dann ist
\
V0 :=
Ui
i∈I
ein Unterraum von V .
Beweis: Wir prüfen die Bedingungen (1)-(2) des Lemma 1.3 nach.
Lemma 1.5. Es sei V ein linearer Raum über K, und X ⊆ V eine nichtleere Teilmenge
von V . Dann ist die lineare Hülle span(X) von X ein Unterraum von V . Offensichtlich ist
span(X) der kleinste Unterraum in V , der X enthält.
Beweis: Nach Definition 1.2 ist
span(X) =
n
nX
k=1
o
αk uk | αk ∈ K, uk ∈ X, n ∈ IN .
Offensichtlich ist daher X ⊆ span(X). Ebenso sind für V0 := span(X) die Bedingungen
(1) und (2) von Lemma 1.3 erfüllt. Also ist span(X) ein Unterraum von V .
Definition 1.6. Es sei V ein linearer Raum über K. Seien U und W Unterräume von V .
1. Wir schreiben
n
o
U + W := u + w | u ∈ U, w ∈ W .
2. Ist U + W = V und U ∩ W = {0}, so schreiben wir V = U ⊕ W und nennen V
die direkte Summe von U und W . Man nennt dann U und W auch zueinander
komplementäre Unterräume von V .
Satz 1.2. Die Summe U + W zweier Unterräume von V ist erneut ein Unterraum von
V . Ist die Dimension von U und von W endlich, so gilt die Dimensionsformel
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).
(1.3)
Beweis: Mit Hilfe von Lemma 1.3 sehen wir sofort, dass U + W und U ∩ W Unterräume
von V sind.
89
Sei U ∩ W = {0}. Dann ist dim(U ∩ W ) = 0. Ist u1 , . . . , uk eine Basis von U und
w1 , . . . , wm eine Basis von W , so ist u1 , . . . , uk , w1 , . . . , wm eine Basis von U + W , und die
Formel (1.3) ist richtig.
Sei nun dim(U ∩ W ) = r ≥ 1 und v1 , . . . , vr eine Basis von U ∩ W . Sei die Dimension
von U gleich k und die Dimension von W gleich m. Unter Verwendung von Lemma 1.2
ergänzen wir v1 , . . . , vr zu einer Basis v1 , . . . , vr , u1 , . . . , uk−r von U und zu einer Basis
v1 , . . . , vr , w1 , . . . , wm−r von W und erkennen, dass die Vektoren
v1 , . . . , vr , u1 , . . . , uk−r , w1 , . . . , wm−r
linear unabhängig sind und eine Basis von U + W bilden. Dies beweist (1.3).
§2. Lineare Abbildungen, Lineare Gleichungssysteme
In diesem § sind U , V und W lineare Räume über dem Körper K.
Definition 2.1. Eine Abbildung φ : V → W heißt linear, falls
1. φ(u + v) = φ(u) + φ(v) für alle u, v ∈ V ,
2. φ(αv) = αφ(v) für alle α ∈ K, v ∈ V .
Definition 2.2. Es sei φ : V → W eine lineare Abbildung. Die Menge
n
o
ker φ := v ∈ V | φ(v) = 0
heißt Kern von φ.
Definition 2.3. Zwei lineare Räume V und W über K heißen isomorph, wenn eine
lineare Bijektion φ : V → W existiert. Man nennt φ einen Isomorphismus zwischen
den linearen Räumen V und W .
In Lemma 2.1 und Lemma 2.2 wollen wir einige einfache Aussagen für lineare Abbildungen
angeben, die Sie ohne Schwierigkeiten selbst beweisen können, oder?
Lemma
1.
2.
3.
4.
2.1. Es sei φ : V → W eine lineare Abbildung . Dann gilt:
φ(0) = 0,
φ(−v) = −φ(v) für alle v ∈ V .
Der Kern von φ ist ein linearer Unterraum von V .
Das Bild
n
o
im φ := φ(v) | v ∈ V
ist ein linearer Unterraum von W .
90
5. Ist φ : V → W ein Isomorphismus, so ist die Umkehrabbildung φ−1 : W →
V ebenfalls linear und somit ein Isomorphismus zwischen W und V .
Lemma 2.2. Es sei φ : V → W eine lineare Abbildung.
1. φ ist injektiv genau dann, wenn ker φ = {0}.
2. Es sei v1 , v2 , . . . , vn eine Basis von V . Es ist φ injektiv genau dann, wenn
φ(v1 ), φ(v2 ), . . . , φ(vn ) eine Basis von im φ ist.
Satz 2.1. (Struktursatz für lineare Räume)
Es sei V ein linearer Raum über K der Dimension n. Dann sind Kn und V isomorph.
Insbesondere sind zwei endlich-dimensionale lineare Räume (über demselben Körper
K) genau dann isomorph, wenn sie dieselbe Dimension haben.
Beweis: Es sei v1 , . . . , vn eine Basis von V . Nach Lemma 1.1 besitzt jedes u ∈ V eine
eindeutige Darstellung
n
X
u=
αk vk , αk ∈ K.
(1.1)
k=1
Die durch (1.1) gegebene Abbildung Φ : Kn → V ist daher bijektiv. Sie ist aber auch
linear. Insbesondere werden die Einheitsvektoren
 
1
0
 
0
e1 =  
·
 
·
0
 
0
1
 
0
e2 =  
·
 
·
0
,
,···,
 
0
0
 
·
en =  
·
 
0
1
(2.1)
auf die Vektoren v1 , v2 , . . . , vn abgebildet.
Haben die linearen Räume V und W (über K) dieselbe Dimension n, so wählen wir eine
Basis v1 , . . . , vn von V und eine Basis w1 , . . . , wn von W . Wie wir sofort nachprüfen
können, wird durch φ(vk ) := wk , k = 1, . . . , n, ein Isomorphismus φ : V → W definiert.
Denn nach Lemma 1.1 besitzt jedes u ∈ V eine eindeutige Darstellung
u=
n
X
αk vk ,
k=1
Durch
φ(u) :=
n
X
αk ∈ K.
(1.1)
αk wk .
k=1
wird dann φ(u) für jedes u ∈ V definiert. Da w1 , . . . , wn linear unabhängig sind, sind die
Bilder φ(u) für verschiedene (α1 , . . . , αn ) ∈ Kn verschieden.
91
Wir wollen nun die linearen Abbildungen φ : Kn → Km studieren, das heißt, mit V := Kn
und W := Km , n, m ∈ IN. Offensichtlich hat Kn die Dimension n, und die Einheitsvektoren (2.1) bilden eine Basis von Kn .
Eine lineare Abbildung φ : Kn → Km ist eindeutig bestimmt durch die Vektoren φ(ek ),
k = 1, 2, . . . , n, der Einheitsvektoren ek des Kn . Schreiben wir






a11
a12
a1n
 a21 
 a22 
 a2n 






 · 
 · 
 · 
φ(e1 ) = 
 , φ(e2 ) = 
 , · · · , φ(en ) = 
,
 · 
 · 
 · 






·
·
·
am1
am2
amn
so ist die linear Abbildung φ : Kn → Km eindeutig gegeben durch die m × n-Matrix


a11 a12 a13 · · a1n
 a21 a22 a23 · · a2n 


 a31 a32 a33 · · a3n 


A= ·
·
·
· ·
· 


·
·
· ·
· 
 ·


·
·
·
· ·
·
am1 am2 am3 · · amn
Der Vektor

x1
 x2 
 
x =  ·  = (x1 , x2 , . . . , xn )T ∈ Kn
 
·
xn

(”transponiert”)
hat dann das Bild
 Pn

a1k xk
Pk=1
n
 Pk=1 a2k xk 
 n

 k=1 a3k xk 


φ(x) = x1 φ(e1 ) + x2 φ(e2 ) + · · · + xn φ(en ) = 
···
.


···




Pn · · ·
k=1 amk xk
(2.2)
Um den Ausdruck (2.2) kürzer zu beschreiben, führen wir das Matrizenprodukt ein
zwischen der m × n-Matrix A = (ajk )m,n
j,k=1 und der n × 1-Matrix x (= Spaltenvektor
n
x ∈ K ) und schreiben anstelle von (2.2)
φ(x) = Ax.
(2.3)
Der Spaltenvektor Ax wird auch als m × 1-Matrix aufgefaßt. Seine j-te Komponente
ist
n
X
ajk xk , j = 1, . . . , m.
(Ax)j =
k=1
92
Beachte: Durch die Einführung des Matrizenprodukts zwischen m × n-Matrizen A und
Vektoren x ∈ Kn werden durch (2.3) alle linearen Abbildungen φ : Kn → Km beschrieben
genau dann, wenn A = (ajk )m,n
j,k=1 alle m × n-Matrizen mit Elementen ajk ∈ K durchläuft.
In den Anwendungen treten häufig lineare Gleichungssysteme (LGS) auf. Das Lösen
von LGS ist eine der wichtigsten Aufgaben der Angewandten Mathematik. Hierzu betrachten wir die folgende
Aufgabe:
Gegeben sei die lineare Abbildung φ : Kn → Km durch die m × n-Matrix A = (ajk )m,n
j,k=1 ,
sowie ein Vektor


b1
 b2 


 · 
b=
 ∈ Km .
 · 


·
bm
Finden Sie alle Urbilder von b der Abbildung φ !
Eine äquivalente Formulierung dieser Aufgabe:
Bestimme alle Lösungen x ∈ Kn des LGS Ax = b.
Weil es so wichtig ist, wollen wir die Definition eines LGS wiederholen:
Ein m × n lineares Gleichungssystem (LGS) besteht aus den m linearen Gleichungen
n
X
ajk xk = bj ,
j = 1, . . . , m,
(2.4)
k=1
für die n Unbekannten x1 , . . . , xn aus K.
Um das lineare Gleichungssystem (2.4) kompakter zu schreiben, führen wir die m × nMatrix


a11 a12 a13 · · · a1n
 a21 a22 a23 · · · a2n 


 a31 a32 a33 · · · a3n 


A= ·
·
·
· · ·
· 


·
·
· · ·
· 
 ·


·
·
·
· · ·
·
am1 am2 am3 · · · amn
ein, mit den n Spaltenvektoren


a1k
 a2k 


 a3k 


m
∈
K
,
k
=
1,
.
.
.
,
n,
m
×
1
−
Matrix
·




 · 


·
amk
93
und den m Zeilenvektoren
(aj1 , aj2 , aj3 , . . . , ajn ) ∈ Kn ,
j = 1, 2, . . . , m.
1 × n − Matrix
Das lineare Gleichungssystem können wir schreiben als





 

a11
a12
a1n
b1
 a21 
 a22 
 a2n  






 

a
a
a
b
 31 
 32 
 3n   2 





 

x1  ·  + x2  ·  + · · · + x n  ·  =  ·  .





 

 · 
 · 
 ·   · 





 

·
·
·
·
am1
am2
amn
bm
(2.5)
Aus (2.5) folgt sofort der nächste
Satz 2.2. Das lineare Gleichungssystem (2.4) hat eine Lösung x ∈ Kn genau dann, wenn
die rechte Seite b als Linearkombination (2.5) der Spaltenvektoren von A darstellbar ist.
Über die Struktur der Lösungsgesamtheit eines linearen Gleichungssystems geben die beiden nächsten Sätze Auskunft:
Satz 2.3. Die Lösungen x ∈ Kn des homogenen linearen Gleichungssystems
n
X
ajk xk = 0,
j = 1, . . . , m,
(2.6)
k=1
bilden einen Unterraum des Kn , genannt Kern von A.
Beweis: Es seien x ∈ Kn und x′ ∈ Kn Lösungen von (2.6). Dann sind auch x + x′ und
αx, α ∈ K, Lösungen von (2.6), denn es gilt
n
X
ajk (xk +
k=1
sowie
x′k )
=
n
X
ajk xk +
k=1
n
X
k=1
ajk (αxk ) = α
n
X
ajk x′k = 0,
j = 1, . . . , m,
k=1
n
X
ajk xk = 0,
j = 1, . . . , m.
k=1
Satz 2.4. Das lineare Gleichungssystem (2.4) sei lösbar. Sei x0 eine Lösung von (2.4).
Sei V0 der Kern von A. Dann beschreibt
n
o
x0 + v | v ∈ V0
(2.7)
94
die Gesamtheit aller Lösungen von (2.4).
Insbesondere ist x0 die einzige Lösung von (2.4), wenn V0 = {0} ist.
Beweis:
Es sei x = (x1 , . . . , xn )T ∈ V0 . Dann ist
n
X
ajk (x0k
+ xk ) =
k=1
n
X
ajk x0k
+
n
X
ajk xk = bj + 0,
j = 1, . . . , m.
k=1
k=1
Seien umgekehrt x0 = (x01 , . . . , x0n )T und x1 = (x11 , . . . , x1n )T Lösungen von (2.4). Dann
gilt für x := x1 − x0 , dass
n
X
ajk xk =
k=1
=
n
X
k=1
n
X
k=1
ajk x1k
−
ajk (x1k − x0k )
n
X
k=1
ajk x0k = bj − bj = 0,
j = 1, . . . , m.
Also ist x = x1 − x0 Lösung des homogenen linearen Gleichungssystems.
Beispiel: Es sei K = IR. Das LGS
4x1 + 3x2 + 7x3 = 7
x1 − x2
=0
schreiben wir in Matrixform als
4 3
1 −1
7
0


x1
 x2  = 7 .
0
x3
Dann ist die Lösungsgesamtheit gegeben durch
 


1
 0
0 + α 1 ,

1
−1


α ∈ IR .

Anstelle des Vektors x0 = (0, 0, 1)T können wir irgend eine andere Lösung setzen, zum
Beispiel wird die Lösungsgesamtheit auch beschrieben durch

 


1

 1
 1  + α  1  | α ∈ IR .


0
−1
95
Satz 2.5. (Dimensionssatz)
Es sei φ : V → W eine lineare Abbildung. Es sei V endlich-dimensional. Dann gilt
dim (ker φ) + dim (im φ) = dim V .
(2.8)
Beweis:
Ist ker φ = {0}, also dim (ker φ) = 0, und sind v1 , . . . , vn eine Basis von V , so bilden die
Vektoren φ(v1 ), φ(v2 ), . . . , φ(vn ) nach Lemma 2.2 eine Basis von im φ. Folglich ist
dim (im φ) = n, und es gilt die Formel (2.8).
Es sei nun dim (ker φ) = r ≥ 1, und v1 , . . . , vr sei eine Basis von ker φ. Ist r = n, dann
ist im φ = {0}, und es gilt (2.8). Sei nun 1 ≤ r < n. Nach Lemma 1.1 ergänzen wir
v1 , . . . , vr zu einer Basis v1 , . . . , vr , vr+1 , . . . , vn von V .
Wir zeigen: φ(vr+1 ), . . . , φ(vn ) ist eine Basis von im φ:
1. Es ist
n
o
im φ = φ(u) | u ∈ V
=
n
nX
k=1
=
αk φ(vk ) | αk ∈ K
n
n X
k=r+1
o
o
αk φ(vk ) | αk ∈ K ,
da φ(vk ) = 0 für k = 1, . . . , r. Also ist im φ = span {vr+1 , . . . , vn }.
2. Die Vektoren φ(vr+1 ), . . . , φ(vn ) sind linear unabhängig, denn aus
folgt
n
n
X
X
0=
αk φ(vk ) = φ
αk vk
k=r+1
und daher
n
X
Pn
k=r+1
αk φ(vk ) = 0
k=r+1
k=r+1
αk vk ∈ ker φ.
Also gibt es β1 , . . . , βr ∈ K mit
n
X
αk vk =
r
X
βj vj .
j=1
k=r+1
Da aber v1 , . . . , vr , vr+1 , . . . , vn linear unabhängig sind, sind alle Koeffizienten
αr+1 , . . . , αn , β1 , . . . , βr gleich Null. Insgesamt haben wir daher bewiesen:
Ist dim (ker φ) = r so ist dim (im φ) = n − r.
96
§3. Eliminationsverfahren
Es ist das Ziel des (Gaußschen) Eliminationsverfahrens, alle Lösungen
x = (x1 , x2 , . . . , xn )T ∈ Kn des linearen Gleichungssystems (LGS)
n
X
ajk xk = bj ,
j = 1, . . . , m,
(3.1)
k=1
m×n
m
zu finden. Hierbei sind A = (ajk )m,n
und b = (bj )m
vorgegeben.
j=1 ∈ K
j,k ∈ K
Dieses LGS wird daher vollständig beschrieben durch die m × (n + 1)-Matrix
a11
 a21

 a31

(A, b) =  ·

 ·

·
am1

a12
a22
a32
·
·
·
am2
·
·
·
·
·
·
·
a13
a23
a33
·
·
·
am3
·
·
·
·
·
·
·
·
·
·
·
·
·
·
a1n
a2n
a3n
·
·
·
amn

b1
b2 

b3 

· .

· 

·
bm
(3.2)
Grundlage des Eliminationsverfahrens ist der folgende Satz:
Satz 3.1. Die Lösungsmenge des LGS (3.1) ändert sich nicht bei den folgenden elementaren Zeilenumformungen:
1. zwei Zeilen von (3.2) werden vertauscht,
2. Eine Zeile in (3.2) wird mit α ∈ K, α 6= 0, multipliziert,
3. in (3.2) wird das Vielfache einer Zeile zu einer anderen Zeile addiert.
Grundgedanke des Eliminationsverfahrens:
Durch die elementare Zeilenumformungen 1., 2., 3. wird (A, b) übergeführt in die Form
r11
 0

 0

(R, c) =  0

 ·

·
0

r12
r22
0
0
·
·
0
r13
r23
r33
0
·
·
0
·
·
·
·
·
·
·
·
·
·
·
·
·
·
· r1n
· r2n
· r3n
·
·
·
·
·
·
· rmn

c1
c2 

c3 

· ,

· 

·
cn
wobei die m × n-Matrix R die folgende Form erhalten soll:
rjk = 0 für 1 ≤ k < j ≤ m, falls n ≥ m
rjk = 0 für 1 ≤ k < j ≤ m und k ≤ n, falls n < m.
Wie man im Einzelnen vorgehen sollte, wollen wir an zwei Beispielen beschreiben:
Beispiel 1: Es sei K = IR und
97
(3.3)

1

(A, b) = 2
2
2 0
2 −2
3 −1

1 2
 0 −2
0 −1
1.Schritt:

1 2
 0 −2
0 0
2.Schritt:
1 1
3 2
1 2
0
−2
−1

| 1
| 0
| 2
1
1
−1
0
−2
0
1
1
−1.5
1 |
0 |
0 |

1
−2 
0

1 | 1
0 | −2 
0 | 1
Eine Lösung ist gegeben durch
x03 = 0, x04 = −2/3, x05 = 0, x02 = 2/3, x01 = 1/3.
Die Lösungsgesamtheit ist





−1
2
1
2 
 0 
 −1 
1






x =  0  + α 1  + β  0 ,
3





0
0
−2
1
0
0

Beispiel 2: Sei K = IR und

mit irgendeiner Zahl c ∈ K.
0
(A, b) =  1
2

1
0
2

1 2
0 2
0 0
2 1
2 1
4 c
2 1
2 1
4 c
1
1
c−2

| 1
| 0
| 2

| 0
| 1
| 2

| 0
| 1.
| 2
Ist c = 2, so ist das LGS nicht lösbar. Ist c 6= 2, so folgt
x3 = 2/(c
− 2),
1
x2 = 21 1 − x3 = 12 − c−2
,
x1 = −2x2 − x3 = −1 +
2
c−2
−
2
c−2
= −1.
98
α, β ∈ K.
§4. Der Rang einer Matrix
Definition 4.1. Es sei A eine m × n-Matrix. Die maximale Anzahl linear unabhängiger
Spaltenvektoren von A heißt Spaltenrang von A, die maximale Anzahl linear unabhängiger Zeilenvektoren von A heißt Zeilenrang von A.
Beispiel: Die Matrix


0 0
1 2
2 4
1 1
2 2
0 0
hat den Zeilenrang = 2 und den Spaltenrang = 2 .
Satz 4.1. Für jede m × n-Matrix gilt Zeilenrang = Spaltenrang. Daher sprechen wir
vom Rang einer Matrix.
Beweis: Der Rang einer Matrix ändert sich nicht bei den elementaren Zeilenumformungen des Satzes 3.1, aber auch nicht bei Spaltentausch.
Ist A die Nullmatrix, dann ist Zeilenrang = Spaltenrang = 0 .
Es sei m × n-Matrix A = (ajk )m,n
j,k=1 nicht die Nullmatrix. Dann erhält man für ein
q ∈ IN durch elementare Zeilenumformungen und Spaltentausch stets die folgende
Matrixform erreichen :
r11
 0

 0

 0

 ·

R= ·

 0

 0

 ·

·
0

r12
r22
0
0
·
·
0
0
·
·
0
r13
r23
r33
0
·
·
0
0
·
·
0
·
·
·
r44
·
·
·
·
·
·
·
· ·
· ·
· ·
· ·
· ·
· ·
· 0
· 0
· ·
· ·
· ·
·
·
·
·
·
·
rqq
0
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
wobei rjj 6= 0 für j = 1, . . . , q, sowie rjk = 0 für alle 1 ≤ k < j.
Im Falle q = m entfallen die unteren Nullzeilen in (4.1).
99
·
·
·
·
·
·
·
·
·
·
·

r1n
r2n 

r3n 

r4n 

· 

· ,

rqn 

0 

· 

·
0
(4.1)
Im Falle q = n < m erhalten wir die m × n-Matrix
r11
 0

 0

 0

 ·

R= ·

 0

 0

 ·

·
0

r12
r22
0
0
·
·
0
0
·
·
0
r13
r23
r33
0
·
·
0
0
·
·
0
·
·
·
r44
·
·
·
·
·
·
·
· ·
· ·
· ·
· ·
· ·
· ·
· 0
· 0
· ·
· ·
· ·

r1n
r2n 

r3n 

r4n 

· 

· ,

rnn 

0 

· 

·
0
(4.1)′
und im Falle q = n = m erhalten wir die n × n-Matrix
r11
 0

 0

R= 0

 ·

·
0

r12
r22
0
0
·
·
0
r13
r23
r33
0
·
·
0
·
·
·
r44
·
·
·
· ·
· ·
· ·
· ·
· ·
· ·
· 0

r1n
r2n 

r3n 

r4n 

· 

·
rnn
Für die Matrix R in (4.1) ist Zeilenrang = Spaltenrang = q.
Hieraus und aus Satz 3.1 folgt sofort der folgende wichtige
Satz 4.2. Gegeben sei das LGS
n
X
ajk xk = bj ,
j = 1, . . . , m.
k=1
1. Das LGS ist lösbar genau dann, wenn
Rang(A) = Rang(A, b).
Man sagt: ”Rang(A) ist gleich dem Rang der erweiterten Matrix (A, b).”
2. Die Lösungsmenge V0 des homogenen linearen Gleichungssystems
n
X
ajk xk = 0,
j = 1, . . . , m
k=1
hat die Dimension
n − Rang(A).
100
(4.2)
§5. Determinanten
Problem 1: In einem rechtwinkligen Koordinatensystem der Ebene spannen die Einheitsvektoren E1 und E2 das Einheitsquadrat der Fläche 1 auf. Bestimme die Fläche
des Parallelogramms, das von den beiden Vektoren
x1 E1 + y1 E2
,
x2 E1 + y2 E2
aufgespannt wird.
Antwort: Der Flächeninhalt ist
x1 y2 − x2 y1 =: det
x1
y1
x2
y2
.
Problem 2: In einem rechtwinkligen Koordinatensystem des Raums spannen die Einheitsvektoren E1 , E2 , E3 den Einheitswürfel des Volumens 1 auf. Bestimme das Volumen
des schiefen Würfels, der von den drei Vektoren
x1 E1 + y1 E2 + z1 E3
,
x2 E1 + y2 E2 + z2 E3
,
x3 E1 + y3 E2 + z3 E3
aufgespannt wird.
Antwort: Das Volumen ist
x1 y2 z3 − x1 y3 z2 + x2 y3 z1 − x2 y1 z3 + x3 y1 z2 − x3 y2 z1

x1

=: det y1
z1
x2
y2
z2

x3
y3  .
z3
Der Flächeninhalt oder das Volumen sind dabei negativ, wenn die Vektoren negativ orientiert sind.
Für allgemeines n ∈ IN definiert man

a11
 a21

 a31

A= ·

 ·

·
an1
mit den n Spaltenvektoren
die Determinante einer n × n-Matrix

a12 a13 · · · a1n
a22 a23 · · · a2n 

a32 a33 · · · a3n 

·
·
· · ·
· 

·
·
· · ·
· 

·
·
· · ·
·
an2 an3 · · · ann

a1k
 a2k 


 a3k 


ak :=  ·  ∈ Kn ,


 · 


·
ank

101
k = 1, . . . , n,
in folgender Weise:
Wie bisher bezeichne Kn×n die Menge aller n × n-Matrizen. Gesucht ist eine Abbildung
det : Kn×n → K mit den Eigenschaften
(D1) Die Abbildung det ist linear bezüglich jeder Spalte von A = (a1 , a2 , . . . , an ); hierbei
bedeutet die Linearität bezüglich der Spalte j, dass
det a1 , . . . , aj−1 , aj + bj , aj+1 , . . . , an = det a1 , . . . , aj−1 , aj , aj+1 , . . . , an
+ det a1 , . . . , aj−1 , bj , aj+1 , . . . , an
det a1 , . . . , aj−1 , αaj , aj+1 , . . . , an = αdet a1 , . . . , aj−1 , aj , aj+1 , . . . , an
für alle α ∈ K.
(D2) Beim Vertauschen zweier Spalten in A = (a1 , a2 , . . . , an ) ändert sich das Vorzeichen;
(D3) Die Determinante der n × n-Einheitsmatrix
1
0

0
In = (e1 , e2 , . . . , en ) = 
·

·
0

0
1
0
·
·
0
0
0
1
·
·
0
0
0
0
·
·
0
·
·
·
·
·
·
·
·
·
·
·
0

0
0

0

0

0
1
ist gleich 1.
Allgemein gilt
Satz 5.1. Für jedes n ∈ IN ist durch die Eigenschaften (D1), (D2), (D3) genau eine
Abbildung det : Kn×n → K bestimmt, und zwar ist


a11 a12 a13 · · · a1n
 a21 a22 a23 · · · a2n 


 a31 a32 a33 · · · a3n 
X


det  ·
sign(σ) · aσ1 ,1 · aσ2 ,2 · ·aσn ,n .
·
·
· · ·
· =


·
·
· · ·
·  σ∈Πn
 ·


·
·
·
· · ·
·
an1 an2 an3 · · · ann
Hierbei definieren wir
n
o
Πn := σ = (σ1 , σ2 , . . . , σn ) | σ ist Permutation der Zahlen 1, 2, . . . , n
und
sign(σ) := 1, falls σ = (σ1 , σ2 , . . . , σn ) durch eine gerade Anzahl von Vertauschungen
zweier Komponenten aus (1, 2, . . . , n) entstanden ist, und
102
sign(σ) := −1, falls σ = (σ1 , σ2 , . . . , σn ) durch eine ungerade Anzahl von Vertauschungen zweier Komponenten aus (1, 2, . . . , n) entstanden ist.
Wir prüfen sofort nach, dass durch Satz 5.1 im Falle n = 3 gerade die Lösungsformel des
Problems 2 herauskommt.
Die Determinante hat die folgenden weiteren Eigenschaften:
Satz 5.2. Es sei A eine n × n-Matrix. Es bezeichne
a11
 a12

 a13

AT =  ·

 ·

·
a1n

a21
a22
a23
·
·
·
a2n
a31
a32
a33
·
·
·
a3n
·
·
·
·
·
·
·
·
·
·
·
·
·
·

· an1
· an2 

· an3 

·
· 

·
· 

·
·
· ann
die transponierte Matrix der n × n-Matrix A. Es gilt
det(AT ) = det(A).
(5.1)
Beweis: Dies folgt sofort aus der Formel des Satzes 5.1.
Definition 5.1. Eine n × n-Matrix A = (ajk )nj,k=1 heißt symmetrisch, falls AT = A,
das heißt, falls akj = ajk für alle 1 ≤ j, k ≤ n.
Satz 5.3. Es sei A eine n × n-Matrix. Es ist sind die folgenden Aussagen äquivalent:
det(A) = 0
det(AT ) = 0
die Spaltenvektoren von A sind linear abhängig
die Zeilenvektoren von A sind linear abhängig
Rang(A) = Rang(AT ) ≤ n − 1.
Zur Berechnung der Determinante det(A) benutzen wir das Gaußsche Eliminationsverfahren unter Verwendung des folgenden Satzes.
103
Satz 5.4. Es sei

a1
 a2 
 
A= · 
 
·
an

eine n × n-Matrix mit den Zeilenvektoren
aj = (aj1 , aj2 , ·, ajn),
j = 1, . . . , n.
Es gelten die Rechenregeln

a1
 a2 


 · 
det  j  = α det(A),
 αa 


·
an

Für k 6= j ist
α ∈ K.

a1
·




j−1
 a

 j
k
det  a + αa  = det(A), α ∈ K,


 aj+1 


·
an
 1
 1
a
a
 · 
 · 
 j
 k
a 
a 
 
 
det  ·  = −det  ·  .
 k
 j
a 
a 
 
 
·
·
n
a
an

Beweis: Wir verwenden die Aussage det(AT ) = det(A) des Satzes 5.2 und verwenden für
AT die Eigenschaften (D1) und (D2).
Wir wenden diese Regeln an folgendem Beispiel an und erhalten nach mehreren Schritten:
0
1
det 
2
0

3
5
2
1
3
0
1
0


1
0
2
0
 = · · · = 3det 
0
1
0
0
104
5
1
0
0
0
1
−1
0

2
0 
 = 9,
0
−3
denn eine obere n × n Dreiecksmatrix

r11 r12 r13
 0 r22 r23

0 r33
 0

R= ·
·
·

·
·
 ·

·
·
·
0
0
0
·
·
·
·
·
·
·
· ·
· ·
· ·
· ·
· ·
· ·
· 0

r1n
r2n 

r3n 

· 

· 

·
rnn
hat nach Satz 5.1 die Determinante
det(R) =
n
Y
rjj .
j=1
Enthält eine n × n- Matrix A viele Nullen, so kann man zur Berechnung der Determinante
den folgenden Entwicklungssatz mit Erfolg anwenden:
Satz 5.5. Es sei A eine n × n-Matrix. Für 1 ≤ j, k ≤ n bezeichnen wir mit Ajk die
(n − 1) × (n − 1)-Matrix, die aus A durch Streichen der Zeile j und der Spalte k hervorgeht.
1. Entwickeln nach Zeile j: Es gilt
n
X
det(A) =
(−1)j+k ajk det(Ajk ).
k=1
2. Entwickeln nach Spalte k: Es gilt
n
X
det(A) =
(−1)j+k ajk det(Ajk ).
j=1
Wenden wir den Entwicklungssatz auf das letzte Beispiel an, so erhalten wir
0
1
det 
2
0
3
5
2
1
1
= −3det
2

3
0
1
0



0
0 3 0
2
 = det  1 0 2 
1
2 1 1
0
2
= −3(1 − 4) = 9.
1
Von theoretischer, aber nicht von numerischer Bedeutung ist die Cramersche Regel zur
Lösung von LGS:
105
Satz 5.6. Gegeben sei das LGS
n
X
ajk xk = bj ,
j = 1, . . . , n.
k=1
Erfüllt die Matrix A = (ajk )nj,k=1
durch

a11 ·
a21 ·

1

·
det  ·
xj =
det(A)

·
·
an1 ·
die Bedingung det(A) 6= 0, so ist die Lösung gegeben
a1,j−1
a2,j−1
·
·
an,j−1
b1
b2
·
·
bn
a1,j+1
a2,j+1
·
·
an,j+1

· a1n
· a2n 

·
· ,

·
·
· ann
j = 1, . . . , n.
Beweis: Es bezeichne

b1
 b2 
 
b :=  · 
 
·
bn

,

a1k
 a2k 


ak :=  ·  ,


·
ank

k = 1, . . . , n.
Das LGS ist äquivalent zu
x1 a1 + x2 a2 + · · · + xn an = b.
Daher ist für j = 1, 2, . . . , n
det a1 , . . . , aj−1 , b, aj+1 , . . . , an
n
X
= det a1 , . . . , aj−1 ,
xk ak , aj+1 , . . . , an
k=1
=
n
X
xk det a1 , . . . , aj−1 , ak , aj+1 , . . . , an
k=1
= xj det a1 , . . . , aj−1 , aj , aj+1 , . . . , an = xj det(A),
quod erat demonstrandum.
Man nennt eine n × n-Matrix A regulär oder nicht-singulär, falls det(A) 6= 0 ist. Ist
det(A) = 0, so heißt A singulär .
Aus den bisherigen Diskussionen können wir den folgenden sehr wichtigen Satz über
LGS gewinnen:
106
Satz 5.7. Gegeben sei die n × n-Matrix A. Dann sind die folgenden Aussagen äquivalent:
1. det(A) 6= 0,
2. Das LGS Ax = b ist für jede rechte Seite b ∈ Kn eindeutig lösbar,
3. Das homogene LGS Ax = 0 hat nur die Lösung x = 0.
Aus dem letzten Satz können wir eine wichtige Anwendung aus der Interpolationstheorie
herleiten:
Interpolationsproblem:
Sei d ∈ IN und Ω ⊂ IRd . Es seien n linear unabhängige Funktionen uk : Ω → IR,
k = 1, . . . , n, gegeben, die einen linearen Raum V := span{u1 , u2 , . . . , un } aufspannen.
Zu gegebenen n verschiedenen Punkten (Orten) xi ∈ Ω, i = 1, . . . , n, und n reellen Zahlen
yi , i = 1, . . . , n, bestimme man v ∈ V mit der Eigenschaft
v(xi ) = yi ,
i = 1, . . . , n.
Lösung:
Das Interpolationsproblem kann keine, eine oder viele Lösungen haben. Wir machen den
Ansatz
n
X
v=
ck uk .
k=1
Dann können wir das Interpolationsproblem schreiben als lineares Gleichungssystem
n
X
ck uk (xi ) = yi ,
i = 1, . . . , n.
k=1
Oder in Matrixschreibweise :
Ac = b,
u1 (x1 )
 u1 (x2 )

 ·

·
u1 (xn )

u2 (x1 )
u2 (x2 )
·
·
u2 (xn )
u3 (x1 )
u3 (x2 )
·
·
u3 (xn )
·
·
·
·
·
   
y1
c1
· un (x1 )
· un (x2 )   c2   y2 
   
·
·
 ·  =  · .
   
·
·
·
·
yn
cn
· un (xn )
Wegen Satz 5.7 sind daher die folgenden Aussagen äquivalent:
(a) det(A) 6= 0,
(b) Das Interpolationsproblem ist für jedes n-Tupel y1 , y2 , . . . , yn eindeutig lösbar,
(c) Das homogene Interpolationsproblem v(xi ) = 0, i = 1, . . . , n, hat nur die Lösung
v = 0 (Nullfunktion).
Wir wollen dies für die Interpolation durch algebraische Polynome V = Pn vom Grade
≤ n anwenden. Nach dem Hauptsatz der Algebra wissen wir, dass zu gegebenen n + 1 =
dim(Pn ) verschiedenen reellen oder komplexen Stellen xi , i = 0, . . . , n, das homogene
107
Interpolationsproblem nur das Nullpolynom als Lösung hat. Also gilt die Eigenschaft (c).
Hierzu ist (b) äquivalent. Also ist bewiesen,
|
| und n + 1 Zahlen y , . . . , y
dass es zu n + 1 verschiedenen Punkten x0 , . . . , xn in C
0
n in C
genau ein algebraisches Polynom P vom Grade ≤ n gibt mit P (xj ) = yj , j = 0, . . . , n.
Da jedes trigonometrische Polynom
T (t) =
n
X
ck eikt ,
k=−n
| ,
ck ∈ C
(∗)
vom Grade ≤ n, das nicht identisch Null ist, auf dem Intervall [0, 2π) höchstens 2n Nullstellen hat, folgt aus Satz 5.7 (Teil 3),
dass es zu 2n + 1 verschiedenen Punkten
0 ≤ t0 < t1 < · · · < t2n < 2π
| genau ein trigonometrisches Polynom T der Form (∗)
und 2n + 1 Zahlen y0 , . . . , y2n in C
gibt mit T (tj ) = yj , j = 0, . . . , 2n.
Sind die Stützstellen tj äquidistant, das heißt, ist
0 = t 0 < · · · < tj =
4πn
2πj
< · · · < t2n =
,
2n + 1
2n + 1
dann berechnet man die Koeffizienten ck des trigonometrischen Interpolationspolynoms T
durch
2n
1 X
yj e−iktj , k = −n, . . . , n.
ck =
2n + 1 j=0
108
Anhang:
Lineare Differentialgleichungen mit konstanten Koeffizienten
Wir beginnen mit der Diskussion homogener Differentialgleichungen 2. Ordnung mit kon| : Gesucht sind alle Funktionen y ∈ C 2 [a, b], y : [a, b] → C
| ,
stanten Koeffizienten a0 , a1 ∈ C
d.h. 2-mal stetig differenzierbar in [a, b], die die Differentialgleichung (DGL)
y ′′ (x) + a1 y ′ (x) + a0 y(x) = 0,
a ≤ x ≤ b,
(1)
erfüllen. Wir erkennen sofort, dass die Lösungsgesamtheit von (1) einen Unterraum von
| . Durch
C 2 [a, b] bilden, denn sind y, y1 , y2 Lösungen von (1), so auch y1 + y2 und αy, α ∈ C
den Ansatz
| ,
y(x) = eλx , λ ∈ C
versuchen wir, Lösungen von (1) zu finden. In (1) eingesetzt ergibt dies
λ2 eλx + λa1 eλx + a0 eλx = 0,
a ≤ x ≤ b.
Da eλx 6= 0, x ∈ [a, b], ist dies äquivalent zur quadratischen Gleichung
λ2 + λa1 + a0 = 0.
(2)
Wir nehmen nun an, dass a0 und a1 reell sind. Wir berechnen ∆ := (a21 )/4 − a0 . Die
Lösungen von (2) sind dann gegeben durch
−a1 √
+ ∆ ,
2
p
−a1
λ1 =
+ i |∆| ,
2
−a1 √
− ∆, falls ∆ > 0,
2
p
−a1
λ2 =
− i |∆|, falls ∆ < 0,
2
−a1
λ1 = λ2 =
falls ∆ = 0.
2
Ist ∆ = 0, so prüfen wir nach, dass die Funktion
λ1 =
λ2 =
y(x) := xeλx ,
λ :=
−a1
,
2
die DGL (1) erfüllt.
Satz 1. Seien a0 , a1 ∈ IR. Im Fall ∆ := (a21 )/4 − a0 6= 0 ist die Lösungsgesamtheit von
(1) gegeben durch
n
o
|
span{eλ1 x , eλ2 x } = y(x) = c1 eλ1 x + c2 eλ2 x : c1 , c2 ∈ C
.
Und im Falle ∆ = 0 durch
λ1 x
span{e
wobei λ := −a1 /2.
λ1 x
, xe
n
} = y(x) = c1 eλx + c2 xeλx
:
o
c1 , c2 ∈ C ,
|
Wir sind auch interessiert an den reellen Lösungen der DGL (1). Es gilt
109
Satz 2. Seien a0 , a1 ∈ IR.
Im Fall ∆ > 0 ist die reelle Lösungsgesamtheit von (1) gegeben durch
n
y(x) = c1 eλ1 x + c2 eλ2 x
o
c1 , c2 ∈ IR .
:
Im Fall ∆ < 0 ist die reelle Lösungsgesamtheit von (1) gegeben durch
n
p
p
y(x) = e−a1 x/2 c1 cos ( |∆|x) + c2 sin ( |∆|x)
Und im Falle ∆ = 0 durch
n
y(x) = e−a1 x/2 (c1 + c2 x)
:
o
c1 , c2 ∈ IR .
o
c1 , c2 ∈ IR .
:
| und β ∈ C
| gegeben. Beweisen Sie:
Seien α ∈ C
Anfangswertproblem (AWP):
In der Lösungsmenge der DGL (1) des Satzes 1 gibt es genau ein y mit y(a) = α, y ′ (a) = β.
Beispiel 1. Bestimme die Lösung des AWP
y ′′ (x) + 4y ′ (x) + 8y(x) = 0,
y(0) = 1, y ′ (0) = 0.
0 ≤ x < ∞,
Lösung: Wegen a0 = 8 und a1 = 4 ist ∆ := (a21 )/4 − a0 = −4. Nach Satz 2 hat die
gesuchte Lösung die Form
y(x) = e−2x (c1 cos (2x) + c2 sin (2x))
:
c1 , c2 ∈ IR.
Dann ist y(0) = c1 = 1 und y ′ (0) = −2 ∗ c1 + 2 ∗ c2 = 0, also c1 = c2 = 1 und
y(x) = e−2x (cos (2x) + sin (2x)) .
Randwertproblem (RWP):
Finde ein y der Lösungsmenge der DGL (1) des Satzes 1, für das y(a) = α, y(b) = β.
Beispiel 2. Es sei b > 0 gegeben. Bestimme die Lösung des RWP
y ′′ (x) + 9y(x) = 0,
0 ≤ x ≤ b,
y(0) = 0, y(b) = 1.
Lösung: Es ist a0 = 9 und a1 = 0 und somit ∆ = −9. Nach Satz 2 hat die gesuchte
Lösung die Form
y(x) = c1 cos (3x) + c2 sin (3x)
110
:
c1 , c2 ∈ IR.
Die Randbedingungen liefern
y(0) = c1 = 0
,
y(b) = c2 sin (3b) = 1.
Ergebnis: Das RWP hat eine eindeutige Lösung, wenn sin (3b) 6= 0. Im Falle sin (3b) = 0,
also b = π/3, 2π/3, . . ., besitzt das RWP keine Lösung.
Beispiel 3. Bestimme alle Lösungen des RWP
y ′′ (x) + 9y(x) = 0,
0 ≤ x ≤ π/3,
y(0) = 0, y(π/3) = 0.
Lösung: Wie in Beispiel 2 haben die gesuchten Lösungen die Form
y(x) = c1 cos (3x) + c2 sin (3x)
:
c1 , c2 ∈ IR.
Die Randbedingungen liefern y(0) = c1 = 0 und
y(π/3) = c1 cos (π) + c2 sin (π) = −c1 = 0.
Mit andern Worten: Jedes c2 ∈ IR liefert eine Lösung des RWP,
nämlich y(x) = c2 sin (3x).
Wir betrachten nun zu n ∈ IN die homogene Differentialgleichung
y (n) (x) +
n−1
X
ak y (k) (x) = 0,
k=0
a ≤ x ≤ b,
(3)
der Ordnung n mit konstanten Koeffizienten a0 , . . . , an−1 . Hierbei bedeutet y (0) (x) :=
y(x). Ähnlich wie in Satz 1 führt der Ansatz y(x) = eλx zu Lösungen von (3), und zwar
für alle Nullstellen des Polynoms
P (λ) :=
n
X
ak λk ,
an := 1.
k=0
Nach dem Hauptsatz der Algebra kann das Polynom P dargestellt werden in der Form
P (λ) =
m
Y
j=1
(λ − λj )qj .
Hierbei sind λ1 , . . . , λm die verschiedenen Nullstellen von P , und qj ∈ IN ist die algebraische Vielfachheit der Nullstelle λj von P . Die komplexe Lösungsgesamtheit von (3)
ist gegeben durch
n
| :
y : [a, b] → C
y(x) =
m
X
λj x
e
j=1
j −1
qX
k=0
111
ajk x
k
:
ajk
o
∈C .
|
Beim Anfangswertproblem der DGL (3) sind die Zahlen α0 , α1 , . . . , αn−1 gegeben.
Dann gibt es genau eine Lösung y von (3) mit
y (q)(a) = αq ,
q = 0, 1, . . . , n − 1.
Frage: Welches lineare Gleichungssystem bestehend aus n Gleichungen und n Unbekannten muß man lösen, um die Lösung y dieses Anfangswertproblems zu finden ?
Wesentlich schwieriger zu lösen sind DGLen der Form
y
(n)
(x) +
n−1
X
ak y (k) (x) = g(x),
k=0
a ≤ x ≤ b,
(4)
mit einer stetigen Funktion g, also g ∈ C[a, b]. Hat man eine Lösung y0 von (4) gefunden,
so ist die Lösungsgesamtheit von (4) gegeben durch
n
| :
y : [a, b] → C
o
y = y0 + homogene Lösungen .
Beispiel 4.(Resonanz)
Bestimme die Lösung des AWP
y ′′ (x) + 9y(x) = 18 sin (3x),
0 ≤ x < ∞,
y(0) = 0, y ′ (0) = 0.
Lösung: Die Lösung y(x) = sin (3x) − 3x cos (3x) ist nicht leicht zu finden. Wir prüfen
nach, dass y(0) = 0,
y ′ (x) = 3 cos (3x) − 3 cos (3x) + 9x sin (3x) = 9x sin (3x),
also y ′ (0) = 0, sowie
y ′′ (x) = 9 sin (3x) + 27x cos (3x)
und somit
y ′′ (x) + 9y(x) = 9 sin (3x) + 27x cos (3x) + 9 sin (3x) − 27x cos (3x) = 18 sin (3x).
finis WS 2007/08
112
Herunterladen