Mathematik für Bauingenieure

Werbung
Mathematik für Bauingenieure
Doz.Dr.rer.nat.habil. Norbert Koksch
1. Februar 2005
Kontakt:
• Willersbau C214, Telefon 34257
• Homepage: http://www.math.tu-dresden.de/~koksch
• e-mail: [email protected]
Grundlagen:
• Skripte „Mathematik für Bauingenieure“ für das Bauingenieurfernstudium an der TU
Dresden, Teil 1 und Teil 2, Professor Schirotzek.
• Vorlesung „Höhere Mathematik A“ von Prof.Dr.rer.nat.habil. Peter Beisel an der Bergischen Universität Gesamthochschule Wuppertal, Fachbereich Bauingenieurwesen Lehrgebiet Mathematik.
• Vorlesungen der Professoren Riedrich, Schirotzek, Weber, Voigt an der TU Dresden.
Literatur:
• Hofmann: Ingenieur-Mathematik für Studienanfänger: Formeln - Aufgaben -Lösungen,
Teubner Verlag Stuttgart, Leipzig, Wiesbaden
• Fischer/Schirotzek/Vetters: Lineare Algebra: Eine Einführung für Ingenieure und
Naturwissenschaftler, Teubner Verlag Stuttgart, Leipzig, Wiesbaden.
• Meyberg/Vachenauer: Höhere Mathematik 1 - Differential und Integralrechnung,
Vektor- und Matrizenrechnung. Springer Verlag Berlin 1990, ISBN 3-540-51798-7
(Standard-Begleitliteratur, Aufgabenteil ohne Lösungen).
• Burg/Haf/Wille: Höhere Mathematik für Ingenieure, Bände 1+2. Teubner Verlag
Stuttgart 1992, ISBN3-519-22955-2 (viele Beweise, weitergehende Informationen,
viele Beispiele).
• Riedrich/Vetters: Grundkurs Mathematik für Bauingenieure. Teubner Studienbücher
Bauwesen 1999, ISBN 3-519-00217-5 (Aus Lehrveranstaltungen an der TU Dresden
entstanden).
• von Finckenstein/Lehn/Schellhaas/Wegmann: Arbeitsbuch Mathematik für Ingenieure, Band 1, Teubner Verlag Stuttgart 2000, ISBN 3-519-02966-9
• von Finckenstein/Lehn/Schellhaas/Wegmann: Arbeitsbuch Mathematik für Ingenieure, Band 2, Teubner Verlag Stuttgart 2002, ISBN 3-519-02972-3
3
• Brauch/Dreyer/Haacke: Mathematik für Ingenieure, Teubner Verlag Stuttgart 1995,
ISBN 3-519-46500-0
• ...
Übungsbücher:
• Wenzel/Heinrich: Übungsaufgaben zur Analysis Ü1, Teubner Verlag Stuttgart
Leipzig 1997, ISBN 3-8154-2099-7 (MINÖL-Reihe, Grundlage für die Übungen!).
• Pforr/Oehlschlaegel/Seltmann: Übungsaufgaben zur linearen Algebra und zur linearen Optimierung, Teubner Verlag Stuttgart Leipzig. (MINÖL-Reihe, Grundlage für die Übungen!).
• Merziger/Wirth: Repetitorium der Höheren Mathematik. Binomi Verlag Springer
1999, ISBN 3-923 923-33-3 (reines Übungsbuch, riesige Menge von Beispielen und
Aufgaben mit Lösungen sowie jeweils schlagwortartig die zugrundeliegende Theorie.
Sehr empfehlenswert zum Üben).
• Furlan: Das gelbe Rechenbuch 1+2, Verlag Martina Furlan Dortmund, ISBN 3931645-00-2 (reines Rechenbuch, kompakte Theorie, Handlungsanweisungen, Rezepte).
• Gärtner/Bellmann/Lyska/Schmieder: Analysis in Fragen und Übungsaufgaben, Teubner Verlag Stuttgart 1995, ISBN 3-8154-2088-1
• ...
Nachschlagewerke:
• Hackbusch/Schwarz/Zeidler: Teubner-Taschenbuch der Mathematik, Teubner Verlag,
Wiesbaden.
• Rade/Westergren: Springers Mathematische Formeln, Springer Verlag Berlin 1996,
ISBN 3-540-60476-6 (paßt zum Buch von Vachenauer)
• Bronstein/Semendjajew: Taschenbuch der Mathematik, Verlag Harry Deutsch Frankfurt.
• ...
4
1 Grundlagen
1.1 Logik, Mengen
1.1.1 Gebrauch logischer Symbole
Eine Aussage A ist ein sinnvolles sprachliches Gebilde, das die Eigenschaft hat, entweder
wahr oder falsch zu sein.
Negation: ¬A, Ā, „nicht A“; ist wahr genau dann, wenn A falsch ist.
Konjunktion: A ∧ B, „A und B“; ist wahr genau dann, wenn A und B beide wahr sind.
Disjunktion: A ∨ B, „A oder B“; ist wahr genau dann, wenn mindestens eine der beiden
Aussagen A, B wahr ist.
Implikation: A ⇒ B, „aus A folgt B“, „A ist hinreichend für B“, „B ist notwendig für A“;
ist genau dann falsch, wenn A wahr und B falsch ist.
Äquivalenz: A ⇔ B, „A ist äquivalent zu B“, „A ist hinreichend und notwendig für B“; ist
genau dann wahr, wenn A und B stets zugleich wahr bzw. falsch sind.
Existenz-Quantor: ∃x : P(x), „es existiert ein x mit der Eigenschaft P(x)“.
All-Quantor: ∀x : P(x), „für jedes x gilt P(x)“.
1.1.2 Mengen
Menge: Zusammenfassung gewisser, wohlunterscheidbarer Dinge zu einem neuen Ganzen;
die dabei zusammengefaßten Dinge heißen die Elemente der betroffenen Menge.
Ist a ein Element der Menge M so schreibt man a ∈ M; ist a nicht Element von M, so
schreibt man a 6∈ M.
Mengengleichheit: Zwei Mengen M, N sind genau dann gleich, wenn sie die gleichen
Elemente besitzen:
M = N :⇔ (x ∈ M ⇔ x ∈ N) .
Schreibweise:
z.B. {a, b, c} für die Menge mit den Elementen a, b, c
und {x : P(x)} für die Menge aller x mit der Eigenschaft P(x).
5
1 Grundlagen
Teilmenge: M ⊆ N gilt, wenn jedes Element von M auch Element von N ist:
M⊆N
:⇔
(x ∈ M
⇒
x ∈ N) .
Leere Menge: 0/ = {} ist die Menge, die kein Element hat.
Vereinigung: M ∪ N ist die Menge aller Elemente, die in M oder N liegen:
M ∪ N := {x : x ∈ M ∨ x ∈ N} .
Durchschnitt: M ∩ N ist die Menge aller Elemente, die in M und N zugleich liegen:
M ∩ N := {x : x ∈ M ∧ x ∈ N} .
Differenz: M \ N ist die Menge aller Elemente, die in M aber nicht in N liegen:
M \ N := {x : x ∈ M ∧ x 6∈ N} .
Komplement: Sei eine Grundmenge X gegeben und sei M ⊆ X. {X M = {M = M ist die
Menge aller Elemente von X, die nicht in M liegen:
{X M = X \ M .
Kartesisches Produkt: M × N ist die Menge aller Paare aus M und N:
M × N := {(x, y) : x ∈ M ∧ y ∈ N} .
Potenzmenge: P(M), 2M ist die Menge aller Teilmengen von M:
2M := {N : N ⊆ M} .
Beachte: 0/ ∈ 2M , M ∈ 2M .
1.1.3 Zahlenmengen
* Die Menge der natürlichen Zahlen N = {0, 1, 2, 3, . . .}.
* Die Menge der ganzen Zahlen Z = {. . . , −3, −2, −1, 0, 1, 2, 3, . . .}.
* Die Menge der rationalen Zahlen Q = { qp : p, q ∈ Z, q 6= 0}. Die rationalen Zahlen sind
durch endliche oder periodisch unendliche Dezimalbrüche darstellbar.
* Die Menge der reellen Zahlen R. Die reellen Zahlen sind durch Dezimalbrüche darstellbar. Die nicht rationalen reellen Zahlen R \ Q heißen irrationale Zahlen.
* Die Menge der komplexen Zahlen C (werden später behandelt). Die komplexen Zahlen
sind durch Paare reeller Zahlen darstellbar.
6
1.2 Reelle Zahlen
Es gilt N ⊂ Z ⊂ Q ⊂ R ⊂ C .
Ist M ⊆ R, dann definieren wir
M>a := {x ∈ M : x > a} ,
M≥a := {x ∈ M : x ≥ a} ,
... .
Intervalle:
[a, b] = {x ∈ R :
]a, b[ = (a, b) = {x ∈ R :
]a, b] = (a, b] = {x ∈ R :
[a, b[ = [a, b[ = {x ∈ R :
a ≤ x ≤ b}
a < x < b}
a < x ≤ b}
a ≤ x < b}
abgeschlossenes Intervall,
offenes Intervall,
links halboffenes Intervall,
rechts halboffenes Intervall.
1.2 Reelle Zahlen
1.2.1 Eigenschaften
1.2.1.1 Algebraische Eigenschaften
Sei K ∈ {Q, R}. Die Addition + und die Multiplikation · besitzen folgende Eigenschaften
(x, y, z ∈ K):
x+y = y+x, x·y = y·x
x + (y + z) = (x + y) + z , x · (y · z) = (x · y) · z
x · (y + z) = x · y + x · z
x+0 = x
x·1 = x
∃=1 − x ∈ K (x + (−x) = 0)
∀x 6= 0 ∃=1 x−1 ∈ K (x · x−1 = 1)
(Kommutativgesetze)
(Assoziativgesetze)
(Distributivgesetz)
(0 ist neutral bzgl. Addition)
(1 ist neutral bzgl. Multiplikation)
(additiv inverse Zahl)
(multiplikativ inverse Zahl)
Subtraktion und Division sind über Addition bzw. Multiplikation definiert:
x − y := x + (−y) ,
x : y := x · y−1 .
1.2.1.2 Ordnungseigenschaften
In K ∈ {Q, R} gibt es eine Ordnungsrelation ≤ und eine Relation < definiert durch
x<y
:⇔
x ≤ y und
x 6= y
mit folgenden Eigenschaften (für x, y, z ∈ K):
7
1 Grundlagen
x≤x
(x ≤ y ∧ y ≤ x) ⇒ x = y
(x ≤ y ∧ y ≤ z) ⇒ x ≤ z
x ≤ y∨y ≤ x
x < y ⇒ ∃u ∈ K(x < u < y)
x < y ⇔ x+z < y+z
z > 0 ⇒ (x < y ⇔ x · z < y · z)
(Reflexivität)
(Antisymmetrie)
(Transitivität)
(totale Ordnung)
(Dichtheit)
(Verträglichkeit mit Addition)
(Verträglichkeit mit Multiplikation)
Damit gilt die Trichotomie-Eigenschaft, daß für je zwei Zahlen x, y ∈ K genau eine der
drei Beziehungen
x < y, x = y, x > y.
Eine Zahl x ∈ K heißt positiv, nichtnegativ, nichtpositiv bzw. negativ, wenn x > 0, x ≥ 0,
x ≤ 0 bzw. x < 0.
1.2.1.3 Vollständigkeitseigenschaft von R
Bisher haben wir die gemeinsamen Eigenschaften von Q und R aufgezählt.
Sei wieder K ∈ {Q, R}. Sei M ⊆ R. M heißt
* nach oben beschränkt, wenn ein S ∈ K existiert mit x ≤ S für alle M (S ist eine obere
Schranke von M, Beispiel: ] − ∞, 1[ mit oberen Schranken 1, 2);
* nach unten beschränkt, wenn ein s ∈ K existiert mit x ≥ s für alle x ∈ M (s ist eine
untere Schranke von M);
* beschränkt, wenn M nach unten und oben beschränkt ist.
Wenn es unter den oberen Schranken von M eine kleinste Zahl in K gibt, so heißt sie
kleinste obere Schranke oder Supremum von M in K und wird mit sup M bezeichnet.
Analog ist die größte untere Schranke oder das Infimum inf M von M in K definiert.
Im Gegensatz zu Q besitzt R folgende Vollständigkeitseigenschaft: Jede nach oben beschränkte Teilmenge M von R besitzt ein Supremum in R.
Sei M = {x ∈ K : x ≥ 0, x2 <√2} in K ∈ {Q, R}. Diese Menge besitzt kein Supremum in Q
aber in R, nämlich sup M = 2.
1.2.2 Rechnen mit Gleichungen und Ungleichungen
Ein Grundproblem der Mathematik ist die Ermittelung aller Lösungen von Systemen von
Gleichungen und Ungleichungen. Am günstigsten ist immer eine äquivalente Umformung
von Gleichungen und Ungleichungen.
8
1.2 Reelle Zahlen
1.2.2.1 Äquivalente Umformungen
Äquivalente Umformungen sind Umformungen, die die Lösungsmenge nicht verändern.
Nichtäquivalente Umformungen führen zu einer (potentiellen) Ausweitung der Lösungsmenge der Gleichungen oder Ungleichungen. Ergebnisse, die nach nichtäquivalenten Umformungen erhalten werden, müssen noch als Lösungen überprüft werden.
Folgende Regeln zur äquivalenten Umformung (für a, b, x, y, p, q ∈ R beliebig) ergeben
sich aus den Eigenschaften der reellen Zahlen:
x=y
x≤y
x≤y
x=y
⇔
⇔
⇔
⇔
x≤y
⇔
0<x≤y
⇔
x+a = y+a
x+a ≤ y+a
x + a ≤ y + b , falls a ≤ b
ax = ay , falls a 6= 0
(
ax ≤ ay , falls a > 0
ax ≥ ay , falls a < 0
1 1
0< ≤ .
y x
Folgende Regeln können zur Lösung von Gleichungen genutzt werden:
xy = 0
⇔
x=0
2
⇔
oder x = −a
r
p
p2
x=− +
− q oder
2
4
x =a
2
2
x + px + q = 0
⇔
oder
y=0
x=a
p
x=− −
2
r
p2
−q,
4
wenn p2 ≥ 4q.
Beispiel 1.2.1. Man bestimme die Lösungsmenge L der folgenden Gleichung
(x − 2)2 + x = 2 .
Es gibt mehrere Lösungswege, einer davon ist der folgende:
(x − 2)2 + x = 2
⇔ x2 − 4x + 4 + x = 2
⇔
x2 − 3x + 2 = 0
⇒
oder
und damit L = {1, 2}.
r
−3
9
x= −
+
−2 = 2
2
4
r
−3
9
x= −
−
−2 = 1,
2
4
♦
9
1 Grundlagen
1.2.2.2 Rechnen mit Beträgen
Das Rechnen mit Beträgen wird vom Anwender oft als unangenehm empfunden, da der
Begriff "Betrag" zweigeteilt definiert ist. Man kann aber alle Schwierigkeiten ausräumen,
wenn man sich stur an die Definition und die Rechenregeln hält. Diese seien im folgenden
benannt.
Definition 1.2.2. Für eine reelle Zahl a ∈ R wird der Betrag von a festgesetzt durch |a| :=
a, falls a ≥ 0 und |a| := −a, falls a < 0.
♦
Beispiel 1.2.3. Es ist |3| = 3, aber auch | − 3| = 3 = −(−3).
♦
Rechenregeln (für a, b, x ∈ R beliebig):
| − a| = |a|
−|a| ≤ a ≤ |a|
|a · b| = |a| · |b|
1
= 1
(a 6= 0)
a |a|
|a + b| ≤ |a| + |b|
(Dreiecksungleichung)
|a| ≤ |b| ⇔ −b ≤ a ≤ b oder b ≤ a ≤ −b
|x − a| ≤ b ⇔ a − b ≤ x ≤ a + b
√
a2 = |a|
|a|2 = a2
Eine Auflösung von Betragsungleichungen geschieht in der Regel durch Fallunterscheidung
oder durch Veranschaulichung auf der Zahlengeraden.
Beispiel 1.2.4. Man bestimme die Lösungsmenge L von |x + 1| + |x − 1| ≤ 2 .
Fallunterscheidung:
1. Fall: x < −1. Dann gilt
|x + 1| + |x − 1| ≤ 2
⇔
−(x + 1) − (x − 1) ≤ 2
⇔
x ≥ −1 ,
(x + 1) − (x − 1) ≤ 2
⇔
2 ≤ 2,
(x + 1) + (x − 1) ≤ 2
⇔
x ≤ 1,
und daher L1 = ] − ∞, −1[ ∩ [−1, ∞[ = 0.
/
2. Fall: −1 ≤ x < 1. Dann gilt
|x + 1| + |x − 1| ≤ 2
⇔
und daher L2 = [−1, 1[ ∩ R = [−1, 1[.
3. Fall: 1 ≤ x. Dann gilt
|x + 1| + |x − 1| ≤ 2
⇔
und daher L3 = [1, ∞[ ∩ ] − ∞, 1] = {1}.
Zusammengefaßt: L = L1 ∪ L2 ∪ L3 = [−1, 1].
10
♦
1.2 Reelle Zahlen
1.2.3 Das Induktionsprinzip und einige Anwendungen
1.2.3.1 Beweisprinzip der vollständigen Induktion
Eine Aussage A(n), die von n ∈ N abhängt, ist gültig für alle n ≥ n0 , wenn gilt:
1. (Induktionsanfang) A(n0 ) ist gültig.
2. (Induktionsschritt) Aus n ≥ n0 und der Aussage A(n) folgt die Aussage A(n + 1).
Beispiel 1.2.5. Die Ungleichung n2 ≥ n + 5 gilt für alle natürlichen Zahlen n ≥ 3.
(Beweis durch vollständige Induktion)
1. Induktionsanfang: Die Ungleichung gilt für n = n0 = 3, da
32 = 9 ≥ 8 = 3 + 5 .
2. Induktionsschritt: Die Ungleichung gelte für ein beliebiges n, d.h., es sei
n2 ≥ n + 5 .
(1.2.1)
Zu zeigen ist, daß sie dann auch für n + 1 gilt. Nun, es gilt unter Verwendung von (1.2.1)
(n + 1)2 = n2 + 2n + 1 ≥ n + 5 + 2n + 1 ≥ (n + 1) + 5 .
♦
1.2.3.2 Prinzip der rekursiven Definition
Ein Begriff, der für alle natürlichen Zahlen n ≥ n0 definiert werden soll, kann folgendermaßen festgelegt werden:
1. Definiere ihn für n = n0 .
2. Definiere ihn für n unter Zuhilfenahme der (hypothetisch) bereits erfolgten Definition für
n − 1, n − 1 ≥ n0 .
Für n ∈ N und x ∈ R definieren wir die Potenzen mit natürlichem Exponenten rekursiv
durch
x0 := 1 , xn := x · xn−1
(n ∈ N≥1 ) .
Dies findet speziell Anwendung in den folgenden drei Abschnitten.
11
1 Grundlagen
1.2.3.3 Summen- und Produktzeichen
Für vorgegebene Zahlen a0 , a1 , ..., an , ... ∈ R setzen wir rekursiv fest
n
n
∑ ai := 0
für n < 0 ,
∏ ai := 1
für n < 0 ,
i=0
n
i=0
n−1
∑ ai := an + ∑ ai =: a0 + · · · + an für n ≥ 0 ,
i=0
n
i=0
n−1
i=0
i=0
∏ ai = an · ∏ ai =: a0 · · · · · an
für n ≥ 0 .
Aus der Dreiecksungleichung folgt mit vollständiger Induktion:
n n
∑ ai ≤ ∑ |ai | .
i=0 i=0
1.2.3.4 Die Fakultäten
Für n ∈ N definieren wir n! (sprich: n-Fakultät) rekursiv durch
0! := 1 ,
n! := n · (n − 1)! =: n · (n − 1) · · · 2 · 1 für n ∈ N≥1 .
Damit gilt zum Beispiel
0! = 1 ,
1! = 1 · 0! = 1 ,
2! = 2 · 1! = 2 ,
... .
Definition 1.2.6. Sei M eine Menge. Eine Anordnung aller Elemente von M unter Beachtung der Reihenfolge und ohne Wiederholung von Elementen heißt Permutation.
♦
Beispiel 1.2.7. Es werde die Menge {1, 2, 3} betrachtet. Deren Elemente kann man in folgenden Weisen anordnen:
1−2−3,
1−3−2,
2−1−3,
2−3−1,
3−1−2,
3−2−1.
♦
Dies sind 6 = 3! Anordungen.
Satz 1.2.8. Sei n ∈ N\{0}. Dann besitzt eine n-elementige Menge genau n! Permutationen.
1.2.3.5 Binomialkoeffizienten
Für k, n ∈ N, n ≥ k setzen wir
12
n
n!
:=
.
k!(n − k)!
k
1.2 Reelle Zahlen
Rechenregeln für 1 ≤ k ≤ n:
n
n
n
n
n
n
n+1
n
n
=
= 1,
=
= n,
=
,
=
+
.
0
n
1
n−1
k
n−k
k
k−1
k
Diese Formeln sind Grundlage für das Pascalsche Dreieck:
0
0
1
k
2
k
3
k
4
k
5
k
1
1
1
1
1
1
2
3
4
5
..
.
1
1
3
6
10
1
4
10
1
5
1
..
.
1.2.3.6 Anwendungen der Binomialkoeffizienten
Definition 1.2.9. Sei M eine Menge. Die Auswahl von k Elementen von M ohne Beachtung der Reihenfolge und ohne Wiederholung von Elementen heißt Kombination zur k-ten
Klasse.
♦
Satz 1.2.10. Seien n, k ∈ N, 0 < k ≤ n. Dann gibt es nk Kombinationen einer n-elementigen
Menge zur k-ten Klasse.
Folgerung 1.2.11. Seien n, k ∈ N, 0 < k ≤ n. Dann gibt es nk verschiedene, k-elementige
Teilmengen einer n-elementigen Menge.
Beispiel 1.2.12. Lottozahlen 6 aus 49:
49
6 = 13 983 816
Möglichkeiten.
♦
Satz 1.2.13 (Binomischer Lehrsatz). Für a, b ∈ R und n ∈ N gilt
n n k n−k
n
(a + b) = ∑
ab .
k=0 k
Folgerungen:
n n k n−k
n
2 = (1 + 1) = ∑
11
=∑
,
k
k
k=0
k=0
n
n
n
n
n k
(1 + x) = ∑
x .
k
k=0
n
Folgerung 1.2.14. Die Potenzmenge 2M einer n-elementigen Menge hat 2n Elemente.
13
1 Grundlagen
1.2.4 Potenzen und Logarithmen
1.2.4.1 Potenzen
Wir definieren hier die Potenzen mit reellen Exponenten.
√
Für x ∈ R≥0 und n ∈ N≥1 sei die n-te Wurzel n x definiert als die nichtnegative Lösung der
Gleichung w der Gleichung wn = x:
√
n
Für x ∈ R>0 und r ∈ Q≥0 , r =
Exponenten durch
p
q
x := sup{v ≥ 0 : vn ≤ x} .
mit p, q ∈ N≥1 , definieren wir die Potenzen mit rationalen
p
√
q
x
1
.
xr
Schließlich seien für x ∈ R>0 , y ∈ R die Potenzen mit reellen Exponenten definiert durch

 sup{xr : r ∈ Q ∩ [0, y]} , falls y ≥ 1 ,
y
inf{xr : r ∈ Q ∩ [0, y]} , falls y ∈ [0, 1[ ,
x :=

1/x−y ,
falls y < 0 .
p
xr := x q :=
und
x−r :=
Die Definition kann zum Teil auch auf nichtpositive Basen fortgesetzt werden.
Die Potenzen zu positiven Basen a, b genügen folgenden Potenzgesetzen:
ar · as = ar+s ,
ar /as = ar−s ,
ar br = (ab)r ,
ar /br = (a/b)r ,
(ar )s = ars .
Beachte: Die Potenzgesetze gelten nicht immer für negative Basen: Zum Beispiel gilt
√
x2 = |x|
√
p
für x ∈ R und nicht x2 = x (häufiger Fehler!), z.B. (−1)2 = 1.
1.2.4.2 Logarithmen
Wir wenden uns nun der Gleichung ax = b für a > 0, a 6= 1, b > 0 zu. Man kann zeigen,
daß die Menge
M(a, b) := {x ∈ R : ax ≤ b}
nichtleer und für a > 1 von oben und für a < 1 von unten beschränkt ist. Damit existiert ihr
Supremum bzw. Infimum und wir definieren den Logarithmus von b zur Basis a durch
loga b := sup M(a, b) für a > 1
14
und
loga b := inf M(a, b) für a < 1 .
1.3 Abbildungen und Funktionen
Man kann zeigen, daß die so definierte Zahl loga b die einzige Lösung von ax = b ist, d.h.,
aloga b = b .
(1.2.2)
Aus den Potenzgesetzen ergeben sich folgende Logarithmengesetze für a, b > 0, 6= 1, x, y >
0, r ∈ R:
loga b · logb a = 1 , loga (xy) = loga x + loga y ,
loga (xr ) = r loga x , logb x = logb a · loga x .
Übliche Basen sind 10, 2 (in der Informatik) und die irrationale Zahl e = 2.71828 . . ..
1.3 Abbildungen und Funktionen
1.3.1 Allgemeine Eigenschaften von Abbildungen und Funktionen
1.3.1.1 Definition
Definition 1.3.1. Seien X, Y Mengen. Eine Teilmenge f ⊂ X ×Y heißt Abbildung aus X
in Y , wenn aus (x, y1 ) ∈ f und (x, y2 ) ∈ f stets y1 = y2 folgt.
♦
Eine Abbildung f ordnet damit Elementen x aus X genau ein Element y aus Y zu,
y = f (x)
:⇔
(x, y) ∈ f .
Die Mengen
D( f ) = {x ∈ X : ∃y ((x, y) ∈ f )} ,
graph( f ) = {(x, y) ∈ f } = f
W ( f ) = {y ∈ Y : ∃x ((x, y) ∈ f )} ,
heißen Definitions-, Wertebereich bzw. Graph von f .
Schreibweise:
f : D( f ) ⊆ X → Y ,
f : X → Y , wenn D( f ) = X ,
x 7→ f (x) für x ∈ D( f ) .
Gleichheit: Seien f : D( f ) ⊆ X → Y , g : D(g) ⊆ U → V . Dann
f =g
:⇔
(U = X) ∧ (Y = V ) ∧ (D( f ) = D(g)) ∧ ( f (x) = g(x) für x ∈ D( f )) .
Reelle Funktionen von n reellen Variablen: X = Rn , Y = R.
15
1 Grundlagen
Sei f : A → B eine Abbildung.
Bild f (A0 ) von A0 unter f :
f (A0 ) := {y ∈ B : ∃x ∈ A0 mit y = f (x)} .
Urbild f −1 (B0 ) von B0 unter f :
f −1 (B0 ) := {x ∈ A : f (x) ∈ B0 } .
Eine Abbildung f : A → B heißt:
surjektiv (oder Abbildung auf)
injektiv (oder eineindeutig)
bijektiv (oder eineindeutig auf)
:⇔
:⇔
:⇔
f (A) = B ,
(x1 6= x2 ⇒ f (x1 ) 6= f (x2 )) ,
f ist surjektiv und injektiv.
f : A → B ist nicht surjektiv, wenn es ein y ∈ B gibt, das nicht Bild eines Punktes aus A ist.
f : A → B ist nicht injektiv, wenn es zwei verschiedene Punkte x1 , x2 ∈ A mit gleichem
Bildwert f (x1 ) = f (x2 ) gibt.
Streng monotone Funktionen sind injektiv.
1.3.1.2 Zusammensetzung von Funktionen
Wir bilden folgende Zusammensetzungen von Funktionen mit dem sich natürlich ergebenden Definitionsbereich.
Seien dazu f und g reelle Funktionen mit Definitionsbereichen D( f ) bzw. D(g) und sei
λ ∈ R. Man setzt
Summe
Differenz
Produkt
Quotient
( f + g)(x) := f (x) + g(x)
auf
D( f + g) := D( f ) ∩ D(g)
( f − g)(x) := f (x) − g(x)
auf
D( f − g) := D( f ) ∩ D(g)
( f · g)(x) := f (x) · g(x)
auf
D( f · g) := D( f ) ∩ D(g)
f (x)
f
f
(x) :=
auf
D( ) := (D( f ) ∩ D(g)) \ {x ∈ D(g) : g(x) = 0}
g
g(x)
g
und
skalares Vielfaches
(λ f )(x) := λ · f (x)
auf
D(λ f ) := D( f ) .
Schließlich definieren wir für f : D( f ) ⊆ X → Y , g : D(g) ⊆ Y → Z die Komposition
(zusammengesetzte Funktion) g ◦ f durch
Komposition
16
(g ◦ f )(x) := g( f (x))
auf
D(g ◦ f ) := f −1 (D(g)) ⊆ D( f ) .
1.3 Abbildungen und Funktionen
1.3.1.3 Umkehrabbildungen
Definition 1.3.2. g : D(g) ⊆ Y → X heißt Umkehrabbildung oder inverse Abbildung zu
f : D( f ) ⊆ X → Y , wenn D(g) = f (X), D( f ) = g(Y ) und g( f (x)) = x für x ∈ D( f ).
Sie wird mit f −1 bezeichnet.
♦
Satz 1.3.3 (Umkehrabbildung). Ist f : A → B bijektiv, so existiert die zu f inverse Abbildung f −1 : B → A.
Ist f : A → B bijektiv, so erhält man f −1 : B → A durch:
y = f (x) nach x auflösen:
x = f −1 (y)
x und y formal vertauschen: y = f −1 (x)
1.
2.
Für eine Funktion f erhält man graph f −1 durch Spiegelung von graph f an der Geraden
x = y.
1.3.2 Elementare Funktionen
1.3.2.1 Potenzfunktionen
Wir definieren die Potenzfunktion potr zum Exponenten r ∈ R durch
potr : R>0 → R>0 ,
x 7→ xr
Die Potenzgesetze ergeben entsprechende Eigenschaften der Potenzfunktion, z.B.
y
10
Wegen
x2
8
1
1
potr (pot1/r x) = (x r )r = x r r = x
für x > 0 ,
6
√
4
ist pot 1 die Umkehrfunktion zu potr .
r
x
2
2
4
6
8
10
x
1.3.2.2 Polynome und gebrochen-rationale Funktionen
Seien n ∈ N, a0 , . . . , an ∈ R. Dann ist p : R → R mit
p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0
ein Polynom.
Gilt an 6= 0 oder n = 0, so heißt n der Grad deg p des Polynoms.
17
1 Grundlagen
Gilt p(x0 ) = 0, so heißt x0 eine Nullstelle von p.
Eine Funktion R : D(R) ⊆ R → R heißt gebrochen-rationale Funktion, wenn Polynome p
und q existieren, so daß
p(x)
R(x) =
für x ∈ D(R) .
q(x)
(Insbesondere muß q so existieren, daß q(x) 6= 0 für x ∈ D(R).)
R heißt echt-gebrochen, wenn deg p < deg q.
Eine Zahl x0 ∈ D(R) heißt Nullstelle von R, wenn R(x0 ) = 0, d.h., p(x0 ) = 0.
Eine Zahl x0 6∈ D(R) heißt Polstelle von R, wenn p und q so existieren, daß p(x0 ) 6= 0 und
q(x0 ) = 0.
1.3.2.3 Trigonometrische Funktionen (Kreisfunktionen)
Dies sind sin : R → R, cos : R → R und die daraus abgeleiteten Funktionen tan, cot, sec,
cosec, wobei
b
,
c
b
tan β = =
a
c
secβ = =
a
sin β =
cos β =
a
,
c
sin β
,
cos β
1
,
cos β
a cos β
cot β = =
,
b
sin β
c
1
cosecβ = =
.
b sin β
c
β
a
b
Der Winkel α ist dabei im Bogenmaß zu nehmen: 2π = 360◦ .
Wertetabelle:
x
cos x
sin x
0
0√◦
1
2 √4
1
2 0
π
6
◦
30
√
1
2 √3
1
2 1
π
4
◦
45
√
1
2 √2
1
2 2
π
3
◦
60
√
1
2 √1
1
2 3
π
2
◦
90
√
1
2 √0
1
2 4
Wichtigste Eigenschaften:
Symmetrie:
Additionstheoreme:
Periodizität:
18
sin(−x) = − sin x ,
cos(−x) = cos(x) ,
sin2 x + cos2 x = 1 ,
sin(x + y) = sin x cos y + cos x sin y ,
cos(x + y) = cos x cos y − sin x sin y ,
sin(π − x) = sin x , sin(x + 2kπ) = sin(x) ,
cos(π − x) = − cos x , cos(x + 2kπ) = cos(x) .
1.3 Abbildungen und Funktionen
Weitere Eigenschaften siehe in einer Formelsammlung.
Umkehrfunktionen zu den trigonometrischen Funktionen können nur auf Monotonieintervallen definiert werden:
y
1
• Die Einschränkung sin [− π , π ] der Sinusfunktion auf
2 2
das Intervall [− π2 , π2 ] ist streng monoton wachsend mit
dem Bildbereich [−1, 1].
-3
-2
sin x
-1
1
2
x
3
-1
y
1
Daher existiert dazu die Umkehrfunktion
-1
π π
arcsin : [−1, 1] → [− , ] ,
2 2
1
arcsin x
-1
x
Arcussinus genannt.
y
1
• Die Einschränkung cos [0,π] der Cosinusfunktion auf
das Intervall [0, π] ist streng monoton fallend mit dem
Bildbereich [−1, 1].
cos x
-1
1
2
3
x
4
-1
y
3
2
Daher existiert dazu die Umkehrfunktion
arccos x
1
arccos : [−1, 1] → [0, π] ,
-1
1
x
Arcuscosinus genannt.
y
tan x
5
• Die Einschränkung tan ]− π , π [ der Tangensfunktion
2 2
auf das Intervall ] − π2 , π2 [ ist streng monoton wachsend
mit dem Bildbereich ] − ∞, ∞[.
-3
-2
-1
1
2
3
x
-5
19
1 Grundlagen
y
Daher existiert dazu die Umkehrfunktion
1
π π
arctan : ] − ∞, ∞[ → ] − , [ .
2 2
arctan x
-4
-2
Arcustangens genannt.
2
x
4
-1
1.3.2.4 Logarithmus- und Exponentialfunktion
y
20
15
Die Exponentialfunktion zur Basis b > 0 ist definiert durch
expb : R → R>0 ,
10
x 7→ expb (x) := bx .
5
-4
-2
0
2
4
x
Eigenschaften ergeben sich aus den Potenzgesetzen.
y
2
Die Logarithmusfunktion zur Basis b > 0, b 6= 1 ist definiert
durch
logb : R>0 → R , x 7→ logb x .
1
1
2
3
4
5
x
-1
-2
Eigenschaften ergeben sich aus den Logarithmengesetzen.
Insbesondere gilt
expb (logb x) = x
für x ∈ R>0
und
logb (expb x) = x
für x ∈ R .
Damit sind expb und logb Umkehrfunktionen zueinander.
1.3.2.5 Hyperbelfunktionen
Eine besondere Rolle spielen die natürlichen Exponential- bzw. Logarithmusfunktion
exp := expe ,
ln := loge
mit der Basis e = 2.71828 . . . (diese Zahl wird später genau definiert).
Mit Hilfe der Exponentialfunktion können weitere Funktionen gebildet werden, die für die
Technik Bedeutung haben. Die bekanntesten sind die Hyperbelfunktionen.
20
1.3 Abbildungen und Funktionen
Sinus hyperbolicus sinh : R → R und Cosinus hyperbolicus cosh : R → R≥1 sind definiert
durch
ex − e−x
ex + e−x
sinh x =
, cosh x =
.
2
2
y
60
y
40
40
30
20
-4
sinh
2 x
-2
4
x
20
10
-20
-40
-4
-2
2
4
x
-60
Sie haben Eigenschaften, die sehr stark an Sinus und Cosinus erinnern, obwohl sie mit
diesen Funktionen nicht direkt etwas zu tun haben:
Symmetrie :
Additionstheoreme:
sinh(−x) = − sinh x ,
2
cosh(−x) = cosh(x) ,
2
cosh x − sinh x = 1 ,
sinh(x + y) = sinh x cosh y + cosh x sinh y ,
cosh(x + y) = cosh x cosh y + sinh x sinh y .
All diese Eigenschaften leiten sich unmittelbar aus den Definitionen her. Beachte sinh(0) =
0 und cosh(0) = 1.
Ein schönes Anwendungsbeispiel für die Hyperbelfunktionen ist
Beispiel 1.3.4. Ein homogenes, an seinen Endpunkten aufgehängtes, nur durch sein Eigengewicht belastetes Seil hat die Form einer Kettenlinie
x−b
+c.
y(x) = a cosh
a
♦
Hierin sind a, b, c konstant, a > 0.
1.3.2.6 Areafunktionen
Die Umkehrfunktionen von sinh und cosh R heißen Area sinus hyperbolicus bzw. Area
≥0
cosinus hyperbolicus,
arsinh : R → R ,
arcosh : [1, ∞[ → R≥0 .
So wie sinh und cosh durch die exp-Funktion ausgedrückt werden, können die Area-Funktionen durch die Logarithmusfunktion beschrieben werden. Wir sehen dies durch Auflösen
21
1 Grundlagen
der Gleichungen
y = sinh x
bzw.
y = cosh x
nach x. Es gilt
ex − e−x
y = sinh x ⇐⇒ y =
⇐⇒ ex − 2y = e−x ⇐⇒ (ex )2 − 2yex = 1
2p
p
x
⇐⇒ e = y + y2 + 1 oder ex = y − y2 + 1 .
Dabei kannp
das „−“-Zeichen nicht wirklich auftreten, da
x = ln(y + y2 + 1).
p
y2 + 1 > y und ex > 0. Also gilt
Damit hat man
p
2
arsinh x = ln x + x + 1
p
arcosh x = ln x + x2 − 1
22
und entsprechend
(x ≥ 1) .
2 Polynome und rationale Funktionen
Gleichungen spielen auch in der Ingenieurmathematik eine große Rolle. Sie beschreiben
zum Beispiel
• Bedingungen, unter denen Vorgänge ablaufen,
• Gleichgewichtszustände,
• Punktmengen.
Gleichungen für eine unbekannte Variable kann man auf die Form
f (x) = 0
mit einer Funktion f : D( f ) ⊆ R → R bringen. Gesucht sind dann alle x0 ∈ D( f ) mit
f (x0 ) = 0. Solche Zahlen x0 heißen Nullstellen von f . Gleichungen zu lösen ist also gleichbedeutend damit, Nullstellen von Funktionen zu berechnen. Eine Lösung einer Gleichung
heißt auch Wurzel der Gleichung.
Im folgenden beschäftigen wir uns zunächst mit dem einfachsten Typ von Funktionen, den
Polynomen und versuchen, zu diesen Nullstellen zu berechnen.
2.1 Polynome
Ein Polynom f ist eine Funktion f : R → R mit
f (x) = a0 + a1 x + a2 x2 + . . . + an xn
für x ∈ R ,
wobei n ∈ N, und a0 , . . . , an ∈ R. Die Zahlen ai heißen Koeffizienten des Polynoms, falls
an 6= 0 oder n = 0, heißt n der Grad des Polynoms, n = deg( f ).
Beispiel 2.1.1. f : R → R mit f (x) = 2 ist ein Polynom nullten Grades, g : R → R mit
g(x) = 3x2 + 5 ist ein Polynom zweiten Grades.
♦
23
2 Polynome und rationale Funktionen
2.1.1 Koeffizientenvergleich
Polynome sind in ihrer Darstellung eindeutig:
Satz 2.1.2 (Eindeutigkeit der Darstellung). Seien f , g : R → R Polynome mit
f (x) = a0 + a1 x + · · · + an xn ,
g(x) = b0 + b1 x + · · · + bm xm .
Gilt f (x) = g(x) für alle x aus einem offenem Intervall ]a, b[, a < b, dann gilt m = n, ai = bi
für alle i = 0, . . . , n, und damit auch f (x) = g(x) für alle x ∈ R.
Die im Satz beschriebene Feststellung der Gleichheit der Koeffizienten beider Polynome
nennt man Koeffizientenvergleich.
2.1.2 Hornerschema
Satz 2.1.3. Seien ein Polynom f (x) = a0 + a1 x + · · · + an xn und eine Zahl x0 ∈ R gegeben.
Dann gilt
f (x) = (x − x0 )(c1 + c2 x + · · · + cn xn−1 ) + c0
für x ∈ R ,
wobei die Zahlen c0 , . . . , cn sich in folgender Weise bestimmen:
cn := an ,
ck := ck+1 x0 + ak
für k = n − 1, n − 2, . . . , 0
(2.1.1)
Beweis. Durch Ausmultiplizieren findet man
(x − x0 )(c1 + c2 x + . . . + cn xn−1 ) + c0
= c1 x + c2 x2 + · · · + cn xn − c1 x0 − c2 xx0 − · · · − cn xn−1 x0 + c0
= (c0 − c1 x0 ) + (c1 − c2 x0 )x + · · · + (cn−1 − cn x0 )xn−1 + cn xn
= a0 + a1 x + · · · + an−1 xn−1 + an xn .
Bemerkung 2.1.4. Es gilt f (x0 ) = c0 mit c0 aus (2.1.1). Man kann also den Funktionswert
c0 = f (x0 ) eines Polynoms f an der Stelle x0 durch (2.1.1) berechnen. Dazu sind nur n
Multiplikationen und n Additionen nötig. Insbesondere muß so keine einzige höhere Potenz
berechnet werden. Damit ist dieses Verfahren numerisch sehr günstig.
♦
Für die praktische Berechnung der Zahlen c0 , . . . , cn ist ein spezielles Rechenschema, das
Hornerschema, üblich:
an
+
=
24
cn
an−1
cn x0
cn−1
an−2
cn−1 x0
cn−2
...
a1
. . . c2 x0
...
c1
a0
c1 x0
c0
2.1 Polynome
Beispiel 2.1.5. Mit f (x) = x2 − 6x + 9, x0 = 3 erhalten wir
1
+
= 1
−6
1·3
−3
9
−3 · 3
0
und damit f (x) = (x − 3)(x − 3) + 0 = (x − 3)2 , also f (3) = c0 = 0.
2.1.3 Faktorisierung von Polynomen
Aus Satz 2.1.3 folgt: Ist x0 eine Nullstelle von f , so gilt immer c0 = f (x0 ) = 0 und f besitzt
die Darstellung
f (x) = (x − x0 ) · g(x) ,
wobei g ein Polynom (n − 1)-ten Grades
g(x) = c1 + c2 x + · · · + cn xn−1
ist. Iterierte Anwendung dieser Aussage führt zu folgendem Satz.
Satz 2.1.6 (Faktorisierungssatz). Jedes Polynom n-ten Grades, n ≥ 1, besitzt eine Darstellung
f (x) = (x − x1 )`1 · (x − x2 )`2 · · · · · (x − xs )`s · g(x) ,
wobei x1 , . . . , xs genau die Nullstellen von f sind, `1 + . . . . . . + `s ≤ n gilt und g ein nullstellenfreies Polynom vom Grad n − (`1 + `2 + . . . + `s ) ist. Diese Darstellung ist bis auf
Vertauschung der Faktoren eindeutig.
Bezeichnung: Wir nennen die Faktoren (x − xi ), i = 1, . . . , s, die Linearfaktoren des Polynoms. Ferner nennen wir ` j die Vielfachheit der Nullstelle x j von f .
Folgerung 2.1.7. Jedes Polynom n-ten Grades, n ≥ 1, hat höchstens n Nullstellen.
In Erweiterung des Faktorierungssatzes 2.1.6 kann bewiesen werden:
Satz 2.1.8. Ist g ein nichtkonstantes nullstellenfreies Polynom, so gibt es eine Darstellung
von g als Produkt von lauter Polynomen zweiten Grades (i.a. nicht eindeutig).
Folgerung 2.1.9. Jedes Polynom ungeraden Grades besitzt mindestens eine Nullstelle.
25
2 Polynome und rationale Funktionen
2.2 Nullstellenberechnung
2.2.1 Polynome nullten Grades
Ein Polynom f nullten Grades ist eine konstante Funktion,
f (x) = a0
für x ∈ R .
Sie hat genau dann eine Nullstelle, wenn a0 = 0. In diesem Fall ist jedes x ∈ R Nullstelle
von f .
2.2.2 Polynome ersten Grades
Ein Polynom f ersten Grades hat die Form
für x ∈ R
f (x) = a0 + a1 x
mit a1 6= 0. Aus der Gleichung
0 = f (x0 ) = a0 + a1 x0
erhalten wir
a1 x0 = −a0 ,
x0 = −
a0
a1
für die einzige Nullstelle von f .
2.2.3 Polynome zweiten Grades
Ein Polynom f zweiten Grades hat die Form
f (x) = a0 + a1 x + a2 x2
für x ∈ R
mit a2 6= 0. Mit Division durch a2 bringt man die Gleichung f (x) = 0 in folgende Normalform:
x2 + px + q = 0
(2.2.1)
mit
p :=
Genau dann, wenn
26
p2
4
a1
,
a2
q :=
a0
.
a2
− q ≥ 0, hat (2.2.1) die Lösungen x1 und x2 mit
r
p
p2
x1,2 = − ±
−q,
2
4
2.2 Nullstellenberechnung
wobei x1 = x2 , wenn
p2
4
= q (in diesem Fall ist x1 = − 2p zweifache Nullstelle).
Daß x1 und x2 tatsächlich Lösungen sind, sieht man durch
!
!
r
r
p
p2
p
p2
(x − x1 )(x − x2 ) = [x + ] −
−q
[x + ] +
−q
2
4
2
4
p2
p2 p2
p
= (x + )2 − ( − q) = x2 + px + − + q
2
4
4
4
2
= x + px + q .
Ist
p2
4
− q < 0, so ist g(x) = x2 + px + q nullstellenfrei.
2.2.4 Polynome höheren Grades
Für Polynome dritten und vierten Grades gibt es Lösungsformeln, aber wesentlich komplizierter als für Polynome zweiten Grades.
Für Polynome höheren als vierten Grades gibt es im allgemeinen keine Formel für die Nullstellen nur unter Verwendung von Radikalen, d.h., Ausdrücken welche neben den Grundrechenoperation auch Wurzeln enthalten können.
Für Polynome von höherem als zweiten Grades gibt es daher im wesentlichen nur zwei
Methoden:
1. Methode: Raten einer Nullstelle und Abspalten eines Linearfaktors (z.B. mit Hornerschema). Das entstehende Restpolynom hat dann einen um 1 verringerten Grad.
Beispiel 2.2.1. Das Polynom f (x) = 4 − 4x − 3x2 + 2x3 + x4 hat augenscheinlich die Nullstelle x1 = 1. Mit dem Hornerschema erhält man f (x) = (x − 1)(x3 + 3x2 − 4). Der
Faktor h(x) = x3 + 3x2 − 4 hat ebenfalls die Nullstelle x2 = 1. Mit dem Hornerschema ergibt sich h(x) = (x − 1)(x2 + 4x + 4) und über die (p, q)-Formel erhält man weiter
x2 + 4x + 4 = (x + 2)(x + 2). Damit ergeben sich für f zwei zweifache Nullstellen x1 = 1,
x2 = −2 und die Zerlegung f (x) = (x − 1)2 (x + 2)2 .
♦
2. Methode: Verwendung numerischer Näherungsverfahren zur näherungsweise Berechnung der Nullstellen.
2.2.4.1 Raten von Nullstellen
Wir betrachten ein Polynom
f (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ,
an = 1
27
2 Polynome und rationale Funktionen
und nehmen an, daß es n Nullstellen besitzt, d.h.
n
f (x) = ∏(x − xi )
i=1
mit xi als den (eventuell mehrfach aufgeführten) Nullstellen von f . Durch Ausmultiplizieren des Produktes erhält man
Satz 2.2.2 (Vietascher Wurzelsatz). Unter obigen Voraussetzungen sind x1 , . . . , xn genau
dann Nullstellen von f , wenn
n
∑ xi = −an−1 ,
i=1
... ,
n
∑
n
xi x j = an−2 ,
i, j=1 ,i< j
∑
xi x j xk = −an−3 ,
i, j,k=1 ,i< j<k
x1 x2 · · · xn = (−1)n a0 .
Folgerung 2.2.3. Seien die Koeffizienten a0 , . . . , an−1 des Polynoms f ganzzahlig. Wenn f
genau n ganzzahlige Lösungen xi hat, dann sind diese Teiler von a0 .
Beachte: Jede ganze Zahl (auch 0) zählt hier als Teiler von 0.
Eine noch bessere Möglickeit zum Raten rationaler Nullstellen eines Polynoms mit ganzzahligen Koeffizienten liefert der folgende Satz:
Satz 2.2.4. Die rationalen Nullstellen eines Polynoms f (x) = a0 + a1 x + · · · + an xn mit
ganzzahligen Koeffizienten a0 , . . . , an findet man unter den Brüchen qp (p, q ∈ Z, teilerfremd),
in denen p ein Teiler von a0 und q ein Teiler von an ist.
Beweis. Sei x0 =
p
q
eine Nullstelle von f mit teilerfremden p, q ∈ Z. Dann gilt
0 = a0 + a1 x0 + · · · + an x0n
p
= a0 + a1 + · · · + an
q
n
p
q
und damit
0 = a0 qn + a1 pqn−1 + · · · + an pn .
Ab dem zweiten Summanden sind alle durch p teilbar. Da p und q teilerfremd sind, muß a0
auch durch p teilbar sein. Bis zum vorletzten Summanden sind alle durch q teilbar, folglich
muß auch an durch q teilbar sein.
Beispiel 2.2.5. Wir betrachten das Polynom
f (x) = 12x4 − 4x3 + 6x2 + x − 1 .
28
2.2 Nullstellenberechnung
Für eine rationale Nullstelle x0 = qp muß p Teiler von 1 und q Teiler von 12 sein. Rationale
Nullstellen befinden sich damit in der Menge
1 1 1 1 1 1 1 1 1
1
1, −1, , − , , − , , − , , − , , −
.
2 2 3 3 4 4 6 6 12 12
Man überprüft: f ( 31 ) = 0 und findet die Zerlegung f (x) = (3x − 1)(4x3 + 2x + 1). Weitere
rationale Nullstellen können also nur noch 1, −1, 12 , − 21 , 14 oder - 14 sein. Man überprüft,
daß keine dieser Zahlen Nullstellen von h(x) = 4x3 + 2x + 1 ist. (h besitzt nur noch eine
Nullstelle zwischen − 21 und − 14 ).
♦
2.2.4.2 Bisektionsverfahren
Im folgenden beschreiben wir das Bisektionsverfahren als ein Verfahren zur näherungsweisen Bestimmung einer Nullstelle eines Polynoms f . Grundlage für die Anwendung ist der
Zwischenwertsatz für stetige Funktionen, den wir erst später behandeln.
Zu lösen ist die Gleichung f (x) = 0. Es sei eine Stelle x = a bekannt, für die f (a) < 0, und
eine Stelle x = b > a, für die f (b) > 0 gelte. Dann muß nach dem Zwischenwertsatz (siehe
später!) zwischen a und b eine Nullstelle von f liegen. Sei c das arithmetische Mittel von
a und b, d.h., c = a+b
2 . Wir haben nun drei Fälle zu unterscheiden:
• Gilt f (c) = 0, so ist eine Lösung der Gleichung gefunden.
• Gilt f (c) > 0, so liegt nach dem gleichen Argument eine Nullstelle von f zwischen
a und c. Man betrachtet nun [a, c] als Ausgangsintervall und untersucht als Nächstes
das arithmetische Mittel von a und c.
• Gilt f (c) < 0, so liegt eine Nullstelle zwischen c und b. Hier betrachtet man [c, b] als
neues Ausgangsintervall und untersucht als Nächstes das arithmetische Mittel von c
und b.
Führt man dies iteriert fort, so halbiert sich bei jedem Schritt die Breite des Intervalls, in
dem eine Nullstelle liegen muß. Durch diese Art der Intervallschachtelung kann daher
eine Lösung der Gleichung beliebig angenähert werden.
Beispiel 2.2.6. Wir betrachten das Polynom f (x) = x3 + x + 1. Als Polynom 3. Grades
besitzt f mindestens eine Nullstelle. Man stellt durch Einsetzen fest:
f (−1) = −1
und
f (1) = 3 .
29
2 Polynome und rationale Funktionen
Also liegt eine Nullstelle von f im Intervall ] − 1, 1[. Wir starten das Bisektionsverfahren
und bezeichnen den linken, rechten und mitteleren Punkt jeweils mit a, b beziehungsweise
c:
a
b
c
f (c)
−1
1
0
1
−1
0
−0.5
0.375
−1
−0.5
−0.75
−0.1719
−0.75
−0.5
−0.625
0.1309
−0.75
−0.625 −0.6875 −0.0125
−0.6875 −0.625 −0.65625 0.0611 .
Nach weiteren Schritten ermittelt man (auf 4 gesicherte Dezimalen) als Nullstelle
x0 = −0.6823 .
♦
Bemerkung 2.2.7. 1. Das Verfahren funktioniert nur schlecht, wenn die Nullstelle eine
mehrfache Nullstelle ist.
2. Das Verfahren funktioniert nicht nur bei Polynomen. Benötigt wird die Stetigkeit von f
und zwei Stellen a und b mit f (a) f (b) < 0.
♦
2.3 Rationale Funktionen
Addiert, subtrahiert oder multipliziert man Polynome, so entstehen wieder Polynome. Anders ist dies bei der Division. Eine Funktion f : D( f ) ⊆ R → R mit
f (x) =
an xn + an−1 xn−1 + . . . + a1 x + a0
p(x)
=
q(x) bm xm + bm−1 xm−1 + . . . + b1 x + b0
für x ∈ D( f ) := {t ∈ R : q(t) 6= 0}
nennen wir rationale Funktion. Polynome sind spezielle rationale Funktionen, die mit
q(x) = 1 entstehen.
Fragen:
• Vereinfachung des Bruches (Zerlegung in ganzen Anteil und echt gebrochenen Anteil, Kürzen)
• Nullstellen, Polstellen
• Zerlegung in Elementarbrüche (Partialbruchzerlegung)
30
2.3 Rationale Funktionen
2.3.1 Polynomdivision
Eine Vereinfachung von rationalen Funktionen ergibt sich über die Polynomdivision, bei
der man entsprechend der schriftlichen Division reeller Zahlen vorgeht. Dabei teilt man
den Zähler p einer rationalen Funktion durch den Nenner q, sofern ersterer keinen niederen Grad besitzt: deg(p) ≥ deg(q) ≥ 1. Dadurch entsteht eine Darstellung der rationalen
Funktion als Summe eines ganzen Anteils h (ein Polynom vom Grad < deg(p)) und eines
(gebrochen) rationalen Anteils qr (bei dem deg(r) < deg(q) gilt):
f (x) =
Beispiel 2.3.1. Für f (x) =
(3x3
−| 3x3
2x2
9x2
11x2
−| 11x2
+
−
3x3 +2x2 −x+1
x−3
−
p(x)
r(x)
= h(x) +
.
q(x)
q(x)
rechnet man
x + 1)
(x − 3)
:
=
97
3x2 + 11x + 32 + x−3
.
−
x
− 33x
32x + 1
−| 32x − 96
97
97
Daher ist f (x) = 3x2 + 11x + 32 + x−3
.
♦
2.3.2 Nullstellen rationaler Funktionen
Eine Nullstelle einer rationalen Funktion f = qp ist wieder eine Zahl x0 ∈ D( f ) mit f (x0 ) =
0. Dafür ist p(x0 ) = 0 notwendig aber nicht hinreichend. Ist nämlich gleichzeitig q(x0 ) = 0,
so ist x0 6∈ D( f ).
Zu fragen wäre nun, ob man dann nicht in p und q den Faktor (x − x0 ) abspalten und damit
kürzen könnte. Damit wird aber der Definitionsbereich von f und damit eigentlich auch f
verändert.
Damit dieser Effekt nicht auftritt, nehmen wir nun an, daß wir f = qp mit teilerfremden
Polynomen p und q haben. Dabei nennen wir p und q teilerfremd, wenn kein Polynom d
mit deg(d) > 0 existiert, so daß
p(x) = d(x) · p1 (x) ,
q(x) = d(x) · q1 (x)
mit Polynomen p1 und q1 gilt. Unter diesen Voraussetzungen haben wir nun:
31
2 Polynome und rationale Funktionen
• Ist x0 eine Nullstelle von p, so ist x0 auch eine Nullstelle von f . Ist x0 eine `-fache
Nullstelle von p, so nennen wir x0 auch eine `-fache Nullstelle von f .
• Ist x0 eine `-fache Nullstelle von q, so nennen wir x0 eine `-fache Polstelle von f .
2.3.3 Euklidischer Algorithmus
Eine Idee zum Kürzen von p und q wäre, die Nullstellen von p und q zu bestimmen und p
und q entsprechend Satz 2.1.6 zu faktorisieren:
p(x) = (x − x1 )`1 · (x − x2 )`2 · . . . · (x − xs )`s · g(x) ,
q(x) = (x − y1 )m1 · (x − y2 )m2 · . . . · (x − yr )mr · h(x) .
Faktoren zu gleichen Nullstellen können entsprechend der Vielfachheit gekürzt werden.
Problem: 1. Auch g und h könnten noch gemeinsame Teiler besitzen.
2. Die Bestimmung der Nullstellen ist meistens kompliziert.
Erfreulicherweise kann man jedoch rationale Funktion mit Hilfe der Polynomdivision in
einen gekürzten Zustand überführen. Seien dazu p und q Polynome.
Ohne Beschränkung der Allgemeinheit sei deg(p) ≥ deg(q) > 0. Man bildet nun eine Kette
von Divisionen mit Rest (Euklidischer Algorithmus für Polynome):
Setze:
Bestimme rekusiv qi für i ≥ 1 aus:
Abbruchkriterium:
q−1 := p , q0 := q ;
qi−2 (x) = qi−1 (x) · ti (x) + qi (x) ;
qi = 0 .
Da deg(q) = deg(q0 ) > deg(q1 ) > · · · > deg(qs ), muß ein s = i < n existieren mit qs = 0,
so daß das Verfahren stets abbricht.
Satz 2.3.2. Seien p und q Polynome mit deg(p) ≥ deg(q) > 0. Seien die Polynome qi ,
i = −1, . . . , s, nach obigen Verfahren bestimmt mit qs = 0. Dann ist qs−1 gradmäßig größter
gemeinsamer Teiler von p und q.
Sei zum Beispiel s = 3. Wir haben dann
q(x) = q0 (x) = q1 (x)t1 (x) + q2 (x)
= q2 (x)t2 (x)t1 (x) + q2 (x) = q2 (x) [t2 (x)t1 (x) + 1]
und
p(x) = q−1 (x) = q0 (x) · t0 (x) + q1 (x)
= q2 (x)(t2 (x)t1 (x) + 1)t0 (x) + q2 (x) · t2 (x) = q2 (x) · [t2 (x) · t1 (x) · t0 (x) + t0 (x) + t2 (x)] .
Wir erläutern die Methode über ein Beispiel.
32
2.3 Rationale Funktionen
2
Beispiel 2.3.3. Sei f (x) = xx3 −3x+2
. Wir müssen also p(x) = q−1 (x) = x3 − 2x + 1 und
−2x+1
q(x) = q0 (x) = x2 − 3x + 2 betrachten. Im ersten Schritt (für i = 1) erhalten wir
(x3 − 2x + 1) : (x2 − 3x + 2) = x + 3 +
5x − 5
x2 − 3x + 2
und damit t1 (x) = x + 3, q1 (x) = 5x − 5. Im zweiten Schritt (i = 2) erhalten wir
1
2
(x2 − 3x + 2) : (5x − 5) = x −
5
5
und daher t2 (x) = 15 x − 52 , q2 (x) = 0.
Der gradmäßig größte gemeinsame Teiler von x2 − 3x + 2 und x3 − 2x + 1 ist demnach
q1 (x) = 5x − 5 bzw. x − 1.
Mit (x2 − 3x + 2) : (x − 1) = x − 2 und (x3 − 2x + 1) : (x − 1) = x2 + x − 1 erhalten wir aus
f die gekürzte Form
x−2
.
♦
x2 + x − 1
33
2 Polynome und rationale Funktionen
34
3 Vektorräume und Analytische
Geometrie
Vektorräume sind in gewisser Weise Verallgemeinerungen der Zahlenmengen. So gibt
es in einem Vektorraum eine Addition mit Eigenschaften analog der für die reellen Zahlen. Außerdem kann man Vektoren durch die Multiplikation mit reellen Zahlen stauchen
oder dehnen. Eine Multiplikation mit den von den reellen Zahlen gewohnten Eigenschaften gibt es jedoch im allgemeinen nicht. Daher werden verschiedene Arten von ErsatzMultiplikationen (Vektoren mit Zahlen oder Vektoren mit Vektoren) betrachtet.
Vektoren erlauben vielfältige innermathematische Anwendungen wie in der Geometrie oder
Analysis, sowie auch außermathematische Anwendungen z.B. in der Mechanik. Je nach
Anwendung haben sie unterschiedliche Formen.
3.1 Elementare Theorie der Vektorräume
Hier betrachten wir die gemeinsamen Eigenschaften, d.h., abstrakte Vektorräume. Wir werden sehen, daß die uns interessierenden Vektorräume mit Hilfe von Vektorräumen reeller
n-Tupel beschrieben werden können. Daher beschäftigen wir uns auch vorrangig mit diesen
speziellen Vektorräumen.
3.1.1 Vektorraum Rn von reellen n-Tupeln
Sei n ∈ N>0 . Wir betrachten die Menge
Rn := Xni=1 R = |R × ·{z
· · × R} = {(x1 , . . . , xn ) : xi ∈ R}
n−mal
der reellen n-Tupel.
In Rn definiert man die Addition von Elementen x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) und die
Multiplikation mit einem Skalar (reeller Zahl) λ ∈ R durch
x + y := (x1 + y1 , . . . , xn + yn ) und
λ · x := (λ x1 , . . . , λ xn ) .
35
3 Vektorräume und Analytische Geometrie
Insbesondere werden wir die Räume R2 und R3 der Paare bzw. Tripel reeller Zahlen betrachten zur Beschreibung von Punkten in der Ebene oder im (drei-dimensionalen) Raum.
Algebraische Eigenschaften: Seien
0 := (0, . . . , 0)
(Null) ,
−x := (−x1 , . . . , −xn )
(entgegengesetztes Element) ,
dann gelten (für x, y, z ∈ Rn ,λ , µ ∈ R):
x+y = y+x,
(x + y) + z = x + (y + z) ,
λ · (x + y) = λ · x + λ · y ,
x+0 = x,
(3.1.1)
(λ + µ) · x = λ · x + µ · x ,
x + (−x) = 0 ,
0·x = 0,
1·x = x,
λ (µ · x) = (λ µ) · x ,
(−1) · x = −x .
(3.1.2)
(3.1.3)
Wir setzen:
x − y := x + (−y) = (x1 − y1 , . . . , xn − yn ) .
Schreibweise: Wir schreiben ein n-Tupel (x1 , . . . , xn ) auch als sogenannten Spaltenvektor.
Beachte den Unterschied zum Zeilenvektor (ohne Kommas!):


x1

 für n>1
(x1 , . . . , xn ) =  ...  6= (x1 · · · xn ) .
xn
3.1.2 Definition von Vektorräumen
Definition 3.1.1. Eine Menge V mit einer Addition + und einer Multiplikation · mit Zahlen heißt (reeller) Vektorraum, wenn genau ein Nullvektor 0 ∈ V und für jedes x ∈ V genau ein additives Inverses (entgegengesetzter Vektor) −x ∈ V existieren, so daß (3.1.1),
(3.1.2), (3.1.3) für alle x, y, z ∈ V , λ , µ ∈ R gelten. Die Elemente eines Vektorraumes heißen
Vektoren.
♦
Beispiele von Vektorräumen:
1. Der Raum Rn der reellen n-Tupel ist ein Vektorraum, siehe oben.
2. Der Vektorraum der Polynome:
Seien p, q : R → R Polynome mit
n
p(x) = ∑ ai xi ,
i=0
36
m
q(x) = ∑ bi xi .
i=0
3.1 Elementare Theorie der Vektorräume
O.b.d.A. sei m = n. Sei λ ∈ R. Wir definieren:
n
(p + q)(x) := p(x) + q(x) = ∑ (ai + bi )xi ,
(λ p)(x) := λ p(x)
(x ∈ R) .
i=0
3. Der n-dimensionale Raum VOn der Ortsvektoren, n = 1, 2, 3.
Wir bezeichnen mit E 1 , E 2 , E 3 die aus der Geometrie bekannten Räume Gerade, Ebene,
−
→
und (dreidimensionaler) Raum. Ein geordnetes Punktepaar oder Pfeil AB in E n ist ein
(geordnetes) Paar
−
→
AB = (A, B) ∈ E n × E n .
−
→
A heißt Anfangspunkt, B heißt Endpunkt von AB.
−
→
−→
−
→ k −→
Zwei Pfeile AB und CD heißen parallelgleich, AB = CD, wenn eine Parallelverschiebung
−
→
−→
τ existiert mit τ(AB) = CD.
Als Beispiel betrachten wir folgende Situation in E 2 :
C
A
S
R
Q
D
P
B
Es gilt
−
→ k −→
AB = CD ,
−→ k −
→
PQ = RS ,
−
→ k −→
AB =
6 PQ .
Sei O ∈ E n ein fixierter Punkt. Die Menge
−→
VOn := {OX : X ∈ E n }
der Pfeile mit Anfangspunkt O bildet einen Vektorraum der Ortsvektoren:
−→
Wir haben 0 = OO.
−→
−→
−→
−
→
Seien a = OA, b = OB. Es gibt dann genau einen zu OB parallelgleichen Pfeil AC. Damit
−→
setzen wir a + b := OC.
C
B
c
b
O
a
A
−→
Für a ∈ VOn und λ ∈ R setzen wir λ a = OC, wobei
37
3 Vektorräume und Analytische Geometrie
• C = O für λ = 0 oder a = 0;
• wenn a 6= 0 und λ 6= 0, dann sei C der Punkt auf der Geraden durch O und A mit |OC| =
|λ | · |OA| und
A und C auf einer Seite von O liegen, wenn λ > 0;
A und C auf verschiedenen Seiten von O liegen, wenn λ < 0.
3.1.3 Kanonische Basis im Rn
Spezielle Vektoren sind der Nullvektor 0 = (0, . . . , 0) und die i-ten Einheitsvektoren
ei = (0, . . . , 0, 1, 0, . . . , 0) ,
bei denen genau an der i-ten Stelle eine 1 steht.
Ist dann x = (x1 , . . . , xn ) ein Vektor aus Rn , so kann man ihn als
n
x = x1 e1 + x2 e2 + . . . + xn en = ∑ xi ei ,
i=1
d.h., als eine Linearkombination der ei darstellen. Außerdem ist (e1 , . . . , en ) minimal in
folgendem Sinne: keiner der Vektoren ei läßt sich als Linearkombination der übrigen Einheitsvektoren darstellen.
(e1 , . . . , en ) heißt dann kanonische Basis und x1 , . . . ,xn heißen die Koordinaten von x
bezüglich der kanonischen Basis.
3.1.4 Basis und Koordinaten in einem Vektorraum
Seien n-Vektoren b1 , . . . , bn in einem Vektorraum V gegeben.
Die Vektoren b1 , . . . , bn heißen linear unabhängig, wenn der Nullvektor 0 nur trivial als
Linearkombination der bi darstellbar ist:
λ1 b1 + · · · + λn bn = 0
⇒
λ1 = · · · = λn = 0 .
Die Vektoren b1 , . . . , bn heißen vollständig, wenn jeder Vektor v ∈ V als Linearkombination
der bi darstellbar ist:
∃x1 , . . . , xn ∈ R : v = x1 b1 + x2 b2 + . . . + xn bn .
(3.1.4)
Sind b1 , . . . , bn linear unabhängig und vollständig, dann heißt (b1 , . . . , bn ) eine Basis von
V.
38
3.1 Elementare Theorie der Vektorräume
Ist (b1 , . . . , bn ) eine Basis, so heißt V ein n-dimensionaler Vektorraum und die Darstellung
(3.1.4) ist eindeutig. Die Zahlen x1 , . . . , xn (in dieser Reihenfolge) heißen die Koordinaten
von v bezüglich der Basis (b1 , . . . , bn ); (x1 , . . . , xn ) ∈ Rn heißt dann Koordinatenvektor
von v bezüglich dieser Basis.
Existiert also eine Basis (b1 , . . . , bn ), so entspricht jedem Vektor v ∈ V genau ein Koordinatenvektor x ∈ Rn und umgekehrt, wobei
V 3 v = x1 b1 + x2 b2 + . . . + xn bn
←→
(x1 , . . . , xn ) = x ∈ Rn .
Außerdem entsprechen sich Addition und Multiplikation mit Skalar in V und Rn .
Folgerung 3.1.2. Je zwei n-dimensionale Vektorräume (V, +, ·), (W, ⊕, ) über R sind isomorph zu einander: Es existiert eine Bijektion ϕ : V → W mit
ϕ(λ1 · v1 + λ2 · v2 ) = λ1 ϕ(v1 ) ⊕ λ2 ϕ(v2 ) für λi ∈ R, vi ∈ V .
Damit erhalten wir
Bemerkung 3.1.3. Anstelle eines n-dimensionalen Vektorraumes V kann stets der isomorphe Vektorraum Rn der n-Tupel betrachtet werden.
♦
3.1.5 Kartesische Koordinaten im VO2 , VO3
In E n , n = 2, 3, wählen wir einen Punkt O und Punkte Ei , i = 1, . . . , n, so daß
• die Strecken OE i die Länge 1 haben;
• die Winkel ]Ei OE j , i 6= j, gleich 90◦ sind;
−−→
−−→
• die Pfeile OE1 , . . . , OEn in dieser Reihenfolge ein Rechtssystem bilden.
→
−
−−→ →
−−→
−−→
→
−
−
Dann sind i := OE1 , j := OE2 und, bei n = 3, auch k := OE3 Basisvektoren des VOn , sie bilden eine kartesische Basis.
−
Jeder Vektor →
v ∈ V n kann in der Form
E3 →
−
j
→
−
k
→
− E2
O
i
E1
O
→
−
→
−
→
−
v = x1 i + x2 j
(n = 2) ,
→
−
→
−
→
−
→
−
v = x1 i + x2 j + x3 k
(n = 3)
−
dargestellt werden, die xi heißen die kartesischen Koordinaten von →
v.
Bemerkung 3.1.4. Sei n ∈ {2, 3}. Sei in E n ein Punkt O und mit ihm eine kartesische Basis
−→
fixiert. Dann entspricht jedem Punkt X ∈ E n eineindeutig ein Pfeil OX ∈ VOn und diesem
wiederum eineindeutig ein Koordinatenvektor x ∈ Rn , z.B. für n = 2:
Punkt X ∈ E 2
↔
−→
→
−
→
−
Pfeil OX = x1 i + x2 j ∈ VO2
↔
Vektor x = (x1 , x2 ) ∈ R2 .
Außerdem entsprechen sich die Vektoroperationen: VOn ist isomorph zu Rn .
♦
39
3 Vektorräume und Analytische Geometrie
Im Folgendem identifizieren wir daher Punkte, Pfeile, Vektoren in E n , VOn , Rn je nach
Bedarf.
Konkret bezeichnen wir Punkte und ihre zugehörigen Ortsvektoren (oder n-Tupel) mit P
bzw. p.
Damit können wir geometrische Begriffe wie Winkel, Länge, Fläche, Volumen vom E n ,
n = 2, 3, auf den VOn und Rn und zurück übertragen.
3.1.6 Skalarprodukt und Norm
Für Vektoren x, y ∈ Rn definieren wir das euklidische Skalarprodukt
n
hx, yi := x1 y1 + · · · + xn yn = ∑ xi yi .
i=1
Es ordnet Vektoren
x, y, z ∈ Rn ):
x, y ∈ Rn
eine reelle Zahl zu und hat folgende Eigenschaften (α, β ∈ R,
hx, yi = hy, xi
hx, αy + β zi = αhx, yi + β hx, zi
hx, xi ≥ 0 , hx, xi = 0 ⇔ x = 0
(Symmetrie)
(Bilinearität)
(positive Definitheit) .
(3.1.5)
Offensichtlich gilt
xi = hx, ei i für i = 1, . . . , n .
Definition 3.1.5. Eine Abbildung h·, ·i : V ×V → R, (v, w) 7→ hv, wi heißt Skalarprodukt
in V , wenn (3.1.5) entprechend für alle α, β ∈ R und alle v, w ∈ V (anstelle von x, y) gilt.♦
Andere Bezeichnungen:
v·w,
(v | w) ,
(v, w) .
Für die Länge in E n gilt nach dem Satz von Pythagoras,
daß die Strecke OX
qvon O = (0, 0) nach X = (x1 , x2 )
die Länge |OX| =
x2
(x1 , x2 )
x12 + x22 = kxk hat.
x1
Die Zahl
q
p
kxk := hx, xi = x12 + · · · + xn2
heißt (euklidischer) Betrag, Länge oder euklidische Norm von x und hat folgende Eigenschaften (λ ∈ R, x, y ∈ Rn ):
kxk ≥ 0 , kxk = 0 ⇔ x = 0
kλ xk = |λ | · kxk
kx + yk ≤ kxk + kyk
40
(positive Definitheit) .
(Homogenität)
(Dreiecksungleichung) .
(3.1.6)
3.1 Elementare Theorie der Vektorräume
Der Vektorraum (Rn , +, ·) ausgestattet mit der Länge k · k heißt euklidischer Raum.
Definition 3.1.6. Eine Abbildung k · k : V → R, v 7→ kvk heißt Norm in V , wenn (3.1.6)
entprechend für alle λ ∈ R und alle v ∈ V (anstelle von x) gilt.
♦
Definition 3.1.7. Ein Vektor v ∈ V heißt normiert oder Einheitsvektor, wenn kvk = 1. ♦
p
Bemerkung 3.1.8. Wenn h·, ·i ein Skalarprodukt in V ist, dann ist durch kvk := hv, vi für
v ∈ V eine Norm in V definiert.
♦
Es gilt dann die Cauchy-Schwarz-Bunjakowski-Ungleichung
|hv, wi| ≤ kvk · kwk .
Sei (b1 , . . . , bn ) eine Basis in V und seien v, w ∈ V mit
n
v = ∑ xi bi ,
i=1
Dann gilt
n
hv, wi = ∑
n
w = ∑ yi bi .
i=1
n
∑ gi j xiy j
mit
gi j := hbi , b j i .
i=1 j=1
Definition 3.1.9. Zwei Vektoren a, b ∈ V heißen orthogonal zueinander, wenn ha, bi =
0.
♦
Wenn hbi , bi i = 1, hbi , b j i = 0 für i 6= j, dann sind die Vektoren b1 , . . . , bn normiert und
paarweise orthogonal (d.h., orthonormal) und es gilt gii = 1 und gi j = 0 für i 6= j. Daher
gilt dann
n
hv, wi = ∑ xi yi .
i=1
Bemerkung 3.1.10. Die Einheitsvektoren e1 , . . . , en in Rn sind orthonormal bezüglich des
euklidischen Skalarproduktes.
♦
3.1.7 Projektionen
Definition 3.1.11. Zwei Vektoren a, b ∈ V heißen parallel zueinander, a k b, wenn b = 0
oder wenn ein λ ∈ R existiert mit a = λ b.
♦
Definition 3.1.12. Seien v, w ∈ V mit w 6= 0. Ein Vektor vw heißt Orthogonalprojektion
von v auf w, wenn vw parallel zu w ist und wenn die Normalenkomponente
v⊥w := v − vw
von v bezüglich w orthogonal zu w ist.
♦
41
3 Vektorräume und Analytische Geometrie
Sei v ∈ V , w 6= 0. Parallelität heißt, daß ein λ ∈ R existiert mit vw = λ · w. Mit der Orthogonalitätsforderung erhalten wir
0 = hv − vw , wi = hv, wi − λ · hw, wi ,
und daher
vw :=
λ=
hv, wi
hw, wi
hv, wi
w.
hw, wi
Beispiel 3.1.13. Wir betrachten V = R3 , x = (2, 4, 3), y = (1, 0, 0) und erhalten
xy =
hx, yi
2·1+4·0+3·0
y=
(1, 0, 0) = (2, 0, 0) .
hy, yi
1·1+0·0+0·0
♦
3.2 Elementare Analytische Geometrie
Wir sind besonders an der Interpretation der euklidischen Norm und des euklidischen Skalarproduktes interessiert. Weiter betrachten wir das Vektor- und das Spatprodukt im R3 .
3.2.1 Von Vektoren eingeschlossener Winkel
Seien x, y in R2 oder R3 mit x 6= 0, y 6= 0. Es bezeichne ](x, y) ∈ [0, π] den von x und y eingeschlossenen, nichtorientierten Winkel, d.h., den Innenwinkel bei O = 0 des Dreiecks
4OXY mit X = x, Y = y, falls x 6k y.
Zuerst interpretieren wir, was die Orthogonalität hx, yi = 0 bedeutet, wenn x, y 6= 0:
Wir betrachten den R2 (für den R3 geht es analog). Es gilt
2
2
OX + OY = kxk2 + kyk2 = x12 + x22 + y21 + y22
und
2
XY = kx − yk2 = (x1 − y1 )2 + (x2 − y2 )2 = x12 − 2x1 y1 + y21 + x22 − 2x2 y2 + y22 .
Genau dann, wenn hx, yi = x1 y1 + x2 y2 = 0, haben wir
Y
2
2
2
OX + OY = XY ,
d.h., nach Satz von Pythagoras ist 4OXY ein rechtwinkliges Dreieck mit
O
rechtem Winkel in O genau dann, wenn hx, yi = 0.
42
X
3.2 Elementare Analytische Geometrie
Somit gilt
x, y sind orthogonal
⇔
hx, yi = 0
⇔
](x, y) =
π
2
⇔
x, y sind senkrecht .
Seien nun x, y ∈ R2 mit ](x, y) ∈ ]0, π2 [. Wir betrachten das durch die
Punkte O = (0, 0), Z = (xy,1 , xy,2 ), X = (x1 , x2 ) bestimmte rechtwinklige
Dreieck. Nach der Definition des Kosinus gilt
cos ](x, y) =
hx, yi
hx, yi
|OZ| kxy k
=
kyk =
.
=
kxk
kxk · hy, yi
kxk · kyk
|OX|
O
X
Z
Y
Allgemein erhalten wir:
Satz 3.2.1. Sind x 6= 0 und y 6= 0 zwei Vektoren im R2 oder R3 , dann ist ](x, y) eindeutig
bestimmt durch
hx, yi
cos ](x, y) =
.
kxk · kyk
Umgekehrt, ist ](x, y) bekannt, so können wir hx, yi bestimmen durch
hx, yi = kxk · kyk · cos ](x, y) .
Insbesondere gilt hx, yi > 0 genau dann, wenn ](x, y) ∈ ]0, π2 [, und hx, yi < 0 genau dann,
wenn ](x, y) ∈ ] π2 , π[.
Bemerkung 3.2.2. Im R2 und R3 wird durch das (euklidische) Skalarprodukt hx, yi zweier
Vektoren x, y der durch x, y aufgespannte Winkel ](x, y) bestimmt.
♦
3.2.2 Das Vektorprodukt im R3
3.2.2.1 Definition
Wir führen nun, alternativ zum Skalarprodukt, ein neues Produkt zwischen zwei Vektoren
im R3 ein, das Kreuzprodukt oder Vektorprodukt. Im Unterschied zum Skalarprodukt ist
das Ergebnis diesmal ein Vektor im R3 und kein Skalar (daher der Name).
Definition 3.2.3. Seien a, b ∈ R3 . Dann heißt
    

a1
b1
a2 b3 − a3 b2
a2  × b2  := a3 b1 − a1 b3 
a3
b3
a1 b2 − a2 b1
Vektorprodukt von a und b.
♦
43
3 Vektorräume und Analytische Geometrie
Bemerkung 3.2.4. Man beachte die Reihenfolge der jeweils ersten Indizes:
1. Zeile: 2,3
2. Zeile: 3,1
3. Zeile: 1,2
♦
Beispiel 3.2.5. Für a = (3, 1, 0), b = (−1, 2, 0) gilt
    
  
1·0−0·2
0
3
−1
a × b = 1 ×  2  = 0 · (−1) − 3 · 0 = 0 .
0
0
3 · 2 − 1 · (−1)
7
♦
3.2.2.2 Eigenschaften des Vektorproduktes
Allgemein erhält man die folgenden, aus der Definition herzuleitenden Rechenregeln.
a×a = 0 ,
(!),
a × b = −(b × a)
λ (a × b) = (λ a) × b = a × (λ b) ,
a × (b + c) = a × b + a × c , (a + b) × c = a × c + b × c .
Inbesondere gilt
e1 × e2 = e3 ,
e2 × e3 = e1 ,
e3 × e1 = e2 .
Etwas umständlicher aber immer noch elementar zeigt man den Entwicklungssatz
a × (b × c) = ha, ci · b − ha, bi · c .
Vorsicht: Das Rechnen mit dem Vektorprodukt weicht erheblich vom Rechnen mit reellen
Zahlen ab. Im allgemeinen gilt (Beispiel?)
a × b 6= b × a ,
a × (b × c) 6= (a × b) × c .
3.2.2.3 Interpretation des Vektorproduktes
Satz 3.2.6. 1. a × b steht senkrecht auf a und b, d.h.,
ha × b, ai = ha × b, bi = 0 .
2. a, b und a × b bilden (in dieser Reihenfolge) ein Rechtssystem.
3. Für die Länge von a × b und den Flächeninhalt A(a, b) des durch a und b aufgespanntem
Parallelogramms gilt
ka × bk = kak · kbk · | sin ](a, b)| = A(a, b) .
4. Wenn a k b oder a = 0 oder b = 0, dann a × b = 0.
44
3.2 Elementare Analytische Geometrie
Bemerkung 3.2.7. Das Vektorprodukt in R3 liefert also den Flächeninhalt und einen zu
den beiden Vektoren orthogonalen Vektor.
♦
3.2.3 Das Spatprodukt
3.2.3.1 Definition
Definition 3.2.8. Die Zahl
[a, b, c] := ha × b, ci
heißt Spatprodukt der Vektoren a, b, c ∈ R3 .
♦
Satz 3.2.9. Sei V (a, b, c) das Volumen des von a, b und c aufgespannten Parallelepipeds.
Dann gilt
V (a, b, c) = |[a, b, c]| .
Beweis.
−
→
−→
Sei O ∈ E 3 und seien A, B, C ∈ E 3 mit a = OA, b = OB,
−→
c = OC.
Die Grundfläche mit den Kanten OA und OB hat den Flächeninhalt A(a, b) = ka × bk.
C
c
O
B
b
a
A
a×b
Die Höhe h des Körpers ist gegeben über die orthogonale
Projektion des Vektors c auf den Vektor a×b (der senkrecht
auf der Grundfläche steht).
h
c
a
Es gilt
hc, a × bi
|hc, a × bi|
h = kca×b k = a × b
= ka × bk .
2
ka × bk
Damit gilt für das Volumen
V (a, b, c) = A(a, b) · h = ka × bk ·
|hc, a × bi|
= |ha × b, ci| = |[a, b, c]| .
ka × bk
3.2.3.2 Eigenschaften des Spatprodukts
Wir ziehen folgende Schlüsse aus dem Satz.
1. Es ist [a, b, c] 6= 0 genau dann, wenn a, b und c nicht in einer gemeinsamen Ebene liegen.
45
3 Vektorräume und Analytische Geometrie
2. Der Wert |[a, b, c]| ist unabhängig von der Reihenfolge der Vektoren.
3. a, b und c bilden genau dann ein Rechtssystem, wenn der Winkel zwischen a × b und c
spitz ist. Es gilt dann (vgl. Skalarprodukt)
[a, b, c] = ka × bk · kck · cos ](a × b, c) > 0.
Es ist also a, b, c genau dann ein Rechtssystem, wenn [a, b, c] > 0.
4. Aus 2. und 3. schließen wir:
• [a, b, c] ändert seinen Wert nicht, wenn a, b, c in zyklischer Reihenfolge vertauscht
werden,
[a, b, c] = [b, c, a] = [c, a, b] .
• [a, b, c] ändert nur das Vorzeichen, nicht den Betrag, wenn genau zwei der beteiligten
Vektoren miteinander vertauscht werden.
3.2.3.3 Koordinatendarstellung des Spatprodukts
Aus den Rechenregeln für Skalar- und Vektorprodukt leitet man ab, wie das Spatprodukt
für drei Vektoren in Koordinatendarstellung berechnet wird. Es ist
[a, b, c] = (a2 b3 − a3 b2 )c1 + (a3 b1 − a1 b3 )c2 + (a1 b2 − a2 b1 )c3
= a1 b2 c3 − a3 b2 c1 + a2 b3 c1 − a1 b3 c2 + a3 b1 c2 − a2 b1 c3 .
{z
} |
{z
} |
{z
}
|
Die Indizes in den drei Gruppen erhält man an der ersten Stelle durch zyklisches Vertauschen.
Man schreibt diese Summe von Produkten auch verkürzend als
a1 a2 a3 det(a, b, c) = b1 b2 b3 := a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a3 b2 c1 − a2 b1 c3 − a1 b3 c2
c1 c2 c3 und nennt diese Zahl (drei-reihige) Determinante der beteiligten Vektoren a, b, c.
Bemerkung 3.2.10. Das Volumen des von den Vektoren a, b, c aufgespannten Tetraeders
ist 16 |[a, b, c]|.
♦
46
3.2 Elementare Analytische Geometrie
3.2.4 Geraden im Raum
Eine Gerade im Raum ist anschaulich festgelegt durch zwei verschiedene vorgegebene
−
→
−→
Punkte im Raum. Seien etwa A und B zwei Punkte, a = OA und b = OB deren zugehörige
Ortsvektoren, dann ist die durch A und B festgelegte Gerade g in der Zwei-Punkte-Form
gegeben durch
g = {a + λ (b − a) : λ ∈ R} .
b−a
x3
a
x2
b
x1
Setzen wir hierin c := b − a, so ist c 6= 0 und
g = {a + λ c : λ ∈ R}
ist die allgemeine Parameterdarstellung einer Geraden g durch A und B. c heißt ein Richtungsvektor der Geraden (der nicht eindeutig festgelegt ist).
3.2.4.1 Lot auf die Gerade
−→
Vorgegeben seien nun ein Punkt P mit Ortsvektor p = OP und die Gerade g = {a + λ c : λ ∈
R} mit c 6= 0. Wir suchen das Lot von P auf die Gerade g. Das ist der Vektor `(P, g), so daß
p
1. `(P, g) senkrecht auf der Geraden g, steht, d.h.,
g
a
`(P, g) ⊥ c ;
2. der Lotpunkt q := p + `(P, g) in der Geraden liegt,
c
p + `(P, g) ∈ g .
`
Aus dem Bild entnehmen wir, daß `(P, g) der Normale von p − a bzgl. c entgegen steht:
hp − a, ci
`(P, g) = −(p − a)⊥c = − (p − a) − (p − a)c = − (p − a) −
c
hc, ci
1
1
=−
hc,
ci(p
−
a)
−
hp
−
a,
cic
=
−
c
×
(p
−
a)
×
c
,
kck2
kck2
wobei zuletzt der Entwicklungssatz angewandt wurde.
47
3 Vektorräume und Analytische Geometrie
3.2.4.2 Abstand von Punkt und Gerade
Nach Definition des Lotes ergibt sich für den Abstand d(P, g) von P zur Geraden g
d(P, g) = k`(P, g)k =
k(p − a) × ck
1
kck · k(p − a) × ck =
.
2
kck
kck
3.2.5 Die Cramersche Regel im R3
Gegeben sei eine Gleichung
ru + sv + tw = d .
(3.2.1)
mit u, v, w, d ∈ R3 .
Bemerkung 3.2.11. Gleichung (3.2.1) entspricht dem linearen Gleichungssystem
u1 r + v1 s + w1t = d1 ,
u2 r + v2 s + w2t = d2 ,
♦
u3 r + v3 s + w3t = d3 .
Zur Bestimmung der Zahlen r, s und t multiplizieren wir (Skalarprodukt!) mit v × w, u × w,
bzw. u × v und erhalten
r[u, v, w] = [v, w, d] ,
s[u, v, w] = [u, w, d] ,
t[u, v, w] = [u, v, d] .
Mit det(a, b, c) = [a, b, c] folgt die Cramersche Regel im R3 :
1. Wenn det(u, v, w) 6= 0, d.h., u, v, w liegen nicht in einer Ebene, dann
r=
det(v, w, d)
,
det(u, v, w)
s=
det(u, w, d)
,
det(u, v, w)
t=
det(u, v, d)
.
det(u, v, w)
2. Wenn det(u, v, w) = 0, dann ist (3.2.1) nur lösbar (aber nicht mehr eindeutig), wenn
det(v, w, d) = det(u, w, d) = det(u, v, d) = 0 .
Die eindeutige Lösung der Vektorgleichung kann also durch Quotienten von Determinanten
angegeben werden.
3.2.6 Die Cramersche Regel im R2
Gegeben sei nun eine Gleichung
ru + sv = d .
mit u, v, d ∈ R2 .
48
(3.2.2)
3.2 Elementare Analytische Geometrie
Bemerkung 3.2.12. Gleichung (3.2.2) entspricht dem linearen Gleichungssystem
u1 r + v1 s = d1 ,
u2 r + v2 s = d2 .
♦
Zur Bestimmung der Zahlen r und s kann man eine zum drei-dimensionalen analoge Regel
anwenden: Sei
a1 a2 := a1 b2 − a2 b1 .
det(a, b) = b1 b2 Es gilt die Cramersche Regel im R2 :
1. Wenn det(u, v) 6= 0, dann
r=
det(v, d)
,
det(u, v)
s=
det(u, d)
.
det(u, v)
2. Wenn det(u, v) = 0, dann ist (3.2.2) nur lösbar (aber nicht mehr eindeutig), wenn
det(v, d) = det(u, d) = 0 .
Damit kann auch hier die eindeutige Lösung der Vektorgleichung durch Quotienten von
Determinanten angegeben werden.
3.2.7 Lineare Unabhängigkeit im R3
Aus der allgemeinen Situation wiederholen wir, daß drei Vektoren u, v, w in R3 linear
unabhängig genannt werden, wenn
ru + sv + tw = 0
nur die triviale Lösung (r, s,t) = (0, 0, 0) hat. Nach der Cramerschen Regel gilt
u, v, w sind linear unabhängig
⇐⇒
[u, v, w] 6= 0 .
Bei der betrachteten Vektorgleichung
tu + sv + rw = d
stellt sich also die Frage, inwieweit ein gegebener Vektor d sich als (eindeutige) Linearkombination der Vektoren u, v, w darstellen läßt.
Beispiel 3.2.13. Wir betrachten folgende Situation
Eine vorgegebene Kraft k greife an der Spitze eines dreibeinigen Tragbockes an.
49
3 Vektorräume und Analytische Geometrie
k
Die Reaktionskräfte im Tragbock seien mit k1 , k2 , k3 bezeichnet.
Es gilt dann
k + k1 + k2 + k3 = 0 .
k3
k2
a
c
Die drei Beine des Tragbockes seien durch die Vektoren
a, b, c gegeben.
k1
b
Dann gilt
k 1 = λ1 a ,
k2 = λ2 b
und
k3 = λ3 c
für unbekannte reelle Zahlen λ1 , λ2 , λ3 ∈ R, also
k + λ1 a + λ2 b + λ3 c = 0 .
Sind nun a, b, c in allgemeiner Lage, also [a, b, c] 6= 0, so gilt gemäß Cramerscher Regel:
λ1 = −
[k, b, c]
,
[a, b, c]
λ2 = −
[a, k, c]
,
[a, b, c]
λ3 = −
[a, b, k]
.
[a, b, c]
♦
3.2.8 Ebenen im Raum
Betrachten wir nun Ebenen im Raum. Eine Ebene E wird festgelegt durch drei auf ihr
liegende Punkte, die nicht in einer Geraden liegen.
Seien a, b, c die Ortsvektoren zu solchen Punkten,
dann liegen die Differenzvektoren u = b − a und
x3
v
v = c − a „in“ der Ebene.
Es seien u 6= 0, v 6= 0 und u ∦ v vorausgesetzt.
u
X
−→
c
Ein Raumpunkt X (oder der Vektor x = OX) liegt
a
b
genau dann in der Ebene E, wenn s,t ∈ R existiex2
x1
ren mit
x = a + su + tv .
Die Parameterdarstellung einer Ebene E lautet also
E = {a + su + tv : s,t ∈ R} ;
u und v heißen Richtungsvektoren der Ebene. Man beachte, daß die Parameterdarstellung
der Ebene die der Geraden so erweitert, daß ein zusätzlicher Richtungvektor aufgenommen
wurde, was der um eins höheren Dimension entspricht.
50
3.2 Elementare Analytische Geometrie
3.2.8.1 Lot auf die Ebene
Wir wollen nun das Lot `(P, E) von einem Punkt P auf die Ebene E fällen. Dazu bemerken
wir, daß der Vektor n := u × v auf allen zur Ebene parallelen Vektoren senkrecht steht:
hu × v, su + tvi = shu × v, ui + thu × v, vi = 0 ,
denn u × v ⊥ u und u × v ⊥ v.
Um das Lot zu berechnen, haben wir also nur den
Schnittpunkt S der Geraden g = {p +r ·(u ×v) : r ∈ R}
und der Ebene E zu berechnen, d.h., r aus der Vektorgleichung
P
n
p + r · (u × v) = a + su + tv
d.h. aus
S
−r · (u × v) + su + tv = p − a
zu bestimmen.
Mit der Cramerschen Regel folgt (beachte u × v 6= 0!)
r=
[a − p, u, v]
[u, v, p − a]
=
[−u × v, u, v]
ku × vk2
und damit
`(P, E) =
[a − p, u, v]
u×v.
ku × vk2
3.2.8.2 Abstand von Punkt und Ebene
Der Abstand d(P, E) des Punktes P von der Ebene E ist demnach
[a − p, u, v]
|[a − p, u, v]|
=
d(P, E) = k`(P, E)k = .
u
×
v
ku × vk2
ku × vk
3.2.8.3 Abstand zweier Geraden
Aus dieser Formel erhalten wir auch eine Aussage über den Abstand d(g1 , g2 ) zweier beliebiger Geraden im Raum voneinander. Seien
g1 = {a + su : s ∈ R} ,
g2 = {b + tv : t ∈ R} .
Dann sind zwei Fälle möglich:
1. Ist u k v, so ist d(g1 , g2 ) gleich dem Abstand des Punktes B von der Geraden g1 :
d(g1 , g2 ) = d(B, g1 ) =
k(b − a) × uk
.
kuk
51
3 Vektorräume und Analytische Geometrie
2. Ist u ∦ v und damit u × v 6= 0, so ist d(g1 , g2 ) gleich dem Abstand des Punktes B von der
Ebene E = {a + su + tv : t, s ∈ R}:
d(g1 , g2 ) = d(B, E) =
|[a − b, u, v]|
.
ku × vk
3.2.8.4 Normalendarstellung der Ebene
Es gibt eine besonders elegante Art, Ebenen zu beschreiben, die wir im folgenden herleiten
wollen. Wir wiederholen, daß drei Vektoren genau dann in einer Ebene liegen, wenn ihre
Determinante gleich Null ist.
Betrachten wir die Ebene
v
E = {a + su + tv : t, s ∈ R}
A
u
und die Vektoren u, v, (x − a) für beliebiges x ∈ R3 .
X
Der Ortsvektor x zeigt genau dann auf einen Punkt der Ebene, wenn [x − a, u, v] = 0.
Mit dem Normalenvektor n := u × v erhalten wir hx − a, ni = 0 und damit die (nicht eindeutige) Normalendarstellung bzw. Koordinatendarstellung
E = {x ∈ R3 : hn, xi = r} = {x ∈ R3 : n1 x1 + n2 x2 + n3 x3 = r} ,
wobei r := ha, ni.
3.2.8.5 Hessesche Normalform
Die (eindeutige) Hessesche Normalform
E = {x ∈ R3 : hm, xi = d} = {x ∈ R3 : m1 x1 + m2 x2 + m3 x3 = d}
(
n/knk , d := r/knk
falls r ≥ 0 ,
entsteht aus der Normalendarstellung mit m :=
−n/knk , d := −r/knk falls r < 0 .
Besonderheiten:
• m ist ein normierter Normalenvektor zur Ebene. Bei d 6= 0 ist sein Winkel zu einem
beliebigen Ortsvektor x der Ebene spitz. Daher weist m immer vom Nullpunkt weg.
• Die Zahl d ist der Abstand von 0 zu E: ` := dm steht senkrecht auf E und es gilt ` ∈ E.
Damit ist ` das Lot von 0 auf E mit der Länge d.
52
3.2 Elementare Analytische Geometrie
• Ist a ∈ E, so ist
d(P, E) =
ha − p, mi
= |d − hp, mi|
kmk
der Abstand eines beliebigen Punktes P von der Ebene.
∗ Ist d − p · m > 0, so liegt P auf derselben Seite wie der Nullpunkt.
∗ Ist d − p · m < 0, so liegen beide auf verschiedenen Seiten der Ebene.
3.2.8.6 Achsenabschnittsform
Ist r 6= 0, so kann die rechte Seite in der Normalenform auf 1 normiert werden, indem die
gesamte Gleichung durch r geteilt wird. Es entsteht dann die Achsenabschnittsform
E = {x ∈ R3 : α1 x1 + α2 x2 + α3 x3 = 1}
mit α1 =
n1
r ,
α2 =
n2
r ,
α3 =
n3
r .
Die Koeffizienten αi liefern unmittelbar die Schnittpunkte der Ebene mit den Koordinatenachsen:
• Sind α1 , α2 , α3 6= 0, dann sind die Schnittpunkte nämlich
(
1
, 0, 0) ,
α1
(0,
1
, 0) ,
α2
(0, 0,
1
).
α3
• Ist ein αi = 0, dann verläuft die Ebene parallel zur xi -Achse.
Umformung von Achsenabschnittsform in Parameterdarstellung:
Sind alle αi 6= 0, so hat man drei Punkte der Ebene (Dreipunkte-Form).
Sonst hat man
∗ einen Richtungsvektor (Koordinatenachse) und zwei Punkte oder
∗ zwei Richtungsvektoren (zwei Koordinatenachsen) und einen Punkt.
3.2.8.7 Schnitt von zwei Ebenen
Zwei Ebenen
E = {x ∈ R3 : hx, mi = r} ,
F = {x ∈ R3 : hx, ni = s}
schneiden sich in einer Geraden, sofern die Ebenen nicht parallel sind.
Sie sind genau dann parallel, wenn m × n = 0.
Sei c = m × n. Dann gilt c ⊥ m und c ⊥ n. Damit ist c ein Richtungsvektor der Schnittgeraden.
53
3 Vektorräume und Analytische Geometrie
Einen Punkt auf der Schnittgeraden erhält man durch Lösen des Gleichungssystems hx, mi =
r, hx, ni = s, d.h.
m1 x1 + m2 x2 + m3 x3 = r ,
n1 x1 + n2 x2 + n3 x3 = s .
(Lösen kann man das Gleichungssystem, indem man eine der Gleichungen nach einer der
Variablen aufgelöst, diese in die zweite Gleichung eingesetzt wird und dann eine der Variablen willkürlich gleich Null gesetzt wird.)
3.2.8.8 Schnitt von drei Ebenen
Sei nun
G = {x ∈ R3 : hx, pi = t}
eine weitere Ebene. Wir wollen die Schnittmenge von E, F und G bestimmen. Dazu ist das
Gleichungssystem
m1 x1 + m2 x2 + m3 x3 = r
n1 x1 + n2 x2 + n3 x3 = s
p1 x1 + p2 x2 + p3 x3 = t
zu lösen. Nach der Cramerschen Regel ist dies genau dann eindeutig möglich, wenn
[m, n, p] 6= 0, d.h. wenn m, n, p linear unabhängig sind.
Bemerkung 3.2.14. Der Schnitt dreier Ebenen kann leer sein, aus einem Punkt bestehen,
aus einer Geraden bestehen, aus einer Ebene bestehen.
♦
Bemerkung 3.2.15. Es können auch Schnittwinkel zwischen Ebenen oder Geraden als
Winkel zwischen Normalen- bzw. Richtungsvektoren berechnet werden.
♦
54
4 Komplexe Zahlen
In diesem Kapitel wollen wir uns erneut mit dem R2 beschäftigen, diesmal aber mit einer
anderen algebraischen Struktur. Dies erlaubt uns
• weitere Anwendungen in der Geometrie
• die Lösung von Polynomgleichungen in diesem neuen Zahlenbereich der dann so
genannten komplexen Zahlen
• viele weitere Anwendungen wie zum Beispiel Schwingungsvorgänge.
4.1 Die algebraische Struktur der komplexen Zahlen
Wir wollen R2 so mit Addition und Multiplikation ausstatten, daß ein Zahlenkörper entsteht.
Die für den R2 schon eingeführte Addition
(a, b) + (c, d) = (a + c, b + d)
(4.1.1)
hat zufrieden stellende Eigenschaften.
4.1.1 Die komplexe Multiplikation
Benötigt wird noch eine „richtige“ Multiplikation, d.h., wir haben
(a, b) · (c, d)
so zu definieren, daß wieder ein Element des R2 entsteht, und so, daß das Produkt vernüftige
Eigenschaften hat (Kommutativgesetz, Assoziativgesetz, Distributivgesetz, Existenz von
neutralen Element und von inversen Elementen).
Insbesondere wollen wir ein Paar (x, 0) ∈ R2 mit der reellen Zahl x ∈ R identifizieren:
(x, 0) = x
für x ∈ R .
Außerdem soll die Multiplikation mit einer reellen Zahl die schon vom R2 bekannten Eigenschaften haben.
55
4 Komplexe Zahlen
Damit sind schon festgelegt:
• 0 = (0, 0) als Null und 1 = (1, 0) als Eins,
• (a, 0) · (c, d) = (ac, ad) und somit
(a, b) · (c, d) = (a, 0) · (c, d) + (0, b) · (c, d)
= (a, 0) · (c, 0) + (a, 0) · (0, d) + (0, b) · (c, 0) + (0, b) · (0, d)
= ac(1, 0)2 + ad(1, 0)(0, 1) + bc(1, 0)(0, 1) + bd(0, 1)2
= ac(1, 0) + (bc + ad)(0, 1) + bd(0, 1)2
= (ac, ad + bc) + bd(0, 1)2 .
Wir benötigen damit nur noch die geeignete Definition von
(0, 1)2 .
Potentielle (einfachste) Elemente wären
(0, 0) ,
(1, 0) ,
(0, 1) ,
(−1, 0) ,
(0, −1) ,
(1, 1) ,
(−1, −1) ,
wovon aber nur (−1, 0) die gewünschten Eigenschaften hat:
Setzen wir
(0, 1)2 := (−1, 0) = −1 ,
so haben wir
(a, b) · (c, d) := (ac − bd, ad + bc) .
(4.1.2)
Die so definierte Multiplikation hat die von den reellen Zahlen her bekannten Eigenschaften, insbesondere gilt
−b
a
(a, b) · 2
,
= (1, 0) = 1 ,
wenn (a, b) 6= 0 .
a + b2 a2 + b2
Definition 4.1.1. Die Menge R2 zusammen mit der Addition + und der Multiplikation ·
♦
entsprechend (4.1.1) und (4.1.2) heißt Menge der komplexen Zahlen C.
4.1.2 Algebraische Darstellung
Wir haben schon (1, 0) = 1. Wir setzen i := (0, 1). Damit haben wir
(a, b) = a + bi .
Für eine komplexe Zahl z = x + yi nennen wir x := ℜ(z) den Realteil und y := ℑ(z) den
Imaginärteil von z. Die komplexen Zahlen z = x + iy und z̄ := x − iy, die gleichen Realteil
und zueinander negativen Imaginärteil haben, heißen komplex konjugiert.
56
4.1 Die algebraische Struktur der komplexen Zahlen
Bemerkung 4.1.2. C ist ein zweidimensionaler Vektorraum über R mit der Basis
(e1 , e2 ) = ((1, 0), (0, 1)) .
Der Realteil ist die Koordinate in Richtung e1 = (1, 0) = 1, der Imaginärteil ist die Koordinate in Richtung e2 = (0, 1) = i.
♦
Wir können daher C mit VO2 identifizieren. Weiter können wir uns die Elemente von C auch
als Punkte in der Ebene E 2 vorstellen, nachdem wir einen Nullpunkt O und zwei aufeinander senkrecht stehende Koordiantenachsen ausgewählt haben: Die waagerechte Achse
gehört zum Basisvektor 1 = (1, 0), d.h., zu den reellen Zahlen, die vertikale Achse gehört
zum Basisvektor i = (0, 1), d.h., zu den rein imaginären Zahlen.
z = a + ib
iy
|z|
b
z + z̄
x
a
−b
|z̄|
z̄ = a − ib
Komplexe Zahlen können daher als Zeiger (Ortsvektoren) im VO2 , Gaußsche Zahlenebene
genannt, interpretiert werden. Für Elemente des R2 hatten wir den Betrag schon definiert.
Für eine komplexe Zahl z = x + iy ergibt dies
p
√
|z| := |x + iy| = x2 + y2 = zz .
Für die Multiplikation gilt nun
(a + bi)(c + di) = ac − bd + (ad + bc)i .
Inbesondere haben wir
i2 = i · i = −1 .
Damit hat die Gleichung x2 = −1 in C eine Lösung!
Mit komplexen Zahlen kann man nun im Sinne von Addition und Subtraktion, Multiplikation und Division genau so rechnen wie mit reellen Zahlen. Beachtet man i2 = −1, so wird
einfach ausmultipliziert.
Bemerkung 4.1.3. Das Produkt zweier zueinander konjugiert komplexer Zahlen ist eine
reelle Zahl:
z · z̄ = (x + iy) · (x − iy) = x2 + ixy − ixy − i2 y2 = x2 + y2 .
♦
57
4 Komplexe Zahlen
Beispiel 4.1.4. (Man beachte die übliche Schreibweise)
1. (3 + 4i)(2 − i) = 6 − 3i + 8i − 4i2 = 10 + 5i.
2. Bei der Division komplexer Zahlen benutzt man den „Trick“, den Bruch mit der zum
Nenner konjugiert komplexen Zahl zu erweitern:
3 + 4i 3 + 4i 2 + i 6 + 3i + 8i + 4i2 2 + 11i 2 11
=
·
=
= + i.
=
2−i
2−i 2+i
4 + 2i − 2i − i2
4+1
5
5
♦
Im Unterschied zu den reellen Zahlen haben wir aber keine Ordnungsrelation mit den vom
Reellen bekannten Eigenschaften.
Wir notieren die folgenden Rechenregeln:
z1 · z2 = z1 · z2 ,
z1 + z2 = z1 + z2 ,
z = z,
z · z = |z|2 ,
z−1 :=
1
z
=
z
z·z
=
1
z,
|z|2
|z| = |z| , |z1 z2 | = |z1 | · |z2 | , |z1 + z2 | ≤ |z1 | + |z2 | ,
ℜ(z) = 12 (z + z) , ℑ(z) = 2i1 (z − z) .
Beachte: Die letzten beiden Formeln lassen sich in der Gausßschen Zahlenebene gut verstehen. Zu einer komplexen Zahl z erhält man die komplex Konjugierte nämlich (nach
Definition) einfach durch Spiegelung an der reellen Achse.
4.2 Polar- und Exponentialdarstellung komplexer Zahlen
4.2.1 Polardarstellung
Betrachtet man eine komplexe Zahl z 6= 0 als Zeiger in der komplexen Zahlenebene, so kann
z offenbar auch in folgender Form dargestellt werden:
z = |z| cos ϕ + i|z| sin ϕ = |z|(cos ϕ + i sin ϕ) ,
wobei ϕ = arg(z) ein Winkel sei, den der Zeiger mit der reellen Achse bildet. Dieser Winkel
wird Argument von z genannt. Üblicherweise wird für eine eindeutige Darstellung der
Hauptwert des Winkels im Intervall ] − π, π] gesucht, d.h.,
Arg(z) ∈ ] − π, π] .
Für z = x + iy haben wir
Arg z = ϕ
x
mit ϕ aus cos ϕ =
|z|
und
0 ≤ ϕ ≤ π, falls y ≥ 0
−π < ϕ < 0, falls y < 0
,
wenn z 6= 0. Verbleibt noch Arg(0). Wir setzen der Vollständigkeit halber Arg(0) := 0.
58
4.2 Polar- und Exponentialdarstellung komplexer Zahlen
Zusammengefaßt haben wir die eindeutige trigonometrische Form oder Polardarstellung
einer komplexen Zahl z mit
z = |z| (cos Arg(z) + i sin Arg(z)) ,
wobei sich ein beliebiges Argument ϕ von z von Arg(z) nur durch Vielfache von 2π unterscheidet.
4.2.2 Komplexe Funktionen
Ein Vorteil der komplexen Zahlen besteht darin, daß man bestimmte reelle Funktionen unter
Erhaltung ihrer wichtigsten Eigenschaften auf C erweitern kann. Außer den (natürlichen)
Potenzfunktionen und damit den Polynomen sind dies die Exponential- und Hyperbelfunktionen sowie die trigonometrischen Funktionen:
exp : C → C ,
sin : C → C ,
sinh : C → C ,
exp z := ez := eℜ(z) (cos ℑ(z) + i sin ℑ(z)) ,
1 iz
1 iz
e − e−iz , cos : C → C , cos z :=
e + e−iz ,
sin z :=
2i
2
1
1 z
sinh z := e − e−z , cosh : C → C , cosh z := ez + e−z .
2
2
Diese Funktionen erfüllen die aus dem Reellen bekannten Additionstheoreme, insbesondere
gilt
1
ez1 +z2 = ez1 ez2 , e−z = z , enz = (ez )n .
e
Für z = iy mit y ∈ R erhalten wir die Euler-Formel bzw. Moivre-Formel
eiy = cos y + i sin y ,
einy = (cos y + i sin y)n = cos ny + i sin ny .
Die Moivre-Formel ermöglicht zum Beispiel die Berechnung von cos 3ϕ:
cos 3ϕ = ℜ (cos ϕ + i sin ϕ)3 = ℜ cos3 ϕ + 3 · cos2 ϕ · i sin ϕ + 3 · cos ϕ · i2 sin2 ϕ + i3 sin3 ϕ
= cos3 ϕ − 3 cos ϕ sin2 ϕ .
4.2.3 Exponential-Darstellung
Aus der Polardarstellung
z = |z| (cos Arg(z) + i sin Arg(z))
und der Euler-Formel erhalten wir nun die Exponentialdarstellung
z = |z|eiArg(z) .
59
4 Komplexe Zahlen
Während die algebraische Darstellung sehr gut geeignet ist für die Addition und Subtraktion, ist die Exponentialdarstellung besser geeignet für Multiplikation, Division und Potenzierung:
• Die komplexen Zahlen z und w werden multipliziert, indem ihre Beträge multipliziert und
ihre Argumente addiert werden:
z · w = |z|eiArg(z) · |w|eiArg(w) = |z||w|ei(Arg(z)+Arg(w)) .
• Zwei komplexe Zahlen z und w 6= 0 werden dividiert, indem ihre Beträge dividiert und
ihre Argumente subtrahiert werden:
|z|eiArg(z)
|z| i(Arg(z)−Arg(w))
z
=
=
e
.
iArg(w)
w |w|e
|w|
• Eine komplexe Zahl z wird potenziert, indem ihr Betrag potenziert und ihr Argument
vervielfacht wird:
n
zn = |z|eiArg(z) = |z|n einArg(z) .
√ π
√ 3π
Beispiel 4.2.1. Wegen 1 + i = 2ei 4 und i − 1 = 2ei 4 gilt
√ π 5 √ 3 7 √ 12
π
3
5
7
2ei 4 ·
2ei 4 π =
2
· ei(5· 4 +7· 4 π )
(1 + i) · (i − 1) =
26
1
= 26 · ei 4 π = 64 · ei(6π+ 2 π ) = 64ei 2 = 64i .
π
♦
4.3 Anwendungen
4.3.1 Komplexe Faktorisierung eines Polynoms
Wir betrachten eine quadratische Gleichung
x2 + px + q = 0
im Fall D =
Seien
p2
4
− q < 0, d.h., in dem Fall, indem keine reelle Lösung existiert.
p √
x1 := − − i −D ,
2
p √
x2 := − + i −D .
2
Dann gilt
√ √ p
p
(x − x1 )(x − x2 ) = [x + ] − i −D [x + ] + i −D
2
2
p
p2 p2
= (x + )2 − i2 (−D) = x2 + px + − + q
2
4
4
2
= x + px + q .
60
(4.3.1)
4.3 Anwendungen
Damit sind obige x1 und x2 komplexe Lösungen der Gleichung (4.3.1) im Falle
p2
4
− q < 0.
Insbesondere hat also jede quadratische Gleichung (4.3.1) mit reellen Koeffizienten genau
zwei Lösungen.
Man kann zeigen:
Satz 4.3.1 (Fundamentalsatz der Algebra). Läßt man auch komplexe Nullstellen zu, so
besitzt jedes Polynom eine Faktorisierung nur in Linearfaktoren. Insbesondere hat jedes
Polynom n-ten Grades, n ≥ 1, genau n komplexe Nullstellen.
Beispiel 4.3.2. x2 + 1 = (x + i)(x − i) .
♦
4.3.2 n-te Wurzeln in C
Wir suchen die (rellen und) komplexen Nullstellen des Polynoms f (x) = xn − 1, also die
Wurzeln der Gleichung xn = 1. Aus dem Fundamentalsatz der Algebra wissen wir, daß
f genau n komplexe Nullstellen besitzt (Vielfachheiten mitgezählt). Über die Exponentialdarstellung können wir unmittelbar n Lösungen der Gleichung angeben. Wegen eik·2π = 1
für beliebiges k ∈ Z sind (die voneinander verschiedenen komplexen Zahlen)
k
xk := ei n ·2π ,
k = 0, 1, 2, . . . , n − 1
genau n Lösungen der Gleichung, mithin die n komplexen Nullstellen von f (x) = xn − 1.
Wir erweitern die Überlegung auf die Gleichung
zn = a ,
mit a ∈ C vorgegeben.
Sei etwa a = |a| · eiArg(a) . Dann sind die Zahlen
p
Arg(a)+2kπ
n
|a| · ei n
,
k = 0, 1, 2, . . . , n − 1
genau die n Wurzeln (Lösungen) der Gleichung zn = a.
4.3.3 Geometrische Anwendungen
Da C mit R2 bzw. VO2 und E 2 (Gaußsche Zahlenebene!) identifiziert werden kann, können
wir die geometrischen Anwendungen der Vektoranalysis wie Projektion, Schnitt von Geraden, Lot auf eine Gerade und Winkel zwischen Geraden auch mit Hilfe der komplexen
Zahlen durchführen.
Wir müssen hierzu nur noch
hz, wi = ℜz · ℜw + ℑz · ℑw = ℜ(zw)
61
4 Komplexe Zahlen
für das Skalarprodukt der Vektoren z, w bemerken.
Hinzu kommen aber zusätzliche Anwendungen, die sich aus der Anwendung der Multiplikation und des komplex Konjugiertem ergeben.
Eine Kreislinie K mit Radius R und Mittelpunkt z0 ist gegeben durch
K = {z ∈ C : |z − z0 | = R} .
Mit z = x + iy, z0 = x0 + iy0 entspricht dies
{(x, y) ∈ R2 : (x − x0 )2 + (y − y0 )2 = R2 } .
Der Schnitt eines Kreises mit einer Geraden führt zu einer quadratischen Gleichung für eine
reelle Unbekannte.
Multiplizieren wir eine komplexe Zahl z mit eiϕ , ϕ ∈ R, so wird ϕ zum Argument von z
addiert, der Betrag ändert sich aber nicht:
|zeiϕ | = |zeiArg(z) eiϕ | = |z||ei(Arg(z)+ϕ |
= |z|| cos(Arg(z) + ϕ) + i sin(Arg(z) + ϕ)|
q
= |z| cos2 (Arg(z) + ϕ) + sin2 (Arg(z) + ϕ)
= |z| .
Die Multiplikation mit eiϕ bewirkt also eine Drehung um 0 mit dem Winkel ϕ.
Betrachten wir nun die Spiegelung an der reellen Achse. Diese ist durch
z = ℜz + iℑz 7→ ℜz − iℑz = z
gegeben.
Als dritte elementare Kongruenztransformation fehlt uns nur noch die Verschiebung um
|a| in Richtung eiArg(a) :
z 7→ z + a .
Eine beliebige Kongruenztransformation in der Ebene setzt sich stets aus Drehung um 0,
Spiegelung an der reellen Achse und Verschiebung zusammen.
Beispiel 4.3.3. Eine Spiegelung an einer Geraden
g = {a + teiα : t ∈ R} , α ∈ R
durch den Punkt a erhält man in folgender Weise:
Zuerst verschieben wir die Gerade g so, daß ihr Bild durch den Nullpunkt verläuft,
z 7→ z − a ,
62
4.3 Anwendungen
dann drehen wir um den Winkel −α, so daß das Bild der Gerade nun mit der reellen Achse
zusammenfällt,
z 7→ ze−iα ,
dann wird an der reellen Achse gespiegelt,
z 7→ z ,
und schließlich wieder zurück gedreht und zurück verschoben:
z 7→ zeiα ,
z 7→ z + a .
Insgesamt erhalten wir durch Verkettung dieser fünf Abbildungen die Spiegelung an g durch
z 7→ (z − a)e−iα eiα + a = (z − a)e−iα eiα + a = (z − a)e2iα + a .
♦
4.3.4 Harmonische Schwingung
Eine Funktion s : R → R der Form s(t) = A cos(ωt +α), t ∈ R, heißt harmonische Schwingung (A, ω, α ∈ R fest vorgegeben). α heißt die Nullphase, ω die Kreisfrequenz, ωt + α
die Phase und A die Amplitude.
Um das Rechnen mit harmonischen Schwingungen zu vereinfachen, betrachtet man häufig
eine Komplexifizierung der Schwingungen: Man faßt die Schwingung s(t) als Realteil
(ggf. als Imaginärteil) einer komplexen Funktion z : C → C auf:
z(t) = A cos (ωt + α) + iA sin (ωt + α)
= Aei(ωt+α) = Aeiα eiωt
| {z }
:=a
und
s(t) = ℜz(t) .
Zu beachten ist, daß a · eiωt bei laufendem t ∈ R eine Drehung des komplexen Zeigers um
den Koordinatenursprung beschreibt, da eiωt immer den Betrag 1 hat. Bei t = 0 beginnt
diese Drehung beim Zeiger a.
Die Überlagerung zweier Schwingungen t 7→ s1 (t) und t 7→ s2 (t) wird durch die Superposition
t 7→ s1 (t) + s2 (t)
beschrieben. Im Komplexen entspricht dies ebenfalls der Addition der Funktionswerte.
63
5 Matrizen, Determinanten, lineare
Abbildungen
5.1 Vorbemerkung
In ingenieurwissenschaftlichen Untersuchungen spielen lineare Gleichungssysteme eine
wichtige Rolle. Zum einen kommen sie direkt vor (z.B. bei Stabwerkberechnungen), zum
anderen ergeben sie sich durch Linearisierung nichtlinearer (und daher schwierig zu lösender) Probleme.
Probleme der Praxis führen häufig auf lineare Gleichungssysteme mit einer großen Anzahl
von Gleichungen und Unbekannten. Außerdem können die darin enthaltenen Koeffizienten von sehr unterschiedlicher Größenordnung sein. Bei der numerischen Lösung solcher
Systeme kann es daher durch Fehlerfortpflanzung zu erheblichen Genauigkeitsverlusten bis
hin zu falschen Ergebnissen kommen. Auf diese numerischen Aspekte kann im vorliegenden Text jedoch nicht eingegangen werden.
Im folgenden führen wir zuerst die Begriffe Matrix und Determinante ein. Danach werden
wir sehen, wie sie zum Beispiel für die Lösung von linearen Gleichungssystemen eingesetzt
werden können.
5.2 Matrizen
5.2.1 Der Begriff der Matrix
Ein lineares Gleichungssystem ist von der Form
a11 x1 + a12 x2 + · · · + a1k xk + · · · + a1n xn = b1
..
..
..
..
..
..
..
.. ..
.
.
.
.
.
.
.
. .
ai1 x1 + ai2 x2 + · · · + aik xk + · · · + ain xn = bi
..
..
..
..
..
..
..
.. ..
.
.
.
.
.
.
.
. .
am1 x1 + am2 x2 + · · · + amk xk + · · · + amn xn = bm .
(5.2.1)
65
5 Matrizen, Determinanten, lineare Abbildungen
Hierbei sind die Koeffizienten aik mit i = 1, . . . , m, k = 1, . . . , n und die “rechten Seiten” bi
gegebene reelle Zahlen. Die n Unbekannten xk , k = 1, . . . , n, sind so zu bestimmen, daß
alle m Gleichungen von (5.2.1) erfüllt sind.
Die Linearität des Gleichungssystems (5.2.1) besteht darin, daß die Unbekannten xk nur
in der angegebenen Form vorkommen, daß also Terme wie z.B. x13 oder x12 oder sin x3 nicht
erscheinen.
Beispiel 5.2.1. Das Gleichungssystem
√
3x1 −
5x2 +
2x3 = −7
2x1 +
3x2 + (sin 1)x3 =
4
mit den Unbekannten x1 , x2 , x3 ist linear. Das Gleichungssystem
√
−2x1 + 4 x2 + x2 x3 = 1
3x1 −
5x2 +
x3 = 0
mit den Unbekannten x1 , x2 , x3 ist nicht linear (beachte die Terme
√
x2 und x2 x3 ).
♦
Man kann das lineare Gleichungssystem (5.2.1) auch schematisch in folgender Form notieren:
x1 x2 · · · xk · · · xn 1
a11 a12 · · · a1k · · · a1n b1
..
..
..
..
..
.
.
.
.
.
(5.2.2)
ai1 ai2 · · · aik · · · ain bi
..
..
..
..
..
.
.
.
.
.
am1 am2 · · · amk · · · amn bn
Die unterhalb der Kopfzeile stehenden Zahlen enthalten bereits alle Informationen aus System (5.2.1). Die Bezeichnung der Unbekannten ist unwesentlich; statt x1 , . . . , xn könnte
man z.B. auch s1 , . . . , sn schreiben.
Es liegt daher nahe, rechteckige Schemata von Zahlen als neue mathematische Objekte
einzuführen und zu studieren.
Definition 5.2.2. Ein rechteckiges Schema von reellen Zahlen der Form


a11 a12 · · · a1k · · · a1n
..
..
.. 
 ..
.
.
. 
 .


a
a
·
·
·
a
·
·
·
a
A =  i1
in 
i2
ik
 .
..
..
.. 
 ..
.
.
. 
am1 am2 · · · amk · · · amn
(5.2.3)
heißt (reelle) Matrix vom Typ (m, n) kurz (m, n)-Matrix, ausführlich: Matrix mit m Zeilen und n Spalten. Die aik heißen Elemente der Matrix A. Der Oberbegriff zu Zeile und
Spalte ist Reihe.
♦
66
5.2 Matrizen
Bemerkung 5.2.3. 1. Mathematisch korrekt kann eine (m, n)-Matrix auch als Abbildung
A : {1, . . . , m} × {1, . . . , n} → R definieren. Die Elemente ai j sind dann die Werte A(i, j)
von A an der Stelle (i, j).
2. Zahlen sind (1, 1)-Matrizen.
3. Statt (5.2.3) schreibt man auch kurz A = (aik )i=1,...,m;k=1,...,n oder A = (aik ).
♦
Beispiel 5.2.4. Es seien
A=
3 −5 2
1
0 4

x11 x12
X =  x21 x22  .
x31 x32

und
Dann ist A eine (2, 3)-Matrix und X eine (3, 2)-Matrix.
♦
Definition 5.2.5. Eine (m, n)-Matrix, deren sämtliche Elemente gleich 0 sind, heißt (m, n)Nullmatrix und wird mit 0m×n oder kurz 0 bezeichnet.
Eine (n, n)-Matrix A = (aik ) heißt n-reihige quadratische Matrix, und die Elemente aii ,
i = 1, . . . , n, heißen Diagonalelemente.
Eine (n, n)-Matrix, deren Diagonalelemente gleich
sind, heißt n-reihige Einheitsmatrix:

1
 0

E n = E = 1n = 1 :=  ..
 .
0
1 und deren übrige Elemente gleich 0

0 ··· 0
1 ··· 0 

.
..

.
0 ··· 1
♦
Definition 5.2.6. Eine (n, n)-Matrix A = (aik ) mit aik = 0 für i > k (also unterhalb der
Diagonale) heißt obere Dreiecksmatrix:




a11 a12 · · · a1n
a11
∗
 0 a22 · · · a2n 


a22




A =  ..
 , kurz A = 
.
.
.
.
.
 .



.
.
0
0 · · · ann
0
ann
(Rechts haben wir eine schematische Schreibweise für A angegeben: Hierbei steht ∗ für
beliebige reelle Zahlen und 0 für lauter Nullen.) Analog ist eine untere Dreiecksmatrix
definiert. Eine Matrix, die sowohl obere als auch untere Dreiecksmatrix ist, heißt Diagonalmatrix; ein Beispiel hierfür ist E n .
♦
Definition 5.2.7. Aus einer (m, n)-Matrix A entsteht die zu A transponierte (n, m)-Matrix
A> , indem man die i-te Zeile von A zur i-ten Spalte von A> macht (i = 1, . . . , m).
♦
67
5 Matrizen, Determinanten, lineare Abbildungen
Beispiel 5.2.8. Es gilt
A=
3 −5 2
1
0 4


3 1
A> =  −5 0 
2 4
=⇒
und


λ 7
0
B =  0 3 −1 
0 0
6

=⇒

λ
0 0
3 0 
B> =  7
0 −1 6
mit λ ∈ R. Es ist B eine dreireihige obere und B> eine dreireihige untere Dreiecksmatrix;
hierbei kann λ = 0 oder λ 6= 0 sein.
♦
Definition 5.2.9. Man nennt (n, 1)-Matrizen Spaltenvektoren und (1, n)-Matrizen Zeilenvektoren.
♦
Beispiel 5.2.10. Somit ist


a1
 a2 


a =  ..  ein Spaltenvektor
 . 
an
und
a> = (a1
a2
...
an ) ein Zeilenvektor.
♦
Bemerkung 5.2.11. Wir hatten schon erkannt, daß die Menge Rn der reellen n-Tupel einen
Vektorraum bilden. Wir können ein n-Tupel
(a1 , a2 , . . . , an )
mit einem Zeilenvektor
(a1
a2
...
an )
oder mit einem Spaltenvektor (a1 a2 . . . an )> identifizieren. Üblich ist die Identifizierung
der n-Tupel mit den Spaltenvektoren:


a1
 a2 


(a1 , a2 , . . . , an ) =  ..  .
 . 
an
♦
68
5.2 Matrizen
Mit dieser Identifizierung führen wir folgende Bezeichnungen ein:
Rm×n := Menge der reellen (m, n)-Matrizen,
Rn := Rn×1 = {(a1 , . . . , an ) = (a1
Rn := R1×n = {(a1
...
...
an )> : ai ∈ R, i = 1, . . . , n} ,
an ) : ai ∈ R, i = 1, . . . , n} ,
Es ist also Rn bzw. Rn die Menge aller Spaltenvektoren bzw. Zeilenvektoren aus n reellen
Zahlen.
Definition 5.2.12. Zwei Matrizen A = (aik ) und B = (bik ) heißen gleich, in Zeichen A = B,
wenn sie vom gleichen Typ sind und aik = bik für alle i, k gilt.
♦
Beispiel 5.2.13. 1. Es gilt
3 −1 2
1
9 6
6=
3 −1 2 0
1
9 6 0
,
da die Matrizen nicht vom gleichen Typ sind.
2. Für
−3
a=
= (−3 7)> = (−3, 7) ∈ R2 ,
7
b=
7
−3
= (7 − 3)> = (7, −3) ∈ R2 ,
gilt a 6= b.
♦
5.2.2 Das Rechnen mit Matrizen
Definition 5.2.14. A = (aik ) und B = (bik ) seien Matrizen gleichen Typs, λ sei eine reelle
Zahl. Man setzt
A + B := (aik + bik ) , λ A := (λ aik ) .
♦
Beispiel 5.2.15. 1. Gegeben seien die Matrizen
5
1
3
2 −1 0
A=
, B=
,
2 −2 −4
3
1 0
C=
2 −1
3
1
.
Dann gilt
7
0
3
A+B =
5 −1 −4
A +C und B +C sind nicht definiert.
,
−2A =
−10 −2 −6
−4
4
8
.
2. Für einen beliebigen Spaltenvektor a = (a1 a2 . . . an )> ∈ Rn gilt

 



a1
0
0
 0   a2 
 0 

 



a =  ..  +  ..  + · · · +  ..  = a1 e1 + a2 e2 + . . . + an en .
 .   . 
 . 
0
0
an
♦
69
5 Matrizen, Determinanten, lineare Abbildungen
Das Produkt zweier Matrizen wird nicht elementweise, sondern wie folgt definiert.
Definition 5.2.16. Seien A = (aik ) eine (m, p)-Matrix und B = (bik ) eine (p, n)-Matrix.
Dann ist das Produkt
C = AB = A·B
eine (m, n)-Matrix mit den Elementen
p
cik :=
∑ ai j b jk = ai1b1k + ai2b2k + . . . + aipb pk
(i = 1, . . . , m; k = 1, . . . , n) .
j=1
(Das Element cik in der i-ten Zeile und k-ten Spalte von C ergibt sich daraus, daß die i-te
♦
Zeile von A mit der k-ten Spalte von B multipliziert wird.)
Bemerkung 5.2.17. A B ist genau dann definiert, wenn gilt:
Spaltenzahl von A = Zeilenzahl von B .
♦
Beispiel 5.2.18. Gegeben seien die Matrix
A=
3
0 1
2 −1 5

,

2 1
2 0
B =  0 3 −1 1  .
−3 2
4 3
♦
Dann ist A ∈ R2×3 und B ∈ R3×4 . Damit ist A B definiert, B A jedoch nicht. Die Berechnung
von A B ergibt:
A
3
0 1
2 −1 5
2
0
−3
3
−11

1
2 0 
3 −1 1 B

2
4 3
5 10 3
C
9 25 14
Satz 5.2.19. Sofern die jeweiligen Terme definiert sind, gelten die folgenden Rechenregeln:
E A = AE = A,
0+A = A+0 = A,
(A + B)C = AC + BC ,
A (B +C) = A B + AC ,
λ (A B) = (λ A) B = A (λ B)
(λ ∈ R) ,
A(BC) = (A B)C ,
(A B)> = B> A> .
70
5.2 Matrizen
Bei der letzten Formel beachte man die Änderung der Reihenfolge. Diese ist wesentlich,
denn im allgemeinen ist
A B 6= B A ,
auch wenn beide Produkte definiert sind.
Beispiel 5.2.20. Für
A=
0 1
0 0
,
B=
0 0
1 0
gilt
AB =
1 0
0 0
BA =
und
0 0
0 1
.
♦
5.2.3 Lineare Gleichungssysteme
Die Zweckmäßigkeit der obigen Produktdefinition zeigt folgende Anwendung. Gegeben
sei ein lineares Gleichungssystem
a11 x1 + a12 x2 + · · · + a1n xn = b1
..
..
..
..
..
.. ..
.
.
.
.
.
. .
am1 x1 + am2 x2 + · · · + amn xn = bm .
(5.2.4)
Mit den Matrizen


a11 a12 · · · a1n

..
..  ,
A :=  ...
.
. 
am1 am2 · · · amn


x1


x :=  ...  ,
xn


b1


b =  ... 
bm
ist (5.2.4) äquivalent zu
Ax = b.
(5.2.5)
Das lineare Gleichungssystem (5.2.4) kann also elegant als Matrixgleichung (5.2.5) geschrieben werden.
Man nennt A die Koeffizientenmatrix, x den Spaltenvektor der Unbekannten und b den
Spaltenvektor der “rechten Seiten” (oder der Absolutglieder).
Definition 5.2.21. Das LGS (5.2.4) heißt
• homogen, wenn b = 0 ist (also b1 = · · · = bm = 0),
• inhomogen, wenn b 6= 0 ist (also mindestens ein bi 6= 0).
Ist (5.2.4) inhomogen, so heißt
Ax = 0
zu (5.2.5) gehöriges homogenes LGS.
(5.2.6)
♦
71
5 Matrizen, Determinanten, lineare Abbildungen
Definition 5.2.22. Ein Spaltenvektor x = (x1 . . . xn )> = (x1 , . . . , xn ) ∈ Rn , der die Matrixgleichung (5.2.5) erfüllt, heißt Lösung von (5.2.5) (bzw. von (5.2.4)).
♦
Bemerkung 5.2.23. Ein homogenes LGS hat stets die triviale Lösung x = 0.
♦
5.2.4 Die inverse Matrix
Für eine (reelle oder komplexe) Zahl a ist a−1 definiert als diejenige Zahl b, mit der ab = 1
gilt. Ein solches b existiert genau dann, wenn a 6= 0 ist, und dann gilt auch ba = 1.
Für eine quadratische Matrix A soll nun durch die analoge Gleichung
AB = E
(5.2.7)
die inverse Matrix A−1 definiert werden.
Definition 5.2.24. Die Matrix A ∈ Rn×n heißt invertierbar, wenn es eine Matrix B ∈ Rn×n
gibt, so daß (5.2.7) gilt.
♦
Satz 5.2.25. Ist A ∈ Rn×n invertierbar, so gibt es genau eine Matrix B ∈ Rn×n mit (5.2.7).
Definition 5.2.26. Ist A ∈ Rn×n invertierbar, so heißt die Matrix B ∈ Rn×n mit (5.2.7) die
♦
Inverse von A (oder zu A inverse Matrix) und wird mit A−1 bezeichnet.
Bemerkung 5.2.27. 1. Neben (5.2.7) gilt dann auch B A = E; insgesamt gilt also
A A−1 = A−1 A = E .
(5.2.8)
2. Aus der Analogie zu den Zahlen darf man nicht schließen, daß jede quadratische Matrix
♦
A 6= 0 invertierbar sei.
Beispiel 5.2.28. Gegeben sei eine 2-reihige Matrix
a11 a12
A=
.
a21 a22
Gilt
a11 a22 − a12 a21 6= 0 ,
(5.2.9)
so ist A invertierbar, und es ist
A
−1
1
=
a11 a22 − a12 a21
a22 −a21
−a12
a11
.
Dies bestätigt man, indem man die Gültigkeit von (5.2.8) verifiziert.
72
♦
5.2 Matrizen
Bemerkung 5.2.29. Später werden wir sehen, daß die Bedingung (5.2.9) auch
notwendig
1
0
für die Existenz von A−1 bei A ∈ R2×2 ist. Hiermit ist z.B. die Matrix A =
nicht
1 0
invertierbar.
♦
Satz 5.2.30. Für invertierbare Matrizen A, B ∈ Rn×n gelten die folgenden Rechenregeln:
(A−1 )−1 = A ,
(A−1 )> = (A> )−1 ,
(A B)−1 = B−1 A−1 .
Bei der letzten Formel beachte man wieder die Änderung der Reihenfolge.
Mittels der Inversen können wir nun gewisse Matrixgleichungen lösen.
Beispiel 5.2.31. Gegeben seien eine invertierbare (n, n)-Matrix A und eine (n, r)-Matrix B.
Gesucht ist eine (n, r)-Matrix X mit A X = B.
Lösung. Es gilt (man beachte die jeweilige Rechenregel)
AX = B
⇐⇒
A−1 (A X) = A−1 B
⇐⇒
X = A−1 B .
⇐⇒
(A−1 A)X = A−1 B
⇐⇒
E X = A−1 B
♦
5.2.5 Spezielle Produkte einspaltiger Matrizen
Seien a, b ∈ Rn = Rn×1 . Dann ist ihr Matrix-Produkt (für n > 1) nicht definiert. Definiert ist
aber das Produkt von a> und b. Dieses ist vom Typ (1, 1), also eine Zahl, und wir erkennen
es als (euklidisches) Skalarprodukt von a und b:
n
a> b = ∑ ai bi = ha, bi .
i=1
Es gilt
b> a = (a> b)> = a> b ,
da a> b eine Zahl ist.
Seien a ∈ Rm = Rm×1 , b ∈ Rn = Rn×1 . Dann ist es auch möglich, das Produkt von a und
b> zu bilden. Es ist vom Typ (m, n), also eine (m, n)-Matrix:
a b> = C
mit Ci j = ai b j .
Dieses Produkt wird dyadisches Produkt genannt. Es gilt
(a b> )> = (b> )> a> = b a> .
73
5 Matrizen, Determinanten, lineare Abbildungen
Beispiel 5.2.32. Sei a = (2, −1) =
a b> =
2
−1
0
8
6
0 −4 −3


0
, b = (0, 4, 3) =  4 . Es gilt
3

,

0
0
ba> =  8 −4  .
6 −3
♦
5.3 Determinanten
5.3.1 Der Begriff der Determinante
Definition 5.3.1. Die Determinante det A einer n-reihigen (also quadratischen) Matrix A
ist rekursiv definiert durch:
• Für n = 1 gilt
det A = a11 .
• Für n ≥ 2 gilt
n
det A := ∑ (−1)i+1 ai1 det Ai1 .
i=1
Hierbei bezeichnet Ai1 , i = 1, . . . , n, die (n − 1)-reihige Matrix, die aus A durch Streichen
der ersten Spalte und der i-ten Zeile entsteht.
♦
Bemerkung 5.3.2. 1. Für n = 2 erhalten wir die schon bekannte Formel
det A = a11 a22 − a21 a12 .
2. Für n = 3 finden wir
a22 a23
a12 a13
a12 a13
det A = a11 det
− a21 det
+ a31 det
a32 a33
a32 a33
a22 a23
= a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 ) ,
also ebenfalls die schon bekannte Formel.
3. Für n ≥ 2 wird det A durch Entwicklung nach der ersten Spalte definiert.
4. Statt det A schreibt man auch |A|. Man beachte aber die Verwechslungsmöglichkeit mit
dem Betrag.
♦
74
5.3 Determinanten
Beispiel 5.3.3. 1. Es gilt






3 1
5
0
1
5 0
2
1 −1
 0 2

1 −1 
3  − |{z}
det 
0 · det  4 −2 3 
= 3 · det  4 −2
 0 4 −2
3  |{z}
3
0 2
3
0
2
a21
a11
2 3
0
2
{z
}
{z
}
|
|
A11
A21




1 5
0
1
5
0
1 −1  .
+ |{z}
0 · det  2 1 −1  − |{z}
2 · det  2
3 0
2
4 −2
3
a41
a31
|
{z
}
|
{z
}
A31
A41
Weiter gilt
det A11 = 2 · det
−2 3
0 2
− 4 · det
1 −1
0
2
+ 3 · det
1 −1
−2
3
= 2 · [(−2) · 2 − 3 · 0] − 4 · [1 · 2 − (−1) · 0] + 3 · [1 · 3 − (−1) · (−2)] = −13 .
det A21 und det A31 brauchen nicht berechnet zu werden, da sie mit Null multipliziert werden
und somit keinen Beitrag liefern. Ferner gilt det A41 = −49 (nachrechnen!). Hiermit ist
schließlich
det A = 3 · (−13) − 2 · (−49) = 59 .
2. Es sei A eine beliebige obere Dreiecksmatrix:


a11
∗


a22


A=
 (∗ :
.
.


.
0
ann
beliebige Elemente).
Man erhält
det A = a11 · det A11 − 0 · det A21 + − · · · + (−1)n+1 · 0 · det An1 = a11 det A11 .
Hierbei ist z.B.

∗
a22
...

A11 = 
0



ann
wieder eine obere Dreiecksmatrix. Daher ergibt sich hier
det A = a11 a22 · · · ann .
Die Determinante einer Dreiecksmatrix läßt sich also besonders einfach berechnen.
Dies wird später die Grundlage für ein Verfahren zur numerischen Berechnung von Determinanten sein.
♦
75
5 Matrizen, Determinanten, lineare Abbildungen
5.3.2 Das Rechnen mit Determinanten
Sei A ∈ Rn×n , n ≥ 2.
Definition 5.3.4. Mit Aik bezeichnen wir die (n − 1)-reihige Matrix, die aus A durch Streichen der i-ten Zeile und der k-ten Spalte (also gerade der Zeile und Spalte, in der aik steht)
entsteht.
♦
Satz 5.3.5 (Entwicklungssatz). Die Determinante det A einer Matrix A ∈ Rn×n , n ≥ 2,
kann durch Entwicklung nach einer beliebigen Spalte oder Zeile berechnet werden. Dabei bedeutet
– Entwicklung nach der k-ten Spalte:
n
det A = ∑ (−1)i+k aik det Aik ,
i=1
– Entwicklung nach der i-ten Zeile:
n
det A =
∑ (−1)i+k aik det Aik .
k=1
Bemerkung 5.3.6. 1. Die Vorzeichen (−1)i+k können nach dem “Schachbrettmuster” ermittelt werden:


+ − + ···
 − + − ··· 


 + − + ··· .


.. .. .. . .
.
. . .
2. Dieser Satz eignet sich zur Berechnung einer n-reihigen Determinante, falls n klein ist
oder viele Elemente gleich 0 sind.
♦
Beispiel 5.3.7. Die Determinante der Matrix


1
3 4
A =  3 −2 2 
0
2 0
berechnet man zweckmäßig durch Entwicklung nach der 3. Zeile und erhält:
1 4
+0 · det A33 = 20 .
det A = 0 · det A31 − 2 · det
3 2
|
{z
}
det A32
76
♦
5.3 Determinanten
Satz 5.3.8 (Eigenschaften). Sei A ∈ Rn×n mit den Spalten s1 , . . . , sn , d.h.,


 
s1,1 · · · sn,1
> ··· >

..  .
A = (s1 , . . . , sn ) =  s1 · · · sn  =  ...
. 
⊥ ··· ⊥
s1,n · · · sn,n
1. Vertauscht man zwei (verschiedene) Spalten si und sk , so wechselt die Determinante das
Vorzeichen:
det(s1 , . . . , si , . . . , sk , . . . , sn ) = − det(s1 , . . . , sk , . . . , si , . . . , sn ) (i 6= k) .
2. Herausziehen eines gemeinsamen Faktors aus einer Spalte:
det(s1 , . . . , α si , . . . , sn ) = α det(s1 , . . . , si , . . . , sn ) (α ∈ R) .
3. Addition zweier n-reihiger Determinanten, die sich nur in einer Spalte unterscheiden:
det(s1 , . . . , si , . . . , sn ) + det(s1 , . . . , s0i , . . . , sn ) = det(s1 , . . . , si + s0i , . . . , sn ) .
4. Addition eines Vielfachen der k-Spalte zur i-ten Spalte, k 6= i, ändert die Determinanten
nicht:
det(s1 , . . . , si , . . . , sk , . . . , sn ) = det(s1 , . . . , si + αsk , . . . , sk , . . . , sn ) (i 6= k, α ∈ R) .
5. Es gilt det(s1 , . . . , sn ) = 0 genau dann, wenn die s1 , . . . , sn linear abhängig sind. Insbesondere verschwindet die Determinante, wenn eine Spalte aus lauter Nullen besteht, oder
wenn zwei Spalten gleich oder proportional zueinander sind.
6. Eine Determinante ändert ihren Wert nicht, wenn man die Matrix transponiert,
det A = det A> .
Alle obigen Eigenschaften gelten daher auch für Zeilen.
7. Für Matrizen A, B ∈ Rn×n gilt
det(A B) = (det A)(det B) .
Weiter haben wir:
Satz 5.3.9 (Invertierbarkeitskriterium). Für n-reihige Matrizen A gilt
A ist invertierbar
⇐⇒
det A 6= 0 .
Ist det A 6= 0, so gilt
det(A−1 ) =
1
.
det A
77
5 Matrizen, Determinanten, lineare Abbildungen
Die zweite Aussage des Satzes folgt aus
1 = det E = det(A A−1 ) = (det A)(det A−1 ) ,
wobei das dritte Gleichheitszeichen nach Satz 5.3.8 mit B := A−1 gilt.
Beispiel 5.3.10. Für die Matrix
A=
a11 a12
a21 a22
gilt det A = a11 a22 − a12 a21 . Nach Satz 5.3.9 ist A also genau dann invertierbar, wenn
a11 a22 − a12 a21 6= 0
♦
gilt, vgl. Beispiel 5.2.28.
5.3.3 Anwendungen auf LGS im Fall m = n
Wir betrachten nun das LGS (5.2.4) mit m = n, d.h.,
Anzahl der Gleichungen (m) = Anzahl der Unbekannten (n),
also ein LGS der Form
a11 x1 + · · · + a1n xn = b1
..
..
..
.. ..
.
.
.
. .
an1 x1 + · · · + ann xn = bn ,
(5.3.1)
Ax = b
(5.3.2)
kurz
mit einer quadratischen Matrix A.
Satz 5.3.11. Gegeben sei eine Matrix A ∈ Rn×n . Dann sind die folgenden Aussagen äquivalent:
(a) Das homogene LGS A x = 0 hat nur die triviale Lösung x = 0.
(b) Für jedes b ∈ Rn hat das inhomogene LGS (5.3.2) genau eine Lösung x ∈ Rn .
(c) Die Matrix A ist invertierbar.
(d) Es gilt det A 6= 0.
Folgerung 5.3.12. Ist A invertierbar, so ist die Lösung x von (5.3.2) gegeben durch
x = A−1 b .
78
(5.3.3)
5.3 Determinanten
Die Lösungsdarstellung (5.3.3) für (5.3.2) ist ein Spezialfall der Lösung X = A−1 B für die
Matrixgleichung A X = B, (s. Beispiel 5.2.31), wobei nun B die einspaltige Matrix b ∈ Rn
ist.
Satz 5.3.13. Für invertierbare n-reihige Matrizen A gilt
A−1 =
1
(ãik )
det A
mit ãik := (−1)i+k det Aik .
Beispiel 5.3.14. Die Lösung (x1 , x2 , x3 ) ∈ R3 des LGS
x1 + 2x2 − x3 = b1
x2 + 2x3 = b2
−x1 + 3x2 + x3 = b3
ist für einen beliebigen Vektor (b1 , b2 , b3 ) ∈ R3 darzustellen.
Lösung. Für


1 2 −1
2 
A= 0 1
−1 3
1
erhalten wir mit Satz 5.3.13
1 2
0 2
0
det
− det
det

3
1
−1
1
−1


1
2 −1
1 −1
1
−1


  − det
A =
det
− det
1 1 1 2 −1

3
−1
−1



2
−1
1
−1
1
0 1
2
det
det
− det
det
1
2
0
2
0
−1 3
1


1 1
− 21
2 2
1
1 
.
=
5 0
5
1
1
1
− 10 2 − 10


1
3 


2

3 


2
1
Nach (5.3.3) ist also
 
1
x1
2 b1 +
1
 x2  = 
5 b1
1
x3
− 10
b1 +

1
2 b2
1
2 b2
−
+
−
1
2 b3
1
5 b3
1
10 b3

.
♦
Abschließend geben wir eine Lösungsdarstellung mittels Determinanten an.
79
5 Matrizen, Determinanten, lineare Abbildungen
Satz 5.3.15 (Cramer-Regel). Ist A = (aik ) ∈ Rn×n invertierbar und b ∈ Rn , dann hat das
LGS (5.3.1) die Lösung x = (x1 , . . . , xn ) mit


a11 . . . a1i−1 b1 a1i+1 . . . a1n
1


..
..
..
xi =
· det 
(5.3.4)
,
.
.
.
det A
an1 . . . ani−1 bn ani+1 . . . ann
d.h., zur Berechnung von xi wird die i-te Spalte von A durch b ersetzt, i = 1, . . . , n.
Wegen des hohen Aufwandes bei der Determinantenberechnung hat diese Regel zur praktischen Lösung eines LGS nur für n ≤ 3 und in einigen Spezialfällen Bedeutung.
Beispiel 5.3.16. Das LGS
2x1 + x2 − x3 = −6
x1
− 2x3 = −8
−x1 + 3x2 + 4x3 = 17
soll nach der Cramer-Regel gelöst werden.
Lösung. Zunächst ist


2 1 −1
det A = det  1 0 −2  = 7 .
−1 3
4
Wegen det A 6= 0 ist A invertierbar, also die Cramer-Regel anwendbar. Nach (5.3.4) ist




−6 1 −1
2 −6 −1
1
1
x1 = det  −8 0 −2  = −2 , x2 = det  1 −8 −2  = 1 ,
7
7
17 3
4
−1 17
4


2 1 −6
1

1 0 −8  = 3 .
x3 = det
7
−1 3 17
♦
Das folgende Beispiel demonstriert, daß die Cramer-Regel aber auch für spezielle höherdimensionale Probleme sinnvoll eingesetzt werden kann:
Beispiel 5.3.17. Betrachte das LGS

1
 2
A x = b mit A = 
 3
0
2
3
0
1
3
0
2
0

0
0 
,
1 
2
Gesucht ist nur die zweite Komponente x2 der Lösung x.
80


2
 0 

b=
 1 .
0
5.4 Numerische Algebra
Lösung. Mit Entwicklung nach der vierten Zeile erhalten wir




1 3 0
1 2 3
det(A) = 1 det  2 0 0  + 2 det  2 3 0  = −6 + 2 · (6 − 8 − 27)) = −64 .
3 2 1
3 0 2
Weiter folgt mit (5.3.4) und Entwicklung nach der vierten Zeile




1 2 3 0
1
2
3
 2 0 0 0 


 = 2 · (6 − 8) = −4
det 
 3 1 2 1  = 2 det 2 0 0
3 1 2
0 0 0 2
und daher x2 =
1
16 .
♦
5.4 Numerische Algebra
In diesem Abschnitt beschäftigen wir uns mit der numerischen Berechnung der Lösung
von linearen Gleichungssystemen, der Inversion von Matrizen und der Berechnung von
Determinanten.
5.4.1 Elementare Umformungen von Matrizen
Wir kommen zu einer Methode, die sich bei verschiedenartigen Problemen als sinnvoll
erweisen wird.
Definition 5.4.1. Man unterscheidet folgende Typen von elementaren Zeilenumformungen (EZU) einer (m, n)-Matrix:
Typ 1: Vertauschung zweier Zeilen.
Typ 2: Multiplikation einer Zeile mit einer Zahl λ 6= 0.
Typ 3: Addition des λ -fachen (λ ∈ R) einer Zeile zu einer anderen Zeile.
♦
Analog sind elementare Spaltenumformungen (ESU) definiert.
Beispiel 5.4.2. Die Matrix


−1
1
2
3
 2 −2
3 −1 

A=
 −3 −1
2
4 
0
2 −1
0
81
5 Matrizen, Determinanten, lineare Abbildungen
soll durch EZU der Typen 1 und 3 in eine obere Dreiecksmatrix D umgeformt werden.
Lösung.
1. Schritt: Geeignete Vielfache der ersten Zeile zur zweiten, dritten usw. Zeile addieren, so
daß die erste Spalte unterhalb des Hauptdiagonalelements nur Nullen enthält. Es wird also
die mit 2 (bzw. mit −3) multiplizierte erste Zeile zur zweiten (bzw. dritten) Zeile addiert:




−1
1
2
3
·2
·(−3)
−1
1
2
3
 2 −2
Typ 3 
3 −1 
7
5 
 ←
 0 0

A=
−→
 0 −4 −4 −5  =: A1 .
 −3 −1
2
4 
←
0
2 −1
0
0
2 −1
0
2. Schritt: Nun sollen in der zweiten Spalte unterhalb des Hauptdiagonalelements Nullen
erzeugt werden. Hierzu ist die mit geeigneten Vielfachen multiplizierte zweite Zeile zu den
folgenden Zeilen zu addieren. Dies gelingt wegen der eingerahmten Null zunächst nicht.
Daher wird zuvor die zweite gegen die vierte Zeile ausgetauscht:




−1
1
2
3
−1 1
2
3
Typ 1  0
·2 Typ 3 
2 −1
0 
0 

 0 2 −1

A1 −→ 
−→
 0 −4 −4 −5  ←
 0 0 −6 −5  =: A2
0
0
7
5
0 0
7
5
3. Schritt: Unterhalb des Hauptdiagonalelements der dritten Spalte Nullen erzeugen:




−1 1
2
3
−1 1
2
3
 0 2 −1
Typ 3 
0 
0 
 0 2 −1


A2 = 
−→
7
 0 0 −6 −5  =: D .
 0 0 −6 −5 
·6
0 0
7
5
0 0
0 − 56
←
♦
Satz 5.4.3. Jede quadratische Matrix A ∈ Rn×n kann durch endlich viele EZU der Typen 1
und 3 in eine obere Dreiecksmatrix D umgeformt werden. Hierbei gilt
A ist invertierbar
⇐⇒
Alle Diagonalelemente von D sind ungleich 0.
Außerdem gilt:
Satz 5.4.4. Gegeben seien Matrizen A ∈ Rn×n , B ∈ Rn×r und C ∈ Rn×r mit AC = B. Entstehen à und B̃ gleichzeitig durch endlich viele EZU (der Typen 1, 2, 3) aus A bzw. B, so
gilt ÃC = B̃, siehe folgendes Schema:
A | B
AC = B
82
EZU
=⇒
à | B̃
ÃC = B̃ .
5.4 Numerische Algebra
5.4.2 Berechnung der Inversen
Als erste Anwendung von Satz 5.4.4 behandeln wir die Berechnung der Inversen zu einer
Matrix A ∈ Rn×n .
Rechts neben A notiert man die Einheitsmatrix E ∈ Rn×n . Alle im folgenden beschriebenen
Umformungen werden gleichzeitig auf A und E angewendet. Durch EZU vorwärts (d.h.
von oben nach unten, vgl. Beispiel 5.4.2) überführt man A in eine obere Dreiecksmatrix D.
Hierbei ergibt sich einer der beiden folgenden Fälle.
Fall 1: Mindestens ein Diagonalelement von D ist gleich 0.
Dann existiert A−1 nicht (Satz 5.4.3).
Fall 2: Alle Diagonalelemente von D sind ungleich 0.
Dann kann D durch EZU rückwärts (d.h. von unten nach oben) in die Einheitsmatrix E
überführt werden, und rechts neben E steht A−1 :
|
A
E
EZU
=⇒
E
|
A−1 .
(Zur Rechtfertigung des Verfahrens im Fall 2 wendet man Satz 5.4.4 mit B := E, C := A−1
und à := E an: Dann ist AC = E und daher ÃC = B̃, also B̃ = C = A−1 .)
Beispiel 5.4.5. Gesucht ist die Inverse der Matrix


1 2 −1
2 .
A= 0 1
−1 3
1
♦
Lösung. Gemäß obigen Schema erhält man
1
0
−1
1
0
0
1
0
0
1
0
0
2
1
3
2
1
5
2
1
0
0
1
0
A
−1
2
1
−1
2
0
−1
2
−10
−5
2
−10
1
0
0
1
0
1
1
0
1
1
0
1
0
1
0
0
1
0
0
1
−5
−2
1
−5
E
0
0
1
0
0
1
0
0
1
0
0
1
Bemerkung
·1
EZU Typ 3 vorwärts
←
·(−5)
EZU Typ 3 vorwärts
·(−2)
EZU Typ 3 rückwärts
←
←
←
←
EZU Typ 3 rückwärts
· 15
·(− 12 )
83
5 Matrizen, Determinanten, lineare Abbildungen
1 0
0
0 1
0
0 0 −10
1 0 0
0 1 0
0 0 1
E
1
2
1
5
1
2
− 12
0
1 −5
1
1
2
1
5
1
− 10
1
2
0
1
2
1
5
− 21
EZU Typ 2
1
)
·(− 10
1
5
1
− 10
−1
A
Zur Kontrolle kann man bestätigen, daß A A−1 = E gilt. (Hiermit gilt dann „automatisch”
auch A−1 A = E; vgl. Bemerkung 5.2.27.)
5.4.3 Lösung einer Matrixgleichung
Das folgende allgemeinere Verfahren ergibt sich (mit beliebiger Matrix B statt E) ebenfalls
aus Satz 5.4.4.
Gegeben seien Matrizen A ∈ Rn×n und B ∈ Rn×r . Gesucht ist eine Matrix X ∈ Rn×r , so daß
A X = B gilt.
Rechts neben A notiert man die Matrix B. Im übrigen verfährt man wie bei der Berechnung
von A−1 über eine Diagonalmatrix D. Hierbei ergibt sich einer der beiden folgenden Fälle.
Fall 1: Mindestens ein Diagonalelement von D ist gleich 0.
Dann existiert A−1 nicht und die Gleichung A X = B nicht oder nicht eindeutig lösbar.
Fall 2: Alle Diagonalelemente von D sind ungleich 0.
Dann kann D durch EZU rückwärts in die Einheitsmatrix E überführt werden, und rechts
neben E steht A−1 B:
A
|
B
EZU
=⇒
E
|
A−1 B .
5.4.4 Berechnung der Determinanten
Mit den Sätzen 5.4.3 und 5.3.8 ergibt sich folgendes Verfahren zur numerischen Berechnung
von det A:
84
5.4 Numerische Algebra
Zu berechnen sei die Determinante der Matrix A ∈ Rn×n . Durch EZU der Typen 1 und 3
verwandle man A in eine obere Dreiecksmatrix:


ã11
∗


ã22


à = 
 (∗ : beliebige Elemente).
.
.


.
0
ãnn
Wurden hierzu r Zeilenvertauschungen (EZU Typ 1) benötigt, so gilt
det A = (−1)r det à = (−1)r ã11 ã22 · · · ãnn .
Beispiel 5.4.6. Zu berechnen ist die Determinante der Matrix


0
2 −1
3
 1 −2
0
1 
.
A=
 3
2 −1 −1 
2
0
2
1
Lösung. Zuerst vertauschen wir die 1. und 2. Zeile (EZU Typ 1), um an der Stelle a11 ein
von Null verschiedenes Element zu erhalten, dann folgen EZU Typ 3:


·(−3)
·(−2)
1 −2
0
1

Typ 1  0
2
−1
3

A −→ 
 3
2 −1 −1  ←
2
0
2
1
←


1

Typ 3
0
−→ 
 0
0

1 −2
0
1
Typ 3  0
·(−4)
·(−2)
2 −1
3 

−→ 
 0
8 −1 −4  ←
0
4
2 −1
←


1 −2
0
1
−2
0
1


Typ 3
0
2 −1
3
2 −1
3 
−→ 
4


0
0
3 −16
0
3 −16
·(− 3 )
43
0
4
7
0
0
0
←
3


 = Ã .

Da zur Umwandlung von A in à eine Zeilenvertauschung benötigt wurde, gilt
det A = (−1)1 det à = (−1) · 1 · 2 · 3 ·
43
= −86 .
3
♦
85
5 Matrizen, Determinanten, lineare Abbildungen
5.4.5 Lineare Gleichungssysteme
Wir betrachten nun den Gauß-Algorithmus zur Lösung des Gleichungssystems
Ax = b
mit


a11 · · · a1n


A :=  ... . . . ...  ,
am1 · · · amn
(5.4.1)


x1


x :=  ...  ,
xn


b1


b :=  ...  .
bm
Hierbei kann m < n, m = n oder m > n sein.
Wir benötigen die erweiterte Koeffizientenmatrix

a11 · · · a1n
 .. . .
.
(A|b) :=  .
. ..
am1 · · · amn

b1
..  .
. 
bm
Definition 5.4.7. Eine Matrix à ∈ Rm×n hat die Zeilenstufenform, wenn à die Form


∗
··· ∗
 0 0 ∗
··· ∗ 


 0 0 0 ∗

·
·
·
∗

 . . .
...
 . . .

.
.
.


à = 

 0 0 0 ··· 0 ∗ ··· ∗ 


···
0 
 0
 .
.. 
 ..
. 
0
···
0
hat, wobei folgendes gilt:
1. Die Pivot-Elemente sind ungleich 0, und ∗ bezeichnet beliebige Zahlen.
2. In jeder Zeile stehen links von den Pivot-Elementen nur Nullen.
3. Von einer Zeile zur darunter stehenden nimmt die Zahl der Nullen links von den PivotElementen um mindestens eins zu.
♦
Beispiel 5.4.8. 1. Jede obere Dreiecksmatrix, deren sämtliche Diagonalelemente ungleich
0 sind, hat Zeilenstufenform.
2. Von den Matrizen

3
 0
B=
 0
0
86
−1
0
0
0
0
-5
0
0
5
4
1
0

1
2 
,
0 
0

3
 0
C=
 0
0
−1
0
0
0
0
-5
2
0
5
4
1
0

1
2 

0 
0
5.4 Numerische Algebra
hat B Zeilenstufenform, C jedoch nicht, da die Zahl der Nullen links von von der zweiten
zur dritten Zeile nicht zunimmt.
♦
Überführung einer Matrix A in Zeilenstufenform Ã
Schritt 1: Sicherstellen, daß an der Stelle a11 von A eine Zahl ungleich 0; hierzu evtl.
Zeilen vertauschen.
Schritt 2: In der Spalte unterhalb des Pivot-Elements Nullen erzeugen (EZU); es entsteht
eine Matrix der Form


 
∗ ··· ∗
∗ ··· ∗

 0 ∗ ··· ∗   0


 
=
.
 .. ..


..
..

 . .


.
.
A1
0
0 ∗ ··· ∗
Schritt 3: Mit der (m − 1, n − 1)-Matrix A1 (“Restmatrix”) analog Schritt 1 verfahren:
Sicherstellen, daß in der am weitesten links stehenden Spalte von A1 , welche Elemente
ungleich 0 enthält1 , ein solches Pivot-Element in der ersten Zeile von A1 (also in der
zweiten Zeile von A) steht; hierzu evtl. Zeilen von A1 vertauschen.
Schritt 4: Mit A1 analog Schritt 2 verfahren, usw..
Die Zeilenstufenform à ist hergestellt, wenn man entweder in der letzten Zeile von A angekommen ist oder eine nur aus Nullen bestehende “Restmatrix” erhalten hat.
Der folgende Satz stellt die Beziehung zu LGS dar.
Satz 5.4.9. Geht die Matrix (Ã|b̃) durch endlich viele EZU aus der Matrix (A|b) hervor, so
sind die LGS A x = b und à x = b̃ äquivalent, sie haben also genau dieselben Lösungen x.
Hieraus ergibt sich ein auf C. F. Gauß zurückgehendes Verfahren zur Lösung von LGS.
Gauß-Algorithmus zur Lösung des LGS A x = b
(das homogene LGS ist als Spezialfall mit b = 0 enthalten!)
1 Es
ist möglich, daß außer der ersten Spalte von A1 auch die zweite Spalte usw. nur Nullen enthält (vgl.
Schema 1).
87
5 Matrizen, Determinanten, lineare Abbildungen
I. Elimination: Überführe die erweiterte Koeffizientenmatrix (A|b) durch EZU in eine
Matrix (Ã|b̃), so daß Ã Zeilenstufenform hat:
x1
xn 1
b̃1
..
.
∗
...
...
0
0
..
.
···
0
..
.
b̃r
b̃r+1
..
.
0
···
0
b̃m
II. Feststellung zur Lösbarkeit:
A x = b ist lösbar
⇐⇒
b̃r+1 = · · · = b̃m = 0 .
(5.4.2)
(Die Lösbarkeit liegt also im homogenen Fall b = 0 stets vor!)
Ist A x = b nicht lösbar, dann stopp.
Ist A x = b lösbar, dann gehe zu III.
III. Feststellung freier Parameter:
Unbekannte xk , die zu Spalten k von à ohne ein Pivot-Element gehören, sind freie Parameter; sie können beliebige reelle Zahlen annehmen.
IV. Rückwärtsrechnung:
Die Unbekannten xk , die zu Spalten k von à mit einem Pivot-Element gehören, werden
“rückwärts” (von unten nach oben) aus der Gleichung
à x = b̃
in Abhängigkeit von den freien Parametern berechnet.
Beispiel 5.4.10. 1. Gesucht sind die Lösungen x ∈ R4 des homogenen LGS A x = 0 mit der
nachfolgend bezeichneten Matrix A.
Lösung. Wir führen die vier Schritte des Gauß-Algorithmus aus.
I. Mit
x1 x2 x3 x4
2
3
0 −2
·1
·(− 12 )
·(−3)
0
6 ←
A −2 −3
3
1
2
←
2 −1
6
9
0 −6
←
2
3
0 −2
0
0
0
4
0
0 −1
3
0
0
0
0
88
5.4 Numerische Algebra
erhalten wir

2
 0
à = 
 0
0

0 −2
3 
-1
.
0 4 
0
0
3
0
0
0
II. Als homogenes LGS ist das LGS lösbar.
III. Aus der Form von à liest man ab, daß x2 = λ ein freier Parameter ist.
IV. Aus à x = 0 erhält man rückwärts:
4x4 = 0 ,
−1x3 + 3 · 0 = 0 ,
also
also
2x1 + 3λ + 0 · 0 = 0 ,
also
Ergebnis: Für jedes λ ∈ R ist

x1
 x2

 x3
x4
x4 = 0 ,
x3 = 0 ,
3
x1 = − λ .
2


 = (x1 , x2 , x3 , x4 ) = λ (− 3 , 1, 0, 0)

2
eine Lösung des gegebenen LGS A x = 0.
Speziell für λ = 0 hat man die Lösung (x1 , x2 , x3 , x4 ) = (0, 0, 0, 0)
Für λ = 2 ergibt sich die Lösung (x1 , x2 , x3 , x4 ) = (−3, 2, 0, 0).
2. Gesucht sind die Lösungen des LGS
x + 2y − z = 4
−2x − 4y + 2z = c ;
wobei c ∈ R ein Parameter ist.
Lösung. I. Mit
x
y
z 1
·2
1
2 −1 4
−2 −4
2 c
←
1
2 −1 4
0
0
0 8+c
erhalten wir
à =
1 2 −1
0 0
0
,
b̃ =
4
8+c
.
II. Ist 8 + c 6= 0, also c 6= −8, dann ist das LGS unlösbar; für c = −8 ist es lösbar.
89
5 Matrizen, Determinanten, lineare Abbildungen
III. Es sei nun c = −8. Dann sind y = λ und z = µ freie Parameter.
IV. Aus der ersten Gleichung ergibt sich x + 2λ − µ = 4, also x = 4 − 2λ + µ.
Ergebnis: Für c = −8 hat das gegebene LGS die Lösungen
   


 
x
4
−2
1
 y  =  0 +λ  1 + µ  0 ;
z
0
0
1
λ,µ ∈ R.
♦
Zusammenfassung
Ein homogenes LGS hat stets die Lösung x = 0; es kann darüber hinaus Lösungen haben,
die von einem oder mehreren freien Parametern abhängen (Beispiel 5.4.10, 1.).
Ein inhomogenes LGS kann
• unlösbar sein (Beispiel 5.4.10, 2., im Fall c 6= −8),
• eindeutig lösbar sein, oder
• Lösungen haben, die von einem oder mehreren freien Parametern abhängen (Beispiel
5.4.10, 2., im Fall c = −8).
5.4.6 Anwendung: Lineare Unabhängigkeit von Vektoren
Die Vektoren v(1) , . . . , v(n) des Vektorraums V wurden linear unabhängig genannt, wenn die
Gleichung
(5.4.3)
λ1 v(1) + · · · + λn v(n) = 0
nur die triviale Lösung λ1 = · · · = λn = 0 hat. Sei (b1 , . . . , bm ) eine Basis von V . Dann
existieren eindeutig bestimmte Koordinatenvektoren w(1) , . . . , w(n) ∈ Rn mit
(i)
v
m
=
∑ wk
(i)
bk
k=1
und die Vektoren v(1) , . . . , v(n) sind genau dann linear unabhängig, wenn ihre KoordinatenVektoren linear unabhängig sind.
O.B.d.A. können wir also V = Rm annehmen. Die Gleichung (5.4.3) lautet dann
(1)
(n)
v1 λ1 + · · · + v1 λn = 0
..
..
..
.. ..
.
.
.
. .
(1)
(n)
vm λ1 + · · · + vm λn = 0 ,
das heißt, wir haben ein homogenes LGS für den Vektor λ .
90
(5.4.4)
5.5 Begriff und Darstellung linearer Abbildungen
Nach dem Gauß-Algorithmus erhalten wir als Bedingung für die eindeutige Auflösbarkeit,
daß in jeder Spalte der Zeilenstufenform ein Pivot-Element steht. Dies ist nur möglich,
wenn n ≤ m gilt, d.h., wenn es mindestens soviel Gleichungen wie Unbekannte gibt.
Beispiel 5.4.11. Die Vektoren
 
0
v(1) =  3  ,
2


1
v(2) =  2  ,
−1


−1
v(3) =  4 
5
sind auf lineare Unabhängigkeit zu untersuchen.
Lösung. Das LGS (5.4.4) (mit n = m = 3) lautet
3λ1
2λ1
λ2 − λ3 = 0
+ 2λ2 + 4λ3 = 0
− λ2 + 5λ3 = 0 .
Der Gauß-Algorithmus führt zu (wobei wir gleich die erste mit der dritten Zeile getauscht
haben)
λ1 λ2 λ3
·(− 32 )
2 −1
5
←
3
2
4
0
1 −1
2 −1
5
7
7
·(− 27 )
0
2 −2
←
0
1 −1
2 −1
5
0
0
7
2
− 72
0
0
♦
Da die dritte Spalte kein Pivot-Element enthält, haben wir keine eindeutige Lösung λ und
v(1) , v(2) und v(3) sind linear abhängig.
5.5 Begriff und Darstellung linearer Abbildungen
5.5.1 Definitionen und Beispiele
Lineare Funktionen oder – wie man meist sagt – lineare Abbildungen zwischen Vektorräumen sind besonders “handliche” Funktionen. Sie spielen auch für nichtlineare Funktionen
(als lokale Approximationen) eine wichtige Rolle (siehe z.B. später die mehrdimensionale
Differentialrechnung).
91
5 Matrizen, Determinanten, lineare Abbildungen
Definition 5.5.1. Es seien V und W Vektorräume. Eine Abbildung L : V → W heißt linear,
wenn:
(L1) L(v + w) = L(v) + L(w) für alle v, w ∈ V ,
(L2) L(λ v) = λ L(v) für alle λ ∈ R , v ∈ V .
Bemerkung 5.5.2. 1. Vektoren (Ausnahme: n-Tupel) werden wir hier nicht mehr besonders kennzeichnen.
2. Ist L : V → W eine lineare Abbildung, so gilt für beliebige v1 , . . . , v p ∈ V und λ1 , . . . , λ p ∈
R:
!
p
p
∑ λivi
L
= ∑ λi L(vi ) .
i=1
(5.5.1)
i=1
Durch lineare Abbildung werden also Linearkombination von Vektoren v1 , . . . , v p ∈ V abgebildet auf die entsprechende Linearkombination der Bildvektoren L(v1 ), . . . , L(v p ) ∈ W.
x
L(x)
v2
L(v2 )
v1
V
L
L(v1 )
W
Aus (L2) mit λ = 0 folgt insbesondere L(0) = 0, wobei links 0 ∈ V und rechts 0 ∈ W die
jeweiligen Nullvektoren sind.
♦
Beispiel 5.5.3.
1. Die Abbildung L : R3 → R3 sei definiert durch
α3
L((α1 , α2 , α3 )) = (α1 , α2 , 0) .
(Hier ist also V = W = R3 .) Geometrisch beschreibt
L die Projektion der Vektoren v = (v1 , v2 , v3 ) ∈ R3 auf
die von e1 und e2 aufgespannte Ebene durch den Nullpunkt.
a
α2
α1
L(a)
Wir zeigen, daß die Abbildung L linear ist. Es seien a = (a1 , a2 , a3 ) ∈ R3 , b = (b1 , b2 , b3 ) ∈
R3 und λ ∈ R. Dann gilt

 
 
 

a1 + b1
a1 + b1
a1
b1
L(a + b) = L  a2 + b2  =  a2 + b2  =  a2  +  b2  = L(a) + L(b) .
a3 + b3
0
0
0
92
5.5 Begriff und Darstellung linearer Abbildungen
Damit ist (L1) nachgewiesen. Weiter gilt



 

a1
λ a1
λ a1
L(λ a) = L  λ a2  =  λ a2  = λ  a2  = λ L(a) ,
0
0
λ a3
womit auch (L2) verifiziert ist.
2. Mit einem festen Vektor a ∈ Rn , a 6= 0, definieren wir die Abbildung T : Rn → Rn durch
T (v) = a + v (Translation um a). Es gilt z.B.
T (2v) = a + 2v , aber 2T (v) = 2(a + v) = 2a + 2v .
Also ist (L2) nicht erfüllt; die Translation ist keine lineare Abbildung. Dies folgt übrigens
schon aus T (0) = a 6= 0.
♦
5.5.2 Matrixdarstellung
Lineare Abbildungen lassen sich in einfacher Weise mittels Matrizen darstellen. Es seien
• V ein Vektorraum mit der Basis ϕ = (v1 , . . . , vn ),
• W ein Vektorraum mit der Basis ψ = (w1 , . . . , wm ),
• L : V → W eine lineare Abbildung
Für a ∈ V sei
a = (a1 , . . . , an ) := [a]ϕ
der eindeutig bestimmte Koordinatenvektor von a bezüglich der Basis ϕ = (v1 , . . . , vn ),
d.h., umgekehrt ist durch den Koordinatenvektor a und der Basis ϕ der Vektor a wieder
bestimmt:
n
a = (a1 , . . . , an )ϕ :=
∑ ak vk .
(5.5.2)
k=1
Da L linear ist, folgt (siehe (5.5.1))
n
L(a) =
∑ ak L(vk ) .
(5.5.3)
k=1
Zur Beschreibung von L werden also nur die Bildvektoren L(v1 ), . . . , L(vn ) benötigt. Diese
lassen sich ihrerseits mittels ihrer Koordinatenvektoren
λ (k) := [L(vk )]ψ
bezüglich der Basis ψ = (w1 , . . . , wm ) darstellen:
m
L(vk ) = ∑ λi wi
(k)
(k = 1, . . . , n) .
(5.5.4)
i=1
93
5 Matrizen, Determinanten, lineare Abbildungen
Aus (5.5.3) und (5.5.4) folgt
n
L(a) =
m
∑ ak ∑ λi
(k)
!
wi
=∑
i=1
i=1
k=1
m
n
∑ λi
(k)
!
a k wi .
(5.5.5)
k=1
Daher gilt:
Satz 5.5.4 (Darstellung linearer Abbildungen). Es seien V ein Vektorraum mit der Basis
ϕ = (v1 , . . . , vn ) und W ein Vektorraum mit der Basis ψ = (w1 , . . . , wm ).
1. Ist L : V → W linear, dann gilt
∀a ∈ V :
[L(a)]ψ = [L]ψ,ϕ · [a]ϕ
(5.5.6)
mit der Abbildungsmatrix

[L]ψ,ϕ

>
···
>
=  [L(v1 )]ψ · · · [L(vn )]ψ  ∈ Rm×n .
⊥
···
⊥
(5.5.7)
2. Ist L ∈ Rm×n und definiert man L : V → W durch
[L(a)]ψ = L · [a]ϕ
für a ∈ V ,
so ist L linear und es gilt L = [L]ψ,ϕ .
Bemerkung 5.5.5. 1. Gemäß (5.5.4) gilt: Die k-te Spalte der Matrix [L]ψ,ϕ ist der Koordinatenvektor von L(vk ) bezüglich der Basis ψ = (w1 , . . . , wm ). Die Abbildungsmatrix hängt
also von den gewählten Basen ab!
2. Gemäß (5.5.5) und (5.5.6) gilt: Ist L : V → W eine lineare Abbildung, sind a ∈ V , b ∈ W
und
L = [L]ψ,ϕ , a = [a]ϕ , b = [b]ψ ,
so gilt
L(a) = b
⇐⇒
La = b,
d.h., die Abbildungsgleichung L(a) = b ist äquivalent zu der Matrixgleichung L a = b.
♦
Beispiel 5.5.6. 1. Wir betrachten den R3 mit der Standardbasis ε = (e1 , e2 , e3 ) und die
lineare Abbildung L : R3 → R3 , die definiert ist durch
L((α1 , α2 , α3 )) = (α1 , α2 , 0)
(vgl. Beispiel 5.5.3, 1.)
a) Gesucht ist die Abbildungsmatrix [L]ε,ε von L bezüglich der Basis ε.
94
5.5 Begriff und Darstellung linearer Abbildungen
Lösung. Wir haben ϕ = ψ = ε. Nach Bemerkung 5.5.5 sind die Spalten von [L]ε,ε die
Vektoren
[L(e1 )]ε = (1, 0, 0) ,
[L(e2 )]ε = (0, 1, 0) ,
[L(e3 )]ε = (0, 0, 0) .
Also gilt

[L]ε,ε

1 0 0
=  0 1 0 .
0 0 0
b) Gesucht ist nun die Abbildungsmatrix [L]ϕ,ϕ von L bezüglich der Basis ϕ = (v1 , v2 , v3 )
mit
v1 = (1, 1, 0) , v2 = (0, −1, 0) , v3 = (1, 0, −2) .
Lösung. Wir haben ψ = ϕ. Gemäß Bemerkung 5.5.5 sind die Koordinatenvektoren [L(vk )]ψ
für k = 1, 2, 3 zu ermitteln. Es gilt
L(v1 ) = (1, 1, 0) = v1
=⇒ [L(v1 )]ψ = (1, 0, 0) ,
L(v2 ) = (0, −1, 0) = v2
=⇒ [L(v2 )]ψ = (0, 1, 0) ,
L(v3 ) = (1, 0, 0) = v1 + v2 =⇒ [L(v3 )]ψ = (1, 1, 0) ,
wobei die Koordinatenvektoren von L(v1 ) und L(v2 ) bezüglich ϕ = ψ sofort abgelesen
werden können. [L(v3 )]ψ kann durch Hinsehen oder auch durch Lösung des LGS
λ1 v1 + λ2 v2 + λ3 v3 = (1, 0, 0)
ermittelt werden. Nach Bemerkung 5.5.5 ist

[L]ϕ,ϕ

1 0 1
=  0 1 1 .
0 0 0
Ist z.B. a = −2v1 + 3v2 + v3 gegeben, so ist [a](v1 ,v2 ,v3 ) = (−2, 3, 1). Also ist nach Satz 5.5.4


 

−1
1 0 1
−2
[L(a)]ϕ = [L]ϕ,ϕ · [a]ϕ =  0 1 1   3  =  4 
0 0 0
1
0
und daher
L(a) = −v1 + 4v2 .
2. In R2 mit der Standardbasis ε = (e1 , e2 ) betrachten wir die durch
x1
cos α
− sin α
, x = (x1 , x2 ) ∈ R2
Dα (x) :=
x2
sin α
cos α
{z
}
|
=[Dα ]ε,ε
95
5 Matrizen, Determinanten, lineare Abbildungen
definierte lineare Abbildung Dα : R2 → R2 . Hierbei ist α ∈ R ein fester Parameter.
Die geometrische Bedeutung von Dα ergibt sich aus
cos α
Dα (e1 ) =
,
sin α
− sin α
− cos( π2 − α)
Dα (e2 ) =
=
.
cos α
sin( π2 − α)
Dα (x)
α
x
Dα beschreibt die Drehung eines Vektors x in R2 um
den Winkel α; die Drehung erfolgt um den Nullpunkt
und für α > 0 entgegen dem Uhrzeigersinn.
3. In R2 mit der Standardbasis ε = (e1 , e2 ) sei die lineare Abbildung S : R2 → R2 definiert
durch
S(x1 , x2 ) = (x1 , −x2 ) .
Offensichtlich beschreibt S die Spiegelung der Vektoren in R2 bezüglich der Geraden durch den Nullpunkt
mit der Richtung e1 . Es gilt
x
S(e1 ) = e1 und daher [S(e1 )]ε = (1, 0) ,
S(e2 ) = −e2 und daher [S(e2 )]ε = (0, −1) .
S(x)
Folglich ist
[S]ε,ε =
1
0
0 −1
die Abbildungsmatrix von S bezüglich ε.
♦
5.5.3 Komposition linearer Abbildungen
Wir kommen zur Matrixdarstellung der Komposition linearer Abbildungen. Gegeben seien
die Vektorräume U, V , W mit den Basen υ = (u1 , . . . , u` ), ϕ = (v1 , . . . , vm ), ψ = (w1 , . . . , wn ).
Wir betrachten die Komposition M ◦ N : U → W zweier linearer Abbildungen N : U → V
und M : V → W .
Es seien N = [N]ϕ,υ und M = [M]ψ,ϕ die entsprechenden Matrixdarstellung von N und M
bezüglich den Basen υ, ϕ und ψ.
96
5.5 Begriff und Darstellung linearer Abbildungen
Dann gilt
`
(M ◦ N)(x) = M(N(x)) = M(N( ∑ xk uk )) =
k=1
`
m
∑ xk · M ∑ nik vi
=
!
i=1
k=1
`
m
n
k=1
i=1
j=1
=
=
`
∑ xk M(N(uk ))
k=1
`
m
k=1
i=1
!
∑ xk · ∑ nik M(vi)
∑ xk ∑ nik ∑ m jiw j
!!
n
=
`
m
∑ ∑ ∑ m jinik xk
j=1
!
wj
k=1 i=1
für alle x ∈ U, x = [x]υ .
Durch Interpretation des letzten Ausdruckes erhalten wir:
Satz 5.5.7. Die Abbildungsmatrix einer Komposition linearer Abbildungen ist das Produkt
der Abbildungsmatrizen:
[M ◦ N]ψ,υ = [M]ψ,ϕ · [N]ϕ,υ .
Beispiel 5.5.8.
Es sei Sα : R2 → R2 die lineare Abbildung, die jeden
Vektor in R2 an der Geraden durch den Nullpunkt mit
dem Richtungsvektor r mit ](r, e1 ) = α spiegelt. Gesucht ist die Abbildungsmatrix von Sα bezüglich der
Standardbasis ε = (e1 , e2 ).
Sα (x)
α
x
Lösung. Die gesuchte Spiegelung Sα ist eine Zusammensetzung einer Drehung D−α , der
Spiegelung S und der Rückdrehung Dα , also
Sα = Dα ◦ S ◦ D−α .
Mit Satz 5.5.7 sowie Beispiel 5.5.6 folgt
[Sα ]ε,ε = [Dα ]ε,ε [S]ε,ε [D−α ]ε,ε
cos α
− sin α
1
0
cos(−α)
− sin(−α)
=
sin α
cos α
0 −1
sin(−α)
cos(−α)
cos α
− sin α
cos α
sin α
=
sin α
cos α
sin α
− cos α
cos2 α − sin2 α
2 cos α sin α
cos 2α
sin 2α
=
=
.
sin 2α
− cos 2α
2 cos α sin α
sin2 α − cos2 α
♦
97
5 Matrizen, Determinanten, lineare Abbildungen
5.6 Rang von Matrizen und linearen Abbildungen
5.6.1 Dimensionsformel, Rang einer Matrix
Es seien
• V ein Vektorraum mit der Basis ϕ := (v1 , . . . , vn ),
• W ein Vektorraum mit der Basis ψ := (w1 , . . . , wm ),
• L : V → W eine lineare Abbildung,
• L = [L]ψ,ϕ ∈ Rm×n die Abbildungsmatrix von L bezüglich ϕ und ψ,
• ker(L) := {x ∈ V : L(x) = 0} der Nullraum (oder Kern) von L,
• im(L) := {L(x) : x ∈ V } der Wertevorrat (oder das Bild) von L.
Beispiel 5.6.1. Sei L : R2 → R2 mit L(x, y) = (x − y, y − x). Dann gilt
ker(L) = {(x, y) : L(x, y) = (0, 0)} = {(x, x) : x ∈ R}
und
im(L) = {(u, v) : ∃x, y mit (u, v) = L(x, y)} = {(x − y, y − x) : x, y ∈ R}
= {(x, −x) : x ∈ R} .
♦
Bemerkung 5.6.2. 1. ker(L) ist ein Untervektorraum von V , d.h. ker(L) ⊆ V ist ein
Vektorraum mit der von V induzierten Addition und Multiplikation mit Skalaren.
♦
2. im(L) ist ein Untervektorraum von W .
Satz 5.6.3. Für jede lineare Abbildung L : V → W gilt die Dimensionsformel
dim ker(L) + dim im(L) = dimV .
(5.6.1)
Bemerkung 5.6.4. Der Nullraum ker(L) ist der Lösungsraum der homogenen Gleichung
L(x) = 0; seine Dimension dim ker(L) gibt also die Anzahl der linear unabhängigen Lösungen von L(x) = 0 an.
♦
Es gilt
L ist injektiv
⇐⇒
[L(x0 ) = L(x00 ) ⇒ x0 = x00 ] .
Da L linear ist, gilt nun weiter
L(x0 ) = L(x00 )
⇐⇒
L(x0 ) − L(x00 ) = 0
⇐⇒
L(x0 − x00 ) = 0 .
Mit x := x0 − x00 hat man also
L ist injektiv
⇐⇒
⇐⇒
[L(x) = 0 ⇒ x = 0]
dim ker(L) = 0 .
Wir kommen zu einer Charakterisierung von dim im(L).
98
⇐⇒
ker(L) = {0}
(5.6.2)
5.6 Rang von Matrizen und linearen Abbildungen
Satz 5.6.5. Für jede lineare Abbildung L : V → W und ihre Abbildungsmatrix [L]ψ,ϕ gilt
dim im(L) = Anzahl der linear unabhängigen Spaltenvektoren von [L]ψ,ϕ
= Anzahl der linear unabhängigen Zeilenvektoren von [L]ψ,ϕ .
(5.6.3)
Beweis. Nach Bemerkung 5.5.5 ist die k-te Spalte von [L]ψ,ϕ der Koordinatenvektor von
L(vk ) bez. der Basis ψ = (w1 , . . . , wm ) von W . Da der Teilraum im(L) von L(v1 ), . . . , L(vn )
aufgespannt wird, folgt hiermit das erste Gleichheitszeichen in (5.6.3). Auf die Verifikation
des zweiten Gleichheitszeichens verzichten wir.
Definition 5.6.6. Sei A ∈ Rm×n . Die gemeinsame Anzahl linear unabhängiger Spaltenbzw. Zeilenvektoren von A heißt Rang der Matrix A und wird mit rang(A) bezeichnet. ♦
Bemerkung 5.6.7. Der Rang von [L]ψ,ϕ ist unabhängig von der konkreten Wahl der Basen.
♦
Daher können wir definieren:
Definition 5.6.8. Der Rang von [L]ψ,ϕ heißt auch Rang der Abbildung L,
rang(L) := rang([L]ψ,ϕ ) .
♦
Bemerkung 5.6.9. Nach (5.6.3) gilt also
dim im(L) = rang(L) .
(5.6.4)
♦
Da elementare Zeilenumformungen einer Matrix die Anzahl der linear unabhängigen Zeilenvektoren nicht ändern, gilt:
Satz 5.6.10. Die Matrix A sei durch EZU in die Matrix à in Zeilenstufenform überführt.
Dann gilt
rang(A) = rang(Ã) = Anzahl der von 0 verschiedenen Zeilen von à .
(5.6.5)
Mit (5.6.5) hat man ein Verfahren zur Rangbestimmung.
Beispiel 5.6.11. Für die unten gegebene Matrix A erhält man




−1 0 −3
−1 0 −3
EZU
5  −→  0 2 −4  = Ã .
A= 3 2
2 1
4
0 0
0
Somit ist rang(A) = rang(Ã) = 2. Die Matrix A enthält also nur zwei linear unabhängige
Spaltenvektoren und nur zwei linear unabhängige Zeilenvektoren.
♦
99
5 Matrizen, Determinanten, lineare Abbildungen
5.6.2 Die Umkehrabbildung
Es seien
• V ein Vektorraum mit der Basis ϕ,
• W ein Vektorraum mit der Basis ψ,
• L : V → W eine lineare Abbildung
und es gelte
dimV = dimW = n .
(5.6.6)
Ziel ist es, die Existenz der Umkehrabbildung L−1 : W → V zu sichern. Dazu benötigen wir
die Bijektivität von L.
Satz 5.6.12. Die Abbildung L ist genau dann injektiv, wenn sie surjektiv ist.
Beweis. Es gilt
L injektiv
(5.6.2)
⇐⇒ dim ker(L) = 0
(5.6.6)
⇐⇒
(5.6.1)
⇐⇒
dim im(L) = dimW
dim im(L) = dimV
⇐⇒
L surjektiv.
Satz 5.6.13. Die Abbildung L ist genau dann injektiv, wenn sie vollen Rang rang(L) = n
besitzt.
Beweis. Wegen dim im(L) = rang(L) und (5.6.6) gilt
L injektiv
⇐⇒
dim im(L) = dimV
⇐⇒
rang(L) = n .
Damit erhalten wir:
Satz 5.6.14 (Umkehrabbildung). Ist dimV = dimW = n, so sind für die lineare Abbildung
L : V → W und ihre Abbildungsmatrix [L]ψ,ϕ ∈ Rn×n bezüglich den Basen ϕ, ψ von V bzw.
W die folgenden Aussagen äquivalent:
L ist injektiv.
[L]ψ,ϕ ist invertierbar.
L ist surjektiv.
det[L]ψ,ϕ 6= 0.
rang(L) = n.
rang([L]ψ,ϕ ) = n.
Gilt eine und somit jede dieser Aussagen, dann existiert die Umkehrabbildung L−1 : W → V
von L, sie ist linear und bijektiv, und es gilt
−1
[L−1 ]ϕ,ψ = [L]ψ,ϕ
,
d.h., die Abbildungsmatrix der Umkehrabbildung L−1 ist die inverse Matrix der Abbildungsmatrix von L.
100
5.6 Rang von Matrizen und linearen Abbildungen
Beispiel 5.6.15. Die lineare Abbildung Dα beschreibt die Drehung der Vektoren in R2 um
den Winkel α (Beispiel5.5.6). Die Abbildungsmatrix
cos α
− sin α
[Dα ]ε,ε =
sin α
cos α
bezüglich der Standardbasis ε = (e1 , e2 ) ist ist invertierbar und es gilt (nachrechnen!)
cos α
sin α
cos(−α)
− sin(−α)
−1
[Dα ]ε,ε =
=
= [D−α ]ε,ε .
− sin α
cos α
sin(−α)
cos(−α)
Nach Satz 5.6.14 ist
D−1
α = D−α ,
d.h., D−1
α beschreibt (erwartungsgemäß) die Drehung um den Winkel −α.
♦
5.6.3 Lösbarkeit linearer Gleichungssysteme
Wir betrachten das LGS
Ax = b
(5.6.7)
Ax = 0 .
(5.6.8)
und das zugehörige homogene LGS
Hierbei seien A ∈ Rm×n und b ∈ Rm gegeben. Neben der Koeffizientenmatrix A benötigen
wir die erweiterte Koeffizientenmatrix (A|b) ∈ Rm×(n+1) .
Der folgende Satz präzisiert die Aussagen in Abschnitt 5.4.5 zur Lösung eines LGS.
Satz 5.6.16. 1. (Lösbarkeitskriterium) Das inhomogene LGS (5.6.7) ist genau dann lösbar, wenn
rang(A|b) = rang(A) .
(5.6.9)
2. (Lösungsdarstellung) Es gelte (5.6.9) und es sei xs ∈ Rn eine spezielle Lösung von
(5.6.7). Dann gibt es zu jeder Lösung x ∈ Rn von (5.6.7) eine Lösung xh ∈ Rn von (5.6.8),
so daß gilt
x = xs + xh .
(5.6.10)
3. (Lösungsvielfalt) Die Anzahl der linear unabhängigen Lösungen von (5.6.8) ist
p := n − rang(A) .
Die allgemeine Lösung von (5.6.7) enthält also p frei wählbare Parameter.
101
5 Matrizen, Determinanten, lineare Abbildungen
Beweis. Wir versehen Rn und Rm mit den Standardbasen εn = (e1 , . . . , en ), εm = (e1 , . . . , em ).
Dann gilt x = x = [x]εn und b = b = [b]εm für alle x ∈ Rn und b ∈ Rm . Wir definieren die
lineare Abbildung L : Rn → Rm durch L(x) = Ax für alle x ∈ Rn . Dann gilt
Ax = b
⇐⇒
L(x) = b .
(5.6.11)
1. Wegen (5.6.11) ist (5.6.7) genau dann lösbar, wenn b ∈ im(L). b ∈ im(L) gilt genau dann,
wenn b Linearkombination aus Spaltenvektoren von A ist, d.h., wenn rang(A|b) = rang(A).
2. Sei x ∈ Rn Lösung von (5.6.7) und xh := x − xs . Dann gilt
Axh = Ax − Axs = b − b = 0 .
Also ist xh Lösung von (5.6.8), und es ist x = xs + xh .
3. Bezeichnet q die Anzahl der linear unabhängigen Lösungen von (5.6.8), so gilt:
q = dim ker(L) = dim Rn − dim im(L) = n − rang(A) = p .
Hierbei gilt das erste Gleichheitszeichen wegen (5.6.11) mit b = 0, das zweite nach der
Dimensionsformel (5.6.1) und das dritte nach (5.6.4).
(1)
(p)
Es seien xh , . . . , xh linear unabhängige Lösungen von (5.6.8). Dann ist
p
xh := ∑ λi xh ,
(i)
wobei λ1 , . . . , λ p ∈ R beliebig ,
i=1
die allgemeine Lösung von (5.6.8); d.h., jede Lösung von (5.6.8) läßt sich mit geeigneten
Parameterwerten λ1 , . . . , λ p so darstellen. Wegen (5.6.10) ist daher
p
x = xs + ∑ λi xh ,
(i)
wobei λ1 , . . . , λ p ∈ R beliebig,
i=1
die allgemeine Lösung von (5.6.7).
Bemerkung 5.6.17. Die Rangbedingung (5.6.9) ist eine präzisierte Form der Lösbarkeitsbedingung (5.4.2) im Gauß-Algorithmus.
♦
Beispiel 5.6.18. Wir erläutern den Satz an dem LGS Ax = b von Beispiel 5.4.10, 2. Dort
hatten wir folgendes erhalten:
x
y
z 1
·2
1
2 −1 4
−2 −4
2 c
←
4
2 −1 4
0
0
0 8+c
Es gilt rang(Ã) = 1 und rang((Ã|b̃)) = 1 für c = −8, rang((Ã|b̃)) = 2 für c 6= −8. Für
c = −8 gibt es damit 2 linear unabhängige Lösungen.
♦
102
6 Grenzwerte von Zahlenfolgen
Ein zentraler Begriff der Analysis ist der des Grenzwertes. Wir beginnen mit der Betrachtung von Grenzwerten von Zahlenfolgen.
6.1 Zahlenfolgen
6.1.1 Grundbegriffe
Definition 6.1.1. Eine Funktion f : Z≥n0 → R heißt reelle Zahlenfolge.
♦
Bemerkung 6.1.2. 1. Durch eine Folge f : Z≥n0 → R wird jeder ganzen Zahl n ≥ n0 ein
Folgenglied f (n) ∈ R zugeordnet.
2. Man kann auch komplexe Zahlenfolgen betrachten.
3. In vielen Fällen hat man n0 = 0, d.h., man betrachtet reelle Folgen f : N → R.
4. Anstelle von f (n) schreibt man auch fn , d.h.
fn := f (n) .
Das Argument n wird auch (Folgen)-Index genannt.
5. Anstelle von f : Z≥n0 → R schreibt man auch
( fn )n≥n0
oder
( fn )n∈Z≥n0 .
6. Da Folgen Funktionen sind, können Folgen wie Funktionen beschrieben werden, z.B.
durch explizite Angabe aller Paare (n, fn ), n ∈ Z≥n0 . Hinzu kommt hier noch die rekursive
Definition einer Folge.
♦
Beispiel 6.1.3. Beachte die unterschiedlichen Schreibweisen!
(i) f : N → R oder ( fn )n∈N mit fn = n + 1, . . . für n ≥ 0.
(ii) f : N → R oder ( fn )n∈N mit f0 = 1 und fn = 1n , . . . für n ≥ 1.
(iii) f : N≥2 → R oder ( fn )n∈N≥2 mit fn = (−1)n n5−n
für n ≥ 2.
2 −1
(iv) f : N → R oder ( fn )n∈N mit f0 = 1, f1 = 1 und fn = fn−1 + fn−2 für n ≥ 2.
103
6 Grenzwerte von Zahlenfolgen
Spezielle Folgen:
Arithmetische Folgen ( fn )n∈N sind Folgen mit der Bildungsvorschrift
fn = a + n · d
für n ∈ N
mit vorgegebenen Startwert a ∈ R und vorgegebenem Zuwachs d ∈ R. Rekursive Definition:
f0 = a , fn+1 = fn + d
für n ∈ N .
Geometrische Folgen ( fn )n∈N sind Folgen mit der Bildungsvorschrift
f n = a · qn
für n ∈ N
mit vorgegebenen Startwert a ∈ R und vorgegebenem Faktor q ∈ R \ {0}. Rekursive Definition:
f0 = a , fn+1 = q fn
für n ∈ N .
Beispiel 6.1.4. Verzinsung eines Kapitals. Zum Anfangszeitpunkt sei das Kapital k0 vorhanden. Jährlich werde mit dem Zinsatz p verzinst. Nach einem Jahr hat man damit
k1 = k0 + k0 p = k0 (1 + p), nach zwei Jahren k2 = k1 + k1 p = k1 (1 + p) = k0 (1 + p)2 , allgemein beträgt das Kapital nach n Jahren kn = k0 (1 + p)n .
♦
Bemerkung 6.1.5. 1. Folgen kann man, wie ja auch schon Funktionen, mit beliebigen
Buchstaben bezeichnen. Wir können also zum Beispiel auch Folgen a = (an )n∈N oder x =
(xn )n∈N betrachten.
2. Ohne Beschränkung der Allgemeinheit kann man eine Folge (an )n∈Z≥n0 stets auf eine
Folge (bn )n∈N zurückführen:
für n ≥ 0 .
bn := an0 +n
Viele Eigenschaften werden daher nur für Folgen (an )n∈N formuliert.
♦
6.1.2 Grenzwerte
Wir betrachten die Folge (an )n∈N≥1 mit an =
zu 0. Es gilt
1
n
und den Abstand |an − 0| der Folgenglieder
1
für n ≥ 1 .
n
Damit wird dieser Abstand immer kleiner. Er wird auch kleiner als jede beliebige positive
Zahl ε. Sei nämlich ε > 0 gegeben. Dann gilt
|an − 0| = |an | =
|an | < ε ⇔
104
1
<ε ⇔
n
n>
1
.
ε
6.1 Zahlenfolgen
Nun gibt es zu jeder reellen Zahl r stets eine natürliche Zahl n > r. Angewandt auf unser
Problem gibt es eine Zahl N ∈ N mit N > ε1 und damit gilt hier auch n > ε1 für n ≥ N. Damit
haben wir
1
1
|an | = ≤ < ε
für n ≥ N .
n N
Offensichtlich hängt N von der Wahl von ε ab.
Diese Tatsache, daß der Betrag |an | beliebig klein wird, wenn wir nur Indizes n ab einem
bestimmten Index betrachten formulieren wir nun allgemein:
Definition 6.1.6. Eine Folge a = (an )n∈N strebt gegen 0 oder konvergiert gegen 0 oder ist
eine Nullfolge, wenn es zu beliebiger Genauigkeitsgrenze ε > 0 immer einen Folgenindex
N(ε) gibt, so daß die Beträge der Folgenglieder kleiner als ε sind für alle Indizes größer
oder gleich N(ε),
∀ε > 0 ∃N ∈ N ∀n ≥ N : |an | < ε .
Beispiel 6.1.7. Die Folge (an )n∈N≥1 mit an =
1
n
ist also eine spezielle Nullfolge.
♦♦
Durch den folgenden Satz bekommt man weitere Beispiele für Nullfolgen.
Satz 6.1.8 (Vergleichskriterium). Seien (an )n∈N , (bn )n∈N zwei Folgen. Ist b eine reelle
Nullfolge und gibt es einen Index N mit
0 ≤ |an | ≤ bn
für n ≥ N ,
so ist auch a eine Nullfolge.
Beispiel 6.1.9.
1. Die Folge (an )n∈N≥1 mit an = für n ≥ 1 ist eine Nullfolge, da 0 ≤ n12 ≤ 1n für n ≥ 1.
n
(−1)n 1 = 1 für
2. Die Folge (an )n∈N≥1 mit an = (−1)
für
n
≥
1
ist
eine
Nullfolge,
da
0
≤
n
n
n
n ≥ 1.
3. Die Folge (an )n∈N mit an = 2nn für n ≥ 0 ist eine Nullfolge wegen 0 ≤ 2nn ≤ 1n für n ≥ 3
(nachprüfen über vollständige Induktion!)
1
n2
Es sind nicht nur Nullfolgen von Interesse.
Definition 6.1.10. Sei a∞ eine reelle Zahl. Eine Folge (an )n∈N strebt gegen a∞ oder konvergiert gegen a∞ , wenn die Folge (bn )n∈N mit bn := an − a∞ eine Nullfolge ist,
∀ε > 0
∃N ∈ N
∀n ≥ N :
|an − a∞ | < ε .
Die Zahl a∞ heißt dann Grenzwert der Folge a. Besitzt eine Folge einen Grenzwert so heißt
sie konvergent, anderfalls divergent.
♦
105
6 Grenzwerte von Zahlenfolgen
Bemerkung 6.1.11. 1. Um die Konvergenz einer Folge entsprechend der Definition nachweisen zu können, braucht man zuerst eine Zahl a∞ , die Grenzwert sein könnte.
2. Eine Folge (an )n∈N kann nur höchstens einen Grenzwert haben: Seien a∞ 6= ã∞ zwei
Grenzwerte. Für ε = 21 |a∞ − ã∞ | gibt es nun N und Ñ mit
|an − a∞ | < ε
für n ≥ N
|an − ã∞ | < ε
und
für n ≥ Ñ .
Damit gilt mit Hilfe der Dreiecksungleichung
|a∞ − ã∞ | ≤ |a∞ − an | + |an − ãn | < 2ε
für n ≥ max{N, Ñ} .
Wegen 2ε = |a∞ − ã∞ | ist dies aber ein Widerspruch zu a∞ 6= ã∞ .
3. Wenn ein Grenzwert a∞ einer Folge a = (an )n∈N existiert, ist er also eindeutig bestimmt.
Wir schreiben daher auch
a∞ = lim a = lim an
n→∞
oder
an → a∞
für n → ∞ .
♦
Beispiel 6.1.12.
1. an =
n−1
n
(n ≥ 1) strebt gegen a∞ = 1:
n − 1 − n −1 1
n − 1
= =
|an − 1| = − 1 = n n
n
n
2. an =
2n2
n2 +1
für n ≥ 1 .
(n ≥ 1) strebt gegen a∞ = 2:
2
2n2
2n − 2(n2 + 1) −2 1
n2 + 1 − 2 = = n2 + 1 ≤ n
n2 + 1
für n ≥ 1 .
♦
Weitere Konvergenzkriterien von Folgen liefert der folgende Satz. Dafür brauchen wir noch
einige Bezeichnungen.
Definition 6.1.13. Eine Folge a = (an )n∈N heißt beschränkt, wenn ein K ∈ R existiert, so
daß |an | ≤ K für alle n ∈ N gilt. Eine reelle Folge a = (an )n∈N heißt monoton, wenn
a0 ≤ a1 ≤ a2 ≤ . . . ≤ an ≤ . . .
(monoton wachsend)
oder
a0 ≥ a1 ≥ a2 ≥ . . . ≥ an ≥ . . .
106
(monoton fallend) .
♦
6.1 Zahlenfolgen
Satz 6.1.14.
(i) (Notwendiges Kriterium) Eine konvergente Folge ist beschränkt.
(ii) Eine beschränkte, monotone reelle Folge konvergiert.
(iii) Das Produkt einer beschränkten Folge mit einer Nullfolge ist eine Nullfolge.
(iv) (Cauchy-Kriterium) Eine Folge (an )n∈N konvergiert genau dann, wenn
∀ε > 0
∃N ∈ N
∀n, m ≥ N :
|an − am | < ε .
Beispiel 6.1.15. Wir zeigen die Konvergenz der Folge (yn )n∈N≥1 mit
1 n+1
yn = 1 +
.
n
Wir zeigen dazu zuerst, daß y monoton fällt:
1 n
n−1+1 n
1 + n−1
yn−1
n2n+1
n−1
=
=
=
n+1
n+1 n+1
yn
(n − 1)n (n + 1)n+1
1 + n1
n
2 n+1
n+1
n
n−1
1
(n − 1)n2n+2
n−1
=
1+ 2
=
=
n
n2 − 1
n
n −1
n [(n − 1)(n + 1)]n+1
n−1
1
n−1
1
n−1 n
>
1 + (n + 1) 2
=
1+
=
n
n −1
n
n−1
n n−1
= 1,
das heißt yn < yn−1 für alle n ≥ 2. Da yn ≥ 1 für alle n ≥ 1, ist y beschränkt und damit
konvergent gegen eine reelle Zahl y∞ .
♦
6.1.3 Rechnen mit Grenzwerten
Aus der Definition des Grenzwertes können nun folgende Rechengesetze abgeleitet werden, die das Rechnen mit Grenzwerten (bzw. mit konvergenten Folgen) enorm erleichtern.
Satz 6.1.16. Seien (an )n∈N und (bn )n∈N konvergente Folgen und sei c ∈ R. Dann gilt:
(i) (an + bn )n∈N konvergiert und lim (an ± bn ) = lim an ± lim bn .
n→∞
n→∞
n→∞
(ii) (an bn )n∈N konvergiert und lim (an · bn ) = lim an · lim bn .
n→∞
n→∞
n→∞
(iii) (can )n∈N konvergiert und lim (c · an ) = c · lim an .
n→∞
n→∞
(iv) Wenn lim a 6= 0 und wenn an 6= 0 für n ≥ n0 , so konvergiert die Folge c = ( a1n )n∈N≥n0 und
es gilt
1
lim cn =
.
n→∞
limn→∞ an
107
6 Grenzwerte von Zahlenfolgen
Bemerkung 6.1.17. Es kann nicht rückwärts auf die Konvergenz von a oder b beschlossen
werden: Zum Beispiel folgt aus der Konvergenz von (an + bn )n∈N nicht die Konvergenz von
a oder b. (Betrachte zum Beispiel eine divergente Folge a und b = −a).
♦
Beispiel 6.1.18. 1. lim 1 + n1 = lim 1 + lim
n→∞
1
n→∞ n
n→∞
= 1 + 0 = 1.
2. Wir betrachten die Folge (xn )n∈N≥1 mit
1
xn = 1 +
n
Offensichtlich gilt xn = yn 1+1 1 mit yn = 1 + 1n
n
.
n+1
. Der erste Faktor konvergiert gegen
n
ein y∞ ∈ R (Beispiel 6.1.15), der zweite gegen 1. Damit konvergiert auch x auch gegen
y∞ ≈ 2.71828.
♦
Achtung: Es gilt nicht:
lim
n→∞
1
1+
n
n
=
lim
n→∞
Definition 6.1.19. Der Grenzwert der Folge
nannt und mit e bezeichnet:
e := lim
n→∞
1
1+
n
1+
1
1+
n
n
= 1.
1 n
n
n∈N≥1
wird Eulersche Zahl ge-
n
.
♦
Satz 6.1.20. Seien (an )n∈N und (bn )n∈N konvergente reelle Folgen. Dann gilt:
(i) Es sei an ≤ bn für alle n ≥ n0 . Dann folgt lim an ≤ lim bn .
n→∞
n→∞
(ii) (Satz von den zwei Millizionären) Es seien a, b und c reelle Folgen mit an ≤ cn ≤ bn
für alle n ≥ n0 . Wenn limn→∞ an = limn→∞ bn , dann konvergiert auch c gegen limn→∞ an .
Bemerkung 6.1.21. Regel (i) gilt im allgemeinen nicht für „<“ anstelle „≤“ , zum Beispiel
an = 0, bn = 1n .
♦
Als Anwendung betrachten wir folgenden Satz.
Satz 6.1.22. Ist a = (an )n∈N eine Nullfolge mit an 6= 0 und an > −1, so gilt
1
lim (1 + an ) an = e .
n→∞
108
6.1 Zahlenfolgen
Beweis. Wir betrachten nur den Fall, daß an > 0 für n ≥ 0. Da an → 0 für n → ∞ gibt es
ein N0 mit an ≤ 1 für n ≥ N0 . Für jedes n ≥ N0 gibt es genau eine natürliche Zahl kn mit
kn ≤
1
< kn + 1 ,
an
also
1
1
< an ≤ ,
kn + 1
kn
und es gilt kn → ∞ für n → ∞. Damit folgt die Abschätzung
kn +1 −1 kn
kn +1
1
1
1
1
1
1+
1+
= 1+
< (1 + an ) an < 1 +
.
kn + 1
kn + 1
kn + 1
kn
Die rechte und die linke Seite streben gegen e für n → ∞. Nach dem Satz von den zwei
Millizionären (Satz 6.1.20, (ii)) muß auch der mittlere Term gegen e streben.
Satz 6.1.23. Sei (an )n∈N eine konvergente Folge und es seien b > 0, b 6= 1 und ρ ∈ R. Dann
gilt:
(i) lim |an | = lim an .
n→∞
n→∞
r
p
(ii) lim |an | = lim an .
n→∞
n→∞
ρ
ρ
(iii) lim logb an = logb lim an und lim an = lim an , falls an > 0 für n ≥ 0.
n→∞
n→∞
n→∞
n→∞
√
√
Beispiel 6.1.24. Es gilt lim n n = 1. Dazu zeigen wir, daß b mit bn := n n − 1 ≥ 0 eine
n→∞
Nullfolge ist! Es gilt
n = (bn + 1)n = 1 + n · bn +
n(n − 1) 2
n(n − 1) 2
bn + . . . + bnn ≥ 1 +
bn .
2
2
Damit folgt
0 ≤ b2n ≤
(n − 1) · 2 2
= .
n(n − 1)
n
Nun ist n2 nach Satz 6.1.16, (iii), eine Nullfolge, also auch b2n (nach dem Vergleichskriterium, Satz 6.1.8). Nach (ii) ist dann auch bn eine Nullfolge.
♦
Beispiel 6.1.25. Es gilt
x n
lim 1 +
= ex .
n→∞
n
O.B.d.A. sei x 6= 0. Die Folge a mit an = nx ist nach Satz 6.1.16, (iii), eine Nullfolge. Nach
Satz 6.1.22 und mit Satz 6.1.23, (iii), folgt
x n
x n/x x
1+
= 1+
→ ex
für n → ∞ .
n
n
♦
109
6 Grenzwerte von Zahlenfolgen
6.1.4 Anwendung: Wachstumsprozesse
Heuristik: Zahlreiche Wachstums- oder Abnahmeprozesse für eine zeitabhängige Größe
u(t) können innerhalb einer kurzen Zeitspanne ∆t näherungsweise nach dem Gesetz
u(t + ∆t) − u(t) ≈ α · u(t) · ∆t ,
u(t + ∆t) ≈ (1 + α∆t) · u(t)
(„Die Änderung ist in etwa propertial zur Größe und zur Zeitdauer“) beschrieben werden.
Der Änderungsprozeß ist dabei um so genauer, je kleiner ∆t ist.
Wir nehmen nun an, der Prozess u beginnt zum Zeitpunkt 0 mit dem Wert u0 . Gesucht ist
der Wert zum Zeitpunkt T > 0. Um zu kurzen Zeitintervallen zu kommen, teilen wir das
Intervall [0, T ] in n gleich lange Intervalle [ti−1 ,ti ] der Länge Tn mit
ti = i
T
.
n
Wir erhalten dann näherungsweise
αT
αT k
αT
u0 , u(tk ) ≈ 1 +
u(tk−1 ) = 1 +
u0
u(t1 ) ≈ 1 +
n
n
n
und damit
αT n
u0 .
u(T ) ≈ 1 +
n
Die rechte Seite sollte nun den Wert u(T ) um so besser beschreiben, je kleiner die Zeitschritte Tn sind, das heißt je größer n ist. Man kann nun vermuten, daß
αT n
u(T ) = u0 lim 1 +
,
n→∞
n
falls der Grenzwert auf der rechten Seite existiert.
Analysis: Nach Beispiel 6.1.25, 2., gilt
αT n
= eαT .
lim 1 +
n→∞
n
Damit erhalten wir
u(T ) = u0 eαT
für unseren Wachstumsprozeß, wobei sich die Basis e in „natürlicher“ Weise ergeben hat.
Anwendung: Wachstums- und Abnahmeprozesse kommen in vielfältiger Art vor. Einige
einfache Prozesse können in obiger Weise beschrieben werden:
• Alterungs- und Zerfallprozesse (z.B. Alterung von Farben, radioaktiver Zerfall)
• Wachstum von Populationen ohne Ressourcenmangel (z.B. Wachstum von Pilzen)
• Kapitalverzinsung nicht nur nach vollen Jahren: Ist p der Jahreszinssatz, so wähle α mit
eα − 1 = p, d.h., α = ln(1 + p). Dann könnte das Kapital entsprechend k(t) = eαt k(0)
kontinuierlich verzinst werden.
110
6.1 Zahlenfolgen
6.1.5 Uneigentliche Konvergenz
Allgemein nennen wir eine Folge divergent, wenn sie nicht konvergent ist. Es gibt aber
spezielle divergente Folgen, die in gewissem Sinne gegen „+∞“ oder „−∞“ konvergieren.
Definition 6.1.26. Wir nennen die reelle Folge a = (an )n∈N (uneigentlich) konvergent gegen +∞,
lim an = +∞ ,
n→∞
wenn
∀ε > 0 ∃N ∈ N ∀n ≥ N :
an ≥ ε .
Wir nennen die reelle Folge a = (an )n∈N (uneigentlich) konvergent gegen −∞,
lim an = −∞ ,
n→∞
wenn
∀ε > 0 ∃N ∈ N ∀n ≥ N :
an ≤ −ε .
♦
Satz 6.1.27. Die reelle Folge (an )n∈N konvergiert genau dann uneigentlich gegen +∞, wenn
ein n0 existiert mit an > 0 für n ≥ n0 und ( a1n )n∈N≥n0 eine Nullfolge ist.
Die reelle Folge (an )n∈N konvergiert genau dann uneigentlich gegen −∞, wenn ein n0 existiert mit an < 0 für n ≥ n0 und ( a1n )n∈N≥n0 eine Nullfolge ist.
Beispiel 6.1.28. Wir betrachten die Folge a = (an )n∈N mit an = xn für festes x ∈ R. Diese
Folge hat unterschiedliches Konvergenzverhalten, je nach dem, welchen Wert x hat:
a) Ist |x| < 1, so ist limn→∞ xn = 0.
Aus |x| < 1 folgt nämlich p :=
1
|x|
− 1 > 0 und damit
1
= 1+ p,
|x|
1
= (1 + p)n = 1 + np + · · · + pn ≥ 1 + np .
n
|x|
Folglich gilt
0 ≤ |x|n ≤
1
1
1 1
≤
= · →0
1 + np np n p
für n → ∞ .
♦
b) limn→∞ xn = ∞, falls x > 1 (folgt aus a)).
c) limn→∞ 1n = 1.
d) (xn )n∈N ist sonst divergent (Beispiel: x = −1).
Bemerkung 6.1.29. Die Symbole „−∞“ und „+∞“ sind keine Zahlen. Insbesondere kann
man mit ihnen nicht wie mit reellen Zahlen rechnen!
♦
111
6 Grenzwerte von Zahlenfolgen
6.1.6 Teilfolgen
Definition 6.1.30. Ist k = (kn )n∈N eine monoton wachsende Folge natürlicher Zahlen und
a = (an )n∈N eine gegebene Folge, so nennen wir die Folge b := a ◦ k, bn = a(kn ) = akn , eine
Teilfolge der Folge a.
♦
Bemerkung 6.1.31. Konvergiert (an )n∈N gegen a∞ , so konvergiert auch jede Teilfolge (akn )n∈N
gegen a∞ . Umgekehrt kann eine divergente Folge durchaus (gegen verschiedene Grenzwerte) konvergente Teilfolgen haben.
♦
Beispiel 6.1.32. Die Folge an = (−1)n , n ≥ 0, divergiert und hat die beiden konstanten
(also konvergenten) Teilfolgen
bn = a2n = 1
(n ≥ 0) ,
cn = a2n+1 = −1
(n ≥ 0) .
♦
6.2 Zahlenreihen
6.2.1 Bezeichnungen
Eine wichtige Spezialform von Folgen sind (unendliche) (Zahlen-)Reihen.
Definition 6.2.1. Sei (an )n∈N eine Zahlenfolge. Dann heißt sn mit
n
sn = ∑ ai
i=0
n-te Partialsumme der Folge a, und die Folge (sn )n∈N heißt Partialsummenfolge der
Folge a.
♦
Bezeichung: Die Partialsummenfolge (∑ni=0 ai )n∈N zur Folge (an )n∈N wird auch als unendliche Reihe zur Folge (an )n∈N bezeichnet:
!
∞
∑ ai :=
i=0
n
∑ ai
i=0
.
(6.2.1)
n∈N
Bemerkung 6.2.2. ∑∞
i=0 ai ist also eine Bezeichung für die Folge der Partialsummen sn . ♦
Bemerkung 6.2.3. Jede Zahlenfolge (sn )n∈N ist auch eine Partialsummenfolge zu einer
Folge (an )n∈N : Setze a0 = s0 und an = sn − sn−1 für n ≥ 1.
♦
112
6.2 Zahlenreihen
Wie bei Folgen kann man hier die Frage stellen, ob eine Partialsummenfolge konvergiert.
Bemerkung 6.2.4. Eine unendliche Reihe ∑∞
i=0 an konvergiert also genau dann wenn die
Folge der Partialsummen (∑ni=0 ai )n∈N konvergiert (da beides die gleichen Objekte sind!).♦
Bezeichung: Falls die unendliche Reihe ∑∞
i=0 ai konvergiert, so wird ihr Grenzwert auch
∞
Summe genannt und mit ∑i=0 ai bezeichnet:
∞
n
i=0
i=0
lim ∑ ai .
∑ ai := n→∞
(6.2.2)
Bemerkung 6.2.5. Je nach Zusammenhang bezeichnet ∑∞
i=0 ai also die Folge der Partialsummen, wie in (6.2.1), oder ihren Grenzwert, wie in (6.2.2).
♦
So bezieht sich die Aufgabe „Untersuche die Konvergenz von ∑∞
i=0 ai !“ auf die Folge der
Partialsummen, die Aufgabe „Bestimme ∑∞
a
!“
auf
den
Grenzwert.
i=0 i
6.2.2 Allgemeine Konvergenzkriterien
Da Reihen Folgen sind, kann man die Konvergenzkriterien von Folgen auf Reihen übertragen.
Satz 6.2.6 (Cauchy-Konvergenzkriterium für Reihen). Die Reihe ∑∞
i=0 ai konvergiert genau dann, wenn
m
∀ε > 0 ∃N ∈ N ∀m ≥ n ≥ N :
| ∑ ai | < ε .
(6.2.3)
i=n
Beweis. Für die Partialsummen sn gilt
m
|sn − sm | = |
∑
ai | .
i=n+1
Folgerung 6.2.7 (Notwendige Bedingung). Ist ∑∞
i=0 ai konvergent, dann an → 0.
Beweis. Wähle m = n in (6.2.3).
Bemerkung 6.2.8. Die Konvergenz an → 0 ist nicht hinreichend für die Konvergenz! Be1
∞ √
√1
trachte z.B. ∑∞
i=0 ai mit a0 = 0, an = n für n > 0, d.h., ∑i=1 i . Dann gilt an → 0, aber
auch
√
1
1
1
1
sn = √ + √ + · · · + √ > n · √ = n → ∞ .
n
n
♦
1
2
113
6 Grenzwerte von Zahlenfolgen
Satz 6.2.9. Eine Reihe mit nichtnegativen Summanden konvergiert genau dann, wenn die
Folge der Partialsummen beschränkt ist.
∞
Satz 6.2.10. Seien ∑∞
i=0 ai und ∑i=0 bi konvergente Reihen mit den Grenzwerten A und B.
Dann gilt:
1. ∑∞
i=0 (ai + bi ) ist eine konvergente Reihe mit dem Grenzwert A + B.
2. Für jedes c ∈ R konvergiert ∑∞
i=0 (cai ) gegen cA.
Satz 6.2.11. Wenn man in einer Reihe eine beliebige endliche Anzahl von Gliedern wegläßt,
ersetzt oder beifügt, dann bleibt ihre Konvergenz (oder Divergenz) erhalten.
6.2.3 Spezielle Reihen
Die folgenden Reihen treten häufig auf und sind von spezieller Bedeutung für Vergleichskriterien.
n
Definition 6.2.12. Sei q ∈ R. Dann heißt ∑∞
n=0 q geometrische Reihe.
♦
n
Lemma 6.2.13. Die geometrische Reihe ∑∞
n=0 q konvergiert genau dann, wenn |q| < 1.
Für |q| < 1 gilt
∞
1
∑ qn = 1 − q .
n=0
Beweis. a) Sei |q| < 1. Dann gilt für sn = ∑ni=0 qi
(1 − q)sn = (1 − q)(1 + q + q2 + · · · + qn )
= 1 + q + q2 + · · · + qn − q − q2 − · · · − qn+1 = 1 − qn+1 ,
d.h.,
sn =
1 − qn+1
1
qn+1
1
=
−
→
für n → ∞ .
1−q
1−q 1−q
1−q
b) Sei |q| ≥ 1. Dann ist |qi | = |q|i ≥ 1, d.h., (qi )∞
i=1 ist keine Nullfolge. Nach Folgerung
6.2.7 kann die Reihe also nicht konvergieren.
1
Definition 6.2.14. Sei α > 0. Dann heißt ∑∞
n=1 nα harmonische Reihe.
Offenbar ist die notwendige Bedingung wegen
1
nα
→ 0 stets erfüllt.
1
Lemma 6.2.15. Die harmonische Reihe ∑∞
n=1 nα konvergiert genau dann, wenn α > 1.
Anstelle eines vollständigen Beweises betrachten wir nur die folgenden Beispiele:
114
♦
6.2 Zahlenreihen
Beispiel 6.2.16. 1. Wir betrachten den Spezialfall α = 1, d.h.,
∞
1
∑ n.
n=1
Dann gilt
s2m
1
1 1 1 1
1
1 1
1
= 1+
+
+ · · · + m−1
+
+
+ + +
+···+ m
2
3 4
5 6 7 8
2
+1
2
{z
}
|
{z
}
| {z } |
>2· 41 = 12
>4· 18 = 12
>2m−1 21m = 12
1
> m → ∞ für m → ∞ .
2
Damit ist die Folge der Partialsummen (bestimmt) divergent.
∞
N
1
1
π2
2. Es gilt ∑ 2 = lim ∑ 2 = .
N→∞
6
n=1 n
n=1 n
♦
Definition 6.2.17. Sei a : N → R≥0 eine Folge in R≥0 . Dann heißen
∞
∞
∑ (−1) an
n
∑ (−1)n+1an
und
n=0
n=0
♦
alternierende Reihen.
Satz 6.2.18 (Leibnitz-Kriterium für alternierende Reihen). Wenn a : N → R≥0 eine mo∞
n
n+1 a
noton fallende Nullfolge in R≥0 ist, dann konvergieren ∑∞
n
n=0 (−1) an und ∑n=0 (−1)
und für ihre Summe s gilt
2n+1
2n
∑ (−1) ai = s2n+1 − a2n+1 ≤ s ≤ s2n = ∑ (−1)iai
i
i=0
i=0
beziehungsweise
2n
∑ (−1)
i+1
2n+1
ai = s2n ≤ s ≤ s2n+1 =
i=0
∑ (−1)i+1ai .
i=0
Damit ist die Summe einer alterniernden Reihe durch die n-the Partialsumme bis auf einen
Fehler von höchstens |an | bestimmt.
Beispiel 6.2.19. Wir betrachten a0 = 0 und an =
∞
1
n
für n ∈ N>0 und damit die Reihe
1
∑ (−1)n+1 n .
n=1
115
6 Grenzwerte von Zahlenfolgen
Da an → 0 konvergiert die Reihe nach dem Leibnitzkriterium. Weiter haben wir die Abschätzungen
1−
∞
1 1
1 1 1
7
1 1 5
1
= ≤ 1− + − =
≤ ∑ (−1)n+1 ≤ 1 − + = ≤ 1 .
2 2
2 3 4 12 n=1
n
2 3 6
Man kann zeigen:
∞
1
∑ (−1)n+1 n = ln 2 .
♦
n=1
Bemerkung 6.2.20. Wichtig für die Konvergenz einer alternierenden Reihe ist, daß die
Summanden eine monotone Nullfolge bilden!
♦
6.2.4 Quotienten- und Wurzelkriterium
Auf den Vergleich mit der geometrischen Reihe basieren die beiden folgenden Kriterien.
Als Spezialfall enthalten sie Konvergenzaussagen für positive Reihen.
Satz 6.2.21 (Cauchysches Wurzelkriterium). Sei a : N → R eine reelle Folge.
1. Wenn ein q < 1 und ein N ∈ N existieren mit
p
n
|an | ≤ q
für alle n ≥ N ,
∞
dann konvergieren die Reihen ∑∞
n=1 an und ∑n=1 |an |.
2. Existiert ein N ∈ N mit
p
n
|an | ≥ 1
für alle n ≥ N ,
dann divergiert die Reihe ∑∞
n=1 |an |.
1
Beispiel 6.2.22. Betrachte ∑∞
n=1 1 − n
s
n
1
1−
n
(n2 )
Damit konvergiert die Reihe.
(n2 )
. Dann
1
= 1−
n
n
=
1
1+
1 n
n−1
→
1
< 1.
e
♦
Satz 6.2.23 (D’Alambertsches Quotientenkriterium). Sei a : N → R eine reelle Folge mit
an 6= 0 für n ∈ N. Dann gilt:
116
6.2 Zahlenreihen
1. Wenn ein q < 1 und ein N ∈ N existieren mit
|
an+1
|≤q
an
für alle n ≥ N ,
∞
dann konvergieren die Reihen ∑∞
n=1 an und ∑n=1 |an |.
2. Existiert ein N ∈ N mit
|
an+1
|≥1
an
für alle n ≥ N ,
dann divergiert die Reihe ∑∞
n=1 |an | .
x
Beispiel 6.2.24. Betrachte die Reihe ∑∞
n=0 n! für fixiertes x ∈ R. Mit an =
n
xn
n!
und
|x|n+1
an+1
|x|
(n + 1)!
|=
→0<1
|
=
n
|x|
an
n+1
n!
folgt die Konvergenz.
♦
117
6 Grenzwerte von Zahlenfolgen
118
7 Stetigkeit
7.1 Grundlagen
7.1.1 Skalar- und Vektorfunktionen
Eine Funktion f : D( f ) ⊆ R → R ordnet jeder reellen Zahl x ∈ D( f ) eine reelle Zahl f (x)
zu. Nun betrachten wir Funktionen, bei denen die unabhängige Variable und eventuell auch
die abhängige Variable n-Tupel sind.
Man nennt
f : D( f ) ⊆ Rn → R
f : D( f ) ⊆ Rn → Rm
Skalarfunktion,
Vektorfunktion.
Abkürzend sagt man in beiden Fällen auch wieder Funktion. Die Funktion f : D( f ) ⊆ Rn →
R ordnet also jedem n-dimensionalen Spaltenvektor oder n-Tupel x ∈ D( f ) die reelle Zahl
f (x) = f ((x1 , . . . , xn )) =: f (x1 , . . . , xn )
zu. Man sagt daher auch, daß
f : D( f ) ⊆ Rn → R ,
(x1 , . . . , xn ) 7→ f (x1 , . . . , xn )
eine Funktion der n unabhängigen Variablen x1 , . . . , xn ist.
Eine Vektorfunktion f : D( f ) ⊆ Rn → Rm ist somit darstellbar als


f1 (x1 , . . . , xn )


..
f (x) = 
,
.
fm (x1 , . . . , xn )
wobei fi : D( f ) ⊆ Rn → R die Koordinatenfunktionen von f sind.
Bemerkung 7.1.1. Wir verzichten also auf eine besondere Kennzeichnung von mehrdimensionalen Vektoren. Eine Ausnahme bildet nur die Kennzeichnung von Koordinatendarstellungen. Ob eine Funktion Vektorfunktion oder eine Funktion mehrerer Variabler ist,
sieht man an der Definition der Funktion.
♦
119
7 Stetigkeit
Beispiel 7.1.2. Die Temperatur T in einem räumlichen Bereich B ⊆ R3 während eines Zeitintervalls [t1 ,t2 ] hängt von der Zeit t und dem Ort (x, y, z) ∈ B ab: Es ist
(t, x, y, z) 7→ T (t, x, y, z) für t ∈ [t1 ,t2 ] ,
(x, y, z) ∈ B ,
eine Skalarfunktion T : D(T ) ⊆ R4 → R, wobei
D(T ) = {(t, x, y, z) ∈ R4 : t ∈ [t1 ,t2 ] ,
(x, y, z) ∈ B} .
♦
Beispiel 7.1.3. Die Geschwindigkeit einer stationären (zeitunabhängigen) Flüssigkeitsströmung in einem räumlichen Bereich B ist eine Vektorfunktion v : B ⊆ R3 → R3 ,


v1 (x, y, z)
v(x, y, z) =  v2 (x, y, z)  , (x, y, z) ∈ B .
v3 (x, y, z)
Die Skalarfunktionen v1 , v2 , v3 sind die Geschwindigkeitskoordinaten in Richtung der Koordinatenachsen. Zu jedem Punkt (x, y, z) ∈ B gehört ein Geschwindigkeitsvektor v(x, y, z). ♦
Wie in den Beispielen angedeutet, verbindet man mit einer Skalarfunktion f : D ⊆ R3 → R
bzw. einer Vektorfunktion v : D ⊆ R3 → R3 die Vorstellung, daß
- der Punkt x ∈ D mit der skalaren Größe f (x) “belegt” ist (z.B. Masse, Temperatur) bzw.
- im Punkt x ∈ D der Vektor v(x) “angeheftet” ist (z.B. Geschwindigkeit, Kraft).
In diesem Zusammenhang sagt man statt Skalar- bzw. Vektorfunktion auch Skalarfeld bzw.
Vektorfeld.
z
graph( f )
Der Graph einer Skalarfunktion f :
D( f ) ⊆ R2
→ R,
graph( f ) = {(x, y, z) ∈ R3 : (x, y) ∈ D( f ), z = f (x, y)},
kann häufig als Fläche F im x, y, z-Raum interpretiert
werden.
y
D( f )
x
Die Mengen
Na = {(x, y) ∈ D( f ) : f (x, y) = a}
stellen im regulären Fall Niveaulinien oder Höhenlinien zum Niveau a dar.
120
7.1 Grundlagen
Beispiel 7.1.4. Für die Funktion f : D( f ) = R2 → R mit f (x, y) = x2 + 4y2 ist W ( f ) =
[0, +∞[. Die Niveaulinie zum Niveau a ist die Menge
Na = {(x, y) ∈ R2 : x2 + 4y2 = a} .
Wir
√ haben
√ N0 = {(0, 0)}, Na = 0/ für a < 0. Für a > 0 ist Na eine Ellipse mit den Halbachsen
a und a/2. Ferner sind die Schnitte von graph( f ) mit (zur x, z-Ebene parallelen) Ebenen
y = c die Parabeln z = x2 + 4c2 . Man nennt graph( f ) daher elliptisches Paraboloid.
♦
Spezielle Funktionen sind die linearen Abbildungen: Wir wiederholen dazu, daß eine Funktion f : Rn → Rm linear heißt, wenn gilt:
f (x + y) = f (x) + f (y) für alle x, y ∈ Rn ,
f (αx) = α f (x)
für alle α ∈ R, x ∈ Rn .
Die Menge aller linearen Abbildungen von Rn in Rm bezeichnen wir durch L(Rn , Rm ),
L(Rn , Rm ) := {A : A ist eine lineare Abbildung von Rn in Rm } .
Satz 7.1.5. Die Funktion f : Rn → Rm ist genau
A = (aik ) gibt, so daß


a11 · · · a1n
x1
 .. . .


.
.
f (x) = A · x =  .
. ..   ..
am1 · · · amn
xn
dann linear, wenn es eine m × n-Matrix





x1


für alle x =  ...  ∈ Rn .
xn
Speziell ergibt sich für m = 1:
Folgerung 7.1.6. Die Funktion f : Rn → R ist genau dann linear, wenn es ein a ∈ Rn gibt,
so daß gilt
f (x) = a> x = ha, xi für alle x ∈ Rn .
121
7 Stetigkeit
7.1.2 Klassifizierung von Punkten und Mengen
Wir benötigen einige Begriffe für Punkte und Mengen in Rn . Erinnert sei an den (euklidischen) Abstand
q
kx − yk = (x1 − y1 )2 + · · · + (xn − yn )2
der Punkte x, y ∈ Rn .
Definition 7.1.7. Für a ∈ Rn und ε > 0 heißt die offene Kugel
U(a, ε)
ε
a
U(a, ε) := {x ∈ Rn : kx − ak < ε}
♦
um a mit Radius ε eine ε-Umgebung von a.
U(a, ε) ist in R3 das “Innere” einer Kugel um a mit Radius ε und in R2 das “Innere” eines
Kreises um a mit Radius ε.
Definition 7.1.8. Sei D eine nichtleere Teilmenge von Rn .
(i) x ∈ D heißt innerer Punkt von D, wenn eine ε-Umgebung von x in D enthalten ist. Die
Menge aller inneren Punkte von D heißt Inneres von D.
(ii) D heißt offen, wenn jeder Punkt von D ein innerer Punkt von D ist (wenn D also mit
seinem Inneren übereinstimmt).
(iii) z ∈ Rn heißt Randpunkt von D, wenn jede ε-Umgebung von z einen zu D gehörigen
sowie einen nicht zu D gehörigen Punkt enthält. Die Menge aller Randpunkte von D heißt
Rand von D.
(iv) D heißt abgeschlossen, wenn der Rand von D zu D gehört.
(v) D heißt beschränkt, wenn es eine Zahl c > 0 gibt, so daß kxk ≤ c für alle x ∈ D.
(vi) D heißt (weg-) zusammenhängend, wenn je zwei Punkte von D durch eine ganz in D
verlaufende Kurve verbunden werden können.
(vii) D heißt Gebiet, wenn D offen und zusammenhängend ist.
(viii) D heißt Bereich, wenn D ein Gebiet ist oder aus einem Gebiet durch Hinzunahme von
Randpunkten hervorgeht.
♦
Beispiel 7.1.9. Wir betrachten die Menge
1
c
a
b
2
D = {(x, y) ∈ R : 0 ≤ x ≤ 3, 0 ≤ y < 1} .
1
2
3
Der Punkt a = (2, 12 ) ist innerer Punkt von D (z.B. ist U(a, 13 ) ⊂ D); b = (3, 12 ) ist ein
Randpunkt von D, der zu D gehört; c = (1, 1) ist ein Randpunkt von D, der nicht zu D
gehört. D ist weder offen noch abgeschlossen, aber beschränkt (z.B. gilt kak ≤ 4 für alle
122
7.1 Grundlagen
a ∈ D). Der Rand von D besteht aus den vier Seiten des Rechtecks. Das Innere von D ist
die Menge
◦
D= {(x, y) ∈ R2 : 0 < x < 3, 0 < y < 1} ;
◦
diese ist offen und zusammenhängend, also ein Gebiet. D, D sowie das Rechteck einschließlich aller Randpunkte sind Bereiche.
♦
◦
Bemerkung 7.1.10. Die Menge D in Beispiel 7.1.9 ist zwar offen in R2 , aber nicht in R3 .♦
Beispiele für nicht beschränkte Mengen in R2 (und in R3 ) sind jede Gerade und der erste
Quadrant im Koordinatensystem.
7.1.3 Folgen im Rn
Wir wollen uns nun mit Folgen im Rn beschäftigen.
Bemerkung 7.1.11. Hier gibt es nun einen Konflikt mit dem Folgenindex und dem Koordinatenindex. Da es wichtiger ist, die allgemeinen Prinzipien der Grenzwerttheorie zu
erkennen als die Bezeichnung von Koordinaten zu erhalten, lösen wir den Konflikt,
indem wir im Folgenden den Koordinatenindex oben schreiben
(nicht verwechseln mit einer Potenz!):
x = (x1 , . . . , xn ) für x ∈ Rn .
♦
Definition 7.1.12. Eine Folge x = (xn )n∈N in Rn ist eine Abbildung
x : N → Rn ,
mit
xk := x(k)
xk = (xk1 , xk2 , . . . , xkn ) (k ∈ N) .
♦
In R2 bzw. R3 schreiben wir statt (xk1 , xk2 ) bzw. (xk1 , xk2 , xk3 ) auch (xk , yk ) bzw. (xk , yk , zk ).
Definition 7.1.13. Der Punkt a ∈ Rn heißt Grenzwert (oder Limes) der Folge x = (xk )k∈N
in Rn , in Zeichen
a = lim x
oder
a = lim xk
k→∞
oder
xk → a für k → ∞ ,
wenn zu jeder Zahl ε > 0 ein Index k0 existiert, so daß gilt:
kxk − ak < ε
für alle k ≥ k0 .
(7.1.1)
Besitzt die Folge (xk )k∈N einen Grenzwert, so heißt sie konvergent, andernfalls divergent.
♦
123
7 Stetigkeit
Zu (7.1.1) äquivalent ist
xk ∈ U(a, ε) für alle k ≥ k0 .
Wegen U(a, ε) = ]a − ε, a + ε[ für n = 1, stimmt diese Definition mit der Grenzwertdefinition in R überein.
In Rn ist die Konvergenz einer Punktfolge äquivalent zur Konvergenz aller Koordinatenfolgen:
Satz 7.1.14. Für jede Folge (xk )k∈N in Rn gilt
lim xk = a ⇐⇒ lim xki = ai
k→∞
k→∞
für alle i ∈ {1, . . . , n} .
Definition 7.1.15. Ein Punkt a ∈ Rn heißt Häufungspunkt der Menge D ⊆ Rn , wenn eine
Folge (xk )k∈N in D existiert mit
xk 6= a für alle k
und
lim xk = a .
k→∞
♦
Bemerkung 7.1.16. 1. Jeder Punkt des abgeschlossenen Intervalles [a, b] ist Häufungspunkt von [a, b] und auch von ]a, b[.
2. Für einen isolierten Punkt x0 in R gibt es also ein ε > 0, so daß das Intervall ]x0 −ε, x0 +ε[
außer x0 keine Punkte aus M enthält.
3. Häufungspunkte von D sind also Punkte von Rn , die nicht zu D zu gehören brauchen,
die aber über nichtkonstante Folgen in D “erreichbar” sind.
♦
Beispiel 7.1.17. Für die Menge D von Beispiel 7.1.9 ist jeder Punkt (x, y) mit 0 ≤ x ≤ 3,
0 ≤ y ≤ 1 ein Häufungspunkt.
♦
7.2 Stetigkeit von Funktionen in einem Punkt
7.2.1 Motivation und Definition
Wir betrachten ein analoges Radio, bei dem man mit einem Drehknopf die Frequenz einstellt. Wir nehmen an, daß den Winkeln zwischen ϕ und ϕ durch die Mechanik und Elektronik im Radio jeweils genau eine Frequenz zu geordnet ist.
Wir haben damit eine Funktion F : [ϕ, ϕ] ⊂ R → R. Ziel ist, eine bestimmte Frequenz f0
möglichst genau einzustellen. Diese Frequenz gehöre zum Winkel ϕ0 ∈ [ϕ, ϕ] des Drehknopfes, d.h., wir haben f0 = F(ϕ0 ).
Die Frage ist nun, ob wir die tatsächliche Frequenz f = F(ϕ) beliebig nahe an f0 einstellen
können, wenn wir nur die Genauigkeit im Winkel ϕ verbessern.
124
7.2 Stetigkeit von Funktionen in einem Punkt
Wir versuchen also, den absoluten Fehler in der Frequenz | f − f0 | = |F(ϕ) − F(ϕ0 )| unter
ein beliebiges ε > 0 zu drücken, indem wir den Winkel ϕ dafür ausreichend genau einstellen, d.h., |ϕ − ϕ0 | < δ mit einem von ε abhängigen δ > 0.
In Abstraktion dieser Genauigkeitskontrolle definieren wir nun:
Definition 7.2.1. Die Funktion f : D( f ) ⊆ Rn → Rm heißt stetig in a ∈ Rn , wenn a ∈ D( f )
und wenn für jedes ε > 0 ein δ > 0 existiert mit f (x) ∈ U( f (a), ε) für alle x ∈ U(a, δ ) ∩
D( f ), genauer:
∀ε > 0∃δ > 0∀x ∈ U(a, δ ) ∩ D( f ) : f (x) ∈ U( f (a), ε) .
(7.2.1)
♦
Wenn a ∈ D( f ) aber (7.2.1) nicht gilt, nennen wir f in a unstetig.
y
y
f (x0 )
f (x0 )
a
x0
b
Funktion, die in x0 stetig ist
x
a
x0
b
x
Funktion, die in x0 unstetig ist
Die Stetigkeit oder Unstetigkeit wird also nur in Punkten des Definitionsbereiches betrachtet.
Bemerkung 7.2.2. Ist a ∈ D( f ) kein Häufungspunkt von D( f ), so ist f stetig in a.
♦
Definition 7.2.3. Sei f : D( f ) ⊆ R → R und sei x0 ∈ D( f ). Wir nennen f linksseitig stetig
in x0 , wenn die Einschränkung f D( f ) von f auf D( f )≤x0 = D( f )∩ ] − ∞, x0 ] stetig ist.
≤x0
Wenn f
stetig ist, nennen wir f rechtsseitig stetig in x0 .
♦
D( f )≥x0
Satz 7.2.4. Eine Funktion f : D( f ) ⊆ R → R ist genau dann stetig in x0 ∈ D( f ), wenn f
links- und rechtsseitig stetig in x0 ist.
Beispiel 7.2.5. 1. Die Funktion f : R → R mit f (x) = x, ist in jedem Punkt x0 ∈ R stetig:
Sei x0 ∈ R. Dann gilt
| f (x) − f (x0 )| = |x − x0 | .
Zu ε > 0 können wir also zum Beispiel δ = ε wählen. Beachte: Hier kann δ unabhängig
von x0 gewählt werden.
125
7 Stetigkeit
2. Die Funktion f : R → R mit f (x) = x2 ist in jedem Punkt x0 ∈ R stetig: Sei x0 ∈ R. Dann
gilt
| f (x) − f (x0 )| = |x2 − x02 | = |x + x0 | · |x − x0 | = |x − x0 + 2x0 | · |x − x0 | < (2|x0 | + δ )δ ,
wenn |x−x0 | < δ . Wir können | f (x)− f (x0 )| kleiner als ε machen, indem wir δ mit (2|x0 |+
δ )δ < ε wählen, z.B., δ < 1 mit δ < 2|x0ε|+1 . Beachte: Hier kann δ nicht unabhängig von
x0 gewählt werden.
3. Jede Funktion f : D( f ) ⊂ R → R mit D( f ) ⊆ Z ist in jedem Punkt x0 ∈ D( f ) stetig:
Wähle zu jedem ε > 0 einfach δ = 12 . Dann ist x = x0 das einzige Element in D( f ) mit
|x − x0 | < δ = 12 .
4. Die Vorzeichen-Funktion sgn : R → R mit sgnx = −1 für x < 0, sgn0 = 0, sgnx = 1 für
x > 0 ist stetig in jedem Punkt x0 6= 0. Sie ist in 0 weder links- noch rechtsseitig stetig und
damit in 0 unstetig.
5. Die Heaviside-Funktion h : R → R mit h(x) = 0 für x ≤ 0 und h(x) = 1 für x > 0 ist
stetig in jedem Punkt x0 6= 0. Sie ist in 0 links- aber nicht rechtsseitig stetig und damit in 0
unstetig.
1
1
−1
−1
Die Vorzeichen-Funktion
Die Heaviside-Funktion
♦
Bemerkung 7.2.6. Eine Funktion f : D( f ) ⊆ R → R ist (mindestens) in allen isolierten
Punkten stetig.
♦
Nach der letzten Bemerkung müssen wir also nur noch Punkte x0 ∈ D( f ) untersuchen, die
Häufungspunkt von D( f ) sind.
Satz 7.2.7. Sei f : D( f ) ⊆ Rn → Rm und sei x0 ∈ D( f ). Dann ist f in x0 genau dann stetig,
wenn für jede Folge (ξi )i∈N , ξi ∈ D( f ) mit x0 = limi→∞ ξi auch die Folge ( f (ξi ))i∈N gegen
f (x0 ) konvergiert:
∀ Folge ξ : N → D( f ) :
lim ξi = x0 =⇒ lim f (ξi ) = f (x0 ) .
i→∞
126
i→∞
7.2 Stetigkeit von Funktionen in einem Punkt
Bemerkung 7.2.8. Der Satz stellt nur eine Forderung, wenn x0 ein Häufungspunkt von
D( f ) ist. Im anderen Fall ist x0 ein isolierter Punkt und die einzige gegen x0 konvergente
Folge ξ ist die konstante Folge mit ξi = x0 .
♦
Beispiel 7.2.9. Die Betragsfunktion | · | : R → R, die Potenzfunktionen potb : R>0 → R,
b ∈ R, und die Logarithmusfunktionen logb : R>0 → R, b > 0, b 6= 1, sind nach Satz 6.1.23
in jedem Punkt ihres Definitionsbereiches stetig: Nach Satz 6.1.23, (iii) gilt zum Beispiel
potb (ξi ) = ξib → x0b = potb x0
für jede Folge ξ : N → R>0 mit ξi → x0 für i → ∞.
♦
Beispiel 7.2.10. Die Funktion f : R2 → R mit f (x, y) = sin(x2 y) ist im Punkt a = ( 21 , π)
stetig:
Zuerst stellen wir fest, daß a Häufungspunkt von D( f ) = R2 ist und in D( f ) liegt. Wir untersuchen
lim sin(x2 y). Es sei (xk , yk )k∈N eine beliebige Folge in R2 mit lim (xk , yk ) =
(x,y)→( 21 ,π)
( 12 , π).
k→∞
Nach Satz 7.1.14 gilt dann lim xk =
k→∞
1
2
und lim yk = π. Hieraus folgt tk := xk2 yk →
k→∞
π
4
für k → ∞. Da die Sinus-Funktion stetig ist, folgt weiter
π
1√
=
2.
k→∞
k→∞
4 2
√
√
sin(x2 y) = 21 2. Da auch f ( 12 , π) = sin π4 = 12 2 gilt, folgt die Stetiglim sin(xk2 yk ) = lim sintk = sin
Somit ist
lim
(x,y)→( 21 ,π)
keit in diesem Punkt.
Analog zeigt man, daß f auf ganz R2 stetig ist.
♦
7.2.2 Eigenschaften der Stetigkeit
Der folgende Satz vereinfacht die Untersuchung der Stetigkeit bei zusammengesetzten Funktionen.
Satz 7.2.11.
(i) Sind f : D( f ) ⊆ R → R und g : D(g) ⊆ R → R auf einem Intervall in einem Punkt
x0 ∈ D( f ) ∩ D(g) stetig, so gilt dies auch für f + g, α · f (α ∈ R) und f · g. Ist g(x0 ) 6= 0, so
ist auch gf stetig in x0 .
(ii) Sei f : D( f ) ⊆ R → R stetig in x0 ∈ D( f ) sei und g : D(g) ⊆ R → R stetig in f (x0 ) ∈
D(g). Dann ist auch g ◦ f stetig in x0 .
Beispiel 7.2.12. Da x 7→ x auf ganz R stetig ist, sind Polynome in jedem Punkt x0 ∈ R
stetig.
♦
127
7 Stetigkeit
7.3 Stetige Funktionen
7.3.1 Definitionen
Viele der bisher betrachteten Funktionen sind in jedem Punkt des Definitionsbereiches stetig. Da diese Klasse von Funktionen von besonderem Interesse ist, definieren wir:
Definition 7.3.1. f : D( f ) ⊆ Rn → Rm heißt stetig auf M ⊆ D( f ), wenn f in jedem a ∈ M
stetig ist. f heißt stetig, wenn f auf D( f ) stetig ist.
♦
Beispiel 7.3.2.
(i) Die Betrags-, Potenz- und Logarithmusfunktionen, die Polynome und die rationalen
Funktionen sind stetig (siehe Beispiel 7.2.9).
(ii) Die Sinus-, Cosinus- und Exponentialfunktionen sind auch stetig.
♦
Für die Zusammensetzung stetiger Funktionen können wir als Folgerung aus Satz 7.2.11
den folgenden Satz formulieren:
Satz 7.3.3.
(i) Sind f : D( f ) ⊆ Rn → Rm und g : D(g) ⊆ Rn → Rm stetig, so gilt dies auch für f + g
und α · f (α ∈ R).
(ii) Sind f : D( f ) ⊆ Rn → R und g : D(g) ⊆ Rn → R stetig, so gilt dies auch für f · g. Gilt
zusätzlich g(x) 6= 0 für alle x ∈ D( f ) ∩ D(g) so ist auch gf stetig.
(iii) Seien f : D( f ) ⊆ Rn → Rm und g : D(g) ⊆ Rm → R p stetig. Dann ist auch g ◦ f stetig.
Beispiel 7.3.4.
(i) Rationale Funktionen f =
Definitionsbereich von f )
p
q
sind stetig. (Beachte: Nullstellen von q gehören nicht zum
(ii) Die Tangens-, Cotangens-, Secans- und Cosecans-Funktionen sind stetig als Quotienten
stetiger Funktionen (Beachte die entsprechenden Definitionsbereiche!).
(iii) Die Hyperbelfunktionen sind stetig als Summe stetiger Funktionen.
2
(iv) Die Funktion h : R → R mit h(x) = ex ist als Komposition stetiger Funktionen stetig,
da h = g ◦ f mit g = exp und f = pot2 .
♦
Bemerkung 7.3.5. 1. Die Zusammensetzung (Kombination) der elementaren Funktionen
(Potenzfunktionen, rationale Funktionen, Exponential- und Logarithmusfunktion, trigonometrische und hyperbolische Funktionen) durch Addition, Subtraktion, Multiplikation, Division und Komposition führt wieder zu stetigen Funktionen (mit dem sich natürlich ergebenden Definitionsbereich).
128
7.3 Stetige Funktionen
2. Unstetige Funktionen erhalten wir also nur, wenn wir die Klasse der allein durch Kombination von elementaren Funktionen beschreibbaren Funktionen verlassen, in dem wir sie
zum Beispiel, wie bei der Vorzeichenfunktion getan, nur stückweise (d.h., jeweils auf endlich vielen Teilintervallen des Definitionsbereiches) durch Kombination elementarer Funktionen beschreiben.
3. Es gibt viel mehr unstetige Funktionen als stetige Funktionen.
♦
7.3.2 Wichtigste Eigenschaften stetiger Funktionen
Für stetige Funktionen wollen wir noch folgende grundlegenden Ergebnisse festhalten.
Satz 7.3.6 (Erhalt des Zusammenhangs). Es sei f : D( f ) ⊆ Rn → Rm stetig. Ist Z ⊆ D( f )
zusammenhängend, so ist f [Z] ebenfalls zusammenhängend.
Als Folgerung erhalten wir:
Satz 7.3.7. (Zwischenwertsatz) Es sei f : D( f ) ⊆ Rn → R stetig und es sei Z ⊆ D( f )
zusammenhängend. Sind x1 , x2 ∈ Z, so gibt es für jedes c zwischen f (x1 ), f (x2 ) ein x̄ ∈ Z
mit f (x̄) = c.
y
c
a
x
b
x
Folgerung 7.3.8. (Nullstellensatz) Es sei f : D( f ) ⊆ Rn → R stetig und es sei Z ⊆ D( f )
zusammenhängend. Weiter seien x1 , x2 ∈ Z mit f (x1 ) < 0, f (x2 ) > 0. Dann existiert ein
x̄ ∈ Z mit f (x̄) = 0.
Bemerkung 7.3.9. Das bereits besprochene Verfahren der Bisektion (Abschnitt 2.2.4.2) zur
Nullstellenbestimmung bei Polynomen funktioniert aufgrund des Zwischenwertsatzes, da
Polynome stetige Funktionen sind. Daher kann das Verfahren in der beschriebenen Form
für alle stetigen Funktionen zur Nullstellenbestimmung verwendet werden.
♦
Insbesondere sagt Satz 7.3.7, daß stetige Funktionen Intervalle auf Intervalle abbildet. Eine
gewisse Umkehrung gibt folgender Satz:
Satz 7.3.10. Sei f : I ⊆ R → R eine monotone Funktion auf einem Intervall I. Wenn f [I]
ein Intervall ist, dann ist f stetig.
129
7 Stetigkeit
Wir betrachten nun eine streng monotone, stetige Funktion f : I → R mit einem Intervall I.
Dann ist f [I] ein Intervall. Wegen der strengen Monotonie ist f injektiv. Damit existiert die
Inverse f −1 : f [I] → I von f . Da f −1 [ f [I]] = I und f −1 streng monoton ist, ist f −1 nach
Satz 7.3.10 eine stetige Funktion.
Damit gilt
Satz 7.3.11 (Stetigkeit der inversen Funktion). Seien I, J ⊆ R Intervalle und sei f : I → J
streng monoton mit f [I] = J. Dann existiert die inverse Funktion f −1 : J → I und
1. f −1 ist streng monoton (im gleichen Sinne wie f );
2. f und f −1 sind stetig.
Folgerung 7.3.12. Die trigonometrischen und hyperbolischen Funktionen sind auf
Monotonie-Intervallen stetig invertierbar, d.h., die Arcus- und Area-Funktionen sind stetig.
Satz 7.3.13 (Erhalt von Abgeschlossenheit und Beschränktheit). Es sei f : D( f ) ⊆ Rn →
Rm stetig. Ist K ⊆ D( f ) abgeschlossen und beschränkt, so ist auch f [K] abgeschlossen und
beschränkt.
Folgerung 7.3.14. Sei f : [a, b] → Rm stetig. Dann gilt ist f auf [a, b] beschränkt, d.h. es
gibt ein M ∈ R mit | f (x)| ≤ M für alle x ∈ [a, b].
Als Folgerung für Skalar-Funktionen ergibt sich aus Satz 7.3.13:
Satz 7.3.15 (Existenz globaler Extremstellen). Es sei f : D( f ) ⊆ Rn → R stetig. Ist K ⊆
D( f ) abgeschlossen und beschränkt, so besitzt f ein globales Minimum und ein globales
Maximum auf K, d.h., es existieren x∗ , x∗ ∈ K mit
f (x∗ ) ≤ f (x) für jedes x ∈ K ,
f (x∗ ) ≥ f (x) für jedes x ∈ K .
7.4 Grenzwerte von Funktionen
Wir betrachten nun einen Begriff, der der Stetigkeit ähnlich ist.
7.4.1 Der Begriff des Grenzwertes
Definition 7.4.1. Sei f : D( f ) ⊆ Rn → Rm eine Funktion und a ∈ Rn ein Häufungspunkt
von D( f ). Der Punkt b ∈ Rm heißt Grenzwert (oder Limes) von f in a,
b = lim f = lim f (x) oder
a
x→a
f (x) → b für x → a ,
wenn für jedes ε > 0 ein δ > 0 existiert mit f (x) ∈ U(b, ε) für alle x ∈ U(a, δ ) ∩ D( f ). ♦
130
7.4 Grenzwerte von Funktionen
Bemerkung 7.4.2. 1. Der Grenzwert ist eindeutig bestimmt.
2. Im Gegensatz zur Stetigkeit braucht f nicht in x0 definiert sein, x0 muß dafür aber ein
Häufungspunkt von D( f ) sein.
3. Wenn f in x0 definiert ist, müssen f (x0 ) und limx0 f nicht übereinstimmen.
♦
Satz 7.4.3 (Charakterisierung des Grenzwertes durch Folgen).
Eine Abbildung f : D( f ) ⊆ Rn → Rm besitzt im Häufungspunkt x0 von D( f ) den Grenzwert
c genau dann, wenn für jede beliebige Folge (ξn )n∈N in D( f ) \ {x0 } mit ξn → x0 die Folge
( f (ξn ))n∈N gegen c konvergiert,
∀ Folge ξ : N → D( f ) \ {x0 } :
lim ξi = x0 =⇒ lim f (ξi ) = c .
i→∞
i→∞
Definition 7.4.4. Wir sagen, die Funktion f hat für x gegen
x0 den rechtsseitigen Grenzwert c1 = limx→x0+ f (x) ∈ R, wenn die Einschränkung f D( f )∩[x ,∞[ von f auf den rechten
0
Teil des Definitionsbereiches D( f )>x0 = D( f ) ∩ [x0 , ∞[ den Grenzwert c1 hat,
lim f (x) := lim f D( f )>x (x) .
x→x0
x&x0
0
Entsprechend ist der linksseitige Grenzwert c2 = limx→x0− f (x) definiert als
lim f (x) := lim f D( f ) (x) .
x→x0
x%x0
<x0
♦
Satz 7.4.5. Sei f : D( f ) ⊆ R → R und sei x0 Häufungspunkt von D( f )<x0 und D( f )>x0 .
Dann existiert der Grenzwert von f in x0 genau dann, wenn linksseitiger und rechtsseitiger
Grenzwert existieren und gleich sind. In diesem Fall gilt
lim f (x) = lim f (x) = lim f (x) .
x→x0
x%x0
x&x0
Das folgende Beispiel zeigt, daß es im Mehrdimensionalen nicht genügt, nur die Grenzwerte entlang von Koordinatenlinien zu betrachten:
lim f (x, y0 ) = lim f (x0 , y) = c
x→x0
y→y0
6=⇒
lim
(x,y)→(x0 ,y0 )
f (x, y) = c .
Beispiel 7.4.6. Wir betrachten die Funktion f : D( f ) ⊂ R2 → R mit
f (x, y) =
xy
x2 + y2
,
D( f ) = R2 \ {(0, 0)} .
Es ist a = (0, 0) ein Häufungspunkt von D( f ). Wir zeigen, daß f in (0, 0) keinen Grenzwert
hat.
131
7 Stetigkeit
a) Für (xk , yk ) := ( 1k , 0) bzw. (xk , yk ) := (0, 1k ) gilt
(xk , yk ) 6= (0, 0) für alle k
und
lim (xk , yk ) = (0, 0)
k→∞
sowie lim f (xk , yk ) = 0.
k→∞
b) Für (x̂k , ŷk ) = ( 1k , 1k ) gilt auch
(x̂k , ŷk ) 6= (0, 0) für alle k
und
lim (x̂k , ŷk ) = (0, 0)
k→∞
aber lim f (x̂k , ŷk ) = 12 .
k→∞
♦
Einen gemeinsamen Grenzwert a gibt es also nicht.
Das folgende Beispiel zeigt, daß es auch nicht genügt, nur die Grenzwerte entlang von
Strahlen zu betrachten:
∀(x1 , y1 ) ∈ R2 : lim f (x0 + τx1 , y0 + τy1 ) = c
6=⇒
lim
(x,y)→(x0 ,y0 )
τ→0
f (x, y) = c .
x2
für x 6= 0, f (0, y) =
x2 +y4
2
) ∈ R \ {(0, 0)}. Dann gilt
Beispiel 7.4.7. Wir betrachten f : R2 → R mit f (x, y) =
untersuchen den Grenzwert von f in (0, 0). Sei (x1 , y1
0. Wir
τ 2 x12
= 1 für x1 6= 0 ,
τ→0
τ→0 τ 2 x2 + τ 4 y4
1
1
lim f (τx1 , τy1 ) = lim f (0, τy1 ) = 1 für x1 = 0 .
lim f (τx1 , τy1 ) = lim
τ→0
τ→0
Andererseits gilt
τ4
1
lim f (τ , τ) = lim 4
=
.
τ→0
τ→0 τ + τ 4
2
Es existiert also kein Grenzwert von f in (0, 0). Insbesondere ist f in (0, 0) nicht stetig. ♦
2
Im allgemeinen kann die Existenz eines Grenzwert einer Funktion f an einer Stelle a nicht
durch Betrachtung von Folgen gezeigt werden, da dazu die Konvergenz aller entsprechenden Folgen gegen den gleichen Grenzwert gezeigt werden müßte. Mit Hilfe von Folgen
kann man aber den Kandidaten für den Grenzwert erhalten. Es ist dann aber noch zu zeigen, daß dieser tatsächlich der Grenzwert ist.
Beispiel 7.4.8. Wir betrachten f : R2 → R mit f (x, y) =
x4 +y4
x2 +y2
für (x, y) 6= (0, 0), f (0, 0) =
Betrachten wir die Folge (( 1n , 0))n>0 , so erhalten wir 0 als den Kandidaten für den Grenz-
1.
wert. Wir zeigen, daß 0 tatsächlich Grenzwert von f in (0, 0) ist: Für (x, y) 6= (0, 0) gilt
x4 + y4
x4 + 2x2 y2 + y4 − 2x2 y2
(x2 + y2 )2 + 2x2 y2
|
≤
|
|
≤
x2 + y2
x2 + y2
x2 + y2
2(x2 + y2 )2
≤
≤ 2(x2 + y2 ) = 2k(x, y)k2
x2 + y2
und damit f (x, y) → 0 für k(x, y)k → 0.
| f (x, y)| = |
132
♦
7.4 Grenzwerte von Funktionen
7.4.2 Zusammenhang von Grenzwert und Stetigkeit
Als Folgerung aus Satz 7.2.7 erhalten wir:
Satz 7.4.9. Sei f : D( f ) ⊆ Rn → Rm und sei x0 ∈ D( f ) ein Häufungspunkt von D( f ). Dann
ist f in x0 genau dann stetig, wenn f in x0 einen Grenzwert hat und dieser mit dem Funktionswert von f an der Stelle x0 übereinstimmt,
lim f (x0 ) = f (x0 ) .
x→x0
Grenzwerte an Stetigkeitsstellen, die Häufungspunkt des Definitionsbereiches sind, können
also einfach als Funktionswert bestimmt werden.
Andererseits gibt uns dieser Satz auch eine Möglichkeit, stetige Funktionen auf Häufungspunkte außerhalb des Definitionsbereiches stetig fortzusetzen:
Satz 7.4.10 (Stetige Fortsetzung). Sei f : D( f ) ⊆ Rn → R und sei x0 6∈ D( f ) ein Häufungspunkt von D( f ). Existiert der (endliche) Grenzwert limx→x0 f (x), dann ist die Funktion g : D(g) → Rn mit D(g) = D( f )∪{x0 } und g(x) = f (x) für x ∈ D( f ), g(x0 ) = limx→x0 f (x)
stetig.
7.4.3 Rechnen mit Grenzwerten
Zur bequemen Berechnung von Grenzwerten notieren wir wieder einige Rechenregeln, die
aus der Definition und den entsprechenden Regeln für Folgen hergeleitet werden.
Satz 7.4.11 (Rechenregeln für Grenzwerte von Funktionen). Seien f : D( f ) ⊆ Rn → Rm
und g : D(g) ⊆ Rn → Rm . Sei x0 ein Häufungspunkt von D( f ) ∩ D(g). Weiter nehmen wir
an, daß lim f (x) und lim g(x) (als endliche Grenzwerte) existieren. Dann gilt:
x→x0
x→x0
(i) lim ( f (x) ± g(x)) = lim f (x) ± lim g(x).
x→x0
x→x0
x→x0
(ii) lim ( f (x) · g(x)) = lim f (x) · lim g(x), falls m = 1.
x→x0
x→x0
x→x0
(iii) lim (α · f (x)) = α · lim f (x) für alle α ∈ R.
x→x0
(iv) lim
x→x0
x→x0
f (x)
g(x)
lim f (x)
=
x→x0
lim g(x) ,
x→x0
falls m = 1 und lim g(x) 6= 0.
x→x0
Satz 7.4.12. Seien f : D( f ) ⊆ Rn → R, g : D(g) ⊆ Rn → R, h : D(h) ⊆ Rn → R mit D(h) ⊆
D( f ) ∩ D(g), und sei x0 Häufungspunkt von D(h). Existiert ein ε > 0 mit
f (x) ≤ h(x) ≤ g(x)
für alle x ∈ D(h) mit |x − x0 | < ε, und gilt limx→x0 f (x) = limx→xo g(x) = c, so gilt auch
lim h(x) = c.
x→x0
133
7 Stetigkeit
7.4.4 Anwendungsbeispiele
1. Für jedes Polynom p und jede Stelle x0 ∈ R gilt:
lim p(x) = p(x0 ) .
x→x0
Beweis. Regeln (i)–(iii) von Satz 7.4.11.
2. Es gilt
lim
x→2
x3 + 3x + 5
x2 − 2x + 1
limx→2 x3 + 3x + 5
19
=
=
.
2
limx→2 (x − 2x + 1)
1
Beweis. 1. und Regel (iv).
3. Sei f : D( f ) ⊂ R → R mit D( f ) = R \ {2} und
f (x) =
x2 + x − 6
.
x−2
Dann gilt wegen der Stetigkeit von Zähler und Nenner in x0 = 4
x2 + x − 6 limx→4 (x2 + x − 6) 14
=
=
= 7.
x→4
x−2
limx→4 (x − 2)
2
lim f (x) = lim
x→4
Dagegen kann der Grenzwert limx→2 f (x) nicht in ähnlicher Weise berechnet werden, da
limx→2 (x − 2) = 0. Sei dazu nun (ξn )n∈N eine beliebige Folge in R \ {2} mit limn→∞ ξn = 2.
Wegen x2 + x − 6 = (x − 2)(x + 3) gilt dann
(ξn − 2)(ξn + 3)
= lim (ξn + 3) = 5
n→∞
n→∞
ξn − 2
lim f (ξn ) = lim
n→∞
und daher
lim f (x) = 5 .
x→2
Nach Satz 7.4.10 ist die Funktion g : R → R mit g(x) = f (x) für x 6= 2 und g(x) = 5 für
x = 2 die stetige Fortsetzung von f auf R. Beachte, daß g(x) = x + 3 für x ∈ R.
4. Es gilt
sin x
x
= 1 = lim
,
x→0 x
x→0 sin x
lim
(womit g : R → R mit g(x) =
134
sin x
x
für x 6= 0 und g(0) = 1 nach Satz 7.4.10 stetig ist).
7.4 Grenzwerte von Funktionen
cos x
0
tan x
sin x
Beweis. Gemäß der Skizze
1
gilt bei Betrachtung der Flächeninhalte folgender Zusammenhang:
x
1
1
sin x cos x ≤
π ≤ tan x
2
2π
2
⇐⇒
cos x ≤
x
1
≤
.
sin x cos x
Mit Satz 7.4.12 schließen wir aus
lim cos x = 1
x→0
auf
und
1
=1
x→0 cos x
lim
x
sin x
= 1 = lim
.
x→0 sin x
x→0 x
lim
5. Die Funktion f : D( f ) ⊂ R → R mit D( f ) = R \ {0} und f (x) = sin 1x ist stetig. Der
Grenzwert in 0 existiert aber nicht: Seien z.B. (ξn )n∈N und (ηn )n∈N mit ξn = (2n+1 1 )π und
ηn =
1
.
(2n− 21 )π
2
Dann gilt f (ξn ) = 1 und f (ηn ) = −1 für n ∈ N und daher
1 = lim f (ξn ) 6= lim f (ηn ) = −1 .
n→∞
n→∞
Die Funktion f kann daher nicht in 0 stetig fortgesetzt werden.
6. Es gilt
cos x − 1
= 0.
x→0
x
lim
Beweis. Es gilt
cos x − 1 (cos x − 1) (cos x + 1)
cos2 x − 1
=
=
x
x (cos x + 1)
x (cos x + 1)
2
sin x
sin x
1
=−
=−
·
· sin x .
x (cos x + 1)
x cos x + 1
cos x − 1
= 0.
x→0
x
Mit 4. und den Rechenregeln folgt lim
135
7 Stetigkeit
7. Es gilt
√
x+1−1 1
lim
= .
x→0
x
2
Beweis. Es gilt
√
2
√
x + 1 − 12
x+1−1
1
=√
= √
,
x
x x+1+1
x+1+1
√
x+1−1 1
und damit lim
= .
x→0
x
2
8. Es gilt
√
lim
x→0
x + 1 − 1 sin x
x2 (x − 5)2
√
1
x + 1 − 1 sin x
1
·
·
.
= lim
=
2
x→0
x
x (x − 5)
50
7.4.5 Uneigentliche Grenzwerte und Grenzwerte im Unendlichen
1
auf D( f ) = R \ {0}. Dann ist x0 = 0 ein Häufungspunkt von D( f ). Für diese
Sei f (x) = |x|
Funktion gilt:
∀ε > 0 ∃δ > 0 ∀x ∈ D( f ) mit |x − x0 | < δ :
f (x) ≥ ε .
Definition 7.4.13. Sei f : D( f ) ⊆ R → R eine Funktion, x0 ein Häufungspunkt von D( f ).
Man sagt, die Funktion f hat bei x0 den (uneigentlichen) Grenzwert +∞, wenn
∀ε > 0 ∃δ > 0 ∀x ∈ D( f ) \ {x0 } mit |x − x0 | < δ :
f (x) ≥ ε .
Analog definiert man den Grenzwert −∞ sowie die links- und rechtseitigen uneigentlichen
Grenzwerte.
♦
Bezeichnung: Man schreibt limx0 f = +∞ oder limx→x0 f (x) = +∞ bzw. limx0 f = −∞ oder
limx→x0 f (x) = −∞.
In Verallgemeinerung von Satz 7.4.5 gilt:
Satz 7.4.14. Sei f : D( f ) ⊆ R → R und sei x0 Häufungspunkt von D( f )<x0 und D( f )>x0 .
Dann hat f den uneigentliche Grenzwert +∞ (bzw. −∞) in x0 genau dann, wenn f die
linksseitigen und rechtsseitigen uneigentlichen Grenzwerte +∞ (bzw. −∞) besitzt.
136
7.4 Grenzwerte von Funktionen
Beispiel 7.4.15. Es gilt
1
=∞
x&0 x
lim
und
1
= −∞ .
x%0 x
lim
♦
Sei nun f (x) = 5x−3
x auf D( f ) = R \ {0}. Uns interessiert das Verhalten von f bei immer
größer werdenden x. Für diese Funktion gilt:
∀ε > 0 ∃δ > 0 ∀x ∈ D( f ) mit x > δ :
| f (x) − 5| < ε
und
∀ε > 0 ∃δ > 0 ∀x ∈ D( f ) mit x < −δ :
| f (x) − 5| < ε .
Definition 7.4.16. Sei f : D( f ) ⊆ R → R eine Funktion, E := {1/x : x ∈ D( f )∩ ]0, ∞[}
und g : E → R mit g(t) = f (1/t) für t ∈ E. Wenn 0 Häufungspunkt von E und wenn der
(eigentliche oder uneigentliche) Grenzwert limt→0 g(t) existiert, dann nennt man lim0 g den
(eigentlichen oder uneigentlichen) Grenzwert von f in +∞:
lim f (x) := lim g(t) = lim f (1/t) mit g(t) = f (1/t) .
x→+∞
t&0
t&0
♦
Analog wird limx→−∞ f (x) definiert.
Bemerkung 7.4.17. Mit den eigentlichen Grenzwerten (d.h. endlichen Grenzwerten) von
f in −∞ oder −∞ kann man so rechnen, wie in reellen Stellen (d.h. entsprechend Satz
7.4.11).
♦
Beispiel 7.4.18. 1. Sei f : R → R mit f (x) =
x−1
|x|+1 .
Da
x−1
|x|+1
=
1−1/x
1+1/x
für x > 0 und da
limx→∞ (1 − 1/x) 1
= = 1,
limx→∞ (1 + 1/x) 1
gilt
x−1
limx→∞ (1 − 1/x)
=
= 1.
x→∞ |x| + 1
limx→∞ (1 + 1/x)
lim
Andererseits gilt
x−1
|x|+1
=
1−1/x
−1+1/x
für x < 0 und
limx→−∞ (1 − 1/x)
1
=
= −1 ,
limx→−∞ (−1 + 1/x) −1
womit
x−1
limx→∞ (1 − 1/x)
=
= −1 .
x→∞ |x| + 1
limx→∞ (−1 + 1/x)
lim
137
7 Stetigkeit
2. Es gilt
x2 − 4
1
1 1
2
2
lim
= lim
x−
= lim
· −
= ∞.
x→∞ 2x
x→∞ 2
x
1/t
t&0 2 t
3. Es gilt
lim
x→∞
√
1
x = lim √ = +∞ .
t&0 t
4. Es sei p(x) = ∑ni=0 ai xi mit an 6= 0. Dann gilt
(
+∞ , wenn an > 0 ,
lim p(x) =
x→∞
−∞ , wenn an < 0
und
(
limx→∞ p(x) ,
wenn n gerade ist,
lim p(x) =
x→−∞
− limx→∞ p(x) , wenn n ungerade ist.
♦
7.4.6 Die erweiterten reellen Zahlen
Wir erweitern nun die Rechenregeln von Satz 7.4.11 auf die uneigentlichen Grenzwerte +∞
und −∞.
Zur Verkürzung der Schreibweise schreiben wir zum Beispiel
F +G = H
und meinen damit:
Wenn f und g so sind, daß limx0 f = F, lim gx0 = G , dann gilt F + G = limx0 ( f + g) = H.
Insgesamt haben wir dann folgende Regeln:
1. (+∞) + (+∞) = (+∞) − (−∞) = (+∞) + c = c + (+∞) = +∞ für c ∈ R.
2. (−∞) + (−∞) = (−∞) − (+∞) = (−∞) + c = c + (−∞) = −∞ für c ∈ R.
3. (+∞) · (+∞) = (−∞) · (−∞) = (+∞) · c = c · (+∞) = (−∞) · d = d · (−∞) = +∞ für
c ∈ R>0 und d ∈ R<0 .
4. (+∞) · (−∞) = (−∞) · (+∞) = (−∞) · c = c · (−∞) = (+∞) · d = d · (+∞) = −∞ für
c ∈ R>0 und d ∈ R<0 .
5.
c
±∞
138
= 0 für c ∈ R.
7.4 Grenzwerte von Funktionen
n
i
i
Beispiel 7.4.19. Seien p(x) = ∑m
i=0 ai x und q(x) = ∑i=0 bi x mit am 6= 0 und bn 6= 0.
Wenn m > n, dann gilt
i−n + n−1 a xi−n
i
p(x) ∑m
∑m
∑i=0 i
i=n ai x
i=0 ai x
=
.
= n
n−1
i
q(x) ∑i=0 bi x
bn + ∑i=0 bi xi−n
Damit gilt
p(x)
lim
=
x→∞ q(x)
(
+∞ , wenn sgn(am ) = sgn(bn ) ,
−∞ , wenn sgn(am ) = −sgn(bn ) .
Weiter haben wir
p(x)
=
lim
x→−∞ q(x)
(
p(x)
limx→∞ q(x)
p(x)
− limx→∞ q(x)
für gerades m − n,
für ungerades m − n.
Wenn m = n, dann gilt
i−m
i
am + ∑m−1
p(x) ∑m
i=0 ai x
i=0 ai x
=
=
i−m
q(x) ∑ni=0 bi xi bm + ∑m−1
i=0 bi x
und damit
p(x) am
p(x)
= lim
=
.
x→∞ q(x)
x→−∞ q(x)
bm
lim
Wenn m < n, dann gilt
lim
x→∞
p(x)
p(x)
= lim
= 0.
x→−∞
q(x)
q(x)
♦
±∞
Offen bleiben (+∞) − (+∞), (−∞) − (−∞), ±∞
±∞ , ∓∞ , 0 · (+∞), 0 · (−∞) und Grenzwerte der
−∞
Form 00 , +∞
0 , 0 . Hier müssen entsprechende Grenzwertuntersuchungen für die konkreten
Funktionen durchgeführt werden. Dies werden wir später mit Hilfe der Differentialrechnung durchführen (de l’Hospitalsche Regel).
7.4.7 Die Landau-Symbole
Definition 7.4.20. Seien f : D( f ) ⊆ R → R, g : D(g) ⊆ R → R, x0 Häufungspunkt von
D( f ) ⊆ D(g). Die Funktion f heißt unendlich klein bezüglich g in x0 , wenn
∀ε > 0 ∃δ > 0 ∀x ∈ D( f ) :
(|x − x0 | < δ =⇒ | f (x)| ≤ ε|g(x)|) .
(7.4.1)
♦
139
7 Stetigkeit
Man schreibt dafür nicht ganz korrekt
f (x) = o(g(x)) für x → x0
(7.4.2)
und liest „ f (x) ist klein o von g(x) für x → x0 “.
Bemerkung 7.4.21. 1. Existiert ein δ0 > 0 mit g(x) 6= 0 für x ∈ D( f ) mit |x − x0 | < δ0 ,
dann bedeutet f (x) = o(g(x)) für x → x0 , daß
| f (x)|
= 0,
x→x0 |g(x)|
lim
d.h., daß f schneller als g gegen 0 geht für x → x0 .
2. Die Symbolik f (x) = o(g(x)) für x → ∞ oder x → −∞ ist in unserer Definition mit
enthalten.
3. Das Gleichheitszeichen in f (x) = o(g(x)) ist keine Gleichheitsrelation: Es gilt x3 = o(x)
und x3 = o(x2 ) für x → 0 aber o(x) 6= o(x2 ).
4. Anstelle (7.4.2) wäre „ f ∈ o(g, x0 )“ mit o(g, x0 ) als Menge aller f : D ⊆ R → R mit
♦
(7.4.1) richtig.
Beispiel 7.4.22. 1. Seien µ, ν ∈ R mit µ < ν und x0 ∈ R>0 . Dann gelten
xν = o(xµ ) für x → 0,
(x − x0 )ν = o((x − x0 )µ ) für x → x0 ,
xµ = o(xν ) für x → ∞ .
Der Nachweis ergibt sich aus den bekannten Grenzwerten
xν
lim µ = lim xν−µ = 0 ,
x→0 x
x→0
ν−µ
lim (x − x0 )
x→x0
= 0,
xµ
lim
= lim x−(ν−µ) = 0 .
x→∞ xν
x→∞
2. Es gilt sin x − x = o(x) für x → 0 und cos x − 1 + 21 x2 = o(x2 ) für x → 0. Man verwende
dazu
1 − cos x
sin2 (x/2) 1
2 sin2 (x/2) 1
lim
= .
=
lim
=
x→0
x→0
x2
x2
2 x→0 x2 /4
2
sin x
= 1,
x→0 x
lim
lim
f
3. Sei f : D( f ) ⊆ R → R stetig im Häufungspunkt x0 von D( f ) und sei Tx0 ,0 : R → R das
f
f
Polynom nullten Grades mit Tx0 ,0 (x) := f (x0 ) für x ∈ R. Für den Fehler von Tx0 ,0 (x) im
Vergleich zu f (x) bei x0 gilt
f
f (x) − Tx0 ,0 (x) = o(|x − x0 |0 )
für x → x0 .
f
Tx0 ,0 ist in diesem Sinne eine Approximation nullten Grades von f in x0 .
Frage: Wann gibt es eine Approximation k-ten Grades von f in x0 ,
f
f (x) − Tx0 ,k (x) = o(|x − x0 |k )
f
durch ein Polynom Tx0 ,k ?
140
für x → x0 ,
♦
8 Differentialrechnung
8.1 Differenzierbare Funktionen einer Variablen
8.1.1 Tangenten, Ableitungen und lineare Approximation
Wir setzen uns zum Ziel, zu einer gegebenen Funky
tion f : D( f ) ⊆ R → R und einer gegebenen Stelle
f
x0 ∈ D( f ) eine Gerade zu berechnen, die folgende Forderungen erfüllt:
1. Die Gerade geht durch den Punkt (x0 , f (x0 )).
2. An der Stelle x = x0 verlaufen Gerade und der Graph f (x0 )
der Funktion „lokal parallel“.
Eine solche Gerade nennen wir Tangente an den Grax
x0
phen von f im Punkt x0 .
Eine Gerade ist Graph eines Polynoms T ersten Grades. Mit der ersten Bedingung erhalten
wir
T (x) = f (x0 ) + a · (x − x0 ) .
Wir präzisieren die Parallelität von Tangente und Graph in dem Sinne, daß der Fehler von
T (x) im Vergleich zu f (x) schneller als linear gegen 0 gehen sollte für x → x0 , d.h., wir
suchen eine Zahl a mit
f (x) − T (x) = o(|x − x0 |1 ) ,
d.h.,
f (x) = f (x0 ) + a · (x − x0 ) + o(|x − x0 |1 ) .
Zur Bestimmung des Anstieges a der Tangente betrachten wir neben der Stelle x0 noch
Stellen x0 + ∆ x ∈ D( f ). Durch (x0 , f (x0 )) und (x0 + ∆ x0 , f (x0 + ∆ x0 )) verläuft wieder eine
Gerade, die so genannte Sekante zum Graphen von f durch diese beiden Punkte.
Diese Sekante ist Graph der Funktion
y
S: R → R,
S(x) = f (x0 ) + A(∆ x) · (x − x0 ) ,
f (x0 +∆x)
T (x0 +∆x)
wobei
f (x0 + ∆ x) − f (x0 )
A(∆ x) =
∆x
der Anstieg der Sekante ist.
α
f
β
f (x0 )=T (x0 )
T
∆x
x0
x0 + ∆x
x
141
8 Differentialrechnung
Anschaulich strebt nun der Anstieg A(∆ x) der Sekante bei immer kleiner werdender Größe
∆ x gegen den Anstieg a der gesuchten Tangente. Damit wäre
a = lim
∆ x→0
f (x0 + ∆ x) − f (x0 )
∆x
ein sinnvoller Kandidat für den Anstieg der Tangenten an den Graphen von f durch x0 , falls
der Grenzwert existiert (und endlich ist).
Definition 8.1.1. Sei f : D( f ) ⊆ R → R. Wenn x0 ∈ D( f ) ein Häufungspunkt von D( f ) ist
und wenn der Grenzwert
f 0 (x0 ) := lim
x→x0
f (x0 + ∆ x) − f (x0 )
f (x) − f (x0 )
= lim
∆ x→0
x − x0
∆x
existiert, so heißt f differenzierbar in x0 und wir nennen f 0 (x0 ) die Ableitung von f an
der Stelle x0 .
♦
Bezeichnungen:
f 0 (x0 ) = D f (x0 ) = d f (x0 ) =
df
d f (x0 )
d f (x) = (x0 ) =
.
x=x
0
dx
dx
dx
Bemerkung 8.1.2. Die drei letzten Bezeichnungen sind mißverständlich und sollten daher
weitgehend vermieden werden: Es gibt nur eine Ableitung einer Funktion f an einer Stelle
x0 . Wie das Argument der Funktion bezeichnet wird, ist unerheblich:
d f (y) d f (x) =
.
dx x=x0
dy y=x0
♦
Zusammengefaßt haben wir damit graph T mit
T (x) = f (x0 ) + f 0 (x0 ) · (x − x0 )
als Kandidaten für die Tangente, falls f 0 (x0 ) existiert.
Betrachten wir nun den Fehler r(x) zwischen f (x) und T (x). Es gilt
r(x) = f (x) − T (x) = f (x) − f (x0 ) − f 0 (x0 ) · (x − x0 )
und daher
r(x)
f (x) − f (x0 ) − f 0 (x0 ) · (x − x0 )
f (x) − f (x0 )
= lim
= lim
− f 0 (x0 ) = 0 ,
x→x0
x→x0
x→x0 x − x0
x − x0
x − x0
lim
d.h., r(x) = o(|x − x0 |) für x → x0 . Damit gilt tatsächlich
f (x) = f (x0 ) + f 0 (x0 ) · (x − x0 ) + o(|x − x0 |) für x → x0 .
142
(8.1.1)
8.1 Differenzierbare Funktionen einer Variablen
f
Folglich ist Tx0 ,1 : R → R mit
f
Tx0 ,1 (x) := f (x0 ) + f 0 (x0 ) · (x − x0 )
tatsächlich eine Approximation ersten Grades von f in x0 durch ein Polynom ersten Graf
des, d.h., eine lineare Approximation von f in x0 , und graph Tx0 ,1 ist eine Tangente an den
Graphen von f in x0 .
Durch
{(x, f (x0 ) + f 0 (x0 ) · (x − x0 )) : x ∈ R}
ist somit die Tangente an den Graph von f in x0 gegeben, falls f 0 (x0 ) existiert.
Bemerkung 8.1.3. 1. Die Ableitung f 0 (x0 ) von f in x0 ist, falls sie existiert, eindeutig.
2. Es gibt höchstens eine lineare Approximation T (x) = f (x0 ) + a · (x − x0 ) von f in x0 .
3. Eine lineare Approximation T (x) = f (x0 ) + a · (x − x0 ) von f in x0 existiert genau dann,
wenn f in x0 differenzierbar ist. Die Zahlen a bzw. f 0 (x0 ) sind eindeutig durch
a = f 0 (x0 )
bestimmt. Die Ableitung f 0 (x0 ) ist daher die Linearisierung von f in x0 .
f (x0 )
f (x0 )
= ∞ oder lim∆ x→0 f (x0 +∆∆x)−
= −∞, dann ist f zwar in x0
4. Falls lim∆ x→0 f (x+∆∆x)−
x
x
nicht differenzierbar, wir haben aber in diesem Fall eine vertikale Tangente an den Graphen
von f in x0 .
5. Wie zuvor bei den Grenzwerten kann man auch links- und rechtsseitige Ableitungen
D− und D+ bilden. Diese liefern links- bzw. rechtsseitige Tangenten. Die Existenz von
links- und rechtseitiger Ableitung und ihre Gleichheit sind äquivalent zur Existenz der Ableitung.
♦
Beispiel 8.1.4. Wir untersuchen f (x) = |x| an der Stelle x0 = 0:
|0 + ∆ x| − |0|
∆x
= lim
= 1,
∆x
∆ x&0 ∆ x
∆ x&0
|0 + ∆ x| − |0|
−∆ x
D− f (x0 ) = lim
= lim
= −1 .
∆x
∆ x%0
∆ %0 ∆ x
D+ f (x0 ) = lim
f hat im Punkte x0 linksseitig und rechtsseitig verschiedene „Ableitungen“ (Steigungen):
y
2
1
-3
-2
-1
1
2
3
x
♦
143
8 Differentialrechnung
8.1.2 Ableitungen spezieller Potenzfunktionen
1. Für f : R → R mit f (x) = x0 = 1 und x0 ∈ R finden wir
f 0 (x0 ) = lim
∆ x→0
f (x0 + ∆ x) − f (x0 )
1−1
= lim
= 0.
∆ x→0 ∆ x
∆x
2. Für f : R → R mit f (x) = x1 = x und x0 ∈ R finden wir
f (x0 + ∆ x) − f (x0 )
x0 + ∆ x − x0
= lim
= 1.
∆ x→0
∆ x→0
∆x
∆x
3. Für f : R → R mit f (x) = xn mit n ≥ 2 und x0 ∈ R finden wir
f 0 (x0 ) = lim
(x0 + ∆ x)n − x0n
f (x0 ) = lim
∆ x→0
∆x
n
x0 + nx0n−1 ∆ x + n2 x0n−2 ∆ x2 + . . . + ∆ xn − x0n
= lim
∆ x→0
∆x
n n−2
n−1
n−1
= lim nx0 +
x ∆x+...+∆x
∆ x→0
2 0
0
= nx0n−1 .
√
4. Für f : R≥0 → R mit f (x) = x und x0 > 0 finden wir
√
√
x0 + ∆ x − x0
1
1
0
f (x0 ) = lim
= lim √
√ = √ .
∆ x→0 x0 + ∆ x − x0
∆ x→0 x0 + ∆ x + x0
2 x0
Wir fassen zusammen:
d n
x = nxn−1 (n ≥ 0) ,
dx
d√
1
(x > 0) .
x= √
dx
2 x
Mit der gerade gewonnenen Ableitung für die Wurzelfunktion, zeigen wir nun an einem
Beispiel, wie gut die Tangente ( = lineare Approximation) die Funktion f in der Nähe der
Stelle x0 annähert.
√
Beispiel 8.1.5. Wir betrachten f (x) = x an der Stelle x0 = 1.96. Es ist f 0 (x0 ) = 2√1x0 =
1
2·1.4
=
1
2.8 ,
daher
1
(x − 1.96) .
2.8
f
Wir vergleichen für x = 2 die Werte von f (2) und T1.96,1 (2):
√
f (2) = 2 = 1.41421356 . . . ,
1
f
T1.96,1 (2) = 1.4 +
(2 − 1.96) = 1.414286 . . . .
2.8
f
T1.96,1 (x) = 1.4 +
144
♦
8.1 Differenzierbare Funktionen einer Variablen
8.1.3 Ableitung der Kreisfunktionen
Wir geben hier die Ableitungen der Kreisfunktionen an:
sin0 (x) = cos(x) ,
cos0 (x) = − sin(x) ,
π
1
(x 6= kπ + , k ∈ Z) ,
tan0 (x) =
2
cos x
2
1
cot0 (x) = − 2
(x =
6 kπ, k ∈ Z) .
sin x
Begründung für die Ableitung von sin:
sin(x + ∆ x) − sin x
sin x cos ∆ x + cos x sin ∆ x − sin x
= lim
∆ x→0
∆ x→0
∆x
∆x
sin ∆ x
cos ∆ x − 1
+ cos x lim
= sin x lim
∆ x→0 ∆ x
∆ x→0
∆x
= 0 · sin x + 1 · cos x .
lim
Ableitungen weiterer Funktionen finden Sie in einer Formelsammlung oder mit Hilfe der
späteren Rechenregeln.
8.1.4 Rechenregeln
Wir wiederholen die aus der Schule bekannten Rechenregeln, welche die Berechnung von
Ableitungen erleichtern.
Satz 8.1.6. Es seien f : D( f ) ⊆ R → R und g : D(g) ⊆ R → R zwei Funktionen und x ∈
D( f ) ∩ D(g) Häufungspunkt von D( f ) ∩ D(g). Wenn f und g in x differenzierbar sind, dann
gilt:
(α f + β g)0 (x) = α f 0 (x) + β g0 (x) für alle α, β ∈ R
( f · g)0 (x) = f 0 (x)g(x) + f (x)g0 (x) (Produktregel)
0
1
g0 (x)
, falls g(x) 6= 0
(x) = −
g
(g(x))2
(8.1.2)
(8.1.3)
(8.1.4)
Folgerung 8.1.7. Es seien f : D( f ) ⊆ R → R und g : D(g) ⊆ R → R zwei Funktionen und
x ∈ D( f ) ∩ D(g) Häufungspunkt von D( f ) ∩ D(g) mit g(x) 6= 0. Wenn f und g in x differenzierbar sind, dann gilt
0
f
f 0 (x)g(x) − f (x)g0 (x)
(x) =
.
(Quotientenregel)
g
(g(x))2
145
8 Differentialrechnung
Beweis. Folgt direkt aus den Rechenregeln (8.1.3) und (8.1.4).
Mit Hilfe dieser Regeln können wir nun beliebige rationale Funktionen ableiten.
Beispiel 8.1.8.
1. Für f (x) = 3x3 − 4x2 + 2x − 1 und x ∈ R gilt
f 0 (x) = 3 · 3x2 − 4 · 2x + 2 · 1 = 9x2 − 8x + 2 .
x3 − x
2. Für f (x) =
und x ∈ R gilt
1 + x2
3x2 − 1 1 + x2 − x3 − x (0 + 2x) 3x2 + 3x4 − 1 − x2 − 2x4 + 2x2
0
f (x) =
=
2
2
(1 + x2 )
(1 + x2 )
x4 + 4x2 − 1
=
.
2
(1 + x2 )
♦
8.1.5 Die Kettenregel
Eine weitere Rechenregel gibt uns Auskunft darüber, wie verkettetete Funktionen abzuleiten sind.
Satz 8.1.9. Es seien f : D( f ) ⊆ R → R und g : D(g) ⊆ R → R zwei Funktionen und x ∈
D(g ◦ f ) = f −1 (D(g)) Häufungspunkt von D(g ◦ f ). Wenn f in x und g in f (x) differenzierbar sind, dann gilt:
(g ◦ f )0 (x) = g0 ( f (x)) f 0 (x) .
(Kettenregel)
Die Ableitung einer verketteten Funktion ist also „äußere Ableitung mal innere Ableitung“.
2
Beispiel 8.1.10. Wir können f (x) = 3x2 − 4 auf drei verschiedene Arten ableiten.
2
1. Ausmultiplizieren: f (x) = 3x2 − 4 = 9x4 − 24x2 + 16 und damit f 0 (x) = 36x3 − 48x.
2. Produktregel: f (x) = 3x2 − 4 3x2 − 4 und damit
f 0 (x) = 6x(3x2 − 4) + (3x2 − 4)6x
= 12x(3x2 − 4) = 36x3 − 48x .
3. Kettenregel:
f 0 (x) = 2 · (3x2 − 4) · (6x) = 12x(3x2 − 4) = 36x3 − 48x .
146
♦
8.1 Differenzierbare Funktionen einer Variablen
Die Kettenregel kann auch bei mehrfacher Schachtelung angewendet werden:
q
3
Beispiel 8.1.11. Sei f : ]2, ∞[ → R mit f (x) = (x2 − 2x) für x > 2 gegeben. f ist Verkettung dreier Funktionen:
f = f3 ◦ f2 ◦ f1
mit
f1 : R → R ,
f2 : R → R ,
f3 : R≥0 → R ,
f1 (x) = x2 − 2x ,
f2 (x) = x3 ,
√
f3 (x) = x .
Entsprechend gilt für die Ableitung
f 0 (x) = f30 ( f2 ( f1 (x))) · f20 ( f1 (x)) · f10 (x)
2
1
= q
· 3 x2 − 2x · (2x − 2)
3
2 (x2 − 2x)
p
x2 − 2x
= 3 (x − 1) √
= 3 (x − 1) x2 − 2x .
x2 − 2x
♦
8.1.6 Höhere Ableitungen von Funktionen einer Variablen
Sei f : D( f ) ⊆ R → R. Wir fragen nun wieder nach der Differenzierbarkeit von f 0 , wobei
die Ableitungen höherer Ordnung rekursiv definiert werden:
Definition 8.1.12. Wir setzen f (0) := f , f (1) := f 0 mit D( f (0) ) := D( f ) und D( f (1) ) =
D( f 0 ). Sei nun f (k−1) : D( f (k−1) ) ⊆ R → R definiert mit k ≥ 2. Dann heiße f k-mal
differenzierbar in x0 , wenn f (k−1) in x0 differenzierbar ist. Die Funktion f (k) : D( f (k) ) ⊆
R → R mit
0
f (k) (x) := f (k−1) (x) für x ∈ D( f (k) )
und
D( f (k) ) := {x0 ∈ D( f (k−1) : f (k−1) ist in x0 differenzierbar}
heißt k-te Ableitungsfunktion von f . Die Funktion f heißt k-mal stetig differenzierbar
in x0 , wenn die k-te Ableitung existiert und stetig in x0 ist. Sie heißt k-mal (stetig) differenzierbar, wenn die k-te Ableitung existiert mit D( f (k) ) = D( f ) (und f (k) stetig ist).
Die Menge der stetigen Funktionen f : D ⊆ R → R wird mit C0 (D) bezeichnet. Die Menge
der k-mal stetig differenzierbaren Funktionen f : D ⊆ R → R wird mit Ck (D) bezeichnet.
Die Menge der beliebig oft stetig differenzierbaren Funktionen f : D ⊆ R → R wird mit
C∞ (D) bezeichnet.
♦
147
8 Differentialrechnung
Es gilt
C∞ (D) =
\
Ck (D) .
k∈N
Bemerkung 8.1.13. 1. Dafür das eine Funktion f k-mal differenzierbar in x0 ist, ist notwendig, daß f (k−1) auch in der Nähe von x0 definiert ist (x0 muß Element und Häufungspunkt von D( f (k−1) ) sein!) und in x0 stetig ist.
2. Häufig wird die Differenzierbarkeit nur auf offenen Intervallen betrachtet. Nicht immer
ist aber der Definitionsbereich D( f ) einer Funktion f oder der Definitionsbereich D( f 0 )
ihrer Ableitung ein offenes Intervall.
3. Zur Berechnung höherer Ableitungen braucht man die Werte der niederen Ableitungen
nicht nur in x0 sondern auch in der Nähe von x0 .
4. Man unterscheide zwischen
und
( f 0 (x0 ))0 = 0 (Ableitung der Zahl f 0 (x0 )) ,
( f 0 )0 (x0 ) = f 00 (x0 ) (Ableitung der Funktion f 0 in x0 ) .
5. Anstelle f (2) , f (3) wird auch f 00 , f 000 verwendet.
♦
Beispiel 8.1.14. Polynome sind auf ganz R beliebig oft (stetig) differenzierbar. Zum Beispiel gilt
f (x) = 3x4 − 2x + 1 ,
f 0 (x) = 12x3 − 2 ,
f 00 (x) = 36x2 ,
f 000 (x) = 72x ,
f (4) (x) = 72 ,
f (5) (x) = 0 ,
f (6) (x) = 0 usw.
♦
Zur Berechnung höherer Ableitungen ist der folgende Satz hilfreich:
Folgerung 8.1.15. Es seien f : ]a, b[ ⊆ R → R und g : ]a, b[ ⊆ R → R k-mal in x0 ∈ ]a, b[
differenzierbar. Dann gilt
(k)
( f g)
k
k (i)
(x) = ∑
f (x)g(k−i) (x) .
i
i=0
(Leibnitzsche Produktregel)
Beweis. Folgt aus der Produktregel (8.1.3) und vollständiger Induktion.
148
8.2 Differenzierbare Funktionen mehrerer Variablen
8.2 Differenzierbare Funktionen mehrerer Variablen
8.2.1 Ableitungsbegriff
Wir hatten schon erkannt, daß eine Funktion f : D( f ) ⊆ R → R im Häufungspunkt x0 ∈
D( f ) von D( f ) differenzierbar ist, genau dann, wenn f in x0 linear approximierbar ist: Es
gilt
f (x0 + h) − f (x0 )
=a
(8.2.1)
lim
x→x0
h
genau dann, wenn
f (x0 + h) = f (x0 ) + a · h + R(h) für h ∈ R mit x0 + h ∈ D( f )
(8.2.2)
R(h)
= 0.
h→0 |h|
(8.2.3)
mit
lim
Die Zahl a hieß dabei die Ableitung von f in x0 , a = f 0 (x0 ).
Wir wollen nun den Ableitungsbegriff auf Funktionen f : D( f ) ⊆ Rn → Rm mit n ≥ 1 oder
m ≥ 1 verallgemeinern, so daß möglichst viele der Eigenschaften der Ableitung von skalaren Funktionen einer Variablen dabei erhalten bleiben.
Was sind die wesentlichen Eigenschaften der Ableitung? Lineare Approximation und gewisse Rechenregeln (Linearität, Kettenregel) sind wichtige, erhaltenswerte Eigenschaften
der Ableitung.
Die formale Übertragung der Formel (8.2.1) gelingt nicht, da wir nicht durch h teilen können, wenn h ∈ Rn mit n > 1. Die lineare Approximierbarkeit (8.2.2), (8.2.3) ist aber übertragbar:
Definition 8.2.1. Die Abbildung f : D( f ) ⊆ Rn → Rm heißt differenzierbar in x0 ∈ D( f ),
wenn x0 innerer Punkt von D( f ) ist und wenn eine lineare Abbildung A : Rn → Rm und
eine Abbildung R : Rn → Rm existieren mit
f (x0 + h) = f (x0 ) + A(h) + R(h) für x0 + h ∈ D( f )
mit
kR(h)k
= 0.
h→0 khk
lim
♦
Bemerkung 8.2.2. 1. Vielfach wird vorausgesetzt, daß D( f ) offen ist: Wenn D( f ) offen
ist, dann ist jeder Punkt x0 ∈ D( f ) innerer Punkt von D( f ).
149
8 Differentialrechnung
2. Die lineare Abbildung A hängt von der Stelle x0 ab und ist eindeutig festgelegt. Sie heißt
(Fréchet-)Ableitung oder (Fréchet-)Differential von f in x0 und wird mit
∂ f (x0 ) ,
d f (x0 ) ,
D f (x0 ) oder
f 0 (x0 )
bezeichnet.
3. Sei D( f 0 ) die Menge aller x0 ∈ D( f ) für die ∂ f (x0 ) existiert. Dann ist durch f 0 : D( f 0 ) →
L(Rn , Rm ) mit f 0 (x0 ) = ∂ f (x0 ) eine Abbildung von D( f 0 ) in L(Rn , Rm ) gegeben. Diese
Abbildung heißt Ableitung(sabbildung) von f .
4. Die Ableitung f 0 (x0 ) wird als lineare Abbildung von Rn nach Rm durch eine (von den
gewählten Basen abhängige) m × n-Matrix dargestellt. Mit ε als den Standardbasen in Rn
und Rm gilt also
f 0 (x0 )(h) = [ f 0 (x0 )]ε,ε · h .
Für m = n = 1 ist [ f 0 (x0 )]ε,ε eine Zahl. Für n > 1 oder m > 1 werden wir später diese Matrix
bestimmen.
5. Um den Unterschied zur später eingeführten partiellen Differenzierbarkeit zu betonen,
spricht man auch von totaler Differenzierbarkeit, totaler Ableitung und totalem Differential.
♦
Beispiel 8.2.3. 1. Wir betrachten f : Rn → R mit f (x) = hx, xi. Gesucht ist die Ableitung
f 0 (x0 ) an einer Stelle x0 ∈ Rn .
Es gilt
f (x0 + h) − f (x0 ) = hx0 + h, x0 + hi − hx0 , x0 i
= hx0 , x0 i + 2 hx0 , hi + hh, hi − hx0 , x0 i
= 2 hx0 , hi + hh, hi
für h ∈ Rn . Die Abbildung A : Rn → R mit A(h) = 2 hx0 , hi ist linear. Der Rest R : Rn → R
khk2
mit R(h) = hh, hi erfüllt 0 ≤ |R(h)|
khk = khk = khk → 0 für h → 0. Damit gilt
f 0 (x0 )(h) = 2 hx0 , hi
für h ∈ Rn .
2. Sei L : Rn → Rm eine lineare Abbildung. Gesucht ist die Ableitung L0 (x0 ) an einer Stelle
x0 ∈ Rn .
Es gilt
L(x0 + h) − L(x0 ) = L(h) für h ∈ Rn .
Damit folgt
L0 (x0 ) = L ,
d.h., die Ableitung einer linearen Abbildung L an einer Stelle x0 ist wieder die lineare
Abbildung L.
♦
150
8.2 Differenzierbare Funktionen mehrerer Variablen
Definition 8.2.4. Die Abbildung f : D( f ) ⊆ Rn → Rm heißt differenzierbar auf M ⊆
D( f ), wenn f in jedem Punkt x0 ∈ M differenzierbar ist. f heißt differenzierbar, wenn
f auf D( f ) differenzierbar ist.
Wenn f differenzierbar ist, dann ist x0 7→ f 0 (x0 ) eine Abbildung von D( f ) in L(Rn , Rm ),
die mit f 0 bezeichnet wird (Ableitungsabbildung).
♦
Zu klärende Fragen:
1. Durch welche Matrix f (x0 ) = [ f (x0 )]ε,ε (mit ε als den Standardbasen in Rn und Rm )
wird f 0 (x0 ) repräsentiert?
2. Welche Eigenschaften haben differenzierbare Funktionen?
3. Wozu kann die Ableitung angewendet werden?
8.2.2 Differenzierbarkeit und Stetigkeit
Satz 8.2.5. Wenn f : D( f ) ⊆ Rn → Rm in x0 ∈ D( f ) differenzierbar ist, dann ist f in x0
stetig. Ist f differenzierbar, so ist f stetig.
Beweis. Wenn f differenzierbar in x0 ist, gilt
f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + r(x) mit
r(x)
→ 0 für x → x0 .
kx − x0 k
Hieraus liest man die Konvergenz f (x) → f (x0 ) für x → x0 ab.
Bemerkung 8.2.6. 1. Eine in einem inneren Punkt x0 von D( f ) stetige Funktion muß dort
nicht differenzierbar sein. (Betrachte zum Beispiel die Betragsfunktion in 0).
2. Es gibt stetige, auf einem Intervall definierte Funktionen, die nirgends differenzierbar
sind.
♦
8.2.3 Algebraische Eigenschaften der Ableitung
Ähnlich zum skalaren Fall gilt:
Satz 8.2.7 (Rechenregeln). Seien f , g : D ⊆ Rn → Rm im inneren Punkt x0 von D differenzierbar. Dann gilt:
1. (α f + β g)0 (x0 ) = α f 0 (x0 ) + β g0 (x0 ) für α, β ∈ R (Linearität);
2. ( f g)0 (x0 ) = g(x0 ) f 0 (x0 ) + f (x0 )g0 (x0 ), wenn m = 1 (Produktregel);
0
f
g(x0 ) f 0 (x0 ) − f (x0 )g0 (x0 )
3.
(x0 ) =
, wenn m = 1 und g(x) 6= 0 in einer Umgebung
g
g(x0 )2
von x0 (Quotientenregel).
151
8 Differentialrechnung
Beweis. Zu 1. Es gilt
f (x0 + h) = f (x0 ) + f 0 (x0 )(h) + R1 (h) ,
für x0 + h ∈ D mit
kRi (h)k
khk
g(x0 + h) = g(x0 ) + g0 (x0 )(h) + R2 (h)
→ 0 für h → 0. Damit gilt
(α f + β g)(x0 + h) = (α f + β g)(x0 ) + [α f 0 (x0 ) + β g0 (x0 )](h) + R(h)
für x0 + h ∈ D mit R(h) = R1 (h) + R(h) und
kR(h)k
khk
→ 0 für h → 0.
Zu 2. und 3.: Ähnlicher, aber etwas komplizierterer Beweis.
Es gilt auch eine Verallgemeinerung der Kettenregel, welche wir aber erst später betrachten
werden.
8.2.4 Differenzierbarkeit von Koordinatenfunktionen
Satz 8.2.8. Sei f : D( f ) ⊆ Rn → Rm mit den Koordinatenfunktionen f i : D( f ) ⊆ Rn → R,
m
f (x) = ∑ f i (x)ei
(x ∈ D( f )) .
i=1
Sei x0 ∈ D( f ) innerer Punkt von D( f ). Dann gilt
f ist differenzierbar in x0 ⇐⇒ alle f i sind differenzierbar in x0 .
Ist f differenzierbar in x0 , dann gilt
m
f 0 (x0 )(h) = ∑ ∂ f i (x0 )(h) ei
für h ∈ Rn
i=1
und daher


∂ f 1 (x0 )(h)


..
[ f 0 (x0 )(h)]ε = 

.
m
∂ f (x0 )(h)
für h ∈ Rn .
Beweis. 1. Sei f differenzierbar in x0 und sei k ∈ {1, . . . , m}. Dann gilt
f (x0 + h) − f (x0 ) = f 0 (x0 )(h) + R(h) für x0 + h ∈ D( f )
mit
R(h)
khk
→ 0 für h → 0. Damit folgt
f k (x0 + h) − f k (x0 ) = h f (x0 + h) − f (x0 ), ek i = h f 0 (x0 )(h), ek i + hr(h), ek i .
152
(8.2.4)
8.2 Differenzierbare Funktionen mehrerer Variablen
für x0 + h ∈ D( f ). Die Abbildung
h 7→ h f 0 (x0 )(h), ek i (h ∈ Rn )
ist linear. Für den Rest Rk (h) := hR(h), ek i gilt
differenzierbar mit der Ableitung
Rk (h)
khk
→ 0 für h → 0. Folglich ist f k in x0
∂ f k (x0 )(h) = h f 0 (x0 )(h), ek i für h ∈ Rn .
2. Seien nun alle Koordinatenfunktionen f k , k ∈ {1, . . . , m}, in x0 differenzierbar. Dann
k (h)
gibt es Funktionen Rk mit Rkhk
→ 0 für h → 0 und
f k (x0 + h) − f k (x0 ) = ∂ f k (x0 )(h) + Rk (h) für x0 + h ∈ D( f ) .
Damit folgt
m
f (x0 + h) − f (x0 ) =
∑ ( f k (x0 + h) − f k (x0))ek =
k=1
m
m
k=1
k=1
∑ ∂ f k (x0)(h)ek + ∑ Rk (h)ek .
m
k
für x0 +h ∈ D( f ). Die Abbildung h 7→ ∑m
k=1 ∂ f (x0 )(h)ek ist linear. Für R(h) := ∑k=1 Rk (h)ek
gilt R(h)
khk → 0 für h → 0. Damit ist f in x0 differenzierbar mit
m
∂ f (x0 )(h) =
∑ ∂ f k (x0)(h)ek
für h ∈ Rn ,
k=1
d.h. (8.2.4) gilt.
Bemerkung 8.2.9. Aufgrund dieses Satzes können wir uns bei Differenzierbarkeitsuntersuchungen auf Skalarfunktionen, d.h. m = 1, beschränken.
♦
8.2.5 Richtungsableitung, partielle Ableitungen von Skalarfunktionen
Sei f : D( f ) ⊆ Rn → R. In vielen Fällen interessiert uns nicht die volle lineare Approximierbarkeit von f bei einer Stelle x0 ∈ D( f ) sondern nur bei x0 in einer vorgegebenen
Richtung r ∈ Rn . Dies führt zu:
Definition 8.2.10. Existiert der Grenzwert
1
∂ f (x0 , r) = lim [ f (x0 + τr) − f (x0 )] ,
τ→0 τ
so heißt er Richtungsdifferential von f in x0 in Richtung r. Ist krk = 1, so heißt er auch
Richtungsableitung von f in x0 in Richtung r.
♦
153
8 Differentialrechnung
Das Richtungsdifferential ∂ f (x0 , r) beschreibt bei krk 6= 0 die Änderung von f entlang der
Geraden durch x0 mit der Richtung r.
Spezielle Richtungsableitungen sind die partiellen Ableitungen als Richtungsableitungen in
Koordinatenrichtung:
Definition 8.2.11. Sei ei der i-te Standardbasisvektor. Existiert der Grenzwert
1
∂i f (x0 ) = lim [ f (x0 + τei ) − f (x0 )] ,
τ→0 τ
so heißt er partielle Ableitung von f in x0 nach der i-ten Variablen.
♦
Bemerkung 8.2.12. 1. Sei f : D( f ) ⊆ Rn → R. Die partielle Ableitung ∂i f (x0 ) erhält man
also dadurch, daß man die Variablen xk mit k 6= i fixiert, xk = x0k , und nur xi variiert:
d
f (x01 , . . . , x0i−1 , τ, x0i+1 , . . . x0n )τ=xi
0
dτ
i−1 i
i+1
1
f (x0 , . . . , x0 , x0 + ϑ , x0 , . . . x0n ) − f (x01 , . . . , x0i−1 , x0i , x0i+1 , . . . x0n )
.
= lim
ϑ →0
ϑ
∂i f (x0 ) =
Sie werden also unter Festhalten der anderen Variablen wie die skalare Ableitung berechnet.
2. Für n = 2 schreibt man auch
∂
f (x, y) = fx (x, y) = ∂1 f (x, y) =
∂x
∂
f (x, y) = fy (x, y) = ∂2 f (x, y) =
∂y
d
f (τ, y)τ=x ,
dτ
d
f (x, τ)τ=y .
dτ
Analog wird in R3 verfahren.
♦
Beispiel 8.2.13. 1. Für f : R2 → R mit f (x, y) = x3 cos y gilt
∂
f (x, y) = 3x2 cos y ,
∂x
∂
∂2 f (x, y) = fy (x, y) =
f (x, y) = −x3 sin y .
∂y
∂1 f (x, y) = fx (x, y) =
2. Die Van-der-Waalssche Zustandsgleichung eines Gases für den Zusammenhang zwischen Druck p, Temperatur T und Molvolumen v lautet
p(T, v) =
CT
a
− 2
v−b v
für T > 0 , v > b
und positiven Konstanten a, b, C. Die “Änderungsgeschwindigkeit” von p bezüglich v bei
konstanter Temperatur T (also längs einer Isotherme) wird beschrieben durch
∂
CT
2a
p(T, v) = −
+ 3.
2
∂v
(v − b)
v
154
♦
8.2 Differenzierbare Funktionen mehrerer Variablen
Definition 8.2.14. Sei f : D( f ) ⊆ Rn → R in x0 ∈ D( f ) partiell nach allen Variablen differenzierbar. Dann heißt der aus den partiellen Ableitungen gebildete Vektor
grad f (x0 ) = ∇ f (x0 ) = (∂1 f (x0 ), . . . , ∂n f (x0 ))
♦
Gradient von f in x0 .
Satz 8.2.15. Sei die Skalarfunktion f : D( f ) ⊆ Rn → R in x0 ∈ D( f ) differenzierbar. Dann
existiert für jedes r ∈ Rn das Richtungsdifferential ∂ f (x0 , r) und es gilt
∂ f (x0 , r) = f 0 (x0 )(r) .
(8.2.5)
∂i f (x0 ) = f 0 (x0 )(ei ) für i = 1, . . . , n .
(8.2.6)
Insbesondere gilt
für die partiellen Ableitungen von f in x0 . Damit ist
f 0 (x0 ) = (∂1 f (x0 ) ∂2 f (x0 )
...
∂1 f (x0 )) = grad f (x0 )>
(8.2.7)
ein Zeilenvektor und es gilt
f 0 (x0 )(h) = grad f (x0 )> · h = hgrad f (x0 ), hi .
(8.2.8)
Beweis. Wenn r = 0, dann gilt ∂ f (x0 , r) = f 0 (x0 )(r) = 0. Sei nun r 6= 0. Da f in x0
differenzierbar ist, existiert ein R mit R(h)
khk → 0 für h → 0 und
f (x0 + h) − f (x0 ) = f 0 (x0 )(h) + R(h) für x0 + h ∈ D( f ) .
Für h = τr folgt wegen der Linearität von f 0 (x0 )
f (x0 + τr) − f (x0 ) = f 0 (x0 )(τr) + R(τr) = τ f 0 (x0 )(r) + ρ(τ)
für kleine τ mit ρ(τ) = R(τr). Zu zeigen ist ρ(τ)
τ → 0 für τ → 0. Dafür ist zu zeigen,
daß für jedes ε > 0 ein δ > 0 existiert mit |ρ(τ)| ≤ ε|τ| für alle τ ∈ R mit |τ| < δ . Nun
ε
existiert zu ε > 0 ein δ0 mit |R(h)| ≤ krk
khk für alle h ∈ Rn mit khk < δ0 . Daher haben wir
|ρ(τ)| ≤
ε
krk krk · |τ| = ε|τ|
für krtk = krk · |τ| ≤ δ0 , d.h., |τ| ≤
δ0
krk
=: δ .
Damit ist f 0 (x0 )(r) das Richtungsdifferential von f in Richtung r, womit sich (8.2.5) und
(8.2.6) ergeben. Aus (8.2.6) folgen (8.2.7) und (8.2.8).
Aus (8.2.5) und (8.2.8) erhalten wir:
Folgerung 8.2.16. Sei die Skalarfunktion f : D( f ) ⊆ Rn → R in x0 ∈ D( f ) differenzierbar.
Dann gilt
∂ f (x0 , r) = hgrad f (x0 ), ri
(8.2.9)
für das Richtungsdifferential in Richtung r ∈ Rn .
155
8 Differentialrechnung
Beispiel 8.2.17. Wir betrachten f : R2 → R mit f (x, y) = 3x2 y3 +x +y. Gesucht sind zuerst
die partiellen Ableitungen von f in (5, 2):
∂1 f (x, y) = 6xy3 + 1 und damit ∂1 f (5, 2) = 241 ,
∂2 f (x, y) = 9x2 y2 + 1 und damit ∂2 f (5, 2) = 901 .
Damit gilt
grad f (5, 2) = (241, 901) .
Nun interessiert uns das Richtungsdifferential von f in Richtung r = (−2, 1).
Nach Definition des Richtungsdifferentials haben wir
3(5 − 2t)2 (2 + t)3 + 7 − t − 607
f (x0 + tr) − f (x0 )
= lim
∂ f (x0 , r) = lim
t→0
t→0
t
t
3(25 − 20t + 4t 2 )(8 + 12t + 6t 2 + t 3 ) − t − 600
= lim
t→0
t
600 + t(3 · 25 · 12 − 2 · 20 · 8 − 1) + t 2 (. . .) + t 3 (. . .) + t 4 (. . .) + 12t 5 − 600
= lim
t→0
t
= 900 − 480 − 1 = 419 .
Nutzen wir (8.2.9) so erhalten wir
∂ f (x0 , r) = grad f (x0 )> r = −2∂1 f (5, 2) + ∂2 f (5, 2) = 419 .
Offensichtlich ist der zweite Weg einfacher.
♦
In Kombination der Sätze 8.2.8 und 8.2.15 erhalten wir:
Satz 8.2.18. Sei die Vektorfunktion f : D( f ) ⊆ Rn → Rm in x0 ∈ D( f ) differenzierbar. Dann
existieren die partiellen Ableitungen ∂i f k (x0 ) der Koordinatenfunktionen f k von f in x0 und
für die Matrixdarstellung f 0 (x0 ) = [ f 0 (x0 )]ε,ε von f 0 (x0 ) bezüglich den Standardbasen ε gilt

 

grad f 1 (x0 )>
∂1 f 1 (x0 ) · · · ∂n f 1 (x0 )

 

..
..
..
f 0 (x0 ) = J f (x0 ) := 
=
.
.
.
.
m
m
m
>
∂1 f (x0 ) · · · ∂n f (x0 )
grad f (x0 )
Bemerkung 8.2.19. Die aus den partiellen Ableitungen ∂i f k (x0 ) der Koordinatenfunktionen f k in x0 gebildete Matrix J f (x0 ) heißt Jacobi-Matrix von f in x0 .
♦
Beispiel 8.2.20. 1. Sei f : R2 → R3 mit f (x, y) = (sin(xy), 2x2 + y, xy2 ). Dann gilt


y cos(xy) x cos(xy)
.
4x
1
J f (x, y) = 
2
y
2xy
156
8.2 Differenzierbare Funktionen mehrerer Variablen
2. Sei f : D( f ) ⊆ R2 → R2 mit D( f ) = ]0, ∞[ × ]0, 2π[ und f (r, ϕ) = (r cos ϕ, r sin ϕ). Dann
gilt
cos ϕ −r sin ϕ
J f (r, ϕ) =
.
sin ϕ r cos ϕ
♦
8.2.6 Differenzierbarkeit und partielle Ableitungen
Die Existenz aller partieller Ableitungen ∂i f (x0 ), i = 1, . . . , n, in einem Punkt x0 enthält nur
geringe Information über das Verhalten von f in der Umgebung von x0 ! Insbesondere folgt
aus der Existenz aller partieller Ableitungen (im Unterschied zur Differenzierbarkeit) nicht
die Stetigkeit in x0 .
Aus der Existenz aller partieller Ableitungen in x0 folgt daher nicht die Differenzierbarkeit!
Wir betrachten dazu:
Beispiel 8.2.21. Sei f : R2 → R mit
xy
2
2 , wenn (x, y) 6= (0, 0) ,
f (x, y) = x +y
0,
wenn (x, y) = (0, 0) .
Dann gilt f (ξ , 0) = f (0, ξ ) = f (0, 0) = 0 und es existieren die partiellen Ableitungen
∂1 f (0, 0) = ∂2 f (0, 0) = 0 .
Jedoch ist f in (0, 0) nicht stetig, da
lim f (ξ , ξ ) =
ξ →0
1
1
6= lim f (ξ , −ξ ) = − .
2 ξ →0
2
♦
Bemerkung 8.2.22. 1. Aus der Existenz aller partieller Ableitungen in x0 folgt nicht die
Existenz der Richtungsdifferentiale in x0 und damit auch nicht ihre Bestimmung über den
Gradienten durch (8.2.9).
2. Aus der Existenz aller Richtungsableitungen folgt nicht die Differenzierbarkeit (vergleiche mit Grenzwerten auf Strahlen und dem Grenzwert!).
♦
Wir brauchen also mehr als nur partielle Differenzierbarkeit.
Definition 8.2.23. Wir nennen f : D( f ) ⊆ Rn → Rm stetig partiell differenzierbar in x0 ,
wenn alle partiellen Ableitungen ∂1 f k (x), . . . , ∂n f k (x) der Koordinatenfunktionen von f in
einer Umgebung von x0 existieren und in x0 stetig von x abhängen.
157
8 Differentialrechnung
Wir nennen f stetig partiell differenzierbar, wenn alle partiellen Ableitungen ∂1 f k (x),
. . . , ∂n f k (x) der Koordinatenfunktionen für alle x ∈ D( f ) existieren und stetig von x abhängen.
Wir nennen f stetig differenzierbar, wenn f differenzierbar ist und wenn die Ableitungsfunktion x 7→ f 0 (x) in folgendem Sinne stetig ist: Für jedes x ∈ D( f ) und jedes ε > 0
existiert ein δ > 0 mit k f 0 (x)(h) − f 0 (y)(h)k < ε für alle y ∈ D( f ) mit kx − yk < δ und alle
h ∈ Rn mit khk ≤ 1.
♦
Satz 8.2.24. Sei f : D( f ) ⊆ Rn → Rm mit offenem D( f ). Ist f in x0 stetig partiell differenzierbar, so ist f in x0 differenzierbar. f ist stetig partiell differenzierbar genau dann, wenn
f stetig differenzierbar ist.
Bemerkung 8.2.25. Die äquivalenten Begriffe „stetig partiell differenzierbar“ oder „stetig
differenzierbar“ sind also die für die mehrdimensionale Differentialrechnung angepaßten
Begriffe.
♦
Bezeichnung: Sei D ⊆ Rn offen. Die Menge aller stetig (partiell) differenzierbaren Funktionen f : D ⊆ Rn → Rm wird mit C1 (D, Rm ) bezeichnet.
Beispiel 8.2.26. Wir betrachten wieder die Van-der-Waalssche Zustandsgleichung (Beispiel 8.2.13, 2.)
CT
a
p(T, v) =
− 2 für T > 0 , v > b .
v−b v
Die partiellen Ableitungen
∂p
C
(T, v) =
,
∂T
v−b
∂p
CT
2a
(T, v) = −
+ 3
2
∂v
(v − b)
v
existieren für alle T > 0, v > b und hängen stetig von T und v ab. Also ist p stetig partiell
differenzierbar und somit stetig differenzierbar.
♦
8.2.7 Kettenregel
Satz 8.2.27 (Kettenregel). Sei f : D ⊆ Rn → Rm differenzierbar im inneren Punkt x0 von
D. Sei weiter g : E ⊆ Rm → Rk differenzierbar im inneren Punkt f (x0 ) von E. Dann ist
g ◦ f in x0 differenzierbar und es gilt
(g ◦ f )0 (x0 ) = g0 ( f (x0 )) ◦ f 0 (x0 )
sowie
Jg◦ f (x0 ) = Jg ( f (x0 )) · J f (x0 )
für die Jacobi-Matrizen.
158
8.3 Eigenschaften differenzierbarer Abbildungen
Beweis. Mit
f (x0 + h) = f (x0 ) + f 0 (x0 )(h) + R1 (h) ,
g( f (x0 ) + κ) = g( f (x0 )) + g0 ( f (x0 ))(κ) + R2 (κ)
gilt
g( f (x0 + h)) = g f (x0 ) + f 0 (x0 )(h) + R1 (h)
= g( f (x0 )) + g0 ( f (x0 )) f 0 (x0 )(h) + R1 (h) + R2 f 0 (x0 )(h) + R1 (h)
= g( f (x0 )) + g0 ( f (x0 )) ◦ f 0 (x0 )(h) + R(h)g0 ( f (x0 ))(R1 (h)) ,
wobei
R(h) = g0 ( f (x0 ))(R1 (h)) + R2 f 0 (x0 )(h) + R1 (h) .
1 (h)k
→ 0 und
Aus kRkhk
h → 0.
kR2 (κ)k
kκk
→ 0 für h → 0 bzw. κ → 0 folgt nun auch
kR(h)k
khk
→ 0 für
Beispiel 8.2.28. Seien f : R2 → R und g : D(g) ⊆ R2 → R2 mit D(g) = ]0, ∞[ × ]0, 2π[ und
f (x, y) = exy ,
g(r, ϕ) = (r cos ϕ, r sin ϕ) .
Gesucht ist die Jacobi-Matrix zu f ◦ g an einer Stelle (r, ϕ). Es gilt (siehe Beispiel 8.2.20,
2.)
cos ϕ −r sin ϕ
xy
xy
J f (x, y) = (ye , xe ) und Jg (r, ϕ) =
.
sin ϕ
r cos ϕ
Da f und g stetig differenzierbar sind, folgt damit
J f ◦g (r, ϕ) = J f (g(r, ϕ)) · Jg (r, ϕ)
r2 sin ϕ cos ϕ
= (r sin ϕe
= r2 er
2 sin ϕ cos ϕ
r2 sin ϕ cos ϕ
, r cos ϕe
)
cos ϕ −r sin ϕ
sin ϕ
r cos ϕ
1 2
sin 2ϕ
(2 sin ϕ cos ϕ, cos2 ϕ − sin2 ϕ) = r2 e 2 r
Man kann hier das Ergebnis natürlich auch direkt durch f ◦ g(r, ϕ) = er
(sin 2ϕ, cos 2ϕ) .
2 sin ϕ cos ϕ
erhalten.♦
Satz 8.2.29. Eine Abbildung, die aus differenzierbaren Abbildungen nur durch Addition,
Subtraktion, Multiplikation, Division und Verkettung entsteht, ist in allen inneren Punkten
ihres Definitionsbereich differenzierbar.
8.3 Eigenschaften differenzierbarer Abbildungen
8.3.1 Notwendige Bedingung für Extremalstellen
Wir wissen bereits, daß stetige Funktionen f : D( f ) ⊆ Rn → R auf abgeschlossenen, beschränkten Mengen einen maximalen bzw. einen minimalen Wert annehmen, d.h., daß sie
ein globales Maximum oder Minimum besitzen.
159
8 Differentialrechnung
Definition 8.3.1. Die Abbildung f : D( f ) ⊆ Rn → R hat bei x0 ∈ D( f ) ein lokales Minimum (Maximum), wenn eine Umgebung U von x0 existiert mit f (x) ≥ f (x0 ) ( f (x) ≤
f (x0 )) für alle x ∈ U ∩ D( f ). Ein lokales Extremum ist ein lokales Minimum oder Maximum. f hat bei x0 ein strenges Minimum (Maximum), wenn f (x) > f (x0 ) ( f (x) < f (x0 ))
in einer Umgebung von x0 gilt.
♦
Beispiel 8.3.2. In der Skizze haben wir:
y
x1 ist eine globale Minimalstelle,
x3 ist eine globale Maximalstelle,
x1 , x2 , x5 sind lokale Minimalstellen,
x3 , x4 sind lokale Maximalstellen.
)
[
a = x2 x1
x4 x5
b = x3
x
♦
Der folgende Satz liefert einerseits eine notwendige Bedingung für die Existenz von Extrema. Andererseits ist die wesentliche Grundlage für viele weitere wichtige Aussagen.
Satz 8.3.3 (Satz von Fermat). Sei f : D( f ) ⊆ Rn → R, x0 ∈ D( f ) innerer Punkt von D( f ),
und sei f in x0 differenzierbar. Dann gilt:
f hat in x0 lokales Extremum ⇒ grad f (x0 ) = 0 .
Beweis. f habe ein lokales Minimum in x0 . Angenommen, es gilt grad f (x0 ) 6= 0. Dann
gibt es ein h0 ∈ Rn mit f 0 (x0 )(h0 ) < 0. Es gilt
f (x0 + τh0 ) = f (x0 ) + τ f 0 (x0 )(h0 ) + R1 (τh0 ) = f (x0 ) + τ f 0 (x0 )(h0 ) + R2 (τ)
1 (h)
für x0 + τh0 ∈ D mit Rkhk
→ 0 für h → 0 und R2τ(τ) → 0 für τ → 0. Damit gibt es beliebig
kleine τ > 0 mit x0 + τh0 ∈ D und f (x0 + τh0 ) < f (x0 ). Analog verfährt man bei lokalem
Maximum.
Bemerkung 8.3.4. 1. Wenn x0 kein innerer Punkt ist, muß die Behauptung nicht gelten!
Betrachte z.B. x 7→ x2 auf [−1, 1]. Es liegen lokale Maxima in −1 und 1 vor, aber die
Ableitung verschwindet dort nicht.
2. Die Differenzierbarkeit von f in x0 kann zur Existenz aller Richtungsableitungen von f
in x0 abgeschwächt werden.
♦
Wir schließen daraus: Bei einer beliebigen Funktion f : D( f ) ⊆ Rn → R sind folgende
Punkte Kandidaten für lokale Extremalstellen:
• innere Punkte x0 ∈ D( f ), in denen f differenzierbar ist und für die f 0 (x0 ) = 0 gilt,
• nicht-innere Punkte x0 ∈ D( f ), insbesondere also die Randpunkte a, b von D( f ),
• Punkte x0 ∈ D( f ), in denen f nicht differenzierbar ist.
160
8.3 Eigenschaften differenzierbarer Abbildungen
8.3.2 Mittelwertsätze
Die folgenden Sätze sind von grundlegender Bedeutung für die Untersuchung differenzierbarer Funktionen auf Intervallen.
Satz 8.3.5 (Satz von Rolle). Sei f : [a, b] → R stetig und sei f ]a,b[ differenzierbar. Dann
gilt
f (a) = f (b) ⇒ ∃ξ ∈ ]a, b[ : f 0 (ξ ) = 0 .
Beweis. Da f stetig ist, existieren globales Minimum und Maximum von f auf [a, b]. Liegen beide in den Randpunkten vor, so ist f konstant auf [a, b] und damit f 0 (x) = 0 für alle
x ∈ ]a, b[. Liegt wenigstens eines der beiden globalen Extrema in Innern von [a, b] vor, dann
verschwindet dort nach Satz 8.3.3 die Ableitung.
Satz 8.3.6 (Satz von Cauchy, verallgemeinerter Mittelwertsatz). Seien f , g : [a, b] → R
stetig und auf ]a, b[ differenzierbar. Dann existiert ein ξ ∈ ]a, b[ mit
( f (b) − f (a)) g0 (ξ )(b − a) = (g(b) − g(a)) f 0 (ξ )(b − a)
d.h.
f 0 (ξ )
f (b) − f (a)
= 0
, falls g0 (x) 6= 0 auf ]a, b[ , g(a) 6= g(b) .
g(b) − g(a)
g (ξ )
(8.3.1)
Beweis. Sei h : [0, 1] → R mit
h(t) = f ((1 − t)a + tb) (g(b) − g(a)) + (g((1 − t)a + tb) − g(a)) ( f (a) − f (b)) .
Dann gilt h(0) = h(1) = f (a) (g(b) − g(a)). Mit Satz 8.3.5 existiert ein τ ∈ ]0, 1[ und damit
ξ = (1 − τ)a + τb ∈ ]a, b[ mit
0 = h0 (τ) = f 0 (ξ )(b − a) (g(b) − g(a)) + g0 (ξ )(b − a) ( f (a) − f (b)) .
Als Verallgemeinerung von Intervallen sei für a, b ∈ Rn
Ia,b = {ta + (1 − t)b : t ∈ [0, 1]}
die Verbindungsstrecke von a und b, und
◦
I a,b = {ta + (1 − t)b : t ∈ ]0, 1[}
die Verbindungsstrecke von a und b ohne Endpunkte.
161
8 Differentialrechnung
Satz 8.3.7 (Satz von Lagrange, Mittelwertsatz). Sei f : D( f ) ⊆ Rn → R stetig, seien a
◦
und b in D( f ) mit Ia,b ⊂ D( f ) und es sei f differenzierbar auf I a,b . Dann existiert ein
◦
ξ ∈I a,b mit
f (b) − f (a) = f 0 (ξ )(b − a)
und, speziell für n = 1,
f 0 (ξ ) =
f (b) − f (a)
.
b−a
y
f (b)
f (a)
a
ξ
b
x
Beweis. Wir wählen h, g : [0, 1] → R mit h(t) = f (ta + (1 − t)b), g(t) = 1 für t ∈ [0, 1].
Dann folgt die Behauptung aus Satz 8.3.6 angewandt auf h und g.
Bemerkung 8.3.8. 1. Ausreichend ist die Existenz der Richtungsdifferentiale ∂ ( f (x), b −
◦
a) für alle x ∈I a,b .
2. Die Aussage der Satzes 8.3.7 ist im allgemeinen falsch, wenn f : D( f ) ⊆ Rn → Rm mit
m > 1.
♦
Jedoch gilt:
Satz 8.3.9 (Schrankensatz). Sei f : D( f ) ⊆ Rn → Rm stetig, seien a und b in D( f ) mit
◦
Ia,b ∈ D und es sei f auf I a,b differenzierbar. Dann gilt
k f (a) − f (b)k ≤ sup k f 0 (ξ )(a − b)k .
◦
ξ ∈I a,b
8.3.3 Monotonie- und Krümmungsverhalten
Definition 8.3.10. Eine Funktion f : D( f ) ⊆ R → R heißt
a) (streng) monoton wachsend, wenn für alle x1 , x2 ∈ D( f ), x1 < x2 , gilt f (x1 ) ≤ f (x2 )
( f (x1 ) < f (x2 )).
b) (streng) monoton fallend, wenn für alle x1 , x2 ∈ D( f ), x1 < x2 , gilt f (x1 ) ≥ f (x2 )
( f (x1 ) > f (x2 )).
♦
162
8.3 Eigenschaften differenzierbarer Abbildungen
Für differenzierbare Funktionen f : ]a, b[ → R kann die Monotonie mit Hilfe der Ableitung
charakterisiert werden:
Satz 8.3.11. Sei f : ]a, b[ → R differenzierbar. Dann gilt:
a) Wenn f 0 (x) > 0 für x ∈ ]a, b[, dann ist f streng monoton wachsend,
b) Wenn f 0 (x) < 0 für x ∈ ]a, b[, dann ist f streng monoton fallend,
c) Wenn f 0 (x) ≥ 0 für x ∈ ]a, b[, dann ist f monoton wachsend,
d) Wenn f 0 (x) ≤ 0 für x ∈ ]a, b[, dann ist f monoton fallend,
e) Wenn f 0 (x) = 0 für x ∈ ]a, b[, dann ist f konstant auf ]a, b[.
Beweis. Sei a < x1 < x2 < b. Nach dem Mittelwertsatz 8.3.6 gibt es ein ξ ∈ ]a, b[ mit
f (x2 ) − f (x1 ) = f 0 (ξ )(x2 − x1 ) .
Ist nun zum Beispiel f 0 (x) > 0 für alle x ∈ ]a, b[, dann ist die rechte Seite und damit auch
die linke Seite positiv.
Bemerkung 8.3.12. 1. Die Differenzierbarkeit ist wie auch die Stetigkeit nicht notwendig
für die Monotonie.
2. Im allgemeinen zerlegt man den Definitionsbereich D( f ) einer Funktion in MonotonieIntervalle.
♦
Der folgende Satz erlaubt eine lokale Monotonie-Aussage:
Satz 8.3.13. Sei f : D( f ) ⊆ R → R in x0 ∈ ]a, b[ differenzierbar. Dann gilt:
a) Wenn f 0 (x0 ) > 0, dann existiert ein ε > 0 mit
f (x1 ) < f (x0 ) < f (x2 )
für x0 − ε < x1 < x0 < x2 < x0 + ε .
b) Wenn f 0 (x0 ) < 0, dann existiert ein ε > 0 mit
f (x1 ) > f (x0 ) > f (x2 )
für x0 − ε < x1 < x0 < x2 < x0 + ε .
Interpretation: Die Ableitung einer Funktion an der Stelle x0 gibt Auskunft darüber, wie
sich die Funktion (bei steigendem oder auch fallendem x) ändert. Ist f 0 (x0 ) > 0, so steigen
die Werte f (x) rechts von x0 an und fallen links von x0 , entsprechendes gilt bei f 0 (x0 ) < 0.
Genauso gibt nun f 00 (x0 ) Auskunft über das Änderungsverhalten von f 0 nahe x0 , usw.
Betrachten wir dazu das Krümmungsverhalten unter Verwendung zweiter Ableitungen. Dazu sei f : D( f ) ⊆ R → R. Wenn f in x0 ∈ D( f ) zweimal differenzierbar ist mit f 00 (x0 ) > 0,
so ist f in der Nähe von x0 differenzierbar und nach Satz 8.3.13 ist f 0 in der Nähe von x0
streng monoton wachsend. Damit erhalten wir:
163
8 Differentialrechnung
Satz 8.3.14 (Hinreichende Bedingung für Extremum). Sei f : ]a, b[ → R zweimal differenzierbar in x0 ∈ ]a, b[ mit f 0 (x0 ) = 0. Wenn f 00 (x0 ) > 0, so ist x0 lokale Minimalstelle von
f , wenn f 00 (x0 ) < 0, so ist x0 lokale Maximalstelle von f .
Beweis. Sei f 00 (x0 ) > 0. Dann gilt f 0 (x) < 0 bzw. f 0 (x) > 0 für x nahe x0 mit x < x0 bzw.
x > x0 . Dies heißt nun wieder, daß f in der Nähe von x0 links von x0 streng monoton fallend
und rechts von x0 streng monoton wachsend ist.
Ist f 00 (x0 ) = 0, so kann man eventuell eine Entscheidung durch die Untersuchung höherer
Ableitungen treffen. Siehe dazu später den Satz von Taylor.
Definition 8.3.15. Wir nennen f : ]a, b[ → R
• linksgekrümmt oder konvex, wenn f 00 (x) > 0 gilt auf ]a, b[,
• rechtsgekrümmt oder konkav, wenn f 00 (x) < 0 gilt auf ]a, b[.
Ein Punkt x0 ∈ [a, b], in dem f das Krümmungsverhalten wechselt, heißt Wendepunkt von
f.
♦
Kandidaten für Wendepunkte sind also Punkte aus [a, b],
• an denen f 00 (x) = 0 gilt,
• an denen f 0 nicht differenzierbar ist, oder
• die Randpunkte a und b.
f
Satz 8.3.16. Sei f : ]a, b[ → R zweimal differenzierbar, x0 ∈ ]a, b[ und sei Tx0 ,1 : R → R mit
f
Tx0 ,1 (x) = f (x0 ) + f 0 (x0 ) · (x − x0 ) die lineare Approximation von f an der Stelle x0 .
f
a) Ist f auf ]a, b[ linksgekrümmt, so gilt f (x) ≥ Tx0 ,1 (x) für alle x ∈ ]a, b[.
f
b) Ist f auf ]a, b[ rechtsgekrümmt, so gilt f (x) ≤ Tx0 ,1 (x) für alle x ∈ ]a, b[.
f
Beweis. Untersuche die Hilfsfunktion h(x) = f (x) − Tx0 ,1 (x), für die h(x0 ) = h0 (x0 ) = 0
gilt.
8.3.4 Differenzierbarkeit der Umkehrfunktion
Es sei f : D( f ) ⊆ R → R streng monoton mit D( f ) = [a, b] und W ( f ) = f ([a, b]). Dann
existiert die Umkehrfunktion f −1 : W ( f ) → D( f ) zu f mit f −1 ( f (x)) = x für x ∈ D( f ) und
f ( f −1 (x)) = x für x ∈ W ( f ). Ist f streng monoton und stetig, so ist f −1 auch stetig, siehe
Satz 7.3.11.
Unter Verwendung der Ableitung erhält man folgende Aussage:
164
8.4 Anwendungen
Satz 8.3.17. Sei f : D( f ) ⊆ R → R, D( f ) = ]a, b[ differenzierbar und sei entweder f 0 (x) >
0 für alle x ∈ ]a, b[ oder f 0 (x) < 0 für alle x ∈ ]a, b[. Dann existiert die Umkehrfunktion
f −1 : f (]a, b[) → ]a, b[ zu f , sie ist differenzierbar, und es gilt
1
0
f −1 (x) =
f 0 ( f −1 (x))
für x ∈ f (]a, b[) .
Beispiel 8.3.18. 1. Sei f : ] − π2 , π2 [ → R mit f (x) = sin x. Es gilt f 0 (x) = cos x > 0 für x ∈
] − π2 , π2 [. Weiter haben wir f (] − π2 , π2 [) = ] − 1, 1[. Nach Satz 8.3.17 ist f somit invertierbar
(wir wissen schon f −1 (x) = arcsin x für x ∈ ] − 1, 1[) und es gilt
0
f −1 (x) =
1
=q
cos(arcsin(x))
1
1
=√
1 − x2
1 − (sin(arcsin(x))2
für x ∈ ] − 1, 1[ .
Somit gilt
1
arcsin0 x = √
1 − x2
für x ∈ ] − 1, 1[ .
2. Ähnlich findet man
1
arccos0 (x) = − √
für x ∈ ] − 1, 1[ ,
1 − x2
1
für x ∈ R ,
arctan0 (x) =
1 + x2
1
arccot0 (x) = −
für x ∈ R .
1 + x2
♦
8.4 Anwendungen
8.4.1 Fehlerabschätzung
Gesucht sei eine Größe z ∈ R in Abhängigkeit von Größen x, y ∈ R:
z = f (x, y)
mit (bekannter Funktion) f : D( f ) ⊆ R2 → R. Anstelle der exakten Größen x und y seien
nur gemessene oder nur näherungsweise bekannte Größen x̄ und ȳ bekannt. Damit gilt
x̄ = x + ∆ x ,
ȳ = y + ∆ y
165
8 Differentialrechnung
mit (absoluten) Meßfehlern ∆ x und ∆ y. Anstelle von z = f (x, y) hat man dann z̄ = f (x̄, ȳ).
Häufig hat man eine Schranke für die Meßfehler
|∆ x| ≤ δx ,
|∆ y| ≤ δy
und interessiert sich für die Abschätzung des absoluten Fehlers
| f (x, y) − f (x̄, ȳ)| .
Ist f im interessierenden Bereich B ⊆ D( f ) differenzierbar, dann erhalten wir mit dem
Mittelwertsatz (Satz 8.3.7)
f (x, y) − f (x̄, ȳ) = f 0 (x̃, ỹ)(∆ x, ∆ y) = grad f (x̃, ỹ)> (∆ x, ∆ y)
= ∂1 f (x̃, ỹ)∆ x + ∂2 f (x̃, ỹ)∆ y
mit (x̃, ỹ) zwischen (x, y) und (x̄, ȳ). Damit haben wir
| f (x, y) − f (x̄, ȳ)| ≤ δx
|∂1 f (x̃, ỹ)| + δy
sup
(x̃,ỹ)∈I(x,y),(x̄,ȳ)
sup
|∂2 f (x̃, ỹ)|
(x̃,ỹ)∈I(x,y),(x̄,ȳ)
≈ δx |∂1 f (x̄, ȳ)| + δy |∂2 f (x̄, ȳ)|
wenn δx , δy ausreichend klein sind.
Diese Vorgehensweise funktioniert auch bei mehr Variablen.
Beispiel 8.4.1. 1. Wir betrachten den Drillwinkel ϕ eines zylindrischen Stabes
2`N
πr4 G
mit der Länge `, dem Radius r, dem Drehmoment N und dem Torsionsmodul G. Durch
Untersuchung des relativen Fehlers entscheide man, welche Größe bei der Berechnung von
G besonders sorgfältig gemessen werden muß.
ϕ=
Wir haben
G = G(ϕ, `, r, N) =
2`N
.
πr4 ϕ
Seien ϕ̄, `,¯ r̄, N̄ die gemessenen Größen mit den Fehlern ∆ ϕ, ∆ `, ∆ r, ∆ N. Dann gilt für
den relativen Fehler
G − Ḡ 1
G ≈ |G| |∂1 G∆ ϕ + ∂2 G∆ ` + ∂3 G∆ r + ∂4 G∆ N|
1 2`N
2N
−8`N
2`
=
∆
ϕ
+
∆
r
+
−
∆
`
+
∆
N
|G| πr4 ϕ 2
πr4 ϕ
πr4 ϕ
πr5 ϕ
∆ϕ ∆`
∆ r ∆ N = −
+
−4 +
ϕ
`
r
N ∆ϕ ∆`
∆r ∆N + +4 +
≤ r N .
ϕ ` 166
8.4 Anwendungen
Folglich hat der relative Fehler von r den größten Einfluß, r sollte also (relativ) am genauesten gemessen werden.
2. Wir betrachten einen vertikal aufgestellten Balken der Länge l mit kreisförmigem Querschnitt (Radius r) und Elastizitätsmodul E. Die Kraft F, die bei vertikaler Einwirkung zum
Knicken des Balkens führt (Eulersche Knicklast) ist eine Funktion von ` und r,
1
F(`, r) = π 3 E · `−2 r4
4
für ` > 0 , r > 0 .
Bei “kleinen” Änderungen 4`, 4r der Länge ` bzw. des Radius r gilt für die Änderung der
Eulerschen Knicklast:
4F := F(` + 4`, r + 4r) − F(`, r)
∂F
∂F
1
≈
(`, r) · 4l +
(`, r) · 4r = π 3 E · (−2`−3 r4 · 4` + 4`−2 r3 · 4r) .
∂`
∂r
4
♦
8.4.2 Die Regel von de l’Hospital
x−x
0
limx→0 tan
x−sin x ist ein Grenzwert vom unbestimmten Typ 0 . Der verallgemeinerte Mittelwertsatz erlaubt in manchen Fällen die Behandlung solcher Ausdrücke:
Satz 8.4.2 (de l’Hospital). Sei
1. f , g : ]a, b[ → R differenzierbar mit g0 (x) 6= 0 für x ∈ ]a, b[.
2. x0 ∈ ]a, b[ mit f (x0 ) = 0 und g(x0 ) = 0.
3. Der (eigentliche oder uneigentliche) Grenzwert limx→x0
Dann gilt
f 0 (x)
g0 (x)
existiert.
f 0 (x)
f (x)
= lim 0
.
x→x0 g (x)
x→x0 g(x)
lim
Beweis. Nach dem Satz 8.3.6 gilt
f (x)
f (x) − f (x0 )
f 0 (ξ (x))
=
= 0
g(x)
g(x) − g(x0 )
g (ξ (x))
mit ξ (x) ∈ ]x0 , x[ bzw. ξ (x) ∈ ]x, x0 [.
Bemerkung 8.4.3. 1. Der Satz gilt sinngemäß auch für x % x0 und x & x0 (auch an Intervallgrenzen).
2. Der Satz gilt sinngemäß auch für den Typ
0
0
für x → ±∞.
167
8 Differentialrechnung
∞
3. Sinngemäß gelten die Aussagen auch für den Typ ∞
.
4. Man kann versuchen, die Regel mehrfach hintereinander anzuwenden, um ein Ergebnis
zu erzielen.
5. Unbestimmte Ausdrücke der Form 0 · ∞ versucht man durch
f (x) · g(x) =
auf die Form
0
0
f (x)
1
g(x)
zu bringen.
6. Für unbestimmte Ausdrücke der Form +∞ − (+∞) kann man
f (x) − g(x) =
1
1
−
g(x) f (x)
f (x)g(x)
versuchen, um die Form 0 · ∞ zu erhalten.
7. Unbestimmte Ausdrücke der Form 00 , 1±∞ , ∞0 werden (meist durch Logarithmieren)
auf 00 oder ∞
♦
∞ zurückgeführt.
Beispiel 8.4.4. 1. Gesucht ist
x4 − x3 − x2 + 1
.
x→1 x3 + x2 − x − 1
lim
Offensichtlich ist x0 = 1 eine Nullstelle im Zähler und im Nenner, so daß ein Einsetzen von
x0 = 1 zu einem unbestimmten Ausdruck „ 00 “ führt. Wir haben
x4 − x3 − x2 + 1
4x3 − 3x2 − 2x −1
=
lim
=
,
x→1 x3 + x2 − x − 1
x→1 3x2 + 2x − 1
4
lim
da der letzte Grenzwert existiert.
2. Es gilt
x3 − 1
3x2
6x
=
lim
=
lim
= 1,
x→∞ x3 + x
x→∞ 3x2 + 1
x→∞ 6x
lim
da der letzte Grenzwert existiert.
3. Es gilt
tan2 x
2 tan x(1 + tan2 x)
2(1 + tan2 x)
tan x − x
= lim
= lim
= lim
= 2,
lim
x→0 x − sin x
x→0 1 − cos x
x→0
x→0
sin x
cos x
da der letzte Grenzwert existiert.
168
8.4 Anwendungen
4. Wir bestimmen limx→0
lim
x→0
1
x
− sin1 x . Es gilt
1
1
−
x sin x
1 1
= lim
(sin x − x)
x→0 x sin x
cos x − 1
sin x − x
= lim
= lim
x→0 sin x + x cos x
x→0 x sin x
− sin x
= lim
= 0,
x→0 cos x + cos x − x sin x
♦
da der letzte Grenzwert existiert.
8.4.3 Das Newton-Verfahren zur Nullstellenbestimmung
Mit dem Bisektionsverfahren haben wir bereits ein brauchbares Verfahren zur Nullstellenbestimmung in der Hand. Leider erweist sich diese Methode als sehr träge, da nur nach
etwa jedem vierten Schritt eine weitere Dezimale der Nullstelle als endgültig berechnet angesehen werden kann. Die Anzahl der Schritte, die benötigt wird, um eine Nullstelle auf
acht Dezimalstellen auszurechnen, ist also sehr groß.
Durch die folgende Idee kann eine erheblich schnellere Berechnung erreicht werden: Vorgegeben seien eine differenzierbare Funktion
f : ]a, b[ → R
und eine Stelle x0 ∈ ]a, b[. Zunächst betrachten wir anstelle von f deren lineare Approximation
f
Tx0 ,1 (x) = f (x0 ) + f 0 (x0 )(x − x0 )
f
f
an der Stelle x0 und lösen das Nullstellenproblem für Tx0 ,1 . Dies ist einfach, da Tx0 ,1 eine
lineare Funktion ist:
f
0 = Tx0 ,1 (x) = f (x0 ) + f 0 (x0 )(x − x0 )
⇐⇒
− f (x0 ) = f 0 (x0 )(x − x0 ) .
f
Gilt f 0 (x0 ) 6= 0, so ist x1 eine Nullstelle von Tx0 ,1 , falls y
f
t1
f (x0 )
= x1 − x0 ,
− 0
f (x0 )
was genau dann gilt, wenn
x1 := x0 −
f (x0 )
.
f 0 (x0 )
a
x∗
x1
x0
b
x
169
8 Differentialrechnung
Anschaulich ist x1 eine Näherung für die gesuchte Nullstelle x∗ von f , sofern x0 nicht zu
f
weit von x∗ entfernt liegt, da ja Tx0 ,1 die Funktion f in der Nähe der Stelle x0 „gut“ annähert.
Ist x1 eine bessere Näherung als x0 dies war, so kann der oben genannte Vorgang mit x1
anstelle von x0 erneut durchlaufen werden:
x2 := x1 −
f (x1 )
f 0 (x1 )
(sofern f 0 (x1 ) 6= 0). Hierbei wird die Frage, ob x1 als bessere Näherung für x∗ als x0 anzusehen ist, einfach durch den Funktionswert entschieden: x1 ist eine bessere Näherung als
x0 , falls
| f (x1 )| < | f (x0 )| .
Diese Methode, laufend eine bessere Näherung für x∗ zu ermitteln, kann fortgesetzt durchgeführt werden. Es entsteht dann das Newton-Verfahren, das die laufende Iterierte xk über
die Formel
f (xk−1 )
(k = 1, 2, . . .)
xk := xk−1 − 0
f (xk−1 )
berechnet, sofern f 0 (xk−1 ) 6= 0 bleibt.
Satz 8.4.5. Ist f zweimal stetig differenzierbar, liegt der Startpunkt x0 des Iterationsverfahrens nahe genug bei der gesuchten Nullstelle x∗ von f und gilt gleichzeitig f 0 (x∗ ) 6= 0, so
kann die Newton-Iteration beliebig oft durchgeführt werden und die Iteriertenfolge (xn )n∈N
konvergiert gegen x∗ .
Beispiel 8.4.6. Wir betrachten das Polynom
f (x) = x3 + x2 + 2x + 1.
Dieses hat eine Nullstelle in [a, b] = [−1, 0], da f (−1) = −1 und f (0) = 1 gilt. Ein erster
Schritt der Bisektion liefert
x0 = −0.5
mit
f (x0 ) = 0.125 > 0.
Zu erwarten ist also eine Nullstelle im Intervall [−1, −0.5]. Wir führen einen Schritt des
Newton-Verfahrens durch. Es ist
x03 + x02 + 2x0 + 1
x1 = x0 −
3x02 + 2x0 + 2
und für x0 = −0.5:
x1 = −0.5714
mit
f (x1 ) = −0.0029 < 0 und | f (x1 )| < 0.9 | f (x0 )| ,
wodurch x1 als bessere Näherung (und x∗ ∈ [x1 , x0 ]) erkannt wird. Weitere Schritte über
xk = xk−1 −
170
3 + x2 + 2x
xk−1
k−1 + 1
k−1
2 + 2x
3xk−1
k−1 + 2
(k = 1, 2, . . .)
8.4 Anwendungen
liefern x2 = −0.5698412, x3 = x4 = −0.569840291 auf vier Dezimalen und
f (x3 ) = 3.5711 · 10−12 .
Das Newtonverfahren liefert also bereits nach drei Schritten eine sehr gute Näherung der
Nullstelle x∗ .
♦
Benutzt man das Horner-Schema, um (x − x∗ ) aus f herauszufaktorisieren, so bleibt ein
quadratisches Polynom übrig, das mit der (p, q)-Formel auf Nullstellen untersucht werden
kann. Es zeigt sich, daß keine reellen Nullstellen dieses Polynoms existieren. Das Ausgangspolynom besitzt also nur eine einzige Nullstelle, die Stelle x∗ = x3 .
Bemerkung 8.4.7. Unter den Voraussetzungen des obigen Satzes konvergiert das Newtonverfahren quadratisch, d.h.,
|xk − x∗ | ≤ M |xk−1 − x∗ |2
gilt für eine Konstante M > 0. Anschaulich bedeutet dies, daß sich die Anzahl der bereits
richtig berechneten Dezimalstellen bei jeder Iteration ungefähr verdoppelt, wenn sich das
Verfahren der Stelle x∗ genügend angenähert hat.
♦
8.4.4 Beispiel für eine Kurvendiskussion
Zu diskutieren ist die Funktion f : [−π, π] → R mit
(
sin x
für |x| ≤ π ,
x
f (x) =
1
für x = 0 .
x 6= 0 ,
1. Stetigkeit und Grenzwerte
Wir wissen bereits limx→0 sinx x = 1. Damit ist f stetig. Wegen der Stetigkeit gilt
sin x
=0
x%π x
lim
und
sin x
= 0.
x&−π x
lim
2. Differenzierbarkeit
f ist mit Sicherheit für x 6= 0 differenzierbar. Für x 6= 0 gilt
f 0 (x) =
x cos x − sin x
.
x2
171
8 Differentialrechnung
Mit Hilfe der de l’Hospitalschen Regel finden wir
lim
x→0
sin x
x
−1
sin x − x
− sin x
cos x − 1
= lim
= lim
=0
= lim
2
x→0
x→0
x→0
x
x
2x
2
und daher f 0 (0) = 0. Somit ist f differenzierbar auf [−π, π]. Mit
lim f 0 (x) = 0 = f 0 (0)
x→0
folgt die Stetigkeit von f 0 auf [−π, π].
3. Symmetrie
f ist eine gerade Funktion, denn
f (−x) =
sin (−x) − sin x sin x
=
=
= f (x) ,
−x
−x
x
also ist die y-Achse Symmetrieachse.
4. Nullstellen
Es ist f (x) = 0, wenn sin x = 0 und dies gilt genau dann wenn x = 0, x = −π oder x = π.
x = 0 scheidet aus wegen f (0) = 1. Also ist x = π die einzige Nullstelle auf [0, π] und
x = −π die einzige auf [−π, 0].
5. Vorzeichenverteilung von f
Da f stetig ist und da x = π und x = −π die einzigen Nullstellen von f sind, sowie f (0) = 1
gilt, hat f durchgehend positives Vorzeichen.
6. Kandidaten für Extremalstellen von f
Wir haben die Nullstellen von f 0 zu bestimmen. Wir wissen schon f 0 (0) = 0. Da
f 0 (x) =
x cos x − sin x
x2
für
x 6= 0 ,
haben wir
x cos x = sin x ,
d.h., x = tan x
für x ∈ ]0, π] zu lösen, d.h., wir haben eine Nullstelle x0 6= 0 von g : [0, π] → R mit g(x) =
tan x − x zu finden. Angenommen, x0 ∈ ]0, π] ist Nullstelle von g. Dann existiert nach dem
Mittelwertsatz ein ξ ∈ ]0, π[ mit
0 = g(x0 ) − g(0) = g0 (ξ )(x0 − 0) = (1 + tan2 (ξ ) − 1) · x0 .
Dies ist aber ein Widerspruch. Somit gibt es kein x ∈ ]0, π] mit f 0 (x) = 0.
Daher sind −π, 0, π die einzigen Kandidaten für Extremalstellen von f .
172
8.4 Anwendungen
7. Monotonieverhalten und Extremalstellen von f
Da f 0 (x) 6= 0 für x 6= 0, ist f streng monoton auf [−π, 0] und [0, π]. Da f (0) = 1 und
f (−π) = f (π) = 0, ist 0 (globale) Maximalstelle und −π und π sind (globale) Minimalstelle.
8. Krümmungsverhalten und Wendepunkte von f
Es ist
(cos x − x sin x − cos x) x2 − (x cos x − sin x) 2x
x4
2
−x sin x − 2x cos x + 2 sin x
=
x3
f 00 (x) =
für x 6= 0. Weiter gilt
lim
x→0
x cos x−sin x
x2
−0
x
x cos x − sin x
cos x − x sin x − cos x
=
lim
x→0
x→0
x3
3x2
x sin x
sin x + x cos x
= − lim
= − lim −
2
x→0 3x
x→0
6x
1
cos x + cos x − x sin x
=−
= − lim
x→0
6
3
= lim
und damit f 00 (0) = − 13 . Die Nullstellen von f 00 sind damit Lösungen der Gleichung
−x2 sin x − 2x cos x + 2 sin x = 0.
Anders als bei der ersten Ableitung ergeben sich noch Lösungen mit |x| < π. Mit dem
Newtonverfahren findet man (Startwert x = 1.5)
x1/2 = ±2.08158 .
Wegen f 00 (0) = − 13 , limx→π f 00 (x) =
2
π2
= limx→−π f 00 (x) sind x1 , x2 Wendepunkte.
9. Skizze
y
1
-3
-2
-1
1
2
3
x
173
8 Differentialrechnung
8.5 Geometrische Interpretationen
8.5.1 Tangentialhyperebene und Normalenvektor
Sei f : D( f ) ⊆ Rn → R. Weiter sei f differenzierbar im inneren Punkt x0 von D( f ). Wir
betrachten die Mengen
o
n
>
n
T f (x0 ) := x0 + h, f (x0 ) + grad f (x0 ) h : h ∈ R
und
graph f = {(x, f (x)) : x ∈ D( f )} .
Für n = 1 stellt T f (x0 ) eine Gerade und graph f eine Kurve im R2 dar. Für n = 2 ist T f (x0 )
eine Ebene und graph f eine Fläche im R3 .
Satz 8.5.1. Die Mengen T f (x0 ) und graph f berühren sich in (x0 , f (x0 )) mit der Ordnung
1, d.h.
f (x0 + h) − f (x0 ) + grad f (x0 )> h = R(h)
n
>
für x ∈ D mit R(h)
khk → 0 für h → 0. Für jedes h ∈ R liegt damit der Vektor h, grad f (x0 ) h
parallel zu T f (x0 ).
Beweis. Die erste Aussage folgt unmittelbar aus der Definition der Ableitung als lineare
Approximation. Die zweite Aussage ist offensichtlich.
Definition 8.5.2. Die Menge T f (x0 ) heißt Tangentialhyperebene
an die Hyperfläche graph f
im Punkt (x0 , f (x0 )). Jeder Vektor h, grad f (x0 )> h mit h ∈ Rn heißt Tangentialvektor an
graph f im Punkt (x0 , f (x0 )).
♦
Bemerkung 8.5.3. Für n = 1 bzw. 2 heißt die Tangentialhyperfläche T f (x0 ) auch Tangente
bzw. Tangentialebene.
♦
Offensichtlich steht der Vektor
T f (x0 )
n = (− grad f (x0 ), 1)
senkrecht auf allen Tangentialvek
toren h, grad f (x0 )> h und damit
auf der Tangentialebene:
f (x0 ) + grad f (x0
graph f
f (x0 )
(− grad f (x0 ), 1)
Lemma 8.5.4. Der
Vektor
n
(− grad f (x0 ), 1) ist Normalenvektor
die Tangentialhyperebene in (x0 , f (x0 )).
174
)> h
=
an
1
grad f (x0 )
x0
x0 + h
8.5 Geometrische Interpretationen
Beispiel 8.5.5. Wir betrachten f (x, y) = 4x2 − 3y2 + 5 auf D = R2 in (−1, 3). Es gilt
∂1 f (−1, 3) = −8 ,
∂2 f (−1, 3) = −18 ,
so daß n = (8, 18, 1) Normalenvektor an die Tangetialhyperebene in (−1, 3, f (−1, 3)) ist.
Wegen
√
√
knk = 64 + 324 + 1 = 389 ,
ist n0 =
√ 1 (8, 18, 1)
389
♦
Normaleneinheitsvektor.
8.5.2 Begleitendes Dreibein für Kurven im R3
Sei C = ψ([a, b]) mit ψ : I → R3 und a < b eine glatte Kurve. Sei wieder ψ(t) = (x(t), y(t), z(t)).
Dann ist der Vektor
ψ 0 (t) = (x0 (t), y0 (t), z0 (t))
tangential zur Kurve C im Punkt ψ(t). Wir nennen daher den Einheitsvektor
1
1
· ψ 0 (t) = p
· (x0 (t), y0 (t), z0 (t))
T(t) =
0
0
2
0
2
0
2
kψ (t)k
x (t) + y (t) + z (t)
den Tangenten(einheits)vektor von C im Punkt ψ(t).
Sei nun ψ zweimal stetig differenzierbar. Dann können wir den Einheitsvektor
1
1
· ψ 00 (t) = p
N(t) =
· (x00 (t), y00 (t), z00 (t))
00
00
2
00
2
00
2
kψ (t)k
x (t) + y (t) + z (t)
betrachten. Da kT(t)k = 1, steht er senkrecht auf dem Tangentenvektor T(t) (und damit
auch auf der Kurve) und heißt (Haupt-)Normalen(einheits)vektor. Die Zahl
q
k := x00 (t)2 + y00 (t)2 + z00 (t)2
heißt Krümmung der Kurve C in ψ(t),
ρ=
1
k
ist der Krümmungsradius.
Bildet man das Kreuzprodukt aus dem Tangentenvektor und dem Normalenvektor, so erhält man den Binormalen(einheits)vektor
B(t) = T(t) × N(t)
B(t)
und damit ein begleitendes Dreibein, d.h.,
mit dem Kurvenpunkt sich verändernde Koordinatenachsen eines rechtwinkligen Koordinatensystems, das sich jeweils der Kurve anpaßt.
ψ(t)
N(t)
C
T(t)
175
8 Differentialrechnung
8.5.3 Richtung des steilsten Anstieges
Sei f : D( f ) ⊆ Rn → R in x0 ∈ D( f ) differenzierbar.
Wir untersuchen nun die Frage, für welche Richtung r ∈ Rn mit krk = 1 die Richtungsableitung ∂ f (x0 , r) maximal wird.
Es gilt
∂ f (x0 , r) = hgrad f (x0 ), ri ≤ k grad f (x0 )k · krk = k grad f (x0 )k .
Ist grad f (x0 ) = 0, so gilt ∂ f (x0 , r) = 0 für jede Richtung r.
Sei nun grad f (x0 ) 6= 0 und
r :=
1
grad f (x0 ) .
k grad f (x0 )k
Dann gilt
∂ f (x0 , r) = hgrad f (x0 ), ri = k grad f (x0 )k ,
d.h., die Richtungsableitung wird maximal in Richtung des Gradienten:
Satz 8.5.6. Der Gradient von f in x0 zeigt in
Richtung des stärksten Anstieges von f in x0 .
Beispiel 8.5.7. Man finde die Richtung, in der f (x, y) = 4x2 −3y2 +5 am stärksten im Punkt
(1, 1) wächst.
Es gilt ∂1 f (1, 1) = 8, ∂2 f (1, 1) = −6 und daher grad f (1, 1) = (8, −6). In Richtung (8, −6)
tritt also der stärkste Anstieg von f in (1, 1) auf.
♦
8.5.4 Niveauhyperfläche
Sei f : D ⊆ Rn → R stetig differenzierbar auf D. Dann ist durch graph f eine Hyperfläche
im Rn+1 gegeben.
Für c ∈ R betrachten wir die Menge
Nc = {x ∈ Rn : f (x) = c} ,
176
8.5 Geometrische Interpretationen
welche Niveauhyperfläche von f zum Niveau c heißt. Für n = 2 ist Nc eine Kurve (Niveaulinie), für n = 3 eine Fläche (Niveaufläche).
Sei C = ψ[I] mit ψ ∈ C1 (I, Rn ) und einem Intervall I ⊆ R eine Kurve in Nc . Sei x0 ∈ C ⊆ Nc .
Dann gibt es ein t0 ∈ I mit ψ(t0 ) = x0 . Weiter gilt
f (ψ(t)) = f (x0 ) für alle t ∈ I .
Mit der Kettenregel erhalten wir
0 = f 0 (ψ(t)) ◦ ψ 0 (t) = grad f (ψ(t)), ψ 0 (t) = 0 ,
d.h., der Gradient grad f (x0 ) von f in x0 steht senkrecht auf dem Tangentialvektor ψ 0 (t0 ) an
die Kurve C im Punkt x0 = ψ(t0 ). Da dies für jede (glatte) Kurve in Nc durch x0 gilt, steht
der Gradient senkrecht auf Nc im Punkt x0 .
In Kombination mit Satz 8.5.6 finden wir:
Satz 8.5.8. Unter obigen Voraussetzungen
steht der Gradient von f in einem Punkt x ∈
Nc der Niveauhyperfläche Nc von f zum Niveau c senkrecht auf allen Tangenten an Nc
und damit auf Nc im Punkt x und zeigt in Richtung wachsender Werte von c und damit in
Richtung wachsender Werte von f .
Beispiel 8.5.9. Sei U(x, y, z) das Potential eines Kraftfeldes F(x, y, z) in einer offenen Menge D ⊆ R3 , d.h., es gelte
F(x, y, z) = − gradU(x, y, z)
für alle (x, y, z) ∈ D .
In jedem Punkt (x, y, z) ∈ D steht der Kraftvektor F(x, y, z) senkrecht auf der zugehörigen
Äquipotentialfläche
Nc = {(x, y, z) ∈ R3 : U(x, y, z) = c}
und weist in Richtung des stärksten Potentialabfalls (Minuszeichen beachten).
Ein Beispiel ist das Gravitationspotential
m · m0
U(x, y, z) = −G p
,
x2 + y2 + z2
(x, y, z) 6= (0, 0, 0) ,
der im Punkt (x, y, z) befindlichen Masse m in Bezug auf die im Nullpunkt konzentrierte
Masse m0 (G ist die Gravitationskonstante). Die Äquipotentialflächen Nc haben die Gleichung x2 + y2 + z2 = (Gmm1 c)2 , sind also Kugelflächen um den Nullpunkt. Die Gravitations0
kraft ist
 
x
m · m0
 y .
F(x, y, z) = − gradU(x, y, z) = −G p
3
x2 + y2 + z2
z
177
8 Differentialrechnung
Die Kraft F weist radikal zum Nullpunkt hin.
♦
8.6 Höhere, lokale Approximation
8.6.1 Taylor-Polynome
Definition 8.6.1. Sei f : D( f ) ⊆ R → R, x0 Häufungspunkt von D( f ). Ein Polynom p
heißt n-tes Taylor-Polynom der Funktion f in x0 , wenn
1. degp ≤ n,
2. p approximiert f in x0 mindestens n-ten Grades, d.h. | f (x) − p(x)| = o(|x − x0 |n ) für
x → x0 .
♦
Satz 8.6.2 (Eindeutigkeit). Sei f : D( f ) ⊆ R → R, x0 ∈ D( f ) Häufungspunkt von D( f ).
Dann gibt es für jedes n ∈ N höchstens ein n-tes Taylor-Polynom.
f
Damit ist die Bezeichnung Tx0 ,n für das n-te Taylor-Polynom von f in x0 gerechtfertigt.
Wir wissen schon:
Satz 8.6.3 (Existenz). Sei f : D( f ) ⊆ R → R und x0 ∈ D( f ) HP von D( f ).
f
1. Tx0 ,0 existiert genau dann, wenn f in x0 stetig ist. Es gilt dann
f
Tx0 ,0 (x) = f (x0 ) .
f
2. Tx0 ,1 existiert genau dann, wenn f in x0 differenzierbar ist. Es gilt dann
f
Tx0 ,1 (x) = f (x0 ) + f 0 (x0 )(x − x0 ) .
Eigenschaften:
f
f
k
• Wenn Tx0 ,n (x) = ∑nk=0 ck (x − x0 )k , dann Tx0 ,n−1 (x) = ∑n−1
k=0 ck (x − x0 ) .
• Ist f selbst ein Polynom p mit degp = n, dann gilt Txp0 ,n = p. Genauer: Wenn p(x) =
p
k
∑nk=0 ck (x − x0 )k , dann ist Tx0 ,m (x) = ∑m
k=0 ck (x − x0 ) für alle m ≤ n.
Offene Fragen:
f
• Wann existieren Tx0 ,n mit n > 1?
f
• Was kann Tx0 ,n als Ersatz für f leisten?
178
8.6 Höhere, lokale Approximation
8.6.2 Die Taylor-Formel
Sei f : R → R ein Polynom, d.h., f (x) = ∑nk=0 ak xk mit ak ∈ R. Sei der Einfachheit halber
x0 = 0. Dann ist
f
T0,m (x) =
m
∑ ak xk
k=0
für m ≤ n. Da f (0) (x0 ) = a0 , f (1) (x0 ) = a1 , f (2) (x0 ) = 2a2 , . . . , f (k) (x0 ) = k!ak für k ≤ n
haben wir
m
f (k) (x0 )
f
Tx0 ,m (x) := ∑
(x − x0 )k
(8.6.1)
k!
k=0
für unsere spezielle Situation eines Polynoms f und x0 = 0 gefunden.
Mit
Rxf0 ,m (x) := f (x) − Txf0 ,m (x)
bezeichnen wir das Restglied. Damit gilt trivialerweise
m
f (x) =
∑
k=0
f (k) (x0 )
(x − x0 )k + Rxf0 ,m (x) .
k!
(8.6.2)
Wesentlich ist nun, zu zeigen, daß
Rxf0 ,m (x) = o(|x − x0 |m ) für x → x0 .
(8.6.3)
Satz 8.6.4 (Taylor-Formel mit Restgliedabschätzung). Sei f ∈ Cm (D) mit einem Intervall D. Dann existiert eine Funktion ϑ : D → ]0, 1[, so daß (8.6.2), (8.6.3) gelten mit
Rxf0 ,m (x) =
f (m) (x0 + ϑ (x)(x − x0 )) − f (m) (x0 )
(x − x0 )m (1 − ϑ (x))m−1
(m − 1)!
(8.6.4)
und damit
|Rxf0 ,m (x)| ≤
1
sup | f (m) (x0 + t(x − x0 )) − f (m) (x0 )| · |x − x0 |m .
(m − 1)! 0<t<1
Ist f im Innern von D sogar (m + 1)-mal differenzierbar, dann gibt es für jedes p > 0 ein
ξ : D \ {x0 } → D mit ξ (x) zwischen x und x0 , und es gilt die Schlömilch-Darstellung
f (m+1) (ξ (x)) x − ξ (x) m−p+1
f
Rx0 ,m (x) =
(x − x0 )m+1 .
(8.6.5)
pm!
x − x0
Speziell haben wir die Lagrange-Darstellung (p = m + 1)
Rxf0 ,m (x) =
f (m+1) (ξ (x))
(x − x0 )m+1 .
(m + 1)!
(8.6.6)
179
8 Differentialrechnung
Beweis. Ergibt sich aus dem verallgemeinerten Mittelwertsatz für eine passend gewählte
Hilfsfunktion.
Bemerkung 8.6.5. 1. Hauptaussage des Satzes ist die Approximation von f in x0 durch
ein Polynom mit kontrolliertem Rest.
2. Für m = 0 erhalten wir als Spezialfall wieder den Mittelwertsatz. Tatsächlich ist der Satz
von Taylor aber eine Folgerung aus dem (verallgemeinerten) Mittelwertsatz.
(k)
f (x0 )
k
3. Das Bestimmen des Taylor-Polynoms Tx0 ,m (x) := ∑m
k=0
k! (x − x0 ) für eine m-mal
f
in x0 differenzierbare Funktion f ist trivial. Wesentlich ist, daß Rx0 ,m (x) = o(|x − x0 |m ) für
x → x0 .
f
4. Wegen (8.6.2) und (8.6.3) berühren sich f und sein m-tes Taylor-Polynom in x0 mit
der Ordnung m. Wir haben damit eine gute lokale Approximation von f in x0 durch ein
Polynom. Wenn f genügend glatt ist, kann die Approximationsgüte durch Vergrößerung
von m verbessert werden.
5. Obwohl wir eine Darstellungen für das Restglied haben, ist die nichtlokale Approximation von f durch Taylor-Polynome nicht die beste Wahl. Hierfür sollte man andere
Polynom-Approximationen verwenden.
♦
Beispiel 8.6.6.
√
1. Wir berechnen die quadratische Approximation von f (x) = x an der Stelle x0 = 1.96,
1
und wissen bereits f 0 (x) = 2√
. Weiteres Ableiten ergibt nach der Quotientenregel f 00 (x) =
x
1
√
2 x
1
= − 14 x√1 x und damit
−
√
2
2
( x)
f
T1.96,2 (x) = 1.4 +
1
1
1
1
(x − 1.96) +
−
(x − 1.96)2 .
2.8
2
4 1.96 · 1.4
Für x = 2 ergibt sich:
f
0.042
0.04
−
= 1.414212828 . . .
2.8
8 · 1.4 · 1.96
f (2) = 1.414213562 . . .
T1.96,2 (2) = 1.4 +
f (3) (ξ (x))
(x − x0 )3 in der Lagrage-Darstellung für
3!
3
5
5
f 00 (ξ ) = − 14 ξ − 2 und daher f 000 (ξ ) = − 14 (− 32 )ξ − 2 = 38 ξ − 2 .
f
Schätzen wir nun den Fehler Rx0 ,2 (x) =
x0 = 1.96 und x = 2 ab. Es gilt
Somit gilt
f
|R1.96,2 (2)| ≤
sup
ξ ∈[1.96,2]
5
f (3) (ξ )
3
(2 − 1.96)3 =
· 1.96− 2 · 0.043
3!
8·3
≈ 1.49 · 10−6 .
180
8.6 Höhere, lokale Approximation
2. Wir betrachten f (x) = exp x auf R. Dann gilt f ∈ C∞ (R) und wir haben
f (x) = f 0 (x) = · · · = f (m+1) (x) .
Somit gilt
m
exp x =
mit
exp
|R0,m (x)| ≤
xk
∑ k! + Rexp
0,m (x)
k=0
m+1
|x|m+1
|x| |x|
sup
e
≤e
→ 0 für m → ∞ .
(m + 1)!
(m + 1)!
ξ zwischen 0 und x
ξ
Damit gilt
∞
exp x =
xk
∑
k=0 k!
für alle x ∈ R.
♦
Definition 8.6.7. Sei f : D( f ) → R, x0 ∈ D( f ) und sei f in x0 unendlich oft differenzierbar.
Die Folge
∞
f (k) (x0 )
∑ k! (x − x0)k
m=0
f
der Taylor-Polynome Tx0 ,m bzw. die Funktion f˜ : D( f˜) → R mit
f˜(x) =
∞
∑
m=0
f (k) (x0 )
(x − x0 )k
k!
und
D( f˜) := {x ∈ R :
∞
∑
m=0
für x ∈ D( f˜)
f (k) (x0 )
(x − x0 )k konvergiert}
k!
heißt Taylor-Reihe von f um x0 .
Die Funktion f heißt durch die Taylor-Reihe f˜ um x0 auf der Menge M ⊆ D( f ) darstellbar oder entwickelbar, wenn x0 ∈ M ⊆ D( f˜) und
f (x) = f˜(x) für x ∈ M ,
d.h., wenn die Taylor-Reihe ∑∞
m=0
f (k) (x0 )
k
k! (x − x0 )
gegen f (x) für alle x ∈ M konvergiert. ♦
Satz 8.6.8. Sei f : D( f ) → R, x0 ∈ D( f ) und sei f in x0 unendlich oft differenzierbar, und
sei f˜ : D( f˜) → R die Taylor-Reihe von f um x0 ∈ M ⊆ D( f ). Dann ist f genau dann durch
f
f˜ um x0 auf M darstellbar, wenn limm→∞ Rx0 ,m (x) = 0 für alle x ∈ M.
181
8 Differentialrechnung
f
f
Beweis. Da f (x) = Tx0 ,m (x) + Rx0 ,m (x) für x ∈ D( f ), gilt
Txf0 ,m (x) = f (x) − Rxf0 ,m (x) .
Hieraus liest man die Behauptung direkt ab.
Bemerkung 8.6.9. 1. Oben haben wir somit exp in eine Taylor-Reihe um 0 entwickelt:
∞
xk
exp x = ∑
k=0 k!
für x ∈ R .
2. Die Aufstellung der Taylor-Reihe für eine C∞ -Funktion f ist trivial. Wesentlich ist, zu
zeigen, daß die Funktion auch durch die Taylor-Reihe dargestellt wird, d.h., daß die TaylorReihe konvergiert und dieselbe Funktion darstellt.
♦
Beispiel 8.6.10. 1. Wir betrachten die Funktion f (x) = sin x und die Stelle x0 = 0. Dann
gilt:
f (x) = sin x
f (x0 ) = 0
f 0 (x) = cos x
f 0 (x0 ) = 1
f 00 (x) = − sin x
f 00 (x0 ) = 0
f 000 (x) = − cos x
f 000 (x0 ) = −1
(4)
f (x) = sin x
f (4) (x0 ) = 0
usw., daher
1
1
1
(−1)n 2n+1
1
sin
sin
x
,
T0,2n+1
(x) = T0,2n+2
(x) = x − x3 + x5 − x7 + x9 − . . . +
3!
5!
7!
9!
(2n + 1)!
d.h.,
n
x2k+1
+ Rsin
sin x = ∑ (−1)k
0,2n+1 (x)
(2k
+
1)!
k=0
mit
|x|m+1
→ 0 für m → ∞, x ∈ R .
(m + 1)!
Somit haben wir die Taylor-Entwicklung
|Rsin
0,m (x)| ≤
∞
sin x =
∑ (−1)k
k=0
x2k+1
(2k + 1)!
für x ∈ R .
sin (x) = x − 1 x3 und T sin (x) =
Für m = 1 bzw. m = 2 erhalten wir folgende Skizzen für T0,3
0,5
3!
x − 3!1 x3 + 5!1 x5 :
y
1
sin
T0,3
(x)
-2
-1
1
-1
182
y
1
sin(x)
2
x
sin(x)
sin
T0,5
(x)
-2
-1
1
-1
2
x
8.6 Höhere, lokale Approximation
2. Wir betrachten die Funktion f (x) = cos x und die Stelle x0 = 0. Dann gilt:
f (x)
f 0 (x)
f 00 (x)
f 000 (x)
f (4) (x)
=
=
=
=
=
f (x0 )
f 0 (x0 )
f 00 (x0 )
f 000 (x0 )
f (4) (x0 )
cos x
− sin x
− cos x
sin x
cos x
=
=
=
=
=
1
0
−1
0
1
usw., daher
cos
cos
T0,2n
(x) = T0,2n+1
(x) = 1 −
(−1)n 2n
1 2 1 4 1 6 1 8
x + x − x + x −...+
x ,
2!
4!
6!
8!
(2n)!
d.h.,
n
cos x =
∑ (−1)k
k=0
x2k
+ Rcos
0,2n (x)
(2k)!
mit
|x|m+1
→ 0 für m → ∞, x ∈ R .
(m + 1)!
Somit haben wir die Taylor-Entwicklung
|Rcos
0,m (x)| ≤
∞
∑ (−1)k
cos x =
k=0
3. Sei
f (x) =
x2k
(2k)!
für x ∈ R .
0,
für x = 0 ,
−2
−x
e
, für x 6= 0 .
Dann ist f (−0) = f (+0) = 0, also f stetig. Es gilt
2 −x−2
e
x3
und f 0 (+0) = f 0 (−0) = 0. Durch Fortsetzung der Differenzierbarkeitsuntersuchung erhält
man f ∈ C∞ (R) mit f (k) (0) = 0 für alle k ∈ N. Damit gilt
f 0 (x) =
f
T0,n (x) = 0
aber
für alle x ∈ R
f
T0,m (x) 6−→ f (x) für m → ∞ und x 6= 0 .
Die Funktion f kann also auf keinem Intervall M 6= {0} in eine Taylor-Reihe um x0 entwickelt werden, obwohl f ∈ C∞ (R).
♦
Noch zu beantwortende Frage:
• Wann und wo konvergieren die Werte der Taylor-Reihe einer Funktion gegen die Werte
der Funktion?
183
8 Differentialrechnung
8.6.3 Höhere Ableitungen von Funktionen mehrerer Variabler
Sei f : D( f ) ⊆ Rn → R. Existiert die partielle Ableitung ∂k f , so können wir wieder nach
ihrer Differenzierbarkeit fragen, wir erhalten z.B. eine partielle Ableitung zweiter Ordnung
∂i ∂k f (x) := ∂i (∂k f ) (x) .
Analog kann man partielle Ableitungen dritter und höherer Ordnung betrachten, z.B.
∂i ∂k ∂` f (x) := ∂i (∂k ∂` f ) (x) .
Auf diese Weise definieren wir iterativ eine n-te partielle Ableitung als eine partielle Ableitung einer (n − 1)-ten partiellen Ableitung.
Ohne den Begriff der höheren Differenzierbarkeit hier genauer untersuchen zu wollen, nennen wir eine Funktion f : D( f ) ⊆ Rn → Rm aufgrund Satz 8.2.24 n-mal [stetig] (partiell)
differenzierbar, wenn alle n-ten partiellen Ableitungen n-ter Ordnung (und damit auch der
niederen Ordnungen) von f existieren [und stetig sind].
Sei zum Beispiel f : D( f ) ⊆ Rn → R zweimal differenzierbar. Die partiellen Ableitungen
zweiter Ordnung lauten dann
∂i ∂k f (x) mit i, k ∈ {1, . . . , n} .
Prinzipiell gilt
∂i ∂k f (x) 6= ∂k ∂i f (x) für i 6= k ,
d.h., es kommt auf die Reihenfolge an, in der differenziert wird. Jedoch gilt:
Satz 8.6.11 (Satz von Schwarz). Für die Funktion f : D( f ) ⊆ Rn → R, D( f ) offen, mögen
die partiellen Ableitungen ∂i ∂k f und ∂k ∂i f auf D( f ) existieren und stetig sein. Dann gilt
∂i ∂k f (x) = ∂k ∂i f (x) für x ∈ D( f ) und i, k ∈ {1, . . . , n} .
Bemerkung 8.6.12. 1. Dies zeigt erneut, daß stetige (partielle) Differenzierbarkeit der angepaßte Begriff ist.
2. Da unter der Voraussetzungen des Satzes die Reihenfolge der Differenzierung egal ist,
können wir zum Beispiel setzen
∂i,k := ∂i ∂k = ∂k ∂i ,
∂i,k,` := ∂i ∂k ∂` = ∂i ∂` ∂k = ∂k ∂i ∂` = ∂k ∂` ∂i = ∂` ∂i ∂k = ∂` ∂k ∂i .
184
♦
8.6 Höhere, lokale Approximation
Beispiel 8.6.13. Gesucht ist ∂2 ∂1 f für die Funktion f : R2 → R mit
sin x
f (x, y) = √
+ cos(xy2 ) ,
1 + x2
(x, y) ∈ R2 .
Die direkte Berechnung von ∂2 ∂1 f (in dieser Reihenfolge der Differentiation) ist wegen
des ersten Summanden umständlich. Da f aus beliebig oft stetig (partiell) differenzierbaren
Funktionen zusammengesetzt ist, existieren die zweiten partiellen Ableitungen und sind
stetig. Nach Satz 8.6.11 kann man die Reihenfolge der partiellen Ableitungen vertauschen.
Mit ∂2 f (x, y) = −2xy sin(xy2 ) folgt
∂2 ∂1 f (x, y) = ∂1 ∂2 f (x, y) =
∂
[−2xy sin(xy2 )] = −2y sin(xy2 ) − 2xy3 cos(xy2 ) .
∂x
♦
Im folgenden interessieren uns vor allem partielle Ableitungen zweiter Ordnung von Skalarfunktionen. Die (n, n)-Matrix


∂1 ∂1 f (x0 ) · · · ∂1 ∂n f (x0 )


..
..
H f (x0 ) := ∂i ∂ j f (x0 ) i, j = 

.
.
∂n ∂1 f (x0 ) · · · ∂n ∂n f (x0 )
heißt Hesse-Matrix der Funktion f : D ⊆ Rn → R im Punkt x0 ∈ D. Sind alle vorkommenden partiellen Ableitungen in x0 stetig, so ist H f (x0 ) nach Satz 8.6.11 symmetrisch.
8.6.4 Mehrdimensionale Taylor-Formel
Wir wollen nun die Taylor-Formel auf Abbildungen f : D ⊆ Rn → R verallgemeinern. Abbildungen aus Rn nach Rm können durch Betrachtung der Koordinatenfunktionen hierauf
zurückgeführt werden.
Da wir höhere partielle Ableitungen benötigen, brauchen wir ein geeignete Schreibweise:
Die partielle Differentiation nach der i-ten Variablen ist eine Abbildung (Differentialoperator)
der differenzierbaren Funktionen in die stetigen Funktionen:
∂i : C1 (D, R) → C0 (D, R) mit (∂i f )(x) = ∂i f (x) .
Diese Abbildungen können wie üblich addiert, skalar multipliziert und miteinander überlagert werden: Zum Beispiel gilt
(α1 ∂1 + α2 ∂2 ) f (x0 ) = α1 ∂1 f (x0 ) + α2 ∂2 f (x0 ) = ∂1 f (x0 )α1 + ∂2 f (x0 )α2
und
∂1 ◦ ∂2 f (x0 ) = ∂1 ∂2 f (x0 ) = ∂1,2 f (x0 ) ,
∂12 f (x0 ) = ∂1 ◦ ∂1 f (x0 ) = ∂1,1 f (x0 ) ,
185
8 Differentialrechnung
wobei sich die Definitionsbereiche in natürlicher Weise ergeben. Hierbei seien ∂i0 die identischen Abbildungen,
∂i0 f (x0 ) = f (x0 ) .
Satz 8.6.14. Sei f ∈ Cm (D, R), D ⊆ Rn offen, x0 ∈ D. Dann gilt die Taylor-Formel
m
f (x0 + h) =
1
∑ k! (h1∂1 + · · · + hn∂n)k f (x0) + R(h)
für x0 + h ∈ D
k=0
mit
R(h)
khkm
→ 0 für h → 0. Ist f ∈ Cm+1 (D, R) so gilt
R(h) =
1
(h1 ∂1 + · · · + hn ∂n )m+1 f (x0 + ϑ (h) · h)
(m + 1)!
mit ϑ (h) ∈ [0, 1].
Bemerkung 8.6.15. Für k = 0 haben wir
1 1
(h ∂1 + · · · + hn ∂n )0 f (x0 ) = f (x0 ) .
0!
Für k = 1 ergibt sich
1 1
(h ∂1 + · · · + hn ∂n )1 f (x0 ) = ∂1 f (x0 )h1 + · · · + ∂n f (x0 )hn = grad f (x0 )> h .
1!
Bei k = 2 wird es schon komplizierter:
1 n
1 1
(h ∂1 + · · · + hn ∂n )2 f (x0 ) =
∂i ∂ j f (x0 )hi h j = h> H f (x0 )h ,
2!
2! i,∑
j=1
wobei die Hesse-Matrix
H f (x0 ) := ∂i ∂ j f (x0 ) i, j
nach Satz 8.6.11 symmetrisch ist.
Folgerung 8.6.16. Sei f ∈ C2 (D, R), D ⊆ Rn offen, x0 ∈ D. Dann gilt
1
f (x0 + h) = f (x0 ) + grad f (x0 )> h + h> H f (x0 )h + R(h) für x0 + h ∈ D
2
mit
186
R(h)
khk2
→ 0 für h → 0.
♦
8.6 Höhere, lokale Approximation
Beispiel 8.6.17. Sei f ∈ C2 (R2 , R) mit f (x, y) = sin(x + 2y). Dann gilt
grad f (x, y) = (cos(x + 2y), 2 cos(x + 2y))
− sin(x + 2y) −2 sin(x + 2y)
H f (x0 ) =
−2 sin(x + 2y) −4 sin(x + 2y)
und somit
1
f (x + h, y + k) = sin(x + 2y) + cos(x + 2y)(h + 2k) + sin(x + 2y)(− h2 − 2hk − 2k2 ) + R(h, k) .
2
♦
8.6.5 Hinreichende Bedingungen für lokale Extrema
Sei f : D( f ) ⊆ Rn → R. Satz 8.3.3 ergab grad f (x0 ) = 0 als notwendiges Kriterium für
ein lokales Extremum in einem inneren Punkt x0 ∈ D( f ), in dem f differenzierbar ist. Ein
innerer Punkt x0 von D( f ) mit grad f (x0 ) = 0 heißt daher kritischer Punkt.
Wir wollen nun hinreichende Bedingungen für lokale Maxima oder Minima finden.
Sei dazu f ∈ C2 (D, R) und x0 ∈ D ein kritischer Punkt. Nach Folgerung 8.6.16 gilt
1
f (x0 + h) = f (x0 ) + grad f (x0 )> h + h> H f (x0 )h + R(h)
|
{z
} 2
=0
mit
R(h)
khk2
→ 0 für h → 0.
Der Graph von
1
h 7→ f (x0 ) + h> H f (x0 )h
2
n+1
stellt eine Quadrik in R
dar: Der Graph besteht aus allen Punkten (h, κ) ∈ Rn+1 mit
1
f (x0 ) + h> H f (x0 )h − κ = 0 .
2
Definition 8.6.18. Sei A ∈ Rn×n . Eine Abbildung Q : Rn → R mit Q(x) = x> A x heißt
quadratische Form in Rn mit der Formmatrix A.
♦
Bemerkung 8.6.19. Es gilt
x> (A + A> )x = x> A x + x> A> x = x> A x + (x> A x)> = 2x> A x
und daher
1
B = B> = (A + A> ) .
2
Eine nichtsymmetrische Formmatrix A kann also stets durch die symmetrische Matrix 12 (A+
A> ) ersetzt werden.
♦
x> A x = x> B x
mit
187
8 Differentialrechnung
Im Folgenden gehen wir daher davon aus, daß die Formmatrix A symmetrisch ist.
Definition 8.6.20. Eine quadratische Form Q in Rn heißt
• positiv definit, wenn Q(x) > 0 für alle x ∈ Rn \ {0};
• positiv semidefinit, wenn Q(x) ≥ 0 für alle x ∈ Rn ;
• negativ definit, wenn Q(x) < 0 für alle x ∈ Rn \ {0};
• negativ semidefinit, wenn Q(x) ≤ 0 für alle x ∈ Rn ;
• indefinit, wenn sie weder positiv noch negativ semidefinit ist.
♦
Wie im nächsten Semester gezeigt wird, bildet obige Quadrik ein nach oben (unten) geöffnetes elliptisches Paraboloid, wenn die quadratische Form Q( f , x0 ) : Rn → Rn mit
1
Q( f , x0 )(h) = h 7→ h> H f (x0 )h
2
positiv (negativ) definit ist.
Wenn die Q( f , x0 ) hingegen indefinit ist, dann ist die Quadrik ein hyperbolisches Paraboloid.
188
8.6 Höhere, lokale Approximation
Da der Graph von f bei x0 in quadratischer Approximation durch diese Quadriken beschrieben wird, erhalten wir:
Satz 8.6.21. Sei f ∈ C2 (D, R), D ⊆ Rn offen, und x0 ein kritischer Punkt.
Wenn Q( f , x0 ) positiv (negativ) definit ist, dann hat f in x0 ein strenges lokales Minimum
(Maximum).
Wenn Q( f , x0 ) indefinit ist, dann hat f in x0 kein lokales Extremum.
Bemerkung 8.6.22. Es verbleibt also nur noch der Fall, daß H f (x0 ) positiv oder negativ
semidefinit ist. Hier ist ohne weitere Informationen (zum Beispiel über höhere Ableitungen)
keine Aussage möglich.
♦
Später werden wir ein Kriterium zur Untersuchung der Definitheit von Q( f , x0 ) über die
Eigenwerte von H f (x0 ) kennenlernen. Wir geben hier ein weiteres Kriterium an:
Sei A = (ai j )ni, j=1 ∈ Rn×n eine symmetrische Matrix. Mit µk bezeichnen wir den k-ten
Hauptminoren von A, d.h.
µk := det(ai j )ki, j=1 .
Satz 8.6.23. Sei Q(x) = ∑ni, j=1 ai j xi x j mit symmetrischer Matrix A = (ai j )ni, j=1 ∈ Rn×n .
• Q ist genau dann positiv definit (semidefinit), wenn alle Hauptminoren µk positiv (nichtnegativ) sind.
• Q ist genau dann negativ definit (semidefinit), wenn alle (−1)k µk positiv (nichtnegativ)
sind.
Bemerkung 8.6.24. Für n = 2 haben wir
a
a
µ1 = a11 , µ2 = 11 12
a12 a22
= a11 a22 − a212 .
♦
Ist x0 kritischer Punkt von f , so erhalten wir damit die hinreichenden Bedingungen
lokales Minimum:
lokales Maximum:
Sattelpunkt:
∂12 f (x0 ) > 0 und ∂12 f (x0 )∂22 f (x0 ) − (∂1,2 f (x0 ))2 > 0
∂12 f (x0 ) < 0 und ∂12 f (x0 )∂22 f (x0 ) − (∂1,2 f (x0 ))2 > 0
∂12 f (x0 )∂22 f (x0 ) − (∂1,2 f (x0 ))2 < 0
Beispiel 8.6.25. Sei f (x, y) = 3x2 y + 4y3 − 3x2 − 12y2 + 1 auf R2 . Wir haben
grad f (x, y) = (6xy − 6x, 3x2 + 12y2 − 24y)
189
8 Differentialrechnung
und daher
(0, 0) ,
(0, 2) ,
(2, 1) ,
(−2, 1)
als kritische Punkte.
Weiter gilt
∂12 f (x, y) = 6y − 6 ,
(x, y)
(0, 0)
(0, 2)
(2, 1)
(−2, 1)
∂22 f (x, y) = 24y − 24 ,
∂12 f (x, y) ∂22 f (x, y) ∂1,2 f (x, y)
−6
−24
0
6
24
0
0
0
12
0
0
−12
∂1,2 f (x, y) = 6x .
♦
lokales Maximum
lokales Minimum
kein lok. Extremum aber Sattelpunkt
kein lok. Extremum aber Sattelpunkt
Bemerkung 8.6.26. Sei f ∈ Ck (D, R), D ⊆ R offen, k ≥ 2. Sei x0 kritischer Punkt. Keine
Entscheidung ist möglich im indefiniten Fall, d.h., hier f 0 (x0 ) = 0, f 00 (x0 ) = 0. Ist k > 2
kann man aber versuchen, höhere Glieder im Taylor-Polynom zu verwenden.
♦
8.6.6 Extremwertprobleme mit Nebenbedingungen
Beispiel 8.6.27. Gesucht ist ein Rechteck maximalen Flächeninhalts bei vorgegebenem
Umfang u. Wir haben also f (x, y) = xy, D( f ) = R≥0 × R≥0 zu maximieren unter der Nebenbedingung 2(x + y) = u.
Aus der Nebenbedingung finden wir y = u/2 − x. Damit ist
g(x) = f (x, u/2 − x) = x(u/2 − x)
auf [0, u/2] zu maximieren. Es gilt g0 (x) = u/2 − 2x, so daß sich x0 = u/4 ∈ [0, u/2] als
kritischer Punkt ergibt. Offensichtlich ist dies auch die globale Maximalstelle.
Das Rechteck mit größtem Flächeninhalt bei gegebenem Umfang ist also das Quadrat.
♦
Verallgemeinerung: Gegeben sei eine Funktion f : D( f ) ⊆ Rn → R und eine Nebenbedingungs- oder Restriktionsmenge
N := {x ∈ D( f ) : ϕ(x) = 0}
mit ϕ : D( f ) → R p , d.h. mit p Nebenbedingungen in Gleichungsform.
Definition 8.6.28. f hat in x0 ∈ N ein relatives oder bedingtes Maximum (Minimum)
unter der Nebenbedingung N, wenn eine Umgebung U von x0 existiert, so daß f (x) ≤
f (x0 ), ( f (x) ≥ f (x0 )) für alle x ∈ U ∩ N ∩ D( f ).
♦
190
8.6 Höhere, lokale Approximation
Satz 8.6.29. Seien f ∈ C1 (D( f ), R), ϕ ∈ C1 (D( f ), R p ) mit offenem D( f ) ⊆ Rn , n ≥ p. Sei
weiter N = {x ∈ D( f ) : ϕ(x) = 0}, x0 ∈ N, d.h., ϕ(x0 ) = 0, und rang(ϕ 0 (x0 )) = p.
Wenn f in x0 ein relatives Extremum unter der Nebenbedingung N hat, dann existieren
Zahlen λ1 , . . . , λ p mit
p
grad f (x0 ) − ∑ λ j grad ϕ j (x0 ) = 0 ,
ϕ(x0 ) = 0 .
(8.6.7)
j=1
Bemerkung 8.6.30. 1. Das Kriterium ist im allgemeinen nicht hinreichend, das heißt, ob
in einer kritischen Stelle tatsächlich ein Extremum vorliegt, muß natürlich noch geprüft
werden.
2. (8.6.7) ist ein nichtlineares System von n + p Gleichungen für die n + p Unbekannten
x01 , . . . , x0n , λ1 , . . . , λ p . Setzt man
p
F(x, λ ) = f (x) − ∑ λ j ϕ j (x)
j=0
so erhält man (8.6.7) durch
grad F(x, λ ) = 0 .
3. Im Falle p = 1 lautet die Rangeigenschaft grad ϕ(x0 ) 6= 0. (8.6.7) bedeutet dann, daß
grad f (x0 ) und grad ϕ(x0 ) parallel sind.
4. Die Zahlen λi heißen Lagrange-Multiplikatoren. Meist haben sie keine inhaltliche Bedeutung. In einigen Fällen können sie aber als Zwangskräfte (Physik) oder Schattenpreise
(Wirtschaft) interpretiert werden.
♦
Beispiel 8.6.31. Man finde alle Punkte (x, y) auf der Ellipse ϕ(x, y) := 4x2 + y2 − 4 = 0, für
welche der Abstand zu (2, 0) extremal wird.
Da der Abstand genau dann extremal wird, wenn sein Quadrat extremal wird, können wir
also nach Extremstellen von f (x, y) = (x − 2)2 + y2 suchen. Da
grad f (x) = (2(x − 2), 2y) ,
grad ϕ(x) = (8x, 2y) ,
erhalten wir als notwendige Bedingung
2(x0 − 2) − 8λ x0 = 0 ,
2y0 − 2λ y0 = 0 ,
4x02 + y20 = 4 .
√
√
Wenn y0 6= 0, dann ist λ = 1 und daher x0 = − 23 und y0 = − 23 5 oder y0 = + 23 5.
Wenn y0 = 0, dann ist x0 = 1 oder x0 = −1 mit λ = − 41 bzw. λ = 34 .
√ √ Durch geometrische Betrachtungen erhalten wir, daß in − 23 , − 23 5 und − 23 , + 23 5
relative Maxima und in (1, 0), (−1, 0) relative Minima vorliegen.
♦
191
8 Differentialrechnung
8.7 Potenzreihen und Taylor-Reihen
Im Abschnitt 8.6.2 sahen wir, daß man bestimmte Funktionen wie exp, sin und cos in eine
sogenannte Taylor-Reihen entwickeln kann. Wir werden sehen, daß Taylor-Reihen spezielle
Potenzreihen sind.
Entstehende Fragen sind nun:
• Was ist und wo konvergiert eine Potenzreihe?
• Ist die Entwicklung einer Funktion f in der Nähe eines Punktes x0 ∈ D( f ) in eine Potenzreihe bzw. Taylor-Reihe eindeutig?
• Wie glatt ist eine Potenzreihe?
8.7.1 Potenzreihen
Definition 8.7.1. Seien an ∈ R, n ∈ N und x0 ∈ R. Dann heißt die Folge (pn )n∈N der Polynome pn : R → R mit
n
pn (x) =
∑ ak (x − x0)k
k=0
eine Potenzreihe um x0 mit den Koeffizienten an (Beachte hier: 1 = 00 ). Die Grenzfunktion P : D(P) ⊆ R → R mit
∞
P(x) =
∑ an(x − x0)n
∞
für
x ∈ D(P) := {y ∈ R :
n=0
∑ an(y − x0)n konvergiert}
n=0
heißt ebenfalls Potenzreihe oder auch Summe der Potenzreihe.
∞
n
n
Wir nennen die Potenzreihe ∑∞
n=0 an (x − x0 ) absolut konvergent, wenn ∑n=0 |an | · |x − x0 |
konvergiert.
♦
n
Bemerkung 8.7.2. 1. Mit der Substitution t = x −x0 erhalten wir die Potenzreihe ∑∞
n=0 ant
um 0. Man kann also o.B.d.A. von x0 = 0 ausgehen. Dies werden wir im folgenden so tun.
2. Fehlende xn -Terme haben den Koeffizienten an = 0.
3. Die Partialsummen pn (x) = ∑nk=0 ak (x − x0 )k sind Polynome vom Grad kleiner oder
gleich k in x. Sie sind auf R definiert.
4. Obwohl alle Partialsummen auf R definiert sind, muß die Potenzreihe nicht für alle x ∈ R
konvergieren, d.h., die Grenzfunktion muß nicht auf ganz R definiert sein.
n
5. Jede Potenzreihe ∑∞
n=0 an (x − x0 ) konvergiert mindestens in x0 .
192
♦
8.7 Potenzreihen und Taylor-Reihen
x
Beispiel 8.7.3. 1. Wir betrachten die Potenzreihe ∑∞
n=0 n! . Für die Folge der Partialsummen
an der Stelle x = 20 erhalten wir die ersten 11 Folgenglieder (näherungsweise)
n
1, 21, 221, 1554.3, 8221, 34887.6, 1.2 · 105 , 3.8 · 105 , 1.0 · 106 , 2.4 · 106 , 5.2 · 106 .
Sie konvergiert aber trotzdem für alle x ∈ R gegen ex , da sie die schon bekannte TaylorReihe zu exp um x0 = 0 ist, die Grenzfunktion ist also exp.
n
2. Die Potenzreihe ∑∞
n=0 x (geometrische Reihe) ist absolut konvergent für alle x ∈ ] − 1, 1[
1
1
. Für |x| ≥ 1 ist sie divergent. Die Grenzfunktion P ist also P(x) = 1−x
auf
gegen 1−x
D(P) = ] − 1, 1[.
n
3. Die Potenzreihe ∑∞
n=0 n!x konvergiert nur für x = 0. Die Grenzfunktion P ist hier
P(x) = 1 auf D(P) = {0}.
∞ x
n
4. In der Potenzreihe ∑∞
n=0 an x = ∑n=0 n! sind die Koeffizienten a2i+1 , i ∈ N, alle 0. Setzen
wir t = x2 , so erhalten wir
∞ 2n
∞ n
2
x
t
∑ n! = ∑ n! = et = ex .
n=0
n=0
2n
2
Die Grenzfunktion P ist hier also P(x) = ex auf D(P) = R.
♦
8.7.2 Konvergenzradius
n
Satz 8.7.4. Für jede Potenzreihe ∑∞
n=0 an x existiert genau ein ρ ∈ R≥0 ∪ {∞} mit den folgenden Eigenschaften:
1. Die Potenzreihe konvergiert absolut für alle x ∈ R mit |x| < ρ.
2. Sie divergiert für alle x ∈ R mit |x| > ρ.
(Quotientenkriterium) Es gilt
an
|,
an+1
falls der Grenzwert zumindest im uneigentlichen Sinne existiert.
ρ = lim |
n→∞
(8.7.1)
(Wurzelkriterium) Wenn
W := lim
n→∞
p
n
|an |
(8.7.2)
zumindest im uneigentlichen Sinne existiert, so gilt ρ = W1 für W ∈ ]0, ∞[, ρ = 0 für W = ∞
und ρ = ∞ für W = 0.
Beweis. Die allgemeine Aussage zur Existenz und den Eigenschaften von ρ können wir
hier nicht zeigen. Sei ρ durch (8.7.1) gegeben. Sei x ∈ R6=0 fixiert. Dann gilt
lim |
n→∞
an+1 xn+1
an+1 x
an+1
|x|
|
=
lim
|
|
=
|x|
lim
|
|
=
.
n→∞
n→∞ an
an x n
an
ρ
193
8 Differentialrechnung
Nach dem Quotientenkriterium für Zahlenreihen (Satz 6.2.23) folgt die Konvergenz für
x ∈ R mit |x| < ρ und die Divergenz für |x| > ρ.
Sei nun ρ durch (8.7.2) gegeben. Sei x ∈ R6=0 fixiert. Dann gilt
p
p
p
p
lim n |an xn | = lim n |an | · |xn | = lim n |an | · |x|n = |x| lim n |an | = |x|W ,
n→∞
n→∞
n→∞
n→∞
und die Aussage folgt aus dem Wurzelkriterium für Zahlenreihen (Satz 6.2.21).
Definition 8.7.5. Die Zahl ρ aus obigen Satz heißt Konvergenzradius der Reihe.
an
x
Beispiel 8.7.6. 1. Für ∑∞
n=0 n! haben wir ρ = limn→∞ | an+1 | = limn→∞ |
n
1| = ∞.
1
n!
1
(n+1)!
♦
| = limn→∞ |n+
an
1
n
2. Für ∑∞
n=0 x erhalten wir ρ = limn→∞ | an+1 | = limn→∞ | 1 | = limn→∞ |1| = 1.
an
n!
1
n
3. Für ∑∞
n=0 n!x gilt ρ = limn→∞ | an+1 | = limn→∞ | (n+1)! | = limn→∞ | n+1 | = 0.
1 n
4. In der Potenzreihe ∑∞
n=1 n x ist an =
lim |
n→∞
1
n
für n ≥ 1. Der Grenzwert
an
n
|=1
| = lim |
n→∞
an+1
n+1
existiert. Daher finden wir hier den Konvergenzradius ρ = 1.
n
n
n
5. In der Potenzreihe ∑∞
n=0 (2 + 1)x ist an = (2 + 1) > 0 und der Grenzwert
lim |
n→∞
an
1
2n + 1
|=
| = lim | n+1
n→∞ 2
an+1
+1
2
existiert. Daher finden wir hier den Konvergenzradius ρ = 21 .
n n
6. In der Potenzreihe ∑∞
n=1 n! x ist an =
n
nn
n!
> 0 und der Grenzwert
n
an
1 n
1
nn (n + 1)!
n
lim |
| = lim |
| = lim
= lim 1 −
|=
n+1
n→∞ an+1
n→∞ n!(n + 1)
n→∞ n + 1
n→∞
n
e
existiert. Daher finden wir hier den Konvergenzradius ρ = 1e .
2 n n
2 n
7. In der Potenzreihe ∑∞
n=1 n 2 x ist an = n 2 und, wegen
√
√
√
√
√
n
n
lim n an = lim n2 2n = 2 lim n2 = 2 lim n n lim n n = 2 ,
n→∞
n→∞
n→∞
n→∞
n→∞
erhalten wir den Konvergenzradius ρ = 12 .
n
8. In der Potenzreihe ∑∞
n=1 n!x ist an = n! und, wegen
√
√
n
lim n an = lim n! = ∞ ,
n→∞
erhalten wir den Konvergenzradius ρ = 0.
194
n→∞
♦
8.7 Potenzreihen und Taylor-Reihen
Zur Abschätzung des Konvergenzradius ist oft folgender Satz hilfreich:
n
Satz 8.7.7. 1. Ist die Reihe ∑∞
n=0 an x konvergent für ein x = r, so ist die Reihe absolut
konvergent für alle x mit |x| < |r|, und für den Konvergenzradius ρ gilt ρ ≥ |r|.
n
2. Ist die Reihe ∑∞
n=0 an x divergent für ein x = s, so ist die Reihe divergent für alle x mit
|x| > |s|, und für den Konvergenzradius ρ gilt ρ ≤ |s|.
Beweis. 1. Da die Reihe für x = r konvergiert, kann nach Satz 8.7.4 nicht |r| > ρ gelten.
2. Wenn die Reihe für x = s divergiert, so kann nach Satz 8.7.4 nicht |s| < ρ gelten.
1 n
Beispiel 8.7.8. Die Potenzreihe ∑∞
n=1 n x divergiert für x = 1 (harmonische Reihe!). Damit
haben wir ρ ≤ 1. Sie konvergiert aber auch für x = −1 (alternierende harmonische Reihe).
Damit haben wir ρ ≥ 1. Somit gilt ρ = 1 und sie konvergiert absolut für x mit |x| < 1, und
sie divergiert für x mit |x| > 1.
♦
8.7.3 Rechnen mit Potenzreihen
∞
n
n
Satz 8.7.9. Haben die Potenzreihen ∑∞
n=0 an x und ∑n=0 bn x die Konvergenzradien ρa und
ρb , so gilt für alle x ∈ R mit |x| < min{ρa , ρb } und für λ , µ ∈ R
λ
und
∞
∞
∞
n=0
n=0
n=0
∑ anxn + µ ∑ bnxn = ∑ (λ an + µbn)xn
"
∞
# "
∑ an x n ·
n=0
∞
#
∑ bn x n =
n=0
∞
∑ cnxn
n=0
mit
n
cn = a0 bn + a1 bn−1 + · · · + an b0 =
∑ ak bn−k .
k=0
Bemerkung 8.7.10. 1. Potenzreihen können also gliedweise addiert (bzw. subtrahiert) werden und der Konvergenzradius der entstehenden Reihe ist mindestens min{ρa , ρb }.
2. Die Multiplikation von Potenzreihen erfolgt nicht gliedweise, sondern nach dem im Satz
genannten Cauchy-Produkt.
♦
n
Satz 8.7.11. Die Potenzreihe ∑∞
n=0 an x habe den Konvergenzradius ρ. Sei P die Summe
der Potenzreihe. Dann gilt:
1. P ist differenzierbar auf ] − ρ, ρ[, und es gilt
!0
P0 (x) =
∞
∑ an x n
n=0
∞
=
∑ (anxn)0 =
n=0
∞
∑ nanxn−1
(x ∈ ] − ρ, ρ[) .
n=1
195
8 Differentialrechnung
n−1 hat wieder den Konvergenzradius ρ.
Die Potenzreihe ∑∞
n=1 nan x
2. P ist integrierbar auf jedem Intervall [a, b] ⊂ ] − ρ, ρ[ , und es gilt
Z x ∞
Z x
P(t) dt =
0
∑ ant n dt =
0 n=0
∞
∑
Z x
n=0 0
ant n dt =
∞
1
∑ n + 1 anxn+1
(x ∈ [a, b]) .
n=0
1
n+1 hat wieder den Konvergenzradius ρ.
Die Potenzreihe ∑∞
n=0 n+1 an x
Bemerkung 8.7.12. 1. Potenzreihen sind also gliedweise differenzierbar und integrierbar;
bezüglich Integration siehe Kapitel ??. Bei Potenzreihen können die Grenzwertbildung der
Differentiation bzw. Integration mit der Grenzwertbildung der Reihe vertauscht werden.
Für andere Funktionenreihen oder -folgen gilt dies nicht unbedingt!
2. Die Grenzfunktionen von Potenzreihen sind somit im Innern des Konvergenzintervalls
stetig und beliebig oft differenzierbar.
♦
∞
n
n
Satz 8.7.13 (Identitätssatz). Seien ∑∞
n=0 an (x − x0 ) und ∑n=0 bn (x − x0 ) zwei Potenzreihen mit den Konvergenzradien ρa und ρb und den Grenzfunktionen f und g. Gilt f (ξi ) =
g(ξi ) für eine Folge (ξi )i∈N von Punkten ξi ∈ ]x0 − min{ρa , ρb }, x0 + min{ρa , ρb }[ \{x0 } mit
ξi → x0 , so gilt
ρa = ρb ,
f = g,
an = bn =
f (n) (x0 )
n!
(n ∈ N) .
Bemerkung 8.7.14. 1. Man vergleiche die Aussage mit der Aussage zur Identität von Polynomen.
2. Die Potenzreihendarstellung einer Funktion f um x0 ist also eindeutig.
3. Entwickelt man die Grenzfunktion einer Potenzreihe um 0 in eine Taylor-Reihe um 0 ,
so erhält man wieder diese Potenzreihe (Vergleiche: Polynom und Taylor-Polynom).
4. Der Weg zur Bestimmung einer Potenzreihendarstellung einer Funktion f muß also nicht
immer über den Satz von Taylor erfolgen.
♦
n
Beispiel 8.7.15. 1. Die Potenzreihe ∑∞
n=0 x hat den Konvergenzradius ρ = 1 und die Summe
∞
1
f (x) = ∑ xn =
für x ∈ ] − 1, 1[ .
1−x
n=0
Gliedweises Differenzieren liefert
f 0 (x) =
196
∞
1
=
nxn−1
∑
(1 − x)2 n=1
für x ∈ ] − 1, 1[ .
8.7 Potenzreihen und Taylor-Reihen
Weiter gilt
f
(k)
∞
∞ k!
n n−k
n−k
(x) =
= ∑ n(n − 1) · · · (n − k + 1)x
=∑
x
k+1
(1 − x)
n=k
n=k k
für x ∈ ] − 1, 1[ .
n 2n
2. Die Potenzreihe ∑∞
n=0 (−1) x hat den Konvergenzradius ρ = 1 und die Summe
∞
f (x) =
1
∑ (−1)nx2n = 1 + x2
für x ∈ ] − 1, 1[ .
n=0
Dies folgt aus dem vorherigen Beispiel, wenn man x durch −x2 ersetzt. Durch gliedweise
Integration erhalten wir
Z x
arctan x =
0
∞
=
1
dt =
1 + t2
Z x ∞
∑ (−1) t
n 2n
0 n=0
1
dt =
∞
∑
Z x
(−1)nt 2n dt
n=0 0
(−1)n 2n+1
∑ (−1)n 2n + 1 t 2n+1t=0 = ∑ 2n + 1 x
t=x
n=0
also
∞
∞
,
n=0
(−1)n
∑ 2n + 1 x2n+1 = arctan x
für x ∈ ] − 1, 1[ .
n=0
Im Grenzfall x = 1 erhalten wir
∞
(−1)n
∑ 2n + 1 = 4 ,
π
n=0
d.h., eine (langsam konvergente) Reihe zur Berechnung von π.
♦
197
Herunterladen