Kurzskript - Universität Stuttgart

Werbung
Höhere Mathematik I
Universität Stuttgart, WS 2008/09
Prof. Dr. M. Griesemer
Inhaltsverzeichnis
1 Grundlagen
1.1 Aussagenlogik . . . . . . . . . . . .
1.2 Mengen . . . . . . . . . . . . . . .
1.3 Abbildungen . . . . . . . . . . . . .
1.4 Reelle Zahlen . . . . . . . . . . . .
1.5 Komplexe Zahlen . . . . . . . . . .
1.6 Polynome und rationale Funktionen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Lineare Algebra
2.1 Rn und Cn als Vektorräume . . . . . . . . . . . . . . .
2.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . .
2.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Das Gaußsche Lösungsverfahren . . . . . . . . . . . . .
2.5 Die Matrizenmultiplikation . . . . . . . . . . . . . . . .
2.6 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . .
2.7 Basis und Dimension . . . . . . . . . . . . . . . . . . .
2.8 Elementarmatrizen und elementare Umformungen . . .
2.9 Determinanten . . . . . . . . . . . . . . . . . . . . . .
2.10 Rn als Euklidischer Vektorraum . . . . . . . . . . . . .
2.11 Lineare Abbildungen . . . . . . . . . . . . . . . . . . .
2.12 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . .
2.13 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . .
2.14 Symmetrische Matrizen und quadratische Formen . . .
2.15 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . .
2.16 PageRank: die Bewertung einer Webpage durch Google
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
4
6
10
13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
15
16
18
20
22
24
25
26
29
32
36
37
39
42
44
3 Konvergenz und Stetigkeit
45
3.1 Zahlenfolgen und Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Grenzwerte von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.3 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1
4 Differentialrechnung
4.1 Die Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Der Mittelwertsatz und Anwendungen der Differentialrechnung
4.3 Umkehrfunktionen . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Exponentialfunktion und Logarithmus . . . . . . . . . . . . .
4.5 Konvexe Funktionen . . . . . . . . . . . . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
61
65
68
71
1
Grundlagen
1.1
Aussagenlogik
Eine Aussage ist ein Satz in Worten oder Zeichen, welche eindeutig als wahr oder falsch
deklariert werden kann.
Aussagen sind:
• 2+2=5
• Durch zwei verschiedene Punkte gibt es genau eine Gerade
• Morgen scheint die Sonne
Keine Aussagen sind:
• Elektronen sind blau
• Die Beatles waren bessere Musiker als Beethoven
Ein Axiom oder ein Postulat ist eine Aussage, welche gemäß Vereinbarung wahr ist.
Beispiele:
• Zu jeder Geraden g und zu jedem nicht auf g liegenden Punkt P gibt es genau
eine Gerade, welche durch P verläuft und zu g parallel ist.
• Die Lichtgeschwindigkeit im Vakuum ist unabhängig vom Bewegungszustand von
Quelle und Beobachter.
Ein Theorem, Satz, Lemma oder Korollar ist eine wahre Aussage, welche aus den
Axiomen hergeleitet werden kann.
Eine Aussagenform ist ein Satz in Worten oder Zeichen, welcher mindestens eine Variable enthält, und für jede zulässige Belegung der Variablen zu einer Aussage wird (Bsp.:
x < 1).
Nicht, und, oder
Wir benutzen a, b, c . . . zur Abkürzung von Aussagen (a := 5 ist eine Primzahl.“) Die
”
möglichen Wahrheitswerte einer Aussage bezeichnen wir mit 1 (wahr) und 0 (falsch).
Die Wahrheitswerte der neuen Aussagen:
¬a nicht a“
”
a ∨ b a oder b“
”
a ∧ b a und b“
”
¬a a b a ∨ b a ∧ b
1 0 0
0
0
0 1 0
1
0
1 0 1
1
0
0 1 1
1
1
hängen nur von den Wahrheitswerten von a und b ab, und sind definiert durch obige
Wahrheitswertetabelle.
Implikation und Äquivalenz
Seien a und b zwei Aussageformen.
a⇒b:
aus a folgt b“
”
bedeutet: falls a wahr ist, dann ist auch b wahr,
a ⇔ b : a ist äquivalent zu b“
”
bedeutet: a ist genau dann wahr, wenn b wahr ist.
Bemerkung: a ⇒ b und a ⇔ b sind keine Aussagen, sondern beschreiben Beziehungen
zwischen den Aussageformen a und b. (siehe Vortragsübung)
Satz 1.1. Die Implikation a ⇒ b und deren Kontraposition ¬b ⇒ ¬a sind logisch
äquivalent.
Beweis: Vortragsübung.
Satz 1.2 (De Morgansche Regeln).
¬(a ∧ b) ⇔ ¬a ∨ ¬b
¬(a ∨ b) ⇔ ¬a ∧ ¬b
Satz 1.3 (Distributivgesetze).
a ∧ (b ∨ c) ⇔ (a ∧ b) ∨ (a ∧ c)
a ∨ (b ∧ c) ⇔ (a ∨ b) ∧ (a ∨ c).
Quantoren
Sei a(x) eine Aussageform.
∀x : a(x)
für alle x gilt a(x)“
”
ist die und-Verknüpfung aller Aussagen a(x). Man schreibt daher auch
∃x : a(x)
V
x : a(x).
es gibt ein x, so dass a(x) gilt“
”
ist die oder-Verknüpfung aller Aussagen a(x). Man schreibt daher auch
W
x : a(x).
De Morgansche Regeln:
¬∀x : a(x) ⇔ ∃x : ¬a(x),
¬∃x : a(x) ⇔ ∀x : ¬a(x).
1.2
Mengen
Eine Menge M ist eine Zusammenfassung von Objekten m, genannt Elemente von
M , zu einem Ganzen.
m ∈ M : m ist Element von M “
”
m 6∈ M : m ist nicht Element von M “.
”
2
∅ bezeichnet die leere Menge (sie enthält kein Element).
Mengen kann man beschreiben durch Aufzählung der Elemente:
{1, 3, 7} = {3, 1, 7} = {1, 1, 3, 7}
oder mit Hilfe einer Aussageform a(x):
M := {x ∈ X|a(x)}
ist die Menge der Elemente x ∈ X für welche die Aussage a(x) wahr ist.
Wichtige Beispiele
N := {1, 2, 3, . . .} Menge der natürlichen Zahlen,
N0 := {0, 1, 2, 3, . . .}
Z := {0, ±1, ±2, . . .} Menge der ganzen Zahlen,
m
Q := { |(m ∈ Z) ∧ (n ∈ N)} Menge der rationalen Zahlen,
n
R := Menge der reellen Zahlen,
C := Menge der komplexen Zahlen.
Teilmengen
Eine Menge A heißt Teilmenge der Menge B:
A⊂B
falls jedes Element von A auch ein Element von B ist. Dabei ist A = B erlaubt. Es gilt
also:
∅ ⊂ A,
A ⊂ A.
Beispiele: N ⊂ N0 ⊂ Z ⊂ Q ⊂ R ⊂ C.
Die Menge aller Teilmengen einer Menge A heißt Potenzmenge von A und wird mit
P(A) bezeichnet.
Beispiel:
P({1, 3, 7}) = ∅, {1}, {3}, {7}, {1, 3}, {1, 7}, {3, 7}, {1, 3, 7} .
3
Mengenoperationen
Seien A und B zwei Mengen.
A ∩ B := {x|x ∈ A ∧ x ∈ B}
A ∪ B := {x|x ∈ A ∨ x ∈ B}
A\B := {x|x ∈ A ∧ x 6∈ B}
= {x ∈ A|x 6∈ B}.
Durchschnitt
Vereinigung
Differenz
Die Mengen A und B heißen disjunkt, falls A ∩ B = ∅. Falls A Teilmenge einer Grundmenge X ist, über welche kein Zweifel besteht, dann heißt
Ac := X\A,
das Komplement von A.
Kartesisches Produkt
Das kartesische Produkt von zwei Mengen A, B ist die Menge
A × B := {(x, y)|x ∈ A, y ∈ B}
der geordneten Paare (a, b). Also B × A 6= A × B.
Für n Mengen A1 , . . . An ist
A1 × A2 × · · · An := {(a1 , . . . , an )|ai ∈ Ai }
die Menge der geordneten n-Tupel (a1 , . . . , an ), und
An := A
× · · · A} .
| × A{z
n Faktoren
1.3
Abbildungen
Seien A, B zwei beliebige Mengen. Eine Abbildung oder Funktion f von A nach B,
in Zeichen:
f : A → B,
ist eine Vorschrift, welche jedem Element x ∈ A ein Element y ∈ B zuordnet. Man
schreibt
y = f (x), oder f : x 7→ f (x).
A heißt Definitionsbereich, f (A) := {f (x)|x ∈ A} heißt Wertebereich oder Bildmenge von f . f ist der Name der Funktion und f (x) ist der Wert der Funktion an
der Stelle x. Für U ⊂ A und V ⊂ B ist
f (U ) := {f (x)|x ∈ U }
f (V ) := {x|f (x) ∈ V }
−1
Bild von U,
Urbild von V.
Der Graph der Abbildung f ist die Menge
G(f ) := {(x, y)|x ∈ A, y = f (x)}.
4
Die Umkehrabbildung
Eine Abbildung f : A → B heißt injektiv, falls für alle x, y ∈ A gilt:
⇒
f (x) = f (y)
x = y.
f heißt surjektiv, falls f (A) = B, und f heißt bijektiv, falls f injektiv und surjektiv
ist. Ist f bijektiv, dann existiert die Umkehrabbildung f −1 : B → A, definiert durch
y = f (x)
⇔
x = f −1 (y).
Es gilt also
f −1 (f (x)) = x und f (f −1 (y)) = y.
Vorsicht: f −1 (y) 6= f (y)−1 !
Im Fall A, B ⊂ R bekommt man den Graphen von f −1 durch Spiegelung des Graphen
von f an der Geraden y = x in R2 .
Einschränkung einer Funktion
Sei f : A → B gegeben und sei U ⊂ A. Die Einschränkung oder Restriktion von f
auf U ist die neue Abbildung
f U : U → B,
(f U )(x) = f (x).
Bemerkungen.
• Durch geeignete Wahl von U kann eine nicht-injektive Funktion injektiv gemacht
werden.
• Falls B wählbar ist, dann wird f durch die Wahl B = f (A) surjektiv.
Beispiel. Mit f (x) = x2 meint man in der Regel eine Funktion, mit A = B = R. f ist
also weder injektiv noch
√ surjektiv. Durch die Wahl A = B = {x ∈ R|x ≥ 0} wird f
−1
bijektiv und f (x) = x.
Komposition von Funktionen
Sind f : X → Y und g : Y → Z zwei gegebene Abbildungen, dann ist die Verknüpfung
(Zusammensetzung, Komposition)
g◦f :X →Z
von f und g definiert durch
(g ◦ f )(x) := g(f (x)).
Satz 1.4. Die Verknüpfung von Abbildungen ist assoziativ. D.h., wenn f : X → Y, g :
Y → Z und h : Z → W , dann
(h ◦ g) ◦ f = h ◦ (g ◦ f ).
Satz 1.5. Sind f : X → Y und g : Y → Z bijektiv, dann ist auch g ◦ f : X → Z bijektiv
und es gilt
(g ◦ f )−1 = f −1 ◦ g −1 .
5
1.4
Reelle Zahlen
Vollständige Induktion
Die Elemente von N := {1, 2, 3. . . .} heißen natürliche Zahlen. Alle Eigenschaften der
natürlichen Zahlen, z.B.
• m, n ∈ N ⇒ m + n ∈ N, m · n ∈ N
• Jede nichtleere Teilmenge von N hat ein kleinstes Element.
lassen sich aus fünf Axiomen herleiten (Peanosche Axiome, siehe Bärwolff). Das wichtigste für uns ist das Induktionsaxiom:
Falls M ⊂ N, 1 ∈ M und n ∈ M ⇒ (n + 1) ∈ M ,
dann gilt M = N.
Beweisprinzip der vollständigen Induktion: Sei n0 ∈ Z und für jedes n ≥ n0 sei
a(n) eine Aussage. Falls:
1. a(n0 ) ist wahr,
2. a(n) ⇒ a(n + 1),
dann ist a(n) wahr für alle n ≥ n0 .
(Wähle M = {k ∈ N|a(n0 − 1 + k) ist wahr} im Induktionsaxiom)
Rekursive Definitionen
Fakultät:
0! = 1,
(n + 1)! = n! · (n + 1)
Potenzen:
a0 := 1,
an+1 := an · a,
für alle a ∈ R.
Summen und Produktzeichen:
n
X
ak = a1 + a2 + . . . + an ,
k=1
n
Y
ak = a1 a2 · · · an
k=1
werden rekursiv definiert:
1
X
k=1
1
Y
n+1
X
ak := a1 ,
k=1
n+1
Y
ak := a1 ,
k=1
k=1
6
ak :=
n
X
ak + an+1
k=1
ak :=
n
Y
k=1
ak · an+1
Binomialkoeffizienten
Für k, n ∈ N0 mit k ≤ n definiert man
n
n!
n(n − 1) . . . (n − k + 1)
:=
=
k
k!(n − k)!
k!
Es gilt
n
n
=1=
,
0
n
n
n
=
.
k
n−k
Lemma 1.6. Für alle k, n ∈ N mit k ≤ n gilt
n+1
n
n
=
+
.
k
k−1
k
Bemerkung: diese Rekursionsbeziehung führt auf das Pascalsche Dreieck.
Binomische Formel
Satz 1.7. Für beliebige a, b ∈ R und jede natürliche Zahl n gilt
n X
n n−k k
n
(a + b) =
a b .
k
k=0
Rationale und irrationale Zahlen
Reelle Zahlen, die sich schreiben lassen als m/n mit m ∈ Z und n ∈ N heißen rationale
Zahlen. Reelle Zahlen, welche sich nicht so schreiben lassen heißen irrationale Zahlen.
Die Summe m/n + p/q und das Produkt m/n · p/q von zwei rationalen Zahlen ist wieder
eine rationale Zahl, und wenn m/n 6= 0, dann ist auch die Inverse n/m eine rationale
Zahl.
√
Es gibt aber auch irrationale Zahlen! Zum Beispiel: 2, π, e = 2.71828 . . .
Satz 1.8. Eine reelle Zahl ist genau dann rational, wenn sie eine abbrechende oder eine
periodische Dezimalbruchdarstellung hat. Es gilt
0.b1 b2 . . . bk =
b 1 b 2 . . . bk
99 . . . 9
mit k Neunen im Nenner.
Wir stellen uns reelle Zahlen als Punkte auf der Zahlengeraden vor.
Intervalle
Seien a, b ∈ R. a < b, sprich a ist kleiner als b“, bedeutet dass b − a > 0, und a ≤ b ⇔
”
(a < b) ∨ a = b.
Eine Teilmenge I ⊂ R heißt Intervall, falls
x, y ∈ I ∧ (x < t < y) ⇒ t ∈ I.
7
Für a, b ∈ R definiert man
[a, b]
(a, b)
[a, b)
(a, b]
[a, ∞)
(a, ∞)
:=
:=
:=
:=
:=
:=
{x ∈ R|a ≤ x ≤ b}
{x ∈ R|a < x < b}
{x ∈ R|a ≤ x < b}
{x ∈ R|a < x ≤ b}
{x ∈ R|a ≤ x}
{x ∈ R|x > a},
abgeschlossenes Intervall
offenes Intervall
und analog für (−∞, b] und (−∞, b). Die Intervalle [a, b) und (a, b] nennt man halboffen.
(±∞ sind keine reelle Zahlen!)
Schranken und Vollständigkeitsaxiom
Sei S ⊂ R. S heißt nach oben beschränkt, falls ein b ∈ R existiert, mit
S ⊂ (−∞, b]
(d.h. x ∈ S ⇒ x ≤ b)
Die Zahl b nennt man dann eine obere Schranke von S. Die Menge S heißt nach unten
beschränkt, falls eine Zahl a ∈ R existiert, mit S ⊂ [a, ∞), und dann heißt a eine untere
Schranke. Die Menge S heißt beschränkt, wenn sie eine untere Schranke a und eine
obere Schranke b hat, so dass S ⊂ [a, b].
Vollständigkeitsaxiom:
Jede nicht leere, nach oben beschränkte Menge S ⊂ R,
hat eine kleinste obere Schranke, genannt Supremum von S, sup(S).
Bemerkungen:
• Das Vollständigkeitsaxiom garantiert die Existenz irrationaler Zahlen, wie z.B.
√
2 = sup{x ∈ Q|x2 < 2}.
√
2:
• Aus dem Vollständigkeitsaxiom folgt, dass jede nach unten beschränkte Menge
U ⊂ R eine grösste untere Schranke hat. Man nennt Sie Infimum von U , inf(U ).
Es gilt
inf(U ) = − sup{−u|u ∈ U }.
• Wenn β := sup(S) in S liegt, dann heißt β größtes oder maximales Element
von S. Man schreibt dann β = max(S). Wenn α = inf(U ) in U liegt, dann heißt α
kleinstes oder minimales Element von U und man schreibt α = min(U ).
• Um auszudrücken, dass S nicht nach oben und U nicht nach unten beschränkt ist,
schreibt man auch
sup(S) = ∞,
inf(U ) = −∞.
8
Ungleichungen
Für alle rellen Zahlen x, y, a, b gilt
x ≤ y, a ≤ b ⇒ x + a ≤ y + b
x ≤ y, 0 ≤ a ⇒ xa ≤ ya
x ≤ y ⇒ −x ≥ −y
1
1
0<x≤y ⇒ 0< ≤
y
x
Diese Beziehungen kann man herleiten aus den Definitionen von <, ≤ und den Tatsachen
(Axiomen), dass die Summe und das Produkt von zwei positiven Zahlen positiv ist.
Der Betrag |a| einer reellen Zahl a ist definiert durch
a, falls a ≥ 0
|a| :=
−a, falls a < 0.
Folglich gilt |a| = max{a, −a}, |a| = | − a| und a = ±|a|.
Satz 1.9. Für alle a, b ∈ R gilt
(i) |a| ≥ 0 und |a| = 0 ⇔ (a = 0)
(ii) |a · b| = |a||b|
(iii) |a + b| ≤ |a| + |b|
Körpereigenschaften von R
Ein Körper ist eine Menge K für deren Elemente zwei Operationen
+ : K ×K →K
· : K ×K →K
(Addition)
(Multiplikation)
definiert sind, welche folgende Eigenschaften haben:
(K1) Die Addition ist kommutativ und assoziativ:
a + b = b + a,
a + (b + c) = (a + b) + c
(K2) Es gibt ein Element 0 ∈ K, genannt Null, sodass
für alle a ∈ K
a+0=a
(K3) Zu jedem Element a ∈ K gibt es ein Element (−a) ∈ K, sodass
a + (−a) = 0.
(K4) Die Multiplikation ist kommutativ und assoziativ:
a · b = b · a,
a · (b · c) = (a · b) · c
9
(K5) Es gibt ein Element 1 ∈ K\{0}, genannt Eins, so dass
a·1=a
für alle a ∈ K
(K6) Zu jedem Element a ∈ K\{0} gibt es ein Element a−1 ∈ K, so dass
a · a−1 = 1.
(K7) Für alle Elemente a, b, c ∈ K gilt das Distributivgesetz
a · (b + c) = a · b + a · c.
Alle algebraischen Eigenschaften von R folgen aus der Tatsache, dass R die Körperaxiome
erfüllt. Da diese auch von den komplexen Zahlen erfüllt werden, kann man mit den
komplexen Zahlen rechnen wie mit reellen Zahlen.
1.5
Komplexe Zahlen
Definition von C
Die Menge R × R versehen mit der Addition
(a, b) + (c, d) = (a + c, b + d)
und der Multiplikation
(a, b) · (c, d) = (ac − bd, ad + bc)
wird mit C bezeichnet. Die Elemente von C heißen komplexe Zahlen.
Satz 1.10. C ist ein Körper.
R ⊂ C und Imaginäre Einheit
Für die Elemente der Teilmenge R × {0} = {(a, 0)|a ∈ R} gilt
(a, 0) + (b, 0) = (a + b, 0)
(a, 0) · (b, 0) = (ab, 0).
Das heißt, R×{0} ist invariant unter Addition und Multiplikation und verhält sich unter
diesen Operationen gleich wie R. Wir werden daher im folgenden (a, 0) ∈ C mit a ∈ R
identifizieren und R als Teilmenge von C auffassen.
Die komplexe Zahl
i := (0, 1) ∈ C
heißt imaginäre Einheit.
Satz 1.11. i2 = −1 und a + ib = (a, b) für alle a, b ∈ R.
10
Realteil, Imaginärteil und komplexe Konjugation
Sei z = a + ib ∈ C, dann heißt a Realteil von z, a = Re(z), und b heißt Imaginärteil
von z, b = Im(z). Weiter ist z̄ := a − ib die zu z konjugiert komplexe Zahl.
Satz 1.12. Für alle z, w ∈ C gilt
(i)
z + w = z̄ + w̄
(ii)
zw = z̄ w̄
(iii)
Re(z) = (z + z̄)/2,
(iv)
z∈R
(v)
⇔
z = a + ib
Im(z) = (z − z̄)/(2i)
z = z̄
⇒
z z̄ = a2 + b2 .
Betrag einer komplexen Zahl
Sei z = a + ib ∈ C (a, b ∈ R), dann heißt
√
√
|z| := z z̄ = a2 + b2
(absoluter) Betrag von z. Offenbar ist der Betrag von z = a + ib der Abstand des
Punktes (a, b) ∈ R2 vom Ursprung (0, 0).
Satz 1.13. Seien z, w ∈ C, dann gilt
(i)
|z| ≥ 0 und (|z| = 0 ⇔ z = 0)
(ii)
|zw| = |z||w|
(iii)
|z + w| ≤ |z| + |w|
(iv)
| Re(z)|, | Im(z)| ≤ |z| ≤ | Re(z)| + | Im(z)|
(v)
z 6= 0 ⇒ z −1 = z̄/|z|2
(Dreiecksungleichung)
Konsequenzen der Dreiecksungleichung
Korollar 1.14.
(1)
z1 , . . . , zn ∈ C
⇒
n
n
X
X
zk ≤
|zk |,
k=1
k=1
(2)
z, w ∈ C ⇒ |z| − |w| ≤ |z − w|.
11
Polardarstellung einer komplexen Zahl
Für ϕ ∈ R definieren wir
eiϕ := cos ϕ + i sin ϕ
Offensichtlich gilt |eiϕ | = 1, ei0 = 1, eiπ/2 = i, eiπ = −1 und ei(ϕ+2π) = eiϕ . Aus den
Formeln für cos(ϕ1 + ϕ2 ) und sin(ϕ1 + ϕ2 ) folgt, dass
ei(ϕ1 +ϕ2 ) = eiϕ1 eiϕ2 .
(1)
Jede komplexe Zahl z hat eine Polardarstellung
z = |z|eiϕ
wobei das Argument ϕ ∈ R nur bis auf ein ganzzahliges Vielfaches von 2π bestimmt
ist, und für z = 0 beliebig gewählt werden kann.
Aus (1) folgt für z1 = |z1 |eiϕ1 und z2 = |z2 |eiϕ2 , dass
z1 z2 = |z1 ||z2 |ei(ϕ1 +ϕ2 ) .
Potenzen und binomische Formel
Sei z ∈ C und n ∈ N. Dann wird z n rekursiv definiert durch
z 0 := 1
und
z n+1 := z n z.
Weiter ist z −n := (z −1 )n .
Satz 1.15. Für alle z, w ∈ C\{0} und alle n, m ∈ Z gilt
(i)
(zw)n = z n wn ,
(ii)
z n z m = z n+m
(iii)
(z n )m = z (nm)
z −n = (z n )−1
Für alle z, w ∈ C und für alle n ∈ N gilt die binomische Formel:
n X
n n−k k
(z + w) =
z w .
k
k=0
n
12
(2)
Wurzeln
Wir suchen die komplexen Lösungen z der Gleichung z n = w für gegebenes w ∈ C. Sei
z = |z|eiα , w = |w|eiβ und sei z n = w.
Dann folgt aus (2) und e2πi = 1, dass
z n = |z|n eiαn = |w|ei(β+2πk) ,
k ∈ Z.
Wir definieren daher:
zk := |w|1/n ei(β+2πk)/n ,
k ∈ Z.
Dann gilt zkn = w wobei z−n = z0 = zn = z2n etc.
Satz 1.16. Für jede komplexe Zahl w = |w|eiβ 6= 0 hat die Gleichung z n = w mit n ∈ N,
genau n verschiedene Lösungen, nämlich die n-ten Wurzeln
zk := |w|1/n ei(β/n+2πk/n) ,
1.6
k = 0, . . . , n − 1.
Polynome und rationale Funktionen
Polynome
Eine Abbildung p : C → C heißt Polynom n-ten Grades, wenn es Zahlen a0 , . . . , an ∈ C
gibt, mit an 6= 0 und
p(x) =
n
X
ak xk = a0 + a1 x + . . . an xn .
k=0
Die Zahlen a0 , . . . , an ∈ C heißen Koeffizienten des Polynoms f .
Summe und Produkt von zwei Polynomen sind wieder Polynome, denn
n
X
ak x k +
k=0
n
X
n
X
bk x k =
k=0
n
X
(ak + bk )xk
k=0
m
m+n
k
X
X X
k
k
k
=
ak x ·
bk x
x
ak−l bl
k=0
k=0
k=0
l=0
wobei ak−l := 0 für k − l > n und bl := 0 für l > m.
Satz 1.17. Die Koeffizienten eines Polynoms sind eindeutig bestimmt: aus
n
X
k
ak x =
k=0
n
X
bk x k
k=0
folgt, dass ak = bk , für k = 0 . . . n.
13
für alle x ∈ R
Fundamentalsatz der Algebra
Satz 1.18 (Fundamentalsatz der Algebra). Jedes Polynom p vom Grad n ≥ 1 hat
mindestens eine Nullstelle. D.h. es gibt eine komplexe Zahl α mit p(α) = 0.
(Beweis in HM3)
P
Satz 1.19. Jedes Polynom p(x) = nk=0 ak xk von Grad n ≥ 1, besitzt die Faktorisierung
über C:
p(x) = an (x − α1 )m1 (x − α2 )m2 · · · (x − αr )mr ,
mit den verschiedenen Nullstellen αi der Vielfachheit mi , (i = 1, . . . , r), m1 + m2 +
. . . + mr = n. Ein Polynom vom Grad n ≥ 1 hat also genau n Nullstellen in C, wobei
jede Nullstelle so oft gezählt wird, wie ihre Vielfachheit angibt.
Polynome mit reellen Koeffizienten
Satz 1.20. Ist α eine Nullstelle der Vielfachheit m eines Polynoms mit reellen Koeffizienten, dann ist auch α eine Nullstelle der Vielfachheit m.
P
Satz 1.21. Jedes Polynom p(x) = nk=0 ak xk mit n ≥ 1, ak ∈ R, an 6= 0 hat die Faktorisierung über R
p(x) = an (x − b1 )m1 · · · (x − br )mr (x2 + c1 x + d1 )k1 · · · (x2 + cs x + ds )ks
mit reellen Nullstellen bi der Vielfachheit mi (i = 1 . . . r) und quadratischen Polynomen
x2 + ci x + di der Vielfachheit ki (i = 1 . . . s), die in R keine Nullstellen haben.
Rationale Funktionen
Ein Quotient zweier Polynome
an x n + . . . + a1 x + a0
p(x)
,
=
q(x)
bm x m + . . . + b1 x + b0
an 6= 0, bm 6= 0,
(3)
heißt rationale Funktion. Der Definitionsbereich von p/q ist die Menge {x ∈ C |
q(x) 6= 0}.
Satz 1.22. Jede rationale Funktion (3) mit Zählergrad ≥ Nennergrad (n ≥ m), lässt
sich darstellen in der Form
p(x)
r(x)
= h(x) +
q(x)
q(x)
mit einem Polynom h und einem Restpolynom r wobei r = 0 oder Grad(r) < Grad(q).
Diese Darstellung ist eindeutig.
14
2
Lineare Algebra
2.1
Rn und Cn als Vektorräume
Sei K = R oder K = C. Wir definieren in K n = K × . . . × K eine Addition von zwei
n-Tupeln ~x = (x1 , . . . , xn ) und ~y = (y1 , . . . , yn ) durch
~x + ~y := (x1 + y1 , . . . , xn + yn ),
und eine Multiplikation von einer Zahl λ ∈ K mit einem n-Tupeln ~x = (x1 , . . . , xn )
durch
λ~x := (λx1 , . . . , λxn ).
Die Elemente von K n versehen mit diesen Operationen nennt man Vektoren (statt
n-Tupel). Der Vektor
~0 = (0, . . . , 0)
heißt Nullvektor. Man definiert ~x − ~y := ~x + (−~y ).
Für die Vektoroperationen in K n gelten folgende Rechenregeln:
• Die Vektoraddition ist kommutativ und assoziativ,
• ~x + ~0 = ~x für alle x ∈ K n ,
• ~x + (−~x) = ~0 für alle x ∈ K n .
Ausserdem gilt für alle λ, µ ∈ K und alle ~x, ~y ∈ K n :
• λ(~x + ~y ) = λ~x + λ~y ,
• (λ + µ)~x = λ~x + µ~x,
• (λµ)~x = λ(µ~x),
• 1~x = ~x.
Damit wird K n zu einem n-dimensionalen Vektorraum (vgl. spätere Definition abstrakter Vektorräume)
2.2
Lineare Gleichungssysteme
Ein reelles lineares Gleichunssystem mit m Gleichungen und n Unbekannten ist von
der Form
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
..
..
..
.
.
.
am1 x1 + am2 x2 + . . . + amn xn = bm
wobei aik , bi , für 1 ≤ i ≤ m, 1 ≤ k ≤ n gegebene reelle Zahlen sind. Das System heißt
homogen, wenn b1 = b2 = · · · = bm = 0, sonst heißt es inhomogen.
Wir interessieren uns für die Lösungsmenge, d.h. die Menge der n-Tupel (x1 , . . . , xn ),
welche alle m Gleichungen gleichzeitig lösen.
15
Das Gauß’sche Lösungsverfahren
Bei folgenden Umformungen ändert sich die Lösungsmenge eines lineare Gleichungssystems nicht. Wir sagen: das Gleichungssystem geht in ein äquivalentes Gleichungssystem
über.
1. Vertauschung zweier Gleichungen.
2. Multiplikation einer Gleichung mit λ 6= 0.
3. Addition des λ-fachen der iten Gleichung zur j-ten Gleichung.
Diese Feststellung ist die Grundlage Gauß’sches Lösungsverfahren.
2.3
Matrizen
Eine reelle m × n-Matrix ist ein

a11
 a21

A =  ..
 .
am1
rechteckiges Schema von reellen Zahlen

a12 a13 . . . a1n
a22 a23 . . . a2n 

..
..
..  = (aik ).
.
.
. 
am2 am3 . . . amn
Das Element aik steht in der i-ten Zeile und der k-ten Spalte.
Man definiert die Summe von zwei m × n Matrizen A = (aik ) und B = (bik ) durch
A + B := (aik + bik )
und das Produkt einer Matrix A = (aik ) mit einer Zahl λ ∈ R durch
λA := (λaik ).
Weiter ist A − B := A + (−B).
Diese Addition und die skalare Multiplikation von m × n Matrizen unterscheidet sich
nicht von den entsprechenden Operationen in Rnm . Somit gilt für alle m × n Matrizen
A, B und alle λ, µ ∈ R:
• Die Matrixaddition ist kommutativ und assoziativ,
• A+0=A
• A + (−A) = 0
• λ(A + B) = λA + λB,
• (λ + µ)A = λA + µA,
• (λµ)A = λ(µA),
• 1A = A.
16
Hier bezeichnet 0 die m × n-Nullmatrix deren Elemente lauter Nullen sind.
Eine m × 1 Matrix
 
a1
 a2 
 
 ..  ∈ Rm
 . 
am
nennt man auch Spaltenvektor. Eine 1 × n-Matrix
(a1 , a2 , . . . , an ) ∈ Rn
heißt Zeilenvektor. Wir definieren das Produkt eines Zeilenvektors aus Rn mit einem
Spaltenvektor aus Rn durch
 
b1
n
 b2 
X
 
ak b k .
(a1 , a2 , . . . , an )  ..  :=
.
k=1
bn
Ein lineares Gleichungssystem mit
schreiben als

a11 a12
 a21 a22

 ..
 .
am1 am2
m Gleichungen und n Unbekannten lässt sich somit
   
. . . a1n
x1
b1




. . . a2n   x2   b2 

..   ..  =  ..  .
.  .   . 
. . . amn
xn
bm
Links steht die Koeffizientenmatrix A = (aij ) angewandt auf den Spaltenvektor ~x
mit den unbekannten Komponenten xi , d.h, jede Zeile von A wird multipliziert mit dem
Spaltenvektor ~x. Kurz
A~x = ~b
wobei


x1
 x2 
 
~x :=  ..  ,
.


b1
 b2 

~b := 
 ..  .
 . 
xn
bm
Die Umformungen des Gauß’schen Lösungsverfahrens lassen sich übersichtlich ausführen
an der erweiterten Koeffizientenmatrix:


a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 


~
(A, b) :=  ..
..
.. 
 .
.
. 
am1 am2 . . . amn bm
Die Gleichungsumformungen entsprechen den folgenden elementaren Zeilenumformungen:
17
1. Vertauschen von zwei Zeilen
2. Multiplikation einer Zeile mit einer Zahl λ 6= 0,
3. Addition (Subtraktion) des λ-fachen einer Zeile zu einer anderen Zeile.
2.4
Das Gaußsche Lösungsverfahren
Das homogene System A~x = ~0
Im Fall ~b = ~0 genügt die einfache“ Koeffizientenmatrix:
”


a11 a12 . . . a1n
 a21 a22 . . . a2n 


 ..
..  .
 .
. 
am1 am2 . . . amn
Vorwärtselimination:
• Zeilen vertauschen bis a11 6= 0, (bzw bis a12 6= 0, falls a11 = . . . = am1 = 0),
• subtrahiere
a21
-faches
a11
der ersten Zeile von zweiter Zeile,
• subtrahiere
a31
-faches
a11
der ersten Zeile von dritter Zeile,
• etc.
Das Resultat ist:


∗ ∗ ∗ ∗ ∗
0 ∗ ∗ ∗ ∗ ∗ 


 ..

.

A1
0 ∗ ∗ ∗ ∗ ∗
An der -Stelle ist eine Zahl 6= 0, über die Zahlen an den ∗-Stellen wird nichts ausgesagt,
und A1 bezeichnet eine (m − 1) × (n − 1) Matrix.
Falls A1 die Nullmatrix ist, ist man fertig. Sonst wiederholt man das Eliminationsverfahren mit A1 . Nach höchstens m − 1 Eliminationsschritten gelangt man zu einer Matrix
M in Zeilenstufenform, z.B. auf:


∗ ∗ ∗ ∗ ∗
0 0
∗ ∗ ∗
.
M =
0 0 0
∗ ∗
0 0 0 0 0 0
Rückwärtssubstitution
• Die Unbekannten zu den Spalten ohne
mit λ1 , . . . , λn−r .
18
sind freie Variablen. Wir bezeichnen sie
• Im Gleichungssystem das der Matrix M entspricht bringt man die freien Variablen
λ1 , . . . , λn−r auf die rechte Seite und berechnet der Reihe nach, von unten nach
oben, die zu den -Stellen gehörenden abhängigen Variablen (in Abhängigkeit von
λ1 , . . . , λn−r ).
Die so bestimmte Lösung heißt allgemeine Lösung des Systems.
Der Rang der m×n-Matrix A, RangA, ist die Anzahl der von Null verschiedenen Zeilen
in der Zeilenstufenmatrix M , welche aus A mittels Gauß-Elimination erzielten wurde.
Offensichtlich ist RangA ≤ m.
Satz 2.1. Sei A eine m × n Matrix. Dann enthält allgemeine Lösung des homogenen
Systems A~x = ~0:
n − RangA frei wählbare Parameter.
Falls RangA = n dann ist ~0 ist die einzige Lösung. Für RangA < n, z.B. wenn m < n,
dann gibt es von Null verschiedene Lösungen.
Das inhomogene System A~x = ~b
• Vorwärtselimination an der Matrix (A, ~b) liefert

∗ ∗ ∗ ∗
0 0
∗ ∗
~ =
(M, d)
0 0 0
∗
0 0 0 0 0

∗ d1
∗ : 
.
∗ dr 
0 dm
• Falls eine der Zahlen dr+1 , . . . , dm verschieden von 0 ist, dann ist M~x = d~ nicht
lösbar, also hat auch A~x = ~b keine Lösung
• Die Rücksubstitution im Fall dr+1 = . . . = dm = 0 wird analog wie bei homogenen Systemen durchgeführt. Alternative: man berechne zuerst eine spezielle
Lösung ~v0 ∈ Rn , z.B. mit λ1 = . . . = λn−r = 0, und dann die allgemeine Lösung
~u(λ1 , . . . , λn−r ) von M~x = ~0. Dann ist
~v0 + ~u(λ1 , . . . , λn−r )
~
die allgemeine Lösung von M~x = d.
Satz 2.2. Sei A eine reelle m × n Matrix und sei ~b ∈ Rm .
(a) A~x = ~b ist genau dan lösbar, wenn
Rang(A, ~b) = Rang(A).
(b) Falls A~x = ~b lösbar ist, dann ist die allgemeine Lösung von der Form
~v = ~v0 + ~u
wobei ~v0 eine spezielle Lösung von A~x = ~b und ~u die allgemeine Lösung von A~x = 0
ist. ~v0 + ~u enthält n − Rang(A) frei wählbare Parameter.
(c) Ist A~x = ~b lösbar und Rang(A) = n =Anzahl der Variablen, dann ist die Lösung
eindeutig.
19
2.5
Die Matrizenmultiplikation
Das Produkt C := AB einer m × n Matrix A = (aij ) und einer n × r Matrix B = (bjk )
ist eine m × r Matrix C = (cij ) definiert durch
cik :=
n
X
aij bjk = ai1 b1k + . . . + ain bnk .
j=1
• Im allgemeinen ist AB 6= BA.
• Ist A eine m × n Matrix und ist ~x ∈ Rn ein Spaltenvektor, dann ist A~x ein
Matrixprodukt.
• Das Produkt eines Zeilenvektors mit einem Spaltenvektor ist ein Spezialfall des
Matrixprodukts.
Die n × n Einheitsmatrix En = (δij ) ist definiert durch
1, i = j,
δij =
0, i 6= j.
δij heißt Kroneckersymbol.
Satz 2.3. Seien A, A1 , A2 m × n Matrizen, B, B1 , B2 n × r Matrizen und sei C eine
r × s Matrix. Dann gilt:
(a)
(b)
(c)
(d)
(A1 + A2 )B = A1 B + A2 B,
A(B1 + B2 ) = AB1 + AB2 ,
λ(AB) = (λA)B = A(λB),
(λ ∈ R),
(AB)C = A(BC),
Em A = AEn = A.
Transponierte einer Matrix
Sei A eine m×n Matrix. Dann ist AT die n×m Matrix, welche aus A durch Spiegelung an
der Diagonalen ensteht: die i-te Spalte von AT ist die die i-te Zeile von A, (AT )ji = Aij .
AT heißt die zu A transponierte Matrix. Insbesondere ist
 T
b1
 .. 
 .  = (b1 , . . . , bn )
bn
 
a1
 .. 
T
(a1 , . . . , an ) =  .  ,
an
Satz 2.4. Seien A, B m × n Matrizen und sei C eine n × r Matrix. Dann gilt:
(a) (A + B)T = AT + B T ,
(b) (λA)T = λAT ,
(c) (AT )T = A,
20
(d) (AC)T = C T AT .
Eine n × n Matrix heißt symmetrisch, falls AT = A, sie heißt schiefsymmetrisch
(antisymmetrisch), falls AT = −A. Offensichtlich gilt
AT = A ⇔ aij = aji
AT = −A ⇔ aij = −aji .
• Ist A schiefsymmetrisch, dann ist aii = 0 für alle i = 1, . . . , n.
• Für jede n × n Matrix, sind A + AT , AT A und AAT symmetrisch, und A − AT ist
schiefsymmetrisch.
• Die Einheitsmatrix En ist symmetrisch.
Invertierbare Matrizen
Im folgenden ist E := En und auch alle anderen Matrizen sind quadratisch.
Satz 2.5. Seien A, B, C n × n Matrizen mit BA = E = AC. Dann gilt B = C.
Eine n × n Matrix A heißt invertierbar, falls eine n × n Matrix B existiert mit AB =
E = BA. Nach Satz 2.5 ist B eindeutig durch A bestimmt. B heißt Inverse von A und
wird mit A−1 bezeichnet.
Beispiele:
1. Für λ 6= 0 ist λE invertierbar und (λE)−1 = λ−1 E.
2. Falls ad − bc 6= 0, dann hat
1
d −b
a b
−1
A=
.
die Inverse A =
a
c d
ad − bc −c
Satz 2.6.
(a) Ist A invertierbar, dann auch A−1 , und (A−1 )−1 = A.
(b) Sind A, B invertierbar, dann auch AB, und (AB)−1 = B −1 A−1 .
(c) AT ist genau dann invertierbar, wenn A invertierbar ist, und dann gilt (AT )−1 =
(A−1 )T .
Satz 2.7. Folgende Aussagen über eine n × n Matrix A sind äquivalent:
(a) A ist invertierbar.
(b) Es gibt eine n × n Matrix B mit AB = E.
(c) Es gibt eine n × n Matrix C mit CA = E.
(d) A~x = 0 ⇒ ~x = ~0.
(e) RangA = n.
21
Diagonalmatrizen
Eine Matrix der Form

a1 0 · · ·
 0 a2

diag(a1 , . . . , an ) :=  ..
..
.
.
···
0
0



.. 
.
an
heißt Diagonalmatrix. Z.B. ist En = diag(1, . . . , 1) und es gilt diag(a1 , . . . , an ) diag(b1 , . . . , bn ) =
diag(a1 b1 , . . . , an bn ). Falls ai 6= 0 für alle i, dann ist diag(a1 , . . . , an ) invertierbar und es
gilt
1
1
diag(a1 , . . . , an )−1 = diag( , . . . , ).
a1
an
Dreiecksmatrizen
Quadratische Matrizen der Form

∗ ∗
0 ∗

0 0
0 0
∗
∗
∗
0

∗
∗
,
∗
∗

∗
∗

∗
∗
0
∗
∗
∗
0
0
∗
∗

0
0
,
0
∗
heißen Dreiecksmatrizen. Jede Diagonalmatrix ist eine Dreiecksmatrix.
Satz 2.8. Eine Dreiecksmatrix A = (aij ) ist genau dann invertierbar, wenn alle Diagonalelemente aii verschieden von Null sind.
2.6
Vektorräume
Der abstrakte Vektorraum
Se K = R oder K = C. Eine nichtleere Menge V für deren Elemente eine Addition a + b
und eine Multiplikation λa mit Zahlen λ ∈ K definiert ist heißt K-Vektorraum, oder
Vektorraum über K, wenn folgende Axiome erfüllt sind:
(V1) Die Addition ist kommutativ und assoziativ.
(V2) Es gibt ein Element 0 ∈ V , genannt Nullvektor, mit a + 0 = a für alle a ∈ V .
(V3) Zu jedem a ∈ V gibt es ein Element −a ∈ V mit a + (−a) = 0.
(V4) 1a = a für alle a ∈ V .
(V5) λ(µa) = (λµ)a für alle λ, µ ∈ K, a ∈ V .
(V6) λ(a + b) = λa + λb für alle λ ∈ K, a, b ∈ V .
(V7) (λ + µ)a = λa + µa für alle λ, µ ∈ K, a ∈ V .
Die Elemente eines Vektorraums nennt man Vektoren; statt a + (−b) schreibt man
a − b.
22
Beispiele von Vektorräumen
• Rn ist eine Vektorraum über R, Cn ist ein Vektorraum über C.
• Die Mengen der reellen m × n Matrizen bilden einen Vektorraum über R.
• Die Menge aller Funktionen f : [a, b] → R bei festen a, b ∈ R zuammen mit den
Operationen
(f + g)(x) := f (x) + g(x),
(λf )(x) := λf (x),
ist eine R-Vektorraum.
• Die Menge der Polynome vom Grad ≤ n,
Pn := {a0 + a1 x + . . . + an xn | ai ∈ K}
bilden einen Vektorraum über K.
Sei V ein Vektorraum über K. Eine nichtleere Teilmenge U ⊂ V heißt Unterraum von
V , wenn
(U1) u, v ∈ U
⇒
(U2) u ∈ U, λ ∈ K
u + v ∈ U,
⇒
λu ∈ U .
Bemerkungen:
• Ein Unterraum eines K-Vektorraums ist wieder ein K-Vektorraum.
• Jeder Unterraum enthält den Nullvektor.
• Jeder Vektorraum V hat die Unterräume U = {0} und U = V .
Jede aus endliche vielen Vektoren v1 , . . . , vk ∈ V gebildete Summe
k
X
λi ∈ K,
λi vi ,
i=1
heißt Linearkombination der vi .
Die Menge aller Linearkombinationen der vi ,
Lin(v1 , . . . , vk ) :=
k
nX
o
λi vi λi ∈ K
i=1
heißt lineare Hülle der vi . Lin(v1 , . . . , vk ) ist ein Unterraum von V .Ein Unterraum U
wird von den Vektoren v1 , . . . , vk erzeugt, falls
U = Lin(v1 , . . . , vk ).
Man sagt auch, {v1 , . . . , vk } ist ein Erzeugendensystem von U .
23
Lineare Unabhängigkeit
Endliche viele Vektoren v1 , . . . , vk heißen
abhängig, wenn es Zahlen λ1 , . . . , λk ∈
Plinear
k
K gibt, nicht alle gleich Null, so dass i=1 λi vi = 0. Im Fall k > 1 ist das äquivalent
dazu, dass sich einer der Vektoren vi als Linearkombination der anderen schreiben lässt.
Z.B.
k−1
X
vk =
µi v i .
i=1
Endliche viele Vektoren v1 , . . . , vk heißen linear unabhängig, wenn sie nicht linear
abhängig sind, d.h., wenn
k
X
λi vi = 0
⇒
λ1 = λ2 . . . = λk = 0.
i=1
Satz 2.9. Ist A eine m × n Matrix in Zeilenstufenform, dann sind die von Null verschiedenen Zeilenvektoren linear unabhängig.
Satz 2.10. Für eine n × n Matrix sind folgende Aussagen äquivalent:
• A ist invertierbar
• Die Spalten von A sind linear unabhängig.
• Die Zeilen von A sind linear unabhängig.
Satz 2.11. Für Vektoren v1 , . . . , vk , w ∈ V gilt:
(a) Lin(v1 , . . . , vk , w) = Lin(v1 , . . . , vk ) ⇔ w ∈ Lin(v1 , . . . , vk ).
(b) v1 , . . . , vk sind linear unabhängig ⇔ zur Erzeugung von Lin(v1 , . . . , vk ) kann kein
vi weggelassen werden.
2.7
Basis und Dimension
Eine Familie von linear unabhängigen Vektoren v1 , . . . , vn ∈ V mit V = Lin(v1 , . . . , vn )
heißt Basis von V .
Satz 2.12. Ist v1 , . . . , vn eine Basis von V , dann hat jeder Vektor a ∈ V eine Darstellung
a = λ1 v1 + λ2 v2 + · · · + λn vn .
wobei die Zahlen λ1 , . . . , λn ∈ K eindeutig bestimmt sind. Jede Familie von m > n
Vektoren ist linear abhängig.
Sind v1 , . . . , vn und w1 , . . . , wm zwei Basen von V , dann folgt aus Satz 2.12, dass m = n.
Die Anzahl Vektoren einer Basis heißt Dimension von V . Die Dimension von {0} ist
per Vereinbarung gleich Null.
24
Existenz einer Basis
Ein Vektorraum V heißt endlich erzeugt, wenn es endlich viele Vektoren w1 , . . . , wr
gibt, mit V = Lin(w1 , . . . , wr ).
Satz 2.13. Jedes Erzeugendensystem w1 , . . . , wr von V lässt sich (durch Weglassen von
Vektoren) zu einer Basis von V reduzieren und
dim Lin(w1 , . . . , wr )
ist die Maximalzahl linear unabhängiger Vektoren die in w1 , . . . , wr gefunden werden
können. Insbesondere hat jeder endlich erzeugte Vektorraum eine Basis.
Satz 2.14. Sei V ein endlich erzeugter Vektorraum. Dann lässt sich jede Familie linear
unabhängiger Vektoren v1 , . . . , vk ∈ V zu einer Basis von V erweitern.
Aus den Sätzen 2.13 und 2.14 folgt sofort:
Satz 2.15. Sei V ein Vektorraum der Dimension n.
(a) Ist V = Lin(v1 , . . . , vn ), dann bilden v1 , . . . , vn eine Basis.
(b) Sind die Vektoren v1 , . . . , vn linear unabhängig, dann bilden sie eine Basis.
Satz 2.16. Ist U ein Unterraum eines endlich dimensionalen Vektorraums V und U 6=
V , dann ist U endlich dimensional und
dim U < dim V.
2.8
Elementarmatrizen und elementare Umformungen
Zeilen- und Spaltenraum einer Matrix
Sei A eine m × n Matrix. Der durch die Spaltenvektoren a1 , . . . , an von A aufgespannte
Unterraum von Rm ist der
Spaltenraum von A = Lin(a1 , . . . , an )
= {Ax | x ∈ Rn }.
Der durch die Zeilenvektoren z1 , . . . , zm von A aufgespannte Unterraum von Rn ist der
Zeilenraum von A = Lin(z1 , . . . , zn )
= {y T A | y ∈ Rm }.
Der Kern der Matrix A ist der Unterraum von Rn definiert durch
KernA := {x ∈ Rn | Ax = 0}.
Satz 2.17. Sei A eine m × n Matrix.
25
(a) Entsteht M aus A durch endliche viele elementare Zeilenumformungen, dann gibt
es eine invertierbare m × m Matrix P mit
M = P A.
(b) Entsteht N aus A durch endlich viele elementare Spaltenumformungen, dann gibt
es eine invertierbare n × n Matrix Q mit
N = AQ.
Satz 2.18. Bei elementaren Zeilenumformungen ändert sich der Zeilenraum nicht, bei
elementaren Spaltenumformungen ändert sich der Spaltenraum nicht. Insbesondere gilt
RangA = Dimension des Zeilenraums von A.
Theorem 2.19. Sei A eine m × n Matrix. Dann gilt
(a)
RangA = Dimension des Zeilenraums von A,
= Dimension des Spaltenraums von A.
(b)
RangA + dim(KernA) = n.
(c) Es gibt eine invertierbare m × m Matrix P und eine invertierbare n × n Matrix Q,
derart dass
Er 0
P AQ =
,
r = RangA.
0 0
2.9
Determinanten
Die Determinante einer 2 × 2 Matrix
a1 b 1
A=
ist
a2 b 2
det A := a1 b2 − a2 b1 .
Also ist A genau dann invertierbar, wenn det A 6= 0.
Die Determinate einer 3 × 3 Matrix


a1 b 1 c 1
A =  a2 b 2 c 2 
a3 b 3 c 3
ist definiert durch
b2 c 2
b1 c 1
b1 c 1
det A :=a1 det
− a2 det
+ a3 det
b3 c 3
b3 c 3
b2 c 2
=a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1
26
Rekursive Definition der Determinante
Sei A = (aij ) eine n × n Matrix.
• Für n = 1, d.h. A = (a11 ), ist die det A = a11 .
• Für n ≥ 2 ist (Entwicklung nach der ersten Spalte):
det A =
n
X
(−1)i+1 ai1 det Ai1
i=1
= a11 det A11 − a21 det A21 + . . . (−1)n+1 an1 det An1 ,
wobei Ai1 die (n − 1) × (n − 1) Matrix ist, welche aus A durch Entfernen der i-ten
Zeile und der erste Spalte ensteht.
Rechenregeln für Determinanten
Satz 2.20. Für jede n × n Matrix A gilt:
(a) Entsteht à aus A durch vertauschen zweier Zeilen, dann gilt det à = − det A.
(b) det A ist linear als Funktion der Zeilenvektoren von A. D.h.,
 
 
a1
λa1
 a2 
 a2 
det   = λ det   ,
..
..
.
.

 
 

a1 + b 1
a1
b1
 a2 
a2 
 a2 
det 
 = det   + det  
..
..
..
.
.
.
und analog für die anderen Zeilen von A.
Folgerungen:
• Sind zwei Zeilenvektoren von A gleich, dann ist det A = 0.
• det(λA) = λn det A wenn A eine n × n Matrix ist.
Korollar 2.21. Die elementaren Zeilenumformungen:
1. Vertauschen von zwei Zeilen,
2. Multiplikation einer Zeile mit λ 6= 0,
3. Addition des λ-fachen einer Zeile zu einer anderen Zeile,
verändern die Determinante um den Faktor −1, λ bzw. 1.
27
Eine Elementarmatrix P ist eine quadratische Matrix, welche eine elementare Zeilenumformung erzeugt. Die Determinante von P stimmt überein mit dem Zahlenfaktor
−1, λ bzw. 1 um welchen die Determinante sich ändert bei der P entsprechenden Zeilenumfomung. Es gilt also:
det(P A) = det(P ) det(A).
Satz 2.22. Jede invertierbare Matrix ist das Produkt von Elementarmatrizen.
Theorem 2.23. Für n × n Matrizen A, B gilt:
(a) A ist genau dann invertierbar wenn det A 6= 0.
(b) det AT = det A und Satz 2.20 gilt auch für die Spaltenvektoren einer Matrix.
(c) det(AB) = det(A) det(B).
Satz 2.24. Das durch die Vektoren a, b ∈ R2 aufgespannte Parallelogramm hat den
Flächeninhalt
| det(a, b)|.
Das durch die Vektoren a, b, c ∈ R3 aufgespannte Parallelepiped (Spat) hat das Volumen
| det(a, b, c)|.
Entwicklung von det A nach beliebiger Spalte/Zeile
Sei A = (aij ) eine n × n Matrix und sei Aij die (n − 1) × (n − 1) Matrix welche aus
A durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. Dann gelten folgende
Entwicklungsformeln:
Entwicklung nach der j-ten Spalte:
det A =
n
X
(−1)i+j aij det Aij
i=1
Entwicklung nach der i-ten Zeile:
det A =
n
X
(−1)i+j aij det Aij
j=1
Cramersche Regel und inverse Matrix
Sei A = (a1 , . . . , an ) eine invertierbare n × n Matrix und sei b ∈ Rn . Dann ist die
(eindeutige) Lösung des Gleichungssystems Ax = b gegeben durch die Cramersche Regel
1
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).
xi =
det A
(i-te Spalte von A durch b ersetzt.)
Satz 2.25. Sei A eine invertierbare n × n Matrix. Dann gilt:
1
(A−1 )ik =
(−1)i+k det Aki
det A
wobei rechts die Reihenfolge der indizes i, k gegenüber links vertauscht ist.
28
Permutationen
Eine Permutation der Zahlen {1, . . . , n} ist eine bijektive Abbildung σ : {1, . . . , n} →
{1, . . . , n}. Die Permutation σ wird durch das Schema
1
2
3
...
n
σ(1) σ(2) σ(3) . . . σ(n)
vollständig beschrieben. Es gibt n! verschiedene Permutationen von {1, . . . , n}. Das Signum einer Permutation, sgn(σ), ist definiert durch sgn(σ) = (−1)r wobei r die Anzahl
Vertauschungen zweier Elemente ist, welche notwendig ist um {1, . . . , n} in die Reihenfolge {σ(1), . . . , σ(n)} zu bringen. Die Permutation σ heißt gerade, wenn sgn(σ) = +1
und ungerade wenn sgn(σ) = −1.
Die zyklischen Permutationen von {1, 2, 3}:
1 2 3
1 2 3
1 2 3
,
,
,
1 2 3
2 3 1
3 1 2
sind gerade, die anderen drei Permutationen sind ungerade.
Satz 2.26. Die Determinate einer n × n Matrix A = (aij ) lässt sich schreiben als
X
det A =
sgn(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ
wobei über alle Permutationen σ von {1, . . . , n} zu summieren ist.
2.10
Rn als Euklidischer Vektorraum
Seien x, y ∈ Rn , x = (x1 , . . . , xn )T , y = (y1 , . . . , yn )T . Die Zahl
T
x · y := x y =
n
X
xi y i
i=1
heißt Skalarprodukt (inneres Produkt ) von x und y, und
√
|x| := x · x
heißt Betrag (oder Länge) von x. Ein Vektor x ∈ Rn heißt normiert oder Einheitsvektor, wenn |x| = 1.
Vorsicht: (x · y)z 6= x(y · z).
Satz 2.27. Für alle x, y, z ∈ Rn und alle λ ∈ R gilt
(a) x · x ≥ 0 und x · x = 0 ⇔ x = 0.
(b) x · y = y · x
(c) x · (y + z) = x · y + x · z, und x · (λy) = λ(x · y),
29
Satz 2.28. Für alle x, y ∈ Rn und alle λ ∈ R gilt
(a) |x| ≥ 0 und |x| = 0 ⇔ x = 0.
(b) |λx| = |λ||x|,
(c) |x · y| ≤ |x||y|
(Cauchy-Schwarzsche Ungleichung),
(d) |x + y| ≤ |x| + |y|
(Dreiecksungleichung).
Satz 2.29. Seien x, y ∈ Rn und sei ϕ ∈ [0, π] der Winkel zwischen x und y. Dann gilt
x · y = |x||y| cos ϕ.
Zwei Vektoren x, y ∈ Rn heißen orthogonal, in Zeichen x ⊥ y, wenn x · y = 0. Der
Nullvektor ist othogonal zu allen Vektoren. Sind x und y orthogonal, dann gilt
|x + y|2 = |x|2 + |y|2 .
Satz 2.30 (Satz von Pytagoras). Sind x1 , . . . , xk ∈ Rn paarweise othogonal, d.h. xi ·xj =
0 für i 6= j, dann gilt
2
k
k
X
X
x
=
|xi |2
i
i=1
i=1
Gram-Schmidtsches Orthogonalisierungsverfahren
Eine Familie von Vektoren b1 , . . . , bk ∈ Rn heißt orthogonal wenn bi · bj = 0 für i 6= j
und sie heißt orthonormal, wenn wenn sie othogonal ist und alle Vektoren normiert
sind, d.h. wenn
bi · bj = δij .
Satz 2.31.
• Jede orthogonale Familie {b1 , . . . , bk } ⊂ Rn ohne den Nullvektor ist
linear unabhängig.
• Ist b1 , . . . , bn eine orthonormale Basis (ONB) von Rn , dann gilt für jeden Vektor
x ∈ Rn :
n
X
x=
(x · bi )bi
i=1
Zu jedem System linear unabhängiger Vektoren a1 , . . . , ak ∈ Rn gibt es ein orthonormales
System b1 , . . . , bk mit
Lin{a1 , . . . , ak } = Lin{b1 , . . . , bk }.
30
Insbesondere hat jeder Unterraum U ⊂ Rn eine ONB. Gram-Schmidtsches Orthogonalisierungsverfahren:
b1 :=
a1
|a1 |
a02 := a2 − (a2 · b1 )b1 ,
a03 := a3 − (a3 · b1 )b1 − (a3 · b2 )b2 ,
..
.
a02
|a02 |
a0
b3 := 03
|a3 |
b2 :=
..
.
a0k := ak −
k−1
X
(ak · bi )bi ,
bk :=
i=1
a0k
|a0k |
Orthogonale Projektion
Ist U ⊂ Rn eine beliebige Teilmenge und x ⊥ y für alle y ∈ U , dann schreiben wir
x ⊥ U.
Satz 2.32. Sei U ein Unterraum von Rn . Dann hat jeder Vektor x ∈ Rn eine eindeutige
Zerlegung
x = xU + yU ,
mit xU ∈ U, yU ⊥ U.
Ist {b1 , . . . , bk } eine ONB von U , dann gilt
xU =
k
X
(x · bi )bi .
i=1
xU heißt heißt orthogonale Projektion von x auf U .
Das Vektorprodukt in R3
Das Vektorprodukt a∧b von zwei Vektoren a, b ∈ R3 , a = (a1 , a2 , a3 )T , b = (b1 , b2 , b3 )T
ist definiert durch


a2 b 3 − a3 b 2
a ∧ b := a3 b1 − a1 b3 
a1 b 2 − a2 b 1
Offenbar gilt für alle Vektoren a, b, c ∈ R3 die Identität
(a ∧ b) · c = det(a, b, c).
Der Betrag des Spatprodukt (a ∧ b) · c ist nach Satz 2.24 das Volumen des durch a, b, c
aufgespannten Spats.
31
Folgerungen:
• a ∧ b ist orthogonal zu a und b.
• |a ∧ b| = |a||b| sin ϕ wobei ϕ ∈ [0, π] der Winkel zwischen a und b ist.
• Die drei Vektoren a, b, a ∧ b bilden ein Rechtssystem, d.h. sie sind gleich orientiert
wie e1 = (1, 0, 0), e2 = (0, 1, 0) und e3 = (0, 0, 1).
Satz 2.33. Für alle a, b, c ∈ R3 gilt:
(a) a ∧ b = −b ∧ a, also a ∧ a = 0,
(b) λ(a ∧ b) = (λa) ∧ b = a ∧ (λb) für alle λ ∈ R,
(c) a ∧ (b + c) = a ∧ b + a ∧ c, (a + b) ∧ c = a ∧ c + b ∧ c,
(d) |a ∧ b|2 = |a|2 |b|2 − (a · b)2 .
Satz 2.34. Für alle a, b, c, d ∈ R3 gelten die Identitäten:
a ∧ (b ∧ c) = (a · c)b − (a · b)c
(Grassmann)
(a ∧ b) · (c ∧ d) = (a · c)(b · d) − (a · d)(b · c) (Lagrange).
Das Vektorprodukt a ∧ b in der Darstellung
a2 b 2
a1 b 1
a1 b 1
a ∧ b = e1 det
− e2 det
+ e3 det
a3 b 3
a3 b 3
a2 b 2
mit der Standardbasis e1 , e2 , e3 von R3 sieht aus wie die Determinante einer 3 × 3 Matrix
deren erste Spalte aus e1 , e2 und e3 besteht, d.h. formal


e1 a1 b1
a ∧ b = det e2 a2 b2  .
e3 a3 b3
2.11
Lineare Abbildungen
Lineare Abbildungen
Seien V, W zwei Vektorräume über K (K = R oder K = C). Eine Abbildung F : V → W
heißt linear falls für alle u, v ∈ V and alle λ ∈ K,
F (λv) = λF (v),
F (u + v) = F (u) + F (v).
Für jede lineare Abbildung F ist F (0) = 0 und
!
n
n
X
X
F
λi vi =
λi F (vi ).
i=1
i=1
Der Kern {v ∈ V | F (v) = 0} und das Bild {F (v) | v ∈ V } einer linearen Abbildung
F : V → W sind Unterräume von V bzw. W .
Bemerkungen:
32
(a) Sind F, G : V → W linear, dann sind auch F + G und λF linear. Somit ist die
Menge der linearen Abbildungen von V nach W ,
Hom(V, W ) := {F : V → W |F ist linear}
selbst auch ein Vektorraum über K (Raum der Homomorphismen).
(b) Sind F : V → W und G : U → V linear, dann ist auch F ◦ G : U → W linear.
(c) Ist F : V → W linear und bijektiv, dann ist auch F −1 : W → V linear.
Matrizen linearer Abbildungen
Satz 2.35. Zu jeder linearen Abbildung F : K n → K m gibt es eine m × n Matrix
A = (aij ), aij ∈ K, so dass
F (x) = Ax,
für alle x ∈ K n .
(4)
Umgekehrt wird durch jede m×n Matrix A via (4) eine lineare Abbildung F : K n → K m
definiert. Die Spalten von A sind die Bilder der Basisvektoren e1 , . . . , en von K n .
Bemerkungen:
(a) Sind F, G : K n → K m linear mit F (x) = Ax und G(x) = Bx, dann ist A + B die
Matrix von F + G und λA ist die Matrix von λF .
(b) Sind F : K n → K m und G : K l → K n linear mit F (x) = Ax und G(x) = Bx,
dann ist AB die Matrix von F ◦ G, d.h
(F ◦ G)(x) = ABx,
für alle x ∈ K l .
(c) Eine lineare Abbildung F : K n → K n mit F (x) = Ax ist genau dann bijektiv,
wenn die Matrix A invertierbar ist, und dann gilt
F −1 (x) = A−1 x.
Satz 2.36. Sei F : K n → K m linear mit F (x) = Ax. Dann gilt
(a) F ist genau dann injektiv wenn KernA = {0}.
(b) F ist genau dann surjektiv wenn RangA = m.
Aus diesem Satz und der Dimensionsformel RangA + dim(KernA) = n (Theorem 2.19)
folgt sofort:
Satz 2.37. Für eine lineare Abbildung F : K n → K n (quadratische Matrix!) sind äquivalent:
(a) F ist injektiv,
(b) F ist surjektiv,
(c) F ist bijektiv.
33
Orthogonale Abbildungen
Eine reelle n × n Matrix A und auch die zugehörige lineare Abbildung F : Rn → Rn
heißen orthogonal wenn
AT = A−1 .
Das wird durch folgenden Satz erklärt:
Satz 2.38. Sei A eine reelle n × n Matrix. Dann sind äquivalent:
(a) A ist orthogonal,
(b) (Ax) · (Ay) = x · y für alle x, y ∈ Rn ,
(c) |Ax| = |x| für alle x ∈ Rn ,
(d) die Spalten von A bilden eine ONB von Rn .
(e) die Zeilen von A bilden eine ONB von Rn .
Ist A orthogonal, dann gilt
det A = ±1,
denn aus E = AT A folgt 1 = det E = det AT A = (det A)2 .
O(n) := Menge der orthogonalen n × n Matrizen,
heißt orthogonale Gruppe des Rn .
SO(n) := {A ∈ O(n) | det A = +1} heißt
spezielle orthogonale Gruppe.
Orthogonale Abbildungen sind
• längentreu
• winkeltreu
• volumentreu
Spiegelungen und Drehungen
Die Spiegelung s : Rn → Rn am Ursprung 0 ∈ Rn , s(x) = −x, hat die orthogonale
Matrix −E mit Determinante det(−E) = (−1)n .
Die Spiegelung an der Ebene a · x = 0 mit |a| = 1:
s : R3 → R3 ,
s(x) = x − 2a(a · x)
hat die orthogonale Matrix


1 − 2a21 −2a1 a2 −2a1 a3
E − 2aaT = −2a2 a1 1 − 2a22 −2a2 a3 
−2a3 a1 −2a3 a2 1 − 2a23
34
mit det(E − 2aaT ) = −1. Offensichtlich ist diese Matrix symmetrisch. Das muss so sein,
denn s−1 = s und somit gilt S T = S −1 = S für S = E − 2aaT .
Eine Drehungen in der Ebene um 0 ∈ R2 wird beschrieben durch eine orthogonale
Matrix:
cos ϕ − sin ϕ
D(ϕ) =
,
det D(ϕ) = 1.
sin ϕ cos ϕ
Drehungen um die x, y und z-Achse werden dargestellt durch SO(3) Matrizen




1
0
0
cos β 0 sin β
1
0 
D1 (α) = 0 cos α − sin α , D2 (β) =  0
0 sin α cos α
− sin β 0 cos β


cos γ − sin γ 0
D3 (γ) =  sin γ cos γ 0
0
0
1
Die Vorzeichen sind so gewählt, dass ein positiver Winkel zu einer Drehung im Gegenuhrzeigesinn führt wenn man gegen der Achse blickt.
Die Drehung im Raum um die Achse parallel zu einem gegebenen Einheitsvektor
a ∈ R3 mit Winkel ϕ ist eine orthogonale Abbildung d : R3 → R3 gegeben durch
d(x) = (cos ϕ)x + (1 − cos ϕ)(x · a)a + (sin ϕ)a ∧ x.
Die zugehörige Matrix ist:


0 −a3 a2
0 −a1 
D = (cos ϕ)E + (1 − cos ϕ)aaT + (sin ϕ)  a3
|
{z
}
−a2 a1
0
symmetrisch
|
{z
}
(5)
antisymmetrisch
Man kann zeigen, dass
D ∈ SO(3)
⇔
D ist Drehmatrix.
Somit ist jede jede SO(3) Matrix von der Form (5).
Ist D = (dij ) eine gegebene SO(3)-Matrix dann kann man den zugehörige Drehwinkel
ϕ und den Vektor a aus den Elementen der Matrix D berechnen. Nach (5) gilt
1
cos ϕ = (SpurD − 1) mit SpurD := d11 + d22 + d33
2
was einen Winkel ϕ ∈ [0, π] festlegt, und der zugehörige Vektor a ist gegeben durch

d32 − d23
d
a=
, mit d := d13 − d31 
|d|
d21 − d12

falls ϕ 6= π
und für ϕ = π kann für a eine normierte Lösung von (D − E)a = 0 gewählt werden.
35
Euler-Winkel
Sind b1 , b2 , b3 ∈ R3 orthonormierte Vektoren welche ein Rechtsystem bilden, zum Beispiel
bk = Dek wobei D eine Drehmatrix ist, dann sind die Eulerschen Winkel ψ, ϕ, θ definiert
000
000
durch folgende Figur, worin die Achsen x000
1 , x2 , x3 durch die Vektoren b1 , b2 , b3 definiert
sind.
Es gilt also bk = D3 (ψ)D1 (θ)D3 (ϕ)ek . Jede Drehmatrix D lässt sich somit schreiben als
D = D3 (ψ)D1 (θ)D3 (ϕ)
.
2.12
Basiswechsel
Sei {e1 , . . . , en } die Standardbasis von K n und sei P
{b1 , . . . , bn } eine zweite Basis von K n .
T
Dann lässt sich jeder Vektor x = (x1 , . . . , xn ) = ni=1 xi ei darstellen in der Form
x=
n
X
x0k bk ,
(6)
k=1
mit eindeutig bestimmten Koordinaten x0k ∈ K. Der Spaltenvektor x0 := (x01 , . . . , x0n )T
heißt Koordinatenvektor von x bezüglich der Basis {b1 , . . . , bn }. Aus (6) folgt, dass
x = Bx0 ,
x0 = B −1 x,
B := (b1 , . . . , bn )
P
denn nk=1 x0k bk = Bx0 , wenn B die Matrix gebildet aus den Spaltenvektoren b1 , . . . , bn
bezeichnet.
Bemerkungen:
• Im Fall der Standardbasis stimmt der Koordinatenvektor x0 mit dem zugehörigen
Vektor x ∈ K n überein.
• Bei einem Basiswechsel ändert sich nur der Koordinatenvektor. Der Vektor selbst
bleibt unverändet!
36
Die Matrix A einer lineare Abbildung F : K n → K n besteht aus den Spaltenvektoren Ae1 , . . . , Aen . Diese Spaltenvektoren sind Koordinatenvektoren von F (e1 ), . . . , F (en )
bezüglich der Standardbasis. Ist {b1 , . . . , bn } eine beliebige Basis von K n , dann ist die
Abbildungsmatrix C von F bezüglich {b1 , . . . , bn } definiert durch
C = F (b1 )0 , . . . , F (bn )0 .
F (bk )0 = Koordinatenvektor von F (bk ) bezüglich {b1 , . . . , bn }.
Satz 2.39. Ist C die Abbildungsmatrix einer linearen Abbildung F : K n → K n bezüglich
der Basis {b1 , . . . , bn }, dann gilt
F (x)0 = Cx0 ,
und
C = B −1 AB,
wobei x0 , F (x)0 Koordinatenvektoren bezüglich der Basis {b1 , . . . , bn } sind, und A die
Abbildungsmatrix von F bezüglich der Standardbasis von K n bezeichnet.
Zwei n × n-Matrizen A, C heißen ähnlich, wenn es eine invertierbare Matrix B gibt,
so dass C = B −1 AB.
2.13
Eigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren
Sei A = (aij ) eine komplexe (oder reelle) n×n Matrix. Eine Zahl λ ∈ C heißt Eigenwert
von A, wenn es einen Vektor b ∈ Cn , b 6= 0, gibt
Ab = λb.
Jeder Vektor b 6= 0 der diese Gleichung erfüllt heißt Eigenvektor von A zum Eigenwert
λ.
Satz 2.40. Eine komplexe Zahl λ ist genau dann ein Eigenwert der n × n Matrix A,
wenn det(A − λE) = 0.
Zur Berechnung der Eigenwerte von A sind also die Nullstellen des charakteristisches
Polynom
χA (λ) := det(A − λE)
von A zu bestimmen.
a b
Für eine 2 × 2-Matrix A =
gilt
c d
a−λ
b
χA (λ) = det
= λ2 − (a + d)λ + (ad − bc)
c
d−λ
= λ2 − (SpurA)λ + det A,
und allgemein
χA (λ) = (−λ)n + (SpurA)(−λ)n−1 + . . . + det A
wobei die Spur von A definiert ist durch
Spur(A) := a11 + a22 + . . . + ann .
37
(7)
Berechnung der Eigenwerte und Eigenvektoren
• Nach Satz 1.19 hat χA eine Faktorisierung
χA (λ) = (λ1 − λ)m1 · · · (λr − λ)mr .
(8)
Die Zahlen λ1 . . . , λr sind die Nullstellen von χA und somit die Eigenwerte von
A. Die Vielfachheit mi der Nullstelle λi heißt algebraische Vielfachheit des
Eigenwerts λi .
• Die Eigenvektoren zum Eigenwert λi sind die von Null verschiedenen Lösungen des
homogenen linearen Gleichungssystems (A − λi E)x = 0. Der Lösungsraum
V (λi ) := Kern(A − λi E)
heißt Eigenraum zu λi . dim V (λi ) heißt geometrische Vielfachheit des Eigenwerts λi .
Durch Ausmultiplizieren von (8) und Vergleich mit (7) bekommt man
SpurA =
r
X
mi λi ,
det A =
i=1
r
Y
i
λm
i .
i=1
Also gilt:
SpurA = Summe der Eigenwerte
det A = Produkt der Eigenwerte
wenn in der Summe und im Produkt jeder Eigenwert so oft aufgenommen wird wie seine
algebraische Vielfachheit angibt.
Satz 2.41. Sei A eine komplexe oder reelle n × n-Matrix.
(a) Sei b ein Eigenvektor von A mit Eigenwert λ. Dann ist b auch ein Eigenvektor von
am Am + . . . + a1 A + a0 E
und der zugehörige Eigenwert ist am λm + . . . + a1 λ + a0 .
(b) A, AT und B −1 AB haben dasselbe charakteristische Polynom und deshalb auch
dieselben Eigenwerte. Ist b ein Eigenvektor von A, dann ist B −1 b eine Eigenvektor
von B −1 AB und umgekehrt.
(c) A ist genau dann invertierbar wenn 0 keine Eigenwert von A ist. Ist λ ein Eigenwert von A mit Eigenvektor b, dann ist λ−1 eine Eigenvektor von A−1 mit
demselben Eigenvektor b.
Satz 2.42. Eigenvektoren b1 , . . . , br zu paarweise verschiedenen Eigenwerten λ1 , . . . , λr
der Matrix A sind linear unabhängig.
38
Satz 2.43. Sei A eine komplexe oder reelle n × n-Matrix. Falls A n linear unabhängige
Eigenvektoren b1 , . . . , bn hat mit nicht notwendig verschiedenen Eigenwerten λ1 , . . . , λn ,
dann gilt


λ1 0 · · · 0
 0 λ2



B −1 AB =  ..
..  ,
.
.
.
. .
0
· · · λn
wobei B = (b1 , . . . , bn ).
Anwendung von Satz 2.43: Berechnung von Ak .
2.14
Symmetrische Matrizen und quadratische Formen
Theorem 2.44. Für jede symmetrische reelle n × n Matrix A gilt:
(a) Alle Eigenwerte sind reell.
(b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal.
(c) Algebraische und geometrische Vielfachheit jedes Eigenwerts stimmen überein.
Korollar 2.45. Ist A eine symmetrische reelle n × n-Matrix, dann gibt es eine ONB
von Rn bestehend aus Eigenvektoren von A.
Nach Korollar 2.45 lässt sich eine symmetrische 3 × 3 Matrix durch eine Drehung des
Koordinatensystems diagonalisieren, d.h. auf Diagonalgestalt bringen.
Satz 2.46. Zwei symmetrische n×n Matrizen A, C mit AC = CA lassen sich gleichzeitig
(orthogonal) diagonalisieren, d.h. es gibt eine ONB {b1 , . . . , bn } von Rn , so dass B −1 AB
und B −1 CB Diagonalmatrizen sind wenn B = (b1 , . . . , bn ).
Eine quadratische Form q ist eine Abbildung q : Rn → R mit q(x) = xT Ax wobei
A eine reelle, symmetrische n × n Matrix ist. q heißt rein quadratisch wenn A eine
Diagonalmatrix ist.
Bemerkung:
• Wenn die Matrix A nicht symmetrisch ist, dann kann man sie ersetzen durch
die symmetrische Matrix (A + AT )/2 ohne dass sich dabei die quadratische Form
q(x) = xT Ax ändert.
• Eine Funktion f : Rn → R deren Graph bei 0 eine horizontale Tangentialeben
hat, kann dort durch eine quadratische Form q : Rn → R approximiert werden
(HM2). Das Studium von q gibt Aufschluss darüber, ob f bei 0 ein Maximum, ein
Minimum oder keines von beidem hat.
39
Basiswechsel. Sei b1 , . . . , bn eine Basis von Rn , B := (b1 , . . . , bn ), und sei x = By, d.h.
y1 , . . . , yn sind die Koordinaten von x ∈ Rn bezüglich der neuen Basis. Dann gilt
q(x) = xT Ax = (By)T ABy = y T (B T AB)y =: q̃(y).
Die quadratische Form q wir also bezüglich der Basis b1 , . . . , bn dargestellt durch die
Matrix
à = B T AB
Bemerkungen:
• Die Matrix einer quadratischen Form transformiert sich bei Basiswechsel nicht so
wie die Matrix einer linearen Abbildung, ausser B T = B −1 .
• Die Matrizen à = B T AB und A haben nicht dieselben Eigenwerte, ausser B T =
B −1 , d.h. ausser {b1 , . . . , bn } eine ONB von Rn .
Eine ONB {b1 , . . . , bn } heißt Hauptachsensystem von q, wenn q in dieser Basis rein
quadratisch ist. Aus Korollar 2.45 folgt
Jede quadratische Form hat ein Hauptachsensystem.
Bestimmung eines Hauptachsensystems von q(x) = xT Ax:
1. Man bestimme die Eigenwerte λ1 , . . . , λr von A.
(i)
(i)
2. Zu jedem der verschiedenen Eigenwerte λi bestimmt man eine ONB {b1 , . . . , br }
von V (λi ) = Kern(A − λi E).
(i)
(i)
3. Die Vereingung ∪ri=1 {b1 , . . . , br } der Teilbasen ist ein Hauptachsensystem.
Die Signatur einer symmetrischen Matrix A ist die das Zahlentripel (p, q, s) bestehend
aus:
p = Anzahl positiver Eigenwerte von A,
q = Anzahl negativer Eigenwerte von A,
s = Vielfachheit des Eigenwerts 0.
Satz 2.47 (Trägheitssatz von Sylvester). Ist A eine symmetrische und W eine invertierbare n × n Matrix, dann haben A und W T AW die selbe Signatur
Beweis: Siehe Meyberg, Vachenauer
Terminologie für quadratische Formen q : Rn → R mit q(x) = xT Ax, bzw. für symmetrische Matrizen A:
für alle x 6= 0 gilt
q(x) > 0
q(x) ≥ 0
q(x) ≤ 0
q(x) < 0
q(x1 ) > 0, q(x2 ) < 0
40
q bzw. A heißt
positiv definit
positiv semidefinit
negativ semidefinit
negativ definit
indefinit.
Diese Eigenschaften einer symmetrischen Matrix sind unabhängig von der Wahl der
Basis, denn es gilt:
A ist positiv definit ⇔ W T AW ist positiv definit
wenn W eine invertierbare Matrix ist, und analog für positiv semidefinit, negativ semidefinit, etc.
Sei A eine symmetrische n × n Matrix und b1 , . . . , bn ein Hauptachsensystem von A, d.h.
eine ONB mit Abi = λi bi . Sei B = (b1 , . . . , bn ), dann ist A positiv definit genau dann
wenn B T AB positiv definit ist und
T
T
x (B AB)x =
n
X
λi x2i .
i=1
Satz 2.48. Für jede symmetrische n × n Matrix A gilt:
(i)
A ist positiv definit ⇔ alle EW sind > 0,
(ii) A ist positiv semidefinit ⇔ alle EW sind ≥ 0,
(iii) A ist negativ semidefinit ⇔ alle EW sind ≤ 0,
(iv)
A ist negativ definit ⇔ alle EW sind < 0,
(v)
A ist indefinit ⇔ es gibt positive und negative EW.
Typische Graphen
-1.0
-0.5
0.5
0.0
1.0
2.0
1.5
q(x, y) = x2 + y 2 , positiv definit
1.0
0.5
0.0
-1.0
-0.5
0.0
0.5
1.0
-1.0
-0.5
1.0
0.5
0.0
1.0
0.5
q(x, y) = x2 , positiv semidefinit
0.0
-1.0
-0.5
0.0
0.5
1.0
-1.0
-0.5
0.0
1.0
0.5
1.0
0.5
0.0
-0.5
q(x, y) = x2 − y 2 , indefinit
-1.0
-1.0
-0.5
0.0
0.5
1.0
Sei A = (aij ) eine symmetrische n × n Matrix. Dann gilt:
A ist positiv definit
⇒
aii > 0, für alle i.
Die Positivität der Diagonalelemente aii ist aber nicht hinreichend dafür, dass A positiv
definit ist. Folgender Satz gestattet zu prüfen ob eine Matrix positiv definit ist, ohne die
Eigenwerte zu berechnen:
41
Satz 2.49 (Jacobi). Eine symmetrische n × n Matrix A = (aij ) ist genau dann positiv
definit, wenn die n Hauptuntermatrizen H1 = a11 ,


a11 . . . a1k
a11 a12

..  , . . . , H = A
H2 =
, . . . , Hk =  ...
n
. 
a21 a22
ak1 . . . akk
positive Determinanten haben.
2.15
Quadriken
Transformation von Punktkoordinaten
Jeder Punkt X = (x1 , . . . , xn ) ∈ Rn entspricht einem Ortsvektor x = (x1 , . . . , xn )T und
umgekehrt. Aber man muss zwischen Koordinaten eines Punktes (oder Ortsvektors)
und Koordinaten eines Vektors unterscheiden, da sie sich verschieden verhalten unter
Basiswechsel.
Ein affines Koordinatensystem K = (P ; b1 , . . . , bn ) von Rn besteht aus einem Punkt
P ∈ Rn und einer Basis {b1 , . . . , bn } von Rn (als Vektorraum). Die Koordinaten x01 , . . . , x0n
von X ∈ Rn bezüglich K sind bestimmt durch die Gleichung
x=p+
n
X
x0i bi .
i=1
P
Wir schreiben XK := (x01 , . . . , x0n ) und x0 := ni=1 x0i bi . Ist B = (b1 , . . . , bn ) dann gilt
offenbar:
x = p + Bx0 ,
x0 = B −1 (x − p).
Quadriken
Eine Funktion p : Rn → R der Form
p(x) = a0 + aT x + xT Ax = a0 +
n
X
ai x i +
i=1
X
aij xi xj
i,j
mit a0 ∈ R, a ∈ Rn und AT = A = (aij ) heißt quadratisches Polynom in den Variablen x1 , . . . , xn . Insbesondere ist jede quadratische Form q(x) = xT Ax ein quadratisches
Polynom.
Die Menge aller Punkte x = (x1 , . . . , xn ) ∈ Rn , welche eine Gleichung der Form
p(x) = xT Ax + aT x + β = 0,
erfüllen, nennt man eine Quadrik (oder Hyperfläche zweiter Ordnung). Jede Niveaufläche
{x ∈ Rn | p(x) = const} eines quadratischen Polynoms p ist also eine Quadrik.
42
Beispiele von Quadriken in R2
1.0
0.8
2
2
x + 2xy + 3y − 2y − x = 0
0.6
0.4
0.2
-0.4
-0.2
0.2
0.4
0.6
0.8
1.0
-0.2
-0.4
1.0
0.5
2
2
x − 6xy + 9y − 2 = 0
-1.0
-0.5
0.5
1.0
-0.5
-1.0
0.5
1.0
1.5
2.0
-1.5
-2.0
21
y2
+ xy + 4x + y −
=0
−x +
2
20
2
-2.5
-3.0
Normalform von Quadriken
Die Quadrik xT Ax+aT x+β = 0 liegt in Normalform vor, wenn xT Ax rein quadratisch
ist, und aT x + β durch keine affine Substitution verkürzt werden kann. Für eine Tabelle
von Quadriken in Normalform siehe Meyberg/Vachenauer.
Transformation auf Normalform:
• Hauptachsentransformation: Bestimmung der Eigenwerte λ1 , . . . , λn von A
und einer ONB zugehöriger Eigenvektoren b1 , . . . , bn . Die Quadrikengleichung im
Koordinatensystem (0; b1 , . . . , bn ) lautet:
λ1 y12 + . . . + λn yn2 + γ1 y1 + . . . + γn yn + β = 0
P
wobei γi = bi · a und x = nk=1 yk bk .
• Quadratische Ergänzung: Sei λ1 , . . . , λr 6= 0 und λr+1 , . . . , λn = 0. Durch quadratische Ergänzung erhalten wir
r
r
X
X
2
λk yk + γk yk + β =
λk zk2 + γ
k=1
k=1
wobei zk := yk + (γk /2λk ) und γ := b −
γk2
k=1 4λk .
Pr
• Reduktion des linearen Anteils. Falls γk 6= 0 für eine k ≥ r + 1, z.B. γn 6= 0,
dann wird γ eliminiert durch γn yn + γ = γn zn mit zn := yn + (γ/γn ). Wir setzen
zk := yk für die übrigen k’s und erhalten
n
X
γ
alle γk = 0
γk yk + γ = Pn
k=r+1 γk zk ein γk 6= 0.
k=r+1
Die Normalform wird angenommen im Koordinatensystem (Bu; b1 , . . . , bn ) wobei uk =
−γk /2λk , k ≤ r, und für k ≥ r + 1, uk = 0 oder uk = −γ/γk .
43
2.16
PageRank: die Bewertung einer Webpage durch Google
Problemstellung: Sei n die Anzahl existierender Webseiten (ein paar Milliarden). Gesucht ist für jede Webpage i ∈ {1, . . . , n} eine Bewertung xi ≥ 0, welche ein Mass
für die relative Wichtiggkeit der Seite darstellt. Suchmaschinen benötigen eine solche
Bewertung um die gefundenen Webseiten nach Wichtigkeit zu ordnen.
1 es gibt einen Link von Seite j auf die Seite i.
0 sonst.
n
X
nj :=
Lji = Anzahl Links von Seite j auf andere Seiten,
Lji :=
i=1
n
X
Lji = Anzahl Links von anderen Seiten auf die Seite i.
j=1
Lii := 0.
Idee: Die Bewertungen x1 , . . . , xn sollen den Gleichungen
n
X
1
xi =
Lji xj
n
j
j=1
i = 1, . . . , n,
(9)
genügen. D.h. xi ist groß, wenn viele oder wichtige andere Webseiten einen Link auf die
Seite i haben. Dabei ist der Wert eines Links reduziert wenn er von einer Seite mit vielen
Links kommt.
Gleichung (9) ist äquivalent zum Eigenwertproblem
x = Ax,
Aij :=
1
Lji ,
nj
x := (x1 , . . . , xn )T .
(10)
Die Matrix A hat die Eigenschaften Aij ≥ 0 und
Spaltensumme:
n
X
Aij = 1,
für alle j.
i=1
Man nennt solche Matrizen stochastisch.
Satz 2.50. Sei A eine stochastische Matrix. Dann gilt:
(a) Für alle Eigenwerte λ ∈ C von A gilt |λ| ≤ 1.
(b) λ = 1 ist ein Eigenwert von A und es gibt einen Eigenvektor x = (x1 , . . . , xn ) mit
xi ≥ 0.
(c) Wenn Aij > 0Pfür alle i, j, dann hat der Eigenwert 1 die Vielfachheit 1 und für
jedes v ∈ Rn , i vi 6= 0, ist der Limes
lim Ak v
k→∞
ein Eigenvektor von A zum Eigenwert 1.
44
Problem: Die Bedingung Aij > 0 ist nicht erfüllt für die Matrix Aij = Lji /nj . Die
Lösung von (10) ist daher in der Regel nicht eindeutig und der Limes in Teil (b) des
obigen Satzes braucht nicht zu existieren.
Lösung: Die Bedingung an x wir wie folgt modifiziert:
e = (1, . . . , 1)T ,
x = αAx + (1 − α)e,
(11)
wobei α ∈ (0, 1). In der Praxis wird α = 0.85 gewählt. Jede Webseite hat also ein Gewicht
von 0.15 unabhängig von der Linkstruktur des www. Die Lösung des Gleichungssystems
(11) ist
x = (1 − α)(E − αA)−1 e.
(12)
Weil die Berechnung der Inversen von E − αA zu aufwending ist berechnet man (12)
durch Iteration der Gleichung (11): wenn
x(k+1) := αAx(k) + (1 − α)e,
dann ist limk→∞ x(k) die Lösung von (11) und zwar unabhängig von der Wahl von x(0) .
Also, a PageRank for 26 million web pages can be computed in a few hours on a medium
size workstation. (http://infolab.stanford.edu/ backrub/google.html)
3
3.1
Konvergenz und Stetigkeit
Zahlenfolgen und Grenzwerte
Beispiele von Zahlenfolgen
Für n ∈ N sei
1
bn = (−1)n−1 ,
an := ,
n
Graphische Darstellung (Graphen):
ì
ì
ì
3
ì
ì
2
ì
ì
1
æ
à
ì
à
æ
-1
æ
à
æ
æ
à
æ
æ
æ
2
4
6
8
à
à
à
à
Zahlenfolgen
Eine Folge reeller Zahlen ist eine Abbildung
N → R,
n 7→ an .
45
cn =
√
n
n!
Man schreibt dafür
(an )n∈N ,
(an )n≥1 ,
(an ),
oder a1 , a2 , a3 . . .
Die Zahlen an heißen Glieder der Folge. Eine Folge braucht nicht mit a1 zu beginnen;
z.B. nennt man auch a5 , a6 , a7 , . . . eine Folge, da man durch die Umnumerierung der
Glieder bn := an+4 , n ≥ 1, eine Folge in obigem Sinn definieren kann.
Eine Folge heißt beschränkt, wenn es eine Zahl K gibt, mit
|an | ≤ K
für alle n ∈ N.
Folgen und Flächenberechnung
1.0
1.0
1.0
1.0
0.8
0.8
0.8
0.8
0.6
0.6
0.6
0.6
0.4
0.4
0.4
0.4
0.2
0.2
0.2
0.2
0.2
0.4
0.6
0.8
1.0
0.2
0.4
0.6
0.8
1.0
0.2
0.4
0.6
0.8
a1 = 0.433013,
1.0
0.2
0.4
0.6
0.8
a2 = 0.623927,
1.0
a3 = 0.709955.
an = Gesamtfläche der 2n − 1 Rechtecke unterhalb des Viertelskreises. Je größer n ist,
desto besser wird die Fläche des Viertelskreises durch an approximiert. Wir werden
später sehen, das
π
(n → ∞).
an → = 0.785398 . . . ,
4
Konvergenz
Eine Folgen (an ) konvergiert (oder strebt) gegen die Zahl a, in Zeichen
lim an = a,
n→∞
oder an → a,
(n → ∞),
falls es zu jeder noch so kleinen Zahl ε > 0 einen Indexwert n0 ∈ N gibt, so dass
n ≥ n0
⇒
|an − a| < ε.
Die Zahl a heißt Grenzwert der Folge (an ). Eine Folge heißt konvergent wenn sie einen
Grenzwert hat, sonst heißt sie divergent. Eine Folge mit Grenzwert 0 heißt Nullfolge.
Wichtigstes Beispiel:
1
= 0.
n→∞ n
lim
46
Illustrationen von Konvergenz und Divergenz
1.6
1.4
æ
æ æ
1.2
æ
1.0
æ
0.8
æ æ æ
æ
æ
æ
æ æ æ
æ æ æ æ
æ æ æ
0.6
5
æ
10
15
20
25
æ
lim
n→∞
2.0
1.5
1.0
0.5
-0.5
-1.0
-1.5
æ
æ
æ
æ
æ
5
æ
æ
æ
æ
æ
10
æ
æ
æ
æ
æ
15
æ
æ
æ
20 sin(n)
1+
n2
æ
æ
= 1.
æ
20
æ
25
æ
æ
æ
Die Folge an = (−1)n hat weder den Grenzwert 1 (siehe Figur) noch irgend einen anderen
Grenzwert. Sie ist daher divergent.
Satz 3.1. (a) Der Grenzwert einer konvergenten Folge ist eindeutig: falls limn→∞ an =
a und limn→∞ an = b dann gilt a = b.
(b) Jede konvergente Folge ist beschränkt.
Korollar 3.2. Ist die Folge (an ) unbeschränkt, dann ist sie divergent.
Die Folge (an ) divergiert gegen ∞ (oder strebt gegen ∞), in Zeichen
lim an = ∞ oder an → ∞,
n→∞
(n → ∞)
falls zu jeder noch so großen Zahl K ∈ R eine Indexwert n0 ∈ N existiert, so dass
n ≥ n0
⇒
an > K.
Divergenz gegen −∞ ist analog definiert.
Geometrische Folge und geometrische Reihe
Für jede reelle Zahl x gilt:

x > 1,
 ∞
n
0
−1
<
x < 1,
lim x =
n→∞

unbestimmt
x ≤ −1.
(13)
Für jede reelle Zahl x 6= 1 gilt
1 − xn+1
.
(14)
1−x
Die Folge (14) heißt geometrische Reihe. Sie ist konvergent für |x| < 1 und divergent
für |x| ≥ 1. Nach (13) gilt
∞
X
1
xk := lim (1 + x + x2 + . . . + xn ) =
,
|x| < 1.
n→∞
1
−
x
k=0
sn := 1 + x + x2 + . . . + xn =
47
Teilfolgen und Häufungspunkte
Ist (an )n≥1 eine Folge und n1 < n2 < n3 , . . . eine aufsteigende Indexfolge, dann heißt die
Folge an1 , an2 , an3 , . . . Teilfolge der Folge (an ).
Satz 3.3. Hat die Folge (an ) den Grenzwert a, dann konvergiert auch jede Teilfolge von
(an ) gegen a.
Eine Zahl a ∈ R heißt Häufungspunkt der Folge (an ), wenn eine Teilfolge existiert, welche gegen a konvergiert. Insbesondere ist der Grenzwert einer Folge auch ein Häufungspunkt.
Konvergenzkriterien und Rechenregeln
Satz 3.4 (Vergleichskriterien).
dann gilt
(a) Falls |an | ≤ bn für alle n ≥ n1 und limn→∞ bn = 0,
lim an = 0
n→∞
(b) Falls an ≤ bn ≤ cn für n ≥ n1 und limn→∞ an = L = limn→∞ cn , dann gilt
lim bn = L.
n→∞
(c) Falls limn→∞ an = a, limn→∞ bn = b, und an ≤ bn für alle n ≥ n1 , dann gilt
-
a ≤ b.
æ
Bemerkung: Wenn an < bn für alle n ≥ n1 in Teil (c), dann folgt trotzdem nur a ≤ b.
Das sieht man am Beispiel an = 0, bn = 1/n.
æ
1.5
-
1.0
0.5
0.0
-
-
- æ æ - - - - æ æ
æ - - - - æ
æ æ - - - æ
æ
æ
æ
æ
æ
æ
æ - - - - æ æ æ æ - - - - - æ æ - - - - - - æ
5
10
-
−
Satz 3.5.
(a) limn→∞ an = a
15
1
1 + 2 sin(n)
3
≤
≤ .
n
n
n
⇒
limn→∞ |an | = |a|.
√
√
⇒ limn→∞ an = a.
(b) an ≥ 0 und limn→∞ an = a
√
(c) limn→∞ n a = 1 für alle a > 0.
√
(d) limn→∞ n n = 1.
48
20
25
Satz 3.6 (Rechenregeln). Seien (an ) und (bn ) konvergente Folgen mit limn→∞ an = a
und limn→∞ bn = b. Dann gilt
(a) limn→∞ (an + bn ) = a + b.
(b) limn→∞ (an bn ) = ab.
(c) Falls b 6= 0, dann gibt es ein n1 mit bn 6= 0 für n ≥ n1 und
an
a
= .
n→∞ bn
b
lim
Monotone Folgen
Eine Folge (an )n≥1 heißt monoton wachsend, wenn
an ≤ an+1 ,
für alle n ≥ 1.
Sie heißt monoton fallend wenn an ≥ an+1 für alle n ≥ 1.
Theorem 3.7. Jede beschränkte monotone Folge ist konvergent.
Die Eulersche Zahl
∞
X
1
= 2, 71828 . . .
e :=
k!
k=0
ist der Grenzwert der beschränkten, monoton wachsenden Folge sn =
Pn
1
k=0 k! .
Lemma 3.8 (Bernoullische Ungleichung). Für alle n ∈ N und alle x ≥ −1 gilt:
(1 + x)n ≥ 1 + nx.
Illustration für n = 2 und n = 3:
2.0
2.0
1.5
1.5
1.0
1.0
0.5
-2.0
-1.5
-1.0
-0.5
0.5
0.5
1.0
-2.0
-1.5
-1.0
-0.5
0.5
-0.5
-0.5
-1.0
-1.0
1.0
Satz 3.9. Die Folge (1 + n1 )n ist monoton wachsend, beschränkt und
lim
n→∞
1
1+
n
n
X
1
= e.
n→∞
k!
k=0
n
= lim
Satz 3.10. Für alle x ∈ R existiert der Limes
x n
exp(x) := lim 1 +
n→∞
n
und es gilt exp(0) = 1, exp(x) > 0 und exp(−x) = 1/ exp(x).
49
Satz 3.11. Für alle x ∈ R und alle rationalen Zahlen r ∈ Q gilt
exp(xr) = exp(x)r .
Für rationale Zahlen r gilt nach Satz 3.9 und Satz 3.11, exp(r) = exp(1)r = er . Man
definiert daher für alle x ∈ R:
ex := exp(x).
Graph der Exponentialfunktion
3.0
2.5
2.0
1.5
1.0
0.5
-4
-3
-2
-1
0
1
2
Zinseszins
Ein Guthaben a > 0 wird für ein Jahr zum Zinssatz r ∈ (0, 1), also 100r Prozent,
angelegt. Das Endguthaben hängt davon ab, wie oft Zins ausgeschüttet wird:
Zinsausschüttung
jährlich
monatlich
täglich
jede Stunde
jede Sekunde
kontinuierlich
Endbetrag
a(1 + r)
r 12
)
a(1 + 12
r 365
a(1 + 365 )
r
a(1 + 8760
)8760
r
a(1 + 31536000
)31536000
limn→∞ a(1 + nr )n = aer
Da die Folge (1 + nr )n monoton wachsend ist, ist der Endbetrag umso größer, je öfter
Zins ausgeschüttet wird.
Wurzelberechnung
Satz 3.12. Sei b > 0, a0 > 0, und sei
an+1
1
=
2
b
an +
an
Dann gilt a1 ≥ a2 ≥ a3 ≥ . . . und
√
lim an =
n→∞
50
b.
.
Zur Berechnung von
√
3 wählen wir x0 = 2 und und erhalten:
x1
x2
x3
x4
=
=
=
=
1.75
1.7321...
1.732050810
1.732050808
Limes superior und Limes inferior
Sei (an ) eine Folge reeller Zahlen. Dann ist
bn := sup ak = sup{ak | k ≥ n}
k≥n
offensichtlich eine monoton fallende Folge. Wenn sie beschränkt ist, dann ist sie konvergent. Sonst ist entweder bn = ∞ für alle n, oder limn→∞ bn = −∞. In jedem Fall ist also
der Limes superior
lim sup an := lim sup ak .
n→∞
n→∞
k≥n
wohldefiniert. Die Folge bn := inf k≥n ak = inf{ak | k ≥ n} ist monoton wachsend. Also
existiert auch der Limes inferior
lim inf an := lim inf ak .
n→∞
n→∞
k≥n
• Im allgemeinen gilt lim inf n→∞ an ≤ lim supn→∞ an . Für eine beschränkte Folge
gilt
lim inf an = kleinster Häufungspunkt von (an ),
n→∞
lim sup an = größter Häufungspunkt von (an ).
n→∞
• Eine Folge (an ) ist genau dann konvergent, wenn sie beschränkt ist und
lim inf an = lim sup an ,
n→∞
(15)
n→∞
und dann ist (15) der Grenzwert der Folge.
• Jede beschränkte Folge (an ) hat eine konvergente Teilfolge. Z.B. die Teilfolge welche
gegen den Häufungspunkt lim supn→∞ an konvergiert. (Satz von Bolzano - Weierstraß.)
51
Das Cauchy-Kriterium
Eine Folge (an ) heißt Cauchy-Folge, wenn zu jedem ε > 0 ein Indexwert n0 ∈ N
existiert, so dass
n, m ≥ n0 ⇒ |an − am | < ε.
Theorem 3.13. Eine Folge reeller Zahlen ist genau dann konvergent, wenn sie eine
Cauchy-Folge ist.
Beweisidee: Mit Hilfe der Dreiecksungleichung ist es leicht zu zeigen, dass eine konvergente Folge das Cauchy-Kriterium erfüllt, und dass jede Cauchy-Folge beschränkt
ist (Übung). Für eine Cauchy-Folge (an ) sind somit lim inf n→∞ an und lim supn→∞ an
endlich und, wegen dem Cauchy-Kriterium, sogar gleich. Also ist jede Cauchy-Folge
konvergent.
Bestimmte Divergenz und Konsequenzen
(a) Wenn limn→∞ an = ∞ und (bn ) beschränkt ist, dann gilt
Satz 3.14.
bn
= 0.
n→∞ an
lim (an + bn ) = ∞,
lim
n→∞
(b) Wenn limn→∞ an = 0, an > 0 und limn→∞ bn = b 6= 0, dann gilt
bn
=∞
n→∞ an
bn
= −∞
lim
n→∞ an
lim
3.2
b>0
b < 0.
Grenzwerte von Funktionen
Beispiele
1.5
1.0
0.5
-2
-1
1
2
1
2
lim (x3 − x) = 0
x→0
-0.5
-1.0
-1.5
1.5
1.0
0.5
-2
-1
lim f (x) = −1,
x→0+
-0.5
lim f (x) = 1
-1.0
x→0−
-1.5
1.5
1.0
0.5
-1.0
-0.5
0.5
lim sin(1/x) existiert nicht
1.0
-0.5
x→0
-1.0
-1.5
52
Eine Funktion f hat für x gegen a ≥ −∞ den rechtsseitigen Grenzwert c, in Zeichen:
lim f (x) = c oder f (x) → c für x → a+,
(16)
x→a+
wenn
xn → a, (n → ∞)
xn > a
⇒ lim f (xn ) = c.
n→∞
Dazu braucht f nur für a < x < a + ε definiert zu sein. Auch wenn f in a definiert ist,
ist der Wert f (a) irrelevant für (16).
Der linksseitige Grenzwert limx→a− f (x) = c ist analog definiert.
Die Funktion f hat für x gegen a den Grenzwert c, in Zeichen:
lim f (x) = c oder f (x) → c,
x → a,
x→a
wenn limx→a+ f (x) = c = limx→a− f (x).
Aus Satz 3.4 folgt:
Satz 3.15 (Vergleichskriterien). (a) Wenn |f (x)| ≤ p(x) für x nahe a und limx→a p(x) =
0, dann gilt limx→a f (x) = 0.
(b) Wenn f (x) ≤ g(x) ≤ h(x) für x nahe a und limx→a f (x) = c = limx→a h(x), dann
gilt limx→a g(x) = c.
(c) Wenn f (x) ≤ g(x) für x nahe a, limx→a f (x) = c und limx→a g(x) = d, dann gilt
c ≤ d.
Diese Aussagen gelten auch für einseitige Grenzwerte und wenn a = ±∞.
0.4
0.2
0.1
0.2
0.3
0.4
lim x sin
0.5
1
x→0
x
= 0.
-0.2
-0.4
Wichtige Beispiele:
lim cos x = 1,
x→0
lim sin x = 0,
(17)
sin x
= 1.
x→0 x
(18)
x→0
cos x − 1
= 0,
x→0
x
lim
lim
1.5
1.0
0.5
-15
-10
-5
5
-0.5
-1.0
Graph von (sin x)/x
53
10
15
Aus Satz 3.6 folgt:
Satz 3.16 (Rechenregeln). Aus limx→a f (x) = c und limx→a g(x) = d mit c, d ∈ R folgt
(a) limx→a [f (x) + g(x)] = c + d
(b) limx→a f (x)g(x) = cd
(c) Falls d 6= 0, dann
f (x)
c
= .
x→a g(x)
d
lim
Diese Aussagen gelten auch für einseitige Grenzwerte und wenn a = ±∞.
Eine Funktion heißt monoton wachsend, wenn
x1 < x2
⇒
f (x1 ) ≤ f (x2 ).
f heißt streng monoton wachsend, wenn
x1 < x2
⇒
f (x1 ) < f (x2 ).
Monoton fallend und streng monoton fallend sind analog definiert. Eine Funktion
heißt monoton, wenn sie entweder monoton wachsend oder monoton fallend ist.
Satz 3.17 (Monotoniekriterium). Ist f : (a, b) → R monoton und beschränkt, dann
existieren die einseitigen Grenzwerte
f (a+) = lim f (x),
f (b−) = lim f (x).
x→a+
3.3
x→b−
Stetigkeit
Sei I ⊂ R ein Intervall. Eine Funktion f : I → R heißt stetig in x0 ∈ I, wenn
lim f (x) = f (x0 ).
x→x0
Ist x0 ein Randpunkt von I, dann ist limx→x0 f (x) als einseitiger Grenzwert zu verstehen.
Die Funktion f ist stetig auf I, wenn sie in jedem Punkt x0 ∈ I stetig ist. Eine Funktion
heißt stetig, wenn sie auf ihrem Definitionsbereich stetig ist.
Beispiele stetiger Funktionen von x:
1
,
x
|x|,
xn ,
√
x.
sin x,
cos x.
Die Stetigkeit dieser Funktionen folgt aus Satz 3.5, Satz 3.6 und (17).
54
Klassifikation von Unstetigkeiten
f (x0 −) = f (x0 +) 6= f (x0 )
f (x0 −) 6= f (x0 +) (Sprungstelle)
f (x0 −) oder f (x0 +) existiert nicht. (Unstetigkeit zweiter Art.)
Satz 3.18. Sei I ⊂ R ein Intervall.
(a) Sind f, g stetig auf I, dann auch f + g, αf (α ∈ R) und f g. Die Funktion f /g ist
stetig auf {x ∈ I : g(x) 6= 0}.
(b) Sind f : I → R und g : D → R stetig, wobei g(D) ⊂ I, dann ist auch die
Komposition h : D → R, h(x) = f (g(x)) auf D stetig.
Satz 3.18 (a) folgt aus Satz 3.16.
Korollar 3.19.
(a) Jedes Polynom p(x) = an xn + . . . + a1 x + a0 ist auf ganz R stetig.
(b) Jede rationale Funktion p/q ist stetig in allen x ∈ R mit q(x) 6= 0.
Theorem 3.20. Für jede auf einem abgeschlossenen, beschränkten Intervall [a, b] ⊂ R
stetige Funktion f gilt:
(a) Beschränktheit. Es gibt eine Schranke K mit |f (x)| ≤ K für alle x ∈ [a, b].
(b) Maximum und Minimum werden angenommen. Es gibt stets Punkte x0 , x1 ∈
[a, b] mit
f (x0 ) ≤ f (x) ≤ f (x1 ),
alle x ∈ [a, b].
(c) Zwischenwertsatz. Wenn f (x0 ) < c < f (x1 ) dann gibt es einen Punkt x̄ ∈ [a, b]
mit
f (x̄) = c.
(d) Gleichmäßige Stetigkeit. Zu jedem ε > 0 gibt es ein δ > 0, so dass
|x − x0 | < δ
⇒
55
|f (x) − f (x0 )| < ε.
Gegenbeispiele
10
8
Die Funktion f : (0, 1) → R, f (x) = 1/x, ist stetig aber sie hat
keine der Eigenschaften (a),(b),(d) aus dem Theorem. Grund:
(0, 1) ist nicht abgeschlossen.
6
4
2
0.0
0.2
0.4
0.6
0.8
1.0
1.0
0.8
Die Funktion f : [1, ∞) → R, f (x) = 1/x, ist stetig aber sie
nimmt kein Minimum an. Grund: [1, ∞) ist unbeschränkt.
0.6
0.4
0.2
2
4
6
8
10
Die Funktion f : [−1, 1] → R mit
−1, −1 ≤ x ≤ 0
f (x) =
1
,
0<x≤1
x
4
3
2
1
-1.0
-0.5
0.5
1.0
hat keine der Eigenschaften (a)-(d) aus Theorem 3.20. Grund:
sie ist nicht stetig.
Aus dem Zwischenwertsatz und der Stetigkeit von Polynomen folgt:
-1
Satz 3.21. (a) Ist f : [a, b] → R stetig und haben f (a) und f (b) entgegengesetzte
Vorzeichen, dann hat f mindestens eine Nullstelle x̄ ∈ (a, b). D.h. a < x̄ < b und
f (x̄) = 0.
(b) Jedes Polynom mit ungeradem Grad n ≥ 1 hat mindestens eine reelle Nullstelle.
Nullstellenbestimmung: Sei f (a) < 0 < f (b). Definiere rekursiv Intervalle [an , bn ] durch
[a0 , b0 ] = [a, b] und
an + b n
an + b n
) ≤ 0 dann an+1 :=
, bn+1 := bn ,
2
2
an + b n
an + b n
wenn f (
) > 0 dann bn+1 :=
, an+1 := an .
2
2
wenn f (
x̄ = limn→∞ an = limn→∞ bn ist eine Nullstelle von f .
56
4
4.1
Differentialrechnung
Die Ableitung
Vorbemerkungen
Im folgenden ist es wichtig zu unterscheiden zwischen einer Funktion f : I → R und
dem Funktionswert f (x):
f ist die Funktion,
f (x) ist der Wert der Funktion an der Stelle x,
wobei x ∈ I fest aber beliebig ist, sofern nichts anderes gesagt wird. Mit der Sprechweise
“die Funktion 1/x” meint man “die Funktion f gegeben durch f (x) = 1/x”.– Addition,
Multiplikation und Division von zwei Funktionen f, g : I → R sind punktweise definiert.
D.h.
(f + g)(x) := f (x) + g(x)
(f g)(x) := f (x)g(x)
f (x)
f
(x) :=
g
g(x)
wobei f /g den Definitionsbereich {x ∈ I | g(x) 6= 0} hat.
Die Ableitung
Sei I ⊂ R ein Interval und sei x0 ∈ I. Eine Funktion f : I → R heißt in x0 differenzierbar, wenn der Grenzwert
f (x) − f (x0 )
f (x0 + h) − f (x0 )
= lim
x→x
h→0
h
x − x0
0
lim
existiert und endlich ist. Dieser Grenzwert heißt Ableitung von f an der Stelle x0
und wird mit
df
(x0 )
f 0 (x0 ) oder
dx
bezeichnet. Die Funktion f ist auf I differenzierbar, wenn f in jedem Punkt von I
differenzierbar ist. In diesem Fall wird durch x 7→ f 0 (x) eine neuen Funktion erklärt,
welche mit
df
f 0 oder
dx
bezeichnet wird, und Ableitung von f heißt.
Geometrische Interpretation der Ableitung
f (x) − f (x0 )
=
x − x0
0
f (x0 ) =
Steigung der Sekante durch
(x0 , f (x0 )) und (x, f (x))
Steigung der Tangente an den Graphen
von f im Punkt (x0 , f (x0 )).
57
Gleichung der Tangente durch
(x0 , f (x0 )):
Tangente
fHxL
y = f (x0 ) + f 0 (x0 )(x − x0 )
fHx0 L
Sekante
x0
x
Physikalische Interpretation der Ableitung
Sei s(t) ∈ R die Position eines Teilchens zur Zeit t. Dann ist
ṡ(t0 ) :=
ds
s(t) − s(t0 )
(t0 ) = lim
t→t0
dt
t − t0
= Geschwindigkeit zur Zeit t0 .
Wird das Argument eine Funktion f nicht mit x, sondern mit t bezeichnet, dann schreibt
man oft f˙ statt f 0 für die Ableitung.
Beispiel:
g
s(t) = v0 t − t2 ⇒ ṡ(t) = v0 − gt
2
Hier ist s(t) die Höhe eines Steins über Boden, wenn er zur Zeit t = 0 mit Geschwindigkeit v0 von der Höhe 0 aufgeworfen wird. g = 9.81m/s2 .
Analytische Interpretation der Ableitung
Wenn f in x0 differenzierbar ist, dann gilt
f (x0 + h) = f (x0 ) + f 0 (x0 )h + R(h)
wobei
f (x0 + h) − f (x0 )
R(h)
=
− f 0 (x0 ) −→ 0,
h
h
Also ist R(h) klein im Vergleich zu |h|, wenn |h| klein ist.
In diesem Sinn gilt:
f (x0 + h) ≈ f (x0 ) + f 0 (x0 )h,
(h → 0).
|h| klein
Umgekehrt, wenn f (x0 + h) = f (x0 ) + mh + R(h) wobei m ∈ R und R(h)/h → 0 für
h → 0, dann ist f in x0 differenzierbar mit Ableitung m.
58
Das Differential
fHx0 +hL
df=f'Hx0 Lh
fHx0 L
Df
x0 x0 +h
dx = ∆x = x − x0 = h
∆f = f (x) − f (x0 )
df = f 0 (x)h
Zuwachs des Arguments
tatsächlicher Zuwachs von f
lineare Approximation des Zuwachses von f.
Somit gilt:
df = f 0 (x0 )dx.
Die lineare Abbildung df : h 7→ f 0 (x0 )h heißt Differential von f an der Stelle x0 .
Satz 4.1. Ist f : I → R ein x0 ∈ I differenzierbar, dann ist f dort auch stetig.
Satz 4.2. Sind f, g : I → R differenzierbar und c ∈ R, dann sind auch f + g, cf , f g
und f /g differenzierbar, und es gilt
(a)
(b)
(c)
(d)
(f + g)0
(cf )0
(f g)0
0
f
g
= f 0 + g0
= cf 0
= f 0g + f g0
f 0g − f g0
,
=
g2
0
1
g0
= − 2.
g
g
Ist nur bekannt, dass f, g in x0 ∈ I differenzierbar sind, dann sind f + g, f g und, falls
g(x0 ) 6= 0, f /g an der Stelle x0 differenzierbar und es gelten (a)–(d) an der Stelle x0 .
Korollar 4.3. Jedes Polynom und jede rationale Funktion ist differenzierbar und
d
(an xn + . . . + a1 x + a0 ) = nan xn−1 + . . . + a1 ,
dx
d 1
n
( n ) = − n+1 ,
n ∈ N.
dx x
x
Satz 4.4. sin, cos, tan, cot sind differenzierbar und
sin0 x = cos x,
1
tan0 x =
,
(cos x)2
cos0 x = − sin x,
1
cot0 x = −
,
(sin x)2
59
Lemma 4.5. Für alle x < 1 gilt
1 + x ≤ ex ≤
1
.
1−x
H1-xL-1
1+x
Theorem 4.6. Die Exponentialfunktion ist differenzierbar, es gilt ex+y = ex ey für alle
x, y ∈ R und
d x
e = ex .
dx
Satz 4.7 (Kettenregel). Die Komposition f ◦ g : x 7→ f (g(x)) von zwei differenzierbaren
Funktionen f und g ist ebenfalls differenzierbar und
d
f (g(x)) = f 0 (g(x))g 0 (x).
dx
(19)
Folgerungen:
•
d
f (g(x))
dx
6= f 0 (g(x)), ausser wenn g 0 (x) = 1, und somit auch
d
df
f (g(x)) 6=
(g(x)).
dx
dx
• Sind f, g und h differenzierbar, dann auch x 7→ f (g(h(x))) und
d
d
f (g(h(x))) = f 0 (g(h(x))) g(h(x)) = f 0 (g(h(x)))g 0 (h(x))h0 (x).
dx
dx
Höhere Ableitungen
Seien f : I → R und f 0 : I → R differenzierbar. Die Ableitung (f 0 )0 der Ableitung f 0
heißt zweite Ableitung von f und wird mit f 00 , f (2) oder
d2 f
d
d
:=
f
dx2
dx dx
bezeichnet. Die n-te Ableitung ist rekursiv definiert durch:
f (0) := f,
f (n) :=
dn f
d
:=
f (n−1)
n
dx
dx
Die Funktion f heißt n Mal differenzierbar, wenn alle Ableitungen von f bis zur n-ten
Ableitung, f (n) , existieren. Die Funktion f heißt n Mal stetig differenzierbar, wenn
sie n Mal differenzierbar ist und f (n) noch stetig ist.
60
Satz 4.8 (Leibnizsche Regel). Sind f, g : I → R n Mal differenzierbar, dann ist auch
f g n Mal differenzierbar und es gilt
(f g)
(n)
n X
n (k) (n−k)
=
f g
.
k
k=0
Beispiel:
(f g)0 = f 0 g + f g 0
(f g)00 = f 00 g + 2f 0 g 0 + f g 00
(f g)000 = f 000 g + 3f 00 g 0 + 3f 0 g 00 + f g 000 .
4.2
Der Mittelwertsatz und Anwendungen der Differentialrechnung
Maxima und Minima einer Funktion
Die Zahl f (a) heißt globales Maximum von f : D → R, wenn
f (x) ≤ f (a)
für alle x ∈ D.
Dann ist a ∈ D eine globale Maximalstelle. (Statt “global” sagt man auch “absolut”.)
Die Zahl f (a) heißt lokales Maximum von f , wenn es ein δ > 0 gibt, so dass
f (x) ≤ f (a)
für x ∈ D, |x − a| < δ.
Globales und lokales Minimum sind analog definiert. Extremum ist der gemeinsame
Oberbegriff für Maximum und Minimum.
Ein Punkt x0 ∈ D heißt stationärer Punkt (oder kritischer Punkt) von f , wenn
f 0 (x0 ) = 0.
x0
x1 x2
x3
61
x4
x5 x6
f (x1 )
f (x5 )
f (x1 ), f (x2 ), f (x4 ), f (x6 )
f (x0 ), f (x3 ), f (x5 )
x2 , x 3 , x 4 , x 5
=
=
=
=
=
globales Minimum,
globales Maximum,
lokale Minima,
lokale Maxima,
stationäre Punkte.
Satz 4.9. Sei f : (a, b) → R differenzierbar und a < x0 < b. Dann gilt:
x0 ist lokale Extremstelle ⇒ f 0 (x0 ) = 0.
Umgekehrt braucht ein stationärer Punkt keine Extremstelle zu sein. Z.B. ist x = 0 ist
ein stationärer Punkt von f (x) = x3 aber keine lokale Extremstelle.
Kandidaten für Extremstellen von f : I → R sind:
(a) Die Randpunkte von I,
(b) Die Punkte von I, wo f nicht differenzierbar ist,
(c) die stationären Punkte aus dem Inneren von I.
Der Mittelwertsatz
Theorem 4.10 (Mittelwertsatz). Sei f : [a, b] → R stetig und in (a, b) differenzierbar.
Dann gibt es einen inneren Punkt x0 ∈ (a, b) mit
f (b) − f (a)
= f 0 (x0 ).
b−a
a
x0
b
62
Satz 4.11. Sei I ein Intervall und sei f : I → R differenzierbar. Dann gilt:
f0
f0
f0
f0
f0
=0
≥0
≤0
>0
<0
⇔
⇔
⇔
⇒
⇒
f
f
f
f
f
ist
ist
ist
ist
ist
konstant,
monoton wachsend,
monoton fallend,
streng monoton wachsend,
streng monoton fallend.
Mit f 0 = 0 ist gemeint, dass f 0 (x) = 0 für alle x ∈ I, f 0 ≥ 0 bedeutet f 0 (x) ≥ 0 für alle
x ∈ I, etc.
• In den letzten beiden Aussagen ist die Umkehrung “⇐” im allgemeinen falsch.
Das sieht man am Beispiel der Funktionen f (x) = ±x3 . Sie sind streng monoton
obwohl f 0 (0) = 0.
• Alle Aussagen sind falsch wenn I kein Intervall ist.
Korollar 4.12. Ist I ein Interval und sind f, g : I → R differenzierbar, dann gilt:
(a) f 0 = g 0 auf I ⇔ f = g + c wobei c eine Konstante ist.
(b) f (n) = 0 ⇔ f ist ein Polynom vom Grad n − 1 oder kleiner.
Theorem 4.13. Ist f : R → R differenzierbar, dann gilt
f0 = f
⇒
f (x) = cex
wobei c = f (0).
Satz 4.14. Sei f : (a, b) → R differenzierbar, x0 ∈ (a, b) und
f 0 (x0 ) = 0. Falls es ein δ > 0 gibt, so dass
f 0 (x) < 0,
f 0 (x) > 0,
x0 − δ < x < x0 ,
x0 < x < x0 + δ,
f'<0
dann hat f in x0 ein lokales Minimum. Eine analoge Aussage
gilt über lokale Maxima.
f'>0
x0
Satz 4.15. Sei f : (a, b) → R zwei Mal stetig differenzierbar und f 0 (x0 ) = 0. Dann gilt
f 00 (x0 ) > 0 ⇒ f hat in x0 ein lokales Minimum,
f 00 (x0 ) < 0 ⇒ f hat in x0 ein lokales Maximum.
Satz 4.16 (Verallgemeinerter Mittelwertsatz). Seien f, g : [a, b] → R stetig und in (a, b)
differenzierbar. Falls g 0 (x) 6= 0 für alle x ∈ I, dann gibt es einen Punkt t ∈ (a, b) mit
f (b) − f (a)
f 0 (t)
= 0 .
g(b) − g(a)
g (t)
63
Theorem 4.17 (de l’Hospitalsche Regel). Seien f, g : (a, b) → R differenzierbar, b ≤ ∞,
g 0 (x) 6= 0 für alle x ∈ (a, b) und zusätzlich
(a) f (x) → 0, g(x) → 0 für x → b−, oder f (x) → ∞, g(x) → ∞ für x → b−,
(b) limx→b− f 0 (x)/g 0 (x) existiert oder ist in {±∞}.
Dann gilt:
f (x)
f 0 (x)
= lim 0
.
x→b− g(x)
x→b− g (x)
lim
Das Newton-Verfahren
xn+1 = xn −
f (xn )
f 0 (xn )
x*
x2
x1
x0
Ist x0 nahe genug an einer Nullstelle x∗ von f , dann xn → x∗ , (n → ∞) in vielen Fällen.
Z.B. wenn f zwei Mal stetig differenzierbar ist und f 0 (x∗ ) 6= 0 (siehe Thm. 4.18). Wenn
zusätzlich a ≤ xn ≤ b für alle n ≥ 0, dann gilt
∗
∗ 2
|xn+1 − x | ≤ M |xn − x | ,
maxx∈[a,b] |f 00 (x)|
.
M :=
minx∈[a,b] |f 0 (x)|
D.h. die Anzahl der richtigen Nachkommastellen verdoppelt sich in jedem Schritt, wenn
x0 nahe genug bei x∗ ist.
Fixpunkte
Ein Punkt x∗ ∈ R heißt Fixpunkt der Abbildung f wenn
f (x∗ ) = x∗ .
Das Problem einen Fixpunkt zu finden ist äquivalent zum Problem eine Nullstelle zu
finden denn:
x ist Fixpunkt von f ⇔ x ist Nullstelle von f (x) − x,
x ist Nullstelle von f ⇔ x ist Fixpunkt von f (x) + x.
Eine Funktion
f : [a, b] → [a, b]
hat mindestens einen Fixpunkt wenn sie stetig ist (Aufgabe 70), und genau einen Fixpunkt wenn sie differenzierbar ist mit |f 0 (x)| < 1 für alle x, Theorem 4.18
64
Theorem 4.18. Ist f : [a, b] → [a, b] differenzierbar mit
|f 0 (x)| ≤ K < 1
für alle x ∈ [a, b].
Dann gilt:
Existenz Es gibt genau ein x∗ ∈ [a, b] mit f (x∗ ) = x∗ .
Berechnung Die Iterationsfolge
xn+1 = f (xn )
konvergiert gegen den Fixpunkt x∗ und zwar für jede Wahl des Startwerts x0 ∈
[a, b].
Abschätzung Für alle n ∈ N gilt
|xn − x∗ | ≤
K
|xn − xn−1 |.
1−K
Definition von π
Von einem analytischen Standpunkt ist es bequem π/2 als erste positive Nullstelle der
Cosinusfunktion zu definieren wobei cos x definiert wird durch
cos x = 1 −
x2 x4
+
− ...
2!
4!
(siehe HM2). π/2 ist also ein Fixpunkt der Abbildung x 7→ x + cos x. Die Fixpunktiteration xn+1 = xn + cos xn mit Startwert x0 = 1.5 liefert x1 , x2 , x3 , . . . wobei:
2x1 = 3.141(474403335406),
2x2 = 3.1415926535897(24),
2x3 = 3.141592653589793.
(falsche Nachkommastellen sind in Klammern.)
4.3
Umkehrfunktionen
Ist f : D → R injektiv, dann sagt man auch f sei invertierbar oder umkehrbar, denn
f : D → f (D) ist dann bijektiv. Somit existiert eine Umkehrfunktion g : f (D) → D
mit
f (x) = y ⇔ g(y) = x.
Also gilt
g(f (x)) = x für alle x ∈ D,
f (g(y)) = y für alle y ∈ f (D),
65
f -1
Man bezeichnet die Umkehrfunktion einer Funktion f meist
mit f −1 . Der Graph von f −1 ist die Spiegelung des Graphen
von f an der Geraden y = x.
f
Satz 4.19. (a) Jede streng monotone Funktion f : D → R ist invertierbar. Jede differenzierbare Funktion f : I → R, I ein Intervall, mit f 0 (x) 6= 0 für alle x ∈ I, ist
invertierbar.
(b) Die Umkehrfunktion f −1 einer differenzierbaren Funktion f : I → R ist in einem
Punkt y = f (x) genau dann differenzierbar, wenn f 0 (x) 6= 0, und dann gilt
(f −1 )0 (y) =
1
f 0 (x)
=
1
f 0 (f −1 (y))
.
Arcussinus
1
-
Die Sinusfunktion ist auf [−π/2, π/2]
streng
monoton
wachsend
und
sin([−π/2, π/2]) = [−1, 1].
Π
2
Π
2
-1
Die Umkehrfunktion von sin [−π/2, π/2] heißt ArcussinusFunktion. Es gilt
arcsin : [−1, 1] → [−π/2, π/2]
π
π
y = arcsin x ⇔ x = sin y, − ≤ y ≤
2
2
Π
2
-1
1
Arcussinus ist differenzierbar in (−1, 1) und
d
1
arcsin x = √
,
dx
1 − x2
−1 < x < 1.
-
Π
2
Arcuscosinus
1
Π
Die Cosinusfunktion ist z.B. auf
[0, π] streng monoton fallend und
cos([0, π]) = [−1, 1].
-1
66
Die Umkehrfunktion von cos [0, π] heißt
Arcuscosinus-Funktion. Es gilt
Π
arccos : [−1, 1] → [0, π]
y = arccos x ⇔ x = cos y, 0 ≤ y ≤ π .
Arcuscosinus ist differenzierbar in (−1, 1) und
d
1
arccos x = − √
,
dx
1 − x2
−1 < x < 1.
-1
1
Arcustangens
Die Tangensfunktion auf (−π/2, π/2) streng monoton wachsend und tan(−π/2, π/2) = R. Die Umkehrfunktion von
tan (−π/2, π/2) heißt Arcustangens. Es gilt
-
arctan : R → (−π/2, π/2)
π
π
.
y = arctan x ⇔ x = tan y, − < y <
2
2
Π
2
Π
2
Π
2
Arcustangens ist differenzierbar in R und
1
d
arctan x =
.
dx
1 + x2
-
Π
2
Tschebyschev Polynome
Zu jedem n ∈ N gibt es ein Polynom Tn vom Grad n mit
Tn (x) = cos(n arccos x),
|x| ≤ 1.
Tn erfüllt die Differentialgleichung:
(1 − x2 )Tn00 (x) − xTn0 (x) + n2 Tn (x) = 0.
Aus T0 = 1, T1 (x) = x und der Rekursionsbeziehung Tn+1 (x) = 2xTn (x) − Tn−1 (x) folgt
T0
T3
T0 (x) = 1,
T1 (x) = x,
T2 (x) = 2x2 − 1,
T3 (x) = 4x3 − 3x,
T4 (x) = 8x4 − 8x2 + 1.
T4 T1
-1
1
T2
67
Übertragungsfunktion eines Tschebyschev-Tiefpassfilters:
2
U2 1 + ε2
(ω) =
,
(n gerade).
U1 1 + ε2 Tn (ω)
Graph für n = 8:
1+Ε2
1
Ω
1
4.4
Exponentialfunktion und Logarithmus
Wichtigste Eigenschaften der Exponentialfunktion
Definition
x n
,
x ∈ R,
ex := lim 1 +
n→∞
n
e0 = 1, ex > 0 für alle x ∈ R, und
d x
e = ex .
dx
ex+y = ex ey ,
Satz 4.20.
lim ex = ∞,
x→∞
lim ex = 0
x→−∞
1
ex
=
∞,
n
∈
N.
x→∞ xn
Die Exponentialfunktion ist also streng monoton wachsend und exp(R) = (0, ∞).
lim
Der natürliche Logarithmus
Die Umkehrfunktion der Exponentialfunktion exp : R → (0, ∞) heißt natürlicher
Logarithmus und wird mit ln oder log bezeichnet:
ln : (0, ∞) → R,
y = ln x ⇔ ey = x.
Aus dem Graph lesen wir ab, dass ln 1 = 0, ln x < 0 für 0 < x < 1, und ln x > 0 für
x > 1.
68
Satz 4.21.
(a) limx→0+ ln x = −∞,
(b) limx→∞ ln x = ∞,
(c) ln(xy) = ln x + ln y, ln( xy ) = ln x − ln y,
1
(d)
d
1
ln x = .
dx
x
Allgemeine Exponentialfunktionen und Logarithmen
Für a > 0 und r ∈ Q gilt nach Satz 3.11
ar = (eln(a) )r = er ln(a) .
Man definiert daher die Exponentialfunktion zur Basis a für alle x ∈ R durch:
ax := ex ln a ,
a > 0.
Eigenschaften:
10x ex 2x
ax ay
= ax+y ,
x
(ab)
= ax b x ,
ln(ax ) = x ln a,
(ax )y = axy .
n-te Wurzel von a > 0:
1
√
n
a := a1/n .
Die Exponentialfunktion x 7→ ax = ex ln a ist nicht zu verwechseln mit der Potenzfunktion x 7→ xα = eα ln x , wo x > 0, α ∈ R.
d x
a = ax ln a,
dx
x ∈ R, a > 0,
d α
x = αxα−1 ,
dx
x > 0, α ∈ R.
Α<0
Α>1
Graphen von x Α
Satz 4.22. Für alle α > 0 gilt
ln x
= 0.
x→∞ xα
lim
0<Α<1
1
1
Die Funktion ax = exp(x ln a) ist streng monoton wachsend für a > 1 und streng monoton fallend für 0 < a < 1. Dabei werden alle Werte aus (0, ∞) angenommen. Die Inverse
69
von x 7→ ax heißt Logarithmus zur Basis a und wird mit loga bezeichnet. Es gilt
loga x =
ln x
,
ln a
x > 0.
Eigenschaften von loga :
loga (xy) = loga x + loga y,
d
1
loga x =
.
dx
x ln a
Die Hyperbolischen Funktionen sinh, cosh, tanh
Jede Funktion f : R → R lässt sich zerlegen in f = u + g wobei
1
u(x) := (f (x) − f (−x)),
u(−x) = −u(x),
2
1
g(−x) = g(x),
g(x) := (f (x) + f (−x)),
2
der ungerade und der gerade Anteil von f sind. Im Fall f = exp erhält man sinh und
cosh:
cosh
1
:= (ex − e−x )
2
1
cosh x := (ex + e−x )
2
sinh x
.
tanh x :=
cosh x
sinh x
tanh
1
-1
sinh
Summenformeln:
sinh(x + y) = sinh x cosh y + cosh x sinh y,
cosh(x + y) = cosh x cosh y + sinh x sinh y,
cosh2 x − sinh2 x = 1.
Ableitungen:
sinh0 x = cosh x,
tanh0 x =
1
cosh2 x
cosh0 x = sinh x.
sinh ist umkehrbar auf ganz R, cosh ist umkehrbar auf [0, ∞). Die zugehörigen Umkehrfunktionen heißen area sinus hyperbolicus und area cosinus hyperbolicus. Es
gilt
√
d
1
arsinh x = ln(x + x2 + 1)
arsinh x = √
dx
x2 + 1
√
d
1
arcosh x = ln(x + x2 − 1)
arcosh x = √
dx
x2 − 1
70
4.5
Konvexe Funktionen
Sei I ein Intervall. Eine Funktion f : I → R heißt konvex, wenn für alle x, y ∈ I gilt
f (1 − λ)x + λy ≤ (1 − λ)f (x) + λf (y),
0 < λ < 1.
Der Funktionswert am gewichteten Mittel ist kleiner oder gleich das gewichtete Mittel
der Funktionswerte. f heißt strikt konvex, wenn “<” gilt für x 6= y. f heißt (strikt)
konkav, wenn (−f ) (strikt) konvex ist.
fHyL
H1-ΛLfHxL+ΛfHyL
fHxL
H1-ΛLx+Λy
x
y
Satz 4.23. Ist f : (a, b) → R differenzierbar, dann gilt:
f ist konvex ⇔
f ist strikt konvex ⇔
f 0 ist monoton wachsend,
f 0 ist streng monoton wachsend,
Aus Satz 4.23 und Satz 4.11 folgt:
Satz 4.24. Ist f : (a, b) → R zwei Mal differenzierbar, dann gilt:
f 00
f 00
f 00
f 00
≥0
≤0
>0
<0
⇔
⇔
⇒
⇒
f
f
f
f
ist
ist
ist
ist
konvex,
konkav,
strikt konvex,
strikt konkav.
Mit f 00 ≥ 0 ist gemeint, dass f 00 (x) ≥ 0 für alle x, etc.
Satz 4.25. Sei f : (a, b) → R differenzierbar und a < x0 < b. Dann gilt für alle
x ∈ (a, b):
f ist konvex ⇒
f ist konkav ⇒
f (x) ≥ f (x0 ) + f 0 (x0 )(x − x0 ),
f (x) ≤ f (x0 ) + f 0 (x0 )(x − x0 ).
Satz 4.26. Für alle x > −1 gilt
(1 + x)α ≥ 1 + αx,
(1 + x)α ≤ 1 + αx,
falls α < 0 oder α > 1,
falls 0 < α < 1.
71
Herunterladen