Höhere Mathematik I - Universität Stuttgart

Werbung
Höhere Mathematik I
Universität Stuttgart, WS 2008/09
Prof. Dr. M. Griesemer
Empfehlungen zum Studium der HM
I
Der Vorlesung folgen (d.h. alles jetzt verstehen)
I
Vorlesungsstoff aufarbeiten
I
Aufgaben lösen
I
Prüfungsvorbereitung
I
Ausgleich zum Studium
Literatur
1. Bärwolff: Höhere Mathematik
2. Blatter: Ingenieur-Analysis (www.math.ethz.ch/ blatter/)
3. Brauch, Dreyer, Haacke: Mathematik für Ingenieure
4. Fischer, Kaul: Mathematik für Physiker (3Bd.)
5. Kerner, von Wahl: Mathematik für Physiker
6. Kimmerle, Stroppel: Analysis / Lineare Algebra
7. Meyberg, Vachenauer: Höhere Mathematik (2Bd.)
Quantendynamik
∂2
∂
i ψ(x, t) = − 2 ψ(x, t),
∂t
∂x
ψ(0, t) = 0 = ψ(π, t).
Aussagenlogik
Aussagen
Eine Aussage ist ein Satz in Worten oder Zeichen, welche
eindeutig als wahr oder falsch deklariert werden kann.
Aussagen sind:
I
2+2=5
I
Durch zwei verschiedene Punkte gibt es genau eine Gerade
I
Morgen scheint die Sonne
Keine Aussagen sind:
I
Elektronen sind blau
I
Die Beatles waren bessere Musiker als Beethoven
Aussagen
Ein Axiom oder ein Postulat ist eine Aussage, welche gemäß
Vereinbarung wahr ist.
Beispiele:
I
Zu jeder Geraden g und zu jedem nicht auf g liegenden Punkt
P gibt es genau eine Gerade, welche durch P verläuft und zu
g parallel ist.
I
Die Lichtgeschwindigkeit im Vakuum ist unabhängig vom
Bewegungszustand von Quelle und Beobachter.
Ein Theorem, Satz, Lemma oder Korollar ist eine wahre
Aussage, welche aus den Axiomen hergeleitet werden kann.
Eine Aussagenform ist ein Satz in Worten oder Zeichen, welcher
mindestens eine Variable enthält, und für jede zulässige Belegung
der Variablen zu einer Aussage wird (Bsp.: x < 1).
Nicht, und, oder
Wir benutzen a, b, c . . . zur Abkürzung von Aussagen (a := 5 ist
”
eine Primzahl.“) Die möglichen Wahrheitswerte einer Aussage
bezeichnen wir mit 1 (wahr) und 0 (falsch). Die Wahrheitswerte
der neuen Aussagen:
¬a
a∨b
a∧b
nicht a“
”
a oder b“
”
a und b“
”
¬a
1
0
1
0
a
0
1
0
1
b
0
0
1
1
a∨b
0
1
1
1
a∧b
0
0
0
1
hängen nur von den Wahrheitswerten von a und b ab, und sind
definiert durch obige Wahrheitswertetabelle.
Implikation und Äquivalenz
Seien a und b zwei Aussageformen.
a⇒b :
a⇔b :
aus a folgt b“
”
bedeutet: falls a wahr ist, dann ist auch b wahr,
a ist äquivalent zu b“
”
bedeutet: a ist genau dann wahr, wenn b wahr ist.
Bemerkung: a ⇒ b und a ⇔ b sind keine Aussagen, sondern
beschreiben Beziehungen zwischen den Aussageformen a und b.
(siehe Vortragsübung)
Satz 1.1
Die Implikation a ⇒ b und deren Kontraposition ¬b ⇒ ¬a sind
logisch äquivalent.
Beweis: Vortragsübung.
Satz 1.2 (De Morgansche Regeln)
¬(a ∧ b) ⇔ ¬a ∨ ¬b
¬(a ∨ b) ⇔ ¬a ∧ ¬b
Satz 1.3 (Distributivgesetze)
a ∧ (b ∨ c) ⇔ (a ∧ b) ∨ (a ∧ c)
a ∨ (b ∧ c) ⇔ (a ∨ b) ∧ (a ∨ c).
Quantoren
Sei a(x) eine Aussageform.
∀x : a(x)
für alle x gilt a(x)“
”
ist dieVund-Verknüpfung aller Aussagen a(x). Man schreibt daher
auch x : a(x).
∃x : a(x)
es gibt ein x, so dass a(x) gilt“
”
ist dieWoder-Verknüpfung aller Aussagen a(x). Man schreibt daher
auch x : a(x).
De Morgansche Regeln:
¬∀x : a(x) ⇔ ∃x : ¬a(x),
¬∃x : a(x) ⇔ ∀x : ¬a(x).
Mengen
Eine Menge M ist eine Zusammenfassung von Objekten m,
genannt Elemente von M, zu einem Ganzen.
m∈M :
m 6∈ M :
m ist Element von M“
”
m ist nicht Element von M“.
”
∅ bezeichnet die leere Menge (sie enthält kein Element).
Mengen kann man beschreiben durch Aufzählung der Elemente:
{1, 3, 7} = {3, 1, 7} = {1, 1, 3, 7}
oder mit Hilfe einer Aussageform a(x):
M := {x ∈ X |a(x)}
ist die Menge der Elemente x ∈ X für welche die Aussage a(x)
wahr ist.
Wichtige Beispiele
N := {1, 2, 3, . . .}
Menge der natürlichen Zahlen,
N0 := {0, 1, 2, 3, . . .}
Z := {0, ±1, ±2, . . .} Menge der ganzen Zahlen,
m
Q := { |(m ∈ Z) ∧ (n ∈ N)} Menge der rationalen Zahlen,
n
R := Menge der reellen Zahlen,
C := Menge der komplexen Zahlen.
Teilmengen
Eine Menge A heißt Teilmenge der Menge B:
A⊂B
falls jedes Element von A auch ein Element von B ist. Dabei ist
A = B erlaubt. Es gilt also:
∅ ⊂ A,
A ⊂ A.
Beispiele: N ⊂ N0 ⊂ Z ⊂ Q ⊂ R ⊂ C.
Die Menge aller Teilmengen einer Menge A heißt Potenzmenge
von A und wird mit P(A) bezeichnet.
Beispiel:
P({1, 3, 7}) = ∅, {1}, {3}, {7}, {1, 3}, {1, 7}, {3, 7}, {1, 3, 7} .
Mengenoperationen
Seien A und B zwei Mengen.
A ∩ B := {x|x ∈ A ∧ x ∈ B}
Durchschnitt
A ∪ B := {x|x ∈ A ∨ x ∈ B}
Vereinigung
A\B := {x|x ∈ A ∧ x 6∈ B}
=
Differenz
{x ∈ A|x 6∈ B}.
Die Mengen A und B heißen disjunkt, falls A ∩ B = ∅. Falls A
Teilmenge einer Grundmenge X ist, über welche kein Zweifel
besteht, dann heißt
Ac := X \A,
das Komplement von A.
Kartesisches Produkt
Das kartesische Produkt von zwei Mengen A, B ist die Menge
A × B := {(x, y )|x ∈ A, y ∈ B}
der geordneten Paare (a, b). Also B × A 6= A × B.
Für n Mengen A1 , . . . An ist
A1 × A2 × · · · An := {(a1 , . . . , an )|ai ∈ Ai }
die Menge der geordneten n-Tupel (a1 , . . . , an ), und
An := |A × A{z
× · · · A} .
n Faktoren
Abbildungen
Seien A, B zwei beliebige Mengen. Eine Abbildung oder Funktion
f von A nach B, in Zeichen:
f : A → B,
ist eine Vorschrift, welche jedem Element x ∈ A ein Element y ∈ B
zuordnet. Man schreibt
y = f (x),
oder f : x 7→ f (x).
A heißt Definitionsbereich, f (A) := {f (x)|x ∈ A} heißt
Wertebereich oder Bildmenge von f . f ist der Name der
Funktion und f (x) ist der Wert der Funktion an der Stelle x.
Für U ⊂ A und V ⊂ B ist
f (U) := {f (x)|x ∈ U}
f −1 (V ) := {x|f (x) ∈ V }
Bild von U,
Urbild von V .
Der Graph der Abbildung f ist die Menge
G(f ) := {(x, y )|x ∈ A, y = f (x)}.
Die Umkehrabbildung
Eine Abbildung f : A → B heißt injektiv, falls für alle x, y ∈ A gilt:
f (x) = f (y )
⇒
x = y.
f heißt surjektiv, falls f (A) = B, und f heißt bijektiv, falls f
injektiv und surjektiv ist. Ist f bijektiv, dann existiert die
Umkehrabbildung f −1 : B → A, definiert durch
y = f (x)
⇔
x = f −1 (y ).
Es gilt also
f −1 (f (x)) = x
und f (f −1 (y )) = y .
Vorsicht: f −1 (y ) 6= f (y )−1 !
Im Fall A, B ⊂ R bekommt man den Graphen von f −1 durch
Spiegelung des Graphen von f an der Geraden y = x in R2 .
Einschränkung einer Funktion
Sei f : A → B gegeben und sei U ⊂ A. Die Einschränkung oder
Restriktion von f auf U ist die neue Abbildung
f U : U → B,
(f U)(x) = f (x).
Bemerkungen.
I
Durch geeignete Wahl von U kann eine nicht-injektive
Funktion injektiv gemacht werden.
I
Falls B wählbar ist, dann wird f durch die Wahl B = f (A)
surjektiv.
Beispiel. Mit f (x) = x 2 meint man in der Regel eine Funktion,
mit A = B = R. f ist also weder injektiv noch surjektiv. Durch die
√
Wahl A = B = {x ∈ R|x ≥ 0} wird f bijektiv und f −1 (x) = x.
Komposition von Funktionen
Sind f : X → Y und g : Y → Z zwei gegebene Abbildungen, dann
ist die Verknüpfung (Zusammensetzung, Komposition)
g ◦f :X →Z
von f und g definiert durch
(g ◦ f )(x) := g (f (x)).
Satz 1.4
Die Verknüpfung von Abbildungen ist assoziativ. D.h., wenn
f : X → Y , g : Y → Z und h : Z → W , dann
(h ◦ g ) ◦ f = h ◦ (g ◦ f ).
Satz 1.5
Sind f : X → Y und g : Y → Z bijektiv, dann ist auch
g ◦ f : X → Z bijektiv und es gilt
(g ◦ f )−1 = f −1 ◦ g −1 .
Reelle Zahlen
Vollständige Induktion
Die Elemente von N := {1, 2, 3. . . .} heißen natürliche Zahlen.
Alle Eigenschaften der natürlichen Zahlen, z.B.
I
m, n ∈ N ⇒ m + n ∈ N, m · n ∈ N
I
Jede nichtleere Teilmenge von N hat ein kleinstes Element.
lassen sich aus fünf Axiomen herleiten (Peanosche Axiome, siehe
Bärwolff). Das wichtigste für uns ist das Induktionsaxiom:
Falls M ⊂ N, 1 ∈ M und n ∈ M ⇒ (n + 1) ∈ M,
dann gilt M = N.
Beweisprinzip der vollständigen Induktion: Sei n0 ∈ Z und für
jedes n ≥ n0 sei a(n) eine Aussage. Falls:
1. a(n0 ) ist wahr,
2. a(n) ⇒ a(n + 1),
dann ist a(n) wahr für alle n ≥ n0 .
(Wähle M = {k ∈ N|a(n0 − 1 + k) ist wahr} im Induktionsaxiom)
Rekursive Definitionen
Fakultät:
(n + 1)! = n! · (n + 1)
0! = 1,
Potenzen:
a0 := 1,
an+1 := an · a,
für alle a ∈ R.
Summen und Produktzeichen:
n
X
n
Y
ak = a1 + a2 + . . . + an ,
k=1
ak = a1 a2 · · · an
k=1
werden rekursiv definiert:
1
X
k=1
1
Y
ak := a1 ,
ak := a1 ,
k=1
n+1
X
k=1
n+1
Y
k=1
ak :=
ak :=
n
X
k=1
n
Y
ak + an+1
ak · an+1
k=1
Binomialkoeffizienten
Für k, n ∈ N0 mit k ≤ n definiert man
n
n!
n(n − 1) . . . (n − k + 1)
=
:=
k
k!(n − k)!
k!
Es gilt
n
n
=1=
,
0
n
n
n
=
.
k
n−k
Lemma 1.6
Für alle k, n ∈ N mit k ≤ n gilt
n+1
n
n
=
+
.
k
k −1
k
Bemerkung: diese Rekursionsbeziehung führt auf das Pascalsche
Dreieck.
Binomische Formel
Satz 1.7
Für beliebige a, b ∈ R und jede natürliche Zahl n gilt
n X
n n−k k
(a + b)n =
a
b .
k
k=0
Rationale und irrationale Zahlen
Reelle Zahlen, die sich schreiben lassen als m/n mit m ∈ Z und
n ∈ N heißen rationale Zahlen. Reelle Zahlen, welche sich nicht
so schreiben lassen heißen irrationale Zahlen.
Die Summe m/n + p/q und das Produkt m/n · p/q von zwei
rationalen Zahlen ist wieder eine rationale Zahl, und wenn
m/n 6= 0, dann ist auch die Inverse n/m eine rationale Zahl.
Es
√ gibt aber auch irrationale Zahlen! Zum Beispiel:
2, π, e = 2.71828 . . .
Satz 1.8
Eine reelle Zahl ist genau dann rational, wenn sie eine abbrechende
oder eine periodische Dezimalbruchdarstellung hat. Es gilt
0.b1 b2 . . . bk =
b1 b2 . . . bk
99 . . . 9
mit k Neunen im Nenner.
Wir stellen uns reelle Zahlen als Punkte auf der Zahlengeraden vor.
Intervalle
Seien a, b ∈ R. a < b, sprich a ist kleiner als b“, bedeutet dass
”
b − a > 0, und a ≤ b ⇔ (a < b) ∨ a = b.
Eine Teilmenge I ⊂ R heißt Intervall, falls
x, y ∈ I ∧ (x < t < y ) ⇒ t ∈ I .
Für a, b ∈ R definiert man
[a, b] := {x ∈ R|a ≤ x ≤ b}
abgeschlossenes Intervall
(a, b) := {x ∈ R|a < x < b}
offenes Intervall
[a, b) := {x ∈ R|a ≤ x < b}
(a, b] := {x ∈ R|a < x ≤ b}
[a, ∞) := {x ∈ R|a ≤ x}
(a, ∞) := {x ∈ R|x > a},
und analog für (−∞, b] und (−∞, b). Die Intervalle [a, b) und
(a, b] nennt man halboffen. (±∞ sind keine reelle Zahlen!)
Schranken und Vollständigkeitsaxiom
Sei S ⊂ R. S heißt nach oben beschränkt, falls ein b ∈ R
existiert, mit
S ⊂ (−∞, b]
(d.h. x ∈ S ⇒ x ≤ b)
Die Zahl b nennt man dann eine obere Schranke von S. Die
Menge S heißt nach unten beschränkt, falls eine Zahl a ∈ R
existiert, mit S ⊂ [a, ∞), und dann heißt a eine untere Schranke.
Die Menge S heißt beschränkt, wenn sie eine untere Schranke a
und eine obere Schranke b hat, so dass S ⊂ [a, b].
Vollständigkeitsaxiom:
Jede nicht leere, nach oben beschränkte Menge S ⊂ R,
hat eine kleinste obere Schranke, genannt Supremum
von S, sup(S).
Bemerkungen:
I Das Vollständigkeitsaxiom garantiert die Existenz irrationaler
√
Zahlen, wie z.B. 2:
√
2 = sup{x ∈ Q|x 2 < 2}.
I
Aus dem Vollständigkeitsaxiom folgt, dass jede nach unten
beschränkte Menge U ⊂ R eine grösste untere Schranke hat.
Man nennt Sie Infimum von U, inf(U). Es gilt
inf(U) = − sup{−u|u ∈ U}.
I
I
Wenn β := sup(S) in S liegt, dann heißt β größtes oder
maximales Element von S. Man schreibt dann β = max(S).
Wenn α = inf(U) in U liegt, dann heißt α kleinstes oder
minimales Element von U und man schreibt α = min(U).
Um auszudrücken, dass S nicht nach oben und U nicht nach
unten beschränkt ist, schreibt man auch
sup(S) = ∞,
inf(U) = −∞.
Ungleichungen
Für alle rellen Zahlen x, y , a, b gilt
x ≤ y, a ≤ b ⇒ x + a ≤ y + b
x ≤ y , 0 ≤ a ⇒ xa ≤ ya
x ≤y
0<x ≤y
⇒ −x ≥ −y
1
1
⇒ 0< ≤
y
x
Diese Beziehungen kann man herleiten aus den Definitionen von
<, ≤ und den Tatsachen (Axiomen), dass die Summe und das
Produkt von zwei positiven Zahlen positiv ist.
Der Betrag |a| einer reellen Zahl a ist definiert durch
a, falls a ≥ 0
|a| :=
−a, falls a < 0.
Folglich gilt |a| = max{a, −a}, |a| = | − a| und a = ±|a|.
Satz 1.9
Für alle a, b ∈ R gilt
(i) |a| ≥ 0 und |a| = 0 ⇔ (a = 0)
(ii) |a · b| = |a||b|
(iii) |a + b| ≤ |a| + |b|
Körpereigenschaften von R
Ein Körper ist eine Menge K für deren Elemente zwei Operationen
+ : K ×K →K
· : K ×K →K
(Addition)
(Multiplikation)
definiert sind, welche folgende Eigenschaften haben:
(K1) Die Addition ist kommutativ und assoziativ:
a + b = b + a,
a + (b + c) = (a + b) + c
(K2) Es gibt ein Element 0 ∈ K , genannt Null, sodass
a+0=a
für alle a ∈ K
(K3) Zu jedem Element a ∈ K gibt es ein Element (−a) ∈ K ,
sodass
a + (−a) = 0.
(K4) Die Multiplikation ist kommutativ und assoziativ:
a · b = b · a,
a · (b · c) = (a · b) · c
(K5) Es gibt ein Element 1 ∈ K \{0}, genannt Eins, so dass
a·1=a
für alle a ∈ K
(K6) Zu jedem Element a ∈ K \{0} gibt es ein Element a−1 ∈ K ,
so dass
a · a−1 = 1.
(K7) Für alle Elemente a, b, c ∈ K gilt das Distributivgesetz
a · (b + c) = a · b + a · c.
Alle algebraischen Eigenschaften von R folgen aus der Tatsache,
dass R die Körperaxiome erfüllt. Da diese auch von den komplexen
Zahlen erfüllt werden, kann man mit den komplexen Zahlen
rechnen wie mit reellen Zahlen.
Komplexe Zahlen
Definition von C
Die Menge R × R versehen mit der Addition
(a, b) + (c, d) = (a + c, b + d)
und der Multiplikation
(a, b) · (c, d) = (ac − bd, ad + bc)
wird mit C bezeichnet. Die Elemente von C heißen komplexe
Zahlen.
Satz 1.10
C ist ein Körper.
R ⊂ C und Imaginäre Einheit
Für die Elemente der Teilmenge R × {0} = {(a, 0)|a ∈ R} gilt
(a, 0) + (b, 0) = (a + b, 0)
(a, 0) · (b, 0) = (ab, 0).
Das heißt, R × {0} ist invariant unter Addition und Multiplikation
und verhält sich unter diesen Operationen gleich wie R. Wir
werden daher im folgenden (a, 0) ∈ C mit a ∈ R identifizieren und
R als Teilmenge von C auffassen.
Die komplexe Zahl
i := (0, 1) ∈ C
heißt imaginäre Einheit.
Satz 1.11
i 2 = −1 und a + ib = (a, b) für alle a, b ∈ R.
Realteil, Imaginärteil und komplexe Konjugation
Sei z = a + ib ∈ C, dann heißt a Realteil von z, a = Re(z), und b
heißt Imaginärteil von z, b = Im(z). Weiter ist z̄ := a − ib die zu
z konjugiert komplexe Zahl.
Satz 1.12
Für alle z, w ∈ C gilt
(i)
z + w = z̄ + w̄
(ii)
zw = z̄ w̄
(iii)
Re(z) = (z + z̄)/2,
(iv)
z ∈R
(v)
z = a + ib
⇔
Im(z) = (z − z̄)/(2i)
z = z̄
⇒
zz̄ = a2 + b 2 .
Betrag einer komplexen Zahl
Sei z = a + ib ∈ C (a, b ∈ R), dann heißt
p
√
|z| := zz̄ = a2 + b 2
(absoluter) Betrag von z. Offenbar ist der Betrag von z = a + ib
der Abstand des Punktes (a, b) ∈ R2 vom Ursprung (0, 0).
Satz 1.13
Seien z, w ∈ C, dann gilt
(i)
|z| ≥ 0 und (|z| = 0 ⇔ z = 0)
(ii)
|zw | = |z||w |
(iii)
|z + w | ≤ |z| + |w | (Dreiecksungleichung)
(iv)
| Re(z)|, | Im(z)| ≤ |z| ≤ | Re(z)| + | Im(z)|
(v)
z 6= 0 ⇒ z −1 = z̄/|z|2
Konsequenzen der Dreiecksungleichung
Korollar 1.14
(1)
z1 , . . . , zn ∈ C
⇒
n
n
X
X
|zk |,
zk ≤
k=1
k=1
(2)
z, w ∈ C ⇒ |z| − |w | ≤ |z − w |.
Polardarstellung einer komplexen Zahl
Für ϕ ∈ R definieren wir
e iϕ := cos ϕ + i sin ϕ
Offensichtlich gilt |e iϕ | = 1, e i0 = 1, e iπ/2 = i, e iπ = −1 und
e i(ϕ+2π) = e iϕ . Aus den Formeln für cos(ϕ1 + ϕ2 ) und
sin(ϕ1 + ϕ2 ) folgt, dass
e i(ϕ1 +ϕ2 ) = e iϕ1 e iϕ2 .
(1)
Jede komplexe Zahl z hat eine Polardarstellung
z = |z|e iϕ
wobei das Argument ϕ ∈ R nur bis auf ein ganzzahliges Vielfaches
von 2π bestimmt ist, und für z = 0 beliebig gewählt werden kann.
Aus (1) folgt für z1 = |z1 |e iϕ1 und z2 = |z2 |e iϕ2 , dass
z1 z2 = |z1 ||z2 |e i(ϕ1 +ϕ2 ) .
(2)
Potenzen und binomische Formel
Sei z ∈ C und n ∈ N. Dann wird z n rekursiv definiert durch
z 0 := 1
und
z n+1 := z n z.
Weiter ist z −n := (z −1 )n .
Satz 1.15
Für alle z, w ∈ C\{0} und alle n, m ∈ Z gilt
(i)
(zw )n = z n w n ,
(ii)
z n z m = z n+m
(iii)
(z n )m = z (nm)
z −n = (z n )−1
Für alle z, w ∈ C und für alle n ∈ N gilt die binomische Formel:
n X
n n−k k
(z + w ) =
z
w .
k
n
k=0
Wurzeln
Wir suchen die komplexen Lösungen z der Gleichung z n = w für
gegebenes w ∈ C. Sei z = |z|e iα , w = |w |e iβ und sei z n = w .
Dann folgt aus (2) und e 2πi = 1, dass
z n = |z|n e iαn = |w |e i(β+2πk) ,
k ∈ Z.
Wir definieren daher:
zk := |w |1/n e i(β+2πk)/n ,
k ∈ Z.
Dann gilt zkn = w wobei z−n = z0 = zn = z2n etc.
Satz 1.16
Für jede komplexe Zahl w = |w |e iβ 6= 0 hat die Gleichung z n = w
mit n ∈ N, genau n verschiedene Lösungen, nämlich die n-ten
Wurzeln
zk := |w |1/n e i(β/n+2πk/n) ,
k = 0, . . . , n − 1.
Polynome und rationale
Funktionen
Polynome
Eine Abbildung p : C → C heißt Polynom n-ten Grades, wenn es
Zahlen a0 , . . . , an ∈ C gibt, mit an 6= 0 und
p(x) =
n
X
ak x k = a0 + a1 x + . . . an x n .
k=0
Die Zahlen a0 , . . . , an ∈ C heißen Koeffizienten des Polynoms f .
Summe und Produkt von zwei Polynomen sind wieder Polynome,
denn
n
X
k
ak x +
k=0
n
X
k=0
ak x
k
·
n
X
k=0
m
X
bk x
bk x
k=0
k
k
n
X
=
(ak + bk )x k
=
k=0
m+n
X
k=0
x
k
k
X
ak−l bl
l=0
wobei ak−l := 0 für k − l > n und bl := 0 für l > m.
Satz 1.17
Die Koeffizienten eines Polynoms sind eindeutig bestimmt: aus
n
X
k
ak x =
k=0
n
X
bk x k
für alle x ∈ R
k=0
folgt, dass ak = bk , für k = 0 . . . n.
Fundamentalsatz der Algebra
Satz 1.18 (Fundamentalsatz der Algebra)
Jedes Polynom p vom Grad n ≥ 1 hat mindestens eine Nullstelle.
D.h. es gibt eine komplexe Zahl α mit p(α) = 0.
(Beweis in HM3)
Satz 1.19
Jedes Polynom p(x) =
Faktorisierung über C:
Pn
k=0 ak x
k
von Grad n ≥ 1, besitzt die
p(x) = an (x − α1 )m1 (x − α2 )m2 · · · (x − αr )mr ,
mit den verschiedenen Nullstellen αi der Vielfachheit mi ,
(i = 1, . . . , r ), m1 + m2 + . . . + mr = n. Ein Polynom vom Grad
n ≥ 1 hat also genau n Nullstellen in C, wobei jede Nullstelle so
oft gezählt wird, wie ihre Vielfachheit angibt.
Polynome mit reellen Koeffizienten
Satz 1.20
Ist α eine Nullstelle der Vielfachheit m eines Polynoms mit reellen
Koeffizienten, dann ist auch α eine Nullstelle der Vielfachheit m.
Satz 1.21
P
Jedes Polynom p(x) = nk=0 ak x k mit n ≥ 1, ak ∈ R, an 6= 0 hat
die Faktorisierung über R
p(x) = an (x−b1 )m1 · · · (x−br )mr (x 2 +c1 x+d1 )k1 · · · (x 2 +cs x+ds )ks
mit reellen Nullstellen bi der Vielfachheit mi (i = 1 . . . r ) und
quadratischen Polynomen x 2 + ci x + di der Vielfachheit ki
(i = 1 . . . s), die in R keine Nullstellen haben.
Rationale Funktionen
Ein Quotient zweier Polynome
p(x)
an x n + . . . + a1 x + a0
=
,
q(x)
bm x m + . . . + b1 x + b0
an 6= 0, bm 6= 0,
(3)
heißt rationale Funktion. Der Definitionsbereich von p/q ist die
Menge {x ∈ C | q(x) 6= 0}.
Satz 1.22
Jede rationale Funktion (3) mit Zählergrad ≥ Nennergrad
(n ≥ m), lässt sich darstellen in der Form
p(x)
r (x)
= h(x) +
q(x)
q(x)
mit einem Polynom h und einem Restpolynom r wobei r = 0 oder
Grad(r ) < Grad(q). Diese Darstellung ist eindeutig.
Lineare Algebra
Rn und Cn als Vektorräume
Sei K = R oder K = C. Wir definieren in K n = K × . . . × K eine
Addition von zwei n-Tupeln ~x = (x1 , . . . , xn ) und ~y = (y1 , . . . , yn )
durch
~x + ~y := (x1 + y1 , . . . , xn + yn ),
und eine Multiplikation von einer Zahl λ ∈ K mit einem n-Tupel
~x = (x1 , . . . , xn ) durch
λ~x := (λx1 , . . . , λxn ).
Die Elemente von K n versehen mit diesen Operationen nennt man
Vektoren (statt n-Tupel). Der Vektor
~0 = (0, . . . , 0)
heißt Nullvektor. Man definiert ~x − ~y := ~x + (−~y ).
Für die Vektoroperationen in K n gelten folgende Rechenregeln:
I
Die Vektoraddition ist kommutativ und assoziativ,
~x + ~0 = ~x für alle x ∈ K n ,
I
~x + (−~x ) = ~0 für alle x ∈ K n .
I
Ausserdem gilt für alle λ, µ ∈ K und alle ~x , ~y ∈ K n :
I
λ(~x + ~y ) = λ~x + λ~y ,
I
(λ + µ)~x = λ~x + µ~x ,
I
(λµ)~x = λ(µ~x ),
I
1~x = ~x .
Damit wird K n zu einem n-dimensionalen Vektorraum (vgl.
spätere Definition abstrakter Vektorräume)
Lineare Gleichungssysteme
Ein reelles lineares Gleichunssystem mit m Gleichungen und n
Unbekannten ist von der Form
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
..
..
..
.
.
.
am1 x1 + am2 x2 + . . . + amn xn = bm
wobei aik , bi , für 1 ≤ i ≤ m, 1 ≤ k ≤ n gegebene reelle Zahlen
sind. Das System heißt homogen, wenn b1 = b2 = · · · = bm = 0,
sonst heißt es inhomogen.
Wir interessieren uns für die Lösungsmenge, d.h. die Menge der
n-Tupel (x1 , . . . , xn ), welche alle m Gleichungen gleichzeitig lösen.
Das Gauß’sche Lösungsverfahren
Bei folgenden Umformungen ändert sich die Lösungsmenge eines
lineare Gleichungssystems nicht. Wir sagen: das Gleichungssystem
geht in ein äquivalentes Gleichungssystem über.
1. Vertauschung zweier Gleichungen.
2. Multiplikation einer Gleichung mit λ 6= 0.
3. Addition des λ-fachen der iten Gleichung zur j-ten Gleichung.
Diese Feststellung ist die Grundlage Gauß’sches Lösungsverfahren.
Matrizen
Eine reelle m × n-Matrix ist ein rechteckiges Schema von reellen
Zahlen


a11 a12 a13 . . . a1n
 a21 a22 a23 . . . a2n 


A= .
..
..
..  = (aik ).
.
 .
.
.
. 
am1 am2 am3 . . . amn
Das Element aik steht in der i-ten Zeile und der k-ten Spalte.
Man definiert die Summe von zwei m × n Matrizen A = (aik ) und
B = (bik ) durch
A + B := (aik + bik )
und das Produkt einer Matrix A = (aik ) mit einer Zahl λ ∈ R
durch
λA := (λaik ).
Weiter ist A − B := A + (−B).
Diese Addition und die skalare Multiplikation von m × n Matrizen
unterscheidet sich nicht von den entsprechenden Operationen in
Rnm . Somit gilt für alle m × n Matrizen A, B und alle λ, µ ∈ R:
I
Die Matrixaddition ist kommutativ und assoziativ,
I
A+0=A
I
A + (−A) = 0
I
λ(A + B) = λA + λB,
I
(λ + µ)A = λA + µA,
I
(λµ)A = λ(µA),
I
1A = A.
Hier bezeichnet 0 die m × n-Nullmatrix deren Elemente lauter
Nullen sind.
Eine m × 1 Matrix


a1
 a2 
 
 ..  ∈ Rm
 . 
am
nennt man auch Spaltenvektor. Eine 1 × n-Matrix
(a1 , a2 , . . . , an ) ∈ Rn
heißt Zeilenvektor. Wir definieren das Produkt eines Zeilenvektors
aus Rn mit einem Spaltenvektor aus Rn durch
 
b1
n
b2 
X
 
(a1 , a2 , . . . , an )  .  :=
ak bk .
 .. 
k=1
bn
Ein lineares Gleichungssystem mit m Gleichungen und n
Unbekannten lässt sich somit schreiben als

   
a11 a12 . . . a1n
x1
b1
 a21 a22 . . . a2n  x2   b2 

   
 ..
..   ..  =  ..  .
 .
.  .   . 
am1 am2 . . .
bm
xn
amn
Links steht die Koeffizientenmatrix A = (aij ) angewandt auf den
Spaltenvektor ~x mit den unbekannten Komponenten xi , d.h, jede
Zeile von A wird multipliziert mit dem Spaltenvektor ~x . Kurz
A~x = ~b
wobei
 
x1
 x2 
 
~x :=  .  ,
 .. 

b1
 b2 

~b := 
 ..  .
 . 
xn

bm
Die Umformungen des Gauß’schen Lösungsverfahrens lassen sich
übersichtlich ausführen an der erweiterten Koeffizientenmatrix:


a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 


~
(A, b) :=  .
.
.
..
.. 
 ..

am1 am2 . . .
amn bm
Die Gleichungsumformungen entsprechen den folgenden
elementaren Zeilenumformungen:
1. Vertauschen von zwei Zeilen
2. Multiplikation einer Zeile mit einer Zahl λ 6= 0,
3. Addition (Subtraktion) des λ-fachen einer Zeile zu einer
anderen Zeile.
Das homogene System A~x = ~0
Im Fall ~b = ~0 genügt die einfache“ Koeffizientenmatrix:
”


a11 a12 . . . a1n
 a21 a22 . . . a2n 


 ..
..  .
 .
. 
am1 am2 . . .
amn
Vorwärtselimination:
I
Zeilen vertauschen bis a11 6= 0, (bzw bis a12 6= 0, falls
a11 = . . . = am1 = 0),
I
subtrahiere
I
subtrahiere
I
etc.
Das Resultat ist:
a21
a11 -faches
a31
a11 -faches
der ersten Zeile von zweiter Zeile,
der ersten Zeile von dritter Zeile,


• ∗ ∗ ∗ ∗ ∗
0 ∗ ∗ ∗ ∗ ∗ 


 ..

.

A1
0 ∗ ∗ ∗ ∗ ∗
An der •-Stelle ist eine Zahl 6= 0, über die Zahlen an den ∗-Stellen
wird nichts ausgesagt, und A1 bezeichnet eine (m − 1) × (n − 1)
Matrix.
Falls A1 die Nullmatrix ist, ist man fertig. Sonst wiederholt man
das Eliminationsverfahren mit A1 . Nach höchstens m − 1
Eliminationsschritten gelangt man zu einer Matrix M in
Zeilenstufenform, z.B. auf:


• ∗ ∗ ∗ ∗ ∗
0 0 • ∗ ∗ ∗

M=
0 0 0 • ∗ ∗ .
0 0 0 0 0 0
Rückwärtssubstitution
I
Die Unbekannten zu den Spalten ohne • sind freie Variablen.
Wir bezeichnen sie mit λ1 , . . . , λn−r .
I
Im Gleichungssystem das der Matrix M entspricht bringt man
die freien Variablen λ1 , . . . , λn−r auf die rechte Seite und
berechnet der Reihe nach, von unten nach oben, die zu den
•-Stellen gehörenden abhängigen Variablen (in Abhängigkeit
von λ1 , . . . , λn−r ).
Die so bestimmte Lösung heißt allgemeine Lösung des Systems.
Der Rang der m × n-Matrix A, RangA, ist die Anzahl der von Null
verschiedenen Zeilen in der Zeilenstufenmatrix M, welche aus A
mittels Gauß-Elimination erzielten wurde. Offensichtlich ist
RangA ≤ m.
Satz 2.1
Sei A eine m × n Matrix. Dann enthält allgemeine Lösung des
homogenen Systems A~x = ~0:
n − RangA
frei wählbare Parameter.
Falls RangA = n dann ist ~0 ist die einzige Lösung. Für RangA < n,
z.B. wenn m < n, dann gibt es von Null verschiedene Lösungen.
Das inhomogene System A~x = ~b
I
Vorwärtselimination an der Matrix (A, ~b) liefert


• ∗ ∗ ∗ ∗ ∗ d1
0 0 • ∗ ∗ ∗ : 
~

(M, d) = 
 0 0 0 • ∗ ∗ dr  .
0 0 0 0 0 0 dm
I
Falls eine der Zahlen dr +1 , . . . , dm verschieden von 0 ist, dann
ist M~x = ~d nicht lösbar, also hat auch A~x = ~b keine Lösung
Die Rücksubstitution im Fall dr +1 = . . . = dm = 0 wird
analog wie bei homogenen Systemen durchgeführt.
Alternative: man berechne zuerst eine spezielle Lösung
~v0 ∈ Rn , z.B. mit λ1 = . . . = λn−r = 0, und dann die
allgemeine Lösung ~u (λ1 , . . . , λn−r ) von M~x = ~0. Dann ist
I
~v0 + ~u (λ1 , . . . , λn−r )
die allgemeine Lösung von M~x = ~d.
Satz 2.2
Sei A eine reelle m × n Matrix und sei ~b ∈ Rm .
(a) A~x = ~b ist genau dann lösbar, wenn
Rang(A, ~b) = Rang(A).
(b) Falls A~x = ~b lösbar ist, dann ist die allgemeine Lösung von
der Form
~v = ~v0 + ~u
wobei ~v0 eine spezielle Lösung von A~x = ~b und ~u die
allgemeine Lösung von A~x = 0 ist. ~v0 + ~u enthält
n − Rang(A) frei wählbare Parameter.
(c) Ist A~x = ~b lösbar und Rang(A) = n =Anzahl der Variablen,
dann ist die Lösung eindeutig.
Das Produkt zweier Matrizen
Das Produkt C := AB einer m × n Matrix A = (aij ) und einer n × r
Matrix B = (bjk ) ist eine m × r Matrix C = (cij ) definiert durch
cik :=
n
X
aij bjk = ai1 b1k + . . . + ain bnk .
j=1
I
Im allgemeinen ist AB 6= BA.
I
Ist A eine m × n Matrix und ist ~x ∈ Rn ein Spaltenvektor,
dann ist A~x ein Matrixprodukt.
I
Das Produkt eines Zeilenvektors mit einem Spaltenvektor ist
ein Spezialfall des Matrixprodukts.
Die n × n Einheitsmatrix En = (δij ) ist definiert durch
1, i = j,
δij =
0, i 6= j.
δij heißt Kroneckersymbol.
Satz 2.3
Seien A, A1 , A2 m × n Matrizen, B, B1 , B2 n × r Matrizen und sei
C eine r × s Matrix. Dann gilt:
(a) (A1 + A2 )B = A1 B + A2 B,
(b)
λ(AB) = (λA)B = A(λB),
(c)
(AB)C = A(BC ),
(d)
Em A = AEn = A.
A(B1 + B2 ) = AB1 + AB2 ,
(λ ∈ R),
Transponierte einer Matrix
Sei A eine m × n Matrix. Dann ist AT die n × m Matrix, welche
aus A durch Spiegelung an der Diagonalen ensteht: die i-te Spalte
von AT ist die die i-te Zeile von A, (AT )ji = Aij . AT heißt die zu
A transponierte Matrix. Insbesondere ist
 
a1
 
(a1 , . . . , an )T =  ...  ,
an
 T
b1
 .. 
 .  = (b1 , . . . , bn )
bn
Satz 2.4
Seien A, B m × n Matrizen und sei C eine n × r Matrix. Dann gilt:
(a) (A + B)T = AT + B T ,
(b) (λA)T = λAT ,
(c) (AT )T = A,
(d) (AC )T = C T AT .
Eine n × n Matrix heißt symmetrisch, falls AT = A, sie heißt
schiefsymmetrisch (antisymmetrisch), falls AT = −A.
Offensichtlich gilt
AT = A ⇔ aij = aji
AT = −A ⇔ aij = −aji .
I
Ist A schiefsymmetrisch, dann ist aii = 0 für alle i = 1, . . . , n.
I
Für jede n × n Matrix, sind A + AT , AT A und AAT
symmetrisch, und A − AT ist schiefsymmetrisch.
I
Die Einheitsmatrix En ist symmetrisch.
Invertierbare Matrizen
Im folgenden ist E := En und auch alle anderen Matrizen sind
quadratisch.
Satz 2.5
Seien A, B, C n × n Matrizen mit BA = E = AC . Dann gilt B = C .
Eine n × n Matrix A heißt invertierbar, falls eine n × n Matrix B
existiert mit AB = E = BA. Nach Satz 2.5 ist B eindeutig durch A
bestimmt. B heißt Inverse von A und wird mit A−1 bezeichnet.
Beispiele:
1. Für λ 6= 0 ist λE invertierbar und (λE )−1 = λ−1 E .
2. Falls ad − bc 6= 0, dann hat
1
a b
d −b
−1
A=
die Inverse A =
.
c d
−c
a
ad − bc
Satz 2.6
(a) Ist A invertierbar, dann auch A−1 , und (A−1 )−1 = A.
(b) Sind A, B invertierbar, dann auch AB, und
(AB)−1 = B −1 A−1 .
(c) AT ist genau dann invertierbar, wenn A invertierbar ist, und
dann gilt (AT )−1 = (A−1 )T .
Satz 2.7
Folgende Aussagen über eine n × n Matrix A sind äquivalent:
(a) A ist invertierbar.
(b) Es gibt eine n × n Matrix B mit AB = E .
(c) Es gibt eine n × n Matrix C mit CA = E .
(d) A~x = 0 ⇒ ~x = ~0.
(e) RangA = n.
Diagonalmatrizen
Eine Matrix der Form

a1 0 · · ·
 0 a2

diag(a1 , . . . , an ) :=  .
..
 ..
.
0
···
0



.. 
.
an
heißt Diagonalmatrix. Z.B. ist En = diag(1, . . . , 1) und es gilt
diag(a1 , . . . , an ) diag(b1 , . . . , bn ) = diag(a1 b1 , . . . , an bn ). Falls
ai 6= 0 für alle i, dann ist diag(a1 , . . . , an ) invertierbar und es gilt
diag(a1 , . . . , an )−1 = diag(
1
1
, . . . , ).
a1
an
Dreiecksmatrizen
Quadratische Matrizen der Form


∗ ∗ ∗ ∗
0 ∗ ∗ ∗


0 0 ∗ ∗ ,
0 0 0 ∗

∗
∗

∗
∗
0
∗
∗
∗
0
0
∗
∗

0
0
,
0
∗
heißen Dreiecksmatrizen. Jede Diagonalmatrix ist eine
Dreiecksmatrix.
Satz 2.8
Eine Dreiecksmatrix A = (aij ) ist genau dann invertierbar, wenn
alle Diagonalelemente aii verschieden von Null sind.
Der abstrakte Vektorraum
Se K = R oder K = C. Eine nichtleere Menge V für deren
Elemente eine Addition a + b und eine Multiplikation λa mit
Zahlen λ ∈ K definiert ist heißt K -Vektorraum, oder Vektorraum
über K , wenn folgende Axiome erfüllt sind:
(V1) Die Addition ist kommutativ und assoziativ.
(V2) Es gibt ein Element 0 ∈ V , genannt Nullvektor, mit a + 0 = a
für alle a ∈ V .
(V3) Zu jedem a ∈ V gibt es ein Element −a ∈ V mit
a + (−a) = 0.
(V4) 1a = a für alle a ∈ V .
(V5) λ(µa) = (λµ)a für alle λ, µ ∈ K , a ∈ V .
(V6) λ(a + b) = λa + λb für alle λ ∈ K , a, b ∈ V .
(V7) (λ + µ)a = λa + µa für alle λ, µ ∈ K , a ∈ V .
Die Elemente eines Vektorraums nennt man Vektoren; statt
a + (−b) schreibt man a − b.
Beispiele von Vektorräumen
I
Rn ist eine Vektorraum über R, Cn ist ein Vektorraum über C.
I
Die Mengen der reellen m × n Matrizen bilden einen
Vektorraum über R.
I
Die Menge aller Funktionen f : [a, b] → R bei festen a, b ∈ R
zuammen mit den Operationen
(f + g )(x) := f (x) + g (x),
(λf )(x) := λf (x),
ist eine R-Vektorraum.
I
Die Menge der Polynome vom Grad ≤ n,
Pn := {a0 + a1 x + . . . + an x n | ai ∈ K }
bilden einen Vektorraum über K .
Sei V ein Vektorraum über K . Eine nichtleere Teilmenge U ⊂ V
heißt Unterraum von V , wenn
(U1) u, v ∈ U
⇒
(U2) u ∈ U, λ ∈ K
u + v ∈ U,
⇒
λu ∈ U.
Bemerkungen:
I
Ein Unterraum eines K -Vektorraums ist wieder ein
K -Vektorraum.
I
Jeder Unterraum enthält den Nullvektor.
I
Jeder Vektorraum V hat die Unterräume U = {0} und
U = V.
Jede aus endliche vielen Vektoren v1 , . . . , vk ∈ V gebildete Summe
k
X
λi vi ,
λi ∈ K ,
i=1
heißt Linearkombination der vi .
Die Menge aller Linearkombinationen der vi ,
Lin(v1 , . . . , vk ) :=
k
nX
o
λi vi λi ∈ K
i=1
heißt lineare Hülle der vi . Lin(v1 , . . . , vk ) ist ein Unterraum von
V .Ein Unterraum U wird von den Vektoren v1 , . . . , vk erzeugt,
falls
U = Lin(v1 , . . . , vk ).
Man sagt auch, {v1 , . . . , vk } ist ein Erzeugendensystem von U.
Lineare Unabhängigkeit
Endliche viele Vektoren v1 , . . . , vk heißen linear abhängig, wenn
es
PkZahlen λ1 , . . . , λk ∈ K gibt, nicht alle gleich Null, so dass
i=1 λi vi = 0. Im Fall k > 1 ist das äquivalent dazu, dass sich
einer der Vektoren vi als Linearkombination der anderen schreiben
lässt. Z.B.
k−1
X
vk =
µi v i .
i=1
Endliche viele Vektoren v1 , . . . , vk heißen linear unabhängig, wenn
sie nicht linear abhängig sind, d.h., wenn
k
X
λi vi = 0
⇒
λ1 = λ2 . . . = λk = 0.
i=1
Satz 2.9
Ist A eine m × n Matrix in Zeilenstufenform, dann sind die von
Null verschiedenen Zeilenvektoren linear unabhängig.
Satz 2.10
Für eine n × n Matrix sind folgende Aussagen äquivalent:
I
A ist invertierbar
I
Die Spalten von A sind linear unabhängig.
I
Die Zeilen von A sind linear unabhängig.
Satz 2.11
Für Vektoren v1 , . . . , vk , w ∈ V gilt:
(a) Lin(v1 , . . . , vk , w ) = Lin(v1 , . . . , vk ) ⇔ w ∈ Lin(v1 , . . . , vk ).
(b) v1 , . . . , vk sind linear unabhängig ⇔ zur Erzeugung von
Lin(v1 , . . . , vk ) kann kein vi weggelassen werden.
Basis und Dimension
Eine Familie von linear unabhängigen Vektoren v1 , . . . , vn ∈ V mit
V = Lin(v1 , . . . , vn ) heißt Basis von V .
Satz 2.12
Ist v1 , . . . , vn eine Basis von V , dann hat jeder Vektor a ∈ V eine
Darstellung
a = λ1 v1 + λ2 v2 + · · · + λn vn .
wobei die Zahlen λ1 , . . . , λn ∈ K eindeutig bestimmt sind. Jede
Familie von m > n Vektoren ist linear abhängig.
Sind v1 , . . . , vn und w1 , . . . , wm zwei Basen von V , dann folgt aus
Satz 2.12, dass m = n. Die Anzahl Vektoren einer Basis heißt
Dimension von V . Die Dimension von {0} ist per Vereinbarung
gleich Null.
Existenz einer Basis
Ein Vektorraum V heißt endlich erzeugt, wenn es endlich viele
Vektoren w1 , . . . , wr gibt, mit V = Lin(w1 , . . . , wr ).
Satz 2.13
Jedes Erzeugendensystem w1 , . . . , wr von V lässt sich (durch
Weglassen von Vektoren) zu einer Basis von V reduzieren und
dim Lin(w1 , . . . , wr )
ist die Maximalzahl linear unabhängiger Vektoren die in w1 , . . . , wr
gefunden werden können. Insbesondere hat jeder endlich erzeugte
Vektorraum eine Basis.
Satz 2.14
Sei V ein endlich erzeugter Vektorraum. Dann lässt sich jede
Familie linear unabhängiger Vektoren v1 , . . . , vk ∈ V zu einer Basis
von V erweitern.
Aus den Sätzen 2.13 und 2.14 folgt sofort:
Satz 2.15
Sei V ein Vektorraum der Dimension n.
(a) Ist V = Lin(v1 , . . . , vn ), dann bilden v1 , . . . , vn eine Basis.
(b) Sind die Vektoren v1 , . . . , vn linear unabhängig, dann bilden
sie eine Basis.
Satz 2.16
Ist U ein Unterraum eines endlich dimensionalen Vektorraums V
und U 6= V , dann ist U endlich dimensional und
dim U < dim V .
Zeilen- und Spaltenraum einer Matrix
Sei A eine m × n Matrix. Der durch die Spaltenvektoren a1 , . . . , an
von A aufgespannte Unterraum von Rm ist der
Spaltenraum von A = Lin(a1 , . . . , an )
= {Ax | x ∈ Rn }.
Der durch die Zeilenvektoren z1 , . . . , zm von A aufgespannte
Unterraum von Rn ist der
Zeilenraum von A = Lin(z1 , . . . , zn )
= {y T A | y ∈ Rm }.
Der Kern der Matrix A ist der Unterraum von Rn definiert durch
KernA := {x ∈ Rn | Ax = 0}.
Satz 2.17
Sei A eine m × n Matrix.
(a) Entsteht M aus A durch endliche viele elementare
Zeilenumformungen, dann gibt es eine invertierbare m × m
Matrix P mit
M = PA.
(b) Entsteht N aus A durch endlich viele elementare
Spaltenumformungen, dann gibt es eine invertierbare n × n
Matrix Q mit
N = AQ.
Satz 2.18
Bei elementaren Zeilenumformungen ändert sich der Zeilenraum
nicht, bei elementaren Spaltenumformungen ändert sich der
Spaltenraum nicht. Insbesondere gilt
RangA = Dimension des Zeilenraums von A.
Theorem 2.19
Sei A eine m × n Matrix. Dann gilt
(a)
RangA = Dimension des Zeilenraums von A,
= Dimension des Spaltenraums von A.
(b)
RangA + dim(KernA) = n.
(c) Es gibt eine invertierbare m × m Matrix P und eine
invertierbare n × n Matrix Q, derart dass
Er 0
PAQ =
,
r = RangA.
0 0
Determinanten
Die Determinante einer 2 × 2 Matrix
a1 b1
A=
ist det A := a1 b2 − a2 b1 .
a2 b2
Also ist A genau dann invertierbar, wenn det A 6= 0.
Die Determinate einer 3 × 3 Matrix


a1 b1 c1
A = a2 b2 c2 
a3 b3 c3
ist definiert durch
b2 c2
b1 c1
b1 c1
det A :=a1 det
− a2 det
+ a3 det
b3 c3
b3 c3
b2 c2
=a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a3 b2 c1 − b3 c2 a1 − c3 a2 b1
Rekursive Definition der Determinante
Sei A = (aij ) eine n × n Matrix.
I
Für n = 1, d.h. A = (a11 ), ist die det A = a11 .
I
Für n ≥ 2 ist (Entwicklung nach der ersten Spalte):
det A =
n
X
(−1)i+1 ai1 det Ai1
i=1
= a11 det A11 − a21 det A21 + . . . (−1)n+1 an1 det An1 ,
wobei Ai1 die (n − 1) × (n − 1) Matrix ist, welche aus A durch
Entfernen der i-ten Zeile und der erste Spalte ensteht.
Rechenregeln für Determinanten
Satz 2.20
Für jede n × n Matrix A gilt:
(a) Entsteht à aus A durch vertauschen zweier Zeilen, dann gilt
det à = − det A.
(b) det A ist linear als Funktion der Zeilenvektoren von A. D.h.,
 
 
a1
λa1
 
 
det  a2  = λ det a2  ,
..
..
.
.


 
 
a1 + b1
a1
b1
 a2 
a2 
a2 
det 
 = det   + det  
..
..
..
.
.
.
und analog für die anderen Zeilen von A.
Folgerungen:
I Sind zwei Zeilenvektoren von A gleich, dann ist det A = 0.
I det(λA) = λn det A wenn A eine n × n Matrix ist.
Korollar 2.21
Die elementaren Zeilenumformungen:
1. Vertauschen von zwei Zeilen,
2. Multiplikation einer Zeile mit λ 6= 0,
3. Addition des λ-fachen einer Zeile zu einer anderen Zeile,
verändern die Determinante um den Faktor −1, λ bzw. 1.
Eine Elementarmatrix P ist eine quadratische Matrix, welche eine
elementare Zeilenumformung erzeugt. Die Determinante von P
stimmt überein mit dem Zahlenfaktor −1, λ bzw. 1 um welchen die
Determinante sich ändert bei der P entsprechenden
Zeilenumfomung. Es gilt also:
det(PA) = det(P) det(A).
Satz 2.22
Jede invertierbare Matrix ist das Produkt von Elementarmatrizen.
Theorem 2.23
Für n × n Matrizen A, B gilt:
(a) A ist genau dann invertierbar wenn det A 6= 0.
(b) det AT = det A und Satz 2.20 gilt auch für die
Spaltenvektoren einer Matrix.
(c) det(AB) = det(A) det(B).
Satz 2.24
Das durch die Vektoren a, b ∈ R2 aufgespannte Parallelogramm
hat den Flächeninhalt
| det(a, b)|.
Das durch die Vektoren a, b, c ∈ R3 aufgespannte Parallelepiped
(Spat) hat das Volumen
| det(a, b, c)|.
Folgerungen aus Theorem 2.23: Seien A, B, C n × n-Matrizen.
Dann gilt
det(AB) = det(BA),
det(Ak ) = det(A)k ,
k ∈ N,
det(A−1 ) = det(A)−1 ,
det(C −1 AC ) = det(A),
falls A invertierbar ist,
falls C invertierbar ist.
wobei Ak durch A0 = E und Ak+1 = Ak A definiert ist.
Ist A eine k × k, D
C eine (n − k) × k
A
det
0
eine (n − k) × (n − k), B eine k × (n − k) und
Matrix, dann gilt
B
A 0
= det A det D = det
D
C D
Entwicklung von det A nach beliebiger Spalte/Zeile
Sei A = (aij ) eine n × n Matrix und sei Aij die (n − 1) × (n − 1)
Matrix welche aus A durch Streichen der i-ten Zeile und der j-ten
Spalte entsteht. Dann gelten folgende Entwicklungsformeln:
Entwicklung nach der j-ten Spalte:
det A =
n
X
(−1)i+j aij det Aij
i=1
Entwicklung nach der i-ten Zeile:
det A =
n
X
j=1
(−1)i+j aij det Aij
Cramersche Regel und inverse Matrix
Sei A = (a1 , . . . , an ) eine invertierbare n × n Matrix und sei
b ∈ Rn . Dann ist die (eindeutige) Lösung des Gleichungssystems
Ax = b gegeben durch die Cramersche Regel
xi =
1
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).
det A
(i-te Spalte von A durch b ersetzt.)
Satz 2.25
Sei A eine invertierbare n × n Matrix. Dann gilt:
(A−1 )ik =
1
(−1)i+k det Aki
det A
wobei rechts die Reihenfolge der Indizes i, k gegenüber links
vertauscht ist.
Permutationen
Eine Permutation der Zahlen {1, . . . , n} ist eine bijektive
Abbildung σ : {1, . . . , n} → {1, . . . , n}. Die Permutation σ wird
durch das Schema
1
2
3
...
n
σ(1) σ(2) σ(3) . . . σ(n)
vollständig beschrieben. Es gibt n! verschiedene Permutationen von
{1, . . . , n}. Das Signum einer Permutation, sgn(σ), ist definiert
durch sgn(σ) = (−1)r wobei r die Anzahl Vertauschungen zweier
Elemente ist, welche notwendig ist um {1, . . . , n} in die
Reihenfolge {σ(1), . . . , σ(n)} zu bringen. Die Permutation σ heißt
gerade, wenn sgn(σ) = +1 und ungerade wenn sgn(σ) = −1.
Die zyklischen Permutationen von {1, 2, 3}:
1 2 3
1 2 3
1 2 3
,
,
,
1 2 3
2 3 1
3 1 2
sind gerade, die anderen drei Permutationen sind ungerade.
Satz 2.26
Die Determinate einer n × n Matrix A = (aij ) lässt sich schreiben
als
X
det A =
sgn(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ
wobei über alle Permutationen σ von {1, . . . , n} zu summieren ist.
Rn als Euklidischer Vektorraum
Seien x, y ∈ Rn , x = (x1 , . . . , xn )T , y = (y1 , . . . , yn )T . Die Zahl
T
x · y := x y =
n
X
xi yi
i=1
heißt Skalarprodukt (inneres Produkt ) von x und y , und
√
|x| := x · x
heißt Betrag (oder Länge) von x. Ein Vektor x ∈ Rn heißt
normiert oder Einheitsvektor, wenn |x| = 1.
Vorsicht: (x · y )z 6= x(y · z).
Satz 2.27
Für alle x, y , z ∈ Rn und alle λ ∈ R gilt
(a) x · x ≥ 0 und x · x = 0 ⇔ x = 0.
(b) x · y = y · x
(c) x · (y + z) = x · y + x · z, und x · (λy ) = λ(x · y ),
Satz 2.28
Für alle x, y ∈ Rn und alle λ ∈ R gilt
(a) |x| ≥ 0 und |x| = 0 ⇔ x = 0.
(b) |λx| = |λ||x|,
(c) |x · y | ≤ |x||y |
(Cauchy-Schwarzsche Ungleichung),
(d) |x + y | ≤ |x| + |y |
(Dreiecksungleichung).
Satz 2.29
Seien x, y ∈ Rn und sei ϕ ∈ [0, π] der Winkel zwischen x und y .
Dann gilt
x · y = |x||y | cos ϕ.
Zwei Vektoren x, y ∈ Rn heißen orthogonal, in Zeichen x ⊥ y ,
wenn x · y = 0. Der Nullvektor ist othogonal zu allen Vektoren.
Sind x und y orthogonal, dann gilt
|x + y |2 = |x|2 + |y |2 .
Satz 2.30 (Satz von Pytagoras)
Sind x1 , . . . , xk ∈ Rn paarweise othogonal, d.h. xi · xj = 0 für i 6= j,
dann gilt
2
k
k
X
X
xi =
|xi |2
i=1
i=1
Gram-Schmidtsches Orthogonalisierungsverfahren
Eine Familie von Vektoren b1 , . . . , bk ∈ Rn heißt orthogonal wenn
bi · bj = 0 für i 6= j und sie heißt orthonormal, wenn wenn sie
othogonal ist und alle Vektoren normiert sind, d.h. wenn
bi · bj = δij .
Satz 2.31
I
Jede orthogonale Familie {b1 , . . . , bk } ⊂ Rn ohne den
Nullvektor ist linear unabhängig.
I
Ist b1 , . . . , bn eine orthonormale Basis (ONB) von Rn , dann
gilt für jeden Vektor x ∈ Rn :
n
X
x=
(x · bi )bi
i=1
Zu jedem System linear unabhängiger Vektoren a1 , . . . , ak ∈ Rn
gibt es ein orthonormales System b1 , . . . , bk mit
Lin{a1 , . . . , ak } = Lin{b1 , . . . , bk }.
Insbesondere hat jeder Unterraum U ⊂ Rn eine ONB.
Gram-Schmidtsches Orthogonalisierungsverfahren:
b1 :=
a20
a1
|a1 |
:= a2 − (a2 · b1 )b1 ,
a30 := a3 − (a3 · b1 )b1 − (a3 · b2 )b2 ,
..
.
ak0
a20
b2 := 0
|a2 |
a30
b3 := 0
|a3 |
..
.
k−1
X
:= ak −
(ak · bi )bi ,
i=1
ak0
bk := 0
|ak |
Orthogonale Projektion
Ist U ⊂ Rn eine beliebige Teilmenge und x ⊥ y für alle y ∈ U,
dann schreiben wir x ⊥ U.
Satz 2.32
Sei U ein Unterraum von Rn . Dann hat jeder Vektor x ∈ Rn eine
eindeutige Zerlegung
x = xU + yU ,
mit xU ∈ U, yU ⊥ U.
Ist {b1 , . . . , bk } eine ONB von U, dann gilt
xU =
k
X
(x · bi )bi .
i=1
xU heißt heißt orthogonale Projektion von x auf U.
Das Vektorprodukt in R3
Das Vektorprodukt a ∧ b von zwei Vektoren a, b ∈ R3 ,
a = (a1 , a2 , a3 )T , b = (b1 , b2 , b3 )T ist definiert durch


a2 b3 − a3 b2
a ∧ b := a3 b1 − a1 b3 
a1 b2 − a2 b1
Offenbar gilt für alle Vektoren a, b, c ∈ R3 die Identität
(a ∧ b) · c = det(a, b, c).
Der Betrag des Spatprodukt (a ∧ b) · c ist nach Satz 2.24 das
Volumen des durch a, b, c aufgespannten Spats.
Folgerungen:
I
a ∧ b ist orthogonal zu a und b.
I
|a ∧ b| = |a||b| sin ϕ wobei ϕ ∈ [0, π] der Winkel zwischen a
und b ist.
I
Die drei Vektoren a, b, a ∧ b bilden ein Rechtssystem, d.h. sie
sind gleich orientiert wie e1 = (1, 0, 0), e2 = (0, 1, 0) und
e3 = (0, 0, 1).
Satz 2.33
Für alle a, b, c ∈ R3 gilt:
(a) a ∧ b = −b ∧ a, also a ∧ a = 0,
(b) λ(a ∧ b) = (λa) ∧ b = a ∧ (λb) für alle λ ∈ R,
(c) a ∧ (b + c) = a ∧ b + a ∧ c,
(a + b) ∧ c = a ∧ c + b ∧ c,
(d) |a ∧ b|2 = |a|2 |b|2 − (a · b)2 .
Satz 2.34
Für alle a, b, c, d ∈ R3 gelten die Identitäten:
a ∧ (b ∧ c) = (a · c)b − (a · b)c
(Grassmann)
(a ∧ b) · (c ∧ d) = (a · c)(b · d) − (a · d)(b · c)
(Lagrange).
Das Vektorprodukt a ∧ b in der Darstellung
a2 b2
a1 b1
a1 b1
a ∧ b = e1 det
− e2 det
+ e3 det
a3 b3
a3 b3
a2 b2
mit der Standardbasis e1 , e2 , e3 von R3 sieht aus wie die
Determinante einer 3 × 3 Matrix deren erste Spalte aus e1 , e2 und
e3 besteht, d.h. formal


e1 a1 b1
a ∧ b = det e2 a2 b2  .
e3 a3 b3
Lineare Abbildungen
Seien V , W zwei Vektorräume über K (K = R oder K = C). Eine
Abbildung F : V → W heißt linear falls für alle u, v ∈ V and alle
λ ∈ K,
F (λv ) = λF (v ),
F (u + v ) = F (u) + F (v ).
Für jede lineare Abbildung F ist F (0) = 0 und
!
n
n
X
X
F
λi vi =
λi F (vi ).
i=1
i=1
Der Kern {v ∈ V | F (v ) = 0} und das Bild {F (v ) | v ∈ V } einer
linearen Abbildung F : V → W sind Unterräume von V bzw. W .
Bemerkungen:
(a) Sind F , G : V → W linear, dann sind auch F + G und λF
linear. Somit ist die Menge der linearen Abbildungen von V
nach W ,
Hom(V , W ) := {F : V → W |F ist linear}
selbst auch ein Vektorraum über K (Raum der
Homomorphismen).
(b) Sind F : V → W und G : U → V linear, dann ist auch
F ◦ G : U → W linear.
(c) Ist F : V → W linear und bijektiv, dann ist auch
F −1 : W → V linear.
Matrizen linearer Abbildungen
Satz 2.35
Zu jeder linearen Abbildung F : K n → K m gibt es eine m × n
Matrix A = (aij ), aij ∈ K , so dass
F (x) = Ax,
für alle x ∈ K n .
(4)
Umgekehrt wird durch jede m × n Matrix A via (4) eine lineare
Abbildung F : K n → K m definiert. Die Spalten von A sind die
Bilder der Basisvektoren e1 , . . . , en von K n .
Bemerkungen:
(a) Sind F , G : K n → K m linear mit F (x) = Ax und G (x) = Bx,
dann ist A + B die Matrix von F + G und λA ist die Matrix
von λF .
(b) Sind F : K n → K m und G : K l → K n linear mit F (x) = Ax
und G (x) = Bx, dann ist AB die Matrix von F ◦ G , d.h
(F ◦ G )(x) = ABx,
für alle x ∈ K l .
(c) Eine lineare Abbildung F : K n → K n mit F (x) = Ax ist genau
dann bijektiv, wenn die Matrix A invertierbar ist, und dann gilt
F −1 (x) = A−1 x.
Satz 2.36
Sei F : K n → K m linear mit F (x) = Ax. Dann gilt
(a) F ist genau dann injektiv wenn KernA = {0}.
(b) F ist genau dann surjektiv wenn RangA = m.
Aus diesem Satz und der Dimensionsformel
RangA + dim(KernA) = n (Theorem 2.19) folgt sofort:
Satz 2.37
Für eine lineare Abbildung F : K n → K n (quadratische Matrix!)
sind äquivalent:
(a) F ist injektiv,
(b) F ist surjektiv,
(c) F ist bijektiv.
Orthogonale Abbildungen
Eine reelle n × n Matrix A und auch die zugehörige lineare
Abbildung F : Rn → Rn heißen orthogonal wenn
AT = A−1 .
Das wird durch folgenden Satz erklärt:
Satz 2.38
Sei A eine reelle n × n Matrix. Dann sind äquivalent:
(a) A ist orthogonal,
(b) (Ax) · (Ay ) = x · y für alle x, y ∈ Rn ,
(c) |Ax| = |x| für alle x ∈ Rn ,
(d) die Spalten von A bilden eine ONB von Rn .
(e) die Zeilen von A bilden eine ONB von Rn .
Ist A orthogonal, dann gilt
det A = ±1,
denn aus E = AT A folgt 1 = det E = det AT A = (det A)2 .
O(n) := Menge der orthogonalen n × n Matrizen,
heißt orthogonale Gruppe des Rn .
SO(n) := {A ∈ O(n) | det A = +1} heißt
spezielle orthogonale Gruppe.
Orthogonale Abbildungen sind
I
längentreu
I
winkeltreu
I
volumentreu
Spiegelungen und Drehungen
Die Spiegelung s : Rn → Rn am Ursprung 0 ∈ Rn , s(x) = −x, hat
die orthogonale Matrix −E mit Determinante det(−E ) = (−1)n .
Die Spiegelung an der Ebene a · x = 0 mit |a| = 1:
s : R3 → R3 ,
s(x) = x − 2a(a · x)
hat die orthogonale Matrix


1 − 2a12 −2a1 a2 −2a1 a3
E − 2aaT = −2a2 a1 1 − 2a22 −2a2 a3 
−2a3 a1 −2a3 a2 1 − 2a32
mit det(E − 2aaT ) = −1. Offensichtlich ist diese Matrix
symmetrisch. Das muss so sein, denn s −1 = s und somit gilt
S T = S −1 = S für S = E − 2aaT .
Eine Drehungen in der Ebene um 0 ∈ R2 wird beschrieben durch
eine orthogonale Matrix:
cos ϕ − sin ϕ
D(ϕ) =
,
det D(ϕ) = 1.
sin ϕ cos ϕ
Drehungen um die x, y und z-Achse werden dargestellt durch
SO(3) Matrizen




1
0
0
cos β 0 sin β
1
0 
D1 (α) = 0 cos α − sin α , D2 (β) =  0
0 sin α cos α
− sin β 0 cos β


cos γ − sin γ 0
D3 (γ) =  sin γ cos γ 0
0
0
1
Die Vorzeichen sind so gewählt, dass ein positiver Winkel zu einer
Drehung im Gegenuhrzeigesinn führt wenn man gegen der Achse
blickt.
Die Drehung im Raum um die Achse parallel zu einem gegebenen
Einheitsvektor a ∈ R3 mit Winkel ϕ ist eine orthogonale Abbildung
d : R3 → R3 gegeben durch
d(x) = (cos ϕ)x + (1 − cos ϕ)(x · a)a + (sin ϕ)a ∧ x.
Die zugehörige Matrix ist:


0
−a3 a2
0
−a1 
D = (cos ϕ)E + (1 − cos ϕ)aaT + (sin ϕ)  a3
{z
}
|
−a2 a1
0
symmetrisch
|
{z
}
antisymmetrisch
(5)
Man kann zeigen, dass
D ∈ SO(3)
⇔
D ist Drehmatrix.
Somit ist jede jede SO(3) Matrix von der Form (5).
Ist D = (dij ) eine gegebene SO(3)-Matrix dann kann man den
zugehörige Drehwinkel ϕ und den Vektor a aus den Elementen der
Matrix D berechnen. Nach (5) gilt
1
cos ϕ = (SpurD − 1) mit
2
SpurD := d11 + d22 + d33
was einen Winkel ϕ ∈ [0, π] festlegt, und der zugehörige Vektor a
ist gegeben durch


d32 − d23
d
a=
, mit d := d13 − d31 
|d|
d21 − d12
falls ϕ 6= π
und für ϕ = π kann für a eine normierte Lösung von (D − E )a = 0
gewählt werden.
Euler-Winkel
Sind b1 , b2 , b3 ∈ R3 orthonormierte Vektoren welche ein
Rechtsystem bilden, zum Beispiel bk = Dek wobei D eine
Drehmatrix ist, dann sind die Eulerschen Winkel ψ, ϕ, θ definiert
durch folgende Figur, worin die Achsen x1000 , x2000 , x3000 durch die
Vektoren b1 , b2 , b3 definiert sind.
Es gilt also bk = D3 (ψ)D1 (θ)D3 (ϕ)ek . Jede Drehmatrix D lässt
sich somit schreiben als
D = D3 (ψ)D1 (θ)D3 (ϕ)
.
Basiswechsel
Sei {e1 , . . . , en } die Standardbasis von K n und sei {b1 , . . . , bn }
eine zweite Basis vonP
K n . Dann lässt sich jeder Vektor
x = (x1 , . . . , xn )T = ni=1 xi ei darstellen in der Form
x=
n
X
xk0 bk ,
(6)
k=1
mit eindeutig bestimmten Koordinaten xk0 ∈ K . Der Spaltenvektor
x 0 := (x10 , . . . , xn0 )T heißt Koordinatenvektor von x bezüglich der
Basis {b1 , . . . , bn }. Aus (6) folgt, dass
x = Bx 0 ,
x 0 = B −1 x,
B := (b1 , . . . , bn )
P
denn nk=1 xk0 bk = Bx 0 , wenn B die Matrix gebildet aus den
Spaltenvektoren b1 , . . . , bn bezeichnet.
Bemerkungen:
I
Im Fall der Standardbasis stimmt der Koordinatenvektor x 0
mit dem zugehörigen Vektor x ∈ K n überein.
I
Bei einem Basiswechsel ändert sich nur der
Koordinatenvektor. Der Vektor selbst bleibt unverändet!
Die Matrix A einer lineare Abbildung F : K n → K n besteht aus
den Spaltenvektoren Ae1 , . . . , Aen . Diese Spaltenvektoren sind
Koordinatenvektoren von F (e1 ), . . . , F (en ) bezüglich der
Standardbasis. Ist {b1 , . . . , bn } eine beliebige Basis von K n , dann
ist die Abbildungsmatrix C von F bezüglich {b1 , . . . , bn }
definiert durch
C = F (b1 )0 , . . . , F (bn )0 .
F (bk )0 = Koordinatenvektor von F (bk ) bezüglich {b1 , . . . , bn }.
Satz 2.39
Ist C die Abbildungsmatrix einer linearen Abbildung F : K n → K n
bezüglich der Basis {b1 , . . . , bn }, dann gilt
F (x)0 = Cx 0 ,
und
C = B −1 AB,
wobei x 0 , F (x)0 Koordinatenvektoren bezüglich der Basis
{b1 , . . . , bn } sind, und A die Abbildungsmatrix von F bezüglich der
Standardbasis von K n bezeichnet.
Zwei n × n-Matrizen A, C heißen ähnlich, wenn es eine
invertierbare Matrix B gibt, so dass C = B −1 AB.
Eigenwerte und Eigenvektoren
Sei A = (aij ) eine komplexe (oder reelle) n × n Matrix. Eine Zahl
λ ∈ C heißt Eigenwert von A, wenn es einen Vektor b ∈ Cn ,
b 6= 0, gibt
Ab = λb.
Jeder Vektor b 6= 0 der diese Gleichung erfüllt heißt Eigenvektor
von A zum Eigenwert λ.
Satz 2.40
Eine komplexe Zahl λ ist genau dann ein Eigenwert der n × n
Matrix A, wenn det(A − λE ) = 0.
Zur Berechnung der Eigenwerte von A sind also die Nullstellen des
charakteristisches Polynom
χA (λ) := det(A − λE )
von A zu bestimmen.
Für eine 2 × 2-Matrix A =
a b
c d
gilt
a−λ
b
χA (λ) = det
= λ2 − (a + d)λ + (ad − bc)
c
d −λ
= λ2 − (SpurA)λ + det A,
und allgemein
χA (λ) = (−λ)n + (SpurA)(−λ)n−1 + . . . + det A
(7)
wobei die Spur von A definiert ist durch
Spur(A) := a11 + a22 + . . . + ann .
Berechnung der Eigenwerte und Eigenvektoren
I
Nach Satz 1.19 hat χA eine Faktorisierung
χA (λ) = (λ1 − λ)m1 · · · (λr − λ)mr .
(8)
Die Zahlen λ1 . . . , λr sind die Nullstellen von χA und somit
die Eigenwerte von A. Die Vielfachheit mi der Nullstelle λi
heißt algebraische Vielfachheit des Eigenwerts λi .
I
Die Eigenvektoren zum Eigenwert λi sind die von Null
verschiedenen Lösungen des homogenen linearen
Gleichungssystems (A − λi E )x = 0. Der Lösungsraum
V (λi ) := Kern(A − λi E )
heißt Eigenraum zu λi . dim V (λi ) heißt geometrische
Vielfachheit des Eigenwerts λi .
Durch Ausmultiplizieren von (8) und Vergleich mit (7) bekommt
man
r
r
X
Y
i
SpurA =
mi λi ,
det A =
λm
i .
i=1
i=1
Also gilt:
SpurA = Summe der Eigenwerte
det A = Produkt der Eigenwerte
wenn in der Summe und im Produkt jeder Eigenwert so oft
aufgenommen wird wie seine algebraische Vielfachheit angibt.
Satz 2.41
Sei A eine komplexe oder reelle n × n-Matrix.
(a) Sei b ein Eigenvektor von A mit Eigenwert λ. Dann ist b auch
ein Eigenvektor von
am Am + . . . + a1 A + a0 E
und der zugehörige Eigenwert ist am λm + . . . + a1 λ + a0 .
(b) A, AT und B −1 AB haben dasselbe charakteristische Polynom
und deshalb auch dieselben Eigenwerte. Ist b ein Eigenvektor
von A, dann ist B −1 b eine Eigenvektor von B −1 AB und
umgekehrt.
(c) A ist genau dann invertierbar wenn 0 keine Eigenwert von A
ist. Ist λ ein Eigenwert von A mit Eigenvektor b, dann ist λ−1
eine Eigenvektor von A−1 mit demselben Eigenvektor b.
Satz 2.42
Eigenvektoren b1 , . . . , br zu paarweise verschiedenen Eigenwerten
λ1 , . . . , λr der Matrix A sind linear unabhängig.
Satz 2.43
Sei A eine komplexe oder reelle n × n-Matrix. Falls A n linear
unabhängige Eigenvektoren b1 , . . . , bn hat mit nicht notwendig
verschiedenen Eigenwerten λ1 , . . . , λn , dann gilt


λ1 0 · · · 0
 0 λ2



−1
B AB =  .
,
.
.
. . .. 
 ..

0
···
λn
wobei B = (b1 , . . . , bn ).
Anwendung von Satz 2.43: Berechnung von Ak .
Symmetrische Matrizen und quadratische Formen
Theorem 2.44
Für jede symmetrische reelle n × n Matrix A gilt:
(a) Alle Eigenwerte sind reell.
(b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal.
(c) Algebraische und geometrische Vielfachheit jedes Eigenwerts
stimmen überein.
Korollar 2.45
Ist A eine symmetrische reelle n × n-Matrix, dann gibt es eine ONB
von Rn bestehend aus Eigenvektoren von A.
Nach Korollar 2.45 lässt sich eine symmetrische 3 × 3 Matrix durch
eine Drehung des Koordinatensystems diagonalisieren, d.h. auf
Diagonalgestalt bringen.
Satz 2.46
Zwei symmetrische n × n Matrizen A, C mit AC = CA lassen sich
gleichzeitig (orthogonal) diagonalisieren, d.h. es gibt eine ONB
{b1 , . . . , bn } von Rn , so dass B −1 AB und B −1 CB
Diagonalmatrizen sind wenn B = (b1 , . . . , bn ).
Eine quadratische Form q ist eine Abbildung q : Rn → R mit
q(x) = x T Ax wobei A eine reelle, symmetrische n × n Matrix ist. q
heißt rein quadratisch wenn A eine Diagonalmatrix ist.
Bemerkung:
I
Wenn die Matrix A nicht symmetrisch ist, dann kann man sie
ersetzen durch die symmetrische Matrix (A + AT )/2 ohne
dass sich dabei die quadratische Form q(x) = x T Ax ändert.
I
Eine Funktion f : Rn → R deren Graph bei 0 eine horizontale
Tangentialeben hat, kann dort durch eine quadratische Form
q : Rn → R approximiert werden (HM2). Das Studium von q
gibt Aufschluss darüber, ob f bei 0 ein Maximum, ein
Minimum oder keines von beidem hat.
Basiswechsel. Sei b1 , . . . , bn eine Basis von Rn , B := (b1 , . . . , bn ),
und sei x = By , d.h. y1 , . . . , yn sind die Koordinaten von x ∈ Rn
bezüglich der neuen Basis. Dann gilt
q(x) = x T Ax = (By )T ABy = y T (B T AB)y =: q̃(y ).
Die quadratische Form q wir also bezüglich der Basis b1 , . . . , bn
dargestellt durch die Matrix
à = B T AB
Bemerkungen:
I
Die Matrix einer quadratischen Form transformiert sich bei
Basiswechsel nicht so wie die Matrix einer linearen Abbildung,
ausser B T = B −1 .
I
Die Matrizen à = B T AB und A haben nicht dieselben
Eigenwerte, ausser B T = B −1 , d.h. ausser {b1 , . . . , bn } eine
ONB von Rn .
Eine ONB {b1 , . . . , bn } heißt Hauptachsensystem von q, wenn q
in dieser Basis rein quadratisch ist. Aus Korollar 2.45 folgt
Jede quadratische Form hat ein Hauptachsensystem.
Bestimmung eines Hauptachsensystems von q(x) = x T Ax:
1. Man bestimme die Eigenwerte λ1 , . . . , λr von A.
2. Zu jedem der verschiedenen Eigenwerte λi bestimmt man eine
(i)
(i)
ONB {b1 , . . . , br } von V (λi ) = Kern(A − λi E ).
(i)
(i)
3. Die Vereingung ∪ri=1 {b1 , . . . , br } der Teilbasen ist ein
Hauptachsensystem.
Die Signatur einer symmetrischen Matrix A ist die das
Zahlentripel (p, q, s) bestehend aus:
p = Anzahl positiver Eigenwerte von A,
q = Anzahl negativer Eigenwerte von A,
s = Vielfachheit des Eigenwerts 0.
Satz 2.47 (Trägheitssatz von Sylvester)
Ist A eine symmetrische und W eine invertierbare n × n Matrix,
dann haben A und W T AW die selbe Signatur
Beweis: Siehe Meyberg, Vachenauer
PageRank: die Bewertung einer Webpage durch Google
Problemstellung: Sei n die Anzahl existierender Webseiten (ein
paar Milliarden). Gesucht ist für jede Webpage i ∈ {1, . . . , n} eine
Bewertung xi ≥ 0, welche ein Mass für die relative Wichtiggkeit der
Seite darstellt. Suchmaschinen benötigen eine solche Bewertung
um die gefundenen Webseiten nach Wichtigkeit zu ordnen.
1 es gibt einen Link von Seite j auf die Seite i.
0 sonst.
n
X
nj :=
Lji = Anzahl Links von Seite j auf andere Seiten,
Lji :=
i=1
n
X
Lji = Anzahl Links von anderen Seiten auf die Seite i.
j=1
Lii := 0.
Idee: Die Bewertungen x1 , . . . , xn sollen den Gleichungen
n
X
1
xi =
Lji xj
nj
i = 1, . . . , n,
(9)
j=1
genügen. D.h. xi ist groß, wenn viele oder wichtige andere
Webseiten einen Link auf die Seite i haben. Dabei ist der Wert
eines Links reduziert wenn er von einer Seite mit vielen Links
kommt.
Gleichung (9) ist äquivalent zum Eigenwertproblem
x = Ax,
Aij :=
1
Lji ,
nj
x := (x1 , . . . , xn )T .
Die Matrix A hat die Eigenschaften Aij ≥ 0 und
Spaltensumme:
n
X
Aij = 1,
i=1
Man nennt solche Matrizen stochastisch.
für alle
j.
(10)
Satz 2.48
Sei A eine stochastische Matrix. Dann gilt:
(a) Für alle Eigenwerte λ ∈ C von A gilt |λ| ≤ 1.
(b) λ = 1 ist ein Eigenwert von A und es gibt einen Eigenvektor
x = (x1 , . . . , xn ) mit xi ≥ 0.
(c) Wenn Aij > 0 für alle i, j, dann hat der
P Eigenwert 1 die
n
Vielfachheit 1 und für jedes v ∈ R , i vi 6= 0, ist der Limes
lim Ak v
k→∞
ein Eigenvektor von A zum Eigenwert 1.
Problem: Die Bedingung Aij > 0 ist nicht erfüllt für die Matrix
Aij = Lji /nj . Die Lösung von (10) ist daher in der Regel nicht
eindeutig und der Limes in Teil (b) des obigen Satzes braucht nicht
zu existieren.
Lösung: Die Bedingung an x wir wie folgt modifiziert:
x = αAx + (1 − α)e,
e = (1, . . . , 1)T ,
(11)
wobei α ∈ (0, 1). In der Praxis wird α = 0.85 gewählt. Jede
Webseite hat also ein Gewicht von 0.15 unabhängig von der
Linkstruktur des www. Die Lösung des Gleichungssystems (11) ist
x = (1 − α)(E − αA)−1 e.
(12)
Weil die Berechnung der Inversen von E − αA zu aufwending ist
berechnet man (12) durch Iteration der Gleichung (11): wenn
x (k+1) := αAx (k) + (1 − α)e,
dann ist limk→∞ x (k) die Lösung von (11) und zwar unabhängig
von der Wahl von x (0) .
Also, a PageRank for 26 million web pages can be computed in a
few hours on a medium size workstation.
(http://infolab.stanford.edu/ backrub/google.html)
Problemstellung
Welche der folgenden quadratischen Formen q : R2 → R sind bei
(0, 0) minimal, d.h. q(x, y ) ≥ 0 für alle (x, y )?
(a) q(x, y ) = x 2 + 2y 2 ,
-1.0
-0.5
0.0
0.5
(b) q(x, y ) = 2x 2 + 3xy − y 2
1.0
4
4
2
3
0
2
-2
1
-4
-1.0
0
-1.0
1.0
-0.5
0.5
-0.5
0.0
0.0
0.0
-0.5
0.5
0.5
1.0
-1.0
1.0
Welche der folgenden quadratischen Formen q : R2 → R sind bei
(0, 0) minimal, d.h. q(x, y ) ≥ 0 für alle (x, y )?
(c) q(x, y ) = x 2 +6xy + 2y 2 ,
q(x, y ) = 2x 2 −4xy +3y 2
(d)
1.0
1.0
0.5
0.5
0.0
0.0
-0.5
-0.5
-1.0
10
-1.0
10
5
5
0
0
-1.0
-1.0
-0.5
-0.5
0.0
0.0
0.5
0.5
1.0
1.0
Terminologie für quadratische Formen q : Rn → R mit
q(x) = x T Ax, bzw. für symmetrische Matrizen A:
für alle x 6= 0 gilt
q(x) > 0
q(x) ≥ 0
q(x) ≤ 0
q(x) < 0
q(x1 ) > 0, q(x2 ) < 0
q bzw. A heißt
positiv definit
positiv semidefinit
negativ semidefinit
negativ definit
indefinit.
Diese Eigenschaften einer symmetrischen Matrix sind unabhängig
von der Wahl der Basis, denn es gilt:
A ist positiv definit ⇔ W T AW ist positiv definit
wenn W eine invertierbare Matrix ist, und analog für positiv
semidefinit, negativ semidefinit, etc.
Sei A eine symmetrische n × n Matrix und b1 , . . . , bn ein
Hauptachsensystem von A, d.h. eine ONB mit Abi = λi bi . Sei
B = (b1 , . . . , bn ), dann ist A positiv definit genau dann wenn
B T AB positiv definit ist und
T
T
x (B AB)x =
n
X
λi xi2 .
i=1
Satz 2.49
Für jede symmetrische n × n Matrix A gilt:
(i)
A ist positiv definit ⇔ alle EW sind > 0,
(ii)
A ist positiv semidefinit ⇔ alle EW sind ≥ 0,
(iii)
A ist negativ semidefinit ⇔ alle EW sind ≤ 0,
(iv )
A ist negativ definit ⇔ alle EW sind < 0,
(v )
A ist indefinit ⇔ es gibt positive und negative EW.
Typische Graphen
-1.0
-0.5
0.5
0.0
1.0
2.0
1.5
q(x, y ) = x 2 + y 2 , positiv definit
1.0
0.5
0.0
-1.0
-0.5
0.0
0.5
1.0
-1.0
-0.5
1.0
0.5
0.0
1.0
0.5
q(x, y ) = x 2 , positiv semidefinit
0.0
-1.0
-0.5
0.0
0.5
1.0
-1.0
-0.5
0.0
1.0
0.5
1.0
0.5
0.0
-0.5
q(x, y ) = x 2 − y 2 , indefinit
-1.0
-1.0
-0.5
0.0
0.5
1.0
Sei A = (aij ) eine symmetrische n × n Matrix. Dann gilt:
A ist positiv definit
⇒
aii > 0, für alle i.
Die Positivität der Diagonalelemente aii ist aber nicht hinreichend
dafür, dass A positiv definit ist. Folgender Satz gestattet zu prüfen
ob eine Matrix positiv definit ist, ohne die Eigenwerte zu
berechnen:
Satz 2.50 (Jacobi)
Eine symmetrische n × n Matrix A = (aij ) ist genau dann positiv
definit, wenn die n Hauptuntermatrizen H1 = a11 ,


a
.
.
.
a
11
1k
a11 a12
 ..
..  , . . . , H = A
H2 =
, . . . , Hk =  .
n
. 
a21 a22
ak1 . . . akk
positive Determinanten haben.
Quadriken
Transformation von Punktkoordinaten
Jeder Punkt X = (x1 , . . . , xn ) ∈ Rn entspricht einem Ortsvektor
x = (x1 , . . . , xn )T und umgekehrt. Aber man muss zwischen
Koordinaten eines Punktes (oder Ortsvektors) und Koordinaten
eines Vektors unterscheiden, da sie sich verschieden verhalten unter
Basiswechsel.
Ein affines Koordinatensystem K = (P; b1 , . . . , bn ) von Rn
besteht aus einem Punkt P ∈ Rn und einer Basis {b1 , . . . , bn } von
Rn (als Vektorraum). Die Koordinaten x10 , . . . , xn0 von X ∈ Rn
bezüglich K sind bestimmt durch die Gleichung
x =p+
n
X
xi0 bi .
i=1
Wir schreiben XK := (x10 , . . . , xn0 ) und x 0 :=
B = (b1 , . . . , bn ) dann gilt offenbar:
x = p + Bx 0 ,
Pn
0
i=1 xi bi .
x 0 = B −1 (x − p).
Ist
Quadriken
Eine Funktion p : Rn → R der Form
T
T
p(x) = a0 + a x + x Ax = a0 +
n
X
ai xi +
X
i=1
aij xi xj
i,j
mit a0 ∈ R, a ∈ Rn und AT = A = (aij ) heißt quadratisches
Polynom in den Variablen x1 , . . . , xn . Insbesondere ist jede
quadratische Form q(x) = x T Ax ein quadratisches Polynom.
Die Menge aller Punkte x = (x1 , . . . , xn ) ∈ Rn , welche eine
Gleichung der Form
p(x) = x T Ax + aT x + β = 0,
erfüllen, nennt man eine Quadrik (oder Hyperfläche zweiter
Ordnung). Jede Niveaufläche {x ∈ Rn | p(x) = const} eines
quadratischen Polynoms p ist also eine Quadrik.
Beispiele von Quadriken in R2
1.0
0.8
x 2 + 2xy + 3y 2 − 2y − x = 0
0.6
0.4
0.2
-0.4
-0.2
0.2
0.4
0.6
0.8
1.0
-0.2
-0.4
1.0
0.5
x 2 − 6xy + 9y 2 − 2 = 0
-1.0
-0.5
0.5
1.0
-0.5
-1.0
0.5
-1.5
21
y2
−x +
+ xy + 4x + y −
=0
2
20
-2.0
2
-2.5
-3.0
1.0
1.5
2.0
Normalform von Quadriken
Die Quadrik x T Ax + aT x + β = 0 liegt in Normalform vor, wenn
x T Ax rein quadratisch ist, und aT x + β durch keine affine
Substitution verkürzt werden kann. Für eine Tabelle von Quadriken
in Normalform siehe Meyberg/Vachenauer.
Transformation auf Normalform:
I
Hauptachsentransformation: Bestimmung der Eigenwerte
λ1 , . . . , λn von A und einer ONB zugehöriger Eigenvektoren
b1 , . . . , bn . Die Quadrikengleichung im Koordinatensystem
(0; b1 , . . . , bn ) lautet:
λ1 y12 + . . . + λn yn2 + γ1 y1 + . . . + γn yn + β = 0
P
wobei γi = bi · a und x = nk=1 yk bk .
I
Quadratische Ergänzung: Sei λ1 , . . . , λr 6= 0 und
λr +1 , . . . , λn = 0. Durch quadratische Ergänzung erhalten wir
r
X
λk yk2 + γk yk + β =
k=1
r
X
k=1
wobei zk := yk + (γk /2λk ) und γ := b −
I
λk zk2 + γ
γk2
k=1 4λk .
Pr
Reduktion des linearen Anteils. Falls γk 6= 0 für eine
k ≥ r + 1, z.B. γn 6= 0, dann wird γ eliminiert durch
γn yn + γ = γn zn mit zn := yn + (γ/γn ). Wir setzen zk := yk
für die übrigen k’s und erhalten
n
X
k=r +1
γk yk + γ =
γ
Pn
k=r +1 γk zk
alle γk = 0
ein γk 6= 0.
Die Normalform wird angenommen im Koordinatensystem
(Bu; b1 , . . . , bn ) wobei uk = −γk /2λk , k ≤ r , und für k ≥ r + 1,
uk = 0 oder uk = −γ/γk .
Zahlenfolgen und
Grenzwerte
Beispiele von Zahlenfolgen
Für n ∈ N sei
an :=
1
,
n
bn = (−1)n−1 ,
cn =
√
n
n!
Graphische Darstellung (Graphen):
ì
ì
ì
3
ì
ì
2
ì
ì
1
æ
à
ì
à
æ
-1
æ
à
æ
æ
à
æ
æ
æ
2
4
6
8
à
à
à
à
Zahlenfolgen
Eine Folge reeller Zahlen ist eine Abbildung
N → R,
n 7→ an .
Man schreibt dafür
(an )n∈N ,
(an )n≥1 ,
(an ),
oder a1 , a2 , a3 . . .
Die Zahlen an heißen Glieder der Folge. Eine Folge braucht nicht
mit a1 zu beginnen; z.B. nennt man auch a5 , a6 , a7 , . . . eine Folge,
da man durch die Umnumerierung der Glieder bn := an+4 , n ≥ 1,
eine Folge in obigem Sinn definieren kann.
Eine Folge heißt beschränkt, wenn es eine Zahl K gibt, mit
|an | ≤ K
für alle
n ∈ N.
Folgen und Flächenberechnung
1.0
1.0
1.0
1.0
0.8
0.8
0.8
0.8
0.6
0.6
0.6
0.6
0.4
0.4
0.4
0.4
0.2
0.2
0.2
0.2
0.2
0.4
0.6
0.8
1.0
0.2
0.4
0.6
0.8
1.0
a1 = 0.433013,
0.2
0.4
0.6
0.8
1.0
a2 = 0.623927,
0.2
0.4
0.6
0.8
1.0
a3 = 0.709955.
an = Gesamtfläche der 2n − 1 Rechtecke unterhalb des
Viertelskreises. Je größer n ist, desto besser wird die Fläche des
Viertelskreises durch an approximiert. Wir werden später sehen, das
an →
π
= 0.785398 . . . ,
4
(n → ∞).
Konvergenz
Eine Folgen (an ) konvergiert (oder strebt) gegen die Zahl a, in
Zeichen
oder an → a,
lim an = a,
n→∞
(n → ∞),
falls es zu jeder noch so kleinen Zahl ε > 0 einen Indexwert n0 ∈ N
gibt, so dass
n ≥ n0 ⇒ |an − a| < ε.
æ
Die Zahl a heißt Grenzwert der Folge (an ). Eine Folge heißt
konvergent wenn sie einen Grenzwert hat, sonst heißt sie
divergent. Eine Folge mit Grenzwert 0 heißt Nullfolge.
Wichtigstes Beispiel:
1
= 0.
n→∞ n
lim
Illustrationen von Konvergenz und Divergenz
1.6
1.4
æ
æ æ
1.2
æ
1.0
æ
0.8
æ æ æ
æ
æ
æ
æ æ æ
æ æ æ æ
æ æ æ
0.6
5
æ
10
15
æ
lim
n→∞
2.0
1.5
1.0
0.5
-0.5
-1.0
-1.5
æ
æ
æ
æ
æ
5
æ
æ
æ
æ
æ
æ
æ
æ
15
æ
æ
25
20 sin(n)
1+
n2
æ
10
æ
20
æ
= 1.
æ
æ
20
æ
æ
25
æ
æ
æ
Die Folge an = (−1)n hat weder den Grenzwert 1 (siehe Figur)
noch irgend einen anderen Grenzwert. Sie ist daher divergent.
Satz 3.1
(a) Der Grenzwert einer konvergenten Folge ist eindeutig: falls
limn→∞ an = a und limn→∞ an = b dann gilt a = b.
(b) Jede konvergente Folge ist beschränkt.
Korollar 3.2
Ist die Folge (an ) unbeschränkt, dann ist sie divergent.
Die Folge (an ) divergiert gegen ∞ (oder strebt gegen ∞), in
Zeichen
lim an = ∞ oder an → ∞,
n→∞
(n → ∞)
falls zu jeder noch so großen Zahl K ∈ R eine Indexwert n0 ∈ N
existiert, so dass
n ≥ n0 ⇒ an > K .
Divergenz gegen −∞ ist analog definiert.
Geometrische Folge und geometrische Reihe
Für jede reelle Zahl x gilt:

x > 1,
 ∞
n
0
−1 < x < 1,
lim x =
n→∞

unbestimmt
x ≤ −1.
(13)
Für jede reelle Zahl x 6= 1 gilt
1 − x n+1
sn := 1 + x + x + . . . + x =
.
1−x
2
n
(14)
Die Folge (14) heißt geometrische Reihe. Sie ist konvergent für
|x| < 1 und divergent für |x| ≥ 1. Nach (13) gilt
∞
X
k=0
x k := lim (1 + x + x 2 + . . . + x n ) =
n→∞
1
,
1−x
|x| < 1.
Teilfolgen und Häufungspunkte
Ist (an )n≥1 eine Folge und n1 < n2 < n3 , . . . eine aufsteigende
Indexfolge, dann heißt die Folge an1 , an2 , an3 , . . . Teilfolge der
Folge (an ).
Satz 3.3
Hat die Folge (an ) den Grenzwert a, dann konvergiert auch jede
Teilfolge von (an ) gegen a.
Eine Zahl a ∈ R heißt Häufungspunkt der Folge (an ), wenn eine
Teilfolge existiert, welche gegen a konvergiert. Insbesondere ist der
Grenzwert einer Folge auch ein Häufungspunkt.
Konvergenzkriterien und Rechenregeln
Satz 3.4 (Vergleichskriterien)
(a) Falls |an | ≤ bn für alle n ≥ n1 und limn→∞ bn = 0, dann gilt
lim an = 0
n→∞
(b) Falls an ≤ bn ≤ cn für n ≥ n1 und
limn→∞ an = L = limn→∞ cn , dann gilt
lim bn = L.
n→∞
(c) Falls limn→∞ an = a, limn→∞ bn = b, und an ≤ bn für alle
n ≥ n1 , dann gilt
a ≤ b.
Bemerkung: Wenn an < bn für alle n ≥ n1 in Teil (c), dann folgt
trotzdem nur a ≤ b. Das sieht man am Beispiel an = 0, bn = 1/n.
æ
æ
1.5
-
1.0
0.5
æ
0.0
-
-
æ æ
-
- æ æ - - - - æ æ
æ - - - - æ
æ æ - - - æ
æ
æ
æ
æ
æ
æ
æ
æ æ æ
æ - - - - -
5
10
-
−
15
20
25
1
1 + 2 sin(n)
3
≤
≤ .
n
n
n
Satz 3.5
(a) limn→∞ an = a
⇒
limn→∞ |an | = |a|.
(b) an ≥ 0 und limn→∞ an = a ⇒
√
(c) limn→∞ n a = 1 für alle a > 0.
√
(d) limn→∞ n n = 1.
limn→∞
√
an =
√
a.
Satz 3.6 (Rechenregeln)
Seien (an ) und (bn ) konvergente Folgen mit limn→∞ an = a und
limn→∞ bn = b. Dann gilt
(a) limn→∞ (an + bn ) = a + b.
(b) limn→∞ (an bn ) = ab.
(c) Falls b 6= 0, dann gibt es ein n1 mit bn 6= 0 für n ≥ n1 und
a
an
= .
n→∞ bn
b
lim
Monotone Folgen
Eine Folge (an )n≥1 heißt monoton wachsend, wenn
an ≤ an+1 ,
für alle n ≥ 1.
Sie heißt monoton fallend wenn an ≥ an+1 für alle n ≥ 1.
Theorem 3.7
Jede beschränkte monotone Folge ist konvergent.
Die Eulersche Zahl
∞
X
1
e :=
= 2, 71828 . . .
k!
k=0
ist derPGrenzwert der beschränkten, monoton wachsenden Folge
1
sn = nk=0 k!
.
Lemma 3.8 (Bernoullische Ungleichung)
Für alle n ∈ N und alle x ≥ −1 gilt:
(1 + x)n ≥ 1 + nx.
Illustration für n = 2 und n = 3:
-2.0
-1.5
-1.0
2.0
2.0
1.5
1.5
1.0
1.0
0.5
0.5
-0.5
0.5
1.0
-2.0
-1.5
-1.0
-0.5
0.5
-0.5
-0.5
-1.0
-1.0
1.0
Satz 3.9
Die Folge (1 + n1 )n ist monoton wachsend, beschränkt und
n
X
1 n
1
lim 1 +
= lim
= e.
n→∞
n→∞
n
k!
k=0
Satz 3.10
Für alle x ∈ R existiert der Limes
exp(x) := lim
n→∞
x n
1+
n
und es gilt exp(0) = 1, exp(x) > 0 und exp(−x) = 1/ exp(x).
Satz 3.11
Für alle x ∈ R und alle rationalen Zahlen r gilt
exp(xr ) = exp(x)r .
Für rationale Zahlen r gilt nach Satz 3.9 und Satz 3.11,
exp(r ) = exp(1)r = e r . Man definiert daher für alle x ∈ R:
e x := exp(x).
Graph der Exponentialfunktion:
3.0
2.5
2.0
1.5
1.0
0.5
-4
-3
-2
-1
0
1
2
Zinseszins
Ein Guthaben a > 0 wird für ein Jahr zum Zinssatz r ∈ (0, 1), also
100r Prozent, angelegt. Das Endguthaben hängt davon ab, wie oft
Zins ausgeschüttet wird:
Zinsausschüttung
jährlich
monatlich
täglich
jede Stunde
jede Sekunde
kontinuierlich
Endbetrag
a(1 + r )
r 12
a(1 + 12
)
r 365
a(1 + 365 )
r
a(1 + 8760
)8760
r
a(1 + 31536000
)31536000
limn→∞ a(1 + nr )n = ae r
Da die Folge (1 + nr )n monoton wachsend ist, ist der Endbetrag
umso größer, je öfter Zins ausgeschüttet wird.
Wurzelberechnung
Satz 3.12
Sei b > 0, a0 > 0, und sei
an+1
1
=
2
b
an +
.
an
Dann gilt a1 ≥ a2 ≥ a3 ≥ . . . und
√
lim an =
n→∞
Zur Berechnung von
√
b.
3 wählen wir x0 = 2 und erhalten:
x1 = 1.75
x2 = 1.7321...
x3 = 1.732050810
x4 = 1.732050808
Limes superior und Limes inferior
Sei (an ) eine Folge reeller Zahlen. Dann ist
bn := sup ak = sup{ak | k ≥ n}
k≥n
offensichtlich eine monoton fallende Folge. Wenn sie beschränkt
ist, dann ist sie konvergent. Sonst ist entweder bn = ∞ für alle n,
oder limn→∞ bn = −∞. In jedem Fall ist also der Limes superior
lim sup an := lim sup ak .
n→∞
n→∞
k≥n
wohldefiniert. Die Folge bn := inf k≥n ak = inf{ak | k ≥ n} ist
monoton wachsend. Also existiert auch der Limes inferior
lim inf an := lim inf ak .
n→∞
I
n→∞
k≥n
Im allgemeinen gilt lim inf n→∞ an ≤ lim supn→∞ an . Für eine
beschränkte Folge gilt
lim inf an = kleinster Häufungspunkt von (an ),
n→∞
lim sup an = größter Häufungspunkt von (an ).
n→∞
I
Eine Folge (an ) ist genau dann konvergent, wenn sie
beschränkt ist und
lim inf an = lim sup an ,
n→∞
(15)
n→∞
und dann ist (15) der Grenzwert der Folge.
I
Jede beschränkte Folge (an ) hat eine konvergente Teilfolge.
Z.B. die Teilfolge welche gegen den Häufungspunkt
lim supn→∞ an konvergiert. (Satz von Bolzano - Weierstraß.)
Das Cauchy-Kriterium
Eine Folge (an ) heißt Cauchy-Folge, wenn zu jedem ε > 0 ein
Indexwert n0 ∈ N existiert, so dass
n, m ≥ n0
⇒
|an − am | < ε.
Theorem 3.13
Eine Folge reeller Zahlen ist genau dann konvergent, wenn sie eine
Cauchy-Folge ist.
Beweisidee: Mit Hilfe der Dreiecksungleichung ist es leicht zu
zeigen, dass eine konvergente Folge das Cauchy-Kriterium erfüllt,
und dass jede Cauchy-Folge beschränkt ist (Übung). Für eine
Cauchy-Folge (an ) sind somit lim inf n→∞ an und lim supn→∞ an
endlich und, wegen dem Cauchy-Kriterium, sogar gleich. Also ist
jede Cauchy-Folge konvergent.
Bestimmte Divergenz und Konsequenzen
Satz 3.14
(a) Wenn limn→∞ an = ∞ und (bn ) beschränkt ist, dann gilt
lim (an + bn ) = ∞,
n→∞
bn
= 0.
n→∞ an
lim
(b) Wenn limn→∞ an = 0, an > 0 und limn→∞ bn = b 6= 0, dann
gilt
bn
=∞
n→∞ an
bn
lim
= −∞
n→∞ an
lim
b>0
b < 0.
Grenzwerte von
Funktionen
Beispiele
1.5
1.0
0.5
-2
-1
1
2
1
2
-0.5
lim (x 3 − x) = 0
x→0
-1.0
-1.5
1.5
1.0
0.5
-2
-1
lim f (x) = −1,
-0.5
x→0+
lim f (x) = 1
-1.0
x→0−
-1.5
1.5
1.0
0.5
-1.0
-0.5
0.5
-0.5
-1.0
-1.5
1.0
lim sin(1/x) existiert nicht
x→0
Eine Funktion f hat für x gegen a ≥ −∞ den rechtsseitigen
Grenzwert c, in Zeichen:
lim f (x) = c
x→a+
oder f (x) → c für x → a+,
wenn
xn → a, (n → ∞)
xn > a
(16)
⇒ lim f (xn ) = c.
n→∞
Dazu braucht f nur für a < x < a + ε definiert zu sein. Auch wenn
f in a definiert ist, ist der Wert f (a) irrelevant für (16).
Der linksseitige Grenzwert limx→a− f (x) = c ist analog definiert.
Die Funktion f hat für x gegen a den Grenzwert c, in Zeichen:
lim f (x) = c
x→a
oder f (x) → c,
x → a,
wenn limx→a+ f (x) = c = limx→a− f (x).
Aus Satz 3.4 folgt:
Satz 3.15 (Vergleichskriterien)
(a) Wenn |f (x)| ≤ p(x) für x nahe a und limx→a p(x) = 0, dann
gilt limx→a f (x) = 0.
(b) Wenn f (x) ≤ g (x) ≤ h(x) für x nahe a und
limx→a f (x) = c = limx→a h(x), dann gilt limx→a g (x) = c.
(c) Wenn f (x) ≤ g (x) für x nahe a, limx→a f (x) = c und
limx→a g (x) = d, dann gilt c ≤ d.
Diese Aussagen gelten auch für einseitige Grenzwerte und wenn
a = ±∞.
0.4
0.2
0.1
-0.2
-0.4
0.2
0.3
0.4
0.5
lim x sin
x→0
1
x
= 0.
Wichtige Beispiele:
lim cos x = 1,
x→0
lim sin x = 0,
(17)
sin x
= 1.
x→0 x
(18)
x→0
cos x − 1
= 0,
x→0
x
lim
lim
1.5
1.0
0.5
-15
-10
-5
5
10
15
-0.5
-1.0
Graph von (sin x)/x
Aus Satz 3.6 folgt:
Satz 3.16 (Rechenregeln)
Aus limx→a f (x) = c und limx→a g (x) = d mit c, d ∈ R folgt
(a) limx→a [f (x) + g (x)] = c + d
(b) limx→a f (x)g (x) = cd
(c) Falls d 6= 0, dann
c
f (x)
= .
x→a g (x)
d
lim
Diese Aussagen gelten auch für einseitige Grenzwerte und wenn
a = ±∞.
Eine Funktion heißt monoton wachsend, wenn
x1 < x2
⇒
f (x1 ) ≤ f (x2 ).
f heißt streng monoton wachsend, wenn
x1 < x2
⇒
f (x1 ) < f (x2 ).
Monoton fallend und streng monoton fallend sind analog
definiert. Eine Funktion heißt monoton, wenn sie entweder
monoton wachsend oder monoton fallend ist.
Satz 3.17 (Monotoniekriterium)
Ist f : (a, b) → R monoton und beschränkt, dann existieren die
einseitigen Grenzwerte
f (a+) = lim f (x),
x→a+
f (b−) = lim f (x).
x→b−
Stetigkeit
Sei I ⊂ R ein Intervall. Eine Funktion f : I → R heißt stetig in
x0 ∈ I , wenn
lim f (x) = f (x0 ).
x→x0
Ist x0 ein Randpunkt von I , dann ist limx→x0 f (x) als einseitiger
Grenzwert zu verstehen. Die Funktion f ist stetig auf I , wenn sie
in jedem Punkt x0 ∈ I stetig ist. Eine Funktion heißt stetig, wenn
sie auf ihrem Definitionsbereich stetig ist.
Beispiele stetiger Funktionen von x:
1
,
x
|x|,
x n,
√
x.
sin x,
cos x.
Die Stetigkeit dieser Funktionen folgt aus Satz 3.5, Satz 3.6 und
(17).
Klassifikation von Unstetigkeiten
f (x0 −) = f (x0 +) 6= f (x0 )
f (x0 −) 6= f (x0 +) (Sprungstelle)
f (x0 −) oder f (x0 +) existiert
nicht. (Unstetigkeit zweiter Art.)
Satz 3.18
Sei I ⊂ R ein Intervall.
(a) Sind f , g stetig auf I , dann auch f + g , αf (α ∈ R) und fg .
Die Funktion f /g ist stetig auf {x ∈ I : g (x) 6= 0}.
(b) Sind f : I → R und g : D → R stetig, wobei g (D) ⊂ I , dann
ist auch die Komposition h : D → R, h(x) = f (g (x)) auf D
stetig.
Satz 3.18 (a) folgt aus Satz 3.16.
Korollar 3.19
(a) Jedes Polynom p(x) = an x n + . . . + a1 x + a0 ist auf ganz R
stetig.
(b) Jede rationale Funktion p/q ist stetig in allen x ∈ R mit
q(x) 6= 0.
Theorem 3.20
Für jede auf einem abgeschlossenen, beschränkten Intervall
[a, b] ⊂ R stetige Funktion f gilt:
(a) Beschränktheit. Es gibt eine Schranke K mit |f (x)| ≤ K für
alle x ∈ [a, b].
(b) Maximum und Minimum werden angenommen. Es gibt
stets Punkte x0 , x1 ∈ [a, b] mit
f (x0 ) ≤ f (x) ≤ f (x1 ),
alle x ∈ [a, b].
(c) Zwischenwertsatz. Wenn f (x0 ) < c < f (x1 ) dann gibt es
einen Punkt x̄ ∈ [a, b] mit
f (x̄) = c.
(d) Gleichmäßige Stetigkeit. Zu jedem ε > 0 gibt es ein δ > 0,
so dass
|x − x 0 | < δ
⇒
|f (x) − f (x 0 )| < ε.
Gegenbeispiele
10
Die Funktion f : (0, 1) → R, f (x) = 1/x,
ist stetig aber sie hat keine der Eigenschaften
(a),(b),(d) aus dem Theorem. Grund: (0, 1) ist
nicht abgeschlossen.
8
6
4
2
0.0
0.2
0.4
0.6
0.8
1.0
1.0
0.8
Die Funktion f : [1, ∞) → R, f (x) = 1/x, ist
stetig aber sie nimmt kein Minimum an. Grund:
[1, ∞) ist unbeschränkt.
0.6
0.4
0.2
2
4
6
8
10
Die Funktion f : [−1, 1] → R mit
−1, −1 ≤ x ≤ 0
f (x) =
1
0<x ≤1
x,
4
3
2
1
-1.0
-0.5
0.5
-1
1.0
hat keine der Eigenschaften (a)-(d) aus Theorem 3.20. Grund: sie ist nicht stetig.
Aus dem Zwischenwertsatz und der Stetigkeit von Polynomen folgt:
Satz 3.21
(a) Ist f : [a, b] → R stetig und haben f (a) und f (b)
entgegengesetzte Vorzeichen, dann hat f mindestens eine
Nullstelle x̄ ∈ (a, b). D.h. a < x̄ < b und f (x̄) = 0.
(b) Jedes Polynom mit ungeradem Grad n ≥ 1 hat mindestens
eine reelle Nullstelle.
Nullstellenbestimmung: Sei f (a) < 0 < f (b). Definiere rekursiv
Intervalle [an , bn ] durch [a0 , b0 ] = [a, b] und
wenn
wenn
an + b n
)≤0
2
an + bn
f(
)>0
2
f(
an + bn
, bn+1 := bn ,
2
an + bn
:=
, an+1 := an .
2
dann an+1 :=
dann bn+1
x̄ = limn→∞ an = limn→∞ bn ist eine Nullstelle von f .
Differentialrechnung
Vorbemerkungen
Im folgenden ist es wichtig zu unterscheiden zwischen einer
Funktion f : I → R und dem Funktionswert f (x):
f
f (x)
ist die Funktion,
ist der Wert der Funktion an der Stelle x,
wobei x ∈ I fest aber beliebig ist, sofern nichts anderes gesagt
wird. Mit der Sprechweise “die Funktion 1/x” meint man “die
Funktion f gegeben durch f (x) = 1/x”.– Addition, Multiplikation
und Division von zwei Funktionen f , g : I → R sind punktweise
definiert. D.h.
(f + g )(x) := f (x) + g (x)
(fg )(x) := f (x)g (x)
f (x)
f
(x) :=
g
g (x)
wobei f /g den Definitionsbereich {x ∈ I | g (x) 6= 0} hat.
Die Ableitung
Sei I ⊂ R ein Interval und sei x0 ∈ I . Eine Funktion f : I → R
heißt in x0 differenzierbar, wenn der Grenzwert
f (x) − f (x0 )
f (x0 + h) − f (x0 )
= lim
x→x0
h→0
h
x − x0
lim
existiert und endlich ist. Dieser Grenzwert heißt Ableitung von f
an der Stelle x0 und wird mit
f 0 (x0 )
oder
df
(x0 )
dx
bezeichnet. Die Funktion f ist auf I differenzierbar, wenn f in
jedem Punkt von I differenzierbar ist. In diesem Fall wird durch
x 7→ f 0 (x) eine neuen Funktion erklärt, welche mit
f0
oder
df
dx
bezeichnet wird, und Ableitung von f heißt.
Geometrische Interpretation der Ableitung
f (x) − f (x0 )
x − x0
0
Steigung der Sekante durch
(x0 , f (x0 )) und (x, f (x))
Steigung der Tangente an den Graphen
von f im Punkt (x0 , f (x0 )).
=
f (x0 ) =
Gleichung der Tangente
durch (x0 , f (x0 )):
Tangente
fHxL
y = f (x0 ) + f 0 (x0 )(x − x0 )
fHx0 L
Sekante
x0
x
Physikalische Interpretation der Ableitung
Sei s(t) ∈ R die Position eines Teilchens zur Zeit t. Dann ist
ṡ(t0 ) :=
s(t) − s(t0 )
ds
(t0 ) = lim
t→t0
dt
t − t0
= Geschwindigkeit zur Zeit t0 .
Wird das Argument eine Funktion f nicht mit x, sondern mit t
bezeichnet, dann schreibt man oft f˙ statt f 0 für die Ableitung.
Beispiel:
g 2
t
⇒ ṡ(t) = v0 − gt
2
Hier ist s(t) die Höhe eines Steins über Boden, wenn er zur Zeit
t = 0 mit Geschwindigkeit v0 von der Höhe 0 aufgeworfen wird.
g = 9.81m/s 2 .
s(t) = v0 t −
Analytische Interpretation der Ableitung
Wenn f in x0 differenzierbar ist, dann gilt
f (x0 + h) = f (x0 ) + f 0 (x0 )h + R(h)
wobei
f (x0 + h) − f (x0 )
R(h)
=
− f 0 (x0 ) −→ 0,
h
h
(h → 0).
Also ist R(h) klein im Vergleich zu |h|, wenn |h| klein ist.
In diesem Sinn gilt:
f (x0 + h) ≈ f (x0 ) + f 0 (x0 )h,
|h| klein
Umgekehrt, wenn f (x0 + h) = f (x0 ) + mh + R(h) wobei m ∈ R
und R(h)/h → 0 für h → 0, dann ist f in x0 differenzierbar mit
Ableitung m.
Das Differential
fHx0 +hL
df=f'Hx0 Lh
fHx0 L
Df
x0 x0 +h
dx = ∆x = x − x0 = h
Zuwachs des Arguments
∆f = f (x) − f (x0 ) tatsächlicher Zuwachs von f
df = f 0 (x)h
lineare Approximation des Zuwachses von f .
Somit gilt:
df = f 0 (x0 )dx.
Die lineare Abbildung df : h 7→ f 0 (x0 )h heißt Differential von f an
der Stelle x0 .
Satz 4.1
Ist f : I → R ein x0 ∈ I differenzierbar, dann ist f dort auch stetig.
Satz 4.2
Sind f , g : I → R differenzierbar und c ∈ R, dann sind auch f + g ,
cf , fg und f /g differenzierbar, und es gilt
(a)
(f + g )0 = f 0 + g 0
(b)
(cf )0 = cf 0
(c)
(d)
(fg )0 = f 0 g + fg 0
0
f
f 0 g − fg 0
=
,
g
g2
0
1
g0
= − 2.
g
g
Ist nur bekannt, dass f , g in x0 ∈ I differenzierbar sind, dann sind
f + g , fg und, falls g (x0 ) 6= 0, f /g an der Stelle x0 differenzierbar
und es gelten (a)–(d) an der Stelle x0 .
Korollar 4.3
Jedes Polynom und jede rationale Funktion ist differenzierbar und
d
(an x n + . . . + a1 x + a0 ) = nan x n−1 + . . . + a1 ,
dx
d 1
n
( n ) = − n+1 ,
n ∈ N.
dx x
x
Satz 4.4
sin, cos, tan, cot sind differenzierbar und
sin0 x = cos x,
1
,
tan0 x =
(cos x)2
cos0 x = − sin x,
1
cot0 x = −
,
(sin x)2
Lemma 4.5
Für alle x < 1 gilt
1 + x ≤ ex ≤
1
.
1−x
H1-xL-1
1+x
Theorem 4.6
Die Exponentialfunktion ist differenzierbar, es gilt e x+y = e x e y für
alle x, y ∈ R und
d x
e = ex .
dx
Satz 4.7 (Kettenregel)
Die Komposition f ◦ g : x 7→ f (g (x)) von zwei differenzierbaren
Funktionen f und g ist ebenfalls differenzierbar und
d
f (g (x)) = f 0 (g (x))g 0 (x).
dx
(19)
Folgerungen:
I
d
dx f (g (x))
6= f 0 (g (x)), ausser wenn g 0 (x) = 1, und somit auch
d
df
f (g (x)) 6=
(g (x)).
dx
dx
I
Sind f , g und h differenzierbar, dann auch x 7→ f (g (h(x)))
und
d
d
f (g (h(x))) = f 0 (g (h(x))) g (h(x)) = f 0 (g (h(x)))g 0 (h(x))h0 (x).
dx
dx
Höhere Ableitungen
Seien f : I → R und f 0 : I → R differenzierbar. Die Ableitung (f 0 )0
der Ableitung f 0 heißt zweite Ableitung von f und wird mit f 00 ,
f (2) oder
d
d
d 2f
:=
f
dx 2
dx dx
bezeichnet. Die n-te Ableitung ist rekursiv definiert durch:
f
(0)
:= f ,
f
(n)
d nf
d (n−1) := n :=
f
dx
dx
Die Funktion f heißt n Mal differenzierbar, wenn alle Ableitungen
von f bis zur n-ten Ableitung, f (n) , existieren. Die Funktion f heißt
n Mal stetig differenzierbar, wenn sie n Mal differenzierbar ist
und f (n) noch stetig ist.
Satz 4.8 (Leibnizsche Regel)
Sind f , g : I → R n Mal differenzierbar, dann ist auch fg n Mal
differenzierbar und es gilt
(fg )(n)
n X
n (k) (n−k)
=
f g
.
k
k=0
Beispiel:
(fg )0 = f 0 g + fg 0
(fg )00 = f 00 g + 2f 0 g 0 + fg 00
(fg )000 = f 000 g + 3f 00 g 0 + 3f 0 g 00 + fg 000 .
Der Mittelwertsatz
und Anwendungen
der Differentialrechnung
Maxima und Minima einer Funktion
Die Zahl f (a) heißt globales Maximum von f : D → R, wenn
f (x) ≤ f (a)
für alle x ∈ D.
Dann ist a ∈ D eine globale Maximalstelle. (Statt “global” sagt
man auch “absolut”.)
Die Zahl f (a) heißt lokales Maximum von f , wenn es ein δ > 0
gibt, so dass
f (x) ≤ f (a)
für x ∈ D, |x − a| < δ.
Globales und lokales Minimum sind analog definiert. Extremum
ist der gemeinsame Oberbegriff für Maximum und Minimum.
Ein Punkt x0 ∈ D heißt stationärer Punkt (oder kritischer Punkt)
von f , wenn f 0 (x0 ) = 0.
x0
x1 x2
x3
x4
x5 x6
f (x1 ) = globales Minimum,
f (x5 ) = globales Maximum,
f (x1 ), f (x2 ), f (x4 ), f (x6 ) = lokale Minima,
f (x0 ), f (x3 ), f (x5 ) = lokale Maxima,
x2 , x3 , x4 , x5 = stationäre Punkte.
Satz 4.9
Sei f : (a, b) → R differenzierbar und a < x0 < b. Dann gilt:
x0 ist lokale Extremstelle ⇒ f 0 (x0 ) = 0.
Umgekehrt braucht ein stationärer Punkt keine Extremstelle zu
sein. Z.B. ist x = 0 ist ein stationärer Punkt von f (x) = x 3 aber
keine lokale Extremstelle.
Kandidaten für Extremstellen von f : I → R sind:
(a) Die Randpunkte von I ,
(b) Die Punkte von I , wo f nicht differenzierbar ist,
(c) die stationären Punkte aus dem Inneren von I .
Der Mittelwertsatz
Theorem 4.10 (Mittelwertsatz)
Sei f : [a, b] → R stetig und in (a, b) differenzierbar. Dann gibt es
einen inneren Punkt x0 ∈ (a, b) mit
f (b) − f (a)
= f 0 (x0 ).
b−a
a
x0
b
Satz 4.11
Sei I ein Intervall und sei f : I → R differenzierbar. Dann gilt:
f 0 = 0 ⇔ f ist konstant,
f 0 ≥ 0 ⇔ f ist monoton wachsend,
f 0 ≤ 0 ⇔ f ist monoton fallend,
f 0 > 0 ⇒ f ist streng monoton wachsend,
f 0 < 0 ⇒ f ist streng monoton fallend.
Mit f 0 = 0 ist gemeint, dass f 0 (x) = 0 für alle x ∈ I , f 0 ≥ 0
bedeutet f 0 (x) ≥ 0 für alle x ∈ I , etc.
I
In den letzten beiden Aussagen ist die Umkehrung “⇐” im
allgemeinen falsch. Das sieht man am Beispiel der Funktionen
f (x) = ±x 3 . Sie sind streng monoton obwohl f 0 (0) = 0.
I
Alle Aussagen sind falsch wenn I kein Intervall ist.
Korollar 4.12
Ist I ein Interval und sind f , g : I → R differenzierbar, dann gilt:
(a) f 0 = g 0 auf I ⇔ f = g + c wobei c eine Konstante ist.
(b) f (n) = 0 ⇔ f ist ein Polynom vom Grad n − 1 oder kleiner.
Theorem 4.13
Ist f : R → R differenzierbar, dann gilt
f0 =f
wobei c = f (0).
⇒
f (x) = ce x
Satz 4.14
Sei f : (a, b) → R differenzierbar, x0 ∈ (a, b)
und f 0 (x0 ) = 0. Falls es ein δ > 0 gibt, so dass
f 0 (x) < 0,
f 0 (x) > 0,
x0 − δ < x < x0 ,
x0 < x < x0 + δ,
f'<0
dann hat f in x0 ein lokales Minimum. Eine analoge Aussage gilt über lokale Maxima.
f'>0
x0
Satz 4.15
Sei f : (a, b) → R zwei Mal stetig differenzierbar und f 0 (x0 ) = 0.
Dann gilt
f 00 (x0 ) > 0 ⇒ f hat in x0 ein lokales Minimum,
f 00 (x0 ) < 0 ⇒ f hat in x0 ein lokales Maximum.
Satz 4.16 (Verallgemeinerter Mittelwertsatz)
Seien f , g : [a, b] → R stetig und in (a, b) differenzierbar. Falls
g 0 (x) 6= 0 für alle x ∈ I , dann gibt es einen Punkt t ∈ (a, b) mit
f (b) − f (a)
f 0 (t)
= 0 .
g (b) − g (a)
g (t)
Theorem 4.17 (de l’Hospitalsche Regel)
Seien f , g : (a, b) → R differenzierbar, b ≤ ∞, g 0 (x) 6= 0 für alle
x ∈ (a, b) und zusätzlich
(a) f (x) → 0, g (x) → 0 für x → b−, oder
f (x) → ∞, g (x) → ∞ für x → b−,
(b) limx→b− f 0 (x)/g 0 (x) existiert oder ist in {±∞}.
Dann gilt:
f (x)
f 0 (x)
lim
= lim 0 .
x→b− g (x)
x→b− g (x)
Nullstellen und Fixpunkte
Das Newton-Verfahren
xn+1 = xn −
f (xn )
f 0 (xn )
x*
x2
x1
x0
Ist x0 nahe genug an einer Nullstelle x ∗ von f , dann xn → x ∗ ,
(n → ∞) in vielen Fällen. Z.B. wenn f zwei Mal stetig
differenzierbar ist und f 0 (x ∗ ) 6= 0 (siehe Thm. 4.18).
Wenn zusätzlich a ≤ xn ≤ b für alle n ≥ 0, dann gilt
∗
∗ 2
|xn+1 − x | ≤ M|xn − x | ,
maxx∈[a,b] |f 00 (x)|
M :=
.
minx∈[a,b] |f 0 (x)|
D.h. die Anzahl der richtigen Nachkommastellen verdoppelt sich in
jedem Schritt, wenn x0 nahe genug bei x ∗ ist.
Fixpunkte
Ein Punkt x ∗ ∈ R heißt Fixpunkt der Abbildung f wenn
f (x ∗ ) = x ∗ .
Das Problem einen Fixpunkt zu finden ist äquivalent zum Problem
eine Nullstelle zu finden denn:
x ist Fixpunkt von f
⇔ x ist Nullstelle von f (x) − x,
x ist Nullstelle von f
⇔ x ist Fixpunkt von f (x) + x.
Eine Funktion
f : [a, b] → [a, b]
hat mindestens einen Fixpunkt wenn sie stetig ist (Aufgabe 70),
und genau einen Fixpunkt wenn sie differenzierbar ist mit
|f 0 (x)| < 1 für alle x, Theorem 4.18
Theorem 4.18
Ist f : [a, b] → [a, b] differenzierbar mit
|f 0 (x)| ≤ K < 1
für alle x ∈ [a, b].
Dann gilt:
Existenz Es gibt genau ein x ∗ ∈ [a, b] mit f (x ∗ ) = x ∗ .
Berechnung Die Iterationsfolge
xn+1 = f (xn )
konvergiert gegen den Fixpunkt x ∗ und zwar für jede
Wahl des Startwerts x0 ∈ [a, b].
Abschätzung Für alle n ∈ N gilt
|xn − x ∗ | ≤
K
|xn − xn−1 |.
1−K
Definition von π
Von einem analytischen Standpunkt ist es bequem π/2 als erste
positive Nullstelle der Cosinusfunktion zu definieren wobei cos x
definiert wird durch
x2 x4
+
− ...
cos x = 1 −
2!
4!
(siehe HM2). π/2 ist also ein Fixpunkt der Abbildung
x 7→ x + cos x. Die Fixpunktiteration xn+1 = xn + cos xn mit
Startwert x0 = 1.5 liefert x1 , x2 , x3 , . . . wobei:
2x1 = 3.141474403335406,
2x2 = 3.141592653589724,
2x3 = 3.141592653589793.
(falsche Nachkommastellen sind rot.)
Umkehrfunktionen
Ist f : D → R injektiv, dann sagt man auch f sei invertierbar oder
umkehrbar, denn f : D → f (D) ist dann bijektiv. Somit existiert
eine Umkehrfunktion g : f (D) → D mit
f (x) = y
⇔
g (y ) = x.
Also gilt
g (f (x)) = x für alle x ∈ D,
f (g (y )) = y für alle y ∈ f (D),
Man bezeichnet die Umkehrfunktion einer
Funktion f meist mit f −1 . Der Graph von f −1
ist die Spiegelung des Graphen von f an der
Geraden y = x.
f -1
Satz 4.19
(a) Jede streng monotone Funktion f : D → R ist invertierbar.
Jede differenzierbare Funktion f : I → R, I ein Intervall, mit
f 0 (x) 6= 0 für alle x ∈ I , ist invertierbar.
(b) Die Umkehrfunktion f −1 einer differenzierbaren Funktion
f : I → R ist in einem Punkt y = f (x) genau dann
differenzierbar, wenn f 0 (x) 6= 0, und dann gilt
(f −1 )0 (y ) =
1
1
=
.
f 0 (x)
f 0 (f −1 (y ))
f
Arcussinus
1
Π
2
Π
2
Die
Sinusfunktion
ist
auf
[−π/2, π/2]
streng
monoton
wachsend
und
sin([−π/2, π/2]) = [−1, 1].
-1
Die Umkehrfunktion von sin [−π/2, π/2] heißt
Arcussinus-Funktion. Es gilt
arcsin : [−1, 1] → [−π/2, π/2]
π
π
y = arcsin x ⇔ x = sin y , − ≤ y ≤
2
2
Π
2
-1
1
Arcussinus ist differenzierbar in (−1, 1) und
d
1
arcsin x = √
,
dx
1 − x2
−1 < x < 1.
-
Π
2
Arcuscosinus
1
Π
Die Cosinusfunktion ist z.B.
auf [0, π] streng monoton fallend und cos([0, π]) = [−1, 1].
-1
Die Umkehrfunktion von cos [0, π] heißt
Arcuscosinus-Funktion. Es gilt
Π
arccos : [−1, 1] → [0, π]
y = arccos x ⇔ x = cos y , 0 ≤ y ≤ π .
Arcuscosinus ist differenzierbar in (−1, 1) und
d
1
arccos x = − √
,
dx
1 − x2
−1 < x < 1.
-1
1
Arcustangens
Die Tangensfunktion auf (−π/2, π/2) streng
monoton wachsend und tan(−π/2, π/2) = R.
Die Umkehrfunktion von tan (−π/2, π/2)
heißt Arcustangens. Es gilt
-
Π
2
Π
2
arctan : R → (−π/2, π/2)
π
π
.
y = arctan x ⇔ x = tan y , − < y <
2
2
Π
2
Arcustangens ist differenzierbar in R und
d
1
arctan x =
.
dx
1 + x2
-
Π
2
Tschebyschev Polynome
Zu jedem n ∈ N gibt es ein Polynom Tn vom Grad n mit
|x| ≤ 1.
Tn (x) = cos(n arccos x),
Tn erfüllt die Differentialgleichung:
(1 − x 2 )Tn00 (x) − xTn0 (x) + n2 Tn (x) = 0.
Aus T0 = 1, T1 (x) = x und der Rekursionsbeziehung
Tn+1 (x) = 2xTn (x) − Tn−1 (x) folgt
T0
T3
T0 (x) = 1,
T4 T1
T1 (x) = x,
T2 (x) = 2x 2 − 1,
-1
T3 (x) = 4x 3 − 3x,
4
2
T4 (x) = 8x − 8x + 1.
1
T2
Übertragungsfunktion eines Tschebyschev-Tiefpassfilters:
2
U2 1 + ε2
(ω) =
,
(n gerade).
U1 1 + ε2 Tn (ω)
Graph für n = 8:
1+Ε2
1
1
Ω
Exponentialfunktion
und Logarithmus
Wichtigste Eigenschaften der Exponentialfunktion
Definition
e x := lim 1 +
n→∞
x n
,
n
x ∈ R,
e 0 = 1, e x > 0 für alle x ∈ R, und
d x
e = ex .
dx
e x+y = e x e y ,
Satz 4.20
lim e x = ∞,
lim e x = 0
x→∞
lim
x→∞
ex
xn
x→−∞
= ∞,
1
n ∈ N.
Die Exponentialfunktion ist also streng monoton wachsend und
exp(R) = (0, ∞).
Der natürliche Logarithmus
Die Umkehrfunktion der Exponentialfunktion exp : R → (0, ∞)
heißt natürlicher Logarithmus und wird mit ln oder log
bezeichnet:
ln : (0, ∞) → R,
y = ln x ⇔ e y = x.
Aus dem Graph lesen wir ab, dass ln 1 = 0, ln x < 0 für 0 < x < 1,
und ln x > 0 für x > 1.
Satz 4.21
(a) limx→0+ ln x = −∞,
(b) limx→∞ ln x = ∞,
(c) ln(xy ) = ln x + ln y , ln( yx ) = ln x − ln y ,
(d)
d
1
ln x = .
dx
x
1
Allgemeine Exponentialfunktionen und Logarithmen
Für a > 0 und r ∈ Q gilt nach Satz 3.11
ar = (e ln(a) )r = e r ln(a) .
Man definiert daher die Exponentialfunktion zur Basis a für alle
x ∈ R durch:
ax := e x ln a ,
a > 0.
Eigenschaften:
10x ex 2x
ax ay
= ax+y ,
(ab)x = ax b x ,
ln(ax ) = x ln a,
(ax )y = axy .
n-te Wurzel von a > 0:
1
√
n
a := a1/n .
Die Exponentialfunktion x 7→ ax = e x ln a ist nicht zu verwechseln
mit der Potenzfunktion x 7→ x α = e α ln x , wo x > 0, α ∈ R.
d x
a
dx
= ax ln a,
x ∈ R, a > 0,
d α
x
= αx α−1 ,
dx
x > 0, α ∈ R.
Α<0
Α>1
Satz 4.22
Graphen von x Α
Für alle α > 0 gilt
ln x
lim α = 0.
x→∞ x
0<Α<1
1
1
Die Funktion ax = exp(x ln a) ist streng monoton wachsend für
a > 1 und streng monoton fallend für 0 < a < 1. Dabei werden alle
Werte aus (0, ∞) angenommen. Die Inverse von x 7→ ax heißt
Logarithmus zur Basis a und wird mit loga bezeichnet. Es gilt
loga x =
ln x
,
ln a
x > 0.
Eigenschaften von loga :
loga (xy ) = loga x + loga y ,
d
1
loga x =
.
dx
x ln a
Die Hyperbolischen Funktionen sinh, cosh, tanh
Jede Funktion f : R → R lässt sich zerlegen in f = u + g wobei
1
u(x) := (f (x) − f (−x)),
2
1
g (x) := (f (x) + f (−x)),
2
u(−x) = −u(x),
g (−x) = g (x),
der ungerade und der gerade Anteil von f sind. Im Fall f = exp
erhält man sinh und cosh:
cosh
sinh x
cosh x
tanh x
1
:= (e x − e −x )
2
1
:= (e x + e −x )
2
sinh x
:=
.
cosh x
tanh
1
-1
sinh
Summenformeln:
sinh(x + y ) = sinh x cosh y + cosh x sinh y ,
cosh(x + y ) = cosh x cosh y + sinh x sinh y ,
cosh2 x − sinh2 x = 1.
Ableitungen:
sinh0 x = cosh x,
tanh0 x =
1
cosh2 x
cosh0 x = sinh x.
sinh ist umkehrbar auf ganz R, cosh ist umkehrbar auf [0, ∞). Die
zugehörigen Umkehrfunktionen heißen area sinus hyperbolicus
und area cosinus hyperbolicus. Es gilt
p
d
1
arsinh x = ln(x + x 2 + 1)
arsinh x = √
dx
x2 + 1
p
d
1
arcosh x = ln(x + x 2 − 1)
arcosh x = √
dx
x2 − 1
Konvexe Funktionen
Sei I ein Intervall. Eine Funktion f : I → R heißt konvex, wenn für
alle x, y ∈ I gilt
f (1 − λ)x + λy ≤ (1 − λ)f (x) + λf (y ),
0 < λ < 1.
Der Funktionswert am gewichteten Mittel ist kleiner oder gleich
das gewichtete Mittel der Funktionswerte. f heißt strikt konvex,
wenn “<” gilt für x 6= y . f heißt (strikt) konkav, wenn (−f )
(strikt) konvex ist.
fHyL
H1-ΛLfHxL+ΛfHyL
fHxL
x
H1-ΛLx+Λy
y
Satz 4.23
Ist f : (a, b) → R differenzierbar, dann gilt:
f ist konvex ⇔
f ist strikt konvex ⇔
f 0 ist monoton wachsend,
f 0 ist streng monoton wachsend,
Aus Satz 4.23 und Satz 4.11 folgt:
Satz 4.24
Ist f : (a, b) → R zwei Mal differenzierbar, dann gilt:
f 00 ≥ 0 ⇔ f ist konvex,
f 00 ≤ 0 ⇔ f ist konkav,
f 00 > 0 ⇒ f ist strikt konvex,
f 00 < 0 ⇒ f ist strikt konkav.
Mit f 00 ≥ 0 ist gemeint, dass f 00 (x) ≥ 0 für alle x, etc.
Satz 4.25
Sei f : (a, b) → R differenzierbar und a < x0 < b. Dann gilt für
alle x ∈ (a, b):
f ist konvex ⇒
f (x) ≥ f (x0 ) + f 0 (x0 )(x − x0 ),
f ist konkav ⇒
f (x) ≤ f (x0 ) + f 0 (x0 )(x − x0 ).
Satz 4.26
Für alle x > −1 gilt
(1 + x)α ≥ 1 + αx,
falls α < 0 oder α > 1,
(1 + x)α ≤ 1 + αx,
falls 0 < α < 1.
.....Fortsetzung in HM2.
Herunterladen