Aussagenlogik - Benutzer-Homepage

Werbung
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Aussagenlogik
A, B, C seien irgendwelche Aussagen bzw. deren Wahrheitswert.
0 bezeiche eine falsche Aussage bzw. „falsch“, 1 hingegen eine wahre Aussage bzw. „wahr“.
A ist „nicht A“,
A ∨ B (oder A + B) heißt „A oder B“ (kein ausschließendes „oder“),
A ∧ B (oder A · B) heißt „A und B“.
Auswertungsreihenfolge: „und“ vor „oder“, ansonsten von links nach rechts, also z. B.
A∧B∨C =
(A) ∧ B ∨ (C)
Rechenregeln:
• A=A
• A∨B =B∨A
• A∨0=A
• A∨1=1
• A∨A=A
• A∨A=1
• A∧B =B∧A
• A∧0=0
• A∧1=A
• A∧A=A
• A∧A=0
• (A ∨ B) ∨ C = A ∨ (B ∨ C)
• (A ∧ B) ∧ C = A ∧ (B ∧ C)
• A ∨ (B ∧ C) = (A ∨ B) ∧ (A ∨ C)
• A ∧ (B ∨ C) = (A ∧ B) ∨ (A ∧ C)
de Morgansche Regeln:
• A ∨ B = A ∧ B (oder auch: A ∨ B = A ∧ B)
• A ∧ B = A ∨ B (oder auch: A ∧ B = A ∨ B)
1
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
A ⇒ B liest man „aus A folgt B“ oder „A impliziert B“.
Vorsicht! (A ⇒ B) = A ∨ B, d. h. „A ⇒ B“ ist genau dann wahr, wenn B wahr
oder A falsch ist. Insbesondere: Aus einer falschen Voraussetzung kann man alles folgern.
A ⇔ B liest man „A ist äquivalent zu B“ oder „A und B sind äquivalent“ oder auch „A
ist genau dann wahr, wenn B wahr ist“, d. h. (A ⇔ B) = (A ∧ B) ∨ (A ∧ B)
(A ⇒ B) = (B ⇒ A), während (A ⇔ B) = (A ⇔ B) ist.
2
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Mengen
Eine Menge ist eine Zusammenfassung gewisser (hier muss man Einschränkungen vornehmen,
um nicht auf Widersprüche zu stoßen) wohlunterscheidbarer Objekte, wobei es nicht auf die
Reihenfolge ankommt, z. B. {a, b, c}, {1, 2, 3, . . .} oder auch {{0}, {0, 1}}.
Mehrfachnennungen sind möglich, das ändert an der Menge aber nichts: {0, 0} = {0}.
Bekannte Beispiele:
• ∅ oder {} ist die leere Menge
• N = { 1, 2, 3, 4, 5, . . . } ist die Menge der natürlichen Zahlen
• Z = { 0, −1, +1, −2, +2, −3, +3, . . . } ist die Menge der ganzen Zahlen
p
| p, q ∈ Z, q 6= 0 } ist die Menge der rationalen Zahlen
q
(Darstellung hier nicht eindeutig, da keine Teilerfremdheit von p und q vorausgesetzt)
• Q={
• die reellen Zahlen R
Gelegentlich findet man „Rechenoperationen“ mit Mengen, z. B. π + 2πZ = {π, π ± 2π, π ±
4π, . . .} oder −N = {−1, −2, −3, . . .}. Dies ist so zu verstehen, dass aus jeder der vorkommenden Mengen (unabhängig voneinander) jeweils ein Element ausgewählt werden kann
und dann die Rechenoperationen durchgeführt werden. Die Ergebnismenge besteht dann aus
allen Ergebnissen,die man über alle mögliche Auswahlen erhalten kann.
Manchmal wird die 0 mit zu den natürlichen Zahlen gerechnet, das ist historisch gesehen
eher unpassend. Also: N0 = N ∪ { 0 }, Z = −N ∪ { 0 } ∪ N.
A, B, C seien irgendwelche Mengen.
x ∈ A bedeutet, „x ist in A enthalten“, „A enthält x“, „x liegt in A“, „x ist Element von A“
usw.
x∈
/ A bedeutet, „x ist nicht in A enthalten“, „A enthält x nicht“, „x liegt nicht in A“, „x
ist kein Element von A“ usw.
A ⊆ B bedeutet, „A ist Teilmenge von B“, d. h. jedes Element von A ist auch in B
enthalten. Natürlich ist ∅ ⊆ B für jede beliebige Menge B.
B ⊇ A bedeutet, „B ist Obermenge von A“, d. h. jedes Element von A ist auch in B
enthalten. A ⊆ B und B ⊇ A sind also äquivalent.
Vorsicht! Auch bei A ⊂ B ist (meist) zugelassen, dass A und B gleich sein können, es
wird also keine „echte“ Teilmenge bzw. Obermenge erwartet. Es empfiehlt sich also, A ⊂ B
nicht zu verwenden, um Mißverständnisse zu vermeiden. Im Zweifel im einführenden Kapitel
des Buches nachsehen, wie die Konvention aussieht!
Zwei Mengen A und B sind gleich (kurz: A = B) genau dann, wenn A ⊆ B und B ⊆ A.
Z. B. ist ∅ 6= { ∅ }, denn ∅ ∈
/ {}, während ∅ ∈ { ∅ }.
3
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
A ∩ B, der Durchschnitt zweier Mengen A und B, besteht aus allen Elementen, die sowohl
in A, als auch in B enthalten sind: A ∩ B = { x | x ∈ A ∧ x ∈ B }.
A ∪ B, die Vereinigung zweier Mengen A und B, besteht aus allen Elementen, die in A oder
in B enthalten sind: A ∪ B = { x | x ∈ A ∨ x ∈ B }.
Achtung! Kein ausschließendes „oder“! Alle Elemente, die sowohl in A als auch in B liegen,
sind natürlich in der Vereinigung auch mit drin.
A \ B, die sog. „Differenz von A und B“ oder auch „A minus B“ oder „A ohne B“, besteht
/ B }.
aus allen Elementen von A, die nicht in B enthalten sind: A \ B = { x | x ∈ A ∧ x ∈
Auswertungsreihenfolge: „Durchschnitt“ vor „Vereinigung“ und „Differenz“, also z. B. A ∪
B ∩ C = A ∪ (B ∩ C).
Merkregel dazu: ∧ und ∩ haben gewisse Ähnlichkeit mit · (Multiplikation), dagegen ∨ und
∪ mit + und schließlich \ mit −. Also an die übliche „Punkt-vor-Strich“-, dann "Von-linksnach-rechts“-Regel denken.
Ausgewählte Rechenregeln:
• A ∪ A = A, A ∪ ∅ = A
• A ∩ A = A, A ∩ ∅ = ∅
• A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
• A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
• A∩B ⊆A⊆A∪B
• (A \ B) ∪ (A ∩ B) = A
(während i. A. (A \ B) ∪ B 6= A ist)
4
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Kombinatorik
Für n ∈ N0 ist n! (gelesen „n Fakultät“) definiert als:
(
n! =
1,
falls n = 0
1 · 2 · 3 · . . . · n, falls n ≥ 1
Damit ist (n + 1)! = (n + 1) · n! für alle n ∈ N0 .
!
α
Für α ∈ R, k ∈ N0 ist der Binomialkoeffizient
, gelesen „α über k“, definiert als:
k
!
α
α · (α − 1) · (α − 2) · (α − 3) · . . . · (α − k + 1)
=
k!
k
Einige einfache Rechenregeln für n, k ∈ N0 :
!
!
•
n
n!
=
(n − k)! · k!
k
•
n
n
=
k
n−k
!
•
!
n
n
n+1
+
=
k
k+1
k+1
!
!
Satz: Die Anzahl der Permutationen (Vertauschungen, unterschiedliche Reihenfolgen) von
n wohlunterscheidbaren Objekten ist n!.
Satz: Die Anzahl der Permutationen von n Objekten, unter denen sich jeweils
n!
n1 , n2 , n3 . . . , nk nicht unterscheidbare befinden, ist
.
n1 ! · n2 ! · n3 ! · . . . · nk !
Satz: Die Anzahl der Variationen (Auswahlmöglichkeiten mit Berücksichtigung der Reihenfolge) ohne Wiederholung von k aus einer Gesamtheit von n wohlunterscheidbaren Objekten
n!
ist
.
(n − k)!
Satz: Die Anzahl der Variationen mit Wiederholung von k aus einer Gesamtheit von n
wohlunterscheidbaren Objekten ist nk .
Satz: Die Anzahl der Kombinationen (Auswahlmöglichkeiten ohne Berücksichtigung der
Reihenfolge) ohne Wiederholung!von k aus einer Gesamtheit von n wohlunterscheidbaren
n!
1
n
Objekten ist
·
=
.
(n − k)! k!
k
!
n
Also: Anzahl verschiedener k-elementigen Teilmengen einer n-elementigen Menge ist
.
k
Satz: Die Anzahl der Kombinationen mit Wiederholung
von k aus einer Gesamtheit von n
!
n+k−1
wohlunterscheidbaren Objekten ist
.
k
5
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Satz: [Binomischer Satz] Für beliebige Zahlen a, b und n ∈ N0 ist
!
!
!
!
!
n n 0
n n−1 1
n n−2 2
n
n 0 n
(a + b) =
a b +
a b +
a b + ··· +
a1 bn−1 +
ab
0
1
2
n−1
n
n
Eine im weiteren Sinne ähnliche Formel gibt es für nichtganzzahlige und auch negative
Exponenten. Häufig vorkommende Fälle (sollte man auswendig kennen!):
(a + b)2 = a2 + 2ab + b2 ,
(a + b)3 = a3 + 3a2 b + 3ab2 + b3 ,
(a + b)4 = a4 + 4a3 b + 6a2 b2 + 4ab3 + b4
Summenzeichen: Ist ak ein Ausdruck, der von k abhängt, schreibt man zur Abkürzung gern:
q
X
ak = ap + ap+1 + ap+2 + · · · + aq−1 + aq ,
k=p
d. h. der Laufindex k durchläuft nacheinander die (ganzen Zahlen) p, p + 1, . . . , q. Ist
q < p, also die Obergrenze des Laufindizes echt kleiner als die Untergrenze, hat die Summe
vereinbarungsgemäß den Wert 0.
Dies läßt sich unmittelbar z. B. in C-Code übertragen:
int p = ???, q = ???;
double sum;
sum = 0.0; /* wesentlich !!! */
for (int k = p; k <= q; k++) /* k nur innerhalb der Schleife bekannt! */
{
sum += a(k);
}
Analog das Produktzeichen:
q
Y
ak = ap · ap+1 · ap+2 · . . . · aq−1 · aq
k=p
Ein leeres Produkt, d. h. wenn q < p ist, hat vereinbarungsgemäß den Wert 1. Der
C-Code dazu:
int p = ???, q = ???;
double prod;
6
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
prod = 1.0; /* wesentlich !!! */
for (int k = p; k <= q; k++) /* k nur innerhalb der Schleife bekannt! */
{
prod *= a(k);
}
Vorsicht! Das Summen- und Produktzeichen beziehen sich stets auf den Ausdruck dahinter
bis zum ersten ausdrücklich ausgeschriebenen Rechenzeichen und beinhalten keine automatische Klammerung:
n
Y
(1 + k) · n = (1 + 1)(1 + 2) · . . . · (1 + n) · n ,
k=1
während
n
Y
(1 + k)n = (1 + 1) n (1 + 2) n · . . . · (1 + n) n .
k=1
Dagegen macht
n
Y
1 + k · n = 1 · 1 · 1 · ... · 1 + k · n
k=1
überhaupt keinen Sinn, da das k links als Laufindex und gleichzeitig auch dort außerhalb des
Produktzeichens vorkommt. Im Zweifel also sorgfältig klammern!
Mit dem Summen- und Produktzeichen ist also:
n! =
n
Y
k
Y
α−r+1
α
=
r
k
r=1
!
k,
k=1
und
(a + b)n =
n
X
k=0
!
n n−k k
a b
k
1 − q n+1
, falls q 6= 1
Geometrische Summenformel: Für n ∈ N0 gilt
qk =
1−q


k=0
n + 1,
falls q = 1
n
X



Beweis: Für q = 1 ist die Aussage klar, deshalb sei nun q 6= 1 vorausgesetzt. Nun ist
(1 − q) ·
n
X
q k = (1 − q) · (1 + q + q 2 + q 3 + . . . + q n−2 + q n−1 + q n )
k=0
= 1 + q + q 2 + q 3 + . . . + q n−2 + q n−1 + q n
− q − q 2 − q 3 − . . . − q n−2 − q n−1 − q n − q n+1
= 1 − q n+1
Division durch (1 − q) (zulässig, da 1 − q 6= 0) ergibt die behauptete Formel.
7
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Natürliche Zahlen und Induktion
Prinzip der vollständigen Induktion: Gegeben sei eine Aussage, die von einer natürlichen Zahl n abhängt. Um zu beweisen, dass die Aussage für alle n ∈ N gilt, beweist
man zunächst, dass die Aussage für eine konkrete Zahl n0 richtig ist (Induktionsanfang).
Dann beweist man, dass aus der unterstellten Gültigkeit für irgendeine natürliche Zahl n
die Gültigkeit für n + 1 folgt (Induktionsschritt). Aus beidem zusammen ergibt sich die
Richtigkeit der Aussage für alle natürlichen Zahlen ab n0 .
Beispiel: Wir vermuten, dass
n
X
k2 =
k=1
1
n (n + 1)(2n + 1) für n ∈ N gilt.
6
Induktionsanfang: Für n0 = 3 stimmt die Aussage, wie man direkt nachrechnet:
n0
X
k 2 = 1 + 4 + 9 = 14 ,
und
k=1
1
1
n0 (n0 + 1)(2n0 + 1) = · 3 · 4 · 7 = 14 .
6
6
Induktionsschritt: Angenommen, die Aussage gilt für irgendeine Zahl n, d. h.
n
X
k2 =
k=1
1
n (n + 1)(2n + 1) .
6
Auf beiden Seiten (n + 1)2 addiert ergibt sich:
n+1
X
k2 =
k=1
n
X
k=1
k 2 + (n + 1)2 =
1
n (n + 1)(2n + 1) + (n + 1)2 =
6
1
1
= (n + 1) n (2n + 1) + (n + 1) 6 (n + 1) =
6
6
=
1
1
(n + 1) (2n2 + n) + (6n + 6)) = (n + 1)(2n2 + 7n + 6) =
6
6
=
1
1
(n + 1)(n + 2)(2n + 3) = (n + 1) (n + 1) + 1 2(n + 1) + 1
6
6
also ist
n+1
X
k=1
k2 =
1
(n + 1) (n + 1) + 1 2(n + 1) + 1 .
6
Dies ist nun genau die vermutete Aussage, nur eben für n + 1 statt n. Damit ist der
Induktionsschritt abgeschlossen.
8
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Damit ist nachgewiesen, dass die vermutete Aussage tatsächlich für alle natürlichen Zahlen
n ≥ 3 richtig ist. Für n = 1 und n = 2 müsste man sie jetzt noch direkt nachrechnen
(geschickterweise hätte man natürlich den Induktionsanfang für n0 = 1 gemacht, gelegentlich
muss man aber durchaus mal ein paar Sonderfälle extra betrachten).
Analog kann man auch für m = 3, 4, 5, . . . nachweisen, dass
n
X
k=1
km =
m
X
1
nm+1 +
qk,m nk
m+1
k=0
gilt, wobei die qk,m von n unabhängige Konstanten sind. Z. B. ist
n
X
1
1
1
1
1
k 6 = n7 + n6 + n5 − n3 + n
7
2
2
6
42
k=1
Problem ist nur, dass man für den Induktionsbeweis erst einmal eine Vermutung haben muss,
wie diese Konstanten qk,m denn wohl aussehen . . .1
Dieses Prinzip ist nicht nur für Gleichungen anwendbar, sondern auch bei Ungleichungen. Es
gibt auch noch geringfügige Varianten dieses Induktionsprinzips, diese sind aber hier nicht
weiter von Belang.
Grundsätzlich funktioniert diese Methode aber nur für Aussagen, die von einer natürlichen
Zahl abhängen. Auf Aussagen, die z. B. von einer reellen Zahl abhängen, ist es nicht
übertragbar.
1
Dass für die erste, die vor der Summe beim nm+1 steht, nur m+1
in Frage kommt, sieht man sehr
leicht, wenn man Integralrechnung beherrscht. Die Vermutungen für die restlichen kann man prinzipiell für
jedes n aus einem linearen Gleichungssystem ermitteln.
1
9
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Reelle Zahlen
In Q sind alle Grundrechenarten uneingeschränkt möglich (bis auf Division durch 0), jedoch
ist der Zahlenstrahl allein mit Q sehr löchrig. Z. B. gibt es bekanntlich keine rationale Zahl,
die die Länge der Diagonalen eines Quadrats mit Kantenlänge 1 angibt. Ebenso gibt es keine
rationale Zahl, die den Umfang eines Kreises mit Radius 1 beschreibt.
Um diese „Lücken“ im Zahlenstrahl zu füllen, vervollständigt man die rationalen Zahlen
√
zur Menge der sog. reellen Zahlen. Ein möglicher Weg dabei ist z. B. für 2 folgender: Man
bilde eine (unendliche) Tabelle, wo die Zahlen der ersten Zeile jeweils zu klein ist (Quadrat
ist ≤ 2), die der zweiten Zeile zu groß (Quadrat ist ≥ 2), andererseits die Abstände zwischen
erster und zweiter Zeile immer kleiner werden, z. B.
1 1.4 1.41 1.414 1.4142 1.41421 1.414213 1.4142135 · · ·
2 1.5 1.42 1.415 1.4143 1.41422 1.414214 1.4142136 · · ·
√
Die „Zahl“ 2 wird dann mit dieser Tabelle identifiziert. Natürlich muss man sich überlegen,
dass dieses Schema Sinn
√ macht und nicht auf Widersprüche führt. Insbesondere kann man
solch eine Tabelle für 2 ja auch mit ganz anderen Zahlen aufbauen. Dieser Prozeß ist
insgesamt recht kompliziert.
Die Grundrechenarten für reelle Zahlen ergeben sich aber ganz leicht aus denen für rationale
Zahlen; denn in solch einer Tabelle stehen eben nur rationale Zahlen!
Die Menge der reellen Zahlen wird mit R bezeichnet, die Menge der irrationalen Zahlen (die
nicht rationalen) ist R \ Q. Wesentliche Eigenschaften der Menge R:
• R umfasst Q und ist eine echte Obermenge von Q, d. h. R ⊇ Q und R 6= Q.
• Alle von Q bekannten Rechenregeln gelten auch in R.
• Während Q abzählbar ist (d. h. man kann alle rationalen Zahlen „durchnummerieren“),
ist das schon bei R \ Q und auch bei R nicht mehr möglich. In diesem Sinn ist R \ Q
und damit R viel „größer“ als Q.
• Sowohl R \ Q als auch Q liegen dicht in R, d. h. zwischen zwei beliebigen Zahlen
findet man stets sowohl irrationale als auch rationale Zahlen.
Eine häufig vorkommende Klasse von Teilmengen von R sind die Intervalle:
• [ a, b ] = {x ∈ R | a ≤ x ∧ x ≤ b} = {x ∈ R | a ≤ x ≤ b} (abgeschlossenes Intervall)
• (a, b ] = {x ∈ R | a < x ∧ x ≤ b} = {x ∈ R | a < x ≤ b} (halboffenes Intervall)
• [ a, b) = {x ∈ R | a ≤ x ∧ x < b} = {x ∈ R | a ≤ x < b} (halboffenes Intervall)
• (a, b) = {x ∈ R | a < x ∧ x < b} = {x ∈ R | a < x < b} (offenes Intervall)
10
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Die Doppelungleichungen sind nur Abkürzung für zwei getrennten Ungleichungen mit „∧“
dazwischen. Achtung, niemals so etwas wie a > x < b verwenden!
Für die (halb-) offenen Intervall finden sich auch Schreibweisen mit nach außen geöffneten
eckigen statt runden Klammern, also z. B. ]a, b ] statt (a, b ].
Meist ist bei [ a, b ] usw. stillschweigend vereinbart, dass a ≤ b ist, so etwas wie [ 1, −1 ]
sollte man tunlichst vermeiden.
Neben obigen Intervalltypen gibt es noch einige Sonderformen:
• [ a, +∞) = {x ∈ R | a ≤ x}
• ( −∞, b ] = {x ∈ R | x ≤ b}
• (−∞, +∞) = R
Hier werden nicht etwa Zahlen „−∞“, „+∞“ verwendet oder gar definiert, das ist nur eine
verbreitete Schreibweise, um die Definition von neuen Symbolen zu umgehen . . .
Insbesondere macht eine eckige Klammer bei ±∞ keinen Sinn.
Im Zusammenhang mit Ungleichungen kommt häufig der sog. Betrag einer reellen Zahl vor:
(
Def.: Der Betrag einer rellen Zahl a (kurz: |a|) ist: |a| =
a , falls a ≥ 0
.
−a , falls a < 0
Es ist z. B. | − 3| = 3, |5| = 5, |0| = 0. Mit Hilfe des Betrages kann man den Abstand
zweier reeller Zahlen a, b (ohne Rücksicht darauf, ob a ≤ b oder a ≥ b ist) ausdrücken, es
ist dies nämlich |a − b| (was dasselbe wie |b − a| ist).
Gängige Konvention ist: n, k, l, m bezeichnen natürliche Zahlen oder auch ganze Zahlen,
während a, b, c, r, s, t, x, y, u, v üblicherweise für reelle Zahlen stehen. Davon nur mit Bedacht
abweichen! i, j, z, w dagegen möglichst nicht für ganze oder reelle Zahlen verwenden (Grund
folgt weiter unten)!
Mit den reellen Zahlen kann man zwar schon die gesamte Differenzial- und Integralrechnung
aufbauen und damit eine Vielzahl physikalischer und technischer Probleme bearbeiten, es
gibt dennoch ein großes Defizit:
11
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Komplexe Zahlen
Das einfache Polynom p(x) = x2 + 1 hat in R keine Nullstelle bzw. die so simple Gleichung
x2 = −1 keine Lösung. Behebung dieses Problems: Man erfinde eine Zahl j, die sog. imaginäre Einheit mit der Eigenschaft j2 = −1. Damit definiert man die Menge der komplexen
Zahlen C = {x + jy | x ∈ R ∧ y ∈ R}. 2
Dabei heißt x der Realteil (abgekürzt < oder Re), y der Imaginärteil (= oder Im) der
komplexen Zahl x + jy. Häufiger Fehler: Der Imaginärteil ist nur der reelle Faktor beim j,
das j selbst gehört nicht mit zum Imaginärteil: <(3 − 4j) = 3, =(3 − 4j) = −4 und nicht
etwa −4j. x + jy wird nicht von x + yj unterschieden.
Damit die aus R bekannten Rechenregeln auch in C gelten (alles andere wäre unerquicklich),
muss man die Grundrechenarten folgendermaßen definieren:
(i) (x + jy) + (u + jv) = (x + u) + j(y + v)
(ii) (x + jy) − (u + jv) = (x − u) + j(y − v)
(iii) (x + jy) · (u + jv) = (xu − yv) + j(xv + yu)
(iv)
x + jy
x + jy u − jv
xu + yv
yu − xv
=
·
= 2
2 +j 2
u + jv
u + jv u − jv
u +v
u + v2
Die ersten beiden sind klar, bei der Multiplikation kann man einfach wie gewohnt ausmultiplizieren und muss dann nur an j2 = −1 denken. Bei der Division merke man sich nur, dass
man erweitert, und zwar mit dem Nenner aber umgedrehten Vorzeichen beim Imaginärteil.
Da diese Operation „Vorzeichen des Imaginärteils umdrehen“ öfters vorkommt, bekommt Sie
auch einen Namen, nämlich Konjugation: x + jy = x − jy.
Man beachte: 3 + 4j = 3 − 4j und 5 − 7j = 5 + 7j. Wenn der Imaginärteil negativ war, wird
er durch die Konjugation positiv.
Die bekannten Rechenregeln gelten in C genauso wie in R, einzige Einschränkung: Ungleichungen zwischen komplexen Zahlen sind sinnlos. Es gibt keine mit den üblichen aus R
bekannten Rechenregeln verträgliche Möglichkeit, etwas wie „<“ auf C zu definieren.
Konventionen: z = x+jy oder w = u+jv bedeutet üblicherweise, dass z, w komplexe Zahlen
mit Realteil x bzw. u und Imaginärteil y bzw. v sind. Während in Mathematik und Physik
für die imaginäre Einheit „i“ verwendet wird, ist in vielen Ingenieurdisziplinen, insbesondere
in der Elektrotechnik dafür die Verwendung von „j“ üblich, da „i“ dort anderweitig „besetzt“
ist. Allerdings sollte man beide Varianten kennen und sich davon nicht verwirren lassen.
Die Konjugation verträgt sich bestens mit den Grundrechenarten, denn es gilt der
Satz: Für beliebige komplexe Zahlen z, w ∈ C gelten:
(iii) z · w = z · w
(v) z + z = 2 <(z)
(i) z = z
(ii) z + w = z + w
(iv) z : w = z : w (falls w 6= 0)
2
(vi) z − z = 2 j =(z)
Man beachte, dass das „+“ hier zunächst keine Addition symbolisiert, sondern lediglich verdeutlichen soll,
dass aus zwei reellen Zahlen x, y zusammmen mit der imaginären Einheit ein neues Objekt zusammensetzt
wird; für dieses gibt es zunächst gar keine Rechenoperationen. Deshalb findet man gelegentlich statt x + jy
auch die Paarschreibweise (x, y); hier fällt aber leider das j unter den Tisch, ist also auch nicht optimal.
12
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Bei der letzen Regel das „j“ nicht übersehen! Diese Regeln lassen sich sehr einfach nachrechnen, indem man für z einfach x + jy einsetzt und jeweils linke und rechte Seite ausrechnet.
Wurzel sind im Komplexen ein wenig kompliziert, dazu später mehr. Lediglich für die beiden
Quadratwurzeln einer „echt“ komplexen Zahl x + jy (d. h. mit y 6= 0) gibt es noch eine
einfache Formel:
1
w = ±√
2
r
x+
q
x2
+
y2
y
+ jr
x+
q
x2 + y 2
Zur Beachtung: es gibt zwei Möglichkeiten, ausgedrückt durch das ±. Im Reellen ist das im
Prinzip genauso, nur hat man sich bei der Definition auf die positive Lösung eingeschränkt,
daher findet sich in der p-q-Formel gerade das ± vor der Wurzel.
Da eine komplexe Zahl z = x + jy gewissermaßen aus zwei reellen Teilen zusammengesetzt
wird, kann man sie sich gut in einem zweidimensionalen Koordinatensystem veranschaulichen,
auf der x-Achse trägt man den Realteil, auf der y-Achse den Imaginärteil ab. Statt nun
z = x + jy mit dem Punkt mit den Koordinaten (x, y) zu identifizieren, ist es günstiger,
dies mit dem Zeiger (Pfeil) vom Nullpunkt aus zum Punkt (x, y) zu machen.
Solch einen Zeiger kann man aber auch folgendermaßen eindeutig beschreiben (bis auf die
Ausnahme 0 bzw. 0 + j0): Man gebe die Länge r des Zeigers und den Winkel ϕ, den er mit
der positiven x-Achse einschließt (im mathematisch positiven Sinn gemessen!), an.
Die Länge wird als Betrag3 der komplexen Zahl bezeichnet und ist nach Pythagoras:
r = |z| = |x + jy| =
q
x2 + y 2 =
√
z·z
Man beachte, dass unter der ersten Wurzel stets die Summe
zweier nichtnegativer Zahlen
q
√
2
und insbesondere kein j steht! Z. B. ist | − 3 − 2j| = (−3) + (−2)2 = 13.
◦
b
Der Winkel wird in der Mathematik im Bogenmaß (π =180
) angegeben, sonst häufig auch
im Gradmaß, man bezeichnet ihn als „das“ Argument der komplexen Zahl. Berechnung:
ϕ = arg z = arg(x + jy) =























y
,
x
y
arctan + π ,
x
π
+ ,
2
π
− ,
2
arctan
falls x > 0
falls x < 0
falls x = 0 und y > 0
falls x = 0 und y < 0
„Das“ Argument ist kein eindeutiger Zahlenwert, denn man kann ja nach Belieben ganzzahlige
Vielfache von 2π addieren. Den Wert des Arguments in [ 0, 2π) bezeichnet man bisweilen als
Hauptwert, eine Einschränkung auf diesen ist aber ziemlich willkürlich und eher hinderlich.
Die obige Formel für das Argument liefert nicht immer diesen Hauptwert!
3
Derselbe Name und auch dasselbe Formelzeichen wurde schon beim reellen Betrag verwendet, für reelle
Zahlen ergeben beide Begriffe jedoch das gleiche Ergebnis, insofern ist das unproblematisch.
13
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Die Angabe einer komplexen Zahl durch Betrag und Argument heißt Polarkoordinatendarstellung (im Ggs. zur kartesischen mit Real- und Imaginärteil), einer Zeichnung entnimmt man
x = r cos ϕ = |z| cos(arg z) ,
y = r sin ϕ = |z| sin(arg z) ,
also
z = x + jy = r(cos ϕ + j sin ϕ) = |z| cos(arg z) + j sin(arg z)
Da solche Ausdrücke häufig vorkommen, benutzt man folgende Abkürzungen:
e jϕ = exp(jϕ) = cos ϕ + j sin ϕ ,
also z = |z|e j arg z = |z| exp(j arg z)
Hinter dieser — zunächst — reinen Abkürzung steckt wesentlich mehr als man erwartet; dies
hängt mit der sog. Exponentialfunktion zusammmenhängt, mit der man Kosinus und Sinus
mathematisch einwandfrei definieren und ihre Additionstheoreme bekommen kann.
Die Konjugation bedeutet anschaulich nichts anderes als eine Spiegelung an der reellen Achse,
also ist
z = x − jy = r(cos ϕ − j sin ϕ) = |z| cos(− arg z) + j sin(− arg z) = |z|e −j arg z ,
d. h. beim Konjugieren wechselt lediglich das Argument das Vorzeichen.
Die Polarkoordinatendarstellung hat den Vorzug, dass man in ihr bequem multiplizieren,
dividieren und potenzieren kann, wie man mit Hilfe der sog. Additionstheoreme für sin und
cos erkennt (mathematisch ist der umgekehrte Weg üblich, wie oben angedeutet):
z1 z2 = |z1 | · cos ϕ1 + j sin ϕ1 · |z2 | · cos ϕ2 + j sin ϕ2
= |z1 | · |z2 | · (cos ϕ1 · cos ϕ2 − sin ϕ1 · sin ϕ2 ) + j(cos ϕ1 · sin ϕ2 + sin ϕ1 · cos ϕ2 )
= |z1 | · |z2 | · cos(ϕ1 + ϕ2 ) + j sin(ϕ1 + ϕ2 )
Damit ergibt sich auch
|z1 | z1
=
· cos(ϕ1 − ϕ2 ) + j sin(ϕ1 − ϕ2 )
z2
|z2 |
(falls z2 6= 0)
und für n ∈ Z (ist n < 0, muss man natürlich z 6= 0 verlangen):
z n = |z n | · cos(nϕ) + j sin(nϕ)
Sprachlich ausgedrückt:
• Bei der komplexen Multiplikation werden die Beträge multipliziert, die Argumente
addiert.
14
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
• Bei der komplexen Division werden die Beträge dividiert, die Argumente subtrahiert.
• Bei komplexen Potenzen wird der Betrag potenziert, das Argument mit dem Exponenten multipliziert.
Dagegen ist die Addition und Subtraktion in Polarkoordinaten äußerst kompliziert.
Nebenbei entnimmt man obigen Rechnungen unter Verwendung des trigonometrischen
Pythagoras noch folgenden
Satz: Für beliebige Zahlen z, w ∈ C gilt:
z
|z|
(falls w 6= 0)
(i) |z · w| = |z| · |w| (ii) =
w
|w|
(iii) |z n | = |z|n für n ∈ Z
Bei der dritten Regel ist bei n < 0 natürlich wieder z 6= 0 vorauszusetzen.
Naheliegend
ist, dass es beim Wurzelziehen analog zum Potenzieren gehen müsste (da man
√
n
etwa z auch als z 1/n schreibt). Allerdings macht die Mehrdeutigkeit des Arguments dabei
etwas genauere Überlegungen nötig:
Satz: Ist n ∈ N, so gibt es zu z = re jϕ 6= 0 genau n verschiedene n-te Wurzeln
wk =
√
n
ϕ + 2πk
r exp j
,
n
k = 0, 1, 2 . . . , n − 1 .
Diese Zahlen wk bilden die Ecken eines regelmäßigen n-Ecks mit Mittelpunkt 0.
Das Wurzelsymbol beim Betrag r bezeichnet die gewöhnliche reelle Wurzel. Z. B. sind die
drei dritten Wurzeln von −8 = 8 e jπ :
w0 =
und
√
3
8 exp j
w2 =
π + 2π · 0
= −2 ,
3
w1 =
√
√
π + 2π · 1
3
8 exp j
= 1 + 3j
3
√
√
π + 2π · 2
3
= 1 − 3j
8 exp j
3
Def.: Für n ∈ N sind die n-ten Einheitswurzeln die (n verschiedenen) n-ten Wurzel von 1.
1 1√
1 1√
Beispielsweise sind 1, − +
3 j und − −
3 j die drei dritten Einheitswurzeln.
2 2
2 2
Man beachte, dass man im Komplexen das Wurzelsymbol tunlichst vermeiden
oder genau
√
angeben sollte, welche der möglichen Werte gemeint ist, z. B. ist bei 3 + 4j nicht klar,
welche
der beiden Möglichkeiten gemeint sein soll. Im Reellen ist dagegen definitionsgemäß
√
√
4 = 2, und nicht — was ja mit gleicher Berechtigung denkbar wäre — etwa 4 = −2.
Eine vergleichbare sinnvolle Festlegung ist im Komplexen
nicht möglich. Die gelegentlich
√
anzutreffende Schreibweise bzw. Definition j = −1 ist in dieser Hinsicht problematisch.
Dass komplexen Zahlen in praktischen Anwendung häufig eine große Rolle spielen, sieht man
schon daran, dass sie in vielen Programmiersprachen zur Verfügung stehen:
15
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
• FORTRAN bzw. Fortran (uralt aber in technischen Anwendung noch im Gebrauch)
• ALGOL (ebenfalls uralt)
• C (obwohl ursprünglich für systemnahe Programmierung entwickelt, seit ISO C99)
Zwar gibt es komplexe Zahlen in C++, Java, C# (noch) nicht, sie sind aber leicht über
weithin erhältliche Bibliotheken verfügbar (in C++ via operator overloading auch besonders
bequem).
Prinzipiell könnte man in technischen Anwendungen durchaus ohne komplexe Zahlen auskommen, man erspart sich jedoch viele sehr aufwendige Fallunterscheidungen und andere Komplikationen, indem man einmal neue „Objekte“ samt „Rechenregeln“ entwickelt, die man
hinterher verwenden kann, ohne sich noch ständig um jedes Detail kümmern zu müssen
(trotzdem sollte man die Interna natürlich verstanden haben!).
16
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Die Anordnung der reellen Zahlen
Für zwei beliebige reelle Zahlen a, b tritt stets genau eine der folgenden Alternativen ein:
(i) a < b
(ii) a = b
(iii) a > b
a ≤ b ist die Abkürzung für a < b ∨ a = b, entsprechend a ≥ b die für a > b ∨ a = b. Ist
gleichzeitig a ≤ b und a ≥ b, so ist a = b. a < b ist äquivalent zu b > a usw.
Aussagen, in denen die Relationen <, >, ≤ oder ≥ vorkommen, nennt man Ungleichungen,
kommt nur = vor, spricht man von Gleichungen.
Satz: Für beliebige reelle Zahlen a, b, c gelten:
(i) Ist a < b und b < c, so ist auch a < c.
(ii) Ist a < b, so ist auch a + c < b + c.
(iii) Ist a < b und c > 0, so ist a · c < b · c.
(iv) Ist a < b und c < 0, so ist a · c > b · c.
(v) Ist a < b und a > 0, so ist
1
1
> .
a
b
(vi) Ist a < b und b < 0, so ist
1
1
> .
a
b
Dieser Satz gilt entsprechend, wenn überall „<“ durch „≤“ ersetzt wird.
Obige Regeln muss man nicht unbedingt auswendig lernen, man kann sie sich nämlich anhand
einfachster Zahlenbeispiele jederzeit selbst überlegen! Genau genommen sind nur die ersten
drei entscheidend, die letzten drei lassen sich nämlich aus den ersten drei ableiten.
Was kann man wohl über die Relation zwischen
1
1
und aussagen, wenn a < 0 < b ist?
a
b
Satz: Sind a und b beide positiv und n ∈ N, so sind a < b und an < bn äquivalent.
Beweis: Ist a < b, so kann man diese Ungleichung mit a (positiv) multiplizieren und erhält
a2 < ab. Multipliziert man die Ungleichung statt mit a mit b (positiv), erhält man ab < b2 .
Zusammen folgt a2 < ab < b2 , also a2 < b2 . Dieses Verfahren läßt sich fortsetzen, man
erhält a3 < b3 , . . . , an < bn . Aus a < b folgt also an < bn . Noch nicht bewiesen ist
allerdings, dass umgekehrt aus an < bn auch a < b folgt, d. h. dass a < b und an < bn
tatsächlich äquivalent sind.
Vertauscht man nun die Rollen von a und b, so sieht man, dass aus a > b auch an > bn
folgt. Ist nun an < bn und wäre a > b, ergäbe sich daher, dass gleichzeitig an > bn sein
müsste. Es wäre also gleichzeitig an < bn und an > bn , was aber nicht möglich ist. Da
a = b auch nicht möglich ist, folgt aus an < bn tatsächlich a < b.
Diesen Satz kann man auch andersherum interpretieren: Sind beide Seiten einer Ungleichung
nichtnegativ, so darf man „auf beiden Seiten die n-te (positive) Wurzel ziehen“. Ebenso kann
man wieder überall „<“ durch „≤“ ersetzen.
17
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Satz: [Dreiecksungleichung] Für beliebige a, b ∈ R gilt |a + b| ≤ |a| + |b|.
Beweis: |a + b|2 = (a + b)2 = a2 + 2ab + b2 ≤ a2 + 2|a| · |b| + b2 = |a|2 + 2|a| · |b| + |b|2 =
(|a| + |b|)2 , also |a + b|2 ≤ (|a| + |b|)2 . Nun ziehe man die Wurzel.
Diese Dreiecksungleichung gilt auch für komplexe Zahlen4 , hier wird auch die Bedeutung
ihres Namens verständlich, wenn man komplexe Zahlen als Zeiger interpretiert (Zeichnung!):
Satz: [Dreiecksungleichung] Für beliebige z, w ∈ C gilt |z + w| ≤ |z| + |w|.
Beweis: |z + w|2 = (z + w)(z + w) = (z + w)(z + w) = z · z + z · w + z · w + w · w.
Nun ist z · w = z · w, folglich also z · w + z · w = 2 <(z · w). Oben eingesetzt folgt:
|z + w|2 = |z|2 + z · w + (z · w) + |w|2 = |z|2 + 2 <(z · w) + |w|2 .
Weiter ist <(z · w) ≤ |z · w| = |z| · |w| = |z| · |w|, also |z + w|2 = |z|2 + 2<(z · w) + |w|2 ≤
|z|2 + |z| · |w| + |w|2 = (|z| + |w|)2 . Wurzelziehen ergibt die Behauptung.
Hier musste man schon eine ganze Menge Rechenregeln für komplexe Zahlen einsetzen . . .
4
Dies ist kein Widerspruch dazu, dass vorher gesagt wurde, Ungleichungen zwischen komplexen Zahlen
seien sinnlos; linke und rechte Seite der Ungleichung sind hier nämlich reelle Zahlen!
18
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Maschinenarithmetik
Um einen einen großen Zahlenbereich verarbeiten zu können, ist Gleitkomma-Arithmetik
(floating-point arithmetic) üblich, Zahlendarstellung (man beachte den Punkt zwischen m1
und m2 bzw. vor m1 !):
±m1 .m2 m3 m4 · · · mn · 2±e1 e2 e3 ··· er
oder
± 0.m1 m2 m3 · · · mn · 2±e1 e2 e3 ··· er ,
bei Taschenrechnern dagegen eher
±m1 .m2 m3 m4 · · · mn · 10±e1 e2 e3 ··· er
oder
± 0.m1 m2 m3 · · · mn · 10±e1 e2 e3 ··· er
Die Ziffernfolge m1 , m2 , . . . , mn bildet die sog. Mantisse, e1 , . . . , er den Exponenten. Ob
Mantisse und Exponent im Dual- oder Dezimalsystem dargestellt werden und man die Potenz
zur Basis 2 oder zu einer anderen nimmt, ist ausschließlich eine Frage der technischen Zweckmäßigkeit.
Die Länge (Stellenanzahl, Bitanzahl) der Mantisse bestimmt die Rechengenauigkeit, die des
Exponenten die darstellbaren Größenordnungen. Typische Werte (IEEE-754):
float, single: Mantisse 23 + 1 Bit, Exponent 7 + 1 Bit, insgesamt 32 Bit
double: Mantisse 52 + 1 Bit, Exponent 10 + 1 Bit, insgesamt 64 Bit
Verschiedene Bit-Kombinationen werden dabei noch zur Darstellung bestimmter Sonderfälle
(„Not-a-Number“ = sinnloses Ergebnis, „±Infinity“ = Überlauf in positive / negative Richtung) zweckentfremdet. Hardware-Rechenwerke verwenden intern häufig noch ein paar Bit
mehr, um korrekt gerundetete Ergebnisse zu liefern, Speichern/Laden ist dann aber leider mit
etwas Genauigkeitsverlust verbunden. Beispielsweise spezielle Maschinen-Instruktion, die die
Konstante π mit höherer Genauigkeit ins Rechenwerk lädt als mit einer normalen Konstanten
erreichbar wäre.
Es wird meist noch zwischen sog. normalisierten (m1 6= 0) und denormalisierten (m1 = 0,
nahezu Unterlauf, verringerte Genauigkeit) Zahlen unterschieden.
Ist nicht so ein großer Zahlenbereich nötig, wird bisweilen auch eine Festkomma-Darstellung
verwendet (fixed-point arithmetic, verbreitet bei digitalen Signalprozessoren),
Man beachte, dass Maschinenarithmetik und Arithmetik reeller Zahlen keineswegs identisch
sind. Ein Rechner kann in Gleitkomma-Arithmetik fast gar keine reelle Zahl korrekt darstellen
geschweige denn damit korrekt rechnen. So ist etwa in Maschinenarithmetik (x + y) + z
keineswegs identisch mit x + (y + z). Schockierende Beispiele dazu in den Übungen . . .
Zur weiteren Lektüre sei folgender Aufsatz empfohlen (der Titel spricht für sich selbst . . . ):
David Goldberg, What Every Computer Scientist Should Know About Floating-Point
Arithmetic, ACM Computing Surveys 23 (1): 5-48.
http://www.validlab.com/goldberg/paper.pdf
19
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Polynome und Horner-Schema
Ein Polynom vom (genauen) Grad n hat die Gestalt
p(x) = an xn + an−1 xn−1 + · · · + a2 x2 + a1 x + a0 ,
wobei an 6= 0 ist.
Die Koeffizienten an , . . . , a0 können reelle oder auch komplexe Zahlen sein, das gleiche gilt
für die Variable x. Ein Polynom vom Grad 0 ist eine Konstante (6= 0), die Konstante 0 hat
keinen Grad.
Die Nullstellen eines Polynoms (also die Zahlen x, für die p(x) = 0 ist), haben häufig eine
große Bedeutung.
Für Polynome vom Grad ist 2 ist ihre Berechnung mittels p-q-Formel sehr einfach (geht im
Komplexen genau wie im Reellen, die dazu nötigen komplexen Quadratwurzel lassen sich
noch recht einfach bestimmen, vgl. S. 13), für Polynome vom Grad 3 und 4 gibt es die recht
komplizierten Formeln von Cardano bzw. Ferrari zu ihrer Berechnung. Für allgemeine
Polynome vom Grad 5 oder höher gibt es nachweislich keine Formeln, die allein aus den
Grundrechenarten und Wurzeln zusammengesetzt werden können.
Einzige Berechnungsmöglichkeit ist in solchen Fällen ein Näherungsverfahren, damit kann
man die Nullstellen zwar nicht exakt, jedoch für praktische Anwendungen meist genügend
genau berechnen. Da hierbei die Funktionswerte der Polynome sehr häufig ausgerechnet
werden müssen, ist ein effizientes Verfahren dafür wichtig, die naive Auswertung (erst alle
Potenzen ausrechnen usw.) ist in dieser Hinsicht katastrophal.
Die Idee des sog. Horner-Schemas ist intelligentes Ausklammern:
p(x) = an xn + an−1 xn−1 + · · · + a2 x2 + a1 x + a0
= ((· · · ((((an )x + an−1 )x + an−2 )x + an−3 ) · · ·)x + a1 )x + a0
Die Auswertung ist damit sehr leicht und effizient manuell oder auch programmtechnisch
durchzuführen, z. B. sei p(x) = 2x5 + 3x4 + 5x2 + 6x + 7 an der Stelle x = −2 auszuwerten:
2
3
x = −2 0 −4
2 −1
0
5
6
7
2 −4 −2 −8
2
1
4 -1
Koeffizienten in ersten Zeile in absteigender Reihenfolge aufschreiben (eventuelle Lücken mit
Nullen füllen), links davor, welcher Wert für x eingesetzt wird. In der ersten Spalte unter dem
höchsten Koeffizienten wird eine 0 eingetragen, dann in der Spalte die Summe bilden und
unter den Summenstrich schreiben. Dieses Ergebnis mit x multiplizieren und das Ergebnis
in die zweite Spalte unter den nächsten Koeffizienten schreiben, in der Spalte wieder die
Summe berechnen, mit x multiplizieren usw. Die letzte Zahl in der Summenzeile (mit einem
Kästchen versehen) ist dann p(x), hier also p(−2) = −1.
20
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Das Horner-Schema erspart auch eine umständliche Polynomdivision zum Abspalten einer
bereits bekannten Nullstelle:
Vermutet man bei einem Polynom p(x) = an xn + an−1 xn−1 + · · · + a2 x2 + a1 x + a0 vom
Grad n, dass alle Nullstellen xk reell und ganzzahlig sind, ergibt sich aus der Faktorisierung5
p(x) = an (x − x1 )(x − x2 ) · . . . · (x − xn ), dass a0 = ±an x1 x2 · . . . · xn ist. Als Nullstellen
kommen also nur die Teiler von a0 /an in Betracht.
Beispielsweise bei p(x) = 3x4 − 6x3 − 21x2 + 60x − 36 kommen als Kandidaten nur die
Teiler von −36/3 = −12 in Betracht, also ±1, ±2, ±3, ±4, ±6, ±12, die man nun der Reihe
nach mittels Horner-Schema durchprobieren kann6 :
3
x = −1 0
3
x = +1 0
3
−6 −21
60
−3
9
12
−9 −12
72
3 −3 −24
−3 −24
36
−36
−72
-108 =
6 0 also keine Nullstelle
36
0 also ist x1 = 1 eine Nullstelle
Jetzt kann man die gefundene Nullstelle abspalten, indem man p(x) durch den Linearfaktor
(x − x1 ) zu der Nullstelle, also durch (x − 1), mittels Polynomdivision teilt. Da x1 eine
Nullstelle ist, bleibt hierbei kein Rest, d. h. die Division „geht auf“. Die recht mühsame
Polynomdivision kann man sich hier sparen, denn ihr Ergebnis steht bereits im HornerSchema in der letzen Zeile:
(3x4 − 6x3 − 21x2 + 60x − 36) : (x − 1) = 3x3 − 3x2 − 24x + 36
Für dieses einfachere Polynom kann man das ganze Verfahren erneut durchführen: Als Nullstellen kommen diesmal die Teiler von 36/3 = 12, also ±1, ±2, ±3, ±4, ±6, ±12 in Betracht.
−1 ist nicht möglich, da bereits einmal oben ohne Erfolg getestet. +1 dagegen muss erneut
überprüft werden, denn es ist möglich, dass eine Nullstelle mehrfach vorkommt!
3 −3 −24
36
x=1
0
3
0 −24
3
0 −24 12 =
6 0 also keine Nullstelle
x = −2 0 −6
18
12
3 −9 −6 48 =
6 0 also keine Nullstelle
x=2
0
6
6
36
3
3 −18
0 also ist x2 = 2 eine Nullstelle
Für das jetzt übrig gebliebene Polynom 3x2 + 3x − 18 bleiben noch die Kandidaten
±1, ±2, ±3, ±6. Dabei scheiden ±1 und −2 aus, da schon einmal erfolglos geprüft, während
5
dazu nächste Seite
Das sieht mühsam aus, weil es viele Teiler gibt; allerdings kann man sich leicht überlegen, dass nicht alle
Nullstellen „große“ Teiler sein können, sondern automatisch auch mindestens ein „kleiner“ dabei sein muss.
6
21
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
2 erneut geprüft werden muss (alternativ könnte man natürlich auch das quadratische Polynom mittels p-q-Formel zerlegen.):
3
3 −18
0
6
18
3
9
0 also ist x3 = 2 eine Nullstelle
x = −3 0 −9
3 0
also ist x4 = −3 eine Nullstelle
x=2
Als Gesamtergebnis erhält man die sog. Faktorisierung des Polynoms (Zerlegung in Linearfaktoren):
p(x) = 3x4 − 6x3 − 21x2 + 60x − 36 = 3(x − 1)(x − 2)(x − 2)(x − (−3))
Da die Nullstelle 2 hier genau zweimal vorkommt, nennt man sie eine doppelte bzw. zweifache
Nullstelle, während 1 und −3 entsprechend einfache Nullstellen und etwa 4 eine nullfache
bzw. keine Nullstelle ist. Man sagt auch, die Vielfachheit der Nullstelle 2 ist zwei, während
sie bei 1 und −3 gleich eins und bei 4 null ist.
Prinzipiell funktioniert diese Faktorisierung auch bei „krummen“ Nullstellen und Polynomen
mit komplexen Koeffizienten und komplexen Nullstellen exakt in derselben Weise, sofern man
sich jeweils mindestens eine Nullstelle irgendwie verschaffen kann (die Regel mit den Teilern
versagt allerdings naturgemäß).
Man erkennt auch, dass ein Polynom vom Grad n höchstens n Nullstellen haben kann, denn
mit jeder gefundenen verringert sich beim Abspalten der Grad des Polynoms um 1. Läßt
man auch komplexe Zahlen zu, wird es noch viel besser:
Satz: [Fundamentalsatz der Algebra] Ein Polynom vom genauen Grad n mit komplexen
Koeffizienten hat in C genau n (nicht notwendig verschiedene!) Nullstellen. Dabei sind
mehrfache Nullstellen entsprechend ihrer Vielfachheit zu zählen.
Anders formuliert: Jedes Polynom vom Grad n läßt sich in C vollständig in n Linearfaktoren
zerlegen, also vollständig faktorisieren. In R ist das bekanntlich nicht so, p(x) = x2 + 1 läßt
sich dort nicht in Linearfaktoren zerlegen.
22
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Funktionen und Umkehrfunktionen
Eine Funktion f ist eine Abbildungsvorschrift, die jedem Element aus einer Menge Df , dem
sog. Definitionsbereich, ein Element aus einer anderen Menge Wf , dem sog. Wertebereich
zuordnet. Kurzschreibweise: f : Df → Wf . Der Bildbereich (engl. Range) einer Funktion
f : Df → Wf ist die Menge f (Df ).
√
Beispiel: f : [ 0, +∞) → R, f (x) = x − 1 hat den Bildbereich [ −1, +∞), denn genau
alle Werte in diesem Intervall kommen als Funktionswerte vor. Der Wertebereich muss also
keineswegs gleich dem Bildbereich sein, es gilt jedoch stets f (Df ) ⊆ Wf .
Vorsicht, die Definition von Wertebereich ist nicht ganz einheitlich! Bisweilen wird darunter
auch f (Df ) verstanden.
Eine Funktion f : Df → Wf heißt injektiv (oder umkehrbar eindeutig), wenn aus x1 , x2 ∈ Df ,
f (x1 ) = f (x2 ) stets folgt: x1 = x2 . Ugs.: Jeder Funktionswert kommt höchstens an einer
Stelle vor.
Eine Funktion f : Df → Wf heißt surjektiv, falls Wf = f (Df ) ist. Ist eine Funktion gleichzeitig injektiv und surjektiv, nennt man sie auch bijektiv.
Ist f : Df → Wf injektiv, so gibt es folglich zu jedem y ∈ f (Df ) genau ein „passendes“
x ∈ Df mit y = f (x). Die Zuordnung von y zu diesem „passendem“ x ∈ Df vermittelt
eine neue Funktion, die sog. Umkehrfunktion von f : f −1 : f (Df ) → Df . Es gilt dann also
f (x) = y ⇔ x = f −1 (y).
Eine Funktion, die nicht injektiv ist, besitzt niemals eine Umkehrfunktion! Man beachte, dass
die Umkehrfunktion f −1 rein gar nichts mit dem Kehrwert 1/f zu tun hat! Rechenregeln
für Funktion und zugehörige Umkehrfunktion:
• f −1 f (x) = x
• f f −1 (y) = y
für x ∈ Df
für y ∈ f (Df )
√
Beispiel: f : [ 0, +∞) → R, f (x) = x−1 ist injektiv und besitzt daher eine Umkehrfunktion,
nämlich f −1 : [ −1, +∞) → [ 0, +∞), f −1 (y) = (1 + y)2 .
Beispiel: f : R → R, f (x) = x2 ist nicht injektiv (da z. B. f (−1) = f (1) ist) und besitzt
daher keine Umkehrfunktion. Da die Lage hier aber recht übersichtlich ist, kann man sich
so behelfen: Man schränke den Definitionsbereich künstlich ein, etwa f˜: [ 0, +∞) → R,
f˜(x) = x2 . Diese neue Funktion ist nun injektiv, hat also eine Umkehrfunktion, nämlich
√
f˜−1 : [ 0, +∞) → [ 0, +∞), f˜−1 (y) = + y. (Natürlich könnte man auch den Definitions√
bereich von f auf (−∞, 0 ] einschränken, dann ergäbe sich als Umkehrfunktion − y.)
Bestimmung der Umkehrfunktion (einer injektiven Funktion f ):
• graphisch: Man spiegele den Funktionsgraphen an der Winkelhalbierenden y = x
• formelmäßig: Man löse die die Gleichung y = f (x) nach x auf (die häufig davor oder
danach durchgeführte Vertauschung der Bezeichnungen x und y ist recht überflüssig).
Leider gelingt das nur in einfachen Fällen . . .
23
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Folgen, Reihen, Grenzwerte
Eine (Zahlen-) Folge ist eine Funktion mit einer speziellen Art von Definitionsbereich, nämlich
N oder auch {n ∈ N | n ≥ n0 } (N mit Ausnahme endlich vieler Zahlen am Anfang). Aus
historischen Gründen wird hier jedoch meist eine andere Schreibweise verwendet:
Statt etwa f : N → R, f (n) = . . . , schreibt man (an )+∞
n=1 , an = . . . , oder sogar nur (an ),
an = . . . Wenn die Zuordnungsvorschrift offensichtlich ist, findet sich auch so etwas:
„die Folge 1, 3, 5, 7, . . .“ (offensichtlich alle positiven ungeraden Zahlen)
Ausführlich: f : N → R, f (n) = 2n − 1 für n ∈ N, oder (an )+∞
n=1 , an = 2n − 1 für n ∈ N.
Die einzelnen Funktionswerte f (n) bzw. an nennt man Folgenglieder.
Bei Folgen wird häufig auch die Zuordnungsvorschrift
explizit angegeben, sondern in
nicht 5
1
an +
für n ∈ N.
rekursiver Form, z. B. (an )+∞
n=1 , a0 := 1, an+1 :=
2
an
Der zentrale Begriff im Zusammenhang mit Folgen ist der des Grenzwertes:
Def.: Die Folge (an )+∞
n=1 hat den Grenzwert a, falls gilt: Zu jedem (kleinen) ε > 0 gibt es
eine Zahl N (die von ε abhängen darf) mit |an − a| < ε für alle n ≥ N .
Kurzschreibweise:
lim an = a („lim“ steht hier für die lat. Bezeichnung „Limes“ oder
n→+∞
etwas moderner interpretiert für die englische „limit“. Auch im Deutschen ist die Bezeichnung
„Limes“ gängig.) Falls eine Folge einen Grenzwert besitzt, sagt man auch, die Folge strebt
gegen a oder sie konvergiert gegen a. Hat eine Folge keinen Grenzwert, so sagt man auch,
sie divergiert.
Erläuterung: Der Betrag einer reellen Zahl x ist: |x| = x, falls x ≥ 0, und = −x, falls
x < 0. |an − a| ist anschaulich gesehen der Abstand der Zahlen an und a zueinander auf
dem Zahlenstrahl, wobei es nicht darauf ankommt, ob an links oder rechts von a liegt. Der
Buchstabe ε steht nach gängiger Konvention (nicht nur hier) für eine kleine aber positive
reelle Zahl.
Ugs. aber sehr ungenau bedeutet obige Definition des Grenzwerts, dass sich die Folgenglieder
für große Indizes n beliebig weit einer Zahl a nähern müssen. Insbesondere erkennt man
leicht, dass eine Folge höchstens einen Grenzwert besitzen kann.
Einige einfache Beispiele:
(i)
(ii)
(iii)
(iv)
lim
n→+∞
1
=0
n
lim (−1)n existiert nicht, denn die Folgenglieder springen zwischen +1 und −1.
n→+∞
(−1)n
= 0. Zwar wechselt wie im Beispiel zuvor das Vorzeichen laufend, aber
n→+∞
n
(−1)n
1
es ist ja − 0 = , d. h. hier spielt das Vorzeichen doch keine Rolle.
n
n
lim
lim 2n existiert nicht, da die Folgenglieder unbeschränkt größer werden und sich
n→+∞
somit nicht einer bestimmten reellen Zahl nähern können. (Da das Verhalten hier
24
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
dennoch recht übersichtlich ist, spricht man in dieser Situation gelegentlich auch davon,
dass die Folge den sog. uneigentlichen Grenzwert +∞ hat. Dies ist jedoch kein
echter Grenzwert im Sinne der obigen Definition und daher mit Vorsicht zu genießen.
Unangenehme Beispiele dazu später.)
(v)
lim (−2)n existiert nicht, da die Folgenglieder betragsmäßig unbeschränkt wachsen;
n→+∞
auch ein uneigentlicher Grenzwert ist hier nicht vorhanden, da das Vorzeichen laufend
wechselt.
Def.: Die Folge (an )+∞
n=1 hat den uneigentlichen Grenzwert +∞, falls gilt: Zu jedem
M ∈ R gibt es eine Zahl N (die von ε abhängen darf) mit an > M für alle n ≥ N .
Kurzschreibweise:
lim an = +∞. Der uneigentliche Grenzwert −∞ ist analog definiert.
n→+∞
Man beachte, dass hier keine Zahlen ±∞ definiert werden, mit denen man in irgendeiner
Weise rechnen könnte. In der Definition kommt das Symbol ±∞ ja auch nur als Name vor,
nicht im Sinne einer Zahl!
Die Definition eines Grenzwertes ist praktisch meist wenig geeignet, um die Konvergenz nachzuweisen, insbesondere muss man ja schon im voraus ahnen, wie der Grenzwert denn aussieht. Man würde wohl kaum so einfach auf die Idee kommen, dass etwa
lim (1 + 1/n)n = 2.71728 . . . ist. Deshalb versucht man häufig, komplizierte Folgen auf
n→+∞
Kombinationen einfacher, bei denen man den Grenzwert bzw. dessen Nichtvorhandensein
schon weiß oder leicht erkennen kann, zurückzuführen. Zusammen mit einigen Rechenregeln
kann man dann auf den Grenzwert schließen:
+∞
Für Folgen (an )+∞
n=1 , (bn )n=1 gelten, falls jeweils alle Grenzwerte rechts existieren
(„echte“, keine uneigentlichen!), folgende Regeln:
(i)
(ii)
(iii)
(iv)
lim (c · an ) = c ·
lim (an + bn ) =
lim (an − bn ) =
n→+∞
für völlig beliebiges c ∈ R
lim an +
n→+∞
n→+∞
n→+∞
n→+∞
n→+∞
lim (an · bn ) =
lim an
lim an −
n→+∞
lim an ·
n→+∞
lim an
an
n→+∞
=
(v) n→+∞
bn
lim bn
lim
lim bn
lim bn
n→+∞
n→+∞
lim bn
n→+∞
(hier muss zusätzlich noch lim bn 6= 0 sein)
n→+∞
n→+∞
25
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Achtung! Obige Regeln sind für die uneigentlichen Grenzwerte nicht uneingeschränkt richtig,
(hoffentlich) abschreckende Gegenbeispiele dazu:
lim (11 − n) + n , während
(i) 11 = n→+∞
lim (11 − n) = −∞ und
n→+∞
lim n = +∞ ist.
n→+∞
Eine allgemeine Regel wie „−∞ + ∞ = 0“ stimmt also keineswegs.
lim (17/n) · n , während
(ii) 17 = n→+∞
lim (17/n) = 0 und
n→+∞
lim n = +∞ ist.
n→+∞
So etwas wie „0 · (+∞) = 0“ ist folglich keineswegs immer richtig.
(iii) 23 = lim
n→+∞
Auch „
23n
, während
n
lim (23n) = +∞ und
n→+∞
lim n = +∞ ist.
n→+∞
+∞
= 1“ ist also i. d. R. falsch.
+∞
Alles — mit Ausnahme der uneigentlichen Grenzwerte —, was hier über Folgen gesagt wurde,
kann auch auf Folgen komplexer Zahlen übertragen werden: Man betrachte einfach Realund Imaginärteil separat. Haben beide einen Grenzwert, setzt man daraus den komplexen
Grenzwert der komplexen Zahlenfolge zusammen, existiert auch nur einer der beiden nicht,
hat die gesamte komplexe Folge keinen:
(17 + 2j)n + (9 − 7j)
17n + 9
2n − 7
= lim
+ j lim
= 17 + 2j
n→+∞
n→+∞
n→+∞
n
n
n
lim
Folgen werden häufig auch mit Summen kombiniert: Aus einer Folgen (an )+∞
n=1 bildet man
zuerst die Folge der sog.
Partialsummen (sn )+∞
n=1 , wobei sn =
n
X
ak ist.
k=1
Konvergiert nun die Folge der Partialsummen (sn )+∞
n=1 gegen einen (endlichen, „echten“)
Grenzwert s, so sagt man, dass die (unendliche) Reihe
∞
X
k=1
hat. In Kurzform:
+∞
X
k=1
ak = lim
n→+∞
n
X
!
ak
.
k=1
Anderenfalls sagt man, die Reihe divergiert.
26
ak konvergiert und den Wert s
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Vorsicht vor Fehlinterpretationen! Die Schreibweise
+∞
X
ak bedeutet nicht etwa, dass dort
k=1
unendlich viele Summanden addiert würden. Das ist schlichtweg Unfug, Addition ist nur
für endlich viele Summanden möglich.
Wichtige Beispiele:
(i)
+∞
X
k=1
(ii)
1
2
k
+∞
X
1
k=1 k
konvergiert (sogar statt mit 1/2 auch mit beliebigem x ∈ (−1, 1))
divergiert nach +∞ (harmonische Reihe)
(−1)k
(iii)
k
k=1
+∞
X
+∞
X
konvergiert (alternierende harmonische Reihe)
(iv)
1
α
k=1 k
(v)
π2
1
=
2
6
k=1 k
(vi)
1
π4
=
4
90
k=1 k
divergiert für α ≤ 1 nach +∞, konvergiert für α > 1
+∞
X
+∞
X
Beispiel 3 ist besonders instruktiv; rechnet man die ersten paar Millionen Partialsummen mit
üblicher Gleitkomma-Arithmetik aus, bekommt man fälschlicherweise den Eindruck, dass
wohl Konvergenz vorliegt.
27
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Funktionsgrenzwerte, Stetigkeit
Neben Grenzwerten von Folgen gibt es noch ein weiteren Typ von Grenzwert:
Def. Die Funktion f sei in einem kleinen offenen Intervall um den Punkt x0 definiert,
eventuell mit Ausnahme des Punktes x0 . Man sagt, f habe an der Stelle x0 bzw. im
Punkt x0 den Grenzwert c (wobei c ∈ R sein muss), falls es zu jedem ε > 0 eine Zahl δ > 0
gibt mit: aus 0 < |x − x0 | < δ folgt stets |f (x) − c| < ε.
Kurzschreibweise: x→x
lim f (x) = c oder noch deutlicher x→x
lim f (x) = c.
0
0
x6=x0
Hierbei ist ganz besonders zu beachten: Ob f im Punkt x0 definiert ist, spielt keine Rolle.
Auch wenn f im Punkt x0 definiert ist, ist der Funktionswert dort für den Grenzwert an
der Stelle x0 völlig irrelevant!
Ugs. könnte man sagen, die Funktionswerte müssen sich immer weiter der Zahl c annähern,
je näher x an x0 liegt.
Wie bei Folgengrenzwerten gibt es auch hier noch uneigentliche Grenzwerte (aber eher selten
verwendet), z. B.:
Def. Die Funktion f sei in einem kleinen offenen Intervall um den Punkt x0 definiert,
eventuell mit Ausnahme des Punktes x0 . Man sagt, f habe an der Stelle x0 bzw. im
Punkt x0 den uneigentlichen Grenzwert +∞, falls es zu jedem M ∈ R eine Zahl δ > 0 gibt
mit: aus 0 < |x − x0 | < δ folgt stets f (x) ≥ M . Kurzschreibweise: lim f (x) = +∞.
x→x0
Analog ist der uneigentliche Grenzwert −∞ definiert.
Daneben gibt es noch sog. rechts- bzw. linksseitige Grenzwerte, hierbei werden nur solche
x betrachtet, die rechts von x0 liegen (also größer als x0 sind) bzw. die links von x0 liegen
(also kleiner als x0 sind), die Kurzschreibweisen dafür sind:
lim f (x) oder x→x
lim f (x) oder f (x0 +)
x↓x0
lim f (x) oder x→x
lim f (x) oder f (x0 −)
x↑x0
(rechtsseitiger Grenzwert)
0
x>x0
(linksseitiger Grenzwert)
0
x<x0
Diese einseitigen Grenzwerte werden gelegentlich auch noch „an der Stelle x0 = +∞“ bzw.
„an der Stelle x0 = −∞“ betrachtet:
Def. Die Funktion f sei in einem Intervall (R, +∞) definiert. Man sagt, f habe an der
Stelle +∞ den Grenzwert c (wobei c ∈ R sein muss), falls es zu jedem ε > 0 eine Zahl
K ∈ R gibt mit: aus x0 > K folgt stets |f (x) − c| < ε. Kurzschreibweise: lim f (x) = c.
x→+∞
Analog ist der Grenzwert für x → −∞ definiert. Zwar handelt es sich natürlich in beiden
Fällen um einseitige Grenzwerte, meist wird dennoch x → +∞ (statt x ↑ +∞) geschrieben.
Die rechts- bzw. linksseitigen Grenzwerte kommen recht oft in der Variante als uneigentliche
Grenzwerte vor.
Eine andere, zur oben angegebenen Definition äquivalente Definition eines Funktionsgrenzwertes ist die folgende:
28
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Def. Die Funktion f sei in einem kleinen offenen Intervall um den Punkt x0 definiert,
eventuell mit Ausnahme des Punktes x0 . Man sagt, f habe an der Stelle x0 bzw. im Punkt
x0 den Grenzwert c (wobei c ∈ R sein muss), falls für jede Folge (xn )+∞
n=1 mit xn 6= x0 für
alle n ∈ N und mit lim xn = x0 gilt: lim f (xn ) = c.
n→+∞
n→+∞
Entsprechende alternative Definitionen sind auch für die uneigentlichen und rechts- bzw.
linksseitigen Grenzwerte möglich.
Def. Die Funktion f sei in einem kleinen offenen Intervall um x0 herum definiert. Existiert
lim f (x) und ist dieser Grenzwert gleich f (x0 ), so sagt man, f ist im Punkt x0 stetig. Ist
x→x0
f in jedem Punkt des Definitionsbereichs stetig, so sagt man, f ist stetig.
Analog sagt man z. B., f ist rechtsseitig stetig, wenn f (x0 ) = lim ist. Entsprechend ist
x↓x0
etwa „f sei auf [ a, b ] stetig“ so zu verstehen, dass f in jedem Punkt aus (a, b) stetig, in a
rechtsseitig und in b linksseitig stetig ist. 7
Stetigkeit ist fundamentale Bedingung für jede Art von ingenieurmäßiger Konstruktion:
Die anhand der Zielvorgaben (Festigkeit, Tragfähigkeit, . . . ) berechneten Merkmale eines
Bauteils (Länge, Materialstärke, Legierung, . . . ) können fertigungstechnisch niemals exakt
eingehalten werden; man geht aber natürlich davon aus, dass z. B. eine geringe Abweichung
bei der Materialstärke nur eine geringe Abweichung bei der Tragfähigkeit bewirkt, dass also
die Tragfähigkeit eine stetige Funktion der Materialstärke ist.
Insofern ist der folgende Satz sehr beruhigend:
Satz: Alle elementaren Funktionen (Polynome, rationale Funktionen, trigonometrische Funktionen, Exponential- und Logarithmusfunktionen samt ihrer jeweiligen Unkehrfunktionen) und
daraus mittels Grundrechenarten und Komposition zusammengesetzten Funktionen sind —
innerhalb ihrer jeweiligen Definitionsbereiche — stetig.
Man findet gelegentlich als ugs. Erläuterung für Stetigkeit, dass man den Funktionsgraphen
einer stetigen Funktion ohne Absetzen in einem Zug zeichnen kann. Dies trifft nur im Fall
eines zusammenhängenden Definitionsbereichs zu und läßt sich nicht sinnvoll auf Funktionen
mehrerer Variablen verallgemeinern.
Besser ist als anschauliche Interpretation daher eher: Kleine Änderung bei der (oder den)
Variablen bedeutet auch kleine Änderung beim Funktionswert.
7
Diese Komplikation vermeidet man in der math. Literatur, indem man die Definition der Stetigkeit
etwas weiter fasst: f ist stetig einem Punkt x0 des Definitionsbereichs, falls es zu jedem ε > 0 ein δ > 0
mit |f (x) − f (x0 )| < ε für alle x aus dem Definitionsbereich von f mit 0 < |x − x0 | < δ gibt. Dabei ist
es ausdrücklich zulässig, dass die Bedingung 0 < |x − x0 | < δ für gar kein x im Definitionsbereich von f
erfüllt ist.
29
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Trigonometrische Funktionen, Arkusfunktionen
Die übliche Winkelmessung im Gradmaß ist mathematisch gesehen wenig praktisch8 ; deshalb
verwendet man stattdessen das sog. Bogenmaß: Ein Winkel wird hierbei durch die Länge
des zugehörigen Kreisbogens des Einheitskreises angegeben. Umrechnung:
α (im Bogenmaß)
α (im Gradmaß)
180◦
(im Gradmaß)
π
π
b α·
=
(im Bogenmaß)
180◦
b α·
=
Winkel sind i. d. R. orientiert, es wird im mathematisch positiven Sinn (Gegenuhrzeigersinn)
gemessen. Taschenrechner arbeiten üblicherweise nach jedem Einschalten im Gradmaß ( D
oder DEG von engl. „degrees“) und müssen daher stets aufs Bogenmaß ( R oder RAD
von engl. „radians“) umgeschaltet werden! In allen gängigen Programmiersprachen und
Bibliotheken sind Winkel dagegen immer im Bogenmaß anzugeben!
Die Definition der trigonometrischen Funktionen mittels Seitenlängen im rechtwinkligen
Dreieck ist etwas unpraktisch, da dies nur für Winkel im Bereich (0, π2 ) sinnvoll ist. Deshalb
ist die Definition mittels Zeigerdiagramm vorzuziehen:
Zum Winkel α zeichne man in einem kartesischen Koordinatensystem einen Zeiger (Pfeil)
der Länge 1 vom Nullpunkt aus ein, der mit der positiven x-Achse den Winkel α einschließt.
Vom Endpunkt fälle man das Lot auf die x-Achse, dadurch erhält man ein rechtwinkligen
Dreieck. Der Sinus des Winkels α (sin α) ist nun die Länge der Gegenkathete, der Kosinus
des Winkels α (cos α) die Länge der Ankathete, jeweils mit folgender Konvention bzgl. des
Vorzeichens: Längen auf der positiven x- bzw. y-Achse werden positiv genommen, auf der
negativen x- bzw. y-Achse negativ.
Schließlich definiert man noch den Tangens und Kotangens mittels tan α = sin α/ cos α und
cot α = cos α/ sin α. Aus dem Zeigerdiagramm entnimmt man unmittelbar für alle α ∈ R:
• −1 ≤ sin α ≤ 1
• sin2 α + cos2 α = 1
π
• sin α +
2
− 1 ≤ cos α ≤ 1
und
(trigonometrischer Pythagoras)
= cos α
und
π
cos α +
2
= − sin α
Ferner liest man an den Funktionsgraphen ab, dass für alle α ∈ R gilt:
• sin (α + k · 2π) = sin α
für alle k ∈ Z
(Sinus ist 2π-periodisch)
• sin (α + π) = − sin α
π
π
• sin
− α = sin
+α
2
2
8
Insbesondere ist die z. B. die Ableitung von sin x nur im Bogenmaß der cos x; im Gradmaß käme ein
unschöner Faktor dazu. Daher: Sobald differenziert oder integriert wird, nur das Bogenmaß verwenden!
30
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
• sin (−α) = − sin α
(Sinus ist eine ungerade Funktion)
• cos (α + k · 2π) = cos α
für alle k ∈ Z
(Kosinus ist 2π-periodisch)
• cos (α + π) = − cos α
• cos
π
π
− α = − cos
+α
2
2
• cos (−α) = + cos α
(Kosinus ist eine gerade Funktion)
• tan (α + k · π) = tan α
für alle k ∈ Z
(Tangens ist π-periodisch)
• cot (α + k · π) = cot α
für alle k ∈ Z
(Kotangens ist π-periodisch)
• tan (−α) = − tan α ,
cot (−α) = − cot α
(Tangens, Kotangens sind ungerade)
Besonders zu beachten: Sinus und Kosinus sind erst 2π-periodisch (bei Verschiebung um π
wechselt dagegen das Vorzeichen), während Tangens und Kotangens π-periodisch sind.
Es gibt eine ganze Reihe sog. Additionstheoreme, Doppel- und Halbwinkelformeln, die
wichtigsten sind:
sin(α + β) = sin α · cos β + cos α · sin β
für alle α, β ∈ R
und
cos(α + β) = cos α · cos β − sin α · sin β
für alle α, β ∈ R.
Spezielle Werte der trigonom. Funktionen (für π/12 und 5π/12 eher wenig bekannt):
α
α
sin α
cos α
tan α
cot α
0
0◦
0
1
0
−
π
12
15◦
π
6
30◦
π
4
45◦
1
2
√
2
π
3
60◦
1
2
√
3
5π
12
◦
75
π
2
90◦
1
2
q
2−
√
3
1
2
1
2
1
2
q
√
2+ 3
1
q
2+
√
1
2
√
3
1
2
√
2
3 2−
q
2−
0
√
3
√
1
1
√
1
2
1
2
1
3
√
√
√
3 2+ 3
3 2+
1
3
3
3
√
3
√
√
3 2− 3
−
0
Werte der trigonometrischen Funktionen für Winkel außerhalb dieses Bereichs in Schritten
von π/12 bzw. 15◦ lassen sich unter Benutzung der oben aufgeführten Symmetrien und
Periodizitäten ebenfalls mit dieser Tabelle ermitteln.
31
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Da die trigonometrischen Funktionen alle periodisch sind, sind sie natürlich nicht injektiv,
es gibt also erst einmal keine Umkehrfunktionen! Nur durch „künstliche“ Einschränkung
der Definitionsbereiche werden sie injektiv und damit umkehrbar. Diese Umkehrfunktionen
nennt man Arkusfunktionen (Arkussinus, Arkuskosinus usw.). Die Wahl der verkleinerten
Definitionsbereiche ist recht willkürlich, aber glücklicherweise einheitlich (auch bei Taschenrechnern, Programmiersprachen und Bibliotheken) folgendermaßen:
Funktion Def.bereich Bildbereich
Umkehrfunktion Def.bereich Bildbereich
sin
[ − π2 , π2 ]
[ −1, 1 ]
arcsin
[ −1, 1 ]
[ − π2 , π2 ]
cos
[ 0, π ]
[ −1, 1 ]
arccos
[ −1, 1 ]
[ 0, π ]
tan
(− π2 , π2 )
(−∞, +∞)
arctan
(−∞, +∞)
(− π2 , π2 )
cot
(0, π)
(−∞, +∞)
arccot
(−∞, +∞)
(0, π)
Die hier angegebenen Definitionsbereiche der Umkehrfunktionen sind (aus reeller Sicht)
größtmöglich, so etwas wie arcsin(1.1) gibt es also — zumindest wenn man die
trigonometrischen Funktionen nur in R betrachtet — nicht!
Man beachte, dass die Regel „Funktion und Umkehrfunktion heben sich gegenseitig auf“ nur
in den eingeschränkten Definitionsbereichen gültig ist, außerhalb wird es komplizierter, z. B.
arcsin(sin x) =













x
−x + π
für x ∈ [ − π2 , π2 ]
für x ∈ [ π2 , 3π
]
2
x − 2π für x ∈ [ 3π
, 5π
]
2
2
und umgekehrt:
sin(arcsin x) = x nur für x ∈ [ −1, 1 ], außerhalb ist die linke Seite gar nicht definiert.
Zur Schreibweise: sin2 x ist nur eine Abkürzung für (sin x)2 . Computeralgebrasysteme usw.
verwenden meist sin(x)2 dafür, was nach den Konventionen der mathematischen Literatur
fragwürdig oder als sin(x2 ) zu interpretieren wäre.
Der Grund ist, dass diese Systeme sin() als Funktionssymbol behandeln (die Klammern also
auch immer gesetzt werden müssen), während in der Literatur sin das Funktionssymbol ist
und Klammern nur im Bedarfsfall gesetzt werden.
Vorsicht ist bei sin−1 geboten: Auf Taschenrechnern ist damit die Umkehrfunktion von sin
gemeint, also arcsin (die Tasten sind wohl zu klein . . . ). In den meisten Programmiersprachen
wird asin verwendet. In der Literatur bedeutet sin−1 jedoch den Kehrwert 1/ sin.
32
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Exponential- und Logarithmusfunktionen
Potenzen der Form an (a 6= 0) sind für n ∈ N bekanntlich so erklärt:
an = a
| · a · a{z· . . . · a}
n-mal
Die logische Fortsetzung für negative Potenzen (weiterhin a 6= 0) ist
a−n =
1
an
für n ∈ N
Um zu gebrochenen Exponenten zu kommen, macht man die Einschränkung a > 0:
ap/q =
√
q
ap
für p ∈ Z, q ∈ N
Der nächste Schritt ist der Übergang zu beliebigen reellen Exponenten x (wobei weiterhin
a > 0 vorausgesetzt werden muss):
ax = lim axn ,
n→+∞
wobei (xn )+∞
n=1 irgendeine Folge rationaler Zahlen mit lim xn = x ist.
n→+∞
Natürlich muss man hier noch nachweisen, dass dieser Grenzwert überhaupt existiert und er
auch nicht von der Wahl der Folge abhängt.
Dies führt zu den sog. Exponentialfunktionen: Für jede reelle Zahl a > 0, a 6= 1 bezeichnet
man die gemäß obiger Konstruktion definierte Funktion f : R → (0, +∞) mit f (x) = ax
als die Exponentialfunktion zu Basis a (der Fall a = 1 ist offensichtlich uninteressant).
Wichtigste Eigenschaften, die man unmittelbar an den Funktionsgraphen ablesen kann:
ax (0 < a < 1)
ax (a > 1)
(−∞, +∞)
(−∞, +∞)
(0, +∞)
(0, +∞)
a0
1
1
Nullstellen
−
−
Extremstellen
−
−
Monotonie
streng monoton fallend
streng monoton steigend
Asymptoten
y = 0 für x → +∞
y = 0 für x → −∞
Definitionsbereich
Bildbereich
Die Rechenregeln für diese Exponentialfunktionen ergeben sich automatisch aus denen für
Potenzen mit rationalen Exponenten:
33
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Satz:
9
Ist a > 0, a 6= 1, so gilt für alle reellen Zahlen x,y:
ax+y = ax · ay ,
a−x =
1
,
ax
ax−y =
ax
,
ay
(ax )y = ax·y
1 n
Die Exponentialfunktion zur Basis e = lim 1 +
= 2.71828 . . . (Eulersche Zahl)
n→+∞
n
nennt man auch „die“ Exponentialfunktion. Sie nimmt eine gewisse Sonderstellung ein (vgl.
unten und Kapitel Differenzialrechnung). Überraschenderweise unterscheiden sich die vielen
Exponentialfunktionen gar nicht sonderlich voneinander:
Satz: Zu jeder Zahl a > 0, a 6= 1, gibt es eine reelle Zahl b mit ax = e bx für alle x ∈ R.
Beweisidee: Da der Bildbereich von e x ja (0, +∞) ist, gibt es eine Zahl b mit e b = a. Nach
dem vorherigen Satz ist dann ax = (e b )x = e bx .
Es reicht also, nur eine einzige Exponentialfunktion zu kennen, alle anderen ergeben sich
dann durch eine leichte Umrechnung.
Da diese Funktionen allesamt streng monoton sind, sind sie injektiv, also besitzen sie jeweils
eine Umkehrfunktion, die sog. Logarithmusfunktionen. Die Umkehrfunktion von x 7→ ax
bezeichnet man als den Logarithmus zur Basis a, kurz loga . Die wichtigsten Eigenschaften
ergeben sich unmittelbar aus denen der Exponentialfunktionen:
loga (x) (0 < a < 1)
loga (x) (a > 1)
(0, +∞)
(0, +∞)
(−∞, +∞)
(−∞, +∞)
loga (1)
0
0
Nullstellen
1
1
Extremstellen
−
−
Monotonie
streng monoton fallend
streng monoton steigend
Asymptoten
x = 0 für x ↓ 0
x = 0 für x ↓ 0
Definitionsbereich
Bildbereich
Die Rechenregeln für Exponentialfunktionen haben ihr Gegenstück bei den Logarithmen:
Satz: Ist a > 0, a 6= 1, so gilt für alle positiven reellen Zahlen x,y:
loga (x · y) = loga (x) + loga (y) ,
loga
x
= loga (x) − loga (y) ,
y
loga
1
= − loga (x)
x
loga (xy ) = y · loga (x)
Die Umkehrfunktion „der“ Exponentialfunktion, also von e x , nennt auch den natürlichen
Logarithmus, kurz: ln x = loge (x). Mit diesem kann man beliebige Logarithmen ausdrücken:
9
Diese Rechenregeln sind auch der Grund, dass man a−n = 1/an und ap/q =
34
√
q
ap genau so definiert!
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Satz: Für beliebige a > 0, a 6= 1, gilt
ax = e x·ln a
(x ∈ R)
und
loga (x) =
1
ln x (x > 0)
ln a
In allen gängigen Programmiersprachen werden für e x bzw. ln x die Bezeichnungen exp(x)
bzw. log(x) verwendet. Dort gibt es meist nur die Exponentialfunktion und den Logarithmus
zur Basis e , alle anderen muss man mit Hilfe des vorigen Satzes „nachbauen“!
Dass man die Basis e gern als „Standard“ nimmt, hat auch folgenden Grund:
ex =
+∞
X
1 k
x
k=0 k!
für alle x ∈ R.
Erstaunlicherweise konvergiert diese Reihe nicht nur alle reellen x, sondern sogar für alle
komplexen Zahlen. Damit definiert man umgekehrt die komplexe Exponentialfunktion
ez =
+∞
X
1 k
z
k!
k=0
für alle z ∈ C.
Noch erstaunlicher ist, dass man in dieser komplexen Exponentialreihe alte Bekannte
wiederfindet, berechnet man nämlich e jx für reelles x, erhält man unter Beachtung von
j2k = (−1)k und j2k+1 = j · j2k = j · (−1)k :
e
jx
+∞
X
1
(jx)k =
=
k=0 k!
+∞
X
X j2k+1
j2k 2k +∞
x +
x2k+1
k=0 (2k)!
k=0 (2k + 1)!
|
{z
}
gerade Indizes
=
|
{z
ungerade Indizes
}
+∞
X
+∞
X (−1)k
(−1)k 2k
x +j ·
x2k+1 = cos x + j · sin x
(2k)!
(2k
+
1)!
k=0
k=0
|
{z
= cos x
}
|
{z
= sin x
}
(Natürlich ist nicht auf den ersten Blick klar, dass diese beiden letzten Reihen den Kosinus
bzw. Sinus ergeben!) Da diese Reihen10 auch wieder nicht nur auf ganz R, sondern ganz C
konvergieren, bekommt man damit auch den Sinus und Kosinus für komplexe Zahlen.
Bei der Exponentialreihe kann man elementar nachrechnen, dass e x+y = e x · e y ist, daraus
ergeben sich nebenbei die Additionstheoreme für Sinus und Kosinus, die bekannte Regel
für die Multiplikation komplexer Zahlen in Polarkoordinaten, und man kann die etwas umständliche Ausdrucksweise komplexer Zahlen mittels Sinus und Kosinus deutlich vereinfachen:
z = |z| · cos(arg z) + j sin(arg z) = |z| · e j arg z
für alle z ∈ C
Das hat auch einen ästhetischen Aspekt, die fünf wichtigsten Zahlen 0, 1, e , π und j lassen
sich in ansprechender Weise miteinander verknüpfen: e jπ + 1 = 0
10
Über die Partialsummen kann man sowohl e x , cos x als auch sin x sehr gut näherungsweise berechnen.
35
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Praktische Anwendung findet der Zusammenhang zwischen der komplexen Exponentialfunktion und den trigonometrischen Funktion z. B. bei Multicarrier-Modulationsverfahren: Man
übertrage mehrere sinusförmige Signale gleichzeitig über eine Leitung. Damit vervielfacht
sich (unter günstigen Umständen) die Leitungskapazität. Natürlich müssen sich diese verschiedenen Signale deutlich unterscheiden, damit der Empfänger sie wieder trennen kann.
Bei ADSL(2+)-Modemen wird generell auf Amplitudenmodulation verzichtet (da recht
störanfällig), auch Frequenzmodulation ist aufgrund der hohen Zahl von Trägern (also kleiner
Abstand) kaum sinnvoll möglich. Daher wird ausschließlich die sog. Phasenmodulation verwendet. Außerdem werden keine Signale im hörbaren Bereich verwendet, sondern deutlich
höhere Frequenzen, und zwar ganzzahlige Vielfache von 4312, 5 Hz, demzufolge sieht das
Signal zum Teilnehmer vereinfacht so aus:
f (t) =
512
X
cos 2π · (k · 4312, 5 · t + ϕk )
k=64
wobei die eigentliche Information in den ϕk (Zahlenwerte aus [ 0, 1)) steckt.
Der Empfänger hat nun die Aufgabe, aus diesem Signalgemisch die Information wieder herauszufischen. Einer der Träger, der sog. Pilotton, fällt etwas aus dem Rahmen, er dient
nicht der eigentlichen Informationsübertragung, sondern als Referenz (Signal da bzw. nicht
da, zeitlicher Bezug). Für das Prinzip ist das aber ohne Bedeutung.
Ein denkbarer Ansatz wäre nun, zu verschiedenen Zeitpunkten die Werte von f (t) zu ermitteln, dies ergäbe ein Gleichungssystem mit ebensovielen Gleichungen für die Unkbekannten
ϕk . Dies ist aber praktisch nicht realisierbar, denn erstens handelt es sich um ein — zumindest auf den ersten Blick — nichtlineares Gleichungssystem, zweitens ergäbe sich ja
ein riesiges System (mit über 400 Gleichungen und Unbekannten) und drittens erhält der
Empfänger leider nicht das Originalsignal, sondern ein mehr oder weniger gestörtes. Die
Lösung eines gestörten Systems wiederum muss nicht viel mit der Lösung des ursprünglichen
Systems zu tun haben . . .
Der praktisch angewandte Lösungsweg beruht auf näherungsweiser Integration. Durchsichtiger (das sieht man aber erst später) wird dieses Verfahren, wenn man es nicht reell,
sondern komplex betrachtet:
F (t) =
512
X
exp 2πj · (k · 4312, 5 · t + ϕk )
(das „j“ nicht übersehen!)
k=64
Berücksichtigt man e jx = cos x + j sin x für reelles x, so sieht man
f (t) =
512
X
cos 2π · (k · 4312, 5 · t + ϕk ) = < F (t)
k=64
Der Einfachheit halber betrachten wir zuerst folgende Funktion:
F (t) =
n
X
ak exp 2πj · (k · t + ϕk ) ,
mit 0 ≤ ϕk < 1 für alle k.
k=1
36
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
r
r
(für
zu den Zeitpunkten
n
n
r = 0, 1, 2, . . . , n − 1). Damit macht er für m = 1, 2, 3, . . . , n jeweils folgende Rechnung:
Der Empfänger verfüge jetzt nur über die Abtastwerte F
X
1 n−1
F
n r=0
r
mr exp −2πj ·
n
n
n
X X
r
1 n−1
mr ak exp 2πj · k · + ϕk
=
exp −2πj ·
n r=0 k=1
n
n
!
|
{z
=F
=
=
=
}
r
n
n n−1
X
1X
r
mr ak exp 2πj · (k · + ϕk ) exp −2πj ·
n k=1 r=0
n
n
n n−1
X
X
k=1 r=0
n
X
kr − mr 1
ak exp(2πj · ϕk ) exp 2πj ·
n
n
X
1 n−1
k − m
exp 2πj ·
n r=0
n
ak exp(2πj · ϕk )
k=1
|
(
=
{z
!r !
}
1 , falls k = m
(vgl. S. 38)
0 , falls k 6= m
= am exp(2πj · ϕm )
Beim letzen Schritt ist ganz wesentlich, dass aufgrund von k, m ∈ {1, 2, 3, . . . , n} natürlich
k−m
genau für k = m ganz ist.
k − m ∈ {−(n − 1), . . . , 0, . . . , n − 1} ist, so dass
n
Daraus können nun sehr einfach am und ϕm berechnet werden. Dieses Verfahren wird als
diskrete Fourier-Transformation bezeichnet. Die Rechnung oben ist zwar im Prinzip leicht
nachvollziehbar, einen tieferen Grund dafür, warum dieses Verfahren überhaupt funktioniert,
sieht man erst, wenn man die „normale“ Fourier-Transformation kennt; dazu benötigt man
jedoch die später folgende Integralrechnung.
Die Berechnung aller ak und ϕk ist insgesamt recht aufwändig, wenn man obige Formel
„naiv“ verwendet; man benötigt dann jeweils ca. n2 komplexe Multiplikationen, Additionen
und Berechnungen der komplexen Exponentialfunktionen. Die benötigten Werte der Exponentialfunktion kann man allerdings — festes n vorausgesetzt — auch nur einmal berechnen
und für mehrfache Verwendung in einer Tabelle speichern. Ist n eine Potenz von 2, kann die
Anzahl der benötigten Multiplikationen und Additionen durch eine trickreiche Organisation
der Rechnung ganz drastisch reduziert werden, statt n2 bleiben dann noch etwa n log2 (n)
Operationen. Diese Variante der Berechnung nennt man schnelle Fourier-Transformation
(kurz: FFT für engl. fast Fourier transform). Digitale Signalprozessoren besitzen häufig
spezielle Instruktionen, die dies unterstützen, typisch sind „multiply-and-accumulate“ (ein
Produkt wird zu einem Zwischenergebnis addiert) und „bit-reversal“ (Bitreihenfolge bei einer
Integer-Zahl wird umgedreht).
37
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Im Spezialfall eines ADSL(2+)-Modems (die ak entfallen, da nur Phasenmodulation):
F (t) =
512
X
exp 2πj · (k · 4312, 5 · t + ϕk ) ,
mit 0 ≤ ϕk < 1 für alle k.
k=64
!
r
r
zu den Zeitpunkten
(für r =
Die Abtastwerte sind hier F
512 · 4312, 5
512 · 4312, 5
0, 1, 2, . . . , 511). Der Empfänger ermittelt nun mittels
511
1 X
F
512 r=0
!
mr r
exp −2πj ·
= exp(2πj · ϕm )
512 · 4312, 5
512
(für m = 64, .. . , 512) die Phasenverschiebungen ϕm . Die Berechnung der Faktoren
mr
mr
ist recht problemlos, denn nur der gebrochene Anteil von
spielt eine
exp −2πj ·
512
512
Rolle, während der ganzzahlige wegen exp(2πj) = 1 ohne Bedeutung ist.
Nun zur Summenformel, die bei der Fourier-Transformation eingesetzt wurde. Mit Hilfe
der geometrischen Summenformel erhält man unter Berücksichtigung der Beziehung e jx =
cos x + j sin x für alle m ∈ Z, n ∈ N:
X
1 n−1
mk
exp 2πj ·
n k=0
n
!
X
1 n−1
m
=
exp 2πj ·
n k=0
n

1


· n,



n


k








m
6= 1
n
, falls exp 2πj ·
falls
1,
m
=1
n
!n
m
1 − exp 2πj ·
=

n
1


·



m

 n
1 − exp 2πj ·
n

falls exp 2πj ·
m
∈Z
n
m =  1 1 − exp 2πj · n · n
m

·
, falls
∈
/Z



m
n

 n
1 − exp 2πj ·
n

m

1,
falls
∈Z



n


1
1−1
m
=

·
, falls
∈
/Z


m

n
n


1 − exp 2πj ·
n

m


∈Z
 1 , falls
n
=
m


 0 , falls
∈
/Z
n
38
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Hyperbelfunktionen
Die sog. Hyperbelfunktionen sind wie folgt definiert:
sinh x =
e x − e −x
2
(Hyperbelsinus oder lat. Sinus hyperbolicus)
e x + e −x
cosh x =
2
(Hyperbelkosinus)
tanh x =
sinh x
e x − e −x
= x
cosh x
e + e −x
(Hyperbeltangens)
coth x =
cosh x
e x + e −x
= x
sinh x
e − e −x
(Hyperbelkotangens)
Einige elementare Eigenschaften der Hyperbelfunktionen:
• sinh (−x) = − sinh x
(Hyperbelsinus ist eine ungerade Funktion)
• cosh (−x) = + cosh x
(Hyperbelkosinus ist eine gerade Funktion)
• tanh (−x) = − tanh x ,
coth (−α) = − coth α
(tanh, coth sind ungerade)
• cosh2 x − sinh2 x = 1
Beim Hyperbelsinus, Hyperbeltangens und -kotangens sieht man leicht, dass sie auf R bzw.
R\{0} streng monoton und damit injektiv sind. Beim Hyperbelkosinus ist dies zumindest auf
[ 0, +∞) bzw. auf (−∞, 0 ] der Fall. Daher gibt es auch die entsprechenden Umkehrfunktionen, die sog. Areafunktionen, etwa Areasinus hyperbolicus:
Funkt. Def.bereich
Bildbereich
Umkehrfunkt.
Def.bereich
Bildbereich
sinh
R
R
arsinh
R
R
cosh
[ 0, +∞)
[ 1, +∞)
arcosh
[ 1, +∞)
[ 0, +∞)
tanh
R
(−1, +1)
artanh
(−1, +1)
R
coth
R \ {0}
R \ [ −1, +1 ]
arcoth
R \ [ −1, +1 ]
R \ {0}
Die Umkehrfunktionen kann man auch direkt mit dem natürlichen Logarithmus ausdrücken:
arsinh x = ln x +
√
x2 + 1 ,
1 1 + x artanh x = ln
,
2 1 − x
arcosh x = ln x +
√
x2 − 1 ,
1 1 + x arcoth x = ln
2 1 − x
39
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Dass bei artanh und arcoth dasselbe steht, ist kein Fehler. Beide sind dennoch völlig
unterschiedliche Funktionen, denn ihre Definitionsbereiche sind verschieden (sogar disjunkt)!
Kennt man die Hyperbelfunktionen nur für reelle Argumente, fallen vielleicht ein paar Ähnlichkeiten zu den trigonometrischen Funktionen auf, dennoch bleiben die Bezeichnungen
eher mysteriös. Dies ändert sich, wenn man die trigonometrischen Funktionen und Hyperbelfunktionen auch für komplexe Argumente in Betracht zieht, dann liefert die komplexe
Exponentialfunktion schlagartig einen ganz einfachen Zusammenhang:
(cos x + j sin x) − (cos(−x) + j sin(−x))
e jx − e −jx
=
2
2
(cos x + j sin x) − (cos x − j sin x)
=
= j sin x
2
sinh(jx) =
Diese Identität lässt sich auch auf komplexes x erweitern und analog auch für die anderen
Hyperbelfunktionen nachrechnen, so dass insgesamt für beliebiges z ∈ C gilt:
sinh(jz) = j sin z ,
tanh(jz) = j tan z ,
cosh(jz) = cos z
coth(jz) = −j cot z .
Insbesondere sind die Hyperbelfunktionen also 2πj- bzw. πj-periodisch, was man anhand der
reellen Funktionsgraphen wohl kaum vermuten würde.
Eigentlich sind die Hyperbelfunktionen eher ein Artefakt der Unkenntnis (der komplexen
Zahlen und der komplexen Exponentialfunktion) und somit mehr oder minder eine überflüssige Erfindung.
Dem Hyperbelkosinus begegnet man im täglichen Leben auf Schritt und Tritt: Ein ideales
Seil, dass an beiden Enden aufgehängt wird, hängt genau in Form des Hyperbelkosinus durch
(s. Kapitel Differenzialgleichungen).
40
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Vektorrechnung
In vielen technischen bzw. physikalischen Fragestellungen kommen neben Größen, die durch
Maßzahl und Einheit bereits vollständig beschrieben sind (sog. skalare Größen, etwa Temperatur, Druck, Masse), auch Größen vor, die erst durch zusätzliche Angabe einer Richtung
vollständig beschrieben sind, sog. vektorielle Größen (etwa Kraft, Geschwindigkeit, Beschleunigung, Impuls). Der Umgang mit solchen vektoriellen Größen — oder abstrakter mit
Vektoren — wird im Folgenden betrachtet. Die folgende Definition ist anschaulich geprägt
und wenig präzise, der mathematisch übliche Zugang ist recht abstrakt und soll hier nicht
verfolgt werden.
Def.: Ein Vektor ist ein Pfeil (im Raum oder in der Ebene), er wird üblicherweise mit
Kleinbuchstaben mit darübergesetztem Pfeil gekennzeichnet (z. B. ~a, im Buchdruck auch
durch fette lateinische Buchstaben oder Frakturbuchstaben — in beiden Fällen ohne Pfeil
darüber), seine Länge wird Betrag des Vektors genannt (Kurzschreibweise |~a|. Der Vektor
mit Länge 0 heißt Nullvektor bzw. ~0, er hat keine Richtung.
Ob ein Vektor an einen festen Punkt gebunden ist (sog. gebundener Vektor, etwa Ortsfektor
von fest gewähltem Bezugspunkt aus), entlang seiner Wirkungslinie (Verlängerung des Pfeils
in beide Richtungen) verschiebbar oder sogar parallel zu sich selbst frei verschiebbar ist, ist
weniger eine mathematische Frage, sondern hängt eher von der konkreten Anwendung ab,
ist also ein Frage der physikalischen Größe, die durch Vektor beschrieben werden soll.
Das Rechnen mit Vektoren läßt sich nun zunächst graphisch erklären:
Def.: Sind ~a, ~b irgendwelche Vektoren, so ergibt sich Ihre Summe ~a +~b wie folgt: Der Vektor
~b wird parallalel zu sich selbst verschoben, so dass sein Anfangspunkt mit dem Endpunkt von
~a zur Deckung kommt. Dann ist ~a + ~b der Vektor vom Anfangspunkt von ~a zum Endpunkt
von ~b.
Satz: Für beliebige Vektoren ~a, ~b, ~c gilt:
(i) ~a + ~b = ~b + ~a
(ii) (~a + ~b) + ~c = ~a + (~a + ~c)
Aufgrund der letzen Eigenschaft sind bei Summen von Vektoren die Klammern überflüssig.
Def.: Für einen Vektor ~a und λ ∈ R ist λ · ~a der Vektor mit Betrag |λ| · |~a| und derselben
(falls λ > 0) bzw. entgegengesetzten (falls λ < 0) Richtung wie ~a.
Damit ergibt sich sofort auch die Subtraktion von Vektoren, indem man ~a − ~b als ~a + (−1)~b
interpretiert. Häufig wird der Multiplikations-Punkt auch weggelassen, man schreibt also
kurz λ~a statt λ · ~a. Obwohl streng genommen so etwas wie ~aλ nicht definiert ist, wird es
üblicherweise als dasselbe wie λ~a interpretiert. Trotzdem sollte man sich angewöhnen, einen
reellen Faktor stets vor den Vektor zu setzen.
Satz: Für beliebige Vektoren ~a, ~b und λ, µ ∈ R gilt:
(i) λ(µ~a) = (λµ)~a
(iii) (λ + µ)~a = (λ~a) + (µ~b)
(ii) λ(~a + ~b) = (λ~a) + (λ~b)
Bei Kombinationen von Produkt reelle Zahl mit Vektor und Summen bzw. Differenzen
von Vektoren bzw. reellen Zahlen ist die Auswertungsreihenfolge so wie bei reellen Zahlen
41
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
festgelegt: Zuerst Klammern, dann Punkt- vor Strichrechnung, sonst von links nach rechts.
Deshalb sind beim vorigen Satz die Klammern rechts jeweils überflüssig (links nicht!).
Def.: Ein Vektor mit Betrag 1 heißt Einheitsvektor.
1
Satz: Ist ~a 6= ~0, so ist ~e~a =
~a der Einheitsvektor mit derselben Richtung wie ~a.
|~a|
Man beachte, dass hier nicht der Vektor durch eine Zahl dividiert, sondern mit der Zahl 1/|~a|
multipliziert wird. ~e~a heißt Einheitsvektor in Richtung ~a.
Def.: Das Skalarprodukt (oder inneres Produkt) zweier Vektoren ~a, ~b ist die reelle Zahl ~a ·~b =
|~a|·|~b|·cos ϕ, wobei ϕ der (betragsmäßig kleinere der beiden) von ~a und ~b eingeschlossene(n)
Winkel ist.
Man beachte, dass Winkel üblicherweise orientiert, also mit Vorzeichen betrachtet werden.
Daher müsste man eigentlich etwas präziser vom Winkel ausgehend von ~a zu ~b sprechen. Da
der Kosinus jedoch eine gerade Funktion, also cos ϕ = cos(−ϕ) ist, spielt hier das Vorzeichen
von ϕ keine Rolle.
Statt ~a · ~b wird meist kurz ~a~b geschrieben. Hinsichtlich Auswertungsreihenfolge ist das
Skalarprodukt eine „Punkt“-Operation. Neben diesen beiden Schreibweisen findet man in der
math. Literatur auch (~a, ~b) oder h~a, ~bi.
Satz: Für beliebige Vektoren ~a, ~b, ~c und λ, µ ∈ R gilt:
(i) ~a · ~b = ~b · ~a
(iii) λ(~a · ~b) = (λ~a) · ~b
(ii) ~a · (~b + ~c) = (~a · ~b) + (~a · ~c)
Auch hier sind die Klammern rechts wieder überflüssig. Man kann also bei den bisher
eingeführten Rechenoperationen für Vektoren im Prinzip genauso wie bei reellen Zahlen
ausmultiplizieren usw.
Es gibt keine sinnvolle Division bei Vektoren. Insbesondere folgt aus ~a · ~b = ~a · ~c eben
nicht ~b = ~c. „Kürzen“ ist beim Skalarprodukt also nicht möglich.
Def.: Vektoren ~a, ~b heißen orthogonal (nicht: orthogonal zueinander), falls ~a · ~b = 0 ist.
Dies unterscheidet sich vom ugs. Begriff „senkrecht zueinander“, dort wird der Fall, dass
einer der Vektoren der Nullvektor ist, nicht betrachtet: zwei Vektoren sind orthogonal, wenn
einer der Vektoren der Nullvektor ist oder der eingeschlossene Winkel ±π/2 beträgt.
Def.: n Vektoren a~1 , a~2 , . . . , a~n heißen orthogonal (nicht: orthogonal zueinander), falls für
alle k, r ∈ {1, 2, . . . , n} mit k 6= r, stets a~k · a~r = 0 ist.
Def.: Das Kreuz- bzw. Vektorprodukt ~a × ~b zweier Vektoren ~a, ~b ist der Vektor mit:
(i) a, ~a × ~b sowie b, ~a × ~b sind orthogonal
(ii) |~a × ~b| = |~a| · |~b| · | sin ϕ|, wobei ϕ der von ~a und ~b eingeschlossen Winkel ist
(iii) ~a, ~b, ~a × ~b (in genau dieser Reihenfolge!) bilden ein sog. Rechtssystem
42
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Ein Rechtssystem läßt sich mittels der „Rechten-Hand-Regel“ veranschaulichen: Zeigt der
Daumen der rechten Hand in Richtung ~a, der Zeigefinger in Richtung ~b und dann der Mittelfinger in Richtung ~c so bilden ~a, ~b, ~c ein Rechtssystem. Die Reihenfolge der Vektoren ist
hierbei natürlich entscheidend!
Def.: Vektoren ~a und ~b heißen parallel (bzw. antiparallel), falls einer der beiden Vektoren
der Nullvektor ist oder sie den Winkel 0 (bzw. den Winkel π) einschließen.
Satz: Zwei Vektoren ~a und ~b sind parallel oder antiparallel genau dann, wenn ~a × ~b = ~0 ist.
Satz: Für beliebige Vektoren ~a, ~b, ~c und λ, µ ∈ R gilt:
(i) ~a × ~b = −~b × ~a
(iii) λ(~a × ~b) = (λ~a) × ~b
(ii) ~a × (~b + ~c) = (~a × ~b) + (~a × ~c)
(iv) ~a · (~a × ~b) = ~0 = ~b · (~a × ~b)
Man beachte den ersten Teil besonders: Bei Vertauschung der Reihenfolge dreht sich
die Richtung des Kreuzproduktes herum. Beim Kreuzprodukt ist also die Reihenfolge
der Faktoren peinlichst genau zu beachten. Hinsichtlich Auswertungsreihenfolge zählt
das Kreuzprodukt zu den „Punkt“-Operationen. Allerdings sollte man sicherheitshalber
Klammern setzen, sobald in einem Ausdruck Kreuzprodukt und z. B. Skalarprodukt
gleichzeitig vorkommen, sonst wird es leicht ziemlich verwirrend. Der letzte Teil ist genau
die Eigenschaft, dass das Kreuzprodukt und je einer seiner Faktoren orthogonal sind. Da
das Kreuzprodukt recht kompliziert, dagegen ein Skalarprodukt sehr einfach zu berechnen
ist (s. weiter unten), ist diese Eigenschaft als Probe sehr hilfreich!
Wie beim Skalarprodukt: Es gibt keine sinnvolle Division bei Vektoren. Insbesondere folgt
aus ~a × ~b = ~a × ~c eben nicht ~b = ~c. „Kürzen“ ist beim Kreuzprodukt also nicht möglich.
Bei der bisherigen Betrachtungsweise für Vektoren als Pfeile kann man zwar auf graphischem
Wege rechnen, das ist jedoch mühsam und stößt insbesondere, wenn die beteiligten Vektoren
nicht in einer (Zeichen-) Ebene liegen, auf praktische Schwierigkeiten. Außerdem ist das
Berechnen des Kreuzprodukts so natürlich äußerst unpraktisch. Daher ist es sinnvoll, eine
zahlenmäßige Beschreibung für Vektoren zu finden, mit der man — hoffentlich — leicht
rechnen kann. Dies leistet die sog. Koordinatendarstellung:
Zunächst wird ein rechtwinkliges räumliches Koordinatensystem mit x-, y- und z-Achse und
vorzeichenbehaftete Skalen auf allen drei Achsen festgelegt. Um einen beliebigen Vektor ~a
zu beschreiben, wird er parallel zu sich selbst so verschoben, dass sein Anfangspunkt im
Kooordinatenursprung liegt.
Dann fälle man ein Lot vom Endpunkt des Vektors auf die x-y-Ebene. Der Vektor vom
Lotfußpunkt zum Endpunkt von ~a heißt z-Komponente des Vektors ~a, kurz ~az . Von diesem
Lotfußpunkt fälle man dann das Lot auf die x-Achse einerseits und auf die y-Achse andererseits. Die Vektoren von den Lotfußpunkten auf der x- bzw. y-Achse zum ersten Lotfußpunkt
heißen x- bzw. y-Komponente von ~a, kurz ~ax bzw. ~ay . Unmittelbar klar ist ~a = ~ax +~ay +~az .
Die Komponenten sind natürlich parallel zu der jeweiligen Koordinatenachse. Man überlegt
sich, dass diese Zerlegung von ~a einerseits eindeutig ist und andererseits umgekehrt durch
beliebige Vorgabe von solchen drei Vektoren ~ax , ~ay , ~az sich sich stets ein Vektor ~a in eindeutiger Weise ergibt. Jeder Vektor ~a läßt sich also eindeutig durch seine drei Komponenten
~ax , ~ay , ~az beschreiben.
43
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Durch die Skalen auf den Achsen sind Einheitsvektoren ~ex , ~ey , ~ez in Richtung der positiven
Koordinatenachsen vorgegeben. Folglich gibt es Zahlen ax , ay , az , die sog. Koordinaten des
Vektors ~a, so dass
~ax = ax · e~x ,
~ay = ay · e~y ,
~az = az · e~z
und damit
~a = ax · e~x + ay · e~y + az · e~z
ist. Damit ist (nach Festlegung eines Koordinatensystems!) der Vektor ~a eindeutig durch
seine Koordinaten ax , ay , az beschrieben. Deshalb kann man ~a auch mit diesen drei Zahlen
identifizieren:


ax


b  ay 
~a =
az
Das Rechnen mit Vektoren
Koordinatendarstellungen
sieht so aus:



 in ihren
bx
ax




b  by  und λ ∈ R gilt 11 :
b  ay , ~b =
Satz: Für Vektoren ~a =
bz
az


ax + b x


~
b  ay + b y 
(i) ~a + b =
az + b z
(iii) ~a · ~b = ax · bx + ay · by + az · bz


ay · b z − az · b y


~
b  az · b x − ax · b z 
(iv) ~a × b =
ax · b y − ay · b x


λax


b  λay 
(ii) λ~a =
λaz
(v) |~a| =
q
a2x + a2y + a2z
Merkregel für das Kreuzprodukt: Für die erste Zeile halte man die erste Zeile bei den Faktoren zu, die restlichen vier Zahlen überkreuz multiplizieren und die Ergebnisse voneinander
abziehen, beginnend mit links oben mal rechts unten. Bei der dritten Zeile analoge Vorgehensweise. Bei der mittleren Zeile ist die Reihenfolge umgedreht, aber ansonsten
wieder das gleiche Prinzip.
Die Formel zur Berechnung des Betrages ist eine zweifache Anwendung des Satzes des
Pythagoras.
11
Im Folgenden wird statt des „ =“
b nurmehr „=“ geschrieben.
44
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Da es für das Skalarprodukt nun zwei unterschiedliche Berechnungsweisen gibt, ergibt sich
Möglichkeit zur Winkelmessung bzw. -berechnung:
Satz: Sind ~a und ~b beide 6= ~0, so gilt für den von ihnen eingeschlossenen Winkel ϕ:
cos ϕ =
~a · ~b
.
|~a| · |~b|
Wie schon erwähnt, spielt hier das Vorzeichen von ϕ keine Rolle.
Das Kreuzprodukt hat eine interessante Anwendung bei Flächenberechnungen:
Satz: Das von zwei Verktoren ~a, ~b aufgespannte Parallelogramm (bzw. Dreieck) hat den
Flächeninhalt |~a × ~b| (bzw. 21 |~a × ~b|).
Ein Punkt P mit den Koordinaten (x, y, z) läßt sich eindeutig durch seinen sog. Ortsvektor,
der Vektor p~ vom Koordinatenursprung zum Punkt P , beschreiben. Wenn im Folgenden von
einem „Punkt p~ “ gesprochen wird, ist damit der Punkt P gemeint, dessen Ortsvektor p~ ist.
Def.: Eine Gerade g ist {~p + λ~a : λ ∈ R} oder etwas kürzer formuliert g: p~ + λ~a, wobei
~a 6= ~0 sei. p~ ist ein fester Punkt der Geraden, ~a heißt Richtungsvektor.
Diese Beschreibungform kann man suggestiv als „Punkt-Richtungs-Form“ bezeichnen. „Der“
Richtungsvektor ~a ist nicht eindeutig bestimmt, er kann für beliebiges µ 6= 0 durch µ~a ersetzt
werden. Auch „der“ feste Punkt p~ kann für beliebiges µ durch (~p + µ~a) ersetzt werden.
Def.: Eine Ebene E ist {~p +λ~a +µ~b : λ, µ ∈ R} oder etwas kürzer formuliert E: p~ +λ~a +µ~b,
wobei ~a × ~b 6= ~0 vorausgesetzt ist.
Die Bezeichnung ist „Punkt-Richtungs-Form“ oder auch „Parameterform“. Die Forderung
~a × ~b 6= ~0 besagt, dass ~a und ~b nicht parallel bzw. antiparallel sind, damit man wirklich eine
Ebene und nicht nur eine Gerade bzw. einen Punkt erhält. Wie bei Geraden sind p~, ~a und ~b
nicht eindeutig bestimmt.
Satz: Der Abstand d der beiden Punkte p~ und ~q ist d = |~p − ~q|.
Satz: Der Abstand d des Punktes ~q zur Geraden g: p~ + λ~a ist d =
1
|(~p − ~q) × ~a|.
|~a|
Beim Abstand zweier Geraden ist zu unterscheiden, ob sie parallel sind oder nicht:
Def.: Zwei Geraden g1 , g2 heißen parallel, wenn für ihre beiden Richtungsvektoren ~a1 , ~a2 gilt
~a1 × ~a2 = ~0. Sie heißen windschief, wenn ~a1 × ~a2 6= ~0 ist.
Bisweilen wird bei „windschief“ der Sonderfall, dass sich die Geraden schneiden, ausdrücklich
ausgeschlossen, hier ist er aber mit eingeschlossen, damit die Definition möglichst kurz wird.
Analog ist bei „parallel“ auch der Fall, dass beide Geraden identisch sind, eingeschlossen.
Satz: Für den Abstand d zweier Geraden g1 : p~1 + λa~1 , g2 : p~2 + λa~2 gilt:
(i) Ist ~a1 × ~a2 = ~0, so ist d =
1
|(~p1 − p~2 ) × ~a1 |.
|~a1 |
(ii) Ist ~a1 × ~a2 6= ~0, so ist d =
1
|(~p1 − p~2 ) · (~a1 × ~a2 )|.
|~a1 × ~a2 |
45
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Der Abstand ist genau dann = 0, wenn g1 ,g2 einen Schnittpunkt haben oder identisch sind.
Unter dem Schnittwinkel zweier Geraden ist der betragsmäßig kleinere der beiden möglichen,
und zwar ohne Vorzeichen, zu verstehen:
Satz: Für den Schnittwinkel ϕ (0 < ϕ ≤ π/2) zweier sich in genau einem Punkt schneidender
Geraden g1 : p~1 + λa~1 , g2 : p~2 + λa~2 gilt:
cos ϕ =
~
~
a · b
|~a| · |~b|
Satz: Ist E = {~p + λ~a + µ~b : λ, µ ∈ R} eine Ebene, so gibt es einen Vektoren ~n 6= ~0 und
einen Vektor ~r, so dass E = {~q : (~q − ~r) · ~n = 0} ist.
Hier kann man z. B. ~n = ~a × ~b und ~r = p~ nehmen. Umgekehrt gilt:
Satz: Ist ~n 6= ~0 und ~r ein beliebiger Vektor, so ist E = {~q : (~q − ~r) · ~n = 0} eine Ebene.
Beide Sätze zusammen zeigen, dass es neben der Parameterform noch eine zweite Möglichkeit
gibt, eine Ebene zu beschreiben, die sog. Normalenform: {~q : (~q − ~r) · ~n = 0}, wobei ~n 6= ~0
ein sog. Normalenvektor, der auf der Ebene senkrecht steht, und ~r ein Punkt der Ebene ist.
„Der“ Normalenvektor ~n und „der“ feste Punkt ~r sind wieder nicht eindeutig bestimmt.
Satz: Der Abstand d des Punktes p~ zur Ebene E = {~q : (~q − ~r) · ~n = 0} ist
d=
1
|(~p − ~r) · ~n| .
|~n|
Satz: Für den Abstand d der Geraden g: p~ + λ~a zur Ebene E = {~q : (~q − ~r) · ~n = 0} gilt:
(i) Ist ~a · ~n = 0, so ist d =
1
|(~p − ~r) · ~n|.
|~n|
(ii) Ist ~a · ~n 6= 0, so ist d = 0 und es gibt einen Schnittpunkt für λ = −
(~p − ~r) · ~n
.
~a · ~n
Der Schnittwinkel ist wieder der betragsmäßig kleinere der beiden möglichen ohne Vorzeichen:
Satz: Für den Schnittwinkel ϕ (0 < ϕ ≤ π/2) einer Geraden g: p~ + λ~a und einer Ebene
E = {~q : (~q − ~r) · ~n = 0}, die sich genau in einem Punkt schneiden, gilt:
sin ϕ =
|~a · ~n|
|~a| · |~n|
Satz: Für den Abstand d von E1 = {~q : (~q − ~r1 ) · ~n1 = 0}, E2 = {~q : (~q − ~r2 ) · ~n2 = 0} gilt:
(i) Ist ~n1 × ~n2 = ~0, so sind E1 und E2 parallel und d =
1
|(~r2 − ~r1 ) · ~n1 |.
|~n1 |
(ii) Ist ~n1 × ~n2 6= ~0, so sind E1 und E2 nicht parallel, d = 0, und E1 , E2 schneiden sich
genau in einer Geraden.
46
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Die Schnittgerade läßt sich sehr einfach ermitteln, wenn eine Ebene in Normalenform, die
andere dagegen in Parameterform vorliegt: E1 = {~q : (~q − ~r1 ) · ~n1 = 0}, E2 : p~ + λ~a + µ~b.
Durch „Einsetzen von E2 in E1 “ erhält man die Gleichung
(~p + λ~a + µ~b) −~r1 · ~n1 = 0
|
{z
}
E2
Einfaches Ausmultiplizieren des Skalarproduktes ergibt eine lineare Gleichung (keine Vektorgleichung bzw. Gleichungssystem!) in λ und µ. Auflösen nach λ oder µ und Einsetzen der
rechte Seite in E2 ergibt die Schnittgerade.
Ist das Auflösen nicht möglich, weil λ und µ beide herausfallen, so sind E1 und E2 parallel.
Der Schnittwinkel ist wieder der betragsmäßig kleinere der beiden möglichen ohne Vorzeichen:
Satz: Für den Schnittwinkel ϕ (0 < ϕ ≤ π/2) von Ebenen E1 = {~q : (~q − ~r1 ) · ~n1 = 0},
E2 = {~q : (~q − ~r2 ) · ~n2 = 0}, die sich genau in einer Geraden schneiden, gilt:
cos ϕ =
|~n1 · ~n2 |
|~n1 | · |~n2 |
Dass bei allen drei Formeln für Schnittwinkel jeweils der Betrag des Skalarprodukts steht,
ist natürlich kein Zufall: Bei Geraden kann man den Richtungsvektor umdrehen, ohne dass
sich die Gerade ändert, analog bei einer Ebene den Normalenvektor. Durch das Umdrehen
ändert sich allerdings gerade das Vorzeichen des betreffende Skalarprodukts.
Neben dem Skalar- und Vektorprodukt gibt es noch ein weiteres, weniger wichtiges Produkt
im Zusammenhang mit Vektoren, jedoch nun für drei Faktoren:
Def.: Das Spatprodukt der Vektoren ~a, ~b, ~c (in genau dieser Reihenfolge!), kurz h~a, ~b, ~ci, ist
definiert als die Zahl h~a, ~b, ~ci = ~a · (~b × ~c).
Das Kreuzprodukt rechts ergibt einen Vektor, also ist das Produkt links ein Skalarprodukt
zweier Vektoren und damit das Ergebnis tatsächlich eine Zahl.
Satz: Für beliebige Vektoren ~a, ~b, ~c gilt:
(i) h~a, ~b, ~ci = h~b, ~c, ~ai = h~c, ~a, ~bi (zyklische Vertauschbarkeit)
(ii) h~a, ~b, ~ci = −h~b, ~a, ~ci = −h~c, ~b, ~ai = −h~a, ~c, ~bi
(Vorzeichenwechsel bei Vertauschung zweier Faktoren)
(iii) h~a, ~b, ~ci > 0 genau dann, wenn ~a, ~b, ~c ein Rechtssystem bilden
(iv) h~a, ~b, ~ci ist das Volumen des von ~a, ~b, ~c aufgespannten Spats
Man findet auch andere Schreibweisen für das Spatprodukt, die etwa im Papula verwendete arg missverständliche [~a ~b ~c] ist ein steter Quell groben Unfugs infolge Tunnelblicks
...
Mit Hilfe des Spatproduktes lassen sich einige der Abstandsformeln scheinbar vereinfachen.
Kennt man die Definition des Spatproduktes jedoch, ist klar, dass es keinen Unterschied
gibt.
47
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
LGSe und Gaußscher Algorithmus
Def.: Ein lineares Gleichungssystem (kurz: LGS) der Dimension (m, n), d. h. mit m Gleichungen für die n Variablen x1 , . . . , xn , hat die Form
a1,1 x1
a2,1 x1
a3,1 x1
..
.
+ a1,2 x2
+ a2,2 x2
+ a3,2 x2
..
.
+ a1,3 x3
+ a2,3 x3
+ a3,3 x3
..
.
am,1 x1 + am,2 x2 + am,3 x3
+ · · · + a1,n xn
+ · · · + a2,n xn
+ · · · + a3,n xn
..
..
.
.
+ · · · + am,n xn
= c1
= c2
= c3
..
.
= cm
Die Zahlen ak,r heißen Koeffizienten (der erste Index ist der Zeilen-, der zweite der Spaltenindex, beide beginnen links oben mit 1; wenn keine Mißverständnisse zu befürchen sind,
läßt man das Komma weg und schreibt also akr statt ak,r ), die Zahlen ck rechte Seiten des
LGS. Unter einer Lösung des LGS vesteht man einen kompletten Satz von Zahlenwerten
für x1 , . . . , xn , so dass damit alle Gleichungen gleichzeitig erfüllt sind.
In Kurzform schreibt man solch ein LGS auch als sog. erweiterte Koefizientenmatrix









a1,1
a2,1
a3,1
..
.
a1,2
a2,2
a3,2
..
.
a1,3
a2,3
a3,3
..
.
am,1 am,2 am,3
· · · a1,n c1
· · · a2,n c2
· · · a3,n c3
..
..
..
.
.
.
· · · am,n cm









.
Hierbei ist natürlich vereinbart, dass die erste Spalte zu x1 , die zweite zu x2 usw. gehört.
Ohne die Spalte aus den rechten Seiten nennt man dieses Schema Koeffizientenmatrix.
Satz: Für ein (m, n)-LGS tritt stets genau eine der folgenden Alternativen ein:
(i) es gibt keine Lösung
(ii) es gibt genau eine Lösung
(iii) es gibt unendlich viele verschieden Lösungen, dabei gibt es eine Zahl p ∈ {1, 2, . . . , n},
so dass eine gewisse Auswahl von p der insgesamt n Variablen frei wählbar sind,
während sich die restlichen n − p Variablen dann in eindeutiger Weise (in Abhängigkeit
von den frei wählbaren) ergeben.
Achtung, man trifft immer wieder auf das Gerücht, ein (n, n)-LGS (also mit ebenso vielen
Gleichungen wie Variablen) wäre stets lösbar oder sogar stets eindeutig lösbar. Dies ist
falsch! An der Dimension eines LGSs allein kann man i. d. R. nicht ablesen, welche der
drei Alternativen eintritt. Lediglich wenn es weniger Gleichungen als Variablen gibt, kann
man unmittelbar sagen, dass es entweder gar keine oder unendlich viele Lösungen gibt.
Ansonsten ist die Dimension allein nicht aussagekräftig.
Ein LGS bzw. seine erweiterte Koeffizientenmatrix kann mit folgenden Operationen umgeformt werden, ohne dass sich die Lösungsmenge ändert:
48
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
• Vertauschung zweier Zeilen (Gleichungen)
• Multiplikation einer Zeile (Gleichung) mit einer beliebigen Zahl 6= 0
• Addition eines beliebigen Vielfaches einer Zeile zu einer anderen Zeile (die Zeile, deren
Vielfaches genommen wird, bleibt dabei selbst unverändert!)
• Zeilen, die nur Nullen enthalten (inklusive rechte Seite!) können ersatzlos entfallen.
• Spalten (Variablen) dürfen im Prinzip ebenfalls vertauscht werden, wenn man die Variablenbezeichnungen in gleicher Weise tauscht. Da dies aber schnell sehr unübersichtlich wird, in dies zumindest bei manueller Rechnung tunlichst zu vermeiden.
Beispiel: Für das (3, 3)-LGS mit Parametern α, β (feste aber unbekannte Zahlen)


1
2
3
0

β 
−1
 −2 −3

6
6 (2 − α) (−5 − 3β)
stellt man nach kurzer Rechnung fest, dass folgende drei Fälle zu unterscheiden sind:
−5 + 3β
α 6= 14: Dann gibt es genau eine Lösung, nämlich x3 =
, x2 = β − 5x3 und
14 − α
x1 = −2x2 − 3x3 .
α = 14 und β 6= 35 : Dann gibt es gar keine Lösung.
α = 14 und β = 35 : Dann kann man z. B. x3 frei wählen, und x2 = β − 5x3 sowie x1 =
−2x2 − 3x3 ergeben sich aus der Wahl von x3 in eindeutiger Weise. Es gibt also
unendliche viele verschiedene (da sie sich mindestens in x3 unterscheiden) Lösungen.
Zur Lösung insbesondere auch größerer LGSe in systematischer Weise (und eben nicht kreuz
und quer durcheinander) gibt es den sog. Gaußschen Algorithmus: Dabei wird das LGS mit
einigen der oben genannten Rechenoperationen solange umgeformt, bis ein sog. gestaffeltes
LGS übrigbleibt, das im Anschluss einfach von unter her aufgerollt werden kann:
Das LGS sei nun bereits so umgeformt, dass es folgende Gestalt hat (die leeren Plätze links
unten bedeuten lauter Nullen, zu Beginn des Algorithmus ist r = 1, k = 1, d. h. den
Nullblock links unten gibt es noch gar nicht):
a1,1 a1,2 a1,3 · · ·

a2,2 a2,3 · · ·


...











a1,k
a2,k
..
.
···
···
a1,n
a2,n
..
.
ar,k · · · ar,n
ar+1,k · · · ar+1,n
..
..
.
.
am,k · · · am,n
c1
c2
..
.







cr 

cr+1 

.. 

. 
cm
Ein Schritt des Gaußschen Algorithmus lautet nun:
49
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
(i) Ist ar,k = 0, tausche man die r-te Zeile mit einer darunterliegenden, wo in der
k-ten Spalte der Koeffizient 6= 0 ist. Folgen jedoch in der Spalte nur Nullen, sind also
ar,k , ar+1,k , ar+2,k , . . . , am,k alle Null, erstreckt sich der Nullblock eine Spalte weiter
nach rechts. Dann ersetze man k durch k + 1 und wiederhole die Überlegung. War
man bereits bei der letzten Koeffizientenspalte, ist das Verfahren erfolgreich beendet.
ar+2,k
ar+1,k
-fache der r-ten Zeile wird zur r + 1-ten Zeile addiert, das −
-fache
ar,k
ar,k
der r-ten Zeile wird zur r + 2-ten Zeile addiert usw. Damit werden (mindestens) die
neuen Koeffizienten ar+1,k , ar+2,k , . . . , am,k zu Null.
(ii) Das −
Die damit erreichte Gestalt ist im Prinzip genauso wie vorher, nur dass der Nullblock links
unten um mindestens eine Spalte nach rechts angewachsen ist.
Dieser Schritt wird nun oft wiederholt, bis entweder ein (erfolgreicher) Abruch im Teil (i)
erfolgt oder man (erfolgreich) bei der letzten Zeile angelangt ist. Übrig ist dann etwas wie
2 ∗ ∗ ∗

 0 0 2 ∗


0 2














0
..
.
..
.
..
.
0 0 0
..
.
∗ ∗
∗ ∗
∗ ∗
...
..
. 2
∗ ··· ∗
∗ ··· ∗
∗ ··· ∗
∗ ··· ∗
0 0 ···
.. ..
. . ···
0 ··· 0 0 ···
0
..
.
0
c1
c2
c3
..
.










cr 


cr+1 

.. 

. 
cm
Dabei steht „2“ für eine Zahl 6= 0 (und zwar in jeder Zeile jeweils der erste Koeffizient
6= 0), „∗“ für irgendeine Zahl. Die c1 , . . . , cm sind natürlich nicht mehr die ursprünglichen,
sondern die mit umgerechneten. Für die „Treppe“ aus den „2“ gilt nach vollständiger
Durchführung des Algorithmus:
(i) Alle „Stufen“ haben die Höhe 1, d. h. von Zeile zu Zeile rutscht die Position des „2“
immer mindestens eine Spalte weiter nach rechts (es kann aber durchaus breitere
Stufen geben)
(ii) in den Zeilen unterhalb des letzten „2“, also in den Zeilen r + 1,. . . , m, sind alle
Koeffizienten = 0 (aber nicht notwendigerweise die rechten Seiten).
Satz: Nach vollständiger Durchführung des Gaußsche Algorithmus gilt:
(i) Ist eine der Zahlen cr , . . . , cm 6= 0, so hat das LGS keine Lösung.
(ii) Ist r = n und alle cr+1 , . . . , cm (so vorhanden) = 0, so hat das LGS genau eine Lösung:
xn ergibt sich eindeutig aus der n-ten Zeile, xn−1 eindeutig durch Einsetzen von xn in
die (n − 1)-te Zeile, xn−2 eindeutig durch Einsetzten von xn und xn−1 in die (n − 2)-te
Zeile usw.
50
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
(iii) Ist r < n und alle cr+1 , . . . , cm (so vorhanden) = 0, so hat das LGS unendlich viele
Lösungen. Dabei können alle Variablen, die zu Spalten ohne ein „2“ gehören, frei
gewählt werden. Die restlichen Variablen ergeben sich dann durch Auflösen des LGS
von unten nach oben in eindeutiger Weise aus diesen frei gewählten Variablen (und
sind meist von den frei wählbaren abhängig).
Die Auswahl, welche Variablen frei wählbar sind, muss nicht unbedingt nach dem angegebenen Schema erfolgen, ist also nicht immer eindeutig, andererseits aber keineswegs beliebig.
Die Anzahl der frei wählbaren Variablen dagegen ist eindeutig bestimmt. Die genannte
Vorschrift liefert stets eine richtige Auswahl für die frei wählbaren Variablen.
Die Anzahl der „2“ im gestaffelten LGS nennt man auch den (Zeilen-) Rang der
ursprünglichen Koeffizientenmatrix.
Der beschriebene Gaußsche Algorithmus funktioniert so wie beschrieben immer — zumindest theoretisch. Praktisch ist er durchaus auch noch für größere LGSe bis einige 10.000
Zeilen bzw. Variablen brauchbar, sofern man ihn mit Rücksicht auf die bei Rechnern begrenzte Rechengenauigkeit etwas verfeinert: Die Division durch die ar,k ist numerisch ungünstig,
wenn diese Zahlen vergleichsweise klein sind, also nahe bei 0 liegen. Daher werden vor jedem
Schritt Zeilen- und ggf. auch Spaltenvertauschungen vorgenommen, um die betragsgrößte
Zahl aus dem Block rechts unterhalb von ar,k (nur diese werden im weiteren Verlauf der
Rechnung noch „angefasst“) in diese Position zu bringen. Dies nennt man Spalten- bzw.
Total-Pivotsuche.
51
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Matrizen
Def.: Eine (m, n)-Matrix ist ein rechteckiges Zahlenschema mit m-Zeilen und n-Spalten,
Schreibweise:









a1,1
a2,1
a3,1
..
.
a1,2
a2,2
a3,2
..
.
a1,3
a2,3
a3,3
..
.
am,1 am,2 am,3
· · · a1,n
· · · a2,n
· · · a3,n
..
..
.
.
· · · am,n









Die Zahlen ak,r heißen Elemente der Matrix, k ist der Zeilen, r der Spaltenindex. Sofern
keine Mißverständnisse auftreten können, schreibt man auch akr statt ak,r . Matrizen werden
üblicherweise mit lat. Großbuchstaben abgekürzt: A = (ak,r ) bedeutet, dass A eine Matrix
mit den Elementen ak,r ist.
Def.: Zwei Matrizen A = (ak,r ), B = (bk,r ) heißen gleich (kurz: A = B), wenn die
Zeilenzahl von A gleich der von B, die Spaltenzahl von A gleich der von B und die korrespondierenden Elemente von A und B sämtlich gleich sind.
Def.: Eine (m, n)-Matrix A = (ak,r ) wird mit einer Zahl λ ∈ R multipliziert, indem sämtliche
Elemente von A mit λ multipliziert werden, d. h. λA = (λak,r ).
Def.: Zwei (m, n)-Matrizen A = (ak,r ) und B = (bk,r ) werden addiert, indem ihre korrespondierenden Elemente addiert werden, d. h. A + B = (ar,k + br,k ).
Man beachte, dass nur Matrizen gleicher Größe überhaupt gleich sein können. Insbesondere
dürfen Nullzeilen oder -spalten nicht stillschweigend hinzugefügt oder weggelassen werden!
Auch können nur Matrizen gleicher Größe addiert werden! Recht offensichtlich ist der
Satz: Sind A, B irgendwelche (m, n)-Matrizen und λ, µ ∈ R, so gilt:
(i) λ(µA) = (λµ)A
(ii) A + B = B + A
(iii) λ(A + B) = (λA) + (µB)
Die Auswertungsreihenfolge ist wie üblich, daher sind die Klammern rechts überflüssig.
Def.: Ist A = (ak,r ) eine (m, p)-Matrix und B = (bk,r ) eine (p, n)-Matrix, so ist ihr Produkt
A · B bzw. AB die (m, n)-Matrix C = (ck,r ) mit
ck,r =
p
X
(ak,l bl,r ) .
l=1
Merkregel: „(m, p) · (p, n) = (m, n)“, die Zahlen innen müssen gleich sein, das Ergebnis
„erbt“ die beiden äußeren Zahlen.
Zum Ausrechnen des Produkts: Für ck,r , also das Element in der k-ten Zeile, r-ten Spalte
nehme man aus der ersten Matrix die k-te Zeile, von der zweiten die r-te Spalte. Beide haben
nun gleich viele Elemente, so dass man die Zahlen paarweise miteinander multiplizieren und
alles addieren kann (ähnlich wie beim Skalarprodukt von Vektoren).
Satz: Ist A eine (m, p)-, B eine (p, r)- und C eine (r, n)-Matrix, so gilt:
52
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
(i) λ(AB) = (λA)B = A(λB)
(ii) A(BC) = (AB)C
Deshalb läßt man bei mehrfachen Produkten die Klammern meist auch gleich ganz weg. Die
zweite Regel ist natürlich keineswegs offensichtlich. Die Analogie zu dem Produkt reeller
Zahlen ist nämlich nicht so weitreichend:
Das Matrizenprodukt ist nicht kommutativ, d. h. AB und BA sind meist verschieden.
Schon von der Größe der Matrizen her ist es so, dass BA keineswegs definiert sein muss,
wenn AB definiert ist. Selbst wenn AB und BA beide definiert sind, haben die beiden
Ergebnisse meist unterschiedliche Größe. Und selbst wenn AB und BA gleich groß sind,
ist es ein seltener Zufall, wenn beide gleich sind!
Auch ist „Kürzen“ beim Matrizenprodukt nicht möglich: Aus AB = AC folgt nicht
B = C, analog folgt aus BA = CA auch nicht B = C.
Weiterhin gibt es sog. Nullteiler, d. h. Matrizen A, B, die beide nicht nur aus Nullen
bestehen, wobei trotzdem AB nur aus Nullen besteht. Also kann man aus AB = 0 nicht
(A = 0 oder B = 0) folgern („0“ meint Matrizen aus lauter Nullen mit passenden Größen).
Die folgende Regel dagegen ist wieder ziemlich naheliegend:
Satz: Ist A eine (m, p)-Matrix, B und C jeweils (p, n)-Matrizen, so gilt
A(B + C) = (AB) + (AC)
Man darf also wie gewohnt ausmultiplizieren. Analog ist (A + B)C = (AC) + (BC), sofern
die Matrizen der Größe nach passen. Natürlich gilt hier auch wieder „Punkt-vor-Strich“, so
dass die Klammern rechts überflüssig sind.
Def.: Die (n, n)-Einheitsmatrix En ist die (n, n)-Matrix, bei der auf der Hauptdiagonalen
(von links oben nach rechts unten) lauter Einsen und sonst nur Nullen stehen.
Man rechnet leicht nach, dass für eine beliebige (m, n)-Matrix A stets AEn = A und
Em A = A ist. Die Einheitsmatrizen spielen also beim Matrizenprodukt eine der der Zahl 1
bei der normalen Multiplikation vergleichbare Rolle.
Def. Ist A = (ak,r ) ein (m, n)-Matrix, so ist die Transponierte der Matrix A, geschrieben
AT , die (n, m)-Matrix mit den Elementen bk,r = ar,k .
Die Transponierte entsteht also, indem man die Zeilen von A als Spalten schreibt oder man
die Matrix A an der Hauptdiagonalen (von links oben nach rechts unten) spiegelt.
Satz: Sind A, B irgendwelche Matrizen, so gilt (falls die Operationen definiert sind):
(i) (AT )T = A
(ii) (A + B)T = AT + B T (iii) (AB)T = B T AT
Matrizen mit nur einer Spalte identifiziert man gern mit Vektoren und verwendet die
entsprechende Schreibweise. Damit lassen sich LGSe sehr elegant formulieren:









a1,1
a2,1
a3,1
..
.
a1,2
a2,2
a3,2
..
.
a1,3
a2,3
a3,3
..
.
am,1 am,2 am,3
· · · a1,n c1
· · · a2,n c2
· · · a3,n c3
..
..
..
.
.
.
· · · am,n cm









53
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
ist mit der Vereinbarung

A=








a1,1
a2,1
a3,1
..
.
a1,2
a2,2
a3,2
..
.
a1,3
a2,3
a3,3
..
.
am,1 am,2 am,3
· · · a1,n
· · · a2,n
· · · a3,n
..
..
.
.
· · · am,n


















,
~x =
x1
x2
x3
..
.
xn


















,
~c =
c1
c2
c3
..
.
cm









dasselbe wie die Matrizengleichung A~x = ~c, wie man durch ausmultiplizieren sofort erkennt.
Vorsicht, ~x hat n Zeilen bzw. Koordinaten, während die Anzahl bei ~c jedoch m beträgt.
Def.: Ein LGS, bei dem alle rechten Seiten = 0 sind, also etwa A~x = ~0 heißt homogenes
LGS, sonst inhomogenes LGS. Ersetzt man bei einem LGS A~x = ~c die rechte Seite ~c durch
~0, so heißt das neue LGS A~x = ~0 das zum ursprünglichen gehörige homogene LGS.
Satz: Ein homogenes LGS A~x = ~0 hat stets mindestens eine Lösung, nämlich ~x = ~0, die sog.
triviale Lösung. Für ein beliebiges LGS A~x = ~c gilt: Ist ~xs eine (spezielle, partikuläre) Lösung,
so ist die Lösungsmenge des LGS {~xs +~xh | ~xh ist Lösung des zugehörigen homogenen LGS}.
Def.: Ist A eine (n, n)-Matrix, so nennt man eine (n, n)-Matrix B, die AB = En und
BA = En erfüllt, eine Inverse von A bzw. eine inverse Matrix von A.
Da die Matrizenmultiplikation nicht kommutativ ist, wird bei dieser Definition AB = En
und BA = En gefordert. Tatsächlich ist es aber so, dass es reicht, eines zu verlangen:
Satz: A, B, C seien (n, n)-Matrizen. Dann gilt:
(i) Ist AB = En oder BA = En , so ist AB = En und BA = En .
(ii) Ist AB = En und AC = En , so ist B = C.
Es gibt also zu jeder (n, n)-Matrix A höchstens eine inverse Matrix, diese bezeichnet man
kurz als A−1 .
Beweis von (ii): Wegen (i) ist AB = En , BA = En , AC = En und CA = En . Damit folgt
B = En B = (CA) B = C (AB) = CEn = C , also B = C .
| {z }
=En
| {z }
=En
Der Nachweis von (i) ist deutlich komplizierter, deshalb sei darauf verzichtet.
Abgesehen von der Problematik mit der Reihenfolge beim Matrizenprodukt gibt es hinsichtlich inverser Matrix weitere Ähnlichkeiten mit dem Kehrwert bei Zahlen:
Satz: A, B seien (n, n)- Matrizen. Dann gilt:
(i) Sind A und B invertiertbar, so ist auch AB invertierbar mit (AB)−1 = B −1 A−1 .
(ii) Ist AB invertierbar, so sind A und B invertierbar mit A−1 = B(AB)−1 und B −1 =
(AB)−1 A.
54
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
−1
−1
)A−1 = AA−1 = En . Nach dem
Beweis: Zu (i): (AB) (B −1 A−1 ) = A(BB
| {z })A = (AE
| {z n}
−1
=En
−1
−1
=A
vorigen Satz ist damit (AB) = B A .
Zu (ii): A (B(AB)−1 ) = (AB)(AB)−1 = En , also ist A−1 = B(AB)−1 .
Weiter ist ((AB)−1 A) B = (AB)−1 (AB) = En , also B −1 = (AB)−1 A.
Beide Beweise bestehen eigentlich nur aus geschicktem Umklammern . . .
Bei einer (2, 2)-Matrix kann man ihre inverse Matrix sofort angeben:
a b
c d
!−1




1
d −b
a
=  ad − bc −c

 existiert nicht ,
!
, falls ad − bc 6= 0
falls ad − bc = 0
Die Berechnung der Inversen bzw. allein schon die Entscheidung, ob sie existiert, ist dagegen
bei größeren Matrizen zwar algorithmisch einfach, aber extrem rechenintensiv. Es macht
daher praktisch gesehen keinen Sinn, ein LGS über die Berechnung der Inversen der Koeffizientenmatrix lösen zu wollen (wenn die Inverse überhaupt existiert). Der folgende Satz ist
daher nur von theoretischem Interesse:
Satz: Ist A eine invertierbare (n, n)-Matrix, so hat das (n, n)-LGS A~x = ~c für jede beliebige rechte Seite ~c (wobei ~c genau n Koordinaten habe) genau die Lösung ~x = A−1~c.
Hat umgekehrt das (n, n)-LGS A~x = ~c für jede rechte Seite ~c genau eine Lösung, so ist A
invertierbar.
Die Berechnung der inversen Matrix kann beispielsweise mittels einer Erweiterung des
Gaußschen Algorithmus, des sog. Gauß-Jordan-Algorithmus erfolgen, wo die rechte
Seite nun nicht nur eine Spalte, sondern die (n, n)-Einheitsmatrix En ist:

a1,1

 a2,1









a3,1
..
.
a1,3
a2,3
···
···
a1,n−1
a2,n−1
a1,n
a2,n
1 0
0 1
a3,2
..
.
a3,3
..
.
···
..
.
a3,n−1
..
.
a3,n
..
.
0
..
.
an−1,1 an−12 an−1,3 · · · an−1,n−1 an−1,n 0
an,1
an,2
an,3 · · · an,n−1
an,n 0

··· 0 0

··· 0 0 


..
. 0 0 
0 1

.. . . . . . . .. 
.
. . 
.
.

0 ··· 0
1 0 

0 ··· 0
0 1
a1,2
a2,2
0
0
Zunächst wird der gewöhnliche Gaußsche Algorithmus simultan für alle rechten Seiten
durchgeführt, dabei sei davon ausgegangen, dass keine Zeilenvertauschungen nötig sind
(sollte das doch der Fall sein, erscheinen die Einsen und die restlichen Koeffizienten auf
der rechten Seite etwas durcheinander gewürfelt, optisch nicht so schön, aber für die weitere
Rechnung bedeutungslos):

a1,1 a1,2 a1,3 · · ·

 0
a2,2 a2,3 · · ·









0
..
.
0
..
.
0
0
0
0
a3,3 · · ·
..
.
···
0
a1,n−1
a2,n−1
a1,n
a2,n
a3,n−1
..
.
a3,n
..
.
1
b2,1
0
1
0
0
b3,1
..
.
b3,2
..
.
1
..
.
···
···
..
.
..
.
0
0
0
..
.

0

0 

0
..
.
an−1,n−1 an−1,n bn−1,1 bn−1,2 · · · bn−1,n−2
1
0
0
an,n
bn,1
bn,2 · · · bn,n−2 bn,n−1 1
55








Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
(Die Koeffizienten ak,r sind natürlich nicht mehr die ursprünglichen aus A). Dabei gilt: A
ist invertierbar genau dann, wenn hier alle Diagonalelemente a1,1 , a2,2 , . . . , an,n 6= 0 sind.
1
, die zweite mit
Danach wird die erste Zeile mit a1,1
(natürlich mit anderen Koeffizienten ar,k bzw. br,k ):

1 a1,2 a1,3 · · · a1,n−1

 0
1 a2,3 · · · a2,n−1









0
..
.
0
..
.
0
0
0
0
a1,n
a2,n
b1,1
b2,1
0
b2,2
1
a2,2
usw. multipliziert, man erhält
0
0
···
···
...
...
0
0
· · · a3,n−1 a3,n
b3,1
b3,2 b3,3
0
0
.
.
.
.
..
...
...
...
..
..
..
..
.
1
an−1,n bn−1,1 bn−1,2 · · · bn−1,n−2 bn−1,n−1 0
··· 0
0
1
bn,1
bn,2 · · · bn,n−2
bn,n−1 bn,n
1

0

0 









Im letzten Schritt wird der Gaußsche Algorithmus noch einmal, allerdings umgekehrt angewandt, d. h. das −an−1,n -fache der n-ten Zeile wird zur (n − 1)-ten Zeile, das −an−2,n fache der n-ten Zeile wird zur (n − 2)-ten Zeile addiert usw. und damit die Koeffizienten
an−1,n , an−2,2 , . . . , a1,n zu Null gemacht. Dann analog für die (n−1)-te Spalte, die (n−2)-te
Spalte usw. bis zur zweiten Spalte. Das Ergebnis ist dann links En und rechts A−1 :

1

 0









0
..
.
0
0
···
···
..
.
0
1
.. .. ..
.
.
.
0 ··· 0
0 ··· 0
0
1
0
0
0 0
0 0
b1,1
b2,1
b1,2
b2,2
b1,3
b2,3
···
···
b1,n−1
b2,n−1
0
..
.
b3,1
..
.
b3,2
..
.
b3,3
..
.
···
..
.
b3,n−1
..
.
0
..
.
1 0 bn−1,1 bn−12 bn−1,3 · · · bn−1,n−1
0 1 bn,1
bn,2
bn,3 · · · bn,n−1

b1,n

b2,n 

b3,n
..
.






bn−1,n 

bn,n
Auch hier ist natürlich zu beachten, dass die Zahlenwerte der bk,r natürlich nicht mit denen
aus dem vorigen Rechenschritt identisch sind!
Sofern dieser Algorithmus vollständig durchführbar ist, liefert er inverse Matrix. Es gibt nur
eine mögliche Ursache, warum er scheitern kann: Ist nämlich in der Dreiecksform (letzte
Seite unten) auch nur eines der Diagonalelemente a1,1 , a2,2 , . . . , an,n = 0, kann man an
seiner Stelle natürlich keine 1 mehr bekommen. In diesem Fall gibt es dann auch tatsächlich
keine inverse Matrix.
56
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Determinanten
Def.: Für eine (2, 2)-Matrix A = (ak,r ) ist ihre Determinante
a
a
det(A) = |A| = 1,1 1,2
a2,1 a2,2
= a1,1 a2,2 − a2,1 a1,2
und für eine (n, n)-Matrix A = (ak,r ) mit n ≥ 3 ist ihre Determinante
a1,1 a1,2
a2,1 a2,2
det(A) = |A| = a3,1 a3,2
..
..
.
.
an,1 an,2
a1,3 · · ·
a2,3 · · ·
a3,3 · · ·
..
..
.
.
an,3 · · ·
an,n a1,n
a2,n
a3,n
..
.
=
n
X
(−1)k+1 ak,1 det(Ak,1 )
k=1
Dabei ist Ak,r die (n − 1, n − 1)-Matrix, die aus A durch Streichen der k-ten Zeile und r-ten
Spalte entsteht.
(Die erste Spalte hat hier — allerdings nur scheinbar — eine Sonderrolle. Man könnte die
Determinante einer (1, 1)-Matrix A = (a1,1 ) als det(A) = |A| = |a1,1 | = a1,1 definieren
und als Ausgangspunkt für die rekursive Definition von (2, 2)-, (3, 3)-Determinanten usw.
nehmen. Nur ist |a1,1 | leider schon für den Betrag von a1,1 vergeben . . . )
Dies ist eine rekursive Definition, z. B. ist eine (4, 4)-Determinante aus vier (3, 3)Determinanten, diese wiederum jeweils aus drei (2, 2)-Determinanten zusammengesetzt. Der
Aufwand zur Berechnung wächst also unerfreulicherweise wie n! an. Spezialfälle:
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3
a3,1 a3,2 a3,3
=
+a1,1 a2,3 − a2,1 a3,3 a2,2
a3,2
+ a3,1 a3,3 a1,2 a1,3 a3,2
a1,2 a1,3
a2,2 a2,3
(rechts stehen nur noch (2, 2)-Determinanten!) und
a1,1
a2,1
a3,1
a4,1
a1,2
a2,2
a3,2
a4,2
a1,3
a2,3
a3,3
a4,3
a1,4
a2,4
a3,4
a4,4
=
+a1,1 +a3,1 a2,2 a2,3 a2,4
a3,2 a3,3 a3,4
a4,2 a4,3 a4,4
a1,2 a1,3 a1,4
a2,2 a2,3 a2,4
a4,2 a4,3 a4,4
− a2,1 − a4,1 a1,2 a1,3 a1,4 a3,2 a3,3 a3,4
a4,2 a4,3 a4,4
a1,2 a1,3 a1,4
a2,2 a2,3 a2,4
a3,2 a3,3 a3,4
(rechts stehen nur noch (3, 3)-Determinanten!). Die Lücken zeigen jeweils an, welche Elemente der ursprünglichen Matrix gestrichen wurden.
57
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Zur Berechnung einer (3, 3)-Determinante findet man auch die Sarrus- bzw. Jägerzaunregel. Diese gilt aber wirklich nur für (3, 3)-Determinanten, sonst ist sie falsch!
Satz: [Laplacescher Entwicklungssatz] Für eine (n, n)-Matrix A = (ak,r ) mit n ≥ 3 ist
ihre Determinante für beliebiges r ∈ {1, 2, 3, . . . , n}
a1,1 a1,2
a2,1 a2,2
det(A) = |A| = a3,1 a3,2
..
..
.
.
an,1 an,2
a1,3 · · ·
a2,3 · · ·
a3,3 · · ·
..
..
.
.
an,3 · · ·
an,n a1,n
a2,n
a3,n
..
.
=
n
X
(−1)k+r ak,r det(Ak,r )
k=1
Dabei ist Ak,r die (n − 1, n − 1)-Matrix, die aus A durch Streichen der k-ten Zeile und r-ten
Spalte entsteht.
Die erste Spalte hat also — anders als die ursprüngliche Definition der Determinante vielleicht
vermuten ließ — doch keine Sonderrolle, man kann die Determinante „nach einer beliebigen
Spalte entwickeln“, ja man kann sogar „nach einer beliebigen Zeile entwickeln“ kann, denn:
Satz: Für jede (n, n)-Matrix A mit n ≥ 2 gilt det(A) = det(AT ).
Nützlich zur Berechnung sind die beiden vorstehenden Sätze, wenn in der Matrix eine Zeile
oder Spalte fast nur Nullen enthält. Ist dass nicht der Fall, kann man jedoch etwas nachhelfen:
Satz: Für eine beliebige (n, n)-Matrix A gilt:
(i) Bei Vertauschung zweier Zeilen ändert die Determinante ihr Vorzeichen.
(ii) Addiert man ein beliebiges Vielfaches einer Zeile zu einer anderen Zeile, ändert sich
die Determinante nicht.
(iii) Multipliziert man alle Elemente einer Zeile mit einer Zahl λ, multipliziert sich die
Determinante ebenfalls mit λ.
In diesem Satz darf man auch überall gleichzeitig „Zeile“ durch “Spalte“ ersetzen.
Satz: [Determinanten-Multiplikationssatz] Sind A, B irgendwelche (n, n)-Matrizen, so ist
det(AB) = det(A) det(B).
Da offensichtlich alle Einheitsmatrizen En die Determinante 1 haben, ergibt sich sofort, dass
für eine invertierbare Matrix A stets det(A−1 ) = 1/ det(A) und damit det(A) 6= 0 ist.
Tatsächlich ist das sogar charakteristisch für invertierbare Matrizen:
Satz: Eine (n, n)-Matrix A ist genau dann invertierbar, wenn det(A) 6= 0 ist.
Beweisidee: Dass det(A) 6= 0 ist, wenn A−1 existiert, wurde schon begründet. Setzt man
umgekehrt voraus, dass det(A) 6= 0 ist, so erkennt man, dass das Gauß-Jordan-Verfahren
erfolgreich durchgeführt werden kann und die Inverse von A liefert, denn A hat bis eventuell
aufs Vorzeichen genau dieselbe Determinante wie die linke Matrix auf Seite 55 unten — jeder
Gauss-Eliminationsschritt ändert höchstens das Vorzeichen der Determinante (s. o.).
58
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Nebenbei ergibt sich, dass beim Gaußschen Algorithmus die Determinante der Koeffizientenmatrix ganz automatisch mit abfällt: Diese ist nämlich genau das Produkt der Hauptdiagonalelemente der Endform, wenn die Anzahl der Zeilenvertauschungen gerade bzw. das
negative davon, wenn die Anzahl der Zeilenvertauschungen ungerade war.
Mittels Determinanten läßt sich unter gewissen Bedingungen die Lösung eines LGSs direkt
angeben. Die folgende Regel ist aber nur für (2, 2)- oder bestenfalls noch (3, 3)-LGSe praktikabel, da der Rechenaufwand im Vergleich zum Gaußschen Algorithmus mit wachsender
Größe deutlich schneller ansteigt:
Satz: [Cramersche Regel] Ist für eine (n, n)-Matrix A ihre Determinante det(A) 6= 0, so hat
das LGS A~x = ~c für beliebige rechte Seite ~c stets genau eine Lösung, und zwar gilt für die
einzelnen Koordinaten der Lösung ~x:
xk =
det(Ak )
det(A)
für k = 1, 2, . . . , n.
Dabei ist Ak die (n, n)-Matrix, die aus A durch Ersetzen der k-ten Spalte durch die rechte
Seite ~c entsteht.
Bei einem (4, 4)-LGS muss man also bereits fünf (4, 4)-Determinanten ausrechnen . . .
Satz: Ist für eine (n, n)-Matrix A ihre Determinante det(A) = 0, so hat das LGS A~x = ~c
entweder gar keine Lösung oder unendlich viele Lösungen. Welcher dieser beiden Fälle
eintritt, kann je nach rechter Seite verschieden sein.
Bei det(A) = 0 ist also ausgeschlossen, dass ein LGS A~x = ~c genau eine Lösung hat. Dass
die Auswahl aus den anderen beiden Fällen tatsächlich von der rechten Seite abhängen kann,
zeigt das Beispiel A = 0 (Nullmatrix, bestehend aus lauter Nullen). Für ~c = ~0 ist jeder
Vektor ~x Lösung des LGS, für ~c 6= ~0 dagegen gibt es gar keine Lösung.
59
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Eigenwerte und Eigenvektoren
Die gesamte Matrizen- und Determinantenrechnung benutzt lediglich die Grundrechenarten
für reelle Zahlen, das gleiche gilt auch für LGSe. Daher ist es ziemlich offensichtlich, dass
man genauso gut auch überall komplexe Zahlen statt nur reeller Zahlen verwenden kann,
was nun auch vorausgesetzt sei.
Analoges gilt für die Vektorrechnung, allerdings betrachten wir nicht mehr nur Vektoren mir
genau drei, sondern mit n Koordinaten, reell oder komplex, diese werden stillschweigend mit
(n, 1)-Matrizen identifiziert. Eine Veränderung
gibt es nun allerdings beim Skalarprodukt
√
von Vektoren: Damit die Regel |~a| = ~a · ~a auch bei Vektoren mit komplexen Koordinaten
gültig bleibt, muss man das Skalarprodukt etwas modifizieren:






a1
a2
..
.
an
 
 
 
·
 
 
b1
b2
..
.






= a1 · b 1 + a2 · b 2 + · · · + an · b 2
bn
Dies bedeutet allerdings ~a · ~b = ~b · ~a, d. h. die Kommutativität geht teilweise verloren.
Das Kreuzprodukt hingegen gibt es nur bei Vektoren mit genau drei Koordinaten, bei komplexen Koordinaten ist es außerdem eher uninteressant.
Def. Ist A eine (n, n)-Matrix, so nennt man λ ∈ C Eigenwert (kurz EW, engl. eigenvalue)
von A, falls es ein Vektor ~x 6= ~0 gibt, so dass A~x = λ~x ist. Solch ein Vektor ~x heißt dann
Eigenvektor (kurz EV, engl. eigenvector) zum Eigenwert λ.
Achtung, bei den Begriff Eigenwert und Eigenvektor ist der Nullvektor ausdrücklich ausgeschlossen, sonst wäre er EV zu jeder beliebigen Zahl, und das wäre doch uninteressant.
Da A~x = λ~x äquivalent zu (A − λEn )~x = ~0 ist, ein homogenes (n, n)-LGS genau dann eine
nichttriviale Lösung hat, wenn es unendlich viele Lösungen besitzt, und dies wiederum genau
dann der Fall ist, wenn die Determinante der Koeffizientenmatrix = 0 ist, hat man den
Satz: λ ∈ C ist genau dann EW der (n, n)-Matrix A, wenn det(A − λEn ) = 0 ist.
Durch Entwicklung dieser Determinante sieht man:
det(A − λEn ) =
a1,1 − λ
a1,2
a1,3
a1,4
···
a1,n
a2,1
a2,2 − λ
a2,3
a2,4
···
a2,n
a3,1
a3,2
a3,3 − λ
a3,4
···
a3,n
..
..
..
..
.
.
.
.
an−1,1
an−1,2
···
an−1,n−2 an−1,n−1 − λ an−1,n
an,1
an,2
···
an,n−2
an,n−1
an,n − λ
= (−1)n λn + cn−1 λn−1 + cn−2 λn−2 + · · · + c1 λ + c0
Dieses Polynom mit Grad n heißt charakteristisches Polynom der Matrix A (nicht ganz
einheitlich: man findet auch det(λEn − A); das ergibt eventuell umgedrehte Vorzeichen, ist
für die Nullstellen aber belanglos). Die EWe von A sind mithin gerade die Nullstellen des
60
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
charakteristischen Polynoms von A. Hierbei muss man im Allgemeinen auch mit komplexen
Nullstellen rechnen, daher ist hier die Verwendung komplexer Zahlen meist unumgänglich.
Zur praktischen Bestimmung der EWe einer größeren Matrix ist diese Beziehung aber denkbar
ungeeignet, denn erstens ist die Berechnung der Koeffizienten des Polynoms sehr aufwendig
(z. B. ist c0 = det(A)), und zweitens ist die Berechnung der Nullstellen eines Polynoms
höheren Grades problematisch. Daher verwendet man zur Berechnung der EWe und EVen
bei größeren Matrizen niemals dieses Verfahren.
EWe und EVen haben eine sehr große praktische Bedeutung, es gibt in diesem Zusammenhang ein Unmenge von theoretischen Resultaten und — je nach Gestalt der Matrix (symmetrisch, tridiagonal, . . . ) — entsprechende spezialisierte Verfahren zu ihrer Berechnung,
näheres dazu in Büchern über numerische Mathematik. Als Beispiele mögen genügen:
Satz: Ist A eine reelle und symmetrische (d. h. AT = A) Matrix, so hat A nur reelle EWe.
Satz: Ist A eine reelle und symmetrische Matrix, so sind EVen zu verschiedenen EWen
orthogonal.
61
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Differenzialrechnung — Die Ableitung
Gegeben sei ein fester Punkt x0 . Die Änderung von f (x), wenn man statt x0 den geringfügig
anderen Zahlenwert x0 +h (h kann positiv oder negativ sein, ist aber nahezu 0) einsetzt, lässt
sich anschaulich gut durch die Steigung der Geraden durch die beiden Punkte (x0 , f (x0 ))
und (x0 + h, f (x0 + h)), den sog. Differenzenquotienten, angeben:
f (x0 + h) − f (x0 )
f (x0 + h) − f (x0 )
=
(x0 + h) − x0
h
Idealerweise sollte h möglichst nahe 0 sein, damit der Funktionsgraph zwischen x0 und x0 +h
gar nicht so stark von einer Geraden abweichen kann.
Dies läßt sich mathematisch so nachbilden, dass man statt eines festen Wertes für h eine
+∞
Folge (hn )n=1
betrachtet, von der man lim hn = 0 aber gleichzeitig hn 6= 0 (für alle
n→+∞
n ∈ N) verlangt. Wenn dann der Differenzenquotient einen Grenzwert besitzt und dieser
überdies nicht von der speziellen Wahl der Folge abhängt, wird man diesen Grenzwert als
Steigung des Funktionsgraphen von f (x) im Punkt x0 ansehen:
Def.: Die Funktion f (x) sei in einem kleinen offenen Intervall um x0 herum definiert. Gibt
6 0 (n ∈ N),
es eine Zahl c ∈ R mit der Eigenschaft, dass für jede Folge (hn )+∞
n=1 mit hn =
lim hn = 0
n→+∞
f (x0 + hn ) − f (x0 )
=c
n→+∞
(x0 + hn ) − x0
lim
ist, so sagt man, f (x) ist im Punkt x0 differenzierbar, und c ist die Ableitung von f (x) in
diesem Punkt. Kurz: f 0 (x0 ) = c.
Die Formulierung „. . . für jede Folge (hn )+∞
n=1 mit hn 6= 0 (n ∈ N),
lim hn = 0 ist
n→+∞
lim . . . “ ist sehr schwerfällig und wird daher kürzer (nicht nur im Zusammenhang mit der
n→+∞
Ableitung) so ausgedrückt:
f 0 (x0 ) = lim
h→0
(h6=0)
f (x0 + h) − f (x0 )
(x0 + h) − x0
Falls f (x) in jedem Punkt des Definitionsbereichs differenzierbar ist, sagt man auch nur,
f (x) ist (überall) differenzierbar. f 0 (x0 ) hängt natürlich vom Punkt x0 ab, also vermittelt
das Bilden der Ableitung eine neue Funktion f 0 (x), die überall da definiert ist, wo f (x)
differenzierbar ist. Man kann also durchaus wieder f 0 (x) auf Differenzierbarkeit untersuchen
und erhält dann u. U. die Ableitung von f 0 (x), die auch als zweite Ableitung von f (x) oder
kurz als f 00 (x) bezeichnet wird.
Entsprechend ist f 000 (x) die dritte Ableitung von f (x), f (4) (x) die vierte, f (5) (x) die fünfte
usw. Die Schreibweise geht auf Newton zurück. Eine andere, von Leibniz stammende
62
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
sieht auf den ersten Blick zwar umständlicher aus, hat aber wesentliche Vorzüge, die aber
erst später sichtbar werden:
f 0 (x) =
d
df
(x) =
f (x) ,
dx
dx
f 00 (x) =
d2 f
d2
(x)
=
f (x)
dx2
dx2
usw.
Satz: Ist f (x) in x0 differenzierbar und c ∈ R, so auch (cf )(x) und (cf )0 (x0 ) = c · f 0 (x0 ).
Satz: Sind f (x) und g(x) beide in x0 differenzierbar, so auch (f + g)(x) und (f + g)0 (x0 ) =
f 0 (x0 ) + g 0 (x0 ).
Satz:
d
c = 0,
dx
d
x = 1,
dx
und für x 6= 0:
d 1
1
= − 2.
dx x
x
Satz: [Mittelwertsatz der Differenzialrechnung] Die Funktion f (x) sei auf dem Intervall [ a, b ]
stetig und in (a, b) differenzierbar. Dann ist
f (b) − f (a)
= f 0 (ξ)
b−a
für ein ξ ∈ (a, b).
In den Randpunkten a und b wird Differenzierbarkeit nicht vorausgesetzt; dort könnte man die
Differenzenquotienten entweder nur für h > 0 oder nur für h < 0 betrachten. Gelegentlich
verwendet man zwar auch „einseitige“ Differenzierbarkeit, hier ist dies aber unnötig.
Anwendung des Mittelwertsatzes: c sei eine
positivereelle Zahl. Für jede positive reelle Zahl
√
c
1
an +
(für n ∈ N) definierte Folge gegen c.
a1 konvergiert dann die durch an+1 :=
2
an
1
c
Beweis: Für f (x) =
x+
2
x
ist an+1
√
√
1
c
= f (an ), f ( c) = c und f 0 (x) =
1− 2 .
2
x
Klar ist, dass alle an > 0 sind. Für die Folgenglieder unterscheiden wir nun zwei Fälle:
1.Fall: Irgendein ak (z. B. a1 ) ist ≥
ak+1 −
√
√
c. Dann ist
√
√
c = f (ak ) − f ( c) = f 0 (ξ) · (ak − c)
√
mit ξ ∈ ( c, ak )
√
0
Nun ergibt f√
(x) auf [ c, +∞) stets eine Zahl in [ 0, 21 ), also auch f 0 (ξ). Damit ergibt
sich ak+1 ≥ c (denn f 0 (ξ) ≥ 0) und
ak+1
−
√ 1 √ c ≤ ak − c .
2
Also tritt auch für ak+1 und
√ damit für alle folgenden Folgenglieder wieder der 1. Fall
ein und der √
Abstand zu c halbiert sich bei jedem Schritt mindestens. Daraus folgt
lim an = c.
n→+∞
√
2. Fall: Ein ak (z. B. a1 ) liegt in (0, c). Dann ist
ak+1 −
√
√
√
c = f (ak ) − f ( c) = f 0 (ξ) · (ak − c)
63
√
mit ξ ∈ (0, c)
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
√
0
0
Für 0 < x < c ist c/x2 > 1, also
√ dann f (x) <
√0 und damit auch f (ξ) <
√ 0. Folglich
sind die Vorzeichen
von
a
−
c
und
a
−
c
verschieden;
da
a
−
c < 0 war,
k+1
k
k
√
muss ak+1 − c > 0 sein, so dass für ak+1 der 1. Fall eintreten muss.
Folglich tritt — egal wie a1 gewählt war — spätestens
für a2 und dann auch für alle weiteren
√
ak stets der 1. Fall ein, in dem ja lim an = c nachgewiesen wurde. n→+∞
Schließlich ist noch interesssant, was bei einem negativen Startwert a1 passiert:
√
Da f (−x) = −f (x) ist, konvergiert die Folge dann analog 1. bzw. 2. Fall gegen − c.
Def. Eine Funktion f : Df → Wf heißt monoton wachsend (bzw. monoton fallend), falls für
alle x1 , x2 ∈ Df gilt: Aus x1 ≤ x2 folgt stets f (x1 ) ≤ f (x2 ) (bzw. f (x1 ) ≥ f (x2 )).
Def. Eine Funktion f : Df → Wf heißt streng monoton wachsend (bzw. streng monoton
fallend), falls für alle x1 , x2 ∈ Df gilt: Aus x1 < x2 folgt stets f (x1 ) < f (x2 ) (bzw.
f (x1 ) < f (x2 )).
Satz: Ist f : [ a, b ] → R auf [ a, b ] stetig und in (a, b) differenzierbar, so gilt: f (x) ist genau
dann monoton wachsend (bzw. monoton fallend), wenn f 0 (x) ≥ 0 (bzw. f 0 (x) ≤ 0) für alle
x ∈ (a, b) ist.
Satz: Ist f : [ a, b ] → R auf [ a, b ] stetig und in (a, b) differenzierbar, so gilt: f (x) ist genau
dann streng monoton wachsend (bzw. streng monoton fallend), wenn f 0 (x) ≥ 0 (bzw.
f 0 (x) ≤ 0) für alle x ∈ (a, b) und f 0 (x) auf keinem echten (mehr als ein Punkt) Intervall
konstant = 0 ist.
Die letzte Bedingung kann man etwas ungenau so formulieren, dass f 0 (x) höchstens in
einzelnen Punkten = 0 sein darf. Bei den beiden letzten Sätzen ist ganz wesentlich, dass
der Definitionsbereich zusammenhängend ist, also „aus einem Stück besteht“. Sonst sind die
beiden Sätze falsch. Beide Sätze sind einfache Folgerungen aus dem Mittelwertsatz.
64
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Produkt-, Ketten-, Quotienten- und Leibnizregel
Produktregel: Sind f (x) und g(x) in x0 differenzierbar, so auch (f · g)(x) und
(f · g)0 (x0 ) = f 0 (x0 ) · g(x0 ) + f (x0 ) · g 0 (x0 ) .
Kurzschreibweise: (u · v)0 = u0 · v + u · v 0
Verallgemeinerungen: (u · v · w)0 = u0 · v · w + u · v 0 · w + u · v · w0 usw., es gibt also ebenso
viele Summanden wie Faktoren, und bei jedem Summanden wird jeweils genau ein Faktor
abgeleitet. Für höhere Ableitungen (die Analogie zum binomischen Satz ist augenfällig):
(u · v)
(n)
=
n
X
k=0
!
n (n−k) (k)
u
v
k
Kettenregel: Ist g(x) im Punkt x0 und f (x) im Punkt g(x0 ) differenzierbar, so ist auch
(f ◦ g)(x) im Punkt x0 definiert12 und differenzierbar und es gilt
(f ◦ g)0 (x0 ) = f 0 (g(x0 )) · g 0 (x0 )
Kurzschreibweise: (f ◦ g)0 = f 0 (g) · g 0
Gut zu merken ist das auch in der Leibniz-Schreibweise:
d(f ◦ g)
df (g)
df (g) dg
=
=
·
dx
dx
dg
dx
d
Man kann den Differenzialoperator
oft wie einen gewöhnlichen Bruch behandeln. Auch
dx
wenn das mathematisch nicht ganz korrekt ist, bewährt sich dies zumindest als Merkhilfe.
Quotientenregel: Sind f (x) und g(x) in x0 differenzierbar und g(x0 ) 6= 0, so ist auch
(f /g)(x) in x0 differenzierbar und
f
g
!0
(x0 ) =
f 0 (x0 ) · g(x0 ) − f (x0 ) · g 0 (x0 )
g 2 (x0 )
Kurzschreibweise:
0
u
v
=
u0 · v − u · v 0
v2
Beweis: Nach Produkt- und Kettenregel ist
f
g
12
!0
−1
−2
1
d
(x) =
f (x) · g(x)
= f 0 (x) ·
+ f (x) · (−1) · g(x)
· g 0 (x)
dx
g(x)
|
{z
}
Kettenregel
0
0
f (x) · g(x) − f (x) · g (x)
=
g 2 (x)
f ◦ g liest man „f nach g“ oder „g eingesetzt in f “, (f ◦ g)(x) = f (g(x))
65
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Leibnizregel für die Umkehrfunktion: Ist f (x) in (a, b) streng monoton und stetig und
existiert für ein x0 ∈ (a, b) die Ableitung f 0 (x0 ) und ist 6= 0, so ist f −1 in y0 = f (x0 )
ebenfalls differenzierbar und es gilt
(f −1 )0 (y0 ) =
1
f (x0 )
0
Kurzschreibweise: (f −1 )0 =
1
f (f −1 )
0
Mit f −1 ist hier natürlich die Umkehrfunktion von f gemeint, nicht etwa der Kehrwert 1/f .
In der Leibniz-Schreibweise sieht es nahezu trivial aus (was es aber keineswegs ist):
dx
1
=
dy
dy
dx
Mit dieser Regel lassen sich z. B. die Ableitungen von ln x, arcsin x, arccos x usw. leicht
gewinnen, wenn man die von e x , sin x, cos x usw. bereits kennt.
Auf Seite 67 ist eine Übersicht über die wichtigsten Ableitungen, zusammen mit den hier
behandelten Ableitungsregeln lassen sich fast alle praktisch vorkommenden Funktionen problemlos differenzieren.
66
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Tabelle der wichtigsten Ableitungen bzw. Stammfunktionen
f 0 (x)
f (x)
xa
(a ∈ R \ {0})
ex
axa−1
ex
ax = e x ln a
(a > 0)
ax ln a
ln|x|
(x 6= 0)
1
x
loga |x| =
1
ln|x|
ln a
(a > 0, a 6= 1, x 6= 0)
1
x ln a
sin x
cos x
cos x
− sin x
(x ∈
/
tan x
π
+ πZ)
2
cot x
(x ∈
/ πZ)
arcsin x
(|x| < 1)
arccos x
(|x| < 1)
arctan x
arccot x
e x − e −x
2
x
e + e −x
cosh x =
2
x
e − e −x
tanh x = x
e + e −x
e x + e −x
coth x = x
e − e −x
√
arsinh x = ln x + x2 + 1
sinh x =
arcosh x = ln x +
√
x2 − 1
1 1 + x artanh x = ln
2 1 − x
1 1 + x arcoth x = ln
2 1 − x
1
= 1 + tan2 x
cos2 x
1
− 2 = −1 − cot2 x
sin x
1
√
1 − x2
1
−√
1 − x2
1
1 + x2
1
−
1 + x2
cosh x
sinh x
(x 6= 0)
(x > 1)
(|x| < 1)
(|x| > 1)
67
1
= 1 − tanh2 x
cosh2 x
1
−
= 1 − coth2 x
sinh2 x
1
√
1 + x2
1
√
2
x −1
1
1 − x2
1
1 − x2
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Extrema, Wendepunkte, Asymptoten
Def.: f (x) sei in einem offenen Intervall um x0 definiert. Gilt dann f (x) ≤ f (x0 ) für alle
x in diesem Intervall, so sagt man, f (x) habe ein lokales Maximum in x0 . Ist umgekehrt
f (x) ≥ f (x0 ) für alle x in diesem Intervall, liegt ein lokales Minimum in x0 vor.
In einem Randpunkt des Definitionsbereiches liegt
√nie ein lokales Extremum (Minimum bzw.
Maximum) vor: f : [ 0, +∞) → R, f (x) = x, hat in 0 kein lokales Minimum! g :
[ 0, 1 ] → R, g(x) = 1, hat überall in (0, 1) gleichzeitig lokales Minimum und Maximum.
Satz: f (x) sei in einem offenen Intervall um x0 definiert und in x0 differenzierbar. Hat f (x)
im Punkt x0 ein lokales Minimum oder lokales Maximum, so ist f 0 (x0 ) = 0.
Satz: f (x) sein in einem offenen Intervall um x0 definiert und dort zweimal differenzierbar,
ferner sei f 00 (x) in x0 stetig. Dann gilt:
(i) Ist f 0 (x0 ) = 0 und f 00 (x0 ) > 0, so liegt in x0 ein lokales Minimum vor.
(ii) Ist f 0 (x0 ) = 0 und f 00 (x0 ) < 0, so liegt in x0 ein lokales Maximum vor.
(iii) Bei f 0 (x0 ) = 0 und f 00 (x0 ) = 0 ist ohne weitere Untersuchung keine Aussage möglich.
Def.: f (x) sei in einem offenen Intervall um x0 definiert und dort zweimal differenzierbar.
Wechselt f 00 (x) in x0 das Vorzeichen, so sagt man, f (x) habe in x0 einen Wendepunkt.
Satz: f (x) sein in einem offenen Intervall um x0 definiert, dort zweimal differenzierbar und
f 00 (x) in x0 stetig. Hat f (x) im Punkt x0 einen Wendepunkt, so ist f 00 (x0 ) = 0.
Satz: f (x) sein in einem offenen Intervall um x0 definiert und dort dreimal differenzierbar,
ferner sei f 000 (x) in x0 stetig. Dann gilt:
(i) Ist f 00 (x0 ) = 0 und f 000 (x0 ) 6= 0, so liegt in x0 ein Wendepunkt vor.
(ii) Bei f 00 (x0 ) = 0 und f 000 (x0 ) = 0 ist ohne weitere Untersuchung keine Aussage möglich.
Allgemeineres Kriterium (für praktische Anwendung aber meist zu aufwendig):
Satz: f (x) sei in einem offenen Intervall um x0 definiert, dort n-mal differenzierbar und
f (n) (x) in x0 stetig, f 0 (x0 ) = f 00 (x0 ) = · · · = f (n−1) (x0 ) = 0, aber f (n) (x0 ) 6= 0. Dann gilt:
(i) Ist n gerade und f (n) (x0 ) > 0, so liegt ein lokales Minimum vor.
(ii) Ist n gerade und f (n) (x0 ) < 0, so liegt ein lokales Maximum vor.
(iii) Ist n ungerade, so liegt ein Wendepunkt vor.
Auch dieses Kriterium liefert keineswegs immer eine Entscheidung: f : R → R, f (x) =
2
e −1/x für x 6= 0, f (0) = 0, ist überall beliebig oft differenzierbar, im Punkt x0 = 0 sind
alle Ableitungen = 0. Dort liegt ein lokales Minimum vor.
Def.: Hat f (x) für x ↑ x0 den Grenzwert y0 (d. h. für jede Folge hn mit hn < 0, hn → 0 gilt
f (x0 + hn ) → y0 ), so sagt man, f (x) habe für x ↑ x0 die (horizontale) Asymptote y = y0 .
Analog ist (horizontale) Asymptote für x ↓ x0 erklärt.
Def.: Hat f (x) für x ↑ x0 den Grenzwert +∞ oder −∞, so sagt man, f (x) habe für x ↑ x0
die (vertikale) Asymptote x = x0 . Analog ist (vertikale) Asymptote für x ↓ x0 erklärt.
Sinngemäß kann man auch x → x0 , x ↑ +∞ und x ↓ −∞ betrachten. Anschaulich ist eine
Asymptote eine Gerade, an die sich der Funktionsgraph für x ↑ x0 bzw. x ↓ x0 „anschmiegt“.
68
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
l’Hospitalsche Regel
±∞
0
“ oder auch (nach kleiner Umformung) „0 · ±∞“ lassen sich
Grenzwerte der Form „ “, „
0
±∞
häufig wie folgt berechnen:
Regel von l’Hospital: Die Funktionen f (x) und g(x) seien auf (a, x0 ) definiert, dort
differenzierbar und dort sei überall g(x) 6= 0. Ferner gelte entweder
lim f (x) = 0 und gleichzeitig
x↑x0
lim g(x) = 0
x↑x0
oder
lim f (x) = +∞ und gleichzeitig
x↑x0
lim g(x) = +∞ .
x↑x0
Dann ist
lim
x↑x0
f (x)
f 0 (x)
= lim 0
,
g(x) x↑x0 g (x)
sofern der Grenzwert rechts existiert (als eigentlicher oder uneigentlicher).
Sinngemäß gilt dieser Satz auch für die Fälle x ↓ x0 , x → x0 , x ↑ +∞ und x ↓ −∞.
Gelegenlich kann man diesen Satz auch mehrfach hintereinander anwenden.
Dieser Satz hat rein gar nichts mit der Quotientenregel zu tun. Bei der Quotientenregel
wird erst dividiert und dann abgeleitet, hier dagegen werden Zähler und Nenner erst einzeln
abgeleitet und hinterher durcheinander dividiert. Da gibt es keinen Zusammmenhang!
Bei Grenzwerten der Form „0 · ±∞“ muss man zuerst eine der folgenden Umformungen
anwenden, um l’Hospital anwenden zu können:
f (x) · g(x) =
f (x)
1/g(x)
oder
f (x) · g(x) =
g(x)
1/f (x)
Für die Ableitung im Nenner verwendet man dann natürlich die Kettenregel. Welche von
beiden Umformungen zum Ziel führt, läßt sich meist nicht im voraus sagen, da hilft im
Zweifel nur ausprobieren . . .
Auch für Grenzwerte wie „00 , +∞0 “ kann man häufig auf l’Hospital zurückgreifen, wenn
man ab = exp(b · ln a) verwendet, dann zunächst den Grenzwert des inneren Ausdrucks
berechnet und schließlich die Stetigkeit der Exponentialfunktion bzw. ihr asymptotisches
Verhalten berücksichtigt.
69
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Newton-Verfahren
In vielen Zusammenhängen stößt man auf das Problem, eine Gleichung (oder gar ein
Gleichungssystem bestehend aus mehreren Gleichungen) lösen zu müssen. Eine Gleichung
kann man stets auf die Form f (x) = 0 mit einer passenden Funktion f (x) bringen. Man
kann also das Problem auch so formulieren: Gesucht ist eine Nullstelle (oder auch: alle
Nullstellen) der Funktion f (x).
Ein weithin bekanntes, auf den ersten Blick sehr einfaches Verfahren ist das sog. Newton-Verfahren: Zu der vorgegebenen Funktion f (x), die als differenzierbar vorausgesetzt
wird, mit Definitionsbereich D verschaffe man sich zunächst einen Schätzwert x1 (etwa auf
graphischem Weg) für die gesuchte Nullstelle.
Dann ersetze man den Funktionsgraphen von f (x) durch eine Gerade, die den Funktionsgraphen im Punkt (x1 , f (x1 )) berührt (also eine Tangente). Der Schnittpunkt der Tangente
mit der x-Achse läßt sich nun leicht berechnen und wird als x2 bezeichnet. Er wird häufig
näher an der gesuchten Nullstelle von f (x) liegen als der „Startwert“ x1 . Wiederholung des
Verfahrens führt zu x3 , x4 , . . . , also einer Folge, die in günstigen Fällen gegen eine Nullstelle von f (x) konvergiert. Für die praktische Anwendung bricht man natürlich nach einer
gewissen Anzahl von Schritten ab.
Formel zu Berechnung der Folgenglieder xn :
xn+1 = xn −
f (xn )
f 0 (xn )
für n ∈ N
oder auch mit einer Hilfsfunktion g(x):
xn+1 = g(xn )
für n ∈ N
mit
g(x) = x −
f (x)
f 0 (x)
Satz: Ist f (x) in einem Intervall um eine Nullstelle x∗ herum definiert, zweimal stetig differenzierbar und f 0 (x∗ ) 6= 0, so konvergiert die Folge des Newton-Verfahrens gegen x∗ ,
sofern x1 genügend nahe bei x∗ liegt.
Leider ist dieser Satz eher von theoretischem Nutzen; man weiß man ja in der Praxis oft gar
nicht, ob und ggf. wieviele Nullstellen f (x) hat bzw. wo sie liegen, damit ist das „genügend
nahe“ kaum nachprüfbar.
Ist f 0 (x∗ ) = 0, ist die Situation meist doch nicht so schlecht, wie der Satz vielleicht suggeriert;
sofern die Funktion einigermaßen ordentlich ist, konvergiert das Verfahren trotzdem noch,
wenn man genügend nahe bei x∗ anfängt, nur langsamer als bei f 0 (x∗ ) 6= 0.
Probleme, die sonst noch auftauchen können, sind z. B.:
• Die Iteration (das fortlaufende Anwenden von g(x)) ist gar nicht möglich, weil man
aus dem Definitionsbereich von f (x) oder f 0 (x) und damit dem von g(x) herausläuft.
• In einem xk ist f 0 (x) (nahezu) gleich 0. Dann läßt sich xk+1 gar nicht mehr berechnen
oder liegt extrem weit weg.
70
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
• Die Folge (xk ) strebt nach +∞ oder −∞.
• Die Folge (xk ) konvergiert gar nicht.
• Die Folge (xk ) konvergiert zwar, aber nicht gegen die erwünschte, sondern gegen eine
andere Nullstelle von f (x).
Trotz dieser Vielzahl möglicher Probleme funktioniert das Newton-Verfahren in vielen
Fällen dennoch sehr gut und schnell. Einige praktische Anwendungsmöglichkeiten:
a
1
x+
2
x
(wird praktisch angewendet, vgl. Auszug aus Linux-Kernel auf folgenden Seiten)
• Quadratwurzelberechnung: f (x) = x2 − a und g(x) =
• allgemeine m-Wurzel: f (x) = xm − a und g(x) =
1
a
(m − 1)x + m−1
m
x
• Kehrwertberechnung ohne Division: f (x) = x−1 − a und g(x) = x(2 − ax)
Das Verfahren sieht eigentlich sehr einfach aus, den wesentlichen Punkt, nämlich die Auswahl
eines geeigneten Startwertes, übersieht man dabei leicht! Zur Illustration:
Das Newton-Verfahren eignet sich auch sehr gut, um die Nullstellen von Polynomen
näherungsweise zu bestimmen. Hier kann man es auch gleich komplex betrachten, da man
ohnehin mit komplexen Nullstellen rechnen muss. Beispiel:
p(z) = (z − 3) z − (−1 + j) z − (−2 + 2j) z − (−1 − 3j)
= z 4 + z 3 + 2jz 2 + (−24 − 10j)z + (−36 + 12j)
Ableiten kann man hier genau, wie man es im Reellen auch macht:
p0 (z) = 4z 3 + 3z 2 + 4jz + (−24 − 10j) und somit
z 4 + z 3 + 2jz 2 + (−24 − 10j)z + (−36 + 12j)
g(z) = z −
4z 3 + 3z 2 + 4jz + (−24 − 10j)
Ausrechnen läßt sich g(z) sehr effizient mittels Horner-Schema, dadurch kann man hier in
kürzester Zeit sehr viele Startwerte untersuchen, was auf Seite 76 graphisch dargestellt ist:
Gezeigt ist der Bereich {x + jy | −10 ≤ x ≤ 10, −10 ≤ y ≤ 10} aus der komplexen Ebene,
die vier Nullstellen von p(z) sind durch schwarze Punkte angedeutet.
Der rot-cyan gefärbte Bereich umfasst alle Startwerte, die zur Nullstelle 3 + 0j führen, die
1
unterschiedlichen Farbabstufungen geben an, wieviele Schritte man braucht, um bis auf 75
an die Nullstelle heran zu kommen. Analog ist grün-magenta der Bereich für die Nullstelle
−1+j, blau-gelb für −2+2j und gelb-orange der für −1−3j. Deutlich ist: Startet man nahe
an einer Nullstelle, geht es natürlich zu der betreffenden Nullstelle. Weiter weg ist die Lage
sehr unübersichtlich, die „Grenze“ zwischen den einzelnen Bereichen ist extrem kompliziert.
Vergrößert man einen Auschnitt davon (Seiten 77, 78), sieht man immer mehr Details.
Das Newton-Verfahren ist auch zur näherungsweisen Lösung von Gleichungssystemen einsetzbar, nur braucht man hierzu Differenzialrechnung mehrerer Variablen.
71
sq_0
b 0 0 0 ... 0
/* ls word, at most the ms bit is set */
/* ms word */
/* ms word */
Local storage in a static area: */
.align 4,0
FPU_accum_3:
.long
0
FPU_accum_2:
.long
0
FPU_accum_1:
.long
0
FPU_accum_0:
.long
0
#else
/*
.data
/* ms word */
sq_1
b b b .... b b b
NON_REENTRANT_FPU
Local storage on the stack: */
FPU_accum_3
−4(%ebp)
FPU_accum_2
−8(%ebp)
FPU_accum_1
−12(%ebp)
FPU_accum_0
−16(%ebp)
/*
* The de−normalised argument:
*
sq_2
*
b b b b b b b ... b b b
*
^ binary point here
*/
#define FPU_fsqrt_arg_2 −20(%ebp)
#define FPU_fsqrt_arg_1 −24(%ebp)
#define FPU_fsqrt_arg_0 −28(%ebp)
#ifndef
/*
#define
#define
#define
#define
#include "exception.h"
#include "fpu_emu.h"
/*−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−+
| wm_sqrt(FPU_REG *n, unsigned int control_word)
|
|
returns the square root of n in n.
|
|
|
| Use Newton’s method to compute the square root of a number, which must
|
| be in the range [1.0 .. 4.0), to 64 bits accuracy.
|
| Does not check the sign or tag of the argument.
|
| Sets the exponent, but not the sign or tag of the result.
|
|
|
| The guess is kept in %esi:%edi
|
+−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−*/
SIGH(%esi),%eax
SIGL(%esi),%ecx
%edx,%edx
PARAM1,%esi
$1,%eax
$1,%ecx
$1,%edx
shrl
rcrl
rcrl
/* arg is in the range
%eax,FPU_fsqrt_arg_2
%ecx,FPU_fsqrt_arg_1
%edx,FPU_fsqrt_arg_0
$0x80000000,%edx
sqrt_prelim_no_adjust:
movl
%edx,%esi
movl
[1.0 .. 2.0) */
/* round up */
/* max result was 7fff... */
/* but min was 3fff... */
/* ms word of n */
/* Our first guess */
/* Make a linear first estimate */
shrl
$1,%eax
addl
$0x40000000,%eax
movl
$0xaaaaaaaa,%ecx
mull
%ecx
shll
%edx
testl
$0x80000000,%edx
jnz
sqrt_prelim_no_adjust
movl
movl
movl
sqrt_arg_ge_2:
/* From here on, n is never accessed directly again until it is
replaced by the answer. */
EXP_BIAS,EXP(%esi)
sqrt_arg_ge_2
cmpw
jnz
/* We use a rough linear estimate for the first guess.. */
movl
movl
xorl
movl
.text
ENTRY(wm_sqrt)
pushl
%ebp
movl
%esp,%ebp
#ifndef NON_REENTRANT_FPU
subl
$28,%esp
#endif /* NON_REENTRANT_FPU */
pushl
%esi
pushl
%edi
pushl
%ebx
/* The de−normalised argument:
sq_2
sq_1
sq_0
b b b b b b b ... b b b
b b b .... b b b
b 0 0 0 ... 0
^ binary point here
*/
FPU_fsqrt_arg_2:
.long
0
/* ms word */
FPU_fsqrt_arg_1:
.long
0
FPU_fsqrt_arg_0:
.long
0
/* ls word, at most the ms bit is set */
#endif /* NON_REENTRANT_FPU */
/usr/src/linux/arch/x86/math−emu/wm_sqrt.S
.file
"wm_sqrt.S"
/*−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−+
| wm_sqrt.S
|
|
|
| Fixed point arithmetic square root evaluation.
|
|
|
| Copyright (C) 1992,1993,1995,1997
|
|
W. Metzenthen, 22 Parker St, Ormond, Vic 3163,
|
|
Australia. E−mail [email protected]
|
|
|
| Call from C as:
|
|
int wm_sqrt(FPU_REG *n, unsigned int control_word)
|
|
|
+−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−*/
2009−09−10
00:13:59
1
FPU_fsqrt_arg_2,%ecx
/* ms word */
/* divide by 2 */
sqrt_stage_2_done
/* ms word of normalized n */
%esi
%eax,%ecx
%edx,%eax
divl
movl
movl
/* Subtraction gives a negative result,
negate the result before division. */
notl
%edx
notl
%eax
addl
$1,%eax
adcl
$0,%edx
FPU_fsqrt_arg_1,%ecx
%ecx,%eax
FPU_fsqrt_arg_2,%ecx
%ecx,%edx
sqrt_stage_2_positive
%esi,%eax
%esi
%edx,FPU_accum_3
%eax,FPU_accum_2
%edi,%eax
%esi
movl
mull
movl
movl
movl
mull
/* Find the square of the guess. */
movl
%edi,%eax
mull
%edi
movl
%edx,FPU_accum_1
/* ls word of guess */
/* Now the square root has been computed to better than 60 bits. */
sqrt_stage_2_done:
#ifdef PARANOID
sqrt_stage_2_error:
pushl
EX_INTERNAL|0x213
call
EXCEPTION
#endif /* PARANOID */
movl
subl
movl
sbbl
jnc
/* result should be [1..2) */
#ifdef PARANOID
/* It should be possible to get here only if the arg is ffff....ffff */
cmp
$0xffffffff,FPU_fsqrt_arg_1
jnz
sqrt_stage_2_error
#endif /* PARANOID */
jnz
/* Form the new estimate in %esi:%edi */
movl
%eax,%edi
addl
%ecx,%esi
sqrt_stage_2_finish:
sarl
$1,%ecx
rcrl
$1,%eax
/* First, find the square of the guess */
movl
%esi,%eax
mull
%esi
/* guess^2 now in %edx:%eax */
%ecx,%edx
%esi
%esi
%eax,%esi
movl
divl
shrl
addl
msw of the arg / 2 */
current estimate */
divide by 2 */
the new estimate */
%ecx
%eax
$1,%eax
$0,%ecx
notl
notl
addl
adcl
/* The best rounded result. */
xorl
%eax,%eax
decl
%eax
movl
%eax,%edi
movl
%eax,%esi
movl
$0x7fffffff,%eax
jmp
sqrt_round_result
%ecx,%edx
%esi
%esi
%eax,%esi
movl
divl
shrl
addl
/*
/*
/*
/*
%edx,%eax
%esi
movl
divl
sqrt_stage_2_positive:
divl
%esi
movl
%eax,%ecx
%esi
sqrt_stage_2_finish
/*
* Now that an estimate accurate to about 30 bits has been obtained (in %esi),
* we improve it to 60 bits or so.
*
* The strategy from now on is to compute new estimates from
*
guess := guess + (n − guess^2) / (2 * guess)
*/
%ecx,%edx
%esi
%esi
%eax,%esi
at each iteration (g is the guess). */
/* Doing this first will prevent a divide */
/* overflow later. */
movl
divl
shrl
addl
/* Compute (g + n/g)/2
shrl
%ecx
/*
* From our initial estimate, three iterations are enough to get us
* to 30 bits or so. This will then allow two iterations at better
* precision to complete the process.
*/
movl
divl
jmp
/usr/src/linux/arch/x86/math−emu/wm_sqrt.S
/* We have now computed (approx)
(2 + x) / 3, which forms the basis
for a few iterations of Newton’s method */
2009−09−10
00:13:59
2
movl
mull
addl
adcl
adcl
%esi,%eax */
%edi */
%eax,FPU_accum_1
%edx,FPU_accum_2
$0,FPU_accum_3
%eax,FPU_accum_1
%edx,FPU_accum_2
$0,FPU_accum_3
FPU_fsqrt_arg_0,%eax
%eax,FPU_accum_1
FPU_fsqrt_arg_1,%eax
%eax,FPU_accum_2
FPU_fsqrt_arg_2,%eax
%eax,FPU_accum_3
sqrt_stage_3_positive
/* ms word of normalized n */
%edx,%eax
%esi
$1,%ecx
$1,%eax
movl
divl
sarl
rcrl
sqrt_stage_3_finished
jmp
sqrt_stage_3_positive:
movl
FPU_accum_2,%edx
movl
FPU_accum_1,%eax
divl
%esi
%ecx,%edi
$0,%esi
addl
adcl
/* prepare to round the result */
/* divide by 2 */
FPU_accum_2,%edx
FPU_accum_1,%eax
%esi
%eax,%ecx
movl
movl
divl
movl
sqrt_stage_3_no_error:
#endif /* PARANOID */
sqrt_stage_3_error:
pushl
EX_INTERNAL|0x207
call
EXCEPTION
/* divide by 2 */
%ecx,%edi
$0,%esi
%eax
/* Negate the correction term */
%ecx
$1,%eax
$0,%ecx
/* carry here ==> correction == 0 */
$0xffffffff,%esi
$0x80000020,%eax
sqrt_get_more_precision
cmpl
jb
/* Result is in
[1.0 .. 2.0) */
sqrt_near_exact:
/*
* This is an easy case because x^1/2 is monotonic.
* We need just find the square of our estimate, compare it
* with the argument, and deduce whether our estimate is
* above, below, or exact. We use the fact that the estimate
* is known to be accurate to about 90 bits.
*/
sqrt_near_exact_x:
/* First, the estimate must be rounded up. */
addl
$1,%edi
adcl
$0,%esi
sqrt_round_result:
/* Set up for rounding operations */
movl
%eax,%edx
movl
%esi,%eax
movl
%edi,%ebx
movl
PARAM1,%edi
movw
EXP_BIAS,EXP(%edi)
jmp
fpu_reg_round
$0x7fffffe0,%eax
sqrt_round_result
$0x00000020,%eax
sqrt_near_exact
cmpl
jb
cmpl
jb
/*
* The result in %esi:%edi:%esi should be good to about 90 bits here,
* and the rounding information here does not have sufficient accuracy
* in a few rare cases.
*/
cmpl
$0xffffffe0,%eax
ja
sqrt_near_exact_x
sqrt_stage_3_finished:
addl
adcl
notl
notl
addl
adcl
adcl
/* prepare to round the result */
$1,%ecx
$1,%eax
%edx,%eax
%esi
movl
divl
sarl
rcrl
%eax,%ecx
movl
/usr/src/linux/arch/x86/math−emu/wm_sqrt.S
/* get normalized n */
#ifdef PARANOID
adcl
$0,FPU_accum_3 /* This must be zero */
jz
sqrt_stage_3_no_error
/* Subtraction gives a negative result,
negate the result before division */
notl
FPU_accum_1
notl
FPU_accum_2
notl
FPU_accum_3
addl
$1,FPU_accum_1
adcl
$0,FPU_accum_2
movl
subl
movl
sbbl
movl
sbbl
jnc
/* guess^2 now in FPU_accum_3:FPU_accum_2:FPU_accum_1 */
/*
/*
addl
adcl
adcl
2009−09−10
00:13:59
3
%edi,%eax
%esi
%eax,%ebx
%eax,%ebx
movl
mull
addl
addl
EX_INTERNAL|0x214
EXCEPTION
pushl
call
sqrt_near_exact_large
%ebx,%edx
sqrt_near_exact_large
jnz
or
jnz
/* 2nd ls word of square */
/* ls word of square */
%edi,%eax
%edi
%edx,%ebx
%eax,%ecx
%edi,%eax
movl
mull
movl
movl
movl
/* 2nd ls word of square */
/* ls word of square */
/* ls word of guess */
sqrt_get_more_precision:
/* This case is almost the same as the above, except we start
with an extra bit of precision in the estimate. */
stc
/* The extra bit. */
rcll
$1,%edi
/* Shift the estimate left one bit */
rcll
$1,%esi
sqrt_near_exact_large:
/* Our estimate is too large, we need to decrement it */
subl
$1,%edi
sbbl
$0,%esi
movl
$0xffffff00,%eax
jmp
sqrt_round_result
sqrt_near_exact_small:
/* Our estimate is too small */
movl
$0x000000ff,%eax
jmp
sqrt_round_result
%esi
%eax,%ebx
%eax,%ebx
EX_INTERNAL|0x215
EXCEPTION
pushl
call
sqrt_more_prec_large:
/* Our estimate is too large */
movl
$0x7fffff00,%eax
jmp
sqrt_round_result
sqrt_more_prec_small:
/* Our estimate is too small */
movl
$0x800000ff,%eax
jmp
sqrt_round_result
/* Our estimate is exactly the right answer */
movl
$0x80000000,%eax
jmp
sqrt_round_result
%ebx,%ecx
sqrt_more_prec_large
sqrt_more_prec_large
jnz
or
jnz
%ebx,%ebx
sqrt_more_prec_small
or
js
sqrt_more_prec_ok:
#endif /* PARANOID */
$0x000000a0,%ebx
sqrt_more_prec_ok
cmp
ja
#ifdef PARANOID
cmp
$0xffffff60,%ebx
jb
sqrt_more_prec_ok
/* Put our estimate back to its original value */
stc
/* The ms bit. */
rcrl
$1,%esi
/* Shift the estimate left one bit */
rcrl
$1,%edi
mull
addl
addl
/usr/src/linux/arch/x86/math−emu/wm_sqrt.S
/* ls word of guess */
/* Our estimate is exactly the right answer */
xorl
%eax,%eax
jmp
sqrt_round_result
%ebx,%ebx
sqrt_near_exact_small
or
js
sqrt_near_exact_ok:
#endif /* PARANOID */
$0x00000050,%ebx
sqrt_near_exact_ok
cmp
ja
#ifdef PARANOID
cmp
$0xffffffb0,%ebx
jb
sqrt_near_exact_ok
%edi,%eax
%edi
%edx,%ebx
%eax,%ecx
movl
mull
movl
movl
2009−09−10
00:13:59
4
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
center 0.0000+0.0000i, size +/-10.0000+/-10.0000i
1. root: +3.00+0.00i, red
2. root: -1.00+1.00i, green
3. root: -2.00+2.00i, blue
4. root: -1.00-3.00i, yellow
p(z)= +(1.00+0.00i)z4+(1.00+0.00i)z3+(0.00+2.00i)z2
+(-24.00-10.00i)z1+(-36.00+12.00i)z0
76
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
center -0.6000-1.5000i, size +/-2.0000+/-2.0000i
1. root: +3.00+0.00i, red
2. root: -1.00+1.00i, green
3. root: -2.00+2.00i, blue
4. root: -1.00-3.00i, yellow
p(z)= +(1.00+0.00i)z4+(1.00+0.00i)z3+(0.00+2.00i)z2
+(-24.00-10.00i)z1+(-36.00+12.00i)z0
77
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
center -0.8000-1.6000i, size +/-0.5000+/-0.5000i
1. root: +3.00+0.00i, red
2. root: -1.00+1.00i, green
3. root: -2.00+2.00i, blue
4. root: -1.00-3.00i, yellow
p(z)= +(1.00+0.00i)z4+(1.00+0.00i)z3+(0.00+2.00i)z2
+(-24.00-10.00i)z1+(-36.00+12.00i)z0
78
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Das bestimmte Integral
Gegeben sei eine stetige Funktion f (x) mit Definitionsbereich [ a, b ]. Um den Flächeninhalt
unterhalb des Funktionsgraphen (genauer: der von dem Funktionsgraphen, der x-Achse und
den Geraden x = a bzw. x = b berandeten Fläche) zu berechnen bzw. überhaupt erst zu
definieren, wird das Intervall [ a, b ] durch die Punkte a = x0 < x1 < x2 < · · · < xn = b
zerlegt. Für jedes Teilintervall [ xk , xk+1 ] sei
mk =
min
xk ≤x≤xk+1
f (x) ,
Mk =
max
xk ≤x≤xk+1
f (x) ,
ferner τk ∈ [ xk , xk+1 ] ein willkürlicher gewählter Punkt. Dann ist offensichtlich
n−1
X
mk (xk+1 − xk ) ≤
n−1
X
f (τk )(xk+1 − xk ) ≤
k=0
k=0
{z
|
n−1
X
}
Untersumme
|
Mk (xk+1 − xk )
k=0
{z
Zwischensumme
}
|
{z
Obersumme
}
Es ist leicht zu erkennen, dass bei Verfeinerung der Unterteilung (d. h. bei Hinzunahme von
weiteren Unterteilungspunkten) die Untersumme höchstens größer, die Obersumme dagegen
höchstens kleiner werden kann.
Def.: Streben Untersumme und Obersumme gegen denselben Grenzwert, wenn die Feinheit
der Unterteilung (d. h. die Länge des längsten Teilintervalls) des Intervalls [ a, b ] nach
0 strebt, so heißt dieser gemeinsame Grenzwert das (bestimmte) Riemann-Integral der
Funktion f (x) über das Intervall [ a, b ], kurz:
Z b
f (x) dx.
a
Satz: Ist f (x) auf [ a, b ] stetig, so existiert das (bestimmte) Riemann-Integral von f (x)
über [ a, b ] stets. Außerdem konvergiert die Zwischensumme unabhängig von der Wahl der
Zwischenpunkte τk gegen dieses Integral, wenn die Feinheit der Unterteilung nach 0 strebt.
Anm.: Die Definition des Integrals kann man auf beschränkte aber nicht notwendig stetige
Funktionen erweitern. Allerdings ist die Existenz des Integrals dann nicht immer gesichert.
Def.: Beim Integrationsintervall [ a, b ] wurde stillschweigend a ≤ b vorausgesetzt. Anderenfalls definiert man (um den folgenden Satz ohne komplizierte Fallunterscheidungen
formulieren zu können)
Z b
f (x) dx = −
Z a
a
f (x) dx
b
Satz: Ist f (x) auf einem Intervall, dass die Zahlen a, b, c enthält, stetig, so gilt für beliebige
gegenseitige Lage dieser Zahlen
Z b
a
f (x) dx =
Z c
f (x) dx +
Z b
a
f (x) dx
c
Satz: Sind f (x) und g(x) auf [ a, b ] stetig und sind α, β beliebige reelle Zahlen, so ist
Z b
a
αf (x) + βg(x) dx = α
Z b
a
f (x) dx + β
Z b
a
79
g(x) dx
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Das unbestimmte Integral
Die Berechnung eines bestimmten Integrals anhand der Definition ist — außer in ganz einfachen Fällen — hoffnungslos unpraktisch. Daher ist eine andere Berechnungsmethode nötig.
Der Schlüssel dazu ist ein Zusammenhang zwischen Differenzial- und Integralrechnung.
Def.: Ist f (x) stetig, a reell, so heißt F (x) =
Z x
f (t) dt unbestimmtes Integral von f (x).
a
Satz: Zwei unbestimmte Integrale von f (x) (die sich also nur in der willkürlichen unteren
Integrationsgrenze unterscheiden) stimmen bis auf eine additive Konstante überein.
Def.: Eine Funktion F (x) heißt Stammfunktion von f (x), falls
Kurzschreibweise für eine Stammfunktion ist
Z
d
F (x) = f (x) ist.
dx
f (x) dx.
Satz: Zwei beliebige Stammfunktionen einer Funktion f (x) stimmen bis auf eine additive
Konstante überein.
Satz: Ist f (x) stetig, so ist F (x) =
Z x
f (t) dt differenzierbar und
a
d
F (x) = f (x).
dx
Alternative Formulierung: Jedes unbestimmtes Integral von f (x) ist eine Stammfunktion von
f (x). Da in jeder Stammfunktion bzw. in jedem unbestimmten Integral eine willkürliche
additive Konstante (sog. Integrationskonstante) steckt, muss man eine solche hinzufügen,
z. B. ist (nachrechnen!)
2
sin x + C1 =
Z
2 sin x · cos x dx = − cos2 x + C2
Ohne die beiden Konstanten C1 , C2 wäre dies natürlich falsch. Merkregel: Steht auf einer
Seite einer solchen Gleichung kein Integralzeichen, muss auf dieser Seite eine Integrationskonstante stehen. Meist ist man mit Bezeichnungen der Integrationskonstanten etwas
großzügig und verwendet immer denselben Buchstaben.
Aus dem letzten Satz (sog. Hauptsatz der Differenzial- und Integralrechnung) ergibt sich:
Ist F (x) eine beliebige Stammfunktion von f (x), so ist
Z b
f (x) dx = F (b) − F (a)
h
(für die Differenz kurz: F (x)
a
ib
a
x=b
oder F (x)
x=a
)
Aus jeder Ableitung (-sregel) erhält man also ein automatisch ein Integral (bzw. Integrationsregel). Im gewissen Sinn ist Integration also die Umkehrung der Differenziation, daher
kann man die Tabelle auf Seite 67 auch zur Bestimmung von Stammfunktionen verwenden.
Während es kein Problem ist, die Ableitungen von Funktionen zu bilden, die aus den bekannten elementaren zusammengebaut sind, ist die Lage bei der Integration völlig anders.
In vielen Fällen lassen sich selbst bei einfach erscheinenden Funktionen Stammfunktionen
Z
2
nur mit großen Aufwand oder gar nicht formelmäßig angeben; z. B. kann man
e x dx
nachweislich nicht durch einen aus den bekannten Funktionen zusammengesetzten Ausdruck
angeben, obwohl es natürlich Stammfunktionen gibt!
80
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Partielle Integration
Es sei vorausgesetzt, dass stets alle nötigen Voraussetzungen erfüllt sind. Durch Umformulierung der Produktregel der Differenzialrechnung ergibt sich die folgende Regel (engl.
„integration by parts“):
Partielle Integration:
Kurzschreibweise:
Z
Z
u0 (x) · v(x) dx = u(x) · v(x) −
0
u ·v =u·v−
Z
Z
u(x) · v 0 (x) dx
u · v0
Merkregel: Der Strich wird vom einen Faktor auf den anderen „verschoben“.
Für bestimmte Integrale (also mit Integrationsgrenzen) lautet die Regel entsprechend:
Z b
ib
h
u0 (x) · v(x) dx = u(x) · v(x)
a
a
−
Z b
u(x) · v 0 (x) dx
a
Einsetzen der Integrationsgrenzen in den „ausintegrierten“ Term u(x) · v(x) nicht vergessen!
Häufig wird die partielle Integration mehrfach angewendet, dabei muss man sehr aufpassen,
dass man die sich ansammelnden Minuszeichen und eventuelle Vorfaktoren genau beachtet.
Deshalb sollte man sich angewöhnen, den ausintegrierten Term und das folgende neue Integral
stets erst einmal in Klammern zu setzen und diese erst im folgenden Schritt aufzulösen:
Z
e 2x · (x2 + 3x − 5) dx =
|{z}
u0
|
{z
v
}
Z
1 2x
1 2x
e · (x2 + 3x − 5) −
e · (2x + 3) dx
|
{z
}
| {z }
2
2
| {z }
| {z }
v
v0
u
u
1 Z 2x
1 2x 2
e (x + 3x − 5) −
e · (2x + 3) dx
=
| {z }
2
2 |{z}
0
u
v
Z
1 2x 2
1 1 2x
1 2x
=
e (x + 3x − 5) −
e · (2x + 3) −
e · 2 dx
2
2 |2 {z } | {z }
2 {z } |{z}
|
v0
v
u
1 2x 2
=
e (x + 3x − 5) −
2
1 2x 2
=
e (x + 3x − 5) −
2
u
1 2x
e (2x + 3) +
4
1 2x
e (2x + 3) +
4
1 Z 2x
e dx
2
1 2x
e
+C
|{z}
4
letztes
Integral
weg
=
1 2x 2
e (2x + 4x − 12) + C
4
Partielle Integration führt bei Funktionen des Typs p(x)·e x , p(x)·sin x, p(x)·cos x, ex ·sin x,
ex · cos x, sinn x, cosn x und sinn x · cosm x (p(x) Polynom, n, m ∈ N0 ) immer zum Ziel,
auch wenn es etwas länger dauern kann. Sobald Sinus oder Kosinus vorkommen, ist cos2 x +
sin2 x = 1 dabei sehr nützlich, alternativ ist bei Sinus und Kosinus auch ein „Durchgang
durchs Komplexe“ zu empfehlen.
81
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Substitutionsregel
Wie auch aus der Produktregel gewinnt man durch eine einfache Umformulierung aus der
Kettenregel eine Integrationsregel, die sog. (engl. „change of variables“):
Substitutionsregel:
Z
f (u(x)) · u0 (x) dx =
Z
f (u) du
Bei der Anwendung der Substitutionsregel ist es nützlich (wenn auch formal nicht ganz
du
einwandfrei), die Ableitung u0 (x) in der Leibniz-Schreibweise
als gewöhnlichen Bruch
dx
zu behandeln. Am Schluß ist es bei unbestimmten Integralen sinnvoll, die Substitution(en)
rückgängig zu machen:
Gesucht sei eine Stammfunktion von
Z
4x + 10
dx. Versuchsweise setzen wir u(x) =
x + 5x − 1
2
du
x2 + 5x − 1, dann ist u0 (x) =
= 2x + 5, also folgt durch Umstellen der letzten Gleichung
dx
1
du und somit
dx =
2x + 5
Z
Z
Z
4x + 10
4x + 10
1
2(2x + 5)
1
dx =
·
du =
·
du
2
u
2x + 5
u
2x + 5
x + 5x − 1
Z
1
= 2
du = 2 ln |u| + C = 2 ln |x2 + 5x − 1| + C
u
Bei bestimmten Integralen (d. h. mit Integrationsgrenzen) müssen die Integrationsgrenzen
mit umgerechnet werden; dementsprechend entfällt die Rücksubstitution am Ende: Wie oben
sei u(x) = x2 + 5x − 1, dann ergeben x = 1 bzw. x = 2 also u = 5 bzw. u = 13 und somit
ist
Z 2
1
Z 13
Z 13
4x + 10
1
2(2x + 5)
1
4x + 10
dx =
·
du =
·
du
2
u
2x + 5
u
2x + 5
x + 5x − 1
5
5
Z 13
h
i13
1
13
= 2
du = 2 ln |u|
= 2 ln 13 − 2 ln 5 = 2 ln
5
u
5
5
Anhaltspunkt für Substitution: Teilausdrücke, die im Integranden mehrfach oder innerhalb
einer anderen Funktion vorkommen, sind natürliche Kandidaten. Bei folgendem Integral ist
du
1
es also nahe liegend, u(x) = 1 − x2 zu substituieren, mit
= −2x, also dx =
du,
dx
−2x
ergibt sich
Z
Z
√
√ 1
1Z √
1
1
2
x 1 − x dx = x u
du = −
u du = − u3/2 + C = − (1 − x2 )3/2 + C
−2x
2
3
3
Natürlich
ist es ein √
günstiger Zufall, dass sich das x gerade herauskürzt, stünde im Integral
√
x2 1 − x2 statt x 1 − x2 , würde obige Substitution wenig bringen.
Gelegentlich wendet man die Substitutionsregel auch „rückwärts“ an:
82
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Wir setzen x = sin t, dann ist
Z
dx
= cos t, also nach Umstellen dx = cos t dt, und somit
dt
q
Z
Z
√
2
2
x 1 − x dx =
sin t · 1 − sin t dx = sin t · cos t · cos
| {zt dt}
√
|
=
{z
}
dx
cos2 t
1
1
cos2 t · sin t dt = − cos3 t + C = − (1 − x2 )3/2 + C
3
3
Z
Die „Vorwärts-Variante“ wäre hier die Substitution t(x) = arcsin(x), sie führt natürlich zum
selben Ergebnis (und ist im Prinzip natürlich dasselbe), ist aber durch die wenig angenehme
Ableitung des Arkussinus ein wenig umständlich zu handhaben.
Mit Integrationsgrenzen sieht es so aus: Da x = 0 bzw. x = 1 wegen x = sin t jeweils
t = 0 bzw. t = π/2 entsprechen (hier steckt natürlich implizit drin, dass zur Bildung des
Arkussinus der Sinus auf das Intervall [ −π/2, π/2 ] eingeschränkt wurde), ergibt sich
Z 1
x
√
1−
x2
dx =
Z 1
sin t ·
0
0
=
Z π/2
0
q
2
1 − sin t dx =
|
√
{z
}
cos2 t
Z π/2
0
sin t · cos t · cos
| {zt dt}
dx
h 1
iπ/2
1
1
= − (03 − 13 ) =
cos2 t · sin t dt = − cos3 t
0
3
3
3
83
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Daneben sind bei bestimmten Typen von Integralen folgende „Standard-Substitutionen“ zu
empfehlen 13 :
Integraltyp
Z
Z
Substitution
f (ax + b) dx
Ergebnis
t = ax + b
dt = a dx
1Z
f (t) dt
a
t = f (x)
dt = f 0 (x) dx
1
f n+1 (x) + C
n+1
t = f (x)
dt = f 0 (x) dx
ln |f (x)| + C
1
dt = dx
t
Z
f n (x) · f (x) dx
(für n 6= −1)
Z
Z
f 0 (x)
dx
f (x)
t = ex
x
f (e ; e
−x
) dx
1
= e −x
t
Z
Z
Z
√
f (x; a2 − x2 ) dx
√
f (x; x2 + a2 ) dx
√
f (x; x2 − a2 ) dx
x = a sin t
√
dx = a cosh t dt
a2 + x2 = a cosh t
x = a cosh t
√
dx = a cos t dt
a2 − x2 = a cos t
x = a sinh t
√
R(t) dt
dx = a sinh t dt
a2 − x2 = a sinh t
x
2
2t
sin x =
1 + t2
1 − t2
cos x =
1 + t2
t = tan
Z
Z
f (sin x; cos x) dx
auf
f (sinh x; cosh x) dx Umschreiben
x
−x
e und e
dx =
2
dt
1 + t2
Z
R(t) dt
s. o.
In der Spalte „Ergebnis“ steht R(t) für eine rationale Funktion, deren Stammfunktionen
lassen sich immer mittels der sog. Partialbruchzerlegung (kurz: PBZ) bestimmen.
√
bei f (x; a2 − x2 ) eignet sich x = a cos t natürlich ebenso gut wie x = a sin t, die Rollen von sin und
cos vertauschen sich und man erhält einen Faktor −1 dazu.
13
84
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Partialbruchzerlegung
Gegeben sei eine rationale Funktion f (x) = p(x)/q(x) mit Polynomen p(x), q(x), beide
nicht identisch 0. Z. B. zur Integration ist es hilfreich, die Funktion r(x) in eine Summe
lauter sehr einfach gebauter Funktionen zerlegen zu können. Dazu dient der Algorithmus der
sog. Partialbruchzerlegung (Zerlegung in Teilbrüche).
Der Einfachheit halber werde vorausgesetzt, dass q(x) als höchsten Koeffizient 1 hat.
(i) Ist der Zählergrad größer oder gleich Nennergrad, wird zunächst eine Polynomdivision
durchgeführt, die im Allgemeinen natürlich nicht „aufgehen“ wird, es bleibt also ein
Restpolynom r(x):
f (x) =
p(x)
r(x)
= s(x) +
q(x)
q(x)
mit Polynomen s(x), r(x) .
Wesentlich ist dabei, dass der Grad von r(x) nun echt kleiner als der Nennergrad ist.
War der ursprüngliche Zählergrad bereits echt kleiner als der Nennergrad, ist die Polynomdivision entbehrlich, es ist dann s(x) identisch 0.
(ii) Das Nennerpolynom wird vollständig faktorisiert (dabei ist es natürlich durchaus
möglich, dass einige der Nullstellen komplex sind):
q(x) = (x − x1 )r1 · (x − x2 )r2 · . . . · (x − xn )rn
Dabei sind x1 , x2 , . . . , xn die paarweise verschiedenen Nullstellen und r1 , r2 , . . . , rn ihre
Vielfachheiten.
(iii) Nun macht man den Ansatz
r(x)
=
q(x)
A1,1
A1,2
A1,3
A1,r1
1 +
2 +
3 + ··· +
(x − x1 )r1
(x − x1 )
(x − x1 )
(x − x1 )
A2,2
A2,3
A2,r2
A2,1
+
1 +
2 +
3 + ··· +
(x − x2 )r2
(x − x2 )
(x − x2 )
(x − x2 )
..
.
An,2
An,3
An,rn
An,1
,
+
1 +
2 +
3 + ··· +
(x − xn )rn
(x − xn )
(x − xn )
(x − xn )
multipliziert diesen mit q(x) (gleichzeitig der „kleinste gemeinsame Nenner“ der rechten
Seite!) und bestimmt dann die Zahlen A1,1 , . . . , An,rn . Dies ist stets eindeutig
möglich! Dazu gibt es diverse Möglichkeiten, die man auch kombinieren kann:
Z. B. kann man dann die rechte Seite vollständig ausmultiplizieren und nach Potenzen
von x ordnen. Vergleicht man nun die Koeffizienten gleicher Potenzen von x links und
rechts, ergibt sich insgesamt ein LGS mit ebenso vielen Gleichung wie Unbekannten
(soviele wie der Grad des Nenners q(x) beträgt), das stets eindeutig lösbar ist.
85
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Alternativ kann man nacheinander die verschiedenen Nullstellen von q(x) in die Gleichung einsetzen und erhält jedes Mal unmittelbar eine der Zahlen Ak,rk . Hatte q(x)
nur einfache Nullstellen, ist damit alles erledigt.
Anderenfalls kann man die restlichen Zahlen durch einen Koeffizientenvergleich wie
oben beschrieben ermitteln, man kann auch weitere völlig beliebige Zahlen für x einsetzen und erhält damit jedes Mal eine lineare Gleichung für die restlichen der Zahlen
A1,1 , . . . , An,rn . Sobald man genügend beisammen hat, kann man aus dem entstandenen LGS die gesuchten Zahlen ermitteln.
Sofern die Nullstellen des Nenners alle reell sind, lassen sich die einzelnen Terme der Partialbruchzerlegung sehr einfach einzeln integrieren, zusammen mit dem Integral von s(x) erhält
man damit das Integral der Ausgangsfunktion f (x).
Sobald jedoch mindenstens eine der Nullstellen „echt“ komplex ist, wird zum einen die PBZ
selbst mühsam (da überall komplex gerechnet werden muss), zum anderen erhält man eine
komplexe Partialbruchzerlegung, die sich für die normale (reelle) Integration nicht eignet.
Sind jedoch alle Koeffizienten von p(x) und q(x) reell, so tauchen erstens die „echt“ komplexen Nullstellen von q(x) stets paarweise mit ihren konjugiert komplexen Zahlen auf, d. h.
q(x) = (x − x1 )r1 · (x − x2 )r2 · . . . · (x − xk )rk · (x − wk+1 )(x − wk+1 )
· (x − wk+2 )(x − wk+2 )
rk+2
· . . . · (x − wm )(x − wm )
rm
rk+1
,
zweitens erhält man durch Zusammenfassen der Terme zu einem konjugiert komplexen Nullstellenpaar mit gleicher Potenz im Nenner die sog. reelle Partialbruchzerlegung:
r(x)
=
q(x)
A1,1
A1,2
A1,3
A1,r1
1 +
2 +
3 + ··· +
(x − x1 )r1
(x − x1 )
(x − x1 )
(x − x1 )
A2,2
A2,3
A2,r2
A2,1
+
1 +
2 +
3 + ··· +
(x − x2 )r2
(x − x2 )
(x − x2 )
(x − x2 )
..
.
Ak,2
Ak,3
Ak,rk
Ak,1
+
1 +
2 +
3 + ··· +
(x − xk )rk
(x − xk )
(x − xk )
(x − xk )
Bk+1,rk+1 x + Ck+1,rk+1
Bk+1,1 x + Ck+1,1
rk+1
+ 1 + · · · + (x − wk+1 )(x − wk+1 )
(x − wk+1 )(x − wk+1 )
+ Bk+2,1 x + Ck+2,1
(x − wk+2 )(x − wk+2 )
1
+ ··· + Bk+2,rk+2 x + Ck+2,rk+2
rk+2
(x − wk+2 )(x − wk+2 )
..
.
+ Bm,1 x + Cm,1
1
(x − wm )(x − wm )
+ ··· + Bm,rm x + Cm,rm
rm
(x − wm )(x − wm )
Dabei sind die Nenner alle reell, denn
(x − w)(x − w) = x2 − x(w + w) + ww = x2 − x · 2<(w) + |w|2 ,
86
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
und die Zahlen A1,1 , . . . , Ak,rk ,Bk+1,1 , . . . , Bm,rm ,Ck+1,1 , . . . , Cm,rm sind ebenfalls sämtlich
reell; auch ihre Berechnung kann rein reell erfolgen. Zumindest für die Bk+1,1 , . . . , Bm,rm ,
Ck+1,1 , . . . , Cm,rm lohnt es sich aber durchaus, von jedem der komplexen Nullstellenpaare
jeweils eine Nullstelle einzusetzten, da man dadurch gleich zwei dieser Zahlen erhält.
Ansonsten erfolgt die Berechnung prinzipiell genauso wie im Fall einer komplexen Partialbruchzerlegung durch Koeffizientenvergleich oder Einsetzen verschiedener Zahlen für x bzw.
eine Kombination beider Verfahren.
Die Integration der reellen Partialbrüche ist noch relativ überschaubar, wenn auch die Brüche
zu den komplexen Nullstellenpaaren (insbesondere bei mehrfachen) etwas Mühe bereiten.
Auf diese Weise ist die Integration einer rationale Funktion stets geschlossen möglich, sobald
man sich die Nennernullstellen verschafft hat.
Die Tabelle der Ansätze für die reelle Partialbruchzerlegung, die auf der Seite 88 aufgeführt
ist, sollte man keinesfalls zum Nachschlagen verwenden oder gar auswendig lernen, sondern nur, um sich das sehr einfache Schema, nach dem die Ansätze aufgebaut sind, zu
verdeutlichen und einzuprägen:
Für die komplexe PBZ:
(i) Zu jeder r-fachen Nennernullstelle w (reell oder komplex) gehören genau r Ansatzfunktionen, nämlich
A1
A2
Ar
.
1 ,
2 , ... ,
(x − w)r
(x − w)
(x − w)
Für die reelle PBZ (bei einer reellen Funktion):
(i) Zu jeder r-fachen reellen Nennernullstelle w gehören genau die r Ansatzfunktionen
A1
A2
Ar
.
1 ,
2 ,... ,
(x − w)r
(x − w)
(x − w)
(ii) Zu jedem r-fachen Paar konjugiert komplexer Nennernullstellen w, w gehören
genau die r Ansatzfunktionen
B1 x + C1
(x − w)(x − w
1
B2 x + C2
Br x + Cr
r .
, 2 , . . . , (x − w)(x − w
(x − w)(x − w
Hier ist noch einmal ein ganz typischer Effekt zu sehen: Mit komplexen Zahlen wird die PBZ
viel einfacher und übersichtlicher und es gibt keinerlei Sonderfälle, sofern man das Rechnen
mit komplexen Zahlen als ganz selbstverständlich akzeptiert.
87
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Ansätze für die reelle Partialbruchzerlegung bis Nennergrad 4
(Die Zahlen w1 , w2 , . . . müssen jeweils paarweise verschieden sein!)
ax + b
(x − w1 )(x − w2 )
(w1 , w2 ∈ R)
B
A
+
x − w1 x − w2
ax + b
(x − w1 )2
(w1 ∈ R)
A
B
+
x − w1 (x − w1 )2
ax + b
(x − w1 )(x − w1 )
(w1 ∈
/ R)
Ax + B
(x − w1 )(x − w1 )
ax2 + bx + c
(x − w1 )(x − w2 )(x − w3 )
(w1 , w2 , w3 ∈ R)
ax2 + bx + c
(x − w1 )2 (x − w2 )
(w1 , w2 ∈ R)
A
B
C
+
+
x − w1 x − w2 x − w3
A
B
C
+
2 +
x − w1 (x − w1 )
x − w2
ax2 + bx + c
(x − w1 )3
(w1 ∈ R)
A
C
B
+
2 +
x − w1 (x − w1 )
(x − w1 )3
ax2 + bx + c
(x − w1 )(x − w2 )(x − w2 )
(w2 ∈
/ R)
A
Bx + C
+
x − w1 (x − w2 )(x − w2 )
ax3 + bx2 + cx + d
(x − w1 )(x − w2 )(x − w3 )(x − w4 )
(wk ∈ R)
A
B
C
D
+
+
+
x − w1 x − w2 x − w3 x − w4
ax3 + bx2 + cx + d
(x − w1 )2 (x − w2 )(x − w3 )
(wk ∈ R)
B
D
A
C
+
+
2 +
x − w1 (x − w1 )
x − w2 x − w3
ax3 + bx2 + cx + d
(x − w1 )2 (x − w2 )2
(w1 , w2 ∈ R)
B
D
A
C
+
+
2 +
x − w1 (x − w1 )
x − w2 (x − w2 )2
ax3 + bx2 + cx + d
(x − w1 )3 (x − w2 )
(w1 , w2 ∈ R)
A
B
C
D
+
2 +
3 +
x − w1 (x − w1 )
x − w2
(x − w1 )
ax3 + bx2 + cx + d
(x − w1 )4
(w1 ∈ R)
A
C
D
B
+
2 +
3 +
x − w1 (x − w1 )
(x − w1 )
(x − w1 )4
ax3 + bx2 + cx + d
(x − w1 )(x − w2 )(x − w3 )(x − w3 )
(w3 ∈
/ R)
A
B
Cx + D
+
+
x − w1 x − w2 (x − w3 )(x − w3 )
ax3 + bx2 + cx + d
(x − w1 )2 (x − w2 )(x − w2 )
(w2 ∈
/ R)
A
B
Cx + D
+
2 +
x − w1 (x − w1 )
(x − w2 )(x − w2 )
ax3 + bx2 + cx + d
(w1 , w2 ∈
/ R)
(x − w1 )(x − w1 )(x − w2 )(x − w2 )
ax3 + bx2 + cx + d
(x − w1 )(x − w1 )
2
(w1 ∈
/ R)
88
Ax + B
Cx + D
+
(x − w1 )(x − w1 ) (x − w2 )(x − w2 )
Ax + B
Cx + D
+
2
(x − w1 )(x − w1 )
(x − w1 )(x − w1 )
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Bei der anschließenden Integration tauchen ausschließlich folgende Integraltypen auf:
(i)
(ii)
(iii)
Z
1
dx = ln |x − xk | + C
x − xk
Z
Z
1
(x − xk )−r+1
−r
dx
=
(x
−
x
)
dx
=
+C
k
(x − xk )r
−r + 1
Z
Bx + C
dx ,
x + px + q
2
für r = 2, 3, . . .
wobei der Nenner keine reelle Nullstelle hat:
Ableitung des Nenners in den Zähler bringen, Bruch und Integral aufspalten, also
Z
Z
3 · (2x − 4) + 5
6x − 7
dx =
dx
2
x − 4x + 13
x2 − 4x + 13
Z
Z
5
(2x − 4)
dx
+
dx
= 3·
2
2
x − 4x + 13
x − 4x + 13
Z
1
2
= 3 · ln |x − 4x + 13| + 5 ·
dx .
2
x − 4x + 13
Im Nenner quadratische Ergänzung und Ausklammern der additiven Konstanten, d. h.
Z
Z
1 Z
1
1
1
dx
=
dx
=
·
dx .
2
2
9
x − 4x + 13
(x − 2) + 9
(x − 2)2
+1
9
(x − 1)2
x−1
1
dt
Dann t =
, also t = √ und somit
= substituieren:
9
dx
3
9
2
Z
1 Z
3
1
3
dx
=
·
dt =
· arctan t + C .
2
2
9
9
x − 4x + 13
t +1
Ergebnis:
(iv)
Z
Z
6x − 7
5
x−1
dx = 3 · ln |x2 − 4x + 13| + · arctan
+ C.
3
3
x − 4x + 13
2
Bx + C
dx ,
(x + px + q)r
2
wobei der Nenner keine reelle Nullstelle hat und r = 2, 3, . . . ist.
Dies kommt nur bei mehrfachen konjugiert komplexen Nullstellenpaaren, also schon
relativ komplizierten PBZen, vor und ist ähnlich dem vorigen Integraltyp zu behandeln:
Z
Z
6x − 7
3 · (2x − 4) + 5
dx
=
dx
2
r
(x − 4x + 13)
(x2 − 4x + 13)r
Z
Z
(2x − 4)
5
= 3·
dx
+
dx
2
r
2
(x − 4x + 13)
(x − 4x + 13)r
(x2 − 4x + 13)−r+1 5 Z
1
= 3·
+ ·
dt
2
−r + 1
3
(t + 1)r
89
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Das letzte Integral wird nun mittels der für r = 2, 3, . . . gültigen Rekursionsformel
Z
1
t
2r − 3 Z
1
1
dt
=
·
+
dt
2
r
2
r−1
2
2(r − 1) (t + 1)
2(r − 1)
(t + 1)
(t + 1)r−1
solange vereinfacht (Potenz im Nenner verkleinert), bis man schließlich zu
Z
1
dt = arctan(t) + C
(t + 1)1
2
gelangt. Die Rekursionsformel selbst ergibt sich mittels partieller Integration:
Z
1
dt
(t + 1)r
2
=
=
Z
Z
t2 + 1
t2
dt
−
dt
(t2 + 1)r
(t2 + 1)r
Z
1Z
2t
1
t · 2
dt
2
r−1 dt −
|{z}
2
(t + 1)
(t + 1)r
v
|
= 1·
=
Z
{z
u0
}
!
Z
1
1
1
1
t· 2
1· 2
dt
2
r−1 dt −
r−1 −
2(−r + 1)
(t + 1)
(t + 1)
(t + 1)r−1
!Z
1
t
1
1
1+
· 2
2
r−1 dt +
2(−r + 1)
2(r − 1) (t + 1)r−1
(t + 1)
1
t
2r − 3 Z
1
· 2
=
2
r−1 dt +
2(r − 1)
2(r − 1) (t + 1)r−1
(t + 1)
90
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Uneigentliche Integrale
Def: Ist f (x) für M > a über [ a, M ] integrierbar und existiert
lim
Z M
M →+∞ a
f (x) dx als
eigentlicher
Grenzwert (d. h. ±∞ sind nicht zugelassen), so sagt man, das uneigentliche
Z
+∞
f (x) dx existiert bzw. konvergiert und sein Wert ist dieser Grenzwert, kurz:
Integral
a
Z +∞
Z M
f (x) dx = lim
M →+∞ a
a
f (x) dx
Anderenfalls sagt man, das uneigentliche Integral existiert nicht bzw. es divergiert.
Analog ist
Z b
f (x) dx definiert.
−∞
Vorsicht bei einem uneigentlichen Integral des Typs
Z +∞
f (x) dx. Darunter ist
−∞
Z +∞
Z M
f (x) dx = lim
f (x) dx + lim
M →−∞ M
M →+∞ c
−∞
Z c
f (x) dx
zu verstehen, wobei c ein beliebige reelle Zahl ist. Insbesondere konvergiert dieses
uneigentliche Integral nur, wenn beide Grenzwerte auf der rechte Seite einzeln (als
eigentliche Grenzwerte) existieren. Davon zu unterscheiden ist der (selten anzutreffende)
sog. Cauchysche Hauptwert
lim
Z M
M →+∞ −M
f (x) dx = (P V )
Z +∞
f (x) dx .
(PV bedeutet „principal value“)
−∞
Neben den uneingentliche Integralen, wo eine Grenze ±∞ ist, gibt es einen weiteren Typ,
wo der Integrand in einem Randpunkt des Integrationsintervalls nicht definiert (oder nicht
beschränkt) ist:
Def:Z Ist f (x) auf [ a, b) definiert, für jedes c ∈ [ a, b) über [ a, c ] integrierbar und existiert
c
f (x) dx als eigentlicher Grenzwert (d. h. ±∞ sind nicht zugelassen), so sagt man,
lim
c↑b
a
das uneigentliche Integral
a
f (x) dx existiert bzw. konvergiert und sein Wert ist dieser
a
Grenzwert, kurz:
Z b
Z b
f (x) dx = lim
Z c
c↑b
f (x) dx
a
Sinngemäß ist dieser Typ von uneigentlichem Integral definiert, wenn die „problematische
Stelle“ des Integranden nicht an der oberen, sondern an der unteren Grenze liegt.
Sollte eine „problematische Stelle“ nicht in einem Randpunkt, sondern im Inneren des Intervalls liegen, wird es komplizierter, z. B. ist
Z 1
−1
ln |x| dx = lim
b↑0
Z b
−1
ln |x| dx + lim
a↓0
Z 1
ln |x| dx ,
a
91
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
und das uneigentliche Integral konvergiert nur, wenn beide Grenzwerte rechts einzeln existieren (als eigentliche Grenzwerte!). Existiert auch nur einer der beiden nicht, divergiert das
gesamte uneigentliche Integral links.
Natürlich ist es auch möglich, dass der Integrand in mehreren Punkten Probleme bereitet
und alles auch noch mit Integrationsgrenzen ±∞ kombiniert werden kann, beispielsweise
Z +∞
0
1
dx =
x(x − 10)
Z 7
1
dx
a↓0 a x(x − 10)
Z 17
Z b
1
1
dx + lim
dx
+ lim
a↓2 a
b↑2 7 x(x − 10)
x(x − 10)
Z M
1
+ lim
dx
M ↑+∞ 17 x(x − 10)
lim
Nur wenn alle vier Grenzwerte rechts als eigentliche Grenzwerte existieren, konvergiert das
uneigentliche Integral links (die Unterteilungspunkte 7 bzw. 17 sind natürlich willkürlich).
Die Kurzschreibweise ist nicht ganz ungefährlich: Man erkennt meist nicht auf den ersten
Blick, ob es sich um ein gewöhnliches Integral handelt oder sich dahinter ein uneigentliches
Integral versteckt. Dazu muss man untersuchen, ob der Integrand auf dem gesamten Intervall [ a, b ] definiert und stetig (oder zumindest beschränkt) ist. Beim folgenden Beispiel
ergibt nämlich naive (falsche!) Rechnung:
Z 2
0
"
2x
1
2
2 dx = −
2
(x − 1)
(x − 1)1
#2
0
1
4
1
=−
=− +
3 −1
3
Unfug!!!
Der Integrand ist offensichtlich auf [ 0, 2 ] immer ≥ 0, also müsste das Integral (Flächeninhalt unter dem Funktionsgraphen) natürlich auch ≥ 0 sein. Erst wenn man erkennt, dass
der Integrand an der Stelle 1 nicht definiert ist (Nenner dort = 0), wird dies verständlich.
Man muss hier also wie folgt rechnen:
Z 2
0
Z b
Z 2
2x
2x
2x
2
2 dx = lim
2
2 dx + lim
2
2 dx
b↑1
a↓1
(x − 1)
0 (x − 1)
a (x − 1)
b
2
1
1
= lim − 2
+ lim − 2
b↑1
x − 1 0 a↓1
x −1 a
1
1 = lim − 2
+
+ ...
b↑1
−1
b
−
1
| {z }
→+∞
Da der erste Grenzwert nicht existiert (als eigentlicher Grenzwert!), ist es völlig unerheblich,
was sich beim zweiten ergibt, das gesamte uneigentliche Integral über [ 0, 2 ] divergiert. Mit
Hilfe der PBZ erkennt man leicht, dass dies zu verallgemeinern ist:
Satz: Ist f (x) = p(x)/q(x) eine vollständig gekürzte rationale Funktion (d. h. Zähler
und Nenner haben keine gemeinsame Nullstelle), und liegt mindestens eine Nullstelle des
Nenners in [ a, b ] (egal, ob auf dem Rand oder im Inneren), so divergiert
Z b
a
92
f (x) dx.
Fachbereich MNI
Prof. Dr. A. Bolsch
WS 2010/2011
Rotationskörper
Es sei hier stets vorausgesetzt, dass die vorkommenden Integrale existieren.
Satz: Das Volumen des durch Rotation des Funktionsgraphen von f : [ a, b ] → R um die
x-Achse entstehenden Rotationskörpers beträgt
V =π
Z b
f 2 (x) dx .
a
Satz: Die Mantelfläche des durch Rotation des Funktionsgraphen von f : [ a, b ] → R um
die x-Achse entstehenden Rotationskörpers hat den Flächeninhalt
A = 2π
Z b
r
|f (x)| 1 + f 0 (x)
2
dx .
a
Häufig findet man die Formel für die Mantelfläche statt mit |f (x)| mit dem Faktor f (x), dabei
wird dann jedoch vorausgesetzt, dass f (x) nichtnegativ ist. Bei der Oberfläche kommen noch
die beiden kreisförmigen „Deckel“ an den Enden zur Mantelfläche hinzu.
Bei einem homogenen Rotationskörper mit der x-Achse als Rotationsachse befindet sich der
Schwerpunkt offensichtlich auf der x-Achse. Für die verbleibende dritte Koordinate gilt der
Satz: Die Schwerpunktskoordinate xs des durch Rotation des Funktionsgraphen von f :
[ a, b ] → R um die x-Achse entstehenden homogenen Rotationskörpers berechnet sich zu
Z b
π
xs =
V
Z b
a
2
xf 2 (x) dx
a
xf (x) dx = Z
b
.
2
f (x) dx
a
Hierbei ist natürlich ein homogenes Schwerefeld und eine positive Dichte vorausgesetzt.
Volumen und Mantelfläche sind additiv, d. h. bei einem zusammengesetzten Rotationskörper (wo für unterschiedliche Abschnitte der x-Achse verschiedene Teilfunktionen „zuständig“
sind), können die entsprechenden Teilintegrale einfach addiert werden, analoges gilt für Differenzkörper. Für die Schwerpunktskoordinate xs dagegen ist dies natürlich falsch.
93
Herunterladen