Vorlesungsskript - Theoretische Chemie / Universität Duisburg

Werbung
Vorlesung
Numerische Methoden
der Chemie
Sommersemester 2017
Eckhard Spohr
Lehrstuhl für Theoretische Chemie
Universität Duisburg-Essen
D-45141 Essen, Germany
[email protected]
24. Mai 2017
Inhaltsverzeichnis
I
Einleitung
1
1 Übersicht
2
II
3
Komplexe Zahlen
2 Komplexe Zahlen
2.1 Definitionen & Rechenregeln . . . . . . . . . . .
2.2 Polarkoordinatendarstellung . . . . . . . . . . .
2.3 Multiplikation und Division in Polarkoordinaten
2.4 Moivresche Formel . . . . . . . . . . . . . . . .
2.5 Wurzeln aus komplexen Zahlen . . . . . . . . .
2.6 Fundamentalsatz der Algebra . . . . . . . . . .
2.7 Eulersche Formel . . . . . . . . . . . . . . . . .
III
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Lineare Algebra
3 Lineare Algebra
3.1 Einführung . . . . . . . . . . . . . . .
3.2 Matrizen und Vektoren . . . . . . . . .
3.3 Spezielle Matrizen . . . . . . . . . . . .
3.4 Die Spur einer Matrix . . . . . . . . .
3.5 Matrixdeterminanten . . . . . . . . . .
3.6 Lineare Gleichungssysteme . . . . . . .
3.7 Lineare Unabhängigkeit . . . . . . . .
3.8 Rang einer Matrix . . . . . . . . . . .
3.9 Lösbarkeit linearer Gleichungssysteme .
3.10 Inverse Matrizen . . . . . . . . . . . .
3.11 Eigenwerte und Eigenvektoren . . . . .
4
4
12
13
15
17
18
19
21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
22
23
24
27
27
30
34
35
36
37
41
3.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.12.1 Inverse einer Rechtecksmatrix . . . . . . . . . . . . . . 43
3.12.2 Eigenwerte einer 3 ⇥ 3-Matrix . . . . . . . . . . . . . . 45
IV
Funktionen Mehrer Veränderlicher
48
4 Funktionen mehrerer Veränderlicher
4.1 Partielle Ableitungen . . . . . . . . . . . . . . . . .
4.2 Höhere Partielle Ableitungen . . . . . . . . . . . . .
4.3 Tangentialebenen . . . . . . . . . . . . . . . . . . .
4.4 Totales Di↵erential . . . . . . . . . . . . . . . . . .
4.5 Kettenregel . . . . . . . . . . . . . . . . . . . . . .
4.6 Partielle Ableitungen in der Thermodynamik . . . .
4.7 Implizite Funktionen . . . . . . . . . . . . . . . . .
4.8 Taylorentwicklung . . . . . . . . . . . . . . . . . . .
4.9 Extremwerte . . . . . . . . . . . . . . . . . . . . . .
4.10 Multilineare Regression . . . . . . . . . . . . . . . .
4.11 Integration von Funktionen mehrerer Veränderlicher
4.12 Kurven- oder Pfadintegrale . . . . . . . . . . . . . .
49
49
52
55
55
58
63
65
68
75
79
83
98
5 Gewöhnliche Di↵erentialgleichungen
5.1 Einleitung & Begri↵sbildung . . . . . . . . . . .
5.2 Di↵erentialgleichungen mit getrennten Variablen
5.3 Lineare Di↵erentialgleichungen 1. Ordnung . . .
5.4 Lineare DGLen 2. Ordnung . . . . . . . . . . .
5.5 Systeme von linearen DGLen . . . . . . . . . .
V
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
104
. 104
. 109
. 110
. 114
. 119
Wahrscheinlichkeitsrechnung
6 Einführung in die Wahrscheinlichkeitsrechnung
6.1 Kombinatorik . . . . . . . . . . . . . . . . . . . .
6.2 Grundbegri↵e . . . . . . . . . . . . . . . . . . . .
6.3 Wahrscheinlichkeiten . . . . . . . . . . . . . . . .
6.4 Rechnen mit Wahrscheinlichkeiten . . . . . . . . .
6.5 Bedingte Wahrscheinlichkeiten . . . . . . . . . . .
6.6 Ereignisbäume . . . . . . . . . . . . . . . . . . . .
iii
124
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
125
. 125
. 129
. 132
. 134
. 136
. 139
Teil I
Einleitung
Inhaltsangabe
1
Übersicht
2
1
1
Slide 2
Übersicht
Übersicht
• Komplexe Zahlen
• Lineare Algebra: Matrizen und Vektoren
• Funktionen mehrerer Veränderlicher: Di↵erentiation
• Funktionen mehrerer Veränderlicher: Anwendungen und Integration
• Di↵erentialgleichungen
2
Teil II
Komplexe Zahlen
Inhaltsangabe
2
Komplexe Zahlen
4
2.1
Definitionen & Rechenregeln . . . . . . . . . . . . . . . . .
4
2.2
Polarkoordinatendarstellung . . . . . . . . . . . . . . . . . 12
2.3
Multiplikation und Division in Polarkoordinaten . . . . . 13
2.4
Moivresche Formel . . . . . . . . . . . . . . . . . . . . . . 15
2.5
Wurzeln aus komplexen Zahlen . . . . . . . . . . . . . . . 17
2.6
Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . 18
2.7
Eulersche Formel . . . . . . . . . . . . . . . . . . . . . . . 19
3
2
Komplexe Zahlen
2.1
Slide 3
Definitionen & Rechenregeln
Imaginäre Einheit
Es gibt einfache Gleichungen, die keine reellen Lösungen haben, z.B.
x2 + 4 = 0
Formal kann man diese Gleichung so lösen:
x2 =
4
p
x = ±
4
p
x = ±2
1
p
Jedoch ist
1 für die reelle Zahl 1 nicht definiert. =) Einführung eines
neuen Symbols i ( imaginäre Einheit):
p
i2 = 1 oder i :=
1
Slide 4
Zahlengerade
Aber: die reellen Zahlen liegen dicht auf der Zahlengerade:
•
natürliche Zahlen
1 2 3 4
-4 -3 -2 -1
5
3
1
2
3
4
•
0
1 2 3
p
2 e⇡
4
-0.5
-4 -3 -2 -1
•
0
1
4
ganze Zahlen
5
2
-0.5
-4 -3 -2 -1
5
3
•
0
2
3
=) Übergang zur Gaußschen Zahlenebene
Slide 5
4
rationale Zahlen
reelle Zahlen
Gaußsche Zahlenebene
Im
z=a+ib
b
z = (a,b)
a
Slide 6
Re
Definition komplexer Zahlen
Eine komplexe Zahl z ist ein geordnetes Zahlenpaar
z := (x, y) mit x, y 2 R,
für das (definitionsgemäß) gilt:
1. Gleichheit: Zwei komplexe Zahlen z1 = (x1 , y1 ) und z2 = (x2 , y2 ) heißen
gleich
z1 = z2
wenn gilt: x1 = x2 und y1 = y2 .
2. Summe bzw. Di↵erenz: Summe oder Di↵erenz von z1 und z2 ist:
z1 ± z2
= (x1 , y1 ) ± (x2 , y2 )
:= (x1 ± x2 , y1 ± y2 )
3. Multiplikation: Multiplikation von z1 mit z2 : Das Produkt von z1 und
z2 ist:
z1 · z2
= (x1 , y1 ) · (x2 , y2 )
:= (x1 x2 y1 y2 , x1 y2 + x2 y1 )
5
4. Real- und Imaginärteil: z = (x, y) hat den Realteil Re(z) = x und den
Imaginärteil Im(z) = y.
5. Komplex Konjugierte: Für z = (x, y) nennt nennt man z̄ oder z ⇤ das
Komplex Konjugierte zu z z ⇤ = z̄ = (x, y).
Slide 7
Bemerkung
Wenn y1 = 0 und y2 = 0, dann folgen aus 2. und 3. wieder die Rechenregeln für reelle Zahlen:
(x1 , 0) ± (x2 , 0) = (x1 ± x2 , 0)
(x1 , 0) · (x2 , 0) = (x1 · x2 , 0)
Wir können also reelle Zahlen als die Spezialfälle komplexer Zahlen mit verschwindenden Imaginärteil betrachten:
(x, 0) =: x
Slide 8
Definition
Definition: reelle und imaginäre Zahlen
Eine komplexe Zahl ist (rein) reell, wenn Im(z) = 0.
Sie ist imaginär, wenn Re(z) = 0 ^ Im(z) 6= 0.
Slide 9
Imaginäre Einheit
Die Zahl i := (0, 1) erfüllt die Bedingung i2 =
(0, 1) · (0, 1) = (0 1, 0 + 0) = ( 1, 0)
1, denn i2 = i · i =
Definition: Imaginäre Einheit
i := (0, 1) heißt imaginäre Einheit.
Bemerkung: mit y 2 R gilt: iy = (0, 1) · (y, 0) = (0 · y 1 · 0, 0 · 0 + 1 · y) =
(0, y) Für eine beliebige komplexe Zahl z = (x, y) = (x, 0) + (0, y) gilt also
Definition: Übliche Schreibweise:
Die übliche Schreibweise einer komplexen Zahl ist damit
z = x + iy
Slide 10
mit x, y 2 R,
und i imaginäre Einheit
6
Bemerkung
Addition (Subtraktion) kann in der Form
(z1 ± z2 ) = (x1 + iy1 ) ± (y1 + iy2 )
= (x1 ± x2 ) + i(y1 ± y2 )
geschrieben werden.
Real- und Imaginärteile werden also jeweils einzeln addiert bzw. subtrahiert.
Slide 11
Beispiel für Subtraktion
z1 = 3
z1
i
z2 =
z2 = [3
2
3i
( 2)] + i[ 1
( 3)]
= 5 + 2i
Slide 12
Bemerkung zur Multiplikation
Definitionsgemäß gilt:
(x1 , y1 ) · (x2 , y2 ) = (x1 x2
= x1 x2
y 1 y 2 , x1 y 2 + x 2 y 1 )
y1 y2 + i(x1 y2 + x2 y1 )
Direktes Ausmultiplizieren von (x1 + iy1 ) mit (x2 + iy2 ) ergibt:
(x1 + iy1 ) · (x2 + iy2 ) = x1 x2 + iy1 x2 + x1 · (iy2 ) + (iy1 ) · (iy2 )
= x1 x2 + i(y1 x2 + x1 y2 ) + i2 y1 y2
= x1 x2
y1 y2 + i(y1 x2 + x1 y2 )
Man kann also mit i rechnen ’wie mit einer (reellen) Zahl’.
Slide 13
7
Beispiel für Multiplikation
z1 = 3
i
z2 =
z1 · z2 = (3
2
3i
i) · ( 2
3i)
=
6
9i + 2i + 3i2
=
9
7i
= ( 9, 7)
Slide 14
Absolutbetrag
Definition: Absolutbetrag
Der Absolutbetrag |z| einer komplexen Zahl z := x + iy
ist definiert als
p
|z| = |x + iy| = x2 + y 2 0
Bemerkung über konjugiert komplexe Zahlen (oder “komplex konjugierte
Zahlen”):
• z⇤ = x
iy wenn z = x + iy
• Es gilt: Re(z) = Re(z ⇤ ) und Im(z) =
• |z| = |z ⇤ |
• z · z ⇤ ist immer reell.
Slide 15
8
Im(z ⇤ )
Beispiel
z=3
i =) z ⇤ = 3
z · z ⇤ = (3
( i) = 3 + i
i2 = 10 ist reell
p
allgemein: |z| = |x + iy| = x2 + y 2
p
|z ⇤ | = |x iy| = x2 + ( y)2 =) |z| = |z ⇤ |
p
p
|z · z ⇤ | = x2 + y 2 · x2 + y 2 = x2 + y 2 ist immer reell und positiv.
Slide 16
i)(3 + i) = 32
Rechenregeln
Addition und Multiplikation sind
• kommutativ
z1 + z2 = z2 + z1
z1 · z2 = z2 · z1
• assoziativ
z1 + (z2 + z3 ) = (z1 + z2 ) + z3
z1 · (z2 · z3 ) = (z1 · z2 ) · z3
• Es gilt ein Distributivgesetz:
z1 · (z2 + z3 ) = z1 · z2 + z1 · z3
Slide 17
Division zweier komplexer Zahlen
Gegeben: z1 = x1 + iy1 , z2 = x2 + iy2 .[0.5cm]
Gesucht: z mit z1 · z = z2 .[0.5cm]
Man schreibt
z2
x2 + iy2
z :=
=
z1
x1 + iy1
Frage: Ist z wieder eine komplexe Zahl?[0.2cm] maW: kann ich also schreiben z = x + iy mit x, y 2 R?
Slide 18
9
Division zweier komplexer Zahlen
z ist in der Tat komplex. Durch Erweitern des Bruchs mit dem Konjugiert
Komplexen des Nenners erhält man das gewünschte Ergebnis.
z=
Slide 19
z2
(x2 + iy2 )(x1 iy1 )
=
z1
(x1 + iy1 )(x1 iy1 )
(x2 x1 + iy2 x1 ix2 y1 i2 y2 y1
=
x21 i2 y12
(x2 x1 + y1 y2 ) + i(y2 x1 x2 y1 )
=
x21 + y12
x2 x1 + y1 y2
y2 x1 x2 y1
=
+i·
2
2
x1 + y1
x21 + y12
= x + iy
Beispiel für Division
z1 = 1
z=
also
Slide 20
i
z2 = 1 + i
1+i
(1 + i)(1 + i)
=
1 i
(1 i)(1 + i)
=
1 + i + i + i2
1 i2
=
1 + 2i 1
2i
=
1+1
2
1+i
= i
1 i
Rechenregeln für konjugiert Komplexe Zahlen
10
Slide 21
(z1 ± z2 )⇤ = z1⇤ ± z2⇤
2.
(z1 · z2 )⇤
3.
⇣ z ⌘⇤
1
z2
= z1⇤ · z2⇤
=
z1⇤
z2⇤
Rechenregeln für Beträge
1.
|z ⇤ |
2.
|z1 + z2 |
3.
Slide 22
1.
||z1 |
= |z|
 |z1 | + |z2 | (Dreiecksungleichung)
|z2 ||  |z1 + z2 |  |z1 | + |z2 |
4.
|z1 · z2 |
5.
z1
z2
= |z1 | · |z2 |
=
|z1 |
|z2 |
Dreiecksungleichung
11
Imz
|z1 |
• z1 + z2
1
•
|z2 |
• z2
|z1 + z2 |
Re
komplexe Zahlen verhalten sich bzgl. Addition und Subtraktion wie Vektoren in der Ebene.
2.2
Slide 23
Polarkoordinatendarstellung
Polarkoordinaten
Eine komplexe Zahl kann statt durch die zwei Zahlen x, y 2 R auch durch
durch Polarkoordinaten, also einen Betrag
r = |z|
und einem Winkel ,
0
2 [0; 2⇡[ dargestellt werden.
y
Im
z=x+iy
r
x
Slide 24
Re
Polarkoordinaten: Gaußsche Zahlenebene
12
o↵enbar gilt dann:
x = r cos
y = r sin
z = r(cos + i sin )
|z| = |r|
r,
Slide 25
q
cos2
+ sin2
= |r| = r
kann aus x, y wieder berechnet werden durch
p
y
y
r = x2 + y 2 tan =
) = arctan
x
x
Beispiel Polarkoordinaten
Im
z
r
p
p
z = q1 + i 3 () x = 1, y = 3
p 2 p
r = ( 1)2 + 3 = 4 = 2 [0.3cm]
= 180 p
[0.3cm]
p
3
tan = 1 =
3 = tan(180
) = tan( ) =
p
) tan = 3 =) = 60
=) = 120
2.3
Slide 26
Re
tan
[0.4cm]
[0.3cm]
Multiplikation und Division in Polarkoordinaten
Multiplikation in Polarkoordinaten
z1 · z2 = r1 (cos
1
+ i sin
= r1 · r2 ([cos 1 cos
i[sin 1 cos
13
1)
· r2 (cos
sin
2 + cos
2
2
+ i sin
sin 2 ] +
1 sin 2 ])
1
2)
Nach den Additionstheoremen gilt:
[cos
[sin
1
1
cos
cos
sin
1
sin
= cos(
1
+
2)
+ cos
1
sin 2 ] = sin(
1
+
2)
2
2
2]
Andererseits gilt natürlich:
z1 · z2 = z = r · (cos + i sin )
Slide 27
Multiplikation
=) 2 Komplexe Zahlen werden in Polarkoordinaten multipliziert, indem[0.2cm] die Beträge multipliziert werden: r = r1 · r2 [0.2cm] und die
Winkel addiert werden: = 1 + 2
Slide 28
Division in Polarkoordinaten
z1
z1 · z2⇤
=
z2
|z2 |2
=
=
=
r1 (cos
1
+ i sin
1)
r1 (cos
1
+ i sin
1)
cos(
2)
r1
([cos
r2
1
i[sin
=
r1
[cos(
r2
1
1
· r2 (cos
r22
cos(
2)
· r2 (cos(
r22
sin
2)
Slide 29
14
1
1
+ i sin(
i sin
2
+ cos
+ i sin(
2)
sin(
1
sin(
2 )]
2 )]
2)
+
2 )])
2 ))
Division
=) 2 Komplexe Zahlen werden in Polarkoordinaten dividiert, indem
die Beträge dividiert werden: r = rr12 und die Winkel subtrahiert werden:
=
1
2
Multiplikation und Division ist in Polarkoordinaten ’einfacher’.
Slide 30
Beispiel
z1 = 1 + i
Im
z2 = 1
1+i
i
r1 = r 2 =
p
2
45
45
Re
1
i
p
2
z = p · (cos(
2
2)
1
+ i sin(
1
2 ))
= 1 · (cos(90 ) + i sin(90 ))
= +i
2.4
Slide 31
(r = 1,
= 90 )
Moivresche Formel
Sei z1 = z2 = z. Dann ist 2
z = (r(cos + i sin ))2
= r2 (cos(2 ) + i sin(2 ))
Dies ist ein Spezialfall der Moivreschen Formel[0.2cm]
Moivresche Formel
[cos + i sin ]n = cos(n ) + i sin(n ) n 2 Z
=) Die Moivresche Formel erleichtert die Berechnung von Potenzen komplexer Zahlen.
Slide 32
15
Beispiel
z=
p
1+i 3
z 5 =?
Lösung mit dem Binomialsatz:
⇣
p ⌘5
z5 =
1+i 3
✓ ◆
p
5
5
= ( 1) +
( 1)4 (i 3) +
1
✓ ◆
✓ ◆
p 2
p
5
5
3
( 1) (i 3) +
( 1)2 (i 3)3 +
2
3
✓ ◆
p
p
5
( 1)(i 3)4 + (i 3)5
4
p
p
=
1 + 5i 3 10 · 3 · ( 1) + 10 · ( i) · 3 3
p
=
16 16 3
Slide 33
Beispiel
Lösung mit der Moivreschen Formel:
p
p
r = x2 + y 2 = 1 + 3 = 2
p
x
1
y
3
cos = =
sin = =
=)
r
2
r
2
also
p
5 · 9 + 9 3i
= 120
z 5 = r5 [cos(5 · 120 ) + i sin(5 · 120 )]
= 32 · [cos(600 ) + i sin(600 )]
= 32 · [cos(240 ) + i sin(240 )]
"
p #
1
3
= 32 ·
i
2
2
p
=
16 16 3i
16
2.5
Slide 34
Wurzeln aus komplexen Zahlen
n-te Wurzeln
n-te Wurzeln beliebiger komplexer Zahlen lassen sich mit dem Moivreschen Satz bestimmen. Sei n 2 N:
n-te Wurzel
Wenn die n-te Wurzel aus z = x + iy gezogen werden soll
p
n
z = z 1/n =: ⇣ = ⇠ + i⌘
so ist das gleichbedeutend mit
⇣n = z
Slide 35
n-te Wurzel
In Polarkoordinaten gilt
⇣ = ⇢ [cos
+ i sin ]
⇢ = |⇣|
z = r [cos + i sin ]
Aus der Moivreschen Formel folgt
⇢n [cos + i sin ]n =
⇢n [cos(n ) + i sin(n )] = r [cos + i sin ]
Vergleich der Beträge links/rechts:
Vergleich der Winkel links/rechts:
n =
()
Slide 36
17
⇢n = r () ⇢ = r1/n
=
n
n-te Wurzel
Es gibt aber noch weitere Lösungen. Es gilt nämlich
n =
+ k · 360 ,
k2Z
denn cos(n ) = cos( + 360 · k) = cos . Es gilt also allgemeiner:
n-te Wurzeln aus komplexen Zahlen
k
=
+ 360 · k
n
=
+ 2⇡k
n
k = 0, 1, 2, . . . , n
k = n nicht möglich, denn für ( + 2⇡n)/n ist wieder
Slide 37
1
n
=
0.
Beispiel
p
5
1 + i =?
also
p
p
z = 1 + i r = 1 + 1 = 2, n = 5,
p
p
p
5
⇢=
2 = 10 2 = 21/10 [0.2cm]
0 = 5 = 9 [0.2cm]
360
1 = 5 + 5 · 1 = 9 + 72 = 81 [0.2cm]
360
2 = 5 + 5 · 2 = . . . = 153 [0.2cm]
3 = . . . = 225 [0.2cm]
4 = 297
2.6
Slide 38
Fundamentalsatz der Algebra
Fundamentalsatz der Algebra
18
= 45
Fundamentalsatz der Algebra
Jedes Polynom n-ten Grades
f (z) = a0 + a1 z + a2 z 2 + . . . + an z n ,
an 6= 0, n
1
mit komplexen ak und z lässt sich in der Form
fn = an · (z
z1 ) · (z
z2 ) . . . (z
zn )
schreiben. Die zn sind die n Nullstellen des Polynoms.
(Zerlegung in Faktoren / “Faktorisierung”)
f hat mindestens eine, höchstens n verschiedene komplexe Nullstellen. Ist
z.B. z1 = z2 so spricht man auch von “mehrfachen Nullstellen” (zweifache im
Beispiel).
2.7
Slide 39
Eulersche Formel
Eulersche Formel
Statt mit cos und sin kann man wesentlich eleganter mit der komplexen Exponentialfunktion (Exponentialfunktion mit imaginärem Argument)
rechnen.
Eulersche Formel
ei := cos + i sin
Aufgrund der Additionstheoreme gilt dann
e i · ei
ei
= ei(
n
+ )
= ein
Der Ausdruck ei “verhält sich wie die Exponentialfunktion”.
Slide 40
Taylorentwicklung
19
Man kann durch Taylorentwicklung zeigen, dass
ei
= 1+
(i ) (i )2 (i )3
+
+
...
1!
2!
3!
= cos + i sin
2
cos
= 1
sin
=
2!
4
+
3
Slide 41
3!
denn
4!
...
5
+
5!
...
Cosinus und Sinus
ei
= cos + i sin
e
i
=) e + e
i
= 2 cos
ei
i
= 2i sin
i
e
cos
sin
= cos(
) + i sin(
= cos
i sin
ei + e
2
ei
e
=
2i
i
=
i
Die rechten Seiten sind nur scheinbar komplex.
20
)
Teil III
Lineare Algebra
Inhaltsangabe
3
Lineare Algebra
22
3.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2
Matrizen und Vektoren . . . . . . . . . . . . . . . . . . . . 23
3.3
Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . 24
3.4
Die Spur einer Matrix . . . . . . . . . . . . . . . . . . . . 27
3.5
Matrixdeterminanten . . . . . . . . . . . . . . . . . . . . . 27
3.6
Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . 30
3.7
Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . 34
3.8
Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . 35
3.9
Lösbarkeit linearer Gleichungssysteme . . . . . . . . . . . 36
3.10 Inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . 37
3.11 Eigenwerte und Eigenvektoren
. . . . . . . . . . . . . . . 41
3.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.12.1 Inverse einer Rechtecksmatrix . . . . . . . . . . . . 43
3.12.2 Eigenwerte einer 3 ⇥ 3-Matrix . . . . . . . . . . . . 45
21
3
Lineare Algebra
3.1
Slide 42
Einführung
Chemische Reaktionsgleichung
Kaliumdichromat (K2 Cr2 O7 ) zerfällt bei 500 C in Kaliumchromat (K2 CrO4 ),
Chromoxid (Cr2 O3 ) und Sauersto↵ O2 .
x1 K2 Cr2 O7 ! x2 K2 CrO4 + x3 Cr2 O3 + x4 O2
• wie findet man die Unbekannnten xi , außer durch Raten?
• Woran sieht man, dass die Lösung nicht eindeutig ist? (wie immer bei
chemischen Reaktionsgleichungen)
Slide 43
Bilanzierung
x1 K2 Cr2 O7 ! x2 K2 CrO4 + x3 Cr2 O3 + x4 O2
K : 2x1 = 2x2
Cr : 2x1 = x2 + 2x3
O : 7x1 = 4x2 + 3x3 + 2x4
(Ladung :
0
= 0)
Normalform:
2x1
2x1
7x1
2x2
x2
4x2
2x3
3x3
2x4
Slide 44
22
= 0
= 0
= 0
(1)
(2)
(3)
Matrizen und Vektoren
2x1
2x1
7x1
2x2
x2
4x2
2x3
3x3
2x4
= 0
= 0
= 0
die Gleichung durch drei Objekte A,0~a und1~x.[0.4cm]
1
0 1
x1
0
0
0
B x2 C
C
2
0 A
~a = @ 0 A
~x = B
@ x3 A
3
2
0
x4
Diese Objekte nennt man Matrizen
~a und ~x sind Spezialfälle und heißen auch noch Vektoren
Man kann dann schreiben: A~x = ~a
Was bedeuten die Symbole und welche Rechenregeln gibt es?
=) Man ersetzt
0
2
2
@
2
1
A=
7
4
3.2
Slide 45
Matrizen und Vektoren
Matrizen
• Eine Matrix ist ein rechteckiges Zahlenschema
• eine n ⇥ m-Matrix A besteht aus n Zeilen
Matrixelementen aij , i=1...n und j=1...m
0
a11 a12 . . .
B a21 a22 . . .
B
A = A = B ..
..
..
@ .
.
.
an1 an2 . . .
und m Spalten mit den
a1m
a2m
..
.
anm
1
C
C
C
A
• die aij sind reelle oder komplexe Zahlen
• eine n ⇥ 1-Matrix (Spaltenmatrix) heißt (Spalten)Vektor
0
1 0
1
v11
v1
B v21 C B v2 C
C B
C
~v = v = B
@ ... A = @ ... A
vn1
vn
23
• Zwei Matrizen A und B sind gleich, wenn die Zahl der Zeilen in A und
B gleich sind, die Zahl der Spalten in A und B gleich sind, und wenn
gilt aij = bij 8i, j.
Slide 46
Matrixoperationen
• Wenn A und B beides n ⇥ m-Matrizen sind, dann ist die Summe der
Matrizen C = A + B definiert als
cij = aij + bij
mit
1in
und
1jm
• Wenn A eine m ⇥ l-Matrix und B eine l ⇥ n-Matrix ist, dann ist das
Matrixprodukt C = A · B definiert als
cij =
l
X
k=1
aik · bkj
mit
1im
und
1jn
Die Zahl der Spalten von A muss gleich der Zahl der Zeilen von B
sein!!
• skalare Multiplikation:
B = kA bedeutet bij = k · aij
8i, j
k2C
• Die Multiplikation von Matrizen ist assoziativ aber ia. nicht kommutativ. Für Addition und Multiplikation gilt das Distributivgesetz.
A · B 6= B · A (i.A.)
A · (B · C) = (A · B) · C
A · (B + C) = (A · B) + (A · C)
3.3
Spezielle Matrizen
Slide 47
24
Spezielle Matrizen
• Eine quadratische Matrix hat genauso viele Zeilen wie Spalten (n ⇥ nMatrix). n heißt die Ordnung der Matrix.
• Eine diagonale Matrix D besitzt lediglich auf der Hauptdiagonalen (i =
j) von Null verschiedene Elemente.
0
1
d11 0
0
... 0
B 0
d22 0
... 0 C
B
C
B
0
d33 . . . 0 C
dij = dij ij = B 0
C
B ..
C
..
..
..
.
.
A
@ .
. .
.
.
0
0
0
. . . dnn
mit dem Kronecker- -Symbol
i 6= j.
ij
= 1, wenn i = j und
• Die spezielle diagonale Matrix E mit eij =
• Eine Obere Dreiecksmatrix hat
0
u11
B 0
B
B
uij = B 0
B ..
@ .
0
ij
ij
= 0 wenn
heißt Einheitsmatrix.
die Form
u12
u22
0
..
.
u13
u23
u33
..
.
...
...
...
..
.
u1n
u2n
u3n
..
.
0
0
. . . unn
also uij = 0 wenn i > j.
1
C
C
C
C
C
A
• Analog heißt L eine Untere Dreiecksmatrix, wenn Sie die folgende Form
(lij = 0 wenn i < j) besitzt:
0
1
l11 0 0 . . . 0
B l21 l22 0 . . . 0 C
B
C
B
C
lij = B l31 l32 l33 . . . 0 C
B ..
..
..
. . .. C
@ .
. . A
.
.
ln1 ln2 ln3 . . . lnn
• Die Matrix N mit nij = 0 8i, j heißt Nullmatrix.
25
• Die Matrix T = S T heißt die Transponierte von S, wenn gilt
tij = sji
8i, j
• Eine 1 ⇥ n-Matrix S heißt Zeilenvektor. S ist die Transponierte eines
Spaltenvektors A, also
s1n = an1
oder S = AT
.
• Das Produkt eines Zeilenvektors mit einem Spaltenvektor
S ·V =
n
X
si v i
i=1
heißt Skalarprodukt
• Das Produkt eines Spaltenvektors mit einem Zeilenvektor
V · S = A mit aij = vi sj
heißt äußeres Produkt oder Tensorprodukt und ist eine quadratische
Matrix.
• Die Matrix S heißt symmetrisch, wenn gilt
sij = sji
8i, j
• Die Matrix A heißt antisymmetrisch, wenn gilt
aij =
aji
8i, j
. Insbesondere gilt hier aii = 0
• Die Matrix B = A† ist die Adjungierte von A, wenn gilt
bij = (aji )⇤
(an der Diagonalen gespiegelt und komplex konjugiert)
26
• Die Matrix H heißt hermitesch, wenn sie gleich Ihrer Adjungierten ist
(wenn sie also selbstadjungiert ist). Dann gilt
hij = (hji )⇤
8i, j
Insbesondere gilt, dass die Diagonalelemente reell sind, also hii = (hii )⇤ .
Wenn alle Matrixelemente reell sind, ist die Matrix sowohl hermitesch
als auch symmetrisch.
3.4
Slide 48
Die Spur einer Matrix
Die Spur einer Matrix
• Die Summe der Diagonalelemente aii einer Matrix A
T r(A) =
N
X
aii
i=1
heißt die Spur der Matrix A.
• die Spur der n-dimensionalen Einheitsmatrix ist gleich n: T r(En ) = n
3.5
Slide 49
Matrixdeterminanten
Determinanten
I
• Es gibt N ! verschiedene Permutationen der Zahlen 1, 2, . . . N
• Die Determinante einer N ⇥ N -Matrix A ist eine Zahl, berechnet nach
a11
..
.
det(A) = |A| =
=
. . . a1N
..
.
aN 1 . . . aN N
N!
X
i=1
27
( 1)pi Pi a11 a22 . . . aN N
• Pi ist ein Permutationsoperator, der die Spaltenindizes vertauscht. Die
Summe läuft über alle N ! Permutationen.
Slide 50
Determinanten
II
detA =
N!
X
i=1
( 1)pi Pi a11 a22 . . . aN N
• pi ist die Zahl der Transpositionen (Vertauschungen), die zur Wiederherstellung der Diagonalform notwendig sind.
• Für das Vorzeichen ist nur wichtig, ob die Zahl der Transpositionen
gerade oder ungerade ist.
Slide 51
Determinanten von 1 ⇥ 1 und 2 ⇥ 2-Matrizen
✓
◆
a11 a12
• Sei A =
a21 a22
• Es gibt 2 Permutationen der Zeilenindizes
1 2 (p1 = 0)
2 1 (p1 = 1)
• Nach der Definition ist also
a11 a12
a21 a22
= ( 1)0 a11 a22 + ( 1)1 a12 a21
= a11 a22
a12 a21
• Die Determinante einer 1 ⇥ 1-Matrix ist das Matrixelement a11
det(a11 ) = a11
Slide 52
28
3 ⇥ 3-Determinanten
• Entwicklungssatz
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11
a22 a23
a32 a33
a21 a23
a
a
+ a13 21 22
a31 a33
a31 a32
= a11 a22 a33 a11 a23 a32 a12 a21 a33
+a12 a31 a23 + a13 a21 a32 a13 a31 a22
a12
• Die 2 ⇥ 2-Determinante, die sich durch Streichen der i. Reihe und j.
Spalte einer Determinante ergibt, heißt Minore oder Unterdeterminante
Mij
• Der Cofaktor Cij (oft auch ãij ) ist definiert als
Cij = ( 1)i+j Mij
Slide 53
Determinanten gößerer Matrizen
• Verallgemeinerung: (n 1)⇥(n 1)-Unterdeterminanten Mij entstehen
durch Streichen der i. Reihe und j. Spalte einer n ⇥ n-Determinante
• Verallgemeinerung des Entwicklungssatzes
det(A) =
a11
..
.
. . . a1N
..
.
aN 1 . . . aN N
=
N
X
l=1
akl Ckl =
N
X
alk Clk
l=1
• Entwicklung nach beliebigen Zeilen oder Spalten möglich
• jede der n verschiedenen (n 1) ⇥ (n 1)-Determinanten kann dann
(rekursiv) wieder nach dem Entwicklungssatz berechnet werden, bis zur
Ordnung 2 (oder 1).
Slide 54
29
Sarrussche Regel
a11 a12
a13
a11
a12
a21
a22
a23
a21
a22
a31
a32
a33
a31
a32
| . . . | = det(. . .) =
+a11 a22 a33 +a12 a23 a31 +a13 a21 a32
a13 a22 a31 a11 a23 a32 a12 a21 a33
Die Sarrussche Regel gilt nur für 3⇥3-Determinanten.
(denn, z.B N=4: 4 blaue + 4 rote Terme 6= 4! = 24 Terme)
Slide 55
Eigenschaften von Determinanten
• det(AT ) = det(A) )
det(A† ) = det(A)⇤
• det(A · B) = det(A) · det(B)
• det A = 0, wenn alle Elemente einer Zeile (Spalte) gleich 0 sind
• Vertauschen von zwei Reihen (Spalten) ändert das Vorzeichen der Determinante
• det A = 0, wenn zwei Reihen (Spalten) identisch sind
• Der Wert der Determinante bleibt unverändert, wenn man ein beliebiges Vielfaches einer Reihe (Spalte) zu einer anderen Reihe (Spalte)
addiert.
• die Determinanten einer Diagonalmatrix oder einer (oberen oder unteren) Dreiecksmatrix sind gleich dem Produkt der Diagonalelemente!
3.6
Slide 56
Lineare Gleichungssysteme
30
Lösungsweg
aus (1) =) x1 = x2
x1
in (2) =) x1 = 2x3 =) x3 =
2
3
3
3
in (3) =) 3x1
x1 = x1 = 2x4 =) x4 = x1
2
2
4
x1 = 4(Wahl!)
x2 = 4
x3 = 2
x4 = 3
4K2 Cr2 O7 ! 4K2 CrO4 + 2Cr2 O3 + 3O2
9 algorithmische Lösung?
Slide 57
Gauß-Algorithmus
allgemein sieht ein lineares Gleichungssystem (LGS) folgendermaßen aus:
a11 x1 +
a21 x1 +
..
.
am1 x1
a12 x2 + . . . + a1n xn = b1
a22 x2 + . . . + a2n xn = b2
..
..
..
.
.
.
+ am2 x2 + . . . + amn xn = bm
in Matrixschreibweise: A · ~x = ~b
Slide 58
Lösungsverfahren nach Gauß
1. Elimination
✓ von
◆ x1 aus den unteren (m 1) Gleichungen. Dazu zieht
ai1
man das
fache der ersten Glg. von der i.ten Glg. ab,z.B. in der
a11
2. Glg.
✓
◆
✓
◆
a21
a21
a21
a21
· a11 x1 + a22
· a12 x2 + . . . = b2
b1
a11
a11
a11
2. Dies führt für die unteren (m
(n 1) Variablen (ohne x1 ).
1) Gleichungen auf ein System mit
3. Mit diesem neuen Gleichungssystemen aus (m 1) Gleichungen mit
(n 1) Unbekannten führt man wieder Schritt 1 durch.
31
=) System aus m-2 Gleichungen mit n-2 Variablen . . .
Gaußsches Eliminationsverfahren
Slide 59
Beispiel
Slide 60
Beispiel
32
Slide 61
Beispiel
33
3.7
Slide 62
Lineare Unabhängigkeit
Definition der Linearen Unabhängigkeit
34
Definition: Lineare Unabhängigkeit
Die Spalten einer Matrix A = (aij ) 2 Rm⇥n heißen
linear abhängig, wenn es Zahlen 1 , 2 , . . . , n gibt, die
nicht alle gleich Null sind und die Gleichungen
1 ai1
+
2 ai2
+ ... +
m aim
= 0 i = 1, . . . , n
erfüllen. Dies kann man auch schreiben als
A~ = ~0
mit ~ = ( 1 , . . . , n )T 2 Rn und ~0 = Nullvektor in Rm .
Wenn die n Spalten nicht linear abhängig sind, heißen
sie linear unabhängig.
Slide 63
Lineare Abhängigkeit/Unabhängigkeit
Lineare Abhängigkeit: ein ~ 6= ~0 existiert. [1cm]
Lineare Unabhängigkeit: es existiert nur ~ = ~0 als
Lösung des LGS.
Slide 64
Quadratische Matrizen
Satz über LU von Matrizen
Die Elemente einer quadratischen Matrix A sind genau dann linear
unabhängig, wenn
detA = |A| =
6 0.
3.8
Slide 65
Rang einer Matrix
Rang
35
Definition: Rang einer Matrix
Der Rang rg(A) einer Matrix A ist die maximale Zahl
linear unabhängiger Spalten.
Diese Zahl ist gleich der maximalen Anzahl unabhängiger Zeilen der Matrix.
Es gilt also:
Zeilenrang = Spaltenrang
Slide 66
Beispiel
0
1
1 1
A=@ 2 1 A
0 2
O↵enbar kann der Rang höchstens 2 sein, da Zeilen- und Spaltenrang
gleich sein müssen und nur 2 Spalten existieren.[0.3cm]
rg(A) = 2, weil sich Spalte 1 nicht durch Spalte 2 oder ein Vielfaches
davon ausdrücken lässt. [0.3cm]
Andererseits gilt:
(Zeile 3) = 4 · (Zeile 1)
=)
Slide 67
Zeilenrang = 2
Rang einer quadratischen Matrix
O↵enbar gilt dann:
Der Rang einer quadratischen Matrix A 2 Rn⇥n ist genau dann gleich n,
wenn det(A) 6= 0.
3.9
Slide 68
2 · (Zeile 2).
Lösbarkeit linearer Gleichungssysteme
Gegeben sei ein System aus n Unbekannten
und m Gleichungen.
A~x = ~b
36
A heißt Koeffizientenmatrix mit Matrixelementen (a)ij 2 C.
~x ist der Vektor der n Unbekannten xi und ~b ist ein Vector, der die ’rechten
Seiten’ des LGS (die ’Inhomogenitäten’) bi , i = 1, . . . , m beschreibt.
Die Matrix
0
1
a11 a12 . . . a1n b1
B a21 a22 . . . a2n b2 C
B
C
~
(A|b) = B ..
..
..
..
.. C
@ .
.
.
.
. A
am1 am2 . . . amn bm
heißt erweiterte Koeffizientenmatrix. Sie entsteht, wenn man zur Matrix A
den Spaltenvektor ~b hinzufügt.
Slide 69
Lösbarkeit von LGSen
Sei A 2 Rm⇥n , ~b 2 Rm . Dann gilt:
1. Wenn
rg(A) 6= rg((A|~b)) :
Das Gleichungssystem besitzt keine Lösung.
2. Wenn
rg(A) = rg((A|~b)) = n :
Das Gleichungssystem besitzt genau eine Lösung.
3. Wenn
rg(A) = rg((A|~b)) < n :
Das Gleichungssystem besitzt unendlich viele Lösungen und zwar n
rg(A) linear unabhängige Lösungen.
3.10
Inverse Matrizen
Slide 70
37
Inverse Matrix
I
• Die Matrix B = A
1
heißt die Linksinverse von A, wenn gilt
A
1
• Analog heißt die Matrix C = A
1
·A=E
.
die Rechtsinverse von A, wenn gilt
A·A
1
=E
.
• Für quadratische Matrizen sind die Rechts- und die Linksinverse gleich
und heißt die Inverse Matrix von A
A·A
1
=A
1
·A=E
• Hermitesche Matrizen haben (i.d.R.) eine Inverse.
Slide 71
Inverse Matrix
II
• Für nichtquadratische Matrizen sind Rechtsinverse AR 1 und Linksinverse AL 1 nicht gleich. Wenn A eine n ⇥ m-Matrix ist, dann ist
AL 1 · A = E m
A · A R 1 = En
Einheitsmatrix der Ordnung m
Einheitsmatrix der Ordnung n
Beispiel
Slide 72
38
Inverse einer 2 ⇥ 2-Matrix
• Gegeben sei eine 2 ⇥ 2-Matrix A mit A =
• Dann ist die Inverse A
A
1
✓
a11 a12
a21 a22
◆
1
gegeben durch
✓
1
=
a11 a22 a12 a21
a22
a21
a12
a11
◆
• Die Inverse existiert also genau dann, wenn det(A) 6= 0 ist.
• (Cramersche Regel)
• Dies kann auf beliebig große quadratische Matrizen verallgemeinert
werden.
Slide 73
Orthogonale und Unitäre Matrizen
• Eine Matrix O heißt orthogonal, wenn ihre Transponierte gleich ihrer
Inversen OT = O 1 ist, also
O · OT = E
• Eine Matrix U heißt unitär, wenn ihre Adjungierte gleich ihrer Inversen
U † = U 1 ist, also
U · U† = E
• Beachte: Aufgrund der Definition sind symmetrische, antisymmetrische, hermitesche, orthogonale und unitäre Matrizen notwendigerweise
quadratisch!.
Slide 74
Verfahren zur Inversion von Matrizen
Allgemeine Verfahren zur Berechnung der Inversen für größere Matrizen
basieren auf einer Kombination der Erweiterung der Matrix mit der Einheitsmatrix E und dem Gaußschen Eliminationsverfahren.
Konkret: Wende das Gaußsche Eliminationsverfahren auf die erweiterte Matrix (A|E) an, bis alle Nebendiagonalelemente verschwinden und die
Diagonalelemente = 1 sind, also (E|A 1 ) erreicht ist.
Slide 75
39
Beispiel
Slide 76
Beispiel
Slide 77
Beispiel
40
Slide 78
Beispiel
3.11
Slide 79
Eigenwerte und Eigenvektoren
Matrixeigenwertgleichungen
I
• Multipliziert man einen Spaltenvektor von links mit einer quadratischen
Matrix, so erhält man wieder einen Spaltenvektor.
• Multipliziert man einen Zeilenvektor von rechts mit einer quadratischen
Matrix, so erhält man wieder einen Zeilenvektor.
41
0
1
0
1
a12 . . . a1n
c1
B
B c2 C
a22 . . . a2n C
B
C
B
C
• A=B
C und ~c = B .. C seien eine quadra..
. . . ..
@
A
@
.
.
. A
an1 an2 . . . ann
cn
tische n ⇥ n-Matrix bzw. ein n-dimensionaler Spaltenvektor. sei ein
Skalar (=Zahl).
Slide 80
a11
a21
..
.
Matrixeigenwertgleichungen
II
• Wenn ~c die Gleichung
A~c = ~c oder (A
E)~c = 0
erfüllt, dann heißt ~c Eigenvektor von A, und
Eigenwert von A.
heißt der dazugehörige
• Eine solche Matrixeigenwertgleichung ist äquivalent zu einem gekoppelten homogenen linearen Gleichungssystem aus n Gleichungen
(a11
Slide 81
)c1
+a12 c2 + . . .
+a1n cn
a21 c1 +(a22
)c2 + . . .
+a2n cn
...
...
...
...
an1 c1
+an2 c2 + . . . +(ann
)cn
=0
=0
=0
=0
Matrixeigenwertgleichungen
III
• nichttriviale Lösungen der Matrixeigenwertgleichung
existieren nur, wenn
A~c = ~c = E~c
E) = 0
det(A
(⇤)
• (⇤) heißt die charakteristische Gleichung (oder das charakteristische
Polynom) der Matrix A.
• Das charakteristische Polynom hat n Wurzeln für
i.
• Einige der Wurzeln können gleich sein. Die Eigenwerte heißen dann
entartet.
Slide 82
42
Eigenwerte und Eigenvektoren
• Ist A diagonal, so sind die Wurzeln
det(A
E) = (a11
i
= aii , da
) · (a22
) . . . (ann
)
• Eigenvektoren können durch Multiplikation mit einer Konstante normiert werden.
• Die Eigenwerte einer hermiteschen Matrix sind reell.
• Eigenvektoren zu zwei verschiedenen Eigenwerten
thogonal, d.h. c~1 † · c~2 = 0
1
und
2
sind or-
• Für Eigenvektoren, die zu zwei entarteten Eigenwerten (also 1 = 2 )
gehören, lassen sich immer 2 zueinander orthogonale Linearkombinationen der Eigenvektoren konstruieren!
Slide 83
Der n-dimensionale Vektorrraum
• eine hermitische n ⇥ n-Matrix hat also n Eigenvektoren, die alle zueinander orthogonal sind.
• Man sagt, dass die n Eigenvektoren einen n-dimensionalen (Vektor)Raum
aufspannen.
• Jeder Vektor in diesem Raum kann durch eine Linearkombination der
Eigenvektoren ausgedrückt werden.
• Die Eigenvektoren sind ein vollständiger Satz von Basisvektoren
Beispiel
3.12
Beispiele
3.12.1
Inverse einer Rechtecksmatrix
Slide 84
43
Inverse einer Rechtecksmatrix
I
• Betrachte die 1 ⇥ 2 Matrix
A=
1 2
• Eine Rechtsinverse ist o↵ensichtlich
AR
denn A · AR
1
1
=
✓
1
0
◆
= 1 · 1 + 2 · 0 = 1 = E1 .
• Eine andere Rechtsinverse ist o↵ensichtlich
✓
◆
0
1
0
AR =
0.5
denn A · AR
Slide 85
1
= 1 · 0 + 2 · 0.5 = 1 = E1
Inverse einer Rechtecksmatrix
II
• die Matrix A hat o↵ensichtlich keine Linksinverse, denn es müsste gelten:
!
(aL 1 )11 · a11 = (aL 1 )11 · 1 = 1 = e11
!
(aL 1 )21 · a11 = (aL 1 )21 · 1 = 0 = e21
!
(aL 1 )11 · a12 = (aL 1 )11 · 2 = 0 = e12
!
(aL 1 )21 · a12 = (aL 1 )21 · 2 = 1 = e22
Zurück
44
3.12.2
Slide 86
Eigenwerte einer 3 ⇥ 3-Matrix
Eigenwerte einer 3 ⇥ 3-Matrix
0
1
1 0 0
• Beispielmatrix: A = @ 0 2 0 A
0 0 3
• Die Matrix ist diagonal.
• Die Eigenwertgleichung lautet: A~c(i) =
c(i)
i~
für i = 1, 2, 3
• Es gibt also 3 verschiedene Eigenwerte und Eigenvektoren.
1
0
0
• Die charakteristische Gleichung lautet
• Die Wurzeln lauten:
1
= 1,
2
= 2 und
0
2
0
3
0
0
3
=0
= 3.
• Wie erhält man nun aus den Eigenwerten die Eigenvektoren?
Slide 87
Eigenvektoren einer 3 ⇥ 3-Matrix
• Man setzt für jeden Eigenvektor separat den entsprechenden Eigenwert
in die Eigenwertgleichung ein.
• also, für i = 1
0 (1) 1
0
1
0
1 0 (1) 1
c1
c1
1 0 0
1 0 0
B (1) C
(1) C
@ 0 2 0 A ~c (1) = @ 0 2 0 A B
@ c2 A = 1 · @ c2 A
(1)
(1)
0 0 3
0 0 3
c3
c3
• Das dazugehörige Gleichungssystem lautet:
(1)
(1)
(1)
(1)
1c1
+0c2
+0c3
= 1c1
(1)
(1)
(1)
(1)
0c1
+2c2
+0c3
= 1c2
(1)
(1)
(1)
(1)
0c1
+0c2
+3c3
= 1c3
(1)
(1)
(1)
• Die o↵ensichtliche Lösung lautet: c1 ist beliebig, c2 = c3 = 0.
Slide 88
45
Eigenvektoren
(1)
• Wählen
0 1 wir c1
1
@ 0 A
0
= 1, erhält man den normierten Eigenvektor ~c (1) =
• Analog erhält man für
• und für
3
2
= 2 den Eigenvektor ~c (2)
= 3 erhält man ~c (3)
0
1
0
=@ 0 A
1
0
1
0
=@ 1 A
0
• Die drei Vektoren sind orthogonal und spannen den gesamten dreidimensionalen Raum auf!
Zurück
Slide 89
Beispiel
✓
◆
1 1
Gegeben sei
1 1
Charakteristisches Polynom = 0 ?
1
1
1
1
=0
) (1
)2 + 1 = 0
) 2 2 +2=0
p
Eigenwerte: ) 1/2 = 1 ± 1 2 = 1 ± i
Die Matrix war nicht hermitesch ) Die Eigenwerte müssen nicht reell
sein.
Slide 90
46
1. Eigenvektor
Setzen wir nun
= 1 + i in die Eigenwertgleichung ein:
✓
◆✓ ◆
✓ ◆
1 1
x
x
= (1 + i)
1 1
y
y
1
) Gleichungssystem
x + y = (1 + i)x
x + y = (1 + i)y
1. Gleichung ) y = (1 + i)x x = ix
in 2. Gleichung: ) y =✓(1+i)y
(1+i)ix+x = ix+i2 x+x = ix
◆ +x
✓ =◆
x
x
=) Wahlfreiheit für x:
=
y
ix
Slide 91
1. Eigenvektor
=) Wahlfreiheit für x:
✓
x
y
◆
=
✓
x
ix
◆
Normierung: x2 + |ix|2 = 1 =) 2|x|2 = 1 =) x =
Also: 1. Eigenvektor:
✓ ◆
✓ ◆
1
x
1
~e1 =
=p
y
2 i
1
ei
p oder sogar p mit be2
2
wählen können! ) selbst nach Normierung besteht noch
Bemerkung: Man hätte als Vorfaktor auch
liebigem reellen
Wahlfreiheit!
p1
2
47
Teil IV
Funktionen Mehrer
Veränderlicher
Inhaltsangabe
4
Funktionen mehrerer Veränderlicher
49
4.1
Partielle Ableitungen . . . . . . . . . . . . . . . . . . . . . 49
4.2
Höhere Partielle Ableitungen . . . . . . . . . . . . . . . . 52
4.3
Tangentialebenen . . . . . . . . . . . . . . . . . . . . . . . 55
4.4
Totales Di↵erential . . . . . . . . . . . . . . . . . . . . . . 55
4.5
Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.6
Partielle Ableitungen in der Thermodynamik . . . . . . . 63
4.7
Implizite Funktionen . . . . . . . . . . . . . . . . . . . . . 65
4.8
Taylorentwicklung . . . . . . . . . . . . . . . . . . . . . . 68
4.9
Extremwerte . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.10 Multilineare Regression . . . . . . . . . . . . . . . . . . . 79
4.11 Integration von Funktionen mehrerer Veränderlicher . . . 83
4.12 Kurven- oder Pfadintegrale . . . . . . . . . . . . . . . . . 98
5
Gewöhnliche Di↵erentialgleichungen
104
5.1
Einleitung & Begri↵sbildung
5.2
Di↵erentialgleichungen mit getrennten Variablen . . . . . 109
5.3
Lineare Di↵erentialgleichungen 1. Ordnung . . . . . . . . 110
5.4
Lineare DGLen 2. Ordnung . . . . . . . . . . . . . . . . . 114
5.5
Systeme von linearen DGLen . . . . . . . . . . . . . . . . 119
48
. . . . . . . . . . . . . . . . 104
4
Funktionen mehrerer Veränderlicher
4.1
Slide 92
Partielle Ableitungen
Beispiel
van der Waals-Zustandsgleichung eines realen Gases für den Druck als
abhängige Größe
p = p(V, T, n) =
RT
V bn
an2
V2
R, a, b sind Konstanten
(R ist eine universelle Konstante, a und b sind Materialkonstanten)
(in der Mathematik heißen Konstanten auch Parameter)
T, V, n sind Variable
(also durch den experimentellen Aufbau bestimmte, manipulierbare Größen)
Slide 93
O↵ene Menge
Definition: O↵ene Menge
eine Menge A 2 Rn heißt o↵en, wenn es zu jedem Punkt
(x1 , x2 , . . . , xn ) 2 A eine Kugel um diesen Punkt mit
Radius ✏ > 0 gibt, die ganz in A liegt.
Slide 94
Abbildung
Definition: Abbildung
Eine Abbildung
f : A ⇢ Rn 7 ! R
heißt (reellwertige) Funktion von n Veränderlichen.
Man schreibt auch
f (x1 , x2 , . . . , xn )
Oft verwendet man statt x1 , x2 , . . . die Variablen x, y, z.
Ist f komplex, so heisst f eine komplexwertige Funktion von n (reellen)
Variablen.
49
Slide 95
Partielle Ableitung
Definition: Partielle Ableitung
f : A ⇢ Rn 7! R heißt im Punkt (x01 , x02 , . . . , x0n ) 2 A partiell nach x1
di↵erenzierbar, wenn der Limes
@f 0 0
(x , x , . . . , x0n ) =
@x1 1 2
f (x01 + t, x02 , . . . , x0n ) f (x01 , x02 , . . . , x0n )
lim
t!0
t
@f
heißt dann
@x1
partielle Ableitung von f nach x1 im Punkt (x01 , x02 , . . . , x0n ).
existiert.
Slide 96
Bemerkungen
• man schreibt auch statt
tion von x1 , x2 , . . . , xn .
@f
einfach fx1 . fx1 ist i.A. wieder eine Funk@x1
• will man andeuten, dass es sich um den Funktionswert fx1 an der Stelle
(x01 , x02 , . . . , x0n ) handelt, schreibt man auch
fx1 (x01 , x02 , . . . , x0n )
• Ist aus dem Zusammenhang nicht erkennbar, welche Variablen konstant
gehalten werden, so schreibt man explizit
✓
◆
@f
@x1 x2 ,x3 ,...,xn
Slide 97
Partielle Di↵erenzierbarkeit
Definition: Partielle Di↵erenzierbarkeit
Wenn an der Stelle (x01 , x02 , . . . , x0n )alle partiellen Ableitungen nach den xi existieren, heißt die Funktion f
partiell di↵erenzierbar in (x01 , x02 , . . . , x0n )
Sind die partiellen Ableitungen fxi darüber hinaus auch
noch stetig, so heißt f stetig partiell di↵ferenzierbar.
Slide 98
50
Gradient
Bemerkung: Die n partiellen Ableitungen von f nach den xi kann man zu
einem Spaltenvektor zusammenfassen.
Definition: Gradient / Nablaoperator
Der Vektor
0
1
f x1
B fx C
2 C
~ = rf = B
rf
B .. C
@ . A
f xn
~ oder r heißt
heißt Gradientenvektor. Der Operator r
Nablaoperator.
Slide 99
Bemerkungen
~ definiert i.a. eine vektorwertige Funktion von n Veränder• Der Vector rf
lichen x1 , x2 , . . . , xn .
• Operatoren werden in der Quantenmechanik häufig vorkommen. Be~ einfach(?) als eine Abbildungsvortrachten Sie den Nablaoperator r
schrift, um aus einer Funktion (in diesem Fall f ) eine andere Funktion
(in diesem Fall die vektorwertige Funktion der partiellen Ableitungen
von f) zu erzeugen.
Slide 100
Beispiel
n=3
f (x, y, z) =
p
1
x2
y2
z2
D = A = {(x, y, z)|x2 + y 2 + z 2  1} Einheitskugel
1
x
fx = p
· ( 2x) = p
2 1 x2 y 2 z 2
1 x2 y 2 z 2
y
z
Analog fy = p und fz = p
~ =
) rf
p
1
1
x2
y2
0
1
x
@ y A=
z2
z
51
1
T
p (x, y, z)
~ zeigt stets in Richtung auf den Ursprung. Dort ist f maximal. f fällt
rf
zur Oberfläche der Kugel monoton ab.
4.2
Slide 101
Höhere Partielle Ableitungen
Bemerkungen
• die 2. Ableitung einer Funktion f (x) ist die 1. Ableitung der 1. Ableitung
d2 f
df 0
f 00 (x) = 2 =
dx
dx
• Die Ableitung einer vektorwertigen Funktion f = (f1 , f2 , . . . , fm )T , wobei jedes fi eine Funktion fi (x1 , x2 , . . . , xn ) ist, wird gebildet, indem für
jede Komponente fi die n partiellen Abbildungen nach den xj gebildet
werden.
Slide 102
Jacobi-Matrix
0
B
B
B
B
0
f =B
B
B
B
@
@f1
@x1
@f1
@x2
...
@f1
@xn
@f2
@x1
@f2
@x2
...
@f2
@xn
..
.
..
.
..
..
.
@fm
@x1
@fm
@x2
...
.
@fm
@xn
1
C
C
C
C
C
C
C
C
A
Man nennt diese Matrix auch die Jacobi-Matrix oder Jacobische Matrix
oder Jacobian.
Slide 103
Partielle Ableitungen 2. Ordnung
52
Definition:
Die
partiellen
Ableitungen
einer
f (x1 , x2 , . . . , xn ) bezeichnet mant mit fxi xj
f xi xj =
Funktion
@ 2f
.
@xj @xi
für xi 6= xj spricht man von einer gemischten Ableitung,
andernfalls von einer reinen Ableitung.
Slide 104
Bemerkung
@ 2f
bedeutet, dass f zuerst nach xi abgeleitet und dann
@xj @xi
nach xj abgeleitet wird.
• f xi xj =
Operatorschreibweise: fxi xj =
•
•
Slide 105
@ @
f
@xj @xi
Operator
Operator
Funktion
@
ist ein Di↵erentialoperator, der aus einer Funktion ihre Ableitung
@xi
bildet.
Hesse-Matrix
Definition: Hesse-Matrix f 00
Die Matrix der n ⇥ n = n2 zweiten partiellen Ableitungen einer Funktion f heißt Hesse-Matrix f 00
1
0
fx1 x1 fx1 x2 . . . fx1 xn
B fx x fx x . . . f x x C
2 2
2 n C
B 2 1
f 00 = B ..
..
.. C
...
@ .
. A
.
f xn x1 f xn x2 . . . f xn xn
Slide 106
53
Beispiel
f (x, y, z) = x · y · z 2
~ T = f~ 0 T = (yz 2 , xz 2 , 2xyz)
rf
0
1
0
z 2 2yz
0 2xz A
f 00 = @ z 2
2yz 2xz 2xy
Beobachtung: Die Hessesche Matrix ist symmetrisch
f xi xj = f xj xi
Slide 107
Der Satz von Schwarz
Satz von Schwarz
Sind in einem Bereich G die Ableitungen fxi xj und fxj xi stetige Funktion von xi und xj , so gilt:
fxi xj = fxj xi
Slide 108
Bemerkungen
• Wenn der Satz von Schwarz gilt, ist die Reihenfolge der Di↵erentiation
unerheblich. Statt n2 verschiedener Ableitungen müssen nur n(n + 1)/2
Terme berechnet werden.
• Der Satz gilt analog auch für die höheren Ableitungen, z.B. 3. Ableitungen von f (x1 , x2 , x3 , x4 , x5 ):
f x1 x4 x5 = f x1 x5 x4 = f x5 x1 x4 = f x5 x4 x1
= f x4 x1 x5 = f x4 x5 x1
• Daraus ergibt sich auch eine Wahlfreiheit bzgl. der Reihenfolge (!
Vereinfachungen)
54
4.3
Slide 109
Tangentialebenen
Bemerkungen
• Funktionen mehrerer Veränderlicher, die di↵erenzierbar sind, also partielle Ableitungen besitzen, sind stetig.
• Die Umkehrung gilt nicht: Nicht jede stetige Funktion hat immer und
überall partielle Ableitungen. (aber meistens!)
Slide 110
Frage?
Man kann sich jetzt die Frage stellen Liegen alle durch die partiellen
Ableitungen definierten Tangenten in einer Ebene?
Dies folgt nicht einfach aus der Tatsache, dass z.B. fx (x0 , y0 ) und fy (x0 , y0 )
existieren!!
Slide 111
Di↵erenzierbarkeit
Satz
Hinreichende Bedingung für die Existenz der Tangentialebene im
Punkt P = (x1 , x2 , . . . , xn ) ist, dass die partiellen Ableitungen in
P existieren und stetig sind.
Wenn in P eine Tangentialebene existiert, heißt die Funktion an der
Stelle P di↵erenzierbar.
4.4
Totales Di↵erential
Slide 112
This figure not shown due to copyright reasons! goto hyperlink
Slide 113
55
This figure not shown due to copyright reasons! goto hyperlink
Muhammet Cakir (GFDL: http://www.gnu.org/copyleft/fdl.html)1
Slide 114
This figure not shown due to copyright reasons! goto hyperlink
Slide 115
Abschätzung der Funktionsänderung
This figure not shown due to copyright reasons! goto hyperlink
Um welchen Wert ändert sich z = f (x, y), zwischen den Raumpunkten
(x, y, f ) und (x + dx, y + dy, f + df ) ?
dz = df ⇡ fx dx + fy dy
dz = df ⇡ fx dx + fy dy
Slide 116
Abschätzung der Funktionsänderung
This figure not shown due to copyright reasons! goto hyperlink
Je kleiner dx und dy, desto genauer die Approximation.
Die Gleichung ist natürlich nur sinnvoll, wenn die Tangentialebene existiert.
Natürlich kann man diese Überlegungen auch auf n Dimensionen (n Variablen) verallgemeinern(aber nicht zeichnen).
Slide 117
1
Muhammet Cakir (GFDL: http://www.gnu.org/copyleft/fdl.html)
56
Totales Di↵erential
Definition: Totales Di↵erential
Existiert im Punkt P = (x1 , . . . , xn ) eine Tangentialebene an die Funktion f (x1 , . . . , xn ), dann führt eine
kleine Änderung dx1 von x1 , dx2 von x2 , . . ., dxn von
xn zu einer Änderung der Funktion f um df
df = fx1 dx1 + fx2 dx2 + . . . fxn dxn
n
X
=
fxi dxi
i=1
df heißt totales Di↵erential.
Slide 118
Bemerkung
Wenn auch stetige Ableitungen höherer Ordnung existieren, kann man
auch totale Di↵erentiale höherer Ordnung definieren.
d2 f = d(df )
Slide 119
Beispiel
z = z(x, y)
2
dz =
=
=
=
✓
◆
@z
@z
d(dz) = d
dx +
dy
@x
@y
✓
◆
@ @z
@z
dx +
dy dx
@x @x
@y
✓
◆
@ @z
@z
+
dx +
dy dy
@y @x
@y
zxx dxdx + zyx dydx + zxy dxdy + zyy dydy
zxx (dx)2 + 2zxy dxdy + zyy (dy)2
Satz von Schwarz
57
Slide 120
Bemerkung
im allgemeinen Fall gilt
d2 f =
4.5
n X
n
X
@ 2f
dxi dxj
@xi @xj
i=0 j=0
Kettenregel
Slide 121
• Sei z = f (u, v) und seien u, v selbst wieder Funktionen von, z.B. x und
y mit u = '(x, y) und v = (x, y).
•
z = f (u, v) = f ('(x, y), (x, y)) = f˜(x, y)
Es gilt o↵ensichtlich
@z
@z @u @z @v
=
·
+
·
@x
@u @x @v @x
@z
@z @u @z @v
=
·
+
·
@y
@u @y @v @y
• allgemein: z hängt von m Variablen ui ab, die ihrerseits wiederum als
Funktionen von m Variablen xk abhängen.
Slide 122
Kettenregel
verallgemeinerte Kettenregel
m
X
@z
=
@xk
i=0
Slide 123
✓
@z
@ui
58
◆ ✓
◆
@ui
·
@xk
Matrixschreibweise
• Schreibt man
dz
:=
du
und
✓
0
B
du
B
:= B
dx
@
@z @z
@z
,
,...,
@u1 @u2
@um
@u1
@x1
@u2
@x1
@u1
@x2
@u2
@x2
..
.
...
...
..
.
@u1
@xm
@u2
@xm
@um
@x1
@um
@x2
...
@um
@xm
..
.
..
.
so erhält man
verallgemeinerte Kettenregel
dz
dx
|{z}
=
Zeilenvektor
analog zur Kettenregel in 1D
Slide 124
◆
dz
du
|{z}
Zeilenvektor
·
1
C
C
C
A
du
dx
|{z}
Matrix
Beispiel
1
f (u, v) = k u2 + v 2
2
1
u := p (x + y)
2
1
v := p (x
2
fu = ku
y)
fv = kv
@u
@v
+ fv
@x
@x
1
1
= k·u· p +k·v· p
2
2
1
1
= k · (x + y) + k (x y)
2
2
= k·x
fx = fu
Slide 125
59
Beispiel
1
f (u, v) = k u2 + v 2
2
1
u := p (x + y)
2
1
v := p (x
2
fu = ku
y)
fv = kv
@u
@v
+ fv
@y
@y
1
1
= k · u · p + k · v · p · ( 1)
2
2
1
1
= k · (x + y) k (x y)
2
2
= k·y
fy = fu
Slide 126
Beispiel
60
Probe (Ersetzen von u, v in f durch x, y)
u
2
=
=
v2 =
=
)
u2 + v 2 =
)
)
)
Slide 127
f =
fx =
fy =
✓
1
p (x + y)
2
◆2
1 2
(x + 2xy + y 2 )
2
✓
◆2
1
p (x y)
2
1 2
(x
2xy + y 2 )
2
x2 + y 2
1
k(x2 + y 2 )
2
kx
ky
q.e.d
Koordinatentransformation
Dies ist ein Beispiel für den E↵ekt einer Koordinatentransformation (u, v) !
(x, y)
61
Slide 128
Koordinatentransformation
62
Wegen Ihrer Form als Rotationsellipsoid (um die z-Achse) sieht die Funktion f (u, v) genauso aus wie die Funktion f˜(x, y)
f˜ = f (u(x, y), v(x, y))
Im allgemeinen sehen f und f˜ verschieden aus!
4.6
Slide 129
Partielle Ableitungen in der Thermodynamik
Thermodynamische Energiefunktionen & Zustandsgleichung
sei z = f (u, v, w)
und sei w = w(u, v, x)
dann ist o↵ensichtlich
z = f (u, v, w) = f (u, v, w(u, v, x))
= '(u, v, x)
f und ' sind 2 verschiedene Funktionen von drei Veränderlichen
U = U (S, V, N ) innere Energie
p = p(V, N, T ) Zustandsgleichung (oder V = V (p, N, T ))
Slide 130
Beispiel
U = E = TS
pV + µN = U (T, V, N )
V = V (p, T, N ) =
Ũ = Ẽ = T S
N kT
R
(ideales Gas, k =
Boltzmannkonstante)
P
NA
N kT + µN = Ũ (T, p, N )
Ẽ hängt von T und N in komplexerer Weise ab als E
allerdings hängt Ẽ jetzt aber in trivialer Weise von p ab (nämlich gar
nicht), bzw. Ẽ ist konstant bzgl. einer Änderung von p.
Slide 131
63
partielle Ableitungen in der Thermodynamik
U = E = T S pV + µN = U (T, V, N )
Ũ = T S
N kT + µN = Ũ (T, p, N )
@E
=S
@T
@E
=µ
@N
@ Ẽ
=S
@T
@ Ẽ
=µ
@N
Nk
kT
) In der Thermodynamik legt man meistens fest, welche anderen Variablen beim partiellen Di↵erenzieren konstant gehalten werden, indem sie als
Indices an den Di↵erentialquotienten angehängt wird. Man läßt aber in der
Regel die Unterscheidung zwischen E und Ẽ weg (m.a.W: man läßt die Tilde
weg).
Slide 132
partielle Ableitungen in der Thermodynamik
Man schreibt also
✓
◆
✓
◆
@E
@E
=S
=S
@T V,N
@T P,N
✓
@E
@T
◆
V,N
6=
✓
@E
@T
◆
Nk
P,N
Und? So what?
Man kann durch Transformation der Variablen (von V, N, T ! p, N, T )
sofort ablesen, dass sich die innere Energie des idealen Gases nicht durch
Druckänderung verändern lässt! (wenn man N und T konstant lässt, also
isotherm arbeitet)
Slide 133
Thermodynamisches Beispiel
z = f (u, v, w)
w = w(u, v, x)
' = '(u, v, x)
E = E(N, T, V ) = T S pV + µN
V = V (N, T, p) = N kT /p
Ẽ = T S N kT + µN
64
Kettenregel:
✓
@'
@u
◆
=
v,x
✓
@f
@u
◆
+
v,w
✓
@f
@w
◆
u,v
·
✓
@w
@u
◆
v,x
mit f = E, ' = Ẽ, u = T, v = N, w = V, x = p und pV = N kT
gilt
@ Ẽ
@T
!
N,p
✓
◆
✓
◆
✓
◆
@E
@E
@V
=
+
·
@T N,V
@V T,N
@T
| {z } | {z } | {z N,p}
p
S
Slide 134
Thermodynamisches Beispiel
✓
4.7
Slide 135
Nk
p
@E
@T
◆
=
N,p
@ Ẽ
@T
!
=S
Nk
N,p
Implizite Funktionen
häufig kann eine Gleichung F (x, y) = 0 nicht (oder nur schwer) nach
y = f (x) aufgelöst werden.
Beispiel:
RT
an2
p = p(V, T, n) =
V bn
V2
Auflösung nach V erfordert die Lösung einer kubischen Gleichung.
Wie kann man trotzdem in einfacher Weise
Slide 136
65
✓
@V
@p
◆
berechnen?
T,n
Definition impliziter Funktionen
Definition: implizite Darstellung
Die Funktion F (x, y) = F (x, y(x)) = 0 heißt implizite
Darstellung der Funktion y = f (x).
y = f (x) heißt die explizite Darstellung der Funktion.
Setzt man y = f (x), so ergibt sich F (x, f (x)) = 0.
Slide 137
Implizite Di↵erentiation
Theorem:
Man erhält die Ableitung einer nur in impliziter Darstellung gegebenen Funktion
dy
= f 0 (x)
dx
gemäß
dy
=
dx
.
Fx (x, y)
Fy (x, y)
Fx und Fy sind die partiellen Ableitungen von F nach
x bzw. y.
Slide 138
Beweis
F (x, y) = 0 überall
=) totales Di↵erential dF = 0
=) 0 = dF = Fx dx + Fy dy
=) Aussage
q.e.d.
Bemerkung: häufig ist diese Methode der einfachere Weg, um die Ableitung zu bestimmen.
Slide 139
66
Verallgemeinerung auf Funktionen von n Variablen
Sei F (x1 , x2 , . . . , xn ) = 0
⇣ ⌘
@F
✓
◆
@xj
@xi
x ,k6=j
= ⇣ ⌘k
@F
@xj xk ,k6=i,k6=j
@xi
xk ,k6=i
Dabei sind alle Variablen äquivalent, d.h. beliebige partielle Ableitungen können so gebildet werden.
Slide 140
Beispiel
van der Waals-Gleichung des realen Gases
Vereinfachung: für das molare Volumen (also n = 1)
⇣
a ⌘
p + 2 (V b) RT = 0 = F (p, V, T )
V
✓
◆
@V
gesucht:
@p T
✓
◆
1 @V
=
ist die isotherme Kompressibilität des Gases
V @p T
“traditionelle Lösung”: Auflösen einer kubischen Gleichung
“smarte Lösung”: implizite Di↵erentiation
Slide 141
Implizite Di↵erentiation
⇣
a ⌘
p + 2 (V
V
✓
@V
@p
◆
=
T
=
=
b)
⇣
RT = 0 = F (p, V, T )
@F
@p
@F
@V
p+
⌘
T,V
T,p
a
V2
V
a
V2
p
67
V b
+ (V b) ·
b
+ 2ab
V3
2a
V3
4.8
Slide 142
Taylorentwicklung
Taylorsche Entwicklung in 1D
f (x0 + h) = f (x0 ) + f 0 (x0 ) · h +
=
1
X
f (i) (x0 )
i=0
i!
f 00 (x0 ) 2
· h + ...
2!
· hi
f (0) := f und f (i) , i > 1, sind die i. Ableitungen von f
Am Entwicklungspunkt x0 ist die Funktion (beliebig oft) di↵erenzierbar.
• Näherungsformeln kann man durch Abbruch der Reihe nach dem n.
Ableitungsterm erhalten in Form eines Polynoms n. Grades
• Wie groß dabei dann h maximal gewählt werden kann, hängt vom Einzelfall ab.
Slide 143
Taylorentwicklung in 2 Dimensionen
• für n = 2 soll f (x + h, y + k) f (x, y) berechnet werden, wobei h und
k kleine feste Werte annehmen
es soll also f (x + h, y + k) approximiert werden
• Wir führen einen Parameter t ein und betrachten
f (x + t · h, y + t · k) =: F (t)
o↵ensichtlich ist F (0) = f (x, y) und F (1) = f (x + h, y + k)
• Wir können nun die Taylorformel für F (t), einer Funktion von nur einer
Veränderlichen verwenden:
t
t2
t3
F (t) = F (0) + F 0 (0) + F 00 (0) + F 000 (0) + . . .
1!
2!
3!
Slide 144
68
Taylorentwicklung in 2 Dimensionen
F (t) = F (0) +
t 0
t2
t3
F (0) + F 00 (0) + F 000 (0) + . . .
1!
2!
3!
• F 0 (0) (F 00 (0)) sind die 1.(2.) Ableitung von F nach t!
F (0) = f (x, y)
F 0 (0) =
df
dt
@f
d(x + th)
@f
d(y + tk)
+
@(x + th)
dt
@(y + tk)
dt
= fx · h + fy · k
=
Slide 145
Taylorentwicklung in 2 Dimensionen
F 00 (0) =
d(fx · h + fy · k)
dt
= (n.b.: h und k sind unabhängig von t n.V.)
@fx
d(x + th)
@fx d(y + tk)
+h
@(x + th)
dt
@(y + tk)
dt
@fy
d(x + th)
@fy
d(y + tk)
+ k
+k
@(x + th)
dt
@(y + tk)
dt
= h
(weil fx und fy wieder von (x + th) und (y + tk)
abhängen)
= fxx · h2 + 2 · fxy · h · k + fyy · k 2
Slide 146
69
Taylorentwicklung in 2 Dimensionen
Setzen wir in der Gleichung
F (t) = F (0) +
t 0
t2
t3
F (0) + F 00 (0) + F 000 (0) + . . .
1!
2!
3!
t = 1, so erhalten wir
F (1) = f (x + h, y + k)
= f (x, y) +
1
(fx h + fy k)
1!
1
(fxx h2 + 2fxy hk + fyy k 2 )
2!
1
+
...
3!
+
Slide 147
Taylorentwicklung in 2 Dimensionen
in Vektorschreibweise:
✓
◆
✓ ◆
✓
◆
f
h
f
f
x
xx
xy
~h :=
f~0 :=
Hesse-Matrix H :=
fy
k
fxy fyy
f (x + h, y + k) = f (x, y)
T
+ f~0 · ~h
+
1~ T
h · H · ~h + . . .
2
Bricht man nach den Gliedern der n-ten Ableitungen ab, so spricht man vom
Taylorpolynom n-ter Ordnung
Slide 148
70
Satz von
Taylor Satz von Taylor
Theorem:
Sei f (x, y) eine (n + 1)mal stetig di↵erenzierbare Funktion. Dann ist
die Funktion die Summe aus dem Taylorpolynom n-ter Ordnung, Tn ,
n
P
und einem Restglied Rn+1 . Tn (h, k) =
tj (h, k) mit
j=0
j
1X
tj (h, k) =
j! i=0
✓ ◆
j
@j f
hi k j i i j i .
i
@x @y
Das Restglied ist (mit # 2 (0, 1)) definiert als
n+1
X
1
Rn+1 (h, k) =
(n + 1)! i=0
Slide 149
✓
n+1
i
◆
hi k n+1
i@
i
f (x + #h, y + #k)
@xi @y n+1 i
Satz von Taylor
Analoge Formeln gelten für mehr als zwei Veränderliche.
Für 3 Veränderliche enthalten die Formeln dann für tn Terme wie
@ nf
hi k j l m , i + j + m = n
@xi @y j @z m
✓ ◆
j
Statt Binomialkoeffizienten
verwendet man dann Multinomialkoefi
✓
◆
n
fizienten
ij k
Die Formeln werden sehr komplex, jedoch ist die Berechnung eines Taylorpolynoms als lokale Approximation für eine Funktion in der Praxis sehr
einfach, wie das nächste Beispiel zeigt.
Slide 150
Beispiel 1
f (x, y, z) = sin(x) + cos(y + z)
Entwicklungspunkt: x~0 T = (x0 , y0 , z0 ) = (0, 0, 0)
f (x0 , y0 , z0 ) = 1
71
fx = cos(x) =) fx (0, 0, 0) = 1
fy = fz =
sin(y + z) =) fy (0, 0, 0) = fz (0, 0, 0) = 0
fxx =
sin(x) =) fxx (0, 0, 0) = 0
fyy =
cos(y + z) =) fyy = fyz = fzz =
1
fxy = fxz = 0
T2 (x, y, z) = 1 +
1
x keine Terme / y, z
1!
1 2
(y + z 2 + 2 · y · z)
2!
1 2 1 2
= 1+x
y
z
y·z
2
2
Slide 151
Beispiel 1
T2 (x, y, z) = 1 + x
= 1+x
1 2 1 2
y
z
2
2
1
(y + z)2
2
y·z
Dies ist das gleiche Ergebnis, als hätte ich sin(x) und cos(v) mit v =
y + z jeweils für sich in einer Dimension in eine Taylorreihe bis zur 2.
Ordnung entwickelt.
Slide 152
sin(x) ⇡ x
x3
3!
cos(v) ⇡ 1
1 2
v
2
+ 4!1 v 4
=) f (x, y, z) ⇡ x + 1
1 2
v
2
=) f (x, y, z) ⇡ x + 1
1 2
y
2
1 2
z
2
72
y·z
Beispiel 2
f (x, y) = ex·y bis zur 4. Ordnung
Entwicklungspunkt: x~0 T = (x0 , y0 ) = (0, 0)
f (x0 , y0 ) = 1
fx = y · exy =) fx (0, 0) = 0
fy = x · exy =) fy (0, 0) = 0
fxx = y 2 exy =) fxx (0, 0) = 0
fyy = x2 exy =) fyy (0, 0) = 0
fxy = (1 + xy)exy =) fxy (0, 0) = 1
1
T2 (x, y, z) = 1 + 2 · xy = 1 + xy
2
Slide 153
Beispiel 2
alle 3. Ableitungen verschwinden
von den 4. Ableitungen bleiben nur die Terme fxxyy und Permutationen
übrig.
✓
◆
4
Davon gibt es
=6
22
1
T4 (x, y, z) = 1 + 2 · xy = 1 + xy
2
1
+
· 6 · 2 · x2 y 2
4!
1
= 1 + xy + (xy)2
2
1
Vergleichen Sie damit die 1D-Entwicklung ev ⇡ 1 + v + v 2 mit v = xy
2
Slide 154
73
Fazit
Taylorentwicklungen in mehreren Dimensionen kann man sehr erleichtern,
indem man statt der exakten Formeln einfach die Entwicklungen (in einer Dimension) der speziellen Funktionen einsetzt. Dabei ist dann zu beachten, dass
man immer soviele Terme berücksichtigt, dass am Ende kein Polynomterm
mit einer Ordnung gleich oder kleiner der gewünschten Entwicklungsordnung
n vergessen wird.
Slide 155
Beispiel
f (x, y, z) = exyz sin(x+y+z) Entwicklung um (0, 0, 0) bis zur 8. Ordnung!
ev ⇡ 1 + v + 12 v 2 + 16 v 3 +
sin(w) ⇡ w
1 3
w
6
+
1 4
v
24
1
w5
120
⇥
Setze v = xyz · (x + y + z)
1
(x
6
+ y + z)3 +
1
(x
120
+ y + z)5
⇤
v enthält Terme 4., 6. und 8. Ordnung (Gesamtpotenz in x, y, z) und
solche mit höherer Potenz als 8 (die wir weglassen können).
v enthält keine Terme 1. -3. Ordnung
f (x, y, z) ⇡ 1 + v + 12 v 2
⇥
f (x, y, z) ⇡ 1 + xyz (x + y + z)
1
(x
6
+ 12 [xyz(x + y + z)]2
Slide 156
⇤
+ y + z)3 +
1
xyz(x
120
+ y + z)5
Beispiel
⇥
f (x, y, z) ⇡ 1 + xyz (x + y + z)
+ 12 [xyz(x + y + z)]2
1
(x
6
+ y + z)3 +
1
(x
120
+ y + z)5
⇤
aus dem linearen Term der Entwicklung der e-Funktion mussten wir die
Terme 4., 6. und 8. Ordnung übernehmen. Die anderen Terme haben
mindestens die Ordnung 10.
74
aus dem quadratischen Term mussten wir nur den Term 8. Ordnung
übernehmen. Andere Terme haben mindestens die Ordnung 10 (4 + 6)
f (x, y, z) ⇡ T8 (x, y, z) = 1 + x2 yz + xy 2 z + xyz 2
1
xyz(x3
6
+ y3 + z3)
1
xyz(x2 y
2
1
xyz(x
120
+ xy 2 + x2 z + xz 2 + y 2 z + yz 2 )
+ y + z)5 +
1 2 2 2 2
x y z (x
2
4.9
Slide 157
x2 y 2 z 2 +
+ y 2 + x2 + 2xy + 2yz + 2xz)
Extremwerte
Lokale Minima und Maxima
Definition: lokale Extrema
Eine Funktion z = f (x1 , x2 , . . . , xn ) besitzt im Punkt (x01 , x02 , . . . , x0n )
ein lokales Minimum, wenn für ein beliebig kleines, aber festes " > 0
gilt
f (x01 +
x1 , x02 +
x2 , . . . , x0n +
xn )
f (x01 , x02 , . . . , x0n ) > 0
für alle | xi | < ".
Analog liegt ein lokales Maximum vor, wenn gilt
f (x01 +
x1 , x02 +
x2 , . . . , x0n +
xn )
f (x01 , x02 , . . . , x0n ) < 0
für alle | xi | < ".
Slide 158
Bemerkung
• Die Beziehungen des Satzes lassen sich auch schreiben als
df (x1 , x2 , . . . , xn )
0 für lokale Minima
df (x1 , x2 , . . . , xn )  0 für lokale Maxima,
mit
xi ! dxi
75
• Minima und Maxima sind durch horizontale Tangentialebenen charakterisiert.
• Daneben gibt es aber auch noch andere Stellen mit horizointalen Tangentialebenen wie z.B. Sattelpunkte (s.u.)
• Eine notwendige Bedingung für die Existenz horizontaler Tangentialebenen ist z.B. (für 2 Variablen)
fx (x, y) = 0 undfy (x, y) = 0
für n Variablen
fxi (x1 , x2 , . . . , xn ) = 0 für i = 1, 2, . . . , n
Papula, Bd. 2, Bild III-34
Slide 159
Slide 160
Kritischer Punkt
Definition: Kritischer Punkt
Ein Punkt (x01 , x02 , . . . , x0n ) heißt kritischer Punkt der Funktion
f (x1 , x2 , . . . , xn ), wenn für alle xi , i = 1, . . . n gilt:
fxi (x1 , x2 , . . . , xn ) =
@f (x1 , x2 . . . , xn )
=0
@xi
im Punkt (x01 , x02 , . . . , x0n ).
An einem kritischen Punkt ist das totale Di↵erential df = 0.
Slide 161
Kritischer Punkt
76
Satz
An einem kritischen Punkt der Funktion f (x1 , x2 , . . . , xn ) liegt
ein Maximum oder Minimum vor, wenn die Determinante der
Hesse-Matrix |H| > 0 ist.
Wenn die Determinante |H| < 0 ist, liegt ein Sattelpunkt vor.
In 2 Dimensionen reicht es dann, das Vorzeichen von fxx (oder fyy ) zu
betrachten, um zu entscheiden, ob ein lokales Minimum oder ein Maximum
vorliegt:
Ist fxx > 0, so liegt ein lokales Minimum vor.
Ist fxx < 0, so liegt ein lokales Maximum vor.
Ist die Determinante von H = 0, so lässt sich anhand dieses Satzes nicht
entscheiden, ob ein lokales Minimum oder ein lokales Maximum vorliegt.
In mehr als 2 Dimensionen muss man auf die Eigenwerte von H zurückgreifen.
Slide 162
Kritischer Punkt
ohne Beweis oder Beispiel
Verallgemeinerung
Ist f (x⇤ ) ein Minimum (Maximum) einer stetig di↵erenzierbaren
skalaren Funktion f auf einer Umgebung von x⇤ , so gilt
grad f (x⇤ ) = rf (x⇤ ) = 0 .
Eine hinreichende Bedingung ist, dass zusätzlich alle Eigenwerte der
Hesse-Matrix im kritischen Punkt x⇤ positiv (negativ) sind.
Gibt es Eigenwerte mit verschiedenen Vorzeichen, so handelt es sich
um einen Sattelpunkt, also kein lokales Extremum.
Ist mindestens ein Eigenwert Null bei gleichen Vorzeichen der von
Null verschiedenen Eigenwerte, so kann der Typ des kritischen Punktes x⇤ anhand der zweiten Ableitungen nicht klassifiziert werden.
Slide 163
Beispiel
f (x, y) =
fx (x, y) =
x2
a2
+
y2
b2
2x
a2
77
2y
b2
fy (x, y) =
=) (x0 , y0 ) = (0, 0) ist der einzige kritische Punkt
fxx (x, y) =
2
a2
> 0 fxy = fyx = 0 fyy (x, y) =
2
fxy
=
|H| = fxx · fyy
4
a2 b 2
2
b2
>0
>0
=) Minimum
Slide 164
Beispiel 2
f (x, y) =
y2
b2
x2
a2
fx (x, y) =
2x
a2
fy (x, y) =
2y
b2
=) (x0 , y0 ) = (0, 0) ist der einzige kritische Punkt
fxx (x, y) =
2
a2
> 0 fxy = fyx = 0 fyy (x, y) =
|H| = fxx · fyy
2
fxy
=
4
a2 b2
2
b2
<0
<0
=) Sattelpunkt
Papula, Bd. 2, Bild III-36
Slide 165
Slide 166
Anwendungen
• thermodynamisches Gleichgewicht =) Finden des Minimums der freien
Energie (oder des Maximums der Entropie)
• Quantenmechanik =) Bestimmung der minimalen Energie eines Moleküls als Funktion der Kernkoordinaten: Strukturbestimmung Bestimmung der minimalen Energie eines Moleküls als Funktion der Beiträge
von Atomorbitalen in MOs: Quantenchemie
• Fitten von Daten an Modelle =) lineare Regression Multilineare Regression
78
4.10
Slide 167
Multilineare Regression
Ausgleichsgerade
Aufgabe: Finden Sie die “beste” Ausgleichsgerade durch die Messpunkte!
n Punkte (xi , yi ), z.B. Messwerte
Eine Gerade ist gegeben durch die Gleichung y = a0 + a1 x
Frage: Was ist die “beste” Gerade?
Antwort: Diejenige, die die Abweichungen zwischen Experiment und
Ausgleichsgerade Minimiert.
Slide 168
Ausgleichsgerade
y
• •
•
•
•
•
x
Welche Funktion soll minimiert werden?
Slide 169
Ausgleichsgerade
Welche Funktion soll minimiert werden?
in der Regel
f (a0 , a1 ) =
n
X
yi expt
yi berechnet
i=1
=
n
X
i=1
79
(yi
a0
a1 x i ) 2
2
a0 , a1 sind die Variablen in dieser Betrachtung, da sie berechnet werden
müssen.
Die (xi , yi ) sind nach der Messung Konstanten (Mess”werte”)
Slide 170
Zielfunktion
Man nennt f (a0 , a1 ) auch die (quadratische) Norm, den “Abstand”, die
Zielfunktion, “the Objective”, etc.
• Prinizipiell funktioniert jede Norm, also auch
n
X
i=1
|yi
a1 xi |m , m = 1, . . . , ]1
a0
mehr oder weniger gut.
Slide 171
Die Bestimmung der Koeffizienten a0 und a1
n
X
@f
=2
(yi
@a0
i=1
a0
a1 xi ) · ( 1)
a0
a1 x i ) · ( x i )
n
X
@f
=2
(yi
@a1
i=1
!
0=2
n
X
(yi
a0
a1 x i )
i=1
!
0=2
n
X
(yi xi
i=1
Slide 172
80
a0 x i
a1 x2i )
Die Bestimmung der Koeffizienten a0 und a1
!
0=2
n
X
(yi
a0
a1 xi )
i=1
!
0=2
n
X
(yi xi
a0 x i
a1 x2i )
i=1
s0 :=
sx2 :=
n
X
i=1
n
X
1 = n
sx :=
n
X
xi
sy :=
i=1
n
X
yi sxy :=
i=1
x2i
i=1
0 = 2 · ( sy + na0 + sx a1 )
0 = 2 · ( sxy + sx a0 + sx2 a1 )
Slide 173
Die Bestimmung der Koeffizienten a0 und a1
2 · ( sy + na0 + sx a1 )
2 · ( sxy + sx a0 + sx2 a1 )
0=
0=
• aus (1) a0 =
sy
a1 s x
n
• eingesetzt in (2):
a1 s x
+ s x 2 a1
n✓
◆
sx sy
(sx )2
=
sxy +
+ s x2
a1
n
n
!
⇣
sx sy ⌘
1
= sxy
·
2
n
sx2 (snx )
0 =
) a1
Slide 174
sxy + sx
81
sy
n
X
i=1
xi yi
Die Bestimmung der Koeffizienten a0 und a1
a1 =
=
⇣
sxy
sxy n
Slide 175
sx sy
n
sxy n
s x2 n
nsxy
=
nsx2
=
sx sy ⌘
·
n
·
1
(sx )2
n
s x2
1
!
sx2 n (sx )2
n
sx sy
(sx )2
sx sy
= a1
(sx )2
Die Bestimmung der Koeffizienten a0 und a1
a1 s x
n
sy sx nsxy sx sy
=
·
n
n nsx2 (sx )2
sy (n · sx2 sx · sx ) sx · nsxy + sx · sx · sy
=
n(n · sx2 sx · sx )
sy sx2 sx sxy
=
= a0
nsx2 sx sx
a0 =
sy
Koeffizienten lineare Regression
a0 =
s y s x2
nsx2
sx sxy
sx sx
Slide 176
82
a1 =
nsxy
nsx2
sx sy
sx sx
Multilineare Regression
Der allgemeine Fall
y=
N
X
ak x k
k=0
erfordert das Lösen eines Gleichungssystems mit (N + 1) Gleichungen
und (N + 1) unbekannten Koeffizienten ak .
Dabei werden Summen des Typs
n
P
i=1
xki yi und
n
P
i=1
xki benötigt.
Das Gleichungssystem wird dann in der Regel durch Matrixinversion
gelöst.
Wenn die Koeffizienten ai nicht mehr linear im ’Fitausdruck’ vorkommen, funktioniert die Matrixinversion nicht mehr, man muss stattdessen ein nichtlineares Fitverfahren anwenden.
4.11
Slide 177
Integration von Funktionen mehrerer Veränderlicher
Integration über eine Variable
Sei f (x, y) = x2 + 2y eine Funktion der zwei Variablen x und y.
Ein Intervall [a, b] = [2, 4] sei für die Variable y definiert.
Man kann die Funktion f (x, y) im Intervall [a, b] nach y integrieren,
wenn man x als einen Parameter betrachtet.
• dann ist
g=
Zb
f (y; x)dy =
a
2
natürlich wieder eine Funktion g(x).
Slide 178
Z4
83
f (y; x)dy
Integration über eine Variable
g(x) =
Z4
f (y; x)dy
2
=
⇥
x2 y + y 2
2
= 4x + 16
= 2x2 + 12
Slide 179
⇤y=4
y=2
(2x2 + 4)
Integration
Theorem:
Wenn f (x, y) eine im abgeschlossenen Rechteck [c, d] ⇥
[a, b] stetige Funktion von x und y ist, so ist g(x) mit der
Rb
Definition der g(x) := g(x, y)dy eine stetige Funktion
a
von x.
Frage: ist g(x) di↵erenzierbar?
Slide 180
Integration
Theorem:
Wenn f (x, y) und fx (x, y) im abgeschlossenen Rechteck
[c, d] ⇥ [a, b] existieren und stetig sind, so ist
g(x) =
Zb
f (x, y)dy
a
im Intervall bzgl. x di↵erenzierbar und es gilt:
d
g (x) =
dx
0
Zb
f (x, y)dy =
a
Zb
a
Slide 181
84
@f
(x, y)dy
@x
|{z}
fx
Beispiel
g(x) =
Z2
(x2 + 2y)dy = 2x2 + 4
0
0
g (x) = 4x
Aufgrund des Satzes ist
Z2
d
g(x) =
dx
2xdy = [2xy]y=2
y=0 = 4x
0
Slide 182
Nichtkonstante Integrationsgrenzen
Interessant ist der Fall, wenn a und b ebenfalls Funktionen von x sind,
also
Z2 (x)
g(x) =
f (x, y)dy
1 (x)
Slide 183
Nichtkonstante
Theorem: Integrationsgrenzen
Wenn f (x, y), 1 (x), 2 (x) stetige Ableitungen nach x
besitzen, gilt
0
g (x) =
Z2 (x)
fx (x, y)dy
1 (x)
+ f (x,
2 (x))
Kettenregel: g(x) = '(x,
·
0
2 (x)
1 (x),
f (x,
1 (x))
·
0
1 (x)
2 (x))
Slide 184
g 0 (x) =
+
+
Slide 185
@'
@x
@' d 1
@ 1 dx
@' d 2
@ 2 dx
Ableitung bei konstanten Grenzen
Ableitung nach oberer Grenze
Ableitung nach unterer Grenze
85
Beispiel
sin x
Z
g(x) =
xydy
x2
sin x
Z
) g (x) =
ydy + x
| sin
{z x} · cos
| {zx}
0
f (x,
x2
x3 · |{z}
2x
|{z}
f (x,

1 (x))
1
= y2
2
2 (x))
0
2 (x)
0
1 (x)
sin x
+ x sin x cos x
2x4
x2
1 2
1 4
sin x
x
2x4 + x sin x cos x
2
2
✓
◆
1
5 4
= sin x
sin x + x cos x
x
2
2
=
Slide 186
g(x) ist (zumindest im aktuellen Beispiel) wieder eine stetige Funktion
von x und kann wieder integriert werden.
Zusammen mit der ersten Integration spricht man für die zweite Integration (nach x) von einem Doppelintegral
für mehr als 2 Dimensionen von Dreifach- bzw. n-fach-Integralen.
zur Berechnung gilt der folgende nützliche Satz von Fubini:
Slide 187
Satz von Fubini
Satz von Fubini
Das Doppelintegral der im abgeschlossenen Rechteck [c, d] ⇥ [a, b] stetigen Funktion f (x, y) ist unabhängig von der Reihenfolge der Integrationen
Zd Zb
Zb Zd
f (x, y)dxdy =
f (x, y)dydx
c
Slide 188
a
a
86
c
zur Schreibweise
• Man zieht häufig das dxi zum zugehörigen Integralzeichen vor
und schreibt es direkt hinter das Integralzeichen (“Operatorschreibweise”)
Zd
c
dy
Zb
dx f (x, y) =
a
Zb
a
dx
Zd
dy f (x, y)
c
• “Abarbeiten” von Innen (rechts) nach Außen (links)
•
Zb
dx ist dann der Operator für die Vorschrift “integriere nach x von a
a
bis b”.
Slide 189
Anwendung: Bereichsintegrale
V = lim lim
m!1 n!1
Slide 190
m X
n
X
i=1 j=1
V = lim lim
m!1 n!1
xi yj · f (xi , yj )
m X
n
X
i=1 j=1
87
xi yj · f (xi , yj )
Grenzübergang
V =
ZZ
f (x, y)dxdy
B
wobei Volumenanteile oberhalb der xy-Ebene positiv, solche unterhalb
der xy-Ebene negativ gezählt werden.
Slide 191
Führen wir zunächst die y-Integration durch, so erhalten wir eine nur noch
von x abhängige Funktion, die dann “normal” integriert werden kann.
88
Z2 (x)
g(xi ) =
f (xi , y)dy
1 (x)
V =
Zb
g(x)dx
a
Slide 192
Beispiel
f (x, y) = x · y B ist ein Viertelkreis mit Radius 2
Slide 193
Beispiel
V
=
ZZ
f (x, y)dxdy =
Z2

0
B
=
0
x
Z2
y2
2
2 (x)
0
1
Z2 (x)
B
C
x · ydy A dx
@
1 (x)
dx
1 (x)
Z2
Z2
⇤
1⇥
1
2
=
x (4 x ) 0 dx =
(4x x3 )dx =
2
2
0
0

1 4 2 1 4
1
=
x
x = [8 4 0] = 2
2 2
4
2
Slide 194
89
Verallgemeinerung
Sei (x1 , x2 , . . . , xn ) 2 R
Sei ferner f (x1 , . . . , xn ) stetig im n-dimensionalen “Rechteck” zwischen
min
min
max
(xmin
, xmax
, . . . , xmax
), dem Bereich Bn
1 , x2 , . . . , xn ) und (x1
2
n
Dann heißt
ZZZ
Z
...
f (x1 , x2 , . . . , xn )dx1 dx2 . . . dxn
|
{z
}
n Integrale
über Bereich Bn
das n-dimensionale Bereichsintegral (n-fach-Integral).
Slide 195
Anwendung
• Berechnung von Volumina
• Berechnung von Mittelwerten über einen Bereich (allgemein: über eine
Verteilungsfunktion)
• in der Quantenmechanik: Erwartungswerte, Normierungsintegrale wie
z. B.
Z
| (xi , yi , zi )|2 dx1 dy1 dz1 dx2 . . . dzn , i = 1, . . . n
Wellenfunktion, n Zahl der Elektronen
Slide 196
Koordinatentransformation
• Führt man die Bereichsintegration auf einfache Integrationen zurück
(Angabe der Grenzfunktionen 1 und 2 ), so wird der Integrand häufig
sehr kompliziert.
• Wenn aber z. B. der Bereich ein Kreis mit Radius R ist, dann entspricht
die Berichsintegration einer Integration über alle Winkel (von 0 bis
2⇡) und über Abstände r vom Ursprung zwischen 0 und R.
Slide 197
90
Koordinatentransformation
• die Transformationsgleichungen
x = G(u, v)
und
y = H(u, v)
definieren eine vektorwertige Funktion in 2 Variablen, die den Bereich
A 2 R2 auf den Bereich B 2 R2 abbildet:
(x, y) ! (G, H)
A ist der Bereich für x, y und B der Bereich für die neuen Variablen
G, H
Slide 198
Koordinatentransformation
Die Jacobi-Matrix dieser Transformation lautet .
✓ @G @G ◆
@x
@H
@x
@y
@H
@y
Ihre Determinante muss 6= 0 sein, sonst ist die Transformation nicht
eindeutig (lineare UnAbhängigkeit der Ableitungen)
• Diese Transformation soll nun für das Bereichsintegral
ZZ
f (x, y)dxdy
A
genutzt werden.
Slide 199
91
Bereichsintegral
V
=
ZZ
f (x, y)dxdy
A
=
=
=
Slide 200
lim lim
m!1 n!1
lim lim
m!1 n!1
lim lim
m!1 n!1
m X
n
X
i=1 j=1
m X
n
X
i=1 j=1
m X
n
X
i=1 j=1
xi yj · f (xi , yj )
xi yj · f (G(xi , yj ), H(xi , yj ))
·f (G(xi , yj ), H(xi , yj ))
xi yj
G i Hj
| {z }
Flächenverhältnis
Gi Hj
Bereichsintegral
• Das Flächenverhältnis ist gleich der Determinante der Jacobimatrix (im
lim ; ohne Beweis).
m,n!1
• Damit wird
V
=
ZZ
f (x, y)dxdy
A
=
ZZ
f (G(x, y), H(x, y))
B
Slide 201
92
d(x, y)
dGdH
d(G, H)
| {z }
Betrag der
Jacobi-Determinante
Beispiel
f (x, y) = x · y
x = r cos ' = G(r, ')
y = r sin ' = H(r, ')
• wie oben: Integration über Viertelkreis (mit Radius 2)
• Jacobi-Determinante
@G
@x
@H
@x
Slide 202
@G
@y
@H
@y
=
=
cos '
sin '
cos '
sin '
r sin '
r cos '
Beispiel
• Jacobi-Determinante
@G
@x
@H
@x
@G
@y
@H
@y
= r cos2 '
Slide 203
Beispiel
93
r sin '
r cos '
( r sin ') sin ' = r
)
ZZ
f (x, y)dxdy =
ZZ
=
ZR
0
Z⇡/2
dr d' r · r cos ' · r sin '
ZR
Z⇡/2
dr r
d' sin ' cos '
A
f (r, ') · rdrd'
B
=
=
0
ZR
0
3
dr r3
0
Slide 204
0
Z0
cos '( d cos ')
1
Beispiel
)
ZZ
f (x, y)dxdy = . . .
A
=
ZR
dr r
0
3
Z1
cos 'd cos '
0
ZR
ZR
⇥
⇤
1
1
1
=
dr r3 cos2 ' 0 =
dr r3
2
2
0
0
 4 R
1 r
11 4
=
=
R = 2 für R = 2
2 4 0
24
Slide 205
Koordinatentransformationen
• Polarkoordinaten
94
• Zylinderkoordinaten
• Kugelkoordinaten
• Schwerpunktskoordinaten
• elliptische Koordinaten (! H+
2)
Slide 206
Koordinatentransformationen
Polarkoordinaten
(x, y) ! (r, ')
Transformationsgleichungen:
p
r =
x2 + y 2
' = arctan xy
x = r cos '
y = r sin '
dx dy = rdr d'
Slide 207
Koordinatentransformationen
Zylinderkoordinaten
(x, y, z) ! (⇢, ', z)
Transformationsgleichungen:
p
⇢ =
x2 + y 2
' = arctan xy
x = ⇢ cos '
y = ⇢ sin '
z = z
dx dy dz = rdr d' dz
Slide 208
95
Koordinatentransformationen
Kugelkoordinaten
(x, y, z) ! (r, #, ')
Transformationsgleichungen:
x = r sin # cos '
y = r sin # sin '
z = r cos #
p
r =
x2 + y 2 + z 2
# = arccos zr = 2
' = arctan
y
x
z
1
(x +y 2 +z 2 ) 2
dx dy dz = r2 dr sin #d# d'
Slide 209
Erwartungswerte
• häufig hat man es in der Theorie mit Verteilungsfunktionen (engl.: “distribution functions”) zu tun.
• Sie geben, für kontinuierliche Variablen, die Wahrscheinlichkeitsdichte
für das Auftreten bestimmter Werte der unabhängigen Variablen an.
• die Wahrscheinlichkeit, diese zwischen (x1 , . . . , xn ) und (x1 +dx1 , . . . , xn +
dxn ) zu finden:
p(x1 , . . . , xn )dx1 . . . dxn
(
0)
• kennt man die Verteilungsfunktion, so lassen sich daraus Erwartungswerte oder Mittelwerte berechnen.
Slide 210
Erwartungswerte
96
Definition: Erwartungswert
Der Erwartungswert einer Eigenschaft e, die von n
Variablen x1 , . . . , xn abhängt, die wiederum mit einer Wahrscheinlichkeitsdichte p(x1 , . . . , xn ) auftreten,
ist gegeben durch
R
R
··· dx1 . . . dxn e(x1 , . . . , xn )p(x1 , . . . , xn )
R
E =Bereich R
··· dx1 . . . dxn p(x1 , . . . , xn )
Bereich
Ist das Nennerintegral gleich 1, so spricht man von einer
auf eins normierten oder kurz normierten Wahrscheinlichkeitsdichte.
Slide 211
Beispiele
• In der Quantenmechanik möchte man z.B. den mittleren Abstand des
Elektrons im Wassersto↵atom vom Kern kennen, wenn sich das Atom
im 1s-Zustand (Grundzustand) befindet. p(r, #, ') = | 1s (r, #, ')|2 ist
dann das Absolutquadrat der Wellenfunktion 1s . Die Eigenschaft e ist
dann einfach der Abstand r zwischen Elektron und Kern.
Slide 212
Beispiele
• In der Quantenmechanik möchte man z.B. die mittlere Bindungslänge
in einem Molekül, z.B. H2 kennen. p(xi , yi , zi ) = | (xi , yi , zi )|2 (i =
1, . . . , n) ist dann das Absolutquadrat derp
Wellenfunktion . Die Eigenschaft e ist dann einfach der Abstand r = (x1 x2 )2 + (y1 y2 )2 + (z1
zwischen den beiden Atomen.
Slide 213
Beispiele
• in der statistischen Thermodynamik möchte man die mittlere Energie
eines Systems im thermischen Gleichgewicht bei der Temperatur T kennen. Die Eigenschaft e ist dann die sogenannte Hamiltonfunktion (totale
97
z2 )2
Energie) und die Wahrscheinlichkeitsdichte p ist der Boltzmannfaktor
e E(xi )/kB T .
• Die Integration erfolgt jeweils über alle Koordinaten.
4.12
Slide 214
Kurven- oder Pfadintegrale
Arbeit entlang eines Weges
• berechne die Arbeit, um Massenpunkt von A nach B entlang des
Pfades C zu bringen
• “Arbeit” = – “Kraft” · “Weg”
W =
Z
F~ d~s
Pfad
C
• ~s = ~s(t) ist eine parametrisierte Kurve für den Pfad C
Slide 215
Arbeit entlang eines Weges
98
• ~s = ~s(t) ist eine parametrisierte Kurve für den Pfad C
• an jedem Punkt gilt d~s =
Z
)W =
d~s(t)
dt
dt
d~s(t)
F~ (x, y, z) ·
dt =
dt
C
ZB
F~ · d~s
A
Hier und im folgenden wird bei den Skalarprodukten der Einfachheit halber das Suffix ’T ’ für die
Transposition des linken Vektors weggelassen.
Slide 216
Verallgemeinerung
Definition: Linienintegral
Z
I :=
f~(x1 , . . . , xn )d~x
Pfad
C
heißt Linienintegral.
Slide 217
Bemerkungen
• o↵ensichtlich ist
I
⇣
A ! B
⌘
=
I
⇣
B ! A
⌘
• ein in Physik und Chemie interessanter Fall: I ist wegunabhängig.
(in der Mechanik: konservative Kräfte)
(in der Thermodynamik: ) Zustandsfunktionen)
Slide 218
99
Wegunabh
ängigkeit und totales Di↵erential
Theorem:
Sei
Z
I = [P (x, y)dx + Q(x, y)dy] .
C
I ist wegunabhängig, wenn
P =
@F
@F
= Fx und Q =
= Fy ,
@x
@y
also partielle Ableitungen einer Funktion F sind.
Slide 219
Wegunabh
ängigkeit und totales Di↵erential
Theorem:
Ist
F~ d~s
ein totales Di↵erential, so ist
Z
F~ d~s
C
wegunabhängig.
Slide 220
Wegunabhängigkeit und totales Di↵erential
100
Definition:
I
F~ d~s
C
bezeichnet ein Linienintegral über eine geschlossene
Kurve ( A = B ).
Wenn F~ d~s ein totales Di↵erential ist, so ist
I
F~ d~s = 0
C
Die Stammfunktion von F~ ist dann eine “Zustandsfunktion”.
Slide 221
Beispiele
• Mechanik:
W =
ZB
F~ d~s
A
• Thermodynamik:
U=
ZB
A
Slide 222
0
1 0
1
p
dV
@ T A · @ dS A
µ
dN
Berechnung
Wie berechnet man Linienintegrale?
• Weiß man, dasss es eine Stammfunktion gibt, so kann man den Weg
geeignet wählen, da der Wert des Integrals nur von Anfangs- und Endpunkt abhängt.
Andernfalls muss man die Kurve ~s parametrisieren.
Slide 223
101
Beispiel
F~ (x, y) = x · y ·
Slide 224
✓
1
1
◆
Beispiel
Z
C1
x·y·
✓
1
1
◆ ✓
◆
Z1
dx
·
=
dy y · 0
dy
0
+
Z2
dx x · 1
0
= 0+
Slide 225
102

x2
2
2
=2
0
Beispiel
• Parametrisierung von Pfad C2 :
x(t) = 2 · t für t 2 [0, 1]
dx
=2
dt
für t 2 [0, 1]
dy
=1
dt
y(t) = t
Z
=
0
C2
Slide 226
Z1
✓ ◆ ✓ ◆
Z1
⇥ ⇤1
1
2
2t
·
dt = 6t2 dt = 2t3 0 = 2
1
1
2
0
Beispiel
Ist das Linienintegral wegunabhängig?
nein, denn Probe auf den Schwarz’schen Satz ergibt
@(xy)
@(xy)
= Fxy = x 6=
= Fyx = y
@y
@x
Beweis: betrachte die Kurve C3 : (0, 0) ! (2, 0) ! 2, 1)
Z
C3
=
Z2
0
dx x · 0 +
Z1
dy y · 2 = 2
0
) Wegintegral ist nicht pfadunabhängig.
103

y2
2
1
=1
0
Zugehörige Unterlagen
Herunterladen