Brückenkurs Mathematik 3 Vorbereitungen zur Vorlesung

Werbung
Fakultät für Ingenieurswissenschaften
Bachelorstudiengang Biomedizinische Technik
Prof. Dr. W. Langguth
Brückenkurs Mathematik 3
Vorbereitungen zur Vorlesung Mathematik 3
von
Wolfgang Langguth
Version 1.0.0
Bearbeitung unter Mitwirkung von
Dipl.-Math. Kerstin Gozemba
Dipl.-Ing. Rolf Kröner-Naumann
10. Oktober 2013
Hochschule für Technik und Wirtschaft
Fachbereich Elektrotechnik
Studiengang Biomedizinische Technik
Inhaltsverzeichnis
1 Einleitung
3
2 Komplexe Zahlen
4
2.1
Denition einer komplexen Zahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
2.2
Gauÿsche Zahlenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
2.3
Darstellungsformen einer komplexen Zahl
. . . . . . . . . . . . . . . . . . . . . . .
6
2.3.1
Algebraische oder kartesische Form . . . . . . . . . . . . . . . . . . . . . . .
6
2.3.2
Trigonometrische Form
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2.3.3
Exponentialform
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
2.4
Grundrechnungsarten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5
Potenzieren
8
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2.6
Wurzeln komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2.7
Einfache komplexe Funktionen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
2.8
Ortskurven
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.8.1
Geraden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
2.8.2
Kreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.8.3
Inversionen
21
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Dierentialrechnung
24
3.1
Steigung einer Kurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3.2
Das Dierential einer Funktion
25
3.3
Ableitung elementarer Funktionen
. . . . . . . . . . . . . . . . . . . . . . . . . . .
25
3.4
Wiederholung der Ableitungsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
3.5
Gleichung der Tangente und der Normalen . . . . . . . . . . . . . . . . . . . . . . .
28
3.6
Kurvendiskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Partialbruchzerlegung
32
5 Integrationsmethoden
34
5.1
Integration durch Substitution
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2
Partielle Integration
34
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
6 Fourierreihen
36
6.1
Reelle Fourier-Reihen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
6.2
Die Fourier-Reihe in komplexer Schreibweise . . . . . . . . . . . . . . . . . . . . . .
37
7 Grundlagen zum Thema Eigenwerte und Eigenvektoren
7.1
39
7.1.1
Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
7.1.2
Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
7.1.3
Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
n
Euklidischer Raum R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
7.2.1
Matrizen
44
7.2.2
Determinanten
7.2.3
Lösungsstruktur eines LGS
7.1.4
7.2
7.3
39
Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
46
. . . . . . . . . . . . . . . . . . . . . . . . . . .
50
Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
7.3.1
52
Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
7.3.2
Matrizenschreibweise für lineare Abbildungen . . . . . . . . . . . . . . . . .
53
7.3.3
Beispiele für lineare Abbildungen in Matrizenschreibweise
. . . . . . . . . .
54
7.3.4
orthogonale und unitäre Matrizen
. . . . . . . . . . . . . . . . . . . . . . .
56
7.3.5
Drehung von Basen und Ortsvektoren
7.3.6
Transformation von Matrizen auf Diagonalgestalt und Hauptachsentransfor-
. . . . . . . . . . . . . . . . . . . . .
mation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
57
57
Kapitel 1
Einleitung
Die vorliegenden Unterlagen beziehen sich gröÿtenteils auf bereits in früheren Vorlesungen behandelte Themengebiete. Sie sollen neben der Wiederholung und Vertiefung auch dazu dienen, den
Kontext zu den Inhalten der bevorstehenden Vorlesung Mathematik 3 herzustellen und den Zugang zu diesen neuen Themenbereichen zu erleichtern. Dieser Zielsetzung folgend werden innerhalb
der Bereiche
Komplexe Zahlen, Algebraische Strukturen
und
Lineare Abbildungen
zum Teil auch
Themen angesprochen, die bisher noch nicht behandelt wurden.
Sollten Sie Fehler oder Unklarheiten entdecken oder Fragen haben, schicken Sie bitte mir eine EMail oder nehmen Sie mit mir Rücksprache.
Saarbrücken, den 10. Oktober 2013
gez. Wolfgang Langguth
c
⃝
Wolfgang Langguth
3
Kapitel 2
Komplexe Zahlen
2.1 Denition einer komplexen Zahl
Betrachten wir die Gleichung
x2 = −1
(2.1)
Diese Gleichung besitzt keine reelle Lösung. Um diese Gleichung lösen zu können denieren wir
die so genannte imaginäre Einheit.
Denition 2.1 Die imaginäre Einheit ist eine Zahl j , deren Quadrat gleich −1 ist:
j 2 = −1
Denition 2.2 Unter einer imaginären Zahl versteht man das Produkt einer reellen Zahl
mit der imaginären Einheit j .
Die Summe z = x + jy mit x ∈ R und einer imaginären Zahl jy heiÿt komplexe Zahl.
R\ (0)
z ∈ C = {z|x + jy = z
y ∈
x, y ∈ R; j 2 = −1}
wobei x dem Realteil Re und y dem Imaginärteil Im von z entspricht. Und C der Körper der
komplexen Zahlen ist.
2.2 Gauÿsche Zahlenebene
Der Realteil und der Imaginärteil einer komplexen Zahl können als kartesische Koordinaten eines
Punktes
P (z) = (x, y)
in der Ebene aufgefasst werden.
4
Abbildung 2.1: komplexe Ebene
Bemerkung:
Zwei komplexe Zahlen sind genau dann gleich, wenn sie in Real- und Imaginärteil übereinstimmen.
Denition 2.3 Ist z = x+jy eine komplexe Zahl, dann bezeichnet man z ∗ = x−jy als konjugiert komplexe
Zahl von z . Dabei gilt:
Re (z) = Re (z ∗ )
Im (z) = −Im (z ∗ )
Durch Spiegelung an der reellen Achse erhält man den konjuiert komplexen Punkt in der Gauÿschen
Zahlenebene.
Abbildung 2.2: konjugiert komplexe Zahl
Der Betrag einer komplexen Zahl ergibt sich wie folgt:
|z| =
√
√
x2 + y 2 = zz ∗
Geometrisch betrachtet ist der Betrag die Länge des komplexen Zeigers in der Gauÿschen Zahlenebene.
Beispiel:
3 + 2j = z
dann ist
|z| =
√
√
9 + 4 = 13
5
2.3 Darstellungsformen einer komplexen Zahl
Eine komplexe Zahl kann in drei verschiedenen Formen dargestellt werden.
2.3.1 Algebraische oder kartesische Form
Unter der algebraischen oder auch Normalfrom genannt, versteht man die folgende Darstellung:
z = x + jy
2.3.2 Trigonometrische Form
Jede komplexe Zahl
z = x + jy
lässt sich aus der kartesischen Form in die sogenannte trigonome-
trische Form überführen. Wir verwenden dazu die folgende Beziehung (Polarkoordinaten):
x = r · cos (φ)
y = r · sin (φ)
für den Fall, dass der komplexe Zeiger im 1. Quadranten liegt ergibt sich
tan (φ) =
φ
aus:
Im(z)
y
=
Re(z)
x
Liegt der komplexe Zeiger im 2. oder 3. Quadranten, so müssen wir
π
zu
φ
dazu addieren. Im 4.
φ 2π dazu.
x
z = x ± jy , dann ist φ = ± arccos( |z|
)
Quadranten kommen zu
Alternativ: Sei
Somit lässt sich die komplexe Zahl in der Form
z = r (cos (φ) + j sin (φ))
darstellen, wobei
r
der Betrag von
Es gilt also:
Ist
φ ∈ [0, 2π[, so nennt
2π deniert.
z
ist und
φ
als Argument, Winkel oder Phase bezeichnet wird.
√
r = x2 + y 2
φ = arg (z)
man
φ
den Hauptwert. Der Winkel
φ
ist unendlich vieldeutig und nur
modulo
Die Darstellung einer konjugiert komplexen Zahl in der trigonometrischen Schreibweise, lautet folgendermaÿen:
z ∗ = r cos(φ) − jr sin (φ)
= r cos (−φ) + jr sin (−φ)
6
Abbildung 2.3: Trigonometrische Form
2.3.3 Exponentialform
Unter Verwendung der Eulerschen Formel:
ejφ = cos(φ) + j sin(φ)
erhält man sofort aus der trigonometrischen Form die Exponentialform einer komplexen Zahl:
z = rejφ
und
z ∗ = re−jφ
Aus der Eulerschen Formel ist direkt ersichtlich, dass die komplexe Exponentialfunktion periodisch
mit der Periode
2πj :
ejφ+k2πj = ej(φ+k2π) = ejφ
Abbildung 2.4: Der Zeiger von
7
e jφ
2.4 Grundrechnungsarten
Denition 2.4 Addition und Subtraktion
Seien
z1 = x1 + jy1
z2 = x2 + jy2
zwei komplexe Zahlen. Dann ist:
z1 ± z2 = x1 + x2 + j (y1 ± y2 )
Dabei gilt für die Addition:
z1 + z2 = z2 + z1
(z1 + z2 ) + z3 = z1 + (z2 + z3 )
Dreiecksungleichung:|z1 + z2 | ≤ |z1 | + |z2 |
- Die Kommuativität:
- Die Assoziativität:
- Die
- Die Vertauschbarkeit zwischen Addition/ Subtraktion und dem Übergang zur komplex konjugier∗
∗
∗
ten Zahl: (z1 ± z2 ) = z1 ± z2
Abbildung 2.5: Zeigerdarstellung der komplexen Addition
Denition 2.5 Multiplikation
Es seien z1 = x1 + jy1 und z2 = x2 + jy2 zwei komplexe Zahlen, dann gilt:
z1 · z2 = (x1 x2 − y1 y2 ) + j(x1 y2 + x2 y1 )
Bei der Multiplikation gelten:
z1 · z2 = z2 z1
(z1 · z2 ) · z3 = z1 · (z2 · z3 )
Distributivgesetz: z1 · (z2 + z3 ) = z1 · z2 + z1 · z3
- Die Kommutativität:
- Die Assoziativität:
- Das
Denition 2.6 Division
Es seien z1 = x1 + jy1 und z2 = x2 + jy2 zwei komplexe Zahlen mit z2 ̸= 0, dann gilt:
z1
x1 x2 + y1 y2
x2 y1 − x1 y2
=
+j
2
2
z2
x2 + y2
x22 + y22
(x1 + jy1 )(x2 − jy2 )
=
x22 + y22
∗
z1 · z2
=
|z2 |2
Beispiele:
1.
z1 = 4 − 8 j, z2 = 3 + 4 j
z1
4 − 8j
(4 − 8j)(3 − 4j)
4 8
=
=
= ... = − − j
z2
3 + 4j
9 + 16
5 5
8
2.
1
1(−j)
=
= −j
j
j(−j)
Multiplikation und Division in trigonometrischer und exponentieller Darstellung:
Multiplikation:
z1 = r1 (cos(φ1 ) + j sin(φ1 ));
z2 = r2 (cos(φ2 ) + j sin(φ2 ))
z1 · z2 = r1 · r2 (cos(φ1 ) cos(φ2 ) − sin(φ1 ) sin(φ2 )
|
{z
}
cos(φ1 +φ2 )
+ j (cos(φ1 ) sin(φ2 ) + sin(φ1 ) cos(φ2 )))
{z
}
|
sin(φ1 +φ2 )
Mit Hilfe der Additionstheoreme ergibt sich:
z1 · z2 = r1 · r2 (cos(φ1 + φ2 ) + j sin(φ1 + φ2 ))
Und in Exponentialform erhalten wir:
z1 = r1 e jφ1 , z2 = r2 e jφ2
z1 · z2 = r1 · r2 e j(φ1 +φ2 )
Division:
r1 j(φ1 −φ2 )
z1
z1 · z2∗
r1 e jφ1 · r2 e −jφ2
=
=
=
e
z2
|z2 |2
r22
r2
=
r1
(cos(φ1 − φ2 ) + j sin(φ1 − φ2 ))
r2
Regel:
Bei der Multiplikation zweier komplexer Zahlen werden die Beträge multipliziert/dividiert
und die Argumente addiert/subtrahiert.
Bemerkung:
Bildung der konjugiert komplexen Zahl vertauscht mit der Multiplikation und Division.
(z1 · z2 )∗ = z1∗ · z2∗
( )∗
z1
z∗
= 1∗
z2
z2
Die
Geometrische Deutung von Multiplikation und Division ergibt sich unmittelbar aus
der Exponentialdarstellung (Zeigerdarstellung):
9
z1 · z2 = r1 e jφ1 · r2 e jφ2
= (r1 · r2 ) · e j(φ1 +φ2 )
Drehstreckung
Abbildung 2.6: Geometrische Deutung Multiplikation
z1
r1 e jφ1
=
z2
r2 e jφ2
r1 j(φ1 −φ2 )
e
=
r2
Drehstreckung Abbildung 2.7: Geometrische Deutung der Division
2.5 Potenzieren
Multipliziert man eine komplexe Zahl,
z = r e jφ , n-mal
mit sich selbst so erhält man mit
z n = rn e jnφ
z n = (r e jφ )n = (r e jφ )(r e jφ ) . . . (re jφ ) = rn e jnφ
|
{z
}
|
r 2 e j(φ+φ) ...
{z
}
r n e jnφ
die so genannte Moivre'sche Formel
n
z n = {r(cos(φ) + j sin(φ))} = rn (cos(nφ) + j sin(nφ))
2.6 Wurzeln komplexer Zahlen
Wir betrachten nun die einfache algebraische Gleichung
z n − a = 0,
a∈C
(2.2)
und denieren
Denition 2.7 Die Lösungen der Gleichung z n − a = 0 heiÿen die n-ten Wurzeln von a.
Wegen des Fundamentalsatzes der Algebra wissen wir, dass es in
und damit genau
n
Wurzeln von
a
gibt.
10
C genau n Lösungen der Gleichung
Berechnung der
n-ten
Wurzeln einer komplexen Zahl
a = x ± jy :
z n = a = |a| e jα ,
Ansatz:
|a| > 0
z = r e jφ
rn e jnφ = |a| e jα
rn = |a|
n φ = α + 2kπ,
k = 0, . . . , n − 1
Lösung:
√
n
|a|
α + 2kπ
φk =
,k ∈ N
n
r=
Zusammengefasst ergibt sich:
zk =
± arccos( x )+2kπ
√
|a|
n
j)
n
|a|e(
n verschiedene Lösungen für k = 0, 1, . . . , n − 1. Alle Lösungen haben den
n verschiedene Phasen,
liegen somit auf einem Kreis um den Ursprung in der
√
n
mit dem Radius r =
|a| und bilden ein regelmäÿiges n - eckiges Polygon.
Wir erhalten somit
gleichen Betrag, aber
komplexen Ebene
Beispiel:
1.
z 6 = 1 = 1e j·0
zk = 1 · e j·
2π
6 ·k
, k = 0, . . . , 5
2.
z 4 = 3 + 2j =
√
13 · e j·0.588
zk = 1.378 · e{0.147+
11
2π
4 k
}j
, k = 0, . . . , 3
2.7 Einfache komplexe Funktionen
Bisher haben wir immer reelle Funktionen betrachtet:
x ∈ R → y = f (x) ∈ R
f : R→R
Nun untersuchen wir Funktionen in der komplexen Ebene, d.h.
f : z ∈ C → w = f (z) ∈ C
zum Beispiel:
Polynome
P (z) =
∑n
i=0
ai z i
, ai ∈ C
mit komplexen Koezienten.
Weitere Beispiele:
Komplexe Exponentialfunktion:
Mit Hilfe der Reihenentwicklungen der trigonometrischen Funktionen und der Exponentialfunktion
können wir die Eulersche Formel herleiten:
ex = lim
n→∞
cos(x) = lim
n→∞
sin(x) = lim
n→∞
n
∑
xk
k=0
k!
=1+
n
∑
(−1)k x2k
(2k)!
k=0
x
x2
x3
+
+
+ ...
1!
2!
3!
=1−
n
∑
(−1)k x2k+1
k=0
Ersetzt man in der Reihenentwicklung
(2k + 1)!
x
durch
jy ,
x2
x4
+
± ...
2!
4!
=x−
x
x3
x5
+
−
± ...
1!
3!
5!
so ergibt sich:
jy (jy)2
(jy)3
(jy)4
+
+
+
+ ...
1!
2!
3!
4!
[
]
[
]
y2
y4
y
y3
y5
= 1−
+
± ... + j
−
+
± ...
2!
4!
1!
3!
5!
e jy = 1 +
:= cos(y) + j sin(y)
Und für eine beliebige komplexe Zahl
z = x + jy
erhält man daraus:
exp(z) = ez = ex+jy = ex e jy = ex (cos(y) + j sin(y))
=
b
Denition der komplexwertigen Exponentialfunktion.
Bemerkung:
Die Exponentialfunktion ist eine periodische Funktion, mit der rein imaginären Periode
2πj
|ez | = ex = eRe(z)
arg(ez ) = y + 2kπ = Im(z) + 2kπ
ez = ez+2kπj , k ∈ Z
Bemerkung:
Wie bei den komplexen Zahlen kann man auch bei den komplexen Funktionen den Real- und
Imaginärteil, ebenso den Betrag und das Argument von
f (z)
bestimmen.
Verdeutlichen kann man dies an dem Beispiel der Exponentialfunktion:
f (z) = ez = ex (cos(y) + j sin(y))
12
Es gilt dann:
Re(f (z)) = ex cos(y)
Im(f (z)) = ex sin(y)
|f (z)| = ex
arg(f (z)) = y
13
Komplexer Cosinus und Sinus
Betrachte
e jφ = cos(φ) + j sin(φ) , φ ∈ R.
Es gilt (Eulersche Formel):
)
1 ( jφ
e + e −jφ
2
1
sin(φ) = (e jφ − e −jφ )
2j
cos(φ) =
ez1 · ez2 = ez1 +z2
Aus dem Multiplikationstheorem
Additionstheoreme
Periodizität
Aber es gilt nicht mehr:
z.B.:
ergibt sich wie schon bekannt:
cos(z1 ± z2 ) = cos(z1 ) cos(z2 ) ∓ sin(z1 ) sin(z2 )
sin(z1 ± z2 ) = sin(z1 ) cos(z2 ) ± cos(z1 ) sin(z2 )
cos(z + 2kπ) = cos(z)
sin(z + 2kπ) = sin(z)
| cos(x)| ≤ 1, | sin(x)| ≤ 1
cos(j) = 12 (e−1 + e1 ) ≈ 1, 54
Ebenso erhält man auch:
tan(z) =
1 e jz − e−jz
sin(z)
=
cos(z)
j e jz + e jz
cot(z) =
cos(z)
e jz + e−jz
= j jz
sin(z)
e − e jz
Die komplexen Hyperbelfunktionen werden analog deniert:
sinh(z) =
ez − e−z
ez + e−z
, cosh(z) =
2
2
Es gilt der Zusammenhang:
cosh(jz) = cos(z)
sinh(jz) = j sin(z)
14
Komplexer Logarithmus
Im Reellen gilt:
ex = w → x = ln(w)
Die komplexe Exponentialfunktion
ez
(Logarithmus).
ist aber periodisch mit Periode
2πj .
Daher untersuchen wir
nur einen Streifen
y0 < Im(z) = y ≤ y0 + 2π
oder den Fundamentalstreifen
0 < Im(z) ≤ 2π
Abbildung 2.8: Fundamentalstreifen
Hier gilt für den Hauptwert des Arguments von
ez , z = x + jy :
arg(ez ) = arg(ex e j y ) = y = Im(z)
Schreiben wir
w = R e jψ = u + jv = ez = ex+jy = eln w
|w| = ex = R,
ψ = arg(w) = y + 2kπ , k ∈ Z
x = ln(|w|),
y = arg(w) + 2kπ
Mit der Festlegung für z im Fundamentalstreifen: 0 < arg(z) ≤ 2π wird die Lösung der Gleichung
w = ez eindeutig, d.h. für jedes w ∈ C gibt es im Fundamentalstreifen nur eine Zahl z mit ez = w.
z
Jedes z mit e = w heiÿt natürlicher Logarithmus von w :
z = ln(w) = ln |w| + j(arg(w) + 2kπ) , k ∈ Z
Für
k=0
erhält man den so genannten Hauptwert des natürlichen Logarithmus
ln(w) = ln(|w|) + j arg(w)
2.8 Ortskurven
Denition 2.8 Die von einem reellen Parameter t abhängige komplexe Zahl
z = z(t) = x(t) + jy(t)
mit a ≤ t ≤ b
heiÿt komplexwertige Funktion z(t) mit der reellen Variable t. Die von einem parameterabhängigen
komplexen Zeiger z = z(t) in der Gauÿschen Zahlenebene beschriebene Bahn heiÿt Ortskurve. Der
Parameter t durchläuft hierbei alle Werte im Intervall [a, b].
15
Abbildung 2.9: Ortskurve
Beispiel: z(t) = 2 + jt mit t ∈ [0, ∞[
Abbildung 2.10: Beispiel
Die Ortskurve der vom Parameter
ist eine im Abstand
a
t
abhängige komplexe Zahl
z(t) = a + jbt
mit
a>0
und
b > 0,
zur imaginären Achse parallel verlaufende Gerade.
Beispiel:
Betrachtet wird eine Reihenschaltung eines Widerstandes mit ohmschen Widerstand
Spule mit Induktivität
R
und einer
L.
Nach dem Kirchhoschen Regeln addieren sich dabei die komplexen Widerstände der beiden Schaltelemente zum komplexen Widerstand
Z ges
des Gesamtkreises. Die frequenzabhängige Gesamtim-
pedanz ist dann gegeben durch:
Z ges = R + jωL
Man erhält eine Ortkurve, wie im obigen Beispiel
16
mit
(t > 0).
ω>0
2.8.1 Geraden
Gegeben sei
z1
und
z2
z(t) = z1 + f (t)z2
wobei
f (t)
eine reellwertige Funktion für den Parameter
t
ist und
komplexe Zahlen sind.
Um diese Funktion zu zeichnen, addiert man die komplexen Zeiger von
z1
und
z2
wie man es bereits
aus der Vektorrechnung kennt. Dazu legt man den Anfang des zweiten Zeigers an die Spitze des
ersten Zeigers. :
Abbildung 2.11: Gerade
17
Beispiel:
z(t) = a + jat
Abbildung 2.12: Beispiel
18
2.8.2 Kreise
Wir betrachten nun den Spezialfall:
z(t) =
1
1 − jt
1
−t
+j
=
=
1 + jt
1 + t2
1 + t2
1 + t2
| {z } | {z }
x(t)
(2.3)
y(t)
Dividiert man nun den Imaginärteil durch den Realteil so erhält man:
y
= −t
x
Daraus ergibt sich:
y=
y
x
1 + ( xy )2
=
xy
x2 + y 2
y(x2 + y 2 ) = xy
y(x2 − x + y 2 ) = 0
x2 − x + y 2 = 0
1
1
(x − )2 + y 2 = ( )2
2
2
Die Ortskurve ist in diesem Fall ein Kreis mit dem Mittelpunkt
19
M (0, 5|0)
und Radius
R = 0, 5.
Abbildung 2.13: Kreis
20
Mit einer Drehstreckung um den Faktor a = |a|e
|a|
|a|
R = |a|
2 und Mittelpunkt M ( 2 cos(φ); 2 sin(φ)).
a
Die Funktion z(t) =
1+jt
jφ
erhalten wir einen neuen Kreis mit Radius
Abbildung 2.14: Kreis mit Drehstreckung
2.8.3 Inversionen
In der Praxis müssen Ortskurven oft invertiert werden. Betrachtet man zum Beispiel:
U
Z(ω)
I(ω) =
Invertiert man also die Ortskurve der Impedanz
Z,
so erhält man die Ortskurve des frequenzab-
hängigen Stromes.
Inversion einer Geraden durch den Ursprung
Sei
z(t) = f (t)z0
und
ω=
1
z
ω(t) =
1
1
1 z0∗
=
=
z(t)
f (t)z0
f (t) z0 z0∗
Wir erhalten also wieder eine Gerade, die durch den Ursprung verläuft.
Liegt beispielsweise die komplexe Zahl
z
in der Exponentialform
z = rejφ
vor, so lautet der Kehr-
wert:
ω=
1
1
1
= jφ = e−jφ
z
re
r
Das bedeutet, es ndet ein Vorzeichenwechsel im Argument (Spiegelung an der reellen Achse) und
eine Kehrwertbildung des Betrages statt. Die invertierte Gerade verläuft also ebenfalls durch den
Ursprung.
21
Abbildung 2.15: Inversion einer Geraden durch den Ursprung
Inversion einer Geraden nicht durch den Ursprung
Sei
z(t) = a + jaf (t)
mit
a = |a|ejφ .
Die Inversion ist dann gegeben durch:
ω(t) =
1
1
=
=
z(t)
a(1 + jf (t))
1
a
|{z}
Drehstreckung
Wir erhalten;
R=
1
2|a| und
1
1
M ( 2|a|
cos(φ); 2|a|
sin(−φ))
22
·
1
1 + jf (t)
| {z }
Kreis durch den Ursprung
Beispiel:
z(t) = 2(1 + jt)
1
w(t) =
2(1 + jt)
Wir erhalten
R=
1
4 und
M ( 14 , 0).
Abbildung 2.16: Inversion einer Geraden nicht durch den Ursprung
Merke:
Geraden und Kreise werden durch die Inversion
ω=
1
z nach den folgenden Regeln abgebildet:
z -Ebene
ω -Ebene
Gerade durch Ursprung
Gerade durch Ursprung
Gerade nicht durch Ursprung
Kreis durch Ursprung
Mittelpunktskreis
Mittelpunktskreis
Kreis durch Ursprung
Gerade nicht durch Ursprung
Kreis nicht durch Ursprung
Kreis nicht durch Ursprung
Tipp: Der Punkt mit dem kleinsten Abstand (Betrag) vom Nullpunkt führt zu dem Bildpunkt mit
dem gröÿten Abstand (Betrag) und umgekehrt. Ein Punkt oberhalb der reellen Achse führt zu
einem Bildpunkt unterhalb der reellen Achse und umgekehrt.
23
Kapitel 3
Dierentialrechnung
In der Mathematik III werden die Begrie Funktion und Ableitung auf Funktionen mit mehreren
Variablen verallgemeinert. Daher dient dieses Kapitel als kurze Wiederholung dieser Begrie und
der Vorgehensweise im Fall einer Variablen.
3.1 Steigung einer Kurve
Die Steigung einer Kurve (Funktion),
y = f (x),
in einem Punkt
Steigung der Tangenten an diese Kurve im Punkt
y = f (x),
im Punkt
x = x0
x = x0 .
x = x0 ,
wird deniert durch die
Um die Steigung der Tangenten an
zu berechnen, betrachtet man zunächst Sekanten durch die Punkte P
und Q. Ihre Steigung beträgt:
ms =
f (x0 + h) − f (x0 )
h
Abbildung 3.1: Die Steigung der Tangenten
Im Grenzwert
h→0
gilt
Q→P
und die Sekante wird zur Tangente. Entsprechend erhält man für
die Steigung der Tangenten:
f (x0 + h) − f (x0 )
h→0
h
mt = lim
Bemerkung:
1. Die Ableitung von
f (x0 )
gibt die Steigung von
24
f (x)
im Punkt
x = x0
an.
2. Die Bezeichnung Dierentialquotient erklärt sich aus der Konstruktion:
f ′ (x0 ) =
f ′ (x0 ) =
Die Gröÿe
bezeichnet.
∆f (x)
∆x
f (x0 + h) − f (x0 )
f (x) − f (x0 )
= lim
x→x
x0 + h − x0
x − x0
0
∆f (x)
df (x)
lim
=
x→x0 ∆x
dx
lim
h→0
wird als Dierenzenquotient , die Gröÿe
df (x)
dx
als Dierentialquotient
Denition 3.1 Existiert die Ableitung von f : Df → R in jedem Punkt x0 ∈ Df , dann heiÿt die
Funktion f ′ (x), f ′ : Df → R, die (erste) Ableitung von f (x).
Die Ableitungsfunktion
y ′ = f ′ (x) ordnet also jedem x aus einem Intervall die Steigung der dortigen
Tangente als Funktionswert zu.
Merke: Eine dierenzierbare Funktion ist immer stetig! (Die Umkehrung gilt nicht)
3.2 Das Dierential einer Funktion
Abbildung 3.2: Das Dierential
△y = f (x0 + △x) − f (x0 ) ist der Zuwachs des Funktionswertes auf der Kurve.
dy = f (x0 ) dx der Zuwachs des Funktionswertes auf der Tangenten darstellt.
△x und △y sind die Koordinatenänderungen auf der Kurve und
dx und dy die Koordinatenänderungen auf der Tangente.
Wobei hingegen:
Denition 3.2 Die Gröÿe dy = f ′ (x0 )dx heiÿt Dierential von f (x) und beschreibt den Zuwachs
des Funktionswertes auf der Kurventangente, wenn man in x− Richtung um dx fortschreitet.
3.3 Ableitung elementarer Funktionen
Zunächst werden die Ableitungen einiger elementarer Funktionen zur ersten Übersicht angegeben.
25
1. Die konstante Funktion
y(x) =
y ′ (x) =
f (x) = c = konstant
f (x + h) − f (x)
c−c
f ′ (x) = lim
= lim
= 0.
h→0
h→0 h
h
Bei der Betrachtung des Funktionsgraphen erkennt man sofort die horizontale Tangente mit
′
der Steigung f (x) = 0.
2. Die Potenzfunktion
x ∈ R, n ∈ N, R
y(x) = f (x) = xn ,
′
′
y (x) = f (x) = n x
3. Die trigonometrischen Funktionen
sin(x)
und
n−1
cos(x)
x∈R
y(x) = f (x) = sin(x),
′
′
y (x) = f (x) = cos(x)
y(x) = f (x) = cos(x), x ∈ R
y ′ (x) = f ′ (x) = − sin(x)
Daraus ergeben sich
y(x) = f (x) = tan(x), x ∈ R
1
y ′ (x) = f ′ (x) =
= 1 + tan2 (x)
cos2 (x)
y(x) = f (x) = cot(x) x ∈ R
−1
y ′ (x) = f ′ (x) =
= −1 − cot2 (x)
sin2 (x)
4. Die Arkusfunktionen
y(x) = f (x) = arcsin(x) x ∈ R
1
y ′ (x) = f ′ (x) = √
1 − x2
y(x) = f (x) = arccos(x) x ∈ R
−1
y ′ (x) = f ′ (x) = √
1 − x2
y(x) = f (x) = arctan(x)
1
y ′ (x) = f ′ (x) =
1 + x2
x∈R
5. Die Exponentialfunktion
y(x) = f (x) = ex ,
y ′ (x) = f ′ (x) = ex
x∈R
y(x) = f (x) = eax ,
x∈R
y ′ (x) = f ′ (x) = aeax
26
6. Die Betragsfunktion
y(x) = f (x) = |x|, x ∈ R
x
y ′ (x) = f ′ (x) =
= sgn(x), x ∈ R\{0}.
|x|
7. Die Logarithmusfunktion
y(x) = f (x) = ln(x),
1
y ′ (x) = f ′ (x) =
x
x∈R
3.4 Wiederholung der Ableitungsregeln
1. Faktorregel
d
d
(c · g(x)) = c ·
g(x) = c · g ′ (x)
dx
dx
Beispiel:
f (x) = 3x2
f ′ (x) = 3(2x) = 6x
2. Summenregel
u(x) und v(x), deren Ableitungen u′ (x)
f (x) = u(x) + v(x) ist gegeben durch:
Gegeben seien zwei Funktionen
Die Ableitung der Summe
f ′ (x) =
und
v ′ (x)
existieren.
d
d
d
(u(x) + v(x)) =
u(x) +
v(x)
dx
dx
dx
Beispiel:
f (x) = 3x2 + 5x
f ′ (x) = 6x + 5
3. Produktregel
Gegeben seien zwei Funktionen u(x) und v(x) zusammen mit ihren Ableitungen
v ′ (x). Gesucht ist die Ableitung des Produkts f (x) = u(x) · v(x):
d
(u(x) v(x)) =
dx
(
d
u(x)
dx
)
(
v(x) + u(x)
d
v(x)
dx
u′ (x)
und
)
Beispiel:
f (x) = sin(x) · cos(x)
f ′ (x) = cos(x) · cos(x) − sin(x) · sin(x)
= cos2 (x) − sin2 (x)
4. Quotientenregel
Gegeben seien wieder zwei Funktionen
′
und v (x).
u(x) und v(x) zusammen mit ihren Ableitungen u′ (x)
Gesucht ist die Ableitung des Quotienten
f (x) =
27
d
u(x) ′
, f (x) =
v(x)
dx
(
u(x)
v(x)
)
.
d
dx
(
u(x)
v(x)
)
=
u′ v − u v ′
v2
Beispiel:
sin(x)
cos(x)
cos(x)
cos(x) − sin(x)(− sin(x))
f ′ (x) =
cos2 (x)
1
=
cos2 (x)
f (x) =
5. Kettenregel
Die Ableitung einer zusammengesetzten (verketteten) Funktion
y = g(x) = f (u(x)) ist gleich
dem Produkt der äuÿeren mit der inneren Ableitung:
y ′ (x) =
dg(x)
df (u) du(x)
=
·
dx
du u=u(x)
dx
Beispiel:
f (x) = ln(2x + 1)
1
f ′ (x) =
·2
2x + 1
Bemerkung:
Die Kettenregel verallgemeinert sich entsprechend für den Fall von mehr als einer inneren Funktion
y(x) = f (u(v(x)))
entsprechend. Es ergibt sich:
y ′ (x) =
df (u) du(v) dv(x)
= f ′ (u)u=u(v) · u′ (v)v=v(x) · v ′ (x)
·
·
du u=u(v)
dv v=v(x)
dx
3.5 Gleichung der Tangente und der Normalen
Die Gleichung der Tangente im Punkt
x0
an den Graphen von
f (x)
lautet wie folgt:
fT (x) = f ′ (x0 )(x − x0 ) + f (x0 )
Wobei
x0
der Berührpunkt der Tangente an den Graphen von
f (x)
ist und
x
ein beliebiger Punkt
auf der Tangenten. Damit ergibt sich auch die Gleichung der Normalen, die auf der Tangenten
senkrecht steht:
fN (x) =
−1
f ′ (x0 )
(x − x0 ) + f (x0 )
28
3.6 Kurvendiskussion
Im folgenden wird das Vorgehen bei einer Kurvendiskussion beschrieben:
1. Denitionsmenge
Dmax
Bestimme
2. Symmetrie
Überprüfung, ob eine einfache Symmetrie vorliegt. Gilt:
f (−x) = −f (x)
dann ist
f (x)
symmetrisch zum Ursprung. Bei einer Symmetrie zur
y-
Achse, gilt folgendes:
f (−x) = f (x)
3. Nullstellen
f (x) = 0
4. Schnittpunkt mit
Bestimme
y -Achse
f (0)
5. Grenzwerte
lim f (x)
n→∞
und
lim f (x)
n→−∞
Skizze: An dieser Stelle genügen bereits die Erkenntnisse über Nullstellen, y-Achsenabschnitt
und Grenzwerte um die Funktion zu skizzieren. In den weiteren Schritten erhalten wir noch
genauere Informationen.
6. Ableitungen
Berechnung der Ableitungen
f ′ (x) und f ′′ (x)
7. Extrema
Ist die Funktion Punkt
x0
rechtsgekrümmt und besitzt
f (x) dort eine waagerechte Tangente,
dann liegt ein Maximum vor.
Kurz:
f ′ (x0 ) = 0
Besitzt
f (x)
in
x0
und
f ′′ (x0 ) < 0
eine waagerechte Tangente und ist linksgekrümmt, dann liegt eine Mini-
mum vor.
Kurz:
f ′ (x0 ) = 0
und
f ′′ (x0 ) > 0
Bemerkung:
Es kann passieren, dass die obigen Kriterien zur Berechnung der Extrema nicht greifen, wenn
′
′′
nämlich neben f (x0 ) auch f (x0 ) verschwindet. Dann entscheidet die nächstfolgende, nicht
n
verschwindende Ableitung f (x0 ) folgendermaÿen über Extrema und deren Art:
Sei
f n (x0 ) die nächstfolgende, nicht verschwindende Ableitung (n ≥ 2) und f ′ (x0 ) = 0, dann
gilt:
Ist
f n (x0 ) ̸= 0
und
n
gerade, dann liegt für
Maximum vor. Für den Fall, dass
n
f n (x0 ) > 0
ein Minimum und für
f n (x0 ) < 0
ein
ungerade ist erhalten wir einen Sattelpunkt.
Beispiel: f (x) = x4 und x0 = 0
f ′ (x) = 4x3
f ′′ (x) = 12x2
f ′′ (0) = 0
An dieser Stelle versagt unser altes Kriterium. Mit dem neuen Kriterium sehen wir, dass ein
4
Minimum vorliegt, da f (x) = 24 > 0 und n = 4 gerade.
29
8. Monotonie
Die erste Ableitung
y ′ = f ′ (x)
ist die Steigung der Kurventangente und bestimmt somit das
Monotonieverhalten der Funktion:
Ist
f ′ (x0 ) > 0
dann ist
f (x)
streng monoton wachsend. Gilt hingegen
f ′ (x0 ) < 0
dann ist
f (x)
streng monoton fallend.
9. Wendepunkte
In einem Wendepunkt ändert sich die Art der Krümmung, es ändert sich also der Drehsinn
der Kurventangente. Ein hinreichendes Kriterium lautet wie folgt:
f ′′ (x0 ) = 0
und
f ′′′ (x0 ) ̸= 0
Ein Sattelpunkt ist ein Spezialfall eines Wendepunktes, er besitzt im Wendepunkt eine waagerechte Tangente:
f ′ (x0 ) = 0
und
f ′′ (x0 ) = 0
und
f ′′′ (x0 ) ̸= 0
10. Krümmung
′′
′′
′′
Die zweite Ableitung y = f (x) bestimmt das Krümmungsverhalten der Funktion: Ist y =
f ′′ (x0 ) > 0, so ist f (x) linksgekrümmt. Ist y ′′ = f ′′ (x0 ) < 0, so ist f (x) rechtsgekrümmt. Die
zweite Ableitung gibt also den Drehsinn der Kurventangente an.
11. Graph
Zeichnen Sie den Graph der Funktion mit Hilfe der berechneten Eigenschaften.
Beispiel:
Diskutieren Sie die Funktion:
1.
1
f : Dmax → R; x 7→ 3(1 − x)e 2 (1−x)
Dmax = R
2. Symmetrie
keine einfache
3. Nullstellen
f (x) = 0 ↔ (1 − x) = 0 ↔ x = 1
4. Schnittpunkt mit
x = 0 → y = 3e
y -Achse
1
2
5. Grenzwert und Asymptoten
lim f (x) = 0
n→∞
und
lim f (x) = ∞
n→−∞
6. Ableitungen
1
1
1 1
3
+ x)e 2 (1−x) = (x − 3)e 2 (1−x)
2 2
2
1
1 1
3
f ′′ (x) = [1 · e 2 (1−x) + (x − 3)(− )e 2 (1−x) ]
2
2
3
1
3 1
= (1 − x + )e 2 (1−x)
2
2
2
1
3
= (5 − x)e 2 (1−x)
4
f ′ (x) = 3(−1 −
30
7. Extrema
f ′ (x) = 0 ↔ x = 3
f (3) = −6e−1
3 −1
′
′′
Da f (3) = 0 und f (3) = e
>0
2
ist, ist der Punkt
(3| − 6e−1 )
ein Minimum.
8. Monotonie
f ′ (x) < 0
für
x ∈] − ∞; 3[→ f
f ′ (x) > 0
für
x ∈]3; ∞[→ f
ist in diesem Intervall streng monoton fallend.
ist in diesem Intervall streng monoton wachsend.
9. Wendepunkte
f ′′ (x) = 0 ↔ 5 − x = 0 ↔ x = 5
f (5) = −12e−2
−2
Im Punkt (5| − 12e
) liegt ein
Wendepunkt vor, da
f ′′ (5) = 0
und bei
x = 5
für
Vorzeichenwechsel auftritt.
10. Krümmungsintervalle
f ′′ (x) > 0
f ′′ (x) < 0
für
für
x ∈] − ∞; 5[→ der Graph von f ist in diesem Intervall links-gekrümmt.
x ∈]5; ∞[→ der Graph von f ist in diesem Intervall rechts-gekrümmt.
11. Graph
Abbildung 3.3: Graph
31
f ′′
ein
Kapitel 4
Partialbruchzerlegung
Die Partialbruchzerlegung ist, wie wir bereits aus der Mathematik II wissen ein praktisches Hilfsmittel bei der Integration. Im nächsten Semester wird die Laplacetransformation ein wichtiges
Thema sein. Für deren Umkehrung der sogenannten Rücktransformation werden wir erneut die
Partialbruchzerlegung brauchen. Dazu eine kurze Wiederholung:
Z(x)
N (x) lässt sich mit Hilfe der PBZ in eindeutiger Weise in eine endliche Summe aus sogenannten Partialbrüchen zerlegen.
f (x) =
Jede echt gebrochenrationale Funktion vom Typ
Zur Erinnerung:
Eine Funktion heiÿt echt gebrochenrational, wenn der Zählergrad < Nennergrad ist.
Sie heiÿt unecht gebrochenrational, wenn der Zählergrad > Nennergrad ist.
Ist eine gebrochenrationale Funktion unecht gebrochen, dann muss sie mittels einer Polynomdivision in eine ganzrationale Funktion und einen echt gebrochenrationalen Anteil zerlegt werden.
Vorgehensweise zur Partialbruchzerlegung
1. Bestimme die Nullstellen des Nenners
2. Jeder reellen Nullstelle des Nennerpolynoms wird in folgender Weise ein Partialbruch zugeordnet:
einfache Nullstelle bei
x1
doppelte Nullstelle bei
x2
A1
x−x1
A1
x−x2
...
r-fache Nullstelle bei
A1 , ..., Ar
+
A2
(x−x2 )2
...
xr
A1
x−xr
+
A2
(x−xr )2
+ ... +
Ar
(x−xr )r
Konstanten.
3. Jedem Paar konjugiert komplexer Nullstellen des Nennerpolynoms wird der folgende Partialbruch zugeordnet:
Ax + B
x2 + px + q
Z(x)
N (x) ist dann als Summe aller Partialbrüche
darstellbar, wobei die Anzahl der Partialbrüche mit der Anzahl der Nullstellen (mit Vielfach-
4. Die echt gebrochenrationale Funktion
f (x) =
heiten) übereinstimmt.
5. Bestimmung der Konstanten: Zunächst werden alle Brüche auf einen gemeinsamen Nenner
gebracht. Durch Einsetzen geeigneter x-Werte (z.B. Nullstellen des Nenners) erhält man ein
einfaches lineares Gleichungssystem für die unbekannten Konstanten.
32
Beispiel:
f (x) =
Nennernullstellen:
x1 = 1
und
x+1
x3 − 5x2 + 8x − 4
x2,3 = 2
Ansatz zur Partialbruchzerlegung:
A
B
C
x+1
+
+
= 3
2
x − 1 x − 2 (x − 2)
x − 5x2 + 8x − 4
Hauptnennerbildung auf der linken Seite und anschlieÿende Multiplikation mit dem Hauptnenner
auf beiden Seiten:
A(x − 2)2 + B(x − 2)(x − 1) + C(x − 1) = x + 1
In diese Gleichung setzen wir nacheinander die Nullstellen des Nenners ein. Für
A = 2 und für x = 2 folgt C = 3. Um die Konstante B
Zahl ein, z.B x = 0 und man erhält B = −2.
Alternativ wäre auch ein Koezientenvergleich möglich.
33
x = 1 ergibt sich
x eine beliebige
zu berechnen setzen wir für
Kapitel 5
Integrationsmethoden
5.1 Integration durch Substitution
Je nach Integraltyp kann man die Integrale durch eine einfache Integration zu bekannten Grundintegralen vereinfachen. Hier eine Auistung verschiedener Integraltypen und die entsprechende
Substitution.
∫
∫
∫
∫
Integral
Substitution
f (ax + b) dx
Integral nach Substitution
u = ax + b
du = a dx
f (x) · f ′ (x) dx
u = f (x)
du = f ′ (x) dx
(f n (x)) · f ′ (x) dx
u = f (x)
du = f ′ (x) dx
f (g(x)) · g ′ (x) dx
u = g(x)
du = g ′ (x) dx
∫ f ′ (x)
dx
f (x)
∫
1
a
f (u) du
∫
∫
∫
u du
∫
un du
sin(x) · cos(x) dx
∫
f (u) du
∫
u = f (x)
du = f ′ (x)dx
Beispiel:
∫√
4x + 5 dx
1
u
du
(ln(x))2 ·
∫
∫
1
x
dx
2
x · ex dx
2x+3
x2 −3x+1
dx
5.2 Partielle Integration
Eine andere Methode Integrale zu lösen ist die sogenannte Partielle Integration, die "Produktregel
der Integration".
Sie besagt:
∫
b
u(x) · v ′ (x) dx = [u(x) · v(x)]ba −
∫
b
u′ (x) · v(x) dx
a
a
Beispiel:
1.
2.
∫
∫
x · cos(x) dx = [x · sin(x)] −
1 · ln(x) dx = [x · ln(x)] −
∫
∫
1 · sin(x) dx = x · sin(x) + cos(x)
x·
1
x
dx = x ln(x) −
∫
1 dx = x · ln(x) − x
3. Durch mehrmaliges Anwenden der partiellen Integrationsregel kann man Potenzen abbauen:
34
∫
∫
x cos(x) dx = [x · sin(x)] − 2x · sin(x) dx
(
)
∫
= x2 · sin(x) − [2x(− cos(x))] − 2(− cos(x)) dx
2
2
= x2 · sin(x) + 2x cos(x) − 2 sin(x)
4. Treten beide Faktoren beim Integrieren und Dierenzieren wieder auf (z.B.
sin(x) cos(x)). So
kann man so lange partiell integrieren, bis das ursprüngliche Integral wieder erscheint. Aus
der so erhaltenen Gleichung lässt sich das Integral dann berechnen.
∫
(
9
1−
25
)∫
∫
1
1
sin(3x) · sin(5x) dx = [sin(3x)(− cos(5x)) ] − 3 cos(3x)(− cos(5x)) dx
5
5
(
)
∫
1
3
1
3
= − cos(5x) sin(3x) +
[cos(3x) · sin(5x) ] + sin(3x) · sin(5x)
5
5
5
5
∫
1
3
9
= − cos(5x) sin(3x) +
cos(3x) · sin(5x) +
sin(3x) · sin(5x) dx
5
25
25
1
3
sin(3x) · sin(5x) dx = − cos(5x) sin(3x) +
cos(3x) · sin(5x)
5
25
Dividiert man nun beide Seiten durch
16
25 so erhält man das Integral:
∫
sin(3x) · sin(5x) dx = −
5
3
cos(5x) sin(3x) +
cos(3x) sin(5x)
16
16
35
Kapitel 6
Fourierreihen
6.1 Reelle Fourier-Reihen
Periodische Funktionen spielen in der Technik eine wichtige Rolle. Ziel ist es diese periodischen
Funktionen als harmonische Schwingung darzustellen.
Betrachtet wird hier die Zerlegung einer periodischen Funktion
f (t)
mit der Periode
T,
d.h.
f (t + m T ) = f (t) ∀m ∈ Z,
in eine reelle Fourier-Reihe
∞
f (t) =
mit der Kreisfrequenz
ω=
a0 ∑
+
{an cos(nωt) + bn sin(nωt)}
2
n=1
2π
T .
Diese Zerlegung ist möglich, und die Fourier-Koezienten
an =
bn =
2
T
2
T
∫
an
und
bn
sind gegeben durch
T
f (t) cos(nωt)dt
n = 0, 1, 2, 3, . . .
f (t) sin(nωt)dt
n = 1, 2, 3, . . .
0
∫
T
0
36
(6.1)
Für die Berechnung der Fourier-Koezienten sind die so genannten
ten der trigonometrischen Funktion von Bedeutung:
∫
Orthogonalitätseigenschaf-
T
cos(nωt) dt = 0
∀n ∈ N, n ̸= 0
0
∫
T
sin(nωt) dt = 0
0
∫
T
cos(nωt) sin(mωt) dt = 0 ∀ n, m ∈ N

 0 für n ̸= m, n, m ∈ N
cos(nωt) cos(mωt) dt = T

für n = m
 2
 0 für n ̸= m, n, m ∈ N
sin(nωt) sin(mωt) dt = T

für n = m
2
0
∫
T
0
∫
T
0
Symmetriebetrachtung:
Auswirkung von Symmetrieeigenschaften der Funktion
i)
ii)
f (t) = f (−t)
bn = 0
∫
2 T
an =
f (t) cos(nωt) dt
T 0
f (t) = −f (−t)
an = 0
bn =
2
T
∫
f (t)
auf ihre Fourierkoezienten:
(f ist gerade, Symmetrie zur y-Achse)
(kein Sinus-Anteil)
(f ist ungerade, Symmetrie zum Ursprung)
(kein Kosinus-Anteil)
T
f (t) sin(nωt) dt
0
6.2 Die Fourier-Reihe in komplexer Schreibweise
Ausgehend von der reellen Fourier-Reihe Gleichung
f (t) =
∞
∑
a0
+
{an cos(nωt) + bn sin(nωt)}
2
m=1
und der Eulerschen Formel
ejωt = cos(ωt) + j sin(ωt)
bzw.
)
1 ( jωt
e + e−jωt
2
)
1 ( jωt
sin(ωt) =
e − e−jωt
2j
cos(ωt) =
37
erhält man die Fourier-Reihe in komplexer Schreibweise:
∞
f (t) =
a0 ∑
+
{an cos(nωt) + bn sin(nωt)}
2
n=1
∞
=
=
a0 ∑
+
2
n=1
{
(
)
(
)
1
1
an ejnωt + e−jnωt +
bn ejnωt − e−jnωt
2
2j






∞ 

∑
a0
1
1
+
(an − jbn ) ejnωt + (an + jbn ) e−jnωt


2
2

{z
}
|2
{z
}
n=1 
|

c∗
n
cn
=
}
∞
∑
{
}
a0
+
cn ejnωt + c∗n e−jnωt ;
2
n=1
cn ∈ C
cn :
Berechnung der Koezienten
1
(an − jbn )
2
{ ∫
}
∫
1 2 T
2 T
=
f (t) cos(nωt)dt − j
f (t) sin(nωt)dt
2 T 0
T 0
cn =
=
=
c∗n
1
T
1
T
1
=
T
c0 =
∫
T
f (t) {cos(nωt) − j sin(nωt)} dt
0
∫
T
f (t) e−jnωt dt
0
∫
T
f (t) e+jnωt dt
0
∫
a0
1
=
2
T
T
f (t)dt
0
Für eine reelle Funktion f (t) haben die komplexen Fourier-Koezienten
c∗n , insbesondere c0 ∈ R.
Es ist also
c∗n
f (t)
Die komplexe Schreibweise von
∞
∑
f (t) =
cn e
1
=
T
jnωt
∫
n=−∞
die Eigenschaft
c−n =
T
f (t)e+jnωt dt = c−n
0
lautet dann:
mit
cn
1
cn =
T
∫
T
f (t) e−jnωt dt,
n ∈ Z,
cn ∈ C
0
Der Zusammenhang zu den reellen Fourierkoezienten ist gegeben durch:
1
1
(ak − jbk ) , c−k = c∗k = (ak + jbk )
2
2
ak = 2 Re(ck )
bk = −2 Im(ck ).
ck =
bzw.
Bemerkung:
1. Die Beziehung:
1
2π
∫
2π
ej(n−k)x dx =
0
1
T
∫
T
ej(n−k)ωt dt = δkn
0
ersetzt die Orthogonalitätsrelationen der trigonometrischen Funktionen.
2. Die komplexe Fourierreihe ist meist einfacher zu berechnen (weniger und einfachere Integrale)
als die reelle Fourierreihe.
38
Kapitel 7
Grundlagen zum Thema Eigenwerte
und Eigenvektoren
Bei der Behandlung der Eigenwerte und Eigenvektoren im kommenden Semester werden eine Reihe von Begrien und Zusammenhängen angesprochen, die sich mit Grundkenntnissen über die
wichtigsten algebraischen Strukturen
Gruppen, Körper und Vektorräume
und über grundlegende
Eigenschaften linearer Abbildungen einfacher erschlieÿen lassen. Daneben sind die im ersten Semester vermittelten Kenntnisse über lineare Gleichungssysteme eine notwendige Voraussetzung zum
Verständnis des Themas.
Im Folgenden werden daher zunächst Grundbegrie algebraischer Strukturen erläutert. Es folgt
eine gerate Zusammenfassung der im ersten Semester behandelten linearen Gleichungssysteme.
Abschlieÿend wird in das Thema "lineare Abbildungenëingeführt und ein kurzer Einblick in den
bevorstehenden, mit Eigenwerten und Eigenvektoren zusammenhängenden Themenbereich gegeben.
7.1 Algebraische Strukturen
7.1.1 Grundbegrie
Im historischen Umgang mit algebraische Strukturen traten in ganz unterschiedlichen Bereichen
der Mathematik Gemeinsamkeiten, ähnliche Eigenschaften oder verwandte Merkmale auf. Die Algebra untersucht diese Verhältnisse allgemein und abstrahiert von der besonderen Beschaenheit
einzelner Objekte auf gemeingültige Aussagen. Dadurch lassen sich die Strukturen klassizieren
und die gegenseitigen Beziehungen auf einfache Weise beschreiben.
Menge und auf dieser Menge denierten Verknüpfungen. Eine Menge mit zwei Verknüpfungen etwa wird notiert als (M ; ⊕, ⊙). Die Menge kann
Eine algebraische Struktur besteht aus einer
aus Zahlen, Vektoren, Funktionen, Matrizen uvm. bestehen. Als Verknüpfungen kommen die geläugen Operationen Addition, Subtraktion, Multiplikation und Division, aber auch andere wie
geometrische oder logische Operationen in Frage.
Jede Verknüpfung beschreibt eine Abbildung. Bei den in der Algebra besonders häug vorkommenden
zwei stelligen (binären) Verknüpfungen handelt es sich um eine Abbildung f : A×B → C ,
bei der jedem geordneten Paar
f (a, b) = c
ein Element
Sind die Mengen
c∈C
A und B
(a, b)
von Elementen
a∈A
und
b∈B
als den
zwei
Operanden mit
als das Resultat der Verknüpfung zugeordnet wird.
gleich, wird die Verknüpfung auch
Addition oder Multiplikation in
R);
innere Verknüpfung genannt (z.B.
äuÿeren Verknüpfung
andernfalls spricht man von einer
(z.B. Produkt von Skalar und Vektor, λ ∈ R , ⃗
v ∈ R3 , λ · ⃗v ∈ R3 , oder das Skalarprodukt zweier
3
Vektoren u, v ∈ R , u · v ∈ R).
Algebraischen Strukturen lassen sich nach Art ihrer Verknüpfung hierarchisch klassizieren in:
1.) Strukturen mit
einer inneren Verknüpfung: Gruppen und ähnliche
39
zwei inneren Verknüpfungen: Ringe, Körper und ähnliche
Strukturen mit innerer und äuÿerer Verknüpfung: Vektorräume und ähnliche
2.) Strukturen mit
3.)
Gruppen: Eine Gruppe besteht aus einer Menge G und einer
1.)
Zu
zweistelligen inneren Verknüpfung
Abgeschlossenheit
Assoziativität
◦,
in der für alle
a, b, c ∈ G
auf dieser Menge denierten
folgende Axiome erfüllt sind:
a◦b∈G
(a ◦ b) ◦ c = a ◦ (b ◦ c)
:
:
Existenz eines neutralen Elementes
Existenz eines inversen Elementes
e∈G:
a◦e=e◦a=a
−1
∀a∈G:∃a
a ◦ a−1 = a−1 ◦ a = e
∈G:
Gilt zusätzlich die Kommutativität a ◦ b = b ◦ a, so nennt man die Gruppe eine abelsche Gruppe. Beispiele für abelsche Gruppen sind (Z, +), (R, +) und (R \ {0}, ·). Weitere Informationen zu
Gruppen nden sich im Anhang ??, Seite ??.
2.)
Zu
Körper: Ein Körper besteht aus einer Menge und zwei
auf dieser Menge denierten inne-
ren Verknüpfungen, die gewöhnlich als Addition und Multiplikation geschrieben werden
Dabei bilden
(K, +)
und
(K, ·)
(K, +, ·).
jeweils abelsche Gruppen, und zwischen den beiden Verknüpfungen
gilt das Distributivgesetz, die Nullteilerfreiheit und die Verschiedenheit der neutralen Elemente
bezüglich Addition (0) und Multiplikation (1) (siehe Anhang
Die wichtigsten Körper sind die rationalen Zahlen
len
C
Zu
3.)
??, Seite ??).
Q, die reellen Zahlen R und die komplexen Zah-
mit Addition und Multiplikation als inneren Verknüpfungen.
Vektorraum: Die in dieser Hierarchieklasse aufgeführten algebraische Strukturen weisen
neben den beiden inneren noch eine
äuÿere
Verknüpfung auf. Ein fundamentaler Vertreter dieser
Klasse ist der Vektorraum.
7.1.2 Vektorraum
Ein Vektorraum (auch linearer Raum genannt) besteht aus
◃
einer additiv geschriebenen abelschen Gruppe
◃
einem Körper
◃
einer äuÿeren Multiplikation
K = (K, +, ·)
V = (V, +)
von "Vektoren",
von ßkalarenünd
K×V →V,
(k, v) mit k ∈ K und v ∈ V einen Vektor kv ∈ V
K × V sowohl das Assoziativgesetz
die jedem geordneten Paar
die äuÿere Multiplikation
zuordnet. Dabei erfüllt
r (s v) = (r s) v
als auch das Distributivgesetz mit austauschbarer Links- und Rechtsmultiplikation
(r + s) v = rv + sv
und
r (v + w) = rv + rw
∀ r, s ∈ K und ∀ v, w ∈ V
Die Vektoren als Elemente des Vektorraumes können addiert oder mit Skalaren multipliziert werden. Das Ergebnis ist wieder ein Vektor desselben Vektorraumes.
Ist
K=R
, so spricht man von einem
komplexen Vektorraum.
reellen Vektorraum; ist K = C , so spricht man von einem
Basis, Dimension
Die minimale Menge von Vektoren, mit denen durch Linearkombination alle Vektoren des Vektor-
Basis des Vektorraumes. Die
Dimension des Vektorraumes entspricht der Anzahl der Basisvektoren und damit der Anzahl der
raumes darzustellen sind (die den Vektorraum äufspannen"), heiÿt
maximal möglichen linear unabhängigen Vektoren des Vektorraumes.
Ist in dem Vektorraum ein Skalarprodukt (vgl. folgenden Abschnitt) deniert und stehen die Basisvektoren senkrecht aufeinander, so spricht man von einer
die Länge 1, von einer
Orthonormalbasis.
40
Orthogonalbasis; haben sie zudem
Beispiele für Vektorräumen
◃
Einspaltige bzw. einzeilige reelle Matrizen vom Typ
(n, 1)
bzw.
(1, n)
bilden bezüglich der
Matrizenaddition und der äuÿeren Multiplikation mit einer reellen Zahl einen reellen Vektorn
raum R (Vektorraum der Spalten- bzw. Zeilenvektoren).
◃
Alle auf einem Intervall
[a, b]
stetigen reellen Funktionen bilden mit den durch
(f + g)(x) = f (x) + g(x)
(kf )(x) = k · f (x)
und
denierten Operationen einen reellen Vektorraum.
◃
∑n
k
k=0 ak x , n ∈ N, ak ∈ Körper K, bilden mit der üblichen Addition
und der Multiplikation mit einem Element des Körpers einen Vektorraum. Für Polynome
Die Polynome
des Grades
N
Pn (x) =
hat der resultierende Vektorraum die Dimension
Menge aller Polynome vom Grad
2
3
4
die Monome {1, x, x , x , x }.
N ≤4
N + 1.
Beispielsweise ist die
ein Vektorraum der Dimension 5. Eine Basis bilden
Untervektorraum
Ein Untervektorraum oder linearer Unterraum ist eine Teilmenge eines Vektorraumes, die selbst
wieder ein Vektorraum über demselben Körper ist. Dabei werden die Vektorraumoperationen auf
den Untervektorraum "vererbt".
Beispielsweise bildet die Menge aller Funktionen
f :R→R
einen Vektorraum; ein Untervektor-
raum hierzu ist etwa die Menge aller Funktionen mit der Periode
T.
Ein Vektorraum mit den bis hierhin beschriebenen Eigenschaften erlaubt zwar algebraische Aussagen, aber noch keine über Topologie oder Geometrie wie Längen, Abstände und Winkel. Hierzu
muss über dem Vektorraum noch ein
Skalarprodukt deniert werden.
7.1.3 Skalarprodukt
Das Skalarprodukt ist eine Abbildung
Skalar
⟨u | v⟩ ∈ R
s : V × V → R,
die zwei Vektoren
u, v ∈ V
eine Zahl, einen
zuordnet.
Ein Skalarprodukt wurde bereits im ersten Semester als Gegenstand der analytischen Geometrie
3
im R eingeführt. Mit ihm ist es möglich, für gegebene Vektoren ⃗
u, ⃗v ∈ R3 mit den Längen |u|
und
|v|
den Winkel zwischen
⃗u
und
⃗v
zu berechnen.
In der linearen Algebra wird dieses Konzept verallgemeinert. Räume, über denen Skalarprodukte
deniert sind, werden als
nern den
euklidischen
Skalarprodukträume oder Innenprodukträume bezeichnet; sie verallgemei-
Raum und ermöglichen damit die Anwendung geometrischer Methoden auf
abstrakten Strukturen.
euklidisches Skalarprodukt
Für die Vektoren
u, v ∈ Rn ist das euklidische Skalarprodukt (auch Standard- oder kanonisches
Skalarprodukt) gegeben durch
⟨u | v⟩ =
n
∑
uk vk = u1 v1 + u2 v2 + · · · + un vn
k=1
Das euklidische Skalarprodukt hat für alle
Symmetrie
u, v ∈ Rn
α, β ∈ R
die Eigenschaften:
⟨u | v⟩ = ⟨v | u⟩
:
Bilinearität
und
:
Positive Denitheit
:
⟨αu1 + βu2 | v⟩ = α⟨u1 | v⟩ + β⟨u2 | v⟩
⟨u | αv1 + βv2 ⟩ = α⟨u | v1 ⟩ + β⟨u | v2 ⟩
⟨v | v⟩ ≥ 0
⟨v | v⟩ = 0 ⇐⇒ v = 0
41
Im Fall des n-dimensionalen komplexen Vektorraums
n
für u, v ∈ C durch:
⟨u | v⟩ =
n
∑
Cn
deniert man das Standardskalarprodukt
uk vk = u1 v1 + u2 v2 + · · · + un vn ,
k=1
wobei der Überstrich die komplexe Konjugation bedeutet. Häug ist auch die alternative Version
gebräuchlich, bei der das zweite Argument statt des ersten konjugiert wird.
allgemeines Skalarprodukt
Das allgemeine Skalarprodukt auf einem R-Vektorraum ist eine symmetrische, bilineare und
V × V → R,
positiv denite Abbildung
Skalar
⟨u | v⟩ ∈ R
die einem Paar von Vektoren
(u, v)
mit
u, v ∈ V
einen
zuweist.
komplexen Vektorraum werden die Begrie
sesquilinear und symmetrisch durch hermitesch ersetzt (zur mathematische Formulierung: siehe Anhang ??, Seite ??).
Bei einem allgemeinen Skalarprodukt auf einem
bilinear durch
Mit dem Skalarprodukt lassen sich geometrische Begrie auch in abstrakten Räumen fassen:
Orthogonalität: Vektoren u, v ∈ V stehen senkrecht, wenn ⟨u | v⟩ = 0
√
◦ Norm: die Länge eines Vektors v ∈ V ist ∥v∥ = ⟨v | v⟩
◦ Cauchy-Schwarz-Ungleichung: |⟨u | v⟩| ≤ ∥v∥ · ∥v∥
◦ Metrik: Der Abstand zweier Vektoren u, v ist ∥u − v∥
◦ Konvergenz: vn → v ist deniert durch ∥vn − v∥ → 0
Ein endlichdimensionaler reeller Vektorraum mit Skalarprodukt wird auch euklidischer Vektorraum genannt, im komplexen Fall spricht man von einem unitären Vektorraum.
◦
7.1.4 Euklidischer Raum Rn
Der euklidische Raum
Rn
wird erzeugt durch die kanonischen Basisvektoren
 
 
 
1
0
0
 
 
 
0
1
0
 
 
 
 
 
 
e1 = 0 , e2 = 0 , · · · , en = 0
.
.
.
.
.
.
.
.
.
0
0
1
Jeder Vektor des Raumes kann eindeutig als endliche Linearkombination dieser Basisvektoren dargestellt werden. Die Koezienten dieser Linearkombination heiÿen die Koordinaten des Vektors
bezüglich dieser Basis.
Die kanonischen Basisvektoren
Rn
⟨ek | el ⟩ = δk,l
sind orthonormal bezüglich des euklidischen Skalarproduktes:

0
=

1
für
k ̸= l
Orthogonalität,
für
k =l
Normierung auf Länge 1
Jeder Vektor u lässt sich nach Basisvektoren entwickeln:

u1

 
 u2 
n
  ∑
 
u =  u3  =
u k ek
 . 
 .  k=1
 . 
un
42
Berechnung der Koezienten
uk :
n
∑
| u⟩ =
u l | el ⟩
⟨ek | ·
l=1
⟨ek | u⟩ =
n
∑
l=1
Bezogen auf eine Orthonormalbasis
ul ⟨ek | el ⟩ = uk ,
| {z }
uk = ⟨ek | u⟩
δk,l
B = {b1 , · · · , bn }
lassen sich die Komponenten eines Vektors
v bezüglich dieser Basis leicht als Orthogonalprojektionen berechnen:
v = v1 b1 + · · · + vn bn =
n
∑
vi b i =
i=1
n
∑
⟨bi | v⟩bi
i=1
Beispiel: Die zwei Vektoren
 

3
5
⃗b1 =  
 
und

⃗b2 = 

− 45
4
5
bilden in
R2




3
5
mit dem Standardskalarprodukt ein Orthonormalsystem und damit auch eine OrthoR2 . Zur Koordinatendarstellung des Vektors
normalbasis von
 
2
 

⃗v =  

7
bezüglich dieser Orthonormalbasis lassen sich die Koezienten berechnen mit
3
4
34
⟨⃗b1 | ⃗v ⟩ = · 2 + · 7 =
5
5
5
4
3
13
⟨⃗b2 | ⃗v ⟩ = − · 2 + · 7 =
5
5
5
⃗v =
13 ⃗
34 ⃗
b1 +
b2
5
5
Probe:
und
und damit
 
3
5

34   13 

+
5  
5 
− 54
4
5
3
5

 
2
  
= 
  
7
Norm, Winkel, Abstand
Die Länge oder Norm eines Vektors ist gegeben durch die Quadratwurzel aus dem Skalarprodukt
mit sich selbst:
|u| =
Man nennt diese Norm auch
Der
euklidische Norm.
Winkel zwischen zwei Vektoren u und v berechnet sich dann durch
cos ∠(u, v) =
Fasst man die Elemente des
v
√
√
u · u = u21 + u22 + · · · + u2n
u·v
u1 v1 + u2 v2 + · · · + un vn
√
=√ 2
|u| · |v|
u1 + u22 + · · · + u2n · v12 + v22 + · · · + vn2
Rn
als Punkte auf, so ist der
als die Länge des Verbindungsvektors
d(u, v) = |v − u| =
v−u
Abstand zwischen den Punkten u und
deniert:
√
√
(v − u) · (v − u) = (v1 − u1 )2 + (v2 − u2 )2 + · · · + (vn − un )2
43
7.2 Lineare Gleichungssysteme
Ein Lineares Gleichungssystem (LGS) hat die uns bekannte Form
a1,1 x1 + a1,2 x2 + a1,3 x3 + · · · + a1,n xn = c1
a2,1 x1 + a2,2 x2 + a2,3 x3 + · · · + a2,n xn = c2
.
.
.
.
= ..
am,1 x1 + am,2 x2 + am,3 x3 + · · · + am,n xn = cm
Dabei bilden die Koezienten
mit
m
Gleichungen und
n
ai,k ∈ R,
die Werte
ci ∈ R
und die Variablen
Unbekannten, oder auch kurz ein
(m, n)
xi ∈ R
ein System
- System.
7.2.1 Matrizen
Grundbegrie
Der Umgang mit einem solchen LGS gestaltet sich erheblich einfacher, wenn man die Koezienten
m·n
in ein rechteckiges Zahlenschema aus
Zahlen und in

Zeilen und
Die Vektoren



a11
.
.
.


,···


,

a1k
···
a22
a23
···
a2k
···
.
.
.
.
.
.
ai2
ai3
.
.
.
.
.
.
am2
am3
(m, n)
- Matrix über R. Die Koezienten können auch aus
.
.
.
···
···
aik
.
.
.
· · · amk
···
A
wird auch als
jeder Zeile konstant) und
j
a1n

a2n 


. 
.
. 

ain 

. 
. 
. 
amn
C.

a1n
.
.
.



am1
amn
(a11 , · · · , a1n ), · · · , (am1 . · · · , amn )
Die Matrix

···
komplexen Zahlen bestehen; sie bilden dann eine Matrix über

Spalten angeordnet:
a13

a
 21
 .
 .
 .
A=
 ai1

 .
 ..

am1

n
a12
a11
Dieses Zahlenschema nennt man eine
m
(aij )
heiÿen
heiÿen
Spaltenvektoren von A;
Zeilenvektoren von A.
geschrieben. Dabei bildet
i
den Zeilenindex (bleibt innerhalb
den Spaltenindex (innerhalb jeder Spalte konstant).
Matrizen spezieller Gestalt
Transponierte Matrix: Ausgehend
Matrix
B = (bij )
mit
Reihen der Matrix A.
Es gilt
(AT )T = A.
von einer (m, n)-Matrix A = (aij ) ergibt sich
bij = aki , i = 1, · · · , n, j = 1, · · · , m durch Vertauschung von
T
Man schreibt B = A und nennt B die transponierte Matrix zu
Ist A quadratisch, so erhält man
AT
die
(n, m)-
Zeilen und
A.
durch Spiegelung der Elemente an der
Hauptdiagonalen.
Quadratische Matrizen:
mit
m ̸= n
Eine
(n, n)-Matrix
heiÿt quadratisch. Dagegen sind
(m, n)-Matrizen
nichtquadratisch.
Mit Blick auf die vorzubereitende Thematik der Eigenwerte und -vektoren werden im folgenden
ausschlieÿlich quadratische Matrizen behandelt.
44
Spezielle quadratische Matrizen
A = (aik )
a) eine
b) eine
sei eine n-reihige quadratische Matrix. A heiÿt
Diagonalmatrix, wenn aik = 0 ∀ i ̸= k
Einheitsmatrix, wenn aik = δik ∀ i, k , d.h.
c) eine obere (untere)
d)
{
0 i ̸= k
Dreiecksmatrix, wenn aik = 0 für i > k (i < k)
symmetrisch, wenn aik = aki ∀ i, k ist. Ist A symmetrisch ⇒ A = AT

3

T
6
=A
5

1 2

A=
2 4
3 6
e)
1 i=k
schiefsymmetrisch, wenn aik = −aki ∀ i, k.
Ist A schiefsymmetrisch
aber:
⇒ aii = 0 , AT = −A


0
1 2


T

A=
−1 0 3 = −A
−2 −3 0


1
1

A=
−1
2

3
 ist
−2 −3 1
1
nicht schiefsymmetrisch (Hauptdiagonale ̸= 0)
Symmetrische und schiefsymmetrische Matrizen mit reellen Koezienten bzw. hermitesche Matrizen mit komplexen Koezienten spielen im Zusammenhang mit Eigenwerten und Eigenvektoren
eine besondere Rolle. Der Begri hermitesch ist das komplexe Analogon für die Symmetrie im
Reellen (vgl. Abschnitt 7.1.3, Seite 41). Eine Matrix A ist hermitesch, wenn gilt:
T
A = A = A∗
Dabei ist
A∗
die konjugierte Transponierte von A, d.h. nach dem Transponieren wird die Matrix
noch konjugiert (vgl. Skalarmultiplikation im Komplexen, dort Konjugation des ersten [oder zweiten] Argumentes). Eine konjugierte Transponierte heiÿt Adjunkte.
Beispiele:
(
A=
(
B=
1
−i
0
1+i
)
(
∗
A =
1
2 − 4i
2 + 4i
2
)
)
1
0
i
1−i
= B∗ → B
A ̸= A∗
ist hermitesch
Eine komplexe Matrix lässt sich in ihren Real- und Imaginärteil trennen. Bei hermiteschen Matrizen
ist dabei der Realteil symmetrisch und der Imaginärteil schiefsymmetrisch.


1
0
i



C=
 0 1 1 =
−i 1 0


1 0 0


0 1 1


0 1 0
{z
}
|
Realteil, symmetrisch


0
0
i


 0 0 0


−i 0 0
{z
}
|
+
Imaginärteil, schiefsymmetrisch
45
→ C
ist hermitesch
Rechenoperatoren für Matrizen
Die für Matrizen denierte Addition und Subtraktion ist schon anhand der gegebenen Beispiele
evident. Für die Skalarmultiplikation einer (m,n)-Matrix
C = (cik ) = λ A;
A = (aik )
mit einem Skalar
λ ∈ R
gilt:
∀ i = 1, . . . , m, k = 1, . . . , n
cik = λ aik
Die Multiplikation einer (m,l)-Matrix
A = (aik )
mit einer (l,n)-Matrix
B = (bjk )erfolgt
nach der
Regel:
C = A B = (cik );
cik =
l
∑
aij bjk
für
i = 1, . . . , m,
j, k = 1, . . . , n.
j=1
Das Produkt
C = AB
ist nur deniert, wenn die Anzahl der Spalten von A mit der Anzahl
der Zeilen von B übereinstimmt. Die Matrixmultiplikation ist i.a. nicht kommutativ, d.h. i.a. gilt
A B ̸= B A
Eine schematische Darstellung der Matrixmultiplikation, bei der also zeilenweise die Zeilenvektoren
von A mit den Spaltenvektoren von B im Sinne eines Skalarprodukts multipliziert werden, zeigt
das Falk'sche Schema:


b11 . . . b1k . . . b1n
B(l,n) =

A(m,l)
a
a12
 11
.
 ..
.
 .
.

=
 ai1 ai2
 .
.
 .
.
.
 .
am1 am2

b
 21
 .
 ..

bl1

. . . a1l
c
  11
.  .
.
.
.  .


. . . ail 
 →
 .
. 
.  .
.  .
. . . aml
c1m
|

. . . b2k . . . b2n 

.
. 
.
. 
.
. 
. . . blk . . . bln

. . . ↓ . . . c1n

. 
.
↓
. 


→ cik

. 
. 
. 
. . . . . . . . . cmn
{z
}
C(m,n)
Die Inverse einer Matrix
A sei eine quadratische, n-reihige Matrix. B
ist die
inverse Matrix von A (Inverse von A), wenn
gilt
A B = B A = E,
Falls
A
eine inverse Matrix besitzt, heiÿt
A
B = A−1
regulär, sonst singulär.
Auf Verfahren zur Berechnung der Inversen und Rechenregeln für inverse Matrizen soll in diesem
Zusammenhang nicht weiter eingegangen werden. Wichtig ist lediglich der Zusammenhang zwischen
Existenz der Inversen einer Matrix und dem Wert ihrer Determinanten.
7.2.2 Determinanten
Grundbegrie
Die Determinante ist eine spezielle Funktion, die einer quadratischen Matrix
D ∈R
zuordnet.
Im Fall einer (2,2)-Matrix
A = (aik )
heiÿt die reelle Zahl
a
D = |A| = det A = 11
a21
a12 = a11 a22 − a12 a21
a22 46
A = (aik)
einen Skalar
die Determinante von A. Die Inverse von A existiert, wenn
Bei einer (3,3)-Matrix
D
A = (aik )
a11
a
21
a31
=
ist die Determinante von
a12
a22
a32
A
ist.
gegeben durch die reelle Zahl

 a (a a − a23 a32 )−
a13 
 11 22 33
a23 =  −a12 (a21 a33 − a23 a31 )+


a33 +a13 (a21 a32 − a22 a31 )
a11 |U11 | − a12 |U12 | + a13 |U13 | =
=
D = a11 a22 − a12 a21 ̸= 0
3
∑
(−1)1+k a1k |U1k |
k=1
a21 a22
a21 a23
a22 a23
|U11 | = , |U13 | = , |U12 | = a31 a32
a31 a33
a32 a33
mit:
Dreireihige Determinanten (und nur diese !!!) kann man auch nach der so genannten Regel von
Sarrus berechnen:
a11
D = a21
a31
a12
↘
a13
↘
a22
↗
a23
↗
a32
a33
a11
↘ a21
↗ a31
a12
↗
a22
↘
a23
= a11 a22 a33 + a12 a23 a31 + a13 a21 a23
− (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 )
In Verallgemeinerung des Determinantenbegris auf (n,n)-Matrizen ist die Determinante der (n,n)Matrix
A = (aik )
die Zahl
a11
D = |A| = det A = ...
a
n1
Der Term
Element
(−1)1+k |U1k | = A1k
···
···
a1n n
∑
=
(−1)1+k a1k |U1k |
k=1
ann heiÿt die Adjunkte oder das algebraische Komplement von
a1k .
Beispiel:
3
−4
|A| = 2
4
1
0
2
1
1
0
0
2
4 4
4
∑
6 ∑
=
a
A
=
(−1)1+k a1k |U1k |
1k 1k
3 k=1
k=1
−1
= a11 |U11 | − a12 |U12 | + a13 |U13 | − a14 |U14 |
2 1 6 −4 1 6 −4 2 1
= 3 1 0 3 − 1 2 0 3 + 0 − 4 2 1 0
0 2 −1
4 2 −1
4 0 2
= 3 · 1 − 1 · 62 − 4 · (−20)
= 21
47
A
zum
Die Entwicklung nach der ersten Zeile wird durch den
Laplace'schen Entwicklungssatz (siehe
Vorlesung) auf die Entwicklung nach beliebigen Zeilen oder Spalten verallgemeinert. Im obigen
Beispiel ergibt die Entwicklung nach der 3. Spalte (2 Nullen):
3 1
2+3 A = (−1)
1 2 1
4 0
4
4+3
2
3 + (−1)
−1
3 1 4
−4 2 6
2 1 3
3
1
4
3
1
2
1
3
2
1 = −3 + 12 − 16 + 2 = −5
4
0
−1
4
0
3
1
4
−4
2
6
2
1
3
3 1
−4 2 = −18 + 12 − 16 − 16 − 18 + 12 = −8
2
1
A = (−1) (−5) − 2 (−8) = 5 + 16 = 21.
Eigenschaften, Rechenregeln
Die Determinante einer Matrix und der transponierten Matrix sind gleich:
|AT | = |A|
Die Determinante einer Dreiecksmatrix ergibt sich aus dem Produkt der Elemente auf der Haupt∏n
diagonalen: det A = a11 a22 · · · ann =
i=1 aii .
Für n-reihige Determinanten gelten folgende Rechenregeln:
1. Beim Vertauschen zweier Spalten oder zweier Zeilen (müssen nicht benachbart sein!) ändert
die Determinante ihr Vorzeichen.
2. Multipliziert man alle Elemente einer Zeile oder einer Spalte mit einem Faktor
multipliziert sich die Determinante mit
λ ∈ R,
so
λ.
3. Addiert man zu allen Elementen einer Zeile oder Spalte von
chenden Elemente einer anderen Zeile oder Spalte von
A,
A
ein
λ-
faches der entspre-
so ändert dies die Determinante
nicht.
4. Die Determinante von
A
verschwindet, det A
=0
falls eine der folgenden Aussagen gilt:
a) Zwei Zeilen (Spalten) von A sind gleich.
b) Alle Elemente einer Zeile (Spalte) sind Null.
c) Eine Zeile (Spalte) von
A
ist die Summe von Vielfachen anderer Zeilen (Spalten.)
Für das Produkt der Determinanten zweier (n,n)-Matrizen A und B gilt:
|A B| = |A| |B|
Eine (n,n)-Matrix
A
ist genau dann regulär, wenn
A regulär
Ist
A
regulär, so ist die Inverse von
A
⇔
|A| ̸= 0
ist.
det(A)
̸= 0
gegeben durch
A−1 =
1
Aadj .
|A|
Determinanten können neben der Prüfung, ob eine Matrix
A ∈ Rn × n
invertierbar ist, der Beur-
teilung des Lösungsverhaltens und Berechnung der Lösung eines LGS (Cramer'sche Regel, siehe
Vorlesung) auch zur Volumenberechnung verwendet werden: |det(A)| ist das Volumen des von den
2
3
Spaltenvektoren aufgespannten Parallelepipeds (R : Parallelogrammäche, R : Spatvolumen).
48
Rang einer Matrix
Für das Lösungsverhalten linearer Gleichungssysteme ist neben dem Wert der Determinante der
Rang der Koezientenmatrix von Bedeutung.
Eine Determinante ist nur für quadratische Matrizen bestimmt. Bei
(m, n)-Matrizen (m ̸= n) kann
man durch Streichen von Spalten oder Zeilen quadratische Matrizen erzeugen, deren Determinanten man Unterdeterminanten der
Der
(m, n)-Matrix
nennt.
Rang r einer (m, n)-Matrix A bezeichnet die höchste Ordnung aller von Null verschiedenen
Unterdeterminanten von A:
Rg(A) = r
Dabei gilt:
1.
r ≤ min(m, n)
Rg(A) ≤ n
2. Für n-reihige quadratische Matrizen:
i)
A
regulär
⇒ |A| ̸= 0 ⇒ r = n
ii)
A
singulär
⇒ |A| = 0 ⇒ r < n
Der Rang einer Matrix kann durch Umformungen der Matrix bestimmt werden. Umformungen,
die den Rang einer Matrix nicht verändern, sind:
1. Vertauschen zweier Zeilen (Spalten).
2. Addition von vielfachen einer Zeile (Spalte) zu einer anderen Zeile (Spalte).
Mit Hilfe dieser Umformungen lässt sich eine
(m, n)-Matrix A,


A=

a11

···
a1n
.
.
.
am1
.
.
.
···

,

amn
umformen auf die Gestalt












B=











b11
b12
0
b22
.
.
.
0
.
.
.
.
.
.
0
...
...
0
...
...
1.
B
B
..
.
.
.
.
|
0
...
r
Die Matrix
...
{z
...
Spalten
b1r b1,r+1 . . .
.
. .
. .
. .
. . . .
.
.
. .
brr br,r+1 . . .
0 0
...
. .
. .
.
.
0 0
...
} |
{z
n−r


b1n 


.

.
.


brn 
 r Zeilen


.
.

.


brn 


0 

.

.
 m−r
.

0 
 Zeilen
}
Spalten
hat folgende Eigenschaften:
hat den gleichen Rang wie
2. die letzten
3. die ersten
m−r
r
Zeilen von
A.
B
sind gleich Null.
Hauptdiagonalelemente der oberen
bii ̸= 0
für
49
(r, r)
- Dreiecksmatrix sind ungleich Null,
i = 1, . . . , r
4. Der Rang von B ist gleich r, da die Determinante obiger Teil-Dreiecksmatrix gegeben ist
durch
b11
.
.
.
0
b1r r
∏
. .
=
bii ̸= 0
. i=1
brr ···
..
.
···
Beispiel:

1

A=
2
−1
−5
7
−8

7

0
11
21

0

A→
0
−5
1
2

7

0
3
6
21

1 3

→
0 1
Gesucht: Rang von
A(3,4) .

3
1
det

3
0
−5 0


0
 ⇒ Rg(A) = 2
0 0 0 0
1 3
U = 1 ̸= 0 wobei U = ist.
0 1
2
7.2.3 Lösungsstruktur eines LGS
Allgemeines
Ein lineares Gleichungssystemvon
m
Gleichungen für
n
Unbekannte in der Form
a11 x1 + a12 x2 + a13 x3 + . . . + a1n xn = c1
a21 x1 + a22 x2 + a23 x3 + . . . + a2n xn = c2
.
.
.
.
.
.
.
.
.
+ ... +
.
.
.
=
.
.
.
am1 x1 + am2 x2 + am3 x3 + . . . + amn xn = cm
kann mit Hilfe der Matrizenmultiplikation in die Form

a11

a
 21
 .
 ..

am1
|
a12
···
a22
···
.
.
.
.
.
.
am2 · · ·
{z
 
a1n

a2n 

. 
. 
. 
amn
}
M atrixA



x1
c1
Vektor x
Vektor c
   
x   c 
 2  2 
 . = . 
 ..   .. 
   
xn
cm
| {z } | {z }
und damit in die Kurzform
A ⃗x = ⃗c
überführt werden. Dabei sind die Variablen
x1 , x2 . . . , xn und die Werte der rechten Seite c1 , c2 , . . . , cm
aik in einer Matrix, der Koezientenmatrix, zu-
jeweils in Spaltenvektoren, die Koezienten
sammengefasst. Nach den für Matrizen festgelegten Rechenoperationen (Abschnitt 7.2.1, Seite 46)
ergeben sich mit
ci =
n
∑
aij xj ,
j=1
50
i = 1, · · · , m
(7.1)
in der Tat die
ci -Werte der rechten Seite des

homogen,
wenn ⃗
c=0
Das LGS heiÿt
Für
m=n

inhomogen,
wenn
LGS.
⃗c ̸= 0
erhält man den wichtigen Sonderfall eines quadratischen LGS ((n, n)-System).
Bei der Lösung des LGS spielt die so genannte


(A|⃗c) = 

a11
erweiterte Koezientenmatrix

···
a1n
c1
.
.
.
.
.
.
amn
cm
.
.
.
am1
···



eine groÿe Rolle; sie enthält neben den Koezienten auch den Vektor
⃗c = (c1 , . . . , cm )T
der rechten
Seiten des LGS.
Die Überführung der erweiterten Koezientenmatrix mittels des Gauÿ'schen Algorithmus in eine
obere Dreiecksmatrix liefert die Form

a∗11

 0

 .
 ..


∗ ∗
(A |⃗c ) =  0


 0
 .
 .
 .
a∗12
. . . a∗1r
a∗1,r+1
...
a∗22
. . . a∗2r
a∗2,r+1
...
..
.
..
.
.
.
.
.
.
.
.
.
...
0
a∗rr
a∗r,r+1
...
0
0
...
.
.
.
.
.
.
0
0
...
0
...
.
...

a∗1n c∗1

a∗2n c∗2 

.

.
.
.

.
.


∗ 
∗ arn cr 

0 c∗r+1

.
..

.
.

.
∗
c
0
m
c∗r+1 , . . . , c∗m gleich Null
Koezientenmatrix (A|⃗
c) den gleichen Rang
Dieses System besitzt oenbar nur eine Lösung, falls die rechten Seiten
sind, wenn also Koezientenmatrix A und erweiterte
haben. Bedingung für die Lösbarkeit eines inhomogenen LGS ist also
Rg(A) = Rg ((A|⃗c))
Lösungsverhalten eines linearen (n,n)-Systems
Für ein quadratisches inhomogenes (n, n)-System mit der erweiterten Koezientenmatrix


(A | ⃗c) = 

a11
.
.
.
an1

a1n c1
. 
.
. 
.
.
. 
. . . ann cn
...
Typ(n, n
+ 1)
lassen sich die für (m,n)-Systeme getroenen Feststellungen hinsichtlich Lösbarkeit und Lösungen
wie folgt übertragen:
a) Das System
A ⃗x = ⃗c
ist genau dann lösbar, falls
b) das System besitzt genau eine Lösung, falls
c) gilt
Rg(A) = Rg(A, ⃗c)
Rg(A) = n,
ist.
also A regulär ist.
Rg(A) = r < n, ist also A singulär, besitzt das System unendlich viele (n−r)-parametrige
Lösungen.
Die Lösungsstruktur ist in nachstehender Abbildung schematisch dargestellt.
51
keine Lösung
Rg(A) <> Rg((A|c))
Lineares (n,n) System
Ax=c
eindeutige Lösung
r=n
A ist regulär und besitzt eine Inverse
Rg(A) = Rg((A|c)) = r
(n-r)-parametrige Lösungsschar
r<n
A ist singulär
Lineares (n,n) System Ax=c.mmap - 15.11.2009 - The Mindjet Team
Abbildung 7.1: Lösungsmannigfaltigkeit eines (n,n)-Systems
Das im vorliegenden Zusammenhang besonders wichtige quadratische
(
 
a1n 0
a11
.   .
.
. = .
.
.
.   .
. . . ann 0
an1

)  a11
.
A | ⃗0 = 
 ..
...
an1
ist immer lösbar, da
homogene (n, n)-System

...
a1n
.
.
.
...

=A

ann
Rg(A) = Rg(A, ⃗0).
Ist A regulär, so besitzt
A ⃗x = ⃗0
Ist A singulär, so besitzt
genau eine Lösung: die triviale Lösung
A ⃗x = ⃗0
unendlich viele Lösungen, die von
⃗x = ⃗0.
n−r
Parametern abhängen
(r = Rg(A)).
7.3 Lineare Abbildungen
7.3.1 Denition
U, V zwei K-Vektorräume.
u, v ∈ U und für alle λ ∈ K
Es seien
Eine Abbildung
für alle
gilt:
f :U →V
f (u + v) = f (u) + f (v)
Homogenität
Oft werden die beiden Bedingungen in eine zusammengefasst:
f (λu + µv) = λf (u) + µf (v)
λ, µ ∈ K
und alle
lineare Abbildung, wenn
Additivität
f (λu) = λf (u)
für alle
heiÿt
u, v ∈ U .
52
Beispielsweise ist
f :R→R
mit
f (x) = c · x, x ̸= 0
eine lineare Abbildung, denn
f (x + y) = c(x + y)
= cx + cy
= f (x) + f (y)
und
f (rx) = c(rx)
= r(cx)
= rf (x)
Spiegelungen am Ursprung, Drehungen um den Ursprung und zentrische Streckungen mit Streckzentrum
(0, 0)
sind lineare Abbildungen.
Im folgenden Abschnitt wird erläutert, dass sich mit Matrizen sehr einfach auch lineare Abbildungen beschreiben lassen.
7.3.2 Matrizenschreibweise für lineare Abbildungen
Wie im vorigen Abschnitt (Seite 51) erläutert, kann ein lineares Gleichungssystem in die Schreibweise eines Matrix-Vektor-Produktes

a11

a
 21
 .
 ..

am1
|
a12
···
a22
···
.
.
.
.
.
.
am2 · · ·
{z
 
a1n

a2n 

. 
. 
. 
amn
}
M atrixA
mit der Kurzform
A ⃗x = ⃗c



x1
c1
Vektor x
Vektor c
   
x   c 
 2  2 
 . = . 
 ..   .. 
   
cm
xn
| {z } | {z }
überführt werden. Eine solche Schreibweise ist auch zur Beschreibung
linearer Abbildungen sehr nützlich:


x1
 
x 
 2
Ist ⃗
x =  .  ∈ Kn und A eine (m × n)-Matrix
 .. 
 
xn
n
m
Abbildung f : K → K
geschrieben werden als


f1
 
f 
 2
⃗
f = . 
 .. 
 
fm
{z
}
|
mit

a11

a
 21
= .
 ..

am1
|
A = (aij ) ∈ Km×n ,
a12
···
a22
···
.
.
.
.
.
.
am2 · · ·
{z
 
a1n

a2n 

. 
. 
. 
amn
}
M atrixA
Bild des Vektors x
so kann jede lineare

x1
 
x 
 2
 . 
 .. 
 
xn
| {z }
Vektor x
mit der Kurzform
f (⃗x) = A ⃗x


x1
Additivität und Homogenität sind gegeben, da für
53


y1
 
 
x 
y 
 2
 2
⃗x =  .  , ⃗y =  .  ∈ Kn
 .. 
 .. 
 
 
xn
yn
und
λ, µ ∈ K
gilt:


f (λ⃗x + µ⃗y ) = 

a11 (λx1 + µy1 ) + · · · + a1n (λxn + µyn )
.
.
.
.
.
.




am1 (λx1 + µy1 ) + · · · + amn (λxn + µyn )



a11 y1 + · · · + a1n yn
a11 x1 + · · · + a1n xn
 .

 .
.
.
 + µ .
.
.
= λ
.
.
 ..

 .
am1 x1 + · · · + amn xn




am1 y1 + · · · + amn yn
= λf (⃗x) + µf (⃗y )
Für die Komponenten des Bildvektors
fi =
fi
gilt analog zu Formel 7.1, Seite 50:
n
∑
aij xj ,
i = 1, · · · , m
j=1
Die Spalten der Matrix A sind dabei die Bilder ihrer Basisvektoren.
7.3.3 Beispiele für lineare Abbildungen in Matrizenschreibweise
f : R3 → R2 mit
 
 
 
( )
( )
( )
1
0
0
 
 
 
0 → 3 , 1 → 1 , 0 → 0 ,
 
 
 
2
−4
1
0
0
1
(
)
3 1 0
durch f (⃗
x) =
⃗x ∀⃗x ∈ R3 .
2 −4 1
a) Die lineare Abbildung
wird beschrieben
Z.B. für
b)
 
 
(
) 2
(
) ( )
2
 
 
3
1
0
3
·
2
+
1
·
3
+
0
·
1
9

3 =
⃗x = 
=
3 → f (⃗x) =
 
2 −4 1
2·2−4·3+1·1
−7
1
1
Streckung
⃗x =
Der Vektor
( )
x1
x2
u1 = λ x1
∈ R2
A=
c)
u1 = λ x1 + 0 x2
oder
)
λ
0
0
λ
u2 = 0 x1 + λ x2
∈ R2×2
P
→
mit dem Ortsvektor
⃗x =
( )
x1
x2
Der Punkt
P
gestreckt werden.
⃗u =
)
u1
geht dabei über in den Bildpunkt
(
=
u2
bildet also den Vektor
Spiegelung an der x1 -Achse in R2
Der Punkt
λ∈R
(
u2 = λ x2
(
Die Matrix
soll um den Faktor
∈ R2
P′
⃗x
)(
)
λ
0
x1
0
λ
x2
⃗u = λ ⃗x
auf den Vektor
soll an der
x1 -Achse
mit dem Ortsvektor
= λ ⃗x
gespiegelt werden.
⃗u =
( )
u1
. Die hierzu
u2
erforderliche Transformationsmatrix lässt sich folgt herleiten:
u1 =
x1
u2 =
−x2
oder
u1
= 1x1 + 0 x2
u2
= 0 x1 − 1x2
→
( )
u1
u2
| {z }
u
54
=
(
1
|
0
)(
0
)
x1
−1
x2
{z } | {z }
A
ab.
x
x1 -Achse
Abbildung 7.2: Spiegelung an der
d)
Drehung in
R2
um den Winkel
Bei einer Drehung im zweidimensionalen kartesischen Koordinatensystem
α gehen die Basisvektoren ⃗e1 =
( )
1
und
⃗e2 =
( )
0
0
⃗e1 =
⃗e2 =
( )
1
1
(
→
0
( )
0
⃗e′1
=
(
→
1
⃗e′2
=
)
cos α
sin α
− sin α
)
cos α
Abbildung 7.3: Drehung um den Winkel
α lautet demnach
(
)
cos α − sin α
Die Matrix der Drehung um den Winkel
A
=
sin α
cos α
Die Drehungen erfolgen dabei gegen den Uhrzeigersinn.
e)
Drehung in R3
55
α
über in die Bildvektoren
Die Matrix


1
0
0

Rx1 (α) = 
0 cos α
0
beschreibt eine Drehung in der
(Drehung um die



− sin α
sin α
cos α
x2 -x3 -Ebene; entlang der x1 -Ebene erfolgt keine Veränderung
x1 -Achse).
Analog lauten die Matrizen zur Drehung um die weiteren Koordinatenachsen:


Rx2 (α) = 

cos α
0
− sin α
0
1
0
− sin α
0
cos α





cos α

Rx3 (α) = 
 sin α

− sin α
0
cos α
0
0
1
0



7.3.4 orthogonale und unitäre Matrizen
Die in den Beispielen genannten Matrizen, die eine Spiegelung oder Drehung bewirken, haben
quadratisch und 2.) ihre Spaltenvektoren sind
orthonormal. Dies führt auf die wichtige Klasse der orthogonalen Matrizen, die eine Reihe nütz-
zwei bemerkenswerte Gemeinsamkeiten: 1.) sie sind
licher Eigenschaften aufweisen. Unter anderem lassen sich mit ihnen Rotationen und Spiegelungen
beschreiben.
Eine quadratische Matrix
Q ∈ Rn×n
orthogonale Matrix, wenn ihre Spaltenvektoren or-
heiÿt
thonormal sind.
Q ∈ Rn×n
Die folgenden Aussagen sind für orthogonale Matrizen
a) Die Spaltenvektoren von
Q
basis
bilden eine Orthonormal
äquivalent:
des
Rn ,
und es gilt
QT Q = Q QT = En
b)
Q
ist invertierbar, und ihre Transponierte ist gleichzeitig ihre Inverse:
QT = Q−1
c) Bei Multiplikation von Vektoren mit
Q
bleibt das euklidische Produkt zwischen Vektoren
erhalten (Winkeltreue):
⟨Q u|Q v⟩ = ⟨u|v⟩
d) Bei Multiplikation von Vektoren mit
Q
bleibt die euklidische Norm erhalten (Längentreue):
|Q u| = |u|
Für alle orthogonalen Matriten
Q ∈ Rn×n
∀ u, v ∈ Rn
∀ u ∈ Rn
gilt:
|det(Q)| = 1
Das komplexe Analogon zur orthogonalen Matrix ist die
U ∈ Cn
gilt
U ∗ U = I,
wobei I die Einheitsmatrix und
unitäre Matrix. Für unitäre Matrizen
U∗ = U
T
die Adjungierte von U ist. Damit
gilt für die Inverse einer unitären Matrix
U −1 = U ∗
Unitäre Matrizen (und damit auch orthogonale Matrizen als Spezialfall einer unitären Matrix mit
fehlendem Imaginärteil) sind
diagonalisierbar. Auf diese im Zusammenhang mit Eigenwerten und
Eigenvektoren wichtige Eigenschaft wird in der Vorlesung eingegangen.
56
7.3.5 Drehung von Basen und Ortsvektoren
In Abschnitt 7.1.4, Seite 42, wurde erläutert, dass mit einer Orthonormalbasis {v1 , · · · , vn } des
n
n
euklidischen Raumes R jeder Vektor u ∈ R mit eindeutig bestimmten Koezienten a1 , · · · , an
dargestellt werden kann in der Form
u=
n
∑
a k vk
k=1
a = (a1 , · · · , an )T
{v1 , · · · , vn }.
Der Vektor
ist also der Koordinatenvektor von
u bezüglich der Orthonormalbasis
{w1 , · · · , wn } eine weitere Orthonormalbasis des euklidischen
{w1 , · · · , wn } habe u den Koordinatenvektor b = (b1 , · · · , bn )T .
Es sei nun
Raumes
Rn .
Bezüglich
Der Wechsel zwischen zwei Orthonormalbasen (Basiswechsel) ist z.B. erforderlich, um nach einer
Drehung die neuen Koordinaten im Bezug auf das ursprüngliche Koordinatensystem angeben zu
können.
Mit Hilfe einer orthogonalen Übergangsmatrix
beschrieben werden. Für die Übergangsmatrix
Q mit b = Qa kann dieser Basiswechsel sehr einfach
Q = (qik ) gilt:
qik = vkT wi = wiT vk
Die folgenden Beispiele zeigen, dass Drehungen der Vektoren im
Rn
in einer festen Basis und
Basiswechsel in einem engen Zusammenhang stehen:
◦
Eine Drehung/Transformation der Basis um eine Matrix
Q unter Beibehaltung der Vektoren
Q−1 = QT unter Beibehaltung
entspricht einer Drehung/Transformation der Vektoren um
der Basis.
Beispielsweise dreht in
R2
die Matrix
(
R=
cos α
− sin α
sin α
cos α
)
die Vektoren bezüglich einer festen Basis um den Winkel
α
gegen den Uhrzeigersinn (vgl.
Beispiel Seite 55).
◦
Anders verhält es sich bei einer Drehung der Basis um den Winkel α. Wählt man für die
T
T
erste Basis die Standardbasisvektoren v1 = (1, 0) , v2 = (0, 1) , so lauten die Vektoren der
gedrehten Basis
R−1
w1 = (cos α, sin α), w2 = (− sin α, cos α), und es ergibt sich
(
)(
) (
)
cos α sin α
1 0
cos α sin α
Q=
=
= R−1
− sin α cos α
0 1
− sin α cos α
bezeichnet dabei die inverse Drehung, also die Drehung um den Winkel
−α
7.3.6 Transformation von Matrizen auf Diagonalgestalt und Hauptachsentransformation
Im letzten Abschnitt soll ein Einblick in die anstehende Thematik der Eigenwerte und Eigenvektoren gegeben werden, ohne jedoch den Vorlesungsinhalten vorzugreifen.
Betrachten wir das Gleichungssystem
A⃗x = λ⃗x
wobei
A ∈ Rn×n
als eine quadratische Matrix A zur linearen Transformation (Rotation, Spiege⃗x ∈ Rn interpretiert wird und λ eine reelle oder komplexe Zahl ist. Eine
lung, ...) eines Vektors
57
⃗x,
Lösung des Gleichungssystems ist ein Vektor
für den die lineare Transformation
A⃗x
lediglich
eine Streckung oder Stauchung unter Beibehaltung seiner Richtung bedeutet.
Wenn es Zahlen
λ
und Vektoren
heiÿen diese Zahlen
⃗x ̸= 0
gibt, die das o.a. lineare Gleichungssystem lösen, dann
Eigenwerte der quadratischen Matrix A; die Lösungsvektoren ⃗x heiÿen Ei-
genvektoren der Matrix A zum Eigenwert λ.
Eigenwerte und -vektoren spielen eine bedeutende Rolle in vielen Gebieten, insbesondere für die
Beschreibung besonderer Zustände von Systemen. Näheres hierzu bleibt der Vorlesung vorbehalten. Auch auf ihre Berechnung wird hier nicht eingegangen.
Im Beispiel der Spiegelung an der
(
A=
zur
)
1
0
0 −1
x1 − Achse
Die Vektoren
x1 -Achse
R2
in
(Seite 54) durch die Transformationsmatrix
ist leicht einzusehen, dass bei einer Spiegelung nur Vektoren parallel oder senkrecht
ihre Richtung beibehalten (siehe Abbildung Seite 55).
⃗x1 =
( )
1
und
( )
0
⃗x2 =
0
müssten daher als Eigenvektoren die o.a. Gleichung
1
erfüllen. Tatsächlich ist
(
1
|
0
(
1
|
0
0
)( )
1
−1
0
{z } | {z }
A
1
−1
{z } | {z }
= λ1
( )
1
0
⃗
x1
)( )
0
0
A
=
( )
1
(
=
mit Eigenwert
λ1 = 1
mit Eigenwert
λ2 = −1
0
)
0
−1
( )
0
= λ2
1
⃗
x2
Geometrisch besagen die Eigenwerte, dass sich die Längen der Eigenvektoren durch die Spiegelung
nicht ändern (|λ1 |
λ2 = −1
= |λ2 | = 1), ⃗x1
λ1 = 1 seine Lage beibehält und ⃗x2
mit Eigenwert
mit Eigenwert
seine Richtung umkehrt.
Die in Abschnitt 7.3.4, Seite 56, angesprochene
Diagonalisierbarkeit
einer Matrix ist nun ge-
geben und sehr einfach umzusetzen, wenn zu dieser Matrix eine Basis aus Eigenvektoren
Eigenwerten
λj
vj
mit
existiert. In diesem Fall gilt nämlich
T −1 AT = diag(λ1 , · · · , λn ) = D
Dabei ist T eine Matrix, deren Spaltenvektoren aus den orthonormalen Eigenvektoren bestehen.
D ist eine Diagonalmatrix, auf deren Diagonale die Eigenwerte stehen.
Die Matrix T ist eine Transformationsmatrix, die eine
Hautachsentransformation in das Ko-
ordinatensystem der Eigenvektoren durchführt. Die Transformation
T −1 AT
heiÿt Hauptachsen-
transformation von A.
Beispiel
Die symmetrische Matrix
A=
Zugehörige Eigenvektoren sind
(
)
2 1
hat die Eigenwerte
1 2
( )
1
⃗x1 =
1
(
und
⃗x2 =
λ1 = 3
und
λ2 = 1.
)
−1
; sie sind orthogonal (⃗
x1
1
bilden eine Basis von A.
Nach einer Normierung der Eigenvektoren erhält man die Transformationsmatrix
1
T =√
2
(
)
1 −1
1
58
1
· ⃗x2 = 0)
und
Es gilt
T
−1
(
1
AT = √
2
|
)(
) [
(
)]
1 1 −1
· √
2 1 1
1
1 2
} | {z } |
{z
}
1
1
−1
{z
(
T −1
2
1
A
)(
)
3
1 −1
1 3
=
2 −1 1
(
)
3 0
=
0 1
1
1
(
1 6
=
2 0
T
)
0
2
Das Ergebnis ist eine aus den Eigenwerten bestehende Diagonalmatrix.
Die Transformationsmatrix
1
T =√
2
(
1
1

)
−1
=
1
− √12
√1
 2
√1
2
√1
2

(√
=
2
√2
2
2
−
√
2
√2
2
2
)
,
die ja die Hauptachsentransformation in das Koordinatensystem der Eigenvektoren durchführt, ist
in der Tat identisch mit der im Beispiel auf Seite 55 gezeigten Drehmatrix
(
A
α
und einem für
systems um
45
Eigenvektoren
◦
=
x
e1 =
gegen
( )
√
2
2
1
1
− sin α
sin α
cos α
)
,
π
4 . Das entspricht einer Drehung des Koordinatenden Uhrzeigersinn, übereinstimmend mit der Lage der normierten
eingesetzten Wert von
, also
cos α
und
x
e2 =
α =
√
2
2
(
−1
)
.
1
Abbildung 7.4: Hauptachsentransformation
59
Herunterladen