Mathematische Methoden der Physik Prof. Dr. Ludger Santen

Werbung
Mathematische Methoden
der Physik
Prof. Dr. Ludger Santen
Kontakt: Ludger Santen, Universität des Saarlandes, Geb. E2 6, Zi. 4.15
[email protected]
http://www.uni-saarland.de/campus/fakultaeten/professuren/
naturwissenschaftlich-technische-fakultaet-ii/theoretische-physik/
professuren-theoretische-physik-fr-71/prof-dr-ludger-santen.html
letzte Aktualisierung: 13. Januar 2011
1
Inhaltsverzeichnis
1 Komplexe Zahlen
1.1 Komplexe Zahlen und die komplexe Ebene . . . . .
1.2 Die vier Grundrechenarten mit komplexen Zahlen . .
1.2.1 Addition und Subtraktion . . . . . . . . . . .
1.2.2 Multiplikation . . . . . . . . . . . . . . . . .
1.2.3 Division . . . . . . . . . . . . . . . . . . . .
1.3 Eigenschaften komplexer Zahlen . . . . . . . . . . .
1.3.1 Die komplex konjugierte Zahl . . . . . . . .
1.3.2 Betrag und Argument komplexer Zahlen . . .
1.4 Komplexe Zahlen und die Exponentialfunktion . . .
1.4.1 Die Polardarstellung komplexer Zahlen . . .
1.4.2 Multiplikation und Division in Polarform . .
1.4.3 de Moivres Theorem . . . . . . . . . . . . .
1.5 Trigonometrische Funktionen . . . . . . . . . . . . .
1.5.1 Additionstheoreme . . . . . . . . . . . . . .
1.6 Die n-te Wurzel von 1 . . . . . . . . . . . . . . . . .
1.7 Der komplexe Logarithmus . . . . . . . . . . . . . .
1.8 Hyperbolische Funktionen . . . . . . . . . . . . . .
1.9 Hyperbolische Umkehrfunktionen – Areafunktionen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Elemente der linearen Algebra
2.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Lineare Gleichungen . . . . . . . . . . . . . . . . . .
2.1.2 Vektorräume: Definition und Beispiele . . . . . . . . .
2.2 Linearkombinationen, lineare Hülle und erzeugende Systeme .
2.3 Lineare (Un-) Abhängigkeit . . . . . . . . . . . . . . . . . . .
2.4 Vektorräume und Basis . . . . . . . . . . . . . . . . . . . . .
2.5 Lösen linearer Gleichungssysteme . . . . . . . . . . . . . . .
2.6 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Rechenoperationen mit Matrizen . . . . . . . . . . . .
2.6.2 Determinanten . . . . . . . . . . . . . . . . . . . . .
2.6.3 Matrixinversion . . . . . . . . . . . . . . . . . . . . .
2.6.4 Matrizen: Definitionen und Eigenschaften . . . . . . .
2.6.5 Das Eigenwertproblem . . . . . . . . . . . . . . . . .
2.6.6 Entartete Eigenwerte . . . . . . . . . . . . . . . . . .
2.6.7 Eigenvektoren und Eigenwerte einer normalen Matrix
2.6.8 Basiswechsel und Ähnlichkeitstransformationen . . .
2.6.9 Diagonalisierung von Matrizen . . . . . . . . . . . . .
3 Differentialrechnung im Rn
3.1 Funktionen mehrerer Variablen . . . . . . . . . . . . . . .
3.2 Das totale Differential und die totale Ableitung . . . . . .
3.3 Exakte und inexakte Differentiale . . . . . . . . . . . . .
3.4 Rechenregeln für partielle Ableitungen . . . . . . . . . . .
3.5 Variablentransformation . . . . . . . . . . . . . . . . . . .
3.6 Taylor-Entwicklung . . . . . . . . . . . . . . . . . . . . .
3.7 Stationäre Punkte von Funktionen mit mehreren Variablen
3.8 Extrema mit Nebenbedingungen . . . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
6
6
6
7
7
7
8
8
9
10
10
12
13
13
14
15
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
16
16
16
17
18
18
19
20
23
23
24
25
26
28
29
30
31
32
.
.
.
.
.
.
.
.
35
35
36
37
37
38
39
40
41
4 Integralrechnung im Rn
4.1 Zweidimensionale Integrale . . . . . . . . . . . . . .
4.2 Dreifachintegrale . . . . . . . . . . . . . . . . . . .
4.3 Variablentransformation . . . . . . . . . . . . . . . .
4.3.1 Transformationen im R2 . . . . . . . . . . .
4.3.2 Variablentransformation in Dreifachintegralen
5 Vektoranalysis
5.1 Der Gradient . . . . . . . . . . . . . . . .
5.2 Raumkurven und Kurvenintegrale . . . . .
5.3 Länge und Bogenlänge . . . . . . . . . . .
5.4 Skalare Kurvenintegrale . . . . . . . . . . .
5.5 Vektorielle Kurvenintegrale . . . . . . . . .
5.5.1 Verhalten bei Umparametrisierung:
5.6 Konservative Vektorfelder und Potential . .
5.7 Weitere Vektoroperatoren . . . . . . . . . .
5.8 Oberflächenintegrale . . . . . . . . . . . .
5.9 Das vektorielle Oberflächenintegral . . . .
5.10 Der Integralsatz von Gauß . . . . . . . . .
5.11 Der Integralsatz von Stokes . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
44
45
45
47
.
.
.
.
.
.
.
.
.
.
.
.
49
49
49
50
51
51
52
52
53
54
57
59
60
Vorbemerkungen
Die Vorlesung Mathematische Methoden der Physik ist weder eine Mathematik- noch eine Physikvorlesung. Sie stellt vielmehr eine Vielzahl von Rechenmethoden für die Vorlesungen der
theoretischen und experimentellen Physik zur Verfügung.
Dieses Konzept hat einige praktische Konsequenzen:
Training: Sie lernen nicht zu schwimmen, wenn Sie regelmäsig Wettkämpfe im Fernsehen
schauen. Sie lernen es auch nicht, wenn Sie Freunden beim Schwimmen zusehen. Sie
müssen selber schwimmen und das ist am Anfang schwer! Leichter wird es, wenn Ihnen
ein Trainer Tipps gibt.
Gleiches gilt für die mathematischen Methoden. Sie müssen selber rechnen, rechnen, rechnen! Lassen Sie sich aber bei Problemen von Ihren Trainern (Übungsgruppenleiter, Tutor,
Kommilitonen) helfen.
Tutorien: Die Vorlesung mathematische Methoden der Physik baut auf das Abiturwissen aus
dem Mathematik-Grundkurs auf, also auf die Rechenmethoden, die wir im Vorkurs noch
einmal wiederholt haben. Sollten Sie damit noch Probleme haben, sollten Sie sich bemühen, die Probleme schnell zu beseitigen, eventuell mit Hilfe des Tutoriums.
Ausrichtung: Physik wird in dieser Vorlesung nur eine untergeordnete Rolle spielen, insbesondere werden Sie keine physikalischen Übungsaufgaben lösen. Dies hat den Grund, dass
die Übertragung des physikalischen in ein geeignetes mathematisches Problem häufig den
Schwierigkeitsgrad der Aufgabe erhöht und eigens eingeübt werden muss. Der geeignete
Ort, um diese Fähigkeit zu üben, sind die Module der theoretischen und experimentellen
Physik.
Zur Vorlesung wird ein Skript veröffentlicht, das Sie für die Lösung der Übungen nutzen können. Sollten Sie zusätzlich Bedarf an einem Lehrbuch haben, gibt es eine reiche Auswahl an
geeigneten Lehrbüchern. Eine unvollständige Auswahl finden Sie in folgender Liste:
1. Rainer Wüst, Höhere Mathematik für Mathematiker und Physiker, Bde 1& 2, Wiley VCH,
2003
2. Christian B. Lang, Norbert Puckler, Mathematische Methoden in der Physik, Spektrum
Akademischer Verlag, 2005.
3. Helmut Fischer, Helmut Kaul, Mathematik für Physiker 1-3, Teubner, 2005
4
1 Komplexe Zahlen
Durch die Einführung komplexer Variablen ist es für beliebige algebraische Gleichungen möglich, die Wurzeln der Gleichung anzugeben. Damit entfällt eine Einschränkung die im Körper
der reellen Zahlen besteht.
Die Einführung der komplexen Zahlen hat aber nicht nur den Lösungsraum algebraischer Gleichungen erweitert, sondern auch viele analytische Rechnungen stark vereinfacht, wie wir in
einem späteren Abschnitt dieser Vorlesung sehen werden.
1.1 Komplexe Zahlen und die komplexe Ebene
Obwohl komplexe Zahlen in sehr vielen Bereichen auftreten, begegnen sie uns am natürlichsten
als Wurzeln von Polynomen. Dies wollen wir am Beispiel der quadratischen Gleichung
z2 − b z + c = 0
.
(1)
diskutieren. Die Gleichung (1) hat die beiden Lösungen1
z1/2 =
i
p
1h
b ± b2 − 4c .
2
(2)
Wenn der Ausdruck unter der Wurzel (die Diskriminante) positiv ist, also b2 − 4c > 0 gilt, sind
die beiden Lösungen reelle Zahlen. Für b2 − 4c < 0 steht man allerdings vor dem Problem, dass
es im Körper der reellen Zahlen keine Lösung der obigen Gleichung gibt. Um nun trotzdem eine
Lösung der Gleichung angeben zu können, muss man also den Zahlenraum erweitern. Dazu
führt man eine neue Art von Zahl ein, die sog. imaginäre Einheit
i mit der Definition
i2 = −1 .
(3)
Mit dieser Vereinbarung lässt sich nun auch für b2 − 4c < 0 eine Lösung angeben
z1/2 =
i
p
1h
b ± i 4c − b2 .
2
(4)
Ganz allgemein schreiben wir komplexe Zahlen in der Form
z = x + iy ,
(5)
wobei x und y reelle Zahlen sind. Man nennt√x den Realteil und y den Imaginärteil von z. In
dem vorigen Beispiel ist x = b/2 und y = ± 4c − b2 /2. Man schreibt für den Real- und den
Imaginärteil auch
x = Re(z)
y = Im(z).
und
(6)
Der Fundamentalsatz der Algebra sagt uns auch, daß ein Polynom wie in Gl. (1) immer eine
Lösung hat, nur ist diese manchmal komplex. Ist das Polynom von Grade 3 und höher, also
vom Grade n, so sagt uns der Fundamentalsatz, daß es n-Lösungen gibt, die aber nicht alle ver2
schieden seinen
√ müssen. Im speziellen Beispiel hat das Polynom z − 4z + 5 = 0 die Lösungen
z1/2 = 2 ± 16 − 20/2 = 2 ± i.
1 Zur Erinnerung: Gleichung (1) kann umgeschrieben werden in (z − b/2)2 + c − b4 /4 = 0 bzw. (z − b/2)2
p
p
c. Zieht man daraus die Wurzel, so folgt z − b/2 = ± b2 /4 − c bzw. z = b/2 ± b2 /4 − c .
5
= b2 /4 −
1.2 Die vier Grundrechenarten mit komplexen Zahlen
1.2.1 Addition und Subtraktion
Die Addition zweier komplexer Zahlen z1 und z2 ergibt im allgemeinen wieder eine komplexe
Zahl. Dabei werden die Realteile xi und die Imaginärteile yi separat addiert.
z1 + z2 = (x1 + iy1 ) + (x2 + iy2 ) = (x1 + x2 ) + i(y1 + y2 ) .
(7)
Dies hat eine gewisse ähnlichkeit zu Vektoren, wo die Addition komponentenweise ausgeführt
wird. Man kann sich auch sofort davon überzeugen, daß aus der Gültigkeit des Assoziativ- und
Kommutativgesetzes für die Addition reeller Zahlen, diese Gesetze ebenso für komplexe Zahlen
folgen.
z1 + z2 = z2 + z1
(Kommutativgesetz)
z1 + (z2 + z3 ) = (z1 + z2 ) + z3
(Assoziativgesetz)
(8)
(9)
1.2.2 Multiplikation
Die Multiplikation zweier komplexer Zahlen ergibt gewöhnlich auch wieder eine komplexe
Zahl. Das Produkt erhält man, indem man alles ausmultipliziert und sich daran erinnert, daß
i2 = −1 gilt.
z1 z2 = (x1 + iy1 )(x2 + iy2 )
= x1 x2 + ix1 y2 + iy1 x2 + i2 y1 y2
= (x1 x2 − y1 y2 ) + i(x1 y2 + x2 y1 ).
(10)
Das Produkt der beiden Zahlen z1 = 3 + 2i und z2 = −1 − 4i ist demnach
z1 z2 = (3 + 2i)(−1 − 4i)
= −3 − 2i − 12i − 8i2
= 5 − 14i
Wie für reelle Zahlen, so gelten auch für die Multiplikation komplexer Zahlen das Kommutativund das Assoziativgesetz
z1 z2 = z2 z1
(z1 z2 )z3 = z1 (z2 z3 ) .
(11)
1.2.3 Division
Der Quotient zweier komplexer Zahlen ist
z3 =
z1 x1 + iy1
=
z2 x2 + iy2
.
Dies möchte man natürlich wieder in der Form z3 = x3 + iy3 mit x3 , y3 ε R darstellen und erweitert hierfür einfach den Quotienten mit (x2 − iy2 ).
z1
z2
=
=
(x1 + iy1 )(x2 − iy2 ) (x1 x2 + y1 y2 ) + i(x2 y1 − x1 y2 )
=
(x2 + iy2 )(x2 − iy2 )
x22 + y22
x1 x2 + y1 y2
x2 y1 − x1 y2
+i 2
x22 + y22
x2 + y22
6
(12)
1.3 Eigenschaften komplexer Zahlen
1.3.1 Die komplex konjugierte Zahl
Zu einer komplexen Zahl z = x + iy wird noch die komplex konjugierte Zahl z∗ = x − iy
niert.
Es gelten einige nützliche Rechenregeln. Für z = x + iy gilt
defi-
(z∗ )∗ = z
z + z∗ = 2x
z − z∗ = 2iy
(13)
1.3.2 Betrag und Argument komplexer Zahlen
Da jede komplexe Zahl z = x + iy als geordnetes Paar reeller Zahlen betrachtet werden kann,
lassen sich solche Zahlen durch Punkte in der xy-Ebene, der sogenannten komplexen Ebene
(Argand Diagramm) darstellen. Eine komplexe Zahl die z.B. durch den Punkt P = (3, 4) in der
xy-Ebene repräsentiert wird, kann daher als (3, 4) oder 3 + 4i gelesen werden. Für jede komplexe
Zahl gibt es genau einen Punkt in der Ebene. Umgekehrt entspricht jedem Punkt der Ebene eine
komplexe Zahl. Manchmal bezeichnet man die x und y-Achse als relle bzw. imaginäre Achse
und die komplexe Ebene als z-Ebene.
Abbildung 1: Punkt in der komplexen Ebene.
Der Abstand des Punktes (x, y) vom Ursprung (0, 0) entspricht der Länge des Vektors~r = (x, y),
was wir als den Betrag der komplexen Zahl interpretieren. Der Betrag einer komplexen Zahl
wird also definiert durch:
p
| z |= x2 + y2 .
(14)
Wenn man die komplex konjugierte Zahl benutzt, kann man den Betrag auch in der Form
p
√
| z |= z · z∗ = (x + iy)(x − iy)
(15)
angeben. Mit dem Argument einer komplexen Zahl arg(z) wird der Winkel φ = arg z in Abb. 1
bezeichnet
y
arg(z) = arctan( ) .
(16)
x
Durch Konvention wird dieser Winkel entgegen des Uhrzeigersinnes positiv gewählt.
Zur Illustration betrachten wir das konkrete Beispiel z = 2 − 3i. Der Betrag dieser komplexen
Zahl ist
q
√
| z |= 22 + (−3)2 = 13
7
und ihr Argument
3
arg(z) = arctan(− ) ∼ −56, 3◦ = −0.98279
2
1.4 Komplexe Zahlen und die Exponentialfunktion
Nachdem wir die einfachen Rechenregeln für komplexe Zahlen diskutiert haben, müssen wir uns
mit elementaren Funktionen komplexer Variablen beschäftigen. Dies ist eigentlich die Aufgabe
der Funktionentheorie, die wir in einem späteren Abschnitt ausführlicher diskutieren werden.
Eine wichtige Voraussetzung für eine sinnvolle Definition komplexer Zahlen ist, dass sie für
verschwindenden Imaginärteil wieder in die entsprechende reelle Funktion übergehen.
Eine komplexe Funktion von besonderer Bedeutung ist die Exponentialfunktion. Die komplexe
Exponentialfunktion ist eng mit den trigonometrischen Funktionen verknüpft, woraus sich einige
wichtige Rechenregeln ergeben.
Die Reihendarstellung der komplexen Exponentialfunktion gilt auch für komplexe Zahlen:
∞
ez =
∑
k=0
zk
.
k!
(17)
Aus dieser Tatsache, die im Rahmen der Funktionentheorie ausführlicher diskutiert wird, lassen
sich einige nützliche Zusammenhänge herleiten.
1.4.1 Die Polardarstellung komplexer Zahlen
Im folgenden wählen wir ω = iφ mit reeller Variable φ . In diesen Fall ist dann ω rein imaginär
und exp(ω) = exp(iφ ). Wir nutzen nun die Reihendarstellung (17) der Exponentialfunktion aus
und schreiben davon die ersten Summanden hin
i
i2
i3
φ + φ2 + φ3 +...
1!
2!
3!
i
i2 2 i3 3
exp (−iφ ) = 1 − φ + φ − φ + . . .
1!
2!
3!
exp (iφ ) = 1 +
,
.
(18)
Nutzen wir noch die Regel i2 = −1, so bekommen wir mit
i2 2 i4 4
φ + φ + . . .)
2!
4!
φ2 φ4
= 2(1 −
+
− . . .)
2! 4!
exp (iφ ) + exp (−iφ ) = 2(1 +
(19)
wieder eine reelle Zahl! Offensichtlich sind für reelles φ die komplexen Zahlen z = eiφ und
z = e−iφ konjugiert komplex zueinander, also z∗ = (eiφ )∗ = e−iφ . Demzufolge gilt
z + z∗ = eiφ + e−iφ = 2 Re{eiφ }
z − z∗ = eiφ − e−iφ = 2i Im{eiφ }
.
Für den Betrag von eiφ folgt mit der Regel (14)
|z|2 = |eiφ |2 = zz∗ = eiφ e−iφ = eiφ −iφ = e0 = 1
Offensichtlich beschreibt eiφ einen Kreis mit Radius 1 in der komplexen Ebene.
8
(20)
Abbildung 2: graphische Darstellung der Eulerformel
Mit z = x +iy = eiφ sieht man aus Abb. 1 daß x = cos φ und y = sin φ . Daraus folgt die Eulersche
Formel
cos φ + i sin φ = eiφ .
(21)
Hier sieht man nun auch, daß es sich z.B. für z = iφ = iωt bei eiωt um eine Schwingung handelt.
Die Exponentialfunktion in dieser Schreibweise ist daher bei der Untersuchung von Schwingungen unentbehrlich.
Insbesondere folgt sofort
eiπ = −1,
eiπ/2 = i
und
ei0 = ei2π = 1.
Mit der Darstellung (21) kann man auch leicht eine altbekannte Formel neu ableiten
1 = |z|2 = (cos φ + i sin φ )(cos φ − i sin φ )
= cos2 φ + sin2 φ = 1
.
Darüberhinaus läßt sich jede komplexe Zahl in dieser sogenannten Polardarstellung
z = reiφ
schreiben, wobei r und φ reell sind. Das Argument arg(z) = φ ist in dieser Darstellung trivial
abzulesen.
1.4.2 Multiplikation und Division in Polarform
Die Multiplikation und Division komplexer Zahlen wird in Polardarstellung ausgesprochen einfach. Das Produkt der komplexen Zahlen z1 = r1 eiφ1 und z2 = r2 eiφ2 ist mit den Regeln für die
Exponentialfunktion durch
z1 z2 = r1 eiφ1 r2 eiφ2 = r1 r2 ei(φ1 +φ2 )
(22)
gegeben. Daraus folgen auch unmittelbar |z1 z2 | = |z1 | · |z2 | und arg(z1 z2 ) = arg(z1 ) + arg(z2 ).
Insbesondere ist auch die Division komplexer Zahlen in Polardarstellung sehr einfach
z1 r1 eiφ1
r1
r1
=
= eiφ1 e−iφ2 = ei(φ1 −φ2 )
iφ
2
z2 r2 e
r2
r2
.
Die Beziehungen |z1 /z2 | = |z1 |/|z2 | und arg(z1 /z2 ) = arg z1 − arg z2 folgen.
9
(23)
1.4.3 de Moivres Theorem
Ein recht wichtiges Theorem für sin und cos folgt aus der einfachen Identität (eiφ )n = einφ .
Schreibt man dies in der sin- und cos-Darstellung, so ist dies äquivalent mit
n
(cos φ + i sin φ )n = eiφ = einφ = cos(nφ ) + i sin(nφ ) .
(24)
1.5 Trigonometrische Funktionen
De Moivres Theorem zeigt deutlich den Zusammenhang zwischen (komplexer) Exponentialfunktion und den trigonometrischen Funktionen. Diesen Zusammenhang werden Sie beispielsweise bei der Lösung von Schwingungsgleichungen oder der Herleitung von Additionstheoremen nutzen können.
Wir betrachten nun mit die komplexen Darstellungen von sin und cos:
cos φ
=
sin φ
=
1 iφ
(e + e−iφ )
2
1 iφ
(e − e−iφ ) ,
2i
(25)
welche unmittelbar aus (21) und (20) folgen. Mit Gl. (18) erhält man auch Reihendarstellungen
für cos und sin
cos φ
=
(−1)k 2k
φ
k=0 (2k)!
sin φ
=
∑ (2k + 1)! φ 2k+1
∞
(26)
∑
∞
(−1)k
.
(27)
k=0
Entsprechend folgt auch für tan und cot eine Exponentialdarstellung.
tan φ
=
cot φ
=
sin φ
1 eiφ − e−iφ
,
=
cos φ
i eiφ + e−iφ
cos φ
eiφ + e−iφ
= i iφ
.
sin φ
e − e−iφ
(28)
Ersetzt man nun φ = nΘ, so folgt auch für den n-fachen Winkel Θ zusammen mit z = eiΘ
1 n 1
1 inΘ
cos(nΘ) =
e + e−inΘ =
z + n
2
2
z
1 n 1
1 inΘ
−inΘ
(29)
z − n
sin(nΘ) =
=
e −e
2i
2i
z
Anwendungsbeispiele
1) überlagerung zweier Schwingungen gleicher Frequenz ω, welche gegeneinander Phasenverschoben sind. Die Gesamtschwingung ist dann
f (t) = A1 sin(ωt + ϕ1 ) + A2 sin(ωt + ϕ2 )
i
1 h i(ωt+ϕ1 )
=
A1 e
− e−i(ωt+ϕ1 ) + A2 ei(ωt+ϕ2 ) − e−i(ωt+ϕ2 )
2i
1
1 i(ωt+ϕ1 ) =
e
A1 + A2 ei(ϕ2 −ϕ1 ) − e−i(ωt+ϕ1 ) A1 + A2 e−i(ϕ2 −ϕ1 )
2i
2i
1 i(ωt+ϕ1 ) =
e
A1 + A2 ei(ϕ2 −ϕ1 ) + konj. komplex
2i
10
Nun kann man den Vorfaktor umschreiben und man erhält mit
−η A1 + A2 ei(ϕ2 −ϕ1 ) = A eiϕ
(30)
wieder eine komplexe Zahl, die sich leicht mit den bisherigen Regeln berechnen läßt.
Abbildung 3: Modellverstärker für den Input x(t) = 0.2sin(t) (durchgezogene Linie) und dem
Output y(t) = 0.3sin(t) + 0.5sin2(t). Ein ähnliches Verhalten zeigen auch nichtlineare optische Frequenzverdoppler.
Abbildung 4: Eine Überlagerung zweier leicht verstimmter Schwingungen y = cos(x) +
cos(1.1x). Das Ergebnis ist eine Schwebung.
Das Endsignal hat also die gleiche Frequenz, aber eine andere Amplitude und ist phasenverschoben
f (t) = A cos(ωt + ϕ) .
(31)
2) Betrachten wir einen Verstärker mit einem Input-Signal x(t) = x0 cos(ωt) und der Eigenschaft, daß der Output mit dem Input wie folgt zusammenhängt
y(t) = B(x + f x2 ) = B(x0 cos(ωt) + x02 cos2 (ωt)) .
(32)
Um daran zu erkennen, welche Frequenzen im Output sind, muß man z.B. ausrechnen, wie
cos2 (ωt) mit der ursprünglichen Frequenz zusammenhängt.
3) Ein anderes Problem von großer Bedeutung betrifft die überlagerung von zwei Schwingungen
mit zwei leicht verstimmten Frequenzen:
f (t) = A1 cos((ω + ∆ω)t + ϕ1 ) + A2 cos(ωt + ϕ2 ) .
Das Resultat ist eine Schwebung. In der Akustik ist dieses Phänomen gut hörbar.
11
(33)
1.5.1 Additionstheoreme
Die Herleitung von Additionstheoremen im Körper der reellen Zahlen ist häufig kompliziert.
Durch die Beziehung zwischen komplexer Exponentialfunktion und den trigonometrischen Funktionen kann man dagegen diese Theoreme sehr leicht herleiten. Wir wollen dies an einigen Beispielen diskutieren. Wir betrachten dazu:
sin(x + y) =
1 i(x+y)
e
− e−i(x+y)
2i
.
(34)
Von exp(i(x + y)) brauchen wir nur den Imaginärteil und zur Umformung dieses Ausdruckes
verwenden wir die Produktregel für Exponentialfunktionen und die Euler-Formel (21)
ei(x+y) = eix eiy = (cos x + i sin x)(cos y + i sin y)
= i(sin x cos y + cos x sin y) + cos x cos y − sin x sin y
(35)
Subtrahieren wir hiervon noch exp(−i(x + y)) so bleibt nur der Imaginärteil übrig. Insgesamt
bekommen wir dadurch
sin(x + y) = sin x cos y + cos x sin y
.
(36)
Ein weiteres Problem, das man durch das Theorem von de Moivre leicht lösen kann, ist sin 3Θ
und cos 3Θ durch Potenzen von cos Θ und sin Θ auszudrücken. Wir erhalten
cos 3Θ + i sin 3Θ = (cos Θ + i sin Θ)3
= (cos3 Θ − 3 cos Θ sin2 Θ) + i(3 sin Θ cos2 Θ − sin3 Θ).
Vergleichen wir die die Real- und Imaginärteile auf beiden Seiten, so bekommen wir
cos 3Θ = cos3 Θ − 3 cos Θ sin2 Θ
= cos3 Θ − 3 cos Θ(1 − cos2 Θ)
= 4 cos3 Θ − 3 cos Θ
(37)
und
sin 3Θ = 3 sin Θ cos2 Θ − sin3 Θ
= 3 sin Θ(1 − sin2 Θ) − sin3 Θ
= 3 sin Θ − 4 sin3 Θ
.
(38)
Ein weiteres Beispiel ist cos3 Θ, das wir mit z = eiΘ und Gl. (20) leicht berechnen können
cos3 Θ =
=
=
=
1
1
(z + )3
3
2
z
1 3
1 1
(z + 3z + 3 + 3 )
8
z z
1
1 3 1
3
(z + 3 ) + (z + )
8
z
8
z
3
1
cos(3Θ) + cos Θ
4
4
(39)
Potenzen von sin x und cos x führen offensichtlich zu höheren Harmonischen wie cos(3x) und
umgekehrt lassen sich höhere harmonische Funktionen durch Potenzen der Grundfrequenz ausdrücken. An dem oben genannten nichtlinearen Verstärker wird dann eine Frequenzmischung
deutlich. Auf diese und ähnliche Weise lassen sich eine Reihe weiterer nützlicher Beziehungen
ableiten, die in Formelsammlungen aufgelistet werden.
12
1.6 Die n-te Wurzel von 1
Die Gleichung z2 = 1 hat die beiden bekannten Lösungen z = ±1. Nachdem uns die komplexen
Zahlen bekannt sind, können wir auch alle Lösung von zn = 1 beschaffen. Nach dem Fundamentalsatz der Algebra gibt es für jedes Polynom n-ten Grades n Lösungen. Wir wissen auch schon,
daß
e2iπk = cos(2πk) + i sin(2πk) = 1
(40)
falls k ∈ Z Demzufolge können wir schreiben
zn = e2ikπ
(41)
oder
z = e2iπk/n
.
(42)
Dies bedeutet, die Lösungen von zn = 1 sind
z1,2,...,n = 1, e2iπ/n , . . . , e2i(n−1)π/n ,
(43)
wobei wir hier k = 0, 1, 2, . . . , n − 1 verwenden. Größere Werte von k ergeben keine neuen Lösungen, sondern sind nur eine Duplizierung der vorhandenen Lösungen.
Betrachten wir als Beispiel die Lösungen der Gleichung z3 = 1. Wenden wir nun Formel (43)
an, so erhalten wir z1 = 20i , z2 = e2iπ/3 , z3 e4iπ/3 . Für k = 3, also z4 = e6iπ/3 = e2iπ = 1 = z1 , nur
eine Wiederholung von z1 .
Es ist auch keine überraschung, daß wir auch |z|3 = |z3 | finden, da alle Wurzeln auf dem Einheitskreis liegen und damit den Betrag 1 haben.
1.7 Der komplexe Logarithmus
Die Umkehrfunktion der Exponentialfunktion exp(x) = y ist der Logarithmus
x = ln y
(44)
falls x, y ∈ R.
Der Logarithmus ist auch die Umkehrfunktion der Exponentialfunktion für komplexe Zahlen.
Für den Logarithmus einer komplexen Zahl z schreiben wir
w = ln z
mit
z = ew
(45)
Jetzt können wir die Regeln für die Exponentialfunktion ausnutzen, um den Logarithmus eines
Produktes komplexer Zahlen
z1 · z2 = ew1 ew2 = ew1 +w2
(46)
zu berechnen
ln(z1 z2 ) = w1 + w2 = ln(z1 ) + ln(z2 ) .
(47)
Nehmen wir eine komplexe Zahl auf dem Einheitskreis, so wissen wir bereits, dass
z = eiφ = ei(φ +2πk) .
(48)
Diese Vieldeutigkeit wirkt sich auch auf den Logarithmus aus und es folgt
ln z = ln r + i(φ + 2π) .
13
(49)
Um die Vieldeutigkeit zu vermeiden, schränkt man das Argument arg(z) = φ auf −π < φ ≤ π
ein und nennt ln(z) bei dieser Einschränkung den Hauptwert.
Und was ist ln(−i)? Hier schreiben wir zuerst −i in Exponentialform um
π
ln(−i) = ln ei(−π/2+2nπ) = i − + 2πn
,
(50)
2
mit einer natürlichen Zahl n. Dies bedeutet ln(−i) = −i π2 , 3i π2 , . . . Für den Hauptwert gilt ln(−i) =
− π2 i.
1.8 Hyperbolische Funktionen
Was bedeutet eigentlich cos(iφ ) oder sin(iφ )? Mit dieser Wahl eines rein imaginären Argumentes im cos und sin werden die Exponenten von e in Gl. (25) reell und es folgt eine neue Klasse
von Funktionen:
1 −φ
cos(iφ ) =
(e + e+φ ) =: cosh φ
2
1 −φ
(e − e+φ ) =: sinh φ .
(51)
i sin(iφ ) =
2
Die beiden Funktionen cosh φ und sinh φ bezeichnet man als ”Cosinus Hyperbolicus” oder ”Hyperbelcosinus” bzw. ”Sinus Hyperbolicus” oder ”Hyperbelsinus”. Diese hyperbolischen Funktionen sind die komplexen Analoga zu den trigonometrischen Funktionen. Neben den beiden
fundamentalen Funktionen gibt es in Analogie zu den trigonometrischen Funktionen die verbleibenden hyperbolischen Funktionen
sinh x
ex − e−x
= x
cosh x e + e−x
cosh x ex + e−x
coth x =
= x
sinh x
e + e−x
1
2
sechx =
=
cosh x ex + e−x
1
2
,
(52)
cosechx =
=
sinh x ex − e−x
siehe Abb. 5. Folgende Beziehungen zwischen trigonometrischen und Hyperbelfunktionen sind
noch ganz hilfreich
tanh x =
cosh x = cos(ix)
i sinh x = sin(ix)
cos x = cosh(ix)
i sin x = sinh(ix) .
(53)
ähnlich zu den Relationen zwischen verschiedenen trigonometrischen Funktion lassen sich auch
Hyperbelfunktionen durch andere Hyperbelfunktionen ausdrücken. Gehen wir von cos2 x+sin2 x =
1 aus und benutzen (53) so folgt mit cosh2 x = cos2 (ix) und sinh2 x = − sin2 (ix)
cosh2 x − sinh2 x = 1 .
(54)
Einige andere Identitäten können ebenso abgeleitet werden.
sech2 x = 1 − tanh2 x
cosech2 x = coth2 x − 1
sinh(2x) = 2 sinh x cosh x
cosh(2x) = cosh2 x + sinh2 x
14
(55)
Abbildung 5: Graphen der verschieden hyperbolischen Funktion deren analytische Darstellung im Text angegeben ist.
1.9 Hyperbolische Umkehrfunktionen – Areafunktionen
Die Umkehrfunktion von y = sinh x nennen wir x = arsinh y. Wir sind nun an der expliziten Form
dieses Ausdruckes interessiert. Hierfür drückt man ex durch Linearkombinationen von cosh x und
sinh x aus.
ex = cosh
p x + sinh x
=
1 + sinh2 x + sinh x
p
=
1 + y2 + y .
(56)
Wenden wir auf beide Seiten den Logarithmus an, so folgt der explizite Ausdruck für die Umkehrfunktion
p
x = arsinh(y) = ln( 1 + y2 + y) .
(57)
Auf ähnliche Weise erhält man
p
x = arcosh(y) = ln( y2 − 1 + y)
(58)
für |y| > 1. Die Umkehrfunktion von tanh(x) nennen wir analog artanh(y) und die explizite Form
ist
1
1+y
x = artanh(y) = ln
.
(59)
2
1−y
15
2 Elemente der linearen Algebra
Wobei die Beweiskraft einzig vom Geschick der Beweisinszenierung abhängt
(worunter nicht nur Beweisrhetorik, Beweisinstallierung und Beweismarketing zu verstehen sind, sondern auch die Verwandlung der
Wirklichkeit in einen beweisäquivalenten Zustand).
Heinrich Steinfest - Cheng
2.1 Vektorräume
In der Schule und im Vorkurs sind Ihnen einige wichtige Eigenschaften von Vektoren vorgestellt
worden. Wir betrachten an dieser Stelle den Zusammenhang zwischen linearen Gleichungssystemen, Vektorräumen und Matrizen.
2.1.1 Lineare Gleichungen
Lineare Gleichungen sind von der Form:
L(u) = v,
mit den Vektoren u und v
Beispiele solcher Systeme gibt es häufig in der Physik:
(i) Schwingungsgleichung:
bzw.
d
d2
u(t) + a
u(t) + b u(t) = v(t)
2
dt dt
d2
d
+a
+ b u(t) = v(t)
dt 2
dt
(ii) Potentialgleichung:
d2
d2
u(x,
y)
+
u(x, y) = v(x, y)
dx2
dy2
2
d
d2
+ 2 u(x, y) = v(x, y)
dx2
dy
bzw.
(iii) Vertrauter dürfte Ihnen die Form
2x1 + x2 − x3 = y1
−7x1 − 5x2 + 3x3 = y2
sein, mit


x1
u =  x2  ,
x3
v=
y1
y2
,
16
L(u) =
2x1 + x2 − x3
−7x1 − 5x2 + 3x3
.
Diese Probleme haben gemeinsam, dass für die Abbildung
L : u 7→ L(u)
gilt:
L(α1 u1 + α2 u2 ) = α1 L(u1 ) + α2 L(u2 ).
Dies sind die definierenden Eigenschaften von linearen Abbildungen. Einige Eigenschaften von
linearen Abbildungen sind direkt offensichtlich:
(i) Die homogene Gleichung L(u) = 0 besitzt immer die triviale Lösung u = 0
(ii) Sind u1 und u2 Lösungen der homogenen Gleichung, so ist auch jede Linearkombination
α1 u1 + α2 u2 eine Lösung. Die Lösungen bilden einen Vektorraum.
(iii) Ist u0 eine spezielle Lösung der homogenen Gleichung L(u) = 0, so erhält man sämtliche
Lösungen durch u = uh + u0 , wobei uh sämtliche Lösungen der homogenen Gleichung
durchläuft.
Mit der Einführung von linearen Abbildungen sind offenbar einige Begriffe verbunden, die
wir näher diskutieren wollen. Außerdem werden wir uns mit der Lösbarkeit von linearen Gleichungssystemen beschäftigen.
2.1.2 Vektorräume: Definition und Beispiele
Definition:
Einen nichtleere Menge V heißt Vektorraum über R bzw. über C, wenn auf V einen Addition und einen Multiplikation mit Zahlen aus R bzw. C erklärt ist, sodass die Rechenregeln der
Vektorräume gelten. Im einzelnen wird ein Vektorraum durch folgende Eigenschaften bestimmt:
Wenn u, v, w ∈ V gilt, dann ist auch u + v ∈ V . Ferner entlält V ein ausgezeichnetes Element 0.
Es gelten dann die Regeln:
(A1 ) (u + v) + w = u + (v + w)
(A2 ) u + v = v + u
(A3 ) u + 0 = u
(A4 ) Die Gleichung u + x = v besitzt stets genau eine Lösung x. Mit u ∈ V , α ∈ R (bzw. α ∈ C)
gehört auch α · u zu V und es gilt:
(S1 )
(S2 )
(S3 )
(S4 )
(α + β ) · u = α · u + β · u
α · (u + v) = α · u + α · v
α · (β · u) = (α · β ) · u
1·u = u
Die Elemente von V nennen wir Vektoren. Die Elemente des zugrundeliegenden Zahlenkörpers
R bzw. C Skalar (z.B. α, β ). Das neutrale Element der Addition 0 nennen wir Nullvektor .
Beispiele:
• Rn und Cn sind Vektorräume über R bzw. C. Dies gilt auch für n = 1, wobei dann der
Unterschied zwischen Vektoren und Skalaren nicht mehr besteht.
17
• Funktionenräume:
M ist eine nichtleere Menge, K einer der Zahlenkörper R bzw. C. Dann ist
F (M , K) = { f : M 7→ K}
mit
f + g : x 7→ f (x) + g(x)
α · f : x 7→ α · f (x)
ein Vektorraum über K.
Definition: Teilräume
Ist V ein Vektorraum über K, so nennen wir U einen Unterraum bzw. Teilraum, wenn mit
u, v ∈ U auch jede Linearkombination α · u + β · v zu U gehört, mit α, β ∈ K. Weiterhin setzen
wir vorraus, dass U eine nichtleere Teilmenge von V ist.
Beispiele:
• {0} ist immer Teilraum von V , genauso wie V selbst.
• Die Lösungen x = (x1 , x2 , ..., xn ) ∈ Rn der Gleichung
a1 · x1 + ... + an · xn = 0
bilden einen Teilraum des Rn .
Übungsaufgabe: Gilt dies auch für a1 · x1 + ... + an · xn = mit t 6= 0?
2.2 Linearkombinationen, lineare Hülle und erzeugende Systeme
Definition: Linearkombination
Jeder Vektor der Form
n
α1 v1 + α2 v2 + ... + αn vn =
∑ αk vn
mit
αi ∈ K
k=1
heißt Linearkombination der Vektoren v1 , ..., vn ∈ V .
Definition: Aufspann bzw. lineare Hülle
Die Menge aller Linearkombinationen aus v1 , ..., vn heißt ihr Aufspann bzw. ihre lineare Hülle
span{v1 , ..., vn }.
Der Aufspann ist ein Teilraum von V .
2.3 Lineare (Un-) Abhängigkeit
Definition:
Vektoren v1 , ..., vn eines K-Vektorraums V heißen linear abhängig (l.a.), falls es Skalare (α1 , ..., αn ) ∈
K gibt, die alle nicht Null sind, sodass
α1 v1 + α2 v2 + ... + αn vn = 0
Andernfalls heißen sie linear unabhängig.
18
Beispiele:
(i) Die Vektoren


1
e1 =  0  ,
0


0
e2 =  1  ,
0


0
e3 =  0 
1
sind linear unabhängig.
(ii) Sind die Vektoren


1
 0 

u=
 −1  ,
0


0
 1 

v=
 1 ,
−2


3
 −1 

w=
 −4 
2
des R4 linear unabhängig? Wir müssen dazu offenbar die Gleichung
x1 u + x2 v + x3 w = 0
lösen, bzw. in Koordinaten
x1 + 3x3 =0
−x1 + x2 − 4x3 =0
−2x2 + 2x3 =0.
Folglich
x2 − x3 = 0 ⇒ x2 = x3 und − x1 − 3x3 = 0.
Offenbar ist x1 = 3 und x2 = x3 = −1 Lösung des homogenen Gleichungssystems. Die
Vektoren sind also linear abhängig.
2.4 Vektorräume und Basis
Definition:
Ein geordnetes n-Tupel B = (v1 , ..., vn ) von Vektoren des K-Vektorraums V heißt eine Basis
von V , wenn sich jeder Vektor v ∈ V als Linearkombination
v = α1 v1 + ... + αn vn
in eindeutiger Weise darstellen lässt. Die durch v eindeutig bestimmten Zahlen α1 , ..., αn heißen
die Koordinaten von v bezgl. der Basis B. Sie werden zu einem Koordinatenvektor


α1


(v)B =  ... 
αn
zusammengefasst.
Satz:
B = (v1 , ..., vn )
ist genau dann eine Basis, wenn v1 , ..., vn ein linear unabhängiges Erzeugendensystem ist.
Bemerkung:
Es sei U = span{v1 , ..., vn } ein Teilraum von V , dann ist v1 , ..., vn ein Erzeugendensystem für
U.
19
Beweis:
(i) Es sei B = (v1 , ..., vn ) eine Basis. Nach Definition gilt V = span{v1 , ..., vn }. Jeder Vektor
v ∈ V muss sich mit eindeutig bestimmten Koeffizienten aus den v1 , ..., vn bestimmen
lassen. Dies gilt auch für den Nullvektor. Damit folgt aus
α1 v1 + ... + αn vn = 0
⇒
α1 , ..., αn = 0
und somit die lineare Unabhängigkeit.
(i) Es seien v = α1 v1 + ... + αn vn = β1 v1 + ... + βn vn zwei Darstellungen von v. Mit
(α1 − β1 )v1 + ... + (αn − βn )vn = 0
folgt aus der linearen Unabhängigkeit von v1 , ..., vn ; α1 = β1 , ..., αn = βn , also die Eindeutigkeit.
Satz: Dimension eines Vektorraums
Besitzt ein Vektorraum V eine Basis aus n Vektoren, so besteht auch jede andere Basis aus n
Vektoren. n ist gleichzeitig die Dimension des Vektorraums V . Also
dim V = n
Bemerkung:
Für V = {0} gilt dim V = 0, besitzt V keine endliche Basis, so bezeichnen wir ihr als unendlichdimensional.
Basisergänzungssatz: Ist b1 , ..., bn ein Erzeugendensystem von V und sind a1 , ..., an lin. unabhängige Vektoren in V , die keine Basis von V bilden, so lassen sich die a1 , ..., an durch Hinzufügen geeigneter bk zu einer Basis von V ergänzen.
Basisauswahlsatz:
Besitzt der Vektorraum V 6= {0} ein endliches Erzeugendensystem b1 , ..., bn , so lässt sich aus
diesem eine Basis für V auswählen.
2.5 Lösen linearer Gleichungssysteme
Ein lineares Gleichungssystem (LGS) mit m Gleichungen für n Unbekannte hat die Form
a11 x1 + a12 x2 + . . . + a1n xn = b1
..
.
am1 xm + am2 xm + . . . + amn xm = bm
Gegeben sind in diesem Problem die Koeffizienten aik ∈ K und die Zahlen bk ∈ K. Gesucht sind
alle Vektoren x(x1 , ..., xn ) ∈ Kn , die die obige Gleichung erfüllen.
Rangbedingung zur Lösbarkeit: Lineare Gleichungssysteme in der obigen Form können kompakt durch Ax = b geschrieben werden, mit der Koeffizientenmatrix




x1
a11 . . . a1n



..  ,
A =  ...
x =  ...  ∈ Kn .
. 
xn
am1 . . . amn
Der Rang einer Matrix bestimmt sich aus:
20
(i) der Maximalzahl linear unabhängiger Zeilenvektoren (Zeilenrang)
(ii) der Maximalzahl linear unabhängiger Spaltenvektoren (Spaltenrang)
(iii) der Dimension des Bildraums der linearen Abbildung x 7→ Ax,
Kn 7→ Km
Beispiel: Die Matrix


1 −2 4 0 5
A =  −2 1 −1 2 −6 
−1 −1 3 2 −1
hat den Rang 2, da die ersten beiden Vektoren linear unabhängig sind und die dritte Zeile die
Summe der ersten beiden ist.
Rangbedingung:
Hat V die Dimension n, W die Dimension m so ist die lineare Abbildung L : V 7→ W genau
dann in jektiv (eineindeutig), wenn Rang(L) = n und genau dann sur jektiv, wenn Rang(L) = m.
Bemerkung:
Für eine injektive Abbildung gilt, dass jedem Bild höchsten ein Urbild zuzuordnen ist, d.h. dass
aus f (x1 ) = f (x2 ) stets x1 = x2 und aus x1 6= x2 f (x1 ) 6= f (x2 ) folgt. Für eine surjektive Abbildung f M 7→ N gilt, dass N die Bildmenge von f ergibt, d.h. dass für jedes y ∈ N die Gleichung
f (x) = y mindestens einen Lösung aus M existiert.
Das LGS Ax = b ist also eindeutig lösbar, wenn Rang(A) = n und universell lösbar, wenn
Rang(A) = m ist .
Eliminationsverfahren:
Gesucht: Alle Lösungen des LSG
4x2 + 4x3 + 3x4 − 2x5 = 16
−3x1 − 3x2 + 3x3 + x4 − 2x5 = − 2
2x2 + 2x3 + 3x4 − 4x5 = 14
4x1 − x2 − 9x3 − 2x4 − x5 = − 5
1. Schritt: Umstellung der Gleichungen (nur noch Koeffizenten), Vertauschung der Zeilen I&II
−3 −3 3
1 −2 −2
0
4
4
3 −2 16
0
2
2
3 −4 14
4 −1 −9 −2 −1 −5
2. Schritt: Normierung der Kopfzeile
1 1 −1 − 13 23 23
0 4
4
3 −2 16
0 2
2
3 −4 14
4 −1 −9 −2 −1 −5
21
3. Schritt: Elimination von x1 aus der Zeile IV durch Multiplikation der Kopfzeile mit (−4) und
Addition zur 4. Zeile
2
2
1 1 −1 − 13
3
3
0 4
4
3
−2 16
0 2
2
3
−4 14
2
− 23
0 −5 −5 − 3 − 11
3
3
4. Schritt: Normierung der Kopfzeile im Restsystem
3
1
1
4
2
2
3
−5 −5 − 23
− 21
−4
− 11
3
4
14
− 23
3
5. Schritt: Eliminatione von x2 aus den letzten beiden Gleichungen
((−2)· bzw 5· erste Zeile)
1 1 43 − 21 4
0 0 32 −3 6
37 37
0 0 37
3
12 − 6
6. Schritt: Die Koeffizienten von x3 verschwinden. Das obige Schema führt dann auf das Restsystem
3
−3 6
2
37
− 37 37
12
6
3
und schließlich nach Normierung der Kopfzeile und Elimination von x4 (und x5 ) in der unteren
Zeile
1 −2 4
0 0 0
7. Schritt: Zeilenstufenform
1
0
0
0
1 −1 − 13
3
1 1
4
0 0
1
0 0
0
2
3
2
3
1 −2 4
−2 4
0 0
bzw.
1
2
2
x1 + x2 − x3 + − x4 + x5 =
3
3
3
3
1
x2 + x3 + x4 − x5 = 4
4
2
x4 − 2x5 = 4
8. Schritt: Auflösen der Gleichung in Zeilenstufenform. Mit der Festlegung x3 = s und x5 = t
ergibt sich


 
 
1
1
2
 1 
 −1   −1 

 

 
 



x=
 0 +s 1 +t  0 .
 4 
 0   2 
1
0
0
22
2.6 Matrizen
2.6.1 Rechenoperationen mit Matrizen
(i) Matrizen werden elementweise addiert, die Addition ist (daher) kommutativ und assoziativ, d.h.
A+B = B+A
A + (B +C) = (A + B) +C.
(ii) Multipliziert man eine Matrix mit einer Konstanten, so werden alle Elemente mit der
Konstanten multipliziert.
B = αA
⇔
bi j = ∧ik α · ai j .
(iii) Die Multiplikation von Matrizen erfolgt nach der Regel „Zeile mal Spalte“:
AB = C
⇔
Ci j = ∑ aik bk j
k
Aus der Rechenregel ergibt sich sofort, dass die Zahl der Spalten von A der Zahl der Zeilen
von B entsprechen muss.
(iv) Für die Matrixmultiplikation gilt das Distributiv- aber nicht das Kommutativgesetz.
Beispiel:
0 1
1 0
A=
B=
1 0
0 −1
0 · 1 + 1 · 0 0 · 0 + 1 · (−1)
0 −1
AB =
=
1 · 1 + 0 · 0 1 · 0 + 0 · (−1)
1 0
0 1
BA =
6= AB
−1 0
Die Matrixmultiplikation ist also nicht-kommutativ!
Bemerkung:
Die obigen Matrizen sind zwei der drei Pauli − Matrizen, die die Komponenten des quantenmechanischen Spinoperators bilden.
Definition: Der Kommutator [A, B] ≡ AB − BA misst die Differenz zwischen den beiden Produkten von A, B.
Spezielle Matrizen:
(i) Nullelement
(ii) Einheitsmatrix
A = 0 ⇔ ai j = 0
A = 1 ⇔ ai j = δi j
(
0, wenn i 6= j
δi j =
1, wenn i = j
23
mit
Kronecker- Delta
Es gilt offenbar A0 = 0A = 0 und A1 = 1A = A.
Bemerkung:
Bei Matrizen treten einige Eigenschaften auf, die man von der Multiplikation von gewöhnlichen
Zahlen nicht kennt. Gegeben seien die Matrizen:
1 2
10 4
A=
B=
3 6
−5 2
0 0
22
44
;
BA =
⇒
AB =
0 0
−11 −22
Das Produkt der Matrizen ergibt die Nullmatrix, obwohl keine der beiden Matrizen Null ist.
Damit kann also auch AC = AD gelten, obwohl C 6= D.
2.6.2 Determinanten
Die Determinante einer 2x2 Matrix wird definiert durch
a11 a12 := a11 a22 − a21 a12
det(A) = a21 a22 Bem.: Das lineare Gleichungssystem
a11 a12
Au = v
mit
A=
;
a21 a22
u=
u1
u2
;
v=
v1
v2
ist genau dann universell und eindeutig lösbar, wenn det(A)6= 0.
Laplacescher Entwicklungssatz
Die Determinante einer nxn Matrix A = (ai j ) kann man durch Entwicklung nach der i-ten Zeile
n
det(A) = |A| =
∑ (−1)i+ j ai j Ai j j=1
bzw. der k-ten Spalte
n
det(A) = |A| =
∑ (−1) j+k a jk A jk j=1
berechnen.
Mit: Ai j ist eine (n-1) x (n-1) Matrix, die durch Streichung der i-ten Zeile und der j-ten Spalte
aus A hervorgeht.
Beispiel Determinante einer 3x3 Matrix (Entwicklung nach der ersten Spalte)
a11 a12 a13 a21 a22 a23 = a11 a22 a23 − a21 a12 a13 + a31 a12 a13
a22 a23
a32 a33 a32 a33 a31 a32 a33 Eigenschaften von Determinanten
(i) det(A) = det(AT )
(ii) Für nxn Matrizen gilt: det(AB)= det(A)*det(B)
24
(iii) det(A−1 )= (det(A))−1
Determinantenformen
Definition: Eine Abbildung F:Kn x...xKn → K(n > 1) heißt
(i) Multilinearform auf Kn , wenn F in jedem der n Argumente (Spalten) linear bei festgehaltenen
restlichen Spalten ist:
F(..., αx + β y, ...) = αF(..., x, ...) + β F(..., y, ...)
(ii) Alternierende Multilinearform falls (i) gilt und
F(..., ai , ..., a j , ...) = −F(..., a j , ..., ai , ...)
(iii) Determinantenform falls (i) und (ii) erfüllt sind und F(e1 , ..., en ) = 1 für die kanonische
Basis e1 , ..., en des Kn gilt. (ei Einheitsvektor in i-Richtung)
Bemerkungen:
(i) Für alternierende Multilinearformen gilt
F(a1 , ..., an ) = 0
falls a1 , ..., an linear abhängig sind.
Insbesondere gilt natürlich, dass F(a1 , ..., an ) = 0 falls ai = ak für i 6= k, bzw. ai = αak .
(ii) Die Determinante ändert sich nicht, wenn ein Vielfaches einer Zeile von einer anderen Zeile
subtrahiert wird. Damit lässt sich die Matrix durch Umformungen auf obere Dreiecksform bringen, ohne dass sich die Determinante ämdert. Die Determinante ergibt sich dann einfach aus der
Multiplikation der Diagonalelemente.
Bsp.:
a
a
det 11 12
a21 a22
a12
= det a11
0 a22 − a21 a12
a11
= a11 (a22 − a21 a12 ) = a11 a22 − a21 a12
a11
2.6.3 Matrixinversion
Für quadratische Matrizen A kann man eine Matrix A−1 suchen, sodass AA−1 = A−1 A = 1.
Die inverse Matrix lautet:
A−1
ij
=
1
C ji
det(A)
mit der Kofaktormatrix
C ji = (−1)i+ j Mi j
und dem Minor Mi j , d.h. die Determinante der Streichmatrix. Offenbar ist die Matrix nur dann
invertierbar, wenn det(A) 6= 0. Da det(AA−1 ) = det(1) = 1 gilt, erhalten wir
det(A−1 ) =
1
.
det(A)
Ferner gilt: (AB)−1 = B−1 A−1 wegen (AB)−1 (AB) = B−1 A−1 AB = B−1 B = 1
25
Beispiel: Bestimmung der Inversen der Matrix A


2
4
3
A =  1 −2 −2 
−3 3
2
Kofaktoren:
−2 −2
= −4 + 6 = 2 = 4 = C11
M11 = det
3
2
1 −2
M12 = det
= 2 − 6 = −4 = −C12
−3 2
Insgesamt erhalten wir:


2
4 −3
C =  1 13 −18 
−2 7 −8
det(A) = 2 · 2 + 1 · 1 + (−3) · (−2) = 11
und


2
1
−2
T
C
1
 4
13
7 
A−1 =
=
det(A) 11
−3 −18 −8
Bemerkung:
Ist die Koeffizientenmatriz eines LGS invertierbar, so kann man die Lösung des GS einfach
durch Matrizinversion bestimmen.
⇒
Ax = b
x = A−1 b
2.6.4 Matrizen: Definitionen und Eigenschaften
• Die Spur einer Matrix:
Die Spur einer Matrix Sp(A) bzw. tr(A) ist die Summe ihrer Diagonalelemente
Sp(A) = tr(A) = ∑(A)ii = ∑ aii
i
i
Es gilt:
tr(AB) = ∑ Aik Bki = ∑ Bki Aik = tr(BA)
ik
ik
Allgemeiner gilt:
Die Spur ist invariant gegenüber zyklischer Vertauschung von Matrixprodukten, also
tr(A1 A2 ...An ) = tr(An A1 ...An−1 )
• Die transponierte Matrix:
AT : AT
ij
= (A) ji . Es gilt (AB)T = BT At .
• Die komplex-konjugierte Matrix:
A∗ bzw. A, die die Elemente a∗i j enthält.
• Die hermitisch konjugierte Matrix (bzw. adjungierte Matrix):
26
A+ = AT
∗
• Die Diagonalmatrix:
Nur die Diagonalelemente sind verschieden von Null.
• Die symmetrische Matrix:
A = AT
Die antisymmetrische Matrix:
A = (−1)AT
• Die relle Matrix:
A = A∗
Die imaginäre Matrix:
A = −A∗
• Die orthogonale Matrix:
AT = A−1 (für eine quadratische Matrix, z.B. die Drehmatrix)
• Die hermitische Matrix:
A+ = A
Die antihermitische Matrix:
A+ = −A
• Die unitäre Matrix:
A+ = A−1
• Die nilpotente Matrix:
für n > n0 gilt An = 0
• Die singuläre Matrix:
Matrix deren Determinante verschwindet (nicht invertierbar)
27
2.6.5 Das Eigenwertproblem
Die Mutiplikation eines Vektors mit einer Matrix ist im Allgemeinen eine Drehstreckung, d.h.
Richtung und Betrag des Vektors werden geändert. Liegt der Vektor aber parallel zur Drehachse, wird nicht seine Richtung, sondern ausschließlich sein Betrag geändert. Also gilt für einen
solchen Vektor v
Av = λ v.
(60)
Vektoren v, die die Gleichung (60) erfüllen, nennt man Eigenvektoren der Matrix A und den
Skalierungsfaktor seinen Eigenwert. Zur Bestimmung von λ und v betrachtet man die homogene
Gleichung
(A − λ 1) v = 0,
die direkt aus (60) folgt.
Eine nichtlineare Lösung dieses homogenen Gleichungssystems kann offenbar nur dann erfolgen, wenn det (A − λ 1) verschwindet. Die Bedingung
det (A − λ 1) = 0
(61)
führt für eine n × n Matrix auf ein Polynom n-ten Grades in λ , das über den Körper C n
(nicht notwendigerweise verschiede) Lösungen besitzt. Diese Lösungen sind die Eigenwerte des
Problems. Das Polynom, das sich aus der Eigenwert- bzw. Säkulargleichung (61) ergibt, wird
charakteristisches Polynom genannt.
Beispiel: Bestimmung der Eigenwerte der Matrix A mit


1 1 −3
A =  1 1 −3  .
3 −3 −3
Die Säkulargleichung zur obigen Matrix lautet
1−λ
det (A − λ 1) = det 1
3
⇒
1
1−λ
−3
−3
−3
−3 − λ
= 0.
(1 − λ )2 (−3 − λ ) − (1 · (−3) · 3) + (−3 · 1 · (−3)) − 9(1 − λ ) − (−3 − λ ) + 9(1 − λ ) = 0
(1 − 2λ + λ 2 )(−3 − λ ) − 9 + 9 + 3 + λ = 0
−3 − λ + 6λ + 2λ 2 − 3λ 2 − λ 3 + 3 + λ = 0
−λ 3 − λ 2 + 6λ = 0
−λ (λ − 2)(λ + 3) = 0
Die Eigenwerte lauten demnach λ1 = 2, λ2 = 0 und λ3 = −3.
Es bleibt also noch die Aufgabe die Eigenvektoren zu bestimmen. Dazu setzt man die Eigenwerte
ein und löst das zugehörige homogene Gleichungssystem. Wir wollen dies am Beispiel von oben
explizit durchführen.
Für den Eigenwert λ1 = 2 ergibt sich das folgende Gleichungssystem:
28
−x1 + x2 + 3x3 = 0
x1 + x2 − 3x3 = 0
| +1· Zeile I
3x1 − 3x3 − 3x3 = 0
| +3· Zeile I
−x1 + x2 + 3x3 = 0
0 =0
⇒
4x3 = 0
x3 = 0 ⇒ x1 = x3 = t
Der zugehörige Eigenvektor lautet also


t
x1 =  t  .
0
Es ist nützlich mit normierten Eigenvektoren zu arbeiten, sodass
!
|x1 | = 2t 2 = 1
1
t=√
2
⇒
Damit lautet der normierte Eigenvektor


1
1
x1 = √  1  .
2
0
Analog ergibt sich für die übrigen Eigenvektoren


1
1 
−1 
x2 = √
und
3
1


1
1 
−1  .
x3 = √
6
−2
Bemerkung:
Die Menge der Eigenwerte und Eigenvektoren einer Matrix nennt man auch das Eigensystem.
Die Eigenwerte von A und AT stimmen überein, die zugehörigen Eigenvektoren nicht unbedingt.
Dies bedeutet, dass linke und rechte Eigenvektoren nicht übereinstimmen müssen.
2.6.6 Entartete Eigenwerte
Wir wenden uns wiederum einem Beispiel zu. Es sei
0 1
A=
.
−1 2
⇒
!
det (A − λ 1) = (−λ )(−2 − λ ) + 1 = (1 + λ )2 = 0
⇒
λ1,2 = −1
Der einzige Eigenvektor dieser Matrix ist
1
x1 = √
2
1
−1
.
Die 2 × 2 Matrix A ist ein Beispiel für eine nicht-hermitische Matrix, bei der das Eigensystem
eine niedrigere Dimension hat als die Matrix. Die geometrische Multiplizität, d.h. die Zahl der
Eigenvektoren zu einem Eigenwert ist also in diesem Fall geringer als die algebraische Multiplizität.
29
2.6.7 Eigenvektoren und Eigenwerte einer normalen Matrix
Wir wollen nun die Eigenschaften verschiedener Matrizen mit den Eigenschaften von Eigenvektoren und -werten in Verbindung bringen. Dazu betrachen wir zunächst normale Matrizen, d.h.
Matrizen für die gilt
A+ A = AA+
Bemerkung:
Unitäre und hermitische Matrizen sind gleichzeitig normale Matrizen (bzw. orthogonale und
symmetrische Matrizen im Falle reeller Matrizen).
Es sei nun x Eigenvektor zum Eigenwert λ , also gilt
(A − λ 1) x = 0.
Mit B = A − λ 1 gilt dann Bx = 0 = x+ B+ ., also insgesamt
x+ B+ Bx = 0
Explizit ergibt sich
B+ B = (A − λ 1)+ (A − λ 1) = A+ − λ ∗ 1 (A − λ 1) = A+ A − λ ∗ A − λ A+ + λ λ ∗ = 0.
Wegen AA+ = A+ A ergibt sich, dass B+ B = BB+ . Damit erhalten wir
+
x+ B+ Bx = x+ BB+ x = B+ x B+ x = |B+ x|2 = 0.
sodass B+ x der Nullvektor ist und B+ x = (A+ − λ ∗ 1)x = 0 gilt.
Für eine normale Matrix sind also die Eigenwerte von A+ die komplex konjugierten Eigenwerte
von A. Es seinen nun xi und x j zwei Eigenvektoren zu zwei unterschiedlichen Eigenwerten λi
und λ j . Dann gilt
und
Ax j = λ j x j .
Axi = λi xi
+
Wenn wir nun die zweite Gleichung von links mit xi multiplizieren, erhalten wir
xi
+
Ax j = λ j xi
+
x j.
Es gilt aber auch
xi
+
A = A+ xi
+
= λi∗ xi
+
= λi xi
+
.
Damit erhalten wir insgesamt
(λi − λ j ) xi
+
x j = 0.
Da wir λi 6= λ j vorausgesetzt haben, müssen die Eigenvektoren orthogonal sein.
Bemerkung:
Für eine hermitische Matrix (A+ = A) gilt λ = λ ∗ . Somit sind die Eigenwerte reel.
30
2.6.8 Basiswechsel und Ähnlichkeitstransformationen
Vektoren kann man als Komponenten bezüglich einer gegebenen Basis darstellen. Mit der Basis
(e1 , . . . , en ) sei der Vektor v durch


v1


v = v1 e1 + · · · + vn en ,
mit dem Spaltenvektor
v =  ... 
vn
gegeben.
Wir wollen nun untersuchen wie sich die Koordinaten ändern, wenn wir auf eine alternative
Basis übergehen. Dafür führen wir eine neue Basis (e0 1 , . . . , e0 n ) ein. Die Basisvektoren seien
durch
n
e0 j = ∑ Si j ei
i=1
miteinander verknüpft. Damit ergibt sich für den Vektor v:
n
n
n
n
n
n
j=1
j=1
i=1
i=1
j=1
∑ v0j e0j = ∑ v0j ∑ Si j ei = ∑ ∑ v0j Si j
v = ∑ vi ei =
i=1
Wir identifizieren also:
!
ei .
n
vi =
∑ Si j v0j .
j=1
Kompakter lässt sich schreiben:
v = S v0
bzw.
v0 = S−1 v
mit der Transformationsmartrix S, die den Basiswechsel beschreibt.
Wir können in ähnlicher Weise die Transformation des linearen Operators A beschreiben. Es
gelte y = Ax in der Basis (e1 , . . . , en ). In der Basis (e01 , . . . , e0n ) lautet die Transformaion y0 = A0 x0 .
Mit der Relation von oben erhalten wir
y = Sy0 = Ax = ASx0
⇒
Sy0 = ASx0
⇒
y0 = S−1 ASx0 = A0 x0 .
Damit ergibt sich:
A0 = S−1 AS.
Die obige Gleichung ist ein Beispiel für eine Ähnlichkeitstransformation. Solche Ähnlichkeitstransformationen sind sehr nützlich, da sie Rechnungen stark vereinfachen können.
31
Für Ähnlichkeitstransformationen ergeben sich die folgenden Eigenschaften:
(i) Falls A = 1, dann gilt A0 = 1, da:
A0 = S−1 1S = S−1 S = 1.
(ii) Es gilt: det (A) = det (A0 ), da:
det A0 = det S−1 AS = det S−1 · det (A) · det (S) = det (A) · det S−1 S = det (A) .
(iii) Das charakteristische Polynom und damit die Eigenwerte von A stimmen mit denen von
A0 überein:
det A0 − λ 1 = det S−1 AS − λ 1 = det S−1 (A − λ 1)S = det S−1 det (A − λ 1) det (S)
= det (A − λ 1) .
(iv) Die Spur der Matrix bleibt unverndert:
tr A0 = ∑ A0ii = ∑ S−1 i j A jk Ski = ∑ Ski S−1 i j A jk = ∑ δk j A jk = ∑ A j j = tr (A) .
i
i jk
i jk
j
jk
Bemerkung:
Von besonderer Bedeutung sind unitäre Transformationen, bei denen S eine unitäre Matrix ist.
Unitäre Transformationen führen Orthonormalbasen ineinander über:
0
0
ei+ e j =


!+ 
∗
+ 
+
∑ δki ek ∗ ∑ δr j er = ∑ δik∗ ∑ δr j e|{z}
k er  = ∑ δik δk j = S S i j = δi j
r
r
k
k
k
δkr
Für unitäre Transformationen gilt ferner:
(i) Falls A hermitisch (antihermitisch), dann ist auch A0 hermitisch (antihermitisch).
(ii) Falls A unitär ist (d.h. A+ = A−1 ), dann ist auch A unitär.
zu(i)
0
(A )+ = (S+ AS)+ = S+ A+ S = ±S+ AS = ±A
zu(ii)
0
0
0
+
(A )+ A = (S+ AS)+ (S+ AS) = S+ A+ |{z}
SS+ AS = S+ A
AS = 1
|{z}
1
1
2.6.9 Diagonalisierung von Matrizen
A sei die Darstellung eines linearen Operators bzgl. der Basis (e1 , . . . , en ). Nun betrachten wir
eine alternative Basis x j = ∑ni=1 Si j ei , wobei x j die Eigenvektoren des linearen Operators A sind,
d.h. es gilt:
Ax j = λ j x j .
In der neuen Basis gilt: A0 = S−1 AS. Das Matrixelement
Si j ist dann einfach die i-te Komponente
1
2
n
des j-ten Eigenvektors, sodass wir S = x x . . . x erhalten.
32
Daraus folgt:
A0i j = S−1 AS
ij
= ∑ S−1
ik
Akl Sl j = ∑ S−1
ik
Akl x j
l
= ∑ S−1
kl
kl
Die Matrix A0 lautet also:



A0 = 

kl
λ1
0
..
.
0
λ2
..
.
···
0
..
.
0
···
..
.
0
···
0
λn
ik
λ j xkj = ∑ λ j S−1
S
ik k j
= λ j δi j
k



.

Damit ist das „Rezept“ zur Diagonalisierung von Matrizen vervollständigt. Da die Matrix S invertierbar sein muss, müssen die n-Eigenvektoren linear unabhängig sein und eine Basis des
zugehörigen Vektorraums bilden.
Beispiel: Wir wollen nun die Matrix


1 0 3
A =  0 −2 0 
3 0 1
diagonalisieren, falls möglich.
1.Schritt: Bestimmung der Eigenwerte

1−λ

0
det(A − λ 1) = det
3
0
−2 − λ
0

3
0  = (1 − λ )2 (−2 − λ ) + 9(2 + λ ) = (4 − λ )(λ + 2)2
1−λ
Damit lauten die Eigenwerte: λ1 = 4 & λ2 = λ3 = −2
2.Schritt: Bestimmung der Eigenvektoren
Aus Ax = 4x ergibt sich der normierte Eigenvektor
 
1
1  
1
√
0
x =
2
1
Wir betrachten nun das LGS:
Ax = −2x
also
I x1 + 3x3 = −2x1
⇒
II −2x2 = −2x2
III 3x1 + x3 = −2x3 = −2x3
x3 = −x1
⇒
x3 = −x1


s
Damit erhalten wir den allgemeinen Eigenvektor x =  b .
−s
Offensichtlich ist x orthogonal zu x1 für beliebige s, b (wie erwartet, da A symmetrisch ist und
folglich normal).
33
Für die Diagonalisierung ist es günstig mit einem Satz orthonormaler EV zu arbeiten, so dass
wir


 
1
0
1
1
und
x3 = √  1 
x2 = √  0 
2
2
−1
0
festlegen.
3.Schritt: Diagonalisierung von A
Die Transformationsmatrix S hat die Spaltenvektoren xi , so dass


1 √0
1
1
S= √  0
2 0 
2
1 0 −1




 
1 √0
1
1 √0
1
1 0 3
4 0
0
1
⇒ S+ AS =  0
2 0   0 −2 0   0
2 0  =  0 −2 0 
2
3 0 1
0 0 −2
1 0 −1
1 0 −1
34
Herunterladen