Höhere Mathematik I - Universität der Bundeswehr München

Werbung
Fakultät für Luft- und Raumfahrttechnik
Institut für Mathematik und Rechneranwendung
Universität der Bundeswehr München
Höhere Mathematik I
(Vorlesungsskript)
Univ. Prof. Dr. sc. math. K. Marti
2
Inhaltsverzeichnis
I. Vektoren im
Rn
1. Der geometrische Vektorbegriff — Vektoralgebra
1.1. Skalare Größen oder Skalare . . . . . . . . . . . . . .
1.2. Vektoren . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1. Geometrische Darstellung von Vektoren . . . .
1.2.2. Addition von Vektoren . . . . . . . . . . . . .
1.2.3. Multiplikation eines Vektors mit einem Skalar
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
9
12
14
2. Zahlen-n-Tupel
17
2.1. Darstellung eines Vektors ~x im kartesischen Koordinatensystem . . 17
2.2. Zahlen–n–Tupel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3. Multiplikation von n–Tupel bzw. Vektoren
3.1. Das Skalarprodukt . . . . . . . . . . . . . . . . . . . .
3.1.1. Das Skalarprodukt im Raum E 3 der Vektoren ~x,
3.1.2. Das Skalarprodukt im Rn . . . . . . . . . . . .
3.2. Die Norm (Betrag) eines n–Tuppels . . . . . . . . . . .
3.3. Die Schwarzsche Ungleichung . . . . . . . . . . . . . .
3.4. Das Vektorprodukt . . . . . . . . . . . . . . . . . . . .
3.4.1. Eigenschaften des Vektorproduktes . . . . . . .
. . . .
~y , . . .
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
25
29
31
31
33
34
4. Lineare Gleichungssysteme (LGS) — Teil I
37
4.1. Lineare Gleichungssysteme (LGS) . . . . . . . . . . . . . . . . . . . 38
4.1.1. Grundlegende Eigenschaften linearer Gleichungssysteme . . . 40
4.1.2. Darstellung eines LGS als n-Tupel - oder Vektorgleichung . . 44
II. Matrizen
45
5. Der Matrizenbegriff
47
3
Inhaltsverzeichnis
6. Operationen mit Matrizen
51
7. Die Inverse einer Matrix
55
8. Rang von Matrizen
8.1. Berechnung des Ranges einer (m, n)-Matrix A
8.1.1. Treppenmatrizen . . . . . . . . . . . .
8.1.2. Elementare Umformung von Matrizen .
8.1.3. Berechnung von RgA . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
59
60
60
61
62
9. Lösungsverfahren für LGS
69
9.1. Beschreibung der praktischen Durchführung des Lösungsverfahrens:
Gauss–Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
10.Determinanten
77
10.1. Cramersche Regel zur theoretischen Lösung von LGS: . . . . . . . . 82
III. Vektorräume
11.Definition des abstrakten Vektorraumes (VR)
Begriffen aus dem Rn
11.1. Dimensionsberechnung . . . . . . . . . . . .
11.2. Berechnung einer Basis von U . . . . . . . .
11.3. Berechnung von Orthonormalbasen . . . . .
11.3.1. Bedeutung von Orthonormalbasen . .
11.3.2. Konstruktion einer Orthonormalbasis
83
und Übertragung von
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
92
93
97
98
98
12.Lineare Abbildungen
103
12.1. Matrixdarstellung linearer Abbildungen . . . . . . . . . . . . . . . . 104
12.2. Produkte linearer Abbildungen . . . . . . . . . . . . . . . . . . . . 106
13.Basis– und Koordinatentransformationen
13.1. Basistransformationen und lineare Abbildungen
13.1.1. Transf. der Basis von Y . . . . . . . . .
13.1.2. Transf. der Basis von X . . . . . . . . .
13.1.3. Basistransf. von X und Y . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
IV. Eigenwerte und Eigenvektoren, Quadratische Formen
4
.
.
.
.
.
.
.
.
111
. 115
. 116
. 117
. 118
129
Inhaltsverzeichnis
14.Eigenwerte, Eigenvektoren, Quadratische Formen
131
14.1. Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . 131
14.2. Berechnung der Eigenvektoren zu einem Eigenwert . . . . . . . . . 133
14.3. Eigenwerte symmetrischer Matrizen . . . . . . . . . . . . . . . . . . 134
15.Hauptachsentransformation
139
15.1. Hauptachsentransformation quadratischer Formen . . . . . . . . . . 140
15.1.1. Basistransformation (Hauptachsentransformation) . . . . . . 141
15.2. Definitheitskriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
16.Norm einer Matrix
147
16.1. Eigenschaften der Operatornorm . . . . . . . . . . . . . . . . . . . . 148
16.2. Berechnung der Operatornorm . . . . . . . . . . . . . . . . . . . . . 150
Index
152
5
Inhaltsverzeichnis
6
Teil I.
Vektoren im
Rn
7
1. Der geometrische Vektorbegriff
— Vektoralgebra
Zur Beschreibung und theoretischen Erfassung physikalisch – technischer Beziehungen und Vorgänge (Prozesse) mit Hilfe mathematischer Modelle benötigt man
mathematische Begriffe, die alle wesentlichen Eigenschaften der betrachteten physikalischen Größen eindeutig erfassen.
Betrachtet man Größen, die in Naturwissenschaft, Technik und Ökonomie vorkommen, so findet man Skalare und Vektoren.
1.1. Skalare Größen oder Skalare
Skalare Größen oder Skalare sind z.B. Länge, Masse, Zeit, Temperatur, Energie,
Leitvermögen, Elektrizitätsmenge u.s.w.. Nach Festlegung einer Maßeinheit sind
skalare Größen eindeutig bestimmt durch eine Maßzahl λ. Maßzahlen sind reelle
Zahlen. Skalare lassen sich also auf der Zahlengeraden darstellen. Die reelle Zahl
λ gibt die Quantität der skalaren Größe an, die Maßeinheit gibt die qualitativen
Merkmale der skalaren Größen an.
Einheit
0
1
λ
Zahlengerade
1.2. Vektoren
Vektoren sind z.B. Kraft, Geschwindigkeit, Beschleunigung, Impuls, Strömung
u.s.w.. Größen, zu deren Beschreibung neben einer skalaren Größenangabe (Abmessung oder Betrag) zusätzlich eine Richtungsangabe erforderlich ist, heißen Vektoren.
1.2.1. Geometrische Darstellung von Vektoren
Vektoren werden durch gerichtete Strecken dargestellt, wobei die Länge der gerichteten Strecke die Größenordnung (Abmessung oder Betrag) des Vektors angibt.
1. Der geometrische Vektorbegriff — Vektoralgebra
Definition 1.1 (gerichtete Strecke) Für zwei beliebige Punkte P1 , P2 im Raum
−→
(Ebene, Geraden) sei P1 P2 die von P1 nach P2 gerichtete Strecke (der von P1
nach P2 weisende Pfeil).
−→
1
P2
P1 P2
P1
−→
P1 P2 ist eindeutig bestimmt durch:
• Anfangs- und Endpunkt P1 , P2 oder
• Anfangspunkt P1 und Länge und Richtung des Pfeils
Zum Vektorbegriff kommt man durch Betrachtung der gerichteten Strecken, die
äquivalent“ sind:
”
−→
Definition 1.2 (Äquivalent gerichtete Strecken) Zwei gerichtete Strecken P1 P2 ,
−→
−→
−→
Q1 Q2 nennt man äquivalent, in Zeichen P1 P2 ∼ Q1 Q2 , wenn sie dieselbe Länge
und dieselbe Richtung haben. Äquivalente Strecken können also durch Parallelverschiebung ineinander übergeführt werden.
Q0
`1
@`````
``
P
@
Q
P20 ``````
1 2
Q0000
`
@ 1
1XXX
1
Q0
@
@ X @
@
R
@
2 XXX
``
00 @ P 0 @
X
`
```
X @ P 000
Q1
1 X
Q000 ``` X
X
P1 @
@ 2
@
(
X
1
(
X
`(
@ XX 1 @
`
((
`
@
@
(
@
`@
(
X
(
`
R
@
R
@
`
XX@
(000
00
Q0000
((P
@
@
X(
2
@P2
(
X
(
X
(
Q
1
(
2
X
@
@ @
@((X
(
1(
(( @ @
@
R(((((
@
R
@
(
(
@
((
(
@(
(
Q000
Q002
2
P100
Äquivalent gerichtete Strecken werden zu sogenannten Äquivalenzklassen zusammengefasst.
Definition 1.3 (Äquivalenzklasse, Vektor) Unter einer Äquivalenzklasse, bezeichnet durch ~x, ~y , ~z, ~u, . . ., versteht man eine Menge gerichteter Strecken, so dass
−→
−→
P1 P2 , Q1 Q2 ∈ ~x
−→
⇐⇒
~x heißt dann auch freier Vektor (oder kurz Vektor).
10
−→
P1 P2 ∼ Q1 Q2
1.2. Vektoren
−→
Bemerkung: Für irgendein festes P1 P2 ∈ ~x gilt
−→
−→
−→
~x = {Q1 Q2 : Q1 Q2 ∼ P1 P2 }.
Man schreibt
−→
~x = [P1 P2 ]
−→
und sagt, der freie Vektor ~x werde durch die gerichtete Strecke P1 P2 repräsentiert.
P20000
P20
1Q
1PP
PP
Q
−→
P
P
Q
P10000
P10
PP
Q P1 P2
P
PP
1
Q
Q
PP
Q
P 00
Q
PP
2
Q
QQ PP
QQ
P
1
Q
P100
QQ
P2000
QQ
P1000
−→
kurz: ~x = [P1 P2 ]
1
P2
~x
P1
Weitere Bezeichnungsweisen für freie Vektoren:
• deutsche Buchstaben
• Fettdruck a, b
Definition 1.4 (Ursprung,Ortsvektor) Sei O ein beliebiger, aber fester Punkt
des Raumes (Ebene, Geraden). O heißt Ursprung oder Nullpunkt. Die gerich−→
−→
teten Strecken OP , OQ, . . . mit dem Ursprung O als Anfangspunkt heißen Ortsvektoren.
11
1. Der geometrische Vektorbegriff — Vektoralgebra
−→
Sei ~x = [P1 P2 ] ein beliebiger freier Vektor.
P2
*hhhhhh
h
~x hhh P hhh
h
* h
hhh
hh
P1 hh
h
h
hhhh
hhhh
hhh
hh O (Ursprung)
−→
Durch Parallelverschiebung von P1 P2 in den Ursprung O findet man einen Punkt
P , so dass
−→
−→
P1 P2 ∼ OP .
Es gilt also
−→
~x = [OP ],
d.h. freie Vektoren können durch Ortsvektoren repräsentiert werden.
1.2.2. Addition von Vektoren
−→
−→
−→
Seien ~x = [OP ], ~y = [OQ] zwei freie Vektoren, die durch die Ortsvektoren OP
−→
bzw. OQ repräsentiert werden.
Parallelogrammkonstruktion gemäß:
Newtonschem Kräfteparallelogramm
P = O00
~x 3PPP
P
PP
PP
PP
O
PP
P
~x + ~y
PP
P
P
-P
0P
P
PP
PP
PP
P
PP
P
~y
PP
P
PP
P
P
q
Q = O0
12
Q00
1.2. Vektoren
−→
Der Ortsvektor OP werde parallel verschoben
−→
OP
−→
−→ O0 P 0
−→
bis sein Anfangspunkt O0 mit dem Endpunkt Q von OQ übereinstimmt. Oder:
−→
OQ werde parallel verschoben
−→
−→
OQ −→ O00 Q00
−→
bis sein Anfangspunkt O00 mit dem Endpunkt P von OP übereinstimmt. Auch:
−→
OP wird im Punkt Q abgetragen.
−→
−→
Definition 1.5 (Summe) Seien ~x = [OP ] und ~y = [OQ] und R := P 0 = Q00
−→
wie im Newtonschen Kräfteparallelogramm konstruiert. Dann heißt ~x + ~y := [OR]
Summe von ~x und ~y , es gilt also ~x + ~y = [OP 0 ] = [OQ00 ]
Der Nullvektor ~0 wird repräsentiert durch eine Strecke deren Anfangs- und Endpunkt zusammenfallen, es gilt also
Definition 1.6 (Nullvektor) Der Nullvektor ist definiert durch ~0 = [P P ] =
[OO].
Der Nullvektor hat die Länge 0 und seine Richtung ist unbestimmt.
Definition 1.7 (Negative) Der Gegenvektor oder das Negative −~x zu einem
−→
−→
beliebigen Vektor ~x = [P1 P2 ], ist definiert durch −~x := [P2 P1 ].
((
*
(((
(
(
(
P
(
(
((
P(
2 (((
*(
r
H
HH
~x
~x HH
H
−~x (((((
O
((
(
(
(
(
(((
(
P1 rH
((
−~
H
x
HH
HH
P0
Es gelten folgende Rechenregeln
13
1. Der geometrische Vektorbegriff — Vektoralgebra
Satz 1.1 Für beliebige Vektoren ~x, ~y , ~z gilt
V 1) ~x + ~y = ~y + ~x
(Kommutativgesetz)
V 2) (~x + ~y ) + ~z = ~x + (~y + ~z)
V 3) ~x + ~0 = ~x
(Assoziativgesetz)
V 4) ~x + (−~x) = ~0
Bemerkung: Wegen (V2) schreibt man
(~x + ~y ) + ~z = ~x + ~y + ~z.
(Weglassen der Klammern)
Definition 1.8 (Differenz) Unter der Differenz ~x − ~y zweier Vektoren ~x, ~y versteht man den Vektor
~x − ~y := ~x + (−~y ).
Es gilt also für jedes ~x, ~y :
~x − ~x = ~x + (−~x) = ~0
(~x − ~y ) + ~y = (~x + (−~y )) + ~y = ~x
(gemäß Satz 1.1)
y
X
X
y
6 XXXX −~
XXX
P
XXX
XX
>
6 XXXX
XXX
XX
X
~
x
−
~
y
:
~x − ~y
~x ~x + ~y XX
XXX
O
XX
XXX
X
~y
z
X
Q
1.2.3. Multiplikation eines Vektors mit einem Skalar
−→
Definition 1.9 (λ-faches eines Vektors) Sei ~x = [P1 P2 ] irgend ein Vektor und
λ ∈ R eine beliebige Zahl.
Unter dem λ − f achen λ~x des Vektors ~x versteht man
a) λ~x := ~0
für λ = 0
−→
b) λ~x := [Q1 Q2 ]
14
für λ 6= 0,
1.2. Vektoren
−→
wobei Q1 Q2 wie folgt gewählt wird:
−→
−→
Länge von Q1 Q2 = |λ| · Länge von P1 P2
(
−→
−→
Richtung von P1 P2 f ür λ > 0
Richtung von Q1 Q2 =
−→
Richtung von P2 P1 f ür λ < 0
Es gelten folgende Rechenregeln:
Satz 1.2 Für beliebige Vektoren ~x, ~y und beliebige Zahlen λ, µ gilt:
V 5) λ(~x + ~y ) = λ~x + λ~y
Distributivgesetze
V 6) (λ + µ)~x = λ~x + µ~x
V 7) (λµ)~x = λ(µ~x)
Assoziativgesetz
V 8) 1~x = ~x
Ferner gilt:
λ~0 = ~0
0~x = ~0
(−1)~x = −~x
(−λ)~x = −(λ~x) = λ(−~x)
für
für
für
für
jedes λ ∈ R
jeden Vektor ~x
jedes ~x
jedes λ ∈ R und jeden Vektor ~x.
r 00
P
r 1
~xr P
0
r
P
1
~x
2
−~x 1
O r
)
)
1
(−
)~
x
r
2
)
(−2)~x
1
2~x
Definition 1.10 (Vektorraum) Sei E 3 bzw. E 1 die Menge alle Vektoren ~x =
−→
[P1 P2 ] mit beliebigen Punkten P1 , P2 des Raumes, einer Ebene oder einer Geraden.
Wegen der Eigenschaften (V1)-(V8) heißt E 3 (E 2 bzw. E 1 ) auch Vektorraum.
15
1. Der geometrische Vektorbegriff — Vektoralgebra
16
2. Zahlen-n-Tupel
2.1. Darstellung eines Vektors ~x im kartesischen
Koordinatensystem
Im dreidimensionalen Raum E 3 werde festgelegt:
• ein Ursprung durch Wahl eines festen Punktes O
−→
−→
−→
• ein Koordinatensystem durch 3 Ortsvektoren OE , OE , OE , die paarweise senkrecht stehen und die Länge 1 haben.
6
z – Achse
z~k = x3~k Z
Z
Z
Z
Z P
Z
E3 r~k 6
y~j = x2~j
~j
-r
y – Achse
~i Z
O Z E2
r
Z
Z
E1
Z
x~i = x1~i Z
-
x – Achse
−→
−→
Definition 2.1 (Einheitsvektoren) Die (freien) Vektoren ~i = [OE1 ], ~j = [OE2
−→
], ~k = [OE3 ] heißen Einheitsvektoren in x(x1 )- bzw. y(x2 )- bzw. z(x3 )-Richtung.
−→
Durch Projektion von OP auf die Koordinatenachsen ergibt sich:
17
2. Zahlen-n-Tupel
Satz 2.1 Jeder Vektor ~x lässt sich darstellen als Linearkombination
bzw.
~x = x1~i + x2~j + x3~k
~x = x~i + y~j + z~k
mit eindeutig bestimmten Koordinaten x1 , x2 , x3 bzw. x, y, z.
(x1 , x2 , x3 ) bzw. (x, y, z) sind natürlich die Koordinaten des Endpunktes P des
−→
Ortsvektors OP
Folgerung:
Satz 2.2 Bei festgehaltenem Koordinatensystem (O,~i, ~j, ~k) wird jeder Vektor ~x
−→
mit dem Ortsvektor OP (1-1-deutig) beschrieben durch sein Koordinatentripel
x = (x1 , x2 , x3 ) bzw.
x = (x, y, z)
(2.1)
Bemerkung: Sei (O,~i, ~j, ~k) ein festes Koordinatensystem. Wegen der 1-1-deutigen
−→
−→
Beziehung zwischen ~x = [OP ], dem ~x repräsentierenden Ortsvektor OP und dem
Koordinatentripel x von P werden diese mathematischen Objekte oft (bei geometrischen Problemen) identifiziert:
−→
−→
~x ”0=” OP ”0=” x oder kurz ~x = OP = x
Speziell gilt:
~0
−~x
”0=” 0 := (0, 0, 0)
”0=” −x := (−x1 , −x2 , −x3 )
(2.2)
(2.3)
~i ”0=” (1, 0, 0), ~j ”0=” (0, 1, 0), ~k ”0=” (0, 0, 1)
Für die Addition, Subtraktion von Vektoren und die Multiplikation von Vektoren
mit Zahlen gilt:
Satz 2.3 Seien x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) die Koordinatentripel von ~x bzw.
~y . Dann gilt:
a) ~x + ~y hat das Koordinatentripel
x + y := (x1 + y1 , x2 + y2 , x3 + y3 )
(2.4)
koordinatenweise Addition
18
2.2. Zahlen–n–Tupel
b) für jedes λ ∈ R hat λ~x das Koordinatentripel
λx := (λx1 , λx2 , λx3 )
(2.5)
koordinatenweise Multiplikation mit λ
c) ~x − ~y hat das Koordinatentripel
x − y := (x1 − y1 , x2 − y2 , x3 − y3 )
(2.6)
koordinatenweise Subtraktion
Bemerkung: Es sei ~x ”0=” x und ~y ”0=” y. Dann gilt:
~x = ~y genau dann, wenn x = y
2.2. Zahlen–n–Tupel
In Verallgemeinerung der Koordinatentripel (2.1) findet man die Zahlen–n–Tupel:
Definition 2.2 (Tupel) Seien x1 , x2 , . . . , xn irgendwelche reelle Zahlen. Unter einem n–Tupel von Zahlen oder (Zahlen–) n–Tupel versteht man jede geordnete
Menge


x1
 x2 


x = (x1 , x2 , . . . , xn ) oder x =  .. 
 . 
xn
Zeilendarstellung
Spaltendarstellung
von Zahlen x1 , x2 , . . . , xn . Die Zahlen xk , k = 1, 2, . . . , n heißen die Koordinaten
des n–Tupels x.
Gleichheit von n–Tupel
Gemäß Definition 2.2 ist
x=y
⇐⇒
xk = yk für alle k = 1, 2, . . . , n
Praktische Bedeutung der n–Tupel
Mathematische Beschreibung eines Objektes, das durch n Zahlen, z.B. Messgrößen,
x1 , x2 , x3 , . . . , xn charakterisiert werden kann.
19
2. Zahlen-n-Tupel
Beispiele:
x = (x1 , x2 , x3 ) :
– Punkt P (x1 , x2 , x3 ) im Raum
– Vektor ~x = x1~i + x2~j + x3~k
– Quader mit Seitenlängen x1 , x2 , x3 > 0
u = (t, x, y, z, 0, 0, vz ) : Rakete, die sich im Zeitpunkt
t im Punkt P (x, y, z) befindet und
sich mit Geschwindigkeit vz in
z-Richtung bewegt.
Rechnen mit n–Tupeln
In Verallgemeinerung von (2.3) – (2.7) definiert man:
Definition 2.3 Seien x = (x1 , x2 , . . . , xn ), y = (y1 , y2 , . . . , xn ) zwei n–Tupel,
λ ∈ R eine beliebige Zahl
a) Summe zweier n–Tupel
x + y := (x1 + y1 , x2 + y2 , . . . , xn + yn )
Addition: durch koordinatenweise Addition
b) Multiplikation mit einem Skalar
λx := (λx1 , λx2 , . . . , λxn )
Multiplikation mit Skalar λ: durch koordinatenweise Multiplikation mit λ
c) Differenz zweier n–Tupel
x − y := (x1 − y1 , x2 − y2 , . . . , xn − yn )
Subtraktion: durch koordinatenweise Subtraktion
Weitere Bezeichnungen
0 := (0, 0, . . . , 0)
|
{z
}
Null-Tupel oder Nullelement
n Nullen
−x := (−x1 , −x2 , . . . , −xn ) das zu x negative n–Tupel
Rn := Menge aller n–Tupel, Rn heißt n–dimensionaler Zahlenraum .
Bemerkung
a)
R1 lässt sich mit R (=Menge der reellen Zahlen) identifizieren.
b) Wegen (2.1), also ~x ”0=” x = (x1 , x2 , x3 ), besteht zwischen E 3 und
tige Beziehung !
20
R3 eine 1-1-deu-
2.2. Zahlen–n–Tupel
Wie bei Vektoren gelten folgende Rechenregeln:
−x = (−1)x
λ0 = 0 für alle λ ∈ R
λx = 0 =⇒ λ = 0 oder x = 0
−(λx) = (−λ)x = λ(−x)
x − y = x + (−y)
Satz 2.4 Für beliebige n–Tupel x, y, z und Skalare λ, µ gelten dieselben Rechenregeln (V 1) – (V 8) (siehe Satz 1.1 und Satz 1.2) wie für Vektoren ~x, ~y , ~z und Skalare
λ, µ.
Spezielle n–Tupel
e1 := (1, 0, . . . , 0)
e2 := (0, 1, . . . , 0)
..
.
n Koordinaten
en := (0, 0, . . . , 1)
Offensichtlich hat jedes x ∈ Rn die Darstellung:
x = (x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + . . . + xn en =
n
X
xk ek
k=0
Vergleich: Gemäß Satz 2.1 gilt für jedes ~x ∈ E 3
~x = x1~i + x2~j + x3~k
Definition 2.4 (Linearkombination) Sind x1 , x2 , . . . , xr beliebige n–Tupel, also
xi = (xi1 , xi2 , . . . , xin ), i = 1, 2, . . . , r, und λ1 , λ2 , . . . , λr irgendwelche Zahlen, dann
heißt das n–Tupel
r
X
y=
(2.7)
λi x i
i=1
eine Linearkombination von x1 , x2 , . . . , xr .
Analog definiert man Linearkombinationen von Vektoren ~x1 , ~x2 , . . . , ~xr aus E 3 .
21
2. Zahlen-n-Tupel
Beispiele:
(a) Jedes x ist eine Linearkombination von e1 , e2 , . . . , en .
(b) Jedes ~x ist eine Linearkombination von ~i, ~j, ~k.
(c) Gegeben sei das LGS
x1 − x2 − x3 + 2x4 = 0
−x1 + 2x2 + x3 + 3x4 = 0
(∗)
x = (1, 0, 1, 0), y = (−7, −5, 0, 1) sind zwei Lösungen von
(∗)
Es gilt dann: Jede Linearkombination
z = λx + µy = (λ − 7µ, −5µ, λ, µ), λ, µ ∈ R
von x und y ist wieder eine Lösung von (∗).
=⇒
(∗) hat ∞ viele Lösungen!
Speziell ist 0 = 0x + 0y eine Lösung von (∗).
Definition 2.5 (Lineare Abhängigkeit – Unabhängigkeit) Die n–Tupel x1 , x2 , . . . , xr
bzw. Vektoren ~x1 , ~x2 , . . . , ~xr heißen linear abhängig, wenn es Zahlen λ1 , λ2 , . . . , λr
gibt, so dass
r
X
λi xi = 0 bzw.
r
X
λi~xi = ~0,
(2.8)
i=1
i=1
wobei λi 6= 0 für mindestens ein 1 ≤ i ≤ r.
Die n–Tupel x1 , x2 , . . . , xr bzw. Vektoren ~x1 , ~x2 , . . . , ~xr heißen linear unabhängig,
wenn sie nicht linear abhängig sind, d.h. wenn
r
X
λi x i = 0
=⇒
λ1 = λ2 = · · · = λr = 0
λi~xi = ~0
=⇒
λ1 = λ2 = · · · = λr = 0.
i=1
bzw.
r
X
i=1
Beispiele:
22
2.2. Zahlen–n–Tupel
a) Sei x = (1, 1, 1), y = (− 12 , 0, − 12 ), z = (0, 1, 0).
=⇒ z = x + 2y
=⇒ x + 2y + (−1)z = 0
=⇒ x, y, z sind linear abhängig.
b) e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)
Zu untersuchen:
Gleichung λ1 e1 + λ2 e2 + λ3 e3 = 0
|
{z
}
= (λ1 , λ2 , λ3 )
=⇒
λ1 = λ2 = λ3 = 0
=⇒
e1 , e2 , e3 sind linear unabhängig
Folgerung:
Wegen ~i ”0=” e1 , ~j ”0=” e2 , ~k ”0=” e3 sind auch die Vektoren ~i, ~j, ~k linear unabhängig !
Beweis: Wegen Satz 2.3 ist
λ1~i + λ2~j + λ3~k ”0=”(λ1 , λ2 , λ3 ),
also ist λ1~i + λ2~j + λ3~k = ~0
=⇒
λ1 = λ2 = λ3 = 0.
c) e1 , e2 , . . . , en sind linear unabhängige n–Tupel
d) Gegeben seien: a = (3, −2, 1), b = (0, −1, 1), c = (0, 0, 2)
Das Gleichungssystem (9) lautet hier
3λ1
=0
−2λ1 + λ2
=0
λ1 − λ2 + 2λ3 = 0.
Daraus folgt λ1 = λ2 = λ3 = 0, a, b, c sind also linear unabhängige Tripel.
Charakterisierung der linearen Abhängigkeit/Unabhängigkeit
Satz 2.5 Die n–Tupel x1 , x2 , . . . , xr bzw. Vektoren ~x1 , ~x2 , . . . , ~xr sind genau dann
linear abhängig, wenn sich mindestens ein Element xj bzw. ~xj als Linearkombination der restlichen Elemente
x1 , x2 , . . . , xj−1 , xj+1 , . . . , xr
bzw. ~x1 , ~x2 , . . . , ~xj−1 , ~xj+1 , . . . , ~xr
darstellen lässt.
Beweis:
23
2. Zahlen-n-Tupel
a) x1 , x2 , . . . , xr seien linear abhängig.
Nach Definiton 2.5 gibt es dann Zahlen λ1 , λ2 , . . . , λr , so dass
r
P
λi xi = 0 und λi 6= 0 für mindestens ein i = i0 .
i=1
Daraus folgt
0=
P
i6=i0
also wie behauptet xi0 =
b) Ist umgekehrt xj =
P
P
i6=i0
− λλii
o
λi xi + λi0 xi0 ,
xi .
µi xi für ein 1 ≤ j ≤ r, dann folgt
i6=j
0=
j−1
P
µi xi + (−1)xj +
i=1
r
P
µi x i ,
i=j+1
d.h. x1 , x2 , . . . , xr sind linear abhängig.
Korollar 2.1 Zwei n–Tupel x, y bzw. Vektoren ~x, ~y sind genau dann linear abhängig,
wenn
x = λy oder y = µx bzw. ~x = λ~y oder ~y = µ~x mit λ, µ ∈ R
Solche Vektoren nennt man auch parallel oder kollinear.
Korollar 2.2 Ein n–Tupel x bzw. ein ~x ist genau dann linear abhängig, wenn
x = 0 bzw. ~x = ~0.
24
3. Multiplikation von n–Tupel bzw.
Vektoren
3.1. Das Skalarprodukt
3.1.1. Das Skalarprodukt im Raum E 3 der Vektoren ~x, ~y , . . .
Definition 3.1 (Skalarprodukt I) Unter dem Skalarprodukt ~x · ~y oder <~x, ~y>
zweier Vektoren ~x, ~y ∈ E 3 versteht man die Zahl
~x · ~y = k~xk · k~y k · cos ϕ,
wobei k~xk, k~y k die Länge der Vektoren ~x bzw. ~y bezeichnet und ϕ der Winkel zwischen ~x und ~y ist.
P
3
~x ϕ
O
k~xk · cos ϕ =
~
x·~
y
k~
yk
-
Q
~y
Beispiele:
a) ~x · ~0 = 0 für jedes ~x ∈ E 3 , da k~0k = 0.
b) ~i · ~i
~j · ~j
~k · ~k
~i · ~j
~i · ~k
~j · ~k
= 1, da k~ik = 1 und <
) (~i,~i) = 0
=1
=1
= 0, da <
) (~i, ~j) = 90◦
=0
=0
c) Für ~x, ~y 6= ~0 gilt ~x · ~y = 0
⇐⇒







 ~i, ~j, ~k stehen paarweise senkrecht und



haben die Länge 1




~x steht senkrecht auf ~y
(3.1)
3. Multiplikation von n–Tupel bzw. Vektoren
d) ~x · ~x = k~xk · k~xk · 1, da <
) (~x · ~x) = 0
= k~xk2
√
oder k~xk = ~x · ~x
Es ist k~xk = 0
Länge (Betrag oder Norm) von ~x
⇐⇒
~x = ~0.
Durch geometrische Überlegungen findet man folgende Rechenregeln:
Satz 3.1 Für beliebige Vektoren ~x, ~y , ~z und jedes λ ∈ R gilt:
a) ~x · ~y = ~y · ~x
(Kommutativität)
b) ~x · (~y + ~z) = ~x · ~y + ~x · ~z
(Distributivität)
c) ~x · (λ~y ) = (λ~x) · ~y = λ · ~x · ~y
d) ~x · ~y = 0 ⇐⇒ ~x = ~0 oder ~y = ~0 oder <
) (~x, ~y ) =
(Homogenität)
π
2
Beweis:
(a), (c), (d) sind offensichtlich, (b) ergibt sich gemäß folgender Konstruktion:
:
3
~z ~y
~y + ~z
~
x
-
|
|
{z
~
x·~
y
k~
xk
}|
{z
~
x·~
z
k~
xk
{z
~
x·(~
y +~
z)
k~
xk
}
}
Koordinatendarstellung des Skalarproduktes
Gemäß Satz 2.1 gilt für je zwei Vektoren ~x, ~y die Darstellung
)
~x = x1~i + x2~j + x3~k
mit eindeutig bestimmten Koordinaten xi bzw. yi
~y = y1~i + y2~j + y3~k
Wegen Satz 3.1 gilt:
26
3.1. Das Skalarprodukt
x1 y1~i · ~i + x1 y2~i · ~j + x1 y3~i · ~k +
~x · ~y =
+ x2 y1~j · ~i + x2 y2~j · ~j + x2 y3~j · ~k +
+ x3 y1~k · ~i + x3 y2~k · ~j + x3 y3~k · ~k
=
x1 y1 + x2 y2 + x3 y3
Satz 3.2 Sind x1 , x2 , x3 bzw. y1 , y2 , y3 die Koordinaten von ~x bzw. ~y bezüglich
(der Basis) ~i, ~j, ~k, dann gilt:
~x · ~y = x1 y1 + x2 y2 + x3 y3 .
(3.2)
Speziell gilt:
~x · ~x = x21 + x22 + x23 ,
also
q
√
k~xk = ~x · ~x = x21 + x22 + x23
(Länge von ~x).
(3.3)
x3
6
Z
Z
Z
Z
Z
Länge =
Z
~x ~k
6
~j
~i Z Z
Z
p
x21 + x22 Z
p
x21 + x22 + x23
x
-2
Z
x1
Winkelberechnung
a) Allgemeine Winkelberechnung
27
3. Multiplikation von n–Tupel bzw. Vektoren
Pr
*
~x ϕ
-r
O
~y
Q
−→
−→
Für den Winkel ϕ zwischen zwei Vektoren ~x, ~y (genauer Ortsvektoren OP ,OQ)
gilt nach Definition 3.1
·~
y
cos ϕ = k~x~xk·k~
yk
Sind x1 , x2 , x3 bzw. y1 , y2 , y3 die Koordinaten von ~x, ~y (bezüglich ~i, ~j, ~k), dann
gilt nach Satz 3.2
cos <
) (~x, ~y ) = √ 2x1 y12+x22y√2 +x2 3 y32 2 .
x1 +x2 +x3
28
y1 +y2 +y3
3.1. Das Skalarprodukt
b) Cosinus–Satz
B
B
α B
~a
B ~b
B
B
B
B
-BN
~c
Es ist ~c = ~b − ~a, also
k~ck2 = (~b − ~a) · (~b − ~a)
= k~bk2 − 2~a · ~b + k~ak2
= k~bk2 − 2k~ak · k~bk · cos α + k~ak2 , oder
k~ck2 = k~ak2 + k~bk2 − 2k~ak · k~bk · cos α
Eigenschaften der Länge k~xk von ~x
Satz 3.3 Es gilt:
a) k~xk ≥ 0
b) k~xk = 0
⇐⇒
~x = ~0
c) kλ~xk = |λ| · k~xk für jedes λ ∈ R
Weitere Eigenschaften folgen später.
3.1.2. Das Skalarprodukt im
Rn
Definition 3.2 (Skalarprodukt II) Unter dem Skalarprodukt <x, y> zweier n–
Tupel x, y versteht man die Zahl
<x, y>:=
n
X
xk yk
|k=1{z }
V erallgemeinerung von (3.2)
Beispiele:
a) <x, 0> = 0 für alle x
b) <ei , ej> = 0 für i 6= j
<ei , ei> = 1 für alle i, wobei ei = (0, . . . , 0, 1, 0, . . . , 0)
z
}|
{
i−te Stelle
29
3. Multiplikation von n–Tupel bzw. Vektoren
Nach (3.1) gilt:
~x · ~y = 0
~x ⊥ ~y (~x, ~y 6= ~0)
⇐⇒
Man definiert deshalb:
Definition 3.3 (Orthogonalität)
a) Zwei n–Tupel x, y 6= 0 heißen orthogonal,
x ⊥ y, falls <x, y>= 0.
b) Gilt für n–Tupel x1 , x2 , . . . , xr 6= 0
<xi , xj>= 0 für i 6= j,
dann heißt {x1 , x2 , . . . , xr } ein Orthogonalsystem.
c) Gilt für n–Tupel x1 , x2 , . . . , xr 6= 0
<xi , xj>=
0 für i 6= j
1 für i = j
dann heißt {x1 , x2 , . . . , xr } ein Orthonormalsystem.
Beispiel:
e1 , e2 , . . . , en ist ein Orthonormalsystem.
Eigenschaften des Skalarproduktes im
Rn
Satz 3.4 Für alle n–Tupel x, y, z ∈ Rn und jedes λ ∈ R gilt:
a) <x, y>=<y, x>
b) <x, y + z>=<x, y> + <x, z>
c) <λx, y>=<x, λy>= λ <x, y>
d) <x, x>≥ 0, <x, x>= 0
⇐⇒
x=0
Beweis: Durch Ausrechnen !
Bemerkung: Die Eigenschaften von ~x · ~y (siehe Satz 3.1) und <x, y> stimmen
überein!
30
3.2. Die Norm (Betrag) eines n–Tuppels
3.2. Die Norm (Betrag) eines n–Tuppels
Nach (3.2) gilt:
q
k~xk = x21 + x22 + x23 = Länge von ~x
Man definiert deshalb:
Definition 3.4 (Norm) Unter der Norm (Betrag) k~xk eines n–Tupels x versteht man die Zahl
! 21
n
X
√
kxk = <x, x> =
x2k
k=1
Beispiele:
kxk =
a) n = 1: x = (x1 ) =⇒
n = 2: x = (x1 , x2 )
p
x21 = |x1 |
x2 r
Betrag von x1
rP
3
l
l=
p
−→
x21 + x22 = Länge OP
O
r
x1
b) kei k = 1 für alle i = 1, 2, . . . , n
Satz 3.5 Für die Norm kxk im
Rn gilt analog zu Satz 3.3
a) kxk ≥ 0
b) kxk = 0
⇐⇒
x=0
c) kλxk = |λ| · kxk ∀λ ∈ R, x ∈ Rn
Beweis: Durch Ausrechnen !
3.3. Die Schwarzsche Ungleichung
Satz 3.6 (Schwarzsche Ungleichung)
a) Für beliebige n–Tupel x, y gilt:
| <x, y> | ≤ kxk · kyk
31
3. Multiplikation von n–Tupel bzw. Vektoren
b) Für beliebige Vektoren ~x, ~y ∈ E 3 gilt:
|~x · ~y | ≤ k~xk · k~y k
Beweis: Wegen (3.2) folgt (b) aus (a).
Beweis von (a):
a1) Sei x = 0 oder y = 0
=⇒ <x, y>= 0 und kxk = 0 oder kyk = 0.
a2) Sei x 6= 0 und y 6= 0
Betrachte die Funktionen Q = Q(t), t ∈ R,
Q(t) :=<x + ty, x + ty>= kx + tyk2
Es gilt:
i) Q(t) ≥ 0 für alle t ∈ R
Q∗ = min Q(t) ≥ 0
=⇒
2
2
t∈
ii) Q(t) = kxk + 2t <x, y> +t kyk
Minimalpunkt von Q : t∗ = −
=⇒
R
2
<x,y>
kyk2
0 ≤ Q∗ = Q(t∗ ) = kxk2 −
<x,y>2
kyk2
=⇒ <x, y>2 ≤ kxk2 · kyk2
=⇒
| <x, y> | ≤ kxk · kyk
Folgerung:
Satz 3.7 (Dreiecks–Ungleichung)
a) Für alle n–Tupel x, y gilt:
kx + yk ≤ kxk + kyk
b) Für alle ~x, ~y ∈ E 3 gilt:
k~x + ~y k ≤ k~xk + k~y k
Beweis:
a) Mit Satz 3.6 ist
32
3.4. Das Vektorprodukt
kx + yk2 = <x + y, x + y>
= kxk2 + 2 <x, y> +kyk2
≤ kxk2 + 2kxk · kyk + kyk2
= (kxk + |yk)2 ,
also ist
kx + yk ≤ kxk + kyk.
Ebenso zeigt man b).
Geometrische Interpretation
~x + ~y
~x *
x
~
O
-
~y
Die Summe der Längen zweier 4–Seiten ist ≥ der Länge der dritten Seite.
Aus Satz 3.3, Satz 3.5, Satz 3.7 folgt für k.k
Satz 3.8 Für beliebige n–Tupel x, y bzw. Vektoren ~x, ~y gilt:
a) kxk ≥ 0
b) kxk = 0
a) k~xk ≥ 0
⇐⇒
b) k~xk = 0
x=0
⇐⇒
~x = ~0
c) kλxk = |λ| · kxk
c) kλ~xk = |λ| · k~xk
d) kx + yk ≤ kxk + kyk
d) k~x + ~y k ≤ k~xk + k~y k
3.4. Das Vektorprodukt
Definition 3.5 (Vektorprodukt) Unter dem Vektorprodukt ~c = ~a × ~b zweier
Vektoren ~a, ~b ∈ E 3 versteht man den (eindeutig bestimmten) Vektor ~c, so dass
1. k~ck = k~ak · k~bk · sin α
mit
α =<
) (~a, ~b), 0 ≤ α ≤ π
2. ~c steht senkrecht auf ~a und ~b
3. ~a, ~b, ~c bilden ein Rechtssystem, d.h. dreht man den ersten Faktor ~a auf dem
33
3. Multiplikation von n–Tupel bzw. Vektoren
kürzesten Weg in die Richtung des zweiten Faktors ~b, so zeigt ~c = ~a × ~b in
Richtung in die sich eine Rechtsschraube bewegen würde.
(Rechtsschraubenregel oder Korkenzieherregel)
6
6
~c = ~a × ~b
~b × ~a
*PPP
PP
~b PP
PP
A
F
A
α
A
PP
PP
A
PP
A
~a
PP
A
q
P
?
F sei der Flächeninhalt des von ~a, ~b aufgespannten Parallelogramms.
Es ist
F = g · h = k~bk · (k~ak · sin α) = k~ak · k~bk · sin α = k~ck
Somit gilt:
k~ck = F = Fläche des von ~a, ~b aufgespannten Parallelogramms
3.4.1. Eigenschaften des Vektorproduktes
a) ~a × ~a = ~0 (wegen sin <
) (~a, ~a) = 0)
b) ~a × ~b = ~0
c) ~a ⊥ ~b
=⇒
⇐⇒
~a = ~0 oder ~b = ~0 oder <
) (~a, ~b) = 0 oder π
k~a × ~bk = k~ak · k~bk
d) ~b × ~a = −~a × ~b (also ~a × ~b 6= ~b × ~a)
Satz 3.9 Für beliebige Vektoren ~a, ~b, ~c ∈ E 3 und beliebiges λ ∈ R gilt:
a) (λ~a) × ~b = ~a × (λ~b) = λ~a × ~b
b) ~a × (~b + ~c) = ~a × ~b + ~a × ~c
c) (~a + ~b) × ~c = ~a × ~c + ~b × ~c
34
3.4. Das Vektorprodukt
Beweis: Mittels geometrischer Überlegungen !
Koordinatendarstellung des Vektorproduktes
Nach Satz 2.1 ist
~a = a1~i + a2~j + a3~k
mit eindeutig bestimmtem
a = (a1 , a2 , a3 )
~b = b1~i + b2~j + b3~k
mit eindeutig bestimmtem
b = (b1 , b2 , b3 ).
Nach Satz 3.9 darf man Klammern ausmultiplizieren, es gilt:
~a × ~b =
(a1~i + a2~j + a3~k) × (b1~i + b2~j + b3~k)
=
a1 b1~i × ~i + a1 b2~i × ~j + a1 b3~i × ~k +
+ a2 b1~j × ~i + a2 b2~j × ~j + a2 b3~j × ~k +
+ a3 b1~k × ~i + a3 b2~k × ~j + a3 b3~k × ~k
Nach Definition 3.3 gilt:
~i × ~j = ~k,
~i × ~k = −~j,
~j × ~k = ~i,
~j × ~i = −~k,
~k × ~i = ~j,
~k × ~j = −~i
~i × ~i = ~j × ~j = ~k × ~k = ~0.
Somit gilt:
Satz 3.10 Sind a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) die Koordinaten–Tripel von ~a, ~b,
dann gilt:
~a × ~b = (a2 b3 − a3 b2 )~i + (a3 b1 − a1 b3 )~j + (a1 b2 − a2 b1 )~k
~a × ~b = a × b := (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ).


~i a1 b1
Merkregel: ~a × ~b = det  ~j a2 b2  (siehe Kapitel 10).
~k a3 b3
oder
35
3. Multiplikation von n–Tupel bzw. Vektoren
36
4. Lineare Gleichungssysteme (LGS)
— Teil I
Seien a1 , a2 , . . . , an beliebige, aber fest vorgegebene Zahlen und x ∈ Rn
Definition 4.1 (Linearform, Lineare Funktion) Die Funktion y = L(x) = L(x1 , x2 , . . . , xn ) =
n
P
ak xk heißt eine Linearform in x (in den Variablen x1 , x2 , . . . , xn ).
k=1
Ist b eine weitere Konstante, so heißt y = L(x) + b eine lineare Funktion in x.
Beispiel:
n = 3: L1 (x) = 4x1 −x2
L2 (x) =
x2 + x3
L3 (x) = 4x1 +x2 + 2x3




sind Linearformen in x ∈ R



Satz 4.1 (Eigenschaften von Linearformen) Sind L1 (x), L2 (x) zwei Linearformen in x ∈ Rn und λ ∈ R, so sind auch
a) L(x) := L1 (x) + L2 (x) und L(x) := λL1 (x) wieder Linearformen
b) L(x + y) = L(x) + L(y) und L(λx) = λL(x).
Beweis:
a) L1 (x) = a11 x1 + a12 x2 + . . . + a1n xn =
n
P
a1k xk ,
L2 (x) =
k=1
n
P
a2k xk
k=1
Linearform in x
=⇒
L(x) := L1 (x) + L2 (x) =
n
P
a1k xk +
k=1
n
P
a2k xk =
k=1
Linearform in x
=⇒
z
}|
{
n
n
X
P
a1k xk =
(λa ) x
L(x) := λL1 (x) = λ
| {z1k} k
k=1
k=1
z
n
X
}|
{
(a1k + a2k ) xk
| {z }
k=1
neue konst. Koeff.
4. Lineare Gleichungssysteme (LGS) — Teil I
neue konst. Koeff.
b) rechnet man leicht nach !
4.1. Lineare Gleichungssysteme (LGS)
Obiges Beispiel: L3 (x) = L1 (x) + 2L(x)
Seien nun L1 , L2 , . . . , Lm
=⇒
m gegebene Linearformen in x ∈ Rn
es gibt eine sog. Matrix A von m · n Zahlen (Konstante Koeffizenten)





A=



a11 a12 . . . a1k
a12 a22 . . . a2k
..
..
..
.
.
.
ai1 ai2 . . . aik
..
..
..
.
.
.
am1 am2 . . . amk
. . . a1n
. . . a2n
..
.
. . . ain
..
.
. . . amn









⇐⇒
⇐⇒
L1
L2
..
.
⇐⇒
Li
..
.
⇐⇒ Lm
so dass
L1 (x) =
..
.
Li (x) =
..
.
Lm (x) =
n
P
a1k xk
k=1
n
P
aik xk = ai1 x1 + ai2 x2 + . . . + aik xk + . . . + ain xi
k=1
n
P
amk xk .
k=1
Definition 4.2 (Lineares Gleichungsssystem) Sind dann b1 , b2 , . . . , bm weitere
Zahlen, so heißt

L1 (x) = b1 


..


.

Li (x) = bi
(LGS)


..


.


Lm (x) = bm
ein lineares Gleichungssystem (LGS) in x (in den Unbekannten x1 , x2 , . . . , xn ).
Die Konstanten aik heißen die Koeffizienten des LGS. Das m–Tupel b =
(b1 , b2 , . . . , bm ) heißt die rechte Seite des LGS.
38
4.1. Lineare Gleichungssysteme (LGS)
Homogenes LGS: bi = 0, für alle i = 1, 2, . . . , m
Inhomogenes LGS
: mindestens ein bi 6= 0
Definition 4.3 Eine Lösung eines LGS ist jedes n–Tupel x = (x1 , x2 , . . . , xn ), so
dass Li (x) = bi für jedes i = 1, 2, . . . , m.
Beispiel:


a b c
A= 0 d e 
0 0 f
=⇒
ax1 + bx2 + cx3 = b1
dx2 + ex3 = b2
f x 3 = b3
Fall 1: a 6= 0, d 6= 0, f 6= 0
=⇒
x3 =
b3
,
f
x2 =
1
d
b2 −
b3
f
, x1 =
1
a
b1 −
b
d
b2 −
e bf3
−
cb3
f
=⇒ eindeutig bestimmte Lösung
Fall 2: a 6= 0, d 6= 0, f = 0
b3 6= 0
=⇒
0 · x3 = b3 6= 0
=⇒ Widerspruch =⇒ LGS nicht lösbar
b3 = 0
=⇒
0 · x 3 = b3 = 0
=⇒
x3 kann beliebige Werte annehmen
Weiter gilt x2 = d1 (b2 − ex3 ) und x1 = a1 b1 − db (b2 − ex3 ) − cx3
=⇒ LGS hat ∞ viele Lösungen
Praktische Verwendung LGS
— Ausgleichsprobleme
— Stromverteilung in Netzwerken
— Beschreibung von Input − Output−
prozessen (Produktionsprozesse)
— Mischungs- /Legierungsprobleme
— Lösung von DGLn
— Statik
Berechnung eines Netzwerkes
x = (x1 , x2 , x3 , x4 , x5 , x6 ) mit xk = (absolute) Stromstärke im betreffenden Leiter
39
4. Lineare Gleichungssysteme (LGS) — Teil I
@
R2
x2
@
@
@
@
@
@ @
@ R@
1
@ @
@ @
@
x1
I
@
@
@
@
R5
@
x4
@
x3
@
I
@
@
@ @
x
@
@
?5
@ R@
R4
3
@ @
@
@ @
@
@
?
@
-
6x6
R6
-
V
Kirchhoffsche Gesetze
−x1
x1
−x4
−x2
x2
R1 x1
R2 x 2
R1 x1 +R2 x2
+x6 = 0
−x5
= 0
+x3
−x6 = 0
−R4 x4 +R5 x5
= 0
−R3 x3
−R5 x5
= 0
+R6 x6 = V








LGS für Stromstärke x







4.1.1. Grundlegende Eigenschaften linearer Gleichungssysteme
A) Homogene LGS (HLGS)
a11 x1 + a12 x2 + . . . + a1n xn = 0
a21 x1 + a22 x2 + . . . + a2n xn = 0
..
..
..
..
.
.
.
.
am1 x1 + am2 x2 + . . . + amn xn = 0
Satz 4.2 (Eigenschaften homogener linearer Gleichungssysteme)
ab
(a) Ein HLGS hat zumindest die Lösung x = 0
40
4.1. Lineare Gleichungssysteme (LGS)
(b) Sind u, v zwei Lösungen eines HLGS, so sind auch u + v, λu und
λu + µv für alle λ, µ ∈ R wieder Lösungen des HLGS.
Beweis: Mit Satz 4.1b !
Beispiel: x = (1, 0, 1, 0), y = (−7, −5, 0, 1) sind 2 Lösungen von
x1 − x2 − x3 + 2x4 = 0
(4.1)
−x1 + 2x2 + x3 + 3x4 = 0
Satz 4.2
=⇒
λx + µy = (λ − 7µ, −5µ, λ, µ) sind wieder Lösungen von (4.1)
für alle λ, µ ∈ R.
B) Inhomogene LGS (ILGS)
Definition 4.4 Ist
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
..
..
..
.
.
.
.
am1 x1 + am2 x2 + · · · + amn xn = bm
ein inhomogenes LGS, so heißt
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
..
..
..
..
.
.
.
.
am1 x1 + am2 x2 + · · · + amn xn = 0
das zugehörige homogene System.
Satz 4.3 (Eigenschaften inhomogener linearer Gleichungssystemem)
(a) Sind u = (u1 , u2 , . . . , un ), v = (v1 , v2 , . . . , vn ) zwei Lösungen des
ILGS, so ist w = u − v = (u1 − v1 , u2 − v2 , ldots, un − vn ) eine
Lösung des zugehörigen HLGS.
(b) Ist u = (u1 , u2 , . . . , un ) irgend eine spezielle Lösung des ILGS und
y = (y1 , y2 , . . . , yn ) eine beliebige Lösung des zugehörigen homogenen LGS, so ist z = u + y = (u1 + y1 , u2 + y2 , . . . , un + yn ) wieder
eine Lösung des ILGS.
41
4. Lineare Gleichungssysteme (LGS) — Teil I
(c) Es sei a = (a1 , a2 , . . . , an ) eine spezielle Lösung des ILGS. Jede
(weitere) Lösung hat dann die Gestalt y = a + x, wobei x eine
Lösung des zugehörigen homogenen LGS ist.
Geometrische Interpretation einer einzelnen Gleichung eines LGS
L(x) = b (L = Li , b = bi )
n = 3:
L(x) = b
⇐⇒
a1 x 1 + a2 x 2 + a3 x 3 = b
=⇒ • L(x) = b unlösbar, wenn b 6= 0
• jedes x ∈ R erfüllt L(x) = b, wenn b = 0.
Fall 1: a1 = a2 = a3 = 0
Fall 2: mindestens ein ai 6= 0, sei a1 6= 0
L(x) = b
⇐⇒
x1 =
1
(b
a1
− a2 x2 − a3 x3 )
Mit x2 := λ und x3 := µ, λ, µ ∈ R, folgt dann
x = (x1 , x2 , x3 ) = ab1 − aa12 x2 − aa31 x3 , x2 , x3
= ab1 , 0, 0 + − aa12 λ, λ, 0 + − aa31 µ, 0, µ
= ab1 , 0, 0 + λ − aa21 , 1, 0 + − aa31 , 0, 1
=
=⇒ Ebene im
n = 2:
n > 3:
a
+
R
λd1
+
µd2
R (falls L(x) 6≡ 0)
L(x) = b beschreibt eine sogenannte Hyperebene des Rn
L(x) = b beschreibt eine Gerade im
Beispiel: (n = 3, Fall 2)
6
H
HH
HH
g1
d1 , d2 sind linear
d1 unabhängig
H
r
HH a 3x
H
:
HH
H
HH
j
H
H
d2 HH
g2
H
HH
42
4.1. Lineare Gleichungssysteme (LGS)
µ = 0 =⇒ x = a + λd1
λ = 0 =⇒ x = a + µd2
=⇒
⇐⇒ Gerade g1
⇐⇒ Gerade g2
L(x) = b ist eine Ebene die durch die beiden Geraden g1 , g2 und den
Punkt a bestimmt ist.
Achsenabschnittsgleichung einer Ebene
a1 x1 + a2 x2 + a3 x3 = b, b 6= 0
a1
x
b 1
+
a2
x
b 2
+
a3
x=
b 3
1
x2 = x3 = 0 =⇒ x1 = A :=
x1 = x3 = 0 =⇒ x2 = B :=
x1 = x2 = 0 =⇒ x3 = C :=
L(x) = b
b
a1
b
a2
b
a3
⇐⇒


Achsenabschnitte der Ebene

x1 x2 x3
+
+
=1
A
B
C
Geometrische Deutung eines LGS:
Die obige Betrachtung zeigt, dass sich die Lösungsmenge eines LGS als Schnitt
mehrerer (Hyper-)Ebenen darstellen lässt.
43
4. Lineare Gleichungssysteme (LGS) — Teil I
4.1.2. Darstellung eines LGS als n-Tupel - oder
Vektorgleichung
a11 x1 + a12 x2 + · · · + a1k xk + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2k xk + · · · + a2n xn = b2
..
..
..
..
..
.
.
.
.
.
am1 x1 + am2 x2 + · · · + amk xk + · · · + amn xn = bm
|{z}
|{z}
|{z}
|{z}
|{z}
a2
ak
an
a1
b
Setze



a1 = 

a11
a12
..
.






=
,
a
 2 


am1
a21
a22
..
.






=
,
.
.
.
a


k


am2
a1k
a2k
..
.
amk






=
,
.
.
.
a


n


a1n
a2n
..
.
(4.2)






=
,
b




amn
Satz 4.4 Das LGS (4.2) kann in der äquivalenten Form einer Vektorgleichung
n
X
(4.3)
x k ak = b
k=1
geschrieben werden.
Folgerung aus (4.2) ≡ (4.3)
Satz 4.5 LGS (4.1) ist genau dann lösbar, wenn die rechte Seite b eine Linearkombination der Spaltenvektoren a1 , a2 , . . . , an ist.
Satz 4.6
a) Sind die Spalten a1 , a2 , . . . , an linear unabhängig, so hat LGS (4.2) höchstens
eine Lösung.
b) Hat das LGS (4.2) eine eindeutig bestimmte Lösung, so sind die Spalten
a1 , a2 , . . . , an linear unabhängig.
44
b1
b2
..
.
bn



.

Teil II.
Matrizen
45
5. Der Matrizenbegriff
Definition 5.1 (Matrix) Ein System von m · n Zahlen aik , i = 1, 2, . . . , m, k =

1, 2, . . . , n A = Am,n




=



a11 a12 . . . a1k
a21 a22 . . . a2k
..
..
..
.
.
.
ai1 ai2 . . . aik
..
..
..
.
.
.
am1 am2 . . . amk
. . . a1n
. . . a2n
..
.
. . . ain
..
.






← i–te Zeile


. . . amn
↑ k–te Spalte
heißt eine ((m, n) −) Matrix. Die Zahlen aik heißen Elemente von A und man
schreibt kurz A = (aik ).
Das n – Tupel
ai = (ai1 , ai2 , . . . , ain ),
i = 1, 2, . . . , m
heißt i-te Zeile (i-ter Zeilenvektor) von A.
Das m–Tupel



ak = 

a1k
a2k
..
.



,

k = 1, 2, . . . , n
amk
heißt k-te Spalte (k-ter Spaltenvektor) von A.
Bemerkung: Zwei Matrizen Am,n = (aik ) und Bm,n = (bik ) sind genau dann
gleich, wenn
m = m, n = n und aik = bik für alle i = 1, 2, . . . , m, k = 1, 2, . . . , n.
Definition 5.2 (Vektor) Ein n–Tupel x, dargestellt in Spaltenform


x1
 x2 


x =  .. 
 . 
xn
5. Der Matrizenbegriff
nennen wir n-Vektor (n-Spaltenvektor)
Konvention: Falls nichts anderes vereinbart wird, werden n-Tupel in Zukunft
stets als
n-Spaltenvektoren dargestellt.
Definition 5.3 (Matrix mal n-Vektor) Sei A = Am,n und x ∈ Rn ein n–Vektor.
Unter Ax versteht man den m–Vektor


 

a11 a12 . . . a1n
x1
a11 x1 + a12 x2 + · · · + a1n xn
n
 a21 a22 . . . a2n   x2   a21 x1 + a22 x2 + · · · + a2n xn  X


 

Ax =  .. ..
=
=
x k ak

..   ..  
..
..
..
 . .
 k=1
.  .  
.
.
.
xn
am1 x1 + am2 x2 + · · · + amn xn
am1 am2 . . . amn


<a1 , x>
..


.




i
m
=⇒ Ax = y ∈ R mit y =  <a , x>  ← i–te Zeile von A mal x


..


.
<am , x>
Beispiele:

1
13 1 
2
a)
1 0 −1
1

d11 0 . . . 0
 0 d22 . . . 0

b)  .. .. . . ..
 . .
. .
0

=





0 . . . dnn
1 · 1+3 · 2+
1·1
1 · 1 + 0 · 2 + (−1) · 1
x1
x2
..
.


 
 
=
 
xn
d11 x1
d22 x2
..
.
=



wobei x = 

x1
x2
..
.
xn
48
=
8
0





dnn xn
Anwendung: LGS ⇐⇒

a11 x1 + a12 x2 + · · · + a1n xn
 a21 x1 + a22 x2 + · · · + a2n xn


..
..
..

.
.
.
am1 x1 + am2 x2 + · · · + amn xn
|
{z
Def.5.1
Ax








und A = 






}
=
=
..
.

=
bm
| {z }
b




b1
b2
..
.



 =: b (rechte Seite)

a11 a12 . . . a1n
a21 a22 . . . a2n
.. ..
..
. .
.
am1 am2 . . . amn





die Koeffizientenmatrix
des LGS ist.
Satz 5.1 Jedes LGS kann dargestellt werden in der Form
Ax = b,
wobei A die Koeffizientenmatrix des LGS, b die rechte Seite des LGS und x
der n–Vektor der Unbekannten xk , k = 1, 2, . . . , n ist.
Beispiel:

x1 − x2 − x3 + 2x4 = b1
−x1 − 2x2 + x3 + 3x4 = b2
⇐⇒

x
1

1 −1 −1 2 
 x 2  = b1
−1 −2 1 3  x3 
b2
x4
Spezielle Matrizen
(a) A = Am,n heißt quadratische Matrix, wenn m = n
a11 a12
z.B. a) A1,1 = (a11 ), A2,2 =
a21 a22
b) An,n x = b ist ein LGS mit n Gleichungen und n Unbekannten.
Unter der (Haupt-) Diagonalen von An,n versteht man die Elemente
a11 , a22 , . . . , ann





a11 a12
a21 a22
..
..
.
.
an1 an2
. . . a1n
. . . a2n
. . . ..
.
. . . ann





&
Diagonale
(b) Eine quadratische Matrix An,n mit aik

d11 0
 0 d22


D= 0 0
 ..
..
 .
.
0 0
Beispiel Dx = b
=⇒
= 0 für i 6= k heißt Diagonalmatrix.

0 ... 0
0 ... 0 

d33 . . . 0 

.. . .
.. 
.
.
. 
0 . . . dnn
x =?
(c) Gilt aik = 0 für alle Elemente einer Matrix A = Am,n , so heißt A
((m, n)-)Nullmatrix, man schreibt A = 0.
(d) −A = −(aik ) := (−aik ) ist die negative Matrix zu A.
49
5. Der Matrizenbegriff
50
6. Operationen mit Matrizen
Definition 6.1 (Addition) Seien A = (aik ), B = (bik ) zwei (m, n)–Matrizen.
A + B = (A + B)m,n := (aik + bik )
(elementenweise Add.)
Definition 6.2 (λ–faches) Sei A = Am,n = (aik ), λ ∈ R
λA = (λA)m,n := (λaik )
(elementenweise Multipl. mit λ)
Definition 6.3 (Transposition) Sei A = Am,n . Die zu A transponierte Matrix ist die (n, m)–Matrix



0
a11 . . . ai1 . . . am1
a11 a12 . . . a1k . . . a1n
 a12 . . . ai2 . . . am2 
..
..
.. 
 ..
 .
..
.. 
.
.
. 
 .
 .

.
. 


 .
A0 (= AT , At ) =  ai1 ai2 . . . aik . . . ain  := 

 .
 a1k . . . aik . . . amk 
..
..
.. 

 ..

..
.. 
.
.
.
 ...
.
. 
am1 am2 . . . amk . . . amn
a1n . . . ain . . . amn (n,m)
i–te Zeile →
7 i–te Spalte
k–te Spalte →
7
k–te Zeile
=⇒ A = (aik ) −→ A0 = (αki ), αki := aik
k = 1, 2, . . . , n
für alle
i = 1, 2, . . . , m
Beispiel

0
1 3
1 −3 0


−3 5
a)
=
3 5 7
0 7


x1
 x2 


b) x =  ..  ist (n, 1)–Matrix =⇒
 . 
xn

a = (a1 , a2 , . . . , an )
=⇒


a0 = 

x0 = (x1 , x2 , . . . , xn ) ist (1, n)–Matrix
a1
a2
..
.
an





6. Operationen mit Matrizen
Satz 6.1 (Eigenschaften der Transposition) Eigenschaften von A0
a) (A0 )0 = A
b) (A + B)0 = A0 + B 0
c) (λA)0 = λA0 , für alle λ ∈ R
Definition 6.4 (Symmetrische Matrix) Eine Matrix A = An,n heißt symmetrisch, wenn:
A = A0
⇐⇒
aik = aki , für alle i, k = 1, 2, . . . , n
Beispiel

1
 0
−1

0 −1
3 2 
2 8
ist symmetrisch.
Definition 6.5 (Produkt) Seien A = A(m,r) = (aij ) und B = B(r,n) = (bjk ) zwei
Matrizen, so dass die Spaltenzahl r von A mit der Zeilenzahl r von B übereinstimmt. Das Produkt AB (in dieser Reihenfolge!) ist dann definiert durch
AB = C = (cik ), i = 1, . . . , m, k = 1, . . . , n,
wobei
cik :=
r
X
aij bjk =< ai , bk >,
j=1
d.h. i-te Zeile von A mal k-te Spalte von B.
Merksatz:
i–te Zeile von A mal k–te Spalte von B
Satz 6.2 Für AB gilt auch die Darstellung:
AB = (Ab1 , Ab2 , . . . , Abk , . . . , Abn ),
|
{z
}
n Spalten von AB
wobei bk die k–te Spalte von B ist.
Beispiele
1) 

1 1
 2 0 ·
0 1
52
1 2
ist nicht definiert !
2) 


 

1 1
1 · 1+1 · 3 1 · 2+1 · 1
4 3
 2 0  · 1 2 =  2 · 1+0 · 3 2 · 2+0 · 1  =  2 4 
3 1
0 1
0 · 1+1 · 3 0 · 2+1 · 1
3 1
3) 0 1
·
=
0 1
0 1
1 0
·
=
0 1
1 0
1 0
1 0




=⇒

1 0


1 0
0 1
0 1
i.a. AB 6= BA (wenn überhaupt AB und BA
definiert sind)
Satz 6.3 (Eigenschaften der Matrixmultiplikation) Wenn die entsprechenden Produkte definiert sind, gilt:
(a) A(BC) = (AB)C = ABC,
(b) A(B + C) = AB + AC,
(c) (A + B)C = AC + BC,
(d) (λA)B = A(λB) = λAB für alle λ ∈ R,
(e) (AB)0 = B 0 A0 .
(Achtung: i.a. AB 6= BA !)
53
6. Operationen mit Matrizen
54
7. Die Inverse einer Matrix
Definition 7.1 (Einheitsmatrix)

1 0 0 ...
 0 1 0 ...


I = In,n =  0 0 1 . . .
 .. .. .. . .
 . . .
.
0 0 0 ...
0
0
0
..
.




 heißt (n,n)–Einheitsmatrix


1
Satz 7.1 Für alle x ∈ Rn und für alle A = An,n gilt:
Ix = x, AI = IA = A
(I spielt die Rolle der Eins !)
Definition 7.2 (Inverse Matrix) Sei A = An,n . Existiert eine (n,n)–Matrix X,
so dass
AX = XA = I,
so heißt A−1 := X die inverse Matrix oder die Inverse von A.
Beispiele:
a) I −1 = I, da II = I
−1
0 0
b)
existiert nicht ! =⇒ Inverse existieren nicht immer !
0 0
c) (a11 )−1 = a111 , wenn a11 6= 0
Satz 7.2 A = An,n hat höchstens eine Inverse A−1 = X.
7. Die Inverse einer Matrix
Satz 7.3 (Eigenschaften von Inversen) Sei A = An,n , B = Bn,n mit Inversen
A−1 , B −1 .
a) (A−1 )−1 = A
b) (AB)−1 = B −1 A−1
c) (λA)−1 = λ1 A−1 für alle λ 6= 0
d) (A0 )−1
= (A−1 )0
Anwendung auf LGS mit A = An,n
LGS: Ax = b
=⇒
A−1 (Ax) = A−1 b
| {z }
(A−1 A) x = A−1 b
| {z }
Ix = x = A−1 b




x = A−1 b, wenn A−1 existiert !



Berechnung der Inversen A−1 = X
Bedingung für X: AX = XA = I
Bemerkung: AX = I
Kap. 8
=⇒
XA = I
=⇒ Die Bedingung AX = I ist ausreichend zur Darstellung von A−1 = X !
Es ist AX = (Ax1 , Ax2 , . . . , Axk , . . . , Axn ), wobei
{z
}
|
n–Spalten von AX
xk = k–te Spalte der unbekannten Matrix A−1 = X
I = (e1 , e2 , . . . , ek , . . . , en )
|
{z
}
n–Spalten von I
=⇒
AX = I
⇐⇒
Ax1 = e1
Ax2 = e2
..
.








Axn = en 
Beispiel
n=2:
a11 x11
x1 :
a21 x11
a11 x12
x2 :
a21 x12
+ a12 x21 = 1
+ a22 x21 = 0
zu lösen bei der Berechnung
von A−1 = X sind somit:
n LGS mit je n Unbekannten
und n Gleichungen
=⇒
x1 =
x11
x21
=
a22
D
− aD21
a12 + a12 x22 = 0
x12
−D
=⇒ x2 =
=
a11
+ a22 x22 = 1
x22
D
a22
a12
−
D
D
=⇒ A−1 =
, falls D 6= 0
− aD21 aD11
=⇒
56
A−1 existiert ⇐⇒
mit D = det(A)
:= a11 a22 − a21 a12
det(A) := a11 a22 − a12 a21 6= 0
(entsprechendes gilt auch allgemein !)
n=3:
A−1 = X = (x1 , x2 , x3 )
x1 :
a11 t1 + a12 t2 + a13 t3 =
a21 t1 + a22 t2 + a23 t3 =
a31 t1 + a32 t2 + a33 t3 =
x2 :
a11 t1 + a12 t2 + a13 t3 =
a21 t1 + a22 t2 + a23 t3 =
a31 t1 + a32 t2 + a33 t3 =
x3 :
a11 t1 + a12 t2 + a13 t3 =
a21 t1 + a22 t2 + a23 t3 =
a31 t1 + a32 t2 + a33 t3 =
=⇒ 3 LGS

1 
0
=⇒

0

0 
1
=⇒

0

0 
0
=⇒

1
sind zu lösen:
t = x1
t = x2
t = x3
57
7. Die Inverse einer Matrix
58
8. Rang von Matrizen
Anwendung: Kriterium für die Existenz und Eindeutigkeit von Lösungen von
linearen Gleichungssystemen.
Sei A = Am,n



A = (a1 , a2 , . . . , an ) = 
|
{z
}

n Spalten von A
a1
a2
..
.





am
| {z }
m Zeilen von A
Definition 8.1 (Spaltenrang, Zeilenrang) Unter dem Spaltenrang Rgs A bzw.
Zeilenrang Rgz A einer Matrix A versteht man die Elementzahl der größtmöglichen Mengen linear unabhängiger Spalten bzw. Zeilen von A oder kurz:
Die maximale Anzahl linear unabhängiger Spalten bzw. Zeilen von A !
Satz 8.1 0 ≤ Rgs A ≤ n, 0 ≤ Rgz A ≤ m.
Beispiele:
1.
A=
0 0 0
0 0 0
B=
1 −1 2
=⇒
Rgs A = Rgz A = 0
=⇒
Rgs B = Rgz B = 1

1 1 1
C= 2 2 2 
3 3 3
=⇒
Rgs C = Rgz C = 1
=⇒
Rgs D = Rgz D = 2
2.
3.

4.
D=
5.
1 0 2 3
0 1 0 0
8. Rang von Matrizen


1 0 0
E =  0 1 0  = I =⇒
0 0 1
Rgs E = Rgz E = 3
(in diesen Beispielen ist stets Rgs A = Rgz A)
Satz 8.2 Stets gilt:
Rgs A = Rgz A
(für beliebige Matrizen A)
Definition 8.2 (Rang) Unter dem Rang Rg A einer Matrix versteht man:
Rg A := Rgs A = Rgz A
Aus Satz 8.1 folgt:
Satz 8.3
Rg A ≤ m, Rg A ≤ n
⇐⇒
Rg A ≤ min(m, n)
8.1. Berechnung des Ranges einer (m, n)-Matrix A
8.1.1. Treppenmatrizen
Definition 8.3 (Treppenmatrix) Unter einer (m, n)-Treppenmatrix T = Tr
mit einer natürlichen Zahl r, 1 ≤ r ≤ min(m, n), versteht man eine Matrix der
Gestalt


t1r+1 t1r+2 . . . t1n
t11 t12 t13 . . . t1r
 0 t22 t23 . . . t2r
t2r+1 t2r+2 . . . t2n 


 0 0 t33 . . . t3r
t3r+1 t3r+2 . . . t3n 

 .
..
.. . .
..
..
..
. . . .. 
 .
.
.
.
.
.
.
.
.




trr+1 trr+2 . . . trn 
T =  0 0 0 . . . trr






0
0
... 0 
 0 0 0 ... 0
 .
..
.. . .
.
..
..
. 
..
 ..
. ..
. .. 
.
.
.
.
0 0 0 ... 0
0
0
... 0
wobei
t11 6= 0, t22 6= 0, . . . , trr 6= 0.
Beispiele:
1) 60
1 |0 1 0 1
mit r = 1
8.1. Berechnung des Ranges einer (m, n)-Matrix A
2) 

1 0 |1 0 0 4
 0 1 | 2 −1 3 5 




0 0 |0 0 0 0
3) 





4) 

−1 0 2 |
0 1 3 | 

0 0 −2 | 


0 0 0 |

1 0 0
 0 1 0 ,
8 3 1
mit r = 2
mit r = 3


1 8 7
 0 0 2  sind keine T –Matrizen !
0 0 3
Satz 8.4 Rg T = Rg Tr = r
Bedeutung der T –Matrizen
bel. Matrix A
e.U.
−→
T = Tr
=⇒
Rg A = Rg Tr = r
8.1.2. Elementare Umformung von Matrizen
Achtung: Dienen auch zur Lösung LGS !
Definition 8.4 (Elementare Umformungen) Elementare Umformungen (e.U.)
einer beliebigen (m, n)-Matrix A sind folgende Operationen:
I. Vertauschen zweier Zeilen der Matrix,
II. Vertauschen zweier Spalten der Matrix,
III. Addition des λ-fachen einer Zeile zu einer anderen Zeile der Matrix.
Beispiele


1 1 2
 0 −1 1 
2 1 3


1 1 2
 0 −1 1 
2 1 3


0 −1 1
I
−→  1 1 2 
2 1 3


1 1 2
II
−→  −1 0 1 
1 2 3
61
8. Rang von Matrizen




1 1 2
·(−3)
1 1 2
III
 0 −1 1 
−→  0 −1 1 
2 1 3
−1 −2 −3
Satz 8.5 Bei e.U ändern sich Rgs A, Rgz A und somit auch Rg A nicht !
Satz 8.6 Eine beliebige Matrix A 6= 0 kann durch e.U. in eine Treppenmatrix
transformiert werden.
Beispiel:

0 1 1
 0 0 3
A=
 2 1 4
1 1 −1

I
−→
III
−→




1 0
 0 1

 0 2
0 0

1 0
 0 1

 0 0


0 0


0 1
·(−1)
0 3 
II
III

−→
−→

2 4
1 −1



1
1 0 1
 0 1 −2 
−2 
III
 ·(−2)

−→ 

 0 0 7 
3
3
0 0 3

1 |
−2 | 

7 | 
 mit r = 3

0 |
1
 0

 1
1

1
 0

 0
0

0 1
0 3 

2 3 
1 −2
· − 73
8.1.3. Berechnung von RgA
Verfahren: A
e.U.
−→
Tr
=⇒
Rg A = r
Beweis: folgt aus Satz 8.4 und 8.5, 8.6 !
Obiges Beispiel: Rg A = r = 3
Weitere Folgerungen aus den Sätzen 8.2 und 8.3:
Satz 8.7 Rg A = Rg A0
Beweis:
Rg A = Rgs A = Rgz A0 = Rg A0
Satz 8.8 Im Rn sind n + 1 (und mehr) beliebige n–Tupel stets linear abhängig.
Mengen von linear unabhängigen n–Tupeln im Rn enthalten also höchstens n Elemente.
62
8.1. Berechnung des Ranges einer (m, n)-Matrix A
Beweis Zu x1 , . . . , xn , xn+1 ∈ Rn bilde die (n, n + 1)–Matrix
A = (x1 , x2 , . . . , xn+1 ).
Nach Satz 8.3 gilt dann:
Rg A ≤ min(n, n + 1) = n
I. Anwendung:
Lösungen LGS
=⇒
x1 , x2 , . . . , xn+1 linear abhängig.
Rangkriterium für Existenz und Eindeutigkeit von
Betr.: LGS Ax = b, A = Am,n
Definition 8.5 (Erweiterte Koeffizientenmatrix) Unter der erweiterten Koeffizientenmatrix [A, b] versteht man die (m, n + 1)–Matrix



[A, b] = 

a11 a12 . . . a1n
a21 a22 . . . a2n
..
..
..
.
.
.
am1 am2 . . . amn
b1
b2
..
.





bm
Satz 8.9 (Existenzsatz) Ein LGS Ax = b ist genau dann lösbar, wenn Rg [A, b] =
Rg A.
Beweis: Ax = b lösbar
⇐⇒
Satz 4.5
⇐⇒
b ist Linearkombination von a1 , a2 , . . . , an
Rg [A, b] = Rg A
Satz 8.10 Eindeutigkeitssatz
a) Ist Rg A = n, so hat Ax = b höchstens eine Lösung.
b) Ist Ax = b eindeutig lösbar, so ist Rg A = n.
Beweis: Ax = b hat genau (höchstens) 1 Lösung
=⇒ (⇐=) a1 , a2 , . . . , an linear unabhängig ⇐⇒
Rg A = n (siehe Satz 4.6).
Übersicht über die Lösbarkeits– und Eindeutigkeitsverhältnisse für
verschiedene m, n
s = Rg [A, b]
Es sei
=⇒ s = r oder s = r + 1
r = Rg A
r ≤ min(m, n)
nach Satz 8.3
s ≤ min(m, n + 1)
63
8. Rang von Matrizen
A) m < n (Weniger Gleichungen als Unbekannte)
min(m, n) = m
=⇒ r ≤ s ≤ m < n
1. r = s
=⇒ System hat ∞ viele Lösungen (Sätze 8.9, 8.10)
Beispiel:
1 1 0
A=
,
0 1 2
=⇒
b=
3
−4
⇐⇒
x1 + x2
= 3
x2 + 2x3 = −4
∞ viele
Lösungen
m = 2, n = 3, r = s = 2
2. r < s (= r + 1)
=⇒ System ist unlösbar (Satz 8.9)
Beispiel:
1 0 0
A=
,
2 0 0
=⇒
b=
1
−1
⇐⇒
x2
2x2
= 1
= −1
Widerspruch
m = 2, n = 3, r = 1, s = 2
B) m = n (Gleichviele Gleichungen wie Unbekannte)
min(m, n) = m = n
=⇒
r≤s≤m=n
3. r = s < m = n
Beispiel:
1 0
A=
,
2 0
=⇒
Beispiel:
1 0
A=
,
2 1
b=
1
2
⇐⇒
x1 + 0x2 = 1
2x1 + 0x2 = 2
∞ viele
Lösungen
eindeutig
best. Lösung
=⇒ System hat genau 1 Lösung
b=
1
2
⇐⇒
x1
= 1
2x2 + x2 = 2
m=n=r=s=2
5. r < s < m = n
64
m = n = 2, r = s = 1
4. r = s = m = n
=⇒
=⇒ System hat ∞ viele Lösungen
=⇒ System ist unlösbar
8.1. Berechnung des Ranges einer (m, n)-Matrix A
Beispiel:
0 0
A=
,
0 0
=⇒
b=
1
1
⇐⇒
0x1 + 0x2 = 1
0x1 + 0x2 = 1
Widerspruch
r = 0, s = 1, m = n = 2
6. r < s = m = n
Beispiel:
1 0
A=
,
1 0
=⇒
=⇒ System ist unlösbar
b=
0
1
⇐⇒
x1
x1
= 0
= 1
Widerspruch
r = 1, s = 2, m = n = 2
C) m > n (Mehr Gleichungen als Unbekannte
=⇒
min(m, n) = n
7. r < s (= r + 1) ≤ n + 1 ≤ m
Beispiel:


1 0
A =  0 1 ,
0 0
=⇒

⇐⇒
System ist unlösbar

 x1 +
=0 +
x2 =
0
Widerspruch

0x1 + 0x2 =
1
r = 2, s = 3, n = 2, m = 3
8. r = s < n < m
Beispiel:


1 0
A =  1 0 ,
0 0
=⇒

0
b= 0 
1
⇐⇒
=⇒ System hat ∞ viele Lösungen


2
b= 2 
0
⇐⇒

+
 x1 + 0x2 = 2
∞ viele
x1 + 0x2 = 2
Lösungen

0x1 + 0x2 = 0
r = 1, s = 1, n = 2, m = 3
9. r = s = n < m
=⇒ System hat eindeutig bestimmte Lösung
Beispiel:
65
8. Rang von Matrizen


1 0
A =  0 1 ,
0 0
=⇒


1
b 2 
0
⇐⇒
x1
x2
= 1
= 2
eindeutige
Lösung
r = 2, s = 2, n = 2, m = 3
II. Anwendung:
Existenz der inversen Matrix
Definition 8.6 Eine (n, n)–Matrix A heißt regulär, wenn Rg A = n.
Im Folgenden sei A = An,n regulär, also Rg A = n.
Betrachte: beliebige n–Vektoren b und das LGS Ax = b
=⇒
n = Rg A ≤ Rg [A, b]
| {z }
Satz 8.3
≤
min(n, n + 1) = n
(n, n + 1)–
Matrix
=⇒
n = Rg A = Rg [A, b]
Satz 8.9, 8.10 =⇒
Ax = b hat eine eindeutig bestimmte Lösung x.
a) Betr.: nun AX = I
A regulär =⇒
=⇒
Kap. 7
⇐⇒
Axk = ek , k = 1, 2, . . . , n wobei X = (x1 , x2 , . . . , xn )
Axk = ek hat eindeutig bestimmte Lösung x◦k
AX = I hat eindeutig bestimmte Lösung X ◦ := (x◦1 , x◦2 , . . . , x◦n )
b) Betr.: umgekehrt Y A = I
Transposition
=⇒
Rg A0
Satz 8.7
=
(Y A)0 = I 0 = I
=⇒
Rg A = n =⇒
A0 ist regulr
(Transposition)
a), b) =⇒
=⇒
A0 Y 0 = I
=⇒
w.o.
A0 Y 0 = I hat eindeutig bestimmte Lösung W ◦ mit Y 0 = W ◦
=⇒
Y A = I hat eindeutig bestimmte Lösung Y ◦ = W ◦ 0
Y ◦ = Y ◦ I = Y ◦ (AX ◦ ) = (Y ◦ A)X ◦ = IX ◦ = X ◦
Y ◦ = X◦
AX = XA = I hat eindeutig bestimmte Lösung X = X ◦
Satz 8.11 Falls A regulär ist, so existiert die Inverse A−1 (= X ◦ ) und A−1 ist
eindeutig bestimmt.
Beweis der Eindeutigkeit von A−1 :
66
8.1. Berechnung des Ranges einer (m, n)-Matrix A
Annahme: A hat zwei Inverse X und Y
=⇒
AX = XA = AY = Y A = I
=⇒
X = XI = X(AY ) = (XA)Y = IY = Y
Satz 8.12 Falls A−1 existiert, so ist A regulär.
Beweis: Annahme: A ist nicht regulär ⇐⇒
=⇒
A−1 (Ax) = A−1 0 = 0
=⇒
x=0
=⇒
Rg A = n
7→
es gibt x 6= 0 mit Ax = 0
Widerspruch zu vorher !
67
8. Rang von Matrizen
68
9. Lösungsverfahren für lineare
Gleichungssysteme (LGS)
Hilfsmittel: e.U. angewendet auf [A,b]
LGS A · x = b
(9.1)
erweiterte Koeffizientenmatrix [A, b ]

a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
..
..
..
..
...
.
.
.
.
am1 x1 + am2 x2 + . . . + amn xn = bm




a11 a12
a21 a22
..
..
.
.
am1 am2
. . . a1n | b1
. . . a2n | b2
.
. . . ..
. | ..
. . . amn | bm





⇐⇒
e.U. von [A,b]
A) Vertauschen zweier Gleichungen
⇐⇒
I. Vertauschen zweier Zeilen von
[A,b]
B) Vertauschen zweier Unbekannten
xk , xj mit den zugehörigen Koeffizienten aik , aij
⇐⇒
f Vertauschen zweier Spalten
II.
der Teilmatrix A von [A,b]
C) Addition des λ–fachen einer Gleichung zu einer anderen Gleichung
⇐⇒
III. Addition des λ–fachen einer
Zeile von [A, b] zu einer anderen
Zeile von [A,b]
Operationen an (9.1)
Eigenschaften der Operationen
(A) ⇐⇒ (I),
f
(B) ⇐⇒ (II),
(C) ⇐⇒ (III)
f (III) der erweiterten Koeffizientenmatrix
Satz 9.1 Bei e.U. des Typs (I), (II),
[A, b ] wird:
9. Lösungsverfahren für LGS
[A, b] in eine (m, n + 1)– Matrix
| {z }
1.
m
[Â, b] transformiert und
| {z }
m
z
}|
{
z
}|
{
2. LGS(1) A · x = b geht über in ein LGS(1̂) Â · x̂ = b̂
Dabei gilt:
3.Die Lösungen x̂ von (1̂) unterscheiden sich von den Lösungen x von (1) höchstens
f verwendet wurde.
in einer Vertauschung der Komponenten xk , falls (II)
9.1. Beschreibung der praktischen Durchführung des
Lösungsverfahrens: Gauss–Algorithmus
Stufe 1:
e.U.
[A, b]
-
f III
I, II,
(Satz 8.6)
[Â, b̂], wobei  = Tr eine Treppenmatrix ist mit T = Tr
e.U.
(9.1): A · x = b
-
f III
I, II,
ˆ : Â · x̂ = b̂
(9.1)
m
m
x1
a11
a21
..
.
x2
a12
a22
..
.
...
...
...
..
.
xn
a1n
a2n
..
.
b1
b2
..
.
am1
am2
...
amn
bm
so dass
A
↓
 = Tr
nicht vorhanden, wenn
r=m
70
xk1
â11
â21
..
.
xk2
â12
â22
..
.
0

—


0
..


 .
0
|
0
—
0
..
.
. . . xkr
. . . â1r
. . . â2r
..
..
.
.
. . . ârr
— —
... 0
..
.
0
...
|
|
|
|
—
|
|
|
0
{z
(∗)
xkr+1
â1r+1
â2r+1
..
.
...
...
...
xkn
â1n
â2n
..
.
←−
b̂1
b̂2
..
.
ârr+1
—
0
..
.
...
—
...
ârn
—
0
..
.
b̂r
0
...
0
Â=Tr :â11 6=0,...,ârr 6=0
b̂r+1
..
.
b̂m
}
9.1. Praktische Durchführung
|
{z
}
nicht vorhanden wenn r = n
(∗)–Vertauschungen von Spalten von A in der Variablenzeile markiert.
1. Fall: es gibt ein r + 1 ≤ i ≤ m mit b̂i 6= 0
=⇒ Rg A = Rg Tr = r < r + 1 = Rg[A, b] =⇒ (9.1) ist unlösbar
2. Fall: r = m oder alle b̂i = 0, i = r + 1, . . . , m =⇒ Rg A = Rg [A, b]
=⇒ (9.1) ist lösbar
Stufe 2: falls r = m oder b̂i = 0 für alle i = r + 1, . . . , m
[Â, b̂]
↑
Tr
e.U.
-
III
[A∗ , b∗ ]


D | R
mit A∗ =  — — — 
0 | 0
wobei D: Diagonalmatrix und
R: Restmatrix


D | R
Bemerkung: A∗ =  — — — 
} nicht vorhanden, wenn r = m
0 | 0
| {z }
nicht vorh., wenn r = n
im Detail:
71
9. Lösungsverfahren für LGS
xk1
â11
0
..
.
xk2
â12
â22
..
.
0
—
0
..
.
0
—
0
..
.
. . . xkr
. . . â1r
. . . â2r
..
..
.
.
. . . ârr
— —
... 0
..
.
0
0
...
0
|
|
|
|
—
|
|
|
xkr+1
â1r+1
â2r+1
..
.
. . . xkn
. . . â1n
. . . â2n
..
.
ârr+1
—
0
..
.
...
—
...
ârn
—
0
..
.
0
...
0
b̂1
b̂2
..
.
·(− ââ12
)
22
b̂r

0
..
.
0
nicht vorh.,
wenn r = m
e.U.
-
III
xk1
a∗11
0
..
.
xk2
0
a∗22
..
.
...
...
...
..
.
xkr
0
0
..
.
0
—
0
..
.
0
—
0
..
.
...
—
...
a∗rr
—
0
..
.
0
0
...
0
|
|
|
|
—
|
|
|
mit a∗ii = âii 6= 0,
Folgerung: A · x = b
A∗ · x̂ = b∗ lautet:
72
⇐⇒
xkr+1
a∗1r+1
a∗2r+1
..
.
...
...
...
xkn
a∗1n
a∗2n
..
.
a∗rr+1
—
0
..
.
...
—
...
a∗rn
—
0
..
.
b∗r
0
...
0
0
i = 1, 2, . . . , r
A∗ ·x̂ = b∗
↑
keine Komponentenvertauschung in Stufe 2
 · x̂ = b̂
⇐⇒
b∗1
b∗2
..
.
0
..
.
9.1. Praktische Durchführung
=⇒
=⇒
a∗11 xk1
a∗22 xk2
..
.
+ a∗1r+1 xkr+1
+ a∗2r+1 xkr+1
..
.
+ ...
+ ...
+ a∗1n xkn
+ a∗2n xkn
..
.
= b∗1
= b∗2
..
.
a∗rr xkr
+
a∗rr+1 xkr+1
+ ...
+
a∗rn xkn
= b∗r
x k1
=
x k2
..
.
=
x kr
=
−
−
..
.
b∗r
a∗rr
−
a∗1r+1
xkr+1
a∗11
a∗2r+1
xkr+1
a∗22
− ...
a∗1n
x
a∗11 kn
a∗2n
x
a∗22 kn
−
− ... −
..
.
a∗rr+1
xkr+1 − . . . −
a∗
| rr
{z
fehlt, falls r = n
..
.
a∗rn
x
a∗rr kn
}
Unbekannte xkr+1 , . . . , xkn können frei gewählt werden
Setzen:
xkr+1 := t1
xkr+2 := t2
..
.
x kn

=⇒
b∗1
a∗11
b∗2
a∗22
:= tn−r
x k1
x k2
..
.





x̂ =  xkr

 xkr+1
 .
 ..
x kn
| {z

mit t1 ∈ R
mit t2 ∈ R
mit tn−r ∈ R


 
 
 
 
 
=
 
 
 
 

b∗1
a∗11
−
..
.
..
.
b∗r
a∗rr
a∗1r+1
t
a∗11 1
− ...
−
..
.
..
.
−
a∗rr+1
t
a∗rr 1
a∗1n
t
a∗11 n−r
..
.
..
.
− ...
−
a∗rn
t
a∗rr n−r
t1
..
.













tn−r
}
Komponenten
von x in
anderer
Reihenfolge
73
9. Lösungsverfahren für LGS







x̂ = 






Satz 9.2 =⇒
b∗1
a∗11


−
a∗1r+1
a∗11

..
.. 


.
.  
∗
 a∗rr+1
br 

− a∗
a∗rr 
rr
 

0 +
1

0  
0

.. 

..
. 
.
 



0
0
0
0
|
{z


a∗
− a1n
∗

 . 11 

 .. 

 a∗ 

 − rn 

 a∗rr 




0  tn−r
 t1 + . . . + 



 0 




 ... 




 0 

1
}

fehlt, falls r = n
(⇐⇒ eindeutige Lösung )
Beispiel:
(a)
x1 +2x2 +x3 = 1
⇐⇒
2x1 +4x2 +2x3= −1
x1
x2
1
2
2
4
1
|
2
— — —
0
|
0
|
{z
T1
x3
1
2
1
—
0
}
1
−1
1
·(−2)
-3
= b̂2 6= 0
=⇒ keine Lösung
(b) 1. Stufe:
x1 +2x2 +x3 −3x4 = 1
2x1+x2 −x3 −3x4 = 2
3x1+3x2
−6x4 = 3
r=2
durchgehende
0-Zeile =⇒
lösbares LGS
2. Stufe:
74







x1 x2
1
2
2
1
3
3
1
2
0 −3
0 −3
1
2
0 −3
— —
0
0
x3
1
−1
0
1
−3
−3
|
1
| −3
— —
|
0
x4
−3
−3
−6
−3
3
3
−3
3
—
0
1
2
3
1
0
0
1
0
·(−2) ·(−3)
·(−1)
·( 23 )
0
x1
−x3 −x4 =
−3x2 −3x3+3x4=
9.1. Praktische Durchführung
| −1 −1 1
| −3
3 0
— — —
|
0
0 0
1
0
0 −3
— —
0
0
⇐⇒



1
 0 

x1 = 1 +x3 +x4
 + t1 
=⇒
=⇒ x = 



x2 = −x3 +x4
0
0


1

−1 
 + t2 


1
0

1
1 

0 
1
mit x3 := t1 , x4 := t2
(c)
x1 −x2 = 1
2x1 +x2 = 0
3x1
=1
4x1 −x2 = 2
n=r=2
1
3
x1 =
3x2 = −2
=⇒
x=
x1
1
2
⇐⇒
3
4
1
0
0
0
1
0
—
0
0
1
0
⇔
—
0
0
x2
−1
1
0
−1
−1
3
3
3
−1
3
—
0
0
0
3
—
0
0
1
3
eindeutige Lösung
− 23
|
|
|
|
|
|
|
|
|
|
1
0
1
2
1
−2
−2
−2
1
−2
0
0
·(−2) ·(−3) ·(−4)
·(−1)
·
1
3
2 durchgehende 0-Zeilen
=⇒ lösbares System
1
3
−2
0
0
75
9. Lösungsverfahren für LGS
76
10. Determinanten
Determinanten sind nur definiert für quadratische Matrizen.
(a) n = 1: A = (a11 )
det A := |A| := a11
a11 a12
(b) n = 2: A =
a21 a22
det A = |A| := a11 a22 − a21 a12
a x + a12 x2 = b1
Anwendung: 11 1
a21 x1 + a22 x2 = b2
=⇒ x1 =
˛
˛
˛ b1
˛
˛
˛ b2
˛
˛
˛ a11
˛
˛
˛ a21
˛
˛
˛
˛ a11
a12 ˛˛˛
˛
˛
˛
˛ a21
a22 ˛˛
˛
,
x
=
2
˛
˛
˛ a11
a12 ˛˛
˛
˛
˛
˛ a21
a22 ˛
(Kramersche Regel)
geom. Interpretation:
Es gilt: F = | det A|
Analoges gilt auch für
n≥3
(c) Beliebiges n = 3, 4, . . .
Konstruktionsvorgang:
det A2,2 −→ det A3,3 −→ . . . −→ det An−1,n−1 −→ det An,n −→ . . .
|
{z
}
| {z }
bekannt
Konstruktionsvorschrift wird nachfolgend angegeben
77
˛
b1 ˛˛˛
b2 ˛˛˛
a12 ˛˛˛
a22 ˛˛
10. Determinanten
Konstruktionsvorschrift:
Vor.: det An−1,n−1 sei bekannt für eine beliebige (n − 1, n − 1)–Matrix
Betrachten: beliebige (n, n)–Matrix A
Definition 10.1 (Algebraisches Komplement) Das algebraische Komplement
A∗ik eines Elements aik von A ist die (n − 1, n − 1)–Teilmatrix A∗ik von A, die
entsteht, wenn man die i–te Zeile und k–te Spalte von A weglässt.
Beispiel: n = 3

a11 a12 a13
A =  a21 a22 a23
a31 a32 a33
a22 a23
∗
A11 =
a32 a33
a12 a13
∗
A21 =
a32 a33
a12 a13
∗
A31 =
a22 a23


A∗12
A∗22
A∗32
=
=
=
a21 a23
a31 a33
a11 a13
a31 a33
a11 a13
a21 a23
A∗13
A∗23
A∗33
a21 a22
a31 a32
a11 a12
a31 a32
a11 a12
a21 a22
=
=
=
Die Konstruktionsvoraussetzung gestattet nun:
Definition 10.2 (Kofaktor, Adjunkte) Unter dem Kofaktor (Adjunkten) eines Elements aik von A versteht man die Zahl:
Aik := (−1)i+k det A∗ik
|{z}
(n − 1, n − 1)–M atrix (siehe Determinante bekannt nach V oraussetzung)
Beispiel: n = 3 (Fortsetzung)
A12 = −(a21 a33 − a31 a23 )
A11 = (−1)1+1 |A∗11 | = a22 a33 − a32 a23
A21 =
−(a12 a33 − a32 a13 ) A22 = a11 a33 − a31 a13
A31 =
a12 a23 − a22 a13
A32 = −(a11 a23 − a21 a13 )
Satz 10.1 Für jedes (feste) Paar i, k mit 1 ≤ i ≤ n, 1 ≤ k ≤ n gilt:
n
n
X
X
aiv Aiv =
awk Awk = α,
|v=1 {z
}
Summation über
i–te Zeile
|w=1 {z
wobei α eine feste, von i, k unabhängige Zahl ist.
78
}
Summation über
k–te Spalte
A13 = a21 a32 − a31 a22
A23 = −(a11 a32 − a31 a12 )
A33 = a11 a22 − a21 a12
Definition 10.3 (Determinante) Die Determinante der n × n Matrix A ist
definiert durch det A = |A| := α. Es gilt
 P
n
n
P

Entwicklung nach i–ter Zeile
aiv Aiv
=
aiv (−1)i+v detA∗iv

v=1
v=1
det A =
n
n
P
P


awk Awk =
awk (−1)w+k detA∗wk Entwicklung nach k–ter Spalte
w=1
w=1
Beispiel:
(a) n = 3 Entw. nach 1.Spalte:
|A| = a11 A11 + a21 A21 + a31 A31 =
= a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 )
Entw. nach 1.Zeile:
|A| = a11 A11 + a12 A12 + a13 A13 =
= a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a22 )


3 −1
2
1 −1 
A= 0
1
0
1
=⇒
|A|
(b) n = 4

1.Spalte
a11
 a21
A=
 a31
a41
=⇒
=
3(1 · 1 − 0 · (−1)) − 0 · (. . .) + 1((−1)(−1) − 1 · 2) = 2
a12
a22
a32
a42
a13
a23
a33
a43
1.Spalte
|A| =
=
=⇒

a14
a24 

a34 
a44
a11 A11 + a21 A21 + a31 A31 + a41 A41
a11 (−1)1+1 |A∗11 | + a21 (−1)2+1 |A∗21 | +
+ a31 (−1)3+1 |A∗31 | + a41 (−1)4+1 |A∗41 |
a22 a23 a24 a12 a13 a14
A = a11 a32 a33 a34 − a21 a32 a33 a34
a42 a43 a44 a42 a43 a44
a12 a13 a14 a12 a13 a14
+ a31 a22 a23 a24 − a41 a22 a23 a24
a42 a43 a44 a32 a33 a34
79
10. Determinanten

a11 a12 a13
 0 a22 a23
speziell: A = 
 0
0 a33
0
0
0
=⇒
a22 a23 a24
A = a11 0 a33 a34
0
0 a44
allgemein: det A = (c)
a11 a12
0 a22
..
..
.
.
0
0

a14
a24 

a34 
a44
= a11 · a22 a33 a34
0 a44
= a11 · a22 · a33 · a44
. . . a1n . . . a2n . = a11 · a22 · . . . · ann
..
. .. . . . ann ak = 0 für eine Spalte =⇒
ai = 0 für eine Zeile =⇒
|A| = 0
|A| = 0
( Entw. nach dieser Spalte )
( Entw. nach dieser Zeile )
Satz 10.2 (Rechenregeln für Determinanten)
a) Beim Vertauschen zweier Spalten bzw. zweier Zeilen ändert sich nur das
Vorzeichen der Determinante.
b) Addiert man zu einer Zeile (Spalte) das λ– fache einer anderen Zeile (Spalte), so ändert sich die Determinante nicht.
c) det A = det A0
d)
det(a1 , . . . , ak−1 , u + v, ak+1 , . . . , an ) = det(a1 , . . . , ak−1 , u, ak+1 , . . . , an ) +
+ det(a1 , . . . , ak−1 , v, ak+1 , . . . , an )
det(a1 , . . . , ak−1 , λ · u, ak+1 , . . . , an ) = λ · det(a1 , . . . , ak−1 , u, ak+1 , . . . , an )
e) det A · B = det A · det B für je zwei (n, n)– Matrizen A, B
Folgerungen aus (a) – (e):
f) Bei e.U. von A ändert sich höchstens das Vorzeichen der Determinante:
e.U.
A −→ B =⇒ det B = (−1)ρ det A
ρ : Anzahl der Anwendungen von (I), (II)
g) Sind zwei Spalten bzw. Zeilen von A gleich, so gilt: |A| = 0
80
h) det A−1 =
1
,
det A
falls A−1 existiert
Satz 10.3 A−1 existiert =⇒ det A−1 6= 0
Anwendungen von Satz 10.2
e.U.
A −→ Tr

α11
...
α1r
.
..
..

..
.
.


0
...
αrr


Tr =  − − − − − − − − −

0
...
0


.
..

..
.
0
...
0
f ): Berechnung von det A durch e.U. An,n =
α1r+1
..
.
...
α1n
..
.




αrr+1
...
αrn 

−−− −−− −−− 

0
...
0


..
..

.
.
0
...
0
{z
}
|
αii 6= 0, 1 ≤ i ≤ r


fehlt, falls r = n

fehlt, falls r = n
Satz 10.2f
=⇒
det A = (−1)ρ det Tr ,
det Tr
| {z }
Ent. nach den Spalten
=⇒
ρ: Anzahl der Zeilen- und Spaltenvertauschungen
Spaltenvertauschungen
= α11 · α22 · . . . · αrr · 0| · 0 ·{z. . . · 0}
{z
}
|
6=0
fehlt, falls r=n
det A = (−1)ρ det Tr 6= 0 ⇐⇒ r = n ⇐⇒ Rg A = r = n
Def.8.6
Satz8.11
Satz 10.4 det A 6= 0 ⇐⇒ Rg A = n ⇐⇒ A ist regulär ⇐⇒ A−1 existiert
=⇒ Satz 10.4a : A−1 existiert ⇐⇒ det A 6= 0 ⇐⇒ Rg A = n
Beispiel: einer det–Berechnung:






1
0 −1
·(−3) ·(−2)
1 0 −1
1 0 1
III
III
1
2 
5  ·(1) −→  0 1 5  = T3
A= 3
−→  0 1
−2 −1
0
0 −1 −2
0 0 3
det A = (−1)ρ=0 det T3 = 1 · 1 · 3 = 3
81
10. Determinanten
10.1. Cramersche Regel zur theoretischen Lösung
von LGS:
A = An,n ,
b ∈ Rn
Satz 10.5 (Cramersche Regel) Sei A regulär, dann hat Ax = b die eindeutig
bestimmte Lösung:
k–te Spalte ak von A
det(a1 , . . . , ak−1 , b, ak+1 , . . . , an ) ⇐=
wird durch die rechte
xk =
det(a1 , . . . , ak−1 , ak , ak+1 , . . . , an )
Seite b ersetzt.
|
{z
}
=det A
82
Teil III.
Vektorräume
83
11. Definition des abstrakten
Vektorraumes (VR) und
Übertragung von Begriffen aus
dem Rn
Abstraktion der Eigenschaften (V1) – (V8) des
Rn in Satz 1.1 und Satz 1.2:
Definition 11.1 (Vektorraum) Unter einem Vektorraum (VR) oder linearen
Raum versteht man eine Menge V in der
a) je zwei Elementen x, y ∈ V in eindeutiger Weise ein Element z = x + y,
genannt die Summe von x und y, zugeordnet ist, so dass die folgenden
Gesetze gelten:
V1) x + y = y + x , für alle x, y ∈ V
V2) (x + y) + z = x + (y + z) , für alle x, y, z ∈ V
V3) es gibt ein Element θ ∈ V mit θ + x = x, für alle x ∈ V
V4) zu jedem Element x ∈ V gibt es ein mit −x bezeichnetes Element in V ,
so dass x + (−x) = θ
b) je einem Element x ∈ V und einer Zahl λ ∈ R in eindeutiger Weise ein
Element w = λx, genannt das λ– fache von x , zugeordnet ist, so dass die
folgenden Gesetze gelten:
V5) λ(x + y) = λx + λy , für alle λ ∈ R , für alle x, y ∈ V
V6) (λ1 + λ2 )x = λ1 x + λ2 x , für alle λ1 , λ2 ∈ R , für alle x ∈ V
V7) (λ1 λ2 )x = λ1 (λ2 x) , für alle λ1 , λ2 ∈ R , für alle x ∈ V
V8) 1 · x = x , für alle x ∈ V .
Die Elemente x ∈ V heißen Punkte oder Vektoren.
Folgerungen aus den Axiomen (V1) – (V8):
Satz 11.1
85
11. Definition des abstrakten Vektorraumes
a) Durch (V1) – (V4) (= Gruppenaxiome) ist θ (auch 0), die Null oder das
Nullelement von V sowie −x, das Negative von x, eindeutig bestimmt.
b) Es gilt λθ = θ , für alle λ ∈ R
c) λx = θ (λ ∈ R , x ∈ V ) ⇐⇒ λ = 0 oder x = θ.
d) Für alle λ ∈ R , x ∈ V gilt: −(λx) = (−λ)x = λ(−x)
e) Bei der Addition und beim λ– fachen von Elementen eines VR gelten dieselben Rechenregeln wie beim Rechnen mit Zahlen.
Definition 11.2 (Differenz) Die Differenz x − y zweier Elemente x, y ∈ V ist
definiert durch
x − y := x + (−y)
Beispiel:[von VR]
(a) V = Rn , siehe Sätze
 1.1,

1.2

x1
−x1




θ := 0 , x := x =  ...  , −x := −x =  ... 
xn
−xn
(b) V = Mm,n
Addition
λ– faches
θ
−A
:= Menge aller (m, n)– Matrizen
: Addition von Matrizen gemäß Def. 6.1
: λ– faches von Matrizen gemäß Def. 6.2
:= (m, n)– Nullmatrix
:= (−amn ) , A = (amn )
(c) V = Pn
Addition
:= Menge aller Polynome p(t) =
: (p + q)(t) := p(t) + q(t)
| {z }
Pn
k=0
ak tk höchstens n–ten Grades
ist wieder ein Polynom höchstens n–ten Grades
λ– faches
θ
−p
86
: (λp)(t) := λp(t)
| {z }
ist wieder ein Polynom höchstens n–ten Grades
2
n
: θ(t) ≡ 0 = 0 + 0t + 0t + . . . + 0t =Polynom aus Pn
: (−p)(t) :=
−p(t)
| {z }
Polynom aus Pn
Definition 11.3 (Linearkombination) Sind x1 , x2 , . . . , xr Elemente aus V und
λ1 , λ2 , . . . , λr ∈ R ,
so heißt der Vektor:
r
X
y=
λk x k
k=1
eine Linearkombination der Vektoren x1 , x2 , . . . , xr (mit den Koeffizienten λ1 , λ2 , . . . , λr ).
Definition 11.4 (Lineare Abhängigkeit/Unabhängigkeit) Vektoren x1 , x2 , . . . , xr
aus V heißen:
linear unabhängig, wenn
r
P
λk xk = θ =⇒ λ1 = λ2 = . . . = λr = 0
k=1
linear abhängig,
wenn Zahlen λ1 , . . . , λr existieren, die nicht
r
P
λk x k = θ
alle = 0 sind, so dass
k=1
Beispiele:
(a) Die (m, n)– Matrizen


0
|
0
Eik =  − − − 1 − − −  ← i
, i = 1, 2, . . . , m , k = 1, 2, . . . , n
0
|
0
k
sind linear unabhängige Elemente des Matrizenraumes Mm,n
(b) Die Polynome 0 (t) ≡ 1, 1 (t) = t, 2 (t) = t2 , . . . , n (t) = tn
sind linear unabhängige Vektoren des Polynomraumes Pn
(c) Jede (m, n)– Matrix A ∈ Mm,n ist eine Linearkombination
der Matrizen Eik , i = 1, 2, . . . , m , k = 1, 2, . . . , n
(d) Jedes Polynom p ∈ Pn ist eine Linearkombination der Polynome 0 , 1 , . . . , n .
Definition 11.5 (Unterraum) Sei V ein VR und U eine Teilmenge von V .
U heißt Unterraum oder Teilraum von V , wenn
a) θ ∈ U
b) x ∈ U , y ∈ U =⇒ x + y ∈ U
c) x ∈ U , λ ∈ R =⇒ λx ∈ U
87
11. Definition des abstrakten Vektorraumes
Satz 11.2 Jeder Unterraum eines VR erfüllt die Axiome (V1) – (V8), ist also
selbst ein Vektorraum.
Beispiele:
(a) Triviale Unterräume eines jeden VR V sind U1 = {θ} und U2 = V
(b) Unterräume von
R2: {0} , R2 und alle Geraden durch den
Nullpunkt 0
(c) Unterräume des
R3: {0} , R3 und alle Geraden durch 0
sowie alle Ebenen durch 0
(d) Sei A = Am,n und 0 ∈ Rm
Satz 11.3 Die Lösungsmenge {x ∈ Rn : Ax = 0} eines HLGS ist
ein Unterraum des Rn .
(e) Sei A = Am,n
Satz 11.4 Die Menge {y ∈
Rm .
Rm : y = Ax, x ∈ Rn} ist ein Unterraum des
(f) Satz 11.5 Seien x1 , x2 , . . . , xr beliebige Elemente eines VR V .
Die Menge [{x1 , x2 , . . . , xr }] aller Linearkombinationen von x1 , x2 , . . . , xr
ist ein Unterraum von V .
[{x1 , x2 , . . . , xr }] heißt der von den Vektoren x1 , x2 , . . . , xr (in V )
aufgespannte oder erzeugte Unterraum von V .
Er ist der kleinste Unterraum von V , der x1 , . . . , xr enthält.
Beispiele:
(a)
Rn = [{e1, e2, . . . , en}]
(b) Mm,n = [{Eik : 1 ≤ i ≤ m, 1 ≤ k ≤ n}]
(c) Pn = [{0 , 1 , . . . , n }] , k (t) = tk , k = 0, 1, . . . , n
Endlichdimensionale VR:
88
Definition 11.6 (Endlichdimensionaler Vektorraum) Ein VR V heißt endlichdimensional, wenn er von
endlich vielen Vektoren x1 , x2 , . . . , xn aus V aufgespannt wird,
d.h. wenn
V = [{x1 , x2 , . . . , xn }] ;
ein nicht endlichdimensionaler VR heißt unendlichdimensional .
Beispiele:
(a)
Rn , Mm,n , Pn , sind endlichdimensional
(b) Betr.: s = {(sn ) : (sn ) = s1 , s2 , . . .} Menge aller
(unendlichen) Zahlenfolgen
Mit (sn ) + (tn ) := (sn + tn )
λ(sn ) := (λsN ) , θ := Nullfolge , −(sn ) := (−sn )
ist s eine VR.
s ist unendlichdimensional.
Definition 11.7 (Basis) Unter einer Basis eines endlichendimensionalen VR V
versteht man (endlichviele) Vektoren b1 , b2 , . . . , bn ∈ V , so dass
a) b1 , b2 , . . . , bn linear unabhängig sind und
b) [{b1 , b2 , . . . , bn }] = V
b1
b2
e
i
P
PP
26 PP
PP
P
-
e1
Beispiele:
(a) e1 , e2 , . . . , en ist eine Basis des
Rn
(b) Die Matrizen Eik , i = 1, 2, . . . , m , k = 1, 2, . . . , n bilden eine Basis des
Mm,n
89
11. Definition des abstrakten Vektorraumes
(c) Die Polynome 0 (t) ≡ 1 , 1 (t) = t , . . . , n (t) = tn bilden eine Basis des Pn
Satz 11.6 Ist b1 , b2 , . . . , bn eine Basis von V , so hat jedes x eine
n
P
Darstellung x =
λk bk mit eindeutig bestimmten Zahlen λk , k = 1, 2, . . . , n ;
k=1
die Zahlen λk heißen die Koordinaten von x bezüglich der Basis b1 , b2 , . . . , bn .
Satz 11.7
a) Jeder endlichdimensionale VR V 6= {θ} hat eine Basis.
b) Sind b1 , b2 , . . . , bn und c1 , c2 , . . . , cn zwei Basen eines VR,
so ist m = n ⇐⇒ die Anzahl der Elemente einer Basis ist eindeutig bestimmt.
Beweis:
a) Nach Vorrausetzung ist V = [{x1 , x2 , . . . , xn }].
Schritt 1: Sind die x1 , . . . , xn linear unabhängig, so bilden sie
eine Basis von V , und wir sind fertig.
Sind sie linear abhängig, so gilt:
λ1 x1 + . . . + λn−1 xn−1 + λn xn = 0 und etwa λn 6= 0
λn−1
xn−1
λn
=⇒
xn = − λλn1 x1 − . . . −
Satz 11.5
V = [{x1 , . . . , xn−1 }]
denn rechts steht ein Unterraum, der x1 , . . . , xn enthält und V = [{x1 , . . . , xn }]
=⇒
∈ [{x1 , . . . , xn−1 }]
Schritt 2: Fahre fort wie in Schritt 1 !
Da V 6= {θ}, bricht das Verfahren nach m Schritten, 0 ≤ m < n ,
mit der Basis (evtl. umnummerieren!)
x1 , x2 , . . . , xn−m
von V ab.
b) Nach Vorraussetzung sind b1 , . . . , bn linear unabhängig und V = [{c1 , . . . , cn }]
b1 6= θ
=⇒
b1 = λ1 c1 + λ2 c2 + . . . + λm cm und etwa λ1 6= 0
=⇒
c1 =
s.o.
90
1
b
λ1 1
−
λ2
c
λ1 2
− ... −
λm
c
λ1 m
=⇒
V = [{b1 , c2 , . . . , cm }]
=⇒
b 2 = µ1 b 1 + µ2 c 2 + . . . + µm c m
∈ [{b1 , c2 , . . . , cm }]
b1 , b2 lin. unabh. =⇒ eines der µ2 , . . . , µn , etwa µ2 , ist 6= 0
c2 ∈ [{b1 , b2 , c3 , . . . , cm }] =⇒ V = [{b1 , b2 , c3 , . . . , cm }]
=⇒
Auf diese Weise fahre fort, bis alle bk ausgetauscht sind.
=⇒
V = [{b1 , . . . , bm , cm+1 , . . . , cn }] (evtl. umnumerieren!)
=⇒
m≤n
Ebenso beweist man umgekehrt: n ≤ m
=⇒
m = n.
Definition 11.8 (Dimension) Die nach Satz 11.7b eindeutig bestimmte Anzahl
der Vektoren einer Basis einer endlichdimensionalen VR V heißt Dimension,
dim V , von V .
Beispiele:
(a) dim
Rn = n , dim Mm,n = m · n , dim Pn = n + 1
(b) dim {0} := 0
(c) Basen des
R2 :
c2
c1
b1
*
K
A
b2 H
YHA H
A
Je zwei Vektoren b1 6= 0 , b2 6= 0
des R2 (dim R2 = 2) , so dass
b2 6= λb1 für ein λ ∈ R , bilden
eine Basis des R2 .
=⇒ es gibt ∞ viele Basen, jede hat aber gleichviele (dim V ) Elemente
91
11. Definition des abstrakten Vektorraumes
11.1. Dimensionsberechnung
Vorbereitung:
Satz 11.8 Gegeben seien Vektoren x1 , x2 , . . . , xn , xn+1 eines VR V , so dass
x1 , x2 , . . . , xn , xn+1
{z
}
|
linear unabhängig
|
{z
}
linear abhängig
Dann ist xn+1 eine Linearkombination von x1 , x2 , . . . , xn .
Beweis: x1 , x2 , . . . , xn , xn+1 linear abhängig
Def.
=⇒ es gibt Zahlen λ1 , λ2 , . . . , λn , λn+1 , die nicht alle = 0 sind, so dass
n+1
X
λk xk = θ.
k=1
Fall 1: λn+1 = 0 =⇒ es gibt ein 1 ≤ j ≤ n mit λj 6= 0 ,
n+1
n
P
P
und es ist θ =
λk x k =
λk x k
k=1
k=1
↑
λn+1 = 0
=⇒ x1 , x2 , . . . , xn linear abhängig =⇒ Widerspruch zur Vorraussetzung
=⇒ Fall 1 ist unmöglich
Fall 2: λn+1 6= 0 (einzig mögliche Alternative !)
n
n
P
P
=⇒ λn+1 xn+1 = θ −
λk x k =
(−λk )xk
k=1
k=1
n P
−λk
=⇒ xn+1
=
xk
λ
k=1
n+1
=⇒ xn+1 ist Linearkombination der Vektoren x1 , x2 , . . . , xn .
Satz 11.9 Seien a1 , a2 , . . . , an Vektoren des Rm und U = [{a1 , a2 , . . . , an }] der von
diesen Vektoren aufgespannte Unterraum des Rm .
Dann gilt dim U = Rg (a1 , a2 , . . . , an ).
92
11.2. Berechnung einer Basis von U
Beweis:
Sei r = Rg (a1 , . . . , an ) und seien ak1 , . . . , akj , . . . , akr r unabhängige Vektoren.
Betr.: beliebigen Vektor ak , 1 ≤ k ≤ n
es gibt Zahlen ckj , so dass
ak1 , . . . , akr , ak 

| {z }
Satz 11.8
=⇒
linear
unabh.
|
{z
} 
linear abh.
r
X
ak =
ckj akj
für alle k = 1, 2, . . . , n
j=1
n
P
Sei jetzt x ∈ U ⇐⇒ x =
λk ak mit Zahlen λk
k=1
n
P
=
λk
j=1
k=1
r
P
=
j=1
=⇒ x ∈
=⇒ U ⊂
r
P
n
P
k=1
ckj akj =
λk ckj akj
ak 1 , . . . , a k r
ak 1 , . . . , a k r
;
ak 1 , . . . , a k r ⊂ U

=⇒ U = [{ ak1 , . . . , akr }]  Def. a , . . . , a ist eine Basis
kr
| {z }
=⇒ k1

von
U
linear unabh.
andererseits ist natürlich
Def.11.8
=⇒ dim U = r = Rg A , A = (a1 , . . . , an )
Eine Folgerung für U = [{a1 , . . . , an }] , ak ∈ Rm , k = 1, . . . , n ist die Eigenschaft
dimU = Rg( a1 , . . . , an ) ≤ min(m, n, )
| {z }
(m,n)– Matrix
11.2. Berechnung einer Basis von U
Hilfsmittel:
e.U. I, II, III
93
11. Definition des abstrakten Vektorraumes
Indexzeile
1
..
.
2
..
.
...
k
..
.
...
n
..
.
ak
. . . an
a1 a2 . . .
.. ..
..
..
. .
.
.
..
.
Matrix A
..
.
A = Am,n
e.U.
I, II, III
wobei:
Vertauschungen (II)
werden auch in der
Indexzeile durchgeführt
z
Indexmenge K1
}|
k1
k2
...
kr
α11
α12
...
α1r
0
α22
...
α2r
..
..
..
..
.
.
.
.
0
0
...
αrr
−−− −−− −−− −−−
0
0
...
0
..
..
..
.
.
.
0
0
...
0
{z
| kr+1
| α1r+1
| α2r+1
..
|
.
kn
α1n
α2n
..
.
{
| αrr+1
...
αrn
| −−− −−− −−−
|
0
...
0
..
..
|
.
.
|
0
...
0
Treppenmatrix Tr
α11 6= 0, . . . , αrr 6= 0
Satz11.9
=⇒ dim U = Rg A = r
Wir betrachten jetzt die Vektoren ak1 , ak2 , . . . , akr , also {ak : k ∈ K1 }
94
K2
}|
...
...
...
11.2. Berechnung einer Basis von U

B = Teilmatrix
von A mit den
Spalten
aki , i = 1, . . . , t
e.U.
I, II
- wie oben
durgeführt












|

|
| 


| 

0
0
...
αrr
| 

−−− −−− −−− −−− | 

0
0
...
0
| 

..
..
..
.
.
.
| 
0
0
...
0
|
{z
}
α11
0
..
.
α12
α22
..
.
...
...
...
α1r
α2r
..
.
T̃r (auch Treppenmatrix)
=⇒ Rg B = Rg T̃r = r
⇐⇒ ak1 , . . . , akr sind linear unabhängig
nach dem Beweis von Satz 11.9 =⇒ U = [{ak1 , . . . , akr }]
=⇒ ak1 , . . . , akr ist eine Basis von U
e.U.
Satz 11.10 Sei A = (a1 , . . . , an ) , A −→ Tr .
Ferner sei K1 die Menge der zu den r ersten Spalten von Tr gehörenden Elementen
der Indexzeile. Dann ist {ak : k ∈ K1 } eine Basis von U = [{a1 , . . . , an }].
Beispiel:


 
 


1
1
2
0
a1 =  0  , a2 =  1  , a3 =  1  , a4 =  −1 
−1
2
1
−3
es ist a3 = a1 + a2 , a4 = a1 − a2 , a1 , a2 sind linear unabh.
=⇒ U = [{a1 , a2 , a3 , a4 }] = [{a1 , a2 }]
also ist a1 , a2 eine Basis von U und dim U = 2
Das Verfahren von Satz 11.9, 11.10:
95
11. Definition des abstrakten Vektorraumes
1 2 3 4
a1 a2 a3 a4
r = 2 , K1 = {1, 2}
=⇒ dim U = 2
{a1 , a2 } Basis von U
=
1
2
1
1
0
1
−1
2
1
1
0
1
0
3
1
1
0
1
−−− −−−
0
0
|
3
4
2
0 ·(+1)
1
−1
III
1
−3
2
0
1
−1 ·(−3)
3
−3
III
|
2
0
|
1
−1
| −−− −−−
|
0
0
{z
}
T2
(Satz 11.9)
(Satz 11.10)
Dimension beim Rechnen mit Unterräumen:
Seien U, V zwei Unterräume eines endlichdimensionalen VR X.
Definition 11.9 (Summe von Unterräumen) Sind U, V zwei Unterräume eines Vektorraumes X, so heißt U + V := {u + v : u ∈ U , v ∈ V } Summe von U
und V .
Satz 11.11 Unter den Voraussetzungen von Definition (11.9) gilt:
I) U ∩ V ist wieder ein Unterraum von X
II) U + V ist wieder ein Unterraum von X
Beweis von (I):
a) θ ∈ U , θ ∈ V ⇐⇒ θ ∈ U ∩ V ,
ebenso folgen Eigenschaften b), c) gemäß Definition 11.5 .
Satz 11.12 (Dimenssionssatz I) Es gilt
dim U + dim V = dim (U ∩ V ) + dim (U + V ),
96
11.3. Berechnung von Orthonormalbasen
für je zwei Unterräume U, V eines endlichdimensionalen linearen Raumes X. Spezialfall: U ∩V = {θ} =⇒ dim (U +V ) = dim U + dim V
R2
U
V
U + V = R2 , 2 = dim
r
θ
R2 = |dim
{z U} + |dim
{z V}
=1
=1
U ∩ V = {θ} (ein trivialer Unterraum)
Definition 11.10 (Kern) Sei A = Am,n .
Unter dem Kern von A versteht man den Unterraum von Rn
Kern A := {x ∈ Rn : Ax = 0}
(siehe Satz 11.3)
Satz 11.13 (Dimensionssatz II) Für jede Matrix A = Am,n gilt
n = Rg A + dim (Kern A)
Beweis:
Ax = 0
r = Rg A

−
a∗1r+1
a∗11

..

.

 a∗rr+1
 − ∗
arr
Satz 9.2

=⇒ x = 0 + t1 
1


0


..

.
0
|
{z
=⇒ Kern A = [{
u∗1 , . . . , u∗n−r
|
{z
u∗1

a∗ 
− a1n
∗

 . 11 

 .. 

 a∗ 

 − rn 

 a∗rr 


 + . . . + tn−r 
 0 




 0 

 . 

 .. 

1
| {z }
}

u∗n−r
}]
}
linear unabhängig
=⇒ u∗1 , . . . , u∗n−r ist eine Basis von Kern A
=⇒ dim Kern A = n − r, q.e.d.
11.3. Berechnung von Orthonormalbasen
Sei V ein beliebiger Unterraum des
beliebige Basis von V .
Rn mit dim V
= r ≤ n und b1 , b2 , . . . , br eine
97
11. Definition des abstrakten Vektorraumes
Definition 11.11 (Orthonormalbasis) Eine Basis u1 , u2 , . . . , ur von V heißt Orthonormalbasis, wenn
u1 , u2 , . . . , ur auch ein Orthonormalsystem ist, d.h.
1, j = k
wenn < uj , uk >=
⇐⇒ kuj k = 1 für alle j, uj ⊥ uk , j 6= k.
0, j 6= k
11.3.1. Bedeutung von Orthonormalbasen
Gegeben seien Orthonormalbasen u1 , u2 , . . . , ur .
x∈V
Satz 11.6
=⇒ es gibt eindeutig bestimmte Zahlen λj , j = 1, . . . , r
(Koordinaten von x bzgl. u1 , . . . , ur ), so dass
r
r
P
P
<·,uk >
x=
λj uj =⇒
λj < uj , uk > = λk
< x , uk >=
| {z }
j=1
j=1
= 1, k = j
= 0, k 6= j
=⇒ λk =< x, uk > einfache Berechnung der Koordinaten
11.3.2. Konstruktion einer Orthonormalbasis von V aus einer
beliebigen Basis b1 , . . . , br von V
Geg.: Basis b1 , . . . , br von V
Definition 11.12 (Orthonormalisierungsverfahren nach E. Schmidt)
98
11.3. Berechnung von Orthonormalbasen
geometrisch:
b1
kb1 k
b − < b2 , u1 > u1
u2 := 2
kb2 − < b2 , u1 > u1 k
b − < b3 , u1 > u1 − < b3 , u2 > u2
u3 := 3
kb3 − < b3 , u1 > u1 − < b3 , u2 > u2 k
..
.
P
bj − j−1
i=1 < bj , ui > ui
uj :=
Pj−1
kbj − i=1 < bj , ui > ui k
..
.
P
br − r−1
< br , ui > ui
ur :=
Pi=1
r−1
kbr − i=1 < br , ui > ui k
u1 :=
(a) Normiere b1 auf 1 =⇒ u1
(b) Errichte in der {b1 , b2 }–
Ebene eine Senkrechte g2
durch 0 zu der durch b1 und
0 erzeugten Achse g1 , projiziere b2 auf g1 , normiere
die Projektion =⇒ u2
(c) Errichte Senkrechte g3 zu
{b1 , b2 }– Ebene durch 0 ,
projiziere b3 auf g3 , normiere die Projektion
=⇒ u3
(d) u.s.w.
Satz 11.14 u1 , u2 , . . . , ur ist ein Orthonormalsystem und somit eine Orthonormalbasis von V .
Beweis:
Wir zeigen durch vollständige Induktion nach j = 1, . . . , r :
u1 , u2 , . . . , uj ist ein Orthonormalsystem
j = 1 : Klar, da ku1 k = 1
Sei j > 1 und die Behauptung für j − 1 bereits erwiesen.
j−1
X
aj
, wobei aj := bj −
< bj , ui > ui
uj =
kaj k
i=1
=⇒ kuj k = 1 und zu zeigen bleibt aj ⊥uk , k = 1, . . . , j − 1
j−1
P
< aj , uk > =< bj −
< bj , ui > ui , uk >
i=1
=< bj , uk > − <
j−1
P
< bj , ui > ui , uk >
i=1
99
11. Definition des abstrakten Vektorraumes
=< bj , uk > −
j−1
P
i=1
< bj , ui > · < ui , uk >
| ff {z }

=
1, i = k
0, i 6= k
nach Induktionsvor.
=< bj , uk > − < bj , uk >= 0 , k = 1, . . . , j − 1
=⇒ u1 , . . . , uj ist ein Orthonormalsystem.
Dass das Orthonormalsystem u1 , . . . , ur eine Basis von V , also linear unabhängig
ist, folgt ohne weiteres (vgl. Bem. nach Def. 11.11):
λ 1 u 1 + . . . + λr u r = 0
λk =< 0, uk >= 0, k = 1, . . . , r.
=⇒
a2 = b2 − < b2 , u1 > u1
Illustration zum 2. Schritt:
6u2 =
a2
ka2 k
HH
Y
1HH
u1 =
Beispiel: b1 =
u2 b2
6 -
u1 = b1
100
1
0
, b2 =
1
1
,r=2
rb
3 2
Projektion
b1
kb1 k
-r b
-
< b2 , u1 > u1
1
11.3. Berechnung von Orthonormalbasen
=⇒ u1 =
b1
kb1 k
=
1
0
, < b2 , u2 >= 1
b2 − < b2 , u1 > u1 =
=⇒ u2 =
b2 −<b2 ,u1 >u1
kb2 −<b2 ,u1 >u1 k
=
1
1
0
1
−1·
1
0
=
0
1
101
11. Definition des abstrakten Vektorraumes
102
12. Lineare Abbildungen
(Transformationen)
Definition 12.1 (Lineare Abbildung) Seien X , Y beliebige VR und f : X −→
Y eine Abbildung von X nach Y . f heißt linear, wenn
a) f (x + u) = f (x) + f (u) für alle x, u ∈ X
b) f (λx) = λf (x)
Add. und λ–
faches in X
Add. und λ–
faches in Y
für alle λ ∈ R, für alle x ∈ X
Satz 12.1 Für jede lineare Abbildung f : X −→ Y gilt
f (θX ) = θY
mit θX = Null von X, θY = Null von Y
Beweis: f (θX ) = f (0 · x) = 0 · f (x) = θY
Beispiele:
(a) Satz 12.2
x1 + 1
(b) f (x1 , x2 ) =
ist keine lineare Abbildung
−x1
1
wegen f (0) =
6= 0
0
Satz 12.2 Sei A eine beliebige (m, n)– Matrix. Dann ist
f (x) := Ax, x ∈ Rn
eine lineare Abbildung von
Rn in Rm.
Beweis: Matrixmultiplikation
12. Lineare Abbildungen
Satz 12.3 Sei X ein endlichdimensionaler VR mit Basis b1 , b2 , . . . , bn und
f : X −→ Y eine lineare Abbildung von X in einen beliebigen linearen Raum Y .
Sind λ1 , . . . , λn die Koordinaten von x ∈ X bez. b1 , b2 , . . . , bn , dann gilt:
f (x) =
n
X
λk f (bk )
k=1
=⇒ Zur Definition von f genügt die Angabe der Vektoren ck = f (bk ) ∈ Y, k =
1, 2, . . . , n.
P
b1 ,...,bn Basis von X
Beweis: x ∈ X
=⇒
x = nk=1 λk bk , λ1 , . . . , λn Koordinaten von x
bez. bk
n
n
n
X
X
X
D.12.1a
D.12.1b
=⇒ f (x) = f (
λk b k ) =
f (λk bk ) =
λk f (bk ).
k=1
k=1
k=1
12.1. Matrixdarstellung linearer Abbildungen
Vorraussetzungen: X n–dim. VR mit Basis B : b1 , . . . , bn
Y m–dim. VR mit Basis D : d1 , . . . , dm
f : X −→ Y lineare Abbildung
x ∈ X =⇒ x =
Pn
k=1
λk bk , λ1 , . . . , λn Koordinaten von x bez. Basis b1 , . . . , bn
Definition 12.2 (Koordinatentupel des Urbilds) Gegeben sei die Basis
B = {b1 , b2 , . . . , bn }, dann heißt


λ1
 λ2 


x = xB :=  .. 
 . 
λn
der Koordinaten–n–Vektor von x bez. der Basis b1 , b2 , . . . , bn .
Beispiel: X = Rn , B = {e1 , . . . , en } (kanonische Basis des Rn )


x1
 x2 
P


n
x ∈ R ⇐⇒ x =  ..  =⇒ x = nk=1 xk ek =⇒ xB = x
 . 
xn
=⇒ Bei der kanonischen Basis B stimmen x und
sein Koordinaten–n–Vektor xB überein !
104
12.1. Matrixdarstellung linearer Abbildungen
Satz12.3
x ∈ X =⇒ f (x) =
n
X
λk f (bk )
k=1
es gilt: f (bk ) ∈ Y , k = 1, 2, . . . , m.

=⇒ f (bk ) =
m
X


aik di mit f (bk )D := 

i=1
↑
d1 , d2 , . . . , dm
Basis von Y
=⇒ f (x) =
n
X
λk f (bk ) =
k=1
n
X
a1k
a2k
..
.




amk
Koordinatenvektor von f (bk ) bez. der
Basis d1 , . . . , dm von Y
λk
k=1
m
X
aik di =
i=1
m X
n
X
(
aik λk )di
i=1 k=1
Definition 12.3 (Koordinatentupel des Bildes)
 P

n

a1k λk
a11
a12 . . . a1n
 k=1

 P
  a
n
a
. . . a2n


21
22
a2k λk  

.
.
..

..
 k=1
 =  ..
f (x)D =
.



..


am2 . . . amn
am1
.

  |{z}
|{z}
|{z}
↑
n
 P

f (b2 )
f (bn )
f (b1 )
Koordinaten–
D
D
D
amk λk
m–Vektor von
f (x) bez. Basis
d1 , d2 , . . . , dm
von Y









λ1
λ2
..
.





λn
k=1
|
{z
=:Af
}
| {z }
xB
Af : Matrix der linearen Abbildung f bez. Basen B, D
Satz 12.4
X n–dim. mit Basis B = {b1 , b2 , . . . , bn },
Y m–dim. mit Basis D = {d1 , . . . , dm }
f : X −→ Y linear, xB Koordinaten–n–Vektor von x bez. Basis B,
f (x)D Koordinaten–m–Vektor von f (x) bez. Basis D.
Dann gilt f (x)D = Af xB , wobei
Af := (f (b1 )D , f (b2 )D , . . . , f (bn )D ) = AF (B, D)
f (bk )D , mit k = 1, . . . , n, sind definiert als Koordinaten–m–Vektoren (bez. Basis
105
12. Lineare Abbildungen
D) der Bilder f (bk ) der Basis B = {b1 , . . . , bn } von X
=⇒
f ist eindeutig bestimmt durch die Matrix Af
Spezialfall:
X = Rn , Y = Rm , f : X −→ Y linear, B = {e1 , e2 , . . . , en }
D = {1 , 2 , . . . , m }
Kanonische Basen
x ∈ X = Rn =⇒ xB = x
y = f (x) ∈ Y = Rm =⇒ y = y D oder f (x)D = f (x)
=⇒ f (x) = f (x)D
Satz12.4
=
Af x B = Af x
=⇒ f (x) = Af x (=feste Matrix mal Vektor)
mit Af = (f (e1 )D , . . . , f (en )D ) = (f (e1 ), . . . , f (en ))
12.2. Produkte linearer Abbildungen
Geg.: Vektorräume X, Y, Z, lineare Abb. f : X −→ Y , g : Y −→ Z
Definition 12.4 Die durch (g ◦ f )(x) := g(f (x)), x ∈ X,
definierte Abbildung g ◦ f : X −→ Z heißt Produkt der Abbildungen f, g
Satz 12.5 Sind f, g lineare Abbildungen, so ist die Produktabbildung g ◦ f wieder
linear.
VR: X mit Basis B = {b1 , . . . , bn }, Y mit Basis C = {c1 , . . . , cr },
Z mit Basis D = {d1 , . . . , dm }
S.12.4
f:
XB → YC linear =⇒ f (x)C = Af xB , Af = (f (b1 )C , . . . , f (bn )C )
g:
YC → ZD linear =⇒ g(y)D = Ag y C , Ag = (g(c1 )D , . . . , g(cr )D )
106
S.12.4
(1)
(2)
12.2. Produkte linearer Abbildungen
Sei h := g ◦ f (linear nach Satz 12.5)
S.12.4
=⇒ Ah = (h(b1 )D , . . . , h(bn )D )
y
z }| {
h(bk )D = (g ◦ f )(bK )D = g(f (bk ))D = Ag f (bk )C
Also ist:
(2)
Ag◦f = (Ag f (b1 )C , . . . , Ag f (bn )C ) = Ag (f (b1 )C , . . . , f (bn )C ) = Ag Af
|
{z
}
Af
Somit gilt:
Satz 12.6 Die Matrix Ag◦f der Produktabbildung g ◦ f ist gegeben durch das Produkt der Matrizen Ag , Af :
Ag◦f = Ag Af
(Reihenfolge beachten !)
Beispiel:
a) Seien X = Pn , Y = Pn−1 und L : X → Y der Differentiationsoperator: L(p) =
dp
dt
Gesucht ist die Matrix AL = AL (B, D), wobei
B Basis von Pn : 0 (t) ≡ 1, 1 (t) = t, . . ., n (t) = tn
D Basis von Pn−1 : δ0 (t) ≡ 1, δ1 (t) = t, . . ., δn−1 (t) = tn−1
AL (B, D)
Def.12.3
=
( dim Pn = n + 1 )
( dim Pn−1 = n )
(L(0 )D , . . . , L(n )D )
k = tk =⇒ L(k ) =
dtk
dt
= ktk−1 = kδk−1 , k = 0, 1, . . . , n




=⇒ L(0 )D = 

0
0
..
.



,

0




=⇒ AL = 


0
0
0
..
.
1
0
0
..
.
0
2
0
..
.
0 0 0

0
 .. 
 . 
 
 0 
 
L(k )D =  k  ←− k–te Komponente, k = 1, . . . , n
 
 0 
 . 
 .. 
0

... 0
... 0 

... 0 
( n × (n + 1) Matrix )

. . .. 
. . 
... n
107
12. Lineare Abbildungen
b) Seien X = Pn−1 , Y = Pn und
Rt
J : X −→ Y der Integrationsoperator: J(p) = 0 p(t)dt
Gesucht ist AJ = AJ (D, B) mit den Basen D von Pn−1 und B von Pn aus a).
AJ (B, D) = (J(δ0 )B , J(δ1 )B , . . . , J(δn−1 )B )
δk = tk =⇒ J(δk ) =
Rt
0
tk dt =
1 k+1
t
k+1
=
1
k+1 k+1
, k = 0, 1, . . . , n − 1

0
 ... 




0


 1 
J(δk )B =  k+1  ←− (k + 2)–te Komponente , k = 0, 1, . . . , n − 1


 0 
 . 
 .. 
0





AJ = 



0 ... 0
0 ... 0 

1

.
.
.
0

2
.. . . .. 
.
.
. 
1
0 0 ... n
0
1
0
..
.
( (n + 1) × n Matrix )
c) Betrachte die Produkte J ◦ L : Pn → Pn und L ◦ J : Pn−1 → Pn−1

AJ◦L


S.12.6

= AJ AL = 


0
0
0
..
.
0
1
0
..
.
0
0
1
..
.
...
...
...
..
.
0
0
0
..
.


 
0
|
00

 
−− −− −− 
=

0
|
In

0 0 0 ... 1
Sei p(t) = p0 + p1 t + . . . + pn tn ∈ Pn



=⇒ pB = 

p0
p1
..
.
pn
108





 S.12.4
 =⇒ J ◦ L(p)D = AJ◦L pB = 


0
p1
..
.
pn





12.2. Produkte linearer Abbildungen
Z
=⇒
0
t
dp
dt = J ◦ L(p) = p1 t + . . . + pn tn
dt
Ebenso berechnet man:
AL◦J = AL AJ = In
d
=⇒
dt
Z
t
p(t)dt = p(t) für alle p(t) ∈ Pn−1 .
0
109
12. Lineare Abbildungen
110
13. Basistransformationen —
Koordinatentransformationen
Anwendung: z.B. Beschreibung eines Raumes oder einer Ebene
von einem sich bewegenden System aus
z.B.
R2 : sich um 0 drehende Scheibe
px
A
A A
B = {b1 , b2 } Basis im
µ1
d2AKA
ruhenden“ System,
”
A
also im 2
µ2 A 6b2
*
D = {d1 , d2 } Basis im
A
d1
p A
rotierenden“ System
0A
”
b1
λ1
A
A
A
A
A
A
λ2
A
A
A
R
Beobachter: sitzt auf rotierender Scheibe und beobachtet die Punkte x ∈ R2
Punkt x ∈ R
2
% x
= λ1 b 1 + λ2 b 2
mit eindeutig best. Koord. λ1 , λ2
k gleicher Punkt des beob. Raumes
mit eindeutig best. Koord. µ1 , µ2
& x = µ1 d1 + µ2 d2
Problem: Welche
besteht zwischen den
Beziehung
Koordinatensätzen
λ1
µ1
xB =
( bez. b1 , b2 ) und xD =
(bez. d1 , d2 ) desselben
λ2
µ2
Vektors x ∈ R2 ?
Lösung: Sei V ein n–dim. VR und B = {b1 , . . . , bn }, D = {d1 , . . . , dn }
zwei Basen von V .
13. Basis– und Koordinatentransformationen
Betr.: x ∈ V =⇒ x =
=
n
P
k=1
n
P
λk bk : λ1 , . . . , λn Koordinaten von x bez. B
µj dj : µ1 , . . . , µn Koordinaten von x bez. D
j=1
=⇒
n
P
(∗)
λk b k =
n
P
?
µj dj =⇒ Beziehung zwischen {λK } und {µj }
j=1
k=1

BasisB
Betr. Vektor dj ∈ V =⇒ dj =
n
P


dkj bk , 

k=1
d1j
d2j
..
.



 =: dj B

dnj
wobei dj
B
: Koordinaten–n–Tupel von dj bez. B
Einsetzen in (∗) =⇒
n
P
λk b k =
n
P
µj
j=1
k=1
n
P
n
n X
P
dkj bk =
(
dkj µj )bk
k=1
k=1 j=1
|
=⇒ x =
n
P
k=1
λk b k =
n
P
γk bk
B={b1 ,...,bn }
k=1
=⇒ λK = γk :=
=⇒
}
λk = γk , k = 1, 2, . . . , n
enthält
lin. unabh.
Vektoren
n
X
{z
=:γk
Koordinaten bez. (derselben) Basis sind eindeutig
bestimmt !
dkj µj , k = 1, 2, . . . , n
j=1
Definition 13.1 (Transformationsmatrix) T = Tn,n = (dkj ) heißt die zur Basistransformation B = {b1 , . . . , bn } −→ D = {d1 , . . . , dn } gehörende Transformationsmatrix


d11 . . . d1j . . . d1n
 d21 . . . d2j . . . d2n 
 .
..
.. 


.
.  = TB,D
T = (d1 B , . . . , dn B ) =  ..


 dn1 . . . dnj . . . dnn 
|{z}
dj
dj
B
112
B
ist der Koordinaten–n–Vektor von dj bez. alter“ Basis B = {b1 , . . . , bn }.
”
Satz 13.1 (Koordinatentransformation bei Basistransformation)
Basis D = {d1 , . . . , dn }
Basis B = {b1 , . . . , bn }
( neueBasis“)
( alte 
Basis“)
”
”
λ1
µ1
 λ2 
 µ2 




−→
xD =  .. 
xB =  .. 
Vektor x ∈ V :
 . 
 . 
λn
µn
{z
}
|
(LGS für xD )
xB =T xD
Satz 13.2 Die Transformationsmatrix T ist regulär.
Beweis:
Wegen der eindeutigen Koordinatendarstellung gilt für alle x, y ∈ V , für alle λ ∈ R:
(∗) x + y B = xb + y B , λxB = λxb und (∗∗) xB = 0 ⇐⇒ x = θ
Sei nun λ1 d1 B + . . . + λ1 dn B = 0
(∗)
=⇒ λ1 d1 + . . . + λn dn B = 0
(∗∗)
=⇒
λ1 d1 + . . . + λn dn = θ
d1 , . . . , dn Basis, also lin. unabh. =⇒ λ1 = λ2 = . . . = λn = 0
=⇒ d1 B , . . . , dn B lin. unabh. =⇒ Rg T = n ⇐⇒ T ist regulär.
Folgerung:
Satz 13.3
D.8.6
a) T regulär ⇐⇒ Rg T = n ⇐⇒ det T 6= 0 ⇐⇒ T −1 existiert
b) T xD = xB ⇐⇒ xD = T −1 xB
Beispiel: Drehungen im
R
(B alte, D neue Basis)
2
e2
@
@
6
d2@
@
I
d22 @
d21
@
d12
ϕ
d1
π
2
ϕ+
@
d11
@
-
e1
@
@
1
2 Orthonormalsysteme:
1
0
Basis B: e1 =
, e2 =
0
1
d11
d12
Basis D: d1 =
, d2 =
d21
d22
@
@
@
@
113
13. Basis– und Koordinatentransformationen
Transformationsmatrix: T = (d1 B , d2 B ) = (d1 , d2 ) =
z
}|
{
B = kanon. Basis
d11 d12
d21 d22
Konstruktion =⇒ d11 = cos ϕ, d21 = sin ϕ
d12 = cos(ϕ + π2 ) = − sin ϕ, d22 = sin(ϕ + π2 ) = cos ϕ
=⇒ T =
cos ϕ − sin ϕ
sin ϕ
cos ϕ
für alle ϕ
det T = cos2 ϕ − sin ϕ(− sin ϕ) = 1 für alle ϕ
T
−1
=
1
det
T
d22 −d12
−d21
d11
=
cos ϕ sin ϕ
− sin ϕ cos ϕ
= T 0 =⇒ T −1 = T 0
⇐⇒ T T 0 = T 0 T = I
Definition 13.2 (Orthogonale Matrix) Eine (n, n)– Matrix P heißt orthogonal, wenn P −1 existiert und P −1 = P 0 ⇐⇒ P P 0 = P 0 P = I
Satz 13.4
P ist orthogonal ⇐⇒ Spalten pk , k = 1, . . . , n von P bilden ein ONS
⇐⇒ Zeilen pi , i = 1, . . . , n von P bilden ein ONS
Anwendung: Transformationsmatrizen sind unter bestimmten Vorraussetzungen
orthogonal:
Satz 13.5 Sei B = {e1 , . . . , en } die kanonische Basis von V = Rn und
D = {d1 , . . . , dn } eine beliebige Orthonormalbasis. Dann ist die Transfermatrix für
B −→ D gegeben durch
T = (d1 B , . . . , dn B ) = (d1 , . . . , dn )
und T ist orthogonal, d.h. T −1 = T 0 .
Konsequenz: Sei X = Rn , x ∈ X
Koordinaten–n–Vektor
bez. B = {e
1 , . . . , e
n}
x1
x B = x =  ... 
xn
114
Koordinaten–n–Vektor
bez. D = {d1
, . . . , d
n}
x̃1
x D =: x̃ =  . . . 
x̃n
13.1. Basistransformationen und lineare Abbildungen
aus Satz 13.1 =⇒ x
B
= Tx
D
⇐⇒ x = T x̃
aus Satz 13.3, Satz 13.5 =⇒ x̃ = T −1 x = T 0 x mit T = (d1 , . . . , dn )
z
}|
{
D = {d1 , . . . , dn } ONS
13.1. Basistransformationen und lineare Abbildungen
Sei f : X −→ Y eine lineare Abbildung, X, Y endlichdimensional
dim X = n, dim Y = m
f
Raum
X
−→
Y
Basis
B = {b1 , . . . , bn }
↓
D = {d1 , . . . , dm }
Matrix Af
Definition 13.3
Af := f (b1 )D , . . . , f (bk )D , . . . , f (bn )D = Af (B, D)
| {z }
Koordinaten–m–tupel
der Koordinaten von
f (bk ) bez. der Basis
D = {d1 , . . . , dm }
f
Abbildungsmechanismus: x ∈ X −→ y = f (x)
↓
xB
|{z}
Koordinaten–n–
tupel von X
bez. Basis B in
X
↓
f (x)B
| {z }
Koordinaten–
m–tupel von
f (x) bez. Basis
D in Y
aus Satz 12.4 =⇒ f (x)D = Af xB
115
13. Basis– und Koordinatentransformationen
13.1.1. Transformation der Basis von Y , (B fest)
D = {d1 , d2 , . . . , dm } −→ D̃ = {d˜1 , d˜2 , . . . , d˜m }
Transformationsmatrix Q
Q = (d˜1 D , d˜2 D , . . . , d˜k D , . . . , d˜m D ) = QDD̃
|{z}
Koordinaten–m–tupel
der Koordinaten des
neuen“ Basisvektors
”˜
dk bez. der
alten“ Basis D.
”
Geg.:
Vektor y ∈ Y
.&
yD =
Koordinaten–m–tupel von
y bez. Basis D
aus Satz 13.3 =⇒
y D̃ =
Koordinaten–m–tupel bez.
Basis D̃
Es gilt: y D̃ = Q−1 y D
Berechnung der neuen Matrix A(Basen
B,D̃)
(∗)
von f
D.12.3
Af (B, D̃) := (f (b1 )D̃ , . . . , f (bk )D̃ , . . . , f (bn )D̃ )
Formel (∗)
y=f (bk )
=⇒ f (bk )D̃ = Q−1 f (bk )D
=⇒ Af (B, D̃) = (Q−1 f (b1 )D , . . . , Q−1 f (bk )D , . . . , Q−1 f (bn )D )
= Q−1 (f (b1 )D , . . . , f (bk )D , . . . , f (bn )D )
= Q−1 Af (B, D)
mit Q = QDD̃
Satz 13.6
116
13.1. Basistransformationen und lineare Abbildungen
X Basis B = {b1 , . . . , bn }
Y Basis D = {d1 , . . . ,dn } |{z}
−→ D̃ = {d˜1 , . . . , d˜n }
QDD̃ = (d˜1 D , . . . , d˜k D , . . . , d˜m D )
f : X −→ Y lineare Abbildung. Dann gilt:
Af (B, D̃) = Q−1 Af (B, D)
13.1.2. Transformation der Basis von X (D fest)
B = {b1 , . . . , bn } |{z}
=⇒ B̃ = {b̃1 , . . . , b̃n }
Transformationsmatrix P = PB B̃
PB B̃ := (b̃1 B , . . . , b̃k B , . . . b̃n B )
D.12.3
Af (B̃, D) := (f (b̃1 )D , . . . , f (b̃k )D , . . . , f (b̃n )D )
| {z }
?
Sei b̃k B = (β1k , . . . , βnk )0 = Koord. von b̃k bez. Basis B
n
X
=⇒ b̃k =
βjk bk
Darstellung von b̃k bez. B
j=1
n
n
X
X
=⇒ f (b̃k ) = f (
βjk bj ) =
βjk f (bj )
j=1
=⇒ f (b̃k )D =
n
X
(Gleichung in Y )
j=1
βjk f (bj )
D
(wegen eindeutiger Koord.–Darst.!)
j=1


β1k
 .. 
 . 


= (f (b1 )D , . . . f (bj ) , . . . , f (bn )D )  βjk 
D
 . 
 .. 
βnk
= Af (B, D)b̃k B
=⇒ Af (B̃, D) = (f (b̃1 )D , . . . , f (b̃n )D ) = (Af (B, D)b̃1 B , . . . , Af (B, D)b̃n B )
117
13. Basis– und Koordinatentransformationen
Satz 13.7 Sei P = PB B̃ die n × n Transformationsmatrix für B 7→ B̃. Dann gilt
Af (B̃, D) = Af (B, D)P.
13.1.3. Transformation der Basis von X und von Y
X : B = {b1 , . . . , bn } |{z}
=⇒ B̃ = {b̃1 , . . . , b̃n }
Transf. Matrix P = PB B̃ := (b̃1 B , . . . , b̃n B )
Y : D = {d1 , . . . , dm } |{z}
=⇒ D̃ = {d˜1 , . . . , d˜m }
Transf. Matrix Q = QDD̃ := (d˜1 D , . . . , d˜m D )
Satz 13.8 Af (B̃, D̃) = Q−1 Af (B, D)P = Q−1
A (B, D)PB B̃
DD̃ f
Beweis: folgt aus Satz 13.6, 13.7 .
Spezialfall: Y = X , mit D = B und D̃ = B̃ , m = n
Also B = {b1 , . . . , bn } −→ B̃ = {b̃1 , . . . , b̃n }
Q := (d˜1 D , . . . , d˜n D ) = (b̃1 B , . . . , b̃n B )
P := (b̃1 B , . . . , b̃n B )
=⇒ P = Q = (b̃1 B , . . . , b̃n B )
Q
Satz 13.9 Im Fall X = Y , also f : X −→ X , und B = {b1 , . . . , bn } −→
B̃ = {b̃1 , . . . , b̃n } ist
Af (B̃) = Q−1 Af (B)Q,
Q = (b̃1 B , . . . , b̃n B )
und
Af (B̃) := Af (B̃, B̃) = (f (b̃1 )B̃ , . . . f (b̃n )B̃ ) = Matrix von f bez. B̃
Af (B) := Af (B, B) = (f (b1 )B , . . . , f (bn )B ) = Matrix von f bez. B
Beispiele:
118
13.1. Basistransformationen und lineare Abbildungen
(a) V = R2 mit den Basen:
1
−1
1
−1
B=
,
, D=
,
1
1
2
0
6
d1 @
1
@
I
b2@
@
d2 x
@
Ry
@
- -
b1
-
1
Gesucht ist die Transformationsmatrix T = TB,D !
1 −1
3
1
3 1
1
+
= b1 + b2
=
d1 =
2 1
2 1
2
2
2
−1
1 1
1 −1
1
1
d2 =
=−
+
= − b1 + b2
0
2 1
2 1
2
2
3
− 12
2
=⇒ T = (d1 B , d2 B ) =
1
1
=⇒ T −1 =
Sei x ∈ R2 mit x
Aus Satz 13.1: x
Sei y ∈ R2 mit y
D
B
Aus Satz 13.3: y
−1
−1
;x
D
2
=T
D
= Tx
=
B
−1
1
=
=?
3
2
1
2
3
2
1
2
1
−2
2
B
2
1
2
=
;y
− 12
=?
1
2
=
− 21
1
2
−1
1
=
−2
0
D
y
B
1
2
3
2
2
−1
=
1
2
− 52
119
13. Basis– und Koordinatentransformationen
(b) Drehungen des Koordinatensystems im R2 :
y
6
ỹ
x̃
cos ϕ
ẽ
=
1
I
@
sin ϕ
@
@
e2
cos ϕ + π2
@
=
ẽ2 =
6
ẽ@
ẽ1
sin ϕ + π2
2
@
I
@
@
-
e1
- x (vgl. Beispiel zu Satz 13.3):
T = (ẽ1 , ẽ2 )
cos ϕ − sin ϕ
=
sin ϕ
cos ϕ
x1
x̃1
x̃1
0 x1
=⇒
=T
,
=T
x2
x̃2
x̃2
x2
120
− sin ϕ
cos ϕ
13.1. Basistransformationen und lineare Abbildungen
R3 :
(c) Drehung des Koordinatensystems im
Abbildung 13.1.: s =Schnittgerade der {x, y}-Ebene und der {x̃, ỹ} -Ebene.
Auf s wird die positive Richtung so gewählt, dass die z-, z̃- und s-Achse ein
Rechtssystem bilden.
Die Eulerschen Winkel ϑ, ψ, ϕ sind dann wie folgt definiert:
A) Nutationswinkel ϑ zwischen den positiven Richtungen der z- und der z̃-Achse:
0 ≤ ϑ ≤ π.
B) Präzessionswinkel ψ zwischen der x-Achse und der s-Achse. Die Messung
von ψ erfolgt im mathematisch positiven Sinn der {x, y}– Ebene: 0 ≤ ψ ≤ 2π.
C) Winkel ϕ der reinen Drehung zwischen der s- und der x̃-Achse. Die Messung
von ϕ erfolgt im mathematisch positiven Sinn der {x̃, ỹ}–Ebene:
0 ≤ ϕ < 2π.
Der Übergang vom {x, y, z}– System zum {x̃, ỹ, z̃}– System wird durch drei
aufeinanderfolgende Drehungen erreicht:
x e1
y e2
z e3
X E1
1. Drehung- Y E 2
Z E3
X̃ Ẽ 1
2. Drehung- Ỹ Ẽ 2
Z̃ Ẽ 3
x̃ ẽ1
3. Drehung- ỹ ẽ2
z̃ ẽ3
121
13. Basis– und Koordinatentransformationen
1. Drehung
Abbildung 13.2.: 1. Drehung
Nach der Bemerkung im Anschluß an Def. 11.11 gilt:
e1 = < e1 , E 1 > E 1 + < e1 , E 2 > E 2 + < e1 , E 3 > E 3
π
π
= cos ψE 1 + cos
+ ψ E 2 + cos E 3
2
2
= cos ψE 1 − sin ψE 2
e2 = < e2 , E 1 > E 1 + < e2 , E 2 > E 2 + < e2 , E 3 > E 3
π
π
= cos
− ψ E 1 + cos ψE 2 + cos E 3
2
2
= sin ψE 1 + cos ψE 2
e3 = < e3 , E 1 > E 1 + < e3 , E 2 > E 2 + < e3 , E 3 > E 3 = E 3
2. Drehung
Entsprechend berechnet man:
E 1 = Ẽ 1
E 2 = cos ϑẼ 2 − sin ϑẼ 3
E 3 = sin ϑẼ 2 + cos ϑẼ 3
122
13.1. Basistransformationen und lineare Abbildungen
Abbildung 13.3.: 2. Drehung
3. Drehung
Abbildung 13.4.: 3. Drehung
Ẽ 1 = cos ϕẽ1 − sin ϕẽ2
Ẽ 2 = sin ϕẽ1 + cos ϕẽ2
Ẽ 3 = ẽ3
Mit den Abkürzungen
c1 = cos ψ, c2 = cos ϑ, c3 = cos ϕ
s1 = sin ψ, c3 = sin ϑ, c3 = sin ϕ
123
13. Basis– und Koordinatentransformationen
erhält man dann:
e1 = cos ψ(cos ϕẽ1 − sin ϕẽ2 ) − sin ψ[cos ϑ(sin ϕẽ1 + cos ϕẽ2 ) − sin ϑẽ3 ]
= (c1 c3 − s1 c2 s3 )ẽ1 + (−c1 s3 − s1 c2 c3 )ẽ2 + s1 s2 ẽ3
e2 = sin ψ(cos ϕẽ1 − sin ϕẽ2 ) + cos ψ[cos ϑ(sin ϕẽ1 + cos ϕẽ2 ) − sin ϑẽ3 ]
= (s1 c3 + c1 c2 s3 )ẽ1 + (−s1 s3 + c1 c2 c3 )ẽ2 − c1 s2 ẽ3
e3 = sin ϑ(sin ϕẽ1 + cos ϕẽ2 ) + cos ϑẽ3
= s2 s3 ẽ1 + s2 c3 ẽ2 + c2 ẽ3
=⇒ Transformationsmatrix für D := {ẽ1 , ẽ2 , ẽ3 } −→ {e1 , e2 , e3 } =: B


c 1 c 3 − s1 c 2 s3
s1 c 3 + c 1 c 2 s3 s2 s3
TB,D =  −c1 s3 − s1 c2 c3 −s1 s3 + c1 c2 c3 s2 c3 
s1 s2
−c1 s2
c2
−1
Nach Satz 13.3 ist TD,B
= TB,D , und TB,D ist nach Satz 13.5 orthogonal

0
=⇒ TB,D = TD,B

c1 c3 − s1 c2 s3 −c1 s3 − s1 c2 c3 s1 s2
=  s1 c3 + c1 c2 s3 −s1 s3 + c1 c2 c3 −c1 s2 
s2 s3
s2 c 3
c2
Anmerkung: Für ϑ = 0, π fallen die {x, y}– und {x̃, ỹ}– Ebene zusammen,
und die Knotenlinie s ist nicht erklärt. In diesem Fall definiert man
die s- Achse als identisch mit der x- Achse; dann ist also ψ = 0.

cos ϕ − sin ϕ
ϑ = 0 =⇒ TB,D =  sin ϕ cos ϕ
0
0

cos ϕ − sin ϕ

− sin ϕ − cos ϕ
ϑ = π =⇒ TB,D =
0
0
(d)
124

0
0 
1

0
0 
−1
X = R3
Y = Ebene durch 0 in R3 , die von den Vektoren d1 , d2
aufgespannt wird; dabei sei d1 ⊥d2
f : X −→ Y ,
f (x) := senkrechte Projektion von x auf Y .
13.1. Basistransformationen und lineare Abbildungen
x
6
* d2
:
f (x)
0 @ @
@
Y @
@
@
@
d1 ?
@
R
@
f ist eine lineare Abbildung von X in Y , und es gilt:
f (x) =
< x, d1 >
< x, d2 >
d1 +
d
2
kd1 k
kd2 k2 2
d
(∗)
d
Beweis: u1 := kd1 k , u2 := kd2 k ist die Orthonormalbasis von Y , die durch
1
2
u3 := u1 × u2 zu Orthonormalbasis von X = R3 ergänzt wird.
x ∈ X =⇒ x = λ1 u1 + λ2 u2 + λ3 u3
=⇒
f (x) = λ1 u1 + λ2 u2 =< x, u1 > u1 + < x, u2 > u2
=
<x,d1 >
d
kd1 k2 1
+i
<x,d2 >
d
kd2 k2 2
Gesucht ist die Matrixdarstellung Af (B, D), wobei B = {e1 , e2 , e3 } die kanonische Basis von R3 und D = {d1 , d2 } ist:
Af (B, D) = (f (e1 )D , f (e2 )D , f (e3 )D )
(∗)
f (ek )D ) =
<ek ,d1 >
kd1 k2
<ek ,d1 >
kd1 k2

!
=⇒ Af (B, D) =
;i



d11
d21
< ek , di >= dik , falls d1 =  d12  , d2 =  d22 
d13
d23
d11
kd1 k2
d21
kd2 k2
d12
kd1 k2
d22
kd2 k2
d13
kd1 k2
d23
kd2 k2
!
(∗∗)
125
13. Basis– und Koordinatentransformationen
Sei nun speziell Y die {x, y}– Ebene und d1 = e1 , d2 = e2
(∗∗)
=⇒ Af (B, D) =
z
1 0 0
0 1 0
x
6
3
d1 = e1
˜
* d2
- d2 = e2
-y
XXX
XXX
XXX
XX
z f (x)
X
?˜
d1
Y
x
Basiswechsel in Y :

 


1
−1 

D̃ = d˜1 =  1  , d˜2 =  1 


0
0
Wegen d˜1 ⊥ d˜2 gelten (∗) und (∗∗) auch mit d˜ anstatt d:
Af (B, D̃) =
126
d˜11
kd˜1 k2
d˜21
kd˜2 k2
d˜12
kd˜1 k2
d˜22
kd˜2 k2
d˜13
kd˜1 k2
d˜23
kd˜2 k2
!
=
1
2
1
−2
1
2
1
2
0
0
13.1. Basistransformationen und lineare Abbildungen
Af (B, D̃) läßt sich auch mit Satz 13.6 berechnen:
Transformationsmatrix Q = QDD̃
−1
=⇒ Q
1
=
2
1
=⇒ Af (B, D̃) = Q Af (B, D) =
2
−1
= (d˜1 D , d˜2 D ) =
1 1
−1 1
1 1
−1 1
1 −1
1
1
1
=
2
1 0 0
0 1 0
1 1 0
−1 1 0
127
13. Basis– und Koordinatentransformationen
128
Teil IV.
Eigenwerte und Eigenvektoren,
Quadratische Formen
129
14. Eigenwerte und Eigenvektoren,
Quadratische Formen
14.1. Eigenwerte und Eigenvektoren
Es seien A = An,n eine quadratische Matrix und I die (n, n)– Einheitsmatrix.
Definition 14.1 (Eigenwert, Eigenvektor) Jede Zahl λ, zu der ein n– Vektor
x 6= 0 existiert, so dass
Ax = λx ⇐⇒ (A − λI)x = 0
(14.1)
heißt ein Eigenwert von A. Der Vektor x heißt dann ein zum Eigenwert λ
gehörender Eigenvektor.
Satz 14.1 (Berechnung von Eigenwerten) λ ist Eigenwert von A, wenn
|A − λI| = det(A − λI) = 0.
Beweis: λ ist Eigenwert von A
⇐⇒ LGS (A − λI)x = 0 ist mehrdeutig lösbar (0 ist stets Lösung !)
S.8.10
S.10.4
⇐⇒ Rg (A − λI) 6= n ⇐⇒ det (A − λI) = 0.
Satz 14.2 p(λ) := |A − λI| ist ein Polynom n–ten Grades in λ, und es gilt:
p(λ) = b0 + b1 (−λ) + b2 (−λ)2 + . . . + bn (−λ)n ,
(14.2)
wobei b0 = |A| und bn = 1.
Definition 14.2 (Charakteristisches Polynom) p(λ) heißt das charakteristische Polynom der Matrix A.
131
14. Eigenwerte, Eigenvektoren, Quadratische Formen
Also gilt: λ Eigenwert von A ⇐⇒ λ Nullstelle des char. Polynoms von A.
Die Gestalt von p(λ) wird durch den Fundamentalsatz der Algebra bestimmt.
Satz 14.3 (Fundamentalsatz der Algebra) Das char. Polynom p besitzt n relle oder komplexe Nulstellen λ1 , λ2 , . . . , λn , die teilweise gleich sein können, und es
gilt
p(λ) = (λ1 − λ)(λ2 − λ) . . . (λn − λ)
(14.3)
Diese Nullstellen sind also die Eigenwerte
Q von A. Ein Vergleich von (14.2) und
(14.3) zeigt:
det A = nk=1 λk .
Definition 14.3 (Mehrfache Eigenwerte) λ1 heißt ein r–facher Eigenwert
von A, wenn p(λ) = (λ1 − λ)r q(λ) mit einem Polynom q und q(λ1 ) 6= 0.
Beispiele:
(a) n = 2 :
p(λ) = det
a11 − λ
a12
a21
a22 − λ
(14.2)
= det A + (a11 + a22 )(−λ) + (−λ)2
= λ2 − (a11 + a22 )λ + det A
2
Mit der Formel x + px + q = 0 ⇐⇒ x1,2 =
p(λ) = 0 ⇐⇒ λ1,2
λ1,2 =
a11 + a22
±
=
2
− p2
s
±
q
p2
4
− q folgt:
a11 + a22
2
2
− |A|
a11 + a22 1 p
±
(a11 − a22 )2 + 4a12 a21
2
2
(14.4)
(b)



A=

d11
0
..
.
0
0
... 0
.
.
d22 . . ..
... ..
. 0
. . . 0 dnn





Diagonalmatrix
d11 − λ
0
d22 − λ


=⇒ p(λ) = det(A−λI) = det 

...
0
132

dnn − λ

n
 Y

(dii −λ)
=
 i=1
14.2. Berechnung der Eigenvektoren zu einem Eigenwert
=⇒ Eigenwerte von A : λi = dii , i = 1, 2, . . . , n
14.2. Berechnung der Eigenvektoren zu einem
Eigenwert
Berechnung der Eigenvektoren zum Eigenwert λ erfolgt gemäß (14.1) durch (vollständige) Lösung des homogenen LGS
(A − λI)x = 0
Definition 14.4 (Eigenraum) E(λ) := Kern (A − λI) = {x : (A − λI)x = 0}
heißt der Eigenraum zu λ. E(λ) ist ein Unterraum des Rn und es gilt:
E(λ) = {0} ∪ Menge der Eigenvektoren zum Eigenwert λ.
Beispiel:
A=
4 2
1 5
(14.4)
=⇒ λ1,2 =
9 1√
1 + 8 =⇒ λ1 = 6, λ2 = 3
±
2 2
x1
−2
2
E(λ1 = 6) =
x=
: (A − 6I)x = 0 = x :
x=0
1 −1
x2
1
= {x : x1 − x2 = 0} = t
:t∈R
1
−2
E(λ2 = 3) =
t
:t∈R
1
133
14. Eigenwerte, Eigenvektoren, Quadratische Formen
x2
6
H
HHr
H
HH
−2
E(λ1 = 6)
r
1
H
HH
- x1
0HHH
1
H
HH
H
HH
HHE(λ2 = 3)
Achtung: 0 ist kein Eigenvektor !
14.3. Eigenwerte symmetrischer Matrizen
Es sei A eine symmetrische (n, n)– Matrix, d.h.
A = A0 ⇐⇒ aik = aki
für alle (i, k)
Satz 14.4 Sämtliche Eigenwerte λ1 , . . . , λn von A sind reell.
Satz 14.5 Für zwei verschiedene Eigenwerte λ1 6= λ2 von A gilt:
x1 Eigenvektor zu λ1
=⇒ < x1 , x2 >= 0 (d.h. x1 steht senkrecht auf x2 )
x2 Eigenvektor zu λ2
Satz 14.6 Ist λ ein r–facher Eigenwert von A, dann gibt es zu λ genau r linear
unabhängige Eigenvektoren, d.h. dim E(λ) = r.
Beispiel:


8 −3 −3
8 −3 
A =  −3
−3 −3
8
134
ist symmetrisch
14.3. Eigenwerte symmetrischer Matrizen
8 − λ −3
−3
p(λ) = |A − λI| = −3 8 − λ −3
−3
−3 8 − λ
= (8 − λ)3 + 2(−3)3 − 3(8 − λ)(−3)2
= 242 − 165λ + 24λ2 − λ3
Sei λ ∈ Z mit p(λ) = 0 =⇒ λ(165 − 24λ + λ2 ) = 242 =⇒ λ teilt 242
242 = 2 · 112 hat die Teiler ±1, 2, 11, 22, 121, 242
Durchprobieren und Polynomdivision ergeben die Eigenwerte:
λ1 = 2 einfach
λ2 = 11 zweifach
Berechne E(λ1 ) = {x : (A − λI)x = 0} :

 

6 −3 −3 0
8 − 2 −3
−3 0
 −3 8 − 2 −3 0  =  −3
6 −3 0 
−3
−3 8 − 2 0
−3 −3
6 0



−3 −3
6 0
−1 −1
2 0
9 −9 0  −→  0
1 −1 0 
−→  0
0 −9
9 0
0
0
0 0


  
1


x3 =t


=⇒ E(λ1 ) = t 1
:t∈R


1
Jetzt E(λ2 ) = {x : (A − 11I)x = 0}:

 



8 − 11
−3
−3
0
−3 −3 −3 0
−1 −1 −1 0
 −3
8 − 11
−3
0  =  −3 −3 −3 0  −→  0
0
0 0 
−3
−3
8 − 11 0
−3 −3 −3 0
0
0
0 0
 




−1
−1


x2 =s,x3 =t




1
0
=⇒ E(λ2 ) = s
+t
: s, t ∈ R


0
1
135
14. Eigenwerte, Eigenvektoren, Quadratische Formen
Man sieht sofort die Richtigkeit der Sätze 14.4 – 14.6 für dieses Beispiel !
Satz 14.7 Zu den Eigenwerten λ1 , . . . , λn von A gibt es n linear unabhängige Eigenvektoren u1 , . . . , un , d.h. es gibt eine Basis des Rn aus Eigenvektoren von A.
Beweis: Seien x1 , . . . , xr Vektoren aus Eigenräumen zu jeweils verschiedenen Eigenwerten von A. Dann gilt:
x1 + x2 + . . . + xr = 0 =⇒ x1 = x2 = . . . = xr = 0
Denn: 0 =< x1 , 0 >=< x1 ,
Pr
k=10
xk >=
Pr
k=1
(14.5)
S.14.5
< x1 , xk > = < x1 , x1 >= kx1 k2
=⇒ x1 = 0 und ebenso x2 = . . . = xr = 0
Sei nun λ1 = λ2 = . . . = λn1 6= λn1 +1 = λn1 +2 = . . . = λn2 6= . . .
Nach Satz 14.6 gibt es zugehörige Eigenvektoren:
u1 , u2 , . . . , un1 ;
|
{z
}
lin.unabh.
, u +2 , . . . , un2 ; . . .
u
| n1 +1 n1{z
}
(14.6)
lin.unabh.
=⇒ u1 , u2 , . . . , un sind linear unabhängig, denn:
µ1 u + . . . + µn1 un1 + µn1 +1 un1 +1 + . . . + µn2 un2 + . . . + µn un = 0
{z
} |
{z
}
| 1
∈E(λn1 )
(14.5)
∈E(λn2 )
=⇒ µ1 u1 + . . . + µn1 un1 = 0,
(14.6)
=⇒ µ1 = . . . = µn1 = 0,
µn1 +1 un1 +1 + . . . + µn2 un2 = 0, . . .
µn1 +1 = . . . = µn2 = 0, . . .
Wendet man auf die Basen u1 , . . . , un1 von E(λn1 ), un1 +1 , . . . , un2 von E(λn2 ),
. . . jeweils das Orthonormalisierungsverfahren von E. Schmidt an, so erhält man
die
Folgerung: Es gibt eine Orthonormalbasis des Rn bestehend aus
Eigenvektoren p1 (zu λ1 ), p2 (zu λ2 ), . . ., pn (zu λn ) von A.
136
14.3. Eigenwerte symmetrischer Matrizen
Beispiel:
Der Trägheitstensor J eines Würfels mit konstanter Massendichte bez. der dargestellten
Achsen lautet:


8 −3 −3
2
ma ˜
8 −3  ,
J, J˜ =  −3
J=
12
−3 −3
8
x3
6
a
- x2
wobei a die Seitenlänge und m die Masse des
Würfels bezeichnet.
x1
Gesucht sind a) die Hauptträgheitsmomente und
b) die Richtungen von Hauptträgheitsachsen
a) Setze c :=
ma2
12
. Dann ist
λ
˜
˜
pJ (λ) = det(J − λI) = det(cJ − λI) = det c(J − I)
c
λ
λ
= c3 det J˜ − I = c3 pJ˜
c
c
=⇒ für die Eigenwerte λi von J gilt: λi = cλ̃i ,
wobei λ̃i die Eigenwerte von J˜ sind.
i = 1, 2, 3
Obiges Beispiel: λ̃1 = 2, λ̃2 = λ̃3 = 11
=⇒ λ1 = 16 ma2 , λ2 = λ3 =
11
ma2
12
Hauptträgheitsmomente des Würfels
b) x ist Eigenvektor zu λ von J
⇐⇒ (J − λI)x = 0
˜
J=cJ,λ=c
λ̃
⇐⇒
(cJ˜ − cλ̃I)x = 0 ⇐⇒ (J˜ − λ̃I)x = 0
⇐⇒ x ist Eigenvektor zu λ̃ von J˜


1
Obiges Beispiel: u1 =  1 
1
Basis von E (λ̃1 = 2)
137
14. Eigenwerte, Eigenvektoren, Quadratische Formen




−1
−1
u2 =  1  , u3 =  0  Basis von E (λ̃2 = λ̃3 = 11)
0
1
Orthonormalisierungsverfahren liefert die Richtungsvektoren
 




1
−1
−1
1
1
1
p1 = √  1  , p2 = √  1  , p1 = √  −1 
3
2
6
1
0
2
von Hauptträgheitsachsen.
138
15. Diagonalisierung symmetrischer
Matrizen —
Hauptachsentransformation
Sei A eine symmetrische Matrix und p1 , p2 , . . . , pn eine Orthonormalbasis des Rn
bestehend aus Eigenvektoren p1 (zu λ1 ), . . . , pn (zu λn ) zu den Eigenwerten λ1 , . . . , λn
von A. Ferner sei P := (p1 , p2 , . . . , pn ) die (n, n)-Matrix mit den Spalten p1 , p2 , . . . , pn .
Eigenschaften von P :
— P ist (n, n)– Matrix
— P ist orthogonal, denn (vgl. S.13.4)
 0 
p1
 p0 


P 0 P =  .2  (p1 , p2 , . . . , pn ) = I =⇒ P −1 = P 0
.
 . 
p0n

λ1
0
λ2


— P AP = D := 

0
..
0



P 0 AP = 




= 

p01
p02
..
.
p0n
p0 1
p0 2
..
.
p0 n





.
( Diagonalisierung von A), denn:
λn






A(p
,
p
,
.
.
.
,
p
)
=


1 2
n



p01
p02
..
.
p0n



 (Ap1 , Ap2 , . . . , Apn )
 |{z} |{z}
| {z }
λ1 p1

λn pn
λ2 p2
λ1
0
λ2




 (λ1 p1 , λ2 p2 , . . . , λn pn ) = 






...
0

λn
Wegen P 0 AP = P −1 AP = D =⇒ A = P DP −1 = P DP 0 erhält man insgesamt:
139
15. Hauptachsentransformation
Satz 15.1 Sei A eine symmetrische Matrix mit den (reellen) Eigenwerten λ1 , . . . , λn
und Eigenvektoren p1 (zu λ1 ),. . ., pn (zu λn ), die eine Orthonormalbasis des Rn
bilden. Dann ist die Matrix P = (p1 , . . . , pn ) orthogonal, und es gilt:

A = P DP
λ1
0
λ2


mit D = 

0
..
0





.
(15.1)
λn
15.1. Hauptachsentransformation quadratischer
Formen
Sei A = (aik ) eine symmetrische (n, n)– Matrix
Definition 15.1 (Quadratische Form) Die Funktion
Q(x1 , x2 , . . . , xn ) =
n X
n
X
i=1 k=1
aik xi xk =
n
X
i=1

Q(x) = x0 Ax ,
kurz:
aii x2i + 2


x=

x1
x2
..
.
X
aik xi xk
i<k





xn
heißt quadratische Form in den n reellen Variablen x1 , . . . , xn bzw. in x ∈ Rn .
Beispiele:

d1
d2


(a) A = D = 

..
0
(b) A =
140
4 3
3 1
0



 =⇒ Q(x) = d1 x21 + d2 x22 + . . . + dn x2n

.
dn
=⇒ Q(x) = 4x1 2 + 6x1 x2 + x2 2
15.1. Hauptachsentransformation quadratischer Formen
15.1.1. Basistransformation (Hauptachsentransformation)
Die Diagonalisierung symmetrischer Matrizen wird nun auf die quadratischen Formen angewandt. Dazu sei wieder p1 , p2 , . . . , pn eine Orthonormalbasis des Rn bestehend aus Eigenvektoren zu den Eigenwerten λ1 , λ2 , . . . , λn von A. Wir betrachten
die Basistransformation (Hauptachsentransformation)
B = {e1 , e2 , . . . , en } −→ D := {p1 , p2 , . . . , pn }
Gemäß Satz 13.5 gilt für die Transformationsmatrix:
T = TB,D = (p1 , p2 , . . . , pn ) = P
Sei nun x ∈ Rn . Für das Koordinaten–n–Tupel y = (y1 , . . . , yn )0 von x bezüglich
der Basis D gilt dann auch Satz 13.3:
y := x
D
= T −1 x
B
= P −1 x = P 0 x
(15.1)
=⇒ Q(x) = x0 Ax = x0 (P DP 0 )x = (x0 P )D(P 0 x) = (P 0 x)0 D(P 0 x)
= y 0 Dy = λ1 y12 + λ2 y22 + . . . + λn yn2
Satz 15.2 Die Bezeichnungen seien wie in Satz 15.1, und es sei die quadratische
Form:
Q(x) = x0 Ax, x ∈ Rn
gegeben. Bezeichnet y = (y1 , . . . , yn )0 das Koordinaten–n–Tupel von x bez. der
Orthonormalbasis p1 , . . . , pn , dann gilt:
0
Q(x) = y Dy =
n
X
λk yk2 ,
y = P 0x
k=1
Bemerkung: Die durch p1 , . . . , pn festgelegten Geraden des
die Hauptachsen von Q(x) genannt.
Rn durch 0 werden
141
15. Hauptachsentransformation
Das folgende Beispiel zeigt, wie sich die Hauptachsentransformation zur Klassifizierung von Kegelschnitten verwenden läßt. Weitere Beispiele in den Übungen !
√ √
2
4
=⇒ Q(x) = x0 Ax = 4x21 + 2 2x1 x2 + 5x22
Beispiel: A = √
2
5
{x : Q(x) = const } = ?
9 1√
(14.4)
=⇒ λ1,2 = ±
1 + 8 =⇒ λ1 = 6, λ2 = 3
2 2
1
:t∈R
E(λ1 = 6) = {x : (A − 6I)x = 0} = t √
2
( √ )
− 2
E(λ2 = 3) = {x : (A − 3I)x = 0} = t
:t∈R
1
√ S.14.5
Wähle u1 = √12 ,
u2 = −1 2 =⇒ u1 ⊥u2
Orthonormalisierungsverfahren reduziert sich auf Normierung:
q
q
1
1
3
3
1
1
1
1
= q ,
= q
p1 = √ √
p2 = √ √
2
2
2
2
3
3
3
3
 q
Transformationsmatrix P = (p1 , p2 ) =  q
2
3
q 
− 23
q 
1
3
q

2
+ 3 x2

q
=⇒ y = P 0 x =  q q  x =  q
1
2
1
− 23
−
x
+
x
3
3 1
3 2
r
r
r
r
1
2 2
2
1 2
2
2
=⇒ Q(x) = λ1 y1 + λ2 y2 = 6(
x1 +
x2 ) + 3(−
x1 +
x2 )
3
3
3
3
Q(x) = C = const.
y2
y2
⇐⇒ 6y12 + 3y22 = C ⇐⇒ q 1 2 + q 2 2 = 1 (Ellipse)

q
1
3
q 
1
3

2
3
C
6
Hauptachsen: x = sp1 = t
x = sp2 = t
142
√1
2
√ − 2
1
⇐⇒ x2 =
√
q
1
x
3 1
C
3
2x1
⇐⇒ x2 = − √x12 = −
√
2
x
2 1
15.2. Definitheitskriterien
x2
y1
y2
8
2
2
1
p1
p2
2
1
x1
15.2. Definitheitskriterien für quadratische Formen
Sei A eine symmetrische (n, n)–Matrix und Q(x) = x0 Ax die zugehörige quadratische Form.
Bemerkung: Es gilt: Q(0) = 0, Q(λx) = λ2 Q(x)
Definition 15.2 (Definitheit) Q = Q(x) heißt
a) positiv semidefinit, falls Q(x) ≥ 0 für alle x ∈ Rn
b) positiv definit, falls Q(x) > 0 für alle x 6= 0
c) negativ semidefinit, falls Q(x) ≤ 0 für alle x ∈ Rn
d) negativ definit, falls Q(x) < 0 für alle x 6= 0
e) indefinit, falls Q(x) sowohl positiv, als auch negative Werte annimmt.
143
15. Hauptachsentransformation
Für Q̃(x) := x0 (−A)x = −Q(x) gilt:



pos. semidef. 











 pos. def.


neg. semidef.
⇐⇒ Q̃(x) ist
Q(x) ist






neg.
def.









indefinit
Bemerkung:
neg. semidef.
neg. def.
neg. semidef.
pos. def.
indefinit











Beispiele:
a) Q(x) = x
0
2 0
0 1
x = 2x21 + x22 ist positiv definit.


3
0
0
1 −1  x = 3x21 + x22 − 2x2 x3 + x23 = 3x21 + (x2 − x3 )2
b) Q(x) = x0  0
0 −1
1
ist positiv semidefinit.
c) Q(x) = x0 Ix = kxk2 ist positiv definit.
d) Q(x) = x
0
2
0
0 −1
x = 2x21 − x22 ist indefinit.
Bestimmung der Definitheit von Q(x) = x0 Ax
Nach Satz 15.1 gilt:
Q(x) = λ1 y12 + λ2 y22 + . . . + λn yn2 mit y = P 0 x( ⇐⇒ x = P y)
wobei λ1 , . . . , λn die (reellen) Eigenwerte von A sind. Damit folgt für (a) in
Definition 15.2:
Q(x) ist pos. semidef. ⇐⇒ Q(x) ≥ 0
für alle x ∈ Rn
⇐⇒ λ1 y12 + λ2 y22 + . . . + λn yn2 ≥ 0
für alle y ∈ Rn
⇐⇒ λ1 ≥ 0, λ2 ≥ 0, . . . , λn ≥ 0.
Analog charakterisiert man die Definitheitseigenschaften b) – e).
Es ergibt sich:
144
15.2. Definitheitskriterien
Satz 15.3 Sei A = A0 und Q(x) = x0 Ax. Q(x) ist
a) positiv semidefinit ⇐⇒ alle E.W. (von A) λi ≥ 0
⇐⇒ alle E.W. λi > 0
b) positiv definit
c) negativ semidefinit⇐⇒ alle E.W. λi ≤ 0
d) negativ definit
⇐⇒ alle E.W. λi < 0
e) indefinit
⇐⇒ A hat sowohl pos. als auch neg. E.W.
Beispiele: (s.o.)
a) A =
2 0
0 1
=⇒ λ1 = 2, λ2 = 1 =⇒ alle E.W. λi > 0 =⇒ Q(x) pos. def.


3
0
0
1 −1  =⇒ λ1 = 3, λ2 = 2, λ3 = 0 =⇒ alle E.W. λi ≥ 0
b) A =  0
0 −1
1
=⇒ Q(x) pos. semidef.
c) A = I =⇒ alle E.W. λi = 1 > 0 =⇒ Q(x) pos.def.
d) A =
2
0
0 −1
=⇒ λ1 = 2, λ2 = −1 =⇒ Q(x) indefinit
Eine andere Charakterisierung für positive Definitheit gibt
Satz 15.4 Sei A = A0 und Q(x) = x0 Ax. Q(x)
wenn alle Hauptabschnittsdeterminanten

a11 a12
a11 a12

a11 , det
, det a21 a22
a21 a22
a31 a32
ist genau dann positiv definit,

a13
a23  , . . . , det A
a33
von A positiv sind.
Beispiele: (s.o.)
145
15. Hauptachsentransformation
2 0 = 2 > 0 =⇒ Q(x) pos. def.
a) A =
: 2 > 0, 0 1 

3
3
0
0
0
0
3 0 1 −1  : 3 > 0, 1 −1 = 0
b) A =  0
= 3 > 0, 0
0 1
0 −1
0 −1
1
1 =⇒ Q(x) nicht pos. def.
1 0 = 1 > 0, . . . , det I = 1 > 0 =⇒ Q(x) pos.def.
c) A = I : 1 > 0, 0 1 2
0
2
0
= −2 < 0 =⇒ Q(x) nicht pos. def.
d) A =
: 2 > 0, 0 −1
0 −1 146
2 0
0 1
16. Norm einer Matrix
Es sei A = Am,n
Definition 16.1 (Euklidische Norm, Operatornorm)
(a) Euklidische Norm von A
! 21
m X
n
X
kAkE :=
a2ik
(A wird hier als m, n– Tupel aufgefasst !)
i=1 k=1
(b) Operatornorm von A
kAkOP := sup kAxk
(A wird hier als linearer Operator x −→ Ax aufgefasst !)
kxk=1
Bemerkung: Es ist kAkOP ≤ kAkE , insbesondere also kAkOP 6= +∞.
Ferner:
kAkOP = sup kAxk = sup kAxk
kxk
kxk≤1
x6=0
Beweis:
(a) Seien a1 , a2 , . . . , am die Zeilenvektoren von A
=⇒ i–te Koordinate von Ax =
n
P
aik xk =< ai , x > (Skalarprodukt)
k=1
S.3.6
Sei kxk = 1 =⇒ | < ai , x > | ≤ kai k · kxk = kai k
=⇒ kAxk2 =
m
P
(< ai , x >)2 ≤
i=1
=⇒ kAxk ≤
m n
PP
m
P
i=1
a2ik
21
= kAkE
i=1 k=1
=⇒ kAkOP = sup kAxk ≤ kAkE
kxk=1
kai k2 =
m P
n
P
i=1 k=1
a2ik
16. Norm einer Matrix
o
n
:
x
=
6
0
, M1 := {kAxk : kxk = 1},
(b) Seien M0 := kAxk
kxk
M2 := {kAxk : kxk ≤ 1}
Dann gilt: M0 = M1
”
”
⊂ “ : x 6= 0 =⇒
kAxk
kxk
1
x = kxk · kAk = A kxk , wo
⊃ “ : kxk = 1 =⇒ kAxk =
kAxk
,
xk
x
kxk
die Norm 1 hat
x 6= 0
Weiter gilt offenbar M1 ⊂ M2 , also sup M1 ≤ sup M2 .
Wegen 0 6= kxk ≤ 1 =⇒ kAxk ≤
kAxk
kxk
gilt auch sup M2 ≤ sup M0 .
Insgesamt folgt sup M0 = sup M1 = sup M2 .
16.1. Eigenschaften der Operatornorm
Satz 16.1
a) kAxk ≤ kAkOP · kxk
für alle x ∈ Rn
Für eine beschränkte Menge M ⊂ Rn (d.h. kxk ≤ c für alle x ∈ M ) ist daher auch
das Bild A(M ) = {Ax : x ∈ M } beschränkt (kAxk ≤ kAkOP · c für alle x ∈ M ).
b) kAkOP ≥ 0; kAkOP = 0 ⇐⇒ A = 0 (= Nullmatrix)
kλAkOP = |λ| · kAkOP
kA + BkOP ≤ kAkOP + kBkOP
Die Operatornorm erfüllt also dieselben Regeln wie die Vektornorm !
c) Sind A, B Matrizen, so dass AB definiert ist, dann gilt
kABkOP = kAkOP · kBkOP
d) Sei A eine reguläre (n, n)– Matrix und c > 0 eine positive Konstante, so dass
kAxk ≥ ckxk für alle x ∈ Rn .
148
16.1. Eigenschaften der Operatornorm
Dann gilt: kA−1 kOP ≤ 1c .
Beispiele:
(a) kIkOP = sup kIxk = 1
kxk=1

d1

0
d2


(b) Sei D = 



 eine Diagonalmatrix

...
0
kDkOP =
dn
sup kDxk = sup (d1 x1 )2 + (d2 x2 )2 + . . . + (dn xn )2
kxk=1
=
21
kxk=1
1
sup (d21 x21 + d22 x22 + . . . + d2n x2n ) 2
n
P
k=1
x2k =1
(denn:kxk = 1 ⇐⇒ kxk2 = 1 ⇐⇒ x21 + x22 + . . . + x2n = 1)
=
n
X
sup
n
P
! 21
n
X

=
sup
P
n
tk d2k
k=1
tk =1,tk ≥0
 21

tk =1,tk ≥0 k=1
k=1

tk d2k 

k=1
(dabei tk := d2k )
kDkOP =
max
1≤k≤n
d2k
21
= max
q
1≤k≤n
d2k = max |dk |
1≤k≤n
(16.1)
Analog zeigt man:
inf kDxk = min |dk |
kxk=1
(16.2)
1≤k≤n
Bemerkung:

d1
0
d2


Für eine Diagonalmatrix D = 

(15.1)
kDkOP =


 ist

...
0
max |dk |,
1≤k≤n

dn
v
u n
uX
kDkE = t
d2k
k=1
149
16. Norm einer Matrix
=⇒ kDkOP < kDkE , falls mindestens zwei dk 6= 0.
p
d21 + d22
r
|d2 |
=⇒ Die Abschätzung kAkOP ≤ kAkE
gilt i.a. mit < !
r
|d1 |
16.2. Berechnung der Operatornorm für
symmetrische Matrizen
Sei A = An,n eine symmetrische Matrix mit den Eigenwerten λ1 , λ2 , . . . , λn . Wir
benutzen die Diagonalisierung gemäß Satz 15.1:


λ1
0


λ2


0
A = P DP mit D = 
 und P orthogonal
.
.


.
0
λn
=⇒ kAxk2 = < Ax, Ax >= (Ax)0 Ax = (P D P 0 x )0 P D P 0 x = (P Dy)0 P Dy
|{z}
|{z}
y
y
= (Dy)0 |{z}
P 0 P Dy = (Dy)0 Dy = kDyk2
I
P P 0 x = kxk2
kyk2 = y 0 y = (P 0 x)0 P 0 x = x0 |{z}
und
I
=⇒ kAxk = kDyk und kxk = kyk mit y = P 0 x
=⇒ kAkOP =
(16.1)
sup kAxk = sup kDyk = kDkOP =
kxk=1
kyk=1
max |λk |.
1≤k≤n
Weiter ist
(16.2)
inf kAxk = inf kDyk =
kxk=1
kyk=1
min |λk |.
1≤k≤n
Satz 16.2 Sei A = A0 , λ1 , λ2 , . . . , λn die Eigenwerte von A. Dann gilt:
150
16.2. Berechnung der Operatornorm
a) kAkOP = sup kAxk = max |λk |
1≤k≤n
kxk=1
b) inf kAxk = min |λk |
kxk=1
1≤k≤n
Folgerung: Sei x 6= 0 bel. =⇒
x
kxk
hat Norm 1
x max |λk |
=⇒ min |λk | ≤ A kxk ≤ 1≤k≤n
1≤k≤n
| {z }
S.16.2
1
kAxk
kxk
=⇒ kxk · min |λk | ≤ kAxk ≤ kxk · max |λk |
1≤k≤n
1≤k≤n
für alle x ∈ Rn
151
16. Norm einer Matrix
152
Index
Äquivalenzklasse, 10
Achsenabschnittsgleichung, 38
Adjunkte, 70
Algebraisches Komplement, 70
Assoziativgesetz, 13, 14
Basis, 80
kanonisch, 93
Basistransformation, 124
Betrag, 23, 27
Charakteristisches Polynom, 115
Cosinus–Satz, 26
Cramersche Regel, 73
Definitheit, 127
Determinante, 70
Diagonalen, 45
Diagonalisierung, 123
Diagonalmatrix, 45
Differentiationsoperator, 94
Differenz von Vektoren, 13
Differenz zweier Elemente, 78
Dimension, 82
Dimensionssatz, 87
Distributivgesetz, 14
Distributivität, 24
Dreiecks–Ungleichung, 29
Eigenraum, 117
Eigenvektor, 115
Eigenwert, 115
mehrfacher, 116
Eindeutigkeitssatz, 59
Einheitsmatrix, 51
Einheitsvektoren, 15
Elementare Umformungen, 57
Elemente, 43
Euklidische Norm, 131
Eulerscher Winkel, 106
Existenzsatz, 59
Fundamentalsatz der Algebra, 116
Gauss–Algorithmus, 64
Gegenvektor, 12
Gruppenaxiome, 77
Hauptabschnittsdeterminanten, 128
Hauptachsentransformation, 124
homogenes LGS, 34
Homogenität, 24
indefinit, 127, 128
inhomogenes LGS, 34
Integrationsoperator, 95
Inverse, 51
kanonische Basis, 93
Kern, 87
Koeffizientenmatrix, 44
erweitert, 58
Kofaktor, 70
153
Index
Kommutativgesetz, 13
Kommutativität, 24
Koordinaten, 17, 81
Koordinaten–m–tupel, 101
Koordinatensystem, 15
Drehung im R2 , 105
Drehung im R3 , 106
Koordinatentransformation, 98
Koordinatentripel, 16
koordinatenweise
Addition, 16
Multiplikation mit λ, 16
Subtraktion, 16
Korkenzieherregel, 30
Länge eines Vektors, 23
linear
abhängig, 78
abhängig, 20
unabhängig, 78
unabhängig, 20
Lineare Abbildung, 91
lineare Funktion, 33
linearer Raum, 77
lineares Gleichungsssystem, 34
Linearform, 33
Linearkombination, 15, 19, 78
Maßeinheit, 9
Maßzahl, 9
Maßzahlen, 9
Matrix, 34, 43
Addition, 47
inverse, 51
Multiplikation, 49
negative, 45
orthogonale, 100
Produkt, 48
quadratische, 45
reguläre, 61
symmetrisch, 48
154
transponierte, 47
Multiplikation, 14
negativ definit, 127, 128
negativ semidefinit, 127, 128
Negative, 12, 77
Newtonsches Kräfteparallelogramm, 12
Norm, 23, 27
Euklidische, 131
Null, 77
Null-Tupel, 18
Nullelement, 77
Nullmatrix, 45
Nullpunkt, 11
Nullvektor, 12
Nutationswinkel, 106
Operatornorm, 131
orthogonal, 27
Orthogonalsystem, 27
Orthonormalbasis, 88
Orthonormalisierungsverfahren, 88
Orthonormalsystem, 27
Ortsvektor, 11
Polynom, 115
positiv definit, 127, 128
positiv semidefinit, 127, 128
Präzessionswinkel, 106
Punkte, 77
Quadratische Form, 124
Rang, 56
Rechenregeln
für n–Tupel, 18
für Vektoren, 14
für Determinanten, 72
Rechtssystem, 30
Schwarzsche Ungleichung, 28
Skalarprodukt, 23, 26
Spaltenrang, 55
Index
Spaltenvektor, 43
Strecke
äquivalente gerichtete, 10
gerichtete, 9
Summe von Vektoren, 12
Teilraum, 79
Transformationsmatrix, 98
Treppenmatrix, 56
Tupel, 17
Unterraum, 79
Summe, 86
Ursprung, 11
Vektor, 9, 10, 43
kollinear, 21
parallel, 21
Vektoren, 77
Vektorgleichung, 39
Vektorprodukt, 30
Eigenschaften, 30
Vektorraum, 14, 77
endlichdimensionaler, 80
unendlichdimensionaler, 80
Winkel der reinen Drehung, 106
Winkelberechnung, 25
Zahlenraum, 18
Zeilenrang, 55
Zeilenvektor, 43
155
Herunterladen