Lineare Algebra I

Werbung
Jürgen Guddat
Lineare Algebra I
Kurzfassung der Vorlesung im SS 04
Ausarbeitung: H. Grassmann, P. Mbunga 13. Juli 2004
Inhaltsverzeichnis
1 Reelle Vektorräume
1.1 Der n und seine algebraische Struktur . . . . . . .
1.2 Reelle Vektorräume . . . . . . . . . . . . . . . . . . .
1.3 Lineare Unterräume . . . . . . . . . . . . . . . . . .
1.4 Lineare Unabhängigkeit, lineare Anhängigkeit, Basis,
1.5 Koordinaten eines Vektors . . . . . . . . . . . . . . .
2
. . . . . .
. . . . . .
. . . . . .
Dimesion
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Lösungen linearer Gleichungssysteme – der Gaußsche Algorithmus
1
1
2
3
4
4
5
3 Einführung in die Matrizenrechnung und Lösbarkeitsbedingungen für lineare Gleichungssysteme
7
4 Affine Räume
4.1 Axiome des affinen Raums, Punktbasen, Koordinatensysteme . . . . . . . . . . . . . .
4.2 Affine Unterräume: Geraden, Ebenen, Hyperebenen . . . . . . . . . . . . . . . . . . . .
8
8
9
5 Lineare Abbildungen von Vektorräumen
5.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Kern und Bild einer linearen Abbildung . . . . . . . . . . . . . . . . . . .
5.3 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . .
5.4 Basiswechsel und Koordinatentransformationen . . . . . . . . . . . . . . .
5.5 Eigenvektoren und Eigenwerte einer Matrix bzw. eines linearen Operators
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10
10
10
11
13
14
6 Determinanten
6.1 Leibnizsche Definition, Regel von Sarrus, Cramersche Regel . . .
6.1.1 Deteminanten 2. Ordnung . . . . . . . . . . . . . . . . . .
6.1.2 Determinanten 3. Ordnung . . . . . . . . . . . . . . . . .
6.2 Die Leibnizsche Definition für eine Determinante n-ter Ordnung
6.3 Eigenschaften von Determinanten . . . . . . . . . . . . . . . . . .
6.3.1 Abgeleitete Eigenschaften von Determinanten . . . . . . .
6.4 Berechnung von Deteminanten . . . . . . . . . . . . . . . . . . .
6.5 Einige Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
16
17
18
20
21
21
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Reelle Vektorräume
n
1.1
Der
Sei
die Menge der reellen Zahlen.
Definition 1.1
und seine algebraische Struktur
n
:= {(x1 , . . . , xn ) | xi ∈
, i = 1, . . . , n} ist die Menge aller n-tupel reeller Zahlen.
In n erklärt man die Addition zwischen zwei Elementen und die Multiplikation eines n-tupels mit
einer reellen Zahl wie folgt:
Definition 1.2 Seien (x1 , . . . , xn ) und (y1 , . . . , yn ) ∈ n , c ∈ .
Addition: (x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn )
Multiplikation mit einer reellen Zahl: c · (x1 , . . . , xn ) = (c · x1 , . . . , c · xn )
1
Die Elemente x = (x1 , . . . , xn ), a = (a1 , . . . , an ) ∈
Satz 1.1 In
n
werden Vektoren genannt.
gelten die folgenden Rechenregeln:
n
1. Für alle a, b, c ∈
gilt (a + b) + c = a + (b + c) (Assoziativität)
2. Es gibt einen Vektor o ∈ n , so daß für alle a ∈
Elements, wir nennen es Nullvektor).
n
3. Zu jedem Vektor a ∈
inversen Vektors).
n
4. Für alle a, b ∈
5. Für alle c1 , c2 ∈
n
,a ∈
n
7. Für alle c ∈
, a, b ∈
1.2
gilt a + o = a (Existenz eines neutralen
n
mit a + (−a) = o (Existenz eines zu a
gilt a + b = b + a (Kommutativgesetz).
6. Für alle a ∈
8. Für alle c1 , c2 ∈
existiert ein Vektor −a ∈
n
gilt (c1 c2 )a = c1 (c2 a) (Assoziativgesetz).
gilt 1a = a.
n
,a ∈
gilt c(a + b) = ca + cb (1. Distributivgesetz).
n
gilt (c1 + c2 )a = c1 a + c2 a (2. Distrubutivgesetz).
Reelle Vektorräume
Definition 1.3 (V, +, ·) heißt reeller Vektorraum, wenn V eine nichtleere Menge ist und Abbildungen
+ : V × V −→ V, · × V −→ V gegeben sind, so daß die Eigenschaften 1.,...,8. aus Satz 1.1 erfüllt
sind.
Die Elemente von V heißen Vektoren, Die Opreation + heißt Addition von Vektoren, die Operation ·
heißt Multiplikatioan von Vektoren mit Skalaren.
Beispiele:
1. (
n
, +, ·) nach Satz 1.1
2. ( , +, ·), dies ist
3. G = {x ∈
n
4. F = {f :
−→
1
=
| x = α · a, α ∈
n
}, wobei a ∈
, a 6= o gegeben ist
}, die Menge aller Funktionen von
in
Die Operationen in F sind wie folgt erklärt:
Seien f, g ∈ F , dann ist die Funktion f + g wie folgt erklärt:
(f + g)(x) = f (x) + g(x) für alle x ∈
die Funktion cf, c ∈
,
ist durch
(cf )(x) = cf (x) für alle x ∈
definiert.
Satz 1.2 (F, +, ·) ist ein reeller Vektorraum.
Aus den obigen Vektorraumaxiomen lassen sich einige Rechenregeln ableiten, z.B.
1. Das Nullelement (der Nullvektor) eines Vektorraums ist eindeutig bestimmt.
2. Zu jedem Vektor a bibt es genau einen negativen Vektor −a.
3. In V läßt sich wie folgt eine Subtraktion definieren; für a, b ∈ V setzt man
a − b = a + (−b).
2
4. Jede Gleichung der Form a + x = x besitzt in V genau eine Lösung x.
5. Weiter gelten die folgenden Regeln für die Multiplikation mit Skalaren:
(a) 0 · a = o
(b) c · o = o
(c) c · a = o ⇔ c = 0 oder a = o
(d) −a = (−1)a
(e) −ca = (−c)a = c(−a)
(f) für beliebige r, s ∈
r(a − b) = ra − rb
(r − s)a = ra − sa
1.3
, a, b ∈ V gilt
Lineare Unterräume
Definition 1.4 Es sei (V, +, ·) ein reeller Vektorraum; eine nichtleere Teilmenge U ⊆ V heißt (linearer) Unterraum von V , wenn für alle x, y ∈ U und c ∈ gilt x + y ∈ U und cx ∈ U .
Satz 1.3 Wenn V ein reller Vektorraum und U ein linearer Unterraum von V ist, so ist U ein reeller
Vektorraum.
Prinzipien zur Konstruktion linearer Unterräume: Durchschnitt, Summe, lineare Hülle
Satz 1.4 Der Durchschnitt beliebig vieler linearer Unterräume eines Vektorraums V ist ein linearer
Unterraum von V .
Seien U1 , U2 ⊆ V Unterräume, dann setzen wir
U1 + U1 = {x = u1 + u2 | u1 ∈ U1 , u2 ∈ U2 }.
Satz 1.5 U1 + U2 ist ein Unterraum von V
Definition 1.5 Sei V ein reeller Vektorrraumund a1 , . . . , an ∈ V . Jeder Vektor der Form
b=
n
X
ci vi
i=1
mit beliebigen Skalaren ci ∈
wird eine Linearkombination der Vektoren a1 , . . . , an genannt.
Definition 1.6 (Lineare Hülle) Es sei M ⊆ V, M 6= ∅, dann bezeichnet lin(M ) die Menge aller Linearkombinationen aus je endlich vielen Elementen aus M , sie wird die lineare Hülle vom M genannt.
Satz 1.6 Es sei V ein reeller Vektorraum und ∅ 6= M ⊆ V . Dann ist lin(M ) ein linearer Unterraum
und M ⊆ lin(M ).
Definition 1.7 Es sei V ein reeller Vektorraum und E ⊆ V . Die Menge E heißt Erzeugendensystem
von V , wenn lin(E) = V ist. Der Vektorraum V heißt endlich erzeugbar, wenn V ein endliches
Erzeugendensystem besitzt.
3
1.4
Lineare Unabhängigkeit, lineare Anhängigkeit, Basis, Dimesion
Definition 1.8 Endlich viele Vektoren x1 , . . . , xn ∈ V heißen linear unabhängig, falls aus
n
X
c i xi = o
i=1
folgt c1 = 0, i = 1, . . . , n; anderes gesagt: Der Nullvektor ist nur auf triviale Art als Linearkombination
der Vektoren xi darstellbar.
Pn
Andernfalls heißen die Vektoren linear abhängig, d.h. die Gleichung i=1 ci xi = o hat eine nichttriviale Lösung.
Definition 1.9 Eine (nicht notwendigerweise endliche) Teilmenge M ⊆ V heißt linear unabhängig,
falls jeweils endlich viele Vektoren aus M linear unabhängig sind, anderenfalls linear abhängig.
Definition 1.10 Eine Teilmenge B ⊂ V heißt Basis von V , wenn B linear unabhängig ist und
V = lin(B) ist.
Satz 1.7 Jeder endlich erzeugte Vektorraum besitzt eine (endliche) Basis.
Zum Beweis benötigen wir das folgende
Lemma 1.1 Es sei M ⊂ V eine Teilmenge aus mindestens zwei Vektoren;
Pn dann ist M genau dann
linear abhängig, wenn es x, x1 , . . . , xn ∈ M und C1 , . . . , cn ∈ mit x = i=1 ci xi gibt.
Satz 1.8 (Basisaustauschsatz von Steinitz / Graßmann) Es sei B = {b1 , . . . , bn } eine Basis
von V und die Vektoren c1 , . . . , ck ∈ V seien linear unabhängig. Dann gilt k ≤ n und bei geeigneter
Numerierung der Vektoren ist {c1 , . . . , ck , bk+1 , . . . bn } eine Basis von V
Zum Beweis benötigen wir das folgende
Lemma 1.2 Es sei B = {b1 , . . . , bn } eine Basis von V und b ∈ V besitze eine Darstellung b =
P
n
0
j=1 xj bj . Falls ein k mit xk 6= 0 existiert, so ist auch die Menge B = {b1 , . . . , bk−1 , b, bk+1 , . . . , bn }
eine Basis von V .
Folgerung 1.1 Zwei Basen eines endlich erzeugten Vektorraums haben gleichviele Elemente.
Satz 1.9 (Basisergänzungssatz) Jede linear unabhängige Menge von Vektoren eines endlich erzeugten Vektorraums läßt sich zu einer Basis ergänzen.
Definition 1.11 Es sei V ein endlich erzeugter Vektorraum und B eine Basis von V . Dann ist die
Dimension von V definiert durch dimV = #B.
Lemma 1.3 Es sei V ein Vektorraum der Dimension n. Ist B eine linear unabhängige Menge von
Vektoren aus V , so ist B genau dann eine Basis von V , wenn #B = n ist.
Ist U ⊆ V ein Unterraum, so ist dimU ≤ n und wenn dimU = n ist, so gilt V = U .
Folgerung 1.2 dimV = n gilt genau dann, wenn V n linear unabhängige Vektoren besitzt und je
n + 1 Vektoren aus V linear abhängig sind.
Satz 1.10 (Dimensionssatz) Es seien S, T ⊆ V Unterräume, dann gilt
dimS + dimT = dim(S ∩ T ) + dim(S + T ).
1.5
Koordinaten eines Vektors
Definition 1.12 Die Koordinaten eines
PnVektore x ∈ V bezüglich der Basis B = {b1 , . . . , bn } sind
durch das n-tupel (x1 , . . . , xn ) mit x = i=1 xi bi gegeben.
4
2
Lösungen linearer Gleichungssysteme – der Gaußsche Algorithmus
Wir betrachten ein Gleichungssystem (G)
a11 x1 + . . . + a1n xn = b1
···
am1 x1 + . . . + amn xn = bm
Die Matrix (das rechteckige Schema)


a11
am1

. . . a1n

···
. . . amn
heißt die Koeffizientenmatrix des Gleichungssystems; die Matrix


a11 . . . a1n b1


···
am1 . . . amn bm
heißt die erweiterte Koeffizientenmatrix.


 
b1
x1
.
.
Wenn wir x =  ..  ∈ n und b =  ..  ∈
bm
xn
Matrixprodukt schreiben:
m
setzen, so können wir das Gleichungssystem als
Es sei A = (aij ) eine (m, n)-Matrix (mit m Zeilen und n Spalten) und B = (bjk ) eine (n, k)-Matrix,
dann heißt die Matrix
n
X
aij bjk )
A·B =(
j=1
deren Produktmatrix, dies ist eine (m, k)-Matrix. Speziell ist

a11


A · x =  ai1

···
am1
...
···
...
a1n
ain
. . . amn


  
x1
a11 x1 + . . . + a1n xn

  ..  
.
=
···
·
.

am1 x1 + . . . + amn xn
xn
Definition 2.1 Das Gleichungssystem G heißt lösbar, wenn {x ∈ n | Ax = b} 6= ∅ ist; wenn
{x ∈ n | Ax = b} = ∅ ist, so ist G unlösbar; die Menge {x ∈ n | Ax = b} heißt die Lösungsmenge
von G.
Es stellen sich die folgenden Fragen:
1. Existieren Lösungen oder ist die Lösungsmenge leer?
2. Gibt es eine eindeutig bestimmte Lösung?
3. Wie bestimmt man Lösungen bzw. stellt man die Unlösbarkeit fest?
Wir beginnen mit der dritten Frage.
Grundidee des Gaußschen Algorithmus
Dies ist ein schematisches Additionsverfahren, wobei sich die Lösungsmenge des Systems nicht ändert;
man erhält eine Dreiecksgestalt der Koeffizientenmatrix oder eine ähnlich einfache Gestalt, an der die
Lösungsmenge direkt ablesbar ist.
5
Definition 2.2 Zwei lineare Gleichungssysteme mit n Unbekannten heißen äquivalent, wenn sie dieselbe Lösungsmenge besitzen.
Speziell sind alle unlösbaren Gleichungssysteme mit n Unbekannten äquivalent.
Definition 2.3 Unter einer elementaren Umformung eines linearen Gleichungssystems versteht man
jede der folgenden Operationen.
I. Vertauschen zweier Gleichungen (bzw. Zeilen in (A | b).
II. Multuplikation der l-ten Gleichung (bzw. aller Elemente der l-ten Zeile) mit einer Zahl r ∈ und
Addition zur i-ten Gleichung (i 6= l) (bzw. entsprechende Operationen mit den Zeilen).
Für die i-te Gleichung (bzw. Zeile) gilt also
a0ij = aij + ralj , b0i = bi + rbl , l 6= j.
III. Die Multiplikation einer Gleichung (bzw. einer Zeile) mit r 6= 0.
Konkretisierung der Grundidee des Gaußschen Algorithmus
Wir wollen G durch elementare Umformungen in ein äquivalentes Gleichungssystem überführen, dessen
Lösungsmenge man unmittelbar angeben kann. Dies ist möglich wegen
Satz 2.1 Bei einer elementaren Umformung geht ein lineares Gleichungssystem in ein äquivalentes
über, d.h. die Lösungsmengen sind gleich.
Wir machen Umformungen Ax = b ↔ A0 x = b0 ,
Trapezgestalt) hat:


? ? ... ?
0 ? ... ?

 bzw.
···
0 ... 0 ?
wobei A0 eine der folgenden Formen (Dreiecks- oder


? ... ? ... ?
? ... ? ... ?
.
···
0 ... 0 ? ... ?
?
0


Gaußscher Algorithmus
1. Wir wählen in G eine Gleichung, die sog. Eliminationsgleichung aus, in der ein Koeffizient 6= 0 ist,
sei dies
ai∗ 1 x1 + . . . + ai∗ j ∗ xi∗ + . . . + ai∗ n xn = bi∗ mit ai∗ j ∗ 6= 0.
Das Element ai∗ j ∗ heißt Zentralelement, die entsprechende Zeile bzw. Spalte Zentralzeile bzw. Zentralspalte, man nennt es auch Pivotelement, -zeile, -spalte. Nun setzen wir
aij ∗
cij = −
für i = 1, . . . , m, i 6= i∗ .
a i∗ j ∗
2. Die Eliminationsgleichung wird nacheinander mit den Faktoren cij ∗ multipliziert das Ergebnis wird
zur i-ten Zeile addiert. Die neu entstandenen Elemente berechnen sich nach der sog. Kreuzregel:
aij · ai∗ j ∗ − ai∗ j · aij ∗
ai∗ j · aij ∗
a0ij =
= aij −
.
a i∗ j ∗
a i∗ j ∗
Struktur der Lösungsmenge eines linearen Gleichungssytsems
Wir betrachten das Gleichungssystem
G:
Ax = b
mit m Gleichungen und n Unbekannten; wir unterscheiden zwei Fälle:
b = 0, also das homogene System Ax = 0 und
b 6= 0, ein inhomogenes System. Wir nennen Ax = 0 das zu Ax = b gehörige homogene Gleichungssystem.
Satz 2.2 Die Menge {x ∈
n
| Ax = 0} ist ein Unterraum von
n
.
n
Satz 2.3 Es sei Uh = {x ∈
| Ax = 0} und es sei y eine Lösung des inhomogenen Systems. Dann
läßt sich die Lösungsmenge Uih des inhomogenen Systems wie folgt beschreiben:
Uih = {z ∈
n
| z = y + x für ein x ∈ Uh },
d.h. Uih = y + Uh .
6
3
Einführung in die Matrizenrechnung und Lösbarkeitsbedingungen für lineare Gleichungssysteme
Definition 3.1 Es seien m, n ∈
fest gwählt, aij ∈ , i = 1, . . . m; j = 1, . . . , n. dann heißt ein
Schema der Form


a11 . . . a1n
 = (aij ) i=1,...,m = (aij )m,n
A=
···
j=1,...,n
am1 . . . amn
eine (m, n)-Matrix bzw. Matrix vom Typ (m, n); m ist die Anzahl der Zeilen, n ist die Anzahl der
Spalten von A.
Zwei Matrizen A = (aij )m,n und B = (bij )p,q sind vom Typ gleich, wenn m = p, n = q ist.
Wenn m = n ist, so heißt A eine quadratische Matrix.
Seien A = (aij )m,n und B = (bij )m,n zwei Matrizen gleichen Typs und r ∈ , dann setzen wir
A + B = C mit cij = aij + bij ,
rA = C mit cij = r · aij .
Matrizenmultiplikation (siehe auch Kapitel 2): Seien A = (aij )p,q und B = (bij )r,s ; das Matrixprodukt
A · B ist nur definiert, wenn q = r ist. Wir setzen dann
A · B = C = (cik )p,s mit cik =
q
X
aij bjk .
j=1
Es erweist sich als günstig, folgende Schreibweisen für eine (p, q)- Matrix A einzuführen:


a1i
.
A = (a1 , . . . , an ) mit ai =  ..  ,
api
die Matrix wird durch ihre Spaltenvektoren beschrieben.
 1
a
.. 

mit ai = (ai1 , . . . , aiq ),
A=
.
p
a
die Matrix wird durch ihre Zeilenvektoren beschrieben.
Definition 3.2 AT = (dij )q,p mit dij = aji heißt die zu A transponierte Matrix.
 
x1
.. 
n

In Zukunft fassen wir x ∈
als (n, 1)-Matrix, also als Spaltenvektor x =
auf.
.
xn
 
y1
 ..  Pn
n
T
, dann nennt man x y = (x1 , . . . , xn )  .  = i=1 xi yi das SkaDefinition 3.3 Seien x, y ∈
yn
larprodukt oder inneres Produkt der Vektoren x, y.
Satz 3.1 Es sei Mm,n die Menge aller (m, n)-Matrizen, dann ist Mm,n mit den oben eingeführten
Operationen ein Vektorraum und es ist dimMm,n = m · n.
Satz 3.2 Sind für die Matrizen A, B, C die Produkte AB und BC erklärt, so existieren auch die
Produkte (AB)C und A(BC) und es gilt (AB)C = A(BC) (Assoziativgesetz der Matrixmultiplikation).
Sind für die Matrizen A, B, C das Produkt AB und die Summe B + C erklärt, dann existieren auch
die Produkte AC und A(B + C) sowie AB + AC und es gilt A(B + C) = AB + AC (Distributivgesetz)
Sind für die Matrizen A, B, C die Summe A + B und das Produkt AC erklärt, dann gilt (A + B)C =
AC + BC (anderes Distributivgesetz).
7
Rang einer Matrix
Es sei A = (aij )m,n eine Matrix mit den Spalten a1 , . . . , an und den Zeile a1 , . . . , am . Dann erzeugen
die Vektoren ai , i = 1, . . . , n in m einen Unterraum der Dimension rs ≤ m und die Vektoren ajT , j =
i, . . . , m erzeugen in n einen Unterraum der Dimension rz ≤ n.
Definition 3.4 rs heißt Spaltenrang und rz heißt Zeilenrang der Matrix A.
Satz 3.3 Zeilenrang und Spaltenrang der Matrix A sind gleich: rz = rs .
Definition 3.5 Der Rang rg(A) der Matrix A ist der Zeilen- bzw. Spaltenrang der Matrix A, d.h.
rg(A) ist die Maximalzahl linear unabhängiger Zeilen- bzw. Spaltenvektoren in A.
Satz 3.4 rg(A) = rg(AT ).
Definition 3.6 Eine (n, n)-Matrix A heißt regulär, wenn rg(A) = n, andernfalls heißt sie singulär.
Verfahren zur Bestimmung des Rangs einer Matrix
Wenn m ≤ n, so betrachtet man die Zeilenvektoren von A und prüft die lineare Unabhängigkeit; wenn
ja, so ist rg(A) = m. Andernfalls nimmt man m − 1 der Zeilenvektoren usw.
Wenn m > n, so betrachtet man die Spaltenvektoren von A.
Lösbarkeitsbedingung für lineare Gleichungssysteme und die Struktur der Lösungsmenge
Satz 3.5 Das Gleichungssystem Ax = b ist genau dann lösbar, wenn rg(A) = rg(A | b).


1 0 ... 0
..


.

Definition 3.7 Sei A eine reguläre Matrix. Die Matrix E = 
 0 . . . 1 0  nennt man Ein-
0 ... 0 1
heitsmatrix, weil AE = A = EA gilt. Dann heißt die Matrix X mit XA = E (bzw. AY = E) die zu
A inverse Matrix, sie wird mit A−1 bezeichnet.
Satz 3.6 Wenn A regulär ist, so existiert genau eine Inverse A−1 .
Wenn A regulär ist, so ist auch A−1 regulär und es gilt (A−1 )−1 = A.
Wenn r 6= 0 ist, dann gilt für eine reguläre Matrix A: (rA)−1 = 1r A−1 .
Satz 3.7 Ist für die Matrizen A, B das Produkt AB erklärt, dann ist (AB)T = B T AT .
Sind A, B reguläre Matrizen, so ist auch AB regulär und es gilt (AB)−1 = B −1 A−1 .
Ist A eine reguläre Matrix, dann ist (A−1 )T = (AT )−1 .
Satz 3.8 Wenn rg(A) = r ist, so ist {x ∈
n
.
n
| Ax = 0} ein (n − r)-dimensionaler Unterraum von
Folgerung 3.1 Wenn m ≥ n und rg(A) = n ist, so hat das Gleichungssystem Ax = 0 nur die triviale
Lösung.
4
4.1
Affine Räume
Axiome des affinen Raums, Punktbasen, Koordinatensysteme
Definition 4.1 (A, V, →) heißt reeller affiner Raum, wenn A eine nichtleere Menge, V ein reeller
−−→
Vektorraum und → eine Abbildung ist, die jedem Paar (P, Q) mit P, Q ∈ A einen Vektor P Q aus V
zuordnet. Dabei soll gelten:
−−
→
Zu jedem P ∈ A und jedem v ∈ V gibt es genau ein Q ∈ A mit v = P Q.
−−
→ −
−
→ −→
Für alle P, Q, R ∈ A gilt P Q + QR = P R.
8
Die Elemente von A heißen die Punkte des affinen Raums. Die Zuordnung (P, v) 7→ Q beschreibt das
Antragen eines Vektors an einen Punkt und ergibt einen neuen Punkt. Das heißt, wir haben eine neue
−−
→
−−
→
Abbildung + : A × V → A mittels (P, v) 7→ Q mit P + v = Q gdw. P Q = v, also P + P Q = Q.
Definition 4.2 A sei reeller affiner Raum mit V als zugehörigem Vektorraum; wir setzen dimA =
dimV .
−−−→
Definition 4.3 Je d+1 Punkte P 0 , P 1 , . . . , P d heißen affin unabhängig, wenn die Vektoren P 0 P i , i =
1, . . . , d linear unabhängig sind, andernfalls affin abhängig.
Definition 4.4 Es sei (A, V, →) ein n-dimensionaler affiner Raum. Die Menge {P 0 , P 1 , . . . , P n }
heißt Punktbasis, wenn P 0 , P 1 , . . . , P n affin unabhängig sind.
−−→
−−−
→
Eine geordnete Punktbasis (O, P 1 , . . . , P n ) bzw. das Tupel (O, OP 1 , . . . , OP n ) heißt Koordinatensystem; O heißt dessen Koordinatenursprung.
Wenn speziell (im n ) O = (0, . . . , 0), P i = (0, . . . , 1, . . . , 0) gewählt ist, so sprechen wir vom kartesichen Koordinatensystem.
Bezüglich eines Koordinatensystems können wir jedem Punkt X ∈ A eindeutig ein Zahlentupel
(x1 , . . . , xn ) mit
−−→
−
−−
→
X = O + x1 OP 1 + . . . + xn OP n
zuordnen, dies nennen wir das Koordinatentupel von X.
−−→
−−→ −−→
Wenn (y1 , . . . , yn ) die Koordinaten von Y sind, dann besitzt der Vektor XY = OY − OX = (y1 −
−−→1
−−−
→
x1 )OP + . . . + (yn − xn )OP n die Koordinaten (y1 − x1 , . . . , yn − xn ).
Satz 4.1 (Abhängigkeitskriterium für Punkte) Die Punkte P 0 , P 1 , . . . , P d ∈ A sind genau dann
affin abhängig, wenn es reelle Zahlen r1 , . . . , rn gibt, so daß
d
X
i=o
|ri | > 0,
d
X
ri = 0,
i=0
d
X
ri P i
i=0
gilt.
4.2
Affine Unterräume: Geraden, Ebenen, Hyperebenen
Definition 4.5 Es sei A ein reeller affiner Raum mit zugehörigem Vektorraum V . Die Menge T ⊆ A
heißt affiner Unterraum von A, wenn es einen Punkt P ∈ A und einen linearenUnterraum U ⊆ V
−−→
gibt, so daß T = {X ∈ A | P X ∈ U } gilt.
Andere Schreibweise: T = P + U .
Definition 4.6 Eindimensionale Unterräume von A heißen Geraden, zweidimensionale Unterräume
heißen Ebenen, (n − 1)-dimensionale Unterräume eines n-dimensionalen Raums heißen Hyperebenen.
Satz 4.2 Sei A ∈ Mm,n , rg(A) = r, dann ist die Lösungsmenge L des Gleichungssystems Ax = b ein
(n − r)-dimensionaler affiner Unterraum von n , und zwar ist L = P + U , wobei P eine spezielle“
”
Lösung von Ax = b und U der Lösungsraum des zugehörigen homogenen Gleichungssystems Ax = 0
ist.
Satz 4.3 Sei (A, V ) ein affiner Raum, dann ist g genau dann eine Gerade in A, wenn es einen Punkt
p ∈ A und einen Vektor o 6= v ∈ V gibt mit g = g(P, a) := {X ∈ A | X = P + ta für alle t ∈ }
Definition 4.7 A sei ein affiner Raum und g1 = g(P, a), g2 = g(Q, b) zwei Geraden in A. Dann
heißen g1 und g2 parallel, wenn b ∈ lin(a) ist; wenn zudem g1 6= g2 ist, so heißen die Geraden echt
parallel.
Satz 4.4 Eine Teilmenge E ⊂ A ist genau dann eine Ebene in A, wenn es einen Punkt p ∈ E und
linear unabhängige Vektoren a, b ∈ V gibt,so daß gilt E = {X ∈ A | X = P + t1 a + t2 b, t1 , t2 ∈ }.
9
Definition 4.8 Es sei A ein affiner Raum und E1 , E2 Ebenen in A, diese heißen parallel, wenn sie
denselben zugehörigen Vektorraum besitzen. Eine Gerade g in A heißt parallel zur Ebene E, wenn der
Vektorraum von g ein linearer Unterraum des Vektorraums von E ist.
Definition 4.9 Sei M ⊂ A eine Teilmenge des affinen Raums A. Dann heißt Af f (M ) der kleinste
affine Unterraum von A, der M enthält.
5
5.1
Lineare Abbildungen von Vektorräumen
Definition und Beispiele
Definition 5.1 Seien V, V 0 Vektorräume, ϕ : V −→ V 0 sei eine Abbildung. ϕ heißt lineare Abbildung,
wenn ϕ(x + y) = ϕ(x) + ϕ(y) für alle x, y ∈ V (Additivität) und ϕ(rx) = rϕ(x) für alle x ∈ V, r ∈
(Homogenität) gilt, d.h. ϕ ist operationestreu bezüglich der linearen Operrationen in V und V 0 .
ϕ heißt Isomorphismus von V auf V 0 , wenn ϕ eine bijektive lineare Abbildung ist.
Einfache Eigenschaften linearer Abbildungen
Sei ϕ : V −→ V 0 linear, dann gilt
ϕ(−x) = −ϕ(x) für alle x ∈ V
0
ϕ(o)
von V 0 )
P = o (Nullvektor
P
ϕ( ri ai ) = ri ϕ(ai ) für beliebige ai ∈ V, ri ∈
.
Beispiele und Gegenbeispiele
ϕ((x, y) = x − y
ϕ((x, y) = x · y
ϕ((x, y) = x + y + 1
ϕ(x) = r · x
Sei V ein n-dimensionaler Vektorraum und B = {a1 , . . . , an } eine Basis von V . Dann hat jeder Voktor
x ∈ V eine eindeutige Darstellung mit Hilfe der Basis B:
x=
n
X
xi a i ,
i=1
also x = (x1 , . . . , xn )B . Wir setzen ϕB (x) = (x1 , . . . , xn ), jedem Vektor wird sein Koordinatentupel
bezüglich B zugeordnet, also ϕB : V −→ n .
Satz 5.1 ϕB ist ein Isomorphismus.
Satz 5.2 Es sei ϕ : V −→ V 0 ein Isomorphismus, dann sind die Vektoren x1 , . . . , xn ∈ V genau dann
linear unabhängig, wenn ϕ(x1 ), . . . , ϕ(xn ) ∈ V 0 linear unabhängig sind.
Folgerung 5.1 Alle n-dimensionalen Vektorräume sind zu
5.2
n
isomorph.
Kern und Bild einer linearen Abbildung
Definition 5.2 Es sei ϕ : V −→ V 0 eine lineare Abbildung, dann heißt die Menge
ker(ϕ) = {x ∈ V | ϕ(x) = o0 }
der Kern (kernel) von ϕ und
im(ϕ) = {ϕ(x) | x ∈ V }
heißt das Bild (image) von ϕ.
Einige Folgerungen
10
Folgerung 5.2 Es sei ϕ : V −→ V 0 eine lineare Abbildung, dann gilt
1. ker ϕ ist ein linearer Unterraum von V .
2. im ϕ ist ein linearer Unterraum von V 0 .
3. ϕ ist injektiv gdw. ker ϕ = {o}.
4. ϕ ist surjektiv gdw. im ϕ = V 0 .
Folgerung 5.3 Es sei V ein endlichdimensionaler Vektorraum und V 0 ein beliebiger Vektorraum und
ϕ : V −→ V 0 eine lineare Abbildung, dann gilt
1. ker ϕ ist endlichdimensional.
2. im ϕ ist endlichdimensional.
Defekt und Rang
Definition 5.3 Es sei V ein endlichdimensionaler Vektorraum sowie V 0 ein beliebiger Vektorraum
und ϕ : V −→ V 0 eine lineare Abbildung, wir setzen def ϕ = dim kerϕ (Defekt von ϕ), rg ϕ =
dim im ϕ (Rang von ϕ).
Satz 5.3 (Dimensionsformel für lineare Abbildungen) Es sei V ein endlichdimensionaler Vektorraum, V 0 ein beliebiger Vektorraum und ϕ : V −→ V 0 eine lineare Abbildung, dann gilt
def ϕ + rg ϕ = dim V.
Folgerung 5.4 Es sei V ein endlichdimensionaler Vektorraum und V 0 ein beliebiger Vektorraum und
ϕ : V −→ V 0 eine lineare Abbildung.
1. ϕ ist injektiv gdw. def ϕ = 0.
2. ϕ ist surjektiv gdw rg ϕ = dim V .
3. Es sei dim V = n und {a1 , . . . , an } eine Basis von V . Die Abbildung ϕ ist ein Isomorphismus
gdw {ϕ(a1 ), . . . , ϕ(an )} ist eine Basis von V 0 ist.
Satz 5.4 Isomorphe Vektorräume V, V 0 besitzen die gleiche Dimension. Gilt umgekehrt dim V =
dim V 0 < ∞, so sind V und V 0 isomorph.
Satz 5.5 (Prinzip der linearen Fortsetzung) Es seien V, V 0 Vektorräume mit dim V = n und
B = {a1 , . . . , an } eine Basis von V . Dann gilt: Zu jedem n-tupel (a01 , . . . , a0n ) von Vektoren aus V 0 gibt
es genau eine lineare Abbildung ϕ : V −→ V 0 mit ϕ(ai ) = a0i , i = 1, . . . , n.
5.3
Lineare Abbildungen und Matrizen
Es sei A eine Matrix vom Typ(m, n), dann ist für x ∈ n durch ϕ(x) = Ax eine lineare Abbildung
ϕ : n −→ m definiert. Wir werden sehen, daß jede lineare Abbildung von n in m von dieser
Form ist. Das Prinzip der linearen Fortsetzung verhilft uns zu einer noch allgemeineren Aussage:
Es seien V, V 0 endlichdimensionale Vektorräume, dim V = n, dim V 0 = m, ϕ : V −→ V 0 eine lineare
Abbildung, B = (a1 , . . . , an ) eine Basis von V und B 0 = (b1 , . . . , bm ) eine Basis von V 0 .
Wir wissen, daß ϕ durch ϕ(a1 ), . . . , ϕ(an ) bereits eindeutig bestimmt ist. Weiter läßt sich ϕ(ai ) ∈ V 0
in eindeutiger Weise aus den Vektoren aus B 0 linear kombinieren:
ϕ(aj ) =
m
X
aij bi , j = 1, . . . , n.
i=1
11
Wir ordnen der Abbildung ϕ die folgende Matrix zu:

a11 . . . a1j
...


BB 0
Aϕ
=  ai1 . . . aij

...
am1 . . . amj
...
a1n



ain 

...
. . . amn
(in der j-ten Spalte stehen die Koordinaten des Bildes des j-ten Basisvektors).
Diese Matrix ist bei gegebenen B, B 0 durch ϕ eindeutig bestimmt. Zu verschiedenen linearen Abbildungen gehören verschiedene Matrizen.
Aus dem Prinzip der linearen Fortsetzng folgt:
Satz 5.6 Zu jeder Matrix A ∈ Mmn und Basen B, B 0 von V, V 0 gibt es eine lineare Abbildung ϕ :
BB 0
V −→ V 0 mit A = Aϕ
.
Satz 5.7 Es seien
x=
n
X
xi ai und ϕ(x) =
i=1
m
X
x0j aj
j=1
die Darstellungen von X, ϕ(x) durch die jeweiligen Basen, dann gilt
x0j =
n
X
aji xi , j = 1, . . . , m,
i=1
also
 
x1

.
A ·  ..  = 

xn
Wir veranschaulichen das durch ein Diagramm“
”
ϕ
V
−→


B y
x
BB
Aϕ
−→
0

x01
..  .
. 
x0m
0
V


y
B0
ϕ(x)
Zusammenfassung der bisherigen Ergebnisse
Sei L(V, V 0 ) = {ϕ | ϕ : V −→ V 0 ist lineare Abbildung }.
Mm,n = {A | A ist eine (m, n)-Matrix.
Wenn dim V = n, dim V 0 = m, B eine Basis von V und B 0 eine Basis von V 0 ist, so läßt sich L(V, V 0 )
eineindeutig in die Menge Mm,n abbilden. Diese Abbildung ist auch surjektiv, d.h. jede Matrix ist
beschreibende Matrix einer linearen Abbildung bzgl. B, B 0 :
0
.
Satz 5.8 Zu jeder Matrix A vom Typ (m, n) gibt es eine lineare Abbildung ϕ mit A = A B,B
ϕ
0
B,B
Satz 5.9 rg ϕ = rg Aϕ
.
Folgerungen
0
ϕ ist injektiv gdw. rg AB,B
= n.
ϕ
B,B 0
ϕ ist surjektiv gdw. rg Aϕ
= m.
B,B 0
= n.
ϕ ist Isomorhismus gdw. A ist quadratisch und rg Aϕ
ker ϕ ist der Lösungsraum des linearen Gleichungssystems AB,B
ϕ
12
0
  
x1
0
.
 ..  =  ...  .

xn
0


  

b1
x1
b1
0
.
 ...  =  ... 
im ϕ ist die Menge der Tupel  .. , für die das lineare Gleichungssystems AB,B
ϕ
bm
xn
bm
lösbar ist.
Satz 5.10 Die Abbildung
L(V, V 0 ) −→ Mm,n
ϕ 7→ AB,B
ϕ
0
ist ein Isomorphismus.
Folgerung 5.5 L(V, V 0 ) ist ein Vektorraum der Dimension m · n.
5.4
Basiswechsel und Koordinatentransformationen
Es sei V ein n-dimensionaler Vektorraum und B = {a1 , . . . , an }, B ∗ = {a∗1 , . . . a∗n } seien Basen von V ,
zu x ∈ V sei x = (x1 , . . . , xn )B , x = (x∗1 , . . . , x∗n )B ∗ .
Der Übergang von B (alter Basis) zu B ∗ (neuer Basis) heißt Basiswechsel, gesucht ist der Zusammenhang zwischen den alten und den neuen Koordinaten von x. Zur Beschreibung des Basiswechels
benutzen wir die gewonnenen Erkenntnisse über lineare Abbildungen und Matrizen.
Durch die Zuordnung
a1 7→ a∗1 , . . . , an 7→ a∗n
ist nach
linearen Fortsetzung eine lineare Abbildung ϕ : V −→ V gegeben; für
Pn dem Prinzip der P
n
x = i=1 xi ai gilt ϕ(x) = i=1 xi a∗i .
Wir wissen, daß ϕ ein Isomorphismus ist, denn ϕ überführt eine Basis von V in eine Basis von V .
Bezüglich B, B läßt sich ϕ durch die (quadratische) Matrix U = AB,B
beschreiben. In der j-ten
ϕ
Spalte von U stehen die Koordinaten von ϕ(aj ) = a∗j bezüglich B, also die Koordinaten der neuen
Basisvektoren bezüglich der alten Basis:
n
X
a∗j =
uij ai , j = 1, . . . , n
(∗)
i=1
Diese Formel heißt Basistransformation von B zu B ∗ und U heißt die Übergangsmatrix von B nach
B ∗ . Diese Basistransformation bewirkt nun die Koordinatentransformation: Sei
x=
n
X
xi a i , x =
i=1
dann ist
x=
n
X
j=1
also
x∗j a∗j
=
n
X
x∗j (
i=j
n
X
i=1
xi =
n
X
n
X
x∗j a∗j ,
j=1
n X
n
n
X
X
∗
uij ai ) =
(
uij xj )ai =
xi a i ,
i=1 j=1
i=1
uij x∗j , i = 1, . . . , n
j=1
oder
 ∗

x1
x1
. 
 ...  = U 
 ..  .

x∗n
xn
Nun ist die Matrix U invertierbar, da sie einen Isomorphismus beschreibt, also ist
 ∗
 
x1
x1
 .. 
.
 .,  = U −1  ..  ,
x∗n
xn
13
(∗∗)
hier werden die neuen Koordinaten durch die alten beschrieben.
Hinweis: Wenn man den Zusammenhang zwischen alter und neuer Basis (formal) als Matrixprodukt
schreiben will (wie oben in (*))
 ∗
 
a1
a1
 .. 
.
 .,  = H  ..  ,
a∗n
an
so ist H = U , die obige Koordinatentransormation (**) wird dann durch (H T )−1 beschrieben, diese
Matrix heißt die zu H kontragrendiente Matrix (die Koordinaten eines Vektors transformieren sich
kontragredient zu den Basisvektoren).
T
Sei nun dimV = n und ϕ : V −→ V eine lineare Abbildung, B = {a1 , . . . , an } eine Basis von V
und ABB
die beschreibende Matrix. Wir wollen den Basiswechsel von B zur Basis B ∗ = {a∗1 , . . . , a∗n }
ϕ
vollziehen; wie ändert sich dabei die beschreibende Matrix?
∗
B
Satz 5.11 Sei A = ABB
ϕ , A = Aϕ
Dann gilt
∗
B∗
und U die Übergangsmatrix beim Basiswechsel von B zu B ∗ .
A∗ = U −1 AU.
Definition 5.4 Seien A, B quadratische Matrizen; sie heißen ähnlich (A ∼ B), wenn es eine invertierbare Matrix C mit A = C −1 AC gibt.
Folgerung 5.6 Die Ähnlichkeit von Matrizen ist eine Äquivalenzrelation.
Satz 5.12 Zwei Matrizen beschreiben genau dann die gleiche lineare Abbildung, wenn sie ähnlich sind.
5.5
Eigenvektoren und Eigenwerte einer Matrix bzw. eines linearen Operators
Definition 5.5 Eine lineare Abbildung eines Vektorraums V in sich nennen wir einen linearen Operator auf V .
Sei ϕ : V −→ V ein linearer Operator und dimV = n. Wir fragen, ob es in der Ähnlichkeitsklasse
aller den Operator ϕ beschreibenden Matrizen eine Matrix von besonders einfacher Gestalt gibt.
Diagonalmatrizen haben eine besonders einfache Gestalt. Sei etwa


λ1 . . . 0
..

A=
.
0
. . . λn
P
eine beschreibende Matrix von ϕ zur Basis {a1 , . . . , an }. Dann gilt ϕ(ai ) P
= λi ai . Für x = xi ai , also
x = (x1 , . . . , xn )B , gilt demnach ϕ(x) = (λ1 x1 , . . . , λn xn )B , d.h. ϕ(x) = λi xi ai .
Es wird nicht immer möglich sein, zu einem gegebenen Operator eine solche Basis zu finden. Es stellen
sich daher die folgenden Fragen:
Wann läßt sich ϕ durch eine Diagonalmatrix beschreiben?
Wie findet man eine solche Matrix?
Definition 5.6 Sei ϕ ein linearer Operator auf V . Die Zahl λ heißt Eigenwert von ϕ, wenn es ein
x ∈ V, x 6= o mit ϕ(x) = λx gibt.
Der Vektor x 6= o heißt Eigenvektor von ϕ zum Eigenwert λ, wenn ϕ(x) = λx gilt.
in
betrachten wir
Beispiele: Im Vektorraum der beliebig oft differenzierbaren Funktionen von
den Differentialoperator f 7→ f 0 , dann ist die Funktion f (x) = eλx ein Eigenvektor zum Eigenwert λ,
denn f 0 = λeλx .
Zum identischen Operator idV ist jeder Vektor x ∈ V, x 6= o Eigenvektor zum Eigenwert 1.
Sei ϕ : V −→ V ein linearer Operator und λ ein Eigenwert von ϕ. Mit Eλ∗ϕ bezeichnen wir die Menge
aller Eigenvektoren zum Eigenwert λ. Dann ist Eλϕ := Eλ∗ϕ ∪ {o} ein linearer Unterraum von V .
14
Folgerung 5.7 Der lineare Operator ϕ auf V läßt sich genau dann durch eine Diagonalmatrix beschreiben, wenn V eine Basis aus Eigenvektoren besitzt.
Es stellt sich also die Frage, wann Eigenvektoren linear unabhängig sind. Eine erste Antwort gibt der
Satz 5.13 Sei ϕ : V −→ V ein linearer Operator und vi , i = 1, . . . , m seien Eigenvektoren von ϕ zum
Eigenwert λi . Wenn nun λi 6= λj für alle i 6= j gilt, so ist {v1 , . . . , vm } linear unabhängig.
Die Umkehrung des Satzes ist nicht richtig, denn es gibt linear unabhängige Eigenvektoren, die zum
selben Eigenwert gehören.
Wie berechnet man die Eigenwerte und Eigenvektoren eines linearen Operators?
Sei ϕ : V −→ V, dimV = n, dann gilt:
λ ist Eigenwert von ϕ
⇔ es gibt ein x ∈ V, x 6= o mit ϕ(x) = λx
⇔ es gibt ein x ∈ V, x 6= o mit ϕ(x) = λidV (x)
⇔ es gibt ein x ∈ V, x 6= o mit (ϕ − λidV )(x) = o
⇔ die Gleichung (ϕ − λidV )(x) = o besitzt eine nichttriviale Lösung
⇔ ker(ϕ − λidV ) 6= {o}
⇔ rg(ϕ − λidV ) < n
⇔ rg(A − λE) < n, wo A = ABB
die Abbildung ϕ bezüglich einer Basis B beschreibt.
ϕ
Die zu einem gegebenen Eigenwert λ gehörigen Eigenvektoren finden wir als Lösung der homogenen
Gleichung (ϕ − λidV )(x) = 0 bzw. (A − λE)x = o.
Satz 5.14 Es sei V ein n-dimensionaler Vektorraum, ϕ : V −→ V ein linearer Operator, λ ∈
x ∈ V , dann gilt:
und
1. λ ist Eigenwert von ϕ gdw. rg(ϕ − λidV ) < n.
2. x ist Eigenvektor von ϕ mit dem Eigenwert λ gdw. x eine nichttriviale Lösung von (ϕ −
λidV )(x) = o ist.
Sei Eλ∗ϕ die Menge aller nichtrivialen Lösungen von (ϕ − λidV )(x) = o, Eλϕ sei der Lösungsraum von
(ϕ − λidV )(x) = o, er heißt der Eigenraum von ϕ zum Eigenwert λ.
Beispiel: 3 4
. Ist diese Matrix diagonalisierbar, d.h. ist sie zu einer Diagonalmatrix ähnlich?
6 5
3−λ
4
< 2 gdw. die Spalten diser Matrix linear abhängig sind, dies
Es ist rg(A − λE) = rg
6
5−λ
ist für λ = 9 und λ = −1 der Fall.
Also besitzt A zwei verschiedene Eigenwerte, also zwei linear unabhängige Eigenvektoren, also ist A
diagonalisierbar,
die beschreibende Matrix bezüglich einer Basis aus Eigenvektoren hat die Gestalt
9 0
.
0 −1
9 0
? Dies ist die Übergangsmatrix von der kanoWie finden wir eine Matrix C mit c−1 AC =
0 −1
nischen Basis zueiner
Basis aus Eigenvektoren.
4 1
1
4
ϕ
ϕ
.
), also C =
), E−1
= lin(
Es ist E9 = lin(
6 −1
−1
6
Sei A =
6
6.1
Determinanten
Leibnizsche Definition, Regel von Sarrus, Cramersche Regel
Der Ausgangspunkt der Deteminantentheorie war die Suche nach einer einheitlichen Lösungsformel
für lineare Gleichungssysteme; Leibniz (1646 - 1716) führte 1678 den Begriff der Determinante ein
(der Matrix-Begriff wurde erst 1850 vom englischen Mathematiker Sylvester eingeführt).
15
6.1.1
Deteminanten 2. Ordnung
Wir betrachten das lineare Gleichungssystem
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2 ,
falls die Nenner von Null verschieden sind, erhalten wir als Lösung
b1 a22 − b2 a12
b2 a11 − b1 a21
, x2 =
.
a11 a22 − a21 a12
a11 a22 − a21 a12
a11 a12
Definition 6.1 Es sei A =
, dann ist detA = |A| = a11 a22 − a12 a21 die Deteminante
a21
a22 a
a12 von A, wir schreiben auch |A| = 11
.
a21 a22 x1 =
Dann lautet die obige Lösungsformel
a11 b1 a21 b2 ,
x2 = a11 a12 a21 a22 b1 a12 b2 a22 ,
x1 = a11 a12 a21 a22 diese Formel heißt Cramersche Regel.
6.1.2
Determinanten 3. Ordnung
Definition 6.2 Es sei
wir setzen

a11
A =  a21
a31
a12
a22
a32

a13
a23  ,
a33
|A| = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a13 a21 a32 + a12 a23 a31 + a13 a22 a31 ,
dies ist die Determinante von A, wir schreiben auch
a11 a12
detA = a21 a22
a31 a32
a13 a23 .
a33 Die Formel für die Determinante 3. Ordnung heißt Regel von Sarrus. Jeder Summand enthält genau
ein Element aus jeder Zeile und jeder Spalte der Matrix A.
Wie oben erhalten wir eine Cramersche Regel zur Lösung eines linearen Gleichungssystems mit drei
Unbekannten.
Um diese Konstruktion für den Fall von n-reihigen Matrizen verallgemeinern zu können, benötigen
wir ein paar neue Begriffe.
Definition 6.3 Sei M eine endliche Menge; eine bijektive Abbildung π : M −→ M heißt Permutation
von M .
Es sei M = {1, 2, . . . , n} und π eine Permutation von M , i 7→ π(i); wir beschreiben diese Permuation
wie folgt:
1
2
3 ...
n
π=
π(1) π(2) π(3 . . . π(n))
Die Menge aller Permutationen einer n-elementigen Menge bezeichnen wir mit Sn , diese Menge hat
n! Elemente.
16
Definition 6.4 Sei π ∈ Sn . Ein Paar (π(i), π(j)) heißt Inversion von π, wenn i < j,
aber π(i) > π(j) ist.
π heißt gerade Permutation, wenn π eine gerade Anzahl von Inversionen besitzt.
π heißt ungerade Permutation, wenn π eine ungerade Anzahl von Inversionen besitzt.
Die Zahl sgn(π) = (−1)(Anzahl der Inversionen von π) heißt Signum von π.
Es ist sgn(π) = 1, wenn π eine gerade Permutation ist, sonst = −1.
Die Determinante 3. Ordnung läßt sich dann so schreiben:
a11 a12 a13 X
detA = a21 a22 a23 =
sgn(π)a1π(1) a2π(2) a3π(3) .
a31 a32 a33 π∈Sn
Definition 6.5 Die Determinante ein (n, n)-Matrix A ist
a11 . . . a1n X
=
detA = ...
sgn(π)a1π(1) . . . anπ(n) .
an1 . . . ann π∈Sn
6.2
Die Leibnizsche Definition für eine Determinante n-ter Ordnung
Definition 6.6 (Determinante n-ter Ordnung) Es sei

a11
 a21
A=
 ...
an1
|A| :=
X
π∈Sn
a12
a22
..
.
···
···
..
.
an2
···

a1n
a2n 
.
a 
nn
ann
sgnπ · a1π(1) · a2π(2) · · · anπ(n)
1. Die Determinante |A| einer n-reihigen quadratischen Matrix ist eine reelle
Bemerkung 6.1
Zahl .
2. |A| ist die Summe von n! Summanden (soviele Summanden wie es Permutationen gibt von
{1, . . . , n})
3. Im Fall n = 2, 3 lassen sich die Determinanten nach der Definition leicht berechnen. Für n > 3
weniger handlich; n = 4, 24 Summanden; n = 5, 120; n = 6, 720
4. In Spezialfällen ist die Formel zur Berechnung nützlich.
Beispiel 6.1 (a)

0
 0

 0
A=
 −2

0
0
0
1
0
0
0
0
0 0
0 0
−4 0
0 0
0 0
0 1
0
0
0
0
−3
0

1
0

0
,
0

0
0
|A| :=
X
π∈S6
sgnπ · a1π(1) · a2π(2) · · · a6π(6)
Die Summe besteht aus 720 Summanden. Alle, mit Ausnahme eines einzigen, gleich Null.
a16 a22
a33 a41 a55 a64 = −24,
denn a16 = a22 = 1, a33 = −4, a41 = −2, a55 = −3, a64 = 1,
1 2 3 4 5 6
π=
6 2 3 1 5 4
17
(1)

a11
 0

0
2.
1. Sei A = 
 .
 ..
0
a22
0
..
.
0
0
a33
···
···
..
0
0
0
..
.



 =⇒ |A| = a11 a22 · · · ann


.
0
0
0 · · · ann
Begründung: In der Leibnizschen Determinantenformel tritt in jedem anderen Summanden mindestens einmal die Null auf.
6.3
Eigenschaften von Determinanten
Frage: Wie verändert sich die Determinante, wenn man Zeilenumformungen an der Matrix vornimmt?
Z.B.
• Welchen Einfluss hat die Multiplikation einer Zeile von A mit einer reellen Zahl auf die Determinante?
• Vertauschungen von Zeilen einer Matrix.
i = 1, . . . , n
j = 1, . . . , n
Bezeichung für die i-te Zeile von A: Zi


Z1
 .. 
 . 


=⇒
A =  Zi  mit Zi = (ai1 , . . . , ain ),
 . 
 .. 
Zn
Es sei A = (aij ) ,


Z1
 .. 
 . 


|A| =  Zi 
 . 
 .. 
Zn
Satz 6.1 Sei A eine quadratische Matrix. Dann gilt:
1. Multipliziert man eine Zeile von A mit einer reelen Zahl α, so ist die Determinante der neuen
Matrix das α-fache von |A|:
Z1 Z1 . . . . . . (2)
αZi = α Zi . . . . . . Zn
Zn
Beispiel:
5
21
8
1
0
9
5
10 12 = 3 7
8
1 1
0
9
1
10 4 = 3 · 5 7
8
1 1
5
0
9
2 4 1
(3)
2. Ist eine Zeile von A die Summe von 2 Vektoren, so ist die determinante |A| von A die Summe
von 2 Determinanten:
Z1 Z1 Z1 ..
.. ... .
. Z0 Z + Z0 (4)
+
Z
=
i
i
i
. .i ..
. . .
. . Zn
Zn
Zn
Beispiel:
1
4
7
1
5
8
3 1
6 = 1
9 7
18
2
2
8
3 1
3 + 3
9 7
2
3
8
3 3 9
(5)
3. Vertauscht man 2 Zeilen von A, so ändert die Determinante ihr Vorzeichen:
Z1 Z1 . . . . . . Zj Zi . . .. = − . . Z Zi j
. . . . . . Zn
Zn
Beispiel:
1
4
7
4.
2
5
8
4
3 6 = − 1
7
9
5
2
8
1
0
also 0
...
0
|Enn | = 1,
0
1
0
..
.
6 7
3 = 4
9 1
0
0
0
1
···
···
0
.
···
..
8
5
2
9 6 3
0
0
0 = 1
.. .
1
(6)
(7)
(8)
Beweis (ÜA) : folgt mit Hilfe von Definition 6.6.
4 folgt unmittelbar aus Definition 6.6 (siehe Bemerkung 6.1)
3: überlegt man sich leicht mit Hilfe von Definition 6.6
2 mit Definition 6.6:
···
a1n Z1 a11
..
..
..
.
.
.
0
0
0 Zi + Zi = ai1 + ai1 · · · ain + ain ..
..
..
.
.
.
Zn
an1
···
ann
X
=
sgnπ · a1π(1) · a2π(2) · · · (aiπ(i) + a0iπ(i) ) · · · anπ(n)
=
X
π∈Sn
π∈Sn
sgnπ · a1π(1) · a2π(2) · · · aiπ(i) · · · anπ(n) +
1 analog nach Definition 6.6
X
π∈Sn
sgnπ · a1π(1) · a2π(2) · · · a0iπ(i) · · · anπ(n)
Z1 Z1 . . . .. . = Zi + Zi0 . . . . . . Zn
Zn
Bemerkung 6.2 Die im Satz 6.1 aufgeführten Eigenschaften heißen Grundeigenschaften der Determinanten, weil man aus ihnen alle anderen Eigenschaften von Determinanten ableiten kann, ohne auf
die Definition zurückzugehen. Mit diesen Eigencshaften kann man eine axiomatische Definition einer
Determinante vornehmen, die Weierstraßsche Determinantendefinition:
Sei Mnn =⇒ R eindeutige Abbildung.
Wenn man zusätzlich verlangt, dass die Funktion die Bedingung 1 bis 4 erfüllt, so kann man zeigen,
dass es genau eine Funktion gibt, die das Verlangte leistet, nämlich
X
sgnπ · a1π(1) · · · anπ(n)
(9)
A 7→
π∈Sn
19
mit 1-4 (Weierstraßsche axiomatische Determinatendefinition). Die Funktion ist wegen 1 und 2 linear
in jedem Argument. Man nennt solche Funktionen Multilinearformen (n-fache Linearformen).
6.3.1
Abgeleitete Eigenschaften von Determinanten
Satz 6.2 Sei A eine n-reihige quadratische Matrix. Dann gilt
5. Besteht eine Matrix nur aus Nullen, so ist |A| = 0
6. Stimmen in A zwei Zeilen überrein, so |A| = 0.
7. Addiert man in A zu einer zeile ein skalares Vielfaches einer anderen Zeile, so stimmt die
Determinante der so erhaltenen matrix mit |A| überrein.
8. Sind Zeilenvektoren von A linear abhängig, so ist |A| = 0.
Beweis
5. Mit Hilfe von 1 aus Satz 6.1, |O| = α · |O|, α = 0 ∈ R
6. Zi = Zj . Wir tauschen in A beide Zeilen miteinander
Satz 6.1,(3)
=⇒
7.
|A| = −|A| −→
|A| = 0
Z1 Z1 Z1
Z1 ..
.. .. .. . . .
.
Zi + αZj Zj Zi Satz 6.1:(2),(1) Zi . ..
... + α .. 6.
=
= .. .
.
Z Zj Zj Zj
j
. .. ..
.. .. . .
.
Zn Zn Zn
Zn
(10)
(11)
8. A hat wenigstens 2 Zeilen. Wegen der linearen Abhängigkeit der Zeilenvektoren, ist eine Zeile
LK der übrigen Zeilen, o.B.d.A.
Pn
Zi i=2 αi Zi n
n
X
Z2
S 6.1,(2),(1) X
Z2 6.
=
αi .. = 0 ( Zi kommt zweimal vor)
Z1 =
αi Zi =⇒ |A| = ..
.
. i=2
i=2
Zn
Zn
(12)
Satz 6.3 Es gilt |AT | = |A|.
Beweis Übungen, Hinweis: mit Def. 6.6
Folgerungen aus Satz 6.3: Alle Aussagen über Determinanten bleiben richtig, wenn man in ihnen das
Wort Zeile durch Spalte ersetzt .
Satz 6.4 (Multiplikationssatz für Matrizen) Für beliebige n-reihige quadratische Matrizen A, B gilt:
|A · B| = |A| · |B|.
20
6.4
Berechnung von Deteminanten
1. Möglichkeit Mit Hilfe der Definiton: Für eine 10-reihige Matrix sind hier 10! Produkte von je
10 Faktoren zu bilden, also sind 32659200 Multiplikationen auszuführen; ein Computer, der in der
Sekunde 1 Million Multiplikationen ausführt, würde 33 Sekunden benötigen. Bei einer 25-reihigen
Matrix dauert das 1013 Jahre (das Alter des Universums beträgt schätzungsweise 1010 Jahre).
2. Möglichkeit Überführung der gegebenen Matrix mit Hilfe des Gaußschen Algorithmus in eine
Dreiecksmatrix: Man benötigt folgende Umformungen:
Vertauschen zweier Zeilen oder Spalten; bei jeder Vertauschung ändert sich das Vorzeichen, bei k
Vertauschen haben wir den Faktor (−1)k .
Addition eises skalaren Vielfachen einer Zeile (oder Spalte) zu einer anderen.
3. Möglichkeit Entwicklung der Determinante nach einer Zeile (oder Spalte): Bei diesem Verfahren
wird die Berechnung einer Determinante n-ter Ordnung auf die Berechnung von Determinanten (n−1)er Ordnung zurückgeführt. Das Verfahren verläuft wie folgt:
Sei A = (aij ); die Matrix Uij entstehe aus A durch Streichen der i-ten Zeile und der j-ten Spalte, dies
ist also eine Matrix vom Typ (n − 1, n − 1), wir nennen |Uij | die Unterdeterminante oder den Minor
zum Element aij . Die Zahl Aij = (−1)i+j |Uij | heißt die Adjunkte des Elöements aij .
Satz 6.5 (Laplacescher Entwicklungssatz 1 ) Sei A eine n-reihige Matrix und j ein Index mit
1 ≤ j ≤ n, dann gilt (Entwicklung von |A| nach der j-ten Spalte)
|A| =
n
X
aij Aij =
i=1
n
X
i=1
(−1)i+j aij |Uij | .
Bemerkungen:
Der Gaußsche Algorithmus ist das effektivste Berechnungsverfahren, eine konsequente Anwendung des
Entwicklungssatzes (Verkleinerung der Reihenzahl) führt letzendlich wieder auf n! Rechenoperationen;
die Entwicklung nach einer Zeile empfiehlt sich, wenn diese viele Nullen enthält.
Die Entwicklung von |AT | nach der i-ten Spalte ist identisch mit der Entwicklung von |A| nach der
i-ten Zeile:
n
X
|A| =
aik Aik .
k=1
Folgerung 6.1 Sei A eine quadratische n-reihige Matrix, dann gilt für alle j, k, 1 ≤ j, k ≤ n
n
X
i=1
6.5
aij Aik = 0, falls j 6= k.
Einige Anwendungen
Satz 6.6 Für jede quadratische Matrix A vom Typ (n, n) gilt |A| 6= 0 gdw. rgA = n.
Satz 6.7

det 
c11
0
...
..
.
...
c1n
cnn

 = c11 · . . . · cnn .
Satz 6.8 (Cramersche Regel) Es Sei Ax = b ein lineares Gleichungssystem mit quadratischer Koeffizientenmatrix A, dann gilt
Das System ist genau dann eindeutig lösbar, wenn |A| 6= 0.
Ist |A| 6= 0, so berechnet sich die einzige Lösung (x1 , . . . , xn ) nach der Formel
xi =
|Ai |
,
|A|
wobei Ai diejenige Matrix ist, die aus A entsteht, wenn man die i-te Spalte durch die rechte Seite des
Systems ersetzt.
21
Folgerung 6.2 Für jedes j, k, 1 ≤ j ≤ k ≤ n gilt
Darstellung der Inversen einer Matrix
Pn
i=1
aij Aik = 0, falls j 6= k ist.
Satz 6.9 Sei A invertierbar, dann gilt
A−1

A
1  11
=
|A|
A1n
...
...
...
An1
Ann

.
Wir kehren zu der Frage nach der Diagonalisierbarkeit einer n × n-Matrix zurück. Dies ist der Fall,
wenn es n linear unabhängige Eigenvektoren gibt. Um dies entscheiden zu können, berechnen wir
zunächst alle Eigenwerte von A und dann zu jedem Eigenwert λ den Eigenraum EλA . Wenn A r
verschiedene Eigenwerte besitzt und d1 , . . . , dr die Dimensionen der zugehörigen Eigenräume sind, so
ist A genau dann diagonalisierbar, wenn d1 + . . . + dr = n ist.
Die reelle Zahl λ ist genau dann Eigenwert von A, wenn rg(A − λE) < n ist, und dies ist genau dann
der Fall, wenn |A − λE| = 0 ist.
Definition 6.7 pA (λ) = |A − λE| heißt das charakteristische Polynom der Matrix A.
Sei p(λ) = αn λn + αn−1 λn−1 + . . . + α1 λ + α0 , dann ist
αn = (−1)n
αn−1 = (−1)n−1 (a11 + . . . + ann )
α0 = p(0) = |A|
Die Zahl a11 + . . . + ann heißt die Spur der Matrix A.
Satz 6.10 Ähnliche Matrizen haben dasselbe charakteristische Polynom.
Dieser Satz gibt die Rechfertigung für die folgende
Definition 6.8 Sei V ein reeller Vektorraum und ϕ : V −→ V ein linearer Operator, dann heißt das
charakteristische Polynom einer beliebigen, ϕ beschreibenden Matrix A das charakteristische Polynom:
pϕ (λ) = pA (λ).
Bemerkungen
1. Das charakteristische Polynom eines linearen Operators ϕ auf einem n-dimensionalen Vektorraum V hat den Grad n.
2. Die Eigenwerte von ϕ sind die Nullstellen des charakteristischen Polynoms von ϕ.
3. Jeder lineare Operator hat höchstns n verschiedene Eigenwerte.
4. Es gibt lineare Operatoren, die keine (reellen) Eigenwerte und somit keine Eigenvektoren besitzen.
5. Wenn pϕ (λ) genau n reelle Nullstellen besitzt, so ist ϕ diagonalisierbar (die Umkehrung gilt
nicht).
6. λ∗ ist genau dann Eigenwert von ϕ, wenn pϕ (λ) = (λ − λ∗ )q(λ) ist.
7. Wenn λ∗ ein Eigenwert von ϕ ist und pϕ (λ) = (λ − λ∗ )k r(λ) mit r(λ∗ ) 6= 0 ist, so heißt λ∗
k-fache Nullstelle von pϕ (λ). Die Zahl k heißt die algebraische Vielfachheit des Eigenwerts λ∗ ,
die Dimension des Eigenraums Eλϕ∗ heißt dessen geometrische Vielfachheit.
8. Zwischen der geometrischen Vielfachheit d und der algebraischen Vielfachkeit k besteht die
Beziehung 1 ≤ d ≤ k ≤ n.
Folgerung 6.3 ϕ ist genau dann diagonalisierbar, wenn pϕ (λ) in Linearfaktoren zerfällt und für jeden
Eigenwert die algebraische und die geometrische Vielfachheit übereinstimmt.
22
Herunterladen