Glossar

Werbung
1
Zahlen I: Natürliche Zahlen
N : t1, 2, 3, . . .u
ist die Menge der
Grundeigenschaften von
natürlichen Zahlen, N0 : N Y t0u.
N:
Es gibt eine kleinste natürliche Zahl,
nPN
Jede natürliche Zahl
Jedes
Wenn
M
M
nPN
wird von
1
1.
hat einen unmittelbaren Nachfolger,
n
1.
aus erreicht, indem man endlich oft den Nachfolger bildet.
€ N eine nichtleere Menge (M H) von natürlichen Zahlen ist, dann enthält
ein eindeutig bestimmtes kleinstes Element.
1.1 Prinzip der vollständigen Induktion
Sei
M
€ N eine Menge natürlicher Zahlen
mit den folgenden beiden Eigenschaften:
1 P M (1
liegt in der Menge),
@n : n P M ñ n
dann muss auch
Dann gilt:
M
1
n
PM
1
in
(für alle natürlichen Zahlen
M
n
gilt: wenn
n
in
M
liegt,
liegen).
N
1.2 Summenformeln
ņ
(a)
j
j 1
npn2 1q (d.h. 1
ņ
(b)
j2
np n
j 1
(c)
q
1ñ
ņ
qj
j 0
1qp2n
6
2
...
n
p
q
n n 1
)
2
1q
1 1 q q
n 1
("geometrische Summe")
1.3 Erste Grundaufgabe der Kombinatorik zu Permutationen
Gegeben sind
n
verschiedene Gegenstände. Auf wieviele verschiedene Arten kann man diese Gegenstände
anordnen?
Antwort:
Es gibt
n! : 1 2 . . . pn 1q n
viele Möglichkeiten.
Y : tpx0, y0q : x0 P X, y0 P Y u ist das kartesische Produkt von X und Y , d.h. die
Menge aller Paare px0 , y0 q mit x0 P X und y0 P Y .
X
Eine Abbildung
mit
px0, y0q P f.
1.4 Denition
f :X
Sei
ÑY
f :X
ist eine Teilmenge
ÑY
f
€ X Y, so dass gilt: @x0 P X D!y0 P Y
eine Abbildung.
P X : f px1q f px2q ñ x1 x2.
f ist surjektiv :ô @y0 P Y Dx0 P X so dass f px0 q y0 .
f
ist
injektiv :ô @x1 , x2
1
f
ist
bijektiv :ô f
ist injektiv und surjektiv.
f : X Ñ Y eine Abbildung. Dann gilt:
f ist bijektiv ô Dg : Y Ñ X eine Abbildung, so dass g f : x0 ÞÑ g pf px0 qq die Identität
x0 ÞÑ x0 auf X ist und f g : y0 ÞÑ f pg py0 qq die Identität y0 ÞÑ y0 auf Y .
Bezeichnung: g f ist die Komposition (Hintereinanderausführung) von f und g .
|X | |Y | :ô Df : X Ñ Y und g : Y Ñ X mit g f idX und f g idY .
1.5 Proposition
Sei
1.6 Zweite Grundaufgabe zu Permutationen
Gegeben sind
n
Objekte, die
k
verschiedene Farben haben. Auf wieviele verschiedene Arten kann man diese Objekte
anordnen, wenn man gleichfarbige Objekte nicht voneinander unterscheiden will?
fj : |tx
Objekt mit Farbe
Variante: Gegeben sind
k
j u|,
also
man daraus bilden, wenn man den
Antwort
n!
f1 !f2 !...fk !
... f q!
pf f f!f !...f
.
!
1
n f1
f2
...
fk .
verschiedene Buchstaben. Wieviele Wörter der Länge
2
1
2
j ten
Buchstaben
fj
kann
k
k
1.7 Dritte Grundaufgabe zu Kombinationen ohne Wiederholung
seien
n
mal verwenden darf ?
n verschiedene Objekte und k
Gegeben
¤ n. Wieviele Möglichkeiten gibt es, k Objekte aus-
zuwählen, unter Berücksichtigung der Anordnung = Reihenfolge (Kombinationen ohne
Wiederholung mit Berücksichtigung der Anordnung) bzw. ohne Berücksichtigung der
Anordnung?
Antwort:
n!
pnkq!
mit Berücksichtigung der Anordnung
n!
k! n k ! ohne Berücksichtigung der Anordnung
n
k
pq
:
n!
k! n k ! heiÿt
pq
Binomialkoezient.
Es gilt:
n
k
n 1
k
n
n k
n
k
n
k 1
1.8 Binomischer Lehrsatz
Dann gilt:
pa
bqn
ņ
j 0
1.9 Korollar
Sei
M
Seien a
n j nj
a b .
j
eine Menge mit
(a)
M
hat genau
2n
(b)
M
hat genau
2n1
und
b
reelle (oder komplexe) Zahlen und
n
P N.
|M | n P N. Dann gilt:
viele verschiedene Teilmengen.
viele verschiedene Teilmengen mit gerader Elementezahl und
ebenso viele verschiedene Teilmengen mit ungerader Elementezahl.
1.10 Vierte Grundaufgabe zu Kombinationen mit Wiederholung
seien
n verschiedene Objekte und k
Gegeben
¤ n. Wieviele Möglichkeiten gibt es, k viele Objekte
auszuwählen, wobei Wiederholungen erlaubt sind (mit bzw. ohne Berücksichtigung der
Anordnung)?
2
Antwort:
nk
mit Berücksichtigung der Anordnung
n k 1
k
2
ohne Berücksichtigung der Anordnung
Zahlen II: Rationale, reelle und komplexe Zahlen
Z : tganze
u t. . . , 2, 1, 0, 1, 2, . . .u
Zahlen
2.1 Denition
Eine Menge
R
mit zwei Verknüpfungen
:RRÑR
heiÿt
(a)
(b)
(c)
(d)
Ring,
und
:RRÑR
wenn gilt:
@ a, b P R : a b b a (Addition ist kommutativ)
@ a, b, c P R : pa bq c a pb cq (Addition ist assoziativ)
D 0 P R : @ a P R : a 0 a 0 a (Existenz eines neutralen Elements bzgl. )
@ a P R : D a P R : a paq 0 paq a (Existenz von inversen Elementen
bzgl.
)
@ a, b, c P R : pa bq c a pb cq (Multiplikation ist assoziativ)
(f ) D 1 0 P R : @a P R : a 1 a 1 a (Existenz eines neutralen Elements bzgl. )
(g) @ a, b, c P R : pa
bq c a c b c, a pb cq a b a c (Distributivgesetze)
Falls zusätzlich @ a, b P R : a b b a gilt, dann heiÿt R (genauer pR, , q)
(e)
ein
kommutativer Ring.
2.2 Denition
Ein kommutativer Ring
k
heiÿt
@x P R, x 0 D x1 P R : x x1 1 x1x.
Körper,
wenn gilt:
k ein angeordneter Körper und X € k eine nichtleere Teilmenge
von k . Ein Element t P k heiÿt obere Schranke für X , wenn @x0 P X : x0 ¤ t gilt.
X heiÿt nach oben beschränkt, wenn es eine obere Schranke für X gibt. Ein Element
s P k heiÿt kleinste obere Schranke für X , wenn s eine obere Schranke ist und für jede
obere Schranke t gilt: s ¤ t. Dann wird s auch Supremum von X genannt; Bezeichnung
s supX . Der Körper k heiÿt vollständig, wenn jede nichtleere nach oben beschränkte
2.3 Denition
Sei
Teilmenge ein Supremum besitzt.
R
ist der einzige angeordnete vollständige Körper (Was "vollständig"für
wird in HM II erklärt).
C
C
bedeutet,
ist auch ein vollständiger Körper, aber nicht angeordnet.
C : tpx, y q : x, y P Ru mit
px1, y1q px2, y2q : px1 x2, y1 y2q
px1, y1q px2, y2q : px1x2 y1y2, y1x2
x 1 y2 q
p0, 1q schreiben wir i, dann gilt: i2 1.
Wenn wir px, y q als x
iy schreiben,
Für
3
px2 iy2q px1 x2q ipy1 y2q.
ist die Multiplikation px1
iy1 q px2 iy2 q px1 x2 y1 y2 q ipx1 y2 y1 x2 q.
Des Weiteren zeigt bzw. deniert man für z a
bi in C mit a, b P R:
• Falls z  0, dann z 1 aabib .
• z̄ a bi heiÿt komplex konjugiert zu z a bi.
?
• |z | a2 b2 heiÿt der Betrag von z .
• Dreiecksungleichung: @z, w P C : |z w| ¤ |z | |w|.
• Repz q : a heiÿt der Realteil von z . Impz q : b heiÿt der Imaginärteil von z. Repz q
und Impz q sind die kartesischen Koordinaten von z .
• Es existiert ϕ P R mit 0 ϕ ¤ 2π so dass z |z |pcos ϕ i sin ϕq.
• arg pz q : ϕ heiÿt das Argument von z . Das Paar p|z |, ϕq nennt man auch die
ist die Addition
px 1
iy1 q
2
Polarkoordinaten
•
Für
also
von
2
z.
z |z | pcos ϕ i sin ϕq ist z
arg pz q 2π ϕ.
|z| pcospϕq i sinpϕqq |z| pcos ϕ i sin ϕq,
|w| pcos ψ i sin ψq ist z w |z| |w| pcospϕ
1
1
Für z  0 :
z |z | pcos ϕ i sin ϕq.
•
Für
•
w
ψq
i sinpϕ
ψ qq.
a
 0 : wk : |z| pcosp ϕn k 2πn q i sinp ϕn k 2πn qq für k 0, . . . , n 1 sind
n verschiedene n te Wurzeln aus z , und dies sind auch alle n ten Wurzeln aus
•
Für
n
z
z.
2.4 Theorem
Seien
n¥1
(Fundamentalsatz der Algebra):
und
ppxq a0
a1 x
...
an xn
mit
a0 , . . . , an P C, an 0, ein nichtkonp eine Nullstelle, d.h. D z P C
stantes Polynom mit komplexen Koezienten. Dann hat
mit
ppz q 0.
2.5 Beispiel
Es existiert ein Körper
F2
mit nur zwei Elementen
0, 1.
Multiplikation
bzw. Addition sind wie folgt gegeben:
3
0
1
0
1
0
0
1
0
0
0
1
1
0
1
0
1
Vektorräume
3.1 Denition
Sei k ein Körper. Ein k -Vektorraum (oder: ein Vektorraum über k )
V mit zwei Operationen
: V V Ñ V, pv1 , v2 q ÞÑ v1 v2 und
: k V Ñ V, pλ, v1q ÞÑ λv1 mit den folgenden Eigenschaften:
ist eine Menge
ist kommutativ:
ist assoziativ:
v1
pv 1
v2 v1 @v1, v2 P V .
v2 q v3 v1 pv2 v3 q @v1 , v2 , v3 P V .
v2
4
erlaubt ein neutrales Element
erlaubt inverse Elemente:
0 P V : v1
@v1 P V Dv2 P V
0 v1
: v1
0 v1 @v1 P V .
v2 v2 v1 0,
und
@v1, v2 P V @λ, µ P k :
p λ µ q v1 λ v1 µ v1
λ p v1 v2 q λ v1 λ v2
p λ µ q v1 λ p µ v1 q
1k v1 v1
Die Elemente in
V
3.2 Denition
Sei
nennen wir
V
(oder Unterraum) von
Vektoren,
die in
k Skalare.
ein
k -Vektorraum. Eine Teilmenge U
V,
wenn gilt:
€V
heiÿt
Untervektorraum
p U V 1q U H
pU V 2q @u1, u2 P U : u1 u2 P U (abgeschlossen unter Addition)
pU V 3q @u1 P U, λ P k : λ u1 P U (abgeschlossen unter Multiplikation mit Skalaren)
Die Lösungsmenge eines Systems von homogenen linearen Gleichungen, in
n
Variablen
n
(kurz: homogenes LGS) ist ein Untervektorraum von k .
U, U 1
ñ U X U 1 Unterraum von V .
3.3 Denition Sei V ein k-Vektorraum, v1 , . . . , vn P V. Ein Vektor x P V
Linearkombination der v1 , . . . , vn :ô Dλ1 , . . . , λn P k : x λ1 v1 . . . λn vn .
Das
Unterräume von
Erzeugnis
der
V
v1 , . . . , v n
ist eine
ist die Menge
Sp pv1 , . . . , vn q : tx P V : x
Linearkombination der
v1 . . . , vn aufgespannte Menge).
Sp pv1 , . . . , vn q V, nennen wir v1 , . . . , vn
v1 , . . . , v n u
(die von
Falls
Sp pv1 , . . . , vn q
ist ein Untervektorraum von
ein
Erzeugendensystem
von
V.
V.
P V.
v1 , . . . , vn sind linear abhängig: ô Dλ1 , . . . , λn P k , mindestens ein λi 0, so dass
λ1 v1 . . . λn vn 0.
v1 , . . . , vn sind linear unabhängig: ô @λ1 , . . . , λn P k : λ1 v1 . . . λn vn 0 ñ
λ1 . . . λn 0.
3.4 Denition
Sei
V
ein
k -Vektorraum, v1 , . . . , vn
Ein Erzeugendensystem von
Basis
von
V,
das aus linear unabhängigen Vektoren besteht, heiÿt
V.
Wenn unendlich viele
vi pi P I Indexmenge) gegeben sind, nennt man sie linear abhängig,
vi1 , . . . , vin ndet, die linear abhängig sind.
wenn man endlich viele
5
3.5 Theorem
Jeder Vektorraum hat eine Basis. Wenn
eines Vektorraums
Wenn
n
V
n
dimV
Bezeichnung:
P I , und uj , j P J , Basen
I
und
J.
n P N vielen Elementen besitzt, dann hat jede Basis von V
Dimension von V .
Eine Basis ist ein unverkürzbares Erzeugendensystem:
tj uq € V.
Sp pbi , i P I q V,
aber
Eine Basis ist eine unverlängerbare linear unabhängige Menge von Vektoren, d.h.
linear unabhängig, aber
4
genau
heiÿt dann die
8, falls keine endliche Basis existiert.
Sp pbi , i P I
vi , i
sind, dann gibt es eine Bijektion zwischen
eine Basis mit
viele Elemente.
dimV
V
bi , i P I
zusammen mit irgendeinem
v0
PV
bi
sind linear abhängig.
Gauÿsches Eliminationsverfahren
(Gauÿ-Algorithmus)
4.1 Denition
Gegeben sei ein LGS
a11 x1
a12 x2
...
a21 x1
a22 x2
...
b1
a2n xn b2
a1n xn
.
.
.
al1 x1
(alle
aij
al2 x2
...
a11 . . .
Koezientenmatrix
Das Zahlenschema
a1n
.
.
.
.
.
.
al1
...
aln
des LGS
a1n b1
a11 . . .
.
.
.
al1
heiÿt
bl
P k, bi P k, l Zeilen, n Unbekannte, n Spalten mit aij , eine Spalte mit bi.)
Das Zahlenschema
heiÿt
aln xn
erweiterte Koezientenmatrix
...
aln
bl
des LGS
Allgemein heiÿt ein rechteckiges Zahlenschema
C
c11 . . .
.
.
.
cl1
(mit
cij
c1k
...
P k Körper) eine l k-Matrix.
6
clk
sind
C
hat
Zeilenstufenform,
C
0
0
0
0
0
wenn es die folgende Form hat:
0 c1k1 c2k ...
0
2
c3k ...
...
0
3
cik ...
...
...
0
i
...
...
...
...
0
...
...
...
...
...
0 sind, oberhalb der Stufenlinie irgendungleich 0 sind und unterhalb von jedem
wobei die Einträge unterhalb der Stufenlinie alle
welche Skalare stehen, die
ciki
alle Einträge
0
c1k1 , . . . , cjkj
alle
sind.
4.2 Grundeigenschaft des Gauÿ-Algorithmus:
Jede Matrix (mit Einträgen in ei-
nem Körper) kann man in Zeilenstufenform bringen, indem man endlich viele elementare
Zeilenumformungen durchführt:
P k wird die λ-fache Zeile mit Nr. a zur Zeile mit Nr. b addiert. (Im
Fall a b darf man die Zeile mit Nr. a mit λ 0 multiplizieren.)
(EZ1) Für
λ
(EZ2) Die Zeile mit Nr.
4.3 Grundaufgabe:
entscheiden ist, ob
a
wird mit der Zeile mit Nr.
Im Vektorraum
v1 , . . . , v n
Falls
sind Vektoren
v1 , . . . , v n
gegeben. Zu
λ1 , . . . , λn
aufstellen und lösen. Die Vektoren
liefern die Spalten der Koezientenmatrix.
n ¡ l dimV,
so müssen
4.4 Grundaufgabe:
U
kl
vertauscht.
linear unabhängig sind.
Lösung: Homogenes LGS mit Unbekannten
v1 , . . . , v n
V
b
v1 , . . . , v n
Im Vektorraum
linear abhängig sein.
kl
V
sind Vektoren
v1 , . . . , v n
Sppv1, . . . , vnq erzeugen. Zu bestimmen ist eine Basis von U .
Lösung: Matrix, deren Zeilen den Vektoren
v1 , . . . , v n
gegeben, die
entsprechen, in Zeilenstufenform
bringen und dann die Nullzeilen weglassen.
5
Matrizen
M atpl n, k q ist die Menge aller Matrizen mit l Zeilen und n Spalten und Einträgen in
k.
Seien A, B P M atpl n, k q, zwei Matrizen gleicher Gröÿer, mit Einträgen in demselben
Körper k, A paij q, B pbij q.
Die Summe
C
A
B, C
pcij q ist deniert durch cij : aij
d.h.
C
a11
C
a1n
.
.
.
al1
Dann ist auch
b11 . . .
b1n
.
.
.
bl1
...
aln
P M atpl n, kq.
Addition von Matrizen ist assoziativ und kommutativ.
7
bln
bij .
Die Matrix
0
0 ...
0
.
.
.
.
.
.
0 ...
0
ist
M atpl n, k q
neutrales Element in
bezüglich Addi-
tion.
A P M atpl n, k q, B
C
Dann ist
P M atpn p, kq
A B deniert durch cij :
ņ
aih bhj . C
P M atpl p, kq
h 1
Multiplikation ist assoziativ:
pA
Bq C
AC
BC
pA B q C A pB C q, und es gilt das Distributivgesetz
A pB C q A B A C
sowie
nicht
Multiplikation von Matrizen ist
Mit
El
E
l bezeichnen wir dielte
1 0 0 ... 0
0 1 0 ... 0 0
Für
.
.
.
.
.
.
.
.
.
k
..
.
.
.
.
Einheitsmatrix,
P M atpl l, kq (quadratische Matrix)
0 0 0 ... 1
A P M atpl n, k q gilt El A A A En .
5.1 Proposition
in
.
.
.
0 1
kommutativ.
Die Menge
M atpn n, k q der quadratischen Matrizen mit Einträgen
En . Für n ¥ 2 ist dieser Ring nicht kommutativ.
bildet einen Ring mit Einselement
M atpl n, k q
ist für beliebiges
l, n
ein
k -Vektorraum
mit
λ paij q pλaij q.
Eine Basis besteht aus den Matrizen:
0
Eij
...
..
.
.
.
.
0
.
.
.
.
..
...
0
...
...
0
...
...
0 i-te
...
...
0
.
.
.
0
Si pλq, Qji pλq
.
.
.
.
.
.
0
0
...
.
.
.
0
1
0
0
.
.
.
.
.
.
j -te
Die folgenden Matrizen
...
Zeile
Spalte
und
Pij
8
nennen wir
Elementarmatrizen.
1
λ P K, λ 0
..
.
.
.
.
.
.
.
0, Si λ : ...
.
..
0
0
...
...
0
1
0
.
.
.
0
..
.
.
.
.
1
0
.
.
.
.
.
.
.
.
.
.
..
0
..
.
.
.
0
0
...
...
0
...
...
1
0
.
.
.
0
..
λ
...
.
.
.
.
.
.
.
.
. i-te
.
.
.
0
0
...
...
1
.
.
.
..
.
.
.
.
...
...
0
j -te
1
0
1
0
.
.
. i-te
.
.
.
.
.
.
0
0
0
.
.
.
1
.
1
...
...
Zeile
1
Spalte
1
Pij
Zeile
Spalte
0
.
0
...
0
1
0
0
0
0
0
.
.
.
Qji pλq 0
0
λ
i-te
...
1
pq
0
...
..
i-te Zeile
j -te Zeile
.
1
0
...
.
.
.
1
0
1
...
1
0
.
.
.
...
..
0
.
.
.
.
.
.
.
1
...
...
0
1
..
.
1
i-te
j -te
Spalte
Si pλq A
bedeutet: die Einträge in der
A S i pλ q
bedeutet:
ite
Spalte von
A
iten
Zeile von
wird mit
9
Spalte
λ
A
werden mit
multipliziert.
λ
multipliziert.
Qji pλq A
bedeutet:
λ
j
Zeile
Multiplikation von links mit
wird zu Zeile
Pij
Multiplikation von rechts mit
i
addiert.
vertauscht die Zeilen
Pij
i
und
vertauscht die Spalten
i
j.
und
j.
Linksmultiplikation mit Elementarmatrizen: Zeilenoperation.
Rechtsmultiplikation mit Elementarmatrizen: Spaltenoperation.
P M atpl n, kq eine Matrix. Dann existieren Elementarmatrizen
B1 . . . Bp A eine Matrix in Zeilenstufenform ist.
5.3 Denition Sei A P M atpl n, kq eine Matrix mit Einträgen aij P k. Die transponierte Matrix zu A hat die Einträge bij : aji . Bezeichnung: AT oder At .
5.4 Lemma pA B qT B T AT
pA B qT AT B T , und pAT qT A.
Si pλqT Si pλq
Qji pλqT Qij pλq
pPij qT Pij
5.2 Korollar
B1 , . . . , Bp
6
Sei
A
(endlich viele), so dass
Lineare Abbildungen
6.1 Denition
Seien V und W Vektorräume über einem Körper k . Eine Abbildung
α : V Ñ W heiÿt lineare Abbildung (oder: k linear oder VektorraumHomomorphismus).
:ô @v1 , v2 P V @λ P k : αpv1 v2 q αpv1 q αpv2 q und α pλv1 q λ αpv1 q.
6.2 Theorem
V
und
W
seien
(a) Eine lineare Abbildung
k Vektorräume, tbi |i P I u
α:V
ÑW
sei eine Basis von
ist festgelegt durch die Werte
V.
αpbi q.
tci|i P I u irgendwelche Vektoren in W . Dann gibt es eine (und wegen (a)
β : V Ñ W mit β pbi q ci @i P I.
6.3 Theorem V und W seien endlich-dimensionale kVektorräume, dimV n, dimW l, tb1 , . . . , bn u eine Basis von V, tc1 , . . . , cl u eine Basis von W und α : V Ñ W eine lineare
Ñ
Ñ
Abbildung. Dann gibt es genau eine Matrix A P M atpl n, k q, so dass αp x q A x ist
Ñ
für x P V. Die Spalten von A sind αpb1 q, . . . , αpbn q.
(b) Seien
genau eine) lineare Abbildung
6.4 Denition
A heiÿt die darstellende Matrix
b1 , . . . , bn und c1 , . . . , cl .
Die Matrix
bezüglich der Basen
Bei linearen Abbildungen =
zur linearen Abbildung
α
pV Rq Homomorphismen vereinbaren wir spezielle Bezeich-
nungen:
ÐÑ Monomorphismus
surjektiv ÐÑ Epimorphismus
bijektiv ÐÑ Isomorphismus
injektiv
10
Wenn es einen Isomorphismus
α : V
ÑW
gibt, sagen wir, dass
V
und
W isomorph
sind.
Ein Homomorphismus α : V Ñ W ist ein Isomorphismus genau
α eine Basis von V auf eine Basis von W abbildet. In diesem Fall gilt
dimV dimW und α bildet dann jede Basis von V auf eine Basis von W ab.
6.5 Proposition
dann, wenn
Wichtiges Beispiel: Sei
Basis
b1 , . . . , bn .
Sei
W
V ein k Vektorraum mit Dimension n P N. Dann hat V
kn mit Basis e1, . . . , en, wobei
eine
0
ei
.. .
0
1 i-te
0
.
.
Zeile
.
.
0
Ñ kn mit αpbiq ei.
1 : kn Ñ V, ei ÞÑ bi .
Nach 6.5 ist das ein Isomorphismus. Die inverse Abbildung ist α
Nach 6.2 (b) gibt es eine eindeutige lineare Abbildung
α
α
bildet
v1
auf seinen Koordinatenvektor in
hängt von der Wahl der Basis
6.6 Theorem
eine Matrix
b1 , . . . , bn
kn
α:V
ab.
ab.
A P M atpn n, k q
ist invertierbar genau dann, wenn sie ein
Produkt von Elementarmatrizen ist.
Konstruktion von
A
B1 A
B2 B1 A
A1
.
.
.
.
.
.
Bs . . . B1 A
En
7
En
B1 En B1
B2 B1 En B2 B1
BS . . . B1 En Bs . . . B1
A1
Kern, Bild und Rang
Ñ W eine lineare Abbildung.
1 p0 W q.
Der Kern von α ist Kernpαq : tv0 P V |αpv0 q 0W u α
Das Bild von α ist Bildpαq : tw0 P W |Dv0 P V : αpv0 q w0 u αpV q.
7.1 Denition
Sei
α:V
7.2 Proposition
ô Kernpαq 0V .
(b) α ist surjektiv ô Bildpαq W.
7.3 Dimensionsformel: Sei dimV 8, α : V Ñ W linear. Dann gilt:
dim V dim Kernpαq dim Bildpαq.
Also: α injektiv ô dim V dim Bildpαq.
(a)
α
ist injektiv
11
7.4 Denition
Sei
Äquivalenzrelation,
X
eine Menge und
R € X X
eine Teilmenge von
X X. R
heiÿt
wenn die folgenden Eigenschaften erfüllt sind:
@x0 P X : px0, x0q P R pR ist reexiv).
@x0, y0 P X : px0, y0q P R ñ py0, x0q P R pR ist symmetrisch).
@x0, y0, z0 P X : px0, y0q P R und py0, z0q P R ñ px0, z0q P R pR ist transitiv).
Wenn px0 , y0 q P R, dann sagt man x0 und y0 sind äquivalent und man schreibt:
x0 y0 (oder x0 R y0 ).
7.5 Denition Sei R € X X eine Äquivalenzrelation, x0 P X. Die Äquivalenzklasse
von x0 ist die Menge ty0 P x : x0 y0 u.
7.6 Denition Sei R € X X eine Äquivalenzrelation. Die Menge der Äquivalenzklassen wird mit X {R (oder X {q bezeichnet. Elemente von Äquivalenzklassen sind
Repräsentanten
der Äquivalenzklassen.
k Vektorraum und U ein Unterraum.
x R y : x y P U deniert eine Äquivalenzrelation auf V . Die Menge der Äquivalenzklassen, V {, wird mit V {U bezeichnet. V {U ist selbst ein k Vektorraum und heiÿt
der Quotienten(vektor)raum ”V modulo U ”.
7.7 Quotientenvektorraum:
dim V
dim U
dim V {U
Sei
(falls
V
ein
dim V
8).
Ñ W eine lineare Abbildung. Dann ist Bildpαq V {Kernpαq.
7.9 Denition Sei α : V Ñ W eine lineare Abbildung. Die Dimension von Bildpαq
wird mit Rang von α, kurz Rang pαq, bezeichnet.
Es gilt also: Rang pαq dim V dim Kernpαq.
Ñ
Ñ
Wenn α : V Ñ W die Form x ÞÑ A x für eine Matrix A hat, nennt man Rang pαq auch
den Rang der Matrix A und schreibt Rang pAq.
Rang pAq Rang pAT q.
Es gilt: Rang pAq ¤ l und Rang pAq ¤ n für A P M atpl n, k q.
7.10 Denition A P M atpn n, kq heiÿt regulär, wenn RangpAq n, und singulär,
wenn Rang pAq n.
7.11 Theorem Sei α : V Ñ W, mit dim V dim W
n,Ñeine lineare Abbildung, die
Ñ
bezüglich gegebener Basen von V und W die Form x ÞÑ A x hat, für eine quadratische
Matrix A P M atpn n, k q. Dann sind die folgenden Aussagen äquivalent:
7.8 Proposition
Sei
α:V
(a)
α
ist ein Isomorphismus, d.h. bijektiv.
(b)
α
ist ein Monomorphismus, d.h. injektiv, d.h.
(c)
α
ist ein Epimorphismus, d.h. surjektiv, d.h.
(d)
Rang pαq n.
(e)
A
ist invertierbar.
(f )
A
ist regulär, d.h.
A
hat Zeilenrang
n.
12
Kernpαq t0u.
Bildpαq W .
(g)
AT
A
ist regulär, d.h.
hat Spaltenrang
0.
In der Spaltenstufenform von A sind alle Diagonalelemente 0.
Ñ
Das LGS A x 0 hat nur den Nullvektor als Lösung.
(h) In der Zeilenstufenform von
(i)
(j)
Ñ
b
(k) Für jede Wahl von
8
n.
A
sind alle Diagonalelemente
Ñ
Ax
hat das LGS
Ñ
b
genau eine Lösung.
Determinanten
Sei n P N, σ P Σn tPermutationen von n Elementenu.
Fehlstand von σ ist ein Paar pi, j q mit i j und σ piq ¡ σ pj q.
Das Vorzeichen von σ , Bezeichnung sgnpσ q, ist als
1 deniert, wenn σ eine gerade
Anzahl von Fehlständen hat und als 1, wenn die Anzahl der Fehlstände ungerade ist.
8.1 Denition
Ein
8.2 Denition
¸
detpAq :
P
Sei
A paij q P M atpn n, k q.
sgnpσ q
n
¹
aiσpiq
i 1
σ Σn
¸
P
sgnpσ q a1σp1q a2σp2q . . . anσpnq (Leibniz- Formel)
a11 a12 a13
a21 a22 a23 Regel von Sarrus :
a31 a32 a33
Sei
Determinante von A ist deniert als
σ Σn
8.3 Lemma
Die
A P M atpn n, k q
also genau dann invertierbar, wenn
a11 a22 a33
a11 a23 a32
ZSF . Dann
detA 0.
in
8.4 Multiplikationsregel für Determinanten:
detpA B q detpAq detpB q.
detpA B q detpB Aq.
Allgemeinen ist detpA
B q detpAq
gilt:
a12 a23 a31
a12 a21 a33
a13 a21 a32
a13 a22 a31
detA a11 a22 . . . ann . A
Seien
ist
A, B, P M atpn n, k q.
Dann gilt:
Also auch:
Im
detpB q.
8.5 Theorem Sei A P M atpn n, kq. Dann gilt: A ist invertierbar ô detA 0. Dann
detpA1 q pdetAq1 .
ist
Elementare Zeilen- und Spaltenumformungen können
detA 0
ist (bzw.
0).
8.6 Entwicklungssatz von Laplace:
die Matrix in
j ten
iten
M atpn 1 n 1, k q,
Spalte entsteht. Dann gilt:
Zeile) und
detA A P M atpn n, k q. Für 1 ¤ i, j ¤ n sei Aij
aus A durch Streichen der iten Zeile und der
ņ
ail
p1qi
l
detAil
(Entwicklung nach der
l 1
ņ
ändern, aber nicht, dass
Sei
die
detA
detA
alj
p1ql
j
detAlj
(Entwicklung nach der
j ten
Spalte).
l 1
9
Eigenvektoren, Eigenwerte und Diagonalmatrizen
9.1 Denition
Sei
V
k Vektorraum, α : V Ñ V ein Endomorphismus (lineare
λ P k heiÿt Eigenwert von α :ô Dv0 P V, v0 0 mit
v0 heiÿt dann Eigenvektor von α zum Eigenwert λ.
ein
Selbstabbildung). Ein Skalar
αpv0 q λv0 .
Ein solches
13
9.2 Denition
Sei
α:V
ÑV
λ
linear und
P k. Der Eigenraum zu α bezüglich λ ist
deniert als
Eig pα, λq : tv0
P V : v0 Eigenvektor von α zu λu Y t0u tv1 P V : αpv1q λv1u.
Das bedeutet: Eig pα, λq t0u ô λ ist ein Eigenwert ô es gibt einen Eigenvektor zum
Eigenwert
Eig pα, λq
λ.
ist (für jedes
λ)
ein Untervektorraum von
V.
Die Summe von zwei Eigenvektoren zu zwei verschiedenen Eigenwerten ist im Allgemeinen kein Eigenvektor (zu irgendeinem Eigenwert)
9.3 Proposition
derer
Sei
α : kn
Ñ kn linear. Es gibt genau dann eine Basis von kn bezüglich
α durch eine Diagonalmatrix beschrieben (diagonalisierbar) ist, wenn es eine Basis
aus Eigenvektoren gibt.
Eig pα, 0q Kernpαq.
Allgemein: λ1 ist EW ô detpA λ1 En q 0
Dann ist: v1 EV zu λ1 ô v1 p 0q P Kernpα λ1 idq (Lösungsmenge
LGS ).
Betrachte λ als Variable, d.h. betrachte detpA tEn q - das ist ein
Beobachtung:
eines homogenen
Polynom, dessen
Nullstellen gerade die Eigenwerte sind.
α : V Ñ V linear, dimV n, und b1 , . . . , bl1 linear unabhängige EV zum EW λ1 , c1 , . . . , cl2 linear unabhängige EV zum EW λ2 λ1 , d1 , . . . , dl3
linear unabhängige EV zum EW λ3 λ1 , λ2 , usw. Dann sind die Vektoren bi , cj , dk , . . .
9.4 Proposition
Sei
insgesamt linear unabhängig.
9.5 Denition
detpA tEn q
A P M atpn n, k q und t eine Variable.
charakteristisches Polynom von A.
Sei
heiÿt
Verfahren zur Diagonalisierung: Gegeben eine Matrix
1. Schritt:
Bestimme das charakteristische Polynom
terminante
2. Schritt:
detpA tEn q.
Bestimme die Nullstellen von
stellen von
χA pt q.
χA pt q.
Das sind genau die
Das Polynom
χA ptq :
A P M atpn n, k q.
χA ptq
durch Berechnung der De-
λ1 , . . . , λl die verschiedenen
Eigenwerte von A. Falls es keine gibt:
Seien
Nullnicht
diagonalisierbar.
3. Schritt:
Eig pA, λi q für jeden Eigenwert λi , als Lösungsmenge des homopA λiEnqÑx 0. Bestimme eine Basis.
Falls alle Basen aller Eig pA, λi q zusammen n Vektoren enthalten: Das ist eine
Bestimme
genen LGS
4. Schritt:
Basis von
V , bezüglich derer die zu A gehörende lineare Abbildung diagonalisierbar
n Vektoren sind: A ist nicht diagonalisierbar.
ist. Falls es weniger als
10
Basiswechsel und Normalformen
10.1 Regel zum Basiswechsel:
bezüglich
BV
und
CW .
Basiswechsel von
S . Dann ist A SAT 1
und
Gegeben
BV
ϕ : V
zu
BV
ÑW
durch
die darstellende Matrix von
CW .
14
ϕ
mit darstellender Matrix
T
und von
CW
zu
CW
A
durch
bezüglich der neuen Basen
BV
10.2 Denition
Seien
invertierbare Matrizen
(b)
A, B P M atpl n, k q. A und B heiÿen äquivalent, wenn es
P M atpl l, kq und T P M atpn n, kq gibt mit B SAT 1.
P M atpl n, kq. Dann sind äquivalent:
A und B sind äquivalent, d.h. DS P M atpl l, k q, T P M atpn n, k q invertierbar
1 .
mit B SAT
Dϕ : V Ñ W, ϕ linear,
dimV n, dimW l, und es gibt Basen BV und BV von
10.3 Theorem
(a)
S
V
und
und
CW
CW
Seien
und
A, B
CW
ist, und
B
von
W , so dass A die darstellende Matrix von ϕ bezüglich BV
die darstellende Matrix von
ϕ
bezüglich
BV
und
CW .
(c)
Rang pAq Rang pB q r
(d)
Dr P t0, . . . , mintl, nuu, so dass A und B beide äquivalent zur l n Matrix
C
1
1
10.4 Denition
10.5 Theorem
ist
Einsen sind.
0
A, B P M atpn n, k q heiÿen ähnlich, wenn
T P M atpn n, k q gibt mit B T AT 1 .
Zwei quadratische Matrizen
es eine invertierbare Matrix
A
mit r
.
0
(a)
0
..
P t0, . . . , mintl, nuu.
Sei
A P M atpn n, k q.
diagonalisierbar,
Dann sind äquivalent:
d.h. ähnlich zu einer Diagonalmatrix:
DT
mit
T AT 1
Diagonalmatrix.
χA ptq ist ein Produkt von Linearfaktoren,
χA ptq pt λ1 qa1 pt λ2 qa2 . . . pt λl qal , und die Vielfachheiten der Linearfak-
(b) Das charakteristische Polynom
toren stimmen mit den Dimensionen der Eigenräume überein:
dimEig pA, λ1 q a1 , . . . , dimEig pA, λl q al .
λ 1
λ
Beispiel:
λ P C, Jn pλq : 0
1
..
.
..
.
λ
1
λ
0
der Gröÿe
n n,
10.6 Theorem
zum Eigenwert
Sei
A
,
1 so eine Matrix heiÿt
Jordanblock
λ
λ.
eine Matrix mit komplexen Einträgen. Dann ist
A
ähnlich zu
einer Matrix der folgenden Form, wobei in den Kästchen Jordanblöcke stehen.
15
Jordan-Normalform:
0
0
.
.
.
0
.
.
.
.
.
.
..
...
.
.
.
.
0
0
11
...
...
...
0
Skalarprodukte
11.1 Denition
Abbildung
V
, ¡: V V
Sei
ein Vektorraum über dem Körper
R
der reellen Zahlen. Eine
Ñ R heiÿt Skalarprodukt, wenn sie die folgenden Eigenschaften
hat:
(B1)
(B2)
(S)
(P)
@v1, v2 P V @w P V @λ P R : v1 v2, w ¡ v1, w ¡ v2, w ¡
λv1, w ¡ λ v1, w ¡ (linear in der ersten Variablen).
@v0 P V @w1, w2 P V @λ P R : v0, w1 w2 ¡ v0, w1 ¡ v0, w2 ¡
v0, λw1 ¡ λ v0, w1 ¡ (linear in der zweiten Variablen).
@v1, v2 P V : v1, v2 ¡ v2, v1 ¡.
@v1 P V, v1 0 : v1, v1 ¡ ¡ 0.
(B1) und (B2) stehen für bilinear , (S) für symmetrisch , (P) für positiv denit.
(B2) folgt aus (B1) und (S).
Sei V ein Vektorraum über R und , ¡ ein Skalarprodukt. V mit , ¡
euklidischer Vektorraum.
? v , v ¡. k v k heiÿt die Norm (oder die Länge) von v .
Für v1 P V sei k v1 k:
1 1
1
1
Für v1 , v2 P V sei dpv1 , v2 q :k v1 v2 k . dpv1 , v2 q heiÿt der Abstand (oder die Distanz)
zwischen v1 und v2 .
Vektoren v1 und v2 heiÿen orthogonal (oder senkrecht) zueinander, wenn v1 , v2 ¡ 0.
Schreibweise: v1 K v2 .
Der Winkel α zwischen zwei Vektoren v1 0 und v2 0 ist deniert durch
11.2 Denition
heiÿt dann ein
cos α :
11.3 Proposition
Sei
V
v1, v2 ¡ .
k v1 k k v2 k
ein euklidischer Vektorraum und
x, y, z
P
V,
sowie
λ
P
R.
Dann gilt:
(1)
kx
y k 2 k x k 2
(2)
kx
y k2
(3)
| x, y ¡|¤ k x k k y k . Gleichheit gilt genau dann, wenn x und y linear abhängig
k y k2
2 x, y
k x y k2 2 pk x k2
¡ (verallgemeinerter Satz des Pythagoras)
k y k2 q ( Parallelogrammgleichung)
sind. (Cauchy-Schwarzsche Ungleichung)
16
(4)
(5)
k λ x k | λ | k x k
k x y k ¤ k x k k y k (Dreiecksungleichung)
k x k 0 ô x 0 (Eigenschaft der Norm)
dpx, y q dpy, xq
dpx, z q ¤ dpx, y q dpy, z q (Dreiecksungleichung)
dpx, y q 0 ô x y (Eigenschaften des Abstands)
11.4 Denition
Sei
V
ein euklidischer Vektorraum.
(a) Zwei Untervektorräume
v1
(b) Sei
als
U1
und
K v2. Schreibweise U1 K U2
U2
heiÿen
orthogonal :
ô @ v1 P U1, v2 P U2 gilt
U ein Untervektorraum. Das orthogonale Komplement U K
U K : tv1 P V : v1 K u1 @ u1 P U u.
pviqiPI von Vektoren heiÿt
orthogonal:ô @ i j; vi K vj
orthonormal:ô orthogonal und k vi k 1 @ i P I
Orthonormalbasis pON B q : ô orthonormal und
zu
U
ist deniert
(c) Eine Familie
11.5 Algorithmus zur
Schmidt): Sei
V
eine Basis
Orthonormalisierung einer Basis (Verfahren von Gram und
ein endlich-dimensionaler euklidischer Vektorraum,
u1 , . . . , un . Dann erzeugt das folgende
ON B w1 , . . . , wn von U . Für jedes l mit 1 ¤ l ¤ n gilt sogar:
Span pu1 , . . . , ul q Span pw1 , . . . , wl q.
tervektorraum mit Basis
Start:
u1 ,
setze
2.Schritt: Sei
v2 : w1 , u2
w1 : ¡ w1 .
w2 :
U
€
V
ein Un-
Verfahren eine
u1
.
k u1 k
u2 v2
.
k u2 v2 k
¡ w1 w2, u3 ¡ w2.
u3 v3
.
w3 :
k u3 v3 k
11.6 Denition Sei V Rn mit Basis b1 , . . . , bn und s : V V Ñ R eine symmetrische
Bilinearform, d.h. pB1q, pB2q und pS q gelten, aber vielleicht nicht pP q . Die Matrix M psq
mit Einträgen spbi , bj q heiÿt darstellende Matrix von s.
11.7 Proposition Die Zuordnung s ÞÑ M psq ist eine bijektive Abbildung von der Menge
der symmetrischen Bilinearformen s : V V Ñ R auf die Menge der symmetrischen
dim V dim V Matrizen.
11.8 Denition Sei V ein euklidischer Vektorraum und α : V Ñ V ein Endomorphismus. α heiÿt orthogonal, wenn @ v1 , v2 P V : αpv1 q, αpv2 q ¡ v1 , v2 ¡ .
11.9 Proposition Sei A P M atpn n, Rq invertierbar. Dann sind äquivalent:
1 AT
(a) A
3.Schritt:
v3 : w1 , u3
17
(b) Die Spaltenvektoren von
bilden eine Orthonormalbasis von
Rn ,
bzgl. Standard-
bilden eine Orthonormalbasis von
Rn ,
bzgl. Standard-
A
skalarprodukt.
(c) Die Zeilenvektoren von
A
skalarprodukt
Solche Matrizen
Sei
V
V.
Sei
A
orthogonal.
heiÿen
ein endlich-dimensionaler euklidischer Raum und
ÑV
ϕ:V
linear. Dann ist
A
darstellende Matrix
11.10 Theorem
Sei
ϕ
eine Orthonormalbasis von
eine orthogonale Abbildung genau dann, wenn die
ON B B
bezüglich der
V
B
eine orthogonale Matrix ist.
ein endlich-dimensionaler euklidischer Raum und
ϕ : V Ñ V ein
V , bezüglich
orthogonaler Endomorphismus. Dann gibt es eine Orthonormalbasis von
derer die darstellende Matrix von
11.11 Theorem
die folgende Form hat:
1
wobei die Kästchen
ϕ
..
.
1
1
..
.
1
..
2 2-Matrizen
zu Drehungen sind.
A P M atpn n, Rq
S , so dass
Sei
orthogonale Matrix
.
S T AS
eine symmetrische Matrix. Dann gibt es eine
λ1
0
..
0
.
λn
eine Diagonalmatrix ist.
Das Standardskalarprodukt auf
Cn
ist deniert durch:
ņ
, ¡: Cn Cņn Ñ C
Ñx , Ñy ¡ xj yj
ÑÑ
j 1
Dann gilt:
ņ
x , x ¡
j 1
ÑÑ
λ x , y ¡
ņ
λxj yj
xj xj
| xj |2¡ 0 für Ñx 0.
j 1
ÑÑ
λ x, y ¡
j 1
18
x, y ¡ y, x ¡
Hermitische Form.
Das deniert eine
Wenn die Hermitische Form positiv denit ist,
heiÿt sie auch Skalarprodukt.
Rn
A AT symmetrisch
x, y ¡ xT Ay
Cn
A AT Hermitisch
x, y ¡ xT Ay
orthogonale Matrix
AT A1
unitäre Matrix
T
A AT A1
11.12 Proposition
Sei
(a) Dann gilt für alle
A P M atpn n, Cq
x, y
(b) Alle Eigenwerte von
eine Hermitische Matrix, d.h.
P Cn : Ax, y ¡ x, Ay ¡ .
A
AT
A.
sind reell.
Geometrische Anwendungen:
(1.) Seien
s
0
0
und
Gerade. Wenn
Für beliebiges
heiÿt
in
R2
g
gegeben.
tu P R2 : s, u v ¡ 0u beschreibt eine
k s k 1 gewählt wird, ist diese Form die Hessesche Normalform der
g.
Geraden
s
v
u P R2
ist
Normalenvektor
| s, u v ¡| der Abstand von u zur Geraden g.
zu
g.
(2.) Hauptachsentransformation bei Quadriken (Kegelschnitten)
y2
25
x2
g
x2
g
1
Ellipse.
y2 1
2
1?
5y 2 px, y q
5y 2
8xy
5x2
8xy
5 4
4 5
und
y Achse
5 4
4 5
x
y
A hat charakteristisches Polynom pt 1qpt 9q ñ EW 1 und 9
?1
EV zu 1 : ?
12
2
?1
w1 EV zu 9 : ?12
S
?1 ?1
12 ?12
?
2
A SDS T
w2
2
D
Bezüglich dieser Basis ist die Matrix
sind Hauptachsen
Hyperbel. Dieselben Hauptachsen.
5
5x2
x
1 0
0 9
1 S T
ist orthogonal ñ S
2
1 ?1 ?
2
2
?1 ?1
2
2
ñ (neue Koordinaten)1 xT Ay xT SDS T y 1p x?2y q2
Ellipse, deren Hauptachsen durch
w1
und
19
w2
gegeben sind.
9p x?2y q2
ñ
Herunterladen