Lineare Algebra Zusammenfassung
๐ก
๐ซ
โ
โ
Definitionen
Wichtige Ausnahmen
Klausurrelevante Details, relevante Facts
Zusammenfassende Worte, zusätzliche Erklärungen, Beispiele
2 Grundlagen
2.1 Notation
∧ und
∨ oder
N natürliche Zahlen
⇒ wenn, dann
Z ganze Zahlen
¬ nicht
Q rationale Zahlen
∀ für alle
R reelle Zahlen
∃ es existiert
∈ ist Element von
∃! es existiert genau ein
∈
/ ist kein Element von
L๎A,0๎ homogenes LGS
L(A,b) inhomogenes LGS
Lineare Algebra - Zusammenfassung
1
2.2 Zahlenmengen
2.2.1 Darstellung
2.3 Mengen, Relationen, Abbildungen
2.3.1 Vereinigungsmenge, Schnittmenge, Mengendifferenz
๐ก
Es gibt genau eine Menge ohne Elemente → die leere Menge.
Notation: ∅ := {}
Lineare Algebra - Zusammenfassung
2
โ
Beispiele:
{a, b, c} ∪ {a, 7, π} = {a, b, c, 7, π}
{a, b, c} ∩ {a, 7, π} = {a}
{a, b, c} โ {a, 7, π} = {b, c}
2.3.2 Karthesisches Produkt
๐กโก
Facts:
Die Mengen M
× N und N × M sind unterschiedliche Mengen.
Die Elemente von M × N sind geordnete Paare, (π, a) ist kein Element
von M × N .
Hat M genau m und N genau n Elemente, so hat M × N genau m⋅n
โก
โก
Elemente.
โก Das karthesische Produkt kann analog auch für ≥ 2 Mengen gebildet
werden.
โ
Beispiel:
= {a, b, c} und N = {1, 7, π}:
M × N = {(a, 1), (a, 7), (a, π), (b, 1), (b, 7), (b, π), (c, 1), (c, 7), (c, π)}
Für M
Lineare Algebra - Zusammenfassung
3
2.3.3 Funktion
Seien M, N Mengen. Eine Funktion/Abbildung f von M nach N ist:
๐ก โกโก
eine linkstotale und rechtseindeutige Relation zwischen M und N
d.h. eine Teilmenge f
⊆M ×N
โก mit der zusätzlichen Eigenschaft ∀a ∈ M∃!b ∈ N : (a, b) ∈ f
โก dabei heißt M der Definitionsbereich und N der Zielbereich der Funktion.
โก Für jedes Element a aus dem Definitionsbereich M existiert genau ein
Element b aus dem Zielbereich N .
Lineare Algebra - Zusammenfassung
4
2.3.4 Abbildung
Sei f
: M → N eine Abbildung. Dann heißt f :
๐ก
injektiv, falls jedes Element im Zielbereich höchstens ein Urbild (f −1 (b)) hat:
๐ก
surjektiv, falls jedes Element im Zielbereich mindestens ein Urbild hat:
∀b ∈ N : #f −1 (b) ≤ 1
∀b ∈ N : #f −1 (b) ≥ 1
Lineare Algebra - Zusammenfassung
5
๐ก
โ
bijektiv, falls f injektiv und surjektiv ist:
∀b ∈ N : #f −1 (b) = 1
Beispiel: Abbildung
a) Die Abbildung f :
N → N mit f(n) = n2 ordnet jeder natürlichen Zahl ihr
Quadrat zu, z.B. f(1) = 1, f(2) = 4, f(3) = 9, etc.
Definitions- und Wertebereich: die natürlichen Zahlen
Bildmenge: f(N)
Lineare Algebra - Zusammenfassung
= {1, 4, 9, 16, … } = {n2 โฃn ∈ N}
6
โ
Beispiel: Injektiv, Surjektiv
a) f : Z → N, n โฆ n2
Die Abbildung f ist nicht injektiv, denn es gilt nicht, dass je zwei verschiedene
Zahlen aus dem Definitionsbereich auch verschiedene Funktionswerte haben.
= f(2) = 4
Die Abbildung ist auch nicht surjektiv, da nicht alle Zahlen aus N
Denn z.B. ๎2 und 2 haben denselben Funktionswert f(−2)
Funktionswerte sind, z.B. die Zahl 3 tritt nicht als Funktionswert auf.
โ
: N → N, n โฆ n2
Die Abbildung g ist injektiv, denn zwei verschiedene a, b ∈ N haben auch
verschiedene Funktionswerte n1 (2) =
๎ n2 (2). Wie vorher ist die Abbildung aber
b) g
nicht surjektiv.
โ
c) h
: Z → Z, n โฆ n + 1
Die Abbildung ist injektiv, da zwei verschiedene ganze Zahlen aus dem
Definitionsbereich n1 ๎
= n2 verschiedene Funktionswerte haben. h(−2)
=
−1, h(2) = 3. Sie ist auch surjektiv, weil jede ganze Zahl m Bild einer ganzen
Zahl, nämlich von n = m-1, ist. Somit ist die Abbildung bijektiv.
โ
d) k
: Z5 → Z5 , n โฆ n + 1
injektiv wie bei c). Sie ist auch surjektiv, weil jedes m
eines Elements aus Z5 ist, nämlich von n =
∈ Z5 Funktionswert
m + 4(mod 5๎ ๎4 ist das additive
Inverse von 1 in Z5 ). Somit ist die Abbildung bijektiv.
Lineare Algebra - Zusammenfassung
7
—3—
3 Gauß-Algorithmus und Matrixrechnung
3.1 Lineares Gleichungssystem
3.1.1 Form
๐กโก
Das lineare Gleichungssystem heißt homogen, falls b1
= b2 = โฏ =
bm = 0. Man nennt diese Lösung die triviale Lösung.
โก Das LGS heißt inhomogen, falls eine Lösung existiert, z.B. x + y = 10.
โก Ein inhomogenes LGS über K = R hat keine, genau eine oder unendlich
viele Lösungen.
3.1.2 Koeffizientenmatrix
๐ก โกโก
Eine m × n - Matrix hat m Zeilen und n Spalten.
Eine n × n - Matrix hat gleich viele Zeilen wie Spalten.
3.1.3 Spezielle quadratische Matrizen
๐ก
โ2 3 −4โ
โ1 0 0 โ
A = โ0 1 5 โ , B = โ3 1 0 โ ,
โ0 0 8 โ
โ9 −2 6โ
A ist eine obere und B eine untere Dreiecksmatrix.
โก
—3—
1
๐ก
โ2 0 0 โ
1 0
C = โ0 5 0 โ , I = (
)
0 1
โ0 0 3 โ
C ist eine Diagonalmatrix und I ist die 2 × 2 - Einheitsmatrix.
โก
3.1.4 Erweiterte Koeffizientenmatrix
3.1.5 Lösungsmenge
3.1.6 Lösbarkeit von LGS
โ
Wenn kein Lösungsvektor angegeben, dann ist er 0.
๎1๎ genau eine Lösung
๎2๎ unendlich viele Lösungen
๎3๎ keine Lösung
—3—
2
(a) gegeben sei ein lineares Gleichungssystem:
(b) in Matrixschreibweise lautet das LGS๎
(c) die dazugehörige erweiterte Koeffizientenmatrix ๎A | b):
(d) Rang berechnen
Rang einer Matrix Rechner
Hier kannst du den Rang einer Matrix mit komplexen Zahlen
kostenlos online und mit einer sehr detaillierten Lösung berechnen.
Der Rang einer Matrix wird berechnet, indem man die Matrix mit Hilfe
https://matrix.reshish.com/de/rank.php
โ
๐ก
Man bringt die gebebene Matrix in Zeilenstufenform und liest dann die NichtNullzeilen ab.
Bei einer Matrix mit den Zeilen (1 2 0), (0 1 1) und (0 0 0) sind
die drei Zeilen linear abhängig, da jede Menge von Vektoren, die den
Nullvektor enthält, linear abhängig ist. Wenn man den Nullvektor weglässt, so
bleibben die beiden Zeilen (1 2 0) und (0 1 1) übrig, diese sind linear
unabhängig, daher Rang = 2.
—3—
3
โ
โก
Der Rang einer Matrix A ist gleich dem Rang der transponierten Matrix AT .
Mit anderen Worten: Die Anzahl der linear unabhängigen Spalten ๎Zeilenrang
= Spaltenrang).
Elementare Zeilenumformungen lassen den Rang einer Matrix unverändert.
โก
Beispiele
โ1
A = โ0
โ0
โ1
B = โ0
โ0
5
2
0
2
2
0
3 โ
1 โ → es sind keine Nullzeilen vorhanden, weshalb Rang(A) = 3.
−1โ
3โ
1โ → es ist eine Nullzeile vorhanden, weshalb Rang(B) = 2.
0โ
๎1๎ genau eine Lösung
Es gibt eine eindeutige Lösung, wenn der Rang der (erweiterten) Koeffizientenmatrix
der Anzahl der Unbekannten n entspricht.
๐ก
rang(A) = rang(Aโฃb) = n
Beispiel:
โ1
A = โ0
โ0
2
5
0
3
6
9
โฃ 1โ
โฃ 2โ → Rang 3 = Anzahl der Unbekannten
โฃ 3โ
๎2๎ unendlich viele Lösungen
Es git unendlich viele Lösungen, wenn der Rang der (erweiterten) Koeffizientenmatrix
kleiner ist als die Anzahl der Unbekannten n.
๐ก
—3—
rang(A) = rang(Aโฃb) < n
4
Beispiel:
โ1
B = โ0
โ0
2
5
0
3
6
0
โฃ 1โ
โฃ 2โ → Rang 2 < Anzahl der Unbekannten (=3)
โฃ 0โ
๎3๎ keine Lösung
Es gibt keine Lösung, wenn der Rang der Koeffizientenmatrix A nicht dem Rang der
erweiterten Koeffizientenmatrix entspricht.
๐ก
rang(A) =
๎ rang(Aโฃb)
Beispiel:
โ1
C = โ0
โ0
2
5
0
3
6
0
โฃ 1โ
โฃ 2โ → Rang(A) =2
โฃ 3โ
=
๎
Rang(A|b) = 3
3.1.7 Gleichheit von Matrizen
A=(
→A
y
3
) und B = (
w
5
1
)
0
= B steht für die 4 Gleichungen
๐ก
๐ซ
—3—
x+y
z+x
x + y = 3,
y = 1,
โ2 โ
๎ (2
โ4 โ =
โ5 โ
4
z + x = 5,
w=0
5) → verschiedene Dimensionen
5
3.1.8 Rechenregeln
โ
โกโก
A + B = B + A → Kommutativität
A + ๎B + C๎ = ๎A + B๎ + C → Assoziativität
โกA+0=A
โก 1A = A
โก k(A + B๎ = kA + kB → Distributivgesetz
3.2 Zeilenstufenform
3.2.1
โ
Good To Know - Zeilenstufenform
โ
โก
Eine Matrix ist in Zeilenstufenform, falls das erste (von links) nicht
verschwindende Element in jeder Zeile gleich 1 ist und
โก die führende 1 in jeder Zeile rechts von der führenden 1 in der Zeile
darüber steht
โ
โก
Sie ist in reduzierter Zeilenstufenform, falls zusätzlich über jeder
führenden 1 Null(en) stehen.
3.2.2 Form
3.2.3 Zeilenstufenform erweiterte Koeffizientenmatrix
—3—
6
โ
โกโก
Das System hat genau dann eine Lösung, wenn br+1
= โฏ = bm = 0 gilt.
Ist das System lösbar, erhält man alle Lösungen auf folgende Weise:
Falls in der i-ten Spalten von A kein Pivot steht, kann für xi eine beliebige
โ
Zahl eingesetzt werden. → freie Variablen
โ Die Werte für alle anderen Variablen sind dann eindeutig bestimmt
(=gebundene Variablen). Man erhält sie, indem man von unten, beginnend mit
der r-ten Zeile, die entsprechenden Gleichungen nach der Variable am Pivot
auflöst.
โก Durch diese Prozedur erhält man eine Parametrisierung der gesamten
Lösungsmenge durch Rn−r , d.h. eine bijektive Abbildung φ :
Rn−r → L(A, b)
3.3 Gauß-Jordan Algorithmus
3.3.1 Definition
๐ก
3.3.2
Der Gauß-Algorithmus ermöglicht es, für LGS sämtliche Lösungen zu
bestimmen.
โก erweiterte Koeffizientenmatirx mit Zeilenumformungen auf
Zeilenstufenform bringen
โก Lösung ablesen
โ
Good To Know - Gauß
โ
โก
Es genügen schon Umformungen vom Typ ๎1๎ und Typ ๎3๎, um
Zeilenstufenform zu erreichen. Typ ๎2๎ wird nur benötigt, wenn man alle Pivots
auf 1 setzen möchte.
โก Um alle Einträger oberhalb der Pivots 0 zu setzen, muss mit Umformung
vom Typ ๎3๎, von links mit den Pivots beginnend, eliminiert werden.
โก Eine Zeilenstufenform mit Pivots = 1 und Nullen oberhalb der Pivots heißt
reduzierte Zeilenstufenform.
โก Wichtig ist, die erweiterte Koeffizientenmatrix umzuformen, anosnten
ändert sich die Lösungsmenge. Nur bei homogenen Systemen nicht nötig, da
sich die Nullspalte ganz hintne sowieso niemals ändert, wenn
Zeilenumformungen vorgenommen werden.
—3—
7
3.3.3 Äquivalenzumformungen
๐ก
๎1๎ Vertauschen von zwei Zeilen ๎Gleichungen).
๎2๎ Multiplikation (jedes Eintrags) einer Zeil mit einer Zahl =
๎ 0.
๎3๎ Addition des Vielfachen (=
๎ 0๎ einer Zeile zu einer anderen Zeile.
3.3.4 Reduzierte Zeilenstufenform - Beispiel
—3—
8
3.4 Gruppen, Ringe Körper
3.4.1 Definition: Gruppe
๐ก
Eine Gruppe ist eine Menge G zusammen mit einer zweistelligen
Verknüpfung:
∗ :G×G→G
3.4.2 Bedingungen einer Gruppe
โ
โก Assoziativgesetz: ∀a, b, c
โก Neutrales Element: ∃e∀a
โก Inverse Elemente: ∀a∃b
(a ∗ b) ∗ c = a ∗ (b ∗ c)
e∗a= a∗e = a
a∗b= b∗a= e
gilt zusätzlich das Kommutativgesetz, so nennt man G eine kommutative bzw. abelsche
Gruppe
โ
โก Kommutativgesetz: ∀a, b
a∗b= b∗a
3.4.3 Additive Gruppen
—3—
โ
(Z, +), also die ganzen Zahlen Z mit der Addition, bilden eine kommutative
โ
Ebenso sind (Zm , +), für beliebiges m, (Q, +), (R, +), (C, +) kommutative
Gruppe, denn:
โก Assoziativität: a + (b + c) = (a + b) + c gilt für alle ganzen Zahlen a, b, c.
โก Neutrale Element: Bezüglich der Addition ist 0๎ a + 0 = 0 + a.
โก Zu jeder ganzen Zahl a gibt es ein Inverses −a bezügl. der Addition.
โก Das Kommutativgesetz gilt a + b = b + a für alle ganzen Zahlen a, b.
Gruppen
9
๐ซ
Aber: (N0 , +) ist keine Gruppe. Assoziativgesetz und neutrales Element sind
kein Problem, aber es gibt nicht für jede natürliche Zahl a ein additiv Inverses.
z.B. es gibt keine natürliche Zahl a, sodass 3 + a
= 0.
3.4.4 Multiplikative Gruppen
โ
(Q\{0}, ⋅), also die rationalen Zahlen Q ohne 0 mit der Multiplikation, bilden
eine kommutative Gruppe, denn:
โก Das Assoziativgesetz gilt: a ⋅ (b ⋅ c) = (a ⋅ b) ⋅ c für alle rationalen Zahlen
a, b, c =
๎ 0.
โก Das neutrale Element bzgl. der Multiplikation ist 1: a ⋅ 1 = 1 ⋅ a = a für
alle rationalen Zahlen a =
๎ 0.
โก Zu jeder rationalen Zahl a =๎ 0 gibt es ein Inverses bzgl. der Multiplikation
(multiplikatives Inverses): : a ⋅ = ⋅ a = 1.
โก Das Kommutativgesetz gilt: a ⋅ b = b ⋅ a für alle rationalen Zahlen a, b =๎ 0.
1
a
โ
โ
—3—
1
a
1
a
(R\{0}, ⋅) ist ebenso eine abelsche Gruppe bzgl. ⋅ mit e = 1.
Ebenso sind (Zp \{0}, ⋅), (wobei p
Primzahl), (R\{0}, ⋅), (C\{0}, ⋅)
kommutative Gruppen.
10
๐ซ
Aber: (N, ⋅) und auch (Z\{0}, ⋅) sind keine Gruppen. Wieder sind
Assoziativgesetz, neutrales Element kein Problem, aber es scheitert wieder
am Inversen: In Z\{0} gibt es nicht für jedes a ein multiplikatives Inverses.
z.B. gibt es keine ganze Zahl a, sodass 3 ⋅ a
3.4.5
= 1.
โ
Good To Know - Gruppen
โ
Reelle Zahlen (R) sind sowohl bzgl. + als auch (wenn man die 0
herausnimmt) bzgl. ⋅ eine kommutative Gruppe. Dasselbe gilt für Q, R, C
oder Zp .
→ Daher haben diese Mengen bzgl. Addition und Multiplikation dieselbe
Struktur, es gelten also dieselben Rechenregeln. Mann nennt diese Struktur
einen Körper.
3.4.6 Definition: Körper
๐ก
Eine Menge K mit zwei Verknüpfungen + und ⋅, geschrieben (K, +, ⋅), heißt
Körper, wenn folgendes gilt:
๎1๎ (K, +) ist eine kommutative Gruppe mit neutralem Element 0.
๎2๎ (K\{0}, ⋅) ist eine kommutative Gruppe mit neutralem Element 1.
๎3๎ für alle a, b, c
๐ก
3.4.7
Das Distributivgesetz regelt, wie die beiden Verknüpfungen sich miteinander
vertragen.
โ
Good To Know - Körper
โ
โกโก
โก
—3—
∈ K gilt: a ⋅ b + a ⋅ c = a ⋅ (b + c) → Distributivgesetz
Für eine Primzahl p ist Zp ein Körper.
Ebenso sind Q,
R und C Körper.
Jedoch ist Z kein Körper, denn (Z\{0}) ist keine Gruppe.
11
→ hat nicht jedes Element ein multiplikatives Inverses, so wie z.B. in Zm , so spricht
man von einem Ring.
3.4.8 Definition: Ring
๐ก
Eine Menge R mit zwei Verknüpfungen + und ⋅, geschrieben (R, +, ⋅), heißt
Ring, wenn folgendes gilt:
๎1๎ (R, +) ist eine kommutative Gruppe mit neutralem Element 0.
๎2๎ Für alle a, b, c
∈ R gilt: (a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) → Assoziativgesetz
๎3๎ Für alle a, b, c
∈ R gilt: a ⋅ b + a ⋅ c = a ⋅ (b + c) → Distributivgesetz
Gilt zusätzlich:
๎4๎ das Kommutativgesetz a ⋅ b
= b ⋅ a für alle a, b ∈ R, so spricht man von einem
kommutativen Ring.
๎5๎ Wenn darüber hinaus ein neutrales Element 1 für die Multiplikation existiert, also a ⋅
1 = 1 ⋅ a = a für alle a ∈ R, so spricht man von einem kommutativen Ring mit Eins.
โ
3.4.9
Wenn also jedes Element (außer 0๎ eines kommutativen Ringes mit Eins ein
multiplikatives Inverses besitzt, dann ist der Ring ein Körper.
โ
Good To Know - Ring
โ
โก
Die ganzen Zahlen Z sind ein kommutativer Ring mit Eins; kein Körper, da
es nicht zu jeder ganzen Zahl ein Inverses bzgl. der Multiplikation gibt.
โกZ
m ist ein kommutativer Ring mit Eins; er ist genau dann ein Körper wenn
m = p eine Primzahl ist. So sind also z.B. Z4 oder Z256 nur Ringe, aber
Z2 , Z3 , Z5 hingegen Körper.
Die Menge der Polynome R[x] = {p(x) = pn xn + โฏ + p1 x + p0 โฃpk ∈
R} ist ein kommutativer Ring mit Eins, aber kein Körper.
โก
—3—
12
3.4.10 Endliche Körper
๐ก
Sei n ≥
2 eine natürliche Zahl. Wir definieren eine Äquivalenzrelation auf Z
durch folgende Setzung:
a ∼ b :⇔ nโฃ(b − a)
→ Zwei Zahlen sind also äquivalent, wenn sie sich um ein Vielfaches von n
unterscheiden. Ordnet man die Zahlen auf einer Uhr mit n Stunden an, so endet jeder
Umlauf um die Uhr also in derselben Äquivalenzklasse.
3.4.11 Z/nZ
โ
Wurde bereits als Gruppe mit + eingeführt, nun definieren wir Addition und
Multiplikation auf Z/nZ:
๎1๎ [a] + [b]
๎2๎ [a] ⋅ [b]
โ
โก
:= [a + b]
:= [a ⋅ b]
Sei n ≥ 2:
Es ist Z/nZ ein kommutativer Ring mit genau n Elementen.
โก Es ist Z/nZ genau dann ein Körper, wenn n eine Primzahl ist.
(Z/pZ, +, ⋅)
โ
—3—
Folgende 3 Aussagen sind für n =
โก (Z/pZ, +, ⋅) ist ein Körper.
โก (Z/pZ, +, ⋅) ist nullteilerfrei.
โก p ist eine Primzahl.
p ∈ N äquivalent:
13
3.5 Matrixrechnung
3.5.1 Definition
๐ก
Sei R eine Menge und m, n ∈
N
๎1๎ Eine m × n - Matrix über R ist eine Abbildung
M : {1, … , m} × {1, … , n} → R
โ
Erster Index bezeichnet die Zeile
โก
Zweiter Index bezeichnet die Spalte
โฌ
๎2๎ Eine m × 1 - Matrix wird auch Spaltenvektor, eine 1 × n - Matrix Zeilenvektor
genannt.
—3—
14
โ
In Zeilen- oder Spaltenvektoren wird oft nur ein Index verwendet, z.B.:
โ v1 โ
. โ
v=โ
โ . โ → Spaltenvektor
โvm โ
๎3๎ Die Menge aller m × n - Matrizen über R wird mit Matm,n (R) bezeichnet.
โ
โก Wenn m = n, wird statt Mat (R) → Mat
โก Statt Mat (R) ๎๎Spaltenvektor) → R
m,m
m,1
๎4๎ Für M
m (R) geschrieben.
m
= (mij )i=1,…,m;j=1,…,n ∈ Matm,n (R) bezeichnen wir mit:
M t := (mij )i=1,…,n;j=1,…,m ∈ Matn,m (R)
die sog. transponierte Matrix
3.5.2 Transponierte Matrix
๐ก
—3—
Die transponierte Matrix entsteht aus M durch Vertauschung der Indizes,
bzw. durch Spiegelung an der Diagonalen.
Die Zeilen von M werden zu den Spalten von M t
โก
15
3.5.3 Summe zweier m × n - Matrizen
๐ก
Die Summe zweier m × n - Matrizen A
โ a11 + b11
โ a21 + b21
โ
โฏ
โam1 + bm1
a12 + b12
a22 + b22
โฏ
am2 + bm2
Beispiel:
โ1
โ3
โ5
โ
2 โ โ6
4 โ + โ5
6 โ โ4
= (aij ) und B = (bij ):
โฏ a1n + b1n โ
โฏ a2n + b2n โ
โ
โฑ
โฏ
โฏ amn + bmn โ
3 โ โ7
2 โ = โ8
1 โ โ9
5โ
6โ
7โ
Matrizen können nur addiert, wenn sie die gleichen Dimensionen haben. Hier:
3×2
+
3×2
=
3×2
3.5.4 Multiplikation von Matrizen
โ
—3—
Das Kommutativgesetz (AB
=
๎ BA) gilt nicht!
16
Beispiel:
โ1
โ3
โ5
โ
2โ
1
4โ ⋅ (
4
6โ
2
5
โ9
3
) = โ19
6
โ29
12
26
40
15โ
33โ
51โ
Matrizen können nur multipliziert werden, wenn die Spalte der linken Matrix die
gleiche Dimension wie die Zeilen der rechten Matrix hat. Hier:
3×2
⋅
2×3
=
3×3
3.5.5 R als Ring
๐ก
โ
—3—
Sei R ein Ring und m, n ∈
N, dann gilt:
๎1๎ Matm,n (R) ist eine abelsche Gruppe bzgl. +
17
โ
๎2๎ Die Multiplikation von Matrizen ist assoziativ, d.h. es gilt:
โ
๎3๎ Zwischen Addition und Multiplikation gilt das Distributivgesetz, d.h:
โ
(A ⋅ B) ⋅ C = A ⋅ (B ⋅ C)
A ⋅ (B + C) = (A ⋅ B) + (A ⋅ C),
(B + C) ⋅ A = (B ⋅ A) + (C ⋅ A)
Matm (R) ist ein Ring bzgl. + und ⋅.
Selbst wenn R kommutativ ist, ist es Matm (R) niemals, solange m ≥ 2.
3.5.6 K als Körper
๐ก
Sei K ein Körper, m, n ∈
N sowie A ∈ Matm,n (K) und b ∈ K m . Sei c ∈
L(A, b) ein beliebiges Element, dann gilt:
L(A, b) = {c + cโฃc ∈ L(A, 0)}
3.5.7 Inverse Matrix
๐ก
Wenn es zu einer quadratischen Matrix A eine Matrix A−1 gibt mit
AA−1 = A−1 A = I,
dann heißt die Matrix A invertierbar oder regulär.
โ
โก
Die Inverse von A hat dieselbe Dimension wie A und ist eindeutig ( โ)
bestimmt.
โก Eine quadratische Matrix, die nicht invertierbar ist, heißt singulär.
โก Eine Matrix A ist genau dann invertierbar, wenn gilt: det(A) =๎ 0.
โ
—3—
"Eindeutig bestimmt": Wenn wir zu A eine Matrix B gefunden haben, die die
Eigenschaft AB
= BA = I erfüllt, dann ist B die einzige Matrix dieser Art.
18
2
AB = (
−1
๐ก
4
b
) ∗ ( 11
3
b21
b12
2b + 4b21
) = ( 11
b22
−b11 + 3b21
2b12 + 4b22
1
)=(
−b12 + 3b22
0
0
)
1
≥ 1. Dann heißen die Elemente von
GLm (R) := Matm (R)x
(über R) invertierbare Matrizen.
Sei R ein Ring und m
โ
โก
Hat eine Matrix A eine Nullzeile oder Nullspalte, so ist sie nicht
invertierbar.
Ist die Koeffizientenmatrix A eines LGS quadratisch und invertierbar, so
โก
besitzt das System genau eine Lösung
โก Ist B eine invertierbare Matrix, so gilt L(A, b) = L(BA, Bb) für alle LGS.
Es bedeutet x
∈ L(A, b) ja gerade Ac = b.
3.5.8 Elementarmatrix
โ
โก
Multipliziert man eine n × p - Matrix A von links mit einer Elementarmatrix,
so entspricht das einer elementaren Zeilenumformung der Matrix A.
โก Elementarmatrizen können auch von rechts an eine Matrix A multipliziert
werden und entsprechen dann elementaren Spaltenumformungen von A.
๐ก
Sei K ein Körper und m
aus Matm (K) von einem der folgenden drei Typen:
๎1๎ Für 1
—3—
∈ N. Eine Elementarmatrix (über K ) ist eine Matrix
≤i≤j≤m
19
๐ก
Pij A entsteht aus A durch Vertauschen der i-ten und j-ten Zeile.
๎2๎ Für 1
๐ก
Si (λ)A entsteht aus A durch Multiplikation der i-ten Zeile mit λ.
๎3๎ Für 1
—3—
≤ i ≤ m und 0 =
๎ λ∈K
≤ i, j ≤ m,
i=
๎ j,
0=
๎ λ∈K
20
๐ก
Mji (λ)A entsteht durch Addition des λ-fachen der i-ten Zeile zur j-ten Zeile.
โ
โกโก
Jede Elementarmatrix ist invertierbar über K .
Eine quadratische Matrix in reduzierter Zeilenstufenform ohne Nullzeilen
ist die Einheitsmatrix.
Inverse von Elementarmatrizen sind selbst wieder Elementarmatrizen
โก
Sei K ein Körper, m
โ
โกโก
โก
∈ N und A ∈ Matm (K), dann sind äquivalent:
A ∈ GLm (K)
A ist ein Produkt von endlich vielen Elementarmatrizen.
A lässt sich durch elementare Zeilenumformungen zur Einheitsmatrix
transformieren.
—3—
21
—4—
4 Vektorräume und lineare Abbildungen
4.1 Vektorräume
4.1.1 Definition
โ
(a1 , a2 , … an ) ∈ Rn nennt man Vektor. → Rn ist der Vektorraum
Vektoren im R2 sind bspw. a = (2, 3) oder b = (0, −1)
Vektoren im R5 sind bspw. c = (1, 4, 0, −2, −1)
Ein n๎Tupel
๎1๎ Ein K ๎Vektorraum ist eine abelsche Gruppe
๐ก
(V , +) zusammen mit der Verknüpfung
⋅:K×V →V
genannt die Skalarmultiplikation, sodass für alle λ, γ
โก λ ⋅ (v + w) = (λ ⋅ v) + (λ ⋅ w)
โก (λ + γ) ⋅ v = (λ ⋅ v) + (γ ⋅ v)
โก (λγ) ⋅ v = λ ⋅ (γ ⋅ v)
โก1⋅v = v
∈ K und v, w ∈ V gilt:
๎2๎ Die Elemente von V heißen Vektoren, die Elemente von K Skalare. Das neutrale
Element der abelschen Gruppe V heißt Nullvektor/Ursprung.
4.1.2 Addition von Vektoren
๐ก
—4—
Die Summe von zwei Vektoren a
(b1 , … , bn ) ∈ Rn ist der Vektor:
โ โ
โ โ
โ
= (a1 , … , an ) ∈ Rn und b =
โ
1
โa1 โ โb1 โ โ a1 + b1 โ
โ⋅โ โ⋅โ โ ⋅ โ
โ โ โ โ
โ
a+b= โ
โ ⋅ โ+โ ⋅ โ=โ ⋅ โ
โ⋅โ โ⋅โ โ ⋅ โ
โan โ โbn โ โan + bn โ
๐ก
Je zwei Elemente a, b
∈ V wird ein Element a + b ∈ V zugeordnet, sodass
(V , +) eine abelsche Gruppe wird, d.h.:
โก a + b = b + a → Kommutativität
โก a + (b + c) = (a + b) + c → Assoziativität
โก a + 0 = a → Existenz eines neutralen Elements
โก a + (−a) = 0 → Existenz eines inversen Elements
โ
für a, b, c ∈ V , das neutrale Element 0 ist der Nullvektor und das zu a inverse
Element ist −a.
4.1.3 Skalarmultiplikation
๐ก
Die Multiplikation des Vektors a
∈ Rn mit einem Skalar k ∈ R ist der Vektor:
โa1 โ โ k ⋅ a1 โ
โ⋅โ โ ⋅ โ
โ โ
โ
k⋅a = k⋅โ
โ ⋅โ=โ ⋅ โ
โ⋅โ โ ⋅ โ
โan โ โk ⋅ an โ
→ Das Ergebnis jeder dieser beiden Rechenoperationen ist wieder ein Vektor im Rn .
โก k(ha) = (kh)a
โก 1a = a
โก k(a + b) = ka + kb → Distributivgesetz
โก (k + h)a = ka + ha
โ
für alle a, b ∈ V und h, k ∈ K : V wird ein Vektorraum (über dem Körper K)
genannt.
—4—
2
๐ก
4.1.4
—4—
= R → reeller Vektorraum
Ist K = C → komplexer Vektorraum
Ist K
โ
Good To Know - Vektorräume
โ
๎1๎ Für m
โ
๎2๎ Etwas allgemeiner ist für m, n ≥
โ
๎3๎ Sei M eine beliebige Menge. Die Menge: F (M, K)
โ
๎4๎ Die Menge aller Polynome mit Koeffizienten aus K ist ein K ๎Vektorraum.
โ
๎5๎ Für jeden Körper K existiert der Nullvektorraum, i.e. V
≥ 1 ist K m ein K ๎Vektorraum.
0 stets Matm,n (K) ein K ๎Vektorraum.
= {f : M → K} aller
K -wertigen Abbildungen auf M ist nicht nur ein Ring, sondern kann auch als
K ๎Vektorraum aufgefasst werden.
= {0}. Die
Verknüpfungen sind dabei eindeutig bestimmt. Man nennt ihn auch den
trivialen Vektorraum.
3
โ
๎6๎ Sind V , W zwei K ๎Vektorräume, so kann man das karthesische Produkt
V × W wieder als K ๎Vektorraum auffassen. Addition und
Skalarmultiplikation sind komponentenweise definiert:
โ
๎7๎ Für 0
=
๎ v ∈ V und λ, γ ∈ K mit λ =
๎ γ gilt stets:
λv =
๎ γv
โ
๎8๎ Für K
= Z/2Z gilt:
K 2 = {(0, 0)t , (0, 1)t , (1, 0)t , (1, 1)t }
Wichtige Eigenschaften von Vektorräumen:
โ
โกโก
โก
โก
0a = 0
k0 = 0
(−1)a = −a
a − b = a + (−b)
4.1.5 Untervektorraum
๐ก
Sei V ein K ๎Vektorraum und
U ⊆ V eine nichtleere Teilmenge.
๎1๎ U heißt K ๎Untervektorraum von V , falls gilt:
—4—
4
v, w ∈ U ⇒ v + w ∈ U
λ ∈ K, v ∈ U ⇒ λv ∈ U
๎2๎ U heißt affiner K ๎Unterraum von V , falls ein v
∈ V existiert, sodass:
v + V := {v + uโฃu ∈ U}
ein K ๎Untervektorraum von V ist. Dabei heißt dann v + U der zu U parallele
Untervektorraum.
โ
โก Untervektorräume sind niemals leer.
โก Die Vektoraddition und die skalare Multiplikation sind auf U abgeschlossen.
โก Fehlt in U der Nullvektor 0, so ist U kein Untervektorraum.
โ
๎1๎ Jeder Untervektorraum U enthält den Nullvektor.
โ
๎2๎ Jeder K ๎Untervektorraum von V ist mit den eingeschränkten
โ
๎3๎ Der Durchschnitt einer beliebigen Familie von Untervektorräumen von V
โ
Verknüpfungen selbst wieder ein K ๎Vektorraum.
ist wieder ein Untervektorraum.
๎4๎ Jeder Untervektorraum ist ein affiner Unterraum. Die Umkehrung gilt im
Allgemeinen nicht. Genauer ist ein affiner Unterraum U genau dann auch ein
Untervektorraum, wenn 0
—4—
∈ U.
5
4.1.6 Lösungsmenge
๎1๎ Für A
∈ Matm,n (K) ist die Lösungsmenge
L(A, 0) ⊆ K n
des von A definierten homogenen Gleichungssystem ein K ๎Untervektorraum.
๎2๎ Fpr A
∈ Matm,n (K) und b ∈ K m ist die Lösungsmenge
L(A, b) ⊆ K n
des inhomogenen Systems ein affiner K ๎Unterraum. Für jedes beliebige c
ห∈
L(A, b)
gilt ja:
(−cห) + L(A, b) = L(A, 0) → (−b + b = 0)
๎3๎ Für d
∈ N ist
aller Polynome vom Grad höchstens d ein Untervektorraum des Vektorraums K[t].
4.1.7 Linearkombination
๐ก
Seien V ein K ๎Vektorraum, v1 , … , vr \in V und λ1 , … , λr ∈ K . Dann heißt
das Element λ1 v1 + โฏ + λr vr ∈ V
eine Linearkombinatioin der
Vektoren v1 , … , vr → leere Linearkombination (r=0) = Nullvektor
4.1.8 Kleinster Untervektorraum - Definition
๐ก
Sei V ein K ๎Vektorraum und
M ⊆ V eine beliebige Teilmenge. Dann gilt:
→ und dies ist der kleinste Untervektorraum, der M enthält.
—4—
6
4.1.9 Spann
โ
⊆ V bezeichnen wir die Menge aus "Kleinster Untervektorraum Definition" als K -lineare Hülle oder Spann über K von M und verwenden
๎1๎ Für M
dafür auch die Bezeichnung:
Spank (M) → Spann über K von M = kleinere K ๎Unterraum von V , der M enthält.
โ
๎2๎ Ein K ๎Vektorraum heißt endlich erzeugt oder endlich dimensional, wenn
es eine endliche Teilmenge M
⊆ V gibt mit :
Spank (M) = V
Beispiel:
๐ก
๎1๎ Hat die Menge M nur ein Element, so ist jede Linearkombination von
Elementen aus M nur ein Vielfaches dieses einen Vektors.
โก Mann muss sich den Span
K (M)also als Ursprungsgerade vorstellen (
Ausnahme: Nullvektor)
Betrachte man also bspw. den R๎Vektorraum
R2 und darin die einelementige Menge
M = {(1, 1)t } → SpanR (M) ist die Unsprungsgerade durch den Punkt (1, 1)t :
—4—
7
Betrachtet man M
= {(1, 1), (0, 1)} ⊆ R2 so ergibt sich SpanR (M) = R2 . Es reicht
für die lineare Hülle nicht, nur Vielfache der beiden Vektoren zu betrachten, man muss
auch Summen zulassen:
Rechnerisch:
Man wählt (a, b)t
∈ R2 beliebig und setzt λ = a γ = b − a:
1
0
λ
a
a
λ⋅( )+γ ⋅( )= (
) = ( ) → Hint : (
)
1
1
λ+γ
b
a + (b − a) = b
→ so erhält man den Vektor (a, b)t als R๎Linearkombination der Elemente von M
๐ก
๎2๎ Für jedes m
∈ N und jeden Körper K ist K m ein endlich erzeugter K -
Vektorraum:
โ1 โ
โ0 โ
โ0 โ
โ0 โ
โ1 โ
โ0 โ
e1 = โ โ , e2 = โ โ , … , em = โ โ → SpanK ({e1 , … , em }) = K m
โโฎโ
โโฎโ
โโฎโ
โ0 โ
โ0 โ
โ1 โ
๐ก
๎3๎ Der K ๎Vektorraum
K[t] aller Polynome ist nicht endlich erzeugt. Endlich
viele Polynome sind immer vom Grad beschränkt. Beim Übergang zum Spann
entstehen niemals Polynome von höherem Grad.
—4—
8
4.1.10 Spaltenraum
๐ก
∈ Matm,n (K) gegeben. Die n Spalten von A sind Elemente von K m , wir
bezeichnen sie mit a1 , … , an . Für c = (c1 , … , cn )t ∈ K n gilt dann
ei A
Ac = c1 a1 + โฏ + cn an
und somit gilt:
SpanK ({a1 , … , an }) = {Acโฃc ∈ K n }
๐ก
Diese Menge bezeichnet man als den Spaltenraum von A. Man erkennt, dass
das durch (Aโฃb) definierte LGS genau dann eine Lösung hat, wenn b zum
Splatenraum von A gehört.
4.2 Lineare Unabhängigkeit, Basen und Dimension
4.2.1 Lineare Unabhängigkeit, Erzeugendensystem, Basis
๐ก
Sei V ein K ๎Vektorraum und v1 , … , vm
∈ V.
๎1๎ Das Tupel (v1 , … , vm ) heißt K -linear unabhängig, falls für alle λ1 , … , λm aus K
gilt:
λ1 v1 + โฏ + λm vm = 0
⇒
λ1 = โฏ = λm = 0
โก Ansonsten heißt es K-linear abhängig.
๎2๎ (v1 , … , vm ) heißt K ๎Erzeugendensystem von V falls:
SpanK ({v1 , … , vm }) = V
๎3๎ Das Tupel (v1 , … , vm ) heißt K ๎Basis von V , falls es linear unabhängig ๎1๎ und ein
Erzeugendensystem von V ๎2๎ ist. → dann ist es eine Basis von V .
—4—
9
๐กโก
Linear unabhängig sind Vektoren v1 , … , vm genau dann, wenn der
Nullvektor nur als Linearkombination aus ihnen entsteht, wenn alle
Koeffizienten dabei Null sind.
โก Im R
2
sind die beiden Vektoren v1
= (1, 1)t , v2 = (2, 1)t linear
unabhängig. Man kann sie also nicht skalieren und addieren und damit den
Nullpunkt erreichen.
๎4๎ Der Nullvektor ist der einzige Vektor, der für sich allein linear abhängig ist.
4.2.2
โ
Good To Know - Lineare Unabhängigkeit, Erzeugendensystem, Basis
โ
โ
โ
๎1๎ (v1 , … , vm ) bildet eine Basis von V .
∈ V existieren eindeutig bestimmte Skalare λ1 , … , λm ∈ K
mit v = λ1 v1 + โฏ + λm vm .
๎2๎ Zu jedem v
๎3๎ (v1 , … , vm ) ist maximal linear unabhängig, d.h. das Hinzufügen eines
beliebigen weiteren Vektors führt stets zur linearen Abhängigkeit. →
(v1 , … , vm+1 )
—4—
10
โ
โ
โ
๎4๎(v1 , … , vm ) ist ein minimales Erzeugendensystem, d.h. , wenn man ein
beliebiges vi wegnimmt, spannen sie nicht merh V auf.
๎5๎ Jeder endlich erzeugter K ๎Vektorraum besitzt eine Basis.
(v1 , … , vm ), ein
Erzeugendensystem von V sowie (w1 , … , wn ) linear unabhängig, dann gilt:
n ≤m.
Je zwei Basen von V haben dieselbe Länge.
Es gibt unter v1 , … , vm Vektoren vi1 , … , vir , sodass
(w1 , … , wn , vi1 , … , vir ) eine Basis von V bildet.
๎6๎ Sei V ein eindlich erzeugter K ๎Vektorraum
โก
โก
โก
4.2.3 Dimension
๐ก
Sei V ein endlich erzeugter K ๎Vektorraum. Die Dimension von
V (über K ) ist
die Länge einer bzw. jeder Basis von V :
๐ข dim
K (V )
Beispiel:
Man betrachte den K ๎Vektorraum
๐ก
Km
Standardbasis: (e1 , … , em ) → besteht aus genau m Vektoren.
Somit besteht jede andere Basis ebenfalls aus m Vektoren und es gilt:
dimK (K m ) = m
Jedes Erzeugendensystem von K m hat mindestens m Elemente und jede Menge linear
unabhängiger Vektoren hat höchstens m Elemente.
—4—
11
โ
Die Vektoren v1 , … , vm
∈ K m bilden genau dann eine K ๎Basis von K m ,
wenn die Matrix M = (v1 , … , vm ) ∈ Matm (K) invertierbar über K ist.
wenn det(M) =
๎ 0
โก
โก wenn die Spalten linear unabhängig sind.
4.2.4 Basis von Lösungsmengen
๐ก
Sei (A, b) die erweiterte Koeffizientenmatrix eines linearen
Gleichungssystems über K .
โก Dann ist L(A, b) ⊆ K
n
ein affiner Unterraum und für jedes beliebige c
ห∈
L(A, b)
gilt:
L(A, b) = cห + L(A, 0)
โก Weiter ist L(A, 0) ein Untervektorraum und wir können für ihn eine endliche Basis
(v1 , … , vs ) finden. Dadurch kann man L(A, b) ausdrücken als:
Basis von L(A, 0) finden:
๎1๎ Zunächst bringt man A mit elementaren Zeilenumformungen auf Zeilenstufenform.
โ
โก
Dabei ergeben sich:
r Pivotspalten und
โก n - r freie Variablen
๎2๎ Für jede freie Variable konstruiert man sich einen Lösungsvektor, indem man für eine
der freien Variablen den Wert 1, für die anderen freien Variablen 0 wählt. (dies
wiederholt man für alle freien Variablen)
๎3๎ Dadurch erhält man n-r viele Vektoren, die eine Basis von L(A, 0) bilden
—4—
12
โ
Somit ist auch DimK (L(A, 0))
= n−r
4.3 Lineare Abbildungen
4.3.1 Definition: Lineare Abbildung
โ
: Kn → Kn
betrachtet, die also eine Vektor x ∈ K n auf einen Vektor y = F (x) ∈ K m
In diesem Abschnitt werden Abbildungen der Form: F
abbilden.
Beispiele:
Sei K
= R,
n = m = 2, die Abbildung: F : R2 → R2
โก Die Abbildung ordnet jedem Vektor x = (x , x ) ∈ R
gespiegelten Vektor F (x)
1
2
2
mit F (x) = −x
2
den am Koordinatenursprung
= (−x1 , −x2 ) ∈ R zu. Bspw. wird x = (4, −2) auf
F (x) = (−4, 2) abgebildet.
Mithilfe einer Matrix:
๎1๎ Ermittlung der Bilder der Standardbasisvektoren des R2 :
1
−1
F (( )) = ( ) und
0
0
−1
0
Daher ist (
0
0
F (( )) = ( )
1
−1
0
) die gesuchte Matrix. Mit ihrer Hilfe kann die Abbildungsvorschrift
−1
als:
−1
F (x) = Ax = (
0
Sei K
= R,
0
x
−x
) ( 1 ) = ( 1 ) = −x geschrieben werden.
−1
x2
−x2
n = 3, m = 2, die Abbildung: F : R → R
3
2
โก Die Abbildung ordnet jedem Vektor x = (x , x , x ) ∈ R
1
2
3
3
โx1 โ
x
mit F (โx2 โ) = ( 1 )
x2
โx3 โ
den Vektor F (x)
=
(x1 , x2 ) ∈ R zu. Bspw. wird x = (2, 3, 7) auf F (x) = (2, 3) abgebildet.
2
Definition - linear
—4—
13
๐ก
Seien V (=
K n ), W (= K m ) zwei K ๎Vektorräume:
๎1๎ Eine Abbildung φ :
V → W heißt linear, falls für alle v1 , v2 ∈ V , λ ∈ K stets gilt:
φ(v1 + v2 ) = φ(v1 ) + φ(v2 ) und
F (a + b) = F (a) + F (b)
und
โ
φ(λv1 ) = λφ(v1 )
F (ka) = kF (a)
bzw.
: K n → K m ist genau dann linear wenn sie in der Form
F (x) = Ax mit einer (m, n)๎Matrix A geschrieben werden kann.
Eine Abbildung F
Bilder der Standardbasisvektoren
Standardbasisvektoren e1 , … , en
โ1 โ
โ0 โ
โ0 โ
Bilder von R : F (โ0โ), F (โ1โ), F (โ0โ)
โ0 โ
โ0 โ
โ1 โ
3
โ1 โ
โ0 โ
โ0 โ
โ0 โ
0โ
โ1 โ
โ0 โ
โ0 โ
Bilder von R4 : F (โ
โ0โ), F (โ0โ), F (โ1โ), F (โ0โ) etc.
โ0 โ
โ0 โ
โ0 โ
โ1 โ
Definition - Isomorphismus
๎2๎ Eine lineare Abbildung φ :
Abbildung ψ
V → W heißt Isomorphismus, falls eine lineare
: W → V existiert mit :
ψ โ φ = idv
und
φ โ ψ = idw
Definition - isomorph
๎3๎ V und
W heißen isomorph, falls ein Isomorphismus φ : V → W existiert. Wir
schreiben:
V ≅W
4.3.2
โ
Good To Know - Lineare Abbildungen
โ
—4—
Jede Matrix A
∈ Matm,n (K) definiert durch Matrixmultiplikation von links
eine lineare Abbildung:
14
μA : K n → K m
c โฆ Ac
In dieser Notation gilt: L(A, b)
= μ−1
A (b)
→ Das LGS zu lösen bedeutet also, das Urbild vom Vektor b unter der Abbildung μA zu
bestimmen.
โ
Ein Isomorphismus ist offensichtlich immer bijektiv. Umgekehrt ist aber auch
โ
Isomorphie ist ein verallgemeinerter Gleichheitsbegriff für Vektorräume. Zwei
jede bijektive lineare Abbildung ein Isomorphismus.
isomorphe Vektorräume sind eigentlich völlig identisch, nurtragen ihre
Elemente eventuell verschiedene Namen. Ein Isomorphismus φ : V →
W gibt
dabei einfach die Umbenennung der Elemente an.
4.3.3 Rechenregeln
๐ก
Seien V , W zwei K ๎Vektorräume, dann gilt:
๎1๎ φ(0)
= 0 und
๎2๎ φ(−v)
= −φ(v)
4.3.4 Matrix einer linearen Abbildung
Beispiel 1๎ (in der Form F (x)
= Ax)
โx1 โ
x
F : R → R mit F (โx2 โ) = ( 1 )
x2
โx3 โ
3
2
โ
Die Abbildung ist linear.
Begründung:
โก
โx1 โ
a11 x1 + a12 x2 + a13 x3
Die Abbildung ist linear, da sie die Form F (โx2 โ) = (
)
a21 x1 + a22 x2 + a23 x3
โx3 โ
hat.
โก Die Matrix A erhalten wir, indem wir die Bilder der Standardbasis des R
—4—
3
ermitteln:
15
โ1 โ
โ0 โ
โ0 โ
1
0
0
F (e1 ) = F (โ0โ) = ( ) , F (e2 ) = F (โ1โ) = ( ) , F (e3 ) = F (โ0โ) = ( )
0
1
0
โ0 โ
โ0 โ
โ1 โ
๐ก die obersten 2 Werte der Standardbasis werden genommen, weil R
3
auf R2
abgebildet wird
โก Diese 3 Vektoren bilden die Spalten von A, also
โก
1
Probe: Ax = (
0
0
1
x
0 โ 1โ
x
) ⋅ โx2 โ = ( 1 )
0 โ โ
x2
x3
Beispiel 2๎ (in der Form F (x)
= Ax)
x
x +3
F : R2 → R2 mit F (( 1 )) = ( 1
)
x2
x1 + x2
1
A=(
0
0
1
0
)
0
โ
๐ซ Die Abbildung ist nicht linear.
Begründung:
โก Die Abbildung hat nicht die Form F (x) = Ax.
โก Würde man die Bilder der Standardbasis R ermitteln:
2
1
4
0
3
F (e1 ) = F (( )) = ( ) und F (e2 ) = F (( )) = ( )
0
1
1
1
๐ก damit wäre die Matrix A = (41 31)
โก Mit diesem A erhalten wir die lineare Abbildung:
4
Ax = (
1
3
x
4x + 3x2
) ⋅ ( 1) = ( 1
)
1
x2
x1 + x2
๐ซ Aber diese Abbildung ist ungleich F !
—4—
16
โ
Eine Abbildung der Form F (x)
= Ax + b (siehe Bsp. 2๎ ist keine lineare
Abbildung, sondern wird als affine Abbildung bezeichnet.
Beispiel 2๎ (in der Form F (x)
= Ax)
4.3.5 Dimensionsformel
๐ก
Seien V , W zwei Vektorräume und φ :
V → W eine lineare Abbildung. Dann
heißt:
Kern(φ) := φ−1 (0) = {v ∈ V โฃφ(v) = 0} der Kern von φ.
๐ก
Für eine Matrix A
∈ Matm,n (K) gilt offensichtlich:
Kern(μA ) = L(A, 0)
โ
โก
Hier gilt:
Es sind Kern(φ)
โก
⊆ V und Bild(φ) ⊆ W jeweils Untervektorräume.
Es ist φ genau dann injektiv, wenn Kern(φ) = {0} gilt
Beispiel:
๐ก
Wir betrachten die lineare Abbildung:
φ : R2 → R2
(a, b)t โฆ a − b
= {(a, b)t ∈ R2 โฃa = b} = {(a, a)โฃa ∈ R} genau die Diagonale in R2 ,
ein eindimensionaler Untervektorraum. Insbesondere ist φ nicht injektiv. Es gilt
Bild(φ) = R1 .
Es ist Kern(φ)
—4—
17
Dimensionsformel:
Sei V ein endlich-dimensionaler K ๎Vektorraum,
W ein weiterer K ๎Vektorraum und φ :
V → W eine lineare Abbildung, dann gilt:
dimK (V ) = dimK (Kern(φ)) + dimK (Bild(φ))
โ
Seien V , W zwei endlich-dimensionale K ๎Vektorräume mit
dimK (V ) =
dimK (W ) sowie φ : V → W eine lineare Abbildung, dann sind äquivalent:
φ ist injektiv
φ ist surjektiv
φ ist bijektiv
โก
โก
โก
โ
โก
Für eine quadratische Koeffizientenmatrix A
∈ Matm (K) sind äquivalent:
L(A, 0) = {0}
Für jedes b ∈ K m besitzt das LGS mit erwiterter Koeffizientenmatrix (A, b)
โก
eine Lösung.
โก A ist invertierbar.
4.3.6 Rang einer Matrix
๐ก
∈ Matm,n (K) definieren wir den Rang als
rang(A) := dimK (Bild(μA ))
Für A
โก Der Rang von A ist also genau die maximale Anzahl linear unabhängiger Spalten
von A.
โก Der Rang einer Matrix A ist gleich dem Rang der transponierten Matrix A .
โก Eine Abbildung ist genau dann surjektiv, wenn rang(A) = m gilt. Genau dann ist
auch das LGS (A, b) für jedes b ∈ K lösbar.
โก Bei elementaren Zeilenumformungen ändert sich der Rang von A nicht. Solche
T
m
Umformungen entsprechen der Multiplikation von links mit invertierbaren Matrizen.
โ
—4—
In German: Der Rang einer Matrix A ist die Anzahl der linear unabhängigen
Zeilen der Matrix.
18
Beispiel:
โ1
A = โ0
โ0
2
1
0
0โ
1โ
0โ
โก Die 3 Zeilen als Vektoren betrachtet sind linear abhängig, weil jede Menge von
Vektoren, die den Nullvektor enthält, linear abhängig ist. Wenn man den Nullvektor
weglässt, so bleiben die beiden Zeilen (1 2 0) und (0 1 1) übrig, und die sind
linear unabhängig. Daher ist rang(A) = 2.
โ
Ein LGS ist genau dann lösbar, wenn der Rang der Koeffizientenmatrix gleich
dem Rang der erweiterten Koeffizientenmatrix ist.
4.3.7 Bild einer Matrix
๐ก
Das Bild einer (m, n)๎Matrix A ist definiert als:
Bild(A) = {Axโฃx ∈ K n } ⊆ K m
โ
In German: Also die Menge aller Vektoren, die durch Anwendung von A auf alle
x ∈ K n erreicht werden. Alternativ kann auch vom Bild der linearen Abbildung
F : K n → K m , F (x) = Ax gesprochen werden.
Die Dimension des Bildes ist daher gleich dem Rang der Matrix A.
Beispiel:
โ1
A = โ0
โ1
1
1
0
2โ
1โ
1โ
๎1๎ Das Bild wird von den Spaltenvektoren von A aufgespannt, also:
โ1 โ โ1 โ โ2 โ
Bild(A) = LH{โ0โ , โ1โ , โ1โ} ∈ R3
โ1 โ โ0 โ โ1 โ
—4—
19
โก Offensichtlich sind die drei Spaltenvektoren nicht linear unabhängig, denn der dritte
ist ja die Summe der ersten beiden. Deshalb ist der dritte überflüssig und wir können
ihn weglassen:
โ1 โ โ1 โ
Bild(A) = LH{โ0โ , โ1โ}
โ1 โ โ0 โ
โก Die verbleibenden beiden Vektoren sind nun aber linear unabhängig und damit ist
das Bild von A die von diesen beiden Vektoren aufgespannte Ebene. Dimension des
Bildes = Rang der Matrix = 2
4.3.8 Kern einer Matrix
๐ก
โ
Der Kern einer (m, n)๎Matrix A ist definiert als:
Kern(A) = {xโฃAx = 0} ⊆ K n
In German: Also die Menge aller Lösungen des homogenen Gleichungssystems
Ax = 0. Der Kern besteht aus allen Vektoren x, die von F auf 0 abgebildet
werden.
โก Die Lösungen des homogenen Gleichungssystems bilden wieder einen Teilraum, da
Addition und Multiplikation mit einem Skalar für Lösungen des homogenen
Gleichungssystems wieder eine Lösung des homogenen Gleichungssystems ergibt:
๐ก
Der Kern(A) einer (m, n)๎Matrix A bildet einen Teilraum des K n .
Beispiel:
โ1
A = โ0
โ1
1
1
0
2โ
1โ
1โ
๎1๎ Um den Kern zu bestimmen, muss das homogene Gleichungssystem Ax
= 0 gelöst
werden
x1 + x2 + 2x3 = 0
x2 + x3 = 0
—4—
20
x1 + x3 = 0
๎2๎ Nach Anwendung des Gauß-Algorithmus erhalten wir:
x1 + x3 = 0
x2 + x3 = 0
0=0
= t ∈ R einsetzen. Man sieht, dass die Lösung von der Form (x1 , x2 , x3 ) =
(−t, −t, t) ist. Der Kern ist also die Gerade, die vom Vektor (−1, −1, 1) aufgespannt
๎3๎ Für x3
wird
โ−1โ
Kern(A) = LH{โ−1โ}
โ1 โ
Die Dimension des Kerns ist somit 1.
๐กโก
Zusammengefasst:
Für gegebenes b
∈ K m hat das LGS genau dann mind. 1 Lösung, wenn
b ∈ Bild(A).
โก Hat man irgendeine Lösung x
0 des inhomogenen LGS gefunden, so erhält
man alle anderen, indem man alle möglichen Lösungen des homogenen LGS
hinzuaddiert:
x = x0 + Kern(A)
Insbesondere ist die Lösung x0 genau dann eindeutig, wenn der Kern
nulldimensional ist: Kern(A)
—4—
= {0}
21
—5—
5 Die Determinante
5.1 Permutationen
5.1.1 Matrixschreibweise
1
2
…
m
∧
σ=(
)
σ(1) σ(2) … σ(m)
Beispiel:
Die Permutation π
: {1, 2, 3, 4} → {1, 2, 3, 4} mit
π(1) = 2
π(2) = 4
π(3) = 3
π(4) = 1
wird in der Zweizeilenform durch :
1
π=(
2
2
4
3
3
4
) notiert.
1
5.1.2 Hintereinanderausführung von zwei Permutationen
๐ก
—5—
Die Hintereinanderausführung ist nicht kommutativ.
1
5.1.3 Inverse Permutation zu σ
๐ก
Erhält man , indem man die beiden Zeilen vertauscht und dann die Spalten so
ordnet, dass die Einträge in der ersten Zeile wieder in der richtigen
Reihenfolge stehen.
5.1.4 Zykelschreibweise
—5—
2
5.1.5 Elementfremde Zykeln
๐ก
—5—
Reihenfolge der Zykeln spielt keine Rolle.
3
5.1.6 Produkt von nicht elementfremden Zykeln
๐ก
—5—
Bei nicht elementfremden Zykel ist das Prpdukt von der Reihenfolge
abhängig:
4
5.1.7 Inverse eines Zykels
5.1.8 Transposition
๐ก
Ein Zykel der Länge 2 heißt Transposition. Transpositionen sind selbstinvers,
d.h. :
(25)−1 = (52) = 25
5.1.9
โ
Good To Know - Permutationen
โ
Jede Permutation σ
โ
Ist eine Permutation σ
∈ Sm lässt sich als Produkt von elementfremden Zyklen
schreiben. Deren Anzahl ist durch σ eindeutig bestimmt.
∈ Sm ein Produkt von k elementfremden Zykeln und
τ ∈ Sm eine Transposition, so besteht στ aus k + 1 oder k − 1
elementfremden Zyklen.
โ
—5—
Jede Permutation lässt sich als Produkt von Transpositionen schreiben. Deren
Anzahl ist für jede Permuation modulo 2 eindeutig bestimmt.
5
5.1.10 Signatur
๐ก
Für σ
∈ Sm ist sgn(σ) := (−1)S
โก wobei S die Anzahl von Transpositionen ist.
Dadurch erhält man die Signaturabbildung:
sgn : Sm → {−1, 1}
โ
โ
๐ก
Ein Zykel hat genau dann Signatur 1, wenn er eine ungerade Lönge hat.
Gerade Länge: so gilt sgn(σ)
Für σ, τ
= (−1)r
∈ Sm gilt: sgn(στ) = sgn(σ) ⋅ sgn(τ)
5.2 Die Determinante
5.2.1 Leibnitz-Formel der Determinante
๐ก
Für A
= (aij )ij ∈ Matm (K) wird die Determinante definiert als:
โก Dadurch ergibt sich die Determinantenabbildung: det : Mat
m (K)
→K
Die Determinante einer (2, 2)๎Matrix A ist die Zahl
โฃa
det(A) =โฃโฃ 11
โฃ a21
—5—
a12
a22
โฃ
โฃ= a11 a22 − a21 a12 ∈ K
โฃ
โฃ
6
โ
Die Determinante einer Matrix ist gleich der Determinante ihrer transponierten
Matrix:
det(A) = det(At )
5.2.2 Entwicklungssatz von Laplace
Die Determinante einer (n, n)๎Matrix ist eine Zahl aus K, die rekursiv berechnet wird.
โก det(A) = a
11 → wenn
n=1
und
โก det(A) = a
i+1
i1 (−1)
⋅ det(Ai1 ) + ai2 (−1)i+2 ⋅ det(Ai2 ) + โฏ + ain (−1)i+n ⋅
det(Ain )
für n > 1, wobei Aij jene (n-1, n- 1๎๎ Matrix ist, die aus A entsteht, wenn man die i-te
Zeile und die j -te Spalte entfernt.
โ
In German: Man sucht sich eine Zeile (oder Spalte), in der möglichst viele
Elemente gleich 0 sind (denn dann ist weniger zu rechnen). Die Elemente
werden der Reihe nach mit der entsprechenden Unterdeterminante multipliziert
und mit alternierenden Vorzeichen (siehe Abbildung unten) aufsummiert.
โ+ − + … โ
โ− + − … โ
โ+ − + … โ
โ
โ
โ โฎ โฎ โฎ โฑโ
Beispiel:
โ2
โ4
โ7
1
0
6
3โ
5โ
8โ
โก Zeile 2 hat die meisten Nullen daher:
โ
Formel zur Erinnerung
det(A) = ai1 (−1)i+1 ⋅ det(Ai1 ) + ai2 (−1)i+2 ⋅ det(Ai2 )...
det(A) = 4(−1)2+1 ⋅ det(A21 )
—5—
+ 5(−1)2+3 ⋅ det(A23 )
7
๐ก
det = Summe der Diagonaleinträge
โฃ1 3โฃ
โฃ
โฃ
โฃ −5 โฃ 2 1 โฃ=
= −4 โฃโฃ
โฃ
โฃ7 6โฃ
โฃ6 8โฃ
โฃ
โฃ
−4((1 ⋅ 8) − (6 ⋅ 3)) − 5((2 ⋅ 6) − (7 ⋅ 1)) = 40 − 25 = 15
Die Determinante ist 15.
5.2.3 Invertierbarkeit
๐ก
Eine (n, n)๎Matrix A ist genau dann invertierbar, wenn det(A)
=
๎ 0.
= b genau dann eindeutig lösbar, wenn
−1
det(A) =
๎ 0 und die Lösung ist dann x = A b.
Insbesondere ist das LGS Ax
5.2.4 Lösbarkeit eines Gleichungssystems - Beispiel
๐ก
Zu bestimmen sind jeden Zahlen λ
Gleichungssystem Ax
1−λ
A=(
2
๎1๎ Ist det(A)
∈ R, für die das homogene
= 0 nicht-triviale Lösungen besitzt.
2
)
1−λ
=
๎ 0, so hat das homogene Gleichungssystem genau eine Lösung → die
triviale.
Also müssen jene Zahlen λ gefunden werden, für die det(A)
= 0 gilt, denn dann
gibt es auch nicht-triviale Lösungen.
Berechnung der Determinante:
—5—
8
det(A) = (1 − λ)2 − 4 = λ2 − 2λ − 3
โก Setzt man diese gleich 0 und löst die quadratische Gleichung, so erhält man
λ1 = −1, λ2 = 3
5.2.5 Charakteristische Eigenschaften der Determinante
โ
โ
det(I) = 1
Die Determinante ist linear in jeder Spalte. D.h. es gilt
det(a1 , … , aj + bj , … , an ) = det(a1 , … , aj , … an ) + det(a1 , … , bj , … , an )
und
det(a1 , … , kaj , … , an ) = k ⋅ det(a1 , … , aj , … , an ) fuฬr k ∈ K
—5—
โ
Die Determinante ist alternierend, d.h. bei Vertauschen zweier Spalten ändert
โ
Wenn eine Spalte(Zeile) von A lauter Nullen enthält, so ist die Determinante
โ
Wenn zwei Spalten ๎Zeilen) von A gleich sind, so ist die Determinante gleich
โ
Wenn zwei Spalten ๎Zeilen) von A linear abhängig sind, so ist die
โ
Multiplikation der (n, n)๎Matrix A mit einem Skalar k
sich das Vorzeichen der Determinante.
gleich 0.
0.
Determinante gleich 0
n
Determinante mit k : det(kA)
∈ K multipliziert die
= k ⋅ det(A)
n
9
๐ซ
๐ซ
โ
โ
โ
—5—
Achtung: Es ist also det(kA)
Warnung: det(A + B)
=
๎ k ⋅ det(A)
=
๎ det(A) + det(B)
det(AB) = det(A) ⋅ det(B)
det(AB) = det(BA)
det(A−1 ) = det(A)−1
10
—6—
6 Eigenwerte und Eigenvektoren
6.1 Eigenwerte und Eigenvektoren
6.1.1 Endomorphismus
๐ก
φ:V →V
… wobei V ein endlich-dimensionaler K-Vektorraum
Eine lineare Abbildung von einem Raum in sich selbst heißt Endomorphismus.
6.1.2 Eigenwert und Eigenvektor
๐ก
Ein λ
∈ K heißt Eigenwert von φ, falls es ein 0 =
๎ v ∈ V gibt mit φ(v) = λv.
โก jedes solche v heißt dann Eigenvektor von φ zum Eigenwert λ.
6.1.3 Eigenraum
๐ก
Zu einem Eigenwert λ von φ heißt:
Eig(φ, λ) := {v ∈ V โฃφ(v) = λv}
der zu λ gehörige Eigenraum von φ.
6.1.4 Spektrum
๐ก
—6—
Die Menge aller Eigenwerte von φ heißt das Spektrum von φ.
1
6.1.5
โ
Good To Know - Eigenwerte und Eigenvektoren
โ
Ein Vektor 0
โ
Die Bedingung 0
=
๎ v ist genau dann ein Eigenvektor von φ, wenn er durch φ nur
skaliert, nicht aber in der Richtung verändert wird.
=
๎ v ist wichtig, ohne sie wäre jedes λ ∈ K ein Eignewert
von φ. Zum Eigenraum Eig(φ, λ) gehört der Nullvektor laut Definition aber
immer.
โ
๐ก
Für jeden Eigenwert λ von φ ist Eig(φ, λ) ein Untervektorraum von V . Für
v, w ∈ Eig(φ, λ) und γ ∈ K gilt:
φ(v + w) = φ(v) + φ(w) = λv + λw = λ(v + w) und
φ(γv) = γφ(v) = γλv = λ(γv)
โ
Eien Spiegelung des R2 an einer Ursprungsgeraden besitzt die Eigenwerte 1
โ
Nicht jede lineare Abbildung besitzt Eigenwerte oder -vektoren.
๐ก
Für A
und ๎1. Der Eigenraum zum Eigenwert 1 ist die Spiegelungsgerade, die dazu
orthogonale Ursprungsgerade ist der Eigenraum zum Eigenwert ๎1.
∈ Matm (K) und λ ∈ K sind äquivalent:
โก λ ist Eigenwert von μ .
โก Kern(λid m − μ ) =๎ {0}
โก λI − A ist nicht invertierbar.
โก det(λI − A) = 0
A
K
A
m
m
—6—
2
Dabei gilt:
6.1.6 Charakteristisches Polynom
๐ก
∈ Matm (K) heißt pA := det(tIm − A) ∈ K[t] das charakteristische
Polynom von A.
Für A
โก Für A ∈ Mat
m (K) sind die Eigenwerte von
μA gerade die Nullstellen von pA in K .
Somti hat μA höchstens m verschiedene Eigenwerte.
—6—
3