Hochgeladen von jenny.westphal

Lineare Algebra (ohne Vertiefung) Zusammenfassung

Werbung
Lineare Algebra Zusammenfassung
๐Ÿ’ก
๐Ÿšซ
โœ…
โ‰
Definitionen
Wichtige Ausnahmen
Klausurrelevante Details, relevante Facts
Zusammenfassende Worte, zusätzliche Erklärungen, Beispiele
2 Grundlagen
2.1 Notation
∧ und
∨ oder
N natürliche Zahlen
⇒ wenn, dann
Z ganze Zahlen
¬ nicht
Q rationale Zahlen
∀ für alle
R reelle Zahlen
∃ es existiert
∈ ist Element von
∃! es existiert genau ein
∈
/ ist kein Element von
L๎‚A,0๎‚‚ homogenes LGS
L(A,b) inhomogenes LGS
Lineare Algebra - Zusammenfassung
1
2.2 Zahlenmengen
2.2.1 Darstellung
2.3 Mengen, Relationen, Abbildungen
2.3.1 Vereinigungsmenge, Schnittmenge, Mengendifferenz
๐Ÿ’ก
Es gibt genau eine Menge ohne Elemente → die leere Menge.
Notation: ∅ := {}
Lineare Algebra - Zusammenfassung
2
โ‰
Beispiele:
{a, b, c} ∪ {a, 7, π} = {a, b, c, 7, π}
{a, b, c} ∩ {a, 7, π} = {a}
{a, b, c} โˆ– {a, 7, π} = {b, c}
2.3.2 Karthesisches Produkt
๐Ÿ’กโžก
Facts:
Die Mengen M
× N und N × M sind unterschiedliche Mengen.
Die Elemente von M × N sind geordnete Paare, (π, a) ist kein Element
von M × N .
Hat M genau m und N genau n Elemente, so hat M × N genau m⋅n
โžก
โžก
Elemente.
โžก Das karthesische Produkt kann analog auch für ≥ 2 Mengen gebildet
werden.
โ‰
Beispiel:
= {a, b, c} und N = {1, 7, π}:
M × N = {(a, 1), (a, 7), (a, π), (b, 1), (b, 7), (b, π), (c, 1), (c, 7), (c, π)}
Für M
Lineare Algebra - Zusammenfassung
3
2.3.3 Funktion
Seien M, N Mengen. Eine Funktion/Abbildung f von M nach N ist:
๐Ÿ’ก โžกโžก
eine linkstotale und rechtseindeutige Relation zwischen M und N
d.h. eine Teilmenge f
⊆M ×N
โžก mit der zusätzlichen Eigenschaft ∀a ∈ M∃!b ∈ N : (a, b) ∈ f
โžก dabei heißt M der Definitionsbereich und N der Zielbereich der Funktion.
โžก Für jedes Element a aus dem Definitionsbereich M existiert genau ein
Element b aus dem Zielbereich N .
Lineare Algebra - Zusammenfassung
4
2.3.4 Abbildung
Sei f
: M → N eine Abbildung. Dann heißt f :
๐Ÿ’ก
injektiv, falls jedes Element im Zielbereich höchstens ein Urbild (f −1 (b)) hat:
๐Ÿ’ก
surjektiv, falls jedes Element im Zielbereich mindestens ein Urbild hat:
∀b ∈ N : #f −1 (b) ≤ 1
∀b ∈ N : #f −1 (b) ≥ 1
Lineare Algebra - Zusammenfassung
5
๐Ÿ’ก
โ‰
bijektiv, falls f injektiv und surjektiv ist:
∀b ∈ N : #f −1 (b) = 1
Beispiel: Abbildung
a) Die Abbildung f :
N → N mit f(n) = n2 ordnet jeder natürlichen Zahl ihr
Quadrat zu, z.B. f(1) = 1, f(2) = 4, f(3) = 9, etc.
Definitions- und Wertebereich: die natürlichen Zahlen
Bildmenge: f(N)
Lineare Algebra - Zusammenfassung
= {1, 4, 9, 16, … } = {n2 โˆฃn ∈ N}
6
โ‰
Beispiel: Injektiv, Surjektiv
a) f : Z → N, n โ†ฆ n2
Die Abbildung f ist nicht injektiv, denn es gilt nicht, dass je zwei verschiedene
Zahlen aus dem Definitionsbereich auch verschiedene Funktionswerte haben.
= f(2) = 4
Die Abbildung ist auch nicht surjektiv, da nicht alle Zahlen aus N
Denn z.B. ๎‚ˆ2 und 2 haben denselben Funktionswert f(−2)
Funktionswerte sind, z.B. die Zahl 3 tritt nicht als Funktionswert auf.
โ‰
: N → N, n โ†ฆ n2
Die Abbildung g ist injektiv, denn zwei verschiedene a, b ∈ N haben auch
verschiedene Funktionswerte n1 (2) =
๎€  n2 (2). Wie vorher ist die Abbildung aber
b) g
nicht surjektiv.
โ‰
c) h
: Z → Z, n โ†ฆ n + 1
Die Abbildung ist injektiv, da zwei verschiedene ganze Zahlen aus dem
Definitionsbereich n1 ๎€ 
= n2 verschiedene Funktionswerte haben. h(−2)
=
−1, h(2) = 3. Sie ist auch surjektiv, weil jede ganze Zahl m Bild einer ganzen
Zahl, nämlich von n = m-1, ist. Somit ist die Abbildung bijektiv.
โ‰
d) k
: Z5 → Z5 , n โ†ฆ n + 1
injektiv wie bei c). Sie ist auch surjektiv, weil jedes m
eines Elements aus Z5 ist, nämlich von n =
∈ Z5 Funktionswert
m + 4(mod 5๎‚‚ ๎‚4 ist das additive
Inverse von 1 in Z5 ). Somit ist die Abbildung bijektiv.
Lineare Algebra - Zusammenfassung
7
—3—
3 Gauß-Algorithmus und Matrixrechnung
3.1 Lineares Gleichungssystem
3.1.1 Form
๐Ÿ’กโžก
Das lineare Gleichungssystem heißt homogen, falls b1
= b2 = โ‹ฏ =
bm = 0. Man nennt diese Lösung die triviale Lösung.
โžก Das LGS heißt inhomogen, falls eine Lösung existiert, z.B. x + y = 10.
โžก Ein inhomogenes LGS über K = R hat keine, genau eine oder unendlich
viele Lösungen.
3.1.2 Koeffizientenmatrix
๐Ÿ’ก โžกโžก
Eine m × n - Matrix hat m Zeilen und n Spalten.
Eine n × n - Matrix hat gleich viele Zeilen wie Spalten.
3.1.3 Spezielle quadratische Matrizen
๐Ÿ’ก
โŽ›2 3 −4โŽž
โŽ›1 0 0 โŽž
A = โŽœ0 1 5 โŽŸ , B = โŽœ3 1 0 โŽŸ ,
โŽ0 0 8 โŽ 
โŽ9 −2 6โŽ 
A ist eine obere und B eine untere Dreiecksmatrix.
โžก
—3—
1
๐Ÿ’ก
โŽ›2 0 0 โŽž
1 0
C = โŽœ0 5 0 โŽŸ , I = (
)
0 1
โŽ0 0 3 โŽ 
C ist eine Diagonalmatrix und I ist die 2 × 2 - Einheitsmatrix.
โžก
3.1.4 Erweiterte Koeffizientenmatrix
3.1.5 Lösungsmenge
3.1.6 Lösbarkeit von LGS
โš 
Wenn kein Lösungsvektor angegeben, dann ist er 0.
๎‚1๎‚‚ genau eine Lösung
๎‚2๎‚‚ unendlich viele Lösungen
๎‚3๎‚‚ keine Lösung
—3—
2
(a) gegeben sei ein lineares Gleichungssystem:
(b) in Matrixschreibweise lautet das LGS๎‚’
(c) die dazugehörige erweiterte Koeffizientenmatrix ๎‚A | b):
(d) Rang berechnen
Rang einer Matrix Rechner
Hier kannst du den Rang einer Matrix mit komplexen Zahlen
kostenlos online und mit einer sehr detaillierten Lösung berechnen.
Der Rang einer Matrix wird berechnet, indem man die Matrix mit Hilfe
https://matrix.reshish.com/de/rank.php
โ‰
๐Ÿ’ก
Man bringt die gebebene Matrix in Zeilenstufenform und liest dann die NichtNullzeilen ab.
Bei einer Matrix mit den Zeilen (1 2 0), (0 1 1) und (0 0 0) sind
die drei Zeilen linear abhängig, da jede Menge von Vektoren, die den
Nullvektor enthält, linear abhängig ist. Wenn man den Nullvektor weglässt, so
bleibben die beiden Zeilen (1 2 0) und (0 1 1) übrig, diese sind linear
unabhängig, daher Rang = 2.
—3—
3
โœ…โžก
Der Rang einer Matrix A ist gleich dem Rang der transponierten Matrix AT .
Mit anderen Worten: Die Anzahl der linear unabhängigen Spalten ๎‚Zeilenrang
= Spaltenrang).
Elementare Zeilenumformungen lassen den Rang einer Matrix unverändert.
โžก
Beispiele
โŽ›1
A = โŽœ0
โŽ0
โŽ›1
B = โŽœ0
โŽ0
5
2
0
2
2
0
3 โŽž
1 โŽŸ → es sind keine Nullzeilen vorhanden, weshalb Rang(A) = 3.
−1โŽ 
3โŽž
1โŽŸ → es ist eine Nullzeile vorhanden, weshalb Rang(B) = 2.
0โŽ 
๎‚1๎‚‚ genau eine Lösung
Es gibt eine eindeutige Lösung, wenn der Rang der (erweiterten) Koeffizientenmatrix
der Anzahl der Unbekannten n entspricht.
๐Ÿ’ก
rang(A) = rang(Aโˆฃb) = n
Beispiel:
โŽ›1
A = โŽœ0
โŽ0
2
5
0
3
6
9
โˆฃ 1โŽž
โˆฃ 2โŽŸ → Rang 3 = Anzahl der Unbekannten
โˆฃ 3โŽ 
๎‚2๎‚‚ unendlich viele Lösungen
Es git unendlich viele Lösungen, wenn der Rang der (erweiterten) Koeffizientenmatrix
kleiner ist als die Anzahl der Unbekannten n.
๐Ÿ’ก
—3—
rang(A) = rang(Aโˆฃb) < n
4
Beispiel:
โŽ›1
B = โŽœ0
โŽ0
2
5
0
3
6
0
โˆฃ 1โŽž
โˆฃ 2โŽŸ → Rang 2 < Anzahl der Unbekannten (=3)
โˆฃ 0โŽ 
๎‚3๎‚‚ keine Lösung
Es gibt keine Lösung, wenn der Rang der Koeffizientenmatrix A nicht dem Rang der
erweiterten Koeffizientenmatrix entspricht.
๐Ÿ’ก
rang(A) =
๎€  rang(Aโˆฃb)
Beispiel:
โŽ›1
C = โŽœ0
โŽ0
2
5
0
3
6
0
โˆฃ 1โŽž
โˆฃ 2โŽŸ → Rang(A) =2
โˆฃ 3โŽ 
=
๎€ 
Rang(A|b) = 3
3.1.7 Gleichheit von Matrizen
A=(
→A
y
3
) und B = (
w
5
1
)
0
= B steht für die 4 Gleichungen
๐Ÿ’ก
๐Ÿšซ
—3—
x+y
z+x
x + y = 3,
y = 1,
โŽ›2 โŽž
๎€  (2
โŽœ4 โŽŸ =
โŽ5 โŽ 
4
z + x = 5,
w=0
5) → verschiedene Dimensionen
5
3.1.8 Rechenregeln
โœ… โžกโžก
A + B = B + A → Kommutativität
A + ๎‚B + C๎‚‚ = ๎‚A + B๎‚‚ + C → Assoziativität
โžกA+0=A
โžก 1A = A
โžก k(A + B๎‚‚ = kA + kB → Distributivgesetz
3.2 Zeilenstufenform
3.2.1
โœ… Good To Know - Zeilenstufenform
โœ…โžก
Eine Matrix ist in Zeilenstufenform, falls das erste (von links) nicht
verschwindende Element in jeder Zeile gleich 1 ist und
โžก die führende 1 in jeder Zeile rechts von der führenden 1 in der Zeile
darüber steht
โœ…โžก
Sie ist in reduzierter Zeilenstufenform, falls zusätzlich über jeder
führenden 1 Null(en) stehen.
3.2.2 Form
3.2.3 Zeilenstufenform erweiterte Koeffizientenmatrix
—3—
6
โœ… โžกโžก
Das System hat genau dann eine Lösung, wenn br+1
= โ‹ฏ = bm = 0 gilt.
Ist das System lösbar, erhält man alle Lösungen auf folgende Weise:
Falls in der i-ten Spalten von A kein Pivot steht, kann für xi eine beliebige
โž–
Zahl eingesetzt werden. → freie Variablen
โž– Die Werte für alle anderen Variablen sind dann eindeutig bestimmt
(=gebundene Variablen). Man erhält sie, indem man von unten, beginnend mit
der r-ten Zeile, die entsprechenden Gleichungen nach der Variable am Pivot
auflöst.
โžก Durch diese Prozedur erhält man eine Parametrisierung der gesamten
Lösungsmenge durch Rn−r , d.h. eine bijektive Abbildung φ :
Rn−r → L(A, b)
3.3 Gauß-Jordan Algorithmus
3.3.1 Definition
๐Ÿ’ก
3.3.2
Der Gauß-Algorithmus ermöglicht es, für LGS sämtliche Lösungen zu
bestimmen.
โžก erweiterte Koeffizientenmatirx mit Zeilenumformungen auf
Zeilenstufenform bringen
โžก Lösung ablesen
โœ… Good To Know - Gauß
โœ…โžก
Es genügen schon Umformungen vom Typ ๎‚1๎‚‚ und Typ ๎‚3๎‚‚, um
Zeilenstufenform zu erreichen. Typ ๎‚2๎‚‚ wird nur benötigt, wenn man alle Pivots
auf 1 setzen möchte.
โžก Um alle Einträger oberhalb der Pivots 0 zu setzen, muss mit Umformung
vom Typ ๎‚3๎‚‚, von links mit den Pivots beginnend, eliminiert werden.
โžก Eine Zeilenstufenform mit Pivots = 1 und Nullen oberhalb der Pivots heißt
reduzierte Zeilenstufenform.
โžก Wichtig ist, die erweiterte Koeffizientenmatrix umzuformen, anosnten
ändert sich die Lösungsmenge. Nur bei homogenen Systemen nicht nötig, da
sich die Nullspalte ganz hintne sowieso niemals ändert, wenn
Zeilenumformungen vorgenommen werden.
—3—
7
3.3.3 Äquivalenzumformungen
๐Ÿ’ก
๎‚1๎‚‚ Vertauschen von zwei Zeilen ๎‚Gleichungen).
๎‚2๎‚‚ Multiplikation (jedes Eintrags) einer Zeil mit einer Zahl =
๎€  0.
๎‚3๎‚‚ Addition des Vielfachen (=
๎€ 0๎‚‚ einer Zeile zu einer anderen Zeile.
3.3.4 Reduzierte Zeilenstufenform - Beispiel
—3—
8
3.4 Gruppen, Ringe Körper
3.4.1 Definition: Gruppe
๐Ÿ’ก
Eine Gruppe ist eine Menge G zusammen mit einer zweistelligen
Verknüpfung:
∗ :G×G→G
3.4.2 Bedingungen einer Gruppe
โš 
โžก Assoziativgesetz: ∀a, b, c
โžก Neutrales Element: ∃e∀a
โžก Inverse Elemente: ∀a∃b
(a ∗ b) ∗ c = a ∗ (b ∗ c)
e∗a= a∗e = a
a∗b= b∗a= e
gilt zusätzlich das Kommutativgesetz, so nennt man G eine kommutative bzw. abelsche
Gruppe
โš 
โžก Kommutativgesetz: ∀a, b
a∗b= b∗a
3.4.3 Additive Gruppen
—3—
โœ…
(Z, +), also die ganzen Zahlen Z mit der Addition, bilden eine kommutative
โœ…
Ebenso sind (Zm , +), für beliebiges m, (Q, +), (R, +), (C, +) kommutative
Gruppe, denn:
โžก Assoziativität: a + (b + c) = (a + b) + c gilt für alle ganzen Zahlen a, b, c.
โžก Neutrale Element: Bezüglich der Addition ist 0๎‚’ a + 0 = 0 + a.
โžก Zu jeder ganzen Zahl a gibt es ein Inverses −a bezügl. der Addition.
โžก Das Kommutativgesetz gilt a + b = b + a für alle ganzen Zahlen a, b.
Gruppen
9
๐Ÿšซ
Aber: (N0 , +) ist keine Gruppe. Assoziativgesetz und neutrales Element sind
kein Problem, aber es gibt nicht für jede natürliche Zahl a ein additiv Inverses.
z.B. es gibt keine natürliche Zahl a, sodass 3 + a
= 0.
3.4.4 Multiplikative Gruppen
โœ…
(Q\{0}, ⋅), also die rationalen Zahlen Q ohne 0 mit der Multiplikation, bilden
eine kommutative Gruppe, denn:
โžก Das Assoziativgesetz gilt: a ⋅ (b ⋅ c) = (a ⋅ b) ⋅ c für alle rationalen Zahlen
a, b, c =
๎€  0.
โžก Das neutrale Element bzgl. der Multiplikation ist 1: a ⋅ 1 = 1 ⋅ a = a für
alle rationalen Zahlen a =
๎€  0.
โžก Zu jeder rationalen Zahl a =๎€  0 gibt es ein Inverses bzgl. der Multiplikation
(multiplikatives Inverses): : a ⋅ = ⋅ a = 1.
โžก Das Kommutativgesetz gilt: a ⋅ b = b ⋅ a für alle rationalen Zahlen a, b =๎€  0.
1
a
โœ…
โœ…
—3—
1
a
1
a
(R\{0}, ⋅) ist ebenso eine abelsche Gruppe bzgl. ⋅ mit e = 1.
Ebenso sind (Zp \{0}, ⋅), (wobei p
Primzahl), (R\{0}, ⋅), (C\{0}, ⋅)
kommutative Gruppen.
10
๐Ÿšซ
Aber: (N, ⋅) und auch (Z\{0}, ⋅) sind keine Gruppen. Wieder sind
Assoziativgesetz, neutrales Element kein Problem, aber es scheitert wieder
am Inversen: In Z\{0} gibt es nicht für jedes a ein multiplikatives Inverses.
z.B. gibt es keine ganze Zahl a, sodass 3 ⋅ a
3.4.5
= 1.
โœ… Good To Know - Gruppen
โœ…
Reelle Zahlen (R) sind sowohl bzgl. + als auch (wenn man die 0
herausnimmt) bzgl. ⋅ eine kommutative Gruppe. Dasselbe gilt für Q, R, C
oder Zp .
→ Daher haben diese Mengen bzgl. Addition und Multiplikation dieselbe
Struktur, es gelten also dieselben Rechenregeln. Mann nennt diese Struktur
einen Körper.
3.4.6 Definition: Körper
๐Ÿ’ก
Eine Menge K mit zwei Verknüpfungen + und ⋅, geschrieben (K, +, ⋅), heißt
Körper, wenn folgendes gilt:
๎‚1๎‚‚ (K, +) ist eine kommutative Gruppe mit neutralem Element 0.
๎‚2๎‚‚ (K\{0}, ⋅) ist eine kommutative Gruppe mit neutralem Element 1.
๎‚3๎‚‚ für alle a, b, c
๐Ÿ’ก
3.4.7
Das Distributivgesetz regelt, wie die beiden Verknüpfungen sich miteinander
vertragen.
โœ… Good To Know - Körper
โœ… โžกโžก
โžก
—3—
∈ K gilt: a ⋅ b + a ⋅ c = a ⋅ (b + c) → Distributivgesetz
Für eine Primzahl p ist Zp ein Körper.
Ebenso sind Q,
R und C Körper.
Jedoch ist Z kein Körper, denn (Z\{0}) ist keine Gruppe.
11
→ hat nicht jedes Element ein multiplikatives Inverses, so wie z.B. in Zm , so spricht
man von einem Ring.
3.4.8 Definition: Ring
๐Ÿ’ก
Eine Menge R mit zwei Verknüpfungen + und ⋅, geschrieben (R, +, ⋅), heißt
Ring, wenn folgendes gilt:
๎‚1๎‚‚ (R, +) ist eine kommutative Gruppe mit neutralem Element 0.
๎‚2๎‚‚ Für alle a, b, c
∈ R gilt: (a ⋅ b) ⋅ c = a ⋅ (b ⋅ c) → Assoziativgesetz
๎‚3๎‚‚ Für alle a, b, c
∈ R gilt: a ⋅ b + a ⋅ c = a ⋅ (b + c) → Distributivgesetz
Gilt zusätzlich:
๎‚4๎‚‚ das Kommutativgesetz a ⋅ b
= b ⋅ a für alle a, b ∈ R, so spricht man von einem
kommutativen Ring.
๎‚5๎‚‚ Wenn darüber hinaus ein neutrales Element 1 für die Multiplikation existiert, also a ⋅
1 = 1 ⋅ a = a für alle a ∈ R, so spricht man von einem kommutativen Ring mit Eins.
โ‰
3.4.9
Wenn also jedes Element (außer 0๎‚‚ eines kommutativen Ringes mit Eins ein
multiplikatives Inverses besitzt, dann ist der Ring ein Körper.
โœ… Good To Know - Ring
โœ…โžก
Die ganzen Zahlen Z sind ein kommutativer Ring mit Eins; kein Körper, da
es nicht zu jeder ganzen Zahl ein Inverses bzgl. der Multiplikation gibt.
โžกZ
m ist ein kommutativer Ring mit Eins; er ist genau dann ein Körper wenn
m = p eine Primzahl ist. So sind also z.B. Z4 oder Z256 nur Ringe, aber
Z2 , Z3 , Z5 hingegen Körper.
Die Menge der Polynome R[x] = {p(x) = pn xn + โ‹ฏ + p1 x + p0 โˆฃpk ∈
R} ist ein kommutativer Ring mit Eins, aber kein Körper.
โžก
—3—
12
3.4.10 Endliche Körper
๐Ÿ’ก
Sei n ≥
2 eine natürliche Zahl. Wir definieren eine Äquivalenzrelation auf Z
durch folgende Setzung:
a ∼ b :⇔ nโˆฃ(b − a)
→ Zwei Zahlen sind also äquivalent, wenn sie sich um ein Vielfaches von n
unterscheiden. Ordnet man die Zahlen auf einer Uhr mit n Stunden an, so endet jeder
Umlauf um die Uhr also in derselben Äquivalenzklasse.
3.4.11 Z/nZ
โ‰
Wurde bereits als Gruppe mit + eingeführt, nun definieren wir Addition und
Multiplikation auf Z/nZ:
๎‚1๎‚‚ [a] + [b]
๎‚2๎‚‚ [a] ⋅ [b]
โœ…โžก
:= [a + b]
:= [a ⋅ b]
Sei n ≥ 2:
Es ist Z/nZ ein kommutativer Ring mit genau n Elementen.
โžก Es ist Z/nZ genau dann ein Körper, wenn n eine Primzahl ist.
(Z/pZ, +, ⋅)
โ‰
—3—
Folgende 3 Aussagen sind für n =
โžก (Z/pZ, +, ⋅) ist ein Körper.
โžก (Z/pZ, +, ⋅) ist nullteilerfrei.
โžก p ist eine Primzahl.
p ∈ N äquivalent:
13
3.5 Matrixrechnung
3.5.1 Definition
๐Ÿ’ก
Sei R eine Menge und m, n ∈
N
๎‚1๎‚‚ Eine m × n - Matrix über R ist eine Abbildung
M : {1, … , m} × {1, … , n} → R
โ‰
Erster Index bezeichnet die Zeile
โžก
Zweiter Index bezeichnet die Spalte
โฌ‡
๎‚2๎‚‚ Eine m × 1 - Matrix wird auch Spaltenvektor, eine 1 × n - Matrix Zeilenvektor
genannt.
—3—
14
โ‰
In Zeilen- oder Spaltenvektoren wird oft nur ein Index verwendet, z.B.:
โŽ› v1 โŽž
. โŽŸ
v=โŽœ
โŽœ . โŽŸ → Spaltenvektor
โŽvm โŽ 
๎‚3๎‚‚ Die Menge aller m × n - Matrizen über R wird mit Matm,n (R) bezeichnet.
โ‰
โžก Wenn m = n, wird statt Mat (R) → Mat
โžก Statt Mat (R) ๎‚๎‚›Spaltenvektor) → R
m,m
m,1
๎‚4๎‚‚ Für M
m (R) geschrieben.
m
= (mij )i=1,…,m;j=1,…,n ∈ Matm,n (R) bezeichnen wir mit:
M t := (mij )i=1,…,n;j=1,…,m ∈ Matn,m (R)
die sog. transponierte Matrix
3.5.2 Transponierte Matrix
๐Ÿ’ก
—3—
Die transponierte Matrix entsteht aus M durch Vertauschung der Indizes,
bzw. durch Spiegelung an der Diagonalen.
Die Zeilen von M werden zu den Spalten von M t
โžก
15
3.5.3 Summe zweier m × n - Matrizen
๐Ÿ’ก
Die Summe zweier m × n - Matrizen A
โŽ› a11 + b11
โŽœ a21 + b21
โŽœ
โ‹ฏ
โŽam1 + bm1
a12 + b12
a22 + b22
โ‹ฏ
am2 + bm2
Beispiel:
โŽ›1
โŽœ3
โŽ5
โ‰
2 โŽž โŽ›6
4 โŽŸ + โŽœ5
6 โŽ  โŽ4
= (aij ) und B = (bij ):
โ‹ฏ a1n + b1n โŽž
โ‹ฏ a2n + b2n โŽŸ
โŽŸ
โ‹ฑ
โ‹ฏ
โ‹ฏ amn + bmn โŽ 
3 โŽž โŽ›7
2 โŽŸ = โŽœ8
1 โŽ  โŽ9
5โŽž
6โŽŸ
7โŽ 
Matrizen können nur addiert, wenn sie die gleichen Dimensionen haben. Hier:
3×2
+
3×2
=
3×2
3.5.4 Multiplikation von Matrizen
โœ…
—3—
Das Kommutativgesetz (AB
=
๎€  BA) gilt nicht!
16
Beispiel:
โŽ›1
โŽœ3
โŽ5
โ‰
2โŽž
1
4โŽŸ ⋅ (
4
6โŽ 
2
5
โŽ›9
3
) = โŽœ19
6
โŽ29
12
26
40
15โŽž
33โŽŸ
51โŽ 
Matrizen können nur multipliziert werden, wenn die Spalte der linken Matrix die
gleiche Dimension wie die Zeilen der rechten Matrix hat. Hier:
3×2
⋅
2×3
=
3×3
3.5.5 R als Ring
๐Ÿ’ก
โœ…
—3—
Sei R ein Ring und m, n ∈
N, dann gilt:
๎‚1๎‚‚ Matm,n (R) ist eine abelsche Gruppe bzgl. +
17
โœ…
๎‚2๎‚‚ Die Multiplikation von Matrizen ist assoziativ, d.h. es gilt:
โœ…
๎‚3๎‚‚ Zwischen Addition und Multiplikation gilt das Distributivgesetz, d.h:
โœ…
(A ⋅ B) ⋅ C = A ⋅ (B ⋅ C)
A ⋅ (B + C) = (A ⋅ B) + (A ⋅ C),
(B + C) ⋅ A = (B ⋅ A) + (C ⋅ A)
Matm (R) ist ein Ring bzgl. + und ⋅.
Selbst wenn R kommutativ ist, ist es Matm (R) niemals, solange m ≥ 2.
3.5.6 K als Körper
๐Ÿ’ก
Sei K ein Körper, m, n ∈
N sowie A ∈ Matm,n (K) und b ∈ K m . Sei c ∈
L(A, b) ein beliebiges Element, dann gilt:
L(A, b) = {c + cโˆฃc ∈ L(A, 0)}
3.5.7 Inverse Matrix
๐Ÿ’ก
Wenn es zu einer quadratischen Matrix A eine Matrix A−1 gibt mit
AA−1 = A−1 A = I,
dann heißt die Matrix A invertierbar oder regulär.
โœ…โžก
Die Inverse von A hat dieselbe Dimension wie A und ist eindeutig ( โ‰)
bestimmt.
โžก Eine quadratische Matrix, die nicht invertierbar ist, heißt singulär.
โžก Eine Matrix A ist genau dann invertierbar, wenn gilt: det(A) =๎€  0.
โ‰
—3—
"Eindeutig bestimmt": Wenn wir zu A eine Matrix B gefunden haben, die die
Eigenschaft AB
= BA = I erfüllt, dann ist B die einzige Matrix dieser Art.
18
2
AB = (
−1
๐Ÿ’ก
4
b
) ∗ ( 11
3
b21
b12
2b + 4b21
) = ( 11
b22
−b11 + 3b21
2b12 + 4b22
1
)=(
−b12 + 3b22
0
0
)
1
≥ 1. Dann heißen die Elemente von
GLm (R) := Matm (R)x
(über R) invertierbare Matrizen.
Sei R ein Ring und m
โœ…โžก
Hat eine Matrix A eine Nullzeile oder Nullspalte, so ist sie nicht
invertierbar.
Ist die Koeffizientenmatrix A eines LGS quadratisch und invertierbar, so
โžก
besitzt das System genau eine Lösung
โžก Ist B eine invertierbare Matrix, so gilt L(A, b) = L(BA, Bb) für alle LGS.
Es bedeutet x
∈ L(A, b) ja gerade Ac = b.
3.5.8 Elementarmatrix
โœ…โžก
Multipliziert man eine n × p - Matrix A von links mit einer Elementarmatrix,
so entspricht das einer elementaren Zeilenumformung der Matrix A.
โžก Elementarmatrizen können auch von rechts an eine Matrix A multipliziert
werden und entsprechen dann elementaren Spaltenumformungen von A.
๐Ÿ’ก
Sei K ein Körper und m
aus Matm (K) von einem der folgenden drei Typen:
๎‚1๎‚‚ Für 1
—3—
∈ N. Eine Elementarmatrix (über K ) ist eine Matrix
≤i≤j≤m
19
๐Ÿ’ก
Pij A entsteht aus A durch Vertauschen der i-ten und j-ten Zeile.
๎‚2๎‚‚ Für 1
๐Ÿ’ก
Si (λ)A entsteht aus A durch Multiplikation der i-ten Zeile mit λ.
๎‚3๎‚‚ Für 1
—3—
≤ i ≤ m und 0 =
๎€ λ∈K
≤ i, j ≤ m,
i=
๎€  j,
0=
๎€ λ∈K
20
๐Ÿ’ก
Mji (λ)A entsteht durch Addition des λ-fachen der i-ten Zeile zur j-ten Zeile.
โœ… โžกโžก
Jede Elementarmatrix ist invertierbar über K .
Eine quadratische Matrix in reduzierter Zeilenstufenform ohne Nullzeilen
ist die Einheitsmatrix.
Inverse von Elementarmatrizen sind selbst wieder Elementarmatrizen
โžก
Sei K ein Körper, m
โœ… โžกโžก
โžก
∈ N und A ∈ Matm (K), dann sind äquivalent:
A ∈ GLm (K)
A ist ein Produkt von endlich vielen Elementarmatrizen.
A lässt sich durch elementare Zeilenumformungen zur Einheitsmatrix
transformieren.
—3—
21
—4—
4 Vektorräume und lineare Abbildungen
4.1 Vektorräume
4.1.1 Definition
โ‰
(a1 , a2 , … an ) ∈ Rn nennt man Vektor. → Rn ist der Vektorraum
Vektoren im R2 sind bspw. a = (2, 3) oder b = (0, −1)
Vektoren im R5 sind bspw. c = (1, 4, 0, −2, −1)
Ein n๎‚ˆTupel
๎‚1๎‚‚ Ein K ๎‚ˆVektorraum ist eine abelsche Gruppe
๐Ÿ’ก
(V , +) zusammen mit der Verknüpfung
⋅:K×V →V
genannt die Skalarmultiplikation, sodass für alle λ, γ
โžก λ ⋅ (v + w) = (λ ⋅ v) + (λ ⋅ w)
โžก (λ + γ) ⋅ v = (λ ⋅ v) + (γ ⋅ v)
โžก (λγ) ⋅ v = λ ⋅ (γ ⋅ v)
โžก1⋅v = v
∈ K und v, w ∈ V gilt:
๎‚2๎‚‚ Die Elemente von V heißen Vektoren, die Elemente von K Skalare. Das neutrale
Element der abelschen Gruppe V heißt Nullvektor/Ursprung.
4.1.2 Addition von Vektoren
๐Ÿ’ก
—4—
Die Summe von zwei Vektoren a
(b1 , … , bn ) ∈ Rn ist der Vektor:
โŽ› โŽž
โŽ› โŽž
โŽ›
= (a1 , … , an ) ∈ Rn und b =
โŽž
1
โŽ›a1 โŽž โŽ›b1 โŽž โŽ› a1 + b1 โŽž
โŽœ⋅โŽŸ โŽœ⋅โŽŸ โŽœ ⋅ โŽŸ
โŽŸ โŽœ โŽŸ โŽœ
โŽŸ
a+b= โŽœ
โŽœ ⋅ โŽŸ+โŽœ ⋅ โŽŸ=โŽœ ⋅ โŽŸ
โŽœ⋅โŽŸ โŽœ⋅โŽŸ โŽœ ⋅ โŽŸ
โŽan โŽ  โŽbn โŽ  โŽan + bn โŽ 
๐Ÿ’ก
Je zwei Elemente a, b
∈ V wird ein Element a + b ∈ V zugeordnet, sodass
(V , +) eine abelsche Gruppe wird, d.h.:
โžก a + b = b + a → Kommutativität
โžก a + (b + c) = (a + b) + c → Assoziativität
โžก a + 0 = a → Existenz eines neutralen Elements
โžก a + (−a) = 0 → Existenz eines inversen Elements
โœ… für a, b, c ∈ V , das neutrale Element 0 ist der Nullvektor und das zu a inverse
Element ist −a.
4.1.3 Skalarmultiplikation
๐Ÿ’ก
Die Multiplikation des Vektors a
∈ Rn mit einem Skalar k ∈ R ist der Vektor:
โŽ›a1 โŽž โŽ› k ⋅ a1 โŽž
โŽœ⋅โŽŸ โŽœ ⋅ โŽŸ
โŽŸ โŽœ
โŽŸ
k⋅a = k⋅โŽœ
โŽœ ⋅โŽŸ=โŽœ ⋅ โŽŸ
โŽœ⋅โŽŸ โŽœ ⋅ โŽŸ
โŽan โŽ  โŽk ⋅ an โŽ 
→ Das Ergebnis jeder dieser beiden Rechenoperationen ist wieder ein Vektor im Rn .
โžก k(ha) = (kh)a
โžก 1a = a
โžก k(a + b) = ka + kb → Distributivgesetz
โžก (k + h)a = ka + ha
โœ… für alle a, b ∈ V und h, k ∈ K : V wird ein Vektorraum (über dem Körper K)
genannt.
—4—
2
๐Ÿ’ก
4.1.4
—4—
= R → reeller Vektorraum
Ist K = C → komplexer Vektorraum
Ist K
โœ… Good To Know - Vektorräume
โœ…
๎‚1๎‚‚ Für m
โœ…
๎‚2๎‚‚ Etwas allgemeiner ist für m, n ≥
โœ…
๎‚3๎‚‚ Sei M eine beliebige Menge. Die Menge: F (M, K)
โœ…
๎‚4๎‚‚ Die Menge aller Polynome mit Koeffizienten aus K ist ein K ๎‚ˆVektorraum.
โœ…
๎‚5๎‚‚ Für jeden Körper K existiert der Nullvektorraum, i.e. V
≥ 1 ist K m ein K ๎‚ˆVektorraum.
0 stets Matm,n (K) ein K ๎‚ˆVektorraum.
= {f : M → K} aller
K -wertigen Abbildungen auf M ist nicht nur ein Ring, sondern kann auch als
K ๎‚ˆVektorraum aufgefasst werden.
= {0}. Die
Verknüpfungen sind dabei eindeutig bestimmt. Man nennt ihn auch den
trivialen Vektorraum.
3
โœ…
๎‚6๎‚‚ Sind V , W zwei K ๎‚ˆVektorräume, so kann man das karthesische Produkt
V × W wieder als K ๎‚ˆVektorraum auffassen. Addition und
Skalarmultiplikation sind komponentenweise definiert:
โœ…
๎‚7๎‚‚ Für 0
=
๎€  v ∈ V und λ, γ ∈ K mit λ =
๎€  γ gilt stets:
λv =
๎€  γv
โœ…
๎‚8๎‚‚ Für K
= Z/2Z gilt:
K 2 = {(0, 0)t , (0, 1)t , (1, 0)t , (1, 1)t }
Wichtige Eigenschaften von Vektorräumen:
โœ… โžกโžก
โžก
โžก
0a = 0
k0 = 0
(−1)a = −a
a − b = a + (−b)
4.1.5 Untervektorraum
๐Ÿ’ก
Sei V ein K ๎‚ˆVektorraum und
U ⊆ V eine nichtleere Teilmenge.
๎‚1๎‚‚ U heißt K ๎‚ˆUntervektorraum von V , falls gilt:
—4—
4
v, w ∈ U ⇒ v + w ∈ U
λ ∈ K, v ∈ U ⇒ λv ∈ U
๎‚2๎‚‚ U heißt affiner K ๎‚ˆUnterraum von V , falls ein v
∈ V existiert, sodass:
v + V := {v + uโˆฃu ∈ U}
ein K ๎‚ˆUntervektorraum von V ist. Dabei heißt dann v + U der zu U parallele
Untervektorraum.
โ‰
โžก Untervektorräume sind niemals leer.
โžก Die Vektoraddition und die skalare Multiplikation sind auf U abgeschlossen.
โžก Fehlt in U der Nullvektor 0, so ist U kein Untervektorraum.
โœ…
๎‚1๎‚‚ Jeder Untervektorraum U enthält den Nullvektor.
โœ…
๎‚2๎‚‚ Jeder K ๎‚ˆUntervektorraum von V ist mit den eingeschränkten
โœ…
๎‚3๎‚‚ Der Durchschnitt einer beliebigen Familie von Untervektorräumen von V
โœ…
Verknüpfungen selbst wieder ein K ๎‚ˆVektorraum.
ist wieder ein Untervektorraum.
๎‚4๎‚‚ Jeder Untervektorraum ist ein affiner Unterraum. Die Umkehrung gilt im
Allgemeinen nicht. Genauer ist ein affiner Unterraum U genau dann auch ein
Untervektorraum, wenn 0
—4—
∈ U.
5
4.1.6 Lösungsmenge
๎‚1๎‚‚ Für A
∈ Matm,n (K) ist die Lösungsmenge
L(A, 0) ⊆ K n
des von A definierten homogenen Gleichungssystem ein K ๎‚ˆUntervektorraum.
๎‚2๎‚‚ Fpr A
∈ Matm,n (K) und b ∈ K m ist die Lösungsmenge
L(A, b) ⊆ K n
des inhomogenen Systems ein affiner K ๎‚ˆUnterraum. Für jedes beliebige c
ห‰∈
L(A, b)
gilt ja:
(−cห‰) + L(A, b) = L(A, 0) → (−b + b = 0)
๎‚3๎‚‚ Für d
∈ N ist
aller Polynome vom Grad höchstens d ein Untervektorraum des Vektorraums K[t].
4.1.7 Linearkombination
๐Ÿ’ก
Seien V ein K ๎‚ˆVektorraum, v1 , … , vr \in V und λ1 , … , λr ∈ K . Dann heißt
das Element λ1 v1 + โ‹ฏ + λr vr ∈ V
eine Linearkombinatioin der
Vektoren v1 , … , vr → leere Linearkombination (r=0) = Nullvektor
4.1.8 Kleinster Untervektorraum - Definition
๐Ÿ’ก
Sei V ein K ๎‚ˆVektorraum und
M ⊆ V eine beliebige Teilmenge. Dann gilt:
→ und dies ist der kleinste Untervektorraum, der M enthält.
—4—
6
4.1.9 Spann
โœ…
⊆ V bezeichnen wir die Menge aus "Kleinster Untervektorraum Definition" als K -lineare Hülle oder Spann über K von M und verwenden
๎‚1๎‚‚ Für M
dafür auch die Bezeichnung:
Spank (M) → Spann über K von M = kleinere K ๎‚ˆUnterraum von V , der M enthält.
โœ…
๎‚2๎‚‚ Ein K ๎‚ˆVektorraum heißt endlich erzeugt oder endlich dimensional, wenn
es eine endliche Teilmenge M
⊆ V gibt mit :
Spank (M) = V
Beispiel:
๐Ÿ’ก
๎‚1๎‚‚ Hat die Menge M nur ein Element, so ist jede Linearkombination von
Elementen aus M nur ein Vielfaches dieses einen Vektors.
โžก Mann muss sich den Span
K (M)also als Ursprungsgerade vorstellen (
Ausnahme: Nullvektor)
Betrachte man also bspw. den R๎‚ˆVektorraum
R2 und darin die einelementige Menge
M = {(1, 1)t } → SpanR (M) ist die Unsprungsgerade durch den Punkt (1, 1)t :
—4—
7
Betrachtet man M
= {(1, 1), (0, 1)} ⊆ R2 so ergibt sich SpanR (M) = R2 . Es reicht
für die lineare Hülle nicht, nur Vielfache der beiden Vektoren zu betrachten, man muss
auch Summen zulassen:
Rechnerisch:
Man wählt (a, b)t
∈ R2 beliebig und setzt λ = a γ = b − a:
1
0
λ
a
a
λ⋅( )+γ ⋅( )= (
) = ( ) → Hint : (
)
1
1
λ+γ
b
a + (b − a) = b
→ so erhält man den Vektor (a, b)t als R๎‚ˆLinearkombination der Elemente von M
๐Ÿ’ก
๎‚2๎‚‚ Für jedes m
∈ N und jeden Körper K ist K m ein endlich erzeugter K -
Vektorraum:
โŽ›1 โŽž
โŽ›0 โŽž
โŽ›0 โŽž
โŽœ0 โŽŸ
โŽœ1 โŽŸ
โŽœ0 โŽŸ
e1 = โŽœ โŽŸ , e2 = โŽœ โŽŸ , … , em = โŽœ โŽŸ → SpanK ({e1 , … , em }) = K m
โŽœโ‹ฎโŽŸ
โŽœโ‹ฎโŽŸ
โŽœโ‹ฎโŽŸ
โŽ0 โŽ 
โŽ0 โŽ 
โŽ1 โŽ 
๐Ÿ’ก
๎‚3๎‚‚ Der K ๎‚ˆVektorraum
K[t] aller Polynome ist nicht endlich erzeugt. Endlich
viele Polynome sind immer vom Grad beschränkt. Beim Übergang zum Spann
entstehen niemals Polynome von höherem Grad.
—4—
8
4.1.10 Spaltenraum
๐Ÿ’ก
∈ Matm,n (K) gegeben. Die n Spalten von A sind Elemente von K m , wir
bezeichnen sie mit a1 , … , an . Für c = (c1 , … , cn )t ∈ K n gilt dann
ei A
Ac = c1 a1 + โ‹ฏ + cn an
und somit gilt:
SpanK ({a1 , … , an }) = {Acโˆฃc ∈ K n }
๐Ÿ’ก
Diese Menge bezeichnet man als den Spaltenraum von A. Man erkennt, dass
das durch (Aโˆฃb) definierte LGS genau dann eine Lösung hat, wenn b zum
Splatenraum von A gehört.
4.2 Lineare Unabhängigkeit, Basen und Dimension
4.2.1 Lineare Unabhängigkeit, Erzeugendensystem, Basis
๐Ÿ’ก
Sei V ein K ๎‚ˆVektorraum und v1 , … , vm
∈ V.
๎‚1๎‚‚ Das Tupel (v1 , … , vm ) heißt K -linear unabhängig, falls für alle λ1 , … , λm aus K
gilt:
λ1 v1 + โ‹ฏ + λm vm = 0
⇒
λ1 = โ‹ฏ = λm = 0
โžก Ansonsten heißt es K-linear abhängig.
๎‚2๎‚‚ (v1 , … , vm ) heißt K ๎‚ˆErzeugendensystem von V falls:
SpanK ({v1 , … , vm }) = V
๎‚3๎‚‚ Das Tupel (v1 , … , vm ) heißt K ๎‚ˆBasis von V , falls es linear unabhängig ๎‚1๎‚‚ und ein
Erzeugendensystem von V ๎‚2๎‚‚ ist. → dann ist es eine Basis von V .
—4—
9
๐Ÿ’กโžก
Linear unabhängig sind Vektoren v1 , … , vm genau dann, wenn der
Nullvektor nur als Linearkombination aus ihnen entsteht, wenn alle
Koeffizienten dabei Null sind.
โžก Im R
2
sind die beiden Vektoren v1
= (1, 1)t , v2 = (2, 1)t linear
unabhängig. Man kann sie also nicht skalieren und addieren und damit den
Nullpunkt erreichen.
๎‚4๎‚‚ Der Nullvektor ist der einzige Vektor, der für sich allein linear abhängig ist.
4.2.2
โœ… Good To Know - Lineare Unabhängigkeit, Erzeugendensystem, Basis
โœ…
โœ…
โœ…
๎‚1๎‚‚ (v1 , … , vm ) bildet eine Basis von V .
∈ V existieren eindeutig bestimmte Skalare λ1 , … , λm ∈ K
mit v = λ1 v1 + โ‹ฏ + λm vm .
๎‚2๎‚‚ Zu jedem v
๎‚3๎‚‚ (v1 , … , vm ) ist maximal linear unabhängig, d.h. das Hinzufügen eines
beliebigen weiteren Vektors führt stets zur linearen Abhängigkeit. →
(v1 , … , vm+1 )
—4—
10
โœ…
โœ…
โœ…
๎‚4๎‚‚(v1 , … , vm ) ist ein minimales Erzeugendensystem, d.h. , wenn man ein
beliebiges vi wegnimmt, spannen sie nicht merh V auf.
๎‚5๎‚‚ Jeder endlich erzeugter K ๎‚ˆVektorraum besitzt eine Basis.
(v1 , … , vm ), ein
Erzeugendensystem von V sowie (w1 , … , wn ) linear unabhängig, dann gilt:
n ≤m.
Je zwei Basen von V haben dieselbe Länge.
Es gibt unter v1 , … , vm Vektoren vi1 , … , vir , sodass
(w1 , … , wn , vi1 , … , vir ) eine Basis von V bildet.
๎‚6๎‚‚ Sei V ein eindlich erzeugter K ๎‚ˆVektorraum
โžก
โžก
โžก
4.2.3 Dimension
๐Ÿ’ก
Sei V ein endlich erzeugter K ๎‚ˆVektorraum. Die Dimension von
V (über K ) ist
die Länge einer bzw. jeder Basis von V :
๐Ÿ’ข dim
K (V )
Beispiel:
Man betrachte den K ๎‚ˆVektorraum
๐Ÿ’ก
Km
Standardbasis: (e1 , … , em ) → besteht aus genau m Vektoren.
Somit besteht jede andere Basis ebenfalls aus m Vektoren und es gilt:
dimK (K m ) = m
Jedes Erzeugendensystem von K m hat mindestens m Elemente und jede Menge linear
unabhängiger Vektoren hat höchstens m Elemente.
—4—
11
โœ…
Die Vektoren v1 , … , vm
∈ K m bilden genau dann eine K ๎‚ˆBasis von K m ,
wenn die Matrix M = (v1 , … , vm ) ∈ Matm (K) invertierbar über K ist.
wenn det(M) =
๎€ 0
โžก
โžก wenn die Spalten linear unabhängig sind.
4.2.4 Basis von Lösungsmengen
๐Ÿ’ก
Sei (A, b) die erweiterte Koeffizientenmatrix eines linearen
Gleichungssystems über K .
โžก Dann ist L(A, b) ⊆ K
n
ein affiner Unterraum und für jedes beliebige c
ห‰∈
L(A, b)
gilt:
L(A, b) = cห‰ + L(A, 0)
โžก Weiter ist L(A, 0) ein Untervektorraum und wir können für ihn eine endliche Basis
(v1 , … , vs ) finden. Dadurch kann man L(A, b) ausdrücken als:
Basis von L(A, 0) finden:
๎‚1๎‚‚ Zunächst bringt man A mit elementaren Zeilenumformungen auf Zeilenstufenform.
โœ…โžก
Dabei ergeben sich:
r Pivotspalten und
โžก n - r freie Variablen
๎‚2๎‚‚ Für jede freie Variable konstruiert man sich einen Lösungsvektor, indem man für eine
der freien Variablen den Wert 1, für die anderen freien Variablen 0 wählt. (dies
wiederholt man für alle freien Variablen)
๎‚3๎‚‚ Dadurch erhält man n-r viele Vektoren, die eine Basis von L(A, 0) bilden
—4—
12
โœ…
Somit ist auch DimK (L(A, 0))
= n−r
4.3 Lineare Abbildungen
4.3.1 Definition: Lineare Abbildung
โœ…
: Kn → Kn
betrachtet, die also eine Vektor x ∈ K n auf einen Vektor y = F (x) ∈ K m
In diesem Abschnitt werden Abbildungen der Form: F
abbilden.
Beispiele:
Sei K
= R,
n = m = 2, die Abbildung: F : R2 → R2
โžก Die Abbildung ordnet jedem Vektor x = (x , x ) ∈ R
gespiegelten Vektor F (x)
1
2
2
mit F (x) = −x
2
den am Koordinatenursprung
= (−x1 , −x2 ) ∈ R zu. Bspw. wird x = (4, −2) auf
F (x) = (−4, 2) abgebildet.
Mithilfe einer Matrix:
๎‚1๎‚‚ Ermittlung der Bilder der Standardbasisvektoren des R2 :
1
−1
F (( )) = ( ) und
0
0
−1
0
Daher ist (
0
0
F (( )) = ( )
1
−1
0
) die gesuchte Matrix. Mit ihrer Hilfe kann die Abbildungsvorschrift
−1
als:
−1
F (x) = Ax = (
0
Sei K
= R,
0
x
−x
) ( 1 ) = ( 1 ) = −x geschrieben werden.
−1
x2
−x2
n = 3, m = 2, die Abbildung: F : R → R
3
2
โžก Die Abbildung ordnet jedem Vektor x = (x , x , x ) ∈ R
1
2
3
3
โŽ›x1 โŽž
x
mit F (โŽœx2 โŽŸ) = ( 1 )
x2
โŽx3 โŽ 
den Vektor F (x)
=
(x1 , x2 ) ∈ R zu. Bspw. wird x = (2, 3, 7) auf F (x) = (2, 3) abgebildet.
2
Definition - linear
—4—
13
๐Ÿ’ก
Seien V (=
K n ), W (= K m ) zwei K ๎‚ˆVektorräume:
๎‚1๎‚‚ Eine Abbildung φ :
V → W heißt linear, falls für alle v1 , v2 ∈ V , λ ∈ K stets gilt:
φ(v1 + v2 ) = φ(v1 ) + φ(v2 ) und
F (a + b) = F (a) + F (b)
und
โœ…
φ(λv1 ) = λφ(v1 )
F (ka) = kF (a)
bzw.
: K n → K m ist genau dann linear wenn sie in der Form
F (x) = Ax mit einer (m, n)๎‚ˆMatrix A geschrieben werden kann.
Eine Abbildung F
Bilder der Standardbasisvektoren
Standardbasisvektoren e1 , … , en
โŽ›1 โŽž
โŽ›0 โŽž
โŽ›0 โŽž
Bilder von R : F (โŽœ0โŽŸ), F (โŽœ1โŽŸ), F (โŽœ0โŽŸ)
โŽ0 โŽ 
โŽ0 โŽ 
โŽ1 โŽ 
3
โŽ›1 โŽž
โŽ›0 โŽž
โŽ›0 โŽž
โŽ›0 โŽž
0โŽŸ
โŽœ1 โŽŸ
โŽœ0 โŽŸ
โŽœ0 โŽŸ
Bilder von R4 : F (โŽœ
โŽœ0โŽŸ), F (โŽœ0โŽŸ), F (โŽœ1โŽŸ), F (โŽœ0โŽŸ) etc.
โŽ0 โŽ 
โŽ0 โŽ 
โŽ0 โŽ 
โŽ1 โŽ 
Definition - Isomorphismus
๎‚2๎‚‚ Eine lineare Abbildung φ :
Abbildung ψ
V → W heißt Isomorphismus, falls eine lineare
: W → V existiert mit :
ψ โˆ˜ φ = idv
und
φ โˆ˜ ψ = idw
Definition - isomorph
๎‚3๎‚‚ V und
W heißen isomorph, falls ein Isomorphismus φ : V → W existiert. Wir
schreiben:
V ≅W
4.3.2
โœ… Good To Know - Lineare Abbildungen
โœ…
—4—
Jede Matrix A
∈ Matm,n (K) definiert durch Matrixmultiplikation von links
eine lineare Abbildung:
14
μA : K n → K m
c โ†ฆ Ac
In dieser Notation gilt: L(A, b)
= μ−1
A (b)
→ Das LGS zu lösen bedeutet also, das Urbild vom Vektor b unter der Abbildung μA zu
bestimmen.
โœ…
Ein Isomorphismus ist offensichtlich immer bijektiv. Umgekehrt ist aber auch
โœ…
Isomorphie ist ein verallgemeinerter Gleichheitsbegriff für Vektorräume. Zwei
jede bijektive lineare Abbildung ein Isomorphismus.
isomorphe Vektorräume sind eigentlich völlig identisch, nurtragen ihre
Elemente eventuell verschiedene Namen. Ein Isomorphismus φ : V →
W gibt
dabei einfach die Umbenennung der Elemente an.
4.3.3 Rechenregeln
๐Ÿ’ก
Seien V , W zwei K ๎‚ˆVektorräume, dann gilt:
๎‚1๎‚‚ φ(0)
= 0 und
๎‚2๎‚‚ φ(−v)
= −φ(v)
4.3.4 Matrix einer linearen Abbildung
Beispiel 1๎‚’ (in der Form F (x)
= Ax)
โŽ›x1 โŽž
x
F : R → R mit F (โŽœx2 โŽŸ) = ( 1 )
x2
โŽx3 โŽ 
3
2
โœ… Die Abbildung ist linear.
Begründung:
โžก
โŽ›x1 โŽž
a11 x1 + a12 x2 + a13 x3
Die Abbildung ist linear, da sie die Form F (โŽœx2 โŽŸ) = (
)
a21 x1 + a22 x2 + a23 x3
โŽx3 โŽ 
hat.
โžก Die Matrix A erhalten wir, indem wir die Bilder der Standardbasis des R
—4—
3
ermitteln:
15
โŽ›1 โŽž
โŽ›0 โŽž
โŽ›0 โŽž
1
0
0
F (e1 ) = F (โŽœ0โŽŸ) = ( ) , F (e2 ) = F (โŽœ1โŽŸ) = ( ) , F (e3 ) = F (โŽœ0โŽŸ) = ( )
0
1
0
โŽ0 โŽ 
โŽ0 โŽ 
โŽ1 โŽ 
๐Ÿ’ก die obersten 2 Werte der Standardbasis werden genommen, weil R
3
auf R2
abgebildet wird
โžก Diese 3 Vektoren bilden die Spalten von A, also
โžก
1
Probe: Ax = (
0
0
1
x
0 โŽ› 1โŽž
x
) ⋅ โŽœx2 โŽŸ = ( 1 )
0 โŽ โŽ 
x2
x3
Beispiel 2๎‚’ (in der Form F (x)
= Ax)
x
x +3
F : R2 → R2 mit F (( 1 )) = ( 1
)
x2
x1 + x2
1
A=(
0
0
1
0
)
0
โœ…
๐Ÿšซ Die Abbildung ist nicht linear.
Begründung:
โžก Die Abbildung hat nicht die Form F (x) = Ax.
โžก Würde man die Bilder der Standardbasis R ermitteln:
2
1
4
0
3
F (e1 ) = F (( )) = ( ) und F (e2 ) = F (( )) = ( )
0
1
1
1
๐Ÿ’ก damit wäre die Matrix A = (41 31)
โžก Mit diesem A erhalten wir die lineare Abbildung:
4
Ax = (
1
3
x
4x + 3x2
) ⋅ ( 1) = ( 1
)
1
x2
x1 + x2
๐Ÿšซ Aber diese Abbildung ist ungleich F !
—4—
16
โœ…
Eine Abbildung der Form F (x)
= Ax + b (siehe Bsp. 2๎‚‚ ist keine lineare
Abbildung, sondern wird als affine Abbildung bezeichnet.
Beispiel 2๎‚’ (in der Form F (x)
= Ax)
4.3.5 Dimensionsformel
๐Ÿ’ก
Seien V , W zwei Vektorräume und φ :
V → W eine lineare Abbildung. Dann
heißt:
Kern(φ) := φ−1 (0) = {v ∈ V โˆฃφ(v) = 0} der Kern von φ.
๐Ÿ’ก
Für eine Matrix A
∈ Matm,n (K) gilt offensichtlich:
Kern(μA ) = L(A, 0)
โœ…โžก
Hier gilt:
Es sind Kern(φ)
โžก
⊆ V und Bild(φ) ⊆ W jeweils Untervektorräume.
Es ist φ genau dann injektiv, wenn Kern(φ) = {0} gilt
Beispiel:
๐Ÿ’ก
Wir betrachten die lineare Abbildung:
φ : R2 → R2
(a, b)t โ†ฆ a − b
= {(a, b)t ∈ R2 โˆฃa = b} = {(a, a)โˆฃa ∈ R} genau die Diagonale in R2 ,
ein eindimensionaler Untervektorraum. Insbesondere ist φ nicht injektiv. Es gilt
Bild(φ) = R1 .
Es ist Kern(φ)
—4—
17
Dimensionsformel:
Sei V ein endlich-dimensionaler K ๎‚ˆVektorraum,
W ein weiterer K ๎‚ˆVektorraum und φ :
V → W eine lineare Abbildung, dann gilt:
dimK (V ) = dimK (Kern(φ)) + dimK (Bild(φ))
โœ…
Seien V , W zwei endlich-dimensionale K ๎‚ˆVektorräume mit
dimK (V ) =
dimK (W ) sowie φ : V → W eine lineare Abbildung, dann sind äquivalent:
φ ist injektiv
φ ist surjektiv
φ ist bijektiv
โžก
โžก
โžก
โœ…โžก
Für eine quadratische Koeffizientenmatrix A
∈ Matm (K) sind äquivalent:
L(A, 0) = {0}
Für jedes b ∈ K m besitzt das LGS mit erwiterter Koeffizientenmatrix (A, b)
โžก
eine Lösung.
โžก A ist invertierbar.
4.3.6 Rang einer Matrix
๐Ÿ’ก
∈ Matm,n (K) definieren wir den Rang als
rang(A) := dimK (Bild(μA ))
Für A
โžก Der Rang von A ist also genau die maximale Anzahl linear unabhängiger Spalten
von A.
โžก Der Rang einer Matrix A ist gleich dem Rang der transponierten Matrix A .
โžก Eine Abbildung ist genau dann surjektiv, wenn rang(A) = m gilt. Genau dann ist
auch das LGS (A, b) für jedes b ∈ K lösbar.
โžก Bei elementaren Zeilenumformungen ändert sich der Rang von A nicht. Solche
T
m
Umformungen entsprechen der Multiplikation von links mit invertierbaren Matrizen.
โ‰
—4—
In German: Der Rang einer Matrix A ist die Anzahl der linear unabhängigen
Zeilen der Matrix.
18
Beispiel:
โŽ›1
A = โŽœ0
โŽ0
2
1
0
0โŽž
1โŽŸ
0โŽ 
โžก Die 3 Zeilen als Vektoren betrachtet sind linear abhängig, weil jede Menge von
Vektoren, die den Nullvektor enthält, linear abhängig ist. Wenn man den Nullvektor
weglässt, so bleiben die beiden Zeilen (1 2 0) und (0 1 1) übrig, und die sind
linear unabhängig. Daher ist rang(A) = 2.
โœ…
Ein LGS ist genau dann lösbar, wenn der Rang der Koeffizientenmatrix gleich
dem Rang der erweiterten Koeffizientenmatrix ist.
4.3.7 Bild einer Matrix
๐Ÿ’ก
Das Bild einer (m, n)๎‚ˆMatrix A ist definiert als:
Bild(A) = {Axโˆฃx ∈ K n } ⊆ K m
โ‰
In German: Also die Menge aller Vektoren, die durch Anwendung von A auf alle
x ∈ K n erreicht werden. Alternativ kann auch vom Bild der linearen Abbildung
F : K n → K m , F (x) = Ax gesprochen werden.
Die Dimension des Bildes ist daher gleich dem Rang der Matrix A.
Beispiel:
โŽ›1
A = โŽœ0
โŽ1
1
1
0
2โŽž
1โŽŸ
1โŽ 
๎‚1๎‚‚ Das Bild wird von den Spaltenvektoren von A aufgespannt, also:
โŽ›1 โŽž โŽ›1 โŽž โŽ›2 โŽž
Bild(A) = LH{โŽœ0โŽŸ , โŽœ1โŽŸ , โŽœ1โŽŸ} ∈ R3
โŽ1 โŽ  โŽ0 โŽ  โŽ1 โŽ 
—4—
19
โžก Offensichtlich sind die drei Spaltenvektoren nicht linear unabhängig, denn der dritte
ist ja die Summe der ersten beiden. Deshalb ist der dritte überflüssig und wir können
ihn weglassen:
โŽ›1 โŽž โŽ›1 โŽž
Bild(A) = LH{โŽœ0โŽŸ , โŽœ1โŽŸ}
โŽ1 โŽ  โŽ0 โŽ 
โžก Die verbleibenden beiden Vektoren sind nun aber linear unabhängig und damit ist
das Bild von A die von diesen beiden Vektoren aufgespannte Ebene. Dimension des
Bildes = Rang der Matrix = 2
4.3.8 Kern einer Matrix
๐Ÿ’ก
โ‰
Der Kern einer (m, n)๎‚ˆMatrix A ist definiert als:
Kern(A) = {xโˆฃAx = 0} ⊆ K n
In German: Also die Menge aller Lösungen des homogenen Gleichungssystems
Ax = 0. Der Kern besteht aus allen Vektoren x, die von F auf 0 abgebildet
werden.
โžก Die Lösungen des homogenen Gleichungssystems bilden wieder einen Teilraum, da
Addition und Multiplikation mit einem Skalar für Lösungen des homogenen
Gleichungssystems wieder eine Lösung des homogenen Gleichungssystems ergibt:
๐Ÿ’ก
Der Kern(A) einer (m, n)๎‚ˆMatrix A bildet einen Teilraum des K n .
Beispiel:
โŽ›1
A = โŽœ0
โŽ1
1
1
0
2โŽž
1โŽŸ
1โŽ 
๎‚1๎‚‚ Um den Kern zu bestimmen, muss das homogene Gleichungssystem Ax
= 0 gelöst
werden
x1 + x2 + 2x3 = 0
x2 + x3 = 0
—4—
20
x1 + x3 = 0
๎‚2๎‚‚ Nach Anwendung des Gauß-Algorithmus erhalten wir:
x1 + x3 = 0
x2 + x3 = 0
0=0
= t ∈ R einsetzen. Man sieht, dass die Lösung von der Form (x1 , x2 , x3 ) =
(−t, −t, t) ist. Der Kern ist also die Gerade, die vom Vektor (−1, −1, 1) aufgespannt
๎‚3๎‚‚ Für x3
wird
โŽ›−1โŽž
Kern(A) = LH{โŽœ−1โŽŸ}
โŽ1 โŽ 
Die Dimension des Kerns ist somit 1.
๐Ÿ’กโžก
Zusammengefasst:
Für gegebenes b
∈ K m hat das LGS genau dann mind. 1 Lösung, wenn
b ∈ Bild(A).
โžก Hat man irgendeine Lösung x
0 des inhomogenen LGS gefunden, so erhält
man alle anderen, indem man alle möglichen Lösungen des homogenen LGS
hinzuaddiert:
x = x0 + Kern(A)
Insbesondere ist die Lösung x0 genau dann eindeutig, wenn der Kern
nulldimensional ist: Kern(A)
—4—
= {0}
21
—5—
5 Die Determinante
5.1 Permutationen
5.1.1 Matrixschreibweise
1
2
…
m
∧
σ=(
)
σ(1) σ(2) … σ(m)
Beispiel:
Die Permutation π
: {1, 2, 3, 4} → {1, 2, 3, 4} mit
π(1) = 2
π(2) = 4
π(3) = 3
π(4) = 1
wird in der Zweizeilenform durch :
1
π=(
2
2
4
3
3
4
) notiert.
1
5.1.2 Hintereinanderausführung von zwei Permutationen
๐Ÿ’ก
—5—
Die Hintereinanderausführung ist nicht kommutativ.
1
5.1.3 Inverse Permutation zu σ
๐Ÿ’ก
Erhält man , indem man die beiden Zeilen vertauscht und dann die Spalten so
ordnet, dass die Einträge in der ersten Zeile wieder in der richtigen
Reihenfolge stehen.
5.1.4 Zykelschreibweise
—5—
2
5.1.5 Elementfremde Zykeln
๐Ÿ’ก
—5—
Reihenfolge der Zykeln spielt keine Rolle.
3
5.1.6 Produkt von nicht elementfremden Zykeln
๐Ÿ’ก
—5—
Bei nicht elementfremden Zykel ist das Prpdukt von der Reihenfolge
abhängig:
4
5.1.7 Inverse eines Zykels
5.1.8 Transposition
๐Ÿ’ก
Ein Zykel der Länge 2 heißt Transposition. Transpositionen sind selbstinvers,
d.h. :
(25)−1 = (52) = 25
5.1.9
โœ… Good To Know - Permutationen
โœ…
Jede Permutation σ
โœ…
Ist eine Permutation σ
∈ Sm lässt sich als Produkt von elementfremden Zyklen
schreiben. Deren Anzahl ist durch σ eindeutig bestimmt.
∈ Sm ein Produkt von k elementfremden Zykeln und
τ ∈ Sm eine Transposition, so besteht στ aus k + 1 oder k − 1
elementfremden Zyklen.
โœ…
—5—
Jede Permutation lässt sich als Produkt von Transpositionen schreiben. Deren
Anzahl ist für jede Permuation modulo 2 eindeutig bestimmt.
5
5.1.10 Signatur
๐Ÿ’ก
Für σ
∈ Sm ist sgn(σ) := (−1)S
โžก wobei S die Anzahl von Transpositionen ist.
Dadurch erhält man die Signaturabbildung:
sgn : Sm → {−1, 1}
โœ…
โœ…
๐Ÿ’ก
Ein Zykel hat genau dann Signatur 1, wenn er eine ungerade Lönge hat.
Gerade Länge: so gilt sgn(σ)
Für σ, τ
= (−1)r
∈ Sm gilt: sgn(στ) = sgn(σ) ⋅ sgn(τ)
5.2 Die Determinante
5.2.1 Leibnitz-Formel der Determinante
๐Ÿ’ก
Für A
= (aij )ij ∈ Matm (K) wird die Determinante definiert als:
โžก Dadurch ergibt sich die Determinantenabbildung: det : Mat
m (K)
→K
Die Determinante einer (2, 2)๎‚ˆMatrix A ist die Zahl
โˆฃa
det(A) =โˆฃโˆฃ 11
โˆฃ a21
—5—
a12
a22
โˆฃ
โˆฃ= a11 a22 − a21 a12 ∈ K
โˆฃ
โˆฃ
6
โ‰
Die Determinante einer Matrix ist gleich der Determinante ihrer transponierten
Matrix:
det(A) = det(At )
5.2.2 Entwicklungssatz von Laplace
Die Determinante einer (n, n)๎‚ˆMatrix ist eine Zahl aus K, die rekursiv berechnet wird.
โžก det(A) = a
11 → wenn
n=1
und
โžก det(A) = a
i+1
i1 (−1)
⋅ det(Ai1 ) + ai2 (−1)i+2 ⋅ det(Ai2 ) + โ‹ฏ + ain (−1)i+n ⋅
det(Ain )
für n > 1, wobei Aij jene (n-1, n- 1๎‚‚๎‚ˆ Matrix ist, die aus A entsteht, wenn man die i-te
Zeile und die j -te Spalte entfernt.
โ‰
In German: Man sucht sich eine Zeile (oder Spalte), in der möglichst viele
Elemente gleich 0 sind (denn dann ist weniger zu rechnen). Die Elemente
werden der Reihe nach mit der entsprechenden Unterdeterminante multipliziert
und mit alternierenden Vorzeichen (siehe Abbildung unten) aufsummiert.
โŽ›+ − + … โŽž
โŽœ− + − … โŽŸ
โŽœ+ − + … โŽŸ
โŽœ
โŽŸ
โŽ โ‹ฎ โ‹ฎ โ‹ฎ โ‹ฑโŽ 
Beispiel:
โŽ›2
โŽœ4
โŽ7
1
0
6
3โŽž
5โŽŸ
8โŽ 
โžก Zeile 2 hat die meisten Nullen daher:
โ‰
Formel zur Erinnerung
det(A) = ai1 (−1)i+1 ⋅ det(Ai1 ) + ai2 (−1)i+2 ⋅ det(Ai2 )...
det(A) = 4(−1)2+1 ⋅ det(A21 )
—5—
+ 5(−1)2+3 ⋅ det(A23 )
7
๐Ÿ’ก
det = Summe der Diagonaleinträge
โˆฃ1 3โˆฃ
โˆฃ
โˆฃ
โˆฃ −5 โˆฃ 2 1 โˆฃ=
= −4 โˆฃโˆฃ
โˆฃ
โˆฃ7 6โˆฃ
โˆฃ6 8โˆฃ
โˆฃ
โˆฃ
−4((1 ⋅ 8) − (6 ⋅ 3)) − 5((2 ⋅ 6) − (7 ⋅ 1)) = 40 − 25 = 15
Die Determinante ist 15.
5.2.3 Invertierbarkeit
๐Ÿ’ก
Eine (n, n)๎‚ˆMatrix A ist genau dann invertierbar, wenn det(A)
=
๎€  0.
= b genau dann eindeutig lösbar, wenn
−1
det(A) =
๎€  0 und die Lösung ist dann x = A b.
Insbesondere ist das LGS Ax
5.2.4 Lösbarkeit eines Gleichungssystems - Beispiel
๐Ÿ’ก
Zu bestimmen sind jeden Zahlen λ
Gleichungssystem Ax
1−λ
A=(
2
๎‚1๎‚‚ Ist det(A)
∈ R, für die das homogene
= 0 nicht-triviale Lösungen besitzt.
2
)
1−λ
=
๎€  0, so hat das homogene Gleichungssystem genau eine Lösung → die
triviale.
Also müssen jene Zahlen λ gefunden werden, für die det(A)
= 0 gilt, denn dann
gibt es auch nicht-triviale Lösungen.
Berechnung der Determinante:
—5—
8
det(A) = (1 − λ)2 − 4 = λ2 − 2λ − 3
โžก Setzt man diese gleich 0 und löst die quadratische Gleichung, so erhält man
λ1 = −1, λ2 = 3
5.2.5 Charakteristische Eigenschaften der Determinante
โœ…
โœ…
det(I) = 1
Die Determinante ist linear in jeder Spalte. D.h. es gilt
det(a1 , … , aj + bj , … , an ) = det(a1 , … , aj , … an ) + det(a1 , … , bj , … , an )
und
det(a1 , … , kaj , … , an ) = k ⋅ det(a1 , … , aj , … , an ) fuฬˆr k ∈ K
—5—
โœ…
Die Determinante ist alternierend, d.h. bei Vertauschen zweier Spalten ändert
โœ…
Wenn eine Spalte(Zeile) von A lauter Nullen enthält, so ist die Determinante
โœ…
Wenn zwei Spalten ๎‚Zeilen) von A gleich sind, so ist die Determinante gleich
โœ…
Wenn zwei Spalten ๎‚Zeilen) von A linear abhängig sind, so ist die
โœ…
Multiplikation der (n, n)๎‚ˆMatrix A mit einem Skalar k
sich das Vorzeichen der Determinante.
gleich 0.
0.
Determinante gleich 0
n
Determinante mit k : det(kA)
∈ K multipliziert die
= k ⋅ det(A)
n
9
๐Ÿšซ
๐Ÿšซ
โœ…
โœ…
โœ…
—5—
Achtung: Es ist also det(kA)
Warnung: det(A + B)
=
๎€  k ⋅ det(A)
=
๎€  det(A) + det(B)
det(AB) = det(A) ⋅ det(B)
det(AB) = det(BA)
det(A−1 ) = det(A)−1
10
—6—
6 Eigenwerte und Eigenvektoren
6.1 Eigenwerte und Eigenvektoren
6.1.1 Endomorphismus
๐Ÿ’ก
φ:V →V
… wobei V ein endlich-dimensionaler K-Vektorraum
Eine lineare Abbildung von einem Raum in sich selbst heißt Endomorphismus.
6.1.2 Eigenwert und Eigenvektor
๐Ÿ’ก
Ein λ
∈ K heißt Eigenwert von φ, falls es ein 0 =
๎€  v ∈ V gibt mit φ(v) = λv.
โžก jedes solche v heißt dann Eigenvektor von φ zum Eigenwert λ.
6.1.3 Eigenraum
๐Ÿ’ก
Zu einem Eigenwert λ von φ heißt:
Eig(φ, λ) := {v ∈ V โˆฃφ(v) = λv}
der zu λ gehörige Eigenraum von φ.
6.1.4 Spektrum
๐Ÿ’ก
—6—
Die Menge aller Eigenwerte von φ heißt das Spektrum von φ.
1
6.1.5
โœ… Good To Know - Eigenwerte und Eigenvektoren
โœ…
Ein Vektor 0
โœ…
Die Bedingung 0
=
๎€  v ist genau dann ein Eigenvektor von φ, wenn er durch φ nur
skaliert, nicht aber in der Richtung verändert wird.
=
๎€  v ist wichtig, ohne sie wäre jedes λ ∈ K ein Eignewert
von φ. Zum Eigenraum Eig(φ, λ) gehört der Nullvektor laut Definition aber
immer.
โœ…
๐Ÿ’ก
Für jeden Eigenwert λ von φ ist Eig(φ, λ) ein Untervektorraum von V . Für
v, w ∈ Eig(φ, λ) und γ ∈ K gilt:
φ(v + w) = φ(v) + φ(w) = λv + λw = λ(v + w) und
φ(γv) = γφ(v) = γλv = λ(γv)
โœ…
Eien Spiegelung des R2 an einer Ursprungsgeraden besitzt die Eigenwerte 1
โœ…
Nicht jede lineare Abbildung besitzt Eigenwerte oder -vektoren.
๐Ÿ’ก
Für A
und ๎‚ˆ1. Der Eigenraum zum Eigenwert 1 ist die Spiegelungsgerade, die dazu
orthogonale Ursprungsgerade ist der Eigenraum zum Eigenwert ๎‚ˆ1.
∈ Matm (K) und λ ∈ K sind äquivalent:
โžก λ ist Eigenwert von μ .
โžก Kern(λid m − μ ) =๎€  {0}
โžก λI − A ist nicht invertierbar.
โžก det(λI − A) = 0
A
K
A
m
m
—6—
2
Dabei gilt:
6.1.6 Charakteristisches Polynom
๐Ÿ’ก
∈ Matm (K) heißt pA := det(tIm − A) ∈ K[t] das charakteristische
Polynom von A.
Für A
โžก Für A ∈ Mat
m (K) sind die Eigenwerte von
μA gerade die Nullstellen von pA in K .
Somti hat μA höchstens m verschiedene Eigenwerte.
—6—
3
Herunterladen