Stoffzusammenfassung: Lineare Algebra Jan Krieger 28. September 2004 c 2004 by Jan Krieger ([email protected]) –1– INHALTSVERZEICHNIS 1 . . . . . . . . . . . . . . . . 3 3 3 3 4 5 6 7 8 10 10 10 12 12 12 13 14 . . . . 15 15 16 18 20 3 Determinanten 3.1 Definition und Grundeigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Determinanten von Endomorphismen endlich dimensionaler Vektorräume . . . . . . 21 21 22 4 Eigenvektoren und charakteristisches Polynom 4.1 Eigenwert und Eigenvektor . . . . . . . . . . . . . . 4.2 charakteristisches Polynom . . . . . . . . . . . . . . 4.3 Diagonalisierbare Endomorphismen . . . . . . . . . 4.4 Satz von C AYLEY-H AMILTON und Minimalpolynom 4.5 Trigonalisierbare Endomorphismen . . . . . . . . . 23 23 23 24 25 26 2 Grundbegriffe 1.1 Mengen, Abbildungen Gruppen, Ringe, Körper 1.1.1 Mengen . . . . . . . . . . . . . . . . . 1.1.2 Äquivalenzrelationen und -klassen . . . 1.1.3 Abbildungen . . . . . . . . . . . . . . 1.1.4 Gruppen . . . . . . . . . . . . . . . . . 1.1.5 Ringe . . . . . . . . . . . . . . . . . . 1.1.6 Körper . . . . . . . . . . . . . . . . . 1.1.7 Polynome . . . . . . . . . . . . . . . . 1.1.8 Metriken . . . . . . . . . . . . . . . . 1.2 Vektorräume, Rang, Basis ... . . . . . . . . . . 1.2.1 Vektorräume . . . . . . . . . . . . . . 1.2.2 Linearkombination von Vektoren . . . . 1.2.3 Isomorphie von Vektorräumen . . . . . 1.2.4 Erzeugendensystem und Basis . . . . . 1.2.5 Rang und Dimension . . . . . . . . . . 1.3 Matrizen . . . . . . . . . . . . . . . . . . . . . Lineare Abbildungen 2.1 Homorphismen . . . . . . . . . . 2.2 lineare Abbildungen und Matrizen 2.3 Isomorphismen . . . . . . . . . . 2.4 lineare Gruppe eines Vektorraumes c 2004 by Jan Krieger ([email protected]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . –1– INHALTSVERZEICHNIS 5 Linearformen 5.1 Linearformen . . . . 5.2 Semilinearformen . . 5.3 Bilinearformen . . . 5.4 Quadratische Formen 5.5 Sesquilinearformen . INHALTSVERZEICHNIS . . . . . 27 27 27 28 29 30 6 Euklidische und Unitäre Vektorräume, Skalarprodukte 6.1 Definitionen und Eigenschaften des Skalarproduktes . . . . . . . . . . . . . . . . . 6.2 Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Orthogonale Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 32 33 7 lineare Gleichungssysteme 36 c 2004 by Jan Krieger . . . . . ([email protected]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . –2– KAPITEL 1 Grundbegriffe 1.1 Mengen, Abbildungen Gruppen, Ringe, Körper 1.1.1 Mengen ]M = |M|: {} = ∅: N = {1, 2, 3, ...}: Z = {0, ±1, ±2, ±3, ...}: Mächtigkeit der Menge M (Anz. der enth. Elemente) leere Menge Menge der natürlichen Zahlen Menge der ganzen Zahlen Menge der rationalen Zahlen Q = qp |p ∈ Z; q ∈ N : R: Menge der reellen Zahlen 2 C = a + ib|a, b ∈ R und i = −1 : Menge der komplexen K [X]: Polynomring in der unbestimmten X über K. Seien M1 und M2 Mengen: • M1 ist Teilmenge von M2 (M1 ⊂ M2 ), wenn x ∈ M1 ⇒ x ∈ M2 • Schnittmenge: M1 ∩ M2 = xx ∈ M1 und x ∈ M2 • Vereinigungsmenge: M1 ∪ M2 = xx ∈ M1 oder x ∈ M2 • Differenzmenge: M1 M2 = x x ∈ M1 und x ∈ / M2 • kartesisches Produkt: M1 × M2 = (x1 , x2 )x1 ∈ M1 und x2 ∈ M2 • zwei Mengen heißen disjunkt, wenn M1 ∩ M2 = ∅ 1.1.2 Äquivalenzrelationen und -klassen • Eine Äquivalenzrelation ∼ auf einer Menge M ist eine beziehung zwischen ihren Elementen, mit den Eigenschaften (a, b, c ∈ M): c 2004 by Jan Krieger ([email protected]) –3– 1.1. Mengen, Abbildungen Gruppen, Ringe, Körper – a∼a (Reflexivität) – a∼b ⇒ b∼a (Symmetrie) – a ∼ b, b ∼ c ⇒ b ∼ c (Transitivität) • Eine Äquivalenzklasse [a] auf einer Menge M ist definiert als: [a] := {b ∈ M | b ∼ a} mit a ∈ M. • Jede Menge zerfällt in disjunkte Äquivalenzklassen, denn gäben es ein x mit x ∈ [a] und x ∈ [b], also x ∼ a und x ∼ b, so gilt a ∼ x ∼ b ⇒ a ∼ b ⇒ [a] = [b]. 1.1.3 Abbildungen Eine Abbildung f : A → B, a 7→ f(a) ordnet jedem Element der Menge A genau ein Element der Menge B zu. • Eine Abbildung heißt injektiv oder eindeutig, wenn ∀a1 , a2 ∈ A ∃b ∈ B : ((a1 , b), (a2 , b) ∈ f ⇒ a1 = a2 ). D.h. eine injektive Abbildung ordnet jedem Element a ∈ A eindeutig ein b ∈ B zu, sodass keine zwei unterschiedlichen a1 , a2 ∈ A auf das selbe b abgebildet werden. Zu jedem b ∈ B lässt sich also nur genau ein a ∈ A finden, dass auf b durch f abgebildet wird. • Eine Abbildung heißt surjektiv, wenn ∀b ∈ B ∃a ∈ A : ((a, b) ∈ f) bzw. f(A) = B. D.h. Jedes Element der Ergebnismenge B muss durch f(a) mit einem a ∈ A ausgedrückt werden können. B lässt sich also vollständig aus A durch die Abbildung f erzeugen“. ” • Eine Abbildung heißt bijektiv, wenn sie sowohl injektiv, als auch surjektiv ist. Eine solche Abbildung ist eineindeutig. Sie ordnet jedem a ∈ A genau ein b ∈ B zu und trifft dabei jedes Element in B genau einmal. • Komposition: f(g(x)) ⇔ f ◦ g • Identität: f(g(x)) = x ⇔ f ◦ g = idx • Ist eine Abbildung f : X → Y bijektiv, dann existiert eine Umkehrfunktion f−1 : Y → X mit f−1 (f(x)) = x bzw. f−1 ◦ f = idx und f ◦ f−1 = idy mit x ∈ X und y ∈ Y. • Alternativdefinition für Injektivität, Surjektivität, Bijektivität (f : X → Y): – f injektiv ⇔ es existiert eine Abbildung g : Y → X mit g ◦ f = idx bzw. g(f(x)) = x. Da ein y ∈ Y nur genau einmal ’getroffen’ wird, kann man eine Abbildung angeben, die jedem Bild das Urbild zuordnet. Sie muss nur auf der Bildmenge f(X) ⊂ Y definiert sein! – f surjektiv ⇔ es existiert eine Abbildung g : Y → X mit f ◦ g = idy bzw. f(g(y)) = y. Da jedes Element y ∈ Y getroffen wird, kann man eine Abbildung angeben, die jedem solchen y ein x = g(y) zuordnet, sodass dieses von f auf sich selbst abgebildet wird. – f bijektiv ⇔ es existiert eine Abbildung g : Y → X mit g ◦ f = idx und f ◦ g = idy , also ist g = f−1 . c 2004 by Jan Krieger ([email protected]) –4– 1.1. Mengen, Abbildungen Gruppen, Ringe, Körper 1.1.4 Gruppen • Eine Gruppe ist ein Paar (G, ∗) bestehend aus einer nicht-leeren Menge G und einer Verknüpfung “∗“ auf G, d.h. einer Abbildung G × G −→ G ∗: (a, b) 7−→ a ∗ b mit folgenden Gruppenaxiomen: G1: Assoziativgesetz a ∗ (b ∗ c) = (a ∗ b) ∗ c. G2: Es gibt ein “neutrales“ Element e derart, dass: für alle a ∈ G: a ∗ e = a = e ∗ a. G3: zu jedem a ∈ G gibt es ein “inverses“ Element a−1 ∈ G mit a ∗ a−1 = e = a−1 ∗ a. • Es gibt genau ein neutrales Element e ∈ G. • Zu jedem a ∈ G gibt es genau ein inverses Element a−1 ∈ G. Weiterhin gilt (a−1 )−1 = a und (a ∗ b)−1 = a−1 ∗ b−1 für a, b ∈ G. • Eine Gruppe (G, ∗) heißt abel’sche Gruppe (kommutativ), falls das Kommutativgesetz gilt, d.h. a ∗ b = b ∗ a für alle a, b ∈ G. • Sei (G, ∗) eine nicht-leere Menge mit einer assoziativen Verknüpfung. Dann gilt (G, ∗) ist eine Gruppe ⇐⇒ zu je zwei Elementen a, b ∈ G gibt es ein x, y ∈ G mit x ∗ a = b und a ∗ y = b. • Untergruppe: Sei G eine Gruppe mit Verknüpfung + und G 0 ⊂ G eine nichtleere Teilmenge.. G 0 heißt Untergruppe, wenn für a, b ∈ G 0 gilt: a + b ∈ G 0 , a−1 ∈ G 0 . • Homomorphismus von Gruppen: Seien G und H Gruppen mit Verknüpfungen + und ⊕. Eine Abbildung ϕ : G → H heißt Homomorphismus von Gruppe, wenn gilt: ϕ(a + b) = ϕ(a) ⊕ ϕ(b), ∀a, b ∈ G Es gilt (e ∈ G, e ∈ H bezeichnen die neutralen Elemente): – ϕ(e) = e. – ϕ(a−1 ) = ϕ(a)−1 . – Ist ϕ Isomorphismus, so ist ϕ−1 Homomorphismus. • Beispiele für Gruppen: – Lineare Gruppe: Die Menge M := A ∈ Kn×n A invertierbar ist zusammen mit der Matrixmultiplikation · eine Gruppe mit neutralem Element En : GL(n, K) := (M, ·). – orthogonale und unitäre Gruppe – Gruppe der bijektiven Abbildungen/symmetrische Gruppe, Permutationsgruppe: Die Menge S(X) := f : X → Xf bijektiv ist zusammen mit der Hintereinanderausführung als Verknüpfung eine Gruppe. Ist Xn = {1, ..., n} ⊂ N, so nennt man jedes σ ∈ Sn (Xn ) eine Permutation und die Gruppe S(Xn ) die Permutationsgruppe. c 2004 by Jan Krieger ([email protected]) –5– 1.1. Mengen, Abbildungen Gruppen, Ringe, Körper – Z, Q und R sind mit der Addition Gruppen. Z ist mit der Multiplikation keine Gruppe, weil es nicht zu jedem z ∈ Z ein Inverses gibt. – zyklische Gruppe: Man teilt die ganzen Zahlen in m ∈ N disjunkte Teilklassen: Zu jedem r ∈ {0, 1, ..., m − 1} betrachtet man die Menge: r + mZ := r + a · ma ∈ Z . Damit ist die Menge r + mZ die Menge aller Zahlen x ∈ Z, für die gilt: r = x mod m. Daher nennt man r + mZ die Restklasse modulo m. Man kann mit diesen Mengen Z disjunkt zerlegen: Z = (0 + mZ) sup(1 + mZ) ∪ ... ∪ (m − 1 + mZ). Man kann nun in der Menge der Restklassen Z/mZ := {0, 1, ..., m − 1} eine Addition erklären (a := a + mZ ist die zu a gehörende Restklasse und x ∈ a heißt Repräsentant der Restklasse): a + b := (a + b) Zusammen mit dieser Addition ist die Menge Z/mZ der Restklassen modulo m ein abel’sche Gruppe. 1.1.5 Ringe • Ein Ring (R, +, ∗) besteht aus einer Menge R und zwei Verknüpfungen: +: R × R −→ R ; ∗: (a, b) 7−→ a + b R × R −→ R (a, b) 7−→ a ∗ b so dass gilt: R1: (R, +) ist eine abelsche Gruppe. 0 bezeichnet das neutrale Element. R2: (R, ∗) ist assoziativ (a ∗ (b ∗ c) = (a ∗ b) ∗ c) und besitzt neutrales Element 1 6= 0. DIe Existenz eines Inversen ist nicht nötig. R3: Das Distributivgesetz zu a, b, c ∈ R gilt: (a + b) ∗ c = a ∗ c + b ∗ c a ∗ (b + c) = a ∗ b + a ∗ c • (R, +, ∗) heißt kommutativer Ring, falls (R, ∗) kommutativ (a ∗ b = b ∗ a) ist. • (R, +, ∗) heißt nullteilerfrei, falls für alle a, b ∈ R gilt: a ∗ b = 0 ⇒ a = 0 oder b = 0. • Die Menge aller invertierbaren Elemente eines Ringes R bezeichnet man mit R× . Sie heißen Einheiten von R. • Unterringe: Ist R ein Ring und R 0 ⊂ R eine Teilmenge, so heißt R 0 Unterring, wenn R 0 bezüglich Addition Untergruppe (a, b ∈ R 0 ⇒ a + b, −a ∈ R 0 ) und bezüglich der Multiplikation abgeschlossen (a, b ∈ R 0 ⇒ a · b ∈ R 0 ) ist. • Ideal eines Ringes: Sei (R, +, ·) ein komutativer Ring. Eine Teilmenge I ∈ R heißt Ideal von R, wenn gilt: c 2004 by Jan Krieger ([email protected]) –6– 1.1. Mengen, Abbildungen Gruppen, Ringe, Körper I1 a, b ∈ I ⇒ I2 a ∈ I, r ∈ R a − b ∈ I. ⇒ r · a ∈ I. Die folgende Menge bildet ein Ideal IF zum Endomorphismus F: IF := p(t) ∈ K[t]p(F) = 0 ⊂ K[t]. zum Nachweis: Für p1 , p2 ∈ IF gilt: (p1 − p2 )(F) = p1 (F) − p2 (F) = 0 − 0 = 0. Mit einem Polynom r ∈ K[t] (r(F) = F 0 ) und einem p ∈ IF gilt: (r · p)(F) = r(F) · p(F) = F 0 · 0 = 0. • Homomorphismus von Ringen: Seien R, S Ringe mit den Verknüpfungen +, ·, ⊕, . Eine Verknüpfung ϕ : R → S heißt Homomorphismus von Ringen, wenn für alle a, b ∈ R gilt: ϕ(a + b) = ϕ(a) ⊕ ϕ(b), ϕ(a · b) = ϕ(a) ϕ(b) • Beispiele: – Z, Q und R sind zusammen mit Multiplikation und Addition kommutative Ringe. – Die Menge der auf einem Intervall I ⊂ R reellwertigen Funktionen ist zusammen mit den folgenden Verknüpfungen ein kommutativer Ring: (f + g)(x) := f(x) + g(x), (f · g)(x) := f(x) · g(x). – Auf der Gruppe der Restklassen kann man auch eine Multiplikation erklären, mit der dann Z/mZ zu einem Ring wird. Es gilt: Der Ring Z/mZ ist genau dann nullteilerfrei, wenn m eine Primzahl ist. zum Beweis: Ist m = k · l mit 1 < k, l < m keine Primzahl, so ist: k, l 6= 0, aber 0 = m = k · l. – Polynomring ist kommutativer Ring. 1.1.6 Körper Bei Ringen hat man das Problem, dass man im Allgemeinen nicht dividieren kann. Dieses Problem wird behoben, indem man die Struktur der Körper einführt, die auch die Inversen der Multiplikation enthalten. Dies geschieht im folgenden Abschnitt. • Ein Körper (K, +, ∗) ist eine Menge mit zwei Verknüpfungen + und ∗ mit K1: (K, +) ist eine abelsche Gruppe mit neutralem Element 0. K2: (K, ∗) ist abelsche Gruppe mit neutralem Element 1 6= 0. K3: Das Distributivgesetz zu a, b, c ∈ R gilt: (a + b) ∗ c = a ∗ c + b ∗ c a ∗ (b + c) = a ∗ b + a ∗ c • Jeder Körper ist ein Ring. • Jeder Körper enthällt also neben den Elementen (a, b, ...) selbst noch die 0, die 1 und die Inversen bezüglich der Addition (−a, −b, ...) und der Multiplikation (a−1 , b−1 , ...). Damit enthält jeder Körper mindestens zwei Elemente: 0 und 1. c 2004 by Jan Krieger ([email protected]) –7– 1.1. Mengen, Abbildungen Gruppen, Ringe, Körper • es gilt: a ∗ 0 = 0 = 0 ∗ a, (−a) ∗ b = −a ∗ b, a ∗ b = 0 =⇒ a = 0 oder b = 0, also (K, +, ∗) ist ein nullteilerfreier Ring. • Die Charakteristik char(K) einer Körpers K ist folgendermaßen definiert: Gibt es ein n ∈ N mit m ∗ 1 = 1 + 1 + ... + 1 = 0, so ist char(K) = p, wobei p ∈ N die kleinste Zahl mit p ∗ 1 = 0 ist. Andernfalls char(K) = 0. • Sei K ein Körper. Dann ist char(K) = 0 oder gleich einer Primzahl. • Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nicht konstante Polynom f ∈ K [X] eine Nullstelle in K besitzt. D.h. jedes von Null verschiedene Polynom aus K [X] zerfällt über K vollständig in Linearfaktoren. • Beispiele: – C, R und Q sind Körper. – Der Restklassenring Z/mZ ist ein Körper, wenn m prim ist. Hier ist die Charakteristik des Körpers: char(Z/mZ) = m. 1.1.7 Polynome Da im Folgenden des öfteren Eigenschaften von Polynomen gebraucht werden, sollen diese hier kurz zusammengefasst werden. • Polynom: Sei K ein Körper. Mit einer Unbestimmten t, einem Symbol, das als Stellvertreter für eine Zahl steht erklärt man ein Polynom mit Koeffizienten in K f(t) als (a0 , ...an ∈ K): f(t) = a0 + a1 t + ... + an tn . Das Polynom f = 0 heißt Nullpolynom. Gilt an = 1 so nennt man ein Polynom normiert. • Polynomring: Ist K ein Körper, so ist die Menge K[t] der Polynome über K zusammen mit der natürlichen Addition und Multiplikation (durch Ausmultiplizieren) ein kommutativer Ring. Man nennt ihn Polynomring. • Grad eines Polynoms: Den Grad eines Polynoms definiert man als: −∞ falls f = 0 deg f := max ν ∈ N aν 6= 0 sonst • Für f, g ∈ K[t] gilt: deg(f · g) = deg f + deg g. • Division mit Rest: Es sei f 6= 0 ein Polynom aus K [X]. Zu jedem Polynom g ∈ K [X] gibt es dann Polynome q, r ∈ K [X] mit: g = qf + r und grad(r) < grad(f) • Es sei g ∈ K [X] ein Polynom mit der Nullstelle a ∈ K (d.h. g(a) = 0), dann gibt es ein q ∈ K [X] mit g(X) = (X − a) · q(X) und deg q = (deg g) − 1. c 2004 by Jan Krieger ([email protected]) –8– 1.1. Mengen, Abbildungen Gruppen, Ringe, Körper • Sei K ein beliebiger Körper, f ∈ K[t] ein Polynom mit f 6= 0 und k die Anzahl seiner Nullstellen. Dann gilt: k ≤ deg f. • Ist K ein Körper, so hat Polynom (f 6= 0) ∈ K [X] vom Grad n höchstens n Nullstellen in K. • Vielfachheit von Nullstellen: Ist f ∈ K[t] mit f 6= 0 ein Polynom und λ ∈ K eine Nullstelle von f, so ist die Vielfachheit der Nullstelle λ definiert als: µ(f, λ) := max r ∈ Nf = (t − λ)r · g mit g ∈ K[t] • Ein Polynom f ∈ K[t] zerfällt in Linearfaktoren, wenn es zu ihm ein g ∈ K[t] mit deg g = 0 (also ein konstantes Polynom, bzw. eine Zahl) gibt, so dass (λi ∈ K, i = 1, ..., k seien Nullstellen von f und ri ihre Vielfachheiten): f = (t − λ1 )r1 · ... · (t − λk )rk · g. • Fundamentalsatz der Algebra: Jedes Polynom f ∈ C[t] mit deg f > 0 hat mindestens eine Nullstelle in C. Jedes solches Polynom zerfällt über C sogar vollständig in Linearfaktoren. • Ist f ∈ R[t] und λ ∈ C eine Nullstelle von f, so ist auch das komplex Konjugierte λ eine Nullstelle von f und es gilt sogar: µ(f, λ) = µ(f, λ). • Jedes Polynom f ∈ R[t] von ungeradem Grad hat mindestens eine reelle Nullstelle. • Ein Polynom p ∈ K[x] vom Grade n wird durch n + 1 Wertepaare/Stützstellen (x, p(x)) definiert. • Sind nur die n Nullstellen eines Polynoms p ∈ K[x] bekannt, so ist das Polynom bis auf einen Faktor bestimmt: Seien etwa λ1 , ..., λn die Nullstellen des Polynoms p(x). Dann hat p mit einem freien Faktor α ∈ K die Form: p(x) = α · (x − λ1 ) · ... · (x − λn ). Man kann ein Polynom n-ten Gtades also durch seine n Nullstellen dafinieren, wenn man verlangt, dass es normiert ist (Faktor der höchsten Potenz: 1). • Minimalpolynom eines Ideals von Polynomen: Zu jedem Ideal I ⊂ K[t] mit I = 6 {0} gibt es ein eindeutiges Polynom M mit folgenden Eigenschaften: 1. M ist normiert. 2. Für jedes P ∈ I gibt es ein Q ∈ K[t] mit P = Q · M. M heißt Minimalpolynom von I. • Beispiel zur Polynomdivision: K = R, f = 3t3 + 2t + 1, g = t2 − 4t: 3t3 +2t + 1) : t2 − 4t = 3t + 12 + − 3t3 −12t2 = 12t2 +2t + 1 − 12t2 +48t) = 50t + 1 (Rest) c 2004 by Jan Krieger ([email protected]) 50t+1 t2 −4t –9– 1.2. Vektorräume, Rang, Basis ... 1.1.8 Metriken • Abstand/Metrik: Sei X irgend eine Menge. Eine Abbildung d(·, ·) : X × X → R heißt Metrik/Abstand (auf X), wenn folgende Bedingungen erfüllt sind: M1 Definitheit: d(x, y) ≥ 0, d(x, y) = 0 ⇔ x = y M2 Symmetrie: d(x, y) = d(y, x) M3 Dreiecksungleichung: d(x, y) ≤ d(x, z) + d(z, y) • Das Paar (X, d) wird metrischer Raum genannt. • Eine Norm k·k induziert auf natürliche Weise eine Metrik auf Vektorräumen: d(x, y) := kx − yk . 1.2 Vektorräume, Rang, Basis ... Im folgenden bezeichnet V immer einen Vektorraum über dem Körper K. 1.2.1 Vektorräume • Ein Vektorraum (linearer Raum) V über einem Körper K ist ein Menge für die es eine Addition und eine skalare Multiplikation V × V −→ V K × V −→ V +: ; ·: (a, b) 7−→ a + b (a, x) 7−→ a ∗ x gibt, so dass: V1: (V, +) ist eine abel’sche Gruppe mit neutralem Element 0 (Nullvektor). V2: Die Multiplikation mit Skalaren muss in folgender Weise mit der Addition verträglich sein: 1 · x = x für alle x ∈ V, (a · b) · x = (b · x) · a für alle a, b ∈ K, x ∈ V. a · (x + y) = ax + ay und (a + b) · x = ax + bx für alle x, y ∈ V, und alle a, b ∈ K. Ein Vektorraum über dem Körper K = R wird reeller Raum genannt. • Sei W ⊂ V ein Teilmenge. W heißt Untervektorraum oder Teilraum von V, falls folgendes gilt: UV1: W 6= ∅. UV2: v, w ∈ W ⇒ v + w ∈ W (d.h. abgeschlossen gegenüber der Addition). UV3: v ∈ W, λ ∈ K ⇒ λv ∈ W (d.h. abgeschlossen gegenüber der skalaren Multiplikation). Ein Untervektorraum muss also bzgl. Addition und skalarer Multiplikation abgeschlossen sein und darf nicht leer sein. ∅ ∈ V ist ein Teilraum. ∅ heißt trivialer Teilraum. Beispiele: c 2004 by Jan Krieger ([email protected]) – 10 – 1.2. Vektorräume, Rang, Basis ... – Ebenen und Geraden im R3 sind Unterräume. – Sei A eine reelle m × n-Matrix. Dann ist die Lösungsmenge des zugehörigen homogenen Gleichungssystems ein Unterraum von Rn : W := x ∈ Rn Ax = 0 . – Im Vektorraum V = Abb(R, R) der Abbildungen f : R → R hat man die Untervektorräume: R[t] ⊂ D(R, R) ⊂ C(R, R) ⊂ Abb(R, R). D(R, R) : differenzierbare Funktionen, C(R, R) stetige Funktionen • Ein Untervektorraum ist zusammen mit der induzierten Addition und Multiplikation wieder ein Vektorraum. • Sei V ein Vektorraum und I eine beliebige Indemenge. Für jedes i ∈ I sei weiterhin ein Untervektorraum Wi gegeben. Dann ist der Durchschnitt wieder ein Untervektorraum von V: \ W := Wi , ⇒ W ⊂ V. i∈I Für die Vereinigung gilt dieser Satz im Allgemeinen nicht! Als Beispiel kann die Vereinigung zwischen zwei sich schneidenden Geraden im R2 dienen. Ihr Schnitt besteht aus einem Punkt und ist damit ein Vektorraum. • Seien U1 , U2 , ..., Ur Teilräume eines Vektorraumes V. Besitzt dann jedes v ∈ V genau eine Darstellung der Gestalt v = u1 + u2 + ... + ur mit ui ∈ Ui so sagt man V ist die direkte Summe der Unterräume U1 , U2 , ..., Ur und man schreibt: V = U1 ⊕ U2 ⊕ ... ⊕ Ur = ⊕ri=1 Ui • Die Summe von Teilräumen ist definiert als: U1 + U2 := u1 + u2 u1 ∈ U1 , u2 ∈ U2 . • Komplementärraum: Zu jedem Teilraum U eines endlich-dimensionalen vektorraumes V gibt es einen Teilraum W von V, der folgende Eigenschaften besitzt: (i) U ∩ W = {0}. (ii) U + W = V. Genau dann ist W ein Komplementärraum zu U in V, wenn sich jeder Vektor v aus V eindeutig darstellen läßt, als: v = u + w mit u ∈ U, w ∈ W • Dimensionsformel für Teilräume: Seien U und U 0 Teilräume eines endlich-dimensionalen K-Vektorraumes V. Dann gilt die Formel: dim(U + U 0 ) = dim U + dim U 0 − dim(U ∩ U 0 ) U 0 heißt transversal zu U in V, genau dann wenn: dim(U + U 0 ) = dim U + dim U 0 . U 0 ist Komplementärraum zu U in V, genau dann wenn: dim V = dim(U + U 0 ) = dim U + dim U 0 . c 2004 by Jan Krieger ([email protected]) – 11 – 1.2. Vektorräume, Rang, Basis ... 1.2.2 Linearkombination von Vektoren • Seien u1 , ..., um Vektoren ein K-Vektorraumes V. Ein Vektor v ∈ V heißt Linearkombination von u1 , ..., um , falls es Elemente a1 , ..., am ∈ K gibt, so dass v = a1 u1 + ... + am um ist. • Sei M ⊆ V eine Teilmenge. So heißt Lin M := {v ∈ V | v ist Linearkombination von Vektoren aus M} lineare Hülle von M. Lin ∅ := {0}. • Es gilt: – M ⊆ Lin M, M = Lin M ⇔ M ist Teilraum. – Lin(Lin M) = Lin M. – M ⊆ M 0 ⇒ Lin M ⊆ Lin M 0 . • Lin M ist der kleinste Teilraum von V, der die Menge M enthällt. • Sei V ein K-Vektorraum, so heißen die Vektoren v1 , ..., vn ∈ V linear unabhängig, falls gilt: λ1 v1 + λ2 v2 + ... + λn vn = 0 ⇒ λ1 = λ2 = ... = λn = 0 andernfalls heißen sie linear abhängig. 1.2.3 Isomorphie von Vektorräumen • Gibt es für K-Vektorräume V und W einen Isomorphismus f : V → W, so heißt V isomorph zu W, in Zeichen: V ' W (Äquivalenzrelation !). • Fundamentalsatz für endlich erzeugte Vektorräume: Jeder endlich erzeugte K-Vektrorraum ist isomorph zu einem Kn . Endloch erzeugte K-Vektrorräume sind genau dann isomorph, wenn gilt: V ' W ⇔ dim V = dim W 1.2.4 Erzeugendensystem und Basis • Seien u1 , ..., un Vektorewn aus V. u1 , ..., un heißen Erzeugendensystem von V, wenn V = Lin(u1 , ..., un ). • Enthällt ein Erzeugendensystem endlich viele Vektoren, so heißt der aufgespannte Raum endlich erzeugt. • Ein unverkürzbares Erzeugendensystem b1 , ..., bn ∈ V (V ist n-dimensionaler K-Vektorraum) heißt Basis von V, falls b1 , ..., bn linear unabhängig sind. • Folgende Aussagen sind äquivalent: – B ist Basis von V. – B erzeugt V und B ist linear unabhängig. – B ist ein minimales Erzeugendensystem von V (unverkürzbar). – B ist eine maximalen linear unabhängige Teilmenge von V. c 2004 by Jan Krieger ([email protected]) – 12 – 1.2. Vektorräume, Rang, Basis ... • Jeder Vektorraum V besitzt eine Basis. Jeder endlich erzeugte Vektorraum besitzt eine endliche Basis. Die obige Aussage kann man beweisen, indem man systemstisch eine Basis konstruiert: Zuerst nimmt man einen beliebigen Vektor b1 6= 0. Er bildet sicher eine Basis eines Unterraumes von V. Nun prüft man, ob B1 den ganzen Raum V aufspannt, also: Lin(b1 ) = V. Trifft dies zu, so ist man fertig im anderen Falle wählt man irgendeinen Vektor b2 ∈ V, der sich nicht in Lin(b1 ) enthalten ist und bildet so eine neue Basis {b1 , b2 }. Nun fährt man so fort, bis ganz V erzeugt wird. • Basisergänzungssatz: Jede linear unabhängige Teilmenge eine K-Vektorraumes V lässt sich zu einer Basis ergänzen. • Koordinatenvektor: Sei V ein endlich erzeugter Vektorraum und sei b = {b1 , ..., bn } eine Basis von V. Jeder Vektor u ∈ V besitzt eine eindeutige Darstellung der Form u= n X λi bi = λ1 b1 + λ2 b2 + ... + λn bn i=1 Das n-Tupel (λ1 , ..., λn ) heißt Koordinatenvektor bzgl. der Basis B. • Beispiele: – 1, t, t2 , t3 , ... bilden eine unendliche Basis des Polynomrings K[t], der bzgl. der natürlich definierten Addition und Multipikation ein Vektorraum ist. Der Vektorraum der Polynome bis zum Grade n ist immer n + 1-dimensional, da auf x0 = 1 ein Basisvektor ist. – (1, i) ist eine Basis des Vektorraumes C. – Die m × n-Matrizen, die nur an der Stelle akl eine 1 und sonst Nullen haben, sind eine Basis des Vaktorraumes der Matrizen. 0 .. . 0 Eji := 0 · · · 0 1 0 · · · 0 0 . .. 0 1.2.5 Rang und Dimension • Sei (u1 , ..., um ) ein m-Tupel von Vektoren aus V (nicht notwendig paarweise verschieden). Der Rang von (u1 , ..., um ) ist r (r = Rang(u1 , ..., um )), falls 1. {u1 , ..., um } besitzt linear unabhängige Teilmenge aus r Vektoren. 2. Jede Teilmenge von {u1 , ..., um } aus r + 1 Vektoren ist linear abhängig. Rang(u1 , ..., um ) ist also die maximale Anzahl von linear unabhängigen Vektoren in (u1 , ..., um ). • Alle Basen von V haben die selbe Anzahl an Elementen. In Zeichen: Seien B = {b1 , ..., bn } und C = c1 , ..., cm Basen von V, dann gilt n = m. c 2004 by Jan Krieger ([email protected]) – 13 – 1.3. Matrizen • V hat die Dimension n = dimK V, falls V eine Basis aus n Elementen besitzt (also alle seine Basen n Elemente enthalten). Es gilt: – V = 0 ⇒ dimK V = 0 – ist V nicht endlich erzeugt, so sagt man V ist unendlich dimensional (dimK V = ∞). – Sei dimK V = n und (u1 , ..., um ) ein m-Tupel aus Vektoren aus V. Dann gilt: B = {u1 , ..., um } ist Basis von V ⇔ Rang(u1 , ..., um ) = n und n = m 1.3 Matrizen • Rang einer Matrix: Der (Spalten-)Rang einer beliebigen n × m-Matrix A mit den SpaltenVektoren u1 , ..., un ist gegeben durch: Rang A = Rang(u1 , ..., un ) Der Zeilenrang ist entsprechend definiert und es gilt: – Zeilenrang = Spaltenrang – Der Rang einer Matrix ist die maximale Zahl ihrer linear unabhängigen Zeilen-/Spaltenvektoren. • Die Gesamtheit aller n × n-Matrizen über einem Körper K wird mit M(n, K) bezeichnet und ist ein Ring. • Die transponierte Matrix t A zu einer m × n-Matrix A berechnet sich, wie folgt: a11 a12 . . . a1n a11 a21 . . . am1 a21 a22 . . . a2n a12 a22 . . . am2 t A = .. .. .. ⇒ A = .. .. .. .. . . . . . . . . . . am1 am2 . . . amn a1n a2n . . . amn • Eine Matrix A ∈ EndK (V) heißt nilpotent, wenn es ein k ≥ 1 gibt, sodass Ak = 0. c 2004 by Jan Krieger ([email protected]) – 14 – KAPITEL 2 Lineare Abbildungen 2.1 Homorphismen • Seien V, W K-Vektorräume. Eine Abbildung f : V → W heißt Homomorphismus (lineare Abbildung), falls (x, y ∈ V und a ∈ K): f(x + y) = f(x) + f(y) f(a · y) = a · f(x) – Ein Homomorphismus f : V → V heißt Endomorphismus. – Ein Homomorphismus f : V → W heißt Isomorphismus, falls f bijektiv ist. ∼ W). Man sagt V und W sind isomorph (In Zeichen: V = – Ein Isomorphismus f : V → V heißt Automorphismus. • Seien V und W K-Vektorräume. Dann bezeichnet HomK (V, W) die Menge aller linearer Abbildungen (Homomorphismen) von V nach W. HomK (V, W) ist ein K-Vektorraum durch folgende Definition (f1 , f2 ∈ HomK (V, W), a ∈ K): f1 + f2 : V → W, x 7→ (f1 + f2 )(x) := f1 (x) + f2 (x) a · fa : V → W, x 7→ (a · f2 )(x) := a · f1 (x) Sind V und W Vektorräume über K, so ist auch HomK (V, W) ein Vektorraum über K. • Rechenregeln für Homomorphismen: – Distributivgesetze: g ◦ (f1 + f2 ) = g ◦ f1 + g ◦ f2 und (g1 + g2 ) ◦ f = g1 ◦ f + g2 ◦ f – Assozitaivgesetz: h ◦ (g ◦ f) = (h ◦ g) ◦ f und a(g ◦ f) = (ag) ◦ f = g ◦ (af), a ∈ K – Es existiert eine identische Abbildung id mit: id ◦f = f ◦ id = f. • Der Endomorphismenring ist definiert durch: EndK (V) := HomK (V, V) Es ist weder kommutativ, noch nullteilerfrei. c 2004 by Jan Krieger ([email protected]) – 15 – 2.2. lineare Abbildungen und Matrizen • Sei f : V → W ein Homomorphismus. Dann sei: Kern f := Im f := Rang f := {v ∈ V | f(v) = 0} Kern von f, {w ∈ W | Es gibt ein v ∈ V mit f(v) = w} Bild von f, dim(Im f) Weiterhin gilt: – Sei F : V → W linear und B1 , ..., bn Basis von V, sowie ai := f(bi ) für i = 1, ..., n, so gilt: dim(Im f) = Rang(a1 , ..., an ) • Dimensionsformel für lineare Abbildungen: Sei f : V → W linear und V endlich erzeugt, dann gilt: dim(Im f) + dim(Kern f) = dim V. • Weitere Kriterien für Injektivität/Surjektivität einer linearen Abbildung f : V → W: – f injektiv ⇔ Kern f = {0} zum Beweis: Angenommen es gäbe zwei Vektoren v, w ∈ V mit f(v) = f(w) (also f nicht injektiv), so folgt: f(v) − f(w) = f(v − w) = 0, also ist der Vektor v − w ∈ Kern f. Damit ist der Kern nur gleich {0}, wenn aus obigen Bedingungen folgt, dass v = w, also f injektiv. Die andere Richtung ist klar. – f surjektiv ⇔ Im f = W 2.2 lineare Abbildungen und Matrizen • Sei f : V → W linear, B = (b1 , ..., bn ) Basis von V und C = beschreibt die Matrix der Form: a11 a12 . . . a21 a22 . . . A = B MC (f) = .. .. .. . . . am1 am2 . . . mit durch f(bi ) = m P (c1 , ..., cn ) Basis von W. Dann a1n a2n .. . amn aji cj , i = 1, ..., n eindeutig bestimmten Zahlen aij die Abbildung f j=1 bezüglich der Basen B und C und heißt Koordinatenmatrix. Merkregel: Das Bild von bi wird in der Basis C dargestellt. Die dadurch definierten Koeffizienten a1i , ..., ami bilden die i-te Spalte der Koordinatenmatrix. Dies lässt sich für Abbildungen zwischen gleichen Basen B = (b1 , ..., bn ) einsehen, wenn man davon ausgeht, dass ein Vektor x in der Basis B dargestellt wird durch: x= n X xk bk k=1 c 2004 by Jan Krieger ([email protected]) – 16 – 2.2. lineare Abbildungen und Matrizen Dabei sind xk ∈ K Zahlen und bk ∈ V Basisvektoren! Auf diesen wendet man dann die lineare Abbildung f an und erhält: ! n n X X f(x) = f xk bk = xk f(bk ) k=1 Damit erhält man die Matrixdarstellung: a11 a12 a21 a22 A = B MB (f) = .. .. . . am1 am2 k=1 . . . a1n . . . a2n .. ... . . . . amn f (b ) · · · f (b ) 1 1 1 n .. .. = . . fn (b1 ) · · · fn (bn ) Außerdem gilt: – Rang(f) = Rang(A) – Alle Rechenregeln für Homomorphismen übertragen sich auf Matrizen, also gilt (wenn die Matrixprodukte definiert sind!): A(B1 + B2 ) = AB1 + AB2 (A1 + A2 )B = A1 B + A2 B a(AB) = (aA)B = A(aB), a ∈ K A(BC) = (AB)C – Die identische Abbildung id wird durch die n × n-Einheitsmatrix dargestellt: 1 0 ... 0 . . .. . . 1 0 0 1 En = . . = 0 1 .. . . . . . 0 0 ... 0 1 • Beispiel: Angenommen man möchte die lineare Abbildung f : (x, y) 7→ (3x − 2y, x + y) als Matrix darstellen. Die Darstellende Matrix B MC (f) wird je nach Wahl der Basen B, C des Ausgangs und Zielraumes unterschiedliche Zahlen enthalten. Allgemein stellt sich das Problem, dass sich die Abbildung unter Beibehaltung der Basis leicht ausrechnen lässt, man allerdings noch den Basiswechsel mit in die Basis integrieren möchte. Also rechnet man zuerst das Ergebnis in der Ausgangsbasis B aus und rechnet dann auf die neue Basis C um, stellt also f(aB ) in der Basis C, also als Linearkombination von deren Basisvektoren (ci )n∈N dar. 3 −2 – Für den einfachen Fall B = C = {(1, 0), (0, 1)} gilt: B MC (f) = B MB (f) = . 1 1 Im Fall B = C wird die Koordinatenmatrix also einfach aus den Koeffizienten der Funktionsgleichungen von f gebildet. c 2004 by Jan Krieger ([email protected]) – 17 – 2.3. Isomorphismen – Im Fall B = {(1, 0), (0, 1)} und C = {(3, 1), (−2, 1)} sind die Bilder von (0, 1) und (1, 0) gerade die gegebenen Basisvektoren von C. Also haben sie dort die Koordinatendarstellung (3, 1)B = (0, 1)C bzw. (−2,1)B = (1, 0)C . Damit ist die Koordinatenmatrix gleich 1 0 der Einheitsmatrix: B MC (f) = 0 1 – Nun gelte B = {(5, 8), (−1, 1)} und C = {(0, 1), (1, 1)}. Zuerst berechnet man die Bilder der Basisvektoren von B in B: f(5, 8) = (−1, 13). Danach sucht man Koeffizienten α,β, 14 −1 so dass (−1, 13) = α(0, 1) + β(1, 1). Daraus ergibt sich dann: B MC (f) = 5 −5 2.3 Isomorphismen • Seien V und W Vektorräume mit dim V = n und dim W = m. Für eine lineare Abbildung f : V → W sind dann äquivalent: 1. f ist Isomorphismus (also bijektiv). 2. Es gilt: m = n und Rang(f) = n. 3. Eine Matrix A ∈ Kn,n für welche die lin. Abbildung A : Kn → Kn eine Isomorphismus ist, nennt man invertierbar. • Basis-Isomorphismus: • Übergangsmatrix: Sei V ein n-dimensionaler K-Vektorraum mit den Basen B = (b1 , ..., bn ) und B 0 = (b10 , ..., bn0 ), dann gilt: bj0 = n X sij bi j = 1, ..., n i=1 Die Matrix S = (spq )p,q mit durch oben eindeutig bestimmten Elementen heißt Übergangsmatrix von B nach B 0 : TBB0 . Die Übergangsmatrix von B 0 nach B ist die Inverse S−1 zu S. Die Übergangsmatrix hat nach Definition folgende Eigenschaft: v = x1 b1 + ... + x2 bn = y1 b10 + ... + yn bn0 x1 y1 B .. = TB 0 · ... . yn B0 xn B Sie transformiert also die Koordinaten eines beliebigen Vektors in B, in diejenigen in B 0 . Merkregel: Seien die Vektoren der Basis C als Linearkombination der Basisvektoren von B gegeben. Es gelte also: xj = s1j v1 + ... + snj vn . Dann gilt TBB0 = S−1 , wobei S = (sij ) die Matrix mit den obigen Koeffizienten als Spalten ist. Damit ist die Lösung des Problems auf das finden der inversen Matrix zurückgeführt. 1 0 Als Beispiel betrachte man Den Übergang von der Basis B = , zur Basis C = 0 1 c 2004 by Jan Krieger ([email protected]) – 18 – 2.3. Isomorphismen 5 1 , . Dabei sind die Vektoren aus C hier als Linearkombination der Vektoren aus B, 2 1 also in der Basis B angegeben. Das kann man auch so schreiben: 5 5 1 c1 = =5· +2· . 2 2 1 Damit erhält man schon die Matrix TCB = 5 1 . 2 1 Diese übersetzt Koordinatenvektoren zur Basis C in Koordinatenvektoren zur Basis B. Die eigentlich gesuchte Matrix ist aber TBC = (TCB )−1 . Man erhält sie durch Lösung des Gleichungssystems, das folgendermaßen gegeben ist: T B · TBC = E2 C 1 0 5 1 a b · = 2 1 c d 0 1 Als Lösung erhält man: TBC 1 1 −1 = · −2 5 3 Für diese Matrix gilt etwa: TBC 1 1 −1 5 1 · c1 = · · = . −2 5 2 0 3 • Transformation der Koordinatenmatrix bei Basiswechsel: Es sein V eine n-dimensionaler K-Vektorraum mit Basen B und B 0 und W ein m-dimensionaler K-Vektorraum mit Basen C und C 0 . A sei die Koordinatenmatrix einer lin. Abbildung f : V → W bzgl. B und C. Dann besitzt F bzgl. B 0 und C 0 die Koordinatenmatrix A 0 = TAS−1 wobei S die Übergangsmatrix von B nach B 0 und T die Übergangsmatrix von C nach C 0 bezeichnet. Für Endomorphismen f : V → V gilt analog: A 0 = SAS−1 Das folgende komutative Diagramm veranschaulicht den Basiswechsel: c 2004 by Jan Krieger ([email protected]) – 19 – 2.4. lineare Gruppe eines Vektorraumes MBC ≡ A Kn.. ................................................................................................................................... K.. m ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ......... ... ... ... ... 0 ... ... ... .......... ... .. ... .. . . ... .. ... .. ... ... ... ... ... .. . ... ... . . ......... ... . .... ΦB S ≡ TBB V ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ....... ... ... ... ... ... ... ... ... ... ... ... ... ... . 0 ... ..... ... .. ... ....... ... .. Basen B (von Kn ), bzw. C (von Km ) . ... ... .. .. . . . ... ... ... .. . . .......... .. ΦC F ........................................................ ΦB 0 W TCC0 ≡ T ΦC Kn ................................................B........0.....................................0...................................... Km MC 0 ≡ A Basen B 0 (von Kn ), bzw. C 0 (von Km ) • Äquivalenz von Matrizen: Zwei n × m-Matrizen A und A 0 heißen äquivalent, wenn es invertierbare Matrizen S ∈ Kn,n und T ∈ Km,m gibt, so dass A 0 = T −1 AS gilt. Man schreibt dann A ∼ A 0 (Äquivalenzrelation!). • Ähnlichkeit von Matrizen: Zwei n × n-Matrizen A und A 0 heißen ähnlich, wenn es eine invertierbare Matrix S ∈ Kn,n gibt, so dass A 0 = S−1 AS gilt. Man schreibt dann A ≈ A 0 (Äquivalenzrelation!). • Es sei V ein n-dimensionaler K-Vektorraum. Für ein f ∈ EndK (V) sind äquivalent: 1. f : V → V ist Isomorphismus. 2. f ist invertierbar in EndK (V). 3. Es gibt ein g ∈ EndK (V) mit g ◦ f = idV . 4. Es gibt ein h ∈ EndK (V) mit f ◦ h = idV . 5. Es ist f 6= 0, und f ist kein Nullteiler in EndK (V). 6. Rang f = n. 7. f : V → V ist surjektiv. 8. f : V → V ist injektiv. 9. f : V → V ist also bijektiv. analoges gilt für n × n-Matrizen. 2.4 lineare Gruppe eines Vektorraumes • Die Gruppe der invertierbaren Elemente im Endomorphismenring EndK (V) eines K-Vektorraumes V wird als lineare Gruppe GLK (V) bezeichnet und es gilt: GLK (V) := EndK (V)× (siehe Einheiten eines Ringes). Für n × n-Matrizenüber K heißt die lineare Gruppe GL(n, K). (Es gilt: A ∈ GL(n, K) ⇒ det A 6= 0) • Die spezielle lineare Gruppe SL(n, K) ist die Gruppe aller Matrizen A ∈ Mn (K) mit det(A) = 1. c 2004 by Jan Krieger ([email protected]) – 20 – KAPITEL 3 Determinanten 3.1 Definition und Grundeigenschaften • Definition: Eine Abbildung det : Kn,n → K heißt Determinantenfunktion, wenn sie folgende Eigenschaften besitzt: D1 Linearität in einer Zeile: Für i = 1, ..., n gilt also: . . . .. .. .. ci = αai + βbi ⇒ det ci = α · det ai + β · det bi .. .. .. . . . D2 det ist alternierend: Hat A zwei gleiche Zeilen, so gilt: det A = 0. D3 Normierung: Für die Einheitsmatrix En ∈ Kn,n gilt: d(En ) = 1. Zu jeder Zahl n ∈ N gibt es genau eine Determinantenfunktion. Sie wird mit det(A) bezeichnet, wobei A ∈ Kn,n . Eine Determinante hat folgende weitere Eigenschaften: D4 Für jedes λ ∈ K gilt: det(λ · A) = λn · det A. D5 Ist eine Zeile von A gleich Null, so folgt: det A = 0. D6 Entsteht B durch eine Zeilenvertauschung aus A, so ist det B = − det A. D7 Entsteht B durch addition des λ-fachen der i-ten Zeile zur j-ten, so gilt det B = det A D8 Ist A eine obere Dreiecksmatrix, so gilt: λ1 · · · ... det A = det 0 c 2004 by Jan Krieger ([email protected]) .. = λ · ... · λ . 1 n . λn – 21 – 3.2. Determinanten von Endomorphismen endlich dimensionaler Vektorräume D9 Sei n ≥ 2 und A ∈ Kn×n mit quadratischen Matrizen A1 , A2 , so gilt: A1 C det A = det = (det A1 ) · (det A2 ). 0 A2 D10 det A = 0 ⇔ Rang A < n. n×n D11 Für alle A, B ∈ K gilt: det(A · B) = (det A) · (det B). D12 Für invertierbare Matrizen A ∈ GL(n, K) gilt: det(A−1 ) = (det A)−1 = 1 . det A D13 Symmetrie: det(A) = det( t A). • Entwicklung nach der n-ten Spalte: Für jede Determinante einer n × n-Matrix gilt: det(A) = |A| = n X (−1)n−j anj det(Anj ) j=1 Wobei Aij diejenige (n − 1) × (n − 1)-Matrix beschreibt, die durch streichen der i-ten Spalte und j-ten Zeile entsteht. Als Merkhilfe für die Vorzeichen: + - + + - + .. .. . . + + .. . + + .. . ... ... ... ... ... • Determinantenkriterium für invertierbare Matrizen: Eine Matrix n × n-Matrix A ist genau dann invertierbar, wenn det(A) 6= 0. 3.2 Determinanten von Endomorphismen endlich dimensionaler Vektorräume • Definition: Es sei V ein N-dimensionaler K-Vektorraum und f : V → V ein Endomorphismus von V. dann ist det(f) := det(A), wobei A eine Koordinatenmatrix von f bzgl. einer Basis von V ist. • Spur einer Matrix: Für jede quadratische n × n-Matrix A ist ihre Spur, wie folgt definiert: Spur(A) := n X aii i=1 und es gilt: – Spur(AB) = Spur(BA) – Spur(S−1 AS) = Spur(A), wobei S ∈ GL(n, K) invertierbar. – Spur(f) := Spur(A) c 2004 by Jan Krieger ([email protected]) – 22 – KAPITEL 4 Eigenvektoren und charakteristisches Polynom 4.1 Eigenwert und Eigenvektor • Eigenvektor: Es sei f : V → V ein Endomorphismus eines K-Vektorraumes V. Ein Vektor x 6= 0 aus V heißt Eigenvektor von f, falls es eine Zahl λ ∈ K gibt mit fx = λx • Eigenwert: Es sei f : V → V ein Endomorphismus eines K-Vektorraumes V. Eine Zahl λ ∈ K heißt Eigenwert von f, falls es zu λ einen Vektor x 6= 0 aus V gibt, mit fx = λx • Eigenraum: Ist λ ein Eigenwert von f : V → V, so heißt der Teilraum Eig(λ, f) := Kern(λ idV −f) = {x ∈ V|fx = λx} von V, Eigenraum zum Eigenwert λ von f. Für jeden Eigenwert gilt: dim Eig(λ, f) ≤ ordλ (χf ). • Es sei f ein Endomorphismus eines n-dimensionalen K-Vektorraumes V, und A sei die Koordinatenmatrix von f bezüglich einer basis von V. Es gilt: det(λ · En − A) = 0 ⇔ λ ∈ K ist Eigenwert von f • jedes System von Eigenvektoren zu verschiedenen Eigenwerten eines Endomorphismus f eines bel. K-Vektorraumes ist linear unabhängig. 4.2 charakteristisches Polynom • Es sei A ∈ Mn (K). Das charakteristische Polynom χA von A ist definiert als: χa (X) := det(X · En − A) ∈ K [X] c 2004 by Jan Krieger ([email protected]) – 23 – 4.3. Diagonalisierbare Endomorphismen Das charakteristische Polynom eines Endomorphismuses f, dessen Koordinatenmatrix bzgl. einer Basis A ist, ist definiert als χf := χA . Das charakteristische Polynom einer n × n-Matrix A über K ist ein normiertes Polynom vom Grade n. Es gilt also: χA (X) = Xn + s1 Xn−1 + ... + sn−1 X + sn mit wohlbestimmten Koeffizienten si . • Eigenwertkriterium: Eine Zahl λ ∈ K ist genau dann ein Eigenwert eines Endomorphismus f, wenn χf (λ) = 0. • Kästchenform für das charakteristische Polynom: Die quadratische Matrix A ∈ Mn (K) habe die Gestalt M C A= 0 M0 mit quadratischen Matrizen M ∈ Mr (K) und M 0 ∈ Ms (K), dann gilt: χA = χM · χM 0 . • Die Eigenwerte λ (det(A − λEn ) = 0) von ähnlichen Matrizen A, B ∈ Kn×n (∃S ∈ Kn×n : B = SAS−1 ) sind gleich: det(B − λ 0 En ) = = det(SAS−1 − λ 0 En ) = det(SAS−1 − λ 0 SEn S−1 ) = det S(A − λ 0 En )S−1 = = det S · det(A − λ 0 En ) · (det S)−1 = det(A − λ 0 En ) ⇒ λ 0 = λ. 4.3 Diagonalisierbare Endomorphismen • Diagonalisierbarkeit: Ein Endomorphismus f über einem n-dimensionalen K-Vektorraum V heißt diagonalisierbar, wenn es eine Basis von V gibt, bezüglich welcher die Koordinatenmatrix von f eine Diagonalmatrix ist, also folgende Gestalt hat: λ1 0 λ2 .. . 0 λn Dies entspricht der Aussage, dass V eine Basis besitzt, die nur aus Eigenvektoren besteht. • Für jede diagonalisierbare Matrix mit paarweise verschiedenen Eigenwerten λi 6= λj ∀i 6= j zerfällt das charakteristische Polynom vollständig in Linearfaktoren, hat also die Gestalt: χf (X) = ± n Y (X − λi ). i=1 Außerdem gilt: V = Eig(A, λ1 ) ⊕ ... ⊕ Eig(A, λn ). • Zu jedem unitären Endomorphismus gibt es eine unitäre Matrix S, mit λ1 0 λ2 t S·A·S= , .. . 0 λn c 2004 by Jan Krieger ([email protected]) – 24 – 4.4. Satz von C AYLEY-H AMILTON und Minimalpolynom wobei λi ∈ C mit |λi | EIgenwerte von A sind und S aus Eigenvektoren von A besteht. • Für einen Endomorphismus f eines n-dimensionalen K-Vektorraumes sind folgende Aussagen äquivalent: 1. f ist diagonalisierbar 2. Das charakteristische Polynom χf von f zerfällt über K vollständig in Linearfaktoren und für jede Nullstelle λ von χf gilt: ordλ (χf ) = dim Eig(λ, f) 3. Das Minimalpolynom µf von f zerfällt über K vollständig in Linearfaktoren und µf besitzt nur einfache Nullstellen. 4. V = ⊕ri=1 Eig(λi , f) r P 5. dim V = dim Eig(λi , f) i=1 4.4 Satz von C AYLEY-H AMILTON und Minimalpolynom • Satz von C AYLEY-H AMILTON: Jeder Endomorphismus f eines n-dimensionalen K-Vektorraumes genügt seiner eigenen charakteristischen Gleichung: χf (f) = 0 bzw. χA (A) = 0 mitA ∈ Mn (K) • Minimalpolynom: Sei f ein Endomorphismus eines n-dimensionalen K-vektorraumes. Dann gibt es genau ein normiertes Polynom µf ∈ K [X] mit µf (f) = 0 und folgender Eigenschaft: Ist g ∈ K [X] ein beliebiges Polynom mit g(f) = 0, so ist g durch µf teilbar. Das Polynom µf heißt Minimalpolynom des Endomorphismus f. Weiterhin gilt: – Das Minimalpolynom µf eines Endomorphismus f teilt also immer sein charakteristisches Polynom χf . – Die Polynome χf und µf eines Endomorphismus f haben die gleichen Nullstellen in K, allerdings gilt für jede Nullstelle λ: ordλ (µf ) ≤ ordλ (χf ) • Ist F ∈ EndK (V) und n = dim V, so sind folgende Aussagen äquivalent: 1. F ist nilpotent. 2. Fd = 0 für ein d mit 1 ≤ d ≤ n. 3. µF (t) = ±tn . 4. Es gibt eine Basis B von V, so dass MB (F) die folgende Form hat: 0 ∗ MB (F) = . . . 0 c 2004 by Jan Krieger ([email protected]) 0 – 25 – 4.5. Trigonalisierbare Endomorphismen 4.5 Trigonalisierbare Endomorphismen • Trigonalisierbarkeit: Ein Endomorphismus f über einem n-dimensionalen K-Vektorraum V heißt trigonalisierbar, wenn es eine Basis von V gibt, bezüglich welcher die Koordinatenmatrix von f eine obere Dreiecksmatrix ist, also folgende Gestalt hat: λ1 ∗ λ2 ... 0 λn • Ein Endomorphismus f über einem n-dimensionalen K-Vektorraum V ist genau dann trigonalisierbar, wenn das charakteristische Polynom χf von f über K vollständig in Linearfaktoren zerfällt. c 2004 by Jan Krieger ([email protected]) – 26 – KAPITEL 5 Linearformen Im folgenden Abschnit bezeichnet z das komplex-konjugierte der Zahl z ∈ C (x + iy := x − iy). 5.1 Linearformen • Eine Linearform ist eine Abbildung f : Kn → K mit den Eigenschaften (v, w ∈ Kn ; λ ∈ K): f(v + w) = f(v) + f(w) und f(λ · v) = λ · f(v) • Beispiel: Auf dem R3 ist die Abbildung f(~x) = x1 + x2 + x3 eine Linearform. • Kern einer Linearform: Sei f eine Linearform über Kn , die nicht die Nullabbildung ist. Dann hat Kern(f) die Dimension n − 1. • Die Menge aller Linearformen über einem Vektorraum V wird Dualraum genannt und mit V ∗ bezeichnet. Es gilt damit: dim(V) = dim(V ∗ ) • Die Menge V ∗ ist bzgl. der folgenden Verknüpfungen ein K-Vektorraum: (f + g)(v) := f(v) + g(v) (λ · f)(v) := λ · f(v) • Die Räume V und V ∗∗ sind in natürlicher Weise isomorph. 5.2 Semilinearformen • Ist V ein komplexer Vektorraum, so heißt die Abbildung F : V → V semilinear, wenn (v, w ∈ V; λ ∈ C): F(v + w) = F(v) + F(w) und F(λ · v) = λ · F(v) c 2004 by Jan Krieger ([email protected]) – 27 – 5.3. Bilinearformen 5.3 Bilinearformen • Definition: Eine Bilinearform ist eine Abbildung β : Kn × Kn → K, die bilinear ist, also folgende Eigenschaften aufweist (v, v 0 , w, w 0 ∈ Kn ; λ ∈ K): 1. β(v + v 0 , w) = β(v, w) + β(v 0 , w), 2. β(v, w + w 0 ) = β(v, w) + β(v, w 0 ), β(λ · v, w) = λ · β(v, w) β(v, λ · w) = λ · β(v, w) man schreibt oft statt β(v, w) auch hv, wi. • Beispiel: Eine Bilinearform kann durch eine Matrix A = (aij ) vermittelt werden. Man nennt die Matrix dann Struktur- oder G RAM’sche Matrix der Bilinearform. Diese hat dann die Form: t hv, wiA = v · A · w = n X vi aij wj i,j=1 Sei (b1 , .., bn ) eine Basis des Kn . Dann gilt: hbi , bj i = aij , also hat die darstellende Matrix von h, i die Form: hb1 , b1 i · · · hb1 , bn i .. .. A= . . hbn , b1 i · · · hbn , bn i • die Standardbilinearform ist die durch die Einheitsmatrix En vermittelte Bilinearform: t hv, wi = v · En · w = n X vi wj i=1 • Eine Bilinearform h, i heißt nichtausgeartet, falls nur der Nullvektor auf allen anderen Vektoen senkrecht steht, also hv0 , wi = 0 ∀w ∈ Kn ⇒ v0 = 0. • Eine Bilinearform h, i heißt symmetrisch, falls: hv, wi = hw, vi ∀v, w ∈ Kn Eine durch eine Matrix A definierte Bilinearform ist genau dann symmetrisch, wenn A symmetrisch ist (A = t A). Eine Bilinearform h, i heißt schiefsymmetrisch/antisymmetrisch, falls: hv, wi = − hw, vi ∀v, w ∈ Kn • Beziehung zwischen Bilinear- und Linearformen: Sei h, ieine Bilinearform und z ∈ Kn ein fest gewählter Vektor. Dann sind die Abbildungen fz (w) := hz, wi und gz (v) := hv, zi Linearformen von Kn . • Bilinearformen unterscheiden sich nur durch eine lineare Abbildung: Sei h, i eine nichtausgeartete Bilinearform und f eine lineare Abbildung über Kn . Dann gilt: 1. Die Abbildung [v, w] := hf(v), wi ist eine Bilinearform. c 2004 by Jan Krieger ([email protected]) – 28 – 5.4. Quadratische Formen 2. Sei [, ] eine zweite Bilinearform über Kn . Dann gibt es eine eindeutig bestimmte lineare Abbildung ϕ von Kn mit: [v, w] = hϕ(v), wi. ϕ ist bijektiv genau dann, wenn [, ] nicht ausgeartet ist. • man nennt zwei Vektoren v, w ∈ Kn orthogonal oder senkrecht, wenn hv, wi = 0. • Für eine beliebige Teilmenge X ⊂ Kn definiert man das othogonale Komplement zu X, als die Menge der Vektoren, die auf allen Elementen von X orthogonal stehen: X⊥ := {v ∈ Kn |hx, vi = 0 ∀x ∈ X } Ist X ⊂ Kn ein Untervektorraum, so ist auch X⊥ ein Untervektorraum. • Dimensionsformel für Bilinearformen: Sei h, i Bilinearform von Kn . Ist h, i nicht ausgeartet, so gilt für Unterräume U von V: dim(U) + dim(U⊥ ) = n • Für nichtausgeartete und symmetrische Bilinearformen gilt für jeden Unterraum U von Kn : U⊥⊥ = U • Basiswechsel bei Bilinearformen: Seien A, B Basen des Kn und TAB die Transformationsmatrix zwischen A und B. Seien weiter MA und MB die Strukturmatrizen einer Bilinearform auf Kn . Dann gilt: MB = t TBA · MA · TBA Für Endomorphismen F : V → V gilt dagegen: MB = (TBA )−1 · MA (F) · TBA 5.4 Quadratische Formen • Sei h, i eine symmetrische Bilinearform über V = Kn . Dann Definiert man durch q : V → K, v 7→ q(v) := hv, vi eine quadratische Form mit der Eigenschaft q(λ · v) = λ2 · q(v) • Polarisierung: Ist char(K) 6= 2, so gilt für jede symmetsiche Bilinearform s mit zugehöriger quadratischer Form q auf Kn : s(v, w) = 1 (q(v + w) − q(v) − q(w)) 2 Dies entspricht der sog. 1. Binomischen Formel: (v + w)2 = v2 + 2vw + w2 c 2004 by Jan Krieger ([email protected]) – 29 – 5.5. Sesquilinearformen 5.5 Sesquilinearformen • Ist V ein komplexer Vektorraum, so heißt die Abbildung β : V × V → C Sesquilinearform, wenn (v, w, v 0 , w 0 ∈ V; λ ∈ C): S1 β(v + v 0 , w) = β(v, w) + β(v 0 , w), S2 β(v, w + w 0 ) = β(v, w) + β(v, w 0 ), β(λ · v, w) = λ · β(v, w) β(v, λ · w) = λ · β(v, w) β ist also im ersten Argument linear und im zweiten semilinear. Darum auch sesquilinear (=1 12 fach linear). Man nennt eine Sesquilinearform hermitesch, wenn zusätzlich gilt: β(v, w) = β(w, v) • Beispiel: Das Standardskalarprodukt über Cn ist eine Sesquilinearform. hv, wi2 := n X vi wi i=1 • Polarisierung: Im Komplexen gilt: s(v, w) = 1 (q(v + w) − q(v − w) + iq(v + iw) − iq(v − iw)) 4 • Matrixdarstellung Basiswechsel: Auch eine Sesquilinearform kann durch eine Matrix A dargestellt werden. Die Transformationsformel bei einem Basiswechsel von der Basis A zur Basis B lautet: A MB = t TBA · MA · T B . • Orthogonalität: Der Begriff der Orthogonalität überträgt sich auch auf Sesquilinearformen. Zwei Vektoren x, y ∈ V heißen also othogonal, wenn mit einer auf V definierten Sesquilinearform h, i gilt: hx, yi = 0 c 2004 by Jan Krieger ([email protected]) – 30 – KAPITEL 6 Euklidische und Unitäre Vektorräume, Skalarprodukte 6.1 Definitionen und Eigenschaften des Skalarproduktes • Ein Skalarprodukt h, i eines reellen Vektorraumes Rn oder komplexe Vektorraumes Cn ist eine Sequilinearform (im Falle des Rn also eine Bilinearform) mit folgenden Eigenschaften: 1. h, i ist hermite’sch (im Rn symmetrisch), also: hv, wi = hw, vi ∀v, w ∈ Kn 2. h, i ist positiv definit, also: hv, vi ≥ 0 ∀v ∈ Kn Ein Skalarprodukt ist also eine positiv definite, symmetrische Bilinearform bzw. hermite’sche Form. • Das Paar (Rn , h, i) eines reellen Vektorraumes und eines Skalarproduktes wird euklidischer Vektorraum genannt. • Das Paar (Cn , h, i) eines komplexen Vektorraumes und einer hermite’schen Sesquilinearform wird unitärer Vektorraum genannt. • Konstruktion von Skalarprodukten: Sei h, i eine symmetrische Bilinearform des reellen Vektorraumes Rn mit Strukturmatrix A. Dann gilt: Genau dann ist h, i ein Skalarprodukt, wenn für jedes 1 ≤ k ≤ n die linke obere (k × k)Teilmatrix A(k) von A eine Determinante det(A(k) ) > 0 besitzt. • Die Standardbilinearform eines reellen Vektorraumes ist ein Skalarprodukt. • Das euklidische Skalarprodukt ist auf Kn definiert als hv, wi2 := n X vi wi i=1 • Sei V ein euklidischer Vektorraum mit Skalarprodukt h, i. Dann ist für jeden Unterraum U von V der Unterraum U⊥ ein komplementärer Unterraum, also U ∩ U⊥ = {0} und U + U⊥ = V. Man nennt U⊥ das orthogonale Komplement zu U. c 2004 by Jan Krieger ([email protected]) – 31 – 6.2. Normen • Eine symmetrische Bilinearform h, i von V ist genau dann ein Skalarprodukt, wenn es eine Orthonormalbasis B gibt, sodass die Strukturmatrix von h, i bezüglich B nur positive EIgenwerte besitzt. 6.2 Normen • Definition: Eine Norm des euklidischen Vektorraumes V = Kn ist eine Abbildung k·k : v → R mit folgenden Eigenschaften (v, w ∈ V; λ ∈ K): N1: kvk = 0 ⇔ v = 0. N2: kλ · vk = |λ| · kvk. N3: kv + wk ≤ kvk + kwk. (Dreiecksungleichung) p Die euklidische Norm ist definiert als kvkeuklid := hv, vi und ist eine Norm. • Ungleichung von C AUCHY-S CHWARZ: Für v, w ∈ Rn gilt: |hv, wi| ≤ kvk · kwk Gleichheit gilt, wenn v und w linear abhängig sind. • Sei V ein euklidischer Raum mit Skalarprodukt h, i. Man nennt eine Menge von Vektoren {v1 , ..., vn } ⊂ V orthogonal, wenn hvi , vj i = 0 ∀i 6= j. Man nennt sie orthonormal, wenn zusätzlich kvi k = 1 ∀1 ≤ i ≤ n gilt. • Eine Vektor v lässt sich auf natürliche Weise normieren: v v 0 := ⇒ kv 0 k = 1 kvk Damit lässt sich aus jeder Menge orthogonaler Vektoren eine Menge orthonormaler Vektoren konstruieren. Insbesondere lässt sich jede Orthogonalbasis in eine Orthonormalbasis überführen. • Orthonormalisierungssatz von E. S CHMIDT: Sei V ein reeller Vektorraum mit Skalarprodukt h, i. Dann hat V eine Orthonormalbasis • G RAM-S CHMIDT’sches Orthogonalisierungsverfahren: Sei {a1 , ..., an } eine Basis des Kn . Dann erhält man durch a1 b1 := ka1 k2 k−1 X b̃k b̃k := ak − hak , bj i2 bj , bk := , k = 2, ..., n b̃k j=1 2 eine Orthonormalbasis {b1 , ..., bn } des Kn . Das Verfahren funktioniert folgendermaßen: Angenommen man hat bereits k − 1 orthonormale Vektoren b1 , ..., bk−1 . Nach Konstruktion sind sie alle linear unabhängig vom k-ten Vektors ak der gegebenen allgemeinen Basis. Für jeden Vektor bj wird durch hak , bj i2 · bk die Projektion auf ak , also der Anteil, der linear zu ak ist berechnet. Dieser wird von ak abgezogen. Damit ist ak weiterhin linear unabhängig von b1 , ..., bk−1 und steht jetzt noch zusätzlich senkrecht auf allen bj . Danach wird nur noch normiert. c 2004 by Jan Krieger ([email protected]) – 32 – 6.3. Orthogonale Abbildungen 6.3 Orthogonale Abbildungen • Orthogonale/unitäre Abbildungen: Ein Endomorphismus f : Rn → Rn über einem euklidischen Vektorraum Rn wird orthogonal genannt, wenn für alle v, w ∈ Rn gilt: hf(v), f(w)i = hv, wi Auf einem unitären VektorraumpCn heißt eine solche Abbildung unitär. Das bedeutet, dass Abstände (gemessen z.B. durch hv, wi) invariant unter der Transformation f bleiben. Orthogonale bzw. unitäre Endomorphismen F ∈ End(V) über einem euklidischen bzw. unitären Vektorraum V haben folgenden weiteren Eigenschaften/Rechenregeln: 1. kF(v)k = kvk 2. v⊥w ⇒ ∀v ∈ V. F(v)⊥F(w). 3. F ist Isomorphismus und F−1 ist orthogonal bzw. unitär. 4. Ist λ ∈ K Eigenwert von F, so ist |λ| = 1. Eigenwerte orthogonaler/unitärer Matrizen sind immer ±1. Beispiel: Drehungen im R2 sind orthogonal: cos ϕ − sin ϕ D(ϕ) = sin ϕ cos ϕ • orthogonale/unitäre Matrizen: Eine reelle invertierbare n × n-Matrix M ∈ GL(n, R) heißt orthogonal, falls: t M = M−1 ⇔ M· t M = En . Eine komplexe invertierbare n × n-Matrix M ∈ GL(n, C) heißt unitär, falls: t M = M−1 ⇔ M· t M = En . • Orthogonale bzw. unitäre Matrizen haben folgende Eigenschaften: – Gruppeneigenschaften: Die folgenden Mengen sind Untergruppen der Linearen Gruppe GL(n, R), bzw. GL(n, C): ∗ orthogonale Gruppe: O(n) := A ∈ GL(n, R)A−1 = t A ∗ spezielle orthogonale Gruppe: SO(n) := A ∈ SO(n)det A = 1 ∗ unitäre Gruppe: U(n) := A ∈ GL(n, C)A−1 = t A Das bedeutet: Sind A, B unitär/orthogonal, so sind auch AB und A−1 , B−1 unitär/orthgonal. Mit obiger Gruppeneigenschaft beweist man leicht folgenden Satz vom Fußball: In jedem Fußballspiel, in dem nur genau ein Ball benutzt wird, gibt zu Anfang jeder Halbzeit (wenn der Ball auf dem Anstoßpunkt liegt) genau zwei Punkte auf dem Ball, die an der gleichen Stelle liegen. Beweis: Der Ball kann während des Spieles nur gedreht und translatiert werden. Die Translation ist hier uninteressant, da sie durch das Legen auf die Anstoßmarke ausgeglichen wird. Alle Drehungen D1 , ..., Dk ∈ SO(3) sind aber Elemente der speziellen c 2004 by Jan Krieger ([email protected]) – 33 – 6.3. Orthogonale Abbildungen Orthogonalen Gruppe. Damit lassen sich alle k in einer Spielhälfte ausgeführten Drehungen durch Hintereinanderausführung mit einer einzigen Drehung D1 · ... · Dk beschreiben. Diese ist wegen der Untergruppeneigenschaft von SO(3) wieder Element von SO(3). Also gibt es zwei Punkte (die Durchstoßpunkte der Drehachse), die an der selben Stelle im Raum liegen. QED! – Spalten-/Zeilenvektoren: Die Spalten- und Zeilenvektoren einer unitären bzw. orthogonalen Matrix bilden eine Orthonormalbasis des Cn bzw. Rn . – Determinanten: Jede orthogonale oder unitäre Matrix M hat die Determinante det(M) = ±1. Gilt für orthogonales M: det M = 1, so nennt man M eigentlich orthogonal. Das bedeutet, dass nicht nur Abstände unter der Abbildung M erhalten bleiben, sondern auch die Orientierung (die schließt Spiegelungen aus!) • Darstellung orthogonaler/unitärer Abbildungen: Sei V ein euklidischer/unitärer Vektorraum und sei B eine Orthonormalbasis von V. Sei weiter f : V → V eine lineare Abbildung. Dann gilt: f ist orthogonal/unitär ⇔ die Darstellungsmatrix B MB (f) ist eine orthogonale/unitäre Matrix. • zweidimensionale orthogonale Abbildungen: Sei f : R2 → R2 eine lineare Abbildung des euklidischen Raumes R2 . Dann gibt es eine Orthonormalbasis B von R2 , bezüglich der die Darstellungsmatrix B MB (f) eine der folgenden Gestalten hat: cos ϕ − sin ϕ 1. Drehung: B MB (f) = sin ϕ cos ϕ 1 0 2. Spiegelung: B MB (f) = 0 −1 • Diagonalisierbarkeit unitärer Endomorphismen: Jeder unitäre Endomorphismus F eines unitären Vektorraumes besitzt eine Orthonormalbasis aus Eigenvektoren von F. Insbesondere ist er diagonalisierbar. Korollar: Zu einer unitären Matrix A ∈ U(n) gibt es eine unitäre Matris S ∈ U(n) mit: λ1 0 .. S−1 · A · S = t S · A · S = . 0 λn Dabei gilt: λi ∈ C und |λi | = 1. • Eigenwerte: Sei f : V → V eine orthogonale Abbildung des euklidischen Vektorraumes V. Dann hat f höchstens die Eigenwerte 1 und −1. Insbesondere ist f eine umkehrbare lineare Abbildung, und f−1 ist ebenfalls eine orthogonale Abbildung. • H ERMITE’sche Matrizen: Eine Matrix A = (aij ) heißt hermitesch, wenn t A=A . Dabei bezeichnet A das komplex-konjugierte der Maztrix A, d.h. alle Matrixelemente aij werden komplex-konjugiert. c 2004 by Jan Krieger ([email protected]) – 34 – 6.3. Orthogonale Abbildungen • H ERMITe’sche Matrizen und euklidisches Skalarprodukt: Für hermite’sche Matrizen A ∈ Kn×n , A = t A gilt mit dem euklidischen Skalarprodukt: hAx, yi2 = hx, Ayi2 • Unitäre Matrizen und euklidisches Skalarprodukt: Für unitäre Matrizen Q ∈ Kn×n , En ⇒ Q−1 = t Q gilt: hQx, Qyi2 = hx, yi2 , c 2004 by Jan Krieger ([email protected]) t QQ = x, y ∈ Kn – 35 – KAPITEL 7 Lineare Gleichungssysteme In diesem Abschnitt werden Gleichungssysteme der Form A·x=b betrachtet, wobei x, b ∈ Kn und die Koeffizientenmatrix A eine n × n-Matrix ist. Gesucht ist die Menge aller x, die die obige Gleichung für festes A und b erfüllt. Gilt b = 0, so nennt man das Gleichungssystem homogen, sonst inhomogen. Die Lösung des inhomogenen Problems lässt sich allgemein auf das invertieren der Matrix A zurückfhren, denn aus dem oben gesagten folgt x = A−1 · b. • C RAMER’sche Regel für lineare Gleichungssysteme: Es sei ein lineares Gleichungssystem A · x = b von n Gleichungen in n unbekannten vorgelegt. Seine (einfache) Koeffizientenmatrix A sei invertierbar. Dann besitzt dieses System genau eine Lösung x. Bezeichnet man mit a1 , ..., an der Reihe nach die Spalten von A = (a1 , ..., an ), so gilt: ∀1 ≤ i ≤ n : xi = det(Ai ) det(a1 , ..., b, ..., an ) = det(A) det(A) dabei ist Ai = (a1 , ..., b, ..., an ) die Matrix, die aus A durch das ersetzen der i-ten Spalte durch b hervorgeht. • Für eine n × n-Matrix A über dem Körper K = R, oder C sind folgende Aussagen äquivalent: 1. A ist invertierbar. 2. Ax = b ist für jedes b ∈ Kn eindeutig lösbar. 3. Ax = 0 ist nur für x = 0 lösbar. 4. Rang(A) = n. 5. det(A) 6= 0. 6. Alle Eigenwerte von A sind ungleich Null. c 2004 by Jan Krieger ([email protected]) – 36 –