Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München Höhere Mathematik I (Beilagen) Univ. Prof. Dr. sc. math. Kurt Marti† † A LT EX-Satz des Manuskripts: Lars Wilhelmy 2 Inhaltsverzeichnis I Vektoren im IRn 7 1 Der geometrische Vektorbegriff-Vektoralgebra 9 1.1 Skalare Größen oder Skalare . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2 Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.1 Geometrische Darstellung von Vektoren . . . . . . . . . . . . . . . . 9 1.2.2 Addition von Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.3 Multiplikation eines Vektors mit einem Skalar . . . . . . . . . . . . 11 2 Zahlen-n-Tupel 13 2.1 Darstellung eines Vektors ~x im kartesischen Koordinatensystem . . . . . . 13 2.2 Zahlen-n-Tupel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3 Multiplikation von n-Tupeln bzw. Vektoren 3.1 17 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.1.1 Das Skalarprodukt im Raum E 3 . . . . . . . . . . . . . . . . . . . . 17 3.1.2 Das Skalarprodukt im IRn . . . . . . . . . . . . . . . . . . . . . . . 18 3.2 Die Norm eines n-Tupels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.3 Die Schwarzsche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.4 Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.4.1 20 Eigenschaften des Vektorproduktes . . . . . . . . . . . . . . . . . . 3 4 INHALTSVERZEICHNIS 4 Lineare Gleichungssysteme I 4.1 II 23 Lineare Gleichungssysteme (LGS) . . . . . . . . . . . . . . . . . . . . . . . 23 4.1.1 Grundlegende Eigenschaften linearer Gleichungssysteme . . . . . . . 24 4.1.2 Darstellung eines LGS als n-Tupel - oder Vektorgleichung . . . . . . 24 Matrizen 27 5 Der Matrixbegriff 29 6 Matrixoperationen 31 7 Die Inverse einer Matrix 33 8 Rang einer Matrix 35 8.1 Berechnung des Ranges einer (m, n)-Matrix A . . . . . . . . . . . . . . . . 36 8.1.1 Treppenmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 8.1.2 Elementare Umformung von Matrizen . . . . . . . . . . . . . . . . . 36 8.1.3 Berechnung von RgA . . . . . . . . . . . . . . . . . . . . . . . . . . 37 9 Gauß-Algorithmus 9.1 Praktische Durchführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Determinanten 10.1 Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III Vektorräume 11 Vektorraumdefinition 39 40 43 45 47 49 11.1 Dimensionsberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 11.2 Berechnung einer Basis von U . . . . . . . . . . . . . . . . . . . . . . . . . 52 11.3 Berechnung von Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . 53 11.3.1 Bedeutung von Orthonormalbasen . . . . . . . . . . . . . . . . . . . 53 11.3.2 Konstruktion einer Orthonormalbasis . . . . . . . . . . . . . . . . . 53 INHALTSVERZEICHNIS 5 12 Lineare Abbildungen (Transformationen) 55 12.1 Matrixdarstellung linearer Abbildungen . . . . . . . . . . . . . . . . . . . . 55 12.2 Produkte linearer Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 56 13 Basistransformationen-Koordinatenformationen 57 13.1 Basistransformationen und lineare Abbildungen . . . . . . . . . . . . . . . IV Eigenwerte und Eigenvektoren, Quadratische Formen 14 Eigenwerte,Eigenvektoren,Quadratische Formen 58 63 65 14.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 65 14.2 Berechnung der Eigenvektoren zu einem Eigenwert . . . . . . . . . . . . . 66 14.3 Eigenwerte symmetrischer Matrizen . . . . . . . . . . . . . . . . . . . . . . 66 15 Diagonalisierung 69 15.1 Hauptachsentransformation quadratischer Formen . . . . . . . . . . . . . . 69 15.1.1 Basistransformation (Hauptachsentransformation) . . . . . . . . . . 70 15.2 Definitheitskriterien für quadratische Formen . . . . . . . . . . . . . . . . . 70 16 Norm einer Matrix 73 16.1 Eigenschaften der Operatornorm . . . . . . . . . . . . . . . . . . . . . . . . 73 16.2 Berechnung der Operatornorm . . . . . . . . . . . . . . . . . . . . . . . . . 74 6 INHALTSVERZEICHNIS Teil I Vektoren im IRn 7 Kapitel 1 Der geometrische Vektorbegriff-Vektoralgebra Zur Beschreibung und theoretischen Erfassung physikalisch-technischer Beziehungen und Vorgängen (Prozesse) mit Hilfe mathematischer Modelle benötigt man mathematische Begriffe, die alle wesentlichen Eigenschaften der betrachteten physikalisch-technischen Größen eindeutig erfassen. Betrachtet man Größen, die in Naturwissenschaft, Technik, usw. vorkommen, so findet man Skalare und Vektoren. 1.1 Skalare Größen oder Skalare Skalare Größen oder Skalare sind z.B. Länge, Masse, Zeit, Temperatur, Energie, Leitvermögen, Elektrizitätsmenge, usw.. Nach Festlegung einer Maßeinheit sind skalare Größen eindeutig bestimmt durch eine Maßzahl λ. Maßzahlen sind reelle Zahlen. Skalare lassen sich also auf der Zahlengeraden darstellen. Die reelle Zahl λ gibt die Quantität der skalaren Größen an, die Maßeinheit gibt die qualitativen Merkmale der skalaren Größe an. 1.2 Vektoren Vektoren sind z.B. Kraft, Geschwindigkeit, Beschleunigung, Impulse, Strömung, usw.. Größen, zu deren Beschreibung neben einer skalaren Größenangabe (Abmessung oder Betrag) zusätzlich eine Richtungsangabe erforderlich ist, heißen Vektoren. 1.2.1 Geometrische Darstellung von Vektoren Vektoren werden durch gerichtete Strecken dargestellt, wobei die Länge der gerichteten Strecke die Größenordnung (Abmessung oder Betrag) des Vektors angibt. 9 10 KAPITEL 1. DER GEOMETRISCHE VEKTORBEGRIFF-VEKTORALGEBRA Definition 1.1 (gerichtete Strecke) −→ Für zwei beliebige Punkte P1 , P2 im Raum (in einer Ebene, auf einer Geraden) sei P1 P2 eine gerichtete Strecke (der von P1 nach P2 weisende Pfeil). −→ Definition 1.2 (Äquivalente gerichtete Strecken) Zwei gerichtete Strecken P1 P2 , −→ Q1 Q2 nennt man äquivalent, wenn sie dieselbe Länge und dieselbe Richtung haben. Äquivalente Strecken können also durch Parallelverschiebung ineinander übergeführt werden. Definition 1.3 (Äquivalenzklasse, Vektor) Unter einer Äquivalenzklasse, bezeichnet durch ~x, ~y , ~z, ~u, . . ., versteht man eine Menge der gerichteter Strecken, so dass gilt −→ −→ −→ −→ P1 P2 , Q1 Q2 ∈ ~x ⇐⇒P1 P2 , Q1 Q2 sind äquivalent. ~x heißt dann auch ein freier Vektor (oder kurz Vektor). −→ Bemerkung: Für irgendein festes P1 P2 ∈ ~x gilt −→ −→ −→ ~x = {Q1 Q2 : Q1 Q2 äquivalent mit P1 P2 }. −→ Man schreibt daher ~x = [P1 P2 ] und sagt, der freie Vektor ~x werde durch die gerichtete −→ Strecke P1 P2 repräsentiert. Definition 1.4 (Ursprung,Ortsvektor) Sei O ein beliebiger, aber fester Punkt des Raumes (einer Ebene, einer Geraden). O heißt −→ −→ Ursprung oder Nullpunkt. Die gerichteten Strecken OP , OQ, . . . mit dem Ursprung O als Anfangspunkt heißen Ortsvektoren. Bemerkung: Es gibt zu jedem freien Vektor ~x einen Punkt P, so dass gilt −→ ~x = [OP ], d.h. freie Vektoren können durch Ortsvektoren repräsentiert werden. 1.2.2 Addition von Vektoren −→ −→ Definition 1.5 (Summe) Seien ~x = [OP ] und ~y = [OQ] wie in Abb. 1.1 konstruiert. −→ Dann heißt ~x + ~y := [OR] Summe von ~x und ~y Definition 1.6 (Nullvektor) −→ −→ Der Nullvektor ~0 ist definiert durch ~0 := [P P ] = [OO]. 1.2. VEKTOREN 11 −→ Abbildung 1.1: ~x + ~y := [OR]. Definition 1.7 (Negative) −→ −→ Der Gegenvektor oder das Negative −~x zu ~x = [P1 P2 ] ist definiert durch −~x := [P2 P1 ]. Satz 1.1 Für beliebe Vektoren ~x, ~y , ~z gilt: (V1) ~x + ~y = ~y + ~x (Kommutativgesetz) (V2) ~x + (~y + ~z) = (~x + ~y ) + ~z (Assoziativgesetz) (V3) ~x + ~0 = ~x (V4) ~x + (−~x) = ~0 Definition 1.8 (Differenz) ~x − ~y := ~x + (−~y ) (Differenz von ~x und ~y ) 1.2.3 Multiplikation eines Vektors mit einem Skalar Definition 1.9 (λ-faches eines Vektors) −→ Sei λ eine reelle Zahl. Unter dem λ-fachen λ~x eines Vektors ~x = [P1 P2 ] versteht man den Vektor: (a) λ~x := ~0 für λ = 0 −→ (b) λ~x := [Q1 Q2 ] für λ 6= 0, wobei −→ −→ Länge von Q1 Q2 = |λ| · Länge von P1 P2 und −→ Richtung von Q1 Q2 = ( −→ Richtung von P1 P2 für λ > 0 −→ Richtung von P2 P1 für λ < 0. 12 KAPITEL 1. DER GEOMETRISCHE VEKTORBEGRIFF-VEKTORALGEBRA Satz 1.2 Für beliebige ~x, ~y und beliebige λ, µ gilt: (V 5) λ(~x + ~y ) = λxy ~ + λ~y Distributivgesetz (V 6) (λ + µ)~x = λ~x + µ~x (V 7) (λµ)~x = λ(µ~x) Assoziativgesetz (V 8) 1~x = ~x Definition 1.10 (Vektorraum) −→ Sei E 3 bzw. E 1 die Menge alle Vektoren ~x = [P1 P2 ] mit beliebigen Punkten P1 , P2 des Raumes, einer Ebene oder einer Geraden. Wegen der Eigenschaften (V1)-(V8) heißt E 3 (E 2 bzw. E 1 ) auch Vektorraum. Kapitel 2 Zahlen-n-Tupel 2.1 Darstellung eines Vektors ~x im kartesischen Koordinatensystem Im (dreidimensionalen) Raum E 3 werde festgelegt: (a) ein Ursprung durch Wahl eines beliebigen, aber festen Punktes O, −→ −→ −→ (b) ein Koordinatensystem durch drei Ortsvektoren OE1 , OE2 , OE3 , die paarweise senkrecht stehen und die Länge 1 haben. −→ −→ Definition 2.1 (Einheitsvektoren) Die (freien) Vektoren ~i = [OE1 ], ~j = [OE2 ], ~k = −→ [OE3 ] heißen Einheitsvektoren in x(x1 )- bzw. y(x2 )- bzw. z(x3 )-Richtung. Satz 2.1 Jedes ~x ∈ E 3 läßt sich als Linearkombination ~x = x1~i + x2~j + x3~k (oder ~x = x~i + y~j + z~k) darstellen mit eindeutig bestimmten Koordinaten x1 , x2 , x3 bzw. x, y, z. Satz 2.2 Bei festgehaltenem Koordinatensystem (O,~i, ~j, ~k) wird jedes ~x ∈ E 3 1-1-deutig repräsentiert durch sein Koordinaten-Tripel x = (x1 , x2 , x3 ) oder x = (x, y, z). Satz 2.3 Sind x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) die Koordinatentripel von ~x bzw. ~y , so gilt: (a) ~x + ~y hat das Koordinatentripel x + y := (x1 + y1 , x2 + y2 , x3 + y3 ). (b) Für jedes λ ∈ IR hat λ~x das Koordinatentripel λx := (λx1 , λx2 , λx3 ). (c) ~x − ~y hat das Koordinatentripel x − y := (x1 − y1 , x2 − y2 , x3 − y3 ). (d) Es gilt ~x = ~y genau dann, wenn x = y. 13 14 2.2 KAPITEL 2. ZAHLEN-N -TUPEL Zahlen-n-Tupel Definition 2.2 (Tupel) Seien x1 , x2 , . . . , xn irgendwelche reelle Zahlen. Unter einem n-Tupel von Zahlen oder (Zahlen-) n-Tupel versteht man jede geordnete Menge x1 x2 x = (x1 , x2 , . . . , xn ) oder x = .. . xn (Zeilendarstellung) (Spaltendarstellung) von Zahlen x1 , x2 , . . . , xn . Die Zahlen xk , k = 1, . . . , n, heißen die Koordinaten oder Komponenten des n-Tupels x. Definition 2.3 Seien x = (x1 , x2 , . . . , xn ), y = (y1 , y2 , . . . , yn ) zwei beliebige n-Tupel und λ ∈ IR. (a) Summe (Addition) zweier n-Tupel x + y := (x1 + y1 , x2 + y2 , . . . , xn + yn ) (b) Multiplikation mit einem Skalar λ λx := (λx1 , λx2 , . . . , λxn ) (c) Differenz zweier n-Tupel x − y := (x1 − y1 , x2 − y2 , . . . , xn − yn ) (d) 0 := (0, 0, . . . , 0) Nullvektor oder Nullelement (e) −x := (−x1 , −x2 , . . . , −xn ) negatives n-Tupel zu x (f ) IRn := Menge aller n-Tupel x (in Zeilen- oder Spaltendarstellung) Satz 2.4 Für beliebige n-Tupel x, y, z und Skalare λ, µ ∈ IR gelten dieselben Rechenregeln (V1)-(V8) wie für die freien Vektoren und Skalare in E 3 (siehe Satz 1.1 und Satz 1.2). Definition 2.4 (Linearkombination) Sind x1 , x2 , . . . , xi = (xi1 , xi2 , . . . , xin ), . . . , xr ∈ IRn r beliebige n-Tupel und λ1 , λ2 , . . . , λr r X beliebiege Skalare, dann heißt das n-Tupel y = λi xi = λ1 x1 +· · ·+λr xr Linearkombinai=1 tion von x1 , . . . , xr mit den Koeffizienten λ1 , λ2 , . . . , λr . Analog ist eine Linearkombination ~y von Vektoren ~x1 , ~x2 , . . . , ~xr aus dem Raum E 3 definiert. 2.2. ZAHLEN-N -TUPEL 15 Definition 2.5 (Lineare Abhängigkeit) Die n-Tupel x1 , x2 , . . . , xr ∈ IRn bzw. für Vektoren ~x1 , ~x2 , . . . , ~xr aus E 3 heißen linear abhängig, wenn es Zahlen λ1 , λ2 , . . . , λr gibt, die nicht alle gleich Null sind, so daß r X i=1 λi xi = 0 bzw. r X λi~xi = ~0. i=1 Die n-Tupel x1 , . . . , xr bzw. die Vektoren ~x1 , . . . , ~xr heißen linear unabhängig, wenn sie nicht linear abhängig sind. Satz 2.5 Die n-Tupel x1 , x2 , . . . , xr ∈ IRn bzw. diektoren ~x1 , ~x2 , . . . , ~xr aus E 3 sind genau dann linear abhängig, wenn sich mindestens ein Element xj bzw. ~xj als Linearkombination der anderen Elemente darstellen läßt. Korollar 2.1 (a) Zwei n-Tupel x, y bzw. Vektoren ~x, ~y sind genau dann linear abhängig, wenn x = λy oder y = µx bzw. ~x = λ~y oder ~y = µ~x. (b) Ein n-Tupel x bzw. Vektor ~x ist genau dann linear abhängig, wenn x = 0 bzw. ~x = ~0. 16 KAPITEL 2. ZAHLEN-N -TUPEL Kapitel 3 Multiplikation von n-Tupeln bzw. Vektoren 3.1 3.1.1 Skalarprodukt Das Skalarprodukt im Raum E 3 Definition 3.1 (Skalarprodukt I) Unter dem Skalarprodukt ~x · ~y oder < ~x, ~y > zweier Vektoren ~x, ~y ∈ E 3 versteht man die Zahl ~x · ~y := k~xk · k~y k · cos ϕ, wobei k~xk, k~y k die Länge der Vektoren ~x bzw. ~y bezeichnet und ϕ der Winkel zwischen ~x und ~y ist. Satz 3.1 (Eigenschaften des Skalarproduktes I) Für beliebige Vektoren ~x, ~y , ~z und jedes λ ∈ IR gilt (a) ~x · ~y = ~y · ~x (Kommutativität), (b) ~x · (~y + ~z) = ~x · ~y + ~x · ~z (Distributivität), (c) ~x · (λ~y ) = (λ~x) · ~y = λ~x · ~y (Homogenität), (d) ~x · ~y = 0 ⇐⇒ ~x = ~0 oder ~y = ~0 oder ∠(~x, ~y ) = π . 2 Satz 3.2 Sind x1 , x2 , x3 bzw. y1 , y2 , y3 die Koordinaten von ~x bzw. ~y bez. (der Basis) ~i, ~j, ~k, dann gilt ~x · ~y = x1 y1 + x2 y2 + x3 y3 . 17 18 KAPITEL 3. MULTIPLIKATION VON N -TUPELN BZW. VEKTOREN Speziell ist q √ k~xk = ~x · ~x = x21 + x22 + x23 die Länge von ~x. Satz 3.3 (Eigenschaften der Vektorlänge) Sei k~xk die Länge von ~x. Dann gilt (a) k~xk ≥ 0, (b) k~xk = 0 ⇐⇒ ~x = ~0, (c) kλ~xk = |λ| · k~xk, für alle λ ∈ IR. 3.1.2 Das Skalarprodukt im IRn Definition 3.2 (Skalarprodukt II) Unter dem Skalarprodukt < x, y > zweier n-Tupel x, y versteht man die Zahl < x, y >:= n X xk · yk . k=1 Definition 3.3 (Orthogonalität) (a) Zwei n-Tupel x, y 6= 0 heißen orthogonal, in Zeichen x ⊥ y, falls < x, y >= 0. (b) Gilt für n-Tupel x1 , x2 , . . . , xr 6= 0 < xi , xj >= 0 für i 6= j, dann heißt {x1 , x2 , . . . , xr } ein Orthogonalsystem. (c) Gilt für n-Tupel x1 , x2 , . . . , xr die Relation 0 für i 6= j < xi , xj >= 1 für i = j so heißt {x1 , x2 , . . . , xr } ein Orthonormalsystem. Satz 3.4 (Eigenschaften des Skalarproduktes II) Für alle n-Tupel x, y, z ∈ IRn und jedes λ ∈ IR gilt (a) < x, y >=< y, x >, (b) < x, y + z >=< x, y > + < x, z >, (c) < λx, y >=< x, λy >= λ < x, y >, (d) < x, x > ≥ 0, < x, x >= 0 ⇐⇒ x = 0. 3.2. DIE NORM EINES N -TUPELS 3.2 19 Die Norm eines n-Tupels Definition 3.4 (Norm) Unter der Norm oder dem Betrag kxk eines n-Tupels x versteht man die Zahl kxk := √ < x, x > = n X !1 2 2 xk = q x21 + x22 + · · · + x2n . k=1 Satz 3.5 (Eigenschaften der Norm) Für die Norm eines n-Tupels x gilt: (a) kxk ≥ 0, (b) kxk = 0 ⇐⇒ x = 0, (c) kλxk = |λ| · kxk für alle λ ∈ IR. 3.3 Die Schwarzsche Ungleichung Satz 3.6 (Schwarzsche Ungleichung) (a) Für beliebige n-Tupel x, y gilt | < x, y > | ≤ kxk · kyk. (b) Für beliebige Vektoren ~x, ~y gilt |~x · ~y | ≤ k~xk · k~y k. Satz 3.7 (Dreiecksungleichung) (a) Für alle n-Tupel x, y gilt kx + yk ≤ kxk + kyk. (b) Für alle Vektoren ~x, ~y gilt k~x + ~y k ≤ k~xk + |~y k. Satz 3.8 Für beliebige n-Tupel x, y und λ ∈ IR gilt (a) kxk ≥ 0, (b) kxk = 0 ⇐⇒ x = 0, (c) kλxk = |λ| · kxk, (d) kxk + kyk ≤ kxk + kyk. Eine analoge Aussage gilt für alle Vektoren ~x, ~y und beliebige Skalare λ. 20 3.4 KAPITEL 3. MULTIPLIKATION VON N -TUPELN BZW. VEKTOREN Das Vektorprodukt Definition 3.5 (Vektorprodukt) Unter dem Vektorprodukt ~c = ~a × ~b zweier Vektoren ~a, ~b aus E 3 versteht man den (1-deutig bestimmten) Vektor ~c (aus E 3 ), so dass (a) k~ck = k~ak · k~bk · sin α, wobei α := ∠(~a, ~b) = Winkel zwischen ~a und ~b, 0 ≤ α ≤ π, (b) ~c steht senkrecht auf ~a und auf ~b, (c) ~a, ~b und ~c bilden ein Rechtssystem, d.h. dreht man den ersten Faktor ~a auf kürzestem Weg in die Richtung des zweiten Faktors ~b, so zeigt ~c = ~a × ~b in die Richtung, in die sich eine Rechtsschraube bewegen würde (Rechtschrauben- oder Korkenzieherregel). Abbildung 3.1: Vektorprodukt ~c = ~a × ~b. 3.4.1 Eigenschaften des Vektorproduktes (a) ~a × ~a = ~0, da sin α = 0. (b) ~a × ~b = ~0 ⇐⇒ ~a = ~0 oder ~b = ~0 oder ∠(~a, ~b) = 0 oder π. (c) ~a ⊥ ~b =⇒ k~a × ~bk = k~ak · k~bk. (d) ~b × ~a = −(~a × ~b). (e) (~a × ~b) 6= (~b × ~a). 3.4. DAS VEKTORPRODUKT 21 Satz 3.9 Für beliebige Vektoren ~a, ~b, ~c ∈ E 3 und jedes λ ∈ IR gilt (a) (λ~a) × ~b = ~a × (λ~b) = λ(~a × ~b), (b) ~a × (~b + ~c) = ~a × ~b + ~a + ~c, (c) (~a + ~b) × ~c = ~a × ~c + ~b × ~c. Satz 3.10 (Koordinatendarstellung des Vektorprodukts) Sind a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) die Koordinatentripel von ~a, ~b bezüglich ~i, ~j, ~k, so gilt ~a × ~b = c1~i + c2~j + c3~k, wobei c 1 = a2 b 3 − a3 b 2 c 2 = a3 b 1 − a1 b 3 c 3 = a1 b 2 − a2 b 1 Bemerkung: Betrachtet man die (formale) Matrix ~i a1 b1 A = ~j a2 b2 ~k a3 b3 so gilt (die Merkregel) ~a × ~b = det A. 22 KAPITEL 3. MULTIPLIKATION VON N -TUPELN BZW. VEKTOREN Kapitel 4 Lineare Gleichungssysteme I Definition 4.1 (Linearform, lineare Funktion) Seien a bzw. x ein festes bzw. variables n-Tupel. Die Funktion y = L(x) :=< a, x > heißt Linearform in x (in den Variablen x1 , x2 , . . . , xn ). Ist b eine Konstante, so heißt y = L(x) + b lineare Funktion in x. Satz 4.1 (Eigenschaften von Linearformen) (a) Sind L1 (x), L2 (x) Linearformen in x ∈ IRn und λ ∈ IR, so sind auch L(x) := L1 (x) + L2 (x) und L̃(x) := λL1 (x) wieder Linearformen in x. (b) Für beliebige n-Tupel x, y gilt L(x + y) = L(x) + L(y), L(λx) = λL(x). 4.1 Lineare Gleichungssysteme (LGS) Seien L1 (x), . . . , Lm (x) m Linearformen in x ∈ IRn , d.h. es gibt m · n Zahlen aik ,i = 1, 2, . . . , m, k = 1, 2, . . . , n, so daß n X Li (x) = aik xk , i = 1, 2, . . . , m. k=1 Definition 4.2 (Lineares Gleichungssystem) Sind b1 , b2 , . . . , bm gegebene, feste Zahlen, so heißt L1 (x) = b1 .. . Li (x) = bi .. . Lm (x) = bm 23 24 KAPITEL 4. LINEARE GLEICHUNGSSYSTEME I ein lineares Gleichungssystem (LGS)] in x (in den Unbekannten x1 , x2 , . . . , xn ). Die Konstanten aik heißen die Koeffizienten des LGS. Das m-Tupel b = (b1 , b2 , . . . , bm ) nennt man die rechte Seite des LGS. Ein homogenes LGS liegt dann vor, wenn bi = 0 für alle i = 1, 2, . . . , m, andernfalls spricht man von einem inhomogenen LGS. Definition 4.3 (Lösung eines linearen Gleichungssystems) Eine Lösung des LGS aus Definition 4.2 ist jedes n-Tupel x, so dass die Gleichungen Li (x) = bi , i = 1, . . . , m, simultan erfüllt sind. 4.1.1 Grundlegende Eigenschaften linearer Gleichungssysteme Satz 4.2 (Eigenschaften homogener linearer Gleichungssysteme) (a) Ein homogenes LGS hat mindestens die Lösung x = 0. (b) Sind u, v zwei Lösungen eines homogenes LGS, so sind auch u + v und λu + µv für beliebige Skalare λ, µ wieder Lösungen des homogenes LGS. Definition 4.4 (zugehöriges homogenes LGS) Ist Li (x) = bi , i = 1, . . . , m, ein inhomogenes LGS, so nennt man Li (x) = 0, i = 1, . . . , m, das zugehörige homogene LGS. Satz 4.3 (Eigenschaften inhomogener linearer Gleichungssysteme) (a) Sind x, y zwei Lösungen eines inhomogenes LGS, so ist u = x − y eine Lösung des zugehörigen homogenen LGS. (b) Ist x eine Lösung eines inhomogenes LGS und u eine Lösung des zugehörigen homogenen LGS, so ist z = x + u wieder eine Lösung des inhomogenes LGS. (c) Sei a irgendeine (feste) Lösung eines inhomogenes LGS. Jede (weitere) Lösung x des inhomogenes LGS hat dann die Gestalt x = a + u, wobei u eine Lösung des zugehörigen homogenen LGS ist. 4.1.2 Darstellung eines LGS als n-Tupel - oder Vektorgleichung Satz 4.4 Sind die sog. Spaltenvektoren a1 , a2 , . . . , an , b definiert durch b1 a1k a2k b2 ak = .. , b = .. . . amk bm so ist das LGS aus Definition 4.2 äquivalent zur n-Tupel - oder Vektorgleichung n X k=1 xk ak = b. 4.1. LINEARE GLEICHUNGSSYSTEME (LGS) 25 Daraus folgt: Satz 4.5 (Lösbarkeit von LGS) Das LGS ist genau dann lösbar, wenn die rechte Seite b eine Linearkombination der Spaltenvektoren a1 , a2 , . . . , an ist. Satz 4.6 (a) Sind die Spaltenvektoren a1 , a2 , . . . , an linear unabhängig, so hat das LGS höchstens eine Lösung x. (b) Hat das LGS eine 1-deutig bestimmte Lösung x, so sind die Spalten a1 , a2 , . . . , an linear unabhängig. 26 KAPITEL 4. LINEARE GLEICHUNGSSYSTEME I Teil II Matrizen 27 Kapitel 5 Der Matrixbegriff Definition 5.1 (Matrix) Ein rechteckiges Schema von m · n Zahlen aik , i = 1, . . . , m, k = 1, . . . , n, A = A(m,n) a11 . . . a1k . . . a1n .. .. .. . . . = ai1 . . . aik . . . ain . .. .. .. . . am1 . . . amk . . . amn heißt (m, n)-Matrix oder m × n Matrix. Die Zahlen aik heißen Elemente von A, und man schreibt auch kurz A = (aik ). Das n-Tupel ai := (ai1 , ai2 , . . . , ain ), i = 1, . . . , m, heißt i-te Zeile (i-ter Zeilenvektor) von A. Das m-Tupel ak := a1k a2k .. . amk , k = 1, 2, . . . , n, heißt k-te Spalte (k-ter Spaltenvektor) von A. Bemerkung: Zwei Matrizen A(m,n) = (aik ), B(µ,ν) = (bik ) sind genau dann gleich, wenn m = µ,n = ν und aik = bik für alle i = 1, 2, . . . , m, k = 1, . . . , n. 29 30 KAPITEL 5. DER MATRIXBEGRIFF Definition 5.2 (Vektor) Ein n-Tupel x, dargestellt in Spaltenform x= x1 x2 .. . xn heißt im folgenden ein n-Vektor oder n-Spaltenvektor. Bemerkung: Falls nicht anders vereinbart wir, werden n-Tupel in Zukunft stets als nSpaltenvektoren dargestellt! Definition 5.3 (Matrix mal n-Vektor) Sei A eine (m, n)-Matrix und x ein n-Vektor. Unter Ax versteht man den m-Vektor a11 x1 + a12 x2 + . . . + a1n xn .. .. .. . . . Ax := ai1 x1 + ai2 x2 + . . . + ain xn .. .. .. . . . am1 x1 + am2 x2 + . . . + amn xn n X x k ak . = k=1 Satz 5.1 Jedes LGS (gemäß Definition 4.2) lässt sich darstellen in der Form Ax = b, wobei die (m, n)-Matrix A die sog. Koeffizientenmatrix des LGS und der m-Vektor b die rechte Seite des LGS ist. Kapitel 6 Matrixoperationen Definition 6.1 (Addition) Unter der Summe A + B zweier (m, n)-Matrizen A = (aik ), B = (bik ) versteht man die (m, n)-Matrix A + B := (aik + bik ). Definition 6.2 (λ-faches) Unter dem λ-fachen λA, λ ∈ IR, einer (m, n)-Matrix A = (aik ) versteht man die (m, n)Matrix λA := (λaik ). Definition 6.3 (Transposition) Ist A = (aik ) eine (m, n)-Matrix, so heißt die (n, m)-Matrix A0 = AT = At := (αki ), k = 1, . . . , n, i = 1, . . . , m, mit αki := aik die zu A transponierte Matrix oder die Transponierte von A. Definition 6.4 (symmetrische Matrix) A = A(n,n) heißt symmetrisch, wenn A = A0 . Definition 6.5 (Produkt) Seien A = A(m,r) = (aij ) und B = B(r,n) = (bjk ) zwei Matrizen, so dass die Spaltenzahl r von A mit der Zeilenzahl r von B übereinstimmt. Das Produkt AB ( in dieser Reihenfolge!) ist dann definiert durch AB = C = (cik ), i = 1, . . . , m, k = 1, . . . , n, wobei cik := r X aij bjk =< ai , bk >, j=1 d.h. i-te Zeile von A mal k-te Spalte von B. 31 32 KAPITEL 6. MATRIXOPERATIONEN Satz 6.1 (Eigenschaften der Transposition) (a) (A0 )0 = A, (b) (A + B)0 = A0 + B 0 , (c) (λA)0 = λA0 für alle λ ∈ IR. Satz 6.2 Sind bk , k = 1. . . . , n, die Spalten der Matrix B, so hat das Produkt AB auch die Darstellung AB = (Ab1 , Ab2 , . . . , Abn ). Satz 6.3 (Eigenschaften der Martixmultiplikation) (a) A(BC) = (AB)C = ABC, (b) A(B + C) = AB + AC, (c) (A + B)C = AC + BC, (d) (λA)B = A(λB) = λAB für alle λ ∈ IR, (e) (AB)0 = B 0 A0 . Bemerkung: Die Matrixmultiplikation erfüllt das Kommutativgesetz AB = BA nur in Spezialfällen! Kapitel 7 Die Inverse einer Matrix Definition 7.1 (Einheitsmatrix) Die Matrix I = I(n,n) = (δik ) mit δik = 1, falls i = k und δik = 0 für i 6= k heißt (n, n)-Einheitsmatrix. Satz 7.1 Für alle x ∈ IRn und alle A = A(n,n) gilt Ix = x und AI = IA = A. Definition 7.2 (Inverse Matrix) Sei A = A(n,n) eine quadratische Matrix. Existiert eine (n, n)-Matrix X, so dass AX = XA = I, dann heißt A−1 := X die Inverse oder inverse Matrix von A. Satz 7.2 A = A(n,n) hat höchstens eine Inverse A−1 = X. Satz 7.3 Seien A, B zwei (n, n)-Matrizen mit den Inversen A−1 , B −1 . Es gilt: (a) (A−1 )−1 = A, (b) (AB)−1 = B −1 A−1 , (c) (λA)−1 = 1 −1 A , falls λ 6= 0, λ (d) (A0 )−1 = (A−1 )0 . 33 34 KAPITEL 7. DIE INVERSE EINER MATRIX Kapitel 8 Rang einer Matrix Definition 8.1 (Spaltenrang, Zeilenrang) Unter dem Spaltenrang Rgs A bzw. Zeilenrang Rgz A einer (m, n)-Matrix A versteht man die Elementzahl der größtmöglichem Mengen linear unabhängiger Spalten bzw. Zeilen von A oder kurz: die maximale Anzahl linear unabhängiger Spalten bzw. Zeilen von A. Satz 8.1 0 ≤ Rgs A ≤ n, 0 ≤ Rgz A ≤ m. Satz 8.2 Für jede Matrix A gilt Rgs A = Rgz A. Definition 8.2 (Rang) Unter dem Rang RgA einer Matrix A versteht man RgA := Rgs A = Rgz A. Satz 8.3 Für A = A(m,n) gilt stets RgA ≤ min(m, n). 35 36 KAPITEL 8. RANG EINER MATRIX 8.1 8.1.1 Berechnung des Ranges einer (m, n)-Matrix A Treppenmatrizen Definition 8.3 (Treppenmatrix) Unter einer (m, n)-Treppenmatrix T = Tr mit einer natürlichen Zahl r, 1 ≤ r ≤ min(m, n), versteht man eine Matrix der Gestalt T = t11 t12 t13 0 t22 t23 0 0 t33 .. .. .. . . . 0 0 0 0 .. . 0 .. . 0 .. . 0 0 0 . . . t1r . . . t2r . . . t3r . . . .. . . . . trr ... .. . ... t1r+1 t1r+2 t2r+1 t2r+2 t3r+1 t3r+2 .. .. . . trr+1 trr+2 0 .. . 0 .. . 0 .. . 0 0 0 . . . t1n . . . t2n . . . t3n . . . .. . . . . trn ... 0 . .. . .. ... 0 wobei t11 6= 0, t22 6= 0, . . . , trr 6= 0. Satz 8.4 Rgs Tr = Rgz Tr = r, also RgTr = r. 8.1.2 Elementare Umformung von Matrizen Definition 8.4 (Elementare Umformungen) Elementare Umformungen (e.U) einer beliebigen (m, n)-Matrix A sind folgende Operationen: I. Vertauschen zweier Zeilen der Matrix, II. Vertauschen zweier Spalten der Matrix, III. Addition des λ-fachen einer Zeile zu einer anderen Zeile der Matrix. Satz 8.5 Bei beliebigen e.U. einer Matrix A ändern sich der Rgs A, Rgz A und somit auch RgA nicht. Satz 8.6 Eine beliebige Matrix A 6= 0 kann durch (endlich viele) e.U. in eine Treppenmatrix transformiert werden. 8.1. BERECHNUNG DES RANGES EINER (M, N )-MATRIX A 8.1.3 37 Berechnung von RgA Die Berechnung von RgA erfolgt nach folgendem Verfahren: e.U. (a) A −→ Tr (gemäß Satz 8.6) (b) RgA = RgTr = r (gemäß Satz 8.4 und Satz 8.5). Folgerung aus Satz 8.2 und Satz 8.3: Satz 8.7 RgA = RgA0 . Satz 8.8 Im IRn sind n + 1 (und mehr) Vektoren stets linear abhängig! Problem: Rangkriterien für die Existenz und Eindeutigkeit einer Lösung x eines LGS Ax = b. Es sei im folgenden stets A = A(m,n) . Definition 8.5 (Erweiterte Koeffizientenmatrix) Unter der erweiterten Koeffizientenmatrix [A, b] eines LGS Ax = b versteht man die (m, n + 1)-Matrix a11 a12 . . . a1n b1 a21 a22 . . . a2n b2 [A, b] := .. .. .. .. . . . . am1 am2 . . . amn bm Satz 8.9 (Existenzsatz) Ein LGS Ax = b ist genau dann lösbar, wenn Rg[A, b] = RgA. Satz 8.10 (Eindeutigkeitssatz) (a) Ist RgA = n, so hat Ax = b höchstens eine Lösung. (b) Ist Ax = b 1-deutig lösbar, dann gilt RgA = n. Problem: Existenz der inversen Matrix. Definition 8.6 Eine (n, n)-Matrix A heißt regulär, wenn RgA = n. Satz 8.11 Falls A regulär ist, so existiert die Inverse A−1 und A−1 ist 1-deutig bestimmt. Falls A−1 existiert, so ist A regulär. 38 KAPITEL 8. RANG EINER MATRIX Kapitel 9 Lösungsverfahren für LGS (Gauß-Algorithmus) Hilfsmittel: e.U. angewendet auf [A, b]. LGS Ax = b: a11 x1 a21 x1 .. . + a12 x2 + a22 x2 .. . + . . . + a1n xn + . . . + a2n xn .. . = b1 = b2 .. . am1 x1 + am2 x2 + . . . + amn xn = bm m erweiterte Koeffizientenmatrix a11 a21 .. . am1 [A, b]: + a12 + a22 .. . + . . . + a1n + . . . + a2n .. . b1 b2 .. . + am2 + . . . + amn bm Operationen am LGS A) Vertauschen zweier Gleichungen B) Vertauschen zweier Unbekannten xk , xj mit den zugehörigen aik , aij , i = 1, . . . , m, Koeffizienten C) Addition des λ-fachen einer Gleichung zu einer anderen Gleichung . e.U. von [A, b] I.Vertauschen zweier Zeilen von [A, b] II. Vertauschen zweier Spalten der Teilmatrix A von [A, b] III. Addition des λ-fachen einer Zeilen von [A, b] zu einer anderen Zeile von [A, b] Wegen der Äquivalenz (A) ⇐⇒ (I), (B) ⇐⇒ (II), (C) ⇐⇒ (III) gilt: 39 40 KAPITEL 9. GAUSS-ALGORITHMUS Satz 9.1 Bei e.U. des Typs (I), (II), (III) der erweiterten Koeffizientenmatrix [A, b] des LGS Ax = b wird (a) [A, b] in eine (m, n + 1)-Matrix [Â, b̂] transformiert und simultan (b) das LGS Ax = b überführt in das LGS Âx̂ = b̂. (c) Die Lösungen x̂ des LGS Âx̂ = b̂ unterscheidet sich von den Lösungen x des LGS Ax = b höchstens in einer Vertauschung der Komponenten xk , k = 1, . . . , n (falls (II) verwendet wurde). 9.1 Praktische Durchführung des Lösungsverfahrens: Gauß-Algorithmus Das LGS Ax = b wird zunächst in Tableau-Form dargestellt: x1 a11 Ax = b ⇐⇒ a21 .. . x2 a12 a22 .. . . . . xn . . . a1n . . . a2n .. . b1 b2 ⇐⇒ [A, b] .. . am1 am2 . . . amn bm Stufe 1: Transformation von [A, b] mittels e.U. des Typs (I), (II), (III) in eine Matrix [Â, b̂], so dass  = Tr eine Treppenmatrix ist. Bemerkung: Die Vertauschung der Spalten von A werden auch in der 0-ten Zeile ausgeführt! x k 1 x k2 â11 â12 0 â22 .. .. . . Âx̂ = b̂ ⇐⇒ 0 0 0 0 .. .. . . 0 0 . . . xkr xkr+1 . . . â1r â1r+1 . . . â2r â2r+1 .. .. . . . . . ârr ârr+1 ... 0 0 .. .. . . ... 0 0 . . . xk n . . . â1n . . . â2r .. . b̂1 b̂2 .. . . . . ârn b̂r . . . 0 b̂r+1 .. .. . . ... 0 b̂m Fall 1 b̂i 6= 0 für ein r + 1 ≤ i ≤ m. In diesem Fall gilt nach Satz 8.4 und Satz 8.5: RgA = r < r + 1 = Rg[A, b], d.h., Ax = b ist unlösbar nach Satz 8.9. 9.1. PRAKTISCHE DURCHFÜHRUNG 41 Fall 2: b̂i = 0 für alle r + 1 ≤ i ≤ m. In diesem Fall ist Rg[A, b] = RgA = r, d.h., Ax = b ist lösbar. Hier schließt sich an Stufe 2: Transformation von [Â, b̂] mittels e.U. des Typs (III) in eine Matrix [A∗ , b∗ ], so dass D R ∗ A = 0 0 mit einer Diagonalmatrix D. x k1 x k2 a∗11 0 0 a∗22 .. .. . . 0 0 0 0 .. .. . . 0 0 . . . xkr xkr+1 . . . 0 a∗1r+1 . . . 0 a∗2r+1 .. .. . . ∗ ∗ . . . arr arr+1 ... 0 0 .. .. . . . . . xkn . . . a∗1n b∗1 . . . a∗2r b∗2 .. .. . . ∗ . . . arn b∗r ... 0 0 .. .. . . ... ... 0 0 0 0 Satz 9.2 Nach den Stufen 1 und 2 erhält man die Lösungen des LGS Ax = b (evtl. mit vertauschten Komponenten) in der Form ∗ b1 a∗1r+1 a∗1n − − a∗ a∗11 a∗11 11 . .. .. . . . . b∗ a∗ a∗ r − rr+1 − rn ∗ ∗ arr + t1 a∗rr x̂ = + . . . + t a n−r rr 0 1 0 . . .. 0 .. . .. .. 0 . 1 0 0 | {z } fehlt, falls r = RgA = n mit frei wählbaren Parametern t1 , t2 , . . . , tn−r . 42 KAPITEL 9. GAUSS-ALGORITHMUS Kapitel 10 Determinanten Determinanten det A oder |A| sind nur für quadratische Matrizen A = A(n,n) , n = 1, 2, . . ., definiert. Die Determinante det A wird wie folgt rekursiv definiert: (a) n = 1, also A = (a11 ): det A := a11 , (b) n = 2, also A = a11 a12 a21 a22 : det A := a11 a22 − a21 a12 , (c) n ≥ 3: Konstruktionsvorgang: det A(2,2) −→ det A(3,3) −→ . . . −→ det A(n−1,n−1) −→ det A(n,n) −→ . . . Unter der Voraussetzung, dass die Determinante einer beliebigen (n − 1) × (n − 1)Matrix bekannt ist, wird die Determinante einer beliebigen (n, n)-Matrix A wie folgt definiert: Definition 10.1 (Algebraisches Komplement) Das algebraische Komplement A∗ik eines Elements aik von A ist die (n − 1, n − 1)-Teilmatrix von A, die entsteht, wenn man die i-te Zeile und k-te Spalte von A weglässt. Definition 10.2 (Kofaktor, Adjunkte) Unter dem Kofaktor (der Adjunkten) eines Elements aik von A versteht man die Zahl Aik := (−1)i+k det A∗ik , i, k = 1, 2, . . . , n, wobei die Determinante nach Voraussetzung bekannt ist. 43 44 KAPITEL 10. DETERMINANTEN Satz 10.1 Für jedes Paar i, k mit 1 ≤ i, k ≤ n gilt n X n X = aiv Aiv awk Awk = α, (10.1) w=1 v=1 | {z } Summation über i-te Zeile | {z } Summation über k-te Spalte wobei α = α(A) eine feste, von i, k unabhängige Zahl ist. Definition 10.3 (Determinante) Die Determinante der n × n Matrix A ist (wegen (10.1)) definiert durch det A = |A| := α. Bemerkung: Es gilt somit: det A = det A = n P v=1 n P aiv Aiv = n P aiv (−1)i+v v=1 n P awk Awk = w=1 w=1 det A∗iv awk (−1)w+k det A∗wk . (Entwicklung nach i-ter Zeile) (Entwicklung nach k-ter Spalte) Satz 10.2 (Rechenregeln für Determinanten) (a) Beim Vertauschen zweier Spalten bzw. zweier Zeilen von A ändert sich (nur) das Vorzeichen von det A. (b) Addiert man das λ-fache einer Zeile (Spalte) von A zu einer anderen Zeile (Spalte) von A, so ändert sich det A nicht. (c) det A0 = det A. (d) det(a1 , . . . , ak−1 , u + v, ak+1 , . . . , an ) = det(a1 , . . . , ak−1 , u, ak+1 , . . . , an ) +det(a1 , . . . , ak−1 , v, ak+1 , . . . , an ) det(a1 , . . . , ak−1 , λu, ak+1 , . . . , an = λdet(a1 , . . . , ak−1 , u, ak+1 , . . . , an ) Bemerkung: Eine analoge Aussage gilt bezüglich der Zeilen von A. (e) det AB = det A · det B Folgerungen aus (a)-(e): (f) Bei e.U. von A ändert sich höchstens das Vorzeichen von det A. Genauer gilt: Ist e.U. A −→ B, dann folgt det B = (−1)ρ det A, wobei ρ die Zahl der Anwendungen der e.U. (I) oder (II) bezeichnet, siehe Definition 8.4. 10.1. CRAMERSCHE REGEL 45 (g) Sind zwei Spalten bzw. zwei Zeilen von A gleich, so gilt det A = 0. (h) det A−1 = 1 det A Satz 10.3 Existiert A−1 , so gilt det A 6= 0. Problem: Berechnung von det A durch e.U.. A = A(n,n) e.U. −→ Tr (gemäß Definition 8.3) I, II, III Nach Satz 10.2f gilt dann det A = (−1)ρ det Tr , wobei ρ der Anzahl der Vertauschungen von Zeilen (I) oder Spalten (II) entspricht. Nach Definition 10.3 ist det Tr = t11 · t22 . . . · trr · 0| · 0 ·{z. . . · 0} . {z } | fehlt, falls r=n 6= 0 Nebenbei ergibt sich: Satz 10.4 Es gilt: det A 6= 0 ⇐⇒ RgA = n ⇐⇒ A ist regulär ⇐⇒ A−1 existiert. Somit ist det A = 0 , A singulär (d.h. RgA < n), n Q ρ (−1) tkk , A regulär. k=1 10.1 Cramersche Regel zur theoretischen Lösung eines LGS Satz 10.5 (Cramersche Regel) Sei A = A(n,n) eine reguläre Matrix und b ein beliebiger n-Vektor. Dann hat das LGS Ax = b die 1-deutig bestimmte Lösung xk = det(a1 , . . . , ak−1 , b, ak+1 , . . . , an ) , k = 1, 2, . . . , n. det A 46 KAPITEL 10. DETERMINANTEN Teil III Vektorräume 47 Kapitel 11 Definition des abstrakten Vektorraumes (VR) und Übertragung von Begriffen aus dem IRn Definition 11.1 (Vektorraum) Unter einem Vektorraum (VR) oder linearen Raum versteht man eine Menge V (X, Y usw.), in der (a) je zwei Elementen x, y ∈ V in 1-deutiger Weise ein Element z = x + y, genannt die Summe von x und y, zugeordnet ist, so dass die folgenden Gesetze gelten: V1) x + y = y + x für alle x, y ∈ V , V2) (x + y) + z = x + (y + z) für alle x, y, z ∈ V , V3) es gibt eine Element θ ∈ V (oft auch mit 0 bezeichnet), so dass x + θ = x für alle x ∈ V , V4) zu jedem Element x ∈ V gibt es ein mit −x bezeichnetes Element in V , so dass x + (−x) = θ, (b) je einem Element x ∈ V und einer Zahl λ ∈ IR in 1-deutiger Weise ein Element w = λx, genannt das λ-fache von x, zugeordnet ist, so dass die folgenden Gesetze gelten: V5) λ(x + y) = λx + λy für alle x, y ∈ V und λ ∈ IR, V6) (λ1 + λ2 )x = λ1 x + λ2 x für alle λ1 , λ2 ∈ IR und x ∈ V , V7) (λ1 λ2 )x = λ1 (λ2 x) für alle λ1 , λ2 ∈ IR und x ∈ V , V8) 1x = x für alle x ∈ V . 49 50 KAPITEL 11. VEKTORRAUMDEFINITION Bemerkung: Die Elemente x ∈ V heißen Punkte oder Vektoren. Satz 11.1 (a) Durch (V1)-(V4) ist θ, die Null oder das Nullelement von V , sowie −x, das Negative von x, 1-deutig bestimmt. (b) λθ = θ für alle λ ∈ IR. (c) λx = θ ⇐⇒ λ = 0 oder x = θ. (d) −(λx) = (−λ)x = λ(−x) für alle λ ∈ IR, x ∈ V . (e) Bei der Addition und beim λ-fachen gelten dieselben Rechenregeln wie in IR. Definition 11.2 (Differenz) Die Differenz x − y zweier Elemente x, y ∈ V ist definiert durch x − y := x + (−y). Beispiel: (a) V = IRn , (b) V = Mm,n := Raum der (m, n)-Matrizen, (c) V = Pn := Raum aller Polynome höchstens n-ten Grades. Definition 11.3 (Linearkombination) Sind x1 , x2 , . . . , xr beliebige Elemente aus V und λ1 , λ2 , . . . , λr reelle Zahlen, so heißt der r X Vektor y = λk xk Linearkombination der Vektoren x1 , x2 , . . . , xr mit den Koeffizienk=1 ten λ1 , λ2 , . . . , λr . Definition 11.4 (Lineare Abhängigkeit) Vektoren x1 , x2 , . . . , xr heißen: (a) linear unabhängig, wenn r X λk xk = θ =⇒ λ1 = λ2 = . . . = λr = 0, k=1 (b) linear abhängig, wenn Zahlen λ̄1 , . . . , λ̄r existieren, so dass λ̄k0 6= 0 für mindestens r X ein 1 ≤ k0 ≤ r und λ̄k xk = θ. k=1 Definition 11.5 (Unterraum) Sei V ein VR und U eine Teilmenge von V . U heißt Unterraum oder Teilraum von V , wenn 51 (a) θ ∈ U , (b) x, y ∈ U =⇒ x + y ∈ U , (c) x ∈ U, λ ∈ IR =⇒ λx ∈ U . Satz 11.2 Jeder Unterraum U von V erfüllt die Axiome (V1)-(V8), ist also selbst ein Vektorraum. Satz 11.3 Die Lösungsmenge {x ∈ IRn : Ax = 0} eines homogenen LGS ist ein Unterraum des IRn . Satz 11.4 {Ax : x ∈ IRn } ist ein Unterraum des IRm , falls A = A(m,n) . Satz 11.5 Seien x1 , x2 , . . . , xr beliebige Elemente eines VR V . Die Menge [{x1 , . . . , xr }] aller Linearkombinationen von x1 , x2 , . . . , xr ist ein Unterraum von V und zwar der kleinste, der x1 , . . . , xr enthält. Bemerkung: [{x1 , . . . , xr }] heißt der von den Vektoren x1 . . . , xr (in V ) aufgespannte oder erzeugte Unterraum von V . Definition 11.6 (Endlichdimensionaler Vektorraum) Ein VR V heißt endlichdimensional, wenn er von endlich vielen Vektoren x1 , x2 , . . . , xr aus V aufgespannt wird. Ein nicht endlichdimensionaler VR heißt unendlichdimensional. Definition 11.7 (Basis) Unter einer Basis eines endlichdimensionalen VR V versteht man (endlich viele, feste) Vektoren b1 , . . . , bn aus V , so dass gilt: (a) b1 , b2 , . . . , bn sind linear unabhängig, (b) [{b1 , b2 , . . . , bn }] = V . Satz 11.6 Ist b1 , b2 , . . . , bn eine Basis von V , so hat jedes x ∈ V eine Darstellung x= n X λk x k k=1 mit 1-deutig bestimmten Zahlen λ1 , . . . , λn . Bemerkung: Die Koeffizienten λk , k = 1, . . . , n, heißen die Koordinaten von x bezüglich der Basis b1 , b2 . . . , bn . Satz 11.7 (a) Jeder endlichdimensionaler VR V 6= {θ} hat eine Basis. 52 KAPITEL 11. VEKTORRAUMDEFINITION (b) Sind b1 , . . . , bm und c1 , . . . , cn zwei Basen eines endlichdimensionalen VR, so gilt m = n, d.h. die Anzahl der Elemente einer Basis ist 1-deutig bestimmt. Definition 11.8 (Dimension) Die nach Satz 11.7 1-deutig bestimmte Anzahl der Vektoren einer Basis eines endlichdimensionalen VR V heißt Dimension, in Zeichen dim V , von V . 11.1 Dimensionsberechnung Satz 11.8 Seien x1 , x2 , . . . , xn , xn+1 Vektoren eines VR V , so dass x1 , x2 , . . . , xn linear unabhängig und x1 , x2 , . . . , xn , xn+1 linear abhängig sind. Dann ist xn+1 eine Linearkombination von x1 , . . . , xn . Satz 11.9 Seien a1 , a2 , . . . , an gegebene Elemente aus IRm und U = [{a1 , . . . , an }] der von ihnen in IRm aufgespannte Unterraum. Dann gilt dim U = Rg(a1 , a2 , . . . , an ). 11.2 Berechnung einer Basis von U 1 2 ... n a1 a2 . . . an k1 . . . kr kr+1 α11 ∗ ∗ .. . . . ∗ e.U. . −→ 0 . . . αrr I, II, III 0 ... 0 0 .. . . .. .. . . . . 0 ... 0 0 | {z Treppenmatrix . . . kn ∗ ... .. . ... Tr 0 .. . 0 } Bemerkung: Die e.U. des Typs II werden auch in der 0-ten Zeile der Indexzeile ausgeführt! Satz 11.10 Mit den obigen Bezeichnungen ist {ak1 , . . . , akr } eine Basis von U = [{a1 , . . . , an }]. Definition 11.9 (Summe von Unterräumen) Sind U, V zwei Unterräume eines Vektorraumes X, so heißt U +V := {u+v : u ∈ U, v ∈ V } die Summe von U und V . Satz 11.11 Sind U, V zwei Unterräume eines Vektorraumes X, so sind U ∩ V und U + V wieder Unterräume von X. 11.3. BERECHNUNG VON ORTHONORMALBASEN 53 Satz 11.12 (Dimensionssatz I) Es gilt dim U + dim V = dim(U + V ) + dim(U ∩ V ) für je zwei Unterräume U, V eines endlichdimensionalen linearen Raumes X. Definition 11.10 (Kern) Sei A = Am,n . Unter dem Kern von A, in Zeichen KernA, versteht man den durch A := {x ∈ IRn : Ax = 0} definierten Unterraum des IRn . Satz 11.13 (Dimensionssatz II) Für jede (m, n)-Matrix A gilt n = RgA + dim(KernA). 11.3 Berechnung von Orthonormalbasen Gegeben sei ein beliebiger Unterraum V des IRn mit dim V = r ≤ n. Definition 11.11 (Orthonormalbasis) Eine Basis u1 , u2 , . . . , ur von V heißt Orthonormalbasis, wenn u1 , . . . , ur auch ein Orthonormalsystem, siehe Definition 3.3, ist. 11.3.1 Bedeutung von Orthonormalbasen Ist u1 , . . . , ur eine Orthonormalbasis von V , so lassen sich die Koordinaten λ1 , λ2 , . . . , λr eines Vektors x ∈ V bez. dieser Basis berechnen durch λk =< x, uk >, k = 1, 2, . . . , r. 11.3.2 Konstruktion einer Orthonormalbasis von V aus einer beliebigen Basis b1 , . . . , br von V Definition 11.12 (Orthonormalisierungsverfahren von E. Schmidt) Für eine beliebige Basis b1 , . . . , br von V seien die Vektoren u1 , u2 , . . . , ur wie folgt definiert: b1 kb1 k b2 − < b2 , u1 = kb2 − < b2 , u1 b3 − < b3 , u1 = kb3 − < b3 , u1 .. . u1 = u2 u3 > u1 > u1 k > u1 − < b3 , u2 > u2 > u1 − < b3 , u2 > u2 k 54 KAPITEL 11. VEKTORRAUMDEFINITION bj − uj = kbj − j−1 P i=1 j−1 P < bj , ui > ui < bj , ui > ui k i=1 .. . br − ur = kbr − r−1 P i=1 r−1 P < br , ui > ui . < br , ui > ui k i=1 Satz 11.14 Ist b1 , . . . , br eine beliebige Basis des r-dim. Teilraumes V von IRn , so bilden die durch Definition 11.12 festgelegten Vektoren u1 , . . . , ur eine Orthonormalbasis von V . Kapitel 12 Lineare Abbildungen (Transformationen) Definition 12.1 (Lineare Abbildung) X, Y seien zwei lineare Räume. Eine Abbildung f : X 7→ Y heißt linear, wenn (a) f (x + u) = f (x) + f (u) für alle x, u ∈ X, (b) f (λx) = λf (x) für alle x ∈ X und λ ∈ IR. Satz 12.1 Für jede lineare Abbildung f : X 7→ Y gilt f (θX ) = θY . Satz 12.2 Ist A eine gegebene (m, n)-Matrix, dann wird durch f (x) := Ax eine lineare Abbildung f : IRn 7→ IRm definiert. Satz 12.3 Sei X ein endlichdimensionaler VR mit Basis b1 , . . . , bn . Ferner sei f : X 7→ Y eine lineare Abbildung von X in einen beliebigen linearen Raum Y . Dann gilt f (x) = n X λk f (bk ) für alle x ∈ X, k=1 wobei λ1 , . . . , λn die (1-deutig bestimmten) Koordinaten von x bezüglich der Basis b1 , . . . , bn von X sind. 12.1 Matrixdarstellung linearer Abbildungen Sei X bzw. Y ein n- bzw. m-dimensionaler Vektorraum und f : X 7→ Y eine lineare Abbildung. Ferner sei B = {b1 , . . . , bn } bzw. D = {d1 , . . . , dm } eine Basis von X bzw. Y . 55 56 KAPITEL 12. LINEARE ABBILDUNGEN (TRANSFORMATIONEN) Definition 12.2 (Koordinatentupel des Urbilds) Für jedes x ∈ X bezeichne λ1 λ2 x = xB := .. . λn das Koordinaten n-Tupel von x bez. der Basis B von X. Definition 12.3 (Koordinatentupel des Bildes) Für jedes Bild f (x), x ∈ X, sei a1 a2 f (x)D := .. . am das Koordinaten m-Tupel von f (x)(∈ Y ) bez. der Basis D in Y . Definition 12.4 (Matrix einer linearen Abbildung) Unter der Matrix Af der linearen Abbildung f : X 7→ Y bez. der Basen B, D der Räume X bzw. Y versteht man die (m, n)-Matrix Af = Af (B, D) := (f (b1 )D , f (b2 )D , . . . , f (bn )D ). Satz 12.4 Mit den obigen Bezeichnungen und Definitionen gilt: f (x)D = Af xB = Af (B, D)xB . Bemerkung: Im Spezialfall X = IRn , Y = IRm mit den kanonischen Basen B = {e1 , . . . , en }, bzw. D = {1 , . . . , m } gilt Af = (f (e1 ), . . . , f (en )). 12.2 Produkte linearer Abbildungen Satz 12.5 Sind f : X 7→ Y, g : Y 7→ Z lineare Abbildungen zwischen linearen Räumen X, Y, Z, so ist das durch (g◦f )(x) := g(f (x)) definierte Produkt g◦f eine lineare Abbildung von X in Z. Satz 12.6 Sind X, Y, Z endlichdimensionale lineare Räume, dann gilt Ag◦f = Ag Af , falls bei der Darstellung von f und g dieselbe Basis von Y benutzt wird. Kapitel 13 BasistransformationenKoordinatenformationen Gegeben sei ein n-dimensionaler VR V mit zwei verschiedenen Basen B = {b1 , b2 , . . . , bn } und D = {d1 , d2 , . . . , dn }. Mit xB bzw. xD bezeichnen wir das 1-deutig bestimmte Koordinaten n-Tupel eines Elements x aus V bez. der Basis B bzw. D. Problem: Welche Beziehung besteht zwischen xB und xD ? Definition 13.1 (Transformationsmatrix) Unter der zur Basistransformation B 7→ D gehörenden Transformationsmatrix T = TB,D versteht man die n × n Matrix T = TB,D := (d1 B , d2 B , . . . , dk B , . . . , dn B ), d.h., die k-te Spalte von T ist das Koordinaten n-Tupel des k-ten Basisvektors dk von D bez. der alten Basis B. Satz 13.1 Es gilt xB = T xD (LGS für xD ). Satz 13.2 Die Transformationsmatrix T ist regulär. Satz 13.3 (a) T −1 existiert, (b) xD = T −1 xB . Definition 13.2 (Orthogonale Matrix) Eine reguläre Matrix P heißt orthogonal, wenn P −1 = P 0 , d.h., P P 0 = P 0 P = I. Satz 13.4 Eine Matrix P ist genau dann orthogonal, wenn die Spalten (bzw. die Zeilen) von P ein Orthogonalsystem bilden. 57 58 KAPITEL 13. BASISTRANSFORMATIONEN-KOORDINATENFORMATIONEN Bemerkung: Transformationsmatrizen sind nicht notwendigerweise orthogonal. Satz 13.5 Sei B = {e1 , e2 , . . . , en } die kanonische Basis von V = IRn und D = {d1 , d2 , . . . , dn } eine beliebige Orthogonalbasis. Dann ist die Transformationsmatrix T für B 7→ D gegeben durch T = TB,D = (d1 , d2 , . . . , dn ) und T ist orthogonal. 13.1 Basistransformationen und lineare Abbildungen Gegeben seinen n- bzw. m-dimensonale Vektorräume X bzw. Y mit einer linearen Abbildung f : X 7→ Y . Ist B = {b1 , . . . , bn } bzw. D = {d1 , . . . , dm } eine Basis von X bzw. Y , so hat f gemäß Abschnitt 12 die Matrixdarstellung Af = Af (B, D) := (f (b1 )D , f (b2 )D , . . . , f (bn )D ) Problem: Wie ändert sich Af unter der Basistransformation B 7→ B̃, D 7→ D̃? Satz 13.6 (B fest, D 7→ D̃) Sei Q = QDD̃ = (d˜1 D , d˜2 D , . . . , d˜m D ) die m × m Transformationsmatrix für D 7→ D̃. Dann gilt Af (B, D̃) = Q−1 Af (B, D). Satz 13.7 (D fest, B 7→ B̃) Sei P = PB B̃ die n × n Transformationsmatrix für B 7→ B̃. Dann gilt Af (B̃, D) = Af (B, D)P. Satz 13.8 (B 7→ B̃ und D 7→ D̃) Sei Q = QDD̃ = (d˜1 D , d˜2 D , . . . , d˜m D ) die m × m Transformationsmatrix für D 7→ D̃ und P = PB B̃ die n × n Transformationsmatrix für B 7→ B̃. Dann gilt Af (B̃, D̃) = Q−1 Af (B, D)P. Satz 13.9 (Spezialfall X = Y und D = B, D̃ = B̃) Sei f : X 7→ X eine lineare Abbildung und B 7→ B̃ eine Transformation der Basis von X. Dann gilt Af (B̃) = Q−1 Af (B)Q mit Q = (b̃1 B , . . . , b̃n B ), wobei Af (B) := Af (B, B), Af (B̃) := Af (B̃, B̃). 13.1. BASISTRANSFORMATIONEN UND LINEARE ABBILDUNGEN 59 Beispiel: (a) Drehung des Koordinatensystems im IR2 Drehungen des Koordinatensystems im IR2 um den Winkel ϕ werden beschrieben durch die orthogonale Transformationsmatrix cos ϕ − sin ϕ T = . sin ϕ cos ϕ (b) Drehung des Koordinatensystems im IR3 Abbildung 13.1: s =Schnittgerade der {x, y}-Ebene und der {x̃, ỹ}-Ebene. Auf s wird die positive Richtung so gewählt, dass die z-, z̃- und s-Achse ein Rechtssystem bilden. Die Eulerschen Winkel ϑ, ψ, ϕ sind dann wie folgt definiert: i) Nutationswinkel ϑ zwischen den positiven Richtungen der z- und der z̃-Achse: 0≤ϑ≤π ii) Präzessionswinkel ψ zwischen der x-Achse und der s-Achse. Die Messung von ψ erfolgt im mathematisch positiven Sinn der (x, y)-Ebene: 0 ≤ ψ < 2π. iii) Winkel ϕ der reinen Drehung zwischen der s-Achse und der x̃-Achse. Die Messung von ϕ erfolgt im mathematisch positiven Sinn der {x̃, ỹ}-Ebene: 0 ≤ ϕ < 2π Der Übergang vom {x, y, z}-System zum {x̃, ỹ, z̃}-System wird durch drei aufeinanderfolgende Drehungen erreicht: 60 KAPITEL 13. BASISTRANSFORMATIONEN-KOORDINATENFORMATIONEN Mit den Abkürzungen c1 = cos ψ, c2 = cos ϑ, c3 = cos ϕ s1 = sin ψ, c2 = cos ϑ, s3 = sin ϕ 13.1. BASISTRANSFORMATIONEN UND LINEARE ABBILDUNGEN 61 lautet dann die orthogonale Transformationsmatrix T für {x, y, z} 7→ {x̃, ỹ, z̃}: c1 c3 − s1 c2 s3 −c1 s3 − s1 c2 c3 s1 s2 T = s1 c3 + c1 c2 s3 −s1 s3 + c1 c2 c3 −c1 s2 s2 s3 s2 c 3 c2 Bemerkung: Für ϑ = 0, π fallen die {x, y}- und {x̃, ỹ}-Ebene zusammen, und die Knotenlinie s ist nicht erklärt. In diesem Fall definiert man die s-Achse als identisch mit der x-Achse; dann ist also ψ = 0. 62 KAPITEL 13. BASISTRANSFORMATIONEN-KOORDINATENFORMATIONEN Teil IV Eigenwerte und Eigenvektoren, Quadratische Formen 63 Kapitel 14 Eigenwerte und Eigenvektoren, Quadratische Formen 14.1 Eigenwerte und Eigenvektoren Sei A eine (n, n)-Matrix und I die (n, n)-Einheitsmatrix. Definition 14.1 (Eigenwert, Eigenvektor) Jede Zahl λ, zu der ein n-Vektor x 6= 0 existiert, so dass Ax = λx ⇐⇒ (A − λI)x = 0, heißt Eigenwert von A. Der Vektor x heißt dann zum Eigenwert λ gehörender Eigenvektor. Satz 14.1 Eine Zahl λ ist genau dann ein Eigenwert von A, falls |A − λI| = det(A − λI) = 0. Satz 14.2 p(λ) := det(A − λI) ist ein Polynom n-ten Grades in λ. Es gilt p(λ) = b0 + b1 (−λ) + b2 (−λ)2 + · · · + bn (−λ)n , wobei b0 = |A| = det A und bn = 1. Definition 14.2 (Charakteristisches Polynom) p(λ) heißt charakteristisches Polynom der Matrix A. Bemerkung: λ ist genau dann ein Eigenwert von A, wenn λ eine Nullstelle des charakteristischen Polynoms p(λ) von A ist. 65 66 KAPITEL 14. EIGENWERTE,EIGENVEKTOREN,QUADRATISCHE FORMEN Satz 14.3 (Fundamentalsatz der Algebra) Zum charakteristischen Polynom p(λ) von A gibt es n reelle oder komplexe Zahlen λ1 , λ2 , . . . , λn , die teilweise gleich sein können, so dass p(λ) = (λ1 − λ)(λ2 − λ) · . . . · (λn − λ). Bemerkung: λ1 , λ2 , . . . , λn sind die Nullstellen von p(λ) und damit die Eigenwerte von A. Ferner gilt: n Y λk = b0 = |A| = det A. k=1 Definition 14.3 (Mehrfache Eigenwerte) λ1 heißt ein r-facher Eigenwert von A, wenn p(x) = (λ1 − λ)r q(λ) mit q(λ1 ) 6= 0. 14.2 Berechnung der Eigenvektoren zu einem Eigenwert Nach Definition 14.1 ist ein Eigenvektor x zum Eigenwert λ charakterisiert durch die Bedingungen (A − λI)x = 0 (homogenes LGS für x), wobei x 6= 0. Definition 14.4 (Eigenraum) Die Lösungsmenge E(λ) := {x : (A − λI)x = 0} des LGS (A − λI)x = 0 heißt der Eigenraum zum Eigenwert λ von A. Bemerkung: (a) E(λ) ist ein Unterraum des IRn . (b) Es gilt E(λ) = {0}∪ Menge der Eigenvektoren zum Eigenwert λ. 14.3 Eigenwerte symmetrischer Matrizen Satz 14.4 Eine symmetrische Matrix hat nur reelle Eigenwerte. Satz 14.5 Sind λ1 6= λ2 zwei verschiedene Eigenwerte einer symmetrischen Matrix A und x1 , x2 Eigenvektoren zu λ1 bzw. λ2 , dann gilt x1 ⊥ x2 . Satz 14.6 Ist λ ein r-facher Eigenwert der symmetrischen Matrix A, dann gibt es zu λ genau r linear unabhängige Eigenvektoren, d.h. dim E(λ) = r. 14.3. EIGENWERTE SYMMETRISCHER MATRIZEN 67 Satz 14.7 Ist A eine symmetrische n×n Matrix, dann gibt es zu den Eigenwerten λ1 , λ2 , . . . , λn von A n linear unabhängige Eigenvektoren u1 ((zu λ1 ), u2 (zu λn ), d.h., es gibt eine Basis des IRn , bestehend aus Eigenvektoren zur Matrix A. Bemerkung: Wendet man auf u1 , u2 , . . . , un das Orthonormalisierungsverfahren von E. Schmidt an, so erhält man eine Orthonormalbasis des IRn bestehend aus Eigenvektoren p1 , p2 , . . . , pn von A. 68 KAPITEL 14. EIGENWERTE,EIGENVEKTOREN,QUADRATISCHE FORMEN Kapitel 15 Diagonalisierung symmetrischer Matrizen-Hauptachsentransformation Sei A eine symmetrische Matrix und p1 , p2 , . . . , pn eine Orthonormalbasis des IRn bestehend aus Eigenvektoren p1 (zu λ1 ), . . . , pn (zu λn ) zu den Eigenwerten λ1 , . . . , λn von A. Ferner sei P := (p1 , p2 , . . . , pn ) die (n, n)-Matrix mit den Spalten p1 , p2 , . . . , pn . Dann gilt: (a) P ist orthogonal, d.h. P 0 P = P P 0 = I, also P −1 = P 0 , λ1 0 λ2 (b) P 0 AP = D = (Diagonalisierung von A). ... 0 λn Satz 15.1 Sei A eine symmetrische (n, n)-Matrix mit den Eigenwerten λ1 , λ2 , . . . , λn . Ferner seien p1 , p2 , . . . , pn Eigenvektoren zu λ1 , λ2 , . . . , λn , die eine Orthonormalbasis des IRn bilden. Dann gilt λ1 0 λ2 A = P DP 0 mit P := (p1 , p2 , . . . , pn ) und D := . .. . 0 λn 15.1 Hauptachsentransformation quadratischer Formen Sei A eine symmetrische (n, n)-Matrix. 69 70 KAPITEL 15. DIAGONALISIERUNG Definition 15.1 (Quadratische Form) Die Funktion Q = Q(x1 , . . . , xn ) = Q(x) := x0 Ax in n Variablen x1 , . . . , xn ∈ IR heißt quadratische Form in x (in den Variablen x1 , . . . , xn ). Seien nun p1 , p2 , . . . , pn eine Orthonormalbasis des IRn bestehend aus Eigenvektoren zu den Eigenwerten λ1 , λ2 , . . . , λn von A. Ferner sei P := (p1 , p2 , . . . , pn ). 15.1.1 Basistransformation (Hauptachsentransformation) B = {e1 , e2 , . . . , en } −→ D = {d1 , d2 , . . . , dn } := {p1 , p2 , . . . , pn }. Gemäß Satz 13.5 gilt für die Transformationsmatrix T = TB,D = (d1 , d2 , . . . , dn ) = (p1 , p2 , . . . , pn ) = P. Nach Satz 13.3 gilt also für das Koordinaten n-Tupel y = (y1 , . . . , yn ), eines Vektors x ∈ IRn bez. der Basis D = {p1 , p2 , . . . , pn } y := xD = T −1 xB = P −1 x = P 0 x. Satz 15.2 Mit den obigen Bezeichnungen gilt: 0 Q(x) = x Ax = n X λk yk2 (Hauptachsentransformation von Q(x)). k=1 Bemerkung: Die durch die Vektoren p1 , p2 , . . . , pn definieren Achsen im IRn heißen die Hauptachsen der quadratischen Form Q(x). 15.2 Definitheitskriterien für quadratische Formen Definition 15.2 (Definitheit) Sei A = A(n,n) eine symmetrische Matrix und Q(x) = x0 Ax die zugehörige quadratische Form. Q = Q(x) (bzw. die Matrix A selbst) heißt (a) positiv semidefinit, wenn Q(x) ≥ 0 für alle x ∈ IRn , (b) positiv definit, wenn Q(x) > 0 für alle x 6= 0, (c) negativ semidefinit, wenn Q(x) ≤ 0 für alle x ∈ IRn , (d) negativ definit, wenn Q(x) < 0 für alle x 6= 0, (e) indefinit, wenn Q(x) sowohl positive als auch negative Werte annimmt. 15.2. DEFINITHEITSKRITERIEN FÜR QUADRATISCHE FORMEN 71 Satz 15.3 Sei A eine symmetrische Matrix und Q(x) = x0 Ax. Es gilt: Q = Q(x) bzw. A ist (a) positiv semidefinit ⇐⇒ alle E.W. (von A) λi ≥ 0 (b) positiv definit ⇐⇒ alle E.W. λi > 0 (c) negativ semidefinit ⇐⇒ alle E.W. λi ≤ 0 (d) negativ definit ⇐⇒ alle E.W. λi < 0 (e) indefinit ⇐⇒ A hat sowohl positive als auch negative E.W Satz 15.4 Sei A eine symmetrische Matrix und Q(x) = x0 Ax. Q(x) ist genau dann positiv definit, wenn alle Hauptabschnittsdeterminanten von A a11 a12 a13 a11 a12 a11 , det , det a21 a22 a23 , . . . , det A a21 a22 a31 a32 a33 positiv sind. 72 KAPITEL 15. DIAGONALISIERUNG Kapitel 16 Norm einer Matrix Im folgenden bezeichnet A stets eine m × n Matrix. Definition 16.1 (Euklidische Norm, Operatornorm) (a) Euklidische Norm von A kAkE := m X n X a2ik !1 2 i=1 k=1 (A wird hier als m · n-Tupel aufgefasst). (b) Operatornorm von A kAkop := sup kAxk kxk=1 = sup kAxk = sup kxk≤1 x6=0 kAxk kxk (A wird hier als linearer Operator x 7→ Ax aufgefasst). 16.1 Eigenschaften der Operatornorm Satz 16.1 (a) kAxk ≤ kAkop · kxk für alle x ∈ IRn . (b) kAkop ≥ 0, kAkop = 0 ⇐⇒ A = 0 (=Nullmatrix) kλAkop = |λ| · kAkop kA + Bkop ≤ kAkop + kBkop Bemerkung: Die Operatornorm erfüllt somit dieselben Eigenschaften wie die Norm von n-Tupeln (Satz 3.8). 73 74 KAPITEL 16. NORM EINER MATRIX (c) Sind A, B zwei beliebige Matrizen, so dass AB definiert ist, dann gilt kABkop ≤ kAkop · kBkop . (d) Ist A eine reguläre (n, n)-Matrix und c eine positive Zahl, so dass kAxk ≥ ckxk für 1 alle x ∈ IRn , dann gilt kA−1 kop ≤ . c (e) kAkop ≤ kAkE . 16.2 Berechnung der Operatornorm für symmetrische Matrizen Satz 16.2 Sei A = A(n,n) eine symmetrische Matrix mit den Eigenwerten λ1 , λ2 , . . . , λn . Dann gilt (a) kAkop = sup kAxk = max |λk |, kxk=1 1≤k≤n (b) inf kAxk = min |λk |. kxk=1 1≤k≤n Bemerkung: Aus Satz 16.2 folgt: Sei A eine symmetrische (n, n)-Matrix. Für alle x ∈ IRn gilt dann kxk · min |λk | ≤ kAxk ≤ kxk · max |λk |. 1≤k≤n 1≤k≤n