Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München Höhere Mathematik I (Vorlesungsskript) Univ. Prof. Dr. sc. math. K. Marti 2 Inhaltsverzeichnis I. Vektoren im Rn 1. Der geometrische Vektorbegriff — Vektoralgebra 1.1. Skalare Größen oder Skalare . . . . . . . . . . . . . . 1.2. Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Geometrische Darstellung von Vektoren . . . . 1.2.2. Addition von Vektoren . . . . . . . . . . . . . 1.2.3. Multiplikation eines Vektors mit einem Skalar 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 9 9 12 14 2. Zahlen-n-Tupel 17 2.1. Darstellung eines Vektors ~x im kartesischen Koordinatensystem . . 17 2.2. Zahlen–n–Tupel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3. Multiplikation von n–Tupel bzw. Vektoren 3.1. Das Skalarprodukt . . . . . . . . . . . . . . . . . . . . 3.1.1. Das Skalarprodukt im Raum E 3 der Vektoren ~x, 3.1.2. Das Skalarprodukt im Rn . . . . . . . . . . . . 3.2. Die Norm (Betrag) eines n–Tuppels . . . . . . . . . . . 3.3. Die Schwarzsche Ungleichung . . . . . . . . . . . . . . 3.4. Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . 3.4.1. Eigenschaften des Vektorproduktes . . . . . . . . . . . ~y , . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 25 25 29 31 31 33 34 4. Lineare Gleichungssysteme (LGS) — Teil I 37 4.1. Lineare Gleichungssysteme (LGS) . . . . . . . . . . . . . . . . . . . 38 4.1.1. Grundlegende Eigenschaften linearer Gleichungssysteme . . . 40 4.1.2. Darstellung eines LGS als n-Tupel - oder Vektorgleichung . . 44 II. Matrizen 45 5. Der Matrizenbegriff 47 3 Inhaltsverzeichnis 6. Operationen mit Matrizen 51 7. Die Inverse einer Matrix 55 8. Rang von Matrizen 8.1. Berechnung des Ranges einer (m, n)-Matrix A 8.1.1. Treppenmatrizen . . . . . . . . . . . . 8.1.2. Elementare Umformung von Matrizen . 8.1.3. Berechnung von RgA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 60 60 61 62 9. Lösungsverfahren für LGS 69 9.1. Beschreibung der praktischen Durchführung des Lösungsverfahrens: Gauss–Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 10.Determinanten 77 10.1. Cramersche Regel zur theoretischen Lösung von LGS: . . . . . . . . 82 III. Vektorräume 11.Definition des abstrakten Vektorraumes (VR) Begriffen aus dem Rn 11.1. Dimensionsberechnung . . . . . . . . . . . . 11.2. Berechnung einer Basis von U . . . . . . . . 11.3. Berechnung von Orthonormalbasen . . . . . 11.3.1. Bedeutung von Orthonormalbasen . . 11.3.2. Konstruktion einer Orthonormalbasis 83 und Übertragung von . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 92 93 97 98 98 12.Lineare Abbildungen 103 12.1. Matrixdarstellung linearer Abbildungen . . . . . . . . . . . . . . . . 104 12.2. Produkte linearer Abbildungen . . . . . . . . . . . . . . . . . . . . 106 13.Basis– und Koordinatentransformationen 13.1. Basistransformationen und lineare Abbildungen 13.1.1. Transf. der Basis von Y . . . . . . . . . 13.1.2. Transf. der Basis von X . . . . . . . . . 13.1.3. Basistransf. von X und Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV. Eigenwerte und Eigenvektoren, Quadratische Formen 4 . . . . . . . . 111 . 115 . 116 . 117 . 118 129 Inhaltsverzeichnis 14.Eigenwerte, Eigenvektoren, Quadratische Formen 131 14.1. Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . 131 14.2. Berechnung der Eigenvektoren zu einem Eigenwert . . . . . . . . . 133 14.3. Eigenwerte symmetrischer Matrizen . . . . . . . . . . . . . . . . . . 134 15.Hauptachsentransformation 139 15.1. Hauptachsentransformation quadratischer Formen . . . . . . . . . . 140 15.1.1. Basistransformation (Hauptachsentransformation) . . . . . . 141 15.2. Definitheitskriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 16.Norm einer Matrix 147 16.1. Eigenschaften der Operatornorm . . . . . . . . . . . . . . . . . . . . 148 16.2. Berechnung der Operatornorm . . . . . . . . . . . . . . . . . . . . . 150 Index 152 5 Inhaltsverzeichnis 6 Teil I. Vektoren im Rn 7 1. Der geometrische Vektorbegriff — Vektoralgebra Zur Beschreibung und theoretischen Erfassung physikalisch – technischer Beziehungen und Vorgänge (Prozesse) mit Hilfe mathematischer Modelle benötigt man mathematische Begriffe, die alle wesentlichen Eigenschaften der betrachteten physikalischen Größen eindeutig erfassen. Betrachtet man Größen, die in Naturwissenschaft, Technik und Ökonomie vorkommen, so findet man Skalare und Vektoren. 1.1. Skalare Größen oder Skalare Skalare Größen oder Skalare sind z.B. Länge, Masse, Zeit, Temperatur, Energie, Leitvermögen, Elektrizitätsmenge u.s.w.. Nach Festlegung einer Maßeinheit sind skalare Größen eindeutig bestimmt durch eine Maßzahl λ. Maßzahlen sind reelle Zahlen. Skalare lassen sich also auf der Zahlengeraden darstellen. Die reelle Zahl λ gibt die Quantität der skalaren Größe an, die Maßeinheit gibt die qualitativen Merkmale der skalaren Größen an. Einheit 0 1 λ Zahlengerade 1.2. Vektoren Vektoren sind z.B. Kraft, Geschwindigkeit, Beschleunigung, Impuls, Strömung u.s.w.. Größen, zu deren Beschreibung neben einer skalaren Größenangabe (Abmessung oder Betrag) zusätzlich eine Richtungsangabe erforderlich ist, heißen Vektoren. 1.2.1. Geometrische Darstellung von Vektoren Vektoren werden durch gerichtete Strecken dargestellt, wobei die Länge der gerichteten Strecke die Größenordnung (Abmessung oder Betrag) des Vektors angibt. 1. Der geometrische Vektorbegriff — Vektoralgebra Definition 1.1 (gerichtete Strecke) Für zwei beliebige Punkte P1 , P2 im Raum −→ (Ebene, Geraden) sei P1 P2 die von P1 nach P2 gerichtete Strecke (der von P1 nach P2 weisende Pfeil). −→ 1 P2 P1 P2 P1 −→ P1 P2 ist eindeutig bestimmt durch: • Anfangs- und Endpunkt P1 , P2 oder • Anfangspunkt P1 und Länge und Richtung des Pfeils Zum Vektorbegriff kommt man durch Betrachtung der gerichteten Strecken, die äquivalent“ sind: ” −→ Definition 1.2 (Äquivalent gerichtete Strecken) Zwei gerichtete Strecken P1 P2 , −→ −→ −→ Q1 Q2 nennt man äquivalent, in Zeichen P1 P2 ∼ Q1 Q2 , wenn sie dieselbe Länge und dieselbe Richtung haben. Äquivalente Strecken können also durch Parallelverschiebung ineinander übergeführt werden. Q0 `1 @````` `` P @ Q P20 `````` 1 2 Q0000 ` @ 1 1XXX 1 Q0 @ @ X @ @ R @ 2 XXX `` 00 @ P 0 @ X ` ``` X @ P 000 Q1 1 X Q000 ``` X X P1 @ @ 2 @ ( X 1 ( X `( @ XX 1 @ ` (( ` @ @ ( @ `@ ( X ( ` R @ R @ ` XX@ (000 00 Q0000 ((P @ @ X( 2 @P2 ( X ( X ( Q 1 ( 2 X @ @ @ @((X ( 1( (( @ @ @ R((((( @ R @ ( ( @ (( ( @( ( Q000 Q002 2 P100 Äquivalent gerichtete Strecken werden zu sogenannten Äquivalenzklassen zusammengefasst. Definition 1.3 (Äquivalenzklasse, Vektor) Unter einer Äquivalenzklasse, bezeichnet durch ~x, ~y , ~z, ~u, . . ., versteht man eine Menge gerichteter Strecken, so dass −→ −→ P1 P2 , Q1 Q2 ∈ ~x −→ ⇐⇒ ~x heißt dann auch freier Vektor (oder kurz Vektor). 10 −→ P1 P2 ∼ Q1 Q2 1.2. Vektoren −→ Bemerkung: Für irgendein festes P1 P2 ∈ ~x gilt −→ −→ −→ ~x = {Q1 Q2 : Q1 Q2 ∼ P1 P2 }. Man schreibt −→ ~x = [P1 P2 ] −→ und sagt, der freie Vektor ~x werde durch die gerichtete Strecke P1 P2 repräsentiert. P20000 P20 1Q 1PP PP Q −→ P P Q P10000 P10 PP Q P1 P2 P PP 1 Q Q PP Q P 00 Q PP 2 Q QQ PP QQ P 1 Q P100 QQ P2000 QQ P1000 −→ kurz: ~x = [P1 P2 ] 1 P2 ~x P1 Weitere Bezeichnungsweisen für freie Vektoren: • deutsche Buchstaben • Fettdruck a, b Definition 1.4 (Ursprung,Ortsvektor) Sei O ein beliebiger, aber fester Punkt des Raumes (Ebene, Geraden). O heißt Ursprung oder Nullpunkt. Die gerich−→ −→ teten Strecken OP , OQ, . . . mit dem Ursprung O als Anfangspunkt heißen Ortsvektoren. 11 1. Der geometrische Vektorbegriff — Vektoralgebra −→ Sei ~x = [P1 P2 ] ein beliebiger freier Vektor. P2 *hhhhhh h ~x hhh P hhh h * h hhh hh P1 hh h h hhhh hhhh hhh hh O (Ursprung) −→ Durch Parallelverschiebung von P1 P2 in den Ursprung O findet man einen Punkt P , so dass −→ −→ P1 P2 ∼ OP . Es gilt also −→ ~x = [OP ], d.h. freie Vektoren können durch Ortsvektoren repräsentiert werden. 1.2.2. Addition von Vektoren −→ −→ −→ Seien ~x = [OP ], ~y = [OQ] zwei freie Vektoren, die durch die Ortsvektoren OP −→ bzw. OQ repräsentiert werden. Parallelogrammkonstruktion gemäß: Newtonschem Kräfteparallelogramm P = O00 ~x 3PPP P PP PP PP O PP P ~x + ~y PP P P -P 0P P PP PP PP P PP P ~y PP P PP P P q Q = O0 12 Q00 1.2. Vektoren −→ Der Ortsvektor OP werde parallel verschoben −→ OP −→ −→ O0 P 0 −→ bis sein Anfangspunkt O0 mit dem Endpunkt Q von OQ übereinstimmt. Oder: −→ OQ werde parallel verschoben −→ −→ OQ −→ O00 Q00 −→ bis sein Anfangspunkt O00 mit dem Endpunkt P von OP übereinstimmt. Auch: −→ OP wird im Punkt Q abgetragen. −→ −→ Definition 1.5 (Summe) Seien ~x = [OP ] und ~y = [OQ] und R := P 0 = Q00 −→ wie im Newtonschen Kräfteparallelogramm konstruiert. Dann heißt ~x + ~y := [OR] Summe von ~x und ~y , es gilt also ~x + ~y = [OP 0 ] = [OQ00 ] Der Nullvektor ~0 wird repräsentiert durch eine Strecke deren Anfangs- und Endpunkt zusammenfallen, es gilt also Definition 1.6 (Nullvektor) Der Nullvektor ist definiert durch ~0 = [P P ] = [OO]. Der Nullvektor hat die Länge 0 und seine Richtung ist unbestimmt. Definition 1.7 (Negative) Der Gegenvektor oder das Negative −~x zu einem −→ −→ beliebigen Vektor ~x = [P1 P2 ], ist definiert durch −~x := [P2 P1 ]. (( * ((( ( ( ( P ( ( (( P( 2 ((( *( r H HH ~x ~x HH H −~x ((((( O (( ( ( ( ( ((( ( P1 rH (( −~ H x HH HH P0 Es gelten folgende Rechenregeln 13 1. Der geometrische Vektorbegriff — Vektoralgebra Satz 1.1 Für beliebige Vektoren ~x, ~y , ~z gilt V 1) ~x + ~y = ~y + ~x (Kommutativgesetz) V 2) (~x + ~y ) + ~z = ~x + (~y + ~z) V 3) ~x + ~0 = ~x (Assoziativgesetz) V 4) ~x + (−~x) = ~0 Bemerkung: Wegen (V2) schreibt man (~x + ~y ) + ~z = ~x + ~y + ~z. (Weglassen der Klammern) Definition 1.8 (Differenz) Unter der Differenz ~x − ~y zweier Vektoren ~x, ~y versteht man den Vektor ~x − ~y := ~x + (−~y ). Es gilt also für jedes ~x, ~y : ~x − ~x = ~x + (−~x) = ~0 (~x − ~y ) + ~y = (~x + (−~y )) + ~y = ~x (gemäß Satz 1.1) y X X y 6 XXXX −~ XXX P XXX XX > 6 XXXX XXX XX X ~ x − ~ y : ~x − ~y ~x ~x + ~y XX XXX O XX XXX X ~y z X Q 1.2.3. Multiplikation eines Vektors mit einem Skalar −→ Definition 1.9 (λ-faches eines Vektors) Sei ~x = [P1 P2 ] irgend ein Vektor und λ ∈ R eine beliebige Zahl. Unter dem λ − f achen λ~x des Vektors ~x versteht man a) λ~x := ~0 für λ = 0 −→ b) λ~x := [Q1 Q2 ] 14 für λ 6= 0, 1.2. Vektoren −→ wobei Q1 Q2 wie folgt gewählt wird: −→ −→ Länge von Q1 Q2 = |λ| · Länge von P1 P2 ( −→ −→ Richtung von P1 P2 f ür λ > 0 Richtung von Q1 Q2 = −→ Richtung von P2 P1 f ür λ < 0 Es gelten folgende Rechenregeln: Satz 1.2 Für beliebige Vektoren ~x, ~y und beliebige Zahlen λ, µ gilt: V 5) λ(~x + ~y ) = λ~x + λ~y Distributivgesetze V 6) (λ + µ)~x = λ~x + µ~x V 7) (λµ)~x = λ(µ~x) Assoziativgesetz V 8) 1~x = ~x Ferner gilt: λ~0 = ~0 0~x = ~0 (−1)~x = −~x (−λ)~x = −(λ~x) = λ(−~x) für für für für jedes λ ∈ R jeden Vektor ~x jedes ~x jedes λ ∈ R und jeden Vektor ~x. r 00 P r 1 ~xr P 0 r P 1 ~x 2 −~x 1 O r ) ) 1 (− )~ x r 2 ) (−2)~x 1 2~x Definition 1.10 (Vektorraum) Sei E 3 bzw. E 1 die Menge alle Vektoren ~x = −→ [P1 P2 ] mit beliebigen Punkten P1 , P2 des Raumes, einer Ebene oder einer Geraden. Wegen der Eigenschaften (V1)-(V8) heißt E 3 (E 2 bzw. E 1 ) auch Vektorraum. 15 1. Der geometrische Vektorbegriff — Vektoralgebra 16 2. Zahlen-n-Tupel 2.1. Darstellung eines Vektors ~x im kartesischen Koordinatensystem Im dreidimensionalen Raum E 3 werde festgelegt: • ein Ursprung durch Wahl eines festen Punktes O −→ −→ −→ • ein Koordinatensystem durch 3 Ortsvektoren OE , OE , OE , die paarweise senkrecht stehen und die Länge 1 haben. 6 z – Achse z~k = x3~k Z Z Z Z Z P Z E3 r~k 6 y~j = x2~j ~j -r y – Achse ~i Z O Z E2 r Z Z E1 Z x~i = x1~i Z - x – Achse −→ −→ Definition 2.1 (Einheitsvektoren) Die (freien) Vektoren ~i = [OE1 ], ~j = [OE2 −→ ], ~k = [OE3 ] heißen Einheitsvektoren in x(x1 )- bzw. y(x2 )- bzw. z(x3 )-Richtung. −→ Durch Projektion von OP auf die Koordinatenachsen ergibt sich: 17 2. Zahlen-n-Tupel Satz 2.1 Jeder Vektor ~x lässt sich darstellen als Linearkombination bzw. ~x = x1~i + x2~j + x3~k ~x = x~i + y~j + z~k mit eindeutig bestimmten Koordinaten x1 , x2 , x3 bzw. x, y, z. (x1 , x2 , x3 ) bzw. (x, y, z) sind natürlich die Koordinaten des Endpunktes P des −→ Ortsvektors OP Folgerung: Satz 2.2 Bei festgehaltenem Koordinatensystem (O,~i, ~j, ~k) wird jeder Vektor ~x −→ mit dem Ortsvektor OP (1-1-deutig) beschrieben durch sein Koordinatentripel x = (x1 , x2 , x3 ) bzw. x = (x, y, z) (2.1) Bemerkung: Sei (O,~i, ~j, ~k) ein festes Koordinatensystem. Wegen der 1-1-deutigen −→ −→ Beziehung zwischen ~x = [OP ], dem ~x repräsentierenden Ortsvektor OP und dem Koordinatentripel x von P werden diese mathematischen Objekte oft (bei geometrischen Problemen) identifiziert: −→ −→ ~x ”0=” OP ”0=” x oder kurz ~x = OP = x Speziell gilt: ~0 −~x ”0=” 0 := (0, 0, 0) ”0=” −x := (−x1 , −x2 , −x3 ) (2.2) (2.3) ~i ”0=” (1, 0, 0), ~j ”0=” (0, 1, 0), ~k ”0=” (0, 0, 1) Für die Addition, Subtraktion von Vektoren und die Multiplikation von Vektoren mit Zahlen gilt: Satz 2.3 Seien x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) die Koordinatentripel von ~x bzw. ~y . Dann gilt: a) ~x + ~y hat das Koordinatentripel x + y := (x1 + y1 , x2 + y2 , x3 + y3 ) (2.4) koordinatenweise Addition 18 2.2. Zahlen–n–Tupel b) für jedes λ ∈ R hat λ~x das Koordinatentripel λx := (λx1 , λx2 , λx3 ) (2.5) koordinatenweise Multiplikation mit λ c) ~x − ~y hat das Koordinatentripel x − y := (x1 − y1 , x2 − y2 , x3 − y3 ) (2.6) koordinatenweise Subtraktion Bemerkung: Es sei ~x ”0=” x und ~y ”0=” y. Dann gilt: ~x = ~y genau dann, wenn x = y 2.2. Zahlen–n–Tupel In Verallgemeinerung der Koordinatentripel (2.1) findet man die Zahlen–n–Tupel: Definition 2.2 (Tupel) Seien x1 , x2 , . . . , xn irgendwelche reelle Zahlen. Unter einem n–Tupel von Zahlen oder (Zahlen–) n–Tupel versteht man jede geordnete Menge x1 x2 x = (x1 , x2 , . . . , xn ) oder x = .. . xn Zeilendarstellung Spaltendarstellung von Zahlen x1 , x2 , . . . , xn . Die Zahlen xk , k = 1, 2, . . . , n heißen die Koordinaten des n–Tupels x. Gleichheit von n–Tupel Gemäß Definition 2.2 ist x=y ⇐⇒ xk = yk für alle k = 1, 2, . . . , n Praktische Bedeutung der n–Tupel Mathematische Beschreibung eines Objektes, das durch n Zahlen, z.B. Messgrößen, x1 , x2 , x3 , . . . , xn charakterisiert werden kann. 19 2. Zahlen-n-Tupel Beispiele: x = (x1 , x2 , x3 ) : – Punkt P (x1 , x2 , x3 ) im Raum – Vektor ~x = x1~i + x2~j + x3~k – Quader mit Seitenlängen x1 , x2 , x3 > 0 u = (t, x, y, z, 0, 0, vz ) : Rakete, die sich im Zeitpunkt t im Punkt P (x, y, z) befindet und sich mit Geschwindigkeit vz in z-Richtung bewegt. Rechnen mit n–Tupeln In Verallgemeinerung von (2.3) – (2.7) definiert man: Definition 2.3 Seien x = (x1 , x2 , . . . , xn ), y = (y1 , y2 , . . . , xn ) zwei n–Tupel, λ ∈ R eine beliebige Zahl a) Summe zweier n–Tupel x + y := (x1 + y1 , x2 + y2 , . . . , xn + yn ) Addition: durch koordinatenweise Addition b) Multiplikation mit einem Skalar λx := (λx1 , λx2 , . . . , λxn ) Multiplikation mit Skalar λ: durch koordinatenweise Multiplikation mit λ c) Differenz zweier n–Tupel x − y := (x1 − y1 , x2 − y2 , . . . , xn − yn ) Subtraktion: durch koordinatenweise Subtraktion Weitere Bezeichnungen 0 := (0, 0, . . . , 0) | {z } Null-Tupel oder Nullelement n Nullen −x := (−x1 , −x2 , . . . , −xn ) das zu x negative n–Tupel Rn := Menge aller n–Tupel, Rn heißt n–dimensionaler Zahlenraum . Bemerkung a) R1 lässt sich mit R (=Menge der reellen Zahlen) identifizieren. b) Wegen (2.1), also ~x ”0=” x = (x1 , x2 , x3 ), besteht zwischen E 3 und tige Beziehung ! 20 R3 eine 1-1-deu- 2.2. Zahlen–n–Tupel Wie bei Vektoren gelten folgende Rechenregeln: −x = (−1)x λ0 = 0 für alle λ ∈ R λx = 0 =⇒ λ = 0 oder x = 0 −(λx) = (−λ)x = λ(−x) x − y = x + (−y) Satz 2.4 Für beliebige n–Tupel x, y, z und Skalare λ, µ gelten dieselben Rechenregeln (V 1) – (V 8) (siehe Satz 1.1 und Satz 1.2) wie für Vektoren ~x, ~y , ~z und Skalare λ, µ. Spezielle n–Tupel e1 := (1, 0, . . . , 0) e2 := (0, 1, . . . , 0) .. . n Koordinaten en := (0, 0, . . . , 1) Offensichtlich hat jedes x ∈ Rn die Darstellung: x = (x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + . . . + xn en = n X xk ek k=0 Vergleich: Gemäß Satz 2.1 gilt für jedes ~x ∈ E 3 ~x = x1~i + x2~j + x3~k Definition 2.4 (Linearkombination) Sind x1 , x2 , . . . , xr beliebige n–Tupel, also xi = (xi1 , xi2 , . . . , xin ), i = 1, 2, . . . , r, und λ1 , λ2 , . . . , λr irgendwelche Zahlen, dann heißt das n–Tupel r X y= (2.7) λi x i i=1 eine Linearkombination von x1 , x2 , . . . , xr . Analog definiert man Linearkombinationen von Vektoren ~x1 , ~x2 , . . . , ~xr aus E 3 . 21 2. Zahlen-n-Tupel Beispiele: (a) Jedes x ist eine Linearkombination von e1 , e2 , . . . , en . (b) Jedes ~x ist eine Linearkombination von ~i, ~j, ~k. (c) Gegeben sei das LGS x1 − x2 − x3 + 2x4 = 0 −x1 + 2x2 + x3 + 3x4 = 0 (∗) x = (1, 0, 1, 0), y = (−7, −5, 0, 1) sind zwei Lösungen von (∗) Es gilt dann: Jede Linearkombination z = λx + µy = (λ − 7µ, −5µ, λ, µ), λ, µ ∈ R von x und y ist wieder eine Lösung von (∗). =⇒ (∗) hat ∞ viele Lösungen! Speziell ist 0 = 0x + 0y eine Lösung von (∗). Definition 2.5 (Lineare Abhängigkeit – Unabhängigkeit) Die n–Tupel x1 , x2 , . . . , xr bzw. Vektoren ~x1 , ~x2 , . . . , ~xr heißen linear abhängig, wenn es Zahlen λ1 , λ2 , . . . , λr gibt, so dass r X λi xi = 0 bzw. r X λi~xi = ~0, (2.8) i=1 i=1 wobei λi 6= 0 für mindestens ein 1 ≤ i ≤ r. Die n–Tupel x1 , x2 , . . . , xr bzw. Vektoren ~x1 , ~x2 , . . . , ~xr heißen linear unabhängig, wenn sie nicht linear abhängig sind, d.h. wenn r X λi x i = 0 =⇒ λ1 = λ2 = · · · = λr = 0 λi~xi = ~0 =⇒ λ1 = λ2 = · · · = λr = 0. i=1 bzw. r X i=1 Beispiele: 22 2.2. Zahlen–n–Tupel a) Sei x = (1, 1, 1), y = (− 12 , 0, − 12 ), z = (0, 1, 0). =⇒ z = x + 2y =⇒ x + 2y + (−1)z = 0 =⇒ x, y, z sind linear abhängig. b) e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) Zu untersuchen: Gleichung λ1 e1 + λ2 e2 + λ3 e3 = 0 | {z } = (λ1 , λ2 , λ3 ) =⇒ λ1 = λ2 = λ3 = 0 =⇒ e1 , e2 , e3 sind linear unabhängig Folgerung: Wegen ~i ”0=” e1 , ~j ”0=” e2 , ~k ”0=” e3 sind auch die Vektoren ~i, ~j, ~k linear unabhängig ! Beweis: Wegen Satz 2.3 ist λ1~i + λ2~j + λ3~k ”0=”(λ1 , λ2 , λ3 ), also ist λ1~i + λ2~j + λ3~k = ~0 =⇒ λ1 = λ2 = λ3 = 0. c) e1 , e2 , . . . , en sind linear unabhängige n–Tupel d) Gegeben seien: a = (3, −2, 1), b = (0, −1, 1), c = (0, 0, 2) Das Gleichungssystem (9) lautet hier 3λ1 =0 −2λ1 + λ2 =0 λ1 − λ2 + 2λ3 = 0. Daraus folgt λ1 = λ2 = λ3 = 0, a, b, c sind also linear unabhängige Tripel. Charakterisierung der linearen Abhängigkeit/Unabhängigkeit Satz 2.5 Die n–Tupel x1 , x2 , . . . , xr bzw. Vektoren ~x1 , ~x2 , . . . , ~xr sind genau dann linear abhängig, wenn sich mindestens ein Element xj bzw. ~xj als Linearkombination der restlichen Elemente x1 , x2 , . . . , xj−1 , xj+1 , . . . , xr bzw. ~x1 , ~x2 , . . . , ~xj−1 , ~xj+1 , . . . , ~xr darstellen lässt. Beweis: 23 2. Zahlen-n-Tupel a) x1 , x2 , . . . , xr seien linear abhängig. Nach Definiton 2.5 gibt es dann Zahlen λ1 , λ2 , . . . , λr , so dass r P λi xi = 0 und λi 6= 0 für mindestens ein i = i0 . i=1 Daraus folgt 0= P i6=i0 also wie behauptet xi0 = b) Ist umgekehrt xj = P P i6=i0 − λλii o λi xi + λi0 xi0 , xi . µi xi für ein 1 ≤ j ≤ r, dann folgt i6=j 0= j−1 P µi xi + (−1)xj + i=1 r P µi x i , i=j+1 d.h. x1 , x2 , . . . , xr sind linear abhängig. Korollar 2.1 Zwei n–Tupel x, y bzw. Vektoren ~x, ~y sind genau dann linear abhängig, wenn x = λy oder y = µx bzw. ~x = λ~y oder ~y = µ~x mit λ, µ ∈ R Solche Vektoren nennt man auch parallel oder kollinear. Korollar 2.2 Ein n–Tupel x bzw. ein ~x ist genau dann linear abhängig, wenn x = 0 bzw. ~x = ~0. 24 3. Multiplikation von n–Tupel bzw. Vektoren 3.1. Das Skalarprodukt 3.1.1. Das Skalarprodukt im Raum E 3 der Vektoren ~x, ~y , . . . Definition 3.1 (Skalarprodukt I) Unter dem Skalarprodukt ~x · ~y oder <~x, ~y> zweier Vektoren ~x, ~y ∈ E 3 versteht man die Zahl ~x · ~y = k~xk · k~y k · cos ϕ, wobei k~xk, k~y k die Länge der Vektoren ~x bzw. ~y bezeichnet und ϕ der Winkel zwischen ~x und ~y ist. P 3 ~x ϕ O k~xk · cos ϕ = ~ x·~ y k~ yk - Q ~y Beispiele: a) ~x · ~0 = 0 für jedes ~x ∈ E 3 , da k~0k = 0. b) ~i · ~i ~j · ~j ~k · ~k ~i · ~j ~i · ~k ~j · ~k = 1, da k~ik = 1 und < ) (~i,~i) = 0 =1 =1 = 0, da < ) (~i, ~j) = 90◦ =0 =0 c) Für ~x, ~y 6= ~0 gilt ~x · ~y = 0 ⇐⇒ ~i, ~j, ~k stehen paarweise senkrecht und haben die Länge 1 ~x steht senkrecht auf ~y (3.1) 3. Multiplikation von n–Tupel bzw. Vektoren d) ~x · ~x = k~xk · k~xk · 1, da < ) (~x · ~x) = 0 = k~xk2 √ oder k~xk = ~x · ~x Es ist k~xk = 0 Länge (Betrag oder Norm) von ~x ⇐⇒ ~x = ~0. Durch geometrische Überlegungen findet man folgende Rechenregeln: Satz 3.1 Für beliebige Vektoren ~x, ~y , ~z und jedes λ ∈ R gilt: a) ~x · ~y = ~y · ~x (Kommutativität) b) ~x · (~y + ~z) = ~x · ~y + ~x · ~z (Distributivität) c) ~x · (λ~y ) = (λ~x) · ~y = λ · ~x · ~y d) ~x · ~y = 0 ⇐⇒ ~x = ~0 oder ~y = ~0 oder < ) (~x, ~y ) = (Homogenität) π 2 Beweis: (a), (c), (d) sind offensichtlich, (b) ergibt sich gemäß folgender Konstruktion: : 3 ~z ~y ~y + ~z ~ x - | | {z ~ x·~ y k~ xk }| {z ~ x·~ z k~ xk {z ~ x·(~ y +~ z) k~ xk } } Koordinatendarstellung des Skalarproduktes Gemäß Satz 2.1 gilt für je zwei Vektoren ~x, ~y die Darstellung ) ~x = x1~i + x2~j + x3~k mit eindeutig bestimmten Koordinaten xi bzw. yi ~y = y1~i + y2~j + y3~k Wegen Satz 3.1 gilt: 26 3.1. Das Skalarprodukt x1 y1~i · ~i + x1 y2~i · ~j + x1 y3~i · ~k + ~x · ~y = + x2 y1~j · ~i + x2 y2~j · ~j + x2 y3~j · ~k + + x3 y1~k · ~i + x3 y2~k · ~j + x3 y3~k · ~k = x1 y1 + x2 y2 + x3 y3 Satz 3.2 Sind x1 , x2 , x3 bzw. y1 , y2 , y3 die Koordinaten von ~x bzw. ~y bezüglich (der Basis) ~i, ~j, ~k, dann gilt: ~x · ~y = x1 y1 + x2 y2 + x3 y3 . (3.2) Speziell gilt: ~x · ~x = x21 + x22 + x23 , also q √ k~xk = ~x · ~x = x21 + x22 + x23 (Länge von ~x). (3.3) x3 6 Z Z Z Z Z Länge = Z ~x ~k 6 ~j ~i Z Z Z p x21 + x22 Z p x21 + x22 + x23 x -2 Z x1 Winkelberechnung a) Allgemeine Winkelberechnung 27 3. Multiplikation von n–Tupel bzw. Vektoren Pr * ~x ϕ -r O ~y Q −→ −→ Für den Winkel ϕ zwischen zwei Vektoren ~x, ~y (genauer Ortsvektoren OP ,OQ) gilt nach Definition 3.1 ·~ y cos ϕ = k~x~xk·k~ yk Sind x1 , x2 , x3 bzw. y1 , y2 , y3 die Koordinaten von ~x, ~y (bezüglich ~i, ~j, ~k), dann gilt nach Satz 3.2 cos < ) (~x, ~y ) = √ 2x1 y12+x22y√2 +x2 3 y32 2 . x1 +x2 +x3 28 y1 +y2 +y3 3.1. Das Skalarprodukt b) Cosinus–Satz B B α B ~a B ~b B B B B -BN ~c Es ist ~c = ~b − ~a, also k~ck2 = (~b − ~a) · (~b − ~a) = k~bk2 − 2~a · ~b + k~ak2 = k~bk2 − 2k~ak · k~bk · cos α + k~ak2 , oder k~ck2 = k~ak2 + k~bk2 − 2k~ak · k~bk · cos α Eigenschaften der Länge k~xk von ~x Satz 3.3 Es gilt: a) k~xk ≥ 0 b) k~xk = 0 ⇐⇒ ~x = ~0 c) kλ~xk = |λ| · k~xk für jedes λ ∈ R Weitere Eigenschaften folgen später. 3.1.2. Das Skalarprodukt im Rn Definition 3.2 (Skalarprodukt II) Unter dem Skalarprodukt <x, y> zweier n– Tupel x, y versteht man die Zahl <x, y>:= n X xk yk |k=1{z } V erallgemeinerung von (3.2) Beispiele: a) <x, 0> = 0 für alle x b) <ei , ej> = 0 für i 6= j <ei , ei> = 1 für alle i, wobei ei = (0, . . . , 0, 1, 0, . . . , 0) z }| { i−te Stelle 29 3. Multiplikation von n–Tupel bzw. Vektoren Nach (3.1) gilt: ~x · ~y = 0 ~x ⊥ ~y (~x, ~y 6= ~0) ⇐⇒ Man definiert deshalb: Definition 3.3 (Orthogonalität) a) Zwei n–Tupel x, y 6= 0 heißen orthogonal, x ⊥ y, falls <x, y>= 0. b) Gilt für n–Tupel x1 , x2 , . . . , xr 6= 0 <xi , xj>= 0 für i 6= j, dann heißt {x1 , x2 , . . . , xr } ein Orthogonalsystem. c) Gilt für n–Tupel x1 , x2 , . . . , xr 6= 0 <xi , xj>= 0 für i 6= j 1 für i = j dann heißt {x1 , x2 , . . . , xr } ein Orthonormalsystem. Beispiel: e1 , e2 , . . . , en ist ein Orthonormalsystem. Eigenschaften des Skalarproduktes im Rn Satz 3.4 Für alle n–Tupel x, y, z ∈ Rn und jedes λ ∈ R gilt: a) <x, y>=<y, x> b) <x, y + z>=<x, y> + <x, z> c) <λx, y>=<x, λy>= λ <x, y> d) <x, x>≥ 0, <x, x>= 0 ⇐⇒ x=0 Beweis: Durch Ausrechnen ! Bemerkung: Die Eigenschaften von ~x · ~y (siehe Satz 3.1) und <x, y> stimmen überein! 30 3.2. Die Norm (Betrag) eines n–Tuppels 3.2. Die Norm (Betrag) eines n–Tuppels Nach (3.2) gilt: q k~xk = x21 + x22 + x23 = Länge von ~x Man definiert deshalb: Definition 3.4 (Norm) Unter der Norm (Betrag) k~xk eines n–Tupels x versteht man die Zahl ! 21 n X √ kxk = <x, x> = x2k k=1 Beispiele: kxk = a) n = 1: x = (x1 ) =⇒ n = 2: x = (x1 , x2 ) p x21 = |x1 | x2 r Betrag von x1 rP 3 l l= p −→ x21 + x22 = Länge OP O r x1 b) kei k = 1 für alle i = 1, 2, . . . , n Satz 3.5 Für die Norm kxk im Rn gilt analog zu Satz 3.3 a) kxk ≥ 0 b) kxk = 0 ⇐⇒ x=0 c) kλxk = |λ| · kxk ∀λ ∈ R, x ∈ Rn Beweis: Durch Ausrechnen ! 3.3. Die Schwarzsche Ungleichung Satz 3.6 (Schwarzsche Ungleichung) a) Für beliebige n–Tupel x, y gilt: | <x, y> | ≤ kxk · kyk 31 3. Multiplikation von n–Tupel bzw. Vektoren b) Für beliebige Vektoren ~x, ~y ∈ E 3 gilt: |~x · ~y | ≤ k~xk · k~y k Beweis: Wegen (3.2) folgt (b) aus (a). Beweis von (a): a1) Sei x = 0 oder y = 0 =⇒ <x, y>= 0 und kxk = 0 oder kyk = 0. a2) Sei x 6= 0 und y 6= 0 Betrachte die Funktionen Q = Q(t), t ∈ R, Q(t) :=<x + ty, x + ty>= kx + tyk2 Es gilt: i) Q(t) ≥ 0 für alle t ∈ R Q∗ = min Q(t) ≥ 0 =⇒ 2 2 t∈ ii) Q(t) = kxk + 2t <x, y> +t kyk Minimalpunkt von Q : t∗ = − =⇒ R 2 <x,y> kyk2 0 ≤ Q∗ = Q(t∗ ) = kxk2 − <x,y>2 kyk2 =⇒ <x, y>2 ≤ kxk2 · kyk2 =⇒ | <x, y> | ≤ kxk · kyk Folgerung: Satz 3.7 (Dreiecks–Ungleichung) a) Für alle n–Tupel x, y gilt: kx + yk ≤ kxk + kyk b) Für alle ~x, ~y ∈ E 3 gilt: k~x + ~y k ≤ k~xk + k~y k Beweis: a) Mit Satz 3.6 ist 32 3.4. Das Vektorprodukt kx + yk2 = <x + y, x + y> = kxk2 + 2 <x, y> +kyk2 ≤ kxk2 + 2kxk · kyk + kyk2 = (kxk + |yk)2 , also ist kx + yk ≤ kxk + kyk. Ebenso zeigt man b). Geometrische Interpretation ~x + ~y ~x * x ~ O - ~y Die Summe der Längen zweier 4–Seiten ist ≥ der Länge der dritten Seite. Aus Satz 3.3, Satz 3.5, Satz 3.7 folgt für k.k Satz 3.8 Für beliebige n–Tupel x, y bzw. Vektoren ~x, ~y gilt: a) kxk ≥ 0 b) kxk = 0 a) k~xk ≥ 0 ⇐⇒ b) k~xk = 0 x=0 ⇐⇒ ~x = ~0 c) kλxk = |λ| · kxk c) kλ~xk = |λ| · k~xk d) kx + yk ≤ kxk + kyk d) k~x + ~y k ≤ k~xk + k~y k 3.4. Das Vektorprodukt Definition 3.5 (Vektorprodukt) Unter dem Vektorprodukt ~c = ~a × ~b zweier Vektoren ~a, ~b ∈ E 3 versteht man den (eindeutig bestimmten) Vektor ~c, so dass 1. k~ck = k~ak · k~bk · sin α mit α =< ) (~a, ~b), 0 ≤ α ≤ π 2. ~c steht senkrecht auf ~a und ~b 3. ~a, ~b, ~c bilden ein Rechtssystem, d.h. dreht man den ersten Faktor ~a auf dem 33 3. Multiplikation von n–Tupel bzw. Vektoren kürzesten Weg in die Richtung des zweiten Faktors ~b, so zeigt ~c = ~a × ~b in Richtung in die sich eine Rechtsschraube bewegen würde. (Rechtsschraubenregel oder Korkenzieherregel) 6 6 ~c = ~a × ~b ~b × ~a *PPP PP ~b PP PP A F A α A PP PP A PP A ~a PP A q P ? F sei der Flächeninhalt des von ~a, ~b aufgespannten Parallelogramms. Es ist F = g · h = k~bk · (k~ak · sin α) = k~ak · k~bk · sin α = k~ck Somit gilt: k~ck = F = Fläche des von ~a, ~b aufgespannten Parallelogramms 3.4.1. Eigenschaften des Vektorproduktes a) ~a × ~a = ~0 (wegen sin < ) (~a, ~a) = 0) b) ~a × ~b = ~0 c) ~a ⊥ ~b =⇒ ⇐⇒ ~a = ~0 oder ~b = ~0 oder < ) (~a, ~b) = 0 oder π k~a × ~bk = k~ak · k~bk d) ~b × ~a = −~a × ~b (also ~a × ~b 6= ~b × ~a) Satz 3.9 Für beliebige Vektoren ~a, ~b, ~c ∈ E 3 und beliebiges λ ∈ R gilt: a) (λ~a) × ~b = ~a × (λ~b) = λ~a × ~b b) ~a × (~b + ~c) = ~a × ~b + ~a × ~c c) (~a + ~b) × ~c = ~a × ~c + ~b × ~c 34 3.4. Das Vektorprodukt Beweis: Mittels geometrischer Überlegungen ! Koordinatendarstellung des Vektorproduktes Nach Satz 2.1 ist ~a = a1~i + a2~j + a3~k mit eindeutig bestimmtem a = (a1 , a2 , a3 ) ~b = b1~i + b2~j + b3~k mit eindeutig bestimmtem b = (b1 , b2 , b3 ). Nach Satz 3.9 darf man Klammern ausmultiplizieren, es gilt: ~a × ~b = (a1~i + a2~j + a3~k) × (b1~i + b2~j + b3~k) = a1 b1~i × ~i + a1 b2~i × ~j + a1 b3~i × ~k + + a2 b1~j × ~i + a2 b2~j × ~j + a2 b3~j × ~k + + a3 b1~k × ~i + a3 b2~k × ~j + a3 b3~k × ~k Nach Definition 3.3 gilt: ~i × ~j = ~k, ~i × ~k = −~j, ~j × ~k = ~i, ~j × ~i = −~k, ~k × ~i = ~j, ~k × ~j = −~i ~i × ~i = ~j × ~j = ~k × ~k = ~0. Somit gilt: Satz 3.10 Sind a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) die Koordinaten–Tripel von ~a, ~b, dann gilt: ~a × ~b = (a2 b3 − a3 b2 )~i + (a3 b1 − a1 b3 )~j + (a1 b2 − a2 b1 )~k ~a × ~b = a × b := (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ). ~i a1 b1 Merkregel: ~a × ~b = det ~j a2 b2 (siehe Kapitel 10). ~k a3 b3 oder 35 3. Multiplikation von n–Tupel bzw. Vektoren 36 4. Lineare Gleichungssysteme (LGS) — Teil I Seien a1 , a2 , . . . , an beliebige, aber fest vorgegebene Zahlen und x ∈ Rn Definition 4.1 (Linearform, Lineare Funktion) Die Funktion y = L(x) = L(x1 , x2 , . . . , xn ) = n P ak xk heißt eine Linearform in x (in den Variablen x1 , x2 , . . . , xn ). k=1 Ist b eine weitere Konstante, so heißt y = L(x) + b eine lineare Funktion in x. Beispiel: n = 3: L1 (x) = 4x1 −x2 L2 (x) = x2 + x3 L3 (x) = 4x1 +x2 + 2x3 sind Linearformen in x ∈ R Satz 4.1 (Eigenschaften von Linearformen) Sind L1 (x), L2 (x) zwei Linearformen in x ∈ Rn und λ ∈ R, so sind auch a) L(x) := L1 (x) + L2 (x) und L(x) := λL1 (x) wieder Linearformen b) L(x + y) = L(x) + L(y) und L(λx) = λL(x). Beweis: a) L1 (x) = a11 x1 + a12 x2 + . . . + a1n xn = n P a1k xk , L2 (x) = k=1 n P a2k xk k=1 Linearform in x =⇒ L(x) := L1 (x) + L2 (x) = n P a1k xk + k=1 n P a2k xk = k=1 Linearform in x =⇒ z }| { n n X P a1k xk = (λa ) x L(x) := λL1 (x) = λ | {z1k} k k=1 k=1 z n X }| { (a1k + a2k ) xk | {z } k=1 neue konst. Koeff. 4. Lineare Gleichungssysteme (LGS) — Teil I neue konst. Koeff. b) rechnet man leicht nach ! 4.1. Lineare Gleichungssysteme (LGS) Obiges Beispiel: L3 (x) = L1 (x) + 2L(x) Seien nun L1 , L2 , . . . , Lm =⇒ m gegebene Linearformen in x ∈ Rn es gibt eine sog. Matrix A von m · n Zahlen (Konstante Koeffizenten) A= a11 a12 . . . a1k a12 a22 . . . a2k .. .. .. . . . ai1 ai2 . . . aik .. .. .. . . . am1 am2 . . . amk . . . a1n . . . a2n .. . . . . ain .. . . . . amn ⇐⇒ ⇐⇒ L1 L2 .. . ⇐⇒ Li .. . ⇐⇒ Lm so dass L1 (x) = .. . Li (x) = .. . Lm (x) = n P a1k xk k=1 n P aik xk = ai1 x1 + ai2 x2 + . . . + aik xk + . . . + ain xi k=1 n P amk xk . k=1 Definition 4.2 (Lineares Gleichungsssystem) Sind dann b1 , b2 , . . . , bm weitere Zahlen, so heißt L1 (x) = b1 .. . Li (x) = bi (LGS) .. . Lm (x) = bm ein lineares Gleichungssystem (LGS) in x (in den Unbekannten x1 , x2 , . . . , xn ). Die Konstanten aik heißen die Koeffizienten des LGS. Das m–Tupel b = (b1 , b2 , . . . , bm ) heißt die rechte Seite des LGS. 38 4.1. Lineare Gleichungssysteme (LGS) Homogenes LGS: bi = 0, für alle i = 1, 2, . . . , m Inhomogenes LGS : mindestens ein bi 6= 0 Definition 4.3 Eine Lösung eines LGS ist jedes n–Tupel x = (x1 , x2 , . . . , xn ), so dass Li (x) = bi für jedes i = 1, 2, . . . , m. Beispiel: a b c A= 0 d e 0 0 f =⇒ ax1 + bx2 + cx3 = b1 dx2 + ex3 = b2 f x 3 = b3 Fall 1: a 6= 0, d 6= 0, f 6= 0 =⇒ x3 = b3 , f x2 = 1 d b2 − b3 f , x1 = 1 a b1 − b d b2 − e bf3 − cb3 f =⇒ eindeutig bestimmte Lösung Fall 2: a 6= 0, d 6= 0, f = 0 b3 6= 0 =⇒ 0 · x3 = b3 6= 0 =⇒ Widerspruch =⇒ LGS nicht lösbar b3 = 0 =⇒ 0 · x 3 = b3 = 0 =⇒ x3 kann beliebige Werte annehmen Weiter gilt x2 = d1 (b2 − ex3 ) und x1 = a1 b1 − db (b2 − ex3 ) − cx3 =⇒ LGS hat ∞ viele Lösungen Praktische Verwendung LGS — Ausgleichsprobleme — Stromverteilung in Netzwerken — Beschreibung von Input − Output− prozessen (Produktionsprozesse) — Mischungs- /Legierungsprobleme — Lösung von DGLn — Statik Berechnung eines Netzwerkes x = (x1 , x2 , x3 , x4 , x5 , x6 ) mit xk = (absolute) Stromstärke im betreffenden Leiter 39 4. Lineare Gleichungssysteme (LGS) — Teil I @ R2 x2 @ @ @ @ @ @ @ @ R@ 1 @ @ @ @ @ x1 I @ @ @ @ R5 @ x4 @ x3 @ I @ @ @ @ x @ @ ?5 @ R@ R4 3 @ @ @ @ @ @ @ ? @ - 6x6 R6 - V Kirchhoffsche Gesetze −x1 x1 −x4 −x2 x2 R1 x1 R2 x 2 R1 x1 +R2 x2 +x6 = 0 −x5 = 0 +x3 −x6 = 0 −R4 x4 +R5 x5 = 0 −R3 x3 −R5 x5 = 0 +R6 x6 = V LGS für Stromstärke x 4.1.1. Grundlegende Eigenschaften linearer Gleichungssysteme A) Homogene LGS (HLGS) a11 x1 + a12 x2 + . . . + a1n xn = 0 a21 x1 + a22 x2 + . . . + a2n xn = 0 .. .. .. .. . . . . am1 x1 + am2 x2 + . . . + amn xn = 0 Satz 4.2 (Eigenschaften homogener linearer Gleichungssysteme) ab (a) Ein HLGS hat zumindest die Lösung x = 0 40 4.1. Lineare Gleichungssysteme (LGS) (b) Sind u, v zwei Lösungen eines HLGS, so sind auch u + v, λu und λu + µv für alle λ, µ ∈ R wieder Lösungen des HLGS. Beweis: Mit Satz 4.1b ! Beispiel: x = (1, 0, 1, 0), y = (−7, −5, 0, 1) sind 2 Lösungen von x1 − x2 − x3 + 2x4 = 0 (4.1) −x1 + 2x2 + x3 + 3x4 = 0 Satz 4.2 =⇒ λx + µy = (λ − 7µ, −5µ, λ, µ) sind wieder Lösungen von (4.1) für alle λ, µ ∈ R. B) Inhomogene LGS (ILGS) Definition 4.4 Ist a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .. .. .. .. . . . . am1 x1 + am2 x2 + · · · + amn xn = bm ein inhomogenes LGS, so heißt a11 x1 + a12 x2 + · · · + a1n xn = 0 a21 x1 + a22 x2 + · · · + a2n xn = 0 .. .. .. .. . . . . am1 x1 + am2 x2 + · · · + amn xn = 0 das zugehörige homogene System. Satz 4.3 (Eigenschaften inhomogener linearer Gleichungssystemem) (a) Sind u = (u1 , u2 , . . . , un ), v = (v1 , v2 , . . . , vn ) zwei Lösungen des ILGS, so ist w = u − v = (u1 − v1 , u2 − v2 , ldots, un − vn ) eine Lösung des zugehörigen HLGS. (b) Ist u = (u1 , u2 , . . . , un ) irgend eine spezielle Lösung des ILGS und y = (y1 , y2 , . . . , yn ) eine beliebige Lösung des zugehörigen homogenen LGS, so ist z = u + y = (u1 + y1 , u2 + y2 , . . . , un + yn ) wieder eine Lösung des ILGS. 41 4. Lineare Gleichungssysteme (LGS) — Teil I (c) Es sei a = (a1 , a2 , . . . , an ) eine spezielle Lösung des ILGS. Jede (weitere) Lösung hat dann die Gestalt y = a + x, wobei x eine Lösung des zugehörigen homogenen LGS ist. Geometrische Interpretation einer einzelnen Gleichung eines LGS L(x) = b (L = Li , b = bi ) n = 3: L(x) = b ⇐⇒ a1 x 1 + a2 x 2 + a3 x 3 = b =⇒ • L(x) = b unlösbar, wenn b 6= 0 • jedes x ∈ R erfüllt L(x) = b, wenn b = 0. Fall 1: a1 = a2 = a3 = 0 Fall 2: mindestens ein ai 6= 0, sei a1 6= 0 L(x) = b ⇐⇒ x1 = 1 (b a1 − a2 x2 − a3 x3 ) Mit x2 := λ und x3 := µ, λ, µ ∈ R, folgt dann x = (x1 , x2 , x3 ) = ab1 − aa12 x2 − aa31 x3 , x2 , x3 = ab1 , 0, 0 + − aa12 λ, λ, 0 + − aa31 µ, 0, µ = ab1 , 0, 0 + λ − aa21 , 1, 0 + − aa31 , 0, 1 = =⇒ Ebene im n = 2: n > 3: a + R λd1 + µd2 R (falls L(x) 6≡ 0) L(x) = b beschreibt eine sogenannte Hyperebene des Rn L(x) = b beschreibt eine Gerade im Beispiel: (n = 3, Fall 2) 6 H HH HH g1 d1 , d2 sind linear d1 unabhängig H r HH a 3x H : HH H HH j H H d2 HH g2 H HH 42 4.1. Lineare Gleichungssysteme (LGS) µ = 0 =⇒ x = a + λd1 λ = 0 =⇒ x = a + µd2 =⇒ ⇐⇒ Gerade g1 ⇐⇒ Gerade g2 L(x) = b ist eine Ebene die durch die beiden Geraden g1 , g2 und den Punkt a bestimmt ist. Achsenabschnittsgleichung einer Ebene a1 x1 + a2 x2 + a3 x3 = b, b 6= 0 a1 x b 1 + a2 x b 2 + a3 x= b 3 1 x2 = x3 = 0 =⇒ x1 = A := x1 = x3 = 0 =⇒ x2 = B := x1 = x2 = 0 =⇒ x3 = C := L(x) = b b a1 b a2 b a3 ⇐⇒ Achsenabschnitte der Ebene x1 x2 x3 + + =1 A B C Geometrische Deutung eines LGS: Die obige Betrachtung zeigt, dass sich die Lösungsmenge eines LGS als Schnitt mehrerer (Hyper-)Ebenen darstellen lässt. 43 4. Lineare Gleichungssysteme (LGS) — Teil I 4.1.2. Darstellung eines LGS als n-Tupel - oder Vektorgleichung a11 x1 + a12 x2 + · · · + a1k xk + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2k xk + · · · + a2n xn = b2 .. .. .. .. .. . . . . . am1 x1 + am2 x2 + · · · + amk xk + · · · + amn xn = bm |{z} |{z} |{z} |{z} |{z} a2 ak an a1 b Setze a1 = a11 a12 .. . = , a 2 am1 a21 a22 .. . = , . . . a k am2 a1k a2k .. . amk = , . . . a n a1n a2n .. . (4.2) = , b amn Satz 4.4 Das LGS (4.2) kann in der äquivalenten Form einer Vektorgleichung n X (4.3) x k ak = b k=1 geschrieben werden. Folgerung aus (4.2) ≡ (4.3) Satz 4.5 LGS (4.1) ist genau dann lösbar, wenn die rechte Seite b eine Linearkombination der Spaltenvektoren a1 , a2 , . . . , an ist. Satz 4.6 a) Sind die Spalten a1 , a2 , . . . , an linear unabhängig, so hat LGS (4.2) höchstens eine Lösung. b) Hat das LGS (4.2) eine eindeutig bestimmte Lösung, so sind die Spalten a1 , a2 , . . . , an linear unabhängig. 44 b1 b2 .. . bn . Teil II. Matrizen 45 5. Der Matrizenbegriff Definition 5.1 (Matrix) Ein System von m · n Zahlen aik , i = 1, 2, . . . , m, k = 1, 2, . . . , n A = Am,n = a11 a12 . . . a1k a21 a22 . . . a2k .. .. .. . . . ai1 ai2 . . . aik .. .. .. . . . am1 am2 . . . amk . . . a1n . . . a2n .. . . . . ain .. . ← i–te Zeile . . . amn ↑ k–te Spalte heißt eine ((m, n) −) Matrix. Die Zahlen aik heißen Elemente von A und man schreibt kurz A = (aik ). Das n – Tupel ai = (ai1 , ai2 , . . . , ain ), i = 1, 2, . . . , m heißt i-te Zeile (i-ter Zeilenvektor) von A. Das m–Tupel ak = a1k a2k .. . , k = 1, 2, . . . , n amk heißt k-te Spalte (k-ter Spaltenvektor) von A. Bemerkung: Zwei Matrizen Am,n = (aik ) und Bm,n = (bik ) sind genau dann gleich, wenn m = m, n = n und aik = bik für alle i = 1, 2, . . . , m, k = 1, 2, . . . , n. Definition 5.2 (Vektor) Ein n–Tupel x, dargestellt in Spaltenform x1 x2 x = .. . xn 5. Der Matrizenbegriff nennen wir n-Vektor (n-Spaltenvektor) Konvention: Falls nichts anderes vereinbart wird, werden n-Tupel in Zukunft stets als n-Spaltenvektoren dargestellt. Definition 5.3 (Matrix mal n-Vektor) Sei A = Am,n und x ∈ Rn ein n–Vektor. Unter Ax versteht man den m–Vektor a11 a12 . . . a1n x1 a11 x1 + a12 x2 + · · · + a1n xn n a21 a22 . . . a2n x2 a21 x1 + a22 x2 + · · · + a2n xn X Ax = .. .. = = x k ak .. .. .. .. .. . . k=1 . . . . . xn am1 x1 + am2 x2 + · · · + amn xn am1 am2 . . . amn <a1 , x> .. . i m =⇒ Ax = y ∈ R mit y = <a , x> ← i–te Zeile von A mal x .. . <am , x> Beispiele: 1 13 1 2 a) 1 0 −1 1 d11 0 . . . 0 0 d22 . . . 0 b) .. .. . . .. . . . . 0 = 0 . . . dnn 1 · 1+3 · 2+ 1·1 1 · 1 + 0 · 2 + (−1) · 1 x1 x2 .. . = xn d11 x1 d22 x2 .. . = wobei x = x1 x2 .. . xn 48 = 8 0 dnn xn Anwendung: LGS ⇐⇒ a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn .. .. .. . . . am1 x1 + am2 x2 + · · · + amn xn | {z Def.5.1 Ax und A = } = = .. . = bm | {z } b b1 b2 .. . =: b (rechte Seite) a11 a12 . . . a1n a21 a22 . . . a2n .. .. .. . . . am1 am2 . . . amn die Koeffizientenmatrix des LGS ist. Satz 5.1 Jedes LGS kann dargestellt werden in der Form Ax = b, wobei A die Koeffizientenmatrix des LGS, b die rechte Seite des LGS und x der n–Vektor der Unbekannten xk , k = 1, 2, . . . , n ist. Beispiel: x1 − x2 − x3 + 2x4 = b1 −x1 − 2x2 + x3 + 3x4 = b2 ⇐⇒ x 1 1 −1 −1 2 x 2 = b1 −1 −2 1 3 x3 b2 x4 Spezielle Matrizen (a) A = Am,n heißt quadratische Matrix, wenn m = n a11 a12 z.B. a) A1,1 = (a11 ), A2,2 = a21 a22 b) An,n x = b ist ein LGS mit n Gleichungen und n Unbekannten. Unter der (Haupt-) Diagonalen von An,n versteht man die Elemente a11 , a22 , . . . , ann a11 a12 a21 a22 .. .. . . an1 an2 . . . a1n . . . a2n . . . .. . . . . ann & Diagonale (b) Eine quadratische Matrix An,n mit aik d11 0 0 d22 D= 0 0 .. .. . . 0 0 Beispiel Dx = b =⇒ = 0 für i 6= k heißt Diagonalmatrix. 0 ... 0 0 ... 0 d33 . . . 0 .. . . .. . . . 0 . . . dnn x =? (c) Gilt aik = 0 für alle Elemente einer Matrix A = Am,n , so heißt A ((m, n)-)Nullmatrix, man schreibt A = 0. (d) −A = −(aik ) := (−aik ) ist die negative Matrix zu A. 49 5. Der Matrizenbegriff 50 6. Operationen mit Matrizen Definition 6.1 (Addition) Seien A = (aik ), B = (bik ) zwei (m, n)–Matrizen. A + B = (A + B)m,n := (aik + bik ) (elementenweise Add.) Definition 6.2 (λ–faches) Sei A = Am,n = (aik ), λ ∈ R λA = (λA)m,n := (λaik ) (elementenweise Multipl. mit λ) Definition 6.3 (Transposition) Sei A = Am,n . Die zu A transponierte Matrix ist die (n, m)–Matrix 0 a11 . . . ai1 . . . am1 a11 a12 . . . a1k . . . a1n a12 . . . ai2 . . . am2 .. .. .. .. . .. .. . . . . . . . . A0 (= AT , At ) = ai1 ai2 . . . aik . . . ain := . a1k . . . aik . . . amk .. .. .. .. .. .. . . . ... . . am1 am2 . . . amk . . . amn a1n . . . ain . . . amn (n,m) i–te Zeile → 7 i–te Spalte k–te Spalte → 7 k–te Zeile =⇒ A = (aik ) −→ A0 = (αki ), αki := aik k = 1, 2, . . . , n für alle i = 1, 2, . . . , m Beispiel 0 1 3 1 −3 0 −3 5 a) = 3 5 7 0 7 x1 x2 b) x = .. ist (n, 1)–Matrix =⇒ . xn a = (a1 , a2 , . . . , an ) =⇒ a0 = x0 = (x1 , x2 , . . . , xn ) ist (1, n)–Matrix a1 a2 .. . an 6. Operationen mit Matrizen Satz 6.1 (Eigenschaften der Transposition) Eigenschaften von A0 a) (A0 )0 = A b) (A + B)0 = A0 + B 0 c) (λA)0 = λA0 , für alle λ ∈ R Definition 6.4 (Symmetrische Matrix) Eine Matrix A = An,n heißt symmetrisch, wenn: A = A0 ⇐⇒ aik = aki , für alle i, k = 1, 2, . . . , n Beispiel 1 0 −1 0 −1 3 2 2 8 ist symmetrisch. Definition 6.5 (Produkt) Seien A = A(m,r) = (aij ) und B = B(r,n) = (bjk ) zwei Matrizen, so dass die Spaltenzahl r von A mit der Zeilenzahl r von B übereinstimmt. Das Produkt AB (in dieser Reihenfolge!) ist dann definiert durch AB = C = (cik ), i = 1, . . . , m, k = 1, . . . , n, wobei cik := r X aij bjk =< ai , bk >, j=1 d.h. i-te Zeile von A mal k-te Spalte von B. Merksatz: i–te Zeile von A mal k–te Spalte von B Satz 6.2 Für AB gilt auch die Darstellung: AB = (Ab1 , Ab2 , . . . , Abk , . . . , Abn ), | {z } n Spalten von AB wobei bk die k–te Spalte von B ist. Beispiele 1) 1 1 2 0 · 0 1 52 1 2 ist nicht definiert ! 2) 1 1 1 · 1+1 · 3 1 · 2+1 · 1 4 3 2 0 · 1 2 = 2 · 1+0 · 3 2 · 2+0 · 1 = 2 4 3 1 0 1 0 · 1+1 · 3 0 · 2+1 · 1 3 1 3) 0 1 · = 0 1 0 1 1 0 · = 0 1 1 0 1 0 1 0 =⇒ 1 0 1 0 0 1 0 1 i.a. AB 6= BA (wenn überhaupt AB und BA definiert sind) Satz 6.3 (Eigenschaften der Matrixmultiplikation) Wenn die entsprechenden Produkte definiert sind, gilt: (a) A(BC) = (AB)C = ABC, (b) A(B + C) = AB + AC, (c) (A + B)C = AC + BC, (d) (λA)B = A(λB) = λAB für alle λ ∈ R, (e) (AB)0 = B 0 A0 . (Achtung: i.a. AB 6= BA !) 53 6. Operationen mit Matrizen 54 7. Die Inverse einer Matrix Definition 7.1 (Einheitsmatrix) 1 0 0 ... 0 1 0 ... I = In,n = 0 0 1 . . . .. .. .. . . . . . . 0 0 0 ... 0 0 0 .. . heißt (n,n)–Einheitsmatrix 1 Satz 7.1 Für alle x ∈ Rn und für alle A = An,n gilt: Ix = x, AI = IA = A (I spielt die Rolle der Eins !) Definition 7.2 (Inverse Matrix) Sei A = An,n . Existiert eine (n,n)–Matrix X, so dass AX = XA = I, so heißt A−1 := X die inverse Matrix oder die Inverse von A. Beispiele: a) I −1 = I, da II = I −1 0 0 b) existiert nicht ! =⇒ Inverse existieren nicht immer ! 0 0 c) (a11 )−1 = a111 , wenn a11 6= 0 Satz 7.2 A = An,n hat höchstens eine Inverse A−1 = X. 7. Die Inverse einer Matrix Satz 7.3 (Eigenschaften von Inversen) Sei A = An,n , B = Bn,n mit Inversen A−1 , B −1 . a) (A−1 )−1 = A b) (AB)−1 = B −1 A−1 c) (λA)−1 = λ1 A−1 für alle λ 6= 0 d) (A0 )−1 = (A−1 )0 Anwendung auf LGS mit A = An,n LGS: Ax = b =⇒ A−1 (Ax) = A−1 b | {z } (A−1 A) x = A−1 b | {z } Ix = x = A−1 b x = A−1 b, wenn A−1 existiert ! Berechnung der Inversen A−1 = X Bedingung für X: AX = XA = I Bemerkung: AX = I Kap. 8 =⇒ XA = I =⇒ Die Bedingung AX = I ist ausreichend zur Darstellung von A−1 = X ! Es ist AX = (Ax1 , Ax2 , . . . , Axk , . . . , Axn ), wobei {z } | n–Spalten von AX xk = k–te Spalte der unbekannten Matrix A−1 = X I = (e1 , e2 , . . . , ek , . . . , en ) | {z } n–Spalten von I =⇒ AX = I ⇐⇒ Ax1 = e1 Ax2 = e2 .. . Axn = en Beispiel n=2: a11 x11 x1 : a21 x11 a11 x12 x2 : a21 x12 + a12 x21 = 1 + a22 x21 = 0 zu lösen bei der Berechnung von A−1 = X sind somit: n LGS mit je n Unbekannten und n Gleichungen =⇒ x1 = x11 x21 = a22 D − aD21 a12 + a12 x22 = 0 x12 −D =⇒ x2 = = a11 + a22 x22 = 1 x22 D a22 a12 − D D =⇒ A−1 = , falls D 6= 0 − aD21 aD11 =⇒ 56 A−1 existiert ⇐⇒ mit D = det(A) := a11 a22 − a21 a12 det(A) := a11 a22 − a12 a21 6= 0 (entsprechendes gilt auch allgemein !) n=3: A−1 = X = (x1 , x2 , x3 ) x1 : a11 t1 + a12 t2 + a13 t3 = a21 t1 + a22 t2 + a23 t3 = a31 t1 + a32 t2 + a33 t3 = x2 : a11 t1 + a12 t2 + a13 t3 = a21 t1 + a22 t2 + a23 t3 = a31 t1 + a32 t2 + a33 t3 = x3 : a11 t1 + a12 t2 + a13 t3 = a21 t1 + a22 t2 + a23 t3 = a31 t1 + a32 t2 + a33 t3 = =⇒ 3 LGS 1 0 =⇒ 0 0 1 =⇒ 0 0 0 =⇒ 1 sind zu lösen: t = x1 t = x2 t = x3 57 7. Die Inverse einer Matrix 58 8. Rang von Matrizen Anwendung: Kriterium für die Existenz und Eindeutigkeit von Lösungen von linearen Gleichungssystemen. Sei A = Am,n A = (a1 , a2 , . . . , an ) = | {z } n Spalten von A a1 a2 .. . am | {z } m Zeilen von A Definition 8.1 (Spaltenrang, Zeilenrang) Unter dem Spaltenrang Rgs A bzw. Zeilenrang Rgz A einer Matrix A versteht man die Elementzahl der größtmöglichen Mengen linear unabhängiger Spalten bzw. Zeilen von A oder kurz: Die maximale Anzahl linear unabhängiger Spalten bzw. Zeilen von A ! Satz 8.1 0 ≤ Rgs A ≤ n, 0 ≤ Rgz A ≤ m. Beispiele: 1. A= 0 0 0 0 0 0 B= 1 −1 2 =⇒ Rgs A = Rgz A = 0 =⇒ Rgs B = Rgz B = 1 1 1 1 C= 2 2 2 3 3 3 =⇒ Rgs C = Rgz C = 1 =⇒ Rgs D = Rgz D = 2 2. 3. 4. D= 5. 1 0 2 3 0 1 0 0 8. Rang von Matrizen 1 0 0 E = 0 1 0 = I =⇒ 0 0 1 Rgs E = Rgz E = 3 (in diesen Beispielen ist stets Rgs A = Rgz A) Satz 8.2 Stets gilt: Rgs A = Rgz A (für beliebige Matrizen A) Definition 8.2 (Rang) Unter dem Rang Rg A einer Matrix versteht man: Rg A := Rgs A = Rgz A Aus Satz 8.1 folgt: Satz 8.3 Rg A ≤ m, Rg A ≤ n ⇐⇒ Rg A ≤ min(m, n) 8.1. Berechnung des Ranges einer (m, n)-Matrix A 8.1.1. Treppenmatrizen Definition 8.3 (Treppenmatrix) Unter einer (m, n)-Treppenmatrix T = Tr mit einer natürlichen Zahl r, 1 ≤ r ≤ min(m, n), versteht man eine Matrix der Gestalt t1r+1 t1r+2 . . . t1n t11 t12 t13 . . . t1r 0 t22 t23 . . . t2r t2r+1 t2r+2 . . . t2n 0 0 t33 . . . t3r t3r+1 t3r+2 . . . t3n . .. .. . . .. .. .. . . . .. . . . . . . . . . trr+1 trr+2 . . . trn T = 0 0 0 . . . trr 0 0 ... 0 0 0 0 ... 0 . .. .. . . . .. .. . .. .. . .. . .. . . . . 0 0 0 ... 0 0 0 ... 0 wobei t11 6= 0, t22 6= 0, . . . , trr 6= 0. Beispiele: 1) 60 1 |0 1 0 1 mit r = 1 8.1. Berechnung des Ranges einer (m, n)-Matrix A 2) 1 0 |1 0 0 4 0 1 | 2 −1 3 5 0 0 |0 0 0 0 3) 4) −1 0 2 | 0 1 3 | 0 0 −2 | 0 0 0 | 1 0 0 0 1 0 , 8 3 1 mit r = 2 mit r = 3 1 8 7 0 0 2 sind keine T –Matrizen ! 0 0 3 Satz 8.4 Rg T = Rg Tr = r Bedeutung der T –Matrizen bel. Matrix A e.U. −→ T = Tr =⇒ Rg A = Rg Tr = r 8.1.2. Elementare Umformung von Matrizen Achtung: Dienen auch zur Lösung LGS ! Definition 8.4 (Elementare Umformungen) Elementare Umformungen (e.U.) einer beliebigen (m, n)-Matrix A sind folgende Operationen: I. Vertauschen zweier Zeilen der Matrix, II. Vertauschen zweier Spalten der Matrix, III. Addition des λ-fachen einer Zeile zu einer anderen Zeile der Matrix. Beispiele 1 1 2 0 −1 1 2 1 3 1 1 2 0 −1 1 2 1 3 0 −1 1 I −→ 1 1 2 2 1 3 1 1 2 II −→ −1 0 1 1 2 3 61 8. Rang von Matrizen 1 1 2 ·(−3) 1 1 2 III 0 −1 1 −→ 0 −1 1 2 1 3 −1 −2 −3 Satz 8.5 Bei e.U ändern sich Rgs A, Rgz A und somit auch Rg A nicht ! Satz 8.6 Eine beliebige Matrix A 6= 0 kann durch e.U. in eine Treppenmatrix transformiert werden. Beispiel: 0 1 1 0 0 3 A= 2 1 4 1 1 −1 I −→ III −→ 1 0 0 1 0 2 0 0 1 0 0 1 0 0 0 0 0 1 ·(−1) 0 3 II III −→ −→ 2 4 1 −1 1 1 0 1 0 1 −2 −2 III ·(−2) −→ 0 0 7 3 3 0 0 3 1 | −2 | 7 | mit r = 3 0 | 1 0 1 1 1 0 0 0 0 1 0 3 2 3 1 −2 · − 73 8.1.3. Berechnung von RgA Verfahren: A e.U. −→ Tr =⇒ Rg A = r Beweis: folgt aus Satz 8.4 und 8.5, 8.6 ! Obiges Beispiel: Rg A = r = 3 Weitere Folgerungen aus den Sätzen 8.2 und 8.3: Satz 8.7 Rg A = Rg A0 Beweis: Rg A = Rgs A = Rgz A0 = Rg A0 Satz 8.8 Im Rn sind n + 1 (und mehr) beliebige n–Tupel stets linear abhängig. Mengen von linear unabhängigen n–Tupeln im Rn enthalten also höchstens n Elemente. 62 8.1. Berechnung des Ranges einer (m, n)-Matrix A Beweis Zu x1 , . . . , xn , xn+1 ∈ Rn bilde die (n, n + 1)–Matrix A = (x1 , x2 , . . . , xn+1 ). Nach Satz 8.3 gilt dann: Rg A ≤ min(n, n + 1) = n I. Anwendung: Lösungen LGS =⇒ x1 , x2 , . . . , xn+1 linear abhängig. Rangkriterium für Existenz und Eindeutigkeit von Betr.: LGS Ax = b, A = Am,n Definition 8.5 (Erweiterte Koeffizientenmatrix) Unter der erweiterten Koeffizientenmatrix [A, b] versteht man die (m, n + 1)–Matrix [A, b] = a11 a12 . . . a1n a21 a22 . . . a2n .. .. .. . . . am1 am2 . . . amn b1 b2 .. . bm Satz 8.9 (Existenzsatz) Ein LGS Ax = b ist genau dann lösbar, wenn Rg [A, b] = Rg A. Beweis: Ax = b lösbar ⇐⇒ Satz 4.5 ⇐⇒ b ist Linearkombination von a1 , a2 , . . . , an Rg [A, b] = Rg A Satz 8.10 Eindeutigkeitssatz a) Ist Rg A = n, so hat Ax = b höchstens eine Lösung. b) Ist Ax = b eindeutig lösbar, so ist Rg A = n. Beweis: Ax = b hat genau (höchstens) 1 Lösung =⇒ (⇐=) a1 , a2 , . . . , an linear unabhängig ⇐⇒ Rg A = n (siehe Satz 4.6). Übersicht über die Lösbarkeits– und Eindeutigkeitsverhältnisse für verschiedene m, n s = Rg [A, b] Es sei =⇒ s = r oder s = r + 1 r = Rg A r ≤ min(m, n) nach Satz 8.3 s ≤ min(m, n + 1) 63 8. Rang von Matrizen A) m < n (Weniger Gleichungen als Unbekannte) min(m, n) = m =⇒ r ≤ s ≤ m < n 1. r = s =⇒ System hat ∞ viele Lösungen (Sätze 8.9, 8.10) Beispiel: 1 1 0 A= , 0 1 2 =⇒ b= 3 −4 ⇐⇒ x1 + x2 = 3 x2 + 2x3 = −4 ∞ viele Lösungen m = 2, n = 3, r = s = 2 2. r < s (= r + 1) =⇒ System ist unlösbar (Satz 8.9) Beispiel: 1 0 0 A= , 2 0 0 =⇒ b= 1 −1 ⇐⇒ x2 2x2 = 1 = −1 Widerspruch m = 2, n = 3, r = 1, s = 2 B) m = n (Gleichviele Gleichungen wie Unbekannte) min(m, n) = m = n =⇒ r≤s≤m=n 3. r = s < m = n Beispiel: 1 0 A= , 2 0 =⇒ Beispiel: 1 0 A= , 2 1 b= 1 2 ⇐⇒ x1 + 0x2 = 1 2x1 + 0x2 = 2 ∞ viele Lösungen eindeutig best. Lösung =⇒ System hat genau 1 Lösung b= 1 2 ⇐⇒ x1 = 1 2x2 + x2 = 2 m=n=r=s=2 5. r < s < m = n 64 m = n = 2, r = s = 1 4. r = s = m = n =⇒ =⇒ System hat ∞ viele Lösungen =⇒ System ist unlösbar 8.1. Berechnung des Ranges einer (m, n)-Matrix A Beispiel: 0 0 A= , 0 0 =⇒ b= 1 1 ⇐⇒ 0x1 + 0x2 = 1 0x1 + 0x2 = 1 Widerspruch r = 0, s = 1, m = n = 2 6. r < s = m = n Beispiel: 1 0 A= , 1 0 =⇒ =⇒ System ist unlösbar b= 0 1 ⇐⇒ x1 x1 = 0 = 1 Widerspruch r = 1, s = 2, m = n = 2 C) m > n (Mehr Gleichungen als Unbekannte =⇒ min(m, n) = n 7. r < s (= r + 1) ≤ n + 1 ≤ m Beispiel: 1 0 A = 0 1 , 0 0 =⇒ ⇐⇒ System ist unlösbar x1 + =0 + x2 = 0 Widerspruch 0x1 + 0x2 = 1 r = 2, s = 3, n = 2, m = 3 8. r = s < n < m Beispiel: 1 0 A = 1 0 , 0 0 =⇒ 0 b= 0 1 ⇐⇒ =⇒ System hat ∞ viele Lösungen 2 b= 2 0 ⇐⇒ + x1 + 0x2 = 2 ∞ viele x1 + 0x2 = 2 Lösungen 0x1 + 0x2 = 0 r = 1, s = 1, n = 2, m = 3 9. r = s = n < m =⇒ System hat eindeutig bestimmte Lösung Beispiel: 65 8. Rang von Matrizen 1 0 A = 0 1 , 0 0 =⇒ 1 b 2 0 ⇐⇒ x1 x2 = 1 = 2 eindeutige Lösung r = 2, s = 2, n = 2, m = 3 II. Anwendung: Existenz der inversen Matrix Definition 8.6 Eine (n, n)–Matrix A heißt regulär, wenn Rg A = n. Im Folgenden sei A = An,n regulär, also Rg A = n. Betrachte: beliebige n–Vektoren b und das LGS Ax = b =⇒ n = Rg A ≤ Rg [A, b] | {z } Satz 8.3 ≤ min(n, n + 1) = n (n, n + 1)– Matrix =⇒ n = Rg A = Rg [A, b] Satz 8.9, 8.10 =⇒ Ax = b hat eine eindeutig bestimmte Lösung x. a) Betr.: nun AX = I A regulär =⇒ =⇒ Kap. 7 ⇐⇒ Axk = ek , k = 1, 2, . . . , n wobei X = (x1 , x2 , . . . , xn ) Axk = ek hat eindeutig bestimmte Lösung x◦k AX = I hat eindeutig bestimmte Lösung X ◦ := (x◦1 , x◦2 , . . . , x◦n ) b) Betr.: umgekehrt Y A = I Transposition =⇒ Rg A0 Satz 8.7 = (Y A)0 = I 0 = I =⇒ Rg A = n =⇒ A0 ist regulr (Transposition) a), b) =⇒ =⇒ A0 Y 0 = I =⇒ w.o. A0 Y 0 = I hat eindeutig bestimmte Lösung W ◦ mit Y 0 = W ◦ =⇒ Y A = I hat eindeutig bestimmte Lösung Y ◦ = W ◦ 0 Y ◦ = Y ◦ I = Y ◦ (AX ◦ ) = (Y ◦ A)X ◦ = IX ◦ = X ◦ Y ◦ = X◦ AX = XA = I hat eindeutig bestimmte Lösung X = X ◦ Satz 8.11 Falls A regulär ist, so existiert die Inverse A−1 (= X ◦ ) und A−1 ist eindeutig bestimmt. Beweis der Eindeutigkeit von A−1 : 66 8.1. Berechnung des Ranges einer (m, n)-Matrix A Annahme: A hat zwei Inverse X und Y =⇒ AX = XA = AY = Y A = I =⇒ X = XI = X(AY ) = (XA)Y = IY = Y Satz 8.12 Falls A−1 existiert, so ist A regulär. Beweis: Annahme: A ist nicht regulär ⇐⇒ =⇒ A−1 (Ax) = A−1 0 = 0 =⇒ x=0 =⇒ Rg A = n 7→ es gibt x 6= 0 mit Ax = 0 Widerspruch zu vorher ! 67 8. Rang von Matrizen 68 9. Lösungsverfahren für lineare Gleichungssysteme (LGS) Hilfsmittel: e.U. angewendet auf [A,b] LGS A · x = b (9.1) erweiterte Koeffizientenmatrix [A, b ] a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 .. .. .. .. ... . . . . am1 x1 + am2 x2 + . . . + amn xn = bm a11 a12 a21 a22 .. .. . . am1 am2 . . . a1n | b1 . . . a2n | b2 . . . . .. . | .. . . . amn | bm ⇐⇒ e.U. von [A,b] A) Vertauschen zweier Gleichungen ⇐⇒ I. Vertauschen zweier Zeilen von [A,b] B) Vertauschen zweier Unbekannten xk , xj mit den zugehörigen Koeffizienten aik , aij ⇐⇒ f Vertauschen zweier Spalten II. der Teilmatrix A von [A,b] C) Addition des λ–fachen einer Gleichung zu einer anderen Gleichung ⇐⇒ III. Addition des λ–fachen einer Zeile von [A, b] zu einer anderen Zeile von [A,b] Operationen an (9.1) Eigenschaften der Operationen (A) ⇐⇒ (I), f (B) ⇐⇒ (II), (C) ⇐⇒ (III) f (III) der erweiterten Koeffizientenmatrix Satz 9.1 Bei e.U. des Typs (I), (II), [A, b ] wird: 9. Lösungsverfahren für LGS [A, b] in eine (m, n + 1)– Matrix | {z } 1. m [Â, b] transformiert und | {z } m z }| { z }| { 2. LGS(1) A · x = b geht über in ein LGS(1̂)  · x̂ = b̂ Dabei gilt: 3.Die Lösungen x̂ von (1̂) unterscheiden sich von den Lösungen x von (1) höchstens f verwendet wurde. in einer Vertauschung der Komponenten xk , falls (II) 9.1. Beschreibung der praktischen Durchführung des Lösungsverfahrens: Gauss–Algorithmus Stufe 1: e.U. [A, b] - f III I, II, (Satz 8.6) [Â, b̂], wobei  = Tr eine Treppenmatrix ist mit T = Tr e.U. (9.1): A · x = b - f III I, II, ˆ :  · x̂ = b̂ (9.1) m m x1 a11 a21 .. . x2 a12 a22 .. . ... ... ... .. . xn a1n a2n .. . b1 b2 .. . am1 am2 ... amn bm so dass A ↓  = Tr nicht vorhanden, wenn r=m 70 xk1 â11 â21 .. . xk2 â12 â22 .. . 0 — 0 .. . 0 | 0 — 0 .. . . . . xkr . . . â1r . . . â2r .. .. . . . . . ârr — — ... 0 .. . 0 ... | | | | — | | | 0 {z (∗) xkr+1 â1r+1 â2r+1 .. . ... ... ... xkn â1n â2n .. . ←− b̂1 b̂2 .. . ârr+1 — 0 .. . ... — ... ârn — 0 .. . b̂r 0 ... 0 Â=Tr :â11 6=0,...,ârr 6=0 b̂r+1 .. . b̂m } 9.1. Praktische Durchführung | {z } nicht vorhanden wenn r = n (∗)–Vertauschungen von Spalten von A in der Variablenzeile markiert. 1. Fall: es gibt ein r + 1 ≤ i ≤ m mit b̂i 6= 0 =⇒ Rg A = Rg Tr = r < r + 1 = Rg[A, b] =⇒ (9.1) ist unlösbar 2. Fall: r = m oder alle b̂i = 0, i = r + 1, . . . , m =⇒ Rg A = Rg [A, b] =⇒ (9.1) ist lösbar Stufe 2: falls r = m oder b̂i = 0 für alle i = r + 1, . . . , m [Â, b̂] ↑ Tr e.U. - III [A∗ , b∗ ] D | R mit A∗ = — — — 0 | 0 wobei D: Diagonalmatrix und R: Restmatrix D | R Bemerkung: A∗ = — — — } nicht vorhanden, wenn r = m 0 | 0 | {z } nicht vorh., wenn r = n im Detail: 71 9. Lösungsverfahren für LGS xk1 â11 0 .. . xk2 â12 â22 .. . 0 — 0 .. . 0 — 0 .. . . . . xkr . . . â1r . . . â2r .. .. . . . . . ârr — — ... 0 .. . 0 0 ... 0 | | | | — | | | xkr+1 â1r+1 â2r+1 .. . . . . xkn . . . â1n . . . â2n .. . ârr+1 — 0 .. . ... — ... ârn — 0 .. . 0 ... 0 b̂1 b̂2 .. . ·(− ââ12 ) 22 b̂r 0 .. . 0 nicht vorh., wenn r = m e.U. - III xk1 a∗11 0 .. . xk2 0 a∗22 .. . ... ... ... .. . xkr 0 0 .. . 0 — 0 .. . 0 — 0 .. . ... — ... a∗rr — 0 .. . 0 0 ... 0 | | | | — | | | mit a∗ii = âii 6= 0, Folgerung: A · x = b A∗ · x̂ = b∗ lautet: 72 ⇐⇒ xkr+1 a∗1r+1 a∗2r+1 .. . ... ... ... xkn a∗1n a∗2n .. . a∗rr+1 — 0 .. . ... — ... a∗rn — 0 .. . b∗r 0 ... 0 0 i = 1, 2, . . . , r A∗ ·x̂ = b∗ ↑ keine Komponentenvertauschung in Stufe 2  · x̂ = b̂ ⇐⇒ b∗1 b∗2 .. . 0 .. . 9.1. Praktische Durchführung =⇒ =⇒ a∗11 xk1 a∗22 xk2 .. . + a∗1r+1 xkr+1 + a∗2r+1 xkr+1 .. . + ... + ... + a∗1n xkn + a∗2n xkn .. . = b∗1 = b∗2 .. . a∗rr xkr + a∗rr+1 xkr+1 + ... + a∗rn xkn = b∗r x k1 = x k2 .. . = x kr = − − .. . b∗r a∗rr − a∗1r+1 xkr+1 a∗11 a∗2r+1 xkr+1 a∗22 − ... a∗1n x a∗11 kn a∗2n x a∗22 kn − − ... − .. . a∗rr+1 xkr+1 − . . . − a∗ | rr {z fehlt, falls r = n .. . a∗rn x a∗rr kn } Unbekannte xkr+1 , . . . , xkn können frei gewählt werden Setzen: xkr+1 := t1 xkr+2 := t2 .. . x kn =⇒ b∗1 a∗11 b∗2 a∗22 := tn−r x k1 x k2 .. . x̂ = xkr xkr+1 . .. x kn | {z mit t1 ∈ R mit t2 ∈ R mit tn−r ∈ R = b∗1 a∗11 − .. . .. . b∗r a∗rr a∗1r+1 t a∗11 1 − ... − .. . .. . − a∗rr+1 t a∗rr 1 a∗1n t a∗11 n−r .. . .. . − ... − a∗rn t a∗rr n−r t1 .. . tn−r } Komponenten von x in anderer Reihenfolge 73 9. Lösungsverfahren für LGS x̂ = Satz 9.2 =⇒ b∗1 a∗11 − a∗1r+1 a∗11 .. .. . . ∗ a∗rr+1 br − a∗ a∗rr rr 0 + 1 0 0 .. .. . . 0 0 0 0 | {z a∗ − a1n ∗ . 11 .. a∗ − rn a∗rr 0 tn−r t1 + . . . + 0 ... 0 1 } fehlt, falls r = n (⇐⇒ eindeutige Lösung ) Beispiel: (a) x1 +2x2 +x3 = 1 ⇐⇒ 2x1 +4x2 +2x3= −1 x1 x2 1 2 2 4 1 | 2 — — — 0 | 0 | {z T1 x3 1 2 1 — 0 } 1 −1 1 ·(−2) -3 = b̂2 6= 0 =⇒ keine Lösung (b) 1. Stufe: x1 +2x2 +x3 −3x4 = 1 2x1+x2 −x3 −3x4 = 2 3x1+3x2 −6x4 = 3 r=2 durchgehende 0-Zeile =⇒ lösbares LGS 2. Stufe: 74 x1 x2 1 2 2 1 3 3 1 2 0 −3 0 −3 1 2 0 −3 — — 0 0 x3 1 −1 0 1 −3 −3 | 1 | −3 — — | 0 x4 −3 −3 −6 −3 3 3 −3 3 — 0 1 2 3 1 0 0 1 0 ·(−2) ·(−3) ·(−1) ·( 23 ) 0 x1 −x3 −x4 = −3x2 −3x3+3x4= 9.1. Praktische Durchführung | −1 −1 1 | −3 3 0 — — — | 0 0 0 1 0 0 −3 — — 0 0 ⇐⇒ 1 0 x1 = 1 +x3 +x4 + t1 =⇒ =⇒ x = x2 = −x3 +x4 0 0 1 −1 + t2 1 0 1 1 0 1 mit x3 := t1 , x4 := t2 (c) x1 −x2 = 1 2x1 +x2 = 0 3x1 =1 4x1 −x2 = 2 n=r=2 1 3 x1 = 3x2 = −2 =⇒ x= x1 1 2 ⇐⇒ 3 4 1 0 0 0 1 0 — 0 0 1 0 ⇔ — 0 0 x2 −1 1 0 −1 −1 3 3 3 −1 3 — 0 0 0 3 — 0 0 1 3 eindeutige Lösung − 23 | | | | | | | | | | 1 0 1 2 1 −2 −2 −2 1 −2 0 0 ·(−2) ·(−3) ·(−4) ·(−1) · 1 3 2 durchgehende 0-Zeilen =⇒ lösbares System 1 3 −2 0 0 75 9. Lösungsverfahren für LGS 76 10. Determinanten Determinanten sind nur definiert für quadratische Matrizen. (a) n = 1: A = (a11 ) det A := |A| := a11 a11 a12 (b) n = 2: A = a21 a22 det A = |A| := a11 a22 − a21 a12 a x + a12 x2 = b1 Anwendung: 11 1 a21 x1 + a22 x2 = b2 =⇒ x1 = ˛ ˛ ˛ b1 ˛ ˛ ˛ b2 ˛ ˛ ˛ a11 ˛ ˛ ˛ a21 ˛ ˛ ˛ ˛ a11 a12 ˛˛˛ ˛ ˛ ˛ ˛ a21 a22 ˛˛ ˛ , x = 2 ˛ ˛ ˛ a11 a12 ˛˛ ˛ ˛ ˛ ˛ a21 a22 ˛ (Kramersche Regel) geom. Interpretation: Es gilt: F = | det A| Analoges gilt auch für n≥3 (c) Beliebiges n = 3, 4, . . . Konstruktionsvorgang: det A2,2 −→ det A3,3 −→ . . . −→ det An−1,n−1 −→ det An,n −→ . . . | {z } | {z } bekannt Konstruktionsvorschrift wird nachfolgend angegeben 77 ˛ b1 ˛˛˛ b2 ˛˛˛ a12 ˛˛˛ a22 ˛˛ 10. Determinanten Konstruktionsvorschrift: Vor.: det An−1,n−1 sei bekannt für eine beliebige (n − 1, n − 1)–Matrix Betrachten: beliebige (n, n)–Matrix A Definition 10.1 (Algebraisches Komplement) Das algebraische Komplement A∗ik eines Elements aik von A ist die (n − 1, n − 1)–Teilmatrix A∗ik von A, die entsteht, wenn man die i–te Zeile und k–te Spalte von A weglässt. Beispiel: n = 3 a11 a12 a13 A = a21 a22 a23 a31 a32 a33 a22 a23 ∗ A11 = a32 a33 a12 a13 ∗ A21 = a32 a33 a12 a13 ∗ A31 = a22 a23 A∗12 A∗22 A∗32 = = = a21 a23 a31 a33 a11 a13 a31 a33 a11 a13 a21 a23 A∗13 A∗23 A∗33 a21 a22 a31 a32 a11 a12 a31 a32 a11 a12 a21 a22 = = = Die Konstruktionsvoraussetzung gestattet nun: Definition 10.2 (Kofaktor, Adjunkte) Unter dem Kofaktor (Adjunkten) eines Elements aik von A versteht man die Zahl: Aik := (−1)i+k det A∗ik |{z} (n − 1, n − 1)–M atrix (siehe Determinante bekannt nach V oraussetzung) Beispiel: n = 3 (Fortsetzung) A12 = −(a21 a33 − a31 a23 ) A11 = (−1)1+1 |A∗11 | = a22 a33 − a32 a23 A21 = −(a12 a33 − a32 a13 ) A22 = a11 a33 − a31 a13 A31 = a12 a23 − a22 a13 A32 = −(a11 a23 − a21 a13 ) Satz 10.1 Für jedes (feste) Paar i, k mit 1 ≤ i ≤ n, 1 ≤ k ≤ n gilt: n n X X aiv Aiv = awk Awk = α, |v=1 {z } Summation über i–te Zeile |w=1 {z wobei α eine feste, von i, k unabhängige Zahl ist. 78 } Summation über k–te Spalte A13 = a21 a32 − a31 a22 A23 = −(a11 a32 − a31 a12 ) A33 = a11 a22 − a21 a12 Definition 10.3 (Determinante) Die Determinante der n × n Matrix A ist definiert durch det A = |A| := α. Es gilt P n n P Entwicklung nach i–ter Zeile aiv Aiv = aiv (−1)i+v detA∗iv v=1 v=1 det A = n n P P awk Awk = awk (−1)w+k detA∗wk Entwicklung nach k–ter Spalte w=1 w=1 Beispiel: (a) n = 3 Entw. nach 1.Spalte: |A| = a11 A11 + a21 A21 + a31 A31 = = a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 ) Entw. nach 1.Zeile: |A| = a11 A11 + a12 A12 + a13 A13 = = a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a22 ) 3 −1 2 1 −1 A= 0 1 0 1 =⇒ |A| (b) n = 4 1.Spalte a11 a21 A= a31 a41 =⇒ = 3(1 · 1 − 0 · (−1)) − 0 · (. . .) + 1((−1)(−1) − 1 · 2) = 2 a12 a22 a32 a42 a13 a23 a33 a43 1.Spalte |A| = = =⇒ a14 a24 a34 a44 a11 A11 + a21 A21 + a31 A31 + a41 A41 a11 (−1)1+1 |A∗11 | + a21 (−1)2+1 |A∗21 | + + a31 (−1)3+1 |A∗31 | + a41 (−1)4+1 |A∗41 | a22 a23 a24 a12 a13 a14 A = a11 a32 a33 a34 − a21 a32 a33 a34 a42 a43 a44 a42 a43 a44 a12 a13 a14 a12 a13 a14 + a31 a22 a23 a24 − a41 a22 a23 a24 a42 a43 a44 a32 a33 a34 79 10. Determinanten a11 a12 a13 0 a22 a23 speziell: A = 0 0 a33 0 0 0 =⇒ a22 a23 a24 A = a11 0 a33 a34 0 0 a44 allgemein: det A = (c) a11 a12 0 a22 .. .. . . 0 0 a14 a24 a34 a44 = a11 · a22 a33 a34 0 a44 = a11 · a22 · a33 · a44 . . . a1n . . . a2n . = a11 · a22 · . . . · ann .. . .. . . . ann ak = 0 für eine Spalte =⇒ ai = 0 für eine Zeile =⇒ |A| = 0 |A| = 0 ( Entw. nach dieser Spalte ) ( Entw. nach dieser Zeile ) Satz 10.2 (Rechenregeln für Determinanten) a) Beim Vertauschen zweier Spalten bzw. zweier Zeilen ändert sich nur das Vorzeichen der Determinante. b) Addiert man zu einer Zeile (Spalte) das λ– fache einer anderen Zeile (Spalte), so ändert sich die Determinante nicht. c) det A = det A0 d) det(a1 , . . . , ak−1 , u + v, ak+1 , . . . , an ) = det(a1 , . . . , ak−1 , u, ak+1 , . . . , an ) + + det(a1 , . . . , ak−1 , v, ak+1 , . . . , an ) det(a1 , . . . , ak−1 , λ · u, ak+1 , . . . , an ) = λ · det(a1 , . . . , ak−1 , u, ak+1 , . . . , an ) e) det A · B = det A · det B für je zwei (n, n)– Matrizen A, B Folgerungen aus (a) – (e): f) Bei e.U. von A ändert sich höchstens das Vorzeichen der Determinante: e.U. A −→ B =⇒ det B = (−1)ρ det A ρ : Anzahl der Anwendungen von (I), (II) g) Sind zwei Spalten bzw. Zeilen von A gleich, so gilt: |A| = 0 80 h) det A−1 = 1 , det A falls A−1 existiert Satz 10.3 A−1 existiert =⇒ det A−1 6= 0 Anwendungen von Satz 10.2 e.U. A −→ Tr α11 ... α1r . .. .. .. . . 0 ... αrr Tr = − − − − − − − − − 0 ... 0 . .. .. . 0 ... 0 f ): Berechnung von det A durch e.U. An,n = α1r+1 .. . ... α1n .. . αrr+1 ... αrn −−− −−− −−− 0 ... 0 .. .. . . 0 ... 0 {z } | αii 6= 0, 1 ≤ i ≤ r fehlt, falls r = n fehlt, falls r = n Satz 10.2f =⇒ det A = (−1)ρ det Tr , det Tr | {z } Ent. nach den Spalten =⇒ ρ: Anzahl der Zeilen- und Spaltenvertauschungen Spaltenvertauschungen = α11 · α22 · . . . · αrr · 0| · 0 ·{z. . . · 0} {z } | 6=0 fehlt, falls r=n det A = (−1)ρ det Tr 6= 0 ⇐⇒ r = n ⇐⇒ Rg A = r = n Def.8.6 Satz8.11 Satz 10.4 det A 6= 0 ⇐⇒ Rg A = n ⇐⇒ A ist regulär ⇐⇒ A−1 existiert =⇒ Satz 10.4a : A−1 existiert ⇐⇒ det A 6= 0 ⇐⇒ Rg A = n Beispiel: einer det–Berechnung: 1 0 −1 ·(−3) ·(−2) 1 0 −1 1 0 1 III III 1 2 5 ·(1) −→ 0 1 5 = T3 A= 3 −→ 0 1 −2 −1 0 0 −1 −2 0 0 3 det A = (−1)ρ=0 det T3 = 1 · 1 · 3 = 3 81 10. Determinanten 10.1. Cramersche Regel zur theoretischen Lösung von LGS: A = An,n , b ∈ Rn Satz 10.5 (Cramersche Regel) Sei A regulär, dann hat Ax = b die eindeutig bestimmte Lösung: k–te Spalte ak von A det(a1 , . . . , ak−1 , b, ak+1 , . . . , an ) ⇐= wird durch die rechte xk = det(a1 , . . . , ak−1 , ak , ak+1 , . . . , an ) Seite b ersetzt. | {z } =det A 82 Teil III. Vektorräume 83 11. Definition des abstrakten Vektorraumes (VR) und Übertragung von Begriffen aus dem Rn Abstraktion der Eigenschaften (V1) – (V8) des Rn in Satz 1.1 und Satz 1.2: Definition 11.1 (Vektorraum) Unter einem Vektorraum (VR) oder linearen Raum versteht man eine Menge V in der a) je zwei Elementen x, y ∈ V in eindeutiger Weise ein Element z = x + y, genannt die Summe von x und y, zugeordnet ist, so dass die folgenden Gesetze gelten: V1) x + y = y + x , für alle x, y ∈ V V2) (x + y) + z = x + (y + z) , für alle x, y, z ∈ V V3) es gibt ein Element θ ∈ V mit θ + x = x, für alle x ∈ V V4) zu jedem Element x ∈ V gibt es ein mit −x bezeichnetes Element in V , so dass x + (−x) = θ b) je einem Element x ∈ V und einer Zahl λ ∈ R in eindeutiger Weise ein Element w = λx, genannt das λ– fache von x , zugeordnet ist, so dass die folgenden Gesetze gelten: V5) λ(x + y) = λx + λy , für alle λ ∈ R , für alle x, y ∈ V V6) (λ1 + λ2 )x = λ1 x + λ2 x , für alle λ1 , λ2 ∈ R , für alle x ∈ V V7) (λ1 λ2 )x = λ1 (λ2 x) , für alle λ1 , λ2 ∈ R , für alle x ∈ V V8) 1 · x = x , für alle x ∈ V . Die Elemente x ∈ V heißen Punkte oder Vektoren. Folgerungen aus den Axiomen (V1) – (V8): Satz 11.1 85 11. Definition des abstrakten Vektorraumes a) Durch (V1) – (V4) (= Gruppenaxiome) ist θ (auch 0), die Null oder das Nullelement von V sowie −x, das Negative von x, eindeutig bestimmt. b) Es gilt λθ = θ , für alle λ ∈ R c) λx = θ (λ ∈ R , x ∈ V ) ⇐⇒ λ = 0 oder x = θ. d) Für alle λ ∈ R , x ∈ V gilt: −(λx) = (−λ)x = λ(−x) e) Bei der Addition und beim λ– fachen von Elementen eines VR gelten dieselben Rechenregeln wie beim Rechnen mit Zahlen. Definition 11.2 (Differenz) Die Differenz x − y zweier Elemente x, y ∈ V ist definiert durch x − y := x + (−y) Beispiel:[von VR] (a) V = Rn , siehe Sätze 1.1, 1.2 x1 −x1 θ := 0 , x := x = ... , −x := −x = ... xn −xn (b) V = Mm,n Addition λ– faches θ −A := Menge aller (m, n)– Matrizen : Addition von Matrizen gemäß Def. 6.1 : λ– faches von Matrizen gemäß Def. 6.2 := (m, n)– Nullmatrix := (−amn ) , A = (amn ) (c) V = Pn Addition := Menge aller Polynome p(t) = : (p + q)(t) := p(t) + q(t) | {z } Pn k=0 ak tk höchstens n–ten Grades ist wieder ein Polynom höchstens n–ten Grades λ– faches θ −p 86 : (λp)(t) := λp(t) | {z } ist wieder ein Polynom höchstens n–ten Grades 2 n : θ(t) ≡ 0 = 0 + 0t + 0t + . . . + 0t =Polynom aus Pn : (−p)(t) := −p(t) | {z } Polynom aus Pn Definition 11.3 (Linearkombination) Sind x1 , x2 , . . . , xr Elemente aus V und λ1 , λ2 , . . . , λr ∈ R , so heißt der Vektor: r X y= λk x k k=1 eine Linearkombination der Vektoren x1 , x2 , . . . , xr (mit den Koeffizienten λ1 , λ2 , . . . , λr ). Definition 11.4 (Lineare Abhängigkeit/Unabhängigkeit) Vektoren x1 , x2 , . . . , xr aus V heißen: linear unabhängig, wenn r P λk xk = θ =⇒ λ1 = λ2 = . . . = λr = 0 k=1 linear abhängig, wenn Zahlen λ1 , . . . , λr existieren, die nicht r P λk x k = θ alle = 0 sind, so dass k=1 Beispiele: (a) Die (m, n)– Matrizen 0 | 0 Eik = − − − 1 − − − ← i , i = 1, 2, . . . , m , k = 1, 2, . . . , n 0 | 0 k sind linear unabhängige Elemente des Matrizenraumes Mm,n (b) Die Polynome 0 (t) ≡ 1, 1 (t) = t, 2 (t) = t2 , . . . , n (t) = tn sind linear unabhängige Vektoren des Polynomraumes Pn (c) Jede (m, n)– Matrix A ∈ Mm,n ist eine Linearkombination der Matrizen Eik , i = 1, 2, . . . , m , k = 1, 2, . . . , n (d) Jedes Polynom p ∈ Pn ist eine Linearkombination der Polynome 0 , 1 , . . . , n . Definition 11.5 (Unterraum) Sei V ein VR und U eine Teilmenge von V . U heißt Unterraum oder Teilraum von V , wenn a) θ ∈ U b) x ∈ U , y ∈ U =⇒ x + y ∈ U c) x ∈ U , λ ∈ R =⇒ λx ∈ U 87 11. Definition des abstrakten Vektorraumes Satz 11.2 Jeder Unterraum eines VR erfüllt die Axiome (V1) – (V8), ist also selbst ein Vektorraum. Beispiele: (a) Triviale Unterräume eines jeden VR V sind U1 = {θ} und U2 = V (b) Unterräume von R2: {0} , R2 und alle Geraden durch den Nullpunkt 0 (c) Unterräume des R3: {0} , R3 und alle Geraden durch 0 sowie alle Ebenen durch 0 (d) Sei A = Am,n und 0 ∈ Rm Satz 11.3 Die Lösungsmenge {x ∈ Rn : Ax = 0} eines HLGS ist ein Unterraum des Rn . (e) Sei A = Am,n Satz 11.4 Die Menge {y ∈ Rm . Rm : y = Ax, x ∈ Rn} ist ein Unterraum des (f) Satz 11.5 Seien x1 , x2 , . . . , xr beliebige Elemente eines VR V . Die Menge [{x1 , x2 , . . . , xr }] aller Linearkombinationen von x1 , x2 , . . . , xr ist ein Unterraum von V . [{x1 , x2 , . . . , xr }] heißt der von den Vektoren x1 , x2 , . . . , xr (in V ) aufgespannte oder erzeugte Unterraum von V . Er ist der kleinste Unterraum von V , der x1 , . . . , xr enthält. Beispiele: (a) Rn = [{e1, e2, . . . , en}] (b) Mm,n = [{Eik : 1 ≤ i ≤ m, 1 ≤ k ≤ n}] (c) Pn = [{0 , 1 , . . . , n }] , k (t) = tk , k = 0, 1, . . . , n Endlichdimensionale VR: 88 Definition 11.6 (Endlichdimensionaler Vektorraum) Ein VR V heißt endlichdimensional, wenn er von endlich vielen Vektoren x1 , x2 , . . . , xn aus V aufgespannt wird, d.h. wenn V = [{x1 , x2 , . . . , xn }] ; ein nicht endlichdimensionaler VR heißt unendlichdimensional . Beispiele: (a) Rn , Mm,n , Pn , sind endlichdimensional (b) Betr.: s = {(sn ) : (sn ) = s1 , s2 , . . .} Menge aller (unendlichen) Zahlenfolgen Mit (sn ) + (tn ) := (sn + tn ) λ(sn ) := (λsN ) , θ := Nullfolge , −(sn ) := (−sn ) ist s eine VR. s ist unendlichdimensional. Definition 11.7 (Basis) Unter einer Basis eines endlichendimensionalen VR V versteht man (endlichviele) Vektoren b1 , b2 , . . . , bn ∈ V , so dass a) b1 , b2 , . . . , bn linear unabhängig sind und b) [{b1 , b2 , . . . , bn }] = V b1 b2 e i P PP 26 PP PP P - e1 Beispiele: (a) e1 , e2 , . . . , en ist eine Basis des Rn (b) Die Matrizen Eik , i = 1, 2, . . . , m , k = 1, 2, . . . , n bilden eine Basis des Mm,n 89 11. Definition des abstrakten Vektorraumes (c) Die Polynome 0 (t) ≡ 1 , 1 (t) = t , . . . , n (t) = tn bilden eine Basis des Pn Satz 11.6 Ist b1 , b2 , . . . , bn eine Basis von V , so hat jedes x eine n P Darstellung x = λk bk mit eindeutig bestimmten Zahlen λk , k = 1, 2, . . . , n ; k=1 die Zahlen λk heißen die Koordinaten von x bezüglich der Basis b1 , b2 , . . . , bn . Satz 11.7 a) Jeder endlichdimensionale VR V 6= {θ} hat eine Basis. b) Sind b1 , b2 , . . . , bn und c1 , c2 , . . . , cn zwei Basen eines VR, so ist m = n ⇐⇒ die Anzahl der Elemente einer Basis ist eindeutig bestimmt. Beweis: a) Nach Vorrausetzung ist V = [{x1 , x2 , . . . , xn }]. Schritt 1: Sind die x1 , . . . , xn linear unabhängig, so bilden sie eine Basis von V , und wir sind fertig. Sind sie linear abhängig, so gilt: λ1 x1 + . . . + λn−1 xn−1 + λn xn = 0 und etwa λn 6= 0 λn−1 xn−1 λn =⇒ xn = − λλn1 x1 − . . . − Satz 11.5 V = [{x1 , . . . , xn−1 }] denn rechts steht ein Unterraum, der x1 , . . . , xn enthält und V = [{x1 , . . . , xn }] =⇒ ∈ [{x1 , . . . , xn−1 }] Schritt 2: Fahre fort wie in Schritt 1 ! Da V 6= {θ}, bricht das Verfahren nach m Schritten, 0 ≤ m < n , mit der Basis (evtl. umnummerieren!) x1 , x2 , . . . , xn−m von V ab. b) Nach Vorraussetzung sind b1 , . . . , bn linear unabhängig und V = [{c1 , . . . , cn }] b1 6= θ =⇒ b1 = λ1 c1 + λ2 c2 + . . . + λm cm und etwa λ1 6= 0 =⇒ c1 = s.o. 90 1 b λ1 1 − λ2 c λ1 2 − ... − λm c λ1 m =⇒ V = [{b1 , c2 , . . . , cm }] =⇒ b 2 = µ1 b 1 + µ2 c 2 + . . . + µm c m ∈ [{b1 , c2 , . . . , cm }] b1 , b2 lin. unabh. =⇒ eines der µ2 , . . . , µn , etwa µ2 , ist 6= 0 c2 ∈ [{b1 , b2 , c3 , . . . , cm }] =⇒ V = [{b1 , b2 , c3 , . . . , cm }] =⇒ Auf diese Weise fahre fort, bis alle bk ausgetauscht sind. =⇒ V = [{b1 , . . . , bm , cm+1 , . . . , cn }] (evtl. umnumerieren!) =⇒ m≤n Ebenso beweist man umgekehrt: n ≤ m =⇒ m = n. Definition 11.8 (Dimension) Die nach Satz 11.7b eindeutig bestimmte Anzahl der Vektoren einer Basis einer endlichdimensionalen VR V heißt Dimension, dim V , von V . Beispiele: (a) dim Rn = n , dim Mm,n = m · n , dim Pn = n + 1 (b) dim {0} := 0 (c) Basen des R2 : c2 c1 b1 * K A b2 H YHA H A Je zwei Vektoren b1 6= 0 , b2 6= 0 des R2 (dim R2 = 2) , so dass b2 6= λb1 für ein λ ∈ R , bilden eine Basis des R2 . =⇒ es gibt ∞ viele Basen, jede hat aber gleichviele (dim V ) Elemente 91 11. Definition des abstrakten Vektorraumes 11.1. Dimensionsberechnung Vorbereitung: Satz 11.8 Gegeben seien Vektoren x1 , x2 , . . . , xn , xn+1 eines VR V , so dass x1 , x2 , . . . , xn , xn+1 {z } | linear unabhängig | {z } linear abhängig Dann ist xn+1 eine Linearkombination von x1 , x2 , . . . , xn . Beweis: x1 , x2 , . . . , xn , xn+1 linear abhängig Def. =⇒ es gibt Zahlen λ1 , λ2 , . . . , λn , λn+1 , die nicht alle = 0 sind, so dass n+1 X λk xk = θ. k=1 Fall 1: λn+1 = 0 =⇒ es gibt ein 1 ≤ j ≤ n mit λj 6= 0 , n+1 n P P und es ist θ = λk x k = λk x k k=1 k=1 ↑ λn+1 = 0 =⇒ x1 , x2 , . . . , xn linear abhängig =⇒ Widerspruch zur Vorraussetzung =⇒ Fall 1 ist unmöglich Fall 2: λn+1 6= 0 (einzig mögliche Alternative !) n n P P =⇒ λn+1 xn+1 = θ − λk x k = (−λk )xk k=1 k=1 n P −λk =⇒ xn+1 = xk λ k=1 n+1 =⇒ xn+1 ist Linearkombination der Vektoren x1 , x2 , . . . , xn . Satz 11.9 Seien a1 , a2 , . . . , an Vektoren des Rm und U = [{a1 , a2 , . . . , an }] der von diesen Vektoren aufgespannte Unterraum des Rm . Dann gilt dim U = Rg (a1 , a2 , . . . , an ). 92 11.2. Berechnung einer Basis von U Beweis: Sei r = Rg (a1 , . . . , an ) und seien ak1 , . . . , akj , . . . , akr r unabhängige Vektoren. Betr.: beliebigen Vektor ak , 1 ≤ k ≤ n es gibt Zahlen ckj , so dass ak1 , . . . , akr , ak | {z } Satz 11.8 =⇒ linear unabh. | {z } linear abh. r X ak = ckj akj für alle k = 1, 2, . . . , n j=1 n P Sei jetzt x ∈ U ⇐⇒ x = λk ak mit Zahlen λk k=1 n P = λk j=1 k=1 r P = j=1 =⇒ x ∈ =⇒ U ⊂ r P n P k=1 ckj akj = λk ckj akj ak 1 , . . . , a k r ak 1 , . . . , a k r ; ak 1 , . . . , a k r ⊂ U =⇒ U = [{ ak1 , . . . , akr }] Def. a , . . . , a ist eine Basis kr | {z } =⇒ k1 von U linear unabh. andererseits ist natürlich Def.11.8 =⇒ dim U = r = Rg A , A = (a1 , . . . , an ) Eine Folgerung für U = [{a1 , . . . , an }] , ak ∈ Rm , k = 1, . . . , n ist die Eigenschaft dimU = Rg( a1 , . . . , an ) ≤ min(m, n, ) | {z } (m,n)– Matrix 11.2. Berechnung einer Basis von U Hilfsmittel: e.U. I, II, III 93 11. Definition des abstrakten Vektorraumes Indexzeile 1 .. . 2 .. . ... k .. . ... n .. . ak . . . an a1 a2 . . . .. .. .. .. . . . . .. . Matrix A .. . A = Am,n e.U. I, II, III wobei: Vertauschungen (II) werden auch in der Indexzeile durchgeführt z Indexmenge K1 }| k1 k2 ... kr α11 α12 ... α1r 0 α22 ... α2r .. .. .. .. . . . . 0 0 ... αrr −−− −−− −−− −−− 0 0 ... 0 .. .. .. . . . 0 0 ... 0 {z | kr+1 | α1r+1 | α2r+1 .. | . kn α1n α2n .. . { | αrr+1 ... αrn | −−− −−− −−− | 0 ... 0 .. .. | . . | 0 ... 0 Treppenmatrix Tr α11 6= 0, . . . , αrr 6= 0 Satz11.9 =⇒ dim U = Rg A = r Wir betrachten jetzt die Vektoren ak1 , ak2 , . . . , akr , also {ak : k ∈ K1 } 94 K2 }| ... ... ... 11.2. Berechnung einer Basis von U B = Teilmatrix von A mit den Spalten aki , i = 1, . . . , t e.U. I, II - wie oben durgeführt | | | | 0 0 ... αrr | −−− −−− −−− −−− | 0 0 ... 0 | .. .. .. . . . | 0 0 ... 0 | {z } α11 0 .. . α12 α22 .. . ... ... ... α1r α2r .. . T̃r (auch Treppenmatrix) =⇒ Rg B = Rg T̃r = r ⇐⇒ ak1 , . . . , akr sind linear unabhängig nach dem Beweis von Satz 11.9 =⇒ U = [{ak1 , . . . , akr }] =⇒ ak1 , . . . , akr ist eine Basis von U e.U. Satz 11.10 Sei A = (a1 , . . . , an ) , A −→ Tr . Ferner sei K1 die Menge der zu den r ersten Spalten von Tr gehörenden Elementen der Indexzeile. Dann ist {ak : k ∈ K1 } eine Basis von U = [{a1 , . . . , an }]. Beispiel: 1 1 2 0 a1 = 0 , a2 = 1 , a3 = 1 , a4 = −1 −1 2 1 −3 es ist a3 = a1 + a2 , a4 = a1 − a2 , a1 , a2 sind linear unabh. =⇒ U = [{a1 , a2 , a3 , a4 }] = [{a1 , a2 }] also ist a1 , a2 eine Basis von U und dim U = 2 Das Verfahren von Satz 11.9, 11.10: 95 11. Definition des abstrakten Vektorraumes 1 2 3 4 a1 a2 a3 a4 r = 2 , K1 = {1, 2} =⇒ dim U = 2 {a1 , a2 } Basis von U = 1 2 1 1 0 1 −1 2 1 1 0 1 0 3 1 1 0 1 −−− −−− 0 0 | 3 4 2 0 ·(+1) 1 −1 III 1 −3 2 0 1 −1 ·(−3) 3 −3 III | 2 0 | 1 −1 | −−− −−− | 0 0 {z } T2 (Satz 11.9) (Satz 11.10) Dimension beim Rechnen mit Unterräumen: Seien U, V zwei Unterräume eines endlichdimensionalen VR X. Definition 11.9 (Summe von Unterräumen) Sind U, V zwei Unterräume eines Vektorraumes X, so heißt U + V := {u + v : u ∈ U , v ∈ V } Summe von U und V . Satz 11.11 Unter den Voraussetzungen von Definition (11.9) gilt: I) U ∩ V ist wieder ein Unterraum von X II) U + V ist wieder ein Unterraum von X Beweis von (I): a) θ ∈ U , θ ∈ V ⇐⇒ θ ∈ U ∩ V , ebenso folgen Eigenschaften b), c) gemäß Definition 11.5 . Satz 11.12 (Dimenssionssatz I) Es gilt dim U + dim V = dim (U ∩ V ) + dim (U + V ), 96 11.3. Berechnung von Orthonormalbasen für je zwei Unterräume U, V eines endlichdimensionalen linearen Raumes X. Spezialfall: U ∩V = {θ} =⇒ dim (U +V ) = dim U + dim V R2 U V U + V = R2 , 2 = dim r θ R2 = |dim {z U} + |dim {z V} =1 =1 U ∩ V = {θ} (ein trivialer Unterraum) Definition 11.10 (Kern) Sei A = Am,n . Unter dem Kern von A versteht man den Unterraum von Rn Kern A := {x ∈ Rn : Ax = 0} (siehe Satz 11.3) Satz 11.13 (Dimensionssatz II) Für jede Matrix A = Am,n gilt n = Rg A + dim (Kern A) Beweis: Ax = 0 r = Rg A − a∗1r+1 a∗11 .. . a∗rr+1 − ∗ arr Satz 9.2 =⇒ x = 0 + t1 1 0 .. . 0 | {z =⇒ Kern A = [{ u∗1 , . . . , u∗n−r | {z u∗1 a∗ − a1n ∗ . 11 .. a∗ − rn a∗rr + . . . + tn−r 0 0 . .. 1 | {z } } u∗n−r }] } linear unabhängig =⇒ u∗1 , . . . , u∗n−r ist eine Basis von Kern A =⇒ dim Kern A = n − r, q.e.d. 11.3. Berechnung von Orthonormalbasen Sei V ein beliebiger Unterraum des beliebige Basis von V . Rn mit dim V = r ≤ n und b1 , b2 , . . . , br eine 97 11. Definition des abstrakten Vektorraumes Definition 11.11 (Orthonormalbasis) Eine Basis u1 , u2 , . . . , ur von V heißt Orthonormalbasis, wenn u1 , u2 , . . . , ur auch ein Orthonormalsystem ist, d.h. 1, j = k wenn < uj , uk >= ⇐⇒ kuj k = 1 für alle j, uj ⊥ uk , j 6= k. 0, j 6= k 11.3.1. Bedeutung von Orthonormalbasen Gegeben seien Orthonormalbasen u1 , u2 , . . . , ur . x∈V Satz 11.6 =⇒ es gibt eindeutig bestimmte Zahlen λj , j = 1, . . . , r (Koordinaten von x bzgl. u1 , . . . , ur ), so dass r r P P <·,uk > x= λj uj =⇒ λj < uj , uk > = λk < x , uk >= | {z } j=1 j=1 = 1, k = j = 0, k 6= j =⇒ λk =< x, uk > einfache Berechnung der Koordinaten 11.3.2. Konstruktion einer Orthonormalbasis von V aus einer beliebigen Basis b1 , . . . , br von V Geg.: Basis b1 , . . . , br von V Definition 11.12 (Orthonormalisierungsverfahren nach E. Schmidt) 98 11.3. Berechnung von Orthonormalbasen geometrisch: b1 kb1 k b − < b2 , u1 > u1 u2 := 2 kb2 − < b2 , u1 > u1 k b − < b3 , u1 > u1 − < b3 , u2 > u2 u3 := 3 kb3 − < b3 , u1 > u1 − < b3 , u2 > u2 k .. . P bj − j−1 i=1 < bj , ui > ui uj := Pj−1 kbj − i=1 < bj , ui > ui k .. . P br − r−1 < br , ui > ui ur := Pi=1 r−1 kbr − i=1 < br , ui > ui k u1 := (a) Normiere b1 auf 1 =⇒ u1 (b) Errichte in der {b1 , b2 }– Ebene eine Senkrechte g2 durch 0 zu der durch b1 und 0 erzeugten Achse g1 , projiziere b2 auf g1 , normiere die Projektion =⇒ u2 (c) Errichte Senkrechte g3 zu {b1 , b2 }– Ebene durch 0 , projiziere b3 auf g3 , normiere die Projektion =⇒ u3 (d) u.s.w. Satz 11.14 u1 , u2 , . . . , ur ist ein Orthonormalsystem und somit eine Orthonormalbasis von V . Beweis: Wir zeigen durch vollständige Induktion nach j = 1, . . . , r : u1 , u2 , . . . , uj ist ein Orthonormalsystem j = 1 : Klar, da ku1 k = 1 Sei j > 1 und die Behauptung für j − 1 bereits erwiesen. j−1 X aj , wobei aj := bj − < bj , ui > ui uj = kaj k i=1 =⇒ kuj k = 1 und zu zeigen bleibt aj ⊥uk , k = 1, . . . , j − 1 j−1 P < aj , uk > =< bj − < bj , ui > ui , uk > i=1 =< bj , uk > − < j−1 P < bj , ui > ui , uk > i=1 99 11. Definition des abstrakten Vektorraumes =< bj , uk > − j−1 P i=1 < bj , ui > · < ui , uk > | ff {z } = 1, i = k 0, i 6= k nach Induktionsvor. =< bj , uk > − < bj , uk >= 0 , k = 1, . . . , j − 1 =⇒ u1 , . . . , uj ist ein Orthonormalsystem. Dass das Orthonormalsystem u1 , . . . , ur eine Basis von V , also linear unabhängig ist, folgt ohne weiteres (vgl. Bem. nach Def. 11.11): λ 1 u 1 + . . . + λr u r = 0 λk =< 0, uk >= 0, k = 1, . . . , r. =⇒ a2 = b2 − < b2 , u1 > u1 Illustration zum 2. Schritt: 6u2 = a2 ka2 k HH Y 1HH u1 = Beispiel: b1 = u2 b2 6 - u1 = b1 100 1 0 , b2 = 1 1 ,r=2 rb 3 2 Projektion b1 kb1 k -r b - < b2 , u1 > u1 1 11.3. Berechnung von Orthonormalbasen =⇒ u1 = b1 kb1 k = 1 0 , < b2 , u2 >= 1 b2 − < b2 , u1 > u1 = =⇒ u2 = b2 −<b2 ,u1 >u1 kb2 −<b2 ,u1 >u1 k = 1 1 0 1 −1· 1 0 = 0 1 101 11. Definition des abstrakten Vektorraumes 102 12. Lineare Abbildungen (Transformationen) Definition 12.1 (Lineare Abbildung) Seien X , Y beliebige VR und f : X −→ Y eine Abbildung von X nach Y . f heißt linear, wenn a) f (x + u) = f (x) + f (u) für alle x, u ∈ X b) f (λx) = λf (x) Add. und λ– faches in X Add. und λ– faches in Y für alle λ ∈ R, für alle x ∈ X Satz 12.1 Für jede lineare Abbildung f : X −→ Y gilt f (θX ) = θY mit θX = Null von X, θY = Null von Y Beweis: f (θX ) = f (0 · x) = 0 · f (x) = θY Beispiele: (a) Satz 12.2 x1 + 1 (b) f (x1 , x2 ) = ist keine lineare Abbildung −x1 1 wegen f (0) = 6= 0 0 Satz 12.2 Sei A eine beliebige (m, n)– Matrix. Dann ist f (x) := Ax, x ∈ Rn eine lineare Abbildung von Rn in Rm. Beweis: Matrixmultiplikation 12. Lineare Abbildungen Satz 12.3 Sei X ein endlichdimensionaler VR mit Basis b1 , b2 , . . . , bn und f : X −→ Y eine lineare Abbildung von X in einen beliebigen linearen Raum Y . Sind λ1 , . . . , λn die Koordinaten von x ∈ X bez. b1 , b2 , . . . , bn , dann gilt: f (x) = n X λk f (bk ) k=1 =⇒ Zur Definition von f genügt die Angabe der Vektoren ck = f (bk ) ∈ Y, k = 1, 2, . . . , n. P b1 ,...,bn Basis von X Beweis: x ∈ X =⇒ x = nk=1 λk bk , λ1 , . . . , λn Koordinaten von x bez. bk n n n X X X D.12.1a D.12.1b =⇒ f (x) = f ( λk b k ) = f (λk bk ) = λk f (bk ). k=1 k=1 k=1 12.1. Matrixdarstellung linearer Abbildungen Vorraussetzungen: X n–dim. VR mit Basis B : b1 , . . . , bn Y m–dim. VR mit Basis D : d1 , . . . , dm f : X −→ Y lineare Abbildung x ∈ X =⇒ x = Pn k=1 λk bk , λ1 , . . . , λn Koordinaten von x bez. Basis b1 , . . . , bn Definition 12.2 (Koordinatentupel des Urbilds) Gegeben sei die Basis B = {b1 , b2 , . . . , bn }, dann heißt λ1 λ2 x = xB := .. . λn der Koordinaten–n–Vektor von x bez. der Basis b1 , b2 , . . . , bn . Beispiel: X = Rn , B = {e1 , . . . , en } (kanonische Basis des Rn ) x1 x2 P n x ∈ R ⇐⇒ x = .. =⇒ x = nk=1 xk ek =⇒ xB = x . xn =⇒ Bei der kanonischen Basis B stimmen x und sein Koordinaten–n–Vektor xB überein ! 104 12.1. Matrixdarstellung linearer Abbildungen Satz12.3 x ∈ X =⇒ f (x) = n X λk f (bk ) k=1 es gilt: f (bk ) ∈ Y , k = 1, 2, . . . , m. =⇒ f (bk ) = m X aik di mit f (bk )D := i=1 ↑ d1 , d2 , . . . , dm Basis von Y =⇒ f (x) = n X λk f (bk ) = k=1 n X a1k a2k .. . amk Koordinatenvektor von f (bk ) bez. der Basis d1 , . . . , dm von Y λk k=1 m X aik di = i=1 m X n X ( aik λk )di i=1 k=1 Definition 12.3 (Koordinatentupel des Bildes) P n a1k λk a11 a12 . . . a1n k=1 P a n a . . . a2n 21 22 a2k λk . . .. .. k=1 = .. f (x)D = . .. am2 . . . amn am1 . |{z} |{z} |{z} ↑ n P f (b2 ) f (bn ) f (b1 ) Koordinaten– D D D amk λk m–Vektor von f (x) bez. Basis d1 , d2 , . . . , dm von Y λ1 λ2 .. . λn k=1 | {z =:Af } | {z } xB Af : Matrix der linearen Abbildung f bez. Basen B, D Satz 12.4 X n–dim. mit Basis B = {b1 , b2 , . . . , bn }, Y m–dim. mit Basis D = {d1 , . . . , dm } f : X −→ Y linear, xB Koordinaten–n–Vektor von x bez. Basis B, f (x)D Koordinaten–m–Vektor von f (x) bez. Basis D. Dann gilt f (x)D = Af xB , wobei Af := (f (b1 )D , f (b2 )D , . . . , f (bn )D ) = AF (B, D) f (bk )D , mit k = 1, . . . , n, sind definiert als Koordinaten–m–Vektoren (bez. Basis 105 12. Lineare Abbildungen D) der Bilder f (bk ) der Basis B = {b1 , . . . , bn } von X =⇒ f ist eindeutig bestimmt durch die Matrix Af Spezialfall: X = Rn , Y = Rm , f : X −→ Y linear, B = {e1 , e2 , . . . , en } D = {1 , 2 , . . . , m } Kanonische Basen x ∈ X = Rn =⇒ xB = x y = f (x) ∈ Y = Rm =⇒ y = y D oder f (x)D = f (x) =⇒ f (x) = f (x)D Satz12.4 = Af x B = Af x =⇒ f (x) = Af x (=feste Matrix mal Vektor) mit Af = (f (e1 )D , . . . , f (en )D ) = (f (e1 ), . . . , f (en )) 12.2. Produkte linearer Abbildungen Geg.: Vektorräume X, Y, Z, lineare Abb. f : X −→ Y , g : Y −→ Z Definition 12.4 Die durch (g ◦ f )(x) := g(f (x)), x ∈ X, definierte Abbildung g ◦ f : X −→ Z heißt Produkt der Abbildungen f, g Satz 12.5 Sind f, g lineare Abbildungen, so ist die Produktabbildung g ◦ f wieder linear. VR: X mit Basis B = {b1 , . . . , bn }, Y mit Basis C = {c1 , . . . , cr }, Z mit Basis D = {d1 , . . . , dm } S.12.4 f: XB → YC linear =⇒ f (x)C = Af xB , Af = (f (b1 )C , . . . , f (bn )C ) g: YC → ZD linear =⇒ g(y)D = Ag y C , Ag = (g(c1 )D , . . . , g(cr )D ) 106 S.12.4 (1) (2) 12.2. Produkte linearer Abbildungen Sei h := g ◦ f (linear nach Satz 12.5) S.12.4 =⇒ Ah = (h(b1 )D , . . . , h(bn )D ) y z }| { h(bk )D = (g ◦ f )(bK )D = g(f (bk ))D = Ag f (bk )C Also ist: (2) Ag◦f = (Ag f (b1 )C , . . . , Ag f (bn )C ) = Ag (f (b1 )C , . . . , f (bn )C ) = Ag Af | {z } Af Somit gilt: Satz 12.6 Die Matrix Ag◦f der Produktabbildung g ◦ f ist gegeben durch das Produkt der Matrizen Ag , Af : Ag◦f = Ag Af (Reihenfolge beachten !) Beispiel: a) Seien X = Pn , Y = Pn−1 und L : X → Y der Differentiationsoperator: L(p) = dp dt Gesucht ist die Matrix AL = AL (B, D), wobei B Basis von Pn : 0 (t) ≡ 1, 1 (t) = t, . . ., n (t) = tn D Basis von Pn−1 : δ0 (t) ≡ 1, δ1 (t) = t, . . ., δn−1 (t) = tn−1 AL (B, D) Def.12.3 = ( dim Pn = n + 1 ) ( dim Pn−1 = n ) (L(0 )D , . . . , L(n )D ) k = tk =⇒ L(k ) = dtk dt = ktk−1 = kδk−1 , k = 0, 1, . . . , n =⇒ L(0 )D = 0 0 .. . , 0 =⇒ AL = 0 0 0 .. . 1 0 0 .. . 0 2 0 .. . 0 0 0 0 .. . 0 L(k )D = k ←− k–te Komponente, k = 1, . . . , n 0 . .. 0 ... 0 ... 0 ... 0 ( n × (n + 1) Matrix ) . . .. . . ... n 107 12. Lineare Abbildungen b) Seien X = Pn−1 , Y = Pn und Rt J : X −→ Y der Integrationsoperator: J(p) = 0 p(t)dt Gesucht ist AJ = AJ (D, B) mit den Basen D von Pn−1 und B von Pn aus a). AJ (B, D) = (J(δ0 )B , J(δ1 )B , . . . , J(δn−1 )B ) δk = tk =⇒ J(δk ) = Rt 0 tk dt = 1 k+1 t k+1 = 1 k+1 k+1 , k = 0, 1, . . . , n − 1 0 ... 0 1 J(δk )B = k+1 ←− (k + 2)–te Komponente , k = 0, 1, . . . , n − 1 0 . .. 0 AJ = 0 ... 0 0 ... 0 1 . . . 0 2 .. . . .. . . . 1 0 0 ... n 0 1 0 .. . ( (n + 1) × n Matrix ) c) Betrachte die Produkte J ◦ L : Pn → Pn und L ◦ J : Pn−1 → Pn−1 AJ◦L S.12.6 = AJ AL = 0 0 0 .. . 0 1 0 .. . 0 0 1 .. . ... ... ... .. . 0 0 0 .. . 0 | 00 −− −− −− = 0 | In 0 0 0 ... 1 Sei p(t) = p0 + p1 t + . . . + pn tn ∈ Pn =⇒ pB = p0 p1 .. . pn 108 S.12.4 =⇒ J ◦ L(p)D = AJ◦L pB = 0 p1 .. . pn 12.2. Produkte linearer Abbildungen Z =⇒ 0 t dp dt = J ◦ L(p) = p1 t + . . . + pn tn dt Ebenso berechnet man: AL◦J = AL AJ = In d =⇒ dt Z t p(t)dt = p(t) für alle p(t) ∈ Pn−1 . 0 109 12. Lineare Abbildungen 110 13. Basistransformationen — Koordinatentransformationen Anwendung: z.B. Beschreibung eines Raumes oder einer Ebene von einem sich bewegenden System aus z.B. R2 : sich um 0 drehende Scheibe px A A A B = {b1 , b2 } Basis im µ1 d2AKA ruhenden“ System, ” A also im 2 µ2 A 6b2 * D = {d1 , d2 } Basis im A d1 p A rotierenden“ System 0A ” b1 λ1 A A A A A A λ2 A A A R Beobachter: sitzt auf rotierender Scheibe und beobachtet die Punkte x ∈ R2 Punkt x ∈ R 2 % x = λ1 b 1 + λ2 b 2 mit eindeutig best. Koord. λ1 , λ2 k gleicher Punkt des beob. Raumes mit eindeutig best. Koord. µ1 , µ2 & x = µ1 d1 + µ2 d2 Problem: Welche besteht zwischen den Beziehung Koordinatensätzen λ1 µ1 xB = ( bez. b1 , b2 ) und xD = (bez. d1 , d2 ) desselben λ2 µ2 Vektors x ∈ R2 ? Lösung: Sei V ein n–dim. VR und B = {b1 , . . . , bn }, D = {d1 , . . . , dn } zwei Basen von V . 13. Basis– und Koordinatentransformationen Betr.: x ∈ V =⇒ x = = n P k=1 n P λk bk : λ1 , . . . , λn Koordinaten von x bez. B µj dj : µ1 , . . . , µn Koordinaten von x bez. D j=1 =⇒ n P (∗) λk b k = n P ? µj dj =⇒ Beziehung zwischen {λK } und {µj } j=1 k=1 BasisB Betr. Vektor dj ∈ V =⇒ dj = n P dkj bk , k=1 d1j d2j .. . =: dj B dnj wobei dj B : Koordinaten–n–Tupel von dj bez. B Einsetzen in (∗) =⇒ n P λk b k = n P µj j=1 k=1 n P n n X P dkj bk = ( dkj µj )bk k=1 k=1 j=1 | =⇒ x = n P k=1 λk b k = n P γk bk B={b1 ,...,bn } k=1 =⇒ λK = γk := =⇒ } λk = γk , k = 1, 2, . . . , n enthält lin. unabh. Vektoren n X {z =:γk Koordinaten bez. (derselben) Basis sind eindeutig bestimmt ! dkj µj , k = 1, 2, . . . , n j=1 Definition 13.1 (Transformationsmatrix) T = Tn,n = (dkj ) heißt die zur Basistransformation B = {b1 , . . . , bn } −→ D = {d1 , . . . , dn } gehörende Transformationsmatrix d11 . . . d1j . . . d1n d21 . . . d2j . . . d2n . .. .. . . = TB,D T = (d1 B , . . . , dn B ) = .. dn1 . . . dnj . . . dnn |{z} dj dj B 112 B ist der Koordinaten–n–Vektor von dj bez. alter“ Basis B = {b1 , . . . , bn }. ” Satz 13.1 (Koordinatentransformation bei Basistransformation) Basis D = {d1 , . . . , dn } Basis B = {b1 , . . . , bn } ( neueBasis“) ( alte Basis“) ” ” λ1 µ1 λ2 µ2 −→ xD = .. xB = .. Vektor x ∈ V : . . λn µn {z } | (LGS für xD ) xB =T xD Satz 13.2 Die Transformationsmatrix T ist regulär. Beweis: Wegen der eindeutigen Koordinatendarstellung gilt für alle x, y ∈ V , für alle λ ∈ R: (∗) x + y B = xb + y B , λxB = λxb und (∗∗) xB = 0 ⇐⇒ x = θ Sei nun λ1 d1 B + . . . + λ1 dn B = 0 (∗) =⇒ λ1 d1 + . . . + λn dn B = 0 (∗∗) =⇒ λ1 d1 + . . . + λn dn = θ d1 , . . . , dn Basis, also lin. unabh. =⇒ λ1 = λ2 = . . . = λn = 0 =⇒ d1 B , . . . , dn B lin. unabh. =⇒ Rg T = n ⇐⇒ T ist regulär. Folgerung: Satz 13.3 D.8.6 a) T regulär ⇐⇒ Rg T = n ⇐⇒ det T 6= 0 ⇐⇒ T −1 existiert b) T xD = xB ⇐⇒ xD = T −1 xB Beispiel: Drehungen im R (B alte, D neue Basis) 2 e2 @ @ 6 d2@ @ I d22 @ d21 @ d12 ϕ d1 π 2 ϕ+ @ d11 @ - e1 @ @ 1 2 Orthonormalsysteme: 1 0 Basis B: e1 = , e2 = 0 1 d11 d12 Basis D: d1 = , d2 = d21 d22 @ @ @ @ 113 13. Basis– und Koordinatentransformationen Transformationsmatrix: T = (d1 B , d2 B ) = (d1 , d2 ) = z }| { B = kanon. Basis d11 d12 d21 d22 Konstruktion =⇒ d11 = cos ϕ, d21 = sin ϕ d12 = cos(ϕ + π2 ) = − sin ϕ, d22 = sin(ϕ + π2 ) = cos ϕ =⇒ T = cos ϕ − sin ϕ sin ϕ cos ϕ für alle ϕ det T = cos2 ϕ − sin ϕ(− sin ϕ) = 1 für alle ϕ T −1 = 1 det T d22 −d12 −d21 d11 = cos ϕ sin ϕ − sin ϕ cos ϕ = T 0 =⇒ T −1 = T 0 ⇐⇒ T T 0 = T 0 T = I Definition 13.2 (Orthogonale Matrix) Eine (n, n)– Matrix P heißt orthogonal, wenn P −1 existiert und P −1 = P 0 ⇐⇒ P P 0 = P 0 P = I Satz 13.4 P ist orthogonal ⇐⇒ Spalten pk , k = 1, . . . , n von P bilden ein ONS ⇐⇒ Zeilen pi , i = 1, . . . , n von P bilden ein ONS Anwendung: Transformationsmatrizen sind unter bestimmten Vorraussetzungen orthogonal: Satz 13.5 Sei B = {e1 , . . . , en } die kanonische Basis von V = Rn und D = {d1 , . . . , dn } eine beliebige Orthonormalbasis. Dann ist die Transfermatrix für B −→ D gegeben durch T = (d1 B , . . . , dn B ) = (d1 , . . . , dn ) und T ist orthogonal, d.h. T −1 = T 0 . Konsequenz: Sei X = Rn , x ∈ X Koordinaten–n–Vektor bez. B = {e 1 , . . . , e n} x1 x B = x = ... xn 114 Koordinaten–n–Vektor bez. D = {d1 , . . . , d n} x̃1 x D =: x̃ = . . . x̃n 13.1. Basistransformationen und lineare Abbildungen aus Satz 13.1 =⇒ x B = Tx D ⇐⇒ x = T x̃ aus Satz 13.3, Satz 13.5 =⇒ x̃ = T −1 x = T 0 x mit T = (d1 , . . . , dn ) z }| { D = {d1 , . . . , dn } ONS 13.1. Basistransformationen und lineare Abbildungen Sei f : X −→ Y eine lineare Abbildung, X, Y endlichdimensional dim X = n, dim Y = m f Raum X −→ Y Basis B = {b1 , . . . , bn } ↓ D = {d1 , . . . , dm } Matrix Af Definition 13.3 Af := f (b1 )D , . . . , f (bk )D , . . . , f (bn )D = Af (B, D) | {z } Koordinaten–m–tupel der Koordinaten von f (bk ) bez. der Basis D = {d1 , . . . , dm } f Abbildungsmechanismus: x ∈ X −→ y = f (x) ↓ xB |{z} Koordinaten–n– tupel von X bez. Basis B in X ↓ f (x)B | {z } Koordinaten– m–tupel von f (x) bez. Basis D in Y aus Satz 12.4 =⇒ f (x)D = Af xB 115 13. Basis– und Koordinatentransformationen 13.1.1. Transformation der Basis von Y , (B fest) D = {d1 , d2 , . . . , dm } −→ D̃ = {d˜1 , d˜2 , . . . , d˜m } Transformationsmatrix Q Q = (d˜1 D , d˜2 D , . . . , d˜k D , . . . , d˜m D ) = QDD̃ |{z} Koordinaten–m–tupel der Koordinaten des neuen“ Basisvektors ”˜ dk bez. der alten“ Basis D. ” Geg.: Vektor y ∈ Y .& yD = Koordinaten–m–tupel von y bez. Basis D aus Satz 13.3 =⇒ y D̃ = Koordinaten–m–tupel bez. Basis D̃ Es gilt: y D̃ = Q−1 y D Berechnung der neuen Matrix A(Basen B,D̃) (∗) von f D.12.3 Af (B, D̃) := (f (b1 )D̃ , . . . , f (bk )D̃ , . . . , f (bn )D̃ ) Formel (∗) y=f (bk ) =⇒ f (bk )D̃ = Q−1 f (bk )D =⇒ Af (B, D̃) = (Q−1 f (b1 )D , . . . , Q−1 f (bk )D , . . . , Q−1 f (bn )D ) = Q−1 (f (b1 )D , . . . , f (bk )D , . . . , f (bn )D ) = Q−1 Af (B, D) mit Q = QDD̃ Satz 13.6 116 13.1. Basistransformationen und lineare Abbildungen X Basis B = {b1 , . . . , bn } Y Basis D = {d1 , . . . ,dn } |{z} −→ D̃ = {d˜1 , . . . , d˜n } QDD̃ = (d˜1 D , . . . , d˜k D , . . . , d˜m D ) f : X −→ Y lineare Abbildung. Dann gilt: Af (B, D̃) = Q−1 Af (B, D) 13.1.2. Transformation der Basis von X (D fest) B = {b1 , . . . , bn } |{z} =⇒ B̃ = {b̃1 , . . . , b̃n } Transformationsmatrix P = PB B̃ PB B̃ := (b̃1 B , . . . , b̃k B , . . . b̃n B ) D.12.3 Af (B̃, D) := (f (b̃1 )D , . . . , f (b̃k )D , . . . , f (b̃n )D ) | {z } ? Sei b̃k B = (β1k , . . . , βnk )0 = Koord. von b̃k bez. Basis B n X =⇒ b̃k = βjk bk Darstellung von b̃k bez. B j=1 n n X X =⇒ f (b̃k ) = f ( βjk bj ) = βjk f (bj ) j=1 =⇒ f (b̃k )D = n X (Gleichung in Y ) j=1 βjk f (bj ) D (wegen eindeutiger Koord.–Darst.!) j=1 β1k .. . = (f (b1 )D , . . . f (bj ) , . . . , f (bn )D ) βjk D . .. βnk = Af (B, D)b̃k B =⇒ Af (B̃, D) = (f (b̃1 )D , . . . , f (b̃n )D ) = (Af (B, D)b̃1 B , . . . , Af (B, D)b̃n B ) 117 13. Basis– und Koordinatentransformationen Satz 13.7 Sei P = PB B̃ die n × n Transformationsmatrix für B 7→ B̃. Dann gilt Af (B̃, D) = Af (B, D)P. 13.1.3. Transformation der Basis von X und von Y X : B = {b1 , . . . , bn } |{z} =⇒ B̃ = {b̃1 , . . . , b̃n } Transf. Matrix P = PB B̃ := (b̃1 B , . . . , b̃n B ) Y : D = {d1 , . . . , dm } |{z} =⇒ D̃ = {d˜1 , . . . , d˜m } Transf. Matrix Q = QDD̃ := (d˜1 D , . . . , d˜m D ) Satz 13.8 Af (B̃, D̃) = Q−1 Af (B, D)P = Q−1 A (B, D)PB B̃ DD̃ f Beweis: folgt aus Satz 13.6, 13.7 . Spezialfall: Y = X , mit D = B und D̃ = B̃ , m = n Also B = {b1 , . . . , bn } −→ B̃ = {b̃1 , . . . , b̃n } Q := (d˜1 D , . . . , d˜n D ) = (b̃1 B , . . . , b̃n B ) P := (b̃1 B , . . . , b̃n B ) =⇒ P = Q = (b̃1 B , . . . , b̃n B ) Q Satz 13.9 Im Fall X = Y , also f : X −→ X , und B = {b1 , . . . , bn } −→ B̃ = {b̃1 , . . . , b̃n } ist Af (B̃) = Q−1 Af (B)Q, Q = (b̃1 B , . . . , b̃n B ) und Af (B̃) := Af (B̃, B̃) = (f (b̃1 )B̃ , . . . f (b̃n )B̃ ) = Matrix von f bez. B̃ Af (B) := Af (B, B) = (f (b1 )B , . . . , f (bn )B ) = Matrix von f bez. B Beispiele: 118 13.1. Basistransformationen und lineare Abbildungen (a) V = R2 mit den Basen: 1 −1 1 −1 B= , , D= , 1 1 2 0 6 d1 @ 1 @ I b2@ @ d2 x @ Ry @ - - b1 - 1 Gesucht ist die Transformationsmatrix T = TB,D ! 1 −1 3 1 3 1 1 + = b1 + b2 = d1 = 2 1 2 1 2 2 2 −1 1 1 1 −1 1 1 d2 = =− + = − b1 + b2 0 2 1 2 1 2 2 3 − 12 2 =⇒ T = (d1 B , d2 B ) = 1 1 =⇒ T −1 = Sei x ∈ R2 mit x Aus Satz 13.1: x Sei y ∈ R2 mit y D B Aus Satz 13.3: y −1 −1 ;x D 2 =T D = Tx = B −1 1 = =? 3 2 1 2 3 2 1 2 1 −2 2 B 2 1 2 = ;y − 12 =? 1 2 = − 21 1 2 −1 1 = −2 0 D y B 1 2 3 2 2 −1 = 1 2 − 52 119 13. Basis– und Koordinatentransformationen (b) Drehungen des Koordinatensystems im R2 : y 6 ỹ x̃ cos ϕ ẽ = 1 I @ sin ϕ @ @ e2 cos ϕ + π2 @ = ẽ2 = 6 ẽ@ ẽ1 sin ϕ + π2 2 @ I @ @ - e1 - x (vgl. Beispiel zu Satz 13.3): T = (ẽ1 , ẽ2 ) cos ϕ − sin ϕ = sin ϕ cos ϕ x1 x̃1 x̃1 0 x1 =⇒ =T , =T x2 x̃2 x̃2 x2 120 − sin ϕ cos ϕ 13.1. Basistransformationen und lineare Abbildungen R3 : (c) Drehung des Koordinatensystems im Abbildung 13.1.: s =Schnittgerade der {x, y}-Ebene und der {x̃, ỹ} -Ebene. Auf s wird die positive Richtung so gewählt, dass die z-, z̃- und s-Achse ein Rechtssystem bilden. Die Eulerschen Winkel ϑ, ψ, ϕ sind dann wie folgt definiert: A) Nutationswinkel ϑ zwischen den positiven Richtungen der z- und der z̃-Achse: 0 ≤ ϑ ≤ π. B) Präzessionswinkel ψ zwischen der x-Achse und der s-Achse. Die Messung von ψ erfolgt im mathematisch positiven Sinn der {x, y}– Ebene: 0 ≤ ψ ≤ 2π. C) Winkel ϕ der reinen Drehung zwischen der s- und der x̃-Achse. Die Messung von ϕ erfolgt im mathematisch positiven Sinn der {x̃, ỹ}–Ebene: 0 ≤ ϕ < 2π. Der Übergang vom {x, y, z}– System zum {x̃, ỹ, z̃}– System wird durch drei aufeinanderfolgende Drehungen erreicht: x e1 y e2 z e3 X E1 1. Drehung- Y E 2 Z E3 X̃ Ẽ 1 2. Drehung- Ỹ Ẽ 2 Z̃ Ẽ 3 x̃ ẽ1 3. Drehung- ỹ ẽ2 z̃ ẽ3 121 13. Basis– und Koordinatentransformationen 1. Drehung Abbildung 13.2.: 1. Drehung Nach der Bemerkung im Anschluß an Def. 11.11 gilt: e1 = < e1 , E 1 > E 1 + < e1 , E 2 > E 2 + < e1 , E 3 > E 3 π π = cos ψE 1 + cos + ψ E 2 + cos E 3 2 2 = cos ψE 1 − sin ψE 2 e2 = < e2 , E 1 > E 1 + < e2 , E 2 > E 2 + < e2 , E 3 > E 3 π π = cos − ψ E 1 + cos ψE 2 + cos E 3 2 2 = sin ψE 1 + cos ψE 2 e3 = < e3 , E 1 > E 1 + < e3 , E 2 > E 2 + < e3 , E 3 > E 3 = E 3 2. Drehung Entsprechend berechnet man: E 1 = Ẽ 1 E 2 = cos ϑẼ 2 − sin ϑẼ 3 E 3 = sin ϑẼ 2 + cos ϑẼ 3 122 13.1. Basistransformationen und lineare Abbildungen Abbildung 13.3.: 2. Drehung 3. Drehung Abbildung 13.4.: 3. Drehung Ẽ 1 = cos ϕẽ1 − sin ϕẽ2 Ẽ 2 = sin ϕẽ1 + cos ϕẽ2 Ẽ 3 = ẽ3 Mit den Abkürzungen c1 = cos ψ, c2 = cos ϑ, c3 = cos ϕ s1 = sin ψ, c3 = sin ϑ, c3 = sin ϕ 123 13. Basis– und Koordinatentransformationen erhält man dann: e1 = cos ψ(cos ϕẽ1 − sin ϕẽ2 ) − sin ψ[cos ϑ(sin ϕẽ1 + cos ϕẽ2 ) − sin ϑẽ3 ] = (c1 c3 − s1 c2 s3 )ẽ1 + (−c1 s3 − s1 c2 c3 )ẽ2 + s1 s2 ẽ3 e2 = sin ψ(cos ϕẽ1 − sin ϕẽ2 ) + cos ψ[cos ϑ(sin ϕẽ1 + cos ϕẽ2 ) − sin ϑẽ3 ] = (s1 c3 + c1 c2 s3 )ẽ1 + (−s1 s3 + c1 c2 c3 )ẽ2 − c1 s2 ẽ3 e3 = sin ϑ(sin ϕẽ1 + cos ϕẽ2 ) + cos ϑẽ3 = s2 s3 ẽ1 + s2 c3 ẽ2 + c2 ẽ3 =⇒ Transformationsmatrix für D := {ẽ1 , ẽ2 , ẽ3 } −→ {e1 , e2 , e3 } =: B c 1 c 3 − s1 c 2 s3 s1 c 3 + c 1 c 2 s3 s2 s3 TB,D = −c1 s3 − s1 c2 c3 −s1 s3 + c1 c2 c3 s2 c3 s1 s2 −c1 s2 c2 −1 Nach Satz 13.3 ist TD,B = TB,D , und TB,D ist nach Satz 13.5 orthogonal 0 =⇒ TB,D = TD,B c1 c3 − s1 c2 s3 −c1 s3 − s1 c2 c3 s1 s2 = s1 c3 + c1 c2 s3 −s1 s3 + c1 c2 c3 −c1 s2 s2 s3 s2 c 3 c2 Anmerkung: Für ϑ = 0, π fallen die {x, y}– und {x̃, ỹ}– Ebene zusammen, und die Knotenlinie s ist nicht erklärt. In diesem Fall definiert man die s- Achse als identisch mit der x- Achse; dann ist also ψ = 0. cos ϕ − sin ϕ ϑ = 0 =⇒ TB,D = sin ϕ cos ϕ 0 0 cos ϕ − sin ϕ − sin ϕ − cos ϕ ϑ = π =⇒ TB,D = 0 0 (d) 124 0 0 1 0 0 −1 X = R3 Y = Ebene durch 0 in R3 , die von den Vektoren d1 , d2 aufgespannt wird; dabei sei d1 ⊥d2 f : X −→ Y , f (x) := senkrechte Projektion von x auf Y . 13.1. Basistransformationen und lineare Abbildungen x 6 * d2 : f (x) 0 @ @ @ Y @ @ @ @ d1 ? @ R @ f ist eine lineare Abbildung von X in Y , und es gilt: f (x) = < x, d1 > < x, d2 > d1 + d 2 kd1 k kd2 k2 2 d (∗) d Beweis: u1 := kd1 k , u2 := kd2 k ist die Orthonormalbasis von Y , die durch 1 2 u3 := u1 × u2 zu Orthonormalbasis von X = R3 ergänzt wird. x ∈ X =⇒ x = λ1 u1 + λ2 u2 + λ3 u3 =⇒ f (x) = λ1 u1 + λ2 u2 =< x, u1 > u1 + < x, u2 > u2 = <x,d1 > d kd1 k2 1 +i <x,d2 > d kd2 k2 2 Gesucht ist die Matrixdarstellung Af (B, D), wobei B = {e1 , e2 , e3 } die kanonische Basis von R3 und D = {d1 , d2 } ist: Af (B, D) = (f (e1 )D , f (e2 )D , f (e3 )D ) (∗) f (ek )D ) = <ek ,d1 > kd1 k2 <ek ,d1 > kd1 k2 ! =⇒ Af (B, D) = ;i d11 d21 < ek , di >= dik , falls d1 = d12 , d2 = d22 d13 d23 d11 kd1 k2 d21 kd2 k2 d12 kd1 k2 d22 kd2 k2 d13 kd1 k2 d23 kd2 k2 ! (∗∗) 125 13. Basis– und Koordinatentransformationen Sei nun speziell Y die {x, y}– Ebene und d1 = e1 , d2 = e2 (∗∗) =⇒ Af (B, D) = z 1 0 0 0 1 0 x 6 3 d1 = e1 ˜ * d2 - d2 = e2 -y XXX XXX XXX XX z f (x) X ?˜ d1 Y x Basiswechsel in Y : 1 −1 D̃ = d˜1 = 1 , d˜2 = 1 0 0 Wegen d˜1 ⊥ d˜2 gelten (∗) und (∗∗) auch mit d˜ anstatt d: Af (B, D̃) = 126 d˜11 kd˜1 k2 d˜21 kd˜2 k2 d˜12 kd˜1 k2 d˜22 kd˜2 k2 d˜13 kd˜1 k2 d˜23 kd˜2 k2 ! = 1 2 1 −2 1 2 1 2 0 0 13.1. Basistransformationen und lineare Abbildungen Af (B, D̃) läßt sich auch mit Satz 13.6 berechnen: Transformationsmatrix Q = QDD̃ −1 =⇒ Q 1 = 2 1 =⇒ Af (B, D̃) = Q Af (B, D) = 2 −1 = (d˜1 D , d˜2 D ) = 1 1 −1 1 1 1 −1 1 1 −1 1 1 1 = 2 1 0 0 0 1 0 1 1 0 −1 1 0 127 13. Basis– und Koordinatentransformationen 128 Teil IV. Eigenwerte und Eigenvektoren, Quadratische Formen 129 14. Eigenwerte und Eigenvektoren, Quadratische Formen 14.1. Eigenwerte und Eigenvektoren Es seien A = An,n eine quadratische Matrix und I die (n, n)– Einheitsmatrix. Definition 14.1 (Eigenwert, Eigenvektor) Jede Zahl λ, zu der ein n– Vektor x 6= 0 existiert, so dass Ax = λx ⇐⇒ (A − λI)x = 0 (14.1) heißt ein Eigenwert von A. Der Vektor x heißt dann ein zum Eigenwert λ gehörender Eigenvektor. Satz 14.1 (Berechnung von Eigenwerten) λ ist Eigenwert von A, wenn |A − λI| = det(A − λI) = 0. Beweis: λ ist Eigenwert von A ⇐⇒ LGS (A − λI)x = 0 ist mehrdeutig lösbar (0 ist stets Lösung !) S.8.10 S.10.4 ⇐⇒ Rg (A − λI) 6= n ⇐⇒ det (A − λI) = 0. Satz 14.2 p(λ) := |A − λI| ist ein Polynom n–ten Grades in λ, und es gilt: p(λ) = b0 + b1 (−λ) + b2 (−λ)2 + . . . + bn (−λ)n , (14.2) wobei b0 = |A| und bn = 1. Definition 14.2 (Charakteristisches Polynom) p(λ) heißt das charakteristische Polynom der Matrix A. 131 14. Eigenwerte, Eigenvektoren, Quadratische Formen Also gilt: λ Eigenwert von A ⇐⇒ λ Nullstelle des char. Polynoms von A. Die Gestalt von p(λ) wird durch den Fundamentalsatz der Algebra bestimmt. Satz 14.3 (Fundamentalsatz der Algebra) Das char. Polynom p besitzt n relle oder komplexe Nulstellen λ1 , λ2 , . . . , λn , die teilweise gleich sein können, und es gilt p(λ) = (λ1 − λ)(λ2 − λ) . . . (λn − λ) (14.3) Diese Nullstellen sind also die Eigenwerte Q von A. Ein Vergleich von (14.2) und (14.3) zeigt: det A = nk=1 λk . Definition 14.3 (Mehrfache Eigenwerte) λ1 heißt ein r–facher Eigenwert von A, wenn p(λ) = (λ1 − λ)r q(λ) mit einem Polynom q und q(λ1 ) 6= 0. Beispiele: (a) n = 2 : p(λ) = det a11 − λ a12 a21 a22 − λ (14.2) = det A + (a11 + a22 )(−λ) + (−λ)2 = λ2 − (a11 + a22 )λ + det A 2 Mit der Formel x + px + q = 0 ⇐⇒ x1,2 = p(λ) = 0 ⇐⇒ λ1,2 λ1,2 = a11 + a22 ± = 2 − p2 s ± q p2 4 − q folgt: a11 + a22 2 2 − |A| a11 + a22 1 p ± (a11 − a22 )2 + 4a12 a21 2 2 (14.4) (b) A= d11 0 .. . 0 0 ... 0 . . d22 . . .. ... .. . 0 . . . 0 dnn Diagonalmatrix d11 − λ 0 d22 − λ =⇒ p(λ) = det(A−λI) = det ... 0 132 dnn − λ n Y (dii −λ) = i=1 14.2. Berechnung der Eigenvektoren zu einem Eigenwert =⇒ Eigenwerte von A : λi = dii , i = 1, 2, . . . , n 14.2. Berechnung der Eigenvektoren zu einem Eigenwert Berechnung der Eigenvektoren zum Eigenwert λ erfolgt gemäß (14.1) durch (vollständige) Lösung des homogenen LGS (A − λI)x = 0 Definition 14.4 (Eigenraum) E(λ) := Kern (A − λI) = {x : (A − λI)x = 0} heißt der Eigenraum zu λ. E(λ) ist ein Unterraum des Rn und es gilt: E(λ) = {0} ∪ Menge der Eigenvektoren zum Eigenwert λ. Beispiel: A= 4 2 1 5 (14.4) =⇒ λ1,2 = 9 1√ 1 + 8 =⇒ λ1 = 6, λ2 = 3 ± 2 2 x1 −2 2 E(λ1 = 6) = x= : (A − 6I)x = 0 = x : x=0 1 −1 x2 1 = {x : x1 − x2 = 0} = t :t∈R 1 −2 E(λ2 = 3) = t :t∈R 1 133 14. Eigenwerte, Eigenvektoren, Quadratische Formen x2 6 H HHr H HH −2 E(λ1 = 6) r 1 H HH - x1 0HHH 1 H HH H HH HHE(λ2 = 3) Achtung: 0 ist kein Eigenvektor ! 14.3. Eigenwerte symmetrischer Matrizen Es sei A eine symmetrische (n, n)– Matrix, d.h. A = A0 ⇐⇒ aik = aki für alle (i, k) Satz 14.4 Sämtliche Eigenwerte λ1 , . . . , λn von A sind reell. Satz 14.5 Für zwei verschiedene Eigenwerte λ1 6= λ2 von A gilt: x1 Eigenvektor zu λ1 =⇒ < x1 , x2 >= 0 (d.h. x1 steht senkrecht auf x2 ) x2 Eigenvektor zu λ2 Satz 14.6 Ist λ ein r–facher Eigenwert von A, dann gibt es zu λ genau r linear unabhängige Eigenvektoren, d.h. dim E(λ) = r. Beispiel: 8 −3 −3 8 −3 A = −3 −3 −3 8 134 ist symmetrisch 14.3. Eigenwerte symmetrischer Matrizen 8 − λ −3 −3 p(λ) = |A − λI| = −3 8 − λ −3 −3 −3 8 − λ = (8 − λ)3 + 2(−3)3 − 3(8 − λ)(−3)2 = 242 − 165λ + 24λ2 − λ3 Sei λ ∈ Z mit p(λ) = 0 =⇒ λ(165 − 24λ + λ2 ) = 242 =⇒ λ teilt 242 242 = 2 · 112 hat die Teiler ±1, 2, 11, 22, 121, 242 Durchprobieren und Polynomdivision ergeben die Eigenwerte: λ1 = 2 einfach λ2 = 11 zweifach Berechne E(λ1 ) = {x : (A − λI)x = 0} : 6 −3 −3 0 8 − 2 −3 −3 0 −3 8 − 2 −3 0 = −3 6 −3 0 −3 −3 8 − 2 0 −3 −3 6 0 −3 −3 6 0 −1 −1 2 0 9 −9 0 −→ 0 1 −1 0 −→ 0 0 −9 9 0 0 0 0 0 1 x3 =t =⇒ E(λ1 ) = t 1 :t∈R 1 Jetzt E(λ2 ) = {x : (A − 11I)x = 0}: 8 − 11 −3 −3 0 −3 −3 −3 0 −1 −1 −1 0 −3 8 − 11 −3 0 = −3 −3 −3 0 −→ 0 0 0 0 −3 −3 8 − 11 0 −3 −3 −3 0 0 0 0 0 −1 −1 x2 =s,x3 =t 1 0 =⇒ E(λ2 ) = s +t : s, t ∈ R 0 1 135 14. Eigenwerte, Eigenvektoren, Quadratische Formen Man sieht sofort die Richtigkeit der Sätze 14.4 – 14.6 für dieses Beispiel ! Satz 14.7 Zu den Eigenwerten λ1 , . . . , λn von A gibt es n linear unabhängige Eigenvektoren u1 , . . . , un , d.h. es gibt eine Basis des Rn aus Eigenvektoren von A. Beweis: Seien x1 , . . . , xr Vektoren aus Eigenräumen zu jeweils verschiedenen Eigenwerten von A. Dann gilt: x1 + x2 + . . . + xr = 0 =⇒ x1 = x2 = . . . = xr = 0 Denn: 0 =< x1 , 0 >=< x1 , Pr k=10 xk >= Pr k=1 (14.5) S.14.5 < x1 , xk > = < x1 , x1 >= kx1 k2 =⇒ x1 = 0 und ebenso x2 = . . . = xr = 0 Sei nun λ1 = λ2 = . . . = λn1 6= λn1 +1 = λn1 +2 = . . . = λn2 6= . . . Nach Satz 14.6 gibt es zugehörige Eigenvektoren: u1 , u2 , . . . , un1 ; | {z } lin.unabh. , u +2 , . . . , un2 ; . . . u | n1 +1 n1{z } (14.6) lin.unabh. =⇒ u1 , u2 , . . . , un sind linear unabhängig, denn: µ1 u + . . . + µn1 un1 + µn1 +1 un1 +1 + . . . + µn2 un2 + . . . + µn un = 0 {z } | {z } | 1 ∈E(λn1 ) (14.5) ∈E(λn2 ) =⇒ µ1 u1 + . . . + µn1 un1 = 0, (14.6) =⇒ µ1 = . . . = µn1 = 0, µn1 +1 un1 +1 + . . . + µn2 un2 = 0, . . . µn1 +1 = . . . = µn2 = 0, . . . Wendet man auf die Basen u1 , . . . , un1 von E(λn1 ), un1 +1 , . . . , un2 von E(λn2 ), . . . jeweils das Orthonormalisierungsverfahren von E. Schmidt an, so erhält man die Folgerung: Es gibt eine Orthonormalbasis des Rn bestehend aus Eigenvektoren p1 (zu λ1 ), p2 (zu λ2 ), . . ., pn (zu λn ) von A. 136 14.3. Eigenwerte symmetrischer Matrizen Beispiel: Der Trägheitstensor J eines Würfels mit konstanter Massendichte bez. der dargestellten Achsen lautet: 8 −3 −3 2 ma ˜ 8 −3 , J, J˜ = −3 J= 12 −3 −3 8 x3 6 a - x2 wobei a die Seitenlänge und m die Masse des Würfels bezeichnet. x1 Gesucht sind a) die Hauptträgheitsmomente und b) die Richtungen von Hauptträgheitsachsen a) Setze c := ma2 12 . Dann ist λ ˜ ˜ pJ (λ) = det(J − λI) = det(cJ − λI) = det c(J − I) c λ λ = c3 det J˜ − I = c3 pJ˜ c c =⇒ für die Eigenwerte λi von J gilt: λi = cλ̃i , wobei λ̃i die Eigenwerte von J˜ sind. i = 1, 2, 3 Obiges Beispiel: λ̃1 = 2, λ̃2 = λ̃3 = 11 =⇒ λ1 = 16 ma2 , λ2 = λ3 = 11 ma2 12 Hauptträgheitsmomente des Würfels b) x ist Eigenvektor zu λ von J ⇐⇒ (J − λI)x = 0 ˜ J=cJ,λ=c λ̃ ⇐⇒ (cJ˜ − cλ̃I)x = 0 ⇐⇒ (J˜ − λ̃I)x = 0 ⇐⇒ x ist Eigenvektor zu λ̃ von J˜ 1 Obiges Beispiel: u1 = 1 1 Basis von E (λ̃1 = 2) 137 14. Eigenwerte, Eigenvektoren, Quadratische Formen −1 −1 u2 = 1 , u3 = 0 Basis von E (λ̃2 = λ̃3 = 11) 0 1 Orthonormalisierungsverfahren liefert die Richtungsvektoren 1 −1 −1 1 1 1 p1 = √ 1 , p2 = √ 1 , p1 = √ −1 3 2 6 1 0 2 von Hauptträgheitsachsen. 138 15. Diagonalisierung symmetrischer Matrizen — Hauptachsentransformation Sei A eine symmetrische Matrix und p1 , p2 , . . . , pn eine Orthonormalbasis des Rn bestehend aus Eigenvektoren p1 (zu λ1 ), . . . , pn (zu λn ) zu den Eigenwerten λ1 , . . . , λn von A. Ferner sei P := (p1 , p2 , . . . , pn ) die (n, n)-Matrix mit den Spalten p1 , p2 , . . . , pn . Eigenschaften von P : — P ist (n, n)– Matrix — P ist orthogonal, denn (vgl. S.13.4) 0 p1 p0 P 0 P = .2 (p1 , p2 , . . . , pn ) = I =⇒ P −1 = P 0 . . p0n λ1 0 λ2 — P AP = D := 0 .. 0 P 0 AP = = p01 p02 .. . p0n p0 1 p0 2 .. . p0 n . ( Diagonalisierung von A), denn: λn A(p , p , . . . , p ) = 1 2 n p01 p02 .. . p0n (Ap1 , Ap2 , . . . , Apn ) |{z} |{z} | {z } λ1 p1 λn pn λ2 p2 λ1 0 λ2 (λ1 p1 , λ2 p2 , . . . , λn pn ) = ... 0 λn Wegen P 0 AP = P −1 AP = D =⇒ A = P DP −1 = P DP 0 erhält man insgesamt: 139 15. Hauptachsentransformation Satz 15.1 Sei A eine symmetrische Matrix mit den (reellen) Eigenwerten λ1 , . . . , λn und Eigenvektoren p1 (zu λ1 ),. . ., pn (zu λn ), die eine Orthonormalbasis des Rn bilden. Dann ist die Matrix P = (p1 , . . . , pn ) orthogonal, und es gilt: A = P DP λ1 0 λ2 mit D = 0 .. 0 . (15.1) λn 15.1. Hauptachsentransformation quadratischer Formen Sei A = (aik ) eine symmetrische (n, n)– Matrix Definition 15.1 (Quadratische Form) Die Funktion Q(x1 , x2 , . . . , xn ) = n X n X i=1 k=1 aik xi xk = n X i=1 Q(x) = x0 Ax , kurz: aii x2i + 2 x= x1 x2 .. . X aik xi xk i<k xn heißt quadratische Form in den n reellen Variablen x1 , . . . , xn bzw. in x ∈ Rn . Beispiele: d1 d2 (a) A = D = .. 0 (b) A = 140 4 3 3 1 0 =⇒ Q(x) = d1 x21 + d2 x22 + . . . + dn x2n . dn =⇒ Q(x) = 4x1 2 + 6x1 x2 + x2 2 15.1. Hauptachsentransformation quadratischer Formen 15.1.1. Basistransformation (Hauptachsentransformation) Die Diagonalisierung symmetrischer Matrizen wird nun auf die quadratischen Formen angewandt. Dazu sei wieder p1 , p2 , . . . , pn eine Orthonormalbasis des Rn bestehend aus Eigenvektoren zu den Eigenwerten λ1 , λ2 , . . . , λn von A. Wir betrachten die Basistransformation (Hauptachsentransformation) B = {e1 , e2 , . . . , en } −→ D := {p1 , p2 , . . . , pn } Gemäß Satz 13.5 gilt für die Transformationsmatrix: T = TB,D = (p1 , p2 , . . . , pn ) = P Sei nun x ∈ Rn . Für das Koordinaten–n–Tupel y = (y1 , . . . , yn )0 von x bezüglich der Basis D gilt dann auch Satz 13.3: y := x D = T −1 x B = P −1 x = P 0 x (15.1) =⇒ Q(x) = x0 Ax = x0 (P DP 0 )x = (x0 P )D(P 0 x) = (P 0 x)0 D(P 0 x) = y 0 Dy = λ1 y12 + λ2 y22 + . . . + λn yn2 Satz 15.2 Die Bezeichnungen seien wie in Satz 15.1, und es sei die quadratische Form: Q(x) = x0 Ax, x ∈ Rn gegeben. Bezeichnet y = (y1 , . . . , yn )0 das Koordinaten–n–Tupel von x bez. der Orthonormalbasis p1 , . . . , pn , dann gilt: 0 Q(x) = y Dy = n X λk yk2 , y = P 0x k=1 Bemerkung: Die durch p1 , . . . , pn festgelegten Geraden des die Hauptachsen von Q(x) genannt. Rn durch 0 werden 141 15. Hauptachsentransformation Das folgende Beispiel zeigt, wie sich die Hauptachsentransformation zur Klassifizierung von Kegelschnitten verwenden läßt. Weitere Beispiele in den Übungen ! √ √ 2 4 =⇒ Q(x) = x0 Ax = 4x21 + 2 2x1 x2 + 5x22 Beispiel: A = √ 2 5 {x : Q(x) = const } = ? 9 1√ (14.4) =⇒ λ1,2 = ± 1 + 8 =⇒ λ1 = 6, λ2 = 3 2 2 1 :t∈R E(λ1 = 6) = {x : (A − 6I)x = 0} = t √ 2 ( √ ) − 2 E(λ2 = 3) = {x : (A − 3I)x = 0} = t :t∈R 1 √ S.14.5 Wähle u1 = √12 , u2 = −1 2 =⇒ u1 ⊥u2 Orthonormalisierungsverfahren reduziert sich auf Normierung: q q 1 1 3 3 1 1 1 1 = q , = q p1 = √ √ p2 = √ √ 2 2 2 2 3 3 3 3 q Transformationsmatrix P = (p1 , p2 ) = q 2 3 q − 23 q 1 3 q 2 + 3 x2 q =⇒ y = P 0 x = q q x = q 1 2 1 − 23 − x + x 3 3 1 3 2 r r r r 1 2 2 2 1 2 2 2 =⇒ Q(x) = λ1 y1 + λ2 y2 = 6( x1 + x2 ) + 3(− x1 + x2 ) 3 3 3 3 Q(x) = C = const. y2 y2 ⇐⇒ 6y12 + 3y22 = C ⇐⇒ q 1 2 + q 2 2 = 1 (Ellipse) q 1 3 q 1 3 2 3 C 6 Hauptachsen: x = sp1 = t x = sp2 = t 142 √1 2 √ − 2 1 ⇐⇒ x2 = √ q 1 x 3 1 C 3 2x1 ⇐⇒ x2 = − √x12 = − √ 2 x 2 1 15.2. Definitheitskriterien x2 y1 y2 8 2 2 1 p1 p2 2 1 x1 15.2. Definitheitskriterien für quadratische Formen Sei A eine symmetrische (n, n)–Matrix und Q(x) = x0 Ax die zugehörige quadratische Form. Bemerkung: Es gilt: Q(0) = 0, Q(λx) = λ2 Q(x) Definition 15.2 (Definitheit) Q = Q(x) heißt a) positiv semidefinit, falls Q(x) ≥ 0 für alle x ∈ Rn b) positiv definit, falls Q(x) > 0 für alle x 6= 0 c) negativ semidefinit, falls Q(x) ≤ 0 für alle x ∈ Rn d) negativ definit, falls Q(x) < 0 für alle x 6= 0 e) indefinit, falls Q(x) sowohl positiv, als auch negative Werte annimmt. 143 15. Hauptachsentransformation Für Q̃(x) := x0 (−A)x = −Q(x) gilt: pos. semidef. pos. def. neg. semidef. ⇐⇒ Q̃(x) ist Q(x) ist neg. def. indefinit Bemerkung: neg. semidef. neg. def. neg. semidef. pos. def. indefinit Beispiele: a) Q(x) = x 0 2 0 0 1 x = 2x21 + x22 ist positiv definit. 3 0 0 1 −1 x = 3x21 + x22 − 2x2 x3 + x23 = 3x21 + (x2 − x3 )2 b) Q(x) = x0 0 0 −1 1 ist positiv semidefinit. c) Q(x) = x0 Ix = kxk2 ist positiv definit. d) Q(x) = x 0 2 0 0 −1 x = 2x21 − x22 ist indefinit. Bestimmung der Definitheit von Q(x) = x0 Ax Nach Satz 15.1 gilt: Q(x) = λ1 y12 + λ2 y22 + . . . + λn yn2 mit y = P 0 x( ⇐⇒ x = P y) wobei λ1 , . . . , λn die (reellen) Eigenwerte von A sind. Damit folgt für (a) in Definition 15.2: Q(x) ist pos. semidef. ⇐⇒ Q(x) ≥ 0 für alle x ∈ Rn ⇐⇒ λ1 y12 + λ2 y22 + . . . + λn yn2 ≥ 0 für alle y ∈ Rn ⇐⇒ λ1 ≥ 0, λ2 ≥ 0, . . . , λn ≥ 0. Analog charakterisiert man die Definitheitseigenschaften b) – e). Es ergibt sich: 144 15.2. Definitheitskriterien Satz 15.3 Sei A = A0 und Q(x) = x0 Ax. Q(x) ist a) positiv semidefinit ⇐⇒ alle E.W. (von A) λi ≥ 0 ⇐⇒ alle E.W. λi > 0 b) positiv definit c) negativ semidefinit⇐⇒ alle E.W. λi ≤ 0 d) negativ definit ⇐⇒ alle E.W. λi < 0 e) indefinit ⇐⇒ A hat sowohl pos. als auch neg. E.W. Beispiele: (s.o.) a) A = 2 0 0 1 =⇒ λ1 = 2, λ2 = 1 =⇒ alle E.W. λi > 0 =⇒ Q(x) pos. def. 3 0 0 1 −1 =⇒ λ1 = 3, λ2 = 2, λ3 = 0 =⇒ alle E.W. λi ≥ 0 b) A = 0 0 −1 1 =⇒ Q(x) pos. semidef. c) A = I =⇒ alle E.W. λi = 1 > 0 =⇒ Q(x) pos.def. d) A = 2 0 0 −1 =⇒ λ1 = 2, λ2 = −1 =⇒ Q(x) indefinit Eine andere Charakterisierung für positive Definitheit gibt Satz 15.4 Sei A = A0 und Q(x) = x0 Ax. Q(x) wenn alle Hauptabschnittsdeterminanten a11 a12 a11 a12 a11 , det , det a21 a22 a21 a22 a31 a32 ist genau dann positiv definit, a13 a23 , . . . , det A a33 von A positiv sind. Beispiele: (s.o.) 145 15. Hauptachsentransformation 2 0 = 2 > 0 =⇒ Q(x) pos. def. a) A = : 2 > 0, 0 1 3 3 0 0 0 0 3 0 1 −1 : 3 > 0, 1 −1 = 0 b) A = 0 = 3 > 0, 0 0 1 0 −1 0 −1 1 1 =⇒ Q(x) nicht pos. def. 1 0 = 1 > 0, . . . , det I = 1 > 0 =⇒ Q(x) pos.def. c) A = I : 1 > 0, 0 1 2 0 2 0 = −2 < 0 =⇒ Q(x) nicht pos. def. d) A = : 2 > 0, 0 −1 0 −1 146 2 0 0 1 16. Norm einer Matrix Es sei A = Am,n Definition 16.1 (Euklidische Norm, Operatornorm) (a) Euklidische Norm von A ! 21 m X n X kAkE := a2ik (A wird hier als m, n– Tupel aufgefasst !) i=1 k=1 (b) Operatornorm von A kAkOP := sup kAxk (A wird hier als linearer Operator x −→ Ax aufgefasst !) kxk=1 Bemerkung: Es ist kAkOP ≤ kAkE , insbesondere also kAkOP 6= +∞. Ferner: kAkOP = sup kAxk = sup kAxk kxk kxk≤1 x6=0 Beweis: (a) Seien a1 , a2 , . . . , am die Zeilenvektoren von A =⇒ i–te Koordinate von Ax = n P aik xk =< ai , x > (Skalarprodukt) k=1 S.3.6 Sei kxk = 1 =⇒ | < ai , x > | ≤ kai k · kxk = kai k =⇒ kAxk2 = m P (< ai , x >)2 ≤ i=1 =⇒ kAxk ≤ m n PP m P i=1 a2ik 21 = kAkE i=1 k=1 =⇒ kAkOP = sup kAxk ≤ kAkE kxk=1 kai k2 = m P n P i=1 k=1 a2ik 16. Norm einer Matrix o n : x = 6 0 , M1 := {kAxk : kxk = 1}, (b) Seien M0 := kAxk kxk M2 := {kAxk : kxk ≤ 1} Dann gilt: M0 = M1 ” ” ⊂ “ : x 6= 0 =⇒ kAxk kxk 1 x = kxk · kAk = A kxk , wo ⊃ “ : kxk = 1 =⇒ kAxk = kAxk , xk x kxk die Norm 1 hat x 6= 0 Weiter gilt offenbar M1 ⊂ M2 , also sup M1 ≤ sup M2 . Wegen 0 6= kxk ≤ 1 =⇒ kAxk ≤ kAxk kxk gilt auch sup M2 ≤ sup M0 . Insgesamt folgt sup M0 = sup M1 = sup M2 . 16.1. Eigenschaften der Operatornorm Satz 16.1 a) kAxk ≤ kAkOP · kxk für alle x ∈ Rn Für eine beschränkte Menge M ⊂ Rn (d.h. kxk ≤ c für alle x ∈ M ) ist daher auch das Bild A(M ) = {Ax : x ∈ M } beschränkt (kAxk ≤ kAkOP · c für alle x ∈ M ). b) kAkOP ≥ 0; kAkOP = 0 ⇐⇒ A = 0 (= Nullmatrix) kλAkOP = |λ| · kAkOP kA + BkOP ≤ kAkOP + kBkOP Die Operatornorm erfüllt also dieselben Regeln wie die Vektornorm ! c) Sind A, B Matrizen, so dass AB definiert ist, dann gilt kABkOP = kAkOP · kBkOP d) Sei A eine reguläre (n, n)– Matrix und c > 0 eine positive Konstante, so dass kAxk ≥ ckxk für alle x ∈ Rn . 148 16.1. Eigenschaften der Operatornorm Dann gilt: kA−1 kOP ≤ 1c . Beispiele: (a) kIkOP = sup kIxk = 1 kxk=1 d1 0 d2 (b) Sei D = eine Diagonalmatrix ... 0 kDkOP = dn sup kDxk = sup (d1 x1 )2 + (d2 x2 )2 + . . . + (dn xn )2 kxk=1 = 21 kxk=1 1 sup (d21 x21 + d22 x22 + . . . + d2n x2n ) 2 n P k=1 x2k =1 (denn:kxk = 1 ⇐⇒ kxk2 = 1 ⇐⇒ x21 + x22 + . . . + x2n = 1) = n X sup n P ! 21 n X = sup P n tk d2k k=1 tk =1,tk ≥0 21 tk =1,tk ≥0 k=1 k=1 tk d2k k=1 (dabei tk := d2k ) kDkOP = max 1≤k≤n d2k 21 = max q 1≤k≤n d2k = max |dk | 1≤k≤n (16.1) Analog zeigt man: inf kDxk = min |dk | kxk=1 (16.2) 1≤k≤n Bemerkung: d1 0 d2 Für eine Diagonalmatrix D = (15.1) kDkOP = ist ... 0 max |dk |, 1≤k≤n dn v u n uX kDkE = t d2k k=1 149 16. Norm einer Matrix =⇒ kDkOP < kDkE , falls mindestens zwei dk 6= 0. p d21 + d22 r |d2 | =⇒ Die Abschätzung kAkOP ≤ kAkE gilt i.a. mit < ! r |d1 | 16.2. Berechnung der Operatornorm für symmetrische Matrizen Sei A = An,n eine symmetrische Matrix mit den Eigenwerten λ1 , λ2 , . . . , λn . Wir benutzen die Diagonalisierung gemäß Satz 15.1: λ1 0 λ2 0 A = P DP mit D = und P orthogonal . . . 0 λn =⇒ kAxk2 = < Ax, Ax >= (Ax)0 Ax = (P D P 0 x )0 P D P 0 x = (P Dy)0 P Dy |{z} |{z} y y = (Dy)0 |{z} P 0 P Dy = (Dy)0 Dy = kDyk2 I P P 0 x = kxk2 kyk2 = y 0 y = (P 0 x)0 P 0 x = x0 |{z} und I =⇒ kAxk = kDyk und kxk = kyk mit y = P 0 x =⇒ kAkOP = (16.1) sup kAxk = sup kDyk = kDkOP = kxk=1 kyk=1 max |λk |. 1≤k≤n Weiter ist (16.2) inf kAxk = inf kDyk = kxk=1 kyk=1 min |λk |. 1≤k≤n Satz 16.2 Sei A = A0 , λ1 , λ2 , . . . , λn die Eigenwerte von A. Dann gilt: 150 16.2. Berechnung der Operatornorm a) kAkOP = sup kAxk = max |λk | 1≤k≤n kxk=1 b) inf kAxk = min |λk | kxk=1 1≤k≤n Folgerung: Sei x 6= 0 bel. =⇒ x kxk hat Norm 1 x max |λk | =⇒ min |λk | ≤ A kxk ≤ 1≤k≤n 1≤k≤n | {z } S.16.2 1 kAxk kxk =⇒ kxk · min |λk | ≤ kAxk ≤ kxk · max |λk | 1≤k≤n 1≤k≤n für alle x ∈ Rn 151 16. Norm einer Matrix 152 Index Äquivalenzklasse, 10 Achsenabschnittsgleichung, 38 Adjunkte, 70 Algebraisches Komplement, 70 Assoziativgesetz, 13, 14 Basis, 80 kanonisch, 93 Basistransformation, 124 Betrag, 23, 27 Charakteristisches Polynom, 115 Cosinus–Satz, 26 Cramersche Regel, 73 Definitheit, 127 Determinante, 70 Diagonalen, 45 Diagonalisierung, 123 Diagonalmatrix, 45 Differentiationsoperator, 94 Differenz von Vektoren, 13 Differenz zweier Elemente, 78 Dimension, 82 Dimensionssatz, 87 Distributivgesetz, 14 Distributivität, 24 Dreiecks–Ungleichung, 29 Eigenraum, 117 Eigenvektor, 115 Eigenwert, 115 mehrfacher, 116 Eindeutigkeitssatz, 59 Einheitsmatrix, 51 Einheitsvektoren, 15 Elementare Umformungen, 57 Elemente, 43 Euklidische Norm, 131 Eulerscher Winkel, 106 Existenzsatz, 59 Fundamentalsatz der Algebra, 116 Gauss–Algorithmus, 64 Gegenvektor, 12 Gruppenaxiome, 77 Hauptabschnittsdeterminanten, 128 Hauptachsentransformation, 124 homogenes LGS, 34 Homogenität, 24 indefinit, 127, 128 inhomogenes LGS, 34 Integrationsoperator, 95 Inverse, 51 kanonische Basis, 93 Kern, 87 Koeffizientenmatrix, 44 erweitert, 58 Kofaktor, 70 153 Index Kommutativgesetz, 13 Kommutativität, 24 Koordinaten, 17, 81 Koordinaten–m–tupel, 101 Koordinatensystem, 15 Drehung im R2 , 105 Drehung im R3 , 106 Koordinatentransformation, 98 Koordinatentripel, 16 koordinatenweise Addition, 16 Multiplikation mit λ, 16 Subtraktion, 16 Korkenzieherregel, 30 Länge eines Vektors, 23 linear abhängig, 78 abhängig, 20 unabhängig, 78 unabhängig, 20 Lineare Abbildung, 91 lineare Funktion, 33 linearer Raum, 77 lineares Gleichungsssystem, 34 Linearform, 33 Linearkombination, 15, 19, 78 Maßeinheit, 9 Maßzahl, 9 Maßzahlen, 9 Matrix, 34, 43 Addition, 47 inverse, 51 Multiplikation, 49 negative, 45 orthogonale, 100 Produkt, 48 quadratische, 45 reguläre, 61 symmetrisch, 48 154 transponierte, 47 Multiplikation, 14 negativ definit, 127, 128 negativ semidefinit, 127, 128 Negative, 12, 77 Newtonsches Kräfteparallelogramm, 12 Norm, 23, 27 Euklidische, 131 Null, 77 Null-Tupel, 18 Nullelement, 77 Nullmatrix, 45 Nullpunkt, 11 Nullvektor, 12 Nutationswinkel, 106 Operatornorm, 131 orthogonal, 27 Orthogonalsystem, 27 Orthonormalbasis, 88 Orthonormalisierungsverfahren, 88 Orthonormalsystem, 27 Ortsvektor, 11 Polynom, 115 positiv definit, 127, 128 positiv semidefinit, 127, 128 Präzessionswinkel, 106 Punkte, 77 Quadratische Form, 124 Rang, 56 Rechenregeln für n–Tupel, 18 für Vektoren, 14 für Determinanten, 72 Rechtssystem, 30 Schwarzsche Ungleichung, 28 Skalarprodukt, 23, 26 Spaltenrang, 55 Index Spaltenvektor, 43 Strecke äquivalente gerichtete, 10 gerichtete, 9 Summe von Vektoren, 12 Teilraum, 79 Transformationsmatrix, 98 Treppenmatrix, 56 Tupel, 17 Unterraum, 79 Summe, 86 Ursprung, 11 Vektor, 9, 10, 43 kollinear, 21 parallel, 21 Vektoren, 77 Vektorgleichung, 39 Vektorprodukt, 30 Eigenschaften, 30 Vektorraum, 14, 77 endlichdimensionaler, 80 unendlichdimensionaler, 80 Winkel der reinen Drehung, 106 Winkelberechnung, 25 Zahlenraum, 18 Zeilenrang, 55 Zeilenvektor, 43 155