LinAlg - Zusammenfassung

Werbung
Lineare Gleichungssysteme
Definition:
Reelles lineares Gleichungssystem mit m Gleichungen in n Unbekannten:
a11 x1  a12 x 2    a1n x n

a 21 x1  a 22 x 2    a 2 n x n

a m1 x1  a m 2 x 2    a mn x n
 c2

 cm
homogen:
c1
alle ci (1 ≤ i ≤ m) = 0

Ax=c
sonst inhomogen
Die Menge aller Lösungstupel (ξ1, ξ2, … , ξn) heisst Lösungsmenge L
Definition:
Addition zweier n-Tupel und die „äussere“ Multiplikation mit einem Skalar geschieht
elementweise. Z.B.   (1 ,  2 ,...,  n )
Satz:
Es sei L C die Lösungsmenge des Systems A x = c, L 0 jene des dazugehörigen homogenen
Systems A x = 0. Es gilt:

0  L 0 , das homogene System besitzt jedenfalls die triviale Lösung

x, y  L 0

Sei x* eine partikuläre Lösung des inhomogenen Systems Ax = c. Dann gilt:

x + y  L 0 , λx  L 0 
L C  x  x * x  L 0 
L 0 ist ein Vektorraum
Die allgemeine Lösung des inhomogenen Systems ist
demnach gleich der allgemeinen Lösung des zugehörigen homogenen Systems plus
einer partikulären Lösung des inhomogenen Systems.
Satz:
Mit folgenden Operationen wird die Lösungsmenge eines linearen Gls. nicht verändert.
(I)
(II)
Bemerkungen
Vertauschen von Gleichungen
Multiplikation einer Gleichung mit λ  R , λ ≠ 0
(III)
Addition des λ-fachen einer Gleichung zu einer anderen
(IV)
Streichen einer Gleichung der Form 0 x1+ … + 0 xn = 0
●
ein homogenes Gleichungssystem mit weniger Gleichungen als
Unbekannte (also singulär) hat immer eine nichttriviale Lösung.

ein reguläres System Ax = c von n Gleichungen in n Unbekannten hat für beliebige
rechte Seite genau eine Lösung. Ein singuläres derartiges System hat für gewisse rechte
Seiten c keine Lösung, für andere unendlich viele. Insbesondere besitzt ein singuläres
homogenes System (unendlich viele) nichttriviale Lösungen.
1
Beispiel:
Bestimme in Abhängigkeit des reellen Parameters

die Lösungsmenge des folgenden
reellen linearen Gls.
x1
2x 2
x1
3x 2
 5x 2
2 x1  4 x 2
3x 4
1
 x 3
 (1  2 )x 3
 x 4
0

5
 (1   )x 3
 (2  8 )x 4
…
2
1

0
0

0
2
0
1

0
4

2
3λ
3
λ
0
0 1  λ  4λ
0
0 1 λ
 (1   )x 4  2  für   1: L   
3 Fälle:
1


 (1   )x 3  4x 4  4  für   -1: L  (1- 2x 2  x 4 , x 3 ,1 x 3  R 
3


 für   -1,1 eindeutige Lösung, die aus dem GS abgelesen w erdenkann
■
Achtung: beim Umformen können zusätzliche Lösungen entstehen!!!
Matrizen
Definition:
Eine (m × n)-Matrix ist ein rechteckiges Zahlenschema folgender Art:
 a11 a12
a
a 22
 21
 

A 
 a i1 a i 2
 


a m1 a m 2
Definition:
Bezeichnungen
Definition:
 a1k
 a 2k

 aik

 a mk
 a1n 
 a 2n 

 
  aik 
 ain 
 

 a mn 
aik  R
m,i
Zeilen
n, k
Spalten
Es seien A und B zwei Matrizen gleichen Formats m × n, λ  R . So gilt:
Summe
A + B = [aik] + [bik] = [aik + bik]
Produkt
λ A = λ[aik] = [λ aik]
(n × n)-Matrix:
quadratische Matrix der Ordnung n
(1 × n)-Matrix:
Zeilenvektor → x’
(m × 1)-Matrix:
Kolonnenvektor → x
colk(A)
:= (a1k, a2k, … , amk)
rowi(A)
:= (ai1, ai2, … , ain)
elmik(A)
:= aik
Diagonalmatrix:
diag(λ1, λ2, ... , λn)
Einheitsmatrix:
diag(1, 1, …, 1) = I = [δik]
Nullmatrix:
[aik] = 0
Transposition:
R mn  R nm
A  AT
Spiegelung an der Hauptdiagonalen
Rechenregeln:  AB   B T AT
T
A  B T
2
 AT  B T
δik = Kronecker-Delta
a ikT = aki
( 1  i  n, 1  k  m )
Definition:
Eine Matrix A (zwangsläufig (n × n)) heisst symmetrisch, falls gilt: A = A’
( Ax)  y  x  ( Ay ) ist dazu äquivalent! (Skalarprodukte)
Definition:
Matrixmultiplikation
Sei
A = [aij] eine (m × p)-Matrix und
p: Spaltenzahl
B = [bjk] eine (p × n)-Matrix
p: Zeilenzahl
Das Produkt C = A·B ist definiert als die (m × n)-Matrix mit
n
cik :  aij b jk = elmik(AB) = rowi(A) • colk(B)
j 1
Satz:
Matrix-Rechenregeln
AB  C  AB  AC
ABC  ABC Assoziativität
AB  AB   AB
AB 1  B1A 1
Bemerkungen:
I.A. ist AB ≠ BA
Beispiel:
Berechnung der Inversen:
 2 1 1
A :  4 1 0


 2 2 1
→
 2 1 1

A 4 1 0
 2 2 1
1 0 0

0 1 0
0 0 1
 1 0 0 1/8 1/8 - 1/8 

 0 1 0 - 1/2 1/2 1/2 
 0 0 1 5/4 - 3/4 - 1/4 
→
→
 1/8 1/8 - 1/8
A1  - 1/2 1/2 1/2 


 5/4 - 3/4 - 1/4
Vektorräume
Definition:
Ein Vektorraum V über den Körper R ist eine nicht leere Menge von Elementen
{u, v, w, …} („Vektoren“), in der als Verknüpfungen eine Addition „  “ und eine skalare
Multiplitkation „  “ mit folgenden Eigenschaften definiert sind:
(I)
(II)
VR  VC
Seien u, v  V, dann ist u  v wieder  V
i.
u+v=v+u
ii.
u + (v + w) = (u + v) + w
iii.
 ein eindeutig bestimmtes Element 0  V mit u + 0 = u. Nullelement!
iv.
zu jedem u  V  ein eindeutig bestimmtes (-u)  V mit u + (-u) = 0
Sei u  V und λ, μ  R , dann ist λ  u wieder  V
v.
λ·(u + v) = λ·u + λ·v
vi.
(λ + μ) u = λ·u+ μ·v
vii.
(λ·μ) u = λ·(μ·u)
viii.
1·u = u
3
Linearkombinationen Unterräume
Definition
Ein Vektor x lässt sich aus gegebenen Vektoren a1, a2, …, aN eines Vektorraums V als
Linearkombination folgendermassen schreiben:
N
x :  i ai  1a1    N a N
i  R , x  V
i 1
Definition:
Es sei V ein Vektorraum. eine nicht leere Untermenge W von V heisst Unterraum von V,
wenn sie bezüglich der in V erklärten Operationen abgeschlossen ist. D.h. für beliebige u, v
 W und λ  R stets gilt: u + v  W und λ · u wieder  W. Zudem muss ein
ausgezeichnetes Nullelement existieren. Jeder Unterraum ist für sich also wieder ein
Vektorraum
Definition:
Eine Familie von Vektoren (a1, a2, …, aN )  V bezeichnet man als Erzeugendensystem,
wenn sie V aufspannen. Man schreibt a1, a2 ,  , a N
Beispiel:
Es sei A eine (m × n)-Matrix. Die m Zeilenvektoren spannen einen UR Z (Zeilenraum von
A) von R n auf. Analog K (Kolonnenraum) UR von R m (dimK = dimZ = r)
Beispiel:
Welche der folgenden Teilmengen des VRs der reellen n x n Matrizen sind Unterräume?
Menge der symmetrischen Matrizen ( A  AT )
(I)
0T  0
(II)
A  B  A T  B T  A  BT
A B  U
(III)
A  A T  A T  A  U
qed
0 U
qed
qed
 ist Unterraum
Menge der invertierbaren Matrizen
(I)
0A  A0  0
0 1 existiert
 ist kein Unterraum
nicht
Menge der oberen Dreiecksmatrizen
Beispiel:
(I)
Bedingung: unterhalb der Hauptdiagonalen nur 0en  O-Matrix  U
(II)
A B  U ,
(III)
A U ,
da bei der Addition immer „punktweise“ addiert wird
 ist Unterraum
da „punktweise“ multipliziert wird
V: VR der n x n Matrizen,
sind



T
2
U1  
A  V A  2A , U2  A  V A  In 




(I)
0T  0  2  0
(II)
A  BT  A T  BT  2A  2B  2A  B
0  U1
(III) α A T   A T   2A  2 A 
Unterräume?
qed
 A  U1
4
qed
A  B  U1
qed

U1
ist ein Unterraum von V
(I)
0 2  0  In

U2
ist kein Unterraum von V
5
Beispiel:
U1,U2
sind zwei Unterräume von V, zu zeigen:
U3  U1  U2
u, v  U3
und
u, v  U 2 u  v  U2
Beispiel:


u  v  U1 und  U2

 U1  U2

 U3

u  U1 und  U2

 U1  U2

 U3

0  U1 und  U2

 U1  U2

 U3
Die Unterräume
U1 :
U1, U2 des R 4
x1  x 4
U1  U2 :
,
x 2, x 3 , x 4
U und V sind UR von
U V

U  V : u  v u  U, v  V

■
, U  x  R
x 2  2x 3  x 4  0
2
4
x1  x 4
U1, U2 und U1  U2
R4 :
,
  1

0
0
 
 
  

0
2
1
 
 
  

x1   x 3    x 4   x1, x 3 , x 4  R 
 0

 1
0
0
 1
  0 

 
 


frei wählbar 
frei wählbar
x 2  2x 3  x 4 , x1  x 4
ges. Basis von
u  U1
seien definiert durch U1  x  R 4
x 2  2x 3  x 4 , x1, x 3 , x 4
U2 :
und
u  U2
Bestimme die Basen von
Beispiel:
u, v  U1 u  v  U1
ist ebenfalls Unterraum von V:
U1  U2
x3, x 4
 0

0
 1
 
 
  

0
0
  1

x 2    x 3    x 4   x 2 , x 3 , x 4  R 
0
1
0
  

 
 
0
 1
  0 

 
 



U  1,1,2,1T , 0,0,2,1T
und Basis von

frei wählbar
,
 0

 1
 
  

 1
  2

x

x
x
,
x

R
 3 

4 
3 4
0
  1

 
 1
  0 





V  1,3,2,3 T , 0,2,4,1T , 5,3,2,3 T
■
Basen!!
U V
Basis von V und solange Basisvektoren von U zufügen, wie die
Vektoren noch lin. unabh. sind  1,3,2,3T , 0,2,4,1T , 5,3,2,3T , 1,1,2,1T 

U  V : w w  U  w  V
 Aufgabe 2 Vordip.
■
Dimension und Rang
Definition:
ein r-Tupel (a1, a2, …, ar ) von Vektoren ak  V heisst linear abhängig, wenn gilt:
(I)
(II)
Definition:
Ein ap ist Linearkombination der übrigen ak.
Es gibt Zahlen λk, nicht alle = 0 mit

r
k 1
k a k  0
(V)
ein r-Tupel (a1, a2, …, ar ) von Vektoren ak  V heisst linear unabhängig, wenn gilt:
(I)
(II)
Kein ap ist Linearkombination der übrigen ak.
Aus

r
k 1
k a k  0
(V) folgt: alle λk= 0
6

Beispiel:
Zeige: Die 3 Vektoren
 1
2
3
 
 
 
v1  2, v 2   1, v 3  0
 1
3
5
 
 
 
sind linear unabhängig. Gebe eine Basis von
an und ergänze diese Basis zu einer Basis von
V : v1, v 2 , v 3
 Gauss 
 1 2 3


0 1 2
0 0 0


 Rang = 2
Basis für
R3 :
R3
 1  0   0 
    
 2 ,  1 ,  0 
 3   2   1
    
■
Definition:
Eine Basis eines Vektorraums V ist ein linear unabhängiges Erzeugendensystem.
Satz:
Ist (b1, b2, …, bn) eine Basis von V, so lässt sich jeder Vektor x  V so darstellen:
x  1b1   2 b2  ...   n bn  k 1 k bk Koeffizienten  k eindeutig bestimmt.
n
Bemerkung:
Die „Koordinaten-“ Abbildung  : V  R n x  (1 ,  2 ,...,  n ) ist ein Isomorphismus.
Theorem:
Jeder endlich erzeugbare VR besitzt eine Basis.
Theorem:
Alle Basen eines VRs bestehen aus gleichviel Vektoren: Dimension von V: dimV = n
Bemerkungen:
Jedes lin. unabh. System von Vektoren ak  V lässt sich zu einer Basis von V erweitern.
Jedes endliche Erzeugendensystem eines VR V enthält eine Basis von V.
Weniger als n Vektoren bilden kein Erzeugendensystem
Mehr als n Vektoren sind linear abhängig.
Jedes Erzeugendensystem von n Vektoren ist eine Basis von V.
Beispiel:
Finde eine Basis für den Lösungsraum
 x1 2x 2

3 x1  x 2

 x1


Gauss 
x 3
 4x 3
3 x 4
 x4
x3
 x4
x 5
 5x 5
0
0
 x5
0
0
1 2 1 3 1


0  2 1  3 2 
0 0
1 1 0


0 0 0  3 1 
 wähle
7
R 5 des
x5  
folgenden GS
 auflösen 


   
L     , , , ,    R  ,
3 3 3 


( dim L  1 )
Rang einer Matrix
Satz:
Der Zeilenraum Z einer Matrix A bleibt bei Zeilenoperationen unverändert.
Somit bilden die Nicht-Null-Zeilen der Zeilenstufenform von A eine Basis von Z
Satz:
dimZ = dimK = rang(A) (Zeilenrang = Spaltenrang = Rang der Matrix).
Erklärung:
Zeilenoperationen verändern Zeilenraum nicht: dimZ konstant.
BLATTER S71
Satz:
Hauptsatz über homogene Gleichungssysteme:
Sei A eine (m × n)-Matrix und L der
Lösungsraum des hom. Gls. Ax = 0. Dann gilt: dim L = n – rang(A)
Definition:
Bespiel:
Es sei A eine (n × n)-Matrix. Falls gilt
(I)
rang(A) = n
so nennt man A regulär
(II)
rang(A) < n
so nennt man A singulär
folgende Aussagen sind äquivalent:
(I)
A ist regulär
(II)
rang(A) = n
(III)
die Zeilen und Spalten sind linear unabhängig
(IV)
das lineare Gleichungssystem A x = 0 hat nur die triviale Lösung
(V)
(VI)
Zu A existiert eine eindeutig bestimmte (n × n)-Matrix B mit AB = I = BA.
A ist die Matrix eines Basiswechsels in einem n-dimensionalen VR.
Bemerkung:
AB = I = BA gilt!!! Mit dem Begriff der Inversen kann man dies verinnerlichen.
Satz:
rang(A) ist gleich der Ordnung der grössten regulären (quadrat.) Teilmatrix von A
Koordinatentransformationen (KT)
Begriffe:
Koordinaten eines Punktes P  E (eukl. Erfahrungsraum) werden als n-Tupel (x1, x2, … , xn)
zusammengefasst. Bijektive Beziehung: E  R n
Definition:
Standardbasis des R n : ei := (0, … , 0, 1, 0, … ,0) (1 ≤ i ≤ n)
n
x = (x1, x2, … , xn) = cik :  xi e i
j 1
8
Definition:
Die Transformationsmatrix T fasst alle neuen Vektoren geschrieben in den alten
Koordinaten zusammen. Konstruktion: In den Kolonnen von T notiert man die alten
Koordinaten der neuen Basisvektoren.
Satz
Seien x und x dieselben Vektoren, x hat die „alten“, x die neuen Koordinaten: Es gilt:
x Tx bzw. x  T 1 x
Bemerkungen
●
Eine KT ist zulässig, wenn alte und neue Basisvektoren denselben Raum aufspannen.
Dann ist die Inverse T 1 wohlbestimmt.

Definition:
zulässige Basistransformationen sind umkehrbar:
T 1 T = I = T T 1
orthogonal:
heissen zwei Vektoren x, y  V, falls gilt: x • y = 0.
orthonormal
heissen zwei Vektoren, wenn gilt: x  y  1 und x • y = 0
heisst eine Basis (e1 ,..., en ) , wenn gilt: ei • ek = δik
(Kronecker-Delta)
Definition:
Matrizen heissen orthogonal, falls gilt: T T T  I bzw. T 1 = T T
Satz:
Sind alte und neue Basis orthormal, so ist die Transformationsmatrix T orthogonal, und
umgekehrt.
Lineare Abbildungen
Definition:
Es seien V, W zwei Vektorräume. Eine Abbildung f: V → W heisst linear, falls gilt:
(I)
(II)
Definition:
A( x  y )  A( x )  A( y ) für alle x, y  V
A(x )  A( x ) x  V,   F
Eine Lineare Abbildung von einem VR V in einen anderen W hat folgende Struktur:
A : V  W , x  Ax
Bemerkung
Die VR V und W sind genau dann isomorph zueinander, wenn gilt: dimV = dimW .
Begriffe
lineares Funktional: Abbildung mit Bild im Grundkörper R
9
Definition:
Die Matrix A einer Abbildung enthält alle Information über die Abbildung. Dabei stehen in
den Kolonnen von A die Bilder der Basisvektoren (ausgedrückt in den Koordinaten der
neuen Basisvektoren).
 a1k 
a 
m
Ae k   a ik f i   2 k  VERGLEICHE BLATTER S88
  
i 1
 
a mk 
Satz:
Jeder Vektor x  V mit den Koordinaten (x1, x2, …, xn) bezüglich einer Basis (e1, … , en) lässt
sich mit der Matrix A in W abbilden. Es ergibt sich für das Bild von x neue Koordinaten (y1,
y2, … , ym) bezüglich einer Basis (f1, f2, …, fm) von W. Es gilt:
 y1   a11
 y  a
 2    21
    
  
 y m  a m1
Beispiel:
a12
a 22

a m2
allgemeine axionometrische Abbildungen
Satz von Pohlke
Beispiel:
 a1n   x1 
 a 2n   x 2 
    oder kurz als y = A x
  
  
 a mn   x n 
BALTTER S 99
Für einen festen Vektor a  R 3 definieren wir die Abbildung f a  R3  R3 durch f a ( x) : a  x
(Vektorprodukt). Wie lautet die Matrix von f a bezüglich der Standardbasis?





Beispiel:
?
  x1   a2 x3  a3 x2 
 0
  



x

a
x

a
x
 2   3 1 1 3 
 a3
 x   a x  a x 
 a
2 1
 3   1 2
 2
 a3
0
a1
Welche der folgenden Abb. sind linear?
a2 

 a1 
0 
■
f1x, y   x  2 , 3 y  , f2 x, y    x  5 y, x  y 
f1x1  x 2 , y1  y 2   x1  x 2  2 , 3y1  y 2   f1( x1, y1)  f1x 2 , y 2   x1  x 2  4 , 3y1  y 2 
 nicht linear
f2 x1  x 2 , y1  y 2    x1  x 2  5y1  5 y 2 , x1  x 2  y1  y 2    x1  5 y1 , x1  y1    x 2  5 y 2 , x 2  y 2   f1( x1, y1)  f1x 2 , y 2 
f2 cx , cy   c  x  5y , c x  y   c  x  5y , x  y   c f2
Beispiel:
 linear ■
 x1 
 x1 
  2
1




lineare Abbildung s : R  R sei gegeben durch s :  x2    x2   (2 x1  x2  x3 )  1  .
3
 x3 
 x3 
 1 
3
3
Ebene E  R3 : x1  x2  x3  0 . Zeige: s( E )  E ,  Einschränkung: s | E : E  E
x1  x2  x3  x1  4 x1  2 x2  2 x2  2 x3  x2 ...  x1  x2  x3  selbe Ebene ■
3
3
3
3
Bestimme ( s | E ) 2  s | E  s | E
(s | E) 2  s | E  s | E  s | E  ( E  E)  E  E  E  E  E
10
■
Beispiel:
Für einen festen Vektor a  R 3 ist die Abbildung f a  R3  R3 durch f a ( x) : a  x definiert.
Zeige: f a ist linear.
Beispiel:


      
f a ( x )  f a ( y)  a  x  a  y  a  ( x  y)
 
  
f a ( x  y)  a  ( x  y)
 dasselbe



 
f a ( x )  a  ( x )   ( a  x )

 
 f a ( x )   (a  x )
 dasselbe
■
A :lineare Selbstabbildung von R 2 . Zeige: Bildet A eine fixierte Gerade l in sich ab, so
 
 
bildet A jede parallele G. in eine Parallele von l ab. l : y  mx  q A(mx  q )  mx  q linear!
 




 




l : A(mx  q )  A(mx )  A(q )  m A( x )  A(q )  m x  q da : A( x )  x , A(q )  q



 








g : A(mx  p)  A(mx )  A( p)  m A( x )  A( p)  m x  ~
p da : A( x )  x , A(q )  ~
p
 gleiche Steigung, verschiedener Achsenabschnitt  parallele Geraden
Satz:
■
Es seien A : X  Y und B : Y  Z zwei lineare Abbildungen. Ihre Zusammensetzung
B  A : X  Z , x  z : BAx ist als Produkt BA der Abbildungsmatrizen definiert.
Bemerkungen:
Abbildungsmatrix A ist basisabhängig: abhängig von den in V und in W gewählten Basen.
Sie ist somit auch von Koordinatentransformationen abhängig.
Suche nach möglichst einfachen Abbildungsmatrizen: die Diagonalform haben.
In Abbildungen A : V  V will man sich auf nur eine Basis beschränken.
In Abbildungen A : V  W (V ≠ W) lassen voneinander unabhängige Basen definieren.
Definition:
Ist A : V  W eine lineare Abbildung, seien x  V, y  W. So heisst die Menge der

Vektoren x  V, die von A in 0 überführt werden, Kern von A:
ker A : {x V Ax  0}

Vektoren y  W, die als Werte von Ax tatsächl. angenommen werden, Bildraum von A:
im A : {Ax x V }
Satz:
V
W
kerA ist ein Unterraum von V, imA ist ein Unterraum von W
A ist genau dann injektiv, wenn gilt: ker A ={0}
Definition:
Sei dimV = n, dimW = m. Der Bildraum imA  W besitzt dann eine wohlbestimmte
Dimension ≤ m. Dies ist der Rang der Abbildung A: rang (A).
Satz:
Der Rang der linearen Abbildung A : V  W ist gleich dem Rang der Matrix von A
bezüglich irgendwelcher Basen in V und in W. rang(A) ist basisunabhängig
11
Satz:
Fundamentalsatz über lineare Abbildungen: Es sei A : V  W eine lineare Abbildung
zwischen endlichdimensionalen VR. Dann gilt rang A  dim(ker A)  dim V
Beweis:
Der Unterraum kerA  V ist der Lösungsraum L des homogenen Gls Ax = 0.
Dort gilt dim L = n – r…
Definition:
Seien A : V  V , A : R n  R n , also Abbildungen von R n in sich selber. Derartige
Abbildungen heissen regulär, falls sie den Rang n besitzen, sonst singulär.
Bemerkung:
Der Bildraum imA einer singulären Abbildung hat eine Dimension < n und ist somit ein
echter Teilraum von V. Eine singuläre Abbildung ist also nicht surjektiv.
Der Kern einer singulären Abbildung hat eine Dimension > 0 (vgl. Fundamentalsatz…).
Eine singuläre Abbildung ist somit auch nicht injektiv.
Bemerkung:
Unterschied zwischen Abbildungen A : V  V und A : V  W mit dimV = dimW: man wählt
im ersten Fall eine Basis, im zweiten zwei Basen.
Satz:
Eine reguläre lineare Abbildung A : V  V ist bijektiv und besitzt eine wohlbestimmte
Umkehrabbildung (Inverse) A 1 : V  V , A-1 ist ebenfalls linear und regulär.
Satz:
Eine reguläre Matrix A  R nn besitzt eine wohlbestimmte Inverse A-1  R nn
Satz:
Es sei A : V  V , x  Ax eine (reguläre) lineare Abbildung bezüglich einer bestimmten
Ausgangsbasis (e1 ,..., en ) . Zusätzlich sei eine zweite Basis (e1 ,..., en ) gegeben.
Dann gilt: Bei einem Basiswechsel erhält eine lineare Abbildung A : V  V die neue Matrix
A  T 1 AT
Satz:
T
(für orthogonale Abbildungsmatrizen A: A  T AT )
Eine lineare Abbildung A : V  V besitzt eine basisunabhängige Determinante:
det A : det[aik ] , insbesondere gilt: det A = 0  A singulär
12
Determinanten:
Beispiele:
Anwendungen:

Determinante als Testgrösse für quadratische Matrizen: det A = 0  A singulär

Determinante als Volumen eines n-dimensionalen Parallelepipeds. Sie stellt die
Volumendilatation dar… (VERGLEICHE BLATTER SEITE 103)

Definition:
Determinante als Abbildung mit gew. Eigenschaften: det: R nn  R A  det A
Die Determinante ist eine wohlbestimmte Funktion det: R nn  R A  det A mit
folgenden Eigenschaften
(I)
Entsteht Aflip aus A durch Vertauschung von wie Zeilen oder Kolonnen, so gilt:
det( A flip )   det A
Insbesondere: Hat A zwei gleiche Zeilen, Kolonnen, so ist det A = 0
(II)
Die Determinante ist eine lineare Funktion jeder einzelnen Zeile, Kolonne:
detA x  y   detA x  detA y  und detA x   detA x
Insbesondere: det A 0  0
(III)
Es gilt der Multipliationssatz:
Insbesondere: det A 1 
(IV)
det( A  B )  det( A)  det( B )
1
und det I  1
det A
Hat die Matrix A die Kästchenform mit quadratischen Teilmatrizen A1,…,An
so gilt: det( A)  det( A1 )  det( A2 )  ...  det( An )
(V)
Die Determinante bleibt bei Transposition ungeändert:
det AT  det A
Satz:
Zeilen- bzw. Kolonnenoperationen (III) ändern den Wert der Determinante nicht.
Satz:
Die Determinante einer Dreiecksmatrix A  R nn ist das Produkt der Diagonalenelemente.
Satz:
det A = 0  A singulär
Satz:
Der Rang einer (m × n)-Matrix B ist gleich der Ordnung der grössten nichtverschwindenden Unterdeterminanten (Minor) von B
Definition:
Als Kofaktor von aik in der Determinante bezeichnet man den mit einem Vorzeichen
versehene Minor des Elements aik:
Aik : (1) i k det[ A]iˆkˆ (^ steht für Unterdrückung)
13
Satz:
Satz:
Es gilt für jedes feste i:
det A  k 1 aik Aik  ai1 Ai1  ai 2 Ai 2  ...  ain Ain
und für jedes feste k:
det A  i 1 aik Aik  a1k A1k  a 2k A2k  ...  a nk Ank
n
~
Es sei A  [ Aik ] die Matrix der Kofaktoren der regulären Matrix A  R nn . Dann gilt:
A 1 
Satz:
n
1 ~T
A
det A
Die Determinante einer Matrix A  R nn ist eine „alternierende“ summe von n! Termen,
und zwar der sämtlichen möglichen Produkte von n Matrixelementen, keine zwei davon au
derselben Zeile oder derselben Kolonne.
Beispiel:
Eine spezielle Determinante: die Vandermondesche Determinante.
 1

 1
V (1 , 2 ,..., n ) : det  12

 
1n 1
Beispiel:
1
2
22
1 



n 1
2

1 
n 
n2    ( j  i )
 i j
 
nn1 
Zeige, dass für eine schiefsymmetrische ( AT   A ) n × n - Matrix gilt: det A  (1)n det A

det(A)  det(AT )  (1) n det(AT )  (1) n det(A)
 für n ungerade: det(A)  -det(A)  det(A)  0
■
Zeige, dass für eine orthogonale ( AT A  I ) nxn-Matrix gilt: det( A )  1

det(A  AT )  det(A)  det(AT )  det(A)  det(A)  (det(A)) 2
det(I)  det(A 1  A)  det(A 1 )  det(A)  det(A)  det(A)  (det(A)) 2

det(I)  1  (det(A)) 2
det(A)   1  1
■
Eigenwerte und Eigenvektoren
Definition
Ein Vektor e ≠ 0, für den A e = λ e mit einem geeigneten λ  R (bzw. λ  c ) zutrifft, heisst
ein Eigenvektor der Abbildung A. Die betreffende Zahl λ heisst der zugehörige Eigenwert
von A.
Bemerkung
VERGLEICHE BLATTER SEITE 106
Bemerkung:
E : {x V Ax  x} , also die Menge aller Eigenvektoren einer Matrix A sowie dem
Nullvektor, ist ein Unterraum von V: Eλ stellt nämlich den Kern der Abbildung A – λ I dar.
14
Bemerkung
Man betrachte das System (A - λ I ) x = 0. (A sei eine quadratische Matrix) So hat man
folgende Alternativen:
(I)
(A - λ I) ist regulär. Das System (A - λ I) x = 0 besitz dann nur die triviale Lösung Eλ =
{0}. Somit findet man in diesem Fall keinen Eigenvektor.
(II)
(A - λ I) ist singulär. Das System (A - λ I) x = 0 besitz dann nichttriviale Lösungen. Es
ist dim Eλ > 0, und Eλ  V ist der zugehörige Eigenraum. Das System (A - λ I) x = 0
ist genau dann singulär, wenn seine Determinante verschwindet: det (A - λ I) = 0
Definition:
det (A - λ I) = 0 ergibt ein Polynom mit λ als Variable und vom genauen Grad n mit reellen
Koeffizienten, genannt charakteristische Polynom chp(λ) = 0. Die Lösungen dieser
Gleichungen sind die Eigenwerte λi (1 ≤ i ≤ n). Die zugehörigen Eigenvektoren eλ erhält
man als Lösung des Systems (A - λ I ) x = 0
Bemerkung:
Es sind auch komplexe Eigenwerte möglich.
Satz:
Zu verschiedenen Eigenwerten gehörende Eigenvektoren sind linear unabhängig.
Satz:
Diagonalisierbarkeit. Ist A : V  V eine lineare Abbildung mit dimV = n
verschiedene(!!!) reellen Eigenwerten λj (1 ≤ j ≤ r), so lässt sich A diagonalisieren, das
heisst, es gibt eine Basis (e1 ,..., e n ) von V mit A  diag( 1 , 2 ,..., n ) .
Bemerkungen:
chp(λ) = 0 ist vom genauen Grad n und besitzt nach dem Fundamentalsatz der Algebra
genau n Lösungen λj  c (1 ≤ j ≤ n), mehrfache mehrfach gezählt.
Diagonalisierbarkeit gewährleistet i. A., auch bei komplexen Eigenwerten.
Definition:
Eine Abbildung ist symmetrisch, falls für Abbildungsmatrix A  R nn gilt: A  AT
Satz:
Ist A  R nn eine symmetrische Matrix mit Eigenwerten 1 , 2 ,..., n , so gilt:
(I)
(II)
Alle Eigenwerte sind reell
Eigenvektoren, die zu verschiedenen Eigenwerten gehören, stehen aufeinander
senkrecht.
Bemerkungen
(III)
Es gibt eine orthonormale Basis (e1 ,..., e n ) von R n mit A  diag( 1 , 2 ,..., n )
(IV)
Es gibt eine orthogonale Matrix T mit A  T diag( 1 , 2 ,..., n )T T
BLATTER SEITE 113
15
Gram-Schmidt-Verfahren
Systeme von linearen Differentialgleichungen
Definition:
Es sei A  R nn (bzw  c nn ) eine fest vorgegebene Matrix. Dann heisst
x1
x 2

x n

a11 x1  a12 x 2    a1n x n
 a 21 x1  a 22 x 2    a 2 n x n
, kondensiert: x  Ax

 a n1 x1  a n 2 x 2    a nn x n
ein System von n linearen homogenen Differentialgleichungen erster Ordnung mit
konstanten Koeffizienten. Eine vektorwertige Funktion x(t )  x1 (t ), , x n (t ) ist eine
Lösung dieses Systems, falls x (t )  Ax(t ) , t  R , gilt.
Bemerkungen:
Die Lösungen bilden einen VR L von vektorwertigen Fkt.: L  C  ( R, R n ) . Zu jedem
Anfangsvektor x 0  R n (bzw. x 0  C n ) gibt es genau eine Lösung x ()  L mit x( 0 )  x0
Für eine vollständige explizite Beschreibung von L sind n linear unabhängige
Lösungsfunktionen nötig.
Satz:
Ist v  ( v1 ,, v n ) ein Eigenvektor der Matrix A zum Eigenwert λ, so ist die Funktion
x(t )  e t v eine Lösung von x  Ax , und zwar die Lösung mit dem Anfangsvektor
x( 0 )  v (Beweis durch Einsetzen).
Satz:
Die Matrix A  R nn besitze n linear unabhängige Eigenvektoren v (1) ,, v ( n ) zu (nicht
notwendigerweise verschiedenen) Eigenwerten 1 , 2 ,..., n . Dann ist die allgemeine Lösung
von x  Ax gegeben durch x(t )  C1e 1t v (1)    C n e n t v ( n )  x(t )   C j e  t v ( j )
n
j
j 1
mit beliebigen reellen (komplexen) Koeffizienten Cj (1 ≤ j ≤ n) und Anfangsbedingung
n
x 0   C j v ( j )  Gleichungssystem…
j 1
16
Quadratische Formen, Hauptachsentransformationen
Definition:
Ein homogenes Polynom q(·)zweiten Grandes in den jeweiligen Koordinatenvariablen (z.B.
x, y, … oder x1, …, xn) heisst eine quadratische Form: q () : R n  R
Satz:
Eine quadratische Form lässt sich folgenderweise notieren:
q ( x )  x T Qx , dabei ist Q  [qik ] eine symmetrische Matrix, für Einträge gilt:
 q  Koeffizien t vor reinqu adratische n Termen x i 2 falls i  k
q ik   ik
q ik  Koeffizien t  (1/2) vor gemischten Termen x i x k falls i  k
Definition:
Die quadratische Form heisst
(I)
(II)
(III)
Bemerkung:
positiv (negativ) definit,
wenn gilt: q(x) > 0
(<0)
x  0
positiv (negativ) semidefinit,
wenn gilt: q(x) ≥ 0
(≤0)
x
indefinit
wenn q(x) Werte < und > 0 annimmt
Als Funktion q () : R n  R ist eine gegebene quadratische Funktion wohlbestimmt.
Die Funktion ist aber koordinatenabhängig!
Satz:
q () : R n  R ist koordinatenabhängig! Bei Koordinatentransformation verändert sich die
symm. (!) Matrix Q auf charakteristische Weise: Q  T T QT . T ist Transformationsmatrix
„alte Basis  neue Basis“. Beweis: q ( x)  x T Qx  (Tx )T QTx  x T T T QTx  x T Q x
Satz:
Trägheitssatz. Jede quadratische Form lässt sich in geeigneten (schiefwinkligen)
Koordinaten ( x1 ,..., xn ) auf die Normalform q ( x )  x12  ...  x r2  x r21  ...  x r2 s bringen.
Definition:
Man bezeichnet

r+s
als Rang

r–s
als Signatur
Satz:
Die Matrix Q  [qik ] ist symmetrisch. Es gilt daher: T T QT  diag( 1 , 2 ,..., n )
Satz:
Hauptachsentransformation. Es sei eine reelle quadratische Form gegeben. Weiter seien
1 , 2 ,..., n die Eigenwerte von Q  [qik ] und (e1 ,..., e n ) eine zugehörige orthonormierte
Basis von Eigenvektoren. Dann besitz q () : R n  R in den neuen Koordinaten ( x1 ,..., xn ) die
Gestalt q ( x )  1 x12  2 x r2  ...  n x n2
17
Unitäre Räume
Definition:
natürliches Skalarprodukt: x y : x1 y1  x2 y2  ...  xn yn  k 1 xk yk
Definition:
Gilt x y  0 , so heissen x und y zueinander orthogonal.
n
Der absolute Betrag oder die Norm versteht man unter x :
x x  k 1 xk yk  k 1 xk
n
Satz:
Definition:
n
2
xx
ACHTUNG: komplexe Zahlen und Rechenregeln!!
xyz  xy  xz
xy  yx
x y   x y 
  C
x y   x y 
x x  0 ( x  0)
Ein endlich- oder unendlichdimensionaler komplexer Vektorraum V mit einem
Skalarprodukt   : V V  C , das letzterem Satz genügt, heisst ein unitärer Raum.
Satz:
Jeder endlichdimensionale unitäre Raum V besitzt orthonormale Basen. Sind (x1, x2, …, xn)
zu einer orthonormalen Basis gehörige Koordinaten, so erscheint V als Standardmodell
C n mit Skalarprodukt definiert wie oben.
Definition:
Eine Abbildung A : V  V von unitären Vektorräumen bezüglich einer orthonormalen Basis
und der dazugehörigen Matrix A nennt man linearer Operator, speziell wenn man damit
Eigenschaften zur Erkennung bringen will.
Definition:
Es gibt zu A in der Menge der Operatoren ein „Spieglbild“, den sogenanten adjungierten
Operator A*: A * x y  x Ay ( x, y V )
Satz:
Definition:
Sei A ein linearer Operator und A* sein adjungiertes Komplement. Dann gilt:
elm ik(A*)  elm ki (A)
transponiert und komplex konjugiert
(A)*   A *
( AB)*  B * A *
A **  A
Sei eine (n × n)-Matrix A ein linearer Operator und A* sein adjungiertes Komplement.
Dann heisst A, wenn folgendes gilt:
(I)
(II)
(III)
selbstadjungiert, falls A = A* (  Ax y  x Ay )
unitär, falls A*A = AA* = I
normal, falls A*A = AA*
18
Bemerkungen:
In der Praxis treten selbstadjungierte Operatoren am häufigsten auf.
Unitäre Operatoren lassen Abstände invariant: Für alle x, y V gilt:
Tx Ty  T * Tx y  x y .  „Drehung“. Alle unitären Operatoren sind normal!
Satz:
Es sei V ein unitärer Raum und A : V  V ein normaler Operator. Dann gilt:
(I)
Ae  e  A * e   e , d.h. A und A* besitzen dieselben Eigenvektoren.
(II)
Ist e ein Eigenvektor von A, so ist dessen orthogonales Komplement U ein
invarianter Unterraum von A
(III)
Zu verschiedenen Eigenwerten gehörende Eigenvektoren stehen aufeinander
senkrecht
Bemerkung:
Orthogonales Komplement: S    V  ,    0 für alle  S. Eigenschaften:
S  ist ein Unterraum von V.
S  S   0

S   S  

S   S
Bemerkung:
wichtig:


 U  



U
dim U   dim V  dim U V ist endlich
 *     , ,  V
Adjungierte Abbildungen: Funktional:
adjungierte Abbildung
f * : V  V zu f : V  V
ist lin. Abb.
ist definiert durch:  f  ,     , f *    ,  V
Selbstadjungiert: f = f *.
lineare Selbstabbildung:
Beispiel:
geg.:
f:V→V
f x1, x 2, x3   x1  x 2,x1  x 2  2x3 , x 2  x3 
ges.: adjungierte Abbildung
setze:
ker f * = (im f ); rang f = rang f *.
  x1, x 2, x3 
und
f* : R3  R3
  y1, y 2, y3 
 f  ,    x1  x2 y1  x1  x2  2x3 y2  x2  x3 y3  x1y1  y2   x2 y1  y2  y3   x3 2y2  y3 

Satz:
f * y1, y 2, y3   y1  y 2,y1  y 2  y3 ,2y 2  y3 
Spektralsatz 1. Es sei V ein endlichdimensionaler unitärer Raum und A : V  V ein
selbstadjungierter Operator. Dann gilt:
(I)
(II)
Alle Eigenwerte λj von A sind reell.
Es gibt eine orthonormale Basis von V, die A diagonalisiert: Bezüglich dieser Basis
besitzt A die Matrix A  diag (1 , 2 ,..., n )
19
Satz:
Spektralsatz 2. Es sei A eine selbstadjungierte (n × n)-Matrix. Dann gilt
(I)
(II)
Satz:
Alle Eigenwerte λj von A sind reell.
Es gibt eine unitäre (n × n)-Matrix T mit A  T  diag (1 , 2 ,..., n )  T *
Spektralsatz 3. Es sei V ein endlichdimensionaler unitärer Raum und T : V  V ein
unitärer Operator. Dann gilt:
(I)
(II)
Alle Eigenwerte λj von T besitzen den Betrag 1:
 j  e i (i ≤ j ≤ n)
j
Es gibt eine orthonormale Basis von V, die T diagonalisiert. Bezüglich dieser Basis
besitzt T die Matrix T   diag (e i1 , e i 2 ,..., e in )
Anhang
Fibonacci:
explizit:
rekursiv:
Lineare Gls.:
1 5 n  1 5 n
2n 5
 n 1
0  1
An  B  1
B ,
 0
( 2n 1)
wobei
1 
1 5
1 5
, 2 
,B 
2
2
Gegeben sei eine A  a jk  = reelle 7x4-Matrix,
und das dazugehörige lineares Gls:
 1 1  1
1

, (B 



1
2


2  1
  2 1

)
  1 1 
a11x1  a12 x2  a13 x3  a14 x4  0
a21x1  a22 x2  a23 x3  a24 x4  0
a31x1  a32 x2  a33 x3  a34 x4  0
a41x1  a42 x2  a43 x3  a44 x4  1
a51x1  a52 x2  a53 x3  a54 x4  0
a61x1  a62 x2  a63 x3  a64 x4  0
a71x1  a72 x2  a73 x3  a74 x4  0
Aussagen
richtig falsch
Die Lm. Ist eine Teilmenge des R 7
Die Lm. Ist eine Teilmenge des R 4
Ein derartiges System kann unendlich viele Lös. haben.
Ein derartiges System kann genau eine Lös. haben.
Es gibt jedenfalls die tr. Lös.
Die Lm. Ist ein VR.
Es gibt jedenfalls dann eine Lös., wenn die rechte Seite im Kolonnenraum von A liegt.
Wenn die augmentierte Matrix den Rang 5 hat, so gibt es eine Lös.
Falls die Lm. Nicht leer ist, so ist die Menge der Differenzen von je 2 Lös. ein VR.
Das arithmetische Mittel von 2 Lösungen ist wieder eine Lösung.
Werden die letzten 3 Gl. gestrichen, so besitzt das Restsystem jedenfalls eine Lös.
Werden die letzten 4 Gl. Gestrichen, so besitzt das Restsystem nichttr. Lös.
20
Herunterladen