Teil 6: Vektoren und Matrizen

Werbung
6.
Vektoren, Matrizen und Determinanten
6.1
Vektoren
Historisch waren „Vektoren a“ Strecken mit Pfeilen, mit deren Hilfe wir kompakt die Stärke
und Aktionsrichtung einer Naturgröße angeben können: Die Streckenlänge |a| („Absolutbetrag |a|“) entspricht dabei der Stärke und der Pfeil gibt die Richtung an. Solche „Vektoren a“
können gut das Verhalten der Geschwindigkeit v, des Impulses p, des Impulsmomentes
(Drehimpuls) w ... wiedergeben. Der Absolutbetrag der Geschwindigkeit ist die auch auf dem
Tachometer ablesbare Schnelligkeit v = |v|, und jener des Impulsmomentes W die in der
Quantenmechanik so bedeutsame Wirkung(sgröße) W =|W|.
6.1-1 Grundlagen. Da wir mit unseren Messinstrumenten einzig und alleine nur reelle Zahlenwerte direkt ermitteln können, müssen wir für die Angabe der Aktionsrichtung dieser richtungsabhängigen Naturgrößen in unserer Lebenswelt zu konstruktiven Hilfsmassnahmen
greifen. Das Baugerüst dazu heißt „mathematischer Raum“. Von diesem mathematischen
Fachbegriff ist der Anschauungsraum unserer Lebenswelt zu unterscheiden. Alles Ausgedehnte hat für uns ja Längen x, Breiten y und Höhen z - also Ausdehnung in drei unterschiedliche Raumrichtungen, die nicht in einer Ebene liegen. Eine vereinfachte, systematisierte Schreibweise erhalten wir, wenn wir die Namen der drei Ausdehnungsrichtungen einfach durchnummerieren: x = x1, y = x2, z = x3.
Der mathematische „Raum“ macht erst Sinn, wenn wir uns in ihm ebenso orientieren
können wollen wie in unserem Lebensraum. Jeder mathematische Raum benötigt also eine
Struktur, die „Koordinatensystem“ genannt wird samt Verhaltensregeln wie wir dieses benützen können. Das Ganze heißt „Geometrie“ (oder: „Raumgeometrie“). Das Koordinatensystem besteht aus einer Zahlenachse („Koordinatenachse“) in jeder Raumdimension, wobei
der Abstand zwischen den Marken „0“ und „1“ „Einheit“ genannt wird.
Der euklidische Raum etwa hat drei aufeinander senkrecht stehende gerade Koordinatenachsen (x-, y- z-Achse oder eben einfach k-Achsen (k=1, 2, 3)), von denen immer
zwei in einer Ebene liegen. Er ist daher ein 3-dimensionaler, „ebener“ und „senkrechter“
Raum. Sein Koordinatensystem heißt auch „kartesisch“ (nach seinem Erfinder René Descartes (1596-1650), der latinisiert Cartesius hieß). Spannen die Koordinatenachsen schiefe
Winkel auf, dann erhalten wir einen ebenen, aber schiefwinkeligen Raum. Es können daher
3 beliebige Koordinatenachsen, die nicht in einer Ebene liegen, als Koordinatensystem benutzt werden.
© J.Tomiska 2011: Mathematikskizzen Teil 6
1
6.1-2 Koordinaten. Mit Hilfe eines solchen Koordinatensystems können wir unschwer die
Lage eines jeden Raumpunktes P angeben: Wir legen dazu durch den Punkt P drei Ebenen,
die parallel zu den drei Ebenen sind, die von jeweils zweien der drei Koordinatenachsen aufgespannt werden. Die Entfernungen des Nullpunktes von den Schnittpunkten dieser drei Parallelebenen mit den jeweils freien Koordinatenachsen heißen „Koordinaten des Punktes P“:
Die x1-Koordinate ist also die Entfernung des Nullpunkts vom Schnittpunkt der x1-Achse mit
der Ebene, die parallel zur x2-x3-Ebene ist. Die x2- und x3-Koordinaten erhalten wir entsprechend als Entfernungen des Nullpunkts von den Schnittpunkten der x2-Achse (x3-Achse) mit
der zur x3-x1-Ebene (x1-x2-Ebene) parallel ist.
Haben wir nur zwei Raumrichtungen, so reduziert sich unser Koordinatensystem auf
2 Achsen (x1, und x2) und die Ebenen zu Geraden. Dieser vereinfachte Fall ist im Bild für
zwei Koordinatensysteme (blau und rot) eingezeichnet: Die Entfernungen der Schnittpunkte
der gestrichelten Linien mit den Koordinatenachsen liefern die jeweiligen Punktkoordinaten
(blau und rot). Damit die Zuordnung auch ohne Farbverwendung eindeutig ist, wurden die
Indizes des blauen Systems nicht unten sondern oben geschrieben. Jeder Punkt A wird also
- wie ersichtlich - mit Hilfe eines Zahlenpaares (a1,a2) bzw. (a1,a2) charakterisiert.
6.1-3 Punkte und Vektoren. Wie unser Bild zeigt, kann jede Raumrichtung mit Hilfe der
Verbindungslinie zweier Punkte fixiert werden, von denen der eine Ausgangspunkt (Anfangspunkt) und der andere Endpunkt genannt wird. Wird der Nullpunkt als Ausgangspunkt
© J.Tomiska 2011: Mathematikskizzen Teil 6
2
benützt, dann charakterisieren die Koordinaten des Endpunktes gleichzeitig auch die Raumrichtung. D.h., sowohl Raumpunkte als auch Vektoren werden in der Ebene durch ein Zahlenpaar (vgl. mit Bild) und im R3 durch ein Zahlentripel angegeben. Bei Punkten spricht man
dabei von „Koordinaten“ und bei Vektoren von „Komponenten“. In der moderneren Mathematik werden demnach die Vektoren der Ebene (R2) als Zahlenpaare und die des 3dimensionalen Raumes R3 als Zahlentripel definiert.
6.1-4 Vektoren im n-dimensionalen Raum Rn. Die durchnummerierte Schreibweise ist
besonders geeignet zur Charakterisierung der Koordinatenachsen von Räumen Rn mit beliebig vielen Dimensionen n (n = 1,2,3,...). Da jede Koordinatenachse eine eigenständige Dimension repräsentiert, darf keine einzige Koordinatenachse eines n-dimensionalen Raums
durch irgendeine Kombination der anderen Achsen entstehen können. Daher sprechen wir
davon, dass alle diese n „Raumdimensionen“ von einander „linear unabhängig“ sein müssen.
Im n-dimensionalen Raum müssen Punkte A durch n Koordinaten, also durch nDupel von Zahlen fixiert werden (A = (a1,a2,...,an)). Dementsprechend werden auch die Vektoren a in den n-dimensionalen Räumen Rn durch n-Dupel von Zahlen (Komponenten) definiert (a = (a1,a2,...,an)). Vorstellbar sind für uns allerdings nur Gebilde mit maximal 3 Raumdimensionen, wie schon bei Kant nachzulesen ist (Zeit und Raum sind für uns Menschen
Anschauungsformen a priori, also uns vor jeglicher Erfahrung eingeprägte Denkkorsette).
Höher dimensionale (n>3) Gebilde können wir zwar durch formale Erweiterungen unserer gewohnten geometrischen Objekte definieren, sie sind aber bloß rechnerisch zu erfassen und haben nichts mehr mit unseren vertrauten geometrischen Objekten zu tun - außer,
dass sich Letztere aus den n-dimensionalen Gebilden durch Reduktion auf die 3 Raumdimensionen unseres Lebensraumes ergeben.
6.1-5 „Norm ||a||“ und „reziproke Koordinatensysteme“.
Die „Absolutbeträge“ der Vektoren firmieren in unserer Denkwelt gerne als Streckenlänge
zwischen Ausgangs- und Endpunkt des Vektors. So bestimmen wir denn auch im euklidischen den Absolutbetrag (die „Länge“) der Vektoren a aus den Vektorkomponenten (a1, a2,
a3) mit Hilfe des pythagoreischen Lehrsatzes (|a|² = a1² + a2² + a3²).
Diese Zuordnung hat allerdings Schönheitsfehler: (1) Die Skalen unserer Koordinatenachsen sind allerdings willkürlich gewählt: Wir fixieren uns mit Hilfe der zwei Marken „0“
und „1“ unsere Abstandseinheit („Einheit“) und markieren uns mit ihrer Hilfe die verschiedenen Vielfachen dieser „Einheit“. Die Koordinaten oder Komponenten sind also Maßzahlen,
die uns sagen, wie viele „Einheiten“ wir benötigen, um an die markierte Stelle zu gelangen.
Die so gewonnenen „Absolutbeträge“ sind in ihren Zahlenwerten von den willkürlich gewähl-
© J.Tomiska 2011: Mathematikskizzen Teil 6
3
ten „Einheiten“ der einzelnen Koordinatenachsen abhängig. (2) Diese Zuordnungstechnik
kann bei schiefwinkeligen Koordinatensystemen nicht angewendet werden. (3) Es gibt in höherdimensionalen Räumen selbstverständlich keine „Strecken“.
In der moderneren Mathematik wird daher der „Absolutbetrag“ durch den neutralen
Begriff „Norm“ ersetzt, die überdies so definiert wird, dass ihr Wert unabhängig von den willkürlichen Achsen-„Einheiten“ und in allen Koordinatensystemen völlig gleich berechnet wird.
Die beiden Koordinatensysteme des Bildes wurden mit Bedacht so ausgewählt: Bei
genauerer Betrachtung bemerken wir, dass die (rote) x2-Achse senkrecht auf die (blaue) x1Achse steht und entsprechend die (rote) x1-Achse senkrecht auf die (blaue) x2-Achse. Solche
zwei Koordinatensysteme heißen zueinander „reziprok“. Im 3-dimensionalen Raum gilt die
entsprechende Erweiterung: die (rote) x1-Achse steht senkrecht auf die Ebene, die von den
(blauen) x2- und x³-Achsen aufgespannt wird, ...
Charakterisieren wir unseren Vektor a mit Hilfe der Komponenten mit den hoch stehenden (blauen) Indizes (ak), dann heißt er „kontravariant“, bei Verwendung der Komponenten mit den unten stehenden (roten) Indizes (ak) hingegen „kovariant“. Um es noch deutlicher
zu machen, schreiben wir die Komponenten häufig auch unterschiedlich auf:
(i)
⎛a ⎞
⎜ ⎟
k
als Kontravarianter Vektor (auch: „Spaltenvektor“) a = a = ⎜ a ² ⎟
⎜ ⎟
⎜ a³⎟
⎝ ⎠
(ii)
als Kovarianter Vektor (auch: „Zeilenvektor“)
1
a = ak = (a1,a2,...,an).
Merksatz: „Spaltenvektoren haben daher „viele Zeilen“ und Zeilenvektoren „viele Spalten““.
Die „Norm ||a||“ der Vektoren a wird nun einfach definiert als Quadratwurzel aus der Summe
der Produkte seiner kontravarianten Komponenten ak mit den entsprechenden kovarianten
Komponenten ak:
⎛a ⎞
⎜ ⎟
||a||2 = ak.ak = (a1, a2,..., an). ⎜ a ² ⎟ = a1.a1 + a2.a2 + ... + an.an.
⎜ ⎟
⎜ a³⎟
⎝ ⎠
1
Aus dem Bild erkennen wir unschwer, dass die roten Einheiten umso größer werden,
je kleiner die blauen sind und umgekehrt. Dieses Wechselspiel sorgt dafür, dass die Norm
||a|| eines Vektors a in allen Koordinatensystemen denselben Zahlenwert hat. Da im euklidischen Raum die ko- und kontravarianten Komponenten eines Vektors identisch werden, wird
© J.Tomiska 2011: Mathematikskizzen Teil 6
4
dort das Quadrat der Norm zur Summe der Komponentenquadrate - aber nur im euklidischen Raum!
6.1-6 Vektoralgebra.
(1)
Identität zweier Vektoren:
a = b, falls ak = bk für alle k∈(1,2,...,n)
(2)
Addition zweier Vektoren:
a ± b = c = (a1±b1,..., an±bn) = (c1,..., cn)
Kommutativgesetz:
a+b=b+a
Assoziativgesetz:
(a + b) + c = a + (b + c)
(3)
Nullvektor 0 = (0,...,0):
a+0=a
(4)
Multiplikation eines Vektors a mit einem Skalar λ:
(5)
Kommutativgesetz:
λ.a = a.λ = (λa1, ..., λan)
Assoziativgesetz:
λ.(μ.a) = (λ.μ).a
Distributivgesetz I:
(λ+ μ).a = λ.a + μ.a
Distributivgesetz II:
λ.(a + b) = λ.a + λ.b
Normierter Vektor aE (auch: „Einheitsvektor“): Jeder Vektor mit der Norm ||aE||= 1; also jeder durch seine Norm ||a|| dividierte Vektor a: aE = a /||a||.
(6)
Skalarprodukt (inneres Produkt, Punktprodukt) im Rn.
Das Skalarprodukt zweier Vektoren a und b ergibt einen Skalar s (daher der Name)
und ist analog zur Norm ||a|| der Vektoren a definiert. Wir ersetzen bloß entweder die
kontravarianten Komponenten des Vektors a durch die entsprechenden des Vektors
b (Merksatz: „Summe der Komponentenprodukte des Zeilen- mit dem Spaltenvektors“).
⎛b ⎞
⎜ ⎟
k
s = ak.b = (a1, a2,..., an). ⎜ b² ⎟ = a1.b1 + a2.b2 + ... + an.bn.
⎜ ⎟
⎜ b³ ⎟
⎝ ⎠
1
© J.Tomiska 2011: Mathematikskizzen Teil 6
5
(7)
Vektorprodukt (äußeres Produkt, Kreuzprodukt) im R3.
⎛c ⎞
⎛ a2 b3 − a3b2 ⎞
⎜ ⎟
⎜
⎟
⎜
⎟
c = a x b = c ² = (a1,a2,...,an) x (b1,b2,...,bn) = ⎜ a3b1 − a1b3 ⎟ ;
⎜ ⎟
⎜a b −a b ⎟
⎜ c³ ⎟
⎝ 1 2
2 1⎠
⎝ ⎠
1
⎛a ⎞ ⎛b ⎞
⎜ ⎟ ⎜ ⎟
c = a x b = (c1,c2,...,cn) = ⎜ a ² ⎟ x ⎜ b² ⎟ = (a2.b3 - a3.b2, a3.b1 - a1.b3, a1.b2 - a2.b1).
⎜ ⎟ ⎜ ⎟
⎜ a ³ ⎟ ⎜ b³ ⎟
⎝ ⎠ ⎝ ⎠
1
1
Das Vektorprodukt zweier Zeilenvektoren ergibt einen Spaltenvektor und dasjenige
zweier Spaltenvektoren einen Zeilenvektor. Der Produktvektor c steht senkrecht auf
die a-b-Ebene; es gilt die „rechte Hand Regel“.
Merksatz: „Immer „1,2,3,1,2,3,...“ und jede Vertauschung der Reihenfolge („Permutation“) erzeugt ein (-1)“.
(i)
„Orthogonal“ stehen zwei Vektoren zueinander, wenn ihr Skalarprodukt verschwindet.
(ii)
Lineare Unabhängigkeit: Zwei oder mehrere Vektoren sind linear unabhängig (l.u.),
wenn keiner von ihnen durch Linearkombination der anderen hervorgeht.
(iii)
Kroneckersymbol δ: δik = δik = 1 für alle i = k und δik = δik = 0 für alle i ≠ k.
(iv)
„Basis“ im Rn:
n linear unabhängige Vektoren vi.
- Normierte Basis:
Alle n Basisvektoren vi haben die Norm 1 (||vi || = 1).
- Orthogonale Basis:
Alle n Basisvektoren vi stehen zueinander orthogonal.
- Orthonormierte Basis: Eine normierte, orthogonale Basis
(vi . vk = δik (= 0 falls i ≠ j und = 1 falls i = j).
6.1-7 Vektorielle Charakterisierung von geometrischen Gebilden.
(1)
Punkt:
p = (p1,p2,p3) = (p1,p2,p3).
(2)
Gerade:
x = (p + λ.rE)
rE (Einheits-)Vektor in der Geradenrichtung (auch: Richtungsvektor).
(3)
Ebene:
x = (p + λ1.rE1 + λ2.rE2)
rE1, rE2 zwei l.u. (Einheits-)Vektoren der Ebene.
© J.Tomiska 2011: Mathematikskizzen Teil 6
6
(4)
Gerade oder Ebene: Mit Hilfe des Skalarproduktes n.(x - p) = 0.
n (Einheits-)Vektor, der normal auf die Gerade bzw. Ebene steht (auch: „Normalvektor“). Ist n der Einheitsvektor, dann heißt diese Gl. „Hesse’sche Normalform“.
In Ebene:
Geradengleichung:
=>
Im R3:
Ebenengleichung:
=>
(5)
n1.(x1 -p1) + n2.(x2 - p2) = 0;
n1.x1 + n2.x2 = c;
n1.(x1 -p1) + n2.(x2 - p2) + n3.(x3 - p3) = 0;
n1.x1 + n2.x2 + n3.x3 = c.
Abstand s eines Punktes x von einer Geraden (Ebenen): Den Punkt x einsetzen in
die Hesse’sche Normalform: n.(x - p) = s.
(6)
Winkel φ: Der Winkel φ den zwei Vektoren a und b einschließen ist gegeben durch:
cos φ = (a.b) /(||a||.||b||).
(7)
Das Skalarprodukt zweier Vektoren a und b kann als Projektion des Vektors b auf
den Vektor a interpretiert werden.
(8)
Flächeninhalt eines Parallelogramms: Die Norm des Vektorproduktes ||a x b|| der
beiden das Parallelogramm aufspannenden Vektoren a und b.
(9)
Zusammenhang zwischen den kartesischen Koordinaten ak eines Vektors a und
seinen Polarkoordinaten:
(i)
In der Ebene (Polarkoordinaten: r = ||a||; ϑ = 0...2π):
a1 = r. cos ϑ
a2 = r. sin ϑ.
(ii)
Im R3 (Polarkoordinaten: r, ϑ, φ = -π/2...π/2):
a1 = r. cos ϑ . sin φ
a2 = r. sin ϑ . sin φ
a3 = r. cos φ.
6.2
Matrizen und Determinanten
© J.Tomiska 2011: Mathematikskizzen Teil 6
7
6.2-1 Matrizen.
Unter einer Matrix A verstehen wir die Anordnung von m*n Zahlen(„Elementen“) in m Zeilen
und n Spalten (Zwecks leichteren Merkens der späteren Multiplikationsregeln nennen wir
schon jetzt immer die Zeilen vor den Spalten)
⎛ a11
⎜ 2
⎜a
A= ⎜ 1
...
⎜
⎜ am
⎝ 1
a 12
a31
...
a22
a32
...
...
a2m
...
a3m
a ki
...
a1n ⎞
⎟
an2 ⎟ i
= a k = (aik) = {aik},
⎟
...
⎟
anm ⎟⎠
(i = 1,2,...,m; k = 1,2,...,n). Wir erkennen, dass die oberen Indizes die i-te Zeile charakterisieren und die unteren die k-te Spalte.
Diese Nomenklatur findet erst zaghaft Eingang in die Literatur, obwohl sie in der Theoretischen Physik seit Jahrzehnten in Gebrauch ist. Vielfach werden die Matrixelemente mit
zwei unteren Indizes versehen (aik), wobei der erste unbedingt die Zeile charakterisieren sollte, ansonsten vielfach Verwirrung entstehen kann.
Eine Matrix mit nur einer Zeile(Spalte) heißt Zeilen-(Spalten-)Vektor. Wir können da-
r
her die Matrizen auch mit Hilfe von m Zeilenvektoren ai = a i = (ai1, ai2,..., ain) oder von n
r
Spaltenvektoren ak = a k (haben m Zeilen mit den Komponenten a1k, a2k,... , amk):
⎛ a11
⎜ 2
⎜a
A= ⎜ 1
⎜ ...
⎜ am
⎝ 1
a12
a 22
a13
a 32
...
...
...
a m2
...
a m3
a ik
...
r
a1n ⎞ ⎛ a 1 ⎞
⎟
⎜
r ⎟
a n2 ⎟ ⎜ a 2 ⎟
r r
r
= ⎜ ⎟ = ( a 1, a 2,..., a n).
⎟
... ⎟
⎜ r... ⎟
m⎟
a n ⎠ ⎜⎝ a m ⎟⎠
o
Quadratische Matrix: Gleich viele Zeilen m wie Spalten n (m = n).
o
Reelle (Komplexe) Matrix: Die Elemente aik sind reelle (komplexe) Zahlen.
o
Konjugierte Matrix A* (auch: A ): Alle Elemente aik werden durch ihre konjugiert
komplexen a*ik ersetzt. Es gilt stets: (A*)*= A.
o
Transponierte Matrix AT: Die Zeilen werden mit den Spalten vertauscht: AT = aki. Bei
quadratischen Matrizen entspricht dies der Spiegelung an der rechts nach unten weisenden Diagonale. Es gilt stets: (AT)T = A.
o
Transjungierte Matrix AH: Transponiert und konjugiert (auch: hermitesch adjungiert).
Die Zeilen werden mit den Spalten vertauscht und durch ihre konjugiert komplexen
Elemente ersetzt:
AH = AT* = (AT)*= (A*)T = a*ki.
6.2-2 Determinanten.
© J.Tomiska 2011: Mathematikskizzen Teil 6
8
Eine Determinante ist eine in einem quadratischen Schema (gleich viele Zeilen wie Spalten)
notierte Summe. Sie stellt daher einen konkreten Zahlenwert dar - reell oder komplex. In ihrer Darstellung - aber nur in dieser - ist die Determinante einer quadratischen Matrix ähnlich.
Der einzige Unterschied in ihren Schaubildern ist der, dass die Determinante mit senkrechten Begrenzungsstrichen gekennzeichnet ist: |aik|. Alternativ dazu kann sie auch durch das
Schreiben von „det“ vor dem Zahlenschema angegeben werden: |aik| = det (aik).
⎛ a11
⎜
A = det A = det ⎜ a12
⎜ a3
⎝ 1
a31 ⎞
a11
⎟
a32 ⎟ = |aik| = a12
a33 ⎟⎠
a13
a12
a22
a23
o
Berechnung der Determinanten
(1)
n = 2:
a12
a13
a 22
a 32
a 32 .
a 33
A = det A = a11 a22 - a21 a12.
Merksatz: „Produkt der Hauptdiagonale - Produkt der Nebendiagonale”.
(2)
n > 2: Zwei Möglichkeiten:
Hilfreich: Wir schreiben die Determinante rechts nochmals an, dann können wir die
Terme leichter erstellen:
(2-1)
a11
a12
a13
a11
a12
a13
a12
a 22
a 32
a13
a 32
a 33
a12
a13
a 22
a 32
a32
a 33
Entwicklung nach Unterdeterminanten („Minoren“):
a11
a12
A = det A = a12
a 22
3
1
3
2
a
(2-2)
a
a13
a2
a 32 = a11. 32
a2
a 33
a 32
a 33
+ a12.
a 32
a 33
2
a12
1 a1
+
a
.
3
a13
a13
a 22
a 32
Verallgemeinerung von (1):
Regel von Sarrus: Summe über alle Produkte der Hauptdiagonalen - Summe über alle Produkte der Nebendiagonalen.
a11
a12
a13
a12
a13
a 22
a 32
a 32 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 - a31 a22 a13 - a32 a23 a11 - a33 a21 a12.
a 33
© J.Tomiska 2011: Mathematikskizzen Teil 6
9
o
Eigenschaften der Determinanten
(1)
Für das Rechnen mit Determinanten gelten die entsprechenden Regeln der Matrizenalgebra (vgl. 6.2-3).
(2)
Die Determinante einer transponierten reellen Matrix AT hat denselben Wert wie die
der ursprünglichen reellen Matrix A: det AT = det A.
(3)
Ersetzt man die Elemente einer Determinante A = det A durch die konjugiert komplexen Elemente, so wird ihr Wert ebenfalls konjugiert komplex.
(4)
Addition des Vielfachen einer Zeile (Spalte) zu einer anderen Zeile (Spalte) ändert
nichts am Wert der Determinante.
(5)
Det A = 0, wenn einer der folgenden Fälle erfüllt ist:
(5-a)
Zwei Zeilen (Spalten) proportional;
(5-b)
Nicht alle Zeilenvektoren (Spaltenvektoren) voneinander linear abhängig sind;
(5-c)
Alle Elemente einer Zeile (Spalte) verschwinden;
(5-d)
Durch elementare Zeilen-/Spaltenoperationen zwei gleiche Zeilen oder
Spalten entstehen.
6.2-3 Matrizenalgebra.
(1)
Identität zweier Matrizen: A = B, falls aik = bik für alle i∈(1,2,...,m) und k∈(1,2,...,n).
(2)
Addition zweier Matrizen: A ± B = C = (aik ± bik)= (cik)
für alle i∈(1,2,...,m) und k∈(1,2,...,n).
Kommutativgesetz:
A + B = B + A;
Assoziativgesetz:
(A + B) + C = A + (B + C);
(3)
Nullmatrix 0 = (oik=0) für alle i,k:
(4)
Multiplikation Matrix A mit einem Skalar λ:
(5)
A + 0 = A.
Kommutativgesetz:
λ.A = A.λ = (λ aik) für alle i,k.
Assoziativgesetz:
λ.(μ.A) = (λ.μ).A.
Distributivgesetz I:
(λ+ μ).A = λ.A + μ.A.
Distributivgesetz II:
λ.(A + B) = λ.A + λ.B.
Produkt zweier Matrizen A und B:
Zwei Matrizen können nur dann miteinander multipliziert werden, wenn die Spaltenzahl der linken Matrix (A) mit der Zeilenzahl der rechten Matrix (B) übereinstimmt; Ergebnis: Matrix C mit mA Zeilen und nB Spalten.
© J.Tomiska 2011: Mathematikskizzen Teil 6
10
A . B = C = (cil) = (aik bkl) =
n A = mB
∑ a .b
k =1
i
k
k
l
= (ai1 b1l + ai2 b2l + ... + ainA bnAl).
Merksatz: „Summe der Komponentenprodukte der i-ten Zeile von A (hat nA Spalten) mit der l-ten Spalte von B (hat mB Zeilen)“. Geht also nur, wenn nA = mB!
o
Das Produkt zweier Matrizen ist nicht vertauschbar: A . B ≠ B . A.
o
Transponierte Produktmatrix CT = (A.B)T = BT.AT.
o
Assoziatives Gesetz: (A . B1) . B2 = A (B1 . B2) = C.
Beispiel: ____________________________________________________
a)
⎛ b11 ⎞
⎜ ⎟
(a11, a12,..., a1n). ⎜ b12 ⎟ = a1k.bk1 = a1.b11 + a2.b21 + a3.b31 = c11 = c.
⎜ b3 ⎟
⎝ 1⎠
b)
⎛ b11 ⎞
⎜ 2⎟ 1 1
⎜ b1 ⎟ .(a 1, a 2,..., a1n) =
⎜ b3 ⎟
⎝ 1⎠
⎛ c 11
⎜ 2
⎜ c1
⎜c3
⎝ 1
c 12
c 22
c 32
c 13 ⎞
⎟
c 32 ⎟
c 33 ⎟⎠
mit cin = bik.akn.
____________________________________________________________
(6)
(7)
Produkt einer Matrix mit der Summe zweier Matrizen:
A . (B1 + B2) = A . B1 + A . B2 = CL.
o
Linksmultiplikation:
o
Rechtsmultiplikation: (A + B1) . B2 = A . B2 + B1 . B2 = CR.
Rang der Matrix A:
Eine (m,n) Matrix A (m Zeilen, n Spalten) ist vom Rang r, wenn r die höchste Ordnung einer nicht verschwindenden Unterdeterminante ist, die aus Elementen der Matrix gebildet werden kann.
© J.Tomiska 2011: Mathematikskizzen Teil 6
11
6.2-4 Quadratische Matrizen
Eine quadratische Matrix A heißt „regulär“, falls ihre Determinante A = det A ≠ 0 ist.
⎛ 1 0 ... 0 ⎞
⎜
⎟
⎜ 0 1 ... 0 ⎟
i
E = (δ k ) = ⎜
.
...
... ⎟
⎜⎜
⎟⎟
0
...
0
1
⎝
⎠
(1)
Einheitsmatrix
(2)
Die Multiplikation der Einheitsmatrix E mit jeder gleichrangigen Matrix A ist vertauschbar: E . A = A . E.
(3)
Inverse Matrix A-1:
A . A-1 = A-1 . A = E.
Berechnung aus obiger Gleichung oder kompliziert: A-1 = (aik)-1 := Aki /(det A), „Algebraisches Komplement“: Aki = (-1)i+k . ∆ ki; ∆ ki erhalten wir durch Streichung der k-ten
Zeile und i-ten Spalte der Matrix A.
(4)
⎛ c 1 0 ... 0 ⎞
⎜
⎟
0
c
...
0
⎜
⎟
2
Diagonalmatrix D = (ci.δik) = ⎜
⎟.
...
...
⎜⎜
⎟⎟
⎝ 0 ... 0 c n ⎠
(5)
“Dreiecksmatrix”: Unter- oder oberhalb der Diagonalelemente stehen lauter Nullen.
(6)
Symmetrieeigenschaften:
Reelle Matrizen
Komplexe Matrizen
Symmetrisch: A = AT,
(aik) = (aki)
Hermitesch: A = A*T := AH
Orthogonal: A-1 = AT
(aik)-1 = (aki)
Unitär:
Anti- oder
(aik)-1 = (aki)*
Anti- oder
T
schiefsymmetrisch: A = -A
(7)
A-1 = AH
(aik) = (aki)*
i
k
(a k) = -(a i)
schief-hermitesch: A = -A*T
(aik) = -(aki)*
Jede quadratische Matrix A kann als Summe einer symmetrischen Matrix Asym und
einer antisymmetrischen Matrix Aanti dargestellt werden:
A = Asym + Aanti,
mit: Asym = (aik + aki) /2;
Aanti = (aik - aki) /2.
© J.Tomiska 2011: Mathematikskizzen Teil 6
12
6.3
Anwendungen
6.3-1 Lineare Gleichungssysteme
Lineares Gleichungssystem von m Gleichungen mit n Unbekannten (Variablen) xi als Matrizengleichung:
A . X = B.
A (m.n)-Koeffizientenmatrix, X n-dimensionaler Variablenvektor, B m-dimensionaler Lösungsvektor. Lösungsgleichung (i) in Matrizenform (wegen A-1.A.X = E.X = A-1.B):
X = A-1.B;
(ii) In Komponentenform:
a11.x1 + a12.x2 +...+ a1n.xn = b1
a21.x1 + a22.x2 +...+ a2n.xn = b2
...
am1.x1 + am2.x2 +...+ amn.xn = bm
Die Lösung eines linearen Gleichungssystems ändert sich nicht, wenn (i) Gleichungen vertauscht werden oder (ii) ein Vielfaches einer Gleichung zu einer anderen addiert wird.
o
Eindeutigkeit (r = n). Ein Gleichungssystem ist genau dann eindeutig lösbar, wenn
der Rang der Koeffizientenmatrix, r, gleich der Variablenzahl n ist. In diesem Fall stellt
jede Gleichungszeile eine von allen anderen völlig unabhängige Bestimmungsgleichung dar. Es handelt sich also um n = m linear unabhängige Gleichungen für die n
Variablen xi.
o
„Überbestimmtheit“ (r > n). Ist der Rang der Koeffizientenmatrix, r, größer als die
Variablenzahl n, dann gibt es mehr linear unabhängige Gleichungen als Variable xi.
Das Gleichungssystem ist daher „überbestimmt“, da widersprüchlich. Es gibt keine
Lösung für ein solches Gleichungssystem. Wir können für die n Variablen nur noch
Werte suchen, die mit der Überzahl an Forderungen „möglichst gut verträglich“ sind.
Die Suche solcher Werte ist Aufgabe der „Ausgleichsrechnung“ (auch: „Regressionsrechnung“). In unserem Messalltag haben wir zumeist solche Regressionsprobleme
zu lösen.
© J.Tomiska 2011: Mathematikskizzen Teil 6
13
o
„Unterbestimmtheit“ (r < n). Ist hingegen der Rang der Koeffizientenmatrix, r, kleiner als die Variablenzahl n, dann gibt es zu wenige linear unabhängige Gleichungen,
um sämtlichen Variable xi eindeutige Zahlenwerte zuordnen zu können. Das Gleichungssystem ist daher „unterbestimmt“, da (n - r) Variable xk unbestimmt bleiben.
Jede unbestimmte Variable xk kann jeden beliebigen Wert annehmen, es gibt für sie
also unendlich viele Lösungen. Unser Gleichungssystem hat also (n - r) unendlich
viele Lösungen.
Lösungsweg: Wir schieben einfach alle (n-r) Variablen auf die rechte Seite
und erhalten damit ein Gleichungssystem von r Gleichungen für die verbleibenden r
Variablen xi (i = 1, ..., r):
a11.x1 +...+ a1r.xr = b1 - a1r+1.xr+1 -...- a1n.xn = b’1
a21.x1 +...+ a2r.xr = b2 - a2r+1.xr+1 -...- a2n.xn = b’2
...
ar1.x1 +...+ arr.xr = br - arr+1.xr+1 -...- arn.xn = b’2
mit dem neuen Lösungsvektor b’. Der weitere Lösungsweg erfolgt genauso wie bei
einem eindeutig bestimmten Gleichungssystem. Der einzige Unterschied ist der, dass
hier der Lösungsvektor b’ nicht eindeutig bestimmt ist, sondern von den (n-r) Variablen xk (k = r+1, ..., n) abhängig ist. Diese unbestimmt verbleibenden Variablen xk werden daher oft „Parameter“ genannt und gerne auch mit griechischen Buchstaben geschrieben (xr+1 = λ; xr+2 = μ; ...).
o
Lösungstechniken für eindeutig bestimmte Gleichungssysteme (r = n):
(1)
Intuitiv durch geschickte Umformungen.
(2)
Cramer’sche Regel.
Lösungen sind die Quotienten aus zwei Determinanten: Der Nenner ist stets die Koeffizientendeterminante, die Zählerdeteminante Ai der Variablen xi erhalten wir, indem
wir die i-te Spalte der Koeffizientendeterminante A durch den Lösungsvektor b ersetzen: xi = Ai / A.
o Bei 3 Variablen:
a11.x1 + a12.x2 + a13.x3 = b1
a21.x1 + a22.x2 + a23.x3 = b2
a31.x1 + a32.x2 + a33.x3 = b3
© J.Tomiska 2011: Mathematikskizzen Teil 6
14
a11
a12
a13
b1
a12
a13
A = det A = a12
a 32
a 33
x1 = A1/A = b 2
a13
a 22
a 32
b3
a 22
a 32
a 32 / det A;
a 33
a11
b1
a13
a11
a12
b1
x2 = A2/A = a12
b2
b3
a 32 / det A;
a 33
x3 = A3/A = a12
a 22
a 32
b 2 / det A.
b3
a13
a13
Beispiel: __________________________________________________________
Gleichungssystem:
(i)
Intuitiv:
I
2x1 + 3x2 = 7
II
3x1 - x2 = 4
I + II.3: 11x1
= 19 → x1 = 19/11;
in II eingesetzt: x2 = 3.19/11 - 4 = (57 -44)/11 = 13/11.
(ii)
Cramer’sche Regel: A = det A =
x1 = A1/A =
7
3
4 −1
2
3
3 −1
/(-11) = -19/(-11) = 19/11;
= -11
x2 = A2/A =
2 7
3 4
/(-11) = -13/(-11) = 13/11;
________________________________________________________________________
(3)
Gauss’sches Eliminationsverfahren.
Wir formen die Koeffizientenmatrix A sukzessive in eine Dreiecksmatrix U um:
A.X = B
→
U. X = B.
In Komponentenform: a11.x1 + a12.x2 +... + a1n.xn = b1
u22.x2 +... + u2n.xn = b’2
...
unn.xn = b’n
→ xn = b’n / unn.
Die Werte der anderen xi erhalten wir durch sukzessives Einsetzen von unten her.
© J.Tomiska 2011: Mathematikskizzen Teil 6
15
Beispiel: __________________________________________________________
I:
a11.x1 + a12.x2 + a13.x3 = b1
II:
a21.x1 + a22.x2 + a23.x3 = b2
III:
a31.x1 + a32.x2 + a33.x3 = b3
1. Schritt:
I:
a11.x1 + a12.x2 + a13.x3 = b1
I-II.a11/ a21:
u22.x2 + u23.x3 = b’2
(u22 = a22.a11/a21; u23 = a23.a11/a21; b’2 = b2.a11/a21)
I-III.a11/ a31:
v32.x2 + v33.x3 = v’3
(v32 = a32.a11/ a31; v33 = a33.a11/a31; v’3 = b3.a11/a31)
2. Schritt:
I:
a11.x1 + a12.x2 + a13.x3 = b1
II:
u22.x2 + u23.x3 = b’2
II-III.u22/ v32:
u33.x3 = b’3
(u33 = v33.u22/v32; b’3 = v’3.u22/v32)
3. Schritt:
x3 = b’3/u33;
x2 = (b’2 - x3)/u22;
x1 = (b1 - a12.x2 + a13.x3)/ a11.
________________________________________________________________
6.3-2 Koordinatentransformation Xalt → X.
In Matrizenform (A Transformationsmatrix, Xalt ursprüngliche Koordinaten, X neue Koordinaten):
A.Xalt = X.
Umkehrung (A-1.A = E): A-1.A.Xalt = A-1.X
→ Xalt = A-1.X.
o
2-dimensionale Beispiele:
⎛ a11
⎜ 2
⎜a
⎝ 1
(i)
Streckung von x1,alt:
a12 ⎞ ⎛ x 1,alt ⎞ ⎛ x 1 ⎞ ⎛ a11.x 1,alt + a12 .x 2,alt ⎞
⎟
⎟.⎜
⎟=⎜ ⎟=⎜
a 22 ⎟⎠ ⎜⎝ x 2,alt ⎟⎠ ⎜⎝ x 2 ⎟⎠ ⎜⎝ a12 .x 1,alt + a 22 .x 2,alt ⎟⎠
x1 = p1.x1,alt
x2 =
x2,alt
⎛ p1 0 ⎞
⎟⎟
⎝ 0 1⎠
=> A1 = ⎜⎜
© J.Tomiska 2011: Mathematikskizzen Teil 6
16
(ii)
Stauchung von x2,alt:
x1 =
x1,alt
x2 = q2.x2,alt
⎛1 0 ⎞
⎟⎟
⎝ 0 q2 ⎠
=> A2 = ⎜⎜
(iii)
Kombination (i) + (ii):
x1 = p1.x1,alt
x2 = q2.x2,alt
⎛ p1 0 ⎞
⎟⎟
⎝ 0 q2 ⎠
=> A1+2 = ⎜
⎜
(iv)
Spiegelung am 0-Punkt:
x1 = -x1,alt
x2 = -x2,alt
⎛− 1 0 ⎞
⎟⎟
⎝ 0 − 1⎠
=> A4 = ⎜⎜
(v)
Drehung um φ:
x1 = x1,alt.cos φ + x2,alt.sin φ
x2 = -x1,alt.sin φ + x2,alt.cos φ
⎛ cos ϕ − sin ϕ ⎞
⎟⎟
⎝ sin ϕ cos ϕ ⎠
=> A5 = ⎜⎜
© J.Tomiska 2011: Mathematikskizzen Teil 6
17
6.4.
Das Eigenwertproblem
6.4-1 Lineare Operatoren. „Operator“ nennen wir Abbildungen (Funktionen) χ→L(χ) besonders dann gerne, wenn wir darauf hinweisen wollen, dass wir „etwas tun müssen“, um aus
den Elementen χ ihrer Definitionsmengen die Bildpunkte L(χ) zu erhalten.
Ein Operator L heißt „linear“, wenn er 3 Bedingung erfüllt: Er muss „beschränkt“, „homogen“ und „additiv“ sein.
o
„Beschränkt“ ist ein Operator L grob gesprochen dann, wenn das Ergebnis seiner
Anwendung auf ein Element χ seiner Definitionsmenge (für Interessierte: ein linearer
Raum R) immer das Produkt dieses Elementes χ mit einer Zahl c (reell oder komplex)
ergibt:
L(χ) = c.χ.
o
„Homogen“ heißt ein Operator L dann, wenn seine Anwendung auf (c. χ) genau das
c-fache seiner Anwendung auf χ ergibt:
L(c.χ) = c.χ.
o
„Additiv“ bedeutet, dass die Anwendung des Operators L auf eine Summe (χ1+χ2)
dasselbe ergibt wie die Summen seiner Anwendungen auf jeden Summanden χi:
L(χ1+χ2) = L(χ1)+ L(χ2).
Beispiele linearer Operatoren:
(i)
Differentialoperator D := ∂/∂x
(ii)
Matrizen A, die bei Anwendung auf Vektoren x eines Raumes wieder zu Vektoren x
mit x als unabhängige Variable;
desselben Raumes führen.
6.4-2 Formulierung des Problems. Unter dem Begriff "Eigenwertproblem" verstehen wir
allgemein die Fragestellung nach den Lösungen einer Operatorgleichung der Form
L(χ) = λ.χ,
(1a)
wo L ein „linearer Operator“ für die Elemente χ ist, und λ reelle/komplexe Zahlen sind. Die
Elemente χ können dabei ebenfalls reelle/komplexe Zahlen sein, aber auch Vektoren, Matri-
© J.Tomiska 2011: Mathematikskizzen Teil 6
18
zen oder selbst Funktionen. Häufig werden solche „Operatorgleichungen“ auch in folgender
Form geschrieben:
L χ = λ.χ.
(1b)
6.4-3 Erklärung und Definitionen. Das Eigenwertproblem ist also nichts anderes, als die
Frage, unter welchen Umständen es möglich ist, dass die Anwendung des „linearen Operators L“ auf ein Element χ (des Raumes R) nichts anderes ergibt, als die Multiplikation dieses
Elements χ mit einer reellen/komplexen Zahl λ. Es ist evident, dass wir nicht verlangen können, dass dies im Allgemeinen möglich ist, sondern, dass es nur für ganz bestimmte Zahlen
λ mitsamt den genau dazupassenden Elementen χ erfüllt werden kann.
o
Jeder Zahl λk, für die eine nicht-triviale Lösung χk der Gl. (1) existiert (χk ≠ 0), bezeichnen wir als „Eigenwert“ λk des Operators L.
o
Die Menge aller Eigenwerte λk der Gl. (1) heißt „Spektrum“ des Operators L.
o
Die Lösungen χk der Gl. (1) selbst heißen „Eigenlösungen“.
o
Oft wird das Wort „Lösung“ durch den mathematischen Typus derselben ersetzt.
o
Sind die Eigenlösungen Vektoren xk, dann heißen sie oft „Eigenvektoren xk“.
o
Sind die Eigenlösungen Funktionen fk(x), dann sprechen wir von „Eigenfunktionen
fk(x)“, ...
6.4-4 Praktische Anwendungen. Eigenwertprobleme treten in vielen Bereichen der Chemie
und Physik auf. Besonders hohe Bedeutungen kommen ihnen bei der Matrizenrechnung und
in der Quantenmechanik zu, da die Lösung der fundamentalen Schrödinger-Gleichung (eine
Differentialgleichung) ein „Eigenwertproblem“ darstellt: Quantenmechanische Gebilde wie
Elektronen, ... können mit ihrer Umgebung nicht beliebige Energiemengen austauschen,
sondern nur solche, die der digitale Charakter der Wirkungsgröße zulässt. Die grundsätzlichen Austauschmöglichkeiten der Energie des Gebildes werden in dessen Energiefunktion
zusammengefasst, die hier „Hamiltonoperator H“ heißt. Das Gebilde selbst ist in seiner „Wellenfunktion Ψ“ charakterisiert und E sind die konkreten Energiemengen, die das Gebilde aus
der Umgebung aufnehmen oder in sie abgeben kann. Damit ist die Schrödinger-Gleichung
tatsächlich ein Eigenwertproblem (L = H; χ = Ψ; λ = E):
H Ψ = E.Ψ.
© J.Tomiska 2011: Mathematikskizzen Teil 6
19
Die konkreten Energieaustauschwerte Ek, ergeben sich als „Eigenwerte“ der Schrödinger-Gleichung, und die Charakterisierungsfunktionen Ψk der Gebilde sind deren Eigenfunktionen. Das Lichtspektrum eines Atoms stellt demnach nichts anderes dar, als die Gesamtheit der „Energie-Eigenwerte“ der Schrödinger-Gleichung dieses Atoms - also das
Spektrum der Eigenwerte dieser Gleichung (Für Interessierte sei auf mein Buch „Die Werkstatt der Natur“ verwiesen).
6.4-5 Eigenwertproblem bei Matrizengleichungen. Ist der Operator L in Gl. (1) eine
(n,n)-Matrix A, dann sind die Elemente χ Vektoren, die hier gerne als x bezeichnet werden,
und Gl. (1) wird zu:
A.x = λx.
(2a)
Multiplizieren wir Gl.(2a) von links mit der Einheitsmatrix E, dann erhalten wir wegen E.A = A
und E.λ = λE:
A.x - λE.x = (A - λE).x = 0.
(2b)
Die Determinante der Differenzenmatrix (A - λE) heißt „charakteristisches Polynom P(λ)“:
P(λ) : = det(A - λE),
(3)
© J.Tomiska 2011: Mathematikskizzen Teil 6
20
und die Nullstellen von P(λ), λk, sind die Eigenwerte der Gl. (2). Entsprechend gilt für die Eigenvektoren xk:
(A - λk.E). xk = 0.
(4)
Beispiel: ________________________________________________________________
⎛ 4 − 5⎞
⎟⎟ .
⎝ 2 − 3⎠
Gesucht sind die Eigenwerte λk und Eigenvektoren xk für A.x = λx mit A = ⎜⎜
(i)
Bestimmung der Eigenwerte λk:
−5 ⎞
⎛4 − λ
⎟ = (4-λ).(-3-λ) - 2.(-5) = λ² - λ - 2 = 0;
− 3 − λ ⎟⎠
⎝ 2
P(λ) : = det(A - λE) = det ⎜⎜
=>
(ii)
λ1 = -1;
λ2 = 2;
Bestimmung der Eigenvektoren xk:
⎛ 4 − λk
⎝ 2
(A - λk.E).xk = ⎜⎜
=>
I:
II:
−5 ⎞
⎟ .xk =
− 3 − λ k ⎟⎠
b) für λ2 = 2:
I:
II:
− 5 ⎞ ⎛ x k,1 ⎞
⎟ =0
⎟ .⎜
− 3 − λ k ⎟⎠ ⎜⎝ x k,2 ⎟⎠
(4- λk).xk,1 5.xk,2 = 0
2.xk,1 - (3+λk).xk,2 = 0
a) für λ1 = -1:
I:
5.x1 = 5.x2
II:
2.x1 = 2.x2
=>
⎛ 4 − λk
⎜⎜
⎝ 2
→ x1 = x2;
→ x1 = x2;
Eigenvektor x1 = (c, c), mit beliebigem c.
2.x1 = 5.x2;
2.x1 = 5.x2;
→ x2 = 2.x1/5;
=> Eigenvektor x2 = (c, 2.c/5), mit beliebigem c.
_______________________________________________________________________
o
Eigenschaften des Eigenwertproblems bei Matrizengleichungen
(1)
Jede Matrix A hat dieselben EW wie ihre transponierte Matrix AT.
(2)
Der EW λk heißt n-fach entartet, wenn λk eine n-fache Wurzel des charakteristischen
Polynoms P(λ) = det(A - λE) ist.
(3)
Die zu verschiedenen EW gehörigen Eigenvektoren sind linear unabhängig.
© J.Tomiska 2011: Mathematikskizzen Teil 6
21
(4)
Jede quadratische Matrix Q kann durch eine geeignete Transformation zumindest auf
Dreiecksform gebracht werden. Die Diagonalelemente sind dann die EW von Q.
(5)
Die zu verschiedenen EW einer symmetrischen (hermiteschen) Matrix gehörigen Eigenvektoren sind orthogonal (unitär).
(6)
Zu jedem EW einer symmetrischen (hermiteschen) Maxtrix gibt es genau so viele linear unabhängige Eigenvektoren wie die Entartung des EW beträgt.
(7)
Jede symmetrische (hermitesche) Matrix H kann durch eine orthogonale (unitäre)
Transformation auf Diagonalform gebracht werden. die Diagonalelemente sind dann
genau die EW von H, und die Spalten der Transformationsmatrix sind die Eigenvektoren.
© J.Tomiska 2011: Mathematikskizzen Teil 6
22
Herunterladen