Hans A. Keller - User Websites on enterpriselab.ch

Werbung
Lineare Algebra
Hans A. Keller
Hochschule Luzern, Technik & Architektur (HSLU T&A)
Das Verfahren besteht in einer genau definierten Abfolge von Zeilenoperationen, welche die Lösungsmenge nicht verändern.
Lineare Gleichungssysteme
Ein lineares Gleichungssystem bestehend aus m linearen Gleichungen in
je n Unbekannten hat die Gestalt
a11x1 + a12x2 + · · · + a1nxn
a21x1 + a22x2 + · · · + a2nxn
...
...
...
...
am1x1 + am2x2 + · · · + amnxn
Man setzt

a11
 a21
A := 
 ..
am1
a12
a22
..
am2

. . . a1n
. . . a2n 

. . . ..  ,
. . . amn
wobei aik , rk ∈ R


x1
 x2 
#»
,
x := 
.
 . 
xn


r1
 r2 
#»
,
r := 
.
 . 
rm
A heisst die Koeffizientenmatrix, #»
x ist der Spaltenvektor der Unbekannten, und #»
r der Spaltenvektor der rechten Seiten. Dann lässt sich das
System so schreiben:
(1)
In wichtigen Fällen ist die Matrix A quadratisch, also m = n.
Matrixalgebra
Bei der Matrixalgebra geht es, knapp gesagt, um ein Rechnen mit
Zahlenblöcken.
Es gibt drei Rechenoperationen:
• Multiplikation einer Matrix mit einem Skalar c. Dabei wird einfach
jeder Koeffizient von A mit c multipliziert.
• Addition von zwei Matrizen, S = A + B. Sie ist definiert, wenn A und
B die gleiche Grösse haben. Dabei werden einfach die entsprechenden
Koeffizienten addiert.
• Multiplikation von zwei Matrizen, P = A · B ist definiert, wenn die
Spaltenzahl von A gleich der Zeilenzahl von B ist. Ist A eine m × nund B eine n×k-Matrix, dann ist P eine m×k Matrix mit Koeffizienten
n
X
prs =
aribis.
i=1
Es gelten die meisten der üblichen Regeln, wie wir sie aus dem Rechnen mit
Zahlen kennen, aber mit einer grossen Ausnahme: Die Multiplikation
ist nicht kommutativ, das heisst, im Allgemeinen ist A · B 6= B · A
Die Nicht-Kommutativität der Multiplikation hat tiefgreifende Folgen, sie
macht das formale Rechnen mit Matrizen so schwierig. Zum Beispiel sind
die bekannten binomischen Formeln ungültig, und eine einfache quadratische Matrixgleichung A·A = B kann ohne Weiteres mehr als zwei Lösungen
haben (oder auch keine).
Der Gauss Algorithmus
Das wichtigste Verfahren zur Berechnung der Lösungen des Systems (1) ist
der Gauss-Algorithmus. Er wurde von C. F. Gauss im Zusammenhang
mit der Berechnung von Planetenbahnen entwickelt.
Carl Friederich Gauss (1777-1856) wird von vielen Wissenschaftshistorikern als der bedeutendste Mathematiker aller Zeiten angesehen. Er
ist ohne Zweifel einer der ganz Grossen auf diesem Gebiet. Er war
ein Wunderkind und ist schon früh mit originellen Leistungen hervorgetreten. Seine Begabung wurde auch vom Herzog von Braunschweig
erkannt, welcher ihn fortan finanziell unterstützte. Seine eigentliche
Wirkungsstütte war Göttingen, wo er im Jahr 1807 zum Direktor
der Sternwarte ernannt wurde. Gauss schuf ein umfangreiches Werk
mit bahnbrechenden Beiträgen zur Mathematik, theoretischen Physik,
Geodäsie und Astronomie.
2. Zwei Zeilen vertauschen.
3. Zu einer Zeile ein Vielfaches einer anderen Zeile addieren.
= r1
= r2
= ...
= rm
A · #»
x = #»
r
1. Multiplikation einer Zeile mit einem Skalar c 6= 0.
Das Ziel ist ein äquivalentes System mit vereinfachter
m = n ist die neue Matrix in Dreiecksform.



a11 a12 . . . a1n r1
b11 b12 . . .
 a21 a22 . . . a2n r2  Gauss  0 b22 . . .

 −→ 
.
.
.
.
.
 .
 .. .. . . .
.. . . 
.
an1 an2 . . . ann rn
0 0 ...
Matrix. Im Fall
b1n
b2n
..
bnn

s1
s2 

.. 
sn
Sind alle Diagonalelemente b11, . . . , bnn verschieden von 0, dann lässt sich
das neue System bequem von unten nach oben auflösen; die Lösung ist eindeutig. Sind einige Diagonalelemente = 0, dann hat das System entweder
gar keine Lösung, oder aber eine unendliche Schar von Lösungen.
Berechnung
#»
#»
Man schreibt zuerst die Gleichung (2) in der Form (A − λ · E) · u = 0 ,
wobei E die Einheitsmatrix ist. Wenn man dann die Determinante dieses
Systems
a11 − λ a12 . . .
a
1n
a21 a22 − λ . . .
a2n det(A − λ · E) = .
..
..
...
.
an1
an2 . . . ann − λ
entwickelt und nach Potenzen von λ ordnet, so erhält man das sogenannte charakteristische Polynom pA(λ) der Matrix A. Es hat die Form
pA(λ) = (−1)nλn + · · · + c0 und somit Grad n. Die Eigenwerte von A
sind die Nullstellen dieses Polynoms. Man findet die Eigenvektoren, indem
man das entsprechende homogene, ausgeartete Gleichungssystem auflöst.
In praktischen Anwendungen hat man es oft mit Gleichungssystemen mit
Hunderttausenden von Unbekannten zu tun. Dann ist das Gaussverfahren
wegen seiner Komplexität (O(n3)) überfordert und man verwendet statt
dessen iterative Verfahren.
Riesige Gleichungssysteme trifft man zum Beispiel bei Berechnungen mit
finiten Elementen oder bei Auswertungen von bildgebenden Verfahren in
der Medizin (Computer Tomographie).
Determinanten
Einer quadratischen Matrix A wird
genannte Determinante
a11
a21
det(A) = .
.
an1
eine Kenngrösse zugeordnet, die soa12
a22
..
an2
...
...
...
...
Satz: ( Spektralsatz) Eine quadratische, reelle, symmetrische Matrix
A der Grösse n × n hat genau n reelle Eigenwerte. Dabei wird jeder
Eigenwert mit seiner (algebraischen) Multiplizität gezählt.
Satz: Jede reelle, symmetrische Matrix lässt sich mit Hilfe einer orthogonalen Transformation in Diagonalform bringen.
Beispiel: Der Spektralsatz ist in der Mathematik der Ausgangspunkt für
die Theorie der linearen Operatoren auf Hilbert Räumen. Er hat auch
weitreichende praktische Anwendungen. Unter anderem liefert er ein elegantes, sehr effizientes Verfahren zur Auflösung von Systemen von linearen
Differenzialgleichungen, welche gekoppelte Schwingungen beschreiben.
ÿ1 + 12y1 − 8y2
=0
ÿ2 − 8y1 + 18y2 − 10y3 = 0
ÿ3
− 10y2 + 15y3 = 0
Die Berechnung der Determinanten ist - außer bei ganz kleinen Matrizen
- komplex und aufwändig. Die Determinante zeigt an, ob die Matrix eine
multiplikative Inverse hat. Es gilt
det(A) 6= 0
det(A) 6= 0
⇔
⇔
y2
A hat eine Inverse A−1
A · #»
x = #»
r hat eine eindeutige Lösung
y3
y1
Eigenwerte und Eigenvektoren
In der mathematischen Behandlung der Matrizen nimmt der Begriff
“Eigenvektor” eine zentrale Stellung ein, er erweist sich als Eingangstor
zu einer zweiten, höheren Stufe der Matrixtheorie.
Lineare Transformationen
Grundbegriffe
Eine Abbildung T : V → V , welche jedem Vektor #»
a einen Bildvektor
#»
b = T ( #»
a ) zuordnet, heisst eine lineare Transformation, wenn für alle
Vektoren #»
x , #»
y ∈ V und für alle Skalare α gilt
Sei A eine n×n-Matrix und #»
p ein n×1-Spaltenvektor. Dann ist das Produkt #»
q := A· #»
p wieder ein n×1-Spaltenvektor. Im Allgemeinen haben #»
p
und #»
q verschiedene Längen und verschiedene Richtungen. Eigenvektoren
sind dadurch gekennzeichnet, dass bei Multiplikation mit A die Richtung
erhalten bleibt.
Definition: Ein Vektor #»
u heisst Eigenvektor der Matrix A, wenn
A · #»
u = λ #»
u
(2)
für ein gewisses λ ∈ R. Die Zahl λ heisst der zu #»
u gehörende Eigenwert.
(2) der Zusammensetzung T1 ◦ T2 (zuerst T2 ausführen, dann T1
entspricht das Matrixprodukt A1 ◦ A2.
Dieser Zusammenhang eröffnet ein weites Feld von verschiedenartigen Anwendungen.
Starre Bewegungen
Von besonderer Bedeutung sind lineare Transformationen, welche, anschaulich gesprochen, alle Abstände und folglich auch alle Winkel erhalten.
Man nennt sie Isometrien. In der Ebene sind es
• Rotation um den Nullpunkt um einen Winkel α.
Durch Zusammensetzen erhält man stets wieder eine Spiegelung oder eine
Rotation.
Die Isometrien im dreidimensionalen Raum sind:
• Spiegelung an einer Ebene durch den Nullpunkt.
Daraus folgt sofort
a1n a2n .. ann
(1) Der Summe S := T1 + T2 der Transformationen entspricht die Summen A1 + A2 der Matrizen,
• Spiegelung an einer Geraden durch den Nullpunkt.
Der Spektralsatz
Das allerwichtigste theoretische Ergebnis ist der folgende
Iterative Verfahren
Seien T1, T2 : V → V zwei lineare Transformationen mit MatrizenA1 und
A2. Dann gilt:
Definitionen
T ( #»
x + #»
y ) = T ( #»
x ) + T ( #»
y ),
T (α · #»
x ) = α · T ( #»
x ).
#»
#»
Daraus folgt, dass T ( 0 ) = 0 . Eine lineare Transformation wird
vollständig festgelegt durch ihre Aktion auf die kanonische Basis
{e1, e2, . . . , en}. Es gibt eine umkehrbar eindeutige Zuordnung zwischen
den linearen Transformationen von V und der Gesamtheit aller reellen
(oder komplexen) quadratischen Matrizen der Grösse n × n.
• Rotation um eine Achse durch den Nullpunkt um einen Winkel α.
• Zusammensetzungen davon ergeben hier neue Isometrien.
Sei T eine lineare Transformation und A ihre Matrix. Dann gilt
T ist eine Isometrie ⇔ At · A = E
wo E die Einheitsmatix ist und At die transponierte Matrix.
Beispiel: Die Rotation um die Achse
z
t
h
mit
Richtungsvektor
~
u
=
[1,
1,
1]
h
(also die Körperdiagonale des Einheitswürfels) mit Drehwinkel β = 50◦
β
wird beschrieben durch die Matrix
#»
u


1
0.7157 −0.1603 0.6797
1
1
y
B =  0.5085 0.7868 −0.3498 .
x
−0.4787 0.5960 0.6446
Homogene Koordinaten
Die Translationen (Parallelverschiebungen) spielen in der Geometrie und
in der Mechanik eine zentrale Rolle. Diese Bewegungen sind keine linearen Transformationen und lassen sich daher nicht ohne Weiteres in den
gewöhnlichen Rahmen einfügen. Man kann aber auch sie durch Matrizen
erfassen, wenn man zu homogenisierten Koordinaten übergeht, d.h. eine
zusätzliche Dimension hinzunimmt. Die Bewegungen in der Ebene werden dann durch 3 × 3-Matrizen, jene im Raum durch 4 × 4-Matrizen
wiedergegeben.
Beispiel: In der Ebene betrachten wir die Zusammensetzung P der
Drehung um den Nullpunkt mit Winkel ϕ = π3 mit anschliessender Translation mit Verschiebungsvektor p~ = [2 − 3]t. Mit homogenisierten Koordinaten lässt sich P wiedergeben durch die Matrix
√

 

π
π
1/2 − 3/2 2
cos( 3 ) − sin( 3 ) 2
√
A =  sin( π3 ) cos( π3 ) −3 =  3/2 1/2 −3
0
0
1
0
0
1
Matrizen mit homogenen Koordinaten gehören zu den unentbehrlichen
mathematischen Hilfsmittel der Computergraphik und der Videospiele.
Damit lassen sich auch Abbildungen wie die perspektivische Projektionen
(von irgend einem Brennpunkt aus) auf beliebige Ebenen erfassen.
Herunterladen