Lineare Algebra Hans A. Keller Hochschule Luzern, Technik & Architektur (HSLU T&A) Das Verfahren besteht in einer genau definierten Abfolge von Zeilenoperationen, welche die Lösungsmenge nicht verändern. Lineare Gleichungssysteme Ein lineares Gleichungssystem bestehend aus m linearen Gleichungen in je n Unbekannten hat die Gestalt a11x1 + a12x2 + · · · + a1nxn a21x1 + a22x2 + · · · + a2nxn ... ... ... ... am1x1 + am2x2 + · · · + amnxn Man setzt a11 a21 A := .. am1 a12 a22 .. am2 . . . a1n . . . a2n . . . .. , . . . amn wobei aik , rk ∈ R x1 x2 #» , x := . . xn r1 r2 #» , r := . . rm A heisst die Koeffizientenmatrix, #» x ist der Spaltenvektor der Unbekannten, und #» r der Spaltenvektor der rechten Seiten. Dann lässt sich das System so schreiben: (1) In wichtigen Fällen ist die Matrix A quadratisch, also m = n. Matrixalgebra Bei der Matrixalgebra geht es, knapp gesagt, um ein Rechnen mit Zahlenblöcken. Es gibt drei Rechenoperationen: • Multiplikation einer Matrix mit einem Skalar c. Dabei wird einfach jeder Koeffizient von A mit c multipliziert. • Addition von zwei Matrizen, S = A + B. Sie ist definiert, wenn A und B die gleiche Grösse haben. Dabei werden einfach die entsprechenden Koeffizienten addiert. • Multiplikation von zwei Matrizen, P = A · B ist definiert, wenn die Spaltenzahl von A gleich der Zeilenzahl von B ist. Ist A eine m × nund B eine n×k-Matrix, dann ist P eine m×k Matrix mit Koeffizienten n X prs = aribis. i=1 Es gelten die meisten der üblichen Regeln, wie wir sie aus dem Rechnen mit Zahlen kennen, aber mit einer grossen Ausnahme: Die Multiplikation ist nicht kommutativ, das heisst, im Allgemeinen ist A · B 6= B · A Die Nicht-Kommutativität der Multiplikation hat tiefgreifende Folgen, sie macht das formale Rechnen mit Matrizen so schwierig. Zum Beispiel sind die bekannten binomischen Formeln ungültig, und eine einfache quadratische Matrixgleichung A·A = B kann ohne Weiteres mehr als zwei Lösungen haben (oder auch keine). Der Gauss Algorithmus Das wichtigste Verfahren zur Berechnung der Lösungen des Systems (1) ist der Gauss-Algorithmus. Er wurde von C. F. Gauss im Zusammenhang mit der Berechnung von Planetenbahnen entwickelt. Carl Friederich Gauss (1777-1856) wird von vielen Wissenschaftshistorikern als der bedeutendste Mathematiker aller Zeiten angesehen. Er ist ohne Zweifel einer der ganz Grossen auf diesem Gebiet. Er war ein Wunderkind und ist schon früh mit originellen Leistungen hervorgetreten. Seine Begabung wurde auch vom Herzog von Braunschweig erkannt, welcher ihn fortan finanziell unterstützte. Seine eigentliche Wirkungsstütte war Göttingen, wo er im Jahr 1807 zum Direktor der Sternwarte ernannt wurde. Gauss schuf ein umfangreiches Werk mit bahnbrechenden Beiträgen zur Mathematik, theoretischen Physik, Geodäsie und Astronomie. 2. Zwei Zeilen vertauschen. 3. Zu einer Zeile ein Vielfaches einer anderen Zeile addieren. = r1 = r2 = ... = rm A · #» x = #» r 1. Multiplikation einer Zeile mit einem Skalar c 6= 0. Das Ziel ist ein äquivalentes System mit vereinfachter m = n ist die neue Matrix in Dreiecksform. a11 a12 . . . a1n r1 b11 b12 . . . a21 a22 . . . a2n r2 Gauss 0 b22 . . . −→ . . . . . . .. .. . . . .. . . . an1 an2 . . . ann rn 0 0 ... Matrix. Im Fall b1n b2n .. bnn s1 s2 .. sn Sind alle Diagonalelemente b11, . . . , bnn verschieden von 0, dann lässt sich das neue System bequem von unten nach oben auflösen; die Lösung ist eindeutig. Sind einige Diagonalelemente = 0, dann hat das System entweder gar keine Lösung, oder aber eine unendliche Schar von Lösungen. Berechnung #» #» Man schreibt zuerst die Gleichung (2) in der Form (A − λ · E) · u = 0 , wobei E die Einheitsmatrix ist. Wenn man dann die Determinante dieses Systems a11 − λ a12 . . . a 1n a21 a22 − λ . . . a2n det(A − λ · E) = . .. .. ... . an1 an2 . . . ann − λ entwickelt und nach Potenzen von λ ordnet, so erhält man das sogenannte charakteristische Polynom pA(λ) der Matrix A. Es hat die Form pA(λ) = (−1)nλn + · · · + c0 und somit Grad n. Die Eigenwerte von A sind die Nullstellen dieses Polynoms. Man findet die Eigenvektoren, indem man das entsprechende homogene, ausgeartete Gleichungssystem auflöst. In praktischen Anwendungen hat man es oft mit Gleichungssystemen mit Hunderttausenden von Unbekannten zu tun. Dann ist das Gaussverfahren wegen seiner Komplexität (O(n3)) überfordert und man verwendet statt dessen iterative Verfahren. Riesige Gleichungssysteme trifft man zum Beispiel bei Berechnungen mit finiten Elementen oder bei Auswertungen von bildgebenden Verfahren in der Medizin (Computer Tomographie). Determinanten Einer quadratischen Matrix A wird genannte Determinante a11 a21 det(A) = . . an1 eine Kenngrösse zugeordnet, die soa12 a22 .. an2 ... ... ... ... Satz: ( Spektralsatz) Eine quadratische, reelle, symmetrische Matrix A der Grösse n × n hat genau n reelle Eigenwerte. Dabei wird jeder Eigenwert mit seiner (algebraischen) Multiplizität gezählt. Satz: Jede reelle, symmetrische Matrix lässt sich mit Hilfe einer orthogonalen Transformation in Diagonalform bringen. Beispiel: Der Spektralsatz ist in der Mathematik der Ausgangspunkt für die Theorie der linearen Operatoren auf Hilbert Räumen. Er hat auch weitreichende praktische Anwendungen. Unter anderem liefert er ein elegantes, sehr effizientes Verfahren zur Auflösung von Systemen von linearen Differenzialgleichungen, welche gekoppelte Schwingungen beschreiben. ÿ1 + 12y1 − 8y2 =0 ÿ2 − 8y1 + 18y2 − 10y3 = 0 ÿ3 − 10y2 + 15y3 = 0 Die Berechnung der Determinanten ist - außer bei ganz kleinen Matrizen - komplex und aufwändig. Die Determinante zeigt an, ob die Matrix eine multiplikative Inverse hat. Es gilt det(A) 6= 0 det(A) 6= 0 ⇔ ⇔ y2 A hat eine Inverse A−1 A · #» x = #» r hat eine eindeutige Lösung y3 y1 Eigenwerte und Eigenvektoren In der mathematischen Behandlung der Matrizen nimmt der Begriff “Eigenvektor” eine zentrale Stellung ein, er erweist sich als Eingangstor zu einer zweiten, höheren Stufe der Matrixtheorie. Lineare Transformationen Grundbegriffe Eine Abbildung T : V → V , welche jedem Vektor #» a einen Bildvektor #» b = T ( #» a ) zuordnet, heisst eine lineare Transformation, wenn für alle Vektoren #» x , #» y ∈ V und für alle Skalare α gilt Sei A eine n×n-Matrix und #» p ein n×1-Spaltenvektor. Dann ist das Produkt #» q := A· #» p wieder ein n×1-Spaltenvektor. Im Allgemeinen haben #» p und #» q verschiedene Längen und verschiedene Richtungen. Eigenvektoren sind dadurch gekennzeichnet, dass bei Multiplikation mit A die Richtung erhalten bleibt. Definition: Ein Vektor #» u heisst Eigenvektor der Matrix A, wenn A · #» u = λ #» u (2) für ein gewisses λ ∈ R. Die Zahl λ heisst der zu #» u gehörende Eigenwert. (2) der Zusammensetzung T1 ◦ T2 (zuerst T2 ausführen, dann T1 entspricht das Matrixprodukt A1 ◦ A2. Dieser Zusammenhang eröffnet ein weites Feld von verschiedenartigen Anwendungen. Starre Bewegungen Von besonderer Bedeutung sind lineare Transformationen, welche, anschaulich gesprochen, alle Abstände und folglich auch alle Winkel erhalten. Man nennt sie Isometrien. In der Ebene sind es • Rotation um den Nullpunkt um einen Winkel α. Durch Zusammensetzen erhält man stets wieder eine Spiegelung oder eine Rotation. Die Isometrien im dreidimensionalen Raum sind: • Spiegelung an einer Ebene durch den Nullpunkt. Daraus folgt sofort a1n a2n .. ann (1) Der Summe S := T1 + T2 der Transformationen entspricht die Summen A1 + A2 der Matrizen, • Spiegelung an einer Geraden durch den Nullpunkt. Der Spektralsatz Das allerwichtigste theoretische Ergebnis ist der folgende Iterative Verfahren Seien T1, T2 : V → V zwei lineare Transformationen mit MatrizenA1 und A2. Dann gilt: Definitionen T ( #» x + #» y ) = T ( #» x ) + T ( #» y ), T (α · #» x ) = α · T ( #» x ). #» #» Daraus folgt, dass T ( 0 ) = 0 . Eine lineare Transformation wird vollständig festgelegt durch ihre Aktion auf die kanonische Basis {e1, e2, . . . , en}. Es gibt eine umkehrbar eindeutige Zuordnung zwischen den linearen Transformationen von V und der Gesamtheit aller reellen (oder komplexen) quadratischen Matrizen der Grösse n × n. • Rotation um eine Achse durch den Nullpunkt um einen Winkel α. • Zusammensetzungen davon ergeben hier neue Isometrien. Sei T eine lineare Transformation und A ihre Matrix. Dann gilt T ist eine Isometrie ⇔ At · A = E wo E die Einheitsmatix ist und At die transponierte Matrix. Beispiel: Die Rotation um die Achse z t h mit Richtungsvektor ~ u = [1, 1, 1] h (also die Körperdiagonale des Einheitswürfels) mit Drehwinkel β = 50◦ β wird beschrieben durch die Matrix #» u 1 0.7157 −0.1603 0.6797 1 1 y B = 0.5085 0.7868 −0.3498 . x −0.4787 0.5960 0.6446 Homogene Koordinaten Die Translationen (Parallelverschiebungen) spielen in der Geometrie und in der Mechanik eine zentrale Rolle. Diese Bewegungen sind keine linearen Transformationen und lassen sich daher nicht ohne Weiteres in den gewöhnlichen Rahmen einfügen. Man kann aber auch sie durch Matrizen erfassen, wenn man zu homogenisierten Koordinaten übergeht, d.h. eine zusätzliche Dimension hinzunimmt. Die Bewegungen in der Ebene werden dann durch 3 × 3-Matrizen, jene im Raum durch 4 × 4-Matrizen wiedergegeben. Beispiel: In der Ebene betrachten wir die Zusammensetzung P der Drehung um den Nullpunkt mit Winkel ϕ = π3 mit anschliessender Translation mit Verschiebungsvektor p~ = [2 − 3]t. Mit homogenisierten Koordinaten lässt sich P wiedergeben durch die Matrix √ π π 1/2 − 3/2 2 cos( 3 ) − sin( 3 ) 2 √ A = sin( π3 ) cos( π3 ) −3 = 3/2 1/2 −3 0 0 1 0 0 1 Matrizen mit homogenen Koordinaten gehören zu den unentbehrlichen mathematischen Hilfsmittel der Computergraphik und der Videospiele. Damit lassen sich auch Abbildungen wie die perspektivische Projektionen (von irgend einem Brennpunkt aus) auf beliebige Ebenen erfassen.