Inhaltsübersicht Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung • Grundoperationen • Die Inverse • Berechnung der Inversen • Lineare Unabhängigkeit und Dimension • Die kleinsten Quadrate • Tensoren Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 1 Grundoperationen Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 2 Grundoperationen In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Zahlen (oder anderen Objekten) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix; sie bilden Zeilen- bzw. Spaltenvektoren. Die Elemente, die in der Matrix angeordnet sind, nennt man Einträge oder Komponenten der Matrix. Als Notation hat sich die Aneinanderreihung der Elemente in Zeilen und Spalten mit einer großen öffnenden und schließenden Klammer durchgesetzt; z.B. steht die Notation: A= für eine Matrix mit 2 Zeilen und 3 Spalten. Genauer spezifiziert spricht man von einer m x nMatrix mit m Zeilen und n Spalten. Deshalb nennt man auch m die Zeilendimension und n die Spaltendimension der Matrix. Die Zuordnung eines Eintrages ai,j zu einem Indexpaar (i,j) ist eine Funktion. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 3 Grundoperationen Erinnerung an Kapitel 5, lineare Gleichungssysteme in Matrixdarstellung: Dabei handelt es sich bei A, x, b um Matrizen: A ist m x n Matrix, x ist n x 1 und b ist eine m x 1 Matrix Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 4 Grundoperationen Unter Verwendung des Produktes von Matrixproduktes, was man komponentenweise definieren kann: Um zwei Matrizen zu multiplizieren müssen die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmen! Natürlich ist die Mehrfachmultiplikation genauso möglich. Für diese gilt Assoziativität: A(BC)=(AB)C Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 5 Grundoperationen Entsprechend ist die Multiplikation mit einer “1x1 Matrix”, einem Skalar, immer möglich als: Das 1 Element bezüglich der Multiplikation ist die Einheitsmatrix E : Das 0 Element bezüglich der Multiplikation ist entsprechend leicht zu konstruieren... Die Addition ist ebenso wie die Multiplikation komponentenweise definiert. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 6 Grundoperationen Addition: Mathematisch: In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines Körpers, wie z.B. der reellen oder komplexen Zahlen. In diesem Fall ist die Matrixaddition assoziativ, kommutativ und besitzt mit der Nullmatrix (eine Matrix deren sämtliche Einträge 0 sind) ein neutrales Element. Im Allgemeinen besitzt die Matrixaddition diese Eigenschaften jedoch nur, wenn die Einträge Elemente einer algebraischen Struktur sind, die diese Eigenschaften hat. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 7 Grundoperationen Insgesamt gilt damit: A + B = B + A (A + B) + C = B+ (A + C) A+O =A Achtung i. A.: AB < > BA A(BC) = (AB)C AE = EA = A OA = AO = O; Es existieren AB so dass: A B =O mit A,B <> O (A + B)C = AC + BC; A(B + C) = AB + AC l(A + B) = lA + lB = (A + B)l A(lB) = lAB Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 8 Inverse Matrix Definition: Die Inverse Matrix zu A ist A-1 mit A A-1 = A-1 A = E Die Einheitsmatrix E wird übrigends auch I genannt. Berechnung: Jede Matrix, die eine Inverse hat, heißt invertierbar. Eine Inverse gibt es jedoch nur bei quadratischen Matrizen, denn nichtquadratische erfüllen im Allgemeinen nicht: A A-1 = A-1 A Es gibt Matrizen, die kein Inverses haben! Z. B.: 0 A 1 Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 0 0 9 Inverse Matrix Die Inverse Matrix kann auf verschiedene Arten berechnet werden, z. B. numerisch, also als Geleichungssystem oder analytisch, also mit Hilfe einer Formel, gelößt werden. Die analytische Lösung bewährt sich bei kleinen Matrizen: a 11 A a 21 a 12 a 22 AA 1 a 11 E a 21 a 12 x11 a 22 x 21 x12 1 x 22 0 a 11 x 11 a 12 x 21 1 a 21 a 11 x 11 a 21 a 12 x 21 a 21 a 11 x 12 a 12 x 22 0 a 11 a 21 x 11 a 11 a 22 x 21 0 a 21 x 11 a 22 x 21 0 0 1 x 21 a 21 ( a 21 a12 a11 a 22 ) Def.: a11 a 22 a 21 a12 1 a 22 Also: A a 21 Die Determinante Δ ist sehr nutzlich für die Berechnung der Inversen Ist sie 0, so existiert keine inverse Matrix! a 21 x 12 a 22 x 22 1 ( a 21 a 12 a 11 a 22 ) x 21 a 21 Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 1 a 12 a 11 10 Inverse Matrix Determinante: In der Linearen Algebra ist die Determinante eine spezielle Funktion, die jeder quadratischen Matrix eine Zahl zuordnet. Zum Beispiel hat die 2×2-Matrix: die Determinante Historisch gesehen wurden Determinanten bereits vor den Matrizen betrachtet. Ursprünglich war eine Determinante definiert als eine Eigenschaft eines linearen Gleichungssystems. Die Determinante "determiniert", ob das Gleichungssystem eine eindeutige Lösung besitzt (dies ist genau dann der Fall, wenn die Determinante ungleich Null ist). In diesem Zusammenhang wurden 2×2-Matrizen von Cardano Ende des 16. Jahrhunderts und größere von Leibniz ungefähr 100 Jahre später behandelt. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 11 Inverse Matrix Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 12 Inverse Matrix Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 13 Inverse Matrix Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 14 Inverse Matrix Liegt bei einer quadratischen Matrix A unter Verwendung der Gaußschen Elimination mit Vertauschungen eine Lösung vor, so ist A invertierbar. Es gilt aber auch umgekehrt: Ist A invertierbar, so liegt bei der Gaußschen Elimination mit Vertauschungen stets lösbar. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 15 Transponierte Matrix Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 16 Skalar und Tensorprodukt Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 17 Lineare Unabhängigkeit und Dimension Wie oben und in Kapitel 5 beschrieben, kann ein LGS (Lineares Gleichungssystem als Matrixgleichung geschrieben werden: Ax = b Lösbarkeit: Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 18 Lineare Unabhängigkeit und Dimension Erinnerung (vergl. Kapitel 5) In der linearen Algebra wird eine Menge von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich keiner dieser Vektoren als Linearkombination aus den anderen zusammensetzen lässt. Anders ausgedrückt, sind Vektoren genau dann linear voneinander unabhängig, wenn sich der Nullvektor allein durch die Linearkombination der Vektoren erzeugen lässt, indem alle Koeffizienten der Kombination auf den Wert Null gesetzt werden. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 19 Lineare Unabhängigkeit und Dimension 3 Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0), (0,1,0) und (0,0,1) linear unabhängig. Die Vektoren (2, - 1,1), (1,0,1) und (3, - 1,2) sind hingegen nicht linear unabhängig, denn der dritte Vektor lässt sich aus der Summe der beiden ersten zusammensetzen. Sind Vektoren nicht linear unabhängig, dann werden sie auch linear abhängig genannt. Definition: Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 20 Lineare Unabhängigkeit und Dimension Zeilen und Spalten einer Matrix Interessant ist auch die Frage, ob die Zeilen einer Matrix linear unabhängig sind oder nicht. Dabei werden die Zeilen als Vektoren betrachtet. Falls die Zeilen einer quadratischen Matrix linear unabhängig sind, so nennt man die Matrix regulär, andernfalls singulär. Die Spalten sind genau dann linear unabhängig, wenn die Zeilen linear unabhängig sind. Daher ist die Matrix genau dann invertierbar, wenn die Determinante ungleich 0 ist! Satz: Eine quadratische Matrix ist genau dann invertierbar, wenn ihre Spalten (oder auch ihre Zeilen) linear unabhängig sind. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 21 Methode der kleinsten Quadrate Ist im Gleichungssystem n>m, so ist das System überbestimmt, oft ergibt sich dadurch keine Lösung. Ax b z.B.: 1 Ax 2 1 1 b1 x1 1 b2 x2 1 b3 x 1 b 2 b3 b1 b2 3 x 1 x 2 b1 2 x1 x 2 b2 x1 x 2 b3 b1 b3 2 x1 b1 b 2 3 x1 b 2 b3 x1 b1 b3 2 b1 2 b2 3b3 0 D.h. nur unter dieser Bedingung hat das System eine Lösung! Überbestimmte Systeme sind allerdings häufig Gegenstand von Messungen. So kann eine Funktion häufig aus Messwerten bestimmet werden, die einen Fehler enthalten, dazu ist es notwendig eine Interpolation durchzuführen. Aber welches ist eine gute Interpolation? Genauer: Bei einer Messwertverteilung, welche Fehler (Abweichungen) sollen berücksichtigt werden? Dieses Problem ist erstmals mathematisch richtig bewusst geworden als am Neujahrstag des Jahres 1801... Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 22 Methode der kleinsten Quadrate ...entdeckte der italienische Astronom Giuseppe Piazzi den Asteroiden Ceres. 40 Tage konnte er die Bahn verfolgen, dann verschwand Ceres hinter der Sonne. Im Laufe des Jahres versuchten viele Wissenschaftler anhand von Piazzis Beobachtungen die Bahn zu schätzen (die Lösung der nichtlinearen Kepler-Gleichungen ist sehr schwierig). Die meisten Rechnungen waren unbrauchbar; als einzige war diejenige des 24jährigen Carl Friedrich Gauß genau genug (die Grundlagen schuf er schon 1795 mit 18 Jahren), um dem deutschen Astronomen von Zach zu ermöglichen, im darauffolgenden Dezember den Asteroiden wiederzufinden. Gauß erlangte dadurch Weltruhm. Sein Verfahren, die Methode der kleinsten Quadrate, publizierte er erst 1809 im zweiten Band seines himmelsmechanischen Werkes Theoria Motus Corporum Coelestium in sectionibus conicis solem ambientium. Unabhängig davon entwickelte der Franzose AdrienMarie Legendre 1806 dieselbe Methode. 1829 konnte Gauß eine Begründung liefern, wieso sein Verfahren im Vergleich zu den anderen so erfolgreich war: Die Methode der kleinsten Quadrate ist in einer breiten Hinsicht optimal, also besser als andere Methoden. Die genaue Aussage ist als der Satz von Gauß-Markov bekannt. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 23 Methode der kleinsten Quadrate Die Methode der kleinsten Quadrate ist das mathematische Standardverfahren zur Ausgleichungsrechnung: Es ist eine Wolke aus Datenpunkten gegeben, die physikalische Messwerte, wirtschaftliche Größen usw. repräsentieren können. In diese Punktwolke soll eine möglichst genau passende parameterabhängige Modellkurve gelegt werden. Dazu bestimmt man die Parameter dieser Kurve numerisch, indem die Summe der quadratischen Abweichungen der Kurve von den beobachteten Punkten minimiert wird. In der Grafik sind die (t;y)-Paare als Datenpunkte zu erkennen. Es wurde hier eine logistische Funktion in die Punktwolke gelegt. Die Parameter dieser Funktion werden so bestimmt, dass die Quadratsumme der senkrechten Abweichungen e der Beobachtungen y von der Kurve minimiert wird. Eine Modelfunktion: , z.B. ym = x0 + x1t ist optimal wenn: t ist Element t1, t2, ... Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 24 Methode der kleinsten Quadrate Lineare Modellfunktion Ein Spezialfall der Modellfunktion ist die lineare Form. Der einfachste lineare Ansatz ist ym = x0 + x1t. Man erhält in allgemeiner Matrixschreibweise || ||2 = 2 Norm Für die resultierende Ausgleichsgerade dieses einfachen (aber durchaus relevanten) Beispiels lassen sich die Lösungen für die Parameter direkt angeben als und mit als arithmetischem Mittel der t-Werte, Die Lösung für x1 kann mit Hilfe des Verschiebungssatzes auch als Notizen zur Vorlesung Mathematik für Materialwissenschaftler I entsprechend. angegeben werden. 25 Methode der kleinsten Quadrate Beispiel: Verteilung Länge zu Breite bestimmter Objekte Man erhält nun analog zum oben angegebenen Fall zunächst und entsprechend Damit bestimmt man x1 als Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 26 Eigenwerte / Eigenvektoren Was tut eigentlich eine Matrix A mit einem Vektor x? Allgemein wird der Vektor in einen anderen transformiert. Aufgrund der Allgemeinheit der Matrix wird klar, das Abbildungen wie Streckungen, Drehungen, Streckdrehungen und Spiegelungen möglich sind. Ein Streckung kann auch als Multiplikation eines Vektors mit einem Skalar dargestellt werden. Vektoren, die von einer Matrix lediglich gestreckt werden, werden als “Eigenvektoren” der Matrix bezeichnet . Die Begriffe Eigenwert und Eigenvektor treten immer gemeinsam in der Linearen Algebra auf. Die im Folgenden beschriebene mathematische Problemstellung nennt sich spezielles Eigenwertproblem. Eigenvektoren eines linearen Operators (etwa durch eine Matrix dargestellt) sind Vektoren, auf welche die Anwendung des Operators (etwa die Multiplikation mit der Matrix) ein skalares Vielfaches ihrer selbst ergeben. Den entsprechenden Skalar nennt man Eigenwert. Der Nullvektor wird nicht als Eigenvektor bezeichnet, obwohl er diese Eigenschaft für jeden Skalar erfüllt. Formal ausgedrückt heißt das: Ist A eine (n x n)-Matrix, so heißt ein Eigenvektor zum Eigenwert l, wenn gilt: welches wir mittels der Determinante auf eine Lösung überprüfen können. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 27 Eigenwerte / Eigenvektoren Zahlenbeispiel: Der Eigenwert 2 hat algebraische Vielfachheit 2, da er doppelte Nullstelle des charakteristischen Polynoms ist. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 28 Eigenwerte / Eigenvektoren Berechnung der Eigenvektoren: Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl linear unabhängiger Eigenvektoren zu diesem Eigenwert definieren. Die geometrische Vielfachheit ist immer kleiner oder gleich der algebraischen Vielfachheit. Zahlenbeispiel: Gegeben ist die quadratische Matrix A: Erster Eigenwert "–2" mit der algebraischen Vielfachheit "1", der geometrischen Vielfachheit "d1=n-Rang(A+2E)" und dem Eigenvektor v1 = [–3/2,2,1]. Zweiter Eigenwert "2" mit der algebraischen Vielfachheit "2", der geometrischen Vielfachheit "d2=n-Rang(A-2E)" und dem Eigenvektor v2 = [1,0,–2]. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 29 Eigenwerte / Eigenvektoren (Lösungen) 0 2 ( A El ) x 2 2 2 1 2 1 1 2 1 x 2 2 3 2 2 1 1 1 x1 1 x 2 0 5 x 3 2 x1 2 x2 x3 0 2 x1 x2 x3 0 2 x1 x2 5 x3 0 x 3 1; Z. B. l = -2 2 x1 2 x 2 1 x1 3 2 ; x 3 1; 2 x1 2 x 2 1 2 x1 x 2 1 x2 2 4 x1 2 x 2 2 Eigenvektoren haben die Eigenschaft das sie mit ihrer Matrix multipliziert eine Streckung um ihren Eigenwert erfahren, D.h. natürlich die Eigenvektoren zu einem Eigenwert sind linear abhängig. Die Matrix kann als “Operator” aufgefasst werden, die den Vektor streckt, im Beispiel l = 2 0 Ax 2 x 2 2 2 1 1 1 1 2 1 1 0 0 2 0 2 3 2 4 Achtung, die Matrix streckt nur die Eigenvektoren, andere Vektoren können durch die Matrix z. B. auch gedreht und gestreckt werden. (Eine Matrix die jeden Vektor streckt kann man sich leicht selbst überlegen...) Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 30 Matrix Eigenschaften / Drehmatrix Außer der Streckung gibt es noch andere Eigenschaften, z. B. die Drehung. In 2D dreht die Matrix R einen Vektor um den Winkel a. In der euklidischen Ebene wird die Drehung um den Ursprung um den Winkel a entgegen dem Uhrzeigersinn realisiert durch die Matrix: Die Drehung selbst wird durch die Multiplikation eines Vektors mit der Matrix durchgeführt: Wichtige Drehmatrizen für Drehungen um den Ursprung um den Winkel a im sind: Drehung mit x-Achse als Drehachse: Drehung mit z-Achse als Drehachse: Drehung mit y-Achse als Drehachse: Diese Matrizen gelten sowohl für Rechts- als auch für Linkssysteme. Drehungen mit positiven Drehwinkeln sind im Rechtssystem Drehungen entgegen dem Uhrzeigersinn. Im Linkssystem wird bei positiven Winkeln mit dem Uhrzeigersinn gedreht. Der Drehsinn ergibt sich, wenn man entlang der positiven Drehachse auf den Ursprung sieht. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 31 Drehmatrix Drehung mit beliebigem Einheitsvektor v = (v1,v2,v3)T als Drehachse: Diese beliebige Drehung lässt sich auch über drei aufeinanderfolgende Drehungen mit den eulerschen Winkeln um bestimmte Koordinatenachsen erzielen, so dass sich diese Matrix auch mit diesen Winkeln formulieren lässt. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 32 Tensoren Erste Annäherung: Tensoren als Verallgemeinerung von Skalar, Vektor, Matrix Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie und fast überall in den Ingenieurwissenschaften, ist es vollkommen ausreichend, sich Tensoren als eine Fortsetzung der Reihe Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufe (auch Rang genannt): • Ein Tensor nullter Stufe ist eine Zahl, auch Skalar genannt. • Ein Tensor erster Stufe wird durch einen Spaltenvektor dargestellt. Im n-dimensionalen Raum hat ein solcher Tensor genau n Koeffizienten. • Ein Tensor zweiter Stufe wird durch eine quadratische Matrix dargestellt, also ein Zahlenschema, in dem jeder der n2 Koffizienten des Tensors durch zwei Indizes bezeichnet ist (Beispiele: Arbeitsblatt in einem Tabellenkalkulationsprogramm; zweidimensionales Pixelbild) • Ein Tensor dritter Stufe ließe sich durch eine würfelförmige Anordnung seiner n3 Koeffizienten darstellen, die durch je drei Indizes "adressiert" werden (Arbeitsmappe in der Tabellenkalkulation; Videosequenz [Pixelbilder mit zusätzlicher Zeitkoordinate]). • Ein Tensor m-ter Stufe hat dementsprechend nm Koeffizienten, die mit Hilfe von m Indizes auseinander gehalten werden. Für diese Objekte sind zwei Operationen definiert, die Verjüngung und die Überschiebung, wobei die Verjüngung als Überschiebung mit der Einheitsmatrix gesehen werden kann. Die Überschiebung eines Tensors a der Stufe 2 mit einem Tensor b der Stufe 1 ist die normale Matrix-Vektor-Multiplikation: Überschiebt man 2 Tensoren 3. Stufe in einem Index, so entsteht ein Tensor 4. Stufe. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 33 Tensoren Der vollständig antisymmetrische Tensor 3. Stufe (Epsilon Tensor, Levi-Civita Symbol): Das Levi-Civita-Symbol hat im allgemeinen n Dimensionen und hat demnach n Indizes, ist ein Tensor n-ter Stufe. Man kann ihn über seine Eigenschaften definieren oder über folgende Fallunterscheidung: k Im 3- dimensionalen Beispiel ergibt sich also: j i 0 sonst Der Epsilontensor beschreibt so z. B. das Spatprodukt von Einheitsvektoren: 1 0 0 e1 0 ; e 2 1 ; e 3 0 0 0 1 e1 ( e 2 e 3 ) 1; e1 ( e 3 e 2 ); e1 ( e 2 e 2 ); e 2 ( e 2 e 3 ); Notizen zur Vorlesung Mathematik für Materialwissenschaftler I Allgemein: e i ( e j e k ) ijk 34 Tensoren Das Levi-Civita-Symbol mit drei Indizes erweist sich in der Vektorrechnung als nützlich, um die Komponenten des Kreuzproduktes zweier Vektoren zu schreiben. Es gilt: Mit der Einsteinschen Summenkonvention: Die Konvention wurde 1916 von Albert Einstein eingeführt. Man lässt die Summenzeichen weg, statt dessen wird über doppelt auftretende Indizes summiert. z.B. Matrixprodukt: => Zwischen dem Epsilon-Tensor und dem Kronecker-Delta gilt die Beziehung: Daraus folgt (mit Einstein): Der Determinantenentwicklungssatz lässt sich nun schreiben: n x n - Matrix: Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 35 Beispiele Das hookesche Gesetz (nach Sir Robert Hooke) beschreibt das elastische Verhalten von Festkörpern, deren elastische Verformung linear proportional zur anliegenden Spannung s ist, Dieses Verhalten ist z.B. für Metalle typisch. Für einen prismatischen Körper der Länge L und dem Querschnitt A unter einachsiger Zugbelastung gilt demzufolge: mit und folgt: Exkurs: Spannungs-Dehnungs-Tensor http://www.lrz-muenchen.de/~a231202/webserver/webdata/Skripten/Physik1/Gross_Physik_I_Kap_3.pdf Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 36 Trägheitstensor: Ist eine Gesamtmasse gegeben durch einzelne Massenpunkte, so ist der Trägheitstensor I gegeben durch: Der Energie-Impuls-Tensor wird in seiner allgemeinsten Form folgendermaßen angegeben: • w ist eine Energiedichte (Energie pro Volumen) • (Sx,Sy,Sz) ist eine Energie-Strom-Dichte • Gik wird als Spannungs-Tensor bezeichnet, er beinhaltet den räumlichen Impulstransport, z.B. in den Diagonaltermen den Druck, den ein Strahlungsfeld ausüben kann. Die Nichtdiagonalterme des Spannungstensors beschreiben Scherspannungen. Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 37