Friedrich-Schiller-Universität Jena Institut für Physikalische Chemie BC 1.2 Mathematik WS 2016/17 Prof. Dr. S. Gräfe Dr. Thomas Bocklitz BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1. Der dreidimensionale Vektorraum R3 ist die Gesamtheit aller geordneten Tripel (x1 , x2 , x3 ) reeller Zahlen. Jedes geordnete Tripel definiert einenPunkt des Raums. x1 3 x Die Zahlen xi heißen Koordinaten. R = x1 , x2 , x3 ∈ R . Es wird zwischen 2 x3 Spalten- und Zeilenvektoren unterschieden. 2. Definition Vektor: Der Vektor ~a des Euklidischen Raums E3 ist eine gerichtete Strecke durch die Punkte P (Anfang) und Q (Endpunkt): ~a = P~Q. Vektoren, die über Parallelverschiebung erzeugt werden, sind gleich. Die Komponenten des Vektors sind die Längen der Projektionen des Vektors auf die Koordinatenachsen. Der Betrag eines Vektors |~a| entspricht der Länge des Vektorpfeils. 3. Rechnen mit Vektoren: a1 b1 a1 + b 1 • Addition: ~c = ~a + ~b = a2 + b2 = a2 + b2 a3 b3 a3 + b 3 λa1 • Multiplikation mit einer reellen Zahl (Skalar): ~c = λ · ~a = λa2 λa3 • Es gelten Kommutativ-, Assoziativ- und Distributivgesetze • Skalarprodukt: ~a · ~b = λ Das Ergebnis des Skalarprodukts ist eine Zahl (ein Skalar): λ = a1 b1 + a2 b2 + a3 b3 . p Geometrische Betrachtung: ~a · ~b = |~a| · |~b| · cos α; |~a| = a21 + a22 + a23 , ~ cos α = |~a~a|·|·b~b| • Vektorprodukt: ~a × ~b = ~c. Das Ergebnis des Vektorprodukts ist ein Vektor ~c, der senkrecht auf der von ~a und ~b aufgespannten Ebene steht: a1 b1 a2 b 3 − a3 b 2 ~a × ~b = a2 × b2 = a3 b1 − a1 b3 = ~c a3 b3 a1 b 2 − a2 b 1 Das Assoziativgesetz ist im Allgemeinen nicht gültig; das Vektorprodukt ist anti-kommutativ. Friedrich-Schiller-Universität Jena Institut für Physikalische Chemie BC 1.2 Mathematik WS 2016/17 Prof. Dr. S. Gräfe Dr. Thomas Bocklitz 4. Definition: Lineare Unabhängigkeit: Es seien k Vektoren a~1 , a~2 , ...a~k des ndimensionalen Raums Rn vorgegeben. Die k Vektoren heißen linear unabhängig, wenn die lineare Vektorgleichung λ1~a1 + λ2~a2 + . . . λk~ak = 0 nur für λ1 = λ2 = . . . λk = 0 erfüllt werden kann. Gibt es mindestens einen λi 6= 0, so heißen die k Vektoren linear abhängig. k Vektoren a~1 , a~2 , ...a~k in Rn sind dann und nur dann linear abhängig, wenn mindestens P einer der k Vektoren als Linearkombination der übrigen darstellbar ist: ai . ~aj = k−1 i=1 λ̃k ~ In einem n-dimensionalen Vektorraums hat eine Menge linear unabhängiger Vektoren höchstens n Elemente. 5. Definition Vektorraum: Eine nicht leere Menge V heißt Vektorraum, wenn gilt: • Es gibt für jeden Vektor ~a eine Multiplikation mit Skalaren λ ∈ R, wobei das Produkt λ~a ein Vektor ist, der auch zu V gehört: ~a ∈ V ⇒ (λ~a) ∈ V . • Der Summenvektor zweier beliebiger Vektoren gehört auch zu V : ~a ∈ V, ~b ∈ V ⇒ ~a + ~b = ~c ∈ V . Hierbei sollen die üblichen Rechenregeln gelten. Es gibt k linear unabhängige Vektoren; mehr als k Vektoren sind immer linear abhängig. Die Menge V heißt linearer Vektorraum der Dimension k, dim V = k oder Vk . Der lineare Vektorraum Vk besteht aus der Gesamtheit der Linearkombinationen der linear unabhängigen Vektoren ~q1 , ~q2 , ...~qk ; diese bilden eine sogenannte Basis des linearen Vektorraums. (Dies gilt für endlich-dimensionale Vektorräume.) 6. Im euklidischen Raum (kartesische Metrik) ist die Länge eines Vektors |~a| = P~Q als der Abstand zweier Punkte P = (p1 , p2 , ...pn ) und Q = (q1 , q2 , ...qn ) wie folgt definiert: v u n q uX |~a| = d(P, Q) = t (qi − pi )2 = a21 + a22 + ... + a2n i=1 Vektoren der Länge 1 heißen normiert. 7. Zwei Vektoren heißen orthogonal, wenn ihr Skalarprodukt gleich Null ist, ~a · ~b = 0 8. Die Vektoren, die eine orthonormale Basis aufspannen, erfüllen die folgende Relation: ( 1 für i = j q~i · q~j = δij = 0 für i 6= j δij heißt das Kronecker-Symbol. Friedrich-Schiller-Universität Jena Institut für Physikalische Chemie BC 1.2 Mathematik WS 2016/17 Prof. Dr. S. Gräfe Dr. Thomas Bocklitz 9. Über das Schmidtsche Orthogonalisierungsverfahren kann jede Basis aus n linear unabhängigen Vektoren q~1 , ...q~n in Rn in eine orthogonale bzw. orthonormale Basis e~1 , ...e~n überführt werden: r~i = q~i − i−1 X (~ qi · e~j ) e~j ; e~j = j=1 r~i |~ ri | 10. Im komplexen Vektorraum Cn ist das Skalarprodukt zweier komplexer Vektoren wie folgt definiert: a1 b1 n X .. ~ .. ~ ~a = . ; b = . ; ha|bi = ~a · b = a∗i bi = a∗1 b1 + a∗2 b2 + ... + a∗n bn = λ i=1 an bn λ ist eine (komplexe) Zahl. Es gilt: ha|bi = hb|ai∗ ; 2 ha|λbi = λha|bi; hλa|bi = λ∗ ha|bi; ha|b+ci = ha|bi+ha|ci; ha|ai ≥ 0 Matrizen und Determinanten 1. Definition: Matrix: Unter einer Matrix A vom Schema (m, n) mit m, n ∈ N verstehen wir die m · n Zahlen aik (Matrixelemente) (i = 1, ...m, k = 1, ..n), die in dem rechteckigen Schema a11 a12 . . . a1n a21 a22 . . . a2n A = .. .. .. . . . . . . am1 am2 . . . amn zusammengefasst werden. 2. Eine Matrix heißt quadratisch, wenn Zeilenzahl = Spaltenzahl. Quadratische Matrizen, deren Nichtdiagonalelemente verschwinden, heißen Diagonalmatrizen. Diagonalmatrizen, deren Diagonalelemente aii = 1, heißen Einheitsmatrix. 3. Rechnen mit Matrizen • Addition: Elementweise; A + B = C, mit cik = aik + bik a11 + b11 a12 + b12 . . . a1n + b1n a21 + b21 a22 + b22 . . . a2n + b2n C= .. .. .. .. . . . . am1 + bm1 am2 + bm2 . . . amn + bmn Friedrich-Schiller-Universität Jena Institut für Physikalische Chemie BC 1.2 Mathematik WS 2016/17 Prof. Dr. S. Gräfe Dr. Thomas Bocklitz • Multiplikation mit einem Skalar λ: elementweise Multiplikation: λ · a11 λ · a12 . . . λ · a1n λ · a21 λ · a22 . . . λ · a2n λ · A = .. .. .. . . . . . . λ · am1 λ · am2 . . . λ · amn • Multiplikation Matrix A(m, n) mit Vektor (der gleichen Länge n) ergibt wieder ein Vektor: a11 · v1 + a12 · v2 + · · · + a1n · vn a21 · v1 + a22 · v2 + · · · + a2n · vn A · ~v = .. . am1 · v1 + am2 · v2 + · · · + amn · vn P • Matrixmultiplikation A(m, n) · B(n, p) = C(m, p) mit cik = nj=1 aij + bjk . Matrixmultiplikation ist nicht kommutativ; es gelten Assoziativ- und Distributivgesetze • Eine Matrix A heißt regulär (nicht-singulär), wenn es eine Matrix B gibt, die zugleich links- und rechts-invers von A ist: A·B =B·A=E B heißt dann Inverse von A und wird im Allgemeinen mit A−1 bezeichnet: A · A−1 = A−1 · A = E 4. Der Rang Rg(A) einer Matrix A(m, n) gibt die Maximalzahl r (mit r < n) linear unabhängiger Zeilen- bzw. Spaltenvektoren an. Eine n-reihige quadratische Matrix A(n, n) is dann und nur dann regulär, wenn r = n. 5. Transponierte Matrix AT : aTik = aki . Symmetrische Matrix: AT = A. Orthogonale Matrix: AT = A−1 . Hermitesche Matrix: AT = A∗ . 6. Jeder n−reihigen quadratischen Matrix A wird a11 a12 a21 a22 det(A) = .. .. . . am1 am2 eine Zahl D zugeordnet: . . . a1n . . . a2n .. ... . . . . amn Die Determinante kann über die Regel von Sarrus (nur für 3×3P Matrizen) oder den Laplaceschen Entwicklungssatz berechnet werden: D = det(A) = nj=1 (−1)i+j aij Dij , wobei die Summe über die j−te Zeile oder Spalte geht, aij das Matrixelement an der Stelle aij darstellt und Dij die Unterdeterminante ist, welche entsteht, wenn der ursprünglichen die i−te Zeile und j−te Spalte gestrichen wurde. Friedrich-Schiller-Universität Jena Institut für Physikalische Chemie BC 1.2 Mathematik WS 2016/17 Prof. Dr. S. Gräfe Dr. Thomas Bocklitz 7. Eigenschaften von Determinanten: • Vertauschen zweier Zeilen (Spalten) einer Determinante führt zu einem Vorzeichenwechsel der Determinanten. • Enthält die Determinante zwei gleiche Zeilen (Spalten), ist der Wert der Determinante gleich Null. • Multiplikation einer Determinante mit einer Zahl λ: die Elemente einer Zeile werden mit λ multipliziert (nicht wie bei einer Matrix!). • Enthält eine Zeile (Spalte) nur Nullen, ist der Wert der Determinante gleich Null. • Addiert man zu einem beliebigen Zeilenvektor (Spaltenvektor) ~ai das λ-fache eines anderen Zeilenvektors (Spaltenvektors) ~ak (k 6= i), so behält die Determinante ihren Wert unverändert bei. • Addiert man zu einem beliebigen Zeilenvektor (Spaltenvektor) ~ai eine beliebige Linearkombination der übrigen Zeilenvektoren (Spaltenvektoren), so behält die Determinante ihren Wert unverändert bei. • Vertauscht man Zeilen und Spalten einer Determinante, so behält die Determinante ihren Wert unverändert bei. det(A) = det(AT ). • Für zwei quadratische Matrizen A und B des gleichen Typs gilt: det(C) = det(A · B) = det(A) · det(B) 8. Anwendungen der Determinantentheorie: • Lineare Unabhängigkeit von Vektoren: Da det(A) = 0, wenn die Matrix zwei gleiche Zeilen bzw. Spalten (oder den Nullvektor) aufweist: n Vektoren ~a1 , . . . ~an des n−dimensionalen Vektorraums Rn sind dann und nur dann linear unabhängig, wenn ihre Determinante nicht verschwindet. Der Rang r einer Matrix gibt demnach die größtmögliche Anzahl von Null verschiedener r-reihiger Unterdeterminanten an. • Lineare Gleichungssysteme A~x = ~b: Sei A eine (m,n) Matrix, b ∈ Rm und Rg(A) = Rg(Ã) = r. Homogone lineare Gleichungssysteme der Form A~x = ~0 haben immer eine Lösung (triviale Lösung), ~x = ~0. Diese ist die einzige Lösung, wenn Rg(A) = n. Für Rg(A) < n existiert nicht nur die triviale Lösung. Der Lösungsvektorraum hat dabei die Dimension n − r. Inhomogene lineare Gleichungssysteme haben nur dann eine Lösung, wenn Rg(A) = Rg(Ã). Für r = n existiert genau eine einzige Lösung; für r < n hat der Lösungsvektorraum die Dimension n − r. Der Lösungsvektor kann beispielsweise über die Cramersche Regel gefunden werden; alternativ bietet sich das Verfahren von Gauß an, um die Matrix in Zeilenstufenform zu überführen. • Berechnung inverser Matrizen: Friedrich-Schiller-Universität Jena Institut für Physikalische Chemie BC 1.2 Mathematik WS 2016/17 Prof. Dr. S. Gräfe Dr. Thomas Bocklitz 9. Eine lineare Transformation σ̂ ist eine eindeutige Abbildung des (komplexen) n−dimensionalen Vektorraums Vn (R) in sich, die jeden Vektor ~x ∈ Vn (R) einem Vektor ~y = σ̂(~x) ∈ Vn (R) so zuordnet, dass gilt: σ̂(λ · ~x) = λσ̂(~x) σ̂(x~1 + x~2 ) = σ̂(~x1 ) + σ̂(~x2 ) Die Summe zweier linearer Transformationen ist ebenfalls eine lineare Tranformation. Jeder lineare Transformation σ̂ kann durch eine Matrix A bezüglich einer festen Basis ~q1 , . . . ~qn dargestellt werden. Ein Beispiel für eine lineare Transformation ist die Koordinatentransformation. Der Übergang einer Matrix P in eine neue Basis Q wird wie folgt ausgedrückt: Q = T · P · T −1 , wobei T die Transformationsmatrix ist. 10. Matrixeigenwertprobleme: Spezielle linear Abbildung σ̂ eines Vektors ~x, so dass gilt: σ̂(~x) = λ~x, bzw. in Matrixdarstellung bzgl. einer festen Basis A~x = λ~x oder (A−λE)~x = 0. Es heißt λ Eigenwert und ~x Eigenvektor der Gleichung. Die Lösungen werden z.B. über die Determinante gefunden: a11 − λ a . . . a 12 1n a21 a22 − λ . . . a2n det(A − λE) = .. .. .. = 0 .. . . . . an1 an2 . . . ann − λ Die Nullstellen des Polynoms sind die Eigenwerte. Aufgrund des Fundamentalsatzes der Algebra gibt es n Lösungen (Eigenwerte) λ1 , . . . λn und n dazugehörende Lösungsvektoren (Eigenvektoren) ~x1 , . . . ~xn . Tritt mehrmals der gleiche Eigenwert auf, so nennt man diesen Eigenwert m-fach entartet. Das spezielle Eigenwertproblem (A − λE)~x = 0 mit A = AT besitzt die folgenden Eigenschaften: (i) alle n Eigenwerte sind reell; (ii) es gibt genau n linear unabhängige Eigenvektoren; (iii) Eigenvektoren, die zu verschiedenen Eigenvektoren gehören, sind orthogonal; (iv) zu jedem Eigenwert λi der Vielfachheit m existieren genau m linear (1) (2) (m) unabhängige Eigenvektoren ~xi , ~xi , . . . , ~xi , die sich orthonormieren lassen. Die Eigenwerte reeller symmetrischer Matrizen in Diagonal- oder Dreiecksform sind die Elemente der Hauptdiagonalen λi = aii (i = 1, ...n). Zu jeder reellen symmetrischen Matrix A findet sich eine reelle orthogonale Matrix T , so dass B = T −1 AT in Diagonalform ist. Die Spalten von T sind die Eigenvektoren ~xi , die Diagonalelemente sind die Eigenwerte bii = λi (Hauptachsentransformation).,