Fakultät für Ingenieurswissenschaften Bachelorstudiengang Biomedizinische Technik Prof. Dr. W. Langguth Brückenkurs Mathematik 3 Vorbereitungen zur Vorlesung Mathematik 3 von Wolfgang Langguth Version 1.0.0 Bearbeitung unter Mitwirkung von Dipl.-Math. Kerstin Gozemba Dipl.-Ing. Rolf Kröner-Naumann 10. Oktober 2013 Hochschule für Technik und Wirtschaft Fachbereich Elektrotechnik Studiengang Biomedizinische Technik Inhaltsverzeichnis 1 Einleitung 3 2 Komplexe Zahlen 4 2.1 Denition einer komplexen Zahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.2 Gauÿsche Zahlenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.3 Darstellungsformen einer komplexen Zahl . . . . . . . . . . . . . . . . . . . . . . . 6 2.3.1 Algebraische oder kartesische Form . . . . . . . . . . . . . . . . . . . . . . . 6 2.3.2 Trigonometrische Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.3.3 Exponentialform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.4 Grundrechnungsarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Potenzieren 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.6 Wurzeln komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.7 Einfache komplexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.8 Ortskurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.8.1 Geraden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.8.2 Kreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.8.3 Inversionen 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Dierentialrechnung 24 3.1 Steigung einer Kurve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.2 Das Dierential einer Funktion 25 3.3 Ableitung elementarer Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.4 Wiederholung der Ableitungsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.5 Gleichung der Tangente und der Normalen . . . . . . . . . . . . . . . . . . . . . . . 28 3.6 Kurvendiskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Partialbruchzerlegung 32 5 Integrationsmethoden 34 5.1 Integration durch Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Partielle Integration 34 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 6 Fourierreihen 36 6.1 Reelle Fourier-Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 6.2 Die Fourier-Reihe in komplexer Schreibweise . . . . . . . . . . . . . . . . . . . . . . 37 7 Grundlagen zum Thema Eigenwerte und Eigenvektoren 7.1 39 7.1.1 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 7.1.2 Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 7.1.3 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . n Euklidischer Raum R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 7.2.1 Matrizen 44 7.2.2 Determinanten 7.2.3 Lösungsstruktur eines LGS 7.1.4 7.2 7.3 39 Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 46 . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 7.3.1 52 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 7.3.2 Matrizenschreibweise für lineare Abbildungen . . . . . . . . . . . . . . . . . 53 7.3.3 Beispiele für lineare Abbildungen in Matrizenschreibweise . . . . . . . . . . 54 7.3.4 orthogonale und unitäre Matrizen . . . . . . . . . . . . . . . . . . . . . . . 56 7.3.5 Drehung von Basen und Ortsvektoren 7.3.6 Transformation von Matrizen auf Diagonalgestalt und Hauptachsentransfor- . . . . . . . . . . . . . . . . . . . . . mation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 57 57 Kapitel 1 Einleitung Die vorliegenden Unterlagen beziehen sich gröÿtenteils auf bereits in früheren Vorlesungen behandelte Themengebiete. Sie sollen neben der Wiederholung und Vertiefung auch dazu dienen, den Kontext zu den Inhalten der bevorstehenden Vorlesung Mathematik 3 herzustellen und den Zugang zu diesen neuen Themenbereichen zu erleichtern. Dieser Zielsetzung folgend werden innerhalb der Bereiche Komplexe Zahlen, Algebraische Strukturen und Lineare Abbildungen zum Teil auch Themen angesprochen, die bisher noch nicht behandelt wurden. Sollten Sie Fehler oder Unklarheiten entdecken oder Fragen haben, schicken Sie bitte mir eine EMail oder nehmen Sie mit mir Rücksprache. Saarbrücken, den 10. Oktober 2013 gez. Wolfgang Langguth c ⃝ Wolfgang Langguth 3 Kapitel 2 Komplexe Zahlen 2.1 Denition einer komplexen Zahl Betrachten wir die Gleichung x2 = −1 (2.1) Diese Gleichung besitzt keine reelle Lösung. Um diese Gleichung lösen zu können denieren wir die so genannte imaginäre Einheit. Denition 2.1 Die imaginäre Einheit ist eine Zahl j , deren Quadrat gleich −1 ist: j 2 = −1 Denition 2.2 Unter einer imaginären Zahl versteht man das Produkt einer reellen Zahl mit der imaginären Einheit j . Die Summe z = x + jy mit x ∈ R und einer imaginären Zahl jy heiÿt komplexe Zahl. R\ (0) z ∈ C = {z|x + jy = z y ∈ x, y ∈ R; j 2 = −1} wobei x dem Realteil Re und y dem Imaginärteil Im von z entspricht. Und C der Körper der komplexen Zahlen ist. 2.2 Gauÿsche Zahlenebene Der Realteil und der Imaginärteil einer komplexen Zahl können als kartesische Koordinaten eines Punktes P (z) = (x, y) in der Ebene aufgefasst werden. 4 Abbildung 2.1: komplexe Ebene Bemerkung: Zwei komplexe Zahlen sind genau dann gleich, wenn sie in Real- und Imaginärteil übereinstimmen. Denition 2.3 Ist z = x+jy eine komplexe Zahl, dann bezeichnet man z ∗ = x−jy als konjugiert komplexe Zahl von z . Dabei gilt: Re (z) = Re (z ∗ ) Im (z) = −Im (z ∗ ) Durch Spiegelung an der reellen Achse erhält man den konjuiert komplexen Punkt in der Gauÿschen Zahlenebene. Abbildung 2.2: konjugiert komplexe Zahl Der Betrag einer komplexen Zahl ergibt sich wie folgt: |z| = √ √ x2 + y 2 = zz ∗ Geometrisch betrachtet ist der Betrag die Länge des komplexen Zeigers in der Gauÿschen Zahlenebene. Beispiel: 3 + 2j = z dann ist |z| = √ √ 9 + 4 = 13 5 2.3 Darstellungsformen einer komplexen Zahl Eine komplexe Zahl kann in drei verschiedenen Formen dargestellt werden. 2.3.1 Algebraische oder kartesische Form Unter der algebraischen oder auch Normalfrom genannt, versteht man die folgende Darstellung: z = x + jy 2.3.2 Trigonometrische Form Jede komplexe Zahl z = x + jy lässt sich aus der kartesischen Form in die sogenannte trigonome- trische Form überführen. Wir verwenden dazu die folgende Beziehung (Polarkoordinaten): x = r · cos (φ) y = r · sin (φ) für den Fall, dass der komplexe Zeiger im 1. Quadranten liegt ergibt sich tan (φ) = φ aus: Im(z) y = Re(z) x Liegt der komplexe Zeiger im 2. oder 3. Quadranten, so müssen wir π zu φ dazu addieren. Im 4. φ 2π dazu. x z = x ± jy , dann ist φ = ± arccos( |z| ) Quadranten kommen zu Alternativ: Sei Somit lässt sich die komplexe Zahl in der Form z = r (cos (φ) + j sin (φ)) darstellen, wobei r der Betrag von Es gilt also: Ist φ ∈ [0, 2π[, so nennt 2π deniert. z ist und φ als Argument, Winkel oder Phase bezeichnet wird. √ r = x2 + y 2 φ = arg (z) man φ den Hauptwert. Der Winkel φ ist unendlich vieldeutig und nur modulo Die Darstellung einer konjugiert komplexen Zahl in der trigonometrischen Schreibweise, lautet folgendermaÿen: z ∗ = r cos(φ) − jr sin (φ) = r cos (−φ) + jr sin (−φ) 6 Abbildung 2.3: Trigonometrische Form 2.3.3 Exponentialform Unter Verwendung der Eulerschen Formel: ejφ = cos(φ) + j sin(φ) erhält man sofort aus der trigonometrischen Form die Exponentialform einer komplexen Zahl: z = rejφ und z ∗ = re−jφ Aus der Eulerschen Formel ist direkt ersichtlich, dass die komplexe Exponentialfunktion periodisch mit der Periode 2πj : ejφ+k2πj = ej(φ+k2π) = ejφ Abbildung 2.4: Der Zeiger von 7 e jφ 2.4 Grundrechnungsarten Denition 2.4 Addition und Subtraktion Seien z1 = x1 + jy1 z2 = x2 + jy2 zwei komplexe Zahlen. Dann ist: z1 ± z2 = x1 + x2 + j (y1 ± y2 ) Dabei gilt für die Addition: z1 + z2 = z2 + z1 (z1 + z2 ) + z3 = z1 + (z2 + z3 ) Dreiecksungleichung:|z1 + z2 | ≤ |z1 | + |z2 | - Die Kommuativität: - Die Assoziativität: - Die - Die Vertauschbarkeit zwischen Addition/ Subtraktion und dem Übergang zur komplex konjugier∗ ∗ ∗ ten Zahl: (z1 ± z2 ) = z1 ± z2 Abbildung 2.5: Zeigerdarstellung der komplexen Addition Denition 2.5 Multiplikation Es seien z1 = x1 + jy1 und z2 = x2 + jy2 zwei komplexe Zahlen, dann gilt: z1 · z2 = (x1 x2 − y1 y2 ) + j(x1 y2 + x2 y1 ) Bei der Multiplikation gelten: z1 · z2 = z2 z1 (z1 · z2 ) · z3 = z1 · (z2 · z3 ) Distributivgesetz: z1 · (z2 + z3 ) = z1 · z2 + z1 · z3 - Die Kommutativität: - Die Assoziativität: - Das Denition 2.6 Division Es seien z1 = x1 + jy1 und z2 = x2 + jy2 zwei komplexe Zahlen mit z2 ̸= 0, dann gilt: z1 x1 x2 + y1 y2 x2 y1 − x1 y2 = +j 2 2 z2 x2 + y2 x22 + y22 (x1 + jy1 )(x2 − jy2 ) = x22 + y22 ∗ z1 · z2 = |z2 |2 Beispiele: 1. z1 = 4 − 8 j, z2 = 3 + 4 j z1 4 − 8j (4 − 8j)(3 − 4j) 4 8 = = = ... = − − j z2 3 + 4j 9 + 16 5 5 8 2. 1 1(−j) = = −j j j(−j) Multiplikation und Division in trigonometrischer und exponentieller Darstellung: Multiplikation: z1 = r1 (cos(φ1 ) + j sin(φ1 )); z2 = r2 (cos(φ2 ) + j sin(φ2 )) z1 · z2 = r1 · r2 (cos(φ1 ) cos(φ2 ) − sin(φ1 ) sin(φ2 ) | {z } cos(φ1 +φ2 ) + j (cos(φ1 ) sin(φ2 ) + sin(φ1 ) cos(φ2 ))) {z } | sin(φ1 +φ2 ) Mit Hilfe der Additionstheoreme ergibt sich: z1 · z2 = r1 · r2 (cos(φ1 + φ2 ) + j sin(φ1 + φ2 )) Und in Exponentialform erhalten wir: z1 = r1 e jφ1 , z2 = r2 e jφ2 z1 · z2 = r1 · r2 e j(φ1 +φ2 ) Division: r1 j(φ1 −φ2 ) z1 z1 · z2∗ r1 e jφ1 · r2 e −jφ2 = = = e z2 |z2 |2 r22 r2 = r1 (cos(φ1 − φ2 ) + j sin(φ1 − φ2 )) r2 Regel: Bei der Multiplikation zweier komplexer Zahlen werden die Beträge multipliziert/dividiert und die Argumente addiert/subtrahiert. Bemerkung: Bildung der konjugiert komplexen Zahl vertauscht mit der Multiplikation und Division. (z1 · z2 )∗ = z1∗ · z2∗ ( )∗ z1 z∗ = 1∗ z2 z2 Die Geometrische Deutung von Multiplikation und Division ergibt sich unmittelbar aus der Exponentialdarstellung (Zeigerdarstellung): 9 z1 · z2 = r1 e jφ1 · r2 e jφ2 = (r1 · r2 ) · e j(φ1 +φ2 ) Drehstreckung Abbildung 2.6: Geometrische Deutung Multiplikation z1 r1 e jφ1 = z2 r2 e jφ2 r1 j(φ1 −φ2 ) e = r2 Drehstreckung Abbildung 2.7: Geometrische Deutung der Division 2.5 Potenzieren Multipliziert man eine komplexe Zahl, z = r e jφ , n-mal mit sich selbst so erhält man mit z n = rn e jnφ z n = (r e jφ )n = (r e jφ )(r e jφ ) . . . (re jφ ) = rn e jnφ | {z } | r 2 e j(φ+φ) ... {z } r n e jnφ die so genannte Moivre'sche Formel n z n = {r(cos(φ) + j sin(φ))} = rn (cos(nφ) + j sin(nφ)) 2.6 Wurzeln komplexer Zahlen Wir betrachten nun die einfache algebraische Gleichung z n − a = 0, a∈C (2.2) und denieren Denition 2.7 Die Lösungen der Gleichung z n − a = 0 heiÿen die n-ten Wurzeln von a. Wegen des Fundamentalsatzes der Algebra wissen wir, dass es in und damit genau n Wurzeln von a gibt. 10 C genau n Lösungen der Gleichung Berechnung der n-ten Wurzeln einer komplexen Zahl a = x ± jy : z n = a = |a| e jα , Ansatz: |a| > 0 z = r e jφ rn e jnφ = |a| e jα rn = |a| n φ = α + 2kπ, k = 0, . . . , n − 1 Lösung: √ n |a| α + 2kπ φk = ,k ∈ N n r= Zusammengefasst ergibt sich: zk = ± arccos( x )+2kπ √ |a| n j) n |a|e( n verschiedene Lösungen für k = 0, 1, . . . , n − 1. Alle Lösungen haben den n verschiedene Phasen, liegen somit auf einem Kreis um den Ursprung in der √ n mit dem Radius r = |a| und bilden ein regelmäÿiges n - eckiges Polygon. Wir erhalten somit gleichen Betrag, aber komplexen Ebene Beispiel: 1. z 6 = 1 = 1e j·0 zk = 1 · e j· 2π 6 ·k , k = 0, . . . , 5 2. z 4 = 3 + 2j = √ 13 · e j·0.588 zk = 1.378 · e{0.147+ 11 2π 4 k }j , k = 0, . . . , 3 2.7 Einfache komplexe Funktionen Bisher haben wir immer reelle Funktionen betrachtet: x ∈ R → y = f (x) ∈ R f : R→R Nun untersuchen wir Funktionen in der komplexen Ebene, d.h. f : z ∈ C → w = f (z) ∈ C zum Beispiel: Polynome P (z) = ∑n i=0 ai z i , ai ∈ C mit komplexen Koezienten. Weitere Beispiele: Komplexe Exponentialfunktion: Mit Hilfe der Reihenentwicklungen der trigonometrischen Funktionen und der Exponentialfunktion können wir die Eulersche Formel herleiten: ex = lim n→∞ cos(x) = lim n→∞ sin(x) = lim n→∞ n ∑ xk k=0 k! =1+ n ∑ (−1)k x2k (2k)! k=0 x x2 x3 + + + ... 1! 2! 3! =1− n ∑ (−1)k x2k+1 k=0 Ersetzt man in der Reihenentwicklung (2k + 1)! x durch jy , x2 x4 + ± ... 2! 4! =x− x x3 x5 + − ± ... 1! 3! 5! so ergibt sich: jy (jy)2 (jy)3 (jy)4 + + + + ... 1! 2! 3! 4! [ ] [ ] y2 y4 y y3 y5 = 1− + ± ... + j − + ± ... 2! 4! 1! 3! 5! e jy = 1 + := cos(y) + j sin(y) Und für eine beliebige komplexe Zahl z = x + jy erhält man daraus: exp(z) = ez = ex+jy = ex e jy = ex (cos(y) + j sin(y)) = b Denition der komplexwertigen Exponentialfunktion. Bemerkung: Die Exponentialfunktion ist eine periodische Funktion, mit der rein imaginären Periode 2πj |ez | = ex = eRe(z) arg(ez ) = y + 2kπ = Im(z) + 2kπ ez = ez+2kπj , k ∈ Z Bemerkung: Wie bei den komplexen Zahlen kann man auch bei den komplexen Funktionen den Real- und Imaginärteil, ebenso den Betrag und das Argument von f (z) bestimmen. Verdeutlichen kann man dies an dem Beispiel der Exponentialfunktion: f (z) = ez = ex (cos(y) + j sin(y)) 12 Es gilt dann: Re(f (z)) = ex cos(y) Im(f (z)) = ex sin(y) |f (z)| = ex arg(f (z)) = y 13 Komplexer Cosinus und Sinus Betrachte e jφ = cos(φ) + j sin(φ) , φ ∈ R. Es gilt (Eulersche Formel): ) 1 ( jφ e + e −jφ 2 1 sin(φ) = (e jφ − e −jφ ) 2j cos(φ) = ez1 · ez2 = ez1 +z2 Aus dem Multiplikationstheorem Additionstheoreme Periodizität Aber es gilt nicht mehr: z.B.: ergibt sich wie schon bekannt: cos(z1 ± z2 ) = cos(z1 ) cos(z2 ) ∓ sin(z1 ) sin(z2 ) sin(z1 ± z2 ) = sin(z1 ) cos(z2 ) ± cos(z1 ) sin(z2 ) cos(z + 2kπ) = cos(z) sin(z + 2kπ) = sin(z) | cos(x)| ≤ 1, | sin(x)| ≤ 1 cos(j) = 12 (e−1 + e1 ) ≈ 1, 54 Ebenso erhält man auch: tan(z) = 1 e jz − e−jz sin(z) = cos(z) j e jz + e jz cot(z) = cos(z) e jz + e−jz = j jz sin(z) e − e jz Die komplexen Hyperbelfunktionen werden analog deniert: sinh(z) = ez − e−z ez + e−z , cosh(z) = 2 2 Es gilt der Zusammenhang: cosh(jz) = cos(z) sinh(jz) = j sin(z) 14 Komplexer Logarithmus Im Reellen gilt: ex = w → x = ln(w) Die komplexe Exponentialfunktion ez (Logarithmus). ist aber periodisch mit Periode 2πj . Daher untersuchen wir nur einen Streifen y0 < Im(z) = y ≤ y0 + 2π oder den Fundamentalstreifen 0 < Im(z) ≤ 2π Abbildung 2.8: Fundamentalstreifen Hier gilt für den Hauptwert des Arguments von ez , z = x + jy : arg(ez ) = arg(ex e j y ) = y = Im(z) Schreiben wir w = R e jψ = u + jv = ez = ex+jy = eln w |w| = ex = R, ψ = arg(w) = y + 2kπ , k ∈ Z x = ln(|w|), y = arg(w) + 2kπ Mit der Festlegung für z im Fundamentalstreifen: 0 < arg(z) ≤ 2π wird die Lösung der Gleichung w = ez eindeutig, d.h. für jedes w ∈ C gibt es im Fundamentalstreifen nur eine Zahl z mit ez = w. z Jedes z mit e = w heiÿt natürlicher Logarithmus von w : z = ln(w) = ln |w| + j(arg(w) + 2kπ) , k ∈ Z Für k=0 erhält man den so genannten Hauptwert des natürlichen Logarithmus ln(w) = ln(|w|) + j arg(w) 2.8 Ortskurven Denition 2.8 Die von einem reellen Parameter t abhängige komplexe Zahl z = z(t) = x(t) + jy(t) mit a ≤ t ≤ b heiÿt komplexwertige Funktion z(t) mit der reellen Variable t. Die von einem parameterabhängigen komplexen Zeiger z = z(t) in der Gauÿschen Zahlenebene beschriebene Bahn heiÿt Ortskurve. Der Parameter t durchläuft hierbei alle Werte im Intervall [a, b]. 15 Abbildung 2.9: Ortskurve Beispiel: z(t) = 2 + jt mit t ∈ [0, ∞[ Abbildung 2.10: Beispiel Die Ortskurve der vom Parameter ist eine im Abstand a t abhängige komplexe Zahl z(t) = a + jbt mit a>0 und b > 0, zur imaginären Achse parallel verlaufende Gerade. Beispiel: Betrachtet wird eine Reihenschaltung eines Widerstandes mit ohmschen Widerstand Spule mit Induktivität R und einer L. Nach dem Kirchhoschen Regeln addieren sich dabei die komplexen Widerstände der beiden Schaltelemente zum komplexen Widerstand Z ges des Gesamtkreises. Die frequenzabhängige Gesamtim- pedanz ist dann gegeben durch: Z ges = R + jωL Man erhält eine Ortkurve, wie im obigen Beispiel 16 mit (t > 0). ω>0 2.8.1 Geraden Gegeben sei z1 und z2 z(t) = z1 + f (t)z2 wobei f (t) eine reellwertige Funktion für den Parameter t ist und komplexe Zahlen sind. Um diese Funktion zu zeichnen, addiert man die komplexen Zeiger von z1 und z2 wie man es bereits aus der Vektorrechnung kennt. Dazu legt man den Anfang des zweiten Zeigers an die Spitze des ersten Zeigers. : Abbildung 2.11: Gerade 17 Beispiel: z(t) = a + jat Abbildung 2.12: Beispiel 18 2.8.2 Kreise Wir betrachten nun den Spezialfall: z(t) = 1 1 − jt 1 −t +j = = 1 + jt 1 + t2 1 + t2 1 + t2 | {z } | {z } x(t) (2.3) y(t) Dividiert man nun den Imaginärteil durch den Realteil so erhält man: y = −t x Daraus ergibt sich: y= y x 1 + ( xy )2 = xy x2 + y 2 y(x2 + y 2 ) = xy y(x2 − x + y 2 ) = 0 x2 − x + y 2 = 0 1 1 (x − )2 + y 2 = ( )2 2 2 Die Ortskurve ist in diesem Fall ein Kreis mit dem Mittelpunkt 19 M (0, 5|0) und Radius R = 0, 5. Abbildung 2.13: Kreis 20 Mit einer Drehstreckung um den Faktor a = |a|e |a| |a| R = |a| 2 und Mittelpunkt M ( 2 cos(φ); 2 sin(φ)). a Die Funktion z(t) = 1+jt jφ erhalten wir einen neuen Kreis mit Radius Abbildung 2.14: Kreis mit Drehstreckung 2.8.3 Inversionen In der Praxis müssen Ortskurven oft invertiert werden. Betrachtet man zum Beispiel: U Z(ω) I(ω) = Invertiert man also die Ortskurve der Impedanz Z, so erhält man die Ortskurve des frequenzab- hängigen Stromes. Inversion einer Geraden durch den Ursprung Sei z(t) = f (t)z0 und ω= 1 z ω(t) = 1 1 1 z0∗ = = z(t) f (t)z0 f (t) z0 z0∗ Wir erhalten also wieder eine Gerade, die durch den Ursprung verläuft. Liegt beispielsweise die komplexe Zahl z in der Exponentialform z = rejφ vor, so lautet der Kehr- wert: ω= 1 1 1 = jφ = e−jφ z re r Das bedeutet, es ndet ein Vorzeichenwechsel im Argument (Spiegelung an der reellen Achse) und eine Kehrwertbildung des Betrages statt. Die invertierte Gerade verläuft also ebenfalls durch den Ursprung. 21 Abbildung 2.15: Inversion einer Geraden durch den Ursprung Inversion einer Geraden nicht durch den Ursprung Sei z(t) = a + jaf (t) mit a = |a|ejφ . Die Inversion ist dann gegeben durch: ω(t) = 1 1 = = z(t) a(1 + jf (t)) 1 a |{z} Drehstreckung Wir erhalten; R= 1 2|a| und 1 1 M ( 2|a| cos(φ); 2|a| sin(−φ)) 22 · 1 1 + jf (t) | {z } Kreis durch den Ursprung Beispiel: z(t) = 2(1 + jt) 1 w(t) = 2(1 + jt) Wir erhalten R= 1 4 und M ( 14 , 0). Abbildung 2.16: Inversion einer Geraden nicht durch den Ursprung Merke: Geraden und Kreise werden durch die Inversion ω= 1 z nach den folgenden Regeln abgebildet: z -Ebene ω -Ebene Gerade durch Ursprung Gerade durch Ursprung Gerade nicht durch Ursprung Kreis durch Ursprung Mittelpunktskreis Mittelpunktskreis Kreis durch Ursprung Gerade nicht durch Ursprung Kreis nicht durch Ursprung Kreis nicht durch Ursprung Tipp: Der Punkt mit dem kleinsten Abstand (Betrag) vom Nullpunkt führt zu dem Bildpunkt mit dem gröÿten Abstand (Betrag) und umgekehrt. Ein Punkt oberhalb der reellen Achse führt zu einem Bildpunkt unterhalb der reellen Achse und umgekehrt. 23 Kapitel 3 Dierentialrechnung In der Mathematik III werden die Begrie Funktion und Ableitung auf Funktionen mit mehreren Variablen verallgemeinert. Daher dient dieses Kapitel als kurze Wiederholung dieser Begrie und der Vorgehensweise im Fall einer Variablen. 3.1 Steigung einer Kurve Die Steigung einer Kurve (Funktion), y = f (x), in einem Punkt Steigung der Tangenten an diese Kurve im Punkt y = f (x), im Punkt x = x0 x = x0 . x = x0 , wird deniert durch die Um die Steigung der Tangenten an zu berechnen, betrachtet man zunächst Sekanten durch die Punkte P und Q. Ihre Steigung beträgt: ms = f (x0 + h) − f (x0 ) h Abbildung 3.1: Die Steigung der Tangenten Im Grenzwert h→0 gilt Q→P und die Sekante wird zur Tangente. Entsprechend erhält man für die Steigung der Tangenten: f (x0 + h) − f (x0 ) h→0 h mt = lim Bemerkung: 1. Die Ableitung von f (x0 ) gibt die Steigung von 24 f (x) im Punkt x = x0 an. 2. Die Bezeichnung Dierentialquotient erklärt sich aus der Konstruktion: f ′ (x0 ) = f ′ (x0 ) = Die Gröÿe bezeichnet. ∆f (x) ∆x f (x0 + h) − f (x0 ) f (x) − f (x0 ) = lim x→x x0 + h − x0 x − x0 0 ∆f (x) df (x) lim = x→x0 ∆x dx lim h→0 wird als Dierenzenquotient , die Gröÿe df (x) dx als Dierentialquotient Denition 3.1 Existiert die Ableitung von f : Df → R in jedem Punkt x0 ∈ Df , dann heiÿt die Funktion f ′ (x), f ′ : Df → R, die (erste) Ableitung von f (x). Die Ableitungsfunktion y ′ = f ′ (x) ordnet also jedem x aus einem Intervall die Steigung der dortigen Tangente als Funktionswert zu. Merke: Eine dierenzierbare Funktion ist immer stetig! (Die Umkehrung gilt nicht) 3.2 Das Dierential einer Funktion Abbildung 3.2: Das Dierential △y = f (x0 + △x) − f (x0 ) ist der Zuwachs des Funktionswertes auf der Kurve. dy = f (x0 ) dx der Zuwachs des Funktionswertes auf der Tangenten darstellt. △x und △y sind die Koordinatenänderungen auf der Kurve und dx und dy die Koordinatenänderungen auf der Tangente. Wobei hingegen: Denition 3.2 Die Gröÿe dy = f ′ (x0 )dx heiÿt Dierential von f (x) und beschreibt den Zuwachs des Funktionswertes auf der Kurventangente, wenn man in x− Richtung um dx fortschreitet. 3.3 Ableitung elementarer Funktionen Zunächst werden die Ableitungen einiger elementarer Funktionen zur ersten Übersicht angegeben. 25 1. Die konstante Funktion y(x) = y ′ (x) = f (x) = c = konstant f (x + h) − f (x) c−c f ′ (x) = lim = lim = 0. h→0 h→0 h h Bei der Betrachtung des Funktionsgraphen erkennt man sofort die horizontale Tangente mit ′ der Steigung f (x) = 0. 2. Die Potenzfunktion x ∈ R, n ∈ N, R y(x) = f (x) = xn , ′ ′ y (x) = f (x) = n x 3. Die trigonometrischen Funktionen sin(x) und n−1 cos(x) x∈R y(x) = f (x) = sin(x), ′ ′ y (x) = f (x) = cos(x) y(x) = f (x) = cos(x), x ∈ R y ′ (x) = f ′ (x) = − sin(x) Daraus ergeben sich y(x) = f (x) = tan(x), x ∈ R 1 y ′ (x) = f ′ (x) = = 1 + tan2 (x) cos2 (x) y(x) = f (x) = cot(x) x ∈ R −1 y ′ (x) = f ′ (x) = = −1 − cot2 (x) sin2 (x) 4. Die Arkusfunktionen y(x) = f (x) = arcsin(x) x ∈ R 1 y ′ (x) = f ′ (x) = √ 1 − x2 y(x) = f (x) = arccos(x) x ∈ R −1 y ′ (x) = f ′ (x) = √ 1 − x2 y(x) = f (x) = arctan(x) 1 y ′ (x) = f ′ (x) = 1 + x2 x∈R 5. Die Exponentialfunktion y(x) = f (x) = ex , y ′ (x) = f ′ (x) = ex x∈R y(x) = f (x) = eax , x∈R y ′ (x) = f ′ (x) = aeax 26 6. Die Betragsfunktion y(x) = f (x) = |x|, x ∈ R x y ′ (x) = f ′ (x) = = sgn(x), x ∈ R\{0}. |x| 7. Die Logarithmusfunktion y(x) = f (x) = ln(x), 1 y ′ (x) = f ′ (x) = x x∈R 3.4 Wiederholung der Ableitungsregeln 1. Faktorregel d d (c · g(x)) = c · g(x) = c · g ′ (x) dx dx Beispiel: f (x) = 3x2 f ′ (x) = 3(2x) = 6x 2. Summenregel u(x) und v(x), deren Ableitungen u′ (x) f (x) = u(x) + v(x) ist gegeben durch: Gegeben seien zwei Funktionen Die Ableitung der Summe f ′ (x) = und v ′ (x) existieren. d d d (u(x) + v(x)) = u(x) + v(x) dx dx dx Beispiel: f (x) = 3x2 + 5x f ′ (x) = 6x + 5 3. Produktregel Gegeben seien zwei Funktionen u(x) und v(x) zusammen mit ihren Ableitungen v ′ (x). Gesucht ist die Ableitung des Produkts f (x) = u(x) · v(x): d (u(x) v(x)) = dx ( d u(x) dx ) ( v(x) + u(x) d v(x) dx u′ (x) und ) Beispiel: f (x) = sin(x) · cos(x) f ′ (x) = cos(x) · cos(x) − sin(x) · sin(x) = cos2 (x) − sin2 (x) 4. Quotientenregel Gegeben seien wieder zwei Funktionen ′ und v (x). u(x) und v(x) zusammen mit ihren Ableitungen u′ (x) Gesucht ist die Ableitung des Quotienten f (x) = 27 d u(x) ′ , f (x) = v(x) dx ( u(x) v(x) ) . d dx ( u(x) v(x) ) = u′ v − u v ′ v2 Beispiel: sin(x) cos(x) cos(x) cos(x) − sin(x)(− sin(x)) f ′ (x) = cos2 (x) 1 = cos2 (x) f (x) = 5. Kettenregel Die Ableitung einer zusammengesetzten (verketteten) Funktion y = g(x) = f (u(x)) ist gleich dem Produkt der äuÿeren mit der inneren Ableitung: y ′ (x) = dg(x) df (u) du(x) = · dx du u=u(x) dx Beispiel: f (x) = ln(2x + 1) 1 f ′ (x) = ·2 2x + 1 Bemerkung: Die Kettenregel verallgemeinert sich entsprechend für den Fall von mehr als einer inneren Funktion y(x) = f (u(v(x))) entsprechend. Es ergibt sich: y ′ (x) = df (u) du(v) dv(x) = f ′ (u)u=u(v) · u′ (v)v=v(x) · v ′ (x) · · du u=u(v) dv v=v(x) dx 3.5 Gleichung der Tangente und der Normalen Die Gleichung der Tangente im Punkt x0 an den Graphen von f (x) lautet wie folgt: fT (x) = f ′ (x0 )(x − x0 ) + f (x0 ) Wobei x0 der Berührpunkt der Tangente an den Graphen von f (x) ist und x ein beliebiger Punkt auf der Tangenten. Damit ergibt sich auch die Gleichung der Normalen, die auf der Tangenten senkrecht steht: fN (x) = −1 f ′ (x0 ) (x − x0 ) + f (x0 ) 28 3.6 Kurvendiskussion Im folgenden wird das Vorgehen bei einer Kurvendiskussion beschrieben: 1. Denitionsmenge Dmax Bestimme 2. Symmetrie Überprüfung, ob eine einfache Symmetrie vorliegt. Gilt: f (−x) = −f (x) dann ist f (x) symmetrisch zum Ursprung. Bei einer Symmetrie zur y- Achse, gilt folgendes: f (−x) = f (x) 3. Nullstellen f (x) = 0 4. Schnittpunkt mit Bestimme y -Achse f (0) 5. Grenzwerte lim f (x) n→∞ und lim f (x) n→−∞ Skizze: An dieser Stelle genügen bereits die Erkenntnisse über Nullstellen, y-Achsenabschnitt und Grenzwerte um die Funktion zu skizzieren. In den weiteren Schritten erhalten wir noch genauere Informationen. 6. Ableitungen Berechnung der Ableitungen f ′ (x) und f ′′ (x) 7. Extrema Ist die Funktion Punkt x0 rechtsgekrümmt und besitzt f (x) dort eine waagerechte Tangente, dann liegt ein Maximum vor. Kurz: f ′ (x0 ) = 0 Besitzt f (x) in x0 und f ′′ (x0 ) < 0 eine waagerechte Tangente und ist linksgekrümmt, dann liegt eine Mini- mum vor. Kurz: f ′ (x0 ) = 0 und f ′′ (x0 ) > 0 Bemerkung: Es kann passieren, dass die obigen Kriterien zur Berechnung der Extrema nicht greifen, wenn ′ ′′ nämlich neben f (x0 ) auch f (x0 ) verschwindet. Dann entscheidet die nächstfolgende, nicht n verschwindende Ableitung f (x0 ) folgendermaÿen über Extrema und deren Art: Sei f n (x0 ) die nächstfolgende, nicht verschwindende Ableitung (n ≥ 2) und f ′ (x0 ) = 0, dann gilt: Ist f n (x0 ) ̸= 0 und n gerade, dann liegt für Maximum vor. Für den Fall, dass n f n (x0 ) > 0 ein Minimum und für f n (x0 ) < 0 ein ungerade ist erhalten wir einen Sattelpunkt. Beispiel: f (x) = x4 und x0 = 0 f ′ (x) = 4x3 f ′′ (x) = 12x2 f ′′ (0) = 0 An dieser Stelle versagt unser altes Kriterium. Mit dem neuen Kriterium sehen wir, dass ein 4 Minimum vorliegt, da f (x) = 24 > 0 und n = 4 gerade. 29 8. Monotonie Die erste Ableitung y ′ = f ′ (x) ist die Steigung der Kurventangente und bestimmt somit das Monotonieverhalten der Funktion: Ist f ′ (x0 ) > 0 dann ist f (x) streng monoton wachsend. Gilt hingegen f ′ (x0 ) < 0 dann ist f (x) streng monoton fallend. 9. Wendepunkte In einem Wendepunkt ändert sich die Art der Krümmung, es ändert sich also der Drehsinn der Kurventangente. Ein hinreichendes Kriterium lautet wie folgt: f ′′ (x0 ) = 0 und f ′′′ (x0 ) ̸= 0 Ein Sattelpunkt ist ein Spezialfall eines Wendepunktes, er besitzt im Wendepunkt eine waagerechte Tangente: f ′ (x0 ) = 0 und f ′′ (x0 ) = 0 und f ′′′ (x0 ) ̸= 0 10. Krümmung ′′ ′′ ′′ Die zweite Ableitung y = f (x) bestimmt das Krümmungsverhalten der Funktion: Ist y = f ′′ (x0 ) > 0, so ist f (x) linksgekrümmt. Ist y ′′ = f ′′ (x0 ) < 0, so ist f (x) rechtsgekrümmt. Die zweite Ableitung gibt also den Drehsinn der Kurventangente an. 11. Graph Zeichnen Sie den Graph der Funktion mit Hilfe der berechneten Eigenschaften. Beispiel: Diskutieren Sie die Funktion: 1. 1 f : Dmax → R; x 7→ 3(1 − x)e 2 (1−x) Dmax = R 2. Symmetrie keine einfache 3. Nullstellen f (x) = 0 ↔ (1 − x) = 0 ↔ x = 1 4. Schnittpunkt mit x = 0 → y = 3e y -Achse 1 2 5. Grenzwert und Asymptoten lim f (x) = 0 n→∞ und lim f (x) = ∞ n→−∞ 6. Ableitungen 1 1 1 1 3 + x)e 2 (1−x) = (x − 3)e 2 (1−x) 2 2 2 1 1 1 3 f ′′ (x) = [1 · e 2 (1−x) + (x − 3)(− )e 2 (1−x) ] 2 2 3 1 3 1 = (1 − x + )e 2 (1−x) 2 2 2 1 3 = (5 − x)e 2 (1−x) 4 f ′ (x) = 3(−1 − 30 7. Extrema f ′ (x) = 0 ↔ x = 3 f (3) = −6e−1 3 −1 ′ ′′ Da f (3) = 0 und f (3) = e >0 2 ist, ist der Punkt (3| − 6e−1 ) ein Minimum. 8. Monotonie f ′ (x) < 0 für x ∈] − ∞; 3[→ f f ′ (x) > 0 für x ∈]3; ∞[→ f ist in diesem Intervall streng monoton fallend. ist in diesem Intervall streng monoton wachsend. 9. Wendepunkte f ′′ (x) = 0 ↔ 5 − x = 0 ↔ x = 5 f (5) = −12e−2 −2 Im Punkt (5| − 12e ) liegt ein Wendepunkt vor, da f ′′ (5) = 0 und bei x = 5 für Vorzeichenwechsel auftritt. 10. Krümmungsintervalle f ′′ (x) > 0 f ′′ (x) < 0 für für x ∈] − ∞; 5[→ der Graph von f ist in diesem Intervall links-gekrümmt. x ∈]5; ∞[→ der Graph von f ist in diesem Intervall rechts-gekrümmt. 11. Graph Abbildung 3.3: Graph 31 f ′′ ein Kapitel 4 Partialbruchzerlegung Die Partialbruchzerlegung ist, wie wir bereits aus der Mathematik II wissen ein praktisches Hilfsmittel bei der Integration. Im nächsten Semester wird die Laplacetransformation ein wichtiges Thema sein. Für deren Umkehrung der sogenannten Rücktransformation werden wir erneut die Partialbruchzerlegung brauchen. Dazu eine kurze Wiederholung: Z(x) N (x) lässt sich mit Hilfe der PBZ in eindeutiger Weise in eine endliche Summe aus sogenannten Partialbrüchen zerlegen. f (x) = Jede echt gebrochenrationale Funktion vom Typ Zur Erinnerung: Eine Funktion heiÿt echt gebrochenrational, wenn der Zählergrad < Nennergrad ist. Sie heiÿt unecht gebrochenrational, wenn der Zählergrad > Nennergrad ist. Ist eine gebrochenrationale Funktion unecht gebrochen, dann muss sie mittels einer Polynomdivision in eine ganzrationale Funktion und einen echt gebrochenrationalen Anteil zerlegt werden. Vorgehensweise zur Partialbruchzerlegung 1. Bestimme die Nullstellen des Nenners 2. Jeder reellen Nullstelle des Nennerpolynoms wird in folgender Weise ein Partialbruch zugeordnet: einfache Nullstelle bei x1 doppelte Nullstelle bei x2 A1 x−x1 A1 x−x2 ... r-fache Nullstelle bei A1 , ..., Ar + A2 (x−x2 )2 ... xr A1 x−xr + A2 (x−xr )2 + ... + Ar (x−xr )r Konstanten. 3. Jedem Paar konjugiert komplexer Nullstellen des Nennerpolynoms wird der folgende Partialbruch zugeordnet: Ax + B x2 + px + q Z(x) N (x) ist dann als Summe aller Partialbrüche darstellbar, wobei die Anzahl der Partialbrüche mit der Anzahl der Nullstellen (mit Vielfach- 4. Die echt gebrochenrationale Funktion f (x) = heiten) übereinstimmt. 5. Bestimmung der Konstanten: Zunächst werden alle Brüche auf einen gemeinsamen Nenner gebracht. Durch Einsetzen geeigneter x-Werte (z.B. Nullstellen des Nenners) erhält man ein einfaches lineares Gleichungssystem für die unbekannten Konstanten. 32 Beispiel: f (x) = Nennernullstellen: x1 = 1 und x+1 x3 − 5x2 + 8x − 4 x2,3 = 2 Ansatz zur Partialbruchzerlegung: A B C x+1 + + = 3 2 x − 1 x − 2 (x − 2) x − 5x2 + 8x − 4 Hauptnennerbildung auf der linken Seite und anschlieÿende Multiplikation mit dem Hauptnenner auf beiden Seiten: A(x − 2)2 + B(x − 2)(x − 1) + C(x − 1) = x + 1 In diese Gleichung setzen wir nacheinander die Nullstellen des Nenners ein. Für A = 2 und für x = 2 folgt C = 3. Um die Konstante B Zahl ein, z.B x = 0 und man erhält B = −2. Alternativ wäre auch ein Koezientenvergleich möglich. 33 x = 1 ergibt sich x eine beliebige zu berechnen setzen wir für Kapitel 5 Integrationsmethoden 5.1 Integration durch Substitution Je nach Integraltyp kann man die Integrale durch eine einfache Integration zu bekannten Grundintegralen vereinfachen. Hier eine Auistung verschiedener Integraltypen und die entsprechende Substitution. ∫ ∫ ∫ ∫ Integral Substitution f (ax + b) dx Integral nach Substitution u = ax + b du = a dx f (x) · f ′ (x) dx u = f (x) du = f ′ (x) dx (f n (x)) · f ′ (x) dx u = f (x) du = f ′ (x) dx f (g(x)) · g ′ (x) dx u = g(x) du = g ′ (x) dx ∫ f ′ (x) dx f (x) ∫ 1 a f (u) du ∫ ∫ ∫ u du ∫ un du sin(x) · cos(x) dx ∫ f (u) du ∫ u = f (x) du = f ′ (x)dx Beispiel: ∫√ 4x + 5 dx 1 u du (ln(x))2 · ∫ ∫ 1 x dx 2 x · ex dx 2x+3 x2 −3x+1 dx 5.2 Partielle Integration Eine andere Methode Integrale zu lösen ist die sogenannte Partielle Integration, die "Produktregel der Integration". Sie besagt: ∫ b u(x) · v ′ (x) dx = [u(x) · v(x)]ba − ∫ b u′ (x) · v(x) dx a a Beispiel: 1. 2. ∫ ∫ x · cos(x) dx = [x · sin(x)] − 1 · ln(x) dx = [x · ln(x)] − ∫ ∫ 1 · sin(x) dx = x · sin(x) + cos(x) x· 1 x dx = x ln(x) − ∫ 1 dx = x · ln(x) − x 3. Durch mehrmaliges Anwenden der partiellen Integrationsregel kann man Potenzen abbauen: 34 ∫ ∫ x cos(x) dx = [x · sin(x)] − 2x · sin(x) dx ( ) ∫ = x2 · sin(x) − [2x(− cos(x))] − 2(− cos(x)) dx 2 2 = x2 · sin(x) + 2x cos(x) − 2 sin(x) 4. Treten beide Faktoren beim Integrieren und Dierenzieren wieder auf (z.B. sin(x) cos(x)). So kann man so lange partiell integrieren, bis das ursprüngliche Integral wieder erscheint. Aus der so erhaltenen Gleichung lässt sich das Integral dann berechnen. ∫ ( 9 1− 25 )∫ ∫ 1 1 sin(3x) · sin(5x) dx = [sin(3x)(− cos(5x)) ] − 3 cos(3x)(− cos(5x)) dx 5 5 ( ) ∫ 1 3 1 3 = − cos(5x) sin(3x) + [cos(3x) · sin(5x) ] + sin(3x) · sin(5x) 5 5 5 5 ∫ 1 3 9 = − cos(5x) sin(3x) + cos(3x) · sin(5x) + sin(3x) · sin(5x) dx 5 25 25 1 3 sin(3x) · sin(5x) dx = − cos(5x) sin(3x) + cos(3x) · sin(5x) 5 25 Dividiert man nun beide Seiten durch 16 25 so erhält man das Integral: ∫ sin(3x) · sin(5x) dx = − 5 3 cos(5x) sin(3x) + cos(3x) sin(5x) 16 16 35 Kapitel 6 Fourierreihen 6.1 Reelle Fourier-Reihen Periodische Funktionen spielen in der Technik eine wichtige Rolle. Ziel ist es diese periodischen Funktionen als harmonische Schwingung darzustellen. Betrachtet wird hier die Zerlegung einer periodischen Funktion f (t) mit der Periode T, d.h. f (t + m T ) = f (t) ∀m ∈ Z, in eine reelle Fourier-Reihe ∞ f (t) = mit der Kreisfrequenz ω= a0 ∑ + {an cos(nωt) + bn sin(nωt)} 2 n=1 2π T . Diese Zerlegung ist möglich, und die Fourier-Koezienten an = bn = 2 T 2 T ∫ an und bn sind gegeben durch T f (t) cos(nωt)dt n = 0, 1, 2, 3, . . . f (t) sin(nωt)dt n = 1, 2, 3, . . . 0 ∫ T 0 36 (6.1) Für die Berechnung der Fourier-Koezienten sind die so genannten ten der trigonometrischen Funktion von Bedeutung: ∫ Orthogonalitätseigenschaf- T cos(nωt) dt = 0 ∀n ∈ N, n ̸= 0 0 ∫ T sin(nωt) dt = 0 0 ∫ T cos(nωt) sin(mωt) dt = 0 ∀ n, m ∈ N 0 für n ̸= m, n, m ∈ N cos(nωt) cos(mωt) dt = T für n = m 2 0 für n ̸= m, n, m ∈ N sin(nωt) sin(mωt) dt = T für n = m 2 0 ∫ T 0 ∫ T 0 Symmetriebetrachtung: Auswirkung von Symmetrieeigenschaften der Funktion i) ii) f (t) = f (−t) bn = 0 ∫ 2 T an = f (t) cos(nωt) dt T 0 f (t) = −f (−t) an = 0 bn = 2 T ∫ f (t) auf ihre Fourierkoezienten: (f ist gerade, Symmetrie zur y-Achse) (kein Sinus-Anteil) (f ist ungerade, Symmetrie zum Ursprung) (kein Kosinus-Anteil) T f (t) sin(nωt) dt 0 6.2 Die Fourier-Reihe in komplexer Schreibweise Ausgehend von der reellen Fourier-Reihe Gleichung f (t) = ∞ ∑ a0 + {an cos(nωt) + bn sin(nωt)} 2 m=1 und der Eulerschen Formel ejωt = cos(ωt) + j sin(ωt) bzw. ) 1 ( jωt e + e−jωt 2 ) 1 ( jωt sin(ωt) = e − e−jωt 2j cos(ωt) = 37 erhält man die Fourier-Reihe in komplexer Schreibweise: ∞ f (t) = a0 ∑ + {an cos(nωt) + bn sin(nωt)} 2 n=1 ∞ = = a0 ∑ + 2 n=1 { ( ) ( ) 1 1 an ejnωt + e−jnωt + bn ejnωt − e−jnωt 2 2j ∞ ∑ a0 1 1 + (an − jbn ) ejnωt + (an + jbn ) e−jnωt 2 2 {z } |2 {z } n=1 | c∗ n cn = } ∞ ∑ { } a0 + cn ejnωt + c∗n e−jnωt ; 2 n=1 cn ∈ C cn : Berechnung der Koezienten 1 (an − jbn ) 2 { ∫ } ∫ 1 2 T 2 T = f (t) cos(nωt)dt − j f (t) sin(nωt)dt 2 T 0 T 0 cn = = = c∗n 1 T 1 T 1 = T c0 = ∫ T f (t) {cos(nωt) − j sin(nωt)} dt 0 ∫ T f (t) e−jnωt dt 0 ∫ T f (t) e+jnωt dt 0 ∫ a0 1 = 2 T T f (t)dt 0 Für eine reelle Funktion f (t) haben die komplexen Fourier-Koezienten c∗n , insbesondere c0 ∈ R. Es ist also c∗n f (t) Die komplexe Schreibweise von ∞ ∑ f (t) = cn e 1 = T jnωt ∫ n=−∞ die Eigenschaft c−n = T f (t)e+jnωt dt = c−n 0 lautet dann: mit cn 1 cn = T ∫ T f (t) e−jnωt dt, n ∈ Z, cn ∈ C 0 Der Zusammenhang zu den reellen Fourierkoezienten ist gegeben durch: 1 1 (ak − jbk ) , c−k = c∗k = (ak + jbk ) 2 2 ak = 2 Re(ck ) bk = −2 Im(ck ). ck = bzw. Bemerkung: 1. Die Beziehung: 1 2π ∫ 2π ej(n−k)x dx = 0 1 T ∫ T ej(n−k)ωt dt = δkn 0 ersetzt die Orthogonalitätsrelationen der trigonometrischen Funktionen. 2. Die komplexe Fourierreihe ist meist einfacher zu berechnen (weniger und einfachere Integrale) als die reelle Fourierreihe. 38 Kapitel 7 Grundlagen zum Thema Eigenwerte und Eigenvektoren Bei der Behandlung der Eigenwerte und Eigenvektoren im kommenden Semester werden eine Reihe von Begrien und Zusammenhängen angesprochen, die sich mit Grundkenntnissen über die wichtigsten algebraischen Strukturen Gruppen, Körper und Vektorräume und über grundlegende Eigenschaften linearer Abbildungen einfacher erschlieÿen lassen. Daneben sind die im ersten Semester vermittelten Kenntnisse über lineare Gleichungssysteme eine notwendige Voraussetzung zum Verständnis des Themas. Im Folgenden werden daher zunächst Grundbegrie algebraischer Strukturen erläutert. Es folgt eine gerate Zusammenfassung der im ersten Semester behandelten linearen Gleichungssysteme. Abschlieÿend wird in das Thema "lineare Abbildungenëingeführt und ein kurzer Einblick in den bevorstehenden, mit Eigenwerten und Eigenvektoren zusammenhängenden Themenbereich gegeben. 7.1 Algebraische Strukturen 7.1.1 Grundbegrie Im historischen Umgang mit algebraische Strukturen traten in ganz unterschiedlichen Bereichen der Mathematik Gemeinsamkeiten, ähnliche Eigenschaften oder verwandte Merkmale auf. Die Algebra untersucht diese Verhältnisse allgemein und abstrahiert von der besonderen Beschaenheit einzelner Objekte auf gemeingültige Aussagen. Dadurch lassen sich die Strukturen klassizieren und die gegenseitigen Beziehungen auf einfache Weise beschreiben. Menge und auf dieser Menge denierten Verknüpfungen. Eine Menge mit zwei Verknüpfungen etwa wird notiert als (M ; ⊕, ⊙). Die Menge kann Eine algebraische Struktur besteht aus einer aus Zahlen, Vektoren, Funktionen, Matrizen uvm. bestehen. Als Verknüpfungen kommen die geläugen Operationen Addition, Subtraktion, Multiplikation und Division, aber auch andere wie geometrische oder logische Operationen in Frage. Jede Verknüpfung beschreibt eine Abbildung. Bei den in der Algebra besonders häug vorkommenden zwei stelligen (binären) Verknüpfungen handelt es sich um eine Abbildung f : A×B → C , bei der jedem geordneten Paar f (a, b) = c ein Element Sind die Mengen c∈C A und B (a, b) von Elementen a∈A und b∈B als den zwei Operanden mit als das Resultat der Verknüpfung zugeordnet wird. gleich, wird die Verknüpfung auch Addition oder Multiplikation in R); innere Verknüpfung genannt (z.B. äuÿeren Verknüpfung andernfalls spricht man von einer (z.B. Produkt von Skalar und Vektor, λ ∈ R , ⃗ v ∈ R3 , λ · ⃗v ∈ R3 , oder das Skalarprodukt zweier 3 Vektoren u, v ∈ R , u · v ∈ R). Algebraischen Strukturen lassen sich nach Art ihrer Verknüpfung hierarchisch klassizieren in: 1.) Strukturen mit einer inneren Verknüpfung: Gruppen und ähnliche 39 zwei inneren Verknüpfungen: Ringe, Körper und ähnliche Strukturen mit innerer und äuÿerer Verknüpfung: Vektorräume und ähnliche 2.) Strukturen mit 3.) Gruppen: Eine Gruppe besteht aus einer Menge G und einer 1.) Zu zweistelligen inneren Verknüpfung Abgeschlossenheit Assoziativität ◦, in der für alle a, b, c ∈ G auf dieser Menge denierten folgende Axiome erfüllt sind: a◦b∈G (a ◦ b) ◦ c = a ◦ (b ◦ c) : : Existenz eines neutralen Elementes Existenz eines inversen Elementes e∈G: a◦e=e◦a=a −1 ∀a∈G:∃a a ◦ a−1 = a−1 ◦ a = e ∈G: Gilt zusätzlich die Kommutativität a ◦ b = b ◦ a, so nennt man die Gruppe eine abelsche Gruppe. Beispiele für abelsche Gruppen sind (Z, +), (R, +) und (R \ {0}, ·). Weitere Informationen zu Gruppen nden sich im Anhang ??, Seite ??. 2.) Zu Körper: Ein Körper besteht aus einer Menge und zwei auf dieser Menge denierten inne- ren Verknüpfungen, die gewöhnlich als Addition und Multiplikation geschrieben werden Dabei bilden (K, +) und (K, ·) (K, +, ·). jeweils abelsche Gruppen, und zwischen den beiden Verknüpfungen gilt das Distributivgesetz, die Nullteilerfreiheit und die Verschiedenheit der neutralen Elemente bezüglich Addition (0) und Multiplikation (1) (siehe Anhang Die wichtigsten Körper sind die rationalen Zahlen len C Zu 3.) ??, Seite ??). Q, die reellen Zahlen R und die komplexen Zah- mit Addition und Multiplikation als inneren Verknüpfungen. Vektorraum: Die in dieser Hierarchieklasse aufgeführten algebraische Strukturen weisen neben den beiden inneren noch eine äuÿere Verknüpfung auf. Ein fundamentaler Vertreter dieser Klasse ist der Vektorraum. 7.1.2 Vektorraum Ein Vektorraum (auch linearer Raum genannt) besteht aus ◃ einer additiv geschriebenen abelschen Gruppe ◃ einem Körper ◃ einer äuÿeren Multiplikation K = (K, +, ·) V = (V, +) von "Vektoren", von ßkalarenünd K×V →V, (k, v) mit k ∈ K und v ∈ V einen Vektor kv ∈ V K × V sowohl das Assoziativgesetz die jedem geordneten Paar die äuÿere Multiplikation zuordnet. Dabei erfüllt r (s v) = (r s) v als auch das Distributivgesetz mit austauschbarer Links- und Rechtsmultiplikation (r + s) v = rv + sv und r (v + w) = rv + rw ∀ r, s ∈ K und ∀ v, w ∈ V Die Vektoren als Elemente des Vektorraumes können addiert oder mit Skalaren multipliziert werden. Das Ergebnis ist wieder ein Vektor desselben Vektorraumes. Ist K=R , so spricht man von einem komplexen Vektorraum. reellen Vektorraum; ist K = C , so spricht man von einem Basis, Dimension Die minimale Menge von Vektoren, mit denen durch Linearkombination alle Vektoren des Vektor- Basis des Vektorraumes. Die Dimension des Vektorraumes entspricht der Anzahl der Basisvektoren und damit der Anzahl der raumes darzustellen sind (die den Vektorraum äufspannen"), heiÿt maximal möglichen linear unabhängigen Vektoren des Vektorraumes. Ist in dem Vektorraum ein Skalarprodukt (vgl. folgenden Abschnitt) deniert und stehen die Basisvektoren senkrecht aufeinander, so spricht man von einer die Länge 1, von einer Orthonormalbasis. 40 Orthogonalbasis; haben sie zudem Beispiele für Vektorräumen ◃ Einspaltige bzw. einzeilige reelle Matrizen vom Typ (n, 1) bzw. (1, n) bilden bezüglich der Matrizenaddition und der äuÿeren Multiplikation mit einer reellen Zahl einen reellen Vektorn raum R (Vektorraum der Spalten- bzw. Zeilenvektoren). ◃ Alle auf einem Intervall [a, b] stetigen reellen Funktionen bilden mit den durch (f + g)(x) = f (x) + g(x) (kf )(x) = k · f (x) und denierten Operationen einen reellen Vektorraum. ◃ ∑n k k=0 ak x , n ∈ N, ak ∈ Körper K, bilden mit der üblichen Addition und der Multiplikation mit einem Element des Körpers einen Vektorraum. Für Polynome Die Polynome des Grades N Pn (x) = hat der resultierende Vektorraum die Dimension Menge aller Polynome vom Grad 2 3 4 die Monome {1, x, x , x , x }. N ≤4 N + 1. Beispielsweise ist die ein Vektorraum der Dimension 5. Eine Basis bilden Untervektorraum Ein Untervektorraum oder linearer Unterraum ist eine Teilmenge eines Vektorraumes, die selbst wieder ein Vektorraum über demselben Körper ist. Dabei werden die Vektorraumoperationen auf den Untervektorraum "vererbt". Beispielsweise bildet die Menge aller Funktionen f :R→R einen Vektorraum; ein Untervektor- raum hierzu ist etwa die Menge aller Funktionen mit der Periode T. Ein Vektorraum mit den bis hierhin beschriebenen Eigenschaften erlaubt zwar algebraische Aussagen, aber noch keine über Topologie oder Geometrie wie Längen, Abstände und Winkel. Hierzu muss über dem Vektorraum noch ein Skalarprodukt deniert werden. 7.1.3 Skalarprodukt Das Skalarprodukt ist eine Abbildung Skalar ⟨u | v⟩ ∈ R s : V × V → R, die zwei Vektoren u, v ∈ V eine Zahl, einen zuordnet. Ein Skalarprodukt wurde bereits im ersten Semester als Gegenstand der analytischen Geometrie 3 im R eingeführt. Mit ihm ist es möglich, für gegebene Vektoren ⃗ u, ⃗v ∈ R3 mit den Längen |u| und |v| den Winkel zwischen ⃗u und ⃗v zu berechnen. In der linearen Algebra wird dieses Konzept verallgemeinert. Räume, über denen Skalarprodukte deniert sind, werden als nern den euklidischen Skalarprodukträume oder Innenprodukträume bezeichnet; sie verallgemei- Raum und ermöglichen damit die Anwendung geometrischer Methoden auf abstrakten Strukturen. euklidisches Skalarprodukt Für die Vektoren u, v ∈ Rn ist das euklidische Skalarprodukt (auch Standard- oder kanonisches Skalarprodukt) gegeben durch ⟨u | v⟩ = n ∑ uk vk = u1 v1 + u2 v2 + · · · + un vn k=1 Das euklidische Skalarprodukt hat für alle Symmetrie u, v ∈ Rn α, β ∈ R die Eigenschaften: ⟨u | v⟩ = ⟨v | u⟩ : Bilinearität und : Positive Denitheit : ⟨αu1 + βu2 | v⟩ = α⟨u1 | v⟩ + β⟨u2 | v⟩ ⟨u | αv1 + βv2 ⟩ = α⟨u | v1 ⟩ + β⟨u | v2 ⟩ ⟨v | v⟩ ≥ 0 ⟨v | v⟩ = 0 ⇐⇒ v = 0 41 Im Fall des n-dimensionalen komplexen Vektorraums n für u, v ∈ C durch: ⟨u | v⟩ = n ∑ Cn deniert man das Standardskalarprodukt uk vk = u1 v1 + u2 v2 + · · · + un vn , k=1 wobei der Überstrich die komplexe Konjugation bedeutet. Häug ist auch die alternative Version gebräuchlich, bei der das zweite Argument statt des ersten konjugiert wird. allgemeines Skalarprodukt Das allgemeine Skalarprodukt auf einem R-Vektorraum ist eine symmetrische, bilineare und V × V → R, positiv denite Abbildung Skalar ⟨u | v⟩ ∈ R die einem Paar von Vektoren (u, v) mit u, v ∈ V einen zuweist. komplexen Vektorraum werden die Begrie sesquilinear und symmetrisch durch hermitesch ersetzt (zur mathematische Formulierung: siehe Anhang ??, Seite ??). Bei einem allgemeinen Skalarprodukt auf einem bilinear durch Mit dem Skalarprodukt lassen sich geometrische Begrie auch in abstrakten Räumen fassen: Orthogonalität: Vektoren u, v ∈ V stehen senkrecht, wenn ⟨u | v⟩ = 0 √ ◦ Norm: die Länge eines Vektors v ∈ V ist ∥v∥ = ⟨v | v⟩ ◦ Cauchy-Schwarz-Ungleichung: |⟨u | v⟩| ≤ ∥v∥ · ∥v∥ ◦ Metrik: Der Abstand zweier Vektoren u, v ist ∥u − v∥ ◦ Konvergenz: vn → v ist deniert durch ∥vn − v∥ → 0 Ein endlichdimensionaler reeller Vektorraum mit Skalarprodukt wird auch euklidischer Vektorraum genannt, im komplexen Fall spricht man von einem unitären Vektorraum. ◦ 7.1.4 Euklidischer Raum Rn Der euklidische Raum Rn wird erzeugt durch die kanonischen Basisvektoren 1 0 0 0 1 0 e1 = 0 , e2 = 0 , · · · , en = 0 . . . . . . . . . 0 0 1 Jeder Vektor des Raumes kann eindeutig als endliche Linearkombination dieser Basisvektoren dargestellt werden. Die Koezienten dieser Linearkombination heiÿen die Koordinaten des Vektors bezüglich dieser Basis. Die kanonischen Basisvektoren Rn ⟨ek | el ⟩ = δk,l sind orthonormal bezüglich des euklidischen Skalarproduktes: 0 = 1 für k ̸= l Orthogonalität, für k =l Normierung auf Länge 1 Jeder Vektor u lässt sich nach Basisvektoren entwickeln: u1 u2 n ∑ u = u3 = u k ek . . k=1 . un 42 Berechnung der Koezienten uk : n ∑ | u⟩ = u l | el ⟩ ⟨ek | · l=1 ⟨ek | u⟩ = n ∑ l=1 Bezogen auf eine Orthonormalbasis ul ⟨ek | el ⟩ = uk , | {z } uk = ⟨ek | u⟩ δk,l B = {b1 , · · · , bn } lassen sich die Komponenten eines Vektors v bezüglich dieser Basis leicht als Orthogonalprojektionen berechnen: v = v1 b1 + · · · + vn bn = n ∑ vi b i = i=1 n ∑ ⟨bi | v⟩bi i=1 Beispiel: Die zwei Vektoren 3 5 ⃗b1 = und ⃗b2 = − 45 4 5 bilden in R2 3 5 mit dem Standardskalarprodukt ein Orthonormalsystem und damit auch eine OrthoR2 . Zur Koordinatendarstellung des Vektors normalbasis von 2 ⃗v = 7 bezüglich dieser Orthonormalbasis lassen sich die Koezienten berechnen mit 3 4 34 ⟨⃗b1 | ⃗v ⟩ = · 2 + · 7 = 5 5 5 4 3 13 ⟨⃗b2 | ⃗v ⟩ = − · 2 + · 7 = 5 5 5 ⃗v = 13 ⃗ 34 ⃗ b1 + b2 5 5 Probe: und und damit 3 5 34 13 + 5 5 − 54 4 5 3 5 2 = 7 Norm, Winkel, Abstand Die Länge oder Norm eines Vektors ist gegeben durch die Quadratwurzel aus dem Skalarprodukt mit sich selbst: |u| = Man nennt diese Norm auch Der euklidische Norm. Winkel zwischen zwei Vektoren u und v berechnet sich dann durch cos ∠(u, v) = Fasst man die Elemente des v √ √ u · u = u21 + u22 + · · · + u2n u·v u1 v1 + u2 v2 + · · · + un vn √ =√ 2 |u| · |v| u1 + u22 + · · · + u2n · v12 + v22 + · · · + vn2 Rn als Punkte auf, so ist der als die Länge des Verbindungsvektors d(u, v) = |v − u| = v−u Abstand zwischen den Punkten u und deniert: √ √ (v − u) · (v − u) = (v1 − u1 )2 + (v2 − u2 )2 + · · · + (vn − un )2 43 7.2 Lineare Gleichungssysteme Ein Lineares Gleichungssystem (LGS) hat die uns bekannte Form a1,1 x1 + a1,2 x2 + a1,3 x3 + · · · + a1,n xn = c1 a2,1 x1 + a2,2 x2 + a2,3 x3 + · · · + a2,n xn = c2 . . . . = .. am,1 x1 + am,2 x2 + am,3 x3 + · · · + am,n xn = cm Dabei bilden die Koezienten mit m Gleichungen und n ai,k ∈ R, die Werte ci ∈ R und die Variablen Unbekannten, oder auch kurz ein (m, n) xi ∈ R ein System - System. 7.2.1 Matrizen Grundbegrie Der Umgang mit einem solchen LGS gestaltet sich erheblich einfacher, wenn man die Koezienten m·n in ein rechteckiges Zahlenschema aus Zahlen und in Zeilen und Die Vektoren a11 . . . ,··· , a1k ··· a22 a23 ··· a2k ··· . . . . . . ai2 ai3 . . . . . . am2 am3 (m, n) - Matrix über R. Die Koezienten können auch aus . . . ··· ··· aik . . . · · · amk ··· A wird auch als jeder Zeile konstant) und j a1n a2n . . . ain . . . amn C. a1n . . . am1 amn (a11 , · · · , a1n ), · · · , (am1 . · · · , amn ) Die Matrix ··· komplexen Zahlen bestehen; sie bilden dann eine Matrix über Spalten angeordnet: a13 a 21 . . . A= ai1 . .. am1 n a12 a11 Dieses Zahlenschema nennt man eine m (aij ) heiÿen heiÿen Spaltenvektoren von A; Zeilenvektoren von A. geschrieben. Dabei bildet i den Zeilenindex (bleibt innerhalb den Spaltenindex (innerhalb jeder Spalte konstant). Matrizen spezieller Gestalt Transponierte Matrix: Ausgehend Matrix B = (bij ) mit Reihen der Matrix A. Es gilt (AT )T = A. von einer (m, n)-Matrix A = (aij ) ergibt sich bij = aki , i = 1, · · · , n, j = 1, · · · , m durch Vertauschung von T Man schreibt B = A und nennt B die transponierte Matrix zu Ist A quadratisch, so erhält man AT die (n, m)- Zeilen und A. durch Spiegelung der Elemente an der Hauptdiagonalen. Quadratische Matrizen: mit m ̸= n Eine (n, n)-Matrix heiÿt quadratisch. Dagegen sind (m, n)-Matrizen nichtquadratisch. Mit Blick auf die vorzubereitende Thematik der Eigenwerte und -vektoren werden im folgenden ausschlieÿlich quadratische Matrizen behandelt. 44 Spezielle quadratische Matrizen A = (aik ) a) eine b) eine sei eine n-reihige quadratische Matrix. A heiÿt Diagonalmatrix, wenn aik = 0 ∀ i ̸= k Einheitsmatrix, wenn aik = δik ∀ i, k , d.h. c) eine obere (untere) d) { 0 i ̸= k Dreiecksmatrix, wenn aik = 0 für i > k (i < k) symmetrisch, wenn aik = aki ∀ i, k ist. Ist A symmetrisch ⇒ A = AT 3 T 6 =A 5 1 2 A= 2 4 3 6 e) 1 i=k schiefsymmetrisch, wenn aik = −aki ∀ i, k. Ist A schiefsymmetrisch aber: ⇒ aii = 0 , AT = −A 0 1 2 T A= −1 0 3 = −A −2 −3 0 1 1 A= −1 2 3 ist −2 −3 1 1 nicht schiefsymmetrisch (Hauptdiagonale ̸= 0) Symmetrische und schiefsymmetrische Matrizen mit reellen Koezienten bzw. hermitesche Matrizen mit komplexen Koezienten spielen im Zusammenhang mit Eigenwerten und Eigenvektoren eine besondere Rolle. Der Begri hermitesch ist das komplexe Analogon für die Symmetrie im Reellen (vgl. Abschnitt 7.1.3, Seite 41). Eine Matrix A ist hermitesch, wenn gilt: T A = A = A∗ Dabei ist A∗ die konjugierte Transponierte von A, d.h. nach dem Transponieren wird die Matrix noch konjugiert (vgl. Skalarmultiplikation im Komplexen, dort Konjugation des ersten [oder zweiten] Argumentes). Eine konjugierte Transponierte heiÿt Adjunkte. Beispiele: ( A= ( B= 1 −i 0 1+i ) ( ∗ A = 1 2 − 4i 2 + 4i 2 ) ) 1 0 i 1−i = B∗ → B A ̸= A∗ ist hermitesch Eine komplexe Matrix lässt sich in ihren Real- und Imaginärteil trennen. Bei hermiteschen Matrizen ist dabei der Realteil symmetrisch und der Imaginärteil schiefsymmetrisch. 1 0 i C= 0 1 1 = −i 1 0 1 0 0 0 1 1 0 1 0 {z } | Realteil, symmetrisch 0 0 i 0 0 0 −i 0 0 {z } | + Imaginärteil, schiefsymmetrisch 45 → C ist hermitesch Rechenoperatoren für Matrizen Die für Matrizen denierte Addition und Subtraktion ist schon anhand der gegebenen Beispiele evident. Für die Skalarmultiplikation einer (m,n)-Matrix C = (cik ) = λ A; A = (aik ) mit einem Skalar λ ∈ R gilt: ∀ i = 1, . . . , m, k = 1, . . . , n cik = λ aik Die Multiplikation einer (m,l)-Matrix A = (aik ) mit einer (l,n)-Matrix B = (bjk )erfolgt nach der Regel: C = A B = (cik ); cik = l ∑ aij bjk für i = 1, . . . , m, j, k = 1, . . . , n. j=1 Das Produkt C = AB ist nur deniert, wenn die Anzahl der Spalten von A mit der Anzahl der Zeilen von B übereinstimmt. Die Matrixmultiplikation ist i.a. nicht kommutativ, d.h. i.a. gilt A B ̸= B A Eine schematische Darstellung der Matrixmultiplikation, bei der also zeilenweise die Zeilenvektoren von A mit den Spaltenvektoren von B im Sinne eines Skalarprodukts multipliziert werden, zeigt das Falk'sche Schema: b11 . . . b1k . . . b1n B(l,n) = A(m,l) a a12 11 . .. . . . = ai1 ai2 . . . . . . am1 am2 b 21 . .. bl1 . . . a1l c 11 . . . . . . . . . ail → . . . . . . . . . aml c1m | . . . b2k . . . b2n . . . . . . . . . blk . . . bln . . . ↓ . . . c1n . . ↓ . → cik . . . . . . . . . . . . cmn {z } C(m,n) Die Inverse einer Matrix A sei eine quadratische, n-reihige Matrix. B ist die inverse Matrix von A (Inverse von A), wenn gilt A B = B A = E, Falls A eine inverse Matrix besitzt, heiÿt A B = A−1 regulär, sonst singulär. Auf Verfahren zur Berechnung der Inversen und Rechenregeln für inverse Matrizen soll in diesem Zusammenhang nicht weiter eingegangen werden. Wichtig ist lediglich der Zusammenhang zwischen Existenz der Inversen einer Matrix und dem Wert ihrer Determinanten. 7.2.2 Determinanten Grundbegrie Die Determinante ist eine spezielle Funktion, die einer quadratischen Matrix D ∈R zuordnet. Im Fall einer (2,2)-Matrix A = (aik ) heiÿt die reelle Zahl a D = |A| = det A = 11 a21 a12 = a11 a22 − a12 a21 a22 46 A = (aik) einen Skalar die Determinante von A. Die Inverse von A existiert, wenn Bei einer (3,3)-Matrix D A = (aik ) a11 a 21 a31 = ist die Determinante von a12 a22 a32 A ist. gegeben durch die reelle Zahl a (a a − a23 a32 )− a13 11 22 33 a23 = −a12 (a21 a33 − a23 a31 )+ a33 +a13 (a21 a32 − a22 a31 ) a11 |U11 | − a12 |U12 | + a13 |U13 | = = D = a11 a22 − a12 a21 ̸= 0 3 ∑ (−1)1+k a1k |U1k | k=1 a21 a22 a21 a23 a22 a23 |U11 | = , |U13 | = , |U12 | = a31 a32 a31 a33 a32 a33 mit: Dreireihige Determinanten (und nur diese !!!) kann man auch nach der so genannten Regel von Sarrus berechnen: a11 D = a21 a31 a12 ↘ a13 ↘ a22 ↗ a23 ↗ a32 a33 a11 ↘ a21 ↗ a31 a12 ↗ a22 ↘ a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a23 − (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 ) In Verallgemeinerung des Determinantenbegris auf (n,n)-Matrizen ist die Determinante der (n,n)Matrix A = (aik ) die Zahl a11 D = |A| = det A = ... a n1 Der Term Element (−1)1+k |U1k | = A1k ··· ··· a1n n ∑ = (−1)1+k a1k |U1k | k=1 ann heiÿt die Adjunkte oder das algebraische Komplement von a1k . Beispiel: 3 −4 |A| = 2 4 1 0 2 1 1 0 0 2 4 4 4 ∑ 6 ∑ = a A = (−1)1+k a1k |U1k | 1k 1k 3 k=1 k=1 −1 = a11 |U11 | − a12 |U12 | + a13 |U13 | − a14 |U14 | 2 1 6 −4 1 6 −4 2 1 = 3 1 0 3 − 1 2 0 3 + 0 − 4 2 1 0 0 2 −1 4 2 −1 4 0 2 = 3 · 1 − 1 · 62 − 4 · (−20) = 21 47 A zum Die Entwicklung nach der ersten Zeile wird durch den Laplace'schen Entwicklungssatz (siehe Vorlesung) auf die Entwicklung nach beliebigen Zeilen oder Spalten verallgemeinert. Im obigen Beispiel ergibt die Entwicklung nach der 3. Spalte (2 Nullen): 3 1 2+3 A = (−1) 1 2 1 4 0 4 4+3 2 3 + (−1) −1 3 1 4 −4 2 6 2 1 3 3 1 4 3 1 2 1 3 2 1 = −3 + 12 − 16 + 2 = −5 4 0 −1 4 0 3 1 4 −4 2 6 2 1 3 3 1 −4 2 = −18 + 12 − 16 − 16 − 18 + 12 = −8 2 1 A = (−1) (−5) − 2 (−8) = 5 + 16 = 21. Eigenschaften, Rechenregeln Die Determinante einer Matrix und der transponierten Matrix sind gleich: |AT | = |A| Die Determinante einer Dreiecksmatrix ergibt sich aus dem Produkt der Elemente auf der Haupt∏n diagonalen: det A = a11 a22 · · · ann = i=1 aii . Für n-reihige Determinanten gelten folgende Rechenregeln: 1. Beim Vertauschen zweier Spalten oder zweier Zeilen (müssen nicht benachbart sein!) ändert die Determinante ihr Vorzeichen. 2. Multipliziert man alle Elemente einer Zeile oder einer Spalte mit einem Faktor multipliziert sich die Determinante mit λ ∈ R, so λ. 3. Addiert man zu allen Elementen einer Zeile oder Spalte von chenden Elemente einer anderen Zeile oder Spalte von A, A ein λ- faches der entspre- so ändert dies die Determinante nicht. 4. Die Determinante von A verschwindet, det A =0 falls eine der folgenden Aussagen gilt: a) Zwei Zeilen (Spalten) von A sind gleich. b) Alle Elemente einer Zeile (Spalte) sind Null. c) Eine Zeile (Spalte) von A ist die Summe von Vielfachen anderer Zeilen (Spalten.) Für das Produkt der Determinanten zweier (n,n)-Matrizen A und B gilt: |A B| = |A| |B| Eine (n,n)-Matrix A ist genau dann regulär, wenn A regulär Ist A regulär, so ist die Inverse von A ⇔ |A| ̸= 0 ist. det(A) ̸= 0 gegeben durch A−1 = 1 Aadj . |A| Determinanten können neben der Prüfung, ob eine Matrix A ∈ Rn × n invertierbar ist, der Beur- teilung des Lösungsverhaltens und Berechnung der Lösung eines LGS (Cramer'sche Regel, siehe Vorlesung) auch zur Volumenberechnung verwendet werden: |det(A)| ist das Volumen des von den 2 3 Spaltenvektoren aufgespannten Parallelepipeds (R : Parallelogrammäche, R : Spatvolumen). 48 Rang einer Matrix Für das Lösungsverhalten linearer Gleichungssysteme ist neben dem Wert der Determinante der Rang der Koezientenmatrix von Bedeutung. Eine Determinante ist nur für quadratische Matrizen bestimmt. Bei (m, n)-Matrizen (m ̸= n) kann man durch Streichen von Spalten oder Zeilen quadratische Matrizen erzeugen, deren Determinanten man Unterdeterminanten der Der (m, n)-Matrix nennt. Rang r einer (m, n)-Matrix A bezeichnet die höchste Ordnung aller von Null verschiedenen Unterdeterminanten von A: Rg(A) = r Dabei gilt: 1. r ≤ min(m, n) Rg(A) ≤ n 2. Für n-reihige quadratische Matrizen: i) A regulär ⇒ |A| ̸= 0 ⇒ r = n ii) A singulär ⇒ |A| = 0 ⇒ r < n Der Rang einer Matrix kann durch Umformungen der Matrix bestimmt werden. Umformungen, die den Rang einer Matrix nicht verändern, sind: 1. Vertauschen zweier Zeilen (Spalten). 2. Addition von vielfachen einer Zeile (Spalte) zu einer anderen Zeile (Spalte). Mit Hilfe dieser Umformungen lässt sich eine (m, n)-Matrix A, A= a11 ··· a1n . . . am1 . . . ··· , amn umformen auf die Gestalt B= b11 b12 0 b22 . . . 0 . . . . . . 0 ... ... 0 ... ... 1. B B .. . . . . | 0 ... r Die Matrix ... {z ... Spalten b1r b1,r+1 . . . . . . . . . . . . . . . . . . brr br,r+1 . . . 0 0 ... . . . . . . 0 0 ... } | {z n−r b1n . . . brn r Zeilen . . . brn 0 . . m−r . 0 Zeilen } Spalten hat folgende Eigenschaften: hat den gleichen Rang wie 2. die letzten 3. die ersten m−r r Zeilen von A. B sind gleich Null. Hauptdiagonalelemente der oberen bii ̸= 0 für 49 (r, r) - Dreiecksmatrix sind ungleich Null, i = 1, . . . , r 4. Der Rang von B ist gleich r, da die Determinante obiger Teil-Dreiecksmatrix gegeben ist durch b11 . . . 0 b1r r ∏ . . = bii ̸= 0 . i=1 brr ··· .. . ··· Beispiel: 1 A= 2 −1 −5 7 −8 7 0 11 21 0 A→ 0 −5 1 2 7 0 3 6 21 1 3 → 0 1 Gesucht: Rang von A(3,4) . 3 1 det 3 0 −5 0 0 ⇒ Rg(A) = 2 0 0 0 0 1 3 U = 1 ̸= 0 wobei U = ist. 0 1 2 7.2.3 Lösungsstruktur eines LGS Allgemeines Ein lineares Gleichungssystemvon m Gleichungen für n Unbekannte in der Form a11 x1 + a12 x2 + a13 x3 + . . . + a1n xn = c1 a21 x1 + a22 x2 + a23 x3 + . . . + a2n xn = c2 . . . . . . . . . + ... + . . . = . . . am1 x1 + am2 x2 + am3 x3 + . . . + amn xn = cm kann mit Hilfe der Matrizenmultiplikation in die Form a11 a 21 . .. am1 | a12 ··· a22 ··· . . . . . . am2 · · · {z a1n a2n . . . amn } M atrixA x1 c1 Vektor x Vektor c x c 2 2 . = . .. .. xn cm | {z } | {z } und damit in die Kurzform A ⃗x = ⃗c überführt werden. Dabei sind die Variablen x1 , x2 . . . , xn und die Werte der rechten Seite c1 , c2 , . . . , cm aik in einer Matrix, der Koezientenmatrix, zu- jeweils in Spaltenvektoren, die Koezienten sammengefasst. Nach den für Matrizen festgelegten Rechenoperationen (Abschnitt 7.2.1, Seite 46) ergeben sich mit ci = n ∑ aij xj , j=1 50 i = 1, · · · , m (7.1) in der Tat die ci -Werte der rechten Seite des homogen, wenn ⃗ c=0 Das LGS heiÿt Für m=n inhomogen, wenn LGS. ⃗c ̸= 0 erhält man den wichtigen Sonderfall eines quadratischen LGS ((n, n)-System). Bei der Lösung des LGS spielt die so genannte (A|⃗c) = a11 erweiterte Koezientenmatrix ··· a1n c1 . . . . . . amn cm . . . am1 ··· eine groÿe Rolle; sie enthält neben den Koezienten auch den Vektor ⃗c = (c1 , . . . , cm )T der rechten Seiten des LGS. Die Überführung der erweiterten Koezientenmatrix mittels des Gauÿ'schen Algorithmus in eine obere Dreiecksmatrix liefert die Form a∗11 0 . .. ∗ ∗ (A |⃗c ) = 0 0 . . . a∗12 . . . a∗1r a∗1,r+1 ... a∗22 . . . a∗2r a∗2,r+1 ... .. . .. . . . . . . . . . ... 0 a∗rr a∗r,r+1 ... 0 0 ... . . . . . . 0 0 ... 0 ... . ... a∗1n c∗1 a∗2n c∗2 . . . . . . ∗ ∗ arn cr 0 c∗r+1 . .. . . . ∗ c 0 m c∗r+1 , . . . , c∗m gleich Null Koezientenmatrix (A|⃗ c) den gleichen Rang Dieses System besitzt oenbar nur eine Lösung, falls die rechten Seiten sind, wenn also Koezientenmatrix A und erweiterte haben. Bedingung für die Lösbarkeit eines inhomogenen LGS ist also Rg(A) = Rg ((A|⃗c)) Lösungsverhalten eines linearen (n,n)-Systems Für ein quadratisches inhomogenes (n, n)-System mit der erweiterten Koezientenmatrix (A | ⃗c) = a11 . . . an1 a1n c1 . . . . . . . . . ann cn ... Typ(n, n + 1) lassen sich die für (m,n)-Systeme getroenen Feststellungen hinsichtlich Lösbarkeit und Lösungen wie folgt übertragen: a) Das System A ⃗x = ⃗c ist genau dann lösbar, falls b) das System besitzt genau eine Lösung, falls c) gilt Rg(A) = Rg(A, ⃗c) Rg(A) = n, ist. also A regulär ist. Rg(A) = r < n, ist also A singulär, besitzt das System unendlich viele (n−r)-parametrige Lösungen. Die Lösungsstruktur ist in nachstehender Abbildung schematisch dargestellt. 51 keine Lösung Rg(A) <> Rg((A|c)) Lineares (n,n) System Ax=c eindeutige Lösung r=n A ist regulär und besitzt eine Inverse Rg(A) = Rg((A|c)) = r (n-r)-parametrige Lösungsschar r<n A ist singulär Lineares (n,n) System Ax=c.mmap - 15.11.2009 - The Mindjet Team Abbildung 7.1: Lösungsmannigfaltigkeit eines (n,n)-Systems Das im vorliegenden Zusammenhang besonders wichtige quadratische ( a1n 0 a11 . . . . = . . . . . . . . ann 0 an1 ) a11 . A | ⃗0 = .. ... an1 ist immer lösbar, da homogene (n, n)-System ... a1n . . . ... =A ann Rg(A) = Rg(A, ⃗0). Ist A regulär, so besitzt A ⃗x = ⃗0 Ist A singulär, so besitzt genau eine Lösung: die triviale Lösung A ⃗x = ⃗0 unendlich viele Lösungen, die von ⃗x = ⃗0. n−r Parametern abhängen (r = Rg(A)). 7.3 Lineare Abbildungen 7.3.1 Denition U, V zwei K-Vektorräume. u, v ∈ U und für alle λ ∈ K Es seien Eine Abbildung für alle gilt: f :U →V f (u + v) = f (u) + f (v) Homogenität Oft werden die beiden Bedingungen in eine zusammengefasst: f (λu + µv) = λf (u) + µf (v) λ, µ ∈ K und alle lineare Abbildung, wenn Additivität f (λu) = λf (u) für alle heiÿt u, v ∈ U . 52 Beispielsweise ist f :R→R mit f (x) = c · x, x ̸= 0 eine lineare Abbildung, denn f (x + y) = c(x + y) = cx + cy = f (x) + f (y) und f (rx) = c(rx) = r(cx) = rf (x) Spiegelungen am Ursprung, Drehungen um den Ursprung und zentrische Streckungen mit Streckzentrum (0, 0) sind lineare Abbildungen. Im folgenden Abschnitt wird erläutert, dass sich mit Matrizen sehr einfach auch lineare Abbildungen beschreiben lassen. 7.3.2 Matrizenschreibweise für lineare Abbildungen Wie im vorigen Abschnitt (Seite 51) erläutert, kann ein lineares Gleichungssystem in die Schreibweise eines Matrix-Vektor-Produktes a11 a 21 . .. am1 | a12 ··· a22 ··· . . . . . . am2 · · · {z a1n a2n . . . amn } M atrixA mit der Kurzform A ⃗x = ⃗c x1 c1 Vektor x Vektor c x c 2 2 . = . .. .. cm xn | {z } | {z } überführt werden. Eine solche Schreibweise ist auch zur Beschreibung linearer Abbildungen sehr nützlich: x1 x 2 Ist ⃗ x = . ∈ Kn und A eine (m × n)-Matrix .. xn n m Abbildung f : K → K geschrieben werden als f1 f 2 ⃗ f = . .. fm {z } | mit a11 a 21 = . .. am1 | A = (aij ) ∈ Km×n , a12 ··· a22 ··· . . . . . . am2 · · · {z a1n a2n . . . amn } M atrixA Bild des Vektors x so kann jede lineare x1 x 2 . .. xn | {z } Vektor x mit der Kurzform f (⃗x) = A ⃗x x1 Additivität und Homogenität sind gegeben, da für 53 y1 x y 2 2 ⃗x = . , ⃗y = . ∈ Kn .. .. xn yn und λ, µ ∈ K gilt: f (λ⃗x + µ⃗y ) = a11 (λx1 + µy1 ) + · · · + a1n (λxn + µyn ) . . . . . . am1 (λx1 + µy1 ) + · · · + amn (λxn + µyn ) a11 y1 + · · · + a1n yn a11 x1 + · · · + a1n xn . . . . + µ . . . = λ . . .. . am1 x1 + · · · + amn xn am1 y1 + · · · + amn yn = λf (⃗x) + µf (⃗y ) Für die Komponenten des Bildvektors fi = fi gilt analog zu Formel 7.1, Seite 50: n ∑ aij xj , i = 1, · · · , m j=1 Die Spalten der Matrix A sind dabei die Bilder ihrer Basisvektoren. 7.3.3 Beispiele für lineare Abbildungen in Matrizenschreibweise f : R3 → R2 mit ( ) ( ) ( ) 1 0 0 0 → 3 , 1 → 1 , 0 → 0 , 2 −4 1 0 0 1 ( ) 3 1 0 durch f (⃗ x) = ⃗x ∀⃗x ∈ R3 . 2 −4 1 a) Die lineare Abbildung wird beschrieben Z.B. für b) ( ) 2 ( ) ( ) 2 3 1 0 3 · 2 + 1 · 3 + 0 · 1 9 3 = ⃗x = = 3 → f (⃗x) = 2 −4 1 2·2−4·3+1·1 −7 1 1 Streckung ⃗x = Der Vektor ( ) x1 x2 u1 = λ x1 ∈ R2 A= c) u1 = λ x1 + 0 x2 oder ) λ 0 0 λ u2 = 0 x1 + λ x2 ∈ R2×2 P → mit dem Ortsvektor ⃗x = ( ) x1 x2 Der Punkt P gestreckt werden. ⃗u = ) u1 geht dabei über in den Bildpunkt ( = u2 bildet also den Vektor Spiegelung an der x1 -Achse in R2 Der Punkt λ∈R ( u2 = λ x2 ( Die Matrix soll um den Faktor ∈ R2 P′ ⃗x )( ) λ 0 x1 0 λ x2 ⃗u = λ ⃗x auf den Vektor soll an der x1 -Achse mit dem Ortsvektor = λ ⃗x gespiegelt werden. ⃗u = ( ) u1 . Die hierzu u2 erforderliche Transformationsmatrix lässt sich folgt herleiten: u1 = x1 u2 = −x2 oder u1 = 1x1 + 0 x2 u2 = 0 x1 − 1x2 → ( ) u1 u2 | {z } u 54 = ( 1 | 0 )( 0 ) x1 −1 x2 {z } | {z } A ab. x x1 -Achse Abbildung 7.2: Spiegelung an der d) Drehung in R2 um den Winkel Bei einer Drehung im zweidimensionalen kartesischen Koordinatensystem α gehen die Basisvektoren ⃗e1 = ( ) 1 und ⃗e2 = ( ) 0 0 ⃗e1 = ⃗e2 = ( ) 1 1 ( → 0 ( ) 0 ⃗e′1 = ( → 1 ⃗e′2 = ) cos α sin α − sin α ) cos α Abbildung 7.3: Drehung um den Winkel α lautet demnach ( ) cos α − sin α Die Matrix der Drehung um den Winkel A = sin α cos α Die Drehungen erfolgen dabei gegen den Uhrzeigersinn. e) Drehung in R3 55 α über in die Bildvektoren Die Matrix 1 0 0 Rx1 (α) = 0 cos α 0 beschreibt eine Drehung in der (Drehung um die − sin α sin α cos α x2 -x3 -Ebene; entlang der x1 -Ebene erfolgt keine Veränderung x1 -Achse). Analog lauten die Matrizen zur Drehung um die weiteren Koordinatenachsen: Rx2 (α) = cos α 0 − sin α 0 1 0 − sin α 0 cos α cos α Rx3 (α) = sin α − sin α 0 cos α 0 0 1 0 7.3.4 orthogonale und unitäre Matrizen Die in den Beispielen genannten Matrizen, die eine Spiegelung oder Drehung bewirken, haben quadratisch und 2.) ihre Spaltenvektoren sind orthonormal. Dies führt auf die wichtige Klasse der orthogonalen Matrizen, die eine Reihe nütz- zwei bemerkenswerte Gemeinsamkeiten: 1.) sie sind licher Eigenschaften aufweisen. Unter anderem lassen sich mit ihnen Rotationen und Spiegelungen beschreiben. Eine quadratische Matrix Q ∈ Rn×n orthogonale Matrix, wenn ihre Spaltenvektoren or- heiÿt thonormal sind. Q ∈ Rn×n Die folgenden Aussagen sind für orthogonale Matrizen a) Die Spaltenvektoren von Q basis bilden eine Orthonormal äquivalent: des Rn , und es gilt QT Q = Q QT = En b) Q ist invertierbar, und ihre Transponierte ist gleichzeitig ihre Inverse: QT = Q−1 c) Bei Multiplikation von Vektoren mit Q bleibt das euklidische Produkt zwischen Vektoren erhalten (Winkeltreue): ⟨Q u|Q v⟩ = ⟨u|v⟩ d) Bei Multiplikation von Vektoren mit Q bleibt die euklidische Norm erhalten (Längentreue): |Q u| = |u| Für alle orthogonalen Matriten Q ∈ Rn×n ∀ u, v ∈ Rn ∀ u ∈ Rn gilt: |det(Q)| = 1 Das komplexe Analogon zur orthogonalen Matrix ist die U ∈ Cn gilt U ∗ U = I, wobei I die Einheitsmatrix und unitäre Matrix. Für unitäre Matrizen U∗ = U T die Adjungierte von U ist. Damit gilt für die Inverse einer unitären Matrix U −1 = U ∗ Unitäre Matrizen (und damit auch orthogonale Matrizen als Spezialfall einer unitären Matrix mit fehlendem Imaginärteil) sind diagonalisierbar. Auf diese im Zusammenhang mit Eigenwerten und Eigenvektoren wichtige Eigenschaft wird in der Vorlesung eingegangen. 56 7.3.5 Drehung von Basen und Ortsvektoren In Abschnitt 7.1.4, Seite 42, wurde erläutert, dass mit einer Orthonormalbasis {v1 , · · · , vn } des n n euklidischen Raumes R jeder Vektor u ∈ R mit eindeutig bestimmten Koezienten a1 , · · · , an dargestellt werden kann in der Form u= n ∑ a k vk k=1 a = (a1 , · · · , an )T {v1 , · · · , vn }. Der Vektor ist also der Koordinatenvektor von u bezüglich der Orthonormalbasis {w1 , · · · , wn } eine weitere Orthonormalbasis des euklidischen {w1 , · · · , wn } habe u den Koordinatenvektor b = (b1 , · · · , bn )T . Es sei nun Raumes Rn . Bezüglich Der Wechsel zwischen zwei Orthonormalbasen (Basiswechsel) ist z.B. erforderlich, um nach einer Drehung die neuen Koordinaten im Bezug auf das ursprüngliche Koordinatensystem angeben zu können. Mit Hilfe einer orthogonalen Übergangsmatrix beschrieben werden. Für die Übergangsmatrix Q mit b = Qa kann dieser Basiswechsel sehr einfach Q = (qik ) gilt: qik = vkT wi = wiT vk Die folgenden Beispiele zeigen, dass Drehungen der Vektoren im Rn in einer festen Basis und Basiswechsel in einem engen Zusammenhang stehen: ◦ Eine Drehung/Transformation der Basis um eine Matrix Q unter Beibehaltung der Vektoren Q−1 = QT unter Beibehaltung entspricht einer Drehung/Transformation der Vektoren um der Basis. Beispielsweise dreht in R2 die Matrix ( R= cos α − sin α sin α cos α ) die Vektoren bezüglich einer festen Basis um den Winkel α gegen den Uhrzeigersinn (vgl. Beispiel Seite 55). ◦ Anders verhält es sich bei einer Drehung der Basis um den Winkel α. Wählt man für die T T erste Basis die Standardbasisvektoren v1 = (1, 0) , v2 = (0, 1) , so lauten die Vektoren der gedrehten Basis R−1 w1 = (cos α, sin α), w2 = (− sin α, cos α), und es ergibt sich ( )( ) ( ) cos α sin α 1 0 cos α sin α Q= = = R−1 − sin α cos α 0 1 − sin α cos α bezeichnet dabei die inverse Drehung, also die Drehung um den Winkel −α 7.3.6 Transformation von Matrizen auf Diagonalgestalt und Hauptachsentransformation Im letzten Abschnitt soll ein Einblick in die anstehende Thematik der Eigenwerte und Eigenvektoren gegeben werden, ohne jedoch den Vorlesungsinhalten vorzugreifen. Betrachten wir das Gleichungssystem A⃗x = λ⃗x wobei A ∈ Rn×n als eine quadratische Matrix A zur linearen Transformation (Rotation, Spiege⃗x ∈ Rn interpretiert wird und λ eine reelle oder komplexe Zahl ist. Eine lung, ...) eines Vektors 57 ⃗x, Lösung des Gleichungssystems ist ein Vektor für den die lineare Transformation A⃗x lediglich eine Streckung oder Stauchung unter Beibehaltung seiner Richtung bedeutet. Wenn es Zahlen λ und Vektoren heiÿen diese Zahlen ⃗x ̸= 0 gibt, die das o.a. lineare Gleichungssystem lösen, dann Eigenwerte der quadratischen Matrix A; die Lösungsvektoren ⃗x heiÿen Ei- genvektoren der Matrix A zum Eigenwert λ. Eigenwerte und -vektoren spielen eine bedeutende Rolle in vielen Gebieten, insbesondere für die Beschreibung besonderer Zustände von Systemen. Näheres hierzu bleibt der Vorlesung vorbehalten. Auch auf ihre Berechnung wird hier nicht eingegangen. Im Beispiel der Spiegelung an der ( A= zur ) 1 0 0 −1 x1 − Achse Die Vektoren x1 -Achse R2 in (Seite 54) durch die Transformationsmatrix ist leicht einzusehen, dass bei einer Spiegelung nur Vektoren parallel oder senkrecht ihre Richtung beibehalten (siehe Abbildung Seite 55). ⃗x1 = ( ) 1 und ( ) 0 ⃗x2 = 0 müssten daher als Eigenvektoren die o.a. Gleichung 1 erfüllen. Tatsächlich ist ( 1 | 0 ( 1 | 0 0 )( ) 1 −1 0 {z } | {z } A 1 −1 {z } | {z } = λ1 ( ) 1 0 ⃗ x1 )( ) 0 0 A = ( ) 1 ( = mit Eigenwert λ1 = 1 mit Eigenwert λ2 = −1 0 ) 0 −1 ( ) 0 = λ2 1 ⃗ x2 Geometrisch besagen die Eigenwerte, dass sich die Längen der Eigenvektoren durch die Spiegelung nicht ändern (|λ1 | λ2 = −1 = |λ2 | = 1), ⃗x1 λ1 = 1 seine Lage beibehält und ⃗x2 mit Eigenwert mit Eigenwert seine Richtung umkehrt. Die in Abschnitt 7.3.4, Seite 56, angesprochene Diagonalisierbarkeit einer Matrix ist nun ge- geben und sehr einfach umzusetzen, wenn zu dieser Matrix eine Basis aus Eigenvektoren Eigenwerten λj vj mit existiert. In diesem Fall gilt nämlich T −1 AT = diag(λ1 , · · · , λn ) = D Dabei ist T eine Matrix, deren Spaltenvektoren aus den orthonormalen Eigenvektoren bestehen. D ist eine Diagonalmatrix, auf deren Diagonale die Eigenwerte stehen. Die Matrix T ist eine Transformationsmatrix, die eine Hautachsentransformation in das Ko- ordinatensystem der Eigenvektoren durchführt. Die Transformation T −1 AT heiÿt Hauptachsen- transformation von A. Beispiel Die symmetrische Matrix A= Zugehörige Eigenvektoren sind ( ) 2 1 hat die Eigenwerte 1 2 ( ) 1 ⃗x1 = 1 ( und ⃗x2 = λ1 = 3 und λ2 = 1. ) −1 ; sie sind orthogonal (⃗ x1 1 bilden eine Basis von A. Nach einer Normierung der Eigenvektoren erhält man die Transformationsmatrix 1 T =√ 2 ( ) 1 −1 1 58 1 · ⃗x2 = 0) und Es gilt T −1 ( 1 AT = √ 2 | )( ) [ ( )] 1 1 −1 · √ 2 1 1 1 1 2 } | {z } | {z } 1 1 −1 {z ( T −1 2 1 A )( ) 3 1 −1 1 3 = 2 −1 1 ( ) 3 0 = 0 1 1 1 ( 1 6 = 2 0 T ) 0 2 Das Ergebnis ist eine aus den Eigenwerten bestehende Diagonalmatrix. Die Transformationsmatrix 1 T =√ 2 ( 1 1 ) −1 = 1 − √12 √1 2 √1 2 √1 2 (√ = 2 √2 2 2 − √ 2 √2 2 2 ) , die ja die Hauptachsentransformation in das Koordinatensystem der Eigenvektoren durchführt, ist in der Tat identisch mit der im Beispiel auf Seite 55 gezeigten Drehmatrix ( A α und einem für systems um 45 Eigenvektoren ◦ = x e1 = gegen ( ) √ 2 2 1 1 − sin α sin α cos α ) , π 4 . Das entspricht einer Drehung des Koordinatenden Uhrzeigersinn, übereinstimmend mit der Lage der normierten eingesetzten Wert von , also cos α und x e2 = α = √ 2 2 ( −1 ) . 1 Abbildung 7.4: Hauptachsentransformation 59