BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Lineare Algebra und Geometrie 1 4 ECTS Inhalt Themen Seite Vektorgeometrie2 I II I.1 Das Vektorprodukt 2 I.2 Anwendungen 4 Formelsammlung Papula1 Lineare Algebra II.1 Lineare Gleichungssysteme, der Gauss-Algorithmus 7 VII 3.1 - 3.2, 3.4 II.2 Matrizen und Determinanten 10 VII 1.1 - 1.5, 2.1 - 2.6 II.3 Die Cramersche Regel 15 VII 3.5 II.4 Homogene lineare Gleichungssysteme, lineare (Un-)Abhängigkeit 16 III Komplexe Zahlen III.1 Definition, Rechenoperationen mit komplexen Zahlen 18 VIII 1 - 4 III.2 Polynome, komplexe Nullstellen 21 VIII 4 III.3 Eulerformel, Exponentialform 25 VIII 1, 8 IV.1 Erweiterung der reellen Funktionen 27 VIII 3-5, 7 IV.2 Komplexe Funktionen einer reellen Variablen, Ortskurven 28 VIII 6 IV.3 Abbildungen der komplexen Ebene, insbesondere Inversion 32 VIII 6.3 IV Komplexwertige Funktionen 1 Lothar Papula: Mathematische Formelsammlung für Ingenieure und Naturwissenschaftler, Viewegs Fachbücher der Technik (wird auch in den andern Mathematikmoduln verwendet) 2 Bemerkung: Vektorgeometrie bis und mit Skalarprodukt sowie Trigonometrie gehören zum Berufsmaturstoff und werden deshalb hier vorausgesetzt; eine Aufarbeitung dieses Stoffes wird in der fakultativen Übungsserie „Repetition Berufsmaturstoff Mathematik“ angeboten (siehe https://prof.hti.bfh.ch/baw2 ). 1 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 I Vektorgeometrie I.1 Das Vektorprodukt HS 2011 / baw2 Wenn wir in unserem dreidimensionalen Anschauungsraum ein festes rechtwinkliges Koordinatensystem einführen, können wir jeden Punkt x in bekannter Weise durch ein Zahlentripel (x1, x2, x3) charakterisieren. Wir schreiben dabei einfach x = (x1, x2, x3). Statt des Punktes x können wir aber ⎡ x1 ⎤ r auch seinen Ortsvektor x = ox = ⎢ x 2 ⎥ betrachten, was noch nützlicher ist, weil für Vektoren ⎢x ⎥ ⎣ 3⎦ Rechenoperationen definiert sind. Es ist aber wichtig, Punkte und Vektoren zu unterscheiden, weil sich sonst leicht Missverständnisse ergeben. Wir wollen uns nicht auf den dreidimensionalen Raum n beschränken und definieren daher den n-dimensionalen reellen Raum R als Menge aller n-Tupel r ⎡ x1 ⎤ x = (x1,…, xn) von reellen Zahlen, und wir nennen auch hier x = ⎢ : ⎥ den Ortsvektor von x. Während ⎢x n ⎥ ⎣ ⎦ n das Ihnen bereits bekannte Skalarprodukt von zwei Vektoren auch im R definiert ist (Summe der Produkte entsprechender Komponenten), ist das in diesem Kapitel einzuführende Vektorprodukt eine Spezialität des 3-dimendionalen Raumes, also nur im Fall n = 3 definiert, und zwar wie folgt: r ⎧⎪Betrag : ar b sin( Zwischenwi nkel) r r a × b = Vektor ⎨ r r ⎪⎩Richtung : senkrecht auf a und b in Rechtsschraubenricht ung Zur Erläuterung: Man denke sich die beiden Vektoren im gleichen Punkt befestigt und betrachte das r r von ihnen aufgespannte Parallelogramm. Der Betrag von a × b kann dann als Flächeninhalt dieses Parallelogramms gedeutet werden. Eine senkrecht in diese Fläche eingeschraubte Rechtsschraube r r r bewegt sich in der Richtung von a × b , wenn man sie so dreht, dass der (mitgedrehte) Vektor a sich r b annähert. r r a ×b Vektorprodukt r b' ϕ r b r b sin(ϕ) r a Wenn einer der Vektoren der Nullvektor ist, oder wenn einer ein Vielfaches des andern ist (kurz: wenn r r r die beiden linear abhängig sind), dann (und nur dann) ist a × b = 0 . Man kann also mit dem 2 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Vektorprodukt testen, ob zwei Vektoren linear abhängig sind, ähnlich wie man mit dem Skalarprodukt testet, ob sie senkrecht zueinander sind. Um mit dem Vektorprodukt arbeiten zu können, brauchen wir Rechenregeln, vor allem eine Formel, die gestattet, das Vektorprodukt aus den Komponenten der Faktoren zu berechnen. Zunächst ist aus der Definition unmittelbar ersichtlich, dass r r r r a ×b = −b × a (Antikommutativgesetz) r r r Das Vektorprodukt ist also nicht kommutativ! Ebenso gilt das Assoziativgesetz nicht, d.h. a × (b × c ) r r r und (a × b ) × c sind i. A. nicht gleich. Können Sie ein Beispiel angeben? Bezüglich Streckung mit Skalarfaktoren λ verhält sich das Vektorprodukt jedoch verträglich, wie man leicht nachprüft: r r r r r r a × λb = λ(a × b) = λa × b Eine wichtige Regel ist das Ausmultiplizieren bzw. Ausklammern r r r r r r r a × (b + c ) = a × b + a × c r r r r r r r (a + b) × c = a × c + b × c (Distributivgesetze) Wegen der Antikommutativität genügt es, das erste zu beweisen. Dazu zerlegen wir den Übergang r r r r von einem beliebigen Vektor b zu a × b (wobei a fest), in drei Teilschritte: r r r 1. Senkrechte Projektion von b auf die zu a senkrecht Ebene (Vektor b' in der Figur) r 2. in dieser Ebene: Drehung 90°, diesmal bezüglich a als Rechtsschraube r 3. Streckung mit Faktor a Jeder dieser Teilschritte kann bei einer Summe von Vektoren summandenweise angewendet werden, was folglich auch für die Gesamtoperation gilt; dies ist aber gerade das Distributivgesetz. Damit können wir nun schon die Komponentenformel herleiten. Wir schreiben ⎡ 1⎤ ⎡0⎤ ⎡0⎤ r ⎡ a1 ⎤ r r r r a = ⎢a 2 ⎥ = a1 ⎢0⎥ + a 2 ⎢ 1⎥ + a 3 ⎢0⎥ = a1e 1 + a 2 e 2 + a 3 e 3 , b analog, und erhalten mit den bisherigen ⎢a ⎥ ⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢⎣ 1⎥⎦ ⎣ 3⎦ 3 3 r r r r Rechenregeln a × b = ∑ ∑ a ib j e i × e j . Die Produkte der Einheitsvektoren sind leicht zu berechnen, da i =1 j =1 r r r r r r r r r sie senkrecht aufeinander stehen und Länge 1 haben: e1 × e1 = 0 , e1 × e 2 = e 3 , e 2 × e1 = −e 3 , etc. r r r r r Somit ergibt sich a × b = (a 2b 3 − a 3b 2 )e1 + (a 3b1 − a1b 3 )e 2 + (a1b 2 − a 2b1 )e 3 , d.h. ⎡ a1 ⎤ ⎡ b1 ⎤ ⎡ a 2b 3 − a 3b 2 ⎤ ⎢a 2 ⎥ × ⎢b 2 ⎥ = ⎢− (a1b3 − a3b1 )⎥ ⎢a ⎥ ⎢b ⎥ ⎢ a b − a b ⎥ 2 1 ⎦ ⎣ 3⎦ ⎣ 3⎦ ⎣ 1 2 Die Schreibweise in der mittleren Komponente wurde so gewählt, weil man alle 3 Komponenten ⎡ a1 b1 ⎤ zunächst als Unterdeterminante der Matrix ⎢a 2 b 2 ⎥ berechnen kann (vgl. Abschnitt II.2), mit ⎢a b ⎥ ⎣ 3 3⎦ anschliessendem Vorzeichenwechsel in der mittleren Komponente. r r v r r v In Anwendungen kommen häufig auch Produkte von 3 Vektoren vor, z. B. (a × b ) × c und (a × b) • c r r r ( • = Skalarprodukt). Das erste ist ein Vektor, der senkrecht zu a × b steht und somit in der von a und r r r b aufgespannten Ebene liegt, also eine Linearkombination von a und b sein muss. Mit Hilfe der Komponentenformel kann man sich davon überzeugen, dass 3 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 r v r r v r r r v (a × b) × c = −(b • c )a + (a • c )b r r v Das Produkt (a × b ) • c ist eine Zahl; es ist auch unter dem Namen Spatprodukt bekannt, weil der r r v r r v Betrag dieser Zahl das Volumen des von a, b, c aufgespannten Spates (Parallelflächner; falls a, b, c r r senkrecht zueinander sind: Quader) ist. Wenn man das von a und b aufgespannte Parallelogramm als Grundfläche des Spates betrachtet, ist die Höhe gleich (eventuell mit falschem Vorzeichen) der r r r v 1 r r Projektion von c auf a × b , also gleich ( r r (a × b)) • c , das Volumen daher a ×b r r v r r v 1 r r a × b ⋅ ( r r (a × b)) • c = (a × b) • c . Die Berechnung des Spatproduktes in Komponenten ergibt a ×b ⎡ a1 b1 r r r (a × b) • c = (a 2b 3 − a 3b 2 )c 1 − (a1b 3 − a 3b1 )c 2 + (a1b 2 − a 2b1 )c 3 = det( ⎢a 2 b 2 ⎢a b 3 ⎣ 3 c1 ⎤ c 2 ⎥) c 3 ⎥⎦ (Determinanten werden in Abschnitt II.2 eingeführt.) I.2 Anwendungen Anwendungen in der Geometrie r r 1 r r (b − a ) × (c − a ) 2 1) F= 2) Abstand d des Punktes p von der Geraden durch a und b: r r r r (p − a ) × (b − a ) d= r r b−a Abstand d des Punktes p von der Ebene durch a, b und c: r r r r r r ((b − a ) × (c − a )) • (p − a ) d= r r r r (b − a ) × (c − a ) Fläche F des Dreiecks mit den Ecken a, b, c: r r Bemerkung: b − a ist der Verbindungsvektor von a nach b. 3) 4) r r r r r Koordinatengleichung der Ebene durch a, b und c: Der Vektor n = (b − a ) × (c − a ) ist ein Normalenvektor der Ebene, ihre Koordinatengleichung ist also n1x1 + n2 x 2 + n3 x 3 = d , wo d noch zu bestimmen ist (z.B. indem man einen der gegebenen Punkte einsetzt). V= r r r r r r ((b − a ) × (c − a )) • (d − a ) 5) Volumen V des Tetraeders mit den Ecken a, b, c, d: 6) r r r r r r ((b − a ) × (d − c )) • (c − a ) Abstand s der Geraden durch a, b von der Geraden durch c, d: s = . r r r r (b − a ) × (d − c ) 6 Wenn der Nenner in dieser Formel 0 ist, sind die beiden Geraden parallel. In diesem Fall ist r r r r (b − a ) × (c − a ) (gemäss 2)). der Abstand s = r r b−a 4 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Die meisten dieser Formeln sind aufgrund der geometrischen Bedeutung der vorkommenden Vektorund Spatprodukte rasch klar (machen Sie jeweils eine Skizze!), ausser vielleicht 6): Hier beachte r r man, dass der Vektor c − a ein Verbindungsvektor der beiden Geraden ist und folglich s die r r r r Projektion dieses Vektors auf den zu beiden Geraden senkrechten Vektor (b − a ) × (d − c ) Anwendungen in der Physik 1) r Drehmomente: Greift eine Kraft K in einem Punkt p eines Körpers an, so übt sie bezüglich r r r r eines fest gewählten Punktes p0 das polare Drehmoment Dp 0 = (p − p 0 ) × K aus („Hebelarm x r Kraft“). Ist der Körper um eine feste Achse a durch p0 mit Richtungsvektor a drehbar, so ist r r r r r a das axiale Drehmoment Da = ((p − p 0 ) × K ) • r von Interesse (die Projektion von Dp0 auf die a Achse). Überlegen Sie, dass man p0 auch durch einen andern Punkt auf der Achse ersetzen kann, ohne dass sich das axiale Drehmoment ändert. 2) Corioliskraft: Infolge der Drehung der Erde um sich selbst hat jeder Punkt der Erdoberfläche eine gewisse Ostgeschwindigkeit. So auch wir, aber solange wir uns relativ zu unserer Umgebung nicht bewegen, merken wir nichts davon. Bewegen wir uns jedoch z. B. auf der Nordhalbkugel gegen Norden, so kommen wir in Gebiete mit kleinerer Ostgeschwindigkeit. Wollen wir den Nordkurs beibehalten, müssen wir also die Ostgeschwindigkeit abbremsen, wozu eine Führungskraft (ausgeübt von Schiene, Strasse, …) nötig ist. Fehlt diese Führungskraft, so weichen wir nach Osten ab und erklären uns diese Abweichung als Folge einer Kraft, der Corioliskraft. Die Berechnung dieser Kraft bzw. der entsprechenden Beschleunigung ist ein rein mathematisches Problem, das wir aber hier nicht angehen können. Statt dessen geben wir einfach das Resultat an: r r r C = −2m(ω × v ) r Dabei ist v die Relativgeschwindigkeit des betrachteten Körpers bezüglich seiner Erdr Umgebung, m seine Masse, und ω die vektorielle Winkelgeschwindigkeit der Erddrehung, r d.h. die Richtung von ω ist die Richtung der Erdachse (vom Süd- zum Nordpol) und der 2π Betrag ist ungefähr ω ≈ ≈ 72.7 ⋅ 10 − 6 [s −1] . 24 ⋅ 60 ⋅ 60 Für einen Körper, der sich gegen Norden bewegt, ergibt diese Formel auf der Nordhalbkugel tatsächlich eine nach Osten gerichtete Kraft, auf der Südhalbkugel jedoch gegen Westen; r direkt auf dem Äquator ist sie Null. Für einen fallenden Körper ( v Richtung Erdmittelpunkt) ergibt sich auf der ganzen Erdoberfläche eine gegen Osten gerichtete Kraft (am grössten über dem Äquator, über den Polen Null), was ebenfalls mit der Anschauung übereinstimmt. Um quantitative Berechnungen machen zu können, führen wir ein Koordinatensystem ein, dessen x-Achse horizontal nach Osten zeigt, die y-Achse horizontal nach Norden, und die z-Achse vertikal nach oben (Zenit), mit Nullpunkt an dem Ort. wo sich der Körper gerade befindet. N r ω y ψ z ψ Zerlegung der Winkelgeschwindigkeit S 5 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 ⎤ 0 r ⎡ In diesem Koordinatensystem ist ω = ⎢ω cos( ψ )⎥ , wo ψ die geographische Breite bedeutet ⎢ ω sin( ψ ) ⎥ ⎣ ⎦ (vgl. Figur). r ⎡v O ⎤ Mit v = ⎢ v N ⎥ ⎢v ⎥ ⎣ Z⎦ wird ⎡ 0 ⎤ ⎡v O ⎤ r C = −2mω ( ⎢cos( ψ )⎥ × ⎢ v N ⎥ ) = 2mω ⎢ sin( ψ ) ⎥ ⎢ v ⎥ ⎦ ⎣ Z⎦ ⎣ ⎡v N sin( ψ ) − v Z cos( ψ )⎤ ⎢ ⎥. − v O sin( ψ ) ⎢ ⎥ v cos( ) ψ O ⎣ ⎦ Spezialfälle: ⎡v N sin( ψ )⎤ ⎥ (Richtung Ost bzw. West) ⎢ 0 ⎥ ⎢ 0 ⎦ ⎣ ⎡− v Z cos( ψ )⎤ r r ⎡0⎤ r ⎥ (Richtung Ost) v = ⎢ 0 ⎥ ( v Richtung Erdmittelpunkt, vZ negativ) ⇒ C = 2mω ⎢ 0 ⎥ ⎢ ⎢⎣v Z ⎥⎦ 0 ⎦ ⎣ ⎡ v N sin(ψ ) ⎤ r r ⎡v O ⎤ r v = ⎢ v N ⎥ ( v horizontal) ⇒ C = 2mω ⎢− v O sin( ψ )⎥ ⎢0⎥ ⎢ v cos( ψ ) ⎥ ⎦ ⎣ O ⎣ ⎦ r Im letzten Fall interessiert uns vor allem die Horizontalkomponente von C . Diese ist ⎡ vN ⎤ ⎡ v N sin(ψ ) ⎤ r r Chor = 2mω ⎢− v O sin(ψ )⎥ = 2mω sin(ψ ) ⎢− v O ⎥ , also senkrecht zu v , mit Betrag ⎢ 0 ⎥ ⎥ ⎢ 0 ⎦ ⎣ ⎦ ⎣ r r r Chor = 2m ω sin(ψ ) v , unabhängig von der Richtung von v . Auf der Nordhalbkugel r (sin(ψ) > 0) zeigt sie von v aus gesehen nach rechts, auf der Südhalbkugel nach links. Wenn nun bei einem Tiefdruckgebiet auf der Nordhalbkugel die Luft von allen Seiten nach innen strömt, wird sie überall nach rechts abgelenkt, was schliesslich einen im Gegenuhrzeigersinn kreisenden Wirbel ergibt, auf der Südhalbkugel jedoch im Uhrzeigersinn. Die Behauptung, dass man dasselbe in einem Lavabo oder einer Badewanne beobachten könne, ist allerdings ein Märchen; statistische Untersuchungen haben keinen Unterschied zwischen Nord- und Südhalbkugel gezeigt. Dies ist auch verständlich: Die Corioliskraft ist in diesem Fall viel zu klein und ihre Einwirkungszeit viel zu kurz, um einen messbaren Effekt zu erzeugen. Die Wirbel im Lavabo entstehen durch Unregelmässigkeiten in der Form des Lavabos oder einen bereits vorhandenen Drehimpuls des Wassers bei Beginn des Abflussvorganges. r r ⎡0⎤ r v = ⎢v N ⎥ ( v Richtung Nord, vN positiv,) ⇒ C = 2m ω ⎢0⎥ ⎣ ⎦ 3) r Lorentzkraft: Auf ein Teilchen mit der Ladung q, das sich mit Geschwindigkeit v in einem r r r r Magnetfeld mit Flussdichte B bewegt, wirkt die Lorentzkraft K = q( v × B) . 6 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 II Lineare Algebra II.1 Lineare Gleichungssysteme, der Gauss-Algorithmus Einleitung Eine lineare Gleichung in einer Unbekannten, a x = b, hat die Lösung x = b/a, falls a ≠ 0. Falls jedoch a = 0, gibt es zwei Fälle: Falls b ≠ 0, hat die Gleichung keine Lösung (weil 0 x = 0); falls b = 0, ist jede reelle Zahl Lösung, die Lösungsmenge also R. Eine lineare Gleichung in zwei Unbekannten, a1x1 + a2x2 = b, hat als Lösungsmenge (d.h. die Menge 2 aller Punkte (x1, x2), welche die Gleichung erfüllen) bekanntlich eine Gerade im R , falls a1, a2 nicht beide 0 sind. Ist z.B. a1 ≠ 0, so können wir x2 frei wählen und schreiben dafür x2 = t, und x1 muss dann x1 = (b – a2 t)/a1 sein. Wir können dann den Ortsvektor jedes Lösungspunktes in der Form ⎡ x1 ⎤ ⎡b / a1 ⎤ ⎡− a 2 / a1 ⎤ ⎢⎣ x 2 ⎥⎦ = ⎢⎣ 0 ⎥⎦ + t ⎢⎣ 1 ⎥⎦ (t frei) schreiben. Dies ist eine „Parameterdarstellung“ der Lösungsgerade. Ist a1 = 0 (oder auch nicht), aber a2 ≠ 0, erhalten wir auf die gleiche Art ⎡ x1 ⎤ ⎡ 0 ⎤ ⎡ 1 ⎤ ⎢⎣ x 2 ⎥⎦ = ⎢⎣b / a 2 ⎥⎦ + t ⎢⎣− a1 / a 2 ⎥⎦ Sind a1, a2 beide 0, müssen wir wieder die Fälle b ≠ 0 und b = 0 unterscheiden. Im Fall b = 0 sind alle 2 Punkte (x1, x2) Lösungen, d.h. die Lösungsmenge ist die ganze Ebene R ; im Fall b ≠ 0 hat die Gleichung keine Lösungen, d.h. die Lösungsmenge ist die leere Menge {}. Zum besseren geometrischen Verständnis bemerken wir noch, dass in jedem der oberen Fälle der ⎡a ⎤ Vektor ⎢ 1 ⎥ senkrecht auf dem Richtungsvektor der Gerade steht (Skalarprodukt = 0), also ein ⎣a 2 ⎦ „Normalenvektor“ der Geraden ist. Der Fall einer linearen Gleichung in 3 Unbekannten, a1x1 + a2x2 + a3x3 = b, kann ganz analog ⎡ a1 ⎤ behandelt werden. Wenn a1, a2, a3 nicht alle 0 sind (also der Vektor ⎢a 2 ⎥ nicht der Nullvektor ist), ist ⎢a ⎥ ⎣ 3⎦ 3 die Lösungsmenge eine Ebene im R ; im Fall a1 ≠ 0 z. B. ist ⎡ x1 ⎤ ⎡b / a1 ⎤ ⎡− a 2 / a1 ⎤ ⎢x 2 ⎥ = ⎢ 0 ⎥ + s ⎢ 1 ⎥ + t ⎢x ⎥ ⎢ 0 ⎥ ⎢ 0 ⎥ ⎣ 3⎦ ⎣ ⎦ ⎣ ⎦ ⎡− a3 / a1 ⎤ ⎢ 0 ⎥ ⎢ 1 ⎥ ⎦ ⎣ (s, t frei) ⎡ a1 ⎤ eine Parameterdarstellung dieser Ebene; wiederum ist ⎢a 2 ⎥ ein Normalenvektor der Ebene. (Prüfen ⎢a ⎥ ⎣ 3⎦ Sie, dass das Skalarprodukt mit den beiden Richtungsvektoren 0 ist!). Wenn a1 = a2 = a3 = 0, ist die 3 Lösungsmenge R (falls b = 0) oder {} (falls b ≠ 0). Der Fall einer linearen Gleichung mit mehr als 3 Unbekannten kann rechnerisch ebenfalls ganz analog behandelt werden, nur dass wir im Fall n > 3 keine geometrische Vorstellung zur Verfügung haben. 7 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Wir gehen jetzt zu Systemen von linearen Gleichungen (m Gleichungen, n Unbekannte) über. Unter n der Lösungsmenge eines solchen Systems versteht man die Menge aller Punkte (x1, …, xn) im R , die alle Gleichungen des Systems erfüllen. Dies ist mengentheoretisch die Schnittmenge der Lösungsmengen der einzelnen Gleichungen. Betrachten wir als Beispiel den Fall n = 3 (also 3 3 Unbekannte). Aufgrund des oben Gesagten kann die Lösungsmenge nur R , eine Ebene, eine Gerade, einpunktig oder {} sein. Die Schnittmenge von zwei Ebenen ist normalerweise eine Gerade, kann aber auch eine Ebene oder {} sein. Die Schnittmenge von drei Ebenen ist normalerweise einpunktig, kann aber auch eine Ebene oder Gerade oder {} sein. Letzteres kann auch dann eintreten, wenn keine zwei der drei Ebenen parallel sind, aber die Schnittgerade von zwei Ebenen parallel zur dritten Ebene ist. Wir sehen, dass schon im Fall n = 3 eine grosse Vielfalt von Fällen auftritt, sodass ein systematisches Vorgehen nötig ist. Der Gauss-Algorithmus Ein lineares Gleichungssystem (m Gleichungen, n Unbekannte) a11x1 + a12x2 + … + a1nxn = b1 a21x1 + a22x2 + … + a2nxn = b2 : : am1x1 + am2x2 + … + amnxn = bm wird nach Gauss durch eine Folge von Äquivalenz-Umformungen (d. h. Umformungen, welche die Lösungsmenge L nicht verändern, siehe weiter unten), auf Zeilenstaffelform (row echelon form) gebracht. Dies bedeutet, dass für jede Gleichung gilt: Ist xk die erste in dieser Gleichung (mit einem von 0 verschiedenen Koeffizienten) vorkommende Unbekannte, so enthalten alle folgenden Gleichungen diese Unbekannte nicht mehr. Der Koeffizient von xk in dieser Gleichung heisst Pivot von xk . Unbekannte mit Pivot nennt man gebunden, Unbekannte ohne Pivot nennt man frei. Das Gleichungssystem hat dann also folgende Gestalt: c1pxp + … c2qxq + … = d1 = d2 : Hier sind p < q < … die Nummern der gebundenen Unbekannten. Am Ende des Systems können dabei auch Gleichungen auftreten, die keine Unbekannten mehr enthalten. Diese sind von der Form 0 =d Hier entscheidet sich, ob das System überhaupt Lösungen hat: Gibt es auch nur eine einzige solche Gleichung mit einem d ≠ 0, so hat das System keine Lösung. Andernfalls hat es Lösungen, und die Lösungsmenge lässt sich wie folgt bestimmen: Die freien Unbekannten werden als Variable betrachtet („Parameter“ der Lösungsmenge). Die gebundenen Unbekannten kann man durch „Rückwärts-Einsetzen“ in der Reihenfolge … q, p ausrechnen: …; xq = 1/c2q·(d2 − …); xp = 1/c1p·(d1 − …) Dabei werden in … jeweils die schon berechneten bzw. freien Unbekannten mit grösserer Nummer eingesetzt. Fasst man alle Unbekannten in einen Vektor zusammen, so erhält man den Ortsvektor eines Punktes (wenn es keine Parameter gibt) oder eine Parameterdarstellung einer Geraden (wenn es genau einen Parameter gibt) oder einer Ebene (wenn es genau zwei Parameter gibt), usw., alles im n-dimensionalen Raum. Jetzt müssen wir noch den Reduktionsprozess beschreiben, der das System auf Zeilenstaffelform bringt. Man verwendet dabei nur die folgenden drei Arten von Äquivalenz-Umformungen: 1) Vertauschen von zwei Gleichungen 8 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 2) Multiplizieren einer Gleichung mit einer von 0 verschiedenen Zahl 3) Zu einer Gleichung ein Vielfaches einer andern Gleichung addieren Dies sind Äquivalenz-Umformungen, weil dabei offensichtlich keine Lösungen verloren gehen, aber auch keine neuen dazukommen, da man ja jede solche Umformung durch eine Umformung gleicher Art wieder rückgängig machen kann. Wenn die Unbekannte x1 im System gar nicht vorkommt (d. h. ak1 = 0 für alle k von 1 bis m), ist x1 frei. Andernfalls wähle man ein k mit ak1 ≠ 0 und vertausche die erste Gleichung mit der k-ten. Wir nehmen jetzt also a11 ≠ 0 an. Damit ist x1 gebunden, mit Pivot a11. Um zu erreichen, dass x1 in den folgenden Gleichungen nicht mehr vorkommt, addieren wir zur j-ten Gleichung (für j von 2 bis m) das (−aj1/a11)fache der ersten Gleichung. Dieses Verfahren wiederholen wir nun für die Unbekannte x2, und zwar im vollen System, wenn x1 frei ist, aber nur im System der Gleichungen 2 bis m, wenn x1 gebunden ist, hierauf für x3 usw. Dieser Reduktionsprozess kann solange fortgesetzt werden, bis die Zeilenstaffelform für das ganze System erreicht ist. Bemerkungen 1. Welche Unbekannten frei und welche gebunden sind, hängt vom Reduktionsprozess ab, in dem man ja viele Wahlmöglichkeiten hat. Jedoch ist die Anzahl der freien Variablen festgelegt, wenn das System überhaupt Lösungen hat, denn diese Anzahl ist die Dimension der Lösungsmenge. 2. Umformungen vom Typ 2) wurden in der obigen Beschreibung des Reduktionsprozesses gar nicht verwendet. Sie sind aber manchmal nützlich, um im System möglichst einfache Zahlen zu haben. 3. Auf Taschenrechnern und in Matlab gibt es die Funktion rref (reduced row echelon form). Diese treibt die Umformung noch etwas weiter. Sie ist anzuwenden auf die sogenannte erweiterte Matrix (rechteckiges Schema der gegebenen Zahlen) des Systems, ⎡ a11 ... a1n b1 ⎤ ⎢ ⎥ ... : : ⎥ ⎢ : ⎢⎣a m1 ... amn bm ⎥⎦ und liefert die erweiterte Matrix eines äquivalenten Systems, bei dem alle Pivots 1 sind, und wo auch oberhalb eines solchen Pivots in der gleichen Spalte nur noch Nullen stehen, was man ja durch Anwendung von Umformungen vom Typ 2) und 3) immer erreichen kann. Dies vereinfacht den Prozess des Rückwärts-Einsetzens. Beispiel Gegeben ist das System (b ist noch nicht spezifiziert) w + x + y + z =2 2w – x + 3y + 2z = 1 –w + 2x – 2y – z = b Der erste Reduktionsschritt ergibt 1w + x + y + z = 2 –3x + y = –3 3x – y =b+2 Der zweite Reduktionsschritt ergibt (die fettgedruckten Zahlen sind die gewählten Pivots) 1w + x + y + z = 2 –3x + y = –3 0 =b–1 womit die Zeilenstaffelform erreicht ist. Wir können jetzt zwei Fälle unterscheiden: Wenn b ≠ 1, hat das System wegen der letzten Gleichung keine Lösungen. Wenn b = 1, ist es lösbar, die beiden Unbekannten y, z sind frei. Wir setzen y = s, z = t (Parameter der Lösungsmenge) und erhalten durch Rückwärtseinsetzen x = (–3 – y)/( –3) = 1 + s/3, w = 2 – x – y – z = 2 – 1 – s/3 – s – t = 1 – 4s/3 – t. 9 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Vektoriell zusammengefasst: ⎡ w ⎤ ⎡ 1⎤ ⎡− 4 / 3⎤ ⎡− 1⎤ ⎢ x ⎥ ⎢ 1⎥ ⎢ 1/ 3 ⎥ ⎢ 0 ⎥ ⎢ y ⎥ = ⎢0⎥ + s ⎢ 1 ⎥ + t ⎢ 0 ⎥ ⎢ z ⎥ ⎢⎣0⎥⎦ ⎢⎣ 0 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎣ ⎦ Dies stellt eine Ebene im 4-dimensionalen Raum dar. Der Matlab-Befehl für den Fall b = 1 lautet rref([1 1 1 1 2; 2 -1 3 2 1; -1 2 -2 -1 1]) und liefert das Resultat 1.0000 0 0 0 1.0000 0 1.3333 -0.3333 0 1.0000 0 0 1.0000 1.0000 0 Lesen Sie daraus die Lösungsmenge ab! (w = 1 – 4y/3 – z; x = 1 + y/3; y, z frei). Für den Fall b = 5 ergibt rref([1 1 1 1 2; 2 -1 3 2 1; -1 2 -2 -1 5]) jedoch 1.0000 0 0 0 1.0000 0 1.3333 -0.3333 0 1.0000 0 0 0 0 1.0000 Die letzte Zeile entspricht hier der Gleichung 0 = 1 im System, weshalb es keine Lösungen hat. II.2 Matrizen und Determinanten Unter einer mxn-Matrix (m Zeilen, n Spalten) versteht man ein rechteckiges Zahlenschema ⎡ a11 a12 ⎢ A = ⎢ a 21 a 22 : : ⎢a ⎣ m1 am2 ... a1n ⎤ ... a 2n ⎥ ::: : ⎥ ... amn ⎥⎦ Bei dieser Doppelindex-Schreibweise ist jeweils der erste Index der Zeilenindex (Nummer der Zeile), der zweite der Spaltenindex. Dass solche Matrizen bei linearen Gleichungssystemen eine Rolle spielen, kann man schon im Abschnitt II.1 erahnen. Sie spielen aber auch in andern Gebieten der Mathematik und auch in der Physik eine wichtige Rolle. Z. B. ist der Trägheitstensor eines starren Körpers eine Matrix, mit der man für jede Achsenrichtung das Trägheitsmoment des Körpers bezüglich der Achse (mit der gegebenen Richtung) durch den Schwerpunkt berechnen kann. Um diese Matrizen zu einem nützlichen Instrument zu machen, muss man aber Rechenoperationen definieren. Addition und Subtraktion werden komponentenweise ausgeführt, sind also nur für Matrizen jeweils gleicher Dimension mxn definiert. Ausserdem ist Multiplikation einer Matrix mit einer Zahl ebenfalls immer komponentenweise gemeint (wie bei Vektoren, die man ja auch als einspaltige Matrizen auffassen kann). Für diese drei Operationen gelten auch die von Zahlen bzw. Vektoren her bekannten Rechenregeln. Die komponentenweise Multiplikation kann man natürlich auch betrachten; sie ist aber nicht so nützlich. Statt dessen wird eine andere Multiplikation eingeführt, und zwar so, dass die linke Seite eines linearen Gleichungssystems als Matrixprodukt A ⋅ X betrachtet werden kann. Allgemein formuliert: Das Produkt einer mxn-Matrix A mit einer nxp-Matrix B ist eine mxp-Matrix C = A·B, deren Komponente an der Stelle (i, k) (d.h. i-te Zeile, k-te Spalte) mit der Formel n c ik = ai1b1k + ai2b 2k + ... + ainbnk = ∑ aijb jk j =1 berechnet wird. Das Produkt einer Matrix A mit der Matrix B ist also nur definiert, wenn die Zeilenlänge („Breite“) von A mit der Spaltenlänge („Höhe“) von B übereinstimmt, und die Komponente an der Stelle (i,k) ist eine Art Skalarprodukt der i-ten Zeile von A mit der k-ten Spalte von B. 10 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Die Rechenregeln für diese neue Operation sind A·(B·C) = (A·B)·C (Assoziativgesetz) A·(B + C) = A·B + A·C (A + B)·C = A·C + B·C (Distributivgesetze) immer unter der Voraussetzung, dass die Dimensionen so sind, dass die Produkte definiert sind. Das direkte Nachprüfen dieser Relationen ist etwas mühsam. Als Übung ist es jedoch sehr zu empfehlen, mindestens eine davon für 2x2-Matrizen nachzurechnen. Das Kommutativgesetz gilt jedoch nicht, auch wenn A·B und B·A beide definiert sind und die gleiche Dimension haben. Beispiel: ⎡0 1⎤ ⋅ ⎡0 0⎤ = ⎡ 1 0⎤ , aber ⎢⎣0 0⎥⎦ ⎢⎣ 1 0⎥⎦ ⎢⎣0 0⎥⎦ ⎡0 0⎤ ⋅ ⎡0 1⎤ = ⎡0 0⎤ ⎢⎣ 1 0⎥⎦ ⎢⎣0 0⎥⎦ ⎢⎣0 1⎥⎦ ⎡ 1 0 ... 0⎤ ⎢0 1 0⎥ Wir erwähnen noch die spezielle nxn-Matrix En = ⎢ (Einsen auf der Diagonale, Nullen : ⋅. : ⎥ ⎢0 0 ... 1⎥ ⎣ ⎦ daneben), genannt Einheitsmatrix der Dimension nxn. Für diese gilt A ⋅ En = A = Em ⋅ A , für jede mxnMatrix A, d.h. diese Einheitsmatrizen verhalten sich bei Multiplikation wie bei den Zahlen die 1. Wenn klar ist, welche Dimension gemeint ist, schreiben wir auch nur E statt En. Wie bereits gesagt, können wir ein lineares Gleichungssystem jetzt auch als Matrixgleichung A⋅X = B schreiben (A gegebene mxn-Matrix, B gegebene mx1-Matrix, X unbekannte nx1-Matrix). Es ist naheliegend sich zu fragen, ob man dies nicht mittels einer Division durch A tun kann. Im Fall von Zahlen kann man ja durch jede Zahl a ≠ 0 dividieren, indem man mit a-1 multipliziert, und a-1 ist eine Zahl mit der Eigenschaft a-1a = 1. Entsprechend suchen wir nun zu A eine Matrix C mit der Eigenschaft A·C = E, C·A = E (Wegen der Nichtkommutativität braucht es beide Gleichungen.) Hat man ein solches C (man nennt es eine Inverse von A), so ist die Gleichung A·X = B gleichbedeutend mit X = C·B, denn aus A·X = B folgt C·A·X = C·B, wegen C·A = E also X = C·B. Umgekehrt folgt aus X = C·B, dass A·X = A·C·B, wegen A·C = E also A·X = B. Man kann nun zeigen, dass die Existenz einer Inversen höchstens im Fall n = m möglich ist. Tatsächlich zeigt die obige Überlegung, dass, wenn eine Inverse C zu A existiert, das Gleichungssystem A·X = B unabhängig von B immer genau eine Lösung besitzt (nämlich X = C·B), was im Fall n ≠ m nie richtig ist. (Dies kann man mit Hilfe des Gauss-Algoritmus’ einsehen, wir gehen aber hier nicht näher darauf ein.) Wir setzen daher von jetzt an bei der Frage nach einer Inversen C von A voraus, dass A eine „quadratische“ Matrix ist, und analysieren zuerst den Fall n = 2. Inverse einer 2x2-Matrix a12 ⎤ ⎡c11 c12 ⎤ ⎡ 1 0⎤ ⎡a Wir suchen zunächst ein C mit A·C = E, d.h. ⎢ 11 ⎥⋅⎢ ⎥ = ⎢⎣0 1⎥⎦ , ausgeschrieben a a 22 ⎦ ⎣c 21 c 22 ⎦ ⎣ 21 a11c12 + a12c22 = 0 | ·a22 | ·(−a21) a11c11 + a12c21 = 1 a21c11 + a22c21 = 0 a21c12 + a22c22 = 1 | ·(−a12) | ·a11 Um jeweils ein Unbekannte zu eliminieren, multiplizieren wir untereinander stehende Gleichungen mit den hinten angegebenen Zahlen und addieren sie, was folgende vier neue Gleichungen ergibt: 11 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 (a11a22 − a21a12) c11 = a22 (a11a22 − a21a12) c21 = −a21 HS 2011 / baw2 (a11a22 − a21a12) c12 = −a12 (a11a22 − a21a12) c22 = a11 Diese sind zwar nicht unbedingt äquivalent zu den ursprünglichen, aber wir können ja die Lösung am Schluss durch Einsetzen überprüfen. Auffallend ist, dass in allen vier Gleichungen der Faktor vor der Unbekannten gleich ist, nämlich d := a11a22 − a21a12. Man nennt diesen Faktor die Determinante der Matrix A. Ist d ≠ 0, muss c11 = a22/d, c21 = −a21/d, c12 = −a12/d, c22 = a11/d gelten, zusammengefasst c 12 ⎤ 1 ⎡ a 22 − a12 ⎤ ⎡c = C = ⎢ 11 ⎣c 21 c 22 ⎥⎦ d ⎢⎣− a 21 a11 ⎥⎦ Die Überprüfung ergibt, dass wirklich A·C = E, aber nicht nur dies, sondern auch C·A = E, d.h. wir haben tatsächlich eine Inverse von A gefunden! Und die Herleitung zeigt auch, dass es die einzige ist. Man bezeichnet sie mit inv(A) oder A-1. Ist hingegen die Determinante d = 0, so zeigen die vier neuen Gleichungen, dass es keine Lösung geben kann, wenn auch nur eine Komponente von A von Null verschieden ist (links steht überall 0). Wenn aber A die Nullmatrix ist, hat sie sowieso keine Inverse. Wir fassen unsere Erkenntnisse zusammen: Eine 2x2-Matrix A hat genau dann eine Inverse, wenn ihre Determinante d = a11a22 − a21a12 von Null verschieden ist. Die Inverse ist eindeutig bestimmt und gegeben durch inv( A ) = 1 ⎡ a 22 − a12 ⎤ d ⎢⎣− a 21 a11 ⎥⎦ Wir können nun damit beispielsweise das lineare Gleichungssystem 3 x1 + 5 x 2 = 1 2 x1 − 5 x 2 = 9 ⎡x ⎤ in Matrixform geschrieben: ⎡3 5 ⎤ ⋅ ⎢ 1 ⎥ = ⎡ 1⎤ ⎢⎣2 − 5⎥⎦ ⎣ x 2 ⎦ ⎢⎣9⎥⎦ 1 ⎡− 5 − 5⎤ ⎡ 1⎤ ⎡ 2 ⎤ ⎡x ⎤ so auflösen: Es ist d = 3·(–5) – 2·5 = –25 ≠ 0, also ⎢ 1 ⎥ = inv( A ) ⋅ ⎡ 1⎤ = . ⋅ = ⎢ ⎥ 9 x ⎣ ⎦ − 25 ⎢⎣− 2 3 ⎥⎦ ⎢⎣9⎥⎦ ⎢⎣− 1⎥⎦ ⎣ 2⎦ Der Vorteil dieser Methode gegenüber dem Gauss-Algorithmus ist der, dass sie eine explizite Formel für die Lösung liefert (Cramer-Regel, vgl. nächsten Abschnitt), aber eben nur für den Fall, dass die Determinante von A nicht Null ist. Wir versuchen nun, die Methode auf höhere Dimensionen zu verallgemeinern. Der kritische Punkt dabei ist die Definition der Determinanten. Determinanten Die Determinantenfunktion det ordnet jeder quadratischen Matrix A eine Zahl zu, ihre Determinante det(A). Für 1x1-Matrizen A = [a11] definieren wir det(A) = a11, für 2x2-Matrizen haben wir sie oben schon definiert: det(A) = a11a22 − a21a12. Wir listen nun einige Eigenschaften auf, die wir von der Determinantenfunktion allgemein erwarten, weil sie offensichtlich für n = 2 erfüllt sind. 1) det(E) = 1 2) det(A) ist linear bezüglich jeder Spalte von A. Um zu erklären, was damit gemeint ist, schreiben wir A = [S1, …, Sn], wo S1, …, Sn die Spalten von A sind. Ist nun die k-te Spalte eine Summe von zwei Vektoren, Sk = Sk’+Sk’’, so soll det(A) = det([…,Sk’,…]) + det([…,Sk’’,…]) gelten, wobei in […,Sk’,…] und […,Sk’’,…] alle Spalten ausser der k-ten gleich sind wie in A. Ebenso, wenn Sk = λSk’ mit einem Zahlenfaktor λ, soll det(A) = λ det([…,Sk’,…]) gelten. 3) Wenn man zwei Spalten von A vertauscht, wechselt det(A) nur das Vorzeichen. 12 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 4) HS 2011 / baw2 Für die transponierte Matrix AT gilt det(AT) = det(A) Die transponierte Matrix AT erhält man aus A durch Spiegeln an der Hauptdiagonale, d.h. (AT)ik = aki . Dadurch werden aus den Zeilen von A Spalten von AT, und umgekehrt. Die Eigenschaft 4) hat zur Folge, dass die Eigenschaften 2) und 3), und auch 5) bis 7) unten, analog für Zeilen gelten. 5) Entwicklung von det(A) nach der 1. Spalte: 2 +1 n +1 ˆ ˆ ˆ det( A ) = ( −1)1+1a11 det( A a 21 det( A an1 det( A (11) ) + ( −1) ( 21) ) + ... + ( −1) (n1) ) Diese Formel gestattet, die Berechnung einer Determinante auf Determinanten von Matrizen kleinerer Dimension zurückzuführen. Wir bezeichnen mit  (ik ) die Untermatrix von A, die man durch Streichen der i-ten Zeile und k-ten Spalte erhält, eine (n−1)x(n−1)-Matrix, die auch die ˆ ) wird auch – zu (i,k) komplementäre Untermatrix genannt wird. Ihre Determinante det( A (ik ) etwas unpräzis – die zu (i,k) komplementäre Unterdeterminante genannt. In der Formel wird jedes Element der 1. Spalte mit der komplementären Unterdeterminante und einem abwechselnden Vorzeichen multipliziert, und alle diese Produkte werden addiert. Wegen 1) bis 5) kann man aber die Determinante genauso gut nach irgendeiner anderen Spalte oder irgendeiner Zeile entwickeln. Z. B. lautet die Entwicklung nach der 2. Zeile: 2+ 2 2+n ˆ ˆ ˆ det( A ) = ( −1)2 +1a 21 det( A a 22 det( A a 2n det( A ( 21) ) + ( −1) ( 22 ) ) + ... + ( −1) ( 2n ) ) Hier beginnt das abwechselnde Vorzeichenmuster also mit „−“. Wir notieren noch zwei Folgerungen aus 2) und 3) 6) Wenn zwei Spalten von A gleich sind, ist det(A) = 0. 7) Wenn man zu einer Spalte von A ein Vielfaches einer andern Spalte addiert, ändert sich die Determinante nicht. Nun gilt es zu beweisen, dass eine Funktion det mit den Eigenschaften 1) bis 5) wirklich existiert. Wenn man die Determinanten für Matrizen der Dimension (n−1)x(n−1) schon definiert hat, und zwar so, dass 1) bis 5) für diese und kleinere Dimensionen gelten, kann man sie mittels der ersten Formel in 5) (Entwicklung nach der ersten Spalte) für Matrizen der Dimension nxn definieren. Man muss dann noch die Eigenschaften 1) bis 4) für Matrizen der Dimension nxn nachweisen. So kann man Stufe um Stufe zu Matrizen beliebiger Dimension aufsteigen. Wir illustrieren das Verfahren (man nennt es „Induktion“) am Übergang von Stufe 2 zu Stufe 3. Wie gesagt, gelten alle Regeln für die bereits definierten Determinanten von 2x2-Matrizen. Für eine 3x3-Matrix erhalten wir durch Entwicklung nach der ersten Spalte ⎡a11 a12 det( ⎢a 21 a 22 ⎢a ⎣ 31 a 32 a13 ⎤ ⎡a a 23 ⎥ ) = a11 det( ⎢ 22 ⎥ ⎣a 32 a 33 ⎦ a 23 ⎤ ⎡a ) − a 21 det( ⎢ 12 a 33 ⎥⎦ ⎣a 32 a13 ⎤ ⎡a ) + a 31 det( ⎢ 12 a 33 ⎥⎦ ⎣a 22 a13 ⎤ )= a 23 ⎥⎦ = a11(a 22a 33 − a 32a 23 ) − a 21(a12a 33 − a 32a13 ) + a 31(a12a 23 − a 22a13 ) = = a11a 22a 33 + a 21a 32a13 + a 31a12a 23 − a11a 32a 23 − a 21a12a 33 − a 31a 22a13 Mit dieser letzten Form sind jetzt die Regeln 1) bis 4) leicht nachzuweisen. Um z. B. 2) zu begründen, bemerke man, dass jeder der sechs Summanden aus jeder Spalte genau einen Faktor enthält. Somit ist klar, dass diese Funktion bezüglich jeder Spalte von A linear ist. Bei Vertauschung von zwei Spalten geht jeder der Summanden mit einem „+“ in einen Summanden mit „−“ über, und umgekehrt, womit 3) begründet ist. Der Leser möge selber überlegen, warum 1) und 4) gelten. 13 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Für die soeben hergeleitete Formel für die Determinante einer 3x3-Matrix gibt es eine einfache Merkregel, die „Regel von Sarrus“: Man schreibe die Matrix zweimal untereinander und berechne die zu addierenden Produkte gemäss nachstehendem Schema a11 a 21 a 31 a11 a 21 a 31 a12 a 22 a 32 a12 a 22 a 32 a13 a 23 a 33 a13 a 23 a 33 − − − + + + Der allgemeine Übergang von Stufe n−1 auf Stufe n ist natürlich etwas komplizierter, weil es nicht ganz einfach ist, die Summanden in der ausmultiplizierten Form der Determinante zu charakterisieren. Beim Übergang n−1 → n vervielfacht sich die Anzahl Summanden um Faktor n, also sind es insgesamt 1·2·3·…·n = n! Summanden; jeder besteht aus n Faktoren, aus jeder Spalte und jeder Zeile genau einer, aber das Problem ist die Festlegung des Vorzeichens. Wir wollen dies hier nicht weiter verfolgen, betonen aber noch, dass die Regel von Sarrus nur im Fall n = 3 gilt, da sie ja 2n Summanden liefert statt n!. Nur im Fall n = 3 ist 2n = n!. Die Berechnung einer Determinante kann mit den Regeln 2) und 7) stark vereinfacht werden, indem sich die Matrix durch Umformungen dieser Art auf „Dreiecksform“ bringen lässt, ähnlich wie man im Gauss-Algorithmus ein Gleichungssystem auf Staffelform bringt. „Dreiecksform“ bedeutet, dass unterhalb (oder oberhalb) der Hauptdiagonale nur Nullen stehen. Die Determinante einer Dreiecksmatrix ist einfach das Produkt der Hauptdiagonalelemente: ⎡a11 a12 ⎢0 ⋅. det( ⎢ : ⎢ .. ⎣0 .. a1n ⎤ .. a 2n ⎥ ) = a11a 22 ...ann ⋅. : ⎥ ⎥ 0 ann ⎦ Begründen Sie dies! Zum Schluss noch eine weitere wichtige Eigenschaft der Determinantenfunktion: 8) det(B·A) = det(B)·det(A) Auch diese ist nicht ganz einfach zu beweisen. Für n = 2 ist sie rasch nachgerechnet (tun Sie es!), aber für höhere Dimensionen wird der Aufwand bald zu gross, sodass nur theoretische Betrachtungen zum Ziel führen: Man zeigt erstens, dass die Funktion det’(A) := det(B·A) (B fest, A variabel) die Eigenschaften 2) und 3) erfüllt, und zweitens, dass für jede Funktion det’, die 2) und 3) erfüllt, gilt: det’(A) = det’(E)·det(A). (Wir gehen nicht auf die Details ein.) Da in unserem Fall det’(E) = det(B·E) = det(B), ist 8) erfüllt. Inverse einer nxn-Matrix Wir können nun die Frage nach der Inversen einer nxn-Matrix A beantworten. Um aufwändige Rechnungen zu vermeiden, geben wir direkt das Resultat an und kontrollieren seine Korrektheit. Eine nxn-Matrix A hat genau dann eine Inverse, wenn ihre Determinante d = det(A) von Null verschieden ist. Die Inverse ist eindeutig bestimmt und ihre Komponente an der Stelle (i,k) ist gegeben durch 1 ˆ ) (inv( A ))ik = ( −1)i + k det( A (ki ) d Zu beachten ist, dass jeweils nicht die zur Stelle (i,k) komplementäre Unterdeterminante zu nehmen ist, sondern die zur (bezüglich Hauptdiagonale) gespiegelten Stelle (k,i). Überzeugen Sie sich davon, dass im Fall n = 2 die bereits bekannte Formel (Seite 12) herauskommt. 14 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Im Fall det(A) = 0 kann es keine Inverse geben, da aus C·A = E nach 8) folgt, dass det(C)·det(A) = 1. Diese Überlegung zeigt, dass det(inv( A )) = 1 det( A ) Wir überprüfen jetzt die Formel für inv(A) und berechnen dazu für die durch die angegebene Formel definierte Matrix C beispielhaft die beiden Komponenten (C·A)11 und (C·A)12. (C ⋅ A )11 = c11a11 + c12a 21 + ... + c1nan1 = = 1 1 1+ 2 1+ n ˆ ˆ ˆ (( −1)1+1 det( A det( A det( A det( A ) = 1 (11) )a11 + ( −1) ( 21) )a 21 + ... + ( −1) (n1) )an1 ) = d d (Entwicklung von det(A) nach der ersten Spalte). (C ⋅ A )12 = c11a12 + c12a 22 + ... + c1nan2 = = 1 1+ 2 1+ n ˆ ˆ ˆ (( −1)1+1 det( A det( A det( A (11) )a12 + ( −1) ( 21) )a 22 + ... + ( −1) (n1) )an2 ) d Die Summe in der Klammer ist die Entwicklung nach der 1. Spalte der Determinante der Matrix A’ = [S2,S2,S3,…Sn], wobei wieder Sk die k-te Spalte von A bezeichnet. Man hat also in A die erste Spalte durch eine Kopie der 2. Spalte ersetzt. Dies beeinflusst die komplementären Unterˆ ' ) = det( A ˆ ) . Da det(A’) = 0 determinanten der Elemente der 1. Spalte nicht, d.h. es gilt det( A ( k1) (k1) wegen Regel 6), folgt (C·A)12 = 0. Auf ähnliche Art ergibt sich, dass (C·A)kk = 1 und (C·A)ik = 0 für i ≠ k, und dasselbe für A·C (hier muss man die entsprechenden Regeln für Zeilen verwenden). II.3 Die Cramer-Regel Wir kehren jetzt zu den linearen Gleichungssystemen zurück, aber nur im Fall n = m (Anzahl Unbekannte = Anzahl Gleichungen). Wenn ein solches System gegeben ist, A·X = B (A gegebene nxn-Matrix, B gegebene nx1-Matrix, X unbekannte nx1- Matrix) und det(A) ≠ 0 (man nennt das System bzw. die Matrix A in diesem Fall regulär), dann hat es nach den Betrachtungen des letzten Abschnitts genau eine Lösung, nämlich X = inv(A)·B. Dies gilt allgemeiner auch dann, wenn B eine gegebene nxp-Matrix (p beliebig) und X eine gesuchte nxp-Matrix ist. Im klassischen Fall p = 1 können wir jedoch die Lösung noch etwas umformen: Die k-te Unbekannte ist xk = (inv(A)·B)k = 1 k +2 k +n ˆ ˆ ˆ (( −1)k +1 det( A det( A det( A (1k ) )b1 + ( −1) ( 2k ) )b 2 + ... + ( −1) (nk ) )bn ) det( A ) und die Summe in der Klammer ist die Entwicklung einer Determinante nach der k-ten Spalte, aber nicht der Determinante von A, sondern der Matrix, die man aus A erhält, wenn man die k-te Spalte durch den Vektor B ersetzt. Wir bezeichnen diese Matrix mit A S ←B . Damit haben wir die k sogenannte Cramer-Regel: ⎡ x1 ⎤ Für die Lösung X = ⎢ : ⎥ eines regulären linearen Gleichungssystems A·X = B gilt ⎢xn ⎥ ⎣ ⎦ det( A S ←B ) k (k = 1…n). xk = det( A ) 15 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Betrachten wir als Beispiel nochmals das System 3 x1 + 5 x 2 = 1 2 x1 − 5 x 2 = 9 ⎡x ⎤ in Matrixform geschrieben: ⎡3 5 ⎤ ⋅ ⎢ 1 ⎥ = ⎡ 1⎤ ⎢⎣2 − 5⎥⎦ ⎣ x 2 ⎦ ⎢⎣9⎥⎦ Es ist det(A) = 3·(–5) – 2·5 = –25 ≠ 0, also ist das System regulär. Nach Cramer erhalten wir −5 − 45 27 − 2 1 1 = 2 , x2 = = −1 . det( ⎡ 1 5 ⎤ ) = det( ⎡3 1⎤ ) = x1 = ⎢⎣9 − 5⎥⎦ ⎢⎣2 9⎥⎦ − 25 − 25 − 25 − 25 Die Cramer-Regel hat für numerische Berechnungen kaum praktische Bedeutung (ausser vielleicht in den Fällen n = 2 oder n = 3), da der Gauss-Algorithmus oder ähnliche Verfahren effizienter sind. Sie sind jedoch sehr nützlich in theoretischen Betrachtungen, z.B. wenn A und/oder B Grössen enthalten, die noch verändert werden können („Parameter“, z.B. Widerstände in einem elektrischen Netzwerk). Dann kann man mit ihrer Hilfe untersuchen, wie die Lösung von diesen Parametern abhängt. Man kann sich fragen, ob die Determinanten in der Cramer-Regel auch eine Bedeutung haben, wenn das System nicht regulär ist, also det(A) = 0. In der Form x k det( A ) = det( A S k ←B ) sind die Gleichungen auch hier eine Folgerung aus dem ursprünglichen System, aber nicht äquivalent dazu. Wenn nun auch nur eine der Determinanten det( A S ←B ) (k = 1…n) von Null verschieden ist, k hat die entsprechende Gleichung keine Lösung, das ursprüngliche System also auch nicht. Falsch ist aber, obwohl es oft behauptet wird, dass das System immer unendlich viele Lösungen hat, wenn auch die Determinanten det( A S ←B ) (k = 1…n) alle Null sind. Einfache Gegenbeispiele sind die Systeme k x1 + 2 x 2 − x 3 = 1 2 x1 + 4 x 2 − 2 x 3 = 5 − 5 x1 − 10 x 2 + 5 x 3 = 2 0 x1 + 0 x 2 = 0 0 x1 + 0 x 2 = 1 Beide haben offensichtlich gar keine Lösung, obwohl bei beiden Systemen neben det(A) auch alle Determinanten det( A S ←B ) Null sind. (Überzeugen Sie sich davon!) k II.4 Homogene lineare Gleichungssysteme, lineare (Un-)Abhängigkeit Die am Schluss des letzten Abschnitts erwähnte Falschbehauptung ist in einem wichtigen Spezialfall richtig, nämlich wenn B = 0 (rechte Seite des Gleichungssystems Null). Ein solches System A·X = 0 x1S1 + … + xnSn = 0 oder anders geschrieben: (wo S1 , …, Sn wieder die Spaltenvektoren von A sind) heisst homogen. Homogene lineare Gleichungssysteme kommen z.B. in der Theorie der Eigenvektoren von Matrizen vor (vgl. Übungsblatt „Matrizen und Determinanten“, Aufgabe 6), sowie LAG2), allgemein immer dann, wenn Vektoren gesucht sind, die nur bis auf Vielfache bestimmt sind, z. B. der Normalenvektor einer Ebene. Ein homogenes System hat immer die „triviale“ Lösung X = 0. Wenn es noch eine andere Lösung hat, wo also mindestens eines der xk ≠ 0 ist, kann man einen der Vektoren S1 ,…, Sn als Linearkombination der übrigen ausdrücken, d.h. die Vektoren sind dann linear abhängig. Hat das System nur die triviale Lösung, ist dies nicht möglich, die Vektoren sind linear unabhängig. Ist det(A) ≠ 0, so hat das System, wie wir wissen, genau eine Lösung, und dies muss die triviale sein, d.h. die Vektoren S1 ,…, Sn sind linear unabhängig. Wir behaupten nun aber, dass davon auch die Umkehrung gilt: Wenn die Vektoren (Spalten von A) S1 ,…, Sn linear unabhängig sind, ist det(A) ≠ 0. Hiezu überlegen wir wie folgt: Wenn wir einen der Vektoren, sagen wir Sk, ersetzen durch 16 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Sk + λSj, wo λ eine beliebige Zahl ist und j ≠ k, dann bleiben die Vektoren linear unabhängig. Ebenso, wenn wir zwei Vektoren vertauschen. Durch solche Operationen können wir aber die Matrix auf Spaltenstaffelform bringen (ähnlich wie wir im Gauss-Algorithmus das Gleichungssystem auf Zeilenstaffelform gebracht haben): In jeder Spalte steht das erste von Null verschiedene Element (Pivot) weiter unten als dasjenige der vorherigen Spalte. ⎡ 0 0 0 .. 0⎤ ⎢: : : .. : ⎥ ⎢d1 : ⎥ ⎢: ⎥ : ⎢ ⎥ ⎢ : d2 ⎥ : : .. : ⎦⎥ ⎣⎢ : Die Pivots d1, d2, … können aber nach rechts hin nicht schneller als in Einerschritten absteigen (und d1 steht an der Stelle (1,1)), weil sonst die letzte Spalte 0 wäre, was der linearen Unabhängigkeit widerspräche, d.h. sie müssen auf der Hauptdiagonale liegen. Da die Matrix untere Dreiecksform hat (oberhalb der Diagonale Nullen), ist ihre Determinante das Produkt der Hauptdiagonalelemente, d.h. der Pivots, also ≠ 0. Bei den angewandten Manipulationen verändert aber die Determinante der Matrix höchstens das Vorzeichen, sodass also auch die Determinante der ursprünglichen Matrix ≠ 0 ist. Etwas anders formuliert: Wenn det(A) = 0, müssen die Spaltenvektoren von A linear abhängig sein, d.h. das Gleichungssystem x1S1 + … + xnSn = 0 hat auch nichttriviale Lösungen. Wir fassen zusammen: Ein homogenes lineares Gleichungssystem A·X = 0 (wo A eine quadratische Matrix ist) hat genau dann nichttriviale Lösungen, wenn det(A) = 0. n Ein Set von n Vektoren S1 , …, Sn im R ist genau dann linear unabhängig, wenn det([S1, …, Sn]) ≠ 0. Beide Aussagen bedeuten eigentlich dasselbe, einmal positiv, einmal negativ formuliert. Wenn n S1 ,…, Sn linear unabhängig sind, kann man noch mehr sagen: Jeder Vektor B im R lässt sich auf genau eine Art als Linearkombination von S1 ,…, Sn darstellen, B = x1S1 + … + xnSn, weil das Gleichungssystem A·X = B (dessen Matrix A = [S1, …, Sn] ja jetzt als regulär erkannt ist), genau eine n Lösung hat. Man sagt auch, die Vektoren S1 ,…, Sn bilden eine Basis des R . n Man könnte auch fragen, wann m Vektoren S1 ,…, Sm im R linear unabhängig sind, oder allgemeiner, wann ein Set von m Vektoren p linear unabhängige Vektoren enthält. Die Antwort lautet: n Ein Set von m Vektoren S1 , …, Sm im R enthält genau dann p linear unabhängige Vektoren, wenn es eine reguläre pxp-Untermatrix von A = [S1, …, Sm] gibt, das heisst, wenn p ≤ m und p ≤ n und es möglich ist, in der Matrix n−p Zeilen und m−p Spalten zu streichen, so dass die verbleibende pxp-Matrix regulär ist. Die grösste Zahl p mit dieser Eigenschaft wird auch als Rang von A bezeichnet. Beweis der Aussage: Wenn es eine solche Untermatrix gibt, sind deren Spalten linear unabhängig, umso mehr die entsprechenden Spalten von A, denn eine lineare Abhängigkeit würde bestehen bleiben, wenn man in den Vektoren gewisse Komponenten streicht. Enthält umgekehrt die volle Matrix A eine Auswahl von p linear unabhängigen Spalten, streichen wir zunächst die andern und bringen wie oben die restliche Matrix A’ auf Spaltenstaffelform. Es gibt p Pivots, die aber jetzt nach rechts hin auch rascher absteigen können. Wir streichen jetzt alle Zeilen, die kein Pivot enthalten; es verbleibt also eine untere Dreiecksmatrix A’’ (pxp mit den Pivots auf der Diagonalen), deren Determinante somit nicht Null ist. Wenn wir in A’ die Spaltenoperationen, mit denen wir Staffelform erreicht haben, rückgängig machen, geht A’’ in eine reguläre Untermatrix von A’ und damit von A über (die Determinante wechselt höchstens das Vorzeichen). 17 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 III Komplexe Zahlen III.1 Definition, Rechenoperationen mit komplexen Zahlen Im Laufe der Geschichte haben die Menschen ihren Zahlenbegriff mehrfach erweitert, von den natürlichen Zahlen (N) zu Brüchen von natürlichen Zahlen (positive rationale Zahlen), durch Hinzunahme von 0 und negativen Zahlen zu den rationalen Zahlen (Q), durch Übergang zu unendlich langen Dezimalbrüchen zu den reellen Zahlen (R). Jedesmal war der Auslöser, dass gewisse Rechenoperationen im vorhandenen Zahlenbereich nicht ausführbar waren. Die vier Grundrechenarten sind zwar in Q uneingeschränkt durchführbar, soweit es überhaupt sinnvoll ist (d.h. ausser Division durch 0), aber nicht alle rationalen Zahlen haben in Q eine Wurzel. In R haben zwar alle positiven Zahlen eine Wurzel, nicht jedoch die negativen. Um diesen Mangel zu beheben, wurden schliesslich noch die komplexen Zahlen (C) eingeführt. Der Bereich der komplexen Zahlen ist algebraisch abgeschlossen, d.h. hier hat sogar jede polynomiale Gleichung immer Lösungen, nicht nur Gleichungen der Form x2 = a. Es gibt verschiedene Möglichkeiten, diese komplexen Zahlen einzuführen. Wichtig ist nicht, was sie „sind“, sondern wie man damit rechnet. In diesem Sinne wählen wir eine Definition, die nahtlos an das letzte Kapitel anschliesst: Matrizen. Wir bezeichnen mit C die Menge der 2x2-Matrizen der Form ⎡x − y⎤ ⎢⎣ y x ⎥⎦ (x, y beliebige reelle Zahlen) und schreiben sie in der Form ⎡x − y⎤ ⎡1 0⎤ ⎡0 − 1⎤ ⎢⎣ y x ⎥⎦ = x ⎣⎢0 1⎥⎦ + y ⎣⎢ 1 0 ⎦⎥ = xE + yJ In C können wir alle vier Grundrechenarten uneingeschränkt durchführen, und die Multiplikation ist sogar kommutativ, obwohl sie dies bei Matrizen allgemein nicht ist. Um dies zu sehen, brauchen wir die Relationen J·E = E·J = J, J·J = −E Rechnen Sie die letzte nach; sie ist grundlegend. Damit wird (xE + yJ) · (uE + vJ) = (xu−yv)E + (xv+yu)J = (uE + vJ) · (xE + yJ) 1 1 x −y ⎡ x y⎤ ( xE + yJ)−1 = = 2 ( xE − yJ) = 2 E+ 2 J 2 2 ⎢ ⎥ − y x det( xE + yJ) ⎣ ⎦ x +y x +y x + y2 Damit diese Inverse existiert, muss nur x2+y2 ≠ 0 sein, d.h. (xE + yJ) darf nicht die Nullmatrix sein. Die Division wird dann zu uE + v J ux + vy −uy + vx = (uE + vJ) ⋅ ( xE + yJ) −1 = 2 E+ 2 J 2 xE + yJ x +y x + y2 Addition und Subtraktion sind problemlos: (xE + yJ) ± (uE + vJ) = (x±u)E + (y±v)J Wir wollen als nächstes eine geometrische Interpretation einführen und gleichzeitig die Schreibweise vereinfachen. So wie man sich reelle Zahlen als Punkte auf einer Geraden, der „reellen Zahlengeraden“, vorstellen kann, denken wir uns komplexe Zahlen als Punkte einer Ebene mit rechtwinkligem Koordinatensystem, der „Gauss’schen Zahlenebene“ oder „komplexen Zahlenebene“. Der komplexen Zahl xE+yJ entspricht dabei der Punkt (x, y). Die x-Achse des Koordinatensystems soll der reellen Zahlengeraden entsprechen, damit wir R als Teilmenge von C auffassen können. Wir 18 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 schreiben statt xE+yJ nur noch x+yj, statt x+0j nur x, statt 0+yj nur yj, statt 1j nur j. Dabei ist aus E die reelle Zahl 1 auf der x-Achse geworden, aus J die „imaginäre Einheit“ j (aus historischen Gründen so benannt, in der Mathematik meistens mit i bezeichnet, aber in der Elektrotechnik mit j), in der geometrischen Interpretation dem Punkt (0, 1) auf der „imaginären Achse“ entsprechend, mit der fundamentalen Beziehung j2 = −1 Im Übrigen brauchen wir uns keine speziellen Rechenregeln zu merken; für die vier Grundrechenarten gelten genau die gleichen Regeln wie die, die wir von den reellen Zahlen her kennen. Wenn wir eine komplexe Zahl mit einem einzigen Symbol bezeichnen, z.B. z = x+yj, nennen wir x auch den Realteil von z und y (nicht yj !) den Imaginärteil von z, geschrieben x = Re(z) , y = Im(z) Im yj j ˚ ˚ ˚ r ϕ (Matlab: real(z), imag(z)) z ˚1 ˚x ˚ komplexe Zahlenebene Re ˚ z* −z In dieser Zahlenebene liegt –z spiegelbildlich zu z bezüglich 0. Die Zahl, die spiegelbildlich zu z bezüglich der reellen Achse liegt, heisst die zu z konjugierte Zahl z* (Matlab: conj(z)). Wenn z = x+yj, ist z* = x−yj. Sie ist nützlich bei der Ausführung einer Division, da z·z* = (x+yj)·(x−yj) = x2−(yj)2 = x2−(yj)2 = x2+y2 reell ist; man erweitere also den Bruch mit der Konjugierten des Nenners: u + vj (u + vj)( x − yj) (ux − vyj2 ) + ( −uy + vx ) j ux + vy − uy + vx = = = 2 + 2 j x + yj ( x + yj)( x − yj) x2 + y2 x + y2 x + y2 Beispiel: Wir möchten (1 − j ⋅ 1+ 2j 2 ) berechnen. 3 − 4j 1+ 2j 2 (1 + 2 j)(3 + 4 j) 2 (3 + 8 j 2 ) + ( 4 + 6 ) j 2 − 5 + 10 j 2 − 1+ 2j 2 ) = (1 − j ⋅ ) = ( 1 − j ⋅ ) = (1 − j ⋅ ) = (1 − j ⋅ ) = 3 − 4j 25 25 5 32 + 42 5 + j − 2 j2 2 7 + j 2 49 + 14 j + j2 48 14 ( ) =( ) = = + j = 1.92 + 0.56 j 5 5 25 25 25 (1 − j ⋅ Es ist auch möglich, die Rechenoperationen geometrisch zu interpretieren. Für Addition und Subtraktion liegt es auf der Hand: Es werden ja einfach entsprechende Koordinaten addiert, und deshalb können wir auch die Ortsvektoren der beiden Punkte addieren bzw. subtrahieren und erhalten den Ortsvektor der Summe bzw. Differenz. Für die geometrische Interpretation von Multiplikation und Division benötigen wir noch eine andere Darstellung der komplexen Zahlen, die Polarform. (Die Form x+yj wird kartesische Form oder Normalform genannt.) In der Polarform werden die Polarkoordinaten r, ϕ von z angegeben, d.h. der Abstand r des Punktes z zum Nullpunkt und der Winkel ϕ, gemessen von der reellen Achse bis zum Ortsvektor von z (vgl. obige Figur). Es sind verschiedene Schreibweisen geläufig: z = r∠ϕ = r cis(ϕ) = r e jϕ 19 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Die erste Schreibweise (gelesen „r Versor ϕ“) wird Versorform genannt und in der Elektrotechnik gelegentlich noch verwendet. Die zweite ist eine Abkürzung von r(cos(ϕ)+j sin(ϕ)) (mit i statt j); in der Tat ist ja x = r cos(ϕ) und y = r sin(ϕ). Die dritte verwendet die noch zu definierende Exponentialfunktion. Wir benützen gerade diese Schreibweise. Man nennt r auch den Betrag von z, den Winkel ϕ das Argument von z, ϕ = Arg(z) r = |z| , (Matlab: abs(z), angle(z)) Die Umrechnung in die kartesische Form verläuft wie gesagt gemäss x = r cos(ϕ) , y = r sin(ϕ) in der umgekehrten Richtung gemäss x ϕ = sign( y ) ⋅ arccos( ) r r = x2 + y2 , (sign(y) ist das Vorzeichen von y) Man kann ϕ auch mit Hilfe von arctan(y/x) ausrechnen, muss dann aber noch mehr Fallunterscheidungen machen. Bei numerischen Berechnungen wird empfohlen, die im Rechner implementierte Funktion zu verwenden, z.B. eben angle(z) in Matlab. Wir machen darauf aufmerksam, dass ϕ nur bis auf Vielfache von 2π bestimmt ist, d.h. man kann immer ein ganzzahliges Vielfaches von 2π addieren oder subtrahieren, ohne die Zahl z zu verändern. Mit Arg(z) ist nach heutiger Konvention immer der Winkel im Intervall –π < Arg(z) ≤ π gemeint, und so ist auch die entsprechende Funktion auf Rechnern implementiert. Wir können nun die angekündigte geometrische Interpretation von Multiplikation und Division angehen. Seien z = r e jϕ , w = s e jψ in Polarform gegeben. Also z ⋅ w = r(cos(ϕ) + j sin( ϕ)) ⋅ s(cos(ψ ) + j sin( ψ )) = rs((cos( ϕ) cos( ψ ) − sin( ϕ) sin( ψ )) + j(cos( ϕ) sin(ψ ) + sin( ϕ) cos( ψ ))) = rs(cos( ϕ + ψ ) + j sin(ϕ + ψ )) = rs e j( ϕ + ψ ) (wobei wir die Additionstheoreme von cos und sin verwendet haben). Das bedeutet: Um zwei Zahlen zu multiplizieren, multipliziert man ihre Beträge und addiert ihre Argumente. Um zwei Zahlen zu dividieren, dividiert man ihre Beträge und subtrahiert ihre Argumente. Die zweite Aussage folgt unmittelbar aus der ersten, weil Division die Umkehrung von Multiplikation w w ⋅ z * rs e j( ψ − ϕ) s j( ψ − ϕ) = = = e . ist. Man kann es auch so sehen: Weil z* = r e j( − ϕ) = r e − jϕ , ist z z⋅z* r r 2 e j0 Einige Rechenbeispiele: j2 = 1e j π 2 ⋅ 1e j π 2 = e − jπ = −1 2 (1 + j) ⋅ ( −1 + 3 j) = ( 2 e 3 + j 10 ( ) =( 1− j π j 2e 6 2e −j 10 π 4 ) j π 4 )2 (Statt 1e jϕ schreibt man auch kürzer e jϕ .) ⋅ 2e =( 2e j j 2π 3 = 4e 5π 12 e − jπ )10 j 7π 6 = 4e −j 10 j = 2 e 5π 6 = −2 3 − 2 j 5π ⋅10 12 = 32 e j 25 π 6 = 32 e j π 6 = 16( 3 + j) Die Exponentialschreibweise für die Polarform ist sehr nützlich, weil die Regeln, die wir für Multiplikation und Division hergeleitet haben, so in natürlicher Weise in die bekannten Rechenregeln für Potenzen übergehen. In den obigen Rechnungen haben wir auch benutzt, dass (r e jϕ )m = r me jmϕ für eine ganze Zahl m was sich unmittelbar aus den Regeln für Multiplikation und Division ergibt. 20 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 III.2 HS 2011 / baw2 Polynome, komplexe Nullstellen Dank der Zahl j können wir jetzt auch Wurzeln aus negativen Zahlen ziehen; z.B. hat die Gleichung z2 = −5 die beiden Lösungen ± 5 j , d.h. das Polynom P(z) = z2 + 5 hat 2 Nullstellen in C. Wir werden – wie schon erwähnt – sehen, dass jedes nichtkonstante Polynom P(z) in C Nullstellen hat, beschäftigen uns aber vorerst mit zwei Spezialfällen, wo man die Nullstellen leicht berechnen kann. a) Kreisteilungsgleichungen Hier geht es darum, Gleichungen der Form zn = a aufzulösen, d.h. die Nullstellen des Polynoms P(z) = zn – a zu bestimmen. Dabei ist n eine natürliche, a eine beliebige komplexe Zahl ≠ 0. (Die Gleichung zn = 0 hat die einzige Lösung z = 0.) Wir schreiben z und a in Polarform: z = r e jϕ , a = s e jα . Damit lautet die zu lösende Gleichung r n e jnϕ = s e jα , für Betrag und Winkel einzeln aufgeschrieben rn = s, nϕ = α mod 2π Dabei ist mit „mod 2π“ gemeint, dass nϕ und α nur bis auf Vielfache von 2π übereinstimmen müssen, d.h. nϕ = α + k·2π mit einer ganzen Zahl k. Da s eine positive reelle Zahl ist und r eine solche sein 1 n s n . Für den Winkel haben wir zunächst unendlich viele soll, ist r eindeutig bestimmt, nämlich r = s = α 2π Möglichkeiten, ϕ = + k ⋅ , k ∈ Z. Wenn sich aber zwei Werte von k um ein Vielfaches von n n n unterscheiden, unterscheiden sich die entsprechenden Werte von ϕ um ein Vielfaches von 2π, liefern also die gleiche Zahl z. Wir erhalten deshalb nur n verschiedene Lösungen, nummeriert z.B. durch k = 0, 1, …, n−1: n zk = s 2π α j( + k ⋅ ) n n e = n ae j( Arg( a ) 2π +k ⋅ ) n n , k = 0, 1, …, n−1 Da alle Lösungen den gleichen Betrag r = n a haben, liegen sie auf einem Kreis um 0 mit diesem Arg( a ) n 2π zum Winkel n erreicht werden, bilden sie die Ecken eines regelmässigen n-Ecks. Es ist jetzt klar, wieso die Gleichung zn = a eine „Kreisteilungsgleichung“ genannt wird. Die Lösung z0 wird auch als n-te Wurzel aus a bezeichnet: Radius. Da sie ferner von z 0 = 1 n a = a n := n a e j n ae j aus durch Addition eines Vielfachen von Arg( a ) n j π Wir erinnern daran, dass –π < Arg(a) ≤ π. Es ist also − 1 = 1 e 2 = j (da Arg(−1) = π). Für die so definierten Wurzeln gelten jedoch die vom reellen Rechnen her bekannten Regeln nicht mehr uneingeschränkt. Z.B. ist 1 = 1 = ( −1) ⋅ ( −1) ≠ − 1 ⋅ − 1 = j ⋅ j = −1 . Wir gehen später genauer auf dieses Problem ein. Spezielle Beachtung verdient der Fall n = 2. Die beiden Lösungen der Gleichung z2 = a sind z0 = a = ae j Arg( a ) 2 , z1 = ae j( Arg( a ) + π) 2 = −z0 = − a 21 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Hier noch ein Beispiel für eine „Kreisteilung“: Im Lösungen von z3 = −8: z0 j ˚ ˚ ˚ z0 = 3 8 e 60° z1 z1 = 2 e ˚1 ˚z Re j π 3 = 2(cos(60 o ) + j sin(60 o )) = 1 + 3 j π 2π j( + ) 3 3 z2 = 2 e π 4π j( + ) 3 3 = 2 e j π = −2 = 2e −j π 3 = 1 − 3 j = z 0* 2 Beachten Sie dass, nach unserer Definition von Wurzeln, Ihren Taschenrechner und Matlab! 3 −8 = 3 8e j π 3 = 1 + 3 j , nicht −2. Fragen Sie b) Quadratische Gleichungen Auch eine quadratische Gleichung a z 2 + b z + c = 0 (a, b, c є C, a ≠ 0) hat in C immer Lösungen, da in der Lösungsformel z 0,1 = − b ± b 2 − 4ac 2a die Wurzel jetzt definiert ist. Wenn die Diskriminante d := b2 – 4ac Null ist, gibt es genau eine Lösung ( z 0 = z1 = −b −b ), andernfalls zwei, und liegt in der Mitte zwischen den beiden Punkten z0, z1. 2a 2a Berechnen wir zur Übung die Lösungen der quadratischen Gleichung z2 + (1+j)z + j = 0: Die Diskriminante ist d = (1+j)2 − 4j = −2j = 2 e π j( − ) 2 , ihre Wurzel = 2 (cos( −45°) + j sin( −45°)) = 1 − j . Damit erhalten wir z 0 = d = 2e π j( − ) 4 = −(1 + j) + 1 − j −(1 + j) − (1 − j) = − j , z1 = = −1 . 2 2 Betrachten wir noch den in der Praxis wichtigen Fall einer quadratischen Gleichung mit reellen Koeffizienten a, b, c: Wenn d > 0, sind beide Lösungen reell (wie bekannt!); wenn hingegen d < 0 (der früher „unlösbare“ Fall), bilden die beiden Lösungen z 0,1 = d −b d −b ± = ± j ein Paar zueinander 2a 2a 2a 2a konjugierter komplexer Zahlen. Wir kommen jetzt zum allgemeinen Fall und formulieren gerade das als Fundamentalsatz der Algebra bekannte Resultat: Jedes nichtkonstante Polynom P(z) = anzn + an−1zn−1 + … + a0 hat in C mindestens eine Nullstelle c (d.h. es gilt P(c) = 0). 22 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Die Koeffizienten a0, a1, …, an dürfen dabei beliebige komplexe Zahlen sein (an ≠ 0), auch wenn natürlich der Fall wo sie reell sind von speziellem Interesse ist. Der erste vollständige Beweis dieser Aussage stammt von C. F. Gauss (1777 bis 1855). Wir begnügen uns mit einer Skizze eines anschaulichen Beweises, deren Details zwar nicht ausgeführt werden, aber durchaus plausibel sind. Wir können annehmen, dass an = 1, da wir ja die Gleichung P(z) = 0 durch an dividieren können, ohne die Lösungen zu verändern. Wir können auch annehmen, dass a0 ≠ 0, denn wenn a0 = 0, ist P(0) = 0, d.h. 0 ist eine Nullstelle. Wir untersuchen nun, wie sich P(z) ändert, wenn wir z auf einem Kreis mit Radius r um den Nullpunkt einmal herumlaufen lassen. Wenn wir r sehr gross (viel grösser als |an−1| bis |a0| und 1) wählen, ist P(z) ≈ zn, und diese Zahl macht n Umläufe auf einem Kreis mit Radius rn, da zn = (r e jϕ )n = r ne jnϕ . Die Zahl P(z) umläuft also auf einer geschlossenen Kurve, die immer in der Nähe des Kreises mit Radius rn verläuft (eine Art Gummiband, vgl. Figur), n mal den Nullpunkt. r = 4; P(z) = z5 + j·z4 +(1−j)·z3 + (−2−j)·z2 + 2·z + (1+3·j) Lassen wir jetzt r schrumpfen, dann schrumpft auch dieses Gummiband und entfernt sich dabei immer mehr von Kreisform. Am Schluss, wenn r = 0, ist es zum Punkt a0 zusammengeschrumpft, da P(0) = a0. Nun muss es aber doch in irgendeinem Zwischenstadium passieren, dass das Gummiband genau durch den Nullpunkt geht, d.h. es muss auf dem Kreis mit dem gerade aktuellen Radius r einen Punkt z geben, für den P(z) = 0. Der Fundamentalsatz ist ein schönes theoretisches Resultat, gibt aber keinen Ansatz, wie die Nullstellen konkret zu berechnen sind. Für den Fall n = 2 haben wir oben die Lösungsformeln angegeben; ähnliche, wenn auch kompliziertere Formeln gibt es bis Grad 4. Ab Grad 5 gibt es keine allgemeine, aus Wurzelausdrücken aufgebaute Formel mehr (das wurde von Mathematikern bewiesen!); man ist also auf numerische Näherungsverfahren angewiesen, z.B. das Newtonverfahren, das Sie wahrscheinlich aus der Analysis kennen. Folgerungen aus dem Fundamentalsatz 1) Produktdarstellung eines Polynoms Jedes Polynom P(z) = anzn + an−1zn−1 + … + a0 kann auch in der Form P(z) = an(z−c1)(z−c2)···(z−cn) dargestellt werden, wobei c1, c2, …, cn (alle) Nullstellen des Polynoms in C sind. Diese Nullstellen können auch ganz oder teilweise zusammenfallen. Sind c1, c2, …, cr die voneinander verschiedenen Nullstellen, so erhält man durch Zusammenfassen gleicher Faktoren die Darstellung 23 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 n n P(z) = an(z−c1) 1(z−c2) 2···(z−cr) HS 2011 / baw2 nr , wobei n1 + n2 + … + nr = n = Grad von P (Die Zahlen n1, n2 ,…, nr heissen Vielfachheiten der Nullstellen.) Dieser Satz beruht darauf, dass man bei Vorliegen einer Nullstelle c (durch den Fundamentalsatz garantiert) durch Polynomdivision eine Faktorzerlegung P(z) = (z−c)·Q(z) herstellen kann. (Die Polynomdivision liefert zunächst eine Darstellung P(z) = (z−c)·Q(z) + R, wo R eine Konstante ist. Jedoch gilt 0 = P(c) = (c−c)·Q(c) + R = R.) Das Polynom Q hat einen um 1 kleineren Grad als P. Wenn es noch nicht eine Konstante ist, hat es nach dem Fundamentalsatz wieder eine Nullstelle, usw. Am Schluss bleibt ein Faktor vom Grad 0 (eine Konstante). Diese muss mit an übereinstimmen, da (z−c1)(z−c2)···(z−cn) = zn + … nach Wiederausmultiplizieren. Beispiel: Wir untersuchen das Polynom P(z) = z4 + 2·z3 + 8z + 16. Man kann eine Nullstelle erraten: −2. Durch Polynomdivision erhält man P(z) = (z + 2)(z3 + 8). Wir haben weiter oben die Lösungen der Gleichung z3 = −8 bestimmt: −2, 1± 3 j. Also hat unser Polynom P(z) = z4 + 2·z3 + 8z + 16 die Faktordarstellung P(z) = ( z + 2)2 ( z − 1 − 3 j)( z − 1 + 3 j) . Die Nullstelle −2 ist „doppelt“ vorhanden, d.h. sie hat Vielfachheit 2. Wenn wir die beiden nicht-reellen Faktoren wieder ausmultiplizieren, erhalten wir P( z) = ( z + 2)2 (( z − 1)2 − ( 3 j)2 ) = ( z + 2)2 (( z − 1)2 + 3) = ( z + 2)2 ( z 2 − 2z + 4) . Das Besondere daran ist die Tatsache, dass jetzt alle Faktoren reell sind (d.h. reelle Koeffizienten haben), allerdings einer davon quadratisch, mit negativer Diskriminante. In diesem einfachen Beispiel hätte man auch direkt (ohne Verwendung von komplexen Zahlen) auf dieses Resultat kommen können, aber tatsächlich können wir es verallgemeinern: Jedes reelle Polynom (d.h. die Koeffizienten a0, a1, …, an sind reell) kann als Produkt von reellen linearen und/oder quadratischen Faktoren dargestellt werden, genauer: 2) Reelle Produktdarstellung eines reellen Polynoms Jedes reelle Polynom P(z) = anzn + an−1zn−1 + … + a0 kann in der Form n n P(z) = an(z−c1) 1···(z−cr) r ( z 2 + β1z + γ1 )m1 ⋅ ⋅ ⋅ ( z 2 + β s z + γ s )m s dargestellt werden, wobei c1, c2, …, cr (alle) reellen Nullstellen des Polynoms sind, und die quadratischen Faktoren ebenfalls reell, mit negativer Diskriminante. Um dies zu begründen, brauchen wir noch einen Hilfssatz: Wenn c є C Nullstelle des reellen Polynoms P ist, dann ist auch die konjugierte Zahl c* Nullstelle von P. Denn 0 = (P(c))* = (ancn + an−1cn−1 + … + a0)* = (ancn)* + (an−1cn−1)* + … + (a0)* = (an)*(c*)n + (an−1)*(c*)n−1 + … + (a0)* = an(c*)n + an−1(c*)n−1 + … + a0 = P(c*). Hierbei haben wir benutzt, dass man in einer Summe summandenweise und in einem Produkt faktorweise konjugieren darf (d.h. (z + w)* = z* + w* und (z·w)* = z*·w*; warum?), und dass die ak reell sind. Ist nun c eine nichtreelle Nullstelle von P, so können wir also die beiden Faktoren (z−c) und (z−c*) abspalten: P(z) = (z−c)(z−c*)Q(z). Dann multiplizieren wir sie wieder aus, (z−c)(z−c*) = z2 – (c+c*)z + cc*, und beachten, dass β = −(c+c*) = −2Re(c) und γ = cc* = |c|2 reell sind. Dass die Diskriminante dieses reellen Faktors z2 + βz + γ negativ ist, folgt aus der Tatsache, dass er ja keine reelle Nullstelle hat. Um nun in der gleichen Art mit den Nullstellen von Q fortfahren zu können, müssen wir wissen, dass auch Q reell ist. Dies kann man einsehen, indem man sich Q(z) als durch die reelle Polynomdivision P(z) : (z2 + βz + γ) entstanden denkt. Beispiel: Wie lautet die reelle Faktorzerlegung des Polynoms P(z) = z 6 + z 3 + 1 ? Um die Nullstellen zu bestimmen, bemerken wir, dass die Substitution w = z3 zunächst auf die quadratische Gleichung w2 + w + 1 = 0 führt, mit den Lösungen w = ±j − 1± − 3 − 1± 3 j = =e 2 2 24 2π 3 . Die Nullstellen sind BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 8π 2π 4π 4π ⎫ ⎧⎪ ± j 2 π ± j( 2 π + 2 π ) mj ±j ± j( + ) ⎪ 9 9 3 9 9 3 =e = e 9 ⎬ , wobei jeweils die beiden demnach die 6 Zahlen ⎨e , e , e ⎪⎩ ⎪⎭ Zahlen mit dem betragsmässig gleichen Winkel (±) zueinander konjugiert sind. Nun ist Re( e ± jα ) = cos( α ) und e ± jα = 1 , also ( z − e jα )(z − e − jα ) = z 2 − 2 cos(α ) z + 1 . Wenn wir noch beachten, dass cos(160°) = −cos(20°), erhalten wir schliesslich z 6 + z 3 + 1 = ( z 2 + 2 cos(20°) z + 1) ⋅ ( z 2 − 2 cos( 40°) z + 1) ⋅ ( z 2 − 2 cos(80°) z + 1) Diese Zerlegung hätten wir ohne den Umweg über die komplexen Zahlen kaum finden können! Wir prüfen das Resultat mit Matlab: >> a = pi/9; % 20° >> p = conv(conv([1 2*cos(a) 1],[1 -2*cos(2*a) 1]),[1 -2*cos(4*a) 1]) p = 1.0000 0 -0.0000 1.0000 -0.0000 0 1.0000 Die Anweisung conv multipliziert zwei Polynome; Ein- und Ausgabe der Polynome geschehen in Form ihrer Koeffizientenvektoren, d.h. – beispielsweise – der Vektor [2 0 -5 1] würde für das Polynom 2 z 3 − 5 z + 1 stehen. III.3 Eulerformel, Exponentialform In diesem Abschnitt wollen wir die Schreibweise e jϕ für die Zahl mit Betrag 1 und Argument ϕ rechtfertigen, d.h. die sogenannte Eulerformel e jϕ = cos( ϕ) + j sin( ϕ) Dazu wollen wir unabhängig davon für beliebige komplexe Zahlen z definieren, was ez sein soll. Um Verwechslungen zu vermeiden, schreiben wir dafür vorläufig exp(z) (wie in Matlab). Aus der reellen x2 x3 Analysis übernehmen wir die bekannte Reihendarstellung von ex (x reell): e x = 1 + x + + + ... 2! 3! (was als Grenzwert e x = lim (1 + x + n→∞ exp( z ) := 1 + z + z2 z3 + + ... 2! 3! x2 x3 xn + + ... + ) zu verstehen ist). Wir definieren also 2! 3! n! für beliebige z є C Natürlich ist nachzuweisen, dass der Grenzwert (n→∞) existiert; dies geschieht jedoch genau gleich wie im reellen Fall. (Die Fakultät n! geht viel rascher gegen ∞ als die Potenz zn, sobald n > |z|.) Durch diese Definition ist also gewährleistet, dass exp(x) = ex für reelles x, wir haben die reelle Exponentialfunktion in die komplexe Ebene fortgesetzt, d.h. den Definitionsbereich von R auf C erweitert. Als nächstes überprüfen wir, dass auch jetzt noch die wichtige Rechenregel (1) exp(z + w) = exp(z)·exp(w) gültig ist. Dazu muss man die rechte Seite ausmultiplizieren und die Summanden geeignet zusammenfassen. Betrachten wir als Beispiel die Summanden vom Grad 3 (wo also die Summe der z3 z2 w2 w3 1 3! 3! Exponenten von z und w gleich 3 ist: ⋅ 1+ ⋅w + z⋅ + 1⋅ = ( z 3 + z 2 w + zw 2 + w 3 ) = 3! 2! 2! 3! 3! 2! 2! 25 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 1 3 1 ( z + 3z 2 w + 3zw 2 + w 3 ) = ( z + w )3 ; dies stimmt mit dem Summand vom Grad 3 auf der linken 3! 3! Seite überein. Für die Summanden vom allgemeinen Grad n braucht man die binomische Formel n n! ( z + w )n = ∑ ⎛⎜ n ⎞⎟zk w n − k mit den Binomialkoeffizienten ⎛⎜ n ⎞⎟ = . k⎠ k ⎠ k!⋅(n − k )! ⎝ ⎝ k =0 Wir folgern 1 exp( z) (2) exp( −z ) = (3) exp(z*) = exp(z)* (4) |exp(jϕ)| = 1 (für reelles ϕ) da exp(−z)·exp(z) = exp(−z+z) = exp(0) = 1, und weil man summanden- und faktorweise konjugieren darf, und weil |exp(jϕ)|2 = exp(jϕ)·(exp(jϕ))* = exp(jϕ)·(exp((jϕ)*)) = exp(jϕ)·exp(−jϕ) = 1. Damit können wir jetzt den Beweis der Eulerformel (exp(jϕ) = cos(ϕ) + j sin(ϕ)) in Angriff nehmen, wobei wir uns wieder nur auf die Darstellung der Ideen beschränken und die Details ausblenden. Beide Zahlen haben Betrag 1, und für kleine Winkel ϕ gilt exp(jϕ) ≈ 1 + jϕ ≈ cos(ϕ) + j sin(ϕ) (auf der linken Seite, weil höhere Potenzen von ϕ viel kleiner sind, und auf der rechten Seite, weil cos(ϕ) ≈ 1, sin(ϕ) ≈ ϕ). Durch geometrische Überlegungen am Einheitskreis ist es nicht schwierig, dies in der π folgenden Art zu präzisieren: Es gibt eine Konstante C so, dass für ϕ < die Ungleichung 6 ϕ π Arg(exp( jϕ)) − ϕ < C ⋅ ϕ2 gültig ist. Ist nun ϕ beliebig und die natürliche Zahl n so gross, dass < , n 6 ϕ ϕ ϕ ϕ ϕ2 dann gilt Arg(exp( j )) − < C ⋅ 2 . Nun ist aber sowohl (exp( j ))n = exp( j ⋅ n) = exp( jϕ) (wegen n n n n n ϕ ϕ ϕ ϕ der Rechenregel (1)) wie auch (cos( ) + j sin( ))n = cos( ⋅ n) + j sin( ⋅ n) = cos( ϕ) + j sin( ϕ) (weil n n n n ϕ ϕ ϕ cos( ) + j sin( ) Winkel hat und Winkel beim Multiplizieren addiert werden). Der Unterschied im n n n ϕ2 ϕ2 betragen. Durch Winkel von exp(jϕ) und cos(ϕ) + j sin(ϕ) kann also höchstens C ⋅ 2 ⋅ n = C ⋅ n n Vergrössern von n kann man diese Schranke beliebig klein machen, d.h. exp(jϕ) und cos(ϕ) + j sin(ϕ) haben tatsächlich den gleichen Winkel. Da sie auch beide Betrag 1 haben, sind sie gleich. Wir können also von jetzt an ohne Verwechslungsgefahr ez statt exp(z) schreiben. Als Nebenprodukt dieser Betrachtungen erhalten wir die aus der Analysis bekannten ϕ 2 3 ϕ3 Reihendarstellungen von cos(ϕ) und sin(ϕ), nämlich indem wir in e jϕ = 1 + jϕ + j2 +j + ... 2! 3! beachten, dass j2 = −1, j3 = −j, j4 = 1, j5 = j, …: ϕ2 ϕ 4 ϕ6 + − + ... 2! 4! 6! ϕ 3 ϕ 5 ϕ7 sin( ϕ) = Im( e jϕ ) = ϕ − + − + ... 3! 5! 7! cos( ϕ) = Re( e jϕ ) = 1 − Betrachten wir zum Schluss noch eine beliebige komplexe Zahl z = x+yj, so können wir wegen (1) schreiben: ez = ex·ejy , und da ex eine positive reelle Zahl ist, ist dies die Polarform von ez, d.h. es gilt e z = e x = eRe( z ) , Arg(e z ) = y = Im( z) mod 2π 26 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 IV Komplexwertige Funktionen IV.1 Erweiterung der reellen Funktionen Nachdem wir den Zahlenbereich erweitert haben, ist es angebracht, auch die gängigen Funktionen in sinnvoller Art und Weise zu erweitern, d.h. so, dass Rechenregeln, die im Reellen gelten, auch im Komplexen gültig bleiben. Dies gelingt, wie wir bereits bei der Wurzelfunktion gesehen haben, nicht immer. Bei der Exponentialfunktion (mit Basis e) hingegen hat es geklappt. Wie steht es mit den trigonometrischen Funktionen cos, sin und tan? Aus der Eulerformel erhalten 1 1 wir zunächst für reelle ϕ die Darstellungen cos( ϕ) = Re(e jϕ ) = (e jϕ + (e jϕ )*) = (e jϕ + e − jϕ ) und 2 2 1 jϕ j jϕ jϕ jϕ − jϕ sin(ϕ) = Im( e ) = (e − (e )*) = − (e − e ) (oder auch die am Schluss des letzten Kapitels 2j 2 angegebenen Reihendarstellungen). Die rechten Seiten dieser Gleichungen sind aber auch für komplexe Zahlen z anstelle von ϕ definiert, wir können sie daher als Definition für sin(z) und cos(z) verwenden: 1 j sin( z ) e jz − e − jz cos( z) := (e jz + e − jz ) , sin( z) := − (e jz − e − jz ) , tan( z) := = − j jz cos( z) 2 2 e + e − jz Damit sind diese drei Funktionen erweitert, und man kann nachprüfen, dass alle vom Reellen her vertrauten Rechenregeln weiterhin gelten. Wir zeigen als Beispiel das Additionstheorem des Cosinus: 1 j2 cos( z) cos( w ) − sin( z) sin( w ) = (e jz + e − jz )(e jw + e − jw ) − (e jz − e − jz )(e jw − e − jw ) = 4 4 1 jz 1 [( e + e − jz )(e jw + e − jw ) + (e jz − e − jz )(e jw − e − jw )] = [2e j( z + w ) + 2e − j( z + w ) ] = cos( z + w ) , 4 4 wobei wir von der Rechenregel (1) der Exponentialfunktion Gebrauch gemacht haben. Als nächstes versuchen wir den (natürlichen) Logarithmus zu definieren, wie im Reellen als Umkehrfunktion der Exponentialfunktion, d.h. w = ln(z) müsste die einzige Lösung der Gleichung ew = z sein. Diese bedeutet gemäss den Formeln am Ende des letzten Kapitels, dass eRe(w) = |z| und Im(w) = Arg(z) mod 2π = Arg(z) + k·2π (k є Z), d.h. die Gleichung hat unendlich viele Lösungen, wenn z ≠ 0, bzw. gar keine, wenn z = 0. Wenn wir nun (mit der willkürlichen Wahl k = 0) definieren ln(z) := ln(|z|) + j Arg(z) (für z ≠ 0) (wobei zu beachten ist, dass |z| eine positive reelle Zahl ist, auf die die reelle Logarithmusfunktion angewandt werden kann), dann ist damit nicht für die volle Exponentialfunktion eine Umkehrfunktion definiert, sondern nur für deren Einschränkung auf den Bereich –π < Im(w) ≤ π (weil ja Arg(z) nur Werte in diesem Bereich annehmen kann). Damit gelten die Regeln ln(z1·z2) = ln(z1) + ln(z2) und ln(ez) = z nicht mehr allgemein (nur noch modulo 2πj). Beispiel: 0 = ln(1) = ln((−1)·(−1)) ≠ ln(−1) + ln(−1) = jπ + jπ. Die Logarithmusfunktion ist auch unstetig, nämlich bei den Punkten der negativen reellen Achse; ihr Imaginärteil springt dort von –π auf π. Trotz dieser Unzulänglichkeiten ist der komplexe Logarithmus eine nützliche Funktion. Er wird auch gebraucht, um weitere Funktionen von R auf C zu erweitern, z.B. Potenzen: a z := eln( a )⋅z (a ≠ 0) Die Regeln az + w = az ⋅ aw , (a z )n = an⋅ z (a ≠ 0, n ganz) bleiben richtig, aber (a z ) w ≠ a z ⋅ w und (a ⋅ b)z ≠ a z ⋅ b z , im Allgemeinen. Beweisen Sie die richtigen Regeln und finden Sie ein Gegenbeispiel für die falschen! 27 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 1 Wir haben a n = n a schon in Abschnitt III.2 definiert und wollen noch überprüfen, dass unsere neue Definition damit kompatibel ist: 1 n a =e ln( a )⋅ 1 n = 1 ⋅(ln( a ) + j Arg( a )) n e = 1 ⋅ln( a ) n e 1 ⋅ j Arg( a ) n ⋅e = n a ⋅e j Arg( a ) n , in Übereinstimmung mit III.2 (p. 21). Die Erweiterung der Funktionen arccos, arcsin, arctan wird dem Leser als Übung überlassen. IV.2 Komplexe Funktionen einer reellen Variablen, Ortskurven In diesem Abschnitt geht es, grob gesagt, um Funktionen R → C , d.h. die Variable t darf nur reelle Werte annehmen, der Funktionswert z(t) jedoch komplexe. Eine solche Funktion kann man durch ihre Ortskurve veranschaulichen, d.h. die Menge der Punkte z(t), die man erhält, wenn t den ganzen Definitionsbereich der Funktion durchläuft. (Dies ist nicht der Graph der Funktion!) In der Elektrotechnik betrachtet man beispielsweise häufig die Impedanz einer Schaltung als Funktion eines darin enthaltenen Widerstandes. Es ist dann sehr nützlich, wenn man geometrische Informationen über die Ortskurve zur Verfügung hat. v x( t )⎤ Natürlich kann man statt z(t) = x(t) + j y(t) auch den Ortsvektor z( t ) = ⎡⎢ als Funktion von t ⎣ y( t )⎥⎦ r betrachten (wir bezeichnen allgemein mit z den Ortsvektor der komplexen Zahl z) und erhält so eine Parameterdarstellung der Ortskurve im Sinne der reellen Analysis. Der Vorteil der komplexen Betrachtungsweise besteht darin, dass wir hier die komplexen Rechenoperationen und Funktionen zur Verfügung haben, was für viele interessante Kurven sehr elegante Beschreibungen liefert. Wir beginnen mit einigen Beispielen. 1) z(t) = a + b t (a, b є C fest, b ≠ 0) Dies kennen Sie (in vektorieller Schreibweise) schon lange. Die Ortskurve ist eine Gerade; sie geht r durch a (für t = 0) und hat Richtungsvektor b . 2) z( t ) = a + b ⋅ e jt (a, b є C fest, b ≠ 0) Der Punkt z(t) kreist mit Winkelgeschwindigkeit 1 (wenn man t als Zeit betrachtet) auf dem Kreis mit Radius |b| um den Mittelpunkt a. Zur Zeit t = 0 ist er bei a + b. 3) z( t ) = a + b ⋅ e ct (a, b, c є C fest, b ≠ 0, Im(c) ≠ 0) Wenn Re(c) = 0, ergibt sich der gleiche Kreis wie in 2), aber mit Winkelgeschwindigkeit Im(c) durchlaufen. Wenn aber Re(c) = γ ≠ 0, erhalten wir etwas Neues: z( t ) = a + b ⋅ e ct = a + b ⋅ e γt ⋅ e j Im( c )t ; der Radius b ⋅ e γt wächst bzw. schrumpft während des Umlaufens exponentiell, was eine Spirale ergibt, genauer: eine logarithmische Spirale (weil der Winkel proportional zum Logarithmus des Radius’ wächst). Als Beispiel sehen Sie in der nebenstehenden Figur einen Ausschnitt aus der Ortskurve von z(t) = e(0.1+j)t. Die Figur wurde mit folgendem Matlab-Code erzeugt: t=-20:0.1:10; z=exp((0.1+j)*t); plot(z); grid on 28 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 4) z( t ) = HS 2011 / baw2 1 t+j Es ist z(0) = −j und für t → ±∞ gilt z(t) → 0. Mit Matlab-Hilfe kommt man rasch auf die Vermutung, dass die Ortskurve ein Kreis mit Mittelpunkt −0.5 j und Radius 0.5 ist. Um dies zu überprüfen, j 1 j 2 + j t − 1 1 j( t − j) 1 t − j 1 (beachten Sie, dass t−j berechnen wir z( t ) − ( − ) = + = = = j = 2 t+j 2 2( t + j) 2 t+j 2 t+j 2 und t+j zueinan-der konjugiert sind, also den gleichen Betrag haben), d.h. z(t) hat Abstand 0.5 zu −0.5 j, liegt also auf besagtem Kreis. Dieser Kreis wird aber nur einmal durchlaufen, wobei der Nullpunkt erst im Grenzwert für t → ±∞ erreicht wird. Man erkennt dies z.B. daran, dass 1 t−j −1 für −∞ < t < ∞ monoton von 0 bis −1 und wieder zurück läuft. Im( z( t )) = Im( ) = Im( 2 )= 2 t+j t +1 t +1 Dieses letzte Beispiel ist schon eines, das für „elektrotechnische“ Ortskurven interessant ist. Allgemeiner geht es hier häufig um Ortskurven von „gebrochen linearen“ Funktionen, d.h. 5) z( t ) = a +b⋅t c + d⋅ t (a, b, c, d є C fest; c, d nicht beide 0) a b + ⋅ t , die Ortskurve also eine Gerade. c c a 1 b 1 Wenn c = 0, ist z( t ) = ⋅ + , die Ortskurve also wiederum eine Gerade, weil ja s := ebenfalls nur d t d t b reelle Werte durchläuft. Allerdings wird der Punkt dieser Geraden nur im Grenzwert t → ±∞ d erreicht. Von jetzt an setzen wir d ≠ 0 voraus und formen die Funktion wie folgt um (Polynomdivision): a +b⋅t b bc 1 b ad − bc 1 z( t ) = = + (a − ) = + ⋅ . Wir setzen zur Abkürzung 2 c + d⋅ t d d c + d⋅ t d c/d+ t d Wenn d = 0, ist z( t ) = α= ad − bc , d2 β= b , d γ= c , also d z( t ) = β + α ⋅ 1 γ+t Ist α = 0, d.h. ad−bc = 0, dann besteht die Ortskurve nur aus dem Punkt β; wir setzen also von jetzt an ad−bc ≠ 0 voraus. 1 als eine reelle Variable betrachten, wodurch die Ortskurve Ist γ reell, so können wir s := γ+t wiederum als Gerade erkannt ist. Von nun an sei also γ nicht reell, d.h. Im(γ) ≠ 0. Wir formen die Funktion nochmals etwas um: α 1 α 1 Re( γ ) + t z( t ) = β + ⋅ = β+ ⋅ , wobei s := als neue reelle Variable Im( γ ) j + (Re( γ ) + t ) / Im( γ ) Im( γ ) j + s Im( γ ) 1 aufgefasst wird. Nun können wir schliessen, dass sich der Punkt auf dem Kreis von Beispiel 4) j+s bewegt. Dann werden alle Punkte dieses Kreises mit 0 aus mit dem positiven Faktor α multipliziert. Dies bedeutet, dass sie von Im(γ ) α gestreckt (Beträge werden multipliziert!) und mit Drehwinkel Im(γ ) α ) um 0 gedreht werden (Winkel werden addiert!). Dadurch entsteht wieder ein Kreis, ein Im( γ ) „drehgestrecktes“ Bild des ursprünglichen Kreises. Zu den Punkten des neuen Kreises wird jetzt noch β addiert, wodurch der Kreis nur noch verschoben wird. Die Situation ist in der nächsten Figur bildlich festgehalten. Arg( 29 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 β−j·α/Im(γ) (t = −Re(γ)) z(t) ˚ ˚ HS 2011 / baw2 ˚ Ortskurve von 1 z( t ) = β + α ⋅ γ+t (Im(γ) ≠ 0) Im β−j/2·α/Im(γ) −j·α/Im(γ) β (t → ±∞) ˚ ˚−j/2·α/Im(γ) Re ˚ ˚ −j/2 ˚−j (s = 0, d.h. t = −Re(γ)) Arg(α/Im(γ)) Der Mittelpunkt des Kreises ist β − j ⋅ α α , der Radius . 2 Im( γ ) 2 Im( γ ) Es lohnt sich, dies alles zusammenzufassen: a +b⋅t (a, b, c, d є C fest; c, d nicht beide 0) ist c + d⋅ t ein Punkt, falls ad−bc = 0, andernfalls c eine Gerade, falls c = 0 oder d = 0 oder reell, andernfalls d α α ein Kreis mit Mittelpunkt m = β − j ⋅ und Radius r = 2 Im( γ ) 2 Im( γ ) Die Ortskurve von z( t ) = - (wobei α = ad − bc b c , β= , γ= ) 2 d d d Wir fügen noch ein Beispiel aus der Elektrotechnik an: In einem seriellen RLC-Kreis mit Wechselspannungsquelle U der Kreisfrequenz ω wird die Spannung mit dem Übertragungsfaktor jωL A= R + jωL + 1 jωC = − ω2LC 1 − ω2LC + jωRC auf die Spule (welche die Selbstinduktion L darstellt) übertragen. Wir interessieren uns nun für die Ortskurve von A als Funktion von L, bei festen (positiven) Werten von ω, R, C, d.h. wir betrachten die Funktion A(L ) = − ω2 C ⋅ L 1 + jωRC − ω2C ⋅ L (L ≥ 0) Dies ist tatsächlich eine gebrochen lineare Funktion wie in 5), mit a = 0, b = −ω2C = d, c = 1 + jωRC. c 1 + jωRC 1 R b ad − bc ω2C(1 + jωRC) 1 + jωRC =− 2 −j . , β = = 1, γ = = Wir berechnen α = = = d ω d − ω2C ωC d2 ( ω2 C ) 2 ω2 C 30 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 α 1 + jωRC − ω j2 1 1 1 , = 1− j ⋅ ⋅ = 1 + + j⋅ = + j⋅ 2 2 Im( γ ) 2R 2 2ωRC 2 2ωRC ω C den Radius benötigen wir nicht, da wir noch wissen, dass A(0) = 0, womit wir den Kreis Im zeichnen können. Der Grenzwert von A(L) für − ω2 C = 1 . Der L → ∞ ist lim 2 L → ∞ (1 + jωRC) / L − ω C 1 j⋅ zweite Schnittpunkt mit der imaginären Achse ωRC 1 1 m wird für L = 2 erreicht, weil dann der Nenner j⋅ ω C 2ωRC in A(L) Realteil 0 hat. Der zugehörige Punkt ist (L→∞) −1 1 j (L = 0) 0.5 1 Re , in Übereinstimmung = A( 2 ) = jωRC ωRC ω C mit der Figur. Natürlich hätte man die Ortskurve j auch aus diesen drei Punkten (0, 1, ) ωRC gewinnen können, wenn man einmal weiss, dass sie ein Kreis ist. Der gestrichelte Teil des Kreises (im 4. Quadrant) entspricht negativen Werten von L, was in diesem Beispiel nicht vorkommt. Das Zentrum des Kreises ist m = β − j ⋅ ˚ ˚ ˚ ˚ ˚ Im nächsten Abschnitt werden wir weitere Methoden kennen lernen, um solche (kreisförmige) Ortskurven qualitativ, ohne viel Rechnung, geometrisch zu lokalisieren. Ableitung einer Funktion R → C Wir werden dabei auch Schnittwinkel von Ortskurven untersuchen, worunter der Schnittwinkel der Tangenten im Schnittpunkt zu verstehen ist. In der reellen Analysis wird gezeigt, dass die v v ⎡ x( t )⎤ ⎡ x' ( t )⎤ , also z' ( t ) = ⎢ , einen komponentenweise gebildete Ableitung einer Vektorfunktion z( t ) = ⎢ ⎣ y( t )⎥⎦ ⎣ y' ( t )⎥⎦ v v Tangentenvektor (im Punkt der Kurve mit Ortsvektor z( t ) ) darstellt, wenn z' ( t ) nicht der Nullvektor ist. Wir übertragen dies auf unsere Situation: Für die Ableitung einer Funktion t → z(t) = x(t) + j y(t), definiert als z'(t) := x'(t) + j y'(t), d.h. Realteil und Imaginärteil werden separat abgeleitet (diese sind gewöhnliche reelle Funktionen), gelten die vom Reellen her gewohnten Ableitungsregeln; z.B. erhält man für z(t) = ejt als Ableitung z'(t) = j·ejt. (Rechnen Sie dies mit Hilfe der Eulerformel nach!) Dann gilt also Falls z'(t) ≠ 0, ist der Ortsvektor von z'(t) (im Punkt z(t) eingezeichnet) ein Tangentenvektor an die Ortskurve. Im z(t) Tangentenvektor in z(t) ˚ Re ˚ z'(t) 31 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 IV.3 HS 2011 / baw2 Abbildungen der komplexen Ebene, insbesondere Inversion Unter einer Abbildung der komplexen Ebene versteht man eine Funktion C → C, d.h. sowohl die Variable z wie auch der Funktionswert w = f(z) können komplex sein. Wir nennen f(z) den Bildpunkt von z. Einfache Beispiele kann man direkt geometrisch verstehen, so etwa 1) f(z) = z + b (b fest): Translation. Translationsvektor ist der Ortsvektor von b. 2) f(z) = a·z (a fest): Drehstreckung mit Zentrum 0. Der Streckungsfaktor ist |a|; der Drehwinkel Arg(a). 3) f(z) = a·(z−c) + c: Drehstreckung mit Zentrum c. 4) f(z) = z*: Spiegelung an der reellen Achse. 5) f(z) = −z*: Spiegelung an der imaginären Achse. Wie aber soll man die geometrischen Eigenschaften einer komplizierteren Funktion, wie etwa f(z) = ez, anschaulich beschreiben? Man kann für geeignete Teilmengen F des Definitionsbereichs („Figur“) die Menge f(F) := { f(z) | z є F } , die „Bildfigur“, bestimmen, um die Wirkung der Abbildung sichtbar zu machen. Wählt man als Figur die Ortskurve einer Funktion t → z(t), dann ist die Bildfigur die Ortskurve von t → f(z(t)). Häufig nimmt man als Originalfigur ein Gitter bestehend aus Linien parallel zur reellen und zur imaginären Achse, ein sogenanntes kartesisches Gitter. Wir erläutern das Vorgehen im Fall der Exponentialfunktion f(z) = ez; meistens wird man jedoch Computerhilfe benötigen. Eine zur reellen Achse parallele Gerade hat die Parameterdarstellung z(t) = t + j y (y fest), d.h. sie ist Ortskurve dieser Funktion. Ihr Bild hat also die Parameterdarstellung w(t) = ez(t) = et·ejy. Der zweite Faktor ist fest, mit Winkel y. Der erste Faktor (Betrag von w(t)) ist reell und variabel, nimmt aber nur positive Werte an; er wächst exponentiell mit t = Re(z). Die Bildkurve ist also der von 0 ausgehende Strahl (ohne 0) mit Richtungswinkel y. Eine zur imaginären Achse parallele Gerade hat die Parameterdarstellung z(t) = x + j t (x fest); der Bildpunkt w(t) = ex·ejt durchläuft einen Kreis mit Radius ex, und zwar unendlich oft, wenn wir für t alle reellen Zahlen zulassen. Wir beschränken uns also in diesem zweiten Fall (Im(z) = t) besser auf den Bereich −π < t ≤ π. Dies ist sowieso ratsam, da die Exponentialfunktion Periode 2πj hat: ez+2πj = ez·e2πj = ez·1 = ez. Das hat ja zur Folge, dass das Bild des Bereichs π < Im(z) ≤ 3π genau das gleiche ist wie das Bild des Bereichs −π < Im(z) ≤ π, etc. Das Bild eines regelmässigen kartesischen Gitters im Bereich −π < Im(z) ≤ π besteht also aus von 0 ausgehenden Strahlen (mit regelmässigen Winkelabständen) und Kreisen mit Zentrum 0, deren Radien exponentiell wachsen. In der Figur auf der nächsten Seite wird der Bereich −5 ≤ Re(z) ≤ 3, −π ≤ Im(z) ≤ π abgebildet. Originallinie und Bildlinie sind jeweils mit der gleichen Farbe dargestellt. Die Bildkreise der senkrechten Linien links in der z-Ebene (rot) sind so klein, dass sie in der w-Ebene nicht sichtbar sind. Der grösste Kreis (in der Figur) hat Radius e3 ≈ 20, der kleinste e−5 ≈ 0.0067. Eine Gittermasche in der z-Ebene wird in einen Kreisringsektor in der w-Ebene abgebildet. Die Strahlen und Kreise des Bildes schneiden sich unter einem rechten Winkel, genau wie die Gitterlinien im Original. Dies ist Ausdruck eines allgemeinen Sachverhalts, dem wir uns jetzt zuwenden. Winkeltreue und komplexe Differenzierbarkeit Man sagt, eine Abbildung f sei winkeltreu im Punkt z0, wenn für je zwei Kurven, die sich in z0 schneiden, der Schnittwinkel der Bildkurven mit dem Schnittwinkel der Originalkurven übereinstimmt (inklusive Vorzeichen, d.h. Drehsinn). 32 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Abbildung z → w = ez; Bild des kartesischen Gitters Eine Abbildung f heisst komplex differenzierbar in z0, wenn der Grenzwert f ( z 0 + Δz ) − f ( z 0 ) f ' ( z 0 ) = lim existiert. Die Definition stimmt also mit der aus der reellen Analysis Δz Δz → 0 bekannten überein. Der Unterschied besteht aber darin, dass man Δz auf ganz verschiedene Art gegen 0 gehen lassen kann, z.B. auf einem Strahl, oder auf einer Spirale, oder …, und der Grenzwert muss jedes Mal derselbe sein. So ist komplexe Differenzierbarkeit eine viel einschneidendere Bedingung als reelle Differenzierbarkeit nach x (= Re(z)) und y (= Im(z)). Trotzdem sind die gängigen Funktionen, wie sie in Abschnitt IV.1 eingeführt wurden, komplex differenzierbar, mit den gleichen Rechenregeln wie im Reellen. Z.B. gilt für f(z) = zn (n ganz): f'(z) = n·zn−1; die Ableitung des Sinus ist der Cosinus, etc. Auch die Beweise verlaufen ganz analog. 33 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Als Beispiel einer nicht komplex differenzierbaren Funktion erwähnen wir die Konjugation, f(z) = z*. f ( z 0 + Δz ) − f ( z 0 ) ( Δz) * = = e − j⋅2 Arg( Δz ) , und je nachdem, wie man Δz Der Differenzenquotient lautet Δz Δz gegen 0 gehen lässt, ergeben sich verschiedene Grenzwerte oder gar keiner. Das Überraschende ist nun, dass komplexe Differenzierbarkeit Winkeltreue impliziert, genauer: Eine in z0 komplex differenzierbare Abbildung f ist dort auch winkeltreu, falls f'(z0) ≠ 0. Dies wollen wir begründen. Denken wir uns zwei Ortskurven, gegeben durch t → z1(t) und t → z2(t), die sich in z0 schneiden, mit z1(0) = z0 = z2(0). (Man kann es immer so einrichten.) Der Schnittwinkel z ' (0 ) ) . Die ist der Winkel zwischen den Tangentenvektoren, also α = Arg( z 2 ' (0)) − Arg( z1' (0)) = Arg( 2 z 1 ' (0 ) Bildkurven sind gegeben durch t →w1(t) = f( z1(t)) und t → w2(t) = f( z2(t)), ihr Schnittwinkel also durch w ' (0 ) β = Arg( 2 ) . Nun ist aber w 1' (0) = f ' ( z1(0)) ⋅ z1' (0) = f ' ( z 0 ) ⋅ z1' (0) und analog w 1 ' (0 ) w 2 ' (0) = f ' ( z 0 ) ⋅ z 2 ' (0) , denn die Kettenregel gilt auch für komplexe Funktionen (Beweis wie im f ' ( z 0 ) ⋅ z 2 ' (0 ) w 2 ' (0 ) z ' (0 ) ) = Arg( ) = Arg( 2 ) = α . Beachten Sie, dass w 1 ' (0 ) f ' ( z 0 ) ⋅ z1 ' (0 ) z1' (0 ) diese Rechnung nur funktioniert, wenn f'(z0) ≠ 0. Reellen). Damit wird β = Arg( Betrachten wir nochmals die Konjugation, d.h. die Spiegelung an der reellen Achse. Diese ist nicht komplex differenzierbar, aber auch nicht winkeltreu im obigen Sinne, denn sie kehrt die Orientierung der Winkel um: β = −α. Die Inversion 1 von Interesse, z. B. für den Übergang von z Impedanzen zu Admittanzen und umgekehrt. Nach dem oben Gesagten ist dies eine winkeltreue Abbildung (ausser bei 0, wo sie gar nicht definiert ist). Wir werden aber noch eine weitere interessante Eigenschaft („Kreistreue“) kennen lernen. Zunächst merken wir uns einige einfache Eigenschaften: In der Elektrotechnik ist die Inversion z → w = f(z) = w = 1 , z Arg(w) = −Arg(z) wenn |z| = 1, dann w = z* wenn z → 0, dann |w| → ∞ , wenn |z| → ∞, dann w → 0 Die Einheitskreislinie wird also auf sich selber abgebildet (an der reellen Achse gespiegelt), das 1 nennt man auch Innere des Einheitskreises auf das Äussere, und umgekehrt. Die Abbildung z → z* Spiegelung am Einheitskreis (die beiden Zahlen liegen auf dem gleichen Strahl von 0 aus, das Produkt ihrer Beträge ist 1). Inversion kann also aufgefasst werden als Kombination von Spiegelung an der reellen Achse und Spiegelung am Einheitskreis. Wir interessieren uns nun für die Bilder von Geraden und Kreisen. Jede(r) solche lässt sich als a+b⋅t darstellen, wie aus Abschnitt Ortskurve einer linearen oder gebrochen linearen Funktion z( t ) = c + d⋅ t c + d⋅t IV.2 hervorgeht. Die Bildkurve bei Inversion ist dann Ortskurve von w( t ) = , also wieder ein a+b⋅t Kreis oder eine Gerade. Es kann aber sein, dass das Bild eines Kreises eine Gerade ist und umgekehrt. Fassen wir eine Gerade als „Kreis“ mit unendlich grossem Radius auf, um die 34 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 Formulierung zu vereinfachen! D.h. wir verstehen unter „Kreis“ einen Kreis oder eine Gerade. Damit können wir sagen: Die Inversion ist „Kreis“-treu, d.h. das Bild eines „Kreises“ ist wieder ein „Kreis“. Ob die Bildkurve ein Kreis oder eine Gerade ist, lässt sich leicht feststellen: Wenn der Original-„Kreis“ durch 0 geht, ist die Bildkurve eine Gerade, sonst ein Kreis. Im ersten Fall kann man nämlich auf der Originalkurve gegen 0 gehen, auf der Bildkurve also gegen ∞, und darum kann diese nur eine Gerade sein. Im zweiten Fall gibt es auf der Originalkurve einen Punkt mit kleinstem Abstand zu 0 (man fälle von 0 aus das Lot auf den „Kreis“), auf der Bildkurve also einen mit grösstem Abstand zu 0. Auf einer Geraden gibt es aber keinen solchen, deshalb muss die Bildkurve ein Kreis sein. Wir erläutern jetzt anhand eines Beispiels, wie diese Überlegungen angewendet werden können. Es 1 1 1 + die Admittanz eines Wechselstromkreises und Z(C) = die sei Y(C) = 1 R1 + jωL Y( C ) R2 + jωC Impedanz, wobei R1, R2, L und ω fest sind, jedoch C variabel (alle positiv). Man beschreibe die Ortskurven von Z(C) und Y(C). Natürlich könnte man die Methode von Abschnitt IV.2 anwenden, was 1 jedoch einige Rechnung erfordert. Wir gehen statt dessen so vor, dass wir mit Z1(C) := R 2 + jωC 1 beginnen (die Variable kommt sonst nirgends vor), dann invertieren, dann schieben (um , R1 + jωL was Y(C) ergibt), dann wieder invertieren (um Z(C) zu bekommen). Um die Übersicht zu behalten, verwenden wir dabei zwei komplexe Ebenen, eine Impedanz-Ebene und eine Admittanz-Ebene. Im(Z) Im(Y) Inversion (C→0) R1+ jωL ˚ 1 1 1 + R1 + jωL R 2 (C→∞) R2 (C→∞) ˚ ˚ Z(C) Y1(C) ˚ Re(Z) (C→0) Z1(C) (C→∞) Y(C) (C→0) 1 R1 + jωL ˚ 1 R2 ˚ Re(Y) (C→∞) 1 1 + R1 + jωL R 2 ˚ (C→0) Die Ortskurve von Z1(C) ist eine Gerade durch R2 senkrecht zur reellen Achse, genauer gesagt nur der Teil, der im 4. Quadranten liegt. Das inverse Bild davon, d.h. von Y1(C) = 1/Z1(C), ist also Teil eines Kreises durch 0 und 1/R2, der die reelle Achse rechtwinklig (Winkeltreue!) schneidet, also auch seinen Mittelpunkt (1/(2R2)) auf dieser hat, und zwar der Teil im 1. Quadranten, also ein Halbkreis. 1 verschoben, also in Richtung des 4. Quadranten, und dies ist Dieser Halbkreis wird jetzt um R1 + jωL schon die Ortskurve von Y(C). Um wie viel verschoben wird, hängt natürlich von R1 und ωL ab; wenn 1 der Punkt R1+ jωL in der Impedanzebene gegeben ist, kann man sein inverses Bild in der R1 + jωL Admittanzebene lokalisieren, indem man das Vorzeichen des Winkels wechselt und das Betragsverhältnis bezüglich eines andern Punktes, z.B. R2, umkehrt (1/|R1+ jωL| : 1/R2 = R2 : |R1+ jωL|). Der 35 BFH-TI Abteilungen EKT und M Lineare Algebra und Geometrie 1 HS 2011 / baw2 schwierigste Schritt ist nun die Inversion dieses verschobenen Halbkreises, um die Ortskurve von Z(C) zu bekommen. Diese muss ein Teil eines Kreises sein, der durch R1+ jωL geht (für C → 0). Um diesen Kreis zu lokalisieren, kann man die Tangenten von 0 aus an den Kreis von Y(C) legen. Diese Strahlen gehen bei Inversion in die Strahlen mit (im Vorzeichen) umgekehrten Winkeln über, und die Strahlen werden in umgekehrter Richtung durchlaufen. Durch die beiden Tangenten und den Punkt R1+ jωL ist der Kreis festgelegt, wenn man noch beachtet, dass R1+ jωL weiter von 0 entfernt sein muss als die beiden Berührpunkte der Tangenten, weil es im inversen Bild gerade umgekehrt ist. Hat 1 1 einzeichnen, = man den Kreis, so kann man darauf den Punkt Z(C → ∞ ) = 1 1 Y( C → ∞ ) + R1 + jωL R 2 indem man wieder entsprechende Strahlen betrachtet. Der gesuchte Punkt ist der innere Schnittpunkt des Strahls mit dem Kreis. Die gesuchte Ortskurve von Z(C) ist jetzt der Teil des Kreises zwischen den beiden bekannten Punkten Z(C→0) und Z(C→∞) mit der untern Tangente, i.A. kein Halbkreis mehr. Die Smith Chart Zum Abschluss erwähnen wir noch ein weiteres Beispiel einer winkel- und kreistreuen Abbildung: z −1 z→w= . Diese kommt z.B. in der Leitungstheorie vor. Das Bild des kartesischen Koordinatenz +1 gitters (für Re(z) ≥ 0) wird Smith Chart genannt (s. Abbildung). Die imaginäre Achse wird auf den Einheitskreis abgebildet, der Bereich Re(z) > 0 auf das Innere des Einheitskreises. Die Bilder der vertikalen Gitterlinien (Re(z) = konstant) sind Kreise durch 1, die symmetrisch zur reellen Achse liegen, und die Bilder der horizontalen Gitterlinien (Im(z) = konstant) sind Kreise, die die reelle Achse bei 1 berühren. Wir überlassen die Begründung dieser Fakten dem Leser als Übungsaufgabe. Beschriftet man diese Kreise in der Smith Chart mit den entsprechenden Werten von Re(z) bzw. Im(z), so kann man für einen gegebenen Punkt z das Bild w = u + v j in der Smith Chart eintragen und seine Koordinaten u, v ablesen. So ist z.B. das Bild von z = 0.5 + j ungefähr w = 0.08 + 0.62 j. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 36