NEUES MATERIAL vom 16.11. 2008 Einige Beispiele zur Linearen Algebra, Weiterführung des “Standard-Beispiels”: 1. Wir erinnern uns daran, dass es zu jeder Folge von linear unabhängigen Vektoren im Rm (sagen wir der geometrischen Anschaulichkeit halber in R3 ) mit Hilfe von PINV ein Biorthogonalsystem gefunden werden kann. Schreibt man die Vektoren als Spalten einer m×k Matrix, dann besteht das Biorthogonal-System aus den Spalten von pinv(A’) == pinv(A)’. Man überzeuge sich zunächst an ein paar Beispielen (z.B. ausgehend von einer zufälligen 5 × 3-Matrix. Wir haben daraus abgeleitet, dass die drei Koordinaten der Projeken eines beliebigen Vektors b auf das lineare Erzeugnis dieser Vektoren als Koeffizienten genau die Folge b ∗ pinv(A) haben. 2. Es sei A = zeros(1,9); A = 1:9 die übliche TESTMATRIX. Man nehme (wahlweise) die ersten beiden (oder irgendwelche zwei) Zeilen, und zwei Spalten aus der Matrix (die ja bekanntlich Rang 2 hat, d.h. diese zwei Vektoren bilden jeweils eine Basis des entsprechenden Zeilen oder Spaltenraums der Matrix. Man beschreibe nun die Matrix auf, die die Einschränkung von A auf den Zeilenraum beschreibt. Man zeige, dass diese Matrix (unabhängig davon wie sie konkret aussieht) immer eine invertierbare Matrix vom Format r × r ist (r = rank(A)). Die inverse Abbildung dieser Abbildung beschreibt gerade die Wirkung der Pseudo-inversen (die Spaltenvektoren zurueck in den Zeilenraum abbildet). 1 3. Gegeben sei eine Ebene im R3 , mit den Punkten P = [1, 2, 3], Q = [4, 5, 6] und R = [3, 4, 1];. Man versuche den Abstand von P nach Q auf zwei Arten zu bestimmen. Einmal bestimme man diesen Abstand direkt als den Euklidischen Abstand in R3 . Das andere Mal erzeuge man sich in der (affinen) Ebene ein orthogonales Koordinatensystem, mit Zentrum P , und berechne dann den Abstand “in dieser Ebene”. 4. Da bekanntlich jede Ebene im R3 sich durch eine lineare Gleichung bescheiben läßt, bestimme man wenigstens eine Form, durch die diese (affine) Ebene beschrieben werden kann (z.B. mit Hilfe des Normalvektors). Einige Beispiele in Ergaenzung zur Wahrscheinlichkeit, Polynom-Multiplikation und FFT: 1. Um das Verhalten der Binomial-Koeffizienten zu studieren, plotte man ihr Verhalten mit zunehmendem n (zentraler Grenzwertsatz). 2. Man wandere, bei 0 ∈ Z startend je nach Münzwurf nach links (Kopf) oder rechts (Adler). Sollte die Münze auf dem Rand stehen bleiben, so bleibt man stehen. Wie gross ist die Wahrscheinlichkeit, nach 50 Schritten mehr als 20 vom Ursprung entfernt zu landen (d.h. bei 11, 12 oder −11, −12 . . . . ). 3. Man nehme die drei normalen Würfel (die positiv gerechnet werden sollten) und den 18-er Würfel, der negativ gerechnet werden sollte, und beobachte, wie mit zunehmender Zahl von Wiederholungen die Chancen steigen, mit den 3 Würfeln mehr als mit dem 18-er Würfel zu liegen. Man berechen (numerisch/experimentell) ab wann die Chancen, mit dem 18-er Würfel voranzuliegen, nur mehr mehr als 60% liegen (ab ca. 30-mal Würfeln). 1 Bitte nicht vergessen, dass es sauberer waere, vom Spaltenraum von A0 zu sprechen! NEU (20.11.2008): Was/wie können Sie sich auf die Tests (Orientierungstest, Teilleistung f.d. Übungen zur Vorlesung) VORBEREITEN: 1. Auffrischen der linearen Algebra: lineare Unabhaengigkeit, Basis, Dimension, lineare Abbildung, Matrix-Darstellung einer linearen Abbildung, Zeilenraum, Spaltenraum, orthogonales Komplement, orthogonale Projektion, Gram-Schmidt 2. MATLAB Grundbegriffe (vor allem, dass man weiß was möglich ist: Matrix Multiplication A*B , x’ * y = Skalarprodukt... z.B. INV, RANK, ORTH, NULL, DET, PINV, CROSS, RREF (row reduced echelon form = Gauss Zst-Form) POLYVAL, FFT, IFFT, PLOT, IMAGESC, EVAL, DIARY, SAVE, LOAD, SUBPLOT, DISP, for k=1:n, ... end; while .... end;, if a > b ... end; 3. Aufstellen einer Basis-Matrix, “Rechengänge” in (pseudo-)MATLAB code, durch Aufzählen der nötigen Schritte, z.B. Wie kann die Matrix zu einer bestimmten linearen Abbildung gefunden werden 4. Beantwortung typischer geometrisch/numerischer Aufgaben auf konstruktiv/numerischem Wege: Es seien A, B gegeben (zwei Kollektionen von Spalten-Vektoren, sagen wir 3 Spaltenvektoren im R7 ). Wie kann ich feststellen, ob diese beiden Matrizen den gleichen Teilraum aufspannen. Konkret, sei C eine 3x3-Matrix, und B = A ∗ C. Was kann man in dieser Situation sagen? 5. Man finde die orthogonale Projektion eines Punktes im Rn auf einen Teilraum, der von einigen Vektoren aufgespannt wird. 6. Ein bekanntes Verfahren (theoretisches) zur Erstellung einer Basis ist diese: Man starte von einem Erzeugendensystem und entferne die “ überflüßigen” Vektoren, solange bis man ein linear unabh. = minimales Erzeugenden-System des Teilraumes, als eine Basis hat. 7. Man bestimme die allgemeine Lösungsmenge eines inhomogenen Gleichungssystems in “PunktVektor-Form”. Es sei z ∈ Rn keine Lösung des linearen Problems A ∗ x = b, für festes b im Spaltenraum von A. Wie kann man dann die “nächstgelegene Lösungfinden? 8. WEITERES FOLGT Anfang kommender Woche! NACHTRAG Würfel Man denke sich folgendes Würfelexperiment: Es wird mit zwei Würfeln (rot und schwarz, sagen wir) gewürfelt, und zwar so, dass man, bei 0 ∈ Z startend um die “rote” Augenzahl nach links bzw. um die schwarze Augenzahl nach rechts geht. Man bestimme fuer 10 : 10 : 80 Wiederholungen des Experimentes (also 10, 20, bis 80) Wiederholungen, wie gross die Wahrscheinlichkeit ist, wieder zu 0 zurueckgekehrt zu sein. Man zeige, dass die Wahrscheinlichkeit nach 0 zurueckzukehren mit der Zahl der Wiederholungen des Experiments abnimmt, und bestimme die Zahl der Wiederholungen, bei der das erste Mal die Chance unter 1% sinkt (Antwort: es sind 63 Wiederholungen!). Wie lange ist es korrekt zu behaupten, dass die Wahrscheinlichkeit, nicht mehr als 2 Schritte vom Ursprung entfernt zu sein, noch unter 50% ist. Weiteres Beispiel (vergleiche Tomographie-Beispiel): Ist es möglich, eine 2 × 2-Matrix aus der Kenntnis von beiden Zeilen und Spaltensummen sowie der Kenntnis der Summe der Diagonalelemente eindeutig rekonstruierbar? Auf welche Art kann das Problem angegangen werden (es geht weniger um das konkrete Ergebnis als um die Methode, die man anwendet, bzw. die man anwenden würde, wenn MATLAB zur Verfügung wäre). Ansatz: Es sind die Werte der Matrix M Angabe: geben sind also x1 + x2 = b1; x3 + x4 = b2; x1 +x3 = b3; x2 + x4 = b4; x1 + x4 = b5; Also ist >> rref(A); 1 0 0 1 0 0 0 0 A = = [a, b; c, d] gefragt, also suchen wir nach [ 1,1,0,0; 0,0,1,1; 1,0,1,0; 1,0,0,1]; rank(A)? rref(A)? etc. ans = 0 0 0 0 1 0 0 1 det(A) == 2, also ist die gesucht Antwort einfach x = inv(A) * b; bzw. Die L\"osung des Problems ist also: x = inv(A) * b; wobei inv(A) sich so berechnet: >> inv(A), ans = 0 -0.5000 0.5000 0.5000 1.0000 0.5000 -0.5000 -0.5000 0 0.5000 0.5000 -0.5000 0 0.5000 -0.5000 0.5000 oder vielleicht einfacher, 1/det(A) = 1/2 mal 0 -1 1 1 2 1 -1 -1 0 1 1 -1 0 1 -1 1 x1 = Hat man eine Basis für einen Vektorraum, so verschafft man sich mit Hilfe des Befehls pinv(A’) ein Biorthogonalsystem, welches sich auch als A * inv(A’ * A) schreiben lässte (genau dann wenn die Familie der Spalten von A linear unabhängig ist, ist auch die Gram-Matrix A0 ∗ A invertierbar (weil der Kern oder Nullraum von A und der von A0 ∗ A nämlich gleich sind), und dann gilt pinv(A0 ) = A ∗ (A0 ∗ A)−1 . (1) Die Komposition von A mit pinv(A0 ) liefert genau die Projektion auf den Spaltenraum von A, in folgendem Sinne: Sichtweise: wendet man zuerst PINV(A) und dann die Matrix A, dann projeziert man einfach auf den Bildraum von A = Spaltenraum von A, also gilt P A = A∗pinv(A). Will man jedoch den ersten Schritt, also b → pinv(A) ∗ b als die Bildung von Koeffizienten bzgl. eines Systems B schreiben, muss man statt pinv(A) einfach B 0 schreiben, d.h. man muss B = pinv(A)0 =!pinv(A0 ) nehmen. Man beachte, dass einerseits im Falle einer ONB f.d. Spaltenraum für A die Gram-Matrix eine Einheitsmatrix ist, also inv(A0 ∗ A) == eye(n) gilt, dass aber auch in allen anderen Fällen immer derselbe Projektionsoperator P A zur Berechnung kommt, ganz gleich welche Basis des Spaltenraumes man nimmt! Beispielsweise OA = orth(A); P A = OA ∗ OA0 ; BEISPIEL wieder: >> A = zeros(3); A(:) = 1:9 A = 1 2 3 4 5 6 7 8 9 A1 = A(:,1:2), B1 = pinv(A1’), A1 = 1 4 2 5 3 6 B1 = -0.9444 0.4444 -0.1111 0.1111 0.7222 -0.2222 PA1 = 0.8333 0.3333 -0.1667 0.3333 0.3333 0.3333 PA1 = A1 * B1’ -0.1667 0.3333 0.8333 A2 = A(:,[1,3]); B2 = pinv(A2’); PA2 = 0.8333 0.3333 -0.1667 0.3333 0.3333 0.3333 -0.1667 0.3333 0.8333 PA2 = A2* B2’ Weiteres BEISPIELMATERIAL: Es sei A die Standard-Beispielmatrix. Versuchen wir - ausgehend von irgendeiner Basis des Zeilenraum, eine Darstellung eines beliebigen Zeilenvektors zu geben, und dann, mit einer anderen Basis im Spaltenraum, die WIRKUNG der linearen Abbildung, die durch Matrix-Multiplikation mit A, also T : x = [x1 , x2 , . . . , xn ] 7→ T([x1 , x2 , . . . , xn ]) in Bezug auf diese beiden Basen zu beschreiben. Fangen wir also an, eine Basis für den Zeilenraum zu finden. Wir werden es gibt eine grosse Auswahl: 1. Verwendung der Zeilenstufenform 2. da je zwei Zeilenvektoren nicht Vielfache voneinander sind, also einen 2-dim. Teilraum des (2-!dimensionalen Teilraum, also den ganzen Zeilenraum aufspannen, kann man je zwei Zeilenvektoren nehmen, oder irgendeine passende Lin. Kombinationa 3. jede Basis kann durch Gram-Schmidt noch zu einer orthonormalen Basis gemacht werden! 4. orth(A0 ), eine orthonormalbasis für der Spaltenraum von A0 ; 5. natürlich ist orthogonales Komplement des Nullraumes, MATLAB: null( null(A)’), >> At = A’ 1 2 3 4 5 6 7 8 9 >> B1 = At(:,1:2); >> B2 = At(:,2:3); >> BB1 = pinv(B1’); >> BB2 = pinv(B2)’; >> norm(pinv(B2’) - pinv(B2)’) % verifiziert Gleichheit!!! 0 >> OZ = orth(At) OZ = -0.2148 0.8872 -0.5206 0.2496 -0.8263 -0.3879 >> POZ = OZ * OZ’ POZ = 0.8333 0.3333 -0.1667 0.3333 0.3333 0.3333 -0.1667 0.3333 0.8333 >> B1 * BB1’ % oder direkt B1 * pinv(B1) 0.8333 0.3333 -0.1667 0.3333 0.3333 0.3333 -0.1667 0.3333 0.8333 >> B2 * BB2’ % ebenso B2 * pinv(B2); >> POZ * At - At ans = 1.0e-014 * % also numerisch gleich Null! >> disp(’zeigt dass alle Spalten von At invariant sind!’); Das zeigt (anhand des Zeilenraumes der Matrix A, bzw. wie wir gesehen haben, anhand das Spaltenraumes von At = A0 in MATLAB) dass man mit Hilfe der Pseudoinversen (bzw. durch Skalarproduktbildung mit den Spalten von pinv(B1)0 die richtigen Koeffizienten finden kann. Dazu noch ein kleines numerisches Experiment. Wir wollen ein zufälliges Element des Zeilenraumes nehmen. Nochmals die Warnung, Zeilenvektoren sind geordnet n−-Tupel (hier geordnete Tripel) die dadurch entstehen, dass man einzelne Zeilen aus der Matrix A herausliest. Es gibt aber keine Zeilen oder Spaltenvektoren “per se”, es hängt davon ab, wie man sie verwendet, und wenn man eine Matrix drauf loslassen will (was später geschehen soll) so muss ein solches Tripel als Spaltenvektor “angeschrieben werden” (das hängt aber nur damit zusammen, dass wir die Matrix-Multiplikation von LINKS schreiben). In einer “britischen Welt” (ich meine im Sinne von Strassenverkehr, wo alles “linksherum” läuft) würde man wohl Matrix-Multiplikation von rechts machen (in der Tat eine von mir bevorzugte Schreibweise). Zurück zum Problem: Nehmen wir die Koeffizienten c = [1, 2], dann können wir die Linearkombination der beiden Vektoren inB1 also den (?Zeilenvektor) c ∗ A(1 : 2, :), oder besser B1 ∗ c(:), um die Linearkomb. in der üblichen Form zu realisieren! MATLABCODE: >> c= [1,2] c = 1 2 >> x = c * A(1:2,:) x = 5 14 % bzw = >> x = B1 * c(:) x = 5 14 23 23 Da die Spalten von B1 lin. unabh. sind, ist die Darstellung von x als Lin.Komb. der Spalten von B1 eindeutig, und somit kann man von dem geordneten Paar c = [1, 2] als den Koordinaten von x in der durch B1 beschriebenen Basis sprechen, es muss also c = [x]B1 gelten, in der sonst üblichen Schreibweise. Wie berechne ich also (allgemein) die Koordinaten ein Lin.Komb., wenn ich die Basis habe (als wenn ich x und B1 kenne, in unserem Fall): Es muss gelten c = pinv(B1) ∗ x (oder ( c = BB10 ∗ x). Die Biorthogonalitätsrelation, also BB10 ∗ B1 == eye(2) bzw. aus Symmetrie-Gründen B10 ∗ BB1 == eye(2) sieht in MATLAB so aus: >> BB1’*B1 ans = 1.0000 -0.0000 0.0000 1.0000 >> B1’ * BB1 % analog und bedeutet einfach, dass die Behauptung (c kann aus x zurückgewonnen werden) für den Fall dass c = e1 = [1, 0]; oder c = e2 = [0, 1]; zutreffend ist! In unserem Fall bilden wir >> BB1’ * x 1.0000 2.0000 und sind zufrieden. Wir haben also (hier am Beispiel von 2 Vektoren im R3 ). Wir haben also insgesamt die folgende Situation: Hat man eine Kollektion von Vektoren (Spalten von A) im Rm und bildet Linearkombinationen mit einem Satz von Koeffizienen so kann man das durch Matrix-Vektormultiplikation bewerkstelligen, wodurch die Koeffizienten des Vektors angeben, wieviel von jedem Spaltenvektor der Matrix genommen wird. Umgekehrt, bekommt man durch Anwenden von pinv(A) eine Kollektion von Koeffizienten (genausoviele wie man Spaltenvektoren hat, den pinv(A) führt ja vom Rm wieder in den Rm zurück!), und zwar unter allen möglichen Koeffizienten die denselben Vektor b darstellen, diejenige Auswahl, die die kleinste Norm hat 2 . Wenn aber die Spalten von A bzw. die ursprünglich gegebene Kollektion von n Vektoren im Rm eindeutig war (wenn diese Vektoren eine Basis für einen n−dim. Teilraum des Rm bilden, so bekommt man sie “genau zurück” (und dann ist B = pinv(A0 ) == pinv(A)0 das (eindeutig bestimmte) Biorthogonalsystem zu A. Wir werden später noch genauer checken warum immer pinv(A0 ) = A ∗ pinv(A ∗ A0 ) (2) gilt, es sei nur angemerkt dass das Biorthogonalsystem selbst wieder aus Linearkombinationen der ursprünglichen Vektoren ist (jeder einzelne Vektor ist durch Multiplikation von A mit einer der Spalten von pinv(A0 ∗ A) bildbar!). >> norm( pinv(A)’ ans = 7.8035e-015 A * pinv(A’*A)) Man beachte hier auch noch, dass A0 ∗ A genau die Gram-Matrix ist, deren Nullraum genau derselbe wie der von A ist, und die somit invertierbar ist genau dann wenn die Spalten von A linear unabhängig sind (wären in unserem Fall, also z.B. fuer B1 waere es OK: >> null(A) ans = -0.4082 0.8165 -0.4082 >> null(A’*A) ans = -0.4082 0.8165 -0.4082 zeigt (numerisch) die Gleichheit der beiden Nullräume (ist auch leicht zu verifizieren, auf theoretischem Weg > Prüfungsfrage!), andererseits gilt >> det(B1’*B1) ans = 54 >> norm( BB1 - B1 * inv(B1’*B1)) ans = 1.9097e-015 2 (bzw. genau diejenige, die im Zeilenraum von A liegen, und somit keinen Anteil in die dazu orthogonale Richtung des Kerns oder Nullraumes von A haben, aber das nur nebenbei!) Kommen wir nun zur Matrix-Darstellung der linearen Abbildung T : x 7→ A ∗ x, betrachtet als eine Abbildung vom Zeilenraum in den Spaltenraum. Wir wollen im Spaltenraum als Orthonormalsystem (2 Spaltenvektoren, die eine ONB des Bildraumes von T bilden) die Matrix C1 als Basis verwenden, die durch Anwendung von orth(A) entsteht: >> C1 = orth(A) C1 = -0.4797 0.7767 -0.5724 0.0757 -0.6651 -0.6253 Beachte, dass C1 ∗ C10 die Orthogonalprojection auf den Spaltenraum ist, bzw. dass z 7→ C10 ∗ z der Übergang von einem Vektor z ∈ R3 zu seinen beiden Koordinaten im Spaltenraum sind, bzw. dass z = C1 ∗ C10 ∗ z genau dann gilt, wenn z im Spaltenraum von A liegt. Um also die MATRIX-Darstellung [T ]C1←B1 der Einschränkung der linearen Abbildung T auf den zweidim. Zeilenraum zu bekommen, genügt es eine MATRIX zu finden, durch deren Matrix-Multiplikation aus den B1−Koordinaten von x (in unserem Beispiel c die C1-Koordinaten von T x im Spaltenraum werden. Wir haben also [T ]C1←B1 = C10 ∗ A ∗ B1 (3) Denn c = [1; 2] → x = B1 ∗ c ergibt den Vektor des Zeilenraumes mit den B1-Koordinaten c. Darauf angewendet bekommen wir T (x) = A ∗ x = A ∗ (B1 ∗ c) = (A ∗ B1) ∗ c = A ∗ (B1 ∗ c) und deren C1-Koordinaten im Spaltenraum sind durch C10 zu bilden, also gilt [T x]C1 = C10 ∗ T x = (C10 ∗ A ∗ B1) ∗ c = (C10 ∗ A ∗ B1) ∗ [x]B1 was zu beweisen war. Man kann es auch noch so herleiten: Diese Matrix, also C10 ∗ A ∗ B1, kann man auch so gewinnen, dass man die Abbildung T auf die Basis-Vektoren abbildet, also die Spalten von B1, also dass man zuerst A ∗ B1 bildet, und von diesem Paar von Vektoren im Spaltenraum die C1Koordinaten bildet, also ein Skalarprodukt mit dem Biorthogonalsystem zu C1, das ist aber diesmal C1 selber, man kommt also auch auf diese Weise (Standardrezept) auf die Matrix C10 ∗ A ∗ B1. Zum Abschluss noch ein kleiner numerischer Test anhand des Beispiels x = B1 ∗ c: TB1C1 = C1’ * TB1C1 = -136.1588 -162.4715 0.8865 0.0864 >> TB1C1 * [1;2] ans = -461.1018 1.0593 >> A*x ans= 222 264 306 >> C1’* (A*x) -461.1018 1.0593 A * B1 Bemerkung: die Matrix A, die wir hier immer verwenden, hat die bemerkenswerte Eigenschaft, dass für sie gilt, dass der Zeilenraum gleich dem Spaltenraum ist. Das gilt für jede normale Matrix (notwendigerweise), weil diese nach Definition die Vertauschungsregel A ∗ A0 == A0 ∗ A erfüllen), also ist 0 null(A) = null(A0 ∗ A) = null(A ∗ A0 ) immer | {z } = null(A ) , und somit sind die orthogonalen Komplemente der Kerne von A0 bzw. A gleich, und das sind ja genau der Spaltenraum bzw. der Zeilenraum von A. PS Angew. Mathematik für LehramtskandidatInnen Hans G. Feichtinger, WS 2008/09, Version 56. Okt. 2008, 9:34 Aktuelle Informationen zu Vorlsg. und PS finden jeweils unter http://www.univie.ac.at/NuHAG/FEICOURS/ws0809/angelps08a.pdf Da es im Bereich der Angew. Mathematik wichtig ist, einen Überblick über einsetzbare Begriffe und Methoden zu haben (außer man befaßt sich nur mit einem bestimmten Thema näher), hat diese Vorlesung teilweise auch den Charakter eines Repetitoriums und soll helfen, Querverbindungen bzw. vergessene Winkel anzusprechen. Dies erfordert auch aktive Teilnahme (Vorbereitung, Mitarbeit) im Proseminar (sowie allenfalls Rückmeldungen an den Vortragenden). Auch die Form der Fragestellung ändert sich gegenüber der “reinen Mathematik” (vgl. Museum versus Produktionsbetrieb). Zunächst also einmal ein paar Dinge zum Nachdenken, Stöbern, um die richtige Einstellung zu bekommen (so wie man einen oder mehrere Reiseführer zurate zieht, bevor man auf eine Reise geht). Ein Teil des Materials wird ohnehin in der Vorlesung bzw. in den Uebungen besprochen. 1. Mathematik im Alltag? (eigene Beispiele, Augen offenhalten, bekannte Beispiele aus Büchern, dem Internet, sowie “unklare” Spekulationen; Stichworte: Modell, math. Ansatz, (?) Lösung) 2. Wiederholung von Definitionen bzw. grundlegenden Sätzen aus der Linearen Algebra (erster Durchgang) > Materialsammlung! • Def. von Gruppe, Körper, Vektorraum, Ring, Algebren • nichttriviale Beispiele (möglichst “originell”); • Welche 3 Schritte beschreiben die Gauß-Elimination; • Wie kann man begründen, daß der Zeilenrang einer Matrix gleich dem Spaltenrang einer Matrix ist? 3. Verbindung zwischen Linearer Algebra und Geometrie: Geometrische Deutung (Skizze !) der Schritte der Gauß Elimination anhand eines (inhomog.) Gleichungssyst. mit 2 Variablen (Bewahrung der Lösungs- Äquivalenz ist gleichbedeutend damit, daß die zugeh. Geradenpaare stets den gemeinsamen Schnittpunkt bewahren. Eigene Beobachtungen: Wann legt diese Sichtweise nahe, daß man mit numerischen Ungenauigkeiten rechnen muß, und in welchen Fällen (geometrisch gesprochen) ist diese Gefahr gering. 4. Wie kann man eine Überdeckung einer Menge U durch Mengen Uk , 1 ≤ k ≤ K in eine Partition durch Mengen Vk , 1 ≤ k ≤ K ( Überdeckung von U , mit Vk ∩ Vl = ∅ for k 6= l) umwandeln, sodaß Vk ⊆ Uk for alle k gilt? 5. Gram-Schmidt Orthogonalisierung (Voraussetzungen, Rezept, . . . ); Weiters ein paar kleine “Rechenaufgaben”: • Berechne 123456789876543213 • Es seien x und y zwei Zufallsvektoren. Man plotte den Winkel zwischen y und x − λy für einen interessanten Bereich von Werten von λ. Diskussion anhand eines in MATLAB erstellten plots! • Die kubischen Polynomfunktionen, also die Funktionen von der Form p(x) = a0 +a1 x+a2 x2 +a3 x3 , sind eine Vektorraum der invariant unter Verschiebungen ist, als beispielsweise ist mit p(x) auch p(x − 3) (Rechtsshift des Graphen um 3) ebenfalls ein Polynom. Man bestimme die Koeffizienten dieses neuen Polynoms, und daraus die Matrix zum Basiswechsel (die inverse Abbildung ist natuerlich q(x) → q(x + 3). • Studium der Vandermonde matrix vand(x), wobei x = [x1, x2, . . . , xn] ∈ C, welche die lineare Abbildung c → [p(x1), p(x2), . . . , p(xn)] beschreibt. • Es sei A eine beliebige quadratische Matrix, und B = A0 ∗ A (A0 ist die konjugierte, transponierte zu A). Man zeige, dass die Folge die durch folgende Rekursion gegeben ist, konvergiert, und zwar (fast) immer gegen den gleichen Grenzwert, unabhängig davon, was der Startwert ist: z.B. fuer n = 7: A= rand(n); B = A’*A, x = rand(n,1); for jj=1:50; x = B * x; x = x/norm(x); home; disp(x(:).’); end; BEISPIELE für die dritte Woche ( Di., 21.10., Mo. 27.10.) Die folgenden Beispiele sind dafür gedacht, grundlegende Kenntnisse in MATLAB zu erreichen, und Grundbegriffe der Linearen Algebra in numerischer Form zu realisieren. Je nach Ablauf der kommenden Woche werden wir die Ergebnisse an der Tafel bzw. im PC-Labor besprechen. Ich erwarte in dieser ersten Woche noch nicht, dass unbedingt alle Teilnehmer alle Beispiele gemacht haben. Es ist mir lieber, wenn es eine Streuung gibt und aufgrund der kurzen Fristen bin ich zufrieden, wenn 1. Bestimmen Sie auf zwei verschiedene Arten die Projektion auf den Zeilenraum der Testmatrix >> A = zeros(3); A(:) = 1:9; >> A = 1 4 7 2 5 8 3 6 9 Auch eine der beiden Matrizen A ∗ pinv(A) bzw. pinv(A) ∗ A ergeben dasselbe Resultat (welche der beiden Lösungen ist plausibel, Dimensionsvergleich!). 2. Man berechne die Winkel zwischen den Spalten der oberen Matrix, ihre Längen. Weiters bestimme man das Volumen des von diesen drei Vektoren aufgespannten Parallel-Epipeds. 3. Es sei B die Matrix B = [1, 1, 1; 1, 2, 3; 1, 4, 9];. Man verifiziere, dass diese Matrix invertierbar ist. Also sind die Spalten (und ebenso die Zeilen) der Matrix jeweils eine Basis für den R3 . Wenn − der Vektor → v ∈ R3 in Bezug auf die Spalten von B die Koordinaten [2, −1, 3] hat, was sind dann seine Koordinaten in bezug auf die Kollektion der Zeilenvektoren, also bzgl. der Vektoren c1 = B(1, :); c2 = B(2, :); c3 = B(3, :); 4. Man zeige durch numerische Experimente, dass für jede (auch) rechteckige Matrix A die Matrizen A0 bzw. pinv(A) das gleiche Format, den gleichen Nullraum und den gleichen Bildbereich haben. 5. Gegeben drei Punkte im Raum, sagen wir P 1 = [3, 4]; P 2 = [4, 7]; P 3 = [2, 3]; ergibt sich eine (affine) Ebene im Raum, die natürlich in Punkt-Vektorform beschrieben werden kann. Daher gibt es einen Punkt minimaler Norm in dieser Ebene, also in Punkt dessen Abstand vom Koordinatenzentrum [0, 0, 0]; minimal ist unter allen Punkten. Man berechne diesen Punkt (numerisch, mit einer geometrischen Begründung). 6. Man beschreibe eine Basis für den Raum aller kubischen Polynomfunktionen p(x) ∈ P3 (R), für die gilt p0 (x) = 0;. Was ist die Dimension diese Teilraums von P3 (R)? 7. Ist ein kubisches Polynom durch die Angabe von p(0), p0 (0), p00 (0) und p0 (1) eindeutig festgelegt. ( AA = [1,0,0,0; 0,1,0,1; 0,0,2,1; 0,0,0,3]; sollte nützlich sein.) Würde sich an der Antwort etwas ändern, wenn man die Stellen 0 bzw. 1 durch andere Werte a, b mit a 6= b ersetzt? 8. Ist eine quadratisches Polynom p(x) ∈ P2 (R) durch die Angabe von = [p(0), p0 (1), p(2)]; eindeutig bestimmt. Man plotte die Kurven der “Elementarlösungen”, d.h. derjenigen Polynome, für die − − gilt → y =→ ek , k = 1, 2, 3 über dem Intervall [−.7, 2.6]; 1 Material zum Thema Polynomfunktionen Die Abbildung, die von den Polynomen, sagen wir P3 (R) zu den Werten führt, ist linear, hat als eine Matrixdarstellung [T ]A ←B für passend gewählte Basen. Ist die Folge der Stellen, an denen in kubisches Polynom auszuwerten ist, durch eine sog. Vandermonde-Matrix gegeben: >> vander([0,-1,1,2,]) ans = 0 0 0 1 -1 1 -1 1 1 1 1 1 8 4 2 1 Dies realisiert die lineare Abbildung p(x) = a1 x3 +a2 x2 +a3 x+a4 7→ [p(x1 ); p(x2 ); p(x3 ); p(x4 )] realisiert, in Konstitenz mit dem MATLAB-Befehl polyval(a, x), wobei die Folge a die Koeffizienten beschreibt, mit den führenden beginnend, daher ist die (in diesem Kontext) “richtige” Anordnung der Monomie durch M3 := {x3 , x2 , x, 1} gegeben. Aufgabe: Die Abbildung x → f f t(x) is eine lineare Abbildung, die auf “Kollektionen von Spaltenvektorenängewendet werden kann (wenn man einen einzelnen Zeilenvektor als input hat, dann wird der so wie ein Spaltenvektor behandelt, und output im Zeilenformat realisiert). Daher ist die Matrix, die der FFT-Routine (steht fuer die “Fast Fourier Transform”) zuständig ist, einfach F = f f t(eye(n)). Man probiere dies für kleines n aus, sagen wir n = 3, 4, 6, 8, 12, 15, 32 etc. . Um das Ergebnis zu visualisieren, schlage ich vor, den Befehl plot(F); axis square; figure(gcf); folgen zu lassen. Das Ergebnis wird Ihnen (speziell fur n = 13 oder 17) gefallen. Darauf aufbauend versuchen Sie festzustellen, ob und in welcher Form diese Matrix auch als eine Vandermonde Matrix gesehen werden kann, und ob die Matrix unitär ist. Die Inverse Matrix? BEISPIELE für die vierte Woche ( Anfang November) 1. Man versuche eine geometrische Interpretation der PINV-Lösung für ein übersbestimmtes lineares Gleichungssystem zu geben, und zwar zuerst für den Fall, dass man drei Geraden in allgemeiner Lage in der Ebene hat, beschrieben durch eine 3 × 2 Gleichungssystem. der Form A ∗ x = b. Man zeichne die drei Geraden (eine Moeglichkeit ist es, einen Plot in der komplexen Ebene zu machen, wobei es geng̈t, die zwei Endpunkt zu plotten), und gebe eine Vermutung ab, wo die “Lösungëines solchen Gleichungssystems geometrisch gesehen zu finden ist. Als konkretes Beispiel können Sie folgendes System nehmen: x+2y=2; 2x+3y =3; x-y =0; (also A=[1,2; 2,3; 1,-1], b = [2;3;0];) 2. Hat man z.B. 5 “ungenaue Messwerte” einer quadratischen oder kubischen Kurve geben, so kann man die (eindeutig bestimmte) Kurve vom Grad 2 bzw. 3 durch Lösen des MNLSQ (Methode der kleinsten Quadrate) bestimmen. 3. Man verifiziere experimentell, dass für eine beliebige Matrix A folgende Fakten gelten: B = pinv(A); A ∗ B ∗ A = A; pinv(A) = pinv(A0 ∗ A) ∗ A0 = A0 ∗ pinv(A ∗ A0 ); B ∗ A und A ∗ B sind orthogonale Projektionen! null(B) = null(A0 ); orth(B) = orth(A0 ); (4) Material f. weitere Stunden: ACHTUNG: Die Numerierung der Beispiele wird sich vermutlich noch ändern: 1. Es sei E eine Ebene, die durch die 2 Punkte im Raum, sagen wir P = [1, 0, 3]; Q = [2, 1, 4];. Man beschreibe die Matrix zur Spiegelung an dem Teilraum, der diese beiden Punkte im R3 enthält. 2. Man zeige, dass {1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 } eine Basis für die kubischen Polynome darstellt, und stelle die Matrix zum Differentationsabbildung: p(x) 7→ p0 (x) in Bezug auf diese Basis dar; 3. Man zeige, dass jede Projektion auf einen Teilraum des Rn eine lineare Abbildung ist. Diese Abbildung ist orthogonal genau dann wenn die zugehörige Matrix bzgl. irgendeiner ONB des Rn selbstadjungiert ist (d.h. A == A0 erfüllt). 4. Man zeige, dass für je zwei Tripel von (nicht kolinearen) Punkten im R3 eine affine Abbildung existiert, welche die entsprechenden Punkte ineinander überführt. Man bestimme diese Abbildung (Rechengang, der im Prinzip in MATLAB realisierbar sein sollte). Ist diese Abbildung eindeutig gegeben? Überlegungen zur Verallgemeinerung auf allgemeine Dimensionen. 5. Man finde eine Beschreibung (ebenfalls konstruktiv, algorithmisch) für die Spiegelung an einem affinen Teilraum. Dabei wird natürlich die Zerlegung des Rn nach einem Teilraum und seinem orthogonalen Komplement eine Rolle spielen. 6. Man verifiziere, dass (bei geeigneter Wahl der Basis) die Vandermonde Matrix vander(x), mit → − − x = [x1 , x2 , . . . , xn ] die Matrix für die durch → a 7→ polyval(a, x) beschriebene Matrix darstellt. Die Inverse dieser Matrix enthält also als Spalten genau die Koeffizienten, die den Polynomen, für welche man das Lagrange Interpolationspolynom bilden kann, darstellen. Man verwende die übliche Formel dafür und überzeuge sich von dieser Aussage. Weiteres Material: 1. Man denke sich folgendes Würfelexperiment: Es wird mit zwei Würfeln (rot und schwarz, sagen wir) gewürfelt, und zwar so, dass man, bei 0 ∈ Z startend um die “rote” Augenzahl nach links bzw. um die schwarze Augenzahl nach rechts geht. Man bestimme fuer 10 : 10 : 80 Wiederholungen des Experimentes (also 10, 20, bis 80) Wiederholungen, wie gross die Wahrscheinlichkeit ist, wieder zu 0 zurueckgekehrt zu sein. Man zeige, dass die Wahrscheinlichkeit nach 0 zurueckzukehren mit der Zahl der Wiederholungen des Experiments abnimmt, und bestimme die Zahl der Wiederholungen, bei der das erste Mal die Chance unter 1% sinkt (Antwort: es sind 63 Wiederholungen!). Wie lange ist es korrekt zu behaupten, dass die Wahrscheinlichkeit, nicht mehr als 2 Schritte vom Ursprung entfernt zu sein, noch unter 50% ist.