Standard-Beispiels

Werbung
NEUES MATERIAL vom 16.11. 2008
Einige Beispiele zur Linearen Algebra, Weiterführung des “Standard-Beispiels”:
1. Wir erinnern uns daran, dass es zu jeder Folge von linear unabhängigen Vektoren im Rm (sagen
wir der geometrischen Anschaulichkeit halber in R3 ) mit Hilfe von PINV ein Biorthogonalsystem
gefunden werden kann. Schreibt man die Vektoren als Spalten einer m×k Matrix, dann besteht das
Biorthogonal-System aus den Spalten von pinv(A’) == pinv(A)’. Man überzeuge sich zunächst
an ein paar Beispielen (z.B. ausgehend von einer zufälligen 5 × 3-Matrix. Wir haben daraus
abgeleitet, dass die drei Koordinaten der Projeken eines beliebigen Vektors b auf das lineare
Erzeugnis dieser Vektoren als Koeffizienten genau die Folge b ∗ pinv(A) haben.
2. Es sei A = zeros(1,9); A = 1:9 die übliche TESTMATRIX. Man nehme (wahlweise) die ersten
beiden (oder irgendwelche zwei) Zeilen, und zwei Spalten aus der Matrix (die ja bekanntlich Rang
2 hat, d.h. diese zwei Vektoren bilden jeweils eine Basis des entsprechenden Zeilen oder Spaltenraums der Matrix. Man beschreibe nun die Matrix auf, die die Einschränkung von A auf den
Zeilenraum beschreibt. Man zeige, dass diese Matrix (unabhängig davon wie sie konkret aussieht)
immer eine invertierbare Matrix vom Format r × r ist (r = rank(A)). Die inverse Abbildung dieser Abbildung beschreibt gerade die Wirkung der Pseudo-inversen (die Spaltenvektoren zurueck
in den Zeilenraum abbildet). 1
3. Gegeben sei eine Ebene im R3 , mit den Punkten P = [1, 2, 3], Q = [4, 5, 6] und R = [3, 4, 1];.
Man versuche den Abstand von P nach Q auf zwei Arten zu bestimmen. Einmal bestimme man
diesen Abstand direkt als den Euklidischen Abstand in R3 . Das andere Mal erzeuge man sich in
der (affinen) Ebene ein orthogonales Koordinatensystem, mit Zentrum P , und berechne dann den
Abstand “in dieser Ebene”.
4. Da bekanntlich jede Ebene im R3 sich durch eine lineare Gleichung bescheiben läßt, bestimme
man wenigstens eine Form, durch die diese (affine) Ebene beschrieben werden kann (z.B. mit Hilfe
des Normalvektors).
Einige Beispiele in Ergaenzung zur Wahrscheinlichkeit, Polynom-Multiplikation und FFT:
1. Um das Verhalten der Binomial-Koeffizienten zu studieren, plotte man ihr Verhalten mit zunehmendem n (zentraler Grenzwertsatz).
2. Man wandere, bei 0 ∈ Z startend je nach Münzwurf nach links (Kopf) oder rechts (Adler). Sollte
die Münze auf dem Rand stehen bleiben, so bleibt man stehen. Wie gross ist die Wahrscheinlichkeit, nach 50 Schritten mehr als 20 vom Ursprung entfernt zu landen (d.h. bei 11, 12 oder
−11, −12 . . . . ).
3. Man nehme die drei normalen Würfel (die positiv gerechnet werden sollten) und den 18-er Würfel,
der negativ gerechnet werden sollte, und beobachte, wie mit zunehmender Zahl von Wiederholungen die Chancen steigen, mit den 3 Würfeln mehr als mit dem 18-er Würfel zu liegen. Man
berechen (numerisch/experimentell) ab wann die Chancen, mit dem 18-er Würfel voranzuliegen,
nur mehr mehr als 60% liegen (ab ca. 30-mal Würfeln).
1
Bitte nicht vergessen, dass es sauberer waere, vom Spaltenraum von A0 zu sprechen!
NEU (20.11.2008):
Was/wie können Sie sich auf die Tests (Orientierungstest, Teilleistung f.d. Übungen zur Vorlesung)
VORBEREITEN:
1. Auffrischen der linearen Algebra: lineare Unabhaengigkeit, Basis, Dimension, lineare Abbildung,
Matrix-Darstellung einer linearen Abbildung, Zeilenraum, Spaltenraum, orthogonales Komplement, orthogonale Projektion, Gram-Schmidt
2. MATLAB Grundbegriffe (vor allem, dass man weiß was möglich ist:
Matrix Multiplication A*B , x’ * y = Skalarprodukt...
z.B. INV, RANK, ORTH, NULL, DET, PINV, CROSS,
RREF (row reduced echelon form = Gauss Zst-Form)
POLYVAL, FFT, IFFT,
PLOT, IMAGESC, EVAL,
DIARY, SAVE, LOAD, SUBPLOT, DISP,
for k=1:n, ... end;
while .... end;, if a > b ... end;
3. Aufstellen einer Basis-Matrix, “Rechengänge” in (pseudo-)MATLAB code, durch Aufzählen der
nötigen Schritte, z.B. Wie kann die Matrix zu einer bestimmten linearen Abbildung gefunden
werden
4. Beantwortung typischer geometrisch/numerischer Aufgaben auf konstruktiv/numerischem Wege:
Es seien A, B gegeben (zwei Kollektionen von Spalten-Vektoren, sagen wir 3 Spaltenvektoren
im R7 ). Wie kann ich feststellen, ob diese beiden Matrizen den gleichen Teilraum aufspannen.
Konkret, sei C eine 3x3-Matrix, und B = A ∗ C. Was kann man in dieser Situation sagen?
5. Man finde die orthogonale Projektion eines Punktes im Rn auf einen Teilraum, der von einigen
Vektoren aufgespannt wird.
6. Ein bekanntes Verfahren (theoretisches) zur Erstellung einer Basis ist diese: Man starte von einem
Erzeugendensystem und entferne die “ überflüßigen” Vektoren, solange bis man ein linear unabh.
= minimales Erzeugenden-System des Teilraumes, als eine Basis hat.
7. Man bestimme die allgemeine Lösungsmenge eines inhomogenen Gleichungssystems in “PunktVektor-Form”. Es sei z ∈ Rn keine Lösung des linearen Problems A ∗ x = b, für festes b im
Spaltenraum von A. Wie kann man dann die “nächstgelegene Lösungfinden?
8. WEITERES FOLGT Anfang kommender Woche!
NACHTRAG Würfel Man denke sich folgendes Würfelexperiment: Es wird mit zwei Würfeln (rot
und schwarz, sagen wir) gewürfelt, und zwar so, dass man, bei 0 ∈ Z startend um die “rote” Augenzahl
nach links bzw. um die schwarze Augenzahl nach rechts geht. Man bestimme fuer 10 : 10 : 80 Wiederholungen des Experimentes (also 10, 20, bis 80) Wiederholungen, wie gross die Wahrscheinlichkeit ist,
wieder zu 0 zurueckgekehrt zu sein. Man zeige, dass die Wahrscheinlichkeit nach 0 zurueckzukehren mit
der Zahl der Wiederholungen des Experiments abnimmt, und bestimme die Zahl der Wiederholungen,
bei der das erste Mal die Chance unter 1% sinkt (Antwort: es sind 63 Wiederholungen!). Wie lange ist
es korrekt zu behaupten, dass die Wahrscheinlichkeit, nicht mehr als 2 Schritte vom Ursprung entfernt
zu sein, noch unter 50% ist.
Weiteres Beispiel (vergleiche Tomographie-Beispiel):
Ist es möglich, eine 2 × 2-Matrix aus der Kenntnis von beiden Zeilen und Spaltensummen sowie der
Kenntnis der Summe der Diagonalelemente eindeutig rekonstruierbar? Auf welche Art kann das Problem angegangen werden (es geht weniger um das konkrete Ergebnis als um die Methode, die man
anwendet, bzw. die man anwenden würde, wenn MATLAB zur Verfügung wäre).
Ansatz: Es sind die Werte der Matrix M
Angabe: geben sind also
x1 + x2
= b1;
x3 + x4 = b2;
x1
+x3
= b3;
x2
+ x4 = b4;
x1
+ x4 = b5;
Also ist
>> rref(A);
1
0
0
1
0
0
0
0
A
=
= [a, b; c, d] gefragt, also suchen wir nach
[ 1,1,0,0; 0,0,1,1; 1,0,1,0; 1,0,0,1]; rank(A)? rref(A)? etc.
ans =
0
0
0
0
1
0
0
1
det(A) == 2, also ist die gesucht Antwort einfach
x = inv(A) * b; bzw.
Die L\"osung des Problems ist also:
x = inv(A) * b;
wobei inv(A) sich so berechnet:
>> inv(A), ans =
0
-0.5000
0.5000
0.5000
1.0000
0.5000
-0.5000
-0.5000
0
0.5000
0.5000
-0.5000
0
0.5000
-0.5000
0.5000
oder vielleicht einfacher, 1/det(A) = 1/2 mal
0
-1
1
1
2
1
-1
-1
0
1
1
-1
0
1
-1
1
x1 =
Hat man eine Basis für einen Vektorraum, so verschafft man sich mit Hilfe des Befehls pinv(A’) ein
Biorthogonalsystem, welches sich auch als A * inv(A’ * A) schreiben lässte (genau dann wenn die
Familie der Spalten von A linear unabhängig ist, ist auch die Gram-Matrix A0 ∗ A invertierbar (weil
der Kern oder Nullraum von A und der von A0 ∗ A nämlich gleich sind), und dann gilt
pinv(A0 ) = A ∗ (A0 ∗ A)−1 .
(1)
Die Komposition von A mit pinv(A0 ) liefert genau die Projektion auf den Spaltenraum von A, in
folgendem Sinne:
Sichtweise: wendet man zuerst PINV(A) und dann die Matrix A, dann projeziert man einfach auf den
Bildraum von A = Spaltenraum von A, also gilt P A = A∗pinv(A). Will man jedoch den ersten Schritt,
also b → pinv(A) ∗ b als die Bildung von Koeffizienten bzgl. eines Systems B schreiben, muss man statt
pinv(A) einfach B 0 schreiben, d.h. man muss B = pinv(A)0 =!pinv(A0 ) nehmen.
Man beachte, dass einerseits im Falle einer ONB f.d. Spaltenraum für A die Gram-Matrix eine Einheitsmatrix ist, also inv(A0 ∗ A) == eye(n) gilt, dass aber auch in allen anderen Fällen immer derselbe
Projektionsoperator P A zur Berechnung kommt, ganz gleich welche Basis des Spaltenraumes man
nimmt! Beispielsweise OA = orth(A); P A = OA ∗ OA0 ;
BEISPIEL wieder:
>> A = zeros(3); A(:) = 1:9
A =
1
2
3
4
5
6
7
8
9
A1 = A(:,1:2), B1 = pinv(A1’),
A1 =
1
4
2
5
3
6
B1 =
-0.9444
0.4444
-0.1111
0.1111
0.7222
-0.2222
PA1 =
0.8333
0.3333
-0.1667
0.3333
0.3333
0.3333
PA1 = A1 *
B1’
-0.1667
0.3333
0.8333
A2 = A(:,[1,3]); B2 = pinv(A2’);
PA2 =
0.8333
0.3333
-0.1667
0.3333
0.3333
0.3333
-0.1667
0.3333
0.8333
PA2 = A2*
B2’
Weiteres BEISPIELMATERIAL:
Es sei A die Standard-Beispielmatrix. Versuchen wir - ausgehend von irgendeiner Basis des Zeilenraum, eine Darstellung eines beliebigen Zeilenvektors zu geben, und dann, mit einer anderen Basis
im Spaltenraum, die WIRKUNG der linearen Abbildung, die durch Matrix-Multiplikation mit A, also
T : x = [x1 , x2 , . . . , xn ] 7→ T([x1 , x2 , . . . , xn ]) in Bezug auf diese beiden Basen zu beschreiben. Fangen
wir also an, eine Basis für den Zeilenraum zu finden. Wir werden es gibt eine grosse Auswahl:
1. Verwendung der Zeilenstufenform
2. da je zwei Zeilenvektoren nicht Vielfache voneinander sind, also einen 2-dim. Teilraum des (2-!dimensionalen Teilraum, also den ganzen Zeilenraum aufspannen, kann man je zwei Zeilenvektoren
nehmen, oder irgendeine passende Lin. Kombinationa
3. jede Basis kann durch Gram-Schmidt noch zu einer orthonormalen Basis gemacht werden!
4. orth(A0 ), eine orthonormalbasis für der Spaltenraum von A0 ;
5. natürlich ist orthogonales Komplement des Nullraumes, MATLAB: null( null(A)’),
>> At = A’
1
2
3
4
5
6
7
8
9
>> B1 = At(:,1:2);
>> B2 = At(:,2:3);
>> BB1 = pinv(B1’);
>> BB2 = pinv(B2)’;
>> norm(pinv(B2’) - pinv(B2)’)
% verifiziert Gleichheit!!!
0
>> OZ = orth(At)
OZ =
-0.2148
0.8872
-0.5206
0.2496
-0.8263
-0.3879
>> POZ = OZ * OZ’
POZ =
0.8333
0.3333
-0.1667
0.3333
0.3333
0.3333
-0.1667
0.3333
0.8333
>> B1 * BB1’
% oder direkt
B1 * pinv(B1)
0.8333
0.3333
-0.1667
0.3333
0.3333
0.3333
-0.1667
0.3333
0.8333
>> B2 * BB2’
% ebenso
B2 * pinv(B2);
>> POZ * At - At
ans =
1.0e-014 *
% also numerisch gleich Null!
>> disp(’zeigt dass alle Spalten von At invariant sind!’);
Das zeigt (anhand des Zeilenraumes der Matrix A, bzw. wie wir gesehen haben, anhand das Spaltenraumes von At = A0 in MATLAB) dass man mit Hilfe der Pseudoinversen (bzw. durch Skalarproduktbildung mit den Spalten von pinv(B1)0 die richtigen Koeffizienten finden kann. Dazu noch ein kleines
numerisches Experiment. Wir wollen ein zufälliges Element des Zeilenraumes nehmen. Nochmals die
Warnung, Zeilenvektoren sind geordnet n−-Tupel (hier geordnete Tripel) die dadurch entstehen, dass
man einzelne Zeilen aus der Matrix A herausliest. Es gibt aber keine Zeilen oder Spaltenvektoren “per
se”, es hängt davon ab, wie man sie verwendet, und wenn man eine Matrix drauf loslassen will (was
später geschehen soll) so muss ein solches Tripel als Spaltenvektor “angeschrieben werden” (das hängt
aber nur damit zusammen, dass wir die Matrix-Multiplikation von LINKS schreiben). In einer “britischen Welt” (ich meine im Sinne von Strassenverkehr, wo alles “linksherum” läuft) würde man wohl
Matrix-Multiplikation von rechts machen (in der Tat eine von mir bevorzugte Schreibweise). Zurück
zum Problem:
Nehmen wir die Koeffizienten c = [1, 2], dann können wir die Linearkombination der beiden Vektoren
inB1 also den (?Zeilenvektor) c ∗ A(1 : 2, :), oder besser B1 ∗ c(:), um die Linearkomb. in der üblichen
Form zu realisieren! MATLABCODE:
>> c= [1,2]
c =
1
2
>> x = c * A(1:2,:)
x =
5
14
% bzw =
>> x = B1 * c(:)
x =
5
14
23
23
Da die Spalten von B1 lin. unabh. sind, ist die Darstellung von x als Lin.Komb. der Spalten von B1
eindeutig, und somit kann man von dem geordneten Paar c = [1, 2] als den Koordinaten von x in der
durch B1 beschriebenen Basis sprechen, es muss also c = [x]B1 gelten, in der sonst üblichen Schreibweise.
Wie berechne ich also (allgemein) die Koordinaten ein Lin.Komb., wenn ich die Basis habe (als wenn
ich x und B1 kenne, in unserem Fall): Es muss gelten c = pinv(B1) ∗ x (oder ( c = BB10 ∗ x).
Die Biorthogonalitätsrelation, also BB10 ∗ B1 == eye(2) bzw. aus Symmetrie-Gründen B10 ∗ BB1 ==
eye(2) sieht in MATLAB so aus:
>> BB1’*B1
ans =
1.0000
-0.0000
0.0000
1.0000
>> B1’ * BB1 % analog
und bedeutet einfach, dass die Behauptung (c kann aus x zurückgewonnen werden) für den Fall dass
c = e1 = [1, 0]; oder c = e2 = [0, 1]; zutreffend ist! In unserem Fall bilden wir
>> BB1’ * x
1.0000
2.0000
und sind zufrieden. Wir haben also (hier am Beispiel von 2 Vektoren im R3 ).
Wir haben also insgesamt die folgende Situation: Hat man eine Kollektion von Vektoren (Spalten von
A) im Rm und bildet Linearkombinationen mit einem Satz von Koeffizienen so kann man das durch
Matrix-Vektormultiplikation bewerkstelligen, wodurch die Koeffizienten des Vektors angeben, wieviel
von jedem Spaltenvektor der Matrix genommen wird. Umgekehrt, bekommt man durch Anwenden von
pinv(A) eine Kollektion von Koeffizienten (genausoviele wie man Spaltenvektoren hat, den pinv(A)
führt ja vom Rm wieder in den Rm zurück!), und zwar unter allen möglichen Koeffizienten die denselben
Vektor b darstellen, diejenige Auswahl, die die kleinste Norm hat 2 . Wenn aber die Spalten von A bzw.
die ursprünglich gegebene Kollektion von n Vektoren im Rm eindeutig war (wenn diese Vektoren eine
Basis für einen n−dim. Teilraum des Rm bilden, so bekommt man sie “genau zurück” (und dann ist
B = pinv(A0 ) == pinv(A)0 das (eindeutig bestimmte) Biorthogonalsystem zu A.
Wir werden später noch genauer checken warum immer
pinv(A0 ) = A ∗ pinv(A ∗ A0 )
(2)
gilt, es sei nur angemerkt dass das Biorthogonalsystem selbst wieder aus Linearkombinationen der
ursprünglichen Vektoren ist (jeder einzelne Vektor ist durch Multiplikation von A mit einer der Spalten
von pinv(A0 ∗ A) bildbar!).
>> norm( pinv(A)’ ans =
7.8035e-015
A * pinv(A’*A))
Man beachte hier auch noch, dass A0 ∗ A genau die Gram-Matrix ist, deren Nullraum genau derselbe
wie der von A ist, und die somit invertierbar ist genau dann wenn die Spalten von A linear unabhängig
sind (wären in unserem Fall, also z.B. fuer B1 waere es OK:
>> null(A)
ans =
-0.4082
0.8165
-0.4082
>> null(A’*A)
ans =
-0.4082
0.8165
-0.4082
zeigt (numerisch) die Gleichheit der beiden Nullräume (ist auch leicht zu verifizieren, auf theoretischem
Weg > Prüfungsfrage!), andererseits gilt
>> det(B1’*B1)
ans =
54
>> norm( BB1 - B1 * inv(B1’*B1))
ans =
1.9097e-015
2
(bzw. genau diejenige, die im Zeilenraum von A liegen, und somit keinen Anteil in die dazu orthogonale Richtung
des Kerns oder Nullraumes von A haben, aber das nur nebenbei!)
Kommen wir nun zur Matrix-Darstellung der linearen Abbildung T : x 7→ A ∗ x, betrachtet als eine
Abbildung vom Zeilenraum in den Spaltenraum. Wir wollen im Spaltenraum als Orthonormalsystem
(2 Spaltenvektoren, die eine ONB des Bildraumes von T bilden) die Matrix C1 als Basis verwenden,
die durch Anwendung von orth(A) entsteht:
>> C1 = orth(A)
C1 =
-0.4797
0.7767
-0.5724
0.0757
-0.6651
-0.6253
Beachte, dass C1 ∗ C10 die Orthogonalprojection auf den Spaltenraum ist, bzw. dass z 7→ C10 ∗ z der
Übergang von einem Vektor z ∈ R3 zu seinen beiden Koordinaten im Spaltenraum sind, bzw. dass
z = C1 ∗ C10 ∗ z genau dann gilt, wenn z im Spaltenraum von A liegt.
Um also die MATRIX-Darstellung [T ]C1←B1 der Einschränkung der linearen Abbildung T auf den zweidim. Zeilenraum zu bekommen, genügt es eine MATRIX zu finden, durch deren Matrix-Multiplikation
aus den B1−Koordinaten von x (in unserem Beispiel c die C1-Koordinaten von T x im Spaltenraum
werden. Wir haben also
[T ]C1←B1 = C10 ∗ A ∗ B1
(3)
Denn c = [1; 2] → x = B1 ∗ c ergibt den Vektor des Zeilenraumes mit den B1-Koordinaten c. Darauf
angewendet bekommen wir T (x) = A ∗ x = A ∗ (B1 ∗ c) = (A ∗ B1) ∗ c = A ∗ (B1 ∗ c) und deren
C1-Koordinaten im Spaltenraum sind durch C10 zu bilden, also gilt
[T x]C1 = C10 ∗ T x = (C10 ∗ A ∗ B1) ∗ c = (C10 ∗ A ∗ B1) ∗ [x]B1
was zu beweisen war. Man kann es auch noch so herleiten: Diese Matrix, also C10 ∗ A ∗ B1, kann man
auch so gewinnen, dass man die Abbildung T auf die Basis-Vektoren abbildet, also die Spalten von
B1, also dass man zuerst A ∗ B1 bildet, und von diesem Paar von Vektoren im Spaltenraum die C1Koordinaten bildet, also ein Skalarprodukt mit dem Biorthogonalsystem zu C1, das ist aber diesmal
C1 selber, man kommt also auch auf diese Weise (Standardrezept) auf die Matrix C10 ∗ A ∗ B1.
Zum Abschluss noch ein kleiner numerischer Test anhand des Beispiels x = B1 ∗ c:
TB1C1 =
C1’ *
TB1C1 =
-136.1588 -162.4715
0.8865
0.0864
>> TB1C1 * [1;2]
ans =
-461.1018
1.0593
>> A*x
ans=
222
264
306
>> C1’* (A*x)
-461.1018
1.0593
A * B1
Bemerkung: die Matrix A, die wir hier immer verwenden, hat die bemerkenswerte Eigenschaft, dass
für sie gilt, dass der Zeilenraum gleich dem Spaltenraum ist. Das gilt für jede normale Matrix (notwendigerweise), weil diese nach Definition die Vertauschungsregel A ∗ A0 == A0 ∗ A erfüllen), also
ist
0
null(A) = null(A0 ∗ A) = null(A ∗ A0 ) immer
| {z } = null(A )
, und somit sind die orthogonalen Komplemente der Kerne von A0 bzw. A gleich, und das sind ja genau
der Spaltenraum bzw. der Zeilenraum von A.
PS Angew. Mathematik für LehramtskandidatInnen
Hans G. Feichtinger, WS 2008/09, Version 56. Okt. 2008, 9:34
Aktuelle Informationen zu Vorlsg. und PS finden jeweils unter
http://www.univie.ac.at/NuHAG/FEICOURS/ws0809/angelps08a.pdf
Da es im Bereich der Angew. Mathematik wichtig ist, einen Überblick über einsetzbare Begriffe und Methoden zu haben (außer man befaßt sich nur mit einem bestimmten Thema näher), hat diese Vorlesung
teilweise auch den Charakter eines Repetitoriums und soll helfen, Querverbindungen bzw. vergessene
Winkel anzusprechen. Dies erfordert auch aktive Teilnahme (Vorbereitung, Mitarbeit) im Proseminar
(sowie allenfalls Rückmeldungen an den Vortragenden). Auch die Form der Fragestellung ändert sich
gegenüber der “reinen Mathematik” (vgl. Museum versus Produktionsbetrieb).
Zunächst also einmal ein paar Dinge zum Nachdenken, Stöbern, um die richtige Einstellung zu bekommen (so wie man einen oder mehrere Reiseführer zurate zieht, bevor man auf eine Reise geht). Ein Teil
des Materials wird ohnehin in der Vorlesung bzw. in den Uebungen besprochen.
1. Mathematik im Alltag? (eigene Beispiele, Augen offenhalten, bekannte Beispiele aus Büchern,
dem Internet, sowie “unklare” Spekulationen; Stichworte: Modell, math. Ansatz, (?) Lösung)
2. Wiederholung von Definitionen bzw. grundlegenden Sätzen aus der Linearen Algebra (erster
Durchgang) > Materialsammlung!
• Def. von Gruppe, Körper, Vektorraum, Ring, Algebren
• nichttriviale Beispiele (möglichst “originell”);
• Welche 3 Schritte beschreiben die Gauß-Elimination;
• Wie kann man begründen, daß der Zeilenrang einer Matrix gleich dem Spaltenrang einer
Matrix ist?
3. Verbindung zwischen Linearer Algebra und Geometrie: Geometrische Deutung (Skizze !) der
Schritte der Gauß Elimination anhand eines (inhomog.) Gleichungssyst. mit 2 Variablen (Bewahrung der Lösungs- Äquivalenz ist gleichbedeutend damit, daß die zugeh. Geradenpaare stets den
gemeinsamen Schnittpunkt bewahren.
Eigene Beobachtungen: Wann legt diese Sichtweise nahe, daß man mit numerischen Ungenauigkeiten rechnen muß, und in welchen Fällen (geometrisch gesprochen) ist diese Gefahr gering.
4. Wie kann man eine Überdeckung einer Menge U durch Mengen Uk , 1 ≤ k ≤ K in eine Partition
durch Mengen Vk , 1 ≤ k ≤ K ( Überdeckung von U , mit Vk ∩ Vl = ∅ for k 6= l) umwandeln, sodaß
Vk ⊆ Uk for alle k gilt?
5. Gram-Schmidt Orthogonalisierung (Voraussetzungen, Rezept, . . . );
Weiters ein paar kleine “Rechenaufgaben”:
• Berechne 123456789876543213
• Es seien x und y zwei Zufallsvektoren. Man plotte den Winkel zwischen y und x − λy für einen
interessanten Bereich von Werten von λ. Diskussion anhand eines in MATLAB erstellten plots!
• Die kubischen Polynomfunktionen, also die Funktionen von der Form p(x) = a0 +a1 x+a2 x2 +a3 x3 ,
sind eine Vektorraum der invariant unter Verschiebungen ist, als beispielsweise ist mit p(x) auch
p(x − 3) (Rechtsshift des Graphen um 3) ebenfalls ein Polynom. Man bestimme die Koeffizienten dieses neuen Polynoms, und daraus die Matrix zum Basiswechsel (die inverse Abbildung ist
natuerlich q(x) → q(x + 3).
• Studium der Vandermonde matrix vand(x), wobei x = [x1, x2, . . . , xn] ∈ C, welche die lineare
Abbildung c → [p(x1), p(x2), . . . , p(xn)] beschreibt.
• Es sei A eine beliebige quadratische Matrix, und B = A0 ∗ A (A0 ist die konjugierte, transponierte zu A). Man zeige, dass die Folge die durch folgende Rekursion gegeben ist, konvergiert,
und zwar (fast) immer gegen den gleichen Grenzwert, unabhängig davon, was der Startwert
ist: z.B. fuer n = 7: A= rand(n); B = A’*A, x = rand(n,1); for jj=1:50; x = B * x; x
= x/norm(x); home; disp(x(:).’); end;
BEISPIELE für die dritte Woche ( Di., 21.10., Mo. 27.10.)
Die folgenden Beispiele sind dafür gedacht, grundlegende Kenntnisse in MATLAB zu erreichen, und
Grundbegriffe der Linearen Algebra in numerischer Form zu realisieren. Je nach Ablauf der kommenden
Woche werden wir die Ergebnisse an der Tafel bzw. im PC-Labor besprechen. Ich erwarte in dieser ersten
Woche noch nicht, dass unbedingt alle Teilnehmer alle Beispiele gemacht haben. Es ist mir lieber, wenn
es eine Streuung gibt und aufgrund der kurzen Fristen bin ich zufrieden, wenn
1. Bestimmen Sie auf zwei verschiedene Arten die Projektion auf den Zeilenraum der Testmatrix
>> A = zeros(3); A(:) = 1:9;
>> A =
1
4
7
2
5
8
3
6
9
Auch eine der beiden Matrizen A ∗ pinv(A) bzw. pinv(A) ∗ A ergeben dasselbe Resultat (welche
der beiden Lösungen ist plausibel, Dimensionsvergleich!).
2. Man berechne die Winkel zwischen den Spalten der oberen Matrix, ihre Längen. Weiters bestimme
man das Volumen des von diesen drei Vektoren aufgespannten Parallel-Epipeds.
3. Es sei B die Matrix B = [1, 1, 1; 1, 2, 3; 1, 4, 9];. Man verifiziere, dass diese Matrix invertierbar ist.
Also sind die Spalten (und ebenso die Zeilen) der Matrix jeweils eine Basis für den R3 . Wenn
−
der Vektor →
v ∈ R3 in Bezug auf die Spalten von B die Koordinaten [2, −1, 3] hat, was sind
dann seine Koordinaten in bezug auf die Kollektion der Zeilenvektoren, also bzgl. der Vektoren
c1 = B(1, :); c2 = B(2, :); c3 = B(3, :);
4. Man zeige durch numerische Experimente, dass für jede (auch) rechteckige Matrix A die Matrizen
A0 bzw. pinv(A) das gleiche Format, den gleichen Nullraum und den gleichen Bildbereich haben.
5. Gegeben drei Punkte im Raum, sagen wir P 1 = [3, 4]; P 2 = [4, 7]; P 3 = [2, 3]; ergibt sich eine
(affine) Ebene im Raum, die natürlich in Punkt-Vektorform beschrieben werden kann. Daher gibt
es einen Punkt minimaler Norm in dieser Ebene, also in Punkt dessen Abstand vom Koordinatenzentrum [0, 0, 0]; minimal ist unter allen Punkten. Man berechne diesen Punkt (numerisch,
mit einer geometrischen Begründung).
6. Man beschreibe eine Basis für den Raum aller kubischen Polynomfunktionen p(x) ∈ P3 (R), für
die gilt p0 (x) = 0;. Was ist die Dimension diese Teilraums von P3 (R)?
7. Ist ein kubisches Polynom durch die Angabe von p(0), p0 (0), p00 (0) und p0 (1) eindeutig festgelegt.
( AA = [1,0,0,0; 0,1,0,1; 0,0,2,1; 0,0,0,3]; sollte nützlich sein.) Würde sich an der Antwort etwas ändern, wenn man die Stellen 0 bzw. 1 durch andere Werte a, b mit a 6= b ersetzt?
8. Ist eine quadratisches Polynom p(x) ∈ P2 (R) durch die Angabe von = [p(0), p0 (1), p(2)]; eindeutig
bestimmt. Man plotte die Kurven der “Elementarlösungen”, d.h. derjenigen Polynome, für die
−
−
gilt →
y =→
ek , k = 1, 2, 3 über dem Intervall [−.7, 2.6];
1
Material zum Thema Polynomfunktionen
Die Abbildung, die von den Polynomen, sagen wir P3 (R) zu den Werten führt, ist linear, hat als eine
Matrixdarstellung [T ]A ←B für passend gewählte Basen. Ist die Folge der Stellen, an denen in kubisches
Polynom auszuwerten ist, durch eine sog. Vandermonde-Matrix gegeben:
>> vander([0,-1,1,2,])
ans =
0
0
0
1
-1
1
-1
1
1
1
1
1
8
4
2
1
Dies realisiert die lineare Abbildung p(x) = a1 x3 +a2 x2 +a3 x+a4 7→ [p(x1 ); p(x2 ); p(x3 ); p(x4 )] realisiert,
in Konstitenz mit dem MATLAB-Befehl polyval(a, x), wobei die Folge a die Koeffizienten beschreibt,
mit den führenden beginnend, daher ist die (in diesem Kontext) “richtige” Anordnung der Monomie
durch M3 := {x3 , x2 , x, 1} gegeben.
Aufgabe: Die Abbildung x → f f t(x) is eine lineare Abbildung, die auf “Kollektionen von Spaltenvektorenängewendet werden kann (wenn man einen einzelnen Zeilenvektor als input hat, dann wird der so
wie ein Spaltenvektor behandelt, und output im Zeilenformat realisiert). Daher ist die Matrix, die der
FFT-Routine (steht fuer die “Fast Fourier Transform”) zuständig ist, einfach F = f f t(eye(n)). Man
probiere dies für kleines n aus, sagen wir n = 3, 4, 6, 8, 12, 15, 32 etc. . Um das Ergebnis zu visualisieren,
schlage ich vor, den Befehl plot(F); axis square; figure(gcf); folgen zu lassen. Das Ergebnis
wird Ihnen (speziell fur n = 13 oder 17) gefallen.
Darauf aufbauend versuchen Sie festzustellen, ob und in welcher Form diese Matrix auch als eine
Vandermonde Matrix gesehen werden kann, und ob die Matrix unitär ist. Die Inverse Matrix?
BEISPIELE für die vierte Woche ( Anfang November)
1. Man versuche eine geometrische Interpretation der PINV-Lösung für ein übersbestimmtes lineares
Gleichungssystem zu geben, und zwar zuerst für den Fall, dass man drei Geraden in allgemeiner
Lage in der Ebene hat, beschrieben durch eine 3 × 2 Gleichungssystem. der Form A ∗ x = b. Man
zeichne die drei Geraden (eine Moeglichkeit ist es, einen Plot in der komplexen Ebene zu machen,
wobei es geng̈t, die zwei Endpunkt zu plotten), und gebe eine Vermutung ab, wo die “Lösungëines
solchen Gleichungssystems geometrisch gesehen zu finden ist. Als konkretes Beispiel können Sie
folgendes System nehmen:
x+2y=2;
2x+3y =3;
x-y =0;
(also A=[1,2; 2,3; 1,-1], b = [2;3;0];)
2. Hat man z.B. 5 “ungenaue Messwerte” einer quadratischen oder kubischen Kurve geben, so kann
man die (eindeutig bestimmte) Kurve vom Grad 2 bzw. 3 durch Lösen des MNLSQ (Methode
der kleinsten Quadrate) bestimmen.
3. Man verifiziere experimentell, dass für eine beliebige Matrix A folgende Fakten gelten:
B = pinv(A); A ∗ B ∗ A = A; pinv(A) = pinv(A0 ∗ A) ∗ A0 = A0 ∗ pinv(A ∗ A0 );
B ∗ A und A ∗ B sind orthogonale Projektionen! null(B) = null(A0 ); orth(B) = orth(A0 );
(4)
Material f. weitere Stunden:
ACHTUNG: Die Numerierung der Beispiele wird sich vermutlich noch ändern:
1. Es sei E eine Ebene, die durch die 2 Punkte im Raum, sagen wir P = [1, 0, 3]; Q = [2, 1, 4];. Man
beschreibe die Matrix zur Spiegelung an dem Teilraum, der diese beiden Punkte im R3 enthält.
2. Man zeige, dass {1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 } eine Basis für die kubischen Polynome
darstellt, und stelle die Matrix zum Differentationsabbildung: p(x) 7→ p0 (x) in Bezug auf diese
Basis dar;
3. Man zeige, dass jede Projektion auf einen Teilraum des Rn eine lineare Abbildung ist. Diese
Abbildung ist orthogonal genau dann wenn die zugehörige Matrix bzgl. irgendeiner ONB des Rn
selbstadjungiert ist (d.h. A == A0 erfüllt).
4. Man zeige, dass für je zwei Tripel von (nicht kolinearen) Punkten im R3 eine affine Abbildung
existiert, welche die entsprechenden Punkte ineinander überführt. Man bestimme diese Abbildung
(Rechengang, der im Prinzip in MATLAB realisierbar sein sollte). Ist diese Abbildung eindeutig
gegeben? Überlegungen zur Verallgemeinerung auf allgemeine Dimensionen.
5. Man finde eine Beschreibung (ebenfalls konstruktiv, algorithmisch) für die Spiegelung an einem
affinen Teilraum. Dabei wird natürlich die Zerlegung des Rn nach einem Teilraum und seinem
orthogonalen Komplement eine Rolle spielen.
6. Man verifiziere, dass (bei geeigneter Wahl der Basis) die Vandermonde Matrix vander(x), mit
→
−
−
x = [x1 , x2 , . . . , xn ] die Matrix für die durch →
a 7→ polyval(a, x) beschriebene Matrix darstellt.
Die Inverse dieser Matrix enthält also als Spalten genau die Koeffizienten, die den Polynomen,
für welche man das Lagrange Interpolationspolynom bilden kann, darstellen. Man verwende die
übliche Formel dafür und überzeuge sich von dieser Aussage.
Weiteres Material:
1. Man denke sich folgendes Würfelexperiment: Es wird mit zwei Würfeln (rot und schwarz, sagen
wir) gewürfelt, und zwar so, dass man, bei 0 ∈ Z startend um die “rote” Augenzahl nach links bzw.
um die schwarze Augenzahl nach rechts geht. Man bestimme fuer 10 : 10 : 80 Wiederholungen des
Experimentes (also 10, 20, bis 80) Wiederholungen, wie gross die Wahrscheinlichkeit ist, wieder zu
0 zurueckgekehrt zu sein. Man zeige, dass die Wahrscheinlichkeit nach 0 zurueckzukehren mit der
Zahl der Wiederholungen des Experiments abnimmt, und bestimme die Zahl der Wiederholungen,
bei der das erste Mal die Chance unter 1% sinkt (Antwort: es sind 63 Wiederholungen!). Wie
lange ist es korrekt zu behaupten, dass die Wahrscheinlichkeit, nicht mehr als 2 Schritte vom
Ursprung entfernt zu sein, noch unter 50% ist.
Herunterladen