Materialien zur Vorlesung, Teil I Angewandte Mathematik für LehramtskandidatInnen Hans G. Feichtinger, WS 2002/2003 —————————————————————– WIEDERHOLUNG von Begriffen: Ein Vektorraum V ist eine Menge, ausgestattet mit einer kommutativen Addition und Skalar-Multiplikation -mit entsprechenden Verträglichkeitsregeln. In V ist die Bildung von Linearkombinationen seiner Elemente möglich. Zu jeder endlichen Familie von Vektoren {v1 , · · · , vn } ist die Menge aller möglichen Linear-Kombinationen (mit Koeffizientenfolge c = (c1 , . . . , cn ), P also h = nn=1 ck vk der kleinste Teilraum von V . Ein endliche Familie {v1 , · · · , vn } ist ein Erzeugendensystem, wenn jedes EleP ment v sich als . Äquivalent ausgedrückt: die Abbildung c 7→ nn=1 ck vk is surjektiv. Andererseits ist eine Familie {v1 , · · · , vn } linear unabhängig, wenn (für diejeP nigen Elemente h ∈ V , welche ein Darstellung h = nn=1 ck vk besitzen, diese P eindeutig ist, oder mit anderen Worten, wenn die Abbildung c 7→ nn=1 ck vk is injektiv ist. Sind beide der letztgenannten Eigenschaften erfüllt, dann spricht man bekanntlich von einer Basis des Vektorraumes V . Hat V eine solche endliche Basis, dann spricht man von einem endlichdimensionalen Vektorraum. Bemerkung: Wir wollen hier nicht die Frage der Dimension eines Vektorraumes nochmals auswalzen. Damit dieser Begriff sinnvoll ist, muß man sich nur vergewissern, dass jede mögliche Basis aus gleich vielen Elementen besteht. Vielleicht kommen wir auf diese Frage aber später nochmals zurück. Die strukturerhaltenden Abbildungen zwischen zwei Vektorraumen sind die sog. linearen Abbildungen. Bekanntlich ist eine Abbildung T von einem Vektorraum V in einen anderern Vektorraum W linear wenn sie Linearkombinationen respektiert , wenn also das Bild einer Linearkombination mit der Linearkombination der Bildvektoren übereinstimmt, oder in Formeln ausgedrückt Bemerkung: Üblicherweise fordert man nur die Verträglichkeit von T mit Addition bzw. skalarer Multiplikation, aber daraus kann man leicht die 1 Verträglichkeit mit allg. Lin.Komb. herleiten. Umgekehrt sind diese elementaren Operationen spezielle Formen von Lin.-Kombinationen. Eine der grundlegenden Konsequenzen aus den bisherigen Begriffen ist der folgende Satz 1: Kennt man eine lineare Abbildung von V nach W auf einem Erzeugendensystem {v1 , · · · , vn }, so sind durch die Bilder {T v1 , · · · , T vn } alle anderen Bildvektoren auch schon festgelegt. zum Beweis: jedes Element v ∈ V ist als Linearkombination darstellbar, somit ist T v als “entsprechende” Linearkominbination fixiert. Satz 2: Ist {v1 , · · · , vn } eine Basis von V , so ist durch die Festlegung der Bildvektoren wk = T vk , k = 1, · · · n in eindeutiger Weise eine lineare Abbildung T festgelegt. zum Beweis: Nun muß zusätzlich gezeigt werden, dass durch die Bilder T vk schon eine lineare Abbildung festgelegt. Aufgrund der Eindeutigkeit der Darstellung ist aber auch das klar. Man könnte auf naheliegender Weise für festes V und W auch den Raum L(V, W ) aller linearen Abbildungen zu einem Vektorraum machen. Sobald man den Begriff der Basis hat, sind Vektoren v im Def. und Zielbereich einer linearen Abbildung schon durch ihre Koordinaten (bezüglich der dort vorhandenen Basen) festgelegt. Es erscheint daher aus rein “datenökonomischen Gründen sinnvoll, die vollständige Information über eine lineare Abbildung T von einem Vektorraum V mit Basis B = {v1 , · · · vn } in den Bildraum W mit Basis B 0 = {w1 , · · · vm } dadurch festzuschreiben, dass man sich in einem rechteckigen Schema, wir nennen das dann eine Matrix fixieren. Üblicherweise arrangiert man diese Daten so, dass man die Bilder T vk , k = 1, · · · , n durch Ihre Koordinaten bzgl. B0 beschreibt, und den Koeffizientevektor (der Länge m) als k−ten Spaltenvektor vermerkt. Das ergibt eine m × n Matrix (m Zeilen, n Spalten). Satz 3: Für jede lineare Abbildung T : V → W ist T durch die Matrix [T ]B,B0 , die auf die oben beschriebene Art und Weise entsteht, eindeutig bestimmt. Umgekehrt definiert jede m × n Matrix A eine lineare Abbildung T (deren zugehörige Matrix natürlich genau A ist. zum Beweis: Dass T bei gegebener Basis eindeutig durch die Matrix fixiert ist, und auch umgekehrt durch eine solche Matrix beschrieben werden kann, ergibt sich aus die vorhergehenden Sätzen. Der Beweis A = [T ]B,B0 , wenn man aus A eine lineare Abbildung definiert, ist “trivial” (man sollte sich nur überlegen, dass die überhaupt beweisenswert ist. Aus dem obigen Ausführungen ist sogar mehr herzuleiten: 2 Satz : Für je zwei Basen B, B 0 von V bzw. W ist die Abbildung T 7→ [T ]B,B0 ein Isomorphismus zwischen dem Vektorraum L(V, W ) und dem Vektorraum aller m × n-Matrizen. (insbesondere ist L(V, W ) also dann ein nmdimensionaler Vektorraum. Erinnere an die Konvention der Matrix-Vektormultiplikation: (A ∗ x)i = n X ai,j xj , 1 ≤ i ≤ m. (1) k=1 und die Matrix-Matrix Multiplikation, die so interpretiert werden kann, dass A ∗ B dadurch interpretiert werden kann, dass B = (b1 | · · · bm ) betrachtet wird, und dann A ∗ B = (A ∗ b1 | · · · |A ∗ bm ) (2) Satz XX: i) Wenn man zwei lineare Abbildungen ”komponiert”, d.h. S ◦ T bildet, dann ist die Matrix (bzgl. der entsprechenden Matrizen) die dieser zusammengesezten Abbildung entspricht genau das Matrix-Produkt der zugehörigen Matrizen. ii) Insbesondere ist die Algebra L(V, V ), mit der Komposition von linearen Abbildungen ist (via T 7→ [T ]B,B ) isomorph zur Algebra aller m × mMatrizen, versehen mit der gewöhnlichen Matrix Multiplikation. Insbesondere ist eine lineare Abbildung T genau dann invertierbar, wenn die zugehörige Matrix [T ]B,B (entsprechend dem Matrix-Kalkül) invertierbar ist (z.B. mit Hilfe des Gauss’schen Algorithmus). Noch zu klären bzw. auszuführen: Assoziativität der Matrix Multiplikation (die natürlich auch elementar und direkt verifiziert werden kann) ergibt sich auch zwingend aus der Beziehung zur Komposition von linearen Abbildungen (z.B. zwischen den Modell-VRs Rn bzw. C n Räumen. TEST x • y Definition Sei A eine relle od. komplexe m × n-Matrix, mit Spalten (a1 , · · · , an ). analog B. Dann sei die Wirkung von A als Abbildung von V n auf V m wie − üblich gegeben, d.h. dass für → v ∈ V n wird nach V m abgebildet, derart → dass die k-te Koordinate des Bildvektors, den wir mit − v • A bezeichnen − → wollen, durch Linearkombination der Elemente von v entstehen soll, unter Verwendung der Koeffizienten die in der entsprechenden ( = k-ten) Spalte von A stehen. 3 EIN FUNDAMENTALER (wenn auch einfach zu beweisender Satz, !Stoff f. d. Prüfung) SATZ lautet dann wie folgt: Satz [MAT-MULT:] Seien A unad B (formatmäßig) zueinanderpassende Matrizen, d.h. A habe → Format m × n und B das Format n × r. Dann ist die Abbildung − v 7→ − → − → − → ( v • A) • B direkt durch die Matrix-Wirkung v 7→ v • C realisierbar, mit C = A ∗ B (gew. Matrix-Multiplikation) KONSEQUENZEN: Proposition: Es sei B eine Basis von V (bestehend aus n Vektoren in V ), und Q sei das System, das durch Anwendung einer invertierbaren n × n Matix C auf B entsteht, d.h. Q = B • C. Dann ist auch Q eine Basis für V , und es gilt weiters B = Q • C−1 . Da ein allgemeiner Vektor v in V genau dann die Koeffizientenfolge c ∈ Rn bzgl. der Basis B hat wenn v = B • c, gilt v = B • c = (Q • C−1 ) • c = Q • (C−1 ) ∗ c), oder in anderen Worten, die (eind. bestimmten Koeffizienten von v bzgl. Q sind durch die Koeffizientenfolge (C−1 ∗ c) gegeben. Mit anderen Worten: Wenn die ”neue” Basis Q aus der alten Basis B durch (Rechts-)Wirkung der (invertierbaren) Matrix C entsteht (mittels der “•” – Operation, d.h. durch Bilden von Linearkombinationen), so ist die (evenballs) invertierbare Abbildung die den B-Koeffizienten eines jeden Vektors die zugehörigen QKoeffizienten zuordnet durch durch c 7→ C−1 ∗ c gegeben. RESTMATERIAL von früher RESTMATERIAL, Beispiele . . . TEST: P2 , P3 , Pk , A = {a1 | · · · an }, xy 1. Geben Sie eine Beschreibung der SVD (Singulärwertzerlegung) für eine allgemeine m × n-Matrix mit komplexen Eintragungen 2. Was können Sie über die Lösbarkeit einer allgemeinen linearen Gleichung der Form A ∗ x = b sagen? Mit welchen Abweichungen vom Idealfall ( m = n und det(A) 6= 0) muß man rechnen? 3. Es sei die lineare Abbildung T von P3 (Raum aller kubischen Polynomfunktionen) in sich gegeben, die durch p(x) 7→ q(x) := p(x − 4) 4 gegeben ist. Man bestimme die Matrix von T (bzgl. der Standardbasis der Monome) und stelle fest, ob diese Abbildung invertierbar ist (Deutung?). 4. Wie ist die diskrete Fouriertransformation definiert, und welche grundlegenden Eigenschaften hat sie. Warum ist sie ein geeignetes Hilfsmittel (Grundprinzip?) zur Multiplikation von Polynomen? Weitere Anwendungsmöglichkeiten (Stichworte). 5. 3 Beispiele von angewandter Mathematik (möglichst nicht nur das eigene PS-Beispiel), mit kurzem Hinweis, welche Art der Mathematik dabei eine Rolle spielt. 6. (Joker) Wie sind unitäre Matrizen definiert, und welche Eigenschaften haben sie (Eigenschaften der Spaltenvektoren, sind sie stets unitär diagonalisierbar?) 5