Material zur Einführung in die Lineare Algebra, SS 2014, HGFei Letztes Update: 22. April 2014 Diese Notizen sind laufenden Änderungen unterworfen, und sollen so etwas wie “the making of linear algebra” (d.h. Hintergrund-Information, Bewertung) darstellen. 1 Allgemeiner Terminplan zur Vorlesung [tentativ] 1. (Woche 1) Grundbegriffe, Vektoren in Kn , Matrizen; Lineare Gleichungssysteme und Systemmatrizen; Addition und Skalare Multiplikation von Vektoren, somit Bilden von Linear-Kombination. 2. (Woche 2) : nur 1 Einheit: Lineare Abbildungen und Matrizen: Darstellung von linearen Abbildungen; Matrix-Vektor Multiplikation ist nur eine konkrete Form der Anwendung einer linearen Abbildung; Weiters in der Mittwoch-Stunde eine Geogebra-Demo gegeben, Gleichungen, Geraden in der Ebene, Normale; 3. (Woche 3, 18./19. März) Konkrete lineare Abbildungen (Drehungen, Spiegelungen, etc.) und deren Matrizen, bzw. Diagonalmatrizen, Projektionen. Wirkung auf Punkte und Mengen (insbesonderen Kreise, Einheitsquadrat, Gitter, Geraden, etc.). , Assoziativität der Matrix-Multiplikation; 4. (Woche 4: 25./26. März) Zeilenraum, Spaltenraum, , Erzeugendensystem, minimale Erzeugendensysteme; Relevanz für Gleichungssyteme. Gauss-Jordan-Elimination (zum Lösen von Gleichungssystemen) und ElementarMatrizen (3 Arten); Allgemeine und spez. Lösung von (in)homogenen GLS; 5. (Woche 5: 1./2.4.) lineare Unabhängigkeit, Basen; Dimension eines Teilraumes; Rang einer Matrix; Pivot-Elemente 6. (Woche 6: 8./9.4. [danach Osterferien (14.4.- 27.4.)]) Basen, linear abhängige Mengen, RZSF 7. (Woche 7: 29./30.4.) Abstrakte Vektorräume, lineare Abbildungen, allgemeine Theorie Einstieg 8. (Woche 8: 6.5.,7. Mai) Inversion von Matrizen, Matrix-Darstellung bzgl. allgemeiner Basen, Polynomfunktionen 9. (Woche 9: 13./14. Mai) 10. (Woche 10: 20./21. Mai) 11. (Woche 11: 26./28. Mai) 12. (Woche 12: 3./4. Juni) 13. (Woche 13: nur 11. Juni [Pfingsten]) 1 14. (Woche 14: 17./18. Juni) 15. (Woche 15: 24./25. Juni) 16. ERSTER SCHRIFTLICHER TEST: 1. Juli (Di). REST: Äquivalenz zur Surjektivität, Injektivität bzw. Bijektivität der Matrix Multiplikation; Austauschsatz von Steinitz Pivot Elemente, Rang einer Matrix (Zeilenrang = Spaltenrang); Rechenregeln zur Inversion einer allgemeinen quadratischen Matrix, Elementarmatrizen (ev. schon früher!) 2 2 Allgemeine Ideen zur Linearen Algebra Das zentrale Thema sind Lineare Gleichungssysteme, d.h. Gleichungssystem mit Koeffizienten aj,k aus einem Grundkörper K, bzw. einem Vektor b = (bk ) ∈ Km : a11 x1 + · · · + a1n xn = b1 .. . am1 x1 + · · · + amn xn = bm . Diese heissen homogen wenn die rechte Seite, der der Spaltenvektor b, nur aus Nullen (dem Nullvektor) besteht, ansonsten heißt das Gleichungssystem inhomogen. Mit Hilfe der Matrizen-Rechnung werden wir die Gleichung in die folgende kompakte Form bringen, die sehr gut geeignet ist, um (mit Hilfe der Gauss-Jordan Eliminationsmethode) eine Lösung zu bestimmen. Genauer: die Lösbarkeit des Problems festzustellen und im positiven Falle die Lösungsmenge (d.i. die Gesamtheit aller Vektoren x = [x1 , ...xn ] ∈ Rn oder Cn , welche das Gleichungssystem erfüllen, zu bestimmen. A ∗ x = b, mit b ∈ Km , x ∈ Kn . (1) Klarerweise muß hier A eine m × n-Matrix mit Eintragungen aus dem Körper K sein (wobei wir uns vorwiegend auf K = R bzw. C konzentrieren werden). 2.1 Konkrete Vektoren und Matrizen-Rechnung Um rasch einen Einstieg und Übungsmaterial zu haben, wollen wir rasch ein paar Grundbegriffe klären. Vektoren in Kn sind geordnete n-Tupel von Elementen aus dem Grundkörper K. Dabei spielt das Format keine Rolle, d.h. ob diese Vektoren in Spalten (eher üblich) oder in Zeilenform angeschrieben werden. Wichtig ist nur an welche Stelle welcher Wert (Koordinate bzw. Komponente) angenommen wird. Wir werden typischerweise schreiben x = [x1 , · · · , xn ]. Um den Vektor-Charakter zu betonen schreiben aber auch ~x oder ~x. Die Zahl der Komponeten (d.h. das n oben) is die Länge des Vektors. 2.2 Die mathematische Beschreibung Aus der systematischen Behandlung solcher linearer Gleichungssysteme hat sich sowohl die Matrizen-Rechnung als auch die allgemeine Theorie der Vektorräume entwickelt. In der linearen Algebra geht es um die Theorie der endlichdimensionalen Vektorräume, d.h. derjenigen algebraischen Strukturen, mit deren Hilfe die Begriffe Linearkombination, Basis, lineare Abbildung beschrieben und studiert werden können. Die Annahme der “endlichen Dimension” bedeutet letztendlich, dass es in solchen Strukturen Koordinatensysteme gibt, in denen die Objekte (abstrakt als Vektoren bezeichnet) eindeutig beschrieben werden können. Man kann zeigen (aufgrund abstrakter Überlegungen) dass die Zahl der Koeffizienten (oder Koordinaten) unabhängig vom gewählten Koordinatensystem immer gleich ist, und diese (natürliche) Zahl, die jedem solchen Vektorraum zugeordnet wird, ist eben die Dimension dieses Vektorraumes. Beispielsweise ist die Dimension des Raumes aller quadratischen Polynomfunktionen eben genau 3, und die 3 defAxb Dimension des Raumes aller Farb-Pixelbilder vom Format 300 × 400 ist 360.000 (ist eine 300 × 400 × 3 Matrix). ooooooooooooo Warnung: Der in der Schule verwendete Begriff der linearen Abbildung ist leider(!) nicht identisch mit dem in dieser Vorlesung (und allen Büchern zur Linearen Algebra) verwendeten Begriff1 ! ooooooooooooo Daraus ergibt sich die Frage, wie man feststellen kann, ob ein System von Vektoren (typischerweise denkt man in der Anfangsphase an Spaltenvektoren im R3 ) eine Basis des Vektorraumes R3 ist, die Begriffe Erzeugendensystem und lineare Abhängigkeit kommen ins Spiel, die in der Kombination den Begriff der Basis (genau das sind diejenigen, die ein Koordinatensystem erzeugen) ergeben. Der zweite Begriff (nach dem des Vektorraumes und damit verbunden dem der Linearkombinationen) ist der Begriff einer linearen Abbildung. Lineare Abbildungen sind aus verschiedenen Gründen wichtig. Einerseits lassen sich diese (in eindeutiger Weise, bei fester Wahl einer Basis) durch eine Matrix beschreiben, andererseits eignene sie sich bestens, um lineare Gleichungssysteme in kompakte Schreibweise zu bringen, d.h. durch Matrix-Vektor Multiplikation in der typischen Form A ∗ x = b zu bringen, wobei es darum geht, die unbekannten Koeffizienten x = [x1 , . . . , xn ] zu finden, die als Lösung der Gleichung in Frage kommen. Für feste rechte Seite (im Gleichungssystem) b ist natürlich die Frage der Existenz einer Lösung (Lösbarkeit oder Konsistenz des Gleichungssystems) bzw. deren Eindeutigkeit von Interesse. Im Idealfall gibt es für jede (!) mögliche rechte Seite eine eindeutig (!) bestimmte Lösung x. Das ist genau dann der Fall, wenn A eine invertierbare quadratische Matrix ist (bzw. wenn das Gleichungssytem auf diese Form zurückgeführt werden kann), und es gilt dann einfach x = A−1 b. Komposition von linearen Abbildungen sowie Matrix-Produkt sind wichtige Ingredienzien der linearen Algebra (Matrizen Rechnung), ebenso wie das Gauss-Jordan Verfahren (auch Eliminations-Verfahren) ein bewährtes Verfahren zur Berechnung der Lösung eines gegebenen linearen Gleichungssytems darstellt. Zusätzlich zu den algebraischen Verfahren (wie eben etwa das Eliminationsverfahren) gibt es auch geometrische Interpretationen, bzw. geometrische Fragestellungen, da ganz eng verwandt sind, und wo es ebenfalls darum geht numerische, d.h. quantitative Antworten zu bekommen. Beispielsweise: “Wie groß ist der Abstand eines Punktes P im Raum (R3 ) von einer Ebenen, die durch drei Punkte gegeben ist? Eng verknüpft damit sind folgende Interpretationen eines linearen (homogenenen oder inhomogenen) 3×3 Gleichungssystems. Es gibt hier die folgenden Interpretationen: 1. Bestimme die Unbekannten x, y, z aus drei Gleichungen (z.B. durch Anwendung der Eliminationsmethode); 2. Beschreibe das Gleichungssystem durch eine gleichwertige (d.h. lösungsäquivalente) Matrix-Vektorgleichung A ∗ x = b; und löse es beispielsweise durch Invertieren der Matrix A; 1 es wird später noch von affinen Teilräumen und affinen Abbildungen die Rede sein 4 3. Betrachte jeweils die durch eine einzelne Gleichung (in drei Variablen) gegebenen Ebenen. Dann geht es darum, ob diese Ebenen einen (oder auch mehrere) Punkte gemeinsam haben (gleichwertig mit der Lösbarkeit d.h. der Konsistenz des Systems); 4. betrachte die Matrix als einen linearen Operator, welcher die (lineare) Abbildung T : x 7→ A∗x realisiert; dann ist die Lösbarkeit des konkreten Systems gleichwertig mit der Frage, ob b im Bildbereich2 . von T liegt. 5. Zuletzt die Frage: Kann b als eine Linear Kombination der Spaltenvektoren dargestellt werden. Der Bildbereich von T besteht nämlich genau aus allen Linearkombinationen der Spaltenvektoren der Matrix, daher ist es oft üblich die Matrix in der Form A = [a1 , . . . , an ] zu schreiben, dass also Folge von Spalten-Vektoren (für eine typische m × n-Matrix A). 3 Schreib-Konventionen, Symbole Standard-Matrizen werden mit Großbuchstaben versehen, also typischerweise A, B etc., während Vektoren in Rm oder Cm (allgemeiner Körper) typischerweise mit Symbolen folgender Form beschrieben werden: a, b3 , uk , vj etc., oft mit der Vorstellung, dass eben b1 , . . . , br die Spalten einer k × r Matrix B wären. Mathematiker beschreiben die Eintragungen der Matrix A = (aj,k )1≤j≤m,1≤k≤n mit Doppelindizierung. Ingenieure verwenden oft eine “in der Zeile” Schreibweise, wie A(2, 3) um a2,3 , das Element in der zweiten Zeile und dritten Spalte hervorzuhaben. Später werden wir uns auch mit Eigenvektoren (und deren Bedeutung), quadratischen Formen und Skalarprodukten befassen. Eines der Anliegen zu Beginn der Vorlesung wird sein, die (auch in anderen Vorlesungen, wie etwas der Analysis-Vorlesung oder der Numerik) teilweise versteckten linearen Strukturen deutlich hervorzuheben und genauer zu studieren, um daraus ein allgemein gültiges Werkzeug zu entwickeln, das nicht mehr von der Möglichkeit des konkreten Rechnens abhängt. Danach ist die Behandlung weiterer Beispiele in ganz anderem Zusammenhang keine neu-artiges Problem mehr. 2 Die Menge der Elemente im Zielbereich, die tatsächlich als Werte auftreten, also {A ∗ x, x ∈ Rn } 5 4 Internet Quellen 4.1 Free Linear Algebra books Es gibt eine große Kollektion von meist englisch-sprachigen “free linear algebra books”, z.B. auf http://www.freebookcentre.net/Mathematics/Linear-Algebra-Books.html (ca. 395 pages, auch mit MOVIES!), verweist auch auch http://joshua.smcvt.edu/linearalgebra/ (Jim Hefferson) http://www.numbertheory.org/book/mp103.pdf, ziemlich gut! http://aimath.org/textbooks/approved-textbooks/beezer/ 645 pages! Ganz spezielle Konditionen betreffen die einzelnen Kapitel (no saving of chapters allowed!) des Buches von Carl D. Meyer (mit Hinweisen auf Kaufmoeglichkeit bei SIAM) das unter http://www.matrixanalysis.com/DownloadChapters.html z.B. http://www.matrixanalysis.com/Chapter1.pdf frei downloadbar ist. 4.2 Wolfram-Alpha Hier steht MATHEMATICA im Hintergrund E.g. Information zum Vektor x = [1, 2, 3]. http://www.wolframalpha.com/input/?i=\{1%2C2%2C3\} INPUT: [1, 2, 3] oder {1, 2, 3} auf der homepage von Wolfram Alpha: www.wolfram.alpha. 4.3 Matrizen Online Bitte selber auch im Internet recherchieren und gute!! Quellen bekanntgeben (auch Apps, etc., am besten als Email an hgfei, mit kurzer Beschreibung von ±). Beispielweise (einfaches Eingabeformat): http://www.bluebit.gr/matrix-calculator/matrix multiplication.aspx bzw. die zugehörigen homepage: http://www.bluebit.gr/matrix-calculator/ Einfach Eingabe, wie z.B. 1 3 2 4 und dann auf den Knopf Matrix Inverse, Matrix Rank etc. Drücken. Natürlich auch WIKIPEDIA: http://de.wikipedia.org/wiki/Regel von Sarrus : Fachbereich Mathematik http://www.mathematik.net/homepage/lehrgang.htm 6 Online Tutorium: http://www.onlinetutorium.com 4.4 MATLAB, OCTAVE, SciLAB MATLAB (von Mathworks) is sicherlich schon professioneller (in vielerlei Hinsicht, und weit verbreitet bei Ingenieuren und anderen Anwendern, z.B. als Mittel um umfangreiche Simulationen zu realisieren, große Matrizen zu invertieren, schnelle (diskrete) FourierTransformierte zu berechnen, überhaupt um “rapid protoyping” zu betreiben (d.h. die rasche Entwicklung von neuen Algorithmen zu zu ermöglichen). MATLAB ist im PC-Labor der Fakultät vorzufinden, aber leider ansonsten kostenpflichtig (eine StudentInnen-Version ist vermutlich auch zu bekommen, muß erst recherchiert werden!). Aber die wichtigsten Aspekte von MATLAB sind auch von Freewaere (bzw. shareware) Programmen wie OCTAVE (empfohlen) oder SciLab abgedeckt. Ein Buch (gratis, von Jim Hefferon) empfehlt SAGE (und bietet dazu auch Material an): http://sagemath.org 4.5 Professionelle Numerische Software Z.B. auch MATLAB, oder Jack Dongara’s Kollektion auf http://www.netlib.org/utk/people/JackDongarra/la-sw.html Weitere Links http://www.heise.de/download/dwl24489 auch mit LINKS zu Scilab bzw. Octave bzw. Maxima (symbolische Mathematik) OCTAVE Installation via http://sourceforge.net/projects/octave/files/Octave %20Windows%20binaries/Octave%203.6.4%20for%20Windows %20Microsoft%20Visual%20Studio/ Skriptum, das die komplexen Zahlen als 2 × 2-Matrizen einführt: http://www.mathi.uni-heidelberg.de/~weissaue/vorlesungsskripte/FUNKT.pdf Im Prinzip ist es die Matrix der Drehstreckungen der Ebene. 4.6 Internet Instruktionen, Tutorials http://www.mathebibel.de/matrizenrechnung Vermutlich gute Übersicht über die Begriffe, aber nicht tiefgehend (daher auch keine besondere Empfehlung). http://www.grundstudium.info/linearealgebra/ http://www.youtube.com/watch?v=T8vHPIJqO3Q Berechnung der inversen Matrix mit Hilfe der Kofaktoren-Matrix und Adjunkten: A−1 = (det(A))−1 adjA 7 (Regel von Sarrus! (ist ein Franzose)) unter Verwendung von Determinanten von “Streichungsmatrizen” (mit Vorzeichen nach dem Schachbrettmuster), von Josef Raddy (56 Minuten, aber sehr genau, mit Zusammenfassung). Beispiel: [3, 1, 4; 2, 1, 0; 0, 0, 1] mit det(A) = 1 und inverser Matrix: C = [1, −1, −4; −2, 3, 8; 0, 0, 1]; und andere Quellen, noch im Aufbau begriffen! Verffentlicht am 01.07.2012 Dieses Video zeigt wie man die Parametergleichung in die Normalengleichung umwandeln kann. Diese Umwandlung der Ebenengleichung kann auf zwei verschiedene Arten realisiert werden. Zur Auswahl steht eine Lösungsstrategie mit Hilfe eines Gleichungssystems oder die Berechnung ber das Vektorprodukt. Schneller arbeitet man mit dem Vektorprodukt. Das Vektorprodukt ist an dieser Stelle oftmals noch nicht eingeführt und somit Stelle ich hier auch das Verfahren ber ein Gleichungssystem vor. http://www.youtube.com/watch?v=uAAmkqon\_pM Addition und Multiplikation von Vektoren: Eine wilde Mischung aller Arten von Multiplikationen (16 Min.): http://www.youtube.com/watch?v=G-EfvaxwnnA SEHR INTERESSANTE Tutorials mit Hilfe von GEOGEBRA finden such auch unter geogebratube, e.g.: http://wiki.geogebra.org/de/Hauptseite <<< HANDBUCH ETC> http://www.geogebratube.org/student/m6820 http://wiki.geogebra.org/en/Conic_Section_Tools http://wiki.geogebra.org/en/Transformation_Tools http://wiki.geogebra.org/en/Manual:Main_Page: << MANUAL (Engl). EMPFOHLENE Übung: Umwandeln der verschiedenen Darstellungen von Geraden in der Ebene: http://wiki.geogebra.org/de/Linien_und_Achsen g: 3x + 4y = 1; g: X = (-5,5) + t(4,-3); h: y = k*x + d Weiters wäre es eine schöne Aufgabe zu zeigen, dass man im Falle von OrthonormalSystemen (eines orthogonalen Koordinatensystems, d.h. Basis-Vektoren, die aufeinander senkrecht stehen und Länge 1 haben) die (eindeutig bestimmten) Koeffizienten zur Darstellung eines Vektors auf ganz einfache Art und Weise bestimmen kann. In R2 besteht eine solche ONB aus zwei normierten Vektoren ~n1 , ~n2 , die zueinander orthogonal stehen, also h~n1 , ~n2 i = δ0,1 (Kronecker Delta). Dann gilt für jeden Vektor ~x ∈ R2 : ~x = h~x, ~n1 i~n1 + h~x, ~n2 i~n1 . Realisiert durch randbas2A.ggb 8 (2) ONBRtwo 4.7 Matrizen mit dem Taschenrechner Beispiel: (keine spez. Empfehlung, sondern nur ein Hinweis auf Dinge, die im Internet einfach zu finden sind): Casio FX-991DE Plus technisch-wissenschaftlicher Rechner mit natürlichem Display, kostet < 20EU R. Möglicherweise in Verbindung mit (nur um zu sehen, was so am Markt in Verwendung oder im Angebot ist): Mit dem CASIO fx-991DE PLUS zum Abitur: Prfungsrelevante Anwendungsaufgaben Schritt fr Schritt gelst [Broschiert] Martin Meyer (Autor) 4.8 Mathebibel www.mathebibel.de enthält viele Topics. Beispielsweise: http://www.mathebibel.de/lineare-abhaengigkeit-drei-vektoren http://www.mathebibel.de/inverse-matrix-berechnen-nach-gauss-jordan 5 LITERATUR Hauptreferenz wird das Buch von Gilbert Strang sein (von dem es auch YOUTUBE Videos gibt). http://www.youtube.com/watch?v=ZK3O402wf1c Hochgeladen am 06.05.2009 Lecture 1: The Geometry of Linear Equations. View the complete course at: http://ocw.mit.edu/18-06S05 Literatur: [2] 6 Lineare Algebra in der Ebene Hier geht es um das Rechnen mit zwei unbekannten Variablen, und entsprechend dem Arbeiten mit 2 × 2-Matrizen, Geraden, etc. Realisierung von Gleichungssystemen mit Hilfe von GEOGEBRA ergibt etwas Konstruktionen wie das folgende: 9 7 Lernziele, Testaufgaben Anfangsphase: • Geraden von der Form y = kx + d oder ax + bx = c; • Konstruktion einer Geraden aus zwei Punkten oder in Parameterdarstellung; • Liegt ein Punkt auf einer Geraden durch zwei Punkte? • Gegen der Wert d fuer eine “lineare Funktion” p(x) = yx + d und der Wert h sodass p(h) = d/2: bestimme p(x)? (vgl. Beispiele zu Halbwertszeiten); • Gegeben ein Punkt und die Steigung der Geraden (als Winkel, relativ zur x-Achse, im math. pos. Sinne), bestimme die Gerade; • Was kann man aus den Vorzeichen der Koeffizienten (d.h. von a, b in der Gleichung ax + by = c) über die Lage der Geraden sagen? • Rechnen mit Vektoren, Linearkombinationen, • Matrix - Vektor - Multiplikation • Matrix Multiplikation (assoziativ, aber nicht kommutativ); • Berechnung von Determinanten (2 × 2, 3 × 3); • inverse Matrix, Berechnung derselben; • Lösen von linearen Gleichungssystemen; • Skalarprodukt von Vektoren, • Länge von Vektoren, Winkel zwischen zwei Vektoren; • Beschreibung einer Ebene durch Erzeugenden bzw. durch einen Normalvektor! Diese Liste wird noch erheblich erweitert werden (gegen Ende des Semester!) 10 8 Konkretes Material Die Hauptdarsteller in der Linearen Algebra sind bei klassischer Betrachtung lineare Gleichungssysteme und Matrizen. Man kann hier den algebraischen bzw. numerischen Aspekt der linearen Algebra in den Vordergrund stellen. Man spricht ja auch oft von Matrizen-Rechnung. Der geometrische Aspekt kommt ins Spiel, wenn man die Interpretation die einzelnen Gleichungen als lineare (besser affine!) Teilmannigfaltigkeiten des Rn auffaßt. Dann geht es um das Bilden des Durchschnitts von m solcher Hyperebenen, etc.. 8.1 Voraussetzungen Wir gehen davon aus, dass die Begriffe Körper, Gruppe, etc. aus der STEOP Phase (Steinbauer/Schichl Buch, [1]). Siehe auch Appendix im Skriptum. 8.2 Vektorräume DEFINITIONEN: • Vektorraum, Linearkombination, Koeffizienten; • m × n-Matrix A = (ak,j ), Zeilen, Spalten; • Zeilenraum und Spaltenraum einer Matrix; • Teilraum eines Vektorraumes (plus Test); • homogene und inhomogene lineare Gleichungssysteme; FAKTEN: • Identifizierung des Gleichungssystem mit (erweiterter) Systemmatrix; • Gauss’sches Eliminationsverfahren; Inversion von Matrizen; • Bestimmung von Koeffizienten/Koordinaten bzgl. einer festen Basis; 8.3 Beispiele von Vektorräumen Rk , Cm , die Menge der m × n-Matrizen, Polynom-Funktionen, die Menge aller reellwertigen Funktionen auf einer Menge X (VR über R), etc. 11 8.4 Lineare Abbildungen Lineare Abbildungen von R nach R sind genau diejenigen von der Form x → αx, für irgendein α ∈ R (im Gegensatz zur Schulterminologie). Dort sind die sog. “linearen” Abbildungen genau diejenigen von der Form x 7→ a · x + b, wobei a 6= 0 und b ∈ R gelte. Solche Abbildungen werden3 als affine Abbildungen von R nach R bezeichnet. (und spielen in der affinen Geometrie eine grosse Rolle, z.B. wegen ihrer Eigenschaft der Erhaltung von Teilungsverhältnissen). Beispielsweise (siehe Übungen) wird von affinen Abbildungen der Mittelpunkt zwischen zwei Punkten auf einer Geraden wieder auf den Mittelpunkt der Bildpunkt abgebildet, d.h. für f (x) = ax + b gilt: f (a) + f (b) a+b = . f 2 2 Ähnliches gilt für andere Teilungsverhältnisse (sagen wir, der Punkt der die Strecke von a nach b im Verhältnis 3 : 5 teilt! 8.5 Basen Je nach Sichtweise sind Basen dasselbe wie “Koordinatensystem” (eindeutige Darstellung von Vektoren durch Linear-Kombinationen), oder (im Kn ) invertierbare n × nMatrizen. 8.6 Erzeugenden-Systeme Lineare Erzeugungssysteme erfordern nicht mehr die Eindeutigkeit der Darstellung aller Vektoren, aber eben noch immer, dass alle! Vektoren des gegebenen Vektorraumes dargestellt werden können. So sind die Zeilen (bzw. Spalten) einer Matrix jeweils ein Erzeugenden-System (per definitionem), aber nicht notwendigerweise eine Basis für diesen Raum. 8.7 Lineare Unabhängigkeit Während beim Begriff des Erzeugendensystems im Vergleich zur Basis auf die Eindeutigkeit der Darstellung verzichtet wird, ist beim Begriff der linearen Unabhängigkeit (der einer der wichtigsten in der LA ist!) vor allem die Eindeutigkeit wichtig, dafür wird darauf verzichtet, dass jeder Vektor im gegebenen VR darstellbar ist. Es wird also nur gefordert, dass diejenigen Vektoren, welche dargestellt werden können nur auf eine Art dargestellt werden können, dass also die Koeffizienten eindeutig bestimmt sind (man spricht oft auch davon, dass der sog. Koeffizientenvergleich möglich sein soll. Ein gutes Beispiel hier ist die Menge Kk [x] aller Polynome vom Grad k ∈ N (über K = R oder über einem allgemeinen Körper!). Natürlich sind viele (auch stetige) Funktionen eben nicht mit einem der vielen Polynomfunktionen gleich, aber diejenigen die sich also eine Linear-Kombination von Monomen darstellen lassen, können das nur auf eine eindeutige Art gemacht werden. 3 ! im Einklang mit der internationalen und in der Mathematik üblichen Terminologie! 12 9 APPENDIX: Studienplan Die Einf. Lin.Alg. ist fr dzt. Lehramt und Bach.Stud. gleichlautend, im dzt. Lehramtsdiplomstudienplan sind keine Inhalte vorgegeben, daher sollten die im wesentlichen die aus dem aktuellem Bach.Curr, Seite 4, unterer Teil im Modul EHM, enthalten, vgl. unter http://senat.univie.ac.at/fileadmin/user upload/senat/Konsolidierte Curricula/Bachelors/BA Mathematik.pdf 9.1 Material zu früheren Vorlesungen des Vortragenden http://www.univie.ac.at/NuHAG/FEICOURS/ws1011/ws1011.htm versehen auch mit Fragen zu den entsprechenden Prüfungen! Ein Selbsttest ist hier downloadbar! http://www.univie.ac.at/NuHAG/FEICOURS/ws1011/FragenPS1.pdf 10 Weiterführendes Material Exponentialfunktionen und Halbwerts-Zeiten gehören zu den Grundkompetenzen für die zukn̈ftige Zentralmatura. Alles was man dazu wissen muss (ausser das Verhalten von Geraden in der Ebene, bzw. “linearen Funktionen im Sinne der Mittelschulterminologie) sind die Eigenschaften der Exponentialfunktion und seiner Umkehrfunktion (natürlicher Logarithmus, geschrieben als log in GEOGEBRA!), nämlich exp(x + y) = exp(x) · exp(y), x, y ∈ C log(uv) = log(u) + log(v), u, v ∈ R; (3) explaw1 (4) exprules1 mit den abgeleiteten Regeln wie exp(−x) = 1/exp(x); log(1/b) = −log(b), etc. Genau diese Regeln implizieren aber, dass durch “Logarithmieren” aus einer Exponentialfunktion eine “lineare Funktion” wird (steigend wie im Falle von Zinsbeispielen, fallend wie im Falle von Caesium-Zerfall etc.). Somit ist auch klar, dass aus aus zwei Werten der Funktion (zwei Punkte auf der Geraden die durch y-semilogarithmische Darstellung entsteht) auch die ganze Funktion (Gerade, dann mit Exp-Fkt. zurück) gegeben ist. Typischerweise verwendet man den Begriff Halbwertszeit in diesem Zusammenhang. 11 Grundkompetenzen 1. Addieren von Vektoren, bilden von Linear-Kombinationen 2. Aufstellen der (erweiterten) Systemmatrix, Übersetzung zwischen einem Gleichungssystem, einer geometrischen Situation und einer Matrix-Gleichung! 3. Umsetzen der Aufgaben mit Geogebra 4. Matrix zu gegebener linearer Abbildung finden! 5. Matrix-Multiplikation entspricht dem Zusammensetzen von linearen Abbildungen! 6. geometrische Deutung von Vektor-Rechnung 13 Literatur scst09 [1] H. Schichl and R. Steinbauer. Introduction to Working Mathematically (Einführung in das Mathematische Arbeiten). Springer Berlin, 2009. st03-8 [2] G. Strang. Lineare Algebra. Springer-Lehrbuch. Springer, Berlin, 2003. 14