Universität Stuttgart Vorlesung Mathematik für Informatiker und Softwaretechniker I, WS 2006/2007 Prof. Dr. Anna-Margarete Sändig Berichte aus dem Institut für Angewandte Analysis und Numerische Simulation Vorlesungsskript 2006/xxx Universität Stuttgart Vorlesung Mathematik für Informatiker und Softwaretechniker I, WS 2006/2007 Prof. Dr. Anna-Margarete Sändig Berichte aus dem Institut für Angewandte Analysis und Numerische Simulation Vorlesungsskript 2006/xxx Institut für Angewandte Analysis und Numerische Simulation (IANS) Fakultät Mathematik und Physik Fachbereich Mathematik Pfaffenwaldring 57 D-70 569 Stuttgart E-Mail: [email protected] WWW: http://preprints.ians.uni-stuttgart.de ISSN 1611-4176 c Alle Rechte vorbehalten. Nachdruck nur mit Genehmigung des Autors. Inhaltsverzeichnis 1 Grundlagen 1.1 Aussagenlogik . . . . . . . . . . . 1.2 Mengen, Relationen, Abbildungen 1.3 Zahlenmengen . . . . . . . . . . . 1.4 Gruppen, Ringe, Körper . . . . . . . . . . . . . 7 7 17 33 51 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Lineare Algebra 2.1 Vektorräume . . . . . . . . . . . . . . . . 2.2 Lineare Abbildungen von Vektorräumen 2.3 Matrizen . . . . . . . . . . . . . . . . . . 2.4 Lineare Gleichungssysteme . . . . . . . . 2.5 Determinante einer Matrix . . . . . . . . 2.6 Eigenwerte und Diagonalisierbarkeit . . . 2.7 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 . 63 . 80 . 84 . 99 . 113 . 124 . 138 5 . . . . Kapitel 1 Grundlagen In diesem Kapitel werden Grundbegriffe wie Aussage, Menge, Relation, Abbildung, Zahlenmengen, Gruppe, Ring und Körper eingeführt. Zusammenhänge werden erläutert, einige Eigenschaften werden bewiesen und Beispiele illustrieren die Begriffe. Als Literatur wird empfohlen [3, Kapitel 1-4,7] und [5, Kapitel 1-5] 1.1 Aussagenlogik Ich beginne mit einem Zitat aus [3]. Ohne Aussagenlogik keine Schaltkreise und ohne Schaltkreise keine Computer.“ ” Was verstehen wir unter einer Aussage? Sie sollte in einer Sprache formuliert werden können und eindeutig als wahr oder falsch identifizierbar sein. Die Bewertung wahr“ oder falsch“ ” ” entspricht bei Schaltkreisen der Zuordnung 1 oder 0. Definition 1.1. Eine Aussage ist ein Satz in einer Sprache, der entweder wahr (w) oder falsch (f) ist. Bemerkung: Diese Definition besagt, dass eine zweiwertige Logik (Aristotelische Logik, tertium non datur) benutzt wird. Außerdem wird angenommen, dass intuitiv klar ist, wann eine Aussage wahr ist. Eine rigorose Definition eines Wahrheitsbegriffes in einer Sprache ist sehr kompliziert. Ein Konzept dazu wurde von Tarski ([9]) 1933 entwickelt. Beispiele: (i) Was studierst Du?“ Dieser Satz ist keine Aussage ” (ii) 11 ist eine Primzahl.“ Dieser Satz ist eine wahre Aussage. ” (iii) Meine Mutter ist jünger als ich.“ Dieser Satz ist eine falsche Aussage. ” Wir können neue Aussagen erzeugen, indem wir Abbildungen und Verknüpfungen von Aussagen einführen. Die Werte der Abbildungen bzw. Verknüpfungen können in sogenannten Wahrheitstafeln beschrieben werden. 7 8 KAPITEL 1. GRUNDLAGEN 1. Fall: Abbildung einer Aussage Wir gehen von einer Aussage A aus. Die Abbildung r ordne der Aussage A die Aussage r(A) zu. In der entsprechenden Wahrheitstafel werden die Wahrheitswerte w und f eingetragen: A w f r1 (A) w f r2 (A) f w r3 (A) w w r4 (A) f f Es gibt 4 verschiedene Möglichkeiten die Wahrheitswerte der Bilder ri (A) zu beschreiben. Wir sehen uns die Abbildung r2 genauer an. Definition 1.2 (Negation). Als Negation einer Aussage A bezeichnen wir die Aussage ¬A (sprich: nicht A“), die den Wahrheitswert f annimmt, wenn A wahr ist und den ” Wahrheitswert w annimmt, wenn A falsch ist. Beispiele • Die Aussage A laute: Die Kreide ist weiß.“ Die Negation ist: Die Kreide ist nicht ” ” weiß.“ • Die Aussage A laute: 1 = 2.“ Die Negation ist: 1 6= 2.“ ” ” 2. Fall: Verknüpfung von zwei Aussagen Wir betrachten zwei Aussagen A und B und wollen diese zu einer Aussage C verknüpfen. Wir schreiben R(A, B) = C. Alle möglichen Verknüpfungen Ri (A, B), i = 1, . . . , 16, können mit Hilfe von Wahrheitstafeln beschrieben werden: A B w w w f f w f f R1 (A, B) w w w w R2 (A, B) w w w f ... ... ... ... ... R16 (A, B) f f f f Wir sehen uns auch hier einige Verknüpfungen etwas genauer an, die Konjunktion, die Disjunktion, die Implikation und die Äquivalenz: A B w w f f w f w f Konjunktion A∧B w f f f Disjunktion A∨B w w w f Implikation A⇒B w f w w Äquivalenz A⇔B w f f w Tabelle 1.1: Konjunktion, Disjunktion, Implikation und Äquivalenz 9 1.1. AUSSAGENLOGIK Zunächst wird die Konjunktion durch eine Definition eingeführt. Definition 1.3 (Konjunktion (und)). Die Verknüpfung der Aussagen A und B durch das logische und“ nennen wir Konjunktion: ” R(A, B) = A ∧ B. Sie ist nur dann wahr, wenn beide Aussagen wahr sind. Umgangssprachlich entspricht die Konjunktion dem Ausdruck sowohl als auch“. In Schalt” kreisen sind sie durch eine Reihenschaltung von A und B realisiert und das Zeichen & wird benutzt. Die Disjunktion entspricht dem oder“, mindestens eine Aussage muss wahr sein, damit ” die Verknüpfung wahr ist. Die entsprechende Definition lautet: Definition 1.4 (Disjunktion (oder)). Die Verknüpfung der Aussagen A und B durch das logische oder“ nennen wir Disjunktion: ” R(A, B) = A ∨ B. Die Disjunktion ist wahr, wenn mindestens eine der beiden Aussagen wahr ist, sonst ist sie falsch. Sie wird durch eine Parallelschaltung in Schaltkreisen realisiert und das Symbol ≥ wird benutzt. Definition 1.5 (Implikation (Folgerung)). Die Verknüpfung der Aussagen A und B durch eine logische Folgerung, nennen wir Implikation: R(A, B) = (A ⇒ B). Sie ist nur dann falsch, wenn A wahr und B falsch ist. Die Implikation tritt sehr häufig in Programmiersprachen auf: If [true], then ... Sie ist auch in der Mathematik sehr wichtig, um aus wahren Aussagen neue wahre Aussagen herzuleiten. Dies wird in Formulierungen wenn ... , dann“ ausgedrückt. ” Beispiel Wenn f im Punkt x0 differenzierbar ist, dann ist f im Punkt x0 stetig. A = {f ist im Punkt x0 differenzierbar} B = {f ist im Punkt x0 stetig}. Die Aussage A ⇒ B besagt: A ist hinreichende Bedingung für B, B ist notwendige Bedingung für A. 10 KAPITEL 1. GRUNDLAGEN Beispiel: Nicht jede stetige Funktion ist differenzierbar. A kann falsch sein, trotzdem ist B wahr. Ein weiteres Beispiel aus dem täglichen Leben: nass} . Wenn es regnet, dann |ist die Straße {z | {z } B A A ist hinreichend für B, aber nicht notwendig, d.h. B ; A. Die Straße kann auch anders nass geworden sein. Ist die Straße nicht nass, dann regnet es auch nicht. Definition 1.6 (Äquivalenz (Gleichwertigkeit)). Die Verknüpfung der Aussagen A und B durch eine logische Folgerung in beiden Richtungen wird Äquivalenz genannt R(A, B) = (A ⇔ B) = C. C ist wahr, falls A und B gleiche Wahrheitswerte besitzen. In der Mathematik wird die Äquivalenz durch die Formulierungen ... genau dann, wenn ” ...“ ausgedrückt. Beispiel: A ist eine gerade Zahl, genau dann, wenn A durch 2 teilbar ist. Theorem 1.7. Es gilt: (A ⇒ B) ∧ (B ⇒ A) ⇔ (A ⇔ B). Beweis: Wir sehen uns die Wahrheitstafel an: A w w f f B w f w f A⇒B w f w w B⇒A w w f w (A ⇒ B) ∧ (B ⇒ A) w f f w Bemerkung: Die folgenden Verknüpfungen XOR (exklusives or), NOR (not or) und NAND (not and) werden häufig benutzt A B w w f f w f w f ¬(A ⇔ B) XOR f w w f ¬(A ∧ B) NAND f w w w ¬(A ∨ B) NOR f f f w 11 1.1. AUSSAGENLOGIK Mathematische Beweise Mathematische Sätze werden mit unterschiedlichen Beweistechniken bewiesen. Um zu zeigen, dass aus der Aussage A die Aussage B folgt (A ⇒ B) können wir einen direkten, indirekten oder Widerspruchsbeweis führen. Die Äquivalenz dieser Beweistechniken wird durch folgenden Satz beschrieben Theorem 1.8. Es gilt: A ⇒ B ⇔ (¬B ⇒ ¬A) ⇔ ¬(A ∧ (¬B)). Beweis: Wir betrachten die Wahrheitstafel: A w w f f B w f w f A⇒B w f w w ¬A f f w w ¬B f w f w ¬B ⇒ ¬A w f w w ¬(A ∧ (¬B)) w f w w Wir erläutern die Beweistechniken. 1. Direkter Beweis A sei wahr. Wir zeigen (evtl. schrittweise), A ⇒ B ist wahr. Damit ist auch B wahr. 2. Indirekter Beweis A sei wahr. Wir nehmen an ¬B sei wahr. Wir zeigen ¬B ⇒ ¬A ist wahr. Damit ist ¬A wahr, was nicht sein kann. 3. Widerspruchsbeweis A sei wahr. Wir zeigen, dass A ∧ (¬B) falsch ist, d.h. diese Aussage ist ein Widerspruch. Daher muss ¬(A ∧ (¬B)) wahr sein. Beispiel Man zeige: Aus {|x − 1| < 1} = A folgt {x < 2} = B für eine feste reelle Zahl x. 1. Direkter Beweis. Fall a) Es sei x ≥ 1. Dann ist |x − 1| = x − 1 < 1 und x < 2. Fall b) Es sei x < 1. Dann ist x < 1 < 2. 2. Indirekter Beweis. Es gelte ¬B = {x ≥ 2}. Dann ist |x − 1| = x − 1 ≥ 1, d.h. ¬B ⇒ ¬A. 3. Widerspruchsbeweis. Die Aussage A ∧ (¬B) = {|x − 1| < 1} ∧ {x ≥ 2} ist falsch, da in diesem Fall |x − 1| = 12 KAPITEL 1. GRUNDLAGEN x − 1 ≥ 1 ist. Reduktion der Verknüpfungen auf ¬, ∧, ∨ Wir haben in Satz 1.8 gesehen, dass (A ⇒ B) ⇔ ¬(A ∧ (¬B)) ist, d.h. dass die Implikation durch die Verknüpfungen ¬, ∧ ersetzt werden kann. Dies gilt auch für die Äquivalenz (A ⇔ B) ⇔ (A ⇒ B) ∧ (B ⇒ A). Die Frage tritt auf: Können wir alle 16 Möglichkeiten der Verknüpfungen von 2 Aussagen auf logische Ausdrücke in denen nur ¬, ∧, ∨ auftreten, zurückführen? Theorem 1.9. Jede Verknüpfung von 2 Aussagen kann durch logische Ausdrücke, in denen nur ¬, ∧, ∨ auftreten, erzeugt werden. Beweis: Es gibt 16 verschiedene Möglichkeiten, wie die Wahrheitswerte einer Verknüpfung angeordnet sind. 8 davon werden durch Negation erzeugt. Von den verbleibenden 8 sind 5 durch Disjunktion (A ∧ B), Konjunktion (A ∨ B), Implikationen (A ⇒ B, B ⇒ A) und Äquivalenz (A ⇔ B) erklärt. Die restlichen 3 sind: A B w w w f f w f f A ∨ (¬B ∨ B) w w w w A = A ∧ (¬B ∨ B) w w f f B = B ∧ (¬A ∨ A) w f w f In der obigen Wahrheitstafel haben wir sogenannte Tautologien benutzt. Definition 1.10. Eine logische Aussage ist eine Tautologie, falls sie stets wahr ist. Tritt nur der Wert falsch auf, wird sie Widerspruch genannt. Beispiele: ¬B ∨ B ist eine Tautologie, ¬B ∧ B ist ein Widerspruch. Folgende Rechenregeln können leicht verifiziert werden: (1) De Morgan’sche Regeln (Augustus de Morgan(1806-1871)) ¬(A ∧ B) = ¬A ∨ ¬B , ¬(A ∨ B) = ¬A ∧ ¬B . (1.1) (1.2) A ∨ (B ∧ C) = (A ∨ B) ∧ (A ∨ C) , A ∧ (B ∨ C) = (A ∧ B) ∨ (A ∧ C) . (1.3) (1.4) (2) Distributivgesetze 13 1.1. AUSSAGENLOGIK (3) Transitivität der Implikation (A ⇒ B) ∧ (B ⇒ C) ⇒ (A ⇒ C). (1.5) Aus den Morgan’schen Regeln und Satz 1.9 folgt Theorem 1.11. Jede Verknüpfung von 2 Aussagen kann durch logische Ausdrücke, in denen nur ¬, ∨ bzw. ∧ auftreten, erzeugt werden. Quantoren In der Mathematik benutzt man auch die Symbole ∀: für alle (Elemente), ∃: es existiert ein (Element), ∃ !: es existiert genau ein (Element). Beispiele • (∀ x ∈ N : x2 ∈ N) bedeutet: für alle x aus der Menge der natürlichen Zahlen N gilt, dass x2 aus N ist. • (∃x ∈ N : x ≤ 4) bedeutet: es existiert ein x aus N mit der Eigenschaft, dass x ≤ 4 ist. • (∃ !x ∈ N : x − 1 = 5) bedeutet: es gibt genau ein x ∈ N, so dass x − 1 = 5 ist. Negation von Aussagen, die Quantoren enthalten Sei A = A(x) eine Aussage, die sich auf Elemente x aus einer Menge M bezieht. Die Negation der Aussage ∀ x aus M : A(x) ist wahr (1.6) ∃ x aus M : A(x) ist falsch. (1.7) lautet: Die Negation der Aussage ∃ x aus M : A(x) ist wahr (1.8) ∀ x aus M : A(x) ist falsch. (1.9) lautet: 14 KAPITEL 1. GRUNDLAGEN Logische Ausdrücke und Schaltkreise In der Hardware-Entwicklung wird vorgegeben, welche Werte durch einen Schaltkreis realisiert werden sollen, d.h. die Wahrheitstafel ist damit festgelegt. Dann wird der Schaltkreis entworfen, der zu diesem Ergebnis führt. Dabei soll eine möglichst optimale“ Schaltung ” gefunden werden. Als Beispiel sehen wir uns einen Multiplexer an. x m Eingang y Ausgang z Abbildung 1.1: Multiplexer z wählt aus, welche Daten weitergeleitet werden, z heißt Steuergröße. Die Steuerregel laute: Falls z wahr ist, dann soll x übertragen werden, falls z falsch ist, dann soll y übertragen werden. Die Wahrheitstafel für den Multiplexer lautet also: z w w w w f f f f x w w f f w w f f y w f w f w f w f m w w f f w f w f z ∧ x ∧ y = A1 z ∧ x ∧ (¬y) = A2 ¬z ∧ x ∧ y = A3 ¬z ∧ ¬x ∧ y = A4 Wir konstruieren den entsprechenden logischen Ausdruck. Dazu sehen wir uns die Zeilen an, in denen m den Wert w annimmt und verbinden die logischen Ausdrücke durch Konjunktionen. Der Ausgang m ist durch den Wert w belegt, falls A = A1 ∨ A2 ∨ A3 ∨ A4 wahr ist. Durch Nachprüfen kann man sich überzeugen, dass alle Ai , i = 1, 2, 3, 4, in den übrigen Fällen den Wert f annehmen und damit A den Wert f besitzt. A stellt also den 15 1.1. AUSSAGENLOGIK logischen Ausdruck dar, der den Ausgang m beschreibt. Mit Hilfe der Rechenregel (1.4) kann A vereinfacht werden. Dazu setzen wir z ∧ x = p, ¬z ∧ y = q und erhalten: A = (1.4) = = (p ∧ y) ∨ (p ∧ ¬y) ∨ (q ∧ x) ∨ (q ∧ ¬x) (p ∧ (y ∨ ¬y)) ∨ (q ∧ (x ∨ ¬x)) p ∨ q = (z ∧ x) ∨ (¬z ∧ y). (1.10) A ist durch eine entsprechende Schaltung realisierbar. Wir führen dazu den Negator, die Parallel- und Reihenschaltung als Bausteine ein. • Negator: x wird in ¬x umgewandelt. • Reihenschaltung: Die Eingänge x und y gehen in a = x ∧ y über. • Parallelschaltung: Die Eingänge x und y gehen in a = x ∨ y über. Diese Bausteine werden schematisch wie folgt dargestellt. x y ¬x x Negator & x a y ≥1 a Parallelschaltung Reihenschaltung Der folgende Schaltkreis entspricht dem logischen Ausdruck A. Bemerkung: Es können sehr viel mehr Eingänge auftreten, der Multiplexer wird dann x & ≥1 y m & z komplizierter. Im Allgemeinen ist das Konstruieren einer optimalen Schaltung ein schwieriges Problem. 16 KAPITEL 1. GRUNDLAGEN Übungsaufgaben Aufgabe 1.1 (von Ralf Schindler aus DMV-Mitteilungen 14-3/2006) Drei Logiker sitzen auf Stühlen hintereinander. Der hinterste sieht die beiden vorderen, der mittlere sieht nur den vordersten, und der vorderste sieht niemanden. Alle drei wissen, dass sie jeweils einen Hut aus der Garderobe eines Theaters aufgesetzt bekommen haben, und sie wissen, dass diese Garderobe fünf Hüte zur Verfügung stellt: zwei rote und drei schwarze. Nun wird der hinterste Logiker gefragt, ob er seine Hutfarbe kenne. Er sagt NEIN. Dann wird der mittlere das gleiche gefragt. Auch er sagt NEIN. Schließlich wird der vorderste gefragt. Was antwortet er? Aufgabe 1.2 (von Ralf Schindler aus DMV-Mitteilungen 14-3/2006) Wieder haben die drei Logiker jeweils einen Hut aus derselben Garderobe auf dem Kopf. Ihnen wurden die Augen verbunden, als man sie ihnen aufsetzte. Nun stehen sie zu dritt in einem Zimmer, die Augenbinden werden ihnen gleichzeitig abgenommen, jeder von ihnen sieht die beiden anderen. Sie sollen sich zu Wort melden, wenn sie wissen, welchen Hut sie selbst aufhaben. Sie sind schnelle Denker, und sie denken genau gleich schnell. Nach drei Sekunden melden sie sich exakt gleichzeitig zu Wort. Wie sind die Hutfarben verteilt? Aufgabe 1.3 Die Studierenden Angelika, Bernd, Cornelia und Dieter haben sich zu einer Arbeitsgruppe zusammengefunden, die sich einmal in der Woche in einem Raum an der Universität trifft, um die MathematikÜbungsblätter zu bearbeiten. Allerdings haben sie dabei mit einigen Schwierigkeiten zu kämpfen: • Nur Cornelia und Dieter haben einen Schlüssel zum Arbeitsraum. Ein Treffen kann nur stattfinden, wenn einer der beiden da ist. • Angelika hat kein eigenes Auto und wohnt auf dem Land mit sehr schlechter öffentlicher Verkehrsanbindung. Sie wird deshalb von Bernd abgeholt und kann also nur da sein wenn auch Bernd da ist. • Bernd und Cornelia sind Geschwister und pflegen ihre kranke Großmutter. Sie können nicht beide gleichzeitig da sein. An einem Nachmittag, kam die Arbeitsgruppe nicht zum Bearbeiten der Aufgaben, da lange darüber diskutiert wurde, warum Bernd morgens so sauer auf Dieter war, dass er gesagt hat: Wenn Dieter ” heute Nachmittag kommt, komme ich nicht.“ Wer war an diesem Nachmittag an der Diskussion beteiligt? Aufgabe 1.4 Überprüfen Sie sowohl durch Umformung, als auch mit Hilfe einer Wahrheitswerttabelle, ob die Ausdrücke • (A ∨ B) ⇒ (¬A ∨ B) ∧ (A ⇒ ¬A) • A ⇒ (B ⇒ C) ⇔ (A ∧ B) ⇒ C stets wahr sind. 17 1.2. MENGEN, RELATIONEN, ABBILDUNGEN Aufgabe 1.5 Formulieren Sie jede der folgenden Aussagen mit Hilfe von Quantoren, und geben Sie ihre Verneinung und ihren Wahrheitswert an: A: Es gibt m, n ∈ N, für die m + n ∈ N und m − n ∈ N . B: Die Gleichung m2 = n − 5 besitzt für jedes m ∈ N eine Lösung n ∈ N . C: Jedes gerade n ∈ N kann als Summe zweier Quadratzahlen geschrieben werden. 1.2 Mengen, Relationen, Abbildungen Wir beschäftigen uns zunächst mit Mengen. Mengen Bei der Einführung der Quantoren hatten wir bereits von Mengen gesprochen. Wir geben jetzt eine Definition an, die vom Begründer der Mengenlehre, Georg Cantor (1845 - 1918), stammt. Definition 1.12. Unter einer Menge M verstehen wir jede Zusammenfassung von bestimmten wohlunterschiedenen Objekten der Anschauung oder des Denkens, welche die Elemente von M genannt werden, zu einem Ganzen. Kurz: Eine Menge M ist eine Sammlung von Objekten (Elementen). Gehört ein Element x zur Menge M, dann schreiben wir x ∈ M, gehört ein Element x nicht zur Menge M, dann wird dies durch x ∈ / M ausgedrückt. Mengen können wie folgt beschrieben werden: • explizit, durch Aufzählen der Elemente, die in geschweiften Klammern gesetzt werden, z.B. M = {1, 2, 3} = {3, 2, 1}, M = {1, 2, {1, 2}}, • durch Eigenschaften, z.B. M = {n ∈ N : n ist gerade}, M = {n ∈ N : n < 10}. Beispiele für Zahlenmengen N = {1, 2, 3, . . . } Menge der natürlichen Zahlen, Z = {. . . , −2, −1, 0, 1, 2, . . . } Menge der ganzen Zahlen, a Menge der rationalen Zahlen. Q = { : a ∈ Z ∧ b ∈ N} b ∅ ist die leere Menge. Diese Menge enthält kein Element. (1.11) (1.12) 18 KAPITEL 1. GRUNDLAGEN Vergleich von Mengen Gleichheit: Zwei Mengen M1 und M2 sind gleich, wenn sie die gleichen Elemente enthalten, d.h. x ∈ M1 ⇔ x ∈ M2 . Teilmengen: M1 ist Teilmenge von M2 , geschrieben als M1 ⊆ M2 , falls für alle x ∈ M1 x ∈ M1 ⇒ x ∈ M2 gilt. Falls M1 6= M2 dann ist M1 eine echte Teilmenge von M2 , geschrieben als M1 ⊂ M2 . M2 wird auch Obermenge von M1 genannt. Beispiele • Es ist N ⊂ Z. • Sei M eine beliebige Menge, dann ist ∅ ⊆ M. Verknüpfungen von Mengen Seien M1 und M2 zwei Mengen. Die Menge M1 ∪ M2 = {x : x ∈ M1 ∨ x ∈ M2 } heißt Vereinigung von M1 und M2 , M1 ∩ M2 = {x : x ∈ M1 ∧ x ∈ M2 } heißt Durchschnitt von M1 und M2 , M1 \ M2 = {x : x ∈ M1 ∧ x ∈ / M2 } heißt Differenz von M1 und M2 . Falls M2 ⊆ M1 ist, dann heißt M1 \ M2 auch Komplement von M2 in M1 und wir schreiben M1 \ M2 = M2c . Der obere Index bezieht sich somit auf die Obermenge M1 . M1 und M2 heißen disjunkt, falls M1 ∩ M2 = ∅ gilt. Potenzmenge Für jede Menge M können wir eine neue Menge bilden, die als Elemente alle Teilmengen von M besitzt. Definition 1.13. Die Potenzmenge P(M) einer Menge ist die Menge aller Teilmengen von M. Beispiel Es sei M = {1, 2, 3}. Dann ist P(M) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}}. Wir sehen, die Menge M, die aus 3 Elementen besteht, besitzt eine Potenzmenge, die aus 8 Elementen besteht. Es gilt allgemein. 19 1.2. MENGEN, RELATIONEN, ABBILDUNGEN Theorem 1.14. Die Potenzmenge einer Menge M von n Elementen besitzt 2n Elemente. Beweis: Diese Aussage kann durch vollständige Induktion bewiesen werden (Übung) Rechengesetze Theorem 1.15. Für eine Menge M und S, T, V ∈ P(M) gelten folgende Rechengesetze. Kommutativität: S ∪ T = T ∪ S, S ∩ T = T ∩ S. Assoziativität: (S ∪ T ) ∪ V (S ∩ T ) ∩ V = S ∪ (T ∪ V ), = S ∩ (T ∩ V ). Distributivität: S ∪ (T ∩ V ) = (S ∪ T ) ∩ (S ∪ V ), S ∩ (T ∪ V ) = (S ∩ T ) ∪ (S ∩ V ). De Morgan’sche Regeln: (S ∩ T )c = S c ∪ T c (S ∪ T )c = S c ∩ T c . (1.13) (1.14) Weitere Rechengesetze: S ∪ ∅ = S, S ∩ ∅ = ∅, S ∪ M = M, S ∩ M = S, S ∪ S = S, S ∩ S = S, c S ∪ S = M, S ∩ S c = ∅, M c = ∅, ∅c = M, (S \ T ) \ V = S \ (T ∪ V ), S \ (T \ V ) = (S \ T ) ∪ (S ∩ V ), S ∪ (T \ V ) = S ∪ T \ (V \ S), S ∩ (T \ V ) = S ∩ T \ (S ∩ V ). Bemerkung: Wir hatten bereits die DeMorganschen Regeln (1.1) und (1.2) eingeführt. Die Negation entspricht der Komplementärbildung, die Vereinigung dem logischen oder“ , ” der Durchschnitt dem logischen und“ . Wir zeigen mit Hilfe von (1.2), dass ” (S ∪ T )c = S c ∩ T c (1.15) 20 KAPITEL 1. GRUNDLAGEN gilt. Wir betrachten die Aussagen A = {x ∈ S}, B = {x ∈ T }. Dann wird die rechte Seite von (1.15) {x ∈ S c ∩ T c } = (1.2) = {x 6∈ S} ∩ {x 6∈ T } = ¬A ∧ ¬B ¬(A ∨ B) = {x 6∈ (S ∪ T )} = {x ∈ (S ∪ T )c } . Kartesisches Produkt Die Verknüpfung zweier Mengen zu einer Produktmenge spielt eine wichtige Rolle bei der Einführung von Relationen. Definition 1.16. Das kartesische Produkt M1 × M2 zweier Mengen M1 und M2 ist die Menge aller geordneten Paare (m1 , m2 ) mit m1 ∈ M1 und m2 ∈ M2 : M1 × M2 = {(m1 , m2 ) : m1 ∈ M1 , m2 ∈ M2 }. Entsprechend ist M1 × · · · × Mr = {(m1 , m2 , . . . , mr ) : mj ∈ Mj , 1 ≤ j ≤ r}, wobei (m1 , m2 , . . . , mr ) ein geordnetes r-Tupel ist. Beispiel Wir betrachten das kartesische Produkt zweier Intervalle, M1 = [1, 2] = {x ∈ R : 1 ≤ x ≤ 2}, M2 = [3, 5] = {y ∈ R : 3 ≤ y ≤ 5}. Es ist M1 × M2 = {(x, y) : 1 ≤ x ≤ 2 ∧ 3 ≤ y ≤ 5} ein Rechteck (siehe Abbildung 1.2). y 5 3 1111 0000 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111 1 2 x Abbildung 1.2: M1 × M2 1.2. MENGEN, RELATIONEN, ABBILDUNGEN 21 Relationen Die Elemente einer gegebenen Menge können eine oder mehrere Eigenschaften besitzen. Sehen wir z.B. die Menge der Studenten in diesem Hörsaal an. Wir können die Merkmale größer oder kleiner gleich als 1.80 m, weiblich oder männlich, Einkommen kleiner gleich oder größer als 300 Euro, Brille oder nicht Brille jedem Studenten zuordnen. Wir stellen damit eine Relation (Beziehung) zwischen der Menge der Studenten M und einer Menge N von Merkmalen auf, was der Anlage einer Datenbank entspricht. Bemerkung: Tabellen (Datenbanken), in denen Informationen aufgelistet sind, entsprechen Relationen. Die Relationen sind Teilmengen von M1 ×· · ·×Mr , wobei r z.B. die Anzahl der Spalten der Tabellen sind und Mi die Elemente enthalten, die in den Spalten auftreten. Um Informationen zu extrahieren oder neue zu gewinnen, können mengentheoretische Verknüpfungen herangezogen werden, z.B. für Teilmengen R1 und R2 von M1 × · · · × Mr ist erklärt: 1. R1 ∪ R2 (R1 UNION R2 ) erzeugt alle Tupel, die in R1 oder R2 vorkommen, 2. R1 \ R2 (R1 MINUS R2 ) enthält alle Tupel, die in R1 aber nicht in R2 vorkommen, 3. R1 × R2 (R1 TIMES R2 ) ist das kartesische Produkt. Beispiel Es sei M = {1, 2, 3, 4} eine Menge von 4 Studenten, N = {a, b, c} eine Menge von 3 Merkmalen. Eine Relation zwischen M und N kann sein x∈M 1 1 2 3 3 4 y∈N a b a b c c (x, y) ∈ M × N (1, a) (1, b) (2, a) (3, b) (3, c) (4, c) d.h. Student 1 besitzt die Merkmale a und b, Student 2 das Merkmal a, Student 3 die Merkmale b und c und Student 4 das Merkmal c. Dies kann auch folgendermaßen dargestellt werden. Die dicken runden Punkte kennzeichnen die obige Relation. Sie bilden eine Teilmenge von M × N. Definition 1.17 (Relation). Eine Teilmenge R des kartesischen Produkts M × N der Mengen M und N heißt binäre Relation. Eine n-näre Relation zwischen den Mengen M1 , M2 , . . . , Mn ist eine Teilmenge des kartesischen Produkts M1 × M2 × · · · × Mn R ⊆ M1 × M2 × · · · × Mn . 22 KAPITEL 1. GRUNDLAGEN y c 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0 1 1 0 0 1 b 1 0 0 1 1 0 0 1 0 1 1 0 0 1 1 0 0 1 0 1 a 1 0 0 1 1 0 0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 2 3 4 11111111111111 x 00000000000000 Abbildung 1.3: Merkmalsverteilung In unserem obigen Beispiel ist R eine binäre Relation R = {(1, a), (1, b), (2, a), (3, b), (3, c), (4, c)}. Aus gegebenen Relationen können neue durch Durchschnittsbildung, Vereinigungen, Differenzen, u.s.w. erzeugt werden. Eine weitere Möglichkeit ist die Komposition. Definition 1.18 (Komposition). Seien R ⊆ M1 × M2 , S ⊆ M2 × M3 binäre Relationen. Dann ist die Komposition S ◦ R eine Relation auf M1 × M3 , die durch S ◦ R = {(m1 , m3 ) ∈ M1 × M3 : ∃ m2 ∈ M2 sodass (m1 , m2 ) ∈ R, (m2 , m3 ) ∈ S ist} gegeben ist. Bemerkung: S ◦ R bedeutet: zuerst R dann S ausführen, d.h. von rechts nach links die Relationen abarbeiten. 23 1.2. MENGEN, RELATIONEN, ABBILDUNGEN Beispiel Wir betrachten eine Familie im eigentlichen Sinne und die Mengen M1 = {m11 , m12 , m13 } = {männliche Personen, deren Alter ≥ 30 ist}, M2 = {m21 , m22 , m23 , m24 } = {männliche Personen, deren Alter < 30 ist}, M3 = {m31 , m32 , m33 , m34 } = {weibliche Personen, deren Alter < 30 ist}. Wir sehen uns die Relation Vater von“ an: ” R = {(m11 , m21 ), (m11 , m23 ), (m12 , m24 )} ⊂ M1 × M2 , d.h. m11 hat die Söhne m21 und m23 , m12 hat den Sohn m24 . Weiterhin sehen wir uns die Relation verheiratet mit “ an ” S = {(m21 , m32 ), (m24 , m33 )} ⊂ M2 × M3 , d.h. der Sohn m21 ist mit m32 verheiratet, der Sohn m24 ist mit m33 verheiratet. Dann ist S ◦ R = {(m11 , m32 ), (m12 , m33 )} ⊂ M1 × M3 die Relation Schwiegervater von “ . Die verbindenden Elemente wären die Söhne m21 und ” m24 . Definition 1.19 (Inverse Relation). Ist R ⊆ M × N eine binäre Relation, dann nennen wir R−1 = {(y, x) ∈ N × M : (x, y) ∈ M × N} die zu R inverse Relation. Beispiel Es sei R = {(x, y) ∈ R × R : x ≥ y} (siehe Abbildung 1.4). Dann ist R−1 = {(y, x) ∈ R × R : y ≤ x} (siehe Abbildung 1.5). y R x≥y x R−1 x≥y x Abbildung 1.4: Die Menge R y Abbildung 1.5: Die Menge R−1 Es ist R−1 ◦ R = {(x, x), x ∈ R} , R ◦ R−1 = {(y, y), y ∈ R} . 24 KAPITEL 1. GRUNDLAGEN Definition 1.20. Sei M eine Menge. Wir nennen die Relation IM = {(x, x), x ∈ M} ⊆ M × M die identische Relation oder Identität in M. Achtung! Es gilt nicht für jede Relation R ⊆ M × N, dass R−1 ◦ R = IM R ◦ R−1 = IN ist. Dazu betrachten wir ein Beispiel: Sei M = N = {1, 2}, R = {(1, 1), (1, 2), (2, 1), (2, 2)}. Es ist R−1 = R und R−1 ◦ R = R ◦ R = R 6= IM . Äquivalenz- und Ordnungsrelationen Wir betrachten spezielle binäre Relationen R ⊂ M × M. Definition 1.21. Die Relation R ⊂ M × M heißt • reflexiv, falls für alle x ∈ M (x, x) ∈ R ist, • symmetrisch, falls aus (x, y) ∈ R folgt (y, x) ∈ R, • antisymmetrisch, falls aus (x, y) ∈ R ∧ (y, x) ∈ R folgt x = y, • transitiv, falls für (x, y) ∈ R und (y, z) ∈ R gilt (x, z) ∈ R. Definition 1.22 (äquivalenzrelation). Eine reflexive, symmetrische und transitive Relation R ⊂ M × M heißt äquivalenzrelation. Für (x, y) ∈ R schreibt man x ∼ y. Beispiel Es sei M = Z die Menge der ganzen Zahlen. Weiterhin sei R = {(x, y) ∈ Z × Z : x ≡ y mod 5}. Hierbei bedeutet, dass zwei ganze Zahlen x und y kongruent modulo einer natürlichen Zahl m sind, falls m ein Teiler der Differenz x − y ist (also x − y = qm ist, wobei q ∈ Z beliebig ist). Wir überprüfen die obigen Eigenschaften. • Reflexivität: Es ist x ≡ x mod 5, denn x − x = 0 · 5. • Symmetrie: Es sei x ≡ y mod 5, d.h. x − y = q · 5. Daraus folgt y − x = −q · 5 und y ≡ x mod 5. 1.2. MENGEN, RELATIONEN, ABBILDUNGEN 25 • Transitivität: Es sei x ≡ y mod 5 und y ≡ z mod 5. Dann ist x − y = q1 · 5 und y − z = q2 · 5. Daraus folgt x − z = x − y + (y − z) = (q1 + q2 ) · 5 = q · 5. Durch eine äquivalenzrelation kann man die Menge M in zueinander disjunkte Teilmengen, die Äquivalenzklasse genannt werden, zerlegen. Dabei gehören die Elemente x und y, für die (x, y) ∈ R, bzw. für die x ∼ y ist, zu einer Klasse. Definition 1.23 (Äquivalenzklasse). Für x ∈ M nennen wir die Menge R[x] = {y ∈ M : x ∼ y} die Äquivalenzklasse von x bezüglich der äquivalenzrelation R. Beispiel Im obigen Beispiel ist R[0] = {y ∈ Z : y = x − q5, x = 0, q ∈ Z} = {. . . , −10, −5, 0, 5, 10, . . . } R[1] = {. . . , −9, −4, 1, 6, 11, . . . } R[2] = {. . . , −8, −3, 2, 7, 12, . . . } R[3] = {. . . , −7, −2, 3, 8, 13, . . . } R[4] = {. . . , −6, −1, 4, 9, 14, . . . }. Damit ist Z = R[0] ∪ R[1] ∪ · · · ∪ R[4] und R[i] ∩ R[j] = ∅ für i 6= j, i, j ∈ {0, 1, 2, 3, 4}. Die Zahlen i mit i ∈ {0, 1, 2, 3, 4} heißen Repräsentanten von R[i]. Die Menge Z ist damit in 5 disjunkte Teilmengen zerlegt worden, allgemeiner spricht man von einer Partition {R[i]}i=0,1,...,4 von Z. Definition 1.24 (Partition einer Menge M). Eine Menge von Teilmengen {Mi ⊂ M}i∈I mit Mi ∩ Mj = ∅ für alle i, j ∈ I, i 6= j, nennen wir Partition von M falls [ Mi = M i∈I ist. Bemerkung: Die Indexmenge I kann aus endlich vielen oder unendlich vielen Elementen bestehen. So kann z.B. die Menge der natürlichen Zahlen N wie folgt dargestellt werden N= ∞ [ {i}. i=1 26 KAPITEL 1. GRUNDLAGEN Theorem 1.25. Jede äquivalenzrelation R ⊂ M × M erzeugt eine Partition von M, jede Partition bestimmt eine äquivalenzrelation. Es wird empfohlen, den Beweis als Übung auszuführen. Beispiel Sei M die Menge aller Wörter. Wir führen in M folgende äquivalenzrelation ein: zwei Wörter sind äquivalent, falls sie den gleichen Anfangsbuchstaben besitzen. Dadurch wird eine Partition erzeugt. Ordnungsrelation Die äquivalenzrelation kann auch als Gleichheitsrelation“ angesehen werden. Ordnungs” relationen sollten Vergleiche wie ≤ “ bzw. ≥ “ ermöglichen. ” ” Definition 1.26 (Ordnungsrelation). Eine reflexive, antisymmetrische und transitive Relation R ⊂ M × M heißt Ordnungsrelation. Wir schreiben in diesem Fall (x, y) ∈ R als x ≤ y. Beispiele 1◦ Sei M die Menge der natürlichen Zahlen N und R = {(n1 , n2 ) : n1 ≤ n2 }. Dann gilt • (n1 , n1 ) ∈ R, • (n1 , n2 ) ∈ R ∧ (n2 , n1 ) ∈ R, d.h. n1 ≤ n2 ∧ n2 ≤ n1 , dann ist n1 = n2 , • (n1 , n2 ) ∈ R ∧ (n2 , n3 ) ∈ R, d.h. n1 ≤ n2 , n2 ≤ n3 , dann ist n1 ≤ n3 und (n1 , n3 ) ∈ R. n2 R 1 2 3 4 5 n1 Abbildung 1.6: Die Relation R = {(n1 , n2 ) : n1 ≤ n2 } 1.2. MENGEN, RELATIONEN, ABBILDUNGEN 27 2◦ Sei M = N × N = N2 . Für zwei Elemente x = (x1 , x2 ), y = (y1 , y2 ) ∈ N2 sei folgende Relation definiert: R = {(x, y) : x1 ≤ y1 }. Diese Relation ist keine Ordnungsrelation, da sie nicht antisymmetrisch ist: (x, y) ∈ R ∧ (y, x) ∈ R bedeutet x1 = y1 , aber nicht x = y. Wir führen in N2 eine lexikographische Ordnungsrelation ein: Rlex = {(x, y) : x1 ≤ y1 ∧ falls x1 = y1 , dann x2 ≤ y2 }. Es gilt tatsächlich: • (x, x) ∈ Rlex . • Seien (x, y) ∈ Rlex ∧ (y, x) ∈ Rlex . Dann ist y1 = x1 und x2 ≤ y2 ∧ y2 ≤ x2 , woraus x = y folgt. • Seien (x, y) ∈ Rlex ∧ (y, z) ∈ Rlex . Es ist x1 ≤ y1 ≤ z1 . Falls x1 = y1 = z1 , dann ist x2 ≤ y2 ≤ z2 , also x2 ≤ z2 und somit (x, z) ∈ Rlex . Somit ist diese lexikographische Ordnungsrelation im mathematischen Sinn wohl definiert. Abbildungen Seinen M und N Mengen. Wir führen den Begriff einer Abbildung von Elementen x ∈ M auf Elemente y ∈ N ein. Definition 1.27 (Abbildungen). Die Zuordnungsvorschrift f , die Elemente x ∈ M eindeutig auf Elemente y ∈ N abbildet, heißt Abbildung. Es wird kurz geschrieben f : M → N (f bildet M in N ab), x → f (x) = y (jedem x ∈ M wird eindeutig ein Element f (x) = y ∈ N zugeordnet). M heißt Definitionsbereich von f , N heißt Wertebereich von f , f (M) = {y ∈ N : ∃x ∈ M : f (x) = y} ist das Bild von M; f −1 (Y ) = {x ∈ M : f (x) ∈ Y ⊂ N} ist das Urbild einer Menge Y ⊂ f (M). Bemerkung: Sind M = N = R die Mengen der reellen Zahlen, dann bezeichnet man f auch als Funktion. Der Graph einer Abbildung ist eine spezielle Relation. Definition 1.28. Der Graph G = G(f ) ⊂ M × N einer Abbildung f : M → N ist durch G = G(f ) = {(x, y) ∈ M × N, y = f (x)} gegeben. 28 KAPITEL 1. GRUNDLAGEN Beispiel Es sei M = N = R die Menge der reellen Zahlen und f : R → R, f : x → x2 die Funktion f (x) = x2 . Der Graph G = G(f ) = {(x, y) ∈ R × R = R2 : y = x2 } ist in Abbildung 1.7 dargestellt. y 4 3.5 3 2.5 2 1.5 1 0.5 −2 −1 1 2 x Abbildung 1.7: f (x) = x2 Definition 1.29. Die Abbildung f : M → N heißt surjektiv, falls f (M) = N ist, kurz: f ist eine Abbildung von M auf N. Die Abbildung f : M → N heißt injektiv, falls gilt: f (x1 ) = f (x2 ) ⇔ x1 = x2 , d.h. f ist eine eineindeutige Abbildung von M auf f (M) ⊂ N. Die Abbildung f : M → N heißt bijektiv, falls sie sowohl injektiv als auch surjektiv ist. Bemerkungen 1.36 1◦ Eine bijektive Abbildung f zwischen M und N wird kurz geschrieben als f : M ↔ N. 2◦ Für injektive Abbildungen f : M → N wird eine inverse Abbildung f −1 : f (M) → M durch f −1 (f (x)) = f −1 ◦ f (x) = x ∀ x ∈ M , f (f −1 (y)) = f ◦ f −1 (y) = y ∀ y ∈ f (M) eingeführt. Beispiel Die obige Abbildung f : R → R, f (x) = x2 , ist weder surjektiv noch injektiv. 29 1.2. MENGEN, RELATIONEN, ABBILDUNGEN Mächtigkeit von Mengen Besitzen zwei Mengen endlich viele Elemente, so können wir durch die Anzahl der Elemente ihre Mächtigkeit definieren, d.h. wir können sofort sehen, ob sie gleich groß (gleich mächtig) sind oder nicht. Bei Mengen, die unendlich viele Elemente enthalten, ist das schwieriger. Betrachten wir z.B. N und die Teilmenge Nger = {n ∈ N : n gerade}. Beide enthalten unendlich viele Elemente; sind diese Mengen N und Nger gleich mächtig? Definition 1.30. Zwei Mengen A und B heißen gleich groß oder gleich mächtig, falls es eine bijektive Abbildung f : A ↔ B gibt. Die Menge A heißt endlich, falls es ein n ∈ N und eine Bijektion f : A → {1, 2, . . . , n} gibt, oder A = ∅ ist. A heißt unendlich, falls A nicht endlich ist. A heißt abzählbar unendlich, falls A gleich mächtig zu N ist. A heißt überabzählbar, falls A unendlich und nicht abzählbar unendlich ist. Beispiel 1◦ Die Menge der geraden natürlichen Zahlen ist gleichmächtig zu N: f : Nger ↔ N, 1 f : m = 2n → 2 1 m = n. 2 2 N N f −1 f 2 3 4 Nger Abbildung 1.8: f (m) = 2 3 4 Nger Abbildung 1.9: f −1 (n) = 2n m 2 2◦ Z ist gleichmächtig zu N. Eine Bijektion wäre ( 2m falls m > 0, f : Z ↔ N, f (m) = −2m + 1 falls m ≤ 0. Es ist f −1 (n) = n 2 −(n−1) 2 falls n gerade falls n ungerade . 30 KAPITEL 1. GRUNDLAGEN −1 0 1 2 3 00000000000000000000000 11111111111111111111111 0000000000000 1111111111111 0000−2 1111 1111111111111111111111111111111 0000000000000000000000000000000 00000000000000000000000 11111111111111111111111 0000000000000 1111111111111 00000000000000000000000 11111111111111111111111 0000000000000 1111111111111 00000000000000000000000 11111111111111111111111 0000000000000 1111111111111 00000000000000000000000 11111111111111111111111 0000000000000 1111111111111 00000000000000000000000 11111111111111111111111 0000000000000 1111111111111 1111111111111111111111111111111 0000000000000000000000000000000 00000000000000000000000 11111111111111111111111 0000000000000 1111111111111 12 34 5 6 Abbildung 1.10: Zuordnungsvorschrift f (m) 3◦ N × N und N sind gleichmächtig. Wir schreiben die Paare (n1 , n2 ) aus N × N folgendermaßen auf: (1, 1) (2, 1) (3, 1) (4, 1) .. . (1, 2) ւ ւ ւ (2, 2) (3, 2) (1, 3) ւ ւ (4, 2) .. . (2, 3) (1, 4) . . . ւ (2, 4) . . . (3, 3) (3, 4) . . . (4, 3) .. . (4, 4) . . . .. . Dies ergibt ein zweidimensionales Nummerierungsschema. n2 n1 1 2 3 4 5 6 .. . 1 2 3 4 5 6 1 2 4 7 11 3 5 8 12 17 6 9 13 18 10 14 19 15 20 21 16 ... Die Nummerierung ist eineindeutig. Dieses Vorgehen wird Cantorsches Diagonalverfahren genannt. Durch sie wird eine bijektive Abbildung f : N × N ↔ N erzeugt. 4◦ Die Menge der rationalen Zahlen ist abzählbar unendlich. Um dies zu zeigen, betrachten wir zunächst, ähnlich wie bei den ganzen Zahlen, eine Bijektion f1 : a f1 : Q ↔ Q+ = { , a ∈ N, b ∈ N, a und b teilerfremd}. b 1.2. MENGEN, RELATIONEN, ABBILDUNGEN 31 Danach bilden wir Q+ injektiv in N × N durch f2 ab: a f2 ( ) = (a, b). b Da a und b teilerfremd sind, ist die Bildmenge f2 (Q+ ) eine echte Teilmenge von N×N. Es ist leicht zu sehen, dass f2 (Q+ ) abzählbar ist, indem wir bei der Nummerierung durch das Cantorsche Diagonalverfahren, die Paare überspringen, bei denen Zähler und Nenner nicht teilerfremd sind. Durch diese Nummerierung haben wir eine bijektive Abbildung von f3 : f2 (Q+ ) ↔ N beschrieben. Fügen wir die Abbildungen f1 , f2 , f3 nacheinander aus, erhalten wir, dass f = f3 ◦ f2 ◦ f1 : Q ↔ N die gesuchte bijektive Abbildung ist. 32 KAPITEL 1. GRUNDLAGEN Übungsaufgabe Aufgabe 2.1 Vereinfachen Sie die folgende Schaltung: & A & ≥1 ≥1 B C ≥1 & & Aufgabe 2.2 Untersuchen Sie, ob die Differenzbildung von Mengen assoziativ ist, indem Sie die Vereinigung und den Schnitt von A \ (B \ C) und (A \ B) \ C bilden. Aufgabe 2.3 Entscheiden Sie, ob es sich bei den folgenden Relationen auf der Menge aller jetzt lebenden Menschen um Äquivalenzrelationen handelt. a) (a, b) ∈ R, wenn a und b gemeinsame Großeltern haben. b) (a, b) ∈ R, wenn a in einer Entfernung von weniger als 100km von b lebt. c) (a, b) ∈ R, wenn a und b denselben Vater haben. Falls es sich um eine Äquivalenzrelation handelt, ist ein Vertreter aus jeder Äquivalenzklasse anzugeben. Aufgabe 2.4 Wie viele Relationen gibt es zwischen zwei jeweils dreielementigen Mengen A und B? Wie viele davon sind Abbildungen und wie viele der Abbildungen sind surjektiv? Aufgabe 2.5 Zeigen Sie für eine Abbildung f : A −→ B und Teilmengen C, C1 , C2 ⊆ A bzw. D ⊆ B: a) f (C1 ∩ C2 ) ⊆ f (C1 ) ∩ f (C2 ). Geben Sie ein Beispiel für f (C1 ∩ C2 ) 6= f (C1 ) ∩ f (C2 ). b) f (C1 ∪ C2 ) = f (C1 ) ∪ f (C2 ). c) f −1 (f (C)) ⊇ C. Geben Sie ein Beispiel für f −1 (f (C)) 6= C. d) f (f −1 (D)) ⊆ D. Geben Sie ein Beispiel für f (f −1 (D)) 6= D. 33 1.3. ZAHLENMENGEN 1.3 Zahlenmengen Wir haben bereits in vorangegangenen Abschnitten von den Mengen der natürlichen, ganzen, rationalen und reellen Zahlen gesprochen. Insbesondere die rationalen und reellen Zahlen können im Allgemeinen nur näherungsweise mit Hilfe von Stellenwertsystemen (endliche Darstellung!) auf dem Computer realisiert werden. über diese Realisierung werden wir später sprechen. Wir sehen uns zunächst an, wie die Zahlenmengen N, Z, Q und R eingeführt werden können. Natürliche Zahlen, vollständige Induktion In der Mathematik werden aus gegebenen Aussagen mit Hilfe logischer Schlussfolgerungen neue Aussagen gewonnen, die Sätze. Dieser Prozess muss irgendwann beginnen. Am Anfang müssen Tatsachen stehen, die als wahr angenommen werden, ohne dass diese bewiesen werden. Diese Grundtatsachen nennt man Axiome. Giuseppe Peano (1858-1932) hat 1889 das folgende Axiomensystem aufgestellt, wodurch natürliche Zahlen charakterisiert werden. Definition 1.31 (Peano-Axiome). Die natürlichen Zahlen bilden eine Menge N, auf der eine Abbildung f , die jedem n einen Nachfolger zuordnet; f :N→N erklärt ist, die folgende Eigenschaften besitzt: (N1) ∃ !1 ∈ N : 1 ∈ / f (N), d.h. es existiert genau eine Zahl, die nicht Nachfolger einer anderen Zahl ist. (N2) Die Abbildung f ist injektiv, d.h. aus f (n1 ) = f (n2 ) folgt n1 = n2 . (N3) Ist M ⊆ N und gilt a) 1 ∈ M, b) aus n ∈ M folgt f (n) ∈ M, dann ist M = N. Bemerkung: • Die Zahl 1 ist die kleinste natürliche Zahl. Das ist Konvention. Man könnte auch mit der 0 beginnen. Um die 0 einzubeziehen führt man N0 = N ∪ {0} ein. • Das Axiom (N3) wird auch Induktionsaxiom genannt. Es bildet die Grundlage für ein Beweisverfahren, das vollständige Induktion genannt wird. 34 KAPITEL 1. GRUNDLAGEN Theorem 1.32 (Vollständige Induktion). Für n ∈ N sei A = A(n) eine Aussage. Es gelte • A(1) ist wahr (Induktionsanfang), • Für alle n ∈ N gilt: Ist A(n) wahr, so folgt auch, dass A(n + 1) wahr ist (Induktionsschritt). Dann ist auch A(n) wahr für alle n ∈ N (Induktionsschluss). Beweis Sei M = {n ∈ A(n) : A(n) ist wahr}. Die Eigenschaften a) und b) des Axioms (N3) sind erfüllt. Daher ist M = N. Beispiel Man beweise: Es sei q 6= 1. Dann ist für alle n ∈ N q0 + q1 + · · · + qn = 1 − q n+1 . 1−q (1.16) Beweis Wir betrachten die Aussage 1 − q n+1 0 1 n . A(n) : q + q + · · · + q = 1−q • Die Aussage A(1) : q 0 + q 1 = 1 + q = 1−q 2 1−q ist wahr. • Es sei A(n) wahr. Dann gilt 1 − q n+1 + (1 − q)q n+1 1 − q n+1 + q n+1 = 1−q 1−q 1 + (−1 + 1 − q)q n+1 = 1−q n+2 1−q , = 1−q was bedeutet, dass A(n + 1) wahr ist. 35 1.3. ZAHLENMENGEN Teilbarkeit und Primzahlen Der Begriff Teiler“ einer ganzen Zahl ist aus der Schule bekannt. ” Definition 1.33. Sei n ∈ Z, m ∈ N. Die Zahl m heißt Teiler von n, in Zeichen m|n, wenn ∃ k ∈ Z : km = n. In diesem Fall heißt n teilbar durch m. Es gilt: • Die Zahl 0 ist durch alle m teilbar. • Ist m|n1 , m|n2 dann folgt m|(n1 + n2 ). Definition 1.34. Sei a ∈ Z. Die Menge aller Teiler ist D(a) = {d ∈ N : d|a}. Seien a, b ∈ Z. Die Menge aller gemeinsamen Teiler von a und b ist D(a, b) = D(a) ∩ D(b). Die Zahl ggT(a, b) := max{d ∈ D(a) ∩ D(b)} heißt größter gemeinsamer Teiler von a und b. Beispiel Sei a = 30 und b = 24. Dann ist D(30) = {1, 2, 3, 5, 6, 10, 15, 30}, D(24) = {1, 2, 3, 4, 6, 8, 12, 24}. Weiterhin ist D(30, 24) = D(30)∩D(24) = {1, 2, 3, 6} und somit ist der größte gemeinsame Teiler von 30 und 24: ggT(30, 24) = 6. Berechnung des größten gemeinsamen Teilers Wir gehen vom Teilen“ mit Rest aus. Sind a und b ∈ N, a > b. Dann gibt es natürliche ” Zahlen q, r mit 0 ≤ r < b und a = qb + r. Beispiel 36 KAPITEL 1. GRUNDLAGEN Wie bei dem vorherigen Beispiel sei a = 30 und b = 24. Es gilt 30 = 1 · 24 + 6. Hilfe Seien a ∈ N und b ∈ N und a = qb + r. Dann ist D(a, b) = D(b, r), ggT(a, b) = ggT(b, r). (1.17) (1.18) Beweis Ist d ∈ D(a, b), d.h. d|a ∧ d|b, dann gilt d|r mit r = a − qb. Damit ist d ∈ D(b, r). Umgekehrt, sei d ∈ D(b, r) d.h. d|b ∧ d|r. Dann ist d|a und d ∈ D(a, b). Daher gilt (1.17) und (1.18). Euklidischer Algorithmus zur Berechnung von ggT(a, b) Starte mit (a, b). 1. Teste, ob b|a. 2. Wenn ja: D(a, b) = D(b) und ggT(a, b) = b; Stopp. 3. Wenn nein: Teile mit Rest a = qb + r, 0 < r < b. Zurück zum Anfang mit dem Paar (b, r). Beispiele Berechne ggT(30, 24). 1. Gilt 24|30 ? Nein. Daraus folgt 30 = 1 · 24 + 6. 2. Gilt 6|24 ? Ja. Daraus folgt ggT(30, 24) = 6. Berechne ggT(210, 25). 1. Gilt 25|210 ? Nein. Daraus folgt 210 = 8 · 25 + 10. 2. Gilt 10|25 ? Nein. Daraus folgt 25 = 2 · 10 + 5. 3. Gilt 5|10 ? Ja. Daraus folgt ggT(210, 25) = 5. 37 1.3. ZAHLENMENGEN Dieses Vorgehen kann allgemein folgendermaßen beschrieben werden. Seien a ∈ N und b ∈ N, a > b. Dann existieren eindeutig bestimmte Zahlen r0 , r1 , . . . , rk+2 ∈ N mit r0 = a = q1 r1 + r2 , 0 < r2 < r1 = b, r1 = b = q2 r2 + r3 , 0 < r3 < r2 ≤ b − 1, .. . rk = qk+1 rk+1 + rk+2 , 0 < rk+2 < rk+1 , rk+1 = qk+2 rk+2 + 0. Es ist ggT(a, b) = rk+2 , da D(r0 , r1 ) = D(r1 , r2 ) = · · · = D(rk+1, rk+2 ) = D(rk+2). Das Flussbild dieses Algorithmus ist in Abbildung 1.11 dargestellt. Start (a, b) a = bq + r r=0? Ja b = ggT(a, b) Nein (b, r) Stopp Abbildung 1.11: Berechnung von ggT(a, b), a > b. 38 KAPITEL 1. GRUNDLAGEN Primzahlen Definition 1.35. Eine natürliche Zahl p ≥ 2 heißt Primzahl, falls D(p) = {1, p} ist. Lemma 1.36. Jede natürliche Zahl n ≥ 2 ist ein Produkt von Primzahlen. Beweis Vollständige Induktion. Wir betrachten die Aussage A(n) n ist Produkt von Primzahlen“ . ” Induktionsanfang: A(2) ist wahr. Induktionsannahme: A(n) sei wahr für n ≥ 3. Induktionsschluss: Wir zeigen A(n + 1) ist wahr. Wir unterscheiden die Fälle a) n + 1 sei prim, d.h. n + 1 = p. b) n+1 ist nicht prim, d.h. n+1 = n1 ·n2 mit n1 < n+1, n2 < n+1. Nach Induktionsannahme ist n + 1 = n1 · n2 = p1 . . . pk1 q1 . . . qk2 , wobei pi , qj , i = 1, . . . , k1 , j = 1, . . . , k2 Primzahlen sind. Der folgende Satz wird als Übungsaufgabe empfohlen. Theorem 1.37 (Fundamentalsatz der Arithmetik). Jede natürliche Zahl n ≥ 2 lässt sich bis auf die Reihenfolge der Faktoren auf genau eine Weise als Produkt von Primzahlen schreiben. Theorem 1.38 (Satz von Euklid). Es gibt unendlich viele Primzahlen. Beweis Wir nehmen an, es gäbe r verschiedene Primzahlen p1 , p2 , . . . , pr . Wir konstruieren weitere Primzahlen. Dazu zerlegen wir die Zahl p1 p2 . . . pr + 1 in Primfaktoren p1 p2 . . . pr + 1 = q1 q2 . . . qs . Wir zeigen durch einen Widerspruchsbeweis, dass pi 6= qj ist für 1 ≤ i ≤ r, 1 ≤ j ≤ s. Wäre für ein i = i0 und ein j = j0 pi0 = qj0 , dann wäre pi0 |q1 . . . qs und damit pi0 |(p1 . . . pr + 1). Es würde folgen, dass pi0 |1, was nicht sein kann. Daher sind q1 , . . . , qs weitere Primzahlen, die wir der Liste p1 , p2 , . . . , pr hinzufügen können. 39 1.3. ZAHLENMENGEN Rationale und reelle Zahlen Wir erinnern zunächst an die Menge der rationalen Zahlen Q und führen die Menge der reellen Zahlen R ein, indem wir diese Mengen beschreiben, aber nicht alle technischen Details ausführen. In der Mathematik führt man die Menge der reellen Zahlen mit Hilfe Dedekindscher Schnitte oder mit Intervallschachtelung ein, die in Q definiert werden. Eine weitere Möglichkeit wäre, die Menge der reellen Zahlen durch ein Axiomensystem zu beschreiben. Wir gehen hier einen anderen Weg und führen, etwas weniger mathematisch rigoros Q und R so ein, wie sie historisch entstanden sind. Mit Hilfe der Peano-Axiome können in N eine Addition, Multiplikation und eine Ordnungsrelation eingeführt werden. Die Umkehrung dieser Rechenoperationen, die Subtraktion und Division ist nicht immer möglich. Um diese ausführen zu können, wird die Menge der ganzen Zahlen Z und die Menge der rationalen Zahlen Q eingeführt: N ⊂ Z ⊂ Q. Die Menge Q hat folgende Eigenschaften: 1. Die Menge Q ist total geordnet, d.h. für je zwei verschiedene rationale Zahlen a und b lässt sich angeben, welche die kleinere ist. 2. Die Menge Q ist in sich überall dicht, d.h. zwischen je zwei verschiedenen rationalen Zahlen a und b liegt mindestens eine weitere rationale Zahl c. Daher liegen zwischen zwei verschiedenen rationalen Zahlen unendlich viele weitere rationalen Zahlen. 3. Die Rechenoperationen Addition, Subtraktion, Multiplikation und Division (außer durch 0) sind in Q ausführbar. 4. Jede rationale Zahl lässt sich in Form eines endlichen oder unendlichen periodischen Dezimalbruches darstellen. Die Menge der rationalen Zahlen reicht jedoch nicht aus, um die gesamte Zahlengerade zu a n a n füllen. So ist das Potenzieren von rationalen Zahlen q = b , q = b = q · · · · · q, n ∈ N in Q definiert, die inverse Operation, das Wurzelziehen, liefert jedoch nicht immer eine rationale Zahl. Beispiel √ √ Die Ausdrücke 2 und 3 10 sind keine rationalen Zahlen.√ Wir führen einen Widerspruchsbeweis um zu zeigen, dass 2 keine rationale Zahl ist. Dazu betrachten wir die Aussagen √ A = {x = 2}, B = {x ist nicht rational}. Wir behaupten, dass die Aussage {A ⇒ B} wahr ist, d.h. die Aussage A ∧ ¬B ist falsch. Die Aussage ¬B lautet: x ist rational, genauer: x = ab , wobei a und b teilerfremd sind. Die Aussage √ a A ∧ ¬B = x = 2 ∧ x = (teilerfremd) b 40 KAPITEL 1. GRUNDLAGEN liefert √ √ a2 2 2 = 2 , 2b2 = a2 . b 2 Damit ist a eine ganze Zahl und a muss gerade sein. Wir setzen a = 2k und erhalten 2b2 = 4k 2 und somit ist b2 = 2k 2 gerade. Es folgt, dass b gerade ist und 2 Teiler von a und b ist. Dies ist ein Widerspruch und ¬ (A ∧ ¬B) ist wahr, was äquivalent dazu ist, dass A ⇒ B wahr ist. Die Einführung irrationaler Zahlen gestattet es, jedem Punkt der Zahlengeraden eine reelle Zahl zuzuordnen. Dabei ist eine Zahl irrational, wenn sie sich durch einen nichtperiodischen unendlichen Dezimalbruch darstellen lässt. Wir können jetzt die Menge der reellen Zahlen R einführen: R = Q ∪ {irrationale Zahlen}. Die Menge R ist nicht abzählbar. Theorem 1.39. Das Intervall I = {x ∈ R : 0 < x < 1} ist überabzählbar und damit ist R überabzählbar. Beweis Wir nehmen an, dass f : I → N bijektiv sei, d.h. wir können die Elemente aus I durchnummerieren x1 , x2 , x3 , . . . , xn , . . . . Sei in der Dezimaldarstellung (n) (n) (n) xn = 0, a−1 a−2 . . . a−n . . . . (1.19) Wir setzen ( (n) 6 0, 0 falls a−n = bn = (n) 1 falls a−n = 0 (1) und betrachten das Element y = 0, b1 b2 b3 . . . . Es ist y 6= x1 , da b1 6= a−1 ist; y 6= x2 , (2) da b2 6= a−1 ist; usw. Das Element y = 0, b1 b2 b3 . . . gehört also nicht zu der Menge der Elemente xn , die durch (1.19) beschrieben werden. Dieser Widerspruch besagt, dass I nicht abzählbar ist. Haupteigenschaften der reellen Zahlen 1. Die Menge der reellen Zahlen ist total geordnet. 2. Die Menge der rationalen Zahlen Q ist dicht in R, d.h. sei r ∈ R, dann gilt: Für alle ε > 0 existiert ein q = q(ε) ∈ Q : |q − r| < ε. 41 1.3. ZAHLENMENGEN 3. Die Menge der reellen Zahlen ist stetig (ein Kontinuum), d.h. jeder Punkt der Zahlengeraden entspricht einer reellen Zahl. 4. Die arithmetischen Operationen (Addition, Subtraktion, Multiplikation, Division – außer durch 0 –) sind mit reellen Zahlen stets ausführbar und ergeben wieder eine reelle Zahl. Das Potenzieren ist in R stets ausführbar, wobei das Wurzelziehen im Bereich R+ = {x ∈ R : x ≥ 0} definiert ist. Um Wurzeln aus negativen Zahlen zu definieren, muss die Menge der komplexen Zahlen eingeführt werden. Übersicht, welche Rechenoperationen in den einzelnen Zahlenmengen ausgeführt werden können N Addition, Multiplikation Z zusätzlich: Subtraktion Q zusätzlich: Division 0 1 2 3 −2 −1 0 1 2 0 abzählbar, unendlich 0 überabzählbar · z = (a, b) R zusätzlich: Wurzelziehen √ n b, b ≥ 0, C zusätzlich: Wurzelziehen √ n −b Gauß’sche Zahlenebene Die Menge der komplexen Zahlen C Die Einführung der komplexen Zahlen ist notwendig, um Nullstellen von Polynomen bestimmen, bzw. Wurzeln aus negativen reellen Zahlen ziehen zu können. 42 KAPITEL 1. GRUNDLAGEN Definition 1.40. Sei R die Menge der reellen Zahlen. Die Menge der komplexen Zahlen C entspricht dem kartesischen Produkt R × R = R2 , in der folgende Addition und Multiplikation eingeführt sind: z1 + z2 = (a1 + a2 , b1 + b2 ), z1 · z2 = (a1 , b1 ) · (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + a2 b1 ), wobei z1 = (a1 , b1 ) ∈ R2 , z2 = (a2 , b2 ) ∈ R2 sind. Bemerkung: Die Menge der reellen Zahlen kann als Teilmenge von C aufgefasst werden. Sei R∗ = {z ∈ C : z = (a, 0)}. Dann ist die folgende Abbildung f : R → R∗ bijektiv, d.h. a ∈ R ⇔ z = (a, 0) := a. (1.20) Wir führen die imaginäre Einheit ein: i = (0, 1). Es gilt (1.20) i2 = (0, 1)(0, 1) = (0 − 1, 0) = (−1, 0) = −1 √ und es wird kurz geschrieben i = −1. Theorem 1.41. Für jede komplexe Zahl z ∈ C ist z = (a, b) = a + ib. Beweis Wir haben a + ib = (a, 0) + (b, 0)(0, 1) = (a, 0) + (0, b) = (a, b). Definition 1.42. Sind a und b reelle Zahlen und ist z = a + ib, dann heißt z̄ := a − ib die konjugiert komplexe Zahl zu z. Die Zahlen a = Re(z), b = Im(z) werden Realteil bzw. Imaginärteil von z genannt. Komplexe Zahlen können in der Gauß’schen Zahlenebene dargestellt werden. Theorem 1.43. Sind z und w komplexe Zahlen, dann gilt a) z + w = z̄ + w̄, 43 1.3. ZAHLENMENGEN Im z b (a, b) = z |z| |z̄| Re z a (a, −b) = z̄ Abbildung 1.12: Gauß’sche Zahlenebene b) z · w = z̄ · w̄, c) z + z̄ = 2Re(z), z − z̄ = 2iIm(z), d) z · z̄ ist eine reelle nichtnegative Zahl. Der Beweis wird als Übung empfohlen (siehe auch Abbildung 1.12). Definition 1.44. Der Betrag von z = a + ib ∈ C ist definiert als: √ 1 |z| := (z · z̄) 2 = a2 + b2 . Es ist |z| = |z̄|. Trigonometrische Darstellung der komplexen Zahlen Die komplexen Zahlen z = a + ib mit |z| = 1 liegen auf dem Einheitskreis. Daher gilt a = cos ϕ und b = sin ϕ. Der Winkel ϕ = arg(z) wird als Argument von z bezeichnet. In diesem Fall ist z = cos ϕ + i sin ϕ. Sei nun z 6= (0, 0) ein Element aus C. Es ist |z| = 6 0. Die komplexe Zahl w = Betrag |w| = 1 und daher ist w = cos ϕ + i sin ϕ und z = |z| (cos ϕ + i sin ϕ) . z |z| besitzt den (1.21) Schreibt man |z| = r erhält man die trigonometrische Darstellung der komplexen Zahl z z = r (cos ϕ + i sin ϕ) . 44 KAPITEL 1. GRUNDLAGEN b 1 (a, b) = z ϕ a Abbildung 1.13: Einheitskreis b r = |z| ϕ Dabei ist cos ϕ = √ a , sin ϕ a2 +b2 = (a, b) = z a √ b . a2 +b2 Beispiele Es ist π + i sin , 2 2 π √ π + i sin . z = 1 + i = 2 cos 4 4 z = i = cos π Zahlendarstellung mit g-adischen Brüchen Wir betrachten eine natürliche Zahl n ∈ N. Sie lässt sich als Summe von Potenzen der Zahl 10 darstellen n = a0 · 100 + a1 · 101 + a2 · 102 + · · · + aN · 10N , 0 ≤ ai ≤ 9, aN 6= 0 . Beispiel Die Zahl 2006 lässt sich darstellen als 2006 = 6 · 100 + 0 · 101 + 0 · 102 + 2 · 103 . 45 1.3. ZAHLENMENGEN Die Zifferndarstellung besteht darin, die Koeffizienten in umgekehrter Reihenfolge anzuordnen: n = aN aN −1 . . . a0 . (1.22) Etwas schwieriger ist es, eine reelle Zahl als Zehnerpotenzen darzustellen. Wir beschreiben diese Dezimaldarstellung als Algorithmus: Sei x ∈ R. Wir finden ein y ∈ Z mit y ≤ x < y + 1. Falls y = x ist, dann ist der Algorithmus beendet und wir schreiben x = ±aN aN −1 . . . a0 wie in (1.22). Falls nicht, wird das Intervall [y, y +1) in 10 Teilintervalle Ia−1 , a−1 ∈ {0, 1, . . . , 9} mit gleicher Länge zerlegt. Wir betrachten das Teilintervall Ia−1 , das x enthält, d.h. r1 = y + a−1 · 10−1 ≤ x < y + (a−1 + 1)10−1 = r2 . Falls x = y + a−1 · 10−1 , dann ist der Algorithmus beendet; falls nicht, wird das Intervall [r1 , r2 ) in 10 Teilintervalle gleichmäßig zerlegt und das Teilintervall Ia−2 , a−2 ∈ {0, 1, . . . , 9} betrachtet, das x enthält. Dieser Prozess wird so oft wiederholt, bis es entweder ein Intervall gibt, dessen linker Randpunkt gleich x ist (endlicher Dezimalbruch) oder er hat kein endliches Ende (unendlicher Dezimalbruch). Wir schreiben x = y, a−1a−2 a−3 · · · = ±aN aN −1 . . . a0 , a−1 a−2 a−3 . . . (1.23) Es gilt folgende Vereinbarung: Ist a−i = 9 für alle i : i ≥ i0 und a−i0 +1 6= 9, dann schreiben wir x = y, a−1 . . . a−i0 +1 999 . . . = y, a−1 . . . (a−i0 +1 + 1). (1.24) Beispiele Es ist 0, 9999 . . . = 1, 3, 264999 . . . = 3, 265. Mit dieser Konvention sind zwei reelle Zahlen gleich, wenn ihre Ziffern gleich sind. g-adische Darstellung von reellen Zahlen Neben der Dezimaldarstellung (1.23) von reellen Zahlen, die auf der Darstellung durch Zehner-Potenzen beruht, können auch andere Ziffernbasen verwandt werden. Sei g ∈ N, g ≥ 2. 46 KAPITEL 1. GRUNDLAGEN Theorem 1.45. Jede natürliche Zahl n ∈ N lässt sich eindeutig in der Form n = ng = N X i=0 ai g i = a0 g 0 + a1 g 1 + · · · + aN g N , aN 6= 0, ai ∈ {0, 1, . . . , g − 1}, darstellen. Die Ziffern ai , i = 0, . . . , N, können mit Hilfe eines Divisionsalgorithmus berechnet werden. Die Zifferndarstellung lautet n = ng = aN aN −1 . . . a0 . Beweis Wir zeigen zunächst die Eindeutigkeit. Es gelte n = a0 g 0 + a1 g 1 + · · · + aN g N = b0 g 0 + b1 g 1 + · · · + bM g M , ai , bj ∈ {0, 1, . . . , g − 1}, i = 0, . . . , N, j = 0, 1, . . . , M. M ≥ N, (1.25) (1.26) Dann ist a0 − b0 = b1 g 1 + · · · + bM g M − a1 g 1 + · · · + aN g N = g b1 − a1 + · · · + (bN − aN ) g N −1 + bN +1 g N + · · · + bM g M −1 = gk, mit k = b1 − a1 + · · · + (bN − aN ) g N −1 + bN +1 g N + · · · + bM g M −1 ∈ Z. Wegen (1.26) ist −g < a0 − b0 = gk < g und k = 0. Es folgt a0 = b0 . In (1.25) ziehen wir a0 = b0 auf beiden Seiten ab und dividieren durch g. Es folgt analog, dass a1 = b1 ist und schließlich dass ai = bi für i = 1, . . . , N und bN +1 = · · · = bM = 0 sind. Durch die Bedingung aN 6= 0 ist N eindeutig bestimmt. 2. Schritt: Existenzbeweis durch Konstruktion 0◦ Es existiert ein N ∈ N, so dass g N ≤ n < g N +1 ist. Wir bestimmen dieses N und führen danach folgenden Divisionsalgorithmus aus. 1◦ Teile n durch g N (Teilen mit Rest): n = aN g N + rN , mit 0 ≤ rN < g N , 0 < aN ≤ g − 1. 2◦ Teile rN durch g N −1 : rN = aN −1 g N −1 + rN −1 , mit 0 ≤ rN −1 < g N −1 , 0 ≤ aN −1 ≤ g − 1. 47 1.3. ZAHLENMENGEN 3◦ Teile rN −1 durch g N −2 : rN −1 = aN −2 g N −2 + rN −2 , mit 0 ≤ rN −2 < g N −2 , 0 ≤ aN −2 ≤ g − 1, .. . r2 = a1 g 1 + r1 , mit 0 ≤ r1 < g , r1 = a0 . Bemerkung: Im Schritt 1◦ ist aN > 0 wegen g N ≤ n. Für i ∈ {1, 2, . . . , N −1} ist auch ai = 0 zugelassen, da nicht immer g i ≤ ri+1 ist. Beispiele Wir stellen die Zahl 2006 dar, indem wir N bestimmen und den Divisionsalgorithmus ausführen. g=2: 210 < 2006 < 211 , N = 10 20062 = 0 · 20 + 1 · 21 + 1 · 22 + 0 · 23 + 1 · 24 +0 · 25 + 1 · 26 + 1 · 27 + 1 · 28 + 1 · 29 + 1 · 210 = 11111010110 g=4: 45 < 2006 < 46 , N = 5 20064 = 2 · 40 + 1 · 41 + 1 · 42 + 3 · 43 + 3 · 44 + 1 · 45 = 133112 g = 16 : 162 < 2006 < 163 , N = 2 200616 = 2 · 160 + 7 · 161 + 7 · 161 = 772 Bemerkung: Um im Hexadezimalsystem die Zahlen darzustellen, verwendet man die Buchstaben 10, 11, A, B, 12, 13, 14, C, D, E, 15 F. Die Darstellung der reellen Zahlen im g-adischen Ziffernsystem folgt dem Algorithmus, der zuvor für g = 10 erklärt wurde. Wir erhalten das Ergebnis: Jede reelle Zahl x lässt sich eindeutig im g-adischen Ziffern- 48 KAPITEL 1. GRUNDLAGEN system darstellen: x = xg = ±aN aN −1 . . . a0 , a−1 a−2 . . . , N x = aN g + aN −1 g ∞ X = a−j g −j . N −1 0 aN 6= 0, + · · · + a0 g + a−1 g −1 + a−2 g −2 + . . . (1.27) j=−N Dabei vereinbaren wir, wie zuvor, dass a−j = g − 1 für alle j ≥ j0 , a−j0 +1 < g − 1 , verboten ist (vergleiche mit (1.24)) und setzen ± aN aN −1 . . . a0 , a−1 a−2 . . . a−j0 +1 (g − 1)(g − 1)(g − 1) . . . = ±aN aN −1 . . . a0 , a−1 a−2 . . . (a−j0 +1 + 1) . Bemerkung: Die Babylonier benutzten 1600 v. Chr. ein Zahlensystem mit g = 60, die Mayas hatten 665 n. Chr. ein Zahlensystem mit g = 20. Zahlendarstellung im Computer Die Darstellung der ganzen Zahlen im Computer erfolgt zumeist für g = 2, d.h. in einem binären Stellenwertsystem. Es können nur Zahlen einer endlichen Länge L benutzt werden. Daher können nur maximal 2L verschiedene Zahlen als Bitmuster dargestellt werden. Außerdem muss das Vorzeichen berücksichtigt werden [3, S.49]. Bitmuster: L z }| { 000 . . . 000 ∼ = 0, 000 . . . 001 ∼ = 1, ∼ 000 . . . 010 = 2, .. . 111 . . . 111 ∼ = L−1 X i=0 2i = 1 + 2 + 22 + · · · + 2L−1 = 1 − 2L = 2L − 1. 1−2 Die Bitmuster können addiert und subtrahiert werden. Rationale Zahlen können durch Multiplikation der Bitmuster mit dem Faktor 2−k erfasst werden (Festpunkt-Zahlensystem) oder der Skalierungsfaktor wird variabel gehalten (Gleitpunkt-Zahlensystem). Numerische Berechnungen, die eine Vielzahl von Gleitpunktoperationen benötigen, können beträchtliche Fehler aufweisen. Ursache können Rundungsfehler sein, wie sie bei Subtraktion entstehen. Das Assoziativgesetz ist im Gleitkommasystem (festes L) verletzt. 49 1.3. ZAHLENMENGEN Beispiel (Dezimalsystem , siehe [3, S.53]) x = 0.23371258 · 10−4 , y = 0.33678429 · 102 , z = −0.33677811 · 102 . Das exakte Ergebnis lautet x + y + z = 0.641371258 · 10−3. Durch Rundung erhalten wir x + (y + z) = 0.23371258 · 10−4 + 0.00000618 · 102 ≈ 0.02337126 · 10−3 + 0.618 · 10−3 = 0.64137126 · 10−3 , (x + y) + z ≈ (0.00000023 · 102 + 0.33678429 · 102 ) +z = 0.33678452 · 102 − 0.33677811 · 102 = 0.00000641 · 102 = 0.641 · 10−3 . Die Kunst der Numerik besteht darin, diese Fehler klein zu halten. Übungsaufgaben Aufgabe 3.1 Zeigen Sie mit Hilfe von vollständiger Induktion: Die Potenzmenge P(M ) einer Menge M mit n Elementen hat 2n Elemente. Aufgabe 3.2 Pascalsches Dreieck und Binomischer Satz. Für ganze Zahlen n ≥ k ≥ 0 ist der Binomialkoeffizient durch n(n − 1)(n − 2) . . . (n − k + 1) n! n = , := k (n − k)!k! k(k − 1)(k − 2) . . . 2 · 1 (lies: n über k) definiert, wobei n! = 1 · 2 · · · (n − 1)n und 0! = 1 ist. 1 1 1 a) Betrachten Sie das Pascalsche Dreieck 1 1 1 3 4 5 1 2 1 3 6 10 1 4 10 1 5 1 50 KAPITEL 1. GRUNDLAGEN Das Dreieck hat am Rand Einsen und die inneren Zahlen sind die Summe der beiden darüber liegenden Zahlen. Zeigen Sie durch vollständige Induktion nach n, dass die k-te Zahl der n-ten Zeile durch den Binomialkoeffizienten ( nk ) gegeben ist, wobei die Nummerierung von n und k bei 0 startet. b) Zeigen Sie für a, b ∈ R den Binomischen Satz (a + b)n = n X n k=0 k an−k bk . Aufgabe 3.3 a) Bestimmen Sie ggT(a, b) von den Paaren a = 3267 , b = 8877 und a = 5161 , b = 6817 durch Ausführen des Euklidischen Algorithmus auf dem Papier. b) Bestimmen Sie ggT(a, b) von den Paaren a = 123454321, b = 2222222222 und a = 1122334455, b = 6677889900 wahlweise auf Papier oder mit Hilfe eines (selbst geschriebenen) Programms. Das Programm ist ggf. mit anzugeben. c) Finden Sie eine Folge an , n ≥ 1 , von ganzen Zahlen, so dass der Euklidische Algorithmus genau n Schritte zur Berechnung des ggT(an+1 , an ) benötigt. Hinweis: Starten Sie mit einer beliebigen Zahl a1 und finden Sie mit Hilfe des Algorithmus eine passende Zahl a2 . Aufgabe 3.4 Beweisen Sie die folgenden Summenformeln mit vollständiger Induktion. a) n X k=1 n(n + 1) , k= 2 n X (2k − 1) = n2 , b) c) n X k2 = k=1 k=1 n(n + 1)(2n + 1) . 6 Aufgabe 3.5 Die Fibonacci-Zahlen Fn , n ∈ N0 , sind definiert durch F0 = 0, F1 = 1, Fn+2 = Fn + Fn+1 . Bestimmen Sie F7 und zeigen Sie die folgenden Beziehungen: a) n X k=0 Fk = Fn+2 − 1 b) n X k=0 Fk2 = Fn Fn+1 51 1.4. GRUPPEN, RINGE, KÖRPER 1.4 Gruppen, Ringe, Körper Die Menge der komplexen Zahlen wurde eingeführt, indem wir im R2 = R × R eine Addition und eine Multiplikation von zwei Elementen definiert hatten. Die Addition und Multiplikation sind Beispiele für Verknüpfungen, die folgendermaßen definiert werden. Definition 1.46. Sei M eine Menge. Eine Abbildung f : M × M → M, (m1 , m2 ) → m = m1 ∗ m2 heißt Verknüpfung. Eine Verknüpfung heißt assoziativ, wenn gilt (m1 ∗ m2 ) ∗ m3 = m1 ∗ (m2 ∗ m3 ) ∀ m1 , m2 , m3 ∈ M. Sie heißt kommutativ, wenn m1 ∗ m2 = m2 ∗ m1 ∀ m1 , m2 ∈ M gilt. Ein Element e ∈ M heißt neutral, falls gilt e ∗ m = m ∗ e = m ∀ m ∈ M. Beispiele 1◦ Sei M = P(X) die Potenzmenge einer Menge X. Die Abbildungen Vereinigung “ ” und Durchschnitt “ ” f : M × M → M, g : M × M → M, f : U ∪ V = W, g : U ∩ V = W, U, V ⊂ M sind kommutative und assoziative Verknüpfungen. Das neutrale Element für f ist die leere Menge ∅; das neutrale Element für g ist die Menge X. 2◦ In der Informatik wird folgende Situation betrachtet: Gegeben ist eine endliche Menge M, ein sogenanntes Alphabet. Über M wurden Bitstrings“ betrachtet, das sind endliche Folgen von Elementen aus M. Genauer, ” falls u : N→M n → u(n) = un ∈ M , dann ist ein string = string(u, k) = {u(1), . . . , u(k)} = u(1) . . . u(k) eine Folge der Länge k bzw. ein Wort der Länge k. Als Verknüpfung zweier strings“ (u(1) . . . u(k)) ” und (v(1) . . . v(l)) wird die Verkettung (Konkatenation) eingeführt: (u(1) . . . u(k)) ∗ (v(1) . . . v(l) = (w(1) . . . w(k + l)) = (u(1) . . . u(k)v(1) . . . v(l)) , 52 KAPITEL 1. GRUNDLAGEN wobei w(i) = u(i) für 1 ≤ i ≤ k v(i − k) für k + 1 ≤ i ≤ k + l ist. Dies ist eine assoziative Verknüpfung in der Menge M ∗ aller strings. 3◦ Wir betrachten die Menge der rationalen Zahlen Q und die Abbildungen Addition und Multiplikation: f : Q × Q → Q, g : Q × Q → Q, f (a, b) = a + b, g(a, b) = a · b. Das neutrale Element für die Addition ist die Null, für die Multiplikation die Eins. Definition 1.47 (Halbgruppe, Monoid). Eine Menge G mit einer assoziativen Verknüpfung ∗“ heißt Halbgruppe, geschrieben als (G, ∗). ” Eine Halbgruppe heißt Monoid, falls ein eindeutig bestimmtes neutrales Element e ∈ G existiert mit e∗g =g∗e=g ∀g ∈ G. Wir schreiben (G, ∗, e) für das Monoid. Ist die Verknüpfung ∗“ zusätzlich kommutativ, so heißt G ein kommutatives Monoid. ” Um Gruppen einzuführen, benötigen wir den Begriff der Invertierbarkeit eines Elementes aus einem Monoid. Definition 1.48 (inverses Element,Gruppe). Ist (G, ∗, e) ein Monoid, so ist g ∈ G invertierbar in G, falls ein Element g −1 ∈ G existiert mit g ∗ g −1 = g −1 ∗ g = e . Man nennt g −1 Inverse (inverses Element) zu g. Ein Monoid (G, ∗, e) heißt Gruppe, wenn jedes g ∈ G invertierbar ist. Ist außerdem die Verknüpfung ∗“ kommutativ, dann heißt (G, ∗, e) abelsche Gruppe. Hat eine Gruppe ” endlich viele Elemente, dann sprechen wir von einer endlichen Gruppe. Beispiele 0◦ Fügen wir im obigen Beispiel 2◦ das leere Wort als neutrales Element in M ∗ hinzu, so erhalten wir ein Monoid. 1◦ Die natürlichen Zahlen bilden eine Halbgruppe mit der Multiplikation oder der Addition. 53 1.4. GRUPPEN, RINGE, KÖRPER 2◦ Z, Q, R und C sind Gruppen bezüglich der Addition; Q+ = {x ∈ Q : x > 0} ist eine Gruppe bezüglich der Multiplikation. 3◦ Die endliche Menge G = {−1, +1} ist ebenfalls eine Gruppe bezüglich der Multiplikation in Z. 4◦ Permutationsgruppen Etwas ausführlicher betrachten wir Permutationsgruppen. Es sei M eine Menge und S(M) folgende Menge von Abbildungen von M in M: S(M) = {f : M ↔ M, f bijektiv}. Die Verknüpfung in S(M) sei die Komposition f ∗ g = f ◦ g. Das neutrale Element ist die identische Abbildung e e : M → M, e : m → m, ∀ m ∈ M. Da f bijektiv ist, existiert die inverse Abbildung f ◦ f −1 = f −1 ◦ f = e. Daher ist (S(M), ◦, e) eine Gruppe. Als Spezialfall betrachten wir: Sn = S({1, 2, 3, . . . , n}). Sn heißt auch symmetrische Gruppe auf n Elementen. Diese Gruppe hat n! Elemente, die Permutationen genannt werden. Dieser Beweis ist als Übung empfohlen. Beispiel Wir betrachten S3 = S({1, 2, 3}). Die möglichen Permutationen können folgendermaßen beschrieben werden: 1 2 3 . f (1) f (2) f (3) Es ergeben sich 3! = 6 Permutationen: 1 1 2 3 , f2 = ˆ f1 = e= ˆ 1 1 2 3 1 1 2 3 , f5 = ˆ f4 = ˆ 3 2 3 1 1 2 3 , f3 = ˆ 2 3 2 1 2 3 , f6 = ˆ 3 1 2 2 3 , 1 3 2 3 . 2 1 5◦ Gruppe der Restklassen Wir hatten in der Menge der ganzen Zahlen eine Äquivalenzrelation eingeführt (kongruent modulo m, m ∈ N) a ∼ b ⇔ a ≡ b modulo m ⇔ a − b = qm, q ∈ Z. 54 KAPITEL 1. GRUNDLAGEN Dadurch erhalten wir eine Partition von Z, deren m Elemente die Äquivalenzklassen sind. Die Äquivalenzklasse von a ∈ Z wird auch Restklasse von a modulo m genannt R[a] = {b ∈ Z : b ∼ a}, = a + mZ. Das Element a heißt Vertreter bzw. Repräsentant der Restklasse. Die Menge aller Restklassen {R[0], R[1], . . . R[m − 1]} wird mit Z/mZ bezeichnet. Auf Z/mZ kann eine Addition ⊕ und eine Multiplikation ⊙ definiert werden: R[a] ⊕ R[b] = R[a + b], R[a] ⊙ R[b] = R[ab]. Beispiel Es sei m = 2, dann gibt es zwei Restklassen: R[0] = {b ∈ Z : 0 − b = 2q, q ∈ Z} = {. . . , −4, −2, 0, 2, 4, 6, . . . } ganze gerade Zahlen, R[1] = {b ∈ Z : 1 − b = 2q, q ∈ Z} = {. . . , −3, −1, 0, 1, 3, 5, . . . } ganze ungerade Zahlen. Es ist e = R[0] das neutrale Element bezüglich der Addition und e = R[1] das neutrale Element bezüglich der Multiplikation. Insbesondere haben wir: R[0] ⊕ R[1] = R[1], R[0] ⊕ R[0] = R[0], R[1] ⊕ R[1] = R[2] = R[0], R[0] ⊙ R[0] = R[0], R[0] ⊙ R[1] = R[0], R[1] ⊙ R[1] = R[1], d.h. d.h. d.h. d.h. d.h. d.h. gerade Zahl + ungerade Zahl = ungerade Zahl, gerade Zahl + gerade Zahl = gerade Zahl, ungerade Zahl + ungerade Zahl = gerade Zahl, gerade Zahl · gerade Zahl = gerade Zahl, gerade Zahl · ungerade Zahl = gerade Zahl, ungerade Zahl · ungerade Zahl = ungerade Zahl. Die Menge (Z/mZ, ⊕) ist eine Gruppe; die Menge ((Z/mZ)\{R[0]}, ⊙) ist eine Gruppe, falls m eine Primzahl ist. Bemerkung: Die Verknüpfungen in endlichen Gruppen kann man in Verknüpfungstafeln aufschreiben: 55 1.4. GRUPPEN, RINGE, KÖRPER ∗ a1 a1 a1 ∗ a1 .. . a2 ··· an ∗ a1 ··· a2 .. . an ··· ··· an a1 ∗ an an ∗ an So können wir die Gruppe G = {−1, +1, ·, 1 = e} in Beispiel 3◦ durch folgende Verknüpfungstafel beschreiben. · -1 +1 -1 -1 1 -1 -1 1 In Beispiel 5◦ kann (Z/4Z, ⊕, e = R[0]) durch die Verknüpfungstafel charakterisiert werden ⊕ R[0] R[1] R[2] R[3] R[0] R[0] R[1] R[2] R[3] R[1] R[1] R[2] R[3] R[0] R[2] R[2] R[3] R[0] R[1] R[3] R[3] R[0] R[1] R[2] Wir erhalten (R[0])−1 = R[0], (R[1])−1 = R[3], (R[2])−1 = R[2], (R[3])−1 = R[1] . Definition 1.49 (Ring). Eine Menge mit zwei Verknüpfungen + “ und · “ und den ” ” Eigenschaften: 1. (M, +) ist abelsche Gruppe mit dem neutralen Element e+ , · “ ist assoziativ, es gibt ein neutrales Element e· , ” 3. (a + b) · c = a · c + b · c, c · (a + b) = c · a + c · b für alle a, b, c ∈ M, 2. die Verknüpfung 4. e+ 6= e· . heißt Ring. Beispiele für Ringe sind: Z und Z/pZ, wobei p eine Primzahl ist. Definition 1.50 (Körper). Sei M ein Ring. Ist M kommutativ bezüglich der Multiplikation und M\{e+ } eine Gruppe unter der Verknüpfung · “, dann heißt M Körper. ” Beispiele Q, R und C sind Körper. 56 KAPITEL 1. GRUNDLAGEN Abbildungen von Monoiden und Gruppen Wir haben bisher Relationen, insbesondere 0 und Graphen von Abbildungen als Teilmengen des kartesischen Produktes M1 × M2 × · · · × Mr von Mengen Mi , i = 1, . . . , r, betrachtet. Falls zwischen den Mengen Mi Verknüpfungen erklärt sind, dann sollten diese auch auf die Relationen übertragbar sein. Definition 1.51 (Strukturerhaltende Relation). Seien (G1 , ∗1 ) und (G2 , ∗2 ) Halbgruppen. Die Relation R ⊂ G1 × G2 heißt strukturerhaltend, falls für (a1 , a2 ) ∈ R und (b1 , b2 ) ∈ R folgt, dass (a1 ∗1 b1 , a2 ∗2 b2 ) ∈ R ist. Wenn die Relation R ein Graph G(f ) einer Abbildung f : G1 → G2 ist, lautet die obige Definition: für (a1 , f (a1 )) ∈ G(f ) und (b1 , f (b1 )) ∈ G(f ) soll gelten (a1 ∗1 b1 , a2 ∗2 b2 ) ∈ G(f ), d.h. es muss sein, dass f (a1 ) ∗2 f (b1 ) = f (a1 ∗1 b1 ) ∀a1 , b1 ∈ G1 (1.28) ist. In diesem Fall heißt die Abbildung strukturerhaltend. Beispiele: 1◦ Sei (G1 , ∗1 ) = (G2 , ∗2 ) = (R, +) und f : R → R. f ist strukturerhaltend, falls f (a1 + b1 ) = f (a1 ) + f (b1 ) für alle a1 , b1 ∈ R ist. Dies ist zum Beispiel für f (x) = ax, a ist eine feste reelle Zahl, erfüllt. 2◦ Sei (G1 , ∗1 ) = (G2 , ∗2 ) = (C, ·) und f : C → C. f ist strukturerhaltend, falls f (z1 · z2 ) = f (z1 ) · f (z2 ) ∀ z1 , z2 ∈ C ist. Dies ist für f (z) = z 2 erfüllt. Der Begriff der strukturerhaltenden Abbildung wird etwas verschärft, wenn wir uns auf Monoide und Gruppen beschränken. In diesem Fall existieren in G1 und G2 neutrale Elemente, die durch die Abbildung f ineinander überführt werden sollen. Definition 1.52 (Monoid- und Gruppenhomomorphismus). Seien (G1 , ∗1 , e1 ) und (G2 , ∗2 , e2 ) Monoide bzw. Gruppen. Eine Abbildung f : G1 → G2 heißt Monoidhomomorphismus bzw. Gruppenhomomorphismus, falls f (a1 ∗1 b1 ) = f (a1 ) ∗2 f (b1 ) für alle a1 , b1 ∈ G1 , f (e1 ) = e2 . Ein bijektiver Homomorphismus wird Isomorphismus genannt. (1.29) (1.30) 1.4. GRUPPEN, RINGE, KÖRPER 57 Im vorherigen Beispiel 1◦ ist die Abbildung f : R → R, f (x) = ax, a 6= 0, ein Isomorphismus. Wir werden im Weiteren den Begriff einer Untergruppe benötigen. Definition 1.53 (Untergruppe). Sei (G, ∗, e) eine Gruppe. Eine nichtleere Teilmenge U von G heißt Untergruppe von G, falls a, b ∈ U ⇒ a ∗ b ∈ U , e∈U, −1 a∈U ⇒a ∈U. (1.31) (1.32) (1.33) Beispiele: 1◦ Wir betrachten die Gruppe (Q, +, 0). Dann ist (Z, +, 0) eine Untergruppe. 2◦ Seien (G1 , ∗1 , e1 ) und (G2 , ∗2 , e2 ) zwei Gruppen und f : G1 → G2 ein Gruppenhomomorphismus. Dann sind ker f ⊂ G1 und im f ⊂ G2 Untergruppen. Was ker f und im f bedeuten, wird durch folgende Definition geklärt. Definition 1.54 (Kern und Bild). Sei f : G1 → G2 . Dann ist Kern(f ) = ker(f ) = {a1 ∈ G1 : f (a1 ) = e2 } der Kern von f , Bild(f ) = im(f ) = {b2 ∈ G2 : ∃a1 ∈ G1 mit f (a1 ) = b2 } das Bild von f . Bemerkung: Mit unseren früheren Bezeichnungen können wir schreiben: ker f = Urbild {e2 } = f −1 ({e2 }) im f = f (G1 ) . Lemma 1.55. Sei f : G1 → G2 ein Gruppenhomomorphismus. Dann sind ker f und im f Untergruppen von G1 bzw. G2 . Beweis Wir überprüfen die Eigenschaften (1.31), (1.32) und (1.33) unter Beachtung von (1.29) und (1.30). Die genaue Ausführung wird als 0 empfohlen. Beispiele: 1◦ Es sei f : R → R, f (x) = ax, a 6= 0, (R, +, 0). Dann ist ker f = {0}, im f = R. 58 KAPITEL 1. GRUNDLAGEN 2◦ Für f : R → R, f (x) = x(1 − x), R = (R, +, 0) haben wir ker f = {0, 1}, im f = R. In diesem Beispiel ist f kein Gruppenhomomorphismus Wir betrachten jetzt folgende Aufgabenstellung: Für einen gegebenen Gruppenhomomorphismus f : G1 → G2 führe man eine Partition von G1 ein, so dass f zu einem Ismorphismus wird. Eine Partition von G1 wird durch eine Äquivalenzrelation in G1 erzeugt. Wir betrachten die folgende Äquivalenzrelation: a1 ∼f b1 :⇔ f (a1 ) = f (b1 ) . (1.34) Durch überprüfen der Reflexivität, Symmetrie und Transitivität überzeugen wir uns, dass (1.34) tatsächlich eine Äquivalenzrelation ist. Weiterhin folgt aus (1.29) sofort die Eigenschaft a1 ∼f b1 ∧ c1 ∼f d1 ⇒ a1 ∗1 c1 ∼f b1 ∗1 d1 . (1.35) Damit ist die Äquivalenzrelation (1.34) strukturerhaltend. In diesem Fall spricht man auch von einer Kongruenzrelation. Durch (1.34) zerfällt G1 in einer Menge von Restklassen {[a1 ] : a1 ∈ G1 }, mit [a1 ] = {b1 ∈ G1 : f (a1 ) = f (b1 )} (1.36) Insbesondere ist (1.30) [e1 ] = {b1 ∈ G1 : f (e1 ) = e2 = f (b1 )} = ker f . (1.37) Die Verknüpfung von Restklassen kann man folgendermaßen definieren [a1 ] ∗1 [b1 ] := [a1 ∗1 b1 ] . (1.38) Aufgrund von (1.35) ist (1.38) wohl definiert. Wir können zeigen, dass die Menge der Restklassen (1.36) mit der Verknüpfung (1.38) und dem Element [e1 ] eine Gruppe bildet, die auch Faktorgruppe G1 /ker f genannt wird. Dass diese Bezeichnung gerechtfertigt ist, besagt folgender Satz. Theorem 1.56. Sei f : G1 → G2 ein Gruppenhomomorphismus. (G1 , ∗1 , e1 ) und (G2 , ∗2 , e2 ) seien die entsprechenden Gruppen. Dann ist G1 /kerf = ({[a1 ]}a1 ∈G1 , ∗1 , [e1 ]) eine Gruppe, die auch Faktorgruppe genannt wird. Beweis: Wegen [a1 ] ∗1 ([a2 ] ∗1 [a3 ]) = [a1 ∗1 (a2 ∗1 a3 )] = [(a1 ∗1 a2 ) ∗1 a3 ] = ([a1 ] ∗1 [a2 ]) ∗1 [a3 ] 1.4. GRUPPEN, RINGE, KÖRPER 59 ist die Klassenverknüpfung (1.38) assoziativ. Da [a1 ] ∗1 [e1 ] = [a1 ∗1 e1 ] = [a1 ] und [e1 ] ∗1 [a1 ] = [e1 ∗1 a1 ] = [a1 ] ist, ist [e1 ] tatsächlich das neutrale Element. Schließlich gilt [a1 ]−1 := [a−1 1 ], da [a1 ]−1 ∗1 [a1 ] = [a1 ] ∗1 [a1 ]−1 = [e1 ] . 60 KAPITEL 1. GRUNDLAGEN Es folgt unmittelbar der Homomorphiesatz für Gruppen: Theorem 1.57. Sei f : G1 → G2 ein Homomorphismus zwischen den Gruppen (G1 , ∗1 , e1 ) und (G2 , ∗2 , e2 ). Dann ist die Faktorgruppe G1 /ker f isomorph zur Untergruppe im f ⊂ G2 . Kurz: G1 /ker f ∼ = im f . Beweis Die Abbildung F : G1 /kerf → imf [a1 ] → f (a1 ) ist bijektiv. Außerdem ist F ein Homomorphismus, d.h die Eigenschaften (1.29) und (1.30) gelten. F ([a1 ] ∗1 [b1 ]) = (1.29) für f F ([e1 ]) = = F [a1 ∗1 b1 ] = f (a1 ∗1 b1 ) f (a1 ) ∗2 f (b1 ) = F [a1 ] ∗2 F [b1 ] , f (e1 ) = e2 . Übungsaufgaben Aufgabe 4.1 Prüfen Sie, ob die Zahlen √ 3 3, rational sind. √ 3+ √ 2 5 , √ √ √ 4 √ 2 2 + 3 + 10 2− 3 Aufgabe 4.2 Zeigen Sie, dass R und C gleichmächtig sind. Hinweis: Verwenden Sie die Darstellung der reellen Zahlen als nicht-abbrechende Dezimalzahlen. Aufgabe 4.3 Berechnen Sie Betrag und Argument der folgenden komplexen Zahlen √ a) z = 2 + 2 3 i , c) z = (4 − 2i) (1 + 3i) , b) z = (1 + i) + (1 + i)2 + (1 + i)3 + (1 + i)4 , √ √ (−1 + i 3)13 ( 3 + i)2 √ d) z = . (1 + i 3)11 1.4. GRUPPEN, RINGE, KÖRPER 61 Aufgabe 4.4 Bestimmen Sie die trigonometrische Darstellung des Produkts z1 z2 zweier komplexer Zahlen z1 = a1 + ib1 , z2 = a2 + ib2 und vergleichen Sie Betrag und Winkel mit denen der ursprünglichen Zahlen. Was fällt auf? Hinweis: cos(ϕ + ϑ) = cos ϕ cos ϑ − sin ϕ sin ϑ sin(ϕ + ϑ) = sin ϕ cos ϑ + cos ϕ sin ϑ 62 KAPITEL 1. GRUNDLAGEN Kapitel 2 Lineare Algebra In der linearen Algebra werden lineare Räume (Vektorräume) beschrieben und lineare Abbildungen in diesen Räumen untersucht. Vektoren werden verwendet, um die Lage und Bewegung von Punkten in der Ebene bzw. in drei oder n-dimensionalen Räumen zu beschreiben. Sie treten in vielen Anwendungen, z.B. in der Computer-Graphik, ComputerTomographie, in der Strömungs- und Festkörpermechanik (Kräfte, Geschwindigkeiten, Felder) in der Elektromechanik, Meteorologie, usw. auf. In diesem Kapitel werden Vektorräume eingeführt, lineare Abbildungen zwischen verschiedenen Vektorräumen beschrieben und in Form linearer Gleichungssysteme untersucht. Dazu werden grundlegende Begriffe wie lineare Unabhängigkeit, Basis, Dimension, Matrix und Determinante eingeführt. Weiterhin werden Eigenwerte, Eigenvektoren und Diagonalisierbarkeit von Matrizen behandelt, sowie Vektorräume mit Skalarprodukt untersucht. Als Literatur wird empfohlen [3, Kapitel 5], [4], [5, Kapitel 6-10], [8, 2. Teil]. 2.1 Vektorräume Wir erinnern zunächst an das kartesische Produkt R2 = R×R, bzw. Rn = R | ×R× {z· · · × R} n−mal als Mengen geordneter Paare (x1 , x2 ) bzw. geordneter n-Tupel x = (x1 , x2 , . . . , xn ), xi ∈ R, i = 1, 2, . . . , n. In Rn kann eine Addition definiert werden: x + y = (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ), die (Rn , +) zu einer kommutativen Gruppe macht. Das neutrale Element ist 0 = (0, 0, . . . , 0), das inverse Element zu x ist −x = (−x1 , −x2 , . . . , −xn ). Weiterhin kann die Multiplikation auf Rn mit skalaren“ Elementen α ∈ R eingeführt ” werden αx = α(x1 , x2 , . . . , xn ) := (αx1 , . . . , αxn ). 63 64 KAPITEL 2. LINEARE ALGEBRA Es gilt für α, β ∈ R: α(x + y) = αx + αy, (αβ)x = α(βx), (α + β)x = αx + βx. Diese Verknüpfungen (Addition in Rn und Multiplikation auf Rn mit skalaren Elementen aus einem Zahlenkörper) motivieren die Definition eines Vektorraums, der auch linearer Raum genannt wird. Definition 2.1. Sei K ein Körper, dessen neutrales Element bezüglich der Multiplikation mit 1 bezeichnet wird. V sei eine Menge mit einer Verknüpfung +“ :V × V → V , so dass ” (V, +) eine kommutative Gruppe ist. Die Verbindung von K und V sei durch eine Multiplikation K × V → V, (α, x) → αx beschrieben, wobei für alle α, β ∈ K und für alle x, y die folgenden Eigenschaften gelten: (αβ)x = α(βx), 1x = x, (α + β)x = αx + βx, α(x + y) = αx + αy. (2.1) (2.2) (2.3) (2.4) Dann heißt V Vektorraum bzw. linearer Raum über dem Körper K, kurz K-Vektorraum geschrieben. Die Elemente von V heißen Vektoren. Ist K = R, bzw. K = C, dann spricht man von reellen bzw. komplexen Vektorräumen. Beispiele 1◦ Rn mit K = R, Qn mit K = Q und Cn mit K = C sind Vektorräume, ebenso Cn mit K = R. 2◦ Sei M = {f : R → R} die Menge aller Abbildungen (Funktionen) von R in R. Durch die Verknüpfungen (f + g)(x) :=f (x) + g(x) ∀ f, g ∈ M, ∀ x ∈ R, (αf )(x) := αf (x) ∀ f ∈ M, ∀ α, x ∈ R wird die Menge M zu einem reellen Vektorraum. Definition 2.2. Sei V ein K-Vektorraum. Eine nichtleere Teilmenge V0 ⊆ V heißt Teilvektorraum oder Untervektorraum falls gilt: 1. Sind x, y Elemente aus V0 , dann ist auch x+y ∈ V0 , d.h. V0 ist bezüglich der Addition in V abgeschlossen. 65 2.1. VEKTORRÄUME 2. Ist x ∈ V0 , dann ist auch αx ∈ V0 für alle α ∈ K, d.h. V0 ist unter der Multiplikation mit Skalaren abgeschlossen, insbesondere gilt 0 ∈ V0 . Beispiel V = R2 ist ein R-Vektorraum, M = R × {0} ⊂ R × R ist Teilvektorraum, d.h. R = {(a, 0) : a ∈ R} ⊂ {(a, b) : a ∈ R, b ∈ R}. Lineare Abhängigkeit, Basen Im Vektorraum V waren die Addition und die Multiplikation mit Skalaren“ aus dem ” Körper K definiert. Diese Verknüpfungen können auf endlich viele Elemente in Form einer Linearkombination übertragen werden. Definition 2.3. Sei V ein Vektorraum über dem Körper K. M ⊂ V sei eine Teilmenge. Ein Element x ∈ V heißt Linearkombination von Elementen aus M, falls es eine endliche Menge Mx ⊂ M gibt, so dass x in der Gestalt X αm m x= m∈Mx mit αm ∈ K, darstellbar ist. Span(M) = {x ∈ V : x ist Linearkombination von Elementen aus M} heißt der von M aufgespannte Teilvektorraum von V . Span(M) wird auch lineare Hülle von M genannt. Wir überzeugen uns davon, dass Span(M) ein Vektorraum über K ist. Dazu zeigen wir zunächst folgendes Lemma. Lemma 2.4. Sei V ein Vektorraum über dem Körper K, α ∈ K und x ∈ V . Dann ist αx = 0 genau dann, wenn α = 0 oder x = 0 ist. Beweis a) Wir nehmen an, dass α = 0 oder x = 0 ist. Aus α = 0 folgt für ein β ∈ K βx = (β + 0)x = βx + 0x, also ist 0x = 0 das neutrale Element. Aus x = 0 folgt, αy = α(0 + y) = α0 + αy. Damit ist α0 = 0. b) Es sei αx = 0 und α 6= 0. Dann ist x = 1 · x = (α−1 α)x = α−1 (αx) = 0. Es sei αx = 0 und x 6= 0. Wäre α 6= 0, dann existiert α−1 mit α−1 (αx) = α−1 0 = 0 = x, was zu einem Widerspruch führt. Lemma 2.5. Für M 6= ∅ ist Span(M) ist ein K-Teilvektorraum von V . 66 KAPITEL 2. LINEARE ALGEBRA Beweis Die Addition, die in V erklärt ist, gilt auch für Elemente (x, y) ∈ Span(M) × Span(M): X X βm m αm m + x+y = m∈Mx = X m∈My γm m. m∈Mx ∪My Die Addition ist kommutativ. Das neutrale Element 0 = 0m, m∈M befindet sich in Span(M) nachP Lemma 2.4. Ist x ∈ Span(M), d.h. x = m∈Mx αm m, dann ist das inverse Element bezüglich der Addition X (−αm )m x−1 = m∈Mx ebenfalls in Span(M). Die Eigenschaften (2.1)-(2.4) gelten. Beispiele 1◦ Wir betrachten den Vektorraum R3 = R × R × R. Die Menge M besteht aus 2 Dreiertupeln M = {(1, 0, 0), (0, 1, 0)}. Dann ist Span(M) = {x = (x1 , x2 , x3 ) : x = α(1, 0, 0) + β(0, 1, 0) = (α, β, 0), α, β ∈ R}, d.h. Span(M) ⊂ R3 beschreibt eine Ebene, die durch die Vektoren (3er-Tupel) (1, 0, 0), (0, 1, 0) aufgespannt wird, siehe Abbildung 2.1. 2◦ Wir betrachten wieder den Vektorraum R3 und die Menge M = {(1, 0, 0), (−1, 0, 0)}. Dann ist Span(M) = {x = (x1 , x2 , x3 ) ∈ R3 : x = (α, 0, 0), α ∈ R}, d.h. Span(M) stimmt mit der x1 -Achse überein, siehe Abbildung 2.2. Im ersten Beispiel waren die Elemente von M linear unabhängig, im 2. Beispiel linear abhängig. Die lineare Unabhängigkeit von Elementen einer Menge M wird wie folgt definiert. 67 2.1. VEKTORRÄUME x3 x2 Span(M) x1 Abbildung 2.1: x1 − x2 -Ebene Definition 2.6. Sei V ein K-Vektorraum. Eine Menge M ⊂ V besteht aus linear unabhängigen Elementen, falls für jede endliche nichtleere Teilmenge M̃ ⊂ M gilt: Aus X αm m = 0, αm ∈ K (2.5) m∈M̃ folgt αm = 0 für alle m ∈ M̃ . Ist M eine endliche Menge, dann braucht in (2.5) nur M̃ = M betrachtet werden. Wir sehen uns die vorherigen Beispiele an. 1◦ Es sei M = {(1, 0, 0), (0, 1, 0)}. Wir betrachten die Linearkombination (2.5) X αm m = (α1 , α2 , 0) = 0 = (0, 0, 0). m∈M Es folgt α1 = α2 = 0. 2◦ Es sei M = {(1, 0, 0), (−1, 0, 0)}. Die Linearkombination (2.5) lautet α(1, 0, 0) + β(−1, 0, 0) = (α − β, 0, 0) = (0, 0, 0), woraus α = β folgt. 68 KAPITEL 2. LINEARE ALGEBRA x3 1111111111 0000000000 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 Span(M) 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 00000 11111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 x2 x1 Abbildung 2.2: Span(M) Definition 2.7. Eine Menge B ⊂ V heißt Basis des Vektorraums V , falls B aus linear unabhängigen Elementen besteht und Span(B) = V ist. Beispiel 1◦ Im Rn bildet die Menge der Vektoren B = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 1)} eine Basis, aus Einheitsvektoren, die sehr häufig betrachtet und im Folgenden Standardbasis genannt wird. 2◦ Im R2 bilden die Vektoren B = {(a, b), (−b, a)} (a, b) 6= (0, 0) eine Basis. Wir zeigen, dass B aus linear unabhängigen Vektoren besteht. Sei α(a, b) + β(−b, a) = (αa − βb, αb + βa) = (0, 0). 69 2.1. VEKTORRÄUME Dann muss αa − βb = 0, αb + βa = 0 (2.6) (2.7) ist. Durch Einsetzen von α in (2.7) erhalten wir sein. Es folgt aus (2.6), dass α = βb a = 0 folgt. β(b2 + a2 ) = 0, woraus β = 0 und schließlich α = βb a Weiterhin enthält Span(B) die Einheitsvektoren (1, 0) und (0, 1), durch die der ganze Raum R2 aufgespannt wird. Theorem 2.8. Sei B ⊂ V eine Basis des K-Vektorraums V . Jedes x ∈ V kann eindeutig als X x= αe e e∈B mit αe ∈ K, e ∈ B, αe 6= 0 nur für endlich viele e ∈ B, dargestellt werden. Beweis Es sei x= X αe e = e∈B Dann ist 0= X e∈B X βe e. e∈B (αe − βe )e. Wegen der linearen Unabhängigkeit der Elemente e ∈ B folgt αe = βe . Die Elemente αe ∈ K heißen Koordinaten von x bezüglich der Basis B. Beispiel 1◦ Wir betrachten den Rn und schreiben die Elemente (n-Tupel) des kartesischen Produktes in Spaltenform x1 x2 x = .. . . xn 70 KAPITEL 2. LINEARE ALGEBRA Sei B die Standardbasis im Rn 0 0 1 0 1 0 0 0 0 B = , ,..., . .. .. .. . . . 0 1 0 (2.8) Dann ist x folgenderweise darstellbar 0 0 1 x1 0 1 0 x2 x = x3 = x1 0 + x2 0 + · · · + xn 0 , .. .. .. .. . . . . 1 0 0 xn d.h. xi ist die i-te Koordinate bezüglich der Standardbasis. 2◦ Koordinatendarstellung zu zwei unterschiedlichen Basen Wir betrachten die Basis 4 4 1 −2 1 2 B1 = , , 1 −2 2 und die Basis 3 2 1 2 1 3 . B2 = , , 3 2 1 14 Wir stellen den Vektor 11 in der Standardbasis als Linearkombination von 11 Elementen aus B1 bzw. B2 dar: 14 4 4 1 1 11 = 1 −2 + 1 1 + 6 2 = 1 11 standard 1 −2 2 6 B1 1 3 2 1 = 1 2 + 3 1 + 2 3 = 3 . 3 2 1 2 B 2 71 2.1. VEKTORRÄUME Lemma 2.9 (Austausch eines Basiselements). Sei B ⊂ V eine Basis des K-Vektorraums V . Wir betrachten ein Element e0 ∈ B und ein Element f0 6= 0 aus V mit der Darstellung X f0 = αe e, αe0 = 6 0. (2.9) e∈B Dann ist auch B̂ = (B \ {e0 }) ∪ {f0 } eine Basis. Beweis a) Wir zeigen zunächst, dass B̂ aus linear unabhängigen Elementen besteht. Dazu betrachten wir die Gleichung X βe e = 0. (2.10) βf0 f0 + e∈B e6=e0 Mit der Darstellung (2.9) erhalten wir X X X (βf0 αe + βe )e = 0. βe e = βf0 αe0 e0 + αe e) + βf0 (αe0 e0 + e∈B e6=e0 e∈B e6=e0 e∈B e6=e0 Da die Elemente e ∈ B linear unabhängig sind, folgt βf0 αe0 = 0, βf0 αe + βe = 0 für e 6= e0 . Da αe0 6= 0 ist, muss βf0 = 0 sein und daher βe = 0 für e 6= e0 . Damit verschwinden alle Koeffizienten in (2.10). b) Wir zeigen, dass jedes x ∈ V Linearkombination von Elementen aus B̂ ist. Aus der Darstellung (2.9) von f0 folgt X αe0 e0 = f0 − αe e, e∈B e6=e0 e0 = X αe f0 − e. αe0 e∈B αe0 (2.11) e6=e0 Sei x beliebig aus V . Die Darstellung von x bezüglich der Basis B lautet X γe e. x = γe0 e0 + e∈B e6=e0 Unter der Beachtung von (2.11) erhalten wir daraus eine Darstellung bezüglich der Basis B̂: X γ e0 γ e0 γe − f0 + αe e. x= αe0 αe0 e∈B e6=e0 72 KAPITEL 2. LINEARE ALGEBRA Lemma 2.10 (Austausch von k Basiselementen). Sei V ein K-Vektorraum mit der Basis B. Seien f1 , . . . , fk linear unabhängige Elemente aus V , fi 6= 0, i = 1, . . . , k. Dann gibt es e1 , . . . , ek Elemente aus B, so dass auch B̂ = (B \ {e1 , . . . , ek }) ∪ {f1 , . . . , fk } eine Basis ist. Beweis Das Element f1 besitzt eine Darstellung bezüglich B: X f1 = αe e 6= 0. e∈B Es gibt ein Element e1 ∈ B, so dass αe1 6= 0 ist. Daher ist nach Lemma 2.9 B̂ = (B \ {e1 }) ∪ f1 eine Basis. Nun betrachten wir f2 ∈ V und ein Element e2 ∈ B̂ ∩ B, so dass X f2 = βê ê und βe2 6= 0 ê∈B̂ ist. Ein solches Element e2 muss existieren, da die fi , i = 1, . . . , k, linear unabhängig sind. Diesen Prozess setzen wir fort und erhalten die Behauptung. Beispiel: Austausch von k-Basisvektoren Wir betrachten den R4 mit der Standardbasis S = {e1 , e2 , e3 , e4 }. Wir wollen e1 , e2 und e3 durch die Vektoren 0 1 1 1 0 1 f1 = 1 , f2 = 1 , f3 = 1 . 0 0 0 ersetzen. Es ist 0 0 1 1 1 0 1 0 f1 = 1 = 0 + 0 + 1 = 1e1 + 1e2 + 1e3 + 0e4 . 0 0 0 0 Wir ersetzen e2 durch f1 . Das ist möglich, da schwindet. Damit wird 1 1 0 1 , B1 = 0 1 0 0 (2.12) der Koeffizient vor e2 in (2.12) nicht ver- 0 0 , 1 0 0 0 , 0 1 73 2.1. VEKTORRÄUME eine neue Basis. Wir betrachten jetzt f2 : 0 1 1 0 0 0 f2 = 1 = 0 + 1 = 1e1 + 0f1 + 1e3 + 0e4 . 0 0 0 Wir ersetzen e2 durch f2 und erhalten die Basis B2 : 1 1 1 1 0 , , 0 B2 = 0 1 1 0 0 0 0 0 , . 0 1 Nun sehen wir uns f3 an: 1 1 0 0 1 1 f3 = 1 = − 0 + 1 = −1e1 + 1f1 + 0f2 + 0e4 . 0 0 0 Es ist nur sinnvoll, e1 durch f3 zu ersetzen (Koeffizient 6= 0). Damit ist die gewünschte Basis 0 1 1 0 1 1 0 0 B3 = , , , . 0 1 1 1 1 0 0 0 Aus Lemma 2.10 folgt der Satz: Theorem 2.11. Sei V ein K-Vektorraum mit einer Basis von n Elementen. Jede weitere Basis besitzt ebenfalls n Elemente. Beweis Seien B = {e1 , . . . , en } und B̂ = {ê1 , . . . , êm } zwei Basen. Wir nehmen an, dass m > n ist. Nach Lemma 2.10 ist jedoch {ê1 , . . . , ên } bereits eine Basis und die Menge B̂ wäre linear abhängig. Dies ist ein Widerspruch und m muss gleich n sein. Existenz von Basen In unseren Beispielen hatten wir bisher gegebene Basen betrachtet. Erinnern wir uns an den Vektorraum V = {f : f : R → R}, so sieht man nicht unmittelbar, dass in diesem Raum eine Basis existiert. Die Frage nach der Existenz von Basen ist also durchaus sinnvoll. 74 KAPITEL 2. LINEARE ALGEBRA Es gilt: Jeder Vektorraum besitzt eine Basis. Um dies zu beweisen benötigt man Axiome aus der Mengenlehre. Wir verzichten hier auf den Beweis und verweisen auf [2, S. 261]. Jedoch können wir in sogenannten endlich erzeugten “ Vektorräumen leicht eine Basis ” konstruieren. Definition 2.12. Ein Vektorraum V heißt endlich erzeugt, wenn es endlich viele Elemente v1 , . . . , vn ∈ V gibt, so dass Span({v1 , . . . , vn }) = V ist. Theorem 2.13. Jeder endlich erzeugte Vektorraum V besitzt eine Basis. Beweis Wir wählen aus der Menge {v1 , . . . , vn } eine größte Teilmenge aus, die linear unabhängig ist. Dies sei B = {v1 , . . . , vr }, r ≤ n. B ist Basis von V . Da wir festgestellt haben, dass jeder Vektorraum eine Basis besitzt, können wir jetzt definieren, was wir unter der Dimension eines Vektorraums verstehen. Dazu bemerken wir, dass zwei Basen in V stets die gleiche Mächtigkeit besitzen. Definition 2.14. 1) v = {0} besitzt die Dimension 0. 2) Besitzt V 6= {0} eine Basis aus n Elementen, dann hat V die Dimension n, d.h. dimV = n. 3) Besitzt V eine unendliche Basis, dann ist V unendlich-dimensional. Wir schreiben dimV = ∞. Wir können also kurz formulieren: Ist V 6= {0}, dann ist die Dimension von V gleich der Anzahl der Basiselemente. Vektorrechnung im Rn In diesem Abschnitt gehen wir auf die geometrische Veranschaulichung der Rechenoperatoren, Koordinatendarstellung und der Beschreibung von Geraden und Ebenen im Rn ein, indem wir die Darstellung durch Pfeile benutzen. Es sei V = Rn der n-dimensionale Vektorraum mit der bereits zu Beginn dieses Abschnittes eingeführten Addition und der Multiplikation mit Skalaren aus K = R. Wir betrachten die Standardbasis B. Die Koordinatendarstellung eines Elements (Vektors) 75 2.1. VEKTORRÄUME aus V lautet also 0 0 . . . ei = 1 ← i-te Stelle. . .. 0 0 x1 n .. X xi ei , x= . = xn i=1 (2.13) Die geometrische Darstellung des Elements x erfolgt im R2 und R3 auch durch den sogenannten Ortsvektor ~x, einem Pfeil vom 0-Element (Nullpunkt) zum x-Element (Punkt x). x3 ~x ~y x x2 x1 Abbildung 2.3: Ortsvektor ~x und freier Vektor ~y Die Ortsvektoren können im Rn durch Drehungen und Verschiebungen bewegt werden. Der Anfangspunkt eines solchen entstandenen freien “ Vektors braucht also nicht im Null” punkt zu liegen. Um eine bijektive Abbildung zwischen der Menge der freien Vektoren“ ” und der Koordinatendarstellung (2.13) zu erhalten, wird eine Äquivalenzrelation in der Menge der freien Pfeilvektoren “ eingeführt: ” Zwei freie Vektoren ~x und ~y sind äquivalent, falls Länge und Richtung der entsprechenden Pfeile übereinstimmen (siehe Abbildung 2.4). Wir können stets einen Vertreter der Äquivalenzklasse finden, dessen Ausgangspunkt im Nullpunkt liegt und der durch den Index 0 gekennzeichnet wird. Damit wird die Menge der Äquivalenzklassen der freien Pfeilvektoren auf den R2 oder den R3 bijektiv abgebildet. Dies sei durch die Abbildung f : {Äquivalenzklassen freier Vektoren} → Rn , n = 2, 3 realisiert. Wir beschreiben Summe und Differenz zweier freier Pfeilvektoren. Die Summe zweier freier Pfeilvektoren ~x und ~y (o.B.d.A. Endpunkt von ~x=Ausgangspunkt von ~y ) ist der Pfeilvektor, der vom Ausgangspunkt von ~x zum Endpunkt von ~y führt. 76 KAPITEL 2. LINEARE ALGEBRA Abbildung 2.4: äquivalente freie Pfeilvektoren ~y ~x ~x + ~y Abbildung 2.5: Addition zweier freier Pfeilvektoren Wir überzeugen uns, dass für die bijektive Abbildung f : {Äquivalenzklassen freier Vektoren} → R2 gilt f (~x + ~y ) = f (~x) + f (~y) = x + y. Dazu betrachten wir die zu ~x und ~y äquivalenten Ortsvektoren ~x0 , ~y0 deren Ausgangspunkt der Nullpunkt ist. Dann ist ~x0 + ~y0 der Ortsvektor zu x + y (siehe Abbildung 2.6). x2 ~y ~x0 = ~x (x1 + y1 , x2 + y2 ) ~x + ~y ~y0 x1 Abbildung 2.6: Ortsvektor zu x + y Die Differenz zweier freier Pfeilvektoren ist durch ~x − ~y = ~x + (−~y ) erklärt (siehe Abbildung 2.7). Die Multiplikation eine Pfeilvektors ~x mit α ∈ R ergibt einen Pfeilvektor, dessen Länge das |α|-fache der Länge von ~x beträgt. Seine Richtung stimmt mit der Richtung von ~x überein, falls α > 0 ist; für α < 0 ist sie entgegengesetzt. 77 2.1. VEKTORRÄUME −~y (~x − ~y )0 ~x0 −~y0 0 ~x − ~y ~y0 Abbildung 2.7: Differenz zweier freier Vektoren α~x ~x −|α|~x α~x 0<α<1 α>1 α<0 Abbildung 2.8: Multiplikation eines Pfeilvektors mit einem Skalar Geraden und Ebenen im Rn Wir beschreiben zunächst Geraden im Rn . Definition 2.15. Die Teilmenge G ⊂ Rn ist eine Gerade, wenn es Elemente x, y ∈ Rn gibt, so dass G = {z ∈ Rn : ∃ α ∈ R, so dass z = x + αy}. Diese Darstellung heißt Parameterdarstellung (α ∈ R ist der Parameter). Ist x = 0, so ist G eine Gerade durch den Nullpunkt. Eine Gerade, die durch die Punkte x und y verläuft hat die Parameterdarstellung G = {z ∈ Rn : ∃ α ∈ R, so dass z = x + α(y − x)}. Diese Definition gilt auch in allgemeinen Vektorräumen V , d.h. eine Gerade ist durch zwei Vektoren x und y eindeutig bestimmt. Bei der Definition von Ebenen werden wir auf drei Vektoren zurückgreifen. 78 KAPITEL 2. LINEARE ALGEBRA G ~x0 ~y0 Abbildung 2.9: Parameterdarstellung der Geraden G ~y − ~x ~x G ~y Abbildung 2.10: Gerade durch x und y Definition 2.16. Eine Teilmenge E ⊂ Rn nennen wir Ebene, wenn es drei Vektoren u, v, w ∈ Rn gibt, mit E = {x ∈ Rn : ∃ α, β ∈ R, so dass x = u + αv + βw}. Dies ist ebenfalls eine Parameterdarstellung. Eine Ebene, die durch die Punkte u, v, w verläuft, hat die Darstellung E = {x ∈ Rn : ∃ α, β ∈ R, so dass x = u + α(v − u) + β(w − u)}. Es ist u x = u + α(v − u) + β(w − u) = v w für α = β = 0, für α = 1, β = 0, für α = 0, β = 1. 79 2.1. VEKTORRÄUME x3 E ~v w ~ ~u x2 x1 Abbildung 2.11: Ebene durch u, v, w Übungsaufgaben Aufgabe 5.1 Sei V = R × R+ = {(x, y) : x ∈ R, y ∈ R, y > 0}, sowie ⊕ : V × V → V , (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 · y2 ) und ⊙ : R × V → V , α ⊙ (x, y) = (αx, y α ). Prüfen Sie, ob dadurch ein reeller Vektorraum definiert wird. Aufgabe 5.2 Geben Sie alle Möglichkeiten an, aus den 5 Vektoren 1 1 1 −3 2 , , , , 0 −1 1 3 0 eine Basis für R2 auszuwählen und stellen Sie den Vektor 5 3 in jeder der Basen dar. Aufgabe 5.3 Die Bernsteinpolynome bnk (x) = n k xk (1 − x)n−k , k = 0, . . . , n bilden eine Basis des Vektorraums der Polynome vom Grad ≤ n , ( ) n X Pn = p(x) = αk xk , αk ∈ R . k=0 Überprüfen Sie dies für den Fall n = 3 und stellen Sie die Polynome p0 (x) = 1 und p3 (x) = x3 in dieser Basis dar. 80 KAPITEL 2. LINEARE ALGEBRA 2.2 Lineare Abbildungen von Vektorräumen Sind Elemente, Geraden bzw. Ebenen in einem Vektorraum gegeben, so können wir sie bewegen bzw. verkleinern oder vergrößern, indem wir eine Verschiebung (Translation), eine Drehung (Rotation), eine Streckung oder Stauchung bzw. Scherung vornehmen. Drehungen, Stauchungen oder Streckungen und Scherungen können durch lineare Abbildungen beschrieben werden. Wir beginnen mit der Definition einer linearen Abbildung. Definition 2.17. Seien V und W K-Vektorräume. Eine Abbildung f f :V →W heißt linear, falls gilt • f (x + y) = f (x) + f (y) für alle x, y ∈ V , kurz: f ist additiv. • f (αx) = αf (x) für alle α ∈ K und x ∈ V , kurz: f ist homogen. Damit ist f eine strukturerhaltende Abbildung, f (0V ) = 0W . Die Menge aller linearen Abbildungen von V in W wird als L(V, W ) bezeichnet. Beispiele 1◦ Es sei V = W = R2 . Die Abbildung f : R2 → R2 , x1 −x2 f = x2 x1 ist linear. Geometrisch beschreibt f eine Drehung nach links“ um 90◦ (siehe Ab” bildung 2.12). x2 (x1 , x2 ) (−x2 , x1 ) 11111111111111x 00000000000000 1 Abbildung 2.12: Drehung um 90◦ 2.2. LINEARE ABBILDUNGEN VON VEKTORRÄUMEN 81 x3 (x1 , x2 , x3 ) (x1 , x2 ) x2 x1 Abbildung 2.13: Projektion auf die x1 x2 -Ebene 2◦ Es sei V = R3 , W = R2 . Die Abbildung f : R3 → R2 x1 x1 f x2 = x2 x3 ist eine Projektion (siehe Abbildung 2.13), f ist linear. 3◦ Es sei V = R2 , W = R3 . Wir betrachten zwei feste Elemente u und v ∈ W . Wir betrachten die Abbildung f : V → W, x1 f = x1 u + x2 v. x2 Die Abbildung f ist linear, das Bild beschreibt eine Ebene durch den Nullpunkt. 4◦ Es sei V = W = R, f : V → W, f (x) = ax + b, wobei a und b feste reelle Zahlen sind und a 6= 0, b 6= 0. Die Abbildung f ist nicht linear: f (x + y) = a(x + y) + b 6= f (x) + f (y) = a(x + y) + 2b. x1 x1 ◦ 2 5 Es sei V = W = R , f : V → W, f = . Die Abbildung f ist nicht linear x2 x22 αx1 x1 αx1 f (αx) = f 6= αf = α2 x22 x2 αx22 für α 6= 0, α 6= 1. 6◦ Es sei V = W = Rn , f : V → W , α1 x1 x1 α2 x2 x2 f .. = f .. , . . αn xn xn αi > 0 . 82 KAPITEL 2. LINEARE ALGEBRA Diese Abbildung ist linear und beschreibt die Streckung bzw. Stauchung der einzelnen Komponenten um den Faktor αi . Wir charakterisieren jetzt Vektorräume, die als gleich“ angesehen werden können. ” Definition 2.18. Seien V und W K-Vektorräume. Eine bijektive lineare Abbildung f : V → W heißt Isomorphismus. Zwei K-Vektorräume V und W heißen isomorph (geschrieben als V ∼ = W ), falls es einen Isomorphismus f : V → W gibt. Beispiel Sei V ein n-dimensionaler K-Vektorraum mit der Basis B = {e1 , . . . , en }. Jedes x ∈ V ist eindeutig darstellbar als n n X X αi (x)ei . x= αi ei = i=1 i=1 Die Abbildung α1 (x) f : V → K n , f (x) = ... αn (x) (2.14) ist ein Isomorphismus. Dieser Isomorphismus heißt Koordinatendarstellung zur Basis B. Lineare Abbildungen f sind durch ihre Werte auf einer Basis vollständig bestimmt. Dies wird durch nachfolgendes Lemma genauer ausgedrückt. Lemma 2.19. Seien V und W K-Vektorräume und B ⊂ V eine Basis. Jedem e ∈ B sei durch die lineare Abbildung f ein Element ê ∈ W zugeordnet. f ist eindeutig bestimmt, d.h. es gibt genau eine lineare Abbildung f :V →W mit f (e) = ê. Beweis Jedes x ∈ V hat die Darstellung x= X αe e, e∈B αe = αe (x) ∈ K, wobei nur endlich viele αe (x) 6= 0 sind. Für eine beliebige lineare Abbildung f : V → W gilt ! X X f (x) = f αe (x)e = αe (x)f (e). (2.15) e∈B e∈B 2.2. LINEARE ABBILDUNGEN VON VEKTORRÄUMEN 83 P Sei f (e) = ê. Dann ist f (x) := e∈B αe (x)ê für alle x ∈ V . Für jede weitere lineare Abbildung g : V → W mit g(e) = ê gilt (2.15) X g(x) = αe (x)ê e∈B und damit muss f = g sein. Theorem 2.20. Wir betrachten die K-Vektorräume V und W und eine lineare Abbildung f : V → W . Dann sind die Mengen im(f ) = f (V ) = {f (x) : x ∈ V } ⊂ W, ker(f ) = {x ∈ V : f (x) = 0} ⊂ V (Bildmenge, image) (Kern, kernel) Teilvektorräume. Beweis Wir müssen zeigen, dass im(f ) und ker(f ) bezüglich der Addition und der Multiplikation mit Skalaren abgeschlossen sind. Wir sehen uns zunächst im(f ) an. Seien w1 , w2 ∈ im(f ). Es gibt Elemente x1 und x2 ∈ V , so dass w1 = f (x1 ) und w2 = f (x2 ) ist. Da f linear ist, gilt w1 + w2 = f (x1 ) + f (x2 ) = f (x1 + x2 ) ∈ im(f ). Weiterhin ist für ein w = f (x) ∈ W : αw = αf (x) = f (αx) ∈ im(f ). Für ker(f ) werden analoge Überlegungen ausgeführt. Die Dimensionen der Teilvektorräume im(f ) und ker(f ) hängen wie folgt zusammen: Theorem 2.21 (Dimensionssatz). Sei V ein n-dimensionaler und W ein beliebiger KVektorraum; f : V → W eine lineare Abbildung. Dann ist n = dim(V ) = dim(ker(f )) + dim(im(f )). Beweis Nach Lemma 2.10 über den Austausch von Basisvektoren ist stets eine solche Basis B = {e1 , e2 , . . . , er , er+1 , . . . , en } von V wählbar, dass Bker(f ) = {e1 , e2 , . . . , er }, r ≤ n, 84 KAPITEL 2. LINEARE ALGEBRA Basis von ker(f ) ist. Wegen der Linearität von f ist im(f ) = Span{f (er+1 ), . . . , f (en )}. Wir zeigen, dass die Elemente f (er+1 ), . . . , f (en ) linear unabhängig sind und damit eine Basis von im(f ) bilden. Dazu betrachten wir eine verschwindende Linearkombination ! n−r n−r X X αr+j f (er+j ) = f 0= αr+j er+j . j=1 j=1 Pn−r Damit ist j=1 αr+j er+j aus ker(f ) und kann als Linearkombination der Basiselemente e1 , . . . , er dargestellt werden, n−r X αr+j er+j = j=1 r X βi ei . i=1 Es folgt, dass r X i=1 βi ei − n−r X αr+j er+j = 0 j=1 ist. Da B = {e1 , . . . , en } aus linear unabhängigen Elementen besteht, müssen die Koeffizienten αr+j = 0 für j = 1, . . . , n − r sein. Folgerung Ein Isomorphismus zwischen zwei n-dimensionalen Vektorräumen bildet Basen aufeinander ab. Umgekehrt, falls f Basen zweier n-dimensionaler Räume aufeinander abbildet, dann ist f ein Isomorphismus (ker(f ) = {0}). Bezeichnung: Sei f ∈ L(V, W ). V, W K-Vektorräume. Wir bezeichnen als Rang von f dim(im(f )) = dim(f (V )) = Rang(f ). 2.3 Matrizen Wir hatten lineare Abbildungen eines K-Vektorraums V in den K-Vektorraum W im vorherigen Abschnitt betrachtet. Wir betrachten jetzt endlichdimensionale K-Vektorräume V und W ; {v 1 , . . . , v s } sei Basis von V , {w 1 , . . . , wr } sei Basis von W . Sei f eine lineare Abbildung von V in W . Es gibt eindeutig bestimmt Zahlen aij ∈ K, die die Koordinaten der Basisdarstellung von f (v j ) sind: f (v j ) = r X i=1 aij wi , j = 1, . . . , s. (2.16) 85 2.3. MATRIZEN Nach Lemma 2.19 ist die lineare Abbildung f durch die Elemente aij ∈ K, 1 ≤ i ≤ r, 1 ≤ j ≤ s eindeutig bestimmt. Wir ordnen die Menge {aij } 1≤i≤r in Form einer Matrix an. 1≤j≤s Definition 2.22. Sei K ein Körper, r, s rechteckiges Schema a11 a21 A = .. . ar1 ∈ N und aij ∈ K, 1 ≤ i ≤ r, 1 ≤ j ≤ s. Ein a12 . . . a1s a22 . . . a2s .. .. .. . . . ar2 . . . ars heißt (r × s) Matrix über K. A besitzt r Zeilen und s Spalten. Der erste Index ist der a1j a2j Zeilenindex, der zweite der Spaltenindex. Die Vektoren .. heißen Spaltenvektoren, . arj j = 1, . . . , s. Die Vektoren (ai1 , . . . , ais ), i = 1, . . . , r, heißen Zeilenvektoren. Aus den obigen überlegungen folgt: Lemma 2.23. Sei V ein s-dimensionaler K-Vektorraum mit der Basis {v1 , . . . , vs } und W ein r-dimensionaler K-Vektorraum mit der Basis {w1 , . . . , wr }. Jeder linearen Abbildung f : V → W wird durch (2.16) eine eindeutig bestimmte Matrix A = (aij ) 1≤i≤r zugeordnet. 1≤j≤s Umgekehrt wird durch eine gegebene r × s Matrix A durch (2.16) eine lineare Abbildung f : V → W definiert. Dabei sind die Spaltenvektoren von (aij ) die Koordinatenvektoren der Bilder der Basisvektoren von V . Beispiele 1◦ Wir betrachten den R2 mit der Standardbasis und die lineare Abbildung f : R2 → R2 mit x2 x1 . = f −x1 x2 Die Gleichungen (2.16) lauten 1 0 1 0 f = =0 −1 , 0 −1 0 1 0 1 1 0 f = =1 +0 . 1 0 0 1 Damit ist a11 = 0, a21 = −1, a12 = 1, a22 = 0 und 0 1 . A= −1 0 86 KAPITEL 2. LINEARE ALGEBRA Bemerkung: Eine Drehung um den Winkel ϑ nach links kann mit Hilfe der Matrix cos ϑ sin ϑ A= sin ϑ cos ϑ beschrieben werden. 2◦ Es sei V = R3 , W = R2 mit den entsprechenden Standardbasen. Wir betrachten die Projektion x1 x1 f x2 = . x2 x3 Wir sehen uns die Gleichungen (2.16) an: 1 0 1 1 , +0 f 0 = =1 1 0 0 0 0 0 1 0 , +1 f 1 = =0 1 0 1 0 0 0 1 0 f 0 = =0 +0 . 0 0 1 1 Die entsprechende (2 × 3) Matrix A lautet 1 0 0 . A= 0 1 0 1 0 3 Es sei V = R mit der Standardbasis und W = R , versehen mit der Basis , . 1 1 Sei wie in Beispiel 2◦ x1 x1 f x2 = . x2 x3 Dann ist 1 1 1 0 f 0 = =1 −1 , 0 1 1 0 0 0 1 0 , +1 f 1 = =0 1 1 1 0 0 0 1 0 f 0 = =0 +0 0 1 1 1 ◦ 3 2 87 2.3. MATRIZEN und somit  = 1 0 0 . −1 1 0 Dieses Beispiel zeigt, dass A und  verschieden sind und somit von der Wahl der Basen abhängen. Das Bild eines allgemeinen Vektors Bisher hatten wir uns angesehen, wohin die Basisvektoren durch eine lineare Abbildung abgebildet werden. Wir sehen uns jetzt das Bild eines beliebigen Elementes v ∈ V an. Es ist ! ! s r r s s s X X X X X (2.16) X f (v) = f αj v j = αj f (v j ) = αj aij wi = aij αj w i . j=1 j=1 j=1 i=1 i=1 j=1 α1 .. Damit werden die Koordinaten . bezüglich der Basis {v 1 , . . . , v s } auf die Koordinaten αs Ps j=1 a1j αj .. Ps . j=1 arj αj β1 .. =. (2.17) βr bezüglich der Basis {w1 , . . . , w r } abgebildet. In (2.17) treten die Einträge aij der (r × s) Matrix A auf. Wir schreiben Ps a11 . . . a1s a α α 1j j 1 j=1 a21 . . . a2s .. .. A α = .. := . .. .. . P . . . s αs j=1 arj αj ar1 . . . ars β1 .. = . = β. βr (2.18) Wir haben damit eine Matrix-Vektor Multiplikation eingeführt, indem wir rechnen: 1. Koordinate des Bildvektors = 1. Zeile der Matrix mal “ Vektor, ” 2. Koordinate des Bildvektors = 2. Zeile der Matrix mal “ Vektor, ” .. . r. Koordinate des Bildvektors = r. Zeile der Matrix mal “ Vektor. ” Hierbei bedeutet mal “ das Produkt der Zeilenvektoren der Matrix mit dem Spaltenvek” tor α, was dem Skalarprodukt zweier Vektoren entspricht. 88 KAPITEL 2. LINEARE ALGEBRA Bemerkung: Sind V = K s und W = K r mit der Standardbasis versehen, dann ist s X f (x) = f j=1 xj ej ! = r s X X i=1 aij xj j=1 ! ei = Ax. (2.19) In diesem Fall identifizieren wir f mit A und schreiben f = fA . Beispiele 1◦ Wir sehen uns das erste vorherige Beispiel an: x1 x2 f = . x2 −x1 In der Standardbasis ist α1 0 1 x1 = + x2 = x1 α2 1 0 x2 und β1 0 1 x2 . = − x1 = x2 β2 1 0 −x1 0 1 erhalten wir Mit Hilfe der Matrix A = −1 0 β1 x2 x1 0 1 x1 . = = = Ax = f β2 −x1 x2 −1 0 x2 2◦ Wir betrachten die lineare Abbildung f : R2 → R3 , wobei in R2 und R3 die Standardbasen betrachtet werden, x1 + 2x2 x1 = 3x1 + 4x2 . f x2 5x1 + 6x2 Sie kann durch eine (3 × 2) Matrix A dargestellt werden 1 2 x f (x) = Ax = 3 4 1 . x2 5 6 89 2.3. MATRIZEN Produkt von Matrizen Man kann in natürlicher Weise ein Produkt von Matrizen erklären. Sei K ein Körper und f : K s → K r , g : K r → K t lineare Abbildungen. Die Komposition g ◦ f : Ks → Kt ist linear. Zu f gehöre die (r × s) Matrix A = (aij ), zu g die (t × r) Matrix B = (bkl ). Dann soll das Produkt von BA die zu g ◦ f gehörige (t × s) Matrix sein. Nach (2.18) erhalten wir (man beachte, dass (x1 , . . . , xs ) = (α1 , . . . , αs ) ist) Ps j=1 a1j xj .. f (x) = f (x1 , . . . , xs ) = Ax = = y, . Ps j=1 arj xj Pr l=1 b1l yl .. g(y) = g(y1, . . . , yr ) = By = . Pr . l=1 btl yl Für die Komposition gilt: (g ◦ f )(x) = g( s X a1j xj , . . . , j=1 Ps j=1 j=1 ( wobei C die Einträge = Ps Pr j=1 ( ckj = s X l=1 (b1l arj xj ) = l=1 b1l alj )xj .. Pr. l=1 btl alj )xj r X bkl alj , l=1 Pr Pr l=1 (btl Ps j=1 alj xj ) .. . P s j=1 alj xj ) = BAx = Cx, 1 ≤ k ≤ t, 1 ≤ j ≤ s besitzt. Die Multiplikation zweier Matrizen ist also folgendermaßen definiert: Sei A eine (r × s) Matrix, B eine (t × r) Matrix. Dann ist das Produkt BA = C eine (t × s) Matrix, deren Einträge ckj = r X bkl alj l=1 (Produkt der k-ten Zeile von B mit der j-ten Spalte von A) sind: B A = C, (t × r) (r × s) (t × s) (2.20) 90 KAPITEL 2. LINEARE ALGEBRA b11 . . . b1r .. .. a11 . . . a1j . . . a1s .. c11 . . . c1s . . a . 21 . . . a2j . . . a2s .. . bk1 . . . bkr .. .. = . ckj .. . .. .. .. . . . . . .. .. . .. ct1 . . . cts . . ar1 . . . arj . . . ars bt1 . . . btr Produkt zweier Vektoren Als Spezialfall erhalten wir für das Produkt eines Zeilenvektors = Matrix (1×r), mit einem Spaltenvektor, Matrix (r × 1), eine (1 × 1) Matrix, also einen Skalar: a1 r a2 X b1 b2 . . . br .. = bi ai = c. . i=1 ar Dieses Produkt wird auch als Skalarprodukt zweier Vektoren im Rr bezeichnet. Produkt einer Matrix mit einem Vektor Durch die Formel (2.18) wurde bereits die Matrix-Vektor Multiplikation eingeführt. Sie kann auch als Spezialfall der Matrizenmultiplikation (2.20) aufgefasst werden. Sei B eine (t × r) Matrix und A eine (r × 1) Matrix (Spaltenvektor). Dann ist B A = C (t × r) (r × 1) (t × 1) ein Spaltenvektor ((t × 1) Matrix). Ausführlich geschrieben, heißt das a Pr 1 b11 . . . b1r c1 i=1 b1i ai .. . .. .. .. .. . .. . . . . P .. r b a c . = = bk1 . . . bkr . k i=1 ki i . . . . . .. .. .. .. .. . . Pr . bt1 . . . btr ct ar i=1 bti ai Die lineare Gruppe der Matrizen, inverse Matrizen Wir haben gesehen, dass lineare Abbildungen f : K s → K r (wähle z.B. K = R) durch (r×s) Matrizen darstellbar sind. Weiterhin haben wir eine Verknüpfung, die Multiplikation von (t × r) Matrizen mit (r × s) Matrizen, eingeführt. Wir klären nun, ob die Menge der linearen Abbildungen von K s → K r , bzw. die Menge der Matrizen M(K, r × s) ein Vektorraum oder sogar eine multiplikative Gruppe ist. 91 2.3. MATRIZEN Lemma 2.24. Die Menge der linearen Abbildungen von K s in K r , bzw. die Menge der Matrizen M(K, r × s) ist ein Vektorraum mit der Addition (f + g)(x) = f (x) + g(x) ∀ x ∈ K s , A + B := (aij + bij ) 1≤i≤r 1≤j≤s und der Multiplikation mit Elementen aus K: (αf )(x) :=αf (x) ∀ x ∈ K s , αA :=(αaij ) 1≤i≤r . 1≤j≤s Das neutrale Element bezüglich der Addition ist die Nullabbildung f (x) = 0 für alle x ∈ K s , bzw. die Nullmatrix A = (aij = 0) 1≤i≤r . 1≤j≤s Wir sehen uns jetzt etwas genauer die Multiplikation in M(K, r × s) an: Zunächst stellen wir fest. Die Komposition von Abbildungen f : K s → K r , g : K r → K t, h : K t → K l ist assoziativ h ◦ (g ◦ f ) = (h ◦ g) ◦ f. Daraus folgt, dass das Produkt von Matrizen A ∈ M(K, r × s), B ∈ M(K, t × r), C ∈ M(K, l × t) assoziativ ist, C(BA) = (CB)A. Um das Produkt in M(K, r × s) definieren zu können, nehmen wir an, dass r = s ist. Dann sind AB und BA für A, B ∈ M(K, r × r) definiert. Jedoch ist die Multiplikation nicht immer kommutativ, d.h. es gibt Beispiele mit AB 6= BA. Beispiel Es sei r = 2, A = 0 0 0 1 . Dann ,B= 0 1 0 0 0 0 1 AB = 0 0 0 0 0 0 BA = 0 0 1 ist 0 0 = 0 1 0 1 = 0 0 1 , 0 0 . 0 Ein neutrales Element bezüglich der Multiplikation existiert in M(K, r × r). Es ist die Einheitsmatrix 1 0 ... 0 .. .. . . . . . Er = . . . . .. .. . . 0 ... 0 1 92 KAPITEL 2. LINEARE ALGEBRA Definition 2.25 (invertierbare Matrix). Man nennt eine Matrix A ∈ M(K, r × r) invertierbar, falls es eine Matrix A−1 ∈ M(K, r × r) gibt, so dass A−1 A = AA−1 = Er ist. A−1 heißt inverse Matrix zu A. Nicht alle Matrizen sind invertierbar. Beispiel b11 b12 0 1 −1 . Dann müsste gelten und A = Sei r = 2, A = b21 b22 0 0 b11 b12 0 1 0 b11 1 0 = = b21 b22 0 0 0 b21 0 1 und was nicht sein kann. 0 1 b11 b12 b21 b22 1 0 = = , 0 0 b21 b22 0 0 0 1 Lemma 2.26. A ist invertierbar genau dann, wenn die lineare Abbildung f : K r → K r fA (x) = Ax bijektiv ist, d.h. ker fA = ker A = {0} ist. Beweis a) Wir nehmen an, dass A−1 existiert. Falls Ax = 0 ist, folgt A−1 Ax = x = A−1 0 = 0 und ker A = {0}. b) Wir nehmen an, dass ker A = {0} ist. Nach dem Dimensionssatz 2.21 ist r = dim(ker fA ) + dim(im fA ) und daher r = dim(im fA ). Damit ist die Gleichung Ax = b für alle b aus K r eindeutig lösbar, d.h. die inverse lineare Abbildung fA−1 existiert, d.h. fA−1 ◦ fA (x) = x = fA ◦ fA−1 (x). Die fA−1 zugeordnete Matrix ist A−1 . 93 2.3. MATRIZEN Lemma 2.27. Die invertierbaren Matrizen aus M(K, r × r) bilden eine Gruppe bezüglich der Multiplikation mit dem neutralen Element Er . Diese Gruppe heißt lineare Gruppe GLr (K). Der Beweis dieses Lemmas besteht darin, die Gruppenaxiome zu überprüfen. Es muss u.a. gezeigt werden: Falls A, B ∈ GLr (K), dann ist auch AB ∈ GLr (K) und (AB)−1 = B −1 A−1 . Bemerkung: Die Berechnung von inversen Matrizen ist keine einfache Aufgabe. Wir werden hierzu einen Algorithmus kennen lernen. Wir fassen folgende Rechengesetze für Matrizen, die von ihrer Größe her zusammenpassen, zusammen: A+B (A + B)C (AB)C AB = B + A, = AC + BC, = A(BC), 6= BA (im Allgemeinen). Basiswechsel, Koordinatentransformation Am Beginn dieses Abschnittes hatten wir lineare Abbildungen eines K-Vektorraumes V mit der Basis {v 1 , . . . , vr } in den K-Vektorraum W mit der Basis {w1 , w2 , . . . , w s } betrachtet. Wir betrachten nun einen Basiswechsel in V , d.h. in V = W seien die Basen B1 = {v 1 , . . . , vr } und B2 = {w1 , . . . , w r } gegeben und wir möchten die lineare Abbildung beschreiben, die den Übergang zwischen den Basen angibt. Für ein beliebiges v ∈ V gilt v= r X αi v i = i=1 r X βi wi . (2.21) i=1 Sei HB1 die (r × r) Matrix, die aus den Spaltenvektoren v 1 , . . . , vr besteht und HB2 die (r × r) Matrix, die die Spaltenvektoren w 1 , . . . , wr besitzt. Dann können wir (2.21) schreiben als v = HB1 α = HB2 β, (2.22) α1 β1 .. .. wobei α = . , β = . sind. αr βr (2.22) liefert uns die Koordinatentransformation α = HB−11 HB2 β, β = HB−12 HB1 α. (2.23) 94 KAPITEL 2. LINEARE ALGEBRA Ist insbesondere B1 = {e1 , . . . , er } die Standardbasis, dann ist HB1 = E = Er und α = HB2 β, β = HB−12 α. (2.24) (2.25) Beispiel Sei V = W = R2 . Wir wollen die von der Standardbasis Koordinatentransformation 2 1 1 2 und beschreiben. Es ist HB2 = , B1 = {e1 , e2 } in die Basis B2 = 1 3 3 1 3 −1 , wovon man sich durch Nachrechnen überzeugen kann. HB−12 = 51 −1 2 Somit wird ein v ∈ V , zunächst in der Standardbasis gegeben, in der Basis B2 folgendermaßen dargestellt (2.22) 1 2 x1 + β2 = x1 e1 + x2 e2 = β1 v= 3 1 x2 1 1 2 1 + (−x1 + 2x2 ) . = (3x1 − x2 ) 1 3 5 5 Hier haben wir die Gleichung (2.25) benutzt: 1 1 3 −1 x1 β1 (3x1 − x2 ) 5 = 1 = . x2 β2 (−x1 + 2x2 ) 5 −1 2 5 Der Rang einer Matrix Der Rang einer linearen Abbildung f : V → W war bereits eingeführt worden: Rang f = dim(im f ) = dim(f (V )). Zu jeder Matrix A = (aij ) ∈ M(K, r × s) gibt es eine lineare Abbildung fA , so dass gilt Ps j=1 a1j xj fA : K s → K r , x → fA (x) = Ax = Damit können wir definieren Ps .. . j=1 arj xj . Rang A := Rang(fA ). Lemma 2.28. Der Rang einer Matrix ist gleich der maximalen Anzahl linear unabhängiger Spaltenvektoren von A. Man spricht kurz vom Spaltenrang. 95 2.3. MATRIZEN Beweis Es ist a11 x1 + a12 x2 + · · · + a1s xs a21 x1 + a22 x2 + · · · + a2s xs Ax = .. . ar1 x1 + ar2 x2 + · · · + ars xs a1s a12 a11 a2s a22 a21 = x1 .. + x2 .. + · · · + xs .. . . . ars ar2 ar1 und daher im fA = Span(Spaltenvektoren), dim(im fA ) = maximale Anzahl linear unabhängiger Spaltenvektoren von A = Spaltenrang. Beispiele 1 ◦ 1 Für A = 0 0 1 2◦ Für A = 0 2 1 1 1 1 ist Rang A = 3. 0 1 0 1 1 1 ist Rang A = 2. 0 2 Es gilt jedoch überraschend: Lemma 2.29. Der Rang einer Matrix A ist gleich der maximalen Anzahl linear unabhängiger Zeilenvektoren, kurz als Zeilenrang bezeichnet. Beweis A hat r Zeilenvektoren {z1 , . . . , zr } der Länge s. Die maximale Anzahl der linear unabhängigen Zeilenvektoren sei r0 ≤ r. Wir bezeichnen sie mit bj = (bj1 , . . . , bjs ), 1 ≤ j ≤ r0 . Die Zeilenvektoren z i , i = 1, . . . , r, lassen sich als Linearkombination der bj darstellen z i = ki1 b1 + ki2 b2 + · · · + kir0 br0 = (ki1 b11 + ki2 b21 + · · · + kir0 br0 1 , . . . , ki1 b1s + · · · + kir0 br0 s ). (2.26) 96 KAPITEL 2. LINEARE ALGEBRA Wir betrachten in jedem Zeilenvektor z i , i = 1, . . . , r, den l-ten Eintrag, 1 ≤ l ≤ s. Dann lautet (2.26): a1l = k11 b1l + · · · + k1r0 br0 l .. . ail = ki1 b1l + · · · + kir0 br0 l .. . arl = kr1 b1l + · · · + krr0 br0 l . Damit ist jeder Spaltenvektor in der Form a1l k11 k1r0 .. .. .. . . . ail = b1l ki1 + · · · + br0 l kir0 . . . .. .. .. arl kr1 krr0 darstellbar. Es folgt, dass Rang A = Spaltenrang ≤ r0 = Zeilenrang ist. Das gleiche Verfahren können wir anwenden, indem wir die Zeilenvektoren durch Spaltenvektoren ersetzen. Es gilt dann r0 = Zeilenrang ≤ Spaltenrang = Rang A. Damit erhalten wir, dass Spaltenrang = Zeilenrang ist und damit Rang A = maximale Anzahl der linear unabhängigen Spaltenvektoren = maximale Anzahl der linear unabhängigen Zeilenvektoren. (2.27) 97 2.3. MATRIZEN Übungsaufgaben Aufgabe 6.1 Untersuchen Sie, ob die durch a) f (z) = (2 + i)z b) f (z) = Im(iz) c) f (z) = z̄ gegebenen Selbstabbildungen von C homogen bzw. additiv sind. d) f (z) = max{Re(z), Im(z)} Aufgabe 6.2 Die folgenden linearen Abbildungen p 7−→ q bilden Polynome vom Grad ≤ m auf Polynome vom Grad ≤ n ab. Bestimmen Sie die Matrixdarstellungen bezüglich der Monombasis {1, x, x2 , x3 , . . . , xn } . a) m = n = 2, q(x) = p(x + 1) b) m = n − 2 = 2, c) m = n/2 = 2, q(x) = (x2 + 1)p(x) q(x) = p(x2 + 1) Aufgabe 6.3 Gegeben seien folgende Matrizen: 1 −2 A= , −2 4 4 E= D = 5 , 6 B 1 1 4 8 6 , = 4 3 2 3 1 3 , −5 −2 C= 1 7 −1 , 1 2 3 4 F = −1 0 0 4 5 7 3 1 Welche Produkte sind möglich? Berechnen Sie diese. Aufgabe 6.4 In den abgebildeten Matrizen ∗ ∗ 0 ∗ A= 0 0 0 0 sind mit ∗ die von Null 0 0 0 0 ∗ 0 ∗ 0 B= 0 ∗ ∗ ∗ 0 ∗ 0 0 verschiedenen Einträge 0 0 0 0 0 0 0 0 C= 0 0 0 0 ∗ 0 0 0 Geben Sie an, in welchen Positionen die Matrixprodukte AB, BC, (A + B)2 , C 2 ungleich Null sein können. gekennzeichnet. ∗ ∗ 0 ∗ 0 0 0 0 98 KAPITEL 2. LINEARE ALGEBRA Aufgabe 6.5 Geben Sie an, welche der abgebildeten Figuren durch eine lineare Abbildung ineinander überführt werden können. Geben Sie die Abbildung dann jeweils in Matrix-Form an. (Der markierte Punkt ist jeweils (0, 0)). (2, 2) (2, 2) (2, 1) (1, 2) (3, 2) (4, 0) (2, −1) Aufgabe 6.6 Welche Dimension hat der von den Vektoren 1+i 1 2i 0 v2 = v1 = 1 , 1 , 1 0 (1, 0) −i 1−i v3 = 0 , 1+i aufgespannte Unterraum U von V = C4 ? Geben Sie eine Basis für U an. 0 1+i v4 = 0 i Aufgabe 6.7 Bestimmen Sie die Matrizen für den Basiswechsel 2 2 2 2 −1 1 B = 2 , −1 , 2 ←→ B̂ = 0 , 1 , 2 2 2 −1 0 0 1 und stellen Sie die Vektoren mit den Koordinaten (3, 0, 4) jeweils bezüglich der anderen Basis dar. Aufgabe 6.8 Bestimmen Sie Rang A der folgenden reellen Matrix: 2 1 0 1 A= 1 1 −1 2 4 2 3 3 −3 −1 −2 −1 Hinweis: Addiert man zu einer Zeile eine Linerkombination aus den anderen Zeilen, ändert sich der Rang nicht. 2.4. LINEARE GLEICHUNGSSYSTEME 2.4 99 Lineare Gleichungssysteme Die Theorie der linearen Abbildungen, die wir in den Abschnitten 2.2 und 2.3 kennen gelernt haben, findet eine schöne Anwendung bei der Lösung linearer Gleichungssysteme. Definition 2.30. Unter einem linearen Gleichungssystem mit s Unbekannten und r Gleichungen verstehen wir das System a11 x1 + a12 x2 + · · · + a1s xs = b1 a21 x1 + a22 x2 + · · · + a2s xs = b2 .. . ar1 x1 + ar2 x2 + · · · + ars xs = br , (2.28) wobei die Koeffizientenmatrix A = (aij ) 1≤i≤r ∈ M(K, r×s) (K ist ein Körper, z.B. K = R) 1≤j≤s und die rechte Seite b1 .. b = . ∈ Kr br x1 .. gegeben sind. Gesucht ist die Lösungsmenge L aller Vektoren x = . ∈ K s , die allen xs Gleichungen (2.28) genügen. Das Gleichungssystem (2.28) kann kürzer als Ax = b (2.29) geschrieben werden. Ist b = 0, dann spricht man von einem homogenen Gleichungssystem, Ax = 0, für b 6= 0 von einem inhomogenen Gleichungssystem. Die Existenz und Eindeutigkeit der Lösungen des Gleichungssystems (2.28) wird durch folgenden Lösbarkeitssatz beschrieben. Theorem 2.31 (Existenz- und Eindeutigkeit für r × s Systeme). 1. Das Gleichungssystem (2.28) ist genau dann lösbar, wenn b im Bild der linearen Abbildung fA : K s → K r , x → fA (x) = Ax liegt, d.h. Rang A = Rang(A|b), 100 KAPITEL 2. LINEARE ALGEBRA wobei A|b die erweiterte (r × (s + 1)) Koeffizienten-Matrix ist: a11 . . . a1s b1 .. .. . A|b = ... . . ar1 . . . ars bs 2. Das Gleichungssystem (2.28) ist für alle b ∈ K r lösbar, falls gilt Rang A = r. 3. Ist das Gleichungssystem (2.28) lösbar für ein b ∈ K r , dann ist eine Lösung x eindeutig bestimmt, falls gilt Rang A = s. Beweis. zu 1. Das Bild der linearen Abbildung fA ist im(fA ) = {b ∈ K r : ∃ x ∈ K s mit Ax = b}. Nach Lemma 2.28 ist im(fA ) = Span{linear unabhängige Spaltenvektoren von A}. Daher muss eine gegeben rechte Seite b von (2.28) durch eine Linearkombination der linear unabhängigen Spaltenvektoren von A darstellbar sein, woraus Rang A = Rang(A|b) folgt. zu 2. In diesem Fall ist im(fA ) = K r . zu 3. Nach dem Dimensionssatz 2.21 ist s = dim(ker fA ) + Rang A. Ist Rang A = s, dann ist dim(ker fA ) = 0 und ker fA = {0}. Daraus folgt die Eindeutigkeit. Conclusion 2.32. Falls r > s, dann ist (2.28) nicht für alle b ∈ K r lösbar, falls r < s, dann besitzt (2.28) keine eindeutig bestimmte Lösung. Im Fall r = s kann man die eindeutige Lösbarkeit einfacher charakterisieren. 2.4. LINEARE GLEICHUNGSSYSTEME 101 Theorem 2.33 (Eindeutige Lösbarkeit von (r × r) Systemen). Sei A eine (r × r) Matrix. Dann sind folgende Aussagen äquivalent. (i) A ist invertierbar, d.h. A−1 existiert. (ii) Für alle b ∈ K r ist Ax = b eindeutig lösbar. (iii) Das homogene Gleichungssystem Ax = 0 besitzt nur die triviale Lösung x = 0. Beweis. Wir zeigen (i) ⇒ (ii) ⇒ (iii) ⇒ (i). a) Es gelte (i). Wir betrachten das System Ax = b. Dann ist A−1 Ax = x = A−1 b und (ii) ist gezeigt. b) Es gelte (ii). Dann besitzt auch das homogene System Ax = 0 nur eine Lösung x = 0. c) Es gelte (iii). Nach dem Dimensionssatz 2.21 ist r = dim(ker fA ) + Rang A = Rang A. Aus Satz 2.31, Aussagen 2 und 3 folgt, dass (2.28) für jede rechte Seite eindeutig lösbar ist. Damit muss x = A−1 b sein und (i) gilt. Das Gaußsche Eliminationsverfahren Nach den theoretischen Sätzen 2.31 und 2.33 wenden wir uns jetzt einem praktischen Lösungsweg zu, der von Carl Friedrich Gauß (1777 - 1855) vorgeschlagen wurde. Dabei wird die erweiterte Koeffizientenmatrix (A|b) in eine Matrix besonders einfacher Gestalt, in eine sogenannte Zeilenstufenmatrix, umgewandelt. Aus der Zeilenstufenmatrix lässt sich die Lösung leicht gewinnen, der Rang kann abgelesen werden und es ist damit zu sehen, ob das Gleichungssystem überhaupt eine Lösung besitzt. Die Umwandlung der erweiterten Koeffizientenmatrix in eine Zeilenstufenform erfolgt durch elementare Zeilenoperationen. Dabei verstehen wir unter einer Zeilenstufenmatrix folgendes: 102 KAPITEL 2. LINEARE ALGEBRA Definition 2.34. Sei A = (aij ) ∈ M(K, r × s). Sei Ii die Anzahl der von links gezählten aufeinander folgenden Nullen der i-ten Zeile: ( max{I : ai1 = ai2 = · · · = aiI = 0} (1 ≤ i ≤ r), Ii = 0 falls ai1 6= 0. Ist I1 < I2 < · · · < Ir oder I1 < I2 < · · · < It < It+1 = · · · = Ir = s für ein t < r (d.h. ab der (t + 1)-ten Zeile treten nur Nullzeilen auf), dann heißt A Zeilenstufenmatrix. Beispiele: 1 0 1 0 1◦ A = 0 0 0 2 ist Zeilenstufenmatrix. Es ist I1 = 0, I2 = 3, I3 = 4. 0 0 0 0 1 1 0 0 2◦ A = 0 0 1 1 ist keine Zeilenstufenmatrix, denn I1 = 0, I2 = 2, I3 = 2. 0 0 2 3 Hat die Koeffizientenmatrix eines linearen Gleichungssystems Zeilenstufenform, dann kann die Lösungsmenge explizit angegeben werden: 1. In den Zeilen, wo nur Nullen stehen, müssen die Einträge von b verschwinden, sonst existiert keine Lösung. Diese können dann gestrichen werden. 2. In den verbleibenden Zeilen beginnen wir dann mit der t-ten Zeile, t ≤ r, mit I1 < I2 < · · · < It 6= s, It+1 = s. Die Zeilengleichung lautet X atj xj = bt . (2.30) It <j≤s Hier ist atj angeben. xIt +1 6 0 für j = It + 1 und wir können alle Lösungen der Form ... = xs 3. Wir setzen eine dieser Lösungen in die (t − 1)-te Zeilengleichung ein X a(t−1)j xj = bt−1 . (2.31) It−1 <j≤s Wegen It−1 < It ist (2.31) eine Gleichung zur Bestimmung der noch freien Unbekannten xIt−1 +1 , . . . , xIt . 103 2.4. LINEARE GLEICHUNGSSYSTEME xIt−1 +1 .. . x 4. Die Vektoren It werden in die (t − 2)-te Zeilengleichung eingesetzt. Daraus xIt +1 . .. xs wird der Vektor xIt−2 +1 .. . xIt−1 xIt−1 +1 . .. x It x It +1 . .. xs gewonnen. 5. Dieser Prozess wird fortgesetzt, bis die erste Zeile erreicht ist. Daraus erhalten wir eine Lösung x. Beispiel: Wir betrachten das Gleichungssystem x1 b1 1 1 1 1 x2 b2 . Ax = 0 0 0 2 x3 = b3 = 0 0 0 0 0 x4 Erster Schritt (Wegstreichen der Nullzeilen). Durch Wegstreichen der Nullzeile erhalten wir x1 b x2 1 1 1 1 = 1 . Âx = b2 x3 0 0 0 2 x4 Zweiter Schritt. Wir betrachten die zweite Zeile (t = 2). Es ist I2 = 3 a24 x4 = 2x4 = b2 ⇒ x4 = b2 . 2 (2.32) 104 KAPITEL 2. LINEARE ALGEBRA Dritter Schritt. Einsetzen von x4 in die erste Zeilengleichung x1 + x2 + x3 + b2 = b1 2 ergibt x1 + x2 + x3 = b1 − Damit ist (2.33) b2 . 2 b2 − x2 − x3 2 b1 − b22 − 1 b1 − b22 − 1 , 0 1 1 0 x1 = b1 − und sind Lösungen von (2.33). Es folgt, dass b1 − b22 − 1 b1 − b22 − 1 0 1 , 1 0 b2 2 Lösungen von Ax = b sind. (2.34) b2 2 Die Frage ob wir alle Lösungen von Ax = b erfasst haben, diskutieren wir später. Wir erklären jetzt, was wir unter elementaren Zeilenoperationen verstehen, die eine Matrix A in eine Zeilenstufenform überführen. Definition 2.35. Sei A|b die erweiterte Matrix zum Gleichungssystem Ax = b. Elementare Zeilenumformungen von A|b sind: • Vertauschungen von Zeilen, • Multiplikation von Zeilen mit α ∈ K\{0}, • Addition einer α- fachen Zeile zu einer andere Zeile. Wir sehen sofort: die Lösungsmenge L des linearen Gleichungssystems ändert sich nicht durch Anwendung elementarer Zeilenumformungen. So ist z.B. x Lösung von Ax = b, genau dann falls x Lösung des folgende Gleichungsystems ist: s X aij xj = bi , 1 ≤ i ≤ r, i 6= l, j=1 s X j=1 (alj + αakj )xj = bl + αbk . 105 2.4. LINEARE GLEICHUNGSSYSTEME Lemma 2.36 (Gauß Elimination). Jede Matrix A ∈ M(K, r × s) lässt sich durch endlich viele elementare Zeilenoperationen auf Zeilenstufenform bringen. Beweis. 1.Schritt: Erzeugen von a11 6= 0. Wir dürfen annehmen, dass die erste Spalte von A mindestens ein Element 6= 0 enthält (sonst gehen wir zur ersten Spalte, die von Null verschieden ist, über). Durch Vertauschen der Zeilen erreichen wir, dass a11 6= 0 ist. 2. Schritt: Erzeugen von Nullen (außer a11 ) in der ersten Spalte. Wir bestimmen Elemente αi ∈ K, so dass gilt αi a11 + ai1 = 0, 2 ≤ i ≤ r. Durch addieren des αi -fachen der ersten Zeile zur i-ten Zeile erhalten wir a11 a12 ... a1s 0 α2 a12 + a22 . . . α2 a1s + a2s .. . .. .. .. . . . . 0 αr a12 + ar2 . . . αr a1s + ars (2.35) (2.36) 3. Schritt: Erzeugen von Nullen in der zweiten Spalten von (2.36). Wir unterscheiden 2 Fälle: Sind alle Einträge unter a12 in der zweiten Spalte von (2.36) Null, so gehen wir zur 3. Spalte über. Ist zumindest ein Eintrag unter a12 in der zweiten Spalte von (2.36) nicht Null, so setzen wir ihn durch Vertauschen der Zeilen unter a12 . Dann gehen wir wie oben vor. Wir erhalten a11 a12 a13 . . . a1s 0 α2 a12 + a22 . . . . . . α2 a1s + a2s 0 0 ∗ ... ∗ 0 . 0 ∗ . . . ∗ .. .. .. . . . 0 0 ... ... ∗ Dieses Verfahren wird so oft angewandt, bis die Zeilenstufenform erreicht ist. Beispiel Wir betrachten die erweiterte “ Matrix ” 1 0 −1 3 2 1 0 2 −2 2 0 . 1 (2.37) 106 KAPITEL 2. LINEARE ALGEBRA a11 ist von Null verschieden. Wir bestimmen α2 und α3 : a21 = 1, α2 a11 + a21 = 0 ⇒ α2 = − a11 a31 α3 a11 + a31 = 0 ⇒ α3 = − = −2. a11 Damit erhalten wir nach Addition des α2 -fachen der ersten Zeile zur zweiten Zeile und des α3 -fachen der ersten Zeile zur dritten Zeile 2 1 0 0 0 3 2 2 . 0 1 −2 −3 Wir bestimmen jetzt eine Zahl µ, so dass gilt 1 µ=− , 3 Zeile zur dritten Zeile: 2 0 0 3 2 2 . 8 0 − 3 − 11 3 µ3 + 1 = 0, und addieren das µ-fache der zweiten 1 0 0 Die Lösungsmenge von (2.37) (2.38) 1 0 0 x1 2 −1 3 2 x2 = 0 2 1 −2 x3 1 stimmt mit der Lösungsmenge von (2.38) x1 2 1 0 0 0 3 2 x2 = 2 x3 − 11 0 0 − 83 3 (2.39) überein. Wir erhalten sofort aus (2.39) x1 2 x2 = − 1 . 4 11 x3 8 Remark 2.37. (i) Das Gaußsche Eliminationsverfahren, das eine Matrix in eine Zeilenstufenmatrix überführt, liefert gleichzeitig den Rang einer Matrix. Der Rang einer Zeilenstufenmatrix ist gleich der Anzahl der Zeilen, die einen von Null verschiedenen Eintrag enthalten. (ii) Außerdem gilt: Der Rang einer Matrix ändert sich nicht bei elementaren Zeilenoperationen. Diese Aussage folgt aus Lemma 2.29. 2.4. LINEARE GLEICHUNGSSYSTEME 107 Die vollständige Lösung linearer Gleichungssysteme Wir diskutieren jetzt, wie man die vollständige Lösungsmenge eines linearen Gleichungssystem Ax = b, A ∈ M(K, r × s), b ∈ K r beschreiben kann. Theorem 2.38. Sei x0 ∈ K s eine spezielle Lösung von Ax = b. Jede Lösung x von Ax = b hat die Gestalt x = y + x0 , wobei y ∈ ker(A) = {y : Ay = 0} ist. Kurz ausgedrückt: {x ∈ K s : Ax = b} = L = {x0 + y : Ay = 0}. Beweis. a) Seien x und x′ ∈ L. Dann ist A(x − x′ ) = 0, d.h. x ist darstellbar als x = x − x′ + x′ = y + x0 , y = x − x′ ∈ ker A, x′ = x0 ist Lösung von Ax0 = b. b) Sei x = y + x0 . Dann ist Ax = Ay + Ax0 = 0 + b = b. Wir beschreiben nun, wie man vorgehen kann, um die vollständige Lösung eines Gleichungssystems Ax = b zu erhalten. 1. Bringe A|b in eine Zeilenstufenform. 2. Prüfe ob Rang(A) = Rang(A|b) ist. Falls nein, dann existiert keine Lösung. Falls ja, konstruiere aus der Zeilenstufenmatrix eine spezielle Lösung x0 . 3. Bestimme ker(A). Es ist nach der Dimensionsformel 2.21 dim(ker(A)) = s − Rang A. Aus der Zeilenstufenform von A kann die Basis von ker(A) bestimmt werden. Beispiel Wir sehen uns noch einmal das Beispiel (2.32) an: x1 + x2 + x3 + x4 = b1 2x4 = b2 . 108 KAPITEL 2. LINEARE ALGEBRA 1.Schritt: Zeilenstufenform von A|b. Es ist 1 1 1 1 b1 A|b = 0 0 0 2 b2 und damit liegt bereits eine Zeilenstufenmatrix vor. 2.Schritt: Rangbestimmung und Konstruktion einer speziellen Lösung. Es ist Rang A = Rang A|b = 2. Somit ist b1 − 0 x0 = 0 b2 2 b2 2 eine spezielle Lösung der inhomogenen Gleichung. 3. Schritt: Berechnung von ker A. Wir sehen, dass dim(ker(A)) = s − Rang A = 4 − 2 = 2 ist. Daher müssen wir zwei linear unabhängige Lösungen von x1 + x2 + x3 + x4 = 0 2x4 = 0 bestimmen. Da x4 = 0 sein muss, folgt x1 + x2 + x3 = 0. Es sind z.B. 1 1 0 −1 y1 = 0 , y 2 = −1 0 0 zwei linear unabhängige Lösungen. Die Menge aller Lösungen ist b1 − 1 1 0 0 −1 x = c1 0 + c2 −1 + 0 b2 0 0 2 b2 2 , wobei c1 und c2 beliebige Konstanten aus K sind. Für c1 = 0, c2 = −1 und für c1 = −1, c2 = 0 erhalten wir die Lösungen (2.34). Berechnung inverser Matrizen Wir betrachten ein r × r Gleichungssystem Ax = b. In Satz 2.33 wurde geklärt, wann eine inverse Matrix A−1 existiert (ker A = {0}). In diesem Fall besitzt Ax = b eine eindeutig bestimmte Lösung x = A−1 b. 109 2.4. LINEARE GLEICHUNGSSYSTEME Ist A−1 bekannt, dann kann die Lösung x für beliebige rechte Seiten b durch MatrixVektor-Multiplikation berechnet werden. Um A−1 zu berechnen, könnte man folgendermaßen vorgehen: Bestimme eine Matrix B ∈ M(K, r × r), so dass BA = Er ist. Dies führt zu einem Gleichungssystem von r 2 Gleichungen zur Bestimmung der r 2 Unbekannten (bij ) 1≤i≤r . Wir können aber auch das Gaußsche Eliminationsverfahren an1≤j≤r wenden, um effizienter zum Ziel zu kommen. Sei A eine (r × r)-Matrix mit Rang(A) = r. 1.Schritt Wir betrachten die erweiterte (r × 2r)-Matrix (A|Er ) und bringen diese durch elementare Zeilenumformungen erhalten c1 ∗ . . (SA|S) = . S 0 cr auf eine Zeilenstufenform. Wir , wobei S eine Matrix ist, die die Zeilenumformungen beschreibt. Da Rang(A) = r ist, müssen alle Diagonalelemente ci 6= 0 sein. 2.Schritt Wir multiplizieren die Matrix SA|S mit der Diagonalmatrix −1 c1 0 .. C= , . −1 0 cr d.h. die i-te Zeile wird mit c−1 multipliziert. Wir erhalten i 1 ∗ .. (CSA|CS) = . CS . 0 1 (2.40) 3.Schritt Wir bringen CSA durch elementare Zeilenoperationen in die Einheitsmatrix Er , d.h. es existiert eine Matrix Ŝ mit ŜCSA = Er . Es wird (ŜCSA|ŜCS) = (Er |ŜCS) und ŜCS = A−1 . Zusammenfassend können wir diesen Prozess folgendermaßen beschreiben: 110 KAPITEL 2. LINEARE ALGEBRA Transformieren wir A durch elementare Zeilenoperationen in Er , dann wird aus Er die inverse Matrix A−1 (A|Er ) ↓ Zeilenoperationen (Er |A−1 ). Beispiel Sei A = (aij ) 1≤i≤2 eine (2 × 2)-Matrix mit Rang 2, d.h. A−1 existiert. 1≤j≤2 1.Schritt Wir betrachten die erweiterte (2 × 4)-Matrix a11 a12 A|E2 = a21 a22 1 0 0 1 . Wir nehmen an, dass a11 6= 0 und bringen A|E2 in eine Zeilenstufenform. Wir bestimmen nach (2.35) α2 so, dass a21 α2 a11 + a21 = 0, α2 = − a11 ist. Durch Addition des α2 -fachen der 1. Zeile zur 2. Zeile erhalten wir 1 0 a11 a12 . SA|S = 0 −a21 a12a11+a22 a11 − aa21 1 11 (2.41) Wir können annehmen, dass a11 a22 − a12 a21 = D 6= 0 ist, sonst wäre Rang A 6= 2. 2.Schritt Die Matrix C lautet: C= 1 a11 0 0 a11 D . Nach Multiplikation von (2.41) mit C ergibt sich CSA|CS = 1 0 a12 a11 1 1 a11 − aD21 0 a11 D . (2.42) 3.Schritt 1 aa12 11 in die Einheitsmatrix, indem wir das − aa12 Wir bringen -fache der 2. Zeile zur 1. 11 0 1 Zeile addieren. Dann ist 1 0 a111 + aa1211aD21 − aD12 , ŜCSA|ŜCS = a11 − aD21 0 1 D 2.4. LINEARE GLEICHUNGSSYSTEME 111 und 12 a21 1 D+aa11 −a12 A = −a21 a11 D 1 a22 −a12 = . D −a21 a11 a11 a12 Wir fassen zusammen: Sei A = . Ist D = a11 a22 − a12 a21 = 6 0, dann existiert die a21 a22 inverse Matrix und es ist 1 a22 −a12 −1 . (2.43) A = D −a21 a11 −1 Übungsaufgaben Aufgabe 7.1 Bestimmen Sie alle Lösungen des linearen (t − 1)2 1 2 in Abhängigkeit des Parameters t ∈ R . Gleichungssystems 1 t x1 0 1 0 x2 = 0 3 1 t x3 Aufgabe 7.2 Lösen Sie das lineare Gleichungssystem 1 1/2 1/3 11/6 1/2 1/3 1/4 x = 13/12 1/3 1/4 1/5 47/60 näherungsweise mit der Gauß-Elimination, indem Sie nach jeder Operation das Ergebnis auf drei signifikante Stellen runden (1/3 ≈ 0.333 , 12.784 ≈ 12.8) . Vergleichen Sie das Ergebnis mit der exakten Lösung x = (1, 1, 1)⊤ . Aufgabe 7.3 Mit reellen Parametern α und β liegt folgendes lineares Gleichungssystem vor: αx1 − 2x2 = 4 −x1 − x2 + 2x3 = β x1 + x2 − x3 = 0 Für welches α = α0 ist die Lösbarkeit des Gleichungssystems von β abhängig? Für welches β = β0 besitzt das Gleichungssystem für alle α eine Lösung? Bestimmen Sie für die Parameter α0 und β0 alle Lösungen des Gleichungssystems. Aufgabe 7.4 112 KAPITEL 2. LINEARE ALGEBRA Die Veränderung der Matrix A und der rechten Seite b bei einem Gauß-Eliminations-Schritt zur Lösung eines linearen Gleichungssystems Ax = b kann auch als Matrix-Multiplikation geschrieben werden. D.h. die Matrix Aneu und der Vektor bneu entstehen mit Hilfe einer Matrix T (k, l) , k > l als Aneu = T (k, l)A , bneu = T (k, l)b , wobei die Matrix T (k, l) von zwei Parametern (k, l) abhängt, die die Position des Elements in A angeben, das eliminiert werden soll. Außerdem werden ggf. noch Matrizen P (k, l) benötigt, die die Zeilen k und l der Matrix A vertauschen. Geben Sie die Matrizen P (k, l) und T (k, l) in Abhängigkeit der Einträge der Matrix A an. (freiwillig) Schreiben Sie ein Programm, dass die Gauß-Elimination mit Hilfe von Matrix-Multiplikationen durchführt (ggf. müssen Sie dazu ein Unterprogramm schreiben, dass eine Matrix-Multiplikation durchführt). 113 2.5. DETERMINANTE EINER MATRIX 2.5 Determinante einer Matrix Bei der Berechnung der Inversen einer (2 × 2)-Matrix hat sich die Zahl D = a11 a22 − a12 a21 als wichtige Größe herausgestellt. Es wird sich erweisen, dass sie die Determinante der Matrix A ist. Determinanten werden für quadratische Matrizen folgendermaßen definiert. Definition 2.39. Eine Abbildung f von M(K, r × r) → K, f : A → f (A) = det A heißt Determinante, falls folgende Eigenschaften gelten: (D1) det ist linear in den Zeilenvektoren, d.h. seien z 1 , . . . , z r die Zeilenvektoren von A, b ein beliebiger Zeilenvektor und α, β ∈ K. Dann ist . z1 z1 .. .. . . z k−1 z k−1 z k−1 det αz k + βb = α det z k + β det b z k+1 z k+1 z k+1 .. ... ... . zr zr zr z1 .. . (D2) det A ändert bei Vertauschung zweier Zeilen von A das Vorzeichen, d.h. z1 z1 .. .. . . zj z k . = − det ... . . det . z z k j . . .. .. zr zr (D3) det Er = 1. Lemma 2.40. Es gilt: (D4) Sind zwei Zeilenvektoren gleich, so ist det A = 0. (D5) Addition einer α-fachen Zeile zu einer anderen Zeile, ändert die Determinanten nicht. 114 KAPITEL 2. LINEARE ALGEBRA Beweis. (D4) Es sei z j = z k , k 6= j. Dann ist z1 z1 z1 .. .. .. . . . z j z k z k . . (D2) = det .. = − det ... = − det A, . det A = det . z z z k j j . . . .. .. .. zr zr zr woraus det A = 0 folgt. (D5) Es ist z1 . z1 .. .. z j . . (D4) (D1) det z k + αz j = det A + α det .. = det A. . .. z j . .. zr zr Remark 2.41. Die Addition des α-fachen der j-ten Zeile zur k-ten Zeile (k 6= j) kann durch Multiplikation mit einer Matrix j − te Spalte ↓ 1 0 0 ... α 1 S(α, k, j) = ← k − te Zeile .. . 0 1 α für i = k, l = j, Sil = 1 für i = l, 0 sonst (2.44) 115 2.5. DETERMINANTE EINER MATRIX beschrieben werden. Es ist nämlich a11 1 0 0 . ... .. aj1 α 1 S(α, k, j)A = ak1 . .. . .. 0 1 ar1 z1 .. . = z k + αz j . .. . zr . . . a1r .. . . . . akr . . . ajr .. . . . . arr Lemma 2.42. Besitzt A ∈ M(K, r × r) Zeilenstufenform, dann ist det A = a11 a22 · · · arr . Beweis. Da A eine (r × r)-Matrix ist, hat A die Gestalt a11 ∗ .. A= , . 0 arr wobei in der Diagonale auch Nullen stehen können. 1.Fall Wir nehmen an, dass A nicht invertierbar ist, d.h. Rang(A) < r. Daher muss mindestens die r-te Zeile aus Nullen bestehen, d.h. arr = 0. Nach (D5) können wir zur letzten Zeile eine andere addieren und erhalten 2 gleiche Zeilen. (D4) liefert uns die Aussage, dass in diesem Fall det A = 0 ist. 2.Fall Es sei Rang(A) = r, d.h. A ist invertierbar. In diesem Fall müssen alle Diagonalelemente ungleich Null sein. Durch Addition von α-fachen Zeilen zur darüberliegenden Zeile erhalten wir eine Diagonalform  a11 0 ..  = . . 0 arr Es ist 1 0 0 a22 (D5) (D1) det A = det  = a11 det . . . 0 arr (D3) (D1) = a11 a22 · · · arr det Er = a11 a22 · · · arr . 116 KAPITEL 2. LINEARE ALGEBRA Beispiele 1◦ Wir betrachten a11 a12 . A= a21 a22 Es sei a11 6= 0. Die Zeilenstufenform von A lautet a11 a12 . à = a12 + a22 0 − aa21 11 Es ist nach (D1) und Lemma 2.42 a12 det A = det à = a11 − a21 + a22 = a11 a22 − a12 a21 = D (Vergleiche S. 110). a11 2◦ Sei S(α, k, j) durch (2.44) gegeben. Dann ist det S(α, k, j) = 1. (2.45) 1.Fall: i < l. Dann liegt der Eintrag Sil = α in der oberen Dreiecksmatrix. 2.Fall: i > l. Sil = α befindet sich in der unteren Dreiecksmatrix und kann durch Addition des α-fachen der l-ten Zeile zur i-ten Zeile zu Null gemacht werden. Conclusion 2.43. Folgende Aussagen sind für Matrizen A ∈ M(K, r × r) äquivalent: det A = 0 ⇔ Rang A < r ⇔ A ist nicht invertierbar ⇔ die Zeilen bzw. Spalten von A sind linear abhängig. Offen ist bisher, ob die Determinante eindeutig bestimmt ist. Das folgende Lemma beantwortet diese Frage. Lemma 2.44. Es gibt höchstens eine Determinante zu einer Matrix A ∈ M(K, r × r). Beweis. Da durch Addition einer α-fachen Zeile zu einer anderen Zeile stets erreicht werden kann, dass die entstehende Matrix à Zeilenstufenform hat und nach (D1) det A = det à ist, folgt aus Lemma 2.42 die Behauptung. Achtung! Es gibt Beispiele, dass det(A + B) 6= det A + det B ist. 0 1 2 ,B = A= −2 2 1 Sei 0 . 0 2.5. DETERMINANTE EINER MATRIX 117 Es ist 1 2 = −3, det A = det 0 −3 det B = 0. Jedoch erhalten wir 1 2 det(A + B) = det = 1 6= −3 + 0. 0 1 Für das Produkt zweier Matrizen gilt jedoch: Lemma 2.45. Seien A, B ∈ M(K, r × r), dann gilt (D6) det(AB) = det A det B. Beweis. 1. Fall A sei nicht invertierbar,d.h. fA : K r → fA (K r ) K r . Damit erhalten wir: fA ◦ FB = fAB : K r → fA (fB (K r )) K r . Es folgt, dass AB nicht invertierbar ist. 2. Fall A sei invertierbar. Wir können A nach (D1) durch Multiplikation mit einer Matrix S, die durch Multiplikation von Matrizen der Form S(α, k, j) (siehe Formel (2.44)) entsteht, in Diagonalform bringen, wobei det(SA) = â11 · · · ârr = det A ist. Hierbei wurde genutzt, dass det S = 1 nach (2.45) und daher gilt in diesem speziellen Fall (D6). Weiterhin ist det(AB) = det(SAB) = det((SA)B) â11 0 b11 . . . b1r .. .. .. .. = det . . . . br1 . . . brr 0 ârr â11 b11 . . . â11 b1r .. .. .. = det . . . ârr br1 . . . ârr brr (D1) = â11 â22 · · · ârr det B = det A det B. 118 KAPITEL 2. LINEARE ALGEBRA Berechnung von Determinanten Wir haben bereits gesehen, dass Determinanten von (2 × 2)-Matrizen folgendermaßen berechnet werden können: a11 a12 = a11 a22 − a12 a21 . det a21 a22 Die Determinanten von (3 × 3) Matrizen können ebenfalls durch Transformation in eine Zeilenstufenmatrix und nach Lemma 2.42 berechnet werden (Regel von Sarrus): a11 a12 a13 det a21 a22 a23 a31 a32 a33 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 . (2.46) Es gibt ein Verfahren, wie man die Berechnung der Determinante einer (r × r) Matrix auf die Berechnung von Determinanten von ((r − 1) × (r − 1)) Matrizen zurückführen kann. Um dies zu erläutern, führen wir folgende Bezeichnung ein: Es sei A eine (r × r) Matrix a11 . . . a1r .. .. . A = ... . . ar1 . . . arr Aij sei die ((r − 1) × (r − 1)) Matrix, die durch Streichen der i-ten Zeile und der j-ten Spalte von A entsteht. Weiterhin sei Ãij die Matrix, in der die i-te Zeile von A durch den j-ten Einheitsvektor (0, . . . , 1, . . . , 0) ersetzt wird, Ãij = a11 .. . 0 .. . ar1 j-te Spalte ↓ . . . a1j . . . a1r .. .. . . . . . 1 . . . 0 ← i-te Zeile, .. .. . . . . . arj . . . arr d.h. aij wird durch 1 ersetzt, sonst stehen Nullen in der i-ten Zeile. Lemma 2.46. Es ist det(Ãij ) = (−1)i+j det Aij . Beweis. 1. Fall 119 2.5. DETERMINANTE EINER MATRIX Es sei i = j = 1. Es gilt, dass Rang(A11 ) = Rang(Ã11 ) − 1 ist. Es ist nämlich A11 a22 . . . a2r .. , .. = ... . . ar2 . . . arr Ã11 1 0 . = A11 ∗ Durch Addition von Vielfachen der ersten Zeile von Ã11 zu den anderen Zeilen können wir erreichen, dass aus Ã11 1 0 ˜ Ã11 = 0 A11 wird und Rang(Ã11 ) = Rang(Ø11 ) = Rang(A11 ) + 1 gilt. Damit erhalten wir det A11 = 0 ⇔ det Ã11 = 0. Ist det A11 6= 0, so können wir A11 in Diagonalform bringen â22 0 .. SA11 = Â11 = . . 0 ârr Wir betrachten S̃ Ã11 wobei S̃ = 1 0 ∗ S 1 0 0 0 ∗ â22 0 = .. , . . ∗ . . ∗ 0 . . . ârr ist. Wir erhalten auch in diesem Fall det A11 = â22 · · · · · ârr = det S̃ Ã11 (2.45),(D6) = 1 · â22 · · · · · ârr = det Ã11 . 2. Fall i und j seien beliebig. Wir bringen die 1, die am Platz ij von Ãij steht, durch Vertauschen benachbarter Zeilen in die Diagonale. Dies liefert nach (D2) den Faktor (−1)|i−j| = (−1)i+j . Dann gehen wir analog zum 1. Fall vor. 120 KAPITEL 2. LINEARE ALGEBRA Theorem 2.47 (Entwicklungssatz von Laplace). Sei A eine (r × r) Matrix. Es ist det A = r X (−1)i+j aij det Aij , (2.47) j=1 wobei i ∈ {1, . . . , r} ist. (2.47) wird als Entwicklung nach der i-ten Zeile bezeichnet. Beweis. Wir können die Matrix A folgendermaßen schreiben: z1 z1 .. .. . . a (1, 0, . . . , 0) + · · · + a (0, 0, . . . , 1) z A = i = i1 . ir . .. .. . zr zr Nach (D1) gilt det A = ai1 det Ãi1 + · · ·+ air det Ãir Lemma 2.46 = ai1 (−1)i+1 det Ai1 + · · ·+ air (−1)i+r det Air . Beispiel 2 0 4 Sei A = 5 3 1. −1 0 1 a) Druch kreuzweises Rechnen (Regel von Sarrus (2.46)) erhalten wir det A = 6 + 12 = 18. b) Entwicklung nach der ersten Zeile liefert: 3 1 5 1 5 3 det A = 2 det + 0 det + 4 det 0 1 −1 1 −1 0 = 2 · 3 + 4 · 3 = 18. c) Entwicklung nach der zweiten Spalte (siehe Lemma 2.50) liefert 2 4 det A = 3 det −1 1 = 3 · 6 = 18. 121 2.5. DETERMINANTE EINER MATRIX Die transponierte Matrix Bei der Rangbestimmung haben wir gesehen, dass Rang A = Zeilenrang A = Spaltenrang A ist. Es tritt die Vermutung auf, dass wir die Determinanten von A auch durch Entwicklung nach Spalten berechnen können. Dies wird tatsächlich möglich sein. Wir führen dazu die zu A transponierte Matrix A⊤ ein. Definition 2.48. Sei A eine (r × s) Matrix, A = (aij ) 1≤i≤r . Die zu A transponierte Matrix 1≤j≤s ist eine (s × r) Matrix und durch A⊤ = (aji ) 1≤j≤s 1≤i≤r gegeben. Beispiele 1. Sei A = 1 2 0 0 . Dann ist 0 3 1 1 1 2 A⊤ = 0 0 a1 .. 2. Für A = . gilt ar 0 3 . 1 1 A⊤ = (a1 , . . . , ar ). Lemma 2.49. Es ist (AB)⊤ = B ⊤ A⊤ . P Beweis. Es gilt AB = (cik ), wobei cik = rj=1 aij bjk (i-te Zeile von A mal k-te Spalte von B) ist. Andererseits ist (AB)⊤ = (cki ) mit cki = = r X j=1 r X akj bji (k-te Zeile von A mal i-te Spalte von B) bij ajk (i-te Zeile von B ⊤ mal k-te Spalte von A⊤ ). j=1 Somit gilt (AB)⊤ = B ⊤ A⊤ . Lemma 2.50. Sei A eine (r × r) Matrix. Dann ist 122 KAPITEL 2. LINEARE ALGEBRA a) det(A) = det A⊤ , P b) det A = ri=1 (−1)i+j aij det Aij , wobei j ∈ {1, 2, . . . , r} ist. (Entwicklung nach der j-ten Spalte) Beweis. a) 1. Fall: Es sei det A = 0. Dann folgt Rang(A) < r und Rang(A⊤ ) < r (nach (2.27)) und damit det A⊤ = 0. 2. Fall: Es sei det A 6= 0. Dann können wir durch Zeilenumformungen erreichen, dass â11 0 .. det A = det(SA) = det . . 0 ârr (2.48) Hierbei ist S das Produkt von Matrizen der Form S(α, k, j), die durch (2.44) gegeben (2.45) sind. Da det S(α, k, j) = det S(α, k, j)⊤ = 1 gilt und nach Lemma 2.45 und Lemma 2.49 det S = det S ⊤ = 1 folgt, erhalten wir (2.48) det A = det(SA) = det(SA)⊤ b) Diese Eigenschaft folgt aus a). Lemma 2.45 = det A⊤ det S ⊤ = det A⊤ . 123 2.5. DETERMINANTE EINER MATRIX Übungsaufgaben Aufgabe 8.1 Berechnen Sie für 0 2 3 0 A = (a1 , a2 , a3 ) = 2 1 2 , b = 1 , A1 = (b, a2 , a3 ) , A2 = (a1 , b, a3 ) , A3 = (a1 , a2 , b) 3 2 0 9 (a1 , a2 , a3 sind die Spaltenvektoren von A) die Determinanten α = det(A), x1 = det(A1 ), x2 = det(A2 ) und x3 = det(A3 ). Berechnen Sie außerdem A(x1 , x2 , x3 )⊤ − αb . Aufgabe 8.2 Berechnen Sie für die Matrizen 1 2 0 A = 3 0 4 , 0 5 6 1 0 2 B= 3 0 6 4 0 8 det(A) und det(B). Bestimmen Sie auch die Werte der Ausdrücke det(A−1 ) , det (AB) , det A⊤ A−1 , Rang A⊤ AB , Rang B ⊤ A⊤ A . Aufgabe 8.3 Zur Transformation eines linearen Gleichungssystems Ax = b mit n Zeilen auf Zeilenstufenform können auch andere Matrizen verwendet werden. Bei der Givens-Rotation werden zur Elimination des Eintrags an der Stelle (k, l) der Matrix A Matrizen G(k, l) verwendet, die sich nur an vier Stellen von der (n × n)-Einheitsmatrix En unterscheiden und zwar G(k, l)k,k = G(k, l)l,l = c , G(k, l)l,k = −G(k, l)k,l = s , wobei c und s so gewählt sind, dass die Determinante der Matrix det(G(k, l)) = 1 ist. Wie müssen c und s in Abhängigkeit der Einträge der Matrix A gewählt werden, damit der Eintrag (k, l) in der Matrix Aneu = G(k, l) · A verschwindet? (freiwillig) Verändern Sie Ihr Programm aus der letzten Aufgabe so, dass die Zeilenstufenform mit Hilfe von Givens-Rotationen erzeugt wird. Aufgabe 8.4 Gegeben seien die 2 1 A= 3 −3 7 Matrizen 0 4 6 5 11 0 −3 0 0 1 −2 5×5 1 −1 2 ∈R 2 −1 0 4 1 1 a) Berechnen Sie det(A). und B= b) Zeigen Sie, dass det(B) = (a + (n − 1)b) (a − b)n−1 . b ··· b ··· .. .. . . b ··· b a b ··· b b a b b a .. . . . . b b .. . ∈ Rn×n . b a 124 2.6 KAPITEL 2. LINEARE ALGEBRA Eigenwerte und Diagonalisierbarkeit Im vorigen Abschnitt hatten wir lineare Gleichungssysteme Ax = b betrachtet. Dabei konnten wir durch elementare Zeilenumformungen erreichen, dass das Gleichungssystem eine Diagonalform annimmt. Wir sehen uns jetzt die Diagonalisierbarkeit einer gegebenen Matrix A an, die durch Darstellung der Matrix in einer geeigneten Basis charakterisiert wird. Zunächst erinnern wir uns an die Darstellung linearer Abbildungen durch Matrizen, die von der Wahl der Basis abhängt (siehe Abschnitt 2.3). Sei f eine lineare Abbildung, die einen r-dimensionalen Vektorraum V in sich selbst abbildet: f : V → V, dim V = r. Sei {v1 , . . . , vr } eine Basis von V . Es gibt eindeutig bestimmte Zahlen aB ij ∈ K, so dass f (v j ) = r X aB ij v i (2.49) i=1 ist. Die Matrix AB = (aB ij ) charakterisiert die Abbildung f : V → V , siehe (2.18). In der Standardbasis haben wir, siehe (2.19), f (x) = fA (x) = Ax ∀x ∈ V = K r . (2.50) AB hängt von der Wahl der Basis ab. Die Diagonalisierbarkeit ist äquivalent dazu, eine Basis zu finden, in der AB Diagonalform besitzt. In diesem Fall ist f (v j ) = aB jj v j . (2.51) Es wird sich erweisen, dass eine solche Basis durch sogenannte Eigenvektoren erzeugt werden kann. Definition 2.51. Sei K = R oder C und V ein r-dimensionaler K-Vektorraum. Sei f : V → V eine lineare Abbildung. Eine Zahl λ ∈ K heißt Eigenwert (kurz EW) von f , falls es ein v ∈ V \ {0} gibt mit f v = λv. (2.52) Jedes v ∈ V \ {0}, das (2.52) genügt, heißt Eigenvektor von f (kurz EV) zum Eigenwert λ. Ein Paar {λ, v}, wobei λ Eigenwert ist und v der zugehörigen Eigenvektor, wird Eigenpaar genannt. Bemerkung. Sei (e1 , . . . , er ) die Standardbasis in K r und A die durch (2.49) bzw. (2.19) zugeordnete Matrix zu f = fA . Ersetzt man in der Definition 2.51 f durch A, erhält man die Begriffe Eigenwert bzw. Eigenvektor einer Matrix. 2.6. EIGENWERTE UND DIAGONALISIERBARKEIT 125 Definition 2.52. Sei K = R oder C und V ein r-dimensionaler K-Vektorraum. Sei A eine (r × r) Matrix. Eine Zahl λ ∈ K heißt Eigenwert von A, falls es ein x ∈ V \ {0} gibt mit Ax = λx. (2.53) Jedes x ∈ V \ {0}, das (2.53) genügt, heißt Eigenvektor von A zum Eigenwert λ. Wir führen jetzt den Begriff eines Eigenraumes und des Spektrums einer linearerAbbildung ein. Definition 2.53. (i) Sei f wie in der Definition 2.51 gegeben und λ ∈ K ein Eigenwert von f . Der lineare Teilraum Eλ = {v ∈ V : f (v) = λv} = ker(f − λ id), wobei id die identische Abbildung ist, id v = v, wird Eigenraum zum Eigenwert λ genannt. Die Dimension des Eigenraums, dim Eλ , heißt geometrische Vielfachheit des Eigenwertes λ. (ii) Die Teilmenge σ(f ) = {λ ∈ K : λ ist Eigenwert von f } ⊂ K heißt Spektrum von f . Diese Definitionen können auch auf Matrizen A, die durch lineare Abbildungen fA dargestellt werden, übertragen werden. Für die Berechnung der Eigenwerte einer Matrix A ist folgender Satz grundlegend. Theorem 2.54. Die Zahl λ ist genau dann Eigenwert von A, falls gilt det(A − λE) = 0. Beweis. a) Es sei λ Eigenwert von A. Dann gibt es ein v 6= 0, so dass Av − λv = (A − λE)v = 0 ist, d.h. ker(A − λE) 6= {0}, (A − λE) ist nicht invertierbar und aus Folgerung 2.43 erhalten wir det(A − λE) = 0. b) Es sei det(A − λE) = 0. Dann ist ker(A − λE) 6= {0} und es existiert ein v 6= 0, so dass Av = λv ist. 126 KAPITEL 2. LINEARE ALGEBRA Das charakteristische Polynom Es ist a11 − λ a12 ... a1r a21 a22 − λ . . . a2r det(A − λE) = det .. .. .. .. = P (λ), . . . . ar1 ... arr−1 arr − λ wobei P (λ) ein Polynom in λ ist. P (λ) wird charakteristisches Polynom genannt. Damit ist λ genau dann ein Eigenwert von A, falls λ Nullstelle von P (λ) ist. Weiterhin kann A (bzw. fA ) höchstens r Eigenwerte besitzen. Führen wir einen Basiswechsel durch, so dass die Standardbasis im K r in eine Basis B aus r Eigenvektoren überführt wird, B = {v 1 , . . . , vr }, dann wird die zugehörige Matrix AB nach (2.49) Diagonalform besitzen. Dies wird später gezeigt und motiviert folgende Definition. Definition 2.55. A (bzw. fA ) heißt diagonalisierbar, falls V = K r eine Basis besitzt, die nur aus Eigenvektoren besteht. Bemerkung: In Lemma 2.61 wird gezeigt: Ist A diagonalisierbar, dann existiert eine Matrix H deren Spalten die Eigenvektoren sind, so dass λ1 0 .. H −1AH = . 0 λr ist. λ1 , . . . , λr sind die Eigenwerte von A. Beispiele 0 0 1 . Die Abbildung Ax = (i) Wir betrachten die Matrix A = 1 1 0 beschreibt die Spiegelung an der Diagonale in der x1 − x2 -Ebene. −λ 1 = λ2 − 1 = 0, det(A − λE) = det 1 −λ x2 x1 1 = x1 x2 0 Es ist falls λ = ±1 ist. Wir betrachten zunächst den Eigenwert λ1 = 1. Es ist −1 1 x1 −x1 + x2 0 = = , 1 −1 x2 x1 − x2 0 1 ein Eigenvektor. Entsprechend gilt für den falls x1 = x2 ist. Damit ist v 1 = 1 Eigenwert λ2 = −1 0 x1 + x2 x1 1 1 , = = 0 x1 + x2 x2 1 1 127 2.6. EIGENWERTE UND DIAGONALISIERBARKEIT 1 falls x1 = −x2 ist. Es folgt, dass v 2 = ein Eigenvektor ist. Die Eigenvektoren −1 v 1 und v 2 sind linear unabhängig. Man betrachte 1 1 det = −2 6= 0. 1 −1 Führen wir im R2 die Basis B = {v 1 , v 2 } der Eigenvektoren ein, so erhalten wir nach (2.49) Av 1 = B v 1 = f (v 1 ) = aB 11 v 1 + a21 v 2 B Av 2 = −v 2 = f (v 2 ) = aB 12 v 1 + a22 v 2 . B B B Da die Basisdarstellung eindeutig ist, ergibt sich aB 11 = 1, a21 = 0, a12 = 0, a22 = −1 und damit ist 1 0 . A = 0 −1 B 0 1 . A beschreibt eine Spiegelung an der Achse x1 = x2 und eine (ii) Es sei A = 0 0 anschließende Projektion auf die x1 -Achse: x2 x1 0 1 . = Ax = 0 x2 0 0 Wir erhalten −λ 1 det(A − λE) = det = λ2 = 0, 0 −λ falls λ = 0 ist. Wir bestimmen die zugehörigen Eigenvektoren. Es ist x2 x1 0 1 = 0. = (A − 0λ)x = 0 x2 0 0 1 ein Eigenvektor, jedoch kann ein einzelner Eigenvektor keine Basis Damit ist 0 im R2 bilden. (iii) Wir sehen uns die Drehmatrix (Drehung um den Winkel φ) an: cos φ − sin φ . A= sin φ cos φ Es ist cos φ − λ − sin φ det(A − λE) = det sin φ cos φ − λ Die Wurzeln sind λ1,2 = (cos φ − λ)2 + (sin φ)2 = λ2 − 2λ cos φ + 1. p = cos φ ± −(sin φ)2 . Wir erhalten 128 KAPITEL 2. LINEARE ALGEBRA – Für K = R: Ist sin φ 6= 0, dann existiert kein reeller Eigenwert. Ist sin φ = 0, dann ist A = ±E. – Für K = C: Es treten die Eigenwerte λ1,2 = cos φ ± i sin φ auf. Ist sin φ 6= 0, dann sind sie voneinander verschieden. Wir bestimmen in diesem Fall die komplexen Eigenvektoren. Für λ1 = cos φ + i sin φ muss gelten − i sin φ − sin φ z1 0 = . sin φ − i sin φ z2 0 Damit erhalten wir für z1 = a1 + i b1 , z2 = a2 + i b2 : − sin φ(i z1 + z2 ) = 0, sin φ(z1 − i z2 ) = 0, woraus a1 + i b1 − i(a2 + i b2 ) = 0, a1 + b2 = 0, b1 − a2 = 0 1+i folgt. Damit ist v 1 = ein Eigenvektor. 1−i Für λ2 = cos φ − i sin φ muss gelten 0 z1 i sin φ − sin φ . = 0 z2 sin φ i sin φ und analog zu oben erhalten wir, dass 1+i v2 = −1 + i ein entsprechender Eigenvektor ist. Bemerkung: Die lineare Abbildung f bzw. die Matrix A bilden Eigenräume in sich ab. 2.6. EIGENWERTE UND DIAGONALISIERBARKEIT 129 Diagonalisierbarkeit Wir müssen also die Fragen nach der Existenz einer Basis, die nur aus Eigenvektoren besteht, diskutieren. Wir sehen uns zunächst die lineare Unabhängigkeit von Eigenvektoren an, die zu verschiedenen Eigenwerten gehören. Theorem 2.56. Sei V ein K-Vektorraum, f : V → V . Seien λ1 , . . . , λk ∈ K verschiedene Eigenwerte zu f , v 1 , . . . , v k dazugehörige Eigenvektoren. Dann sind {v 1 , . . . , v k } linear unabhängig. Beweis. Der Beweis erfolgt durch eine vollständige Induktion nach k ∈ N: 1. Es sei k = 1. Dann ist v 1 6= 0 und die Menge {v 1 } besteht aus linear unabhängigen Vektoren (Induktionsanfang). 2. Die Aussage gelte für (k − 1) verschiedene Eigenwerte (Induktionsannahme). 3. Wir zeigen, die Aussage gilt für k verschiedene Eigenwerte (Induktionsschritt). Wären {v 1 , . . . , v k } linear abhängig, dann lässt sich einer der Vektoren, sagen wir v 1 , durch die anderen ausdrücken v 1 = µ2 v 2 + · · · + µk v k , µi ∈ K. (2.54) Wir betrachten die Eigenwertgleichung: λ1 v 1 = λ1 µ2 v 2 +· · ·+λ1µk v k = f (v 1 ) = f (µ2 v 2 +· · ·+µk v k ) = µ2 λ2 v 2 +· · ·+µk λk v k . Daraus folgt 0 = µ2 (λ2 − λ1 )v 2 + · · · + µk (λk − λ1 )v k . Aus der Induktionsannahme erhalten wir, dass gilt µi (λi − λ1 ) = 0 für i = 2, . . . , k. Da λi 6= λj ist, muss µi = 0 für i = 2, . . . , k sein. Der Eigenvektor v 1 ist durch (2.54) gegeben und daher muss er der Nullvektor sein, was nicht sein kann. Conclusion 2.57. Sei V endlichdimensional, dim V = r, f : V → V eine lineare Abbildung. Besitzt f (bzw. fA ) r verschiedene Eigenwerte, d.h. σ(f ) = {λ1 , . . . , λr }, dann ist f bzw. die zu fA gehörige Matrix A diagonalisierbar. In diesem Fall ist dim(Eλi ) = 1, i = 1, . . . , r. Die Matrix im Beispiel (i) S. 118 ist damit diagonalisierbar. Ist die Anzahl verschiedener Eigenwerte kleiner als r, dann kann die Diagonalisierbarkeit bei genügender Anzahl von Eigenvektoren ebenfalls garantiert werden. Es gilt offensichtlich: Theorem 2.58. Folgende Aussagen sind äquivalent. 1. fA bzw. A seien diagonalisierbar. Pk 2. i=1 dim(Eλi ) = r, wobei λ1 , . . . , λk , k ≤ r, verschiedene Eigenwerte sind. 130 KAPITEL 2. LINEARE ALGEBRA Diagonalisierbarkeit und charakteristisches Polynom Wir charakterisieren nun die Diagonalisierbarkeit mit Hilfe des charakteristischen Polynoms P (λ) = det(A − λE). Jede Nullstelle von P (λ) ist Eigenwert von A. Wir wissen, dass auch mehrfache Nullstellen auftreten können. Definition 2.59. Es sei P (λ) = det(A − λE) = (λ1 − λ)n1 · · · · · (λk − λ)nk , d.h. die Nullstelle λi besitze die Vielfachheit ni . Die Zahl ni heißt algebraische Vielfachheit des Eigenwertes λi . Theorem 2.60. [?, S.235] Sei f : V = K r → V = K r eine lineare Abbildung. Folgende Aussagen sind äquivalent: (i) fA (bzw. A) ist diagonalisierbar. (ii) P (λ) zerfällt über K in Linearfaktoren (es treten nicht notwendig r verschiedene Nullstellen = Eigenwerte auf, siehe oben). Für jede Nullstelle λi gilt, dass die geometrische Vielfachheit (dim(Eλi )) mit der algebraischen Vielfachheit von λi übereinstimmt, i = 1, 2, . . . , k. Beweis. Hier wird nur eine Skizze des Beweises angegeben. • Es wird benutzt, dass für einen Eigenwert λ gilt geometrische Vielfachheit von λ ≤ algebraische Vielfachheit von λ. • Außerdem besagt, der Fundamentalsatz der Algebra, dass für K = C gilt k X algebraische Vielfachheit (λi ) = r. i=1 Diagonalisierung Wir beschreiben jetzt den Prozess, wie man Matrizen diagonalisiert. 1.Schritt: Berechnung der Eigenwerte λi , i = 1, 2, . . . , k, der Matrix A durch Bestimmen der Nullstellen des charakteristischen Polynoms P (λ) = det(A − λE) = 0. 131 2.6. EIGENWERTE UND DIAGONALISIERBARKEIT 2.Schritt: Berechnung zugehöriger Eigenvektoren v i durch Lösung der Gleichungssysteme (A − λi E)v i = 0. Beachte, dass die v i nicht eindeutig bestimmt sind. 3.Schritt: Prüfen, ob 4.Schritt: Pk i=1 dim(Eλi ) = r ist. Bilde AB = H −1 AH = D = λ1 0 .. . 0 λr , (2.55) wobei die Matrix H als Spaltenvektoren die Eigenvektoren besitzt und die Eigenwerte λi einfach oder mehrfach, gemäß ihrer geometrischen Vielfachheit, auftreten. Wir erläutern den Schritt 4: Wir nummerieren die verschiedenen Eigenpaare in der Form (λ1 , v 1 ), . . . , (λk , v k ), wobei nicht alle λi verschieden sein müssen. Die Menge B = {v 1 , . . . , v r } der Eigenvektoren ist die gewünschte Basis, in der AB Diagonalform besitzt. Wir überzeugen uns davon: Die Koordinatentransformation von der Standardbasis {e1 , . . . , er } in die Basis B = {v1 , . . . , v r } wird nach (2.22) durch die Matrix HB2 = HB = H, deren Spalten die Eigenvektoren v 1 , . . . , v r sind, realisiert. Insbesondere ist v i = Hei . Lemma 2.61. Es ist λ1 0 .. AB = H −1AH = D = . . 0 λr (2.56) Beweis. Die Eigenwertgleichung liefert Av i = λi v i , i = 1, 2, . . . , r. Die v i lassen sich darstellen als v i = Hei . Wir setzen v i in (2.57) ein und erhalten: AHei = λi Hei = Hλiei . Daraus folgt H −1 AHei = λi ei , H −1AH = D. (2.57) 132 KAPITEL 2. LINEARE ALGEBRA Mit Hilfe der Beziehung (2.49) folgt AB = D. Es ist nämlich fA (v j ) = Av j = r X aB ij v j = λj v j , j = 1, . . . , r. i=1 Da die Koordinatendarstellung bezüglich der Basis {v 1 , . . . , v r } eindeutig ist, folgt ( 0 für i = 6 j, aB ij = λj für i = j. Wir erhalten, dass AB = (aB ij ) 1≤i≤r = D ist. 1≤j≤r Remark 2.62. Die Gleichung (2.56) kann auch durch direktes Nachrechnen von AH = HD unter Beachtung von (2.57) verifiziert werden. Jordansche Normalform Wie wir im Beispiel (ii) im letzten Abschnitt gesehen haben, kann es durchaus sein, dass nicht genügend viele Eigenvektoren existieren, d.h. geometrische Vielfachheit von λ < algebraische Vielfachheit von λ. In diesem Fall ist fA nicht diagonalisierbar. Trotzdem kann man in diesem Fall noch eine Jordansche Normalform von fA bzw. der Matrix A konstruieren, in der anstelle der Diagonalelemente einfache Blockmatrizen (Jordan-Matrizen) treten. Definition 2.63. Sei λ ∈ K. Die (j × j) Matrix heißt Jordan-Matrix. λ 0 . Jj (λ) = .. . .. 0 1 0 ... 0 λ 1 . . . 0 .. . . . . .. . . . . .. .. . 1 . 0 0 ... λ 2.6. EIGENWERTE UND DIAGONALISIERBARKEIT 133 Theorem 2.64. [4, S. 268] Sei f = fA : V = K r → V = K r , fA (x) = Ax eine lineare Abbildung deren charakteristisches Polynom in Faktoren zerfällt, P (λ) = det(A − λE) = (λ1 − λ)n1 · · · · · (λk − λ)nk , wobei λ1 , . . . , λk verschiedene Eigenwerte von fA bzw. A sind. Dann gibt es eine Basis B in K r in der die zu f gehörige Matrix AB die Form Jn11 (λ1 ) . . . ... ... ... ... 0 .. .. .. . . . . . .. .. Jn1l1 (λ1 ) . . .. . . (2.58) . . . . . .. .. Jnk1 (λk ) .. .. .. . . . 0 ... ... ... ... . . . Jnklk (λk ) Pi nij = ni , i = 1, . . . , k, n1 + n2 + · · · + nk = r und die Anzahl li der besitzt. Dabei ist lj=1 Jordanblöcke zum Eigenwert λi ist gleich seiner geometrischen Vielfachheit. Bemerkungen: Die Jordanformen AB sind nicht eindeutig bestimmt, da die Reihenfolge der Eigenwerte und die Anordnung der Jordanblöcke nicht festgelegt wurde. Ausserdem ist die Kenntnis der geometrischen und algebraischen Vielfachheiten nicht immer ausreichend, um die Jordanform zu beschreiben. Man betrachte z.B. eine 4 × 4 Matrix, die nur einen Eigenwert mit der geometrischen Vielfachheit 2 besitzt. Sind alle Jordan-Matrizen eindimensional, dann hat A Diagonalform. Ist z.B. r = 2 und liegt nur ein Eigenwert λ1 vor, dann gibt es zwei Fälle: • Ist die geometrische Vielfachheit von λ1 gleich 2, dann treten zwei 1 × 1 Jordanblöcke auf und AB besitzt Diagonalform. • Ist die geometrische Vielfachheit von λ1 gleich 1, dann tritt ein 2 × 2 Jordanblock auf und AB besitzt (echte) Jordanform. Beispiele 0 1 . A besitzt einen Eigen1. Im Beispiel (ii) des vorherigen Abschnittes war A = 0 0 wert λ1 = 0 mit geometrischer Vielfachheit 1 und algebraischer Vielfachheit 2. Daher ist A nicht diagonalisierbar. In diesem speziellen Fall existiert eine Jordanform AB , die mit A übereinstimmt. 2. Wir betrachten die Matrix 0 1 3 A = 0 0 0 . 0 5 1 134 KAPITEL 2. LINEARE ALGEBRA Es ist −λ 1 3 0 = (1 − λ)λ2 , det(A − λE) = det 0 −λ 0 5 1−λ d.h. n1 = 1, n2 = 2. Die Eigenwerte sind λ1 = 1 und λ2 = 0. Wir betrachten zunächst den Eigenwert λ1 = 1 und berechnen dazu einen Eigenvektor v 1 = (x1 , x2 , x3 )⊤ : −1 1 3 x1 0 −x1 + x2 + 3x3 , −x2 (A − E)v 1 = 0 −1 0 x2 = 0 = 0 5 0 x3 0 5x2 woraus z.B. folgt Wir erhalten 3 v 1 = 0 . 1 dim(Eλ1 ) = 1 = n1 . Nun sehen wir uns den Eigenwert λ2 = 0 an und berechnen Eigenvektoren aus 0 1 3 x1 0 x2 + 3x3 . 0 (A − 0E)v 2 = 0 0 0 x2 = 0 = 0 5 1 x3 0 5x2 + x3 1 Damit ist 0 = v 2 ein Eigenvektor und dim(Eλ2 ) = 1 < n2 . 0 Die Matrix A ist daher nicht diagonalisierbar. Da n11 = 1 und n21 = 2 ist ihre Jordansche Normalform 1 0 0 AB = 0 0 1 . (2.59) 0 0 0 3 Wir beschreiben eine Basis, in der AB gegeben ist. Zu den Eigenvektoren v 1 = 0 1 1 und v 2 = 0 ist ein weiterer Basisvektor v 3 zu konstruieren. Dazu sehen wir uns 0 die Gleichungen (2.49) und (2.50) an. Es soll gelten: B B fA (v 3 ) = Av 3 = aB 13 v 1 + a23 v 2 + a33 v 3 = 0v 1 + 1v 2 + 0v 3 2.6. EIGENWERTE UND DIAGONALISIERBARKEIT und damit Wir erhalten 135 0 1 3 v3,1 1 v3,2 + 3v3,3 0 0 0 v3,2 = 1v 2 = 0 = . 0 0 5 1 v3,3 0 5v3,2 + v3,3 0 1 . v 3 = − 14 5 14 Eine Basis in der A eine Jordan-Normalform AB besitzt, lautet 1 0 3 1 . B = 0 , 0 , − 14 5 1 0 14 3. Die (6 × 6)-Matrix A besitze zwei 3-fache Eigenwerte λ1 = 1 und λ2 = 2. Es sei dim Eλ1 = 2 und dim Eλ2 = 1. Dann lautet eine Jordansche Normalform von A: 1 0 0 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 2 1 0 . 0 0 0 0 2 1 0 0 0 0 0 2 In diesem Fall ist in (2.58) n11 = 1, n12 = 2 und n21 = 3. Remark 2.65. Der Algorithmus, der im 2. Beispiel zur Bestimmung des fehlenden Basisvektors v 3 geführt hat, kann allgemein beschrieben werden. Hier betrachten wir folgenden Fall: Sei fA eine gegebene lineare Abbildung von V = K k in V = K k , λ 1 0 .. . . . . . . .. . . B A = . (2.60) . . . 1 .. 0 λ ein k × k Jordanblock zum Eigenwert λ mit dim Eλ = 1. v 1 ∈ Eλ sei ein bekannter Eigenvektor zu λ. Die restlichen k − 1 Basisvektoren v 2 , . . . , v k können Schritt für Schritt aus folgenden Gleichungssystemen bestimmt werden, indem (2.49) und (2.60) verwendet werden: k X 2. Spalte von (2.60) fA (v 2 ) = Av 2 = aB = 1v 1 + λv 2 . ij v i i=1 Damit ist das Gleichungssystem (A − λE)v 2 = v 1 (2.61) 136 KAPITEL 2. LINEARE ALGEBRA zu lösen. Nehmen wir an, dass v 1 , . . . , v j−1 bekannt seien. Dann gilt für v j fA (v j ) = Av j = k X aB ij v i j−Spalte von (2.60) = v j−1 + λv j i=1 und daraus folgt (A − λ)v j = v j−1 . Übungsaufgaben Aufgabe 9.1 Bestimmen Sie die Eigenwerte und Eigenvektoren der Matrix 3 −1 −1 A = −1 3 1 −1 1 5 und transformieren Sie A auf Diagonalform. Aufgabe 9.2 Die symmetrische Matrix A habe die Eigenwerte λ1 = 1, λ2 = −1, λ3 = 2 und die dazugehörigen Eigenvektoren 1 1 −1 v1 = 0 , v2 = 1 , v3 = 2 . −1 1 −1 a) Berechnen Sie A. b) Berechnen Sie A−1 , det(A), Rang(A). c) Lösen Sie Ax = (0, 1, 0)⊤ . Aufgabe 9.3 Bestimmen Sie die 6 A= 8 2 Jordan–Normalformen JA , −2 3 3 −2 15 , B= 2 4 −1 8 JB und JC für die Matrizen 1 1 1 2 4 0 2 und C= 0 1 1 . 0 0 1 2 3 Aufgabe 9.4 Die Matrix A ∈ C4×4 besitze genau zwei Eigenwerte, λ und µ. Geben Sie alle Matrizen an, die als Jordansche Normalform von A in Frage kommen. Läßt sich die Jordansche Normalform von A allein mit Hilfe der algebraischen und geometrischen Vielfachheiten der Eigenwerte bestimmen? 137 2.6. EIGENWERTE UND DIAGONALISIERBARKEIT Aufgabe 9.5 Berechnen Sie für die Matrix 2 0 A= 0 0 0 1−α 1−α 2 α−1 α−1 , 0 α2 + 4 α2 − 4 0 α2 − 4 α2 + 4 α ∈ R. die Eigenwerte in Abhängigkeit von α und geben Sie an, für welche α die Matrix diagonalisierbar ist. 138 2.7 KAPITEL 2. LINEARE ALGEBRA Skalarprodukt Wir betrachten in diesem Abschnitt abstrakte Vektorräume, die in Abschnitt 2.1 eingeführt wurden. Sie können endlich oder unendlichdimensional sein, ihre Elemente können z.B. Zahlentupel, Abbildungen oder Funktionen sein. In Vektorräumen mit Skalarprodukt können geometrische Größen, wie Betrag und Winkel eingeführt werden, wie sie in endlichdimensionalen Vektorräumen bekannt sind. Damit ist auch der Begriff der Orthogonalität zweier Elemente eines abstrakt definierten Vektorraumes V wohldefiniert. Definition 2.66. Es sei V ein K-Vektorraum, K = R oder K = C. Eine Abbildung V × V → K, (x, y) → hx, yi, heißt Skalarprodukt auf V , falls die folgenden Eigenschaften für alle x, y, z ∈ V, α, β ∈ K gelten: (S1) hx, xi ≥ 0, hx, xi = 0 ⇔ x = 0, (S2) hx, yi = hy, xi für K = R hx, yi = hy, xi für K = C, (S3) hαx + βy, zi = αhx, zi + βhy, zi. Aus diesen Eigenschaften folgt: • hx, αyi = ᾱhx, yi, • hx, y + zi = hx, yi + hx, zi. Beispiele (i) Die Standard-Skalarprodukte auf Rn oder Cn sind: x1 y1 n X .. .. hx, yiRn = h . , . i = xi yi , i=1 xn yn w1 z1 n X .. .. zi w̄i . hz, wiCn = h . , . i = i=1 wn zn (ii) Wir betrachten im Rn ein weiteres Skalarprodukt hx, yiA = hAx, yiRn , wobei A eine Diagonalmatrix mit positiven Einträgen (aii > 0, i = 1, . . . , n) ist. Wir überprüfen die Eigenschaften (S1), (S2) und (S3): P (S1) Es gilt hx, xiA = ni=1 aii x2i ≥ 0 und hx, xiA = 0 ⇔ x = 0. 139 2.7. SKALARPRODUKT (S2) Es gilt hx, yiA = (S3) Es gilt: Pn i=1 aii xi yi = hy, xiA = Pn hαx + βy, ziA = hA(αx + βy), zi =α n X aii xi zi + β i=1 aii yi xi . i=1 Rn = n X aii (αxi + βyi)zi i=1 n X aii yi zi i=1 = αhx, ziA + βhy, ziA . (iii) Sei V := {f : [a, b] → C, f ist stetig}. Durch Z b hf, gi = f (x)ḡ(x)dx a ist ein Skalarprodukt definiert. Aus den Eigenschaften (S1), (S2) und (S3) kann man eine wichtige Abschätzung folgern, die Cauchy-Schwarzsche Ungleichung: Theorem 2.67. In einem K-Vektorraum, K = R oder K = C, mit einem Skalarprodukt gilt die Abschätzung p p (2.62) |hx, yi| ≤ hx, xi hy, yi. Beweis. Es ist im C-Vektorraum für einen Wert λ ∈ C hx + λy, x + λyi = hx, xi + λhy, xi + λ̄hx, yi + |λ|2 hy, yi ≥ 0. (2.63) in (2.63). Wir Wir nehmen an, dass y 6= 0 sei, also hy, yi > 0 ist und wählen λ = − hx,yi hy,yi erhalten hx, yihy, xi hy, xihx, yi |hx, yi|2 − + hy, yi ≥ 0, hx, xi − hy, yi hy, yi hy, yi2 woraus hx, xihy, yi ≥ |hx, yi|2 und schließlich (2.62) folgt. Norm (Betrag) Nun sind wir in der Lage, die Länge (Betrag) eines Elements im abstrakten Vektorraum V mit Skalarprodukt zu definieren. Theorem 2.68. Sei V ein K-Vektorraum, K = R oder K = C, mit Skalarprodukt. Dann ist für jedes Element x ∈ V eine Norm (Betrag) p kxk = hx, xi definiert, die folgende Eigenschaften für alle x, y ∈ V, α ∈ K besitzt: 140 (N1) kxk ≥ 0, KAPITEL 2. LINEARE ALGEBRA kxk = 0 ⇔ x = 0, (N2) kαxk = |α|kxk, (N3) kx + yk ≤ kxk + kyk. Beweis. (N1) und (N2) sind offensichtlich und wir sehen uns nur die Dreiecksungleichung (N3) an: kx + yk2 = |hx + y, x + yi| = |hx, xi + hy, xi + hx, yi + hy, yi| (2.62) ≤ kxk2 + 2kykkxk + kyk2 = (kxk + kyk)2 . Remark 2.69. Ein K-Vektorraum, in dem eine Abbildung k · k : V → R definiert ist, die den Axiomen (N1), (N2) und (N3) genügt, heißt normierter Raum. Winkel und Orthogonalität Wir können auch einen Winkel φ ∈ [0, π] zwischen zwei Elementen x 6= 0 und y 6= 0 in einem abstrakten Vektorraum V mit Skalarprodukt einführen: hx, yi cos φ = . (2.64) kxkkyk (2.62) |hx,yi| ≤ 1, ist diese Definition sinnvoll. Aus der Beziehung (2.64) folgt Da cos φ = kxkkyk unmittelbar die Erklärung, wann zwei Elemente x und y zueinander orthogonal sind. Definition 2.70. Zwei Elemente x und y aus einem K-Vektorraum, K = R oder K = C, sind orthogonal (x⊥y), falls gilt hx, yi = 0. Conclusion 2.71. Nur das Nullelement ist orthogonal zu allen Elementen aus V . Definition 2.72. Eine Menge von Elementen (vi )i∈I ⊆ V mit vi 6= 0 heißt Orthogonalsystem, falls vi ⊥vj für i 6= j ist. Wir sprechen von einem Orthonormalsystem, falls ( 0 für i 6= j, hvi , vj i = δij = 1 für i = j ist. Ist ein Orthonormalsystem Basis in V , so sprechen wir von einer Orthonormalbasis. Remark 2.73. • Es gilt der verallgemeinerte Satz vom Pythagoras für ein Orthogonalsystem aus n Elementen: kx1 + · · · + xn k2 = kx1 k2 + · · · + kxn k2 . • Ein Orthogonalsystem besteht aus linear unabhängigen Vektoren. Ein System aus linear unabhängigen Vektoren, kann orthonormiert werden (Gram-Schmidtsches Orthogonalisierungsverfahren, siehe Übungsaufgabe 10.3). 141 2.7. SKALARPRODUKT Lineare orthogonale Abbildungen (orthogonale Matrizen) Wir charakterisieren lineare Abbildung (Matrizen) eines abstrakten Vektorraumes V in V , die sich aus Spiegelungen und Drehungen zusammensetzen. Es sollen also Winkel und Beträge erhalten bleiben. Definition 2.74. Sei V ein K-Vektorraum, K = R oder K = C, mit Skalarprodukt. Eine lineare Abbildung f : V → V , heißt orthogonal, falls für alle v und w aus V gilt hv, wi = hf (v), f (w)i. (2.65) Conclusion 2.75. Es ist für alle v aus V für eine orthogonale Abbildung f kvk = kf (v)k. Der Winkel zwischen zwei Elementen v und w ∈ V bleibt erhalten: Winkel zwischen v und w = Winkel zwischen f (v) und f (w). Weiterhin ist eine orthogonale Abbildung injektiv. Endlichdimensionale Vektorräume und orthogonale Matrizen Wir betrachten jetzt endlichdimensionale Vektorräume V , dim V = r, mit Skalarprodukt. In V sei eine Orthonormalbasis, B = {v 1 , . . . , v r }, gegeben: hv i , v j i = δij i, j = 1, . . . , r. Wir wissen, dass eine lineare Abbildung f durch eine Matrix A bezüglich dieser Basis dargestellt werden kann (vergleiche dazu (2.49), (2.50)). Wir charakterisieren die Matrizen, die zu linearen orthogonalen Abbildungen gehören. Lemma 2.76. Sei V = Rr ein Vektorraum mit Skalarprodukt und orthogonaler Basis. Matrizen A, die zu linearen orthogonalen Abbildungen fA : V → V , fA (x) = Ax, gehören, haben die Eigenschaft, dass A⊤ = A−1 ist. Solche Matrizen heißen orthogonale Matrizen. Beweis. Für eine orthogonale Basis {v 1 , . . . , v r } gilt: hx, yi = h Daher ist r X i=1 (2.65) xi v i , r X j=1 yj v j i = r X i=1 xi yi = x⊤ y für alle x, y ∈ V. hx, yi = hAx, Ayi = (Ax)⊤ Ay = x⊤ A⊤ Ay = hx, A⊤ Ayi. 142 KAPITEL 2. LINEARE ALGEBRA Es folgt, dass hx, (A⊤ A − E)yi = 0 für alle x und y aus V ist, und daher muss nach Folgerung 2.71 A⊤ A = E (2.66) sein. Wir müssen noch zeigen, dass AA⊤ = E ist. Da V endlichdimensional ist und eine orthogonale Abbildung stets injektiv ist, liegt in diesem Fall eine bijektive Abbildung vor und A−1 existiert. Für A−1 gilt hA−1 z, A−1 wi = hAA−1 z, AA−1 wi = hz, wi für alle z, w ∈ V, (2.67) d.h. A−1 ist ebenfalls eine orthogonale Matrix. Jetzt können wir zeigen, dass auch A⊤ diese Eigenschaft besitzt. Seien x und y beliebig aus V . Es existieren z und w aus V , so dass x = Az, y = Aw sind. Wir erhalten (2.66) (2.67) hA⊤ x, A⊤ yi = hA⊤ Az, A⊤ Awi = hz, wi = hA−1 x, A−1 yi = hx, yi. Da hA⊤ x, A⊤ yi = (A⊤ x)⊤ A⊤ y = x⊤ AA⊤ y = hx, AA⊤ yi = hx, yi ist, gilt AA⊤ = E und zusammen mit (2.66) folgt A⊤ = A−1 . Conclusion 2.77. Spalten und Zeilen einer orthogonalen Matrix sind jeweils orthonormale Systeme. Remark 2.78. Liegt ein C-Vektorraum vor, dann spricht man von unitären Matrizen, falls A−1 = Ā⊤ ist. Beispiele • Für jedes α ∈ R sei cos α − sin α A(α) = . sin α cos α A(α) beschreibt bezüglich der Standardbasis im R2 eine Drehung um den Winkel α. Es ist cos α sin α ⊤ A (α) = − sin α cos α und 1 0 A (α)A(α) = . 0 1 ⊤ 143 2.7. SKALARPRODUKT • Die Matrix cos α sin α B(α) = sin α − cos α ist ebenfalls orthogonal. Sie stellt eine Drehspiegelung dar. Es ist sin α 0 cos α 1 . = , B(α) = B(α) − cos α 1 sin α 0 Hauptachsentransformation Wir hatten bereits gesehen, siehe (2.56), falls eine (r × r)-Matrix r Eigenvektoren besitzt, dann können wir A diagonalisieren, indem wir λ1 0 . . . 0 0 λ2 . . . 0 H −1AH = D = .. .. , .. . . . 0 . . . . . . λr bilden. Die Zahlen λi sind die Eigenwerte von A und H besitzt die Eigenvektoren als Spaltenvektoren. Betrachten wir ein orthonormales System von Eigenvektoren, dann ist H −1 = H ⊤ und H ⊤ AH = D. Diese Transformation wird auch Hauptachsentransformation genannt. Übungsaufgaben Aufgabe 10.1 Für welche Werte λ und µ in R ist hx, yiA = hAx, yiR2 mit 1 λ A= µ 1 ein Skalarprodukt auf R2 ? Aufgabe 10.2 Zeigen Sie: a) | ka − ck − kb − ck |≤ ka − bk b) | ka − bk − kc − dk |≤ ka − ck + kb − dk Aufgabe 10.3 Schmidt’sches Orthonormalisierungsverfahren. Zu jeder Menge linear unabhängiger Vektoren {v1 , . . . , vn } gibt es ein Orthonormalsystem {w1 , . . . , wn } mit Span{v1 , . . . , vk } = Span{w1 , . . . , wk } , für alle 1 ≤ k ≤ n 144 KAPITEL 2. LINEARE ALGEBRA Man beweist diese Aussage mit Induktion über n: Ist n = 1, so ist v1 w1 = kv1 k ein Orthonormalsystem mit Span{v1 } = Span{w1 }. Für n = 2 setzt man w̃2 = v2 + αw1 und bestimmt α so, dass w̃2 ⊥ w1 : 0 = hw̃2 , w1 i = hv2 , w1 i + αhw1 , w1 i Es ergibt sich also α = −hv2 , w1 i und somit w̃2 = v2 − hv2 , w1 iw1 6= 0, da {v2 , w1 } linear unabhängig ist. Es ist also w̃2 w2 = kw̃2 k der gesuchte Vektor. a) Vollenden Sie den Beweis. b) Wenden Sie das Schmidt’sche Orthonormalisierungsverfahren auf den Unterraum 1 2 2 1 6 , a3 = 9 , a = Span{a1 , a2 , a3 } ⊂ R4 mit a1 = 2 5 4 0 8 4 2 bezüglich des Standard-Skalarprodukts an. Aufgabe 10.4 Gegeben sind die Vektoren 3 a = −2 , 1 2 b = 2 , −2 1 c = c2 c3 und 3 x = −18 . −3 a) Bestimmen Sie c2 , c3 ∈ R so, dass a, b, c ein orthogonales System bilden. b) Berechnen Sie mit Hilfe des Skalarprodukts die Koeffizienten α, β, γ der Linearkombination x = αa + βb + γc. Hinweis: Betrachten Sie in b) die Skalarprodukte hx, ai, hx, bi und hx, ci . Aufgabe 10.5 Gegeben seien die Vektoren 1 a= 2 3 −2 und b = 3 . 1 a) Bestimmen Sie den Winkel α ∈ [0, π] zwischen den beiden Vektoren. b) Bestimmen Sie einen zu a orthogonalen Vektor c, so dass a und c dieselbe Ebene wie a und b aufspannen. c) Ergänzen Sie {a, c } zu einer orthogonalen Basis {a, c, d} des R3 . Literaturverzeichnis [1] Beyer, Gottwald, Günther und Wünsch. Grundkurs Analysis vol.1 Teubner Verlag, Leipzig, 1972. [2] Brieskorn, E.. Lineare Algebra und analytische Geometrie. Vieweg Verlag, 1983. [3] Brill, M. Mathematik für Informatiker. Hanser-Verlag, 2001. [4] Fischer, G. Lineare Algebra. Vieweg Verlag, 2002. [5] Hartmann, P. Mathematik für Informatiker. Vieweg Verlag, 2002. [6] Burg, K., Haf, H. Höhere Mathematik für Ingenieure, vol. I und II. Teubner Verlag, 2001, 2002. [7] Mayberg, K., Vachenauer, P. Höhere Mathematik I. Springer-Verlag, 2001. [8] Pareigis, B. Lineare Algebra für Informatiker. Springer-Verlag, 2000. [9] Tarski, A. Der Wahrheitsbegriff in den formalisierten Sprachen Studia philosophika vol. 1 (1936), pp. 261-405, polnisches Original 1933. 145