1 Lineare Algebra I 1 TUD WS04/5 Bedeutung von Formeln und Aussagen 1.1 Strukturen In der Mathematik geht es in der Regel um Strukturen bzw. Klassen von Strukturen. Eine Struktur wird verstanden als ein System von Objekten, Individuen oder Elementen, die unterschiedlichen Typen oder Sorten zugeordnet sein können, und Relationen (Beziehungen) bzw. Operationen (Verküpfungen) zwischen diesen bzw. Konstanten (ausgezeichneten Elementen). a. Der Zahlbereich N der natürlichen Zahlen 0, 1, 2, 3, . . . mit dem Größenvergleich (Anordnung), der Addition und Moltiplikation, und den Konstanten Null und Eins b. Andere Zahlbereiche, z.B. der ganzen Zahlen (Z), der rationalen Zahlen (Q) oder der reellen Zahlen (R). c. Der affine Raum mit Objekten von den Typen Punkt, Gerade und Ebene und der Beziehung “liegt auf” (inzidiert) jeweils zwischen Punkten und Geraden, Punkten und Ebenen wie Geraden und Ebenen. d. Beim metrischen oder euklidischen Raum kommt zu 3. die Kongruenz von Strecken und die Beziehung “zwischen” dazu. e. Die “Gruppe” der Bewegungen des Raumes, mit der Hintereinanderausführung als Operation. f. Die “Wirkung” der Bewegungsgruppe auf dem Raum, d.h. Beispiel 4 und 5 zusammengefasst mit einer zusätzlichen Operation, die Bewegungen φ und Punkten P jeweils den Bildpunkt φ(P ) zuordnet. Dass es problematisch ist, von “dem” Zahlbereich der natürlichen Zahlen usw. zu sprechen, soll uns vorerst nicht stören. Wir werden uns im Laufe der Zeit daran gewöhnen, mit durch Axiome definierten Klassen von Strukturen umzugehen. Dabei kann es vorkommen, dass eine solche Klasse “im Wesentlichen” aus einer einzigen Struktur besteht, genauer, dass alle Strukturen in dieser Klasse gleich aussehen, auf deutsch: isomorph sind. Das ist z.B. der Fall bei “dem” Bereich der natürlichen Zahlen und den anderen oben erwähnten Beispielen. 1.2 Atomare Formeln Um über Strukturen knapp und doch (oder gerade deshalb) eindeutig reden zu können, brauchen wir Zeichen für die jeweils grundlegenden Relationen, Operationen und Konstanten, sowie für die wichtigsten daraus definierten. 2 1 BEDEUTUNG VON FORMELN UND AUSSAGEN a. Bei den Zahlbereichen < .+, ·, 0, 1, definiert z.B. ≤ für “kleiner oder gleich”, − für die Subtraktion und : für die nicht immer ausführbare Division, 2 für 1 + 1 usw. c. In der affinen Geometrie für die Inzidenz, definiert z.B. k für Parallelität. d. In der metrischen Geometrie |P Q| = |RS| für die Kongruenz der Strecken P Q und RS (also eine Beziehung zwischen vier Punkten). Definiert werden kann ⊥ ‘senkrecht’. Wir benutzen Buchstaben wie a, b, c oder P, Q, R um über bestimmte, aber nicht eindeutig festgelegte Objekte in einer betrachteten Struktur zu reden. Die bezeichnenden Buchstaben spielen dann die Rolle von lokalen Konstanten(im Gegensatz zu den zu einem gewissen Typ von Strukturen a priori gehörenden globalen Konstanten wie 0, 1 bei den Zahlen). Die durch sie bezeichneten Objekte können “fest, aber beliebig” (FAB) oder “vorhanden, aber nicht näher bekannt” (Zeugen) sein. Wir können Buchstaben aber auch als Variablen benutzen, meist solche wie x, y, z. Dabei ist dann gedacht, dass sie beliebige Werte annnehmen können oder sollen. Es könnn aber auch Indizes vorkommen: a1 , P2 , x3 Haben wir keine Operationen, so entteht eine atomare Formel dadurch, dass wir Buchstaben oder Symbole für Konstanten oder Variablen Symbolen für Relationen oder dem Gleichheitszeichen verbinden a = x, 0 = 1, b < 0, P g, Xε, g k h, |AX| = |P Y | Haben wir Operationssymbole, so können wir Terme aus Konstanten und Variablen bilde, z.B. ((1 + x) · a) + (0 · (y + a)) wobei natürlich Klammereinsparungsregeln erlaubt sind. Die Terme dürfen wir dann mitbenutzen und erhalten z.B die Formel (a + x) · (1 + 1) < a · x Allgmein gilt: Eine atomare Formel φ(x1 , . . . , xn ) hat die Gestalt R(t1 (x1 , . . . , xn ), . . . , tm (x1 , . . . , xn )) bzw. t1 (x1 , . . . , xn ) R t2 (x1 , . . . , xn ) mit Termen ti (x1 , . . . , xn ) und einem m-stelligen Relationssymbol R bzw. den Gleichheitszeichen. Das Auflisten der Variablen (ohne Wiederholung!) legt ihre Reihenfolge fest. Sie müssen in der Formel nicht unbedingt alle vorkommen. Aber es dürfen keine anderen vorkommen 1.3 Bedeutung atomarer Formeln Sei eine Struktur A vorgegeben und eine atomare Formel φ(x1 , . . . , xn ) in den Variablen x1 , . . . , xn . Sei jeder im φ vorkommenden lokalen Konstanten 1.4 Konjunktion 3 jeweils eine bestimmtes Objekt aus der Struktur zugeordnet. Dann erhält die Formel eine Bedeutung, sie definiert eine Teilmenge {a1 in A | φ(a1 ) gilt in A} oder eine Relation {(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt in A} auf der Struktur A. Dabei ist stillschweigend vereinbart, dass auch den Variablen xi bestimmte Typen zugeordnet sind und dass die entsprechenden Objekte ai aus A dann jeweils diesen Typ haben sollen. Das kann und soll hier nur an Beispielen erklärt werden. a. x < (1 + 1) · (1 + 1) hat in N die Bedeutung {0, 1, 2, 3} b. x2 = x1 + 1 hat in N die Bedeutung {(a, a + 1) | a in N} c. x2 = x1 · x1 hat in R die Bedeutung {(a, a2 ) | a in R} d. Für a, b in R und 0 < r in R ist die Bedeutung von (x−a)2 +(y−b)2 < r das Innere des Kreises um den Punkt (a, b) mit Radius r - besser sollte man hier von Koordinaten sprechen e. Die Bedeutung von |OX| = |OP | im metrischen Raum ist die Kugel um O mit Radius |OP | f. Die Bedeutung von |P X| = |QX| im metrischen Raum ist die Mittelsenkrechte(Ebene) auf der Strecke P Q Um festzustellen, ob das n-tupel (a1 , . . . , an ) von Objekten von A zur Bedeutung von φ(x1 , . . . , xn ) in A gehört, setzem wir also die ai für die xi ein, bestimmen die Werte bi = ti (a1 , . . . , an ) der Terme in A und prüfen dann, ob die durch R bezeichnete Relation von A auf (b1 , . . . , bm ) zutrifft. Wenn ja, gehört (a1 , . . . , an ) zu der Bedeutung der Formel in A bei den vorgegebenen Werten für die lokalen Konstanten. Andernfalls nicht. 1.4 Konjunktion Um interessamntere Beispiel zu erhalten, brachen wir logische Verknüpfungen. Die Konjunktion präzisiert das umgangssprachliche “und”. Wir schreiben φ(x1 , . . . , xn ) ∧ ψ(x1 , . . . , xn ) Mit Vorgaben wie oben ergibt sich die Bedeutung als {(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt in A und ψ(a1 , . . . , an ) gilt in A} Um das “und” zu präzisieren, folgende Tabelle 4 1 BEDEUTUNG VON FORMELN UND AUSSAGEN : φ(a1 , . . . , an ) gilt in A β : ψ(a1 , . . . , an ) gilt in A α ∧ β : φ(a1 , . . . , an ) gilt in A und ψ(a1 , . . . , an ) gilt in A β W F α α∧β W W F F F F Dabei steht W für “trifft zu” und F für “trifft nicht zu”. Beispiele. Kurz: α ∧ β trifft zu, wenn sowohl α wie auch β zutreffen. a. Die Bedeutung von (x < 7) ∧ (2 < x) in N ist {2, 3, 5, 6}. b. Für a < b in R ist die Bedeutung von a < x ∧ x < b in R das offene Intervall zwischen a und b c. Die Bedeutung von (Xg) ∧ (Xh) für zwei nicht parallele Geraden g und h in der Ebene ist der eindeutig bestimmte Schnittpunkt P - die Einermenge {P } für alle, die es ganz besonders genau nehmen. d. Eine Liste mit zwei Spalten kann man als Struktur mit einer 2-stelligen Relation R sehen, wobei R(a, b) bedeutet, dass (a, b) eine Zeile der Liste ist. Sind zwei Listen R1 und R2 gegeben mit den Angaben: Übungsgruppe und Zeit bzw. Übungsgruppe und Raum, so ist die Bedeutung von R1 (x, y) ∧ R2 (x, z) die “Verkettung”, d.h. die Liste mit 3 Spalten, die fúr jede Übungsgruppe die kompletten Angaben enthält. 1.5 Negation Die Negation präzisiert das umgangssprachliche “nicht”. Wir schreiben ¬φ(x1 , . . . , xn ) Mit Vorgaben wie oben ergibt sich die Bedeutung als {(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt nicht in A} Um das “nicht” zu präzisieren, folgende Tabelle α : φ(a1 , . . . , an ) gilt in A ¬α : φ(a1 , . . . , an ) gilt nicht in A α ¬α W F F W Kurz: ¬α trifft zu genau dann, wenn α nicht zutrifft. Beispiele. a. Die Bedeutung von ¬(7 < x) in N ist {0, 1, 2, 3, 5, 6, 7}. b. Die Bedeutung von ¬(x1 < x2 ) in R ist {(a1 , a2 ) | a2 ≤ a1 in R} Man beachte, dass der Gebrauch der Negation, insbeondere der doppelten Negation in den natürlichen Sprachen sehr unterschiedlich ist. Auch in der Mathematik sollte man doppelte Negation möglichst vermeiden. Kommt sie aber doch einmal vor, ist sie meist als Bejahung zu verstehen. 1.6 Disjunktion 1.6 5 Disjunktion Die Disjunktion präzisiert das umgangssprachliche (nicht ausschliessende) “oder”. Wir schreiben φ(x1 , . . . , xn ) ∨ ψ(x1 , . . . , xn ) abgeleitet vom lateinischen “vel”. Mit Vorgaben wie oben ergibt sich die Bedeutung als {(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt in A oder ψ(a1 , . . . , an ) gilt in A} Um das “oder” zu präzisieren, folgende Tabelle α : φ(a1 , . . . , an ) gilt in A β : ψ(a1 , . . . , an ) gilt in A α ∨ β : φ(a1 , . . . , an ) gilt in A oder ψ(a1 , . . . , an ) gilt in A β W F α α∨β W W W F W F Ki=urz: α ∨ β trifft zu, wenn mindestens eines von α und β zutrifft, möglicherweise auch beide. Beispiele. a. Die Bedeutung von (x < 4) ∨ (x = 7) in N ist {2, 3, 7}. b. Die Bedeutung von (x < y) ∨ (y < x) in R ist {(a, b) | a 6= b in R}. c. Sind g und h Geraden der Ebene, so ist die Bedeutung von Xg ∨ Xh die von g und h zusammen gebildete Punktmenge - einschießlich gemeinsamer Punkte Das aussschließende “oder” können wir ausdrücken durch (α ∨ β) ∧ ¬(α ∧ β). Die umgangssprachliche Entsprechung “entweder -oder” scheint ihre Eindeutigkeit zu verlieren. Zumindest gilt das für das englische “either - or”. Disjunktionen treten in der Mathematik auf in Klassifikationssätzen (jede Bewegung der Ebenen mit Fixpunkt ist Drehung oder Spiegelung) und bei Fallunterscheidungen in Beweisen. In der regel sind sie ausschliessend, bei Fallunterscheidungen ist das aber nicht erforderlich. 1.7 Existenzquantor Der Existenzquantor präzisiert das umgangssprachliche “es gibt ein”. Wir schreiben ∃z φ(z, x1 , . . . , xn ) Wir sagen, dass die Variable z durch den Quantor ∃z gebunden wird. Mit Vorgaben wie oben ergibt sich die Bedeutung als {(a1 , . . . , an ) in A | φ(a, a1 , . . . , an ) gilt in A für mindestens ein a} Beispiele. a. Die Bedeutung von ∃z(x = z 2 ) in N ist die Menge der Quadratzahlen. 6 1 BEDEUTUNG VON FORMELN UND AUSSAGEN b. Die Bedeutung von ∃z(x = z 2 ) in R ist {a | 0 ≤ a in R} c. Die Bedeutung von ∃z(y = x · z) in Z ist {(a, b) | a teilt b in Z} d. Die Bedeutung von ∃z1 ∃z2 ∃z3 ∃z4 (x = z12 + z22 + z33 + z42 ) in Z ist N (Euler) e. Zu zwei sich im Punkt P schneidenden Geraden g und h im Raum ist die Bedeutung von (X.Zi sind hier Variablen vom Typ ‘Punkt’, z vom Typ Gerade’) X = P ∨ ∃Z1 ∃Z2 ∃z. ¬(Z1 = Z2 ) ∧ Z1 g ∧ Z2 h ∧ Z1 z ∧ Z2 z ∧ Xz die von g und h aufgespannte Ebeene f. Sind φ und ψ zwei Bewegungen der Ebene, so ist die Bedeutung von ∃y (φ(x) = y ∧ ψ(y) = z) die Hintereinanderausführung ψ ◦ φ 1.8 Allquantor Der Allquantor präzisiert das umgangssprachliche “für alle”. Wir schreiben ∀z φ(z, x1 , . . . , xn ) Wir sagen, dass die Variable z durch den Quantor ∀z gebunden wird. Mit Vorgaben wie oben ergibt sich die Bedeutung als {(a1 , . . . , an ) in A | φ(a, a1 , . . . , an ) gilt in A für alle a} Beispiele. a. Die Bedeutung von ∀z(x < z ∨ x = z) in N ist die (Einermenge) Null. b. Die Bedeutunng von ∀z(x + z = x) in Z ist {0}. c. Die Bedeutung von ∀z(x teilt z) in Z ist {1, −1} 1.9 Klammereinsparung Soweit erforderlich, benutzen wir Klammern um Aufbau und Bedeutung von logischen Formeln zu klären. Entsprechend dem, was man aus der Arithmetik kennt, soll die Bindungsstärke der Junktoren in der Reihenfolge ¬, ∧, ∨, ⇒, ⇔ abnehmen. Ebenso haben die Quantoren im Prinzip Vorrang gegenüber den Junktoren. Der Punkt wirkt wie eine Klammer, die alles Folgende bis hin zur ersten überzähligen ) einschliesst: z.B. ist (∃x. α ∧ β) ∧ γ gleichbedeutend zu (∃x. (α ∧ β)) ∧ γ. 1.10 Äquivalenz von Formeln 1.10 7 Äquivalenz von Formeln Formeln φ(x1 , . . . .xn ) und ψ(x1 , . . . , xn ) sind äquivalent • in der Struktur A bei einer Vorgabe der Werte der lokalen Konstanten, wenn sie dabei dieselbe Bedeutung haben, d.h. wenn φ(a1 , . . . .an ) in A genau dann gilt, wenn ψ(a1 , . . . .an ) gilt (mit den gegebenen Werten der lokalen Konstanten). • in A, wenn sie für alle Werte der lokalen Konstanten in A äquivalent sind. • in einer Klasse K von Strukturen, wenn sie in allen A aus K äquivalent sind • schlechthin, oder auch logisch äquivalent, wenn sie für alle Strukturen (in denen beide interpretiert werden können) äquivalent sind. Beispiele; a. 0 ≤ x und ∃y. x = y 2 sind in R aber nicht in Q äquivalent. b. x2 = 2 und ¬(x = x) sind in Q aber nicht in R äquivalent c. Sind a < b in R oder Q gegeben, so sind 0 < x und ax < bx äquivalent d. Logisch äquivalent sind z.B. • α(x1 , . . . , xn ) ∧ β(x1 , . . . , xn ) und β(x1 , . . . , xn ) ∧ α(x1 , . . . , xn ) • α(x1 , . . . , xn ) ∧ (β(x1 , . . . , xn ) ∧ γ(x1 , . . . , xn )) und (α(x1 , . . . , xn ) ∧ β(x1 , . . . , xn )) ∧ γ(x1 , . . . , xn ) • ∃x (φ(x, x1 , . . . , xn ) ∨ ψ(x, x1 , . . . , xn )) und (∃x, φ(x, x1 , . . . , xn )) ∨ (∃x, ψ(x, x1 , . . . , xn )) • ¬∀x. φ(x, x1 , . . . , xn ) und ∃x. ¬φ(x, x1 , . . . , xn ) e. Nicht logisch äquivalent sind z.B. • α ∨ β und (α ∧ ¬β) ∨ (β ∧ ¬α) • ∀x ∃y. φ(x, y) und ∃y ∀x. φ(x, y) 1.11 Aussagen Eine lokale Aussage ist eine Formel, in der jede Variable durch einen Quantor gebunden ist. Die Bedeutung einer lokalen Aussage α in einer Struktur A bei vorgegebenen Werten der lokalen Konstanten ist dann Entweder W: α gilt in A für die gegebenen Werte der lokalen Konstanten oder F: α gilt in A für die gegebenen Werte der lokalen Konstanten nicht Beispiel: a + a = a · a gilt in N wenn a = 2 , aber nicht wenn a = 3. 8 1 BEDEUTUNG VON FORMELN UND AUSSAGEN Eine Aussage ist eine lokale Aussage, in der keine lokalen Konstanten vorkommen. Die Bedeutung einer Aussage α in einer Struktur A ist also Entweder W: α gilt in A oder F: α gilt in A nicht Beispiel: Die Aussage ∀x ∃y. x + y = 0 gilt in Z, aber nicht in N. Aussagen, die in allen Strukturen gelten, in denen sie überhaupt interpretiert werden können, heissen Tautologien und sind für Mathematiker herzlich uninteressant. Das Gegenteil, eine Aussage die in keiner Struktur gilt, heisst ein Widerspruch. Beispiele: ∀x. x = x und ∃x. x = x sind Tautologien, das letztere, weil wir davon ausgehen, dass es zu jeder Sorte mindestens ein Element gibt. Widersprüche sind z.B. alle Aussagen der Form α ∧ ¬α. Eine Aussage ist Tautologie genau dann, wenn ihre Negation ein Widerspruch ist. Die meisten Aussagen sind weder Tautologien noch Widersprüche. 1.12 Gleichungen Der einfachsten Aussagen sind von der Gestalt ∀x1 . . . ∀xn α wobei α atomar ist. Hat man nur Operationen und Konstanten, so handelt es sich um eine Gleichung ∀x1 . . . ∀xn t(x1 , . . . , xn ) = s(x1 , . . . , xn ) mit Termen t und s. Beispiel: Wir betrachten die ganzen Zahlen Z mit Addition, Null und Umkehrung a 7→ −a. Dann haben wir die folgenden fundamentalen, in Z gültigen Gleichungen: (R1) ∀x∀y∀z. (R2) ∀x. (R3) ∀x. (R4) ∀x∀y, x + (y + z) x+0 x + (−x) x+y = = = = (x + y) + z x 0 y+x Assoziativiät Neutralelement Inverses Kommutativität Beziehen wir auch die Multiplikation ein, so kommen hinzu (R5) ∀x∀y∀z. (R6) ∀x. (R7) ∀x∀y∀z. (R8) ∀x∀y∀z. (R9) ∀x∀y, x · (y · z) x·1 x · (y + z) (y + z) · x x·y = = = = = (x · y) · z x (x · y) + (x · z) (y · x) + ∗z · x) y·x Assoziativiät Neutralelement Distributiviät Distributiviät Kommutativität Aufmerksame Hörer werden einwenden, dass wir weder genau erklärt haben, was Z ist, noch wie wir die Gültigkeit der Gleichungen beweisen wollen. Das Problem liegt aber eigentlich bei N: Definition und Beweis der Grundtatsachen ist nicht umsonst zu haben. Die Konstruktion von Z und der Nachweis der Gleichungen ist dann eher einfach. 1.13 Axiomatische Methode 1.13 9 Axiomatische Methode Mathematisch interessant sind also Aussagen, die in gewissen Strukturen gelten, aber nicht allen. Betrachten wir zunächst nur +, 0, − und die Axiome (R1)-(R4), so gelten z.B. (R1)-(R3), nicht jedoch (R4) nicht in der Gruppe der Bewegungen, wenn wir + durch die Hintereinanderausführung ◦ interpretieren. Wir nehmen also (R1)-(R4) als Axiome und nennen die Strukturen (mit zweistelliger Operation +, Konstante 0 und einstelliger Operation −), in denen diese Axiome gelten, kommutative oder abelsche Gruppen (nach dem Namensgeber des Abel-Preises, dessen Erfindungen weniger schädlich sind, als die des Herrn Nobel). Z ist dann ein Modell dieser Axiome (gehört zu der durch diese Axiome definierten Klasse). Wie wir bald sehen werden bilden auch die Vektoren des Raumes ein Modell von (R1)-(R4). Haben wir auch ·, 1 und gelten die Axiome (R1)-(R9), so sprechen wir von einem kommutativen Ring. Weitere Modelle sind Q und R, aber z.B. auch die Gesamtheit der reellen Polynome. Es gibt aber auch interessante Beispiele, in denen das Kommuativgesetz nicht gilt. Und weniger interessante Beispiele, in denen andere der Axiome nicht erfüllt sind. Die axiomatische Methode besteht nun darin, zu den zu untersuchenden Strukturen passende Axiome zu finden (die aber in der Regel noch andere Modelle zulassen), und dann aus diesen Axiomen Aussagen durch logische Schlüsse herzuleiten. Die logischen Schlussregeln müssen dabei so beschaffen sein, dass ihre Zulässigkeit (Korrektheit) unmittelbar einsichtig ist. Dadurch ist garantiert, dass die gefolgerten Aussagen in der Tat in allen Modellen der vorausgesetzen Axiome gelten. Z.B. können wir aus (R1)-(R4) herleiten ∀x∀y∀z.∀u (x + y) + (z + u) = (x + z) + (y + u) und das gilt dann sowohl für Z wie für die Vektorrechnung. Die logischen Schlüsse behandeln wir im nächsten Kapitel. Die axiomatische Methode hat sich hauptsächlich im Rahmen der Geometrie entwickelt, beginnend mit Euklid und vorangetrieben von der Frage, ob sich das Parallelenaxiom aus den anderen Axiomen herleiten lässt. Nachem im 19. Jahrhundet Modelle gefunden wurden, in denen diese Axiome gelten, nicht jedoch das Parallelenaxiom, hat David Hilbert Anfang der 20. Jahrhunderts die axiomatische Methode als eine grundlegende Vorgehensweise in der Mathematik etabliert, exemplarisch dargestellt in seinen “Grundlagen der Geometrie”. 2 2.1 Logisches Schließen Substitution Seien eine Formel φ(x1 , . . . , xn ) und konstante Terme t1 , . . . .tn gegeben, d.h. in den ti kommen keine Variablen vor. Dann erhalten wir eine neue Formel, wenn wir für jede der Variablen xi jedes nicht durch einen Quantor gebunde (also jedes freie) Vorkommen das Zeichen xi durch ti ersetzen. Wir notieren 10 2 LOGISCHES SCHLIESSEN diese Ersetzung und ihr Ergebnis durch [t1 /x1 , . . . , tn /xn ] und φ(t1 , . . . , tn ) Beispiel. Aus x1 = x1 ∧ x2 = x2 ∧ ∃x1 . ¬(x1 = x2 ) erhalten wir durch die Substitutuion [c/x1 , c/x2 ] die Formel c = c ∧ c = c ∧ ∃x1 . ¬(x1 = c). Werden nur einige der Variablen xi so ersetzt, so notieren wir die Substituion als [xi1 /ti1 , . . . , xik /tik ] und das Ergebnis im konkreten Fall auf naheliegende Weise. Aus x2 + y 2 = z ensteht z.B. durch [2/z] die Formel x2 + y 2 = 2. 2.2 Generalisierung Den Beweis, dass ∀x.∀y. (x + y)2 = x2 + 2xy + y 2 in Z gilt, können wir exemplarisch so führen: (17 + 13)2 = (17 + 13)17 + (17 + 13)13 = 17 · 17 + 13 · 17 + 17 · 13 + 13 · 13 = 172 + 17 · 13 + 17 · 13 + 132 = 172 + 2 · 17 · 13 + 132 . Ein Meister in dieser Art der Beweisführung war C.F.Gauss. Kein exemplarischer Beweis wäre die Rechnung (17 + 13)2 = 302 = 900, 172 + 2 · 17 · 13 + 132 = 289 + 442 + 169 = 900 oder das Eintippen in den Taschenrechner. Wir haben also auf 17 und 13 nur die bekannnten Gesetze (R1)-(R9 der Arithmetik angewendet, um zu disem Ergebnis zu kommen, nicht den speziellen Wert. In diesem Sinne sind 17 und 13 feste, aber beliebige Elemente (FABs) und wir hätten an ihrer Stelle auch a und b schreiben können. Wichtig ist nur, dass über a und b nichts weiter vorausgesetzt wird. Die verwendete logische Schlussregel ist die Generalisierungsregel: Seien c1 , . . . , cn neue lokale Konstanten (FABs). Dann können wir von φ(c1 , . . . , cn ) auf ∀x1 . . . ∀xn . φ(x1 , . . . , xn ) schliessen ZEIGE: ∀x. A(x) φ(c1 , . . . , cn ) ∀x1 . . . ∀xn . φ(x1 , . . . , xn ) (∀I) Generalisierung ci FABs SEI: c FAB ZEIGE: A(c) arbeite QED: A(c) QED: ∀x. A(x) Dass die ci ‘neue Konstanten’ sind, meint, dass sie in keinem anderen Zusammenhang vorkommen, also keine irgendwie festgelegte Bedeutung haben. 2.3 Substitutionsregel 11 Insofern können wir natürlich auch die Variable xi zur neuen Konstanten ci umwidmen. Also regelt dieser Schluss nur den Sprachgebrauch. Der Gewinn liegt darin, dass wir nun von ‘dem’ Objekt/Individuum/Element ci reden können. Damit argumentiert es sich leichter. Wir haben also den generaliserenden Schluss vom ‘allgemeinen Beispiel’ auf die Allaussage. 2.3 Substitutionsregel Seien die ti konstante Terme. Dann können wir von ∀x1 . . . ∀xn . φ(x1 , . . . , xn ) auf φ(t1 , . . . , tn ) schliessen, d.h. wir dürfen xi durch ti ersetzen, natürlich jedes Vorlommen von xi durch dasselbe ti (aber die ti mússen nicht alle verschieden sein). Also sprechen wir von der Substitutions- oder Einsetzungsregel. ∀x1 . . . ∀xn . φ(x1 , . . . , xn ) Substitution [t1 /x1 , . . . , tn /xn ] φ(t1 , . . . , tn ) (∀E) Einsetzung von konstanten ti für xi . Damit haben wir ein Schema, um aus Gleichungen eine weitere Gleichung herzuleiten: Ersetze die Variablen der herzuleitenden Gleichung durch neue Konstante (FABs) und setze die dabei entstehenden Terme so in die als Axiome gegebenen Gleichungen ein (Substitutionsregel), dass sich aus den so gewonnenen Gleichungen für die FABs eine Hwerleitung der neuen Gleichung (für die FABs) ergibt. Nach der Generalisierungsregel ist dann die neue Gleichung tatsächlich aus den Axiomen bewiesen. Wir müssen also den Umgang mit Gleichungen zwischen lokalen Konstanten näher erörtern. 2.4 Identitätsregeln Wir haben das Gleichheitszeichen als Bestandteil jeder Sprache der Logik eingeführt, unabhängig von der Wahl der Grundbegriffe und des zu diskutierenden Bereichs. Dies bedeutet nicht, dass Gleichheit ein vom Kontext unabhängiger Begriff sei. Insbesondere beim Prozess der Abstraktion wechseln wir von einem vorgegebenen (häufig formalen) Gleichheitsbegriff zu einem weiter gefassten, inhaltlichen Begriff von ‘Gleichheit in einer gewissen Hinischt’. Unser Umgang mit einem für einen bestimmten Bereich gültigen Gleichheitsbegriff muss nach Leibniz den folgenden Regeln genügen. Die Mindestbedingung ist, dass die Gleichheit eine Äquivalenzrelation ist, d.h. es gelten die Regeln (für konstante Terme s, t, r) t=t sitiviät Reflexivität t=s s=t Symmetrie t=s s=r t=r Tran- Haben wir t = s bewiesen, definiert oder vorausgesetzt, so dürfen wir in jedem Term w ein oder mehrere Vorkommen von t durch s ersetzen. t=s w(. . . t . . . t . . . t . . .) = w(. . . t . . . s . . . t . . .) Termersetzung Eine stärkere Form dieser Regel erlaubt uns aufgrund der gegebenen Glei- 12 2 LOGISCHES SCHLIESSEN chung s = t beliebig viele der Vorkommen von t in der Formel φ(. . . t . . . t . . . t . . .) durch s ersetzen und so auf φ(. . . t . . . s . . . t . . .) schliessen. φ(. . . t . . . t . . . t . . .) t=s φ(. . . t . . . s . . . t . . .) Leibnizsche Ersetzung Kombinieren wir Transitivität und Ersetzung. so können wir Gleichheit zwischen Termen durch eine fortlaufende Rechnung etablieren, in der wir jeweils einen Teilterm durch einen schon als gleich erkannten ersetzen. Wegen der Symmetrie ist es egal, wie herum die Gleichungen dastehen. Wenn wir das tun, werden wir in Zukunft einfach das magische Wort Leibniz’ benutzen. Als Beispiel beweisen wir die oben behauptete Konsequenz aus (R1)-(R4). Dazu legen wir die Axiome (R1)-(R4) zugrunde und betrachten wir FABs a, b, c, d ( üblicher Mathe-Sprech: “Sei A eine kommutative Gruppe und a, b, c, d in A beliebig”). Nun rechnen wir = = = = = (a + b) + (c + d) ((a + b) + c) + d (a + (b + c)) + d (a + (c + b)) + d ((a + c) + b) + d (a + c) + (b + d) (R1) (R1) (R4) (R1) (R1) [(a + b)/x, c/y, d/z] [a/x, b/y, c/z] [b/x, c/y] [a/x, c/y, b/z] [(a + c)/x, b/y, d/z] Dabei haben wir jeweils den ersetzten Teilterm unterstrichn und rechts das verwendete Axiom und die Substitution angegeben. Der Beweis der Gleichung ist dann nur noch eine Formalität AXIOME: (R1)-(R4) ZEIGE: ∀x∀y∀z.∀u (x + y) + (z + u) = (x + z) + (y + u) SEIEN: a, b, c, d FAB ZEIGE: (a + b) + (c + d) = (a + c) + (b + d) obige Rechnung (a + b) + (c + d) = (a + c) + (b + d) QED: ∀x∀y∀z.∀u (x + y) + (z + u) = (x + z) + (y + u) (Leibniz) Man soll aber nicht glauben, dass man das Gleichungswesen getrost den Informatikern überlaasen könnte. Im Allgemeinen gibt es jedenfalls kein Verfahren, das herausfindet, ob eine Gleichung aus gegebenen Axiomen herleitbar ist. Und auch wenn sie herleitbar ist, kann für die Herleitung mathematische Kreativität gefragt sein. 2.5 Konjunktionsregeln Die Konjunktionsregeln sind die einfachsten Regeln. Sie besagen, dass wir von einer Konjunktion α1 ∧ . . . ∧ αm auf jedes ihrer Glieder αi und umgekehrt von der Gesamtheit α1 , . . . , αm ihrer Glieder auf die Konjunktion schliessen dürfen. Dabei dürfen wir beliebig klammern oder die Klammern gleich weglassen. (∀I) 2.6 Implikationen 13 α1 . . . αk (Und-Introduktion) α1 ∧ . . . ∧ αk (∧I) 2.6 α1 ∧ . . . ∧ αk (Und-Elimination) αi (∧E) Implikationen Häufig ist eine Gleichung nur unter einer einschränkenden Voraussetzung erfüllt, z.B. Wenn a 6= 0 und ab = ac dann b = c in Z. Führen wir die , Implikation φ ⇒ ψ zwischen zwei Formeln ein (mit Prämisse φ und Konklusion ψ), so können wir das ausdrücken durch die Kürzungsregel (die nicht aus (R1)-(R9) folgt) ∀x ∀y ∀z. ¬(x = 0) ∧ x · y = x · z ⇒ y = z Die übliche Bedeutung von α ⇒ β ist, dass es nur dann nicht zutrifft, wenn α zutrifft, nicht jedoch β. Insbsondere trifft α ⇒ β4 zu, wenn α nicht zutrifft. Das heisst: ist die Prämisse nicht erfüllt, so ist nichts weiter zu tun, Das mag nur dann seltsam erscheinen, wenn man in diesem Zusammenhang unbedingt von Wahrheit reden möchte. Tabellarisch sieht es so aus: β W F α α⇒β W W F F W W Ein wichtiges Hilfsmittel beim Beweisen ist die Einführung temporärer Annahmen: beim Beweis einer Implikation α ⇒ β ist dies meist die Prämisse α. Können wir unter Benutzung dieser Annahme (und der Axiome) die Konklusion β beweisen, so ist α ⇒ β bewiesen (und die Annahme α kann wieder eliminiert werden - angedeutet durch die Schreibweise [φ]. Implikationsbeweis ZEIGE: A⇒B [α] .. . β α ⇒ β (⇒I) Implikations-Introduktion ANNAHME: A ZEIGE: B arbeite QED: B QED: A ⇒ B 14 2 LOGISCHES SCHLIESSEN Wollen wir umgekehrt eine Implikation α ⇒ β in einem Beweis benutzen, müssen wir α verfügbar haben, um auf β schliessen zu können. α⇒β α β 2.7 (modus ponens, Abtrennung, Implikations-Elimination) (⇒E) Rechnen in kommutativen Gruppen und Ringen Wir wollen einige der nützlichsten Gleichungen und Implikationen aus den Axiomen (R1)-(R4) bzw. (R1)-(R9) herleiten. Wir schreiben x−y = x+(−y) und xy = x · y. Aus (R1)-(R4) folgen (1) ∀x. (2) ∀x ∀y. (3) ∀x ∀y. (4) ∀x ∀y. (5) ∀x ∀y ∀z. (6) ∀x x+x=x x+y =0 x+y =0 x−y =0 z+y =x ⇒ ⇒ ⇒ ⇒ ⇒ x=0 y = −x y = −x x=y z =x−y x = −(−x) Aus (R1)-(R9) folgen (7) ∀x. (8) ∀x. (9) ∀x. (10) ∀x ∀y ∀z. (11) ∀x 0·x=0 (−1)x = −x (−1)(−1) = −1 x(y − z) = xy − xz (∀y. xy = y) ⇒ x = 1 Wir beweisen (1), (2) und (7) sowie, unter der Vorausseztung der Nullteilerfreiheit, die Kürzungeregel. Die restlichen Beweise lassen wir als Übung. AXIOME: (R1)-(R4) ZEIGE: ∀x. x + x = x ⇒ x = 0 SEI: a FAB ZEIGE: a + a = a ⇒ a = 0 ANNAHME: a + a = a ZEIGE: a = 0 a= =a+0 = a + (a − a) = (a + a) − a =a−a =0 QED: a = 0 QED: a + a = a ⇒ a = 0 QED: ∀x. x + x = x ⇒ x = 0 (R2) [a/x] (R3) [a/x] (R1) [a/x, a/y, (−a)/z] Annahme (R2) [a/x] Leibniz (⇒I) (∀I) 2.7 Rechnen in kommutativen Gruppen und Ringen AXIOME: (R1)-(R4) ZEIGE: ∀x ∀y. x + y = 0 ⇒ y = −x SEIEN: a, b FAB ZEIGE: a + b = 0 ⇒ b = −a ANNAHME: a + b = 0 ZEIGE: b = −a b= =b+0 = b + (a − a) = (b + a) − a = (a + b) − a =0−a = (−a) + 0 = −a QED: b = −a QED: a + a = a ⇒ a = 0 QED: ∀x. x + x = x ⇒ x = 0 AXIOME: (R1)-(R8) ZEIGE: ∀x. 0 · x = 0 SEI: a FAB ZEIGE: 0 · a = 0 0·a= = (0 + 0)a = 0a + 0a 0a + 0a = 0a 0a + 0a = 0a ⇒ 0a = 0 QED: 0a = 0 QED: ∀x. 0 · x = x 15 (R2) [b/x] (R3) [a/x] (R1) [b/x, a/y, (−a)/z] (R4) [b/x, a/y] Annahme (R4) [0/x, (−a)/y] (R2) [(−a)/x] Leibniz (⇒I) (∀I) (R2) [0/x] (R8) [a/x, 0/y, 0/z] Leibniz (∀E) in (1) [0a/x] (⇒E) (∀I) 16 2 LOGISCHES SCHLIESSEN AXIOME: (R1)-(R9), (0) ∀x∀y. ¬(x = 0) ∧ x · y = 0 ⇒ y = 0 ZEIGE: ∀x ∀y ∀z. ¬(x = 0) ∧ x · y = x · z ⇒ y = z SEIEN: a, b, c FAB ZEIGE: ¬(a = 0) ∧ a · b = a · c ⇒ b = c ANNAHME: ¬(a = 0) ∧ a · b = a · c ZEIGE b = c ¬(a = 0) (∧E) a · b = a · c [1] (∧E) a(b − c) = (10) [a/x, b/y, c/z] = ab − ac Termersetzung [1] = ab − ab (R2) [ab/x] =0 a · (b − c) = 0 Leibniz ¬(a = 0) ∧ a · (b − c) = 0 (∧I) ¬(a = 0) ∧ a(b − c) = 0 ⇒ b − c = 0 (∀E in (0) [a/x, (b − c)/y] b−c=0 (⇒E) QED b=c (∀E) in (2) [b/x,c/y] QED ¬(a = 0) ∧ a · b = a · c ⇒ b = c (⇒ I) QED: ∀x ∀y ∀z. ¬(x = 0) ∧ x · y = x · z ⇒ y = z (∀I) *** 2.8 Äquivalenzbeweise 2.8 17 Äquivalenzbeweise Wir können die Äquivalenz α ⇔ β (lies: α ist äquivalent oder gleichbedeutend zu β) auffassen als Konjunktion zweier Implikationen: (α ⇒ β) ∧ β ⇒ α). Also: α trifft genau dann zu, wenn β zutrifft. In Tabellenform (für lokale Aussagen) β W F α α∧β W W F F F W Wir können aber auch die zusammengefassten Schlussregeln angeben • Von A ⇔ B und A können wir auf B schliessen, von A ⇔ B und B auf A. A⇔B A⇔B A B (⇔E) A (Äquivalenz-Elimination) B (⇔E) • Haben wir B unter der Annahme A und A unter der Annahme B bewiesen, so haben wir A ⇔ B beweisen. [A] .. . [B] .. . B A A⇔B (Äquivalenz-Introduktion) (⇔I) 18 2 LOGISCHES SCHLIESSEN Äquivalenzbeweis ZEIGE: A ⇔ B ANNAHME 1: A Sätze, die unter Voraussetzungen die paarweise Äquivalenz mehrerer lokaler Aussagen behaupten, sind in der Mathematik sehr beliebt. Man muss dabei nicht alle paarweisen Äquivalenzen beweisen, sondern es genügt soviele Implikationen zu beweisen, dass man längs der Implikationspfeile von jeder Aussage zu jeder anderen gelangen kann. Der einfachste Fall ist der eines kreisförmigen Weges von Implikationen. ZEIGE: B arbeite QED 1: B ANNAHME 2: B ZEIGE: A arbeite QED 2: B QED: A ⇔ B 2.9 Disjunktion und Fallunterscheidung 2.9 19 Disjunktion und Fallunterscheidung Fallunterscheidung ZEIGE: A FÄLLE: B1 , , B2 • Von jedem der Ai können wir auf A1 ∨ . . . ∨ Ak schliessen. ZEIGE: B1 ∨ B2 arbeite QED: B1 ∨ B2 Ai A1 ∨ . . . ∨ Ak (∨I) (Oder-Introduktion) FALL 1: ANN.: B1 ZEIGE: A arbeite QED 1: A • Haben wir A1 ∨ . . . ∨ Ak bewiesen und B unter jeder der Annahmen Ai bewiesen, so haben wir B bewiesen. [A1 ] . . . [Ak ] .. .. . . A1 ∨ . . . ∨ Ak B . . . B B (∨E) (Fallunterscheidung (Oder-Elimination ) FALL 2: ANN: B2 ZEIGE: A) arbeite QED 2: A QED: A 2.10 Existenzbeweise Sind die ti (lokal) konstante Terme und haben wir A(t1 , . . . , tn ) bewiesen, so auch ∃x1 . . . ∃xn . A(x1 , . . . , xn ) Aufzeigung, Konstruktion. A(t1 , . . . , tn ) ∃x1 . . . ∃xn . A(x1 , . . . , xn ) (∃I) Aufzeigung, Konstruktion Ti lokal konstante Terme Beispiel: ∃y : N. y 3 = 27 wird durch t = 3 belegt. Nun können wir auch ∃x : N. A(x) mit A(x) == 3x = 27 beweisen: mit t == 3y folgt das aus der leichten Aufgabe ∃y : N. A(t) == ∃y : N. 3(3y) = 27. Haben wir ∃x1 . . . ∃xn . A(x1 , . . . , xn ) bewiesen und, mit neuen Konstanten ci (für die als existent nachgewiesenen, aber nicht gefangenen Einhörner) unter der Annahme A(c1 , . . . , cn ) auch B bewiesen, so haben wir B bewiesen. 20 2 LOGISCHES SCHLIESSEN [A(c1 , . . . , cn )] .. . ∃x1 . . . ∃xn . A(x1 , . . . , xn ) Beweis durch Hilfsgrössen ci neue Konstanten: Einhörner B B (∃E) In der Praxis bedeutet das oft: aus der puren Existenz einer Lösung auf die Konvergenz eines Näherungsverfahrens zur Berechnung einer Lösung zu schliessen. Prominentes Beispiel in der Linearen Algebra: Die Hauptachsentransformation für reelle symmetrische Matrizen. Die ‘Einhörner’ sind dabei reelle Zahlen, die man meist nicht explizit ausrechnen kann, die jedoch als Grenzwerte konvergenter Folgen belegt sind. Einhorn Konstruktion ZEIGE: ∀x. B(x) ∃y. A(x, y) ZEIGE: (∃x. A(x)) ⇒ B ⇒ SEI: c FAB mit B(c) WÄHLE: c mit A(c) KONSTRUIERE: Term t(x) ZEIGE: A(c, t(c)) arbeite QED: A(c, t(c) QED: ∀x. B(x) ∃y. A(x, y) 2.11 ZEIGE: B arbeite QED: B ⇒ QED: (∃x. A(x)) ⇒ B Negationsregeln und Widerlegung ¬Ai ¬(A1 ∧ . . . ∧ Ak ) [A] .. . ¬B B ¬A A∨B modus tollens, Notwendigkeit von B für A ¬A B ¬A A⇒B materiale Implikation, Grüner Käse Während die ersten drei Regeln auf unproblematische Weise das Zusammenspiel der Negation mit den anderen Junktoren wiedergeben, stösst die vierte häufig auf Befremden: sie erklärt folgende Aussage als wahr “Wenn der Mond aus grünem Käse ist, so ist 0 = 1” - da nämlich der Mond erwiesenermaßen nicht aus grünem Käse ist. Etwas mathematischer: “ Wenn 0 = 1, dann sind Fünfe gerade”. Wie man am Beweis der Transitivität der natürlichen Ord- 2.12 Indirekter Beweis 21 nung sieht, ist dieser Schluss unentbehrlich, sobald man Vorbedingungen in negierter Form (wie x 6= 0) benutzen muss. Aussagen der Form A ∧ ¬A, ∃x. x 6= x, oder 0N = 1N heissen Widersprüche, da sie in keinem nur denkbaren Bereich gültig sein können. Aus einem Widerspruch kann man jeden andern (und was sonst beliebt) beweisen, also kann man sie zu ‘FALSUM’ oder ⊥ zusamenfasssen. Hat man aus einer Aussage A einen Widerspruch hergeleitet, d.h. hat man A ad absurdum geführt, so hat man ¬A bewiesen. Die Aussage “für kein x gilt A(x)” kurz ∀x. ¬A(x), beweist man dadurch, dass man aus einem angenommenen Beispiel einen Widerspruch herleitet. Die Existenz eines x mit ¬A(x) wird durch Widerlegung von ∀x. A(x) bewiesen. Ausschluss von Gegenbeispielen Widerlegung ZEIGE: ¬A ZEIGE: ∀x. A(x) ANNAHME: A WIDERLEGE arbeite QED: FALSUM F ALSU M ¬A ¬I WIDERLEGE arbeite QED: FALSUM QED: ∀x. A(x) QED: ¬A [A] .. . SEI: c FAB mit ¬A(c) [∃x1 . . . ∃xn . A(x1 . . . . , xn )] .. . [∀x1 . . . ∀xn . ¬A(x1 , . . . , xn )] .. . F ALSU M ∀x1 . . . ∀xn . ¬A(x1 , . . . , xn ) F ALSU M ∃x1 . . . ∃xn . ¬A(x1 . . . . , xn ) Den Umgang mit dem Widerspruch beschreiben die folgenden beiden Regeln ¬A A ⊥ quodlibet 2.12 (⊥I) ⊥ ex falso A (⊥E) Indirekter Beweis Der Gebrauch doppelter Verneinung ¬¬A ist in der Mathematik und Informatik in der Regel nur Folge von Gedankenlosigkeit und kann meist vermie- 22 2 LOGISCHES SCHLIESSEN den werden. Dennoch wird überwiegend die Gleichsetzung von A und ¬¬A akzeptiert: A ⇔ ¬¬A. Das rechtfertigt dann den häufig bequemen Beweis einer Aussage A durch Widerlegung der Gegenannahme ¬A, einer Allaussage ∀x. A(x) durch Ausschluss eines Gegenbeispiels ¬A(c). [¬A] .. . F ALSU M A ¬E Indirekter Beweis, Widerspruchsbeweis, reductio ad absurdum [¬A(c1 , . . . , cn )] .. . F ALSU M ∀x1 . . . ∀xn . A(x1 , . . . , xn ) Von derselben Art sind der Beweis durch Kontraposition (statt A ⇒ B zeigt man ¬B ⇒ ¬A) und die Annahme des tertium non datur: A ∨ ¬A. [¬B] .. . ¬A A⇒B beweis Kontraposition [A] .. . [¬A] .. . B B Fallunterscheidung B mit ausgeschlossenem Dritten, tertium non datur [¬A1 ∧ . . . ∧ ¬Ak ] .. . nichtF ALSU M A1 ∨ . . . ∨ Ak konstruktives [∀x1 . . . ∀xn . ¬A(x1 , . . . , xn )] .. . Oder F ALSU M ∃x1 . . . ∃xn . A(x1 , . . . , xn ) konstruktive Existenz nicht- Dass man bei solchen Schlussweisen leicht von der intuitiven Einsicht in den zu studierenden Sachverhalt abhebt sei nur durch ein Beispiel belegt. Wir behaupten, dass es irrationale Zahlen a, b gibt so, dass ab rational ist und beweisen es durch die folgende Fallunterscheidung: 1. Fall: 2. Fall: √ √ √ 2 2√ ist rational. 2 2 ist irrational. √ Wähle: a = b =√ 2 √ 2 √ Wähle: a = 2 , b = 2 2.12 Indirekter Beweis 23 Fall und Gegenfall ZEIGE: A Kontraposition Indirekter Beweis FALL 1: B ZEIGE: A⇒B ZEIGE: A ANNAHME: ¬A ANNAHME: ¬B WIDERLEGE ZEIGE: ¬A arbeite QED: A QED 1: A FALL 2: ¬B arbeite QED: FALSUM arbeite QED: ¬A arbeite QED: A ⇒ B QED 2: A QED: A 24 2 LOGISCHES SCHLIESSEN Nichtkonstruktive Existenz Nichtkonstruktives Oder ZEIGE: A1 ∨A2 ZEIGE: ∃x. A(x) ANNAHMEN: ¬A1 , ¬A2 WIDERLEGE arbeite QED: FALSUM QED: A1 ∨ A2 ANNAHME: ∀x. ¬A(x) WIDERLEGE arbeite QED: FALSUM QED: ∃x. A(x) 2.13 Logische Äquivalenzen 2.13 Logische Äquivalenzen A ∧ A h≡i A ∧ B h≡i A ∧ (B ∧ C) h≡i A ∨ A h≡i A ∨ B h≡i A ∨ (B ∨ C) h≡i ¬¬A h≡i ¬(A ∧ B) h≡i ¬(A ∨ B) h≡i A ∧ (B ∨ C) h≡i A ∨ (B ∧ C) h≡i A ⇒ B h≡i A ⇔ B h≡i ¬∀xA(x) h≡i ¬∃xA(x) h≡i ∀x. (A(x) ∧ B(x)) h≡i ∃x. (A(x) ∨ B(x)) h≡i ∀x.∀y. A(x) h≡i ¬∀x. A(x) ⇒ B(x) h≡i ¬∃x. A(x) ∧ B(x) h≡i ∃x∃yA(x) h≡i ∀x. (A(x) ∨ B(x)) h≡i ∃x. (A(x) ∧ D) h≡i ∀x. (A(x) → D) h≡i ∃x. (A(x) → D) h≡i falls x in D, wenn überhaupt, dann nur 2.14 25 A B∧A (A ∧ B) ∧ C A B∨A (A ∨ B) ∨ C A ¬A ∨ ¬B ¬A ∧ ¬B A∧B∨A∧C (A ∨ B) ∧ (A ∨ C) ¬A ∨ B (A ⇒ B) ∧ (B ⇒ A) ∃x¬A(x) ∀x. ¬A(x) ∀x. A(x) ∧ ∀x. B(x) ∃x. A(x) ∨ ∃x. B(x) ∀y.∀x. A(x) ∃x. A(x) ∧ ¬B(x) ∀x. A(x) ⇒ ¬B(x) ∃y∃xA(x) (∀x. A(x)) ∨ B(x) (∃x. A(x)) ∧ D (∃x. A(x)) → D (∀x. A(x)) → D quantifiziert vorkommt. Beschränkte Quantoren Betrachet man Strukturen mit einer durch ein einstelliges Prädikat P (x) ausgezeichneten Teilmenge, so benutzt man folgende abkürzende Schreibweise ∀x ∈ P. α statt ∀x. P (x) ⇒ α ∃x ∈ P. α statt ∃x. P (x) ∧ α Man liest: “Für alle x in P ” bzw. “es gibt x in P ”. Beispiel: In R hat man die ausgezeichnete Teilmenge N>0 der natürlichen Zahlen > 0 1 ∀x. (0 ≤ x ∧ ∀y ∈ N>0 . x ≤ ) ⇒ x = 0 y ∀x. ∃y ∈ N. x ≤ y Die Zuordnung von Buchstaben am Ende des Alphabets zu Variablen, am Anfang zu Konstanten wird im mathematischen Alltag oft nicht eingehalten. Stattdessen benutzt man Buchstaben, die Assoziationen an den Namen der relevanten Menge erwecken, z.B. n, m für natürliche Zahlen, P, Q für Punkte, g, h für Geraden. Ob dann Variablen oder Konstanten gemeint sind, muss der Leser aus dem Zusammenhang erschließen. 26 2 LOGISCHES SCHLIESSEN 2.15 Affine Inzidenzebene Um einfache und sinnvolle Beispiele für obige Schlussregeln zu erhalten, betrachten wir ein geometrisches Axiomensystem, das einige Grundtatsachen zur Inzidenz von Punkten und Geraden in der Ebene wiedergibt. Die Modelle heissen auch affine Inzidenzebenen. Wir haben zwei Sorten von Objekten • Punkte, bezeichnet durch Variablen X, Y, . . . und lokale Konstanten P, Q, . . . • Geraden, bezeichnet durch Variablen x, y, . . . und lokale Konstanten g, h, . . . und die binäre Relation der Inzidenz zwischen Punkten und Geraden • Xy, P g (P liegt auf g) usw. Wir benutzen die folgenden abkürzenden Schreibweisen • x 6= y für ¬(x = y) und X 6= Y für ¬(X = Y ) • x k y für x = y ∨ ¬(∃X. Xx ∧ Xy) (x parallel y) • X/ y für ¬(Xy) und x 6k y für ¬(x k y) • κ(X, Y, Z) für ∃u. Xu ∧ Y u ∧ Zu (X, U, Z sind kollinear, liegen auf einer Geraden) • ∃1 x. φ(x) für (∃x. φ(x)) ∧ ∀x∀y. φ(x) ∧ φ(y) ⇒ x = y (genau ein x mit φ(x)) Die Axiome sind nun: (E1) Zu je zwei verschiedenen Punkten gibt es genau eine Gerade durch diese Punkte ∀X∀Y. X 6= Y ⇒ ∃1 z. Xz ∧ Y z (E2) Zu jeder Geraden und jedem Punkt gibt es genau eine Parallele durch diesen Punkt ∀x∀Y ∃1 z. Y z ∧ z k x (E3) Es gibt drei nicht kollineare Punkte ∃X∃Y ∃Z¬κ(X, Y, Z) Neben “der” Ebene gibt es noch viele andere Modelle, z.B. solche mit pn Punkten, wobei p Primzahl und n ∈ N>0 . Es ist ein offenes Problem, ob andere endliche Elementanzahlen vorkommen. Wir folgern aus den Axiomen (E1), (E2), (E3) (4) Jede Gerade ist zu sich selbst parallel 2.15 Affine Inzidenzebene 27 (5) Ist die Gerade g zu h parallel, so auch h zu g (6) g k h genau dann, wenn (∃X. Xg ∧ Xh) ⇒ g = h (7) Nicht parallele Geraden haben mindestens einen gemeinsamen Punkt (8) Sind die Geraden g und h und h und k parallel, so sind auch g und k parallel (9) Je (drei) nichtkollineare Punkte sind paarweise verschieden (10) Sind P, Q, R nicht kollinear und g eine Gerade durch P und Q, h eine Gerade durch P und R, so sind g und h nicht parallel (11) Jede Gerade enthält mindestens 2 verschiedenen Punkte (12) Es gibt 4 paarweise verschiedene Punkte (13) Für Geraden g und h sind äquivalent (i) g nicht parallel zu h (ii) g 6= h und es gibt einen gemeinsamen Punkt von g und h (iii) g und h haben genau einen Punkt gemeinsam (14) Zu je (zwei) Geraden gibt es eine Gerade, die zu keiner der beiden parallel ist (15) Zu je (zwei) Geraden gibt es eine bijektive Abbildung der Menge der Punkte auf der einen, auf die Menge der Punkte auf der anderen. 25 3 Reelle Zahlen und Vektoren Wir setzen Kenntnis und anschauliches Verständnis der Grundtatsachen elementarer Geometrie und Arithmetik voraus. Ziel dieses Kapitels ist es, dieses Verständnis zu vertiefen und gleichzeitig in die vektorielle Geometrie einzuführen. Während wir Punkte, Geraden, Ebenen und die Beziehungen zwischen ihnen als geometrische Gegebenheiten akzeptieren, müssen wir den Begriff des “Vektors” erst erarbeiten. Die Motivation für Vektoren kommt natürlich aus der Physik z.B. Kraft- und Geschwindigkeitsvektoren Eine vektorielle Grösse wird angegeben durch Betrag/Länge und Richtung Als geometrisches Objekt ist ein Vektor demnach eindeutig bestimmt durch “Länge” und “Richtung”. Insbesondere ist die Gleichheit von Vektoren die Gleichheit nach Länge und Richtung. Was aber ist damit gemeint? Müssen wir uns für die Längen vorher auf ein Maßsystem einigen, und wie stellen wir die Richtung fest? Mit dem Kompass? Zum Glück handelt es sich um ein Scheinproblem: üblicher “Didaktik” folgend, haben wir uns auf abstrakte Begriffe eingelassen, ohne vorher die konkrete Repräsentation und die Voraussetzungen für den Abstraktionsprozess zu klären. Schlimmer wäre nur noch, mit einem “Koordinatensystem” anzufangen. 3.1 Pfeile Um eine bestimmte Länge und Richtung anzugeben, weist man am einfachsten ein Objekt auf, dem diese zukommen. Zum Beispiel einen Pfeil, d.h. ein Punktepaar P Q = (P, Q) bestehend aus Anfangspunkt P und Endpunkt Q des Pfeils. Wir haben damit einen neuen Typ von geometrischen Objekten und müssen nun präzisieren, was “Übereinstimmung nach Länge und Richtung”, kurz “Äquivalenz”, heissen soll. Zwei Pfeile P Q und RS, die nicht auf einer Geraden liegen, heissen aquivalent und wir schreiben P Q ∼ RS, wenn die zugehörigen Punkte ein Parallelogramm wie in der Skizze bilden. Auf die Orientierung kommt es dabei nicht an, wir haben also auch QP ∼ SR, P R ∼ QS usw. S U V Q R P P Q Für Pfeile, die auf derselben Geraden g liegen, definieren wir P Q ∼ RS ⇔ es gibt U V nicht auf g mit P Q ∼ U V und U V ∼ RS R S 26 3 REELLE ZAHLEN UND VEKTOREN dabei kann man U sogar beliebig (ausserhalb g) vorgeben. Festzuhalten ist, dass die Relation der Äquivalenz mittels Geodreieck und Lineal überprüft werden kann. R Elementargeometrisch kann man die Parallelogrammergänzung zeigen: Zu den Punkten P, Q, R gibt es einen eindeutig bestimmten Punkt S mit P Q ∼ RS. 3.2 S P Q Vektoren Wir wollen nun den Begriff “Vektor” dadurch einführen, dass wir sagen: • Pfeile repräsentieren genau dann denselben Vektor, wenn sie äquivalent sind. Wenn das nicht zu Widersprüchen führen soll, muss ∼ eine “Äquivalenzrelation” sein, d.h. die folgenden Grundeigenschaften einer Gleichheitsrelation erfüllen • PQ ∼ PQ (Reflexivität) • Aus P Q ∼ RS folgt RS ∼ P Q (Symmetrie) • Aus P Q ∼ U V und U V ∼ RS folgt P Q ∼ RS (Transitivität) V Die ersten beiden Eigenschaften sind offensichtlich erfüllt, hinter der dritten steckt ein zwar anschaulich einsichtiger, aber nicht trivialer Satz (vgl. Skizze). U S Q R P Durch “Abstraktion” nach dieser Äquivalenzrelation erhalten wir numehr den Begriff Vektor: • Vektoren sind Grössen, die durch Pfeile repräsentiert werden −→ • Jeder Pfeil P Q repräsentiert genau einen Vektor P Q −→ −→ • P Q = RS genau dann, wenn P Q ∼ RS −→ −→ • Gilt P Q = RS, so P = R genau dann, wenn Q = S Entscheidend für das Zusammenspiel zwischen Punkten und Vektoren und damit die Grundlage für das Rechnen mit Vektoren sind nun die folgenden beiden Tatsachen 3.3 Vektoraddition 27 (A1) Zu jedem Punkt P und Vektor ~v gibt es genau einen Punkt Q mit −→ ~v = P Q. Wir schreiben ~v Q = ~v + P Q = ~v + P. (A2) Zu je zwei Punkten P, Q gibt es −→ genau einen Vektor ~v mit ~v = P Q (gleichwertig: mit Q = ~v + P ) P −→ Ist nämlich ~v = AB, so erhält man Q = ~v + P , indem man A, B, P zum Parallelogramm ergänzt und Q ist dadurch eindeutig bestimmt, unabhängig von −→ −−→ der Wahl des repräsentierenden Pfeils: Ist AB = A0 B 0 und Q0 die Ergänzung von A0 , B 0 , P zum Parallelogramm, so P Q ∼ AB ∼ A0 B 0 ∼ P Q0 , also P Q ∼ P Q0 und daher Q = Q0 . Wir haben somit eine wohldefinierte Operation +, die Vektoren mit Punkten zu Punkten verknüpft. In der zweiten Aussage steckt die Tatsache, dass wir Vektoren durch Abstraktion aus der Menge der Pfeile eingeführt haben. 3.3 Vektoraddition Zu je zwei Vektoren ~a, ~b gibt es genau einen Vektor ~c so, dass es Punkte P.Q.R gibt mit −→ −→ −→ ~a = P Q und ~b = QR und ~c = P R Q0 ~b ~a Damit dürfen wir definieren: R0 P0 ~a + ~b := ~c ~c0 Q Die Existenz von ~c ist klar, die Eindeutigkeit ergibt sich aus der Skizze. Weiterhin erhalten wir ~b ~a ~c R P w ~ ~v (A3) (w ~ + ~v ) + P = w ~ + (~v + P ) w ~ + ~v P ~v + P w ~ + (~v + P ) = (w ~ + ~v ) + P 28 3 REELLE ZAHLEN UND VEKTOREN (V1) (w ~ + ~v ) + ~u = w ~ + (~v + ~u) ~c ~b ~c + ~b ~b + ~a (~c + ~b) + ~a = ~c + (~b + ~a) ~a S ~v R (V2) ~v + w ~ =w ~ + ~v w ~ w ~ P ~v Q • Alle Pfeile P P repräsentieren denselben Vektor ~0 und es gilt (A4) ~0 + P = P, (V3) ~v + ~0 = ~v • Zu jedem Vektor ~a gibt es genau einen Vektor ~b so, dass es Punkte P, Q −→ −→ gibt mit ~a = P Q und ~b = QP . Somit erhalten wir eine wohldefinierte Operation ~a 7→ −~a mit −→ −→ −~a = QP genau dann, wenn ~a = P Q ~v und es gilt (V4) ~v + (−~v ) = ~0 3.4 −~v Natürliche Zahlen Die Arithmetik gründet auf das Prinzip des “Weiterzählens“ und erscheint eng mit der Zeitvorstellung verbunden. Die Reihe N der natürlichen Zahlen 0, 1, 2, 3, . . . nehmen wir als gegeben. Die relevante Struktur ist das ausgezeichnete Element 0 und die “Nachfolgeroperation” n 7→ n + 1. Sie wird charakterisiert durch die folgenden Eigenschaften 3.5 Ganze Zahlen 29 • 0 ist kein Nachfolger, d.h. 0 6= n + 1 für alle n • Aus n + 1 = m + 1 folgt n = m • Induktionsprinzip: Ist A(x) ein Aussage so, dass A(0) gilt (Verankerung) und A(n + 1) stets aus A(n) folgt (Induktionsschritt), so gilt A(n) für alle n Hinzu kommt das (beweisbare) Prinzip der rekursiven Definition. Dieses erlaubt z.B. das n-fache n~a eines Vektors ~a durch folgende Angaben zu definieren 0~a = ~0, (n + 1)~a = n~a + ~a Weitere Beispiele sind die Definitionen m + 0 = m, m + (n + 1) = (m + n) + 1 (Addition) m · 0 = 0, m · (n + 1) = m · n + m (Multiplikation) m 6< 0, m < n + 1 genau dann, wenn m < n oder m = n (Anordnung) 0! = 1, (n + 1)! = n! · (n + 1) (Fakulät) Dass dann die Ihnen wohlbekannten Gesetze der Arithmetik gelten, kann man (meist durch Induktion) beweisen. 3.5 Ganze Zahlen Die Zahl a − b ist dadurch charakterisiert, dass (a − b) + b = a. Innerhalb der natürlichen Zahlen existiert sie genau dann, wenn b ≤ a. Will man diese Einschränkung aufheben (und dafür gibt es viele praktische Gründe), so kommt man zu den ganzen Zahlen: diese haben eine eindeutige Darstellung der Form n mit n ∈ N bzw. − n mit n ∈ N, n 6= 0 Wir rechnen mit Zahlen aus N wie vorher und setzen n − m falls m ≤ n n+(−m) = (−m)+n = (−n)+(−m) = −(n+m) −(m − n) falls n < m (−n) · m = m · −(n) = −(nm), (−n) · (−m) = nm −n < m, −n < −m genau dann, wenn m < n Wir können nun die Umkehrung und die Subtraktion für beliebige ganze Zahlen definieren −(−n) = n, a − b = a + (−b) Wieder ergibt sich die Aufgabe, alle Gesetze der Arithmetik nachzuweisen. 30 3 REELLE ZAHLEN UND VEKTOREN 3.6 Rationale Zahlen Die rationalen Zahlen entstehen als ganzzahlige Vielfache von Bruchteilen oder aus Zahlverhältnissen, d.h. sie werden durch “Quotienten“ wz mit ganzen z, w und w 6= 0 repräsentiert und es gilt a c = genau dann, wenn ad = cb b d d.h. wir haben eine Äquivalenzrelation für formale Quotienten und durch Abstraktion erhalten wir den Bereich Q der rationalen Zahlen. Addition und Multiplikation werden nach den hoffentlich bekannten Gesetzen der Bruchrechnung ausgeführt ad + cb a −a a c + = , − = , b d bd b b a c ac · = b d bd (wobei das Wichtigste der Nachweis ist, dass diese Definitionen unabhängig von der Wahl der Repräsentanten sind) und die ganzen Zahlen kann man auch darin wiederfinden: man identifiziere a= a 1 Die Anordnung kann man auf Q übertragen durch a > 0 genau dann, wenn ab > 0, r > s genau dann, wenn r − s > 0 b Zu rationalen Zahlen 6= 0 kann man jetzt den Kehrwert bilden a b ( )−1 = für a, b, 6= 0 b a und dieser ist charakterisiert durch r · r−1 = 1. Dies erlaubt uns nun die Schreibweise s = s · r−1 für s, r ∈ Q, r 6= 0 r Auch hier kann (und sollte) man die bekannten Gesetze nachweisen. Wenn man die Ausführbarkeit der Operationen und die Gültigkeit dieser Gesetze für einen Zahlbereich voraussetzt, so muss dieser (bis auf Isomorphie) Q enthalten. Daher dürfen wir Q als eine verlässliche Grundlage für das Weitere ansehen. 3.7 Rationale Vielfache von Vektoren Durch Rekursion hatten wir für einen Vektor ~a die Vielfachen n~a mit n ∈ N definiert. Wenn wir die Relation “P liegt zwischen Q und R” in unsere überlegungen einbeziehen, lehrt uns die Geometrie, dass n~a = ~0 genau dann, wenn ~a = 0 oder n = 0 und dass wir jeden Vektor in n gleiche Teile teilen können 3.7 Rationale Vielfache von Vektoren 31 • Zu jedem Vektor ~a und jedem n ∈ N, n 6= 0 gibt es einen eindeutig bestimmten Vektor ~b mit 1 n~b = ~a geschrieben ~b = ~a n −→ Konstruktion. Sei ~a = SA. Wähle C0 = S, C1 nicht auf der Geraden −−→ g durch SA. Sei ~c = SC1 und Ck auf der Geraden h durch SC1 so, dass −−−→ S, Ck = k~c. Sei Bn = A und Bk der Schnittpunkt von g mit der Parallelen zu Cn Bn durch Ck . Wähle D1 = B1 und rekursiv Di+1 = ~c + Di Zu zeigen ist: −−−−→ ~ −−−−→ Ci Di+1 = b = Bi Bi+1 durch Induktion. Nach Induktionsvorausetzung haben wir −−→ ~ Ci Di = b − ~c also −−−−→ −−→ Ci Di+1 = Ci Di + ~c = ~b Somit ist die Gerade durch Ci Di+1 zu der durch SA parallel. Nach Konstruktion (und Transitivität der Parallelität) sind die Geraden durch Ci Di und Ci+1 Di+1 parallel. Somit haben wir ein Parallelogramm mit Seiten Bi Ci −−−−→ und Bi+1 Di+1 und es folgt ~b = Bi Bi+1 Somit ~a = n~b. C4 C3 D4 C2 C1 D3 D2 ~c S = C0 ~b B1 = D1 B2 B3 B4 = A Damit können wir nun r~a für beliebige r ∈ Q definieren m 1 −m 1 ~a = m( ~a), ~a = −(m( ~a)) m, n ∈ N, n 6= 0 n n n n und die folgenden Gesetze für alle Vektoren ~v , w ~ und rationalen Zahlen r, s nachweisen (V5) r(~v + w) ~ = r~v + rw ~ (V6) 1~v = ~v , (V7) (r + s)~v = r~v + s~v , wobei das erste eine Form des Strahlensatzes ist. (V8) r(s~v ) = (rs)~v 32 3 REELLE ZAHLEN UND VEKTOREN Zeichnen wir eine Gerade g aus und auf dieser zwei Punkte O 6= E und −−→ setzen wir ~e = OE, so können wir jeder rationalen Zahl r einen eindeutig bestimmten Punkt φ(r) auf g zuordnen: φ(r) = r~e + O. Dann erhalten wir φ(r + s) durch Vektoraddition φ(r + s) = r~e + s~e + O und φ(rs) mithilfe des Strahlensatzes mnP’ mnE’ mnr mnO’ mnE mn1 mnO mn1 mnr mnsr mns mnP mnO Durch die Auszeichnung von O und E machen wir g zu einer Zahlengeraden - und haben damit zumindest die rationalen Zahlen erfasst. Der Übergang zwischen Zahlengeraden erfolgt wie in der zweiten Skizze. Schliesslich ist r ≥ 0 genau dann, wenn P = r~e + O auf derselben Seite von O wie E liegt, d.h. wenn P zischen O und E oder E zwischen O und P liegt. Es gibt jedoch auf jeder Zahlengeraden (unheimlich viele) nicht rationale Punkte, d.h. Punkte die nicht von der Form r~e + O mit r ∈ Q sind, z.B. P aus folgender Skizze mnr mnE mnO mnO mnE mnP mn~a mnr~a Daher deklarieren wir einfach eine Zahlengerade mit allen ihren Punkten zum Skalarenbereich und definieren wie oben die Addition durch die Addition von Vektoren, die Multiplikation über den Strahlensatz und die Anordnung durch die Lage relativ zu O und E. Dass dann Zahlbereiche herauskommen, in denen alle schon von Q bekannten Gesetze gelten, und dass diese alle auf die skizzierte Art miteinander identifiziert werden können, kann man geometrisch beweisen. Wir dürfen daher von dem Skalarenbereich R der reellen Zahlen sprechen. Die Multiplikation eines Skalars mit einem Vektor erklären wir (im 3.9 Körper 33 Sinne des Strahlensatzes) wie in der Skizze und überlegen, dass das nicht von der Wahl der Zahlengeraden abhängt und dass die von der Multiplikation mit rationalen Skalaren bekannten Gesetze (V5-8) gelten. 3.9 Körper Ein (kommutativer) Körper ist ein kommutativer Ring so, dass gilt 1 6= 0 und ∀x, x 6= 0 ⇒ ∃y, xy = 1 Es folgt ∀x∀y, x 6= 0 ∧ y 6= 0 ⇒ xy 6= 0 Ist nämlich ab = 0 und z.B. b 6= 0, so gibt es c mit bc = 1 also 0 = abc = a · 1 = a. Daher gilt: Ein kommutativer Ring ist genau dann ein Körper, wenn die Elemente 6= 0 bzgl. der Multiplikation eine kommutative Gruppe bilden. Verzichtet man auf die Kommutativität der Multiplikation, so handelt es sich um Schiefkörper. Die Skalerenbereiche räumlicher (oder hóherdimensionaler) affiner Inzidenz-Geometrien (wir haben nur für Ebenen Axiome angegeben, in hóherer Dimension muss auch über Ebenen gesprochen werden) sind stets Schiefkörper und es galten die Axiome (A1)-(A3) und (V1)-(V8). Entscheidend ist dabei der Satz von Desargeus, den man im nicht ebenen Fall beweisen kann (vgl. Tutorium). Der Satz von Desargues ist im ebenen Fall dazu äquivalent, dass man einen Skalarenschiefkörper hat und (A1)-(A3), (V1)-(V8) gelten. Es gibt aber auch Ebenen, endliche und unendliche, in denen der Satz von Desargues nicht gilt. Die Kommutativität des Skalarenkörpers ist gleichbedeutend mit dem Satz von Pappus-Pascal (aus dem der von Desargues folgt). Eine Alternative zur Einführunge von Zahlengeraden und dem Nachweis, dass der Skaleren(schief)körper nicht von deren Wahl abhängt, besteht darin, analog zur Einführung der rationalen Zahlen Verhältnisse ~a : ~b von Vektoren zu bilden, wobei ~b 6= ~0 und ~a parallel zu ~b. Die Äquivalenz zweier Verhältnisse wird gemäß des Strahlensatzes definiert. Durch Abstraktion nach dieser Äquivalenzrelation erhält man den Skalarenbereich mit den repräsentatneweise (wohl) zu definerenden Operationen. 3.10 Reelle Zahlen Zurück zu Anschauungsraum bzw. -ebene. Führen wir Anordnung (Orientierung) von Geraden mit den entsprechenden Axiomen in die Geometrie ein (und setzen Pappus voraus), so erhalten wir eine Anordnung auf der Zahlengeraden und der Skalarenbereich wird zum angeordneten Körper, d.h. es gilt 34 4 GERADEN, EBENEN, KOORDINATEN Aus x < y und y < z folgt x < z. x < y oder x = y oder y < x Aus x < y folgt x + z < y + z. x < x für kein x Aus x < y und 0 < z folgt xz < yz Wir schreiben a ≤ b falls a < b oder a = b. Diese Gesetze allein reichen für ein Verständnis des Skalarenbereichs der Anschauungsgeometrie nicht aus, da sie auch schon von Q erfüllt werden, andererseits aber, wie oben gesehen, nicht rationale Skalare existieren. Wir müssen also den Begriff der reellen Zahl so präzisieren, dass er alle geometrischen Grössen einschliesst und mit geometrischen Konstruktionen kompatibel ist. Andererseits wollen wir festschreiben, dass jede reelle Zahl durch rationale Zahlen approximiert werden kann. Der Schlüssel dazu ist folgender Begriff. Eine Intervallschachtelung wird gegeben durch zwei Folgen (an | n ∈ N) und (bn | n ∈ N) von rellen Zahlen so, dass gilt • an ≤ am ≤ bm ≤ bn für alle n ≤ m • Zu jedem k > 0 in N gibt es ein n ∈ N mit bn − an ≤ 1 k d.h. die an liefern eine aufsteigende untere Begrenzung, die bn eine absteigende obere Begrenzung und die Grenzen kommen sich immer näher. Die Intervallschachtelung ist rational. wenn alle an , bn rational sind. Wir sagen, c wird durch die Intervallschachtelung approximiert, wenn an ≤ c ≤ bn für alle n. Wir halten nun fest (1) Jede reelle Zahl kann durch eine rationale Intervallschachtelung approximiert werden. (2) Jede Intervallschachtelung approximiert genau eine reelle Zahl. Auf diese Weise hat schon Archimedes den Umfang bzw. Inhalt eines Kreises mit Hilfe einbeschriebener von unten, umbeschriebener regelmässiger n-Ecke von oben approximiert. Durch (2) wird die Existenz unendlich kleiner und unendlich grosser reeller Zahlen ausgeschlossen. Diese infinitesimalen Zahlen haben für die Entwicklung der Differential- und Integralrechnung eine grosse Rolle gespielt und sind in der Notation z.B. als dx noch präsent - insbesondere in den Anwendungen in Naturwissenschaft und Technik. Seit ca. 150 Jahren hat sich jedoch die oben eingenommene Sichtweise durchgesetzt, weil man in ihr eher zu einer präzisen Darstellung kommt. Dennoch ist der Gebrauch infinitesimaler Grössen legitim, wo er sich auf eine verlässliche Intuition oder ein entsprechend entwickeltes logisches Instrumentarium stützt. 4 4.1 Geraden, Ebenen, Koordinaten Geraden und Ebenen Aus der Idee der Zahlengeraden leitet sich auch die folgende Parameterdarstellung von Geraden und Ebenen her 4.2 Ortsvektoren 35 • Sei g ein Gerade, A ein Punkt auf g und ~v 6= ~0 so, dass ~v + A auf g liegt (~v heisst dann ein Richtungsvektor von g). Dann besteht g gerade aus den Punkten folgender Form (und diese Darstellung ist eindeutig) P = r~v + A (r ∈ R) • Sei ε eine Ebene, A ein Punkt auf ε und ~v , w ~ so, dass A, ~v + A, w ~ + A in der Ebene ε, aber nicht auf einer Geraden liegen (~v , w ~ bilden dann ein Paar unabhängiger Richtungsvektoren von ε). Dann besteht ε gerade aus den Punkten folgender Form (und diese Darstellung ist eindeutig) P = r~v + sw ~ + A (r, s ∈ R) P = r~v + sw ~ +A sw ~ r~v + sw ~ w ~ A 4.2 ~v r~v Ortsvektoren Zeichnet man einen Punkt O aus (und nennt ihn den Ursprung), so entsteht eine umkehrbar eindeutige Beziehung zwischen Punkten und Vektoren mnP = ~x + O −→ P → 7 ~x = OP , ~x 7→ P = ~x + O mnO mn~x Gebraucht man Vektoren in diesem Sinne, so spricht man von Ortsvek−→ toren. Mit ~a = OA geht dann die Parameterdarstellung von Geraden bzw. Ebenen über in (und es ist beliebt, das “+O” zu unterschlagen) ~x + O = r~v + ~a + O, (r ∈ R) bzw. ~x + O = r~v + s~v + ~a + O, (r, s ∈ R) 4.3 Vektor-Koordinaten in der Ebene Wir beschränken uns im Moment auf eine feste Ebene. Ein Paar ~a1 , ~a2 von Vektoren heisst (linear) unabhängig, wenn für einen/jeden Punkt O der Ebene die Punkte O, O + ~a1 , O + ~a2 nicht auf einer Geraden liegen. Damit haben wir die eindeutige (Parameter)Darstellung P = x1~a1 + x2~a2 + O (x1 , x2 ∈ R) für Punkte der Ebene und daher auch für die Vektoren −→ ~x = OP = x1~a1 + x2~a2 (x1 , x2 ∈ R) 36 4 GERADEN, EBENEN, KOORDINATEN Wir sagen dann, dass ~a1 , ~a2 eine Basis α der Ebene bilden. Die eindeutig bestimmten Skalare x1 und x2 heissen die Koordinaten von ~x bzgl. α und wir schreiben x2~a2 ~x = x1~a1 + x2~a2 x1 ~a2 ~xα = x2 ~a1 x1~a1 Das Rechnen mit Koordinaten geht so (~x + ~y )α = ~xα + ~y α , (r~x)α = r(~xα ) Dabei ist für Spalten von Skalaren (komponentenweise) definiert x1 y1 x1 + y 1 x1 rx1 x1 −x1 + = , r = , − = x2 y2 x2 + y 2 x2 rx2 x2 −x2 Beweis. Sei ~x = x1~a1 + x2~a2 , ~y = y1~a1 + y2~a2 . Dann ~x + ~y = x1~a1 + x2~a2 + y1~a1 + y2~a2 = (x1 + y1 )~a1 + (x2 + y2 )~a2 r~x = r(x1~a1 + x2~a2 ) = rx1~a1 + rx2~a2 ~u + ~v = 2~a1 + 5~a2 ~a2 ~u = −1~a1 + 3~a2 ~v = 3~a1 + 2~a2 ~a1 4.4 Unabhängigkeit Aus dem Vorangehenden ergibt sich: Für Vektoren ~a, ~b sind äquivalent (a) ~a = ~0 oder es gibt t ∈ R mit ~b = t~a 4.4 Unabhängigkeit 37 (b) Für einen/jeden Punkt O liegen O, ~a + O und ~b + O auf einer Geraden (c) Es gibt r, s ∈ R, nicht beide = 0, sodass r~a + s~b = ~0 Beweis als Übung. In diesem Falle sind die beiden Vektoren ~a, ~b linear abhängig - genauer geht es um die Zweierliste, wobei es hier aber auf die Reihenfolge nicht ankommt. Vektoren ~a 6= ~0 und ~b 6= ~0 sind genau dann Richtungsvektoren zueinander paralleler Geraden, wenn sie linear abhängig sind - wir schreiben ~a k ~b. Ist ~a, ~b nicht linear abhängig, so spricht man von linear unabhängig. Somit hat man die Äquivalenz folgender Aufsagen • ~a, ~b ist linear unabhängig • Aus r~a + s~b = ~0 folgt stets r = s = 0 • Für einen/jeden Punkt O liegen O, ~a + O, ~b + O nicht auf einer Geraden Insbesondere also ~a 6= ~0 6= ~b. Lemma 4.1 Für Vektoren ~a, ~b, ~c des Raumes V des Raumes und einen beliebigen Punkt P sind die folgenden Aussagen äquivalent 1 Geeignete Repräsentanten von ~a, ~b, ~c liegen in einer Ebene, d.h. ~a, ~b, ~c liegen in einer vektoriellen Ebene. 2 Die Punkte ~a + P, ~b + P, ~c + P, P liegen in einer Ebene. 3 Es gibt Skalare r, s, t, nicht alle 0, mit r~a + s~b + t~c = ~0, d.h. die Vektoren ~a, ~b, ~c sind linear abhängig 4 Sind ~a, ~b nicht parallel, so kann man noch hinzufügen: ~c = r~a + s~b für passende r, s ~+ Beweis. Die Äquivalenz von (1) und (2) ist klar. Ist ~a k ~b, so liegen A P, ~b + P, P schon auf einer Geraden und man kann in (3) t = 0 nehmen. Andernfalls hat man in (3) t 6= 0 also ~c = t−1 r~a + t−1 s~b und somit ~c + P in der von ~a + P, ~b + P, P aufgespannten Ebene. Liegt umgekehrt ~c + P in dieser Ebene, so ~c + P = r~a + s~b + P mit passenden r, s, also r~a + s~b + (−1)~c = ~0. Sind die Vektoren ~e1 , ~e2 , ~e3 nicht linear abhängig, so sind sie linear unabhägig. Lemma 4.2 Äquivalent sind (i) ~e1 , ~e2 , ~e3 sind linear unabhängig (ii) Aus r1~e1 + r2~e2 + r3~e3 = ~0 folgt r1 = r2 = r3 = 0 (iii) Aus x1~e1 + x2~e2 + x3~e3 = y1~e1 + y2~e2 + y3~e3 folgen x1 = y1 , x2 = y2 und x3 = y3 Beweis. (ii) imd (ii) sind nach dem vorangehenden lemme äquivalent. (ii) folgt aus (iii) mit xi = ri und yi = 0. Gelte nun (ii) und sei x1~e1 + x2~e2 + x3~e3 = y1~e1 + y2~e2 + y3~e3 . Dann ~0 = x1~e1 + x2~e2 + x3~e3 − (y1~e1 + y2~e2 + y3~e3 ) = (x1 − y1 )~e1 + (x2 − y2 )~e2 + (x3 − y3 )~e3 also x1 − y1 = x2 − y2 = x3 − y3 = 0. 38 4 GERADEN, EBENEN, KOORDINATEN 4.5 Vektor-Koordinaten im Raum Die Dreidimensionalität des Raumes drückt sich nun so aus: Ist eine Liste α dreier unabhängiger Vektoren ~a1 , ~a2 , ~a3 gegeben (und solche gibt es!), so haben wir die (Parameter)Darstellung P = x1~a1 + x2~a2 + x3~a3 + O (x1 , x2 , x3 ∈ R) für Punkte des Raumes und daher auch für die Vektoren −→ ~x = OP = x1~a1 + x2~a2 + x3~a3 (x1 , x2 , x3 ∈ R) Die Koordinaten xi sind nach den vorangegangenen Lemma eindeutig bex1 stimmt. Wir schreiben ~xα = x2 und sagen, dass α : ~a1 , ~a2 , ~a3 eine Basis x3 α des Raumes ist. Aus den Vektorraumaxiomen folgt sofort, dass man mit Koordinaten komponentenweise rechnet: x1 + y 1 rx1 x1 y1 (~x + ~y )α = x2 + y2 , (r~x)α = rx2 für ~xα = x2 , ~y α = y2 . y3 x3 + y 3 rx3 x3 ~a3 ~x = x1~a1 + x2~a2 + x3~a3 x3~a3 x2~a2 ~a2 ~a1 4.6 x1~a1 Punkt-Koordinaten Zeichnet man in einer Ebene bzw. im Raum einen Punkt O (Urpsrung) aus, so kann man (wie wir in 1.10 gesehen habe) Punkte durch (Orts)Vektoren bezeichnen −→ P = ~x + O, ~x = OP Hat man zusätzlich eine Basis ~a1 , ~a2 so erhält man ein (affines) Koordinatensytem α mit Urspung Oα = O und kann die Koordinaten von P so einführen P α = ~xα −→ mit ~x = OP 4.7 Koordinatentransformation in der Ebene 39 ~a2 P = 3~a1 + 2~a2 + Oα ~x = 3~a1 + 2~a2 Oα ~a1 3 α P = 2 4.7 Koordinatentransformation in der Ebene Gegeben seien zwei Basen von Vε : die alte α : ~a1 , ~a2 und die neue β : ~b1 , ~b2 . Dann gibt es eindeutig bestimmte Skalare tij , die die neue Basis in der alten ausdrücken t12~a1 t ~ a 11 1 ~b2 = ~b1 = + t22~a2 + t21~a2 Die Transformationsmatrix α Tβ ist t11 t12 α Tβ = t21 t22 In den Spalten der Transformationsmatrix stehen die Koordinaten der Vektoren der neuen Basis bzgl. der alten Basis Wir definieren Lemma 4.3 ~v α = t11 t12 t21 t22 α Tβ x1 t11 x1 + t12 x2 = x2 t21 x1 + t22 x2 ~v β Beweis. Sei ~v = r1~b1 + r2~b2 . Dann ~v = r1 (t11~a1 +t21~a2 )+r2 (t12~a1 +t22~a2 ) = (r1 t11 +r2 t12 )~a1 +(r1 t21 +r2 t22 )~a2 . 40 4 GERADEN, EBENEN, KOORDINATEN ~a2 ~v = 2~b1 + 1~b2 = 3~a1 + 5~a2 ~b2 = −1~a1 + 3~a2 ~b1 = 2~a1 + 1~a2 ~a1 4.8 Punktkoordinaten-Transformation in der Ebene Lemma 4.4 Gegeben seien zwei Koordinatensyteme Oα , α und Oβ , β der Ebene. Dann −−−→ P α = α Tβ~ P β + (Oβ )α = α~ Tβ~ P β + ~v α wobei ~v = Oα Oβ . Beweis. Sei P = ~x + Oα = ~y + Oβ . Dann ~y α = ~ α ~ Tβ ~y β , ~v α = (Oβ )α ~x = ~y + ~v , P α = ~x α = ~y α + ~v α 4.9 Koordinatentransformation im Raum Die Regeln für Koordinatentransformation im Raum gelten ganz entsprechend. Die Transformationsmatrix ist hier eine 3 × 3-Matrix mit ~xα = α Tβ ~xβ Dabei ist für eine Matrix T und Spalte x t11 t12 t13 T = t21 t22 t23 , t31 t32 t33 definiert x1 x = x2 x3 t11 x1 + t12 x2 + t13 x3 T x = t21 x1 + t22 x2 + t23 x3 t31 x1 + t32 x2 + t33 x3 4.10 Strahlensatz und Distributivgesetz 41 P = 2~b1 + 1~b2 + Oβ = 3~a1 + 5~a2 + Oβ = 1~a1 + 6~a2 + Oα ~a2 2~b1 + 1~b2 = 3~a1 + 5~a2 ~b2 1~a1 + 6~a2 Oβ ~v = −2~a1 + 1~a2 ~b1 ~a1 Oα 4.10 Strahlensatz und Distributivgesetz Legen wir die Vektoraumaxiome (V1)-(V8) zugrunde, so folgt der Strahlensatz: Für unabhängige ~a, ~b und Skalare r, s 6= 0 sind äquivalent (1) r = s (2) s~b − r~a = r(~b − ~a) (3) Es gibt t mit s~b − r~a = t(~b − ~a) (4) Die Gerade durch ~a + O und ~b + O ist parallel zu der durch r~a + O und s~b + O Beweis. (1) (2) (3) ist klar, ebenso Äquivalenz von (3) und (4). (3) (1) mit der Unabhängigkeit: (s − t)~b + (t − r)~a = ~0, also s = t = r. Setzen wir voraus, dass die Multiplikation mit Skalaren wohldefiniert ist und der Strahlensatz in obiger Form gilt, so folgt das Distributivgesetz (V5). Wenden wir nämlich den Strahlensatz an auf ~a und ~a + ~b, so ist die Gerade durch r(~a +~b)+O und r~a +O parallel zu der durch ~a +~b+O und ~a +O; diese ist aber parallel zu der durch ~b + O und O (Definiton der Vektorgleichheit) und das ist die durch r~b + O und O. Ebenso ist die Gerade durch r(~a +~b) + O und r~b+O parallel zu der durch r~a +O und O. Also haben wir ein Parallelogramm O, r~a + O, r~b + O, r(~a + ~b) + O und somit r(~a + ~b) = r~a + r~b nach Definition der Vektoraddition. 42 5 SKALARPRODUKT 4.11 Resumee Die Vektoren des (Anschauungs)Raumes bilden eine kommutative Gruppe, d.h. es gelten (V1)-(V4). Für die Wirkung P 7→ ~v + P der Gruppe der Vektoren auf dem Punktraum gelten (A1)-(A3), man erhält so den affinen Raum. Durch Wahl von Nullpunkt O und Einheit E wird jede Geraden zur Zahlengeraden, ihre Punkte zu Skalaren. Die Addition von Skalaren ergibt sich aus der Vektoraddition, die Multiplikation aus dem Strahlensatz, die Anordnung aus der “Zwischen”-Relation t~a + P zwischen r~a + P und s~a + P ⇔ r ≤ t ≤ s oder s ≤ t ≤ r Dass man so in der Tat einen angeordneten Körper erhält, kann man aus geeigneten geometrischen Axiomen beweisen. Ebenso, dass alle diese Skalarenbereiche auf natürliche Weise isomorph sind. Die Multiplikation Skalar mal Vektor (r, ~a) 7→ r~a wird ebenfalls über den Strahlensatz definiert und hängt nicht von der Wahl des Skalarenbereichs ab. Es gelten die Axiome (V1)-(V8), d.h. man hat einen Vektorraum über dem Skalarenkörper. Aus den gemetrischen Vollständigkeitseigenschaften folgt die Vollständigkeit des Skalarenbereichs, daher kann dieser als der aus der Analysis bekannte angeordnete Körper R der reellen Zahlen aufgefasst werden - bis auf Isomorphie gibt es nur einen vollständig angeordneten Körper. Die Dreidiemsnionaliẗat des Raymes bedeutet, dass je 3 unabhängige Vektoren eine Basis bilden. Somit bilden die Vektoren des (Anschauungs)Raumes einen 3-dimensionalen R-Vektorraum. Statt die Skalarenbereiche intern geometrisch zu konstruieren, kann man R aus Q konstruieren und dann r~a = lim qn~a mit qn ∈ Q, r = lim qn n→∞ n→∞ Man muss dann aber das Distributivgesetz (V5) mehr oder weniger direkt postulieren. Preisfrage. Sei V eine kommutative Gruppe und sei eine Multiplikation (r.~a) 7→ ~a (R ∈ R, ~a ∈ V ) gegeben so, dass (V6)-(V8) gelten und q(~a + ~b) = q~a + q~b für ale q ∈ Q. Nuss dann (V5) für alle r ∈ R gelten? Geht man von dem allgemeineren Begriff einer Inzidenzgeometrie aus, so kann man durch geeignete Axiome für Punkte, Geraden und Ebenen sicherstellen, dass man auf den eben skizzierten Weg immer noch einen Vektorraum über den Skalaren(schief)körper erhält. Umgekehrt kann man zu jedem Vektorraum eine Inzidenzgeometrie definieren, der Punkte die Vektoren 6= ~0 sind und Geraden und Ebenen wie oben durch Parameterdarstellung gegeben. 5 5.1 Skalarprodukt Richtungskomponenten Wir setzen voraus, dass wir über Längengleichheit |P Q| = |RS| von Pfeilen reden können und die üblichen Aussagen der Kongruenzgeometrie erfüllt 5.1 Richtungskomponenten 43 sind. Insbesondere sind also gegenüberliegende Seiten eines Parallelogramms gleich lang und wir können auch darüber reden, dass zwei Vektoren gleich lang sind (|~a| = |~b|, und dann auch |r~a| = |r~b|). Das passende Gerät um Längengleichheit festzustellen, ist der Zirkel oder ein Band. Das erlaubt uns, rechte Winkel und Orthogonalität von Vektoren einzuführen • ∠QP R ist recht genau dann, wenn P = Q oder wenn es Q0 6= Q auf der Geraden durch P Q gibt mit |P Q| = |P Q0 |, |RQ| = |RQ0 | −→ −→ • ~a ⊥ ~b genau dann, wenn ein/alle ∠QP R mit P Q = ~a, P R = ~b recht sind • Zu jeder Geraden g mit Richtungsvektor ~a und Punkt Q gibt es genau einen Punkt R auf g (den Fusspunkt des Lotes von Q auf g) so, dass −→ RQ ⊥ ~a Damit können wir nun den auch physikalisch grundlegenden Begriff der Komponente ~c eines Vektor ~b in der durch einen Vektor ~a gegebenen Richtung definieren durch die Bedingungen mn~b ~c = r~a für ein r ∈ R, (~b − ~c) ⊥ ~a mn~a mn~c In der Tat, ist ~a 6= ~0, so wähle man einen Punkt O und g als die Gerade durch O mit Richtungsvektor ~a und Q = ~b + O. Dann ergibt sich ~c eindeutig als −→ ~c = OR mit dem Fusspunkt R des Lotes von Q auf g. Ist ~a = ~0, so auch ~c = ~0. 44 5.2 5 SKALARPRODUKT Skalares Produkt mn~b mnf~ mncos φ mn~c = h~e | ~bi~e = (|~b| cos φ)~e mn~e Sei nun zusätzlich eine Längeneinheit festgelegt, z.B. dadurch dass wir einem bestimmten Pfeil OE die Länge 1 zuschreiben. Um die Länge eines beliebigen −→ Vektors ~v = P Q 6= ~0 zu bestimmen, konstruieren wir auf der Geraden g durch O0 = P und Q einen Punkt E 0 mit |O0 E 0 | = |OE| und setzen −− → r falls r ≥ 0 0 0 |~v | = |r| mit ~v = rO E wobei |r| = −r falls r < 0 Der Nullvektor ~0 ist der einzige Vektor der Länge 0. Das skalare oder innere Produkt h~a | ~bi definieren wir zunächst für einen Spezialfall durch folgende Beziehung h~e | ~bi~e ist die Komponente von ~b in Richtung ~e falls |~e| = 1 Schreiben wir cos φ := h~e | f~i falls |f~| = 1, ~b = |~b|f~ so haben wir h~e | ~bi = |~b| cos φ = |~e| · |~b| · cos φ Die Bedeutung von φ und cos muss man mit Hilfe des Anschauung aus der Skizze entnehmen. Erwünscht sind für ein allgemein definiertes Skalarprodukt die Regeln (E1) h~a | ~bi = h~b | ~ai (E2) h~a | s~bi = sh~a | ~bi (E3) h~a | ~b + ~ci = h~a | ~bi + h~a | ~ci (E4) ha | ai > 0 für ~a 6= 0 Diese verifizieren wir leicht falls ~a = 1 - und in (E1) auch |~b| = 1 - vgl. die Skizzen. Da wir mit ~e = |~a1| ~a einen Vektor der Länge 1 erhalten, sind wir 5.3 Ungleichungen 45 wegen (E1-2) gezwungen, das Skalarprodukt so zu definieren h~a | ~bi = |~a|h 1 ~ ~a | bi |~a| und rechnen sofort nach, das (E1-4) auch dafür gelten. Mit obiger Schreibweise ergibt sich die beliebte Formel h~a | ~bi = |~a| · |~b| · cos φ ~a · ~b ist eine andere Schreibweise für das Skalarprodukt. Es folgt h~a | ~bi ~a ist die Komponente von ~b in Richtung ~a |~a|2 p h~a | ~ai = |~a|2 , |~a| = h~a | ~ai, h~a | ~bi = 0 genau dann, wenn ~a ⊥ ~b Zum Nachweis von (E1), (E3) und (E2) siehe folgende Skizzen ~b B Q h~b | ~ai~b O |~a| = |~b| = 1 h~a | ~bi~a P ~a A ~c ~a ~b ~b + ~c |~a| = 1 |~a| = 1 ~b ~a r~b ~a h~a | ~bi~a h~a | r~bi~a h~a | ~ci~a h~a | ~b + ~ci~a 5.3 h~a | ~bi~a Ungleichungen Als Einübung auf späteres rein axiomatisches Vorgehen, wollen wir die folgenden geomertrischen Aussagen ausschliesslich mit (V1-8) und (E1-4) herleiten, Insbesondre ist |~a| und ⊥ wie oben aus dem Skalarprodukt definiert. 46 5 SKALARPRODUKT Satz 5.1 • |~a + ~b|2 = |~a|2 + |~b|2 ⇔ ~a ⊥ ~b Pythagoras • (~b − ~c) ⊥ ~a und |~b − ~c| = min{|~b − λ~a| | λ ∈ R} für ~c = |~b − λ~a| = |~b − ~c| genau dann, wenn λ~a = ~c • |h~a | ~bi| ≤ |~a| · |~b| und Gleichheit genau dann, wenn ~a k ~b h~a | ~bi ~a |~a|2 Lot Cauchy-Schwarz • |~a + ~b| ≤ |~a| + |~b| Dreiecksungleichung und Gleichheit genau dann, wenn ~a = ~0 oder ~b = r~a mit r ≥ 0 Beweis. Pythagoras: |~a − ~b|2 = h~a + (−1)~b | ~a + (−1)~bi =(E3) h~a | ~ai + h~a | (−1)~bi + h(−1)~b | ~ai + h~b | ~bi =(E1,2,4) |~a|2 − 2h~a | ~bi + |~b|2 . Somit gilt |~a − ~b|2 = |~a|2 + |~b|2 genau dann, wenn 2h~a | ~bi = 0, d.h. wenn h~a | ~bi = 0. Lot: h~a | ~b − ~ci = h~a | ~bi − h~a | ~ci = 0 und nun mit Pythagoras |~b − ~c|2 ≤ |~b − ~c|2 + |~c − λ~a|2 = |~b − ~c + ~c − λ~a|2 = |~b − λ~a|2 . Und Gleichheit gilt genau dann, wenn |~c − λ~a|2 = 0. Cauchy-Schwarz: Ist ~a = ~0 oder ~b = ~0, so ist die Behauptung trivial. Andernfalls können wir nach der Bilinearität |~b| = 1 annehmen. Setze ρ = h~a | ~bi. Dann 0 ≤ |~a −ρ~b|2 = h~a −ρ~b | ~a −ρ~bi = |~a|2 −ρh~a | ~bi−ρh~b | ~ai+ρ2 |~b|2 = |~a|2 − ρ2 , also |ρ| ≤ |~a|. Und es gilt |ρ| = |~a| genau dann, wenn |~a − ρ~b| = 0. Dreiecksungleichung: |~a + ~b|2 = h~a | ~ai + h~a | ~bi + h~b | ~ai + h~b | ~bi ≤ |~a|2 + 2|~a||~b| + |~b|2 = (|~a| + |~b|)2 . Da beide Seiten der Dreiecksungleichung ≥ 0 sind, folgt diese durch Wurzelziehen. Gilt die Gleichheit, so folgt h~a | ~bi = |~a| · |~b|, also nach Cauchy-Schwarz ~a = ~0 oder ~b = r~a. Dann aber r|wb|2 = |~a| · |~b| ≥ 0 und somit r ≥ 0. 5.4 Orthonormalbasen Vektoren ~e1 , ~e2 , ~e3 des Raumes bilden eine Orthonormalbasis, wenn sie Länge 1 haben und paarweise aufeinander senkrecht stehen, d.h. h~ei | ~ej i = 1 0 falls i = j falls i = 6 j Dass sie insbsondere eine Basis α bilden, ist geometrisch klar. Analog für die Ebene. Bilden ~a1 , ~a2 eine Basis einer Ebene, so erhält man eine ON-Basis mit ~e1 = 1 1 , ~e2 = 0 ~a02 wobei ~a02 = ~a2 − h~e1 | ~a2 i~e1 |~a1 | |~a2 | 5.4 Orthonormalbasen 47 ~a2 ~a02 ~e2 ~a1 ~e1 h~e1 | ~a2 i~e1 Bilden ~a1 , ~a2 , ~a3 eine Basis des Raumes, so muss man nun ~a3 orthogonal auf die von ~e1 , ~e2 aufgepsante Ebene projizieren und dann den Lotvektor normieren, um ~e3 zu erhalten ~a03 = ~a3 − h~e1 | ~a3 i~e1 − h~e2 | ~a3 i~e2 , ~e3 = 1 0 ~a |~a03 | 3 Die Koordinaten von Vektoren, Skalarprodukt und Länge berechnen sich nun für ~x = x1~e1 + x2~e2 + x3~e3 und ~y = y1~e1 + y2~e2 + y3~e3 einfach so yi = h~ei | ~y i h~x | ~y i = x p1 y1 + x2 y2 + x3 y3 |~x| = x21 + x22 + x23 ~x ξ1~e2 = h~e2 | ~xi ~e2 ξ1~e1 = h~e1 | ~xi ~e1 Das zweite rechnet man einfach nach, das dritte folgt dann sofort, ebenso das este (indem man ~ei für ~x einsetzt - hier kann man auch geometrisch argumentieren). hx1~e1 + x2~e2 + x3~e3 | y1~e1 + y2~e2 + y3~e3 i = X hxi~ei | yj ~ej i = i,j In der Ebene geht es genauso mit nur 2 Koordinaten. X i,j xi yj h~ei | ~ej i 48 5.5 6 DETERMINANTEN IN EBENE UND RAUM Normalenvektoren von Geraden bzw. Ebenen Sei ein Punkt O der Ebene als Ursprung ausgezeichnet. Zu gegebenem Skalar d und Normalen-Vektor ~n 6= 0 betrachten wir die Punktmenge g = {~x + O | hx | ni = d} g P = ~x + O d~n ~x ~n |~n| = 1 O Durch Multiplikation von ~n mit ± |~n1 | können wir erreichen, dass gilt |~n| = 1, d ≥ 0 Hessesche Normal(en)form Dann ist g die Gerade mit Paramterdarstellung r~v + A wobei ~0 6= ~v ⊥ ~n, ~a = d~n, A = ~a + O In der Tat, ~n, ~v ist eine Basis, d.h. mit der eindeutigen Darstellung ~x = x1~n +x2~v gilt h~x | ~ni = x1 und somit h~x | ~ni = d genau dann, wenn ~x = x2~v +~a. Geht man von einer Parameterdarstellung r~v + A mit A = ~a + O aus, so bestimme man ~0 6= ~v ⊥ ⊥ ~v und dann ~n = ± |~v1⊥ | ~v ⊥ so, dass d = h~a | ~ni ≥ 0. d ist der Abstand der Geraden g von Punkt O. Hat man einen Punkt P = p~ + O. so ist h~p | ~ni~n + O der Fußpunkt des Lotes von P auf die Gerade durch O mit Richtung ~n, also d − h~p | ~ni Abstand des Punktes P = p~ + O von der Geraden g Ist zudem eine Orthonormalbasis ~e1 , ~e2 der Ebene gegeben, so schreibt sich die Häsische Normalenform in Koohrdinaten bzgl. dieser so g = {x1~e1 + x2~e2 + O | x1 n1 + x2 n2 = d} wobei ~n = n1~e1 + n2~e2 Entsprechend geht es mit Ebenen im Raum, zwei zum Normalenvektor senkrechten Richtungsvektoren und 3 Koordinaten. 6 6.1 Determinanten in Ebene und Raum Orientierung In einer Ebene oder im Raum wird eine Orientierung durch Auszeichnung einer Basis und der zulässigen Deformationen angegeben; dabei kommt beim Anschauungsraum die “Rechte Hand Regel” zur Anwendung. “Orientierte” 6.2 Flächen 49 Flächen bzw. Volumina ergeben sich dann als Determinanten, axiomatisch durch (D1-4) bestimmt. Eine Besonderheit des dreidimensionalen Raumes ist das Vektor- oder äussere Produkt (besonders ist, dass es als Operation im Raum verstanden werden kann). Als Koordinatensysteme benutzen wir hier positiv orientierte Orthonormalbasen. Bezüglich eines solchen lassen sich dann Determinanten und Vektorprodukt koordinatenweise berechnen. 6.2 Flächen Setzt man für Quadrate mit Seitenlänge 1 den Flächeninhalt 1 fest, so ergibt sich (nach Archimedes) der Flächeninhalt eines Parallelogramms als gh, wobei g die Länge einer (Grund)Seite und h die Länge einer dazu senkrechten Höhe bezeichnet. (Überlegen Sie sich auch mal einen Beweis!) Sei nun eine Ebene und für sie eine Orientierung der Winkelmessung gegeben (bei Sicht auf die Ebene üblicherweise gegen den Uhrzeigersinn - eine begriffliche Diskussion erfolgt im Tutorium). Wir definieren die Determinante det(~a, ~b) = F (= |~a||~b|sinφ) ~y ~y −~x ~x ~x ~y ~y ~y + λ~x ~x ~x λ~x λ~x ~y ~z ~y + ~z ~y + ~z ~y ~x ~x ~z (siehe auch Fig.) wobei φ der Winkel zwischen (den Ortsvektoren) ~a und ~b ist, F die Fläche des von ihnen aufgespannten Parallelogramms und = 1 falls 0o < φ < 180o (Rechtssystem) bzw. = −1 falls 1800 < φ < 360o (Linkssystem). Es gilt für ~a, ~b, ~c, in der gegebenen Ebene gilt (vgl Fig.) die Scherungsinvarianz det(~a, ~b + r~a) = det(~a, ~b) = det(~a + s~b, ~b) 50 6 DETERMINANTEN IN EBENE UND RAUM d.h. die Grundfläche ändert sich weder nach Betrag noch nach Vorzeichen, wenn man ~b längs einer Paralllen zu ~a schert, Weiterhin (D1) det(~a, ~b + ~c) = det(~a, ~b) + det(~a, ~c), det(~b + ~c, ~a) = det(~b, ~a) + det(~c, ~a) (D2 − 3) det(~a, r~b) = r det(~a, ~b) = det(r~a, ~b), det(~a, ~a) = 0 det(~a, ~b) = 0 ⇔ ~a, ~b parallel , det(~b, ~a) = − det(~a, ~b) wie man aus (D1-3) leicht beweist. Z.B. det(~a, ~b+r~a) = det(~a, ~b)+det(~a, r~a) = det(~a, ~b)+r det(~a, ~a) = det(~a, ~b)+r0. Bei “⇒” muss man allerdings vorausetzen, dass es überhaupt Vektoren gibt mit det(~x, ~y ) 6= 0. Auch die Scherungsinvarianz lässt sich aus (D1-3) herleiten. Wählt man als Koordinatensystem der Ebene eine Orthonormalbasis e~1 , e~2 , die ein Rechtssystem ist, so gilt (D4) det(e~1 , e~2 ) = 1 und man kann die Determinante aus den Koordinaten berechnen a1 b 1 = a1 b 2 − a2 b 1 det(~a, ~b) = a2 b 2 nämlich det(a1~e1 + a2~e2 , b1~e1 + b2~e2 ) = det(a1~e1 + a2~e2 , b1~e1 ) + det(a1~e1 + a2~e2 , b2~e2 ) = det(a1~e1 , b1~e1 )+det(a2~e2 , b1~e1 )+det(a1~e1 , b2~e2 )+det(a2~e2 , b2~e2 ) = 0 + a2 b1 det(~e2 , ~e1 ) + a1 b2 det(~e1 , ~e2 ) + 0 = −a2 b1 + a1 b2 . Umgekehrt wird durch die Auszeichnung einer Orthonormalbasis als Koordinatensystem die Orientierung der Ebene angegeben und ein Flächenmaß eingeführt positiv orientiert >0 ~ ~ negativ orientiert <0 ~a, b ⇔ det(~a, b) = linear abhängig =0 Fläche Paralelgramm(~a, ~b) = | det(~a, ~b)| 6.3 Vektorprodukt Ein Tripel unabhängiger Vektoren bildet ein Rechtssystem im Raum, wenn ihre Richtungen (in der gegebenen Reihenfolge) mit den Richtungen von gestrecktem Daumen und Zeigefinger und abgewinkeltem Mittelfinger der rechten Hand identifiziert werden können - Beweglichkeit des Daumens bis zu 180o gegenüber dem Zeigefinger vorausgesetzt. Entsprechend hat man Linkssysteme für die linke Hand. Jedes unabhängige Tripel von Vektoren bildet entweder ein Rechts- oder ein Linkssystem . Welche Hand die rechte ist, ist mathematisch gesehen jedoch eine Frage der Definition: es wird irgendein unabhängiges Tripel zum Rechtssystem deklariert und dadurch die Orientierung festgelegt. Alle anderen Rechtssysteme ergeben sich hieraus durch Drehung des Tripels insgesamt und stetigen Scherungen eines der Vektoren gegen die beiden anderen, bei denen die drei Vektoren in keinem Stadium in 6.4 Grassmannscher Entwicklungssatz 51 eine gemeinsame Ebene zu liegen kommen. Wir definieren nun das Vektoroder äussere Produkt ~c = ~a × ~b durch die Bedingungen |~c| = |det(~a, ~b)|, ~c ⊥ ~a, ~b und ~a, ~b, ~c Rechtssystem oder abhängig. Unmittelbar geometrisch einsichtig sind die Regeln (G1 − 2) ~a × ~b = ~0 ⇔ ~a, ~b parallel , ~a × ~b = −~b × ~a G3) r(~a × ~b) = (r~a) × ~b = ~a × (r~b) Es folgt wie bei den ebenen Determinanten die Scherungsinvarianz ~a × (~b + r~a) = ~a × ~b = (~a + s~b) × ~b (d.h. det(~a, ~b), Normale und Orientierung bleiben unverändert) und daraus dann die Distributivgesetze (G4) ~a × (~b + ~c) = ~a × ~b + ~a × ~c, (~b + ~c) × ~a = ~b × ~a + ~c × ~a. Zum Beweis des ersten Distributivgesetztes dürfen wir zunächst annehmen, dass |~a| = 1. Nach Scherung darf man ~b ⊥ ~a annehmen, ebenso ~c ⊥ ~a. Dann liegen ~b und ~c in einer Ebene mit Normale ~a und man erhält ~a × ~b, ~a × ~c, ~a × (~b + ~c) in dieser Ebene, indem man b, ~c und ~b + ~c jeweils um 900 dreht. (vgl. Folie) Eine typische Anwendung des Vektorprodukts ist es, aus zwei nicht parallelen Richtungsvektoren ~b, ~c einer Ebene einen Normalenvektor ~n = ~b × ~c zu berechnen. Wählt man als Koordinatensystem des Raumes ist eine Orthonormalbasis α : ~e1 , ~e2 , ~e3 , die Rechtssystem ist, so hat man ~e1 × ~e2 = ~e3 , ~e2 × ~e3 = ~e1 , ~e3 × ~e1 = ~e2 und die Koordinatendarstellung ~a × ~b = a1 b2~e3 + b1 a3~e2 + a2 b3~e1 − a3 b2~e1 − b3 a1~e2 − a2 b1~e3 a2 b 2 a3 b 3 a1 a2 b 3 − a3 b 2 b1 a1 b1 α α α ~ ~ ~a × b = a3 b1 − a1 b3 = − für ~a = a2 , b = b2 . a b 3 3 a3 a1 b 2 − a2 b 1 b3 a1 b 1 a2 b 2 Beweis durch Ausmultiplizieren (Übung!) 6.4 Grassmannscher Entwicklungssatz (~a × ~b) × ~c = h~a | ~ci~b − h~b | ~ci~a. Beweis. Wegen der Linearitätseigenschaften von Skalar- und Vektorprodukt bleibt die Gültigkeit der Formel beim Übergang zu Linearkombinationen 52 6 DETERMINANTEN IN EBENE UND RAUM erhalten: gelten z.B. (~a × ~b) × ~c = h~a | ~ci~b − h~b | ~ci~a und (~a0 × ~b) × ~c = h~a0 | ~ci~b−h~b | ~ci~a0 für gegebene Vektoren ~a, ~a0 , ~b, ~c, so gelten auch (r~a ×~b)×~c = rh~a | ~ci~b − h~b | ~cir~a und ((~a + ~a0 ) × ~b) × ~c = h~a + ~a0 | ~ci~b − h~b | ~ci(~a + ~a0 ). Man rechnet nämlich nach, dass (r~a × ~b) × ~c = (r(~a × ~b)) × ~c = r((~a × ~b) × ~c) = r(h~a | ~ci~b − h~b | ~ci~a) = rh~a | ~ci~b − rh~b | ~ci~a = rh~a | ~ci~b − h~b | ~ci(r~a) = hr~a | ~bi~b − h~b | ~cir~a und ((~a + ~a0 ) × ~b) × ~c = (~a × ~b + ~a0 × ~b) × ~c = (~a × ~b) × ~c + (~a0 × ~b) × ~c = h~a | ~ci~b − h~b | ~ci~a + h~a0 | ~ci~b − h~b | ~ci~a0 = (h~a | ~ci + h~a0 | ~ci)~b − h~b | ~ci(~a + ~a0 ) = h~a + ~a0 | ~ci~b − h~b | ~ci(~a + ~a0 ). Entsprechend verfährt man bei Linearkombinationen von ~b’s bzw. ~c’s . Sind ~a, ~b linear abhängig, z.B. ~b = r~a, so rechnet mabn für beide Seiten sofort ~0 aus. Andernfalls ist ~c Linearkombination von ~a, ~b und ~a × ~b. Damnit reduziert sich die Aufgabe auf den Fall, dass ~c einer dieser Vektoren ist. Ausssrdem dúrfen wir |~a| = |~b| = 1 annehmen. Für ~c = ~a × ~b hat man auf beiden Seiten sofort ~0. Sei also ~c = ~a. d~ = (~a × ~b) × ~a liegt nun in der Ebene ⊥ ~a × ~b, d.h. in der von ~a und ~b aufgespannten, und ist senkrecht zu ~a. Die Länge von d~ ist die Fläche des von ~a und ~b aufgespannten Parallelogramms. also dessen Höhe (wegen |~a| = 1). Damit d~ = ±(~b − h~a | ~bi~a), wegen der Orientierung gilt +. Das beweist die Gleichung in diesem Fall. Für ~c = ~b gehts entsprechend, nur ist jetzt die Orientierung andersherum. Alternativ: Es genügt, den Fall zu betrachten, dass ~a, ~b, ~c Vektoren aus einer positiv orientierten Orthonormalbasis sind. Ist ~b = ±~a, so ~a × ~b = ~0, also LS = ~0 = RS. Sei also ~a 6= ±~b. Dann ist ~a, ~b, ~a × ~b eine positiv orientierte ON-Basis und ~c = ~a, ~c = ~b oder ~c = ±~a × ~b. Ist ~c = ~a, so LS = ~b, da ~a × ~b, ~a, ~b positiv orientiert (zyklische Vertauschung!), und RS = ~b, da h~a, ~ci = 1, h~b, ~ci = 0. Ist ~c = ~b so LS = −~a, da ~a × ~b, ~b, ~a negativ orientiert, und RS = −~a, da h~a | ~ci = 0, h~b | ~ci = 1. Ist ~c = ±~a × ~b, so LS = ~0 und h~a | ~ci = h~b | ~ci = 0, also auch RS = ~0. Es folgt ~a × (~b × ~c) + ~b × (~c × ~a) + ~c × (~a × ~b) = ~0 Jacobi Identitaet 6.5 Volumen Nachdem das Volumen des Einheitswürfels als 1 festgelegt ist, ergibt sich das Volumen eines Spats zu “Grundfläche mal Höhe”. Wir definieren nun die Determinante oder das Spatprodukt als det(~a, ~b, ~c) = h~a × ~b | ~ci = V, wobei V das Volumen des von (den Ortsvektoren) ~a, ~b, ~c aufgespannten Spats ist und = 1, falls ~a, ~b, ~c Rechtssystem, = −1, andernfalls. Wegen der Eigenschaften von Vektor- und Skalarprodukt gelten die Regeln (D1−3) und ihre Konsequenzen entsprechend, z.B. det(r~a + s~a0 , ~b, ~c)) = r det(~a, ~b, ~c) + sdet(~a0 , ~b, ~c) d.h. Linearität in der ersten Spalte und entsprechend in den anderen Spalten. Bei zwei gleichen Spalten erhält man in allen 3 möglihcne Fällen Determinante 0. Es folgt Vorzeichenwechsel bei Vertauschung zweier Spalten, z.B. det(~b, ~a, ~c) = − det(~a, ~b, ~c). Also bleibt die Determinante bei zyklischen Vertauschungen unverändert. 6.6 Übersicht 53 Eine positiv orientierte ONB hat Determinante 1 und es gilt a1 b 1 c 1 det(~a, ~b, ~c) = a2 b2 c2 = a1 b2 c3 +b1 c2 a3 +c1 a2 b3 −a3 b2 c1 −b3 c2 a1 −c3 a2 b1 . a3 b 3 c 3 Wir schreiben auch det(~a, ~b, ~c) = det A mit der Matrix a1 b 1 c 1 A = a2 b 2 c 2 a3 b 3 c 3 Ersetzt man hier ci durch ~ei , so erhält man das Vektorprodukt ~a × ~b. Mit Grassmann und Determinante beweist man ~ = h~a | ~cih~b | di ~ − h~b | ~cih~a | di ~ Lagrange. h~a × ~b | ~c × di ~ = h~c × d~ | ~a × ~bi = det(~c, d, ~ ~a × ~b) = det(~a × ~b, ~c, d) ~ = Beweis. h~a × ~b | ~c × di ~ = hh~a | ~ci~b − h~b | ~ci~a | di ~ = h~a | ~cih~b | di ~ − hb | cih~a | di. ~ h(~a × ~b) × ~c | di 6.6 Übersicht Skalar mal Vektor ergibt Vektor: r~a. Man könnte auch ~ar = r~a definieren. Dann gelten alle Rechenregeln, es kann aber in einem Produkt nur ein Vektor auftreten und dividieren darf man durch Vektoren auch nicht. Aber man darf kürzen: Aus r~a = r~b folgt ~a = ~b falls r 6= 0; aus r~a = sa folgt r = s falls ~a 6= ~0. Das skalare Produkt zweier Vektoren ist ein Skalar: h~a | ~bi. Das Assoziativgesetz für drei Vektoren: ~ah~b | ~ci = h~a | ~bi~c gilt nur, wenn ~a und ~c parallel sind. Kürzen darf man Vektoren auch nicht (und erst recht nicht durch Vektoren dividieren): Aus h~a | ~bi = h~a | ~ci folgt nur, dass ~a auf ~b − ~c senkrecht steht. Immerhin hat man noch Kommutativität und Distributivität; und Assoziativität soweit nur zwei Vektoren beteiligt sind. Das Vektorprodukt zweier Vektoren ist ein Vektor: ~a ×~b im Raum. Statt Kommutativität haben wir Antikommuativität, statt Assoziativität Grassmann. Immerhin gilt noch das Distributivgesetz, und man kann Skalare herausziehen. Aus ~a × ~b = ~a × ~c folgt nur, dass ~a, ~b, ~c linear abhängig sind. Die Determinante dreier (zweier) Vektoren ist ein Skalar Dabei muss eine Orientierung des Raums (der Ebene) vorgegeben sein. Man hat die Linearitätseigenschaft in jeder Spalte. Aus det(~a, ~b, ~c) = 0 folgt nur, dass ~a, ~b, ~c linear abhängig sind, d.h. durch Pfeile in einer Ebene repräsentiert werden können, Die Orientientierung der Ebenen bzw. des Raumes wird durch eine ON-Basis festgelegt. Eine weitere Basis ~a1 , ~a2 bzw. ~a1 , ~a2 , ~a3 ist dann positiv orientiert, 54 7 KOMPLEXE ZAHLEN wenn det(~a1 , ~a2 ) > 0 bzw. det(~a1 , ~a2 , ~a3 ) > 0, andernfalls ist sie negativ orientiert. Im realen Raum können wir die positive Orientierung durch die “Rechte-Hand-Regel” festlegen, für Ebenen in “Draufsicht” durch die “gegendie-Uhr-Regel”. 7 7.1 Komplexe Zahlen Polynome und Nullstellen Über die Quadratwurzeln, genauer über die Lösungen der Gleichungen x2 = a erhält man die Lösungen der quadratischen Gleichungen x2 + px + q = 0. 2 Offenbar ist letztere gleichbedeutend mit (x + p2 )2 = p4 − q (quadratische Ergänzung), also hat man p x=− ± 2 r p2 − q, 4 wobei es aber nur dann erlaubt ist, von der positiven bzw. negativen Quadratwurzel zu reden, wenn diese reell sind. Verallgemeinert man diesen Ansatz, so kommt man zu formalen Lösungen oder Nullstellen von Polynomgleichungen p(x) = 0, wobei p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0 ein Polynom in der Unbestimmten x und den Koeffizienten ak heisst und vom Grad n, falls an 6= 0. Sind die Koeffizienten reell, so kann man sich den Graphen der Funktion x 7→ p(x) vorstellen und die reellen Nullstellen als Schnittpunkte mit der x-Achse auffassen. Für ungeraden Grad n gibt es dann mindestens eine solche Nullstelle. Für grosse |x| wird nämlich der Wert von p(x) im Wesentlichen durch an x bestimmt wird, d.h. p(x) geht betragsmässig gegen Unendlich für x gegen ±∞, das aber gegenläufig. Daher hat p(x) auf jeden Fall einen Vorzeichenwechsel und somit eine Nullstelle (in der Analysis heisst dieses Argument der Zwischenwertsatz). Wie oben angedeutet, kann man Polynomgleichungen formal lösen, d.h. Nullstellen “erfinden” und mit diesen ganz vernünftig rechnen (gemäß K110)), auch wenn man Gleichungen x2 = −n, n eine natürliche Zahl, und Schlimmere dabei hat. Das konnten schon die Mathematiker des Renascimento. Die grosse Überraschung ist, dass man von den reellen Zahlen aus (hier kommt es nur auf das Vorhandensein einer Anordnung, die Existenz von Quadratwurzeln aus positiven Zahlen und die Existenz mindestens einer Nullstelle bei Polynomen ungeraden Grades an) nur noch einen einzigen Erweiterungsschritt benötigt, nämlich den Übergang zu den Zahlen a + bi, wobei a, b reell sind und i2 = −1. Die Zahlen, die man so aus den reellen erhält, heissen dann die komplexen Zahlen, ihre Gesamtheit geschrieben als C.. 7.2 Zahlenebene 7.2 55 Zahlenebene Die Vektorrechnung liefert auch einen Zugang zu den komplexen Zahlen. Dazu sei in der Ebene, hier die Zahlenebene genannt, Skalarprodukt und Orientierung (üblicherweise “gegen die Uhr’) gegeben,sowie Ursprung O und eine positiv orientierte Orthonormalbasis ~e1 , ~e2 gegeben. Dann können wir natürlich zwei “Zahlen” vektoriell addieren. Für eine “Zahl” z, d.h. einen (Orts)Vektor z = ~a, sei das Argument φ = arg(z) der Winkel zwischen ~e1 und ~a , wobei 0 ≤ φ < 360o im Sinne der positiven Orientierung gemessen wird, Dann können wir einen Winkel χ durch eine Zahl “u” mit |u| = 1, arg(u) = χ eindeutig notieren und die Drehung von Punkten z um den Winkel χ als Multiplikation mit u beschreiben (vgl. Fig.5.1): uz hat Länge |z| und Argument arg(uz) = arg(u) + arg(z) (bis auf Vielfache von 3600 ). Das motiviert die allgemeine Definition des Produkts zw hat Länge |zw| = |z||w| und Argument arg(zw) = arg(z) + arg(w) (bis auf Vielfache von 360o ). Der Kehrwert ergibt sich dann so z −1 mit |z −1 | = |z|−1 , arg(z −1 ) = 360o − arg(z). z = a + bi bi z+w i i ω 1 z w a 1 zw z z −1 Schreibt man 0 = ~0, 1 = ~e1 so zeigen einfache geometrische Überlegungen, dass die Regeln (K1−10) gelten. Die reellen Zahlen sind dabei auf natürliche Weise mit den Zahlen auf der reellen Achse durch O in Richtung ~e1 identifiziert worden. Schreibt man i für die imaginäre Einheit ~e2 , so hat jede Zahl eine eindeutige (kartesische) Darstellung in der Form z = a + bi, a, b reell . Dabei heisst a = <(z) der Realteil, b = =(z) der Imaginärteil von z. Die Länge oder der Betrag ergibt sich als √ |z| = a2 + b2 . 56 7 KOMPLEXE ZAHLEN Für das Rechnen mit der imaginären Einheit ergibt die Geometrie i2 = (−i)2 = −1, 1/i = −i, 1/ − i = i. Dann folgt mit (K1 − 10) für reelle a, b, c, d (a + bi) + (c + di) = (a + c) + (b + d)i, (a + bi)(c + di) = (ac − bd) + (ad + bc)i 1 a b = 2 − i, a + bi a + b 2 a2 + b 2 also können wir wirklich die Vektoren der Zahlenebene mit den komplexen Zahlen gleichsetzen. Ist z = a + bi mit reellen a, b, so heisst z = a − bi, das Spiegelbild an der reellen Achse, die zu z konjugierte Zahl und es gilt (vgl. Fig.5.2) |z| = √ 1 1 zz, <(z) = (z + z), =(z) = (z − z). 2 2i Die Konjugation verträgt sich mit Addition und Multiplikation z + w = z + w, z · w = z · w. 7 Komplexe Zahlen 7.3 Polarkoordinaten und Kreisteilung 7.3 57 Polarkoordinaten und Kreisteilung Durch die geometrische Deutung sollten die komplexen Zahlen endgültig von dem Verdacht der Gaukelei befreit sein. Für die Praxis bewährt sich folgende Polardarstellung z = r cos φ + ri sin φ = r(cos φ + i sin φ) = r(cos(φ + k2π) + i sin(φ + k2π)) (vgl. Fig. 5.3) mit reellen r = |z| ≥ 0 und φ = arg(z), d.h. dem Winkel im Bogenmass bis auf Vielfache von 2π. Schliesst man z = 0 d.h. r = 0 aus, so erhält man Eindeutigkeit, durch die Beschränkung der Winkel auf das Intervall [0, 2π). Produkt und n-te Potenz schreiben sich so r(cos φ + i sin φ)s(cos ψ + i sin ψ) = rs(cos(φ + ψ) + i sin(φ + ψ)) (r(cos φ + i sin φ))n = rn (cos nφ + i sin nφ). Folglich erhält man als Lösungen der Gleichung z n = r(cos φ + i sin φ) gerade die √ φ k φ k n r(cos( + 2π) + i sin + 2π)), mit k = 0, . . . , n − 1. n n n n Insbesondere bilden die Lösungen von z n = 1, die n-ten Einheitswurzeln, ein dem Einheitskreis einbeschriebenes, regelmässiges n-Eck mit Ecke 1. Als eine bequeme, in der Analysis später zu begründende, Schreibweise hat man auch mit |z| = et (d.h. t = ln |z|) und φ = arg(z) z = et (cos φ + i sin φ) = et+iφ , et+iφ es+iψ = et+s+i(φ+ψ) , (et+iφ )n = ent+inφ 7.4 Fundamentalsatz Lemma 7.1 Für je zwei reelle Zahlen p, q gibt es komplexe Zahlen x1 , x2 mit ∀x ∈ C. x2 + px + q = (x − x1 )(x − x2 ) d.h. p = −(x1 + x2 ), q = x1 x2 und x2 + px + q = 0 ⇔ x = x1 ∨ x = x2 Dabei sind folgende Fälle möglich p2 −q =0 4 p2 −q >0 4 p2 −q <0 4 x1/2 = − x1 = x2 ∈ R x1 , x2 ∈ R, x1 6= x2 x1 , x2 6∈ R, x2 = x1 p 2 r p2 −q 4 x1/2 p =− ± 2 x1/2 r p p2 = − ±i q − 2 4 58 8 ARITHMETIK Das ist die alte p-q-Formel. Die Lösungen der Gleichung z 2 =√(c + di)2 = a + bi kann man ganz gut kartesisch angeben; wegen c2 + d2 = a2 + b2 und √ c2 − d2 = a hat man 2c2 = a + a2 + b2 , andererseits 2cdi = bi, also r √ 1 b c=± (a + a2 + b2 ), d = . 2 2c Viel stärker ist der folgende Satz (den wir später beweisen) Satz 7.2 Zu jedem Polynom p(x) = a0 + a1 x + . . . + an xn mit Koeffizienten ak ∈ C gibt es α1 , . . . , αn ∈ C so, dass a0 + a1 x + . . . + an xn = an (x − α1 ) · · · (x − αn ) d.h. das Polynom p(x) zerfällt in C in Linearfaktoren x − αk , die durch die Nullstellen αk von p(x) gegeben sind. Kommt der Faktor x−αk genau m-mal vor, so heisst m die Vielfachheit der Nullstelle αk . 8 8.1 Arithmetik Rekursive Definition Wir haben die Ordung, Addition und Multiplikation auf N “rekursiv” definiert, ohne genau zu sagen, was wir damit meinen, oder zu beweisen, dass das auch funktioniert. Das wollen wir nachholen. Prinzip 8.1 (Rekursion) Seien g und h Funktionen auf N in m bzw. m + 2 Variablen. Dann gibt es eine Funktion f auf N in m + 1 Variablen derart, dass für alle natürlichen Zahlen x1 , . . . xn , y gilt f (x1 , . . . , xm , 0) f (x1 , . . . , xm , σ(y)) = g(x1 , . . . , xm ) = h(x1 , . . . , xm , y, f (x1 , . . . , xm , y)) Der Werteverlauf dieser Funktion ist eindeutig bestimmt. Definition 8.2 Wir sagen, f sei die rekursiv definierte Funktion zu dem durch g und h gegebenen Rekursionsschema bzw. Rekursionsvorschrift. Zum Beispiel definieren wir f (y) = y! durch das Schema g = 1, h(y, z) = (y + 1) · z 0! = 1, (n + 1)! = n! · (n + 1) 8.2 Ordnungsinduktion Prinzip 8.3 (Minimalbedingung) Sei C(x : N) eine Formel so, dass ∃x : N. C(x). Dann gibt es ein minimales m in N mit C(m) - d.h. es gilt C(m) und ∀y : N. y < m ⇒ ¬C(y). 8.3 Teilbarkeit 59 Beweis. Sei die Formel B(x) gegeben als ∃y : N. (y ≤ x ∧ C(y)) ⇒ ∃u : N. u ≤ x ∧ C(u) ∧ ∀z : N. z < u ⇒ ¬C(z) Wir benutzen das Induktionsprinzip um ∀x : N. B(x) zu beweisen. Gilt ∃y : N. (y ≤ 0 ∧ C(y)) so ist 0 selbst das gesuchte minimale Element; andernfalls ist nichts zu zeigen. Sei nun B(n) vorausgesetzt. Gilt ∃y : N. (y ≤ n ∧ C(y)), so haben wir wegen B(n) auch das gesuchte minimale Element. Andernfalls gilt entweder C(σn) und σn ist das minimale Element; oder ¬C(σn) und damit ¬∃y : N. (y ≤ σn ∧ C(y)) und es ist wieder nichts zu zeigen. Damit ist ∀x : N. B(x) bewiesen. Gibt es nun ein n mit C(n), so gilt auch ∃y : N. (y ≤ n ∧ C(y)) (wähle y = n) und es folgt die Existenz eines minimalen m(≤ n) mit C(m). Es folgt sofort das folgende (indem man C(x) == ¬A(x) setzt) Prinzip 8.4 (des kleinsten Verbrechers). Hat man die Annahme, dass m minimal ist mit ¬A(m), zum Widerspruch geführt, so hat man ∀x : N. A(x) bewiesen. Satz 8.5 Jede natürliche Zahl n > 1 ist ein Produkt von unzerlegbaren Zahlen. Beweis. Sei n der kleinste Verbrecher, insbesondere selbst zerlegbar. Also n = a · b mit 1 < a, b < n. Da a kein Verbrecher ist, ist es ein Produkt a = p1 · . . . · pk von unzerlegbaren Zahlen und b = q1 · . . . · ql ebenfalls. Also ist n = p1 · . . . · pk · q1 · . . . · ql auch ein Produkt von unzerlegbaren Zahlen. Widerspruch Für Leute, die das Direkte lieben, können wir unser Prinzip auch so formulieren Prinzip 8.6 (Ordungsinduktion). Sei A(x : N) eine Formel. Es sei die folgende Aussage nachgeprüft: ∀x : N. (∀y : N. y < x ⇒ A(y)) ⇒ A(x) Dann gilt: ∀x : N. A(x) ∀y : N. y < n ⇒ A(y) heisst Induktionsvoraussetzung oder Induktionsannahme für n. Im Induktionschritt haben wir von allen m < n auf n zu schliessen (was ggf. leichter ist, als allein von n − 1 auf n schliessen zu müssen). Der Induktionsanfang ist formal mit darin enthalten: für n = 0 gibt es halt kein m < n. Oft ist es besser, das auch als gesonderten Fall zu behandeln. 8.3 Teilbarkeit In Z definieren wir x|y == ∃z : Z. xz = y lies x teilt y. Lemma 8.7 a|0, 0|a ⇒ a = 0, |a| = |b| ≈> a|b ≈> |a| ≤ |b|, a|1 ⇒ |a| = 1. a|b ∧ b|c ⇒ a|c, a|b ∧ b|a ⇒ |a| = |b|, a|b ⇒ (ac)|(bc), a|b ∧ a|c ⇒ a|(b + c) 60 8 ARITHMETIK Algorithmus 8.8 (Division mit Rest). In Z gibt es zu allen a und b 6= 0 eindeutig bestimmte Zahlen r = R(a, b) und q = Q(a, b) mit a = bq + r, 0 ≤ r ≤ |b|. Für a ≥ b > 0 ergeben sich diese rekursiv mit jeweils geignetem m ≥ 1 a − mb falls 0 ≤ a − mb < b R(a, b) = R(a − mb, b) falls a − mb ≥ b falls a = b 1 m falls a − mb < b Q(a, b) = Q(a − mb, b) + 1 falls a − mb ≥ b Beweis. Die Existenz ergibt sich sofort aus der Formulierung des Algorithmus. Ist nun a = bq + r = bq 0 + r0 und z.B. r0 ≥ r, so folgt b(q − q 0 ) = r0 − r. Also q − q 0 = 0, da sonst |b| ≤ |r0 − r| < |b|. Und es folgt r = r0 . t ist ein gemeinsamer Teiler von a und b, falls t|a und t|b. Ein gemeinsamer Teiler d von a und b ist ein grösster gemeinsamer Teiler oder GGT , falls jeder andere gemeinsame Teiler t von a, b auch Teiler von d ist. Es folgt, das es zu a, b bis aufs Vorzeichen höchstens einen GGT d gibt, wir schreiben GGT (a, b) = d mit d ≥ 0, falls es einen gibt, andernfalls GGT (a, b) = ∅. Lemma 8.9 GGT (a, b) = GGT (a−qb, b) = GGT (b, a) = GGT (|a|, |b|), a|b ⇔ GGT (a, b) = |a| Beweis. Aus t|a ∧ t|b folgt t|(qb) und t|(a − qb). Dasselbe Argument mit −q erlaubt den Rückschluss. Algorithmus 8.10 (Euklid+Bezout). Zu je zwei ganzen Zahlen gibt es den GGT (a, b) und ganze Zahlen x und y mit GGT (a, b) = ax + by. Den GGT und geeignete Zahlen x, y kann man so bestimmen. Gegeben a, b setze d0 := a, x0 := 1, y 0 := 0; d := b, x := 0, y := 1 Bestimme d0 = dq + r mit |r| < |d| oder r = 0 solange r 6= 0 tu (d0 , d) := (d, r), (x0 , x) := (x, x0 − xq), (y 0 , y) := (y, y 0 − yq) falls r = 0 halt ein : d = ax + by =: GGT (a, b). Beweis. Mit den Lemma und Induktion ist die Existenz eines GGT sofort klar. Da N wohlgeordnet ist, muss der Algorithmus zum Halten kommen. Korrektheit des Algorithmus: Für alle Iterationsschritte gilt: d = ax + by, d0 = ax0 + by 0 und GGT (a, b) = GGT (d, d0 ). 8.4 Diophantische Gleichungen 61 Nämlich a(x0 − xq) + b(y 0 − yq) = ax0 + by 0 − (ax + by)q = d0 − dq = r GGT (r, d) = GGT (d, d0 ) = GGT (a, b). Ist r = 0, so folgt d|d0 , also d = GGT (a, b). Korollar 8.11 a|(bc) ∧ GGT (ab) = 1 ⇒ a|c Beweis. 1 = ax + by, also a|(axc + bcy) = c. Ein Teiler d von a ist echt, falls |d| = 6 1 und |d| = 6 |a|. Eine Zahl a mit |a| > 1 ist unzerlegbar, falls sie keine echten Teiler besitzt. Eine Zahl p mit |p| > 1 ist eine Primzahl, falls ∀x : Z.∀y : Z. p|(x · y) ⇒ p|x ∨ p|y. Mit Induktion folgt p prim ∧ p| Y ai ⇒ ∃i ∈ I. p|ai . i∈I Satz 8.12 In Z sind die unzerlegbaren Zahlen genau die Primzahlen. Beweis. Sei p prim und p = a · b, so o.B.d.A. p|a, also |p| ≤ |a|. Andererseits |a| ≤ |p|, also |a| = |p|. Mit der Kürzungsregel folgt |b| = 1. Sei umgekehrt p unzerlegbar und p|(ab). Ist p kein Teiler von a, so GGT(p, a) = 1, also 1 + ax + by und b = abx + bpy und es folgt p|b. Satz 8.13 Jede ganze Zahl a mit |a| > 1 hat eine Zerlegung a = p1 · . . . · pn in Primfaktoren p1 , . . . , pn , n ≥ 1. Die pi sind bis auf Vorzeichen und Reihenfolge eindeutig bestimmt. Beweis. Die Existenz haben wir 8.5. Die Eindeutigkeit folgt Q Q schon gezeigt q ebenso mit Induktion: Ist a = ni=1 pi = m j=1 j so teilt pn eines der qj nach Qn−1 Umsortieren etwa q . Es folgt |p | = |q | und durch Kürzen m n m i=1 |pi | = Qm−1 |q |. Mit Induktion folgt n = m und der Rest der Behauptung. j j=1 8.4 Diophantische Gleichungen Satz 8.14 (Diophant) Es gibt zu gegebenen a, b, c ∈ Z genau dann (mindestens) eine ganzzahlige Lösung der Gleichung ax + by = c wenn d := GGT (a, b)|c. Hat man eine Lösung x0 , y0 , so ist die Lösungsgesamtheit gegeben durch x = x0 + qb0 , y = y0 − qa0 , q ∈ Z, wobei a = a0 d, b = b0 d. Beweis. Die Äquivalenz folgt leicht mit dem Satz von Bezout. Bemerke GGT (a0 , b0 ) = 1, da für einen gemeinsamer Teiler t von a0 , b0 gälte: td|a, b. Dass x, y der angegebenen Gestalt Lösung ist, ist klar. Sei umgekehrt eine Lösung x, y gegeben. Durch Herauskürzen von d folgt xa0 + yb0 = x0 a0 + y0 b0 , also a0 (x − x0 ) = b0 (y0 − y). Mit dem Korollar 8.11 folgt a0 |(y0 − y), d.h. x − x0 = qb0 für ein q ∈ Z. Es folgt a0 qb0 = b0 (y − y0 ) und durch Kürzen y − y0 = qa0 . 62 8 ARITHMETIK 8.5 Modulare Arithmetik Sei n eine feste ganze Zahl. Wir definieren eine binäre Relation auf Z a ≡ b mod n <≈> n | (a − b) <≈> n | (b − a) und lesen: a ist kongruent zu b modulo n. Das bedeutet, dass a und b denselben Rest bei Division durch n haben: sei nämlich (in Z) a = q1 n + r1 b = q2 n + r2 mit 0 ≤ r1 , r2 < n und o.B.d.A r2 ≤ r1 so gilt a − b = qn + r mit q = q1 − q2 , 0 ≤ r = r1 − r2 < n also n|(a − b) <≈> r = 0 <≈> r1 = r2 Somit ist ≡ mod n eine Äquivalenzrelation auf Z. Man darf aber mit ≡ mod n weitgehend wie mit dem Gleichheitszeichen rechnen: Lemma 8.15 a ≡ b mod n ∧ c ≡ d mod n ⇒ a + c ≡ b + d mod n a ≡ b mod n ⇒ −a ≡ −b mod n a ≡ b mod n ∧ c ≡ d mod n ⇒ ac ≡ bd mod n Beweis. Gelte n | (a−b) und n | (c−d). Dann n | (a−b+c−d) = (a+c)−(b+d) und n | −(a − b) = −a − (−b) und n | a(c − d) + (a − b)d = ac − bd. Satz 8.16 Hat sich frau (nach eigenem Belieben) eine Abstraktion Z Zn nach der Äquivalenzrelation ≡ mod n vorgegeben, d.h. eine surjektive Abbildung a 7→ ã ∈ Zn mit ã = b̃ ⇔ a ≡ b mod n so wird Zn zu einem kommutativen Ring, wenn sie die Operationen repräsentantenweise erkärt ã + c̃ = a] +c f −ã = −a ã · c̃ = ag ·c Insbesondere sind 0̃ und 1̃ die neutralen Elemente bzgl. Addition und Multiplikation. Zp ist ein Körper, wenn p eine Primzahl ist. Beweis. Der Knackpunkt: Nach dem Lemma sind die Operationen wohldefiniert, z.B. ã = b̃ ∧ c̃ = d˜ ≈> a ≡ b mod n ∧ c ≡ d mod n ≈> a + c ≡ b + d mod n ≈> a] + c = b] +d Die Eigenschaften eines kommutativen Ringes sind allesamt durch Gleichungen definiert und folgen nun daraus, dass man mit ≡ mod n wie mit dem Gleichheitszeichen rechnet. Sei nun n = p prim. Jedes Element ã 6= 0̃ von Zp erhält man mit einem a mit 0 < a < p, insbesondere sind p und a teilerfremd. Nach Bezout gibt es ganze Zahlen x, y mit ax + py = 1, also ax ≡ 1 mod n und ã · x̃ = af x = 1̃. 8.6 Faktorstrukturen 8.6 63 Faktorstrukturen Eine Äquivalenzrelation auf einer Menge A ist eine binäre Relation ∼, derart dass für alle a, b, c in A a∼a a∼b ⇒ b∼a a∼b ∧ b∼c ⇒ a∼c Für eine Äquivalenzrelation ∼ auf einer algebraischen Struktur vom Typ der abelschen Gruppen sind die Verträglichkeitsbedingungen gegeben durch ∀a, b ∈ A. ∀a, b, c, d ∈ A. a∼b a∼c ∧ b∼d ⇒ ⇒ −a ∼ −b a+b∼c+d Letztere kann man ersetzen durch ∀a, b, c ∈ A. a ∼ c ⇒ a + b ∼ c + b und ∀c, b, d ∈ A. b ∼ d ⇒ c + b ∼ c + d Gelte nämlich das und a ∼ c, b ∼ d. Dann a + b ∼ c + b ∼ c + d also a + b ∼ c + d. Eine Kongruenzrelation auf einer algebraischen Struktur ist eine Äquivalenzrelation, die die Verträglichkeitsbedingungen erfüllt. Proposition 8.17 Ist ∼ eine Kongruenzrelation auf der algebraischen Struktur A und entsteht die Menge B aus A durch Abstraktion nach ∼, d.h. gibt es eine surjektive Abbildung π : A → B mit a ∼ b ⇔ π(a) = π(b) so wird B zur algebraischen Struktur durch die Definition π(a) +B π(b) = π(a +A b), −B π(a) = π(−A a), 0B = π(0A ) Die Struktur B heisst dann Faktorstruktur von A nach ∼. Man schreibt B = A/ ∼. Beweis. Es ist nur festzustellen, dass dies wohldefiniert ist, d.h. dass π(a) = π(c) ∧ π(b) = π(d) ⇒ π(a +A b) = π(c +A d) π(a) = π(b) ⇒ π(−A a) = π(−A b) Das wird aber gerade durch die Verträglichkeitsbedingungen garantiert. Proposition 8.18 Eine Äquivalenzrelation ∼ auf einer abelschen Gruppe A ist genau dann Kongruenzrelation, wenn ∀a, b, c ∈ A. a ∼ c ⇒ a + b ∼ c + b Die Faktorstruktur A/ ∼ ist dann auch eine abelsche Gruppe. 64 8 ARITHMETIK Beweis. Wegen der Kommutativität ist Verträglichkeit mit + klar, +B wohldefiniert und es übertragen sich (1), (2), (4) vermöge π auf A/ ∼ - z.B. π(a) +B π(0A ) = π(a +A 0A ) = π(a). Also wird A/ ∼ zur abelschen Gruppe, wenn wir −π(a) = π(−b) für irgendein b ∼ a setzen. Wegen der Eindeutigkeit (G∗) des Inversen in der abelschen Gruppe A/ ∼ hängt das aber nur von π(a) ab, also −b ∼ −a. Modulare Arithmetik liefert die Standardbeispiele. Es sei schon angemerkt, dass jede Kongruenzrelation auf Z von dieser Art ist. Beispiel 8.19 Auf der Gruppe Z der ganzen Zahlen wird für jedes feste n ∈ N (oder ∈ Z) eine Kongruenzrelation definiert durch a ∼n b ⇔ n|(a − b) (⇔ a ≡ b mod n) Beweis. n | (a − a) = 0. Aus n | (a − b) folgt n | (b − a) = −(a − b), Aus n | (a − b) ind n | (b − c) folgt n | (a − c) = (a − b) + (b − c). Aus n | (a − b) folgt n | (a + c − (b + c)) = a − b. Wir haben Ringe mit 1 als algebraische Strukturen vom Typ (2,1,0,2,0) eingeführt. Eine Kongruenzrelation für eine solche Struktur A ist eine Äquivalenzrelation ∼, die die Veträglichkeitsbedingungen bzgl. aller drei nicht konstanten Operationen erfüllt und es wird dann A/ ∼ ebenfalls zur algebraischen Struktur dieses Typs. Wie für abelsche Gruppen folgt Proposition 8.20 Eine Äquivalenzrelation auf einem kommutativen Ring R mit 1 ist genau dann Kongruenzrelation, wenn für alle a, b, c ∈ R gilt a∼b ⇒ a + c ∼ b + c ∧ ac ∼ bc R/ ∼ ist dann ebenfalls ein kommutativer Ring mit Eins. Beispiel 8.21 Auf dem Ring Z der ganzen Zahlen wird für jedes feste n ∈ N (oder ∈ Z) eine Kongruenzrelation definiert durch a ∼n b ⇔ n|(a − b) (⇔ a ≡ b mod n) Wir schreiben Z/ ∼n = Zn für den Ring der ganzen Zahlen modulo n. Beweis. Beispiel 8.19 und: aus n | (a − b) folgt n | (ac − bc) = (a − b)c. Bemerkung 8.22 In einem Körper K gilt: Ist 0 6= n ∈ N minimal mit n1K = 0K , so ist n eine Primzahl. So ein n brauchts nicht zu geben, z.B. wenn K Unterkörper von C . Sei nun n = qm mit q, m < n und n1 = 0. Dann (q1)(m1) = n1 = 0 also q1 = 0 oder m1 = 0 was der Minimalität widerspricht. Beispiel 8.23 Zn ist ein Körper genau dann, wenn n eine Primzahl ist. Beweis. Für 0 < m < n ist n kein Teiler von m, also m 6∼n 0. Ist also Zn Körper, so p prim nach der vorangehenden Bemerkung. Sei umgekehrt n = p prim und π(a) 6= π(0), d.h. p und a teilerfremd. Nach Bezout gibt es ganze Zahlen x, y mit ax + py = 1, also ax ∼n 1 und π(a)π(x) = π(ax) = π(1). Somit ist Zp Körper. 65 9 Äquivalenzrelationen. Die Umgangssprache bezeichnet häufig Dinge als gleich, wenn sie in gewissen, jeweils relevanten, Merkmalen übereinstimmen. Damit allein kann man aber keine ernsthafte mathematische Begriffsbildung treiben, sondern man muss, in gegebenem Zusammenhang, ‘Gleichheit’ als eine Relation definieren, etwa auf der Grundlage gegebener Relationen und Operationen. Der Zusammenhang ist dabei wesentlich: Etwa beim Rechnen mit rationalen Zahlen ist 1 gleich 22 , jedoch wird man 1 Teller und 22 Teller nicht unbedingt als gleich ansehen. Nach Leibniz bedeutet Gleichheit zweier Objekte in einem gegebenen Zusammenhang, dass man das eine durch das andere ersetzen kann, ohne dass sich an den relevanten Aussagen und Beziehungen etwas ändert. Die Axiome der Äquivalenzrelationen ergeben sich zwingend daraus: Schreibt man s ∼ t, falls s gleich t ist, und geht man davon aus, dass jedes Ding sich selbst gleich sei (s ∼ s), so kann man aus s ∼ t auf t ∼ s schliessen (ersetze in t ∼ t das zweite t durch s) und man kann von s ∼ t und t ∼ u auf s ∼ u schliessen, indem man in t ∼ u das t durch s ersetzt. Diese Axiome reichen aus, solange man keine Struktur berücksichtigt. Die Verwendung des Gleichheitszeichens ‘=’ signalisiert, dass in dem gegebenen Zusammenhang klar ist, was mit Gleichheit gemeint ist. 9.1 Definition und Beispiele. Eine binäre Relation ∼ auf einer Menge M heisst eine Äquivalenzrelation, wenn für alle x, y, z ∈ M gilt (E1) (E2) (E3) x∼x x∼y⇒y∼x x ∼ y und y ∼ z ⇒ x ∼ z Reflexivität Symmetrie Transitivität Beispiele: 1. Zwei Brüche bedeuten die gleiche rationale Zahl c a ∼ ⇔ ad = bc. b d 2. Zwei rationale Cauchyfolgen bedeuten die gleiche reelle Zahl (an )n∈N ∼ (bn )n∈N ⇔ (an − bn )n∈N ist Nullfolge 3. Zwei Quotienten reeller Polynome bedeuten die gleiche rationale Funktion p(x) r(x) ∼ ⇔ p(x)s(x) ≡ r(x)(q(x) q(x) s(x) 4. Zwei Pfeile im Anschauungsraum bedeuten den gleichen Vektor (P, Q) ∼ (P 0 , Q0 ) ⇔ es gibt Parallelogramme P QXY und XY P 0 Q0 . ⇔ (P, Q) und (P 0 , Q0 ) haben dieselbe Länge und Richtung 66 9 ÄQUIVALENZRELATIONEN. 5. Zwei I-Tupel stimmen auf J ⊆ I überein (ai | i ∈ I) ∼J (bi | i ∈ I) ⇔ für alle j ∈ J. aj = bj 6. Zwei ganze Zahlen haben den gleichen Rest modulo n a ∼n b ⇔ a ≡ b( mod n) ⇔ n teilt a − b 7. Zwei algebraische Strukturen sind isomorph A∼B ⇔ A∼ =B 8. Für eine Abbildung φ : M → . der Kern ∼φ x ∼φ y ⇔ φ(x) = φ(y). 9. Sind ∼1 , . . . , ∼n Äquivalenzrelationen auf M , so auch der Durchschnitt mit a∼b ⇔ a ∼1 b und . . . und a ∼n b 10. Zwei Programme berechnen bei gleicher Eingabe die gleiche Ausgabe oder hängen sich beide auf bzw. stürzen ab. 11. Zwei Befehlswörter w und w0 bewirken dieselben Zustandsänderungen des Automaten A δ(z, w) = δ(z, w0 ) 9.2 für alle Zustände z von A Klasseneinteilung Sei ∼ eine Äquivalenzrelation auf M . Wir definieren ã := {x ∈ M | x ∼ a} = a[mod ∼] die (Äquivalenz)Klasse von a nach/modulo ∼ . Lemma 9.1 a ∼ b ⇔ ã = b̃. Beweis. Sei a ∼ b. Aus x ∼ a folgt dann mit (E3), dass x ∼ b, also ã ⊆ b̃. Wegen (E2) haben wir auch b ∼ a und b̃ ⊆ ã. Also haben ã und b̃ dieselben Elemente, weshalb ã = b̃. Gelte umgekehrt ã = b̃. Wegen (E1) haben wir a ∼ a, also a ∈ ã = b̃ und damit a ∼ b per definitionem. Eine Partition oder Klasseneinteilung von M ist ein System Π von Teilmengen von M derart, dass (P 1) (P 2) (P 3) P 6= ∅ für alle P ∈ Π Zu jedem x ∈ M gibt es P ∈ Π mit x ∈ P Für alle P, Q ∈ Π gilt P = Q oder P ∩ Q = ∅ Lemma 9.2 Zwischen Äquivalenzrelationen und Partitionen auf einer Menge M besteht eine bijektive Entsprechung vermöge Π = {ã | a ∈ M }, a ∼ b ⇔ es gibt A ∈ Π mit a, b ∈ A. 9.3 Repräsentanten 67 Beweis. (P1) und (P2) folgen sofort aus (E1): a ∈ ã. Ist c ∈ ã ∩ b̃, so c ∼ a, und c ∼ b, also a ∼ b mit (E2) und (E3) und daher nach Lemma 9.1 ã = b̃. Gilt a ∼ b, so a, b ∈ A = b̃. Gilt umgekehrt a, b ∈ A = c̃, so a ∼ c und b ∼ c, also a ∼ b mit (E2) und (E3). Ist die Partition gegeben, so gilt (E1) wegen (P2) und (E2) ist trivial. Hat man a ∼ b ∼ c, so a, b ∈ A und b, c ∈ B mit A, B ∈ Π, also b ∈ A ∩ B und A = B nach (P3), also a ∼ c. Und ã = A für a ∈ A. . Partitionen taugen insbesondere als bildliche Vorstellung von Äquivalenzrelationen. 9.3 Repräsentanten Sei ∼ eine Äquivalenzrelation auf M . Ein Element a von M heisst Repräsentant der Klasse A, wenn a ∈ A. Also a, b repräsentieren dieselbe Klasse, nämlich ã = b̃, ⇔ a ∼ b. Eine Teilmenge S von M , die aus jeder Klasse genau einen Repräsentanten enthält, heisst ein Repräsentantensystem. Prinzip 9.3 Repräsentation. Jede Äquivalenzrelation hat mindestens ein Repräsentantensystem Aber meist tut man sich schwer, eines zu finden. Der Beweis ergibt sich wieder aus dem Auswahlaxiom, für endliche Mengen durch Induktion. Für obige Beispiele hat man z.B. folgende Repräsentantensysteme 1 ab 2 (an )n∈N ∀m.∃n. (an − an−1 )10n 6= 9 3 p(x) q(x) 4 (O, Q) 5 (ai | i ∈ I) 6 a a, b teilerfremd, b > 0 a0 ∈ Z, ∀n > 0. (an − an−1 )10n ∈ {0, . . . , 9}, p(x), q(x) teilerfremd, q(x) normiert mit festem Punkt O aj = 0j für alle j ∈ J mit ausgezeichnetem 0j ∈ Aj a ∈ Z, 0 ≤ a < n π Repräsentantensystem M Abstraktion K 68 9 ÄQUIVALENZRELATIONEN. 9.4 Abstraktion Prinzip 9.4 Abstraktion. Zu jeder Äquivalenzrelation ∼ auf einer Menge M gibt es eine Menge K und eine surjektive Abbildung π von M auf K so, dass x ∼ y ⇔ π(x) = π(y) für alle x, y ∈ M. Wir sagen dann, dass K eine Faktormenge (auch Quotientenmenge von M nach (oder modulo) ∼ ist mit kanonischer Projektion π = mod ∼ . Kurz: π : M → K ist Abstraktion nach ∼. Durch einen solchen Übergang kommen wir z.B. von den (konkreten) Brüchen/Cauchyfolgen zu den (abstrakten) rationalen/reellen Zahlen, von den Pfeilen im Anschauungsraum zu den Vektoren. Man kann sich K auf vielfältige Weise verschaffen. Dogmatiker behaupten, man müsse die Menge der Äquivalenzklassen nehmen. Ist M gar keine Menge (wie in Beisp. 7), so verbietet es sich das, weil die Gesamtheit der Äquivalenzklassen dann noch weniger greifbar ist als M selbst. Trotzdem kann man durch Abstraktion den Begriff ‘Isomorphietyp’ bilden und, etwa im Falle der endlichen abelschen Gruppen, die Menge der Isomorphietypen explizit bestimmen. Wir empfehlen daher folgenden Umgang mit ‘der Faktormenge’ M/ ∼ • Man arbeite bevorzugt in M mit der ‘erweiterten Gleichheitsbeziehung’ ∼ • Man bezeichne die Elemente von M/ ∼ , wenns denn sein muss, mit ã = π(a) und rechne mit ã = π(a) = b̃ = π(b) 9.5 ⇔a∼b Ergänzung Satz 9.5 Ergänzung. Sei π eine surjektive Abbildung von M auf K und ψ eine Abbildung von M in N . Genau dann gibt es eine Abbildung χ von K in N mit ψ =χ◦π wenn (∗) x ∼π y ⇒ x ∼ψ y für alle x, y ∈ M Die Abbildung χ ist dabei eindeutig bestimmt: χ(y) = ψ(x) falls y = π(x). χ injektiv ⇔ (∗∗) x ∼π y ⇔ x ∼ψ y für alle x, y ∈ M χ : K → N surjektiv ⇔ ψ : M → N surjektiv Beweis. Sei χ gegeben und a ∼π b. Dann π(a) = π(b), also ψ(a) = χ(π(a)) = χ(π(b)) = ψ(b) und somit a ∼ψ b. Sei umgekehrt (*) erfüllt. Setze χ = {(y, z)| y ∈ K, z ∈ N und ∃x ∈ M : π(x) = y und ψ(x) = z}. χ ist in der Tat eine Abbildung: Ist y ∈ K gegeben, so gibt es wegen der Surjektivität von π ein x ∈ M mit π(x) = y und man hat (y, z) ∈ χ für 69 z = ψ(x). Hat man (y, z) ∈ χ und (y, z 0 ) ∈ χ, so gibt es nach Definition x, x0 ∈ M mit π(x) = y, ψ(x) = z, π(x0 ) = y, π(x0 ) = z 0 . Es folgt π(x) = π(x0 ) (da ‘=’ eine Äquivalenzrelation ist), also x ∼π x0 und nach Voraussetzung (*) x ∼ψ x0 . Das besagt aber z = ψ(x) = ψ(x0 ) = z 0 . Beweis des Zusatzes. Sei χ injektiv und a ∼ψ b, d.h χ(π(a)) = ψ(a) = ψ(b) = χ(π(b). Mit der Injektivität folgt π(a) = π(b), also a ∼π b. Gelte umgekehrt (**) und sei χ(c) = χ(d). Nach Definition von χ gibt es a, b ∈ M mit c = π(a), d = π(b) und ψ(a) = χ(c) = χ(d) = ψ(d). Das bedeutet a ∼ψ b, also nach (**) a ∼π b und damit c = π(a) = π(b) = d. ψ N M π χ K Korollar 9.6 Die Abstraktion einer Menge M nach einer gegebenen Äquivalenzrelation ∼ ist eindeutig bestimmt: d.h. zu je zwei Abstraktionen πi : M → Ki (d.h. surjektiven Abbildungen mit πi a = πi ba ⇔ a ∼ b) gibt es eine (eindeutig bestimmte) bijektive Abbildung χ : K1 → K2 mit π2 = χ ◦ π1 . 10 10.1 Vektorräume und Unterräume Spalten und Zeilen Sei K ein Körper, d.h. es gelten (K1-10). Sei m eine natürliche Zahl. Dann bestehe K n aus allen Listen (oder n-tupeln) a1 , . . . , an von Elementen aus 70 10 VEKTORRÄUME UND UNTERRÄUME K. Hier werden wir eine solche Liste meist als Spalte a1 .. a=. an notieren. Das Entscheidende ist, dass a durch seine Komponenten oder Koeffizient a1 , . . . , an eindeutig bestimmt ist: a1 b1 .. .. . = . genau dann, wenn a1 = b1 , . . . , an = bn . an bn Eine aus n numerischen Komponenten zusammengesetzte Grösse nimmt dann Werte in (dem passenden) K n an, aber nicht notwendig alle möglichen. Für die Listen in K n haben wir eine komponentenweise auszuführende Addition und eine Multiplikation mit Elementen aus K : a1 b1 a1 + b1 a1 ra1 0 .. .. .. .. .. .. . + . = . , r . = . , 0 = . . an bn an + bn an ran 0 Ganz analog zu den Spalten bildet man den Raum K n∗ der Zeilen (den wir mit gutem Grund und Recht als ein von K n zu unterscheidendes mathematisches Objekt ansehen) (a1 a2 . . . an ) = (a1 , a2 , . . . , an ) (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn ) r(a1 , . . . , an ) = (ra1 , . . . , ran ). 10.2 Vektorräume Sei K ein Körper. Eine algebraische Struktur V vom Typ der K-Vektorräume ist eine additiv geschriebene Struktur vom Typ der Gruppen mit zusätzlich zu jedem r ∈ K einer einstelligen Operation rV notiert als x 7→ rx. Es handelt sich um einen K-Vektorraum, wenn (V, +, −, 0) kommutative Gruppe ist und wenn gilt (V 5) für alle r in K und ~v , w ~ in V gilt r(~v + w) ~ = r~v + rw ~ (V 6) für alle ~v in V gilt 1~v = ~v (V 7) für alle r, s in K und ~v in V gilt (r + s)~v = r~v + s~v (V 8) für alle r, s in K und ~v in V gilt r(s~v ) = (rs)~v . Der Körper K ist integraler Bestandteil des Begriffs, seine Elemente heissen Skalare, die von V Vektoren. r~v heisst die Streckung des Vektors ~v um den 10.3 Rechenregeln 71 Skalar r oder das Produkt des Skalars r mit dem Vektor ~v . Das neutrale Element bzgl. der Addition ist der Nullvektor ~0. Die Pfeile sind lediglich eine Dekoration, die die Lesbarkeit fördern soll. Alternativ kann man die Multiplikation mit Skalaren als Abbildung (r, ~v ) 7→ r~v verstehen. Das erfordert dann den Begriff der “mehrsortigen algebraischen Struktur”. Obige Auffassung passt jedoch für unsere Zwecke besser. Beispiele • Die Vektoren des Raumes bzw. einer Ebenen bilden einen R-Vektorraum • Die n-Spalten über einem Körper K bilden einen K-Vektorraum K n . • C ist ein R-Vektorraum, R ein Q-Vekktorraum. Allgemein: Ist L Unterkörper von K, so wird jeder K-Vektorraum zum L-Vektorraum, wenn man nur die Multiplikation mit Skalaren aus L betrachtet. 10.3 Rechenregeln In eime Vektorraum gelten das allgemeine und Kommutativ- und KommutativAssoziatvgesetz für die Addition n X ~vi = i=1 n X ~vf (i) falls f Permutation von{1, . . . , n} i=1 mi n X X i=1 j=1 ~vij = m X ~vf (k) k=1 falls f : {1, . . . .m} → {(i, j) | 1 ≤ i ≤ n, 1 ≤ j ≤ mi } bijektiv und r( n X i=1 ~vi ) = n X i=1 r~vi , n n X X s( ri~vi ) = sri~vi , i=1 i=1 r~v = ~0 ⇔ r = 0 oder ~v = ~0, 10.4 n n X X [ ri ]~v = ri~v i=1 i=1 (−r)~v = −(r~v ). Funktionenraum Ist X eine Menge, so bildet die Menge K X aller Abbildungen von X in K einen K-Vektorraum mit (f + g)(x) = f (x) + g(x), 0(x) = 0k , (rf )(x) = r · f (x) ∀x ∈ X Ist X = {1, . . . , n}, so kann man die Funktion f : X → K mit dem n-Tupel (x1 , . . . , xn ) über K identifizieren, falls f (i) = xi für i = 1, . . . , xn . Ist X das reelle Intervall [a, b], so erhalten wir mit R[a,b] den R-Vektorraum der auf dem Intervall [a, b] definierten reellen Funktionen. 72 10 VEKTORRÄUME UND UNTERRÄUME 10.5 Untervektorräume Eine Teilmenge U eines K-Vektorraums V ist ein (K)-Untervektorraum oder linearer Teilraum, wenn sie unter den Operationen von V abgeschlossen ist, d.h. wenn ~0 in U, ~u + ~v in U, r~u in U für alle ~u, ~v in U, r in K. U ist dann mit den von V geerbten Operationen selbst ein K-Vektorraum. Beispiele. • V und ~0 (für Pedanten {~0}) sind die trivialen Untervektorräume von V. • Vektorielle Ebenen und Geraden im vektoriellen Anschaungsraum. • Ist K ein Unterkörper von M und M ein Unterkörper von L, so ist M ein K-Untervektorraum von L √ √ – Q( 2) = {a + b 2 | a, b ∈ Q} ist Q-Untervektoraum von R. • Ein Untervektorraum von RX heisst ein Funktionenraum – Die stetigen Funktionen bilden einen R-Untervektorraum von R[a,b] – Die differenzierbaren Funktionen bilden einen R-Untervektorraum von R[a,b] 10.6 Erzeugnis Wir behandeln das Erzeugnis zunächst ohne auf die Besonderheiten bei den Vektorräumen einzugehen. Lemma 10.1 Sind die Ui , i ∈ I K-Untervektorräume von V , so auch \ Ui = {~x ∈ V | ∀i ∈ I. ~x ∈ Ui } i∈I T Beweis. ~0 ∈ Ui für alle i, also ~0 ∈ U = i Ui . Seien ~u, ~v ∈ Ui für alle i. Dann auch r~u ∈ Ui und ~u + ~v ∈ Ui , da Ui Untervektorraum. Somit r~u ∈ U und ~u + ~v ∈ U . Korollar 10.2 Zu jeder Teilmenge E eines K-Vektorraums V gibt es einen eindeutig bestimmten Untervektorraum Spann E so, dass gilt E ⊆ Spann E, Spann E ⊆ U für alle Untervektorräume U ⊇ E Spann E ist der von E erzeugte Untervektorraum oder das Erzeugnis von E. Beweis. Sei Ui (i ∈ I) die ziemlich unendliche Liste aller Untervektorräume T mit Ui ⊇ E. Dann ist S := i∈I Ui nach dem Lemma ein Untervektorraum. 10.7 Linearkombinationen 73 Ist ~v ∈ E, so ~v ∈ Ui für alle i ∈ I, also ~v inS. Ist W ein Untervektorraum mit W ⊇ E, so W = Uj für ein j ∈ I, also W ⊇ S. Ist T ⊇ E ein Untervektorraum mit T ⊆ Ui f ur alle i, so folgt T ⊆ S, auch S ⊆ T weil T 4einesderUi ist. Also T = S, d.h. S = Spann E ist eindeutig bestimmt. Natürlicher, aber mühsamer präzise auszuformulieren ist der folgende Zugang Prinzip 10.3 Spann E entsteht aus E durch den folgenden Erzeugungsprozess ~v , ~u ~v + ~u, ~v r~v d.h. Spann E besteht aus den Vektoren von V , die man durch einen Term darstellen kann, in den Vektoren aus E, die Addition von Vektoren und Multiplikation mit Skalaren aus K eingehen. Korollar 10.4 Es gilt • X ⊆ Spann X • X ⊆ Y ⇒ Spann X ⊆ Spann Y • Spann Spann X = Spann X • Spann X ist Untervektorraum • Ist X ⊆ U und U Untervektorraum so Spann X ⊆ U 10.7 Linearkombinationen Ein Vektor ~v ist Linearkombination der Vektoren ~vi , wenn er eine Darstellung folgender Art hat ~v = r1~v1 + . . . + rn~vn Lemma 10.5 Für einen K-Vektorraum V gilt n X Spann X = { ri~vi | n ∈ N, ~vi ∈ X, ri ∈ K} i=1 n X Spann X = { ri~vi | ri ∈ K} falls X = {~v1 , . . . , ~vn } i=1 Beweis: Die angegebene Menge von Linearkombinationen bildet einen Untervektorraum: X X X X X ri~vi + si~vi = (ri + si )~vi , r ri~vi = (rri )~vi i i i i i Andererseits muss jeder Untervektorraum, der X enthält, auch alle diese Linearkombinationen enthalten. Korollar 10.6 Sind die w ~ j Linearkombinationen der ~vi , so ist jede Linearkombination ~u der w ~ j eine Linearkombination der ~vi und somit das Erzeugnis der w ~ j im Erzeugnis der ~vi enthalten. Beweis. Das ist klar, wir können es aber auch rechnen. X X X XX ~u = sj w ~j, w ~j = rij ~vi ⇒ ~u = sj rij ~vi = ( sj rij )~vi j i i,j i j 74 11 11 BASEN UND DIMENSION Basen und Dimension Die Theorie von Basis und Dimension kann man allein auf die allgemeinen Eigenschaften des Erzeugens (Kor.10.4) und das Austauschlemma 11.2 begründen. Man spricht dann von Matroiden. Wir tun das, formulieren es aber für Vektorräume. 11.1 Erzeugende und unabhängige Mengen Eine Teilmenge E eines Vektorraums V heisst erzeugend für V , wenn SpannE = V . Eine erzeugende Menge heisst minimal erzeugend, wenn keine echte Teilmenge erzeugend ist. Eine Teilmenge X von V heisst abhängig, wenn sie eine Teilmenge A ∪ {~b} enthält mit ~b ∈ SpannA und ~b 6∈ A. Andernfalls heisst sie unabhängig. Ist B unabhängig und erzeugend, so ist es eine Basismenge. Lemma 11.1 Eine Teilmenge B von V ist minimal ezeugend genau dann, wenn sie Basismenge ist. Jede Basismenge von V ist maximal unabhängig in V. Beweis. Hätte man ~b ∈ Spann A innerhalb B, so wäre schon B\{~b} erzeugend. Also ist eine minimal erzeugende Menge unabhängig. Hätte umgekehrt eine Basismenge B eine erzeugende echte Teilmange E, so ~b ∈ Spann A für ein ~b ∈ B \ E und A ⊆ E im Widerspruch zur Unabhängigkeit von B. Ist B eine Basismenge und C echte Obermenge von B, so hat man ein ~c ∈ C mit ~c 6∈ B aber ~c ∈ Spann B, also C abhängig. 11.2 Austausch Lemma 11.2 Für jeden Vektorraum gilt: Wenn ~c ∈ Spann (A ∪ {~b}) aber ~c 6∈ Spann A, so ~b ∈ Spann (A ∪ {~c}) Beweis. Es gibt es r, ri ∈ K mit ~c = r~b + r1~a1 + . . . + rm~am . Da ~c 6∈ Spann A, muss r 6= 0 sein und es folgt ~b = r−1~c − r−1 r1~a1 − . . . − r−1 rm~am , Lemma 11.3 Sei U unabhängig und U ∪ {~b} abhängig. Dann ~b ∈ Spann U . Beweis. Sei ~b 6∈ U , U unabhängig und U ∪ {~b} abhängig. Dann gibt es nach Definition A ∪ {~c} ⊆ U ∪ {~b} mit ~c ∈ Spann A und ~c 6∈ A. Es gilt A ∪ {~c} 6⊆ U , da U unabhängig ist. Also ~b ∈ A ∪ {~c}. Ist ~b = ~c, so ~b ∈ Spann A wegen c ∈ Spann A. Andernfalls ~b ∈ A und ~c ∈ U . Dann ist D = A \ {~b} ⊆ U und wegen der Unabhängigkeit von U kann nicht ~c ∈ Spann U gelten. Mit Austausch folgt ~b ∈ Spann (D ∪ {~c}), also ~b ∈ Spann U . 11.3 Basisergänzung 11.3 75 Basisergänzung Sei E eine Teilmenge von V . Eine Teilmenge B ⊆ E ist maximal unabhängig in E, wenn sie unabhängig ist, aber kein unabhängiges U mit U 6= B ⊂ U ⊆ E existiert. Satz 11.4 • Jede in einer Erzeugendenmenge E des Vektorraums V maximal unabhängige Menge B ist eine Basismenge von V . • (Basis-Ergänzung.) Seien U und C endliche Teilmengen eines Vektorraums V so, dass U unabhängig und U ∪ C erzeugend ist. Dann gibt es eine Basismenge B von V mit U ⊆ B ⊆ U ∪ C Beweis. Sei B maximal unabhängig in E. Gäbe es ~c ∈ E mit ~c 6∈ Spann B, so wäre B ∪ {~cc} nach dem Lemma unabhängig in E. Also E ⊆ Spann B und V = Spann E ⊆ Spann Spann B = Spann B. Zur zweiten Behauptung. Wähle B mit U ⊆ B ⊆ U ∪ C maximal, d.h. so dass es kein echt größeres U 0 gibt. Wegen der Endlichkeit geht das. Dann ist B maximal unanhängig in U ∪ C, also nach Teil 1 erzeugend. 11.4 Basen Wir haben der Bequemlichkeit halber Basen zunächst als Mengen von Vektoren eingeführt. Bei der wichtigsten Anwendnung, der Einführung von Koordinaten, kommt es jedoch wesentlich auf die Reihenfolge an, d.h. man muss mit Folgen oder Listen von Vektoren arbeiten. Für endliche Listen benutze man folgende Definitionen • Spann(a1 , . . . , an ) = Spann{a1 , . . . , an } • a1 , . . . , an ist erzeugend ⇔ {a1 , . . . , an } ist erzeugend • a1 , . . . , an ist unabhängig ⇔ {a1 , . . . , an } ist unabhängig und besteht aus n verschiedenen Elementen. • a1 , . . . , an ist ( geordnete) Basis ⇔ {a1 , . . . , an } ist Basis und besteht aus n verschiedenen Elementen. Die listenreiche Version der Basisergänzung sieht so aus: • Sei ~v1 , . . . , ~vn ein Erzeugendensystem des K-Vektorraums V . Sind ~v1 , . . . , ~vk unabhängig, so kann man sie durch passende Auswahl aus den ~vk+1 , . . . ~vn zu einer Basis von V ergänzen. Und das Verfahren: Nach Umsortieren sei ~v1 , . . . , ~vm maximal unabhängige Teilliste, d.h. ~v1 , . . . , ~vm , ~vj linear abhängig für jedes j > m. Dann ist nach dem Lemma jedes ~vj Linearkombination der ~v1 , . . . , ~vm und diese somit ein Erzeugendensystem von V . 76 11 BASEN UND DIMENSION 11.5 Dimension Satz 11.5 Hat ein Vektorraum eine n-elementige Basis, dann (a) besteht jede Basis von V aus n Elementen (b) ist n die maximale Größe von unabhängigen Teilmengen in V (c) bilden je n unabhängige Vektoren eine Basis (d) ist n die minimale Größe von Erzeugendenmengen von V (e) bilden je n paarweise verschiedene erzeugende Vektoren eine Basis Im Fall des Satzes heisst n die Dimension des Vektorraums und wir schreiben n = dimk V im Falle eines K-Vektorraums, Wir schreiben dim V < ∞, falls V eine endliche Basis hat. Beweis für Listen. Sei ~v1 , . . . , ~vn eine Basis. Sei w ~ 1, . . . , w ~ m eine weitere Basis. Indem wir den Ergänzungssatz auf w ~ 2, . . . , w ~ m , ~v1 , . . . , ~vn anwenden und umsortieren erhalten wir eine Basis w ~ 2, . . . , w ~ m , ~v11 , . . . , ~v1k1 mit ~v1j ∈ {~v1 , . . . , ~vn } Indem wir den Ergänzungssatz auf w ~ 3, . . . , w ~ n , ~v11 , . . . , ~v1k1 , ~v1 , . . . , ~vn anwenden und umsortieren erhalten wir eine Basis w ~ 3, . . . , w ~ n , ~v11 , . . . , ~v1k1 , ~v21 , . . . , ~v2k2 mit ~vij ∈ {~v1 , . . . , ~vn } usw.. Wegen der Minimalitätseigenschaft einer Basis ist stets ki > 0 und, da kein Vektor in einer Basis zweimal auftreten darf, ist man nach spätestens m Schritten am Ende - also m ≤ n. Durch Vertauschen der Rollen folgt n ≤ m und damit n = m. (b) folgt nun sofort mit dem Ergänzungssatz. Hätte man ein Erzeugendensystem mit weniger als n Elementen, so auch ein minimales, also eine Basis mit m < n Elementen. Dann hätte man aber für diese Basis einen Widerspruch zu (a). Hat man n unabhängige Vektoren w ~ 1, . . . , w ~ n , so sind nach (b) für jedes ~v die w ~ 1, . . . , w ~ m , ~v linear abhängig, also nach dem Lemma 11.3 ~v Linearkombination der w ~ i . (c) folgt sofort und (d),(e) mit Lemma 11.1. Korollar 11.6 Für Untervektorräume U, W eines Vektorraums gilt • W endlich erzeugt ⇒ dim W < ∞ • U ⊆ W ⇒ dim U ≤ dim W • U ⊆ W und dim U = dim W < ∞ ⇒ U = W 11.6 Abzählbare Dimension 11.6 77 Abzählbare Dimension Wir nennen eine Menge Y abzählbar, wenn sie leer ist oder es eine surjektive Abbildung von N auf Y gibt. Eine Menge ist abzählbar unendlich ganau dann, wenn sie bijektiv auf N abgebildet werden kann. Lemma 11.7 In einem Vektorraum sei Y ⊆ Spann X für eine abzählbare bzw. endliches Menge Y , dann gibt es abzählbares bzw. endliches X 0 ⊆ X mit Y ⊆ Spann X 0 Beweis. S Zu jedem y ∈ Y0 gibt es endliches Xy ⊆ X mit y ∈ Spann xy .0 Sei 0 X = y∈Y Xy . Dann X ⊆ X abzählbar bzw. endlich und Y ⊆ Spann X . Satz 11.8 Jeder Vektorram mit abzählbarer Erzeugendenmenge besitzt eine abzählbare Basismenge und zwischen je zwei Basismengen gibt es eine bijektive Abbildung. Beweis. Sei E = {~a0 , ~a1 , . . .} erzeugende Menge. Setze Bn−1 ∪ {~an } falls unabängig B1 = ∅, Bn = Bn−1 sonst S Dann ist n∈N Bn maximal unabhängig in E, also nach Satz 11.4 eine Basismegnge. Basismengen sind minimal erzeugend. Daher folgt das Weitere mit dem Lemma und Satz 11.5. . Eine Menge ist wohlgeordnet durch <, wenn gilt: nicht x < x; x < y < z impliziert x < z; x < y oder x = y oder y < x; jede nichtleere Teilmenge hat ein minimales Element. Derselbe Beweis wie oben zeigt, dass jeder Vektorraum mit wohlgeordneter Erzeugendenmenge eine Basismenge besitzt. Und in der Regel geht man davon aus, dass jede Menge eine Wohlordung zulässt - auch wenn man so gut wie nie eine zu Gesicht bekommt. Eine unabhängige Teilmenge von K X erhält man mit den 1 y=x ex (x ∈ X), ex (y) = 0 y 6= x Spann {ex | x ∈ X} = {f : X → K | {y ∈ X | f (y) 6= 0} ist endlich} ist aber nur dann = K X , wenn X endlich ist. Schokoladenaufgabe: Zeige, dass für unendliches X der K-Vektorraum K X keine abzählbare Basismenge besitzt. 12 12.1 Basis-Algorithmen für Vektorräume Unabhängigkeit in Vektorräumen Lemma 12.1 Sei der Untervektorraum U des K-Vektorraums V von ~v1 , . . . , ~vn erzeugt. Die folgenden Aussagen sind gleichwertig: 78 12 BASIS-ALGORITHMEN FÜR VEKTORRÄUME (1) Die Darstellung der Elemente von U als Linearkombinationen der ~v1 , . . . , ~vn ist eindeutig. (2) r1~v1 +. . .+rn~vn = ~0 ist nur in der trivialen Weise r1 = . . . = rn = 0 möglich. (3) ~v1 , . . . , ~vn sind linear unabhängig, d.h. für kein j ist ~vj Linearkombination der ~v1 , . . . , ~vj−1 , ~vj+1 , . . . , ~vn . (4) ~v1 , . . . , ~vn ist ein minimales Erzeugendensystem von U , d.h. für kein j wird U von den ~v1 , . . . , ~vj−1 , ~vj+1 , . . . , ~vn erzeugt. P P P Beweis. (1)⇒(2) trivial. (2)⇒(1): Aus P ri~vi = si~vi folgt (ri −si )~vi = ~0, also ri − si = 0 für alle P i. (2) ⇔ (3): ri~vi = 0 mit festem rj 6= 0 ist −1 gleichbedeutend mit ~vj = i6=j (rj ) ri~vi . (3)⇔(4) nach Lemma 11.1. Beispiel. Je drei Vektoren des Anschauungsraumes, die nicht in einer Ebene liegen, bilden eine Basis. Lemma 12.2 Sind ~v1 , . . . , ~vn in V unabhängig, so gilt für jedes ~v ∈ V entweder ~v1 , . . . , ~vn , ~v unabhängig oder ~v Linearkombination der ~v1 , . . . , ~vn Das ist Lemma 11.3. Noch ein Beweis. Sind ~v1 , . . . , ~vn+1 = ~v linear abhängig, so gibt es ri nicht alle 0 mit ~0 = r1~v1 + . . . rn~vn + rn+1~vn+1 . Da ~v1 , . . . , ~vn unabhängig sind, muss rn+1 6= 0 sein, also ~vn+1 = (rn+1 )−1 r1~v1 + . . . + (rn+1 )−1 rn~vn . 12.2 Matrizen Sei K oder ein anderer Körper. Eine m × n-Matrix a11 . . . a1n .. .. A = (aij ) = (aij )m×n = ... . . am1 . . . amn über K wird angegeben durch ein (rechteckiges) Schema von Zahlen (Koeffizienten, Einträgen) aij aus K, wobei i = 1, . . . , m; j = 1, . . . , n. Oder eine mit den Paaren ij indizierte Liste. Die Einträge ai1 , . . . , ain bilden die i-te Zeile, die Einträge a1j , . . . , amj die j-te Spalte. Zeilen bzw. Spalten können demnach als Spezialfälle von Matrizen aufgefasst werden. Man lese: n geht nach m-Matrix oder m kreuz n Matrix. Der Zeilenraum einer Matrix A ∈ K m×n ist der von den Zeilen von A erzeugte Untervektorraum von K n∗ . Die i-te Zeile einer m × n-Matrix A ist eine Pivot-Zeile, wenn es ein k gibt mit aik 6= 0 und wenn für das kleinste solche k gilt: ahj = 0 für alle h > i und j ≤ k. Ist jede Zeile von A Pivot-Zeile oder Nullzeile, so ist A eine (obere) Stufenmatrix. Die Pivot-Zeilen einer Stufenmatrix A bilden eine Basis des Zeilenraums von A 12.3 Umformungen 79 weil sie offensichtlich unabhängig sind und nach Definition erzeugen. Insbesondere bilden die Einheitszeilen e∗1 , . . . , e∗n die kanonische Basis des Zeilenraums K n∗ e∗1 = (1, 0, . . . , 0), . . . , e∗n = (0, 0, . . . , 1). Dies und das Folgende geht entsprechend für Spalten. Insbsondere bilden die Einheitspalten 1 0 0 0 1 0 e1 = .. , e2 = .. , . . . , em = .. . . . 0 0 1 die kanonische Basis des Spaltenraums K m . 12.3 Umformungen Lemma 12.3 Die folgenden elementaren/Gauss’schen Umformungen einer Liste ~v1 , . . . , ~vn von Vektoren ändern nichts am Erzeugnis jeweils umkehrbar durch Umformungen gleicher Art und erhalten Unabhängigkeit. (G1) Ersetze ~vl durch ~vl0 = ~vl +r~vk für ein Paar k 6= l und r ∈ K (G2) Vertausche ~vk und ~vl für ein Paar k 6= l (G3) Ersetze ~vk durch ~vk0 = r~vk für ein k und r 6= 0 in K Beweis. Sei ~vj0 = ~vj , sonst. Es sind alle ~vj0 Linearkombinationen der ~vj und umgekehrt und damit die Erzeugnisse gleich. Nämlich ~vl = ~vl0 − r~vk0 bzw. ~vk = ~vl0 , ~vl = ~vk0 bzw. ~vk = r−1~vk0 Und ein minimales Erzeugendensystem geht wieder in ein solches über. Wenn man will, kann man auch mit gebotener Vorsicht so umformen (G4) Lasse ~0 weg. Korollar 12.4 Entsteht A0 ∈ K m×p aus A durch (Zeilen)Gauss-Umformungen, so haben A und A0 den selben Zeilenraum. Korollar 12.5 Entsteht die Stufenmatrix L ∈ K m×n aus A durch GaussUmformungen, so bilden die Zeilen 6= 0 von L eine Basis des Zeilenenraums von A. Die Zeilen von A sind unabhängig genau dann, wenn L keine Nullzeile enthält. Ist m > n, so sind die Zeilen von A notwendigerweise abhängig. 80 12 BASIS-ALGORITHMEN FÜR VEKTORRÄUME 12.4 Basisauswahl Algorithmus 12.6 Basisauswahl • Gegeben: Matrix A ∈ K m×n mit Zeilen a∗1 , . . . , a∗m . • Gesucht: Teilliste a∗i1 , . . . , a∗ik , die Basis des Zeilenraums von A ist. Verfahren: • Nummeriere die Zeilen von A mit 1, . . . , m. • Überführe A mit Gauss-Algorithmus (G1-3) in Stufenform A0 . Dabei gilt für die Zeilenummerierung – unverändert bei (G1) und (G3) – wird mitvertauscht bei (G2) • Sind i1 , . . . , ik die Nummern der Nichtnullzeilen in A0 , so bilden a∗i1 , . . . , a∗ik eine Basis des Zeileraums von A. Beweis durch Induktion über m. Der Fall m = 0 ist trivial. Induktionsschritt. Sei m > 0 und j minimal so, dass es in der j-ten Spalte einen Eintrag 6= 0 gibt. Zur Vereinfachung der Notation dürfen wir j = 1 annehmen. Sei k minimal mit ak1 6= 0. Im Gauss-Algorithmus wird A durch die Vertauschung der ersten und der k-ten Zeile (im Falle k = 1 passiert nichts) in eine Matrix A0 und dann durch Umformungen nach (G1) mit Pivotzeile a∗k in eine Matrix A1 jeweils mit demselben Zeilenraum überführt, Die erste Zeile von A1 ist a∗k und die weiteren Zeilen hilden eine (m−1)×n-Matrix B mit jeweils erstem Eintrag 0. Und A0 entsteht, indem B in Stufenform B 0 überführt und die erste Zeile a∗k hinzugefügt wird. Inbesondere also k = i1 . Nach Induktionasannahme bilden die Zeilen von B mit Nummern i2 , . . . , id eine Basis des Zeilenraums von B und, weil die erste Zeile wegen der Nullen nicht Linearkombination der übrigen sein kann, zusammmen mit a∗k eine Basis des Zeilenraums von A1 (Lemma 12.2). Die Zeilen i2 , . . . , id von A0 erhält man aus denen gleicher Nummer von A1 , indem man die Umformung nach (G1) mit Pivotzeile a∗k wieder rückgängig macht. Also bilden die Zeilen a∗1 , . . . a∗d nach Lemma 12.3 und ?? eine Basis des Zeileraums von A0 (und A). 12.5 Basisergämnzung Algorithmus 12.7 Basisergänzung • Gegeben: Matrix A ∈ K m×n mit Zeilen a∗1 , . . . , a∗m so, dass a∗1 , . . . , a∗d unabhängig sind • Gesucht: Teilliste a∗id+1 , . . . , a∗ik von a∗d+1 , . . . , a∗m so, dass a∗1 , . . . , a∗d , a∗id+1 , . . . , a∗ik Basis des Zeilenraums von A ist. Verfahren: 12.6 Beispiel 81 • Nummeriere die Zeilen von A mit 1, . . . , m. • Wende den Auswahl-Algorithmus auf die ersten d Zeilen von A an. • Dies überführt A in eine Matrix A0 , bei der die ersten d-Zeilen eine Stufenform mit lauter Nichtnullzeilen bilden • Vertausche die Spalten von A0 so, dass die Pivots der ersten d Zeilen auf der Diagonale stehen. • Wende den Auswahl-Algorithmus auf die so entstandene Matrix A00 an. Dabei bleiben die ersten d Zeilen unverändert. • Sind 1, . . . , d, id+1 , . . . , ik die Nummern der Nichtnullzeilen der so entstanden Matrix A000 , so bilden a∗1 , . . . a∗d , a∗id+1 , . . . , a∗ik eine Basis des Zeilenraums von A. Beweis. Abhängigkeit bzw. Unabhängigkeit von Zeilen bleibt bei Spaltentausch bestehen. 12.6 Beispiel Wähle aus den Zeilen 1,2,3 eine Basis des von ihnen erzeugten R-Untervektorraums aus und ergänze diese durch passende der Zeilem 4,5,6,7,8 zu einer Basis des von den Zeilen 1 bis 8 erzeugten R-Untervektorraums. Lösung: Zeilen 1,3,4,7,6 1 2 3 4 5 6 7 8 1 1 2 1 0 1 0 0 0 2 0 0 0 2 2 0 0 0 3 1 2 2 1 1 0 0 0 4 1 2 3 3 2 0 1 1 5 1 2 2 1 1 1 0 1 6 2 4 3 2 3 1 1 2 1 3 4 5 6 7 8 1 1 0 0 0 0 0 0 3 1 1 1 0 0 0 0 2 0 0 2 2 0 0 0 4 1 2 3 1 0 1 1 5 1 1 1 0 1 0 1 6 2 1 2 1 1 1 2 1 2 3 4 5 6 7 8 1 1 0 0 0 1 0 0 0 2 0 0 0 2 2 0 0 0 3 1 0 1 1 1 0 0 0 4 1 0 2 3 2 0 1 1 5 1 0 1 1 1 1 0 1 6 2 0 1 2 3 1 1 2 1 3 4 5 6 7 8 1 1 0 0 0 0 0 0 3 1 1 0 0 0 0 0 2 0 0 2 2 0 0 0 4 1 2 1 1 0 1 1 5 1 1 0 0 1 0 1 6 2 1 1 1 1 1 2 1 3 4 5 6 7 8 1 1 0 0 1 0 0 0 3 1 1 1 1 0 0 0 2 0 0 2 2 0 0 0 4 1 2 3 2 0 1 1 5 1 1 1 1 1 0 1 6 2 1 2 3 1 1 2 1 3 4 5 6 7 8 1 1 0 0 0 0 0 0 3 1 1 0 0 0 0 0 2 0 0 2 0 0 0 0 4 1 2 1 0 0 1 1 5 1 1 0 0 1 0 1 6 2 1 1 0 1 1 2 82 13 KOORDINATEN, AFFINE RÄUME 1 1 0 0 0 0 0 0 1 3 4 5 7 6 8 13 13.1 3 1 1 0 0 0 0 0 2 0 0 2 0 0 0 0 4 1 2 1 0 1 0 1 5 1 1 0 0 0 1 1 6 2 1 1 0 1 1 2 1 3 4 5 7 6 8 1 1 0 0 0 0 0 0 3 1 1 0 0 0 0 0 2 0 0 2 0 0 0 0 4 1 2 1 0 1 0 0 5 1 1 0 0 0 1 1 6 2 1 1 0 1 1 1 1 3 4 5 7 6 8 1 1 0 0 0 0 0 0 3 1 1 0 0 0 0 0 2 0 0 2 0 0 0 0 4 1 2 1 0 1 0 0 5 1 1 0 0 0 1 0 6 2 1 1 0 1 1 0 Koordinaten, affine Räume Koordinaten Ab jetzt betrachten wir nur noch endlichdimensionale Vektorräume und verstehen Basen als Listen (man sagt auch em geordnete Basen). Satz 13.1 Ist α : ~v1 , . . . , ~vm Basis des K-Vektorraumes V , so kann man V mit K m “identifizieren” x xα1 1 X ~x = xi~vi 7→ ... = ~xα = ... ~vi 7→ ei xαm xm (~x + ~y )α = ~xα + ~y α , (r~x)α = r~xα • Vektoren ~x1 , . . . ~xn sind unabhängig genau dann, wenn ihre Koordinatenspalten ~xα1 , . . . , ~xαn unabhängig sind. • ~x ist im Erzeugnis der ~x1 , . . . , ~xn genau dann, wenn ~xα im Erzeugnis der ~xα1 , . . . ~xαn ist • ~x1 , . . . ~xn ist Basis von V genau dann, wenn ~xα1 , . . . ~xαn Basis von K m Beweis: Die Darstellung der Vektoren mittels ihrer Koordinaten ist eindeutig und verträgt sich mit Addition und mit der Multiplikation mit Skalaren. 13.2 Affine Räume In Analogie zum Anschauungsraum sagen wir, dass ein affiner Raum gegeben wird durch eine ‘Punktmenge’ P, einen Vektorraum V und eine Abbildung von V × P nach P (~v , P ) 7→ ~v + P ∈ P so, dass die Axiome (A2-4) gelten (A2) Zu (je zwei) Punkten P, Q gibt es genau einen Vektor ~v mit Q = ~v + P (A3) (w ~ + ~v ) + P = w ~ + (~v + P ) 13.3 Affine Teilräume 83 (A4) ~0 + P = P (A3-4) besagen, dass man eine Wirkung der Gruppe V auf P hat und es folgt ~ + ~v + P = P , d.h. die Verschiebungen (Translationen) P 7→ ~v + P sind −v bijektive Abbildungen von P. (A2) besagt, dass die Wirkung von V scharf transitiv ist und wir schreiben den durch P und Q eindeutig bestimmten Vektor ~v als −→ ~v = P Q ⇔ Q = ~v + P Es folgt, dass die Wirkung auch treu ist: verschiedene Vektoren bewirken verschiedene Verschiebungen. 13.3 Affine Teilräume Ein affiner Teilraum eines affinen Raums ist eine Teilmenge von P der Gestalt U + P = {~u + P | ~u ∈ U } mit einem Untervektorraum U von V und Punkt P ∈ P. Dabei ist U eindeutig bestimmt und −→ U + P = U + Q ⇔ PQ ∈ U Also kann man dim U als Dimension von U + P definieren. Die leere Menge soll auch als affiner Teilraum gelten. Beispiele sind Punkte, Geraden, Ebenen des Anschauungsraums mit Dimension 0, 1, 2. Beweis. Aus U + P = W + Q folgt P = w ~ + Q für ein w ~ ∈ W und ebenso Q = ~u + P mit ~u ∈ U . Dann P = w ~ + ~u + P , also ~u = −w. ~ Geraden und Ebenen eines affinen Raums sind die 1- bzw. 2-dimensionalen affinen Teilräume. Man kann dann zeigen (Übung!), dass es zu je 2 Punkten P1 6= P2 genau eine sie enthaltende Gerade gibt und zu je drei Punkten P1 , P2 , P3 , von denen keine zwei auf einer Geraden liegen, genau eine sie enthaltende Ebene. Schliesslich ist X ⊆ P genau dann affiner Teilraum, wenn mit den Pi auch die durch sie bestimmte Gerade bzw. Ebene in X liegt (ist 1 + 1 6= 0 so genügt es, die Geraden zu betrachten). 13.4 Affine Struktur eines Vektorraums Jeden Vektorraum V kann man als affinen Raum mit Punktmenge P = V auffassen: (~v , p~) 7→ ~v + p~ d.h. man versteht die Elemente von V einerseits als Vektoren, andererseits als Ortsvektoren. Damit kann man auch von affinen Teilräumen eines Vektorraums sprechen. Sie sind von der Form U + p~ = {~u + p~ | ~u ∈ U } mit festem Untervektorraum U und (Orts)Vektor p~. 84 13.5 13 KOORDINATEN, AFFINE RÄUME Affine Koordinaten Ein Koordinatensystem α eines affinen Raums besteht aus einem ausgezeichneten Punkt (Ursprung) Oα und einer Basis ~a1 , . . . ~an des Vektorraums V . Dann hat jeder Punkt P ∈ P eine eindeutige Darstellung P = n X ri~ai + Oα i=1 −−→ und die ri sind die Koordinaten des ‘Ortsvektors’ Oα P bzgl. der Basis ~a1 , . . . , ~an , die wir auch mit α ~ notieren. Wir schreiben die Koordinaten als r1 .. −−→α~ α P = . = Oα P rn 85 14 14.1 Matrizenrechnung Summe Hat man eine weitere m × n-Matrix B = (bij ), so definiert man die Summe A + B = (aij + bij )m×n , rA = (raij )m×n . Die m × n-Nullmatrix O hat nur Einträge 0. Es gelten die Regeln (V1-8) entsprechend. 14.2 Matrix mal Spalte u1 a11 x1 + . . . + a1n xn x1 .. . . m n .. . = = Ax in K für x = .. in K un am1 x1 + . . . + amn xn xn d.h. die i-te Komponente von Ax erhält man, indem man die i-te Zeile von A komponentenweise mit x multipliziert und dann aufaddiert. Man lese: auf x A angewendet oder A mal x. a11 .. . am1 . . . a1n .. .. . . . . . amn x1 ... a11 x1 + . . . .. . xn +a1n xn am1 x1 + . . . +amn xn Aus den Regeln (K1-10) für das Rechnen in Körpern erhält man sofort (M 1) A(b + c) = Ab + Ac (M 2) A(rb) = r(Ab), A0 = 0 Bemerkung. Für das zweite Gesetz braucht man das Kommutativgesetz (K10). Das könnte man vermeiden, indem man Matrizen und Skalare auf verschiedene Seiten schreibt, z.B. Abr oder, wenn man von links nach rechts schreibt, rbA mit b als Zeile. Dabei erkennt man, dass es nur um das Assoziativgesetz (K5) geht. 14.3 Matrizenprodukt Wir defineren das Produkt einer l × m-Matrix A mit einer m × n-Matrix B über K als die l × n-Matrix D = AB (aij )l×m (bjk )m×n = (dik )l×n = (ai1 b1k + . . . + aim bmk )l×n d.h. man rechnet i-te Zeile von A komponentenweise mal k-te Spalte von B und addiert auf, um dik zu erhalten. Daher müssen die Zeilen von A genauso lang sein wie die Spalten von B. Hat B die Spalten b1 , . . . , bn , so hat AB die Spalten Ab1 , . . . , Abn . Man lese: erst B dann A oder A nach B oder A mal B. 86 14 MATRIZENRECHNUNG a11 .. . a11 . . . a1m .. .. .. . . . al1 . . . alm 14.4 ... .. . a1n .. . am1 ... amn a11 a11 + . . . + a1m am1 . . . a11 a1n + . . . + a1m amn .. .. .. . . . al1 a11 + . . . + alm am1 . . . al1 a1n + . . . + alm amn Gesetze Die n × n-Einheitsmatrix En hat Diagonale eii = 1 und sonst überall Null. Es gelten dann die folgenden Regeln - soweit die Operationen für die Matrizen überhaupt ausführbar sind (M 3) B(C + C 0 ) = BC + BC 0 (B + B 0 )C = BC + B 0 C (M 4) (rB)C = r(BC) = B(rC), (M 5) A(BC) = (AB)C (M 6) Em A = A = AEn . Beweis durch Nachrechnen mit (K1 − 10), wobei man, wenn es geht, nur den Spezialfall betrachtet, dass man Matrix mit Spalte(n) multipliziert. Warnend sei vermerkt, dass für Matrizen im Allgemeinen AB 6= BA, und dass man aus AB = O nicht auf A = O oder B = O schliessen kann. (M3) und (M4) folgen leicht aus (M1) und (M2). Zu (M5) betrachten wir zuerst den Spezxialfall. dass C = c eine Spalte ist. Sei l × m-Matrix A = (bij ) und m × n-Matrix B = (bjk ) und c ∈ K n . Dann b11 c1 + . . . + b1n cn .. A(Bc) = A . bm1 c1 + . . . + bmn cn a11 (b11 c1 + . . . + b1n cn ) + . . . + a1m (bm1 c1 + . . . + bmn cn ) .. = . al1 (b11 c1 + . . . + b1n cn ) + . . . + alm (bm1 c1 + . . . + bmn cn ) (a11 b11 + . . . + a1m bm1 )c1 + . . . + (a11 b1n + . . . + a1m bmn )cn .. = . . (al1 b11 + . . . + alm bm1 )c1 + . . . + (al1 b1n + . . . + alm bmn )cn Also A(Bc) = (AB)c 14.5 Inverse Matrix Lemma 14.1 Für zwei n × n-Matrizen A, B über K sind die folgenden Aussagen äquivalent (1) AB = E = BA (2) für alle x, u in K n gilt: u = Ax ⇔ x = Bu. 14.6 Transponierte Matrix 87 Wenn zu A ein solches B existiert heisst A invertierbar, regulär oder nichtsingulär. B ist dann durch A eindeutig bestimmt und heisst die Inverse zu A. Man schreibt B = A−1 . Beweis. Gelte (1). Wenn x = Bu dann Ax = A(Bu) = (AB)u = Eu = u. Ebenso x = Bu aus u = Ax. Gelte (2). Seien bj und ej die j-ten Spalten von B bzw. E. Es gilt bj = Bej , also ej = Abj . und folglich AB = E. Ebenso BA = E. Sei nun auch AC = E = CA. Dann C = CE = C(AB) = (CA)B = EB = B. Für das Rechnen mit Inversen gelten die folgenden Regeln. Für n × nMatrizen gilt: E −1 = E; A invertierbar ⇒ A−1 invertierbar und (A−1 )−1 = A A, B invertierbar ⇒ AB invertierbar und (AB)−1 = B −1 A−1 . Beweis. B −1 A−1 AB = B −1 B = E. 14.6 Transponierte Matrix Zu einer m × n-Matrix A = (aij )m×n erhält man die transponierte n × mMatrix At , indem man die Einträge an der Diagonalen “spiegelt”: At = (a0kl )n×m mit a0kl = alk . Es gelten dann die Regeln AT t = A, (A + B)t = At + B t , (rA)t = rAt , (AB)t = B t At , E t = E. A invertierbar ⇒ At invertierbar und (At )−1 = (A−1 )t . Beweis. (A−1 )t At = (AA−1 )t = E t = E. . 14.7 Koordinatentransformation Seien α : ~v1 , . . . , ~vm und β : w ~ 1, . . . , w ~ m zwei Basen des K-Vektorraums V . Wie rechnet man die Koordinaten ~xα und ~xβ ineinander um? Wir machen den Ansatz ~v α = α Tβ ~v β für alle ~v Die Transformationsmatrix ist dadurch eindeutig bestimmt: wir erhalten ihre Spalten als α Tβ ej indem wir für ~v die Vektoren aus β einsetzen. Es sei also S = α Tβ definiert als die Transformationsmatrix mit den Koordinatenspalten w ~ jα der w ~ j bzgl α als Spalten, also S= α Tβ α ~m ), = (w ~ 1α . . . w w ~ j = s1j ~v1 + . . . + smj ~vm ~xα = α Tβ ~xβ , ~xβ = β Tα~xα mit β Tα = α Tβ−1 Die Transformationsmatrix S = α Tβ leistet die Koordinatenumrechnung von der ‘neuen’ Basis β in die ‘alte’ Basis α. In ihren Spalten stehen die Koordinaten der neuen Basisvektoren bzgl. der alten Basis. Für die Umrechnung von ‘alt’ auf ‘neu’ benutzt man die inverse Matrix S −1 = β Tα 88 14 MATRIZENRECHNUNG Beweis. ~x = X yj w ~j = j X yj j X sij ~vi = i X sij yj ~vi = XX ( sij yj )~vi i,j i j Also ~xα = α Tβ ~xβ . Durch Vertauschen der Rollen ~xβ = β Tα~xα , also ~xα = xα . Das gilt insbesondre für die ~xα = ej , also E = α Tβ β Tα E. α Tβ β Tα ~ Ist eine Basis α des m-dimensionalen K-Vektorraums V gegeben, so kann man jede invertierbare m×m-Matrix S auf genau eine Weise als Transformationsmatrix S = α Tβ auffassen, nämlich mit der Basis β deren Koordinaten bzgl. α durch die Spalten von S gegeben sind. 14.8 Affine Koordinatentransformation Lemma 14.2 Gegeben seien zwei Koordinatensysteme α und β eines affinen ~ Dann Raums und α~ Tβ~ die Transformationsmatrix für die Basen α ~ , β. Pα = α ~ Tβ~ P β + (Oβ )α = α ~ −−−→ Tβ~ P β + ~v α wobei ~v = Oα Oβ . −−−→ P α = P β + Oα Oβ α falls α ~ = β~ Beweis wie für die Anschauungsebene. Sei P = ~x + Oα = ~y + Oβ . Dann ~y α = α ~ Tβ~ ~y β , ~v α = (Oβ )α ~x = ~y + ~v , P α = ~x α = ~y α + ~v α 89 15 Lineare Abbildungen 15.1 Lineare Abbildung Sind V , W zwei K-Vektorräume, so ist eine Abbildung φ : V → W linear (genauer: K-linear), wenn folgende Linearitätsbedingungen gelten φ(~x + ~y ) = φ(~x) + φ(~y ), φ(r~x) = rφ(~x) für alle ~x, ~y in V, r in K. Ist V = V 0 , so ist φ0 ein Endomorphismus. Lemma 15.1 Ist φ : V → W linear, so gilt X X φ(~0) = ~0, φ( ri~vi ) = ri φ(~vi ) i i Beweis. φ(~0V ) = φ(0~0V ) = 0φ(~0V ) = ~0W Die zweite Behauptung folgt leicht mit Induktion über n (und der Wohldefiniertheit von φ): n n−1 n−1 n X X X X φ( ri~vi ) = φ( ri~vi ) + φ(rn~vn ) = ri φ(~vi ) + rn φ(~vn ) = ri φ~vi i=1 i=1 i=1 i=1 Lemma 15.2 Seien V, W Vektorräume über K, ~v1 , . . . , ~vn eine Basis von V und w ~ 1, . . . , w ~ n Vektoren in W . Dann gibt es genau eine lineare Abbildung φ : V → W mit φ(~vi ) = w ~ i für i = 1, . . . , n. Beweis. Definiere X X φ( ri~vi = ri w ~i i für jede Wahl von ri ∈ K i P Die Wohldefiniertheit folgt sofort aus der Eindeutigkeit der Darstellung i ri~vi in V . Zur Linearität: P P P P vi ) + si )~vi ) = P si~vi ) = φ( i (riP φ( Pi ri~vi + i P i (ri + si )φ(~ = P r φ(~ v ) + s φ(~ v ) = φ( r ~ v ) + φ( s ~ v ) i i i i i i P P i i i Pi i i P φ(s i ri~vi ) = φ( i sri~vi ) = i sri φ(~vi ) = s i ri φ(~vi ) = sφ( i ri~vi ) Die Eindeutigkeit von φ folgt aus dem vorangehenden Lemma. 15.2 Isomorphie Eine bijektive lineare Abbildung φ : V → W heisst auch ein Isomorphismus. Gibt es einen Isomorphismus von V auf W , so heissen V und W isomorph und man schreibt V ∼ = W . Insbesondere ist dann φ−1 ein Isomorphismus von W auf V . Bespiele: Der Anschauungsraum ist isomorph zu R3 . Der Zeilenraum K n∗ ist isomorph zum Spaltenraum K n . Ist σ eine Permutation von {1, . . . , m}, so erhält man einen Isomorphismus von K m auf K m durch x1 xσ1 . .. . 7→ .. . xm xσm 90 15 LINEARE ABBILDUNGEN Korollar 15.3 Sei φ : V → W ein Isomorphismus. Dann gilt für ~v , ~v1 , . . . , ~vn in V und U ⊆ V ~v = ~0 ⇔ φ(~v ) = ~0 ~v1 , . . . , ~vn unabhängig in V ⇔ φ(~v1 ), . . . , φ(~vn ) unabhängig in W U Untervektorraum von V ⇔ φ(U ) Untervektorraum von W U erzeugt von ~v1 , . . . , ~vn ⇔ φ(U ) erzeugt von φ(~v1 ), . . . , φ(~vn ) ~v1 , . . . , ~vn Basis von V ⇔ φ(~v1 ), . . . , φ(~vn ) Basis von W dim V = dim W und dim U = dim φ(U ) für jeden Untervektorraum U von V Bei einem Isomorphimus übertragen sich alle Eigenschaften analog auf die Bilder. Korollar 15.4 Seien V, W Vektorräume über K, ~v1 , . . . , ~vn eine Basis von V und w ~ 1, . . . , w ~ n eine Basis von W . Dann gibt es genau einen Isomorphismus φ : V → W mit φ(~vi ) = w ~ i für i = 1, . . . , n. Beweis. Wir wissen schon ,dass es eine P lineare Abbildung φPgibt. Ist w ∈ W so hat man eine Darstellung w ~ = ~ i also w ~ = φ( i ri~vi ). Also ist i ri w φ : V → W surjektiv. Gelte φ(~v ) = φ(~v 0 ).PDa die ~v1 , . . . , ~vn erzeugen, hat P 0i 0 ~i = vi , und es folgt i ri w man Linearkombinationen ~v = und ~v = ir ~ P ~ i . Dann ri = r0i , da die w ~ 1, . . . , w ~ n unabhängig sind. φ(w) ~ = φ(w ~ 0 ) = i r0i w Das ergibt ~v = ~v 0 und die Injektivität von φ. Korollar 15.5 Sind V, W K-Vektorräume und dim V < ∞ so V ∼ = W ⇔ dim V = dim W , Korollar 15.6 K n ∼ = Km ⇔ dim V = n < ∞ ⇒ V ∼ = Kn n = m. Korollar 15.7 Ist α : ~v1 , . . . , ~vm Basis des K-Vektorraumes V , so hat man den (Koordinaten-) Isomorphismus κ von V auf K m x1 X .. ~x = xi~vi 7→ κ(~x) = . = ~xα ~vi 7→ ei xm 15.3 Matrixbeschreibung Ist A ∈ K m×n , so ist x 7→ Ax wegen (M1) und (M2) eine lineare Abbildung von K N in K m . Satz 15.8 Seien V , W K-Vektorräume mit Basen α : ~e1 , . . . , ~en bzw. β : f~1 , . . . f~m . Dann gibt es eine bijektive Entsprechung zwischen linearen Abbildungen φ : V → W und Matrizen A ∈ K m×n vermöge φ(~x)β = A~xα , A = β φα heisst die Matrix von φ bzgl. α, β In den Spalten der Matrix stehen die Koordinaten der Bilder der Basisvektoren 15.4 Komposition 91 Ist V = W und betrachten wir nur eine Basis so schreiben wir φα = α φα Matrix von φ bzgl. α Beweis. Ist φ gegeben und soll es ein A geben, so muss es das angegebene sein: man setze ~x = ~ej ein, d.h. ~eαj = ej und Aej ist die j-te Spalte von A. Es folgt X X X X φ(~x)β = xj φ(~ej )β = xj Aej = A( xj ej ) = A~xα für ~x = xj ~ej j j j j Ist A gegeben, so erhält man die Linearität von φ indem man die Isomorphieeigenschaft der Koordinatenzuordnung benutzt φ(~x+~y )β = A(~x+~y )β = A(~xβ +~y β ) = A~xβ +A~y β = φ(~x)β +φ(~y )β = (φ(~x)+φ(~y ))β also φ(~x + ~y ) = φ(~x) + φ(~y ) φ(r~x)β = A(r~x)β = Ar~xβ = rA~xβ = rφ(~x)β = (rφ(~x))β also φ(r~x)) = rφ(~x) 15.4 Komposition Sind V, W, U K-Vektorräume mit endlichen Basen α, β, γ und φ lineare Abbildung von V nach W , ψ von W nach U , so ist φ ◦ ψ lineare Abbildung von V nach U und die Matrix ergibt sich als Produkt der Matrizen γ [ψ ◦ φ]α = γ ψβ · β φα Beweis. (ψ(φ(~x)))γ = γ ψβ φ(~x)β = γ ψβ β φα~x)α . 15.5 Inverse Für eine lineare Abbildung φ von V nach W und Basen α von V , β von W sind äquivalent • φ : V → W ist bijektiv • β φα invertierbar für ein/jedes Paar α, β von Basen von V, W . Die inverse Abbildung ist dann auch linear und hat die inverse Matrix α (φ −1 )β = (β φα )−1 Beweis. Ist φ bijektiv, so ist auch φ−1 linear: sei ~x = φ~u und ~y = φ~v . Dann ~x + ~y = φ(~u + ~v ), also φ−1 (~x + ~y ) = ~u + ~v = φ−1~x + φ−1 ~y . Entsprechend für r~x. Es folgt α (φ−1 )β ·β φα = ( α φ−1 ◦ φ)α = α idα = E. Ist β φα invertierbar, so erhält man mit α ψβ = ( β φα )−1 die inverse Abbildung. 92 15 LINEARE ABBILDUNGEN 15.6 Kern und Bild Definition. Sei φ lineare Abbildung von V nach W . Setze Kern φ = {x in V | φ(x) = 0} und Bild φ = φ(V ) = {φ(x) | x in V }. Lemma 15.9 Kern φ ist Untervektorraum von V und Bild φ Untervektorraum von W . Es ist Kern φ = 0 genau dann, wenn φ injektiv ist und Bild φ = W genau dann, wenn φ surjektive Abbildung von V auf W ist. Beweis. Ist φ injektiv und φ(v) = 0, so wegen φ(0) = 0 sofort v = 0. Sei umgekehrt Kern φ = 0. Ist φ(v) = φ(w), so φ(v − w) = φ(v) − φ(w) = 0, also v − w = 0 und v = w. Also ist φ injektiv. dim Kern φ + dim Bild φ = dim V Dimensionsformel. Anwendung: Die linearen Abbildungen vom Raum auf die Ebene sind von der Form ψ ◦ π, wobei π eine Parallelprojektion des Raumes auf die Ebene und ψ eine lineare Selbstabbildung des Ebene ist. Beweis. Wähle eine Basis ~v1 , . . . , ~vk von Kern φ und ergänze zu einer Basis ~v1 , . . . , ~vn von V . Dann hat man für jedes w in Bild φ eine Darstellung n n n n X X X X w = φ( ri~vi ) = ri φ(~vi ) = ri φ(~vi ) = φ( ri~vi ) i=1 i=1 i=k+1 i=k+1 und diese Darstellung P ist eindeutig, da sie für den Spezialfall w = 0 eindeutig ist : in diesem Fall ist ni=k+1 ri~vi in Kern φ, ist also auch Linearkombination Pk vi , und da ~v1 , . . . , ~vn unabhängig ist, sind alle ri , si Null. i=1 si~ Korollar 15.10 Ein Endomorphismus eines endlichdimensionalen Vektorraums V ist genau dann injektiv, wenn er surjektiv ist. Korollar 15.11 Für A ∈ K n×n sind äquivalent (i) A ist invertierbar (ii) Es gibt B ∈ K n×n mit BA = E (iii) Es gibt C ∈ K n×n mit AC = E Beweis. Sei φx = Ax der durch A definierte Endomorphismus von K n . Wir zeigen, dass (ii) die Injektivität, (iii) die Surjektivität von φ impliziert und verweisen auf das vorige Korollar und den Abschnitt über Inverse. Gilt (ii) und Ax = Ay, so x = Ex = BAx = BAy = Ey = vy. Gilty, (iii), so ei = φ(ci ), also Bildφ = K n . 15.7 Transformation 15.7 93 Transformation Sind α, β Basen von V und γ, δ Basen von W so gilt δ φβ = δ Tγ γ φα α Tβ = γ Tδ−1 γ φα α Tβ und, falls V = W, α = γ, β = δ, β φβ = α Tβ−1 α φα α Tβ Beweis. δ φβ ~xβ = (φ(~x))δ = δ Tγ (φ(~x))γ = δ Tγ γ φα~xα = δ Tγ γ φα α Tβ ~xβ • Anwendung 1. Sei A0 bezüglich einer ‘günstigen’ Basis β bekannt. Man bestimme Matrix A von φ bzgl. der Ausgangs-Basis α. • Anwendung 2. Die Matrix A von φ bezüglich der Ausgangs-Basis α sei bekannt, sagt aber wenig über die Struktur. Man bestimme eine ‘günstige’ Basis β, sodass man der Matrix A0 von φ bzgl. β geometrische Eigenschaften von φ ansehen kann. Bzw. so, dass man das durch A0 gegebene, zu A gleichwertige, (Differential)Gleichungssystem lösen kann. Das ist das Thema der Eigenwerttheorie. • Warnung: Der Gauss-Algorithmus ist in diesem Zusammenhang wenig hilfreich. 15.8 Beispiele Wir geben im Folgenden Beispiele linearer Abbildungen φ0 : V → V 0 an, wobei V, V 0 Vektor-Raum bzw. Ebene der anschaulichen Geometrie sind. Sind P, P 0 die zugehörigen Punkträume und wählt man Ursprünge O bzw. O0 , so kann man der linearen Abbildung φ0 eine (affine) Abbildung zuordnen φ : P → P 0 . φ(~x + O) = φ0 (~x) + O0 Diese ist der Anschauuung meist besser zugänglich und wird dementsprechend illustrativ benannt. In Beispielen und Aufgaben wird die gemeinte lineare Abbildung φ0 häufig auf diese Weise (d.h. durch Hinweise auf das zugehörige φ) mitgeteilt und der Leser ist dann aufgefordert, die notwendige Präzisierung selbst zu leisten. In der Regel führt Identifikation von Punkten und Vektoren nach der Zauberformel “Ortsvektor” zu dem vom Aufgabensteller gewünschten Ergebnis. Eine präzise Behandlung der Zusammenhänge folgt im nächsten Kapitel. Ebenso die Rechtfertigung von Bezeichnungen wie Drehung, Spiegelung usw. sowie der Nachweis der Linearität der zugehörigen vektoriellen Abbildungen. Die Begriffe “Eigenraum” Eλ und “Eigenwert” (EV) werden in LAII behandelt. 1. Identische Abbildung φ = idP mit φ0 = idV , Matrix E, E1 = V . bijektiv 3. Punktspiegelung an O mit φ0 (~x) = −~x. Matrix −E, E−1 = V , bijektiv 4. Zentrische Streckung an O um r mit φ0 (~x) = r~x. Matrix rE, Er = V , bijektiv falls r 6= 0, sonst Bild= 0. 94 15 LINEARE ABBILDUNGEN 5. Parallelprojektion mit Kern K =Kernφ0 auf U + O mit U =Bildφ0 . E1 = U , E0 = K. Bijektiv nur für U = V . Matrix bzgl. Basis ~v1 , . . . , ~vn mit ~v1 , . . . , ~vr Basis von U und ~vr+1 , . . . , ~vn Basis von K. Er O O O Bei der Orthogonalprojektion ist K = {~x | ~x ⊥ U } und bzgl. ON-Basis gilt φ0 (~x) = r X h~vi | ~xi~vi i=1 Ist dabei U Hyperebene (r = n − 1) und ~n = ~vn Normalenvektor, so φ0 (~x) = ~x − 2h~n | ~xi~n 6. Spiegelung an Hyperebene U + O wie in 5. Achse=Normale. Bewegung. En−1 O φ0 (~x) = ~x − 2h~n | ~xi~n, Matrix , U = E1 , K~n = E−1 O −1 7. Drehung in der reellen Ebene mit Zentrum O um Winkel ω - gegen die Uhr. Bewegung. Bzgl. ON-Basis Matrix cos ω − sin ω sin ω cos ω Keine reellen EV, komplexe EV von Betrag 1 und Argument ±ω. 8. Drehung im reellen Raum mit Achse R~v1 + O um Winkel ω - positiv im Sinne der Rechten Hand. Bewegung. Bzgl. ON-Basis ~v1 , ~v2 , ~v3 Matrix 1 0 0 0 cos ω − sin ω , E1 = R~v1 , E−1 = E1⊥ ⇔ ω = π 0 sin ω cos ω 9. Drehspiegelung im reellen Raum mit Achse R~v1 + O um Winkel ω 6= π - positiv im Sinne der Rechten Hand. Bewegung. Bzgl. ON-Basis ~v1 , ~v2 , ~v3 Matrix −1 0 0 0 cos ω − sin ω , E−1 = R~v1 0 sin ω cos ω 10. Scherung in der Ebene längs der Achse K~v1 + 0. Matrix bzgl. Basis ~v1 , ~v2 1 r , E1 = K~v1 0 1 11. Zentralprojektion φ der Ebene U + O auf die parallele Ebene U + O0 des Raumes mit Zentrum Z 6∈ U + O ∪ U + O0 . Dabei ist φ(P ) der Schnittpunkt der Geraden durch P Z mit der Ebene U + O0 . Hier φ0 : U → U und mit Normalenvektor ~n von U s φ0 (~x) = ~x wobei r~n + Z ∈ U + O, s~n + Z ∈ U + O0 r 95 16 16.1 Affine Abbildungen Beispiele 2. Zu jedem Vektor ~v ist die Verschiebung oder Translation φ = τ~v eine affine Selbstabbildung P 7→ τ~v (P ) = ~v + P φ0 = idV . Sie ist durch das Bild eines einzigen Punktes eindeutig bestimmt: −−−−→ ~v = P φ(P ), τw~ ◦ τ~v = τw+~ ~ v, τ~v−1 = τ−~v 12. Gleitspiegelung: φ(~x + O) = σ(~x) + ~v + O wobei σ Spiegelung an U + O, ~v ∈ U . 13. Schraubung: φ(~x + O) = δ(~x) + ~v + O wobei δ Drehung (oder Drehspiegelung) mit Achse R~v + O. 16.2 Affine Abbildungen Gegeben seien affine Räume P und P 0 mit K-Vektorräumen V und V 0 . Eine Abbildung φ : P → P 0 heisst affin wenn gilt −−−−−−→ −−−−−−→ −→ −→ λ P Q = RS ⇒ λ φ(P )φ(Q) = φ(R)φ(S) für alle P, Q, R, S ∈ P, λ ∈ K Ist dabei P = P 0 , so sprechen wir von einer affinen Selbstabbildung. Die Hintereinanderausführung von affinen Abbildungen ist affin. Lemma 16.1 Sei dim V ≥ 2. Eine injektive affine Abbildung bildet Geraden auf Geraden ab und erhält Parallelität und Streckungsverhältnisse. Beweis. Sei φ affin. Sei g die Gerade durch P, Q und h die durch φ(P ), φ(Q). −−−−−−→ −−−−−−→ −→ −→ Liegt R auf g, so gibt es λ mit P R = λP Q, also φ(P )φ(R) = λφ(P )φ(Q) und somit φ(R) auf h. Andererseits lässt sich jeder Punkt auf h auf eindeutige Weise so darstellen. Also h = φ(g). Ist g 0 parallel zu g, wird g 0 von Punkten −→ −→ R, S mit RS = P Q aufgespannt, also φ(g 0 ) von φ(R), φ(S) und das ist parallel zu h. Satz 16.2 Sei O ∈ P fest. Es gibt eine umkehrbar eindeutige Entsprechung zwischen affinen Abbildungen φ : P → P 0 und linearen Abbildungen φ0 : V → V 0 so, dass φ0 (~x) + φ(O) = φ(~x + O), −−−−−−→ −→ d.h. φ0 (OP ) = φ(O)φ(P ) Die lineare Abbildung φ0 hängt nicht von der Wahl von O ab. 96 16 AFFINE ABBILDUNGEN Beweis. Sei φ gegeben. Nach dem Axiom (A2) des affinen Raums ist φ0 wohldefiniert und eindeutig bestimmt. Die Definition von affiner Abbildung ergibt sofort φ0 (r~x) = rφ0 (~x). Anderserseits werden Parallelogramme wieder auf Paralleogramme abgebildet, also das mit Seiten O, ~x + O und ~y + O, ~x + ~y + O, auf das mit Seiten φ(O), φ(~x + O) und φ(~y + O), φ(~x + ~y + O). Es folgt φ0 (~x + ~y ) + φ(O) = φ(~x + ~y + O) = φ0 (~x) + φ0 (~y ) + φ(O) also φ0 (~x + ~y ) = φ0 (~x) + φ0 (~y ). Nun φ(~x + Q) = φ(~x + ~v + O) = φ0 (~x + ~v ) + O = φ0 (~x) + φ0 (~v ) + O = φ0 (~x) + φ(~v + O) = φ0 (~x) + φ(Q) falls Q = ~v +O, was die Unabhängigkeit von der Wahl des Punktes O beweist. −→ −→ −→ Sei umgekehrt φ0 linear. Sei p~ = OP usw. und λ(~q −~p) = λP Q = RS = ~s −~r. Dann −−−−−−→ −−−−−−→ −−−−−−→ φ(R)φ(S) = φ(O)φ(S) − φ(O)φ(R) = φ0 (~s) − φ0 (~r) = φ0 (~s − ~r) −−−−−−→ = φ0 (λ(~q − p~)) = λφ0 (~q − p~) = λφ(P )φ(Q). Ist P = P 0 und O ein Fixpunkt von φ (d.h. φ(O) = O) und wählt man diesen als Ursprung, so wird bei der beliebten Identifikation von Punkten mit Ortsvektoren die affine Abbildung φ mit der linearen Abbildung φ0 identifiziert. Korollar 16.3 Die affinen Selbstabbildungen φ mit Fixpunkt O entsprechen umkehrbar eindeutig den linearen Abbildungen φ0 vermöge φ(~x+O) = φ0 (~x)+ O Korollar 16.4 Sei O fest. Jede affine Selbstabbildung lässt sich eindeutig als Hintereinanderausführung einer affinen Abbildung φO mit Fixpunkt O und einer Translation τ schreiben φ = τ ◦ φO , mit τ (O) = φ(O), φO = τ −1 ◦ φ Korollar 16.5 Eine affine Abbildung ist injektiv, surjektiv bzw. bijektiv genau dann, wenn es die zugehörige lineare Abbildung ist. 16.3 Matrixbeschreibung Sind α bzw. β Koordinatensysteme der affinen Räume P bzw. P 0 , so hat man für die affine Abbildung φ : P → P 0 die Koordinatenbeschreibung φ(P )β = φ(Oα )β + β φ0α P α 16.4 Affine Hyperbenenen 97 −−→ In der Tat: φ(P )β − φ(Oα )β = φ0 (Oα P )β . Hat man eine Selbstabbildung und α = β so heisst −−−−−−→ ~tα = Oα φ(Oα ) der zugehörige Translationsvektor und man hat φ(P )α = ~tα + φ0α P α Korollar 16.6 Seien P und P 0 affine Räume mit K-Vektorräumen V und −−→ −−→ V 0 . Seien O, P1 , . . . , Pn Punkte in P so, dass OP1 , . . . , OPn Basis von V ist (d.h. man hat Koordinatensystem von P. Seien O, P10 , . . . , Pn0 in P 0 . Dann gibt es eine eindeutig bestimmte affine Abbildung φ : P → P 0 mit φ(O) = O0 , φ(P1 ) = P10 , . . . , φ(Pn ) = Pn0 16.4 Affine Hyperbenenen Jeder affine Teilraum V 0 +P eines affinen Raumes (P + , V + ) ist auf natürliche Weise affiner Raum über dem Untervektorraum V 0 von V + . Ist dim V 0 = dim V + − 1, so ist H = V 0 + P eine (affine) Hyperebene in P + . Lemma 16.7 Ist H = V 0 + P eine Hyperebene und Z ein Punkt 6∈ H, so gibt es zu jedem Vektor ~x 6∈ V 0 einen eindeutig bestimmten Schnittpunkt S {S} = H ∩ K~x + Z und jedes S ∈ H tritt dabei auf. Beweis. Fügt man ~x zu einer Basis von V 0 hinzu, so erhält man eine dim V + elementige unabhängige Menge, also eine Basis von V + . Also kann man jeden Vektor von V + eindeutig als ~u + r~x mit ~u ∈ V 0 und r ∈ K darstellen. −→ Insbesondre ZP = ~u + r~x. Es folgt S = r~x + Z = −~u + P . Ist S ∈ H −→ gegeben, so setze ~x = ZS. Dann ~x 6∈ V 0 weil Z 6∈ H. . Zu gegebenem Körper K sind affine Räume gleicher Dimension isomorph, d.h. es gibt eine bijektive affine Abbildung φ : P → P 0 . Es gibt nämlich einen Isomorphismus φO : V → V 0 und man kann φ nach Wahl von O ∈ P und O0 ∈ P 0 durch φ(~x + O) = φ0 (~x) + O0 definieren. Korollar 16.8 Ein n-dimensionaler affiner Raum (P, V ) über K ist isomorph zu jeder (affinen) Hyperebene (H, V 0 ) eines n + 1-dimensionalen affinen Raums (P + , V + ) über K. In Folgenden sei jeweils ein solcher Isomorphismus ε : (P, V ) → (H, V 0 ) zugrundegelegt, sowie ein Punkt Z ∈ P + \ H. 98 16 AFFINE ABBILDUNGEN 16.5 Projektive Beschreibung von Hyperebenen Seo V + ein K-Vektorraum. Vektoren ~x, ~y ∈ V + \ {~0} heissen projektiv äquivalent, ~x ∼ ~y , falls ~y = r~x für ein r ∈ K Offensichtlich ist ∼ eine Äquivalenzrelation auf V + \ {~0}, d.h. es gilt • ~x ∼ ~x • Aus ~x ∼ ~y folgt ~y ∼ ~x • Aus ~x ∼ ~y und ~y ∼ ~z folgt ~x ∼ ~z. Lemma 16.9 Ist Z ein Punkt 6∈ H. so gibt es eine (eindeutig bestimmte) surjektive Abbildung −−−→ Π : V + \ V 0 → P, mit ~x ∼ Z εΠ~x und es gilt Π(~x) = Π(~y ) ⇔ K~x + Z = K~y + Z ⇔ ~x ∼ ~y Π ist die Zentralprojektion von V + \ V 0 auf P (via ε) mit Zentrum Z. Beweis. Die Gerade K~x + Z ist nicht parallel zu H, hat also nach Lemma 16.7 einen eindeutig bestimmten Schnittpunkt εP = r~x + Z und wir setzen Π(~x) = P . Surjektivität nach Lemm 16.7. . 16.6 Homogene Koordinaten Sei ein Koordinatensystem α des affinen Rasumes (P, V ) gegeben, d.h ein Urspung Oα inP und eine Basis α : ~e1 , . . . , ~en von V . Sei ~e 01 , . . . , ~e 0n die via ε −−−→ entsprechende Basis von V 0 . Diese wird durch ~e 00 = Z εOα zu einer Basis α̃ von V + ergänzt. Korollar 16.10 Für Punkte P ∈ P und Vektoren ~x ∈ V + \ V 0 gilt 1 α̃ P = Π~x ⇔ pi = xi /x0 für i = 1, . . . , n ⇔ ~x ∼ Pα wobei x0 6= 0 x0 p1 n x1 X 1 .. 0 α α̃ P = . , ~x = .. , εP = ~x + Z = ~e 0 + pi~e 0i + Z x0 . i=1 pn xn Die Koordinatenspalten ~xα̃ heissen dann homogene Koordinaten von P bzgl. α und sind bis auf einen Skalierungsfaktor r 6= 0 eindeutig bestimmt. Man hat also eine umkehrbar eindeutige Entsprechung zwischen dem Punkten von P und ihren homogenen Koordinatenspalten modulo projektiver Äquivalenz - wir notieren das als P̃ α . 16.7 Transformation 16.7 99 Transformation Sei nun ein weiteres Koordinatensystem β von (P, V ) gegeben, d.h. Urspung Oβ ∈ P und Basis ~v1 , . . . , ~vn von V . Insbesondere haben wir die Transformationsmatrix α Tβ und −−−→α α α v β = (Oβ ) = Oα Oβ Sei β̃ die zu β gehörige Basis ~v 00 , ~v 01 , . . . , ~v 0n von V + , insbesdonere ~v 00 = −−−→ Z εOβ . Lemma 16.11 Für alle P ∈ P gilt α P̃ = αT̃β P̃ 0∗ α Tβ β mit αT̃β = 1 αvβ −−−→ Beweis. Sei ~x = Z εP . Dann sind ~xα̃ bzw. ~xβ̃ homogene Koordinatenspalten von P bzgl. α bzw. β und 1 1 1 β̃ x = αT̃β = = = ~xα̃ αT̃β ~ β α v + T P Pβ P α β α β Korollar 16.12 βT̃α 16.8 −1 = (α T̃β ) = 1 − α Tβ−1 α v β 0∗ −1 α Tβ = 1 − β Tα α v β 0∗ β Tα Homogene Beschreibung affiner Abbildungen Sei nun die affine Abbildung bzgl. eines Koordinatensytems al von (P, V ) beschrieben als y = φ(P )α = t + Ax, x = P α Dann können wir dieselbe Abbildung in homogenen Koordinaten beschreiben durch ∗ α 1 0 α ]) = φ̃α P̃ φ(P mit φ̃α = t A und umgekehrt definiert jede 3-dimensionalen Fall ỹ0 1 ỹ1 t1 ỹ = ỹ2 = t2 ỹ3 t3 solche Beschreibung eine affine Abbildung. Im 0 0 0 x̃0 a11 a12 a13 x̃1 1 0 = x̃ a21 a22 a23 x̃2 t A a31 a32 a33 x̃3 Exakt diesselben (simplen) Rechnungen wie im Falle linearer Abbildungen liefern die Matrixbeschreibungen von Inverser, Komposition bzw. Basistransformation in vollständiger Analogie −1 1 0∗ 1 t∗ −1 −1 g • φ α = (φ̃α ) , = t A −A−1 t A−1 100 17 EUKLIDISCHE RÄUME • ψ] ◦ φα = ψ̃α · φ̃α , 1 0∗ 1 0∗ 1 0∗ · = s B t A s + Bt BA • φ̃α = αT̃β · φ̃β ·β T̃α , −1 1 0∗ 1 0∗ 1 0∗ 1 0∗ · · = A = SA0 S −1 v S t; A0 v S St0 + v − Av) A 17 17.1 Euklidische Räume Euklidische Vektorräume Ein euklidischer Vektorraum ist ein R-Vektorraum mit einem Skalarprodukt h | i, das den Regeln (E1-E4) genügt. Länge, Orthogonalität und ON-Basis werden wir Kap.3 definiert und es gelten die entsprechenden Ausssagen wir haben dort ja auch nur mit den Axiomen argumentiert!. Rn wird zum euklidischen Vektorraum mit dem (kanonischen) Skalarprodukt hx | yi = n X xi y i i=1 17.2 Orthonormalsysteme Ein System ~v1 , . . . , ~vm von Vektoren ist orthogonal, falls ~vi ⊥ ~vj für alle i < j, und orthonormal, falls auch |~vi | = 1 für alle i. Für ein Orthonormalsystem gilt ~x = x1~v1 + . . . + xm~vm ⇒ xi = h~vi | ~xi also ist es insbesondere unabhängig und damit Orthonormalbasis , kurz ONBasis, des von ihm erzeugten Untervektorraums. Ist ~e1 , . . . , ~en eine ON-Basis von V , so berechnet sich auch das skalare Produkt aus den Koordinaten : hx1~e1 + . . . + xn~en | y1~e1 + . . . + yn~en i = x1 y1 + . . . + xn yn P P P P P P Beweis. h x ~ e | y ~ e i = hx ~ e | y ~ e i = ei | yj ~ej i i i j j i i j j i j i j i j hxi~ P P P = i j xi yj h~ei | ~ej i = i xi yj . Es folgt h~x | ~y i = n X h~ei | ~xi · h~ei | ~y i = i=1 n X h~ei | ~y i · h~x | ~ei i P arseval i=1 2 |~x| = n X i=1 |h~ei | ~xi|2 P lancherel 17.3 Orthonormalisierung 17.3 101 Orthonormalisierung Bilden w ~ 1, . . . , w ~ m ein ON-System, so erhält man zu jedem ~x einen auf den w ~ 1, . . . , w ~ m senkrechten Vektor, d.h. ein Lot auf den von diesen ausgespannten Untervektorraum W , durch ~y = ~x − m X , hw ~ i | ~xiw ~ i 6= ~0 falls ~x 6∈ W i=1 P In der Tat hw ~ j | ~y i = hw ~ j | ~xi− m ~ i | ~xihw ~i | w ~ i i = hw ~ j | ~xi−hw ~ j | ~xi·1 = 0. i=1 hw Dies liefert ein Verfahren (Gram-Schmidt) um aus einem Erzeugendensystem ~v1 , . . . , ~vn eines Untervektorraums U von V eine Orthonormalbasis w ~ 1, . . . , w ~ d von U herzuleiten: I Bestimme k minimal mit ~vk 6= 0. Setze dk = 1 und w ~ 1 := 1 ~v . |~vk | k 0 I ~vk+1 = ~vk+1 − (hw ~ 1 | ~vk+1 iw ~ 1 + . . . + hw ~ dk | ~vk+1 iw ~ dk ), 0 I Falls ~vk+1 6= ~0, so dk+1 := dk + 1 und w ~ dk+1 := ~v k+1 := 1 ~v 0 0 |~vk+1 | k+1 I Sonst dk+1 := dk und ~v k+1 := ~0 I w ~ 1, . . . , w ~ d mit d = dn ist ON-Basis von Spann{~vi | 1 ≤ i ≤ n} Man erhält Korollar 17.1 Jeder Untervektorraum U eines endlichdimensionalen euklidischen Raums V hat eine ON-Basis. 17.4 Orthogonale Transformationsmatrizen Bezüglich zweier Basen α und β der Ebene bzw. des Raumes hatten wir die Transformationsmatrix α Tβ definiert durch ~v α = α Tβ ~v β für alle ~v Die Transformationsmatrix ist dadurch eindeutig bestimmt: wir erhalten ihre Spalten als α Tβ ej indem wir für ~v die Vektoren aus β einsetzen. Für die Transformation in der umgekehrten Richtung gilt per definitionem ~v β = β Tα~v α für alle ~v also haben wir nach Lemma 14.1 β Tα = α Tβ−1 Eine reelle Matrix A heisst orthogonal, wenn At A = E, d.h. mit Satz ?? At = A−1 . Satz 17.2 Ist α Orthonormalbasis der Ebene bzw. des Raumes, so ist die Transformationsmatrix α Tβ genau dann orthogonal, wenn β ebenfalls Orthonormalbasis ist 102 17 EUKLIDISCHE RÄUME Beweis. Sind die f~j die Vektoren von β und berechnet man das Skalarprodukt in den Koordinaten bzgl. α, so t α Tβ α Tβ = (hf~i | f~j i)1≤i,j≤n Und β ist Orthonormalbasis genau dann, wenn letztere Matrix E ist. 17.5 Orthogonale Projektion Lemma 17.3 Zu jedem endlichdimensionalen Untervektorraum U eines unitären bzw. euklidischen Vektorraums V gibt es eine eindeutig bestimmte lineare Abbildung πU mit (1) πU (~x) ∈ U, ~x ∈ U ⇒ πU (~x) = ~x, πU (~x) = ~0 ⇔ ~x ∈ U ⊥ Für jede ON-Basis ~v1 , . . . , ~vm von U gilt (2) πU (~x) = h~v1 | ~xi~v1 + . . . + h~vm | ~xi~vm . Weiterhin für alle ~x ∈ V (3) ~x − πU (~x) ∈ U ⊥ und |~x − πU (~x)| = min |~x − ~u|. ~ u∈U • Sind die Spalten von U die Koordinaten einer ON-Basis von U bzgl, einer ON-Basis α von V , so hat πU bzgl, α die Matrix (πU )α = QQt Die Abbildung πU heisst die Orthogonalprojektion von V auf U . Beweis. Nach Gram-Schmidt hat U mindestens eine ON-Basis. Definiert man πU nach (2) so ist die Linearität klar und es gilt (1). Nämlich πU (~x) = ~0 genau dann, wenn h~vi | ~xi = 0 für i = 1, . . . , m genau dann, wenn ~x ∈ U ⊥ . Sei nun πU mit (1) gegeben. Dann πU (~x −πU (~x)) = πU (~x)−πU (πU (~x)) = ~0 also ~x − πU (~x) ∈ U ⊥ . Ist nun ~u ∈ U so πU (~x) − ~u ∈ U und nach Pythagoras |~x − πU (~x)|2 ≤ |~x − πU (~x)|2 + |πU (~x) − ~u|2 = |(~x − πU (~x)) + (πU (~x) − ~u)|2 = |~x − ~u|2 . P Indem man πU durch (2) definiert folgt: ~x − i h~vi | ~xi~vi ∈ U ⊥ . Die Linearität ergibt für jedes πU mit (1), dass (und somit (2) und Eindeutigkeit) X X X ~0 = πU (~x − h~vi | ~xi~vi ) = πU (~x) − h~vi | ~xiπU (~vi ) = πU (~x) − h~vi | ~xi~vi i i i Wähle nun ON-Basis ~v1 , . . . , ~vk von U und Q mit den Koordinatenspalten der ~vi . Dann gilt für die Matrix P von π pij = h~ei | π(~ej )i = h~ei | k X h=1 h~vh | ~ej i~vh i = k X h=1 ∗ h~ei | ~vh i · h~ej | ~vh i = k X h=1 qih · q jh 17.6 Metrischer affiner Raum 17.6 103 Metrischer affiner Raum Hat man einen affinen Raum mit Punktmenge P und euklidischem Vektorraum V (wir sprechen auch von einem euklidischen affinen Raum), so kann man den Abstand zwischen zwei Punkten so definieren −→ d(P, Q) = |P Q| = |P Q| Damit wird P zum metrischen Raum - es gilt d(P, Q) = d(Q, P ) ∈ R≥0 , d(P, Q) = 0 ⇔ P = Q d(P, R) ≤ d(P, Q) + d(Q, R) Aber: Es gibt auch andere Metriken auf affinen Räumen, z.B. die 1-Metrik P −→α d(P, Q) = i |xi | mit x = P Q bzgl. eine Basis α - für die reelle Ebene ist das die “Taximetrik” in einer Stadt mit Strassennetz bestehend aus 2 Parallelscharen. 18 18.1 Bewegungen Bewegungen und orthogonale Abbildungen Eine Bewegung ist eine abstandserhaltende Abbildung φ : P → P eines euklidischen affinen Raums in sich |φ(P )φ(Q)| = |P Q| für alle P, Q ∈ P Lemma 18.1 Jede Bewegung ist eine affine Abbildung. Die Hintereinanderausführung von Bewegungen ist Bewegung. Translationen sind Bewegungen. −→ −→ Beweis. Die Gleichung λP Q = RS kann äquivalent durch eine Bedingung an λ und die Abstände der Punkte P, Q, R, S ersetzt werden. Lemma 18.2 Jede Bewegung ist eine affine Abbildung. −→ −→ Beweis. Es ist zu zeigen, dass eine Beziehung RS = λP Q durch Abstände −−→ −→ ausgedrückt werden kann. Bestimme dazu Q0 mit P Q0 = λP Q. Dies bedeutet • |P Q0 | = |P Q| + |QQ0 | im Falle λ ≥ 1 • |P Q| = |P Q0 | + |Q0 Q| im Falle 0 ≤ λ ≤ 1 • |QQ0 | = |Q0 P | + |P Q| im Falle λ ≤ 0 Dass P Q0 RS ein Parallelogramm bilden, bedeutet, dass sich die Daigonalen halbieren, d.h. dass es einen Punkt X gibt, mit |P S| = 2|P X| = 2|XS| und |QR| = 2|QX| = 2|XR|. Diese Beziehungen übertragen sich aich die Bilder −−−→ −−−−→ unter der Bewegung φ, Somit φRφS = λφP φQ. Ein Endomorphismus φ eines euklidischen Vektorraumes V ist eine orthogonale Abbildung, wenn eine der folgenden äquivalenten Aussagen gilt (die Äquivalenz ergibt sich daraus, dass die Länge aus dem Skalarprodukt definiert werden kann und umgekehrt - h~x | ~y i = 21 (|~x + ~y |2 − |~x|2 − |~y |2 ) 104 18 BEWEGUNGEN • hφ(~x) | φ(~y )i = h~x | ~y i für alle ~x, ~y ∈ V • |φ(~x)| = |~x| für alle ~x ∈ V Korollar 18.3 Eine affine Selbstabbildung φ eines euklidischen affinen Raumes ist genau dann eine Bewegung, wenn die zugehörige lineare Abbildung φ0 orthogonal ist. −−−−−−−−−→ −−−−−→ Beweis. |~x| = |O, ~x + O|, |φ0 (~x)| = |φ(O)φ(~x + O)| und die Behauptung ist klar. Beispiele von Bewegungen mit Fixpunkt O sind in der Ebene Drehungen und (senkrechte) Spiegelungen an einer Geraden, im Raum Drehungen, Spiegelungen und Drehspiegelungen. Wir werden später zeigen, dass damit alle Fälle erfasst sind. 18.2 Matrixbeschreibung Für einen Endomorphismus φ eines endlichdimensionalen euklidischen Raumes sind äquivalent (1) φ ist orthogonal (2) Das Bild einer/jeder ON-Basis ist ON-Basis (3) Bzgl. eines/jedes Paares von ON-Basen ist α φβ orthogonal Beweis.1 ⇒ 2 ist trivial. 2 ⇒ 3. Die Spalten der Matrix β φα von φ bzgl. der ON-Basen α, β sind die Koordinaten der Bilder φ(~ej ) der ON-Basis α : ~e1 , . . . , ~en also orthonormal, da die φ(~ej ) eine ON-Basis bilden. Also ist β φα orthogonal. 3 ⇒ 1. Sei A = β φα orthogonal. Dann hφ(~x) | φ(~y )i = (φ(~x)β )∗ φ(~y )β = (A~xα )∗ A~y α = (~xα )∗ A∗ A~y α = (~xα )∗ E~y α = h~x | ~y i Korollar 18.4 Eine orthogonale Abbildung ist durch die Bilder von dim V − 1 unabhängigen Vektoren schon zweideutig bestimmt - eindeutig bei Vorgabe der Orientierung. 18.3 Determinante Sei eine ON-Basis α : ~e1 , ~e2 , ~e3 des Raumes gewählt. Für eine reelle 3 × 3Matrix A definieren wir det A = det(~a1 , ~a2 , ~a3 ) mit ~aj = a1j ~e1 + a2j ~e2 + a3j ~e3 d.h. in den Spalten der Matrix A stehen die Koordinaten der ~aj A = (~aα1 ~aα3 ~aα3 ) Dann gilt Satz 18.5 det(AB) = det A det B. det A = ±1 falls A orthogonal. 18.4 Ebene orthogonale Abbildungen 105 Beweis. Sei A fest, B variabel. Die Abbildung b 7→ Ab ist linear, d.h. sie erfüllt (M1) und (M2). Also erfüllen beide Abbildungen (~b1 , ~b2 .~b3 ) 7→ det AB und (~b1 , ~b2 .~b3 ) 7→ det A · det B wobei ~bj = b1j ~e1 + b2j ~e2 + b3j ~e3 die Bedingungen (D1-3) und (~e1 , ~e2 , ~e3 ) 7→ det A. Daher stimmen sie überein. Die zweite Behauptung folgt daraus. dass in diesem Falle ~a1 , ~a2 , ~a3 ON-Basis ist. Wir vermerken die wichtigen Spezialfälle Korollar 18.6 det(rA) = rn det A, det A−1 = 1 , det(S −1 AS) = det(A). det A Insbesondere folgt die Unabhägigkeit von der Wahl der ON-Basis: Bezüglich einer weiteren ON-Basis β haben wir det(~aβ1 , ~aβ2 , ~aβ3 ) = det( β Tα~aα1 , β Tα~aα2 , β Tα~aα2 ) = det β Tα A = det β Tα det A = det A Für 2 × 2 Matrizen geht alles entsprechend einfacher. Korollar 18.7 Für einen Endomorphismus φ des Raumes bzw. der Ebene hängt det φα nicht von der Basis α ab. Wir definieren dies als die Determiante det φ der Abbildung. Die anschauliche Bedeutung in der Ebene ist die Fläche der Bildes des Einheitsquadrats, in Raum das Volumen des Bildes dees Einheitswürfels. Die Determinate ist somit der “Vergrößerungsfaktor”. Beweis. Transformationsformel und Kor.18.6. Korollar 18.8 Eine affine Abbildung ist entweder orientierungserhaltend oder orientierungsumkehrend. Eine orthogonale Abbildung φ hat det φ = ±1 18.4 Ebene orthogonale Abbildungen Satz 18.9 Eine orthogonale Abbildung φ in der Ebene ist entweder Drehung (falls det φ = 1) oder Spiegelung an einer Geraden (falls det φ = −1). Beweis. Wir benutzen wieder mal Ortsvektoren und legen eine positiv orientierte ON-Basis ~e1 , ~e2 fest. Das Bild ~b1 , ~b2 ist wieder eine ON-Basis und positiv orientiert, falls det φ = 1. Die Koordinaten der Bilder der Basisvektoren bestimmen sich dann laut Drehmatrix. Ist det φ = −1, so ist ~b1 , ~b2 negativ orientiert und somit (∗) ∠~e1 , ~b2 = ∠~e1 , ~b1 − 90o = ∠~e2 , ~b1 Andererseits |~b1 −~e2 | = |φ(~b1 )−~b2 |, also φ(~b1 ) = ~e1 . Entsprechend φ(~b2 ) = ~e2 . Wegen (*) ist die Winkelhalhierende g zu ~e1 , ~b1 auch die zu ~b2 , ~e2 und es handlelt sich somit um die Spieglung an g - weils für die Basis stimmt. 106 18.5 18 BEWEGUNGEN Orthogonale Abbildungen im Raum Satz 18.10 Sei φ eine orthogonale Abbildung eines 3-dimensionalen euklidischen Raums und A = φα bzgl. einer Basis α. Dann det A = ±1 und es gibt es eine ON-Basis β : w ~ 1, w ~ 2, w ~ 3 mit det A 0 0 cos ω − sin ω φβ = 0 0 sin ω cos ω Jenachdem ob det A = 1 oder −1 handelt es sich um Drehung bzw. Drehspiegelung mit Winkel ω und Achse w ~ 1 . Ist α-ON-Basis, so ist A orthogonal, Korollar 18.11 (Euler) Eine Bewegung mit Fixpunkt ist Drehung oder Drehspiegelung. Korollar 18.12 Die Inversen von Drehungen sind Drehungen, von Drehspiegelungen sind Drehspiegelungen. Die Hintereinanderausführung zweier Drehungen bzw. zweier Drehspiegelungen ist eine Drehung Lemma 18.13 Zu jeder orthogonalen Abbildung φ0 des Raumes gibt es einen Vektor w ~ 6= ~0 mit φ0 (w) ~ = ±w. ~ Beweis. Wir dürfen det φ0 = 1 annehmen - sonst betrachten wir −φ0 . Sei φ die zugehörige affine Abbildung mit Fixpunkt O. Wir wählen einen Punkt A 6= O. Ist φ(A) = A, sind wir fertig. Andernfalls setzen wir B = φ(A), C = φ(B) = φ(φ(A)) Insbesondere gilt B 6= C und |OA| = |OB| = |OC| Sei zunächst A 6= C angenommen. Seien E1 und E2 die Mittelebenen senkrecht auf der Strecke AB bzw. BC Ei = {P | |P A| = |P B|}, E2 = {P | |P B| = |P C|} = φ(E1 ) Beide enthalten O, haben also eine Schnittgerade g. Sei nun P ein Punkt von g. Dann folgt nach Definition von E1 |P A| = |P B| = |P C| Aus P ∈ E1 , folgt φ(P ) ∈ E2 und somit |φ(P )B| = |φ(P )C| Schliesslich |φ(P )B| = |φ(P )φ(A)| = |P A| und es folgt die Gleichheit aller dieser Strecken, insbesondere |P B| = |φ(P )B|, |P C| = |φ(P )C| 18.6 Eulersche Winkel 107 Weil O Fixpunkt ist, gilt auch |P O| = |φ(P )O| d.h. P und φ(P ) haben von den drei Punkten O, B, C jeweils denselben Abstand - und diese liegen nicht auf einer Geraden weil |OB| = |OC|. Da die Orientierung erhalten bleibt, folgt φ(P ) = P . Es bleibt der Fall, dass φ(φ(A)) = A also φ0 (φ0 (~a)) = ~a für ein ~a 6= ~0. Dann φ(w) ~ =w ~ für w ~ = ~a + φ0 (~a). Beweis des Satzes. Sei w ~ 1 normierter Vektor mit φ(w ~ 1 ) = ±w ~ 1 und ergänze zu ON-Basis β : w ~ 1, w ~ 2, w ~ 3 . Es gilt für i = 2, 3, dass hφw ~i | w ~ 1i = ±hφw ~ i | φw ~ 1 i = ±hw ~i | w ~ 1 i = 0. Also hat φ bzgl. β die orthogonale Matrix ±1 0 0 A0 = 0 b11 b12 . 0 b21 b22 Insbesondere ist B = (bij ) orthogonale 2 × 2-Matrix, Ist det B = 1, so B Drehmatrix und φ Drehung bzw. Drehspiegelung mit demselben Winkel. An~ 30 so, dernfalls beschreibt B eine Spieglung. Also gibt es ON-Basis w ~ 1, w ~ 20 , w dass φ die folgende Matrix hat −1 0 0 0 1 0 . 0 0 −1 Durch Vertauschen ergibt sich die gewünschte Form mit ω = π. 18.6 Eulersche Winkel Satz 18.14 Zu zwei gegebenen aufeinander senkrechten Achsenrichtungen ~a und ~b im Raum lässt sich jede Drehung in der Form φ = φ3 ◦φ2 ◦φ1 schreiben, wobei φ1 , φ3 Drehungen um ~a und φ2 Drehung um ~b. Beweis. Es genügt zu positiv orientierten ON-Basen ~ei und f~i Drehungen φ1 , φ3 um ~e1 und φ2 um ~e2 so anzugeben, dass φ(f~i ) = ~ei für φ = φ3 ◦ φ2 ◦ φ1 . Dazu wähle φ1 so, dass φ1 (f~)1 ∈ R~e1 + R~e3 . und φ2 so, dass φ2 (φ1 (f~1 )) = ~e1 . Nun bilden ~e1 , φ2 (φ1 (f~2 )), φ2 (φ1 (f~3 )) eine positiv orientierte ON-Basis und diese kann durch φ3 in ~e1 , ~e2 , ~e3 überführt werden. Hat man Drehungen φ1 , φ3 um ~e3 mit Winkeln ψ und ω und φ2 um ~e1 mit Winkel θ so erhält man bzgl. dieser Basis die Matrix cos ω cos ψ − sin ω sin ψ cos θ − sin ω cos ψ − cos ω sin ψ cos θ sin ψ sin θ cos ω sin ψ + sin ω cos ψ cos θ − sin ω sin ψ + cos ω cos ψ cos θ − cos ψ sin θ sin ω sin θ cos ω sin θ cos θ Hierbei ist φ1 die Drehung um ~e3 mit Winkel ω, φ2 die Drehung um ~e1 mit Winkel θ und φ3 die Drehung um ~e3 mit Winkel ψ. Dieselbe Drehung (mit derselben Matrix) kann man aber auch als Hintereinanderausführung χ3 ◦ χ2 ◦ χ1 von 3 Drehungen um zwei der (mitbewegten) Achsen a1 , a3 eines Körpers sehen: 108 18 BEWEGUNGEN • a3 liegt in Richtung ~e3 und χ1 ist die Drehung um a3 mit Winkel ψ • a1 liegt nun in Richtung von χ1 (~e1 ) und χ2 ist die Drehung um a1 mit Winkel θ • a3 liegt nun in Richtung von χ2 χ1 (~e3 ) und χ3 ist die Drehung um a3 mit Winkel ω Das folgt sofort aus folgendem Lemma 18.15 Sind bzgl. einer ON-Basis A und B die Matrizen der Drehungen φ bzw. χ um die Achse ~a bzw. ~b mit Winkel ω bzw. θ, so ist AB die Matrix von ρ ◦ φ, wobei ρ die Drehung um φ(~b) mit Winkel θ ist. Beweis. Die ON-Basis sei ~ei . Die Matrix von ρ bzgl. der Basis φ(~ei ) ist B, da φ(~b) bzgl. dieser Basis dieselben Koordinaten hat wie ~b bzgl, ~ei . Die Matrix A ist auch die Matrix der Basistransformation von der neuen Basis φ(~ei ) zurück zur alten Basis ~ei . Somit hat ρ bzgl. der alten Basis die Matrix ABA−1 und ρ ◦ φ die Matrix ABA−1 A = AB. . INHALTSVERZEICHNIS 109 Inhaltsverzeichnis 1 Bedeutung von Formeln und Aussagen 1.1 Strukturen . . . . . . . . . . . . . . . . 1.2 Atomare Formeln . . . . . . . . . . . . 1.3 Bedeutung atomarer Formeln . . . . . 1.4 Konjunktion . . . . . . . . . . . . . . . 1.5 Negation . . . . . . . . . . . . . . . . . 1.6 Disjunktion . . . . . . . . . . . . . . . 1.7 Existenzquantor . . . . . . . . . . . . . 1.8 Allquantor . . . . . . . . . . . . . . . . 1.9 Klammereinsparung . . . . . . . . . . . 1.10 Äquivalenz von Formeln . . . . . . . . 1.11 Aussagen . . . . . . . . . . . . . . . . 1.12 Gleichungen . . . . . . . . . . . . . . . 1.13 Axiomatische Methode . . . . . . . . . 2 Logisches Schließen 2.1 Substitution . . . . . . . . . . . . . 2.2 Generalisierung . . . . . . . . . . . 2.3 Substitutionsregel . . . . . . . . . . 2.4 Identitätsregeln . . . . . . . . . . . 2.5 Konjunktionsregeln . . . . . . . . . 2.6 Implikationen . . . . . . . . . . . . 2.7 Rechnen in kommutativen Gruppen 2.8 Äquivalenzbeweise . . . . . . . . . 2.9 Disjunktion und Fallunterscheidung 2.10 Existenzbeweise . . . . . . . . . . . 2.11 Negationsregeln und Widerlegung . 2.12 Indirekter Beweis . . . . . . . . . . 2.13 Logische Äquivalenzen . . . . . . . 2.14 Beschränkte Quantoren . . . . . . . 2.15 Affine Inzidenzebene . . . . . . . . 3 Reelle Zahlen und Vektoren 3.1 Pfeile . . . . . . . . . . . . . . . . 3.2 Vektoren . . . . . . . . . . . . . . 3.3 Vektoraddition . . . . . . . . . . 3.4 Natürliche Zahlen . . . . . . . . . 3.5 Ganze Zahlen . . . . . . . . . . . 3.6 Rationale Zahlen . . . . . . . . . 3.7 Rationale Vielfache von Vektoren 3.9 Körper . . . . . . . . . . . . . . . 3.10 Reelle Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . und Ringen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 2 3 4 5 5 6 6 7 7 8 9 . . . . . . . . . . . . . . . 9 9 10 11 11 12 13 14 17 19 19 20 21 25 25 26 . . . . . . . . . 25 25 26 27 28 29 30 30 33 33 110 INHALTSVERZEICHNIS 4 Geraden, Ebenen, Koordinaten 4.1 Geraden und Ebenen . . . . . . . . . . . . . . . 4.2 Ortsvektoren . . . . . . . . . . . . . . . . . . . 4.3 Vektor-Koordinaten in der Ebene . . . . . . . . 4.4 Unabhängigkeit . . . . . . . . . . . . . . . . . . 4.5 Vektor-Koordinaten im Raum . . . . . . . . . . 4.6 Punkt-Koordinaten . . . . . . . . . . . . . . . . 4.7 Koordinatentransformation in der Ebene . . . . 4.8 Punktkoordinaten-Transformation in der Ebene 4.9 Koordinatentransformation im Raum . . . . . . 4.10 Strahlensatz und Distributivgesetz . . . . . . . 4.11 Resumee . . . . . . . . . . . . . . . . . . . . . . 5 Skalarprodukt 5.1 Richtungskomponenten . . . . . . . . . . . . 5.2 Skalares Produkt . . . . . . . . . . . . . . . 5.3 Ungleichungen . . . . . . . . . . . . . . . . . 5.4 Orthonormalbasen . . . . . . . . . . . . . . 5.5 Normalenvektoren von Geraden bzw. Ebenen 6 Determinanten in Ebene und Raum 6.1 Orientierung . . . . . . . . . . . . . 6.2 Flächen . . . . . . . . . . . . . . . 6.3 Vektorprodukt . . . . . . . . . . . . 6.4 Grassmannscher Entwicklungssatz . 6.5 Volumen . . . . . . . . . . . . . . . 6.6 Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 34 35 35 36 38 38 39 40 40 41 42 . . . . . 42 42 44 45 46 48 . . . . . . 48 48 49 50 51 52 53 7 Komplexe Zahlen 54 7.1 Polynome und Nullstellen . . . . . . . . . . . . . . . . . . . . 54 7.2 Zahlenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 7 Komplexe Zahlen 56 7.3 Polarkoordinaten und Kreisteilung . . . . . . . . . . . . . . . 57 7.4 Fundamentalsatz . . . . . . . . . . . . . . . . . . . . . . . . . 57 8 Arithmetik 8.1 Rekursive Definition . . . 8.2 Ordnungsinduktion . . . . 8.3 Teilbarkeit . . . . . . . . . 8.4 Diophantische Gleichungen 8.5 Modulare Arithmetik . . . 8.6 Faktorstrukturen . . . . . . . . . . . 58 58 58 59 61 62 63 9 Äquivalenzrelationen. 9.1 Definition und Beispiele. . . . . . . . . . . . . . . . . . . . . . 9.2 Klasseneinteilung . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Repräsentanten . . . . . . . . . . . . . . . . . . . . . . . . . . 65 65 66 67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . INHALTSVERZEICHNIS 9.4 9.5 111 Abstraktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 Ergänzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 10 Vektorräume und Unterräume 10.1 Spalten und Zeilen . . . . . . 10.2 Vektorräume . . . . . . . . . . 10.3 Rechenregeln . . . . . . . . . 10.4 Funktionenraum . . . . . . . . 10.5 Untervektorräume . . . . . . . 10.6 Erzeugnis . . . . . . . . . . . 10.7 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Basen und Dimension 11.1 Erzeugende und unabhängige Mengen 11.2 Austausch . . . . . . . . . . . . . . . 11.3 Basisergänzung . . . . . . . . . . . . 11.4 Basen . . . . . . . . . . . . . . . . . 11.5 Dimension . . . . . . . . . . . . . . . 11.6 Abzählbare Dimension . . . . . . . . 12 Basis-Algorithmen für Vektorräume 12.1 Unabhängigkeit in Vektorräumen . 12.2 Matrizen . . . . . . . . . . . . . . . 12.3 Umformungen . . . . . . . . . . . . 12.4 Basisauswahl . . . . . . . . . . . . 12.5 Basisergämnzung . . . . . . . . . . 12.6 Beispiel . . . . . . . . . . . . . . . 13 Koordinaten, affine Räume 13.1 Koordinaten . . . . . . . . . . . . 13.2 Affine Räume . . . . . . . . . . . 13.3 Affine Teilräume . . . . . . . . . 13.4 Affine Struktur eines Vektorraums 13.5 Affine Koordinaten . . . . . . . . 14 Matrizenrechnung 14.1 Summe . . . . . . . . . . . . . . . 14.2 Matrix mal Spalte . . . . . . . . . 14.3 Matrizenprodukt . . . . . . . . . 14.4 Gesetze . . . . . . . . . . . . . . 14.5 Inverse Matrix . . . . . . . . . . . 14.6 Transponierte Matrix . . . . . . . 14.7 Koordinatentransformation . . . . 14.8 Affine Koordinatentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 69 70 71 71 72 72 73 . . . . . . 74 74 74 75 75 76 77 . . . . . . 77 77 78 79 80 80 81 . . . . . 82 82 82 83 83 84 . . . . . . . . 85 85 85 85 86 86 87 87 88 112 15 Lineare Abbildungen 15.1 Lineare Abbildung 15.2 Isomorphie . . . . . 15.3 Matrixbeschreibung 15.4 Komposition . . . . 15.5 Inverse . . . . . . . 15.6 Kern und Bild . . . 15.7 Transformation . . 15.8 Beispiele . . . . . . INHALTSVERZEICHNIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Affine Abbildungen 16.1 Beispiele . . . . . . . . . . . . . . . . . . . . 16.2 Affine Abbildungen . . . . . . . . . . . . . . 16.3 Matrixbeschreibung . . . . . . . . . . . . . . 16.4 Affine Hyperbenenen . . . . . . . . . . . . . 16.5 Projektive Beschreibung von Hyperebenen . 16.6 Homogene Koordinaten . . . . . . . . . . . . 16.7 Transformation . . . . . . . . . . . . . . . . 16.8 Homogene Beschreibung affiner Abbildungen 17 Euklidische Räume 17.1 Euklidische Vektorräume . . . . . . . . 17.2 Orthonormalsysteme . . . . . . . . . . 17.3 Orthonormalisierung . . . . . . . . . . 17.4 Orthogonale Transformationsmatrizen . 17.5 Orthogonale Projektion . . . . . . . . . 17.6 Metrischer affiner Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 89 89 90 91 91 92 93 93 . . . . . . . . . . . . . . . . 95 95 95 96 97 98 98 99 99 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 . 100 . 100 . 101 . 101 . 102 . 103 18 Bewegungen 18.1 Bewegungen und orthogonale Abbildungen 18.2 Matrixbeschreibung . . . . . . . . . . . . . 18.3 Determinante . . . . . . . . . . . . . . . . 18.4 Ebene orthogonale Abbildungen . . . . . . 18.5 Orthogonale Abbildungen im Raum . . . . 18.6 Eulersche Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 103 104 104 105 106 107 Index (Basis-Ergänzung.), 75 Äquivalenz von Formeln, 7 Äquivalenzbeweise, 17 äquivalent, 7, 17 abelsche, 9 affine Inzidenzebenen, 25 angeordneten Körper, 34 atomare Formel, 2 Aussage, 8 axiomatische Methode, 9 Axiome, 9 Basis, 75 Bedeutung, 3 erzeugend, 75 Erzeugnis, 72 erzeugte Untervektorraum, 72 Erzeugungsprozess, 73 Generalisierungsregel, 10 geordnete, 75 gleichbedeutend, 17 Gleichung, 8 Implikations-Introduktion, 13 kommutative, 9 kommutativen Ring, 9 Konjunktionsregeln, 12 konstante, 9 Konstruktion, 19 logisch äquivalent, 7 lokale Aussage, 7 lokalen Konstanten, 2 Matroiden, 74 Modell , 9 Pivot-Zeile, 78 Prämisse, 13 Quotientenmenge, 68 Substitutions-, 11 Tautologien, 8 unabhängig, 75 Widerspruch, 8 Abbildung inverse, 91 abhängig, 74 Abstraktion, 68 Abtrennung, 14 abzählbar, 77 Abzählbare Dimension, 77 ad absurdum, 21 Aequivalenzrelation, 63 affin, 95 Affine Hyperbenenen, 97 Affine Inzidenzebene, 25 Affine Koordinaten, 84 Affine Koordinatentransformation, 88 Affine Räume, 82 Affine Struktur eines Vektorraums, 83 affiner Raum, 82 algebraische Struktur, 70 Allquantor, 6 approximiert, 34 aquivalent, 25 Argument, 55 Atomare Formeln, 1 Aufzeigung, 19 ausgeschlossenes Drittes, 22 Aussagen, 7 Ausschluss von Gegenbeispielen, 21 Austausch, 74 Axiomatische Methode, 9 Basen, 75 Basis, 36, 38 kanonische, 79 Basisauswahl, 80 Basisergämnzung, 80 Basisergänzung, 75 Basismenge, 74 Basistransformation, 93 Bedeutung atomarer Formeln, 2 Beispiel, 81 Beispiele, 93 Beschränkte Quantoren, 24 Betrag einer komplexen Zahl, 55 Bewegung, 103 Bild, 92 Cauchy-Schwarz, 46 Determiante, 105 113 114 Determinante, 49, 53 Dimension, 76, 83 Dimensionsformel, 92 Diophantische Gleichungen, 61 Disjunktion, 5 Disjunktion und Fallunterscheidung, 19 Dreiecksungleichung, 46 Durchschnitt, 66 INDEX Homogene Beschreibung affiner Abbildungen, 99 Homogene Koordinaten, 98 homogene Koordinaten, 98 Hyperebene, 97 imaginäre Einheit, 56 Imaginärteil, 56 Implikationen, 13 Implikations-Elimination, 14 Ebene orthogonale Abbildungen, 105 Implikationsbeweis, 13 Ebenen, 83 Indirekter Beweis, 21–23 echt, 61 Induktionsannahme, 59 Einheitsmatrix, 86 Induktionsvoraussetzung, 59 Einhorn, 20 infinitesimalen, 34 Einsetzung, 11 innere Produkt, 44 Einsetzungsregel, 11 Intervallschachtelung, 34 Eintrag, 78 invertierbar, 87 elementaren/Gauss’schen Umformun- Isomorphie, 89 gen, 79 Isomorphismus, 89 Endomorphismus, 89 kanonische, 79 erzeugend, 74 Erzeugende und unabhängige Mengen, kanonischer Projektion, 68 kartesische Darstellung, 56 74 Kehrwert, 30 Erzeugnis, 72 Kern, 66, 92 Euklidische Vektorräume, 100 Klammereinsparung, 6 euklidischen affinen Raum, 103 Klasseneinteilung, 66 euklidischer Vektorraum, 100 Koeffizient, 78 ex falso quodlibet, 21 Koeffizienten, 70 Existenzbeweise, 19 komplexe Zahlen, 55 Existenzquantor, 5 Komponente, 43, 70 Faktormenge, 68 komponentenweise, 36 Faktorstruktur, 63 Komposition, 91 Faktorstrukturen, 63 kongruent, 62 Fall und Gegenfall, 23 Kongruenzrelation, 63, 64 Fallunterscheidung, 19, 22 konjugierte Zahl, 56 Funktionenraum, 71, 72 Konjunktion, 3 Fusspunkt des Lotes, 43 Konjunktionsregeln, 12 Konstruktion, 20 ganzen Zahlen, 29 Kontraposition, 22, 23 gemeinsamer Teiler, 60 Koordinaten, 36, 84, 90 Generalisierung, 10 Koordinatensystem, 84 Geraden, 83 Koordinatensytem, 39 Gesetze, 86 Koordinatentransformation im Raum, Gleichungen, 8 41 Gram-Schmidt, 101 Koordinatentransformation in der EbeHilfsgrossen, 20 ne, 40 INDEX Leibnizsche Ersetzung, 12 linear, 89 unabhangig, 77 linear unabhägig, 38 linearer Teilraum, 72 Linearkombinationen, 73 Linkssystem, 50 Linkssysteme, 51 Lot , 46 materiale Implikation, 20 Matrix, 78, 90 Matrixbeschreibung, 96 maximal unabhängig, 75 metrischen Raum, 103 minimal erzeugend, 74 minimales, 58 Modulare Arithmetik, 62 modulo, 62 modus ponens, 14 modus tollens, 20 115 Partition, 66 Pfeil, 25 Polardarstellung, 57 Primzahl, 61 Produkt, 71 Produkt, äusseres, 51 projektiv äquivalent, 98 Projektive Beschreibung von Hyperebenen, 98 Punkt-Koordinaten, 39 Punktkoordinaten-Transformation in der Ebene, 41 Pythagoras, 46 Quadratwurzel, 54 rational, 34 Realteil, 56 Rechenregeln, 71 Rechnen in kommutativen Gruppen und Ringen, 14 recht, 43 Negation, 4 Rechtssystem, 50, 51 Negationsregeln und Widerlegung, 20 reductio ad absurdum, 22 Nichtkonstruktive Existenz, 24 reelle Achse, 56 nichtkonstruktive Existenz, 22 reellen Zahlen, 33 Nichtkonstruktives Oder, 24 regulär, 87 nichtkonstruktives Oder, 22 Rekursionsschema, 58 nichtsingulär, 87 Rekursionsvorschrift, 58 Normalen-Vektor, 48 rekursiv definierte Funktion, 58 Normalenvektoren von Geraden bzw. Rekursive Definition, 58 Ebenen, 48 Richtungsvektor, 35 Notwendigkeit, 20 Ring der ganzen Zahlen modulo n, 64 Nullvektor, 71 scharf transitiv, 83 Oder-Elimination , 19 Schnittpunkt, 97 Oder-Introduktion, 19 Selbstabbildung, 95 Ordnungsinduktion, 58 Skalar, 70 Orientierung, 49, 51 skalare, 44 orthogonal, 100, 101 Skalarenbereich, 33 orthogonale, 103 Spalte, 78 Orthogonalprojektion, 102 Spatprodukt, 53 orthonormal, 100 Strahlensatz und Distributivgesetz, 42 Orthonormalbasen, 47 Streckung, 70 Orthonormalbasis, 47, 100 Strukturen, 1 Orthonormalsysteme, 100 Stufenmatrix, 78 Ortsvektoren, 36 Substitution, 9 Substitution [t1 /x1 , . . . , tn /xn ], 11 Parameterdarstellung, 35 116 Substitutionsregel, 11 Summe, 85 Symmetrie, 11, 26 Teilbarkeit, 59 Termersetzung, 11 tertium non datur, 22 Transformation, 99 Transformationsmatrix, 40, 87 Translation, 95 Translationsvektor, 97 transponierte, 87 treu, 83 Umformungen, 79 unabhängig, 36, 74 unabhängiger Richtungsvektoren, 35 Und-Elimination, 13 Und-Introduktion, 13 Untervektorraum, 72 trivialer, 72 unzerlegbar, 61 Ursprung, 35, 84 Vektor, 26, 70 Vektoraddition, 27 Vektorprodukt, 51 Vektorraum, 42, 70 Verkettung, 91 Verschiebung, 95 Verschiebungen (Translationen), 83 Vielfachheit, 58 Widerlegung, 21 Widerspruchsbeweis, 22 Wirkung, 83 wohlgeordnet, 77 Zahlenebene, 55 Zahlengerade, 32 Zahlengeraden, 32 Zeile, 78 Zeilenraum, 78 Zentralprojektion, 98 Zentrum, 98 INDEX