Lineare Algebra I TUD WS04/5 1 Bedeutung von Formeln und

Werbung
1
Lineare Algebra I
1
TUD WS04/5
Bedeutung von Formeln und Aussagen
1.1
Strukturen
In der Mathematik geht es in der Regel um Strukturen bzw. Klassen von
Strukturen. Eine Struktur wird verstanden als ein System von Objekten, Individuen oder Elementen, die unterschiedlichen Typen oder Sorten zugeordnet sein können, und Relationen (Beziehungen) bzw. Operationen (Verküpfungen) zwischen diesen bzw. Konstanten (ausgezeichneten Elementen).
a. Der Zahlbereich N der natürlichen Zahlen 0, 1, 2, 3, . . . mit dem Größenvergleich (Anordnung), der Addition und Moltiplikation, und den Konstanten Null und Eins
b. Andere Zahlbereiche, z.B. der ganzen Zahlen (Z), der rationalen Zahlen
(Q) oder der reellen Zahlen (R).
c. Der affine Raum mit Objekten von den Typen Punkt, Gerade und Ebene und der Beziehung “liegt auf” (inzidiert) jeweils zwischen Punkten
und Geraden, Punkten und Ebenen wie Geraden und Ebenen.
d. Beim metrischen oder euklidischen Raum kommt zu 3. die Kongruenz
von Strecken und die Beziehung “zwischen” dazu.
e. Die “Gruppe” der Bewegungen des Raumes, mit der Hintereinanderausführung als Operation.
f. Die “Wirkung” der Bewegungsgruppe auf dem Raum, d.h. Beispiel 4
und 5 zusammengefasst mit einer zusätzlichen Operation, die Bewegungen φ und Punkten P jeweils den Bildpunkt φ(P ) zuordnet.
Dass es problematisch ist, von “dem” Zahlbereich der natürlichen Zahlen
usw. zu sprechen, soll uns vorerst nicht stören. Wir werden uns im Laufe der
Zeit daran gewöhnen, mit durch Axiome definierten Klassen von Strukturen
umzugehen. Dabei kann es vorkommen, dass eine solche Klasse “im Wesentlichen” aus einer einzigen Struktur besteht, genauer, dass alle Strukturen in
dieser Klasse gleich aussehen, auf deutsch: isomorph sind. Das ist z.B. der Fall
bei “dem” Bereich der natürlichen Zahlen und den anderen oben erwähnten
Beispielen.
1.2
Atomare Formeln
Um über Strukturen knapp und doch (oder gerade deshalb) eindeutig reden
zu können, brauchen wir Zeichen für die jeweils grundlegenden Relationen,
Operationen und Konstanten, sowie für die wichtigsten daraus definierten.
2
1 BEDEUTUNG VON FORMELN UND AUSSAGEN
a. Bei den Zahlbereichen < .+, ·, 0, 1, definiert z.B. ≤ für “kleiner oder
gleich”, − für die Subtraktion und : für die nicht immer ausführbare
Division, 2 für 1 + 1 usw.
c. In der affinen Geometrie für die Inzidenz, definiert z.B. k für Parallelität.
d. In der metrischen Geometrie |P Q| = |RS| für die Kongruenz der
Strecken P Q und RS (also eine Beziehung zwischen vier Punkten).
Definiert werden kann ⊥ ‘senkrecht’.
Wir benutzen Buchstaben wie a, b, c oder P, Q, R um über bestimmte, aber
nicht eindeutig festgelegte Objekte in einer betrachteten Struktur zu reden.
Die bezeichnenden Buchstaben spielen dann die Rolle von lokalen Konstanten(im Gegensatz zu den zu einem gewissen Typ von Strukturen a priori
gehörenden globalen Konstanten wie 0, 1 bei den Zahlen). Die durch sie bezeichneten Objekte können “fest, aber beliebig” (FAB) oder “vorhanden,
aber nicht näher bekannt” (Zeugen) sein.
Wir können Buchstaben aber auch als Variablen benutzen, meist solche wie x, y, z. Dabei ist dann gedacht, dass sie beliebige Werte annnehmen
können oder sollen. Es könnn aber auch Indizes vorkommen: a1 , P2 , x3 Haben wir keine Operationen, so entteht eine atomare Formel dadurch, dass
wir Buchstaben oder Symbole für Konstanten oder Variablen Symbolen für
Relationen oder dem Gleichheitszeichen verbinden
a = x, 0 = 1, b < 0, P g, Xε, g k h, |AX| = |P Y |
Haben wir Operationssymbole, so können wir Terme aus Konstanten und
Variablen bilde, z.B.
((1 + x) · a) + (0 · (y + a))
wobei natürlich Klammereinsparungsregeln erlaubt sind. Die Terme dürfen
wir dann mitbenutzen und erhalten z.B die Formel
(a + x) · (1 + 1) < a · x
Allgmein gilt: Eine atomare Formel φ(x1 , . . . , xn ) hat die Gestalt
R(t1 (x1 , . . . , xn ), . . . , tm (x1 , . . . , xn )) bzw. t1 (x1 , . . . , xn ) R t2 (x1 , . . . , xn )
mit Termen ti (x1 , . . . , xn ) und einem m-stelligen Relationssymbol R bzw.
den Gleichheitszeichen. Das Auflisten der Variablen (ohne Wiederholung!)
legt ihre Reihenfolge fest. Sie müssen in der Formel nicht unbedingt alle
vorkommen. Aber es dürfen keine anderen vorkommen
1.3
Bedeutung atomarer Formeln
Sei eine Struktur A vorgegeben und eine atomare Formel φ(x1 , . . . , xn ) in
den Variablen x1 , . . . , xn . Sei jeder im φ vorkommenden lokalen Konstanten
1.4 Konjunktion
3
jeweils eine bestimmtes Objekt aus der Struktur zugeordnet. Dann erhält die
Formel eine Bedeutung, sie definiert eine Teilmenge
{a1 in A | φ(a1 ) gilt in A}
oder eine Relation
{(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt in A}
auf der Struktur A. Dabei ist stillschweigend vereinbart, dass auch den Variablen xi bestimmte Typen zugeordnet sind und dass die entsprechenden
Objekte ai aus A dann jeweils diesen Typ haben sollen. Das kann und soll
hier nur an Beispielen erklärt werden.
a. x < (1 + 1) · (1 + 1) hat in N die Bedeutung {0, 1, 2, 3}
b. x2 = x1 + 1 hat in N die Bedeutung {(a, a + 1) | a in N}
c. x2 = x1 · x1 hat in R die Bedeutung {(a, a2 ) | a in R}
d. Für a, b in R und 0 < r in R ist die Bedeutung von (x−a)2 +(y−b)2 < r
das Innere des Kreises um den Punkt (a, b) mit Radius r - besser sollte
man hier von Koordinaten sprechen
e. Die Bedeutung von |OX| = |OP | im metrischen Raum ist die Kugel
um O mit Radius |OP |
f. Die Bedeutung von |P X| = |QX| im metrischen Raum ist die Mittelsenkrechte(Ebene) auf der Strecke P Q
Um festzustellen, ob das n-tupel (a1 , . . . , an ) von Objekten von A zur Bedeutung von φ(x1 , . . . , xn ) in A gehört, setzem wir also die ai für die xi ein,
bestimmen die Werte bi = ti (a1 , . . . , an ) der Terme in A und prüfen dann,
ob die durch R bezeichnete Relation von A auf (b1 , . . . , bm ) zutrifft. Wenn ja,
gehört (a1 , . . . , an ) zu der Bedeutung der Formel in A bei den vorgegebenen
Werten für die lokalen Konstanten. Andernfalls nicht.
1.4
Konjunktion
Um interessamntere Beispiel zu erhalten, brachen wir logische Verknüpfungen. Die Konjunktion präzisiert das umgangssprachliche “und”. Wir schreiben
φ(x1 , . . . , xn ) ∧ ψ(x1 , . . . , xn )
Mit Vorgaben wie oben ergibt sich die Bedeutung als
{(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt in A und ψ(a1 , . . . , an ) gilt in A}
Um das “und” zu präzisieren, folgende Tabelle
4
1 BEDEUTUNG VON FORMELN UND AUSSAGEN
: φ(a1 , . . . , an ) gilt in A
β
: ψ(a1 , . . . , an ) gilt in A
α ∧ β : φ(a1 , . . . , an ) gilt in A
und ψ(a1 , . . . , an ) gilt in A
β
W F
α α∧β
W
W F
F
F F
Dabei steht W für “trifft zu” und F für “trifft nicht zu”. Beispiele. Kurz:
α ∧ β trifft zu, wenn sowohl α wie auch β zutreffen.
a. Die Bedeutung von (x < 7) ∧ (2 < x) in N ist {2, 3, 5, 6}.
b. Für a < b in R ist die Bedeutung von a < x ∧ x < b in R das offene
Intervall zwischen a und b
c. Die Bedeutung von (Xg) ∧ (Xh) für zwei nicht parallele Geraden g
und h in der Ebene ist der eindeutig bestimmte Schnittpunkt P - die
Einermenge {P } für alle, die es ganz besonders genau nehmen.
d. Eine Liste mit zwei Spalten kann man als Struktur mit einer 2-stelligen
Relation R sehen, wobei R(a, b) bedeutet, dass (a, b) eine Zeile der Liste
ist. Sind zwei Listen R1 und R2 gegeben mit den Angaben: Übungsgruppe und Zeit bzw. Übungsgruppe und Raum, so ist die Bedeutung
von R1 (x, y) ∧ R2 (x, z) die “Verkettung”, d.h. die Liste mit 3 Spalten,
die fúr jede Übungsgruppe die kompletten Angaben enthält.
1.5
Negation
Die Negation präzisiert das umgangssprachliche “nicht”. Wir schreiben
¬φ(x1 , . . . , xn )
Mit Vorgaben wie oben ergibt sich die Bedeutung als
{(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt nicht in A}
Um das “nicht” zu präzisieren, folgende Tabelle
α
: φ(a1 , . . . , an ) gilt in A
¬α : φ(a1 , . . . , an ) gilt nicht in A
α ¬α
W F
F W
Kurz: ¬α trifft zu genau dann, wenn α nicht zutrifft. Beispiele.
a. Die Bedeutung von ¬(7 < x) in N ist {0, 1, 2, 3, 5, 6, 7}.
b. Die Bedeutung von ¬(x1 < x2 ) in R ist {(a1 , a2 ) | a2 ≤ a1 in R}
Man beachte, dass der Gebrauch der Negation, insbeondere der doppelten
Negation in den natürlichen Sprachen sehr unterschiedlich ist. Auch in der
Mathematik sollte man doppelte Negation möglichst vermeiden. Kommt sie
aber doch einmal vor, ist sie meist als Bejahung zu verstehen.
1.6 Disjunktion
1.6
5
Disjunktion
Die Disjunktion präzisiert das umgangssprachliche (nicht ausschliessende)
“oder”. Wir schreiben
φ(x1 , . . . , xn ) ∨ ψ(x1 , . . . , xn )
abgeleitet vom lateinischen “vel”. Mit Vorgaben wie oben ergibt sich die
Bedeutung als
{(a1 , . . . , an ) in A | φ(a1 , . . . , an ) gilt in A oder ψ(a1 , . . . , an ) gilt in A}
Um das “oder” zu präzisieren, folgende Tabelle
α
: φ(a1 , . . . , an ) gilt in A
β
: ψ(a1 , . . . , an ) gilt in A
α ∨ β : φ(a1 , . . . , an ) gilt in A
oder ψ(a1 , . . . , an ) gilt in A
β
W F
α α∨β
W
W W
F
W F
Ki=urz: α ∨ β trifft zu, wenn mindestens eines von α und β zutrifft, möglicherweise auch beide. Beispiele.
a. Die Bedeutung von (x < 4) ∨ (x = 7) in N ist {2, 3, 7}.
b. Die Bedeutung von (x < y) ∨ (y < x) in R ist {(a, b) | a 6= b in R}.
c. Sind g und h Geraden der Ebene, so ist die Bedeutung von Xg ∨
Xh die von g und h zusammen gebildete Punktmenge - einschießlich
gemeinsamer Punkte
Das aussschließende “oder” können wir ausdrücken durch (α ∨ β) ∧ ¬(α ∧
β). Die umgangssprachliche Entsprechung “entweder -oder” scheint ihre Eindeutigkeit zu verlieren. Zumindest gilt das für das englische “either - or”.
Disjunktionen treten in der Mathematik auf in Klassifikationssätzen (jede
Bewegung der Ebenen mit Fixpunkt ist Drehung oder Spiegelung) und bei
Fallunterscheidungen in Beweisen. In der regel sind sie ausschliessend, bei
Fallunterscheidungen ist das aber nicht erforderlich.
1.7
Existenzquantor
Der Existenzquantor präzisiert das umgangssprachliche “es gibt ein”. Wir
schreiben
∃z φ(z, x1 , . . . , xn )
Wir sagen, dass die Variable z durch den Quantor ∃z gebunden wird. Mit
Vorgaben wie oben ergibt sich die Bedeutung als
{(a1 , . . . , an ) in A | φ(a, a1 , . . . , an ) gilt in A für mindestens ein a}
Beispiele.
a. Die Bedeutung von ∃z(x = z 2 ) in N ist die Menge der Quadratzahlen.
6
1 BEDEUTUNG VON FORMELN UND AUSSAGEN
b. Die Bedeutung von ∃z(x = z 2 ) in R ist {a | 0 ≤ a in R}
c. Die Bedeutung von ∃z(y = x · z) in Z ist {(a, b) | a teilt b in Z}
d. Die Bedeutung von ∃z1 ∃z2 ∃z3 ∃z4 (x = z12 + z22 + z33 + z42 ) in Z ist N
(Euler)
e. Zu zwei sich im Punkt P schneidenden Geraden g und h im Raum ist
die Bedeutung von (X.Zi sind hier Variablen vom Typ ‘Punkt’, z vom
Typ Gerade’)
X = P ∨ ∃Z1 ∃Z2 ∃z. ¬(Z1 = Z2 ) ∧ Z1 g ∧ Z2 h ∧ Z1 z ∧ Z2 z ∧ Xz
die von g und h aufgespannte Ebeene
f. Sind φ und ψ zwei Bewegungen der Ebene, so ist die Bedeutung von
∃y (φ(x) = y ∧ ψ(y) = z) die Hintereinanderausführung ψ ◦ φ
1.8
Allquantor
Der Allquantor präzisiert das umgangssprachliche “für alle”. Wir schreiben
∀z φ(z, x1 , . . . , xn )
Wir sagen, dass die Variable z durch den Quantor ∀z gebunden wird. Mit
Vorgaben wie oben ergibt sich die Bedeutung als
{(a1 , . . . , an ) in A | φ(a, a1 , . . . , an ) gilt in A für alle a}
Beispiele.
a. Die Bedeutung von ∀z(x < z ∨ x = z) in N ist die (Einermenge) Null.
b. Die Bedeutunng von ∀z(x + z = x) in Z ist {0}.
c. Die Bedeutung von ∀z(x teilt z) in Z ist {1, −1}
1.9
Klammereinsparung
Soweit erforderlich, benutzen wir Klammern um Aufbau und Bedeutung von
logischen Formeln zu klären. Entsprechend dem, was man aus der Arithmetik
kennt, soll die Bindungsstärke der Junktoren in der Reihenfolge ¬, ∧, ∨, ⇒,
⇔ abnehmen. Ebenso haben die Quantoren im Prinzip Vorrang gegenüber
den Junktoren. Der Punkt wirkt wie eine Klammer, die alles Folgende bis hin
zur ersten überzähligen ) einschliesst: z.B. ist (∃x. α ∧ β) ∧ γ gleichbedeutend
zu (∃x. (α ∧ β)) ∧ γ.
1.10 Äquivalenz von Formeln
1.10
7
Äquivalenz von Formeln
Formeln φ(x1 , . . . .xn ) und ψ(x1 , . . . , xn ) sind äquivalent
• in der Struktur A bei einer Vorgabe der Werte der lokalen Konstanten,
wenn sie dabei dieselbe Bedeutung haben, d.h. wenn φ(a1 , . . . .an ) in
A genau dann gilt, wenn ψ(a1 , . . . .an ) gilt (mit den gegebenen Werten
der lokalen Konstanten).
• in A, wenn sie für alle Werte der lokalen Konstanten in A äquivalent
sind.
• in einer Klasse K von Strukturen, wenn sie in allen A aus K äquivalent
sind
• schlechthin, oder auch logisch äquivalent, wenn sie für alle Strukturen
(in denen beide interpretiert werden können) äquivalent sind.
Beispiele;
a. 0 ≤ x und ∃y. x = y 2 sind in R aber nicht in Q äquivalent.
b. x2 = 2 und ¬(x = x) sind in Q aber nicht in R äquivalent
c. Sind a < b in R oder Q gegeben, so sind 0 < x und ax < bx äquivalent
d. Logisch äquivalent sind z.B.
• α(x1 , . . . , xn ) ∧ β(x1 , . . . , xn ) und β(x1 , . . . , xn ) ∧ α(x1 , . . . , xn )
• α(x1 , . . . , xn ) ∧ (β(x1 , . . . , xn ) ∧ γ(x1 , . . . , xn ))
und (α(x1 , . . . , xn ) ∧ β(x1 , . . . , xn )) ∧ γ(x1 , . . . , xn )
• ∃x (φ(x, x1 , . . . , xn ) ∨ ψ(x, x1 , . . . , xn ))
und (∃x, φ(x, x1 , . . . , xn )) ∨ (∃x, ψ(x, x1 , . . . , xn ))
• ¬∀x. φ(x, x1 , . . . , xn ) und ∃x. ¬φ(x, x1 , . . . , xn )
e. Nicht logisch äquivalent sind z.B.
• α ∨ β und (α ∧ ¬β) ∨ (β ∧ ¬α)
• ∀x ∃y. φ(x, y) und ∃y ∀x. φ(x, y)
1.11
Aussagen
Eine lokale Aussage ist eine Formel, in der jede Variable durch einen Quantor gebunden ist. Die Bedeutung einer lokalen Aussage α in einer Struktur
A bei vorgegebenen Werten der lokalen Konstanten ist dann
Entweder W: α gilt in A für die gegebenen Werte der lokalen Konstanten
oder F: α gilt in A für die gegebenen Werte der lokalen Konstanten nicht
Beispiel: a + a = a · a gilt in N wenn a = 2 , aber nicht wenn a = 3.
8
1 BEDEUTUNG VON FORMELN UND AUSSAGEN
Eine Aussage ist eine lokale Aussage, in der keine lokalen Konstanten
vorkommen. Die Bedeutung einer Aussage α in einer Struktur A ist also
Entweder W: α gilt in A
oder F: α gilt in A nicht
Beispiel: Die Aussage ∀x ∃y. x + y = 0 gilt in Z, aber nicht in N.
Aussagen, die in allen Strukturen gelten, in denen sie überhaupt interpretiert
werden können, heissen Tautologien und sind für Mathematiker herzlich
uninteressant. Das Gegenteil, eine Aussage die in keiner Struktur gilt, heisst
ein Widerspruch.
Beispiele: ∀x. x = x und ∃x. x = x sind Tautologien, das letztere, weil
wir davon ausgehen, dass es zu jeder Sorte mindestens ein Element gibt.
Widersprüche sind z.B. alle Aussagen der Form α ∧ ¬α. Eine Aussage ist
Tautologie genau dann, wenn ihre Negation ein Widerspruch ist. Die meisten
Aussagen sind weder Tautologien noch Widersprüche.
1.12
Gleichungen
Der einfachsten Aussagen sind von der Gestalt
∀x1 . . . ∀xn α
wobei α atomar ist. Hat man nur Operationen und Konstanten, so handelt
es sich um eine Gleichung
∀x1 . . . ∀xn t(x1 , . . . , xn ) = s(x1 , . . . , xn )
mit Termen t und s. Beispiel: Wir betrachten die ganzen Zahlen Z mit Addition, Null und Umkehrung a 7→ −a. Dann haben wir die folgenden fundamentalen, in Z gültigen Gleichungen:
(R1) ∀x∀y∀z.
(R2)
∀x.
(R3)
∀x.
(R4)
∀x∀y,
x + (y + z)
x+0
x + (−x)
x+y
=
=
=
=
(x + y) + z
x
0
y+x
Assoziativiät
Neutralelement
Inverses
Kommutativität
Beziehen wir auch die Multiplikation ein, so kommen hinzu
(R5) ∀x∀y∀z.
(R6)
∀x.
(R7) ∀x∀y∀z.
(R8) ∀x∀y∀z.
(R9)
∀x∀y,
x · (y · z)
x·1
x · (y + z)
(y + z) · x
x·y
=
=
=
=
=
(x · y) · z
x
(x · y) + (x · z)
(y · x) + ∗z · x)
y·x
Assoziativiät
Neutralelement
Distributiviät
Distributiviät
Kommutativität
Aufmerksame Hörer werden einwenden, dass wir weder genau erklärt haben,
was Z ist, noch wie wir die Gültigkeit der Gleichungen beweisen wollen. Das
Problem liegt aber eigentlich bei N: Definition und Beweis der Grundtatsachen ist nicht umsonst zu haben. Die Konstruktion von Z und der Nachweis
der Gleichungen ist dann eher einfach.
1.13 Axiomatische Methode
1.13
9
Axiomatische Methode
Mathematisch interessant sind also Aussagen, die in gewissen Strukturen gelten, aber nicht allen. Betrachten wir zunächst nur +, 0, − und die Axiome
(R1)-(R4), so gelten z.B. (R1)-(R3), nicht jedoch (R4) nicht in der Gruppe
der Bewegungen, wenn wir + durch die Hintereinanderausführung ◦ interpretieren. Wir nehmen also (R1)-(R4) als Axiome und nennen die Strukturen
(mit zweistelliger Operation +, Konstante 0 und einstelliger Operation −),
in denen diese Axiome gelten, kommutative oder abelsche Gruppen (nach
dem Namensgeber des Abel-Preises, dessen Erfindungen weniger schädlich
sind, als die des Herrn Nobel). Z ist dann ein Modell dieser Axiome (gehört
zu der durch diese Axiome definierten Klasse). Wie wir bald sehen werden
bilden auch die Vektoren des Raumes ein Modell von (R1)-(R4).
Haben wir auch ·, 1 und gelten die Axiome (R1)-(R9), so sprechen wir von
einem kommutativen Ring. Weitere Modelle sind Q und R, aber z.B. auch die
Gesamtheit der reellen Polynome. Es gibt aber auch interessante Beispiele, in
denen das Kommuativgesetz nicht gilt. Und weniger interessante Beispiele,
in denen andere der Axiome nicht erfüllt sind.
Die axiomatische Methode besteht nun darin, zu den zu untersuchenden
Strukturen passende Axiome zu finden (die aber in der Regel noch andere
Modelle zulassen), und dann aus diesen Axiomen Aussagen durch logische
Schlüsse herzuleiten. Die logischen Schlussregeln müssen dabei so beschaffen
sein, dass ihre Zulässigkeit (Korrektheit) unmittelbar einsichtig ist. Dadurch
ist garantiert, dass die gefolgerten Aussagen in der Tat in allen Modellen der
vorausgesetzen Axiome gelten. Z.B. können wir aus (R1)-(R4) herleiten
∀x∀y∀z.∀u (x + y) + (z + u) = (x + z) + (y + u)
und das gilt dann sowohl für Z wie für die Vektorrechnung. Die logischen
Schlüsse behandeln wir im nächsten Kapitel.
Die axiomatische Methode hat sich hauptsächlich im Rahmen der Geometrie entwickelt, beginnend mit Euklid und vorangetrieben von der Frage, ob
sich das Parallelenaxiom aus den anderen Axiomen herleiten lässt. Nachem
im 19. Jahrhundet Modelle gefunden wurden, in denen diese Axiome gelten,
nicht jedoch das Parallelenaxiom, hat David Hilbert Anfang der 20. Jahrhunderts die axiomatische Methode als eine grundlegende Vorgehensweise in
der Mathematik etabliert, exemplarisch dargestellt in seinen “Grundlagen
der Geometrie”.
2
2.1
Logisches Schließen
Substitution
Seien eine Formel φ(x1 , . . . , xn ) und konstante Terme t1 , . . . .tn gegeben, d.h.
in den ti kommen keine Variablen vor. Dann erhalten wir eine neue Formel,
wenn wir für jede der Variablen xi jedes nicht durch einen Quantor gebunde
(also jedes freie) Vorkommen das Zeichen xi durch ti ersetzen. Wir notieren
10
2 LOGISCHES SCHLIESSEN
diese Ersetzung und ihr Ergebnis durch
[t1 /x1 , . . . , tn /xn ] und φ(t1 , . . . , tn )
Beispiel. Aus x1 = x1 ∧ x2 = x2 ∧ ∃x1 . ¬(x1 = x2 ) erhalten wir durch
die Substitutuion [c/x1 , c/x2 ] die Formel c = c ∧ c = c ∧ ∃x1 . ¬(x1 = c).
Werden nur einige der Variablen xi so ersetzt, so notieren wir die Substituion
als [xi1 /ti1 , . . . , xik /tik ] und das Ergebnis im konkreten Fall auf naheliegende
Weise. Aus x2 + y 2 = z ensteht z.B. durch [2/z] die Formel x2 + y 2 = 2.
2.2
Generalisierung
Den Beweis, dass ∀x.∀y. (x + y)2 = x2 + 2xy + y 2 in Z gilt, können wir
exemplarisch so führen: (17 + 13)2 = (17 + 13)17 + (17 + 13)13 = 17 · 17 + 13 ·
17 + 17 · 13 + 13 · 13 = 172 + 17 · 13 + 17 · 13 + 132 = 172 + 2 · 17 · 13 + 132 . Ein
Meister in dieser Art der Beweisführung war C.F.Gauss. Kein exemplarischer
Beweis wäre die Rechnung (17 + 13)2 = 302 = 900, 172 + 2 · 17 · 13 + 132 =
289 + 442 + 169 = 900 oder das Eintippen in den Taschenrechner.
Wir haben also auf 17 und 13 nur die bekannnten Gesetze (R1)-(R9 der
Arithmetik angewendet, um zu disem Ergebnis zu kommen, nicht den speziellen Wert. In diesem Sinne sind 17 und 13 feste, aber beliebige Elemente
(FABs) und wir hätten an ihrer Stelle auch a und b schreiben können. Wichtig
ist nur, dass über a und b nichts weiter vorausgesetzt wird. Die verwendete
logische Schlussregel ist die Generalisierungsregel:
Seien c1 , . . . , cn neue lokale Konstanten (FABs). Dann können wir
von φ(c1 , . . . , cn ) auf ∀x1 . . . ∀xn . φ(x1 , . . . , xn ) schliessen
ZEIGE:
∀x. A(x)
φ(c1 , . . . , cn )
∀x1 . . . ∀xn . φ(x1 , . . . , xn ) (∀I)
Generalisierung
ci FABs
SEI:
c
FAB
ZEIGE:
A(c)
arbeite
QED:
A(c)
QED: ∀x. A(x)
Dass die ci ‘neue Konstanten’ sind, meint, dass sie in keinem anderen Zusammenhang vorkommen, also keine irgendwie festgelegte Bedeutung haben.
2.3 Substitutionsregel
11
Insofern können wir natürlich auch die Variable xi zur neuen Konstanten ci
umwidmen. Also regelt dieser Schluss nur den Sprachgebrauch. Der Gewinn
liegt darin, dass wir nun von ‘dem’ Objekt/Individuum/Element ci reden
können. Damit argumentiert es sich leichter. Wir haben also den generaliserenden Schluss vom ‘allgemeinen Beispiel’ auf die Allaussage.
2.3
Substitutionsregel
Seien die ti konstante Terme. Dann können wir von ∀x1 . . . ∀xn . φ(x1 , . . . , xn )
auf φ(t1 , . . . , tn ) schliessen, d.h. wir dürfen xi durch ti ersetzen, natürlich jedes
Vorlommen von xi durch dasselbe ti (aber die ti mússen nicht alle verschieden
sein). Also sprechen wir von der Substitutions- oder Einsetzungsregel.
∀x1 . . . ∀xn . φ(x1 , . . . , xn )
Substitution [t1 /x1 , . . . , tn /xn ]
φ(t1 , . . . , tn )
(∀E) Einsetzung von konstanten ti für xi .
Damit haben wir ein Schema, um aus Gleichungen eine weitere Gleichung
herzuleiten: Ersetze die Variablen der herzuleitenden Gleichung durch neue
Konstante (FABs) und setze die dabei entstehenden Terme so in die als Axiome gegebenen Gleichungen ein (Substitutionsregel), dass sich aus den so gewonnenen Gleichungen für die FABs eine Hwerleitung der neuen Gleichung
(für die FABs) ergibt. Nach der Generalisierungsregel ist dann die neue Gleichung tatsächlich aus den Axiomen bewiesen. Wir müssen also den Umgang
mit Gleichungen zwischen lokalen Konstanten näher erörtern.
2.4
Identitätsregeln
Wir haben das Gleichheitszeichen als Bestandteil jeder Sprache der Logik
eingeführt, unabhängig von der Wahl der Grundbegriffe und des zu diskutierenden Bereichs. Dies bedeutet nicht, dass Gleichheit ein vom Kontext
unabhängiger Begriff sei. Insbesondere beim Prozess der Abstraktion wechseln wir von einem vorgegebenen (häufig formalen) Gleichheitsbegriff zu einem weiter gefassten, inhaltlichen Begriff von ‘Gleichheit in einer gewissen
Hinischt’.
Unser Umgang mit einem für einen bestimmten Bereich gültigen Gleichheitsbegriff muss nach Leibniz den folgenden Regeln genügen. Die Mindestbedingung ist, dass die Gleichheit eine Äquivalenzrelation ist, d.h. es gelten
die Regeln (für konstante Terme s, t, r)
t=t
sitiviät
Reflexivität
t=s
s=t
Symmetrie
t=s
s=r
t=r
Tran-
Haben wir t = s bewiesen, definiert oder vorausgesetzt, so dürfen wir in
jedem Term w ein oder mehrere Vorkommen von t durch s ersetzen.
t=s
w(. . . t . . . t . . . t . . .) = w(. . . t . . . s . . . t . . .)
Termersetzung
Eine stärkere Form dieser Regel erlaubt uns aufgrund der gegebenen Glei-
12
2 LOGISCHES SCHLIESSEN
chung s = t beliebig viele der Vorkommen von t in der Formel φ(. . . t . . . t . . . t . . .)
durch s ersetzen und so auf φ(. . . t . . . s . . . t . . .) schliessen.
φ(. . . t . . . t . . . t . . .)
t=s
φ(. . . t . . . s . . . t . . .)
Leibnizsche Ersetzung
Kombinieren wir Transitivität und Ersetzung. so können wir Gleichheit zwischen Termen durch eine fortlaufende Rechnung etablieren, in der wir jeweils
einen Teilterm durch einen schon als gleich erkannten ersetzen. Wegen der
Symmetrie ist es egal, wie herum die Gleichungen dastehen. Wenn wir das
tun, werden wir in Zukunft einfach das magische Wort Leibniz’ benutzen. Als
Beispiel beweisen wir die oben behauptete Konsequenz aus (R1)-(R4). Dazu
legen wir die Axiome (R1)-(R4) zugrunde und betrachten wir FABs a, b, c, d
( üblicher Mathe-Sprech: “Sei A eine kommutative Gruppe und a, b, c, d in A
beliebig”). Nun rechnen wir
=
=
=
=
=
(a + b) + (c + d)
((a + b) + c) + d
(a + (b + c)) + d
(a + (c + b)) + d
((a + c) + b) + d
(a + c) + (b + d)
(R1)
(R1)
(R4)
(R1)
(R1)
[(a + b)/x, c/y, d/z]
[a/x, b/y, c/z]
[b/x, c/y]
[a/x, c/y, b/z]
[(a + c)/x, b/y, d/z]
Dabei haben wir jeweils den ersetzten Teilterm unterstrichn und rechts das
verwendete Axiom und die Substitution angegeben. Der Beweis der Gleichung
ist dann nur noch eine Formalität
AXIOME: (R1)-(R4)
ZEIGE: ∀x∀y∀z.∀u (x + y) + (z + u) = (x + z) + (y + u)
SEIEN: a, b, c, d FAB
ZEIGE: (a + b) + (c + d) = (a + c) + (b + d)
obige Rechnung
(a + b) + (c + d) = (a + c) + (b + d)
QED: ∀x∀y∀z.∀u (x + y) + (z + u) = (x + z) + (y + u)
(Leibniz)
Man soll aber nicht glauben, dass man das Gleichungswesen getrost den Informatikern überlaasen könnte. Im Allgemeinen gibt es jedenfalls kein Verfahren, das herausfindet, ob eine Gleichung aus gegebenen Axiomen herleitbar
ist. Und auch wenn sie herleitbar ist, kann für die Herleitung mathematische
Kreativität gefragt sein.
2.5
Konjunktionsregeln
Die Konjunktionsregeln sind die einfachsten Regeln. Sie besagen, dass wir
von einer Konjunktion α1 ∧ . . . ∧ αm auf jedes ihrer Glieder αi und umgekehrt
von der Gesamtheit α1 , . . . , αm ihrer Glieder auf die Konjunktion schliessen
dürfen. Dabei dürfen wir beliebig klammern oder die Klammern gleich weglassen.
(∀I)
2.6 Implikationen
13
α1 . . . αk
(Und-Introduktion)
α1 ∧ . . . ∧ αk (∧I)
2.6
α1 ∧ . . . ∧ αk
(Und-Elimination)
αi
(∧E)
Implikationen
Häufig ist eine Gleichung nur unter einer einschränkenden Voraussetzung
erfüllt, z.B. Wenn a 6= 0 und ab = ac dann b = c in Z. Führen wir die ,
Implikation φ ⇒ ψ zwischen zwei Formeln ein (mit Prämisse φ und Konklusion ψ), so können wir das ausdrücken durch die Kürzungsregel (die nicht
aus (R1)-(R9) folgt)
∀x ∀y ∀z. ¬(x = 0) ∧ x · y = x · z ⇒ y = z
Die übliche Bedeutung von α ⇒ β ist, dass es nur dann nicht zutrifft, wenn α
zutrifft, nicht jedoch β. Insbsondere trifft α ⇒ β4 zu, wenn α nicht zutrifft.
Das heisst: ist die Prämisse nicht erfüllt, so ist nichts weiter zu tun, Das mag
nur dann seltsam erscheinen, wenn man in diesem Zusammenhang unbedingt
von Wahrheit reden möchte. Tabellarisch sieht es so aus:
β
W F
α α⇒β
W
W F
F
W W
Ein wichtiges Hilfsmittel beim Beweisen ist die Einführung temporärer Annahmen: beim Beweis einer Implikation α ⇒ β ist dies meist die Prämisse
α. Können wir unter Benutzung dieser Annahme (und der Axiome) die Konklusion β beweisen, so ist α ⇒ β bewiesen (und die Annahme α kann wieder
eliminiert werden - angedeutet durch die Schreibweise [φ].
Implikationsbeweis
ZEIGE:
A⇒B
[α]
..
.
β
α ⇒ β (⇒I)
Implikations-Introduktion
ANNAHME:
A
ZEIGE:
B
arbeite
QED:
B
QED: A ⇒
B
14
2 LOGISCHES SCHLIESSEN
Wollen wir umgekehrt eine Implikation α ⇒ β in einem Beweis benutzen,
müssen wir α verfügbar haben, um auf β schliessen zu können.
α⇒β
α
β
2.7
(modus ponens, Abtrennung,
Implikations-Elimination)
(⇒E)
Rechnen in kommutativen Gruppen und Ringen
Wir wollen einige der nützlichsten Gleichungen und Implikationen aus den
Axiomen (R1)-(R4) bzw. (R1)-(R9) herleiten. Wir schreiben x−y = x+(−y)
und xy = x · y. Aus (R1)-(R4) folgen
(1)
∀x.
(2)
∀x ∀y.
(3)
∀x ∀y.
(4)
∀x ∀y.
(5) ∀x ∀y ∀z.
(6)
∀x
x+x=x
x+y =0
x+y =0
x−y =0
z+y =x
⇒
⇒
⇒
⇒
⇒
x=0
y = −x
y = −x
x=y
z =x−y
x = −(−x)
Aus (R1)-(R9) folgen
(7)
∀x.
(8)
∀x.
(9)
∀x.
(10) ∀x ∀y ∀z.
(11)
∀x
0·x=0
(−1)x = −x
(−1)(−1) = −1
x(y − z) = xy − xz
(∀y. xy = y) ⇒ x = 1
Wir beweisen (1), (2) und (7) sowie, unter der Vorausseztung der Nullteilerfreiheit, die Kürzungeregel. Die restlichen Beweise lassen wir als Übung.
AXIOME: (R1)-(R4)
ZEIGE: ∀x. x + x = x ⇒ x = 0
SEI: a FAB
ZEIGE: a + a = a ⇒ a = 0
ANNAHME: a + a = a
ZEIGE: a = 0
a=
=a+0
= a + (a − a)
= (a + a) − a
=a−a
=0
QED: a = 0
QED: a + a = a ⇒ a = 0
QED: ∀x. x + x = x ⇒ x = 0
(R2) [a/x]
(R3) [a/x]
(R1) [a/x, a/y, (−a)/z]
Annahme
(R2) [a/x]
Leibniz
(⇒I)
(∀I)
2.7 Rechnen in kommutativen Gruppen und Ringen
AXIOME: (R1)-(R4)
ZEIGE: ∀x ∀y. x + y = 0 ⇒ y = −x
SEIEN: a, b FAB
ZEIGE: a + b = 0 ⇒ b = −a
ANNAHME: a + b = 0
ZEIGE: b = −a
b=
=b+0
= b + (a − a)
= (b + a) − a
= (a + b) − a
=0−a
= (−a) + 0
= −a
QED: b = −a
QED: a + a = a ⇒ a = 0
QED: ∀x. x + x = x ⇒ x = 0
AXIOME: (R1)-(R8)
ZEIGE: ∀x. 0 · x = 0
SEI: a FAB
ZEIGE: 0 · a = 0
0·a=
= (0 + 0)a
= 0a + 0a
0a + 0a = 0a
0a + 0a = 0a ⇒ 0a = 0
QED: 0a = 0
QED: ∀x. 0 · x = x
15
(R2) [b/x]
(R3) [a/x]
(R1) [b/x, a/y, (−a)/z]
(R4) [b/x, a/y]
Annahme
(R4) [0/x, (−a)/y]
(R2) [(−a)/x]
Leibniz
(⇒I)
(∀I)
(R2) [0/x]
(R8) [a/x, 0/y, 0/z]
Leibniz
(∀E) in (1) [0a/x]
(⇒E)
(∀I)
16
2 LOGISCHES SCHLIESSEN
AXIOME: (R1)-(R9), (0) ∀x∀y. ¬(x = 0) ∧ x · y = 0 ⇒ y = 0
ZEIGE: ∀x ∀y ∀z. ¬(x = 0) ∧ x · y = x · z ⇒ y = z
SEIEN: a, b, c FAB
ZEIGE: ¬(a = 0) ∧ a · b = a · c ⇒ b = c
ANNAHME: ¬(a = 0) ∧ a · b = a · c
ZEIGE b = c
¬(a = 0)
(∧E)
a · b = a · c [1]
(∧E)
a(b − c) =
(10) [a/x, b/y, c/z]
= ab − ac
Termersetzung [1]
= ab − ab
(R2) [ab/x]
=0
a · (b − c) = 0
Leibniz
¬(a = 0) ∧ a · (b − c) = 0
(∧I)
¬(a = 0) ∧ a(b − c) = 0 ⇒ b − c = 0
(∀E in (0) [a/x, (b − c)/y]
b−c=0
(⇒E)
QED b=c
(∀E) in (2) [b/x,c/y]
QED ¬(a = 0) ∧ a · b = a · c ⇒ b = c
(⇒ I)
QED: ∀x ∀y ∀z. ¬(x = 0) ∧ x · y = x · z ⇒ y = z
(∀I)
***
2.8 Äquivalenzbeweise
2.8
17
Äquivalenzbeweise
Wir können die Äquivalenz α ⇔ β (lies: α ist äquivalent oder gleichbedeutend zu β) auffassen als Konjunktion zweier Implikationen: (α ⇒ β) ∧ β ⇒
α). Also: α trifft genau dann zu, wenn β zutrifft. In Tabellenform (für lokale
Aussagen)
β
W F
α α∧β
W
W F
F
F W
Wir können aber auch die zusammengefassten Schlussregeln angeben
• Von A ⇔ B und A können wir auf B schliessen, von A ⇔ B und B
auf A.
A⇔B
A⇔B
A
B
(⇔E)
A
(Äquivalenz-Elimination)
B
(⇔E)
• Haben wir B unter der Annahme A und A unter der Annahme B
bewiesen, so haben wir A ⇔ B beweisen.
[A]
..
.
[B]
..
.
B
A
A⇔B
(Äquivalenz-Introduktion)
(⇔I)
18
2 LOGISCHES SCHLIESSEN
Äquivalenzbeweis
ZEIGE: A ⇔
B
ANNAHME
1:
A
Sätze, die unter Voraussetzungen die paarweise Äquivalenz mehrerer lokaler Aussagen
behaupten, sind in der Mathematik sehr beliebt. Man muss dabei nicht alle paarweisen
Äquivalenzen beweisen, sondern es genügt
soviele Implikationen zu beweisen, dass man
längs der Implikationspfeile von jeder Aussage zu jeder anderen gelangen kann. Der einfachste Fall ist der eines kreisförmigen Weges
von Implikationen.
ZEIGE:
B
arbeite
QED
1:
B
ANNAHME
2:
B
ZEIGE:
A
arbeite
QED
2:
B
QED: A ⇔ B
2.9 Disjunktion und Fallunterscheidung
2.9
19
Disjunktion und Fallunterscheidung
Fallunterscheidung
ZEIGE: A
FÄLLE: B1 , , B2
• Von jedem der Ai können wir auf A1 ∨
. . . ∨ Ak schliessen.
ZEIGE: B1 ∨ B2
arbeite
QED: B1 ∨ B2
Ai
A1 ∨ . . . ∨ Ak (∨I)
(Oder-Introduktion)
FALL 1: ANN.: B1
ZEIGE:
A
arbeite
QED
1: A
• Haben wir A1 ∨ . . . ∨ Ak bewiesen und
B unter jeder der Annahmen Ai bewiesen, so haben wir B bewiesen.
[A1 ] . . . [Ak ]
..
..
.
.
A1 ∨ . . . ∨ Ak B . . . B
B
(∨E)
(Fallunterscheidung
(Oder-Elimination )
FALL 2: ANN: B2
ZEIGE:
A)
arbeite
QED
2: A
QED: A
2.10
Existenzbeweise
Sind die ti (lokal) konstante Terme und haben wir A(t1 , . . . , tn ) bewiesen, so
auch ∃x1 . . . ∃xn . A(x1 , . . . , xn ) Aufzeigung, Konstruktion.
A(t1 , . . . , tn )
∃x1 . . . ∃xn . A(x1 , . . . , xn ) (∃I)
Aufzeigung, Konstruktion
Ti lokal konstante Terme
Beispiel: ∃y : N. y 3 = 27 wird durch t = 3 belegt. Nun können wir auch
∃x : N. A(x) mit A(x) == 3x = 27 beweisen: mit t == 3y folgt das aus der
leichten Aufgabe ∃y : N. A(t) == ∃y : N. 3(3y) = 27.
Haben wir ∃x1 . . . ∃xn . A(x1 , . . . , xn ) bewiesen und, mit neuen Konstanten ci
(für die als existent nachgewiesenen, aber nicht gefangenen Einhörner) unter
der Annahme A(c1 , . . . , cn ) auch B bewiesen, so haben wir B bewiesen.
20
2 LOGISCHES SCHLIESSEN
[A(c1 , . . . , cn )]
..
.
∃x1 . . . ∃xn . A(x1 , . . . , xn )
Beweis durch Hilfsgrössen
ci neue Konstanten: Einhörner
B
B
(∃E)
In der Praxis bedeutet das oft: aus der puren Existenz einer Lösung auf
die Konvergenz eines Näherungsverfahrens zur Berechnung einer Lösung zu
schliessen. Prominentes Beispiel in der Linearen Algebra: Die Hauptachsentransformation für reelle symmetrische Matrizen. Die ‘Einhörner’ sind dabei
reelle Zahlen, die man meist nicht explizit ausrechnen kann, die jedoch als
Grenzwerte konvergenter Folgen belegt sind.
Einhorn
Konstruktion
ZEIGE: ∀x. B(x)
∃y. A(x, y)
ZEIGE:
(∃x. A(x)) ⇒ B
⇒
SEI: c FAB
mit B(c)
WÄHLE:
c
mit
A(c)
KONSTRUIERE:
Term t(x)
ZEIGE:
A(c, t(c))
arbeite
QED:
A(c, t(c)
QED: ∀x.
B(x)
∃y. A(x, y)
2.11
ZEIGE:
B
arbeite
QED:
B
⇒
QED: (∃x. A(x)) ⇒
B
Negationsregeln und Widerlegung
¬Ai
¬(A1 ∧ . . . ∧ Ak )
[A]
..
.
¬B
B
¬A
A∨B
modus tollens,
Notwendigkeit
von B für A
¬A
B
¬A
A⇒B
materiale Implikation,
Grüner Käse
Während die ersten drei Regeln auf unproblematische Weise das Zusammenspiel der Negation mit den anderen Junktoren wiedergeben, stösst die vierte
häufig auf Befremden: sie erklärt folgende Aussage als wahr “Wenn der Mond
aus grünem Käse ist, so ist 0 = 1” - da nämlich der Mond erwiesenermaßen
nicht aus grünem Käse ist. Etwas mathematischer: “ Wenn 0 = 1, dann sind
Fünfe gerade”. Wie man am Beweis der Transitivität der natürlichen Ord-
2.12 Indirekter Beweis
21
nung sieht, ist dieser Schluss unentbehrlich, sobald man Vorbedingungen in
negierter Form (wie x 6= 0) benutzen muss.
Aussagen der Form
A ∧ ¬A, ∃x. x 6= x,
oder 0N = 1N
heissen Widersprüche, da sie in keinem nur denkbaren Bereich gültig sein
können. Aus einem Widerspruch kann man jeden andern (und was sonst beliebt) beweisen, also kann man sie zu ‘FALSUM’ oder ⊥ zusamenfasssen. Hat
man aus einer Aussage A einen Widerspruch hergeleitet, d.h. hat man A ad
absurdum geführt, so hat man ¬A bewiesen. Die Aussage “für kein x gilt
A(x)” kurz ∀x. ¬A(x), beweist man dadurch, dass man aus einem angenommenen Beispiel einen Widerspruch herleitet. Die Existenz eines x mit ¬A(x)
wird durch Widerlegung von ∀x. A(x) bewiesen.
Ausschluss von Gegenbeispielen
Widerlegung
ZEIGE: ¬A
ZEIGE: ∀x. A(x)
ANNAHME:
A
WIDERLEGE
arbeite
QED:
FALSUM
F ALSU M
¬A
¬I
WIDERLEGE
arbeite
QED:
FALSUM
QED: ∀x. A(x)
QED: ¬A
[A]
..
.
SEI: c
FAB
mit
¬A(c)
[∃x1 . . . ∃xn . A(x1 . . . . , xn )]
..
.
[∀x1 . . . ∀xn . ¬A(x1 , . . . , xn )]
..
.
F ALSU M
∀x1 . . . ∀xn . ¬A(x1 , . . . , xn )
F ALSU M
∃x1 . . . ∃xn . ¬A(x1 . . . . , xn )
Den Umgang mit dem Widerspruch beschreiben die folgenden beiden Regeln
¬A
A
⊥
quodlibet
2.12
(⊥I)
⊥
ex falso
A (⊥E)
Indirekter Beweis
Der Gebrauch doppelter Verneinung ¬¬A ist in der Mathematik und Informatik in der Regel nur Folge von Gedankenlosigkeit und kann meist vermie-
22
2 LOGISCHES SCHLIESSEN
den werden. Dennoch wird überwiegend die Gleichsetzung von A und ¬¬A
akzeptiert: A ⇔ ¬¬A. Das rechtfertigt dann den häufig bequemen Beweis
einer Aussage A durch Widerlegung der Gegenannahme ¬A, einer Allaussage
∀x. A(x) durch Ausschluss eines Gegenbeispiels ¬A(c).
[¬A]
..
.
F ALSU M
A
¬E
Indirekter Beweis,
Widerspruchsbeweis,
reductio ad absurdum
[¬A(c1 , . . . , cn )]
..
.
F ALSU M
∀x1 . . . ∀xn . A(x1 , . . . , xn )
Von derselben Art sind der Beweis durch Kontraposition (statt A ⇒ B
zeigt man ¬B ⇒ ¬A) und die Annahme des tertium non datur: A ∨ ¬A.
[¬B]
..
.
¬A
A⇒B
beweis
Kontraposition
[A]
..
.
[¬A]
..
.
B
B
Fallunterscheidung
B
mit ausgeschlossenem Dritten,
tertium non datur
[¬A1 ∧ . . . ∧ ¬Ak ]
..
.
nichtF ALSU M
A1 ∨ . . . ∨ Ak
konstruktives
[∀x1 . . . ∀xn . ¬A(x1 , . . . , xn )]
..
.
Oder
F ALSU M
∃x1 . . . ∃xn . A(x1 , . . . , xn )
konstruktive
Existenz
nicht-
Dass man bei solchen Schlussweisen leicht von der intuitiven Einsicht in den
zu studierenden Sachverhalt abhebt sei nur durch ein Beispiel belegt. Wir
behaupten, dass es irrationale Zahlen a, b gibt so, dass ab rational ist und
beweisen es durch die folgende Fallunterscheidung:
1. Fall:
2. Fall:
√
√
√
2
2√ ist rational.
2
2
ist irrational.
√
Wähle: a = b =√ 2
√ 2
√
Wähle: a = 2 , b = 2
2.12 Indirekter Beweis
23
Fall und Gegenfall
ZEIGE: A
Kontraposition
Indirekter
Beweis
FALL
1:
B
ZEIGE:
A⇒B
ZEIGE: A
ANNAHME:
¬A
ANNAHME:
¬B
WIDERLEGE
ZEIGE:
¬A
arbeite
QED: A
QED
1:
A
FALL
2:
¬B
arbeite
QED:
FALSUM
arbeite
QED:
¬A
arbeite
QED: A ⇒
B
QED
2:
A
QED: A
24
2 LOGISCHES SCHLIESSEN
Nichtkonstruktive
Existenz
Nichtkonstruktives
Oder
ZEIGE: A1 ∨A2
ZEIGE:
∃x. A(x)
ANNAHMEN:
¬A1 , ¬A2
WIDERLEGE
arbeite
QED:
FALSUM
QED: A1 ∨ A2
ANNAHME:
∀x. ¬A(x)
WIDERLEGE
arbeite
QED:
FALSUM
QED: ∃x. A(x)
2.13 Logische Äquivalenzen
2.13
Logische Äquivalenzen
A ∧ A h≡i
A ∧ B h≡i
A ∧ (B ∧ C) h≡i
A ∨ A h≡i
A ∨ B h≡i
A ∨ (B ∨ C) h≡i
¬¬A h≡i
¬(A ∧ B) h≡i
¬(A ∨ B) h≡i
A ∧ (B ∨ C) h≡i
A ∨ (B ∧ C) h≡i
A ⇒ B h≡i
A ⇔ B h≡i
¬∀xA(x) h≡i
¬∃xA(x) h≡i
∀x. (A(x) ∧ B(x)) h≡i
∃x. (A(x) ∨ B(x)) h≡i
∀x.∀y. A(x) h≡i
¬∀x. A(x) ⇒ B(x) h≡i
¬∃x. A(x) ∧ B(x) h≡i
∃x∃yA(x) h≡i
∀x. (A(x) ∨ B(x)) h≡i
∃x. (A(x) ∧ D) h≡i
∀x. (A(x) → D) h≡i
∃x. (A(x) → D) h≡i
falls x in D, wenn überhaupt, dann nur
2.14
25
A
B∧A
(A ∧ B) ∧ C
A
B∨A
(A ∨ B) ∨ C
A
¬A ∨ ¬B
¬A ∧ ¬B
A∧B∨A∧C
(A ∨ B) ∧ (A ∨ C)
¬A ∨ B
(A ⇒ B) ∧ (B ⇒ A)
∃x¬A(x)
∀x. ¬A(x)
∀x. A(x) ∧ ∀x. B(x)
∃x. A(x) ∨ ∃x. B(x)
∀y.∀x. A(x)
∃x. A(x) ∧ ¬B(x)
∀x. A(x) ⇒ ¬B(x)
∃y∃xA(x)
(∀x. A(x)) ∨ B(x)
(∃x. A(x)) ∧ D
(∃x. A(x)) → D
(∀x. A(x)) → D
quantifiziert vorkommt.
Beschränkte Quantoren
Betrachet man Strukturen mit einer durch ein einstelliges Prädikat P (x) ausgezeichneten Teilmenge, so benutzt man folgende abkürzende Schreibweise
∀x ∈ P. α statt ∀x. P (x) ⇒ α
∃x ∈ P. α statt ∃x. P (x) ∧ α
Man liest: “Für alle x in P ” bzw. “es gibt x in P ”. Beispiel: In R hat man
die ausgezeichnete Teilmenge N>0 der natürlichen Zahlen > 0
1
∀x. (0 ≤ x ∧ ∀y ∈ N>0 . x ≤ ) ⇒ x = 0
y
∀x. ∃y ∈ N. x ≤ y
Die Zuordnung von Buchstaben am Ende des Alphabets zu Variablen, am
Anfang zu Konstanten wird im mathematischen Alltag oft nicht eingehalten.
Stattdessen benutzt man Buchstaben, die Assoziationen an den Namen der
relevanten Menge erwecken, z.B. n, m für natürliche Zahlen, P, Q für Punkte,
g, h für Geraden. Ob dann Variablen oder Konstanten gemeint sind, muss der
Leser aus dem Zusammenhang erschließen.
26
2 LOGISCHES SCHLIESSEN
2.15
Affine Inzidenzebene
Um einfache und sinnvolle Beispiele für obige Schlussregeln zu erhalten, betrachten wir ein geometrisches Axiomensystem, das einige Grundtatsachen
zur Inzidenz von Punkten und Geraden in der Ebene wiedergibt. Die Modelle
heissen auch affine Inzidenzebenen. Wir haben zwei Sorten von Objekten
• Punkte, bezeichnet durch Variablen X, Y, . . . und lokale Konstanten
P, Q, . . .
• Geraden, bezeichnet durch Variablen x, y, . . . und lokale Konstanten
g, h, . . .
und die binäre Relation der Inzidenz zwischen Punkten und Geraden
• Xy, P g (P liegt auf g) usw.
Wir benutzen die folgenden abkürzenden Schreibweisen
• x 6= y für ¬(x = y) und X 6= Y für ¬(X = Y )
• x k y für x = y ∨ ¬(∃X. Xx ∧ Xy) (x parallel y)
• X/
y für ¬(Xy) und x 6k y für ¬(x k y)
• κ(X, Y, Z) für ∃u. Xu ∧ Y u ∧ Zu (X, U, Z sind kollinear, liegen auf
einer Geraden)
• ∃1 x. φ(x) für (∃x. φ(x)) ∧ ∀x∀y. φ(x) ∧ φ(y) ⇒ x = y (genau ein x mit
φ(x))
Die Axiome sind nun:
(E1) Zu je zwei verschiedenen Punkten gibt es genau eine Gerade durch diese
Punkte
∀X∀Y. X 6= Y ⇒ ∃1 z. Xz ∧ Y z
(E2) Zu jeder Geraden und jedem Punkt gibt es genau eine Parallele durch
diesen Punkt
∀x∀Y ∃1 z. Y z ∧ z k x
(E3) Es gibt drei nicht kollineare Punkte
∃X∃Y ∃Z¬κ(X, Y, Z)
Neben “der” Ebene gibt es noch viele andere Modelle, z.B. solche mit pn
Punkten, wobei p Primzahl und n ∈ N>0 . Es ist ein offenes Problem, ob
andere endliche Elementanzahlen vorkommen.
Wir folgern aus den Axiomen (E1), (E2), (E3)
(4) Jede Gerade ist zu sich selbst parallel
2.15 Affine Inzidenzebene
27
(5) Ist die Gerade g zu h parallel, so auch h zu g
(6) g k h genau dann, wenn (∃X. Xg ∧ Xh) ⇒ g = h
(7) Nicht parallele Geraden haben mindestens einen gemeinsamen Punkt
(8) Sind die Geraden g und h und h und k parallel, so sind auch g und k
parallel
(9) Je (drei) nichtkollineare Punkte sind paarweise verschieden
(10) Sind P, Q, R nicht kollinear und g eine Gerade durch P und Q, h eine
Gerade durch P und R, so sind g und h nicht parallel
(11) Jede Gerade enthält mindestens 2 verschiedenen Punkte
(12) Es gibt 4 paarweise verschiedene Punkte
(13) Für Geraden g und h sind äquivalent
(i) g nicht parallel zu h
(ii) g 6= h und es gibt einen gemeinsamen Punkt von g und h
(iii) g und h haben genau einen Punkt gemeinsam
(14) Zu je (zwei) Geraden gibt es eine Gerade, die zu keiner der beiden
parallel ist
(15) Zu je (zwei) Geraden gibt es eine bijektive Abbildung der Menge der
Punkte auf der einen, auf die Menge der Punkte auf der anderen.
25
3
Reelle Zahlen und Vektoren
Wir setzen Kenntnis und anschauliches Verständnis der Grundtatsachen elementarer Geometrie und Arithmetik voraus. Ziel dieses Kapitels ist es, dieses
Verständnis zu vertiefen und gleichzeitig in die vektorielle Geometrie einzuführen. Während wir Punkte, Geraden, Ebenen und die Beziehungen zwischen ihnen als geometrische Gegebenheiten akzeptieren, müssen wir den
Begriff des “Vektors” erst erarbeiten. Die Motivation für Vektoren kommt
natürlich aus der Physik z.B. Kraft- und Geschwindigkeitsvektoren
Eine vektorielle Grösse wird angegeben durch Betrag/Länge und
Richtung
Als geometrisches Objekt ist ein Vektor demnach eindeutig bestimmt durch
“Länge” und “Richtung”. Insbesondere ist die Gleichheit von Vektoren die
Gleichheit nach Länge und Richtung. Was aber ist damit gemeint? Müssen
wir uns für die Längen vorher auf ein Maßsystem einigen, und wie stellen
wir die Richtung fest? Mit dem Kompass? Zum Glück handelt es sich um
ein Scheinproblem: üblicher “Didaktik” folgend, haben wir uns auf abstrakte
Begriffe eingelassen, ohne vorher die konkrete Repräsentation und die Voraussetzungen für den Abstraktionsprozess zu klären. Schlimmer wäre nur
noch, mit einem “Koordinatensystem” anzufangen.
3.1
Pfeile
Um eine bestimmte Länge und Richtung anzugeben, weist man am einfachsten ein Objekt auf, dem diese zukommen. Zum Beispiel einen Pfeil, d.h. ein
Punktepaar P Q = (P, Q) bestehend aus Anfangspunkt P und Endpunkt Q
des Pfeils. Wir haben damit einen neuen Typ von geometrischen Objekten
und müssen nun präzisieren, was “Übereinstimmung nach Länge und Richtung”, kurz “Äquivalenz”, heissen soll. Zwei Pfeile P Q und RS, die nicht auf
einer Geraden liegen, heissen aquivalent und wir schreiben P Q ∼ RS, wenn
die zugehörigen Punkte ein Parallelogramm wie in der Skizze bilden. Auf
die Orientierung kommt es dabei nicht an, wir haben also auch QP ∼ SR,
P R ∼ QS usw.
S
U
V
Q
R
P
P
Q
Für Pfeile, die auf derselben Geraden g liegen, definieren wir
P Q ∼ RS ⇔ es gibt U V nicht auf g mit P Q ∼ U V und U V ∼ RS
R
S
26
3 REELLE ZAHLEN UND VEKTOREN
dabei kann man U sogar beliebig (ausserhalb g) vorgeben. Festzuhalten ist,
dass die Relation der Äquivalenz mittels Geodreieck und Lineal überprüft
werden kann.
R
Elementargeometrisch kann man die Parallelogrammergänzung zeigen:
Zu den Punkten P, Q, R gibt es einen eindeutig
bestimmten Punkt S mit P Q ∼ RS.
3.2
S
P
Q
Vektoren
Wir wollen nun den Begriff “Vektor” dadurch einführen, dass wir sagen:
• Pfeile repräsentieren genau dann denselben Vektor, wenn sie äquivalent
sind.
Wenn das nicht zu Widersprüchen führen soll, muss ∼ eine “Äquivalenzrelation” sein, d.h. die folgenden Grundeigenschaften einer Gleichheitsrelation
erfüllen
• PQ ∼ PQ
(Reflexivität)
• Aus P Q ∼ RS folgt RS ∼ P Q
(Symmetrie)
• Aus P Q ∼ U V und U V ∼ RS folgt P Q ∼ RS
(Transitivität)
V
Die ersten beiden Eigenschaften
sind offensichtlich erfüllt, hinter
der dritten steckt ein zwar anschaulich einsichtiger, aber nicht
trivialer Satz (vgl. Skizze).
U
S
Q
R
P
Durch “Abstraktion” nach dieser Äquivalenzrelation erhalten wir numehr
den Begriff Vektor:
• Vektoren sind Grössen, die durch Pfeile repräsentiert werden
−→
• Jeder Pfeil P Q repräsentiert genau einen Vektor P Q
−→ −→
• P Q = RS genau dann, wenn P Q ∼ RS
−→ −→
• Gilt P Q = RS, so P = R genau dann, wenn Q = S
Entscheidend für das Zusammenspiel zwischen Punkten und Vektoren und
damit die Grundlage für das Rechnen mit Vektoren sind nun die folgenden
beiden Tatsachen
3.3 Vektoraddition
27
(A1) Zu jedem Punkt P und Vektor ~v
gibt es genau einen Punkt Q mit
−→
~v = P Q. Wir schreiben
~v
Q = ~v + P
Q = ~v + P.
(A2) Zu je zwei Punkten P, Q gibt es
−→
genau einen Vektor ~v mit ~v = P Q
(gleichwertig: mit Q = ~v + P )
P
−→
Ist nämlich ~v = AB, so erhält man Q = ~v + P , indem man A, B, P zum Parallelogramm ergänzt und Q ist dadurch eindeutig bestimmt, unabhängig von
−→ −−→
der Wahl des repräsentierenden Pfeils: Ist AB = A0 B 0 und Q0 die Ergänzung
von A0 , B 0 , P zum Parallelogramm, so P Q ∼ AB ∼ A0 B 0 ∼ P Q0 , also
P Q ∼ P Q0 und daher Q = Q0 . Wir haben somit eine wohldefinierte Operation +, die Vektoren mit Punkten zu Punkten verknüpft. In der zweiten
Aussage steckt die Tatsache, dass wir Vektoren durch Abstraktion aus der
Menge der Pfeile eingeführt haben.
3.3
Vektoraddition
Zu je zwei Vektoren ~a, ~b gibt es genau einen Vektor ~c so, dass es Punkte
P.Q.R gibt mit
−→
−→
−→
~a = P Q und ~b = QR und ~c = P R
Q0
~b
~a
Damit dürfen wir definieren:
R0
P0
~a + ~b := ~c
~c0
Q
Die Existenz von ~c ist klar, die Eindeutigkeit ergibt
sich aus der Skizze. Weiterhin erhalten wir
~b
~a
~c
R
P
w
~
~v
(A3) (w
~ + ~v ) + P = w
~ + (~v + P )
w
~ + ~v
P
~v + P
w
~ + (~v + P )
= (w
~ + ~v ) + P
28
3 REELLE ZAHLEN UND VEKTOREN
(V1) (w
~ + ~v ) + ~u = w
~ + (~v + ~u)
~c
~b
~c + ~b
~b + ~a
(~c + ~b) + ~a
= ~c + (~b + ~a)
~a
S
~v
R
(V2) ~v + w
~ =w
~ + ~v
w
~
w
~
P
~v
Q
• Alle Pfeile P P repräsentieren denselben Vektor ~0 und es gilt
(A4) ~0 + P = P,
(V3) ~v + ~0 = ~v
• Zu jedem Vektor ~a gibt es genau einen Vektor ~b so, dass es Punkte P, Q
−→
−→
gibt mit ~a = P Q und ~b = QP .
Somit erhalten wir eine wohldefinierte Operation ~a 7→ −~a mit
−→
−→
−~a = QP genau dann, wenn ~a = P Q
~v
und es gilt
(V4) ~v + (−~v ) = ~0
3.4
−~v
Natürliche Zahlen
Die Arithmetik gründet auf das Prinzip des “Weiterzählens“ und erscheint
eng mit der Zeitvorstellung verbunden. Die Reihe N der natürlichen Zahlen
0, 1, 2, 3, . . . nehmen wir als gegeben. Die relevante Struktur ist das ausgezeichnete Element 0 und die “Nachfolgeroperation” n 7→ n + 1. Sie wird
charakterisiert durch die folgenden Eigenschaften
3.5 Ganze Zahlen
29
• 0 ist kein Nachfolger, d.h. 0 6= n + 1 für alle n
• Aus n + 1 = m + 1 folgt n = m
• Induktionsprinzip: Ist A(x) ein Aussage so, dass A(0) gilt (Verankerung) und A(n + 1) stets aus A(n) folgt (Induktionsschritt), so gilt
A(n) für alle n
Hinzu kommt das (beweisbare) Prinzip der rekursiven Definition. Dieses erlaubt z.B. das n-fache n~a eines Vektors ~a durch folgende Angaben zu
definieren
0~a = ~0, (n + 1)~a = n~a + ~a
Weitere Beispiele sind die Definitionen
m + 0 = m, m + (n + 1) = (m + n) + 1 (Addition)
m · 0 = 0, m · (n + 1) = m · n + m (Multiplikation)
m 6< 0, m < n + 1 genau dann, wenn m < n oder m = n (Anordnung)
0! = 1, (n + 1)! = n! · (n + 1) (Fakulät)
Dass dann die Ihnen wohlbekannten Gesetze der Arithmetik gelten, kann
man (meist durch Induktion) beweisen.
3.5
Ganze Zahlen
Die Zahl a − b ist dadurch charakterisiert, dass (a − b) + b = a. Innerhalb
der natürlichen Zahlen existiert sie genau dann, wenn b ≤ a. Will man diese Einschränkung aufheben (und dafür gibt es viele praktische Gründe), so
kommt man zu den ganzen Zahlen: diese haben eine eindeutige Darstellung
der Form
n mit n ∈ N bzw. − n mit n ∈ N, n 6= 0
Wir rechnen mit Zahlen aus N wie vorher und setzen
n − m falls m ≤ n
n+(−m) = (−m)+n =
(−n)+(−m) = −(n+m)
−(m − n) falls n < m
(−n) · m = m · −(n) = −(nm), (−n) · (−m) = nm
−n < m, −n < −m genau dann, wenn m < n
Wir können nun die Umkehrung und die Subtraktion für beliebige ganze
Zahlen definieren
−(−n) = n, a − b = a + (−b)
Wieder ergibt sich die Aufgabe, alle Gesetze der Arithmetik nachzuweisen.
30
3 REELLE ZAHLEN UND VEKTOREN
3.6
Rationale Zahlen
Die rationalen Zahlen entstehen als ganzzahlige Vielfache von Bruchteilen
oder aus Zahlverhältnissen, d.h. sie werden durch “Quotienten“ wz mit ganzen
z, w und w 6= 0 repräsentiert und es gilt
a
c
=
genau dann, wenn ad = cb
b
d
d.h. wir haben eine Äquivalenzrelation für formale Quotienten und durch
Abstraktion erhalten wir den Bereich Q der rationalen Zahlen. Addition und
Multiplikation werden nach den hoffentlich bekannten Gesetzen der Bruchrechnung ausgeführt
ad + cb
a
−a
a c
+ =
, − =
,
b d
bd
b
b
a c
ac
· =
b d
bd
(wobei das Wichtigste der Nachweis ist, dass diese Definitionen unabhängig
von der Wahl der Repräsentanten sind) und die ganzen Zahlen kann man
auch darin wiederfinden: man identifiziere
a=
a
1
Die Anordnung kann man auf Q übertragen durch
a
> 0 genau dann, wenn ab > 0, r > s genau dann, wenn r − s > 0
b
Zu rationalen Zahlen 6= 0 kann man jetzt den Kehrwert bilden
a
b
( )−1 =
für a, b, 6= 0
b
a
und dieser ist charakterisiert durch r · r−1 = 1. Dies erlaubt uns nun die
Schreibweise
s
= s · r−1 für s, r ∈ Q, r 6= 0
r
Auch hier kann (und sollte) man die bekannten Gesetze nachweisen. Wenn
man die Ausführbarkeit der Operationen und die Gültigkeit dieser Gesetze
für einen Zahlbereich voraussetzt, so muss dieser (bis auf Isomorphie) Q
enthalten. Daher dürfen wir Q als eine verlässliche Grundlage für das Weitere
ansehen.
3.7
Rationale Vielfache von Vektoren
Durch Rekursion hatten wir für einen Vektor ~a die Vielfachen n~a mit n ∈
N definiert. Wenn wir die Relation “P liegt zwischen Q und R” in unsere
überlegungen einbeziehen, lehrt uns die Geometrie, dass
n~a = ~0 genau dann, wenn ~a = 0 oder n = 0
und dass wir jeden Vektor in n gleiche Teile teilen können
3.7 Rationale Vielfache von Vektoren
31
• Zu jedem Vektor ~a und jedem n ∈ N, n 6= 0 gibt es einen eindeutig
bestimmten Vektor ~b mit
1
n~b = ~a geschrieben ~b = ~a
n
−→
Konstruktion. Sei ~a = SA. Wähle C0 = S, C1 nicht auf der Geraden
−−→
g durch SA. Sei ~c = SC1 und Ck auf der Geraden h durch SC1 so, dass
−−−→
S, Ck = k~c. Sei Bn = A und Bk der Schnittpunkt von g mit der Parallelen
zu Cn Bn durch Ck . Wähle D1 = B1 und rekursiv
Di+1 = ~c + Di
Zu zeigen ist:
−−−−→ ~ −−−−→
Ci Di+1 = b = Bi Bi+1
durch Induktion. Nach Induktionsvorausetzung haben wir
−−→ ~
Ci Di = b − ~c
also
−−−−→ −−→
Ci Di+1 = Ci Di + ~c = ~b
Somit ist die Gerade durch Ci Di+1 zu der durch SA parallel. Nach Konstruktion (und Transitivität der Parallelität) sind die Geraden durch Ci Di
und Ci+1 Di+1 parallel. Somit haben wir ein Parallelogramm mit Seiten Bi Ci
−−−−→
und Bi+1 Di+1 und es folgt ~b = Bi Bi+1 Somit ~a = n~b.
C4
C3
D4
C2
C1
D3
D2
~c
S = C0 ~b
B1 = D1
B2
B3
B4 = A
Damit können wir nun r~a für beliebige r ∈ Q definieren
m
1
−m
1
~a = m( ~a),
~a = −(m( ~a)) m, n ∈ N, n 6= 0
n
n
n
n
und die folgenden Gesetze für alle Vektoren ~v , w
~ und rationalen Zahlen r, s
nachweisen
(V5) r(~v + w)
~ = r~v + rw
~
(V6) 1~v = ~v ,
(V7) (r + s)~v = r~v + s~v ,
wobei das erste eine Form des Strahlensatzes ist.
(V8) r(s~v ) = (rs)~v
32
3 REELLE ZAHLEN UND VEKTOREN
Zeichnen wir eine Gerade g aus und auf dieser zwei Punkte O 6= E und
−−→
setzen wir ~e = OE, so können wir jeder rationalen Zahl r einen eindeutig
bestimmten Punkt φ(r) auf g zuordnen: φ(r) = r~e + O. Dann erhalten wir
φ(r + s) durch Vektoraddition φ(r + s) = r~e + s~e + O und φ(rs) mithilfe des
Strahlensatzes
mnP’
mnE’
mnr
mnO’
mnE
mn1
mnO
mn1 mnr
mnsr
mns
mnP
mnO
Durch die Auszeichnung von O und E machen wir g zu einer Zahlengeraden
- und haben damit zumindest die rationalen Zahlen erfasst. Der Übergang
zwischen Zahlengeraden erfolgt wie in der zweiten Skizze.
Schliesslich ist r ≥ 0 genau dann, wenn P = r~e + O auf derselben Seite von
O wie E liegt, d.h. wenn P zischen O und E oder E zwischen O und P liegt.
Es gibt jedoch auf jeder Zahlengeraden (unheimlich viele) nicht rationale
Punkte, d.h. Punkte die nicht von der Form r~e + O mit r ∈ Q sind, z.B. P
aus folgender Skizze
mnr
mnE
mnO
mnO
mnE mnP
mn~a
mnr~a
Daher deklarieren wir einfach eine Zahlengerade mit allen ihren Punkten zum
Skalarenbereich und definieren wie oben die Addition durch die Addition von
Vektoren, die Multiplikation über den Strahlensatz und die Anordnung durch
die Lage relativ zu O und E. Dass dann Zahlbereiche herauskommen, in
denen alle schon von Q bekannten Gesetze gelten, und dass diese alle auf die
skizzierte Art miteinander identifiziert werden können, kann man geometrisch
beweisen. Wir dürfen daher von dem Skalarenbereich R der reellen Zahlen
sprechen. Die Multiplikation eines Skalars mit einem Vektor erklären wir (im
3.9 Körper
33
Sinne des Strahlensatzes) wie in der Skizze und überlegen, dass das nicht von
der Wahl der Zahlengeraden abhängt und dass die von der Multiplikation mit
rationalen Skalaren bekannten Gesetze (V5-8) gelten.
3.9
Körper
Ein (kommutativer) Körper ist ein kommutativer Ring so, dass gilt
1 6= 0 und ∀x, x 6= 0 ⇒ ∃y, xy = 1
Es folgt
∀x∀y, x 6= 0 ∧ y 6= 0 ⇒ xy 6= 0
Ist nämlich ab = 0 und z.B. b 6= 0, so gibt es c mit bc = 1 also 0 = abc =
a · 1 = a. Daher gilt:
Ein kommutativer Ring ist genau dann ein Körper, wenn die Elemente 6= 0 bzgl. der Multiplikation eine kommutative Gruppe
bilden.
Verzichtet man auf die Kommutativität der Multiplikation, so handelt es sich
um Schiefkörper. Die Skalerenbereiche räumlicher (oder hóherdimensionaler)
affiner Inzidenz-Geometrien (wir haben nur für Ebenen Axiome angegeben,
in hóherer Dimension muss auch über Ebenen gesprochen werden) sind stets
Schiefkörper und es galten die Axiome (A1)-(A3) und (V1)-(V8). Entscheidend ist dabei der Satz von Desargeus, den man im nicht ebenen Fall beweisen
kann (vgl. Tutorium). Der Satz von Desargues ist im ebenen Fall dazu äquivalent, dass man einen Skalarenschiefkörper hat und (A1)-(A3), (V1)-(V8)
gelten. Es gibt aber auch Ebenen, endliche und unendliche, in denen der Satz
von Desargues nicht gilt. Die Kommutativität des Skalarenkörpers ist gleichbedeutend mit dem Satz von Pappus-Pascal (aus dem der von Desargues
folgt).
Eine Alternative zur Einführunge von Zahlengeraden und dem Nachweis, dass
der Skaleren(schief)körper nicht von deren Wahl abhängt, besteht darin, analog zur Einführung der rationalen Zahlen Verhältnisse ~a : ~b von Vektoren zu
bilden, wobei ~b 6= ~0 und ~a parallel zu ~b. Die Äquivalenz zweier Verhältnisse wird gemäß des Strahlensatzes definiert. Durch Abstraktion nach dieser
Äquivalenzrelation erhält man den Skalarenbereich mit den repräsentatneweise (wohl) zu definerenden Operationen.
3.10
Reelle Zahlen
Zurück zu Anschauungsraum bzw. -ebene. Führen wir Anordnung (Orientierung) von Geraden mit den entsprechenden Axiomen in die Geometrie ein
(und setzen Pappus voraus), so erhalten wir eine Anordnung auf der Zahlengeraden und der Skalarenbereich wird zum angeordneten Körper, d.h. es gilt
34
4 GERADEN, EBENEN, KOORDINATEN
Aus x < y und y < z folgt x < z.
x < y oder x = y oder y < x
Aus x < y folgt x + z < y + z.
x < x für kein x
Aus x < y und 0 < z folgt xz < yz
Wir schreiben a ≤ b falls a < b oder a = b.
Diese Gesetze allein reichen für ein Verständnis des Skalarenbereichs der
Anschauungsgeometrie nicht aus, da sie auch schon von Q erfüllt werden,
andererseits aber, wie oben gesehen, nicht rationale Skalare existieren. Wir
müssen also den Begriff der reellen Zahl so präzisieren, dass er alle geometrischen Grössen einschliesst und mit geometrischen Konstruktionen kompatibel
ist. Andererseits wollen wir festschreiben, dass jede reelle Zahl durch rationale Zahlen approximiert werden kann. Der Schlüssel dazu ist folgender Begriff.
Eine Intervallschachtelung wird gegeben durch zwei Folgen (an | n ∈ N) und
(bn | n ∈ N) von rellen Zahlen so, dass gilt
• an ≤ am ≤ bm ≤ bn für alle n ≤ m
• Zu jedem k > 0 in N gibt es ein n ∈ N mit bn − an ≤
1
k
d.h. die an liefern eine aufsteigende untere Begrenzung, die bn eine absteigende obere Begrenzung und die Grenzen kommen sich immer näher. Die
Intervallschachtelung ist rational. wenn alle an , bn rational sind. Wir sagen, c
wird durch die Intervallschachtelung approximiert, wenn an ≤ c ≤ bn für alle
n. Wir halten nun fest
(1) Jede reelle Zahl kann durch eine rationale Intervallschachtelung approximiert werden.
(2) Jede Intervallschachtelung approximiert genau eine reelle Zahl.
Auf diese Weise hat schon Archimedes den Umfang bzw. Inhalt eines Kreises
mit Hilfe einbeschriebener von unten, umbeschriebener regelmässiger n-Ecke
von oben approximiert. Durch (2) wird die Existenz unendlich kleiner und
unendlich grosser reeller Zahlen ausgeschlossen. Diese infinitesimalen Zahlen
haben für die Entwicklung der Differential- und Integralrechnung eine grosse
Rolle gespielt und sind in der Notation z.B. als dx noch präsent - insbesondere
in den Anwendungen in Naturwissenschaft und Technik. Seit ca. 150 Jahren
hat sich jedoch die oben eingenommene Sichtweise durchgesetzt, weil man
in ihr eher zu einer präzisen Darstellung kommt. Dennoch ist der Gebrauch
infinitesimaler Grössen legitim, wo er sich auf eine verlässliche Intuition oder
ein entsprechend entwickeltes logisches Instrumentarium stützt.
4
4.1
Geraden, Ebenen, Koordinaten
Geraden und Ebenen
Aus der Idee der Zahlengeraden leitet sich auch die folgende Parameterdarstellung von Geraden und Ebenen her
4.2 Ortsvektoren
35
• Sei g ein Gerade, A ein Punkt auf g und ~v 6= ~0 so, dass ~v + A auf g
liegt (~v heisst dann ein Richtungsvektor von g). Dann besteht g gerade
aus den Punkten folgender Form (und diese Darstellung ist eindeutig)
P = r~v + A (r ∈ R)
• Sei ε eine Ebene, A ein Punkt auf ε und ~v , w
~ so, dass A, ~v + A, w
~ + A in
der Ebene ε, aber nicht auf einer Geraden liegen (~v , w
~ bilden dann ein
Paar unabhängiger Richtungsvektoren von ε). Dann besteht ε gerade
aus den Punkten folgender Form (und diese Darstellung ist eindeutig)
P = r~v + sw
~ + A (r, s ∈ R)
P = r~v + sw
~ +A
sw
~
r~v + sw
~
w
~
A
4.2
~v
r~v
Ortsvektoren
Zeichnet man einen Punkt O aus (und nennt ihn den Ursprung), so entsteht
eine umkehrbar eindeutige Beziehung zwischen Punkten und Vektoren
mnP = ~x + O
−→
P →
7 ~x = OP , ~x 7→ P = ~x + O
mnO
mn~x
Gebraucht man Vektoren in diesem Sinne, so spricht man von Ortsvek−→
toren. Mit ~a = OA geht dann die Parameterdarstellung von Geraden bzw.
Ebenen über in (und es ist beliebt, das “+O” zu unterschlagen)
~x + O = r~v + ~a + O, (r ∈ R) bzw. ~x + O = r~v + s~v + ~a + O, (r, s ∈ R)
4.3
Vektor-Koordinaten in der Ebene
Wir beschränken uns im Moment auf eine feste Ebene. Ein Paar ~a1 , ~a2 von
Vektoren heisst (linear) unabhängig, wenn für einen/jeden Punkt O der Ebene
die Punkte O, O + ~a1 , O + ~a2 nicht auf einer Geraden liegen. Damit haben
wir die eindeutige (Parameter)Darstellung
P = x1~a1 + x2~a2 + O (x1 , x2 ∈ R)
für Punkte der Ebene und daher auch für die Vektoren
−→
~x = OP = x1~a1 + x2~a2 (x1 , x2 ∈ R)
36
4 GERADEN, EBENEN, KOORDINATEN
Wir sagen dann, dass ~a1 , ~a2 eine Basis α der Ebene bilden. Die eindeutig
bestimmten Skalare x1 und x2 heissen die Koordinaten von ~x bzgl. α und wir
schreiben
x2~a2
~x = x1~a1 + x2~a2
x1
~a2
~xα =
x2
~a1
x1~a1
Das Rechnen mit Koordinaten geht so
(~x + ~y )α = ~xα + ~y α , (r~x)α = r(~xα )
Dabei ist für Spalten von Skalaren (komponentenweise) definiert
x1
y1
x1 + y 1
x1
rx1
x1
−x1
+
=
, r
=
, −
=
x2
y2
x2 + y 2
x2
rx2
x2
−x2
Beweis. Sei ~x = x1~a1 + x2~a2 , ~y = y1~a1 + y2~a2 . Dann
~x + ~y = x1~a1 + x2~a2 + y1~a1 + y2~a2 = (x1 + y1 )~a1 + (x2 + y2 )~a2
r~x = r(x1~a1 + x2~a2 ) = rx1~a1 + rx2~a2
~u + ~v = 2~a1 + 5~a2
~a2
~u = −1~a1 + 3~a2
~v = 3~a1 + 2~a2
~a1
4.4
Unabhängigkeit
Aus dem Vorangehenden ergibt sich: Für Vektoren ~a, ~b sind äquivalent
(a) ~a = ~0 oder es gibt t ∈ R mit ~b = t~a
4.4 Unabhängigkeit
37
(b) Für einen/jeden Punkt O liegen O, ~a + O und ~b + O auf einer Geraden
(c) Es gibt r, s ∈ R, nicht beide = 0, sodass r~a + s~b = ~0
Beweis als Übung. In diesem Falle sind die beiden Vektoren ~a, ~b linear abhängig
- genauer geht es um die Zweierliste, wobei es hier aber auf die Reihenfolge
nicht ankommt.
Vektoren ~a 6= ~0 und ~b 6= ~0 sind genau dann Richtungsvektoren zueinander
paralleler Geraden, wenn sie linear abhängig sind - wir schreiben ~a k ~b.
Ist ~a, ~b nicht linear abhängig, so spricht man von linear unabhängig. Somit
hat man die Äquivalenz folgender Aufsagen
• ~a, ~b ist linear unabhängig
• Aus r~a + s~b = ~0 folgt stets r = s = 0
• Für einen/jeden Punkt O liegen O, ~a + O, ~b + O nicht auf einer Geraden
Insbesondere also ~a 6= ~0 6= ~b.
Lemma 4.1 Für Vektoren ~a, ~b, ~c des Raumes V des Raumes und einen beliebigen Punkt P sind die folgenden Aussagen äquivalent
1 Geeignete Repräsentanten von ~a, ~b, ~c liegen in einer Ebene, d.h.
~a, ~b, ~c liegen in einer vektoriellen Ebene.
2 Die Punkte ~a + P, ~b + P, ~c + P, P liegen in einer Ebene.
3 Es gibt Skalare r, s, t, nicht alle 0, mit r~a + s~b + t~c = ~0, d.h.
die Vektoren ~a, ~b, ~c sind linear abhängig
4 Sind ~a, ~b nicht parallel, so kann man noch hinzufügen: ~c =
r~a + s~b für passende r, s
~+
Beweis. Die Äquivalenz von (1) und (2) ist klar. Ist ~a k ~b, so liegen A
P, ~b + P, P schon auf einer Geraden und man kann in (3) t = 0 nehmen.
Andernfalls hat man in (3) t 6= 0 also ~c = t−1 r~a + t−1 s~b und somit ~c + P in
der von ~a + P, ~b + P, P aufgespannten Ebene. Liegt umgekehrt ~c + P in dieser
Ebene, so ~c + P = r~a + s~b + P mit passenden r, s, also r~a + s~b + (−1)~c = ~0.
Sind die Vektoren ~e1 , ~e2 , ~e3 nicht linear abhängig, so sind sie linear unabhägig.
Lemma 4.2 Äquivalent sind
(i) ~e1 , ~e2 , ~e3 sind linear unabhängig
(ii) Aus r1~e1 + r2~e2 + r3~e3 = ~0 folgt r1 = r2 = r3 = 0
(iii) Aus x1~e1 + x2~e2 + x3~e3 = y1~e1 + y2~e2 + y3~e3
folgen x1 = y1 , x2 = y2 und x3 = y3
Beweis. (ii) imd (ii) sind nach dem vorangehenden lemme äquivalent. (ii) folgt
aus (iii) mit xi = ri und yi = 0. Gelte nun (ii) und sei x1~e1 + x2~e2 + x3~e3 =
y1~e1 + y2~e2 + y3~e3 . Dann ~0 = x1~e1 + x2~e2 + x3~e3 − (y1~e1 + y2~e2 + y3~e3 ) =
(x1 − y1 )~e1 + (x2 − y2 )~e2 + (x3 − y3 )~e3 also x1 − y1 = x2 − y2 = x3 − y3 = 0. 38
4 GERADEN, EBENEN, KOORDINATEN
4.5
Vektor-Koordinaten im Raum
Die Dreidimensionalität des Raumes drückt sich nun so aus: Ist eine Liste
α dreier unabhängiger Vektoren ~a1 , ~a2 , ~a3 gegeben (und solche gibt es!), so
haben wir die (Parameter)Darstellung
P = x1~a1 + x2~a2 + x3~a3 + O (x1 , x2 , x3 ∈ R)
für Punkte des Raumes und daher auch für die Vektoren
−→
~x = OP = x1~a1 + x2~a2 + x3~a3 (x1 , x2 , x3 ∈ R)
Die Koordinaten xi sind nach
 den
 vorangegangenen Lemma eindeutig bex1
stimmt. Wir schreiben ~xα = x2  und sagen, dass α : ~a1 , ~a2 , ~a3 eine Basis
x3
α des Raumes ist. Aus den Vektorraumaxiomen folgt sofort, dass man mit
Koordinaten komponentenweise rechnet:

 
 
 
x1 + y 1
rx1
x1
y1
(~x + ~y )α = x2 + y2  , (r~x)α = rx2  für ~xα = x2  , ~y α = y2  .
y3
x3 + y 3
rx3
x3

~a3
~x = x1~a1 + x2~a2 + x3~a3
x3~a3
x2~a2
~a2
~a1
4.6
x1~a1
Punkt-Koordinaten
Zeichnet man in einer Ebene bzw. im Raum einen Punkt O (Urpsrung) aus,
so kann man (wie wir in 1.10 gesehen habe) Punkte durch (Orts)Vektoren
bezeichnen
−→
P = ~x + O, ~x = OP
Hat man zusätzlich eine Basis ~a1 , ~a2 so erhält man ein (affines) Koordinatensytem α mit Urspung Oα = O und kann die Koordinaten von P so einführen
P α = ~xα
−→
mit ~x = OP
4.7 Koordinatentransformation in der Ebene
39
~a2
P = 3~a1 + 2~a2 + Oα
~x = 3~a1 + 2~a2
Oα
~a1
3
α
P =
2
4.7
Koordinatentransformation in der Ebene
Gegeben seien zwei Basen von Vε : die alte α : ~a1 , ~a2 und die neue β : ~b1 , ~b2 .
Dann gibt es eindeutig bestimmte Skalare tij , die die neue Basis in der alten
ausdrücken
t12~a1
t
~
a
11
1
~b2 =
~b1 =
+ t22~a2
+ t21~a2
Die Transformationsmatrix α Tβ ist
t11 t12
α Tβ =
t21 t22
In den Spalten der Transformationsmatrix stehen die Koordinaten
der Vektoren der neuen Basis bzgl. der alten Basis
Wir definieren
Lemma 4.3 ~v α =
t11 t12
t21 t22
α Tβ
x1
t11 x1 + t12 x2
=
x2
t21 x1 + t22 x2
~v β
Beweis. Sei ~v = r1~b1 + r2~b2 . Dann
~v = r1 (t11~a1 +t21~a2 )+r2 (t12~a1 +t22~a2 ) = (r1 t11 +r2 t12 )~a1 +(r1 t21 +r2 t22 )~a2 . 40
4 GERADEN, EBENEN, KOORDINATEN
~a2
~v = 2~b1 + 1~b2
= 3~a1 + 5~a2
~b2 = −1~a1 + 3~a2
~b1 = 2~a1 + 1~a2
~a1
4.8
Punktkoordinaten-Transformation in der Ebene
Lemma 4.4 Gegeben seien zwei Koordinatensyteme Oα , α und Oβ , β der
Ebene. Dann
−−−→
P α = α Tβ~ P β + (Oβ )α = α~ Tβ~ P β + ~v α wobei ~v = Oα Oβ .
Beweis. Sei
P = ~x + Oα = ~y + Oβ .
Dann
~y α =
~
α
~ Tβ
~y β ,
~v α = (Oβ )α
~x = ~y + ~v , P α = ~x α = ~y α + ~v α
4.9
Koordinatentransformation im Raum
Die Regeln für Koordinatentransformation im Raum gelten ganz entsprechend. Die Transformationsmatrix ist hier eine 3 × 3-Matrix mit
~xα = α Tβ ~xβ
Dabei ist für eine Matrix T und Spalte x


t11 t12 t13
T = t21 t22 t23  ,
t31 t32 t33
definiert

 
x1

x = x2 
x3

t11 x1 + t12 x2 + t13 x3
T x = t21 x1 + t22 x2 + t23 x3 
t31 x1 + t32 x2 + t33 x3
4.10 Strahlensatz und Distributivgesetz
41
P = 2~b1 + 1~b2 + Oβ
= 3~a1 + 5~a2 + Oβ
= 1~a1 + 6~a2 + Oα
~a2
2~b1 + 1~b2
= 3~a1 + 5~a2
~b2
1~a1 + 6~a2
Oβ
~v = −2~a1 + 1~a2
~b1
~a1
Oα
4.10
Strahlensatz und Distributivgesetz
Legen wir die Vektoraumaxiome (V1)-(V8) zugrunde, so folgt der Strahlensatz: Für unabhängige ~a, ~b und Skalare r, s 6= 0 sind äquivalent
(1) r = s
(2) s~b − r~a = r(~b − ~a)
(3) Es gibt t mit s~b − r~a = t(~b − ~a)
(4) Die Gerade durch ~a + O und ~b + O ist parallel zu der durch r~a + O und
s~b + O
Beweis. (1)
(2)
(3) ist klar, ebenso Äquivalenz von (3) und (4). (3)
(1) mit der Unabhängigkeit: (s − t)~b + (t − r)~a = ~0, also s = t = r. Setzen wir voraus, dass die Multiplikation mit Skalaren wohldefiniert ist
und der Strahlensatz in obiger Form gilt, so folgt das Distributivgesetz (V5).
Wenden wir nämlich den Strahlensatz an auf ~a und ~a + ~b, so ist die Gerade
durch r(~a +~b)+O und r~a +O parallel zu der durch ~a +~b+O und ~a +O; diese ist
aber parallel zu der durch ~b + O und O (Definiton der Vektorgleichheit) und
das ist die durch r~b + O und O. Ebenso ist die Gerade durch r(~a +~b) + O und
r~b+O parallel zu der durch r~a +O und O. Also haben wir ein Parallelogramm
O, r~a + O, r~b + O, r(~a + ~b) + O und somit r(~a + ~b) = r~a + r~b nach Definition
der Vektoraddition. 42
5 SKALARPRODUKT
4.11
Resumee
Die Vektoren des (Anschauungs)Raumes bilden eine kommutative Gruppe,
d.h. es gelten (V1)-(V4). Für die Wirkung P 7→ ~v + P der Gruppe der
Vektoren auf dem Punktraum gelten (A1)-(A3), man erhält so den affinen
Raum. Durch Wahl von Nullpunkt O und Einheit E wird jede Geraden zur
Zahlengeraden, ihre Punkte zu Skalaren. Die Addition von Skalaren ergibt
sich aus der Vektoraddition, die Multiplikation aus dem Strahlensatz, die
Anordnung aus der “Zwischen”-Relation
t~a + P zwischen r~a + P und s~a + P ⇔ r ≤ t ≤ s oder s ≤ t ≤ r
Dass man so in der Tat einen angeordneten Körper erhält, kann man aus
geeigneten geometrischen Axiomen beweisen. Ebenso, dass alle diese Skalarenbereiche auf natürliche Weise isomorph sind. Die Multiplikation Skalar
mal Vektor (r, ~a) 7→ r~a wird ebenfalls über den Strahlensatz definiert und
hängt nicht von der Wahl des Skalarenbereichs ab. Es gelten die Axiome
(V1)-(V8), d.h. man hat einen Vektorraum über dem Skalarenkörper.
Aus den gemetrischen Vollständigkeitseigenschaften folgt die Vollständigkeit des Skalarenbereichs, daher kann dieser als der aus der Analysis bekannte
angeordnete Körper R der reellen Zahlen aufgefasst werden - bis auf Isomorphie gibt es nur einen vollständig angeordneten Körper. Die Dreidiemsnionaliẗat des Raymes bedeutet, dass je 3 unabhängige Vektoren eine Basis bilden.
Somit bilden die Vektoren des (Anschauungs)Raumes einen 3-dimensionalen
R-Vektorraum.
Statt die Skalarenbereiche intern geometrisch zu konstruieren, kann man
R aus Q konstruieren und dann
r~a = lim qn~a mit qn ∈ Q, r = lim qn
n→∞
n→∞
Man muss dann aber das Distributivgesetz (V5) mehr oder weniger direkt
postulieren.
Preisfrage. Sei V eine kommutative Gruppe und sei eine Multiplikation (r.~a) 7→
~a (R ∈ R, ~a ∈ V ) gegeben so, dass (V6)-(V8) gelten und q(~a + ~b) = q~a + q~b
für ale q ∈ Q. Nuss dann (V5) für alle r ∈ R gelten?
Geht man von dem allgemeineren Begriff einer Inzidenzgeometrie aus, so kann
man durch geeignete Axiome für Punkte, Geraden und Ebenen sicherstellen,
dass man auf den eben skizzierten Weg immer noch einen Vektorraum über
den Skalaren(schief)körper erhält. Umgekehrt kann man zu jedem Vektorraum eine Inzidenzgeometrie definieren, der Punkte die Vektoren 6= ~0 sind
und Geraden und Ebenen wie oben durch Parameterdarstellung gegeben.
5
5.1
Skalarprodukt
Richtungskomponenten
Wir setzen voraus, dass wir über Längengleichheit |P Q| = |RS| von Pfeilen reden können und die üblichen Aussagen der Kongruenzgeometrie erfüllt
5.1 Richtungskomponenten
43
sind. Insbesondere sind also gegenüberliegende Seiten eines Parallelogramms
gleich lang und wir können auch darüber reden, dass zwei Vektoren gleich
lang sind (|~a| = |~b|, und dann auch |r~a| = |r~b|). Das passende Gerät um
Längengleichheit festzustellen, ist der Zirkel oder ein Band. Das erlaubt uns,
rechte Winkel und Orthogonalität von Vektoren einzuführen
• ∠QP R ist recht genau dann, wenn P = Q oder wenn es Q0 6= Q auf
der Geraden durch P Q gibt mit |P Q| = |P Q0 |, |RQ| = |RQ0 |
−→
−→
• ~a ⊥ ~b genau dann, wenn ein/alle ∠QP R mit P Q = ~a, P R = ~b recht sind
• Zu jeder Geraden g mit Richtungsvektor ~a und Punkt Q gibt es genau
einen Punkt R auf g (den Fusspunkt des Lotes von Q auf g) so, dass
−→
RQ ⊥ ~a
Damit können wir nun den auch physikalisch grundlegenden Begriff der Komponente ~c eines Vektor ~b in der durch einen Vektor ~a gegebenen Richtung
definieren durch die Bedingungen
mn~b
~c = r~a für ein r ∈ R, (~b − ~c) ⊥ ~a
mn~a
mn~c
In der Tat, ist ~a 6= ~0, so wähle man einen Punkt O und g als die Gerade durch
O mit Richtungsvektor ~a und Q = ~b + O. Dann ergibt sich ~c eindeutig als
−→
~c = OR mit dem Fusspunkt R des Lotes von Q auf g. Ist ~a = ~0, so auch
~c = ~0.
44
5.2
5 SKALARPRODUKT
Skalares Produkt
mn~b
mnf~
mncos φ
mn~c = h~e | ~bi~e = (|~b| cos φ)~e
mn~e
Sei nun zusätzlich eine Längeneinheit festgelegt, z.B. dadurch dass wir einem
bestimmten Pfeil OE die Länge 1 zuschreiben. Um die Länge eines beliebigen
−→
Vektors ~v = P Q 6= ~0 zu bestimmen, konstruieren wir auf der Geraden g durch
O0 = P und Q einen Punkt E 0 mit |O0 E 0 | = |OE| und setzen
−−
→
r
falls r ≥ 0
0 0
|~v | = |r| mit ~v = rO E wobei |r| =
−r falls r < 0
Der Nullvektor ~0 ist der einzige Vektor der Länge 0. Das skalare oder innere
Produkt h~a | ~bi definieren wir zunächst für einen Spezialfall durch folgende
Beziehung
h~e | ~bi~e ist die Komponente von ~b in Richtung ~e falls |~e| = 1
Schreiben wir
cos φ := h~e | f~i falls |f~| = 1, ~b = |~b|f~
so haben wir
h~e | ~bi = |~b| cos φ = |~e| · |~b| · cos φ
Die Bedeutung von φ und cos muss man mit Hilfe des Anschauung aus der
Skizze entnehmen. Erwünscht sind für ein allgemein definiertes Skalarprodukt die Regeln
(E1) h~a | ~bi = h~b | ~ai
(E2) h~a | s~bi = sh~a | ~bi
(E3) h~a | ~b + ~ci = h~a | ~bi + h~a | ~ci
(E4) ha | ai > 0 für ~a 6= 0
Diese verifizieren wir leicht falls ~a = 1 - und in (E1) auch |~b| = 1 - vgl. die
Skizzen. Da wir mit ~e = |~a1| ~a einen Vektor der Länge 1 erhalten, sind wir
5.3 Ungleichungen
45
wegen (E1-2) gezwungen, das Skalarprodukt so zu definieren
h~a | ~bi = |~a|h
1 ~
~a | bi
|~a|
und rechnen sofort nach, das (E1-4) auch dafür gelten. Mit obiger Schreibweise ergibt sich die beliebte Formel
h~a | ~bi = |~a| · |~b| · cos φ
~a · ~b ist eine andere Schreibweise für das Skalarprodukt. Es folgt
h~a | ~bi
~a ist die Komponente von ~b in Richtung ~a
|~a|2
p
h~a | ~ai = |~a|2 , |~a| = h~a | ~ai, h~a | ~bi = 0 genau dann, wenn ~a ⊥ ~b
Zum Nachweis von (E1), (E3) und (E2) siehe folgende Skizzen
~b
B
Q
h~b | ~ai~b
O
|~a| = |~b| = 1
h~a | ~bi~a
P
~a
A
~c
~a
~b
~b + ~c
|~a| = 1
|~a| = 1
~b
~a
r~b
~a
h~a | ~bi~a
h~a | r~bi~a
h~a | ~ci~a
h~a | ~b + ~ci~a
5.3
h~a | ~bi~a
Ungleichungen
Als Einübung auf späteres rein axiomatisches Vorgehen, wollen wir die folgenden geomertrischen Aussagen ausschliesslich mit (V1-8) und (E1-4) herleiten,
Insbesondre ist |~a| und ⊥ wie oben aus dem Skalarprodukt definiert.
46
5 SKALARPRODUKT
Satz 5.1
• |~a + ~b|2 = |~a|2 + |~b|2 ⇔ ~a ⊥ ~b
Pythagoras
• (~b − ~c) ⊥ ~a und |~b − ~c| = min{|~b − λ~a| | λ ∈ R} für ~c =
|~b − λ~a| = |~b − ~c| genau dann, wenn λ~a = ~c
• |h~a | ~bi| ≤ |~a| · |~b|
und Gleichheit genau dann, wenn ~a k ~b
h~a | ~bi
~a
|~a|2
Lot
Cauchy-Schwarz
• |~a + ~b| ≤ |~a| + |~b|
Dreiecksungleichung
und Gleichheit genau dann, wenn ~a = ~0 oder ~b = r~a mit r ≥ 0
Beweis. Pythagoras: |~a − ~b|2 = h~a + (−1)~b | ~a + (−1)~bi =(E3) h~a | ~ai + h~a |
(−1)~bi + h(−1)~b | ~ai + h~b | ~bi =(E1,2,4) |~a|2 − 2h~a | ~bi + |~b|2 . Somit gilt
|~a − ~b|2 = |~a|2 + |~b|2 genau dann, wenn 2h~a | ~bi = 0, d.h. wenn h~a | ~bi = 0.
Lot: h~a | ~b − ~ci = h~a | ~bi − h~a | ~ci = 0 und nun mit Pythagoras |~b − ~c|2 ≤
|~b − ~c|2 + |~c − λ~a|2 = |~b − ~c + ~c − λ~a|2 = |~b − λ~a|2 . Und Gleichheit gilt genau
dann, wenn |~c − λ~a|2 = 0.
Cauchy-Schwarz: Ist ~a = ~0 oder ~b = ~0, so ist die Behauptung trivial.
Andernfalls können wir nach der Bilinearität |~b| = 1 annehmen. Setze ρ =
h~a | ~bi. Dann 0 ≤ |~a −ρ~b|2 = h~a −ρ~b | ~a −ρ~bi = |~a|2 −ρh~a | ~bi−ρh~b | ~ai+ρ2 |~b|2 =
|~a|2 − ρ2 , also |ρ| ≤ |~a|. Und es gilt |ρ| = |~a| genau dann, wenn |~a − ρ~b| = 0.
Dreiecksungleichung: |~a + ~b|2 = h~a | ~ai + h~a | ~bi + h~b | ~ai + h~b | ~bi ≤ |~a|2 +
2|~a||~b| + |~b|2 = (|~a| + |~b|)2 . Da beide Seiten der Dreiecksungleichung ≥ 0 sind,
folgt diese durch Wurzelziehen. Gilt die Gleichheit, so folgt h~a | ~bi = |~a| · |~b|,
also nach Cauchy-Schwarz ~a = ~0 oder ~b = r~a. Dann aber r|wb|2 = |~a| · |~b| ≥ 0
und somit r ≥ 0.
5.4
Orthonormalbasen
Vektoren ~e1 , ~e2 , ~e3 des Raumes bilden eine Orthonormalbasis, wenn sie Länge
1 haben und paarweise aufeinander senkrecht stehen, d.h.
h~ei | ~ej i =
1
0
falls i = j
falls i =
6 j
Dass sie insbsondere eine Basis α bilden, ist geometrisch klar. Analog für die
Ebene. Bilden ~a1 , ~a2 eine Basis einer Ebene, so erhält man eine ON-Basis mit
~e1 =
1
1
, ~e2 = 0 ~a02 wobei ~a02 = ~a2 − h~e1 | ~a2 i~e1
|~a1 |
|~a2 |
5.4 Orthonormalbasen
47
~a2
~a02
~e2
~a1
~e1
h~e1 | ~a2 i~e1
Bilden ~a1 , ~a2 , ~a3 eine Basis des Raumes, so muss man nun ~a3 orthogonal
auf die von ~e1 , ~e2 aufgepsante Ebene projizieren und dann den Lotvektor
normieren, um ~e3 zu erhalten
~a03 = ~a3 − h~e1 | ~a3 i~e1 − h~e2 | ~a3 i~e2 , ~e3 =
1 0
~a
|~a03 | 3
Die Koordinaten von Vektoren, Skalarprodukt und Länge berechnen sich nun
für ~x = x1~e1 + x2~e2 + x3~e3 und ~y = y1~e1 + y2~e2 + y3~e3 einfach so
yi
= h~ei | ~y i
h~x | ~y i = x
p1 y1 + x2 y2 + x3 y3
|~x|
=
x21 + x22 + x23
~x
ξ1~e2 =
h~e2 | ~xi
~e2
ξ1~e1 = h~e1 | ~xi
~e1
Das zweite rechnet man einfach nach, das dritte folgt dann sofort, ebenso
das este (indem man ~ei für ~x einsetzt - hier kann man auch geometrisch
argumentieren).
hx1~e1 + x2~e2 + x3~e3 | y1~e1 + y2~e2 + y3~e3 i =
X
hxi~ei | yj ~ej i =
i,j
In der Ebene geht es genauso mit nur 2 Koordinaten.
X
i,j
xi yj h~ei | ~ej i
48
5.5
6 DETERMINANTEN IN EBENE UND RAUM
Normalenvektoren von Geraden bzw. Ebenen
Sei ein Punkt O der Ebene als Ursprung ausgezeichnet. Zu gegebenem Skalar
d und Normalen-Vektor ~n 6= 0 betrachten wir die Punktmenge
g = {~x + O | hx | ni = d}
g
P = ~x + O
d~n
~x
~n
|~n| = 1
O
Durch Multiplikation von ~n mit ± |~n1 | können wir erreichen, dass gilt
|~n| = 1, d ≥ 0
Hessesche Normal(en)form
Dann ist g die Gerade mit Paramterdarstellung
r~v + A
wobei ~0 6= ~v ⊥ ~n, ~a = d~n, A = ~a + O
In der Tat, ~n, ~v ist eine Basis, d.h. mit der eindeutigen Darstellung ~x =
x1~n +x2~v gilt h~x | ~ni = x1 und somit h~x | ~ni = d genau dann, wenn ~x = x2~v +~a.
Geht man von einer Parameterdarstellung r~v + A mit A = ~a + O aus, so
bestimme man ~0 6= ~v ⊥ ⊥ ~v und dann ~n = ± |~v1⊥ | ~v ⊥ so, dass d = h~a | ~ni ≥ 0.
d ist der Abstand der Geraden g von Punkt O. Hat man einen Punkt
P = p~ + O. so ist h~p | ~ni~n + O der Fußpunkt des Lotes von P auf die Gerade
durch O mit Richtung ~n, also
d − h~p | ~ni Abstand des Punktes P = p~ + O von der Geraden g
Ist zudem eine Orthonormalbasis ~e1 , ~e2 der Ebene gegeben, so schreibt sich
die Häsische Normalenform in Koohrdinaten bzgl. dieser so
g = {x1~e1 + x2~e2 + O | x1 n1 + x2 n2 = d} wobei ~n = n1~e1 + n2~e2
Entsprechend geht es mit Ebenen im Raum, zwei zum Normalenvektor senkrechten Richtungsvektoren und 3 Koordinaten.
6
6.1
Determinanten in Ebene und Raum
Orientierung
In einer Ebene oder im Raum wird eine Orientierung durch Auszeichnung
einer Basis und der zulässigen Deformationen angegeben; dabei kommt beim
Anschauungsraum die “Rechte Hand Regel” zur Anwendung. “Orientierte”
6.2 Flächen
49
Flächen bzw. Volumina ergeben sich dann als Determinanten, axiomatisch
durch (D1-4) bestimmt. Eine Besonderheit des dreidimensionalen Raumes
ist das Vektor- oder äussere Produkt (besonders ist, dass es als Operation
im Raum verstanden werden kann). Als Koordinatensysteme benutzen wir
hier positiv orientierte Orthonormalbasen. Bezüglich eines solchen lassen sich
dann Determinanten und Vektorprodukt koordinatenweise berechnen.
6.2
Flächen
Setzt man für Quadrate mit Seitenlänge 1 den Flächeninhalt 1 fest, so ergibt
sich (nach Archimedes) der Flächeninhalt eines Parallelogramms als gh, wobei g die Länge einer (Grund)Seite und h die Länge einer dazu senkrechten
Höhe bezeichnet. (Überlegen Sie sich auch mal einen Beweis!)
Sei nun eine Ebene
und für sie eine Orientierung der Winkelmessung gegeben (bei Sicht auf die
Ebene üblicherweise gegen den Uhrzeigersinn - eine begriffliche Diskussion
erfolgt im Tutorium). Wir definieren die Determinante
det(~a, ~b) = F (= |~a||~b|sinφ)
~y
~y
−~x
~x
~x
~y
~y
~y + λ~x
~x
~x
λ~x
λ~x
~y
~z
~y + ~z
~y + ~z
~y
~x
~x
~z
(siehe auch Fig.) wobei φ der Winkel zwischen (den Ortsvektoren) ~a und ~b
ist, F die Fläche des von ihnen aufgespannten Parallelogramms und = 1
falls 0o < φ < 180o (Rechtssystem) bzw. = −1 falls 1800 < φ < 360o
(Linkssystem). Es gilt für ~a, ~b, ~c, in der gegebenen Ebene gilt (vgl Fig.) die
Scherungsinvarianz
det(~a, ~b + r~a) = det(~a, ~b) = det(~a + s~b, ~b)
50
6 DETERMINANTEN IN EBENE UND RAUM
d.h. die Grundfläche ändert sich weder nach Betrag noch nach Vorzeichen,
wenn man ~b längs einer Paralllen zu ~a schert, Weiterhin
(D1) det(~a, ~b + ~c) = det(~a, ~b) + det(~a, ~c), det(~b + ~c, ~a) = det(~b, ~a) + det(~c, ~a)
(D2 − 3) det(~a, r~b) = r det(~a, ~b) = det(r~a, ~b), det(~a, ~a) = 0
det(~a, ~b) = 0 ⇔ ~a, ~b parallel ,
det(~b, ~a) = − det(~a, ~b)
wie man aus (D1-3) leicht beweist. Z.B. det(~a, ~b+r~a) = det(~a, ~b)+det(~a, r~a) =
det(~a, ~b)+r det(~a, ~a) = det(~a, ~b)+r0. Bei “⇒” muss man allerdings vorausetzen, dass es überhaupt Vektoren gibt mit det(~x, ~y ) 6= 0. Auch die Scherungsinvarianz lässt sich aus (D1-3) herleiten. Wählt man als Koordinatensystem
der Ebene eine Orthonormalbasis e~1 , e~2 , die ein Rechtssystem ist, so gilt
(D4) det(e~1 , e~2 ) = 1
und man kann die Determinante aus den Koordinaten berechnen
a1 b 1 = a1 b 2 − a2 b 1
det(~a, ~b) = a2 b 2 nämlich det(a1~e1 + a2~e2 , b1~e1 + b2~e2 ) = det(a1~e1 + a2~e2 , b1~e1 ) + det(a1~e1 +
a2~e2 , b2~e2 ) = det(a1~e1 , b1~e1 )+det(a2~e2 , b1~e1 )+det(a1~e1 , b2~e2 )+det(a2~e2 , b2~e2 ) =
0 + a2 b1 det(~e2 , ~e1 ) + a1 b2 det(~e1 , ~e2 ) + 0 = −a2 b1 + a1 b2 .
Umgekehrt wird durch die Auszeichnung einer Orthonormalbasis als Koordinatensystem die Orientierung der Ebene angegeben und ein Flächenmaß
eingeführt



 positiv orientiert 
 >0
~
~
negativ orientiert
<0
~a, b
⇔ det(~a, b) =



linear abhängig
=0
Fläche Paralelgramm(~a, ~b) = | det(~a, ~b)|
6.3
Vektorprodukt
Ein Tripel unabhängiger Vektoren bildet ein Rechtssystem im Raum, wenn
ihre Richtungen (in der gegebenen Reihenfolge) mit den Richtungen von
gestrecktem Daumen und Zeigefinger und abgewinkeltem Mittelfinger der
rechten Hand identifiziert werden können - Beweglichkeit des Daumens bis
zu 180o gegenüber dem Zeigefinger vorausgesetzt. Entsprechend hat man
Linkssysteme für die linke Hand. Jedes unabhängige Tripel von Vektoren bildet entweder ein Rechts- oder ein Linkssystem . Welche Hand die rechte ist,
ist mathematisch gesehen jedoch eine Frage der Definition: es wird irgendein
unabhängiges Tripel zum Rechtssystem deklariert und dadurch die Orientierung festgelegt. Alle anderen Rechtssysteme ergeben sich hieraus durch
Drehung des Tripels insgesamt und stetigen Scherungen eines der Vektoren
gegen die beiden anderen, bei denen die drei Vektoren in keinem Stadium in
6.4 Grassmannscher Entwicklungssatz
51
eine gemeinsame Ebene zu liegen kommen. Wir definieren nun das Vektoroder äussere Produkt ~c = ~a × ~b durch die Bedingungen
|~c| = |det(~a, ~b)|, ~c ⊥ ~a, ~b und ~a, ~b, ~c Rechtssystem oder abhängig.
Unmittelbar geometrisch einsichtig sind die Regeln
(G1 − 2) ~a × ~b = ~0 ⇔ ~a, ~b parallel , ~a × ~b = −~b × ~a
G3) r(~a × ~b) = (r~a) × ~b = ~a × (r~b)
Es folgt wie bei den ebenen Determinanten die Scherungsinvarianz
~a × (~b + r~a) = ~a × ~b = (~a + s~b) × ~b
(d.h. det(~a, ~b), Normale und Orientierung bleiben unverändert) und daraus
dann die Distributivgesetze
(G4) ~a × (~b + ~c) = ~a × ~b + ~a × ~c, (~b + ~c) × ~a = ~b × ~a + ~c × ~a.
Zum Beweis des ersten Distributivgesetztes dürfen wir zunächst annehmen,
dass |~a| = 1. Nach Scherung darf man ~b ⊥ ~a annehmen, ebenso ~c ⊥ ~a. Dann
liegen ~b und ~c in einer Ebene mit Normale ~a und man erhält ~a × ~b, ~a × ~c,
~a × (~b + ~c) in dieser Ebene, indem man b, ~c und ~b + ~c jeweils um 900 dreht.
(vgl. Folie)
Eine typische Anwendung des Vektorprodukts ist es, aus zwei nicht parallelen Richtungsvektoren ~b, ~c einer Ebene einen Normalenvektor ~n = ~b × ~c zu
berechnen. Wählt man als Koordinatensystem des Raumes ist eine Orthonormalbasis α : ~e1 , ~e2 , ~e3 , die Rechtssystem ist, so hat man
~e1 × ~e2 = ~e3 , ~e2 × ~e3 = ~e1 , ~e3 × ~e1 = ~e2
und die Koordinatendarstellung
~a × ~b = a1 b2~e3 + b1 a3~e2 + a2 b3~e1 − a3 b2~e1 − b3 a1~e2 − a2 b1~e3

 a2 b 2 
  a3 b 3 
 
 
 
a1
a2 b 3 − a3 b 2
b1


a1 b1 
α
α
α
~
~







~a × b = a3 b1 − a1 b3 =  −  für ~a = a2 , b = b2 .
a
b
3
3
 
a3
a1 b 2 − a2 b 1
b3
 a1 b 1 
a2 b 2 Beweis durch Ausmultiplizieren (Übung!)
6.4
Grassmannscher Entwicklungssatz
(~a × ~b) × ~c = h~a | ~ci~b − h~b | ~ci~a.
Beweis. Wegen der Linearitätseigenschaften von Skalar- und Vektorprodukt
bleibt die Gültigkeit der Formel beim Übergang zu Linearkombinationen
52
6 DETERMINANTEN IN EBENE UND RAUM
erhalten: gelten z.B. (~a × ~b) × ~c = h~a | ~ci~b − h~b | ~ci~a und (~a0 × ~b) × ~c =
h~a0 | ~ci~b−h~b | ~ci~a0 für gegebene Vektoren ~a, ~a0 , ~b, ~c, so gelten auch (r~a ×~b)×~c =
rh~a | ~ci~b − h~b | ~cir~a und ((~a + ~a0 ) × ~b) × ~c = h~a + ~a0 | ~ci~b − h~b | ~ci(~a + ~a0 ).
Man rechnet nämlich nach, dass (r~a × ~b) × ~c = (r(~a × ~b)) × ~c = r((~a ×
~b) × ~c) = r(h~a | ~ci~b − h~b | ~ci~a) = rh~a | ~ci~b − rh~b | ~ci~a = rh~a | ~ci~b − h~b | ~ci(r~a) =
hr~a | ~bi~b − h~b | ~cir~a und ((~a + ~a0 ) × ~b) × ~c = (~a × ~b + ~a0 × ~b) × ~c = (~a × ~b) ×
~c + (~a0 × ~b) × ~c = h~a | ~ci~b − h~b | ~ci~a + h~a0 | ~ci~b − h~b | ~ci~a0 = (h~a | ~ci + h~a0 | ~ci)~b −
h~b | ~ci(~a + ~a0 ) = h~a + ~a0 | ~ci~b − h~b | ~ci(~a + ~a0 ). Entsprechend verfährt man bei
Linearkombinationen von ~b’s bzw. ~c’s .
Sind ~a, ~b linear abhängig, z.B. ~b = r~a, so rechnet mabn für beide Seiten
sofort ~0 aus. Andernfalls ist ~c Linearkombination von ~a, ~b und ~a × ~b. Damnit
reduziert sich die Aufgabe auf den Fall, dass ~c einer dieser Vektoren ist.
Ausssrdem dúrfen wir |~a| = |~b| = 1 annehmen. Für ~c = ~a × ~b hat man auf
beiden Seiten sofort ~0. Sei also ~c = ~a. d~ = (~a × ~b) × ~a liegt nun in der Ebene
⊥ ~a × ~b, d.h. in der von ~a und ~b aufgespannten, und ist senkrecht zu ~a. Die
Länge von d~ ist die Fläche des von ~a und ~b aufgespannten Parallelogramms.
also dessen Höhe (wegen |~a| = 1). Damit d~ = ±(~b − h~a | ~bi~a), wegen der
Orientierung gilt +. Das beweist die Gleichung in diesem Fall. Für ~c = ~b
gehts entsprechend, nur ist jetzt die Orientierung andersherum.
Alternativ: Es genügt, den Fall zu betrachten, dass ~a, ~b, ~c Vektoren aus
einer positiv orientierten Orthonormalbasis sind. Ist ~b = ±~a, so ~a × ~b =
~0, also LS = ~0 = RS. Sei also ~a 6= ±~b. Dann ist ~a, ~b, ~a × ~b eine positiv
orientierte ON-Basis und ~c = ~a, ~c = ~b oder ~c = ±~a × ~b. Ist ~c = ~a, so LS = ~b,
da ~a × ~b, ~a, ~b positiv orientiert (zyklische Vertauschung!), und RS = ~b, da
h~a, ~ci = 1, h~b, ~ci = 0. Ist ~c = ~b so LS = −~a, da ~a × ~b, ~b, ~a negativ orientiert,
und RS = −~a, da h~a | ~ci = 0, h~b | ~ci = 1. Ist ~c = ±~a × ~b, so LS = ~0 und
h~a | ~ci = h~b | ~ci = 0, also auch RS = ~0. Es folgt
~a × (~b × ~c) + ~b × (~c × ~a) + ~c × (~a × ~b) = ~0 Jacobi Identitaet
6.5
Volumen
Nachdem das Volumen des Einheitswürfels als 1 festgelegt ist, ergibt sich
das Volumen eines Spats zu “Grundfläche mal Höhe”. Wir definieren nun die
Determinante oder das Spatprodukt als
det(~a, ~b, ~c) = h~a × ~b | ~ci = V,
wobei V das Volumen des von (den Ortsvektoren) ~a, ~b, ~c aufgespannten Spats
ist und = 1, falls ~a, ~b, ~c Rechtssystem, = −1, andernfalls. Wegen der
Eigenschaften von Vektor- und Skalarprodukt gelten die Regeln (D1−3) und
ihre Konsequenzen entsprechend, z.B. det(r~a + s~a0 , ~b, ~c)) = r det(~a, ~b, ~c) +
sdet(~a0 , ~b, ~c) d.h. Linearität in der ersten Spalte und entsprechend in den
anderen Spalten. Bei zwei gleichen Spalten erhält man in allen 3 möglihcne
Fällen Determinante 0. Es folgt Vorzeichenwechsel bei Vertauschung zweier
Spalten, z.B. det(~b, ~a, ~c) = − det(~a, ~b, ~c). Also bleibt die Determinante bei
zyklischen Vertauschungen unverändert.
6.6 Übersicht
53
Eine positiv orientierte ONB hat Determinante 1 und es gilt
a1 b 1 c 1 det(~a, ~b, ~c) = a2 b2 c2 = a1 b2 c3 +b1 c2 a3 +c1 a2 b3 −a3 b2 c1 −b3 c2 a1 −c3 a2 b1 .
a3 b 3 c 3 Wir schreiben auch
det(~a, ~b, ~c) = det A
mit der Matrix


a1 b 1 c 1
A =  a2 b 2 c 2 
a3 b 3 c 3
Ersetzt man hier ci durch ~ei , so erhält man das Vektorprodukt ~a × ~b.
Mit Grassmann und Determinante beweist man
~ = h~a | ~cih~b | di
~ − h~b | ~cih~a | di
~ Lagrange.
h~a × ~b | ~c × di
~ = h~c × d~ | ~a × ~bi = det(~c, d,
~ ~a × ~b) = det(~a × ~b, ~c, d)
~ =
Beweis. h~a × ~b | ~c × di
~ = hh~a | ~ci~b − h~b | ~ci~a | di
~ = h~a | ~cih~b | di
~ − hb | cih~a | di.
~
h(~a × ~b) × ~c | di
6.6
Übersicht
Skalar mal Vektor ergibt Vektor: r~a. Man könnte auch ~ar = r~a definieren.
Dann gelten alle Rechenregeln, es kann aber in einem Produkt nur ein Vektor
auftreten und dividieren darf man durch Vektoren auch nicht. Aber man darf
kürzen: Aus r~a = r~b folgt ~a = ~b falls r 6= 0; aus r~a = sa folgt r = s falls
~a 6= ~0.
Das skalare Produkt zweier Vektoren ist ein Skalar: h~a | ~bi. Das Assoziativgesetz für drei Vektoren: ~ah~b | ~ci = h~a | ~bi~c gilt nur, wenn ~a und ~c parallel sind.
Kürzen darf man Vektoren auch nicht (und erst recht nicht durch Vektoren
dividieren): Aus h~a | ~bi = h~a | ~ci folgt nur, dass ~a auf ~b − ~c senkrecht steht.
Immerhin hat man noch Kommutativität und Distributivität; und Assoziativität soweit nur zwei Vektoren beteiligt sind.
Das Vektorprodukt zweier Vektoren ist ein Vektor: ~a ×~b im Raum. Statt Kommutativität haben wir Antikommuativität, statt Assoziativität Grassmann.
Immerhin gilt noch das Distributivgesetz, und man kann Skalare herausziehen. Aus ~a × ~b = ~a × ~c folgt nur, dass ~a, ~b, ~c linear abhängig sind.
Die Determinante dreier (zweier) Vektoren ist ein Skalar Dabei muss eine
Orientierung des Raums (der Ebene) vorgegeben sein. Man hat die Linearitätseigenschaft in jeder Spalte. Aus det(~a, ~b, ~c) = 0 folgt nur, dass ~a, ~b, ~c
linear abhängig sind, d.h. durch Pfeile in einer Ebene repräsentiert werden
können,
Die Orientientierung der Ebenen bzw. des Raumes wird durch eine ON-Basis
festgelegt. Eine weitere Basis ~a1 , ~a2 bzw. ~a1 , ~a2 , ~a3 ist dann positiv orientiert,
54
7 KOMPLEXE ZAHLEN
wenn det(~a1 , ~a2 ) > 0 bzw. det(~a1 , ~a2 , ~a3 ) > 0, andernfalls ist sie negativ
orientiert. Im realen Raum können wir die positive Orientierung durch die
“Rechte-Hand-Regel” festlegen, für Ebenen in “Draufsicht” durch die “gegendie-Uhr-Regel”.
7
7.1
Komplexe Zahlen
Polynome und Nullstellen
Über die Quadratwurzeln, genauer über die Lösungen der Gleichungen x2 = a
erhält man die Lösungen der quadratischen Gleichungen x2 + px + q = 0.
2
Offenbar ist letztere gleichbedeutend mit (x + p2 )2 = p4 − q (quadratische
Ergänzung), also hat man
p
x=− ±
2
r
p2
− q,
4
wobei es aber nur dann erlaubt ist, von der positiven bzw. negativen Quadratwurzel zu reden, wenn diese reell sind. Verallgemeinert man diesen Ansatz, so
kommt man zu formalen Lösungen oder Nullstellen von Polynomgleichungen
p(x) = 0, wobei
p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0
ein Polynom in der Unbestimmten x und den Koeffizienten ak heisst und
vom Grad n, falls an 6= 0. Sind die Koeffizienten reell, so kann man sich den
Graphen der Funktion x 7→ p(x) vorstellen und die reellen Nullstellen als
Schnittpunkte mit der x-Achse auffassen. Für ungeraden Grad n gibt es dann
mindestens eine solche Nullstelle. Für grosse |x| wird nämlich der Wert von
p(x) im Wesentlichen durch an x bestimmt wird, d.h. p(x) geht betragsmässig
gegen Unendlich für x gegen ±∞, das aber gegenläufig. Daher hat p(x) auf
jeden Fall einen Vorzeichenwechsel und somit eine Nullstelle (in der Analysis
heisst dieses Argument der Zwischenwertsatz).
Wie oben angedeutet, kann man Polynomgleichungen formal lösen, d.h.
Nullstellen “erfinden” und mit diesen ganz vernünftig rechnen (gemäß K110)), auch wenn man Gleichungen x2 = −n, n eine natürliche Zahl, und
Schlimmere dabei hat. Das konnten schon die Mathematiker des Renascimento. Die grosse Überraschung ist, dass man von den reellen Zahlen aus
(hier kommt es nur auf das Vorhandensein einer Anordnung, die Existenz
von Quadratwurzeln aus positiven Zahlen und die Existenz mindestens einer Nullstelle bei Polynomen ungeraden Grades an) nur noch einen einzigen
Erweiterungsschritt benötigt, nämlich den Übergang zu den Zahlen a + bi,
wobei a, b reell sind und i2 = −1. Die Zahlen, die man so aus den reellen
erhält, heissen dann die komplexen Zahlen, ihre Gesamtheit geschrieben als
C..
7.2 Zahlenebene
7.2
55
Zahlenebene
Die Vektorrechnung liefert auch einen Zugang zu den komplexen Zahlen.
Dazu sei in der Ebene, hier die Zahlenebene genannt, Skalarprodukt und
Orientierung (üblicherweise “gegen die Uhr’) gegeben,sowie Ursprung O und
eine positiv orientierte Orthonormalbasis ~e1 , ~e2 gegeben. Dann können wir
natürlich zwei “Zahlen” vektoriell addieren. Für eine “Zahl” z, d.h. einen
(Orts)Vektor z = ~a, sei das Argument φ = arg(z) der Winkel zwischen ~e1
und ~a , wobei 0 ≤ φ < 360o im Sinne der positiven Orientierung gemessen
wird, Dann können wir einen Winkel χ durch eine Zahl “u” mit |u| = 1,
arg(u) = χ eindeutig notieren und die Drehung von Punkten z um den
Winkel χ als Multiplikation mit u beschreiben (vgl. Fig.5.1):
uz hat Länge |z| und Argument arg(uz) = arg(u) + arg(z)
(bis auf Vielfache von 3600 ). Das motiviert die allgemeine Definition des
Produkts
zw hat Länge |zw| = |z||w| und Argument arg(zw) = arg(z) + arg(w)
(bis auf Vielfache von 360o ). Der Kehrwert ergibt sich dann so
z −1 mit |z −1 | = |z|−1 , arg(z −1 ) = 360o − arg(z).
z = a + bi
bi
z+w
i
i
ω
1
z
w
a
1
zw
z
z −1
Schreibt man 0 = ~0, 1 = ~e1 so zeigen einfache geometrische Überlegungen,
dass die Regeln (K1−10) gelten. Die reellen Zahlen sind dabei auf natürliche
Weise mit den Zahlen auf der reellen Achse durch O in Richtung ~e1 identifiziert worden. Schreibt man i für die imaginäre Einheit ~e2 , so hat jede Zahl
eine eindeutige (kartesische) Darstellung in der Form
z = a + bi, a, b reell .
Dabei heisst a = <(z) der Realteil, b = =(z) der Imaginärteil von z. Die
Länge oder der Betrag ergibt sich als
√
|z| = a2 + b2 .
56
7 KOMPLEXE ZAHLEN
Für das Rechnen mit der imaginären Einheit ergibt die Geometrie
i2 = (−i)2 = −1, 1/i = −i, 1/ − i = i.
Dann folgt mit (K1 − 10) für reelle a, b, c, d
(a + bi) + (c + di) = (a + c) + (b + d)i, (a + bi)(c + di) = (ac − bd) + (ad + bc)i
1
a
b
= 2
−
i,
a + bi
a + b 2 a2 + b 2
also können wir wirklich die Vektoren der Zahlenebene mit den komplexen
Zahlen gleichsetzen.
Ist z = a + bi mit reellen a, b, so heisst z = a − bi, das Spiegelbild an der
reellen Achse, die zu z konjugierte Zahl und es gilt (vgl. Fig.5.2)
|z| =
√
1
1
zz, <(z) = (z + z), =(z) = (z − z).
2
2i
Die Konjugation verträgt sich mit Addition und Multiplikation
z + w = z + w, z · w = z · w.
7
Komplexe Zahlen
7.3 Polarkoordinaten und Kreisteilung
7.3
57
Polarkoordinaten und Kreisteilung
Durch die geometrische Deutung sollten die komplexen Zahlen endgültig von
dem Verdacht der Gaukelei befreit sein. Für die Praxis bewährt sich folgende
Polardarstellung
z = r cos φ + ri sin φ = r(cos φ + i sin φ) = r(cos(φ + k2π) + i sin(φ + k2π))
(vgl. Fig. 5.3) mit reellen r = |z| ≥ 0 und φ = arg(z), d.h. dem Winkel im
Bogenmass bis auf Vielfache von 2π. Schliesst man z = 0 d.h. r = 0 aus,
so erhält man Eindeutigkeit, durch die Beschränkung der Winkel auf das
Intervall [0, 2π). Produkt und n-te Potenz schreiben sich so
r(cos φ + i sin φ)s(cos ψ + i sin ψ) = rs(cos(φ + ψ) + i sin(φ + ψ))
(r(cos φ + i sin φ))n = rn (cos nφ + i sin nφ).
Folglich erhält man als Lösungen der Gleichung z n = r(cos φ + i sin φ) gerade
die
√
φ k
φ k
n
r(cos( + 2π) + i sin + 2π)), mit k = 0, . . . , n − 1.
n n
n n
Insbesondere bilden die Lösungen von z n = 1, die n-ten Einheitswurzeln, ein
dem Einheitskreis einbeschriebenes, regelmässiges n-Eck mit Ecke 1. Als eine
bequeme, in der Analysis später zu begründende, Schreibweise hat man auch
mit |z| = et (d.h. t = ln |z|) und φ = arg(z)
z = et (cos φ + i sin φ) = et+iφ , et+iφ es+iψ = et+s+i(φ+ψ) , (et+iφ )n = ent+inφ
7.4
Fundamentalsatz
Lemma 7.1 Für je zwei reelle Zahlen p, q gibt es komplexe Zahlen x1 , x2 mit
∀x ∈ C. x2 + px + q = (x − x1 )(x − x2 )
d.h. p = −(x1 + x2 ), q = x1 x2
und x2 + px + q = 0 ⇔ x = x1 ∨ x = x2
Dabei sind folgende Fälle möglich
p2
−q =0
4
p2
−q >0
4
p2
−q <0
4
x1/2 = −
x1 = x2 ∈ R
x1 , x2 ∈ R, x1 6= x2
x1 , x2 6∈ R, x2 = x1
p
2
r
p2
−q
4
x1/2
p
=− ±
2
x1/2
r
p
p2
= − ±i q −
2
4
58
8 ARITHMETIK
Das ist die alte p-q-Formel. Die Lösungen der Gleichung z 2 =√(c + di)2 =
a + bi kann man ganz gut kartesisch
angeben; wegen c2 + d2 = a2 + b2 und
√
c2 − d2 = a hat man 2c2 = a + a2 + b2 , andererseits 2cdi = bi, also
r
√
1
b
c=±
(a + a2 + b2 ), d = .
2
2c
Viel stärker ist der folgende Satz (den wir später beweisen)
Satz 7.2 Zu jedem Polynom p(x) = a0 + a1 x + . . . + an xn mit Koeffizienten
ak ∈ C gibt es α1 , . . . , αn ∈ C so, dass
a0 + a1 x + . . . + an xn = an (x − α1 ) · · · (x − αn )
d.h. das Polynom p(x) zerfällt in C in Linearfaktoren x − αk , die durch die
Nullstellen αk von p(x) gegeben sind. Kommt der Faktor x−αk genau m-mal
vor, so heisst m die Vielfachheit der Nullstelle αk .
8
8.1
Arithmetik
Rekursive Definition
Wir haben die Ordung, Addition und Multiplikation auf N “rekursiv” definiert, ohne genau zu sagen, was wir damit meinen, oder zu beweisen, dass
das auch funktioniert. Das wollen wir nachholen.
Prinzip 8.1 (Rekursion) Seien g und h Funktionen auf N in m bzw. m + 2
Variablen. Dann gibt es eine Funktion f auf N in m + 1 Variablen derart,
dass für alle natürlichen Zahlen x1 , . . . xn , y gilt
f (x1 , . . . , xm , 0)
f (x1 , . . . , xm , σ(y))
= g(x1 , . . . , xm )
= h(x1 , . . . , xm , y, f (x1 , . . . , xm , y))
Der Werteverlauf dieser Funktion ist eindeutig bestimmt.
Definition 8.2 Wir sagen, f sei die rekursiv definierte Funktion zu dem
durch g und h gegebenen Rekursionsschema bzw. Rekursionsvorschrift.
Zum Beispiel definieren wir f (y) = y! durch das Schema g = 1, h(y, z) =
(y + 1) · z
0! = 1, (n + 1)! = n! · (n + 1)
8.2
Ordnungsinduktion
Prinzip 8.3 (Minimalbedingung) Sei C(x : N) eine Formel so, dass ∃x :
N. C(x). Dann gibt es ein minimales m in N mit C(m) - d.h. es gilt C(m)
und ∀y : N. y < m ⇒ ¬C(y).
8.3 Teilbarkeit
59
Beweis. Sei die Formel B(x) gegeben als
∃y : N. (y ≤ x ∧ C(y)) ⇒ ∃u : N. u ≤ x ∧ C(u) ∧ ∀z : N. z < u ⇒ ¬C(z)
Wir benutzen das Induktionsprinzip um ∀x : N. B(x) zu beweisen. Gilt ∃y :
N. (y ≤ 0 ∧ C(y)) so ist 0 selbst das gesuchte minimale Element; andernfalls
ist nichts zu zeigen. Sei nun B(n) vorausgesetzt. Gilt ∃y : N. (y ≤ n ∧ C(y)),
so haben wir wegen B(n) auch das gesuchte minimale Element. Andernfalls
gilt entweder C(σn) und σn ist das minimale Element; oder ¬C(σn) und
damit ¬∃y : N. (y ≤ σn ∧ C(y)) und es ist wieder nichts zu zeigen. Damit ist
∀x : N. B(x) bewiesen. Gibt es nun ein n mit C(n), so gilt auch ∃y : N. (y ≤
n ∧ C(y)) (wähle y = n) und es folgt die Existenz eines minimalen m(≤ n)
mit C(m). Es folgt sofort das folgende (indem man C(x) == ¬A(x) setzt)
Prinzip 8.4 (des kleinsten Verbrechers). Hat man die Annahme, dass
m minimal ist mit ¬A(m), zum Widerspruch geführt, so hat man ∀x : N. A(x)
bewiesen.
Satz 8.5 Jede natürliche Zahl n > 1 ist ein Produkt von unzerlegbaren Zahlen.
Beweis. Sei n der kleinste Verbrecher, insbesondere selbst zerlegbar. Also
n = a · b mit 1 < a, b < n. Da a kein Verbrecher ist, ist es ein Produkt
a = p1 · . . . · pk von unzerlegbaren Zahlen und b = q1 · . . . · ql ebenfalls. Also
ist n = p1 · . . . · pk · q1 · . . . · ql auch ein Produkt von unzerlegbaren Zahlen.
Widerspruch
Für Leute, die das Direkte lieben, können wir unser Prinzip auch so formulieren
Prinzip 8.6 (Ordungsinduktion). Sei A(x : N) eine Formel. Es sei die
folgende Aussage nachgeprüft:
∀x : N. (∀y : N. y < x ⇒ A(y)) ⇒ A(x)
Dann gilt: ∀x : N. A(x)
∀y : N. y < n ⇒ A(y) heisst Induktionsvoraussetzung oder Induktionsannahme für n. Im Induktionschritt haben wir von allen m < n auf n zu schliessen
(was ggf. leichter ist, als allein von n − 1 auf n schliessen zu müssen). Der
Induktionsanfang ist formal mit darin enthalten: für n = 0 gibt es halt kein
m < n. Oft ist es besser, das auch als gesonderten Fall zu behandeln.
8.3
Teilbarkeit
In Z definieren wir
x|y == ∃z : Z. xz = y lies x teilt y.
Lemma 8.7
a|0, 0|a ⇒ a = 0, |a| = |b| ≈> a|b ≈> |a| ≤ |b|, a|1 ⇒ |a| = 1.
a|b ∧ b|c ⇒ a|c, a|b ∧ b|a ⇒ |a| = |b|,
a|b ⇒ (ac)|(bc), a|b ∧ a|c ⇒ a|(b + c)
60
8 ARITHMETIK
Algorithmus 8.8 (Division mit Rest). In Z gibt es zu allen a und b 6= 0
eindeutig bestimmte Zahlen r = R(a, b) und q = Q(a, b) mit
a = bq + r, 0 ≤ r ≤ |b|.
Für a ≥ b > 0 ergeben sich diese rekursiv mit jeweils geignetem m ≥ 1
a − mb
falls 0 ≤ a − mb < b
R(a, b) =
R(a − mb, b) falls a − mb ≥ b

falls a = b
 1
m
falls a − mb < b
Q(a, b) =

Q(a − mb, b) + 1 falls a − mb ≥ b
Beweis. Die Existenz ergibt sich sofort aus der Formulierung des Algorithmus.
Ist nun a = bq + r = bq 0 + r0 und z.B. r0 ≥ r, so folgt b(q − q 0 ) = r0 − r. Also
q − q 0 = 0, da sonst |b| ≤ |r0 − r| < |b|. Und es folgt r = r0 .
t ist ein gemeinsamer Teiler von a und b, falls t|a und t|b. Ein gemeinsamer
Teiler d von a und b ist ein grösster gemeinsamer Teiler oder GGT , falls
jeder andere gemeinsame Teiler t von a, b auch Teiler von d ist. Es folgt,
das es zu a, b bis aufs Vorzeichen höchstens einen GGT d gibt, wir schreiben
GGT (a, b) = d mit d ≥ 0, falls es einen gibt, andernfalls GGT (a, b) = ∅.
Lemma 8.9
GGT (a, b) = GGT (a−qb, b) = GGT (b, a) = GGT (|a|, |b|),
a|b ⇔ GGT (a, b) = |a|
Beweis. Aus t|a ∧ t|b folgt t|(qb) und t|(a − qb). Dasselbe Argument mit −q
erlaubt den Rückschluss.
Algorithmus 8.10 (Euklid+Bezout). Zu je zwei ganzen Zahlen gibt es
den GGT (a, b) und ganze Zahlen x und y mit
GGT (a, b) = ax + by.
Den GGT und geeignete Zahlen x, y kann man so bestimmen. Gegeben a, b
setze
d0 := a, x0 := 1, y 0 := 0; d := b, x := 0, y := 1
Bestimme
d0 = dq + r mit |r| < |d| oder r = 0
solange r 6= 0 tu (d0 , d) := (d, r), (x0 , x) := (x, x0 − xq), (y 0 , y) := (y, y 0 − yq)
falls r = 0 halt ein : d = ax + by =: GGT (a, b).
Beweis. Mit den Lemma und Induktion ist die Existenz eines GGT sofort
klar. Da N wohlgeordnet ist, muss der Algorithmus zum Halten kommen.
Korrektheit des Algorithmus: Für alle Iterationsschritte gilt:
d = ax + by, d0 = ax0 + by 0 und GGT (a, b) = GGT (d, d0 ).
8.4 Diophantische Gleichungen
61
Nämlich
a(x0 − xq) + b(y 0 − yq) = ax0 + by 0 − (ax + by)q = d0 − dq = r
GGT (r, d) = GGT (d, d0 ) = GGT (a, b).
Ist r = 0, so folgt d|d0 , also d = GGT (a, b).
Korollar 8.11 a|(bc) ∧ GGT (ab) = 1 ⇒ a|c
Beweis. 1 = ax + by, also a|(axc + bcy) = c.
Ein Teiler d von a ist echt, falls |d| =
6 1 und |d| =
6 |a|. Eine Zahl a mit |a| > 1
ist unzerlegbar, falls sie keine echten Teiler besitzt. Eine Zahl p mit |p| > 1
ist eine Primzahl, falls
∀x : Z.∀y : Z. p|(x · y) ⇒ p|x ∨ p|y.
Mit Induktion folgt
p prim ∧ p|
Y
ai ⇒ ∃i ∈ I. p|ai .
i∈I
Satz 8.12 In Z sind die unzerlegbaren Zahlen genau die Primzahlen.
Beweis. Sei p prim und p = a · b, so o.B.d.A. p|a, also |p| ≤ |a|. Andererseits
|a| ≤ |p|, also |a| = |p|. Mit der Kürzungsregel folgt |b| = 1.
Sei umgekehrt p unzerlegbar und p|(ab). Ist p kein Teiler von a, so GGT(p, a) =
1, also 1 + ax + by und b = abx + bpy und es folgt p|b.
Satz 8.13 Jede ganze Zahl a mit |a| > 1 hat eine Zerlegung
a = p1 · . . . · pn in Primfaktoren p1 , . . . , pn , n ≥ 1.
Die pi sind bis auf Vorzeichen und Reihenfolge eindeutig bestimmt.
Beweis. Die Existenz haben wir
8.5. Die Eindeutigkeit folgt
Q
Q schon gezeigt
q
ebenso mit Induktion: Ist a = ni=1 pi = m
j=1 j so teilt pn eines der qj nach
Qn−1
Umsortieren
etwa
q
.
Es
folgt
|p
|
=
|q
|
und
durch
Kürzen
m
n
m
i=1 |pi | =
Qm−1
|q
|.
Mit
Induktion
folgt
n
=
m
und
der
Rest
der
Behauptung.
j
j=1
8.4
Diophantische Gleichungen
Satz 8.14 (Diophant) Es gibt zu gegebenen a, b, c ∈ Z genau dann (mindestens) eine ganzzahlige Lösung der Gleichung
ax + by = c wenn d := GGT (a, b)|c.
Hat man eine Lösung x0 , y0 , so ist die Lösungsgesamtheit gegeben durch
x = x0 + qb0 , y = y0 − qa0 , q ∈ Z,
wobei a = a0 d, b = b0 d.
Beweis. Die Äquivalenz folgt leicht mit dem Satz von Bezout. Bemerke GGT (a0 , b0 ) =
1, da für einen gemeinsamer Teiler t von a0 , b0 gälte: td|a, b. Dass x, y der angegebenen Gestalt Lösung ist, ist klar. Sei umgekehrt eine Lösung x, y gegeben.
Durch Herauskürzen von d folgt xa0 + yb0 = x0 a0 + y0 b0 , also a0 (x − x0 ) =
b0 (y0 − y). Mit dem Korollar 8.11 folgt a0 |(y0 − y), d.h. x − x0 = qb0 für ein
q ∈ Z. Es folgt a0 qb0 = b0 (y − y0 ) und durch Kürzen y − y0 = qa0 .
62
8 ARITHMETIK
8.5
Modulare Arithmetik
Sei n eine feste ganze Zahl. Wir definieren eine binäre Relation auf Z
a ≡ b mod n <≈> n | (a − b) <≈> n | (b − a)
und lesen: a ist kongruent zu b modulo n. Das bedeutet, dass a und b denselben
Rest bei Division durch n haben: sei nämlich (in Z)
a = q1 n + r1 b = q2 n + r2 mit 0 ≤ r1 , r2 < n und o.B.d.A r2 ≤ r1
so gilt
a − b = qn + r mit q = q1 − q2 , 0 ≤ r = r1 − r2 < n
also
n|(a − b) <≈> r = 0 <≈> r1 = r2
Somit ist ≡ mod n eine Äquivalenzrelation auf Z. Man darf aber mit ≡
mod n weitgehend wie mit dem Gleichheitszeichen rechnen:
Lemma 8.15
a ≡ b mod n ∧ c ≡ d mod n ⇒ a + c ≡ b + d mod n
a ≡ b mod n ⇒ −a ≡ −b mod n
a ≡ b mod n ∧ c ≡ d mod n ⇒ ac ≡ bd mod n
Beweis. Gelte n | (a−b) und n | (c−d). Dann n | (a−b+c−d) = (a+c)−(b+d)
und n | −(a − b) = −a − (−b) und n | a(c − d) + (a − b)d = ac − bd.
Satz 8.16 Hat sich frau (nach eigenem Belieben) eine Abstraktion Z Zn
nach der Äquivalenzrelation ≡ mod n vorgegeben, d.h. eine surjektive Abbildung a 7→ ã ∈ Zn mit
ã = b̃ ⇔ a ≡ b mod n
so wird Zn zu einem kommutativen Ring, wenn sie die Operationen repräsentantenweise erkärt
ã + c̃ = a]
+c
f
−ã = −a
ã · c̃ = ag
·c
Insbesondere sind 0̃ und 1̃ die neutralen Elemente bzgl. Addition und Multiplikation. Zp ist ein Körper, wenn p eine Primzahl ist.
Beweis. Der Knackpunkt: Nach dem Lemma sind die Operationen wohldefiniert, z.B.
ã = b̃ ∧ c̃ = d˜
≈> a ≡ b mod n ∧ c ≡ d mod n
≈> a + c ≡ b + d mod n ≈>
a]
+ c = b]
+d
Die Eigenschaften eines kommutativen Ringes sind allesamt durch Gleichungen definiert und folgen nun daraus, dass man mit ≡ mod n wie mit dem
Gleichheitszeichen rechnet.
Sei nun n = p prim. Jedes Element ã 6= 0̃ von Zp erhält man mit einem
a mit 0 < a < p, insbesondere sind p und a teilerfremd. Nach Bezout gibt es
ganze Zahlen x, y mit ax + py = 1, also ax ≡ 1 mod n und ã · x̃ = af
x = 1̃.
8.6 Faktorstrukturen
8.6
63
Faktorstrukturen
Eine Äquivalenzrelation auf einer Menge A ist eine binäre Relation ∼, derart
dass für alle a, b, c in A
a∼a
a∼b ⇒ b∼a
a∼b ∧ b∼c ⇒ a∼c
Für eine Äquivalenzrelation ∼ auf einer algebraischen Struktur vom Typ der
abelschen Gruppen sind die Verträglichkeitsbedingungen gegeben durch
∀a, b ∈ A.
∀a, b, c, d ∈ A.
a∼b
a∼c ∧ b∼d
⇒
⇒
−a ∼ −b
a+b∼c+d
Letztere kann man ersetzen durch
∀a, b, c ∈ A. a ∼ c ⇒ a + b ∼ c + b und
∀c, b, d ∈ A. b ∼ d ⇒ c + b ∼ c + d
Gelte nämlich das und a ∼ c, b ∼ d. Dann a + b ∼ c + b ∼ c + d also
a + b ∼ c + d. Eine Kongruenzrelation auf einer algebraischen Struktur ist
eine Äquivalenzrelation, die die Verträglichkeitsbedingungen erfüllt.
Proposition 8.17 Ist ∼ eine Kongruenzrelation auf der algebraischen Struktur A und entsteht die Menge B aus A durch Abstraktion nach ∼, d.h. gibt
es eine surjektive Abbildung π : A → B mit
a ∼ b ⇔ π(a) = π(b)
so wird B zur algebraischen Struktur durch die Definition
π(a) +B π(b) = π(a +A b), −B π(a) = π(−A a), 0B = π(0A )
Die Struktur B heisst dann Faktorstruktur von A nach ∼. Man schreibt
B = A/ ∼.
Beweis. Es ist nur festzustellen, dass dies wohldefiniert ist, d.h. dass
π(a) = π(c) ∧ π(b) = π(d) ⇒ π(a +A b) = π(c +A d)
π(a) = π(b) ⇒ π(−A a) = π(−A b)
Das wird aber gerade durch die Verträglichkeitsbedingungen garantiert.
Proposition 8.18 Eine Äquivalenzrelation ∼ auf einer abelschen Gruppe A
ist genau dann Kongruenzrelation, wenn
∀a, b, c ∈ A. a ∼ c ⇒ a + b ∼ c + b
Die Faktorstruktur A/ ∼ ist dann auch eine abelsche Gruppe.
64
8 ARITHMETIK
Beweis. Wegen der Kommutativität ist Verträglichkeit mit + klar, +B wohldefiniert und es übertragen sich (1), (2), (4) vermöge π auf A/ ∼ - z.B.
π(a) +B π(0A ) = π(a +A 0A ) = π(a). Also wird A/ ∼ zur abelschen Gruppe,
wenn wir −π(a) = π(−b) für irgendein b ∼ a setzen. Wegen der Eindeutigkeit (G∗) des Inversen in der abelschen Gruppe A/ ∼ hängt das aber nur von
π(a) ab, also −b ∼ −a.
Modulare Arithmetik liefert die Standardbeispiele. Es sei schon angemerkt,
dass jede Kongruenzrelation auf Z von dieser Art ist.
Beispiel 8.19 Auf der Gruppe Z der ganzen Zahlen wird für jedes feste n ∈
N (oder ∈ Z) eine Kongruenzrelation definiert durch
a ∼n b ⇔ n|(a − b)
(⇔ a ≡ b mod n)
Beweis. n | (a − a) = 0. Aus n | (a − b) folgt n | (b − a) = −(a − b), Aus
n | (a − b) ind n | (b − c) folgt n | (a − c) = (a − b) + (b − c). Aus n | (a − b)
folgt n | (a + c − (b + c)) = a − b.
Wir haben Ringe mit 1 als algebraische Strukturen vom Typ (2,1,0,2,0) eingeführt. Eine Kongruenzrelation für eine solche Struktur A ist eine Äquivalenzrelation ∼, die die Veträglichkeitsbedingungen bzgl. aller drei nicht
konstanten Operationen erfüllt und es wird dann A/ ∼ ebenfalls zur algebraischen Struktur dieses Typs. Wie für abelsche Gruppen folgt
Proposition 8.20 Eine Äquivalenzrelation auf einem kommutativen Ring
R mit 1 ist genau dann Kongruenzrelation, wenn für alle a, b, c ∈ R gilt
a∼b ⇒
a + c ∼ b + c ∧ ac ∼ bc
R/ ∼ ist dann ebenfalls ein kommutativer Ring mit Eins.
Beispiel 8.21 Auf dem Ring Z der ganzen Zahlen wird für jedes feste n ∈ N
(oder ∈ Z) eine Kongruenzrelation definiert durch
a ∼n b ⇔ n|(a − b) (⇔ a ≡ b mod n)
Wir schreiben Z/ ∼n = Zn für den Ring der ganzen Zahlen modulo n.
Beweis. Beispiel 8.19 und: aus n | (a − b) folgt n | (ac − bc) = (a − b)c.
Bemerkung 8.22 In einem Körper K gilt: Ist 0 6= n ∈ N minimal mit
n1K = 0K , so ist n eine Primzahl.
So ein n brauchts nicht zu geben, z.B. wenn K Unterkörper von C . Sei nun
n = qm mit q, m < n und n1 = 0. Dann (q1)(m1) = n1 = 0 also q1 = 0 oder
m1 = 0 was der Minimalität widerspricht.
Beispiel 8.23 Zn ist ein Körper genau dann, wenn n eine Primzahl ist.
Beweis. Für 0 < m < n ist n kein Teiler von m, also m 6∼n 0. Ist also Zn
Körper, so p prim nach der vorangehenden Bemerkung. Sei umgekehrt n = p
prim und π(a) 6= π(0), d.h. p und a teilerfremd. Nach Bezout gibt es ganze
Zahlen x, y mit ax + py = 1, also ax ∼n 1 und π(a)π(x) = π(ax) = π(1).
Somit ist Zp Körper.
65
9
Äquivalenzrelationen.
Die Umgangssprache bezeichnet häufig Dinge als gleich, wenn sie in gewissen,
jeweils relevanten, Merkmalen übereinstimmen. Damit allein kann man aber
keine ernsthafte mathematische Begriffsbildung treiben, sondern man muss,
in gegebenem Zusammenhang, ‘Gleichheit’ als eine Relation definieren, etwa
auf der Grundlage gegebener Relationen und Operationen. Der Zusammenhang ist dabei wesentlich: Etwa beim Rechnen mit rationalen Zahlen ist 1
gleich 22 , jedoch wird man 1 Teller und 22 Teller nicht unbedingt als gleich
ansehen.
Nach Leibniz bedeutet Gleichheit zweier Objekte in einem gegebenen Zusammenhang, dass man das eine durch das andere ersetzen kann, ohne dass
sich an den relevanten Aussagen und Beziehungen etwas ändert. Die Axiome
der Äquivalenzrelationen ergeben sich zwingend daraus: Schreibt man s ∼ t,
falls s gleich t ist, und geht man davon aus, dass jedes Ding sich selbst gleich
sei (s ∼ s), so kann man aus s ∼ t auf t ∼ s schliessen (ersetze in t ∼ t das
zweite t durch s) und man kann von s ∼ t und t ∼ u auf s ∼ u schliessen,
indem man in t ∼ u das t durch s ersetzt.
Diese Axiome reichen aus, solange man keine Struktur berücksichtigt. Die
Verwendung des Gleichheitszeichens ‘=’ signalisiert, dass in dem gegebenen
Zusammenhang klar ist, was mit Gleichheit gemeint ist.
9.1
Definition und Beispiele.
Eine binäre Relation ∼ auf einer Menge M heisst eine Äquivalenzrelation,
wenn für alle x, y, z ∈ M gilt
(E1)
(E2)
(E3)
x∼x
x∼y⇒y∼x
x ∼ y und y ∼ z ⇒ x ∼ z
Reflexivität
Symmetrie
Transitivität
Beispiele: 1. Zwei Brüche bedeuten die gleiche rationale Zahl
c
a
∼
⇔ ad = bc.
b
d
2. Zwei rationale Cauchyfolgen bedeuten die gleiche reelle Zahl
(an )n∈N ∼ (bn )n∈N ⇔ (an − bn )n∈N ist Nullfolge
3. Zwei Quotienten reeller Polynome bedeuten die gleiche rationale Funktion
p(x)
r(x)
∼
⇔ p(x)s(x) ≡ r(x)(q(x)
q(x)
s(x)
4. Zwei Pfeile im Anschauungsraum bedeuten den gleichen Vektor
(P, Q) ∼ (P 0 , Q0 )
⇔ es gibt Parallelogramme P QXY und XY P 0 Q0
.
⇔ (P, Q) und (P 0 , Q0 ) haben dieselbe Länge und Richtung
66
9 ÄQUIVALENZRELATIONEN.
5. Zwei I-Tupel stimmen auf J ⊆ I überein
(ai | i ∈ I) ∼J (bi | i ∈ I) ⇔ für alle j ∈ J. aj = bj
6. Zwei ganze Zahlen haben den gleichen Rest modulo n
a ∼n b ⇔ a ≡ b( mod n) ⇔ n teilt a − b
7. Zwei algebraische Strukturen sind isomorph
A∼B ⇔ A∼
=B
8. Für eine Abbildung φ : M → . der Kern ∼φ
x ∼φ y ⇔ φ(x) = φ(y).
9. Sind ∼1 , . . . , ∼n Äquivalenzrelationen auf M , so auch der Durchschnitt mit
a∼b ⇔
a ∼1 b und . . . und a ∼n b
10. Zwei Programme berechnen bei gleicher Eingabe die gleiche Ausgabe oder hängen sich beide auf bzw. stürzen ab.
11. Zwei Befehlswörter w und w0 bewirken dieselben Zustandsänderungen
des Automaten A
δ(z, w) = δ(z, w0 )
9.2
für alle Zustände z von A
Klasseneinteilung
Sei ∼ eine Äquivalenzrelation auf M . Wir definieren
ã := {x ∈ M | x ∼ a} = a[mod ∼] die (Äquivalenz)Klasse von a nach/modulo ∼ .
Lemma 9.1
a ∼ b ⇔ ã = b̃.
Beweis. Sei a ∼ b. Aus x ∼ a folgt dann mit (E3), dass x ∼ b, also ã ⊆ b̃.
Wegen (E2) haben wir auch b ∼ a und b̃ ⊆ ã. Also haben ã und b̃ dieselben
Elemente, weshalb ã = b̃. Gelte umgekehrt ã = b̃. Wegen (E1) haben wir
a ∼ a, also a ∈ ã = b̃ und damit a ∼ b per definitionem. Eine Partition oder Klasseneinteilung von M ist ein System Π von Teilmengen von M derart, dass
(P 1)
(P 2)
(P 3)
P 6= ∅ für alle P ∈ Π
Zu jedem x ∈ M gibt es P ∈ Π mit x ∈ P
Für alle P, Q ∈ Π gilt P = Q oder P ∩ Q = ∅
Lemma 9.2 Zwischen Äquivalenzrelationen und Partitionen auf einer Menge M besteht eine bijektive Entsprechung vermöge
Π = {ã | a ∈ M },
a ∼ b ⇔ es gibt A ∈ Π mit a, b ∈ A.
9.3
Repräsentanten
67
Beweis. (P1) und (P2) folgen sofort aus (E1): a ∈ ã. Ist c ∈ ã ∩ b̃, so c ∼ a,
und c ∼ b, also a ∼ b mit (E2) und (E3) und daher nach Lemma 9.1 ã = b̃.
Gilt a ∼ b, so a, b ∈ A = b̃. Gilt umgekehrt a, b ∈ A = c̃, so a ∼ c und b ∼ c,
also a ∼ b mit (E2) und (E3). Ist die Partition gegeben, so gilt (E1) wegen
(P2) und (E2) ist trivial. Hat man a ∼ b ∼ c, so a, b ∈ A und b, c ∈ B mit
A, B ∈ Π, also b ∈ A ∩ B und A = B nach (P3), also a ∼ c. Und ã = A
für a ∈ A. . Partitionen taugen insbesondere als bildliche Vorstellung von
Äquivalenzrelationen.
9.3
Repräsentanten
Sei ∼ eine Äquivalenzrelation auf M . Ein Element a von M heisst Repräsentant der Klasse A, wenn a ∈ A. Also
a, b repräsentieren dieselbe Klasse, nämlich ã = b̃, ⇔ a ∼ b.
Eine Teilmenge S von M , die aus jeder Klasse genau einen Repräsentanten
enthält, heisst ein Repräsentantensystem.
Prinzip 9.3 Repräsentation. Jede Äquivalenzrelation hat mindestens ein
Repräsentantensystem
Aber meist tut man sich schwer, eines zu finden. Der Beweis ergibt sich
wieder aus dem Auswahlaxiom, für endliche Mengen durch Induktion. Für
obige Beispiele hat man z.B. folgende Repräsentantensysteme
1 ab
2 (an )n∈N
∀m.∃n. (an − an−1 )10n 6= 9
3 p(x)
q(x)
4 (O, Q)
5 (ai | i ∈ I)
6 a
a, b teilerfremd, b > 0
a0 ∈ Z, ∀n > 0. (an − an−1 )10n ∈ {0, . . . , 9},
p(x), q(x) teilerfremd, q(x) normiert
mit festem Punkt O
aj = 0j für alle j ∈ J mit ausgezeichnetem 0j ∈ Aj
a ∈ Z, 0 ≤ a < n
π
Repräsentantensystem
M
Abstraktion
K
68
9 ÄQUIVALENZRELATIONEN.
9.4
Abstraktion
Prinzip 9.4 Abstraktion. Zu jeder Äquivalenzrelation ∼ auf einer Menge
M gibt es eine Menge K und eine surjektive Abbildung π von M auf K so,
dass
x ∼ y ⇔ π(x) = π(y) für alle x, y ∈ M.
Wir sagen dann, dass K eine Faktormenge (auch Quotientenmenge von M
nach (oder modulo) ∼ ist mit kanonischer Projektion π = mod ∼ . Kurz:
π : M → K ist Abstraktion nach ∼. Durch einen solchen Übergang kommen
wir z.B. von den (konkreten) Brüchen/Cauchyfolgen zu den (abstrakten)
rationalen/reellen Zahlen, von den Pfeilen im Anschauungsraum zu den Vektoren.
Man kann sich K auf vielfältige Weise verschaffen. Dogmatiker behaupten,
man müsse die Menge der Äquivalenzklassen nehmen. Ist M gar keine Menge
(wie in Beisp. 7), so verbietet es sich das, weil die Gesamtheit der Äquivalenzklassen dann noch weniger greifbar ist als M selbst. Trotzdem kann man
durch Abstraktion den Begriff ‘Isomorphietyp’ bilden und, etwa im Falle der
endlichen abelschen Gruppen, die Menge der Isomorphietypen explizit bestimmen. Wir empfehlen daher folgenden Umgang mit ‘der Faktormenge’
M/ ∼
• Man arbeite bevorzugt in M mit der ‘erweiterten Gleichheitsbeziehung’
∼
• Man bezeichne die Elemente von M/ ∼ , wenns denn sein muss, mit
ã = π(a) und rechne mit
ã = π(a) = b̃ = π(b)
9.5
⇔a∼b
Ergänzung
Satz 9.5 Ergänzung. Sei π eine surjektive Abbildung von M auf K und ψ
eine Abbildung von M in N . Genau dann gibt es eine Abbildung χ von K in
N mit
ψ =χ◦π
wenn (∗) x ∼π y ⇒ x ∼ψ y für alle x, y ∈ M
Die Abbildung χ ist dabei eindeutig bestimmt: χ(y) = ψ(x) falls y = π(x).
χ injektiv ⇔ (∗∗) x ∼π y ⇔ x ∼ψ y für alle x, y ∈ M
χ : K → N surjektiv ⇔ ψ : M → N surjektiv
Beweis. Sei χ gegeben und a ∼π b. Dann π(a) = π(b), also ψ(a) =
χ(π(a)) = χ(π(b)) = ψ(b) und somit a ∼ψ b. Sei umgekehrt (*) erfüllt. Setze
χ = {(y, z)| y ∈ K, z ∈ N und ∃x ∈ M : π(x) = y und ψ(x) = z}.
χ ist in der Tat eine Abbildung: Ist y ∈ K gegeben, so gibt es wegen der
Surjektivität von π ein x ∈ M mit π(x) = y und man hat (y, z) ∈ χ für
69
z = ψ(x). Hat man (y, z) ∈ χ und (y, z 0 ) ∈ χ, so gibt es nach Definition
x, x0 ∈ M mit π(x) = y, ψ(x) = z, π(x0 ) = y, π(x0 ) = z 0 . Es folgt π(x) = π(x0 )
(da ‘=’ eine Äquivalenzrelation ist), also x ∼π x0 und nach Voraussetzung
(*) x ∼ψ x0 . Das besagt aber z = ψ(x) = ψ(x0 ) = z 0 .
Beweis des Zusatzes. Sei χ injektiv und a ∼ψ b, d.h χ(π(a)) = ψ(a) = ψ(b) =
χ(π(b). Mit der Injektivität folgt π(a) = π(b), also a ∼π b. Gelte umgekehrt
(**) und sei χ(c) = χ(d). Nach Definition von χ gibt es a, b ∈ M mit c = π(a),
d = π(b) und ψ(a) = χ(c) = χ(d) = ψ(d). Das bedeutet a ∼ψ b, also nach
(**) a ∼π b und damit c = π(a) = π(b) = d. ψ
N
M
π
χ
K
Korollar 9.6 Die Abstraktion einer Menge M nach einer gegebenen Äquivalenzrelation ∼ ist eindeutig bestimmt: d.h. zu je zwei Abstraktionen πi :
M → Ki (d.h. surjektiven Abbildungen mit πi a = πi ba ⇔ a ∼ b) gibt es eine
(eindeutig bestimmte) bijektive Abbildung χ : K1 → K2 mit π2 = χ ◦ π1 .
10
10.1
Vektorräume und Unterräume
Spalten und Zeilen
Sei K ein Körper, d.h. es gelten (K1-10). Sei m eine natürliche Zahl. Dann
bestehe K n aus allen Listen (oder n-tupeln) a1 , . . . , an von Elementen aus
70
10 VEKTORRÄUME UND UNTERRÄUME
K. Hier werden wir eine solche Liste meist als Spalte
 
a1
 .. 
a=.
an
notieren. Das Entscheidende ist, dass a durch seine Komponenten oder Koeffizient a1 , . . . , an eindeutig bestimmt ist:
   
a1
b1
 ..   .. 
 .  =  .  genau dann, wenn a1 = b1 , . . . , an = bn .
an
bn
Eine aus n numerischen Komponenten zusammengesetzte Grösse nimmt dann
Werte in (dem passenden) K n an, aber nicht notwendig alle möglichen. Für
die Listen in K n haben wir eine komponentenweise auszuführende Addition
und eine Multiplikation mit Elementen aus K :
    
   
 

a1
b1
a1 + b1
a1
ra1
0
 ..   ..   .. 
 ..   .. 
 .. 
 .  +  .  =  .  , r  .  =  .  , 0 = . .
an
bn
an + bn
an
ran
0
Ganz analog zu den Spalten bildet man den Raum K n∗ der Zeilen (den wir
mit gutem Grund und Recht als ein von K n zu unterscheidendes mathematisches Objekt ansehen)
(a1 a2 . . . an ) = (a1 , a2 , . . . , an )
(a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn )
r(a1 , . . . , an ) = (ra1 , . . . , ran ).
10.2
Vektorräume
Sei K ein Körper. Eine algebraische Struktur V vom Typ der K-Vektorräume
ist eine additiv geschriebene Struktur vom Typ der Gruppen mit zusätzlich
zu jedem r ∈ K einer einstelligen Operation rV notiert als x 7→ rx. Es handelt
sich um einen K-Vektorraum, wenn (V, +, −, 0) kommutative Gruppe ist und
wenn gilt
(V 5) für alle r in K und ~v , w
~ in V gilt r(~v + w)
~ = r~v + rw
~
(V 6) für alle ~v in V gilt 1~v = ~v
(V 7) für alle r, s in K und ~v in V gilt (r + s)~v = r~v + s~v
(V 8) für alle r, s in K und ~v in V gilt r(s~v ) = (rs)~v .
Der Körper K ist integraler Bestandteil des Begriffs, seine Elemente heissen
Skalare, die von V Vektoren. r~v heisst die Streckung des Vektors ~v um den
10.3 Rechenregeln
71
Skalar r oder das Produkt des Skalars r mit dem Vektor ~v . Das neutrale Element bzgl. der Addition ist der Nullvektor ~0. Die Pfeile sind lediglich eine
Dekoration, die die Lesbarkeit fördern soll. Alternativ kann man die Multiplikation mit Skalaren als Abbildung (r, ~v ) 7→ r~v verstehen. Das erfordert
dann den Begriff der “mehrsortigen algebraischen Struktur”. Obige Auffassung passt jedoch für unsere Zwecke besser. Beispiele
• Die Vektoren des Raumes bzw. einer Ebenen bilden einen R-Vektorraum
• Die n-Spalten über einem Körper K bilden einen K-Vektorraum K n .
• C ist ein R-Vektorraum, R ein Q-Vekktorraum. Allgemein: Ist L Unterkörper von K, so wird jeder K-Vektorraum zum L-Vektorraum,
wenn man nur die Multiplikation mit Skalaren aus L betrachtet.
10.3
Rechenregeln
In eime Vektorraum gelten das allgemeine und Kommutativ- und KommutativAssoziatvgesetz für die Addition
n
X
~vi =
i=1
n
X
~vf (i)
falls f Permutation von{1, . . . , n}
i=1
mi
n X
X
i=1 j=1
~vij =
m
X
~vf (k)
k=1
falls f : {1, . . . .m} → {(i, j) | 1 ≤ i ≤ n, 1 ≤ j ≤ mi } bijektiv
und
r(
n
X
i=1
~vi ) =
n
X
i=1
r~vi ,
n
n
X
X
s(
ri~vi ) =
sri~vi ,
i=1
i=1
r~v = ~0 ⇔ r = 0 oder ~v = ~0,
10.4
n
n
X
X
[
ri ]~v =
ri~v
i=1
i=1
(−r)~v = −(r~v ).
Funktionenraum
Ist X eine Menge, so bildet die Menge K X aller Abbildungen von X in K
einen K-Vektorraum mit
(f + g)(x) = f (x) + g(x), 0(x) = 0k , (rf )(x) = r · f (x) ∀x ∈ X
Ist X = {1, . . . , n}, so kann man die Funktion f : X → K mit dem n-Tupel
(x1 , . . . , xn ) über K identifizieren, falls f (i) = xi für i = 1, . . . , xn . Ist X das
reelle Intervall [a, b], so erhalten wir mit R[a,b] den R-Vektorraum der auf dem
Intervall [a, b] definierten reellen Funktionen.
72
10 VEKTORRÄUME UND UNTERRÄUME
10.5
Untervektorräume
Eine Teilmenge U eines K-Vektorraums V ist ein (K)-Untervektorraum oder
linearer Teilraum, wenn sie unter den Operationen von V abgeschlossen ist,
d.h. wenn
~0 in U, ~u + ~v in U, r~u in U für alle ~u, ~v in U, r in K.
U ist dann mit den von V geerbten Operationen selbst ein K-Vektorraum.
Beispiele.
• V und ~0 (für Pedanten {~0}) sind die trivialen Untervektorräume von
V.
• Vektorielle Ebenen und Geraden im vektoriellen Anschaungsraum.
• Ist K ein Unterkörper von M und M ein Unterkörper von L, so ist M
ein K-Untervektorraum von L
√
√
– Q( 2) = {a + b 2 | a, b ∈ Q} ist Q-Untervektoraum von R.
• Ein Untervektorraum von RX heisst ein Funktionenraum
– Die stetigen Funktionen bilden einen R-Untervektorraum von R[a,b]
– Die differenzierbaren Funktionen bilden einen R-Untervektorraum
von R[a,b]
10.6
Erzeugnis
Wir behandeln das Erzeugnis zunächst ohne auf die Besonderheiten bei den
Vektorräumen einzugehen.
Lemma 10.1 Sind die Ui , i ∈ I K-Untervektorräume von V , so auch
\
Ui = {~x ∈ V | ∀i ∈ I. ~x ∈ Ui }
i∈I
T
Beweis. ~0 ∈ Ui für alle i, also ~0 ∈ U = i Ui . Seien ~u, ~v ∈ Ui für alle i. Dann
auch r~u ∈ Ui und ~u + ~v ∈ Ui , da Ui Untervektorraum. Somit r~u ∈ U und
~u + ~v ∈ U .
Korollar 10.2 Zu jeder Teilmenge E eines K-Vektorraums V gibt es einen
eindeutig bestimmten Untervektorraum Spann E so, dass gilt
E ⊆ Spann E, Spann E ⊆ U für alle Untervektorräume U ⊇ E
Spann E ist der von E erzeugte Untervektorraum oder das Erzeugnis von
E.
Beweis. Sei Ui (i ∈ I) die ziemlich
unendliche Liste aller Untervektorräume
T
mit Ui ⊇ E. Dann ist S := i∈I Ui nach dem Lemma ein Untervektorraum.
10.7 Linearkombinationen
73
Ist ~v ∈ E, so ~v ∈ Ui für alle i ∈ I, also ~v inS. Ist W ein Untervektorraum mit
W ⊇ E, so W = Uj für ein j ∈ I, also W ⊇ S. Ist T ⊇ E ein Untervektorraum mit T ⊆ Ui f ur alle i, so folgt T ⊆ S, auch S ⊆ T weil T 4einesderUi
ist. Also T = S, d.h. S = Spann E ist eindeutig bestimmt. Natürlicher,
aber mühsamer präzise auszuformulieren ist der folgende Zugang
Prinzip 10.3 Spann E entsteht aus E durch den folgenden Erzeugungsprozess
~v , ~u
~v + ~u, ~v
r~v
d.h. Spann E besteht aus den Vektoren von V , die man durch einen Term
darstellen kann, in den Vektoren aus E, die Addition von Vektoren und Multiplikation mit Skalaren aus K eingehen.
Korollar 10.4 Es gilt
• X ⊆ Spann X
• X ⊆ Y ⇒ Spann X ⊆ Spann Y
• Spann Spann X = Spann X
• Spann X ist Untervektorraum
• Ist X ⊆ U und U Untervektorraum so Spann X ⊆ U
10.7
Linearkombinationen
Ein Vektor ~v ist Linearkombination der Vektoren ~vi , wenn er eine Darstellung
folgender Art hat
~v = r1~v1 + . . . + rn~vn
Lemma 10.5 Für einen K-Vektorraum V gilt
n
X
Spann X = {
ri~vi | n ∈ N, ~vi ∈ X, ri ∈ K}
i=1
n
X
Spann X = {
ri~vi | ri ∈ K} falls X = {~v1 , . . . , ~vn }
i=1
Beweis: Die angegebene Menge von Linearkombinationen bildet einen Untervektorraum:
X
X
X
X
X
ri~vi +
si~vi =
(ri + si )~vi , r
ri~vi =
(rri )~vi
i
i
i
i
i
Andererseits muss jeder Untervektorraum, der X enthält, auch alle diese
Linearkombinationen enthalten.
Korollar 10.6 Sind die w
~ j Linearkombinationen der ~vi , so ist jede Linearkombination ~u der w
~ j eine Linearkombination der ~vi und somit das Erzeugnis
der w
~ j im Erzeugnis der ~vi enthalten.
Beweis. Das ist klar, wir können es aber auch rechnen.
X
X
X
XX
~u =
sj w
~j, w
~j =
rij ~vi ⇒ ~u =
sj rij ~vi =
(
sj rij )~vi
j
i
i,j
i
j
74
11
11 BASEN UND DIMENSION
Basen und Dimension
Die Theorie von Basis und Dimension kann man allein auf die allgemeinen
Eigenschaften des Erzeugens (Kor.10.4) und das Austauschlemma 11.2 begründen. Man spricht dann von Matroiden. Wir tun das, formulieren es aber
für Vektorräume.
11.1
Erzeugende und unabhängige Mengen
Eine Teilmenge E eines Vektorraums V heisst erzeugend für V , wenn SpannE =
V . Eine erzeugende Menge heisst minimal erzeugend, wenn keine echte Teilmenge erzeugend ist.
Eine Teilmenge X von V heisst abhängig, wenn sie eine Teilmenge A ∪ {~b}
enthält mit ~b ∈ SpannA und ~b 6∈ A. Andernfalls heisst sie unabhängig. Ist B
unabhängig und erzeugend, so ist es eine Basismenge.
Lemma 11.1 Eine Teilmenge B von V ist minimal ezeugend genau dann,
wenn sie Basismenge ist. Jede Basismenge von V ist maximal unabhängig in
V.
Beweis. Hätte man ~b ∈ Spann A innerhalb B, so wäre schon B\{~b} erzeugend.
Also ist eine minimal erzeugende Menge unabhängig. Hätte umgekehrt eine
Basismenge B eine erzeugende echte Teilmange E, so ~b ∈ Spann A für ein
~b ∈ B \ E und A ⊆ E im Widerspruch zur Unabhängigkeit von B. Ist B eine
Basismenge und C echte Obermenge von B, so hat man ein ~c ∈ C mit ~c 6∈ B
aber ~c ∈ Spann B, also C abhängig. 11.2
Austausch
Lemma 11.2 Für jeden Vektorraum gilt:
Wenn ~c ∈ Spann (A ∪ {~b}) aber ~c 6∈ Spann A, so ~b ∈ Spann (A ∪ {~c})
Beweis. Es gibt es r, ri ∈ K mit ~c = r~b + r1~a1 + . . . + rm~am . Da ~c 6∈ Spann A,
muss r 6= 0 sein und es folgt ~b = r−1~c − r−1 r1~a1 − . . . − r−1 rm~am , Lemma 11.3 Sei U unabhängig und U ∪ {~b} abhängig. Dann ~b ∈ Spann U .
Beweis. Sei ~b 6∈ U , U unabhängig und U ∪ {~b} abhängig. Dann gibt es nach
Definition A ∪ {~c} ⊆ U ∪ {~b} mit ~c ∈ Spann A und ~c 6∈ A. Es gilt A ∪ {~c} 6⊆ U ,
da U unabhängig ist. Also ~b ∈ A ∪ {~c}. Ist ~b = ~c, so ~b ∈ Spann A wegen
c ∈ Spann A. Andernfalls ~b ∈ A und ~c ∈ U . Dann ist D = A \ {~b} ⊆ U
und wegen der Unabhängigkeit von U kann nicht ~c ∈ Spann U gelten. Mit
Austausch folgt ~b ∈ Spann (D ∪ {~c}), also ~b ∈ Spann U . 11.3 Basisergänzung
11.3
75
Basisergänzung
Sei E eine Teilmenge von V . Eine Teilmenge B ⊆ E ist maximal unabhängig
in E, wenn sie unabhängig ist, aber kein unabhängiges U mit U 6= B ⊂ U ⊆
E existiert.
Satz 11.4
• Jede in einer Erzeugendenmenge E des Vektorraums V maximal unabhängige Menge B ist eine Basismenge von V .
• (Basis-Ergänzung.) Seien U und C endliche Teilmengen eines Vektorraums V so, dass U unabhängig und U ∪ C erzeugend ist. Dann gibt es
eine Basismenge B von V mit U ⊆ B ⊆ U ∪ C
Beweis. Sei B maximal unabhängig in E. Gäbe es ~c ∈ E mit ~c 6∈ Spann B, so
wäre B ∪ {~cc} nach dem Lemma unabhängig in E. Also E ⊆ Spann B und
V = Spann E ⊆ Spann Spann B = Spann B.
Zur zweiten Behauptung. Wähle B mit U ⊆ B ⊆ U ∪ C maximal, d.h.
so dass es kein echt größeres U 0 gibt. Wegen der Endlichkeit geht das. Dann
ist B maximal unanhängig in U ∪ C, also nach Teil 1 erzeugend. 11.4
Basen
Wir haben der Bequemlichkeit halber Basen zunächst als Mengen von Vektoren eingeführt. Bei der wichtigsten Anwendnung, der Einführung von Koordinaten, kommt es jedoch wesentlich auf die Reihenfolge an, d.h. man muss
mit Folgen oder Listen von Vektoren arbeiten. Für endliche Listen benutze
man folgende Definitionen
• Spann(a1 , . . . , an ) = Spann{a1 , . . . , an }
• a1 , . . . , an ist erzeugend ⇔ {a1 , . . . , an } ist erzeugend
• a1 , . . . , an ist unabhängig ⇔ {a1 , . . . , an } ist unabhängig und besteht
aus n verschiedenen Elementen.
• a1 , . . . , an ist ( geordnete) Basis ⇔ {a1 , . . . , an } ist Basis und besteht
aus n verschiedenen Elementen.
Die listenreiche Version der Basisergänzung sieht so aus:
• Sei ~v1 , . . . , ~vn ein Erzeugendensystem des K-Vektorraums V . Sind ~v1 , . . . , ~vk
unabhängig, so kann man sie durch passende Auswahl aus den ~vk+1 , . . . ~vn
zu einer Basis von V ergänzen.
Und das Verfahren: Nach Umsortieren sei ~v1 , . . . , ~vm maximal unabhängige
Teilliste, d.h. ~v1 , . . . , ~vm , ~vj linear abhängig für jedes j > m. Dann ist nach
dem Lemma jedes ~vj Linearkombination der ~v1 , . . . , ~vm und diese somit ein
Erzeugendensystem von V .
76
11 BASEN UND DIMENSION
11.5
Dimension
Satz 11.5 Hat ein Vektorraum eine n-elementige Basis, dann
(a) besteht jede Basis von V aus n Elementen
(b) ist n die maximale Größe von unabhängigen Teilmengen in
V
(c) bilden je n unabhängige Vektoren eine Basis
(d) ist n die minimale Größe von Erzeugendenmengen von V
(e) bilden je n paarweise verschiedene erzeugende Vektoren eine
Basis
Im Fall des Satzes heisst n die Dimension des Vektorraums und wir schreiben
n = dimk V im Falle eines K-Vektorraums, Wir schreiben dim V < ∞, falls
V eine endliche Basis hat.
Beweis für Listen. Sei ~v1 , . . . , ~vn eine Basis. Sei w
~ 1, . . . , w
~ m eine weitere Basis.
Indem wir den Ergänzungssatz auf
w
~ 2, . . . , w
~ m , ~v1 , . . . , ~vn
anwenden und umsortieren erhalten wir eine Basis
w
~ 2, . . . , w
~ m , ~v11 , . . . , ~v1k1
mit ~v1j ∈ {~v1 , . . . , ~vn }
Indem wir den Ergänzungssatz auf
w
~ 3, . . . , w
~ n , ~v11 , . . . , ~v1k1 , ~v1 , . . . , ~vn
anwenden und umsortieren erhalten wir eine Basis
w
~ 3, . . . , w
~ n , ~v11 , . . . , ~v1k1 , ~v21 , . . . , ~v2k2
mit ~vij ∈ {~v1 , . . . , ~vn }
usw.. Wegen der Minimalitätseigenschaft einer Basis ist stets ki > 0 und, da
kein Vektor in einer Basis zweimal auftreten darf, ist man nach spätestens m
Schritten am Ende - also m ≤ n. Durch Vertauschen der Rollen folgt n ≤ m
und damit n = m.
(b) folgt nun sofort mit dem Ergänzungssatz. Hätte man ein Erzeugendensystem mit weniger als n Elementen, so auch ein minimales, also eine
Basis mit m < n Elementen. Dann hätte man aber für diese Basis einen Widerspruch zu (a). Hat man n unabhängige Vektoren w
~ 1, . . . , w
~ n , so sind nach
(b) für jedes ~v die w
~ 1, . . . , w
~ m , ~v linear abhängig, also nach dem Lemma 11.3
~v Linearkombination der w
~ i . (c) folgt sofort und (d),(e) mit Lemma 11.1. Korollar 11.6 Für Untervektorräume U, W eines Vektorraums gilt
• W endlich erzeugt ⇒ dim W < ∞
• U ⊆ W ⇒ dim U ≤ dim W
• U ⊆ W und dim U = dim W < ∞ ⇒ U = W
11.6 Abzählbare Dimension
11.6
77
Abzählbare Dimension
Wir nennen eine Menge Y abzählbar, wenn sie leer ist oder es eine surjektive
Abbildung von N auf Y gibt. Eine Menge ist abzählbar unendlich ganau
dann, wenn sie bijektiv auf N abgebildet werden kann.
Lemma 11.7 In einem Vektorraum sei Y ⊆ Spann X für eine abzählbare
bzw. endliches Menge Y , dann gibt es abzählbares bzw. endliches X 0 ⊆ X
mit Y ⊆ Spann X 0
Beweis.
S Zu jedem y ∈ Y0 gibt es endliches Xy ⊆ X mit y ∈ Spann xy .0 Sei
0
X = y∈Y Xy . Dann X ⊆ X abzählbar bzw. endlich und Y ⊆ Spann X . Satz 11.8 Jeder Vektorram mit abzählbarer Erzeugendenmenge besitzt eine
abzählbare Basismenge und zwischen je zwei Basismengen gibt es eine bijektive Abbildung.
Beweis. Sei E = {~a0 , ~a1 , . . .} erzeugende Menge. Setze
Bn−1 ∪ {~an } falls unabängig
B1 = ∅, Bn =
Bn−1
sonst
S
Dann ist n∈N Bn maximal unabhängig in E, also nach Satz 11.4 eine Basismegnge. Basismengen sind minimal erzeugend. Daher folgt das Weitere mit
dem Lemma und Satz 11.5. .
Eine Menge ist wohlgeordnet durch <, wenn gilt: nicht x < x; x < y < z
impliziert x < z; x < y oder x = y oder y < x; jede nichtleere Teilmenge hat
ein minimales Element. Derselbe Beweis wie oben zeigt, dass jeder Vektorraum mit wohlgeordneter Erzeugendenmenge eine Basismenge besitzt. Und
in der Regel geht man davon aus, dass jede Menge eine Wohlordung zulässt
- auch wenn man so gut wie nie eine zu Gesicht bekommt.
Eine unabhängige Teilmenge von K X erhält man mit den
1 y=x
ex (x ∈ X), ex (y) =
0 y 6= x
Spann {ex | x ∈ X} = {f : X → K | {y ∈ X | f (y) 6= 0} ist endlich}
ist aber nur dann = K X , wenn X endlich ist.
Schokoladenaufgabe: Zeige, dass für unendliches X der K-Vektorraum K X
keine abzählbare Basismenge besitzt.
12
12.1
Basis-Algorithmen für Vektorräume
Unabhängigkeit in Vektorräumen
Lemma 12.1 Sei der Untervektorraum U des K-Vektorraums V von ~v1 , . . . , ~vn
erzeugt. Die folgenden Aussagen sind gleichwertig:
78
12 BASIS-ALGORITHMEN FÜR VEKTORRÄUME
(1) Die Darstellung der Elemente von U als Linearkombinationen der ~v1 , . . . , ~vn ist eindeutig.
(2) r1~v1 +. . .+rn~vn = ~0 ist nur in der trivialen Weise r1 = . . . =
rn = 0 möglich.
(3) ~v1 , . . . , ~vn sind linear unabhängig, d.h. für kein j ist ~vj Linearkombination der ~v1 , . . . , ~vj−1 , ~vj+1 , . . . , ~vn .
(4) ~v1 , . . . , ~vn ist ein minimales Erzeugendensystem von U , d.h.
für kein j wird U von den ~v1 , . . . , ~vj−1 , ~vj+1 , . . . , ~vn erzeugt.
P
P
P
Beweis. (1)⇒(2) trivial. (2)⇒(1): Aus P
ri~vi = si~vi folgt (ri −si )~vi = ~0,
also ri − si = 0 für alle P
i. (2) ⇔ (3):
ri~vi = 0 mit festem rj 6= 0 ist
−1
gleichbedeutend mit ~vj = i6=j (rj ) ri~vi . (3)⇔(4) nach Lemma 11.1.
Beispiel. Je drei Vektoren des Anschauungsraumes, die nicht in einer Ebene
liegen, bilden eine Basis.
Lemma 12.2 Sind ~v1 , . . . , ~vn in V unabhängig, so gilt für jedes ~v ∈ V
entweder ~v1 , . . . , ~vn , ~v unabhängig
oder
~v Linearkombination der ~v1 , . . . , ~vn
Das ist Lemma 11.3. Noch ein Beweis. Sind ~v1 , . . . , ~vn+1 = ~v linear abhängig,
so gibt es ri nicht alle 0 mit ~0 = r1~v1 + . . . rn~vn + rn+1~vn+1 . Da ~v1 , . . . , ~vn
unabhängig sind, muss rn+1 6= 0 sein, also ~vn+1 = (rn+1 )−1 r1~v1 + . . . +
(rn+1 )−1 rn~vn .
12.2
Matrizen
Sei K oder ein anderer Körper. Eine m × n-Matrix


a11 . . . a1n

..
.. 
A = (aij ) = (aij )m×n =  ...
.
. 
am1 . . . amn
über K wird angegeben durch ein (rechteckiges) Schema von Zahlen (Koeffizienten, Einträgen) aij aus K, wobei i = 1, . . . , m; j = 1, . . . , n. Oder eine
mit den Paaren ij indizierte Liste. Die Einträge ai1 , . . . , ain bilden die i-te
Zeile, die Einträge a1j , . . . , amj die j-te Spalte. Zeilen bzw. Spalten können
demnach als Spezialfälle von Matrizen aufgefasst werden. Man lese: n geht
nach m-Matrix oder m kreuz n Matrix.
Der Zeilenraum einer Matrix A ∈ K m×n ist der von den Zeilen von A erzeugte
Untervektorraum von K n∗ .
Die i-te Zeile einer m × n-Matrix A ist eine Pivot-Zeile, wenn es ein k
gibt mit aik 6= 0 und wenn für das kleinste solche k gilt: ahj = 0 für alle
h > i und j ≤ k. Ist jede Zeile von A Pivot-Zeile oder Nullzeile, so ist A eine
(obere) Stufenmatrix.
Die Pivot-Zeilen einer Stufenmatrix A bilden
eine Basis des Zeilenraums von A
12.3 Umformungen
79
weil sie offensichtlich unabhängig sind und nach Definition erzeugen. Insbesondere bilden die Einheitszeilen e∗1 , . . . , e∗n die kanonische Basis des Zeilenraums K n∗
e∗1 = (1, 0, . . . , 0), . . . , e∗n = (0, 0, . . . , 1).
Dies und das Folgende geht entsprechend für Spalten. Insbsondere bilden die
Einheitspalten
 
 
 
1
0
0
0
1
0
 
 
 
e1 =  ..  , e2 =  ..  , . . . , em =  .. 
.
.
.
0
0
1
die kanonische Basis des Spaltenraums K m .
12.3
Umformungen
Lemma 12.3 Die folgenden elementaren/Gauss’schen Umformungen einer
Liste ~v1 , . . . , ~vn von Vektoren ändern nichts am Erzeugnis jeweils umkehrbar
durch Umformungen gleicher Art und erhalten Unabhängigkeit.
(G1) Ersetze ~vl durch ~vl0 = ~vl +r~vk für ein Paar k 6= l und r ∈ K
(G2) Vertausche ~vk und ~vl für ein Paar k 6= l
(G3) Ersetze ~vk durch ~vk0 = r~vk für ein k und r 6= 0 in K
Beweis. Sei ~vj0 = ~vj , sonst. Es sind alle ~vj0 Linearkombinationen der ~vj und
umgekehrt und damit die Erzeugnisse gleich. Nämlich
~vl = ~vl0 − r~vk0 bzw. ~vk = ~vl0 , ~vl = ~vk0 bzw. ~vk = r−1~vk0
Und ein minimales Erzeugendensystem geht wieder in ein solches über. Wenn man will, kann man auch mit gebotener Vorsicht so umformen
(G4) Lasse ~0 weg.
Korollar 12.4 Entsteht A0 ∈ K m×p aus A durch (Zeilen)Gauss-Umformungen,
so haben A und A0 den selben Zeilenraum.
Korollar 12.5 Entsteht die Stufenmatrix L ∈ K m×n aus A durch GaussUmformungen, so bilden die Zeilen 6= 0 von L eine Basis des Zeilenenraums
von A. Die Zeilen von A sind unabhängig genau dann, wenn L keine Nullzeile
enthält. Ist m > n, so sind die Zeilen von A notwendigerweise abhängig.
80
12 BASIS-ALGORITHMEN FÜR VEKTORRÄUME
12.4
Basisauswahl
Algorithmus 12.6 Basisauswahl
• Gegeben: Matrix A ∈ K m×n mit Zeilen a∗1 , . . . , a∗m .
• Gesucht: Teilliste a∗i1 , . . . , a∗ik , die Basis des Zeilenraums von A ist.
Verfahren:
• Nummeriere die Zeilen von A mit 1, . . . , m.
• Überführe A mit Gauss-Algorithmus (G1-3) in Stufenform A0 . Dabei
gilt für die Zeilenummerierung
– unverändert bei (G1) und (G3)
– wird mitvertauscht bei (G2)
• Sind i1 , . . . , ik die Nummern der Nichtnullzeilen in A0 , so bilden a∗i1 , . . . , a∗ik
eine Basis des Zeileraums von A.
Beweis durch Induktion über m. Der Fall m = 0 ist trivial. Induktionsschritt.
Sei m > 0 und j minimal so, dass es in der j-ten Spalte einen Eintrag 6= 0 gibt.
Zur Vereinfachung der Notation dürfen wir j = 1 annehmen. Sei k minimal
mit ak1 6= 0. Im Gauss-Algorithmus wird A durch die Vertauschung der
ersten und der k-ten Zeile (im Falle k = 1 passiert nichts) in eine Matrix A0
und dann durch Umformungen nach (G1) mit Pivotzeile a∗k in eine Matrix A1
jeweils mit demselben Zeilenraum überführt, Die erste Zeile von A1 ist a∗k und
die weiteren Zeilen hilden eine (m−1)×n-Matrix B mit jeweils erstem Eintrag
0. Und A0 entsteht, indem B in Stufenform B 0 überführt und die erste Zeile
a∗k hinzugefügt wird. Inbesondere also k = i1 . Nach Induktionasannahme
bilden die Zeilen von B mit Nummern i2 , . . . , id eine Basis des Zeilenraums
von B und, weil die erste Zeile wegen der Nullen nicht Linearkombination
der übrigen sein kann, zusammmen mit a∗k eine Basis des Zeilenraums von
A1 (Lemma 12.2). Die Zeilen i2 , . . . , id von A0 erhält man aus denen gleicher
Nummer von A1 , indem man die Umformung nach (G1) mit Pivotzeile a∗k
wieder rückgängig macht. Also bilden die Zeilen a∗1 , . . . a∗d nach Lemma 12.3
und ?? eine Basis des Zeileraums von A0 (und A). 12.5
Basisergämnzung
Algorithmus 12.7 Basisergänzung
• Gegeben: Matrix A ∈ K m×n mit Zeilen a∗1 , . . . , a∗m so, dass a∗1 , . . . , a∗d
unabhängig sind
• Gesucht: Teilliste a∗id+1 , . . . , a∗ik von a∗d+1 , . . . , a∗m so, dass
a∗1 , . . . , a∗d , a∗id+1 , . . . , a∗ik Basis des Zeilenraums von A ist.
Verfahren:
12.6 Beispiel
81
• Nummeriere die Zeilen von A mit 1, . . . , m.
• Wende den Auswahl-Algorithmus auf die ersten d Zeilen von A an.
• Dies überführt A in eine Matrix A0 , bei der die ersten d-Zeilen eine
Stufenform mit lauter Nichtnullzeilen bilden
• Vertausche die Spalten von A0 so, dass die Pivots der ersten d Zeilen
auf der Diagonale stehen.
• Wende den Auswahl-Algorithmus auf die so entstandene Matrix A00 an.
Dabei bleiben die ersten d Zeilen unverändert.
• Sind 1, . . . , d, id+1 , . . . , ik die Nummern der Nichtnullzeilen der so entstanden Matrix A000 , so bilden a∗1 , . . . a∗d , a∗id+1 , . . . , a∗ik eine Basis des
Zeilenraums von A.
Beweis. Abhängigkeit bzw. Unabhängigkeit von Zeilen bleibt bei Spaltentausch bestehen. 12.6
Beispiel
Wähle aus den Zeilen 1,2,3 eine Basis des von ihnen erzeugten R-Untervektorraums
aus und ergänze diese durch passende der Zeilem 4,5,6,7,8 zu einer Basis
des von den Zeilen 1 bis 8 erzeugten R-Untervektorraums. Lösung: Zeilen
1,3,4,7,6
1
2
3
4
5
6
7
8
1
1
2
1
0
1
0
0
0
2
0
0
0
2
2
0
0
0
3
1
2
2
1
1
0
0
0
4
1
2
3
3
2
0
1
1
5
1
2
2
1
1
1
0
1
6
2
4
3
2
3
1
1
2
1
3
4
5
6
7
8
1
1
0
0
0
0
0
0
3
1
1
1
0
0
0
0
2
0
0
2
2
0
0
0
4
1
2
3
1
0
1
1
5
1
1
1
0
1
0
1
6
2
1
2
1
1
1
2
1
2
3
4
5
6
7
8
1
1
0
0
0
1
0
0
0
2
0
0
0
2
2
0
0
0
3
1
0
1
1
1
0
0
0
4
1
0
2
3
2
0
1
1
5
1
0
1
1
1
1
0
1
6
2
0
1
2
3
1
1
2
1
3
4
5
6
7
8
1
1
0
0
0
0
0
0
3
1
1
0
0
0
0
0
2
0
0
2
2
0
0
0
4
1
2
1
1
0
1
1
5
1
1
0
0
1
0
1
6
2
1
1
1
1
1
2
1
3
4
5
6
7
8
1
1
0
0
1
0
0
0
3
1
1
1
1
0
0
0
2
0
0
2
2
0
0
0
4
1
2
3
2
0
1
1
5
1
1
1
1
1
0
1
6
2
1
2
3
1
1
2
1
3
4
5
6
7
8
1
1
0
0
0
0
0
0
3
1
1
0
0
0
0
0
2
0
0
2
0
0
0
0
4
1
2
1
0
0
1
1
5
1
1
0
0
1
0
1
6
2
1
1
0
1
1
2
82
13 KOORDINATEN, AFFINE RÄUME
1
1
0
0
0
0
0
0
1
3
4
5
7
6
8
13
13.1
3
1
1
0
0
0
0
0
2
0
0
2
0
0
0
0
4
1
2
1
0
1
0
1
5
1
1
0
0
0
1
1
6
2
1
1
0
1
1
2
1
3
4
5
7
6
8
1
1
0
0
0
0
0
0
3
1
1
0
0
0
0
0
2
0
0
2
0
0
0
0
4
1
2
1
0
1
0
0
5
1
1
0
0
0
1
1
6
2
1
1
0
1
1
1
1
3
4
5
7
6
8
1
1
0
0
0
0
0
0
3
1
1
0
0
0
0
0
2
0
0
2
0
0
0
0
4
1
2
1
0
1
0
0
5
1
1
0
0
0
1
0
6
2
1
1
0
1
1
0
Koordinaten, affine Räume
Koordinaten
Ab jetzt betrachten wir nur noch endlichdimensionale Vektorräume und verstehen Basen als Listen (man sagt auch em geordnete Basen).
Satz 13.1 Ist α : ~v1 , . . . , ~vm Basis des K-Vektorraumes V , so kann man V
mit K m “identifizieren”
 
 
x
xα1
1
X
 
 
~x =
xi~vi 7→  ...  = ~xα =  ...  ~vi 7→ ei
xαm
xm
(~x + ~y )α = ~xα + ~y α , (r~x)α = r~xα
• Vektoren ~x1 , . . . ~xn sind unabhängig genau dann, wenn ihre Koordinatenspalten ~xα1 , . . . , ~xαn unabhängig sind.
• ~x ist im Erzeugnis der ~x1 , . . . , ~xn genau dann, wenn ~xα im Erzeugnis
der ~xα1 , . . . ~xαn ist
• ~x1 , . . . ~xn ist Basis von V genau dann, wenn ~xα1 , . . . ~xαn Basis von K m
Beweis: Die Darstellung der Vektoren mittels ihrer Koordinaten ist eindeutig
und verträgt sich mit Addition und mit der Multiplikation mit Skalaren. 13.2
Affine Räume
In Analogie zum Anschauungsraum sagen wir, dass ein affiner Raum gegeben
wird durch eine ‘Punktmenge’ P, einen Vektorraum V und eine Abbildung
von V × P nach P
(~v , P ) 7→ ~v + P ∈ P
so, dass die Axiome (A2-4) gelten
(A2) Zu (je zwei) Punkten P, Q gibt es genau einen Vektor ~v mit Q = ~v + P
(A3) (w
~ + ~v ) + P = w
~ + (~v + P )
13.3 Affine Teilräume
83
(A4) ~0 + P = P
(A3-4) besagen, dass man eine Wirkung der Gruppe V auf P hat und es folgt
~ + ~v + P = P , d.h. die Verschiebungen (Translationen) P 7→ ~v + P sind
−v
bijektive Abbildungen von P.
(A2) besagt, dass die Wirkung von V scharf transitiv ist und wir schreiben
den durch P und Q eindeutig bestimmten Vektor ~v als
−→
~v = P Q ⇔ Q = ~v + P
Es folgt, dass die Wirkung auch treu ist: verschiedene Vektoren bewirken
verschiedene Verschiebungen.
13.3
Affine Teilräume
Ein affiner Teilraum eines affinen Raums ist eine Teilmenge von P der Gestalt
U + P = {~u + P | ~u ∈ U }
mit einem Untervektorraum U von V und Punkt P ∈ P. Dabei ist U eindeutig bestimmt und
−→
U + P = U + Q ⇔ PQ ∈ U
Also kann man dim U als Dimension von U + P definieren. Die leere Menge
soll auch als affiner Teilraum gelten. Beispiele sind Punkte, Geraden, Ebenen
des Anschauungsraums mit Dimension 0, 1, 2.
Beweis. Aus U + P = W + Q folgt P = w
~ + Q für ein w
~ ∈ W und ebenso
Q = ~u + P mit ~u ∈ U . Dann P = w
~ + ~u + P , also ~u = −w.
~
Geraden und Ebenen eines affinen Raums sind die 1- bzw. 2-dimensionalen
affinen Teilräume. Man kann dann zeigen (Übung!), dass es zu je 2 Punkten
P1 6= P2 genau eine sie enthaltende Gerade gibt und zu je drei Punkten
P1 , P2 , P3 , von denen keine zwei auf einer Geraden liegen, genau eine sie
enthaltende Ebene. Schliesslich ist X ⊆ P genau dann affiner Teilraum,
wenn mit den Pi auch die durch sie bestimmte Gerade bzw. Ebene in X liegt
(ist 1 + 1 6= 0 so genügt es, die Geraden zu betrachten).
13.4
Affine Struktur eines Vektorraums
Jeden Vektorraum V kann man als affinen Raum mit Punktmenge P = V
auffassen:
(~v , p~) 7→ ~v + p~
d.h. man versteht die Elemente von V einerseits als Vektoren, andererseits
als Ortsvektoren. Damit kann man auch von affinen Teilräumen eines Vektorraums sprechen. Sie sind von der Form
U + p~ = {~u + p~ | ~u ∈ U }
mit festem Untervektorraum U und (Orts)Vektor p~.
84
13.5
13 KOORDINATEN, AFFINE RÄUME
Affine Koordinaten
Ein Koordinatensystem α eines affinen Raums besteht aus einem ausgezeichneten Punkt (Ursprung) Oα und einer Basis ~a1 , . . . ~an des Vektorraums V .
Dann hat jeder Punkt P ∈ P eine eindeutige Darstellung
P =
n
X
ri~ai + Oα
i=1
−−→
und die ri sind die Koordinaten des ‘Ortsvektors’ Oα P bzgl. der Basis ~a1 , . . . , ~an ,
die wir auch mit α
~ notieren. Wir schreiben die Koordinaten als
 
r1
 ..  −−→α~
α
P =  .  = Oα P
rn
85
14
14.1
Matrizenrechnung
Summe
Hat man eine weitere m × n-Matrix B = (bij ), so definiert man die Summe
A + B = (aij + bij )m×n , rA = (raij )m×n .
Die m × n-Nullmatrix O hat nur Einträge 0. Es gelten die Regeln (V1-8)
entsprechend.
14.2

Matrix mal Spalte



 
u1
a11 x1 + . . . + a1n xn
x1
 ..  


.
.
m
n
..
 . =
 = Ax in K für x =  ..  in K
un
am1 x1 + . . . + amn xn
xn
d.h. die i-te Komponente von Ax erhält man, indem man die i-te Zeile von
A komponentenweise mit x multipliziert und dann aufaddiert. Man lese: auf
x A angewendet oder A mal x.
a11
..
.
am1
. . . a1n
..
..
.
.
. . . amn
x1
...
a11 x1 + . . .
..
.
xn
+a1n xn
am1 x1 + . . . +amn xn
Aus den Regeln (K1-10) für das Rechnen in Körpern erhält man sofort
(M 1) A(b + c) = Ab + Ac (M 2) A(rb) = r(Ab),
A0 = 0
Bemerkung. Für das zweite Gesetz braucht man das Kommutativgesetz (K10).
Das könnte man vermeiden, indem man Matrizen und Skalare auf verschiedene Seiten schreibt, z.B. Abr oder, wenn man von links nach rechts schreibt,
rbA mit b als Zeile. Dabei erkennt man, dass es nur um das Assoziativgesetz
(K5) geht.
14.3
Matrizenprodukt
Wir defineren das Produkt einer l × m-Matrix A mit einer m × n-Matrix B
über K als die l × n-Matrix D = AB
(aij )l×m (bjk )m×n = (dik )l×n = (ai1 b1k + . . . + aim bmk )l×n
d.h. man rechnet i-te Zeile von A komponentenweise mal k-te Spalte von B
und addiert auf, um dik zu erhalten. Daher müssen die Zeilen von A genauso
lang sein wie die Spalten von B. Hat B die Spalten b1 , . . . , bn , so hat AB die
Spalten Ab1 , . . . , Abn . Man lese: erst B dann A oder A nach B oder A mal
B.
86
14 MATRIZENRECHNUNG
a11
..
.
a11 . . . a1m
..
..
..
.
.
.
al1 . . . alm
14.4
...
..
.
a1n
..
.
am1
...
amn
a11 a11 + . . . + a1m am1 . . . a11 a1n + . . . + a1m amn
..
..
..
.
.
.
al1 a11 + . . . + alm am1 . . . al1 a1n + . . . + alm amn
Gesetze
Die n × n-Einheitsmatrix En hat Diagonale eii = 1 und sonst überall Null. Es
gelten dann die folgenden Regeln - soweit die Operationen für die Matrizen
überhaupt ausführbar sind
(M 3) B(C + C 0 ) = BC + BC 0 (B + B 0 )C = BC + B 0 C
(M 4) (rB)C = r(BC) = B(rC), (M 5) A(BC) = (AB)C
(M 6) Em A = A = AEn .
Beweis durch Nachrechnen mit (K1 − 10), wobei man, wenn es geht, nur den
Spezialfall betrachtet, dass man Matrix mit Spalte(n) multipliziert. Warnend
sei vermerkt, dass für Matrizen im Allgemeinen AB 6= BA, und dass man
aus AB = O nicht auf A = O oder B = O schliessen kann.
(M3) und (M4) folgen leicht aus (M1) und (M2). Zu (M5) betrachten wir
zuerst den Spezxialfall. dass C = c eine Spalte ist. Sei l × m-Matrix A = (bij )
und m × n-Matrix B = (bjk ) und c ∈ K n . Dann


b11 c1 + . . . + b1n cn


..
A(Bc) = A 

.
bm1 c1 + . . . + bmn cn


a11 (b11 c1 + . . . + b1n cn ) + . . . + a1m (bm1 c1 + . . . + bmn cn )


..
=

.
al1 (b11 c1 + . . . + b1n cn ) + . . . + alm (bm1 c1 + . . . + bmn cn )


(a11 b11 + . . . + a1m bm1 )c1 + . . . + (a11 b1n + . . . + a1m bmn )cn


..
=
.
.
(al1 b11 + . . . + alm bm1 )c1 + . . . + (al1 b1n + . . . + alm bmn )cn
Also
A(Bc) = (AB)c
14.5
Inverse Matrix
Lemma 14.1 Für zwei n × n-Matrizen A, B über K sind die folgenden Aussagen äquivalent
(1) AB = E = BA
(2) für alle x, u in K n gilt:
u = Ax ⇔ x = Bu.
14.6 Transponierte Matrix
87
Wenn zu A ein solches B existiert heisst A invertierbar, regulär oder nichtsingulär. B ist dann durch A eindeutig bestimmt und heisst die Inverse zu
A. Man schreibt B = A−1 .
Beweis. Gelte (1). Wenn x = Bu dann Ax = A(Bu) = (AB)u = Eu = u.
Ebenso x = Bu aus u = Ax. Gelte (2). Seien bj und ej die j-ten Spalten
von B bzw. E. Es gilt bj = Bej , also ej = Abj . und folglich AB = E.
Ebenso BA = E. Sei nun auch AC = E = CA. Dann C = CE = C(AB) =
(CA)B = EB = B. Für das Rechnen mit Inversen gelten die folgenden Regeln. Für n × nMatrizen gilt:
E −1 = E; A invertierbar ⇒ A−1 invertierbar und (A−1 )−1 = A
A, B invertierbar ⇒ AB invertierbar und (AB)−1 = B −1 A−1 .
Beweis. B −1 A−1 AB = B −1 B = E.
14.6
Transponierte Matrix
Zu einer m × n-Matrix A = (aij )m×n erhält man die transponierte n × mMatrix At , indem man die Einträge an der Diagonalen “spiegelt”:
At = (a0kl )n×m mit a0kl = alk .
Es gelten dann die Regeln
AT t = A, (A + B)t = At + B t , (rA)t = rAt , (AB)t = B t At , E t = E.
A invertierbar ⇒ At invertierbar und (At )−1 = (A−1 )t .
Beweis. (A−1 )t At = (AA−1 )t = E t = E. .
14.7
Koordinatentransformation
Seien α : ~v1 , . . . , ~vm und β : w
~ 1, . . . , w
~ m zwei Basen des K-Vektorraums V .
Wie rechnet man die Koordinaten ~xα und ~xβ ineinander um? Wir machen
den Ansatz
~v α = α Tβ ~v β für alle ~v
Die Transformationsmatrix ist dadurch eindeutig bestimmt: wir erhalten ihre
Spalten als α Tβ ej indem wir für ~v die Vektoren aus β einsetzen.
Es sei also S = α Tβ definiert als die Transformationsmatrix mit den
Koordinatenspalten w
~ jα der w
~ j bzgl α als Spalten, also
S=
α Tβ
α
~m
),
= (w
~ 1α . . . w
w
~ j = s1j ~v1 + . . . + smj ~vm
~xα = α Tβ ~xβ , ~xβ = β Tα~xα mit
β Tα
= α Tβ−1
Die Transformationsmatrix S = α Tβ leistet die Koordinatenumrechnung
von der ‘neuen’ Basis β in die ‘alte’ Basis α. In ihren Spalten stehen die
Koordinaten der neuen Basisvektoren bzgl. der alten Basis. Für die Umrechnung von ‘alt’ auf ‘neu’ benutzt man die inverse Matrix S −1 = β Tα
88
14 MATRIZENRECHNUNG
Beweis.
~x =
X
yj w
~j =
j
X
yj
j
X
sij ~vi =
i
X
sij yj ~vi =
XX
(
sij yj )~vi
i,j
i
j
Also ~xα = α Tβ ~xβ . Durch Vertauschen der Rollen ~xβ = β Tα~xα , also ~xα =
xα . Das gilt insbesondre für die ~xα = ej , also E = α Tβ β Tα E.
α Tβ β Tα ~
Ist eine Basis α des m-dimensionalen K-Vektorraums V gegeben, so kann
man jede invertierbare m×m-Matrix S auf genau eine Weise als Transformationsmatrix S = α Tβ auffassen, nämlich mit der Basis β deren Koordinaten
bzgl. α durch die Spalten von S gegeben sind.
14.8
Affine Koordinatentransformation
Lemma 14.2 Gegeben seien zwei Koordinatensysteme α und β eines affinen
~ Dann
Raums und α~ Tβ~ die Transformationsmatrix für die Basen α
~ , β.
Pα =
α
~
Tβ~ P β + (Oβ )α =
α
~
−−−→
Tβ~ P β + ~v α wobei ~v = Oα Oβ .
−−−→
P α = P β + Oα Oβ α falls α
~ = β~
Beweis wie für die Anschauungsebene. Sei
P = ~x + Oα = ~y + Oβ .
Dann
~y α =
α
~
Tβ~ ~y β ,
~v α = (Oβ )α
~x = ~y + ~v , P α = ~x α = ~y α + ~v α
89
15
Lineare Abbildungen
15.1
Lineare Abbildung
Sind V , W zwei K-Vektorräume, so ist eine Abbildung φ : V → W linear
(genauer: K-linear), wenn folgende Linearitätsbedingungen gelten
φ(~x + ~y ) = φ(~x) + φ(~y ), φ(r~x) = rφ(~x) für alle ~x, ~y in V, r in K.
Ist V = V 0 , so ist φ0 ein Endomorphismus.
Lemma 15.1 Ist φ : V → W linear, so gilt
X
X
φ(~0) = ~0, φ(
ri~vi ) =
ri φ(~vi )
i
i
Beweis. φ(~0V ) = φ(0~0V ) = 0φ(~0V ) = ~0W Die zweite Behauptung folgt leicht
mit Induktion über n (und der Wohldefiniertheit von φ):
n
n−1
n−1
n
X
X
X
X
φ(
ri~vi ) = φ(
ri~vi ) + φ(rn~vn ) =
ri φ(~vi ) + rn φ(~vn ) =
ri φ~vi
i=1
i=1
i=1
i=1
Lemma 15.2 Seien V, W Vektorräume über K, ~v1 , . . . , ~vn eine Basis von V
und w
~ 1, . . . , w
~ n Vektoren in W . Dann gibt es genau eine lineare Abbildung
φ : V → W mit φ(~vi ) = w
~ i für i = 1, . . . , n.
Beweis. Definiere
X
X
φ(
ri~vi =
ri w
~i
i
für jede Wahl von ri ∈ K
i
P
Die Wohldefiniertheit folgt sofort aus der Eindeutigkeit der Darstellung i ri~vi
in V . Zur Linearität:
P
P
P
P
vi )
+ si )~vi ) = P
si~vi ) = φ( i (riP
φ( Pi ri~vi + i P
i (ri + si )φ(~
= P
r
φ(~
v
)
+
s
φ(~
v
)
=
φ(
r
~
v
)
+
φ(
s
~
v
)
i
i
i i
i i
P
P i i i
Pi i i
P
φ(s i ri~vi ) = φ( i sri~vi ) = i sri φ(~vi ) = s i ri φ(~vi ) = sφ( i ri~vi )
Die Eindeutigkeit von φ folgt aus dem vorangehenden Lemma.
15.2
Isomorphie
Eine bijektive lineare Abbildung φ : V → W heisst auch ein Isomorphismus.
Gibt es einen Isomorphismus von V auf W , so heissen V und W isomorph
und man schreibt V ∼
= W . Insbesondere ist dann φ−1 ein Isomorphismus von
W auf V .
Bespiele: Der Anschauungsraum ist isomorph zu R3 . Der Zeilenraum K n∗ ist
isomorph zum Spaltenraum K n . Ist σ eine Permutation von {1, . . . , m}, so
erhält man einen Isomorphismus von K m auf K m durch


 
x1
xσ1
 . 
 .. 
 .  7→  ..  .
xm
xσm
90
15 LINEARE ABBILDUNGEN
Korollar 15.3 Sei φ : V → W ein Isomorphismus. Dann gilt für ~v , ~v1 , . . . , ~vn
in V und U ⊆ V
~v = ~0
⇔ φ(~v ) = ~0
~v1 , . . . , ~vn unabhängig in V ⇔ φ(~v1 ), . . . , φ(~vn ) unabhängig in W
U Untervektorraum von V ⇔ φ(U ) Untervektorraum von W
U erzeugt von ~v1 , . . . , ~vn
⇔ φ(U ) erzeugt von φ(~v1 ), . . . , φ(~vn )
~v1 , . . . , ~vn Basis von V
⇔ φ(~v1 ), . . . , φ(~vn ) Basis von W
dim V = dim W
und dim U = dim φ(U ) für jeden Untervektorraum U von V
Bei einem Isomorphimus übertragen sich
alle Eigenschaften analog auf die Bilder.
Korollar 15.4 Seien V, W Vektorräume über K, ~v1 , . . . , ~vn eine Basis von V
und w
~ 1, . . . , w
~ n eine Basis von W . Dann gibt es genau einen Isomorphismus
φ : V → W mit φ(~vi ) = w
~ i für i = 1, . . . , n.
Beweis. Wir wissen schon ,dass es eine
P lineare Abbildung φPgibt. Ist w ∈ W
so hat man eine Darstellung w
~ =
~ i also w
~ = φ( i ri~vi ). Also ist
i ri w
φ : V → W surjektiv. Gelte φ(~v ) = φ(~v 0 ).PDa die ~v1 , . . . , ~vn erzeugen,
hat
P
0i
0
~i =
vi , und es folgt i ri w
man Linearkombinationen
~v = und ~v =
ir ~
P
~ i . Dann ri = r0i , da die w
~ 1, . . . , w
~ n unabhängig sind.
φ(w)
~ = φ(w
~ 0 ) = i r0i w
Das ergibt ~v = ~v 0 und die Injektivität von φ.
Korollar 15.5 Sind V, W K-Vektorräume und dim V < ∞ so
V ∼
= W ⇔ dim V = dim W ,
Korollar 15.6 K n ∼
= Km
⇔
dim V = n < ∞ ⇒ V ∼
= Kn
n = m.
Korollar 15.7 Ist α : ~v1 , . . . , ~vm Basis des K-Vektorraumes V , so hat man
den (Koordinaten-) Isomorphismus κ von V auf K m
 
x1
X
 .. 
~x =
xi~vi 7→ κ(~x) =  .  = ~xα ~vi 7→ ei
xm
15.3
Matrixbeschreibung
Ist A ∈ K m×n , so ist x 7→ Ax wegen (M1) und (M2) eine lineare Abbildung
von K N in K m .
Satz 15.8 Seien V , W K-Vektorräume mit Basen α : ~e1 , . . . , ~en bzw. β :
f~1 , . . . f~m . Dann gibt es eine bijektive Entsprechung zwischen linearen Abbildungen φ : V → W und Matrizen A ∈ K m×n vermöge
φ(~x)β = A~xα ,
A = β φα heisst die Matrix von φ bzgl. α, β
In den Spalten der Matrix stehen die
Koordinaten der Bilder der Basisvektoren
15.4 Komposition
91
Ist V = W und betrachten wir nur eine Basis so schreiben wir
φα = α φα
Matrix von φ bzgl. α
Beweis. Ist φ gegeben und soll es ein A geben, so muss es das angegebene
sein: man setze ~x = ~ej ein, d.h. ~eαj = ej und Aej ist die j-te Spalte von A.
Es folgt
X
X
X
X
φ(~x)β =
xj φ(~ej )β =
xj Aej = A(
xj ej ) = A~xα für ~x =
xj ~ej
j
j
j
j
Ist A gegeben, so erhält man die Linearität von φ indem man die Isomorphieeigenschaft der Koordinatenzuordnung benutzt
φ(~x+~y )β = A(~x+~y )β = A(~xβ +~y β ) = A~xβ +A~y β = φ(~x)β +φ(~y )β = (φ(~x)+φ(~y ))β
also φ(~x + ~y ) = φ(~x) + φ(~y )
φ(r~x)β = A(r~x)β = Ar~xβ = rA~xβ = rφ(~x)β = (rφ(~x))β also φ(r~x)) = rφ(~x)
15.4
Komposition
Sind V, W, U K-Vektorräume mit endlichen Basen α, β, γ und φ lineare Abbildung von V nach W , ψ von W nach U , so ist φ ◦ ψ lineare Abbildung von
V nach U und die Matrix ergibt sich als Produkt der Matrizen
γ [ψ
◦ φ]α = γ ψβ · β φα
Beweis. (ψ(φ(~x)))γ = γ ψβ φ(~x)β = γ ψβ β φα~x)α .
15.5
Inverse
Für eine lineare Abbildung φ von V nach W und Basen α von V , β von W
sind äquivalent
• φ : V → W ist bijektiv
•
β φα
invertierbar für ein/jedes Paar α, β von Basen von V, W .
Die inverse Abbildung ist dann auch linear und hat die inverse Matrix
α (φ
−1
)β = (β φα )−1
Beweis. Ist φ bijektiv, so ist auch φ−1 linear: sei ~x = φ~u und ~y = φ~v . Dann
~x + ~y = φ(~u + ~v ), also φ−1 (~x + ~y ) = ~u + ~v = φ−1~x + φ−1 ~y . Entsprechend für
r~x. Es folgt α (φ−1 )β ·β φα = ( α φ−1 ◦ φ)α = α idα = E.
Ist β φα invertierbar, so erhält man mit α ψβ = ( β φα )−1 die inverse Abbildung.
92
15 LINEARE ABBILDUNGEN
15.6
Kern und Bild
Definition. Sei φ lineare Abbildung von V nach W . Setze
Kern φ = {x in V | φ(x) = 0} und Bild φ = φ(V ) = {φ(x) | x in V }.
Lemma 15.9 Kern φ ist Untervektorraum von V und Bild φ Untervektorraum von W . Es ist Kern φ = 0 genau dann, wenn φ injektiv ist und Bild φ =
W genau dann, wenn φ surjektive Abbildung von V auf W ist.
Beweis. Ist φ injektiv und φ(v) = 0, so wegen φ(0) = 0 sofort v = 0. Sei
umgekehrt Kern φ = 0. Ist φ(v) = φ(w), so φ(v − w) = φ(v) − φ(w) = 0, also
v − w = 0 und v = w. Also ist φ injektiv.
dim Kern φ + dim Bild φ = dim V
Dimensionsformel.
Anwendung: Die linearen Abbildungen vom Raum auf die Ebene sind von
der Form ψ ◦ π, wobei π eine Parallelprojektion des Raumes auf die Ebene
und ψ eine lineare Selbstabbildung des Ebene ist.
Beweis. Wähle eine Basis ~v1 , . . . , ~vk von Kern φ und ergänze zu einer Basis
~v1 , . . . , ~vn von V . Dann hat man für jedes w in Bild φ eine Darstellung
n
n
n
n
X
X
X
X
w = φ(
ri~vi ) =
ri φ(~vi ) =
ri φ(~vi ) = φ(
ri~vi )
i=1
i=1
i=k+1
i=k+1
und diese Darstellung P
ist eindeutig, da sie für den Spezialfall w = 0 eindeutig
ist : in diesem Fall ist ni=k+1 ri~vi in Kern φ, ist also auch Linearkombination
Pk
vi , und da ~v1 , . . . , ~vn unabhängig ist, sind alle ri , si Null.
i=1 si~
Korollar 15.10 Ein Endomorphismus eines endlichdimensionalen Vektorraums V ist genau dann injektiv, wenn er surjektiv ist.
Korollar 15.11 Für A ∈ K n×n sind äquivalent
(i) A ist invertierbar
(ii) Es gibt B ∈ K n×n mit BA = E
(iii) Es gibt C ∈ K n×n mit AC = E
Beweis. Sei φx = Ax der durch A definierte Endomorphismus von K n . Wir
zeigen, dass (ii) die Injektivität, (iii) die Surjektivität von φ impliziert und
verweisen auf das vorige Korollar und den Abschnitt über Inverse. Gilt (ii)
und Ax = Ay, so x = Ex = BAx = BAy = Ey = vy. Gilty, (iii), so
ei = φ(ci ), also Bildφ = K n . 15.7 Transformation
15.7
93
Transformation
Sind α, β Basen von V und γ, δ Basen von W so gilt
δ φβ
= δ Tγ γ φα α Tβ = γ Tδ−1 γ φα α Tβ
und, falls V = W, α = γ, β = δ,
β φβ
= α Tβ−1 α φα α Tβ
Beweis. δ φβ ~xβ = (φ(~x))δ = δ Tγ (φ(~x))γ = δ Tγ γ φα~xα = δ Tγ γ φα α Tβ ~xβ
• Anwendung 1. Sei A0 bezüglich einer ‘günstigen’ Basis β bekannt. Man
bestimme Matrix A von φ bzgl. der Ausgangs-Basis α.
• Anwendung 2. Die Matrix A von φ bezüglich der Ausgangs-Basis α
sei bekannt, sagt aber wenig über die Struktur. Man bestimme eine
‘günstige’ Basis β, sodass man der Matrix A0 von φ bzgl. β geometrische Eigenschaften von φ ansehen kann. Bzw. so, dass man das durch
A0 gegebene, zu A gleichwertige, (Differential)Gleichungssystem lösen
kann. Das ist das Thema der Eigenwerttheorie.
• Warnung: Der Gauss-Algorithmus ist in diesem Zusammenhang wenig
hilfreich.
15.8
Beispiele
Wir geben im Folgenden Beispiele linearer Abbildungen φ0 : V → V 0 an,
wobei V, V 0 Vektor-Raum bzw. Ebene der anschaulichen Geometrie sind. Sind
P, P 0 die zugehörigen Punkträume und wählt man Ursprünge O bzw. O0 , so
kann man der linearen Abbildung φ0 eine (affine) Abbildung zuordnen
φ : P → P 0 . φ(~x + O) = φ0 (~x) + O0
Diese ist der Anschauuung meist besser zugänglich und wird dementsprechend illustrativ benannt. In Beispielen und Aufgaben wird die gemeinte
lineare Abbildung φ0 häufig auf diese Weise (d.h. durch Hinweise auf das
zugehörige φ) mitgeteilt und der Leser ist dann aufgefordert, die notwendige
Präzisierung selbst zu leisten. In der Regel führt Identifikation von Punkten
und Vektoren nach der Zauberformel “Ortsvektor” zu dem vom Aufgabensteller gewünschten Ergebnis. Eine präzise Behandlung der Zusammenhänge
folgt im nächsten Kapitel. Ebenso die Rechtfertigung von Bezeichnungen wie
Drehung, Spiegelung usw. sowie der Nachweis der Linearität der zugehörigen vektoriellen Abbildungen. Die Begriffe “Eigenraum” Eλ und “Eigenwert”
(EV) werden in LAII behandelt.
1. Identische Abbildung φ = idP mit φ0 = idV , Matrix E, E1 = V . bijektiv
3. Punktspiegelung an O mit φ0 (~x) = −~x. Matrix −E, E−1 = V , bijektiv
4. Zentrische Streckung an O um r mit φ0 (~x) = r~x. Matrix rE, Er = V ,
bijektiv falls r 6= 0, sonst Bild= 0.
94
15 LINEARE ABBILDUNGEN
5. Parallelprojektion mit Kern K =Kernφ0 auf U + O mit U =Bildφ0 . E1 =
U , E0 = K. Bijektiv nur für U = V . Matrix bzgl. Basis ~v1 , . . . , ~vn mit
~v1 , . . . , ~vr Basis von U und ~vr+1 , . . . , ~vn Basis von K.
Er O
O O
Bei der Orthogonalprojektion ist K = {~x | ~x ⊥ U } und bzgl. ON-Basis gilt
φ0 (~x) =
r
X
h~vi | ~xi~vi
i=1
Ist dabei U Hyperebene (r = n − 1) und ~n = ~vn Normalenvektor, so
φ0 (~x) = ~x − 2h~n | ~xi~n
6. Spiegelung an Hyperebene U + O wie in 5. Achse=Normale. Bewegung.
En−1 O
φ0 (~x) = ~x − 2h~n | ~xi~n, Matrix
, U = E1 , K~n = E−1
O
−1
7. Drehung in der reellen Ebene mit Zentrum O um Winkel ω - gegen die
Uhr. Bewegung. Bzgl. ON-Basis Matrix
cos ω − sin ω
sin ω cos ω
Keine reellen EV, komplexe EV von Betrag 1 und Argument ±ω.
8. Drehung im reellen Raum mit Achse R~v1 + O um Winkel ω - positiv im
Sinne der Rechten Hand. Bewegung. Bzgl. ON-Basis ~v1 , ~v2 , ~v3 Matrix


1
0
0
0 cos ω − sin ω  , E1 = R~v1 , E−1 = E1⊥ ⇔ ω = π
0 sin ω cos ω
9. Drehspiegelung im reellen Raum mit Achse R~v1 + O um Winkel ω 6= π
- positiv im Sinne der Rechten Hand. Bewegung. Bzgl. ON-Basis ~v1 , ~v2 , ~v3
Matrix


−1
0
0
 0 cos ω − sin ω  , E−1 = R~v1
0 sin ω cos ω
10. Scherung in der Ebene längs der Achse K~v1 + 0. Matrix bzgl. Basis ~v1 , ~v2
1 r
, E1 = K~v1
0 1
11. Zentralprojektion φ der Ebene U + O auf die parallele Ebene U + O0 des
Raumes mit Zentrum Z 6∈ U + O ∪ U + O0 . Dabei ist φ(P ) der Schnittpunkt
der Geraden durch P Z mit der Ebene U + O0 . Hier φ0 : U → U und mit
Normalenvektor ~n von U
s
φ0 (~x) = ~x wobei r~n + Z ∈ U + O, s~n + Z ∈ U + O0
r
95
16
16.1
Affine Abbildungen
Beispiele
2. Zu jedem Vektor ~v ist die Verschiebung oder Translation φ = τ~v eine affine
Selbstabbildung
P 7→ τ~v (P ) = ~v + P
φ0 = idV . Sie ist durch das Bild eines einzigen Punktes eindeutig bestimmt:
−−−−→
~v = P φ(P ),
τw~ ◦ τ~v = τw+~
~ v,
τ~v−1 = τ−~v
12. Gleitspiegelung: φ(~x + O) = σ(~x) + ~v + O wobei σ Spiegelung an U + O,
~v ∈ U .
13. Schraubung: φ(~x + O) = δ(~x) + ~v + O wobei δ Drehung (oder Drehspiegelung) mit Achse R~v + O.
16.2
Affine Abbildungen
Gegeben seien affine Räume P und P 0 mit K-Vektorräumen V und V 0 . Eine
Abbildung φ : P → P 0 heisst affin wenn gilt
−−−−−−→ −−−−−−→
−→ −→
λ P Q = RS ⇒ λ φ(P )φ(Q) = φ(R)φ(S)
für alle P, Q, R, S ∈ P, λ ∈ K
Ist dabei P = P 0 , so sprechen wir von einer affinen Selbstabbildung. Die
Hintereinanderausführung von affinen Abbildungen ist affin.
Lemma 16.1 Sei dim V ≥ 2. Eine injektive affine Abbildung bildet Geraden
auf Geraden ab und erhält Parallelität und Streckungsverhältnisse.
Beweis. Sei φ affin. Sei g die Gerade durch P, Q und h die durch φ(P ), φ(Q).
−−−−−−→
−−−−−−→
−→
−→
Liegt R auf g, so gibt es λ mit P R = λP Q, also φ(P )φ(R) = λφ(P )φ(Q) und
somit φ(R) auf h. Andererseits lässt sich jeder Punkt auf h auf eindeutige
Weise so darstellen. Also h = φ(g). Ist g 0 parallel zu g, wird g 0 von Punkten
−→ −→
R, S mit RS = P Q aufgespannt, also φ(g 0 ) von φ(R), φ(S) und das ist parallel
zu h. Satz 16.2 Sei O ∈ P fest. Es gibt eine umkehrbar eindeutige Entsprechung
zwischen affinen Abbildungen φ : P → P 0 und linearen Abbildungen φ0 : V →
V 0 so, dass
φ0 (~x) + φ(O) = φ(~x + O),
−−−−−−→
−→
d.h. φ0 (OP ) = φ(O)φ(P )
Die lineare Abbildung φ0 hängt nicht von der Wahl von O ab.
96
16 AFFINE ABBILDUNGEN
Beweis. Sei φ gegeben. Nach dem Axiom (A2) des affinen Raums ist φ0
wohldefiniert und eindeutig bestimmt. Die Definition von affiner Abbildung
ergibt sofort φ0 (r~x) = rφ0 (~x). Anderserseits werden Parallelogramme wieder
auf Paralleogramme abgebildet, also das mit Seiten O, ~x + O und ~y + O, ~x +
~y + O, auf das mit Seiten φ(O), φ(~x + O) und φ(~y + O), φ(~x + ~y + O). Es folgt
φ0 (~x + ~y ) + φ(O) = φ(~x + ~y + O) = φ0 (~x) + φ0 (~y ) + φ(O)
also φ0 (~x + ~y ) = φ0 (~x) + φ0 (~y ).
Nun
φ(~x + Q) = φ(~x + ~v + O) = φ0 (~x + ~v ) + O = φ0 (~x) + φ0 (~v ) + O
= φ0 (~x) + φ(~v + O) = φ0 (~x) + φ(Q)
falls Q = ~v +O, was die Unabhängigkeit von der Wahl des Punktes O beweist.
−→
−→ −→
Sei umgekehrt φ0 linear. Sei p~ = OP usw. und λ(~q −~p) = λP Q = RS = ~s −~r.
Dann
−−−−−−→ −−−−−−→ −−−−−−→
φ(R)φ(S) = φ(O)φ(S) − φ(O)φ(R) = φ0 (~s) − φ0 (~r) = φ0 (~s − ~r)
−−−−−−→
= φ0 (λ(~q − p~)) = λφ0 (~q − p~) = λφ(P )φ(Q).
Ist P = P 0 und O ein Fixpunkt von φ (d.h. φ(O) = O) und wählt man
diesen als Ursprung, so wird bei der beliebten Identifikation von Punkten mit
Ortsvektoren die affine Abbildung φ mit der linearen Abbildung φ0 identifiziert.
Korollar 16.3 Die affinen Selbstabbildungen φ mit Fixpunkt O entsprechen
umkehrbar eindeutig den linearen Abbildungen φ0 vermöge φ(~x+O) = φ0 (~x)+
O
Korollar 16.4 Sei O fest. Jede affine Selbstabbildung lässt sich eindeutig
als Hintereinanderausführung einer affinen Abbildung φO mit Fixpunkt O
und einer Translation τ schreiben
φ = τ ◦ φO ,
mit τ (O) = φ(O),
φO = τ −1 ◦ φ
Korollar 16.5 Eine affine Abbildung ist injektiv, surjektiv bzw. bijektiv genau dann, wenn es die zugehörige lineare Abbildung ist.
16.3
Matrixbeschreibung
Sind α bzw. β Koordinatensysteme der affinen Räume P bzw. P 0 , so hat man
für die affine Abbildung φ : P → P 0 die Koordinatenbeschreibung
φ(P )β = φ(Oα )β + β φ0α P α
16.4 Affine Hyperbenenen
97
−−→
In der Tat: φ(P )β − φ(Oα )β = φ0 (Oα P )β . Hat man eine Selbstabbildung und
α = β so heisst
−−−−−−→
~tα = Oα φ(Oα )
der zugehörige Translationsvektor und man hat
φ(P )α = ~tα + φ0α P α
Korollar 16.6 Seien P und P 0 affine Räume mit K-Vektorräumen V und
−−→
−−→
V 0 . Seien O, P1 , . . . , Pn Punkte in P so, dass OP1 , . . . , OPn Basis von V ist
(d.h. man hat Koordinatensystem von P. Seien O, P10 , . . . , Pn0 in P 0 . Dann
gibt es eine eindeutig bestimmte affine Abbildung φ : P → P 0 mit φ(O) =
O0 , φ(P1 ) = P10 , . . . , φ(Pn ) = Pn0
16.4
Affine Hyperbenenen
Jeder affine Teilraum V 0 +P eines affinen Raumes (P + , V + ) ist auf natürliche
Weise affiner Raum über dem Untervektorraum V 0 von V + . Ist dim V 0 =
dim V + − 1, so ist H = V 0 + P eine (affine) Hyperebene in P + .
Lemma 16.7 Ist H = V 0 + P eine Hyperebene und Z ein Punkt 6∈ H, so
gibt es zu jedem Vektor ~x 6∈ V 0 einen eindeutig bestimmten Schnittpunkt S
{S} = H ∩ K~x + Z
und jedes S ∈ H tritt dabei auf.
Beweis. Fügt man ~x zu einer Basis von V 0 hinzu, so erhält man eine dim V + elementige unabhängige Menge, also eine Basis von V + . Also kann man jeden
Vektor von V + eindeutig als ~u + r~x mit ~u ∈ V 0 und r ∈ K darstellen.
−→
Insbesondre ZP = ~u + r~x. Es folgt S = r~x + Z = −~u + P . Ist S ∈ H
−→
gegeben, so setze ~x = ZS. Dann ~x 6∈ V 0 weil Z 6∈ H. .
Zu gegebenem Körper K sind affine Räume gleicher Dimension isomorph,
d.h. es gibt eine bijektive affine Abbildung φ : P → P 0 . Es gibt nämlich
einen Isomorphismus φO : V → V 0 und man kann φ nach Wahl von O ∈ P
und O0 ∈ P 0 durch φ(~x + O) = φ0 (~x) + O0 definieren.
Korollar 16.8 Ein n-dimensionaler affiner Raum (P, V ) über K ist isomorph zu jeder (affinen) Hyperebene (H, V 0 ) eines n + 1-dimensionalen affinen Raums (P + , V + ) über K.
In Folgenden sei jeweils ein solcher Isomorphismus ε : (P, V ) → (H, V 0 )
zugrundegelegt, sowie ein Punkt Z ∈ P + \ H.
98
16 AFFINE ABBILDUNGEN
16.5
Projektive Beschreibung von Hyperebenen
Seo V + ein K-Vektorraum. Vektoren ~x, ~y ∈ V + \ {~0} heissen projektiv äquivalent,
~x ∼ ~y , falls ~y = r~x für ein r ∈ K
Offensichtlich ist ∼ eine Äquivalenzrelation auf V + \ {~0}, d.h. es gilt
• ~x ∼ ~x
• Aus ~x ∼ ~y folgt ~y ∼ ~x
• Aus ~x ∼ ~y und ~y ∼ ~z folgt ~x ∼ ~z.
Lemma 16.9 Ist Z ein Punkt 6∈ H. so gibt es eine (eindeutig bestimmte)
surjektive Abbildung
−−−→
Π : V + \ V 0 → P, mit ~x ∼ Z εΠ~x
und es gilt
Π(~x) = Π(~y ) ⇔ K~x + Z = K~y + Z ⇔ ~x ∼ ~y
Π ist die Zentralprojektion von V + \ V 0 auf P (via ε) mit Zentrum Z. Beweis.
Die Gerade K~x + Z ist nicht parallel zu H, hat also nach Lemma 16.7 einen
eindeutig bestimmten Schnittpunkt εP = r~x + Z und wir setzen Π(~x) = P .
Surjektivität nach Lemm 16.7. .
16.6
Homogene Koordinaten
Sei ein Koordinatensystem α des affinen Rasumes (P, V ) gegeben, d.h ein
Urspung Oα inP und eine Basis α : ~e1 , . . . , ~en von V . Sei ~e 01 , . . . , ~e 0n die via ε
−−−→
entsprechende Basis von V 0 . Diese wird durch ~e 00 = Z εOα zu einer Basis α̃
von V + ergänzt.
Korollar 16.10 Für Punkte P ∈ P und Vektoren ~x ∈ V + \ V 0 gilt
1
α̃
P = Π~x ⇔ pi = xi /x0 für i = 1, . . . , n ⇔ ~x ∼
Pα
wobei x0 6= 0
 
 
x0
p1
n
 x1 
X
1
 .. 
 
0
α
α̃
P =  .  , ~x =  ..  , εP = ~x + Z = ~e 0 +
pi~e 0i + Z
x0
.
i=1
pn
xn
Die Koordinatenspalten ~xα̃ heissen dann homogene Koordinaten von P bzgl.
α und sind bis auf einen Skalierungsfaktor r 6= 0 eindeutig bestimmt. Man
hat also eine umkehrbar eindeutige Entsprechung zwischen dem Punkten von
P und ihren homogenen Koordinatenspalten modulo projektiver Äquivalenz
- wir notieren das als P̃ α .
16.7 Transformation
16.7
99
Transformation
Sei nun ein weiteres Koordinatensystem β von (P, V ) gegeben, d.h. Urspung
Oβ ∈ P und Basis ~v1 , . . . , ~vn von V . Insbesondere haben wir die Transformationsmatrix α Tβ und
−−−→α
α
α v β = (Oβ ) = Oα Oβ
Sei β̃ die zu β gehörige Basis ~v 00 , ~v 01 , . . . , ~v 0n von V + , insbesdonere ~v 00 =
−−−→
Z εOβ .
Lemma 16.11 Für alle P ∈ P gilt
α
P̃ = αT̃β P̃
0∗
α Tβ
β
mit αT̃β =
1
αvβ
−−−→
Beweis. Sei ~x = Z εP . Dann sind ~xα̃ bzw. ~xβ̃ homogene Koordinatenspalten
von P bzgl. α bzw. β und
1
1
1
β̃
x = αT̃β
=
=
= ~xα̃ αT̃β ~
β
α
v
+
T
P
Pβ
P
α β
α β
Korollar 16.12
βT̃α
16.8
−1
= (α T̃β )
=
1
− α Tβ−1 α v β
0∗
−1
α Tβ
=
1
− β Tα α v β
0∗
β Tα
Homogene Beschreibung affiner Abbildungen
Sei nun die affine Abbildung bzgl. eines Koordinatensytems al von (P, V )
beschrieben als
y = φ(P )α = t + Ax, x = P α
Dann können wir dieselbe Abbildung in homogenen Koordinaten beschreiben
durch
∗
α
1
0
α
]) = φ̃α P̃
φ(P
mit φ̃α =
t A
und umgekehrt definiert jede
3-dimensionalen Fall
  
ỹ0
1
ỹ1  t1
 
ỹ = 
ỹ2  = t2
ỹ3
t3
solche Beschreibung eine affine Abbildung. Im
 
0
0
0
x̃0


a11 a12 a13  x̃1 
1
0
=
x̃
a21 a22 a23  x̃2 
t A
a31 a32 a33
x̃3
Exakt diesselben (simplen) Rechnungen wie im Falle linearer Abbildungen
liefern die Matrixbeschreibungen von Inverser, Komposition bzw. Basistransformation in vollständiger Analogie
−1 1 0∗
1
t∗
−1
−1
g
• φ α = (φ̃α ) ,
=
t A
−A−1 t A−1
100
17 EUKLIDISCHE RÄUME
• ψ]
◦ φα = ψ̃α · φ̃α ,
1 0∗
1 0∗
1
0∗
·
=
s B
t A
s + Bt BA
• φ̃α = αT̃β · φ̃β ·β T̃α ,
−1 1 0∗
1 0∗
1 0∗
1
0∗
·
·
=
A = SA0 S −1
v S
t; A0
v S
St0 + v − Av) A
17
17.1
Euklidische Räume
Euklidische Vektorräume
Ein euklidischer Vektorraum ist ein R-Vektorraum mit einem Skalarprodukt
h | i, das den Regeln (E1-E4) genügt. Länge, Orthogonalität und ON-Basis
werden wir Kap.3 definiert und es gelten die entsprechenden Ausssagen wir haben dort ja auch nur mit den Axiomen argumentiert!. Rn wird zum
euklidischen Vektorraum mit dem (kanonischen) Skalarprodukt
hx | yi =
n
X
xi y i
i=1
17.2
Orthonormalsysteme
Ein System ~v1 , . . . , ~vm von Vektoren ist orthogonal, falls ~vi ⊥ ~vj für alle i < j,
und orthonormal, falls auch |~vi | = 1 für alle i. Für ein Orthonormalsystem
gilt
~x = x1~v1 + . . . + xm~vm ⇒ xi = h~vi | ~xi
also ist es insbesondere unabhängig und damit Orthonormalbasis , kurz ONBasis, des von ihm erzeugten Untervektorraums.
Ist ~e1 , . . . , ~en eine ON-Basis von V , so berechnet sich auch das skalare Produkt aus den Koordinaten :
hx1~e1 + . . . + xn~en | y1~e1 + . . . + yn~en i = x1 y1 + . . . + xn yn
P
P
P
P
P P
Beweis.
h
x
~
e
|
y
~
e
i
=
hx
~
e
|
y
~
e
i
=
ei | yj ~ej i
i
i
j
j
i
i
j
j
i
j
i
j
i
j hxi~
P P
P
= i j xi yj h~ei | ~ej i = i xi yj . Es folgt
h~x | ~y i =
n
X
h~ei | ~xi · h~ei | ~y i =
i=1
n
X
h~ei | ~y i · h~x | ~ei i P arseval
i=1
2
|~x| =
n
X
i=1
|h~ei | ~xi|2
P lancherel
17.3 Orthonormalisierung
17.3
101
Orthonormalisierung
Bilden w
~ 1, . . . , w
~ m ein ON-System, so erhält man zu jedem ~x einen auf den
w
~ 1, . . . , w
~ m senkrechten Vektor, d.h. ein Lot auf den von diesen ausgespannten
Untervektorraum W , durch
~y = ~x −
m
X
, hw
~ i | ~xiw
~ i 6= ~0 falls ~x 6∈ W
i=1
P
In der Tat hw
~ j | ~y i = hw
~ j | ~xi− m
~ i | ~xihw
~i | w
~ i i = hw
~ j | ~xi−hw
~ j | ~xi·1 = 0.
i=1 hw
Dies liefert ein Verfahren (Gram-Schmidt) um aus einem Erzeugendensystem ~v1 , . . . , ~vn eines Untervektorraums U von V eine Orthonormalbasis
w
~ 1, . . . , w
~ d von U herzuleiten:
I Bestimme k minimal mit ~vk 6= 0. Setze dk = 1 und w
~ 1 :=
1
~v .
|~vk | k
0
I ~vk+1
= ~vk+1 − (hw
~ 1 | ~vk+1 iw
~ 1 + . . . + hw
~ dk | ~vk+1 iw
~ dk ),
0
I Falls ~vk+1
6= ~0, so dk+1 := dk + 1 und w
~ dk+1 := ~v k+1 :=
1
~v 0
0
|~vk+1
| k+1
I Sonst dk+1 := dk und ~v k+1 := ~0
I w
~ 1, . . . , w
~ d mit d = dn ist ON-Basis von Spann{~vi | 1 ≤ i ≤ n}
Man erhält
Korollar 17.1 Jeder Untervektorraum U eines endlichdimensionalen euklidischen Raums V hat eine ON-Basis.
17.4
Orthogonale Transformationsmatrizen
Bezüglich zweier Basen α und β der Ebene bzw. des Raumes hatten wir die
Transformationsmatrix α Tβ definiert durch
~v α = α Tβ ~v β für alle ~v
Die Transformationsmatrix ist dadurch eindeutig bestimmt: wir erhalten ihre
Spalten als α Tβ ej indem wir für ~v die Vektoren aus β einsetzen. Für die
Transformation in der umgekehrten Richtung gilt per definitionem
~v β = β Tα~v α für alle ~v
also haben wir nach Lemma 14.1
β Tα
= α Tβ−1
Eine reelle Matrix A heisst orthogonal, wenn At A = E, d.h. mit Satz ??
At = A−1 .
Satz 17.2 Ist α Orthonormalbasis der Ebene bzw. des Raumes, so ist die
Transformationsmatrix α Tβ genau dann orthogonal, wenn β ebenfalls Orthonormalbasis ist
102
17 EUKLIDISCHE RÄUME
Beweis. Sind die f~j die Vektoren von β und berechnet man das Skalarprodukt
in den Koordinaten bzgl. α, so
t
α Tβ α Tβ
= (hf~i | f~j i)1≤i,j≤n
Und β ist Orthonormalbasis genau dann, wenn letztere Matrix E ist. 17.5
Orthogonale Projektion
Lemma 17.3 Zu jedem endlichdimensionalen Untervektorraum U eines unitären
bzw. euklidischen Vektorraums V gibt es eine eindeutig bestimmte lineare Abbildung πU mit
(1) πU (~x) ∈ U,
~x ∈ U ⇒ πU (~x) = ~x,
πU (~x) = ~0 ⇔ ~x ∈ U ⊥
Für jede ON-Basis ~v1 , . . . , ~vm von U gilt
(2) πU (~x) = h~v1 | ~xi~v1 + . . . + h~vm | ~xi~vm .
Weiterhin für alle ~x ∈ V
(3) ~x − πU (~x) ∈ U ⊥ und |~x − πU (~x)| = min |~x − ~u|.
~
u∈U
• Sind die Spalten von U die Koordinaten einer ON-Basis von U bzgl,
einer ON-Basis α von V , so hat πU bzgl, α die Matrix
(πU )α = QQt
Die Abbildung πU heisst die Orthogonalprojektion von V auf U .
Beweis. Nach Gram-Schmidt hat U mindestens eine ON-Basis. Definiert man
πU nach (2) so ist die Linearität klar und es gilt (1). Nämlich πU (~x) = ~0 genau
dann, wenn h~vi | ~xi = 0 für i = 1, . . . , m genau dann, wenn ~x ∈ U ⊥ .
Sei nun πU mit (1) gegeben. Dann πU (~x −πU (~x)) = πU (~x)−πU (πU (~x)) = ~0
also ~x − πU (~x) ∈ U ⊥ . Ist nun ~u ∈ U so πU (~x) − ~u ∈ U und nach Pythagoras
|~x − πU (~x)|2 ≤ |~x − πU (~x)|2 + |πU (~x) − ~u|2 = |(~x − πU (~x)) + (πU (~x) − ~u)|2 =
|~x − ~u|2 .
P
Indem man πU durch (2) definiert folgt: ~x − i h~vi | ~xi~vi ∈ U ⊥ . Die Linearität ergibt für jedes πU mit (1), dass (und somit (2) und Eindeutigkeit)
X
X
X
~0 = πU (~x −
h~vi | ~xi~vi ) = πU (~x) −
h~vi | ~xiπU (~vi ) = πU (~x) −
h~vi | ~xi~vi
i
i
i
Wähle nun ON-Basis ~v1 , . . . , ~vk von U und Q mit den Koordinatenspalten
der ~vi . Dann gilt für die Matrix P von π
pij = h~ei | π(~ej )i = h~ei |
k
X
h=1
h~vh | ~ej i~vh i =
k
X
h=1
∗
h~ei | ~vh i · h~ej | ~vh i =
k
X
h=1
qih · q jh
17.6 Metrischer affiner Raum
17.6
103
Metrischer affiner Raum
Hat man einen affinen Raum mit Punktmenge P und euklidischem Vektorraum V (wir sprechen auch von einem euklidischen affinen Raum), so kann
man den Abstand zwischen zwei Punkten so definieren
−→
d(P, Q) = |P Q| = |P Q|
Damit wird P zum metrischen Raum - es gilt
d(P, Q) = d(Q, P ) ∈ R≥0 ,
d(P, Q) = 0 ⇔ P = Q
d(P, R) ≤ d(P, Q) + d(Q, R)
Aber: Es gibt auch andere Metriken auf affinen Räumen, z.B. die 1-Metrik
P
−→α
d(P, Q) =
i |xi | mit x = P Q bzgl. eine Basis α - für die reelle Ebene
ist das die “Taximetrik” in einer Stadt mit Strassennetz bestehend aus 2
Parallelscharen.
18
18.1
Bewegungen
Bewegungen und orthogonale Abbildungen
Eine Bewegung ist eine abstandserhaltende Abbildung φ : P → P eines
euklidischen affinen Raums in sich
|φ(P )φ(Q)| = |P Q|
für alle P, Q ∈ P
Lemma 18.1 Jede Bewegung ist eine affine Abbildung. Die Hintereinanderausführung von Bewegungen ist Bewegung. Translationen sind Bewegungen.
−→ −→
Beweis. Die Gleichung λP Q = RS kann äquivalent durch eine Bedingung an
λ und die Abstände der Punkte P, Q, R, S ersetzt werden. Lemma 18.2 Jede Bewegung ist eine affine Abbildung.
−→
−→
Beweis. Es ist zu zeigen, dass eine Beziehung RS = λP Q durch Abstände
−−→
−→
ausgedrückt werden kann. Bestimme dazu Q0 mit P Q0 = λP Q. Dies bedeutet
• |P Q0 | = |P Q| + |QQ0 | im Falle λ ≥ 1
• |P Q| = |P Q0 | + |Q0 Q| im Falle 0 ≤ λ ≤ 1
• |QQ0 | = |Q0 P | + |P Q| im Falle λ ≤ 0
Dass P Q0 RS ein Parallelogramm bilden, bedeutet, dass sich die Daigonalen
halbieren, d.h. dass es einen Punkt X gibt, mit |P S| = 2|P X| = 2|XS| und
|QR| = 2|QX| = 2|XR|. Diese Beziehungen übertragen sich aich die Bilder
−−−→
−−−−→
unter der Bewegung φ, Somit φRφS = λφP φQ. Ein Endomorphismus φ eines euklidischen Vektorraumes V ist eine orthogonale Abbildung, wenn eine der folgenden äquivalenten Aussagen gilt (die
Äquivalenz ergibt sich daraus, dass die Länge aus dem Skalarprodukt definiert werden kann und umgekehrt - h~x | ~y i = 21 (|~x + ~y |2 − |~x|2 − |~y |2 )
104
18 BEWEGUNGEN
• hφ(~x) | φ(~y )i = h~x | ~y i für alle ~x, ~y ∈ V
• |φ(~x)| = |~x| für alle ~x ∈ V
Korollar 18.3 Eine affine Selbstabbildung φ eines euklidischen affinen Raumes ist genau dann eine Bewegung, wenn die zugehörige lineare Abbildung φ0
orthogonal ist.
−−−−−−−−−→
−−−−−→
Beweis. |~x| = |O, ~x + O|, |φ0 (~x)| = |φ(O)φ(~x + O)| und die Behauptung ist
klar. Beispiele von Bewegungen mit Fixpunkt O sind in der Ebene Drehungen und (senkrechte) Spiegelungen an einer Geraden, im Raum Drehungen,
Spiegelungen und Drehspiegelungen. Wir werden später zeigen, dass damit
alle Fälle erfasst sind.
18.2
Matrixbeschreibung
Für einen Endomorphismus φ eines endlichdimensionalen euklidischen Raumes sind äquivalent
(1) φ ist orthogonal
(2) Das Bild einer/jeder ON-Basis ist ON-Basis
(3) Bzgl. eines/jedes Paares von ON-Basen ist α φβ orthogonal
Beweis.1 ⇒ 2 ist trivial. 2 ⇒ 3. Die Spalten der Matrix β φα von φ bzgl.
der ON-Basen α, β sind die Koordinaten der Bilder φ(~ej ) der ON-Basis α :
~e1 , . . . , ~en also orthonormal, da die φ(~ej ) eine ON-Basis bilden. Also ist β φα
orthogonal.
3 ⇒ 1. Sei A = β φα orthogonal. Dann
hφ(~x) | φ(~y )i = (φ(~x)β )∗ φ(~y )β = (A~xα )∗ A~y α = (~xα )∗ A∗ A~y α = (~xα )∗ E~y α = h~x | ~y i
Korollar 18.4 Eine orthogonale Abbildung ist durch die Bilder von dim V −
1 unabhängigen Vektoren schon zweideutig bestimmt - eindeutig bei Vorgabe
der Orientierung.
18.3
Determinante
Sei eine ON-Basis α : ~e1 , ~e2 , ~e3 des Raumes gewählt. Für eine reelle 3 × 3Matrix A definieren wir
det A = det(~a1 , ~a2 , ~a3 ) mit ~aj = a1j ~e1 + a2j ~e2 + a3j ~e3
d.h. in den Spalten der Matrix A stehen die Koordinaten der ~aj
A = (~aα1 ~aα3 ~aα3 )
Dann gilt
Satz 18.5 det(AB) = det A det B. det A = ±1 falls A orthogonal.
18.4 Ebene orthogonale Abbildungen
105
Beweis. Sei A fest, B variabel. Die Abbildung b 7→ Ab ist linear, d.h. sie
erfüllt (M1) und (M2). Also erfüllen beide Abbildungen
(~b1 , ~b2 .~b3 ) 7→ det AB
und (~b1 , ~b2 .~b3 ) 7→ det A · det B
wobei ~bj = b1j ~e1 + b2j ~e2 + b3j ~e3 die Bedingungen (D1-3) und (~e1 , ~e2 , ~e3 ) 7→
det A. Daher stimmen sie überein. Die zweite Behauptung folgt daraus. dass
in diesem Falle ~a1 , ~a2 , ~a3 ON-Basis ist. Wir vermerken die wichtigen Spezialfälle
Korollar 18.6
det(rA) = rn det A, det A−1 =
1
, det(S −1 AS) = det(A).
det A
Insbesondere folgt die Unabhägigkeit von der Wahl der ON-Basis: Bezüglich
einer weiteren ON-Basis β haben wir
det(~aβ1 , ~aβ2 , ~aβ3 ) = det( β Tα~aα1 , β Tα~aα2 , β Tα~aα2 )
= det β Tα A = det β Tα det A = det A
Für 2 × 2 Matrizen geht alles entsprechend einfacher.
Korollar 18.7 Für einen Endomorphismus φ des Raumes bzw. der Ebene
hängt det φα nicht von der Basis α ab.
Wir definieren dies als die Determiante det φ der Abbildung. Die anschauliche
Bedeutung in der Ebene ist die Fläche der Bildes des Einheitsquadrats, in
Raum das Volumen des Bildes dees Einheitswürfels. Die Determinate ist somit der “Vergrößerungsfaktor”. Beweis. Transformationsformel und Kor.18.6.
Korollar 18.8 Eine affine Abbildung ist entweder orientierungserhaltend oder
orientierungsumkehrend. Eine orthogonale Abbildung φ hat det φ = ±1
18.4
Ebene orthogonale Abbildungen
Satz 18.9 Eine orthogonale Abbildung φ in der Ebene ist entweder Drehung
(falls det φ = 1) oder Spiegelung an einer Geraden (falls det φ = −1).
Beweis. Wir benutzen wieder mal Ortsvektoren und legen eine positiv orientierte ON-Basis ~e1 , ~e2 fest. Das Bild ~b1 , ~b2 ist wieder eine ON-Basis und
positiv orientiert, falls det φ = 1. Die Koordinaten der Bilder der Basisvektoren bestimmen sich dann laut Drehmatrix. Ist det φ = −1, so ist ~b1 , ~b2
negativ orientiert und somit
(∗) ∠~e1 , ~b2 = ∠~e1 , ~b1 − 90o = ∠~e2 , ~b1
Andererseits |~b1 −~e2 | = |φ(~b1 )−~b2 |, also φ(~b1 ) = ~e1 . Entsprechend φ(~b2 ) = ~e2 .
Wegen (*) ist die Winkelhalhierende g zu ~e1 , ~b1 auch die zu ~b2 , ~e2 und es
handlelt sich somit um die Spieglung an g - weils für die Basis stimmt.
106
18.5
18 BEWEGUNGEN
Orthogonale Abbildungen im Raum
Satz 18.10 Sei φ eine orthogonale Abbildung eines 3-dimensionalen euklidischen Raums und A = φα bzgl. einer Basis α. Dann det A = ±1 und es
gibt es eine ON-Basis β : w
~ 1, w
~ 2, w
~ 3 mit


det A
0
0
cos ω − sin ω 
φβ =  0
0
sin ω cos ω
Jenachdem ob det A = 1 oder −1 handelt es sich um Drehung bzw. Drehspiegelung mit Winkel ω und Achse w
~ 1 . Ist α-ON-Basis, so ist A orthogonal,
Korollar 18.11 (Euler) Eine Bewegung mit Fixpunkt ist Drehung oder Drehspiegelung.
Korollar 18.12 Die Inversen von Drehungen sind Drehungen, von Drehspiegelungen sind Drehspiegelungen. Die Hintereinanderausführung zweier
Drehungen bzw. zweier Drehspiegelungen ist eine Drehung
Lemma 18.13 Zu jeder orthogonalen Abbildung φ0 des Raumes gibt es einen
Vektor w
~ 6= ~0 mit φ0 (w)
~ = ±w.
~
Beweis. Wir dürfen det φ0 = 1 annehmen - sonst betrachten wir −φ0 . Sei φ
die zugehörige affine Abbildung mit Fixpunkt O. Wir wählen einen Punkt
A 6= O. Ist φ(A) = A, sind wir fertig. Andernfalls setzen wir
B = φ(A), C = φ(B) = φ(φ(A))
Insbesondere gilt B 6= C und
|OA| = |OB| = |OC|
Sei zunächst A 6= C angenommen. Seien E1 und E2 die Mittelebenen senkrecht auf der Strecke AB bzw. BC
Ei = {P | |P A| = |P B|},
E2 = {P | |P B| = |P C|} = φ(E1 )
Beide enthalten O, haben also eine Schnittgerade g. Sei nun P ein Punkt von
g. Dann folgt nach Definition von E1
|P A| = |P B| = |P C|
Aus P ∈ E1 , folgt φ(P ) ∈ E2 und somit
|φ(P )B| = |φ(P )C|
Schliesslich
|φ(P )B| = |φ(P )φ(A)| = |P A|
und es folgt die Gleichheit aller dieser Strecken, insbesondere
|P B| = |φ(P )B|, |P C| = |φ(P )C|
18.6 Eulersche Winkel
107
Weil O Fixpunkt ist, gilt auch
|P O| = |φ(P )O|
d.h. P und φ(P ) haben von den drei Punkten O, B, C jeweils denselben
Abstand - und diese liegen nicht auf einer Geraden weil |OB| = |OC|. Da
die Orientierung erhalten bleibt, folgt φ(P ) = P .
Es bleibt der Fall, dass φ(φ(A)) = A also φ0 (φ0 (~a)) = ~a für ein ~a 6= ~0.
Dann φ(w)
~ =w
~ für w
~ = ~a + φ0 (~a). Beweis des Satzes. Sei w
~ 1 normierter Vektor mit φ(w
~ 1 ) = ±w
~ 1 und
ergänze zu ON-Basis β : w
~ 1, w
~ 2, w
~ 3 . Es gilt für i = 2, 3, dass hφw
~i | w
~ 1i =
±hφw
~ i | φw
~ 1 i = ±hw
~i | w
~ 1 i = 0. Also hat φ bzgl. β die orthogonale Matrix


±1 0
0
A0 =  0 b11 b12  .
0 b21 b22
Insbesondere ist B = (bij ) orthogonale 2 × 2-Matrix, Ist det B = 1, so B
Drehmatrix und φ Drehung bzw. Drehspiegelung mit demselben Winkel. An~ 30 so,
dernfalls beschreibt B eine Spieglung. Also gibt es ON-Basis w
~ 1, w
~ 20 , w
dass φ die folgende Matrix hat


−1 0 0
 0 1 0 .
0 0 −1
Durch Vertauschen ergibt sich die gewünschte Form mit ω = π. 18.6
Eulersche Winkel
Satz 18.14 Zu zwei gegebenen aufeinander senkrechten Achsenrichtungen ~a
und ~b im Raum lässt sich jede Drehung in der Form φ = φ3 ◦φ2 ◦φ1 schreiben,
wobei φ1 , φ3 Drehungen um ~a und φ2 Drehung um ~b.
Beweis. Es genügt zu positiv orientierten ON-Basen ~ei und f~i Drehungen
φ1 , φ3 um ~e1 und φ2 um ~e2 so anzugeben, dass φ(f~i ) = ~ei für φ = φ3 ◦ φ2 ◦ φ1 .
Dazu wähle φ1 so, dass φ1 (f~)1 ∈ R~e1 + R~e3 . und φ2 so, dass φ2 (φ1 (f~1 )) = ~e1 .
Nun bilden ~e1 , φ2 (φ1 (f~2 )), φ2 (φ1 (f~3 )) eine positiv orientierte ON-Basis und
diese kann durch φ3 in ~e1 , ~e2 , ~e3 überführt werden. Hat man Drehungen φ1 , φ3 um ~e3 mit Winkeln ψ und ω und φ2 um ~e1 mit
Winkel θ so erhält man bzgl. dieser Basis die Matrix


cos ω cos ψ − sin ω sin ψ cos θ − sin ω cos ψ − cos ω sin ψ cos θ sin ψ sin θ
cos ω sin ψ + sin ω cos ψ cos θ − sin ω sin ψ + cos ω cos ψ cos θ − cos ψ sin θ
sin ω sin θ
cos ω sin θ
cos θ
Hierbei ist φ1 die Drehung um ~e3 mit Winkel ω, φ2 die Drehung um ~e1 mit
Winkel θ und φ3 die Drehung um ~e3 mit Winkel ψ.
Dieselbe Drehung (mit derselben Matrix) kann man aber auch als Hintereinanderausführung χ3 ◦ χ2 ◦ χ1 von 3 Drehungen um zwei der (mitbewegten)
Achsen a1 , a3 eines Körpers sehen:
108
18 BEWEGUNGEN
• a3 liegt in Richtung ~e3 und χ1 ist die Drehung um a3 mit Winkel ψ
• a1 liegt nun in Richtung von χ1 (~e1 ) und χ2 ist die Drehung um a1 mit
Winkel θ
• a3 liegt nun in Richtung von χ2 χ1 (~e3 ) und χ3 ist die Drehung um a3
mit Winkel ω
Das folgt sofort aus folgendem
Lemma 18.15 Sind bzgl. einer ON-Basis A und B die Matrizen der Drehungen φ bzw. χ um die Achse ~a bzw. ~b mit Winkel ω bzw. θ, so ist AB die
Matrix von ρ ◦ φ, wobei ρ die Drehung um φ(~b) mit Winkel θ ist.
Beweis. Die ON-Basis sei ~ei . Die Matrix von ρ bzgl. der Basis φ(~ei ) ist B, da
φ(~b) bzgl. dieser Basis dieselben Koordinaten hat wie ~b bzgl, ~ei . Die Matrix A
ist auch die Matrix der Basistransformation von der neuen Basis φ(~ei ) zurück
zur alten Basis ~ei . Somit hat ρ bzgl. der alten Basis die Matrix ABA−1 und
ρ ◦ φ die Matrix ABA−1 A = AB. .
INHALTSVERZEICHNIS
109
Inhaltsverzeichnis
1 Bedeutung von Formeln und Aussagen
1.1 Strukturen . . . . . . . . . . . . . . . .
1.2 Atomare Formeln . . . . . . . . . . . .
1.3 Bedeutung atomarer Formeln . . . . .
1.4 Konjunktion . . . . . . . . . . . . . . .
1.5 Negation . . . . . . . . . . . . . . . . .
1.6 Disjunktion . . . . . . . . . . . . . . .
1.7 Existenzquantor . . . . . . . . . . . . .
1.8 Allquantor . . . . . . . . . . . . . . . .
1.9 Klammereinsparung . . . . . . . . . . .
1.10 Äquivalenz von Formeln . . . . . . . .
1.11 Aussagen . . . . . . . . . . . . . . . .
1.12 Gleichungen . . . . . . . . . . . . . . .
1.13 Axiomatische Methode . . . . . . . . .
2 Logisches Schließen
2.1 Substitution . . . . . . . . . . . . .
2.2 Generalisierung . . . . . . . . . . .
2.3 Substitutionsregel . . . . . . . . . .
2.4 Identitätsregeln . . . . . . . . . . .
2.5 Konjunktionsregeln . . . . . . . . .
2.6 Implikationen . . . . . . . . . . . .
2.7 Rechnen in kommutativen Gruppen
2.8 Äquivalenzbeweise . . . . . . . . .
2.9 Disjunktion und Fallunterscheidung
2.10 Existenzbeweise . . . . . . . . . . .
2.11 Negationsregeln und Widerlegung .
2.12 Indirekter Beweis . . . . . . . . . .
2.13 Logische Äquivalenzen . . . . . . .
2.14 Beschränkte Quantoren . . . . . . .
2.15 Affine Inzidenzebene . . . . . . . .
3 Reelle Zahlen und Vektoren
3.1 Pfeile . . . . . . . . . . . . . . . .
3.2 Vektoren . . . . . . . . . . . . . .
3.3 Vektoraddition . . . . . . . . . .
3.4 Natürliche Zahlen . . . . . . . . .
3.5 Ganze Zahlen . . . . . . . . . . .
3.6 Rationale Zahlen . . . . . . . . .
3.7 Rationale Vielfache von Vektoren
3.9 Körper . . . . . . . . . . . . . . .
3.10 Reelle Zahlen . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
und Ringen
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
2
3
4
5
5
6
6
7
7
8
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
10
11
11
12
13
14
17
19
19
20
21
25
25
26
.
.
.
.
.
.
.
.
.
25
25
26
27
28
29
30
30
33
33
110
INHALTSVERZEICHNIS
4 Geraden, Ebenen, Koordinaten
4.1 Geraden und Ebenen . . . . . . . . . . . . . . .
4.2 Ortsvektoren . . . . . . . . . . . . . . . . . . .
4.3 Vektor-Koordinaten in der Ebene . . . . . . . .
4.4 Unabhängigkeit . . . . . . . . . . . . . . . . . .
4.5 Vektor-Koordinaten im Raum . . . . . . . . . .
4.6 Punkt-Koordinaten . . . . . . . . . . . . . . . .
4.7 Koordinatentransformation in der Ebene . . . .
4.8 Punktkoordinaten-Transformation in der Ebene
4.9 Koordinatentransformation im Raum . . . . . .
4.10 Strahlensatz und Distributivgesetz . . . . . . .
4.11 Resumee . . . . . . . . . . . . . . . . . . . . . .
5 Skalarprodukt
5.1 Richtungskomponenten . . . . . . . . . . . .
5.2 Skalares Produkt . . . . . . . . . . . . . . .
5.3 Ungleichungen . . . . . . . . . . . . . . . . .
5.4 Orthonormalbasen . . . . . . . . . . . . . .
5.5 Normalenvektoren von Geraden bzw. Ebenen
6 Determinanten in Ebene und Raum
6.1 Orientierung . . . . . . . . . . . . .
6.2 Flächen . . . . . . . . . . . . . . .
6.3 Vektorprodukt . . . . . . . . . . . .
6.4 Grassmannscher Entwicklungssatz .
6.5 Volumen . . . . . . . . . . . . . . .
6.6 Übersicht . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
34
34
35
35
36
38
38
39
40
40
41
42
.
.
.
.
.
42
42
44
45
46
48
.
.
.
.
.
.
48
48
49
50
51
52
53
7 Komplexe Zahlen
54
7.1 Polynome und Nullstellen . . . . . . . . . . . . . . . . . . . . 54
7.2 Zahlenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7 Komplexe Zahlen
56
7.3 Polarkoordinaten und Kreisteilung . . . . . . . . . . . . . . . 57
7.4 Fundamentalsatz . . . . . . . . . . . . . . . . . . . . . . . . . 57
8 Arithmetik
8.1 Rekursive Definition . . .
8.2 Ordnungsinduktion . . . .
8.3 Teilbarkeit . . . . . . . . .
8.4 Diophantische Gleichungen
8.5 Modulare Arithmetik . . .
8.6 Faktorstrukturen . . . . .
.
.
.
.
.
.
58
58
58
59
61
62
63
9 Äquivalenzrelationen.
9.1 Definition und Beispiele. . . . . . . . . . . . . . . . . . . . . .
9.2 Klasseneinteilung . . . . . . . . . . . . . . . . . . . . . . . . .
9.3 Repräsentanten . . . . . . . . . . . . . . . . . . . . . . . . . .
65
65
66
67
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INHALTSVERZEICHNIS
9.4
9.5
111
Abstraktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Ergänzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
10 Vektorräume und Unterräume
10.1 Spalten und Zeilen . . . . . .
10.2 Vektorräume . . . . . . . . . .
10.3 Rechenregeln . . . . . . . . .
10.4 Funktionenraum . . . . . . . .
10.5 Untervektorräume . . . . . . .
10.6 Erzeugnis . . . . . . . . . . .
10.7 Linearkombinationen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11 Basen und Dimension
11.1 Erzeugende und unabhängige Mengen
11.2 Austausch . . . . . . . . . . . . . . .
11.3 Basisergänzung . . . . . . . . . . . .
11.4 Basen . . . . . . . . . . . . . . . . .
11.5 Dimension . . . . . . . . . . . . . . .
11.6 Abzählbare Dimension . . . . . . . .
12 Basis-Algorithmen für Vektorräume
12.1 Unabhängigkeit in Vektorräumen .
12.2 Matrizen . . . . . . . . . . . . . . .
12.3 Umformungen . . . . . . . . . . . .
12.4 Basisauswahl . . . . . . . . . . . .
12.5 Basisergämnzung . . . . . . . . . .
12.6 Beispiel . . . . . . . . . . . . . . .
13 Koordinaten, affine Räume
13.1 Koordinaten . . . . . . . . . . . .
13.2 Affine Räume . . . . . . . . . . .
13.3 Affine Teilräume . . . . . . . . .
13.4 Affine Struktur eines Vektorraums
13.5 Affine Koordinaten . . . . . . . .
14 Matrizenrechnung
14.1 Summe . . . . . . . . . . . . . . .
14.2 Matrix mal Spalte . . . . . . . . .
14.3 Matrizenprodukt . . . . . . . . .
14.4 Gesetze . . . . . . . . . . . . . .
14.5 Inverse Matrix . . . . . . . . . . .
14.6 Transponierte Matrix . . . . . . .
14.7 Koordinatentransformation . . . .
14.8 Affine Koordinatentransformation
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
69
70
71
71
72
72
73
.
.
.
.
.
.
74
74
74
75
75
76
77
.
.
.
.
.
.
77
77
78
79
80
80
81
.
.
.
.
.
82
82
82
83
83
84
.
.
.
.
.
.
.
.
85
85
85
85
86
86
87
87
88
112
15 Lineare Abbildungen
15.1 Lineare Abbildung
15.2 Isomorphie . . . . .
15.3 Matrixbeschreibung
15.4 Komposition . . . .
15.5 Inverse . . . . . . .
15.6 Kern und Bild . . .
15.7 Transformation . .
15.8 Beispiele . . . . . .
INHALTSVERZEICHNIS
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
16 Affine Abbildungen
16.1 Beispiele . . . . . . . . . . . . . . . . . . . .
16.2 Affine Abbildungen . . . . . . . . . . . . . .
16.3 Matrixbeschreibung . . . . . . . . . . . . . .
16.4 Affine Hyperbenenen . . . . . . . . . . . . .
16.5 Projektive Beschreibung von Hyperebenen .
16.6 Homogene Koordinaten . . . . . . . . . . . .
16.7 Transformation . . . . . . . . . . . . . . . .
16.8 Homogene Beschreibung affiner Abbildungen
17 Euklidische Räume
17.1 Euklidische Vektorräume . . . . . . . .
17.2 Orthonormalsysteme . . . . . . . . . .
17.3 Orthonormalisierung . . . . . . . . . .
17.4 Orthogonale Transformationsmatrizen .
17.5 Orthogonale Projektion . . . . . . . . .
17.6 Metrischer affiner Raum . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
89
89
89
90
91
91
92
93
93
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
95
95
96
97
98
98
99
99
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
100
. 100
. 100
. 101
. 101
. 102
. 103
18 Bewegungen
18.1 Bewegungen und orthogonale Abbildungen
18.2 Matrixbeschreibung . . . . . . . . . . . . .
18.3 Determinante . . . . . . . . . . . . . . . .
18.4 Ebene orthogonale Abbildungen . . . . . .
18.5 Orthogonale Abbildungen im Raum . . . .
18.6 Eulersche Winkel . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
103
103
104
104
105
106
107
Index
(Basis-Ergänzung.), 75
Äquivalenz von Formeln, 7
Äquivalenzbeweise, 17
äquivalent, 7, 17
abelsche, 9
affine Inzidenzebenen, 25
angeordneten Körper, 34
atomare Formel, 2
Aussage, 8
axiomatische Methode, 9
Axiome, 9
Basis, 75
Bedeutung, 3
erzeugend, 75
Erzeugnis, 72
erzeugte Untervektorraum, 72
Erzeugungsprozess, 73
Generalisierungsregel, 10
geordnete, 75
gleichbedeutend, 17
Gleichung, 8
Implikations-Introduktion, 13
kommutative, 9
kommutativen Ring, 9
Konjunktionsregeln, 12
konstante, 9
Konstruktion, 19
logisch äquivalent, 7
lokale Aussage, 7
lokalen Konstanten, 2
Matroiden, 74
Modell , 9
Pivot-Zeile, 78
Prämisse, 13
Quotientenmenge, 68
Substitutions-, 11
Tautologien, 8
unabhängig, 75
Widerspruch, 8
Abbildung
inverse, 91
abhängig, 74
Abstraktion, 68
Abtrennung, 14
abzählbar, 77
Abzählbare Dimension, 77
ad absurdum, 21
Aequivalenzrelation, 63
affin, 95
Affine Hyperbenenen, 97
Affine Inzidenzebene, 25
Affine Koordinaten, 84
Affine Koordinatentransformation, 88
Affine Räume, 82
Affine Struktur eines Vektorraums, 83
affiner Raum, 82
algebraische Struktur, 70
Allquantor, 6
approximiert, 34
aquivalent, 25
Argument, 55
Atomare Formeln, 1
Aufzeigung, 19
ausgeschlossenes Drittes, 22
Aussagen, 7
Ausschluss von Gegenbeispielen, 21
Austausch, 74
Axiomatische Methode, 9
Basen, 75
Basis, 36, 38
kanonische, 79
Basisauswahl, 80
Basisergämnzung, 80
Basisergänzung, 75
Basismenge, 74
Basistransformation, 93
Bedeutung atomarer Formeln, 2
Beispiel, 81
Beispiele, 93
Beschränkte Quantoren, 24
Betrag einer komplexen Zahl, 55
Bewegung, 103
Bild, 92
Cauchy-Schwarz, 46
Determiante, 105
113
114
Determinante, 49, 53
Dimension, 76, 83
Dimensionsformel, 92
Diophantische Gleichungen, 61
Disjunktion, 5
Disjunktion und Fallunterscheidung,
19
Dreiecksungleichung, 46
Durchschnitt, 66
INDEX
Homogene Beschreibung affiner Abbildungen, 99
Homogene Koordinaten, 98
homogene Koordinaten, 98
Hyperebene, 97
imaginäre Einheit, 56
Imaginärteil, 56
Implikationen, 13
Implikations-Elimination, 14
Ebene orthogonale Abbildungen, 105 Implikationsbeweis, 13
Ebenen, 83
Indirekter Beweis, 21–23
echt, 61
Induktionsannahme, 59
Einheitsmatrix, 86
Induktionsvoraussetzung, 59
Einhorn, 20
infinitesimalen, 34
Einsetzung, 11
innere Produkt, 44
Einsetzungsregel, 11
Intervallschachtelung, 34
Eintrag, 78
invertierbar, 87
elementaren/Gauss’schen Umformun- Isomorphie, 89
gen, 79
Isomorphismus, 89
Endomorphismus, 89
kanonische, 79
erzeugend, 74
Erzeugende und unabhängige Mengen, kanonischer Projektion, 68
kartesische Darstellung, 56
74
Kehrwert, 30
Erzeugnis, 72
Kern, 66, 92
Euklidische Vektorräume, 100
Klammereinsparung, 6
euklidischen affinen Raum, 103
Klasseneinteilung, 66
euklidischer Vektorraum, 100
Koeffizient, 78
ex falso quodlibet, 21
Koeffizienten, 70
Existenzbeweise, 19
komplexe Zahlen, 55
Existenzquantor, 5
Komponente, 43, 70
Faktormenge, 68
komponentenweise, 36
Faktorstruktur, 63
Komposition, 91
Faktorstrukturen, 63
kongruent, 62
Fall und Gegenfall, 23
Kongruenzrelation, 63, 64
Fallunterscheidung, 19, 22
konjugierte Zahl, 56
Funktionenraum, 71, 72
Konjunktion, 3
Fusspunkt des Lotes, 43
Konjunktionsregeln, 12
Konstruktion, 20
ganzen Zahlen, 29
Kontraposition, 22, 23
gemeinsamer Teiler, 60
Koordinaten, 36, 84, 90
Generalisierung, 10
Koordinatensystem, 84
Geraden, 83
Koordinatensytem, 39
Gesetze, 86
Koordinatentransformation im Raum,
Gleichungen, 8
41
Gram-Schmidt, 101
Koordinatentransformation in der EbeHilfsgrossen, 20
ne, 40
INDEX
Leibnizsche Ersetzung, 12
linear, 89
unabhangig, 77
linear unabhägig, 38
linearer Teilraum, 72
Linearkombinationen, 73
Linkssystem, 50
Linkssysteme, 51
Lot , 46
materiale Implikation, 20
Matrix, 78, 90
Matrixbeschreibung, 96
maximal unabhängig, 75
metrischen Raum, 103
minimal erzeugend, 74
minimales, 58
Modulare Arithmetik, 62
modulo, 62
modus ponens, 14
modus tollens, 20
115
Partition, 66
Pfeil, 25
Polardarstellung, 57
Primzahl, 61
Produkt, 71
Produkt, äusseres, 51
projektiv äquivalent, 98
Projektive Beschreibung von Hyperebenen, 98
Punkt-Koordinaten, 39
Punktkoordinaten-Transformation in
der Ebene, 41
Pythagoras, 46
Quadratwurzel, 54
rational, 34
Realteil, 56
Rechenregeln, 71
Rechnen in kommutativen Gruppen
und Ringen, 14
recht, 43
Negation, 4
Rechtssystem, 50, 51
Negationsregeln und Widerlegung, 20 reductio ad absurdum, 22
Nichtkonstruktive Existenz, 24
reelle Achse, 56
nichtkonstruktive Existenz, 22
reellen Zahlen, 33
Nichtkonstruktives Oder, 24
regulär, 87
nichtkonstruktives Oder, 22
Rekursionsschema, 58
nichtsingulär, 87
Rekursionsvorschrift, 58
Normalen-Vektor, 48
rekursiv definierte Funktion, 58
Normalenvektoren von Geraden bzw. Rekursive Definition, 58
Ebenen, 48
Richtungsvektor, 35
Notwendigkeit, 20
Ring der ganzen Zahlen modulo n, 64
Nullvektor, 71
scharf transitiv, 83
Oder-Elimination , 19
Schnittpunkt, 97
Oder-Introduktion, 19
Selbstabbildung, 95
Ordnungsinduktion, 58
Skalar, 70
Orientierung, 49, 51
skalare, 44
orthogonal, 100, 101
Skalarenbereich, 33
orthogonale, 103
Spalte, 78
Orthogonalprojektion, 102
Spatprodukt, 53
orthonormal, 100
Strahlensatz und Distributivgesetz, 42
Orthonormalbasen, 47
Streckung, 70
Orthonormalbasis, 47, 100
Strukturen, 1
Orthonormalsysteme, 100
Stufenmatrix, 78
Ortsvektoren, 36
Substitution, 9
Substitution [t1 /x1 , . . . , tn /xn ], 11
Parameterdarstellung, 35
116
Substitutionsregel, 11
Summe, 85
Symmetrie, 11, 26
Teilbarkeit, 59
Termersetzung, 11
tertium non datur, 22
Transformation, 99
Transformationsmatrix, 40, 87
Translation, 95
Translationsvektor, 97
transponierte, 87
treu, 83
Umformungen, 79
unabhängig, 36, 74
unabhängiger Richtungsvektoren, 35
Und-Elimination, 13
Und-Introduktion, 13
Untervektorraum, 72
trivialer, 72
unzerlegbar, 61
Ursprung, 35, 84
Vektor, 26, 70
Vektoraddition, 27
Vektorprodukt, 51
Vektorraum, 42, 70
Verkettung, 91
Verschiebung, 95
Verschiebungen (Translationen), 83
Vielfachheit, 58
Widerlegung, 21
Widerspruchsbeweis, 22
Wirkung, 83
wohlgeordnet, 77
Zahlenebene, 55
Zahlengerade, 32
Zahlengeraden, 32
Zeile, 78
Zeilenraum, 78
Zentralprojektion, 98
Zentrum, 98
INDEX
Herunterladen