WAS IST MATHEMATIK?

Werbung
WAS IST MATHEMATIK?
January 29, 2013
1
1.1
EINS, ZWEI, DREI, UND SO WEITER...
Mathematik treiben heisst Beweisen
Als Mathematiker trifft man immer wieder auf zwei Vorurteile:
1. Mathematiker sind gute Kopfrechner (das wird eher von einfachen Gemütern
geäussert);
2. In der Mathematik gibt es nichts Neues mehr zu entdecken. (Auf diese
Ansicht trifft man auch bei hochgebildeten Gesprächspartnern).
Das ist völlig falsch! Mathematik ist heute aktiver denn je. Heute leben viel
mehr Mathematiker als in allen vergangenen Jahrhunderten zusammen. Auch
an unserer Universität ist die Fakultät für Mathematik in den letzten Jahrzehnten enorm gewachsen. In Österreich gehen 12-14 Prozent aller FWF Fördermittel
an die Mathematik. Weltweit gibt es 500 mathematische Journale. Jedes Jahr werden Millionen von neuen Lehrsätzen entdeckt. Mathematik ist der unerlässliche
Schlüssel für jede Hochtechnologie.
Aber es gibt einen guten Grund für die fehlerhafte Auffassung, dass in der
Mathematik schon alles bekannt ist. Denn was in der Mathematik entdeckt worden ist, bleibt für alle Zeit gültig. (Wie ungewöhnlich das ist, zeigt der Vergleich
mit Physik: Aristoteles vermutete, dass es vier Elemente gibt, Himmelssphären
sich um die Erde drehen, alles nach unten fällt etc... Seine Auffassungen sind
fast alle grundfalsch. In der Mathematik blieb dagegen alles richtig, was in den
Büchern Euklids steht, es ist nur noch viel Neues dazugekommen. Der Schulunterricht freilich blieb lange bei den alten Griechen stehen, auch jetzt noch reicht
der Stoff kaum über das hinaus, was bereits vor 300 Jahren bekannt war. Die
Mathematik ist kumulativ, sie wirft nichts weg (aber räumt oft auf).
Schon die alten Griechen hatten verstanden, dass Mathematik treiben beweisen
heisst. (Jeder Lehrsatz muss aus schon bekannten Lehrsätzen logisch hergeleitet
sein, sonst gilt er nicht als Lehrsatz). Natürlich muss man dabei irgendwo anfangen,also von grundlegenden Annahmen ausgehen. Diese heissen Axiome. Eu-
1
klid hat die Konstruktion einer mathematischen Theorie (der Geometrie) bereits
vorgeführt.
Wir wollen mit einem klassischen Beispiel für einen Lehrsatz beginnen und
zeigen (mit Euklid): Es gibt unendlich viele Primzahlen.
1.2
Die natürlichen Zahlen
Wir lernen früh zu zählen: 1,2,3,... Dazu benutzen wir die Menge der natürlichen
Zahlen N, die aus 1,2,3,... besteht. (Konvention: wir beginnen bei 1, nicht bei 0.
Das ist reine Abmachungssache, im französischen Schulunterricht etwa beginnen
die natürlichen Zahlen mit 0). Zum Zählen verwendet man Hilfsmittel, wie etwa
Striche, Finger, Steinchen, später mehr oder weniger raffinierte Ziffernsysteme...
Wir wollen hier zunächst mit Steinchen arbeiten: übrigens führte das lateinische
Wort dafür,calx (in dem auch unser ’Kalk’ steckt) zum Wort Kalkül.
Bei den Steinchen kann man immer noch eines dazulegen (zumindest theoretisch). Wir können diese Steinchenhaufen, die für Zahlen stehen, in Linien
anordnen (und ein Vergleich zweier solcher Haufen zeigt dann sofort, welches die
kleinere, welches die grössere ist).
Wir können die Häufchen addieren, also zusammenlegen n + m (dasselbe wie
m + n)
Wir können auch das kleiner Häufchen vom grösseren subtrahieren (abziehen).
Die Steinchen erlauben es auch, Zahlen zu multiplizieren: n×m. Man arrangiert sie am besten in einem Rechtecksschema von m Reihen zu je n Steinchen (und
so sieht man sofort: n × m ist dasselbe wie m × n).
Jetzt können wir auch dividieren. 20 durch 5 dividieren heisst: Immer wieder
5 abziehen (das geht 4 mal)
Manchmal ’geht es sich nicht aus’, wenn wir z.b. 23 durch 5 dividieren, bleibt
ein Rest 3 (eine Zahl kleiner als 5).
Manchmal ist n durch m teilbar, und manchmal gibt es einen Rest (nämlich
wenn ein Haufen von weniger als m Steinchen übrig bleibt). Die Zahl n heisst
zusammengesetzt wenn sie durch irgend eine Zahl m teilbar ist (also in ein Rechtecksschema angeordnet werden kann), d.h. wenn sich n durch eine kleinere Zahl dividieren lässt, so dass kein Rest übrig bleibt: 6 ist durch 2 und 3 teilbar, 20 durch 2,
4, 5, 10 teilbar,...
Die Primzahlen sind solche, die sich durch keine Zahl dividieren lassen (ausser
natürlich durch sich selbst, und durch 1). In dem Sinn sind die Primzahlen also
besonders renitent: lassen sich in keiner Weise als Rechteck anordnen.
2
Wir halten uns an eine Konvention: demnach soll 1 nicht als Primzahl bezeichnet werden. Die natürlichen Zahlen bestehen also aus der 1, aus den Primzahlen
2,3,5,7,11,... und aus den zusammengesetzten Zahlen 4,6,8,9,10,...
Kurz zur sogenannten Primzahlzerlegung: jede Zahl 6= 1 ist entweder prim,
oder zusammengesetzt, also das Produkt von kleineren Zahlen. Diese sind ihrerseits wiederum prim, oder zusammengesetzt, z.B. 20 = 4 × 5 = 2 × 2 × 5. Jede
Zahl ist als Produkt von Primzahlen darstellbar. Diese sind gewissermassen die
’Atome’ der Zahlen, alle anderen lassen sich daraus bilden durch Multiplikation.
Erste Frage: Wie findet man die Primzahlen?
Hier kann man das ’Sieb des Erathostenes’ verwenden: wir ordnen (in Gedanken)
die natürlichen Zahlen in einer Reihe, alle Vielfachen von 2 scheiden aus, alle
Vielfachen von 3, alle Vielfachen von 5,... Was übrig bleib sind die Primzahlen.
Aber was passiert jenseits unseres beschränkten Gesichtskreises?
Primzahlen werden anscheinend immer seltener. Aber hört ihre Reihe irgendwann ganz auf?
1.3
Unendlich viele Primzahlen
Gibt es eine grösste Primzahl? Anscheinend nein. Aber wie beweist man das?
Durch Nachrechnen ist die Aufgabe nicht lösbar, sie sieht zunächst hoffnungslos aus.
Euklid fand einen wunderbaren Ausweg: Er beruht auf einer Methode, die
Mathematiker sehr oft verwenden, der Methode des indirekten Beweises.
Angenommen es gibt nur endlich viele Primzahlen, wir listen sie (in Gedanken)
auf: p1 , ..., pL .
Bilden wir nun die ’euklidische’ Zahl N = p1 ×p2 ×...×pL +1. Division durch
jedes pi liefert Rest 1. Also ist N selbst Primzahl, oder zerlegbar in Primzahlen,
die in der vorgegebenen Liste nicht vorgekommen sind.
Beispiel: Betrachten wir die Liste 2, 3, 5 von Primzahlen. Die ’euklidische
Zahl’ ist N = 31, und 31 ist durch 2,3,5 nicht teilbar. Also gibt es ausser 2,3,5
noch weitere Primzahlen. Achtung! 31 ist eine Primzahl, aber im allgemeinen
muss N nicht prim sein. So gilt
2 × 3 × 5 × 7 × 11 × 13 + 1 = 30031 = 59 × 509.
(Es ist bis heute unbekannt, ob es unendlich viele solcher ’euklidischer’ Primzahlen
gibt.)
Die derzeit grösste bekannte Primzahl ist 243.112.609 − 1 (und hat ca 13 Millionen Ziffern). Das Aufstellen von neuen Primzahlrekorden ist eine eigene Sportart
(und dient dazu, die Leistungsfähigkeit von Computern zu testen). Obige Zahl ist
3
eine Mersenne-Zahl, dh der Gestalt 2p − 1, wobei p prim ist. Sind unendlich viele
Mersenne Zahlen Primzahlen? Auch diese Frage ist offen.
Die Methode des indirekten Beweises zeigt, dass die Mathematik eine Technik
des Gedankenexperiments ist (Musil sprach vom ’Möglichkeitssinn’ der Mathematiker, im Gegensatz zum Wirklichkeitssinn.) Man macht eine Annahme, zieht
daraus Folgerungen, bis man zu einem Widerspruch kommt, und kann daraus
schliessen, dass die Annahme falsch ist. Im vorliegenden Fall liefert unser Gedankenexperiment eine Aussage über unendlich viele Zahlen, die man niemals durch
blosses Ausrechnen hätte herleiten können!
Im Gegensatz zu diesem frühen Erfolg steht die Frage nach den sogenannten
Primzahlzwillingen. Wenn p > 2 eine Primzahl ist, dann ist p ungerade, die
nächste Zahl p + 1 also gerade, daher sicher nicht prim, aber schon die folgende
kann wieder prim sein. Die beiden Zahlen p und p+2 heissen dann Primzahlzwillinge. 5, 7 oder 11, 13 oder 17, 19 etc... sind Primzahlzwillinge (das grösste bekannte Paar ist derzeit 3756801695685 × 2666669 ± 1, es hat 200700 Ziffern.) Schon
die Griechen stellten sich die Frage, ob es unendlich viele Primzahlzwillinge gibt.
Bis heute ist die Frage offen.
Es steht sogar eine stärkere Vermutung im Raum: nämlich dass es für jedes n
unendlich viele Paare von Primzahlen der Gestalt p, p + 2n gibt (Polignac).
Eine andere berühmte, seit 300 Jahren offene Frage ist die Goldbach Vermutung: Jede gerade Zahl > 2 ist Summe zweier Primzahlen. 4 = 2 + 2, 20 = 17 + 3
usw (für alle Zahlen mit höchstens 18 Stellen verifiziert, aber was ist das schon?)
Heute weiss man: jede gerade Zahl ist Summe von höchstens 6 Primzahlen.
Bewiesen wurde: Zwischen n und 2n liegt stets eine Primzahl (ein tiefer Satz!)
Offen ist die Frage: Liegt auch zwischen n2 und (n + 1)2 stets eine Primzahl?
(Vermutung von Legendre)
Wir kommen später kurz auf Primzahlen zurück.
1.4
Vollständige Induktion
Indirekte Beweise sind nur eines von vielen Hilfsmitteln aus der mathematischen
Trickkiste. Die Methode der vollständigen Induktion (seit ca 400 Jahren im Einsatz) ist eine weitere Beweismethode, die es oft erlaubt, das Unendliche in den
Griff zu bekommen.
Hier ein Beispiel: Die Formel
1 + 2 + 3 + ... + n =
4
n(n + 1)
.
2
Das ist eine Aussage A(n), sie hängt von n ab. Wir wollen sie für alle, unendlich vielen Zahlen n = 1, 2, 3, ... prüfen. Wie soll das gehen?
Die Aussage A(1) gilt, ebenso A(2), ebenso A(3). Das sieht man sofort durch
einfaches Nachrechnen. Aber so geht es nicht weiter! Besser gesagt, so geht
es ewig weiter. Dieser Zugang bringt nichts, ausser ein subjektives Gefühl der
Überzeugtheit. Daher machen wir wieder ein Gedankenexperiment.
Wir nehmen an, dass A(n) für irgend ein n gilt. Und wir können dann zeigen:
dann gilt auch A(n + 1). Beweis:
1 + 2 + ... + n + (n + 1) = (1 + ... + n) + (n + 1) =
n(n + 1) 2(n + 1)
+
2
2
(n + 1)(n + 2)
(n + 1)((n + 1) + 1)
=
.
2
2
Dh aus A(n) folgt A(n + 1). Also folgt aus A(1) (diese Aussage haben wir ja
überprüft) sofort die Aussage A(2), daraus folgt A(3), daraus A(4) usw. Dieser
’Dominoeffekt’ liefert somit die Aussage für alle natürlichen Zahlen.
Übrigens gibt es für die Aussage auch andere Beweise, auf einen ist der sechsjährige
Gauss gekommen (vorführen).
Achtung: Wir dürfen nie vergessen, auch den Induktionsanfang zu überprüfen!
Nimmt man z.B. als Formel B(n)
=
n(n + 1)
+ 3,
2
dann kann man wieder beweisen, dass aus B(n) stets B(n + 1) folgt. Nur stimmt
eben B(n) für kein n, insbesondere nicht für n = 1.
Auch sonst kann man sich manchmal an der Nase herumführen. Z.B. beim
Beweisen des offenkundig falschen Satzes C(n): je n Punkte liegen auf einer
Geraden. Der Satz gilt zweifellos für n = 1 und n = 2. Jetzt Induktionsannahme: je n Punkte liegen auf einer Geraden. Betrachten wir nun n + 1 Punkte
P1 , P2 , ..., Pn , Pn+1 . Aus C(n) folgt, dass P1 auf der Geraden durch P2 , ..., Pn
liegt, und ebenso Pn+1 (denn P2 , ..., Pn+1 sind ja wieder n Punkte). Also liegen
alle n + 1 Punkte auf einer Geraden! Wieso war das falsch?
1 + 2 + ... + n =
1.5
Die Axiome von Peano
Was sind die Grundlagen für die Theoreme über natürliche Zahlen? Die Peano
Axiome. (Sie wurden erst ca 1880 aufgestellt, davor schien es nicht notwendig:
5
die natürlichen Zahlen erschienen gewissermassen ’gottgegeben’.) Hier seien die
Peano Axiome nur kurz skizziert:
Wir gehen aus von einer Menge N, deren Elemente n wir als ’Zahlen’ bezeichnen werden. Wir nehmen an (dh. wir ’postulieren’): zu jedem n gibt es genau
ein N (n) in N (den Nachfolger!). Zwei verschiedene Zahlen sollen verschiedene
Nachfolger haben. Jede Zahl sei Nachfolger einer Zahl, mit einer einzigen Ausnahme (die wir mit 1 bezeichnen). Und ausserdem verlangen wir (das ist jetzt ein
Axiom!): Wenn eine Teilmenge M von N die Zahl 1 enthält und mit jeder Zahl
n auch deren Nachfolger N (n), dann ist M nichts anderes als die Menge aller
natürlichen Zahlen, dh M = N.
Die Addition wird durch Induktion erklärt: Für jedes m wird m + 1 wird
definiert als N (m). Wenn m + n schon definiert, dann sei m + (n + 1) per
Definition (m + n) + 1.
Die Multiplikation ebenso: Für jedes m wird m × 1 als m definiert. Wenn
m × n bereits definiert ist, dann wird m × (n + 1) definiert als (m × n) + n.
Wir sehen: die vollständige Induktion ’steckt’ in den natürlichen Zahlen.
Aus diesen Axiomen kann alles andere, was wir über die natürlichen Zahlen
wissen, hergeleitet werden: z.B. die Ordnung der Zahlen(n < m), die Subtraktion,
die Division mit Rest etc. Mehr darüber später!
1.6
Kurze Rückschau
Oft begehen Anfänger den Fehler, aus A(n + 1) die Formel A(n) herzuleiten. Da
laut Induktionsannahme A(n) als richtig vorausgesetzt wird, folgert man dann:
Also ist A(n + 1) richtig.
Das ist ein Fehlschluss. Wenn aus einer Annahme etwas falsches hergeleitet
wird, muss auch die Annahme falsch sein. Aber wenn etwas richtiges hergeleitet
wird, muss die Annahme noch nicht richtig sein.
Aufgabe: Beweisen Sie durch Induktion: wenn die Menge M genau n Elmente hat, dann hat sie 2n Teilmengen (wobei die leere Menge und die ganze
Menge mitgezählt werden).
Nächste Aufgabe: Wenn wir n Punkte auf dem Kreis durch Sehnen verbinden,
liefert das 2(n−1) Teilmengen des Kreises. Das schaut genauso aus wie die vorige
Aussage, und stimmt auch für n = 1, 2, 3, 4, 5, aber dann nicht mehr!
Hier noch eine Bemerkung: Es gibt unendlich viele Primzahlen der Form 4n+
1 einerseits, und unendlich viele der Form 4n + 3 andrerseits.
Fermat hat gezeigt: Jede Primzahl der ersten Gestalt lässt sich als Summe von
2 Quadraten darstellen: 5 = 12 +22 , 13 = 22 +32 , 17 = 12 +42 etc. Dagegen lässt
6
sich keine Primzahl aus der zweiten Reihe als Summe von 2 Quadraten darstellen.
(Aber jede Zahl lässt sich als Summe von höchstens 4 Quadraten darstellen, wie
Lagrange gezeigt hat). Mathematiker und Mathematikerinnen halten das für eine
wunderschöne Aussage. Manche andere bleiben davon unberührt.
Bleibt natürlich die Frage: Wozu das Ganze? In den letzten Jahrzehnten hat
Theorie der Primzahlen wichtige Anwendungen gefunden, aber das ist kein Argument. Viele Jahrhunderte lang war keine Anwendung denkbar, und doch hat die
Zahlentheorie viele fasziniert. Liegt hier ein besonderes Talent vor, ähnlich der
Musikalität?
7
2
2.1
PUNKTE UND STRICHE
Dreiecksgeschichten
Im Gegensatz zur Zahlentheorie war die Nützlichkeit der Geometrie immer evident (z.B. für Architektur oder Navigation).
Einer der ältesten geometrischen Lehrsätze ist der von Pythagoras: Wenn
a, b, c die Längen der Seiten eines rechtwinkeligen Dreiecks sind (und dabei c der
Hypotenuse entspricht, also der dem rechten Winkel gegenüber liegende Seite),
so gilt
a2 + b 2 = c 2 .
Der klassische Beweis (es gibt viele andere) folgt sofort aus Fig 2.1 und der
Beziehung (a + b)2 = a2 + 2ab + b2 , die ja auch unmittelbar einleuchtend ist
(wieder über Quadrat mit Seitenlänge a + b herzuleiten). Der Satz war schon
Ägyptern und Babyloniern bekannt, doch erst die Griechen bauten das Theorem
in eine Theorie ein (also ein auf Axiomen beruhendes Gebäude von Lehrsätzen).
Im Schulunterricht lernen wir einiges über Dreiecke. Beispiel: Die Streckensymmetralen schneiden einander in einem Punkt (nach Fig 2.2 ist das fast evident, denn wenn P der Schnittpunkt der Streckensymmetralen von AC und AB
ist, dann gilt P A = P C und P A = P B, also P A = P C, dh P liegt auch auf der
Streckensymmetralen von BC).
Oder: die Höhenlinien schneiden einander in einem Punkt. (Der Beweis ist
jetzt nicht ganz so einfach, ausser man kennt den Trick – nämlich durch die Ecken
A, B, C jeweils die Parallelen zu den gegenüberliegenden Seiten zu ziehen. Die
Höhenlinien von ∆ABC sind dann gerade die Steckensymmetralen vom neuen
Dreieck, schneider einander also in einem Punkt, s. Fig 2.3.)
Viele Sätze über Dreiecke sind tausende Jahre alt, aber immer wieder kommen neue dazu. Z.B. wurde erst vor ein paar hundert Jahren entdeckt (und ein
zauberhafter Beweis dafür stammt von HA Schwarz, bei dem Musil studierte):
Das Dreieck der Höhenfusspunkte ist unter allen Dreiecken, deren Ecken auf den
Seiten von ∆ABC liegen, jenes mit dem kleinsten Seitenumfang, s. Fig 2.4.
Ähnlich überraschend ist der Satz von Morley, der bloss hundert Jahre alt ist
und den Griechen gewaltig imponiert hätte. Wenn man jeden Winkel von ∆ABC
dreiteilt, und die Schnittpunkte der Teilungslinien betrachtet, die jeweils einer
Seite am nächsten sind, so erhält man ein gleichseitiges Dreieck, s.Fig 2.5.
8
2.2
Die Tücken der Anschauung
Das sind jedesmal sehr schöne Ergebnisse, relativ leicht zu erzielen (zumindest,
wenn man weiss, wie). Die euklidische Geometrie steht heute kaum mehr im Zentrum der Forschung, aber liefert immer wieder neue, ansprechende Resultate, und
hat vermutlich die höchste ästhetische Rendite (zb in den Büchern von Coxeter).
Der Grund ist wohl die Nähe zur Anschauung. Das birgt aber auch eine Gefahr:
denn die Anschauung ist trügerisch, wie wir von den optischen Täuschungen her
wissen. Sie kann daher zu Fehlschlüssen führen, zb jenem, dass jedes Dreieck
gleichschenkelig ist 8Fig 2.6).
’Beweis’: Betrachten wir die Winkelsymmetrale von A. Wenn sie senkrecht
zu BC ist, ist das Dreieck gleichschenkelig. Angenommen, sie ist nicht senkrecht.
Dann schneidet sie die Streckensymmetrale von BC in einem Punkt P . Es seien
E und F die Projektionen von P auf die Seiten AB und AC. Man sieht aus der
Zeichnung leicht, dass AE = AF und dass BE = F C gilt. Daraus schliesst man
(fälschlich) dass AB = AC folgen muss. Tatsächlich liegt aber P ausserhalb des
Dreiecks, und F zwar zwischen A und C, aber E nicht zwischen A und B. Die
Zeichnung hat uns irregeführt.
Hier erkennt man sofort, dass ein Fehler vorliegen muss, und findet ihn auch
bald, aber wie ist es, wenn das Resultat sich nicht so unmittelbar als unsinnig
deklariert? Tatsache ist: es kommen Fehler in der Mathematik vor, aber meist
werden sie schnell von Kollegen entdeckt. Allerdings, was passiert, wenn sich
kein Kollege jemals dafür interessiert?
Überhaupt hat man in der zweiten Hälfte des 19. Jahrhunderts verstanden,
dass das Axiomenssystem von Euklid unzureichend ist (es sind zwar die ’richtigen’ Lehrsätze hergeleitet worden, aber die Beweise waren, aus heutiger Sicht,
unvollständig, denn sie beriefen sich auf die Anschauung statt auf rein logische
Schlüsse). Um die Verlockungen der Anschauung auszuschliessen, griffen Geometer zu drastischen Mitteln; einer gewisser Diesterweg etwa trug über Geometrie nur im völlig verdunkelten Hörsaal vor.
Insbesondere hat Pasch gezeigt, dass man zu Euklids Axiomen weitere Axiome hinzufügen muss, wie etwa jenes, wonach eine Gerade, die nicht durch einen
Eckpunkt des Dreiecks ∆ABC geht, aber eine Seite dieses Dreiecks schneidet,
dann auch eine andere Seite schneiden muss; oder Axiome für das ’Dazwischenliegen’, wonach die Punkte auf einer Geraden geordnet, offen und dicht liegen
(es gibt also keinen ersten oder letzten Punkt, und zwischen je zwei Punkten liegt
noch einer). Erst 1900 hat Hilbert in seinem Buch ’Grundlagen der Geometrie’
das alles repariert. So eine ’Reparatur’ des Axiomensystems ist im Grund nichts
9
gravierendes – es bleiben genau dieselben Sätze gültig, nur das, was vordem ’unterbewusst’ war, geht jetzt ’bewusst’ in den Beweisgang ein.
Hier sollen nicht alle Axiome der Geometrie erläutert werden, sondern nur
eine Orientierung gegeben. Euklid’s Axiome bilden drei Gruppen. Die erste
enthält Aussagen wie: ’Ein Punkt ist das, was keinen Teil hat’ oder ’Eine Gerade hat keine Breite’. Solche Aussagen werden heute nicht mehr verwendet. Sie
haben einen gewissen didaktischen Wert (z.B. wenn man einem Kind erklären
möchte, was es sich unter einem Punkt vorstellen soll), aber heute würde man von
den Axiomen keine anschauliche Evidenz erwarten. Die zweite Gruppe besteht
aus Aussagen wie: ’wenn zwei Grössen einer dritten gleich sind, sind sie einander gleich’, ’wenn gleiches zu gleichem zugefügt wird kommt das gleiche heraus’
’das ganze ist grösser als seine Teile’ etc. Das sind die sogenannten logischen
Aussagen, oder ’allgemeinen Begriffe’. Und schliesslich, in der dritten Gruppe,
die eigentlichen geometrischen Aussagen (Euklid nannte sie Postulate): ’durch je
zwei Punkte geht eine Gerade’, ’jede Gerade lässt sich verlängern’ ’Mit jedem
Mittelpunkt und Abstand lässt sich ein Kreis ziehen’, ’alle rechten Winkel sind
einander gleich’. Und dann eben noch das Parallelenaxiom.
Hilbert schlug 21 Axiome vor (eines erwies sich später als verzichtbar). Er
geht von drei Arten von ’Dingen’ aus, die als ’Punkte’, ’Geraden’ und ’Ebenen’
bezeichnet werden und mit sogenannten ’Inzidenzrelationen’ verbunden werden
(’liegt auf’). Nur auf diese Verknüpfungen kommt es an. Neben den Inzidenzaxiomen gibt es Axiome für das ’Dazwischenliegen’ (von Punkten auf einer Geraden) und für die Kongruenz von Strecken und Winkeln (inklusive das ’Abtragen’
einer Strecke).
Heute gibt es mehrere konkurrierende Axiomensysteme für die euklidische
Geometrie, das eleganteste stammt von Tarski (aber man muss mehrere Jahre
Mathematik studiert haben, um es zu verstehen).
2.3
Das Parallelenaxiom
Mit einem ganz speziellen Axiom Euklids hat es aber eine besondere Bewandtnis, nämlich dem Parallelenaxiom. Es besagt: Wenn (in der Ebene) ein Punkt P
nicht auf einer Geraden g liegt, so gibt es genau eine Gerade p, die durch P geht
und parallel zu g ist (dh mit g keinen Punkt gemeinsam hat). Das sieht zunächst
evident aus. Bei zweitem Hinsehen ist es nicht evident. Wer auf einem Bahngleis
steht, merkt das: die Schienen scheinen sich irgendwo am Horizont zu schneiden.
Die alten Griechen hatten keine Eisenbahn, aber ein sehr gutes Gespür für mathematische Wahrheiten, und sie merkten, dass es sich im Gegensatz zu den anderen
10
Axiomen (zwei verschiedene Geraden haben höchstens einen Punkt gemeinsam;
durch zwei Punkte geht genau eine Gerade; gleiches zu gleichem addiert ergibt
gleiches, usw.) hier um etwas handelt, was nicht unmittelbar sinnfällig ist (sondern etwas aussagt, das über unseren Gesichtskreis hinausgeht). Jedenfalls hatte
dieses ’5. Postulat’ einen anderen Stellenwert als die übrigen Axiome.
Viele wollten es als Lehrsatz auffassen, also aus den übrigen Axiomen herleiten. Das stiess aber auf unerwartete Schwierigkeiten. Zahlreiche der bekannten Sätze konnten nicht verwendet werden, da man sie nur unter Benutzung des
Parallelenaxioms hergeleitet hatte. Dazu zählen Sätze wie: die Winkelsumme
eines Dreiecks ist 180 Grad (=zwei rechte Winkel); es gibt Dreiecke von beliebig
grossem Inhalt; drei Punkte liegen entweder auf einer Linie oder auf einen Kreis;
es gilt der Satz von Pythagoras, usf. Ja es stellte sich von obigen (und vielen anderen) Sätzen heraus, dass sie äquivalent waren zum Parallelenaxiom. Man hätte
das Parallelenaxiom durch einen dieser Sätze ersetzen können.
Im 18. Jahrhundert begann dann Saccheri eine Frontalangriff auf das Problem.
Er versuchte es mit einem indirekten Beweis. Genauer ging er folgendermassen
vor. Von einer Geraden zog er zwei senkrechte Strecken gleicher Richtung und
gleicher Länge, und verband ihre Eckpunkte, so dass ein Viereck entstand (Fig.
2.7). Die Winkel der Verbindungsgeraden mit den Senkrechten müssen gleich
gross sein (das folgt sofort aus der Symmetrie, und ist leicht zu beweisen). Also
gibt es drei Möglichkeiten für diese Winkel: (a) sie sind beide gerade (und das
liefert natürlich das Parallelenaxiom); (b) sie sind beide stumpf; (c) sie sind beide
spitz.
Saccheri glaubte nun, aus (b) und (c) Widersprüche hergeleitet zu haben. Er
hatte sich aber bei (c) geirrt. Ähnlich erging es auch anderen. Oft geschah es, dass
ein Mathematiker einen Beweis zu finden glaubte; seine Kollegen waren immer
schnell in der Lage, den Fehlschluss aufzudecken. Das ging hundert Jahre so.
Dann, gegen 1830, entdeckten Bolyai und Lobatchevski ungefähr zeitgleich,
dass die Annahme (c) zu einer konsistenten Geometrie führt, die verschieden ist
von der euklidischen. Sogar sehr verschieden! Durch jeden nicht auf einer Geraden liegenden Punkt gehen jetzt unendlich viele Parallelen. Die Winkelsumme
eines Dreiecks ist kleiner als 180 Grad (und zwar ist die Differenz umso grösser,
je kleiner der Flächeninhalt des Dreiecks ist), usf. Bolyais Vater schrieb darüber
dem schon recht alten Gauss. Der bemerkte sauertöpfisch, dass er den jungen
Bolyai nicht loben konnte, da er dasselbe Resultat schon selber längst entdeckt
(wenn auch nicht publiziert) hatte. Und so war es auch: das geht an einem Brief
hervor, den Gauss bereits ein Jahrzehnt früher geschrieben hatte. Er wollte nicht
die dumpfe Masse mit seiner verwirrenden Entdeckung erregen (’Ich fürchte das
11
Geschrei der Böotier’). Tatsächlich stand ja seine Erkenntnis in totalem Widerspruch zu Äusserungen von Kant und Schopenhauer.
2.4
Nicht-euklidische Geometrien
Alle drei (Gauss, Bolyai und Lobatchevski) hielten ihre Geometrien für ebenso
richtig wie die euklidische, nur halt anders. Aber erst 1878 fand der Italiener
Beltrami das entscheidende Argument, aus dem hervorgeht, dass euklidische und
nichteuklidische Geometrien (also die Annahmen (a) und (c)) logisch gleichwertig
sind, und mathematisch gesprochen auf gleichem Fuss stehen.
Sehen wir uns das kurz an (das ist nur eine grobe Skizze!), an Hand einer
Begründung, die der grosse Mathematiker Poincaré später geliefert hat. Wir sind
damit vertraut, dass in der Kartographie die Distanzen verzerrt werden, bei der
Mercator Projektion etwa scheint Grönland gröesser als Europa, obwohl es nur
ein Fünftel so gross ist. Was auf der Erdoberfläche eine kürzeste Verbindung
zwischen zwei Punkten ist (etwa zwischen Wien und Tokio) ist jetzt verzerrt.
Ein Flugzeug, das ’schnurgerade’ von hier nach Tokio fliegt, wird nicht dem
Breitenkreis folgen. Es kommt in ziemlich arktische Regionen hinein. So etwas ähnliches, eine verzerrte Kreisfläche, stellen wir uns jetzt vor (die PoincaréScheibe). Dort sind die Distanzen gemäss eines Rechengesetzes so verzerrt, dass
sie immer grösser werden, je näher man dem Rand kommt. Dadurch sind die
kürzesten Verbindungen zwischen zwei Punkten nicht mehr Geraden, sondern
Halbkreise, die den Scheibenrand senkrecht treffen (Fig. 2.8). Hier gelten nun die
Axiome des Euklid: durch je zwei Punkte geht genau eine *’Gerade’ (nämlich so
ein Halbkreis), usw. Nur das Parallelenaxiom gilt nicht. Durch einen Punkt gehen
mehrere (sogar beliebig viele) ’Geraden’, die parallel zu einer vorgegebenen ’Geraden’ sind. Daher auch einige überraschende Folgerungen: die Winkelsumme des
Dreiecks ist kleiner als zwei rechte Winkel, und so weiter. Wir haben hier eine
Welt, in der Saccheris Fall (c) gilt.
In dieser Welt kann man also eine nichteuklidische, ’hyperbolische’ Geometrie treiben, oder besser gesagt nachäffen, denn die Geraden sind durch Halbkreise
ersetzt. Und so zeigt sich, dass Saccheris Programm undurchführbar ist. Denn
wenn unter Annahme (c) ein Widerspruch auftritt (man also sowohl eine Aussage
A als auch ihre Negation nonA herleiten kann), dann kann man dasselbe auch
mit den Halbkreisen auf der ’Poincaré-Welt’ machen. Die ist aber auf eine Kreisdcheibe in der euklidischen Ebene projiziert, mit Hilfe unserer Landkarte. Man
hätte somit einen Widerspruch in der euklidischen Geometrie selbst gefunden!
Übrigens kann man dasselbe auch umkehren und zeigen: ein Widerspruch
12
aus dem Parallelenaxiom (also der Annahme (a)) führt zu einem Widerspruch für
die Annahme (c). Euklidische und nicht-euklidische Geometrie stehen und fallen
gemeinsam. Eine ist so konsistent (also widerspruchsfrei) wie die andere.
2.5
Elliptische Geometrie
Dasselbe gilt auch für andere, sogenannte ’elliptische’ Geometrien, bei denen Annahme (b) vorausgesetzt wird (durch P geht keine Parallele zu g) und die Winkelsumme von Dreiecken demgemäss grösser als 180 Grad sein wird. Allerdings
muss man die Zwischenaxiome der euklidische Geometrie etwas modifizieren,
und durch sogenannte Trennungsaxiome ersetzen. Auch hier ist dann die Konsistenz äquivalent zu jener der euklidischen Geometrie. Es gibt dafür sogar ein
besonders einfaches (und instruktives) Modell.
Betrachten wir (wieder im dreidimensionalen euklidischen Raum) einen festen
Punkt F . Die Geraden durch F wollen wir jetzt als ’Punkte’ bezeichnen, und die
Ebenen durch F als ’Geraden’. Dann gilt das übliche: durch je zwei ’Punkte’ führt
genau eine ’Gerade’, je zwei ’Geraden’ schneiden sich in einem ’Punkt’ usw. Und
natürlich gibt es keine Parallelen, denn je zwei ’Geraden’ müssen sich in einem
’Punkt’ schneiden (je zwei ’richtige’ Ebenen durch F schneiden sich längs einer
’richtigen’ Geraden durch F ).
Vielleicht knnen wir uns das noch besser vorstellen, wenn wir uns eine Kugel
um den Mittelpunkt F vorstellen. Den ’Geraden’ (also den Ebenen durch F )
entsprechen jetzt die Grosskreise auf der Kugel, denn dort schneidet die Ebene
die Kugel. Ebenso entsprechen den ’Punkten’ (also den Geraden durch F ) die
Schnittmengen mit der Kugel, also die antipodischen Punktepaare.
Für einen Nichtmathematiker scheint es zunächst ausgemachter Blödsinn, eine
Gerade durch F (oder ein Paar antipodischer Punkte) als einen ’Punkt’ zu bezeichnen, oder einen Grosskreis als eine Gerade. Wo bleibt denn dann die ’Geradheit’, das sozusagen schnurgerade, an das wir denken? Aber was man sich unter
einem Punkt vorstellt, und einer Geraden, ist eigentlich Privatsache, geht einem
nur selbst etwas an, und ist für mathematische Überlegungen irrelevant. Wichtig
ist nur, dass man die Beziehungen zwischen den ’Dingen’ genau festlegt, und dann
durch logische Schlüsse weiterverfolgt. Hilbert hat gesagt: ’Statt Punkten, Geraden, Ebenen soll man auch sagen können: Biergläser, Tische, Sessel.’ Wichtig
ist nur, dass man sich auf die Beziehungen dieser Objekte untereinander einigt.
Daher sind Mathematiker oft etwas leichtfertig, wenn es um die Wahl eines Namens geht, also die ’Taufe’ des Begriffs. Der Name ist blosse Konvention, und
hat nichts mit den Sachverhalten zu tun. Dieser Zugang ist völlig verschieden von
13
dem der Kulturwissenschaftler. Die wissen ja, wie wichtig die oft unbewussten
Vorstellungen sind, die ein Wort begleiten.
Es gibt nicht nur drei Geometrien – euklidische, hyperbolische, elliptische –
sondern sehr viele. Manche sind unserer Vorstellungswelt näher als andere. Für
die Mathematik spielt das keine Rolle. Es hat sich herausgestellt, dass es in der
theoretischen Physik günstig ist, nicht den euklidischen Raum, sondern eine andere, Riemannsche Geometrie anzunehmen. Den Unterschied kann man allerdings nur bei sehr grossen Distanzen messen. Bereits Gauss hatte es zu seiner
Zeit als Landvermesser versucht, aber seine Dreiecke (aufgespannt von ein paar
Bergspitzen) waren zu klein, die Abweichung von der Winkelsumme blieb innerhalb der Fehlerschranken. Aber Gauss hatte (sehr im Gegensatz zu Kant,
oder Schopenhauer) erkannt: welche Geometrie für unseren Raum gilt, ist eine
physikalische Frage, und keine genuin mathematische.
Im Gegensatz zur euklidischen Geometrie ist die Geometrie unseres Weltalls
nicht homogen (also nicht überall dieselbe). Das Mass der ’Nicht-euklidizität’
(genauer, das Verhältnis vom Umfang zum Durchmesser eines Kreises, vulgo
’Raumkrümmung’) hängt von der Verteilung der Massen ab.
2.6
Eine Schwäche für Geometrie
Viele Philosophen haben sich sehr für Geometrie interessiert, zum Beispiel Plato,
der von der Entdeckung fasziniert war, dass es (im dreidimensionalen Raum) nur
fünf regelmässige Vielflächer gibt (also konvexe Polyeder, bei denen alle Seitenflächen gleich sind, regelmässig in dem Sinn, dass alle Kantenlängen und alle
Winkel dieselbe Grösse haben, und an jeder Ecke gleich viele zusammenstossen).
Das sind die Platonischen Körper: Tetraeder, Würfel (Hexaeder), Oktaeder, Dodekaeder und Ikosaeder.
Kant hielt die euklidische Geometrie für denknotwendig. Meist hält man ihn
heute für widerlegt. Das ist aber nicht ganz evident, allein schon weil er so schwer
zu verstehen ist. Auch Schopenhauer polemisierte gegen die Versuche, das Parallelenaxiom (das er als direkt einsichtig auffasste) durch einen indirekten Beweis
begründen zu wollen, und schrieb langmächtig über den Unterschied von Seinsgrund und Erkenntnisgrund. Die nicht-euklidischen Geometrien hätten Kant und
Schopenhauer bestimmt zu denken gegeben.
Pascal entdeckte als Sechzehnjähriger einen Satz, dessen allgemeine Fassung
heute als Pascalscher Satz bekannt ist. Wenn die Ecken eines Sechsecks auf einem
Kegelschnitt liegen (Ellipse, Hyperbel, Parabel; das lässt sich mit Hilfe einer
Taschenlampe beschreiben), dann liegen die Schnittpunkte der gegenüberliegenden
14
Seiten auf einer Geraden (Fig. 2.9). Das Beispiel eines regelmässigen Sechsecks
scheint dem zu widersprechen. Da sind ja die gegenüberliegenden Seiten parallel. Aber der Satz von Pascal muss als Aussage der sogenannten projektiven
Geometrie gesehen werden: da schneiden Parallelen einander in Punkten ’im Unendlichen’, und alle solchen Punkte liegen auf einer ’unendlichen’ Geraden. Die
projektive Geometrie ist das ideale Instrument, um zB Kegelschnitte zu untersuchen.
Der grösste Beitrag eines Philosophen zur Geometrie stammt aber zweifellos
von Descartes, der die analytische Geometrie schuf. Sie ist uns von der Schule her
so vertraut, dass es schwer fällt, zu verstehen, was für eine grossartige Entdeckung
sie darstellt (Ähnliches gilt zb für das Dezimalsystem.)
Sie alle kennen die analytische Geometrie. In der Ebene führt man ein Koordinatensystem ein, und ordnet dadurch jedem Punkt P seine Koordinaten (p1 , p2 )
zu. Genauer, man fasst Paare von (reellen) Zahlen als ’Punkte’ auf. Geraden
entsprechen hier den Lösungen von linearen Gleichungen ax + by = c. Und
diese Zahlenpaare bzw linearen Gleichungen verhalten sich jetzt genau so, wie die
Punkte und Geraden in der euklidischen Geometrie. Auch hier ist es wieder so,
dass die Kegelschnitte besonders einfachen Objekten (nämlich Gleichung zweiten
Grades) entsprechen.
Durch die ’kartesischen Koordinaten’ wird die Geometrie auf die Theorie
der reellen Zahlen zurückgeführt. Wenn die euklidische Geometrie einen Widerspruch enthielte, so müsste der in den reellen Zahlen liegen!
15
3
3.1
GRENZWERTIGES
Krumme Touren
Setzen wir als bekannt voraus, dass der Umfang eines Kreises vom Radius R
durch 2πR gegeben ist. Bekanntlich ist der Flächeninhalt πR2 . Spätestens seit
Kepler ist dafür ein wunderbar einfaches Argument bekannt (Fig 3.1). Zerschneiden wir den Vollkreis in viele dünne ’Tortenstücke’. Jedes ist ein beinahe gleichschenkeliges Dreieck, die Höhe ist fast R, und wenn die Aussenseite Länge ∆ hat,
so ist der Inhalt circa (1/2)R∆. Die Summe aller ∆ ist aber der volle Kreisumfang 2πR, also die Summe aller Flächeninhalte (1/2)R2πR, also πR2 . Das ist
viel einfacher als es die Überlegungen der alten Griechen waren!
Natürlich wurde da geschwindelt. Die Tortenstücke sind ja gar keine richtigen
Dreiecke, eine Seite ist krumm. Aber wenn die Stücke sehr dünn sind, ist die Seite
fast gerade. Wir müssen uns ’unendlich dünne’ Tortenstücke vorstellen. Aber was
heisst denn das? Wir betrachten einen ’Grenzwert’. Hilft uns das weiter?
Grenzwertüberlegungen haben sich als ungemein nützlich erwiesen. Sie können
aber auch das Falsche liefern. Ein Beispiel (Fig 3.2): Ein Halbkreis hat Länge πR.
Er ist genau so lang wie zwei halb so grosse Halbkreise, einer oberhalb und einer
unterhalb der Sehne (d.h. des Durchmessers). Das Verfahren können wir beliebig
fortsetzen. Es liefert aus immer kleineren und kleineren Halbkreisen bestehende
Bogenlinien, die alle die Länge πR haben. Im Grenzwert kommt aber gerade der
Durchmesser heraus. Also hat er auch diese Länge, nämlich 2R. Andrerseits ist
seine Länge πR. Also folgt π = 2! Wir haben irgend etwas falsch gemacht.
Die krummen Bogenlinien nähern sich zwar dem geraden Durchmesser beliebig
genau an, aber die Längen sind ganz anders.
3.2
Geschwindigkeitsrausch
Ein anderes Beispiel. Stellen wir uns einen Zug vor, der von Wien nach Linz fährt.
Wir betrachten den Abstand vom Westbahnhof als Funktion der Zeit, y = f (x).
Das gibt einen Funktionsgraphen (Fig 3.3). Wir können uns leicht die Durchschnittsgeschwindigkeit anschauen. Aber jetzt wollen wir auch die augenblickliche Geschwindigkeit berechnen. Der Zug hat ja immer eine Geschwindigkeit
– sie ist Null in der Station, und 190 kmh auf gewissen Teilstrecken. Wie aber
definieren wir diese Geschwindigkeit? Zurückgelegte Strecke durch Zeit. Im Intervall von a bis a + h wird die Strecke f (a + h) − f (a) zurückgelegt. Also ist
(a)
. Aber wir wollen
die Durchschnittsgeschwindigkeit in dem Intervall f (a+h)−f
h
16
ja keine durchschnittliche Geschwindigkeit, sondern die augenblickliche, die zum
Zeitpunkt a. Schauen wir uns das in einer Vergrösserung an. Das h muss ja sehr
klein sein. Eine Sekunde? Eine Zehntelsekunde? Eine Millionstel? Alles das ist
eigentlich zu gross. Wir wollen den Grenzwert erhalten, daher sollte h unendlich
klein sein.
Wie wärs mit h = 0? Das auf keinen Fall. Wir wollen ja die Strecke f (a+h)−
f (a) durch die Zeit h dividieren, und durch 0 darf man auf keinen Fall dividieren.
Wieso nicht, werden Sie fragen. Die Mathematiker sind doch sonst so verwegen.
Die Wurzel aus −1 führen sie ja auch ohne weiteres ein, obwohl sie wissen, dass
keine reelle Zahl ein negatives Quadrat haben kann (wir kommen darauf noch zu
sprechen). Wenn man die ’imaginäre Einheit’ i definieren kann als jene Grösse,
die i2 = −1 erfüllt, warum dann nicht ∞ als jene Grösse, die 1/0 = ∞ erfüllt?
Das Problem ist, dass dann die üblichen Rechenregeln nicht gelten (während
sie für i gelten). Denn wenn wir so rechnen, wie gewohnt, erhalten wir 1 = 0 × ∞
und daher
1 = 0 × ∞ = (0 + 0) × ∞ = 0 × ∞ + 0 × ∞ = 1 + 1 = 2
und da hört sich doch der Spass auf! (Wohlgemerkt: hier wird nicht behauptet,
dass es kein Unendlich ∞ gibt. Schon im übernächsten Kapitel geht es über
Unendlich. Hier wird nur behauptet, dass man mit ∞ nicht so rechnen kann, wie
gewohnt, und insbesondere ∞ = 1/0 nichts bringt.)
Immerhin, wir dividieren ja nicht 1 durch 0, sondern f (a + h) − f (a). Wenn
h = 0 ist, dann dividieren wir also 0 durch 0. Das sieht schon ein wenig hoffnungsvoller aus. Die momentane Geschwindigkeit ist also so etwas wie 0/0. Aber
was könnte es sein? Für jede reelle Zahl x gilt ja 0 = 0 × x, also käme jede Zahl
x als Geschwindigkeit in Frage!
3.3
Die Geister der Verschwundenen
Was wir brauchen, wenn wir nicht durch Null dividieren wollen, ist ein ’unendlich
kleines’ o, das verschieden von 0 (der Null) ist. Die Geschwindigkeit wäre dann
f (a+o)−f (a)
.
o
Das schlechte Nachricht ist allerdings, dass es keine infinesimalen Grössen
gibt. Eine Zahl heisst infinitesimal, wenn sie unendlich klein ist. Also nicht negativ, nicht Null, aber doch kleiner als jede positive Zahl. Und das kann es natürlich
nicht geben. Denn wenn x > 0 so eine Zahl ist, dann ist ja x/2 > 0 noch kleiner
als x.
17
Der Begriff des Infinitesimalen, oder unendlich kleinen, hat schon Zeno grosse
Schwierigkeiten bereitet. Bekannt ist sein wunderbares Paradox mit Achilles und
der Schildkröte. Sobald Achilles dort angekommen ist, wo die Schildkröte war,
ist diese schon ein Stück weiter. Auch das Paradox vom Pfeil, der fliegt und doch
einen festen Ort hat, ist schwer zu lösen. Die Gründer der Infinitesimalrechnung,
Leibniz und Newton, versuchten zu erklären, was sie meinten, aber ihre Versuche
waren pathetisch. Heute würden sie bei der ersten Kolloquiumsprüfung durchfallen. Newton etwa erklärte: ’By the ultimate velocity is meant that, with which
the body is moved, neither before it arrives at its last place, when the motion
ceases nor after but at the very instant when it arrives... the ultimate ratio of
evanescent quantities is to be understood, the ratio of quantities not before they
vanish, not after, but with which they vanish.’
Zenos Zitat vom Pfeil ist nicht im Wortlaut erhalten. Viele nachfolgenden
Denker haben ihre Interpretation geliefert. Wie üblich, sind die deutschen Philosophen
am schwersten verständlich, daher sei hier Hegel zitiert:
’Es bewegt sich etwas nur, nicht indem es in diesem Jetzt hier ist und in einem
anderen Jetzt dort, sondern indem es in ein und demselben Jetzt hier und nicht
hier, indem es in diesem Hier zugleich ist und nicht ist. Man muss den alten
Dialektikern die Widersprüche zugeben, die sie in der Bewegung aufzeigen, aber
daraus folgt nicht, dass darum die Bewegung nicht ist, sondern vielmehr dass die
Bewegung der daseiende Widerspruch selbst ist.
Der ’daseiende Widerspruch’ schien lange Zeit nicht vernünftig zu lösen. Aber
integrieren und differenzieren wollte man doch, das war zu wichtig, um fallengelassen zu werden. Mehrere Jahrhunderte setzten sich die Mathematiker kaltblütig
über die Schwierigkeit hinweg, und taten so, als ob es ihn nicht gäbe. Damals gab
einer von ihnen die allgemeine Parole aus: ’Allez en avant, et la foi vous viendra’.
’La foi’, also der Glaube! Im 18. Jahrhundert verfasste der Bischof Berkeley
einen sehr scharfsinnigen Essay, in dem er sich darüber lustig machte: Dieselben
Freigeister, die jeden Wunderglauben ablehnten, stiessen sich nicht daran, mit unendlich kleinen Grössen (’ghosts of departed quantities’) zu operieren, mit der
schlichten Begründung, dass es meist funktionierte.
Erst durch Weierstrass (zweite Hälfte des 19. Jahrhunderts) wurde die Analysis auf solide Füsse gestellt. Erst dann bildete sich eine narrensichere Methode
heraus, um Grenzwerte zu behandeln. Am einfachsten ist, sich dazu des Begriffs
einer Folge zu bedienen.
18
3.4
Folgenreich
Am Anfang der Mathematik der Neuzeit steht Fibonacci (ca 1200). Er wurde
durch die nach ihm benannte Folge bekannt:
1, 1, 2, 3, 5, 8, 13, 21, ...
Im obigen Fall hat man ein rekursives Bildungsgesetz:
an + an+1 = an+2 ,
und wenn man die ersten beiden Glieder kennt, kennt man alle anderen. Bis heute
hat diese Folge ihren Reiz nicht verloren, ihr ist eine eigene fachzeitschrift gewidmet, ’The Fibonacci Quarterly’.
Folgen standen für die Griechen nicht im Zentrum des Interesses, für die sogenannte ’abendländische’ Mathematik (Spengler) aber schon. Allgemein ordnet
eine Folge jeder natürlichen Zahl n ein Ding an zu – das wird eine Zahl sein,
oder eine Menge, oder eine Figur, oder eine Funktion,... Hier betrachten wir nur
Zahlenfolgen a1 , a2 , a3 , ....
Ein Beispiel: an = 2n . Oder: an = n2 + n + 41. Oder: an = (−1)n . Hier
wird das an durch einen Rechenausdruck gegeben. Bei der Fibonacci Folge wird
an durch Rekursion gegeben, man kann die Elemente schrittweise bilden, wenn
man die ersten beiden Zahlen kennt.
Und nun noch ein Beispiel:
an = 1/n.
Diese Folge 1, 1/2, 1/3, 1/4, 1/5, ... hat nun eine besondere Eigenschaft: sie ist
ein Nullfolge. Was soll das heissen? Ein unverbildeter Mensch könnte sagen: das
letzte Glied ist 0. Aber das stimmt nicht. Kein Glied der Folge ist 0, und es gibt
ja auch kein letztes Glied (was wäre denn das vorletzte?).
Die Folge 1/n nimmt nie den Wert 0 an, aber 0 ist der ’Grenzwert’. Was soll
denn das heissen? Man kommt immer näher an 0 heran, beliebig nahe, wenn man
nur weit genug geht mit dem n.
Was heisst hier ’nahe’ bei 0? Das ist leicht. Wir nehmen eine ganz kleine
positive Zahl (traditionell wird dafür der Buchstabe ’epsilon’ verwendet, stellen
Sie sich 1/1000 oder 1/1000000 vor). Eine Zahl x liegt nahe bei 0, wenn x in
dem Intervall < x < gilt, also x in der -Umgebung von 0 liegt.
Was aber heisst ’beliebig’ nahe? Der Abstand wird kleiner als jede vorgegebene
positive Zahl . Also hier die Definition einer Nullfolge: für jedes > 0 gilt
19
− < an < , wenn nur n hinreichend gross ist. Was aber heisst hinreichend
gross? Es heisst: grösser als eine bestimmte Zahl (die man traditionell mit N
bezeichnet. Also: an ist eine Nullfolge, wenn es zu jeden (’noch so kleinen’)
> 0 eine (’hinreichend grosse’) Zahl N gibt (die von abhängen kann) so dass
für jedes n > N gilt, dass − < an < . So!
Ich will sie nicht mit dieser sogenannten ’Epsilontik’ langweilen. Sie wird
Mathematikstudenten über Wochen und Monate hinweg eingetrichtert, wie Volksschulkindern das kleine Einmaleins. Die ’Epsilontik’ ist ein mühseliges, aber
verlässliches Mittel, Grenzwerte zu behandeln.
Also nochmals, warum ist an = 1/n eine Nullfolge? Geben Sie mir ein beliebiges > 0. Ich berechne 1/ (diese Zahl ist sehr gross, wenn sehr klein ist)
und wähle N = 1/. Wenn nun n > N , dann 1/n < , klar.
Ebenso ist an = 1/n2 eine Nullfolge. Sie ist ja eine Teilfolge von 1/n. Es gibt
unzählige Nullfolgen. Gemeinsam ist ihnen: sie führen beliebig nahe an die Null
heran, also für jedes (noch so kleine) ist der Abstand |an | < , und zwar für alle
n ausser vielleicht für n = 1, ..., N . Das sind höchstens endlich viele Ausnahmen.
’Für alle bis auf endlich viele’ (vielleicht hunderttausend Quadrillionen) der n gilt
|an | < (die Menge der möglichen ’Ausnahme’-n ist umso grösser, je kleiner ist, aber ab irgend einem N kommt dann keine Ausnahme mehr).
Allgemeiner sagt man, die Folge an besitzt Grenzwert a, wenn die Folge an −a
eine Nullfolge ist. ZB ist der Grenzwert von an = 1 + n1 gerade 1.
Eine Folge kann nicht mehrere Grenzwerte besitzen. Aber sie kann auch gar
keinen besitzen, zb an = (−1)n . Sie kann auch über alle Grenzen wachsen, etwa
bei der Folge an = n2 .
Leicht sieht man: wenn 0 < x < 1 und an = xn , dann ist an eine Nullfolge,
dh an → 0. Wenn x = 1 dann natürlich xn = 1, also auch xn → 1. Wenn aber
x > 1, so wächst x über alle Grenzen, und besitzt keinen Grenzwert.
3.5
Auf die Reihe gebracht
Es gilt
1/2 + 1/4 + 1/8 + ... = 1.
Anschaulich ist das klar (Fig 3.4) .
Hier können wir auf das wunderbare Beispiel von Achilles und der Schildkröte
zurückkommen. Nehmen wir an, dass Achilles einen Kilometer hinter der Schildkröte
startet, und doppelt so schnell ist (eine sehr schnelle Schildkröte!). Wenn Achilles
am Startpunkt der Schildkröte angelangt ist, ist die schon einen halben Kilometer
20
weiter. Ist er dort, ist die Schildkröte einen Viertelkilometer weiter, usf. Aber
nachdem er zwei Kilometer gelaufen ist, und die Schildkröte einen, zieht er an ihr
vorbei!
Aber was heisst das? In der obigen Formel werden unendlich viele Zahlen addiert, wie geht das? Ganz einfach: Man betrachtet die endlichen ’Partialsummen’,
hier also
sn := 1/2 + ... + 1/2n .
Wenn die einen Grenzwert s besitzen, sn → s, so schreibt man
s = 1/2 + 1/4 + ...
Bleibt also nur zu zeigen, dass s = 1 gilt. Aber sn = 1 − 1/2n , und das strebt
gegen 1 weil 1/2n eine Nullfolge ist (ist ja eine Teilfolge der Nullfolge 1/n).
Allgemeiner gilt für jedes 0 ≤ x < 1:
x + x2 + ... = x/(1 − x).
Zuerst muss man zeigen, dass der Grenzwert existiert. Hier lernt man in der
Analysis viele Verfahren. Wenn der Grenzwert existiert, so bezeichnen wir ihn
mit s, und sehen dann
x + x2 + ... = s
x2 + x3 + ... = xs
also s(1 − x) = x, fertig. Aber Achtung! Das geht nur, wenn s existiert. Denn für
2 + 22 + ... = s
hätte man dann
22 + ... = 2s
und somit 2 = s(−1), was offenbar Blödsinn ist! Für x ≥ 1 besitzt die Reihe
x + x2 + x3 + ... keinen Grenzwert.
Oft hört man: die Reihe konvergiert, wenn das letzte Glied Null ist. Das ist
Unsinn. Weniger unsinnig, aber dennoch falsch, ist die Auffassung: Die Reihe
konvergiert, wenn die Summanden ein Nullfolge bilden. Schon Nicolaus von
Oresmus hat (14. Jahrhundert) gezeigt, dass
1 + 1/2 + 1/3 + ...
21
nicht konvergiert. Sie wächst vielmehr, wenn auch sehr sehr langsam, gegen Unendlich. Es gilt nämlich: 1/3 + 1/4 > 1/2, 1/5 + 1/6 + 1/7 + 1/8 > 1/2, und
allgemein
1/(2n + 1) + 1/(2n + 2) + ... + 1/(2n+1 ) > 2n × 1/(2n+1 ) = 1/2
also kommt man in Schritten von jeweils 1/2 beliebig weit, s2 = 3/2, s4 > 4/2,
s8 > 5/2, s16 > 6/2, das wächst über alle Grenzen.
Wohl aber gilt der wunderbare Satz
1 + 1/22 + 1/32 + ... =
π2
6
eine erstaunliche Beziehung zwischen Quadratzahlen 1, 4, 9, 16, 25, ... und der
Kreiszahl π.
Besonders schön, und von Leibniz stammend, ist
1 1 1 1
π
+ − + − ... = .
3 5 7 9
4
Aber Vorsicht! Wenn man hier die Anordnung der Summenterme ändert, also
die Anordnung ändert, kann etwas ganz anderes herauskommen. Bei endlichen
Summen ist dergleichen natürlich nie der Fall.
1−
3.6
Differenzieren und Integrieren
Die Funktion f (t) besitzt die Zahl v als Ableitung (Geschwindigkeit!), wenn für
jede Nullfolge hn (mit hn 6= 0) die Folge
an =
f (t + hn ) − f (t)
hn
den Grenzwert v besitzt. Also zB besitzt x2 die Ableitung 2x, denn
an =
(2t + hn )hn
(t + hn )2 − t2
=
= 2t + hn
hn
hn
besitzt den Grenzwert 2t. Leibniz hat genau dieselbe Überlegung angestellt, aber
hn nicht als Glied einer Nullfolge gesehen, sondern als ’Infinitesimal’. Im Zug
seiner Rechnung hat er also hn einfach gleich 0 gesetzt. Davor aber hat er durch
hn dividiert, dh durch 0, und das ist ja eine Todsünde.
22
Insgesamt: statt Infinitesimalen verwendet man Nullfolgen (deren Glieder
aber alle von 0 verschieden sind). So gesehen ist der Fortschritt eigentlich nicht
besonders gross.
Jetzt kann man zB zeigen: zu mindestens einem Zeitpunkt muss die augenblickliche Geschwindigkeit des Zuges genau der durchschnittlichen Geschwindigkeit
auf der Strecke Wien Linz entsprechen. Scheint völlig klar (Fig. 3.5).
Ebenso kann man den Grenzwertbegriff zum Integrieren
R b verwenden. Angenommen f (x) ≥ 0 für alle x mit a ≤ x ≤ b. Das Integral a f (x)dx ist gerade der
Flächeninhalt zwischen Graphen und x-Achse. Die offizielle Definition: man
betrachtet sogenannte ’Zwischensummen’ (Fig.3.6). Zuerst zerlegt man das Intervall von a bis b in lauter kleine Intervalle I, und berechnet den Flächeninhalt
der dünnen Streifen mit Basis I, für welche die Höhe durch irgendeinen Wert der
Funktion auf dem kleinen Intervall I gegeben ist. Wenn es einen Grenzwert für
alle diese Zwischensummen gibt, ist dieser das Integral. Auch hier stammt die
genaue Definition (durch Riemann) erst aus der zweiten Hälfte des 19. Jahrhunderts. Aber mit Integralen fehlerfrei rechnen konnten schon Leibniz und Newton.
Insbesondere wussten sie, dass Differenzieren (also die Ableitung bilden) und Integrieren inverse Operationen sind, ähnlich wie subtrahieren und addieren. Nur ist
der Nachweis viel subtiler, weil man die Reihenfolge von zwei Grenzübergängen
vertauscht. Hier schrillen bei jedem Analytiker die Alarmglocken, denn das Vertauschen der Grenzwerte hat seine Tücken, wie man es bereits sieht, wenn man
bei
x−y
x+y
zuerst y genen 0 und dann x gegen 0 streben lässt, oder umgekehrt. In eine Fall
kommt 1 heraus, im anderen −1.
3.7
Zwischenwertig
Den Begriff des Grenzwerts benötigt man auch, um die Stetigkeit einer Funktion
zu definieren. Die Funktion f heisst stetig, wenn aus xn → x stets f (xn ) → f (x)
folgt. Anders gesagt: der Wert f (y) nähert sich dem Wert f (x) beliebig genau
an, wenn y hinreichend nahe zu x rückt. Anschaulich heisst das: man kann die
Funktion durchgehend zeichnen - ohne den Strich abzusetzen. Insbesondere gibt
es da keine Sprungstelle (fig.3.7).
Am wichtigsten ist der Zwischenwertsatz: eine stetige Funktion auf einem
Intervall nimmt mit je zwei Werten auch jeden dazwischen an. Also bei der Bahnfahrt von Wien nach Linz kommt man durch jeden Ort an der Strecke.
23
Der Zwischenwertsatz scheint völlig klar, obwohl ein exakter Beweis umständlich
ist. Nicht so evident wie der Satz selbst sind die zahlreichen Folgerungen, zb das
Sandwich Theorem: Betrachten wir eine Ebene, die ganz auf der einen Seite eines
soliden Körpers liegt, und verschieben wir sie stetig, parallel, bis sie ganz au der
anderen Seite liegt. Aus dem Zwischenwertsatz folgt sofort: eine dieser Ebenen
muss den Körper so teilen, dass je eine Hälfte des Volumens auf jeder Seite der
Ebene liegt. Das ist evident, aber es gilt sogar: Zu je drei Körpern im Raum existiert eine Ebene, die alle drei Körper so teilt, dass je die Hälfte des Volumens
auf jeder Seite ist.
Erstaunlich auch der Satz von Borsuk: Stellen wir uns eine stetige Funktion
auf der Erdoberfläche vor (etwa die Temperatur). Es ist sehr unwahrscheinlich,
dass bei unseren Antipoden genau dieselbe Temperatur herrscht wie bei uns. Aber
es gibt ein Paar antipodaler Punkte, wo dieselbe Temperatur herrscht. Das ist
noch einigermassen klar, aber es gilt überraschenderweise noch mehr: es gibt
antipodale Punkte, wo dieselbe Temperatur und derselbe Luftdruck herrscht. (Das
ist kein Satz aus der Meteorologie, sondern folgt aus dem Zwischenwertsatz!)
Noch kurz zu Stetigkeit und Differenzierbarkeit: Wo eine Funktion eine Ableitung
besitzt, ist sie auch stetig. Das Umgekehrte geht nicht: zb wenn die stetige Funktion einen Knick besitzt (Beispiele |x|, oder xsin(1/x) (mit Wert 0 bei x = 0))
(Fig. 3.8). Es gibt sogar stetige Funktionen, die nirgends eine Ableitung besitzen (die Mathematiker des 19. Jahrhunderts hielten das für ’monströs’!). Ja, in
einem gewissen Sinn gilt: die meisten stetigen Funktionen besitzen nirgends eine
Ableitung. Aber die gute Nachricht: jede stetige Funktion besitzt ein Integral.
24
4
4.1
ZAHLEN, BITTE
Das unendliche Lineal
Was ist eine Zahl? Das ist eine Frage, die Philosophen lebhaft interessieren kann,
Mathematiker zumeist nicht. Deren erste Antwort wird sein: Was für eine Zahl
meinst du? Es gibt viele Typen von Zahlen. Letztlich interessiert sich der Mathematiker nur dafür, wie man damit rechnen kann (also plakativ ausgedrückt: was
die Zahlen tun, nicht was sie sind). Das ist ein Zugang, der zugleich pragmatisch und abstrakt ist. Wenn der Mathematiker einen philosophischen Hintergrund hat, wird er vielleicht sagen: Was eine Zahl ’wirklich’ ist, lässt sich ebenso
schwer beantworten wie die Frage, was ein Läufer beim Schachspiel ’wirklich’ ist.
Worauf es beim Schachspiel ankommt, ist, was man mit dem Läufer tun kann, also
was für Regeln für seine Handhabung gelten. Und ebenso ist es mit den Zahlen.
Worauf es ankommt ist ihre Rolle in der entsprechenden Zahlenmenge. Dasselbe
Zeichen (etwa Drei, 3) kann je nach Kontext etwas ganz anderes bedeuten.
Schon im Vorschulalter lernen wir zählen: 1, 2, 3, ... . In der Volksschule lernen wir auch die 0 kennen (etwa indem wir beim Fussball 0 : 3 verlieren), und bald
auch die negativen Zahlen −1, −2, ..., also neben der Menge N der natürlichen
Zahlen auch die Menge Z der ganzen Zahlen ..., −3, −2, −1, 0, 1, 2, 3, .... Bald
kommen auch die Bruchzahlen dazu, also die Menge Q der rationalen Zahlen
n/m (wobei n, m ganze Zahlen sind, und m von 0 verschieden), und schliesslich
(circa zur Pubertät, wo einen gar nichts mehr wundert) refährt
man von R, der
√
Menge der reellen Zahlen, wie etwa π = 3, 1415... oder 2 = 1, 41.... Reelle
Zahlen sind durch Dezimalentwicklungen gegeben sind, die gar nicht aufhören
müssen, zb
1
4
1
π =3+
+
+
+ ...
10 100 1000
Hier steht eine unendliche Reihe. Damit ist der Grenzwert einer Folge von endlichen
Summen gemeint, wie wir im vorigen Kapitel sahen. So ein Grenzwert ist aber
erst seit dem 19. Jahrhundert richtig definiert, obwohl natürlich schon früher mit
reellen Zahlen gerechnet wurde.
Wie das Kind hat auch die Menschheit Zeit gebraucht, um sich mit dem Zahlbegriff vertraut zu machen. Nach den Schuljahren sehen wir die Sache ganz einfach (und völlig richtig!): die reellen Zahlen entsprechen den Punkten einer Geraden, der sogenannten ’Zahlengeraden’. Auf dieser Geraden sind die 0 und die 1
vorgegeben, dadurch werden (durch wiederholtes Auftragen in die Richtung von
0 nach 1) die natürlichen Zahlen erhalten. Dann kommen die negativen ganzen
25
Zahlen, man erhält sie aus den natürlichen durch Spiegelung an der 0. Auch
die Bruchzahlen lassen sich geometrisch leicht konstruieren, zb 1/5. Man zieht
Senkrechte zur Zahlengeraden, eine durch 0 und eine durch 1, trägt auf der ersten die Länge 1 auf, auf der anderen in die andere Richtung 4 (also 5 − 1), und
verbindet die Eckpunkte, der Schnittpunkt mit unserer ’Zahlengeraden’ ist 1/5,
fertig (Fig 4.1)! Wir wissen auch, wie man die Summe von a und b richtig interpretiert (durch Zusammenfügen der Strecken), und die Multiplikation mit −1
(eben als Spiegelung an der 0). Seit Descartes können wir auch die Multiplikation
der positiven Zahlen a und b geometrisch interpretieren (wir tragen a und b auf der
Senkrechten durch 0 auf, verbinden den Punkt a mit 1, ziehen die Parallele dazu
durch den Punkt b auf der Senkrechten und erhalten als Schnittpunkt dieser Parallelen mit der Zahlengeraden den Punkt a×b) (s. Fig 4.2). (Das ist übrigens für die
Zwecke dieses Kapitels eine bessere Interpretation als die geläufige Darstellung
von a × b als Flächeninhalt. Denn bei a × b × c und noch mehr bei a × b × c × d
wird es knifflig!)
Obwohl unsere Vorstellung von den reellen Zahlen als Punkten auf der Zahlengeraden - dem unendlichen Lineal - sich nicht ändern wird, zahlt sich dennoch aus,
den langen Weg von den natürlichen zu den reellen Zahlen nochmals zu überblicken.
Wir wissen ja auch schon, dass der Weg weiter führt – zu den komplexen Zahlen,
und vielleicht noch darüber hinaus.
4.2
Kleiner als Nichts?
Irgendwie scheinen uns die Zahlen 1, 2, 3, ... natürlicher als die anderen. (Der
Mathematiker Kronecker sagte: ’Die natürlichen Zahlen hat uns Gott gegeben.
Alles andere ist Menschenwerk.’) Wir denken allerdings hier wohl an kleine
Zahlen, entsprechend den kleinen Häufchen von Steinen. Wir denken weniger
an die Zahl aller Regentropfen eines Gewitters, oder an die Zahl
724619003753915993760411,
oder an eine Zahl, die grösser ist als die Anzahl aller Teilchen im Universum.
Schon eine Zahl wie 1979 ist nicht mit einer unmittelbaren Anschauung verbunden, einem ’ganzheitlichen Erfassen’ wie etwa die 3, sondern lässt sich nur durch
ihren Platz im Zahlensystem definieren, also etwa als die Nachfolgerin von 1978,
oder als das Produkt von 23 und 73, usw. Dieses Zahlensystem wird durch die
Axiome von Peano beschrieben (Kap.1), und die wollen wir zunchst unhinterfragt
akzeptieren.
26
Durch die Peano-Axiome für N wird das Zählen erklärt, und mittels vollständiger
Induktion können die Summe und das Produkt natürlicher Zahlen gebildet werden, wie wir schon gesehen haben. Man kann zeigen (was furchtbar umständlich
und langweilig ist), dass für alle natürlichen Zahlen a, b, c, ... gilt
(1) a + b = b + a
(2) a + (b + c) = (a + b) + c
(3) a × b = b × a
(4) a × (b × c) = (a × b) × c
(5) a × (b + c) = (a × b) + (a × c)
und
(6)
1 × a = a.
Man sieht auch, dass es eine Anordnung gibt. Für je zwei verschiedene Zahlen ist
eine grösser als die andere, wir schreiben a < b.
(7) Aus a < b und b < c folgt a < c.
(8) Wenn a < b dann a + c < b + c für jedes c.
(9) Wenn a < b dann a × c < b × c für jedes c.
Daraus folgen alle vertrauten Rechenregeln für die natürlichen Zahlen, zb (a+
b)2 = a2 + 2ab + b2 usw. Aber hier stellt sich heraus: die Aufgabe, das x in
a + x = b zu finden, ist nicht immer lösbar (sondern nur, wenn a < b gilt).
Natürlich ist 3 die Lösung von 2 + x = 5, (und so schreiben wir 3 = 5 − 2) aber
was ist die Lösung von 5 + x = 2, dh. was ist 2 − 5? Wir wissen, dass es (−3)
ist (die Klammern lassen wir später weg), aber worum handelt es sich bei dieser
Zahl? Sie ist keine natürliche, aber deshalb noch nicht unnatürlich. Schliesslich
wissen viele, was es heisst, wenn das Konto im Minus ist.
Negative Zahlen haben in der Geschichte der Mathematik bis ins hohe Mittelalter hinein Verwirrung gestiftet. Insbesondere Aussagen wie (−3) < 0 sorgten
für Kopfzerbrechen. Die Null steht doch für Nichts, was kann noch kleiner sein
als nichts? Aber wenn die Null ein Punkt auf dem Lineal ist, wird die Sache einfacher. Ebenso scheint die Regel 3×0 = 0 leicht zu interpretieren (dreimal Nichts
ist Nichts), aber wie steht es mit 0×0 = 0? Keinmal Nichts sollte doch etwas sein.
Auch die sonderbare Regel M inus × M inus = P lus schien nicht evident (mit
der Visualisierung durch die Zahlengerade schon: es wird zweimal gespiegelt, und
was die (−3) betrifft, so geht man einfach von 0 aus drei Schritte nach links statt
27
nach rechts). Man behalf sich lange mit Gleichnissen: Der Feind meines Feindes ist mein Freund. Oder: wenn ich Geld bekomme, wird von meinen Schulden
etwas weggenommen.
Heute ist keiner mehr verwirrt. Man definiert die Zahl 0 dadurch, dass man
festlegt: für jede natürliche Zahl a gelte
(10) a + 0 = a.
Man kann sich darunter vorstellen: die Anzahl der Steine in einem Haufen, in
dem kein Stein liegt (oder: die Anzahl der Tore, wenn keines geschossen wird),
aber das ist mathematisch irrelevant. Ebenso wird man die Zahl −3 definieren als
jene Zahl x, für die 5 + x = 2 gilt. Wir wissen freilich, dass es auch jene Zahl x
ist, für die 6 + x = 3 ist. (Dass es dieselbe Zahl ist, sehen wir ein, wenn wir links
und rechts bei 5 + x = 2 je 1 addieren.) Allgemein legt man fest, dass
(11) für je zwei Zahlen a und b gilt es ein x, so dass a + x = b gilt.
Dieses x bezeichnet man als b − a, und 0 − a schreibt man auch −a.
Und wenn wir schon dabei sind, führen wir auch gleich die Bruchzahlen ein,
also die Zahlen a/b (wobei b, wie wir wissen, verschieden von 0 sein muss). Wir
definieren 1/3 als je Zahl x, für die 3 × x = 1 gelten soll (oder 6 × x = 2, 9x = 3,
und so fort... Wieder sieht man, dass man hier dasselbe x erhalten wird.) Also
legen wir fest:
(12) für je zwei Zahlen a und b (mit b 6= 0) gibt es ein x, so dass b × x = a
gilt.
Dieses x bezeichnet man als a/b, oder ab .
Hier eine Randbemerkung. Bei (9) dürfen wir nur verlangen, dass aus a < b
und c > 0 stets a × c < b × c folgt. Das c > 0 ist wesentlich! Denn offenbar ist
für c = 0 stets a × 0 = b × 0, und mit c < 0 dreht sich die Ungleichung sogar um.
Bei N war das kein Problem, da waren alle Zahlen positiv.
Nun aber können wir zusammenfassen. Wir haben die Menge N der natürlichen
Zahlen weit hinter uns gelassen. Eine Menge mit den Eigenschaften (1) bis (12)
heisst geordneter Zahlkörper. Es gibt allerdings viele davon. Die Menge Q aller
Bruchzahlen (rationaler Zahlen) ist nur einer davon: der kleinste.
4.3
Ganze Arbeit?
Die vorige Randbemerkung wird uns zu denken geben. Offenbar genügt es nicht,
sich etwas zu wünschen. Wir können uns nicht wünschen, dass in (9) a×c < b×c
28
für alle c gilt. Hier scheint das Wunschprinzip auf eine Art Realitätsprinzip zu
stossen.
Bei (11) könnte man etwa fragen: gibt es denn so ein x wirklich? Oder ist
es nur ein Wunschobjekt, dass sich bei näherem Hinsehen als Fata Morgana entpuppt?
Die erste Gegenfrage ist: was heisst ’gibt es wirklich’? So wirklich wie diese
Tür oder dieser Schrank? In diesem Sinn wohl nicht. Auch glauben wir ja nicht
ernsthaft, dass es andere Objekte der Mathematik, wie etwa Punkte und Gerade,
’wirklich’ gibt. Es sind Begriffe. Wir können uns sogar etwas vorstellen unter
diesem zahlbegriff, etwa die ganzzahligen Punkte auf dem Lineal. Aber solche
privaten Vorstellungen sind ja suspekt, ähnlich wie die sogenannten ’qualia’. (Ich
kann ja nicht sicher gehen, dass Sie und ich bei ’blau’ dieselben Empfindungen
haben. Ich kann nur überprüfen, ob der Gebrauch, den wir vom Wort ’blau’
machen, etwa wenn wir das Meer sehen oder den Himmel, übereinstimmt.) Es
könnte ja auch jemand behaupten, dass er sich einen viereckigen Kreis vorstellen
kann: das ist nicht widerlegbar, was sollte ich damit anfangen? Die tiefere Frage
ist also: steckt in meinem Wunschobjekt −3 ein innerer Widerspruch? Sind die
ganzen Zahlen inkonsistent? Wie lässt sich dieser Verdacht ausschliessen?
Sie werden vielleicht schon die schlechte Nachricht gehört haben: ganz ausschliessen lässt er sich nicht. Das hat Gödel gezeigt, und wir kommen später darauf
zu sprechen. Aber was man zeigen kann, ist: wenn die natürlichen Zahlen keinen
Widerspruch enthalten, dann auch nicht die ganzen Zahlen (und die Bruchzahlen,
etc). Man zeigt das, indem man die ganzen Zahlen, die Bruchzahlen etc auf die
natürlichen Zahlen zurückführt, gewissermassen als Überbau. Ich will diese Konstruktionen nur kurz andeuten, um eine erste Vorstellung zu vermitteln.
Die Absicht ist klar: wir wollen eine Zahl x erfinden, die 5+x = 2 erfüllt. Das
ist keine natürliche Zahl, also ist sie irgend eine virtuelle Zahl, eben ein Konstrukt.
Wir definieren also einfach (−3) als dieses x, zunächst bloss als Gedankenexperiment. Dann gilt 5 + (−3) = 2. Also ist (−3) durch 2 und 5 definiert. Hier taucht
aber die erste Hürde auf. Denn ebenso ist (−3) auch durch 3 und 6, oder durch
7 und 10 definiert, wie wir gesehen haben. Viele Aufgaben ’man löse a + x = b
führen zur selben Lösung. Wie geht man da vor?
Zunächst bildet man alle Paare (a, b) natürlicher Zahlen. Stellen Sie sich diese
Paare in einem Rechtecksschema vor, wie Gitterpunkte in der kartesischen Ebene
(Fig 4.3). Was wir uns intuitiv unter so einem Paar ((a, b) vorstellen wollen (das ist
aber keine Definition, nur Anschauung!) ist eben die Differenz b − a (die noch gar
nicht erklärt ist wenn a ≤ b), also die Lösung der Aufgabe a+x = b. Auf den Parallelen zur Diagonale haben alle Paare dieselbe Differenz. Anders ausgedrückt,
29
zwei Paare (a, b) und (a0 , b0 ) liegen auf derselben Parallele, wenn a + b0 = a0 + b),
d.h. b − a = b0 − a0 , und stellen verschiedene Aufgaben mit derselben Lösung
dar. Jeder solchen Parallelen ordnen wir nun eine ’ganze’ Zahl zu: der Diagonalen
selbst die 0, den Parallelen darunter (dort ist a > b) die Zahlen 0 10 , 0 20 ,... und denen
darüber (−1), (−2) usw. Warum sind hier Gänsefüsschen gesetzt? Weil es sich
jetzt um ganze Zahlen handelt. Die sind unserem Zugang gemäss Parallelen im
Zahlengitter, und somit Mengen von Paaren natürlicher Zahlen, also etwas ganz
anderes als die natürlichen Zahlen selbst. Aber diese ’positiven’ ganzen Zahlen
wollen wir schnellstmöglich mit den natürlichen Zahlen identifizieren, und die
Gänsefüsschen vergessen. Wir taufen einfach um.
Als nächstes definiert man die Addition von Zahlenpaaren ’komponentenweise’: (a, b) + (c, d) := (a + c, b + d). Das liefert eine Addition nicht nur
der Paare, sondern der Parallelen (es kommt nicht darauf an, welche Gitterpunkte
man auf den Parallelen wählt, man erhält immer dieselbe ’Summenparallele’). Für
die Parallelen, die natürlichen Zahlen entsprechen, liefert das dieselbe Summe
wie für die natürlichen Zahlen selbst. Dann zeigt man, dass die Eigenschaften
(1),(2), (3), (4),(5),(6) erfüllt sind, jetzt aber für die ganzen Zahlen, nicht nur für
die natürlichen. Und schliesslich zeigt man, dass für diese Objekte, also unsere
ganzen Zahlen, auch (10) und (11) gilt.
Achtung: wir sind noch nicht ganz fertig! Jetzt muss man noch zeigen, dass
man auch eine Multiplikation von ganzen Zahlen einführen kann, die auf den
natürlichen Zahlen mit der üblichen übereinstimmt und auch die Eigenschaften
(3)(4)(5)(6) besitzt. Das Produkt des Zahlenpaars (a, b) mit (c, d) wird definiert
als Zahlenpaar (ac+bd, ad+bc), was nicht gerade nahe liegt (ausser man bedenkt,
dass (ad+bc)−(ac+bd) = (b−a)(d−c)). Wieder werden Parallelen in Parallelen
übergeführt. Weiters kann man zeigen, dass man die ganzen Zahlen so anordnen
kann, dass (7), (8), (9) gilt und die natürlichen Zahlen dabei so geordnet sind wie
gehabt. Auch das ist nicht schwer, die Parallelen sind ja von links oben nach
rechts unten geordnet.
4.4
Bruchwerk
Und jetzt kommt das nächste Problem, die Bruchzahlen. Im Wesentlichen gilt
’alles wie vorhin’. Wir betrachten wieder alle Paare ganzer Zahlen (m, n), also
der Gitterpunkte in der Ebene (Fig.4.5). (Ganz im Vertrauen: (m, n) soll dem
Bruch m/n entsprechen.) Da wir nicht durch 0 dividieren können, lassen wir
die Punkte (m, 0) weg. Dann fassen wir wieder Punkte zu Geraden zusammen,
diesmal alle Punkte auf dem Strahl durch (m, n) und (0, 0). (Zwei Punkte (m, n)
30
und (m0 , n0 ) liegen somit auf demselben Strahl, wenn mn0 = m0 n). Diese Strahlen
entsprechen den rationalen Zahlen. Natürlich wollen wir den Strahl durch (m, 1)
(also den ’Bruch’ m/1) mit der ganzen Zahl m identifizieren. Jetzt definieren wir
eine Multiplikation von rationalen Zahlen. (m, n) × (m0 , n0 ) wird als (mm0 , nn0 )
erklärt. Das liefert eine Multiplikation von Strahlen (dh es kommt nicht drauf an,
welches Paar (m, n) wir auf dem Strahl auswählen). Diese Multiplikation stimmt
für die ganzen Zahlen mit der übliche überein. Und jetzt folgt daraus: wir können
dividieren, also für alle rationalen Zahlen a, b mit a 6= 0 die Gleichung ax = b
lösen; die Lösung ist wieder eine rationale Zahl.
Mit der Multiplikation läuft somit alles nach Wunsch, aber haben wir nicht
die Addition etwas aus den Augen verloren? Nun, wir definieren die Addition
von Paaren (a, b) und (c, d) ganzer Zahlen als (ad + bc, bd). Und wieder kann
man zeigen: das liefert eine Operation auf den rationalen Zahlen (führt also die
Strahlen in Strahlen über). Sie stimmt auf den ganzen Zahlen mit der üblichen
Multiplikation überein, und erfüllt (1)(2)(6)(10)(11). Schliesslich definieren wir
noch eine Anordnung auf Q (das ist leicht, ein Strahl ist grösser als der andere
wenn der obere Halbstrahl im Uhrzeigersinn hinter dem anderen oberen Halbstrahl liegt). Jetzt können wir die Eigenschaften (8) und (9) überprüfen, alles
passt. Und damit wir auch die Visualisierung mittels der Zahlengeraden erhalten,
betrachten wir die Schnittpunkt aller Strahlen mit der Horizontalen durch (0, 1).
Jedem Strahl entspricht ein Schnittpunkt, der ist jetzt unsere rationale Zahl.
Die rationalen Zahlen haben eine sonderbare Eigenschaft: es gibt keine nächst
grössere rationale Zahl (während es zu jeder ganzen Zahl eine nächstgrössere
ganze Zahl gibt). Wenn a eine rationale Zahl und b die ’nächstgrössere’ wäre,
kämen wir sofort zu einem Widerspruch: denn (a + b)/2 wäre ja auch eine rationale Zahl, und näher bei a als es b ist. Man sagt: die rationalen Zahlen liegen dicht.
Wir können das noch präzisieren. Alle endlichen Dezimalbrüche m/10n sind rationale Zahlen besonderer Gestalt. In jeder noch so kleinen Lücke liegen endliche
Dezimalbrüche. Denn sei die Länge der Lücke. Für hinreichend grosse n gilt
1/10n < . Der Dezimalbruch m/(10)n (wobei m ganz ist) hat Abstand 1/(10)n
vom nächstgrösseren (m+1)/10n , also liegt mindestens ein solcher Dezimalbruch
in der Lücke der Länge .
Wir haben jetzt Q als einen Zahlenkörper erhalten, noch dazu einem angeordneten. Jetzt können wir also nach Herzenslust addieren, subtrahieren, multiplizieren und dividieren. War es der Mühe wert? Für Philosophen, glaube ich, nur
um deutlich vor Augen zu führen, wie bedenkenlos Mathematiker mit der ’Essenz’ der Zahlen umgehen (mal sind es Paare, dann Gitterpunkte, dann Parallelen,
dann Strahlen...), und mit welcher Inbrunst sie ihre Rechenregeln verteidigen. Die
31
Konstrukte sind nur dazu da, um nachzuweisen, dass man ein ’Modell’ aufzeigen
kann, das die Rechenregeln erfüllt, dass diese also keinen Widerspruch enthalten
(wenn die natürlichen Zahlen es nicht tun).
4.5
Wurzelbehandlung
Wir sollten zufrieden sein. Natürlich sind wir es nicht!
Warum nicht?
√ Weil es Längen gibt (etwa die der Diagonalen des Einheitsquadrats, also 2) die keine rationalen Zahlen sind. Diese Diagonale spielt
übrigens, in ganz anderem zusammenhang, eine wichtige Rolle in einem platonischen Dialog ’Menon’. Dort stellt Sokrates einem jungen unverbildeten Sklaven
die Frage: wie lang muss die Seite eines Quadrats sein, dessen Flächeninhalt doppelt so gross wie das Quadrat mit Seitenlänge Eins? Der Sklave sagt zuerst: die
Seite muss doppelt so lang sein (Fig.4.5). Sokrates weisst ihm nach, dass dann das
Quadrat vierfachen Flächeninhalt hätte, und bringt durch
√ geschicktes Fragen den
Sklaven schliesslich zur richtigen Antwort, nämlich 2, ohne ihn je zu belehren.
Da der Junge nie in Geometrie unterrichtet wurde, folgerte Plato, dass das Wissen
in ihm schon vorhanden war, also mathematische Wahrheiten eine eigene Existenz
besitzen. Das ist eine Auffassung, die von grosser philosophischer Bedeutung war,
aber heute bekennt sich kaum ein Mathematiker
dazu.
√
Der Beweis √
der Irrationalitt von 2 hat die Griechen angeblich sehr bestürzt.
Angenommen, 2 ist eine rationale Zahl n/m. Wir können annehmen, dass die
natürlichen Zahlen n und m nicht beide gerade sind, sonst kürzen wir einfach. Es
gilt 2 = n2 /m2 , daher ist n2 gerade, und somit auch n, also n = 2p für irgend
ein p. Daher ist 2m2 = 4p2 , somit m2 = 2p2 , also ist m2 gerade, also ist auch m
gerade, das geht aber nicht, da wir ja dann noch gekürzt haben könnten!
Also gibt es keine rationale Zahl, die x2 = 2 löst. Wir brauchen noch mehr
Zahlen! Aber haben wir denn noch Platz?
Um die reellen Zahlen zu erhalten, können wir bei Fig 4.4 bleiben, aber betrachten nur die obere Hälfte. Anschaulich gesprochen: wie wir gesehen haben, wird
nicht jeder Halbstrahl durch√(0, 0) durch einen weiteren Gitterpunkt gehen. Der
Halbstrahl mit Neigung 1/ 2 etwa tut es nicht. Wir ordnen jetzt jedem Halbstrahl eine reelle Zahl zu (und jene Halbstrahlen, die durch einen Gitterpunkt
gehen, entsprechen wie bisher rationalen Zahlen). Jeder solche Halbstrahl teilt
die Menge der Gitterpunkte in der oberen Halbebene in zwei Teile. Falls er durch
Gitterpunkt führt, ordnen wir diese dem linken Teil zu – das ist einfach eine Vereinbarung.
32
Oder einfacher, der Halbstrahl bildet einen Schnitt: die Menge Q (auf der Horizontalen durch (0, 1)) wird dadurch in zwei Teile zerlegt, eine Obermenge und
eine Untermenge (die mit jeder rationalen Zahl auch alle kleineren enthält). Wenn
der Schnitt durch eine rationale Zahl r führt, ordnen wir sie der Untermenge zu
(entsprechend unserer Vereinbarung). Dadurch setzen wir fest, dass eine Obermenge kein kleinstes Element besitzt (r hat‘ja kein nächstgrösseres).
Wenn die Untermenge ein grösstes Element besitzt, so fassen wir sie als die
entsprechende rationale Zahl auf. Aber es muss kein grösstes Element geben.
ZB ist die Menge aller rationalen Zahlen r = m/n, die entweder ≤ 0 sind oder
r2 ≤ 2 erfüllen, eine Untermenge, besitzt aber
√ kein grösstes Element. Diese
Menge definieren wir jetzt als die reelle Zahl 2.
Also fassen wir die reellen Zahlen als Untermengen auf. Als Summe von
zwei Untermengen definieren wir die Menge aller Summen von zwei rationalen
Zahlen, von denen je eine in der einen, die andere in der anderen Untermenge
liegt. Ebenso für das Produkt (nur mit den Vorzeichen muss man etwas aufpassen).
Und man zeigt jetzt (leicht, aber langwierig), dass man damit rechnen kann wie
bisher, und im Sonderfall der rationalen Zahlen die bisherigen Werte für Summe
√
und Produkt erhält. Insbesondere wird das Produkt der irrationalen Zahl 2 mit
sich selbst eine rationale Zahl liefern, nämlich 2.
Wir haben also die Menge der rationalen Zahlen zu jener der reellen Zahlen
2
erweitert, und erhalten jetzt √
eine Lösung
√ der Gleichung x = 2. Wir erhalten
sogar zwei Lösungen (neben 2 auch − 2). Das soll man nicht vergessen, sonst
kommen Fehlschlüsse wie der folgende zustande:
16 − 36 = 25 − 45
81
81
16 − 36 +
= 25 − 45 +
4
4
9
9
(4 − )2 = (5 − )2
2
2
9
9
(4 − ) = (5 − )
2
2
4 = 5.
4.6
Vollständigkeit
So konstruiert man also die reellen Zahlen. Sie bilden einen geordneten Zahlkörper,
wie die rationalen Zahlen. Aber im Gegensatz zu Q ist R unter der Bildung von
33
Grenzwerten abgeschlossen. Was heisst das? Nun, die rekursiv definierte Folge
an+1 =
1
an
+
2
an
(mit a1 = 1), also die folge 1, 32 , 17
, ... ist eine Folge rationaler Zahlen, und besitzt
12
einen Grenzwert√a. Der aber erl̈lt a2 = 2 und ist daher nicht rational. Er ist
nämlich gerade 2 (und so berechnet man auch die Wurzel von 2). Der Grenzwert
fällt in eine der (’unendlich kleinen’) Lücken zwischen den rationalen Zahlen. In
diesem Sinn ist R vollständig: alle Grenzwerte gehören dazu.
Noch etwas ausführlicher. Ein (abgeschlossenes, beschränktes) Intervall [a, b]
ist die Menge aller rellen Zahlen x, die a ≤ x ≤ b erfüllen. Betrachten wir
eine Menge von ineinandergeschachtelten abgeschlossenen Intervallen In . Also
I1 ⊇ I2 ⊇ ... ⊇ In ⊇ In+1 ⊇ .... Man kann zeigen: es gibt mindestens eine reelle
Zahl, die in allen diesen Intervallen liegt (übrigens genau eine, wenn die Längen
der Intervalle eine Nullfolge bilden). (Für offene Intervalle, also Mengen reeller
x, die a < x < b erfüllen, muss das nicht gelten. Betrachten Sie etwa die Folge In
aller reeller zahlen x mit 0 < x < 1/n. Wenn ein x in allen In läge, wäre x > 0.
Aber dann existiert ein n > 1/x, dh. x > 1/n, dh x ∈ In wäre falsch!
Dieses Intervallschachtelungsprinzip
(für abgeschlossenen beschränkte Inter√
valle) gilt aber nicht für Q. Da 2 = 1, 41... gilt ja
√
1≤ 2≤2
15
14 √
≤ 2≤
10
10
142
141 √
≤ 2≤
100
10
usw. und es gibt keine rationale Zahl, die in allen diesen Intervallen I1 = [1, 2],
I2 = [14/10, 15/10], I3 = [141/100, 142/100] liegt. Die ganze Theorie der Grenzwerte beruht letztlich auf dieser Vollständigkeit der reellen Zahlen. Man kann
sagen: die reellen Zahlen erhält man aus den rationalen, wenn man die Grenzwerte von Folgen rationaler Zahlen dazunimmt. Wenn man diesen Schritt noch einmal durchführt (also die Grenzwerte von Folgen reeller Zahlen betrachtet) kommt
nichts neues mehr hinzu. (Übrigens muss man zu den Axiomen der euklidischen
Geometrie auch das Intervallschachtelungsprinzip dazunehmen.)
34
4.7
Imaginäres
Wer aber meint, in der Konstruktion von immer grösseren Mengen von Zahlen
endlich innehalten zu können, der irrt. Den jetzt taucht die Gleichung x2 = −1
auf, und wieder finden wir keine Lösung. Nun scheint das Problem nicht so
gravierend wie bei x2 = 2. Denn bei letzterer Aufgabe wussten wir ja, dass etwas
herauskommen muss – nämlich die Länge der Diagonalen des Einheitquadrats.
Dagegen wissen wir, dass das Quadrat einer reellen Zahl nicht negativ sein kann.
x2 + 1 = 0 scheint eine blosse Scherzfrage zu sein.
Trotzdem begannen Mathematiker der Renaissance damit zu rechnen. Sie
taten so, als ob es eine Lösung gäbe, dh. sie führten eine virtuelle Lösung ein, die
’imaginäre Zahl’ i. Sonderbarerweise liess sich damit rechnen, unter Verwendung
von i konnte man zB eine Formel für die reellen Lösungen kubischer Gleichungen angeben. Die Zahl i, zunächst als Taschenspielerei eingefährt, wurde immer
unerlässlicher, und immer faszinierender: Euler bewies zb die geradezu magische
Formel
eiπ + 1 = 0
eine rätselhafte Beziehung zwischen den ’wichtigsten’ Zahlen: der Null, der Eins,
der Kreiszahl π, der Zahl e und der imaginären Zahl i.
Aber erst bei Gauss legte die Zahl i ihren phantastischen Charakter ab. Gauss
fand eine geometrische Interpretation, an Hand derer alles plötzlich ganz einfach
wurde. Er setzte die i nicht auf die Zahlengerade, sondern darüber. Genauer:
er betrachtete die Menge aller Paare (a, b) reeller Zahlen (also aller Punkte in der
kartesischen Ebene). Die Paare (a, 0) liegen alle auf einer Achse – eben der reellen
Zahlengeraden. Gauss setzte jetzt einfach i := (0, 1)! Mit einem Schlag wurde
alles transparent. (Dass zwei völlig Unbekannte, Argand und Wessel, dieselbe
Idee schon früher hatten und von niemanden beachtet wurden, ist eine andere
Geschichte.)
Nochmals: Ein Paar (a, b) reeller Zahlen wurde interpretiert als die ’komplexe Zahl’ a + ib. Die Addition komplexer Zahlen ist einfach die komponentenweise: Also (a, b) + (c, d) := (a + c, b + d). Die Multiplikation ist etwas
weniger naheliegend: (a, b) × (c, d) := (ac − bd, ad + bc). Aber diese Definition
lässt sich leicht begründen, denn (a + ib)(c + id) gibt, formal ausmultipliziert,
ac + (i2 )cd + i(ad + bc). Wir sehen also auch hier wieder, was sich wie ein roter
Faden durch dieses Kapitel zieht: Motor des Fortschritts ist nicht die Frage nach
dem ’Wesen’ oder der ’Natur’ dieser oder jener Zahl, sondern der Wunsch, die
gewohnten Rechenregeln beizubehalten. Zahlen sind weiter nichts als Platzhalter
für Rechnungen. Das Symbol 3 bedeutet etwas ganz anderes, je nachdem, ob es
35
für ein Element von N, von Q, von R oder von C steht. Natürliche Zahlen eignen
sich zum Zählen, reelle Zahlen zum Messen, komplexe Zahlen für die Quantenmechanik, aber für die Mathematik ist nur wichtig, wie man mit ihnen rechnen
kann.
Die Multiplikation in C, definiert durch den Wunsch, die üblichen Rechenregeln beizubehalten und den Wunsch, eine Lösung für x2 = −1 zu erhalten, hat
eine überraschende geometrische Interpretation. Jeder von 0 verschiedenen komplexen Zahl entspricht ein Abstand (von der Null) und ein Winkel (zum Halbstrahl der positiven reellen Zahlen). Multipliziert man zwei komplexe Zahlen, so
werden die Abstände (reelle Zahlen!) miteinander multipliziert und die Winkel
addiert. Die Multiplikation mit einer komplexen Zahl ist also eine Drehstreckung
(Drehung um einen Winkel, Streckung um einen Faktor) in der Ebene der komplexen Zahlen. Die Zahlengeraden denken wir uns darin eingebettet als die horizontale Gerade durch den Nullpunkt. Auf dieser Zahlengeraden liefern die neuen
Rechenoperationen (die für die komplexe Ebene eingeführt sind) nichts anderes
als die uns gewohnten Rechenoperationen für reelle Zahlen. Jetzt ist es wieder ein
leichtes, die Rechengesetze (1) bis (9) nachzuprüfen, und sich zu vergewissern,
dass sie (auf die reellen Zahlen angewandt) das Übliche liefern. Nicht nur Euler’s Zauberformel wurde so verifizierbar, es stellte sich heraus, dass die Analysis
im Komplexen viel einfacher, schöner und eleganter wurde. Allerdings müssen
wir auf die Anordnungsregeln (11) und (12) verzichten. Hier hilft das Wünschen
nichts mehr. In C kann man zwar leicht eine Anordnung < einführen, die (10)
erfüllt, aber keine, die mit den Rechenoperationen verträglich ist.
Jetzt mag man denken: so, wie wir ein bestimmtes Element i eingeführt haben
als Lösung der Gleichung x2 + 1 = 0, können wir auch für beliebige andere Gleichungen verfahren. Die wunderbare Nachricht: das ist nicht mehr nötig! Schon
jetzt können wir alle Gleichungen lösen. Genauer gilt der sogenannte Fundamentalsatz der Algebra: wenn
xn + an−1 xn−1 + ... + a1 x + a0 = 0
eine beliebige Gleichung n-ten Grades ist (wobei die ai reelle oder komplexe
Zahlen sind), so existieren n komplexe Zahlen c1 ,...,cn so dass
xn + an−1 xn−1 + ... + a1 x + a0 = (x − c1 )...(x − cn )
für alle komplexen Zahlen x gilt. Insbesondere sind die ci ’s (die nicht unbedingt
voneinander verschieden sein müssen) die Lösungen obiger Gleichung. Man sagt
daher: der Körper C ist algebraisch abgeschlossen. Vollständig ist er übrigens
auch.
36
4.8
Hyperkomplexe Zahlen
Fertig? Ja und nein. Gleich nachdem Gauss die komplexen Zahlen auf ein festes
Fundament gestellt hatte, begann die Suche nach noch grösseren Zahlkörpern.
Die Strategie war klar: wenn das Multiplizieren von Paaren reeller Zahlen soviel
Erfolg gebracht hat, was darf man dann erst von der Multiplikation von Tripeln
erwarten? (Das Addieren ist ja klar, man addiert komponentenweise.) William
Hamilton, einer der grössten Mathematiker seiner Zeit, suchte jahrelang nach
so einer geeigneten Multiplikation. Heute weiss man, dass es nicht geht. Aber
Hamilton entdeckte, dass man zwar keine Tripel, wohl aber Quadrupel multiplizieren kann. Das war die Geburtsstunde der Quaternionen.
Diese Quaternionen haben allerdings einen Makel: die Multiplikation ist nicht
kommutativ, d.h. (3) gilt nicht. Später entdeckte man auch Oktonionen (oder Oktaven), also geordnete 8-Tupel reeller Zahlen. Hier geht nicht nur die Kommutativität der Multiplikation flöten, sondern auch die Assoziativität, also (2). Im
Lauf des 20. Jahrhunderts wurde bei Untersuchungen ’hyperkomplexer Zahlen’
klar, dass man hier an einer Endstation angelangt war. ’Vernünftig’ rechnen (und
insbesondere dividieren) kann man mit n-Tupeln nur, wenn n = 1, 2, 4, 8.
Und jedes Erweitern des Zahlbegriffs über die reellen Zahlen hinaus geschieht
auf Kosten der einen oder anderen Rechenregel.
37
5
ENDLICH UNENDLICH
5.1
Cantors Paradies
Das Unendliche war jahrtausendelang den Theologen vorbehalten und Mathematikern wie Philosophen gleichermassen suspekt. Aristoteles liess nur das PotentialUnendlich zu, nicht das Aktual-Unendliche, also kein vollendetes Unendliches,
sondern nur einen Progress in Unendliche. Die Scholastiker hatten ihre liebe Not
mit dieser Selbstbeschränkung (denn die Allmacht Gottes hat ja zweifellos aktual
unendlich zu sein).
Bis weit ins 19. Jahrhundert näherte man sich also dem Begriff des Unendlichen nur mit viel Misstrauen. Hier einige Zitate:
Descartes: ’Wir werden uns nicht mit Streitigkeiten über das Unendliche ermüden,
denn bei unserer Endlichkeit wäre es verkehrt, wenn wir versuchten, etwas darüber
zu bestimmen und es so gleichsam endlich und begreifbar zu machen...denn nur
der, der seinen Geist für unendlich hält, kann glauben, hierüber nachdenken zu
müssen’.
Leibniz: ’Wir haben keine Vorstellung eines unendlichen Raumes’. (An anderen Stellen verteidigt Leibniz aber das aktual-Unendliche explizit).
Gauss: ’So protestiere ich gegen den Gebrauch einer unendlichen Grösse.’
Der deutsche Mathematiker Georg Cantor (1845-1918) war der erste, der im
Unendlichen weiterzählte. (Vorläufer hatte er allerdings, nämlich zumindest Bolzano
und Dedekind – letzterer beeinflusste Cantor stark).
Cantors Mengenlehre schockierte nicht wenige seiner Kollegen, doch David
Hilbert wurde sofort zum begeisterten Befürworter der neuen Methoden. Hilberts
Kampfruf: ’Aus Cantors Paradies soll uns niemand vertreiben!’ wurde in der
Gemeinschaft der Mathematiker bald mehrheitsfähig.
Die Mengenlehre wird einerseits verwendet, um mit dem Begriff des Unendlichen zu operieren, und andrerseits, um eine feste, einheitliche Basis für alle
Zweige der Mathematik zu erhalten.
Eine Menge ist laut Cantor ’eine Zusammenfassung von bestimmten wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens (welche die
Elemente genannt werden) zu einem Ganzen’. So eine Erläuterung mag hilfreich sein, ist aber selbst kein Teil einer mathematischen Theorie. Die meisten
Mathematiker stellen sich wohl unter einer Menge so etwas wie einen Sack oder
eine Schachtel vor, oder vielleicht einen Ordner (die Elemente wären dann die
Dateien). Cantor selbst sagte, er denke bei einer Menge an einen Abgrund.
38
5.2
Mächtige Mengen
Beispiele von Mengen sind etwa: Die Menge der Zuhörer in diesem Hörsaal; die
Menge N = {1, 2, 3, ...} der natürlichen Zahlen; die Menge, die aus diesen drei
Kreidestücken besteht. Eine Menge kann ihrerseits Element einer Menge sein
(so ist jede ganze Zahl eine Menge von Zahlenpaaren, usw.). Ebenso kann ja ein
Ordner seinerseits Ordner enthalten.
Zwie Mengen A und B sind gleich, wenn jedes Element von A auch Element
von B ist und umgekehrt. Insbesondere gibt es genau eine leere Menge, also ’die’
leere Menge, sie wird üblicherweise mit φ bezeichnet (man kann sich darunter
einen leeren Sack vorstellen, oder einen leeren Ordner, allerdings ist hier Vorsicht
geboten: es gibt ja nicht nur einen leeren Sack, oder einen leeren Ordner, aber
es gibt nur eine leere Menge!). Wenn jedes Element von A zu B gehört, nennt
man A eine Teilmenge von B. Man muss unterscheiden zwischen dem Element a
von A und der Menge {a}, die nur das eine Element a besitzt und eine Teilmenge
von A ist. Ebenso unterscheidet man zwischen einer Datei und einem Ordner, der
nur diese Datei enthält. Wenn a Element von A ist schreibt man a ∈ A, wenn V
Teilmenge von A ist V ⊆ A.
Eine Abbildung f von A in B ordnet jedem a ∈ A genau ein b ∈ B zu.
Man schreibt b = f (a). Wenn aus x 6= y stets f (x) 6= f (y) folgt, heisst f
injektiv; wenn es für jedes b ∈ B ein a ∈ A gibt mit b = f (a) dann ist f surjektiv; schliesslich heisst f bijektiv, wenn f sowohl injektiv als auch surjektiv ist.
(Fig.5.1). Zwei Mengen A und B heissen gleichmächtig, wenn es eine bijektive
Abbildung von A auf B gibt, also eine umkehrbar eindeutige Zuordnung (oder:
eine eineindeutige Abbildung, oder eins-zu-eins Zuordnung, das bedeutet immer
dasselbe) zwischen den Elementen von A und jenen von B.
Eine Menge A heisst endlich, wenn es eine natürliche Zahl n gibt, so dass A
zu der Menge {1, ..., n} (einem sogenannten Abschnitt der natürlichen Zahlen N)
gleichmächtig ist. A hat dann n Elemente. Zwei endliche Mengen, die gleich
viele Elemente enthalten, sind demnach gleichmächtig (oder gleichzahlig).
Es gibt eine eineindeutige Zuordnung zwischen der Menge der rechten und der
linken Ohren in diesem Hörsaal. Die zwei Mengen sind gleichzahlig, das können
wir feststellen, ohne zählen zu müssen.
Die Kombinatorik (manchmal als Kunst des Zählens bezeichnet) befasst sich
mit dem Abzählen und Anordnen endlicher Mengen. Als ganz einfaches Beispiel
sei erwähnt: eine Menge mit n Elementen besitzt 2n Teilmengen (wenn man die
leere Menge, und die volle Menge selbst dazunimmt).
Der einfachste Beweis hierfür verwendet vollständige Induktion. Für n = 1
39
oder 2 ist die Sache klar. Wenn die Behauptung für n gilt, so stimmt sie auch für
n + 1. Denn sei A eine Menge mit n + 1 Elementen, und a irgend ein Element
von A. Entfernen wir a aus A, bleibt uns eine ’Restmenge’ mit n Elementen. Die
hat nach Induktionsvoraussetzung 2n Teilmengen. Es gibt also 2n Teilmengen von
A, die a nicht enthalten; und dementsprechend auch 2n Teilmengen von A, die a
enthalten. Das liefert insgesamt 2 × 2n = 2n+1 Teilmengen von A.
5.3
Abzählbares
Die Menge der ungeraden Zahlen hat offenbar dieselbe Mächtigkeit wie die Menge
der geraden Zahlen: die Abbildung, die jeder ungeraden Zahl (etwa der 3) ihren
Nachfolger (also 3+1=4) zuordnet, liefert die gewünschte Bijektion.
Aber es gibt, sonderbarerweise, ebenso viele gerade wie natürliche Zahlen
(Fig. 5.2). Das wird etwa durch die Zuordnung n → 2n vermittelt, die jeder
natürlichen Zahl eine gerade Zahl zuordnet und umgekehrt. Eine (unendliche)
Menge A kann also Teilmengen besitzen, die gleichmächtig sind, obwohl sie von
A verschieden sind! Das wird als das Paradox von Galilei bezeichnet. (Bei
endlichen Mengen ist das nicht möglich: es gibt keine eins-zu-eins Zuordnung
eines Abschnitts auf einen kleineren Abschnitt. Auch das lässt sich durch vollständige
Induktion beweisen. Bei unendlichen Mengen A ist es umgekehrt immer möglich,
durch Weglassen eines oder mehrerer Element eine Teilmenge zu erhalten, die gleichmächtig ist, also, schlampig gesprochen, gleich viele Elemente enthält (obwohl
sie doch ’kleiner’ ist, also einige Elemente nicht enthält).
Schön wird dieser Sachverhalt durch das berühmte Beispiel von ’Hilberts Hotel’ vor Augen geführt. Stellen wir uns ein so riesiges Hotel vor, dass als Zimmernummern alle natürlichen Zahlen vorkommen. Stellen wir uns weiters vor, dass
das Hotel vollbesetzt ist, aber spätabends noch ein Gast kommt. Der Rezeptionist
muss diesen Neuankömmling nicht abweisen. Nein, er bittet einfach jeden Hotelgast, in das Zimmer mit der nächsthöheren Nummer zu übersiedeln, und schon ist
das Zimmer mit Nummer Eins frei.
Die Mächtigkeit (oder Kardinalität) von N wird mit ℵ0 (Aleph Null) bezeichnet. Mengen mit dieser ’transfiniten’ Kardinalität lassen sich durchnummerieren,
und heissen ’abzählbar unendlich’. Die Menge aller geraden Zahlen ist abzählbar
unendlich, auch die Menge der Primzahlen ist es, obwohl es doch scheinbar so viel
mehr zusammengesetzte Zahlen gibt. Auch die Menge Z der ganzen Zahlen ist
abzählbar. Es fällt nicht schwer, sie durchzunummerieren: 0, 1, −1, 2, −2, 3, −3, ...
Jede ganze Zahl, egal wie weit links oder rechts, kommt irgendwann einmal bei
dieser Abzählung dran (Fig.5.3).
40
Auch die Menge aller Paare (n, m) natürlicher Zahlen ist abzählbar, wenn man
es nur richtig anstellt (Fig.5.4). Und daher haben auch alle rationalen Zahlen Q die
Kardinalität ℵ0 : man zählt die positiven rationalen Zahlen n/m mit genau demselben Verfahren durch, nur überspringt man dabei jene Brüche, die man bereits
gezählt hat.
5.4
Überabzählbar
Jetzt stellt sich die Frage: Haben denn alle unendlichen Mengen gleiche Kardinalität? Zum Glück nein, denn sonst wäre das Unendliche recht langweilig.
Cantor bewies, dass die Menge R aller reellen Zahlen nicht abzählbar unendlich ist, und daher eine grössere Kardinalität als die Menge der natürlichen
Zahlen besitzt. Er verwendete dazu das sogenannte Diagonalisierungsverfahren.
Zu Cantors Beweis: jede reelle Zahl zwischen Null und Eins lässt sich als unendlicher Dezimalbruch, und somit als Ziffernfolge, darstellen. Der unendliche
Dezimalbruch 0,31416 ... heisst zb: 3/10 + 1/100 + 4/1000 + .... Angenommen,
es gibt abzählbar viele solcher Dezimalbrüche. Diese lassen sich dann durchnummerieren, d.h. in Form einer (abzählbar unendlichen) Liste schreiben. Die Liste
beginnt irgendwie so:
0, 3141621...
0, 333333...
0, 5000000...
0, 214757...
...
Bilden wir nun eine reelle Zahl r, indem wir jeweils aus der n-ten Zeile die n-te
Ziffer nach dem Komma wählen (also hier 0, 3307...). Bilden wir daraus, indem
wir jede der Ziffern durch eine andere ersetzen, eine weitere Zahl. Diese Zahl
kann nirgendwo in der Liste vorkommen, zB nicht in der n-ten Zeile, denn ihre
n-te Ziffer unterscheidet sich ja von der n-ten Ziffer von r, und daher auch von
der n-ten Ziffer in der n-ten Zeile. Also war unsere Liste nicht vollständig. Also
kann man die reellen Zahlen nicht durchnummerieren.
Bleibt nur noch zu zeigen, dass die Menge der reellen Zahlen zwischen 0 und
1 dieselbe Mächtigkeit besitzt wie R selbst. Solche Zuordnungen zu finden ist
aber leicht (und auch geometrisch einsichtig, s. Fig.5.5)
Ein ähnliches Diagoalisierungsargument kann man auf die Menge aller Folgen von Nullen und Einsen anwenden. Jede solche Folge entspricht aber einer
41
Teilmenge A von N (die Zahl n gehört genau dann zu A wenn das n-te Glied der
entsprechenden Folge 1 ist. Die Menge der geraden Zahlen entspricht etwa der
Folge 0,1,0,1,0,1,0,...). Also gibt es überabzählbar viele Teilmengen von N.
Die Kardinalität der reellen Zahlen bezeichnet man mit c (für ’Continuum’)
oder, wenn man den zweiten Gesichtspunkt (Anzahl der Teilmengen von N) hervorheben möchte, mit 2ℵ0 .
5.5
Das Auswahlaxiom
Es gibt Mengen mit noch grösserer Mächtigkeit. Cantor hat gezeigt, dass ebenso
wie für (nichtleere) endliche Mengen auch für unendliche Mengen gilt: die Potenzmenge (d.h. die Menge aller Teilmengen) hat stets eine grösserer Kardinalität als
die Menge selbst.
Dass es mit ℵ0 eine kleinste unendliche (oder ’transfinite’) Kardinalität gibt,
scheint zunächst klar: man zieht einfach aus der vorgegebenen Menge A ein Element nach dem anderen, wenn das irgendwann nicht mehr geht, die Menge (der
’Sack’) also geleert ist, dann war die Menge endlich, wenn nicht, hat man eine
eins-zu-eins Zuordnung zwischen N und einer Teilmenge von A, (nämlich der
Teilmenge der ’herausgeholten’ Elemente), und die ursprüngliche Menge A hat
also mindestens die Kardinalität ℵ0 .
Oder ist das doch nicht ganz so klar? Man verwendet hier nämlich das sogenannte Auswahlaxiom. Es wurde erstmals von Zermelo, einem Schüler von
Hilbert, 1908 formuliert, und war zunächst heftig umstritten. Zermelo führte
Axiome für die Mengenlehre ein, die nach einer leichten Modifikation heute als
Zermelo-Fraenkel-Axiome in allgemeinem Gebrauch sind, und er bemerkte bei
der Gelegenheit, dass man für gewisse, bislang für evident gehaltene Schlüsse
dieses Auswahlaxiom braucht.
Das Auswahlaxiom besagt (in einer seiner vielen äquivalenten Formulierungen): liegen beliebig viele paarweise disjunkte, nichtleere Mengen vor (eine sogenannte ’Familie’ von Mengen), so gibt es eine Menge, die mit jeder Menge
dieser Familie genau ein Element gemein hat. Also: man kann aus beliebig vielen
Mengen je ein Element auswählen, gewissermassen ’gleichzeitig’.
Das erfordert unendlich viele Schritte – nämlich jeweils ein Element aus der
betreffenden Menge auszuwählen. Bertrand Russell verdeutlichte das mit einem
Beispiel: stellen wir uns vor, ein Millionär besitzt unendlich viele Paare von
Schuhen, und unendlich viele Paaren von Socken. Aus jedem Paar Schuhe einen
Schuh auszuwählen, ist leicht: man bilde etwa ’die Menge aller linken Schuhe’.
42
Aber wie wählt man aus jedem Paar von Socken einen aus? Um das zu gewährleisten,
fordert man die Gültigkeit des Auswahlaxioms.
Das Auswahlaxiom wird routinemässig verwendet, aber zumeist sind Mathematiker aber recht froh, wenn sie ihren Satz auch ohne das Auswahlaxiom beweisen können. Denn ganz geheuer ist es ja nicht.
5.6
Schöpfung aus dem Nichts
Wie lauten nun die Axiome der Mengenlehre? Heute verwendet man zwei in
gewisser Hinsicht gleichwertige Zugänge. Der eine stammt von Zermelo und
Fraenkel, samt ’Axiom of Choice’ (ZFC), der andere beruft sich auf von Neumann, Bernays und Gödel (NBG). Bleiben wir bei dem ersten System. Es besteht
aus etwa zehn Axiomen, die zunächst festhalten, dass zwei Mengen gleich sind,
wenn ihre Elemente übereinstimmen (das sogenannte Extensionalitätsaxiom), und
die im weiteren sagen, wie man Mengen bilden kann: z.B. zu je zwei Mengen die
Menge aller Paare; oder zu beliebig vielen Mengen die Vereinigungsmenge (alle
Elemente, die in mindestens einer Menge vorkommen: wir schreiben A∪B für die
Vereinigung von A und B); oder zu jeder Menge die Teilmenge aller Elemente, die
eine bestimmte Eigenschaft besitzen; oder mit jeder Menge deren Potenzmenge
(dh. die Menge aller Teilmengen), usw.
Zu jeder Menge A kann man ihren ’Nachfolger’ A+ bilden, indem man als
weiteres Element {A} hinzu nimmt: (es wurde schon erwähnt, dass {A} etwas
anderes als A ist). Also gilt A+ := A ∪ {A}. Durch diese sonderbare Definition kann man die natürlichen Zahlen (die wir bisher als gegeben voraussetzten)
einführen. Man definiert die 0 als φ (die leere Menge, oder der leere Ordner), die
1 als φ∪{φ} = {φ}, (die Menge, die den leeren Sack enthält, oder der Ordner, der
den leeren Ordner als einziges Element enthält), die 2 als {φ}+ = {φ}∪{{φ}}, die
3 als 2 ∪ {2}, usw. So erhält man die natürlichen Zahlen (zugegebenermassen auf
etwas unnatürliche Weise; aber immerhin, die 3 hat Kardinalität 3). Da nämlich
eines der Axiome der Mengenlehre (das sogenannte Unendlichkeitsaxiom) besagt, dass es Mengen gibt, die φ enthalten und mit jedem ihrer Elemente auch
dessen Nachfolger, erhält man solcherart die natürlichen Zahlen als die kleinste Menge mit dieser Eigenschaft. Die Peano-Axiome (mitsamt dem Prinzip der
vollständigen Induktion) werden zollfrei mitgeliefert.
Im Grunde macht man hier nicht viel anderes, als die archaische Einführung
der natürlichen Zahlen durch Striche
|,
||,
43
|||, ...
zu ersetzen durch
{},
{{}},
{{{}}}, ...
der Fortschritt ist also wieder einmal nicht so gross, wie er ausschaut.
5.7
Die Kontinuumshypothese
Cantor vermutete, dass es keine Kardinalität gibt, die grösser als die der natürlichen
Zahlen und kleiner als die der reellen Zahlen (also des Kontinuums) ist. Als
Formel geschrieben, heisst das ℵ1 = 2ℵ0 . Jahrzehntelang versuchte Cantor vergeblich, das zu beweisen. Er erlitt schwere psychische Zusammenbrüche und endete
in einer Nervenklinik.
Beim Weltkongress der Mathematik 1900 in Paris forderte David Hilbert die
Fachwelt mit einer Liste von 23 offenen Problemen aus allen Gebieten der Mathematik heraus. Die Liste wurde berühmt und hat tatsächlich den Gang der Mathematik im 20. Jahrhundert entscheidend beeinflusst. Das allererste Problem auf
Hilberts Liste war die Cantorsche Kontinuumsvermutung. Hilbert hielt es für ’sehr
wahrscheinlich’, dass jede unendliche Teilmenge der reellen Zahlen entweder die
Kardinalität aller natürlichen Zahlen, oder die Kardinalität des Kontinuums hat.
1937 gelang es Kurt Gödel, zu beweisen, dass das Auswahlaxiom nicht im
Widerspruch steht zu den übrigen Axiomen der Mengenlehre, und dass auch die
Kontinuumshypothese nicht im Widerspruch steht zu den Axiomen von ZermeloFraenkel (inklusive Auswahlaxiom).
Das war noch kein Beweis des Auswahlaxioms oder der Kontinuumshypothese.
Aber schon damals vermuteten Mathematiker, dass ein solcher Beweis gar nicht
möglich ist.
Gödel versuchte zu zeigen, dass auch die Negation der Kontinuumshypothese
nicht im Widerspruch zu den Axiomen der Mengenlehre stand. Er versuchte also
zu beweisen, dass die Kontinuumshypothese unabhängig ist von den Axiomen
von Zermelo-Fraenkel (einschliesslich des Auswahlaxioms).
Nach jahrelangen erfolglosen Bemühungen wandte sich Gödel anderen Fragen zu. 1962 gelang es dem jungen amerikanischen Mathematiker Paul Cohen,
die Unabhängigkeit der Kontinuumshypothese zu beweisen. In diesem Sinn ist
Hilberts erstes Problem unlösbar.
Die Lage ist ähnlich wie bei der Geometrie. Genauso wie man eine Geometrie
mit dem Parallelenaxiom und eine Geometrie ohne Parallelenaxiom untersuchen
kann, kann man eine Mengenlehre mit und eine Mengenlehre ohne Auswahlaxiom betreiben, und ebenso eine Mengenlehre mit und eine Mengenlehre ohne die
44
Kontinuumshypothese. In beiden Fällen ist eine der beiden Varianten ist so sehr,
oder so wenig, widerspruchsfrei wie die andere.
5.8
Unmengen
In den ersten Jahren des 20. Jahrhunderts wurde das Vertrauen der Mathematiker
in die Mengenlehre auf eine harte Probe gestellt durch eine Reihe von Paradoxen,
von denen jenes von Bertrand Russell am bekanntesten wurde.
Betrachten wir die Menge aller Mengen U . Da jede Menge A die Beziehung
A = A erfüllt, können wir die Menge alle Mengen etwa schreiben als U := {A :
A = A} (U steht für Universum). Enthält U sich selbst? Das muss wohl so sein,
denn U enthält ja alle Mengen. Also gilt U ∈ U (was etwas sonderbar wirkt
und zu den üblichen Vorstellungen einer Menge als Sack, oder Ordner, nicht recht
passen will). Dann kann man ja auch Mengen betrachten, die sich nicht selbst
enthalten, für die also A 6∈ A gilt. (So enthält die Menge aller Personen in diesem
Hörsaal nicht sich selbst, denn sie ist ja keine Person.) Die Russellsche Menge
ist nun die Menge aller Mengen, die sich nicht selbst enthalten: also V := {A :
A 6∈ A}. Enthält V sich selbst, gilt also V ∈ V ? Wenn ja, dann enthält V nicht
sich selbst, und wenn nein, dann enthält V doch sich selbst. Also haben wir einen
Widerspruch erhalten.
Es gibt mehrere Lösungsmöglichkeiten: man kann etwa verbieten, dass eine
Menge sich selbst enthält. Diese ’ad hoc’-Lösung wird etwa durch die Russellsche
Theorie der Typen eingeschlagen, wobei die Mengen stufenweise angeordnet werden, sodass eine Menge nur Element einer Menge der nächsthöheren Stufe sein
kann (ganz wie bei den Ordnern). Heute neigt man eher zu der Auffassung, dass
man nicht alles als ’Menge’ auffassen darf. Die Axiome der Mengenlehre erlauben es, gewisse Mengen zu bilden: andere ’Zusammenfassungen von Objekten...’ (wie das Cantor formulierte) werden nicht als Menge zugelassen. Man
bezeichnet derlei ’Un-Mengen’ oft verschämt als ’Klassen’. Insbesondere vermeidet man die ’Allmenge’ U , oder besser gesagt, man gewährt ihr nicht den
Status einer Menge. Was allzu umfassend ist, wird verboten. Dann kann man die
Paradoxien von Russell vermeiden.
In dem Tabu, das die Bildung allzu grosser Mengen verbietet, spiegelt sich
etwas von der heiligen Scheu der früheren Denker wieder. Seit Cantor wissen wir,
dass uns das Unendliche nicht verschlossen ist. Aber allzu gross darf es nicht sein.
45
6
6.1
WÜRFELN UND WETTEN
Zufall
Was Zufall ist, hat viele Philosophen beschäftigt. Die Definitionen sind vielfältig.
’Etwas, was sein, aber auch nicht sein kann’, ’was ohne erkennbaren Grund geschieht’,
’eine Wirkung, die durch das Zusammentreffen mehrerer Wirkursachen entsteht’.
Den Dichtern gelangen bessere Defintionen: ’Pseudonym Gottes, wenn er sein
Werk nicht signieren will’ (A. France), ’ein b’soffener Kutscher, der die Leut
zsammführt’ (Nestroy). Natürlich haben Mathematiker nicht die Absicht, den Zufall zu definieren. Sie sind zugleich bescheidener und ehrgeiziger: sie wollen mit
ihm rechnen.
Die Wahrscheinlichkeitsrechnung ist erst relativ spät entstanden, im 17. Jahrhundert. Bei den Griechen spielte sie noch keine Rolle. Aber Menschen haben immer gern mit dem Zufall experimentiert. Die Griechen sahen sich als Erfinder
des Würfelspiels (als Zeitvertreib der Belagerer Trojas), doch die Ägypter kannten den Würfel schon zur Zeit der ersten Dynastie. Das Münzgeld dagegen kam
wirklich erstmals in Griechenland auf, und man darf wohl vermuten, dass bald
darauf ’Kopf oder Adler’ gespielt wurde. Kartenspiele gibt es seit dem Mittelalter. Gutenberg druckte zwar als erstes die Bibel, aber noch im selben Jahr auch
einen Satz Tarockkarten. Lotterien stammen aus dem Florenz der Renaissance.
Die französische Aufklärung bescherte uns das Roulettespiel (als Erfindung eines
Polizeioffiziers). Industrialisierung brachte Glückspielautomaten, Digitalisierung
eine Unzahl von computerisierten Glückspielen.
Dabei sind wir sehr ungeschickt im Berechnen von Wahrscheinlichkeiten.
Ein Beispiel: In einer Gruppe von 365 Personen brauchen keine zwei denselben
Geburtstag zu haben. In einer Gruppe von 366 Personen ist es nicht mehr möglich
(wenn wir Schaltjahre ausser acht lassen). In dem Fall beträgt die Wahrscheinlichkeit, zwei Personen mit demselben Geburtstag zu finden, 100 Prozent. Wie
gross muss die Gruppe sein, damit die Wahrscheinlichkeit, zwei Personen mit
demselben Geburtsdatum zu finden, wenigstens 99 Prozent beträgt? Hier liegen
die meisten Vermutungen viel zu hoch. Es genügt, dass die Gruppe 55 Personen
umfasst. Schon bei 23 Leuten ist die Wahrscheinlichkeit dass zwei gemeinsam
Geburtstag haben höher als 1/2.
Ein weiteres, sehr verblüffendendes Beispiel liefert der sogenannte StanfordQuiz. Nehmen wir an, dass die Wahrscheinlichkeit, Krebs zu haben, 1:1000
beträgt. Stellen wir uns eine Test vor, der die Krankheit untrüglich erkennt,
wenn sie vorliegt, aber mit einer Wahrscheinlichkeit von 5 Prozent auch bei einem
46
Gesunden ein ’positives’ Resultat liefert. Wenn dieser Test bei Ihnen die Diagnose
’Krebs’ liefert, wie gross ist dann die Wahrscheinlichkeit, dass sie auch wirklich
daran erkrankt sind? Die meisten Schätzungen liegen falsch. Die Wahrscheinlichkeit ist kleiner als zwei Prozent. (Denn bei tausend Leuten liefert der Test 50
falsche und nur ein richtiges ’positives’ Ergebnis).
Was ist überhaupt Wahrscheinlichkeit? Umgangssprachlich verwenden wir
den Begriff zumeist in zwei Zusammenhängen. Einmal als ’statistische’ Wahrscheinlichkeit, etwa wenn wir sagen, dass beim Würfeln die Sechs mit Wahrscheinlichkeit 1/6 auftritt. Andrerseit verwenden wir das Wort ’wahrscheinlich’, um
den Grad unserer subjektiven Überzeugung auszudrücken: wahrscheinlich wird
Obama ein zweites Mal gewählt. Das kann nicht statistisch erfasst werden. In
der Wahrscheinlichkeitsrechnung bezieht man sich auf den ersten Wortsinn, obwohl auch der zweite mathematisiert werden kann (etwa über unsere Bereitschaft,
darauf eine Wette einzugehen).
6.2
Geburtsstunde
Mit zwei Würfeln lässt sich die Augensumme 9 auf zweierlei Weise erhalten, als
3+6 oder als 4+5. Ebenso kann man die Augensumme 10 auf zweierlei Weise
erhalten, als 4+6 oder 5+5. Wieso kommt es dann häufiger zur Augensumme 9
als zur Augensumme 10? (Man erhält 9 bei 11,1 Prozent aller Würfe, und 10 bei
8,3 Prozent.) Wenn man mit drei Würfel spielt, kann man die Augensummen 9
und 10 auf jeweils sechs verschiedene Weisen erhalten. Aber diesmal kommt die
10 häufiger vor als die 9.
Pascal wurde vom Chevalier de Mere, der ein passionierter Spieler war und
alles aufzeichnete, mit diesen Fragen konfrontiert. Er korrespondierte darüber mit
Fermat, was wiederum von Huyghens aufgegriffen wurde. Die richtige Antwort
war leicht. Die Würfel sind ja verschieden (stellen wir uns einen weissen und
einen roten vor). Um 5+5 zu erhalten, muss sowohl der weisse als auch der rote
Würfel eine 5 zeigen. Die Wahrscheinlichkeit ist 1/36. Dagegen kann man 6+4
auf zweierlei Weise erhalten: rot zeigt 6 und weiss 4 oder rot zeigt 4 und weiss 6.
Die Wahrscheinlichkeit ist doppelt so gross.
Inzwischen hat sich die Wahrscheinlichkeitrechnung von den Spielsalons emanzipiert. Zunchst wurde sie für Versicherungen angewandt, dann in der statistischen
Physik, dann in der Genetik...Heute ist sie aus Physik, Chemie, Wirtschaft, Biologie nicht wegzudenken. Maxwell nannte sie ’die wahre Logik der Welt’, Laplace
bezeichnete sie als ’den bedeutendsten Gegenstand unserer Erkenntnis’, Russell
erkannte in ihr ’den wichtigsten Begriff der modernen Naturwissenschaften’. Schrödinger
47
hielt fest: ’Der Zufall ist die gemeinsame Wurzel der strengen Gesetzmässigkeiten’,
und Monod sah im Zufall ’die Grundlage des wunderbaren Gebäudes der Evolution’.
6.3
Grundlagen
Eines der Probleme auf Hilberts berühmter Liste fragte nach den Axiomen der
Wahrscheinlichkeitrechnung. Heute verwendet man zumeist die Axiome von Kolmogoroff: die Wahrscheinlichkeit P ist demnach eine Art von Volumen im Raum
der Ereignisse.
Bereits die Frage von de Mere weist auf die zugrunde liegende Interpretation des Begriffs Wahrscheinlichkeit. Offenbar erwarten wir, dass ein Ereignis,
das die Wahrscheinlichkeit P besitzt, in einer langen Reihe von Wiederholungen
ungefähr mit P Prozent Häufigkeit vorkommt. Wenn man also einen zufälligen
Versuch N mal wiederholt, und N(A) die Häufigkeit des Ergebnisses A ist, so erwartet man, dass P ungefähr gleich der relativen Häufigkeit N (A)/N ist, zumindest wenn N sehr gross ist. Bei einem Würfel sollte die Sechs mit Wahrscheinlichkeit 1/6 vorkommen, bei zwei Würfeln die Doppel-Sechs mit Wahrscheinlichkeit 1/36; wenn es zu Abweichungen kommt, werden wir vermuten, dass der
Würfel gefälscht ist.
Bei wahrscheinlichkeitstheoretischen Modellen betrachtet man also beliebig
oft wiederholbare Versuche, deren mögliche Resultate als ’Elementarereignisse’
bezeichnet werden. Beim Werfen von zwei Würfeln etwa ist ’rot zeigt 4, weiss
6’ ein Elementarereignis. Der Stichprobenraum ist die Menge Ω aller Elementarereignisse, also aller möglichen Resultate. Die Teilmengen von Ω werden als
Ereignisse bezeichnet: Beispielsweise ist ’Augensumme 10’ ein Ereignis (es besteht
aus den drei Elementarereignissen (5, 5), (6, 4), (4, 6)). Auch ’beide Würfel zeigen
gleiche Augenzahl’ ist ein Ereignis (es besteht aus den sechs Elementarereignissen (1, 1), (2, 2), ..., (6, 6))). Den Ereignissen A werden Wahrscheinlichkeit P (A) ≥
0 zugeordnet, die wir uns als Grenzwerte der relativen Häufigkeiten N (A)/N
vorstellen, bei N Wiederholungen des Versuchs, wobei N sehr gross ist. Natürlich
muss P (Ω) = 1 gelten. Wenn A und B nicht zugleich eintreten können (die beiden Mengen also kein gemeinsames Element haben) gilt natürlich N (A ∪ B) =
N (A) + N (B), und daher müssen wir P (A ∪ B) = P (A) + P (B) verlangen.
Ausserdem ist P (φ) = 0 und P (Ω) = 1. Tatsächlich verlangt man etwas mehr:
die Wahrscheinlichkeit soll nicht nur additiv im obigen Sinn sein, sondern sogar
für abzählbar unendliche viele Ereignisse additiv.
Zu beachten ist, dass ein Ereignis Wahrscheinlichkeit 0 haben kann, ohne de48
shalb unmöglich zu sein. Etwa beim Glücksrad: jeder Punkt auf dem Umfang
ist ein mögliches Resultat, also gibt es überabzählbar viele Elementarereignisse.
Die Wahrscheinlichkeit, dass der Zeiger in einem vorgegebenen Winkel zu stehen kommt (was ein bestimmtes Ereignis ist), ist zur Grösse des Winkels proportional. Daher hat hier jedes Elementarereignis die Wahrscheinlichkeit 0, denn es
ist in beliebig kleinen Winkeln enthalten. Dennoch darf man nicht sagen, dass das
Elementarereignis unmöglich ist: bei jedem Versuch erhält man ja ein Elementarereigniss. Aber die Wahrscheinlichkeit, dass der Zeiger beim nächsten Mal genau
an derselben Stelle zu stehen kommt, ist kleiner als jede positive Zahl, also 0.
Was ist nun für eine bestimmte Situation das ’richtige’ Modell, mit dem richtigen P? Das ist nicht eine Frage der Wahrscheinlichkeitrechnung, sondern der
Statistik. Diese beiden Wissenschaften verhalten sich zueinander etwa wie die
Geometrie zu Geodäsie. Man muss einiges an geometrischen Grundwissen haben,
um Vermessungen der realen Welt durchführen zu können, und Statistiker müssen
daher Wahrscheinlichkeitsrechnung können, der Umkehrschluss ist nicht zwingend.
Zwei Ereignisse A und B heissen stochastisch unabhängig, wenn das Eintreten
des einen auf die Wahrscheinlichkeit des anderen keinen Einfluss hat. Wenn z.B.
der eine Würfel 6 zeigt, macht das die Augenzahl 6 für den anderern Würfel nicht
wahrscheinlicher. Die Wahrscheinlichkeit dafür ist weiterhin 1/6. dh N(A und
B)/N(B) ist ungefähr gleich N(A)/N, also P(A und B)=P(A)P(B). Beachten wir,
dass es sich hier um eine stochastische Unabhängigkeit handelt, keine kausale. Da
in Österreich die Geburtenrate im Burgenland am höchsten ist, ist das Ereignis ’die
zufällig gewählte Familie hat mindestens drei Kinder’ vom Ereignis ’die Famile
wohnt in der Nähe eines Storchennestes’ nicht unabhängig. Das bedeutet aber
nicht, dass der Storch die Kinder bringt. Oder um ein anderes Beispiel zu bringen:
bei Familien mit drei Kindern sind die Ereignisse ’höchstens ein Mädchen’ und
’die Kinder sind beiderlei Geschlechts’ unabhängig, wass ohne Nachrechnen nicht
einsichtig ist (und für zwei- oder vierköpfige Familien auch falsch ist).
Eine zufällige Veränderliche ist eine Funktion, die vom Zufall abhängt, also
jedem Elementarereignis eine reelle Zahl zuordnet (zB. dem Elementarereignis:
’roter Würfel zeigt a, weisser b’ die Augensumme a + b). Den Erwartungswert
(oder Mittelwert) dieser ’Augensumme’ definiert man als die Summe aller möglichen
Werte, jeweils multipliziert mit der Wahrscheinlichkeit, den Wert zu erhalten.
(Also 3/36 für den Wert 10, 4/36 für die Augensumme 9, usw). Die Augenzahl des ersten Würfels ist ebenfalls eine zufällige Veränderliche, sie nimmt die
Werte 1,2,...,6 mit der Wahrscheinlichkeit 1/6 an, der Erwartungswert ist 7/2 (obwohl man sicher nicht erwarten wird, jemals 3.5 zu würfeln). Der Erwartungswert
49
der Augensumme der beiden Würfel ist 7. Zwei zufällige Veränderliche sind unabhängig, wenn das Ereignis, dass die eine Veränderliche einen bestimmten Wert
annimmt, unabhängig davon ist, welchen Wert die andere annimmt. (Die Augenzahlen von zwei Würfeln sind unabhängig: die Augenzahl des einen Würfels und
die Augensumme der beiden Würfel sind hingegen nicht unabhängig).
6.4
Gesetz der grossen Zahlen
In seiner Ars Conjectandi von 1713 bewies einer der Bernouillis das erste Theorem der Wahrscheinlichkeitsrechnung, das sogenannte ’schwache’ Gesetz der
grossen Zahlen. Wenn X1 , X2 , ... eine Folge von unabhängigen zufälligen Veränderlichen
ist, alle gleich verteilt und daher mit demselben Erwartungswert E, so ist für jede
Zahl die Wahrscheinlichkeit, dass sich der Mittelwert N1 (X1 + ... + XN ) um
mehr als einen vorgegebenen Wert von E unterscheidet, eine Nullfolge, wird
also beliebig klein, wenn nur N (die Anzahl der Wiederholungen) hinreichend
gross ist.
Später wurde das zum ’starken’ Gesetz erweitert: die Wahrscheinlichkeit, dass
der Mittelwert zum Erwartungswert strebt, ist 1. (Der Mittelwert kann zu einem
anderen Wert hinstreben, etwa falls man immer 1 wirft: aber dieses Ereignis,
wiewohl nicht unmöglich, hat Wahrscheinlichkeit 0.)
Was ist der Unterschied zwischen diesen beiden Gesetzen? Aus dem ’schwachen’
folgt etwa: wenn man wieder und wieder (sehr oft) Serien von 1000 Würfen
durchführt, ist die Wahrscheinlichkeit, dass der Mittelwert zwischen 3,4 und 3,6
liegt, mindestens 97 Prozent. Das starke Gesetz sagt: auch wenn der Mittelwert
nach 1000 Würfen ausserhalb dieses Bereichs liegt, wird er irgendwann, wenn
man nur weiterwürfelt, in dem Bereich liegen und ihn nicht mehr verlassen.
6.5
Faire Spiele in St. Petersburg
Ein Gückspiel wird als unfair bezeichnet, wenn die Gewinnerwartung negativ ist.
Ein Kopf- oder Adler-Spiel ist fair, wenn die Münze nicht gefälscht ist.
Betrachten Sie nun etwa das Spiel: Sie dürfen würfeln, und bekommen dann
von der Spielbank soviel Euro, wie sie als Augenzahl gewürfelt haben. Wieviel
würden Sie für die Teilnahme am Spiel zu zahlen bereit sein? Einen Euro wohl
sicher, 4 Euro wohl nicht, denn das liegt ja über dem Erwartungswert: wenn sie
also lange spielen, können Sie ziemlich sicher sein, einen Verlust einzufahren. Mit
4 Euro Eintrittsgebühr ist das Spiel nicht mehr fair. Vielleicht reizt es sie doch,
nach dem Motto: No risk, no fun.
50
Bei Lotterie oder Roulette ist das Spiel nicht fair (z.B. wird bei Zero jeder Einsatz eingezogen, die Gewinnschance auf ’Rot’ ist also nicht 18/36, sondern nur
18/37, dh. etwas kleiner als 50 Prozent. Folgt daraus, dass nur ein Narr Roulette
spielt? So schnell sollte man nicht schliessen. Auch jeder Versicherungsabschluss
ist ein Spiel, und zwar ein unfaires Spiel, denn die Versicherungen wollen ja
Gewinn machen. Trotzdem ist es nicht dumm, sich versichern zu lassen. Besser
mit grosser Wahrscheinlichkeit einen kleinen Verlust erzielen, als mit kleiner Wahrscheinlichkeit einen sehr grossen.
Mit dem Erwartungswert als Gradmesser von ’Fairness’ ist es aber so eine
Sache. Am besten wird das durch das Sankt Petersburger Paradox beschrieben (es
stammt von Bernoulli, der damals am russischen Hof war). Ein Kasino bietet uns
folgendes Spiel an. Wir dürfen Kopf oder Adler spielen, bis wir erstmals Adler
werfen. Geschieht das bereits beim erstem Mal, zahlt uns das Casino 2 Euro, beim
zweiten Mal 4, beim dritten Mal 8 = 23 , beim n-ten Mal 2n . Was würden wir als
faire Gebühr ansehen, um an diesem Spiel teilnehmen zu dürfen?
Nun, was ist der Erwartungswert? Da die Wahrscheinlichkeit, beim n-ten
Wurf erstmals Adler zu werfen, 1/2n ist, so ist der Erwartungswert
2(1/2) + 4(1/4) + ... + 2n (1/2n ) + ... = 1 + 1 + 1 + ...,
also unendlich! Das Gesetz der grossen Zahlen besagt dann, dass unser mittlerer
Gewinn mit Sicherheit gegen Unendlich strebt. Wir müssen nur oft genug spielen
und werden unendlich reich. Also sollten wir bereit sein, jede beliebige Eintrittsgebühr zu zahlen. Und doch würden wohl nur die wenigsten mehr als 20 Euro
zahlen. Wieso?
Der Grund: Der Mittelwert steigt logarithmisch an, also nur extrem langsam
an (Fig Fig 6.1)). Meist kommt Adler schon nach 1,2 oder 3 Würfen. Nur ganz
selten kann es zu riesigen Gewinnen kommen.
6.6
Lotterien
Es gibt grosse individuelle Unterschiede in unserer ’Risikobereitschaft’ oder Risikoaversion. Es gibt Spielernaturen und geborene Pessimisten. Man kann das durch Experimente mit Lotterien nachweisen. Typischerweise wird die Versuchsperson
gefragt, welche der folgenden Alternativen sie bevorzugt:
A: 3000 Euro mit Sicherheit
B: eine Lotterie, bei der man mit 80 Prozent Wahrscheinlichkeit 4000 Euro
erhält und mit 20 Prozent Wahrscheinlichkeit 0 Euro.
51
Der Erwartungswert der Lotterie B ist 3200 Euro, und trotzdem bevorzugen
82 Prozent der Befragten A. Sie sind risikoscheu.
Interessanterweise sieht die Sache bei der nächsten Lotterie ganz anders aus.
Man wähle zwischen:
A: 3000 Euro mit 25 Prozent Wahrscheinlichkeit (und 0 mit 75 Prozent Wahrscheinlichkeit)
B: 4000 Euro mit 20 Prozent (und 0 mit 80 Prozent).
Hier wählen 70 Prozent die zweite Alternative. Warum nicht? Nun, das bemerkenswerte ist, dass der zweite Test dieselben Alternativen bietet wie der erste, ausser dass die Wahrscheinlichkeiten auf jeweils ein Viertel gestutzt sind.
Anders ausgedrückt, den zweiten Test können wir so sehen: zuerst wird eine
Münze zweimal geworfen, und wenn sie beide Male Kopf liefert (was mit einer
Wahrscheinlichkeit von 25 Prozent geschieht), wird der erste Test durchgeführt;
wenn nicht, so bekommt der Spieler gar nichts. Wenn die Spieler nach dem
Münzwurf entscheiden, entscheiden sie anders, als vorher. Derlei Experiment sind
von Allais in den Fünfzigerjahren, später von Kahnemann, Twersky etc durchgeführt
worden (das lieferte einige Wirtschafts-Nobelpreise).
Ein anderes Paradox stammt von Ellsberg. Wenn der Spieler die Häufigkeit
der roten und schwarzen Kugeln in einer Urne nicht kennt, so wird er mit gleicher
Bereitschaft auf rot oder schwarz setzen. Wenn er andrerseits weiss, dass die Urne
gleich viele rote wie schwarze Kugel enthält, so wird er wiederum keine Farbe
bevorzugen. Wenn er aber, bevor er auf eine Farbe setzen muss, zwischen den
beiden Urnen wählen kann (bei der einen ist das Verhältnis der Kugeln 1:1, bei
der anderen unbekannt), so hat er meist eine deutliche Vorliebe für die Urne mit
dem bekannten Inhalt. Die Wahrscheinlichkeitrechnung kann das nicht erklären
- schliesslich beträgt die Gewinnwahrscheinlichkeit in beiden Fällen 50 Prozent.
Diese Paradox ist nicht statistischer, sondern psychologischer Natur. Es wirft ein
bezeichnendes Licht auf unser Verhältnis zu Ungewissheit und Risiko.
6.7
Simpson
Zwei Arten von Medikamenten werden verglichen. Angeblich helfen sie gegen
Kopfschmerzen. Zunächst werden nur männliche Testpersonen verwendet. Medikament Alpha hilft 90 von 240 Männern, die es probieren, und Medikament Beta 20
von 60 Männern. Also ist Alpha besser als Beta - zumindest bei Männern. Als
nächstes werden die Medikamente an Frauen getestet. Alpha wird bei 60 Frauen
probiert und hilft 30 von ihnen; Beta wird von 240 Frauen getestet und hilft in 110
Fällen. Also ist Alpha auch bei Frauen besser als Beta. Aber insgesamt haben je
52
300 Personen die Medikamente Alpha und Beta getestet und Alpha hat in 120
Fällen geholfen, Beta dagegen in 130 Fällen - somit ist Beta doch das bessere!
Was soll ein Statistiker einnehmen gegen die Kopfschmerzen, die dieses Resultat
verursacht?
Das ist ein Beispiel des Simpson-Paradoxes (nach dem Statistiker Simpson,
der es 1951 präsentierte). Es spielt im ’wirklichen’ Leben eine bedeutende Rolle,
so z.B. 1970, als die Universität von Berkeley unter schweren Beschuss kam, weil
mehr Männer als Frauen die Aufnahmeprüfung schafften. Genauere Untersuchungen belegten dann aber, dass in jedem einzelnen Fach, sei es Biologie, Technik,
oder Englische Literatur, Frauen eine höhere Erfolgsquote als Männer bei der
Aufnahmsprüfung hatten. Grob gesprochen, lag das Fatale daran, dass Frauen zu
den ’überlaufenen’ Studien (wie Englisch) eher neigten als Männer. Frauen hatten
auch in Englisch eine höhere Erfolgsquote – aber da diese Quote gering war, kam
unter dem Strich ein schlechteres Abschneiden heraus.
Das Simpson Paradox wird oft verwendet, um zu argumentieren, dass wir evolutionär nicht vorbereitet sind, statistisch zu denken. Genaus könnte man argumentieren, dass wir evolutionär nicht aufs Bruchrechnen vorbereitet sind. Das
Simpsonsche Paradox läuft ja letztendlich darauf hinaus, dass aus a/b < A/B
und c/d < C/D nicht folgt, dass (a + c)/(b + d) < (A + C)/(B + D) gilt.
6.8
Drei Würfel und drei Türen
Die Zahlen 1 bis 18 werden (wie in Fig 6.2) auf den 18 Seiten von drei Würfeln
angeordnet. Der rote Würfel bekommt die Zahlen 18, 10, 9, 8, 7, 5, der blaue
17, 16, 15, 4, 3, 2 und der grüne 14,13,12, 11, 6 und 1. Obwohl die Augenzahl
auf jedem der Würfel dieselbe ist (nämlich 57), so ist der rote Würfel besser als
der blaue. Werden beide geworfen so zeigt mit 58 Prozent Wahrscheinlichkeit der
rote Würfel eine höhere Augenzahl als der blaue. Ebenso ist der blaue Würfel
besser als der grüne. Aber der grüne ist besser als der rote! Ganz gleich, welchen
Würfel ich wähle, mein Gegner kann einen besseren wählen. Daher sollte ich ihm
die erste Wahl überlassen.
Eine der berüchtigtsten Kopfnüsse der Wahrscheinlichkeittheorie ist das sogenannte Ziegenproblem (oder Drei-Türen-Problem). Ein Kandidat tritt in einer
Show auf, er kann ein Auto gewinnen, wenn er die richtige von drei Türen wählt,
die mit dem Auto dahinter. (Hinter den anderen zwei Türen steht bizarrerweise
eine Ziege, offenbar wird vorausgesetzt, dass sie weniger erwünscht ist). Der
Kandidat wählt also eine Tür aus. Dann öffnet der Showmaster, der weiss, was
hinter welcher Türe verborgen ist, eine der beiden anderen Türen, und zwar eine,
53
hinter der eine Ziege steht. Und nun fragt er den Kandidaten, ob dieser bei seiner
Wahl verbleibt oder zur anderen der beiden noch ungeöffneten Türen wechseln
will.
Viele sagen: nein. Denn man hat ja nichts gelernt durch die Handlung des
Showmasters. Der kann immer eine Ziegen-Tür öffnen. Die beiden verbleibenden
Türen sind gleich wahrscheinlich, wozu also wechseln? Tatsächlich aber verdoppelt das Wechseln die Gewinnchancen, wir sollten sogar bereit sein, viel dafür zu
bezahlen, die Tür wechseln zu dürfen. Denn hinter der ursprünglich gewählten
Tür befindet sich das Auto mit Wahrscheinlichkeit 1/3. Wenn wir beide anderen
wählen könnten, wäre unsere Gewinnchance 2/3. Diese konzentriert sich, nachdem der Showmaster eine Ziegentür gewählt hat, auf die eine verbleibende Tür.
Das zeigt, wie schwer wir uns mit dem Begriff der Wahrscheinlichkeit tun,
jedenfalls mit der ’subjektivistischen’ (im Gegensatz zur ’frequentistischen’) Interpretation. Es fällt uns übrigens auch sehr schwer, uns eine ’Zufallsfolge’ auszudenken, die etwa hundert oder tausend Nullen und Einsen in ähnlich unregelmässiger
Reihenfolge aufweist, wie eine Folge von Münzwürfen ’Kopf’ oder ’Adler’ liefert.
Zumeist ist es für Statistiker ein leichtes, solche fingierten Zufallsfolgen zu entdecken. Wir neigen dazu, nach drei- oder viermal ’Kopf’ mit grösserer Wahrscheinlichkeit ’Adler’ zu sagen, also Schwankungen zu kompensieren. Der reine Zufall
tut das nicht.
54
7
7.1
WÄHLEN UND WOLLEN
Mehrheitsentscheidung
Erst in der zweiten Hälfte des 18. Jahrhunderts begannen Wissenschaftler, auch
soziale Fragen mit mathematischen Mitteln zu untersuchen. Eine der ersten Fragen betraf Wahlvorgänge. Die Debatte spielte sich zunächst fast ausschliesslich
innerhalb der französischen Akademie ab, zwischen den erbitterten Rivalen Borda
und Condorcet.
Wenn es nur zwei Alternativen gibt, ist ein Mehrheitsbeschluss eine einleutende Methode, um zu einer Entscheidung zu kommen. Wer mehr Stimmen auf
sich vereinen kann, gewinnt. Schon bei drei Alternativen ist das anders. Denken
wir etwa an ein Berufungsverfahren mit drei Kandidaten Anna, Berta und Conny.
Angenommen, die Kommission besteht aus 12 Mitgliedern, von denen 5 die Ansicht A > C > B vertreten (Anna ist besser als Conny, und die ist besser als
Berta), 4 die Ansicht B > C > A und 3 die Ansicht C > B > A. Die drei
weiteren denkbaren Rangordnungen B > A > C, C > A > B und A > B > C
werden von keinem Kommissionsmitglied vertreten.
Offenbar sind die meisten Mitglieder (nämlich 5) dafür, Anna an erste Stelle zu
setzen. Die Mehrheit gibt also den Ausschlag: Anna wird berufen. (5 wählen A, 4
wählen B, 3 wählen C). Aber was wäre passiert, wenn (etwa durch eine anderweitige Berufung) B unmittelbar vor der Wahl ausscheidet? Dann wäre nicht Anna,
sondern Conny die Siegerin, und zwar mit 7 zu 5. In den anderen beiden ZweiPersonen-Wahlgängen würde Conny Berta mit 8:4 besiegen, und Berta Anna mit
7:5. Conny schlägt ihre beiden Mitbewerberinnen. Also sind die Kommissionsmitglieder in diesem Sinn mehrheitlich der Ansicht, dass Conny die beste Kandidatin ist, und Anna die schwächste. Das ist zum Ergebnis der Mehrheitswahl
völlig konträr! Die relative Mehrheit liegt in diesem Sinn falsch.
Gibt es einen besseren Entscheidungsmodus? Borda bemerkte, dass bei der
Mehrheitswahl viele Aspekte unter den Tisch fallen – es wird nur gezählt, wer
bei wieviel Kommissionsmitgliedern an erster Stelle ist. Das ist gefährlich. (Es
könnte etwa sein, dass bei einer politischen Wahl eine von zehn Parteien völlig
abwegig ist, aber doch durch einen Bodensatz von, sagen wir, 12 Prozent der
Bevölkerung gewählt wird. Wenn sich die anderen neun Parteien die restlichen
88 Prozent gleichmässig teilen, hat die Trottelpartei gewonnen, obwohl sie für 88
Prozent das Letzte ist.)
Borda schlug ein besseres Wahlverfahren vor. Jeder Wähler soll seinem erstgereihten Kandidaten 2 Stimmen, dem zweitgereihten 1 und dem letztgereihten
55
keine Stimme geben. (Bei vier Kandidaten jeweils 3,2,1 und 0, etc). In diesem
Fall würde obige Wahl 15:11:10 für Conny, Berta, Anna ausgehen, was mit dem
paarweisen Kontesten übereinstimmt.
Condorcet wies aber nach, dass die Borda Methode nicht immer mit den paarweisen Vergleichen harmoniert. Nehmen wir an, die Kommission besteht aus 75
Mitgliedern, 29 Kommissionsmitglieder ordnen die Kandidaten A > B > C,
und 28 ordnen B > A > C, und jeweil 9 Mitglieder sind für B > C > A und
C > A > B. Die Borda Methode führt hier mit 140:124:36 zu B > A > C,
so dass Berta gewinnt (ebenso mit dem relativen Mehrheitswahlrecht, da geht es
37:29:9 aus). Durch paarweise Vergleiche erhält man aber A als Siegerin (A besiegt B mit 38:37, B besiegt C mit 66:9, A besiegt C mit 57:18).
Ist aber das Condorcet Verfahren (Abstimmungen über jedes Paar von Kandidaten) das bessere? Nicht unbedingt, denn es liefert nicht immer einen Sieger.
Betrachten wir etwa in obiger Kommission den Fall, dass je 25 Mitglieder für
A > B > C, B > C > A und C > A > B sind. Das liefert einen Zyklus: die
Mehrheit hält A für besser als B, B für besser als C und C für besser als A. Hier
liegt also keine Transitivität vor.
7.2
Arrows Theorem
Einer der bedeutendsten Wirtschaftswissenschaftler des 20. Jahrhunderts, Ken
Arrow, hat die Fragestellung etwas verändert. Gesucht wird ein Verfahren, um
aus den persönlichen Präferenzen der Wähler eine kollektive Präferenzordnung
herzuleiten. Vorausgesetzt wird, dass jeder Wähler die Kandidaten transitiv ordnen kann, also kommt in den individuellen Präferenzen kein Zyklus vor (aus
A > B und B > C soll stets A > C folgen). Von einem ’anständigen’ Verfahren zur kollektiven Anordnung der Präferenzen wird man erwarten, dass es
folgende Minimalbedingunge erfüllt:
(a) wenn alle Wähler A > B ordnen, soll auch im Wahlresultat A vor B
aufscheinen.
(b) um zwei Kandidaten A und B zu ordnen, soll es nur darauf ankommen,
wie die Wähler A im Vergleich zu B sehen, und insbesondere nicht darauf, wie
die anderen Kandidaten geordnet sind, also wie etwa C von den diversen Wählern
gesehen wird.
Im vorigen Kapitel haben wir gesehen, wie durch das Ausscheiden von Berta
die Rangordnung zwischen Alice und Conny umgedreht wird, die Mehrheitswahl
erfüllt also nicht die Bedingung (b). Sie heisst ’Unabhängigkeit von irrelevanten
Alternativen’. Wenn etwa im Gasthaus Pasta oder Huhn angeboten wird, der Gast
56
nach langen Hin und Her sich für das Huhn entscheidet, der Kellner dann erwähnt,
dass es heute auch Fisch gibt und der Gast ruft: ’Aber das ändert ja alles! Dann
nehme ich...Pasta!’, so wird dieses Prinzip verletzt.
Was nun Arrow aus seinen zwei Forderungen geschlossen hat, ist schockierend: Wenn es drei oder mehr Alternativen (Kandidaten) gibt, existiert nur ein
im obigen Sinn ’anständiges’ Verfahren, dass immer zu einer kollektiven transitiven Ordnung führt. Es besteht darin, die Rangordnung von einem der Wähler zu
übernehmen, also diesen zum alleinentscheidenden ’Diktator’ zu machen!
7.3
Spieltheorie
Wahlen sind Verfahren, um aus diversen individuellen Meinungen eine Entscheidung zu erhalten. Oftmals aber bleibt die Entscheidung den einzelnen überlassen,
die nun versuchen werden, dass für sie bestmögliche zu erzielen, zum Beispiel im
wirtschaftlichen Kontext. Oft ist ganz klar, was unter ’optimal’ gemeint ist: so
etwa beim Problem vom Handlungsreisenden, der versucht, die kürzestmögliche
Verbindung zu finden zwischen einer Anzahl von vorgegebenen Städten. Sobald
diese Anzahl gross ist (50 oder 80), wird die Aufgabe sehr schwierig, aber grundsätzlich
ist klar, was unter einer ’optimalen’ Lösung verstanden wird. Ebenso, wenn es
gilt, ein optimales Portfolio, oder Aktienpaket, zusammenzustellen. Hier muss
man unter Unsicherheit entscheiden, also in Unkenntnis der zukünftigen Kursentwicklungen. Aber wenn man die Wahrscheinlichkeiten der verschiedenen Zustände,
die eintreten können, und die eigene Nutzenfunktion kennt (einschliesslich der
Bereitschaft, Risiken in Kauf zu nehmen) kann man von einer optimalen Lösung
sprechen, nämlich jener, die den Erwartungswert des Nutzens optimiert. Das
Problem des Handlungsreisenden oder des Anlegers ist gelöst, wenn eine kürzeste
Route oder ein optimales Portfolio gefunden ist.
Anders ist es, wenn die Entscheidung von mehreren Personen abhängt, die
verschieden gelagerte Interessen haben. Was dem einen als gut erscheint, kann
dem anderen schlecht erscheinen. Was ist dann unter einer ’Lösung’ zu verstehen?
Das Beste? Für wen das Beste? Das beste für die meisten? Warum sollte sich
die Minderheit daran halten? Und was, wenn es gar keine Mehrheit gibt, also
etwa wenn nur zwei Personen beteiligt sind? Ich darf wohl annehmen, dass mein
Gegenspieler das für ihn beste tun wird, und darauf reagieren, indem ich die für
mich beste Antwort daruf finde. Aber mein Gegenspieler wird das antizipieren,
und daher seinerseits...
Als denkbar einfaches Beispiel können wir uns das Kinderspiel ’Gerade-Ungerade’
vor Augen führen. Max und Moritz zeigen auf ein Signal ein oder zwei Fin57
ger, wenn die Summe gerade ist bekommt Max von Moritz einen Euro, wenn
nicht, dann umgekehrt. Immer hat einer der beiden Grund, mit dem Ausgang un-
wenn Max 1 zeigt
wenn Moritz
1 zeigt
1
wenn Moritz
2 zeigt
-1
wenn Max 2 zeigt
-1
1
Maxen’s Auszahlung
zufrieden zu sein und etwas anderes zu tun, um sich zu verbessern. Das führt zu
einem circulus vitiosus.
Der Wiener Wirtschaftswissenschaftler Oskar Morgenstern beschrieb das Problem mit einem literarischen Beispiel. Sherlock Holmes, der geniale Detektiv, hat
den Verbrecherring des ebenso genialen Professors Moriarty zerschlagen. Moriarty kennt nur noch ein Ziel: Holmes zu erschiessen. Holmes flieht mit dem
Zug aus London, um in Frankreich Schutz zu suchen. Als sich der Zug gerade
in Bewegung setzt, sieht Holmes, wie Moriarty auf den letzten Wagon aufspringt.
Nun gab es damals keine Verbindung zwischen den Wagons: für die Dauer der
Fahrt ist Holmes also sicher. Allerdings endet die Fahrt in Dover. Dort würde
Moriarty den unbewaffneten Holmes unweigerlich erschiessen. Doch halt! Der
Zug stoppt kurz in Canterbury. Dort könnte Holmes aussteigen. Auch das ist
nicht ganz ungefährlich: Moriaty würde ja unzweifelhaft vom Fenster aus den
Bahnsteig überwachen, und ihm folgen, wenn er ihn aussteigen sieht. Er kann
aber nur bei einer Seite hinausschauen, also hat Holmes die Chance, auf der anderen Seite auszusteigen. Seine Überlebenschance ist demnach 50 Prozent, immerhin besser als Null. Also sollte Holmes es unbedingt versuchen. Nun ist aber
Moriarty zweifellos gewitzt genug, das zu antizipieren. Demnach wird auch er
in Canterbury aussteigen, ob er ihn sieht oder nicht, und Holmes Aug in Aug
gegenüberstehen, sobald der Zug die Bahnhofshalle verlassen hat. Holmes sollte
also doch nach Dover fahren, das wäre ja ganz ungefährlich, schliesslich steigt
Moriarty schon in Canterbury aus. Aber halt! Steigt er wirklich aus? Er ist
um nichts weniger clever als Holmes, und wird daher weiterfahren. Also sollte
Holmes doch in Canterbury aussteigen. Merken Sie etwas? Die Überlegung läuft
im Kreis und liefert keine Entscheidung.
58
wenn H. in D. aussteigt
wenn Moriarty
in D. aussteigt
0 Prozent
wenn Moriarty
in C. aussteigt
100 Prozent
wenn H. in C. aussteigt
50 Prozent
0 Prozent
Holmes Überlebenschance
7.4
Das wiedergefundene Gleichgewicht
In den Dreissigerjahren verwendete Morgenstern das Beispiel in Büchern und
Vorträgen, um seine These zu untermauern, dass wirtschaftliche Prognosen grundsätzlich
unmöglich sind. (Pikanterweise war er Chef des Instituts für Konjunkturforschung,
dessen Aufgabe gerade solche Prognosen waren.) Schliesslich wurde Morgenstern aber darauf aufmerksam, dass in einer 1928 erschienen Arbeit ’Zur Theorie
der Gesellschaftsspiele’ von John von Neumann gezeigt wurde, dass es doch eine
optimale Lösung gibt. Gesellschaftsspiele wie Schach oder Poker beschreiben
Wechselwirkungen zwischen zwei oder mehr Spielern mit entgegengesetzten Interessen (in einem Fall müssen die Entscheidungen unter Unsicherheit getroffen
werde – welche Karten hat der Gegner? – im anderen nicht.)
Um den Gegner keinerlei Möglichkeiten zu geben, die eigene Entscheidung
zu erraten, kann man auch den Zufall entscheiden lassen. Im Fall des tödlichen
Spiels zwischen Holmes und Moriarty lässt sich dann doch eine Lösung errechnen. Nehmen wir an, dass Holmes mit Wahrscheinlichkeit x in Dover aussteigt
(und mit Wahrscheinlichkeit 1 − x in Canterbury), und dass die entsprechenden
W. für Moriarty durch y und 1 − y gegeben werden. Wenn Holmes x = 1/3
wählt, ist die W., dass Moriarty ihn erwischt, mindestens 33 Prozent. Für jeden
anderen Wert von x kann Moriarty, wenn er die Entscheidung von Holmes antizipiert, also das x errät, die Überlebenswahrscheinlichkeit von Holmes verkleinern. Die ’gemischte’ Strategie, die durch x gegeben ist, maximiert die Mindestchance von Holmes. Ebenso kann Moriarty, wenn er y = 2/3 wählt, die
Überlebenswahrscheinlichkeit von Holmes minimieren: für jeden anderen Wert
von y kann Holmes durch geschicktes Handeln seine Überlebenschance vergrössern.
Die beiden (zufallsbestimmten) Strategien, die durch x = 1/3 und y = 2/3
gegeben sind, sind in gewisser Hinsicht nicht zu verbessern: keiner der Spieler
hat einen Grund, von seiner Strategie abzuweichen. Die Chance von Holmes, zu
überleben, beträgt dann übrigens 33 Prozent.
Diese Entdeckung von Maximin und Minimaxstrategien bildete die Grundlage
für die Zusammenarbeit von Morgenstern und John von Neumann, und für ihr
59
berühmtes Buch, das die Spieltheorie begründete, eine Entscheidungstheorie für
die Wechselwirkung von Individuen.
Allerdings hatte die Theorie zwei schwache Punkte. Der eine beruht in dem
zugrundeliegenden Pessimismus: es wird angenommen, dass man vom Gegner
durchschaut wird. Das muss ja nicht immer der Fall sein (obwohl es sicher gut
ist, den Widerpart niemals zu unterschätzen). Viel ernster aber ist der zweite
Schwachpunkt. Die Theorie bezog sich ausschliesslich auf Nullsummenspiele.
Was der eine gewinnt, verliert der andere. Das trifft auf viele Gesellschaftsspiele
zu, aber nicht unbedingt auf wirtschaftliche Wchselwirkungen. Meist sind die
Interessen nicht völlig konträr.
Für diesen Fall konnte 1950 der noch nicht zwanzigjährige John Nash ein
Lösungskonzept anbieten, das weitaus allgemeiner ist. Nash zeigte, dass es für
alle Spiele (egal, wieviele Spieler, wieviele Strategien, welche Interessenslagen)
stets sogenannte Nash-Strategien gibt, die jeweils eine beste Antwort auf die
Strategie der anderen sind. Wieder werden ’gemischte’ (also zufallsbestimmte)
Strategien zugelassen, und für Nullsummenspiele erhält man dieselben ’optimalen’
Lösungen wie vorher. Immer gilt: Solange die anderen Spieler an ihren Strategien
festhalten, kann sich kein Spieler einen Vorteil davon versprechen, zu einer anderen Strategie zu wechseln. Derlei Nash-Strategien werden gern als ’Lösungen’
angesehen. Sie sind zumindest konsistent. Aber wie wir sehen werden, ist das
auch schon alles.
7.5
Das Gefangenendilemma
Stellen wir uns folgendes Spielchen vor: Zwei einander gänzlich unbekannte Personen werden gefragt, ob sie dem anderen 15 Euro schicken wollen. Sie selbst
müssen dafür 5 Euro auslegen. Die Entscheidungen müssen simultan getroffen
werden. Die Spieler wissen, dass sie einander nie wieder sehen werden. Hier ist
die ’Auszahlungsmatrix’, die den Nettogewinn beschreibt:
wenn ich Geld überweise
wenn der andere
Geld überweist
10 Euro
wenn der andere
nichts überweist
−5 Euro
wenn ich nichts überweise
15 Euro
0 Euro
Meine Auszahlung
Es ist klar, dass die Gewinnmaximierung verlangt, dass ich nichts überweise.
Aber der andere ist in genau derselben Situation! Wir schicken einander also
60
nichts, und verpatzen uns die Gelegenheit, jeweils 10 Euro zu gewinnen. Das
einzige Nash-Gleichgewicht schreibt somit ein höchst unwirtschaftliches Verhalten vor. Der Eigennutz kommt hier dem Gemeinnutz in die Quere. Dieses sogenannte ’Gefangenendilemma’ ist ein Musterbeispiel für ein sogenanntes Sozialdilemma
(eine soziale Falle).
In seinem Leviathan (1651) behauptete Hobbes, dass der Eigennutz (dh die
Selbstsucht) zum Krieg aller gegen alle führen muss, ’such a war as is every
man against every man’. Wenn es keine zentrale Obrigkeit gibt, um die Anarchie zu beenden, ist das menschliche Leben ’solitary, poore, nasty, brutish, and
short.’ Sein französischer Zeitgenosse Pascal war ebenso pessimistisch: ’Wir sind
von Geburt an ungerecht; denn jeder neigt zu sich selbst...Die Selbstsucht ist der
Grund jeder Unordnung in Krieg, Politik, Wirtschaft etc.’
Hundert Jahre später hatte der Eigennutz eine bessere Presse. Adam Smith
vertrat die Auffassung, dass eine unsichtbare Hand die eigennützigen Bestrebungen der Einzelnen zum Guten, also zum Gemeinwohl lenkt. ’By pursuing his
own interest [man] frequently promotes that of the society more effectually than
when he really intends to promote it.’ Oder: ’It is not from the benevolence of
the butcher, the brewer, or the baker, that we expect our dinner, but from their
regard to their own self-interest. We address ourselves, not to their humanity but
to their self-love, and never talk to them of our own necessities, but of their advantages.’ Bereits vor Adam Smith hatte Voltaire in seinen Lettres philosophiques
eine ähnliche Auffassung dargelegt: ’Zweifellos hätte Gott auch Wesen schaffen
können, die ausschliesslich am Wohlergehen anderer interessiert sind. In diesem
Fall würden die Handelsleute aus reiner Nächstenliebe nach Indien fahren, und
die Steinmetzen Steine sägen, um ihren Nachbarn einen Gefallen zu tun. Aber
Gott hat die Sachen anders geregelt... Unsere gegenseitigen Bedürfnisse sind der
Grund, warum wir der Menschheit nützlich sind, sie bilden die Grundlage jedes
Gewerbes, die ewige Verbindung zwischen den Menschen.’
Natürlich wusste Adam Smith (ebenso wie Voltaire, den er gut kannte) dass
die unsichtbare Hand nicht immer am Werk ist. Er behauptete nur, dass sie oft
das Gemeinwohl fördert, nicht dass sie es immer tut: in einem sozialen Dilemma
wendet die unsichtbare Hand den Eigennutz nicht zum Guten.
7.6
Mensch ärgere dich nicht
Hier ein weiteres Beispiel für ein soziales Dilemma: das Reisendendilemma.
Zwei Spieler in getrennten Räumen werden gebeten, einen Geldbetrag zwischen 0 und 100 Euro anzugeben. Wenn beide dasselbe sagen, bekommen sie
61
ihn auch. Wenn aber eine Differenz auftritt, so kriegt der Bescheidenere um 2
Euro mehr, und der andere um 2 Euro weniger als den kleineren der genannten
Beträge. Beide Spieler können also 100 Euro erhalten. Aber der schlaue Spieler
kann überlegen: wenn ich nur 99 sage, bekomme ich 101 (und der andere 97). Der
andere kann das antizipieren, und auch 99 sagen. Aber noch besser ist er dran,
wenn er 98 sagt, dann kriegt er 100, und der andere nur 96. Aber das kann wieder
der erste Spieler antizipieren, etc...Durch diese ’Rückwärts-Induktion’ kommen
die vom Eigennutz getriebenen Spieler auf Null!
Noch ein Beispiel: das Ultimatum Spiel. Zwei Spieler können sich 10 Euro
teilen. Hier die Spielregeln. Ein Münzwurf entscheidet, wenn der Anbieter ist. Er
kann dem anderen eine Teilung vorschlagen. Wenn der andere sie annimmt, wird
dementsprechend geteilt, und das Spiel ist fertig. Wenn der andere ablehnt, steckt
der Spielleiter seine 10 Euro wieder ein, das Spiel ist auch wieder beendet, und
keiner bekommt irgend etwas. Gehandelt wird nicht. Warum sollte der zweite
Spieler ablehnen, wenn ihm der andere 1 Euro anbietet und selbst 9 behält? Ein
Euro ist doch besser als keiner. Ein eigennütziger Anbieter der darauf vertraut
wird dem anderen nur den minimalen positiven Betrag von 1 Euro anbieten. Das
wäre aber ein Fehler: fast alle solchen Angebote werden abgelehnt. Das Ultimatum Spiel zeigt, wieviel uns an Fairness liegt.
7.7
Wiederholtes Gefangenendilemma
Sagen diese Spielchen etwas über den Ernstfall aus? Sie wirken meist sehr künstlich.
Am häufigsten erlebt man wohl ein Gefangenendilemma, immer dann, wenn es
ein gemeinsames Unternehmen gibt, von dem beide profitieren können, aber eine
Verlockung besteht, den eigenen Beitrag zu reduzieren. Allerdings wirkt es ausgesprochen unnatürlich, die Wechselwirkung auf nur eine Runde zu beschränken.
Meist trifft man einander wieder, und kann es dem Ausbeuter heimzahlen. Das
ändert die Sachlage. Was passiert, wenn es mit grosser Wahrscheinlichkeit zu
einer weiteren Runde kommt? Stellen wir uns etwa vor, dass es mit W. 5/6 zu einer
weiteren Runde kommt. Dann hat das Spiel im Durchschnitt sechs Runden, obwohl wir nicht wissen, wann die letzte kommt (kein Spielraum für die RückwärtsInduktion). Für dieses wiederholte Gefandenendilemma sind zahllose Strategien
denkbar. Von keiner kann man sagen, dass sie bestmöglich ist, ganz gleich was
der Gegenspieler tut. Denn wenn etwa der Gegenspieler immer kooperiert (etwa
seinen Geldbetrag schickt), so ist es am besten, ihn immer auszubeuten. Wenn er
aber kooperiert, bis er erstmals hineingelegt wird, und fortan nicht mehr, so ist es
besser, immer zu kooperieren: denn der Gewinn von zusätzlichen 5 Euro in einer
62
Runde (durch Übertölpeln des anderen) macht nicht den Gewinn wett, den die
Erwartung auf sechs kooperative Runden (mit einem Einkommen von je 10 Euro)
verspricht.
Wenn es aber keine Strategie gibt, die immer die beste ist, wie soll man
sich dann entscheiden? Um 1980 veranstaltete der Politwissenschaftler Axelrod
Meisterschaften im wiederholten Gefangendilemma. Die eingereichten Strategien wurden programmiert, und dann trat jede gegen jede an, wie in einer Fussballmeisterschaftsrunde. Zuletzt wurden die Auszahlungen zusammengezählt.
Bemerkenswerterweise gewann die einfachste der eingereichten Strategien, Tit
For Tat. Sie besteht darin, in der ersten Runde das Geld zu überweisen, und
dann zu tun, was der andere jeweils in der Vorrunde getan hat. Wieso ist das bemerkenswert? Weil ein Tit For Tat Spieler in keiner Phase des Spiels mehr als
sein Gegenspieler eingenommen haben kann. Aber wenn über alle Gegenspieler
summiert wird, hat Tit For Tat (zumeist) die Nase vorn.
Mithilfe der Spieltheorie kann man ’gesellschaftliche Normen’ als bestimmte
Strategien definieren. Wenn sich alle in der Bevölkerung an so eine Strategie
halten, zahlt es sich für niemanden aus, davon abzuweichen. Tit For Tat ist
beispielsweise eine solche gesellschaftliche Norm. Die Strategie, niemals Geld
zu überweisen, ist auch eine. Wie kann man sich einen Übergang von einer Norm
zur anderen vorstellen? Sind gewisse gesellschaftliche Normen besser als andere?
So ist beispielsweise die Tit For Tat Norm ausgesprochen konterproduktiv,
wenn es (wie unvermeidbar) gelegentlich zu Fehlern kommt. Wenn ein Tit For
Tat Spieler irrtümlich die Hilfe verweigert, so wird ihm der Tit For Tat Partner das
in der nächsten Runde heimzahlen. Das löst eine Vendetta aus, die beiden Spielern
sehr schadet. Hier ist es vorteilhaft, gelegentlich (aber nicht zu oft!) zu verzeihen. übrigens schneidet eine andere Norm wesentlich besser ab, nämlich Pavlov:
kooperieren, ausser wenn der andere Spieler in der Vorrunde anders gehandelt hat
als man selbst. Wenn einer von zwei Pavlov-Spielern irrtümlich Hilfe verweigert
hat, werden beide Spieler in der nächsten Runde die Hilfe verweigern, dann aber
wieder kooperieren. Die Pavlov-Norm ist also nicht fehleranfällig. Andrerseits
kann sie sich in einer Welt von Ausbeutern niemals durchsetzen, das strengere Tit
For Tat aber schon.
7.8
Indirekte Reziprozität
Neben der direkten Reziprozität (die auf wiederholten Wechselwirkungen zwischen denselbe zwei Partnern beruht) kann man auch indirekte Reziprozität ins
Auge fassen. Hier sollten die Kosten für eine Geldüberweisung nicht vom Empfänger,
63
sondern von einem Dritten rückerstattet werden. Also statt ’Du kratzt mir den
Rücken und dafür ich kratz ihn dir’ jetzt ’Du kratzt jemanden den Rücken und
dafür ich kratz ihn dir’. Warum sollte ich das tun? Vielleicht damit mir dann
irgendwer den Rücken kratzt.
So ein System kann leicht ausgebeutet werden, durch jene, die sich Geld
überweisen lassen, jedoch ihrerseits niemals etwas für andere tun. Solche Ausbeutung kann man vermeiden, wenn man nur jenen hilft, die ihrerseits anderen helfen.
Dazu gehört einiges an Information über die anderen Spieler (man kann sich nicht
wie beim wiederholten Gefangenendilemma nur daran halten, was einem selbst
passiert ist). Die nächstliegende Strategie wäre also: ’Gib jenen, die gegeben
haben: aber niemanden, der verweigert hat.’ Aber wenn man einem Verweigerer
Hilfe verweigert, wird man selbst zum Verweigerer, und bekommt keine Hilfe
mehr! Ein konsistentes System muss raffinierter sein, etwa so: jeder Spieler hat
eine Reputation (’gut’ oder ’schlecht’), die davon abhängt, was er in der vorigen
Runde gemacht hat. Wenn er einem guten Spieler Hilfe verweigert hat, wird seine
Reputation schlecht; aber wenn er einem schlechten Spieler Hilfe verweigert hat,
verliert er seine gute Reputation nicht. Die Bewertung eines Spielers hängt also
davon ab, was dieser in der Vorrunde gemacht hat (geholfen oder nicht), und wie
der potentielle Empfänger bewertet war. Schon das führt zu mehreren denkbaren
Normen. Was ist etwa besser: einem schlechten Spieler die Hilfe zu verweigern,
oder sie ihm zu gewähren? Zieht man noch die eigene Reputation ins Kalkül,
so kommt man bereits zu hunderten von möglichen Normen, von denen manche
zur Kooperation führen, andere nicht, manche fehleranfällig sind, manche nicht.
Im Einzelnen kann auf diese komplizierten Fragen hier nicht eingegangen werden. Aber in gewisser Hinsicht erlauben sie das formale Studium von ethischen
Systemen (ohne irgend welche Werturteile zu treffen, sondern lediglich, um die
Konsequenzen der Normen zu erfassen). Diese Art von rudimentärer ’formaler
Ethik’ lässt sich selbstverständlich in ihrer Bedeutung mit der formalen Logik
vergleichen. Immerhin aber zeigt sich, dass mathematische Methoden nicht nur
für die Natur- sondern auch für die Sozialwissenschaften wichtig sein können.
Übrigens funktionieren e-Bay und ähnliche Systeme dank sehr einfacher Reputationssystem (die die Zufriedenheit der Kunden spiegeln).
64
8
8.1
SCHLIESSEN
Formale Logik
Das Um und Auf der Mathematik ist das Beweisen, bei welchem Schlussfolgerungen nach streng logischen Regeln gezogen werden. Die Logik hatte bereits durch
Aristoteles (im Organon und Prior Analyticus) einen beachtlichen Grad der Formalisierung erreicht. Viele Jahrhunderte lang schien es undenkbar, hier noch etwas hinzuzufügen oder zu verbessern.
Charakteristisch für logische Schlussregeln ist die Unabhängigkeit vom konkreten
Inhalt der Aussagen. (Im Alltagsgebrauch wird ’logisch’ oft in einem loseren Sinn
verwendet, etwa im Sinn von ’klar einsichtig’). Trotz dieser hohen Abstraktion
wurde erst in der zweiten Hälfte des 19. Jahrhunderts der Logikkalkül entwickelt,
und damit ein bahnbrechender Gedanke von Leibniz realisiert. (Antike Vorläufer
gingen verschollen). Dabei leuchtet ja jedem Mathematiker ein, dass erst streng
formale Methoden es erlauben, die Mehrdeutigkeiten und Unklarheiten der Alltagssprache zu umgehen. Frege und Peano erkannten, dass die Aristotelischen Syllogismen für mathematische Schlussweisen nicht ausreichen, und ergänzt werden
müssen. Durch ihre Arbeiten und die Beiträge von Russell wurden die formale,
also ’mathematische’ Logik einerseits, und die Untersuchung der Grundlagen der
Mathematik andrerseits, immer weniger unterscheidbar: ’Mathematik und Logik
sind eins’ (Wittgenstein). Heute sind die bedeutenden Logiker des Mittelalters nur
mehr von historischer Bedeutung, und Logik wird in erster Linie als Teildisziplin
der Mathematik gesehen.
8.2
Aussagenkalkül
Die Aussagenlogik (propositional logic) ist der einfachste Teil der formalen Logik,
und gründet auf den Arbeiten von Boole (ca. 1850).
Eine Aussage A ist ein Satz, vom dem es sinnvoll ist, zu behaupten, dass er
wahr oder falsch ist (das sind die beiden Wahrheitswerte von Aussagen). Dementsprechend ist dann die Negation, non − A oder ¬A, falsch bzw. wahr.
Mehrere solcher Aussagen können durch sogenannte Junktoren verknüpft werden. Aus den Aussagen A und B kann man etwa die Aussage A und B (A ∧ B)
bilden, die genau dann wahr ist, wenn sowohl A als auch B wahr sind. Es gibt
4 Möglichkeiten, die Aussagen A und B mit W (für wahr) und F (für falsch) zu
belegen, und dementsprechend 24 = 16 Verknüpfungen, die man mittels sogenannter Wahrheitstafeln definieren kann (Beispiele in Fig.8.1). Man beachte hier, dass
65
AoderB (A ∨ B) wahr ist, wenn A oder B oder beide wahr sind. Es handelt sich
also hier nicht um das umgangssprachliche ’oder’, das oft im Sinn von ’entwederoder’ gebraucht wird. Im Latein wird zwischen vel und aut unterschieden, in der
Informatik zwischen OR und XOR. Noch weiter von der Umgangssprache entfernt ist die Implikation wenn A dann B (A ⇒ B), die genau dann falsch ist, wenn
A wahr und B falsch ist. Hier gibt es keinerlei kausalen oder temporalen Zusammenhang. Der Satz wenn 2 × 2 = 5 dann gilt ’jedes Dreieck ist gleichschenkelig’
(oder: ’jeder Vogel ist blau’) ist also wahr (ebenso die Folgerung: ’jeder Vogel ist
ein Wirbeltier’). Die Implikation ’2 ×2 = 40 ⇒ ’jedes Wirbeltier ist ein Vogel’
ist aber falsch. Wichtig ist noch die Verknüpfung A ⇔ B (dann und nur dann,
wenn), die Ko-Implikation.
Natürlich kann man daraus auch drei- und mehrgliedrige Verknüpfungen bilden,
zb ((A ⇒ B) ∧ (B ⇒ C)) ⇒ (A ⇒ C), und mittels Wahrheitstafeln bestimmen, für welche Kombinationen die Verknüpfung richtig ist. Im vorliegenden
Fall liefert das für jede Belegung von A, B und C mit W oder F eine wahre Aussage: solch ’allgemeingültige’ Aussagen bezeichnet man auch als Tautologien.
Sie sind aus rein aussagelogischen Gründen wahr, also wegen der Struktur der
Verknüpfungen, unabhängig von den Wahrheitswerten der Aussagen A, B usw.
So ist zum Beispiel A ⇒ (¬A ⇒ B) eine Tautologie (Fig. 8.2). Die Negation
einer Tautologie ist eine Kontradiktion: sie hat immer den Wahrheitswert falsch,
aus rein aussagelogischen Gründen. So ist A ∧ (¬A) eine Kontradiktion.
Man macht sich leicht klar, dass man jede Verknüpfung mittels ¬ und ∧
darstellen kann, zb A ∨ B als ¬(¬A ∧ ¬B) (oder durch ¬ und ⇒, zB A ∨ B
als (A ⇒ B) ⇒ B). Solche äquivalenten Verknüpfungen nehmen immer dieselben Wahrheitswerte an, für jede Belegung der Bestandteile A und B mit W
oder F . Man kommt sogar mit einer einzigen Verknüpfung aus, A ↑ B (nicht
sowohl A, als auch B), denn ¬A kann man als A ↑ A darstellen und A ∨ B als
(A ↑ A) ↑ (B ↑ B)).
Der Aussagekalkül lässt sich auch als Schalt-Algebra interpretieren (statt ’wahr’
und ’falsch’ also ’ein’ und ’aus’). Es kommt nur darauf an, (1) dass die Bewertung
binär ist (also keine dritte Möglichkeit zulässt, wie etwa ein ’vielleicht’) und (2)
dass die Bewertung von Verknüpfungen lediglich von den Wahrheitswerten der
Bestandteile, also der Aussagen A, B usw., abhängt.
8.3
Syntax und Semantik
Natürlich kann man den Kalkül auch axiomatisieren, sodass es möglich ist, aus
gewissen Axiomen aussagenlogische Folgerungen herzuleiten. Auf ersten Blick
66
mag das Verlangen nach Beweisen hier überflüssig wirken. Die Wahrheitstafeln
liefern ohnedies ein narrensicheres (wenn auch oftmals sehr zeitraubendes) Verfahren, die Richtigkeit einer Verknüpfung zu überprüfen. Aber es zahlt sich aus,
den Sachverhalt hier näher zu inspizieren, denn dadurch können wir den grundlegenden Unterschied zwischen Syntax und Semantik (im logischen und mathematischen Sinn) besser verstehen, ein Unterschied, der später viel mehr Bedeutung
erhält.
Um über Aussagenlogik präzise reden zu können, braucht man (1) ein gewisses
Alphabet, also einen Zeichensatz, hier etwa bestehend aus den Junktoren, also
¬, ∧, ∨, ⇒, ⇔, den Klammern, also ( und ), sowie einen Vorrat von Buchstaben,
die für Aussagen stehen sollen. Weiters braucht man (2) Formeln (oder ’wohlgeformte Zeichenketten’), die man folgendermassen festlegt: jeder Buchstabe (als
’atomare Aussage’) ist eine Formel; wenn vor eine Formel ein ¬ kommt, oder um
eine Formel herum Klammern, liefert das wieder eine Formel; und wenn zwischen zwei Formeln ∧, ∨, ⇒, ⇔ steht, gibt das Ganze wieder eine Formel; und das
wär’s auch schon (das ist die Grammatik).
Der Kalkül besteht nun aus gewissen vorgegebenen Axiomen, etwa (A∧A) ⇒
A, und gewissen Transformationsregeln. Diese Transformationsregeln erlauben
es, aus bestimmten Formeln andere ’herzuleiten’, also zum Beispiel aus A und
A ⇒ B die Formel B (der modus ponens). Ein Beweis ist dann eine durchnummerierte Kette von Formeln, von denen jede entweder ein Axiom ist oder aus den
vorhergehenden Formeln durch eine Transformationsregel gebildet wird. Die letzte Formel P in einem Beweis wird dann als Satz, oder Theorem, bezeichnet, wir
schreiben ` P . Von ’anständigen’ mathematischen Beweisen erwartet man, dass
sie uns etwas verstehen helfen, ein formaler Beweis bezweckt nichts dergleichen,
er läuft maschinell ab.
Das liefert ein (zumindest auf ersten Blick) völlig sinnentleertes Spiel mit Zeichenketten. Aller Vorstellungsinhalt ist verbannt. In der Praxis wird man freilich
so vorgehen, dass man als Axiome gewisse Tautologien verwendet, und für die
Transformationsregeln sogenannte ’Schlussregeln’, die aus Tautologien wieder
Tautologien herleiten (die obigen Beispiele waren von dieser Art). Solchermassen
erhält man nur Tautologien, in diesem Sinn ist der Kalkül ’korrekt’. Und wenn
man geschickt war, erhält man einen Kalkül, der auch ’vollständig’ ist, in dem
Sinn, dass alle Tautologien hergeleitet werden können.
Man schreibt |= P , wenn man sich mittels Wahrheitstafel überzeugen kann,
dass P eine Tautologie ist. Wahrheitstafeln selbst kommen aber gar nicht vor in
dem Kalkül. Man drückt das so aus: das blosse Manipulieren der Zeichen (also
der Kalkül) wird durch die Syntax beschrieben; die Interpretation, mittels ’Tau67
tologie’ und ’wahr’ oder ’falsch’ gehört nicht zur Syntax sondern zur Semantik:
es bedeutet etwas, es trägt zum Verständnis des Kalküls bei. Wenn ` P und |= P
gleichbedeutend sind, war unser Kalkül geschickt gewählt. Das mag uns befriedigen, aber die Maschine, die den Kalkül durchführt, berührt das nicht. Aussagen
wie ’der Kalkül ist vollständig’ gehören nicht zu dem formalen System, sondern
sagen etwas über das System aus, und sind in diesem Sinn auf einer höheren Ebene
angesiedelt, dh metasprachlich.
Es gibt nicht nur eine, sondern viele korrekte und vollständige Kalküle für die
Aussagenlogik.
8.4
Syllogismen
Mit der Aussagenlogik kommen wir nicht weit. Sie berücksichtigt ja nicht die
innere Struktur der Aussagen, sondern nur deren Verknüpfung. Wenn A die Aussage ist: ’Sokrates ist ein Mensch’, und B die Aussage :’Alle Menschen sind
sterblich’ und C schliesslich: ’Sokrates ist sterblich’, so können wir die Aussage
(A∧B) ⇒ C bilden. Sie ist keine aussagenlogische Tautologie, aber offenbar eine
logische Aussage, die mit dem Inhalt (der Person Sokrates oder dem Wesen der
Sterblichkeit) nichts zu tun hat. Wie erkennen wir, dass diese Aussage wahr ist?
Wir brauchen dazu ein Kalkül, dass sich mit Eigenschaften (Prädikaten) befasst.
Die Prädikatenlogik geht auf Aristoteles zurück. Die Aristotelische Logik
kennt bejahende oder verneinende, allgemeine oder partikuläre ’Urteile’, also vier
Typen: (a) alle A sind B, (i) einige A sind B (d.h. mindestens ein A ist B); (e)
kein A ist B (d.h. jedes A ist nicht B); und (o) einige A sind nicht B (allgemein bejahend, partikulär bejahend, allgemein verneinend, partikulär verneinend).
Dabei sind A und B durch Eigenschaften, wie etwa ’Mensch sein’ oder ’Primzahl
sein’, definiert. Wir können die Eigenschaften auch durch Mengen beschreiben
(die Menge aller Elemente mit der Eigenschaft). Wenn wir mit Ā die Komplementärmenge bezeichnen (alle Elemente aus einer Grundmenge, die nicht zu A
gehören) so liefert das also (a) A ⊆ B, (i) ¬(A ⊆ B̄); (e) A ⊆ B̄ und (o) ¬(A ⊆
B). Aristoteles betrachtet Schlüsse, bei denen aus zwei Sätzen (den Prämissen,
die etwas über A und B bzw. A und C aussagen) ein weiterer (die Konklusion,
eine Aussage über B und C) folgt. Da es für jeden der drei Sätze 4 Möglichkeiten
a,i,e,o gibt (diese Buchstaben dienten den Scholastikern als Merkregeln), und in
jeder Prämisse der Platz des ’Mittelglieds’ A an erster oder zweiter Stelle sein
kann, liefert das 43 ×4 = 256 Möglichkeiten, von denen laut Aristoteles nur 19 immer gültige Schlüsse liefern. Die Scholastiker bezeichneten sie mit Merkworten
als Barbara, Celarent, Darii,... Barbara(aaa) etwa bedeutet: aus den Prämissen
68
A ⊆ B und C ⊆ A folgt C ⊆ B, Darii (aii) heisst: aus A ⊆ B und ¬(C ⊆ Ā)
folgt ¬(C ⊆ B̄) usw. Das ist durch die Interpretation mittels Mengen leicht
nachzuvollziehen. Allerdings kommen wir nur auf 15 ’Schlussfiguren’, vier weitere (Darapti, Felapton, Bamalip und Fesapo) kommen nicht mehr vor, aus dem
einfachen Grund, dass Mathematiker ’alle A sind B’ heute etwas anders interpretieren. Für Aristoteles, und auch den gängigen Sprachgebrauch, ist der Satz
nur richtig, wenn es auch Elemente in A gibt. ’Alle Drachen sind rosa’ wäre
also falsch, während Mathematiker ihn als wahr ansehen, denn sie interpretieren
ihn als ’wenn Drache, dann rosa’, und da die Menge der Drachen leer ist, ist
sie in der Menge der rosa Dinge enthalten. Eigentlich bleiben auch von den 15
Schlussregeln nur 2 übrig (Barbara und Darii), wenn man berücksichtigt, dass
A ⊆ B̄ dasselbe ist wie B ⊆ Ā.
8.5
Prädikatenkalkül
Noch Kant konnte schreiben: ’Merkwürdig ist noch an der Logik, dass sie auch
bis jetzt [seit Aristoteles] keinen Schritt vorwärts hat tun können und also allem
Anschein nach geschlossen und vollendet scheint.’ Doch sobald man versuchte,
in anspruchsvolleren mathematischen Beweisen die logischen Schlussweisen zu
analysieren, wurde klar, dass die traditionelle Logik dazu keineswegs ausreicht.
Bespielsweise ist der folgende Satz aus rein logischen Gründen richtig: ’Wenn
es jemanden gibt, der [heute morgen] alle begrüsst hat, dann ist jeder begrüsst
worden’. Er ist unabhängig von der inhaltlichen Definition von ’begrüssen’ richtig
(man könnte das Wort genau so gut durch ’geschlagen’ oder ’geküsst’ ersetzen),
wogegen die Variante ’wenn alle gegrüsst worden sind, gibt es einen, der alle
begrüsst hat’ keineswegs richtig sein muss.
Um Aussagen von diesem Typ analysieren zu können, muss man den logischen Kalkül in zweifacher Hinsicht erweitern. Erstens wird man nicht nur
Eigenschaften wie ’ist Primzahl’ oder ’ist sterblich’, also sogenannte ’einstellige Prädikate’, die sich auf ein Element x aus einer Menge (von Lebewesen,
oder natürlichen Zahlen, etc.) beziehen, sondern auch mehrstellige Prädikate betrachten, wie ’kleiner als’ oder ’Bruder von’, die Relationen zwischen mehreren
Elementen (hier etwa x und y) bezeichnen. Zweitens führt man die beiden Quantoren ’für alle’ und ’es gibt’ ein, die man seit Peano mit ∀ und ∃ bezeichnet.
Man kann so etwa schreiben ∀x(¬(x < x)) oder ∃x(x = x2 ) usw. Im engeren
Prädikatenkalkül (first order logic) beziehen sich die Quantoren nur auf Elemente
(’für alle Zahlen’, oder ’es gibt einen Menschen’), und in dem erweiterten Kalkül
(higher order logic) auch auf Relationen (oder Teilmengen, oder Funktionen).
69
Die Quantoren gehorchen gewissen Regeln: so folgt aus der Formel ∀xF (x) die
Formel F (y), sofern F eine Formel ist, in der eine Variable (x oder y) vorkommt.
Zu diesen Regeln kommen noch Axiome, die den Gebrauch des Gleichheitszeichens regeln: etwa dass ∀x(x = x) gilt, oder: wenn x = y dann F (x) ⇒ F (y).
Im wesentlichen enthält jede formalisierte mathematische Theorie die Axiome
für Junktoren, Quantoren und die Identität (das wird oft stillschweigend vorausgesetzt). Dazu kommen dann die eigentlichen ’mathematischen’ Axiome, die jetzt
die geometrische Theorie, oder die Rechenregeln, oder ähnliches beschreiben.
8.6
Sudoku für Fortgeschrittene
Von jedem anständigen Axiomensystem wird man verlangen, dass es widerspruchsfrei ist, also keine Aussage A mitsamt ihrer Negation ¬A herleitbar ist. Niemand
liebt einen Widerspruch, aber Mathematiker sind da besonders heikel. Denn da
A ⇒ (¬A ⇒ B) eine Tautologie ist, so lässt sich aus A und ¬A stets auf B
schliessen, ganz gleich, was B für eine Aussage ist. Das gilt natürlich insbesondere für ¬B. (Alternativ: Aus A folgert man A ∨ B. Aus A ∨ B und ¬A folgert man B.) Da hört sich alles auf! Jeder Widerspruch infiziert seuchenartig
die ganze Theorie. Eine Theorie, in der jede Aussage herleitbar ist, ist natürlich
vollkommen wertlos. (Wenn Historiker zwei verschiedene Datierungen für ein
Ereignis haben, ist es ihnen unangenehm, aber zerstört nicht gleich die ganze
Geschichtswissenschaft. In der Mathematik ist das anders.)
Nun haben wir gesehen, dass nichteuklidische Geometrien nur dann einen
Widerspruch bergen, wenn die euklidische einen Widerspruch birgt; und dass die
euklidische Geometrie widerspruchsfrei ist, wenn die Theorie der reellen Zahlen
widerspruchsfrei ist. Hilbert wollte noch weiter gehen, und neben solchen relativen Konsistenzbeweisen auch absolute finden, etwa für die Widerspruchsfreiheit
der Peano Axiome der Arithmetik. Er schlug auch gleich eine Strategie vor, um
dieses Ziel zu erreichen, nämlich mittels der totalen Formalisierung der Arithmetik. Diese Formalisierung war zu Hilberts Zeiten schon sehr weit gediehen.
Sie war allerdings extrem umständlich (so kommt es etwa erst im zweiten Band
von Russell und Whitehead’s ’Principia Mathematica’ zum Beweis von 2 + 2 = 4
s.
Das Manipulieren der Zeichenketten, zu dem so eine totale formalisierung
führt, lässt sich nun seinerseits wieder als Objekt der Mathematik untersuchen.
Hilberts Grundidee war: Warum sollte nicht rein kombinatorisch zu zeigen sein,
dass es keine Zeichenkette A gibt, so dass A die ebenso wie die Negation ¬A
formal beweisbar sind. In der Metaebene kann diese Aussage über Zeichenketten
70
dann interpretiert werden als die Aussage: die formale Theorie der Arithmetik ist
widerspruchsfrei.
Neben der Konsistenz wird man noch eine andere Forderung an die Axiome
stellen: nämlich dass die Axiome vollständig sind. Das ist zum Beispiel im Aussagenkalkül der Fall. Gilt es auch für die Peano-Arithmetik? Hier ist zu beachten,
dass sich die Vollständigkeit einer mathematischen Theorie auf mehrere Weisen
definieren lässt, nämlich syntaktisch und semantisch. Semantische Vollständigkeit
wäre gegeben, dass sich jeder wahre Satz beweisen lässt. In diesem Sinn ist etwa,
wie schon erwähnt, die Aussagenlogik vollständig. Innerhalb einer rein formalen
Theorie kann man aber nicht von ’Wahrheit’ sprechen. Hier heisst (syntaktisch)
vollständig, dass sich für jede Formel A entweder A oder ¬A herleiten lässt.
(Wenn beides geht, ist das System nicht konsistent).
Die beiden Forderungen (Konsistenz und Vollständigkeit) kann man an Hand
des Sudoku-Spiels darlegen. Hier sind in einem 9 × 9 Quadrat bestimmte Felder
durch Ziffern 1, 2, ..., 9 belegt, und es geht darum, die leeren Felder zu ergänzen,
und zwar so, dass in jeder Zeile, jeder Spalte und jedem der fett ausgezogenen
3 × 3 Quadrate jede der neun Ziffern genau einmal aufscheint, also (logisch!)
keine zweimal. Von einem anständigen Sudoku wird man erwarten, dass es genau
eine Lösung besitzt. Es könnte aber sein, dass die vorgegebenen Daten keine
Lösung erlauben, etwa weil für eins der freien Felder einerseits folgt, dass dort
eine 8 stehen muss, andrerseits, dass dort keine 8 stehen kann. Das entspricht
einem inkonsistenten Axiomensystem. Oder es könnte sein, dass gewisse Felder
nicht eindeutig besetzt werden können, dass also mehrere Lösungen möglich sind.
Für manche Felder lässt sich dann nicht entscheiden, welche Ziffer hingehört. Das
entspricht einem Axiomensystem, dass nicht vollständig ist. Fig. 8.3.
8.7
Hilberts Programm und Gödels Störung
Wie nun lässt sich die Widerspruchsfreiheit der Mathematik beweisen? Vielleicht
steckt bereits in den Axiomen, auch wenn sie uns evident erscheinen, ein Widerspruch. Unsere Sinne lassen sich täuschen, warum nicht auch unser Verstand?
David Hilbert (1862-1943), der führende Mathematiker seiner Zeit, entwickelte sein formalistisches Programm, um absolute Konsistenzbeweise zu erreichen.
Das logische Schliessen lässt sich auf die Anwendung einiger weniger Regeln
zurückführen, also gewissermassen mechanisieren. Dass ein Beweis uns etwas
verstehen hilft, oder dass ein Axiom einleuchtet, ist hierbei irrelevant: was in unserem Bewusstsein vorgeht, ist Privatsache. Worauf es im Formalismus lediglich
ankommt, ist die präzise Berufung auf die einzelnen Schlussregeln. Hilbert entleerte
71
also die mathematischen Theorien ihres Inhalts (Geraden, Mengen, Zahlen). Zurück
bleibt eine Handvoll Zeichen, und eine Menge von Zeichenketten.
Hilberts Plan war es nun, nachzuweisen, dass durch die Umformungen aus
den Peano-Axiomen nicht sowohl eine Aussage A als auch ihre Negation ¬A
hergeleitet werden können; was (wie wir sahen) darauf hinausläuft, zu zeigen,
dass 0 = 1 nicht herleitbar ist. Hilbert war sich der Grösse der Aufgabe bewusst. ’Natürlich bedarf es dazu der hingebungsvollen Mitarbeit von Generationen jüngerer Mathematiker.’ Eine Zeit lang schien der Erfolg zum Greifen nahe.
Doch dann kam einer dieser jüngeren Mathematiker daher und wies zur allgemeinen Verblüffung nach, dass Hilberts Programm nicht durchführbar ist.
Gödel zeigte, dass jede widerspruchsfreie mathematische Theorie, die reichhaltig genug ist, um die Arithmetik zu umfassen, die es also erlaubt, zu zählen
und diese Zahlen 1,2,3,... zu addieren und zu multiplizieren, notwendigerweise
unvollständig ist. Es gibt stets Aussagen, die unentscheidbar sind, also weder aus
den Axiomen heraus bewiesen noch widerlegt werden können: und die Aussage,
dass die Theorie widerspruchsfrei ist, gehört dazu.
Gödels Beweis ist anspruchsvoll und viele Seiten lang, aber der Grundgedanke
ist von bestechender Eleganz. Gödel konstruierte im formalen System eine Aussage G, die (in unserer Interpretation) besagt: ’G ist unbeweisbar’ (also gewissermassen ’ich bin unbeweisbar’). Er zeigte: wenn G beweisbar ist, dann auch
¬G, und umgekehrt. Inhaltlich ist das einigermassen klar, ähnlich wie beim Paradox vom Kreter oder, präziser, bei der Tafel, die auf einer Seite die Aufschrift
trägt: ’Was auf der Rückseite steht, stimmt’ und auf der Rückseite: ’Was auf der
Rückseite steht, stimmt nicht.’ Aber Gödel zeigte, dass es neben dem semantischen Widerspruch einen rein syntaktischen (in der formalen Theorie) gibt. Wenn
` G, dann ` ¬G, und umgekehrt. Also ist G nicht formal beweisbar (sofern das
System widerspruchsfrei ist), ¬ ` G. Das ist aber gerade, was G inhaltlich besagt:
daher ist G wahr, d.h. |= G. Wir verstehen auf der semantischen Ebene, dass G
wahr ist, aber im formalen System ist das nicht herzuleiten.
Üblicherweise geht es in der Mathematik um Gleichungen, Flächen, oder dergleichen. Der Satz ’Diese Aussage ist unbeweisbar’ klingt so gar nicht danach.
Aber ob eine Zeichenkette beweisbar ist oder unbeweisbar, lässt sich präzise formalisieren, und auch der scheinbar suspekte Selbstbezug im Satz kann umgangen werden. Gödel ordnete jeder Zeichenkette eine Zahl zu, die später als deren
Gödel-Nummer bezeichnet wurde. (Jedem Zeichen ¬, `, usw. wird eine natürliche
Zahl zugeordnet, und zwar folgendermassen: wenn das Zeichen mit Zahl j an kter Stelle der Zeichenkette steht, bildet man (pk )j , wobei pk die k-te Primzahl
ist; schliesslich multipliziert man alle diese Potenzen, was liefert zumeist eine
72
riesige Zahl liefert.) Die Aussage G lautet eigentlich: ’Die Zeichenkette mit
Gödel-Nummer g ist nicht beweisbar’, und Gödel arrangierte es so virtuos, dass
g (’gewissermassen zufällig’, wie er nicht ohne Koketterie schrieb) gerade die
Gödel-Nummer von G ist – ein zauberhaftes Kunststück.
Man kann den Zahlen nicht nur ansehen, ob sie die Gödel-Nummern von
grammatisch korrekten Zeichenketten des formalen Systems sind, und diese aus
den Zahlen zurückgewinnen; sondern man erkennt auch, rein arithmetisch, ob
diese Zeichenketten Beweise darstellen. Wenn P (m, n) bedeutet, dass die Zahl m
Gödelnummer des Beweises der Aussage mit Gödel-Nummer n ist, so kann man
eine Zeichenkette G bilden (die, voll ausgeschrieben, hunderte von Seiten füllen
würde), so dass für die Gödel-Nummer g von G gilt, dass P (m, g) für keine Zahl
m gilt. Daraus folgt die Unvollständigkeit.
8.8
Der Teufel und der liebe Gott
Nun zur Unmöglichkeit des Beweises der Widerspruchsfreiheit. Wenn die Arithmetik konsistent ist, gibt es Sätze K, die das im formalen System ausdrücken
(etwa dass 1 = 0 nicht beweisbar ist). Der Satz K ⇒ G ist nicht nur inhaltlich
wahr, sondern formal beweisbar. Also kann K nicht formal beweisbar sein, denn
sonst wäre es G auch, was ja Gödel widerlegt hat. Somit folgt aus dem Beweis
des Unvollständigkeitssatzes, dass die Behauptung ’Das formale System ist konsistent’ selbst eine unbeweisbare Aussage ist. (Sie ist unbeweisbar innerhalb des
formalen Systems. Es ist durchaus denkbar, dass die Konsistenz auf andere Weise
hergeleitet werden kann.)
Der Lieblingsschüler von Hilbert, der geniale John von Neumann, selbst nur
wenige Jahre älter als Gödel, erfasste die Lage sofort. Zweimal hatte er im Traum
geglaubt, einen Beweis der Widerspruchsfreiheit gefunden zu haben. ’Was für
ein Glück, dass ich es nur geträumt habe!’ Denn ein formaler Beweis der Widerspruchsfreiheit hätte bedeutet, dass es laut Gödel doch einen Widerspruch gibt.
Wie Andre Weil gesagt hat: ’Weil es einen Gott gibt, gibt es keinen Widerspruch
in der Mathematik; und wir können das nicht beweisen, weil es den Teufel gibt.’
Dass ein Axiomensystem unvollständig sein kann, haben wir schon öfters
gesehen. Die euklidischen Axiome (ohne das Parallelenpostulat) reichen nicht
hin, um zu zeigen, dass es durch jeden Punkt, der nicht auf einer Geraden liegt,
genau eine Parallele zu der Geraden gibt. Die Axiome von Zermelo und Fraenkel
reichen nicht aus, um die Kontinuumshypothese zu beweisen. Dann fügt man eben
die entsprechenden Aussagen als Axiome hinzu, und hat dann die euklidische
Geometrie, die zermelosche Mengenlehre usw. Das Bemerkenswerte an Gödels
73
Satz ist, dass er nicht nur für die Peano-Axiome, sondern für jede finite Axiomatisierung der Arithmetik gilt. Stets gibt es einen wahren Satz, der nicht beweisbar
ist. Nehmen wir diesen Satz als Axiom mit an Bord (wodurch er trivialerweise
beweisbar wird), dann gibt es neuerlich wahre Sätze, die nicht beweisbar sind,
usw.
Machen wir uns die Unvollständigkeit noch am Beispiel der Goldbachschen
Vermutung klar, die besagt (nennen wir das Aussage C), dass sich jede gerade
Zahl als die Summe zweier Primzahlen schreiben lässt: 8=3+5 usw. Man kann
leicht Computer programmieren, nacheinander alle geraden Zahlen daraufhin zu
überprüfen. Wenn die Vermutung falsch ist, wird man zwar auf diese Art früher
oder später zu einem Gegenbeispiel kommen, und dann ist Goldbach widerlegt.
Aber wenn die Vermutung stimmt, wird der Computer immer weiter rechnen und
zu keinem Abschluss kommen. So kann Goldbach nie bestätigt werden! Aber
natürlich bleibt die Hoffnung aufrecht, dass es für die Goldbach-Vermutung doch
einen Beweis gibt. Auch hier könnte man versuchen, mechanisch vorzugehen:
Man kann Computer programmieren, Schritt für Schritt alle möglichen Texte der
Länge 1,2,3,..., daraufhin zu überprüfen, ob sie Beweise sind. Jeden Beweis wird
man solcherart irgendwann erhalten. Wenn die Arithmetik vollständig wäre, es
also einen Beweis von C oder ¬C gibt, muss dieser früher oder später ausgedruckt
werden. Sie ist aber unvollständig, und daher kann es durchaus sein, dass der
Computer endlos weiterläuft, ohne jemals C oder ¬C zu beweisen. Mit dem
skizzierten Brechstangenverfahren lässt sich also keine Entscheidung erzwingen.
8.9
Entscheidung endgültig verschoben
Wie wir am Beispiel der Aussagenlogik gesehen haben, kann es Verfahren geben,
die rein mechanisch für jede Aussage des formalen Systems entscheiden können,
ob sie eine Tautologie ist oder nicht: im gegebenen Fall mittels Wahrheitstafel.
Selbst in anspruchsvolleren formalen Systemen wäre es denkbar, dass obwohl
nicht jede Aussage formal beweisbar oder widerlegbar ist, so doch von jeder Aussage durch ein ’Entscheidungsverfahren’ bestimmt werden kann, ob sie beweisbar ist oder nicht (ohne dass dieses Verfahren den Beweis, so es denn einen gibt,
mitzuliefern braucht).
Wenige Jahre nach Gödels Unvollständigkeitssatz zeigten Turing und Church
unabhängig voneinander, dass es so ein Entscheidungsverfahren im Fall der PeanoArithmetik nicht geben kann. Turings Beweis war besonders interessant. Um
den Begriff des ’Verfahrens’ zu definieren, führte er virtuelle Computer ein, die
eine Reihe von bestimmten Operationen durchführen können. Turing zeigte, dass
74
es ’universelle Computer’ gibt, die die Arbeitsweise jedes Computers nachahmen können (wenn deren Programm bekannt ist), und die daher grundsätzlich
jedes Computerprogramm ausführen können, wenn auch sehr langsam. Turing
konnte solcherart nachweisen, dass es gewisse Probleme gibt, die unentscheidbar sind. Dazu gehört insbesondere das Halteproblem, nämlich die Frage, ob ein
vorgegebenes Programm (ein Algorithmus) schliesslich stoppen wird, oder der
Algorithmus in eine endlose Schleife gerät (der Computer sich also ’aufhängt’).
Turing zeigte, dass es grundsätzlich kein universelles Schleifenerkennungsverfahren gibt, dass von jedem Computerprogramm angeben kann, ob die Maschine
damit fertig wird oder nicht: manchmal muss man das Programm einfach laufen
lassen, und sehen, was passiert.
Es ist übrigens keineswegs so, dass die unentscheidbaren Sätze des formalen
Systems philosophisch angehaucht sein müssen, etwa stets einen Selbstbezug reflektieren. So ist beispielsweise die Frage, ob ein gegebenes Polynom in mehreren
Veränderlichen, und ganzzahligen Koeffizienten, auch ganzzahlige Nullstellen besitzt, zweifellos eine handfeste mathematische Frage (solche Gleichungen heissen
diophantisch: Beispiele sind x2 +y 2 −z 2 = 0 oder x4 +3y 4 −z 4 +2 = 0). Durch die
Beiträge von zahlreichen Mathematikern wurde aus dem Unvollständigkeitssatz
hergeleitet, dass es kein allgemeines Verfahren gibt, dass alle diese Fragen entscheiden kann. Gewissermassen als Nebenprodukt der dazu nötigen Überlegungen zur
Berechenbarkeit entdeckte man, dass es eine Formel gibt, die alle Primzahlen
liefert (man hatte die Hoffnung, dass es so eine Formel gibt, beinahe aufgegeben).
Die Formel ist allerdings sehr kompliziert (Fig.8.4)! Sie wird durch ein Polynom mit 26 Veränderlichen geliefert: jeder positive Wert dieses Polynoms ist eine
Primzahl.
Die Mathematiker fanden sich damit ab, dass die Wahrheit manchmal unentscheidbar, und die Widerspruchsfreiheit nicht beweisbar ist. Das macht ihren
Beruf nur noch interessanter. John von Neumann überliess Gödel das Feld der
mathematischen Logik und wandte sich anderen Fragen zu. Ein Dutzend Jahre
später wurde er, neben Turing, zu einem der Väter des programmierbaren Computers. Im Nachhinein wurde klar, dass die Entwicklung der mathematischen
Logik, gänzlich unbeabsichtigt, die wesentlichen Grundlagen für das Computerzeitalter geliefert hatte.
Hilberts formale Systeme wurden Maschinen, und der Unvollständigkeitssatz
entpuppte sich als Aussage über die Grenzen von Computerprogrammen. Die
Mathematik ist nicht ausschöpfbar, und der Beruf des Mathematikers kann nie
durch Computer obsolet werden. Er ist nicht der einzige Beruf, der durch Computer nicht zu ersetzen ist; aber der einzige, von dem das bewiesen worden ist.
75
Herunterladen