WAS IST MATHEMATIK? January 29, 2013 1 1.1 EINS, ZWEI, DREI, UND SO WEITER... Mathematik treiben heisst Beweisen Als Mathematiker trifft man immer wieder auf zwei Vorurteile: 1. Mathematiker sind gute Kopfrechner (das wird eher von einfachen Gemütern geäussert); 2. In der Mathematik gibt es nichts Neues mehr zu entdecken. (Auf diese Ansicht trifft man auch bei hochgebildeten Gesprächspartnern). Das ist völlig falsch! Mathematik ist heute aktiver denn je. Heute leben viel mehr Mathematiker als in allen vergangenen Jahrhunderten zusammen. Auch an unserer Universität ist die Fakultät für Mathematik in den letzten Jahrzehnten enorm gewachsen. In Österreich gehen 12-14 Prozent aller FWF Fördermittel an die Mathematik. Weltweit gibt es 500 mathematische Journale. Jedes Jahr werden Millionen von neuen Lehrsätzen entdeckt. Mathematik ist der unerlässliche Schlüssel für jede Hochtechnologie. Aber es gibt einen guten Grund für die fehlerhafte Auffassung, dass in der Mathematik schon alles bekannt ist. Denn was in der Mathematik entdeckt worden ist, bleibt für alle Zeit gültig. (Wie ungewöhnlich das ist, zeigt der Vergleich mit Physik: Aristoteles vermutete, dass es vier Elemente gibt, Himmelssphären sich um die Erde drehen, alles nach unten fällt etc... Seine Auffassungen sind fast alle grundfalsch. In der Mathematik blieb dagegen alles richtig, was in den Büchern Euklids steht, es ist nur noch viel Neues dazugekommen. Der Schulunterricht freilich blieb lange bei den alten Griechen stehen, auch jetzt noch reicht der Stoff kaum über das hinaus, was bereits vor 300 Jahren bekannt war. Die Mathematik ist kumulativ, sie wirft nichts weg (aber räumt oft auf). Schon die alten Griechen hatten verstanden, dass Mathematik treiben beweisen heisst. (Jeder Lehrsatz muss aus schon bekannten Lehrsätzen logisch hergeleitet sein, sonst gilt er nicht als Lehrsatz). Natürlich muss man dabei irgendwo anfangen,also von grundlegenden Annahmen ausgehen. Diese heissen Axiome. Eu- 1 klid hat die Konstruktion einer mathematischen Theorie (der Geometrie) bereits vorgeführt. Wir wollen mit einem klassischen Beispiel für einen Lehrsatz beginnen und zeigen (mit Euklid): Es gibt unendlich viele Primzahlen. 1.2 Die natürlichen Zahlen Wir lernen früh zu zählen: 1,2,3,... Dazu benutzen wir die Menge der natürlichen Zahlen N, die aus 1,2,3,... besteht. (Konvention: wir beginnen bei 1, nicht bei 0. Das ist reine Abmachungssache, im französischen Schulunterricht etwa beginnen die natürlichen Zahlen mit 0). Zum Zählen verwendet man Hilfsmittel, wie etwa Striche, Finger, Steinchen, später mehr oder weniger raffinierte Ziffernsysteme... Wir wollen hier zunächst mit Steinchen arbeiten: übrigens führte das lateinische Wort dafür,calx (in dem auch unser ’Kalk’ steckt) zum Wort Kalkül. Bei den Steinchen kann man immer noch eines dazulegen (zumindest theoretisch). Wir können diese Steinchenhaufen, die für Zahlen stehen, in Linien anordnen (und ein Vergleich zweier solcher Haufen zeigt dann sofort, welches die kleinere, welches die grössere ist). Wir können die Häufchen addieren, also zusammenlegen n + m (dasselbe wie m + n) Wir können auch das kleiner Häufchen vom grösseren subtrahieren (abziehen). Die Steinchen erlauben es auch, Zahlen zu multiplizieren: n×m. Man arrangiert sie am besten in einem Rechtecksschema von m Reihen zu je n Steinchen (und so sieht man sofort: n × m ist dasselbe wie m × n). Jetzt können wir auch dividieren. 20 durch 5 dividieren heisst: Immer wieder 5 abziehen (das geht 4 mal) Manchmal ’geht es sich nicht aus’, wenn wir z.b. 23 durch 5 dividieren, bleibt ein Rest 3 (eine Zahl kleiner als 5). Manchmal ist n durch m teilbar, und manchmal gibt es einen Rest (nämlich wenn ein Haufen von weniger als m Steinchen übrig bleibt). Die Zahl n heisst zusammengesetzt wenn sie durch irgend eine Zahl m teilbar ist (also in ein Rechtecksschema angeordnet werden kann), d.h. wenn sich n durch eine kleinere Zahl dividieren lässt, so dass kein Rest übrig bleibt: 6 ist durch 2 und 3 teilbar, 20 durch 2, 4, 5, 10 teilbar,... Die Primzahlen sind solche, die sich durch keine Zahl dividieren lassen (ausser natürlich durch sich selbst, und durch 1). In dem Sinn sind die Primzahlen also besonders renitent: lassen sich in keiner Weise als Rechteck anordnen. 2 Wir halten uns an eine Konvention: demnach soll 1 nicht als Primzahl bezeichnet werden. Die natürlichen Zahlen bestehen also aus der 1, aus den Primzahlen 2,3,5,7,11,... und aus den zusammengesetzten Zahlen 4,6,8,9,10,... Kurz zur sogenannten Primzahlzerlegung: jede Zahl 6= 1 ist entweder prim, oder zusammengesetzt, also das Produkt von kleineren Zahlen. Diese sind ihrerseits wiederum prim, oder zusammengesetzt, z.B. 20 = 4 × 5 = 2 × 2 × 5. Jede Zahl ist als Produkt von Primzahlen darstellbar. Diese sind gewissermassen die ’Atome’ der Zahlen, alle anderen lassen sich daraus bilden durch Multiplikation. Erste Frage: Wie findet man die Primzahlen? Hier kann man das ’Sieb des Erathostenes’ verwenden: wir ordnen (in Gedanken) die natürlichen Zahlen in einer Reihe, alle Vielfachen von 2 scheiden aus, alle Vielfachen von 3, alle Vielfachen von 5,... Was übrig bleib sind die Primzahlen. Aber was passiert jenseits unseres beschränkten Gesichtskreises? Primzahlen werden anscheinend immer seltener. Aber hört ihre Reihe irgendwann ganz auf? 1.3 Unendlich viele Primzahlen Gibt es eine grösste Primzahl? Anscheinend nein. Aber wie beweist man das? Durch Nachrechnen ist die Aufgabe nicht lösbar, sie sieht zunächst hoffnungslos aus. Euklid fand einen wunderbaren Ausweg: Er beruht auf einer Methode, die Mathematiker sehr oft verwenden, der Methode des indirekten Beweises. Angenommen es gibt nur endlich viele Primzahlen, wir listen sie (in Gedanken) auf: p1 , ..., pL . Bilden wir nun die ’euklidische’ Zahl N = p1 ×p2 ×...×pL +1. Division durch jedes pi liefert Rest 1. Also ist N selbst Primzahl, oder zerlegbar in Primzahlen, die in der vorgegebenen Liste nicht vorgekommen sind. Beispiel: Betrachten wir die Liste 2, 3, 5 von Primzahlen. Die ’euklidische Zahl’ ist N = 31, und 31 ist durch 2,3,5 nicht teilbar. Also gibt es ausser 2,3,5 noch weitere Primzahlen. Achtung! 31 ist eine Primzahl, aber im allgemeinen muss N nicht prim sein. So gilt 2 × 3 × 5 × 7 × 11 × 13 + 1 = 30031 = 59 × 509. (Es ist bis heute unbekannt, ob es unendlich viele solcher ’euklidischer’ Primzahlen gibt.) Die derzeit grösste bekannte Primzahl ist 243.112.609 − 1 (und hat ca 13 Millionen Ziffern). Das Aufstellen von neuen Primzahlrekorden ist eine eigene Sportart (und dient dazu, die Leistungsfähigkeit von Computern zu testen). Obige Zahl ist 3 eine Mersenne-Zahl, dh der Gestalt 2p − 1, wobei p prim ist. Sind unendlich viele Mersenne Zahlen Primzahlen? Auch diese Frage ist offen. Die Methode des indirekten Beweises zeigt, dass die Mathematik eine Technik des Gedankenexperiments ist (Musil sprach vom ’Möglichkeitssinn’ der Mathematiker, im Gegensatz zum Wirklichkeitssinn.) Man macht eine Annahme, zieht daraus Folgerungen, bis man zu einem Widerspruch kommt, und kann daraus schliessen, dass die Annahme falsch ist. Im vorliegenden Fall liefert unser Gedankenexperiment eine Aussage über unendlich viele Zahlen, die man niemals durch blosses Ausrechnen hätte herleiten können! Im Gegensatz zu diesem frühen Erfolg steht die Frage nach den sogenannten Primzahlzwillingen. Wenn p > 2 eine Primzahl ist, dann ist p ungerade, die nächste Zahl p + 1 also gerade, daher sicher nicht prim, aber schon die folgende kann wieder prim sein. Die beiden Zahlen p und p+2 heissen dann Primzahlzwillinge. 5, 7 oder 11, 13 oder 17, 19 etc... sind Primzahlzwillinge (das grösste bekannte Paar ist derzeit 3756801695685 × 2666669 ± 1, es hat 200700 Ziffern.) Schon die Griechen stellten sich die Frage, ob es unendlich viele Primzahlzwillinge gibt. Bis heute ist die Frage offen. Es steht sogar eine stärkere Vermutung im Raum: nämlich dass es für jedes n unendlich viele Paare von Primzahlen der Gestalt p, p + 2n gibt (Polignac). Eine andere berühmte, seit 300 Jahren offene Frage ist die Goldbach Vermutung: Jede gerade Zahl > 2 ist Summe zweier Primzahlen. 4 = 2 + 2, 20 = 17 + 3 usw (für alle Zahlen mit höchstens 18 Stellen verifiziert, aber was ist das schon?) Heute weiss man: jede gerade Zahl ist Summe von höchstens 6 Primzahlen. Bewiesen wurde: Zwischen n und 2n liegt stets eine Primzahl (ein tiefer Satz!) Offen ist die Frage: Liegt auch zwischen n2 und (n + 1)2 stets eine Primzahl? (Vermutung von Legendre) Wir kommen später kurz auf Primzahlen zurück. 1.4 Vollständige Induktion Indirekte Beweise sind nur eines von vielen Hilfsmitteln aus der mathematischen Trickkiste. Die Methode der vollständigen Induktion (seit ca 400 Jahren im Einsatz) ist eine weitere Beweismethode, die es oft erlaubt, das Unendliche in den Griff zu bekommen. Hier ein Beispiel: Die Formel 1 + 2 + 3 + ... + n = 4 n(n + 1) . 2 Das ist eine Aussage A(n), sie hängt von n ab. Wir wollen sie für alle, unendlich vielen Zahlen n = 1, 2, 3, ... prüfen. Wie soll das gehen? Die Aussage A(1) gilt, ebenso A(2), ebenso A(3). Das sieht man sofort durch einfaches Nachrechnen. Aber so geht es nicht weiter! Besser gesagt, so geht es ewig weiter. Dieser Zugang bringt nichts, ausser ein subjektives Gefühl der Überzeugtheit. Daher machen wir wieder ein Gedankenexperiment. Wir nehmen an, dass A(n) für irgend ein n gilt. Und wir können dann zeigen: dann gilt auch A(n + 1). Beweis: 1 + 2 + ... + n + (n + 1) = (1 + ... + n) + (n + 1) = n(n + 1) 2(n + 1) + 2 2 (n + 1)(n + 2) (n + 1)((n + 1) + 1) = . 2 2 Dh aus A(n) folgt A(n + 1). Also folgt aus A(1) (diese Aussage haben wir ja überprüft) sofort die Aussage A(2), daraus folgt A(3), daraus A(4) usw. Dieser ’Dominoeffekt’ liefert somit die Aussage für alle natürlichen Zahlen. Übrigens gibt es für die Aussage auch andere Beweise, auf einen ist der sechsjährige Gauss gekommen (vorführen). Achtung: Wir dürfen nie vergessen, auch den Induktionsanfang zu überprüfen! Nimmt man z.B. als Formel B(n) = n(n + 1) + 3, 2 dann kann man wieder beweisen, dass aus B(n) stets B(n + 1) folgt. Nur stimmt eben B(n) für kein n, insbesondere nicht für n = 1. Auch sonst kann man sich manchmal an der Nase herumführen. Z.B. beim Beweisen des offenkundig falschen Satzes C(n): je n Punkte liegen auf einer Geraden. Der Satz gilt zweifellos für n = 1 und n = 2. Jetzt Induktionsannahme: je n Punkte liegen auf einer Geraden. Betrachten wir nun n + 1 Punkte P1 , P2 , ..., Pn , Pn+1 . Aus C(n) folgt, dass P1 auf der Geraden durch P2 , ..., Pn liegt, und ebenso Pn+1 (denn P2 , ..., Pn+1 sind ja wieder n Punkte). Also liegen alle n + 1 Punkte auf einer Geraden! Wieso war das falsch? 1 + 2 + ... + n = 1.5 Die Axiome von Peano Was sind die Grundlagen für die Theoreme über natürliche Zahlen? Die Peano Axiome. (Sie wurden erst ca 1880 aufgestellt, davor schien es nicht notwendig: 5 die natürlichen Zahlen erschienen gewissermassen ’gottgegeben’.) Hier seien die Peano Axiome nur kurz skizziert: Wir gehen aus von einer Menge N, deren Elemente n wir als ’Zahlen’ bezeichnen werden. Wir nehmen an (dh. wir ’postulieren’): zu jedem n gibt es genau ein N (n) in N (den Nachfolger!). Zwei verschiedene Zahlen sollen verschiedene Nachfolger haben. Jede Zahl sei Nachfolger einer Zahl, mit einer einzigen Ausnahme (die wir mit 1 bezeichnen). Und ausserdem verlangen wir (das ist jetzt ein Axiom!): Wenn eine Teilmenge M von N die Zahl 1 enthält und mit jeder Zahl n auch deren Nachfolger N (n), dann ist M nichts anderes als die Menge aller natürlichen Zahlen, dh M = N. Die Addition wird durch Induktion erklärt: Für jedes m wird m + 1 wird definiert als N (m). Wenn m + n schon definiert, dann sei m + (n + 1) per Definition (m + n) + 1. Die Multiplikation ebenso: Für jedes m wird m × 1 als m definiert. Wenn m × n bereits definiert ist, dann wird m × (n + 1) definiert als (m × n) + n. Wir sehen: die vollständige Induktion ’steckt’ in den natürlichen Zahlen. Aus diesen Axiomen kann alles andere, was wir über die natürlichen Zahlen wissen, hergeleitet werden: z.B. die Ordnung der Zahlen(n < m), die Subtraktion, die Division mit Rest etc. Mehr darüber später! 1.6 Kurze Rückschau Oft begehen Anfänger den Fehler, aus A(n + 1) die Formel A(n) herzuleiten. Da laut Induktionsannahme A(n) als richtig vorausgesetzt wird, folgert man dann: Also ist A(n + 1) richtig. Das ist ein Fehlschluss. Wenn aus einer Annahme etwas falsches hergeleitet wird, muss auch die Annahme falsch sein. Aber wenn etwas richtiges hergeleitet wird, muss die Annahme noch nicht richtig sein. Aufgabe: Beweisen Sie durch Induktion: wenn die Menge M genau n Elmente hat, dann hat sie 2n Teilmengen (wobei die leere Menge und die ganze Menge mitgezählt werden). Nächste Aufgabe: Wenn wir n Punkte auf dem Kreis durch Sehnen verbinden, liefert das 2(n−1) Teilmengen des Kreises. Das schaut genauso aus wie die vorige Aussage, und stimmt auch für n = 1, 2, 3, 4, 5, aber dann nicht mehr! Hier noch eine Bemerkung: Es gibt unendlich viele Primzahlen der Form 4n+ 1 einerseits, und unendlich viele der Form 4n + 3 andrerseits. Fermat hat gezeigt: Jede Primzahl der ersten Gestalt lässt sich als Summe von 2 Quadraten darstellen: 5 = 12 +22 , 13 = 22 +32 , 17 = 12 +42 etc. Dagegen lässt 6 sich keine Primzahl aus der zweiten Reihe als Summe von 2 Quadraten darstellen. (Aber jede Zahl lässt sich als Summe von höchstens 4 Quadraten darstellen, wie Lagrange gezeigt hat). Mathematiker und Mathematikerinnen halten das für eine wunderschöne Aussage. Manche andere bleiben davon unberührt. Bleibt natürlich die Frage: Wozu das Ganze? In den letzten Jahrzehnten hat Theorie der Primzahlen wichtige Anwendungen gefunden, aber das ist kein Argument. Viele Jahrhunderte lang war keine Anwendung denkbar, und doch hat die Zahlentheorie viele fasziniert. Liegt hier ein besonderes Talent vor, ähnlich der Musikalität? 7 2 2.1 PUNKTE UND STRICHE Dreiecksgeschichten Im Gegensatz zur Zahlentheorie war die Nützlichkeit der Geometrie immer evident (z.B. für Architektur oder Navigation). Einer der ältesten geometrischen Lehrsätze ist der von Pythagoras: Wenn a, b, c die Längen der Seiten eines rechtwinkeligen Dreiecks sind (und dabei c der Hypotenuse entspricht, also der dem rechten Winkel gegenüber liegende Seite), so gilt a2 + b 2 = c 2 . Der klassische Beweis (es gibt viele andere) folgt sofort aus Fig 2.1 und der Beziehung (a + b)2 = a2 + 2ab + b2 , die ja auch unmittelbar einleuchtend ist (wieder über Quadrat mit Seitenlänge a + b herzuleiten). Der Satz war schon Ägyptern und Babyloniern bekannt, doch erst die Griechen bauten das Theorem in eine Theorie ein (also ein auf Axiomen beruhendes Gebäude von Lehrsätzen). Im Schulunterricht lernen wir einiges über Dreiecke. Beispiel: Die Streckensymmetralen schneiden einander in einem Punkt (nach Fig 2.2 ist das fast evident, denn wenn P der Schnittpunkt der Streckensymmetralen von AC und AB ist, dann gilt P A = P C und P A = P B, also P A = P C, dh P liegt auch auf der Streckensymmetralen von BC). Oder: die Höhenlinien schneiden einander in einem Punkt. (Der Beweis ist jetzt nicht ganz so einfach, ausser man kennt den Trick – nämlich durch die Ecken A, B, C jeweils die Parallelen zu den gegenüberliegenden Seiten zu ziehen. Die Höhenlinien von ∆ABC sind dann gerade die Steckensymmetralen vom neuen Dreieck, schneider einander also in einem Punkt, s. Fig 2.3.) Viele Sätze über Dreiecke sind tausende Jahre alt, aber immer wieder kommen neue dazu. Z.B. wurde erst vor ein paar hundert Jahren entdeckt (und ein zauberhafter Beweis dafür stammt von HA Schwarz, bei dem Musil studierte): Das Dreieck der Höhenfusspunkte ist unter allen Dreiecken, deren Ecken auf den Seiten von ∆ABC liegen, jenes mit dem kleinsten Seitenumfang, s. Fig 2.4. Ähnlich überraschend ist der Satz von Morley, der bloss hundert Jahre alt ist und den Griechen gewaltig imponiert hätte. Wenn man jeden Winkel von ∆ABC dreiteilt, und die Schnittpunkte der Teilungslinien betrachtet, die jeweils einer Seite am nächsten sind, so erhält man ein gleichseitiges Dreieck, s.Fig 2.5. 8 2.2 Die Tücken der Anschauung Das sind jedesmal sehr schöne Ergebnisse, relativ leicht zu erzielen (zumindest, wenn man weiss, wie). Die euklidische Geometrie steht heute kaum mehr im Zentrum der Forschung, aber liefert immer wieder neue, ansprechende Resultate, und hat vermutlich die höchste ästhetische Rendite (zb in den Büchern von Coxeter). Der Grund ist wohl die Nähe zur Anschauung. Das birgt aber auch eine Gefahr: denn die Anschauung ist trügerisch, wie wir von den optischen Täuschungen her wissen. Sie kann daher zu Fehlschlüssen führen, zb jenem, dass jedes Dreieck gleichschenkelig ist 8Fig 2.6). ’Beweis’: Betrachten wir die Winkelsymmetrale von A. Wenn sie senkrecht zu BC ist, ist das Dreieck gleichschenkelig. Angenommen, sie ist nicht senkrecht. Dann schneidet sie die Streckensymmetrale von BC in einem Punkt P . Es seien E und F die Projektionen von P auf die Seiten AB und AC. Man sieht aus der Zeichnung leicht, dass AE = AF und dass BE = F C gilt. Daraus schliesst man (fälschlich) dass AB = AC folgen muss. Tatsächlich liegt aber P ausserhalb des Dreiecks, und F zwar zwischen A und C, aber E nicht zwischen A und B. Die Zeichnung hat uns irregeführt. Hier erkennt man sofort, dass ein Fehler vorliegen muss, und findet ihn auch bald, aber wie ist es, wenn das Resultat sich nicht so unmittelbar als unsinnig deklariert? Tatsache ist: es kommen Fehler in der Mathematik vor, aber meist werden sie schnell von Kollegen entdeckt. Allerdings, was passiert, wenn sich kein Kollege jemals dafür interessiert? Überhaupt hat man in der zweiten Hälfte des 19. Jahrhunderts verstanden, dass das Axiomenssystem von Euklid unzureichend ist (es sind zwar die ’richtigen’ Lehrsätze hergeleitet worden, aber die Beweise waren, aus heutiger Sicht, unvollständig, denn sie beriefen sich auf die Anschauung statt auf rein logische Schlüsse). Um die Verlockungen der Anschauung auszuschliessen, griffen Geometer zu drastischen Mitteln; einer gewisser Diesterweg etwa trug über Geometrie nur im völlig verdunkelten Hörsaal vor. Insbesondere hat Pasch gezeigt, dass man zu Euklids Axiomen weitere Axiome hinzufügen muss, wie etwa jenes, wonach eine Gerade, die nicht durch einen Eckpunkt des Dreiecks ∆ABC geht, aber eine Seite dieses Dreiecks schneidet, dann auch eine andere Seite schneiden muss; oder Axiome für das ’Dazwischenliegen’, wonach die Punkte auf einer Geraden geordnet, offen und dicht liegen (es gibt also keinen ersten oder letzten Punkt, und zwischen je zwei Punkten liegt noch einer). Erst 1900 hat Hilbert in seinem Buch ’Grundlagen der Geometrie’ das alles repariert. So eine ’Reparatur’ des Axiomensystems ist im Grund nichts 9 gravierendes – es bleiben genau dieselben Sätze gültig, nur das, was vordem ’unterbewusst’ war, geht jetzt ’bewusst’ in den Beweisgang ein. Hier sollen nicht alle Axiome der Geometrie erläutert werden, sondern nur eine Orientierung gegeben. Euklid’s Axiome bilden drei Gruppen. Die erste enthält Aussagen wie: ’Ein Punkt ist das, was keinen Teil hat’ oder ’Eine Gerade hat keine Breite’. Solche Aussagen werden heute nicht mehr verwendet. Sie haben einen gewissen didaktischen Wert (z.B. wenn man einem Kind erklären möchte, was es sich unter einem Punkt vorstellen soll), aber heute würde man von den Axiomen keine anschauliche Evidenz erwarten. Die zweite Gruppe besteht aus Aussagen wie: ’wenn zwei Grössen einer dritten gleich sind, sind sie einander gleich’, ’wenn gleiches zu gleichem zugefügt wird kommt das gleiche heraus’ ’das ganze ist grösser als seine Teile’ etc. Das sind die sogenannten logischen Aussagen, oder ’allgemeinen Begriffe’. Und schliesslich, in der dritten Gruppe, die eigentlichen geometrischen Aussagen (Euklid nannte sie Postulate): ’durch je zwei Punkte geht eine Gerade’, ’jede Gerade lässt sich verlängern’ ’Mit jedem Mittelpunkt und Abstand lässt sich ein Kreis ziehen’, ’alle rechten Winkel sind einander gleich’. Und dann eben noch das Parallelenaxiom. Hilbert schlug 21 Axiome vor (eines erwies sich später als verzichtbar). Er geht von drei Arten von ’Dingen’ aus, die als ’Punkte’, ’Geraden’ und ’Ebenen’ bezeichnet werden und mit sogenannten ’Inzidenzrelationen’ verbunden werden (’liegt auf’). Nur auf diese Verknüpfungen kommt es an. Neben den Inzidenzaxiomen gibt es Axiome für das ’Dazwischenliegen’ (von Punkten auf einer Geraden) und für die Kongruenz von Strecken und Winkeln (inklusive das ’Abtragen’ einer Strecke). Heute gibt es mehrere konkurrierende Axiomensysteme für die euklidische Geometrie, das eleganteste stammt von Tarski (aber man muss mehrere Jahre Mathematik studiert haben, um es zu verstehen). 2.3 Das Parallelenaxiom Mit einem ganz speziellen Axiom Euklids hat es aber eine besondere Bewandtnis, nämlich dem Parallelenaxiom. Es besagt: Wenn (in der Ebene) ein Punkt P nicht auf einer Geraden g liegt, so gibt es genau eine Gerade p, die durch P geht und parallel zu g ist (dh mit g keinen Punkt gemeinsam hat). Das sieht zunächst evident aus. Bei zweitem Hinsehen ist es nicht evident. Wer auf einem Bahngleis steht, merkt das: die Schienen scheinen sich irgendwo am Horizont zu schneiden. Die alten Griechen hatten keine Eisenbahn, aber ein sehr gutes Gespür für mathematische Wahrheiten, und sie merkten, dass es sich im Gegensatz zu den anderen 10 Axiomen (zwei verschiedene Geraden haben höchstens einen Punkt gemeinsam; durch zwei Punkte geht genau eine Gerade; gleiches zu gleichem addiert ergibt gleiches, usw.) hier um etwas handelt, was nicht unmittelbar sinnfällig ist (sondern etwas aussagt, das über unseren Gesichtskreis hinausgeht). Jedenfalls hatte dieses ’5. Postulat’ einen anderen Stellenwert als die übrigen Axiome. Viele wollten es als Lehrsatz auffassen, also aus den übrigen Axiomen herleiten. Das stiess aber auf unerwartete Schwierigkeiten. Zahlreiche der bekannten Sätze konnten nicht verwendet werden, da man sie nur unter Benutzung des Parallelenaxioms hergeleitet hatte. Dazu zählen Sätze wie: die Winkelsumme eines Dreiecks ist 180 Grad (=zwei rechte Winkel); es gibt Dreiecke von beliebig grossem Inhalt; drei Punkte liegen entweder auf einer Linie oder auf einen Kreis; es gilt der Satz von Pythagoras, usf. Ja es stellte sich von obigen (und vielen anderen) Sätzen heraus, dass sie äquivalent waren zum Parallelenaxiom. Man hätte das Parallelenaxiom durch einen dieser Sätze ersetzen können. Im 18. Jahrhundert begann dann Saccheri eine Frontalangriff auf das Problem. Er versuchte es mit einem indirekten Beweis. Genauer ging er folgendermassen vor. Von einer Geraden zog er zwei senkrechte Strecken gleicher Richtung und gleicher Länge, und verband ihre Eckpunkte, so dass ein Viereck entstand (Fig. 2.7). Die Winkel der Verbindungsgeraden mit den Senkrechten müssen gleich gross sein (das folgt sofort aus der Symmetrie, und ist leicht zu beweisen). Also gibt es drei Möglichkeiten für diese Winkel: (a) sie sind beide gerade (und das liefert natürlich das Parallelenaxiom); (b) sie sind beide stumpf; (c) sie sind beide spitz. Saccheri glaubte nun, aus (b) und (c) Widersprüche hergeleitet zu haben. Er hatte sich aber bei (c) geirrt. Ähnlich erging es auch anderen. Oft geschah es, dass ein Mathematiker einen Beweis zu finden glaubte; seine Kollegen waren immer schnell in der Lage, den Fehlschluss aufzudecken. Das ging hundert Jahre so. Dann, gegen 1830, entdeckten Bolyai und Lobatchevski ungefähr zeitgleich, dass die Annahme (c) zu einer konsistenten Geometrie führt, die verschieden ist von der euklidischen. Sogar sehr verschieden! Durch jeden nicht auf einer Geraden liegenden Punkt gehen jetzt unendlich viele Parallelen. Die Winkelsumme eines Dreiecks ist kleiner als 180 Grad (und zwar ist die Differenz umso grösser, je kleiner der Flächeninhalt des Dreiecks ist), usf. Bolyais Vater schrieb darüber dem schon recht alten Gauss. Der bemerkte sauertöpfisch, dass er den jungen Bolyai nicht loben konnte, da er dasselbe Resultat schon selber längst entdeckt (wenn auch nicht publiziert) hatte. Und so war es auch: das geht an einem Brief hervor, den Gauss bereits ein Jahrzehnt früher geschrieben hatte. Er wollte nicht die dumpfe Masse mit seiner verwirrenden Entdeckung erregen (’Ich fürchte das 11 Geschrei der Böotier’). Tatsächlich stand ja seine Erkenntnis in totalem Widerspruch zu Äusserungen von Kant und Schopenhauer. 2.4 Nicht-euklidische Geometrien Alle drei (Gauss, Bolyai und Lobatchevski) hielten ihre Geometrien für ebenso richtig wie die euklidische, nur halt anders. Aber erst 1878 fand der Italiener Beltrami das entscheidende Argument, aus dem hervorgeht, dass euklidische und nichteuklidische Geometrien (also die Annahmen (a) und (c)) logisch gleichwertig sind, und mathematisch gesprochen auf gleichem Fuss stehen. Sehen wir uns das kurz an (das ist nur eine grobe Skizze!), an Hand einer Begründung, die der grosse Mathematiker Poincaré später geliefert hat. Wir sind damit vertraut, dass in der Kartographie die Distanzen verzerrt werden, bei der Mercator Projektion etwa scheint Grönland gröesser als Europa, obwohl es nur ein Fünftel so gross ist. Was auf der Erdoberfläche eine kürzeste Verbindung zwischen zwei Punkten ist (etwa zwischen Wien und Tokio) ist jetzt verzerrt. Ein Flugzeug, das ’schnurgerade’ von hier nach Tokio fliegt, wird nicht dem Breitenkreis folgen. Es kommt in ziemlich arktische Regionen hinein. So etwas ähnliches, eine verzerrte Kreisfläche, stellen wir uns jetzt vor (die PoincaréScheibe). Dort sind die Distanzen gemäss eines Rechengesetzes so verzerrt, dass sie immer grösser werden, je näher man dem Rand kommt. Dadurch sind die kürzesten Verbindungen zwischen zwei Punkten nicht mehr Geraden, sondern Halbkreise, die den Scheibenrand senkrecht treffen (Fig. 2.8). Hier gelten nun die Axiome des Euklid: durch je zwei Punkte geht genau eine *’Gerade’ (nämlich so ein Halbkreis), usw. Nur das Parallelenaxiom gilt nicht. Durch einen Punkt gehen mehrere (sogar beliebig viele) ’Geraden’, die parallel zu einer vorgegebenen ’Geraden’ sind. Daher auch einige überraschende Folgerungen: die Winkelsumme des Dreiecks ist kleiner als zwei rechte Winkel, und so weiter. Wir haben hier eine Welt, in der Saccheris Fall (c) gilt. In dieser Welt kann man also eine nichteuklidische, ’hyperbolische’ Geometrie treiben, oder besser gesagt nachäffen, denn die Geraden sind durch Halbkreise ersetzt. Und so zeigt sich, dass Saccheris Programm undurchführbar ist. Denn wenn unter Annahme (c) ein Widerspruch auftritt (man also sowohl eine Aussage A als auch ihre Negation nonA herleiten kann), dann kann man dasselbe auch mit den Halbkreisen auf der ’Poincaré-Welt’ machen. Die ist aber auf eine Kreisdcheibe in der euklidischen Ebene projiziert, mit Hilfe unserer Landkarte. Man hätte somit einen Widerspruch in der euklidischen Geometrie selbst gefunden! Übrigens kann man dasselbe auch umkehren und zeigen: ein Widerspruch 12 aus dem Parallelenaxiom (also der Annahme (a)) führt zu einem Widerspruch für die Annahme (c). Euklidische und nicht-euklidische Geometrie stehen und fallen gemeinsam. Eine ist so konsistent (also widerspruchsfrei) wie die andere. 2.5 Elliptische Geometrie Dasselbe gilt auch für andere, sogenannte ’elliptische’ Geometrien, bei denen Annahme (b) vorausgesetzt wird (durch P geht keine Parallele zu g) und die Winkelsumme von Dreiecken demgemäss grösser als 180 Grad sein wird. Allerdings muss man die Zwischenaxiome der euklidische Geometrie etwas modifizieren, und durch sogenannte Trennungsaxiome ersetzen. Auch hier ist dann die Konsistenz äquivalent zu jener der euklidischen Geometrie. Es gibt dafür sogar ein besonders einfaches (und instruktives) Modell. Betrachten wir (wieder im dreidimensionalen euklidischen Raum) einen festen Punkt F . Die Geraden durch F wollen wir jetzt als ’Punkte’ bezeichnen, und die Ebenen durch F als ’Geraden’. Dann gilt das übliche: durch je zwei ’Punkte’ führt genau eine ’Gerade’, je zwei ’Geraden’ schneiden sich in einem ’Punkt’ usw. Und natürlich gibt es keine Parallelen, denn je zwei ’Geraden’ müssen sich in einem ’Punkt’ schneiden (je zwei ’richtige’ Ebenen durch F schneiden sich längs einer ’richtigen’ Geraden durch F ). Vielleicht knnen wir uns das noch besser vorstellen, wenn wir uns eine Kugel um den Mittelpunkt F vorstellen. Den ’Geraden’ (also den Ebenen durch F ) entsprechen jetzt die Grosskreise auf der Kugel, denn dort schneidet die Ebene die Kugel. Ebenso entsprechen den ’Punkten’ (also den Geraden durch F ) die Schnittmengen mit der Kugel, also die antipodischen Punktepaare. Für einen Nichtmathematiker scheint es zunächst ausgemachter Blödsinn, eine Gerade durch F (oder ein Paar antipodischer Punkte) als einen ’Punkt’ zu bezeichnen, oder einen Grosskreis als eine Gerade. Wo bleibt denn dann die ’Geradheit’, das sozusagen schnurgerade, an das wir denken? Aber was man sich unter einem Punkt vorstellt, und einer Geraden, ist eigentlich Privatsache, geht einem nur selbst etwas an, und ist für mathematische Überlegungen irrelevant. Wichtig ist nur, dass man die Beziehungen zwischen den ’Dingen’ genau festlegt, und dann durch logische Schlüsse weiterverfolgt. Hilbert hat gesagt: ’Statt Punkten, Geraden, Ebenen soll man auch sagen können: Biergläser, Tische, Sessel.’ Wichtig ist nur, dass man sich auf die Beziehungen dieser Objekte untereinander einigt. Daher sind Mathematiker oft etwas leichtfertig, wenn es um die Wahl eines Namens geht, also die ’Taufe’ des Begriffs. Der Name ist blosse Konvention, und hat nichts mit den Sachverhalten zu tun. Dieser Zugang ist völlig verschieden von 13 dem der Kulturwissenschaftler. Die wissen ja, wie wichtig die oft unbewussten Vorstellungen sind, die ein Wort begleiten. Es gibt nicht nur drei Geometrien – euklidische, hyperbolische, elliptische – sondern sehr viele. Manche sind unserer Vorstellungswelt näher als andere. Für die Mathematik spielt das keine Rolle. Es hat sich herausgestellt, dass es in der theoretischen Physik günstig ist, nicht den euklidischen Raum, sondern eine andere, Riemannsche Geometrie anzunehmen. Den Unterschied kann man allerdings nur bei sehr grossen Distanzen messen. Bereits Gauss hatte es zu seiner Zeit als Landvermesser versucht, aber seine Dreiecke (aufgespannt von ein paar Bergspitzen) waren zu klein, die Abweichung von der Winkelsumme blieb innerhalb der Fehlerschranken. Aber Gauss hatte (sehr im Gegensatz zu Kant, oder Schopenhauer) erkannt: welche Geometrie für unseren Raum gilt, ist eine physikalische Frage, und keine genuin mathematische. Im Gegensatz zur euklidischen Geometrie ist die Geometrie unseres Weltalls nicht homogen (also nicht überall dieselbe). Das Mass der ’Nicht-euklidizität’ (genauer, das Verhältnis vom Umfang zum Durchmesser eines Kreises, vulgo ’Raumkrümmung’) hängt von der Verteilung der Massen ab. 2.6 Eine Schwäche für Geometrie Viele Philosophen haben sich sehr für Geometrie interessiert, zum Beispiel Plato, der von der Entdeckung fasziniert war, dass es (im dreidimensionalen Raum) nur fünf regelmässige Vielflächer gibt (also konvexe Polyeder, bei denen alle Seitenflächen gleich sind, regelmässig in dem Sinn, dass alle Kantenlängen und alle Winkel dieselbe Grösse haben, und an jeder Ecke gleich viele zusammenstossen). Das sind die Platonischen Körper: Tetraeder, Würfel (Hexaeder), Oktaeder, Dodekaeder und Ikosaeder. Kant hielt die euklidische Geometrie für denknotwendig. Meist hält man ihn heute für widerlegt. Das ist aber nicht ganz evident, allein schon weil er so schwer zu verstehen ist. Auch Schopenhauer polemisierte gegen die Versuche, das Parallelenaxiom (das er als direkt einsichtig auffasste) durch einen indirekten Beweis begründen zu wollen, und schrieb langmächtig über den Unterschied von Seinsgrund und Erkenntnisgrund. Die nicht-euklidischen Geometrien hätten Kant und Schopenhauer bestimmt zu denken gegeben. Pascal entdeckte als Sechzehnjähriger einen Satz, dessen allgemeine Fassung heute als Pascalscher Satz bekannt ist. Wenn die Ecken eines Sechsecks auf einem Kegelschnitt liegen (Ellipse, Hyperbel, Parabel; das lässt sich mit Hilfe einer Taschenlampe beschreiben), dann liegen die Schnittpunkte der gegenüberliegenden 14 Seiten auf einer Geraden (Fig. 2.9). Das Beispiel eines regelmässigen Sechsecks scheint dem zu widersprechen. Da sind ja die gegenüberliegenden Seiten parallel. Aber der Satz von Pascal muss als Aussage der sogenannten projektiven Geometrie gesehen werden: da schneiden Parallelen einander in Punkten ’im Unendlichen’, und alle solchen Punkte liegen auf einer ’unendlichen’ Geraden. Die projektive Geometrie ist das ideale Instrument, um zB Kegelschnitte zu untersuchen. Der grösste Beitrag eines Philosophen zur Geometrie stammt aber zweifellos von Descartes, der die analytische Geometrie schuf. Sie ist uns von der Schule her so vertraut, dass es schwer fällt, zu verstehen, was für eine grossartige Entdeckung sie darstellt (Ähnliches gilt zb für das Dezimalsystem.) Sie alle kennen die analytische Geometrie. In der Ebene führt man ein Koordinatensystem ein, und ordnet dadurch jedem Punkt P seine Koordinaten (p1 , p2 ) zu. Genauer, man fasst Paare von (reellen) Zahlen als ’Punkte’ auf. Geraden entsprechen hier den Lösungen von linearen Gleichungen ax + by = c. Und diese Zahlenpaare bzw linearen Gleichungen verhalten sich jetzt genau so, wie die Punkte und Geraden in der euklidischen Geometrie. Auch hier ist es wieder so, dass die Kegelschnitte besonders einfachen Objekten (nämlich Gleichung zweiten Grades) entsprechen. Durch die ’kartesischen Koordinaten’ wird die Geometrie auf die Theorie der reellen Zahlen zurückgeführt. Wenn die euklidische Geometrie einen Widerspruch enthielte, so müsste der in den reellen Zahlen liegen! 15 3 3.1 GRENZWERTIGES Krumme Touren Setzen wir als bekannt voraus, dass der Umfang eines Kreises vom Radius R durch 2πR gegeben ist. Bekanntlich ist der Flächeninhalt πR2 . Spätestens seit Kepler ist dafür ein wunderbar einfaches Argument bekannt (Fig 3.1). Zerschneiden wir den Vollkreis in viele dünne ’Tortenstücke’. Jedes ist ein beinahe gleichschenkeliges Dreieck, die Höhe ist fast R, und wenn die Aussenseite Länge ∆ hat, so ist der Inhalt circa (1/2)R∆. Die Summe aller ∆ ist aber der volle Kreisumfang 2πR, also die Summe aller Flächeninhalte (1/2)R2πR, also πR2 . Das ist viel einfacher als es die Überlegungen der alten Griechen waren! Natürlich wurde da geschwindelt. Die Tortenstücke sind ja gar keine richtigen Dreiecke, eine Seite ist krumm. Aber wenn die Stücke sehr dünn sind, ist die Seite fast gerade. Wir müssen uns ’unendlich dünne’ Tortenstücke vorstellen. Aber was heisst denn das? Wir betrachten einen ’Grenzwert’. Hilft uns das weiter? Grenzwertüberlegungen haben sich als ungemein nützlich erwiesen. Sie können aber auch das Falsche liefern. Ein Beispiel (Fig 3.2): Ein Halbkreis hat Länge πR. Er ist genau so lang wie zwei halb so grosse Halbkreise, einer oberhalb und einer unterhalb der Sehne (d.h. des Durchmessers). Das Verfahren können wir beliebig fortsetzen. Es liefert aus immer kleineren und kleineren Halbkreisen bestehende Bogenlinien, die alle die Länge πR haben. Im Grenzwert kommt aber gerade der Durchmesser heraus. Also hat er auch diese Länge, nämlich 2R. Andrerseits ist seine Länge πR. Also folgt π = 2! Wir haben irgend etwas falsch gemacht. Die krummen Bogenlinien nähern sich zwar dem geraden Durchmesser beliebig genau an, aber die Längen sind ganz anders. 3.2 Geschwindigkeitsrausch Ein anderes Beispiel. Stellen wir uns einen Zug vor, der von Wien nach Linz fährt. Wir betrachten den Abstand vom Westbahnhof als Funktion der Zeit, y = f (x). Das gibt einen Funktionsgraphen (Fig 3.3). Wir können uns leicht die Durchschnittsgeschwindigkeit anschauen. Aber jetzt wollen wir auch die augenblickliche Geschwindigkeit berechnen. Der Zug hat ja immer eine Geschwindigkeit – sie ist Null in der Station, und 190 kmh auf gewissen Teilstrecken. Wie aber definieren wir diese Geschwindigkeit? Zurückgelegte Strecke durch Zeit. Im Intervall von a bis a + h wird die Strecke f (a + h) − f (a) zurückgelegt. Also ist (a) . Aber wir wollen die Durchschnittsgeschwindigkeit in dem Intervall f (a+h)−f h 16 ja keine durchschnittliche Geschwindigkeit, sondern die augenblickliche, die zum Zeitpunkt a. Schauen wir uns das in einer Vergrösserung an. Das h muss ja sehr klein sein. Eine Sekunde? Eine Zehntelsekunde? Eine Millionstel? Alles das ist eigentlich zu gross. Wir wollen den Grenzwert erhalten, daher sollte h unendlich klein sein. Wie wärs mit h = 0? Das auf keinen Fall. Wir wollen ja die Strecke f (a+h)− f (a) durch die Zeit h dividieren, und durch 0 darf man auf keinen Fall dividieren. Wieso nicht, werden Sie fragen. Die Mathematiker sind doch sonst so verwegen. Die Wurzel aus −1 führen sie ja auch ohne weiteres ein, obwohl sie wissen, dass keine reelle Zahl ein negatives Quadrat haben kann (wir kommen darauf noch zu sprechen). Wenn man die ’imaginäre Einheit’ i definieren kann als jene Grösse, die i2 = −1 erfüllt, warum dann nicht ∞ als jene Grösse, die 1/0 = ∞ erfüllt? Das Problem ist, dass dann die üblichen Rechenregeln nicht gelten (während sie für i gelten). Denn wenn wir so rechnen, wie gewohnt, erhalten wir 1 = 0 × ∞ und daher 1 = 0 × ∞ = (0 + 0) × ∞ = 0 × ∞ + 0 × ∞ = 1 + 1 = 2 und da hört sich doch der Spass auf! (Wohlgemerkt: hier wird nicht behauptet, dass es kein Unendlich ∞ gibt. Schon im übernächsten Kapitel geht es über Unendlich. Hier wird nur behauptet, dass man mit ∞ nicht so rechnen kann, wie gewohnt, und insbesondere ∞ = 1/0 nichts bringt.) Immerhin, wir dividieren ja nicht 1 durch 0, sondern f (a + h) − f (a). Wenn h = 0 ist, dann dividieren wir also 0 durch 0. Das sieht schon ein wenig hoffnungsvoller aus. Die momentane Geschwindigkeit ist also so etwas wie 0/0. Aber was könnte es sein? Für jede reelle Zahl x gilt ja 0 = 0 × x, also käme jede Zahl x als Geschwindigkeit in Frage! 3.3 Die Geister der Verschwundenen Was wir brauchen, wenn wir nicht durch Null dividieren wollen, ist ein ’unendlich kleines’ o, das verschieden von 0 (der Null) ist. Die Geschwindigkeit wäre dann f (a+o)−f (a) . o Das schlechte Nachricht ist allerdings, dass es keine infinesimalen Grössen gibt. Eine Zahl heisst infinitesimal, wenn sie unendlich klein ist. Also nicht negativ, nicht Null, aber doch kleiner als jede positive Zahl. Und das kann es natürlich nicht geben. Denn wenn x > 0 so eine Zahl ist, dann ist ja x/2 > 0 noch kleiner als x. 17 Der Begriff des Infinitesimalen, oder unendlich kleinen, hat schon Zeno grosse Schwierigkeiten bereitet. Bekannt ist sein wunderbares Paradox mit Achilles und der Schildkröte. Sobald Achilles dort angekommen ist, wo die Schildkröte war, ist diese schon ein Stück weiter. Auch das Paradox vom Pfeil, der fliegt und doch einen festen Ort hat, ist schwer zu lösen. Die Gründer der Infinitesimalrechnung, Leibniz und Newton, versuchten zu erklären, was sie meinten, aber ihre Versuche waren pathetisch. Heute würden sie bei der ersten Kolloquiumsprüfung durchfallen. Newton etwa erklärte: ’By the ultimate velocity is meant that, with which the body is moved, neither before it arrives at its last place, when the motion ceases nor after but at the very instant when it arrives... the ultimate ratio of evanescent quantities is to be understood, the ratio of quantities not before they vanish, not after, but with which they vanish.’ Zenos Zitat vom Pfeil ist nicht im Wortlaut erhalten. Viele nachfolgenden Denker haben ihre Interpretation geliefert. Wie üblich, sind die deutschen Philosophen am schwersten verständlich, daher sei hier Hegel zitiert: ’Es bewegt sich etwas nur, nicht indem es in diesem Jetzt hier ist und in einem anderen Jetzt dort, sondern indem es in ein und demselben Jetzt hier und nicht hier, indem es in diesem Hier zugleich ist und nicht ist. Man muss den alten Dialektikern die Widersprüche zugeben, die sie in der Bewegung aufzeigen, aber daraus folgt nicht, dass darum die Bewegung nicht ist, sondern vielmehr dass die Bewegung der daseiende Widerspruch selbst ist. Der ’daseiende Widerspruch’ schien lange Zeit nicht vernünftig zu lösen. Aber integrieren und differenzieren wollte man doch, das war zu wichtig, um fallengelassen zu werden. Mehrere Jahrhunderte setzten sich die Mathematiker kaltblütig über die Schwierigkeit hinweg, und taten so, als ob es ihn nicht gäbe. Damals gab einer von ihnen die allgemeine Parole aus: ’Allez en avant, et la foi vous viendra’. ’La foi’, also der Glaube! Im 18. Jahrhundert verfasste der Bischof Berkeley einen sehr scharfsinnigen Essay, in dem er sich darüber lustig machte: Dieselben Freigeister, die jeden Wunderglauben ablehnten, stiessen sich nicht daran, mit unendlich kleinen Grössen (’ghosts of departed quantities’) zu operieren, mit der schlichten Begründung, dass es meist funktionierte. Erst durch Weierstrass (zweite Hälfte des 19. Jahrhunderts) wurde die Analysis auf solide Füsse gestellt. Erst dann bildete sich eine narrensichere Methode heraus, um Grenzwerte zu behandeln. Am einfachsten ist, sich dazu des Begriffs einer Folge zu bedienen. 18 3.4 Folgenreich Am Anfang der Mathematik der Neuzeit steht Fibonacci (ca 1200). Er wurde durch die nach ihm benannte Folge bekannt: 1, 1, 2, 3, 5, 8, 13, 21, ... Im obigen Fall hat man ein rekursives Bildungsgesetz: an + an+1 = an+2 , und wenn man die ersten beiden Glieder kennt, kennt man alle anderen. Bis heute hat diese Folge ihren Reiz nicht verloren, ihr ist eine eigene fachzeitschrift gewidmet, ’The Fibonacci Quarterly’. Folgen standen für die Griechen nicht im Zentrum des Interesses, für die sogenannte ’abendländische’ Mathematik (Spengler) aber schon. Allgemein ordnet eine Folge jeder natürlichen Zahl n ein Ding an zu – das wird eine Zahl sein, oder eine Menge, oder eine Figur, oder eine Funktion,... Hier betrachten wir nur Zahlenfolgen a1 , a2 , a3 , .... Ein Beispiel: an = 2n . Oder: an = n2 + n + 41. Oder: an = (−1)n . Hier wird das an durch einen Rechenausdruck gegeben. Bei der Fibonacci Folge wird an durch Rekursion gegeben, man kann die Elemente schrittweise bilden, wenn man die ersten beiden Zahlen kennt. Und nun noch ein Beispiel: an = 1/n. Diese Folge 1, 1/2, 1/3, 1/4, 1/5, ... hat nun eine besondere Eigenschaft: sie ist ein Nullfolge. Was soll das heissen? Ein unverbildeter Mensch könnte sagen: das letzte Glied ist 0. Aber das stimmt nicht. Kein Glied der Folge ist 0, und es gibt ja auch kein letztes Glied (was wäre denn das vorletzte?). Die Folge 1/n nimmt nie den Wert 0 an, aber 0 ist der ’Grenzwert’. Was soll denn das heissen? Man kommt immer näher an 0 heran, beliebig nahe, wenn man nur weit genug geht mit dem n. Was heisst hier ’nahe’ bei 0? Das ist leicht. Wir nehmen eine ganz kleine positive Zahl (traditionell wird dafür der Buchstabe ’epsilon’ verwendet, stellen Sie sich 1/1000 oder 1/1000000 vor). Eine Zahl x liegt nahe bei 0, wenn x in dem Intervall < x < gilt, also x in der -Umgebung von 0 liegt. Was aber heisst ’beliebig’ nahe? Der Abstand wird kleiner als jede vorgegebene positive Zahl . Also hier die Definition einer Nullfolge: für jedes > 0 gilt 19 − < an < , wenn nur n hinreichend gross ist. Was aber heisst hinreichend gross? Es heisst: grösser als eine bestimmte Zahl (die man traditionell mit N bezeichnet. Also: an ist eine Nullfolge, wenn es zu jeden (’noch so kleinen’) > 0 eine (’hinreichend grosse’) Zahl N gibt (die von abhängen kann) so dass für jedes n > N gilt, dass − < an < . So! Ich will sie nicht mit dieser sogenannten ’Epsilontik’ langweilen. Sie wird Mathematikstudenten über Wochen und Monate hinweg eingetrichtert, wie Volksschulkindern das kleine Einmaleins. Die ’Epsilontik’ ist ein mühseliges, aber verlässliches Mittel, Grenzwerte zu behandeln. Also nochmals, warum ist an = 1/n eine Nullfolge? Geben Sie mir ein beliebiges > 0. Ich berechne 1/ (diese Zahl ist sehr gross, wenn sehr klein ist) und wähle N = 1/. Wenn nun n > N , dann 1/n < , klar. Ebenso ist an = 1/n2 eine Nullfolge. Sie ist ja eine Teilfolge von 1/n. Es gibt unzählige Nullfolgen. Gemeinsam ist ihnen: sie führen beliebig nahe an die Null heran, also für jedes (noch so kleine) ist der Abstand |an | < , und zwar für alle n ausser vielleicht für n = 1, ..., N . Das sind höchstens endlich viele Ausnahmen. ’Für alle bis auf endlich viele’ (vielleicht hunderttausend Quadrillionen) der n gilt |an | < (die Menge der möglichen ’Ausnahme’-n ist umso grösser, je kleiner ist, aber ab irgend einem N kommt dann keine Ausnahme mehr). Allgemeiner sagt man, die Folge an besitzt Grenzwert a, wenn die Folge an −a eine Nullfolge ist. ZB ist der Grenzwert von an = 1 + n1 gerade 1. Eine Folge kann nicht mehrere Grenzwerte besitzen. Aber sie kann auch gar keinen besitzen, zb an = (−1)n . Sie kann auch über alle Grenzen wachsen, etwa bei der Folge an = n2 . Leicht sieht man: wenn 0 < x < 1 und an = xn , dann ist an eine Nullfolge, dh an → 0. Wenn x = 1 dann natürlich xn = 1, also auch xn → 1. Wenn aber x > 1, so wächst x über alle Grenzen, und besitzt keinen Grenzwert. 3.5 Auf die Reihe gebracht Es gilt 1/2 + 1/4 + 1/8 + ... = 1. Anschaulich ist das klar (Fig 3.4) . Hier können wir auf das wunderbare Beispiel von Achilles und der Schildkröte zurückkommen. Nehmen wir an, dass Achilles einen Kilometer hinter der Schildkröte startet, und doppelt so schnell ist (eine sehr schnelle Schildkröte!). Wenn Achilles am Startpunkt der Schildkröte angelangt ist, ist die schon einen halben Kilometer 20 weiter. Ist er dort, ist die Schildkröte einen Viertelkilometer weiter, usf. Aber nachdem er zwei Kilometer gelaufen ist, und die Schildkröte einen, zieht er an ihr vorbei! Aber was heisst das? In der obigen Formel werden unendlich viele Zahlen addiert, wie geht das? Ganz einfach: Man betrachtet die endlichen ’Partialsummen’, hier also sn := 1/2 + ... + 1/2n . Wenn die einen Grenzwert s besitzen, sn → s, so schreibt man s = 1/2 + 1/4 + ... Bleibt also nur zu zeigen, dass s = 1 gilt. Aber sn = 1 − 1/2n , und das strebt gegen 1 weil 1/2n eine Nullfolge ist (ist ja eine Teilfolge der Nullfolge 1/n). Allgemeiner gilt für jedes 0 ≤ x < 1: x + x2 + ... = x/(1 − x). Zuerst muss man zeigen, dass der Grenzwert existiert. Hier lernt man in der Analysis viele Verfahren. Wenn der Grenzwert existiert, so bezeichnen wir ihn mit s, und sehen dann x + x2 + ... = s x2 + x3 + ... = xs also s(1 − x) = x, fertig. Aber Achtung! Das geht nur, wenn s existiert. Denn für 2 + 22 + ... = s hätte man dann 22 + ... = 2s und somit 2 = s(−1), was offenbar Blödsinn ist! Für x ≥ 1 besitzt die Reihe x + x2 + x3 + ... keinen Grenzwert. Oft hört man: die Reihe konvergiert, wenn das letzte Glied Null ist. Das ist Unsinn. Weniger unsinnig, aber dennoch falsch, ist die Auffassung: Die Reihe konvergiert, wenn die Summanden ein Nullfolge bilden. Schon Nicolaus von Oresmus hat (14. Jahrhundert) gezeigt, dass 1 + 1/2 + 1/3 + ... 21 nicht konvergiert. Sie wächst vielmehr, wenn auch sehr sehr langsam, gegen Unendlich. Es gilt nämlich: 1/3 + 1/4 > 1/2, 1/5 + 1/6 + 1/7 + 1/8 > 1/2, und allgemein 1/(2n + 1) + 1/(2n + 2) + ... + 1/(2n+1 ) > 2n × 1/(2n+1 ) = 1/2 also kommt man in Schritten von jeweils 1/2 beliebig weit, s2 = 3/2, s4 > 4/2, s8 > 5/2, s16 > 6/2, das wächst über alle Grenzen. Wohl aber gilt der wunderbare Satz 1 + 1/22 + 1/32 + ... = π2 6 eine erstaunliche Beziehung zwischen Quadratzahlen 1, 4, 9, 16, 25, ... und der Kreiszahl π. Besonders schön, und von Leibniz stammend, ist 1 1 1 1 π + − + − ... = . 3 5 7 9 4 Aber Vorsicht! Wenn man hier die Anordnung der Summenterme ändert, also die Anordnung ändert, kann etwas ganz anderes herauskommen. Bei endlichen Summen ist dergleichen natürlich nie der Fall. 1− 3.6 Differenzieren und Integrieren Die Funktion f (t) besitzt die Zahl v als Ableitung (Geschwindigkeit!), wenn für jede Nullfolge hn (mit hn 6= 0) die Folge an = f (t + hn ) − f (t) hn den Grenzwert v besitzt. Also zB besitzt x2 die Ableitung 2x, denn an = (2t + hn )hn (t + hn )2 − t2 = = 2t + hn hn hn besitzt den Grenzwert 2t. Leibniz hat genau dieselbe Überlegung angestellt, aber hn nicht als Glied einer Nullfolge gesehen, sondern als ’Infinitesimal’. Im Zug seiner Rechnung hat er also hn einfach gleich 0 gesetzt. Davor aber hat er durch hn dividiert, dh durch 0, und das ist ja eine Todsünde. 22 Insgesamt: statt Infinitesimalen verwendet man Nullfolgen (deren Glieder aber alle von 0 verschieden sind). So gesehen ist der Fortschritt eigentlich nicht besonders gross. Jetzt kann man zB zeigen: zu mindestens einem Zeitpunkt muss die augenblickliche Geschwindigkeit des Zuges genau der durchschnittlichen Geschwindigkeit auf der Strecke Wien Linz entsprechen. Scheint völlig klar (Fig. 3.5). Ebenso kann man den Grenzwertbegriff zum Integrieren R b verwenden. Angenommen f (x) ≥ 0 für alle x mit a ≤ x ≤ b. Das Integral a f (x)dx ist gerade der Flächeninhalt zwischen Graphen und x-Achse. Die offizielle Definition: man betrachtet sogenannte ’Zwischensummen’ (Fig.3.6). Zuerst zerlegt man das Intervall von a bis b in lauter kleine Intervalle I, und berechnet den Flächeninhalt der dünnen Streifen mit Basis I, für welche die Höhe durch irgendeinen Wert der Funktion auf dem kleinen Intervall I gegeben ist. Wenn es einen Grenzwert für alle diese Zwischensummen gibt, ist dieser das Integral. Auch hier stammt die genaue Definition (durch Riemann) erst aus der zweiten Hälfte des 19. Jahrhunderts. Aber mit Integralen fehlerfrei rechnen konnten schon Leibniz und Newton. Insbesondere wussten sie, dass Differenzieren (also die Ableitung bilden) und Integrieren inverse Operationen sind, ähnlich wie subtrahieren und addieren. Nur ist der Nachweis viel subtiler, weil man die Reihenfolge von zwei Grenzübergängen vertauscht. Hier schrillen bei jedem Analytiker die Alarmglocken, denn das Vertauschen der Grenzwerte hat seine Tücken, wie man es bereits sieht, wenn man bei x−y x+y zuerst y genen 0 und dann x gegen 0 streben lässt, oder umgekehrt. In eine Fall kommt 1 heraus, im anderen −1. 3.7 Zwischenwertig Den Begriff des Grenzwerts benötigt man auch, um die Stetigkeit einer Funktion zu definieren. Die Funktion f heisst stetig, wenn aus xn → x stets f (xn ) → f (x) folgt. Anders gesagt: der Wert f (y) nähert sich dem Wert f (x) beliebig genau an, wenn y hinreichend nahe zu x rückt. Anschaulich heisst das: man kann die Funktion durchgehend zeichnen - ohne den Strich abzusetzen. Insbesondere gibt es da keine Sprungstelle (fig.3.7). Am wichtigsten ist der Zwischenwertsatz: eine stetige Funktion auf einem Intervall nimmt mit je zwei Werten auch jeden dazwischen an. Also bei der Bahnfahrt von Wien nach Linz kommt man durch jeden Ort an der Strecke. 23 Der Zwischenwertsatz scheint völlig klar, obwohl ein exakter Beweis umständlich ist. Nicht so evident wie der Satz selbst sind die zahlreichen Folgerungen, zb das Sandwich Theorem: Betrachten wir eine Ebene, die ganz auf der einen Seite eines soliden Körpers liegt, und verschieben wir sie stetig, parallel, bis sie ganz au der anderen Seite liegt. Aus dem Zwischenwertsatz folgt sofort: eine dieser Ebenen muss den Körper so teilen, dass je eine Hälfte des Volumens auf jeder Seite der Ebene liegt. Das ist evident, aber es gilt sogar: Zu je drei Körpern im Raum existiert eine Ebene, die alle drei Körper so teilt, dass je die Hälfte des Volumens auf jeder Seite ist. Erstaunlich auch der Satz von Borsuk: Stellen wir uns eine stetige Funktion auf der Erdoberfläche vor (etwa die Temperatur). Es ist sehr unwahrscheinlich, dass bei unseren Antipoden genau dieselbe Temperatur herrscht wie bei uns. Aber es gibt ein Paar antipodaler Punkte, wo dieselbe Temperatur herrscht. Das ist noch einigermassen klar, aber es gilt überraschenderweise noch mehr: es gibt antipodale Punkte, wo dieselbe Temperatur und derselbe Luftdruck herrscht. (Das ist kein Satz aus der Meteorologie, sondern folgt aus dem Zwischenwertsatz!) Noch kurz zu Stetigkeit und Differenzierbarkeit: Wo eine Funktion eine Ableitung besitzt, ist sie auch stetig. Das Umgekehrte geht nicht: zb wenn die stetige Funktion einen Knick besitzt (Beispiele |x|, oder xsin(1/x) (mit Wert 0 bei x = 0)) (Fig. 3.8). Es gibt sogar stetige Funktionen, die nirgends eine Ableitung besitzen (die Mathematiker des 19. Jahrhunderts hielten das für ’monströs’!). Ja, in einem gewissen Sinn gilt: die meisten stetigen Funktionen besitzen nirgends eine Ableitung. Aber die gute Nachricht: jede stetige Funktion besitzt ein Integral. 24 4 4.1 ZAHLEN, BITTE Das unendliche Lineal Was ist eine Zahl? Das ist eine Frage, die Philosophen lebhaft interessieren kann, Mathematiker zumeist nicht. Deren erste Antwort wird sein: Was für eine Zahl meinst du? Es gibt viele Typen von Zahlen. Letztlich interessiert sich der Mathematiker nur dafür, wie man damit rechnen kann (also plakativ ausgedrückt: was die Zahlen tun, nicht was sie sind). Das ist ein Zugang, der zugleich pragmatisch und abstrakt ist. Wenn der Mathematiker einen philosophischen Hintergrund hat, wird er vielleicht sagen: Was eine Zahl ’wirklich’ ist, lässt sich ebenso schwer beantworten wie die Frage, was ein Läufer beim Schachspiel ’wirklich’ ist. Worauf es beim Schachspiel ankommt, ist, was man mit dem Läufer tun kann, also was für Regeln für seine Handhabung gelten. Und ebenso ist es mit den Zahlen. Worauf es ankommt ist ihre Rolle in der entsprechenden Zahlenmenge. Dasselbe Zeichen (etwa Drei, 3) kann je nach Kontext etwas ganz anderes bedeuten. Schon im Vorschulalter lernen wir zählen: 1, 2, 3, ... . In der Volksschule lernen wir auch die 0 kennen (etwa indem wir beim Fussball 0 : 3 verlieren), und bald auch die negativen Zahlen −1, −2, ..., also neben der Menge N der natürlichen Zahlen auch die Menge Z der ganzen Zahlen ..., −3, −2, −1, 0, 1, 2, 3, .... Bald kommen auch die Bruchzahlen dazu, also die Menge Q der rationalen Zahlen n/m (wobei n, m ganze Zahlen sind, und m von 0 verschieden), und schliesslich (circa zur Pubertät, wo einen gar nichts mehr wundert) refährt man von R, der √ Menge der reellen Zahlen, wie etwa π = 3, 1415... oder 2 = 1, 41.... Reelle Zahlen sind durch Dezimalentwicklungen gegeben sind, die gar nicht aufhören müssen, zb 1 4 1 π =3+ + + + ... 10 100 1000 Hier steht eine unendliche Reihe. Damit ist der Grenzwert einer Folge von endlichen Summen gemeint, wie wir im vorigen Kapitel sahen. So ein Grenzwert ist aber erst seit dem 19. Jahrhundert richtig definiert, obwohl natürlich schon früher mit reellen Zahlen gerechnet wurde. Wie das Kind hat auch die Menschheit Zeit gebraucht, um sich mit dem Zahlbegriff vertraut zu machen. Nach den Schuljahren sehen wir die Sache ganz einfach (und völlig richtig!): die reellen Zahlen entsprechen den Punkten einer Geraden, der sogenannten ’Zahlengeraden’. Auf dieser Geraden sind die 0 und die 1 vorgegeben, dadurch werden (durch wiederholtes Auftragen in die Richtung von 0 nach 1) die natürlichen Zahlen erhalten. Dann kommen die negativen ganzen 25 Zahlen, man erhält sie aus den natürlichen durch Spiegelung an der 0. Auch die Bruchzahlen lassen sich geometrisch leicht konstruieren, zb 1/5. Man zieht Senkrechte zur Zahlengeraden, eine durch 0 und eine durch 1, trägt auf der ersten die Länge 1 auf, auf der anderen in die andere Richtung 4 (also 5 − 1), und verbindet die Eckpunkte, der Schnittpunkt mit unserer ’Zahlengeraden’ ist 1/5, fertig (Fig 4.1)! Wir wissen auch, wie man die Summe von a und b richtig interpretiert (durch Zusammenfügen der Strecken), und die Multiplikation mit −1 (eben als Spiegelung an der 0). Seit Descartes können wir auch die Multiplikation der positiven Zahlen a und b geometrisch interpretieren (wir tragen a und b auf der Senkrechten durch 0 auf, verbinden den Punkt a mit 1, ziehen die Parallele dazu durch den Punkt b auf der Senkrechten und erhalten als Schnittpunkt dieser Parallelen mit der Zahlengeraden den Punkt a×b) (s. Fig 4.2). (Das ist übrigens für die Zwecke dieses Kapitels eine bessere Interpretation als die geläufige Darstellung von a × b als Flächeninhalt. Denn bei a × b × c und noch mehr bei a × b × c × d wird es knifflig!) Obwohl unsere Vorstellung von den reellen Zahlen als Punkten auf der Zahlengeraden - dem unendlichen Lineal - sich nicht ändern wird, zahlt sich dennoch aus, den langen Weg von den natürlichen zu den reellen Zahlen nochmals zu überblicken. Wir wissen ja auch schon, dass der Weg weiter führt – zu den komplexen Zahlen, und vielleicht noch darüber hinaus. 4.2 Kleiner als Nichts? Irgendwie scheinen uns die Zahlen 1, 2, 3, ... natürlicher als die anderen. (Der Mathematiker Kronecker sagte: ’Die natürlichen Zahlen hat uns Gott gegeben. Alles andere ist Menschenwerk.’) Wir denken allerdings hier wohl an kleine Zahlen, entsprechend den kleinen Häufchen von Steinen. Wir denken weniger an die Zahl aller Regentropfen eines Gewitters, oder an die Zahl 724619003753915993760411, oder an eine Zahl, die grösser ist als die Anzahl aller Teilchen im Universum. Schon eine Zahl wie 1979 ist nicht mit einer unmittelbaren Anschauung verbunden, einem ’ganzheitlichen Erfassen’ wie etwa die 3, sondern lässt sich nur durch ihren Platz im Zahlensystem definieren, also etwa als die Nachfolgerin von 1978, oder als das Produkt von 23 und 73, usw. Dieses Zahlensystem wird durch die Axiome von Peano beschrieben (Kap.1), und die wollen wir zunchst unhinterfragt akzeptieren. 26 Durch die Peano-Axiome für N wird das Zählen erklärt, und mittels vollständiger Induktion können die Summe und das Produkt natürlicher Zahlen gebildet werden, wie wir schon gesehen haben. Man kann zeigen (was furchtbar umständlich und langweilig ist), dass für alle natürlichen Zahlen a, b, c, ... gilt (1) a + b = b + a (2) a + (b + c) = (a + b) + c (3) a × b = b × a (4) a × (b × c) = (a × b) × c (5) a × (b + c) = (a × b) + (a × c) und (6) 1 × a = a. Man sieht auch, dass es eine Anordnung gibt. Für je zwei verschiedene Zahlen ist eine grösser als die andere, wir schreiben a < b. (7) Aus a < b und b < c folgt a < c. (8) Wenn a < b dann a + c < b + c für jedes c. (9) Wenn a < b dann a × c < b × c für jedes c. Daraus folgen alle vertrauten Rechenregeln für die natürlichen Zahlen, zb (a+ b)2 = a2 + 2ab + b2 usw. Aber hier stellt sich heraus: die Aufgabe, das x in a + x = b zu finden, ist nicht immer lösbar (sondern nur, wenn a < b gilt). Natürlich ist 3 die Lösung von 2 + x = 5, (und so schreiben wir 3 = 5 − 2) aber was ist die Lösung von 5 + x = 2, dh. was ist 2 − 5? Wir wissen, dass es (−3) ist (die Klammern lassen wir später weg), aber worum handelt es sich bei dieser Zahl? Sie ist keine natürliche, aber deshalb noch nicht unnatürlich. Schliesslich wissen viele, was es heisst, wenn das Konto im Minus ist. Negative Zahlen haben in der Geschichte der Mathematik bis ins hohe Mittelalter hinein Verwirrung gestiftet. Insbesondere Aussagen wie (−3) < 0 sorgten für Kopfzerbrechen. Die Null steht doch für Nichts, was kann noch kleiner sein als nichts? Aber wenn die Null ein Punkt auf dem Lineal ist, wird die Sache einfacher. Ebenso scheint die Regel 3×0 = 0 leicht zu interpretieren (dreimal Nichts ist Nichts), aber wie steht es mit 0×0 = 0? Keinmal Nichts sollte doch etwas sein. Auch die sonderbare Regel M inus × M inus = P lus schien nicht evident (mit der Visualisierung durch die Zahlengerade schon: es wird zweimal gespiegelt, und was die (−3) betrifft, so geht man einfach von 0 aus drei Schritte nach links statt 27 nach rechts). Man behalf sich lange mit Gleichnissen: Der Feind meines Feindes ist mein Freund. Oder: wenn ich Geld bekomme, wird von meinen Schulden etwas weggenommen. Heute ist keiner mehr verwirrt. Man definiert die Zahl 0 dadurch, dass man festlegt: für jede natürliche Zahl a gelte (10) a + 0 = a. Man kann sich darunter vorstellen: die Anzahl der Steine in einem Haufen, in dem kein Stein liegt (oder: die Anzahl der Tore, wenn keines geschossen wird), aber das ist mathematisch irrelevant. Ebenso wird man die Zahl −3 definieren als jene Zahl x, für die 5 + x = 2 gilt. Wir wissen freilich, dass es auch jene Zahl x ist, für die 6 + x = 3 ist. (Dass es dieselbe Zahl ist, sehen wir ein, wenn wir links und rechts bei 5 + x = 2 je 1 addieren.) Allgemein legt man fest, dass (11) für je zwei Zahlen a und b gilt es ein x, so dass a + x = b gilt. Dieses x bezeichnet man als b − a, und 0 − a schreibt man auch −a. Und wenn wir schon dabei sind, führen wir auch gleich die Bruchzahlen ein, also die Zahlen a/b (wobei b, wie wir wissen, verschieden von 0 sein muss). Wir definieren 1/3 als je Zahl x, für die 3 × x = 1 gelten soll (oder 6 × x = 2, 9x = 3, und so fort... Wieder sieht man, dass man hier dasselbe x erhalten wird.) Also legen wir fest: (12) für je zwei Zahlen a und b (mit b 6= 0) gibt es ein x, so dass b × x = a gilt. Dieses x bezeichnet man als a/b, oder ab . Hier eine Randbemerkung. Bei (9) dürfen wir nur verlangen, dass aus a < b und c > 0 stets a × c < b × c folgt. Das c > 0 ist wesentlich! Denn offenbar ist für c = 0 stets a × 0 = b × 0, und mit c < 0 dreht sich die Ungleichung sogar um. Bei N war das kein Problem, da waren alle Zahlen positiv. Nun aber können wir zusammenfassen. Wir haben die Menge N der natürlichen Zahlen weit hinter uns gelassen. Eine Menge mit den Eigenschaften (1) bis (12) heisst geordneter Zahlkörper. Es gibt allerdings viele davon. Die Menge Q aller Bruchzahlen (rationaler Zahlen) ist nur einer davon: der kleinste. 4.3 Ganze Arbeit? Die vorige Randbemerkung wird uns zu denken geben. Offenbar genügt es nicht, sich etwas zu wünschen. Wir können uns nicht wünschen, dass in (9) a×c < b×c 28 für alle c gilt. Hier scheint das Wunschprinzip auf eine Art Realitätsprinzip zu stossen. Bei (11) könnte man etwa fragen: gibt es denn so ein x wirklich? Oder ist es nur ein Wunschobjekt, dass sich bei näherem Hinsehen als Fata Morgana entpuppt? Die erste Gegenfrage ist: was heisst ’gibt es wirklich’? So wirklich wie diese Tür oder dieser Schrank? In diesem Sinn wohl nicht. Auch glauben wir ja nicht ernsthaft, dass es andere Objekte der Mathematik, wie etwa Punkte und Gerade, ’wirklich’ gibt. Es sind Begriffe. Wir können uns sogar etwas vorstellen unter diesem zahlbegriff, etwa die ganzzahligen Punkte auf dem Lineal. Aber solche privaten Vorstellungen sind ja suspekt, ähnlich wie die sogenannten ’qualia’. (Ich kann ja nicht sicher gehen, dass Sie und ich bei ’blau’ dieselben Empfindungen haben. Ich kann nur überprüfen, ob der Gebrauch, den wir vom Wort ’blau’ machen, etwa wenn wir das Meer sehen oder den Himmel, übereinstimmt.) Es könnte ja auch jemand behaupten, dass er sich einen viereckigen Kreis vorstellen kann: das ist nicht widerlegbar, was sollte ich damit anfangen? Die tiefere Frage ist also: steckt in meinem Wunschobjekt −3 ein innerer Widerspruch? Sind die ganzen Zahlen inkonsistent? Wie lässt sich dieser Verdacht ausschliessen? Sie werden vielleicht schon die schlechte Nachricht gehört haben: ganz ausschliessen lässt er sich nicht. Das hat Gödel gezeigt, und wir kommen später darauf zu sprechen. Aber was man zeigen kann, ist: wenn die natürlichen Zahlen keinen Widerspruch enthalten, dann auch nicht die ganzen Zahlen (und die Bruchzahlen, etc). Man zeigt das, indem man die ganzen Zahlen, die Bruchzahlen etc auf die natürlichen Zahlen zurückführt, gewissermassen als Überbau. Ich will diese Konstruktionen nur kurz andeuten, um eine erste Vorstellung zu vermitteln. Die Absicht ist klar: wir wollen eine Zahl x erfinden, die 5+x = 2 erfüllt. Das ist keine natürliche Zahl, also ist sie irgend eine virtuelle Zahl, eben ein Konstrukt. Wir definieren also einfach (−3) als dieses x, zunächst bloss als Gedankenexperiment. Dann gilt 5 + (−3) = 2. Also ist (−3) durch 2 und 5 definiert. Hier taucht aber die erste Hürde auf. Denn ebenso ist (−3) auch durch 3 und 6, oder durch 7 und 10 definiert, wie wir gesehen haben. Viele Aufgaben ’man löse a + x = b führen zur selben Lösung. Wie geht man da vor? Zunächst bildet man alle Paare (a, b) natürlicher Zahlen. Stellen Sie sich diese Paare in einem Rechtecksschema vor, wie Gitterpunkte in der kartesischen Ebene (Fig 4.3). Was wir uns intuitiv unter so einem Paar ((a, b) vorstellen wollen (das ist aber keine Definition, nur Anschauung!) ist eben die Differenz b − a (die noch gar nicht erklärt ist wenn a ≤ b), also die Lösung der Aufgabe a+x = b. Auf den Parallelen zur Diagonale haben alle Paare dieselbe Differenz. Anders ausgedrückt, 29 zwei Paare (a, b) und (a0 , b0 ) liegen auf derselben Parallele, wenn a + b0 = a0 + b), d.h. b − a = b0 − a0 , und stellen verschiedene Aufgaben mit derselben Lösung dar. Jeder solchen Parallelen ordnen wir nun eine ’ganze’ Zahl zu: der Diagonalen selbst die 0, den Parallelen darunter (dort ist a > b) die Zahlen 0 10 , 0 20 ,... und denen darüber (−1), (−2) usw. Warum sind hier Gänsefüsschen gesetzt? Weil es sich jetzt um ganze Zahlen handelt. Die sind unserem Zugang gemäss Parallelen im Zahlengitter, und somit Mengen von Paaren natürlicher Zahlen, also etwas ganz anderes als die natürlichen Zahlen selbst. Aber diese ’positiven’ ganzen Zahlen wollen wir schnellstmöglich mit den natürlichen Zahlen identifizieren, und die Gänsefüsschen vergessen. Wir taufen einfach um. Als nächstes definiert man die Addition von Zahlenpaaren ’komponentenweise’: (a, b) + (c, d) := (a + c, b + d). Das liefert eine Addition nicht nur der Paare, sondern der Parallelen (es kommt nicht darauf an, welche Gitterpunkte man auf den Parallelen wählt, man erhält immer dieselbe ’Summenparallele’). Für die Parallelen, die natürlichen Zahlen entsprechen, liefert das dieselbe Summe wie für die natürlichen Zahlen selbst. Dann zeigt man, dass die Eigenschaften (1),(2), (3), (4),(5),(6) erfüllt sind, jetzt aber für die ganzen Zahlen, nicht nur für die natürlichen. Und schliesslich zeigt man, dass für diese Objekte, also unsere ganzen Zahlen, auch (10) und (11) gilt. Achtung: wir sind noch nicht ganz fertig! Jetzt muss man noch zeigen, dass man auch eine Multiplikation von ganzen Zahlen einführen kann, die auf den natürlichen Zahlen mit der üblichen übereinstimmt und auch die Eigenschaften (3)(4)(5)(6) besitzt. Das Produkt des Zahlenpaars (a, b) mit (c, d) wird definiert als Zahlenpaar (ac+bd, ad+bc), was nicht gerade nahe liegt (ausser man bedenkt, dass (ad+bc)−(ac+bd) = (b−a)(d−c)). Wieder werden Parallelen in Parallelen übergeführt. Weiters kann man zeigen, dass man die ganzen Zahlen so anordnen kann, dass (7), (8), (9) gilt und die natürlichen Zahlen dabei so geordnet sind wie gehabt. Auch das ist nicht schwer, die Parallelen sind ja von links oben nach rechts unten geordnet. 4.4 Bruchwerk Und jetzt kommt das nächste Problem, die Bruchzahlen. Im Wesentlichen gilt ’alles wie vorhin’. Wir betrachten wieder alle Paare ganzer Zahlen (m, n), also der Gitterpunkte in der Ebene (Fig.4.5). (Ganz im Vertrauen: (m, n) soll dem Bruch m/n entsprechen.) Da wir nicht durch 0 dividieren können, lassen wir die Punkte (m, 0) weg. Dann fassen wir wieder Punkte zu Geraden zusammen, diesmal alle Punkte auf dem Strahl durch (m, n) und (0, 0). (Zwei Punkte (m, n) 30 und (m0 , n0 ) liegen somit auf demselben Strahl, wenn mn0 = m0 n). Diese Strahlen entsprechen den rationalen Zahlen. Natürlich wollen wir den Strahl durch (m, 1) (also den ’Bruch’ m/1) mit der ganzen Zahl m identifizieren. Jetzt definieren wir eine Multiplikation von rationalen Zahlen. (m, n) × (m0 , n0 ) wird als (mm0 , nn0 ) erklärt. Das liefert eine Multiplikation von Strahlen (dh es kommt nicht drauf an, welches Paar (m, n) wir auf dem Strahl auswählen). Diese Multiplikation stimmt für die ganzen Zahlen mit der übliche überein. Und jetzt folgt daraus: wir können dividieren, also für alle rationalen Zahlen a, b mit a 6= 0 die Gleichung ax = b lösen; die Lösung ist wieder eine rationale Zahl. Mit der Multiplikation läuft somit alles nach Wunsch, aber haben wir nicht die Addition etwas aus den Augen verloren? Nun, wir definieren die Addition von Paaren (a, b) und (c, d) ganzer Zahlen als (ad + bc, bd). Und wieder kann man zeigen: das liefert eine Operation auf den rationalen Zahlen (führt also die Strahlen in Strahlen über). Sie stimmt auf den ganzen Zahlen mit der üblichen Multiplikation überein, und erfüllt (1)(2)(6)(10)(11). Schliesslich definieren wir noch eine Anordnung auf Q (das ist leicht, ein Strahl ist grösser als der andere wenn der obere Halbstrahl im Uhrzeigersinn hinter dem anderen oberen Halbstrahl liegt). Jetzt können wir die Eigenschaften (8) und (9) überprüfen, alles passt. Und damit wir auch die Visualisierung mittels der Zahlengeraden erhalten, betrachten wir die Schnittpunkt aller Strahlen mit der Horizontalen durch (0, 1). Jedem Strahl entspricht ein Schnittpunkt, der ist jetzt unsere rationale Zahl. Die rationalen Zahlen haben eine sonderbare Eigenschaft: es gibt keine nächst grössere rationale Zahl (während es zu jeder ganzen Zahl eine nächstgrössere ganze Zahl gibt). Wenn a eine rationale Zahl und b die ’nächstgrössere’ wäre, kämen wir sofort zu einem Widerspruch: denn (a + b)/2 wäre ja auch eine rationale Zahl, und näher bei a als es b ist. Man sagt: die rationalen Zahlen liegen dicht. Wir können das noch präzisieren. Alle endlichen Dezimalbrüche m/10n sind rationale Zahlen besonderer Gestalt. In jeder noch so kleinen Lücke liegen endliche Dezimalbrüche. Denn sei die Länge der Lücke. Für hinreichend grosse n gilt 1/10n < . Der Dezimalbruch m/(10)n (wobei m ganz ist) hat Abstand 1/(10)n vom nächstgrösseren (m+1)/10n , also liegt mindestens ein solcher Dezimalbruch in der Lücke der Länge . Wir haben jetzt Q als einen Zahlenkörper erhalten, noch dazu einem angeordneten. Jetzt können wir also nach Herzenslust addieren, subtrahieren, multiplizieren und dividieren. War es der Mühe wert? Für Philosophen, glaube ich, nur um deutlich vor Augen zu führen, wie bedenkenlos Mathematiker mit der ’Essenz’ der Zahlen umgehen (mal sind es Paare, dann Gitterpunkte, dann Parallelen, dann Strahlen...), und mit welcher Inbrunst sie ihre Rechenregeln verteidigen. Die 31 Konstrukte sind nur dazu da, um nachzuweisen, dass man ein ’Modell’ aufzeigen kann, das die Rechenregeln erfüllt, dass diese also keinen Widerspruch enthalten (wenn die natürlichen Zahlen es nicht tun). 4.5 Wurzelbehandlung Wir sollten zufrieden sein. Natürlich sind wir es nicht! Warum nicht? √ Weil es Längen gibt (etwa die der Diagonalen des Einheitsquadrats, also 2) die keine rationalen Zahlen sind. Diese Diagonale spielt übrigens, in ganz anderem zusammenhang, eine wichtige Rolle in einem platonischen Dialog ’Menon’. Dort stellt Sokrates einem jungen unverbildeten Sklaven die Frage: wie lang muss die Seite eines Quadrats sein, dessen Flächeninhalt doppelt so gross wie das Quadrat mit Seitenlänge Eins? Der Sklave sagt zuerst: die Seite muss doppelt so lang sein (Fig.4.5). Sokrates weisst ihm nach, dass dann das Quadrat vierfachen Flächeninhalt hätte, und bringt durch √ geschicktes Fragen den Sklaven schliesslich zur richtigen Antwort, nämlich 2, ohne ihn je zu belehren. Da der Junge nie in Geometrie unterrichtet wurde, folgerte Plato, dass das Wissen in ihm schon vorhanden war, also mathematische Wahrheiten eine eigene Existenz besitzen. Das ist eine Auffassung, die von grosser philosophischer Bedeutung war, aber heute bekennt sich kaum ein Mathematiker dazu. √ Der Beweis √ der Irrationalitt von 2 hat die Griechen angeblich sehr bestürzt. Angenommen, 2 ist eine rationale Zahl n/m. Wir können annehmen, dass die natürlichen Zahlen n und m nicht beide gerade sind, sonst kürzen wir einfach. Es gilt 2 = n2 /m2 , daher ist n2 gerade, und somit auch n, also n = 2p für irgend ein p. Daher ist 2m2 = 4p2 , somit m2 = 2p2 , also ist m2 gerade, also ist auch m gerade, das geht aber nicht, da wir ja dann noch gekürzt haben könnten! Also gibt es keine rationale Zahl, die x2 = 2 löst. Wir brauchen noch mehr Zahlen! Aber haben wir denn noch Platz? Um die reellen Zahlen zu erhalten, können wir bei Fig 4.4 bleiben, aber betrachten nur die obere Hälfte. Anschaulich gesprochen: wie wir gesehen haben, wird nicht jeder Halbstrahl durch√(0, 0) durch einen weiteren Gitterpunkt gehen. Der Halbstrahl mit Neigung 1/ 2 etwa tut es nicht. Wir ordnen jetzt jedem Halbstrahl eine reelle Zahl zu (und jene Halbstrahlen, die durch einen Gitterpunkt gehen, entsprechen wie bisher rationalen Zahlen). Jeder solche Halbstrahl teilt die Menge der Gitterpunkte in der oberen Halbebene in zwei Teile. Falls er durch Gitterpunkt führt, ordnen wir diese dem linken Teil zu – das ist einfach eine Vereinbarung. 32 Oder einfacher, der Halbstrahl bildet einen Schnitt: die Menge Q (auf der Horizontalen durch (0, 1)) wird dadurch in zwei Teile zerlegt, eine Obermenge und eine Untermenge (die mit jeder rationalen Zahl auch alle kleineren enthält). Wenn der Schnitt durch eine rationale Zahl r führt, ordnen wir sie der Untermenge zu (entsprechend unserer Vereinbarung). Dadurch setzen wir fest, dass eine Obermenge kein kleinstes Element besitzt (r hat‘ja kein nächstgrösseres). Wenn die Untermenge ein grösstes Element besitzt, so fassen wir sie als die entsprechende rationale Zahl auf. Aber es muss kein grösstes Element geben. ZB ist die Menge aller rationalen Zahlen r = m/n, die entweder ≤ 0 sind oder r2 ≤ 2 erfüllen, eine Untermenge, besitzt aber √ kein grösstes Element. Diese Menge definieren wir jetzt als die reelle Zahl 2. Also fassen wir die reellen Zahlen als Untermengen auf. Als Summe von zwei Untermengen definieren wir die Menge aller Summen von zwei rationalen Zahlen, von denen je eine in der einen, die andere in der anderen Untermenge liegt. Ebenso für das Produkt (nur mit den Vorzeichen muss man etwas aufpassen). Und man zeigt jetzt (leicht, aber langwierig), dass man damit rechnen kann wie bisher, und im Sonderfall der rationalen Zahlen die bisherigen Werte für Summe √ und Produkt erhält. Insbesondere wird das Produkt der irrationalen Zahl 2 mit sich selbst eine rationale Zahl liefern, nämlich 2. Wir haben also die Menge der rationalen Zahlen zu jener der reellen Zahlen 2 erweitert, und erhalten jetzt √ eine Lösung √ der Gleichung x = 2. Wir erhalten sogar zwei Lösungen (neben 2 auch − 2). Das soll man nicht vergessen, sonst kommen Fehlschlüsse wie der folgende zustande: 16 − 36 = 25 − 45 81 81 16 − 36 + = 25 − 45 + 4 4 9 9 (4 − )2 = (5 − )2 2 2 9 9 (4 − ) = (5 − ) 2 2 4 = 5. 4.6 Vollständigkeit So konstruiert man also die reellen Zahlen. Sie bilden einen geordneten Zahlkörper, wie die rationalen Zahlen. Aber im Gegensatz zu Q ist R unter der Bildung von 33 Grenzwerten abgeschlossen. Was heisst das? Nun, die rekursiv definierte Folge an+1 = 1 an + 2 an (mit a1 = 1), also die folge 1, 32 , 17 , ... ist eine Folge rationaler Zahlen, und besitzt 12 einen Grenzwert√a. Der aber erl̈lt a2 = 2 und ist daher nicht rational. Er ist nämlich gerade 2 (und so berechnet man auch die Wurzel von 2). Der Grenzwert fällt in eine der (’unendlich kleinen’) Lücken zwischen den rationalen Zahlen. In diesem Sinn ist R vollständig: alle Grenzwerte gehören dazu. Noch etwas ausführlicher. Ein (abgeschlossenes, beschränktes) Intervall [a, b] ist die Menge aller rellen Zahlen x, die a ≤ x ≤ b erfüllen. Betrachten wir eine Menge von ineinandergeschachtelten abgeschlossenen Intervallen In . Also I1 ⊇ I2 ⊇ ... ⊇ In ⊇ In+1 ⊇ .... Man kann zeigen: es gibt mindestens eine reelle Zahl, die in allen diesen Intervallen liegt (übrigens genau eine, wenn die Längen der Intervalle eine Nullfolge bilden). (Für offene Intervalle, also Mengen reeller x, die a < x < b erfüllen, muss das nicht gelten. Betrachten Sie etwa die Folge In aller reeller zahlen x mit 0 < x < 1/n. Wenn ein x in allen In läge, wäre x > 0. Aber dann existiert ein n > 1/x, dh. x > 1/n, dh x ∈ In wäre falsch! Dieses Intervallschachtelungsprinzip (für abgeschlossenen beschränkte Inter√ valle) gilt aber nicht für Q. Da 2 = 1, 41... gilt ja √ 1≤ 2≤2 15 14 √ ≤ 2≤ 10 10 142 141 √ ≤ 2≤ 100 10 usw. und es gibt keine rationale Zahl, die in allen diesen Intervallen I1 = [1, 2], I2 = [14/10, 15/10], I3 = [141/100, 142/100] liegt. Die ganze Theorie der Grenzwerte beruht letztlich auf dieser Vollständigkeit der reellen Zahlen. Man kann sagen: die reellen Zahlen erhält man aus den rationalen, wenn man die Grenzwerte von Folgen rationaler Zahlen dazunimmt. Wenn man diesen Schritt noch einmal durchführt (also die Grenzwerte von Folgen reeller Zahlen betrachtet) kommt nichts neues mehr hinzu. (Übrigens muss man zu den Axiomen der euklidischen Geometrie auch das Intervallschachtelungsprinzip dazunehmen.) 34 4.7 Imaginäres Wer aber meint, in der Konstruktion von immer grösseren Mengen von Zahlen endlich innehalten zu können, der irrt. Den jetzt taucht die Gleichung x2 = −1 auf, und wieder finden wir keine Lösung. Nun scheint das Problem nicht so gravierend wie bei x2 = 2. Denn bei letzterer Aufgabe wussten wir ja, dass etwas herauskommen muss – nämlich die Länge der Diagonalen des Einheitquadrats. Dagegen wissen wir, dass das Quadrat einer reellen Zahl nicht negativ sein kann. x2 + 1 = 0 scheint eine blosse Scherzfrage zu sein. Trotzdem begannen Mathematiker der Renaissance damit zu rechnen. Sie taten so, als ob es eine Lösung gäbe, dh. sie führten eine virtuelle Lösung ein, die ’imaginäre Zahl’ i. Sonderbarerweise liess sich damit rechnen, unter Verwendung von i konnte man zB eine Formel für die reellen Lösungen kubischer Gleichungen angeben. Die Zahl i, zunächst als Taschenspielerei eingefährt, wurde immer unerlässlicher, und immer faszinierender: Euler bewies zb die geradezu magische Formel eiπ + 1 = 0 eine rätselhafte Beziehung zwischen den ’wichtigsten’ Zahlen: der Null, der Eins, der Kreiszahl π, der Zahl e und der imaginären Zahl i. Aber erst bei Gauss legte die Zahl i ihren phantastischen Charakter ab. Gauss fand eine geometrische Interpretation, an Hand derer alles plötzlich ganz einfach wurde. Er setzte die i nicht auf die Zahlengerade, sondern darüber. Genauer: er betrachtete die Menge aller Paare (a, b) reeller Zahlen (also aller Punkte in der kartesischen Ebene). Die Paare (a, 0) liegen alle auf einer Achse – eben der reellen Zahlengeraden. Gauss setzte jetzt einfach i := (0, 1)! Mit einem Schlag wurde alles transparent. (Dass zwei völlig Unbekannte, Argand und Wessel, dieselbe Idee schon früher hatten und von niemanden beachtet wurden, ist eine andere Geschichte.) Nochmals: Ein Paar (a, b) reeller Zahlen wurde interpretiert als die ’komplexe Zahl’ a + ib. Die Addition komplexer Zahlen ist einfach die komponentenweise: Also (a, b) + (c, d) := (a + c, b + d). Die Multiplikation ist etwas weniger naheliegend: (a, b) × (c, d) := (ac − bd, ad + bc). Aber diese Definition lässt sich leicht begründen, denn (a + ib)(c + id) gibt, formal ausmultipliziert, ac + (i2 )cd + i(ad + bc). Wir sehen also auch hier wieder, was sich wie ein roter Faden durch dieses Kapitel zieht: Motor des Fortschritts ist nicht die Frage nach dem ’Wesen’ oder der ’Natur’ dieser oder jener Zahl, sondern der Wunsch, die gewohnten Rechenregeln beizubehalten. Zahlen sind weiter nichts als Platzhalter für Rechnungen. Das Symbol 3 bedeutet etwas ganz anderes, je nachdem, ob es 35 für ein Element von N, von Q, von R oder von C steht. Natürliche Zahlen eignen sich zum Zählen, reelle Zahlen zum Messen, komplexe Zahlen für die Quantenmechanik, aber für die Mathematik ist nur wichtig, wie man mit ihnen rechnen kann. Die Multiplikation in C, definiert durch den Wunsch, die üblichen Rechenregeln beizubehalten und den Wunsch, eine Lösung für x2 = −1 zu erhalten, hat eine überraschende geometrische Interpretation. Jeder von 0 verschiedenen komplexen Zahl entspricht ein Abstand (von der Null) und ein Winkel (zum Halbstrahl der positiven reellen Zahlen). Multipliziert man zwei komplexe Zahlen, so werden die Abstände (reelle Zahlen!) miteinander multipliziert und die Winkel addiert. Die Multiplikation mit einer komplexen Zahl ist also eine Drehstreckung (Drehung um einen Winkel, Streckung um einen Faktor) in der Ebene der komplexen Zahlen. Die Zahlengeraden denken wir uns darin eingebettet als die horizontale Gerade durch den Nullpunkt. Auf dieser Zahlengeraden liefern die neuen Rechenoperationen (die für die komplexe Ebene eingeführt sind) nichts anderes als die uns gewohnten Rechenoperationen für reelle Zahlen. Jetzt ist es wieder ein leichtes, die Rechengesetze (1) bis (9) nachzuprüfen, und sich zu vergewissern, dass sie (auf die reellen Zahlen angewandt) das Übliche liefern. Nicht nur Euler’s Zauberformel wurde so verifizierbar, es stellte sich heraus, dass die Analysis im Komplexen viel einfacher, schöner und eleganter wurde. Allerdings müssen wir auf die Anordnungsregeln (11) und (12) verzichten. Hier hilft das Wünschen nichts mehr. In C kann man zwar leicht eine Anordnung < einführen, die (10) erfüllt, aber keine, die mit den Rechenoperationen verträglich ist. Jetzt mag man denken: so, wie wir ein bestimmtes Element i eingeführt haben als Lösung der Gleichung x2 + 1 = 0, können wir auch für beliebige andere Gleichungen verfahren. Die wunderbare Nachricht: das ist nicht mehr nötig! Schon jetzt können wir alle Gleichungen lösen. Genauer gilt der sogenannte Fundamentalsatz der Algebra: wenn xn + an−1 xn−1 + ... + a1 x + a0 = 0 eine beliebige Gleichung n-ten Grades ist (wobei die ai reelle oder komplexe Zahlen sind), so existieren n komplexe Zahlen c1 ,...,cn so dass xn + an−1 xn−1 + ... + a1 x + a0 = (x − c1 )...(x − cn ) für alle komplexen Zahlen x gilt. Insbesondere sind die ci ’s (die nicht unbedingt voneinander verschieden sein müssen) die Lösungen obiger Gleichung. Man sagt daher: der Körper C ist algebraisch abgeschlossen. Vollständig ist er übrigens auch. 36 4.8 Hyperkomplexe Zahlen Fertig? Ja und nein. Gleich nachdem Gauss die komplexen Zahlen auf ein festes Fundament gestellt hatte, begann die Suche nach noch grösseren Zahlkörpern. Die Strategie war klar: wenn das Multiplizieren von Paaren reeller Zahlen soviel Erfolg gebracht hat, was darf man dann erst von der Multiplikation von Tripeln erwarten? (Das Addieren ist ja klar, man addiert komponentenweise.) William Hamilton, einer der grössten Mathematiker seiner Zeit, suchte jahrelang nach so einer geeigneten Multiplikation. Heute weiss man, dass es nicht geht. Aber Hamilton entdeckte, dass man zwar keine Tripel, wohl aber Quadrupel multiplizieren kann. Das war die Geburtsstunde der Quaternionen. Diese Quaternionen haben allerdings einen Makel: die Multiplikation ist nicht kommutativ, d.h. (3) gilt nicht. Später entdeckte man auch Oktonionen (oder Oktaven), also geordnete 8-Tupel reeller Zahlen. Hier geht nicht nur die Kommutativität der Multiplikation flöten, sondern auch die Assoziativität, also (2). Im Lauf des 20. Jahrhunderts wurde bei Untersuchungen ’hyperkomplexer Zahlen’ klar, dass man hier an einer Endstation angelangt war. ’Vernünftig’ rechnen (und insbesondere dividieren) kann man mit n-Tupeln nur, wenn n = 1, 2, 4, 8. Und jedes Erweitern des Zahlbegriffs über die reellen Zahlen hinaus geschieht auf Kosten der einen oder anderen Rechenregel. 37 5 ENDLICH UNENDLICH 5.1 Cantors Paradies Das Unendliche war jahrtausendelang den Theologen vorbehalten und Mathematikern wie Philosophen gleichermassen suspekt. Aristoteles liess nur das PotentialUnendlich zu, nicht das Aktual-Unendliche, also kein vollendetes Unendliches, sondern nur einen Progress in Unendliche. Die Scholastiker hatten ihre liebe Not mit dieser Selbstbeschränkung (denn die Allmacht Gottes hat ja zweifellos aktual unendlich zu sein). Bis weit ins 19. Jahrhundert näherte man sich also dem Begriff des Unendlichen nur mit viel Misstrauen. Hier einige Zitate: Descartes: ’Wir werden uns nicht mit Streitigkeiten über das Unendliche ermüden, denn bei unserer Endlichkeit wäre es verkehrt, wenn wir versuchten, etwas darüber zu bestimmen und es so gleichsam endlich und begreifbar zu machen...denn nur der, der seinen Geist für unendlich hält, kann glauben, hierüber nachdenken zu müssen’. Leibniz: ’Wir haben keine Vorstellung eines unendlichen Raumes’. (An anderen Stellen verteidigt Leibniz aber das aktual-Unendliche explizit). Gauss: ’So protestiere ich gegen den Gebrauch einer unendlichen Grösse.’ Der deutsche Mathematiker Georg Cantor (1845-1918) war der erste, der im Unendlichen weiterzählte. (Vorläufer hatte er allerdings, nämlich zumindest Bolzano und Dedekind – letzterer beeinflusste Cantor stark). Cantors Mengenlehre schockierte nicht wenige seiner Kollegen, doch David Hilbert wurde sofort zum begeisterten Befürworter der neuen Methoden. Hilberts Kampfruf: ’Aus Cantors Paradies soll uns niemand vertreiben!’ wurde in der Gemeinschaft der Mathematiker bald mehrheitsfähig. Die Mengenlehre wird einerseits verwendet, um mit dem Begriff des Unendlichen zu operieren, und andrerseits, um eine feste, einheitliche Basis für alle Zweige der Mathematik zu erhalten. Eine Menge ist laut Cantor ’eine Zusammenfassung von bestimmten wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens (welche die Elemente genannt werden) zu einem Ganzen’. So eine Erläuterung mag hilfreich sein, ist aber selbst kein Teil einer mathematischen Theorie. Die meisten Mathematiker stellen sich wohl unter einer Menge so etwas wie einen Sack oder eine Schachtel vor, oder vielleicht einen Ordner (die Elemente wären dann die Dateien). Cantor selbst sagte, er denke bei einer Menge an einen Abgrund. 38 5.2 Mächtige Mengen Beispiele von Mengen sind etwa: Die Menge der Zuhörer in diesem Hörsaal; die Menge N = {1, 2, 3, ...} der natürlichen Zahlen; die Menge, die aus diesen drei Kreidestücken besteht. Eine Menge kann ihrerseits Element einer Menge sein (so ist jede ganze Zahl eine Menge von Zahlenpaaren, usw.). Ebenso kann ja ein Ordner seinerseits Ordner enthalten. Zwie Mengen A und B sind gleich, wenn jedes Element von A auch Element von B ist und umgekehrt. Insbesondere gibt es genau eine leere Menge, also ’die’ leere Menge, sie wird üblicherweise mit φ bezeichnet (man kann sich darunter einen leeren Sack vorstellen, oder einen leeren Ordner, allerdings ist hier Vorsicht geboten: es gibt ja nicht nur einen leeren Sack, oder einen leeren Ordner, aber es gibt nur eine leere Menge!). Wenn jedes Element von A zu B gehört, nennt man A eine Teilmenge von B. Man muss unterscheiden zwischen dem Element a von A und der Menge {a}, die nur das eine Element a besitzt und eine Teilmenge von A ist. Ebenso unterscheidet man zwischen einer Datei und einem Ordner, der nur diese Datei enthält. Wenn a Element von A ist schreibt man a ∈ A, wenn V Teilmenge von A ist V ⊆ A. Eine Abbildung f von A in B ordnet jedem a ∈ A genau ein b ∈ B zu. Man schreibt b = f (a). Wenn aus x 6= y stets f (x) 6= f (y) folgt, heisst f injektiv; wenn es für jedes b ∈ B ein a ∈ A gibt mit b = f (a) dann ist f surjektiv; schliesslich heisst f bijektiv, wenn f sowohl injektiv als auch surjektiv ist. (Fig.5.1). Zwei Mengen A und B heissen gleichmächtig, wenn es eine bijektive Abbildung von A auf B gibt, also eine umkehrbar eindeutige Zuordnung (oder: eine eineindeutige Abbildung, oder eins-zu-eins Zuordnung, das bedeutet immer dasselbe) zwischen den Elementen von A und jenen von B. Eine Menge A heisst endlich, wenn es eine natürliche Zahl n gibt, so dass A zu der Menge {1, ..., n} (einem sogenannten Abschnitt der natürlichen Zahlen N) gleichmächtig ist. A hat dann n Elemente. Zwei endliche Mengen, die gleich viele Elemente enthalten, sind demnach gleichmächtig (oder gleichzahlig). Es gibt eine eineindeutige Zuordnung zwischen der Menge der rechten und der linken Ohren in diesem Hörsaal. Die zwei Mengen sind gleichzahlig, das können wir feststellen, ohne zählen zu müssen. Die Kombinatorik (manchmal als Kunst des Zählens bezeichnet) befasst sich mit dem Abzählen und Anordnen endlicher Mengen. Als ganz einfaches Beispiel sei erwähnt: eine Menge mit n Elementen besitzt 2n Teilmengen (wenn man die leere Menge, und die volle Menge selbst dazunimmt). Der einfachste Beweis hierfür verwendet vollständige Induktion. Für n = 1 39 oder 2 ist die Sache klar. Wenn die Behauptung für n gilt, so stimmt sie auch für n + 1. Denn sei A eine Menge mit n + 1 Elementen, und a irgend ein Element von A. Entfernen wir a aus A, bleibt uns eine ’Restmenge’ mit n Elementen. Die hat nach Induktionsvoraussetzung 2n Teilmengen. Es gibt also 2n Teilmengen von A, die a nicht enthalten; und dementsprechend auch 2n Teilmengen von A, die a enthalten. Das liefert insgesamt 2 × 2n = 2n+1 Teilmengen von A. 5.3 Abzählbares Die Menge der ungeraden Zahlen hat offenbar dieselbe Mächtigkeit wie die Menge der geraden Zahlen: die Abbildung, die jeder ungeraden Zahl (etwa der 3) ihren Nachfolger (also 3+1=4) zuordnet, liefert die gewünschte Bijektion. Aber es gibt, sonderbarerweise, ebenso viele gerade wie natürliche Zahlen (Fig. 5.2). Das wird etwa durch die Zuordnung n → 2n vermittelt, die jeder natürlichen Zahl eine gerade Zahl zuordnet und umgekehrt. Eine (unendliche) Menge A kann also Teilmengen besitzen, die gleichmächtig sind, obwohl sie von A verschieden sind! Das wird als das Paradox von Galilei bezeichnet. (Bei endlichen Mengen ist das nicht möglich: es gibt keine eins-zu-eins Zuordnung eines Abschnitts auf einen kleineren Abschnitt. Auch das lässt sich durch vollständige Induktion beweisen. Bei unendlichen Mengen A ist es umgekehrt immer möglich, durch Weglassen eines oder mehrerer Element eine Teilmenge zu erhalten, die gleichmächtig ist, also, schlampig gesprochen, gleich viele Elemente enthält (obwohl sie doch ’kleiner’ ist, also einige Elemente nicht enthält). Schön wird dieser Sachverhalt durch das berühmte Beispiel von ’Hilberts Hotel’ vor Augen geführt. Stellen wir uns ein so riesiges Hotel vor, dass als Zimmernummern alle natürlichen Zahlen vorkommen. Stellen wir uns weiters vor, dass das Hotel vollbesetzt ist, aber spätabends noch ein Gast kommt. Der Rezeptionist muss diesen Neuankömmling nicht abweisen. Nein, er bittet einfach jeden Hotelgast, in das Zimmer mit der nächsthöheren Nummer zu übersiedeln, und schon ist das Zimmer mit Nummer Eins frei. Die Mächtigkeit (oder Kardinalität) von N wird mit ℵ0 (Aleph Null) bezeichnet. Mengen mit dieser ’transfiniten’ Kardinalität lassen sich durchnummerieren, und heissen ’abzählbar unendlich’. Die Menge aller geraden Zahlen ist abzählbar unendlich, auch die Menge der Primzahlen ist es, obwohl es doch scheinbar so viel mehr zusammengesetzte Zahlen gibt. Auch die Menge Z der ganzen Zahlen ist abzählbar. Es fällt nicht schwer, sie durchzunummerieren: 0, 1, −1, 2, −2, 3, −3, ... Jede ganze Zahl, egal wie weit links oder rechts, kommt irgendwann einmal bei dieser Abzählung dran (Fig.5.3). 40 Auch die Menge aller Paare (n, m) natürlicher Zahlen ist abzählbar, wenn man es nur richtig anstellt (Fig.5.4). Und daher haben auch alle rationalen Zahlen Q die Kardinalität ℵ0 : man zählt die positiven rationalen Zahlen n/m mit genau demselben Verfahren durch, nur überspringt man dabei jene Brüche, die man bereits gezählt hat. 5.4 Überabzählbar Jetzt stellt sich die Frage: Haben denn alle unendlichen Mengen gleiche Kardinalität? Zum Glück nein, denn sonst wäre das Unendliche recht langweilig. Cantor bewies, dass die Menge R aller reellen Zahlen nicht abzählbar unendlich ist, und daher eine grössere Kardinalität als die Menge der natürlichen Zahlen besitzt. Er verwendete dazu das sogenannte Diagonalisierungsverfahren. Zu Cantors Beweis: jede reelle Zahl zwischen Null und Eins lässt sich als unendlicher Dezimalbruch, und somit als Ziffernfolge, darstellen. Der unendliche Dezimalbruch 0,31416 ... heisst zb: 3/10 + 1/100 + 4/1000 + .... Angenommen, es gibt abzählbar viele solcher Dezimalbrüche. Diese lassen sich dann durchnummerieren, d.h. in Form einer (abzählbar unendlichen) Liste schreiben. Die Liste beginnt irgendwie so: 0, 3141621... 0, 333333... 0, 5000000... 0, 214757... ... Bilden wir nun eine reelle Zahl r, indem wir jeweils aus der n-ten Zeile die n-te Ziffer nach dem Komma wählen (also hier 0, 3307...). Bilden wir daraus, indem wir jede der Ziffern durch eine andere ersetzen, eine weitere Zahl. Diese Zahl kann nirgendwo in der Liste vorkommen, zB nicht in der n-ten Zeile, denn ihre n-te Ziffer unterscheidet sich ja von der n-ten Ziffer von r, und daher auch von der n-ten Ziffer in der n-ten Zeile. Also war unsere Liste nicht vollständig. Also kann man die reellen Zahlen nicht durchnummerieren. Bleibt nur noch zu zeigen, dass die Menge der reellen Zahlen zwischen 0 und 1 dieselbe Mächtigkeit besitzt wie R selbst. Solche Zuordnungen zu finden ist aber leicht (und auch geometrisch einsichtig, s. Fig.5.5) Ein ähnliches Diagoalisierungsargument kann man auf die Menge aller Folgen von Nullen und Einsen anwenden. Jede solche Folge entspricht aber einer 41 Teilmenge A von N (die Zahl n gehört genau dann zu A wenn das n-te Glied der entsprechenden Folge 1 ist. Die Menge der geraden Zahlen entspricht etwa der Folge 0,1,0,1,0,1,0,...). Also gibt es überabzählbar viele Teilmengen von N. Die Kardinalität der reellen Zahlen bezeichnet man mit c (für ’Continuum’) oder, wenn man den zweiten Gesichtspunkt (Anzahl der Teilmengen von N) hervorheben möchte, mit 2ℵ0 . 5.5 Das Auswahlaxiom Es gibt Mengen mit noch grösserer Mächtigkeit. Cantor hat gezeigt, dass ebenso wie für (nichtleere) endliche Mengen auch für unendliche Mengen gilt: die Potenzmenge (d.h. die Menge aller Teilmengen) hat stets eine grösserer Kardinalität als die Menge selbst. Dass es mit ℵ0 eine kleinste unendliche (oder ’transfinite’) Kardinalität gibt, scheint zunächst klar: man zieht einfach aus der vorgegebenen Menge A ein Element nach dem anderen, wenn das irgendwann nicht mehr geht, die Menge (der ’Sack’) also geleert ist, dann war die Menge endlich, wenn nicht, hat man eine eins-zu-eins Zuordnung zwischen N und einer Teilmenge von A, (nämlich der Teilmenge der ’herausgeholten’ Elemente), und die ursprüngliche Menge A hat also mindestens die Kardinalität ℵ0 . Oder ist das doch nicht ganz so klar? Man verwendet hier nämlich das sogenannte Auswahlaxiom. Es wurde erstmals von Zermelo, einem Schüler von Hilbert, 1908 formuliert, und war zunächst heftig umstritten. Zermelo führte Axiome für die Mengenlehre ein, die nach einer leichten Modifikation heute als Zermelo-Fraenkel-Axiome in allgemeinem Gebrauch sind, und er bemerkte bei der Gelegenheit, dass man für gewisse, bislang für evident gehaltene Schlüsse dieses Auswahlaxiom braucht. Das Auswahlaxiom besagt (in einer seiner vielen äquivalenten Formulierungen): liegen beliebig viele paarweise disjunkte, nichtleere Mengen vor (eine sogenannte ’Familie’ von Mengen), so gibt es eine Menge, die mit jeder Menge dieser Familie genau ein Element gemein hat. Also: man kann aus beliebig vielen Mengen je ein Element auswählen, gewissermassen ’gleichzeitig’. Das erfordert unendlich viele Schritte – nämlich jeweils ein Element aus der betreffenden Menge auszuwählen. Bertrand Russell verdeutlichte das mit einem Beispiel: stellen wir uns vor, ein Millionär besitzt unendlich viele Paare von Schuhen, und unendlich viele Paaren von Socken. Aus jedem Paar Schuhe einen Schuh auszuwählen, ist leicht: man bilde etwa ’die Menge aller linken Schuhe’. 42 Aber wie wählt man aus jedem Paar von Socken einen aus? Um das zu gewährleisten, fordert man die Gültigkeit des Auswahlaxioms. Das Auswahlaxiom wird routinemässig verwendet, aber zumeist sind Mathematiker aber recht froh, wenn sie ihren Satz auch ohne das Auswahlaxiom beweisen können. Denn ganz geheuer ist es ja nicht. 5.6 Schöpfung aus dem Nichts Wie lauten nun die Axiome der Mengenlehre? Heute verwendet man zwei in gewisser Hinsicht gleichwertige Zugänge. Der eine stammt von Zermelo und Fraenkel, samt ’Axiom of Choice’ (ZFC), der andere beruft sich auf von Neumann, Bernays und Gödel (NBG). Bleiben wir bei dem ersten System. Es besteht aus etwa zehn Axiomen, die zunächst festhalten, dass zwei Mengen gleich sind, wenn ihre Elemente übereinstimmen (das sogenannte Extensionalitätsaxiom), und die im weiteren sagen, wie man Mengen bilden kann: z.B. zu je zwei Mengen die Menge aller Paare; oder zu beliebig vielen Mengen die Vereinigungsmenge (alle Elemente, die in mindestens einer Menge vorkommen: wir schreiben A∪B für die Vereinigung von A und B); oder zu jeder Menge die Teilmenge aller Elemente, die eine bestimmte Eigenschaft besitzen; oder mit jeder Menge deren Potenzmenge (dh. die Menge aller Teilmengen), usw. Zu jeder Menge A kann man ihren ’Nachfolger’ A+ bilden, indem man als weiteres Element {A} hinzu nimmt: (es wurde schon erwähnt, dass {A} etwas anderes als A ist). Also gilt A+ := A ∪ {A}. Durch diese sonderbare Definition kann man die natürlichen Zahlen (die wir bisher als gegeben voraussetzten) einführen. Man definiert die 0 als φ (die leere Menge, oder der leere Ordner), die 1 als φ∪{φ} = {φ}, (die Menge, die den leeren Sack enthält, oder der Ordner, der den leeren Ordner als einziges Element enthält), die 2 als {φ}+ = {φ}∪{{φ}}, die 3 als 2 ∪ {2}, usw. So erhält man die natürlichen Zahlen (zugegebenermassen auf etwas unnatürliche Weise; aber immerhin, die 3 hat Kardinalität 3). Da nämlich eines der Axiome der Mengenlehre (das sogenannte Unendlichkeitsaxiom) besagt, dass es Mengen gibt, die φ enthalten und mit jedem ihrer Elemente auch dessen Nachfolger, erhält man solcherart die natürlichen Zahlen als die kleinste Menge mit dieser Eigenschaft. Die Peano-Axiome (mitsamt dem Prinzip der vollständigen Induktion) werden zollfrei mitgeliefert. Im Grunde macht man hier nicht viel anderes, als die archaische Einführung der natürlichen Zahlen durch Striche |, ||, 43 |||, ... zu ersetzen durch {}, {{}}, {{{}}}, ... der Fortschritt ist also wieder einmal nicht so gross, wie er ausschaut. 5.7 Die Kontinuumshypothese Cantor vermutete, dass es keine Kardinalität gibt, die grösser als die der natürlichen Zahlen und kleiner als die der reellen Zahlen (also des Kontinuums) ist. Als Formel geschrieben, heisst das ℵ1 = 2ℵ0 . Jahrzehntelang versuchte Cantor vergeblich, das zu beweisen. Er erlitt schwere psychische Zusammenbrüche und endete in einer Nervenklinik. Beim Weltkongress der Mathematik 1900 in Paris forderte David Hilbert die Fachwelt mit einer Liste von 23 offenen Problemen aus allen Gebieten der Mathematik heraus. Die Liste wurde berühmt und hat tatsächlich den Gang der Mathematik im 20. Jahrhundert entscheidend beeinflusst. Das allererste Problem auf Hilberts Liste war die Cantorsche Kontinuumsvermutung. Hilbert hielt es für ’sehr wahrscheinlich’, dass jede unendliche Teilmenge der reellen Zahlen entweder die Kardinalität aller natürlichen Zahlen, oder die Kardinalität des Kontinuums hat. 1937 gelang es Kurt Gödel, zu beweisen, dass das Auswahlaxiom nicht im Widerspruch steht zu den übrigen Axiomen der Mengenlehre, und dass auch die Kontinuumshypothese nicht im Widerspruch steht zu den Axiomen von ZermeloFraenkel (inklusive Auswahlaxiom). Das war noch kein Beweis des Auswahlaxioms oder der Kontinuumshypothese. Aber schon damals vermuteten Mathematiker, dass ein solcher Beweis gar nicht möglich ist. Gödel versuchte zu zeigen, dass auch die Negation der Kontinuumshypothese nicht im Widerspruch zu den Axiomen der Mengenlehre stand. Er versuchte also zu beweisen, dass die Kontinuumshypothese unabhängig ist von den Axiomen von Zermelo-Fraenkel (einschliesslich des Auswahlaxioms). Nach jahrelangen erfolglosen Bemühungen wandte sich Gödel anderen Fragen zu. 1962 gelang es dem jungen amerikanischen Mathematiker Paul Cohen, die Unabhängigkeit der Kontinuumshypothese zu beweisen. In diesem Sinn ist Hilberts erstes Problem unlösbar. Die Lage ist ähnlich wie bei der Geometrie. Genauso wie man eine Geometrie mit dem Parallelenaxiom und eine Geometrie ohne Parallelenaxiom untersuchen kann, kann man eine Mengenlehre mit und eine Mengenlehre ohne Auswahlaxiom betreiben, und ebenso eine Mengenlehre mit und eine Mengenlehre ohne die 44 Kontinuumshypothese. In beiden Fällen ist eine der beiden Varianten ist so sehr, oder so wenig, widerspruchsfrei wie die andere. 5.8 Unmengen In den ersten Jahren des 20. Jahrhunderts wurde das Vertrauen der Mathematiker in die Mengenlehre auf eine harte Probe gestellt durch eine Reihe von Paradoxen, von denen jenes von Bertrand Russell am bekanntesten wurde. Betrachten wir die Menge aller Mengen U . Da jede Menge A die Beziehung A = A erfüllt, können wir die Menge alle Mengen etwa schreiben als U := {A : A = A} (U steht für Universum). Enthält U sich selbst? Das muss wohl so sein, denn U enthält ja alle Mengen. Also gilt U ∈ U (was etwas sonderbar wirkt und zu den üblichen Vorstellungen einer Menge als Sack, oder Ordner, nicht recht passen will). Dann kann man ja auch Mengen betrachten, die sich nicht selbst enthalten, für die also A 6∈ A gilt. (So enthält die Menge aller Personen in diesem Hörsaal nicht sich selbst, denn sie ist ja keine Person.) Die Russellsche Menge ist nun die Menge aller Mengen, die sich nicht selbst enthalten: also V := {A : A 6∈ A}. Enthält V sich selbst, gilt also V ∈ V ? Wenn ja, dann enthält V nicht sich selbst, und wenn nein, dann enthält V doch sich selbst. Also haben wir einen Widerspruch erhalten. Es gibt mehrere Lösungsmöglichkeiten: man kann etwa verbieten, dass eine Menge sich selbst enthält. Diese ’ad hoc’-Lösung wird etwa durch die Russellsche Theorie der Typen eingeschlagen, wobei die Mengen stufenweise angeordnet werden, sodass eine Menge nur Element einer Menge der nächsthöheren Stufe sein kann (ganz wie bei den Ordnern). Heute neigt man eher zu der Auffassung, dass man nicht alles als ’Menge’ auffassen darf. Die Axiome der Mengenlehre erlauben es, gewisse Mengen zu bilden: andere ’Zusammenfassungen von Objekten...’ (wie das Cantor formulierte) werden nicht als Menge zugelassen. Man bezeichnet derlei ’Un-Mengen’ oft verschämt als ’Klassen’. Insbesondere vermeidet man die ’Allmenge’ U , oder besser gesagt, man gewährt ihr nicht den Status einer Menge. Was allzu umfassend ist, wird verboten. Dann kann man die Paradoxien von Russell vermeiden. In dem Tabu, das die Bildung allzu grosser Mengen verbietet, spiegelt sich etwas von der heiligen Scheu der früheren Denker wieder. Seit Cantor wissen wir, dass uns das Unendliche nicht verschlossen ist. Aber allzu gross darf es nicht sein. 45 6 6.1 WÜRFELN UND WETTEN Zufall Was Zufall ist, hat viele Philosophen beschäftigt. Die Definitionen sind vielfältig. ’Etwas, was sein, aber auch nicht sein kann’, ’was ohne erkennbaren Grund geschieht’, ’eine Wirkung, die durch das Zusammentreffen mehrerer Wirkursachen entsteht’. Den Dichtern gelangen bessere Defintionen: ’Pseudonym Gottes, wenn er sein Werk nicht signieren will’ (A. France), ’ein b’soffener Kutscher, der die Leut zsammführt’ (Nestroy). Natürlich haben Mathematiker nicht die Absicht, den Zufall zu definieren. Sie sind zugleich bescheidener und ehrgeiziger: sie wollen mit ihm rechnen. Die Wahrscheinlichkeitsrechnung ist erst relativ spät entstanden, im 17. Jahrhundert. Bei den Griechen spielte sie noch keine Rolle. Aber Menschen haben immer gern mit dem Zufall experimentiert. Die Griechen sahen sich als Erfinder des Würfelspiels (als Zeitvertreib der Belagerer Trojas), doch die Ägypter kannten den Würfel schon zur Zeit der ersten Dynastie. Das Münzgeld dagegen kam wirklich erstmals in Griechenland auf, und man darf wohl vermuten, dass bald darauf ’Kopf oder Adler’ gespielt wurde. Kartenspiele gibt es seit dem Mittelalter. Gutenberg druckte zwar als erstes die Bibel, aber noch im selben Jahr auch einen Satz Tarockkarten. Lotterien stammen aus dem Florenz der Renaissance. Die französische Aufklärung bescherte uns das Roulettespiel (als Erfindung eines Polizeioffiziers). Industrialisierung brachte Glückspielautomaten, Digitalisierung eine Unzahl von computerisierten Glückspielen. Dabei sind wir sehr ungeschickt im Berechnen von Wahrscheinlichkeiten. Ein Beispiel: In einer Gruppe von 365 Personen brauchen keine zwei denselben Geburtstag zu haben. In einer Gruppe von 366 Personen ist es nicht mehr möglich (wenn wir Schaltjahre ausser acht lassen). In dem Fall beträgt die Wahrscheinlichkeit, zwei Personen mit demselben Geburtstag zu finden, 100 Prozent. Wie gross muss die Gruppe sein, damit die Wahrscheinlichkeit, zwei Personen mit demselben Geburtsdatum zu finden, wenigstens 99 Prozent beträgt? Hier liegen die meisten Vermutungen viel zu hoch. Es genügt, dass die Gruppe 55 Personen umfasst. Schon bei 23 Leuten ist die Wahrscheinlichkeit dass zwei gemeinsam Geburtstag haben höher als 1/2. Ein weiteres, sehr verblüffendendes Beispiel liefert der sogenannte StanfordQuiz. Nehmen wir an, dass die Wahrscheinlichkeit, Krebs zu haben, 1:1000 beträgt. Stellen wir uns eine Test vor, der die Krankheit untrüglich erkennt, wenn sie vorliegt, aber mit einer Wahrscheinlichkeit von 5 Prozent auch bei einem 46 Gesunden ein ’positives’ Resultat liefert. Wenn dieser Test bei Ihnen die Diagnose ’Krebs’ liefert, wie gross ist dann die Wahrscheinlichkeit, dass sie auch wirklich daran erkrankt sind? Die meisten Schätzungen liegen falsch. Die Wahrscheinlichkeit ist kleiner als zwei Prozent. (Denn bei tausend Leuten liefert der Test 50 falsche und nur ein richtiges ’positives’ Ergebnis). Was ist überhaupt Wahrscheinlichkeit? Umgangssprachlich verwenden wir den Begriff zumeist in zwei Zusammenhängen. Einmal als ’statistische’ Wahrscheinlichkeit, etwa wenn wir sagen, dass beim Würfeln die Sechs mit Wahrscheinlichkeit 1/6 auftritt. Andrerseit verwenden wir das Wort ’wahrscheinlich’, um den Grad unserer subjektiven Überzeugung auszudrücken: wahrscheinlich wird Obama ein zweites Mal gewählt. Das kann nicht statistisch erfasst werden. In der Wahrscheinlichkeitsrechnung bezieht man sich auf den ersten Wortsinn, obwohl auch der zweite mathematisiert werden kann (etwa über unsere Bereitschaft, darauf eine Wette einzugehen). 6.2 Geburtsstunde Mit zwei Würfeln lässt sich die Augensumme 9 auf zweierlei Weise erhalten, als 3+6 oder als 4+5. Ebenso kann man die Augensumme 10 auf zweierlei Weise erhalten, als 4+6 oder 5+5. Wieso kommt es dann häufiger zur Augensumme 9 als zur Augensumme 10? (Man erhält 9 bei 11,1 Prozent aller Würfe, und 10 bei 8,3 Prozent.) Wenn man mit drei Würfel spielt, kann man die Augensummen 9 und 10 auf jeweils sechs verschiedene Weisen erhalten. Aber diesmal kommt die 10 häufiger vor als die 9. Pascal wurde vom Chevalier de Mere, der ein passionierter Spieler war und alles aufzeichnete, mit diesen Fragen konfrontiert. Er korrespondierte darüber mit Fermat, was wiederum von Huyghens aufgegriffen wurde. Die richtige Antwort war leicht. Die Würfel sind ja verschieden (stellen wir uns einen weissen und einen roten vor). Um 5+5 zu erhalten, muss sowohl der weisse als auch der rote Würfel eine 5 zeigen. Die Wahrscheinlichkeit ist 1/36. Dagegen kann man 6+4 auf zweierlei Weise erhalten: rot zeigt 6 und weiss 4 oder rot zeigt 4 und weiss 6. Die Wahrscheinlichkeit ist doppelt so gross. Inzwischen hat sich die Wahrscheinlichkeitrechnung von den Spielsalons emanzipiert. Zunchst wurde sie für Versicherungen angewandt, dann in der statistischen Physik, dann in der Genetik...Heute ist sie aus Physik, Chemie, Wirtschaft, Biologie nicht wegzudenken. Maxwell nannte sie ’die wahre Logik der Welt’, Laplace bezeichnete sie als ’den bedeutendsten Gegenstand unserer Erkenntnis’, Russell erkannte in ihr ’den wichtigsten Begriff der modernen Naturwissenschaften’. Schrödinger 47 hielt fest: ’Der Zufall ist die gemeinsame Wurzel der strengen Gesetzmässigkeiten’, und Monod sah im Zufall ’die Grundlage des wunderbaren Gebäudes der Evolution’. 6.3 Grundlagen Eines der Probleme auf Hilberts berühmter Liste fragte nach den Axiomen der Wahrscheinlichkeitrechnung. Heute verwendet man zumeist die Axiome von Kolmogoroff: die Wahrscheinlichkeit P ist demnach eine Art von Volumen im Raum der Ereignisse. Bereits die Frage von de Mere weist auf die zugrunde liegende Interpretation des Begriffs Wahrscheinlichkeit. Offenbar erwarten wir, dass ein Ereignis, das die Wahrscheinlichkeit P besitzt, in einer langen Reihe von Wiederholungen ungefähr mit P Prozent Häufigkeit vorkommt. Wenn man also einen zufälligen Versuch N mal wiederholt, und N(A) die Häufigkeit des Ergebnisses A ist, so erwartet man, dass P ungefähr gleich der relativen Häufigkeit N (A)/N ist, zumindest wenn N sehr gross ist. Bei einem Würfel sollte die Sechs mit Wahrscheinlichkeit 1/6 vorkommen, bei zwei Würfeln die Doppel-Sechs mit Wahrscheinlichkeit 1/36; wenn es zu Abweichungen kommt, werden wir vermuten, dass der Würfel gefälscht ist. Bei wahrscheinlichkeitstheoretischen Modellen betrachtet man also beliebig oft wiederholbare Versuche, deren mögliche Resultate als ’Elementarereignisse’ bezeichnet werden. Beim Werfen von zwei Würfeln etwa ist ’rot zeigt 4, weiss 6’ ein Elementarereignis. Der Stichprobenraum ist die Menge Ω aller Elementarereignisse, also aller möglichen Resultate. Die Teilmengen von Ω werden als Ereignisse bezeichnet: Beispielsweise ist ’Augensumme 10’ ein Ereignis (es besteht aus den drei Elementarereignissen (5, 5), (6, 4), (4, 6)). Auch ’beide Würfel zeigen gleiche Augenzahl’ ist ein Ereignis (es besteht aus den sechs Elementarereignissen (1, 1), (2, 2), ..., (6, 6))). Den Ereignissen A werden Wahrscheinlichkeit P (A) ≥ 0 zugeordnet, die wir uns als Grenzwerte der relativen Häufigkeiten N (A)/N vorstellen, bei N Wiederholungen des Versuchs, wobei N sehr gross ist. Natürlich muss P (Ω) = 1 gelten. Wenn A und B nicht zugleich eintreten können (die beiden Mengen also kein gemeinsames Element haben) gilt natürlich N (A ∪ B) = N (A) + N (B), und daher müssen wir P (A ∪ B) = P (A) + P (B) verlangen. Ausserdem ist P (φ) = 0 und P (Ω) = 1. Tatsächlich verlangt man etwas mehr: die Wahrscheinlichkeit soll nicht nur additiv im obigen Sinn sein, sondern sogar für abzählbar unendliche viele Ereignisse additiv. Zu beachten ist, dass ein Ereignis Wahrscheinlichkeit 0 haben kann, ohne de48 shalb unmöglich zu sein. Etwa beim Glücksrad: jeder Punkt auf dem Umfang ist ein mögliches Resultat, also gibt es überabzählbar viele Elementarereignisse. Die Wahrscheinlichkeit, dass der Zeiger in einem vorgegebenen Winkel zu stehen kommt (was ein bestimmtes Ereignis ist), ist zur Grösse des Winkels proportional. Daher hat hier jedes Elementarereignis die Wahrscheinlichkeit 0, denn es ist in beliebig kleinen Winkeln enthalten. Dennoch darf man nicht sagen, dass das Elementarereignis unmöglich ist: bei jedem Versuch erhält man ja ein Elementarereigniss. Aber die Wahrscheinlichkeit, dass der Zeiger beim nächsten Mal genau an derselben Stelle zu stehen kommt, ist kleiner als jede positive Zahl, also 0. Was ist nun für eine bestimmte Situation das ’richtige’ Modell, mit dem richtigen P? Das ist nicht eine Frage der Wahrscheinlichkeitrechnung, sondern der Statistik. Diese beiden Wissenschaften verhalten sich zueinander etwa wie die Geometrie zu Geodäsie. Man muss einiges an geometrischen Grundwissen haben, um Vermessungen der realen Welt durchführen zu können, und Statistiker müssen daher Wahrscheinlichkeitsrechnung können, der Umkehrschluss ist nicht zwingend. Zwei Ereignisse A und B heissen stochastisch unabhängig, wenn das Eintreten des einen auf die Wahrscheinlichkeit des anderen keinen Einfluss hat. Wenn z.B. der eine Würfel 6 zeigt, macht das die Augenzahl 6 für den anderern Würfel nicht wahrscheinlicher. Die Wahrscheinlichkeit dafür ist weiterhin 1/6. dh N(A und B)/N(B) ist ungefähr gleich N(A)/N, also P(A und B)=P(A)P(B). Beachten wir, dass es sich hier um eine stochastische Unabhängigkeit handelt, keine kausale. Da in Österreich die Geburtenrate im Burgenland am höchsten ist, ist das Ereignis ’die zufällig gewählte Familie hat mindestens drei Kinder’ vom Ereignis ’die Famile wohnt in der Nähe eines Storchennestes’ nicht unabhängig. Das bedeutet aber nicht, dass der Storch die Kinder bringt. Oder um ein anderes Beispiel zu bringen: bei Familien mit drei Kindern sind die Ereignisse ’höchstens ein Mädchen’ und ’die Kinder sind beiderlei Geschlechts’ unabhängig, wass ohne Nachrechnen nicht einsichtig ist (und für zwei- oder vierköpfige Familien auch falsch ist). Eine zufällige Veränderliche ist eine Funktion, die vom Zufall abhängt, also jedem Elementarereignis eine reelle Zahl zuordnet (zB. dem Elementarereignis: ’roter Würfel zeigt a, weisser b’ die Augensumme a + b). Den Erwartungswert (oder Mittelwert) dieser ’Augensumme’ definiert man als die Summe aller möglichen Werte, jeweils multipliziert mit der Wahrscheinlichkeit, den Wert zu erhalten. (Also 3/36 für den Wert 10, 4/36 für die Augensumme 9, usw). Die Augenzahl des ersten Würfels ist ebenfalls eine zufällige Veränderliche, sie nimmt die Werte 1,2,...,6 mit der Wahrscheinlichkeit 1/6 an, der Erwartungswert ist 7/2 (obwohl man sicher nicht erwarten wird, jemals 3.5 zu würfeln). Der Erwartungswert 49 der Augensumme der beiden Würfel ist 7. Zwei zufällige Veränderliche sind unabhängig, wenn das Ereignis, dass die eine Veränderliche einen bestimmten Wert annimmt, unabhängig davon ist, welchen Wert die andere annimmt. (Die Augenzahlen von zwei Würfeln sind unabhängig: die Augenzahl des einen Würfels und die Augensumme der beiden Würfel sind hingegen nicht unabhängig). 6.4 Gesetz der grossen Zahlen In seiner Ars Conjectandi von 1713 bewies einer der Bernouillis das erste Theorem der Wahrscheinlichkeitsrechnung, das sogenannte ’schwache’ Gesetz der grossen Zahlen. Wenn X1 , X2 , ... eine Folge von unabhängigen zufälligen Veränderlichen ist, alle gleich verteilt und daher mit demselben Erwartungswert E, so ist für jede Zahl die Wahrscheinlichkeit, dass sich der Mittelwert N1 (X1 + ... + XN ) um mehr als einen vorgegebenen Wert von E unterscheidet, eine Nullfolge, wird also beliebig klein, wenn nur N (die Anzahl der Wiederholungen) hinreichend gross ist. Später wurde das zum ’starken’ Gesetz erweitert: die Wahrscheinlichkeit, dass der Mittelwert zum Erwartungswert strebt, ist 1. (Der Mittelwert kann zu einem anderen Wert hinstreben, etwa falls man immer 1 wirft: aber dieses Ereignis, wiewohl nicht unmöglich, hat Wahrscheinlichkeit 0.) Was ist der Unterschied zwischen diesen beiden Gesetzen? Aus dem ’schwachen’ folgt etwa: wenn man wieder und wieder (sehr oft) Serien von 1000 Würfen durchführt, ist die Wahrscheinlichkeit, dass der Mittelwert zwischen 3,4 und 3,6 liegt, mindestens 97 Prozent. Das starke Gesetz sagt: auch wenn der Mittelwert nach 1000 Würfen ausserhalb dieses Bereichs liegt, wird er irgendwann, wenn man nur weiterwürfelt, in dem Bereich liegen und ihn nicht mehr verlassen. 6.5 Faire Spiele in St. Petersburg Ein Gückspiel wird als unfair bezeichnet, wenn die Gewinnerwartung negativ ist. Ein Kopf- oder Adler-Spiel ist fair, wenn die Münze nicht gefälscht ist. Betrachten Sie nun etwa das Spiel: Sie dürfen würfeln, und bekommen dann von der Spielbank soviel Euro, wie sie als Augenzahl gewürfelt haben. Wieviel würden Sie für die Teilnahme am Spiel zu zahlen bereit sein? Einen Euro wohl sicher, 4 Euro wohl nicht, denn das liegt ja über dem Erwartungswert: wenn sie also lange spielen, können Sie ziemlich sicher sein, einen Verlust einzufahren. Mit 4 Euro Eintrittsgebühr ist das Spiel nicht mehr fair. Vielleicht reizt es sie doch, nach dem Motto: No risk, no fun. 50 Bei Lotterie oder Roulette ist das Spiel nicht fair (z.B. wird bei Zero jeder Einsatz eingezogen, die Gewinnschance auf ’Rot’ ist also nicht 18/36, sondern nur 18/37, dh. etwas kleiner als 50 Prozent. Folgt daraus, dass nur ein Narr Roulette spielt? So schnell sollte man nicht schliessen. Auch jeder Versicherungsabschluss ist ein Spiel, und zwar ein unfaires Spiel, denn die Versicherungen wollen ja Gewinn machen. Trotzdem ist es nicht dumm, sich versichern zu lassen. Besser mit grosser Wahrscheinlichkeit einen kleinen Verlust erzielen, als mit kleiner Wahrscheinlichkeit einen sehr grossen. Mit dem Erwartungswert als Gradmesser von ’Fairness’ ist es aber so eine Sache. Am besten wird das durch das Sankt Petersburger Paradox beschrieben (es stammt von Bernoulli, der damals am russischen Hof war). Ein Kasino bietet uns folgendes Spiel an. Wir dürfen Kopf oder Adler spielen, bis wir erstmals Adler werfen. Geschieht das bereits beim erstem Mal, zahlt uns das Casino 2 Euro, beim zweiten Mal 4, beim dritten Mal 8 = 23 , beim n-ten Mal 2n . Was würden wir als faire Gebühr ansehen, um an diesem Spiel teilnehmen zu dürfen? Nun, was ist der Erwartungswert? Da die Wahrscheinlichkeit, beim n-ten Wurf erstmals Adler zu werfen, 1/2n ist, so ist der Erwartungswert 2(1/2) + 4(1/4) + ... + 2n (1/2n ) + ... = 1 + 1 + 1 + ..., also unendlich! Das Gesetz der grossen Zahlen besagt dann, dass unser mittlerer Gewinn mit Sicherheit gegen Unendlich strebt. Wir müssen nur oft genug spielen und werden unendlich reich. Also sollten wir bereit sein, jede beliebige Eintrittsgebühr zu zahlen. Und doch würden wohl nur die wenigsten mehr als 20 Euro zahlen. Wieso? Der Grund: Der Mittelwert steigt logarithmisch an, also nur extrem langsam an (Fig Fig 6.1)). Meist kommt Adler schon nach 1,2 oder 3 Würfen. Nur ganz selten kann es zu riesigen Gewinnen kommen. 6.6 Lotterien Es gibt grosse individuelle Unterschiede in unserer ’Risikobereitschaft’ oder Risikoaversion. Es gibt Spielernaturen und geborene Pessimisten. Man kann das durch Experimente mit Lotterien nachweisen. Typischerweise wird die Versuchsperson gefragt, welche der folgenden Alternativen sie bevorzugt: A: 3000 Euro mit Sicherheit B: eine Lotterie, bei der man mit 80 Prozent Wahrscheinlichkeit 4000 Euro erhält und mit 20 Prozent Wahrscheinlichkeit 0 Euro. 51 Der Erwartungswert der Lotterie B ist 3200 Euro, und trotzdem bevorzugen 82 Prozent der Befragten A. Sie sind risikoscheu. Interessanterweise sieht die Sache bei der nächsten Lotterie ganz anders aus. Man wähle zwischen: A: 3000 Euro mit 25 Prozent Wahrscheinlichkeit (und 0 mit 75 Prozent Wahrscheinlichkeit) B: 4000 Euro mit 20 Prozent (und 0 mit 80 Prozent). Hier wählen 70 Prozent die zweite Alternative. Warum nicht? Nun, das bemerkenswerte ist, dass der zweite Test dieselben Alternativen bietet wie der erste, ausser dass die Wahrscheinlichkeiten auf jeweils ein Viertel gestutzt sind. Anders ausgedrückt, den zweiten Test können wir so sehen: zuerst wird eine Münze zweimal geworfen, und wenn sie beide Male Kopf liefert (was mit einer Wahrscheinlichkeit von 25 Prozent geschieht), wird der erste Test durchgeführt; wenn nicht, so bekommt der Spieler gar nichts. Wenn die Spieler nach dem Münzwurf entscheiden, entscheiden sie anders, als vorher. Derlei Experiment sind von Allais in den Fünfzigerjahren, später von Kahnemann, Twersky etc durchgeführt worden (das lieferte einige Wirtschafts-Nobelpreise). Ein anderes Paradox stammt von Ellsberg. Wenn der Spieler die Häufigkeit der roten und schwarzen Kugeln in einer Urne nicht kennt, so wird er mit gleicher Bereitschaft auf rot oder schwarz setzen. Wenn er andrerseits weiss, dass die Urne gleich viele rote wie schwarze Kugel enthält, so wird er wiederum keine Farbe bevorzugen. Wenn er aber, bevor er auf eine Farbe setzen muss, zwischen den beiden Urnen wählen kann (bei der einen ist das Verhältnis der Kugeln 1:1, bei der anderen unbekannt), so hat er meist eine deutliche Vorliebe für die Urne mit dem bekannten Inhalt. Die Wahrscheinlichkeitrechnung kann das nicht erklären - schliesslich beträgt die Gewinnwahrscheinlichkeit in beiden Fällen 50 Prozent. Diese Paradox ist nicht statistischer, sondern psychologischer Natur. Es wirft ein bezeichnendes Licht auf unser Verhältnis zu Ungewissheit und Risiko. 6.7 Simpson Zwei Arten von Medikamenten werden verglichen. Angeblich helfen sie gegen Kopfschmerzen. Zunächst werden nur männliche Testpersonen verwendet. Medikament Alpha hilft 90 von 240 Männern, die es probieren, und Medikament Beta 20 von 60 Männern. Also ist Alpha besser als Beta - zumindest bei Männern. Als nächstes werden die Medikamente an Frauen getestet. Alpha wird bei 60 Frauen probiert und hilft 30 von ihnen; Beta wird von 240 Frauen getestet und hilft in 110 Fällen. Also ist Alpha auch bei Frauen besser als Beta. Aber insgesamt haben je 52 300 Personen die Medikamente Alpha und Beta getestet und Alpha hat in 120 Fällen geholfen, Beta dagegen in 130 Fällen - somit ist Beta doch das bessere! Was soll ein Statistiker einnehmen gegen die Kopfschmerzen, die dieses Resultat verursacht? Das ist ein Beispiel des Simpson-Paradoxes (nach dem Statistiker Simpson, der es 1951 präsentierte). Es spielt im ’wirklichen’ Leben eine bedeutende Rolle, so z.B. 1970, als die Universität von Berkeley unter schweren Beschuss kam, weil mehr Männer als Frauen die Aufnahmeprüfung schafften. Genauere Untersuchungen belegten dann aber, dass in jedem einzelnen Fach, sei es Biologie, Technik, oder Englische Literatur, Frauen eine höhere Erfolgsquote als Männer bei der Aufnahmsprüfung hatten. Grob gesprochen, lag das Fatale daran, dass Frauen zu den ’überlaufenen’ Studien (wie Englisch) eher neigten als Männer. Frauen hatten auch in Englisch eine höhere Erfolgsquote – aber da diese Quote gering war, kam unter dem Strich ein schlechteres Abschneiden heraus. Das Simpson Paradox wird oft verwendet, um zu argumentieren, dass wir evolutionär nicht vorbereitet sind, statistisch zu denken. Genaus könnte man argumentieren, dass wir evolutionär nicht aufs Bruchrechnen vorbereitet sind. Das Simpsonsche Paradox läuft ja letztendlich darauf hinaus, dass aus a/b < A/B und c/d < C/D nicht folgt, dass (a + c)/(b + d) < (A + C)/(B + D) gilt. 6.8 Drei Würfel und drei Türen Die Zahlen 1 bis 18 werden (wie in Fig 6.2) auf den 18 Seiten von drei Würfeln angeordnet. Der rote Würfel bekommt die Zahlen 18, 10, 9, 8, 7, 5, der blaue 17, 16, 15, 4, 3, 2 und der grüne 14,13,12, 11, 6 und 1. Obwohl die Augenzahl auf jedem der Würfel dieselbe ist (nämlich 57), so ist der rote Würfel besser als der blaue. Werden beide geworfen so zeigt mit 58 Prozent Wahrscheinlichkeit der rote Würfel eine höhere Augenzahl als der blaue. Ebenso ist der blaue Würfel besser als der grüne. Aber der grüne ist besser als der rote! Ganz gleich, welchen Würfel ich wähle, mein Gegner kann einen besseren wählen. Daher sollte ich ihm die erste Wahl überlassen. Eine der berüchtigtsten Kopfnüsse der Wahrscheinlichkeittheorie ist das sogenannte Ziegenproblem (oder Drei-Türen-Problem). Ein Kandidat tritt in einer Show auf, er kann ein Auto gewinnen, wenn er die richtige von drei Türen wählt, die mit dem Auto dahinter. (Hinter den anderen zwei Türen steht bizarrerweise eine Ziege, offenbar wird vorausgesetzt, dass sie weniger erwünscht ist). Der Kandidat wählt also eine Tür aus. Dann öffnet der Showmaster, der weiss, was hinter welcher Türe verborgen ist, eine der beiden anderen Türen, und zwar eine, 53 hinter der eine Ziege steht. Und nun fragt er den Kandidaten, ob dieser bei seiner Wahl verbleibt oder zur anderen der beiden noch ungeöffneten Türen wechseln will. Viele sagen: nein. Denn man hat ja nichts gelernt durch die Handlung des Showmasters. Der kann immer eine Ziegen-Tür öffnen. Die beiden verbleibenden Türen sind gleich wahrscheinlich, wozu also wechseln? Tatsächlich aber verdoppelt das Wechseln die Gewinnchancen, wir sollten sogar bereit sein, viel dafür zu bezahlen, die Tür wechseln zu dürfen. Denn hinter der ursprünglich gewählten Tür befindet sich das Auto mit Wahrscheinlichkeit 1/3. Wenn wir beide anderen wählen könnten, wäre unsere Gewinnchance 2/3. Diese konzentriert sich, nachdem der Showmaster eine Ziegentür gewählt hat, auf die eine verbleibende Tür. Das zeigt, wie schwer wir uns mit dem Begriff der Wahrscheinlichkeit tun, jedenfalls mit der ’subjektivistischen’ (im Gegensatz zur ’frequentistischen’) Interpretation. Es fällt uns übrigens auch sehr schwer, uns eine ’Zufallsfolge’ auszudenken, die etwa hundert oder tausend Nullen und Einsen in ähnlich unregelmässiger Reihenfolge aufweist, wie eine Folge von Münzwürfen ’Kopf’ oder ’Adler’ liefert. Zumeist ist es für Statistiker ein leichtes, solche fingierten Zufallsfolgen zu entdecken. Wir neigen dazu, nach drei- oder viermal ’Kopf’ mit grösserer Wahrscheinlichkeit ’Adler’ zu sagen, also Schwankungen zu kompensieren. Der reine Zufall tut das nicht. 54 7 7.1 WÄHLEN UND WOLLEN Mehrheitsentscheidung Erst in der zweiten Hälfte des 18. Jahrhunderts begannen Wissenschaftler, auch soziale Fragen mit mathematischen Mitteln zu untersuchen. Eine der ersten Fragen betraf Wahlvorgänge. Die Debatte spielte sich zunächst fast ausschliesslich innerhalb der französischen Akademie ab, zwischen den erbitterten Rivalen Borda und Condorcet. Wenn es nur zwei Alternativen gibt, ist ein Mehrheitsbeschluss eine einleutende Methode, um zu einer Entscheidung zu kommen. Wer mehr Stimmen auf sich vereinen kann, gewinnt. Schon bei drei Alternativen ist das anders. Denken wir etwa an ein Berufungsverfahren mit drei Kandidaten Anna, Berta und Conny. Angenommen, die Kommission besteht aus 12 Mitgliedern, von denen 5 die Ansicht A > C > B vertreten (Anna ist besser als Conny, und die ist besser als Berta), 4 die Ansicht B > C > A und 3 die Ansicht C > B > A. Die drei weiteren denkbaren Rangordnungen B > A > C, C > A > B und A > B > C werden von keinem Kommissionsmitglied vertreten. Offenbar sind die meisten Mitglieder (nämlich 5) dafür, Anna an erste Stelle zu setzen. Die Mehrheit gibt also den Ausschlag: Anna wird berufen. (5 wählen A, 4 wählen B, 3 wählen C). Aber was wäre passiert, wenn (etwa durch eine anderweitige Berufung) B unmittelbar vor der Wahl ausscheidet? Dann wäre nicht Anna, sondern Conny die Siegerin, und zwar mit 7 zu 5. In den anderen beiden ZweiPersonen-Wahlgängen würde Conny Berta mit 8:4 besiegen, und Berta Anna mit 7:5. Conny schlägt ihre beiden Mitbewerberinnen. Also sind die Kommissionsmitglieder in diesem Sinn mehrheitlich der Ansicht, dass Conny die beste Kandidatin ist, und Anna die schwächste. Das ist zum Ergebnis der Mehrheitswahl völlig konträr! Die relative Mehrheit liegt in diesem Sinn falsch. Gibt es einen besseren Entscheidungsmodus? Borda bemerkte, dass bei der Mehrheitswahl viele Aspekte unter den Tisch fallen – es wird nur gezählt, wer bei wieviel Kommissionsmitgliedern an erster Stelle ist. Das ist gefährlich. (Es könnte etwa sein, dass bei einer politischen Wahl eine von zehn Parteien völlig abwegig ist, aber doch durch einen Bodensatz von, sagen wir, 12 Prozent der Bevölkerung gewählt wird. Wenn sich die anderen neun Parteien die restlichen 88 Prozent gleichmässig teilen, hat die Trottelpartei gewonnen, obwohl sie für 88 Prozent das Letzte ist.) Borda schlug ein besseres Wahlverfahren vor. Jeder Wähler soll seinem erstgereihten Kandidaten 2 Stimmen, dem zweitgereihten 1 und dem letztgereihten 55 keine Stimme geben. (Bei vier Kandidaten jeweils 3,2,1 und 0, etc). In diesem Fall würde obige Wahl 15:11:10 für Conny, Berta, Anna ausgehen, was mit dem paarweisen Kontesten übereinstimmt. Condorcet wies aber nach, dass die Borda Methode nicht immer mit den paarweisen Vergleichen harmoniert. Nehmen wir an, die Kommission besteht aus 75 Mitgliedern, 29 Kommissionsmitglieder ordnen die Kandidaten A > B > C, und 28 ordnen B > A > C, und jeweil 9 Mitglieder sind für B > C > A und C > A > B. Die Borda Methode führt hier mit 140:124:36 zu B > A > C, so dass Berta gewinnt (ebenso mit dem relativen Mehrheitswahlrecht, da geht es 37:29:9 aus). Durch paarweise Vergleiche erhält man aber A als Siegerin (A besiegt B mit 38:37, B besiegt C mit 66:9, A besiegt C mit 57:18). Ist aber das Condorcet Verfahren (Abstimmungen über jedes Paar von Kandidaten) das bessere? Nicht unbedingt, denn es liefert nicht immer einen Sieger. Betrachten wir etwa in obiger Kommission den Fall, dass je 25 Mitglieder für A > B > C, B > C > A und C > A > B sind. Das liefert einen Zyklus: die Mehrheit hält A für besser als B, B für besser als C und C für besser als A. Hier liegt also keine Transitivität vor. 7.2 Arrows Theorem Einer der bedeutendsten Wirtschaftswissenschaftler des 20. Jahrhunderts, Ken Arrow, hat die Fragestellung etwas verändert. Gesucht wird ein Verfahren, um aus den persönlichen Präferenzen der Wähler eine kollektive Präferenzordnung herzuleiten. Vorausgesetzt wird, dass jeder Wähler die Kandidaten transitiv ordnen kann, also kommt in den individuellen Präferenzen kein Zyklus vor (aus A > B und B > C soll stets A > C folgen). Von einem ’anständigen’ Verfahren zur kollektiven Anordnung der Präferenzen wird man erwarten, dass es folgende Minimalbedingunge erfüllt: (a) wenn alle Wähler A > B ordnen, soll auch im Wahlresultat A vor B aufscheinen. (b) um zwei Kandidaten A und B zu ordnen, soll es nur darauf ankommen, wie die Wähler A im Vergleich zu B sehen, und insbesondere nicht darauf, wie die anderen Kandidaten geordnet sind, also wie etwa C von den diversen Wählern gesehen wird. Im vorigen Kapitel haben wir gesehen, wie durch das Ausscheiden von Berta die Rangordnung zwischen Alice und Conny umgedreht wird, die Mehrheitswahl erfüllt also nicht die Bedingung (b). Sie heisst ’Unabhängigkeit von irrelevanten Alternativen’. Wenn etwa im Gasthaus Pasta oder Huhn angeboten wird, der Gast 56 nach langen Hin und Her sich für das Huhn entscheidet, der Kellner dann erwähnt, dass es heute auch Fisch gibt und der Gast ruft: ’Aber das ändert ja alles! Dann nehme ich...Pasta!’, so wird dieses Prinzip verletzt. Was nun Arrow aus seinen zwei Forderungen geschlossen hat, ist schockierend: Wenn es drei oder mehr Alternativen (Kandidaten) gibt, existiert nur ein im obigen Sinn ’anständiges’ Verfahren, dass immer zu einer kollektiven transitiven Ordnung führt. Es besteht darin, die Rangordnung von einem der Wähler zu übernehmen, also diesen zum alleinentscheidenden ’Diktator’ zu machen! 7.3 Spieltheorie Wahlen sind Verfahren, um aus diversen individuellen Meinungen eine Entscheidung zu erhalten. Oftmals aber bleibt die Entscheidung den einzelnen überlassen, die nun versuchen werden, dass für sie bestmögliche zu erzielen, zum Beispiel im wirtschaftlichen Kontext. Oft ist ganz klar, was unter ’optimal’ gemeint ist: so etwa beim Problem vom Handlungsreisenden, der versucht, die kürzestmögliche Verbindung zu finden zwischen einer Anzahl von vorgegebenen Städten. Sobald diese Anzahl gross ist (50 oder 80), wird die Aufgabe sehr schwierig, aber grundsätzlich ist klar, was unter einer ’optimalen’ Lösung verstanden wird. Ebenso, wenn es gilt, ein optimales Portfolio, oder Aktienpaket, zusammenzustellen. Hier muss man unter Unsicherheit entscheiden, also in Unkenntnis der zukünftigen Kursentwicklungen. Aber wenn man die Wahrscheinlichkeiten der verschiedenen Zustände, die eintreten können, und die eigene Nutzenfunktion kennt (einschliesslich der Bereitschaft, Risiken in Kauf zu nehmen) kann man von einer optimalen Lösung sprechen, nämlich jener, die den Erwartungswert des Nutzens optimiert. Das Problem des Handlungsreisenden oder des Anlegers ist gelöst, wenn eine kürzeste Route oder ein optimales Portfolio gefunden ist. Anders ist es, wenn die Entscheidung von mehreren Personen abhängt, die verschieden gelagerte Interessen haben. Was dem einen als gut erscheint, kann dem anderen schlecht erscheinen. Was ist dann unter einer ’Lösung’ zu verstehen? Das Beste? Für wen das Beste? Das beste für die meisten? Warum sollte sich die Minderheit daran halten? Und was, wenn es gar keine Mehrheit gibt, also etwa wenn nur zwei Personen beteiligt sind? Ich darf wohl annehmen, dass mein Gegenspieler das für ihn beste tun wird, und darauf reagieren, indem ich die für mich beste Antwort daruf finde. Aber mein Gegenspieler wird das antizipieren, und daher seinerseits... Als denkbar einfaches Beispiel können wir uns das Kinderspiel ’Gerade-Ungerade’ vor Augen führen. Max und Moritz zeigen auf ein Signal ein oder zwei Fin57 ger, wenn die Summe gerade ist bekommt Max von Moritz einen Euro, wenn nicht, dann umgekehrt. Immer hat einer der beiden Grund, mit dem Ausgang un- wenn Max 1 zeigt wenn Moritz 1 zeigt 1 wenn Moritz 2 zeigt -1 wenn Max 2 zeigt -1 1 Maxen’s Auszahlung zufrieden zu sein und etwas anderes zu tun, um sich zu verbessern. Das führt zu einem circulus vitiosus. Der Wiener Wirtschaftswissenschaftler Oskar Morgenstern beschrieb das Problem mit einem literarischen Beispiel. Sherlock Holmes, der geniale Detektiv, hat den Verbrecherring des ebenso genialen Professors Moriarty zerschlagen. Moriarty kennt nur noch ein Ziel: Holmes zu erschiessen. Holmes flieht mit dem Zug aus London, um in Frankreich Schutz zu suchen. Als sich der Zug gerade in Bewegung setzt, sieht Holmes, wie Moriarty auf den letzten Wagon aufspringt. Nun gab es damals keine Verbindung zwischen den Wagons: für die Dauer der Fahrt ist Holmes also sicher. Allerdings endet die Fahrt in Dover. Dort würde Moriarty den unbewaffneten Holmes unweigerlich erschiessen. Doch halt! Der Zug stoppt kurz in Canterbury. Dort könnte Holmes aussteigen. Auch das ist nicht ganz ungefährlich: Moriaty würde ja unzweifelhaft vom Fenster aus den Bahnsteig überwachen, und ihm folgen, wenn er ihn aussteigen sieht. Er kann aber nur bei einer Seite hinausschauen, also hat Holmes die Chance, auf der anderen Seite auszusteigen. Seine Überlebenschance ist demnach 50 Prozent, immerhin besser als Null. Also sollte Holmes es unbedingt versuchen. Nun ist aber Moriarty zweifellos gewitzt genug, das zu antizipieren. Demnach wird auch er in Canterbury aussteigen, ob er ihn sieht oder nicht, und Holmes Aug in Aug gegenüberstehen, sobald der Zug die Bahnhofshalle verlassen hat. Holmes sollte also doch nach Dover fahren, das wäre ja ganz ungefährlich, schliesslich steigt Moriarty schon in Canterbury aus. Aber halt! Steigt er wirklich aus? Er ist um nichts weniger clever als Holmes, und wird daher weiterfahren. Also sollte Holmes doch in Canterbury aussteigen. Merken Sie etwas? Die Überlegung läuft im Kreis und liefert keine Entscheidung. 58 wenn H. in D. aussteigt wenn Moriarty in D. aussteigt 0 Prozent wenn Moriarty in C. aussteigt 100 Prozent wenn H. in C. aussteigt 50 Prozent 0 Prozent Holmes Überlebenschance 7.4 Das wiedergefundene Gleichgewicht In den Dreissigerjahren verwendete Morgenstern das Beispiel in Büchern und Vorträgen, um seine These zu untermauern, dass wirtschaftliche Prognosen grundsätzlich unmöglich sind. (Pikanterweise war er Chef des Instituts für Konjunkturforschung, dessen Aufgabe gerade solche Prognosen waren.) Schliesslich wurde Morgenstern aber darauf aufmerksam, dass in einer 1928 erschienen Arbeit ’Zur Theorie der Gesellschaftsspiele’ von John von Neumann gezeigt wurde, dass es doch eine optimale Lösung gibt. Gesellschaftsspiele wie Schach oder Poker beschreiben Wechselwirkungen zwischen zwei oder mehr Spielern mit entgegengesetzten Interessen (in einem Fall müssen die Entscheidungen unter Unsicherheit getroffen werde – welche Karten hat der Gegner? – im anderen nicht.) Um den Gegner keinerlei Möglichkeiten zu geben, die eigene Entscheidung zu erraten, kann man auch den Zufall entscheiden lassen. Im Fall des tödlichen Spiels zwischen Holmes und Moriarty lässt sich dann doch eine Lösung errechnen. Nehmen wir an, dass Holmes mit Wahrscheinlichkeit x in Dover aussteigt (und mit Wahrscheinlichkeit 1 − x in Canterbury), und dass die entsprechenden W. für Moriarty durch y und 1 − y gegeben werden. Wenn Holmes x = 1/3 wählt, ist die W., dass Moriarty ihn erwischt, mindestens 33 Prozent. Für jeden anderen Wert von x kann Moriarty, wenn er die Entscheidung von Holmes antizipiert, also das x errät, die Überlebenswahrscheinlichkeit von Holmes verkleinern. Die ’gemischte’ Strategie, die durch x gegeben ist, maximiert die Mindestchance von Holmes. Ebenso kann Moriarty, wenn er y = 2/3 wählt, die Überlebenswahrscheinlichkeit von Holmes minimieren: für jeden anderen Wert von y kann Holmes durch geschicktes Handeln seine Überlebenschance vergrössern. Die beiden (zufallsbestimmten) Strategien, die durch x = 1/3 und y = 2/3 gegeben sind, sind in gewisser Hinsicht nicht zu verbessern: keiner der Spieler hat einen Grund, von seiner Strategie abzuweichen. Die Chance von Holmes, zu überleben, beträgt dann übrigens 33 Prozent. Diese Entdeckung von Maximin und Minimaxstrategien bildete die Grundlage für die Zusammenarbeit von Morgenstern und John von Neumann, und für ihr 59 berühmtes Buch, das die Spieltheorie begründete, eine Entscheidungstheorie für die Wechselwirkung von Individuen. Allerdings hatte die Theorie zwei schwache Punkte. Der eine beruht in dem zugrundeliegenden Pessimismus: es wird angenommen, dass man vom Gegner durchschaut wird. Das muss ja nicht immer der Fall sein (obwohl es sicher gut ist, den Widerpart niemals zu unterschätzen). Viel ernster aber ist der zweite Schwachpunkt. Die Theorie bezog sich ausschliesslich auf Nullsummenspiele. Was der eine gewinnt, verliert der andere. Das trifft auf viele Gesellschaftsspiele zu, aber nicht unbedingt auf wirtschaftliche Wchselwirkungen. Meist sind die Interessen nicht völlig konträr. Für diesen Fall konnte 1950 der noch nicht zwanzigjährige John Nash ein Lösungskonzept anbieten, das weitaus allgemeiner ist. Nash zeigte, dass es für alle Spiele (egal, wieviele Spieler, wieviele Strategien, welche Interessenslagen) stets sogenannte Nash-Strategien gibt, die jeweils eine beste Antwort auf die Strategie der anderen sind. Wieder werden ’gemischte’ (also zufallsbestimmte) Strategien zugelassen, und für Nullsummenspiele erhält man dieselben ’optimalen’ Lösungen wie vorher. Immer gilt: Solange die anderen Spieler an ihren Strategien festhalten, kann sich kein Spieler einen Vorteil davon versprechen, zu einer anderen Strategie zu wechseln. Derlei Nash-Strategien werden gern als ’Lösungen’ angesehen. Sie sind zumindest konsistent. Aber wie wir sehen werden, ist das auch schon alles. 7.5 Das Gefangenendilemma Stellen wir uns folgendes Spielchen vor: Zwei einander gänzlich unbekannte Personen werden gefragt, ob sie dem anderen 15 Euro schicken wollen. Sie selbst müssen dafür 5 Euro auslegen. Die Entscheidungen müssen simultan getroffen werden. Die Spieler wissen, dass sie einander nie wieder sehen werden. Hier ist die ’Auszahlungsmatrix’, die den Nettogewinn beschreibt: wenn ich Geld überweise wenn der andere Geld überweist 10 Euro wenn der andere nichts überweist −5 Euro wenn ich nichts überweise 15 Euro 0 Euro Meine Auszahlung Es ist klar, dass die Gewinnmaximierung verlangt, dass ich nichts überweise. Aber der andere ist in genau derselben Situation! Wir schicken einander also 60 nichts, und verpatzen uns die Gelegenheit, jeweils 10 Euro zu gewinnen. Das einzige Nash-Gleichgewicht schreibt somit ein höchst unwirtschaftliches Verhalten vor. Der Eigennutz kommt hier dem Gemeinnutz in die Quere. Dieses sogenannte ’Gefangenendilemma’ ist ein Musterbeispiel für ein sogenanntes Sozialdilemma (eine soziale Falle). In seinem Leviathan (1651) behauptete Hobbes, dass der Eigennutz (dh die Selbstsucht) zum Krieg aller gegen alle führen muss, ’such a war as is every man against every man’. Wenn es keine zentrale Obrigkeit gibt, um die Anarchie zu beenden, ist das menschliche Leben ’solitary, poore, nasty, brutish, and short.’ Sein französischer Zeitgenosse Pascal war ebenso pessimistisch: ’Wir sind von Geburt an ungerecht; denn jeder neigt zu sich selbst...Die Selbstsucht ist der Grund jeder Unordnung in Krieg, Politik, Wirtschaft etc.’ Hundert Jahre später hatte der Eigennutz eine bessere Presse. Adam Smith vertrat die Auffassung, dass eine unsichtbare Hand die eigennützigen Bestrebungen der Einzelnen zum Guten, also zum Gemeinwohl lenkt. ’By pursuing his own interest [man] frequently promotes that of the society more effectually than when he really intends to promote it.’ Oder: ’It is not from the benevolence of the butcher, the brewer, or the baker, that we expect our dinner, but from their regard to their own self-interest. We address ourselves, not to their humanity but to their self-love, and never talk to them of our own necessities, but of their advantages.’ Bereits vor Adam Smith hatte Voltaire in seinen Lettres philosophiques eine ähnliche Auffassung dargelegt: ’Zweifellos hätte Gott auch Wesen schaffen können, die ausschliesslich am Wohlergehen anderer interessiert sind. In diesem Fall würden die Handelsleute aus reiner Nächstenliebe nach Indien fahren, und die Steinmetzen Steine sägen, um ihren Nachbarn einen Gefallen zu tun. Aber Gott hat die Sachen anders geregelt... Unsere gegenseitigen Bedürfnisse sind der Grund, warum wir der Menschheit nützlich sind, sie bilden die Grundlage jedes Gewerbes, die ewige Verbindung zwischen den Menschen.’ Natürlich wusste Adam Smith (ebenso wie Voltaire, den er gut kannte) dass die unsichtbare Hand nicht immer am Werk ist. Er behauptete nur, dass sie oft das Gemeinwohl fördert, nicht dass sie es immer tut: in einem sozialen Dilemma wendet die unsichtbare Hand den Eigennutz nicht zum Guten. 7.6 Mensch ärgere dich nicht Hier ein weiteres Beispiel für ein soziales Dilemma: das Reisendendilemma. Zwei Spieler in getrennten Räumen werden gebeten, einen Geldbetrag zwischen 0 und 100 Euro anzugeben. Wenn beide dasselbe sagen, bekommen sie 61 ihn auch. Wenn aber eine Differenz auftritt, so kriegt der Bescheidenere um 2 Euro mehr, und der andere um 2 Euro weniger als den kleineren der genannten Beträge. Beide Spieler können also 100 Euro erhalten. Aber der schlaue Spieler kann überlegen: wenn ich nur 99 sage, bekomme ich 101 (und der andere 97). Der andere kann das antizipieren, und auch 99 sagen. Aber noch besser ist er dran, wenn er 98 sagt, dann kriegt er 100, und der andere nur 96. Aber das kann wieder der erste Spieler antizipieren, etc...Durch diese ’Rückwärts-Induktion’ kommen die vom Eigennutz getriebenen Spieler auf Null! Noch ein Beispiel: das Ultimatum Spiel. Zwei Spieler können sich 10 Euro teilen. Hier die Spielregeln. Ein Münzwurf entscheidet, wenn der Anbieter ist. Er kann dem anderen eine Teilung vorschlagen. Wenn der andere sie annimmt, wird dementsprechend geteilt, und das Spiel ist fertig. Wenn der andere ablehnt, steckt der Spielleiter seine 10 Euro wieder ein, das Spiel ist auch wieder beendet, und keiner bekommt irgend etwas. Gehandelt wird nicht. Warum sollte der zweite Spieler ablehnen, wenn ihm der andere 1 Euro anbietet und selbst 9 behält? Ein Euro ist doch besser als keiner. Ein eigennütziger Anbieter der darauf vertraut wird dem anderen nur den minimalen positiven Betrag von 1 Euro anbieten. Das wäre aber ein Fehler: fast alle solchen Angebote werden abgelehnt. Das Ultimatum Spiel zeigt, wieviel uns an Fairness liegt. 7.7 Wiederholtes Gefangenendilemma Sagen diese Spielchen etwas über den Ernstfall aus? Sie wirken meist sehr künstlich. Am häufigsten erlebt man wohl ein Gefangenendilemma, immer dann, wenn es ein gemeinsames Unternehmen gibt, von dem beide profitieren können, aber eine Verlockung besteht, den eigenen Beitrag zu reduzieren. Allerdings wirkt es ausgesprochen unnatürlich, die Wechselwirkung auf nur eine Runde zu beschränken. Meist trifft man einander wieder, und kann es dem Ausbeuter heimzahlen. Das ändert die Sachlage. Was passiert, wenn es mit grosser Wahrscheinlichkeit zu einer weiteren Runde kommt? Stellen wir uns etwa vor, dass es mit W. 5/6 zu einer weiteren Runde kommt. Dann hat das Spiel im Durchschnitt sechs Runden, obwohl wir nicht wissen, wann die letzte kommt (kein Spielraum für die RückwärtsInduktion). Für dieses wiederholte Gefandenendilemma sind zahllose Strategien denkbar. Von keiner kann man sagen, dass sie bestmöglich ist, ganz gleich was der Gegenspieler tut. Denn wenn etwa der Gegenspieler immer kooperiert (etwa seinen Geldbetrag schickt), so ist es am besten, ihn immer auszubeuten. Wenn er aber kooperiert, bis er erstmals hineingelegt wird, und fortan nicht mehr, so ist es besser, immer zu kooperieren: denn der Gewinn von zusätzlichen 5 Euro in einer 62 Runde (durch Übertölpeln des anderen) macht nicht den Gewinn wett, den die Erwartung auf sechs kooperative Runden (mit einem Einkommen von je 10 Euro) verspricht. Wenn es aber keine Strategie gibt, die immer die beste ist, wie soll man sich dann entscheiden? Um 1980 veranstaltete der Politwissenschaftler Axelrod Meisterschaften im wiederholten Gefangendilemma. Die eingereichten Strategien wurden programmiert, und dann trat jede gegen jede an, wie in einer Fussballmeisterschaftsrunde. Zuletzt wurden die Auszahlungen zusammengezählt. Bemerkenswerterweise gewann die einfachste der eingereichten Strategien, Tit For Tat. Sie besteht darin, in der ersten Runde das Geld zu überweisen, und dann zu tun, was der andere jeweils in der Vorrunde getan hat. Wieso ist das bemerkenswert? Weil ein Tit For Tat Spieler in keiner Phase des Spiels mehr als sein Gegenspieler eingenommen haben kann. Aber wenn über alle Gegenspieler summiert wird, hat Tit For Tat (zumeist) die Nase vorn. Mithilfe der Spieltheorie kann man ’gesellschaftliche Normen’ als bestimmte Strategien definieren. Wenn sich alle in der Bevölkerung an so eine Strategie halten, zahlt es sich für niemanden aus, davon abzuweichen. Tit For Tat ist beispielsweise eine solche gesellschaftliche Norm. Die Strategie, niemals Geld zu überweisen, ist auch eine. Wie kann man sich einen Übergang von einer Norm zur anderen vorstellen? Sind gewisse gesellschaftliche Normen besser als andere? So ist beispielsweise die Tit For Tat Norm ausgesprochen konterproduktiv, wenn es (wie unvermeidbar) gelegentlich zu Fehlern kommt. Wenn ein Tit For Tat Spieler irrtümlich die Hilfe verweigert, so wird ihm der Tit For Tat Partner das in der nächsten Runde heimzahlen. Das löst eine Vendetta aus, die beiden Spielern sehr schadet. Hier ist es vorteilhaft, gelegentlich (aber nicht zu oft!) zu verzeihen. übrigens schneidet eine andere Norm wesentlich besser ab, nämlich Pavlov: kooperieren, ausser wenn der andere Spieler in der Vorrunde anders gehandelt hat als man selbst. Wenn einer von zwei Pavlov-Spielern irrtümlich Hilfe verweigert hat, werden beide Spieler in der nächsten Runde die Hilfe verweigern, dann aber wieder kooperieren. Die Pavlov-Norm ist also nicht fehleranfällig. Andrerseits kann sie sich in einer Welt von Ausbeutern niemals durchsetzen, das strengere Tit For Tat aber schon. 7.8 Indirekte Reziprozität Neben der direkten Reziprozität (die auf wiederholten Wechselwirkungen zwischen denselbe zwei Partnern beruht) kann man auch indirekte Reziprozität ins Auge fassen. Hier sollten die Kosten für eine Geldüberweisung nicht vom Empfänger, 63 sondern von einem Dritten rückerstattet werden. Also statt ’Du kratzt mir den Rücken und dafür ich kratz ihn dir’ jetzt ’Du kratzt jemanden den Rücken und dafür ich kratz ihn dir’. Warum sollte ich das tun? Vielleicht damit mir dann irgendwer den Rücken kratzt. So ein System kann leicht ausgebeutet werden, durch jene, die sich Geld überweisen lassen, jedoch ihrerseits niemals etwas für andere tun. Solche Ausbeutung kann man vermeiden, wenn man nur jenen hilft, die ihrerseits anderen helfen. Dazu gehört einiges an Information über die anderen Spieler (man kann sich nicht wie beim wiederholten Gefangenendilemma nur daran halten, was einem selbst passiert ist). Die nächstliegende Strategie wäre also: ’Gib jenen, die gegeben haben: aber niemanden, der verweigert hat.’ Aber wenn man einem Verweigerer Hilfe verweigert, wird man selbst zum Verweigerer, und bekommt keine Hilfe mehr! Ein konsistentes System muss raffinierter sein, etwa so: jeder Spieler hat eine Reputation (’gut’ oder ’schlecht’), die davon abhängt, was er in der vorigen Runde gemacht hat. Wenn er einem guten Spieler Hilfe verweigert hat, wird seine Reputation schlecht; aber wenn er einem schlechten Spieler Hilfe verweigert hat, verliert er seine gute Reputation nicht. Die Bewertung eines Spielers hängt also davon ab, was dieser in der Vorrunde gemacht hat (geholfen oder nicht), und wie der potentielle Empfänger bewertet war. Schon das führt zu mehreren denkbaren Normen. Was ist etwa besser: einem schlechten Spieler die Hilfe zu verweigern, oder sie ihm zu gewähren? Zieht man noch die eigene Reputation ins Kalkül, so kommt man bereits zu hunderten von möglichen Normen, von denen manche zur Kooperation führen, andere nicht, manche fehleranfällig sind, manche nicht. Im Einzelnen kann auf diese komplizierten Fragen hier nicht eingegangen werden. Aber in gewisser Hinsicht erlauben sie das formale Studium von ethischen Systemen (ohne irgend welche Werturteile zu treffen, sondern lediglich, um die Konsequenzen der Normen zu erfassen). Diese Art von rudimentärer ’formaler Ethik’ lässt sich selbstverständlich in ihrer Bedeutung mit der formalen Logik vergleichen. Immerhin aber zeigt sich, dass mathematische Methoden nicht nur für die Natur- sondern auch für die Sozialwissenschaften wichtig sein können. Übrigens funktionieren e-Bay und ähnliche Systeme dank sehr einfacher Reputationssystem (die die Zufriedenheit der Kunden spiegeln). 64 8 8.1 SCHLIESSEN Formale Logik Das Um und Auf der Mathematik ist das Beweisen, bei welchem Schlussfolgerungen nach streng logischen Regeln gezogen werden. Die Logik hatte bereits durch Aristoteles (im Organon und Prior Analyticus) einen beachtlichen Grad der Formalisierung erreicht. Viele Jahrhunderte lang schien es undenkbar, hier noch etwas hinzuzufügen oder zu verbessern. Charakteristisch für logische Schlussregeln ist die Unabhängigkeit vom konkreten Inhalt der Aussagen. (Im Alltagsgebrauch wird ’logisch’ oft in einem loseren Sinn verwendet, etwa im Sinn von ’klar einsichtig’). Trotz dieser hohen Abstraktion wurde erst in der zweiten Hälfte des 19. Jahrhunderts der Logikkalkül entwickelt, und damit ein bahnbrechender Gedanke von Leibniz realisiert. (Antike Vorläufer gingen verschollen). Dabei leuchtet ja jedem Mathematiker ein, dass erst streng formale Methoden es erlauben, die Mehrdeutigkeiten und Unklarheiten der Alltagssprache zu umgehen. Frege und Peano erkannten, dass die Aristotelischen Syllogismen für mathematische Schlussweisen nicht ausreichen, und ergänzt werden müssen. Durch ihre Arbeiten und die Beiträge von Russell wurden die formale, also ’mathematische’ Logik einerseits, und die Untersuchung der Grundlagen der Mathematik andrerseits, immer weniger unterscheidbar: ’Mathematik und Logik sind eins’ (Wittgenstein). Heute sind die bedeutenden Logiker des Mittelalters nur mehr von historischer Bedeutung, und Logik wird in erster Linie als Teildisziplin der Mathematik gesehen. 8.2 Aussagenkalkül Die Aussagenlogik (propositional logic) ist der einfachste Teil der formalen Logik, und gründet auf den Arbeiten von Boole (ca. 1850). Eine Aussage A ist ein Satz, vom dem es sinnvoll ist, zu behaupten, dass er wahr oder falsch ist (das sind die beiden Wahrheitswerte von Aussagen). Dementsprechend ist dann die Negation, non − A oder ¬A, falsch bzw. wahr. Mehrere solcher Aussagen können durch sogenannte Junktoren verknüpft werden. Aus den Aussagen A und B kann man etwa die Aussage A und B (A ∧ B) bilden, die genau dann wahr ist, wenn sowohl A als auch B wahr sind. Es gibt 4 Möglichkeiten, die Aussagen A und B mit W (für wahr) und F (für falsch) zu belegen, und dementsprechend 24 = 16 Verknüpfungen, die man mittels sogenannter Wahrheitstafeln definieren kann (Beispiele in Fig.8.1). Man beachte hier, dass 65 AoderB (A ∨ B) wahr ist, wenn A oder B oder beide wahr sind. Es handelt sich also hier nicht um das umgangssprachliche ’oder’, das oft im Sinn von ’entwederoder’ gebraucht wird. Im Latein wird zwischen vel und aut unterschieden, in der Informatik zwischen OR und XOR. Noch weiter von der Umgangssprache entfernt ist die Implikation wenn A dann B (A ⇒ B), die genau dann falsch ist, wenn A wahr und B falsch ist. Hier gibt es keinerlei kausalen oder temporalen Zusammenhang. Der Satz wenn 2 × 2 = 5 dann gilt ’jedes Dreieck ist gleichschenkelig’ (oder: ’jeder Vogel ist blau’) ist also wahr (ebenso die Folgerung: ’jeder Vogel ist ein Wirbeltier’). Die Implikation ’2 ×2 = 40 ⇒ ’jedes Wirbeltier ist ein Vogel’ ist aber falsch. Wichtig ist noch die Verknüpfung A ⇔ B (dann und nur dann, wenn), die Ko-Implikation. Natürlich kann man daraus auch drei- und mehrgliedrige Verknüpfungen bilden, zb ((A ⇒ B) ∧ (B ⇒ C)) ⇒ (A ⇒ C), und mittels Wahrheitstafeln bestimmen, für welche Kombinationen die Verknüpfung richtig ist. Im vorliegenden Fall liefert das für jede Belegung von A, B und C mit W oder F eine wahre Aussage: solch ’allgemeingültige’ Aussagen bezeichnet man auch als Tautologien. Sie sind aus rein aussagelogischen Gründen wahr, also wegen der Struktur der Verknüpfungen, unabhängig von den Wahrheitswerten der Aussagen A, B usw. So ist zum Beispiel A ⇒ (¬A ⇒ B) eine Tautologie (Fig. 8.2). Die Negation einer Tautologie ist eine Kontradiktion: sie hat immer den Wahrheitswert falsch, aus rein aussagelogischen Gründen. So ist A ∧ (¬A) eine Kontradiktion. Man macht sich leicht klar, dass man jede Verknüpfung mittels ¬ und ∧ darstellen kann, zb A ∨ B als ¬(¬A ∧ ¬B) (oder durch ¬ und ⇒, zB A ∨ B als (A ⇒ B) ⇒ B). Solche äquivalenten Verknüpfungen nehmen immer dieselben Wahrheitswerte an, für jede Belegung der Bestandteile A und B mit W oder F . Man kommt sogar mit einer einzigen Verknüpfung aus, A ↑ B (nicht sowohl A, als auch B), denn ¬A kann man als A ↑ A darstellen und A ∨ B als (A ↑ A) ↑ (B ↑ B)). Der Aussagekalkül lässt sich auch als Schalt-Algebra interpretieren (statt ’wahr’ und ’falsch’ also ’ein’ und ’aus’). Es kommt nur darauf an, (1) dass die Bewertung binär ist (also keine dritte Möglichkeit zulässt, wie etwa ein ’vielleicht’) und (2) dass die Bewertung von Verknüpfungen lediglich von den Wahrheitswerten der Bestandteile, also der Aussagen A, B usw., abhängt. 8.3 Syntax und Semantik Natürlich kann man den Kalkül auch axiomatisieren, sodass es möglich ist, aus gewissen Axiomen aussagenlogische Folgerungen herzuleiten. Auf ersten Blick 66 mag das Verlangen nach Beweisen hier überflüssig wirken. Die Wahrheitstafeln liefern ohnedies ein narrensicheres (wenn auch oftmals sehr zeitraubendes) Verfahren, die Richtigkeit einer Verknüpfung zu überprüfen. Aber es zahlt sich aus, den Sachverhalt hier näher zu inspizieren, denn dadurch können wir den grundlegenden Unterschied zwischen Syntax und Semantik (im logischen und mathematischen Sinn) besser verstehen, ein Unterschied, der später viel mehr Bedeutung erhält. Um über Aussagenlogik präzise reden zu können, braucht man (1) ein gewisses Alphabet, also einen Zeichensatz, hier etwa bestehend aus den Junktoren, also ¬, ∧, ∨, ⇒, ⇔, den Klammern, also ( und ), sowie einen Vorrat von Buchstaben, die für Aussagen stehen sollen. Weiters braucht man (2) Formeln (oder ’wohlgeformte Zeichenketten’), die man folgendermassen festlegt: jeder Buchstabe (als ’atomare Aussage’) ist eine Formel; wenn vor eine Formel ein ¬ kommt, oder um eine Formel herum Klammern, liefert das wieder eine Formel; und wenn zwischen zwei Formeln ∧, ∨, ⇒, ⇔ steht, gibt das Ganze wieder eine Formel; und das wär’s auch schon (das ist die Grammatik). Der Kalkül besteht nun aus gewissen vorgegebenen Axiomen, etwa (A∧A) ⇒ A, und gewissen Transformationsregeln. Diese Transformationsregeln erlauben es, aus bestimmten Formeln andere ’herzuleiten’, also zum Beispiel aus A und A ⇒ B die Formel B (der modus ponens). Ein Beweis ist dann eine durchnummerierte Kette von Formeln, von denen jede entweder ein Axiom ist oder aus den vorhergehenden Formeln durch eine Transformationsregel gebildet wird. Die letzte Formel P in einem Beweis wird dann als Satz, oder Theorem, bezeichnet, wir schreiben ` P . Von ’anständigen’ mathematischen Beweisen erwartet man, dass sie uns etwas verstehen helfen, ein formaler Beweis bezweckt nichts dergleichen, er läuft maschinell ab. Das liefert ein (zumindest auf ersten Blick) völlig sinnentleertes Spiel mit Zeichenketten. Aller Vorstellungsinhalt ist verbannt. In der Praxis wird man freilich so vorgehen, dass man als Axiome gewisse Tautologien verwendet, und für die Transformationsregeln sogenannte ’Schlussregeln’, die aus Tautologien wieder Tautologien herleiten (die obigen Beispiele waren von dieser Art). Solchermassen erhält man nur Tautologien, in diesem Sinn ist der Kalkül ’korrekt’. Und wenn man geschickt war, erhält man einen Kalkül, der auch ’vollständig’ ist, in dem Sinn, dass alle Tautologien hergeleitet werden können. Man schreibt |= P , wenn man sich mittels Wahrheitstafel überzeugen kann, dass P eine Tautologie ist. Wahrheitstafeln selbst kommen aber gar nicht vor in dem Kalkül. Man drückt das so aus: das blosse Manipulieren der Zeichen (also der Kalkül) wird durch die Syntax beschrieben; die Interpretation, mittels ’Tau67 tologie’ und ’wahr’ oder ’falsch’ gehört nicht zur Syntax sondern zur Semantik: es bedeutet etwas, es trägt zum Verständnis des Kalküls bei. Wenn ` P und |= P gleichbedeutend sind, war unser Kalkül geschickt gewählt. Das mag uns befriedigen, aber die Maschine, die den Kalkül durchführt, berührt das nicht. Aussagen wie ’der Kalkül ist vollständig’ gehören nicht zu dem formalen System, sondern sagen etwas über das System aus, und sind in diesem Sinn auf einer höheren Ebene angesiedelt, dh metasprachlich. Es gibt nicht nur eine, sondern viele korrekte und vollständige Kalküle für die Aussagenlogik. 8.4 Syllogismen Mit der Aussagenlogik kommen wir nicht weit. Sie berücksichtigt ja nicht die innere Struktur der Aussagen, sondern nur deren Verknüpfung. Wenn A die Aussage ist: ’Sokrates ist ein Mensch’, und B die Aussage :’Alle Menschen sind sterblich’ und C schliesslich: ’Sokrates ist sterblich’, so können wir die Aussage (A∧B) ⇒ C bilden. Sie ist keine aussagenlogische Tautologie, aber offenbar eine logische Aussage, die mit dem Inhalt (der Person Sokrates oder dem Wesen der Sterblichkeit) nichts zu tun hat. Wie erkennen wir, dass diese Aussage wahr ist? Wir brauchen dazu ein Kalkül, dass sich mit Eigenschaften (Prädikaten) befasst. Die Prädikatenlogik geht auf Aristoteles zurück. Die Aristotelische Logik kennt bejahende oder verneinende, allgemeine oder partikuläre ’Urteile’, also vier Typen: (a) alle A sind B, (i) einige A sind B (d.h. mindestens ein A ist B); (e) kein A ist B (d.h. jedes A ist nicht B); und (o) einige A sind nicht B (allgemein bejahend, partikulär bejahend, allgemein verneinend, partikulär verneinend). Dabei sind A und B durch Eigenschaften, wie etwa ’Mensch sein’ oder ’Primzahl sein’, definiert. Wir können die Eigenschaften auch durch Mengen beschreiben (die Menge aller Elemente mit der Eigenschaft). Wenn wir mit Ā die Komplementärmenge bezeichnen (alle Elemente aus einer Grundmenge, die nicht zu A gehören) so liefert das also (a) A ⊆ B, (i) ¬(A ⊆ B̄); (e) A ⊆ B̄ und (o) ¬(A ⊆ B). Aristoteles betrachtet Schlüsse, bei denen aus zwei Sätzen (den Prämissen, die etwas über A und B bzw. A und C aussagen) ein weiterer (die Konklusion, eine Aussage über B und C) folgt. Da es für jeden der drei Sätze 4 Möglichkeiten a,i,e,o gibt (diese Buchstaben dienten den Scholastikern als Merkregeln), und in jeder Prämisse der Platz des ’Mittelglieds’ A an erster oder zweiter Stelle sein kann, liefert das 43 ×4 = 256 Möglichkeiten, von denen laut Aristoteles nur 19 immer gültige Schlüsse liefern. Die Scholastiker bezeichneten sie mit Merkworten als Barbara, Celarent, Darii,... Barbara(aaa) etwa bedeutet: aus den Prämissen 68 A ⊆ B und C ⊆ A folgt C ⊆ B, Darii (aii) heisst: aus A ⊆ B und ¬(C ⊆ Ā) folgt ¬(C ⊆ B̄) usw. Das ist durch die Interpretation mittels Mengen leicht nachzuvollziehen. Allerdings kommen wir nur auf 15 ’Schlussfiguren’, vier weitere (Darapti, Felapton, Bamalip und Fesapo) kommen nicht mehr vor, aus dem einfachen Grund, dass Mathematiker ’alle A sind B’ heute etwas anders interpretieren. Für Aristoteles, und auch den gängigen Sprachgebrauch, ist der Satz nur richtig, wenn es auch Elemente in A gibt. ’Alle Drachen sind rosa’ wäre also falsch, während Mathematiker ihn als wahr ansehen, denn sie interpretieren ihn als ’wenn Drache, dann rosa’, und da die Menge der Drachen leer ist, ist sie in der Menge der rosa Dinge enthalten. Eigentlich bleiben auch von den 15 Schlussregeln nur 2 übrig (Barbara und Darii), wenn man berücksichtigt, dass A ⊆ B̄ dasselbe ist wie B ⊆ Ā. 8.5 Prädikatenkalkül Noch Kant konnte schreiben: ’Merkwürdig ist noch an der Logik, dass sie auch bis jetzt [seit Aristoteles] keinen Schritt vorwärts hat tun können und also allem Anschein nach geschlossen und vollendet scheint.’ Doch sobald man versuchte, in anspruchsvolleren mathematischen Beweisen die logischen Schlussweisen zu analysieren, wurde klar, dass die traditionelle Logik dazu keineswegs ausreicht. Bespielsweise ist der folgende Satz aus rein logischen Gründen richtig: ’Wenn es jemanden gibt, der [heute morgen] alle begrüsst hat, dann ist jeder begrüsst worden’. Er ist unabhängig von der inhaltlichen Definition von ’begrüssen’ richtig (man könnte das Wort genau so gut durch ’geschlagen’ oder ’geküsst’ ersetzen), wogegen die Variante ’wenn alle gegrüsst worden sind, gibt es einen, der alle begrüsst hat’ keineswegs richtig sein muss. Um Aussagen von diesem Typ analysieren zu können, muss man den logischen Kalkül in zweifacher Hinsicht erweitern. Erstens wird man nicht nur Eigenschaften wie ’ist Primzahl’ oder ’ist sterblich’, also sogenannte ’einstellige Prädikate’, die sich auf ein Element x aus einer Menge (von Lebewesen, oder natürlichen Zahlen, etc.) beziehen, sondern auch mehrstellige Prädikate betrachten, wie ’kleiner als’ oder ’Bruder von’, die Relationen zwischen mehreren Elementen (hier etwa x und y) bezeichnen. Zweitens führt man die beiden Quantoren ’für alle’ und ’es gibt’ ein, die man seit Peano mit ∀ und ∃ bezeichnet. Man kann so etwa schreiben ∀x(¬(x < x)) oder ∃x(x = x2 ) usw. Im engeren Prädikatenkalkül (first order logic) beziehen sich die Quantoren nur auf Elemente (’für alle Zahlen’, oder ’es gibt einen Menschen’), und in dem erweiterten Kalkül (higher order logic) auch auf Relationen (oder Teilmengen, oder Funktionen). 69 Die Quantoren gehorchen gewissen Regeln: so folgt aus der Formel ∀xF (x) die Formel F (y), sofern F eine Formel ist, in der eine Variable (x oder y) vorkommt. Zu diesen Regeln kommen noch Axiome, die den Gebrauch des Gleichheitszeichens regeln: etwa dass ∀x(x = x) gilt, oder: wenn x = y dann F (x) ⇒ F (y). Im wesentlichen enthält jede formalisierte mathematische Theorie die Axiome für Junktoren, Quantoren und die Identität (das wird oft stillschweigend vorausgesetzt). Dazu kommen dann die eigentlichen ’mathematischen’ Axiome, die jetzt die geometrische Theorie, oder die Rechenregeln, oder ähnliches beschreiben. 8.6 Sudoku für Fortgeschrittene Von jedem anständigen Axiomensystem wird man verlangen, dass es widerspruchsfrei ist, also keine Aussage A mitsamt ihrer Negation ¬A herleitbar ist. Niemand liebt einen Widerspruch, aber Mathematiker sind da besonders heikel. Denn da A ⇒ (¬A ⇒ B) eine Tautologie ist, so lässt sich aus A und ¬A stets auf B schliessen, ganz gleich, was B für eine Aussage ist. Das gilt natürlich insbesondere für ¬B. (Alternativ: Aus A folgert man A ∨ B. Aus A ∨ B und ¬A folgert man B.) Da hört sich alles auf! Jeder Widerspruch infiziert seuchenartig die ganze Theorie. Eine Theorie, in der jede Aussage herleitbar ist, ist natürlich vollkommen wertlos. (Wenn Historiker zwei verschiedene Datierungen für ein Ereignis haben, ist es ihnen unangenehm, aber zerstört nicht gleich die ganze Geschichtswissenschaft. In der Mathematik ist das anders.) Nun haben wir gesehen, dass nichteuklidische Geometrien nur dann einen Widerspruch bergen, wenn die euklidische einen Widerspruch birgt; und dass die euklidische Geometrie widerspruchsfrei ist, wenn die Theorie der reellen Zahlen widerspruchsfrei ist. Hilbert wollte noch weiter gehen, und neben solchen relativen Konsistenzbeweisen auch absolute finden, etwa für die Widerspruchsfreiheit der Peano Axiome der Arithmetik. Er schlug auch gleich eine Strategie vor, um dieses Ziel zu erreichen, nämlich mittels der totalen Formalisierung der Arithmetik. Diese Formalisierung war zu Hilberts Zeiten schon sehr weit gediehen. Sie war allerdings extrem umständlich (so kommt es etwa erst im zweiten Band von Russell und Whitehead’s ’Principia Mathematica’ zum Beweis von 2 + 2 = 4 s. Das Manipulieren der Zeichenketten, zu dem so eine totale formalisierung führt, lässt sich nun seinerseits wieder als Objekt der Mathematik untersuchen. Hilberts Grundidee war: Warum sollte nicht rein kombinatorisch zu zeigen sein, dass es keine Zeichenkette A gibt, so dass A die ebenso wie die Negation ¬A formal beweisbar sind. In der Metaebene kann diese Aussage über Zeichenketten 70 dann interpretiert werden als die Aussage: die formale Theorie der Arithmetik ist widerspruchsfrei. Neben der Konsistenz wird man noch eine andere Forderung an die Axiome stellen: nämlich dass die Axiome vollständig sind. Das ist zum Beispiel im Aussagenkalkül der Fall. Gilt es auch für die Peano-Arithmetik? Hier ist zu beachten, dass sich die Vollständigkeit einer mathematischen Theorie auf mehrere Weisen definieren lässt, nämlich syntaktisch und semantisch. Semantische Vollständigkeit wäre gegeben, dass sich jeder wahre Satz beweisen lässt. In diesem Sinn ist etwa, wie schon erwähnt, die Aussagenlogik vollständig. Innerhalb einer rein formalen Theorie kann man aber nicht von ’Wahrheit’ sprechen. Hier heisst (syntaktisch) vollständig, dass sich für jede Formel A entweder A oder ¬A herleiten lässt. (Wenn beides geht, ist das System nicht konsistent). Die beiden Forderungen (Konsistenz und Vollständigkeit) kann man an Hand des Sudoku-Spiels darlegen. Hier sind in einem 9 × 9 Quadrat bestimmte Felder durch Ziffern 1, 2, ..., 9 belegt, und es geht darum, die leeren Felder zu ergänzen, und zwar so, dass in jeder Zeile, jeder Spalte und jedem der fett ausgezogenen 3 × 3 Quadrate jede der neun Ziffern genau einmal aufscheint, also (logisch!) keine zweimal. Von einem anständigen Sudoku wird man erwarten, dass es genau eine Lösung besitzt. Es könnte aber sein, dass die vorgegebenen Daten keine Lösung erlauben, etwa weil für eins der freien Felder einerseits folgt, dass dort eine 8 stehen muss, andrerseits, dass dort keine 8 stehen kann. Das entspricht einem inkonsistenten Axiomensystem. Oder es könnte sein, dass gewisse Felder nicht eindeutig besetzt werden können, dass also mehrere Lösungen möglich sind. Für manche Felder lässt sich dann nicht entscheiden, welche Ziffer hingehört. Das entspricht einem Axiomensystem, dass nicht vollständig ist. Fig. 8.3. 8.7 Hilberts Programm und Gödels Störung Wie nun lässt sich die Widerspruchsfreiheit der Mathematik beweisen? Vielleicht steckt bereits in den Axiomen, auch wenn sie uns evident erscheinen, ein Widerspruch. Unsere Sinne lassen sich täuschen, warum nicht auch unser Verstand? David Hilbert (1862-1943), der führende Mathematiker seiner Zeit, entwickelte sein formalistisches Programm, um absolute Konsistenzbeweise zu erreichen. Das logische Schliessen lässt sich auf die Anwendung einiger weniger Regeln zurückführen, also gewissermassen mechanisieren. Dass ein Beweis uns etwas verstehen hilft, oder dass ein Axiom einleuchtet, ist hierbei irrelevant: was in unserem Bewusstsein vorgeht, ist Privatsache. Worauf es im Formalismus lediglich ankommt, ist die präzise Berufung auf die einzelnen Schlussregeln. Hilbert entleerte 71 also die mathematischen Theorien ihres Inhalts (Geraden, Mengen, Zahlen). Zurück bleibt eine Handvoll Zeichen, und eine Menge von Zeichenketten. Hilberts Plan war es nun, nachzuweisen, dass durch die Umformungen aus den Peano-Axiomen nicht sowohl eine Aussage A als auch ihre Negation ¬A hergeleitet werden können; was (wie wir sahen) darauf hinausläuft, zu zeigen, dass 0 = 1 nicht herleitbar ist. Hilbert war sich der Grösse der Aufgabe bewusst. ’Natürlich bedarf es dazu der hingebungsvollen Mitarbeit von Generationen jüngerer Mathematiker.’ Eine Zeit lang schien der Erfolg zum Greifen nahe. Doch dann kam einer dieser jüngeren Mathematiker daher und wies zur allgemeinen Verblüffung nach, dass Hilberts Programm nicht durchführbar ist. Gödel zeigte, dass jede widerspruchsfreie mathematische Theorie, die reichhaltig genug ist, um die Arithmetik zu umfassen, die es also erlaubt, zu zählen und diese Zahlen 1,2,3,... zu addieren und zu multiplizieren, notwendigerweise unvollständig ist. Es gibt stets Aussagen, die unentscheidbar sind, also weder aus den Axiomen heraus bewiesen noch widerlegt werden können: und die Aussage, dass die Theorie widerspruchsfrei ist, gehört dazu. Gödels Beweis ist anspruchsvoll und viele Seiten lang, aber der Grundgedanke ist von bestechender Eleganz. Gödel konstruierte im formalen System eine Aussage G, die (in unserer Interpretation) besagt: ’G ist unbeweisbar’ (also gewissermassen ’ich bin unbeweisbar’). Er zeigte: wenn G beweisbar ist, dann auch ¬G, und umgekehrt. Inhaltlich ist das einigermassen klar, ähnlich wie beim Paradox vom Kreter oder, präziser, bei der Tafel, die auf einer Seite die Aufschrift trägt: ’Was auf der Rückseite steht, stimmt’ und auf der Rückseite: ’Was auf der Rückseite steht, stimmt nicht.’ Aber Gödel zeigte, dass es neben dem semantischen Widerspruch einen rein syntaktischen (in der formalen Theorie) gibt. Wenn ` G, dann ` ¬G, und umgekehrt. Also ist G nicht formal beweisbar (sofern das System widerspruchsfrei ist), ¬ ` G. Das ist aber gerade, was G inhaltlich besagt: daher ist G wahr, d.h. |= G. Wir verstehen auf der semantischen Ebene, dass G wahr ist, aber im formalen System ist das nicht herzuleiten. Üblicherweise geht es in der Mathematik um Gleichungen, Flächen, oder dergleichen. Der Satz ’Diese Aussage ist unbeweisbar’ klingt so gar nicht danach. Aber ob eine Zeichenkette beweisbar ist oder unbeweisbar, lässt sich präzise formalisieren, und auch der scheinbar suspekte Selbstbezug im Satz kann umgangen werden. Gödel ordnete jeder Zeichenkette eine Zahl zu, die später als deren Gödel-Nummer bezeichnet wurde. (Jedem Zeichen ¬, `, usw. wird eine natürliche Zahl zugeordnet, und zwar folgendermassen: wenn das Zeichen mit Zahl j an kter Stelle der Zeichenkette steht, bildet man (pk )j , wobei pk die k-te Primzahl ist; schliesslich multipliziert man alle diese Potenzen, was liefert zumeist eine 72 riesige Zahl liefert.) Die Aussage G lautet eigentlich: ’Die Zeichenkette mit Gödel-Nummer g ist nicht beweisbar’, und Gödel arrangierte es so virtuos, dass g (’gewissermassen zufällig’, wie er nicht ohne Koketterie schrieb) gerade die Gödel-Nummer von G ist – ein zauberhaftes Kunststück. Man kann den Zahlen nicht nur ansehen, ob sie die Gödel-Nummern von grammatisch korrekten Zeichenketten des formalen Systems sind, und diese aus den Zahlen zurückgewinnen; sondern man erkennt auch, rein arithmetisch, ob diese Zeichenketten Beweise darstellen. Wenn P (m, n) bedeutet, dass die Zahl m Gödelnummer des Beweises der Aussage mit Gödel-Nummer n ist, so kann man eine Zeichenkette G bilden (die, voll ausgeschrieben, hunderte von Seiten füllen würde), so dass für die Gödel-Nummer g von G gilt, dass P (m, g) für keine Zahl m gilt. Daraus folgt die Unvollständigkeit. 8.8 Der Teufel und der liebe Gott Nun zur Unmöglichkeit des Beweises der Widerspruchsfreiheit. Wenn die Arithmetik konsistent ist, gibt es Sätze K, die das im formalen System ausdrücken (etwa dass 1 = 0 nicht beweisbar ist). Der Satz K ⇒ G ist nicht nur inhaltlich wahr, sondern formal beweisbar. Also kann K nicht formal beweisbar sein, denn sonst wäre es G auch, was ja Gödel widerlegt hat. Somit folgt aus dem Beweis des Unvollständigkeitssatzes, dass die Behauptung ’Das formale System ist konsistent’ selbst eine unbeweisbare Aussage ist. (Sie ist unbeweisbar innerhalb des formalen Systems. Es ist durchaus denkbar, dass die Konsistenz auf andere Weise hergeleitet werden kann.) Der Lieblingsschüler von Hilbert, der geniale John von Neumann, selbst nur wenige Jahre älter als Gödel, erfasste die Lage sofort. Zweimal hatte er im Traum geglaubt, einen Beweis der Widerspruchsfreiheit gefunden zu haben. ’Was für ein Glück, dass ich es nur geträumt habe!’ Denn ein formaler Beweis der Widerspruchsfreiheit hätte bedeutet, dass es laut Gödel doch einen Widerspruch gibt. Wie Andre Weil gesagt hat: ’Weil es einen Gott gibt, gibt es keinen Widerspruch in der Mathematik; und wir können das nicht beweisen, weil es den Teufel gibt.’ Dass ein Axiomensystem unvollständig sein kann, haben wir schon öfters gesehen. Die euklidischen Axiome (ohne das Parallelenpostulat) reichen nicht hin, um zu zeigen, dass es durch jeden Punkt, der nicht auf einer Geraden liegt, genau eine Parallele zu der Geraden gibt. Die Axiome von Zermelo und Fraenkel reichen nicht aus, um die Kontinuumshypothese zu beweisen. Dann fügt man eben die entsprechenden Aussagen als Axiome hinzu, und hat dann die euklidische Geometrie, die zermelosche Mengenlehre usw. Das Bemerkenswerte an Gödels 73 Satz ist, dass er nicht nur für die Peano-Axiome, sondern für jede finite Axiomatisierung der Arithmetik gilt. Stets gibt es einen wahren Satz, der nicht beweisbar ist. Nehmen wir diesen Satz als Axiom mit an Bord (wodurch er trivialerweise beweisbar wird), dann gibt es neuerlich wahre Sätze, die nicht beweisbar sind, usw. Machen wir uns die Unvollständigkeit noch am Beispiel der Goldbachschen Vermutung klar, die besagt (nennen wir das Aussage C), dass sich jede gerade Zahl als die Summe zweier Primzahlen schreiben lässt: 8=3+5 usw. Man kann leicht Computer programmieren, nacheinander alle geraden Zahlen daraufhin zu überprüfen. Wenn die Vermutung falsch ist, wird man zwar auf diese Art früher oder später zu einem Gegenbeispiel kommen, und dann ist Goldbach widerlegt. Aber wenn die Vermutung stimmt, wird der Computer immer weiter rechnen und zu keinem Abschluss kommen. So kann Goldbach nie bestätigt werden! Aber natürlich bleibt die Hoffnung aufrecht, dass es für die Goldbach-Vermutung doch einen Beweis gibt. Auch hier könnte man versuchen, mechanisch vorzugehen: Man kann Computer programmieren, Schritt für Schritt alle möglichen Texte der Länge 1,2,3,..., daraufhin zu überprüfen, ob sie Beweise sind. Jeden Beweis wird man solcherart irgendwann erhalten. Wenn die Arithmetik vollständig wäre, es also einen Beweis von C oder ¬C gibt, muss dieser früher oder später ausgedruckt werden. Sie ist aber unvollständig, und daher kann es durchaus sein, dass der Computer endlos weiterläuft, ohne jemals C oder ¬C zu beweisen. Mit dem skizzierten Brechstangenverfahren lässt sich also keine Entscheidung erzwingen. 8.9 Entscheidung endgültig verschoben Wie wir am Beispiel der Aussagenlogik gesehen haben, kann es Verfahren geben, die rein mechanisch für jede Aussage des formalen Systems entscheiden können, ob sie eine Tautologie ist oder nicht: im gegebenen Fall mittels Wahrheitstafel. Selbst in anspruchsvolleren formalen Systemen wäre es denkbar, dass obwohl nicht jede Aussage formal beweisbar oder widerlegbar ist, so doch von jeder Aussage durch ein ’Entscheidungsverfahren’ bestimmt werden kann, ob sie beweisbar ist oder nicht (ohne dass dieses Verfahren den Beweis, so es denn einen gibt, mitzuliefern braucht). Wenige Jahre nach Gödels Unvollständigkeitssatz zeigten Turing und Church unabhängig voneinander, dass es so ein Entscheidungsverfahren im Fall der PeanoArithmetik nicht geben kann. Turings Beweis war besonders interessant. Um den Begriff des ’Verfahrens’ zu definieren, führte er virtuelle Computer ein, die eine Reihe von bestimmten Operationen durchführen können. Turing zeigte, dass 74 es ’universelle Computer’ gibt, die die Arbeitsweise jedes Computers nachahmen können (wenn deren Programm bekannt ist), und die daher grundsätzlich jedes Computerprogramm ausführen können, wenn auch sehr langsam. Turing konnte solcherart nachweisen, dass es gewisse Probleme gibt, die unentscheidbar sind. Dazu gehört insbesondere das Halteproblem, nämlich die Frage, ob ein vorgegebenes Programm (ein Algorithmus) schliesslich stoppen wird, oder der Algorithmus in eine endlose Schleife gerät (der Computer sich also ’aufhängt’). Turing zeigte, dass es grundsätzlich kein universelles Schleifenerkennungsverfahren gibt, dass von jedem Computerprogramm angeben kann, ob die Maschine damit fertig wird oder nicht: manchmal muss man das Programm einfach laufen lassen, und sehen, was passiert. Es ist übrigens keineswegs so, dass die unentscheidbaren Sätze des formalen Systems philosophisch angehaucht sein müssen, etwa stets einen Selbstbezug reflektieren. So ist beispielsweise die Frage, ob ein gegebenes Polynom in mehreren Veränderlichen, und ganzzahligen Koeffizienten, auch ganzzahlige Nullstellen besitzt, zweifellos eine handfeste mathematische Frage (solche Gleichungen heissen diophantisch: Beispiele sind x2 +y 2 −z 2 = 0 oder x4 +3y 4 −z 4 +2 = 0). Durch die Beiträge von zahlreichen Mathematikern wurde aus dem Unvollständigkeitssatz hergeleitet, dass es kein allgemeines Verfahren gibt, dass alle diese Fragen entscheiden kann. Gewissermassen als Nebenprodukt der dazu nötigen Überlegungen zur Berechenbarkeit entdeckte man, dass es eine Formel gibt, die alle Primzahlen liefert (man hatte die Hoffnung, dass es so eine Formel gibt, beinahe aufgegeben). Die Formel ist allerdings sehr kompliziert (Fig.8.4)! Sie wird durch ein Polynom mit 26 Veränderlichen geliefert: jeder positive Wert dieses Polynoms ist eine Primzahl. Die Mathematiker fanden sich damit ab, dass die Wahrheit manchmal unentscheidbar, und die Widerspruchsfreiheit nicht beweisbar ist. Das macht ihren Beruf nur noch interessanter. John von Neumann überliess Gödel das Feld der mathematischen Logik und wandte sich anderen Fragen zu. Ein Dutzend Jahre später wurde er, neben Turing, zu einem der Väter des programmierbaren Computers. Im Nachhinein wurde klar, dass die Entwicklung der mathematischen Logik, gänzlich unbeabsichtigt, die wesentlichen Grundlagen für das Computerzeitalter geliefert hatte. Hilberts formale Systeme wurden Maschinen, und der Unvollständigkeitssatz entpuppte sich als Aussage über die Grenzen von Computerprogrammen. Die Mathematik ist nicht ausschöpfbar, und der Beruf des Mathematikers kann nie durch Computer obsolet werden. Er ist nicht der einzige Beruf, der durch Computer nicht zu ersetzen ist; aber der einzige, von dem das bewiesen worden ist. 75