Mathematische Logik Helmut Schwichtenberg Mathematisches Institut der Universität München Wintersemester 1999/2000 und Sommersemester 2000 V Vorwort Dieses Skriptum entstand als Begleitmaterial zu einer Vorlesung über Mathematische Logik am Mathematischen Institut der Universität München, die ich in zwei Teilen im Wintersemester 1999/2000 und im Sommersemester 2000 gehalten habe. Bedanken möchte ich mich bei den Herren Klaus Aehlig und Dr. Oliver Deiser, die die Übungen zu dieser Vorlesung korrigiert bzw. betreut und in vielen Diskussionen zu ihrem Inhalt wesentlich beigetragen haben. München, August 2000 Helmut Schwichtenberg VI Inhaltsverzeichnis 1. Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Formale Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik . . . . . . . . . . . . . . . . . . . . . 1.5 Vollständigkeit der klassischen Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Anfänge der Modelltheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 7 18 24 28 33 38 2. Beweistheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 λ-Kalkül . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Normalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Normale versus nicht-normale Herleitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 43 46 47 49 3. Berechenbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Primitiv rekursive Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Rekursive Funktionen, rekursiv aufzählbare Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Kodierung der Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Herbrand-Gödel-Kleene-rekursive Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 51 58 61 70 72 4. Metamathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Undefinierbarkeit des Wahrheitsbegriffs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Der Wahrheitsbegriff in formalen Theorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Unentscheidbarkeit und Unvollständigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Repräsentierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Unbeweisbarkeit der Widerspruchsfreiheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 73 74 75 77 81 83 5. Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Kumulative Typenstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Axiomatische Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Rekursion, Induktion, Ordinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Kardinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Das Auswahlaxiom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Ordinalzahlarithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7 Normalfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 85 86 89 107 111 116 123 126 VIII 6. Inhaltsverzeichnis Beweistheorie der Arithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Gödelisierung von Ordinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Beweisbarkeit von Anfangsfällen der transfiniten Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Normalisierung für die Arithmetik mit der Omega-Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Nachtrag: η-Expansion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 129 130 133 137 141 145 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 1. Logik Untersuchungsgegenstand dieser Vorlesung sind mathematische Beweise. In diesem einführenden Kapitel befassen wir uns mit den Grundlagen der Formalisierung derartiger Beweise. Dazu verwenden wir ein System des “natürlichen Schließens”, das 1934 von Gentzen [9] eingeführt wurde. Es gibt zwei Hauptgründe für diese Wahl. Erstens handelt es sich – wie schon der Name sagt – um ein natürliches Beweissystem, in dem Beweise in einer Art dargestellt sind, wie sie ein sorgfältiger Mathematiker formulieren würde, wenn er alle Einzelheiten einer Argumentation aufschreiben möchte. Zweitens sind formale Beweise im natürlichen Schließen eng verknüpft (mittels der sogenannten Curry-Howard Korrespondenz) mit Termen im getypten λ-Kalkül. Dies liefert nicht nur eine kompakte Schreibweise für formale Beweise (die sonst leicht zu unhandlichen Baumstrukturen werden), sondern öffnet auch einen Weg zur Anwendung von im Kontext des λ-Kalküls gebräuchlichen rechnerischen Techniken. Außer der klassischen Logik werden wir uns auch mit konstruktiven Logiken befassen: mit Minimallogik und mit intuitionistischer Logik. Dies wird einige interessante Aspekte von Beweisn zum Vorschein bringen. So ist es zum Beispiel möglich und sinnvoll, zwischen Existenzbeweisen zu unterscheiden, die das als existent nachgewiesene Objekt tatsächlich liefern, und solchen, die dies nicht tun. Als Beispiel betrachten wir die folgende Aussage. Es gibt irrationale Zahlen a, b mit ab rational. Einen Beweis erhält man wie folgt durch Fallunterscheidung. √ √ √ √2 Fall 2 ist rational. Man wähle a = 2 und b = 2. Dann sind a, b irrational, und nach Annahme ist ab rational. √ √2 √ √2 √ Fall 2 ist irrational. Man wähle a = 2 und b = 2. Dann sind nach Annahme a, b irrational, und √ √2 √ 2 √ 2 b 2 2 =2 a = = ist rational. t u √ √2 Solange wir nicht entschieden haben, ob 2 nun rational ist oder nicht, wissen wir nicht, welche Zahlen a, b wir nehmen müssen. Damit haben wir ein Beispiel eines Existenzbeweises, der es nicht erlaubt, das als existent nachgewiesene Objekt tatsächlich anzugeben. Eine besondere Eigenart von Gentzens Kalkül des natürlichen Schließens ist es, daß für jede logische Verknüpfung ∧, → und ∀ Einführungs- und Beseitigungsregeln vorhanden sind. Dies führt auf das System der Minimallogik, das von Johansson [15] 1937 eingeführt wurde. Gibt man dann dem speziellen Aussagensymbol ⊥ (gelesen “falsum”, für “Falschheit”) einen besonderen Status, so erhält man die intuitionistische Logik (mittels des Prinzips des ex-falso-quodlibet) und die klassische Logik (mittels des Prinzips des indirekten Beweisens)). Für diesen Aufbau der Logik ist es wichtig, daß wir uns auf eine Sprache beschränken, die nur die logischen Verknüpfungen →, ∧ und ∀ enthält; die Disjunktion ∨ und der Existenzquantor ∃ können mittels ihrer de Morganschen Definitionen eingeführt werden. Für diese Verknüpfungen lassen sich dann die üblichen Einführungs- und Beseitigungsregeln herleiten. Schließlich erweitern wir die Sprache noch um den starken (konstruktiven) Existenzquantor ∃∗ . Man kann dann in den Fällen, wo ein Existenzbeweis tatsächlich konstruktiv durch Angabe eines Beispiels geführt wurde, dies auch in der Formelsprache angemessen ausdrücken. 2 1. Logik 1.1 Formale Systeme Der Mathematiker studiert Axiomensysteme. Man unterscheidet zwischen “klassischen” Axiomensystemen, die ein intendiertes Modell möglichst vollständig beschreiben sollen (etwa die natürlichen Zahlen oder die ebene Geometrie) und “modernen” Axiomensystemen wie etwa denen für Gruppen, Ringe und Körper, die von vornherein so konzipiert sind, daß sie möglichst viele Modelle besitzen. Die Grundbegriffe der jeweiligen mathematischen Disziplin sind dann durch die Axiome implizit bestimmt. Ausgehend von den Grundbegriffen werden weitere Begriffe definiert, die aber prinzipiell entbehrlich sind. Aus den Axiomen werden dann mittels logischer Schlußregeln die Sätze der Theorie hergeleitet. – Wir werden uns hier in erster Linie mit klassischen Axiomensystemen befassen. Einen mathematischen Satz kann man unter zwei Aspekten betrachten: einerseits teilt er einen Inhalt mit (semantischer Aspekt), andererseits liegt er als Zeichenreihe vor (syntaktischer Aspekt). Der semantische Aspekt scheint auf den ersten Blick viel wichtiger zu sein. Es ist jedoch nötig und in manchen Fällen ergiebig, sich auch mit dem syntaktischen Aspekt zu befassen. Die syntaktische Seite eines Axiomensystems fassen wir in dem Begriff eines formalen Systems zusammen. Ein formales System ist bestimmt durch (1) eine (formale) Sprache, und (2) Axiome und Schlußregeln. Als Sprache verwendet man am besten eine künstliche, formale Sprache, um Eindeutigkeit und Einfachheit zu gewährleisten. Eine solche Sprache ist bestimmt durch einen Zeichenvorrat (Alphabet), daraus gebildete Terme (die Objekte bedeuten) und Formeln (die Aussagen bedeuten). Eine Aussage ist nach Aristoteles ein sprachliches Gebilde, von dem es sinnvoll ist zu sagen, es sei wahr oder falsch. Die Axiome sind dann einfach spezielle Formeln, und die Schlußregeln gestatten den Übergang von gewissen (meist endlich vielen) Prämissen auf eine Konklusion – im allgemeinen unter zusätzlichen Bedingungen. Wir wollen hier eine Klasse von formalen Systemen beschreiben, die auf der Logik erster Stufe basieren. Sie reichen für die Darstellung der üblichen Axiomensysteme der Mathematik aus. Als erstes wollen wir ihre Sprache einführen. Dazu beginnen wir mit einer informalen Diskussion. Jede Sprache verwendet Begriffe. In unserem Fall einer Sprache über mathematische Gegenstände können wir es uns relativ einfach machen. Hier kann man zwischen logischen und nichtlogischen Begriffen unterscheiden. Wir behandeln zunächst die nichtlogischen Begriffe. Wir legen einen sogenannten Individuenbereich zugrunde (etwa den Bereich N der natürlichen Zahlen oder die Trägermenge G einer Gruppe) und verstehen dann unter einem Begriff einfach eine Teilmenge des Individuenbereichs; ein Beispiel ist der Primzahlbegriff. In der Sprache muß für jeden relevanten Begriff ein Symbol zu seiner Benennung vorhanden sein, etwa P für den Primzahlbegriff; solche Symbole nennt man Relationssymbole. Es ist notwendig, auch mehrstellige Begriffe zuzulassen, etwa die Kleiner-oder-Gleich-Beziehung n ≤ m zwischen natürlichen Zahlen, oder die dreistellige Relation “A liegt zwischen B und C” für Punkte A, B, C ∈ R2 . Die zugehörigen Symbole nennt man Relationssymbole. Ferner brauchen wir in der Mathematik offenbar Funktionen, etwa die Nachfolgerfunktion und die Addition auf N oder die Gruppenverknüpfung. In der Sprache muß dann für jede vorkommende Funktion ein Symbol zu ihrer Benennung vorhanden sein, etwa S für die Nachfolgerfunktion, + für die Addition und ◦ für die Gruppenverknüpfung; solche Symbole nennt man Funktionssymbole. Jedes Funktionssymbol hat eine feste Stellenzahl. Ferner brauchen wir offenbar in der Sprache Konstanten für einzelne Individuen (etwa 5). Man kann Konstante als entartete (genauer: nullstellige) Funktionssymbole auffassen. Aus den Funktionssymbolen und den Konstanten kann man Terme aufbauen, etwa S(5) oder 5 + 7. Mit solchen Termen lassen sich dann atomare Formeln bilden, etwa P (7) (mit der Bedeutung “7 ist eine Primzahl”) oder S(5) < 9. Wir nächstes betrachten wir die logischen Begriffe. Aus atomaren Formeln kann man mittels logischer Verknüpfungen weitere Formeln zusammensetzen, etwa 2 < 3 ∧ P (7). Allgemein ist mit A und B auch die Konjunktion A ∧ B (gelesen “A und B”) eine Formel. Man beachte, daß die Wahrheit oder Falschheit von A ∧ B allein von der Wahrheit oder Falschheit von A und von B abhängt, nicht von der Bedeutung dieser Aussagen. Wir nehmen deshalb mit Frege an, daß zwei verschiedene Wahrheitswerte W und F gegeben sind. Man beachte, daß es nicht darauf 1.1 Formale Systeme 3 ankommt, was genau die Wahrheitswerte W und F sind, solange sie nur verschieden sind; wir wollen hier 1 und 0 wählen. Wir betrachten jetzt Wahrheitsfunktionen H : {1, 0}n → {1, 0}. Die Konjunktion ∧ wird dann vollständig durch ihre Wahrheitsfunktion H∧ : {1, 0}2 → {1, 0} beschrieben, die durch H∧ (p, q) := min(p, q) bestimmt ist. Mit A ist auch die Negation ¬A (gelesen “nicht A”) eine Formel. Die zugehörige Wahrheitsfunktion H¬ : {1, 0} → {1, 0} ist einstellig und bestimmt durch H¬ (p) := 1 − p. Mit A und B ist auch die Disjunktion A ∨ B (gelesen “A oder B”) eine Formel. Man beachte, daß das “oder” hier im nicht ausschließenden Sinn gemeint ist; dies ist in der Mathematik üblich. Bei klassischer Auffassung ist die Disjunktion ∨ vollständig durch ihre Wahrheitsfunktion H∨ : {1, 0}2 → {1, 0} beschrieben, die durch H∧ (p, q) := max(p, q) bestimmt ist. Man beachte, daß dann A ∨ B dasselbe bedeutet wie ¬(¬A ∧ ¬B), also ∨ auch durch ∧ und ¬ definiert werden kann. Es gilt nämlich H∨ (p, q) := H¬ (H∧ (H¬ (p), H¬ (q))), wie man etwa durch Probieren der 22 = 4 Fälle sofort feststellt. Wir werden auch noch eine starke (oder konstruktive) Auffassung des “oder” besprechen, bei der ∨ nicht mehr so definiert werden kann. Mit A und B ist auch die Implikation A → B (gelesen “wenn A, so B” oder “A impliziert B”) eine Formel. Man beachte, daß wenn-so hier im mathematischen Sinn gemeint ist, d.h. es braucht kein kausaler Zusammenhang zwischen A und B zu bestehen. So ist zum Beispiel 2 < 3 → P (7) wahr. Die Wahrheitsfunktion H→ : {1, 0}2 → {1, 0} ist H→ (p, q) := H∨ (H¬ (p), q), also H→ (1, 1) = H→ (0, 1) = H→ (0, 0) = 1, H→ (1, 0) = 0. Schließlich ist mit A und B auch die Äquivalenz A ↔ B (gelesen “A genau dann, wenn B” oder “A äquivalent B”) eine Formel. Die Wahrheitsfunktion H↔ : {1, 0}2 → {1, 0} ist H↔ (1, 1) = H↔ (0, 0) = 1, H↔ (1, 0) = H↔ (0, 1) = 0. Die Äquivalenz ist offenbar aus ∧ und → definierbar durch (A → B) ∧ (B → A). Ferner ist es nützlich, noch das Falsum ⊥ als logische Konstante einzuführen. Es ist bestimmt durch die “nullstellige” Wahrheitsfunktion H⊥ := 0. Man kann dann etwa die Negation ¬ aus der Implikation → und dem Falsum ⊥ definieren durch ¬A := A → ⊥, denn es gilt H→ (1, H⊥ ) = H→ (1, 0) = 0 = H¬ (1), H→ (0, H⊥ ) = H→ (0, 0) = 1 = H¬ (0). Um auch allgemeine Aussagen machen zu können – etwa ∀x(e◦x = x) –, benötigen wir noch Variablen x, y, z, . . . . Dabei stellen wir uns vor, daß die Variablen über die Elemente unseres Individuenbereichs laufen. Der Termbegriff ist dann so zu erweitern, daß auch Variablen darin zugelassen sind. Mit A ist auch die Allformel ∀xA (gelesen “für alle x gilt A”) eine Formel. Hierbei wird im allgemeinen A eine Formel sein, in der die Variable x vorkommt. Schließlich ist mit A auch die Existenzformel ∃xA (gelesen “es gibt ein x mit A”) eine Formel. Man beachte, daß bei der üblichen klassischen (oder schwachen) Auffassung des “es gibt” ∃xA dasselbe bedeutet wie ¬∀x¬A, also ∃ auch durch ∀ und ¬ definiert werden kann. Wir werden auch noch eine konstruktive (oder starke) Auffassung des Existenzquantors besprechen, bei der dies nicht mehr der Fall ist. Man beachte ferner, daß die Verwendung der Quantoren ∀x und ∃x die Unterscheidung zwischen freien und gebundenen Vorkommen von Variablen notwendig macht. So ist etwa in ∀x(x ≤ x + y) das zweite und dritte Vorkommen der Variablen x gebunden, aber das einzige Vorkommen der Variablen y frei. Die letzte Formel kann man unter Erhalt ihrer Bedeutung auch umschreiben in ∀z(z ≤ z + y), denn dies ist nur eine Umbenennung der gebundenen Variablen. Ein ähnliches Phänomen ist aus der Analysis bekannt, wo ebenfalls Z Z 1 1 sin(ty) dt sin(xy) dx = 0 ist; x bzw. t kommen hier gebunden und y frei vor. 0 4 1. Logik Wir geben jetzt einige Beispiele zur Formalisierung mathematischer Aussagen. Als erstes betrachten wir die Axiome der Gruppentheorie. Grundbegriffe sind die Gruppenverknüpfung ◦ (ein zweistelliges Funktionssymbol), die Einheit e (eine Konstante), die Inversenbildung −1 (ein einstelliges Funktionssymbol) und schließlich die Gleichheit = (ein zweistelliges Relationssymbol). Als Axiome haben wir ∀x∀y∀z[x ◦ (y ◦ z) = (x ◦ y) ◦ z] (Assoziativität), ∀x[e ◦ x = x] (Linkseinheit), ∀x[x−1 ◦ x = e] (Linksinverses). Zwei Mengen sind gleich, wenn sie dieselben Elemente enthalten: ∀ ∃ x∈y x=y für alle Mengen es gibt eine Menge x ist ein Element von y x ist gleich y ∀x∀y(∀z.z ∈ x ↔ z ∈ y) → x = y. f ist stetig im Punkt a: f a, 0 ∀ ∃ x > y (x < y) d(x, y) einstelliges Funktionssymbol reelle Zahlen für alle reelle Zahlen es gibt eine reelle Zahl x ist größer (kleiner) als y der Abstand von x und y ∀ε.ε > 0 → ∃δ.δ > 0 ∧ ∀x.d(x, a) < δ → d(f (x), f (a)) < ε; hierfür schreibt man zur Abkürzung meist ∀ε>0∃δ>0∀x.d(x, a) < δ → d(f (x), f (a)) < ε. Es gibt eine gemeinsame obere Schranke für Summe und Produkt zweier positiver rationaler Zahlen: ∀ ∃ + · x≤y 2xy für alle positiven rationalen Zahlen es gibt eine positive rationale Zahl Addition Multiplikation x ist kleiner oder gleich y verdoppeltes Produkt von x und y ∀x∀y∃z.x + y ≤ z ∧ x · y ≤ z. Für positive rationale Zahlen x ≤ 1 und y ist y + 1 eine gemeinsame obere Schranke für ihre Summe und ihr Produkt: ∀x.x ≤ 1 → ∀y.x + y ≤ y + 1 ∧ x · y ≤ y + 1 oder kürzer ∀x≤1∀y.x + y ≤ y + 1 ∧ x · y ≤ y + 1. Für positive rationale Zahlen x, y > 1 ist 2xy eine gemeinsame obere Schranke für ihre Summe und ihr Produkt: ∀x.x 6≤ 1 → ∀y.y 6≤ 1 → [x + y ≤ 2xy ∧ x · y ≤ 2xy] oder kürzer ∀x6≤1∀y6≤ 1.x + y ≤ 2xy ∧ x · y ≤ 2xy. 1.1 Formale Systeme 5 Formale Sprachen Wir geben jetzt eine genaue Beschreibung der Sprachen der Logik erster Stufe. Gegeben sei eine abzählbar unendliche Menge { vi | i ∈ N } von Variablen; Mitteilungszeichen für Variable sind x, y, z. Eine Sprache L erster Stufe ist bestimmt durch ihre Signatur . Darunter versteht man folgendes. (n) – Für jede natürliche Zahl n ≥ 0 eine (eventuell leere) Menge RelL von n-stelligen Relationssymbolen (oder auch Prädikatensymbolen). 0-stellige Relationssymbole heißen Aussagensymbole. Wir nehmen an, daß ein spezielles Aussagensymbol ⊥ (gelesen “falsum” oder “bottom”) vorhanden ist. (n) – Für jede natürliche Zahl n ≥ 0 eine (eventuell leere) Menge FunL von n-stelligen Funktionssymbolen. Die 0-stelligen Funktionssymbole heißen Konstante. (n) (n) Wir setzen voraus, daß die Menge der Variablen und alle Mengen RelL und FunL paarweise disjunkt sind. Zum Beispiel ist die Sprache LG der Gruppentheorie bestimmt durch die Signatur bestehend aus den Funktionssymbolen ◦, e,−1 (2-, 0- bzw. 1-stellig) und dem 2-stelligen Relationssymbol =. L-Terme werden induktiv wie folgt definiert. – Jede Variable ist ein L-Term. – Jede Konstante von L ist ein L-Term. – Sind t1 , . . . , tn L-Terme und ist f ein n-stelliges Funktionssymbol von L mit n ≥ 1, so ist f (t1 , . . . , tn ) ein L-Term. Mit TerL bezeichnen wir die Menge der L-Terme. Für jeden L-Term t definieren wir wie folgt die Menge vars(t) aller Variablen, die in dem Term auftreten. – Ist t eine Variable, so ist vars(t) := {t}. – Ist t eine Konstante von L, so ist vars(t) := ∅. – Sind t1 , . . . , tn L-Terme und ist f ein n-stelliges Funktionssymbol von L, so ist vars(f (t1 , . . . , tn )) := vars(t1 ) ∪ . . . ∪ vars(tn ). Ist vars(t) = ∅, so heißt der Term t geschlossen oder Grundterm. Zweistellige Funktionssymbole werden meist in Infix -Schreibweise verwendet. Man schreibt dann x+y statt +(x, y). Klammern werden so gesetzt, daß sich die Struktur eines Terms eindeutig ergibt. Statt f (t1 , . . . , tn ) schreiben wir oft auch f t1 . . . tn . Terme der Sprache der Gruppentheorie, also LG -Terme, sind dann zum Beispiel e, x ◦ e und (x−1 ◦ y −1 )−1 . Aus L-Termen erhält man jetzt sehr einfach L-Primformeln oder atomare Formeln von L: Sind t1 , . . . , tn L-Terme und ist R ein n-stelliges Relationssymbol von L, so ist R(t1 , . . . , tn ) eine L-Primformel; insbesondere ist ⊥ eine L-Primformel. Auch zweistellige Relationssymbole werden meist in Infix -Schreibweise verwendet. Man schreibt dann x < y statt <(x, y). Klammern werden so gesetzt, daß sich die Struktur einer atomaren Formel eindeutig ergibt. Statt R(t1 , . . . , tn ) schreiben wir oft Rt1 . . . tn . L-Formeln werden aus L-Primformeln wieder induktiv definiert durch – Jede L-Primformel ist eine L-Formel. – Sind A und B L-Formeln, so auch (A ∧ B) und (A → B). – Ist A eine L-Formel und x eine Variable, so ist ∀xA eine L-Formel. Für jede L-Formel A definieren wir wie folgt die Menge FV(A) aller in A freien Variablen. FV(R(t1 , . . . , tn )) := vars(t1 ) ∪ . . . ∪ vars(tn ), FV(A ∧ B) := FV(A) ∪ FV(B), FV(A → B) := FV(A) ∪ FV(B), FV(∀xA) := FV(A) \ {x}. Falls FV(A) = ∅, so heißt A geschlossene Formel oder Satz . Wir schreiben A[x], um mitzuteilen, daß alle freien Variablen von A in der Liste x enthalten sind. 6 1. Logik Wir beschränken uns hier der Einfachheit halber auf die logischen Symbole ∧, → und ∀, da Negation, Disjunktion, Äquivalenz und der Existenzquantor daraus definierbar sind, und zwar durch ¬A := A → ⊥, A ∨ B := ¬(¬A ∧ ¬B), A ↔ B := (A → B) ∧ (B → A), ∃xA := ¬∀x¬A. Wir schreiben t 6= s für ¬(t = s) und t 6< s für ¬(t < s). Klammern werden so gesetzt, daß sich die Struktur einer Formel eindeutig ergibt. Um Klammern zu sparen, vereinbaren wir folgendes. 1. Der Wirkungsbereich von ¬ und ∀x ist so klein wie möglich. Beispiele: ¬A ∧ B ∀xA → B meint (¬A) ∧ B, nicht ¬(A ∧ B). meint (∀xA) → B, nicht ∀x(A → B). 2. Der Wirkungsbereich von ∧ und ∨ ist so klein wie möglich, unter Berücksichtigung von (1). Beispiel: ¬A ∧ B → C meint ((¬A) ∧ B) → C. 3. Bei wiederholter Anwendung einer Verknüpfung ist stets Rechtsklammerung gemeint. Beispiel: A→B→C meint A → (B → C). 4. Schreibt man hinter ∀x einen Punkt, so ist der Wirkungsbereich von ∀x ist so groß wie möglich. Beispiel: ∀x.A → B meint ∀x(A → B), nicht (∀xA) → B. Als Mitteilungszeichen verwenden wir (auch mit Indizes) r, s, t x, y, z c P, Q, R f, g, h A, B, C, D für für für für für für Terme Variablen Konstanten Relationssymbole Funktionssymbole Formeln Im folgenden sei die Sprache L fest gewählt. Wir lassen deshalb den Bezug auf L weg und sprechen kurz von Termen und Formeln statt von L-Termen und L-Formeln. Der Einfachheit halber identifizieren wir Formeln, die sich nur durch gebundene Umbenennung unterscheiden. Dann läßt sich die Substitution A[x := t] eines Terms t für eine Variable x besonders einfach definieren. Definition 1.1.1. Für Terme r und t definieren wir das Ergebnis der Substitution von t für x in r wie folgt durch Induktion über den Aufbau von r. ( t falls x = y y[x := t] := y sonst c[x := t] := c f (t1 , . . . , tn )[x := t] := f (t1 [x := t], . . . , tn [x := t]) Für Formeln A und Terme t definieren wir das Ergebnis der Substitution von t für x in A wie folgt durch Induktion über den Aufbau von A. R(t1 , . . . , tn )[x := t] := R(t1 [x := t], . . . , tn [x := t]) (A ∧ B)[x := t] := A[x := t] ∧ B[x := t] (A → B)[x := t] := A[x := t] → B[x := t] (∀yA)[x := t] := ∀yA[x := t], 6 x und y 6∈ vars(t). wobei oBdA y = 1.2 Beweise 7 1.2 Beweise Wir wollen jetzt den Begriff einer logischen Herleitung einer Formel A definieren. Dazu verwenden wir ein System des “natürlichen Schließens”, das von 1934 von Gentzen eingeführt wurde. Seine besondere Eigenart ist es, daß für jede logische Verknüpfung Einführungs- und Beseitigungsregeln vorhanden sind. Wir beginnen mit einigen Beispielen für natürliche Beweise. Gegeben sei also eine Sprache L erster Stufe. Der Einfachheit halber betrachten wir Beweise in der reinen Logik, d.h. ohne Annahmen über die Funktionen und Relationen. (A ∧ B → C) → (A → (B → C)). (1.1) Beweis. Gelte A ∧ B → C. Zu zeigen: A → (B → C). Gelte also A. Zu zeigen: B → C. Gelte also B. Zu zeigen: C. Wir haben A ∧ B, nach den letzten beiden Annahmen. Also auch C, nach der ersten Annahme. u t (A → (B → C)) → (A ∧ B → C). (1.2) Beweis. Gelte A → (B → C). Zu zeigen: A ∧ B → C. Gelte also A ∧ B. Zu zeigen: C. Wir haben A, nach der letzten Annahme. Also auch B → C, nach der ersten Annahme. Wir haben B, wieder nach der u t letzten Annahme. Daher auch C, nach den letzten beiden Aussagen. (∀x.A → B) → (A → ∀xB), falls x ∈ / FV(A). (1.3) Beweis. Gelte ∀x.A → B. Zu zeigen: A → ∀xB. Gelte also A. Zu zeigen: ∀xB. Sei x beliebig; man beachte, daß wir bisher keine Annahmen über x gemacht haben. Zu zeigen: B. Wir haben A → B, nach u t der ersten Annahme. Also auch B, nach der zweiten Annahme. (A → ∀xB) → ∀x.A → B, falls x ∈ / FV(A). (1.4) Beweis. Gelte A → ∀xB. Zu zeigen: ∀x.A → B. Sei x beliebig; man beachte, daß wir bisher keine Annahmen über x gemacht haben. Zu zeigen: A → B. Gelte also A. Zu zeigen: B. Wir haben ∀xB, nach der ersten und zweiten Annahme. Also auch B. u t Ein Charakteristikum dieser Beweise ist es, daß Annahmen eingeführt und wieder beseitigt werden: Zu jedem Zeitpunkt im Beweis kennt man die jetzt freien Annahmen. Wir reservieren das Wort Beweis für einen informalen Kontext (oder die “Meta-Stufe”); eine formale Darstellung eines Beweises nennen wir Herleitung oder Ableitung. Eine anschauliche Art, Herleitungen zu definieren, besteht darin, sie als beschriftete Bäume aufzufassen. Die Beschriftungen der inneren Knoten sind Formeln, die der Blätter sind Formeln oder Terme. Die Beschriftungen der Nachfolger eines Knotens ν sind die Prämissen einer Regelanwendung, die Formel am Knoten ν ist ihre Konklusion. An der Wurzel des Baums befindet sich die Konklusion der gesamten Herleitung. Im natürlichen Schließen arbeitet man mit Annahmen, die an Blättern des Baums stehen; sie können offen oder geschlossen (man sagt auch: gestrichen) sein. Jede dieser Annahmen ist mit einer Marke versehen. Als Marken verwenden wir Annahmenvariablen 0 , 1 , . . . ; Mitteilungszeichen für Annahmenvariablen sind u, v, w, u0 , u1 , . . . . Die (bisherigen) Variablen nennen wir oft auch Objektvariablen, um sie von den Annahmenvariablen zu unterscheiden. Wenn an einer späteren Stellen (d.h. an einem Knoten im Baum unterhalb einer solchen Annahme) die Abhängigkeit von dieser Annahme beseitigt wird, notieren wir dies durch Angabe der Annahmenvariablen. Da wir dieselbe Annahme auch mehrfach verwenden können (dies war etwa im Beispiel 1.2 der Fall), darf in einem Baum eine mit u markierte Annahme A (mitgeteilt durch u : A) auch mehrfach vorkommen. Wir verlangen jedoch, daß verschiedene Annahmeformeln stets verschiedene Marken bekommen. Einen inneren Knoten im Baum verstanden wir als Resultat eines Übergangs von Prämissen zu einer Konklusion. Die zulässigen Übergänge werden durch die Regeln bestimmt. Die Beschriftung des Knotens enthält dann neben der Konklusion noch den Namen der verwendeten Regel. In manchen Fällen bindet eine Regel eine Annahmenvariable u (und beseitigt damit die Abhängigkeit von allen darüber stehenden, 8 1. Logik mit u markierten Annahmen u : A) oder eine Objektvariable x (und beseitigt damit die Abhängigkeit von x). Dann wird die abgebundene Annahmen- oder Objektvariable der Beschriftung hinzugefügt. Wir geben jetzt die Regeln des natürlichen Schließens an. Zunächst haben wir eine Annahmeregel, die es gestattet, eine beliebige mit einer Marke u versehene Formel A als Annahme hinzuschreiben: u: A Annahme Die restlichen Regeln des natürlichen Schließens gliedern sich in Einführungs- und Beseitigungsregeln für die logischen Verknüpfungen ∧, → und ∀. Für die Konjuktion ∧ haben wir eine Einführungsregel ∧+ und − zwei Beseitigungsregeln ∧− 0 und ∧1 . D D A∧B − A∧B − ∧0 ∧1 A B Für die Implikation → gibt es eine Einführungsregel →+ u und eine Beseitigungsregel →− , die man auch modus ponens nennt. Die linke Prämisse A → B in →− nennt man Hauptprämisse, die rechte Prämisse A Nebenprämisse. Man beachte, daß bei Anwendung einer →+ u-Regel alle darüber stehenden mit u markierten Annahmen A gestrichen werden. D0 D1 A B + ∧ A∧B [u : A] D0 D1 D A→B A →− B B →+ u A→B Für den Allquantor ∀ gibt es eine Einführungsregel ∀+ x und eine Beseitigungsregel ∀− , die als rechte Prämisse den zu substituierenden Term t hat. Die Regel ∀+ x unterliegt der folgenden Variablenbedingung: Die Herleitung D der Prämisse A darf keine offenen Annahmen enthalten, in denen x frei vorkommt. D ∀xA t − ∀ A[x := t] D A ∀+ x ∀xA Wir geben Herleitungen für die oben bewiesenen Formeln (1.1) – (1.4) an. Da meist die verwendete Regel durch die an den Knoten stehenden Formeln bestimmt ist, verzichten wir im allgemeinen auf die Angabe der Regel. v: A w: B u: A ∧ B → C A∧B C →+ w B→C →+ v A → (B → C) →+ u (A ∧ B → C) → (A → (B → C)) u : A → (B → C) B→C v: A ∧ B A v: A ∧ B B C →+ v A∧B →C →+ u (A → (B → C)) → (A ∧ B → C) u : ∀x.A → B A→B (1.1) (1.2) x v: A B x ∀xB →+ v A → ∀xB →+ u (∀x.A → B) → (A → ∀xB) (1.3) 1.2 Beweise 9 Hier ist zu beachten, daß die Variablenbedingung erfüllt ist: x kommt nicht frei in A (und auch nicht frei in ∀x.A → B) vor. u : A → ∀xB ∀xB v: A x B + → v A→B x ∀x.A → B →+ u (A → ∀xB) → ∀x.A → B (1.4) Auch hier ist die Variablenbedingung erfüllt: x kommt nicht frei in A vor. Wir schreiben `A und nennen A herleitbar (in der Minimallogik ), wenn es eine Herleitung von A ohne freie Annahmen gibt. Eine Formel B heißt herleitbar aus den Annahmen A1 , . . . , An , wenn es eine Herleitung mit freien Annahmen unter A1 , . . . , An gibt. Sei Γ eine (endliche oder unendliche) Menge von Formeln. Wir schreiben Γ ` B, wenn die Formel B aus endlich vielen Annahmen A1 , . . . , An ∈ Γ herleitbar ist. Sequenzenformulierung des natürlichen Schließens Um die an einem Knoten ν eines Herleitungsbaums freien Annahmen zu finden, muß man die Annahmen an den Blättern oberhalb von ν durchsuchen. Diejenigen davon, deren Marke nicht zwischen dem Blatt und ν gestrichen wurde, sind an dem Knoten ν frei. Obwohl schreibtechnisch aufwendig ist es für manche metamathematischen Untersuchungen bequem, die an einem Knoten freien Annahmen explizit mitzuführen. Man nennt die Menge der an einem Knoten freien Annahmen den Kontext. Ein Kontext ist also eine Menge {u1 : A1 , u2 : A2 , . . . , un : An } mit paarweise verschiedenen ui . Die Ai brauchen nicht verschieden zu sein; dies entspricht der Tatsache, daß in einer natürlichen Herleitung dieselbe Annahmeformel mehrmals mit verschiedenen Marken vorkommen kann. Die Herleitungen werden dann Bäume, an denen jeder Knoten beschriftet ist mit einer Sequenz der Form Γ ⇒ B, wobei Γ ein Kontext ist. Mit Γ, ∆ oder auch Γ ∆ bezeichnen wir die Vereinigung Γ ∪ ∆. Die Verwendung dieser Bezeichnung soll stets die Voraussetzung implizieren, daß die Vereinigung konsistent, also wieder ein Kontext ist. u: A ⇒ A Annahme Γ ⇒A ∆⇒B + ∧ Γ∆ ⇒ A ∧ B Γ ⇒B →+ u Γ \ {u : A} ⇒ A → B Γ ⇒A ∀+ Γ ⇒ ∀xA Γ ⇒A∧B − ∧0 Γ ⇒A Γ ⇒A∧B − ∧1 Γ ⇒B ∆⇒A − Γ ⇒A→B → Γ∆ ⇒ B t − Γ ⇒ ∀xA ∀ Γ ⇒ A[x := t] Die Variablenbedingung bei der Regel ∀+ ist jetzt einfach, daß x nicht frei in einer der Formeln des Kontexts Γ vorkommt. Intuitionistischen und klassische Logik In unserer →∧∀-Sprache erhalten wir die intuitionistische Logik , indem wir gewisse zusätzliche Annahmen verwenden, und zwar die sogenannten Ex-Falso-Quodlibet-Formeln (oder “Axiome”) EfqR für jedes von ⊥ verschiedene Relationssymbol R ∀x.⊥ → Rx (EfqR ) Ähnlich erhält man die klassische Logik : wir nehmen für jedes jedes von ⊥ verschiedene Relationssymbol R das Prinzip des indirekten Beweisens für R als zusätzliche Annahme hinzu, also die Formel ∀x.¬¬Rx → Rx; diese Formel bezeichnet man auch als Stabilität von R. (StabR ) 10 1. Logik Man beachte, daß mit ⊥ für R beide Formeln trivialerweise herleitbar sind; z.B. für die Stabilität haben wir ¬¬⊥ → ⊥ = ((⊥ → ⊥) → ⊥) → ⊥. Die gesuchte Herleitung ist v : (⊥ → ⊥) → ⊥ ⊥ u: ⊥ →+ u ⊥→⊥ Sei Efq := { EfqR | R Relationssymbol 6= ⊥ }, Stab := { StabR | R Relationssymbol = 6 ⊥ }. Wir nennen die Formel A klassisch (intuitionistisch) herleitbar und schreiben `c A (`i A), wenn es eine Herleitung von A aus Stabilitätsannahmen StabR (Ex-Falso-Quodlibet Annahmen EfqR ) gibt. Ebenso definieren wir klassische (intuitionistische) Herleitbarkeit aus Γ und schreiben Γ `c A (Γ `i A), also Γ `i A :⇐⇒ Γ ∪ Efq ` A, Γ `c A :⇐⇒ Γ ∪ Stab ` A. Lemma 1.2.1. (Ex-falso-quodlibet). Für jede Formel A gilt `i ⊥ → A. Beweis. Durch Induktion über A konstruieren wir für jede Formel A eine Herleitung DA von ⊥ → A. Fall Rt. Mit EfqR . Fall A ∧ B. DA ⊥→A A u: ⊥ DB ⊥→B B u: ⊥ A∧B →+ u ⊥→A∧B Fall A → B. DB ⊥→B u: ⊥ B A→B →+ u ⊥→A→B Fall ∀xA. DA ⊥→A u: ⊥ A ∀xA →+ u ⊥ → ∀xA u t Lemma 1.2.2. (Stabilität). Für jede Formel A (unserer →∧∀-Sprache) gilt `c ¬¬A → A. Beweis. Induktion über A. In den konstruierten Herleitungen lassen wir der Kürze halber Anwendungen von →+ am Schluß fort. Fall Rt. Mit StabR . Fall A ∧ B. Mit ` (¬¬A → A) → (¬¬B → B) → ¬¬(A ∧ B) → A ∧ B, was leicht aus ` ¬¬(A ∧ B) ↔ (¬¬A ∧ ¬¬B) folgt. Fall A → B. Mit ` (¬¬B → B) → ¬¬(A → B) → A → B. Eine Herleitung ist u2 : A → B B ⊥ →+ u2 ¬(A → B) w: A u1 : ¬B v : ¬¬(A → B) u : ¬¬B → B B ⊥ →+ u1 ¬¬B Fall ∀xA. Offenbar genügt es zu zeigen, daß ` (¬¬A → A) → ¬¬∀xA → A. Eine Herleitung ist 1.2 Beweise u1 : ¬A v : ¬¬∀xA u : ¬¬A → A A u2 : ∀xA A 11 x ⊥ →+ u2 ¬∀xA u t ⊥ →+ u1 ¬¬A Lemma 1.2.3. Γ ` A =⇒ Γ `i A und Γ `i A =⇒ Γ `c A. Beweis. Es genügt zu zeigen, daß `c EfqR . Dies sieht man wie folgt; R sei etwa einstellig. ∀x.¬¬Rx → Rx ¬¬Rx → Rx x u: ⊥ + ¬Rx ¬¬Rx → v u t Rx →+ u ⊥ → Rx ∀+ ∀x.⊥ → Rx Die Umkehrungen gelten jedoch nicht; Gegenbeispiele sind: 6 ⊥ → P, ` 6`i ((P → Q) → P ) → P, aber `i ⊥ → P , aber `c ((P → Q) → P ) → P `i ⊥ → P folgt aus Lemma 1.2.1, und die Peirce-Formel ((P → Q) → P ) → P läßt sich leicht klassisch herleiten. Die negative Aussagen erfordern ein genaueres Studium der Herleitbarkeit. Wir werden in Abschnitt 1.4 einen Beweis geben. Lemma 1.2.4. (Fallunterscheidung). `c (A → B) → (¬A → B) → B. Beweis. w : ¬B DStab ¬¬B → B w : ¬B B u2 : ¬A → B B u1 : A → B B ⊥ →+ v ¬A v: A ⊥ →+ w ¬¬B wobei DStab gemäß dem Stabilitätslemma 1.2.2 gewählt ist. u t Wir nennen zwei Formeln A und B äquivalent in der Minimallogik bzw. in der klassischen oder intuitionistischen Logik, wenn ` A ↔ B bzw. `c A ↔ B oder `i A ↔ B. Lemma 1.2.5. (Äquivalenzlemma). Für `mic ∈ {`, `i , `c } gilt folgendes. Ist `mic A1 ↔ A2 und entsteht B2 aus B1 durch Ersetzen eines Teils A1 von B1 durch A2 , so gilt auch `mic B1 ↔ B2 . Beweis. Induktion über B1 . Falls ganz B1 ersetzt wird, so ist die Behauptung klar. Andernfalls muß B1 eine zusammengesetzte Formel sein. Fall C1 ∧ D1 . Die Ersetzung finde etwa in C1 statt. Zu zeigen ist dann `mic C1 ∧ D1 ↔ C2 ∧ D1 . →: D C1 → C2 C2 C1 ∧ D1 C1 C1 ∧ D1 D1 C 2 ∧ D1 wobei D nach IH bekannt ist. ← beweist man ähnlich. Fall C1 → D1 . Falls die Ersetzung in C1 stattfindet, ist zu zeigen `mic (C1 → D1 ) ↔ (C2 → D1 ). →: 12 1. Logik D C2 → C1 C1 C1 → D1 u : C2 D1 →+ u C2 → D1 wobei wieder D nach IH bekannt ist. ← beweist man ähnlich. Falls die Ersetzung in D1 stattfindet, ist zu zeigen `mic (C1 → D1 ) ↔ (C1 → D2 ). →: C1 → D1 D1 D D1 → D2 u : C1 D2 →+ u C1 → D2 wobei wieder D nach IH bekannt ist. ← beweist man ähnlich. Fall ∀xC1 . Zu zeigen ist `mic ∀xC1 ↔ ∀xC2 . →: D C1 → C2 ∀xC1 C1 x C2 ∀xC2 wobei wieder D nach IH bekannt ist. Man beachte, daß D keine freien Annahmen enthält. ← beweist u t man ähnlich. Einbettung der intuitionistischen und klassischen Logik in die Minimallogik Nachdem wir die klassische und die intuitionistische Logik definiert haben, wollen wir jetzt zeigen, daß beide Logiken in die Minimallogik eingebettet werden können. Dies mag verwunderlich erscheinen; es folgt wesentlich aus der Tatsache, daß wir uns auf eine Sprache beschränkt haben, die nur die Verknüpfungen {→, ∧, ∀} enthält. Eine Formel A (unserer →∧∀-Sprache) heißt negativ , wenn jede atomare Formel 6= ⊥ in A negiert vorkommt, d.h. in einem Kontext Rt → ⊥. Lemma 1.2.6. Für negative A gilt ` ¬¬A → A. Beweis. Dies beweist man wie das Stabilitätslemma 1.2.2 durch Induktion über A, wobei man anstelle t u der Stabilitätsannahmen verwendet ` ¬¬¬Rt → ¬Rt. Definition 1.2.7. (Negative Übersetzung g nach Gödel-Gentzen). 6 ⊥, Rtg := ¬¬Rt für R = g ⊥ := ⊥, (A ∧ B)g := Ag ∧ B g , (A → B)g := Ag → B g , (∀xA)g := ∀xAg . Satz 1.2.8. Für alle Formeln A gilt 1. `c A ↔ Ag , 2. Γ `c A genau dann, wenn Γ g ` Ag , wobei Γ g := { B g | B ∈ Γ }. Beweis. Der erste Teil folgt sofort aus dem Äquivalenzlemma 1.2.5. Für den zweiten Teil ist die Richtung von rechts nach links klar. Für die andere Richtung argumentieren wir durch Induktion nach der klassischen Herleitung. Für eine Stabilitätsannahme ¬¬Rt → Rt gilt (¬¬Rt → Rt)g = ¬¬¬¬Rt → ¬¬Rt, und dies ist leicht herleitbar. Fall →+ . Gelte 1.2 Beweise 13 [u : A] D B →+ u A→B Dann haben wir nach IH u : Ag Dg Bg [u : Ag ] Dg Bg →+ u g A → Bg also Fall →− . Gelte D0 A→B B D1 A Dann haben wir nach IH D0g Ag → B g D1g Ag D0g Ag → B g Bg also D1g Ag Die restlichen Fälle behandelt man ähnlich. u t Korollar 1.2.9. (Einbettung der klassischen Logik in die Minimallogik). Für negative A gilt `c A genau dann, wenn ` A. Beweis. Nach dem Satz haben wir `c A genau dann, wenn ` Ag . Da A negativ ist, muß jedes Atom 6= ⊥ in A negiert vorkommen, ist also in Ag dreifach negiert (als ¬¬¬Rt). Die Behauptung folgt aus ` ¬¬¬Rt ↔ ¬Rt. u t Da jede Formel klassisch äquivalent zu einer negativen Formel ist, haben wir damit eine Einbettung der klassischen in die Minimallogik erreicht. Man beachte, daß 6` ¬¬P → P (wie wir in Abschnitt 1.4 zeigen werden). Das Korollar gilt also nicht für alle Formeln A. Abgeleitete Regeln für Disjunktion und Existenz Disjunktion und Existenz hatten wir definiert durch A ∨ B := ¬(¬A ∧ ¬B), ∃xA := ¬∀x¬A. Herleitungen von Formeln mit ∨, ∃ lassen sich jedoch oft leichter finden, wenn man nicht auf diese Definitionen zurückgeht, sondern direkt mit “abgeleiteten Regeln” für ∨, ∃ arbeitet. Darunter verstehen wir die folgenden Regeln. + − Für die Disjunktion ∨ gibt es zwei Einführungsregeln ∨+ 0 , ∨1 und eine Beseitigungsregel ∨ uv. D A A∨B ∨+ 1 D B A∨B [u : A] D0 C C D A∨B ∨+ 0 [v : B] D1 C − ∨ uv Für den Existenzquantor ∃ gibt es eine Einführungsregel ∃+ , die als rechte Prämisse den zu substituierenden Term t hat, und eine Beseitigungsregel ∃− u. Die Regel ∃− u unterliegt der folgenden Variablenbedingung: Die Herleitung D0 darf keine offenen Annahmen außer u : A enthalten, in denen x frei vorkommt, und ferner darf B die Variable x nicht frei enthalten. D A[x := t] ∃xA t ∃+ D ∃xA B [u : A] D0 B − ∃ u 14 1. Logik Der doppelte Strich deutet hierbei an, daß es sich nicht um eine primitive Regel unserer Logik handelt, sondern daß man an dieser Stelle einen Herleitungsteil so einsetzen kann, daß eine korrekt gebildete Herleitung entsteht. Wir geben im folgenden für jede der abgeleiteten Regeln den einzusetzenden Herleitungsteil an. Man beachte, daß es sich um Herleitungen in der klassischen Logik handelt, da Stabilitätsannahmen verwendet werden. + ∨+ 0 (∨1 wird entsprechend behandelt): D u : ¬A ∧ ¬B ¬A A ⊥ →+ u ¬(¬A ∧ ¬B) ∨− uv: [v : B] D1 C w : ¬C ⊥ ⊥ + → u →+ v ¬A ¬B ¬A ∧ ¬B w : ¬C DStab ¬¬C → C [u : A] D0 C D ¬(¬A ∧ ¬B) ⊥ →+ w ¬¬C C + ∃ : ∃− u: D u : ∀x¬A t A[x := t] ¬A[x := t] ⊥ →+ u ¬∀x¬A v : ¬B DStab ¬¬B → B D ¬∀x¬A [u : A] D0 B ⊥ →+ u ¬A ∀x¬A ⊥ →+ v ¬¬B B Als Alternative kann man ebenfalls den Komfort der abgeleiteten Regeln für ∨, ∃ erhalten, indem man die folgenden (ableitbaren) Schemata als Axiome benutzt. A → A ∨ B, B → A ∨ B. A ∨ B → (A → C) → (B → C) → C. A → ∃xA. ∃xA → (∀x.A → B) → B, falls x ∈ / FV(B). Konjunktive und disjunktive Normalform Lemma 1.2.10. (Assoziativität, Kommutativität und Distributivität von ∧ und ∨). 1. 2. 3. 4. 5. 6. `c `c `c `c `c `c A ∧ (B ∧ C) ↔ (A ∧ B) ∧ C. A ∨ (B ∨ C) ↔ (A ∨ B) ∨ C. A ∧ B ↔ B ∧ A. A ∨ B ↔ B ∨ A. A ∧ (B ∨ C) ↔ (A ∧ B) ∨ (A ∧ C). A ∨ (B ∧ C) ↔ (A ∨ B) ∧ (A ∨ C). 1.2 Beweise Beweis. Übung. 15 u t Lemma 1.2.11. 1. ( de Morgan-Äquivalenzen). `c ¬(A ∧ B) ↔ ¬A ∨ ¬B, `c ¬(A ∨ B) ↔ ¬A ∧ ¬B. 2. (→ aus ¬, ∧ bzw. ¬, ∨). `c (A → B) ↔ ¬(A ∧ ¬B), `c (A → B) ↔ ¬A ∨ B. 3. (Tertium non datur). `c A ∨ ¬A. Beweis. 1. Die Behauptung ergibt sich aus der Definition von ∨, dem Stabilitätslemma 1.2.2 und dem Äquivalenzlemma 1.2.5. 2. `c (A → B) ↔ ¬(A ∧ ¬B). →. v : A ∧ ¬B ¬B u: A → B B ⊥ ←. u : ¬(A ∧ ¬B) DStab ¬¬B → B B →+ v A→B `c (A → B) ↔ ¬A ∨ B. →. v: A w : ¬B A ∧ ¬B ⊥ →+ w ¬¬B DStab ¬¬A → A u: A → B v : ¬¬A ∧ ¬B ¬B v : A ∧ ¬B A A v : ¬¬A ∧ ¬B ¬¬A B ⊥ ←. Hier kann man die abgeleitete Regel ∨− verwenden; ferner benötigt man das Ex-Falso-QuodlibetLemma 1.2.1. 3. Dies ergibt sich sofort aus der Definition von ∨: u : ¬A ∧ ¬¬A ¬¬A ⊥ u : ¬A ∧ ¬¬A ¬A u t Zur Formulierung des nächsten Satzes benötigen wir den Begriff der Quantorentiefe qt(A) einer Formel A; er ist durch Rekursion über A definiert wie folgt. qt(Rt) := 0, qt(A ∧ B) := max(qt(A), qt(B)) + 1, qt(A → B) := max(qt(A), qt(B)) + 1, qt(∀xA) := qt(A) + 1. Satz 1.2.12. (Konjunktive und disjunktive Normalform). 1. Jede Formel A ist klassisch äquivalent zu einer Formel der Gestalt n n W V V Wi Aij ( konjunktive Normalform), i=1 j=1 wobei die Aij aussagenlogisch unzerlegbare Formeln (d.h. atomare Formeln oder von der Form ∀xA) oder Negationen davon sind, und qt(Aij ) ≤ qt(A). 16 1. Logik 2. Jede Formel ist A klassisch äquivalent zu einer Formel der Gestalt n n V W W Vi ( disjunktive Normalform), Aij i=1 j=1 wobei wieder die Aij aussagenlogisch unzerlegbare Formeln oder Negationen davon sind, und qt(Aij ) ≤ qt(A). Beweis. Wir zeigen (1) und (2) gemeinsam durch Induktion über die gegebene Formel, unter Verwendung des Äquivalenzlemmas 1.2.5. Fall Atomare Formel, ∀xA. In diesem Fall ist nichts zu zeigen. Fall A ∧ B. Für (1) verwendet man die konjunktiven Normalformen von A und von B. (2) ergibt sich aus den disjunktiven Normalformen von A und von B durch Ausdistribuieren. Fall A → B. Die Behauptung ergibt sich aus `c (A → B) ↔ ¬A ∨ B und den de Morgan-Äquivalenzen, und zwar für (1) unter Verwendung der disjunktiven Normalform von A und der konjunktiven Normalform von B und für (2) unter Verwendung der konjunktiven Normalform von A und der disjunkt u tiven Normalform von B, wobei in (1) noch auszudistribuieren ist. Eine konjunktive Normalform von A (die offenbar nicht eindeutig bestimmt ist) nennt man auch eine Klauselform von A. Da eine Konjunktion genau dann herleitbar ist, wenn dies für jedes Konjunktionsglied gilt, kann man sich also bei der Suche nach Herleitungen von Formeln auf sogenannte Klauseln, also Disjunktionen von aussagenlogisch unzerlegbaren Formeln beschränken. Man beachte, daß die Herstellung etwa der konjunktiven Normalform einer gegebenen Formel im allgemeinen exponentiell viele (in der Länge der Formel) Rechenschritte erfordert, da bei den Distributivgesetzen Formeln dupliziert werden. Pränexe Normalform / FV(A). Dann gilt Lemma 1.2.13. (Herausziehen von Quantoren). Sei x ∈ 1. 2. 3. 4. 5. 6. `c `c `c `c `c `c A ∧ ∀xB ↔ ∀x.A ∧ B. A ∧ ∃xB ↔ ∃x.A ∧ B. (A → ∀xB) ↔ ∀x.A → B. (A → ∃xB) ↔ ∃x.A → B. (∀xB → A) ↔ ∃x.B → A. (∃xB → A) ↔ ∀x.B → A. Beweis. Wir behandeln hier und im folgenden die abgeleiteten Regeln für ∃ und ∨ wie gewöhnliche Regeln. (1) ist sehr leicht zu zeigen. (2) →. u: A v : ∃xB ←. u : ∃x.A ∧ B A u0 : B A∧B x ∃x.A ∧ B − ∃ u0 ∃x.A ∧ B u0 : A ∧ B A − ∃ u0 u : ∃x.A ∧ B ∃xB u1 : A ∧ B B ∃xB x ∃− u1 A ∧ ∃xB (3) Dies hatten wir in (1.3) und (1.4) gezeigt. (4) →. Hier helfen die abgeleiteten Regeln für ∃ nicht; wir müssen auf die Definition von ∃ zurückgehen. Ferner ist es nützlich, sich an die (klassische) Äquivalenz von ¬(A → B) mit A ∧ ¬B zu erinnern. Wir führen den Beweis informal, und zwar so daß klar ist, wie man daraus (unter Zuhilfenahme des Äquivalenzlemmas 1.2.5) eine formale Herleitung gewinnen kann. Gelte also (*) A → ¬∀x¬B und (**) ∀x.A ∧ ¬B. Aus (**) erhält man A, also aus (*) ¬∀x¬B. Aus (**) erhält man auch ∀x¬B, also insgesamt ⊥, wie gewünscht. 1.2 Beweise (4) ←. u0 : A → B B u : ∃x.A → B 17 u1 : A x ∃xB − ∃ u0 ∃xB →+ u1 A → ∃xB (5) →. Hier helfen wieder die abgeleiteten Regeln für ∃ nicht; wir müssen auf die Definition von ∃ zurückgehen. Ferner ist es wieder nützlich, die (klassische) Äquivalenz von ¬(B → A) mit B ∧ ¬A zu verwenden. Wir führen den Beweis wieder informal. Gelte also (*) ∀xB → A und (**) ∀x.B ∧ ¬A. Aus (**) erhält man ∀xB, also aus (*) A. Aus (**) erhält man auch ¬A, also insgesamt ⊥, wie gewünscht. (5) ←. u1 : ∀xB x B u0 : B → A A − u : ∃x.B → A ∃ u0 A →+ u 1 ∀xB → A (6) →. u0 : B x ∃xB u : ∃xB → A A →+ u0 B→A ∀+ ∀x.B → A (6) ←. x u : ∀x.B → A B→A u1 : B u t v : ∃xB A − ∃ u1 A Eine Formel A heißt pränex , wenn A = Q1 x1 Q2 x2 . . . Qn xn B mit Qi ∈ {∀, ∃} und B quantorenfrei. B heißt der Kern von A und Q1 x1 Q2 x2 . . . Qn xn das Präfix von A. Wir zeigen jetzt, daß sich jede Formel in eine pränexe Normalform bringen läßt. Satz 1.2.14. (Pränexe Normalform). Zu jeder Formel A findet man eine klassisch äquivalente pränexe Formel A0 . Beweis. Induktion über A. Fall Atomare Formel. In diesem Fall ist nichts zu zeigen. Fall A ∧ B. Nach IH haben wir `c A ↔ A0 und `c B ↔ B 0 mit A0 = Q1 x1 . . . Qn xn A0 , 0 B = Q∗1 y1 . . . Q∗m ym B0 , A0 quantorenfrei, B0 quantorenfrei. Wir können oBdA annehmen, daß kein xi in B 0 und kein yj in A0 vorkommt. Nach dem Lemma 1.2.13 über das Herausziehen von Quantoren und dem Äquivalenzlemma 1.2.5 folgt ∗ `c A ∧ B ↔ Q1 x1 . . . Qn xn Q1∗ y1 . . . Qm ym .A0 ∧ B0 . Fall A → B. Wie eben erhält man `c (A → B) ↔ Q1 x1 . . . Qn xn Q∗1 y1 . . . Q∗m ym .A0 ∧ B0 . wobei Qi = ∀ falls Qi = ∃, und Qi = ∃ falls Qi = ∀. Fall ∀xA. Nach IH haben wir `c A ↔ A0 mit einem pränexen A0 . Nach dem Äquivalenzlemma 1.2.5 folgt `c ∀xA ↔ ∀xA0 . u t 18 1. Logik Zur Berechnung der pränexen Normalform ist es nützlich, die folgenden leicht zu beweisenden Äquivalenzen zu verwenden. Lemma 1.2.15. 1. `c ¬∀xB ↔ ∃x¬B. 2. `c ¬∃xB ↔ ∀x¬B. / FV(A). 3. `c A ∨ ∀xB ↔ ∀x.A ∨ B, falls x ∈ / FV(A). 4. `c A ∨ ∃xB ↔ ∃x.A ∨ B, falls x ∈ Beweis. Übung. u t Starke Disjunktion und Existenz Wenn man für Zwecke der Programmextraktion einen Existenzbeweis führen will, so ist es vorteilhaft, neben dem bisher behandelten schwachen oder klassischen Existenzquantor ∃ (der durch ¬∀¬ definiert war) auch noch einen starken oder konstruktiven Existenzquantor ∃∗ zuzulassen. Man kann dann in den Fällen, wo ein Existenzbeweis tatsächlich konstruktiv durch Angabe eines Beispiels geführt wurde, dies auch in der Formelsprache angemessen ausdrücken. Entsprechend könnte man auch neben der bisher behandelten schwachen oder klassischen Disjunktion ∨ (die durch ¬ ∧ ¬ definiert war) auch noch eine starken oder konstruktive Disjunktion ∨∗ zulassen. In Anwesenheit des Grundtyps ι der natürlichen Zahlen ist dies jedoch entbehrlich: Wir definieren A ∨∗ B := ∃∗ n.(n = 0 → A) ∧ (n 6= 0 → B). Wir wollen kurz diskutieren, welchen Effekt die Hinzunahme von ∨∗ , ∃∗ auf unsere bisherigen Untersuchungen hat. Wir erweitern also den Formelbegriff um die Klauseln A ∨∗ B und ∃∗ xA. Die Definitionen der Mengen der freien Variablen und der Substitution werden in der offensichtlichen Weise erweitert, ebenso unsere Konventionen betreffend Klammersetzung. Die Logik von ∨∗ und ∃∗ kann dann durch die abgeleiteten Regeln für den Existenzquantor und die Disjunktion axiomatisiert werden. Alternativ kann man auch die Regeln der Minimallogik beibehalten und den starken Existenzquantor durch die Generalisierung der folgenden Formeln axiomatisieren; diesen Weg wollen wir hier gehen. A → A ∨∗ B, B → A ∨∗ B. A ∨∗ B → (A → C) → (B → C) → C. A → ∃∗ xA. ∃∗ xA → (∀x.A → B) → B, falls x ∈ / FV(B). ∗+ ∗− Diese Axiomenschemata bezeichnen wir durch ∨∗+ , ∃∗+ und ∃∗− . Für Formeln A in der durch 0 , ∨1 , ∨ ∗ ∗ ∨ und ∃ erweiterten Sprache schreiben wir `A und nennen A herleitbar (in der Minimallogik ), wenn es eine Herleitung von A aus diesen Axiomenschemata gibt. Lemma 1.2.16. (Ex-falso-quodlibet). Für jede Formel A in der Sprache mit den Verknüpfungen →, ∧, ∨∗ , ∀ und ∃∗ gilt `i ⊥ → A. Beweis. Wir müssen nur die Fälle A ∨∗ B und ∃∗ xA zusätzlich behandeln, was aber trivial ist. u t Die Einbettung der intuitionistischen Logik läßt sich also wie bisher durchführen. 1.3 Modelle Es ist eine offensichtliche Frage, ob unsere logischen Regeln ausreichen, d.h. ob wir notwendige Regeln vergessen haben. Um diese Frage beantworten zu können, müssen wir die Bedeutung einer Formel kennen, d.h. wir müssen eine Semantik angegeben haben. Zunächst wollen wir deshalb den Begriff der Bedeutung eines Terms und einer Formel präzisieren. Dazu definieren wir den Begriff einer Struktur (genauer LStruktur) und erklären dann, was der Wert eines Terms und die Bedeutung einer Formel in einer solchen 1.3 Modelle 19 Struktur sein soll. Wir zeigen dann den Korrektheitssatz: er sagt aus, daß jede in der klassischen Logik herleitbare Formel in einer beliebigen Struktur gültig ist. Ferner definieren wir Strukturbegriffe von Beth und Kripke, die beide zur Minimallogik und zur intuitionistischen Logik passen, und zeigen Korrektkeitssätze für beide Logiken. Im nächsten Anschnitt beweisen wir dann die Vollständigkeit unserer Regeln bzgl. dieser Strukturbegriffe, und als Folgerung erhalten wir im übernächsten Abschnitt die Vollständigkeit der klassischen Logik, bezogen auf den üblichen Strukturbegriff. Strukturen Definition 1.3.1. M = (D, I) heißt Prästruktur (genauer L-Prästruktur), wenn D eine nichtleere Menge ist (die Trägermenge oder der Individuenbereich von M) und I eine Abbildung (Interpretation), die jedem n-stelligen Funktionssymbol f von L eine Funktion I(f ) : Dn → D zuordnet. Ist n = 0, so ist I(f ) ein Element von D. M = (D, I0 , I1 ) heißt Struktur (genauer L-Struktur), wenn (D, I0 ) eine Prästruktur ist und I1 eine Abbildung, die jedem n-stelligen Relationssymbol R von L eine n-stellige Relation I1 (R) ⊆ Dn zuordnet. Ist n = 0, so ist I1 (R) einer der Wahrheitswerte 1 und 0; insbesondere soll I1 (⊥) = 0 sein. Ist M = (D, I) bzw. (D, I0 , I1 ), so schreiben wir oft |M| für die Trägermenge D von M sowie f M und RM für die Interpretationen I0 (f ) und I1 (R) der Funktions- und Relationssymbole. Eine (Variablen-) Belegung oder Umgebung in D ist eine Abbildung, die jeder Variablen x ∈ dom(η) einen Wert η(x) ∈ D zuordnet. Endliche Belegungen schreiben wir als [x1 := a1 , . . . , xn := an ] (oder auch [a1 /x1 , . . . , an /xn ]) mit verschiedenen x1 , . . . , xn . Ist η eine Belegung in D und a ∈ D, so sei ηxa die Belegung in D, die x auf a abbildet und sonst mit η übereinstimmt, also ( 6 x η(y), falls y = a ηx (y) := a, falls y = x. Seien eine Prästruktur M und eine Belegung η in |M| gegeben. Wir definieren eine homomorphe Fortsetzung von η (ebenfalls bezeichnet durch η) auf die Menge TerL der L-Terme t mit vars(t) ⊆ dom(η) durch η(c) := cM , η(f (t1 , . . . , tn )) := f M (η(t1 ), . . . , η(tn )). Man beachte, daß die Erweiterung von η von M abhängt; wir schreiben deshalb auch tM [η] für η(t). Für jede Struktur M, Belegung η in |M| und Formel A mit FV(A) ⊆ dom(η) definieren wir M |= A[η] (gelesen: A ist gültig in M unter der Belegung η) durch Rekursion über A. Diese Definition wurde zuerst von Tarski angegeben. M M |= R(t1 , . . . , tn )[η] :⇐⇒ (tM 1 [η], . . . , tn [η]) ∈ I1 (R) M |= R[η] :⇐⇒ I1 (R) = 1 für R nullstellig. für R nicht nullstellig. M |= (A ∧ B)[η] :⇐⇒ M |= A[η] und M |= B[η]. M |= (A → B)[η] :⇐⇒ wenn M |= A[η], so M |= B[η]. M |= (∀xA)[η] :⇐⇒ für alle a ∈ |M| gilt M |= A[ηxa ]. Wegen I1 (⊥) = 0 folgt insbesondere M 6|= ⊥[η]. Ist Γ eine Menge von Formeln, so schreiben wir M |= Γ [η], wenn für alle A ∈ Γ gilt M |= A[η]. Gilt M |= A[η] für alle Belegungen η in |M|, so schreiben wir M |= A. 20 1. Logik Lemma 1.3.2. (Koinzidenzlemma). Sei M eine Struktur, t ein Term, A eine Formel und η, ξ Belegungen in |M|. 1. Gilt η(x) = ξ(x) für alle x ∈ vars(t), so ist η(t) = ξ(t). 2. Gilt η(x) = ξ(x) für alle x ∈ FV(A), so gilt M |= A[η] genau dann, wenn M |= A[ξ]. Beweis. Induktion über Terme bzw. Formeln. u t Lemma 1.3.3. (Substitutionslemma). Sei M eine L-Struktur, t, r L-Terme, A eine L-Formel und η eine Belegung in |M|. Dann gilt η(t) 1. η(r[x := t]) = ηx (r). η(t) 2. M |= A[x := t][η] ⇐⇒ M |= A[ηx ]. Beweis. 1. Induktion über r. 2. Induktion über A. Wir beschränken uns auf die Fälle einer atomaren Formel und einer Allformel; die restlichen Fälle sind sehr einfach. Fall R(s1 , . . . , sn ). Zur Vereinfachung nehmen wir n = 1 an. Dann gilt M |= R(s)[x := t][η] ⇐⇒ M |= R(s[x := t])[η] ⇐⇒ η(s[x := t]) ∈ RM ⇐⇒ ηxη(t) (s) ∈ RM ⇐⇒ M |= nach (1) R(s)[ηxη(t) ]. Fall ∀yA. Wir können oBdA y 6= x und y ∈ / vars(t) annehmen. M |= (∀yA)[x := t][η] ⇐⇒ M |= (∀yA[x := t])[η] ⇐⇒ für alle a ∈ |M| gilt M |= A[x := t][ηya ] ⇐⇒ für alle a ∈ |M| gilt M |= A[(ηya )bx ] mit b = ηya (t) = η(t) (IH und Lemma 1.3.2) ⇐⇒ für alle a ∈ |M| gilt M |= A[(ηxb )ay ] da x 6= y ⇐⇒ M |= (∀yA)[ηxb ] u t Für beliebige (oBdA geschlossene) L-Formeln A werden wir zeigen, daß A genau dann in der klassischen Logik herleitbar ist, wenn A in allen L-Strukturen gültig ist. Wir zeigen zunächst die einfache Richtung. Satz 1.3.4. (Korrektheit). Sei Γ `c B. Ist dann M eine Struktur und η eine Belegung in |M|, so folgt aus M |= Γ [η] stets M |= B[η]. Beweis. Induktion über Herleitungen. Da die gegebene Herleitung von B aus Γ nur endlich viele Annahmen frei enthält, können wir oBdA Γ = {A1 , . . . , An } voraussetzen. Fall u : B. Dann ist B ∈ Γ und die Behauptung ist klar. Fall StabR : ∀x.¬¬Rx → Rx. Die Behauptung ist wieder klar, da M |= ¬¬A[η] gleichbedeutend ist mit M |= A[η]. Fall ∧+ . Gelte M |= Γ [η]. Zu zeigen ist M |= (A ∧ B)[η]. Nach IH haben wir M |= A[η] und − − beweist man M |= B[η]. Die Behauptung folgt aus der Definition von |=. Die Fälle ∧− 0 , ∧1 und → genauso. Fall →+ . Gelte M |= Γ [η]. Zu zeigen ist M |= (A → B)[η]. Gelte also noch M |= A[η]. Zu zeigen ist M |= B[η]. Nach IH (mit Γ ∪ {A} statt Γ ) ist dies richtig. Fall ∀+ . Gelte M |= Γ [η]. OBdA mögen alle Formeln A1 , . . . , An in der gegebenen Herleitung von A als freie Annahmen vorkommen. Zu zeigen ist M |= (∀xA)[η]. Sei also a ∈ |M|. Zu zeigen ist M |= A[ηxa ]. Da aufgrund der Variablenbedingung für ∀+ die Variable x in keiner der Formeln A1 , . . . , An frei vorkommt, gilt nach dem Koinzidenzlemma M |= Γ [ηxa ]. Die IH (mit ηxa statt η) liefert M |= A[ηxa ]. Fall ∀− . Gelte M |= Γ [η]. Zu zeigen ist M |= A[x := t][η], d.h. nach dem Substitutionslemma M |= A[ηxb ] mit b = η(t). Nach IH haben wir M |= (∀xA)[η], d.h. für alle a ∈ |M| gilt M |= A[ηxa ]. Mit η(t) für a folgt die Behauptung. u t 1.3 Modelle 21 Beth-Strukturen Ein zur Minimallogik und zur intuitionistischen Logik passende Strukturbegriff wurde zuerst von Beth [1] konzipiert; er basiert auf einer Vorstellung von “sich entwickelnden möglichen Welten”, die durch Knoten k eines endlich verzweigten Baums indiziert sind. Kenntnisse können sich nur vergrößern, d.h. gilt Rt in einer Welt k, so gilt Rt auch in allen künftigen möglichen Welten. Jede Beth-Struktur basiert also auf einem endlich verzweigten Baum T . Wir führen zunächst die hierbei notwendigen Begriffe ein. Ein Knoten über einer nichtleeren Menge S ist eine endliche Folge k = ha0 , a1 , . . . , an−1 i von Elementen ai ∈ S; n ist die Länge lh(k) von k. Wir schreiben k k 0 wenn k ein Anfangsstück von k 0 ist. Ein Baum über S ist eine Menge von Knoten (über S), die gegen Bildung von Anfangsstücken abgeschlossen ist. Ein Baum T ist endlich verzweigt, wenn jedes k ∈ T höchstens endlich viele unmittelbare Nachfolger in T hat. Ein Baum T ist unbeschränkt, wenn es für jedes n ∈ N einen Knoten k ∈ T gibt so daß lh(k) = n. Ein Ast in einem Baum T ist ein linear geordneter (durch ) Teilbaum von T . Ein Blatt in T ist ein Knoten k in T ohne echte Fortsetzungen in T . Für den Vollständigkeitssatz wird es genügen, Beth-Strukturen über dem vollen binären Baum zu betrachten, d.h. der Menge T01 aller endlichen 0-1-Folgen (Knoten) k. Die leere Folge wird mit hi bezeichnet, und k0, k1 bezeichnen Erweiterungen der Folge k durch 0 oder 1. Definition 1.3.5. Sei (T, ) ein endlich verzweigter Baum. B = (M, I0 , I1 ) ist eine L-Beth-Struktur über T , wenn (M, I0 ) eine L-Prästruktur und I1 jedem n-stelligen Relationssymbol R von L und jedem Knoten k ∈ T eine n-stellige Relation I1 (R, k) ⊆ M n zuordnet so daß Monotonie gilt, d.h. k k 0 =⇒ I1 (R, k) ⊆ I1 (R, k 0 ). Ist n = 0, so ist I1 (R, k) wahr oder falsch und die Monotonie sagt aus, daß für k k 0 aus I1 (R, k) stets I1 (R, k 0 ) folgt. Von I1 (⊥, k) wird also nichts verlangt; das Falsum spielt in der Minimallogik die Rolle eines gewöhnlichen Aussagensymbols. tB [η] für eine Belegung η wird wie bei klassischen Modellen erklärt. An die Stelle der Modellbeziehung M |= A[η] tritt bei Beth-Strukturen jedoch die Erzwingungsbeziehung. Für deren Definition ist es bequem, den zugrunde liegenden Baum T zunächst zu vervollständigen zu einem Baum T̄ ohne Blätter, indem wir zu jedem Blatt k ∈ T alle Fortsetzungen k0, k00, k000, . . . zu T hinzunehmen. Für jeden hinzugekommenen Knoten k0 . . . 0 setzen wir I1 (R, k0 . . . 0) := I1 (R, k). Definition 1.3.6. B, k A[η] (B erzwingt A im Knoten k für die Belegung η) wird induktiv wie folgt definiert. Wir schreiben k A[η] wenn die unterliegende Struktur B klar ist, und ∀k 0 n k A für ∀k 0 k.lh(k 0 ) = lh(k) + n → A. 0 B k R(t1 , . . . , tp )[η] :⇐⇒ ∃n∀k 0 n k (tB 1 [η], . . . , tp [η]) ∈ I1 (R, k ) für R nicht nullstellig. k R[η] :⇐⇒ ∃n∀k n k I1 (R, k ) = 1 für R nullstellig. k (A ∨∗ B)[η] :⇐⇒ ∃n∀k 0 n k.k 0 A[η] oder k 0 B[η]. k (∃∗ xA)[η] :⇐⇒ ∃n∀k 0 n k∃a∈|B| k 0 A[ηxa ]. k (A → B)[η] :⇐⇒ ∀k 0 k.k 0 A[η] =⇒ k 0 B[η]. 0 0 k (A ∧ B)[η] :⇐⇒ k A[η] und k B[η]. k (∀xA)[η] :⇐⇒ ∀a∈|B| k A[ηxa ]. In den Klauseln für Atome, Disjunktionen und Existenzformeln beziehen wir uns also auf eine “Schranke” (“bar”) in T̄ . Für Atome wäre dies jedoch nicht nötig; es ist jedoch bequem für die Konstruktion von Beth-Strukturen. Man kann eine gegebene Beth-Struktur leicht “vervollständigen” durch “Herunterziehen der Schranke” für Atome. Dies bedeutet, daß wir die ursprünglich gegebene Interpretation I1 der Relationssymbol ersetzen durch 22 1. Logik I 1 (R, k) := { a ∈ |B|p | ∃n∀k 0 n k a ∈ I1 (R, k 0 ) }. Dann gilt offensichtlich wieder die Monotonie, d.h. I 1 (R, k) ⊆ I 1 (R, k 0 ) für k k 0 . In einer solchen vervollständigten Beth-Struktur können wir die Klausel für Atome in der Definition der Erzwingungsbeziehung vereinfachen zu k Rt[η] ⇐⇒ tB [η] ∈ I 1 (R, k). Aus der Definition ergibt sich leicht, daß die Monotonie sich auf Formeln überträgt, d.h. daß aus k A[η] stets k 0 A[η] folgt für k k 0 . Auch die Umkehrung ist richtig: Lemma 1.3.7. (Überdeckungseigenschaft). ∀k 0 n k k 0 A[η] =⇒ k A[η]. Beweis. Induktion über A. Wir schreiben k A für k A[η]. Fall Rt. Gelte ∃n∀k 0 n k k 0 Rt, also nach Definition ∃n∀k 0 n k∃m∀k 00 m k 0 tB [η] ∈ I1 (R, k 00 ). Da T ein endlich verzweigter Baum ist, haben wir ∃m∀k 0 m k tB [η] ∈ I1 (R, k 0 ), also k Rt. Die Fälle A ∨∗ B und ∃∗ xA behandelt man ähnlich. Fall A → B. Gelte k 0 A → B für alle k 0 k mit lh(k 0 ) = lh(k) + n. Wir müssen zeigen ∀lk.l A =⇒ l B. Gelte also l k und l A. Zu zeigen ist l B. Wir verwenden die IH für B mit m := max(lh(k)+n, lh(l)). Gelte also l0 l und lh(l0 ) = m. Es genügt zu zeigen l0 B. Ist lh(l0 ) = lh(l), so gilt l0 = l und wir sind fertig. Ist lh(l0 ) = lh(k) + n > lh(l), so ist l0 eine Erweiterung von l und auch von k mit Länge lh(k) + n, und wir haben l0 A → B nach Annahme. Ferner gilt l0 A, da l0 l und l A. Dies wiederum impliziert l0 B. Die Fälle A ∧ B und ∀x A sind klar. u t Das Koinzidenzlemma und das Substitutionslemma lassen sich wie erwartet auf Beth-Strukturen übertragen. Lemma 1.3.8. (Koinzidenzlemma). Sei B eine Beth-Struktur, t ein Term, A eine Formel und η, ξ Belegungen in |B|. 1. Gilt η(x) = ξ(x) für alle x ∈ vars(t), so ist η(t) = ξ(t). 2. Gilt η(x) = ξ(x) für alle x ∈ FV(A), so folgt B, k A[η] ⇐⇒ B, k A[ξ]. Beweis. Induktion über Terme und Formeln. u t Lemma 1.3.9. (Substitutionslemma). Sei B eine Beth-Struktur, t, r Terme, A eine Formel und η eine Belegung in |B|. Dann gilt η(t) 1. η(r[x := t]) = ηx (r). η(t) 2. B, k A[x := t][η] ⇐⇒ B, k A[ηx ]. Beweis. Induktion über Terme und Formeln. u t Hieraus erhalten wir wie üblich den Korrektheitssatz. Satz 1.3.10. (Korrektheit). Sei Γ ∪ {A} eine Formelmenge und es gelte Γ ` A. Ist dann B eine BethStruktur, k ein Knoten und η eine Belegung in |B|, so folgt aus B, k Γ [η] stets B, k A[η]. 1.3 Modelle 23 ∗+ ∗− Beweis. Induktion über Herleitungen. Wir beginnen mit den Axiomenschemata ∨∗+ , ∃∗+ und 0 , ∨1 , ∨ ∗− ∃ . Statt k C[η] schreiben wir kurz k C, falls η aus dem Kontext bekannt ist. 0 ∗ 0 ∗ Fall ∨∗+ 0 : A → A ∨ B. Zu zeigen ist k A → A ∨ B. Sei also k k mit k A gegeben. Zu zeigen ∗+ 0 0 ∗ ist k A ∨ B; dies folgt aber nach Definition aus k A. Den Fall ∨1 : B → A ∨∗ B behandelt man ähnlich. Fall ∨∗− : A ∨∗ B → (A → C) → (B → C) → C. Zu zeigen ist k A ∨∗ B → (A → C) → (B → C) → C. Sei also k 0 k und gelte k 0 A ∨∗ B, k 0 A → C und k 0 B → C (offenbar kann man annehmen, daß dasselbe k 0 für alle drei Prämissen gewählt ist). Zu zeigen ist k 0 C. Nach Definition gibt es ein n so daß für alle k 00 n k 0 gilt k 00 A oder k 00 B. In beiden Fällen folgt k 00 C, da k 0 A → C und k 0 B → C. Aus der Überdeckungseigenschaft 1.3.7 ergibt sich die Behauptung k 0 C. Fall ∃∗+ : A → ∃∗ xA. Zu zeigen ist k (A → ∃∗ xA)[η]. Sei also k 0 k mit k 0 A[η] gegeben. Zu η(x) zeigen ist k 0 (∃∗ xA)[η]. Wegen η = ηx gibt es ein a ∈ |B| (nämlich a := η(x)) mit k 0 A[ηxa ]. Also 0 ∗ haben wir k (∃ xA)[η]. Fall ∃∗− : ∃∗ xA → (∀x.A → B) → B mit x ∈ / FV(B). Zu zeigen ist k (∃∗ xA → (∀x.A → 0 0 ∗ B) → B)[η]. Sei also k k mit k (∃ xA)[η] und k 0 (∀x.A → B)[η] gegeben. Zu zeigen ist k 0 B[η]. Nach Definition gibt es ein n so daß für alle k 00 n k 0 es ein a ∈ |B| gibt mit k 00 A[ηxa ]. Mit k 0 (∀x.A → B)[η] folgt k 00 B[ηxa ], also wegen x ∈ / FV(B) nach dem Koinzidenzlemma auch k 00 B[η]. Aus der Überdeckungseigenschaft 1.3.7 ergibt sich die Behauptung k 0 B[η]. Fall →+ . Gelte k Γ . Zu zeigen ist k A → B. Sei also k 0 k mit k 0 A[η] gegeben. Zu zeigen ist 0 k B. Es gilt k 0 Γ ∪ {A}, also nach IH k 0 B. Fall →− . Gelte k Γ . Nach IH haben wir k A → B und k A, also auch k B. Fall ∀+ . Gelte k Γ [η] und x ∈ / FV(Γ ). Wir müssen zeigen k (∀xA)[η], d.h. k A[ηxa ] für ein beliebiges a ∈ |B|. Wir haben / FV(Γ ) k Γ [ηxa ] nach dem Koinzidenzlemma, da x ∈ k A[ηxa ] nach IH. Fall ∀− . Gelte k Γ [η]. Wir müssen zeigen k A[x := t][η]. Wir haben k (∀xA)[η] nach IH nach Definition k A[ηxη(t) ] k A[x := t][η] nach dem Substitutionslemma. u t Gegenmodelle Mit Hilfe des Korrektheitssatzes ist es einfach, Gegenmodelle zu finden, aus denen sich die NichtHerleitbarkeit in der Minimallogik bzw. in der intuitionistischen Logik ergibt. Unter einer Beth-Struktur für die intuitionistische Logik verstehen wir eine Beth-Struktur B = (M, I0 , I1 ), in der ⊥ nicht erzwungen wird, d.h. I1 (⊥, k) = 0 für alle k. In Beth-Strukturen für die intuitionistische Logik haben wir deshalb k ¬A ⇐⇒ ∀k 0 k k 0 6 A, 0 0 k ¬¬A ⇐⇒ ∀k k k 6 ¬A 0 00 ⇐⇒ ∀k k∃k k 0 k 00 A. Als Beispiel zeigen wir 6`i ¬¬P → P . Um eine Beth-Struktur zu beschreiben, stellen wir den zugrunde liegenden Baum durch ein Diagramm dar, wo wir neben jeden Knoten die Aussagensymbole schreiben, die in diesem Knoten erzwungen werden. Man betrachte die durch das folgende Diagramm gegebene Beth-Struktur. ... •P • @ @• •P @ @• •P @ @• 24 1. Logik Offenbar haben wir hi 6 P, hi ¬¬P. Also gilt hi 6 ¬¬P → P und deshalb 6` ¬¬P → P . Da offenbar EfqR für jedes R gilt, haben wir auch 6`i ¬¬P → P . Das Modell zeigt ebenfalls die Nicht-Herleitbarkeit der Peirce-Formel ((P → Q) → P ) → P in der intuitionistischen Logik. 1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik Wir zeigen jetzt die Umkehrung der Korrektheitssatzes. Satz 1.4.1. (Vollständigkeit). Sei Γ ∪ {A} eine Formelmenge. Dann sind folgende Aussagen äquivalent. 1. Γ ` A. 2. Γ A, d.h. für alle Beth-Strukturen B, Knoten k und Belegungen η B, k Γ [η] =⇒ B, k A[η]. Beweis. Eine Richtung ist der Korrektheitssatz. Für die andere Richtung verwenden wir einen Ansatz von Harvey Friedman [8] und konstruieren eine Beth-Struktur B (über der Menge T01 aller endlichen 0-1-Folgen k geordnet durch die Anfangsstück-Relation k k 0 ) mit der Eigenschaft, daß Γ ` B äquivalent ist zu B, hi B[id]. Zur Definition von B gehen wir aus von einer festen Aufzählung A0 , A1 , A2 , . . . aller L-Formeln, in der jede Formel S unendlich oft vorkommen möge; wir fixieren auch eine Aufzählung x0 , x1 , . . . aller Variablen. Sei Γ = n Γn mit endlichen Mengen Γn so daß Γn ⊆ Γn+1 . Jedem Knoten k ∈ T01 ordnen wir eine endliche Menge ∆k von Formeln zu, durch Induktion über die Länge von k. Sei ∆hi := ∅. Nehmen wir jetzt an, daß für einen Knoten k mit lh(k) = n die Menge ∆k schon definiert ist. ∆ `n B bedeute, daß es eine Herleitung von B aus ∆ gibt mit Länge (:= Gesamtzahl der Symbole) ≤ n. Wir definieren ∆k0 und ∆k1 wie folgt. Fall 1. Γn , ∆k 6`n An . Dann sei ∆k0 := ∆k und ∆k1 := ∆k ∪ {An }. Fall 2. Γn , ∆k `n An = A0n ∨∗ A00n . Dann sei ∆k0 := ∆k ∪ {An , A0n } und ∆k1 := ∆k ∪ {An , A00n }. Fall 3. Γn , ∆k `n An = ∃∗ xA0n . Dann sei ∆k0 := ∆k1 := ∆k ∪ {An , A0n [x := xi ]}, / FV(Γn , An , ∆k ). mit xi die erste Variable ∈ Fall 4. Γn , ∆k `n An , mit An weder Disjunktion noch Existenzformel. Dann sei ∆k0 := ∆k1 := ∆k ∪ {An }. Offenbar impliziert k k 0 stets ∆k ⊆ ∆k0 . Man beachte zunächst, daß ∀k 0 n k Γ, ∆k0 ` B =⇒ Γ, ∆k ` B. (1.5) Um dies zu sehen, genügt es zu zeigen Γ, ∆k0 ` B und Γ, ∆k1 ` B =⇒ Γ, ∆k ` B. Dies ist klar in den Fällen 1 und 4, und für die Fälle 2 und 3 folgt es leicht aus den Schemata ∨∗− und ∃∗− (vgl. Abschnitt 1.2). 1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik 25 Wir zeigen jetzt Γ, ∆k ` B =⇒ ∃n∀k 0 n k B ∈ ∆k0 . (1.6) Um dies einzusehen, wähle man ein n ≥ lh(k) mit B = An und Γn , ∆k `n An . Für alle k 0 k mit lh(k 0 ) = n + 1 gilt dann An ∈ ∆k0 (vgl. die Fälle 2-4). Mit Hilfe der Mengen ∆k können wir jetzt eine L-Beth-Struktur B definieren als (TerL , I0 , I1 ) mit den kanonischen I0 (f )t := f t und t ∈ I1 (R, k) :⇐⇒ Rt ∈ ∆k . Offenbar ist tB [id] = t für alle L-Terme t. Wir zeigen schließlich, daß Γ, ∆k ` B ⇐⇒ B, k B[id], (1.7) und zwar durch Induktion über die logische Komplexität von B. Für B, k B[id] schreiben wir k B. Fall Rt. Die folgenden Aussagen sind äquivalent. Γ, ∆k ` Rt nach (1.6) und (1.5) ∃n∀k 0 n k Rt ∈ ∆k0 0 0 ∃n∀k n k t ∈ I1 (R, k ) nach Definition von B k Rt nach Definition von , da tB [id] = t. Fall B ∨∗ C. =⇒. Gelte Γ, ∆k ` B ∨∗ C. Man wähle ein n ≥ lh(k) mit Γn , ∆k `n An = B ∨∗ C. Für alle k 0 k mit lh(k 0 ) = n gilt dann ∆k0 0 = ∆k0 ∪ {B ∨∗ C, B} und also nach IH k0 0 B ∆k0 1 = ∆k0 ∪ {B ∨∗ C, C}, und k 0 1 C. Nach Definition impliziert dies k B ∨∗ C. ⇐=. k B ∨∗ C ∃n∀k 0 n k .k 0 B oder k 0 C ∃n∀k 0 n k .Γ, ∆k0 ` B oder Γ, ∆k0 ` C ∃n∀k 0 n k Γ, ∆k0 ` B ∨∗ C Γ, ∆k ` B ∨∗ C nach IH nach (1.5). Der Fall B ∧ C ist klar. Fall B → C. =⇒. Gelte Γ, ∆k ` B → C. Wir müssen zeigen k B → C, d.h. ∀k 0 k.k 0 B =⇒ k 0 C. Sei also k 0 k und gelte k 0 B. Nach IH habe wir Γ, ∆k0 ` B, also Γ, ∆k0 ` C nach Annahme. Wieder die IH liefert k 0 C. ⇐=. Gelte k B → C, d.h. ∀k 0 k.k 0 B =⇒ k 0 C. Wir müssen zeigen Γ, ∆k ` B → C. Dafür wollen wir (1.5) verwenden. Man wähle ein n ≥ lh(k) mit B = An . Sei k 0 m k beliebig, wobei m := n − lh(k). Wir müssen zeigen Γ, ∆k0 ` B → C. Im Fall Γ, ∆k0 `n An haben wir k 0 B nach IH, also k 0 C nach Annahme, also Γ, ∆k0 ` C wieder nach IH und deshalb Γ, ∆k0 ` B → C. Im Fall Γ, ∆k0 6`n An haben wir nach Definition ∆k0 1 = ∆k0 ∪ {B}. Dies liefert Γ, ∆k0 1 ` B, also k 0 1 B nach IH, also k 0 1 C nach Annahme, also Γ, ∆k0 1 ` C wieder nach IH. Wegen ∆k0 1 = ∆k0 ∪ {B} folgt Γ, ∆k0 ` B → C. Fall ∀xB. Die folgenden Aussagen sind äquivalent. 26 1. Logik Γ, ∆k ` ∀xB ∀t∈TerL Γ, ∆k ` B[x := t] ∀t∈TerL k B[x := t] ∀t∈TerL k k ∀xB B[idtx ] nach IH nach dem Substitutionslemma, da tB [id] = t, nach Definition von . Fall ∃∗ xB. Dies ist ähnlich zum Fall ∨∗ . Im einzelnen verläuft der Beweis wie folgt. =⇒. Gelte Γ, ∆k ` ∃∗ xB. Man wähle n ≥ lh(k) mit Γn , ∆k `n An = ∃∗ xB. Für alle k 0 k mit lh(k 0 ) = n gilt dann ∆k0 0 = ∆k0 1 = ∆k ∪ {∃∗ xB, B[x := xi ]} mit xi nicht frei in ∆k ∪ {∃∗ xB}, also nach IH k 0 0 B[x := xi ] und k 0 1 B[x := xi ]. Nach Definition impliziert dies k ∃∗ xB. ⇐=. k ∃∗ xB ∃n∀k 0 n k∃t∈TerL k 0 B[idtx ] ∃n∀k 0 n k∃t∈TerL k 0 B[x := t] ∃n∀k 0 n k∃t∈TerL Γ, ∆k0 ` B[x := t] ∃n∀k 0 n k Γ, ∆k0 ` ∃∗ xB Γ, ∆k ` ∃∗ xB nach IH nach (1.5). Jetzt können wir den Beweis des Vollständigkeitssatzes abschließen. Nach (1.7) haben wir B, hi Γ [id]. Nach Annahme impliziert dies B, hi A[id], also Γ ` A wieder nach (1.7). u t Als ein unmittelbares Korollar erhalten wir den Vollständigkeitssatz für die intuitionistische Logik. Korollar 1.4.2. Sei Γ ∪ {A} eine Formelmenge. Die folgenden Aussagen sind äquivalent. 1. Γ `i A. 2. Γ, Efq A, d.h. für alle Beth-Strukturen B für die intuitionistische Logik, Knoten k und Belegungen η t u B, k Γ [η] =⇒ B, k A[η]. Kripke-Strukturen Kripke-Strukturen wurden von Kripke in [17] eingeführt als eine Alternative zu Beth-Strukturen. Sie sind einfacher in dem Sinn, daß die Klauseln für atomare Formeln, ∨∗ und ∃∗ sich nicht auf eine “Schranke” beziehen, sondern nur auf den gegenwärtigen Knoten. Sie sind jedoch auch komplizierter, da die Bereiche mit den Knoten k anwachsen und nicht mehr konstant sind. Besonders geeignet sind Kripke-Strukturen für die Konstruktion endlicher Gegenmodelle. Der Einfachheit halber wollen wir hier annehmen, daß keine Funktionssymbole vorkommen. Definition 1.4.3. Sei (T, ) ein endlich verzweigter Baum. K = (D, I0 , I1 ) ist eine L-Kripke-Struktur , wenn D jedem Knoten k ∈ T eine nichtleere Menge D(k) zuordnet so daß aus k k 0 folgt daß (D(k), I0 (k)) eine L-sub-Prästruktur von (D(k 0 ), I0 (k 0 )) ist, und I1 jedem n-stelligen Relationssymbol R von L und jedem Knoten k ∈ T eine n-stellige Relation I1 (R, k) ⊆ D(k)n zuordnet so daß Monotonie gilt, d.h. k k 0 =⇒ I1 (R, k) ⊆ I1 (R, k 0 ). 1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik 27 Im Fall n = 0 ist I1 (R, k) wahr oder falsch und die Monotonie besagt, daß für k k 0 aus I1 (R, k) folgt I1 (R, k 0 ). Eine S Belegung η für eine Kripke-Struktur K ist eine Abbildung, die jeder Variablen ein Element aus k∈T D(k) zuordnet. Der Wert tK [η] eines Terms t unter der Belegung η ist an allen Knoten k mit η[vars(t)] ⊆ D(k) erklärt. Jetzt können wir die Erzwingungsbeziehung definieren. K, k A[η] (K am Knoten k erzwingt A für die Belegung η) wird induktiv wie folgt definiert. Wir schreiben k A[η] wenn sich K aus dem Zusammenhang ergibt. k R(t1 , . . . , tp )[η] :⇐⇒ K η[vars(t1 , . . . , tp )] ⊆ D(k) und (tK 1 [η], . . . , tp [η]) ∈ I1 (R, k) für R nicht nullstellig. k R[η] :⇐⇒ I1 (R, k) = 1 für R nullstellig. k (A ∨∗ B)[η] :⇐⇒ k A[η] oder k 0 B[η]. k (∃∗ xA)[η] :⇐⇒ ∃a∈D(k) k A[ηxa ]. k (A → B)[η] :⇐⇒ ∀k 0 k.k 0 A[η] =⇒ k 0 B[η]. k (A ∧ B)[η] :⇐⇒ k A[η] und k B[η]. k (∀xA)[η] :⇐⇒ ∀k 0 k∀a∈D(k 0 ) k 0 A[ηxa ]. Die Vervollständigung von Beth-Strukturen macht einen Vergleich mit Kripke-Strukturen einfacher. Eine vervollständigte Beth-Struktur ist eine Kripke-Struktur mit konstanten Bereichen, und beide Erzwingungsbegriffe stimmen für Formeln ohne ∨∗ , ∃∗ überein. Man beachte aber, daß Kripke-Strukturen etwas flexibler sind, wenn man (endliche) Gegenmodelle konstruieren will. Ein Grund liegt darin, daß nicht jede Kripke-Struktur mit konstanten Bereichen eine vervollständigte Beth-Struktur ist. Ein offensichtliches Beispiel ist •P • Kripke-Strukturen sind jedoch weniger allgemein als Beth-Strukturen, in dem Sinn daß jede abzählbare Kripke-Struktur in einem angemessenen Sinn in eine Beth-Struktur mit konstantem Bereich N “transformiert” werden kann; dies wurde bereits von Kripke in [17] bemerkt. Wir beschreiben jetzt diese Transformation, wobei wir uns auf Troelstra und van Dalen [44] stützen. Sei K = (D, I0 , I1 ) eine abzählbare Kripke-Struktur mit zugrunde liegendem endlich verzweigtem Baum (T, ). Wir transformieren K in eine Beth-Struktur B über dem endlich verzweigten Baum T 0 , der aus allen endlichen aufsteigenden oder gleichbleibenden Folgen über (T, ) der Länge ≥ 0 besteht und geordnet ist durch σ 0 τ gdw σ ein Anfangsstück von τ ist. S Man zerlege N in abzählbar unendlich viele abzählbarSunendliche disjunkte Mengen Ni , d.h. N = j≤i Ni . Offenbar können wir für jedes σ = i∈N Ni und i 6= j → Ni ∩ Nj = ∅, und setze Mi := hk0 , . . . , kn i ∈ T 0 eine Surjektion ψσ von Mn auf D(kn ) definieren mit ψσk a = ψσ a für a ∈ Mlh(σ)−1 , ψσk bildet Mlh(σ) auf D(k) ab. Wir definieren jetzt unsere neue Beth-Struktur wie folgt. Für den leeren Knoten σ = ε sei I1 (R, σ) leer. Sei jetzt σ = hk0 , . . . , kn i. (a1 , . . . , ap ) ∈ I1 (R, σ) :⇐⇒ a1 , . . . , ap ∈ Mn und kn R(ψσ a1 , . . . , ψσ ap ) (oder genauer, kn R(x1 , . . . , xp )[ψσ a1 /x1 , . . . , ψσ ap /xp ]; allgemein schreiben wir k A(a1 , . . . , ap ) für k A[ψσ a1 /x1 , . . . , ψσ ap /xp ], falls x1 , . . . , xp die freien Variablen von A enthalten). Damit ist offenbar eine Beth-Struktur B definiert, deren Erzwingungsrelation wir mit 0 bezeichnen. Lemma 1.4.4. Sei σ = hk0 , . . . , kn i. Dann gilt für alle a1 , . . . , ap ∈ Mn σ 0 A(a1 , . . . , ap ) ⇐⇒ kn A(ψσ a1 , . . . , ψσ ap ). 28 1. Logik Beweis. Durch Induktion über A. Fall ∀xB. =⇒. Gelte σ 0 ∀xB(x, a0 ) mit a0 ∈ Mn . Wir haben zu zeigen kn ∀xB(x, ψσ a0 ). Sei also k 0 kn und d ∈ D(k 0 ) gegeben; wir müssen zeigen k 0 B(d, ψσ a0 ). Da d = ψσk0 b für ein b ∈ Mn+1 und ψσ a0 = ψσk0 a0 , heißt dies k 0 B(ψσk0 b, ψσk0 a0 ). Nach IH genügt es zu zeigen σk 0 0 B(b, a0 ). Dies folgt aber aus unserer Annahme. ⇐=. Gelte kn ∀xB(x, ψσ a0 ) mit a0 ∈ Mn . Wir müssen zeigen σ 0 ∀xB(x, a0 ). Sei also a ∈ N gegeben; wir müssen dann zeigen σ 0 B(a, a0 ). Man beachte, daß σ = hk0 , . . . , kn i. Wähle ein hinreichend langes τ = σ ∗ hkn+1 , . . . , kn+i , k 0 i mit kn k 0 so daß a ∈ Mlh(τ )−1 . Man beachte, daß ψτ die Menge Mlh(τ )−1 auf D(k 0 ) abbildet und ψτ a0 = ψσ a0 ∈ D(kn ). Aus kn ∀xB(x, ψσ a0 ) und kn k 0 ergibt sich k 0 ∀xB(x, ψτ a0 ), also k 0 B(ψτ a, ψτ a0 ), also nach IH τ 0 B(a, a0 ). Dies gilt für alle Fortsetzungen τ von σ mit a ∈ Mlh(τ )−1 (d.h. mit mindestens dieser Länge). Nach der Überdeckungseigenschaft 1.3.7 gilt also σ 0 B(a, a0 ), wie gewünscht. Die anderen Fälle sind einfacher und seien als Übungsaufgaben gestellt. u t 1.5 Vollständigkeit der klassischen Logik Wir geben jetzt einen Beweis der Vollständigkeit der klassischen Logik, und zwar unter Zuhilfenahme der Vollständigkeit der Minimallogik. Zur Vereinfachung zeigen wir zunächst, daß man auf ∧ verzichten kann. Lemma 1.5.1. (Elimination von ∧). Für jede Formel V Vn A in der auf {→, ∧, ∀} aufgebauten Sprache findet man Formeln A1 , . . . , An ohne ∧ so daß ` A ↔ i=1 Ai . Beweis. Induktion über A. Fall Rt. Wähle n = 1 und A1 := Rt. Fall A∧B. Nach IH haben wir A1 , . . . , An und B1 , . . . , Bm . Wähle A1 , . . . , An , B1 , . . . , Bm . Fall A → B. Nach IH haben wir wieder A1 , . . . , An und B1 , . . . , Bm . Zur Vereinfachung der Schreibweise nehmen wir n = 2 und m = 3 an. Dann gilt ` (A1 ∧ A2 → B1 ∧ B2 ∧ B3 ) ↔ (A1 → A2 → B1 ) ∧ (A1 → A2 → B2 ) ∧ (A1 → A2 → B3 ). Fall ∀xA. Nach IH für A haben wir A1 , . . . , An . Wähle ∀xA1 , . . . , ∀xAn , für ` ∀x n V V i=1 Ai ↔ n V V i=1 ∀xAi . u t Satz 1.5.2. (Vollständigkeit). Sei Γ ∪ {A} eine Menge von Formeln (in unserer abzählbaren Sprache L). Die folgenden Aussagen sind äquivalent. 1. Γ `c A. 2. Γ |= A, d.h. für alle Strukturen M and Belegungen η gilt M |= Γ [η] =⇒ M |= A[η]. Beweis. Eine Richtung ist der Korrektheitssatz. Für die andere Richtung verwenden wir den Vollständigkeitssatz für die Minimallogik. Offenbar genügt es, Formeln ohne ∨∗ , ∃∗ zu betrachten, und (nach Lemma 1.5.1) auch ohne ∧. Gelte Γ 6`c A, d.h. Γ, Stab 6` A. Nach dem Vollständigkeitssatz für die Minimallogik haben wir eine abzählbare Beth-Struktur B = (TerL , I0 , I1 ) über dem vollen binären Baum T01 und einen Knoten l0 mit l0 Γ, Stab und l0 6 A (wir schreiben k B für B, k B[id]). Ein Knoten k heisse konsistent wenn k 6 ⊥, und stabil wenn k Stab. Sei k ein stabiler Knoten und B eine Formel (ohne ∨∗ , ∃∗ ). Wir haben die Stabilität Stab ` ¬¬B → B nach Lemma 1.2.2, also k ¬¬B → B, also k 6 B ⇐⇒ k 6 ¬¬B ⇐⇒ ∃k 0 k.k 0 konsistent und k 0 ¬B. Sei α ein Ast im zugrunde liegende Baum T01 . Wir definieren (1.8) 1.5 Vollständigkeit der klassischen Logik 29 α A :⇐⇒ ∃k∈α k A, 6 ⊥, α is konsistent :⇐⇒ α α is stabil :⇐⇒ ∃k∈α k Stab. Man beachte Aus α A und ` A → B folgt α B. (1.9) Um dies zu sehen, nehmen wir α A an. Dann gilt k A für ein k ∈ α, da α linear geordnet ist. Wegen ` A → B liefert der Korrektheitssatz k B, d.h. α B. Ein Ast α heißt generisch (in dem Sinn, daß er ein klassisches Modell erzeugt) wenn er konsistent und stabil ist, für alle Formeln B gilt α B oder α ¬B, (1.10) und für alle Formeln ∀yB (wobei y nicht leer ist) mit B keine Allformel ∀s∈TerL α B[y := s] =⇒ α ∀yB (1.11) Schließlich definieren wir für einen Ast α eine klassische Struktur Mα = (TerL , I0 , I1α ) durch [ I1 (R, k) für R 6= ⊥. I1α (R) := k∈α gilt Wir zeigen, daß für jeden generischen Ast α und jede Formel B in der auf {→, ∀} aufbauenden Sprache α B ⇐⇒ Mα |= B. (1.12) Der Beweis erfolgt durch Induktion über die logische Komplexität von B. Fall Rt, R = 6 ⊥. Dann gilt die Behauptung für alle α. Fall ⊥. Es gilt α 6 ⊥ für konsistentes α. Fall B → C. =⇒. Gelte α B → C und Mα |= B. Wir müssen zeigen Mα |= C. Nun ist α B nach IH, also α C, also Mα |= C wieder nach IH. ⇐=. Gelte Mα |= B → C. Gilt Mα |= B, so ist Mα |= C, also α C nach IH und deshalb α B → C. Gilt Mα 6|= B, so ist α 6 B nach IH, also α ¬B nach (1.10) und deshalb α B → C, da α stabil ist (und ` (¬¬C → C) → ⊥ → C). Fall ∀yB (wobei y nicht leer ist) mit B keine Allformel. Die folgenden Aussagen sind äquivalent. α ∀yB ∀s∈TerL α B[y := s] nach (1.11) ∀s∈TerL Mα |= B[y := s] nach IH Mα |= ∀yB. Wir zeigen schließlich, daß es für jeden konsistenten stabilen Knoten k einen generischen Ast gibt, der k enthält. Zum Beweis sei A0 , A1 , . . . eine Aufzählung aller Formeln. Wir definieren induktiv eine Folge k = k0 k1 k2 . . . von konsistenten stabilen Knoten. Sei k0 := k. Nehmen wir jetzt an, daß kn bereits konstruiert ist. Wir schreiben An in der Form ∀yB (wobei y leer sein kann) mit B keine Allformel. Im Fall kn ∀yB sei kn+1 := kn . Andernfalls gilt kn 6 B[y := s] für ein s, und nach (1.8) gibt es einen konsistenten Knoten k 0 kn mit k 0 ¬B[y := s]. Sei kn+1 := k 0 . Wegen kn kn+1 ist auch kn+1 stabil. Sei α := { l | ∃n l kn }, also k ∈ α. Wir zeigen, daß α generisch ist. Offenbar ist α konsistent und stabil. Die Aussagen (1.10) und (1.11) können simultan bewiesen werden. Sei C = ∀yB mit B keine Allformel, und man wähle n mit C = An . Im Fall kn ∀yB ist nichts zu zeigen. Andernfalls gilt kn 6 B[y := s] für ein s, und nach Konstruktion kn+1 ¬B[y := s]. Für (1.10) erhalten wir kn+1 ¬∀yB (da ` ∀yB → B[y := s]), und (1.11) ergibt sich aus der Konsistenz von α. Wir können jetzt den Beweis des Vollständigkeitssatzes abschließen. Da l0 6 A und l0 stabil ist, liefert (1.8) einen konsistenten Knoten k l0 mit k ¬A. Offenbar ist auch k stabil. Nach dem, was wir eben bewiesen haben, gibt es einen generischen Ast α mit k ∈ α. Wegen k ¬A haben wir α ¬A, also Mα |= ¬A nach (1.12). Ferner gilt α Γ , also Mα |= Γ wieder nach (1.12). Also Γ 6|= A. u t 30 1. Logik Auf den ersten Blick scheint es, als ob der Vollständigkeitssatz sich auf den Berich “aller Mengen” bezieht, und zwar in der Definition von M |= A. Eine genauere Betrachtung des Beweises zeigt jedoch, daß es genügt, sich auf spezielle abzählbare Mengen zu beschränken. Der Bereich des Modells ist die abzählbare Menge TerL (die mittels einer geeigneten Kodierung durch N ersetzt werden kann), und man überlegt sich leicht, daß alle verwendeten Begriffe arithmetisch definierbar sind. Der Vollständigkeitssatz hat viele wichtige Korollare; wir erwähnen nur einige davon. Eine Menge Γ von L-Formeln heisse konsistent wenn Γ 6`c ⊥, und erfüllbar wenn es eine L-Struktur M und eine Belegung η in |M| gibt mit M |= B[η] für alle B ∈ Γ . Korollar 1.5.3. Sei Γ eine Menge von L-Formeln. 1. Wenn Γ konsistent ist, so ist Γ auch erfüllbar. 2. (Kompaktheitssatz). Wenn jede endliche Teilmenge von Γ erfüllbar ist, so auch Γ . Beweis. 1. Aus Γ 6`c ⊥ erhält man Γ 6|= ⊥ nach dem Vollständigkeitssatz, und dies impliziert die Erfüllbarkeit von Γ . 2. Andernfalls gilt Γ |= ⊥, also Γ `c ⊥ nach dem Vollständigkeitssatz, also auch Γ0 `c ⊥ für eine endliche Teilmenge Γ0 ⊆ Γ , also Γ0 |= ⊥ im Widerspruch zu unserer Annahme, daß Γ0 ein Modell besitzt. u t Korollar 1.5.4. ( Löwenheim, Skolem). Sei Γ eine Menge von L-Formeln (wir hatten angenommen, daß L abzählbar ist). Ist Γ erfüllbar, so ist Γ auch erfüllbar durch eine L-Struktur mit abzählbarer Trägermenge. Beweis. Wir verwenden den Beweis des Vollständigkeitssatzes mit A = ⊥. Er liefert entweder Γ `c ⊥ oder aber ein Modell von Γ ∪ {¬⊥}, dessen Trägermenge die abzählbare Menge TerL ist. Γ `c ⊥ kann jedoch aufgrund der Annahme nicht gelten. t u Der Vollständigkeitssatz für überabzählbare Sprachen Wir geben noch einen zweiten Beweis des Vollständigkeitssatzes, der das Resultat auch im Fall überabzählbarer Sprachen liefert. Dieser Beweis verwendet als mengentheoretisches Hilfsmittel das Auswahlaxiom (in der Form des Zornschen Lemmas). Sei M 6= ∅ eine Menge. F ⊆ P(M ) heißt Filter über M , wenn / F; 1. M ∈ F und ∅ ∈ 2. Aus X ∈ F und X ⊆ Y ⊆ M folgt Y ∈ F ; 3. Sind X, Y ∈ F , so ist auch X ∩ Y ∈ F . F heißt Ultrafilter , wenn für alle X ∈ P(M ) gilt X ∈ F oder M \ X ∈ F . Die Intuition hier ist, daß die Elemente X eines Filters F in einem gewissen Sinn “groß” sind. Zum Beispiel ist für unendliches M die Menge F = { X ⊆ M | M \ X endlich } ein Filter. Lemma 1.5.5. Ist F ein Ultrafilter und X ∪ Y ∈ F , so folgt X ∈ F oder Y ∈ F . Beweis. Übung. u t Lemma 1.5.6. Sei M 6= ∅ eine Menge und S ⊆ P(M ). S hat die endliche Durchschnittseigenschaft, wenn X1 ∩ · · · ∩ Xn 6= ∅ für alle X1 , . . . , Xn ∈ S und alle n ∈ N. Dann gilt: Hat S die endliche Durchschnittseigenschaft, so existiert ein Filter über M mit F ⊇ S. Beweis. Übung. u t Lemma 1.5.7. Sei M 6= ∅ eine Menge und F ein Filter über M . Dann gibt es einen Ultrafilter U über M mit U ⊇ M . 1.5 Vollständigkeit der klassischen Logik 31 Beweis. Dies ist eine unmittelbare Folgerung aus dem Zornschen Lemma, das wir im zweiten Teil dieser u t Vorlesung aus dem Auswahlaxiom beweisen werden. Sei M 6= ∅ eine Menge und seien Ai = 6 ∅ Mengen für i ∈ M . Man setzt Y Ai := { α | α ist Funktion, dom(α) = M und α(i) ∈ Ai für alle i ∈ M }. i∈M Q Q Man beachte hierbei, daß nach dem Auswahlaxiom i∈M Ai 6= ∅ ist. Wir schreiben α ∈ i∈M Ai als h α(i) | i ∈ M i. Seien nun M = 6 ∅ eine QF Menge, F ein Filter über M und Ai Strukturen für i ∈ M . Dann ist die F -Produktstruktur A = i∈M Ai definiert durch Q 1. |A| := i∈M |Ai | (man beachte |A| 6= ∅). 2. Für ein n-stelliges Relationssymbol R und α1 , . . . , αn ∈ |A| sei RA (α1 , . . . , αn ) :⇐⇒ { i ∈ M | RAi (α1 (i), . . . , αn (i)) } ∈ F. 3. Für ein n-stelliges Funktionssymbol f und α1 , . . . , αn ∈ |A| sei f A (α1 , . . . , αn ) := h f Ai (α1 (i), . . . , αn (i)) | i ∈ M i. QF Ist F ein Ultrafilter, so heißt A = i∈M Ai das F -Ultraprodukt der Ai für i ∈ M . Die Eigenschaften von Ultrafiltern spiegeln in gewisser Weise die Definition der Folgerungsbeziehung |= wieder. Zum Beispiel gilt M |= (A ∧ B)[η] ⇐⇒ M |= A[η] und M |= B[η] X ∩ Y ∈ F ⇐⇒ X ∈ F und Y ∈ F und M |= ¬A[η] ⇐⇒ M 6|= A[η] X∈ / F ⇐⇒ M \ X ∈ F. Dies ist der Hintergrund des folgenden Satzes. Satz 1.5.8. (Fundamentalsatz über Ultraprodukte, L oś 1955). Sei A = eine Formel und η eine Belegung in |A| . Dann gilt QF i∈M Ai ein F -Ultraprodukt, A A |= A[η] ⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∈ F, wobei ηi die durch ηi (x) = η(x)(i) für i ∈ M definieren induzierten Belegungen sind. Beweis. Wir beweisen zunächst eine entsprechende Aussage über Terme. tA [η] = h tAi [ηi ] | i ∈ M i. (1.13) Den Beweis führen wir durch Induktion über t. Im Fall einer Variablen folgt die Behauptung aus der Definition. Fall f t1 . . . tn . Zur Vereinfachung der Schreibweise nehmen wir n = 1 an, betrachten also f t. Man erhält (f t)A [η] = f A (tA [η]) = f A (h tAi [ηi ] | i ∈ M i) Ai = h (f t) nach IH [ηi ] | i ∈ M i. Fall Rt1 . . . tn . Zur Vereinfachung der Schreibweise nehmen wir wieder n = 1 an, betrachten also Rt. Man erhält 32 1. Logik A |= Rt[η] ⇐⇒ RA (tA [η]) ⇐⇒ { i ∈ M | RAi (tA [η](i)) } ∈ F ⇐⇒ { i ∈ M | RAi (tAi [ηi ]) } ∈ F ⇐⇒ { i ∈ M | Ai |= Rt[ηi ] } ∈ F. nach (1.13) Fall A ∧ B. A |= (A ∧ B)[η] ⇐⇒ A |= A[η] und A |= B[η] ⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∈ F und { i ∈ M | Ai |= B[ηi ] } ∈ F ⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∩ { i ∈ M | Ai |= B[ηi ] } ∈ F ⇐⇒ { i ∈ M | Ai |= (A ∧ B)[ηi ] } ∈ F. nach IH Fall A → B. A |= (A → B)[η] ⇐⇒ wenn A |= A[η], so A |= B[η] ⇐⇒ wenn { i ∈ M | Ai |= A[ηi ] } ∈ F , so { i ∈ M | Ai |= B[ηi ] } ∈ F ⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∈ / F oder { i ∈ M | Ai |= B[ηi ] } ∈ F ⇐⇒ { i ∈ M | Ai |= ¬A[ηi ] } ∈ F oder { i ∈ M | Ai |= B[ηi ] } ∈ F ⇐⇒ { i ∈ M | Ai |= (A → B)[ηi ] } ∈ F. nach IH da F Ultrafilter ist Fall ∀xA. A |= (∀xA)[η] ⇐⇒ für alle α ∈ |A| gilt A |= A[ηxα ] α(i) ⇐⇒ für alle α ∈ |A| gilt { i ∈ M | Ai |= A[(ηi )x ] } ∈ F ⇐⇒ { i ∈ M | für alle a ∈ |Ai | gilt Ai |= A[(ηi )ax ] } ∈ F nach IH Beweis siehe unten (1.14) ⇐⇒ { i ∈ M | Ai |= (∀xA)[ηi ] } ∈ F. Zu zeigen bleibt (1.14). Setze X := { i ∈ M | für alle a ∈ |Ai | gilt Ai |= A[(ηi )ax ] } und Yα := { i ∈ M | α(i) Ai |= A[(ηi )x ] } für α ∈ |A|. ⇐=. Sei α ∈ |A| und X ∈ F . Offenbar ist X ⊆ Yα , also auch Yα ∈ F . =⇒. Sei Yα ∈ F für alle α. / F . Da F Ultrafilter ist, muß dann Annahme: X ∈ M \ X = { i ∈ M | es gibt ein a ∈ |Ai | mit Ai 6|= A[(ηi )xa ] } ∈ F sein. Wir wählen mit Hilfe des Auswahlaxioms ein α0 ∈ |A| mit ( ein a ∈ |Ai | mit Ai 6|= A[(ηi )ax ] falls i ∈ M \ X, α0 (i) = beliebig ∈ |Ai | sonst. Dann ist Yα0 ∩ (M \ X) = ∅, im Widerspruch zu Yα0 , M \ X ∈ F . u t QF Wählt man Ai = B konstant, so erfüllt A = i∈M B dieselben Formeln wie B (solche Strukturen QF werden wir in Abschnitt 1.6 elementar äquivalent nennen; Schreibweise A ≡ B). i∈M B heißt Ultrapotenz von B. Korollar 1.5.9. (Allgemeiner Kompaktheitssatz). Jede endlich erfüllbare Formelmenge Γ ist erfüllbar. Beweis. Sei M := { i ⊆ Γ | i endlich }. Für i ∈ M sei Ai ein Modell von i unter der Belegung ηi . Für A ∈ Γ setzen wir ZA := { i ∈ M | A ∈ i } = { i ⊆ Γ | i endlich und A ∈ i }. Dann hat F − := { ZA | A ∈ Γ } die endliche Durchschnittseigenschaft. Nach den Lemmata 1.5.6 und 1.5.7 existiert also QF ein Ultrafilter F über M mit F − ⊆ F . Wir betrachten A := i∈M Ai und die Produktbelegung η mit η(x)(i) := ηi (x), und zeigen A |= Γ [η]. Sei also A ∈ Γ . Nach dem Satz genügt es zu zeigen, daß u t XA := { i ∈ M | Ai |= A[ηi ] } ∈ F . Dies folgt aber aus ZA ⊆ XA und ZA ∈ F − ⊆ F . 1.6 Anfänge der Modelltheorie 33 Hieraus ergibt sich unmittelbar, daß aus Γ |= A die Existenz einer endlichen Teilmenge Γ 0 ⊆ Γ mit Γ |= A folgt. Für jede Formelmenge Γ sei L(Γ ) die Menge aller in Γ vorkommenden Funktions- und Relationssymbole. Ist L eine Teilsprache von L0 , M eine L-Struktur und M0 eine L0 -Struktur, so nennt man M0 eine Expansion von M (und M ein Redukt von M0 ), wenn 0 |M| = |M0 |, fM = fM R M =R 0 M0 für alle f ∈ FunL , für alle R ∈ RelL . Das (eindeutig bestimmte) L-Redukt von M0 wird mit M0 L bezeichnet. Ist M0 eine Expansion von M 0 und η eine Belegung in |M|, so gilt offenbar tM [η] = tM [η] für jeden L-Term t und M |= A[η] genau 0 dann, wenn M |= A[η] für jede L-Formel A. Die Gültigkeit von Γ |= A hängt deshalb nicht von der zugrunde gelegten Sprache L ab, solange nur L(Γ ∪ {A}) ⊆ L (genauer ⊆ FunL ∪ RelL ) ist. Korollar 1.5.10. (Allgemeiner Vollständigkeitssatz). Sei Γ ∪ {A} eine Menge von Formeln, wobei die zugrunde liegende Sprache überabzählbar sein kann. Dann gilt Γ `c A ⇐⇒ Γ |= A. Beweis. Ein Richtung ist wieder der Korrektheitssatz. Für die umgekehrte Richtung können wir aufgrund der ersten vorangehenden Bemerkung annehmen, daß für ein endliches Γ 0 ⊆ Γ gilt Γ 0 |= A. Dann gilt aber auch Γ 0 |= A in einer abzählbaren Sprache (nach der zweiten vorangehenden Bemerkung). Nach dem Vollständigkeitssatz 1.5.2 für abzählbare Sprachen folgt Γ 0 ` A, also auch Γ ` A. u t 1.6 Anfänge der Modelltheorie In diesem Abschnitt wollen wir wie in der Modelltheorie üblich auch überabzählbare Sprachen L zulassen. Wie wir eben gesehen haben, gelten der Vollständigkeitssatz und seine Folgerungen ebenfalls für überabzählbare Sprachen. Wir wollen uns jetzt mit den Gleichheitsaxiomen befassen. Wir setzen deshalb in diesem Abschnitt stets voraus, daß die Sprache L ein zweistelliges Relationssymbol = enthält. Die Menge EqL der LGleichheitsaxiome besteht dann aus den Allabschlüssen von x=x Reflexivität, x=y→y=x x=y∧y =z →x=z Transitivität, Symmetrie, (n) x1 = y1 ∧ . . . ∧ xn = yn → f x1 . . . xn = f y1 . . . yn für alle f ∈ FunL , x1 = y1 ∧ . . . ∧ xn = yn ∧ Rx1 . . . xn → Ry1 . . . yn für alle R ∈ RelL . (n) Lemma 1.6.1. (Gleichheitslemma). 1. EqL ` t = s → r[x := t] = r[x := s]. 2. EqL ` t = s → (A[x := t] ↔ A[x := s]). Beweis. 1. Induktion über r. 2. Induktion über A; wir beschränken uns auf den Fall ∀yA. Dann ist (∀yA)[x := r] = ∀yA[x := r], und nach IH haben wir EqL ` t = s ∧ A[x := t] → A[x := s]. Daraus folgt u t die Behauptung. Eine L-Struktur M erfüllt die Gleichheitsaxiome genau dann, wenn =M eine Kongruenzrelation ist (also eine Äquivalenzrelation, die mit den Funktionen und Relationen von M verträglich ist). In diesem Abschnitt setzen wir voraus, daß alle betrachteten L-Strukturen M die Gleichheitsaxiome erfüllen. Das Koinzidenzlemma gilt dann auch mit =M anstelle von =: Lemma 1.6.2. Seien η, ξ Belegungen in |M| mit dom(η) = dom(ξ) und η(x) =M ξ(x) für alle x ∈ dom(η). Dann gilt 34 1. Logik 1. tM [η] =M tM [ξ] falls vars(t) ⊆ dom(η) und 2. M |= A[η] ⇐⇒ M |= A[ξ] falls FV(A) ⊆ dom(η). Beweis. Induktion über t bzw. A. u t Sei M/=M die Quotientenstruktur , deren Trägermenge aus den Kongruenzklassen besteht. Wir nennen eine Struktur M unendlich (abzählbar , n-elementig), wenn M/=M unendlich (abzählbar, nelementig) ist. Unter einem Axiomensystem Γ verstehen wir eine Menge geschlossener Formeln mit EqL(Γ ) ⊆ Γ . Ein Modell eines Axiomensystems Γ ist eine L-Struktur M mit L(Γ ) ⊆ L und M |= Γ . Für Mengen Γ geschlossener Formeln schreiben wir ModL (Γ ) := { M | M ist L-Struktur und M |= Γ ∪ EqL }. Offenbar ist Γ genau dann erfüllbar, wenn Γ ein Modell besitzt. Satz 1.6.3. Hat ein Axiomensystem beliebig große endliche Modelle, so hat es auch ein unendliches Modell. Beweis. Angenommen, Γ ist ein solches Axiomensystem. Seien x0 , x1 , x2 , . . . verschiedene Variable und Γ 0 := Γ ∪ { xi 6= xj | i, j ∈ N mit i < j }. Nach Annahme ist jede endliche Teilmenge von Γ 0 erfüllbar, also nach dem allgemeinen Kompaktheitssatz 1.5.9 auch Γ 0 . Wir haben also M und η mit M |= Γ 0 [η] und damit η(xi ) 6=M η(xj ) für i < j. Also ist M unendlich. u t Mit L bezeichnen wir die Menge aller geschlossenen L-Formeln. Unter einer Theorie T verstehen wir ein gegen ` abgeschlossenes Axiomensystem, also EqL(T ) ⊆ T und T = { A ∈ L(T ) | T ` A }. Eine Theorie T heißt vollständig, wenn für jede Formel A ∈ L(T ) gilt T ` A oder T ` ¬A. Für jede L-Struktur M (die die Gleichheitsaxiome erfüllt) bildet die Menge aller geschlossenen L-Formeln A mit M |= A offenbar eine Theorie; sie heißt die Theorie von M und wird mit Th(M) bezeichnet. Zwei LStrukturen M und M0 heißen elementar äquivalent (geschrieben M ≡ M0 ), wenn Th(M) = Th(M0 ) ist. Zwei L-Strukturen M und M0 heißen isomorph (geschrieben M ∼ = M0 ), wenn es eine Abbildung M0 0 M 0 π : |M| → |M | gibt, die eine Bijektion zwischen |M/= | und |M /= | induziert, also 0 ∀a, b∈|M|.a =M b ⇐⇒ π(a) =M π(b), 0 ∀a0 ∈|M0 |∃a∈|M| π(a) =M a0 , so daß für alle a1 , . . . , an ∈ |M| gilt 0 0 π(f M (a1 , . . . , an )) =M f M (π(a1 ), . . . , π(an )) 0 RM (a1 , . . . , an ) ⇐⇒ RM (π(a1 ), . . . , π(an )) (n) für alle f ∈ FunL , (n) für alle R ∈ RelL . Wir stellen zunächst einige einfache Eigenschaften des Begriffs der Theorie einer Struktur M und der elementaren Äquivalenz zusammen. Lemma 1.6.4. 1. Th(M) ist vollständig. 2. Ist Γ ein Axiomensystem mit L(Γ ) ⊆ L, so ist \ { A ∈ L | Γ ` A } = { Th(M) | M ∈ ModL (Γ ) }. 3. M ≡ M0 ⇐⇒ M |= Th(M0 ). 4. Ist L abzählbar, so existiert zu jeder L-Struktur M eine abzählbare L-Struktur M0 mit M ≡ M0 . 1.6 Anfänge der Modelltheorie 35 Beweis. 1. Sei M eine L-Struktur und A ∈ L. Dann gilt M |= A oder M |= ¬A, also Th(M) ` A oder Th(M) ` ¬A. 2. Für alle A ∈ L hat man Γ ` A ⇐⇒ Γ |= A ⇐⇒ für alle L-Strukturen M gilt (M |= Γ =⇒ M |= A) ⇐⇒ für alle L-Strukturen M gilt (M ∈ ModL (Γ ) =⇒ A ∈ Th(M)) \ ⇐⇒ A ∈ { Th(M) | M ∈ ModL (Γ ) }. 3. =⇒. Gelte M ≡ M0 und A ∈ Th(M0 ). Dann folgt M0 |= A, also M |= A. ⇐=. Gelte M |= Th(M0 ). Offenbar ist dann Th(M0 ) ⊆ Th(M). Zum Beweis der umgekehrten Inklusion sei A ∈ Th(M). Wäre A ∈ / Th(M0 ), so hätte man nach (1) auch ¬A ∈ Th(M0 ), also M |= ¬A im Widerspruch zu A ∈ Th(M). 4. Sei L abzählbar und M eine L-Struktur. Dann ist Th(M) erfüllbar, besitzt also nach dem Satz 1.5.4 von Löwenheim und Skolem auch eine erfüllende L-Struktur M0 mit der abzählbaren Trägermenge TerL . Nach (3) ist M ≡ M0 . u t Satz 1.6.5. Es sei T eine Theorie und L = L(T ). Dann sind folgende Aussagen äquivalent. 1. T ist vollständig. 2. Für jedes Modell M ∈ ModL (T ) gilt Th(M) = T . 3. Je zwei Modelle M, M0 ∈ ModL (T ) sind elementar äquivalent. Beweis. (1) =⇒ (2). Sei T vollständig und M ∈ ModL (T ). Dann gilt M |= T , also T ⊆ Th(M). Sei nun / T und damit A ∈ T . umgekehrt A ∈ Th(M). Dann folgt ¬A ∈ / Th(M), also ¬A ∈ (2) =⇒ (3) ist klar. (3) =⇒ (1). Sei A ∈ L und T 6` A. Dann existiert ein Modell M0 von T ∪{¬A}. Sei nun M ∈ ModL (T ) beliebig. Nach (3) ist M ≡ M0 , also M |= ¬A. Damit haben wir T ` ¬A. u t Satz 1.6.6. Ist π ein Isomorphismus von M auf M0 , so gilt für alle Terme t und Formeln A und für jede genügend große Belegung η in |M| 0 0 1. π(tM [η]) =M tM [π ◦ η] und 2. M |= A[η] ⇐⇒ M0 |= A[π ◦ η]. Insbesondere hat man also M ∼ = M0 =⇒ M ≡ M0 . Beweis. 1. Induktion über t. Zur Vereinfachung der Schreibweise behandeln wir nur den Fall einstelliger Funktionssymbole. 0 π(xM [η]) = π(η(x)) = xM [π ◦ η] 0 π(cM [η]) = π(cM ) =M cM 0 0 0 0 0 0 0 π(f (t)M [η]) = π(f M (tM [η])) =M f M (π(tM [η])) =M f M (tM [π ◦ η]) = f (t)M [π ◦ η]. 2. Induktion über A. Wir behandeln nur den Fall einstelliger Relationssymbole und den Fall ∀x A. M |= R(t)[η] ⇐⇒ RM (tM [η]) 0 ⇐⇒ RM (π(tM [η])) 0 0 ⇐⇒ RM (tM [π ◦ η]) ⇐⇒ M0 |= R(t)[π ◦ η], M |= ∀x A[η] ⇐⇒ für alle a ∈ |M| gilt M |= A[ηxa ] ⇐⇒ für alle a ∈ |M| gilt M0 |= A[π ◦ ηxa ] ] ⇐⇒ für alle a ∈ |M| gilt M0 |= A[(π ◦ η)π(a) x 0 ⇐⇒ für alle a0 ∈ |M0 | gilt M0 |= A[(π ◦ η)ax ] nach 1.6.2 ⇐⇒ M0 |= ∀x A[π ◦ η] u t 36 1. Logik Satz 1.6.7. Zu jeder unendlichen Struktur M gibt es eine elementar äquivalente Struktur M0 , die nicht isomorph zu M ist. Beweis. OBdA sei =M die Gleichheit auf M := |M|. Mit P(M ) bezeichnen wir die Potenzmenge von M . Zu jedem α ∈ P(M ) wählen wir eine neue Konstante cα . In der Sprache L0 := L ∪ { cα | α ∈ P(M ) } betrachten wir das Axiomensystem Γ := Th(M) ∪ { cα 6= cβ | α, β ∈ P(M ) und α 6= β } ∪ EqL0 . Jede endliche Teilmenge von Γ ist erfüllbar durch eine geeignete Expansion von M. Also ist nach dem allgemeinen Kompaktheitssatz 1.5.9 auch Γ erfüllbar, etwa durch M00 . Sei M0 := M00 L. OBdA sei =M0 die Gleichheit auf |M0 |. M0 ist nicht isomorph zu M, denn andernfalls hätte man eine Injektion von P(M ) in M und damit einen Widerspruch. u t Anmerkung. Nach Satz 1.6.7 ist es nicht möglich, eine unendliche Struktur durch ein Axiomensystem erster Stufe bis auf Isomorphie zu charakterisieren. Verläßt man jedoch die Logik erster Stufe und erlaubt auch die Quantifikation über Mengen X, so kann man etwa die folgenden Peano-Axiome anschreiben: ∀n S(n) = 6 0, ∀n∀m.S(n) = S(m) → n = m, ∀X.0 ∈ X ∧ (∀n.n ∈ X → S(n) ∈ X) → ∀n n ∈ X. Man kann zeigen, daß (N, 0, S) bis auf Isomorphie das einzige Modell der Peano-Axiome ist. Eine Struktur, die elementar äquivalent, aber nicht isomorph zu N := (N, 0, S) ist, heißt ein Nichtstandardmodell der natürlichen Zahlen. In Nichtstandardmodellen der natürlichen Zahlen gilt das Prinzip der vollständigen Induktion nicht für alle Mengen X ⊆ N. Entsprechend heißt eine Struktur, die elementar äquivalent, aber nicht isomorph zu (R, 0, 1, +, ·, <) ist, ein Nichtstandardmodell der reellen Zahlen. In jedem Nichtstandardmodell der reellen Zahlen gilt das Vollständigkeitsaxiom nicht für alle Mengen X ⊆ R. ∀X.∅ 6= X beschränkt → ∃y.y = sup(X) Satz 1.6.8. Es gibt abzählbare Nichtstandardmodelle der natürlichen Zahlen. Beweis. Sei x eine Variable und Γ := Th(N ) ∪ { x 6= n | n ∈ N }, wobei 0 := 0 und n + 1 := Sn. Offenbar ist jede endliche Teilmenge von Γ erfüllbar, also nach dem Kompaktheitssatz 1.5.3(2) auch Γ . Nach dem Satz 1.5.4 von Löwenheim und Skolem haben wir dann ein höchstens abzählbares M und eine Belegung η mit M |= Γ [η]. Wegen M |= Th(N ) ist M ≡ N nach Satz 1.6.5; daraus folgt insbesondere, daß M abzählbar ist. Weiter ist η(x) 6=M nM für alle n ∈ N, also ∼ N. M 6= u t Wir wollen jetzt einige Anwendungen auf aus der Mathematik bekannte Axiomensysteme diskutieren. Die Axiome der Körpertheorie sind (außer den Gleichheitsaxiomen) die Allabschlüsse von x + (y + z) = (x + y) + z, 0 + x = x, (−x) + x = 0, x + y = y + x, x · (y · z) = (x · y) · z, 1 · x = x, x= 6 0 → x−1 · x = 1, x · y = y · x, (x + y) · z = (x · z) + (y · z), 1 6= 0. 1.6 Anfänge der Modelltheorie 37 Körper sind also genau die Modelle dieses Axiomensystems. In der Theorie der geordneten Körper hat man zusätzlich ein zweistelliges Relationssymbol < und als Axiome die Allabschlüsse von x 6< x, x < y ∧ y < z → x < z, x < y ∨ x = y ∨ y < x, x < y → x + z < y + z, 0 < x ∧ 0 < y → 0 < x · y. Geordnete Körper sind genau die Modelle dieses erweiterten Axiomensystems. Ein geordneter Körper heißt archimedisch geordnet, wenn es zu jedem Körperelement a eine natürliche Zahl n gibt, so daß a kleiner ist als das n-fache der Eins im Körper. Satz 1.6.9. Zu jedem archimedisch geordneten Körper gibt es einen elementar äquivalenten geordneten Körper, der nicht archimedisch geordnet ist. Beweis. Sei K ein archimedisch geordneter Körper, x eine Variable und Γ := Th(K) ∪ { n < x | n ∈ N }. Offenbar ist jede endliche Teilmenge von Γ erfüllbar, also nach dem allgemeinen Kompaktheitssatz 1.5.9 auch Γ . Wir haben also M und η mit M |= Γ [η]. Wegen M |= Th(K) ist M ≡ K und damit M ein u t geordneter Körper. Weiter ist 1M · n <M η(x) für alle n ∈ N, also M nicht archimedisch geordnet. Eine Klasse S von L-Strukturen heißt (endlich) axiomatisierbar , wenn es ein (endliches) Axiomensystem Γ gibt mit S = ModL (Γ ). Offenbar ist S endlich axiomatisierbar genau dann, wenn S = ModL ({A}) / S, so kann S offensichtlich nicht für ein A. Gibt es zu jedem M ∈ S ein elementar äquivalentes M0 ∈ axiomatisierbar sein. Aus Satz 1.6.9 folgt also, daß die Klasse der archimedisch geordneten Körper nicht axiomatisierbar ist. Ebenso folgt, daß die Klasse der geordneten Körper, die nicht archimedisch geordnet sind, nicht axiomatisierbar ist. Lemma 1.6.10. Sei S eine Klasse von L-Strukturen und Γ ein Axiomensystem. 1. S ist endlich axiomatisierbar genau dann, wenn S und das Komplement von S axiomatisierbar sind. 2. Ist ModL (Γ ) endlich axiomatisierbar, so gibt es ein endliches Γ0 ⊆ Γ mit ModL (Γ0 ) = ModL (Γ ). Beweis. 1. Mit 1 − S bezeichnen wir das Komplement von S. =⇒. Sei S = ModL ({A}). Dann gilt M ∈ 1 − S ⇐⇒ M |= ¬A, also 1 − S = ModL ({¬A}). ⇐=. Sei S = ModL (Γ1 ) und 1 − S = ModL (Γ2 ). Dann ist Γ1 ∪ Γ2 nicht erfüllbar, es gibt also ein endliches Γ ⊆ Γ1 so daß Γ ∪ Γ2 nicht erfüllbar ist. Man erhält / 1 − S =⇒ M ∈ S, M ∈ S =⇒ M |= Γ =⇒ M 6|= Γ2 =⇒ M ∈ also S = ModL (Γ ). 2. Sei ModL (Γ ) = ModL ({A}). Dann gilt Γ |= A, also auch Γ0 |= A für ein endliches Γ0 ⊆ Γ . Man erhält M |= Γ =⇒ M |= Γ0 =⇒ M |= A =⇒ M |= Γ, also ModL (Γ0 ) = ModL (Γ ). u t Zum Abschluß dieses Abschnitts behandeln wir als Beispiel einer vollständigen Theorie noch die Theorie DO der dichten linearen Ordnungen ohne Endpunkte. Die Axiome der Theorie DO sind (außer den Gleichheitsaxiomen) die Allabschlüsse von x 6< x, x < y ∧ y < z → x < z, x < y ∨ x = y ∨ y < x, x < y → ∃z.x < z ∧ z < y, ∃y x < y, ∃y y < x. 38 1. Logik Lemma 1.6.11. Jedes abzählbare Modell von DO ist isomorph zur Struktur (Q, <) der rationalen Zahlen. Beweis. Sei M = (M, ≺) ein abzählbares Modell von DO; wir können annehmen, daß =M die Gleichheit auf M ist. Sei M = { bn | n ∈ N } und Q = { an | n ∈ N }, wobei wir an = 6 am und bn 6= bm für n < m annehmen können. Wir definieren rekursiv Funktionen fn ⊆ Q × M wie folgt. Sei f0 := {(a0 , b0 )}. Angenommen, wir haben fn schon konstruiert. Fall n + 1 = 2m. Sei j minimal so daß bj ∈ / dom(fn ) so daß für alle a ∈ dom(fn ) / ran(fn ). Wähle ai ∈ gilt ai < a ↔ bj < fn (a); ein solches ai existiert, da M und (Q, <) Modelle von DO sind. Setze fn+1 := fn ∪ {(ai , bj )}. / ran(fn ) / dom(fn ). Wähle bj ∈ Den Fall n+1 = 2m+1 behandelt man ähnlich. Sei i minimal so daß ai ∈ so daß für alle a ∈ dom(fn ) gilt ai < a ↔ bj < fn (a); ein solches bj existiert, da M und (Q, <) Modelle von DO sind. Setze fn+1 := fn ∪ {(ai , bj )}. Nach S Konstruktion ist {b0 , . . . , bm } ⊆ ran(f2m ) und {a0 , . . . , am+1 } ⊆ dom(f2m+1 ) und schließlich f := n fn ein Isomorphismus von (Q, <) auf M. u t Satz 1.6.12. Die Theorie DO ist vollständig, und es gilt DO = Th(Q, <). Beweis. Da offenbar (Q, <) Modell von DO ist, genügt es nach Satz 1.6.5 zu zeigen, daß für jedes Modell M von DO gilt M ≡ (Q, <). Sei also M Modell von DO. Nach Lemma 1.6.4(4) existiert ein abzählbares u t M0 mit M ≡ M0 . Nach dem vorangehenden Satz ist M0 ∼ = (Q, <), also M ≡ M0 ≡ (Q, <). Ein weiteres Beispiel einer vollständigen Theorie ist die Theorie der algebraisch abgeschlossenen Körper. Hierfür und für viele weitere Gegenstände der Modelltheorie sei verwiesen auf die Literatur; ein gutes und umfassendes Buch über Modelltheorie ist das von Chang und Keisler [6]. 1.7 Anmerkungen Der Gödelsche Vollständigkeitssatz wurde zuerst von Gödel [12] für abzählbare Sprachen, und im allgemeinen Fall von Malzew [20] bewiesen. Der Satz von Löwenheim und Skolem wurde bereits vor dem Vollständigkeitssatz bewiesen von Löwenheim [19] und Skolem [35]. Beth-Strukturen für die intuitionistische Logik wurden von Beth in [1] eingeführt; die dort geführten (klassischen und intuitionistischen) Vollständigkeitsbeweise waren jedoch korrekturbedürftig. Beth hat seine Arbeit später in [2] revidiert. Eine seiner Absichten war es, intuitionistische Vollständigkeitsbeweise für die intuitionistische Logik zu geben. Dieser Aspekt ist besonders von Kreisel betont worden; er wird in der vorliegenden Darstellung ignoriert. Eine gute Übersicht über intuitionistische Vollständigkeitsbeweise findet man in Troelstras Buch [41]. Die Kripke-Semantik für die intuitionistische Logik wurde entwickelt in [17]; er gab dort einen (klassischen) Vollständigkeitsbeweis im Gödelschen Stil. Die Konstruktion einer Beth-Struktur aus einer Kripke-Struktur geht zurück auf Kripke [17]; die vorliegende Darstellung stützt sich auf das Buch [44] von Troelstra und van Dalen. Der Beweis in Abschnitt 1.5 des Vollständigkeitssatzes für die klassische Logik aus dem Vollständigkeitssatz für die intuitionistische Logik stammt von Berger. Die Idee zum Begriff eines Ultraprodukts geht auf Skolem [36] zurück; er verwendete eine eingeschränkte Form zur Konstruktion eines Nichtstandardmodell der vollständigen Arithmetik. Der allgemeine Begriff eines Ultraprodukts wurde von L oś [18] eingeführt; in dieser Arbeit hat er auch den Fundamentalsatz formuliert. 2. Beweistheorie Das erste Ziel dieses Kapitels ist die Einführung einer kompakten und bequemen Bezeichnungsweise für Herleitungen: wir ersetzen die bisherige baumartige Bezeichnungsweise durch eine lineare. Um auch der Möglichkeit der Einführung und Beseitigung von Annahmen Rechnung zu tragen, verwenden wir freie (Annahme)variablen und einen Bindungsoperator für sie, der traditionsgemäß mit λ bezeichnet wird. Dies führt unmittelbar auf getypte λ-Kalküle. Ferner zeigen wir in diesem Kapitel, daß sich jede Herleitung durch geeignete Konversionsschritte in eine Normalform bringen läßt. Eine normale Herleitung macht keine “Umwege”, d.h. es kommt niemals vor, daß eine Beseitigung unmittelbar auf eine Einführung folgt. Herleitungen in Normalform haben viele angenehme Eigenschaften, und können zum Beweis vieler Resultate benutzt werden. Weiterhin zeigen wir, daß die Normalform eindeutig bestimmt ist. Dies wird zunächst für das →-Fragment der Aussagenlogik durchgeführt, da fast alle wesentlichen Aspekte hier schon zum Vorschein kommen. Die Erweiterung auf die volle Sprache wird anschließend diskutiert. Als Anwendung beweisen wir die Teilformeleigenschaft und den Herbrandschen Satz. Schließlich zeigen wir, daß die Forderung nach normalen Herleitungen manchmal unrealistisch sein kann. Wir geben Beispiele von Formeln Ck , die mit nicht normalen Herleitungen der Länge linear in k bewiesen werden können, für die aber jede normale Herleitung eine nicht mehr elementar rekursive Anzahl von Knoten erfordert. 2.1 λ-Kalkül Wir beginnen mit dem Fragment der Minimallogik, in dem nur Formeln zugelassen sind, die aus Aussagensymbolen mittels Implikation → aufgebaut sind; man nennt es das →-Fragment der minimalen Aussagenlogik. Herleitungen sind dann mit den Einführungs- und Beseitigungsregeln für → gebildet. Sie haben eine besonders einfache Struktur, da man auf Variablenbedingungen wegen des Fehlens der Quantoren nicht zu achten braucht. Annahmenvariablen können jedoch nach wie vor abgebunden werden. Es bietet sich nun an, eine kompakte Termschreibweise für Herleitungen zu verwenden. Die Herleitungsterme müssen dann aber – im Gegensatz zu den Termen der Logik erster Stufe – einen Bindungsoperator enthalten; er wird mit λ bezeichnet. Formeln erscheinen jetzt als (obere) Indizes solcher Herleitungsterme. Man nennt deshalb die Formeln des →-Fragments der Aussagenlogik auch (einfache) Typen und die zugehörigen Herleitungsterme λ-Terme mit Typen. Die zentrale Idee für unsere Termbezeichnung für Herleitungen ist also, Formeln als Typen von Herleitungstermen zu betrachten. Dieser Ansatz ist als Curry-Howard Korrespondenz in der Literatur bekannt. Formeln des →-Fragments der minimalen Aussagenlogik heißen dann (einfache) Typen; als Mitteilungszeichen für Typen verwenden wir ρ, σ, τ . Spezielle Typen sind dann die Aussagensymbole, die wir hier Grundtypen nennen; als Mitteilungszeichen für Grundtypen verwenden wir µ. Also – Jeder Grundtyp µ ist ein Typ. – Sind ρ und σ Typen, so auch ρ → σ. Man beachte, daß sich jeder Typ ρ eindeutig schreiben läßt in der Form ρ = ρ1 → ρ2 → · · · → ρn → µ; die ρi nennt man dieArgumenttypen von ρ. Definition 2.1.1. (Induktive Definition der λ-Terme mit Typen). 40 2. Beweistheorie – Jede Variable xρ ist ein λ-Term. – Ist M σ ein λ-Term, so auch (λxρ M σ )ρ→σ (Abstraktion). – Sind M ρ→σ und N ρ λ-Terme, so auch (M ρ→σ N ρ )σ (Anwendung). λ-Terme nennen wir im folgenden einfach Terme; auch lassen wir die Typenindizes meistens weg. Mit Λ (Λρ ) bezeichnen wir die Menge aller Terme (des Typs ρ). Terme, die keine Abstraktionen sind, heißen neutral . Bei Anwendungstermen vereinbaren wir wie üblich Linksklammerung, also M N K meint (M N )K), nicht M (N K). Ferner soll die Abstraktion stärker binden als die Anwendung, also λxM N meint (λxM )N , nicht λx(M N ). Wir verwenden wieder eine Punktnotation, wenn der Wirkungsbereich eines λ-Operators so groß wie durch die Klammerung möglich sein soll, also z.B. (λx.M N )K meint (λx(M N ))K. Die Menge FV(M ) der freien Variablen eines λ-Terms definieren wir rekursiv durch FV(x) := {x} FV(λxM ) := FV(M ) \ {x} FV(M N ) := FV(M ) ∪ FV(N ) Hinzufügen des ∧-Konstruktors für Typen und entsprechend von Paarbildung und Projektionen für Terme führt auf den getypten λ-Kalkül mit Paarbildung, der für Anwendungen meist benötigt wird. Diese Erweiterung ist jedoch recht harmlos. Wir schreiben anstelle von ρ ∧ σ hier ρ × σ. Die induktive Definition der λ-Terme mit Typen wird erweitert durch die Klauseln – Sind M ρ und N σ λ-Terme, so auch hM ρ , N σ iρ×σ (Paarbildung). – Ist M ρ×σ ein λ-Term, so sind es auch π0 (M )ρ und π1 (M )σ (Projektionen). Manchmal ist es nützlich, M 0 für π0 (M ) und M 1 für π1 (M ) zu schreiben. Wir können in ähnlicher Weise unsere Termdarstellung auf die volle ∧→∀ Sprache erweitern. Dies bringt keine wesentlichen Schwierigleiten mit sich, nur ist einige Sorgfalt bei den Bezeichnungen erforderlich. Der Hauptunterschied in der Bezeichnungweise besteht darin, daß jetzt Formeln als Typensymbole verwendet werden, anstelle von ρ, σ, . . . vorher. Als Grundbausteine von Herleitungstermen oder kurz Termen verwenden wir mit Formeln versehene Annahmenvariable uA ; u ist wieder eines der Symbole 0 , 1 , . . . . Wir verlangen wie bisher, daß verschiedene Annahmeformeln stets verschiedene Marken u haben. Als Mitteilungszeichen für Herleitungsterme verwenden wir M, N, K, L und für Annahmevariablen u, v, w. Wir schreiben meist u : A anstelle von uA und M : A anstelle von M A . Wir geben eine induktive Definition der Herleitungsterme in der Form der Tabelle 2.1, wobei wir zum besseren Verständnis links die entsprechenden Herleitungen aufschreiben. Zur Formulierung der Variablenbedingungen benötigen wir die Menge FA(M ) der im Herleitungsterm M freien Annahmen. Sie ist rekursiv definiert durch FA(uA ) := {uA }, FA(hM A , N B iA∧B ) := FA(M A ) ∪ FA(N B ), FA(π0 (M A∧B )A ) := FA(M A∧B ), FA(π1 (M A∧B )B ) := FA(M A∧B ), FA((λuA M B )A→B ) := FA(M B ) \ {uA }, FA((M A→B N A )B ) := FA(M A→B ) ∪ FA(N A ), FA((λxM A )∀xA ) := FA(M A ), FA((M ∀xA t)A[x:=t] ) := FA(M ∀xA ). Die Variablenbedingung ist dann x ∈ / FV(A) für alle uA ∈ FA(M ). Man beachte, daß in Herleitungstermen Formeln oft überflüssig sind. Wenn man (λuM )A→B schreibt, so ist klar, daß u die Formel A und M die Formel B haben müssen. Ebenso muß in (M A→B N ) der Gesamtterm die Formel B und N die Formel A haben. Wir werden im folgenden häufig solche redundanten Formeln weglassen. Auf diese Weise erhält man mit den Herleitungstermen eine sehr kompakte Schreibweise für Herleitungen. Als Beispiele für Herleitungsterme schreiben wir die Herleitungen (1.1)-(1.4) als Herleitungsterme auf. 2.1 λ-Kalkül Herleitung Term u: A uA |M |N A B ∧+ A∧B |M A∧B ∧− 1 B |M A∧B ∧− 0 A 41 hM A , N B iA∧B π0 (M A∧B )A π1 (M A∧B )B [u : A] |M B →+ u A→B |M A→B B |M A ∀+ ∀xA |M |N A (λuA M B )A→B →− (mit Var.Bed.) t − ∀xA ∀ A[x := t] (M A→B N A )B (λxM A )∀xA (mit Var.Bed.) (M ∀xA t)A[x:=t] Tab. 2.1. Curry-Howard Korrespondenz zwischen natürlichen Herleitungen und dem einfach getypten λ-Kalkül 42 2. Beweistheorie (1.1) Mit D := (A ∧ B → C) → (A → (B → C)) haben wir ( A∧B→C λu )D h A∧B→C A B A∧B C iB→C A→B→C B A λv λw u hv , w i Es ist klar, daß man hier viele redundante Formeln weglassen kann. Mit Annahmenvariablen u, v, w der Typen u : A ∧ B → C, v : A und w : B schreiben wir den Herleitungsterm kurz als λuλvλw(uhvwi). (1.2) Wir verwenden Annahmenvariablen u : A → (B → C) und v : A ∧ B. Der Herleitungsterm ist dann λuλv[u(π0 v)](π1 v). (1.3) Mit u : ∀x(A → B) und v : A erhalten wir λuλvλx[(ux)v]. (1.4) Mit u : A → ∀xB und v : A erhalten wir λuλxλv[(uv)x]. Neutral heißen jetzt Terme, die weder Abstraktionen (also von der Form λuM oder λxM ) noch Paare sind. Es ist bequem, anstelle von πi (M ) auch M i mit i = 0, 1 zu schreiben: dann können wir jede Beseitigungsregel in der Form einer Anwendung mitteilen. Die Schreibweise M N bedeutet jetzt also einen (linksgeklammerten) verallgemeinerten Anwendungsterm, in dem einige Ni auch 0, 1 (für die Projektionen − − π0 , π1 bei ∧− 0 , ∧1 ) oder Objektterme t (bei ∀ ) sein können. A Ein Herleitungsterm M heißt geschlossen, wenn FA(M A ) = ∅. Wir schreiben An 1 M B [uA 1 , . . . , un ] An 1 um mitzuteilen, daß die freien Annahmen von M B in der Liste uA 1 , . . . , un enthalten sind. Ferner benötigt man oft die Menge FV(M ) der freien (Objekt-) Variablen in einem Herleitungsterm M ; sie ist rekursiv definiert durch FV(uA ) := FV(A), FV(hM A , N B i) := FV(M A ) ∪ FV(N B ), FV(πi (M A∧B )) := FV(M A∧B ), FV(λuB M A ) := FV(M A ), FV(M A→B N A ) := FV(M A→B ) ∪ FV(N A ), FV(λxM A ) := FV(M A ) \ {x}, FV(M ∀xA t) := FV(M ∀xA ) ∪ vars(t). Als Beispiele betrachten wir die folgende Herleitungsterme. (1) M1 = λv P uQx . u : Qx →+ v P → Qx Dann ist FA(M1 ) = {uQx } und FV(M1 ) = {x}. (2) M2 = λuQx λv P uQx . u : Qx →+ v P → Qx →+ u Qx → (P → Qx) Dann ist FA(M2 ) = ∅ und FV(M2 ) = {x}. (3) M3 = λxλuQx λv P uQx . u : Qx →+ v P → Qx →+ u Qx → (P → Qx) ∀+ ∀x.Qx → (P → Qx) Dann ist FA(M3 ) = ∅ und FV(M3 ) = ∅. 2.2 Normalisierung 43 Für Herleitungsterme haben wir zwei Arten von Substitutionen: Man kann einen Herleitungsterm M A für eine Annahmenvariable uA substituieren, und man kann auch einen Objektterm t für eine Objektvariable x substituieren. Die Axiome für den starken Existenzquantor ∃∗ werden durch entsprechende Konstanten bezeichnet: ∗ ∃∗+ x,A : ∀x.A → ∃ xA ∗− : ∃∗ xA → (∀x.A → B) → B ∃x,A,B mit der üblichen Voraussetzung x ∈ / FV(B). 2.2 Normalisierung Wir behandeln zunächst das →-Fragment der minimalen Aussagenlogik; der Beweis wird sich dann leicht auf die volle Sprache übertragen lassen. Zunächst definieren wir eine Konversionsrelation 7→ρ zwischen Termen vom Typ ρ durch (λxM )N 7→ M [x := N ], β-Konversion λx.M x 7→ M falls x ∈ / FV(M ) und M neutral ist. η-Konversion Die Einschritt-Reduktionsrelation →1 kann man jetzt wie folgt definieren. M →1 N gilt, wenn N aus M entsteht durch Ersetzen eines Teilterms M 0 in M durch N 0 , wobei M 0 7→ N 0 . Die Reduktionsrelationen →+ and →∗ sind der transitive und der reflexiv-transitive Abschluß von →1 . Für M = M1 , . . . , Mn schreiben wir M →1 M 0 falls Mi →1 Mi0 für ein i ∈ {1, . . . , n} und Mj = Mj0 für alle i 6= j ∈ {1, . . . , n}. Folgende Eigenschaft dieser Reduktionsrelation macht man sich leicht klar. Lemma 2.2.1. 1. Wenn xM →1 N , so ist N = xM 0 mit M →1 M 0 . 2. Substitution und Reduktion sind miteinander verträglich, d.h. wenn M →∗ M 0 und N →∗ N 0 , so gilt u t auch M [x := N ] →∗ M 0 [x := N 0 ]. Definition 2.2.2. Ein Term M heißt normal (oder in Normalform), wenn es keinen Term N gibt mit M →1 N . Definition 2.2.3. Die Menge sn der stark normalisierenden Terme wird induktiv definiert durch (∀N.M →1 N =⇒ N ∈ sn) =⇒ M ∈ sn (2.1) Man beachte, daß mit M offenbar auch jeder Teilterm von M stark normalisierend ist. Zum Beweis, daß jeder Term M stark normalisierend ist, verwenden wir eine auf W.W. Tait [39] zurückgehende Methode, die auf der Einführung von sogenannten starken Berechenbarkeitsprädikaten sbρ beruht. Sie werden durch Induktion über den Typ ρ wie folgt definiert. Definition 2.2.4. M ∈ sbµ :⇐⇒ ∀N.M →1 N =⇒ N ∈ sb M ∈ sbρ→σ :⇐⇒ (∀N ∈sbρ ) M N ∈ sbσ . (2.2) (2.3) Lemma 2.2.5. Ist M ∈ sbρ und M →1 M 0 , so ist auch M 0 ∈ sb. Beweis. Induktion über ρ. Fall µ. Nach (2.2). Fall ρ → σ. Gelte M ∈ sbρ→σ und M →1 M 0 ; zu zeigen ist M 0 ∈ sb. Sei also N ∈ sbρ ; zu zeigen ist M 0 N ∈ sbσ . Dies folgt aber aus M N →1 M 0 N und M N ∈ sbσ u t nach Induktionshypothese (IH) über σ. Lemma 2.2.6. (∀M ∈sn).M ∈ sb =⇒ (xM )µ ∈ sb. Beweis. Induktion über M ∈ sn. Gelte M ∈ sn und M ∈ sb; zu zeigen ist (xM )µ ∈ sb. Sei also xM →1 N ; zu zeigen ist N ∈ sb. Nach Lemma 2.2.1 muß N von der Gestalt xM 0 sein mit M →1 M 0 . t u Nach Lemma 2.2.5 gilt aber M 0 ∈ sb, also xM 0 ∈ sb nach IH für M 0 . 44 2. Beweistheorie Lemma 2.2.7. sbρ ⊆ sn, x ∈ sbρ . (2.4) (2.5) Beweis. Durch simultane Induktion über ρ. Fall µ. (2.4). Wir zeigen M ∈ sbµ =⇒ M ∈ sn durch (Neben-) Induktion über M ∈ sbµ . Gelte also M ∈ sbµ ; zu zeigen ist M ∈ sn. Für jedes N mit M →1 N haben wir N ∈ sb nach (2.2), also N ∈ sn nach der Nebeninduktionsvoraussetzung (NIH). (2.5). x ∈ sbµ gilt, da es kein N mit x →1 N gibt. Fall ρ → σ. (2.4). Gelte M ∈ sbρ→σ ; zu zeigen ist M ∈ sn. Nach IH(2.5) für ρ haben wir x ∈ sbρ , also M x ∈ sbσ , also M x ∈ sn nach IH(2.4) für σ. Nun impliziert M x ∈ sn offenbar M ∈ sn, wir man durch Induktion über M x ∈ sn leicht sieht. (2.5). Sei M ∈ sbρ mit ρ1 = ρ; zu zeigen ist xM ∈ sbν . Dies folgt u t aber aus Lemma 2.2.6, unter Verwendung von IH(2.4) für ρ. Lemma 2.2.8. (∀M, N, N ∈sn).M [x := N ]N ∈ sbµ =⇒ (λxM )N N ∈ sbµ . Beweis. Durch Induktion über M, N, N ∈ sn. Seien M, N, N ∈ sn und gelte M [x := N ]N ∈ sb; zu zeigen ist (λxM )N N ∈ sb. Gelte (λxM )N N →1 K; zu zeigen ist K ∈ sb. Fall K = (λxM 0 )N 0 N 0 mit M, N, N →1 M 0 , N 0 , N 0 . Dann gilt M [x := N ]N →∗ M 0 [x := N 0 ]N 0 nach Lemma 2.2.1, also M 0 [x := N 0 ]N 0 ∈ sb nach Lemma 2.2.5 bzw. der Annahme, also (λxM 0 )N 0 N 0 ∈ sb nach IH. Fall K = M [x := N ]N . Dann ist K ∈ sb nach Annahme. u t Korollar 2.2.9. (∀M, N, N ∈sn).M [x := N ]N ∈ sbρ =⇒ (λxM )N N ∈ sbρ . Beweis. Nach Induktion über ρ, mit Hilfe von (2.4). u t Definition 2.2.10. Ein Term M heißt stark berechenbar unter Substitution, wenn für alle N ∈ sb der Term M [x := N ] ∈ sb ist. Satz 2.2.11. Jeder Term ist stark berechenbar unter Substitution. Beweis. Induktion über den Term M . Fall x. Klar. Fall M N . Nach IH sind M [x := N ] ∈ sb und N [x := N ] ∈ sb, also auch (M N )[x := N ] = M [x := N ]N [x := N ] ∈ sb. Fall λxM . Sei N ∈ sb; zu zeigen ist (λxM )[x := N ] ∈ sb. Nach IH ist M [x, x := N , N ] ∈ sb, also (λxM [x := N ])N ∈ sb nach Korollar 2.2.9. u t Korollar 2.2.12. Jeder Term ist stark normalisierbar. u t Wir zeigen jetzt die Eindeutigkeit der Normalform. Ein Term M heißt lokal konfluent, wenn es zu jedem Paar N1 und N2 mit M →1 N1 und M →1 N2 einen Term N gibt mit N1 →∗ N und N2 →∗ N . Lemma 2.2.13. Jeder Term M ist lokal konfluent. Beweis. Induktion über M . Fall x. Klar. Fall λxM . λxM @1 1 @ R @ λxM 0 λxM 00 @∗ ∗ @ R @ λxM 000 λx.M x @1 1 @ R @ M λx.M 0 x @1 1 @ R @ M0 / FV(M ) falls x ∈ Fall M N . MN @1 1 @ R @ M 0N M 00 N @∗ ∗ @ R @ M 000 N MN @1 1 @ @ R MN0 M N 00 @∗ ∗ @ R @ M N 000 MN @1 1 @ R @ MN0 M 0N @∗ ∗ @ @ R M 0N 0 2.2 Normalisierung 45 sowie (λxM )N 1 @1 @ @ R M [x := N ] (λxM 0 )N @∗ 1 @ R @ M 0 [x := N ] (λxM )N 1 @1 @ @ R M [x := N ] (λxM )N 0 @∗ 1 @ @ R M [x := N 0 ] (λx.M x)N 1 @1 @ @ R = MN MN wobei wir zweimal links unten Lemma 2.2.1 und im letzten Diagramm einmal eine β- und einmal eine η-Konversion benutzt haben. Wegen der vorausgesetzten Neutralität von M im Fall der η-Konversion u t können keine weiteren Fälle auftreten. Satz 2.2.14. Alle Terme haben eine eindeutige Normalform, d.h. zu jedem Term M gibt es genau einen normalen Term N mit M →∗ N . Beweis. Jeder Term M ist nach Korollar 2.2.12 stark normalisierbar, wir können also Induktion nach M ∈ sn verwenden. Ist M normal, so ist die Behauptung trivial. Gelte also M →1 N1 und M →1 N2 . Nach IH haben N1 und N2 eindeutige Normalformen. Mit dem vorigen Lemma ergibt sich die Behauptung, wie man anhand der folgenden Skizze leicht verfiziert. M @ @ @ R N1 lok. konf. N2 ∗ @∗ ∗ @∗ @ @ R @ @ R IH(N1 ) ∃P1 K L @∗ ∗ IH(N2 ) @ R @ ∗ ∃P2 @∗ @ @ R ∃N t u Die bisherigen Begriffe und Resultate dieses Kapitels lassen sich leicht auf den Fall übertragen, daß neben der Implikation → auch noch die Konjunktion ∧ und der Allquantor ∀ zugelassen sind. Wir nennen einen Term wieder neutral , wenn er weder ein Paar noch eine Abstraktion ist. Die Regeln der β- and η-Konversion sind jetzt hM0 , M1 ii 7→ Mi , (λuM )N 7→ M [u := N ], (λxM )t 7→ M [x := t], hM 0, M 1i 7→ M falls M neutral ist, / FA(M ) und M neutral ist, λu.M u 7→ M falls u ∈ λx.M x 7→ M falls M is neutral. Die Eigenschaften der Substitution, d.h. Lemma 2.2.1, bleiben gültig. Der Beweis der starken Normalisierung läßt sich leicht erweitern; auch die zusätzlichen Fälle im Beweis der lokalen Konfluenz sind sehr einfach. 46 2. Beweistheorie 2.3 Anwendungen Wir wollen jetzt einige Folgerungen aus der Tatsache ziehen, daß sich jede Herleitung in Normalform bringen läßt. Zu diesem Zweck müssen wir die Form normaler Herleitungen genauer analysieren. Mit k, l ∈ {0, 1}∗ bezeichnen wir Knoten in einem Term M . Node(M ) ist die Menge aller Knoten in M , und ε bezeichnet die leere Liste, d.h. den Wurzelknoten. k0 und k1 sind die Erweiterungen des Knotens k durch 0 oder 1. Der Teilterm von M am Knoten k wird mit M/k bezeichnet. Wir schreiben k l falls k ein Anfangssegment von l ist. Weiter sei Leafnode(M ) := { k ∈ Node(M ) | M/k Variable oder Konstante } Elimnode(M ) := { k ∈ Node(M ) | M/k gebildet durch eine Beseitigungsregel } Intronode(M ) := { k ∈ Node(M ) | M/k gebildet durch eine Einführungsregel } Für jedes k ∈ Elimnode(M ) ∪ Leafnode(M ) definieren wir seinen zugeordneten minimalen Knoten durch minnodeM (ε) := ε. minnodeM (k), minnodeM (ki) := ki, falls i = 0 und k ∈ Elimnode(M ); falls i = 1 und k ∈ Elimnode(M ), oder k ∈ Intronode(M ). Offensichtlich ist minnodeM (k) ∈ Elimnode(M ) ∪ Leafnode(M ). Sei Minnode(M ) := { k ∈ Elimnode(M ) ∪ Leafnode(M ) | minnodeM (k) = k }. Für jedes k ∈ Node(M ) definieren wir seinen zugeordneten Endknoten durch Sei endnodeM (ε) := ε. endnodeM (k), endnodeM (ki) := ki, falls k ∈ Intronode(M ), oder i = 0 und k ∈ Elimnode(M ); falls i = 1 und k ∈ Elimnode(M ). Endnode(M ) := { k ∈ Node(M ) | endnodeM (k) = k }. Für normale Terme M stehen die Blätter und die Minimalknoten in einer eineindeutigen Beziehung. Man beachte, daß zwei minimale Knoten denselben Endknoten haben können. Sei M ein Term und k ∈ Leafnode(M ). Dann heißt { l ∈ Node(M ) | k l endnodeM (k) } der durch den Knoten k bestimmte Ast in M . Insbesondere ist minnodeM (k) ein Element des durch k bestimmten Astes. Im Fall endnodeM (k) = ε spricht man von einem Hauptast. In einem normalen Term hat jeder Ast k1 · · · kn eine besonders durchsichtige Form: alle Beseitigungsregeln kommen vor allen Einführungsregeln. Im Fall eines normalen Herleitungsterms wollen wir einige Folgerungen über die an den Knoten angehefteten Formeln ziehen. Dazu brauchen wir die folgenden Begriffe. Die Formeln A, B heißen unmittelbare Teilformeln von A ∧ B und A → B, und für jeden Term t ist die Formel A[x := t] eine unmittelbare Teilformel von ∀xA. Die Relation “A ist eine Teilformel von B” ist der reflexiv-transitive Abschluß der Relation “unmittelbare Teilformel”. An 1 Lemma 2.3.1. Sei M B [uA 1 , . . . , un ] ein normaler Herleitungsterm, der nicht mit einer Einführung endet. Dann ist B Teilformel einer Formel Ai . Beweis. Induktion über M . Fall M B = M0D→B M1D . Da M normal ist, kann M0 nicht mit einer Einführungsregel enden. Nach IH sind deshalb D → B und also auch B Teilformeln eines Ai . Die anderen i Fälle (d.h. M B = N B∧D 0, M B = N D∧B 1, M B = N ∀xD t mit B = D[x := t] und M = uA i mit B = Ai ) behandelt man ähnlich. t u 2.4 Normale versus nicht-normale Herleitungen 47 An C 1 Satz 2.3.2. (Teilformeleigenschaft). Sei M B [uA eine Teil1 , . . . , un ] eine normale Herleitung und N B herleitung von M . Dann ist C Teilformel von B oder von einem Ai . Beweis. Induktion über M . Wir können annehmen, daß N C 6= M B . Fall M B = M0D→B M1D . Nach IH ist C Teilformel von D → B oder von einem Ai . Da M normal ist, kann M0 nicht mit einer Einführungsregel enden. Nach dem vorangehenden Lemma ist also D → B eine Teilformel eines Ai . Also ist auch C Teilformel eines Ai . Die Fälle M B = N B∧D 0, M B = N D∧B 1 and M B = N ∀xD t mit B = D[x := t] behandelt man ähnlich. Fall M B = λuB0 M1B1 mit B = B0 → B1 . Nach IH ist C Teilformel von B1 , B0 oder einem Ai . Also ist C Teilformel von B0 → B1 oder einem Ai . Die Fälle M = λxM0 und M = hM0 , M1 i behandelt man ähnlich. u t 1 A1 m Am Lemma 2.3.3. Sei M [u∀x , . . . , u∀x ] : ∀y∀yB0 eine normale Herleitung mit quantorenfreien Form 1 meln A1 , . . . , Am , B0 , die nicht mit einer Einführungsregel endet. Dann ist M von der Form ui t. Beweis. Induktion über M . Sei B := ∀y∀yB0 . Im Fall M B = ui ist die Behauptung trivial. Fall M B = M0D→B M1D . Da M normal ist, kann M0 nicht mit einer Einführungsregel enden. Also ist nach Lemma 2.3.1 D → B eine Teilformel von einem ∀xi Ai . Dies ist aber unmöglich, da B mit ∀ beginnt; also kann dieser Fall nicht eintreten. Die Fälle M B = N B∧D 0 and M B = N D∧B 1 behandelt man ähnlich. Fall M B = N ∀zD t mit B = D[z := t]. Dann haben wir ∀zD = ∀z∀y∀yD0 mit quantorenfreiem D0 . Nach IH u t folgt N = ui t, also M = ui tt. ∀xm Am ] : B eine normale Herleitung mit quantorenfreiSatz 2.3.4. ( Herbrand). Sei M [u1∀x1 A1 , . . . , um B en Formeln A1 , . . . , Am , B. Dann enthält M keine All-Einführungsregel, und jedes Vorkommen einer Annahmevariablen ui in M ist in einem Kontext ui : ∀xi Ai tij . Ai [xi := tij ] Insbesondere findet man Terme t11 , . . . , t1n1 , . . . , tm1 , . . . , tmnm mit A1 [x1 := t11 ], . . . , A1 [x1 := t1n1 ], . . . , Am [xm := tm1 ], . . . , Am [xm := tmnm ] ` B. Beweis. Teil 1. Im Fall M = ui ist nichts zu zeigen. Fall M B = M0D→B M1D . Da M normal ist, kann M0 nicht mit einer Einführungsregel enden. Nach Lemma 2.3.1 ist D → B Teilformel eines ∀xi Ai . Also ist D → B quantorenfrei, und die IH läßt sich anwenden. Die Fälle M B = N B∧D 0 und M B = N D∧B 1 behandelt man ähnlich. Fall M B = N ∀zD t mit B = D[z := t], also D quantorenfrei. Da M B normal ist, kann N nicht mit einer Einführungsregel enden. Nach Lemma 2.3.3 muß N dann die Form ui t haben, also M = ui tt. Fall M B = λuB0 M1B1 mit B = B0 → B1 . Dann sind B0 und B1 quantorenfrei, und die IH liefert die Behauptung. Den Fall M = hM0 , M1 i behandelt man ähnlich. Teil 2. Ersetzt man alle Vorkommen von ui tij durch neue Annahmevariablen vij : Ai [xi := tij ], so erhält man eine korrekte Herleitung, da M nach Teil (1) keine All-Einführungsregel enthält, also auch keine der Variablen tij weiter unten in der Herleitung gebunden ist. u t 2.4 Normale versus nicht-normale Herleitungen Wir wollen jetzt zeigen, daß die Forderung, stets eine normale Herleitung für eine herleitbare Formel anzugeben, manchmal unrealistisch sein kann. Wir geben Beispiele von Formeln Dk , die leicht mit nicht normalen Herleitungen (deren Knotenzahl linear in k ist) bewiesen werden können, für die aber jede normale Herleitung eine (in k) superexponentielle Anzahl von Knoten erfordert. Das Beispiel steht in enger Beziehung zu Gentzens Beweis (in [10]) der transfiniten Induktion bis ωk in der Arithmetik. Dort spielt die Funktion y ⊕ ω x eine wesentliche Rolle, und auch die Zuordnung einer “lifting”-Formel A+ zu jeder Formel A, nämlich 48 2. Beweistheorie A+ := ∀y.(∀z≺y A[x := z]) → ∀z≺y⊕ω x A[x := z]. Hier betrachten wir stattdessen die numerische Funktion y + 2x , und axiomatisieren ihren Graphen durch Hornklauseln. Die Formel Dk sagt aus, daß aus diesen Axiomen die Existenz von 2k folgt (wobei 20 := 1 und 2k+1 := 22k ). Einen kurzen, nicht normalen Beweis dieser Tatsache kann man durch eine Modifikation der Gentzenschen Idee erhalten. Man kann sich dann überzeugen, daß jede nicht normale Herleitung von Dk mindestens 2k Knotenenthalten muß. Zur Angabe der Herleitungen machen wir wesentlich Gebrauch von dem durch ¬∀¬ definierten Existenzquantor ∃ (vgl. Abschnitt 1.2). Man beachte, daß die Stabilitätsannahme ¬¬B → B nicht benötigt wird, falls B kein Atom 6= ⊥ als strikt positive Teilformel1 enthält. Dies wird für die unten anzugebenden Herleitungen der Fall sein; B ist dort immer eine existentielle Formel. Wir fixieren zunächst unsere Sprache. Verwendet wird ein dreistelliges Relationssymbol R, das den Graphen der Funktion y + 2x beschreiben soll; R(y, x, z) meint also y + 2x = z. Wir axiomatisieren R mit Hilfe von Hornklauseln. Zur Vereinfachung verwenden wir ein einstelliges Funktionssymbol s (zu verstehen als die Nachfolgerfunktion) und eine Konstante 0; man könnte auch ohne Funktionssymbole auskommen, aber dies macht die Formeln weniger lesbar und die Beweise weniger durchsichtig. Hyp1 : ∀yR(y, 0, s(y)) Hyp2 : ∀y, x, z, z1 .R(y, x, z) → R(z, x, z1 ) → R(y, s(x), z1 ) Die Zielformel ist Ck := ∃zk , . . . , z0 .R(0, 0, zk ) ∧ R(0, zk , zk−1 ) ∧ . . . ∧ R(0, z1 , z0 ). Um einen kurzen Beweis von Dk := Hyp1 → Hyp2 → Ck zu erhalten, verwenden wir Formeln Ai mit einem freien Parameter x; zur besseren Lesbarkeit schreiben wir A[r] anstelle von A[x := r]. A0 := ∀y∃z R(y, x, z), Ai+1 := ∀y.Ai [y] → ∃z.Ai [z] ∧ R(y, x, z). Lemma 2.4.1. ` Hyp1 → Hyp2 → Ai [0]. Beweis. Wir geben ein informales Argument, das sich leicht in einen formalen Beweis umformen läßt. Man beachte, daß die Existenzbeseitigung nur mit Existenzformeln als Konklusionen verwendet wird. Es ist also nicht nötig, Stabilitätsannahmen zu machen und wir erhalten eine Herleitung in der Minimallogik. Fall i = 0. Klar nach Hyp1 . Fall i = 1. Sei x mit A0 [x] gegeben. Es genügt zu zeigen A0 [s(x)], also ∀y∃z1 R(y, s(x), z1 ). Sei also y gegeben. Wir wissen A0 [x] = ∀y∃z R(y, x, z). (2.6) Anwendung von (2.6) auf unser y ergibt z mit R(y, x, z). Nochmalige Anwendung von (2.6) auf dieses z ergibt z1 mit R(z, x, z1 ). Nach Hyp2 erhalten wir R(y, s(x), z1 ). Fall i + 2. Sei x mit Ai+1 [x] gegeben. Es genügt zu zeigen Ai+1 [s(x)], also ∀y.Ai [y] → ∃z.Ai [z] ∧ R(y, s(x), z). Sei also y mit Ai [y] gegeben. Wir wissen Ai+1 [x] = ∀y.Ai [y] → ∃z1 .Ai [z1 ] ∧ R(y, x, z1 ). (2.7) Anwendung von (2.7) auf unser y ergibt z mit Ai [z] und R(y, x, z). Nochmalige Anwendung von (2.7) auf u t dieses z ergibt z1 mit Ai [z1 ] und R(z, x, z1 ). Nach Hyp2 erhalten wir R(y, s(x), z1 ). Man beachte, daß diese Herleitungen eine feste Länge haben, die nicht von i abhängt. 1 Die Formeln A, B sind unmittelbare strikt positive Teilformeln von A∧B, B ist eine unmittelbare strikt positive Teilformel von A → B, und für jeden Term t ist die Formel A[x := t] eine unmittelbare strikt positive Teilformel von ∀xA. Die Relation “A ist eine strikt positive Teilformel von B” ist der reflexiv-transitive Abschluß dieser Relation. 2.5 Anmerkungen 49 Lemma 2.4.2. ` Hyp1 → Hyp2 → Ck . Beweis. Wir geben ein informales Argument, das sich leicht in einen formalen Beweis umformen läßt. Man beachte wieder, daß die Existenzbeseitigung nur mit Existenzformeln als Konklusionen verwendet wird, und wir deshalb eine Herleitung in der Minimallogik erhalten. Ak [0] angewandt auf 0 und Ak−1 [0] liefert zk mit Ak−1 [zk ] und R(0, 0, zk ). Ak−1 [zk ] angewandt auf 0 und Ak−2 [0] liefert zk−1 mit Ak−2 [zk−1 ] und R(0, zk , zk−1 ). A1 [z2 ] angewandt auf 0 und A0 [0] liefert z1 mit A0 [z1 ] und R(0, z2 , z1 ). A0 [z1 ] angewandt auf 0 liefert z0 mit R(0, z1 , z0 ). t u Man beachte, daß diese Herleitungen eine in k lineare Länge haben. Wir wollen jetzt die Länge einer beliebigen normalen Herleitung von Dk nach unten abschätzen. Lemma 2.4.3. Jede normale Herleitung von Ck aus Hyp1 und Hyp2 hat mindestens 2k Knoten. Beweis. Sei M eine normale Herleitung von ⊥ aus Hyp1 , Hyp2 und der zusätzlichen Annahme u : ∀zk , . . . , z0 .R(0, 0, zk ) → R(0, zk , zk−1 ) → . . . → R(0, z1 , z0 ) → ⊥. Wir können annehmen, daß M keine freien Objektvariablen enthält (anderfalls ersetze man sie durch 0). Der Hauptast von M muß mit u beginnen, und seine Nebenprämissen sind alle von der Form R(0, sn (0), sk (0)). Man beachte, daß jede normale Herleitung von R(sm (0), sn (0), sk (0)) aus Hyp1 , Hyp2 und u mindestens n 2 Vorkommen von Hyp1 enthält, und daß k = m + 2n gelten muß. Dies sieht man leicht durch Induktion über n. Man beachte auch, daß eine solche Herleitung die Annahmenvariable u nicht enthalten kann. Wendet man diese Beobachtung auf die obigen Herleitung der Nebenprämissen an, so sieht man, daß sie herleiten 0 0 20 R(0, 0, s2 (0)), R(0, s2 (0), s2 (0)), . . . R(0, s2k−1 (0), s2k (0)). Die letzte dieser Herleitungen verwendet mindestens 22k−1 = 2k -mal Hyp1 . u t 2.5 Anmerkungen Das System des natürlichen Schließens wurde von Gentzen [9] eingeführt. Den Beweis der starken Normalisierung haben wir mit einer auf W.W. Tait [39] zurückgehenden Methode geführt. Das Beispiel von Herleitungen mit kurzen nicht normalen Beweisen und superexponentiell langen Normalformen geht zurück auf Statman [37] und Orevkov [22]. Orevkovs Ergebnis ist eine Adaption des Statmanschen für Sprachen mit Funktionssymbolen. Unsere Darstellung folgt [42]. 50 2. Beweistheorie 3. Berechenbarkeit 3.1 Primitiv rekursive Funktionen Wir beschränken uns auf die Diskussion der Berechenbarkeit von Funktionen F : Nn → N. Eine solche Funktion soll berechenbar (im intuitiven Sinn) heißen, wenn es einen Algorithmus gibt, der für jedes Argumentetupel a1 , . . . , an terminiert und den Funktionswert f (a1 , . . . , an ) liefert. In diesem Abschnitt behandeln wir besonders einfache berechenbare Funktionen, nämlich die von Hilbert eingeführten sogenannten primitiv rekursiven Funktionen, die aus einfachen Ausgangsfunktionen durch Komposition (oder Einsetzung) und primitive Rekursion erzeugt werden können. Obwohl diese Definitionsschemata recht speziell sind, wird sich zeigen, daß nahezu alle in der Mathematik verwendeten zahlentheoretischen Funktionen primitiv rekursiv sind. Insbesondere werden wir in Abschnitt 3.3 Terme, Formeln und Herleitungen durch natürliche Zahlen kodieren und zeigen, daß die charakteristischen Funktionen der entsprechenden Mengen von Kodenummern primitiv rekursiv sind. Wir definieren induktiv für jedes n ∈ N eine Menge PRn von n-stelligen Funktionssymbolen. 1. 0n ∈ PRn (n ≥ 0), S ∈ PR1 , Iin ∈ PRn (1 ≤ i ≤ n). 2. Sind g1 , . . . , gm ∈ PRn , h ∈ PRm und m ≥ 1, n ≥ 0, so ist (◦hg1 . . . gm ) ∈ PRn . 3. Ist g ∈ PRn und h ∈ PRn+2 , so ist (Rgh) ∈ PRn+1 . S Wir setzen PR := n∈N PRn und 0 := 00 . Zu der durch PR gegebenen Sprache definieren wir eine Standardstruktur N wie folgt. Es ist |N | := N und (0n )N (a1 , . . . , an ) := 0, SN (a) := a + 1, (Iin )N (a1 , . . . , an ) := ai , N (◦hg1 . . . gm )N (a) := hN (g1N (a), . . . , gm (a)), (Rgh)N (0, b) := g N (b), (Rgh)N (a + 1, b) := hN (a, (Rgh)N (a, b), b). Eine Funktion F : Nn → N heißt primitiv rekursiv , wenn es ein f ∈ PRn gibt mit F = f N . Eine Relation R ⊆ Nn heißt primitiv rekursiv, wenn ihre charakteristische Funktion 1R primitiv rekursiv ist, wobei ( 1, falls a ∈ R; 1R (a) := 0, sonst. Wir wollen zunächst zeigen, daß die Menge der primitiv rekursiven Funktionen gegen explizite Definitionen abgeschlossen ist. Dazu definieren wir für jeden PR-Term t und verschiedene Variablen x1 , . . . , xn (n ≥ 1) mit vars(t) ⊆ {x1 , . . . , xn } ein n-stelliges Funktionssymbol λx1 , . . . , xn t wie folgt. λx1 , . . . , xn 0 := 0n , λx1 , . . . , xn xi := Iin , λx1 , . . . , xn .ht1 . . . tm := (◦hg1 . . . gm ), wobei gi := λx1 , . . . , xn ti . 52 3. Berechenbarkeit Lemma 3.1.1. Für jeden PR-Term t und verschiedene Variablen x1 , . . . , xn (n ≥ 1) mit vars(t) ⊆ {x1 , . . . , xn } gilt (λx1 , . . . , xn t)N (a1 , . . . , an ) = tN [a1 , . . . , an /x1 , . . . , xn ]. Beweis. Induktion über t. Wir schreiben tN [a] für tN [a1 , . . . , an /x1 , . . . , xn ]. (λx 0)N (a) = (0n )N (a) = 0 = 0N [a]. (λx xi )N (a) = (Iin )N (a) = ai = xN i [a]. Sei t = ht1 . . . tm und gi := λx1 , . . . , xn ti . Dann ist (λx t)N (a) = (◦hg1 . . . gm )N (a) N = hN (g1N (a), . . . , gm (a)) N = hN (tN 1 [a], . . . , tm [a]) nach IH = tN [a]. u t Wir verwenden a, b, c, i, j, k, `, m, n als Mitteilungszeichen für natürliche Zahlen. Ist f ∈ PRn , so bezeichnen wir die Funktion f N : Nn → N ebenfalls kurz mit f ; in diesem Sinn ist PRn die Menge der nstelligen und PR die Menge aller primitiv rekursiven Funktionen. PR ist also die kleinste Funktionenmenge, die die Ausgangsfunktionen 0n , Iin , S enthält und abgeschlossen ist gegen Komposition (oder Einsetzung) ◦ und primitive Rekursion R. Beispiele. Setzt man +̃ := RI11 (λx, y, z.S(y)), so ist +̃(0, b) = b, +̃(a + 1, b) = S(+̃(a, b)), und setzt man ˜· := R01 (λx, y, z.+̃yz), so ist ˜·(0, b) = 0, ˜·(a + 1, b) = +̃(˜·(a, b), b). Es gilt also +̃(a, b) = a+b und ˜·(a, b) = a·b; wir schreiben deshalb +, · für +̃,˜·. Weiter sei pd := R0(λx, y x) · := RI11 (λx, y, z.pd(y)). Dann gilt und − pd(0) = 0 pd(a + 1) = a · 0 = b, b− · · a) b − (a + 1) = pd(b − · die übliche Infixschreibweise verwendet haben. Es ist also wobei wir für − ( falls b ≤ a; · a = 0, b− b − a, sonst. Für f ∈ PRn+1 sei P f := R0n (λx, y, z (y + f (x, z))), also X f (0, b) = 0, X X f (a + 1, b) = f (a, b) + f (a, b). P P In Anlehnung an die übliche mathematische Terminologie schreiben wir f (a, b). i<a f (i, b) für Q Q Q n Ähnlich setzen wir := R(◦S0 · (x, z)), f b) (x, b). f )λx, y, z (y f also ( )(a, = f Wir schreiben x<a P P auch i≤a f (i, b) für i<S(a) f (i, b) und entsprechend bei Produkten. 3.1 Primitiv rekursive Funktionen 53 Man beachte, daß eine Relation R ⊆ Nn genau dann primitiv rekursiv ist, wenn es ein f ∈ PRn gibt · 1R (a). · f (a) bzw. setze f (a) = 1 − mit R = { a ∈ Nn | f (a) = 0 }; zum Beweis beachte man 1R (a) = 1 − Um neben Termen auch Formeln betrachten zu können, nehmen wir im folgenden an, daß die Sprache PR noch das Gleichheitssymbol = enthält, und daß =N in der Standardstruktur N die Gleichheit auf N · t = 0; offenbar gilt dann ist. Wir schreiben s < t für S(s) − N |= (s < t)[η] ⇐⇒ sN [η] < tN [η]. Eine Relation R ⊆ Nn heißt definierbar durch eine Formel A[x1 , . . . , xn ] der Sprache PR, wenn R = { (a1 , . . . , an ) ∈ Nn | N |= A[a1 , . . . , an /x1 , . . . , xn ] }. Offenbar sind genau die primitiv rekursiven Relationen durch atomare PR-Formeln definierbar. Wir wollen jetzt zeigen, daß dasselbe auch für eine reichere Formelmenge der Fall ist, nämlich für die sogenannten ∆0 -Formeln der Sprache PR. Wir setzen im Fall x ∈ / vars(t) ∀x<t A := ∀x.x < t → A, ∃x<t A := ¬∀x.x < t → ¬A, ∀x≤t A := ∀x<S(t) A, ∃x≤t A := ∃x<S(t) A. Man beachte, daß ∃x<t A logisch äquivalent ist zu ∃x.x < t ∧ A. ∆0 -Formeln werden induktiv definiert durch • Jede PR-Primformel ist eine ∆0 -Formel; insbesondere ist also ⊥ eine ∆0 -Formel. • Sind A und B ∆0 -Formeln, so auch A → B. / vars(t), so ist auch ∀x<t A eine ∆0 -Formel. • Ist A eine ∆0 -Formel und t ein PR-Term mit x ∈ Es folgt, daß mit A im Fall x ∈ / vars(t) auch ∃x<t A eine ∆0 -Formel ist. Lemma 3.1.2. Ist A eine ∆0 -Formel mit FV(A) ⊆ {x1 , . . . , xn }, so ist die Relation { (a1 , . . . , an ) ∈ Nn | N |= A[a1 , . . . , an /x1 , . . . , xn ] } primitiv rekursiv. Beweis. Wir definieren für jede ∆0 -Formel A einen PR-Term rA mit vars(rA ) = FV(A) so daß für jede N N -Belegung η gilt rA [η] = 0 ⇐⇒ N |= A[η]. r⊥ := S(0), · t) + (t − · s), rs=t := (s − · rA→B := (1 − rA ) · rB , X r∀x<t A := f ty mit f = λx, y rA und FV(∀x<t A) = {y}. u t Es folgt, daß die Menge aller primitiv rekursiven Relationen abgeschlossen ist gegen ∩, ∪, \, beschränkte Quantifikation sowie gegen die Einsetzung von primitiv rekursiven Funktionen. Lemma 3.1.3. Sind f1 , . . . , fk+1 ∈ PRn und sind R1 , . . . , Rk ⊆ Nn paarweise disjunkte primitiv rekursive Relationen, so ist auch die wie folgt definierte Funktion f : Nn → N primitiv rekursiv. falls R1 (a); f1 (a), . .. . . f (a) := . falls Rk (a); f (a), k fk+1 (a), sonst. 54 3. Berechenbarkeit Beweis. Sei Rk+1 := Nn \ (R1 ∪ · · · ∪ Rk ). Dann ist f = λx.f1 (x) · 1R1 (x) + · · · + fk (x) · 1Rk (x) + fk+1 (x) · 1Rk+1 (x). t u Der beschränkte µ-Operator macht aus jedem g : Nn+1 → N ein µg : Nn → N, das wie folgt definiert ist. ( min{ i | g(i, b) = 0 }, falls ∃i<a (g(i, b) = 0); (µg)(a, b) := a, sonst. Wir schreiben auch µi<a (g(i, b) = 0) für (µg)(a, b) und µi≤a (g(i, b) = 0) für µi<S(a) (g(i, b) = 0). Lemma 3.1.4. Mit g : Nn+1 → N ist auch µg primitiv rekursiv. Beweis. Sei h(c, b) := ( c, falls g(c, b) = 0 und ∀i<c (g(i, b) 6= 0); 0, sonst. h ist nach den Lemmata 3.1.2 und 3.1.3 primitiv rekursiv, und wir haben (P i<a h(i, b), falls ∃i<a (g(i, b) = 0); µi<a (g(i, b) = 0) = a, sonst. u t Beispiele. ba := Y b, i<a a! := . . . (Übung), a|b :↔ ∃x≤b (b = a · x), ba/bc := µx≤a (a < b · (x + 1)), r(a, b) := . . . (Übung), Pr(a) :↔ . . . (Übung), q(a) := µx≤a!+1.x > a ∧ Pr(x), i X pi := µx≤22 1Pr (y) = i + 1 . y≤x i Die Abschätzung pi ≤ 22 für die i-te Primzahl pi beweist man durch Induktion über i: Für i = 0 ist dies klar, und für i ≥ 1 erhält man 0 1 pi ≤ p0 p1 · · · pi−1 + 1 = 22 22 · · · 22 i−1 + 1 = 22 i −1 i + 1 < 22 . Man kann die Eindeutigkeit der Darstellung natürlicher Zahlen als Primzahlpotenzprodukt verwenden, um eine endliche Folge a0 , a1 , . . . , an−1 natürlicher Zahlen durch Y a := pai i i<n zu kodieren; dies nennt man die Primzahlpotenzkodierung. Die i-te Komponente der durch a kodierten Folge kann man aus a und i ablesen durch exp(i, a) := µx≤a (pix+1 6 |a). Q Offenbar ist exp und für jedes feste n die Funktion (a0 , . . . , an−1 ) 7→ i<n piai primitiv rekursiv. Bei der Primzahlpotenzkodierung wird das Zahlenpaar a, b durch die Zahl 2a 3b kodiert. Dieses exponentielle Wachstum einer Paarkodierungsfunktion ist aber nicht notwendig, denn man kann N × N auch wie folgt abzählen. 3.1 Primitiv rekursive Funktionen 55 .. . 10 6 3 1 ... 7 ... 4 8 ... 0 2 5 9 ... An der Stelle (0, b) steht offenbar die Summe der Längen der vorangehenden Diagonalen, und auf der nächsten Diagonalen bleibt a + b konstant. Nennt man die an der Stelle (a, b) eingetragene Zahl π(a, b), so ergibt sich X 1 π(a, b) = i + a = (a + b)(a + b + 1) + a. 2 i≤a+b Offenbar ist π : N × N → N bijektiv. Ferner gilt a, b ≤ π(a, b) und im Fall π(a, b) = 6 0 auch a < π(a, b). Setzt man π1 (c) := µx≤c∃y≤c (π(x, y) = c), π2 (c) := µy≤c∃x≤c (π(x, y) = c), so folgt unmittelbar πi (c) ≤ c für i ∈ {1, 2} und π1 (π(a, b)) = a, π2 (π(a, b)) = b, π(π1 (c), π2 (c)) = c. Ferner sind π, π1 , π2 aufgrund ihrer Definitionen primitiv rekursiv. Mit Hilfe der Paarfunktion π kann man jetzt leicht (wie etwa in der Programmsprache Lisp oder Scheme) eine andere Kodierung von endlichen Folgen natürlicher Zahlen definieren. Wir setzen hi := 0, ha0 , a1 , . . . , an i := π(a0 , ha1 , . . . , an i) + 1. Offenbar läßt sich dann jede Zahl a eindeutig in der Form a = ha0 , a1 , . . . , an−1 i darstellen. Aus a lassen sich die Bestandteile dieser Darstellung wieder ablesen durch die folgenden Funktionen. · 1) hd steht für “head”, hd(a) := π1 (a − · 1) tl steht für “tail”, tl(a) := π2 (a − τ (a, 0) := a, τ (a, k + 1) := tl(τ (a, k)). 6 0 gilt τ (a, k + 1) < τ (a, k). Man beachte, daß für τ (a, k) = lh(a) := µk≤a(τ (a, k) = 0), ( hd(τ (a, i)), falls i < lh(a); (a)i := 0, sonst. Es folgt lh(a) ≤ a und (a)i ≤ a; für i < lh(a) gilt sogar (a)i < a, denn dann ist (a)i = hd(τ (a, i)) < τ (a, i) ≤ a. Offenbar sind die Funktionen (a0 , . . . , an ) 7→ ha0 , . . . , an i für jedes feste n, sowie hd, tl, τ, lh und (a, i) 7→ (a)i primitiv rekursiv. Wir schreiben (a)i,j für ((a)i )j und (a)i,j,k für (((a)i )j )k . 56 3. Berechenbarkeit Lemma 3.1.5. hd(ha0 , a1 , . . . , an i) = a0 , tl(ha0 , a1 , . . . , an i) = ha1 , . . . , an i, τ (ha0 , . . . , ak , . . . , an i, k) = hak , . . . , an i, lh(ha0 , . . . , an−1 i) = n, (ha0 , . . . , an−1 i)i = ai u t für i < n. Wir werden beide Kodierungen von endlichen Folgen natürlicher Zahlen nebeneinander verwenden. Ein Vorteil der Primzahlpotenzkodierung liegt darin, daß man die bekannte Produktschreibweise verwenden kann. Dies nutzen wir aus in dem folgenden Beweis, daß die Menge der primitiv rekursiven Funktionen abgeschlossen ist gegen Wertverlaufsrekursion. Für jedes f : Nn+1 → N definieren wir seine Wertverlaufsfunktion f durch Y f (i,b) pi . f (a, b) := i<a Es folgt, daß mit f auch f primitiv rekursiv ist. Lemma 3.1.6. (Wertverlaufsrekursion). Mit g ist auch die durch f (a, b) := g(a, f (a, b), b) definierte Funktion f primitiv rekursiv. Beweis. Es gilt f (0, b) = 1, f (a + 1, b) = f (a, b) · pag(a,f (a,b),b) . Also ist mit g auch f primitiv rekursiv, und deshalb wegen f (a, b) = exp(a, f (a + 1, b)) auch f . u t Wir zeigen jetzt, daß die Menge der primitiv rekursiven Funktionen auch gegen primitive Rekursion mit Einsetzungen in Parameterstellen abgeschlossen ist; dies wurde zuerst von R. Péter bewiesen (s. etwa [28]). Zur Vorbereitung beweisen wir ein Lemma über primitive Rekursion mit Abstieg bezüglich einer “Maßzahl” h(a, b). Dieses Lemma werden wir später als Lemma 3.1.10 noch wesentlich verschärfen können. Lemma 3.1.7. Alle i mit h(i, b) < c seien abschätzbar durch i < h0 (c, b). Es gelte f (0, b) = g1 (b), f (a, b) = g2 (a, f (t1 (a, b), b), . . . , f (tk (a, b), b), b) falls a > 0, h(tj (a, b), b) < h(a, b) für 1 ≤ j ≤ k, falls a > 0. Dann ist mit g1 , g2 , t1 , . . . , tk , h und h0 auch f primitiv rekursiv. Beweis. Zur Vereinfachung lassen wir die Parameter b weg. Sei Y f (i) f˜(c) := pi . h(i)<c Dann gilt offenbar f (a) = exp(a, f˜(h(a) + 1)) und f˜(0) = 1, f˜(c + 1) = f˜(c) · = f˜(c) · Y f (i) pi h(i)=c Y 0<i<h0 (c+1) h(i)=c g (i,exp(t1 (i),f˜(c)),...,exp(tk (i),f˜(c))) pi 2 · ( pg01 , falls h(0) = c, 1, sonst. 3.1 Primitiv rekursive Funktionen 57 Sind g1 , g2 , t1 , . . . , tk , h, h0 primitiv rekursiv, so ist offenbar auch f˜ und damit auch f primitiv rekursiv. u t Satz 3.1.8. (Primitive Rekursion mit Einsetzungen in Parameterstellen). Sei f (0, b, c) = g1 (b, c), f (a + 1, b, c) = g2 (a, f (a, h1 (a, b, c), c), . . . , f (a, hk (a, b, c), c), b, c). Dann ist mit g1 , g2 , h1 , . . . , hk auch f primitiv rekursiv. Beweis. Zur Vereinfachung lassen wir die Parameter c weg. Sei ĥ(a, b) := max h` (i, j) + b + 1 i≤a,j≤b 1≤`≤k und h∗ (0, a, b) := b, h∗ (c + 1, a, b) := ĥ(a, h∗ (c, a, b)). Dann sind mit h1 , . . . , hk auch ĥ, h∗ primitiv rekursiv. Man beachte hier, daß mit g auch maxi<a g(i, b) primitiv rekursiv ist. Ferner zeigt man leicht durch Induktion über c h∗ (c + 1, a, b) = h∗ (c, a, ĥ(a, b)), h∗ (c, a, b) ≥ max(c, b). Wir verwenden jetzt Lemma 3.1.7 mit h(π(a, b)) := h∗ (a, a, b) (und h(0) := 0). Sei also h(x) < c. Dann folgt c > h∗ (π1 (x), π1 (x), π2 (x)) ≥ max(π1 (x), π2 (x)) ≥ πi (x), also x = π(π1 (x), π2 (x)) < π(c, c) =: h0 (c). Sei jetzt f˜(π(0, b)) = g1 (b), f˜(π(a + 1, b)) = g2 (a, f˜(π(a, h1 (a, b))), . . . , f˜(π(a, hk (a, b))), b). Dann gilt offenbar f (a, b) = f˜(π(a, b)). Ferner hat man · 1, b))) < h(π(a, b)) für 1 ≤ ` ≤ k und a > 0, · 1, h` (a − h(π(a − denn es gilt · 1, h` (a − · 1, b))) = h∗ (a − · 1, a − · 1, h` (a − · 1, b)) h(π(a − · 1, ĥ(a − · 1, a − · 1, b)) < h∗ (a − ∗ · 1, b) = h (a, a − ≤ h∗ (a, a, b) = h(π(a, b)). Für a = 0 und b > 0 kann man tj (π(0, b)) := 0 setzen, denn dann ist h(tj (π(0, b))) = h(0) < h(π(0, b)). Damit ergibt sich die Behauptung aus Lemma 3.1.7. u t Wir zeigen schließlich noch, daß auch die Wertverlaufsrekursion mit Einsetzungen in Parameterstellen nicht aus den primitiv rekursiven Funktionen hinausführt. 58 3. Berechenbarkeit Korollar 3.1.9. Mit g, h1 , . . . , hk ist auch die durch f (a, b, c) := g(a, f (a, h1 (a, b, c), c), . . . , f (a, hk (a, b, c), c), b, c) definierte Funktion f primitiv rekursiv. Beweis. Es gilt f (0, b, c) = 1, (a,h1 (a,b,c),c),...,f (a,hk (a,b,c),c),b,c) . f (a + 1, b, c) = f (a, b, c) · pg(a,f a Also ist mit g auch f primitiv rekursiv, also wegen f (a, b, c) = exp(a, f (a + 1, b, c)) auch f . u t Jetzt können wir Lemma 3.1.7 wie folgt verschärfen. Lemma 3.1.10. (Primitive Rekursion nach einer Maßzahl). Es gelte f (0, b) = g1 (b), f (a, b) = g2 (a, f (t1 (a, b), b), . . . , f (tk (a, b), b), b) falls a > 0, h(tj (a, b), b) < h(a, b) für 1 ≤ j ≤ k, falls a > 0. Dann ist mit g1 , g2 , t1 , . . . , tk und h auch f primitiv rekursiv. Beweis. Zur Vereinfachung lassen wir die Parameter b weg. Es gilt f (a) = f ∗ (h(a), a) mit folgendem f ∗ : ( g2 (a, f ∗ (h(t1 (a)), t1 (a)), . . . , f ∗ (h(tk (a)), tk (a))), falls c = h(a) und a > 0; ∗ f (c, a) := sonst. g1 , f ∗ ist primitiv rekursiv nach Korollar 3.1.9. u t 3.2 Rekursive Funktionen, rekursiv aufzählbare Relationen Aus den primitiv rekursiven Relationen erhält man durch Projektion die rekursiv aufzählbaren Relationen und daraus die rekursiven Funktionen als die Menge der Funktionen mit rekursiv aufzählbaren Graphen. Es wird sich zeigen, daß dieser Begriff einer rekursiven Funktion eine Präzisierung des intuitiven Begriffs der berechenbaren Funktion ist (Churchsche These). Eine Relation R ⊆ Nn heißt rekursiv aufzählbar , wenn es eine primitiv rekursive Relation Q ⊆ Nn+1 gibt mit R = { (a1 , . . . , an ) | ∃b (b, a1 , . . . , an ) ∈ Q }. Insbesondere ist deshalb jede primitiv rekursive Relation rekursiv aufzählbar. Lemma 3.2.1. Eine nichtleere Menge M ⊆ N ist rekursiv aufzählbar genau dann, wenn es ein f ∈ PR1 gibt mit M = ran(f ). Beweis. =⇒. Sei M ⊆ N rekursiv aufzählbar, also M = { c | ∃b (b, c) ∈ Q }. Nach Annahme ist M 6= ∅, es gibt also ein a0 ∈ M . Setze ( π2 (a), falls (π1 (a), π2 (a)) ∈ Q; f (a) := a0 , sonst. Dann ist M = ran(f ), und nach Lemma 3.1.3 gilt f ∈ PR1 . ⇐=. Sei M = ran(f ) für ein f ∈ PR1 . Dann ist M = { c | ∃b f (b) = c } und deshalb rekursiv aufzählbar. u t Unter denselben Annahmen, unter denen wir in Abschnitt 3.1 ∆0 -Formeln eingeführt hatten, definieren wir jetzt induktiv den Begriff einer Σ1 -Formel der Sprache PR. 3.2 Rekursive Funktionen, rekursiv aufzählbare Relationen • • • • 59 Jede PR-Primformel und jede negierte PR-Primformel ist eine Σ1 -Formel. Sind A und B Σ1 -Formeln, so auch A ∧ B und A ∨ B. / vars(t), so ist ∀x<t A eine Σ1 -Formel. Ist A eine Σ1 -Formel und t ein PR-Term mit x ∈ Ist A eine Σ1 -Formel, so ist ∃xA eine Σ1 -Formel. Offenbar ist jede ∆0 -Formel logisch äquivalent zu einer Σ1 -Formel und jede rekursiv aufzählbare Relation definierbar durch eine Σ1 -Formel. Auch die Umkehrung ist richtig: Lemma 3.2.2. Ist A eine Σ1 -Formel mit FV(A) ⊆ {x1 , . . . , xn }, so ist die Relation { (a1 , . . . , an ) ∈ Nn | N |= A[a1 , . . . , an /x1 , . . . , xn ] } rekursiv aufzählbar. Beweis. Eine Σ1 -Formel A heiße strikt, wenn sie von der Form ∃x A mit einer ∆0 -Formel A ist. Wir konstruieren zu jeder Σ1 -Formel A eine strikte Σ1 -Formel A0 mit FV(A) = FV(A0 ) und N |= ∀(A ↔ A0 ), und zwar durch Rekursion über die Definition der Σ1 -Formeln. Daraus folgt offenbar die Behauptung. Ist A eine PR-Primformel oder negierte PR-Primformel, so setze man A0 := ∃z A mit z ∈ / FV(A). In den restlichen Fällen sei A0 = ∃x à und B 0 = ∃y B̃ mit ∆0 -Formeln à und B̃. Wir setzen (A ∨ B)0 := ∃z.Ã[x := z] ∨ B̃[y := z], (A ∧ B)0 := ∃z.Ã[x := π1 z] ∧ B̃[y := π2 z], (∀y<t A)0 := ∃z∀y<t ∃x<z Ã, (∃y A)0 := ∃z Ã[x, y := π1 z, π2 z] / FV(Ã) ∪ vars(t). wobei z ∈ / FV(Ã) ∪ FV(B̃) bzw. z ∈ t u Es folgt, daß die Menge aller rekursiv aufzählbaren Relationen abgeschlossen ist gegen ∩, ∪, beschränkte Allquantifikation, unbeschränkte Existenzquantifikation (oder Projektion) sowie gegen die Einsetzung von primitiv rekursiven Funktionen. Eine Funktion f : Nn → N heißt rekursiv , wenn ihr Graph Gf := { (a1 , . . . , an , b) | f (a1 , . . . , an ) = b } rekursiv aufzählbar ist. Eine Relation R ⊆ Nn heißt rekursiv , wenn ihre charakteristische Funktion 1R rekursiv ist. Hieraus ergibt sich, daß jede primitiv rekursive Relation auch rekursiv ist. Lemma 3.2.3. Eine Relation R ⊆ Nn ist rekursiv genau dann, wenn R und ihr Komplement Nn \ R rekursiv aufzählbar sind. Beweis. =⇒. Sei R rekursiv, also 1R rekursiv, also G1R = { (a, 1) | a ∈ R } ∪ { (a, 0) | a ∈ Nn \ R } rekursiv aufzählbar. Dann sind R = { a | (a, 1) ∈ G1R } und Nn \ R = { a | (a, 0) ∈ G1R } rekursiv aufzählbar nach Lemma 3.2.2. ⇐=. Seien R und Nn \ R rekursiv aufzählbar. Dann gibt es Σ1 -Formeln A und A0 mit R = { a | N |= A[a] }, Nn \ R = { a | N |= A0 [a] }. Zu zeigen ist, daß die charakteristische Funktion 1R rekursiv ist, also, daß ihr Graph G1R rekursiv aufzählbar ist. Es gilt G1R = { (a, b) | 1R (a) = b } = { (a, b) | (a ∈ R und b = 1) oder (a ∈ Nn \ R und b = 0) } = { (a, b) | N |= ((A ∧ y = 1) ∨ (A0 ∧ y = 0))[a, b] }. Damit ist gezeigt, daß G1R durch eine Σ1 -Formel definierbar und deshalb rekursiv aufzählbar ist. u t 60 3. Berechenbarkeit Korollar 3.2.4. Für jede rekursive Funktion f ist ihr Graph Gf rekursiv. Beweis. Sei f : Nn → N rekursiv. Es genügt zu zeigen, daß Nn+1 \ Gf rekursiv aufzählbar ist. Dies folgt aber aus Nn+1 \ Gf = { (a, b) | ∃c.c = u t 6 b ∧ (a, c) ∈ Gf }. Sei F die kleinste Menge von Funktionen mit den folgenden Eigenschaften. Wir schreiben F n für die Teilmenge der n-stelligen Funktionen in F . 1. 2. 3. 4. 0n ∈ F n (n ≥ 0), S ∈ F 1 , Iin ∈ F n (1 ≤ i ≤ n). Sind g1 , . . . , gm ∈ F n , h ∈ F m und m ≥ 1, n ≥ 0, so ist (◦hg1 . . . gm ) ∈ F n . Ist g ∈ F n und h ∈ F n+2 , so ist (Rgh) ∈ F n+1 . Ist g ∈ F n+1 und gibt es zu jedem a ∈ Nn ein i ∈ N mit g(i, a) = 0, so ist die durch (µg)(a) := min{ i | g(i, a) = 0 } definierte Funktion µg in F n (unbeschränkter µ-Operator ). Wir schreiben meist µi (g(i, a) = 0) für (µg)(a). Die Funktionen in F nennen wir auch µ-rekursiv . Satz 3.2.5. F ist die Menge der rekursiven Funktionen. Beweis. Wir zeigen zunächst durch Induktion über die Definition von F , daß jedes f ∈ F rekursiv ist. Dazu konstruieren wir zu jedem f ∈ F n eine Σ1 -Formel Af [x1 , . . . , xn , y] so daß f (a) = b genau dann, wenn N |= Af [a, b]. Für die Ausgangsfunktionen ist dies trivial. Fall f = (◦hg1 . . . gm ). Af := ∃z1 , . . . , zm . Fall f = (Rgh). m V V i=1 Agi [x, zi ] ∧ Ah [z1 , . . . , zm , y]. Af [x, x, y] := ∃z.lh(z) = x + 1 ∧ Ag [x, (z)0 ] ∧ ∀i<x Ah [i, (z)i , x, (z)i+1 ] ∧ y = (z)x . Fall f = (µg). Af := Ag [y, x, 0] ∧ ∀i<y∃z Ag [i, x, S(z)]. Sei nun umgekehrt f rekursiv, also Gf rekursiv aufzählbar. Zu zeigen ist f ∈ F . Nach dem Beweis von Lemma 3.2.2 ist Gf durch eine strikte Σ1 -Formel definierbar. Es gibt also eine ∆0 -Formel A so daß Gf = { (a, b) | N |= (∃y A)[a, b] }. Nach Lemma 3.1.2 ist R := { (i, a) | N |= A[a, π1 (i), π2 (i)] } primitiv rekursiv. Es gibt also eine primitiv rekursive Funktion g mit R = { (i, a) | g(i, a) = 0 }. Nach Konstruktion gilt ∀a∃i (g(i, a) = 0) und f (a) = π1 (µi (g(i, a) = 0)). Also ist f ∈ F, da g, π1 ∈ PR ⊆ F. u t Wir wollen jetzt noch den Zusammenhang zwischen den Begriffen einer rekursiven bzw. rekursiv aufzählbaren Relation und einer rekursiven Funktion einerseits und den intuitiven Begriffen der Entscheidbarkeit und der Aufzählbarkeit einer Relation und der Berechenbarkeit einer Funktion herstellen. Der Einfachheit halber beschränken wir uns wieder auf Funktionen und Relationen über den natürlichen Zahlen. Zunächst geben wir eine informale Definition der erwähnten intuitiven Begriffe, wobei wir auch partielle Funktionen zulassen, also Funktionen f : dom(f ) → N mit dom(f ) ⊆ Nn . Eine Funktion heißt total , wenn sie auf ganz Nn definiert ist. Eine Relation R ⊆ Nn heißt entscheidbar , wenn es einen Algorithmus gibt, der für jedes Argumentetupel a terminiert und entscheidet, ob a zu R gehört oder nicht. Eine Relation R ⊆ Nn heißt aufzählbar (oder positiv berechenbar), wenn es einen Algorithmus gibt, der für jedes Argumentetupel a genau dann terminiert, wenn a zu R gehört. Eine Funktion f : dom(f ) → N mit dom(f ) ⊆ Nn heißt berechenbar , wenn es einen Algorithmus gibt, der für jedes Argumentetupel a folgendes leistet. 3.3 Kodierung der Logik 61 1. Der Algorithmus terminiert auf a genau dann, wenn a ∈ dom(f ). 2. Für jedes a ∈ dom(f ) liefert der Algorithmus bei Eingabe von a den Wert f (a). Zunächst notieren wir einige einfache Eigenschaften entscheidbarer und aufzählbarer Relationen und berechenbarer Funktionen. Lemma 3.2.6. Eine Funktion f ist berechenbar genau dann, wenn ihr Graph Gf aufzählbar ist. Beweis. 1. Sei f berechenbar. Einen Algorithmus, der für jedes Argumentetupel (a, b) genau dann terminiert, wenn (a, b) zu Gf gehört, erhält man wie folgt. Man berechne f (a) mittels des gegebenen Algorithmus für f . Man breche ab genau dann, wenn die Berechnung terminiert und den Wert b ergibt. 2. Sei Gf aufzählbar. Einen Algorithmus zur Berechnung von f erhält man wie folgt. Gegeben sei ein Argumentetupel a. Man zähle alle Tupel (c, b) in Gf auf. Sobald dabei ein Tupel (c, b) mit c = a auftaucht, breche man ab und gebe b aus. u t Lemma 3.2.7. Eine Relation R ⊆ Nn ist entscheidbar genau dann, wenn sowohl sie selbst als auch ihr Komplement Nn \ R aufzählbar sind. Beweis. Übungsaufgabe. u t Das folgende Lemma gibt einige einfache Charakterisierungen des Begriffs der Aufzählbarkeit. Lemma 3.2.8. Für Relationen R ⊆ Nn sind folgende Bedingungen äquivalent. 1. R ist aufzählbar. 2. R ist Definitionsbereich einer berechenbaren Funktion. 3. R ist Projektion einer entscheidbaren Relation Q ⊆ Nn+1 . t u Beweis. Übungsaufgabe. Satz 3.2.9. ( Churchsche These). 1. Eine Relation R ⊆ Nn ist entscheidbar genau dann, wenn sie rekursiv ist. 2. Eine Relation R ⊆ Nn ist aufzählbar (oder positiv berechenbar) genau dann, wenn sie rekursiv aufzählbar ist. 3. Eine totale Funktion f : Nn → N ist berechenbar genau dann, wenn sie rekursiv ist. Die Churchsche These kann man aus prinzipiellen Gründen nicht mathematisch beweisen, da sie Begriffe verwendet, die nur intuitiv, aber nicht mathematisch präzise erklärt sind. Es besteht jedoch allgemeine Übereinstimmung darüber, daß die Churchsche These zutrifft. Diese Übereinstimmung beruht im wesentlichen auf Erfahrung: es ist keine im intuitiven Sinn berechenbare totale Funktion bekannt, die nicht rekursiv wäre. 3.3 Kodierung der Logik In diesem Abschnitt wollen wir zur Vorbereitung unserer metamathematischen Studien die wesentlichen Begriffe der Syntax innerhalb der natürlichen Zahlen kodieren. Der Grund dafür ist, daß wir später im Rahmen einer formalen Theorie der Arithmetik über Beweise in einem formalen System sprechen wollen. Wir hatten bisher der Einfachheit halber Formeln identifiziert, die sich nur durch gebundene Umbenennung unterscheiden. Diese Vorgehensweise ist für die Kodierung der Logik nicht mehr geeignet. Wir beginnen deshalb mit einer Rekapitulation des Begriffs der Substitution, wobei wir jetzt die konkreten Variablennamen berücksichtigen. Eine Substitution ϑ ist eine endliche Menge der Form ϑ = {t1 /x1 , . . . , tn /xn }, so daß ti 6= xi für i = 1, . . . , n und x1 , . . . , xn paarweise verschieden sind. Ein Element ti /xi von ϑ wird als Bindung (von xi an ti ) bezeichnet. 62 3. Berechenbarkeit Ist r ein Term und ϑ die Substitution {t1 /x1 , . . . , tn /xn }, so verstehen wir unter rϑ den Term, den wir erhalten, indem wir in r simultan jedes Vorkommen von xi durch ti ersetzen (i = 1, . . . , n). Wir sagen dann, daß ϑ auf r angewandt wurde und nennen rϑ die von ϑ induzierte Instanz von r. Ist ϑ eine Substitution {t1 /x1 , . . . , tn /xn }, so bezeichnen wir dom(ϑ) := {x1 , . . . , xn } als den Bereich von ϑ und ranv(ϑ) := vars(t1 ) ∪ . . . ∪ vars(tn ) als die Wertevariablen von ϑ. (Wir schreiben nicht “ran” als Abkürzung, da dies zu Verwechslungen mit dem üblichen Wertebereich einer Funktion führen könnte). ϑ heißt Grundsubstitution, falls {t1 , . . . , tn } nur aus geschlossenen Termen besteht; ϑ heißt Variablensubstitution, falls {t1 , . . . , tn } nur aus Variablen besteht. Ist ϑ = ∅, so sprechen wir von der leeren Substitution, die wir mit ε bezeichnen. Zum Beispiel für r = f (x, y, g(a)) und ϑ = {b/x, x/y} mit Konstanten a, b ist rϑ = f (b, x, g(a)). Sind r, t Terme und ist ϑ = {t/x} eine Substitution, so bezeichnen wir den Term rϑ auch mit r[x := t]. Ferner setzen wir r[x := x] := r (um später Fallunterscheidungen zu vermeiden). Gegeben seien jetzt die Substitutionen ϑ = {s1 /x1 , . . . , sm /xm }, σ = {t1 /y1 , . . . , tn /yn }. Dann ist die Komposition ϑσ von ϑ und σ die Substitution, die wir erhalten, indem wir aus der Menge {s1 σ/x1 , . . . , sm σ/xm , t1 /y1 , . . . , tn /yn } alle Bindungen si σ/xi streichen, für die si σ = xi ist, sowie alle Bindungen tj /yj , für die yj ∈ {x1 , . . . , xm }. Lemma 3.3.1. Für Substitutionen ϑ, σ, τ gilt 1. 2. 3. 4. 5. ϑ = σ ⇐⇒ rϑ = rσ für alle Terme r. ϑ = σ ⇐⇒ xϑ = xσ für alle Variablen x. ϑε = εϑ = ϑ. (rϑ)σ = r(ϑσ) für alle Terme r. ϑ(στ ) = (ϑσ)τ . Beweis. (1)–(3) sind klar; (5) folgt unmittelbar aus (1) und (4). Wir zeigen nun (4). Sei also ϑ = {s1 /x1 , . . . , sm /xm } und σ = {t1 /y1 , . . . , tn /yn }. Ist r eine Variable x, so unterscheiden wir drei Fälle: Fall x ∈ / {x1 , . . . , xm } ∪ {y1 , . . . , yn }. Dann ist (xϑ)σ = xσ = x = x(ϑσ). Fall x ∈ {x1 , . . . , xm }, x = xi . Dann ist (xϑ)σ = si σ = x(ϑσ). Fall x ∈ {y1 , . . . , yn } \ {x1 , . . . , xm }, x = yj . Dann ist (xϑ)σ = xσ = tj = x(ϑσ). Daraus folgt nun die Behauptung für beliebige Terme r durch eine triviale Induktion nach dem Termaufbau. u t Anmerkung. Aufgrund von (4) und (5) schreibt man statt (rϑ)σ oder r(ϑσ) kurz rϑσ; ebenso schreibt man statt ϑ(στ ) oder (ϑσ)τ kurz ϑστ . Man kann leicht Beispiele einer Formel A und einer Substitution der Form ϑ = {t1 /x1 , . . . , tn /xn } finden, so daß bei der simultanen Ersetzung jedes freien Vorkommens von xi durch ti in A eine Variable aus ti in den Bindungsbereich eines Quantors in A gerät. Um diese unerwünschte Erscheinung zu vermeiden, müssen wir gegebenenfalls einige gebundene Variablen in A umbenennen. Wir definieren deshalb zunächst die Menge BV(A) der in A gebundenen Variablen. BV(R(t1 , . . . , tn )) := ∅. BV(A ∧ B) := BV(A) ∪ BV(B). BV(A → B) := BV(A) ∪ BV(B). BV(∀xA) := BV(A) ∪ {x}. 3.3 Kodierung der Logik 63 Wir definieren jetzt Aϑ wie folgt durch Induktion über A. R(t1 , . . . , tn )ϑ := R(t1 ϑ, . . . , tn ϑ). (A ∧ B)ϑ := Aϑ ∧ Bϑ. (A → B)ϑ := Aϑ → Bϑ. Im Fall ∀xA bildet man zunächst σ := ϑFV(∀xA) und setzt dann ( ∀xAσ, falls x ∈ / ranv(σ) (∀xA)ϑ := ∀yA({y/x}σ), falls x ∈ ranv(σ), wobei y eine “neue” Variable ist, etwa die erste Variable echt oberhalb aller Variablen in ranv(σ) ∪ FV(A)∪BV(A). Man beachte, daß unter den angegebenen Voraussetzungen {y/x}σ = {y/x}∪σ ist. Diese Definition zeichnet sich dadurch aus, daß nur die unbedingt notwendigen Umbenennungen vorgenommen werden. – Ist ϑ = {t/x}, so bezeichnen wir die Formel Aϑ auch mit A[x := t]. Wir beweisen jetzt einige einfache Eigenschaften von Substitutionen. Lemma 3.3.2. 1. Gilt xϑ = xσ für alle x ∈ vars(t), so ist tϑ = tσ. 2. Gilt xϑ = xσ für alle x ∈ FV(A), so ist Aϑ = Aσ. Beweis. (1) ist klar. (2) beweisen wir durch Induktion über A. Wir behandeln nur den Fall ∀xA. Sei ϑ0 := ϑFV(∀xA), σ 0 := σFV(∀xA). Nach Voraussetzung ist ϑ0 = σ 0 . Da (∀xA)τ nur von x, A und u t τ FV(∀xA) abhängt, folgt (∀xA)ϑ = (∀xA)σ. Lemma 3.3.3. 1. vars(tϑ) ⊆ [vars(t) \ dom(ϑ)] ∪ ranv(ϑ); ist dom(ϑ) ⊆ vars(t), so gilt =. 2. FV(Aϑ) ⊆ [FV(A) \ dom(ϑ)] ∪ ranv(ϑ); ist dom(ϑ) ⊆ FV(A), so gilt =. Beweis. (1) ist klar. (2) beweisen wir durch Induktion über A. Wir behandeln nur den Fall ∀xA. Sei σ := ϑFV(∀xA). Unterfall x ∈ / ranv(σ). Dann hatten wir definiert (∀xA)ϑ = ∀xAσ. Man erhält FV(∀xA)ϑ = FV(∀xAσ) = FV(Aσ) \ {x} = ([FV(A) \ dom(σ)] ∪ ranv(σ)) \ {x} nach IH = [(FV(A) \ {x}) \ dom(σ)] ∪ ranv(σ) wegen x ∈ / ranv(σ) ⊆ [FV(∀xA) \ dom(ϑ)] ∪ ranv(ϑ) Im Fall dom(ϑ) ⊆ FV(∀xA) ist ϑ = σ und nach IH das ⊆ ein =. / ranv(σ) ∪ FV(A) ∪ Unterfall x ∈ ranv(σ). Dann hatten wir definiert (∀xA)ϑ = ∀xA({y/x}σ) mit y ∈ BV(A). Man erhält FV(∀xA)ϑ = FV(∀yA({y/x}σ)) = FV(A({y/x}σ)) \ {y} ⊆ [FV(A) \ ({x} ∪ dom(σ))] ∪ {y} ∪ ranv(σ) \ {y} nach IH wegen y ∈ = [(FV(A) \ {x}) \ dom(σ)] ∪ ranv(σ) / ranv(σ) ∪ FV(A) ⊆ [FV(∀xA) \ dom(ϑ)] ∪ ranv(ϑ). Im Fall dom(ϑ) ⊆ FV(∀xA) ist wieder ϑ = σ und deshalb das zweite ⊆ ein =. Auch das erste ⊆ ist ein =, denn im Fall x ∈ FV(A) liefert die IH das =, und im Fall x ∈ / FV(A) hat man FV(A({y/x}σ)) \ {y} = FV(Aσ) \ {y} nach Lemma 3.3.3(2) = [FV(A) \ dom(σ)] ∪ ranv(σ) \ {y} nach IH da y ∈ = [FV(A) \ dom(σ)] ∪ ranv(σ) / ranv(σ) ∪ FV(A) = [FV(∀xA) \ dom(σ)] ∪ ranv(σ). u t 64 3. Berechenbarkeit Kodierung (n) Gegeben sei eine abzählbare Sprache L erster Stufe. In injektiver Weise sei jedem R ∈ RelL eine Sym(n) bolnummer SN(R) von der Form h1, n, ii und jedem f ∈ FunL eine Symbolnummer SN(f ) von der Form h2, n, ji zugeordnet. Wir nennen L primitiv rekursiv präsentiert, wenn [ [ (n) (n) { SN(R) | R ∈ RelL } ∪ { SN(f ) | f ∈ FunL } SymbL := n∈N n∈N primitiv rekursiv ist. Insbesondere ist also jede Sprache mit endlich vielen Relations- und Funktionssymbolen primitiv rekursiv präsentiert. Für jede im folgenden betrachtete Sprache L nehmen wir an, daß sie primitiv rekursiv präsentiert ist. Ferner sei SN(∧) := h3, 1i, SN(→) := h3, 2i und SN(∀) := h3, 3i. Schließlich ordnen wir der i-ten Variablen ∗i die Symbolnummer SN(∗i ) := h0, ii zu. Für jeden L-Term t definieren wir rekursiv seine Kodenummer (oder Gödelnummer ) ptq durch pxq := hSN(x)i, pcq := hSN(c)i, pf t1 . . . tn q := hSN(f ), pt1 q, . . . , ptn qi. Ebenso definieren wir rekursiv für jede L-Formel A ihre Kodenummer pAq durch pRt1 . . . tn q := hSN(R), pt1 q, . . . , ptn qi, pA ∧ Bq := hSN(∧), pAq, pBqi, pA → Bq := hSN(→), pAq, pBqi, p∀x Aq := hSN(∀), pxq, pAqi. Sei Var := sethh0, iiii ∈ N. Var ist offenbar primitiv rekursiv, und es gilt a ∈ Var genau dann, wenn a = pxq für eine Variable x. Ferner definieren wir Ter ⊆ N wie folgt durch Wertverlaufsrekursion. a ∈ Ter :↔ a ∈ Var ∨ ((a)0 ∈ SymbL ∧ (a)0,0 = 2 ∧ lh(a) = (a)0,1 + 1 ∧ ∀i0<i<lh(a) (a)i ∈ Ter). Also ist Ter primitiv rekursiv, und es gilt a ∈ Ter genau dann, wenn a = ptq für einen Term t. Weiter sei For ⊆ N definiert durch a ∈ For :↔((a)0 ∈ SymbL ∧ (a)0,0 = 1 ∧ lh(a) = (a)0,1 + 1 ∧ ∀i0<i<lh(a) (a)i ∈ Ter) ∨ (a = hSN(∧), (a)1 , (a)2 i ∧ (a)1 ∈ For ∧ (a)2 ∈ For) ∨ (a = hSN(→), (a)1 , (a)2 i ∧ (a)1 ∈ For ∧ (a)2 ∈ For) ∨ (a = hSN(∀), (a)1 , (a)2 i ∧ (a)1 ∈ Var ∧ (a)2 ∈ For). Wieder ist For primitiv rekursiv, und es gilt a ∈ For genau dann, wenn a = pAq für eine Formel A. Für eine Menge S von Formeln setzen wir pSq := { pAq | A ∈ S }. Sei weiter vars ⊆ N × N definiert durch vars(n, a) :↔ (a ∈ Var ∧ n = a) ∨ ((a)0 ∈ SymbL ∧ ∃i0<i<lh(a) vars(n, (a)i )). vars ist primitiv rekursiv, und es gilt vars(pxq, ptq) genau dann, wenn x ∈ vars(t). Entsprechend definieren wir FV(n, a) :↔((a)0 ∈ SymbL ∧ ∃i0<i<lh(a) vars(n, (a)i )) ∨ ((a)0 = SN(∧) ∧ (FV(n, (a)1 ) ∨ FV(n, (a)2 ))) ∨ ((a)0 = SN(→) ∧ (FV(n, (a)1 ) ∨ FV(n, (a)2 ))) ∨ ((a)0 = SN(∀) ∧ n 6= (a)1 ∧ FV(n, (a)2 )). Dann ist FV primitiv rekursiv, und es gilt FV(pxq, pAq) genau dann, wenn x ∈ FV(A). Eine Substitution {t1 /x1 , . . . , tn /xn } kann man kodieren durch die Zahl 3.3 Kodierung der Logik 65 hhpx1 q, pt1 qi, . . . , hpxn q, ptn qii und natürlich auch durch viele andere Zahlen, da es auf die Reihenfolge der hpxi q, pti qi nicht ankommt. Wir verwenden pϑq zur Mitteilung einer solchen Kodenummer der Substitution ϑ. Mit substval(a, 0) := a und im Fall ` > 0 ( (`)0,1 , falls a = (`)0,0 ; substval(a, `) := substval(a, tl(`)), sonst ist offenbar substval primitiv rekursiv und es gilt substval(pxq, pϑq) = pxϑq. Weiter sei restrict(0, a) := 0 und im Fall ` > 0 ( h(`)0 i ∗ restrict(tl(`), a), falls FV((`)0,0 , a); restrict(`, a) := restrict(tl(`), a), sonst. Dann ist restrict primitiv rekursiv und restrict(pϑq, pAq) kodiert ϑFV(A). Ranv(n, `) definieren wir durch Rekursion über n; aus der Definition ergibt sich unmittelbar, daß Ranv primitiv rekursiv ist. Ranv(n, 0) sei falsch und im Fall ` > 0 setzen wir Ranv(n, `) :↔ vars(n, (`)0,1 ) ∨ Ranv(n, tl(`)). Es gilt Ranv(pxq, pϑq) ↔ x ∈ ranv(ϑ). Zur Definition von Aϑ benötigen wir im ∀-Fall gegebenenfalls eine neue Variable. Dafür definieren wir newvar(0) beliebig und für a > 0 falls a ∈ Var; hh0, (a)0,1 + 1ii, hh0, max falls (a)0 ∈ SymbL ; 0<i<lh(a) (newvar((a)i ))0,1 ii, newvar(a) := hh0, max((newvar((a)1 ))0,1 , (newvar((a)2 ))0,1 )ii, falls (a)0 ∈ {SN(∧), SN(→)}; hh0, max((a)1,0,1 + 1, (newvar((a)2 ))0,1 )ii, falls (a)0 = SN(∀). Dann ist newvar primitiv rekursiv, und newvar(ptq) ist pyq für die kleinste Variable echt oberhalb aller Variablen in vars(t), und newvar(pAq) ist pyq für die kleinste Variable echt oberhalb aller Variablen in FV(A) ∪ BV(A). Weiter sei newranv(0) := hh0, 0ii und für ` > 0 newranv(`) := max(newvar((`)0,1 ), newranv(tl(`))). Dann ist newranv primitiv rekursiv, und newranv(pϑq) ist die kleinste Variable echt oberhalb aller Wertevariablen von ϑ. Wir definieren sub(a, `) wie folgt durch Rekursion über a. Im Fall a ∈ Var sei sub(a, `) := substval(a, `). Im Fall (a)0 = SN(∀) sei k := restrict(`, a) und ( hSN(∀), (a)1 , sub((a)2 , k)i, falls ¬Ranv((a)1 , k); sub(a, `) := hSN(∀), b, sub((a)2 , hh(a)1 , bii ∗ k))i, falls Ranv((a)1 , k), wobei b := max(newranv(k), newvar((a)2 )). Sonst sei sub(a, `) := h(a)0 , sub((a)1 , `), . . . , sub((a)lh(a)−1 , `)i. Lemma 3.3.4. 1. sub(ptq, pϑq) = ptϑq. 2. sub(pAq, pϑq) = pAϑq. 3. Die Funktion sub ist primitiv rekursiv. Beweis. 1. Induktion über t. 2. Induktion über A. Im Fall ∀x A beachte man, daß in der obigen Definition von (∀x A)ϑ die Komposition {y/x}σ keine Streichung von Bindungen erfordert. 3. Es gilt sub(a, `) = g(a, sub(a, `), sub(a, restrict(`, a)), sub(a, h1 (a, `)), `) mit 66 3. Berechenbarkeit b(a, `) := max(newranv(restrict(`, a)), newvar((a)2 )), h1 (a, `) := hh(a)1 , b(a, `)ii ∗ restrict(`, a). Hierbei ist g(a, d0 , d1 , d2 , `) substval(a, `), falls a ∈ Var; hSN(∀), (a) , exp((a) , d )i, falls (a)0 = SN(∀) und ¬Ranv((a)1 , restrict(`, a)); 1 2 1 := hSN(∀), b(a, `), exp((a) , d )i, falls (a)0 = SN(∀) und Ranv((a)1 , restrict(`, a)); 2 2 · h(a, d0 , lh(a) − 1), sonst. Ferner ist h primitiv rekursiv definiert durch h(a, d, 0) := h(a)0 i, h(a, d, n + 1) := h(a, d, n) ∗ hexp((a)n+1 , d)i. u t In der bisherigen Darstellung von natürlichen Herleitungen findet man die an einem Knoten freien Annahmen, indem man den darüberliegenden Teil des Baums durchmustert. Mit mehr Schreibaufwand verbunden, aber hier und in anderen theoretischen Überlegungen manchmal nützlich ist eine alternative Darstellung, in der man an jedem Knoten noch die dort freien Annahmen hinzuschreibt. Dies hatten wir bereits in unserer “Sequenzenformulierung des natürlichen Schließens” in Abschnitt 1.2 getan. Für den gegenwärtigen Zweck der Kodierung von Herleitungen ist es bequem, diese Darstellung von Herleitungen noch einmal leicht abzuändern und die Annahmeformeln in der Form einer Multimenge mitzuführen. Unter einer Sequenz Γ ⇒ A verstehen wir ein Paar aus einer Multimenge Γ = {{A1 , . . . , An }} von Formeln und einer Formel A. Wir definieren `m Γ ⇒ A induktiv durch die folgenden Regeln. Eine Annahme kann man einführen durch Γ ⇒ A, falls A in Γ . Für die Konjuktion ∧ haben wir eine Einführungsregel ∧I und zwei Beseitigungsregeln ∧El und ∧Er . Γ ⇒A ∆⇒B ∧I Γ, ∆ ⇒ A ∧ B Γ ⇒A∧B ∧Er Γ ⇒A Γ ⇒A∧B ∧El Γ ⇒B Γ, ∆ bezeichnet hier die Multimengenvereinigung. Für die Implikation → gibt es eine Einführungsregel →I (hier ohne Erwähnung einer Annahmevariablen u) und eine Beseitigungsregel →E. Γ ⇒B →I ∆⇒A→B Γ ⇒A→B ∆⇒A →E Γ, ∆ ⇒ B Dabei soll in →I die Multimenge ∆ aus Γ durch Streichen einiger Vorkommen von A entstehen. Für den Allquantor ∀ gibt es eine Einführungsregel ∀I und eine Beseitigungsregel ∀E, die wir hier ohne den zu substituierenden Term t als rechte Prämisse formulieren. Γ ⇒A ∀I Γ ⇒ ∀x A Γ ⇒ ∀x A ∀E Γ ⇒ A[x := t] / FV(B). In ∀I muß wieder die Variablenbedingung erfüllt sein: für alle B in Γ muß gelten x ∈ n Anmerkung. In Kapitel 2 hatten wir die Schreibweise M B [u1A1 , . . . , uA n ] vereinbart um mitzuteilen, daß A1 B An die freien Annahmen von M in der Liste u1 , . . . , un enthalten sind. Hierbei war selbstverständlich angenommen, daß im Fall ui = uj auch die Formelindizes Ai und Aj gleich sind. Es ist für das folgende Ai An 1 bequem, auch zuzulassen, daß in uA 1 , . . . , un ein ui mehrmals vorkommt. Lemma 3.3.5. 1. Wenn `m {{A1 , . . . , An }} ⇒ A, so gibt es für alle (nicht notwendig verschiedenen) An 1 u1 , . . . , un mit ui = uj → Ai = Aj einen Herleitungsterm M A [uA 1 , . . . , un ]. 3.3 Kodierung der Logik 67 An 1 2. Zu jedem Herleitungsterm M A [uA 1 , . . . , un ] kann man Vielfachheiten k1 , . . . , kn ≥ 0 angeben so daß k1 kn `m {{A1 , . . . , An }} ⇒ A; hierbei bedeutet Ak ein k-faches Vorkommen von A. Beweis. 1. Gelte `m {{A1 , . . . , An }} ⇒ A. Wir führen den Beweis durch Induktion über `m . Fall Annahmeaxiom. Sei etwa A = Ai . Wähle M = ui . Fall →I. OBdA hat man {{A1 , . . . , An , A, . . . , A}} ⇒ B →I. {{A1 , . . . , An }} ⇒ A → B Seien u1 , . . . , un gegeben mit ui = uj → Ai = Aj . Man wähle ein neues u. Nach IH existiert ein M B mit An A A B A→B 1 FA(M B ) ⊆ {uA ein Herleitungsterm mit freien Annahmen unter 1 , . . . , un , u }. Dann ist (λu M ) A1 An u1 , . . . , un . Fall →E. Gegeben sind Herleitungen von {{A1 , . . . , An }} ⇒ A → B und {{An+1 , . . . , An+m }} ⇒ A. Seien u1 , . . . , un+m gegeben mit ui = uj → Ai = Aj . Nach IH haben wir Herleitungsterme An 1 M A→B [uA 1 , . . . , un ] Dann ist aber auch und A A n+m n+1 ]. , . . . , un+m N A [un+1 A n+m 1 (M N )B [uA 1 , . . . , un+m ] ein Herleitungsterm. Die restlichen Fälle behandelt man ähnlich. n 2. Gegeben sei ein Herleitungsterm M A [u1A1 , . . . , uA n ]. Wir führen den Beweis durch Induktion über M . Fall uA . Dann ist `m {{A}} ⇒ A. An A 1 Fall →I, also (λuA M B )A→B . Sei FA(M B ) ⊆ {uA 1 , . . . , un , u } mit u1 , . . . , un , u verschieden. Nach IH hat man `m {{A1k1 , . . . , Aknn , Ak }} ⇒ B. Mit der Regel →I folgt `m {{Ak11 , . . . , Aknn }} ⇒ A → B. An 1 Fall →E. Gegeben ist (M A→B N A )B [uA 1 , . . . , un ]. Nach IH hat man `m {{Ak11 , . . . , Aknn }} ⇒ A → B Mit der Regel →E folgt und `m {{A`11 , . . . , A`nn }} ⇒ A. {{Ak11 +`1 , . . . , Aknn +`n }} ⇒ B. Die restlichen Fälle behandelt man ähnlich. u t Die Multimenge {{A1 , . . . , An }} kann man durch hpA1 q, . . . , pAn qi kodieren. Wie bei Substitutionen hat auch hier dieselbe Multimenge i.a. mehrere Kodenummern. Wir verwenden pΓ q zur Mitteilung einer Kodenummer der Multimenge Γ . Die Verkettungsfunktion ∗ entspricht offenbar der Multimengenvereinigung. Zur Behandlung der →I-Regel benötigen wir noch die wie folgt definierten Funktionen msm (für “multisetminus’‘) und msrm (für “multisetremove”). Es sei msrm(0, b) := 0, und für a > 0 setzen wir ( tl(a), falls hd(a) = b; msrm(a, b) := hhd(a)i ∗ msrm(tl(a), b), sonst. Dann kodiert offenbar msrm(pΓ q, pAq) diejenige Multimenge, die aus Γ durch Entfernen eines Vorkommens von A entsteht, falls A in Γ vorkommt, und Γ sonst. Weiter sei msm(a, 0) := a, und für b > 0 sei msm(a, b) := msrm(msm(a, tl(b)), hd(b)). msm(pΓ q, p∆q) kodiert dann die Multimenge, die aus Γ durch Entfernen aller Elemente aus ∆ entsteht. Ferner sei die Relation mseq(a, b) definiert durch msm(a, b) = 0 ∧ msm(b, a) = 0. Offenbar gilt dann mseq(pΓ q, p∆q) genau dann, wenn Γ und ∆ als Multimengen gleich sind. Wir schreiben kurz a =m b für mseq(a, b). 68 3. Berechenbarkeit Eine Sequenz Γ ⇒ A kodieren wir durch hpΓ q, pAqi. Solche Kodifikate bezeichnen wir mit pΓ ⇒ Aq. Eine Herleitung für die induktive Definition von `m kodieren wir durch hpΓ0 ⇒ A0 q, . . . , pΓn ⇒ An qi. Wir definieren jetzt Herl(d) :↔ ∀i<lh(d). (∀m<lh((d)i,0 ) For((d)i,0,m ) ∧ ∃n<lh((d)i,0 ) ((d)i,1 = (d)i,0,n )) ∨ (∃j, k<i.(d)i,1 = hSN(∧), (d)j,1 , (d)k,1 i ∧ (d)i,0 =m (d)j,0 ∗ (d)k,0 ) (Ann) ∨ (∃j<i.(d)j,1 = hSN(∧), (d)i,1 , (d)j,1,2 i ∧ (d)i,0 =m (d)j,0 ) ∨ (∃j<i.(d)j,1 = hSN(∧), (d)j,1,1 , (d)i,1 i ∧ (d)i,0 =m (d)j,0 ) ∨ (∃j<i.(d)i,1 = hSN(→), (d)i,1,1 , (d)j,1 i ∧ For((d)i,1,1 ) ∧ msm((d)i,0 , (d)j,0 ) = 0 ∧ ∀n<lh(msm((d)j,0 , (d)i,0 )) ((msm((d)j,0 , (d)i,0 ))n = (d)i,1,1 )) ∨ (∃j, k<i.(d)j,1 = hSN(→), (d)k,1 , (d)i,1 i ∧ (d)i,0 =m (d)j,0 ∗ (d)k,0 ) ∨ (∃j<i.(d)i,1 = hSN(∀), (d)i,1,1 , (d)j,1 i ∧ Var((d)i,1,1 ) ∧ (d)i,0 =m (d)j,0 ∧ ∀n<lh((d)i,0 ) ¬FV((d)i,1,1 , (d)i,0,n )) ∨ (∃j<i.(d)j,1,0 = SN(∀) ∧ (d)i,0 =m (d)j,0 (∧I) (∧Er ) (∧El ) (→I) (→E) (∀I) (∀E) ∧ ((d)i,1 = (d)j,1,2 ∨ ∃n<(d)i,1 .Ter(n) ∧ (d)i,1 = sub((d)j,1,2 , hh(d)j,1,1 , nii))). Lemma 3.3.6. 1. Herl(d) gilt genau dann, wenn d eine Herleitung kodiert. 2. Herl ist primitiv rekursiv. Beweis. 1. =⇒. Gelte Herl(d). Man sieht dann leicht durch Induktion über i, daß für jedes i < lh(d) gilt (d)i,0 = pΓ q und (d)i,1 = pAq mit `m Γ ⇒ A. ⇐=. d kodiere eine Herleitung, etwa d = hpΓ0 ⇒ A0 q, . . . , pΓn ⇒ An qi. Durch Induktion über n und Fallunterscheidung nach der zuletzt angewandten Regel zeigt man leicht, daß dann Herl(d) gilt. 2. Die primitive Rekursivität von Herl folgt unmittelbar aus der Definition. t u Eine Menge S von Formeln heißt rekursiv (primitiv rekursiv , rekursiv aufzählbar ), wenn pSq := { pAq | A ∈ S } rekursiv (primitiv rekursiv, rekursiv aufzählbar) ist. Um auch die klassische Logik behandeln zu können, zeigen wir jetzt, daß die Menge StabaxL primitiv rekursiv ist, also die Menge der Formeln ∀x1 , . . . , xn .¬¬Rx1 . . . xn → Rx1 . . . xn . (n) mit R ∈ RelL . Offenbar können wir hier annehmen, daß x1 , . . . , xn die ersten n Variablen ∗0 , . . . , ∗n−1 sind. Wir definieren deshalb zunächst app(a, 0) := hai, app(a, n + 1) := app(a, n) ∗ hhh0, niii. Dann ist app primitiv rekursiv und wir haben app(SN(R), n) = pR∗0 . . . ∗n−1 q und auch app(SN(f ), n) = pf ∗0 . . . ∗n−1 q. Weiter definieren wir gen(0, a) := a, gen(n + 1, a) := gen(n, hSN(∀), hh0, nii, ai). Dann ist gen primitiv rekursiv und es gilt gen(n, pAq) = p∀ ∗0 . . . ∀ ∗n−1 Aq. Setzt man noch a → ˙ b := ˙ p⊥q, so gilt hSN(→), a, bi und ¬a ˙ := a → ˙ app(k, (k)1 )). ˙ (k)1 ) → pStabaxL q(a) ↔ ∃k<a.SymbL (k) ∧ (k)0 = 1 ∧ a = gen((k)1 , ¬˙ ¬app(k, Offenbar ist pStabaxL q primitiv rekursiv. Weiter zeigen wir, daß auch die Menge EqL der L-Gleichheitsaxiome primitiv rekursiv ist; hierbei setzen wir natürlich voraus, daß unsere primitiv rekursiv präsentierte Sprache L das Gleichheitssymbol = enthält. Zum Beweis konstruiert man primitiv rekursive Hilfsfunktionen appg , appu und h mit 3.3 Kodierung der Logik appg (SN(R), n) = pR∗0 ∗2 ∗4 . . . ∗2n−2 q, appu (SN(R), n) = pR∗1 ∗3 ∗5 . . . ∗2n−1 q, h(n) = p∗0 = ∗1 ∧ ∗2 = ∗3 ∧ · · · ∧ ∗2n−2 69 appg (SN(f ), n) = pf ∗0 ∗2 ∗4 . . . ∗2n−2 q, appu (SN(f ), n) = pf ∗1 ∗3 ∗5 . . . ∗2n−1 q, = ∗2n−1 q. Setzt man noch a = ˙ b := hSN(=), a, bi und a ∧˙ b := hSN(∧), a, bi, so gilt a ∈ pEqL q ↔a = p∀∗0 (∗0 = ∗0 )q ∨ a = p∀∗0 , ∗1 .∗0 = ∗1 → ∗1 = ∗0 q ∨ a = p∀∗0 , ∗1 , ∗2 .∗0 = ∗1 ∧ ∗1 = ∗2 → ∗0 = ∗2 q ∨ ∃k, n<a.SymbL (k) ∧ (k)0 = 1 ∧ (k)1 = n > 0 ∧ a = gen(2n, h(n) ∧˙ appg (k, n) → ˙ appu (k, n)) ∨ ∃k, n<a.SymbL (k) ∧ (k)0 = 2 ∧ (k)1 = n > 0 ∧ a = gen(2n, h(n) → ˙ appu (k, n)). ˙ appg (k, n) = Offenbar ist pEqL q primitiv rekursiv. Sei jetzt L eine primitiv rekursiv präsentierte Sprache mit = in L. Eine Theorie T mit L(T ) ⊆ L heißt (primitiv) rekursiv axiomatisierbar , wenn es eine (primitiv) rekursive Menge S geschlossener L-Formeln gibt so daß T = { A ∈ L | S ∪ EqL `c A }. Satz 3.3.7. Für Theorien T mit L(T ) ⊆ L sind die folgenden Aussagen äquivalent. 1. T ist rekursiv axiomatisierbar. 2. T ist primitiv rekursiv axiomatisierbar. 3. T ist rekursiv aufzählbar. Beweis. (3) =⇒ (2). Sei pT q rekursiv aufzählbar. Nach Lemma 3.2.1 existiert dann ein f ∈ PR1 mit pT q = ran(f ). Sei f (n) = pAn q. Wir definieren ein primitiv rekursives g mit g(n) = pA0 ∧ · · · ∧ An q durch g(0) := f (0), g(n + 1) := g(n) ∧˙ f (n + 1). Für S := { A0 ∧ · · · ∧ An | n ∈ N } ist pSq = ran(g), und diese Menge ist primitiv rekursiv wegen a ∈ ran(g) ↔ ∃n<a (a = g(n)). T ist also primitiv rekursiv axiomatisierbar, denn offenbar gilt T = { A ∈ L | S ∪ EqL `c A }. (2) =⇒ (1) ist klar. (1) =⇒ (3). Sei T axiomatisiert durch S mit pSq rekursiv. Dann gilt a ∈ pT q ↔ ∃d∃c<d.Herl(d) ∧ (d)lh(d)−·1 = hc, ai ∧ ∀i<lh(c) ((c)i ∈ pStabaxq ∪ pEqq ∪ pSq). Also ist pT q rekursiv aufzählbar. u t Eine Theorie T in unserer primitiv rekursiv präsentierten Sprache L heißt axiomatisiert, wenn sie durch ein rekursiv aufzählbares Axiomensystem AxT gegeben ist. Nach dem eben bewiesenenen Satz können wir dann sogar annehmen, daß AxT primitiv rekursiv ist. Für solche axiomatisierten Theorien definieren wir AblT ⊆ N × N durch AblT (d, a) :↔ Herl(d) ∧ ∃c<d.(d)lh(d)−·1 = hc, ai ∧ ∀i<lh(c) ((c)i ∈ pStabaxq ∪ pEqq ∪ pAxT q). Offenbar ist AblT primitiv rekursiv und es gilt AblT (d, a) genau dann, wenn d eine Herleitung einer Sequenz Γ ⇒ A kodiert mit a = pAq und Γ zusammengesetzt aus Stabilitätsaxiomen, Gleichheitsaxiomen und Formeln aus AxT . Eine Theorie T heißt konsistent, wenn es eine geschlossene Formel A gibt mit A ∈ / T ; andernfalls heißt T inkonsistent. Korollar 3.3.8. Jede axiomatisierte vollständige Theorie T ist rekursiv. Beweis. Ist T inkonsistent, so ist pT q rekursiv. Andernfalls folgt aus der Vollständigkeit von T a ∈ N \ pT q ↔ a ∈ / For ∨ ∃b<a FV(b, a) ∨ ¬a ˙ ∈ pT q. Also ist mit pT q auch N \ pT q rekursiv aufzählbar und damit nach Lemma 3.2.3 pT q rekursiv. u t 70 3. Berechenbarkeit 3.4 Herbrand-Gödel-Kleene-rekursive Funktionen Wir geben in diesem Abschnitt eine weitere, auf Herbrand, Gödel und Kleene zurückgehende Charakterisierung der rekursiven Funktionen. Diese Charakterisierung verwendet logische Herleitungen aus Gleichungssystemen und stellt deshalb eine Verbindung zwischen der Logik und der Berechenbarkeitstheorie dar. Als Anwendung beweisen wir die Existenz einer rekursiv aufzählbaren, aber nicht rekursiven Relation. Unter einem Gleichungssystem verstehen wir eine endliche Menge von generalisierten Gleichungen, also von Formeln der Gestalt ∀x1 , . . . , xn (t[x1 , . . . , xn ] = s[x1 , . . . , xn ]). Wir setzen in diesem Abschnitt stets voraus, daß 0, S in der Sprache vorhanden sind. Eine Funktion f : Nn → N heißt Herbrand-Gödel-Kleene-rekursiv (oder kurz: HGK-rekursiv ), wenn es ein Gleichungssystem Ef mit einem ausgezeichneten Funktionssymbol fˆ gibt so daß für alle a1 , . . . , an , b ∈ N gilt f (a1 , . . . , an ) = b genau dann, wenn Ef ∪ Eq ` fˆ(a1 , . . . , an ) = b. Satz 3.4.1. Jede µ-rekursive Funktion ist HGK-rekursiv. Beweis. Durch Rekursion über die induktive Definition der µ-rekursiven Funktionen f konstruieren wir ein Gleichungssystem Ef mit einem ausgezeichneten Funktionssymbol fˆ so daß Q 1. Ef nur die Funktionssymbole 0, S,ˆ·, q̂ sowie ĝ, dg für jede in der Definition von f vorkommende Funktion g enthält, 2. Ef in N gültig ist, wenn man 0 durch die Zahl 0, S durch die Nachfolgerfunktion, ˆ· durch die Q q̂ durch q(S(a), 0, b) := b und beliebig sonst, jedes ĝ durch g und jedes dg durch Multiplikation, Q b, a 7→ c<b g(c, a) interpretiert, und 3. für alle a1 , . . . , an , b ∈ N gilt f (a1 , . . . , an ) = b genau dann, wenn Ef ∪ Eq ` fˆ(a1 , . . . , an ) = b. Die Gültigkeit von (1)-(3) ergibt sich jeweils unmittelbar aus der im folgenden angegebenen Konstruktion, wobei man zum Beweis von (3)⇐ verwendet, daß (2) zutrifft. Bei Gleichungen lassen wir der Kürze halber die Generalisierungen immer weg. n (x , . . . , x ) = 0. Fall 0n . Wähle 0c 1 n Fall S. Wähle b S(x) = S(x). n Fall Iin . Wähle Ic i (x1 , . . . , xn ) = xi . Fall (◦hg1 . . . gm ). Nach IH haben wir Eh , Eg1 , . . . , Egm mit ausgezeichneten Funktionssymbolen ĥ, gb1 , . . . , gc m . Wähle Eh ∪ Eg1 ∪ · · · ∪ Egm zusammen mit der Generalisierung von fˆ(x1 , . . . , xn ) = ĥ(gb1 (x1 , . . . , xn ), . . . , gc m (x1 , . . . , xn )). Fall (Rgh). Nach IH haben wir Eg , Eh mit ausgezeichneten Funktionssymbolen ĝ, ĥ. Wähle Eg ∪ Eh zusammen mit den Generalisierungen von fˆ(0, y1 , . . . , yn ) = ĝ(y1 , . . . , yn ), fˆ(S(x), y1 , . . . , yn ) = ĥ(x, fˆ(x, y1 , . . . , yn ), y1 , . . . , yn ). Fall (µg). Nach IH haben wir Eg mit ausgezeichnetem Funktionssymbol ĝ. Wähle Eg zusammen mit den Generalisierungen von Y \ g (0, x1 , . . . , xn ) = 1, Y Y \ \ g (y, x1 , . . . , xn ), ĝ(y, x1 , . . . , xn )), g (S(y), x1 , . . . , xn ) = ˆ·( q̂(S(x), 0, y) = y, Y Y \ \ g (S(y), x1 , . . . , xn ), y). fˆ(x1 , . . . , xn ) = q̂( g (y, x1 , . . . , xn ), u t 3.4 Herbrand-Gödel-Kleene-rekursive Funktionen 71 Zum Beweis der Umkehrung definieren wir für jedes n eine primitiv rekursive Relation Tn ⊆ Nn+2 so daß für jedes Gleichungssystem E mit ausgezeichnetem Funktionssymbol fˆ mit Symbolnummer SN(fˆ) = h2, n, 0i gilt Tn (pEq, a1 , . . . , an , d) genau dann, wenn d eine Herleitung einer Sequenz Γ ⇒ fˆ(a1 , . . . , an ) = b kodiert, wobei Γ aus Stabilitätsaxiomen, Gleichheitsaxiomen und Elementen aus E besteht. Ferner definieren wir eine primitiv rekursive Funktion U : N → N, die aus einem solchen d die Zahl b abliest. Wir setzen Tn (e, a1 , . . . , an , d) :↔ Herl(d) ∧ ∃c, a, b<d((d)lh(d)−·1 = hc, ai ∧ a = hSN(=), hh2, n, 0i, pa1 q, . . . , pan qi, pbqi ∧ ∀i<lh(c).(c)i ∈ pStabaxq ∪ pEqq ∨ ∃j<lh(e).(c)i = (e)j ) und U (d) := dec((d)lh(d)−·1,1,2 ), wobei dec eine primitiv rekursive Funktion ist mit dec(pbq) = b; dec definieren wir durch dec(0) := 0 und für a > 0 ( dec((a)1 ) + 1, falls (a)0 = SN(S); dec(a) := 0, sonst. Nach Konstruktion sind Tn und U primitiv rekursiv und haben die verlangten Eigenschaften. Deshalb gilt offenbar folgender Satz. Satz 3.4.2. ( Kleenesches Normalformentheorem). Zu jeder HGK-rekursiven n-stelligen Funktion f gibt es ein e ∈ N so daß folgendes gilt. 1. ∀a1 , . . . , an ∃d Tn (e, a1 , . . . , an , d) 2. f (a1 , . . . , an ) = U (µd Tn (e, a1 , . . . , an , d)) u t Insbesondere ergibt sich hieraus, daß jede µ-rekursive Funktion mit einem geeigneten e in der angegebenen Form definiert werden kann, wobei der µ-Operator nur einmal angewandt wird. Dies erklärt den Namen “Normalformentheorem”. Korollar 3.4.3. Jede HGK-rekursive Funktion ist µ-rekursiv. u t Wir kommen nun noch einmal auf den Fall (µg) mit g µ-rekursiv zurück, aber jetzt ohne vorauszusetzen, daß ∀a∃i g(i, a) = 0. Sei E das oben im Fall (µg) angegebene Gleichungssystem. Dann gilt: (1) Wenn ∃i g(i, a) = 0, so ist E ∪ Eq ` fˆ(a1 , . . . , an ) = i für das kleinste i mit g(i, a) = 0. (2) Gilt 6 0. Daraus ergibt sich aufgrund E ∪ Eq ` fˆ(a1 , . . . , an ) = i, so ist g(i, a) = 0 und für j < i ist g(j, a) = der Definition von Tn : Satz 3.4.4. ( Kleenesches Aufzählungstheorem). Zu jeder rekursiven Relation R ⊆ Nn+1 findet man eine Zahl e so daß für alle a1 , . . . , an ∈ N gilt ∃b R(b, a1 , . . . , an ) ↔ ∃d Tn (e, a1 , . . . , an , d). u t Die Relationen { (a1 , . . . , an ) | ∃d Tn (e, a1 , . . . , an , d) } durchlaufen also für e = 0, 1, . . . genau die n-stelligen rekursiv aufzählbaren Relationen. Sei jetzt n = 1. Mit dem Cantorschen Diagonalargument folgt dann, daß { a | ¬∃d T1 (a, a, d) } nicht rekursiv aufzählbar sein kann. Andernfalls gäbe es nämlich ein e so daß für alle a gilt ¬∃d T1 (a, a, d) ↔ ∃d T1 (e, a, d), und durch Einsetzung von e für a erhielte man einen Widerspruch. Da nach Lemma 3.2.3 eine rekursiv aufzählbare Relation genau dann rekursiv ist, wenn ihr Komplement rekursiv aufzählbar ist, erhalten wir: Satz 3.4.5. { a | ∃d T1 (a, a, d) } ist rekursiv aufzählbar, aber nicht rekursiv. u t Setzt man die Churchsche These voraus, so haben wir damit ein erstes Beispiel eines unentscheidbaren Problems gefunden: Es kann keinen Algorithmus geben, der für ein beliebiges a ∈ N stets terminiert und entscheidet, ob es ein d ∈ N gibt so daß die primitiv rekursive Relation T1 (a, a, d) besteht. 72 3. Berechenbarkeit 3.5 Anmerkungen Primitiv rekursive Funktionen wurden von Hilbert eingeführt. Ackermann zeigte 1925 durch Angabe eines Beispiels, daß es eine berechenbare, aber nicht primitiv rekursive Funktion gibt. Eine ausführliche Diskussion der primitiv rekursiven Funktionen findet man in den Büchern von Pèter [25] und Rose [27]. Der Begriff der rekursiven Funktion wurde nach Vorarbeiten von Herbrand, Gödel und Kleene von Church geprägt, der mit seiner Churchschen These die Äuivalenz zum intuitiven Begriff der Berechenbarkeit postulierte. Die hier gegebene Darstellung der Theorie der Berechenbarkeit stützt sich teilweise auf die Bücher von Shoenfield [34] und Kleene [16]. 4. Metamathematik 4.1 Undefinierbarkeit des Wahrheitsbegriffs Sei M eine L-Struktur. Eine Relation R ⊆ |M|n heißt in M definierbar , wenn es eine L-Formel A[x1 , . . . , xn ] gibt so daß R = { (a1 , . . . , an ) ∈ |M|n | M |= A[a1 , . . . , an /x1 , . . . , xn ] }. (0) (1) Wir wollen in diesem Abschnitt annehmen, daß |M| = N und 0 ∈ FunL , S ∈ FunL mit 0M = 0 und SM (a) = a + 1. Dann kann man für jedes a ∈ N das Numeral a ∈ TerL definieren durch 0 := 0 und n + 1 := S(n). Man beachte auch, daß in diesem Fall die Definierbarkeit von R ⊆ Nn durch A[x1 , . . . , xn ] äquivalent ist zu R = { (a1 , . . . , an ) ∈ Nn | M |= A[x1 , . . . , xn := a1 , . . . , an ] }. Sei weiter L eine primitiv rekursiv präsentierte Sprache. Wir werden in diesem Kapitel stets voraussetzen, jede primitiv rekursive Relation in M definierbar ist. Ein Beispiel für eine solche Situation ist die in Abschnitt 3.1 eingeführte Standardstruktur N zur Sprache PR. Eine Menge S von Formeln heißt definierbar in M, wenn pSq := { pAq | A ∈ S } in M definierbar ist. Wir zeigen, daß bereits aus diesen recht schwachen Voraussetzungen folgt, daß der Wahrheitsbegriff von M, genauer die Menge Th(M) aller in M gültigen geschlossenen Formeln, nicht in M definierbar ist. Da aus der vorausgesetzten Definierbarkeit aller primitiv rekursiven Relationen in M sofort folgt, daß auch alle rekursiven aufzählbaren Relationen in M definierbar sind, erhält man hieraus mit der Churchschen These, daß der Wahrheitsbegriff von M nicht aufzählbar sein kann und folglich insbesondere unentscheidbar ist. Zum Beweis benötigen wir das folgende Fixpunktlemma, das wir im nächsten Abschnitt (als Lemma 4.2.2) noch verallgemeinern werden. Wir schreiben hier und im folgenden oft A[t] für A[x := t], wenn die zu substituierenden Variablen aus dem Zusammenhang klar sind. Lemma 4.1.1. (Semantisches Fixpunktlemma). Ist jede primitiv rekursive Relation in M definierbar, so findet man zu jeder L-Formel B[z] eine geschlossene L-Formel A mit M |= A genau dann, wenn M |= B[pAq]. Beweis. Wir definieren eine primitiv rekursive Funktion s durch s(b, k) := sub(b, hhpzq, pkqii). z ist hierbei die spezielle, durch B[z] vorgegebene Variable, etwa ∗0 . Dann gilt für jede Formel C[z] s(pCq, k) = sub(pCq, hhpzq, pkqii) = pC[k]q, also insbesondere s(pCq, pCq) = pC[pCq]q. Nach Annahme ist der Graph Gs von s definierbar in M, etwa durch As [x1 , x2 , x3 ]. Setze C := ∃x.B[x] ∧ As [z, z, x], A := C[pCq], 74 4. Metamathematik also A = ∃x.B[x] ∧ As [pCq, pCq, x]. Damit gilt M |= A genau dann, wenn ∃a∈N.M |= B[a] und a = pC[pCq]q, also genau dann, wenn M |= B[pAq]. u t Satz 4.1.2. ( Tarskis Undefinierbarkeitssatz). Ist jede primitiv rekursive Relation in M definierbar, so ist Th(M) in M undefinierbar, insbesondere also nicht rekursiv aufzählbar. Beweis. Nehmen wir an, pTh(M)q wäre definierbar durch BW [z]. Dann gilt für alle geschlossenen Formeln A M |= A genau dann, wenn M |= BW [pAq]. Wir betrachten nun die Formel ¬BW [z] und wählen uns nach dem Fixpunktlemma 4.1.1 eine geschlossene L-Formel A mit M |= A genau dann, wenn M |= ¬BW [pAq]. Dies widerspricht der obigen Äquivalenz. Bereits oben hatten wir bemerkt, daß alle rekursiv aufzählbaren Relationen in M definierbar sind; deshalb folgt, daß pTh(M)q nicht rekursiv aufzählbar ist. t u 4.2 Der Wahrheitsbegriff in formalen Theorien Wir wollen die Überlegungen des vorgehenden Abschnitts verallgemeinern. Dort hatten wir mit dem Wahrheitsbegriff in einer Struktur M gearbeitet, also der Relation M |= A. Die Menge der Sätze A mit M |= A hatten wir als Theorie vom M bezeichnet, geschrieben Th(M). Jetzt gehen wir statt von Th(M) allgemeiner von einer beliebigen Theorie T aus, und stellen uns die Frage, ob in T ein “Wahrheitsbegriff” (in der Gestalt einer “Wahrheitsformel” B[z]) existiert, so daß B[z] “bedeutet”, daß z “wahr” ist. Was soll das heißen? Wir müssen die verwendeten Begriffe ohne semantische Konzepte erkären. – z läuft also über geschlossene Formeln oder Sätze A bzw. genauer pAq. – A “wahr” ist zu ersetzen durch T ` A. – C ist “gleichbedeutend” mit D ist zu ersetzen durch T ` C ↔ D. Wir wollen also untersuchen, ob es eine Wahrheitsformel B[z] geben kann, so daß für alle Sätze A gilt T ` A ↔ B[pAq]. Es wird sich zeigen, daß dies schon unter recht schwachen Voraussetzungen an die Theorie T unmöglich ist. Technisch wird es darum gehen, an die Stelle der Definierbarkeit in M die “Repräsentierbarkeit” innerhalb einer formalen Theorie setzen. Sei im folgenden L wieder eine primitiv rekursiv präsentierte Sprache mit 0, S, = in L und T eine Theorie mit EqL ⊆ T . Wir nennen eine Relation R ⊆ Nn repräsentierbar in T , wenn es eine Formel A[x1 , . . . , xn ] gibt mit T ` A[a1 , . . . , an ], T ` ¬A[a1 , . . . , an ], falls (a1 , . . . , an ) ∈ R, falls (a1 , . . . , an ) ∈ / R. Eine Funktion f : Nn → N heißt repräsentierbar in T , wenn es eine Formel A[x1 , . . . , xn , y] gibt, die den Graphen Gf ⊆ Nn+1 repräsentiert, also die T ` A[a1 , . . . , an , f (a1 , . . . , an )], T ` ¬A[a1 , . . . , an , c], (4.1) falls c 6= f (a1 , . . . , an ) (4.2) für alle a1 , . . . , an ∈ N. (4.3) erfüllt, und für die zusätzlich gilt T ` A[a1 , . . . , an , y] ∧ A[a1 , . . . , an , z] → y = z Man beachte, daß für den Fall T ` b 6= c für b < c die Bedingung (4.2) aus (4.1) und (4.3) folgt. 4.3 Unentscheidbarkeit und Unvollständigkeit 75 Lemma 4.2.1. Ist die charakteristische Funktion 1R einer Relation R ⊆ Nn in T repräsentierbar, so auch die Relation R selbst. Beweis. Übung OBdA sei n = 1. Sei A[x, y] eine 1R repräsentierende Formel. Wir zeigen, daß dann A[x, 1] die Relation R repräsentiert. Sei also zunächst a ∈ R. Dann ist 1R (a) = 1, also (a, 1) ∈ G1R , also / G1R , also T ` ¬A[a, 1]. T ` A[a, 1]. Sei nun a ∈ / R. Dann ist 1R (a) = 0, also (a, 1) ∈ t u Lemma 4.2.2. (Fixpunktlemma). Sind alle primitiv rekursiven Funktionen in T repräsentierbar, so findet man zu jeder Formel B[z] eine geschlossene Formel A mit T ` A ↔ B[pAq]. Beweis. Wir gehen zunächst wie im Beweis des semantischen Fixpunktlemmas 4.1.1 vor. Sei also As [x1 , x2 , x3 ] eine die primitiv rekursive Funktion s(b, k) := sub(b, hhpzq, pkqii) repräsentierende Formel. Setze C := ∃x.B[x] ∧ As [z, z, x], A := C[pCq], d.h. A = ∃x.B[x] ∧ As [pCq, pCq, x]. Wegen s(pCq, pCq) = pC[pCq]q = pAq ist in T herleitbar As [pCq, pCq, x] ↔ x = pAq, also nach Definition von A auch und damit A ↔ ∃x.B[x] ∧ x = pAq A ↔ B[pAq]. u t Mit T = Th(M) ergibt sich das obige (semantische) Fixpunktlemma 4.1.1 als Spezialfall. Satz 4.2.3. (Undefinierbarkeit der Wahrheitsbegriffs). Sei T eine konsistente Theorie, in der alle primitiv rekursiven Funktionen repräsentierbar sind. Dann kann es keine Formel B[z] geben, so daß für alle geschlossenen Formeln A gilt T ` A ↔ B[pAq]. Beweis. Angenommen, wir hätten so ein B[z]. Wir betrachten nun die Formel ¬B[z] und wählen nach dem Fixpunktlemma 4.2.2 eine geschlossene Formel A mit T ` A ↔ ¬B[pAq]. Für dieses A hätte man also T ` A ↔ ¬A im Widerspruch zur Konsistenz von T . u t Mit T = Th(M) ergibt sich der Tarskische Undefinierbarkeitssatz 4.1.2 wieder als Spezialfall. 4.3 Unentscheidbarkeit und Unvollständigkeit In diesem Abschnitt betrachten wir eine konsistente formale Theorie, in der alle rekursiven Funktionen repräsentierbar sind. Dies ist eine sehr schwache Voraussetzung, wie wir im nächsten Abschnitt zeigen werden. Sie ist erfüllt, sobald die Theorie ein gewisses Minimum an Arithmetik zu beweisen gestattet. Wir zeigen, daß eine solche Theorie notwendigerweise unentscheidbar ist. Weiter zeigen wir den ersten Gödelschen Unvollständigkeitssatz, der aussagt, daß eine axiomatisierte derartige Theorie immer unvollständig sein muß. Diesen Satz beweisen wir dann noch in einer von Rosser verschärften Form, in der eine geschlossene Formel A angegeben wird, so daß weder A noch ¬A in der Theorie beweisbar ist. In diesem Abschnitt sei L wieder eine primitiv rekursiv präsentierte Sprache mit 0, S, = in L und T eine Theorie mit EqL ⊆ T . 76 4. Metamathematik Satz 4.3.1. (Unentscheidbarkeit). Ist T eine konsistente Theorie, in der alle rekursiven Funktionen repräsentierbar sind, so ist T nicht rekursiv. Beweis. Nehmen wir an, T ist rekursiv. Nach Voraussetzung ist dann pT q durch eine Formel B[z] in T repräsentierbar. Wir wählen nach dem Fixpunktlemma 4.2.2 eine geschlossene Formel A mit T ` A ↔ ¬B[pAq] und zeigen (1) T 6` A und (2) T ` A; dies ist der gewünschte Widerspruch. Zu (1). Gelte T ` A. Dann ist A ∈ T , also pAq ∈ pT q und damit T ` B[pAq] (da B[z] die Menge pT q in T repräsentiert). Es folgt T ` ¬A nach Wahl von A und damit ein Widerspruch zur Konsistenz von T . Zu (2). Nach (1) wissen wir T 6` A. Daher ist A ∈ / T , also pAq ∈ / pT q und damit T ` ¬B[pAq]. Es folgt T ` A nach Wahl von A. u t Satz 4.3.2. (Erster Gödelscher Unvollständigkeitssatz). Jede axiomatisierte konsistente Theorie, in der alle rekursiven Funktionen repräsentierbar sind, ist unvollständig. Beweis. Die Behauptung ergibt sich aus Korollar 3.3.8 und Satz 4.3.1. u t Wie oben schon erwähnt, wollen wir jetzt unter Verwendung einer Idee von Rosser den Unvollständigkeitssatz in dem Sinn verschärfen, daß wir eine geschlossene Formel A konkret angegeben, für die weder A noch ¬A in der Theorie beweisbar ist. Satz 4.3.3. ( Gödel-Rosser). Sei T eine axiomatisierte konsistente L-Theorie mit 0, S, = in L und EqL ⊆ T . Ferner gebe es eine Formel K[x, y] – geschrieben x < y – so daß T ` ∀x.x < n → x = 0 ∨ · · · ∨ x = n − 1, T ` ∀x.x = 0 ∨ · · · ∨ x = n ∨ n < x. (4.4) (4.5) Weiter sei jede primitiv rekursive Funktion in T repräsentierbar. Dann findet man eine geschlossene Formel A, für die weder A noch ¬A in T beweisbar ist. Beweis. Wir definieren zunächst WdlT ⊆ N × N durch WdlT (d, a) :↔ AblT (d, ¬a). ˙ Dann ist WdlT primitiv rekursiv, und es gilt WdlT (d, a) genau dann, wenn d eine Widerlegung von a in T ist, d.h. wenn d eine Herleitung einer Sequenz Γ ⇒ ¬A kodiert mit a = p¬Aq und Γ zusammengesetzt aus Stabilitätsaxiomen und Formeln aus AxT . Seien BAblT [x1 , x2 ] und BWdlT [x1 , x2 ] repräsentierende Formeln zu AblT und WdlT . Wir wählen nun nach dem Fixpunktlemma 4.2.2 eine geschlossene Formel A mit T ` A ↔ ∀x.BAblT [x, pAq] → ∃y.y < x ∧ BWdlT [y, pAq]. A drückt also seine eigene Unbeweisbarkeit aus, und zwar in der (auf Rosser zurückgehenden) Form “Zu jedem Beweis von mir gibt es einen kürzeren Beweis meiner Negation”. Wir zeigen (1) T 6` A und (2) T 6` ¬A. Zu (1). Gelte T ` A. Man wähle ein n mit AblT (n, pAq). Dann gilt auch nicht WdlT (m, pAq) für alle m, da T konsistent ist. Folglich haben wir T ` BAblT [n, pAq], T ` ¬BWdlT [m, pAq] für alle m. 4.4 Repräsentierbarkeit 77 Daraus folgt wegen (4.4) T ` BAblT [n, pAq] ∧ ∀y.y < n → ¬BWdlT [y, pAq]. Also gilt T ` ∃x.BAblT [x, pAq] ∧ ∀y.y < x → ¬BWdlT [y, pAq], T ` ¬A. Dies ist ein Widerspruch zur Konsistenz von T . Zu (2). Gelte T ` ¬A. Man wähle ein n mit WdlT (n, pAq). Dann gilt auch nicht AblT (m, pAq) für alle m, da T konsistent ist. Folglich haben wir T ` BWdlT [n, pAq], T ` ¬BAblT [m, pAq] für alle m. Daraus erhält man aber T ` ∀x.BAblT [x, pAq] → ∃y.y < x ∧ BWdlT [y, pAq], wie man durch Fallunterscheidung nach x mit Hilfe von (4.5) leicht beweist. Also gilt T ` A. Dies ist wieder ein Widerspruch zur Konsistenz von T . u t Schließlich wollen wir noch eine Variante dieses Satzes formulieren, in der wir nicht mehr davon ausgehen, daß die Theorie T nur etwas über Zahlen aussagt. Satz 4.3.4. ( Gödel-Rosser). Sei T eine axiomatisierte konsistente L-Theorie mit 0, S, = in L und EqL ⊆ T . Ferner gebe es Formeln N [x] und K[x, y] – geschrieben N x bzw. x < y – so daß T ` N 0, T ` ∀x∈N N [S(x)] und T ` ∀x∈N.x < n → x = 0 ∨ · · · ∨ x = n − 1, T ` ∀x∈N.x = 0 ∨ · · · ∨ x = n ∨ n < x. Hierbei steht ∀x∈N A für ∀x.N x → A. Ferner sei jede primitiv rekursive Funktion in T repräsentierbar. Dann findet man eine geschlossene Formel A, für die weder A noch ¬A in T beweisbar ist. Beweis. Wie für den Satz 4.3.3; man muß lediglich die auftretenden Quantoren auf N relativieren. t u 4.4 Repräsentierbarkeit Wir zeigen in diesem Abschnitt, daß schon recht einfache formale Theorien die Eigenschaft besitzen, daß in ihnen jede rekursive Funktion repräsentierbar ist. Als Hilfsmittel für den Beweis zeigen wir zunächst, daß die Menge der rekursiven Funktionen auch ohne das Schema der primitiven Rekursion erzeugt werden kann, also alleine durch Komposition und den unbeschränkten µ-Operator aus einfachen Ausgangsfunktionen. Wir definieren die Menge G der µ0 -rekursiven Funktionen als die kleinste Menge von Funktionen mit den folgenden Eigenschaften. Wir schreiben G n für die Teilmenge der n-stelligen Funktionen in G. 78 4. Metamathematik 1. 0n ∈ G n (n ≥ 0), S ∈ G 1 , Iin ∈ G n (1 ≤ i ≤ n), +, ·, 1< ∈ G 2 . 2. Sind g1 , . . . , gm ∈ G n , h ∈ G m und m ≥ 1, n ≥ 0, so ist (◦hg1 . . . gm ) ∈ G n . 3. Ist g ∈ G n+1 und gilt ∀a∃i (g(i, a) = 0), so ist µg in G n . · sowie π, π1 , π2 sind µ0 -rekursiv. Lemma 4.4.1. Die Funktionen − · b = µi (a < i + b + 1). Es war π(a, b) = 1 (a + b)(a + b + 1) + a. Zum Beweis von π ∈ G genügt Beweis. a − 2 es offenbar, ein h ∈ G zu finden mit h(2c) = c. Eine solche Funktion ist h(d) := µi (d < 2i + 1). Wir zeigen jetzt π1 ∈ G 1 . Dazu beachte man, daß 2π(a, b) = (a + b)(a + b + 1) + 2a. (4.6) Nun gilt (a + b)(a + b + 1) ≤ (a + b)(a + b + 1) + 2a < (a + b + 1)(a + b + 2). Setzt man also g(c) := µi (2c < (i + 1)(i + 2)), so ist g(π(a, b)) = a + b. Wegen (4.6) können wir also aus c := π(a, b) die Zahl 2a gewinnen als 2c − g(c)(g(c) + 1). Damit gilt · g(c)(g(c) + 1)) π1 (c) = h(2c − und wir haben π1 ∈ G gezeigt. · π1 (c). π2 ∈ G folgt jetzt aus π2 (c) = g(c) − u t Lemma 4.4.2. ( Gödel). Es gibt eine µ0 -rekursive Funktion β mit folgender Eigenschaft. Zu beliebigen a0 , . . . , an−1 findet man ein c mit β(c, i) = ai für alle i < n. Beweis. Sei a := max π(ai , i). i<n Man beachte zunächst, daß alle 1 + ka! für k ≤ a relativ prim sind. Hätten nämlich 1 + ia! und 1 + ja! mit i < j ≤ a einen gemeinsamen Primteiler p, so wäre p|(j − i)a!, also auch p|a! und damit p|1, was nicht sein kann. Wir setzen jetzt b := a!, Y d := 1 + π(ai , i)a! . i<n Aus b und d kann man zu gegebenem i < n die Zahl ai wie folgt wiedergewinnen. Man betrachte das kleinste x mit 1 + π(x, i)b|d. Offenbar ist ai ein solches x. Würde nun ein x < ai die Bedingung auch erfüllen, so wäre wegen π(x, i) < a und der Tatsache, daß alle 1 + ka! für k ≤ a relativ prim sind, π(x, i) = π(aj , j) für ein j < n nach Konstruktion von d, also x = aj und i = j im Widerspruch zu x < ai . Wir können also definieren β(c, i) := π1 µy [(1 + π(π1 (y), i) · π1 (c)) · π2 (y) ≥ π2 (c)] . Diese Funktion heißt Gödelsche β-Funktion. β ist µ0 -rekursiv, denn für jedes c, i existiert offenbar ein solches y. Für c := π(b, d) ist dann π(ai , dd/1 + π(ai , i)be) das kleinste solche y und wir haben β(c, i) = ai . u t Satz 4.4.3. Die Menge der µ0 -rekursiven Funktionen ist abgeschlossen unter primitiver Rekursion, stimmt also mit der Menge der µ-rekursiven Funktionen überein. 4.4 Repräsentierbarkeit 79 Beweis. Sei g ∈ G n , h ∈ G n+2 und f = (Rgh). Nach dem vorangehenden Lemma findet man zu gegebenen a, b ein c mit β(c, i) = f (i, b) für alle i ≤ a, also β(c, 0) = g(b), β(c, i + 1) = h(i, β(c, i), b) für alle i < a. Setze · a), · b) + (b − |a − b| := (a − · i)(1 − · |h(i, β(c, i), b) − β(c, i + 1)|) = 0 , h1 (a, b, c) := µi (a − · h1 (a, b, c)). h2 (a, b, c) := |g(b) − β(c, 0)| + (a − Dann ist offenbar h2 ∈ G und h2 (a, b, c) = 0 ist äquivalent zu der Gültigkeit der obigen Gleichungen für β. Insbesondere gibt es zu jedem a, b ein c mit h2 (a, b, c) = 0. Daher gilt f (a, b) = β(µc (h2 (a, b, c) = 0), a) und f ist deshalb µ0 -rekursiv. t u Wir haben also gesehen, daß die µ-rekursiven und die µ0 -rekursiven Funktionen übereinstimmen; im folgenden sprechen wir deshalb nur noch von µ-rekursiven Funktionen. Satz 4.4.4. Sei T eine L-Theorie mit 0, S, = in L und EqL ⊆ T . Ferner gebe es Formeln N [x] und K[x, y] – geschrieben N x bzw. x < y – so daß T ` N 0, T ` ∀x∈N N [S(x)] und folgendes gilt. T ` S(a) 6= 0 T ` S(a) = S(b) → a = b die Funktionen + und · sind in T repräsentierbar, 6 0) T ` ∀x∈N (x < T ` ∀x∈N.x < S(b) → x < b ∨ x = b T ` ∀x∈N.x < b ∨ x = b ∨ b < x für alle a ∈ N, für alle a, b ∈ N, für alle b ∈ N, für alle b ∈ N. (4.7) (4.8) (4.9) (4.10) (4.11) (4.12) Hierbei steht wieder ∀x∈N A für ∀x.N x → A. Dann erfüllt T die Voraussetzungen von Satz 4.3.4, also des (auf N relativierten) Satzes von Gödel-Rosser. Genauer gilt für alle a ∈ N T ` ∀x∈N.x < a → x = 0 ∨ · · · ∨ x = a − 1, T ` ∀x∈N.x = 0 ∨ · · · ∨ x = a ∨ a < x, (4.13) (4.14) und jede rekursive Funktion ist in T repräsentierbar. Beweis. Wir zeigen zunächst, daß die Formel x = y die Gleichheit und die Formel x < y die Kleinerbe6 b. Gelte nun a 6< b. Wir ziehung in T repräsentiert. Aus (4.7) and (4.8) folgt sofort T ` a 6= b für a = zeigen T ` a < 6 b durch Induktion nach b. T ` a 6< 0 folgt aus (4.10). Im Schritt haben wir a 6< b + 1, 6 b und T ` a = 6 b, also nach (4.11) also a < 6 b und a 6= b, also nach IH und der obigen Bemerkung T ` a < T ` a 6< S(b). Sei jetzt a < b. Dann gilt T ` a = 6 b und T ` b 6< a, also nach (4.12) T ` a < b. (4.13) ergibt sich jetzt leicht durch Induktion über a. Die Basis folgt aus (4.10), und der Schritt aus der IH und (4.11). (4.14) ergibt sich aus (4.12) unmittelbar mit (4.13). Wir zeigen jetzt durch Induktion über die Definition der µ0 -rekursiven Funktionen, daß jede µ0 rekursive (und damit nach Satz 4.4.3 auch jede rekursive) Funktion in T repräsentierbar ist. Man beachte hierbei, daß wegen T ` a 6= b für a 6= b die Bedingung (4.2) in der Definition der Repräsentierbarkeit einer Funktion nicht mehr überprüft werden muß. Die Ausgangsfunktionen 0n , S und Iin werden offenbar durch die Formeln 0 = y, S(x) = y und xi = y repräsentiert. + und · sind nach Voraussetzung (4.9) in T repräsentierbar. Wir zeigen noch, daß die Funktion 1< in T durch 6 x2 ∧ y = 0) A := (x1 < x2 ∧ y = 1) ∨ (x1 < 80 4. Metamathematik repräsentiert wird. Gelte also a1 < a2 . Dann ist T ` a1 < a2 , also T ` A[a1 , a2 , 1]. Sei jetzt a1 6< a2 . Dann ist T ` a1 6< a2 , also T ` A[a1 , a2 , 0]. Ferner ist A[x1 , x2 , y] ∧ A[x1 , x2 , z] → y = z schon logisch aus den Gleichheitsaxiomen herleitbar (Fallunterscheidung nach x1 < x2 ). Fall (◦hg1 . . . gm ). OBdA seien g1 , . . . , gm einstellig. Nach IH haben wir repräsentierende Formeln Agi [x, yi ] und Ah [y, z]. Wir setzen Af := ∃y.Ag1 [x, y1 ] ∧ · · · ∧ Agm [x, ym ] ∧ Ah [y, z]. Gelte f (a) = c. Offenbar haben wir dann T ` Af [a, c]. Zu zeigen bleibt T ` Af [a, z1 ]∧Af [a, z2 ] → z1 = z2 . Wir führen den Beweis wieder informal. Nach Definition von Af haben wir y11 , . . . , y1m und y21 , . . . , y2m . Die IH für gi liefert y1i = y2i = gi (a). Mit der IH für h ergibt sich z1 = z2 . Fall (µg). OBdA sei g zweistellig, also f (a) = µi (g(i, a) = 0), wobei ∀a∃i (g(i, a) = 0). Nach IH haben wir eine g repräsentierende Formel Ag [y, x, z]. Sei Af [x, y] := N y ∧ Ag [y, x, 0] ∧ ∀v∈N.v < y → ∃w.w 6= 0 ∧ Ag [v, x, w]. Wir zeigen zunächst (4.1). Gelte also f (a) = b. Zu zeigen ist T ` Af [a, b]. Aufgrund der Gestalt von Af folgt dies aber sofort mit T ` v < b → v = 0 ∨ · · · ∨ v = b − 1 aus der IH für g. Wir zeigen jetzt noch (4.3). Gegeben sei also a; setze b := f (a). Es genügt zu zeigen T ` Af [a, y] → y = b. Den Beweis führen wir wieder informal. Gelte also Af [a, y]. Nach Voraussetzung (4.12) genügt es, y 6< b und b 6< y zu zeigen. Nehmen wir also zunächst y < b an. Nach (4.13) folgt y = i für ein i < b im Widerspruch zu Ag [y, a, 0]. Nehmen wir jetzt b < y an. Aus Af [a, y] folgt dann ∃w.w 6= 0 ∧ Ag [b, a, w] im Widerspruch zu Ag [b, a, 0]. u t Wir wollen jetzt noch eine spezielle und besonders einfache arithmetische Theorie betrachten. Sei L1 die durch 0, S, +, · und = bestimmte Sprache und Z1 die durch EqL1 und die Generalisierungen der folgenden Axiome bestimmte Theorie. S(x) 6= 0, S(x) = S(y) → x = y, x + 0 = x, x + S(y) = S(x + y), x · 0 = 0, x · S(y) = x · y + x, ∃z (x + S(z) = y) ∨ x = y ∨ ∃z (y + S(z) = x). (4.15) (4.16) (4.17) (4.18) (4.19) (4.20) (4.21) Satz 4.4.5. Jede Theorie T mit T ⊇ Z1 erfüllt die Voraussetzungen des Satzes 4.3.3 von GödelRosser. Bzgl. K[x, y] := ∃z (x + S(z) = y) ist sogar jede rekursive Funktion in T repräsentierbar. Beweis. Wir zeigen, daß T mit N [x] := (x = x) und K[x, y] := ∃z (x + S(z) = y) die Bedingungen von Satz 4.4.4 erfüllt. Für (4.7) und (4.8) ist dies klar. Für (4.9) können wir x + y = z und x · y = z als repräsentierende Formeln wählen. Für (4.10) ist zu zeigen ¬∃z (x + S(z) = 0). Dies folgt aber aus (4.18) und (4.15). Zum Beweis von (4.11) benötigen wir die Hilfsaussage x = 0 ∨ ∃y (x = S(y)), (4.22) deren Beweis wir unten nachtragen. Gelte also x + S(z) = S(b), also auch S(x + z) = S(b) und damit x + z = b. Wir verwenden jetzt (4.22) für z. Im Fall z = 0 folgt x = b, und im Fall ∃y (z = S(y)) haben wir ∃y (x + S(y) = b). Damit ist (4.11) bewiesen. (4.12) folgt sofort aus (4.21). Zum Beweis von (4.22) verwenden wir ebenfalls (4.21) und vergleichen x mit 0. Es genügt offenbar, t den Fall ∃z (x+S(z) = 0) auszuschließen. Er besagt aber S(x+z) = 0 und widerspricht deshalb (4.15). u Korollar 4.4.6. (Starke Unentscheidbarkeit von Z1 ). Jede konsistente Theorie T mit T ⊇ Z1 ist nicht rekursiv. Beweis. Sätze 4.4.5 und 4.3.1. u t 4.5 Unbeweisbarkeit der Widerspruchsfreiheit 81 Korollar 4.4.7. (Unentscheidbarkeit der Prädikatenlogik). Sei L1 die durch 0, S, +, · und = bestimmte Sprache. Dann ist die Menge der in der klassischen Logik herleitbaren L1 -Formeln nicht rekursiv. Beweis. Andernfalls wäre auch Z1 rekursiv, denn eine Formel A ist herleitbar in Z1 genau dann, wenn die Implikation aus der Konjunktion der endlich vielen Z1 -Axiome und der Gleichheitsaxiome in der klassischen Logik herleitbar ist. u t In Abschnitt 3.2 hatten wir Σ1 -Formeln der formalen Sprache PR definiert, ausgehend von eventuell negierten PR-Primformeln. Wir wollen jetzt einen entsprechenden Begriff für die durch 0, S, +, · und = bestimmte Sprache L1 definieren, und zwar so, daß immer noch genau die rekursiv aufzählbaren Relationen durch Σ1 -Formeln definierbar sind. In Anbetracht der stark verringerten sprachlichen Ausdrucksmittel ist es jetzt sinnvoll, nur ganz spezielle atomare und negiert atomare Formeln zuzulassen. Σ1 -Formeln der Sprache L1 werden wie folgt induktiv definiert. • Für alle Variablen x, y, z sind x = y, x = 6 y, 0 = x, S(x) = y, x + y = z und x · y = z Σ1 -Formeln der Sprache L1 . • Mit A und B sind auch A ∧ B und A ∨ B Σ1 -Formeln der Sprache L1 . • Mit A ist auch ∀x<y A eine Σ1 -Formel der Sprache L1 , falls y von x verschieden ist. • Mit A ist auch ∃x A eine Σ1 -Formel der Sprache L1 . Damit jede Σ1 -Formel der Sprache L1 auch wirklich eine L1 -Formel ist, verstehen wir ∀x<y A als Abkürzung für ∀x.∃z (x + S(z) = y) → A. Satz 4.4.8. Jede rekursive Funktion ist in Z1 repräsentierbar durch eine Σ1 -Formel der Sprache L1 . Beweis. Dies ergibt sich sofort durch Inspektion des Beweises von Satz 4.4.4. Man hat lediglich zu beachten, daß schon aufgrund der Gleichheitsaxiome ∃z (x + S(z) = y) mit ∃z∃w (S(z) = w ∧ x + w = y) und A[0] mit ∃x.x = 0 ∧ A äquivalent sind. t u L1 -Formeln heißen auch arithmetische Formeln. Eine Relation R ⊆ Nn heißt arithmetisch, wenn sie im Standardmodell N1 der Sprache L1 definierbar ist. Korollar 4.4.9. 1. Jede rekursiv ausfzählbare Relation ist arithmetisch. 2. Th(N1 ) ist nicht arithmetisch, insbesondere also auch nicht rekursiv aufzählbar. Beweis. Der erste Teil folgt aus Satz 4.4.8 (mit der aus Lemma 3.2.1 bekannten Tatsache, daß jede nichtleere Menge M ⊆ N Wertebereich einer primitiv rekursiven Funktion ist), und der zweite aus dem u t Tarskischen Undefinierbarkeitssatz 4.1.2. 4.5 Unbeweisbarkeit der Widerspruchsfreiheit Wir haben oben im Satz 4.3.3 von Gödel-Rosser gesehen, wie man zu jeder axiomatisierten konsistenten Theorie T , die gewisse schwache Voraussetzungen erfüllt, einen geschlossenen Satz A konstruieren kann so daß weder A noch ¬A in T beweisbar ist. Die inhaltliche Bedeutung dieses Satzes A war “Zu jedem Beweis von mir gibt es einen kürzeren Beweis meiner Negation”. Da also A keinen Beweis besitzt, ist insbesondere A wahr. Wir haben also einen wahren, aber in T unbeweisbaren Satz gefunden. Diese Aussage wollen wir jetzt noch verschärfen, indem wir zeigen, daß ein besonders interessanter wahrer Satz in T unbeweisbar ist, nämlich der Satz Wf T , der die Konsistenz (oder Widerspruchsfreiheit) von T besagt. Dies ist der zweite Unvollständigkeitssatz von Gödel [13]. Wir werden diesen Satz hier in einer von Löb angegebenen verschärften Form beweisen. Zunächst zeigen wir eine Hilfsaussage. Lemma 4.5.1. Sei A[x1 , . . . , xn ] eine Σ1 -Formel der durch 0, S, +, · und = bestimmten Sprache L1 . Gilt dann N1 |= A[a1 , . . . , an ] für das Standardmodell N1 von L1 , so folgt Z1 ` A[a1 , . . . , an ]. 82 4. Metamathematik Beweis. Durch Induktion über die Σ1 -Formeln der Sprache L1 . Die Anfangsfälle hatten wir zu Beginn des Beweises von Satz 4.4.4 erledigt bzw. sie ergeben sich (für x + y = z und x · y = z) aus den Rekursionsgleichungen für + und · in (4.17)-(4.20). Fälle A ∧ B, A ∨ B. Die Behauptung folgt sofort aus der IH. Fall ∀x<y A[x, y, z1 , . . . , zn ]; oBdA sei n = 1. Gelte also N1 |= (∀x<y A)[b, c]. Dann folgt N1 |= A[i, b, c] für jedes i < b und deshalb nach IH Z1 ` A[i, b, c]. Nun gilt nach Satz 4.4.5 Z1 ` ∀x.∃z (x + S(z) = b) → x = 0 ∨ · · · ∨ x = b − 1, also Z1 ` ∀x<b A[b, c]. Fall ∃x A[x, y1 , . . . , yn ]; oBdA sei n = 1. Gelte also N1 |= (∃x A)[b]. Dann ist N1 |= A[a, b] für ein a ∈ N, also nach IH Z1 ` A[a, b] und deshalb Z1 ` (∃x A)[b]. t u Sei T eine axiomatisierte konsistente Theorie mit T ⊇ Z1 . Sei BAblT wie in Abschnitt 4.3 eine L1 Formel, die die primitiv rekursive Relation AblT ⊆ N × N in Z1 repräsentiert. Wir definieren dann L1 -Formeln ThmT [x] und Wf T durch ThmT [x] := ∃y BAblT [y, x], Wf T := ¬∃y BAblT [y, p⊥q]. ThmT [x] definiert also in N1 die Menge der in T beweisbaren Formeln, und es gilt N1 |= Wf T genau dann, wenn T konsistent ist. Wir betrachten die folgenden beiden Ableitbarkeitsbedingungen für T . T ` A → ThmT [pAq] für A geschlossene Σ1 -Formel der Sprache L1 , T ` ThmT [pA → Bq] ∧ ThmT [pAq] → ThmT [pBq]. (4.23) (4.24) (4.23) sagt aus, daß Lemma 4.5.1 (oder genauer die Aussage, daß jede in N1 gültige geschlossene Σ1 Formel der Sprache L1 in T liegt) nicht nur wahr, sondern sogar in T beweisbar ist. Satz 4.5.2. ( Gödel-Löb). Sei T eine axiomatisierte konsistente Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt. Gilt dann T ` ThmT [pCq] → C für eine geschlossene L1 -Formel C, so gilt schon T ` C. Beweis. Gelte T ` ThmT [pCq] → C. Wähle A nach dem Fixpunktlemma 4.2.2 so daß Z1 ` A ↔ (ThmT [pAq] → C). (4.25) Zu zeigen ist T ` C. Wir führen den Beweis informal, müssen jedoch zeigen, daß alle Schlüsse innerhalb von T durchführbar sind. Zunächst zeigen wir ThmT [pAq] → C. (4.26) Gelte also ThmT [pAq]. Nach (4.23) folgt ThmT [pThmT [pAq]q]. Wegen (4.25) ist die geschlossene Σ1 -Formel ThmT [pA → (ThmT [pAq] → C)q] wahr (in N1 ), und nach Lemma 4.5.1 können wir sie auch in Z1 beweisen. Also ThmT [pA → (ThmT [pAq] → C)q]. Zweimalige Anwendung von (4.24) ergibt ThmT [pCq] und damit nach Voraussetzung C. Damit ist (4.26) bewiesen. 4.6 Anmerkungen 83 Aus (4.26) erhält man jetzt A, nach (4.25). Wir verlassen nun den informalen, innerhalb von T durchführbaren Beweis und stellen fest, daß wir T ` A gezeigt haben. Also ist die geschlossene Σ1 -Formel ThmT [pAq] wahr (in N1 ) und damit nach Lemma 4.5.1 auch in T beweisbar. Da andererseits auch (4.26) in T beweisbar war, ist auch C in T u t beweisbar. Damit haben wir T ` C gezeigt. Korollar 4.5.3. (Zweiter Gödelscher Unvollständigkeitssatz). Sei T eine axiomatisierte konsistente Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt. Dann gilt T 6` Wf T . Beweis. Setze C := ⊥ in Satz 4.5.2. u t Korollar 4.5.4. Sei T eine axiomatisierte konsistente Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt. Dann ist das Reflexionsschema ThmT [pCq] → C mit C geschlossene L1 -Formel unbeweisbar in T . Beweis. Man wähle in Satz 4.5.2 ein C mit T 6` C, etwa C = ⊥. u t Ein wichtiges Beispiel einer axiomatisierten konsistenten Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt, ist die Peano-Zahlentheorie Z (oft auch mit PA bezeichnet). Die Sprache von Z ist wieder L1 (also gegeben durch 0, S, +, · und =), und die Axiome sind neben EqL1 die ersten sechs Z1 -Axiome und zusätzlich das Induktionsschema A[0] ∧ (∀x.A → A[S(x)]) → ∀x A. 4.6 Anmerkungen Die grundlegenden Arbeiten zur Unvollständigkeit stammen von Gödel (1930[12] , 1931[13] ). Gödel fand auch die für den Repäsentationssatz zentrale β-Funktion, und das Fixpunktlemma verwendet er in seiner Argumentation implizit. Sein erster Unvollständigkeitssatz benutzt die Formel “ich bin nicht beweisbar”, einen Fixpunkt von ¬ThmT [x]. Für die Unabhängigkeit dieser Aussage von der zugrunde liegenden Theorie T wird aber die ω-Konsistenz von T benötigt (die allerdings gewährleistet ist, wenn T eine Teiltheorie der Theorie des Standardmodells ist). Rosser hat dann (1936) die hier behandelte Verschärfung angegeben mit der Formel “jeder Beweis von mir ist kürzer zu widerlegen”. Die Undefinierbarkeit des Wahrheitsbegriffs stammt von Tarski (1939), die Unentscheidbarkeit der Prädikaten-Logik erster Stufe ist ein Resultat von Church (1936). Die arithmetischen Theorien R und Q (aus den Übungsaufgaben 57 und 58) stammen von R. Robinson (1950). R ist essentiell unentscheidbar, unvollständig, genügt für den Σ1 Vollständigkeitssatz und alle rekursiven Prädikate sind in R repäsentierbar. Q ist eine sehr natürliche Theorie und im Gegensatz zu R endlich. Q ist minimal im folgenden Sinne: Streicht man ein Axiom, so ist die verbleibende Theorie nicht mehr essentiell unentscheidbar. (Die erste essentiell unentscheidbare endliche Theorie der Arithmetik wurde von Mostowski und Tarski entwickelt (1939). J. Robinson hatte bei der Lektüre des Manuskriptes die Idee der Behandlung der rekursiven Funktionen ohne das Schema der primitiven Rekursion). Wichtige Beispiele für unentscheidbare Theorien neben dem Satz von Church sind in historischer Reihenfolge: Die Arithmetik der natürlichen Zahlen (Rosser, 1936), die Arithmetik der ganzen Zahlen (Tarski, Mostowski, 1949), die Arithmetik der rationalen Zahlen und die Theorie der gordneten Körper (J. Robinson 1949), die Theorie der Gruppen und die Verbandstheorie (Tarski 1949). Vielleicht ist es instruktiv, einige entscheidbare Theorien daneben zu stellen: Die Theorie der Addition der natürlichen Zahlen (Pressburger, 1929), die der Multiplikation (Mostowski, 1952), die Theorie der abelschen Gruppen (Szmielew, 1949), der algebraisch abgeschlossenen Körper und die der Booleschen Algebren (Tarski, 1949), die Theorie der linear geordneten Mengen (Ehrenfeucht, 1959). 84 4. Metamathematik 5. Mengenlehre 5.1 Kumulative Typenstrukturen Die Mengenlehre kann man als einen Rahmen auffassen, innerhalb dessen man Mathematik begründen und betreiben kann. Wir wollen die Mengenlehre hier als eine formale Theorie der mathematischen Logik entwickeln. Zunächst ist es jedoch notwendig, sich eine inhaltliche Vorstellung des durch die Axiome zu beschreibenden Mengenbegriffs zu verschaffen. Cantor gab 1895 die folgende Definition: Unter einer “Menge” verstehen wir jede Zusammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer Anschauung oder unseres Denkens (welche die Elemente von M genannt werden) zu einem Ganzen. Man kann versuchen, diese Definition wie folgt zu präzisieren. Sei V die Gesamtheit aller Objekte unserer Anschauung oder unseres Denkens. Mit A(x) bezeichnen wir Eigenschaften von Objekten x aus V . Dann kann man { x | A(x) } bilden, die Menge aller Objekte x aus V mit der Eigenschaft A(x). Aufgrund von Cantors Definiton ist { x | A(x) } wieder ein Objekt aus V . Beispiele für Eigenschaften: (1) x ist natürliche Zahl. (2) x ist Menge. (3) x ist Punkt, y ist Gerade und x liegt auf y. (4) y ist Menge und x ist Element von y, kurz: Mg(y) ∧ x ∈ y. Cantors Definiton ist jedoch in ihrer ursprünglichen Form nicht haltbar, da sie zu Widersprüchen / x }. führt. Am bekanntesten ist die sogenannte Russellsche Antinomie: Sei x0 := { x | Mg(x) ∧ x ∈ Dann gilt x0 ∈ x0 ↔ Mg(x0 ) ∧ x0 ∈ / x0 ↔ x0 ∈ / x0 , denn x0 ist Menge. Der Grund für diesen Widerspruch liegt darin, daß man von der Vorstellung einer fertigen Gesamtheit aller Mengen ausgeht. Dies ist aber weder notwendig noch entspricht es dem Vorgehen in der Mathematik. Es reicht vollkommen aus, wenn man eine Menge nur dann bildet, wenn ihre Elemente bereits “zur Verfügung stehen”. Dies führt auf eine Vorstellung einer stufenweisen Konstruktion von Mengen oder genauer auf die kumulative Typenstruktur : Man beginnt mit vorgegebenen Urelementen, die die Mengen der Stufe 0 bilden. Auf einer beliebigen Stufe kann man dann alle Mengen bilden, deren Elemente früheren Stufen angehören. Wählt man zum Beispiel als Urelemente die natürlichen Zahlen, so gehört {27, {5}} zur Stufe 2. Es stellen sich die folgenden natürlichen Fragen: (1) Welche Urelemente soll man wählen? (2) Wie weit reichen die Stufen? Zu (1). Für die Zwecke der Mathematik ist es ausreichend, überhaupt keine Urelemente vorauszusetzen; man spricht dann von reinen Mengen. Dies wollen wir im folgenden tun. Stufe 0: Stufe 1: Stufe 2: Stufe 3: − ∅ ∅, {∅} ∅, {∅}, {{∅}}, {∅, {∅}} und so weiter. Zu (2). Shoenfield hat in [34] das folgende Prinzip formuliert. Shoenfield-Prinzip. Man betrachte eine Gesamtheit S von Stufen. Kann man sich eine Situation vorstellen, in der alle Stufen aus S konstruiert sind, so soll es eine Stufe geben, die nach allen Stufen aus S kommt. 86 5. Mengenlehre Aus diesem vagen Prinzip lassen sich exakte Folgerungen ziehen, die wir als Axiome fixieren werden. Unter einer Menge wollen wir also inhaltlich ein Objekt verstehen, das zu einer Stufe der kumulative Typenstruktur gehört. Unter einer Klasse verstehen wir eine beliebige Gesamtheit von Mengen. Jede Menge ist also eine Klasse. Ferner gibt es Klassen, die keine Mengen sind, z.B. die Klasse V aller Mengen. 5.2 Axiomatische Mengenlehre Wie in jeder axiomatischen Theorie müssen wir auch in der Mengenlehre sämtliche benötigten Eigenschaften, auch die anscheinend selbstverständlichen, explizit durch Axiome angeben. Die Sprache der Mengenlehre enthält als einziges nichtlogisches Symbol die Elementbeziehung ∈. Atomare Formeln sind also nur x ∈ y (x ist Element von y). Die Gleichheit x = y wird definiert durch x = y := ∀z.z ∈ x ↔ z ∈ y. Um die Verträglichkeit der ∈-Relation mit der Gleichheit sicherzustellen benötigen wir ein erstes Axiom. Axiom 1. (Extensionalitätsaxiom). ∀x, y, z.x = y ∧ x ∈ z → y ∈ z. Anmerkung. Will man die Gleichheit als Grundsymbol der Sprache verwenden, so muß man neben den Gleichheitsaxiomen fordern ∀x, y.(∀z.z ∈ x ↔ z ∈ y) → x = y. Als Klassen lassen wir in unserer axiomatischen Theorie nur definierbare Gesamtheiten von Mengen zu. Unter “definierbar” verstehen wir definierbar durch eine Formel der Sprache der Mengenlehre. Genauer: Ist A(x) eine Formel, in der die hervorgehobene Mengenvariable x und eventuell weitere Mengenvariablen (sog. Parameter) vorkommen können, so heißt { x | A(x) } die Klasse aller Mengen x mit der Eigenschaft A(x). Statt mit Klassen könnten wir also auch mit Eigenschaften oder genauer mit Formeln arbeiten. Mit Klassen lassen sich aber viele Aussagen einfacher und suggestiver formulieren. Ist A(x) die Formel x = x, so heißt { x | A(x) } die Allklasse oder das (mengentheoretische) Universum. Ist A(x) die Formel x ∈ / x, so heißt { x | A(x) } die Russellklasse. Wir geben jetzt einige im folgenden ständig verwendete Definitionen. Eine Menge b ist genau dann Element der Klasse { x | A(x) }, wenn A(b) gilt: b ∈ { x | A(x) } := A(b). Zwei Klassen A, B heißen gleich, wenn sie dieselben Elemente enthalten: A = B := ∀x.x ∈ A ↔ x ∈ B. Ist A eine Klasse und b eine Menge, so heißen A und b gleich, wenn sie dieselben Elemente enthalten: A = b := ∀x.x ∈ A ↔ x ∈ b. Wir identifizieren dann die Klasse A mit dieser Menge b. Statt “A ist Menge” kann man auch schreiben A ∈ V . Eine Klasse B ist Element einer Menge a (bzw. einer Klasse A), wenn B gleich einem Element x von a (bzw. von A) ist: B ∈ a := ∃x.x ∈ a ∧ B = x, B ∈ A := ∃x.x ∈ A ∧ B = x. Eine Klasse A heißt echte Klasse, wenn A keine Menge ist: A echte Klasse := ∀x(x 6= A). 5.2 Axiomatische Mengenlehre 87 Anmerkung. Jede Menge b ist eine Klasse, denn b = { x | x ∈ b }. / x } = x0 , so hätte man Die Russellklasse ist eine echte Klasse, denn wäre { x | x ∈ x0 ∈ x0 ↔ x0 ∈ / x0 . Die Russel-Konstruktion ist also nun keine Antinomie mehr, sondern besagt einfach: Es gibt Mengen und (echte) Klassen. Seien A, B Klassen (also echte Klassen oder Mengen) und a, b, a1 , . . . , an Mengen. Wir definieren {a1 , . . . , an } := { x | x = a1 ∨ . . . ∨ x = an }, ∅ := { x | x = 6 x} V := { x | x = x } A ⊆ B := ∀x.x ∈ A → x ∈ B leere Klasse, Allklasse, A ist Teilklasse von B, A ( B := A ⊆ B ∧ A 6= B A ∩ B := { x | x ∈ A ∧ x ∈ B } A ist echte Teilklasse von B, Durchschnitt, A ∪ B := { x | x ∈ A ∨ x ∈ B } A \ B := { x | x ∈ A ∧ x ∈ / B} [ A := { x | ∃y.y ∈ A ∧ x ∈ y } \ A := { x | ∀y.y ∈ A → x ∈ y } Vereinigung, Differenz, große Vereinigung, großer Durchschnitt, P(A) := { x | x ⊆ A } Potenzklasse von A, (a, b) := { x | x = {a} ∨ x = { a, b | }} (geordnetes) Paar (Kuratowski-Paar.) T T S Insbesondere ist a ∪ b = {a, b} und a ∩ b = {a, b}, und ∅ ist die Allklasse. Ferner ist P(A) die Klasse aller Teilklassen von A, die Mengen sind. Um sicherzustellen, daß (a, b) nicht die leere Klasse ist, müssen wir axiomatisch fordern, daß {a} und {a, b} Mengen sind. Also Axiom 2. (Paarmengenaxiom). ∀x, y({x, y} ist Menge). In der kumulativen Typenstruktur ist das Paarmengenaxiom offenbar gültig, da es zu je zwei Stufen S1 und S2 nach dem Shoenfield-Prinzip eine Stufe S geben muß, die nach S1 und S2 kommt. Ausgeschrieben lautet das Paarmengenaxiom: ∀x∀y∃z∀u.u ∈ z ↔ u = x ∨ u = y. Insbesondere folgt aus dem Paarmengenaxiom, daß für jede Menge x die Einermenge {x} eine Menge ist. Ferner folgt, daß (a, b) = {{a}, {a, b}} Menge ist. Weiter definieren wir { (x, y) | A(x, y) } := { z | ∃x, y.A(x, y) ∧ z = (x, y) } kartesisches Produkt von A und B, A × B := { (x, y) | x ∈ A ∧ y ∈ B } dom(A) := { x | ∃y ((x, y) ∈ A) } Definitionsbereich von A, Wertebereich von A, rng(A) := { y | ∃x ((x, y) ∈ A) } Einschränkung von A auf B, AB := { (x, y) | (x, y) ∈ A ∧ x ∈ B } A[B] := { y | ∃x.x ∈ B ∧ (x, y) ∈ A } Bild von B unter A, A−1 := { (y, x) | (x, y) ∈ A }, A ◦ B := { (x, z) | ∃y.(x, y) ∈ B ∧ (y, z) ∈ A } Inverses von A, Verkettung von A und B. Jetzt kann man ohne Mühe die üblichen Begriffe betreffend Relationen und Funktionen einführen. Für Klassen A, B und C definieren wir 88 5. Mengenlehre 1. A ist Relation genau dann, wenn A ⊆ V × V . Eine Relation ist also eine Klasse von Paaren. Statt (a, b) ∈ A schreiben wir auch aAb. 2. A ist Relation auf B genau dann, wenn A ⊆ B × B. 3. A ist Funktion genau dann, wenn A Relation ist und ∀x, y, z.(x, y) ∈ A ∧ (x, z) ∈ A → y = z. Eine Funktion ist also eine rechtseindeutige Relation. 4. A : B → C genau dann, wenn A Funktion ist mit dom(A) = B und A[B] ⊆ C. A heißt dann Funktion von B nach C. 5. A : B →auf C genau dann, wenn A : B → C und A[B] = C. A heißt dann surjektive Funktion von B auf C. 6. A ist injektiv genau dann, wenn A und A−1 Funktionen sind. 7. A : B ↔ C genau dann, wenn A : B →auf C und A injektiv ist. A heißt dann bijektive Funktion von B auf C. Für den weiteren Aufbau der Mengenlehre sind die folgenden Axiome notwendig. Axiom 3. (Vereinigungsmengenaxiom). S ∀x ( x ist Menge). Das Vereinigungsmengenaxiom ist gültig in der kumulativen Typenstruktur. Um dies zu sehen, betrachte man eine Stufe S, in der x gebildet ist. Ein beliebiges Element v ∈ x steht dann bereits in einer ist jedes ElementSu ∈ v in einer vor Sv liegenden Stufe Sv,u früheren Stufe Sv zur Verfügung. Ebenso S vorhanden. Alle diese u bilden aber x. Damit kann auch x auf der Stufe S gebildet werden. Wir können jetzt die obige Definition fortsetzen durch S 8. A(x) := { y | (x, y) ∈ A }. S Ist A eine Funktion und (x, y) ∈ A, so ist A(x) = {y} = y und wir schreiben A : x 7→ y. Axiom 4. (Aussonderungsschema). Für jede Klasse A gilt (die Generalisierung von) A ⊆ x → ∃y (A = y). Das Aussonderungsschema sagt also aus, daß jede Teilklasse A einer Menge x selbst eine Menge ist. Es ist gültig in der kumulativen Typenstruktur, denn auf derselben Stufe, auf der die Menge x gebildet ist, kann man auch die Menge y bilden, deren Elemente gerade die Elemente der Klasse A sind. – Man beachte, daß das Aussonderungsschema aus unendlich vielen Axiomen besteht. Axiom 5. (Potenzmengenaxiom). ∀x (P(x) ist Menge). Das Potenzmengenaxiom ist gültig in der kumulativen Typenstruktur. Um dies zu sehen, betrachte man eine Stufe S, auf der x gebildet ist. Dann ist auch jede Teilmenge y ⊆ x auf der Stufe S gebildet. Auf der (nach dem Shoenfield-Prinzip existierenden) nächsten Stufe S 0 kann man also P(x) bilden. Lemma 5.2.1. ∀a, b (a × b ist Menge).. Beweis. Wir zeigen a × b ⊆ P(P(a ∪ b)). Seien also x ∈ a und y ∈ b. Dann gilt {x}, {x, y} ⊆ a ∪ b {x}, {x, y} ∈ P(a ∪ b) { {x}, {x, y} } ⊆ P(a ∪ b) (x, y) = { {x}, {x, y} } ∈ P(P(a ∪ b)) Die Behauptung folgt mit dem Vereinigungsmengenaxiom, dem Paarmengenaxiom, dem Potenzmengenaxiom und dem Aussonderungsschema. t u 5.3 Rekursion, Induktion, Ordinalzahlen 89 Axiom 6. (Ersetzungsschema). Für jede Klasse A gilt A ist Funktion → ∀x (A[x] ist Menge) Auch das Ersetzungsschema ist gültig in der kumulativen Typenstruktur; dies ist allerdings nur mit etwas mehr Mühe einzusehen. Man betrachte alle Elemente u der Menge x∩dom(A). Für jedes solche u ist A(u) eine Menge und deshalb auf einer Stufe Su der kumulativen Typenstruktur gebildet. Da x ∩ dom(A) eine Menge ist, kann man sich eine Situation vorstellen, in der alle Su für u ∈ x ∩ dom(A) konstruiert sind. Nach dem Shoenfield-Prinzip gibt es also auch eine Stufe S nach allen Su . In S kann A[x] gebildet werden. Lemma 5.2.2. Aus dem Ersetzungsschema folgt das Aussonderungsschema. Beweis. Sei A ⊆ x und B := { (u, v) | u = v ∧ u ∈ A }. Dann ist B Funktion und es gilt B[x] = A. u t Damit sind die Axiome der Mengenlehre noch nicht vollständig angegeben: wir werden später noch das Unendlichkeitsaxiom, das Regularitätsaxiom und das Auswahlaxiom fordern. 5.3 Rekursion, Induktion, Ordinalzahlen Wir beginnen damit, einen möglichst allgemeinen Rahmen für rekursive Definitionen und induktive Beweise abzustecken. Es wird sich zeigen, daß beides über sog. fundierten Relationen möglich ist. Um dies zu zeigen, führen wir als Hilfsbegriff den einer transitiv fundierten Relation ein; er wird sich später als äquivalent zu dem einer fundierten Relation erweisen. Wir definieren dann die natürlichen Zahlen im Rahmen der Mengenlehre, wobei wir Induktion und Rekursion als Spezialfälle der entsprechenden allgemeinen Sätze für transitiv fundierte Relationen erhalten. Durch Rekursion über natürliche Zahlen können wir dann die transitive Hülle einer Menge einführen, und mit Hilfe dieses Begriffs zeigen wir, daß die fundierten Relationen mit den transitiv fundierten Relationen übereinstimmen. Anschließend untersuchen wir spezielle fundierte Relationen. Zunächst zeigen wir, daß beliebige Klassen mit der ∈-Relation bis auf Isomorphie die einzigen fundierten extensionalen Relationen sind (Isomorphiesatz von Mostowski). Dann betrachten wir lineare fundierte Ordnungen, kurz Wohlordnungen. Da sie stets extensional sind, sind sie alle zu gewissen Klassen mit der ∈-Relation isomorph, die wir ordinale Klassen nennen. Ordinalzahlen sind dann die ordinalen Mengen. Rekursion über transitiv fundierte Relationen Mit A, B, C bezeichnen wir immer Klassen. Für eine beliebige Relation R auf A definieren wir 1. x̂R = { y | yRx } heißt die Klasse der R-Vorgänger von x. Im folgenden schreiben wir x̂ statt x̂R , wenn R aus dem Zusammenhang klar ist. 2. B ⊆ A heißt R-transitiv, wenn ∀x.x ∈ B → x̂ ⊆ B. B ⊆ A ist also R-transitiv genau dann, wenn aus yRx und x ∈ B stets folgt y ∈ B. 3. Sei B ⊆ A. x ∈ B heißt R-minimales Element von B, wenn x̂ ∩ B = ∅. 4. R heißt transitiv fundierte Relation auf A, wenn gilt a. Jede nichtleere Teilmenge von A besitzt ein R-minimales Element, d.h. ∀a.a ⊆ A ∧ a 6= ∅ → ∃x.x ∈ a ∧ x̂ ∩ a = ∅. b. Zu jedem x ∈ A gibt es eine R-transitive Menge b ⊆ A mit x̂ ⊆ b. Bei allen diesen Begriffen wird im folgenden R weggelassen, wie bereits oben für x̂ geschehen. 90 5. Mengenlehre Anmerkung. Sei R eine Relation auf A. R heißt transitive Relation auf A, wenn für alle x, y, z ∈ A gilt xRy ∧ yRz → xRz. Zum Begriff der R-Transitivität von Klassen besteht folgender Zusammenhang. Sei R eine Relation auf A. Dann gilt R ist transitive Relation auf A ↔ für jedes y ∈ A gilt: y ist R-transitiv. Beweis. : →. Sei R transitive Relation auf A, y ∈ A und x ∈ ŷ, also xRy. Zu zeigen ist x̂ ⊆ ŷ. Sei also zRx. Zu zeigen ist zRy. Dies folgt aber aus der Transitivität von R. ←. Seien x, y, z ∈ A, xRy und yRz. Zu zeigen ist xRz. Es gilt also xRy und y ∈ ẑ. Da ẑ R-transitiv ist, folgt x ∈ ẑ, also xRz. u t Lemma 5.3.1. Sei R transitiv fundierte Relation auf A. Dann gilt 1. Jede nichtleere Teilklasse B ⊆ A hat ein R-minimales Element. 2. ∀x.x∈A → x̂ ist Menge. Beweis. 1. Sei B ⊆ A und z ∈ B. OBdA ist z nicht B-minimal, d.h. ẑ ∩ B 6= ∅. Nach 4b existiert eine R-transitive Obermenge b ⊆ A von ẑ. Wegen ẑ ∩ B 6= ∅ ist b ∩ B 6= ∅. Nach 4a existiert ein R-minimales x ∈ b ∩ B, d.h. x̂ ∩ b ∩ B = ∅. Da b R-transitiv ist, folgt aus x ∈ b sofort x̂ ⊆ b. Also ist x̂ ∩ B = ∅ und damit x R-minimales Element von B. 2. Dies folgt wegen 4b aus dem Aussonderungsschema. u t Wir schreiben ∀x∈A . . . für ∀x.x ∈ A → . . . und entsprechend ∃x∈A . . . für ∃x.x ∈ A ∧ . . . . Satz 5.3.2. (Induktionssatz). Sei R eine transitiv fundierte Relation auf A und B eine beliebige Klasse. Gilt dann ∀x∈A.x̂ ⊆ B → x ∈ B, so folgt A ⊆ B. Beweis. Annahme: A \ B 6= ∅. Sei x minimales Element von A \ B. Es genügt, x̂ ⊆ B zu zeigen, denn / A \ B, daraus folgt nach Annahme x ∈ B, also ein Widerspruch. Sei z ∈ x̂. Nach Wahl von x folgt z ∈ also z ∈ B (denn z ∈ A gilt, da R eine Relation auf A ist). u t Satz 5.3.3. (Rekursionssatz). Sei R eine transitiv fundierte Relation auf A und G : V → V . Dann gibt es genau eine Funktion F : A → V mit ∀x∈A F(x) = G(Fx̂) . Beweis. Man beachte zunächst, daß für F : A → V gilt Fx̂ ⊆ x̂ × F[x̂] und damit Fx̂ eine Menge ist. Eindeutigkeit. Gegeben F1 , F2 . Betrachte { x | x ∈ A ∧ F1 (x) = F2 (x) } =: B. Nach dem Induktionssatz genügt es zu zeigen ∀x∈A.x̂ ⊆ B → x ∈ B. Sei also x ∈ A und x̂ ⊆ B. Dann gilt F1 x̂ = F2 x̂ G (F1 x̂) = G (F2 x̂) F1 (x) = F2 (x) x ∈ B. Existenz. Sei und B := { f | f Funktion, dom(f ) R-transitive Teilmenge von A und ∀x∈dom(f ) f (x) = G(f x̂) } F := [ B. 5.3 Rekursion, Induktion, Ordinalzahlen 91 Wir beweisen zunächst, daß f, g ∈ B ∧ x ∈ dom(f ) ∩ dom(g) → f (x) = g(x). Seien also f, g ∈ B. Wir zeigen die Behauptung durch Induktion über x, d.h. durch Anwendung des Induktionssatzes auf { x | x ∈ dom(f ) ∩ dom(g) → f (x) = g(x) }. Sei also x ∈ dom(f ) ∩ dom(g). Dann gilt x̂ ⊆ dom(f ) ∩ dom(g), f x̂ = gx̂ da dom(f ), dom(g) R-transitiv nach IH G (f x̂) = G (gx̂) f (x) = g(x). Damit ist gezeigt, daß F eine Funktion ist. Hieraus ergibt sich unmittelbar f ∈ B ∧ x ∈ dom(f ) → F (x) = f (x); wir haben also gezeigt, daß F(x) = G (Fx̂) für alle x ∈ dom(F ). (5.1) Wir beweisen jetzt dom(F) = A. ⊆ ist klar. ⊇. Wir verwenden den Induktionssatz. Sei also ŷ ⊆ dom(F ). Zu zeigen ist y ∈ dom(F). Wir führen den Beweis indirekt und nehmen y ∈ / dom(F) an. Sei b R-transitiv mit ŷ ⊆ b ⊆ A. Setze g := Fb ∪ { (y, G(Fŷ)) }. Es genügt offenbar, g ∈ B zu zeigen, denn wegen y ∈ dom(g) folgt daraus y ∈ dom(F) und damit der gesuchte Widerspruch. g Funktion: Dies ist klar, da y ∈ / dom(F) nach Annahme. dom(g) R-transitiv: Es ist dom(g) = (b ∩ dom(F )) ∪ {y}. Man beachte zunächst, daß dom(F) als Vereinigung R-transitiver Mengen selbst R-transitiv ist. Da ferner b R-transitiv ist, ist auch b ∩ dom(F) R-transitiv. Sei nun zRx und x ∈ dom(g). Zu zeigen: z ∈ dom(g). Im Fall x ∈ b ∩ dom(F ) ist auch z ∈ b ∩ dom(F ) (da wie eben bemerkt b ∩ dom(F) R-transitiv ist), also z ∈ dom(g). Im Fall x = y ist z ∈ ŷ, also z ∈ b und z ∈ dom(F) nach Wahl von y, also wieder z ∈ dom(g). ∀x∈dom(g) g(x) = G(gx̂) : Im Fall x ∈ b ∩ dom(F ) ist g(x) = F(x) = G(Fx̂) nach (5.1) = G(gx̂) da x̂ ⊆ b ∩ dom(F), denn b ∩ dom(F ) ist R-transitiv. Im Fall x = y ist g(x) = G(F x̂) = G(gx̂), da x̂ = ŷ ⊆ b ∩ dom(F) nach Wahl von y. u t Natürliche Zahlen Zermelo hat die natürlichen Zahlen wie folgt in der Mengenlehre definiert: 0 = ∅, 1 = {∅}, 2 = {{∅}}, 3 = {{{∅}}} und so weiter. Ein gravierender Nachteil dieser Definition ist, daß man sie nicht ins Transfinite verallgemeinern kann. Deshalb hat J. von Neumann vorgeschlagen, die Zahl n darzustellen durch eine Menge aus genau n Elementen, und zwar durch n := { 0, 1, . . . , n − 1 }. Also 0=∅ n + 1 = { 0, 1, . . . , n } = { 0, 1, . . . , n − 1 } ∪ {n} 92 5. Mengenlehre Wir definieren deshalb allgemein 0 := ∅, x + 1 := x ∪ {x}. Speziell setzen wir 1 := 0 + 1, 2 := 1 + 1, 3 := 2 + 1. Die Klasse aller so konstruierten natürlichen Zahlen soll eine Menge sein. Dazu brauchen wir ein weiteres Axiom. Axiom 7. (Unendlichkeitsaxiom). ∃x.∅ ∈ x ∧ ∀y.y ∈ x → y ∪ {y} ∈ x. Wir nennen eine Klasse A induktiv , wenn ∅ ∈ A ∧ ∀y.y ∈ A → y ∪ {y} ∈ A. Das Unendlichkeitsaxiom sagt also aus: Es gibt eine induktive Menge. Ferner setzen wir \ ω := { x | x ist induktiv }. Offenbar ist ω ist eine Menge und es gilt 0 ∈ ω und y ∈ ω → y + 1 ∈ ω. ω heißt die Menge der natürlichen Zahlen. Mit n, m bezeichnen wir natürliche Zahlen. Insbesondere steht ∀n A(n) für ∀x.x ∈ ω → A(x), ebenso ∃n A(n) für ∃x.x ∈ ω ∧ A(x) und { n | A(n) } für { x | x ∈ ω ∧ A(x) }. Satz 5.3.4. (Induktion über ω). 1. x ⊆ ω ∧ 0 ∈ x ∧ (∀n.n ∈ x → n + 1 ∈ x) → x = ω. 2. Für jede Formel A(x) gilt A(0) ∧ (∀n.A(n) → A(n + 1)) → ∀nA(n). Beweis. 1. x ist induktiv, also ω ⊆ x. 2. Sei A := { n | A(n) }. Dann gilt A ⊆ ω (also A ist Menge), 0 ∈ A, n ∈ A → n + 1 ∈ A. Nach Teil 1 folgt A = ω. u t Wir zeigen jetzt, daß für natürliche Zahlen die Relation ∈ die Eigenschaften von < und die Relation ⊆ die Eigenschaften von ≤ hat. Eine Klasse A heißt transitiv , wenn A bezüglich der speziellen Relation E := { (x, y) | x ∈ y } auf V E-transitiv ist, d.h. wenn gilt ∀x.x ∈ A → x ⊆ A. A ist also transitiv genau dann, wenn ∀x, y.y ∈ x ∈ A → y ∈ A. Lemma 5.3.5. 1. n ist transitiv. 2. ω ist transitiv. Beweis. 1. Induktion nach n. 0 ist transitiv. n → n + 1. Nach IH ist n transitiv. Zu zeigen: n + 1 ist transitiv. Sei y ∈x∈n+1 y ∈ x ∈ n ∪ {n} y ∈x∈n∨y ∈x=n y ∈n∨y ∈n y ∈ n ∪ {n} = n + 1. 5.3 Rekursion, Induktion, Ordinalzahlen 93 2. Gezeigt wird ∀x.x ∈ n → x ∈ ω durch Induktion nach n. 0: Klar. n → n + 1. Nach IH gilt ∀x.x ∈ n → x ∈ ω. Sei x∈n+1 x∈n∨x=n x ∈ ω. u t Lemma 5.3.6. n ∈ / n. Beweis. Induktion nach n. 0. Klar. n → n + 1: Nach IH ist n ∈ / n. Annahme: n+1∈n+1 n+1∈n∨n+1=n n∈n+1∈n∨n∈n+1=n n∈n denn n ist nach Lemma 5.3.5(1)transitiv. Dies ist ein Widerspruch zur IH. u t Lemma 5.3.7. 1. n ⊆ m + 1 ↔ n ⊆ m ∨ n = m + 1. 2. n ⊆ m ↔ n ∈ m ∨ n = m. 3. n ⊆ m ∨ m ⊆ n. 4. n ∈ m ∨ n = m ∨ m ∈ n. Beweis. 1. ← folgt aus m ⊆ m + 1. →. Fall m ∈ n. Wir zeigen n = m + 1. ⊆ gilt nach Voraussetzung. ⊇. p∈m+1 p∈m∨p=m p ∈ n. Fall m ∈ / n. Wir zeigen n ⊆ m. p∈n p∈m+1 p ∈ m ∨ p = m, / n. aber p = m ist unmöglich wegen m ∈ 2. ← folgt aus der Transitivität von m. →. Induktion nach m. 0. Klar. m → m + 1. n⊆m+1 n⊆m∨n=m+1 n∈m∨n=m∨n=m+1 n ∈ m + 1 ∨ n = m + 1. nach (1) nach IH 3. Induktion nach n. 0. Klar. n → n + 1: Fall m ⊆ n. Klar. Fall n ⊆ m. Dann gilt n∈m∨n=m n, {n} ⊆ m ∨ m ⊆ n + 1 n+1⊆m∨m⊆n+1 4. Folgt aus (3) und (2). Satz 5.3.8. (Peano-Axiome). 1. n + 1 6= ∅. 2. n + 1 = m + 1 → n = m. 3. x ⊆ ω ∧ 0 ∈ x ∧ (∀n.n ∈ x → n + 1 ∈ x) → x = ω. nach (2) u t 94 5. Mengenlehre Beweis. 1. Klar. 3. Dies wurde eben als Satz 5.3.4(1) bewiesen. 2. n+1=m+1 n∈m+1∧m∈n+1 (n ∈ m ∧ m ∈ n) ∨ n = m n∈n∨n=m n = m. t u Wir behandeln jetzt noch verschiedene Formen der Induktion. Satz 5.3.9. (Induktion über ω mit Rückgriff auf sämtliche Vorgänger). 1. x ⊆ ω ∧ [∀n.(∀m.m ∈ n → m ∈ x) → n ∈ x] → x = ω. 2. [∀n.(∀m.m ∈ n → A(m)) → A(n)] → ∀nA(n). Beweis. 2. Gelte ∀n.(∀m.m ∈ n → A(m)) → A(n); man sagt in diesem Fall, daß A(n) progressiv ist. Gezeigt wird ∀m.m ∈ n → A(m) durch Induktion nach n. 0. Klar. n → n + 1. Nach IH gilt ∀m.m ∈ n → A(m). Sei also m ∈ n + 1. Dann gilt m ∈ n ∨ m = n. Im Fall m ∈ n folgt A(m) nach IH, und im Fall m = n folgt A(n) aus der Progressivität von A mit der IH. 1. Aus (2) mit A(y) := y ∈ x. u t Satz 5.3.10. (Prinzip vom kleinsten Element für ω). 1. ∅ 6= x ⊆ ω → ∃n.n ∈ x ∧ n ∩ x = ∅. 2. ∃nA(n) → ∃n.A(n) ∧ ¬∃m.m ∈ n ∧ A(m). Beweis. 2. Es gilt nach Satz 5.3.9(2) [∀n.(∀m.m ∈ n → ¬A(m)) → ¬A(n)] → ∀n¬A(n). Kontraposition ergibt ∃nA(n) → ∃n.A(n) ∧ ∀m.m ∈ n → ¬A(m) ∃nA(n) → ∃n.A(n) ∧ ¬∃m.m ∈ n ∧ A(m). 1. Aus (2) mit A(y) := y ∈ x. u t Wir kommen jetzt zur Rekursion über den natürlichen Zahlen, die wir als Spezialfall des Rekursionssatzes 5.3.3 behandeln können. Wir identifizieren dazu ∈ mit der Relation E = { (x, y) | x ∈ y } und zeigen folgendes Lemma. Lemma 5.3.11. ∈ ∩(ω × ω) ist eine transitiv fundierte Relation auf ω. Beweis. Wir zeigen beide Bedingungen aus der Definition transitiv fundierter Relationen. a. Sei ∅ 6= a ⊆ ω. Zu zeigen ∃n.n ∈ a ∧ n ∩ a = ∅. Das ist obiges Prinzip vom kleinsten Element. b. Klar, da n transitiv ist. u t Satz 5.3.12. (Rekursion über ω mit Rückgriff auf sämtliche Vorgänger). Sei G : V → V . Dann gibt es genau eine Funktion f : ω → V mit ∀n (f (n) = G(f n)). Beweis. Nach dem Rekursionssatz 5.3.3 gibt es ein eindeutig bestimmtes F : ω → V mit ∀n (F (n) = G(F n)). Nach dem Ersetzungsschema ist rng(F) = F[ω] eine Menge. Nach Lemma 5.2.1 und dem Aussonderungsschema ist damit auch F ⊆ ω × F [ω] eine Menge. u t Korollar 5.3.13. (Rekursion über ω). Sei G : V → V und a eine Menge. Dann gibt es genau eine Funktion f : ω → V mit f (0) = a, ∀n (f (n + 1) = G(f (n))). 5.3 Rekursion, Induktion, Ordinalzahlen 95 S (n + 1) = n ist wegen [ x ∈ (n + 1) ↔ ∃y.x ∈ y ∈ n + 1 Beweis. Man beachte zunächst, daß ↔ ∃m.x ∈ m ∈ n + 1 ↔ ∃m.x ∈ m ⊆ n ↔ x ∈ n. Ansatz: Zu dem gegebenen G finde man ein G 0 mit G 0 (f n + 1) = G(f (n)). Wir definieren eine Funktion G 0 : V → V mit ( S G(x( dom(x))), falls x = 6 ∅; 0 G (x) = falls x = ∅, a, und zwar durch G 0 = { (x, y) | (x 6= ∅ → y = G(x Dann gibt es genau eine Funktion f : ω → V mit [ dom(x))) ∧ (x = ∅ → y = a) }. f (n + 1) = G 0 (f n + 1) [ = G((f n + 1)( (n + 1))) | {z } n = G(f (n)), f (0) = G 0 ( f 0 ) |{z} = a. ∅ u t Wir definieren jetzt sm (0) = m, sm (n + 1) = sm (n) + 1. Nach Korollar 5.3.13 existiert für jedes m eine solche Funktion, und sie ist eindeutig bestimmt. Weiter definieren wir m + n := sm (n). Wegen sm (1) = sm (0 + 1) = sm (0) + 1 = m + 1 verträgt sich diese Definition für n = 1 mit der bisherigen Terminologie. Ferner gilt m + 0 = m und m + (n + 1) = (m + n) + 1. Lemma 5.3.14. 1. m + n ∈ ω. 2. (m + n) + p = m + (n + p). 3. m + n = n + m. Beweis. 1. Induktion nach n. 0. Klar. n → n + 1. m + (n + 1) = (m + n) + 1, und nach IH ist m + n ∈ ω. 2. Induktion nach p. 0. Klar. p → p + 1. (m + n) + (p + 1) = [(m + n) + p] + 1 nach Definition = [m + (n + p)] + 1 nach IH = m + [(n + p) + 1] = m + [n + (p + 1)]. 3. Zunächst zeigen wir zwei Hilfsaussagen. (i) 0 + n = n. Beweis durch Induktion nach n. 0. Klar. n → n + 1. 0 + (n + 1) = (0 + n) + 1 = n + 1. (ii) (m + 1) + n = (m + n) + 1. Beweis durch Induktion nach n. 0. Klar. n → n + 1. (m + 1) + (n + 1) = [(m + 1) + n] + 1 = [(m + n) + 1] + 1 nach IH = [m + (n + 1)] + 1. 96 5. Mengenlehre Jetzt ergibt sich die Behauptung m + n = n + m durch Induktion nach m. 0. Nach (i). m → m + 1. (m + 1) + n = (m + n) + 1 nach (ii) = (n + m) + 1 nach IH = n + (m + 1). u t Wir definieren pm (0) = 0, pm (n + 1) = pm (n) + m. Nach Korollar 5.3.13 existiert wieder für jedes m eine eindeutig bestimmte solche Funktion. Gebraucht wird hier G : V → V, ( x + m, G(x) = ∅, falls x ∈ ω; sonst. Schließlich definieren wir m · n := pm (n). Man beachte, daß hieraus folgt m · 0 = 0, m · (n + 1) = m · n + m. Lemma 5.3.15. 1. m · n ∈ ω. 2. m · (n + p) = m · n + m · p. 3. (n + p) · m = n · m + p · m. 4. (m · n) · p = m · (n · p). 5. 0 · n = 0, 1 · n = n, m · n = n · m. Beweis. Übung. t u Anmerkung. nm , m − n lassen sich ähnlich behandeln; später (in der Ordinalzahlarithmetik) werden wir dies allgemeiner durchführen. - Man kann jetzt leicht auf die bekannte Weise ganze, rationale, reelle und komplexe Zahlen definieren und ihre elementaren Eigenschaften beweisen. Transitive Hülle Wir definieren die R-transitive Hülle einer Menge a, und zwar bezüglich einer Relation R mit der Eigenschaft, daß die R-Vorgänger eines beliebigen Elements ihres Bereichs eine Menge bilden. Satz 5.3.16. Sei R eine Relation auf A derart daß x̂R (:= { y | yRx }) für jedes x ∈ A eine Menge ist. Dann gibt es zu jeder Teilmenge a ⊆ A eine eindeutig bestimmte Menge b mit 1. a ⊆ b ⊆ A. 2. b ist R-transitiv. 3. ∀c.a ⊆ c ⊆ A ∧ c R-transitiv → b ⊆ c. b heißt die R-transitive Hülle von a. Beweis. Eindeutigkeit. Klar nach (3). Existenz. Wir wollen ein f : ω → V durch Rekursion über ω so definieren, daß gilt f (0) = a, f (n + 1) = { y | ∃x∈f (n)(yRx) }. Um den Rekursionssatz für ω anwenden S zu können, müssen wir f (n + 1) definieren in der Form G(f (n)). Dazu wählen wir G : V → V , z 7→ rng(ˆz) mit ˆ: V → V , x 7→ x̂; nach Annahme ist ˆ eine Funktion. Dann gilt [ y ∈ G(f (n)) ↔ y ∈ rng(ˆf (n)) ↔ ∃z.z ∈ rng(ˆf (n)) ∧ y ∈ z ↔ ∃z, x.x ∈ f (n) ∧ z = x̂ ∧ y ∈ z ↔ ∃x.x ∈ f (n) ∧ yRx. 5.3 Rekursion, Induktion, Ordinalzahlen 97 Durch Induktion über n sieht man leicht, S daß f (n) eine Menge ist. Für 0 ist dies klar, und im Schritt n → n + 1 folgt dies wegen f (n + 1) = { x̂ | x ∈ f S (n) } aus derSIH, dem Ersetzungsschema und dem Vereinigungsmengenaxiom. – Wir setzen jetzt b := rng(f ) = { f (n) | n ∈ ω }. Dann erhält man folgendes. 1. a = f (0) ⊆ b ⊆ A. 2. yRx ∈ b yRx ∈ f (n) y ∈ f (n + 1) y ∈ b. 3. Sei a ⊆ c ⊆ A und c R-transitiv. Wir zeigen f (n) ⊆ c durch Induktion über n. 0. a ⊆ c. n → n + 1. y ∈ f (n + 1) yRx ∈ f (n) yRx ∈ c y ∈ c. u t Anmerkung. Im Spezialfall der Relation ∈ auf V ist die Bedingung ∀x(x̂ = { y | y ∈ x } ist Menge) offenbar erfüllt. Also gibt es zu jeder Menge a eine eindeutig bestimmte ∈-transitive Hülle von a. Sie heißt die transitive Hülle von a. Rekursion über fundierte Relationen Mit Hilfe des Begriffs der R-transitiven Hülle können wir jetzt zeigen, daß die transitiv fundierten Relationen auf A mit den fundierten Relationen auf A übereinstimmen. Sei R eine Relation auf A. R heißt fundierte Relation auf A, wenn gilt 1. Jede nichtleere Teilmenge von A besitzt ein R-minimales Element, d.h. ∀a.a ⊆ A ∧ a 6= ∅ → ∃x∈a.x̂ ∩ a = ∅. 2. Für jedes x ∈ A ist x̂ eine Menge. Satz 5.3.17. Die transitiv fundierten Relationen auf A stimmen mit den fundierten Relationen auf A überein. Beweis. Jede transitiv fundierte Relation auf A ist fundiert nach Lemma 5.3.1(2). Umgekehrt ist jede fundierte Relation auf A transitiv fundiert, denn zu jedem x ∈ A ist die R-transitive Hülle von x̂ ein R-transitives b ⊆ A mit x̂ ⊆ b. u t Der Induktionssatz 5.3.2 und der Rekursionssatz 5.3.3 gelten für also fundierte Relationen. Ebenso gilt nach Lemma 5.3.1(1), daß jede nichtleere Teilklasse einer fundierten Relation R ein R-minimales Element hat. Später werden wir ein sogenanntes Regularitätsaxiom fordern, welches aussagt, daß die Relation ∈ auf V fundiert ist, d.h. daß gilt ∀a.a = 6 ∅ → ∃x∈a.x ∩ a = ∅. Damit werden wir dann ein wichtiges Beispiel einer fundierten Relation zur Verfügung haben. 98 5. Mengenlehre Wohlordnungen Wir betrachten jetzt extensionale fundierte Relationen. Aus dem Regularitätsaxiom wird später folgen, daß die ∈-Relation auf einer beliebigen Klasse A eine fundierte extensionale Relation ist. Hier zeigen wir noch ohne das Regularitätsaxiom die Unkehrung, daß nämlich jede fundierte extensionale Relation zu der ∈-Relation auf einer transitiven Klasse isomorph ist. Dies ist der Isomorphiesatz von Mostowski. Dann betrachten wir lineare fundierte Ordnungen, kurz Wohlordnungen. Sie sind stets extensional und deshalb zur ∈-Relation auf gewissen Klassen isomorph, die wir ordinale Klassen nennen. Ordinalzahlen sind dann die ordinalen Mengen. Eine Relation R auf A heißt extensional , wenn für alle x, y ∈ A gilt (∀z∈A.zRx ↔ zRy) → x = y. Zum Beispiel ist für eine transitive Klasse A die Relation ∈ ∩(A × A) extensional auf A. Dies sieht man wie folgt. Seien x, y ∈ A. Für R :=∈ ∩(A × A) gilt zRx ↔ z ∈ x, da A transitiv ist. Man erhält ∀z∈A.zRx ↔ zRy ∀z.z ∈ x ↔ z ∈ y x=y Aus dem Regularitätsaxiom wird folgen, daß alle diese Relationen fundiert sind. Auch ohne das Regularitätsaxiom haben diese Relationen eine ausgezeichnete Bedeutung; vgl. Korollar 5.3.19. Satz 5.3.18. (Isomorphiesatz von Mostowski). Sei R eine fundierte extensionale Relation auf A. Dann gibt es einen eindeutig bestimmten Isomorphismus F von A auf eine transitive Klasse B, d.h. ∃=1 F .F : A ↔ rng(F) ∧ rng(F ) transitiv ∧ ∀x, y∈A.yRx ↔ F (y) ∈ F (x). Beweis. Existenz. Wir definieren nach dem Rekursionssatz F : A → V, F(x) = rng(Fx̂) (= { F (y) | yRx }). F injektiv. Wir zeigen ∀x, y∈A.F(x) = F (y) → x = y durch R-Induktion über x. Seien also x, y ∈ A gegeben mit F (x) = F(y). Nach IH gilt ∀z∈A.zRx → ∀u∈A.F(z) = F(u) → z = u. Es genügt zu zeigen, daß für alle z ∈ A gilt zRx ↔ zRy. →. zRx F(z) ∈ F (x) = F(y) = { F (u) | uRy } F (z) = F(u) z=u für ein uRy nach IH, da zRx zRy ←. zRy F(z) ∈ F (y) = F(x) = { F (u) | uRx } F(z) = F(u) für ein uRx nach IH, da uRx z=u zRx. rng(F) ist transitiv. Gelte u ∈ v ∈ rng(F). Dann ist v = F(x), also u = F (y) für ein yRx. yRx ↔ F (y) ∈ F (x). →. Gelte yRx. Dann ist F(y) ∈ F(x) nach Definition von F. ←. 5.3 Rekursion, Induktion, Ordinalzahlen 99 F(y) ∈ F (x) = { F (z) | zRx } F(y) = F(z) für ein zRx y=z da F injektiv ist yRx. Eindeutigkeit. Gegeben seien Fi , i = 1, 2. Wir zeigen ∀x∈A (F1 (x) = F2 (x)) durch R-Induktion über x. Aus Symmetriegründen genügt u ∈ F1 (x) → u ∈ F2 (x). u ∈ F1 (x) u = F1 (y) für ein y ∈ A, da rng(F1 ) transitiv yRx nach der Isomorphiebedingung für F1 u = F2 (y) nach IH F2 (y) ∈ F2 (x) nach der Isomorphiebedingung für F2 u ∈ F2 (x). u t Eine Relation R auf A heißt lineare Ordnung, wenn für alle x, y, z ∈ A gilt Irreflexivität, ¬xRx xRy ∧ yRz → xRz Transitivität, xRy ∨ x = y ∨ yRx Trichotomie (oder Vergleichbarkeit). R heißt Wohlordnung, wenn R eine fundierte lineare Ordnung ist. Anmerkung. Jede Wohlordnung R auf A ist extensional. Gilt nämlich ∀z∈A.zRx ↔ zRy, so folgt x = y aus der Trichotomie, denn aus xRy folgt nach Annahme xRx im Widerspruch zur Irreflexivität, und ebenso erhält man aus yRx einen Widerspruch. Korollar 5.3.19. Zu jeder Wohlordnung R auf A gibt es einen eindeutig bestimmten Isomorphismus F von A auf eine transitive Klasse B. u t Ordinale Klassen und Ordinalzahlen Wir wollen jetzt die transitiven Klassen, die als Bilder von Wohlordnungen auftreten, genauer untersuchen. A heißt ordinale Klasse, wenn A transitiv ist und ∈ ∩(A × A) eine Wohlordnung auf A ist. Ordinale Klassen, die Mengen sind, heißen Ordinalzahlen. Wir setzen On := { x | x ist Ordinalzahl }. Zunächst geben wir eine bequeme Charakterisierung ordinaler Klassen an. A heißt konnex , wenn für alle x, y ∈ A gilt x ∈ y ∨ x = y ∨ y ∈ x. Zum Beispiel ist ω konnex nach Lemma 5.3.7(4). Auch jedes n ist konnex, da ω nach Lemma 5.3.5(2) transitiv ist. Eine Klasse A heißt fundiert, wenn ∈ ∩(A × A) eine fundierte Relation auf A ist, d.h. wenn gilt ∀a.a ⊆ A ∧ a 6= ∅ → ∃x∈a.x ∩ a = ∅. Wir zeigen jetzt, daß es in fundierten Klassen keine endlichen ∈-Zykel geben kann. Lemma 5.3.20. Sei A fundiert. Dann kann für beliebige x1 , . . . , xn ∈ A niemals gelten x1 ∈ x2 ∈ · · · ∈ xn ∈ x1 . 100 5. Mengenlehre Beweis. Annahme: x1 ∈ x2 ∈ · · · ∈ xn ∈ x1 . Betrachte {x1 , . . . , xn }. Da A fundiert ist, gilt oBdA u t x1 ∩ {x1 , . . . , xn } = ∅. Dies widerspricht aber xn ∈ x1 . Korollar 5.3.21. A ist ordinale Klasse genau dann, wenn A transitiv, konnex und fundiert ist. Beweis. → ist klar; die Konnexität von A folgt aus der Trichotomieeigenschaft. ←. Zu zeigen ist für alle x, y, z ∈ A x∈ / x, x ∈ y ∧ y ∈ z → x ∈ z. Da A konnex ist, folgen beide Aussagen aus Lemma 5.3.20. u t Anmerkung. 1. ω ist transitiv nach Lemma 5.3.5(2), konnex wie oben bemerkt und fundiert nach dem Prinzip vom kleinsten Element (Satz 5.3.10). Also ist ω eine ordinale Klasse. Da ω nach dem Unendlichkeitsaxiom eine Menge ist, ist ω sogar eine Ordinalzahl. 2. n ist transitiv nach Lemma 5.3.5(1), konnex wie oben bemerkt und fundiert; letzteres folgt mit der Transitivität von ω aus dem Prinzip vom kleinsten Element (Satz 5.3.10). Ord(A) steht für “A ist ordinale Klasse”. Wir zeigen jetzt, daß ordinale Klassen ähnliche Eigenschaften haben wie die natürlichen Zahlen: auch für ordinale Klassen hat die Relation ∈ die Eigenschaften von < und die Relation ⊆ die Eigenschaften von ≤. Lemma 5.3.22. 1. Ord(A) ∧ Ord(B) → Ord(A ∩ B). 2. Ord(A) ∧ x ∈ A → Ord(x). 3. Ord(A) ∧ Ord(B) → (A ⊆ B ↔ A ∈ B ∨ A = B). 4. Ord(A) ∧ Ord(B) → (A ∈ B ∨ A = B ∨ B ∈ A). Beweis. 1. A ∩ B transitiv. Man erhält x∈y ∈A∩B x ∈ y ∈ A und x ∈ y ∈ B x ∈ A und x ∈ B x ∈ A ∩ B. A ∩ B konnex, fundiert. Klar. 2. x transitiv. Man erhält u∈v∈x∈A u∈v∈A u∈A u ∈ x ∨ u = x ∨ x ∈ u. Aus u = x folgt u ∈ v ∈ u und damit ein Widerspruch zu Lemma 5.3.20, und aus x ∈ u folgt u ∈ v ∈ x ∈ u und damit ebenfalls ein Widerspruch zu Lemma 5.3.20. x konnex, fundiert. Klar, da x ⊆ A. 3. ←. Klar, da B transitiv ist. →. Sei A ⊆ B. OBdA A ( B. Man wähle ein x ∈ B\A mit x∩(B\A) = ∅ (dies ist möglich, da B fundiert ist). Es genügt zu zeigen, daß x = A. x ⊆ A. Gelte y ∈ x, also y ∈ x ∈ B. Dann folgt y ∈ A, denn x ∩ (B \ A) = ∅. A ⊆ x. Gelte y ∈ A. Dann ist auch y ∈ B. Es folgt x ∈ y ∨ x = y ∨ y ∈ x. Die ersten beiden Fälle sind aber unmöglich, denn jedesmal erhält man x ∈ A. 4. Gelte Ord(A) und Ord(B). Dann folgt Ord(A ∩ B) nach (1). Aus (3) ergibt sich [(A ∩ B ∈ A) ∨ (A ∩ B = A)] ∧ [(A ∩ B ∈ B) ∨ (A ∩ B = B)]. Ausdistribuieren liefert (A ∩ B ∈ A ∩ B) ∨ (A ∈ B) ∨ (B ∈ A) ∨ (A = B). Der erste Fall A ∩ B ∈ A ∩ B ist aber unmöglich nach Lemma 5.3.20. u t 5.3 Rekursion, Induktion, Ordinalzahlen 101 Lemma 5.3.23. 1. Ord(On). 2. On ist keine Menge. 3. On ist die einzige echte ordinale Klasse. Beweis. 1. On ist transitiv nach Lemma 5.3.22(2) und konnex nach Lemma 5.3.22(4). On ist auch fundiert. 6 ∅. Da x fundiert ist, gibt es ein y ∈ x ∩ a mit Sei nämlich a ⊆ On, a = 6 ∅. Wähle x ∈ a. OBdA ist x ∩ a = y ∩ x ∩ a = ∅. Es folgt y ∈ a und y ∩ a = ∅; letzteres da y ⊆ x wegen y ∈ x, x transitiv. 2. Annahme: On ist Menge. Dann folgt On ∈ On und damit ein Widerspruch zu Lemma 5.3.20. 3. Sei Ord(A), A keine Menge. Nach Lemma 5.3.22(4) folgt A ∈ On ∨ A = On ∨ On ∈ A. Der erste und der dritte Fall scheiden aber aus, da dann A bzw. On eine Menge wäre. u t Lemma 5.3.24. 1. On ist induktiv, 2. n, ω ∈ On. Beweis. 1. 0 ∈ On ist klar. Sei nun x ∈ On. Zu zeigen ist x + 1 ∈ On, also x ∪ {x} ∈ On. x ∪ {x} transitiv. Gelte u ∈ v ∈ x ∪ {x}, also u ∈ v ∈ x oder u ∈ v = x. In beiden Fällen folgt u ∈ x. x ∪ {x} konnex. Gelte u, v ∈ x ∪ {x}. Dann folgt u, v ∈ x ∨ (u ∈ x ∧ v = x) ∨ (u = x ∧ v ∈ x) ∨ (u = v = x) u ∈ v ∨ u = v ∨ v ∈ u. x ∪ {x} fundiert. Sei a ⊆ x ∪ {x}, a 6= ∅. Zu zeigen ist ∃y∈a (y ∩ a = ∅). Fall a ∩ x 6= ∅. Dann folgt die Behauptung aus der Fundiertheit von x. Fall a ∩ x = ∅. Dann ist a = {x}, und wir haben x ∩ {x} = ∅. u t 2. Dies wurde schon oben im Anschluß an Korollar 5.3.21 gezeigt. Lemma 5.3.25. x, y ∈ On ∧ x + 1 = y + 1 → x = y. Beweis. Dies zeigt man wie das zweite Peano-Axiom in Lemma 5.3.8(2). x+1=y+1 x∈y+1∧y ∈x+1 (x ∈ y ∧ y ∈ x) ∨ x = y. Da der erste Fall nach Lemma 5.3.22 unmöglich ist, folgt x = y. t u S S Lemma 5.3.26. A ⊆ On → A ∈ On ∨ A = On. S S S Sei x ∈ y ∈ A, also x ∈ y ∈ z ∈ A für ein z. Dann folgt Beweis. Genügt: Ord( A). A transitiv. S z ∈ A, da A ⊆ On. Also ist x ∈ A. x ∈S S S A konnex und fundiert. Genügt: A ⊆ On. Sei also x ∈ A, also x ∈ y ∈ A für ein y. Dann ist x ∈ y und y ∈ On, also x ∈ On. u t S obere Schranke von A bzgl. der Wohlordnung ∈ Anmerkung. Gilt A ⊆ On, so ist A die kleinste S ∩(On × On) von On, denn nach Definition von A gilt [ x∈A→x⊆ A, [ (∀x∈A.x ⊆ y) → A ⊆ y. Wir schreiben deshalb auch sup A für S A. 102 5. Mengenlehre Beispiele für Ordinalzahlen 0 1=0+1 2=1+1 .. . ω ω+1 ω+2 .. . ω · 2 := Menge nach dem Unendlichkeitsaxiom [ {ω + n | n ∈ ω} ω·2+1 ω·2+2 .. . [ ω · 3 := { ω · 2 + n | n ∈ ω } .. . ω·4 .. . ω · ω := ω 2 := ω2 + 1 ω2 + 2 ... ω2 + ω ω2 + ω + 1 ω2 + ω + 2 .. . ω2 + ω · 2 .. . ω2 + ω · 3 .. . ω3 .. . ω4 .. . ωω ωω + 1 [ {ω · n | n ∈ ω} Def. mit Rekursion über ω; Menge nach Ersetzungsschema 5.3 Rekursion, Induktion, Ordinalzahlen 103 .. . und so weiter. α, β, γ stehen im folgenden für Ordinalzahlen. α heißt eine Nachfolgerzahl , wenn ∃β(α = β + 1). α heißt Limeszahl , wenn α weder 0 noch Nachfolgerzahl ist. Wir schreiben Lim(α) für α 6= 0 ∧ ¬∃β(α = β + 1). Offenbar gilt für beliebige α entweder α = 0 oder α ist Nachfolgerzahl oder α ist Limeszahl. Lemma 5.3.27. 1. Lim(α) ↔ α 6= 0 ∧ ∀β.β ∈ α → β + 1 ∈ α. 2. Lim(ω). 3. Lim(α) → ω ⊆ α. Beweis. 1. →: Sei β ∈ α. Dann gilt β + 1 ∈ α ∨ β + 1 = α ∨ α ∈ β + 1. Der zweite Fall β + 1 = α ist ausgeschlossen nach Annahme. Im dritten Fall folgt α ∈ β ∨α = β; beides ist aber wegen β ∈ α unmöglich nach Lemma 5.3.20. ←. Sei α 6= 0 und es gelte ∀β.β ∈ α → β + 1 ∈ α. Ist dann α keine Limeszahl, so muß α = β + 1 sein. Dann folgt β ∈ α, also nach Annahme auch β + 1 ∈ α und damit α ∈ α, was nicht sein kann. 2. Folgt aus (1), da ω induktiv ist. 3. Gelte Lim(α). Wir zeigen n ∈ α durch Induktion über n. 0. Es gilt 0 ∈ α ∨ 0 = α ∨ α ∈ 0, wobei die Fälle zwei und drei offenbar unmöglich sind. n + 1. Es ist n ∈ α nach IH, also n + 1 ∈ α nach a. u t S Lemma 5.3.28. 1. α = β∈α (β S + 1). 2. Für Limeszahlen α gilt α = β∈α β. Beweis. 1. ⊆. Sei β ∈ α. Die Behauptung folgt aus β ∈ β + 1. ⊇. Sei β ∈ α. Dann ist β + 1 ⊆ α. 2. ⊆. Sei γ ∈ α. Dann folgt γ ∈ γ + 1 ∈ α. ⊇. Sei γ ∈ β ∈ α. Es folgt γ ∈ α. u t Satz 5.3.29. (Transfinite Induktion über On mit Rückgriff auf sämtliche Vorgänger; Klassenform). (∀α.α ⊆ B → α ∈ B) → On ⊆ B. Beweis. Dies ist ein Spezialfall des Induktionssatzes 5.3.2 u t Korollar 5.3.30. (Verschiedene Formen der transfiniten Induktion über On). Erste Form: A(0) ∧ (∀α.A(α) → A(α + 1)) ∧ (∀α.Lim(α) ∧ (∀β.β ∈ α → A(β)) → A(α)) → ∀αA(α). Zweite Form: (Transfinite Induktion über On mit Rückgriff auf sämtliche Vorgänger). [∀α.(∀β.β ∈ α → A(β)) → A(α)] → ∀αA(α). Dritte Form: (Prinzip vom kleinsten Element für On). ∃αA(α) → ∃α.A(α) ∧ ¬∃β.β ∈ α ∧ A(β). Beweis. Die dritte Form ergibt sich aus der zweiten durch Kontraposition. Ferner ergibt sich die erste Form ebenfalls leicht aus der zweiten. Die zweite Form erhält man aus Satz 5.3.29 mit B := { α | A(α) }. t u Satz 5.3.31. (Transfinite Rekursion über On mit Rückgriff auf sämtliche Vorgänger). Sei G : V → V . Dann gibt es genau eine Funktion F : On → V so daß für alle α gilt F(α) = G(Fα). Beweis. Dies ist ein Spezialfall des Rekursionssatzes 5.3.3. t u 104 5. Mengenlehre Korollar 5.3.32. (Transfinite Rekursion über On). Sei G : V → V , H : V → V und a eine Menge. Dann gibt es genau eine Funktion F : On → V mit F(0) = a, F(α + 1) = G(F(α)), F(α) = H(F α) für α Limeszahl. S Beweis. Man beachte zunächst, daß (α + 1) = α ist wegen [ γ ∈ (α + 1) ↔ ∃β.γ ∈ β ∈ α + 1 ↔ ∃β.γ ∈ β ⊆ α ↔ γ ∈ α. Ansatz: Zu dem gegebenen a, G und H finde man ein G 0 mit G 0 (0) = a, G 0 (Fα + 1) = G(F(α)), G 0 (Fα) = H(Fα) Wir definieren eine Funktion G 0 : V → V durch a, S G 0 (x) = G(x( dom(x))), H(x), für α Limeszahl. sonst; falls ∃β(dom(x) = β + 1); falls Lim(dom(x)). Nach dem Rekursionssatz 5.3.3 existiert genau ein F : On → V so daß für alle α gilt F(α) = G 0 (Fα). Offenbar ist diese Eigenschaft von F zu den obigen Gleichungen äquivalent. u t Regularitätsaxiom, von Neumannsche Stufen, Rang Wir erinnern uns zunächst an die kumulative Typenstruktur. Stufe Stufe Stufe Stufe 0: − 1: ∅ 2: ∅, {∅} 3: ∅, {∅}, {{∅}}, {∅, {∅}} und so weiter. Unter Verwendung von Ordinalzahlen können wir jetzt auch transfinite Stufen betrachten. Die Stufe ω besteht dann aus allen Mengen, deren Elemente auf endlichen Stufen gebildet waren, und die Stufe ω + 1 aus allen Mengen, deren Elemente auf endlichen Stufen oder der Stufe ω gebildet waren, und so weiter. Allgemein definieren wir die von Neumannschen Stufen Vα wie folgt durch transfinite Rekursion über On. V0 = ∅, Vα+1 = P(Vα ), [ Vα = Vβ β∈α für α Limeszahl. 5.3 Rekursion, Induktion, Ordinalzahlen 105 Anmerkung. Genauer ist Vα := F(α), wobei F : On → V wie folgt definiert wird durch transfinite Rekursion über On. F(0) = ∅, F (α + 1) = P(F(α)), [ F(α) = rng(Fα) für α Limeszahl. Lemma 5.3.33. 1. Vα ist transitiv. 2. α ∈ β → Vα ∈ Vβ . 3. α ⊆ β → Vα ⊆ Vβ . 4. Vα ∩ On = α. Beweis. 1. (Transfinite) Induktion nach α. 0. ∅ ist transitiv. α + 1. x ∈ y ∈ Vα+1 = P(Vα ) x ∈ y ⊆ Vα x ∈ Vα x ⊆ Vα x ∈ Vα+1 . nach IH α Limeszahl. x ∈ y ∈ Vα = [ Vβ β∈α x ∈ y ∈ Vβ für ein β ∈ α x ∈ Vβ nach IH x ∈ Vα . 2. Induktion nach β. 0. Klar. β + 1. α∈β+1 α ∈ β oder α = β Vα ∈ Vβ oder Vα = Vβ V α ⊆ Vβ Vα ∈ Vβ+1 . nach IH nach (1) β Limeszahl. α∈β α+1∈β Vα ∈ Vα+1 ⊆ [ Vγ = Vβ . γ∈β 3. Mit α ⊆ β ↔ α ∈ β ∨ α = β folgt die Behauptung aus (1) und (2). 4. Induktion nach α. 0. Klar. α + 1. β ∈ Vα+1 ↔ β ⊆ Vα ↔ β ⊆ Vα ∩ On = α ↔ β ∈ α + 1. α Limeszahl. nach IH 106 5. Mengenlehre Vα ∩ On = ( = [ β∈α [ β∈α = [ Vβ ) ∩ On (Vβ ∩ On) β nach IH β∈α = α. u t Wir wollen jetzt zeigen, daß die von Neumannschen Stufen das Universum ausschöpfen, also daß S gilt V = α∈On Vα . Dazu brauchen wir das bereits erwähnte Regularitätsaxiom, welches aussagt, daß die Relation ∈ auf V fundiert ist, d.h. daß gilt Axiom 8. ∀a.a 6= ∅ → ∃x∈a (x ∩ a = ∅). Wir können dann jeder Menge x eine Ordinalzahl α als ihren Rang zuordnen, und zwar als kleinstes α mit x ⊆ Vα . Dazu brauchen wir den Begriff des Rangs rn(x) einer Menge x, den wir rekursiv definieren durch [ rn(x) := { rn(y) + 1 | y ∈ x }. Genauer setzen wir rn(x) := F(x), wobei F : V → V wie folgt definiert wird (mittels des Rekursionssatzes 5.3.3 für fundierte Relationen). [ rng(H(Fx)) F(x) := mit H(z) := { (u, v + 1) | (u, v) ∈ z }. Zunächst zeigen wir, daß rn(x) die oben formulierte Eigenschaft hat. Lemma 5.3.34. 1. rn(x) ∈ On. 2. x ⊆ Vrn(x) . 3. x ⊆ Vα → rn(x) ⊆ α. S Beweis. 1. ∈-Induktion nach x. Es ist rn(x) = { rn(y) + 1 | y ∈ x } ∈ On, da nach IH rn(y) ∈ On für jedes y ∈ x. 2. ∈-Induktion nach x. Sei y ∈ x. Dann gilt y ⊆ Vrn(y) nach IH, also y ∈ P(Vrn(y) ) = Vrn(y)+1 ⊆ Vrn(x) wegen rn(y) + 1 ⊆ rn(x). S 3. Induktion nach α. Sei x ⊆ Vα . Zu zeigen rn(x) = { rn(y) + 1 | y ∈ x } ⊆ α. Sei also y ∈ x. Zu zeigen ist dann rn(y) + 1 ⊆ α. Wegen x ⊆ Vα ist y ∈ Vα . Daraus folgt y ⊆ Vβ für ein β ∈ α, denn im Fall α = αS0 + 1 hat man y ∈ Vα0 +1 = P(Vα0 ) und damit y ⊆ Vα0 , und im Fall α Limeszahl hat man y ∈ Vα = β∈α Vβ , also y ∈ Vβ und damit y ⊆ Vβ für ein β ∈ α. - Nach IH folgt jetzt rn(y) ⊆ β und damit rn(y) ∈ α. u t Jetzt folgt leicht die oben als Ziel formulierte Aussage. S Korollar 5.3.35. V = α∈On Vα . Beweis. ⊇ ist klar. ⊆. Für jedes x gilt x ⊆ Vrn(x) nach Lemma 5.3.34(2), also x ∈ Vrn(x)+1 . u t Vα läßt sich jetzt charakterisieren als die Menge aller Mengen vom Rang kleiner als α. Lemma 5.3.36. Vα = { x | rn(x) ∈ α }. Beweis. ⊇. Sei rn(x) ∈ α. Wegen x ⊆ Vrn(x) folgt x ∈ Vrn(x)+1 ⊆ Vα . ⊆. Induktion nach α. Fall 0. Klar. Fall α + 1. Sei x ∈ Vα+1 . Dann ist x ∈ P(Vα ), also x ⊆ Vα . Für S jedes y ∈ x gilt also y ∈ Vα und damit rn(y) ∈ α nach IH, also rn(y) + 1 ⊆ α. Daher gilt rn(x) = { rn(y) + 1 | y ∈ x } ⊆ α. Fall α Limeszahl. Sei x ∈ Vα . Dann ist x ∈ Vβ für ein β ∈ α, also rn(x) ∈ β nach IH, also rn(x) ∈ α. u t 5.4 Kardinalzahlen 107 Aus x ∈ y bzw. x ⊆ y kann man auf die entsprechenden Beziehungen zwischen den Rängen schließen. Lemma 5.3.37. 1. x ∈ y → rn(x) ∈ rn(y). 2. x ⊆ y → rn(x) ⊆ rn(y). S Beweis. 1. WegenSrn(y) = { rn(x) + 1 | x ∈ y } ist dies klar. 2. Für jedes z ∈ x gilt rn(z) ∈ rn(y) nach (1), also rn(x) = { rn(z) + 1 | z ∈ x } ⊆ rn(y). u t Weiter läßt sich zeigen, daß die Mengen α und Vα beide den Rang α haben. Lemma 5.3.38. 1. rn(α) = α. 2. rn(Vα ) = α. S S Beweis. 1. Induktion über α. Es gilt rn(α) = { rn(β) + 1 | β ∈ α }, also nach IH rn(α) = { β + 1 | β ∈ α } = α nach Lemma 5.3.28(1). 2. Es ist [ rn(Vα ) = { rn(x) + 1 | x ∈ Vα } [ = { rn(x) + 1 | rn(x) ∈ α } nach Lemma 5.3.36 ⊆ α. Sei umgekehrt β ∈ α. Nach (1) ist rn(β) = β ∈ α, also [ β = rn(β) ∈ { rn(x) + 1 | rn(x) ∈ α } = rn(Vα ). u t Schließlich zeigen wir noch, daß eine Klasse A genau dann eine Menge ist, wenn die Ränge ihrer Elemente durch eine Ordinalzahl beschränkt werden können. Lemma 5.3.39. A ist Menge genau dann, wenn es ein α gibt mit ∀y∈A (rn(y) ∈ α). Beweis. →. Sei A = x. Aus Lemma 5.3.37(1) folgt dann, daß rn(x) ist das gesuchte α ist. ←. Gelte rn(x) ∈ α für alle y ∈ A. Dann folgt A ⊆ { y | rn(y) ∈ α } = Vα . u t 5.4 Kardinalzahlen Wir behandeln jetzt die wichtigsten Eigenschaften von Kardinalzahlen. Sie werden in der Mathematik häufig benutzt. Größenvergleiche zwischen Mengen Wir definieren |a| ≤ |b| :↔ ∃f.f : a → b und f injektiv, |a| = |b| :↔ ∃f.f : a ↔ b, |a| < |b| :↔ |a| ≤ |b| ∧ |a| 6= |b|, b a := { f | f : b → a }. Zwei Mengen a und b heißen gleichmächtig, wenn |a| = |b| gilt. Man beachte, daß wir hier nicht |a| definieren, sondern nur Relationen |a| ≤ |b|, |a| = |b| und |a| < |b|. Lemma 5.4.1. 1. |a × b| = |b × a|. 2. |a (b c)| = |a×b c|. 3. |P(a)| = |a {0, 1}|. 4. ( Cantor). |a| < |P(a)|. 108 5. Mengenlehre Beweis. (1) − (3) sind klar. 4. f : a → P(a), x 7→ {x} ist injektiv. Angenommen, wir hätten ein g : a ↔ P(a). Betrachte b := { x | x ∈ a ∧ x ∈ / g(x) }. Dann ist b ⊆ a, also b = g(x0 ) für ein x0 ∈ a. Es folgt x0 ∈ g(x0 ) ↔ x0 ∈ / g(x0 ) und damit ein Widerspruch. u t Satz 5.4.2. ( Cantor, Schröder, Bernstein) Ist a ⊆ b ⊆ c und |a| = |c|, so folgt |b| = |c|. Beweis. Sei f : c → a bijektiv und r := c \ b. Wir definieren rekursiv g : ω → V durch g(0) = r, g(n + 1) = f [g(n)]. Ferner setzen wir r := [ g(n) n und definieren i : c → b durch ( f (x), i(x) := x, falls x ∈ r, falls x ∈ / r. Es genügt zu zeigen, daß (1) rng(i) = b und (2) i injektiv ist. Zu (1). Sei x ∈ b. Zu zeigen ist x ∈ rng(i). / g(0). Also gibt es ein n mit x ∈ g(n + 1) = f [g(n)], also OBdA sei x ∈ r. Wegen x ∈ b ist dann x ∈ x = f (y) = i(y) für ein y ∈ r. Zu (2). Sei x 6= y. OBdA ist x ∈ r, y ∈ / r. Dann hat man aber i(x) ∈ r, 6 i(y). i(y) ∈ / r, also i(x) = u t Anmerkung. Der Satz von Cantor, Schröder und Bernstein läßt sich auch als Anwendung des Fixpunktsatzes von Knaster-Tarski auffassen; siehe dazu Gunter [14]. Korollar 5.4.3. |a| ≤ |b| ∧ |b| ≤ |a| → |a| = |b|. Beweis. Seien f : a → b und g : b → a injektiv. Dann gilt (g ◦ f )[a] ⊆ g[b] ⊆ a und |(g ◦ f )[a]| = |a|. Nach u t dem Satz von Cantor, Schröder und Bernstein folgt |b| = |g[b]| = |a|. Kardinalzahlen, Alephfunktion Unter einer Kardinalzahl verstehen wir eine Ordinalzahl, die zu keiner kleineren Ordinalzahl gleichmächtig ist, also α heißt Kardinalzahl , wenn gilt ∀β<α (|β| 6= |α|). Hier und im folgenden schreiben wir aufgrund von Lemma 5.3.22 α < β für α ∈ β und α ≤ β für α ⊆ β. Lemma 5.4.4. |n| = |m| → n = m. Beweis. Induktion über n. 0. Klar. n + 1. Sei f : n + 1 ↔ m + 1. OBdA können wir f (n) = m annehmen. Also gilt f n : n ↔ m und damit n = m nach IH, also auch n + 1 = m + 1. u t Korollar 5.4.5. n ist Kardinalzahl. u t Lemma 5.4.6. |n| 6= |ω|. Beweis. Annahme: |n| = |ω|. Es ist n ⊆ n + 1 ⊆ ω, also nach dem Satz von Cantor, Schröder und Bernstein |n| = |n + 1|, was nicht sein kann. t u Korollar 5.4.7. ω ist Kardinalzahl. Lemma 5.4.8. ω ≤ α → |α + 1| = |α|. t u 5.4 Kardinalzahlen 109 Beweis. Definiere f : α → α + 1 durch Dann ist f : α ↔ α + 1. α, f (x) := n, x, falls x = 0; falls x = n + 1; sonst. u t Korollar 5.4.9. Ist ω ≤ α und α eine Kardinalzahl, so ist α eine Limeszahl. Beweis. Annahme: α = β + 1. Dann ist ω ≤ β < α, also |β| = |β + 1| im Widerspruch zur Voraussetzung, daß α eine Kardinalzahl ist. u t S Lemma 5.4.10. Ist a eine Menge von Kardinalzahlen, so ist sup(a) (:= a) eine Kardinalzahl. S Beweis. Andernfalls gäbe es ein α < sup(a) mit |α| = | sup(a)|. Also α ∈ a und damit α ∈ β ∈ a für eine S Kardinalzahl S β. Nach dem Satz von Cantor, Schröder und Bernstein folgt aber aus α ⊆ β ⊆ a u t und |α| = | a|, daß |α| = |β|. Wegen α ∈ β und β Kardinalzahl ist dies aber nicht möglich. Wir wollen jetzt zeigen, daß es zu jeder Ordinalzahl eine größere Kardinalzahl gibt. Es gilt sogar allgemeiner folgendes. Satz 5.4.11. ∀a∃!α.∀β<α(|β| ≤ |a|) ∧ |α| 6≤ |a|. α heißt Hartogszahl von a; sie wird mit H(a) bezeichnet. Beweis. Eindeutigkeit. Klar. Existenz. Sei w := { (b, r) | b ⊂ a ∧ r Wohlordnung auf b } und γ(b,r) die eindeutig bestimmte Ordinalzahl isomorph zu (b, r). Dann ist { γ(b,r) | (b, r) ∈ w } eine transitive Teilmenge von On, also eine Ordinalzahl α. Zu zeigen ist 1. β < α → |β| ≤ |a|, 6 |a|. 2. |α| ≤ 1. Sei β < α. Dann ist β isomorph einem γ(b,r) mit (b, r) ∈ w, also existiert f : β ↔ b. 2. Annahme: f : α → a injektiv. Dann ist α = γ(b,r) für ein b ⊆ a (b := rng(f )), also α ∈ α, was nicht sein kann. u t Anmerkung. 1. Die Hartogszahl von a ist eine Kardinalzahl. Denn sei α Hartogszahl von a, β < α. Wäre |β| = |α|, so hätte man |α| = |β| ≤ |a|, was nicht sein kann. 2. Die Hartogszahl von β ist die kleinste Kardinalzahl α mit α > β. ℵ : On → V wird rekursiv definiert durch ℵ0 := ω, ℵα+1 := H(ℵα ), ℵα := sup{ ℵβ | β < α } für α Limeszahl. Lemma 5.4.12. (Eigenschaften von ℵ). 1. ℵα ist Kardinalzahl. 2. α < β → ℵα < ℵβ . 3. ∀β.β Kardinalzahl ∧ω ≤ β → ∃α(β = ℵα ). Beweis. 1. Induktion über α; klar. 2. Induktion über β. 0. Klar. β + 1. α<β+1 α<β∨α=β ℵα < ℵβ ∨ ℵα = ℵβ ℵα < ℵβ+1 . 110 5. Mengenlehre β Limeszahl. α<β α < γ für ein γ < β ℵα < ℵγ ≤ ℵβ . 3. Sei α minimal mit β ≤ ℵα . Ein solches α existiert, da sonst ℵ : On → β injektiv wäre. Wir zeigen ℵα ≤ β durch Fallunterscheidung nach α. 0. Klar. α = α0 + 1. Nach Wahl von α ist ℵα0 < β, also ℵα ≤ β. α Limeszahl. Nach Wahl von α ist ℵγ < β für alle γ < α, also ℵα = sup{ ℵγ | γ < α } ≤ β. u t Wir zeigen noch, daß jede unendliche Ordinalzahl zu einer Kardinalzahl gleichmächtig ist. Lemma 5.4.13. (∀β≥ω)∃α(|β| = |ℵα |). Beweis. Betrachte δ := min{ γ | γ < β ∧ |γ| = |β| }. δ ist offenbar Kardinalzahl. Ferner ist δ ≥ ω, denn andernfalls hätte man δ=n |n| = |β| n⊆n+1⊆β |n| = |n + 1|, was nicht sein kann. Also ist δ = ℵα für ein α, und wir haben |δ| = |β| = |ℵα |. u t Produkte von Kardinalzahlen Wir zeigen jetzt, daß stets gilt |ℵα × ℵα | = |ℵα |. Auf On × On definieren wir eine Relation ≺ durch (α, β) ≺ (γ, δ) :↔ max{α, β} < max{γ, δ} ∨ (max{α, β} = max{γ, δ} ∧ α < γ) ∨ (max{α, β} = max{γ, δ} ∧ α = γ ∧ β < δ). Lemma 5.4.14. ≺ ist eine Wohlordnung auf On × On. Beweis. : ≺ ist offenbar eine lineare Ordnung. Zum Beweis der Fundiertheit von ≺ betrachten wir ein a ⊆ On × On mit a 6= ∅. Dann gilt ∅ 6= A := { α | ∃ρ, µ((ρ, µ) ∈ a ∧ max{ρ, µ} = α) } ⊆ On. Sei α0 := min(A). Dann gilt ∅ 6= A1 := { ρ | ∃µ((ρ, µ) ∈ a ∧ max{ρ, µ} = α0 ) } ⊆ On. Sei ρ0 := min(A1 ). Dann gilt ∅ 6= A2 := { µ | (ρ0 , µ) ∈ a ∧ max{ρ0 , µ} = α0 ) } ⊆ On. \ β) eine Menge, denn Sei µ0 := min(A2 ). Dann gilt offenbar (ρ0 , µ0 ) = min≺ (a). Schließlich ist stets (α, \ es ist (α, β) ⊆ γ × γ mit γ := max{α, β} + 1. u t Korollar 5.4.15. On × On ist isomorph zu On (bzgl. ≺ und ∈ On). Beweis. Nach Lemma 5.4.14 ist ≺ eine Wohlordnung auf On × On. Also gibt es nach Korollar 5.3.19 einen Isomorphismus auf eine transitive und damit auch ordinale Klasse. Diese Klasse kann keine Menge sein, da sonst On × On eine Menge wäre. Nach Lemma 5.3.23(3) ist aber On die einzige echte ordinale Klasse. u t 5.5 Das Auswahlaxiom 111 Satz 5.4.16. ℵα × ℵα ist isomorph zu ℵα . (bzgl. ≺ ℵα × ℵα und ∈ ℵα ). Beweis. Annahme: ∃α(ℵα × ℵα nicht isomorph zu ℵα ). Sei α0 := min{ α | ℵα × ℵα nicht isomorph zu ℵα }. Offenbar ist α0 = 6 0. Da ℵα0 × ℵα0 und ℵα0 wohlgeordnete Mengen sind, muß eine von ihnen isomorph zu einem echten Anfangsstück der anderen sein. Wir unterscheiden deshalb zwei Fälle. \ \ γ) ⊆ δ × δ. Fall 1. ℵα0 isomorph zu (β, γ) mit β, γ < ℵα0 . Wähle δ < ℵα0 mit β, γ < δ. Dann ist (β, Man erhält \ |ℵα0 | = |(β, γ)| ≤ |δ × δ| = |ℵτ × ℵτ | = |ℵτ | für ein τ < α0 nach Wahl von α0 und damit einen Widerspruch zu Lemma 5.4.12(2). Fall 2. ℵα0 × ℵα0 ist isomorph zu β < ℵα0 . Dann folgt |ℵα0 | ≤ |ℵα0 × ℵα0 | = |β| ≤ |ℵα0 | |ℵα0 | = |β| und damit ein Widerspruch zu ℵα0 Kardinalzahl, β < ℵα0 . u t Korollar 5.4.17. 1. |ℵα × ℵβ | = | max{ℵα , ℵβ }|. 2. n 6= 0 → |n ℵα | = |ℵα |. Beweis. 1. OBdA sei α ≤ β. Dann gilt |ℵβ | ≤ |ℵα × ℵβ | ≤ |ℵβ × ℵβ | = |ℵβ |. 2. Dies folgt durch Induktion nach n leicht aus Satz 5.4.16. u t 5.5 Das Auswahlaxiom Auswahlaxiom, Wohlordnungssatz und Zornsches Lemma Eine Relation R auf A heißt partielle Ordnung, wenn für alle x, y, z ∈ A gilt ¬xRx, Irreflexivität xRy ∧ yRz → xRz, Transitivität. Ein x ∈ A heißt maximales Element, wenn es kein y ∈ A gibt mit xRy. Sei noch B ⊆ A. Ein x ∈ A heißt obere Schranke von B, wenn gilt ∀y∈B.yRx ∨ y = x. Satz 5.5.1. Die folgenden Aussagen sind äquivalent. 1. Das Auswahlaxiom (AC) ∀x.∅ ∈ / x → ∃f.f : x → 2. Der Wohlordnungssatz (WO) [ x ∧ (∀y∈x)(f (y) ∈ y). ∀a∃r(r ist Wohlordnung auf a). 3. Das Zornsche Lemma (ZL): Für jede nichtleere partielle Ordnung (P, <) mit der Eigenschaft, daß jedes durch < linear geordnete L ⊆ P eine obere Schranke in P hat, gilt: P hat ein maximales Element. 112 5. Mengenlehre Beweis. (ZL) → (WO). Gegeben sei ein a. Sei P := { f | ∃α(f : α → a injektiv) } ⊆ P(H(a) × a). S P wird S durch die echte Inklusion ( partiell geordnet. Sei L ⊆ P linear geordnet. Dann gilt L ∈ P . Also ist L obere Schranke von L. Mit dem Zornschen Lemma erhält man ein maximales Element f0 ∈ P . Offenbar ist dann f0 eine Bijektion einer Ordinalzahl α0 auf a, und f0 induziert S eine Wohlordnung auf a. / x. Nach (WO) existiert eine Wohlordnung < auf x. Für jedes y ∈ x induziert (WO) → (AC). Sei ∅ ∈ < eine Wohlordnung auf y. Definiere [ f: x→ x, y 7→ min < (y) ∈ y. (AC) → (ZL). Sei < partielle Ordnung auf P = 6 ∅. Wir nehmen an, daß jedes durch < linear geordnete L ⊆ P eine obere Schranke in P hat. Nach (AC) existiert eine Auswahlfunktion f auf P(P ) \ {∅}. Sei z∈ / P beliebig. Definiere F : On → V ( f ({ y | y ∈ P ∧ y obere Schranke von F[α] ∧ y ∈ / F [α] }), F(α) = z, falls {. . . } 6= ∅; sonst. Dann gibt es ein ρ mit F (ρ) = z, denn sonst wäre F : On → P injektiv, im Widerspruch zu der Voraussetzung, daß P eine Menge ist. Setze ρ0 := min{ ρ | F (ρ) = z }. F[ρ0 ] ist linear geordnet, und es gilt F[ρ0 ] ⊆ P . Nach Voraussetzung existiert eine obere Schranke y0 ∈ P von F [ρ0 ]. Wir zeigen jetzt, daß y0 maximales Element in P ist. Annahme: y0 < y für ein y ∈ P . Dann ist y obere Schranke von F[ρ0 ] und y∈ / F[ρ0 ]. Dies widerspricht aber der Definition von ρ0 . u t Ab jetzt wird das Auswahlaxiom immer vorausgesetzt. Wir markieren jedoch jeden Satz und jede Definition mit (AC), wenn darin das Auswahlaxiom verwendet wird. (AC) ist offenbar äquivalent zu dem Spezialfall, in dem je zwei y1 , y2 ∈ x disjunkt sind. Wir notieren noch die folgende äquivalente Fassung des Auswahlaxioms. Lemma 5.5.2. Folgende Aussagen sind äquivalent. 1. Das Auswahlaxiom (AC). 2. Zu jedem surjektiven g : a → b gibt es ein injektives f : b → a mit (∀x ∈ b)(g(f x) = x). Beweis. Übung. u t Kardinalität α heißt Kardinalität (oder Mächtigkeit) von a, wenn α Kardinalzahl ist und es eine Bijektion f : a → α gibt. Satz 5.5.3. (AC). Jede Menge hat genau eine Kardinalität. Beweis. Eindeutigkeit. Klar. Existenz. Sei < eine Wohlordnung auf a. Dann existiert ein γ mit a isomorph u t zu γ. Also ist { τ | |τ | = |a| } 6= ∅ und damit min{ τ | |τ | = |a| } Kardinalzahl. Offenbar ist |a| = |b| genau dann, wenn die Kardinalität von a gleich der Kardinalität von b ist, und |a| ≤ |b| genau dann, wenn die Kardinalität von a kleiner oder gleich der Kardinalität von b ist. Deshalb können wir |a| als Bezeichnung der Kardinalität von a wählen. Eine Menge a heißt endlich, wenn sich a bijektiv auf eine natürliche Zahl abbilden läßt, und unendlich sonst. Mit (AC) folgt dann, daß a genau dann endlich ist, wenn |a| < ω gilt. 5.5 Das Auswahlaxiom 113 Lemma 5.5.4. (AC). Sind a, b 6= ∅ und ist a oder b unendlich, so ist |a × b| = max{|a|, |b|}. Beweis. Sei etwa |a| = max{|a|, |b|}. Dann gilt |a| ≤ |a × b| = ||a| × |b|| ≤ ||a| × |a|| = |a|. u t Satz 5.5.5. (AC). Sei I unendlich oder supi∈I |Ai | unendlich. Dann gilt S 1. | i∈I Ai | ≤ max{|I|, supi∈I |Ai |}. 2. Hat man zusätzlich (∀i ∈ I)(Ai 6= ∅) und (∀i, j ∈ I)(i 6= j → Ai ∩ Aj = ∅), so gilt =. Beweis. 1. OBdA κ := supi∈I |Ai | 6= 0. Wir wählen uns eine Wohlordnung < von I und definieren mit Bezug auf diese Wohlordnung [ [ ({i} × Ai ), f: Ai → i∈I i∈I f (x) = (min{ i ∈ I | x ∈ Ai }, x). f ist offenbar injektiv. Also | [ i∈I Ai | ≤ | ≤| [ i∈I [ i∈I ({i} × Ai )| ({i} × κ)| = |I × κ| = max{|I|, κ}. S 2. Wegen (1) genügt es zu zeigen, daß |I|, |Ai | ≤ | i∈ISAi |. Die zweite Abschätzung S ist klar. Zum Beweis der ersten wählen wir uns eine Wohlordnung < von i∈I Ai und definieren f : I → i∈I Ai durch t u f (i) := min< { x | x ∈ Ai }. Aufgrund der Voraussetzungen ist f injektiv. a heißt Dedekind-endlich, wenn sich a nicht bijektiv auf eine echte Teilmenge b von a abbilden läßt, und andernfalls Dedekind-unendlich. Satz 5.5.6. (AC). a ist Dedekind-unendlich genau dann, wenn a unendlich ist. Beweis. →. Sei b ( a und f : a ↔ b. Annahme: |a| < ω, etwa |a| = n. Dann existiert c ( n und ein g : n ↔ c. Wir zeigen durch Induktion über n, daß dies nicht möglich ist, also daß gilt ∀n¬(∃c ( n)∃g(g : n ↔ c). 0. Klar. n + 1. Sei g : n + 1 ↔ c und c ( n + 1. OBdA ist n ∈ / rng(gn). Es folgt gn : n ↔ c \ {n} ( n und damit ein Widerspruch zur IH. ←. Sei g : ω → a injektiv und h : g[ω] ↔ g[ω \ 1] definiert durch h = { (g(n), g(n + 1)) | n ∈ ω }. Ein f : a ↔ (a \ {g(0)}) ist definiert durch ( x, f (x) = h(x), falls x ∈ a \ g[ω]; sonst. u t 114 5. Mengenlehre Reguläre und singuläre Kardinalzahlen κ, λ bezeichnen im folgenden Kardinalzahlen ≥ ω. Das Auswahlaxiom (AC) werden wir in diesem Abschnitt stets voraussetzen. Definition 5.5.7. (AC). 1. 2. 3. 4. x ⊆ κ heißt konfinal in κ, wenn sup(x) = κ. cf(κ) := min{ |x| | x ⊆ κ und x konfinal mit κ } heißt Konfinalität von κ. κ heißt regulär , wenn cf(κ) = κ. κ heißt singulär , wenn cf(κ) < κ. Satz 5.5.8. (AC). 1. ω = ℵ0 ist regulär. 2. ℵα+1 ist regulär. 3. Ist β Limeszahl und gilt β < ℵβ , so ist ℵβ singulär. Beweis. 1. Angenommen, ω ist singulär, also cf(ω) < ω. Dann gibt es ein x ⊆ ω mit |x| = n und sup(x) = ω. Dies ist aber nicht möglich (Beweis durch Induktion über n). 2. Annahme: ℵα+1 singulär. Dann ist cf(ℵa+1 ) ≤ ℵa . Es gibt also ein x ⊆ ℵα+1 mit |x| ≤ ℵα und sup(x) = ℵα+1 . Dann gilt aber [ ℵα+1 = | x| ≤ max{|x|, sup{ |y| | y ∈ x }} ≤ ℵα , nach Satz 5.5.5(1) was nicht sein kann. 3. Sei β eine Limeszahl mit β < ℵβ . Dann hat man ℵβ = sup{ ℵγ | γ < β } und es gilt |{ ℵγ | γ < β }| = |β| < ℵβ . Also ist ℵβ singulär. u t Nach Definition hat man zu jeder unendlichen Kardinalzahl eine Teilmenge x ⊆ κ, deren Kardinalität gleich cf(κ) ist, die sich also bijektiv auf cf(κ) abbilden läßt. Wir zeigen jetzt, daß man sogar annehmen kann, daß diese Bijektion ein Isomorphismus ist. Lemma 5.5.9. (AC). Sei κ unendliche Kardinalzahl. Dann gibt es eine in κ konfinale Teilmenge x ⊆ κ, die isomorph zu cf(κ) ist. Beweis. Sei y ⊆ κ, sup(y) = κ, |y| = cf(κ) und g : cf(κ) ↔ y. Durch transfinite Rekursion definieren wir F : On → V, F(α) := sup(F[α] ∪ g[α]) + 1. Sei f := Fcf(κ). Man sieht leicht: 1. α < β < cf(κ) → f (α) < f (β) ∧ g(α) < f (β). 2. rng(f ) ⊆ κ 3. rng(f ) ist konfinal mit κ. rng(f ) ist dann das gesuchte x. u t Korollar 5.5.10. (AC). Ist κ eine unendliche Kardinalzahl, so ist cf(κ) eine reguläre Kardinalzahl. Beweis. cf(cf(κ)) ≤ cf(κ) ist klar. Zu zeigen ist also cf(κ) ≤ cf(cf(κ)). Nach dem vorigen Lemma existieren x, f mit x ⊆ κ, sup(x) = κ und f : cf(κ) ↔ x Isomorphismus. Weiter existiert y ⊆ cf(κ) mit sup(y) = cf(κ) und |y| = cf(cf(κ)). Man sieht leicht, daß { f (α) | α ∈ y } konfinal mit κ ist. Daraus folgt cf(κ) ≤ |{ f (α) | α ∈ y }| = |y| = cf(cf(κ)) u t 5.5 Das Auswahlaxiom 115 Satz 5.5.11. (AC). ( König). Sei κ unendliche Kardinalzahl. Dann ist κ < |cf(κ) κ|. Beweis. κ = |1 κ| ≤ |cf(κ) κ| ist klar. Es genügt also, aus der Annahme der Existenz einer Bijektion f : κ ↔ cf(κ) κ einen Widerspruch herzuleiten. Gemäß Lemma 5.5.9 gibt es x ⊆ κ mit sup(x) = κ und einen Isomorphismus g : cf(κ) ↔ x. Für jedes α < cf(κ) ist also g(α) < κ und deshalb |{ f (γ)(α) | γ < g(α) }| ≤ |g(α)| < κ, also { f (γ)(α) | γ < g(α) } ( κ. Setze h : cf(κ) → κ, h(α) := min(κ \ { f (γ)(α) | γ < g(α) }). Den gesuchten Widerspruch erhalten wir, indem wir zeigen, daß für alle γ < κ gilt f (γ) = 6 h. Sei also u γ < κ. Wählt man jetzt ein α < cf(κ) mit γ < g(α), so ist h(α) 6= f (γ)(α) nach Konstruktion von h. t Kardinalzahlpotenzen, Kontinuumshypothese Auch in diesem Abschnitt wird (AC) stets vorausgesetzt. Wir definieren ℵ ℵαβ := |ℵβ ℵα |. Später werden wir auch eine Ordinalzahlpotenz einführen. Aus Kontext sollte jeweils klar sein, ob die Ordinalzahlpotenz oder die Kardinalzahlpotenz gemeint ist. Satz 5.5.12. (AC). ℵ 1. ℵβ < cf(ℵα ) → ℵα ≤ ℵαβ ≤ |P(ℵα )| ℵ 2. cf(ℵα ) ≤ ℵβ ≤ ℵα → ℵα < ℵαβ ≤ |P(ℵα )| ℵβ 3. ℵα ≤ ℵβ → ℵα = |P(ℵβ )|. Beweis. 1. ℵα ≤ |ℵβ ℵα | ≤ |ℵβ (ℵα {0, 1})| = |ℵβ ×ℵα {0, 1}| = |ℵα {0, 1}| = |P(ℵα )|. da ℵβ ≤ ℵα 2. ℵα < |cf(ℵα ) ℵα | Satz von König ℵβ ≤ | ℵα | ≤ |P(ℵα )| wie bei (1). 3. |P(ℵβ )| = |ℵβ {0, 1}| ≤ |ℵβ ℵα | ≤ |ℵβ ×ℵα {0, 1}| = |ℵβ {0, 1}| = |P(ℵβ )|. t u 116 5. Mengenlehre Wesentlich mehr kann man über Kardinalzahlpotenzen aussagen, wenn man die sogenannte Kontinuumshypothese annimmt; darunter versteht man die Aussage |P(ℵ0 )| = ℵ1 . (CH) Die naheliegende Erweiterung auf alle Kardinalzahlen ist die verallgemeinerte Kontinuumshypothese: |P(ℵα )| = ℵα+1 . (GCH) Es ist ein offenes Problem, ob die Kontinuumshypothese in der kumulativen Typenstruktur gilt (Nr. 1 in Hilberts Liste von mathematischen Problemen, die er in seinem Vortrag vor dem internationalen Mathematikerkongress in Paris 1900 aufgestellt hat). Bekannt ist jedoch, daß die Kontinuumshypothese von den restlichen Axiomen der Mengenlehre unabhängig ist. Die Verwendung von (CH), (GCH) wird im folgenden immer angezeigt. Satz 5.5.13. (GCH). ℵ 1. ℵβ < cf(ℵα ) → ℵα = ℵαβ . ℵ 2. cf(ℵα ) ≤ ℵβ ≤ ℵα → ℵαβ = ℵα+1 . ℵ 3. ℵα ≤ ℵβ → ℵαβ = ℵβ+1 . Beweis. (2) und (3) folgen mit (GCH) aus dem vorigen Satz. 1. Sei ℵβ < cf(ℵα ). Man beachte zunächst, daß gilt [ ℵβ ℵ α = { ℵβ γ | γ < ℵα } Dies sieht man wie folgt. ⊇ ist klar. ⊆. Sei f : ℵβ → ℵα . Wegen |f [ℵβ ]| ≤ ℵβ < cf(ℵα ) ist sup(f [ℵβ ]) < γ < ℵα für ein γ, also f : ℵβ → γ. Man erhält ℵα ≤ |ℵβ ℵα | [ = | { ℵβ γ | γ < ℵα }| ≤ max{|ℵα |, sup | γ<ℵα ℵβ γ| } voriger Satz nach der Vorbemerkung nach Satz 5.5.5(1) Es genügt also zu zeigen, daß |ℵβ γ| ≤ ℵα ist für γ < α. Sei also γ < α. |ℵβ γ| ≤ |ℵβ ×γ {0, 1}| ≤ |ℵβ ×ℵδ {0, 1}| für ein δ mit |γ| ≤ ℵδ < ℵα ( |P(ℵδ )| falls β < δ ≤ |P(ℵβ )| falls δ ≤ β ( ℵδ+1 falls β < δ = ℵβ+1 falls δ ≤ β ≤ ℵα . u t 5.6 Ordinalzahlarithmetik Wir definieren Addition, Multiplikation und Exponentiation für Ordinalzahlen und beweisen ihre grundlegenden Eigenschaften. Ferner behandeln wir die Cantorsche Normalform. α + 0 := α, α + (β + 1) := (α + β) + 1, α + β := sup{ α + γ | γ < β } falls β Limeszahl. 5.6 Ordinalzahlarithmetik 117 Genauer definiert man sα : On → V durch und setzt dann α + β := sα (β). sα (0) := α, sα (β + 1) := sα (β) + 1, [ sα (β) := rng(sα β) falls β Limeszahl Lemma 5.6.1. (Eigenschaften der Ordinalzahladdition). 1. 2. 3. 4. 5. 6. 7. 8. 9. α + β ∈ On. 0 + β = β. ∃α, β(α + β 6= β + α). β < γ → α + β < α + γ. Es gibt α, β, γ mit α < β, aber α + γ < 6 β + γ. α ≤ β → α + γ ≤ β + γ. Ist α ≤ β, so gibt es genau ein γ mit α + γ = β. Ist β Limeszahl, so auch α + β. (α + β) + γ = α + (β + γ). Beweis. 1. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist α + (β + 1) = (α + β) + 1 ∈ On, da nach IH α + β ∈ On. Fall β Limeszahl. Dann ist α + β = sup{ α + γ | γ < β } ∈ On, da nach IH α + γ ∈ On für alle γ < β. 2. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist 0 + (β + 1) = (0 + β) + 1 = β + 1, da nach IH 0 + β = β. Fall β Limeszahl. Dann ist 0 + β = sup{ 0 + γ | γ < β } = sup{ γ | γ < β } [ = β = β, nach IH da β Limeszahl. 3. 1 + ω = sup{ 1 + n | n ∈ ω } = ω 6= ω + 1. 4. Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist β < γ + 1, β < γ ∨ β = γ, α+β <α+γ∨α+β =α+γ α + β ≤ α + γ < (α + γ) + 1 = α + (γ + 1). nach IH, Fall γ Limeszahl. Sei β < γ, also β < δ für ein δ < γ. Dann gilt α + β < α + δ nach IH, also α + β < sup{ α + δ | δ < γ } = α + γ. 5. 0 < 1, aber 0 + ω = ω = 1 + ω 6. Wir bemerken zunächst, daß es niemals ein β geben kann mit α < β < α + 1, denn andernfalls hätte man im Fall β ∈ α den Widerspruch β ∈ α ∈ β und im Fall β = α den Widerspruch α ∈ α. Als zweite Vorbemerkung notieren wir, daß stets gilt α ≤ β → α + 1 ≤ β + 1, denn im Fall β + 1 < α + 1 hätte man α < β + 1 < α + 1, was wie gerade bewiesen nicht sein kann. – Wir zeigen jetzt die Behauptung α ≤ β → α + γ ≤ β + γ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist α+γ ≤β+γ nach IH, (α + γ) + 1 ≤ (β + γ) + 1 nach der zweiten Vorbemerkung, α + (γ + 1) ≤ β + (γ + 1) nach Definition. 118 5. Mengenlehre Fall γ Limeszahl. Dann ist α+δ ≤β+δ α + δ ≤ sup{ β + δ | δ < γ } sup{ α + δ | δ < γ } ≤ sup{ β + δ | δ < γ } α+γ ≤β+γ für alle δ < γ, nach IH, nach Definition. 7. Die Eindeutigkeit von γ folgt aus (4). Existenz: Sei α ≤ β. Nach (2) und (6) gilt β = 0 + β ≤ α + β. Sei γ die kleinste Ordinalzahl mit β ≤ α + γ. Wir zeigen jetzt β = α + γ. Fall γ = 0. Dann ist β ≤ α + γ = α + 0 = α ≤ β, also β = α + γ. Fall γ = γ 0 + 1. Dann ist α + γ 0 < β, also (α + γ 0 ) + 1 ≤ β nach der ersten Vorbemerkung zu (6) und damit α + γ = β. Fall γ Limeszahl. Dann ist α + δ < β für alle δ < γ, also α + γ = sup{ α + δ | δ < γ } ≤ β und damit α + γ = β. 8. Sei β Limeszahl. Wir verwenden die in Lemma 5.3.27(1) gegebene Charakterisierung von Limeszahlen. α + β = 6 0: Wegen 0 ≤ α ist 0 < β = 0 + β ≤ α + β nach (6). γ < α + β → γ + 1 < α + β: Sei γ < α + β = sup{ α + δ | δ < β }, also γ < α + δ für ein δ < β, also γ + 1 < (α + δ) + 1 (nach der ersten Vorbemerkung zu (6)) und damit γ + 1 < α + (δ + 1) mit δ + 1 < β, also γ + 1 < sup{ α + δ | δ < β }. 9. Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist (α + β) + (γ + 1) = [(α + β) + γ] + 1 = [α + (β + γ)] + 1 nach IH = α + [(β + γ) + 1] = α + [β + (γ + 1)] Fall γ Limeszahl. Nach (8) ist dann auch β + γ Limeszahl. Man erhält (α + β) + γ = sup{ (α + β) + δ | δ < γ } = sup{ α + (β + δ) | δ < γ } = sup{ α + ε | ε < β + γ } = α + (β + γ). nach IH siehe unten Die Gleichheit der beiden Suprema sieht man wie folgt. Ist ε < β + γ, so ist ε < β + δ für ein δ < γ (nach Definition von β + γ) und damit α + ε < α + (β + δ). Ist umgekehrt δ < γ, so ist β + δ < β + γ, also α + (β + δ) = α + ε für ein ε < β + γ. u t Die Ordinalzahlmultiplikation definieren wir durch α · 0 := 0, α · (β + 1) := (α · β) + α, α · β := sup{ α · γ | γ < β } falls β Limeszahl. Wir schreiben αβ für α · β. Lemma 5.6.2. (Eigenschaften der Ordinalzahlmultiplikation). 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. αβ ∈ On. 0β = 0, 1β = β. ∃α, β(αβ 6= βα). 0 < α ∧ β < γ → αβ < αγ. Es gibt α, β, γ mit 0 < γ und α < β, aber αγ 6< βγ. α ≤ β → αγ ≤ βγ. Ist 0 < α und β Limeszahl, so ist auch αβ Limeszahl. α(β + γ) = αβ + αγ. Es gibt α, β, γ mit (α + β)γ 6= αγ + αγ. αβ = 0 → α = 0 ∨ β = 0. (αβ)γ = α(βγ). 5.6 Ordinalzahlarithmetik 119 12. Ist 0 < β, so gibt es genau ein γ, ρ mit α = βγ + ρ und ρ < β. Beweis. 1. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist α(β + 1) = (αβ) + α ∈ On, da nach IH αβ ∈ On. Fall β Limeszahl. Dann ist αβ = sup{ αγ | γ < β } ∈ On, da nach IH αγ ∈ On für alle γ < β. 2. 0β = 0: Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist 0(β + 1) = (0β) + 0 = 0 nach IH. Fall β Limeszahl. 0β = sup{ 0γ | γ < β } = 0 nach IH. – 1β = β: Induktion über β. Fall 0. Klar. Fall β +1. Dann ist 1(β + 1) = (1β) + 1 = β + 1 nach IH. Fall β Limeszahl. 1β = sup{ 1γ | γ < β } = sup{ γ | γ < β } = β nach IH. 3. Man beachte zunächst, daß für alle n ∈ ω gilt nω = sup{ nm | m < ω } = ω. Damit folgt 2ω = ω, aber ω2 = ω(1 + 1) = ω1 + ω = ω + ω > ω. 4. Sei 0 < α. Wir zeigen β < γ → αβ < αγ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist β < γ + 1, β < γ ∨ β = γ, αβ < αγ ∨ αβ = αγ nach IH, αβ ≤ αγ < (αγ) + α = α(γ + 1). Fall γ Limeszahl. Sei β < γ, also β < δ für ein δ < γ. Dann gilt αβ < αδ nach IH, also αβ < sup{ αδ | δ < γ } = αγ. 5. Es ist 0 < ω und 1 < 2, aber 1ω = ω = 2ω. 6. Wir zeigen die Behauptung α ≤ β → αγ ≤ βγ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist αγ ≤ βγ nach IH, (αγ) + α ≤ (βγ) + α ≤ (βγ) + β α(γ + 1) ≤ β(γ + 1) nach Lemma 5.6.1(6) und (4) nach Definition. Fall γ Limeszahl. Dann ist αδ ≤ βδ für alle δ < γ, nach IH, αδ ≤ sup{ βδ | δ < γ }, sup{ αδ | δ < γ } ≤ sup{ βδ | δ < γ }, αγ ≤ βγ nach Definition. 7. Sei 0 < α und β Limeszahl. Zum Beweis von αβ Limeszahl verwenden wir wieder die in Lemma 5.3.27(1) gegebene Charakterisierung von Limeszahlen. αβ 6= 0: Wegen 1 ≤ α und ω ≤ β ist 0 < ω = 1ω ≤ αβ nach (6). γ < αβ → γ + 1 < αβ: Sei γ < αβ = sup{ αδ | δ < β }, also γ < αδ für ein δ < β, also γ + 1 < αδ + 1 ≤ αδ + α = α(δ + 1) mit δ + 1 < β, also γ + 1 < sup{ αδ | δ < β }. 8. Zu zeigen ist α(β + γ) = αβ + αγ. OBdA sei 0 < α. Wir verwenden Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist α[β + (γ + 1)] = α[(β + γ) + 1] = α(β + γ) + α = (αβ + αγ) + α = αβ + (αγ + α) nach IH = αβ + α(γ + 1). Fall γ Limeszahl. Nach (7) ist dann auch αγ Limeszahl. Man erhält α(β + γ) = sup{ αδ | δ < β + γ } = sup{ α(β + ε) | ε < γ } = sup{ αβ + αε | ε < γ } nach IH = sup{ αβ + δ | δ < αγ } = αβ + αγ. 120 5. Mengenlehre 9. (1 + 1)ω = 2ω = ω, aber 1ω + 1ω = ω + ω. 10. Ist 0 < α, β, also 1 ≤ α, β, so folgt 0 < 1 · 1 ≤ αβ. 11. Induktion über γ. OBdA sei β 6= 0. Fall 0. Klar. Fall γ + 1. Dann ist (αβ)(γ + 1) = (αβ)γ + αβ = α(βγ) + αβ = α(βγ + β) nach IH nach (8) = α[β(γ + 1)] Fall γ Limeszahl. Nach (7) ist dann auch βγ Limeszahl. Man erhält (αβ)γ = sup{ (αβ)δ | δ < γ } = sup{ α(βδ) | δ < γ } nach IH = sup{ αε | ε < βγ } = α(βγ). 12. Existenz: Sei 0 < β, also 1 ≤ β und deshalb α = 1α ≤ βα. Sei γ die kleinste Ordinalzahl mit α ≤ βγ. Fall α = βγ. Setze ρ = 0. Fall α < βγ. Ist dann γ = γ 0 + 1, so ist βγ 0 < α. Es gibt also ein ρ mit βγ 0 + ρ = α. Ferner ist ρ < β, denn aus ρ ≥ β folgt α = βγ 0 + ρ ≥ βγ 0 + β = β(γ 0 + 1) = βγ im Widerspruch zur Fallunterscheidungsannahme. Ist γ Limeszahl, so gilt α < βγ = sup{ βδ | δ < γ }, also α < βδ für ein δ < γ, was nicht sein kann. Eindeutigkeit: Gelte βγ1 + ρ1 = βγ2 + ρ2 mit ρ1 , ρ2 < β. Ist etwa γ1 < γ2 , so folgt βγ1 + ρ1 < βγ1 + β = β(γ1 + 1) ≤ βγ2 ≤ βγ2 + ρ2 und damit ein Widerspruch. Also ist γ1 = γ2 , und deshalb auch ρ1 = ρ2 . u t Korollar 5.6.3. Jede Ordinalzahl α läßt sich eindeutig in der Form α = ωγ + n darstellen. Hierbei ist n = 0 genau dann, wenn α = 0 oder α Limeszahl ist. Beweis. Es ist nur noch zu zeigen, daß für jedes γ gilt ωγ = 0 oder ωγ ist Limeszahl. Im Fall γ = 0 ist dies klar. Im Fall γ + 1 ist ω(γ + 1) = ωγ + ω Limeszahl nach Lemma 5.6.1(8). Im Fall γ Limeszahl ist nach Lemma 5.6.2(7) auch ωγ Limeszahl. u t Die Ordinalzahlexponentiation definieren wir durch ( 0, falls α = 0; α0 := 1, sonst, αβ+1 := αβ α, αβ := sup{ αγ | γ < β } falls β Limeszahl. Lemma 5.6.4. (Eigenschaften der Ordinalzahlexponentiation). 1. 2. 3. 4. 5. 6. 7. 8. αβ ∈ On. 0β = 0, 1β = β. 1 < α ∧ β < γ → αβ < α γ . Es gibt α, β, γ mit 1 < γ und 1 < α < β, aber αγ 6< β γ . α ≤ β → αγ ≤ β γ . Ist 1 < α und β Limeszahl, so ist auch αβ Limeszahl. αβ+γ = αβ αγ . αβγ = (αβ )γ . 5.6 Ordinalzahlarithmetik 121 9. 1 < α → β ≤ αβ . Beweis. 1. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist αβ+1 = (αβ )α ∈ On, da nach IH αβ ∈ On. Fall β Limeszahl. Dann ist αβ = sup{ αγ | γ < β } ∈ On, da nach IH αγ ∈ On für alle γ < β. 2. 0β = 0: Induktion über β. Fall 0. 00 = 0 gilt nach Definition. Fall β + 1. Dann ist 0β+1 = (0β )0 = 0. Fall β Limeszahl. 0β = sup{ 0γ | γ < β } = 0 nach IH. – 1β = 1: Induktion über β. Fall 0. Klar. Fall β +1. Dann ist 1β+1 = (1β )1 = 1 nach IH. Fall β Limeszahl. 1β = sup{ 1γ | γ < β } = sup{ 1 | γ < β } = 1 nach IH. 3. Sei 1 < α. Wir zeigen β < γ → αβ < αγ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist β < γ + 1, β < γ ∨ β = γ, αβ < α γ ∨ αβ = αγ β γ nach IH, γ γ α ≤α <α +α ≤α γ+1 . Fall γ Limeszahl. Sei β < γ, also β < δ für ein δ < γ. Dann gilt αβ < αδ nach IH, also αβ < sup{ αδ | δ < γ } = αγ . 4. Für 1 < n gilt nω = sup{ nm | m < ω } = ω und damit 2ω = ω = 3ω . 5. Wir zeigen die Behauptung α ≤ β → αγ ≤ β γ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Sei also α ≤ β. Dann ist α αγ ≤ β γ γ+1 nach IH, γ =α α ≤ βγ α ≤ βγ β = β γ+1 . Fall γ Limeszahl. Sei wieder α ≤ β. Dann ist αδ ≤ β δ δ für alle δ < γ, nach IH, δ α ≤ sup{ β | δ < γ } sup{ αδ | δ < γ } ≤ sup{ β δ | δ < γ } nach Definition. αγ ≤ β γ 6. Sei 1 < α und β Limeszahl. Zum Beweis von αβ Limeszahl verwenden wir wieder die in Lemma 5.3.27(1) gegebene Charakterisierung von Limeszahlen. αβ 6= 0: Wegen 1 ≤ α ist 1 = 1β ≤ αβ . γ < αβ → γ + 1 < αβ : Sei γ < αβ = sup{ αδ | δ < β }, also γ < αδ für ein δ < β, also γ + 1 < αδ + 1 ≤ αδ 2 ≤ αδ+1 mit δ + 1 < β, also γ + 1 < sup{ αδ | δ < β }. 7. Zu zeigen ist αβ+γ = αβ αγ . OBdA sei α = 6 0, 1. Wir verwenden Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist αβ+γ+1 = αβ αγ α β =α α γ+1 nach IH . Fall γ Limeszahl. Man erhält αβ+γ = sup{ αδ | δ < β + γ } = sup{ αβ+ε | ε < γ } = sup{ αβ αε | ε < γ } β γ = sup{ α δ | δ < α } = α β αγ . nach IH 122 5. Mengenlehre 8. Zu zeigen ist αβγ = (αβ )γ . OBdA sei α 6= 0, 1 und β 6= 0. Wir verwenden Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist αβ(γ+1) = αβγ αβ = (αβ )γ αβ β γ+1 = (α ) nach IH . Fall γ Limeszahl. Wegen α 6= 0, 1 und β 6= 0 sind dann αβγ und (αβ )γ Limeszahlen und man erhält αβγ = sup{ αδ | δ < βγ } = sup{ αβε | ε < γ } = sup{ (αβ )ε | ε < γ } nach IH β γ = (α ) . 9. Sei 1 < α. Wir zeigen β ≤ αβ durch Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist β ≤ αβ nach IH, also β + 1 ≤ αβ + 1 ≤ αβ + αβ ≤ αβ+1 . Fall β Limeszahl. Man erhält = sup{ γ | γ < β } ≤ sup{ αγ | γ < β } nach IH β =α . t u Satz 5.6.5. ( Cantor-Normalform). Sei γ ≥ 2. Jedes α läßt sich eindeutig darstellen in der Form α = γ α1 β1 + · · · + γ αn βn mit α ≥ α1 > · · · > αn und 0 < βi < γ. Beweis. Existenz. Induktion über α. Sei δ minimal mit α < γ δ ; ein solches δ existiert, da α ≤ γ α . Dann kann δ keine Limeszahl sein, da sonst α < γ ε für ein ε < δ wäre. Ist δ = 0, so folgt α = 0 und die Behauptung ist trivial. Sei also δ = α1 + 1, also γ α1 ≤ α < γ α1 +1 . Division mit Rest ergibt α = γ α1 β1 + ρ mit ρ < γ α1 . Offenbar ist 0 < β1 < γ. Ist jetzt ρ = 0, so sind wir fertig. Andernfalls haben wir ρ = γ α2 β2 + · · · + γ αn βn nach IH. Zu zeigen bleibt α1 > α2 . Dies gilt, da aus α2 ≥ α1 folgt ρ ≥ γ α2 ≥ γ α1 , was nicht sein kann. Eindeutigkeit. Sei 0 0 0 γ α1 β1 + · · · + γ αn βn = γ α1 β10 + · · · + γ αm βm . und nehmen wir an, daß beide Darstellungen verschieden sind. Da keine Darstellung Verlängerung der anderen sein kann, gibt es dann ein i ≤ n, m mit (αi , βi ) 6= (αi0 , βi0 ). Nach Lemma 5.6.1(4) können wir oBdA i = 1 annehmen. Zunächst gilt γ α1 β1 + · · · + γ αn−1 βn−1 + γ αn βn < γ α1 β1 + · · · + γ αn−1 βn−1 + γ αn +1 ≤ γ α1 β1 + · · · + γ αn−1 (βn−1 + 1) ≤ γ α1 β1 + · · · + γ αn−1 +1 ... ≤ γ α1 (β1 + 1). da βn < γ da αn < αn−1 5.7 Normalfunktionen 123 0 Wäre etwa α1 < α10 , so hätte man γ α1 β1 + · · · + γ αn βn < γ α1 (β1 + 1) ≤ γ α1 +1 ≤ γ α1 , was nicht sein kann. Also ist α1 = α10 . Wäre nun etwa β1 < β10 , so hätte man γ α1 β1 + · · · + γ αn βn < γ α1 (β1 + 1) ≤ γ α1 β10 , was u t wieder nicht sein kann. Also ist β1 = β10 . Korollar 5.6.6. ( Cantor-Normalform zur Basis ω). Jedes α läßt sich eindeutig darstellen in der Form α = ω α1 + · · · + ω αn mit α ≥ α1 ≥ · · · ≥ αn . u t Eine Ordinalzahl α heißt additive Hauptzahl , wenn α 6= 0 ist und aus β, γ < α stets folgt β + γ < α. Korollar 5.6.7. Additive Hauptzahlen sind genau die Ordinalzahlen der Form ω ξ . Beweis. Dies ergibt sich leicht aus der Cantor-Normalform zur Basis ω. u t Korollar 5.6.8. ( Cantor-Normalform zur Basis 2). Jedes α läßt sich eindeutig darstellen in der Form α = 2α1 + · · · + 2αn mit α ≥ α1 > · · · > αn . u t Wir setzen noch ω0 := 1, ωk+1 := ω ωk und ε0 := supk<ω ωk . 5.7 Normalfunktionen In [45] hat Veblen den Begriff einer stetigen monotonen Funktion auf einem Abschnitt der Ordinalzahlen untersucht und eine gewisse Hierarchie von Normalfunktionen eingeführt. Seine Absicht war dabei, die Cantorsche Theorie der ε-Zahlen aus [5] zu erweitern. Sei Ω eine eine reguläre Kardinalzahl > ω oder Ω = On. Ein wichtiges Beispiel ist Ω = ℵ1 , also der Fall, daß Ω die Menge der abzählbaren Ordinalzahlen ist. Mit α, β, γ, δ, ε, ξ, η, ζ bezeichnen wir Elemente von Ω. Eine Funktion ϕ : Ω → Ω heißt monoton, wenn aus α < β stets folgt ϕα < ϕβ. ϕ heißt stetig, wenn gilt ϕα = supξ<α ϕξ für jede Limeszahl α. ϕ heißt normal , wenn ϕ monoton und stetig ist. Lemma 5.7.1. Für jede monotone Funktion ϕ gilt α ≤ ϕα. Beweis. Induktion über α. Fall 0. 0 ≤ ϕ0. Fall α + 1. α ≤ ϕα < ϕ(α + 1). Fall α Limeszahl. α = supξ<α ξ ≤ supξ<α ϕξ ≤ ϕα. t u Eine Klasse B ⊆ Ω heißt beschränkt, wenn sup(B) ∈ Ω. Eine Klasse A ⊆ Ω heißt abgeschlossen, wenn für jede beschränkte Teilklasse B ⊆ A gilt sup(B) ∈ A. Abgeschlossene unbeschränkte Klassen A ⊆ Ω heißen normal in Ω oder auch club in Ω (club steht für “closed unbounded”). Ist zum Beispiel Ω = Ω1 , so ist jedes B ⊆ Ω eine Menge, und B ist genau dann beschränkt, wenn B abzählbar ist. Ist Ω = On, so ist B genau dann beschränkt, wenn B eine Menge ist. Nach Korollar 5.3.19 (zum Isomorphiesatz von Mostowski) gibt es zu jedem A ⊆ On einen eindeutig bestimmten Isomorphismus einer ordinalen Klasse auf A, also ein f : On → A bzw. f : α → A. Diesen Isomorphismus nennt man die Ordnungsfunktion von A. f heißt auch die monotone Aufzählung von A. Lemma 5.7.2. Der Wertebereich einer Normalfunktion ist eine normale Klasse. Umgekehrt ist die Ordnungsfunktion einer normalen Klasse eine Normalfunktion. Beweis. Sei ϕ eine Normalfunktion. ϕ[Ω] ist unbeschränkt, da für jedes α gilt α ≤ ϕα. Wir zeigen jetzt, daß ϕ[Ω] abgeschlossen ist. Sei also B = { ϕξ | ξ ∈ A } beschränkt, d.h. sup(B) ∈ Ω. Wegen ξ ≤ ϕξ ist dann auch A beschränkt. Zu zeigen ist sup(B) = ϕα für ein α. Hat A ein maximales Element, so sind wir fertig. Andernfalls sei α := sup(A). Offenbar ist α eine Limeszahl. Dann gilt ϕα = supξ<α ϕξ = supξ∈A ϕξ = sup(B). Sei umgekehrt A abgeschlossen und unbeschränkt. Wir definieren eine Funktion ϕ : Ω → A durch transfinite Rekursion, wie folgt. ϕα := min{ γ ∈ A | ∀ξ(ξ < α → ϕξ < γ) }. ϕ ist wohldefiniert, da A unbeschränkt ist. Offenbar ist ϕ die Ordnungsfunktion von A und deshalb monoton. Es bleibt zu zeigen, daß ϕ stetig ist. Sei also α eine Limeszahl. Da ϕ[α] beschränkt ist (dies folgt aus ϕξ < ϕα für ξ < α) und A abgeschlossen ist, gilt supξ∈α ϕξ ∈ A, also nach Definition ϕα = supξ∈α ϕξ. u t 124 5. Mengenlehre Lemma 5.7.3. Die Fixpunkte einer Normalfunktion bilden eine normale Klasse. Beweis. (vgl. Cantor [5, p. 242]). Sei ϕ eine Normalfunktion. Für jede Ordinalzahl α erhalten wir einen Fixpunkt β ≥ α von ϕ durch β := sup{ ϕn α | n ∈ N }. Also ist die Klasse der Fixpunkte von ϕ unbeschränkt. Sie ist auch abgeschlossen, da für jede Klasse B von Fixpunkten von ϕ gilt ϕ(sup(B)) = sup{ ϕα | α ∈ B } = sup{ α | α ∈ B } = sup(B), d.h. sup(B) ist u t ein Fixpunkt von ϕ. Die Ordnungsfunktion der Klasse der Fixpunkte einer Normalfunktion ϕ heißt nach Veblen die erste Ableitung ϕ0 von ϕ. Zum Beispiel ist die erste Ableitung der Funktion ω ξ die Funktion εξ . Lemma 5.7.4. ( Veblen [45, p. 284]). T Sei (Aγ )γ<β mit β Limeszahl eine fallende Folge normaler Klassen. Dann ist auch der Durchschnitt γ<β Aγ normal. Beweis. Unbeschränktheit. Sei α gegeben und δγ := min{ ξ ∈ Aγ | ξ > α }. Dann ist (δγ )γ<βTschwach monoton. Sei δ := supγ<β δγ . Dann T ist δ ∈ Aγ für jedes γ < β, da die Aγ fallen. Also ist α < δ ∈ γ<β Aγ . Abgeschlossenheit. Sei B ⊆ Tγ<β Aγ , B beschränkt. Dann gilt B ⊆ Aγ für jedes γ < β und deshalb sup(B) ∈ Aγ . Also ist sup(B) ∈ γ<β Aγ . u t Wir definieren jetzt die Veblen-Hierarchie von Normalfunktionen. Sie geht aus von einer beliebigen gegebenen Normalfunktion ϕ : Ω → Ω. Wir verwenden transfinite Rekursion, um für jedes β ∈ Ω eine Normalfunktion ϕβ : Ω → Ω zu definieren: ϕ0 := ϕ, 0 ϕβ+1 := (ϕβ ) , T für Limeszahlen β sei ϕβ die Ordnungsfunktion für γ<β ϕγ [Ω]. Etwa für ϕα := 1 + α erhält man ϕβ α = ω β + α. Beginnt man mit ϕα := ω α , so ist ϕ1 α = εα und ϕ2 zählt die kritischen ε-Zahlen auf, d.h. die Ordinalzahlen α mit εα = α. Lemma 5.7.5. Sei β > 0. Dann ist ϕβ die Ordnungsfunktion der Klasse aller gemeinsamen Fixpunkte aller ϕγ für γ < β. Beweis. Wir müssen zeigen ϕβ [Ω] = { ξ | ∀γ(γ < β → ϕγ ξ = ξ) }. ⊆. Dies beweist man durch transfinite Induktion nach β. Im Fall β + 1 ist jedes ϕβ+1 α ein Fixpunkt von ϕβ und deshalb nachTIH auch ein Fixpunkt aller ϕγ für γ < β. Ist β eine Limeszahl, so folgt die Behauptung aus ϕβ [Ω] = γ<β ϕγ [Ω]. ⊇. Sei ξ mit ∀γ(γ < β → ϕγ ξ = ξ) gegeben. Ist β ein Nachfolger, so gilt ξ ∈ ϕβ [Ω] nach Definition T von ϕβ . Ist β eine Limeszahl, so gilt ξ ∈ γ<β ϕγ [Ω] = ϕβ [Ω]. t u Hieraus folgt, daß gilt ϕγ (ϕβ ξ) = ϕβ ξ für jedes γ < β. Eine weitere Normalfunktion erhält man wie folgt. Aus jeder der normalen Klassen ϕβ [Ω] nehme man den kleinsten Fixpunkt heraus. Die auf diese Weise gebildete Klasse ist wieder normal, läßt sich also durch eine Normalfunktion aufzählen. Diese Normalfunktion ordnet also jedem β die Ordinalzahl ϕβ 0 zu. Lemma 5.7.6. Ist ϕ eine Normalfunktion mit 0 < ϕ0, so ist auch λβ ϕβ 0 eine Normalfunktion. Beweis. Wir zeigen zunächst β < γ → ϕβ 0 < ϕγ 0, und zwar durch Induktion über γ. Sei also β < γ. Man beachte, daß 0 < ϕβ 0 nach IH oder im Fall β = 0 nach Annahme. Also ist 0 kein Fixpunkt von ϕβ und deshalb 0 < ϕγ 0. Hieraus folgt aber ϕβ 0 < ϕβ (ϕγ 0) = ϕγ 0. Wir zeigen jetzt, daß λβϕβ 0 stetig ist. Sei δ := supβ<γ ϕβ 0 mit γ Limeszahl. Wir müssen zeigen δ =Tϕγ 0. Da ϕβ 0 ∈ ϕα [Ω] für alle α ≤ β < γ und da ϕα [Ω] abgeschlossen ist, gilt δ ∈ ϕα [Ω], also t δ ∈ α<γ ϕα [Ω] = ϕγ [Ω] und deshalb δ ≥ ϕγ 0. Andererseits ist ϕβ 0 < ϕβ (ϕγ 0) = ϕγ 0, also δ ≤ ϕγ 0. u 5.7 Normalfunktionen 125 Die Fixpunkte dieser Funktion, d.h. die Ordinalzahlen α mit ϕα 0 = α, heißen stark kritische Ordinalzahlen. Man beachte, daß sie von der oben als gegeben vorausgesetzten Normalfunktion ϕ = ϕ0 abhängen. Ihre Ordnungsfunktion wird meist mit Γ bezeichnet. Nach Definition ist also Γ0 := Γ 0 die kleinste Ordinalzahl β mit ϕβ 0 = β. Wir wollen jetzt eine Verallgemeinerung der Cantorschen Normalform herleiten, die auf der VeblenHierarchie aufbaut (anstelle von ω ξ ). Lemma 5.7.7. ϕβ0 α0 < ϕβ1 α1 ϕβ0 α0 = ϕβ1 α1 α0 < ϕβ1 α1 , ⇐⇒ α0 < α1 , ϕβ0 α0 < α1 , α0 = ϕβ1 α1 , ⇐⇒ α0 = α1 , ϕβ0 α0 = α1 , falls β0 < β1 ; falls β0 = β1 ; falls β0 > β1 , (5.2) falls β0 < β1 ; falls β0 = β1 ; falls β0 > β1 . (5.3) Beweis. ⇐=. (5.2). Ist β0 < β1 und α0 < ϕβ1 α1 , so gilt ϕβ0 α0 < ϕβ0 ϕβ1 α1 = ϕβ1 α1 . Ist β0 = β1 und α0 < α1 , so folgt ϕβ0 α0 < ϕβ1 α1 . Ist β0 > β1 und ϕβ0 α0 < α1 , so gilt ϕβ0 α0 = ϕβ1 ϕβ0 α0 < ϕβ1 α1 . Für (5.3) schließt man analog. =⇒. Ist die rechte Seite von (5.2) falsch, so gilt α1 ≤ ϕβ0 α0 , falls β1 < β0 ; α1 ≤ α0 , falls β1 = β0 ; ϕβ1 α1 ≤ α0 , falls β1 > β0 , also nach ⇐= (mit 0 und 1 vertauscht) ϕβ1 α1 < ϕβ0 α0 bzw. ϕβ1 α1 = ϕβ0 α0 , also ¬(ϕβ0 α0 < ϕβ1 α1 ). Ist die rechte Seite von (5.3) falsch, so gilt 6 ϕβ1 α1 , falls β0 < β1 ; α0 = α0 6= α1 , falls β0 = β1 ; 6 α1 , falls β0 > β1 , ϕβ0 α0 = und damit nach ⇐= in (5.2) entweder ϕβ0 α0 < ϕβ1 α1 oder ϕβ1 α1 < ϕβ0 α0 , also ϕβ0 α0 6= ϕβ1 α1 . u t Korollar 5.7.8. Gilt β0 ≤ β1 , so ist ϕβ0 α ≤ ϕβ1 α. Beweis. Gelte β0 < β1 . Nach Lemma 5.7.7 (für ≤) genügt es zu zeigen α ≤ ϕβ1 α. Dies folgt aber aus Lemma 5.7.1. t u Korollar 5.7.9. Gilt ϕβ0 α0 = ϕβ1 α1 , so ist α0 = α1 und β0 = β1 , falls α0 < ϕβ0 α0 und α1 < ϕβ1 α1 . Beweis. Fall β0 = β1 . Dann folgt α0 = α1 aus Lemma 5.7.7. Fall β0 < β1 . Nach Lemma 5.7.7 gilt dann α0 = ϕβ1 α1 = ϕβ0 α0 im Widerspruch zu unserer Annahme. Fall β1 < β0 . Ähnlich. u t Korollar 5.7.10. Ist ϕ eine Normalfunktion mit 0 < ϕ0, so kann jeder Fixpunkt α von ϕ = ϕ0 eindeutig in der Form α = ϕβ α0 mit α0 < α geschrieben werden. Beweis. Es gilt α + 1 ≤ ϕα+1 0 nach Lemma 5.7.6 und deshalb α < ϕα+1 α. Sei nun β minimal mit α < ϕβ α. Nach Annahme ist 0 < β. Da α Fixpunkt aller ϕγ mit γ < β ist, gilt α = ϕβ α0 für ein α0 . Mit α < ϕβ α folgt α0 < α. Eindeutigkeit. Sei noch α = ϕβ1 α1 mit α1 < α. Dann ist α1 < ϕβ1 α1 , also β ≤ β1 nach Wahl von β. Wäre nun β < β1 , so folgte ϕβ α = ϕβ ϕβ1 α1 = ϕβ1 α1 = α im Widerspruch zur Wahl von β. Also ist β = β1 und damit α1 = α. u t Wir zeigen jetzt, daß sich jede Ordinalzahl eindeutig in einer gewissen ϕ-Normalform schreiben läßt. Hierbei nehmen wir an, daß unsere Ausgangs-Normalfunktion ϕ0 = ϕ die Exponentiation zur Basis ω ist. 126 5. Mengenlehre Satz 5.7.11 (ϕ-Normalform). Sei ϕ0 ξ := ω ξ . Dann läßt sich jede Ordinalzahl α eindeutig schreiben in der Form α = ϕβ1 α1 + · · · + ϕβn αn mit ϕβ1 α1 ≥ · · · ≥ ϕβn αn und αi < ϕβi αi für i = 1, . . . , k. Ist α < Γ0 , so gilt zusätzlich βi < ϕβi αi für i = 1, . . . , n. Beweis. Existenz. Zunächst schreibe man α in Cantor-Normalform α = ϕ0 δ1 +· · ·+ϕ0 δn mit δ1 ≥ · · · ≥ δn . Jeden Summanden mit δi < ϕ0 δi lasse man unverändert. Jeder andere Summand erfüllt δi = ϕ0 δi und kann deshalb nach Korollar 5.7.10 durch ϕβ α0 mit α0 < ϕβ α0 ersetzt werden. Eindeutigkeit. Sei 0 0 α α = ϕβ1 α1 + · · · + ϕβn αn = ϕβ10 α10 + · · · + ϕβm m und nehmen wir an, daß beide Darstellungen verschieden sind. Da keine Darstellung Verlängerung der anderen sein kann, gibt es dann ein i ≤ n, m mit (βi , αi ) 6= (βi0 , αi0 ). Nach Lemma ordadd.g können wir oBdA i = 1 annehmen. Wäre etwa ϕβ1 α1 < ϕβ10 α10 , so hätte man (da ϕβ10 α10 additive Hauptzahl ist und ϕβ1 α1 ≥ · · · ≥ ϕβn αn gilt) 0 0 α ϕβ1 α1 + · · · + ϕβn αn < ϕβ10 α10 ≤ ϕβ10 α10 + · · · + ϕβm m, was nicht sein kann. Zu zeigen bleibt, daß im Fall α < Γ0 gilt βi < ϕβi αi für i = 1, . . . , n. Nehmen wir also an, daß ϕβi αi ≤ βi für ein i. Dann erhält man ϕβi 0 ≤ ϕβi αi ≤ βi ≤ ϕβi 0, also ϕβi 0 = βi und deshalb Γ0 ≤ βi = ϕβi 0 ≤ ϕβi αi ≤ α. u t Aus den ϕβ (α) erhält man also ein eindeutiges Bezeichnungssystem für Ordinalzahlen unterhalb von Γ0 := Γ 0. Man beachte jedoch, daß nach Definition von Γ0 gilt Γ0 = ϕΓ0 0. 5.8 Anmerkungen Die hier vorgestellte Mengenlehre wird in der Literatur mit ZFC bezeichnet (Zermelo-FraenkelMengenlehre mit Auswahlaxiom C für Choice). Zermelo hat 1908 die Axiome angegeben mit Ausnahme des Regularitätsaxioms (von Neumann, 1925) und des Ersetzungsschemas (Fraenkel, 1922). Auch Skolem betrachtete Prinzipien, die zu den beiden nachträglichen Axiomen verwandt sind. In ZFC gibt es nur Mengen als Objekte, Klassen sind nur eine Sprechweise und können immer mit Formeln identifiziert werden. Die in Abschnitt 5.7 definierte Hierarchie von Normalfunktionen wurde von Veblen [45] auf Funktionen mit mehr als einem Argument erweitert. Schütte hat in [30] diese Funktionen genauer untersucht und gezeigt, daß und wie sie für eine konstruktive Darstellung eines weit über Γ0 hinausreichenden Abschnitts der Ordinalzahlen verwendet werden können. Dazu hat er sogenannte “Klammersymbole” zur Bezeichnung der mehrstelligen Veblen-Funktionen eingeführt. Bachmann hat die Veblen-Hierarchie unter Verwendung der ersten überabzählbaren Ordinalzahl Ω erweitert. Sein Ansatz wurde später durch Hinzunahme von Symbolen für höhere Zahlenklassen erweitert, zuerst von Pfeiffer für endliche Zahlenklassen und dann von Isles für transfinite Zahlenklassen. Die entstehende Theorie war jedoch sehr kompliziert und es war schwierig, mit ihr zu arbeiten. Eine Idee von Feferman hat dann den Gegenstand sehr vereinfacht: Er führte Funktionen θα : On → On mit α ∈ On ein, die wieder eine Hierarchie von Normalfunktionen bildeten und die Veblen-Hierarchie erweiterten; man schreibt meist θαβ anstelle von θα (β) und sieht θ als eine zweistellige Funktion an. Die Ordinalzahlen θαβ werden wie folgt durch transfinite Rekursion über α definiert. Nehmen wir an, daß θξ für jedes ξ < α schon definiert ist. Sei C(α, β) die Menge aller Ordinalzahlen, die sich aus Ordinalzahlen < β und etwa den Konstanten 0, ℵ1 , . . . , ℵω mit Hilfe der Funktionen + und θ{ ξ | ξ < α } × On erzeugen 5.8 Anmerkungen 127 / C(α, β). θα : On → On wird dann definiert als die lassen. Eine Ordinalzahl β heiße α-kritisch, wenn β ∈ Ordnungsfunktion der Klasse aller α-kritischen Ordinalzahlen. Buchholz hat in [3] bemerkt, daß das zweite Argument β in θαβ nicht wesentlich benutzt wird, und daß die Funktionen α 7→ θαℵv mit v = 0, 1, . . . , ω ein Bezeichnungssystem für Ordinalzahlen von derselben Stärke erzeugen wie das System mit der zweistelligen θ-Funktion. Er hat deshalb direkt Funktionen ψv mit v ≤ ω definiert, die α 7→ θαℵv entsprechen. Genauer definiert er ψv α für α ∈ On und v ≤ ω durch transfinite Rekursion über α, und zwar simultan für alle v, wie folgt. ψv α := min{ γ | γ ∈ / Cv (α) }, wobei Cv (α) die Menge aller Ordinalzahlen ist, die sich aus den Ordinalzahlen < ℵv durch die Funktionen + und alle ψu { ξ | ξ < α } mit u ≤ ω erzeugen lassen. 128 5. Mengenlehre 6. Beweistheorie der Arithmetik In diesem Kapitel nehmen wir die Behandlung der Beweistheorie wieder auf. Allerdings verlassen wir den Bereich der reinen Logik und betrachten induktiv erzeugte Datenstrukturen; das Standardbeispiel ist die Menge der natürlichen Zahlen, die wir uns aus aus der Null mit der Nachfolgerfunktion erzeugt denken. Wir behandeln die Frage nach Beweisbarkeit und Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion in der Arithmetik. Es wird sich zeigen, daß wir hier eine scharfe Schranke erhalten, nämlich die Ordinalzahl ε0 . Als Folgerung hieraus werden wir in Abschnitt 6.4 zeigen, daß ein Normalisierungssatz, der die Teilformeleigenschaft impliziert, in der Arithmetik nicht gelten kann. 6.1 Gödelisierung von Ordinalzahlen Um in arithmetischen Theorien über Ordinalzahlen sprechen zu können, verwenden wir eine Gödelisierung von Ordinalzahlen. Dies ist sicher nur für abzählbare Mengen von Ordinalzahlen möglich. Wir beschränken uns hier auf den durch ε0 bestimmten Abschnitt der Ordinalzahlen. Unsere Gödelisierung können wir dann aus der Cantor-Normalform erhalten. Mit α, β, γ bezeichnen wir in diesem Abschnitt stets Ordinalzahlen < ε0 . Wir müssen ferner wissen, daß gewissen Relationen und Funktionen über den Ordinalzahlen < ε0 berechenbare Relationen und Funktionen entsprechen. Dazu stellen wir folgendes fest. Lemma 6.1.1. Seien ω αm + · · · + ω α0 und ω βn + · · · + ω β0 Cantor-Normalformen (mit m, n ≥ −1). Dann gilt ω αm + · · · + ω α0 < ω β n + · · · + ω β 0 genau dann, wenn es ein i ≥ 0 gibt so daß αm−i < βn−i , αm−i+1 = βn−i+1 , . . . , αm = βn , oder m < n und αm = βn , . . . , α0 = βn−m . Beweis. Übung. u t Wir verwenden die Bezeichnungen 1 für ω 0 , a für ω 0 + · · · + ω 0 mit a Exemplaren von ω 0 und ω α a für ω α + · · · + ω α wieder mit a Exemplaren von ω α . u t Lemma 6.1.2. Seien ω αm + · · · + ω α0 und ω βn + · · · + ω β0 Cantor-Normalformen. Dann gilt ω αm + · · · + ω α0 + ω βn + · · · + ω β0 = ω αm + · · · + ω αi + ω βn + · · · + ω β0 , wobei i minimal ist so daß αi ≥ βn ; falls es kein solches i gibt, sei i = m + 1 (also ω βn + · · · + ω β0 ). u t Beweis. Übung. Man kann auch eine kommutative Version der Addition definieren. Dies ist die sogenannte natürliche Summe oder Hessenberg-Summe zweier Ordinalzahlen. Für Cantor-Normalformen ω αm + · · · + ω α0 und ω βn + · · · + ω β0 wird sie definiert durch (ω αm + · · · + ω α0 )#(ω βn + · · · + ω β0 ) := ω γm+n+1 + · · · + ω γ0 , wobei γm+n+1 , . . . , γ0 eine fallende Permutation von αm , . . . , α0 , βn , . . . , β0 ist. Lemma 6.1.3. # ist assoziativ, kommutativ und wachsend in beiden Argumenten. 130 6. Beweistheorie der Arithmetik Beweis. Übung. u t Wir definieren jetzt eine Bijektion zwischen Ordinalzahlen < ε0 und natürlichen Zahlen. Für diese Definition ist es nützlich, Ordinalzahlen darzustellen in der Form ω αm am + · · · + ω α0 a0 mit αm > · · · > α0 und ai 6= 0 (m ≥ −1). Für jede Ordinalzahl α definieren wir ihre Gödelnummer pαq induktiv durch Y papαi i q − 1, pω αm am + · · · + ω α0 a0 q := i≤m wobei pn die n-te Primzahl ist, beginnend mit p0 := 2. Für jede natürliche Zahl x definieren wir ihre entsprechende Ordinalzahl o(x) induktiv durch Y X o piai − 1 := ω o(i) ai , i≤m i≤m wobei die Summe als natürliche Summe zu verstehen ist. Lemma 6.1.4. 1. o(pαq) = α. 2. po(x)q = x. Beweis. Übung. u t Wir haben also eine einfache Bijektion zwischen den Ordinalzahlen < ε0 und den natürlichen Zahlen. Es ist nützlich, für einige Relationen und Funktionen auf den Ordinalzahlen besondere Bezeichnungen für die entsprechenden Relationen und Funktionen auf den natürlichen Zahlen einzuführen. Wir schreiben x≺y für o(x) < o(y), ωx x⊕y xa für pω o(x) q, für po(x) + o(y)q, ωk für pωk q, für po(x)aq, wobei ω0 := 1, ωk+1 := ω ωk . 6.2 Beweisbarkeit von Anfangsfällen der transfiniten Induktion Wir wollen jetzt Anfangsfälle der transfiniten Induktion in der Peano-Arithmetik herleiten, also (∀x.∀y≺x A(y) → A(x)) → ∀x≺a A(x) für alle natürlichen Zahlen a und beliebige Formeln A(x). Später werden wir sehen, daß unsere Resultate hier optimal sind in dem Sinn, daß für das volle System von Bezeichnungen für Ordinalzahlen < ε0 das entsprechende Axiom der transfiniten Induktion bis ε0 , also (∀x.∀y≺x P y → P x) → ∀x P x mit einem Prädikatensymbol P in der Peano-Arithmetik unbeweisbar ist. Alle diese Resultate stammen von Gentzen [10]. Unter einem arithmetischen System Z verstehen wir eine auf der Minimallogik aufgebaute Theorie (einschließlich der Gleichheitsaxiome) mit den folgenden Eigenschaften. Die Sprache von Z besteht aus einem festen (möglicherweise abzählbar unendlichen) Vorrat von Relations- und Funktionssymbolen, von denen wir annehmen, daß sie feste Relationen und Funktionen über den natürlichen Zahlen bezeichnen, für die ein Berechnungsverfahren bekannt ist. Unter den Funktionssymbolen müssen Symbole S für die 6.2 Beweisbarkeit von Anfangsfällen der transfiniten Induktion 131 Nachfolgerfunktion und 0 für (die 0-stellige Funktion) Null vorkommen. Unter den Relationssymbolen müssen Symbole = für die Gleichheit und ≺ für die eben eingeführte Ordnung vom Typ ε0 der natürlichen Zahlen vorkommen. Um das allgemeine Prinzip der transfiniten Induktion formulieren zu können, nehmen wir noch an, daß auch ein einstelliges Relationssymbol P vorhanden ist, das wie eine freie Mengenvariable verwendet wird. Terme werden aus Objektvariablen x, y, z mittels f (t1 , . . . , tm ) aufgebaut, wobei f ein Funktionssymbol ist. Wir identifizieren einen geschlossenen Term mit seinem Wert; dies ist ein bequemer Weg, in unserem formalen System die Annahme auszudrücken, daß für jedes Funktionssymbol ein Berechnungsverfahren bekannt ist. Terme der Form S(S(. . . S(0) . . . )) heißen Numerale. Wir verwenden die Bezeichnung Sn 0 oder auch nur n für sie; gelegentlich schreiben wir auch a, definiert durch 0 := 0 und n + 1 := S(n). Formeln werden aus atomaren Formeln R(t1 , . . . , tm ) mit einem Relationssymbol R und aus ⊥ mittels A → B und ∀xA aufgebaut. Wie üblich kürzen wir A → ⊥ durch ¬A ab. Die Axiome von Z sollen immer die Peano-Axiome enthalten, also die Allabschlüsse von S(x) = S(y) → x = y, S(x) = 0 → A, A(0) → (∀x.A(x) → A(S(x))) → ∀xA(x), (6.1) (6.2) (6.3) wobei A(x) eine beliebige Formel ist. Um in unserem formalen System die Annahme auszudrücken, daß für jedes Relationssymbol ein Berechnungsverfahren bekannt ist, verwenden wir als Axiome Rn falls Rn wahr ist, und ¬Rn falls Rn falsch ist. Für ≺ fordern wir Irreflexivität und Transitivität als Axiome, und ferner – wie bei Schütte [32] – die Allabschlüsse von x ≺ 0 → A, (6.4) 0 z ≺ y ⊕ ω → (z ≺ y → A) → (z = y → A) → A, x ⊕ 0 = x, x ⊕ (y ⊕ z) = (x ⊕ y) ⊕ z, 0 ⊕ x = x, ω x 0 = 0, ω x S(y) = ω x y ⊕ ω x , z ≺ y ⊕ ω S(x) → z ≺ y ⊕ ω e(x,y,z) m(x, y, z), z ≺y⊕ω S(x) → e(x, y, z) ≺ S(x), (6.5) (6.6) (6.7) (6.8) (6.9) (6.10) (6.11) (6.12) wobei ⊕, ω x y, e und m die entsprechenden Funktionssymbole bezeichnen und A eine beliebige Formel ist. Wir erlauben auch eine beliebige Menge von wahren Formeln ∀x A mit A quantorenfrei und ohne P als Axiome. Solche Formeln heißen Π1 -Formeln. Wir können ferner ein ex-falso-quodlibet Axiom oder sogar ein Stabilitätsaxiom für P hinzunehmen: ∀x.⊥ → P x, ∀x.¬¬P x → P x. Dies führt auf ein intuitionistisches arithmetisches System (wie die Heyting-Arithmetik HA) oder auf ein klassisches arithmetisches System (wie die Peano-Arithmetik PA). Man beachte, daß in Anwesenheit der Stabilitätsaxiome für alle Relationssymbole und für P sich (6.2), (6.4) und (6.5) durch ihre üblicheren klassischen Versionen ersetzen lassen, nämlich S(x) 6= 0, (6.13) (6.14) z ≺ y ⊕ ω 0 → z 6= y → z ≺ y. (6.15) x 6≺ 0, Wir werden auch eingeschränkte arithmetische Systeme Zk betrachten. Sie sind wie Z definiert, aber mit dem Induktionsschema (6.3) eingeschränkt auf Formeln A der Stufe lev(A) ≤ k. Die Stufe einer Formel A ist definiert durch 132 6. Beweistheorie der Arithmetik lev(Rt ) := lev(⊥) := 0, lev(A → B) := max(lev(A) + 1, lev(B)), lev(∀xA) := max(1, lev(A)). Der triviale Spezialfall A(0) → ∀xA(S(x)) → ∀xA(x), welcher der Fallunterscheidung entspricht, ist jedoch für beliebige Formeln A(x) erlaubt. Dies werden wir in Satz 6.2.2 verwenden. Satz 6.2.1. ( Gentzen). Das Schema der transfiniten Induktion bis ωn , also jede Formel (∀x.∀y≺x A(y) → A(x)) → ∀x≺ωn A(x), ist beweisbar in Z. Beweis. Jeder Formel A(x) ordnen wir eine Formel A+ (x) zu (mit Bezug auf eine feste Variable x), und zwar durch A+ (x) := ∀y.∀z≺y A(z) → ∀z≺y ⊕ ω x A(z). Wir zeigen zunächst A(x) ist progressiv =⇒ A+ (x) ist progressiv, wobei “B(x) ist progressiv ” bedeutet ∀x.∀y≺x B(y) → B(x). Sei also A(x) progressiv und ∀y≺x A+ (y). (6.16) Wir haben zu zeigen, daß A+ (x) richtig ist. Gelte also weiter ∀z≺y A(z) (6.17) und z ≺ y ⊕ ω x . Zu zeigen ist dann A(z). Fall x = 0. Dann z ≺ y ⊕ ω 0 . Nach (6.5) genügt es, A(z) aus der Annahme z ≺ y und auch aus der Annahme z = y herzuleiten. Gilt z ≺ y, so folgt A(z) aus (6.17), und im Fall z = y folgt A(z) aus (6.17) und der Progressivität of A(x). Fall S(x). Aus z ≺ y ⊕ ω S(x) erhalten wir z ≺ y ⊕ ω e(x,y,z) m(x, y, z) nach (6.11) und e(x, y, z) ≺ S(x) nach (6.12). Aus (6.16) ergibt sich A+ (e(x, y, z)). Nach Definition von A+ erhalten wir ∀u≺y ⊕ ω e(x,y,z) v A(u) → ∀u≺(y ⊕ ω e(x,y,z) v) ⊕ ω e(x,y,z) A(u) und also, unter Verwendung von (6.7) und (6.10) ∀u≺y ⊕ ω e(x,y,z) v A(u) → ∀u≺y ⊕ ω e(x,y,z) S(v) A(u). Ferner ergibt sich aus (6.17) und (6.9), (6.6) ∀u≺y ⊕ ω e(x,y,z) 0 A(u). Mit Hilfe einer geeigneten Instanz des Induktionsschemas erhalten wir ∀u≺y ⊕ ω e(x,y,z) m(x, y, z) A(u) und deshalb A(z). Wir zeigen jetzt, durch Induktion über n, wie man für eine beliebige Formel A(x) eine Herleitung von ∀x.∀y≺x A(y) → A(x) → ∀x≺ωn A(x) erhalten kann. Gelte also die linke Seite, d.h. A(x) sei progressiv. Fall 0. Dann gilt x ≺ ω 0 und also x ≺ 0 ⊕ ω 0 nach (6.8). Nach (6.5) genügt es, A(x) aus x ≺ 0 und auch aus x = 0 herzuleiten. Nun gilt x ≺ 0 → A(x) nach (6.4), und A(0) folgt aus der Progressivität von A(x). Fall n + 1. Da A(x) progressiv ist, ist nach der obigen Überlegung auch A+ (x) progressiv. Eine Anwendung der IH auf A+ (x) liefert ∀x≺ωn A+ (x), und also A+ (ωn ) aufgrund der Progressivität von u t A+ (x). Nun ergibt sich aus der Definition von A+ (x) (mit (6.4) und (6.8)) sofort ∀z≺ω ωn A(z). 6.3 Normalisierung für die Arithmetik mit der Omega-Regel 133 Man beachte, daß wir im Induktionsschritt dieses Beweises die transfinite Induktion bis ω n+1 für A(x) aus der transfiniten Induktion bis ω n für die kompliziertere Formel A+ (x) hergeleitet haben. Wir wollen jetzt dieses Resultat verschärfen zu einem entsprechenden Satz für die Teilsysteme Zk von Z (s. Parsons [24]). Für i ≥ 1 sei ωi [m] definiert durch ω1 [m] := m, ωi+1 [m] := ω ωi [m] . Satz 6.2.2. Sei 1 ≤ ` ≤ k. Dann läßt sich in Zk für jede Formel A(x) einer Stufe ≤ ` die transfinite Induktion bis ωk−`+2 [m] für beliebiges m herleiten, also (∀x∀y≺x A(y) → A(x)) → ∀x≺ωk−`+2 [m] A(x). Beweis. Man beachte zunächst, daß für jede Formel A(x) einer Stufe ` ≥ 1 die im Beweis von Satz 6.2.1 konstruierte Formel A+ (x) die Stufe ` + 1 hat, und daß wir für den Beweis von A(x) ist progressiv =⇒ A+ (x) ist progressiv Induktion mit einer Induktionsformel der Stufe ` benutzt haben. Sei jetzt (oBdA) A(x) eine Formel der Stufe ` ≥ 1, und nehmen wir an, daß A(x) progressiv ist. Sei A0 := A, Ai+1 := (Ai )+ . Dann ist lev(Ai ) = ` + i, und folglich können wir in Zk beweisen, daß A1 , A2 , . . . Ak−`+1 sämtlich progressiv sind. Aus der Progressivität von Ak−`+1 (x) ergibt sich Ak−`+1 (0), Ak−`+1 (1), Ak−`+1 (2) und allgemein Ak−`+1 (m) für jedes m, also Ak−`+1 (ω1 [m]). Wegen Ak−`+1 (x) ⇐⇒ (Ak−` )+ (x) ⇐⇒ ∀y.∀z≺y Ak−` (z) → ∀z≺y ⊕ ω x Ak−` (z) erhalten wir zunächst (mit y = 0) ∀z≺ω2 [m] Ak−` (z) und dann Ak−` (ω2 [m]) aus der Progressivität von u t Ak−` . Durch Wiederholung dieses Arguments erhalten wir schließlich ∀z≺ωk−`+2 [m] A0 (z). Unser nächstes Ziel ist ein Beweis, daß diese Schranken scharf sind. Genauer werden wir zeigen, daß man in Z (unabhängig davon, wieviele wahre Π1 -Formeln als Axiome verwendet werden) nicht die transfinite Induktion bis ε0 beweisen kann, also die Formel (∀x.∀y≺x P y → P x) → ∀xP x mit einem Relationssymbol P , und daß man in Zk nicht die transfinite Induktion bis ωk+1 beweisen kann, also die Formel (∀x.∀y≺x P y → P x) → ∀x≺ωk+1 P x. Dies wird sich durch Anwendung der Methode der Normalisierung auf arithmetische Systeme ergeben. 6.3 Normalisierung für die Arithmetik mit der Omega-Regel Wir werden in Abschnitt 6.4 zeigen, daß für arithmetische Systeme Z kein Normalisierungssatz gilt, der für jede Herleitung einer Formel A in Z eine andere Herleitung derselben Formel A in Z liefert, die nur Formeln einer Stufe kleiner oder gleich der Stufe von A verwendet. Der Grund dafür sind die Induktionsaxiome, die von beliebiger Stufe sein können. Hier umgehen wir diese Schwierigkeit in einer etwas drastischen Art und Weise: Wir geben unsere bisherige Auffassung auf, daß alle Herleitungen endlich sein müssen, und ersetzen die Induktionsaxiome durch eine Regel mit unendlich vielen Prämissen, die sogenannte ω-Regel. Sie wurde zuerst von Hilbert vorgeschlagen und später von Lorenzen, Novikov und Schütte genauer studiert. Die ω-Regel erlaubt es, ∀xA(x) aus A(0), A(1), A(2), · · · zu erschließen, also D0 A(0) D1 A(1) ... ∀xA(x) Di A(i) ... ω Herleitungen kann man dann als beschriftete unendliche (abzählbar verzweigte) Bäume auffassen, wobei die Beschriftung aus der hergeleiteten Formel und dem Namen der angewandten Regel besteht. Da 134 6. Beweistheorie der Arithmetik wir unendliche Herleitungen induktiv definieren, muß jede solche Herleitung fundiert sein, d.h. sie kann keinen unendlichen absteigenden Pfad enthalten. Offenbar macht die ω-Regel auch die Regel ∀+ der Alleinführung überflüssig. Wir können deshalb auf freie Objektvariablen verzichten. Ferner ist klar, daß jede Herleitung in einem arithmetischen System Z in eine unendliche Herleitung mit der ω-Regel übersetzt werden kann; dies werden wir in Lemma 6.3.3 ausführen. Die entstehende unendliche Herleitung hat eine beachtenswerte Eigenschaft: in jeder Anwendung der ω-Regel sind die Schnittränge der unendlich vielen Teilherleitungen beschränkt, und auch die Mengen ihrer freien Annahmen sind durch eine endliche Menge beschränkt. Hierbei ist der Schnittrang einer Herleitung die kleinste Zahl ≥ der Stufe jeder Teilherleitung, die durch →+ als Hauptprämisse von →− oder die durch die ω-Regel als Hauptprämisse von ∀− gebildet wurde. Unter der Stufe einer Herleitung verstehen wir die Stufe ihres Typs, d.h. der von ihr hergeleiteten Formel. Eine unendliche Herleitung nennen wir normal, wenn ihr Schnittrang 0 ist, und wir werden unten zeigen, daß jede (möglicherweise unendliche) Herleitung von endlichem Schnittrang in eine Herleitung mit Schnittrang 0 umgeformt werden kann. Die entstehende normale Herleitung wird immer noch i.a. unendlich sein; man könnte also meinen, daß dieses Resultat nutzlos ist. Es wird sich jedoch zeigen, daß wir die Tiefe der entstehenden Herleitung in einer informativen Art und Weise beschränken können, und dies wird uns in Abschnitt 6.4 in die Lage versetzen, das gewünschte Resultat über die Unbeweisbarkeit der transfiniten Induktion zu erhalten. Dieses Programm wollen wir jetzt durchführen. Wir führen die Systeme Z∞ der ω-Arithmetik wie folgt ein. Z∞ hat dieselbe Sprache und - abgesehen von den Induktionsaxiomen - dieselben Axiome wie Z. Herleitungen in Z∞ sind unendliche Objekte. Es ist nützlich, für sie eine Termbezeichnung zu verwenden; d, e, f bezeichnen solche (unendlichen) Herleitungsterme. Für unsere Zwecke genügt es, nur Herleitungen zu betrachten, deren Tiefe unterhalb von ε0 beschränkt ist. Wir definieren den Begriff “d ist eine Herleitung der Tiefe ≤ α” (geschrieben |d| ≤ α) induktiv wie folgt. (A). Jede Annahmenvariable uA mit A geschlossen und jedes Axiom AxA ist eine Herleitung der Tiefe ≤ α, für jedes α. (→+ ). Ist dB eine Herleitung der Tiefe ≤ α0 < α, so ist (λuA dB )A→B eine Herleitung der Tiefe ≤ α. (→− ). Sind dA→B und eA Herleitungen der Tiefen ≤ αi < α (i=1,2), so ist (dA→B eA )B eine Herleitung der Tiefe ≤ α. A(i) ∀xA(x) A(i) Herleitungen der Tiefen ≤ αi < α (i < ω), so ist hdi ii<ω eine Herleitung der (ω). Sind di Tiefe ≤ α. (∀− ). Ist d∀xA(x) eine Herleitung der Tiefe ≤ α0 < α, so ist (d∀xA(x) i)A(i) eine Herleitung der Tiefe ≤ α. Man beachte, daß es in ∀− genügt, Zahlen statt Terme in den Nebenprämissen zu verwenden. Der Grund dafür ist, daß wir nur geschlossene Terme betrachten müssen, und solche Terme können wir hier mit Zahlen identifizieren. Der Schnittrang cr(d) einer Herleitung d ist wie folgt definiert. cr(uA ) := cr(AxA ) := 0, cr(λud) := cr(d), ( max(lev(A → B), cr(d), cr(e)), A→B A cr(d e ) := max(cr(d), cr(e)), cr(hdi ii<ω ) := sup cr(di ), i<ω ( max(lev(∀xA(x)), cr(d)), ∀xA(x) j) := cr(d cr(d), falls d = λud0 , sonst, falls d = hdi ii<ω , sonst. Offenbar ist cr(d) ∈ N ∪ {ω} für alle d. Für unsere Zwecke genügt es, nur Herleitungen mit endlichem Schnittrang zu betrachten, d.h. mit cr(d) ∈ N. Es wird auch genügen, nur Herleitungen mit endlich vielen An 1 freien Variablen zu betrachten. Wir verwenden die Bezeichnung d[uA 1 , . . . , un ] für Herleitungen mit A1 An freien Annahmevariablen unter u1 , . . . , un . Mit |d| bezeichnen wir das kleinste α so daß |d| ≤ α. Lemma 6.3.1. Ist d eine Herleitung der Tiefe ≤ α mit freien Annahmevariablen unter u, u und vom Schnittrang cr(d) = k, und ist e eine Herleitung der Tiefe ≤ β, mit freien Annahmevariablen unter u 6.3 Normalisierung für die Arithmetik mit der Omega-Regel 135 und vom Schnittrang cr(e) = `, so ist d[u := e] eine Herleitung mit freien Annahmevariablen unter ue, von der Tiefe |d[u := e]| ≤ β + α und von einem Schnittrang cr(d[u := e]) ≤ max(lev(e), k, `). Beweis. Einfache Induktion über die Tiefe von d. u t Unter Verwendung dieses Lemmas können wir jetzt unsere Systeme Zk (d.h. Arithmetik mit Induktionsaxiomen beschränkt auf Formeln der Stufe ≤ k) und Z in Z∞ einbetten. In dieser Einbettung beziehen wir uns auf die Anzahl nI (d) von geschachtelten Anwendungen des Induktionsschemas innerhalb einer Zk -Herleitung d. nI (d) ist durch Induktion über d wie folgt definiert. nI (u) := nI (Ax) := 0, nI (Ind) := 1, nI (Ind tde) := max(nI (d), nI (e) + 1), nI (de) := max(nI (d), nI (e)), falls d nicht von der Form Ind td0 ist, nI (λud) := nI (λxd) := nI (dt) := nI (d). Ferner benötigen wir im nächsten Lemma den Begriff der langen Normalform einer Herleitung. Der Einfachheit halber beschränken wir uns wieder auf das →-Fragment der minimalen Aussagenlogik; alle Überlegungen gelten aber genauso für die volle Sprache. In Abschnitt 2.2 hatten wir die Gestalt normaler Herleitungen im →-Fragment der minimalen Aussagenlogik studiert. Insbesondere hatten wir die Form von Ästen in einer normalen Herleitung genau analysiert und festgestellt, daß in jedem Ast alle Beseitigungsregeln vor allen Einführungsregeln kommen, und daß an einem eindeutig bestimmten Minimalknoten eine Minimalformel steht, die Teilformel aller Formeln im Einführungsteil und im Beseitigungsteil des Astes ist. Im Begriff der langen Normalform wird zusätzlich verlangt, daß jede Minimalformel atomar ist. Für Terme des λ-Kalküls definiert man die η-Expansion einer Variablen durch ηV (xτ →ι ) := λz τ .xηV (z), also durch Induktion über den Typ der Variablen. Die η-Expansion eines Terms läßt sich dann durch Induktion über Terme definieren durch η λy.(xM )τ →ι := λy, z τ .xη(M )ηV (z). Man beachte. daß stets η(x) = ηV (x) gilt. – Damit ist klar: Lemma 6.3.2. Jeder Term läßt sich durch Normalisierung und anschließende η-Expansion in lange u t Normalform bringen. Lemma 6.3.3. Sei eine Zk -Herleitung in langer Normalform (siehe Lemma 6.3.2, oder auch Abschnitt 6.5) gegeben mit ≤ m geschachtelten Anwendungen des Induktionsschemas (6.3), d.h. von A(0) → (∀x.A(x) → A(S(x))) → ∀xA(x), alle mit lev(A) ≤ k. Wir betrachten Teilherleitungen dB nicht von der Form Ind t oder Ind td0 . Für jede Bσ solche Teilherleitung und geschlossene Substitutionsinstanz Bσ von B konstruieren wir (d∞ in Z∞ mit σ ) m+1 ∞ C Cσ und cr(d∞ freien Annahmevariablen u für u freie Annahmevariable von d, so daß |dσ | < ω σ ) ≤ k, ∞ und ferner so daß d durch →-Einführung erzeugt ist gdw dσ es ist, sowie d durch ∀-Einführung erzeugt oder von der Form Ind td0 e ist gdw d∞ σ durch die ω-Regel erzeugt ist. Beweis. Rekursion über solche Teilherleitungen d. Fall uC oder Ax. Dann können wir uCσ oder Ax nehmen. Fall Ind tde0 . Da die Herleitung in langer Normalform ist, gilt e0 = λxλv e. Nach IH haben wir d∞ σ und e∞ σ . (Man beachte, daß weder d noch e eine der verbotenen Formen Ind t oder Ind td0 haben kann, ∞ da beide in langer Normalform sind). Wir schreiben e∞ σ (t, f ) für eσ [x, v := t, f ], und setzen ∞ ∞ ∞ ∞ ∞ ∞ (Ind td(λxλv e))∞ σ := hdσ , eσ (0, dσ ), eσ (1, eσ (0, dσ )), . . . i. 136 6. Beweistheorie der Arithmetik m Nach IH ist |eσ∞ | ≤ ω m−1 ·p und |d∞ σ | ≤ ω ·q für gewisse p, q < ω. Nach Lemma 6.3.1 erhalten wir m m−1 |eσ∞ (0, d∞ ·p, σ )| ≤ ω ·q + ω m m−1 ∞ ∞ ·2p |e∞ σ (1, eσ (0, dσ ))| ≤ ω ·q + ω und so weiter, schließlich also m |(Ind td(λxλv e))∞ σ | ≤ ω ·(q + 1). ∞ Für den Schnittrang ergibt sich nach IH cr(d∞ σ ), cr(eσ ) ≤ k und deshalb ∞ ∞ cr(eσ∞ (0, d∞ σ )) ≤ max(lev(A(0)), cr(dσ ), cr(eσ )) ≤ k, ∞ ∞ ∞ cr(e∞ σ (1, eσ (0, dσ ))) ≤ max(lev(A(1)), k, cr(eσ )) = k, und so weiter, schließlich also cr((Ind td(λxλv e))∞ σ ) ≤ k. Bσ , möglicherweise mit freien Annahmen uCσ . Setze (λu d)σ∞ := Fall λuC dB . Nach IH haben wir (d∞ σ ) ∞ λu dσ . ∞ Fall de mit d nicht von der Form Ind t oder Ind td0 . Nach IH haben wir d∞ σ und eσ . Da de Teilherleitung ∞ einer normalen Herleitung ist, kann d und also auch dσ nicht durch →-Einführung erzeugt sein. Also ist ∞ ∞ ∞ ∞ ∞ ∞ ∞ ∞ (de)∞ σ := dσ eσ normal und cr(dσ eσ ) = max(cr(dσ ), cr(eσ )) ≤ k. Ferner haben wir offenbar |dσ eσ | < m+1 ω . Fall (λx d)∀xB(x) . Für jedes i und jede Substitutionsinstanz B(i)σ haben wir nach IH d∞ σ,i . Setze (λx d)σ∞ := hd∞ σ,i ii<ω . (∀xB)σ Fall (Ind tdet)B[x:=t] . Nach IH haben wir ((Ind tde)∞ , und (Ind tde)∞ σ ) σ = hdi ii<ω , wie im zweiten ∞ Fall des Beweises definiert. Setze (Ind tdet)σ := di , wobei i das Numeral mit demselben Wert wie tσ ist. Fall (dt)B[x:=t] mit d nicht von der Form Ind td0 e. Nach IH haben wir (dσ∞ )(∀xB)σ . Da dt eine Teilherleitung einer normalen Herleitung ist, kann d nicht durch ∀-Einführung erzeugt sein, also dω σ auch nicht durch die ω-Regel. Wir können deshalb setzen (dt)σ∞ := d∞ i das Numeral mit demselben Wert i, wobei σ wie tσ ist. u t Cσ Eine Herleitung heißt konvertierbar , wenn sie von der Form (λu d)e oder hdi ii<ω j ist. Sie kann dann konvertiert werden in d[u := e] bzw. dj . Hierbei entsteht d[u := e] aus d durch Substituieren von e für alle freien Vorkommen von u in d. Eine Herleitung heißt normal , wenn sie keine konvertible Teilherleitung enthält. Man beachte, daß eine Herleitung genau dann normal ist, wenn sie den Schnittrang 0 hat. Eine Herleitung heißt einfache Anwendung, wenn sie von der Form d0 d1 . . . dm mit d0 eine Annahmevariable oder ein Axiom ist. Wir wollen jetzt eine Operation definieren, die durch wiederholte Konversionen eine gegebene Herleitung in eine normale Herleitung umformt, wobei die Endformel erhalten bleibt und keine zusätzlichen freien Annahmevariablen eingeführt werden. Die übliche Methode zum Erreichen dieses Ziels muß hier an unsere spezielle Situation unendlicher Herleitungen angepaßt werden. Wir verwenden ein besonders einfaches Argument, das auf Tait [38] zurückgeht. Lemma 6.3.4. Zu jeder Herleitung dA einer Tiefe ≤ α und vom Schnittrang k + 1 findet man eine Herleitung (dk )A mit freien Annahmevariablen unter denen von d, mit einer Tiefe ≤ 2α und vom Schnittrang ≤ k. Beweis. Induktion über α. Wir beschränken uns auf den Fall einer Herleitung der Form de mit |d| ≤ α1 < α und |e| ≤ α2 < α, die keine einfache Anwendung ist. Zunächst betrachten wir den Unterfall, in dem dk = λu d1 und lev(d) = k + 1 ist. Dann gilt lev(e) ≤ k nach Definition der Stufen (die Stufe einer Herleitung war definiert als die Stufe der hergeleiteten Formel). Folglich hat d1 [u := ek ] einen Schnittrang ≤ k nach Lemma 6.3.1. Ferner hat ebenfalls nach Lemma 6.3.1 d1 [u := ek ] eine Tiefe ≤ 2α2 + 2α1 ≤ 2max(α2 ,α1 )+1 ≤ 2α . Also können wir (de)k als d1 [u := ek ] definieren. 6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion 137 Im Unterfall dk = hdi ii<ω , lev(d) = k + 1 und ek = j können wir (de)k als dj wählen, da dj einen Schnittrang ≤ k und eine Tiefe ≤ 2α hat. Sind wir nicht in den obigen Unterfällen, so können wir einfach (de)k := dk ek setzen. Diese Herleitung hat offenbar eine Tiefe ≤ 2α . Sie hat auch einen Schnittrang ≤ k, was man wie folgt einsieht. Im Fall lev(d) ≤ k + 1 sind wir fertig. Aber lev(d) ≥ k + 2 ist unmöglich, da wir angenommen haben, daß de keine einfache Anwendung ist. Um dies einzusehen, beachte man folgendes. Ist de keine einfache Anwendung, so muß es von der Form d0 d1 . . . dn e sein mit d0 weder Annahmevariable noch Axiom und d0 auch nicht selbst von der Form d0 d00 ; dann muß d0 durch →-Einführung oder durch die ω-Regel erzeugt sein, und es gäbe einen Schnitt mit einem Schnittrang ≥ k + 2, was nach Annahme ausgeschlossen ist. u t Als unmittelbare Folgerung erhalten wir Satz 6.3.5. (Normalisierung für Z∞ ). Für jede Herleitung dA einer Tiefe ≤ α und vom Schnittrang ≤ k findet man eine normale Herleitung (d∗ )A mit freine Annahmen unter denen von dA und einer Tiefe α α 2α m. u t ≤ 2α k , wobei 20 := α,2m+1 = 2 Wie in Satz 2.3.2 können wir jetzt die Struktur normaler Herleitungen in Z∞ untersuchen. Insbesondere erhalten wir ∞ n Satz 6.3.6. (Teilformeleigenschaft für Z∞ ). Sei dB [u1A1 , . . . , uA und n ] eine normale Herleitung in Z C B e eine Teilherleitung von d . Dann ist C Teilformel von B oder von einem Ai . u t Beweis. Induktion über d. 6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion Wir verwenden jetzt die Technik der Normalisierung für die Arithmetik mit der ω-Regel zu einem Beweis, daß das Axiom der transfiniten Induktion bis ε0 in Z unbeweisbar ist, also Z 6` (∀x.∀y≺x P y → P x) → ∀x P x mit einem Relationssymbol P , und daß die transfinite Induktion bis ωk+1 unbeweisbar ist in Zk , also Zk 6` (∀x.∀y≺x P y → P x) → ∀x≺ωk+1 P x. Offenbar genügt es, die Unbeweisbarkeit für auf der klassischen Logik basierende arithmetische Systeme zu zeigen. Wir können also annehmen, daß wir die klassischen Versionen (6.13), (6.14) und (6.15) der Axiome aus Abschnitt 6.2 verwendet haben. Unser Beweis basiert auf einer Idee von Schütte, nämlich eine sogenannte Progressionsregel zu dem unendlichen System hinzuzunehmen. Diese Regel erlaubt es, P j (wobei j eine beliebige Zahl ist) aus allen P i für i ≺ j zu erschließen. Eine Herleitung in Z∞ + Prog(P ) einer Tiefe ≤ α und vom Schnittrang ≤ k wird erzeugt durch die induktiven Klauseln von Abschnitt 6.3 und die zusätzliche Klausel i i Pj der Tiefe ≤ αi < α bereits konstruiert, so ist hdP (Prog). Sind für alle i ≺ j Herleitungen dP i i ii≺j eine Herleitung der Tiefe ≤ α. Den Schnittrang dieser Herleitung definieren wir durch cr(hdi ii≺j ) := supi≺j cr(di ). Da die Progressionsregel nur Herleitungen atomarer Formeln betrifft, verändert sie nicht die Schnittränge von Herleitungen. Folglich überträgt sich der Normalisierungsbeweis für Z∞ unverändert auf Z∞ + Prog(P ). Insbesondere haben wir Lemma 6.4.1. Für jede Herleitung dA in Z∞ + Prog(P ) einer Tiefe ≤ α und vom Schnittrang ≤ k + 1 findet man eine Herleitung (dk )A in Z∞ +Prog(P ) mit freien Annahmevariablen unter denen von d, einer Tiefe ≤ 2α und vom Schnittrang ≤ k. u t Wir zeigen jetzt, daß man aus der Progressionsregel für P leicht die Progressivität von P herleiten kann. 138 6. Beweistheorie der Arithmetik Lemma 6.4.2. Es gibt eine normale Herleitung von ∀x.∀y≺x P y → P x in Z∞ + Prog(P ) der Tiefe 5. Beweis. ... ... ∀y≺j P y ∀− i ≺ j → Pi Pi i≺j →− ... Pj →+ ∀y≺j P y → P j ∀x.∀y≺x P y → P x (alle i ≺ j) Prog ... (alle j) ω u t Die wesentliche Beobachtung ist jetzt, daß eine normale Herleitung von P pβq im wesentlichen eine Tiefe mindestens β erfordert. Um jedoch eine scharfe Abschätzung für die Teilsysteme Zk zu erhalten, können wir Lemma 6.4.1 nicht bis herunter zum Schnittrang 0 (also bis zur Normalform) anwenden, sondern wir müssen bereits beim Schnittrang 1 aufhören. Derartige Herleitungen, also solche vom Schnittrang ≤ 1, nennen wir quasinormal ; sie lassen sich ebenfalls leicht analysieren. Wir beginnen mit einem Beweis, daß jede quasinormale Herleitung einer quantorenfreien Formel sich stets ohne Erhöhung ihres Schnittrangs oder ihrer Tiefe in eine quasinormale Herleitung derselben Formel umformen läßt, die 1. die ω-Regel nicht benutzt, und 2. die Regel ∀− höchstens in Anfangsteilen von mit einem Axiom beginnenden Ästen enthält. Man beachte hierbei, daß alle unsere Axiome von der Form ∀xA sind mit A quantorenfrei. Ferner benötigen wir den Begriff einer Quasiteilformel , der induktiv durch die folgenden Klauseln definiert ist. • A, B sind Quasiteilformeln von A → B; • A(i) ist eine Quasiteilformel von ∀xA(x), für jede Zahl i; • Ist A eine Quasiteilformel von B und C eine atomare Formel, so sind C → A und ∀xA Quasiteilformeln von B; • Die Relation “. . . ist eine Quasiteilformel von . . . ” ist reflexiv und transitiv. Zum Beispiel ist Q → ∀x.P x → A eine Quasiteilformel von A → B. Wir übertragen jetzt die Teilformeleigenschaft für normale Herleitungen und beweisen entsprechend eine Quasiteilformeleigenschaft für quasinormale Herleitungen. An ∞ 1 Satz 6.4.3. (Quasiteilformeleigenschaft). Ist dB [uA + 1 , . . . , un ] eine quasinormale Herleitung in Z C B Prog(P ) und ist e eine Teilherleitung von d , so ist C eine Quasiteilformel von B oder von einem Ai . Beweis. Induktion über die Länge der Endposition eines Astes in d. ∞ u t Korollar 6.4.4. Sei d eine quasinormale Herleitung in Z + Prog(P ) einer Formel ∀xA aus quantorenfreien Annahmen, mit A quantorenfrei. Dann endet in d jeder Ast einer Ordnung > 0 mit einer quantorenfreien Formel. Beweis. Andernfalls würde die Hauptprämisse der →− -Regel, deren Nebenprämisse die Endformel dieses Astes ist, einen Quantor auf der linken Seite von → enthalten. Dies widerspricht dem Satz. u t Unser nächstes Ziel ist es, die ω-Regel zu eliminieren. Hierfür benötigen wir den Begriff einer Instanz einer Formel. Er ist induktiv wie folgt definiert. • Ist B 0 Instanz von B und A quantorenfrei, so ist A → B 0 Instanz von A → B. • A(i) ist Instanz von ∀xA(x), für jede Zahl i. • Die Relation “. . . ist eine Instanz von . . . ” ist reflexiv und transitiv. Lemma 6.4.5. Sei d eine quasinormale Herleitung in Z∞ +Prog(P ) einer Formel A aus quantorenfreien Annahmen, wobei A kein ∀ auf der linken Seite eines → enthält. Dann findet man für jede quantorenfreie Instanz A0 von A eine quasinormale Herleitung d0 von A0 aus denselben Annahmen und quantorenfreien Instanzen der Axiome so daß 6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion 139 • d0 die ω-Regel nicht verwendet, • d0 die Regel ∀− höchstens in Anfangsteilen von mit einem Axiom beginnenden Ästen enthält, und • |d0 | ≤ |d|. Beweis. Induktion über die Tiefe d. Wir unterscheiden Fälle entsprechend der letzten Regel in d. Fall →− . A→B A →− B Nach Korollar 6.4.4 muß A quantorenfrei sein. Sei B 0 eine quantorenfreie Instanz von B. Dann ist A → B 0 nach Definition eine quantorenfreie Instanz von A → B. Die Behauptung folgt jetzt aus der IH. Fall →+ . B →+ A→B Jede Instanz von A → B hat die Form A → B 0 mit einer quantorenfreien Instanz B 0 von B. Also folgt die Behauptung aus der IH. Fall ∀− . ∀xA(x) i ∀− A(i) Wieder ist jede quantorenfreie Instanz von A(i) auch eine quantorenfreie Instanz von ∀xA(x), und die Behauptung folgt aus der IH. Fall ω. . . . A(i) . . . (für alle i < ω) ω ∀xA(x) Jede quantorenfreie Instanz von ∀xA(x) hat die Form A(i)0 mit A(i)0 quantorenfreie Instanz von A(i). Also folgt die Behauptung wieder aus der IH. u t Eine Herleitung d in Z∞ + Prog(P ) heißt P α, ¬P β-Widerlegung, wenn α und β disjunkt sind und d eine Formel A → B := A1 → · · · → Ak → B herleitet, wobei A und die freien Annahmen in d wahre quantorenfreie Formeln ohne P sind oder unter P pα1 q, . . . , P pαm q, ¬P pβ1 q, . . . , ¬P pβn q vorkommen, und B eine falsche quantorenfreie Formel ohne P ist oder unter P pβ1 q, . . . , P pβn q vorkommt. Lemma 6.4.6. Sei d eine quasinormale P α, ¬P β-Widerlegung. Dann ist min(β) ≤ |d| + lh(α), wobei lh(α) die Länge der Liste α bezeichnet. Beweis. Induktion über |d|. Nach Lemma 6.4.5 können wir annehmen, daß d die ω-Regel nicht enthält, und die Regel ∀− höchstens in Anfangsteilen von mit einem Axiom beginnenden Ästen enthält. Wir unterscheiden Fälle entsprechend der letzten Regel in d. Fall →+ . Nach unserer Definition von Widerlegungen folgt die Behauptung unmittelbar aus der IH. Fall →− . Dann ist d = f C→A→B eC . Ist C eine wahre quantorenfreie Formeln ohne P oder von der Form P pγq mit γ < min(β), so folgt die Behauptung aud der IH für f : min(β) ≤ |f | + lh(α0 ) + 1 ≤ |d| + lh(α0 ). Ist C eine falsche quantorenfreie Formel ohne P oder von der Form P pγq mit min(β) ≤ γ, so folgt die Behauptung aus der IH für e: min(β) ≤ |e| + lh(α0 ) + 1 ≤ |d| + lh(α0 ). Zu behandeln bleibt der Fall, daß C eine quantorenfreie Implikation ist, die P enthält. Dann ist lev(C) ≥ 1, also lev(C → A → B) ≥ 2. Wegen cr(d) ≤ 1 muß dann d eine mit einem Axiom beginnende einfache Anwendung sein. Unsere einzigen Axiome, die P enthalten können, sind EqP : ∀x, y.x = y → P x → P y und StabP : ∀x.¬¬P x → P x, und von diesen hat nur StabP die richtige Form. Also f = StabP pγq und deshalb e : ¬¬P pγq. Aus lev(¬¬P pγq) = 2, der Annahme cr(e) ≤ 1 und wieder der Form unserer P enthaltenden Axiome folgt, daß e mit →+ endet, also e = λu¬P pγq e0⊥ und damit insgesamt 140 6. Beweistheorie der Arithmetik |f ¬¬P pγq → P pγq P pγq [u : ¬P pγq] | e0 ⊥ ¬¬P pγq Die Behauptung folgt jetzt aus der IH für e0 . Fall ∀− . Nach Annahme befinden wir uns dann im Anfangsteil eines mit einem Axiom beginnenden Astes. Da d eine P α, ¬P β-Widerlegung ist, muß das Axiom P enthalten. Das Gleichheitsaxiom EqP : ∀x, y.x = y → P x → P y kann es nicht sein, da pγq = pδq → P pγq → P pδq in keinem Fall (γ = δ oder γ = 6 δ) Endformel einer P α, ¬P β-Widerlegung ist. Aus demselben Grund kommt auch das Stabilitätsaxiom StabP : ∀x.¬¬P x → P x nicht in Frage. Der Fall ∀− kann also nicht eintreten. pδq P pγq Fall Prog(P ). Dann ist d = hdP iδ<γ . Nach Annahme über d ist γ in β. Ohne Beschränkung der δ Allgemeinheit sei γ = βi := min(β), denn andernfalls wäre die Prämissenherleitung dβi : P pβi q eine quasinormale P α, ¬P β-Widerlegung, auf die man die IH anwenden könnte. Gibt es keine αj < γ, so ist das Argument einfach: jedes dδ ist eine P α, ¬P β, ¬P δ-Widerlegung, also gilt nach IH (da auch kein αj < δ ist) min(β, δ) = δ ≤ |dδ |, also γ = min(β) ≤ |d|. Wir befassen uns jetzt mit dem Fall, daß einige αj kleiner als γ sind. Man beachte zunächst, daß es höchstens endlich viele αj geben kann, die unmittelbar vor γ kommen; sei also ε die kleinste Ordinalzahl mit ∀δ.ε ≤ δ < γ → δ ∈ α. Dann ist ε, ε + 1, . . . , ε + k − 1 ∈ α und ε + k = γ. ε ist entweder ein Nachfolger oder eine Limeszahl. Ist ε = ε0 + 1, so folgt aus der IH (da dε0 eine P α, ¬P β, ¬P (ε − 1)-Widerlegung ist), daß ε − 1 ≤ |dε−1 | + lh(α0 ) − k, wobei α0 eine Folge von αj < γ ist. Also ist ε ≤ |d| + lh(α0 ) − k, und deshalb γ ≤ |d| = lh(α0 ). Ist ε eine Limeszahl, so gibt es eine Folge hδf (n) in mit Limes ε, und so daß alle αj < ε kleiner als δf (0) sind. Nach IH folgt δf (n) ≤ |df (n) | + lh(α0 ) − k, und deshalb ε ≤ |df (n) | + lh(α0 ) − k, also γ ≤ |d| + lh(α0 ). t u Jetzt können wir das folgende Resultat beweisen (s. Mints [21] und Parsons [24]). Satz 6.4.7. Das Axiom der transfiniten Induktion bis ε0 ist unbeweisbar in Z, also Z 6` (∀x.∀y≺x P y → P x) → ∀x P x mit einem Prädikatensymbol P , und die transfinite Induktion bis ωk+1 ist unbeweisbar in Zk , also Zk 6` (∀x.∀y≺x P y → P x) → ∀x≺ωk+1 P x. Beweis. Wir beschränken uns auf den zweiten Teil. Nehmen wir also an, die transfinite Induktion bis ωk+1 ist herleitbar in Zk . Aufgrund der Einbettung von Zk in Z∞ (Lemma 6.3.3) und der normalen Herleitbarkeit der Progressivität von P in Z∞ + Prog(P ) mit endlicher Tiefe (Lemma 6.4.2) können wir schließen, daß ∀x≺ωk+1 P x herleitbar ist in Z∞ + Prog(P ) mit einer Tiefe < ω m+1 und Schnittrang ≤ k. Nun liefern k − 1 Anwendungen von Lemma 6.4.1 eine Herleitung derselben Formel ∀x≺ωk+1 P x m+1 in Z∞ + Prog(P ) mit einer Tiefe γ < 2ω k−1 < ωk+1 und Schnittrang ≤ 1, also auch eine Herleitung von P pγ + 2q in Z∞ + Prog(P ) mit der Tiefe γ + 1 und Schnittrang ≤ 1. Dies widerspricht Lemma 6.4.6. t u 6.5 Nachtrag: η-Expansion 141 Wir wollen uns schließlich noch überlegen, daß man als Folgerung hieraus die Unmöglichkeit der Normalisierung für die Arithmetik erhalten kann. Der Normalisierungssatz für die Logik erster Stufe ist nicht besonders nützlich, wenn man ihn auf eines unserer arithmetischen Systeme Z anwendet. Der Grund liegt darin, daß in einer Herleitung Induktionsaxiome beliebiger Komplexität vorkommen können. Es liegt deshalb nahe zu versuchen, die Induktionsaxiome durch eine Induktionsregel zu ersetzen, welche den Schluß auf ∀xA(x) aus einer Herleitung von A(0) und einer Herleitung von A(S(x)) mit der zusätzlichen Annahme A(x) gestattet, die an dieser Stelle zu streichen ist; man beachte, daß diese Induktionsregel äquivalent zum Induktionsschema ist. Dann kann man versuchen, die entstehende Herleitung in dem neuen System Z mit der Induktionsregel zu normalisieren. Wir zeigen jetzt, daß sogar eine sehr schwache Form eines solchen Normalisierungssatzes in Z mit der Induktionsregel nicht gelten kann. Satz 6.4.8. Die folgende Form eines Normalisierungssatzes in Z mit der Induktionsregel ist falsch. Für jede Herleitung d[uA ] : B mit A, B Formeln der Stufe ≤ ` gibt es eine Herleitung d∗ [uA ] : B, die nur Formeln einer Stufe ≤ k enthält, wobei k nur von ` abhängt. Beweis. Nehmen wir an, ein solcher Normalisierungssatz würde gelten. Man betrachte die Formel (∀x.∀y≺x P y → P x) → ∀x≺ωn+1 P x, die die transfinite Induktion bis ωn+1 ausdrückt und von der Stufe 3 ist. Nach Satz 6.2.1 ist sie herleitbar in Z. Aus unserer Annahme folgt nun, daß es eine Herleitung dieser Formel gibt, die nur Formeln einer Stufe ≤ k enthält, für ein von n unabhängiges k. Also beweist Zk die transfinite Induktion bis ωn+1 für jedes n. Dies widerspricht aber Satz 6.4.7. u t 6.5 Nachtrag: η-Expansion Für manche Untersuchungen ist es zweckmäßig, anstelle der η-Konversion ihre Umkehrung zu verwenden, die sogenannte η-Expansion. Ein Problem besteht jedoch darin, daß die η-Expansion zusammen mit der β-Konversion zu Schleifen führen kann: M N →η↑ (λx.M x)N →β M N und λxM →η↑ λx(λxM )x →β λxM. Wir wollen deshalb die η-Expansion von Termen in Anwendungspositionen und auch von Abstraktionen ausschließen. Dies läßt sich wie folgt erreichen. Definition 6.5.1. (η-Expansion). →η↑ sei der Termabschluß der Konversionsregel M ρ→σ 7→η↑ λxρ .M x falls x ∈ / FV(M ) und M neutral ist. Ferner sei →βη↑ :=→β ∪ →η↑ . Für γ ∈ {η↑, βη↑} können wir wie in Definition 2.1 die Begriffe γ-normal (oder in γ-Normalform), γ-Reduktionsfolge und stark γ-normalisierbar definieren. Man beachte, daß man von γ-Redexen nicht sinnvoll sprechen kann. Offenbar lassen sich die Terme in η↑-Normalform charakterisieren durch M ::= (xM )ι | λxM | ((λxM )N L)ι ; die Terme in βη↑-Normalform erhält man durch Weglassen der letzten Regel. In diesem Abschnitt zeigen wir die Terminierung und Konfluenz von →βη↑ . Eine Schwierigkeit liegt in der Möglichkeit der Interaktion von η-Expansion mit β-Konversion. Dies führt dazu, daß die Substitutionseigenschaften aus Lemma 2.2.1(1), (3) und (4) alle für → βη↑ nicht mehr gelten. Definition 6.5.2. (Äußere η-Expansion). Wir definieren ηρ (M ρ ) ∈ Λρ zusammen mit seiner Expansionshöhe µρ ∈ N durch Rekursion über ρ. := M, ηι (M ) ηρ→σ (M ) := λxρ ησ (M ηρ (x)). µι µρ→σ := := 0, µρ + µσ + 1. 142 6. Beweistheorie der Arithmetik Beispiele: ηι→ι (y) = λx.yx und für ρ = (ι → ι) → (ι → ι) ist ηρ (z) = λyλx.z(λu.yu)x. Lemma 6.5.3. (Eigenschaften der äußeren η-Expansion). µ M ρ →η↑ρ η(M ) falls M neutral ist. Sind M , M, N, L in η↑-Normalform, so auch ηρ (xM ) und ηρ ((λxM )N L). Wenn M →β M 0 , so ist η(M ) →β η(M 0 ). η(M )[x := N ] = η(M [x := N ]). ∗ η(M )N →β η(M η(N )). (6.18) (6.19) (6.20) (6.21) (6.22) ∗ η(η(M )) →β η(M ). (6.23) Beweis. (6.18). Induktion über den Typ ρ von M . Der Anfangsfall ρ = ι ist klar, und im Fall ρ → σ haben wir M ρ→σ →η↑ µ →η↑ρ →µη↑σ λx.M x falls M neutral λx.M ηρ (x) nach IH(ρ) λx.ησ (M ηρ (x)) nach IH(σ). (6.19). Induktion über ρ. Der Fall ι ist klar, und im Fall ρ → σ haben wir ηρ→σ (xM ) = λy ρ ησ (xM ηρ (y)), ηρ→σ ((λxM )N L) = λy ρ ησ ((λxM )N Lηρ (y)). Die Behauptung folgt in beiden Fällen aus den IHn für ρ und σ. (6.20). Induktion über den Typ von M . (6.21). Induktion über den Typ von M . Sei oBdA M vom Typ ρ → σ. Dann gilt η(M )[x := N ] = λyη(M η(y))[x := N ] = λyη(M [x := N ]η(y)) nach IH = η(M [x := N ]). (6.22). Induktion über den Typ von M . Der Fall ι ist klar. Im Fall ρ → σ können wir oBdA annehmen, daß N nicht leer ist. Man erhält ηρ→σ (M )N L = →β ∗ →β λxη(M η(x))N L η(M η(N ))L η(M η(N )η(L)) nach IH. (6.23). Induktion über den Typ von M . Der Fall ι ist klar. Im Fall ρ → σ haben wir η(η(M )) = λxη(η(M )η(x)) ∗ λxη(η(M η(η(x)))) nach (6.22) ∗ λxη(M η(x)) nach IH η(M ). →β →β = u t Definition 6.5.4. (η-Expansion). Wir definieren exp(M ρ ) ∈ Λρ zusammen mit seiner Expansionshöhe #η (M ρ ) ∈ N durch Rekursion über ρ. exp(xM ) := exp(λxM ) := exp((λxM )N L) := η(x exp(M )), λx exp(M ), η((λx exp(M )) exp(N ) exp(L)). P Hierbei steht #η (M ) für i #η (Mi ). := µρ + #η (M ), #η (xM ) #η (λxM ) := #η (M ), #η ((λxM )N L) := µρ + #η (M, N, L). 6.5 Nachtrag: η-Expansion 143 Lemma 6.5.5. (Eigenschaften der η-Expansion). # (M ) M →η↑η exp(M ), und exp(M ) ist in η↑-Normalform. (6.24) ∗ η(exp(M )) →β exp(M ). (6.25) ∗ exp(M )[x := η(x)] →β exp(M ). (6.26) ∗ η(exp(M ) exp(N )) →β exp(M N ). (6.27) ∗ exp(M )[x := exp(N )] →β exp(M [x := N ]). Wenn M →η↑ M 0 , so ist exp(M ) = exp(M 0 ) und #η (M ) = #η (M 0 ) + 1. (6.28) (6.29) Beweis. (6.24) beweist man leicht durch Induktion über M , unter Verwendung von (6.18) bzw. (6.19). (6.25) und (6.26) werden simultan durch Induktion über ρ bewiesen. (6.25). Für neutrales M ist exp(M ) ein η-Bild und die Behauptung folgt aus (6.23). Im Fall einer Abstraktion haben wir η(exp(λxM )) = = η(λx exp(M )) λxη((λx exp(M ))η(x)) ∗ λxη(exp(M )[x := η(x)]) ∗ λx exp(M ) nach IH(6.25) exp(λxM ). →β →β = nach IH(6.26) mit (6.20) (6.26). Fall xM . exp(xM )[x := η(x)] = = η(x exp(M )[x := η(x)] η(η(x) exp(M )[x := η(x)]) ∗ η(η(x) exp(M )) nach IH(6.26) mit (6.20) ∗ η(η(xη(exp(M )))) ∗ η(xη(exp(M ))) ∗ η(x exp(M )) = exp(xM ). →β →β →β →β nach (6.21) nach (6.22) mit (6.20) nach (6.23) nach (6.25) mit (6.20) Die restlichen Fälle erhält man leicht aus der IH. (6.27). Induktion über M . Wir können oBdA annehmen, daß N nicht leer ist. η(exp(xM ) exp(N )) = η(η(x exp(M )) exp(N )) ∗ η(η(x exp(M )η(exp(N )))) nach (6.22) mit (6.20) ∗ η(x exp(M )η(exp(N ))) nach (6.23) ∗ η(x exp(M ) exp(N )) = exp(M M N ) = = η((λx exp(M )) exp(N ) exp(L)) exp((λxM )N L) = η(η((λx exp(M )) exp(N ) exp(L)) exp(K)) ∗ η(η((λx exp(M )) exp(N ) exp(L))η(exp(K))) →β →β →β η(exp(λxM ) exp(N ) exp(L)) η(exp((λxM )N L) exp(K)) →β nach (6.22), (6.20) ∗ η((λx exp(M )) exp(N ) exp(L) exp(K)) nach (6.23), (6.25), (6.20) = exp((λxM )N L). →β (6.28). Induktion über M . nach (6.25) 144 6. Beweistheorie der Arithmetik exp(xM )[x := exp(N )] = = η(x exp(M ))[x := exp(N )] η(exp(N )M [x := exp(N )]) ∗ η(exp(N ) exp(M [x := exp(N )])) ∗ exp(N M [x := N ]) nach (6.27). →β →β nach (6.21) nach IH mit (6.20) Die restlichen Fälle ergeben sich leicht aus der IH. (6.29). Induktion über M →η↑ M 0 . Im Fall einer η↑-Kopfkonversion betrachten wir zunächst den Unterfall xM 7→η↑ λy.xM y. Man erhält exp(xM ) = η(x exp(M )) = λyη(x exp(M )η(y)) = exp(λy.xM y) und #η (xM ρ→σ ) = µρ→σ + #η (M ) = µσ + #η (M ) + µρ + 1 = µσ + #η (M , y ρ ) + 1 = #η (λy.xM y) + 1. Im Fall einer inneren Konversion folgt die Behauptung wieder sofort aus der IH. u t 0 Proposition 6.5.6. Wenn M →β M 0 , so ist exp(M ) →+ β exp(M ). Beweis. Induktion über M →β M 0 . Im Fall einer β-Kopfkonversion erhalten wir exp((λxM )N L) = →β η((λx exp(M )) exp(N ) exp(L)) η(exp(M )[x := exp(N )] exp(L)) ∗ η(exp(M [x := N ]) exp(L)) ∗ exp(M [x := N ]L) →β →β nach (6.20) nach (6.28) mit (6.20) nach (6.27). Die Fälle xM M N → xM M 0 N und (λxM )N → (λxM 0 )N sind klar nach der IH. Auch die restlichen Fälle ergeben sich sofort aus der IH. u t Korollar 6.5.7. →βη↑ ist terminierend. Beweis. Nach der Proposition kann man jede β-Reduktion auf dem Term M durch eine positive Anzahl von β-Reduktionen auf exp(M ) simulieren, während nach (6.29) η-Expansionen den Term exp(M ) unverändert lassen. Die Terminierung von →βη↑ folgt jetzt durch Induktion über exp(M ) bzgl. der teru t minierenden Relation →β und Nebeninduktion über #η (M ). Proposition 6.5.8. →βη↑ ist konfluent. ∗ ∗ ∗ ∗ Beweis. Gelte N0 ←βη↑ M →βη↑ N1 . Nach (6.29) und Proposition 6.5.6 folgt exp(N0 ) ←β exp(M ) →β ∗ ∗ exp(N1 ). Die Konfluenz von →β liefert einen Term N mit exp(N0 ) →β N ←β exp(N1 ). Nach (6.24) gilt Ni →η↑ exp(Ni ); damit folgt die Behauptung. 6.6 Anmerkungen 145 M N0 ∗ βη↑ @∗ @ R @ βη↑ N1 ∗ ∗ exp(M ) ∗ @∗ η↑ η↑ @ R @ ? ? β β exp(N0 ) exp(N1 ) @∗ ∗ @ @ R β β N u t Man kann leicht zeigen, daß sich die Terme in η↑-Normalform charakterisieren lassen durch M ::= (xM )ι | λxM | ((λxM )N L)ι , und daß man bei Weglassen der letzten Regel die Terme in βη↑-Normalform erhält. 6.6 Anmerkungen Die Beweisbarkeit von Anfangsfällen der transfiniten Induktion (s. Abschnitt 6.2) wurde von Gentzen [10] gezeigt; in dieser Arbeit zeigte Gentzen auch die Unbeweisbarkeit der transfiniten Induktion bis ε0 für ein Relationssymbol P (s. Abschnitt 6.4). Unsere Darstellung basiert auf Gentzens [10], verwendet aber wie in Schütte [29] ein unendliches Beweissystem mit ω-Regel (s. Abschnitt 6.3), in das sich die übliche Arithmetik einbetten läßt. Dies ist hier für ein System des natürlichen Schließens durchgeführt; eine ähnliche Darstellung für ein GentzenTait-System findet sich in [33]. Gentzens Resultat über die Unbeweisbarkeit der transfiniten Induktion bis ε0 war das erste Beispiel eines mathematisch leicht zu verstehenden wahren Satzes, der nicht in der erststufigen Arithmetik beweisbar ist. Dies steht im Gegensatz zu Gödels Unvollständigkeitssatz: dort ist der unbeweisbare Satz ausschließlich durch metamathematische Betrachtungen motiviert. Einen mehr kombinatorische Aussage dieser Art, in der Ordinalzahlen nicht explizit vorkommen, wurde zuerst von Paris [23] gefunden. Der einfache Beweis in Abschnitt 6.5 der Terminierung und Konfluenz von →βη↑ stammt in dieser Form von Felix Joachimski; man kann ihn als eine verbesserte Variante der η-Expansor-Methode von di Cosmo und Kesner [7] ansehen. Weiterführende Bücher über Beweistheorie sind Schütte [31, 32], Buchholz et al. [4], Takeuti [40], Girard [11], Pohlers [26] sowie [43]. 146 6. Beweistheorie der Arithmetik Literatur 1. E.W. Beth. Semantic construction of intuitionistic logic. Medelingen de KNAW N.S., 19(11), 1956. 2. E.W. Beth. The foundations of mathematics. North–Holland, Amsterdam, 1959. 3. Wilfried Buchholz. A new system of proof–theoretic ordinal functions. Annals of Pure and Applied Logic, 32(3):195–207, 1986. 4. Wilfried Buchholz, Solomon Feferman, Wolfram Pohlers, and Wilfried Sieg. Iterated Inductive Definitions and Subsystems of Analysis: Recent Proof–Theoretical Studies, volume 897 of Lecture Notes in Mathematics. Springer, Berlin, 1981. 5. Georg Cantor. Beträge zur Begründung der transfiniten Mengenlehre. Mathematische Annalen, 49, 1897. 6. C.C. Chang and H.J. Keisler. Model Theory, volume 73 of Studies in Logic. North–Holland, Amsterdam, 3rd edition, 1990. 7. Roberto Di Cosmo and Delia Kesner. A confluent reduction for the extensional typed λ–calculus with pairs, sums, recursion and terminal object. In ICALP 93, number 700 in Lecture Notes in Computer Science, pages 645–656. Springer Verlag, Berlin, Heidelberg, New York, 1993. 8. Harvey Friedman. Equality between functionals. In R. Parikh, editor, Logic Colloquium, Lecture Notes in Mathematics 453, pages 22–37. Springer, 1975. 9. Gerhard Gentzen. Untersuchungen über das logische Schließen. Mathematische Zeitschrift, 39:176–210, 405– 431, 1934. 10. Gerhard Gentzen. Beweisbarkeit und Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion in der reinen Zahlentheorie. Mathematische Annalen, 119:140–161, 1943. 11. Jean-Yves Girard. Proof Theory and Logical Complexity. Bibliopolis, Napoli, 1987. 12. Kurt Gödel. Die Vollständigkeit der Axiome des logischen Funktionenkalküls. Monatshefte für Mathematik und Physik, 37:349–360, 1930. 13. Kurt Gödel. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38:173–198, 1931. 14. Carl A. Gunter. Semantics of Programming Languages: Structures and Techniques. Foundations of Computing. The MIT Press, Cambridge, Massachusetts, 1992. 15. Ingebrigt Johansson. Der Minimalkalkül, ein reduzierter intuitionistischer Formalismus. Compositio Mathematica, 4:119–136, 1937. 16. Stephen C. Kleene. Introduction to Metamathematics. D. van Nostrand Comp., New York, 1952. 17. Saul A. Kripke. Semantical analysis of intuitionistic logic I. In J. Crossley and M. Dummett, editors, Formal Systems and Recursive Functions, pages 93–130. North–Holland, Amsterdam, 1965. 18. Jerzy L oś. Quelques remarques, théorèmes et problèmes sur les classes définissables d’algèbres. In Mathematical Interpretation of Formal Systems, pages 98–113. North–Holland, Amsterdam, 1955. 19. L. Löwenheim. Über Möglichkeiten im Relativkalkül. Mathematische Annalen, 76:447–470, 1915. 20. A. Malzew. Untersuchungen aus dem Gebiete der mathematischen Logik. Rec. Math. N. S., 1:323–336, 1936. 21. Grigori E. Mints. Exact estimates of the provability of transfinite induction in the initial segments of arithmetic. Journal of Soviet Math, 1:85–91, 1973. Translated from Zapiski Nauch. Sem. Leningrad 20, 134–144 (1971). 22. V.P. Orevkov. Lower bounds for increasing complexity of derivations after cut elimination. Zapiski Nauchnykh Seminarov Leningradskogo, 88:137–161, 1979. 23. J.B. Paris. Some independence results for Peano arithmetic. The Journal of Symbolic Logic, 43(4):725–731, 1978. 24. Charles Parsons. Transfinite induction in subsystems of number theory (abstract). The Journal of Symbolic Logic, 38(3):544–545, 1973. 25. Rósza Péter. Rekursive Funktionen. Akademie–Verlag, Berlin, 1957. 26. Wolfram Pohlers. Proof Theory, volume 1407 of Lecture Notes in Mathematics. Springer Verlag, Berlin, Heidelberg, New York, 1989. 27. Harvey E. Rose. Subrecursion: Functions and hierarchies, volume 9 of Oxford Logic Guides. Clarendon Press, Oxford, 1984. 28. Rósza Péter. Recursive Functions. Academic Press, New York, 1967. 29. Kurt Schütte. Beweistheoretische Erfassung der unendlichen Induktion in der Zahlentheorie. Mathematische Annalen, 122:369–389, 1951. 148 Literatur 30. Kurt Schütte. Kennzeichnung von Ordinalzahlen durch rekursiv definierte Funktionen. Mathematische Annalen, 127:16–32, 1954. 31. Kurt Schütte. Beweistheorie. Springer Verlag, Berlin, Heidelberg, New York, 1960. 32. Kurt Schütte. Proof Theory. Springer Verlag, Berlin, Heidelberg, New York, 1977. 33. Helmut Schwichtenberg. Proof theory: Some applications of cut-elimination. In J. Barwise, editor, Handbook of Mathematical Logic, volume 90 of Studies in Logic and the Foundations of Mathematics, chapter Proof Theory and Constructive Mathematics, pages 867–895. North–Holland, Amsterdam, 1977. 34. Joseph R. Shoenfield. Mathematical Logic. Addison–Wesley Publ. Comp., Reading, Massachusetts, 1967. 35. T. Skolem. Logisch–kombinatorische Untersuchungen über die Erfüllbarkeit oder Beweisbarkeit mathematischer Sätze nebst einem Theorem über dichte Mengen. Skrifter utgitt av Videnkapsselskapet i Kristiania, I, Mat. Naturv. Kl., 4:36 pp., 1920. 36. T. Skolem. über die Nicht–Charakterisierbarkeit der Zahlenreihe mittels endlich oder abzählbar unendlich vieler Aussagen mit ausschließlich Zahlenvariablen. Fund. Math., 23:150–161, 1934. 37. Richard Statman. Bounds for proof-search and speed-up in the predicate calculus. Annals of Mathematical Logic, 15:225–287, 1978. 38. William W. Tait. Infinitely long terms of transfinite type I. In J. Crossley and M. Dummett, editors, Formal Systems and Recursive Functions, pages 176–185. North–Holland, Amsterdam, 1965. 39. William W. Tait. A realizability interpretation of the theory of species. In R. Parikh, editor, Logic Colloquium Boston 1971/72, volume 453 of Lecture Notes in Mathematics, pages 240–251. Springer Verlag, Berlin, Heidelberg, New York, 1975. 40. Gaisi Takeuti. Proof Theory. North–Holland, Amsterdam, second edition, 1987. 41. Anne S. Troelstra. Choice Sequences. Oxford Logic Guides. Clarendon Press, Oxford, 1977. 42. Anne S. Troelstra and Helmut Schwichtenberg. Basic Proof Theory. Cambridge University Press, 1996. 43. Anne S. Troelstra and Helmut Schwichtenberg. Basic Proof Theory. Cambridge University Press, 2nd edition, 2000. 44. Anne S. Troelstra and Dirk van Dalen. Constructivism in Mathematics. An Introduction, volume 121, 123 of Studies in Logic and the Foundations of Mathematics. North–Holland, Amsterdam, 1988. 45. Oswald Veblen. Continuous increasing functions of finite and transfinite ordinals. Transactions AMS, 9:280– 292, 1908. Index ∆0 -Formel, 53 Π1 -Formel, 131 Σ1 -Formel, 59 – der Sprache L1 , 81 – strikte, 59 η-Expansion, 141, 143 – äußere, 142 γ-Normalform, 141 µ-Operator – beschränkter, 54 – unbeschränkter, 60 n-elementig, 34 Ableitbarkeitsbedingungen, 82 Ableitung, 7, 124 Abstraktion, 40 abzählbar, 34 Äquivalenz, 3 Allformel, 3 Allklasse, 86 Alphabet, 2 Annahme, 7 – freie, 40 – geschlossene, 7 – offene, 7 Annahmenvariablen, 7 Anwendung, 40 – einfache, 136 Argumenttyp, 39 Aristoteles, 2 arithmetisch, 81 arithmetisches System, 130 – eingeschränktes, 131 – intuitionistisches, 131 – klassisches, 131 Ast, 21, 46, 135 – generischer, 29 Ausgangsfunktionen, 52 Aussage, 2 Aussagenlogik, 39 Aussagensymbol, 5 Aussonderungsschema, 88 Auswahlaxiom, 30–32, 111, 112 Axiom, 2 Axiomensystem, 34 Baum, 21 – endlich verzweigter, 21 – unbeschränkter, 21 – vervollständigter, 21 Belegung, 19 – für Kripke-Strukturen, 27 Berechenbarkeitsprädikat – starkes, 43 Beseitigungsregel, 1, 7, 8, 39 Beth-Struktur, 21 – für die intuitionistische Logik, 23 – vervollständigte, 21 Beweis, 7 Bild, 87 Bindung, 61 Blatt, 21 bottom, 5 Cantor – Satz von, 107 Cantorsches Diagonalargument, 71 Churchsche These, 61 Curry-Howard Korrespondenz, 39 De-Morgan-Äquivalenzen, 15 Dedekind-endlich, 113 Dedekind-unendlich, 113 Definition – explizite, 51 Definitionsbereich, 87 Disjunktion, 3 – klassische, 18 – konstruktiver, 18 – schwache, 18 – starke, 18 Eindeutigkeit der Normalform, 44 Einführungsregel, 1, 7, 8, 39 Einschränkung, 87 Einschritt-Reduktionsrelation, 43 Einsetzung, 52 Element – maximales, 111 elementar äquivalent, 34 endlich, 112 endlich axiomatisierbar, 37 endliche Durchschnittseigenschaft, 30 erfüllbar, 30 Ersetzungsschema, 89 Erzwingungsbeziehung, 21 η-Expansion – einer Variablen, 135 – eines Terms, 135 Ex-Falso-Quodlibet, 9 ex-falso-quodlibet Axiom, 131 Existenzformel, 3 Existenzquantor – klassischer, 18 149 150 Index – konstruktiver, 18 – schwacher, 18 – starker, 18 Expansion, 33 Expansionshöhe, 142, 143 Extensionalitätsaxiom, 86 F -Produktstruktur, 31 F -Ultraprodukt, 31 Falsum, 3 falsum, 5 Filter, 30 formales System, 2 Formel, 2, 5, 131 – als Typ, 39 – arithmetische, 81 – atomare, 5 – aussagenlogisch unzerlegbare, 15 – geschlossene, 5 – negative, 12 – pränexe, 17 Formelmenge – definierbare, 73 – primitiv rekursive, 68 – rekursiv aufzählbare, 68 – rekursive, 68 Formeln – äquivalente, 11 Frege, 2 Funktion, 88 – µ-rekursive, 60 – µ0 -rekursive, 77 – berechenbare, 51, 60 – bijektive, 88 – charakteristische, 51 – HGK-rekursive, 70 – injektive, 88 – monotone, 123 – partielle, 60 – primitiv rekursive, 51 – rekursive, 59 – repräsentierbare, 74 – stetige, 123 – surjektive, 88 – totale, 60 Funktionssymbol, 2, 5 Gödel-Gentzen Übersetzung g , 12 Gödelnummer, 64 Gödelsche β-Funktion, 78 Gültigkeit, 19 genau dann wenn, 3 Gleichheitsaxiome, 33 gleichmächtig, 107 Gleichungssystem, 70 Grundsubstitution, 62 Grundterm, 5 Grundtyp, 39 Gruppentheorie, 4 Hartogszahl, 109 Hauptast, 46 Hauptprämisse, 8 Hauptzahl – additive, 123 Herbrandscher Satz, 47 herleitbar, 9, 18 Herleitung, 7 – konvertierbare, 136 – normale, 136 – quasinormale, 138 Herleitungsterm – geschlossener, 42 Hessenberg-Summe, 129 Heyting-Arithmetik, 131 Implikation, 3 indirekter Beweis, 1 Individuenbereich, 2, 19 Induktion – über ω, 92 – über ω mit Rückgriff auf sämtliche Vorgänger, 94 – transfinite über On, 103 – transfinite über On, verschiedene Formen, 103 Induktionssatz, 90 Induktionsschema, 83 Infix, 5 Instanz, 62, 138 Interpretation, 19 Inverses, 87 isomorph, 34 Körper, 37 – archimedisch geordneter, 37 – geordneter, 37 Kardinalität, 112 Kardinalzahl, 108 – reguläre, 114 – singuläre, 114 kartesisches Produkt, 87 Kern, 17 Klammerkonventionen, 6 Klammersymbol, 126 Klasse, 86 – abgeschlossene, 123 – beschränkte, 123 – club, 123 – echte, 86 – fundierte, 99 – induktive, 92 – normale, 123 – transitive, 92 Klassen – gleiche, 86 Klauselform, 16 Kleenesches T -Prädikat, 71 Kleenesches Aufzählungstheorem, 71 Kleenesches Normalformentheorem, 71 Knoten, 21, 46 – Beseitigungs-, 46 – Blatt, 46 – Einführungs-, 46 – End-, 46 – konsistenter, 28 – minimaler, 46 – stabiler, 28 Kodenummer, 64 Komposition, 52, 62 konfinal, 114 Konfinalität, 114 Index Kongruenzrelation, 33 Konjunktion, 2 Konklusion, 2, 7 konnex, 99 konsistent, 30 Konsistenz, 81 Konstante, 2, 5 Kontext, 9 – konsistenter, 9 Kontinuumshypothese, 116 – verallgemeinerte, 116 Konversionsrelation, 43 Kripke-Struktur, 26 kritische ε-Zahl, 124 kumulative Typenstruktur, 85 Kuratowski-Paar, 87 Länge, 21 λ-Term, 39 Limeszahl, 103 Logik – intuitionistische, 9 – klassische, 9 – minimal, 18 – minimale, 9 lokal konfluent, 44 Mächtigkeit, 112 Marke, 7 Menge, 86 – reine, 85 Minimalformel, 135 Minimalknoten, 135 Modell, 34 modus ponens, 8 monotone Aufzählung, 123 Nachfolgerzahl, 103 natürliche Summe, 129 natürliche Zahlen, 92 Nebenprämisse, 8 Negation, 3 Nichtstandardmodell, 36 Normalform, 43 – disjunktive, 16 – konjunktive, 15 – lange, 135 Normalfunktion, 123 Numeral, 73, 131 Objektvariablen, 7 oder, 3 ordinale Klasse, 99 Ordinalzahl, 99 – stark kritische, 125 Ordnung – lineare, 99 – partielle, 111 Ordnungsfunktion, 123 Orevkov, 49 Paarbildung, 40 Paarfunktion, 55 Peano-Arithmetik, 131 Peano-Axiome, 36, 93, 131 151 Peano-Zahlentheorie, 83 Peirce-Formel, 11, 24 Potenzmengenaxiom, 88 Prädikatensymbol, 5 Präfix, 17 Prämisse, 2, 7 Pränexe Normalform, 17 Prästruktur, 19 Primformel, 5 Primzahlpotenzkodierung, 54 Prinzip des indirekten Beweisens, 9 Prinzip vom kleinsten Element, 94 Progressionsregel, 137 progressiv, 94, 132 Projektion, 40 Quantor, 3 Quantorentiefe, 15 Quasiteilformel, 138 Quotientenstruktur, 34 Rang, 106 Redukt, 33 Reduktionsfolge, 141 Regel, 7 – abgeleitete, 13 Regularitätsaxiom, 106 Rekursion – primitive, 52 Rekursionssatz, 90 Relation, 88 – arithmetische, 81 – aufzählbare, 60 – definierbare, 53, 73 – entscheidbare, 60 – extensionale, 98 – fundierte, 97 – primitiv rekursive, 51 – rekursiv aufzählbare, 58 – rekursive, 59 – repräsentierbare, 74 – transitiv fundierte, 89 Relationssymbol, 2, 5 Repräsentierbarkeit, 74 Russellklasse, 86 Russellsche Antinomie, 85 Satz, 5 Schlußregel, 2 Schnittrang, 134 Schranke – obere, 111 Semantik, 2, 18 Sequenz, 66 Sequenzenformulierung des natürlichen Schließens, 9 Shoenfield-Prinzip, 85 Signatur, 5 simply typed λ-calculus, 39 Sprache – erster Stufe, 5 – primitiv rekursiv präsentierte, 64 Stabilität, 9 Stabilitätsaxiom, 131 Standardmodell, 81 stark berechenbar 152 Index – unter Substitution, 44 stark normalisierend, 43 starkes Berechenbarkeitsprädikat, 43 Statman, 49 Struktur, 19 Stufe, 131 – einer Herleitung, 134 Substitution, 6, 61 Symbolnummer, 64 Syntax, 2 Tarskis Undefinierbarkeitssatz, 74 Teilformel, 46 – strikt positive, 48 – unmittelbare, 46 Teilformeleigenschaft, 47 Term, 2, 5, 40, 131 – γ-normaler, 141 – geschlossener, 5 – neutraler, 40, 42, 45 – normaler, 43 – stark normalisierbarer, 141 – stark normalisierender, 43 Tertium non datur, 15 Theorie, 34 – axiomatisierte, 69 – inkonsistente, 69 – konsistente, 69 – primitiv rekursiv axiomatisierbare, 69 – rekursiv axiomatisierbare, 69 – vollständige, 34 – von M, 34 Trägermenge, 19 transitive Hülle, 96, 97 transitive Relation, 90 Typ, 39 Ultrafilter, 30 Ultrapotenz, 32 Umbenennung, 3 Umgebung, 19 und, 2 Undefinierbarkeitssatz, 74 unendlich, 34, 112 Unendlichkeitsaxiom, 92 Universum, 86 Unvollständigkeitssatz – erster, 75 Variable, 3, 5 – Annahmen-, 7 – freie, 3, 5, 42 – gebundene, 3, 62 – Objekt-, 42 Variablenbedingung, 8, 13, 66 Variablensubstitution, 62 Veblen-Hierarchie, 124 Vereinigungsmengenaxiom, 88 Verkettung, 87 von Neumannsche Stufen, 104 Wahrheitsbegriff, 73 Wahrheitsfunktion, 3 Wahrheitswert, 2 wenn-so, 3 Wertebereich, 87 Wertverlaufsfunktion, 56 Wertverlaufsrekursion, 56 Widerlegung, 139 Widerspruchsfreiheit, 81 Wohlordnung, 99 Wohlordnungssatz, 111 Zahlen – natürliche, 92 Zornsches Lemma, 30, 31, 111