Mathematische Logik

Werbung
Mathematische Logik
Helmut Schwichtenberg
Mathematisches Institut der Universität München
Wintersemester 1999/2000 und Sommersemester 2000
V
Vorwort
Dieses Skriptum entstand als Begleitmaterial zu einer Vorlesung über Mathematische Logik am Mathematischen Institut der Universität München, die ich in zwei Teilen im Wintersemester 1999/2000 und im
Sommersemester 2000 gehalten habe.
Bedanken möchte ich mich bei den Herren Klaus Aehlig und Dr. Oliver Deiser, die die Übungen zu
dieser Vorlesung korrigiert bzw. betreut und in vielen Diskussionen zu ihrem Inhalt wesentlich beigetragen
haben.
München, August 2000
Helmut Schwichtenberg
VI
Inhaltsverzeichnis
1.
Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Formale Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik . . . . . . . . . . . . . . . . . . . . .
1.5 Vollständigkeit der klassischen Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6 Anfänge der Modelltheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
2
7
18
24
28
33
38
2.
Beweistheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1 λ-Kalkül . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Normalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Normale versus nicht-normale Herleitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
39
43
46
47
49
3.
Berechenbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1 Primitiv rekursive Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Rekursive Funktionen, rekursiv aufzählbare Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Kodierung der Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Herbrand-Gödel-Kleene-rekursive Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
51
58
61
70
72
4.
Metamathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Undefinierbarkeit des Wahrheitsbegriffs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Der Wahrheitsbegriff in formalen Theorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Unentscheidbarkeit und Unvollständigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Repräsentierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Unbeweisbarkeit der Widerspruchsfreiheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
73
74
75
77
81
83
5.
Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1 Kumulative Typenstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Axiomatische Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Rekursion, Induktion, Ordinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4 Kardinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5 Das Auswahlaxiom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Ordinalzahlarithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7 Normalfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.8 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
85
86
89
107
111
116
123
126
VIII
6.
Inhaltsverzeichnis
Beweistheorie der Arithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1 Gödelisierung von Ordinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Beweisbarkeit von Anfangsfällen der transfiniten Induktion . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Normalisierung für die Arithmetik mit der Omega-Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion . . . . . . . . . . . . . . . . . . . . . . . .
6.5 Nachtrag: η-Expansion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6 Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129
129
130
133
137
141
145
Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
1. Logik
Untersuchungsgegenstand dieser Vorlesung sind mathematische Beweise. In diesem einführenden Kapitel
befassen wir uns mit den Grundlagen der Formalisierung derartiger Beweise. Dazu verwenden wir ein System des “natürlichen Schließens”, das 1934 von Gentzen [9] eingeführt wurde. Es gibt zwei Hauptgründe
für diese Wahl. Erstens handelt es sich – wie schon der Name sagt – um ein natürliches Beweissystem,
in dem Beweise in einer Art dargestellt sind, wie sie ein sorgfältiger Mathematiker formulieren würde,
wenn er alle Einzelheiten einer Argumentation aufschreiben möchte. Zweitens sind formale Beweise im
natürlichen Schließen eng verknüpft (mittels der sogenannten Curry-Howard Korrespondenz) mit Termen im getypten λ-Kalkül. Dies liefert nicht nur eine kompakte Schreibweise für formale Beweise (die
sonst leicht zu unhandlichen Baumstrukturen werden), sondern öffnet auch einen Weg zur Anwendung
von im Kontext des λ-Kalküls gebräuchlichen rechnerischen Techniken.
Außer der klassischen Logik werden wir uns auch mit konstruktiven Logiken befassen: mit Minimallogik und mit intuitionistischer Logik. Dies wird einige interessante Aspekte von Beweisn zum Vorschein
bringen. So ist es zum Beispiel möglich und sinnvoll, zwischen Existenzbeweisen zu unterscheiden, die
das als existent nachgewiesene Objekt tatsächlich liefern, und solchen, die dies nicht tun. Als Beispiel
betrachten wir die folgende Aussage.
Es gibt irrationale Zahlen a, b mit ab rational.
Einen Beweis
erhält man wie folgt durch Fallunterscheidung.
√
√
√ √2
Fall 2 ist rational. Man wähle a = 2 und b = 2. Dann sind a, b irrational, und nach Annahme
ist ab rational.
√ √2
√ √2
√
Fall 2 ist irrational. Man wähle a = 2 und b = 2. Dann sind nach Annahme a, b irrational,
und
’ √ “√2  ‘
√ 2
√ 2
b
2
2 =2
a =
=
ist rational.
t
u
√ √2
Solange wir nicht entschieden haben, ob 2 nun rational ist oder nicht, wissen wir nicht, welche
Zahlen a, b wir nehmen müssen. Damit haben wir ein Beispiel eines Existenzbeweises, der es nicht erlaubt,
das als existent nachgewiesene Objekt tatsächlich anzugeben.
Eine besondere Eigenart von Gentzens Kalkül des natürlichen Schließens ist es, daß für jede logische Verknüpfung ∧, → und ∀ Einführungs- und Beseitigungsregeln vorhanden sind. Dies führt auf das
System der Minimallogik, das von Johansson [15] 1937 eingeführt wurde. Gibt man dann dem speziellen Aussagensymbol ⊥ (gelesen “falsum”, für “Falschheit”) einen besonderen Status, so erhält man die
intuitionistische Logik (mittels des Prinzips des ex-falso-quodlibet) und die klassische Logik (mittels des
Prinzips des indirekten Beweisens)). Für diesen Aufbau der Logik ist es wichtig, daß wir uns auf eine
Sprache beschränken, die nur die logischen Verknüpfungen →, ∧ und ∀ enthält; die Disjunktion ∨ und
der Existenzquantor ∃ können mittels ihrer de Morganschen Definitionen eingeführt werden. Für diese
Verknüpfungen lassen sich dann die üblichen Einführungs- und Beseitigungsregeln herleiten. Schließlich
erweitern wir die Sprache noch um den starken (konstruktiven) Existenzquantor ∃∗ . Man kann dann in
den Fällen, wo ein Existenzbeweis tatsächlich konstruktiv durch Angabe eines Beispiels geführt wurde,
dies auch in der Formelsprache angemessen ausdrücken.
2
1. Logik
1.1 Formale Systeme
Der Mathematiker studiert Axiomensysteme. Man unterscheidet zwischen “klassischen” Axiomensystemen, die ein intendiertes Modell möglichst vollständig beschreiben sollen (etwa die natürlichen Zahlen
oder die ebene Geometrie) und “modernen” Axiomensystemen wie etwa denen für Gruppen, Ringe und
Körper, die von vornherein so konzipiert sind, daß sie möglichst viele Modelle besitzen. Die Grundbegriffe der jeweiligen mathematischen Disziplin sind dann durch die Axiome implizit bestimmt. Ausgehend
von den Grundbegriffen werden weitere Begriffe definiert, die aber prinzipiell entbehrlich sind. Aus den
Axiomen werden dann mittels logischer Schlußregeln die Sätze der Theorie hergeleitet. – Wir werden uns
hier in erster Linie mit klassischen Axiomensystemen befassen.
Einen mathematischen Satz kann man unter zwei Aspekten betrachten: einerseits teilt er einen Inhalt
mit (semantischer Aspekt), andererseits liegt er als Zeichenreihe vor (syntaktischer Aspekt). Der semantische Aspekt scheint auf den ersten Blick viel wichtiger zu sein. Es ist jedoch nötig und in manchen
Fällen ergiebig, sich auch mit dem syntaktischen Aspekt zu befassen.
Die syntaktische Seite eines Axiomensystems fassen wir in dem Begriff eines formalen Systems zusammen. Ein formales System ist bestimmt durch
(1) eine (formale) Sprache, und
(2) Axiome und Schlußregeln.
Als Sprache verwendet man am besten eine künstliche, formale Sprache, um Eindeutigkeit und Einfachheit zu gewährleisten. Eine solche Sprache ist bestimmt durch einen Zeichenvorrat (Alphabet), daraus
gebildete Terme (die Objekte bedeuten) und Formeln (die Aussagen bedeuten). Eine Aussage ist nach
Aristoteles ein sprachliches Gebilde, von dem es sinnvoll ist zu sagen, es sei wahr oder falsch. Die Axiome
sind dann einfach spezielle Formeln, und die Schlußregeln gestatten den Übergang von gewissen (meist
endlich vielen) Prämissen auf eine Konklusion – im allgemeinen unter zusätzlichen Bedingungen.
Wir wollen hier eine Klasse von formalen Systemen beschreiben, die auf der Logik erster Stufe basieren.
Sie reichen für die Darstellung der üblichen Axiomensysteme der Mathematik aus. Als erstes wollen wir
ihre Sprache einführen. Dazu beginnen wir mit einer informalen Diskussion.
Jede Sprache verwendet Begriffe. In unserem Fall einer Sprache über mathematische Gegenstände
können wir es uns relativ einfach machen. Hier kann man zwischen logischen und nichtlogischen Begriffen
unterscheiden.
Wir behandeln zunächst die nichtlogischen Begriffe. Wir legen einen sogenannten Individuenbereich
zugrunde (etwa den Bereich N der natürlichen Zahlen oder die Trägermenge G einer Gruppe) und verstehen dann unter einem Begriff einfach eine Teilmenge des Individuenbereichs; ein Beispiel ist der Primzahlbegriff. In der Sprache muß für jeden relevanten Begriff ein Symbol zu seiner Benennung vorhanden
sein, etwa P für den Primzahlbegriff; solche Symbole nennt man Relationssymbole. Es ist notwendig,
auch mehrstellige Begriffe zuzulassen, etwa die Kleiner-oder-Gleich-Beziehung n ≤ m zwischen natürlichen Zahlen, oder die dreistellige Relation “A liegt zwischen B und C” für Punkte A, B, C ∈ R2 . Die
zugehörigen Symbole nennt man Relationssymbole.
Ferner brauchen wir in der Mathematik offenbar Funktionen, etwa die Nachfolgerfunktion und die
Addition auf N oder die Gruppenverknüpfung. In der Sprache muß dann für jede vorkommende Funktion
ein Symbol zu ihrer Benennung vorhanden sein, etwa S für die Nachfolgerfunktion, + für die Addition und
◦ für die Gruppenverknüpfung; solche Symbole nennt man Funktionssymbole. Jedes Funktionssymbol hat
eine feste Stellenzahl. Ferner brauchen wir offenbar in der Sprache Konstanten für einzelne Individuen
(etwa 5). Man kann Konstante als entartete (genauer: nullstellige) Funktionssymbole auffassen. Aus den
Funktionssymbolen und den Konstanten kann man Terme aufbauen, etwa S(5) oder 5 + 7. Mit solchen
Termen lassen sich dann atomare Formeln bilden, etwa P (7) (mit der Bedeutung “7 ist eine Primzahl”)
oder S(5) < 9.
Wir nächstes betrachten wir die logischen Begriffe. Aus atomaren Formeln kann man mittels logischer
Verknüpfungen weitere Formeln zusammensetzen, etwa 2 < 3 ∧ P (7). Allgemein ist mit A und B auch
die Konjunktion A ∧ B (gelesen “A und B”) eine Formel.
Man beachte, daß die Wahrheit oder Falschheit von A ∧ B allein von der Wahrheit oder Falschheit
von A und von B abhängt, nicht von der Bedeutung dieser Aussagen. Wir nehmen deshalb mit Frege
an, daß zwei verschiedene Wahrheitswerte W und F gegeben sind. Man beachte, daß es nicht darauf
1.1 Formale Systeme
3
ankommt, was genau die Wahrheitswerte W und F sind, solange sie nur verschieden sind; wir wollen
hier 1 und 0 wählen. Wir betrachten jetzt Wahrheitsfunktionen H : {1, 0}n → {1, 0}. Die Konjunktion
∧ wird dann vollständig durch ihre Wahrheitsfunktion H∧ : {1, 0}2 → {1, 0} beschrieben, die durch
H∧ (p, q) := min(p, q) bestimmt ist.
Mit A ist auch die Negation ¬A (gelesen “nicht A”) eine Formel. Die zugehörige Wahrheitsfunktion
H¬ : {1, 0} → {1, 0} ist einstellig und bestimmt durch H¬ (p) := 1 − p.
Mit A und B ist auch die Disjunktion A ∨ B (gelesen “A oder B”) eine Formel. Man beachte,
daß das “oder” hier im nicht ausschließenden Sinn gemeint ist; dies ist in der Mathematik üblich. Bei
klassischer Auffassung ist die Disjunktion ∨ vollständig durch ihre Wahrheitsfunktion H∨ : {1, 0}2 →
{1, 0} beschrieben, die durch H∧ (p, q) := max(p, q) bestimmt ist. Man beachte, daß dann A ∨ B dasselbe
bedeutet wie ¬(¬A ∧ ¬B), also ∨ auch durch ∧ und ¬ definiert werden kann. Es gilt nämlich H∨ (p, q) :=
H¬ (H∧ (H¬ (p), H¬ (q))), wie man etwa durch Probieren der 22 = 4 Fälle sofort feststellt. Wir werden
auch noch eine starke (oder konstruktive) Auffassung des “oder” besprechen, bei der ∨ nicht mehr so
definiert werden kann.
Mit A und B ist auch die Implikation A → B (gelesen “wenn A, so B” oder “A impliziert B”)
eine Formel. Man beachte, daß wenn-so hier im mathematischen Sinn gemeint ist, d.h. es braucht kein
kausaler Zusammenhang zwischen A und B zu bestehen. So ist zum Beispiel 2 < 3 → P (7) wahr. Die
Wahrheitsfunktion H→ : {1, 0}2 → {1, 0} ist H→ (p, q) := H∨ (H¬ (p), q), also
H→ (1, 1) = H→ (0, 1) = H→ (0, 0) = 1,
H→ (1, 0) = 0.
Schließlich ist mit A und B auch die Äquivalenz A ↔ B (gelesen “A genau dann, wenn B” oder “A
äquivalent B”) eine Formel. Die Wahrheitsfunktion H↔ : {1, 0}2 → {1, 0} ist
H↔ (1, 1) = H↔ (0, 0) = 1,
H↔ (1, 0) = H↔ (0, 1) = 0.
Die Äquivalenz ist offenbar aus ∧ und → definierbar durch (A → B) ∧ (B → A).
Ferner ist es nützlich, noch das Falsum ⊥ als logische Konstante einzuführen. Es ist bestimmt durch
die “nullstellige” Wahrheitsfunktion H⊥ := 0. Man kann dann etwa die Negation ¬ aus der Implikation
→ und dem Falsum ⊥ definieren durch ¬A := A → ⊥, denn es gilt
H→ (1, H⊥ ) = H→ (1, 0) = 0 = H¬ (1),
H→ (0, H⊥ ) = H→ (0, 0) = 1 = H¬ (0).
Um auch allgemeine Aussagen machen zu können – etwa ∀x(e◦x = x) –, benötigen wir noch Variablen
x, y, z, . . . . Dabei stellen wir uns vor, daß die Variablen über die Elemente unseres Individuenbereichs
laufen. Der Termbegriff ist dann so zu erweitern, daß auch Variablen darin zugelassen sind.
Mit A ist auch die Allformel ∀xA (gelesen “für alle x gilt A”) eine Formel. Hierbei wird im allgemeinen
A eine Formel sein, in der die Variable x vorkommt.
Schließlich ist mit A auch die Existenzformel ∃xA (gelesen “es gibt ein x mit A”) eine Formel.
Man beachte, daß bei der üblichen klassischen (oder schwachen) Auffassung des “es gibt” ∃xA dasselbe
bedeutet wie ¬∀x¬A, also ∃ auch durch ∀ und ¬ definiert werden kann. Wir werden auch noch eine
konstruktive (oder starke) Auffassung des Existenzquantors besprechen, bei der dies nicht mehr der Fall
ist.
Man beachte ferner, daß die Verwendung der Quantoren ∀x und ∃x die Unterscheidung zwischen
freien und gebundenen Vorkommen von Variablen notwendig macht. So ist etwa in ∀x(x ≤ x + y) das
zweite und dritte Vorkommen der Variablen x gebunden, aber das einzige Vorkommen der Variablen y
frei. Die letzte Formel kann man unter Erhalt ihrer Bedeutung auch umschreiben in ∀z(z ≤ z + y), denn
dies ist nur eine Umbenennung der gebundenen Variablen. Ein ähnliches Phänomen ist aus der Analysis
bekannt, wo ebenfalls
Z
Z
1
1
sin(ty) dt
sin(xy) dx =
0
ist; x bzw. t kommen hier gebunden und y frei vor.
0
4
1. Logik
Wir geben jetzt einige Beispiele zur Formalisierung mathematischer Aussagen.
Als erstes betrachten wir die Axiome der Gruppentheorie. Grundbegriffe sind die Gruppenverknüpfung
◦ (ein zweistelliges Funktionssymbol), die Einheit e (eine Konstante), die Inversenbildung −1 (ein einstelliges Funktionssymbol) und schließlich die Gleichheit = (ein zweistelliges Relationssymbol). Als Axiome
haben wir
∀x∀y∀z[x ◦ (y ◦ z) = (x ◦ y) ◦ z] (Assoziativität),
∀x[e ◦ x = x]
(Linkseinheit),
∀x[x−1 ◦ x = e]
(Linksinverses).
Zwei Mengen sind gleich, wenn sie dieselben Elemente enthalten:
∀
∃
x∈y
x=y
für alle Mengen
es gibt eine Menge
x ist ein Element von y
x ist gleich y
∀x∀y(∀z.z ∈ x ↔ z ∈ y) → x = y.
f ist stetig im Punkt a:
f
a, 0
∀
∃
x > y (x < y)
d(x, y)
einstelliges Funktionssymbol
reelle Zahlen
für alle reelle Zahlen
es gibt eine reelle Zahl
x ist größer (kleiner) als y
der Abstand von x und y
∀ε.ε > 0 → ∃δ.δ > 0 ∧ ∀x.d(x, a) < δ → d(f (x), f (a)) < ε;
hierfür schreibt man zur Abkürzung meist
∀ε>0∃δ>0∀x.d(x, a) < δ → d(f (x), f (a)) < ε.
Es gibt eine gemeinsame obere Schranke für Summe und Produkt zweier positiver rationaler Zahlen:
∀
∃
+
·
x≤y
2xy
für alle positiven rationalen Zahlen
es gibt eine positive rationale Zahl
Addition
Multiplikation
x ist kleiner oder gleich y
verdoppeltes Produkt von x und y
∀x∀y∃z.x + y ≤ z ∧ x · y ≤ z.
Für positive rationale Zahlen x ≤ 1 und y ist y + 1 eine gemeinsame obere Schranke für ihre Summe und
ihr Produkt:
∀x.x ≤ 1 → ∀y.x + y ≤ y + 1 ∧ x · y ≤ y + 1
oder kürzer
∀x≤1∀y.x + y ≤ y + 1 ∧ x · y ≤ y + 1.
Für positive rationale Zahlen x, y > 1 ist 2xy eine gemeinsame obere Schranke für ihre Summe und ihr
Produkt:
∀x.x 6≤ 1 → ∀y.y 6≤ 1 → [x + y ≤ 2xy ∧ x · y ≤ 2xy]
oder kürzer
∀x6≤1∀y6≤ 1.x + y ≤ 2xy ∧ x · y ≤ 2xy.
1.1 Formale Systeme
5
Formale Sprachen
Wir geben jetzt eine genaue Beschreibung der Sprachen der Logik erster Stufe.
Gegeben sei eine abzählbar unendliche Menge { vi | i ∈ N } von Variablen; Mitteilungszeichen für
Variable sind x, y, z. Eine Sprache L erster Stufe ist bestimmt durch ihre Signatur . Darunter versteht
man folgendes.
(n)
– Für jede natürliche Zahl n ≥ 0 eine (eventuell leere) Menge RelL von n-stelligen Relationssymbolen
(oder auch Prädikatensymbolen). 0-stellige Relationssymbole heißen Aussagensymbole. Wir nehmen an,
daß ein spezielles Aussagensymbol ⊥ (gelesen “falsum” oder “bottom”) vorhanden ist.
(n)
– Für jede natürliche Zahl n ≥ 0 eine (eventuell leere) Menge FunL von n-stelligen Funktionssymbolen.
Die 0-stelligen Funktionssymbole heißen Konstante.
(n)
(n)
Wir setzen voraus, daß die Menge der Variablen und alle Mengen RelL und FunL paarweise disjunkt
sind.
Zum Beispiel ist die Sprache LG der Gruppentheorie bestimmt durch die Signatur bestehend aus den
Funktionssymbolen ◦, e,−1 (2-, 0- bzw. 1-stellig) und dem 2-stelligen Relationssymbol =.
L-Terme werden induktiv wie folgt definiert.
– Jede Variable ist ein L-Term.
– Jede Konstante von L ist ein L-Term.
– Sind t1 , . . . , tn L-Terme und ist f ein n-stelliges Funktionssymbol von L mit n ≥ 1, so ist f (t1 , . . . , tn )
ein L-Term.
Mit TerL bezeichnen wir die Menge der L-Terme. Für jeden L-Term t definieren wir wie folgt die Menge
vars(t) aller Variablen, die in dem Term auftreten.
– Ist t eine Variable, so ist vars(t) := {t}.
– Ist t eine Konstante von L, so ist vars(t) := ∅.
– Sind t1 , . . . , tn L-Terme und ist f ein n-stelliges Funktionssymbol von L, so ist
vars(f (t1 , . . . , tn )) := vars(t1 ) ∪ . . . ∪ vars(tn ).
Ist vars(t) = ∅, so heißt der Term t geschlossen oder Grundterm.
Zweistellige Funktionssymbole werden meist in Infix -Schreibweise verwendet. Man schreibt dann x+y
statt +(x, y). Klammern werden so gesetzt, daß sich die Struktur eines Terms eindeutig ergibt. Statt
f (t1 , . . . , tn ) schreiben wir oft auch f t1 . . . tn . Terme der Sprache der Gruppentheorie, also LG -Terme,
sind dann zum Beispiel e, x ◦ e und (x−1 ◦ y −1 )−1 .
Aus L-Termen erhält man jetzt sehr einfach L-Primformeln oder atomare Formeln von L: Sind
t1 , . . . , tn L-Terme und ist R ein n-stelliges Relationssymbol von L, so ist R(t1 , . . . , tn ) eine L-Primformel;
insbesondere ist ⊥ eine L-Primformel.
Auch zweistellige Relationssymbole werden meist in Infix -Schreibweise verwendet. Man schreibt dann
x < y statt <(x, y). Klammern werden so gesetzt, daß sich die Struktur einer atomaren Formel eindeutig
ergibt. Statt R(t1 , . . . , tn ) schreiben wir oft Rt1 . . . tn .
L-Formeln werden aus L-Primformeln wieder induktiv definiert durch
– Jede L-Primformel ist eine L-Formel.
– Sind A und B L-Formeln, so auch (A ∧ B) und (A → B).
– Ist A eine L-Formel und x eine Variable, so ist ∀xA eine L-Formel.
Für jede L-Formel A definieren wir wie folgt die Menge FV(A) aller in A freien Variablen.
FV(R(t1 , . . . , tn )) := vars(t1 ) ∪ . . . ∪ vars(tn ),
FV(A ∧ B) := FV(A) ∪ FV(B),
FV(A → B) := FV(A) ∪ FV(B),
FV(∀xA) := FV(A) \ {x}.
Falls FV(A) = ∅, so heißt A geschlossene Formel oder Satz . Wir schreiben A[x], um mitzuteilen, daß alle
freien Variablen von A in der Liste x enthalten sind.
6
1. Logik
Wir beschränken uns hier der Einfachheit halber auf die logischen Symbole ∧, → und ∀, da Negation,
Disjunktion, Äquivalenz und der Existenzquantor daraus definierbar sind, und zwar durch
¬A := A → ⊥,
A ∨ B := ¬(¬A ∧ ¬B),
A ↔ B := (A → B) ∧ (B → A),
∃xA := ¬∀x¬A.
Wir schreiben t 6= s für ¬(t = s) und t 6< s für ¬(t < s). Klammern werden so gesetzt, daß sich die
Struktur einer Formel eindeutig ergibt. Um Klammern zu sparen, vereinbaren wir folgendes.
1. Der Wirkungsbereich von ¬ und ∀x ist so klein wie möglich. Beispiele:
¬A ∧ B
∀xA → B
meint (¬A) ∧ B,
nicht ¬(A ∧ B).
meint (∀xA) → B, nicht ∀x(A → B).
2. Der Wirkungsbereich von ∧ und ∨ ist so klein wie möglich, unter Berücksichtigung von (1). Beispiel:
¬A ∧ B → C
meint ((¬A) ∧ B) → C.
3. Bei wiederholter Anwendung einer Verknüpfung ist stets Rechtsklammerung gemeint. Beispiel:
A→B→C
meint
A → (B → C).
4. Schreibt man hinter ∀x einen Punkt, so ist der Wirkungsbereich von ∀x ist so groß wie möglich.
Beispiel:
∀x.A → B meint ∀x(A → B), nicht (∀xA) → B.
Als Mitteilungszeichen verwenden wir (auch mit Indizes)
r, s, t
x, y, z
c
P, Q, R
f, g, h
A, B, C, D
für
für
für
für
für
für
Terme
Variablen
Konstanten
Relationssymbole
Funktionssymbole
Formeln
Im folgenden sei die Sprache L fest gewählt. Wir lassen deshalb den Bezug auf L weg und sprechen
kurz von Termen und Formeln statt von L-Termen und L-Formeln.
Der Einfachheit halber identifizieren wir Formeln, die sich nur durch gebundene Umbenennung unterscheiden. Dann läßt sich die Substitution A[x := t] eines Terms t für eine Variable x besonders einfach
definieren.
Definition 1.1.1. Für Terme r und t definieren wir das Ergebnis der Substitution von t für x in r wie
folgt durch Induktion über den Aufbau von r.
(
t falls x = y
y[x := t] :=
y sonst
c[x := t] := c
f (t1 , . . . , tn )[x := t] := f (t1 [x := t], . . . , tn [x := t])
Für Formeln A und Terme t definieren wir das Ergebnis der Substitution von t für x in A wie folgt durch
Induktion über den Aufbau von A.
R(t1 , . . . , tn )[x := t] := R(t1 [x := t], . . . , tn [x := t])
(A ∧ B)[x := t] := A[x := t] ∧ B[x := t]
(A → B)[x := t] := A[x := t] → B[x := t]
(∀yA)[x := t] := ∀yA[x := t],
6 x und y 6∈ vars(t).
wobei oBdA y =
1.2 Beweise
7
1.2 Beweise
Wir wollen jetzt den Begriff einer logischen Herleitung einer Formel A definieren. Dazu verwenden wir
ein System des “natürlichen Schließens”, das von 1934 von Gentzen eingeführt wurde. Seine besondere
Eigenart ist es, daß für jede logische Verknüpfung Einführungs- und Beseitigungsregeln vorhanden sind.
Wir beginnen mit einigen Beispielen für natürliche Beweise. Gegeben sei also eine Sprache L erster
Stufe. Der Einfachheit halber betrachten wir Beweise in der reinen Logik, d.h. ohne Annahmen über die
Funktionen und Relationen.
(A ∧ B → C) → (A → (B → C)).
(1.1)
Beweis. Gelte A ∧ B → C. Zu zeigen: A → (B → C). Gelte also A. Zu zeigen: B → C. Gelte also
B. Zu zeigen: C. Wir haben A ∧ B, nach den letzten beiden Annahmen. Also auch C, nach der ersten
Annahme.
u
t
(A → (B → C)) → (A ∧ B → C).
(1.2)
Beweis. Gelte A → (B → C). Zu zeigen: A ∧ B → C. Gelte also A ∧ B. Zu zeigen: C. Wir haben A,
nach der letzten Annahme. Also auch B → C, nach der ersten Annahme. Wir haben B, wieder nach der
u
t
letzten Annahme. Daher auch C, nach den letzten beiden Aussagen.
(∀x.A → B) → (A → ∀xB),
falls x ∈
/ FV(A).
(1.3)
Beweis. Gelte ∀x.A → B. Zu zeigen: A → ∀xB. Gelte also A. Zu zeigen: ∀xB. Sei x beliebig; man
beachte, daß wir bisher keine Annahmen über x gemacht haben. Zu zeigen: B. Wir haben A → B, nach
u
t
der ersten Annahme. Also auch B, nach der zweiten Annahme.
(A → ∀xB) → ∀x.A → B,
falls x ∈
/ FV(A).
(1.4)
Beweis. Gelte A → ∀xB. Zu zeigen: ∀x.A → B. Sei x beliebig; man beachte, daß wir bisher keine
Annahmen über x gemacht haben. Zu zeigen: A → B. Gelte also A. Zu zeigen: B. Wir haben ∀xB, nach
der ersten und zweiten Annahme. Also auch B.
u
t
Ein Charakteristikum dieser Beweise ist es, daß Annahmen eingeführt und wieder beseitigt werden:
Zu jedem Zeitpunkt im Beweis kennt man die jetzt freien Annahmen.
Wir reservieren das Wort Beweis für einen informalen Kontext (oder die “Meta-Stufe”); eine formale
Darstellung eines Beweises nennen wir Herleitung oder Ableitung.
Eine anschauliche Art, Herleitungen zu definieren, besteht darin, sie als beschriftete Bäume aufzufassen. Die Beschriftungen der inneren Knoten sind Formeln, die der Blätter sind Formeln oder Terme. Die
Beschriftungen der Nachfolger eines Knotens ν sind die Prämissen einer Regelanwendung, die Formel
am Knoten ν ist ihre Konklusion. An der Wurzel des Baums befindet sich die Konklusion der gesamten
Herleitung. Im natürlichen Schließen arbeitet man mit Annahmen, die an Blättern des Baums stehen; sie
können offen oder geschlossen (man sagt auch: gestrichen) sein.
Jede dieser Annahmen ist mit einer Marke versehen. Als Marken verwenden wir Annahmenvariablen
ƒ0 , ƒ1 , . . . ; Mitteilungszeichen für Annahmenvariablen sind u, v, w, u0 , u1 , . . . . Die (bisherigen) Variablen
nennen wir oft auch Objektvariablen, um sie von den Annahmenvariablen zu unterscheiden. Wenn an einer
späteren Stellen (d.h. an einem Knoten im Baum unterhalb einer solchen Annahme) die Abhängigkeit
von dieser Annahme beseitigt wird, notieren wir dies durch Angabe der Annahmenvariablen. Da wir
dieselbe Annahme auch mehrfach verwenden können (dies war etwa im Beispiel 1.2 der Fall), darf in
einem Baum eine mit u markierte Annahme A (mitgeteilt durch u : A) auch mehrfach vorkommen. Wir
verlangen jedoch, daß verschiedene Annahmeformeln stets verschiedene Marken bekommen.
Einen inneren Knoten im Baum verstanden wir als Resultat eines Übergangs von Prämissen zu einer
Konklusion. Die zulässigen Übergänge werden durch die Regeln bestimmt. Die Beschriftung des Knotens
enthält dann neben der Konklusion noch den Namen der verwendeten Regel. In manchen Fällen bindet
eine Regel eine Annahmenvariable u (und beseitigt damit die Abhängigkeit von allen darüber stehenden,
8
1. Logik
mit u markierten Annahmen u : A) oder eine Objektvariable x (und beseitigt damit die Abhängigkeit
von x). Dann wird die abgebundene Annahmen- oder Objektvariable der Beschriftung hinzugefügt.
Wir geben jetzt die Regeln des natürlichen Schließens an. Zunächst haben wir eine Annahmeregel, die
es gestattet, eine beliebige mit einer Marke u versehene Formel A als Annahme hinzuschreiben:
u: A
Annahme
Die restlichen Regeln des natürlichen Schließens gliedern sich in Einführungs- und Beseitigungsregeln für
die logischen Verknüpfungen ∧, → und ∀. Für die Konjuktion ∧ haben wir eine Einführungsregel ∧+ und
−
zwei Beseitigungsregeln ∧−
0 und ∧1 .
D
D
A∧B −
A∧B −
∧0
∧1
A
B
Für die Implikation → gibt es eine Einführungsregel →+ u und eine Beseitigungsregel →− , die man auch
modus ponens nennt. Die linke Prämisse A → B in →− nennt man Hauptprämisse, die rechte Prämisse
A Nebenprämisse. Man beachte, daß bei Anwendung einer →+ u-Regel alle darüber stehenden mit u
markierten Annahmen A gestrichen werden.
D0
D1
A
B +
∧
A∧B
[u : A]
D0
D1
D
A→B
A
→−
B
B
→+ u
A→B
Für den Allquantor ∀ gibt es eine Einführungsregel ∀+ x und eine Beseitigungsregel ∀− , die als rechte
Prämisse den zu substituierenden Term t hat. Die Regel ∀+ x unterliegt der folgenden Variablenbedingung:
Die Herleitung D der Prämisse A darf keine offenen Annahmen enthalten, in denen x frei vorkommt.
D
∀xA
t −
∀
A[x := t]
D
A
∀+ x
∀xA
Wir geben Herleitungen für die oben bewiesenen Formeln (1.1) – (1.4) an. Da meist die verwendete
Regel durch die an den Knoten stehenden Formeln bestimmt ist, verzichten wir im allgemeinen auf die
Angabe der Regel.
v: A
w: B
u: A ∧ B → C
A∧B
C
→+ w
B→C
→+ v
A → (B → C)
→+ u
(A ∧ B → C) → (A → (B → C))
u : A → (B → C)
B→C
v: A ∧ B
A
v: A ∧ B
B
C
→+ v
A∧B →C
→+ u
(A → (B → C)) → (A ∧ B → C)
u : ∀x.A → B
A→B
(1.1)
(1.2)
x
v: A
B x
∀xB
→+ v
A → ∀xB
→+ u
(∀x.A → B) → (A → ∀xB)
(1.3)
1.2 Beweise
9
Hier ist zu beachten, daß die Variablenbedingung erfüllt ist: x kommt nicht frei in A (und auch nicht frei
in ∀x.A → B) vor.
u : A → ∀xB
∀xB
v: A
x
B
+
→ v
A→B x
∀x.A → B
→+ u
(A → ∀xB) → ∀x.A → B
(1.4)
Auch hier ist die Variablenbedingung erfüllt: x kommt nicht frei in A vor.
Wir schreiben `A und nennen A herleitbar (in der Minimallogik ), wenn es eine Herleitung von A
ohne freie Annahmen gibt. Eine Formel B heißt herleitbar aus den Annahmen A1 , . . . , An , wenn es eine
Herleitung mit freien Annahmen unter A1 , . . . , An gibt. Sei Γ eine (endliche oder unendliche) Menge
von Formeln. Wir schreiben Γ ` B, wenn die Formel B aus endlich vielen Annahmen A1 , . . . , An ∈ Γ
herleitbar ist.
Sequenzenformulierung des natürlichen Schließens
Um die an einem Knoten ν eines Herleitungsbaums freien Annahmen zu finden, muß man die Annahmen an den Blättern oberhalb von ν durchsuchen. Diejenigen davon, deren Marke nicht zwischen dem
Blatt und ν gestrichen wurde, sind an dem Knoten ν frei. Obwohl schreibtechnisch aufwendig ist es für
manche metamathematischen Untersuchungen bequem, die an einem Knoten freien Annahmen explizit
mitzuführen. Man nennt die Menge der an einem Knoten freien Annahmen den Kontext. Ein Kontext
ist also eine Menge {u1 : A1 , u2 : A2 , . . . , un : An } mit paarweise verschiedenen ui . Die Ai brauchen nicht
verschieden zu sein; dies entspricht der Tatsache, daß in einer natürlichen Herleitung dieselbe Annahmeformel mehrmals mit verschiedenen Marken vorkommen kann. Die Herleitungen werden dann Bäume, an
denen jeder Knoten beschriftet ist mit einer Sequenz der Form Γ ⇒ B, wobei Γ ein Kontext ist.
Mit Γ, ∆ oder auch Γ ∆ bezeichnen wir die Vereinigung Γ ∪ ∆. Die Verwendung dieser Bezeichnung
soll stets die Voraussetzung implizieren, daß die Vereinigung konsistent, also wieder ein Kontext ist.
u: A ⇒ A
Annahme
Γ ⇒A
∆⇒B +
∧
Γ∆ ⇒ A ∧ B
Γ ⇒B
→+ u
Γ \ {u : A} ⇒ A → B
Γ ⇒A
∀+
Γ ⇒ ∀xA
Γ ⇒A∧B −
∧0
Γ ⇒A
Γ ⇒A∧B −
∧1
Γ ⇒B
∆⇒A −
Γ ⇒A→B
→
Γ∆ ⇒ B
t −
Γ ⇒ ∀xA
∀
Γ ⇒ A[x := t]
Die Variablenbedingung bei der Regel ∀+ ist jetzt einfach, daß x nicht frei in einer der Formeln des
Kontexts Γ vorkommt.
Intuitionistischen und klassische Logik
In unserer →∧∀-Sprache erhalten wir die intuitionistische Logik , indem wir gewisse zusätzliche Annahmen
verwenden, und zwar die sogenannten Ex-Falso-Quodlibet-Formeln (oder “Axiome”) EfqR für jedes von
⊥ verschiedene Relationssymbol R
∀x.⊥ → Rx
(EfqR )
Ähnlich erhält man die klassische Logik : wir nehmen für jedes jedes von ⊥ verschiedene Relationssymbol
R das Prinzip des indirekten Beweisens für R als zusätzliche Annahme hinzu, also die Formel
∀x.¬¬Rx → Rx;
diese Formel bezeichnet man auch als Stabilität von R.
(StabR )
10
1. Logik
Man beachte, daß mit ⊥ für R beide Formeln trivialerweise herleitbar sind; z.B. für die Stabilität
haben wir ¬¬⊥ → ⊥ = ((⊥ → ⊥) → ⊥) → ⊥. Die gesuchte Herleitung ist
v : (⊥ → ⊥) → ⊥
⊥
u: ⊥
→+ u
⊥→⊥
Sei
Efq := { EfqR | R Relationssymbol 6= ⊥ },
Stab := { StabR | R Relationssymbol =
6 ⊥ }.
Wir nennen die Formel A klassisch (intuitionistisch) herleitbar und schreiben `c A (`i A), wenn es eine
Herleitung von A aus Stabilitätsannahmen StabR (Ex-Falso-Quodlibet Annahmen EfqR ) gibt. Ebenso
definieren wir klassische (intuitionistische) Herleitbarkeit aus Γ und schreiben Γ `c A (Γ `i A), also
Γ `i A :⇐⇒ Γ ∪ Efq ` A,
Γ `c A :⇐⇒ Γ ∪ Stab ` A.
Lemma 1.2.1. (Ex-falso-quodlibet). Für jede Formel A gilt `i ⊥ → A.
Beweis. Durch Induktion über A konstruieren wir für jede Formel A eine Herleitung DA von ⊥ → A.
Fall Rt. Mit EfqR . Fall A ∧ B.
DA
⊥→A
A
u: ⊥
DB
⊥→B
B
u: ⊥
A∧B
→+ u
⊥→A∧B
Fall A → B.
DB
⊥→B
u: ⊥
B
A→B
→+ u
⊥→A→B
Fall ∀xA.
DA
⊥→A
u: ⊥
A
∀xA
→+ u
⊥ → ∀xA
u
t
Lemma 1.2.2. (Stabilität). Für jede Formel A (unserer →∧∀-Sprache) gilt `c ¬¬A → A.
Beweis. Induktion über A. In den konstruierten Herleitungen lassen wir der Kürze halber Anwendungen
von →+ am Schluß fort. Fall Rt. Mit StabR . Fall A ∧ B. Mit ` (¬¬A → A) → (¬¬B → B) →
¬¬(A ∧ B) → A ∧ B, was leicht aus ` ¬¬(A ∧ B) ↔ (¬¬A ∧ ¬¬B) folgt. Fall A → B. Mit ` (¬¬B →
B) → ¬¬(A → B) → A → B. Eine Herleitung ist
u2 : A → B
B
⊥
→+ u2
¬(A → B)
w: A
u1 : ¬B
v : ¬¬(A → B)
u : ¬¬B → B
B
⊥
→+ u1
¬¬B
Fall ∀xA. Offenbar genügt es zu zeigen, daß ` (¬¬A → A) → ¬¬∀xA → A. Eine Herleitung ist
1.2 Beweise
u1 : ¬A
v : ¬¬∀xA
u : ¬¬A → A
A
u2 : ∀xA
A
11
x
⊥
→+ u2
¬∀xA
u
t
⊥
→+ u1
¬¬A
Lemma 1.2.3. Γ ` A =⇒ Γ `i A und Γ `i A =⇒ Γ `c A.
Beweis. Es genügt zu zeigen, daß `c EfqR . Dies sieht man wie folgt; R sei etwa einstellig.
∀x.¬¬Rx → Rx
¬¬Rx → Rx
x
u: ⊥
+ ¬Rx
¬¬Rx → v
u
t
Rx
→+ u
⊥ → Rx
∀+
∀x.⊥ → Rx
Die Umkehrungen gelten jedoch nicht; Gegenbeispiele sind:
6 ⊥ → P,
`
6`i ((P → Q) → P ) → P,
aber `i ⊥ → P ,
aber `c ((P → Q) → P ) → P
`i ⊥ → P folgt aus Lemma 1.2.1, und die Peirce-Formel ((P → Q) → P ) → P läßt sich leicht klassisch
herleiten. Die negative Aussagen erfordern ein genaueres Studium der Herleitbarkeit. Wir werden in
Abschnitt 1.4 einen Beweis geben.
Lemma 1.2.4. (Fallunterscheidung). `c (A → B) → (¬A → B) → B.
Beweis.
w : ¬B
DStab
¬¬B → B
w : ¬B
B
u2 : ¬A → B
B
u1 : A → B
B
⊥
→+ v
¬A
v: A
⊥
→+ w
¬¬B
wobei DStab gemäß dem Stabilitätslemma 1.2.2 gewählt ist.
u
t
Wir nennen zwei Formeln A und B äquivalent in der Minimallogik bzw. in der klassischen oder
intuitionistischen Logik, wenn ` A ↔ B bzw. `c A ↔ B oder `i A ↔ B.
Lemma 1.2.5. (Äquivalenzlemma). Für `mic ∈ {`, `i , `c } gilt folgendes. Ist `mic A1 ↔ A2 und entsteht
B2 aus B1 durch Ersetzen eines Teils A1 von B1 durch A2 , so gilt auch `mic B1 ↔ B2 .
Beweis. Induktion über B1 . Falls ganz B1 ersetzt wird, so ist die Behauptung klar. Andernfalls muß B1
eine zusammengesetzte Formel sein.
Fall C1 ∧ D1 . Die Ersetzung finde etwa in C1 statt. Zu zeigen ist dann `mic C1 ∧ D1 ↔ C2 ∧ D1 . →:
D
C1 → C2
C2
C1 ∧ D1
C1
C1 ∧ D1
D1
C 2 ∧ D1
wobei D nach IH bekannt ist. ← beweist man ähnlich.
Fall C1 → D1 . Falls die Ersetzung in C1 stattfindet, ist zu zeigen `mic (C1 → D1 ) ↔ (C2 → D1 ). →:
12
1. Logik
D
C2 → C1
C1
C1 → D1
u : C2
D1
→+ u
C2 → D1
wobei wieder D nach IH bekannt ist. ← beweist man ähnlich. Falls die Ersetzung in D1 stattfindet, ist
zu zeigen `mic (C1 → D1 ) ↔ (C1 → D2 ). →:
C1 → D1
D1
D
D1 → D2
u : C1
D2
→+ u
C1 → D2
wobei wieder D nach IH bekannt ist. ← beweist man ähnlich.
Fall ∀xC1 . Zu zeigen ist `mic ∀xC1 ↔ ∀xC2 . →:
D
C1 → C2
∀xC1
C1
x
C2
∀xC2
wobei wieder D nach IH bekannt ist. Man beachte, daß D keine freien Annahmen enthält. ← beweist
u
t
man ähnlich.
Einbettung der intuitionistischen und klassischen Logik in die Minimallogik
Nachdem wir die klassische und die intuitionistische Logik definiert haben, wollen wir jetzt zeigen, daß
beide Logiken in die Minimallogik eingebettet werden können. Dies mag verwunderlich erscheinen; es folgt
wesentlich aus der Tatsache, daß wir uns auf eine Sprache beschränkt haben, die nur die Verknüpfungen
{→, ∧, ∀} enthält.
Eine Formel A (unserer →∧∀-Sprache) heißt negativ , wenn jede atomare Formel 6= ⊥ in A negiert
vorkommt, d.h. in einem Kontext Rt → ⊥.
Lemma 1.2.6. Für negative A gilt ` ¬¬A → A.
Beweis. Dies beweist man wie das Stabilitätslemma 1.2.2 durch Induktion über A, wobei man anstelle
t
u
der Stabilitätsannahmen verwendet ` ¬¬¬Rt → ¬Rt.
Definition 1.2.7. (Negative Übersetzung
g
nach Gödel-Gentzen).
6 ⊥,
Rtg := ¬¬Rt für R =
g
⊥ := ⊥,
(A ∧ B)g := Ag ∧ B g ,
(A → B)g := Ag → B g ,
(∀xA)g := ∀xAg .
Satz 1.2.8. Für alle Formeln A gilt
1. `c A ↔ Ag ,
2. Γ `c A genau dann, wenn Γ g ` Ag , wobei Γ g := { B g | B ∈ Γ }.
Beweis. Der erste Teil folgt sofort aus dem Äquivalenzlemma 1.2.5. Für den zweiten Teil ist die Richtung
von rechts nach links klar. Für die andere Richtung argumentieren wir durch Induktion nach der klassischen Herleitung. Für eine Stabilitätsannahme ¬¬Rt → Rt gilt (¬¬Rt → Rt)g = ¬¬¬¬Rt → ¬¬Rt,
und dies ist leicht herleitbar. Fall →+ . Gelte
1.2 Beweise
13
[u : A]
D
B
→+ u
A→B
Dann haben wir nach IH
u : Ag
Dg
Bg
[u : Ag ]
Dg
Bg
→+ u
g
A → Bg
also
Fall →− . Gelte
D0
A→B
B
D1
A
Dann haben wir nach IH
D0g
Ag → B g
D1g
Ag
D0g
Ag → B g
Bg
also
D1g
Ag
Die restlichen Fälle behandelt man ähnlich.
u
t
Korollar 1.2.9. (Einbettung der klassischen Logik in die Minimallogik). Für negative A gilt `c A genau
dann, wenn ` A.
Beweis. Nach dem Satz haben wir `c A genau dann, wenn ` Ag . Da A negativ ist, muß jedes Atom
6= ⊥ in A negiert vorkommen, ist also in Ag dreifach negiert (als ¬¬¬Rt). Die Behauptung folgt aus
` ¬¬¬Rt ↔ ¬Rt.
u
t
Da jede Formel klassisch äquivalent zu einer negativen Formel ist, haben wir damit eine Einbettung
der klassischen in die Minimallogik erreicht.
Man beachte, daß 6` ¬¬P → P (wie wir in Abschnitt 1.4 zeigen werden). Das Korollar gilt also nicht
für alle Formeln A.
Abgeleitete Regeln für Disjunktion und Existenz
Disjunktion und Existenz hatten wir definiert durch
A ∨ B := ¬(¬A ∧ ¬B),
∃xA := ¬∀x¬A.
Herleitungen von Formeln mit ∨, ∃ lassen sich jedoch oft leichter finden, wenn man nicht auf diese Definitionen zurückgeht, sondern direkt mit “abgeleiteten Regeln” für ∨, ∃ arbeitet. Darunter verstehen wir
die folgenden Regeln.
+
−
Für die Disjunktion ∨ gibt es zwei Einführungsregeln ∨+
0 , ∨1 und eine Beseitigungsregel ∨ uv.
D
A
A∨B
∨+
1
D
B
A∨B
[u : A]
D0
C
C
D
A∨B
∨+
0
[v : B]
D1
C −
∨ uv
Für den Existenzquantor ∃ gibt es eine Einführungsregel ∃+ , die als rechte Prämisse den zu substituierenden Term t hat, und eine Beseitigungsregel ∃− u. Die Regel ∃− u unterliegt der folgenden Variablenbedingung: Die Herleitung D0 darf keine offenen Annahmen außer u : A enthalten, in denen x frei vorkommt,
und ferner darf B die Variable x nicht frei enthalten.
D
A[x := t]
∃xA
t
∃+
D
∃xA
B
[u : A]
D0
B −
∃ u
14
1. Logik
Der doppelte Strich deutet hierbei an, daß es sich nicht um eine primitive Regel unserer Logik handelt,
sondern daß man an dieser Stelle einen Herleitungsteil so einsetzen kann, daß eine korrekt gebildete Herleitung entsteht. Wir geben im folgenden für jede der abgeleiteten Regeln den einzusetzenden Herleitungsteil
an. Man beachte, daß es sich um Herleitungen in der klassischen Logik handelt, da Stabilitätsannahmen
verwendet werden.
+
∨+
0 (∨1 wird entsprechend behandelt):
D
u : ¬A ∧ ¬B
¬A
A
⊥
→+ u
¬(¬A ∧ ¬B)
∨− uv:
[v : B]
D1
C
w : ¬C
⊥
⊥
+
→ u
→+ v
¬A
¬B
¬A ∧ ¬B
w : ¬C
DStab
¬¬C → C
[u : A]
D0
C
D
¬(¬A ∧ ¬B)
⊥
→+ w
¬¬C
C
+
∃ :
∃− u:
D
u : ∀x¬A
t
A[x := t]
¬A[x := t]
⊥
→+ u
¬∀x¬A
v : ¬B
DStab
¬¬B → B
D
¬∀x¬A
[u : A]
D0
B
⊥
→+ u
¬A
∀x¬A
⊥
→+ v
¬¬B
B
Als Alternative kann man ebenfalls den Komfort der abgeleiteten Regeln für ∨, ∃ erhalten, indem man
die folgenden (ableitbaren) Schemata als Axiome benutzt.
A → A ∨ B, B → A ∨ B.
A ∨ B → (A → C) → (B → C) → C.
A → ∃xA.
∃xA → (∀x.A → B) → B,
falls x ∈
/ FV(B).
Konjunktive und disjunktive Normalform
Lemma 1.2.10. (Assoziativität, Kommutativität und Distributivität von ∧ und ∨).
1.
2.
3.
4.
5.
6.
`c
`c
`c
`c
`c
`c
A ∧ (B ∧ C) ↔ (A ∧ B) ∧ C.
A ∨ (B ∨ C) ↔ (A ∨ B) ∨ C.
A ∧ B ↔ B ∧ A.
A ∨ B ↔ B ∨ A.
A ∧ (B ∨ C) ↔ (A ∧ B) ∨ (A ∧ C).
A ∨ (B ∧ C) ↔ (A ∨ B) ∧ (A ∨ C).
1.2 Beweise
Beweis. Übung.
15
u
t
Lemma 1.2.11. 1. ( de Morgan-Äquivalenzen).
`c ¬(A ∧ B) ↔ ¬A ∨ ¬B,
`c ¬(A ∨ B) ↔ ¬A ∧ ¬B.
2. (→ aus ¬, ∧ bzw. ¬, ∨).
`c (A → B) ↔ ¬(A ∧ ¬B),
`c (A → B) ↔ ¬A ∨ B.
3. (Tertium non datur). `c A ∨ ¬A.
Beweis. 1. Die Behauptung ergibt sich aus der Definition von ∨, dem Stabilitätslemma 1.2.2 und dem
Äquivalenzlemma 1.2.5.
2. `c (A → B) ↔ ¬(A ∧ ¬B). →.
v : A ∧ ¬B
¬B
u: A → B
B
⊥
←.
u : ¬(A ∧ ¬B)
DStab
¬¬B → B
B
→+ v
A→B
`c (A → B) ↔ ¬A ∨ B. →.
v: A
w : ¬B
A ∧ ¬B
⊥
→+ w
¬¬B
DStab
¬¬A → A
u: A → B
v : ¬¬A ∧ ¬B
¬B
v : A ∧ ¬B
A
A
v : ¬¬A ∧ ¬B
¬¬A
B
⊥
←. Hier kann man die abgeleitete Regel ∨− verwenden; ferner benötigt man das Ex-Falso-QuodlibetLemma 1.2.1.
3. Dies ergibt sich sofort aus der Definition von ∨:
u : ¬A ∧ ¬¬A
¬¬A
⊥
u : ¬A ∧ ¬¬A
¬A
u
t
Zur Formulierung des nächsten Satzes benötigen wir den Begriff der Quantorentiefe qt(A) einer Formel
A; er ist durch Rekursion über A definiert wie folgt.
qt(Rt) := 0,
qt(A ∧ B) := max(qt(A), qt(B)) + 1,
qt(A → B) := max(qt(A), qt(B)) + 1,
qt(∀xA) := qt(A) + 1.
Satz 1.2.12. (Konjunktive und disjunktive Normalform).
1. Jede Formel A ist klassisch äquivalent zu einer Formel der Gestalt
n
n W
V
V
Wi
Aij
( konjunktive Normalform),
i=1 j=1
wobei die Aij aussagenlogisch unzerlegbare Formeln (d.h. atomare Formeln oder von der Form ∀xA)
oder Negationen davon sind, und qt(Aij ) ≤ qt(A).
16
1. Logik
2. Jede Formel ist A klassisch äquivalent zu einer Formel der Gestalt
n
n V
W
W
Vi
( disjunktive Normalform),
Aij
i=1 j=1
wobei wieder die Aij aussagenlogisch unzerlegbare Formeln oder Negationen davon sind, und qt(Aij ) ≤
qt(A).
Beweis. Wir zeigen (1) und (2) gemeinsam durch Induktion über die gegebene Formel, unter Verwendung
des Äquivalenzlemmas 1.2.5.
Fall Atomare Formel, ∀xA. In diesem Fall ist nichts zu zeigen.
Fall A ∧ B. Für (1) verwendet man die konjunktiven Normalformen von A und von B. (2) ergibt sich
aus den disjunktiven Normalformen von A und von B durch Ausdistribuieren.
Fall A → B. Die Behauptung ergibt sich aus `c (A → B) ↔ ¬A ∨ B und den de Morgan-Äquivalenzen, und zwar für (1) unter Verwendung der disjunktiven Normalform von A und der konjunktiven
Normalform von B und für (2) unter Verwendung der konjunktiven Normalform von A und der disjunkt
u
tiven Normalform von B, wobei in (1) noch auszudistribuieren ist.
Eine konjunktive Normalform von A (die offenbar nicht eindeutig bestimmt ist) nennt man auch eine
Klauselform von A. Da eine Konjunktion genau dann herleitbar ist, wenn dies für jedes Konjunktionsglied
gilt, kann man sich also bei der Suche nach Herleitungen von Formeln auf sogenannte Klauseln, also
Disjunktionen von aussagenlogisch unzerlegbaren Formeln beschränken. Man beachte, daß die Herstellung
etwa der konjunktiven Normalform einer gegebenen Formel im allgemeinen exponentiell viele (in der Länge
der Formel) Rechenschritte erfordert, da bei den Distributivgesetzen Formeln dupliziert werden.
Pränexe Normalform
/ FV(A). Dann gilt
Lemma 1.2.13. (Herausziehen von Quantoren). Sei x ∈
1.
2.
3.
4.
5.
6.
`c
`c
`c
`c
`c
`c
A ∧ ∀xB ↔ ∀x.A ∧ B.
A ∧ ∃xB ↔ ∃x.A ∧ B.
(A → ∀xB) ↔ ∀x.A → B.
(A → ∃xB) ↔ ∃x.A → B.
(∀xB → A) ↔ ∃x.B → A.
(∃xB → A) ↔ ∀x.B → A.
Beweis. Wir behandeln hier und im folgenden die abgeleiteten Regeln für ∃ und ∨ wie gewöhnliche
Regeln.
(1) ist sehr leicht zu zeigen. (2) →.
u: A
v : ∃xB
←.
u : ∃x.A ∧ B
A
u0 : B
A∧B
x
∃x.A ∧ B −
∃ u0
∃x.A ∧ B
u0 : A ∧ B
A −
∃ u0
u : ∃x.A ∧ B
∃xB
u1 : A ∧ B
B
∃xB
x
∃− u1
A ∧ ∃xB
(3) Dies hatten wir in (1.3) und (1.4) gezeigt.
(4) →. Hier helfen die abgeleiteten Regeln für ∃ nicht; wir müssen auf die Definition von ∃ zurückgehen.
Ferner ist es nützlich, sich an die (klassische) Äquivalenz von ¬(A → B) mit A ∧ ¬B zu erinnern.
Wir führen den Beweis informal, und zwar so daß klar ist, wie man daraus (unter Zuhilfenahme des
Äquivalenzlemmas 1.2.5) eine formale Herleitung gewinnen kann. Gelte also (*) A → ¬∀x¬B und (**)
∀x.A ∧ ¬B. Aus (**) erhält man A, also aus (*) ¬∀x¬B. Aus (**) erhält man auch ∀x¬B, also insgesamt
⊥, wie gewünscht.
1.2 Beweise
(4) ←.
u0 : A → B
B
u : ∃x.A → B
17
u1 : A
x
∃xB
−
∃ u0
∃xB
→+ u1
A → ∃xB
(5) →. Hier helfen wieder die abgeleiteten Regeln für ∃ nicht; wir müssen auf die Definition von ∃
zurückgehen. Ferner ist es wieder nützlich, die (klassische) Äquivalenz von ¬(B → A) mit B ∧ ¬A zu
verwenden. Wir führen den Beweis wieder informal. Gelte also (*) ∀xB → A und (**) ∀x.B ∧ ¬A. Aus
(**) erhält man ∀xB, also aus (*) A. Aus (**) erhält man auch ¬A, also insgesamt ⊥, wie gewünscht.
(5) ←.
u1 : ∀xB
x
B
u0 : B → A
A −
u : ∃x.B → A
∃ u0
A
→+ u 1
∀xB → A
(6) →.
u0 : B
x
∃xB
u : ∃xB → A
A
→+ u0
B→A
∀+
∀x.B → A
(6) ←.
x
u : ∀x.B → A
B→A
u1 : B
u
t
v : ∃xB
A −
∃ u1
A
Eine Formel A heißt pränex , wenn A = Q1 x1 Q2 x2 . . . Qn xn B mit Qi ∈ {∀, ∃} und B quantorenfrei. B
heißt der Kern von A und Q1 x1 Q2 x2 . . . Qn xn das Präfix von A. Wir zeigen jetzt, daß sich jede Formel
in eine pränexe Normalform bringen läßt.
Satz 1.2.14. (Pränexe Normalform). Zu jeder Formel A findet man eine klassisch äquivalente pränexe
Formel A0 .
Beweis. Induktion über A.
Fall Atomare Formel. In diesem Fall ist nichts zu zeigen.
Fall A ∧ B. Nach IH haben wir `c A ↔ A0 und `c B ↔ B 0 mit
A0 = Q1 x1 . . . Qn xn A0 ,
0
B =
Q∗1 y1
. . . Q∗m ym B0 ,
A0 quantorenfrei,
B0 quantorenfrei.
Wir können oBdA annehmen, daß kein xi in B 0 und kein yj in A0 vorkommt. Nach dem Lemma 1.2.13
über das Herausziehen von Quantoren und dem Äquivalenzlemma 1.2.5 folgt
∗
`c A ∧ B ↔ Q1 x1 . . . Qn xn Q1∗ y1 . . . Qm
ym .A0 ∧ B0 .
Fall A → B. Wie eben erhält man
`c (A → B) ↔ Q1 x1 . . . Qn xn Q∗1 y1 . . . Q∗m ym .A0 ∧ B0 .
wobei Qi = ∀ falls Qi = ∃, und Qi = ∃ falls Qi = ∀.
Fall ∀xA. Nach IH haben wir `c A ↔ A0 mit einem pränexen A0 . Nach dem Äquivalenzlemma 1.2.5
folgt
`c ∀xA ↔ ∀xA0 .
u
t
18
1. Logik
Zur Berechnung der pränexen Normalform ist es nützlich, die folgenden leicht zu beweisenden Äquivalenzen zu verwenden.
Lemma 1.2.15. 1. `c ¬∀xB ↔ ∃x¬B.
2. `c ¬∃xB ↔ ∀x¬B.
/ FV(A).
3. `c A ∨ ∀xB ↔ ∀x.A ∨ B, falls x ∈
/ FV(A).
4. `c A ∨ ∃xB ↔ ∃x.A ∨ B, falls x ∈
Beweis. Übung.
u
t
Starke Disjunktion und Existenz
Wenn man für Zwecke der Programmextraktion einen Existenzbeweis führen will, so ist es vorteilhaft,
neben dem bisher behandelten schwachen oder klassischen Existenzquantor ∃ (der durch ¬∀¬ definiert
war) auch noch einen starken oder konstruktiven Existenzquantor ∃∗ zuzulassen. Man kann dann in den
Fällen, wo ein Existenzbeweis tatsächlich konstruktiv durch Angabe eines Beispiels geführt wurde, dies
auch in der Formelsprache angemessen ausdrücken.
Entsprechend könnte man auch neben der bisher behandelten schwachen oder klassischen Disjunktion
∨ (die durch ¬ ∧ ¬ definiert war) auch noch eine starken oder konstruktive Disjunktion ∨∗ zulassen. In
Anwesenheit des Grundtyps ι der natürlichen Zahlen ist dies jedoch entbehrlich: Wir definieren
A ∨∗ B := ∃∗ n.(n = 0 → A) ∧ (n 6= 0 → B).
Wir wollen kurz diskutieren, welchen Effekt die Hinzunahme von ∨∗ , ∃∗ auf unsere bisherigen Untersuchungen hat. Wir erweitern also den Formelbegriff um die Klauseln A ∨∗ B und ∃∗ xA. Die Definitionen
der Mengen der freien Variablen und der Substitution werden in der offensichtlichen Weise erweitert,
ebenso unsere Konventionen betreffend Klammersetzung. Die Logik von ∨∗ und ∃∗ kann dann durch
die abgeleiteten Regeln für den Existenzquantor und die Disjunktion axiomatisiert werden. Alternativ
kann man auch die Regeln der Minimallogik beibehalten und den starken Existenzquantor durch die
Generalisierung der folgenden Formeln axiomatisieren; diesen Weg wollen wir hier gehen.
A → A ∨∗ B, B → A ∨∗ B.
A ∨∗ B → (A → C) → (B → C) → C.
A → ∃∗ xA.
∃∗ xA → (∀x.A → B) → B,
falls x ∈
/ FV(B).
∗+
∗−
Diese Axiomenschemata bezeichnen wir durch ∨∗+
, ∃∗+ und ∃∗− . Für Formeln A in der durch
0 , ∨1 , ∨
∗
∗
∨ und ∃ erweiterten Sprache schreiben wir `A und nennen A herleitbar (in der Minimallogik ), wenn
es eine Herleitung von A aus diesen Axiomenschemata gibt.
Lemma 1.2.16. (Ex-falso-quodlibet). Für jede Formel A in der Sprache mit den Verknüpfungen →, ∧,
∨∗ , ∀ und ∃∗ gilt
`i ⊥ → A.
Beweis. Wir müssen nur die Fälle A ∨∗ B und ∃∗ xA zusätzlich behandeln, was aber trivial ist.
u
t
Die Einbettung der intuitionistischen Logik läßt sich also wie bisher durchführen.
1.3 Modelle
Es ist eine offensichtliche Frage, ob unsere logischen Regeln ausreichen, d.h. ob wir notwendige Regeln
vergessen haben. Um diese Frage beantworten zu können, müssen wir die Bedeutung einer Formel kennen,
d.h. wir müssen eine Semantik angegeben haben. Zunächst wollen wir deshalb den Begriff der Bedeutung
eines Terms und einer Formel präzisieren. Dazu definieren wir den Begriff einer Struktur (genauer LStruktur) und erklären dann, was der Wert eines Terms und die Bedeutung einer Formel in einer solchen
1.3 Modelle
19
Struktur sein soll. Wir zeigen dann den Korrektheitssatz: er sagt aus, daß jede in der klassischen Logik
herleitbare Formel in einer beliebigen Struktur gültig ist.
Ferner definieren wir Strukturbegriffe von Beth und Kripke, die beide zur Minimallogik und zur
intuitionistischen Logik passen, und zeigen Korrektkeitssätze für beide Logiken. Im nächsten Anschnitt
beweisen wir dann die Vollständigkeit unserer Regeln bzgl. dieser Strukturbegriffe, und als Folgerung erhalten wir im übernächsten Abschnitt die Vollständigkeit der klassischen Logik, bezogen auf den üblichen
Strukturbegriff.
Strukturen
Definition 1.3.1. M = (D, I) heißt Prästruktur (genauer L-Prästruktur), wenn D eine nichtleere Menge
ist (die Trägermenge oder der Individuenbereich von M) und I eine Abbildung (Interpretation), die jedem
n-stelligen Funktionssymbol f von L eine Funktion
I(f ) : Dn → D
zuordnet. Ist n = 0, so ist I(f ) ein Element von D. M = (D, I0 , I1 ) heißt Struktur (genauer L-Struktur),
wenn (D, I0 ) eine Prästruktur ist und I1 eine Abbildung, die jedem n-stelligen Relationssymbol R von L
eine n-stellige Relation
I1 (R) ⊆ Dn
zuordnet. Ist n = 0, so ist I1 (R) einer der Wahrheitswerte 1 und 0; insbesondere soll I1 (⊥) = 0 sein.
Ist M = (D, I) bzw. (D, I0 , I1 ), so schreiben wir oft |M| für die Trägermenge D von M sowie f M
und RM für die Interpretationen I0 (f ) und I1 (R) der Funktions- und Relationssymbole.
Eine (Variablen-) Belegung oder Umgebung in D ist eine Abbildung, die jeder Variablen x ∈ dom(η)
einen Wert η(x) ∈ D zuordnet. Endliche Belegungen schreiben wir als [x1 := a1 , . . . , xn := an ] (oder
auch [a1 /x1 , . . . , an /xn ]) mit verschiedenen x1 , . . . , xn . Ist η eine Belegung in D und a ∈ D, so sei ηxa die
Belegung in D, die x auf a abbildet und sonst mit η übereinstimmt, also
(
6 x
η(y), falls y =
a
ηx (y) :=
a,
falls y = x.
Seien eine Prästruktur M und eine Belegung η in |M| gegeben. Wir definieren eine homomorphe
Fortsetzung von η (ebenfalls bezeichnet durch η) auf die Menge TerL der L-Terme t mit vars(t) ⊆ dom(η)
durch
η(c) := cM ,
η(f (t1 , . . . , tn )) := f M (η(t1 ), . . . , η(tn )).
Man beachte, daß die Erweiterung von η von M abhängt; wir schreiben deshalb auch tM [η] für η(t).
Für jede Struktur M, Belegung η in |M| und Formel A mit FV(A) ⊆ dom(η) definieren wir M |= A[η]
(gelesen: A ist gültig in M unter der Belegung η) durch Rekursion über A. Diese Definition wurde zuerst
von Tarski angegeben.
M
M |= R(t1 , . . . , tn )[η] :⇐⇒ (tM
1 [η], . . . , tn [η]) ∈ I1 (R)
M |= R[η] :⇐⇒ I1 (R) = 1 für R nullstellig.
für R nicht nullstellig.
M |= (A ∧ B)[η] :⇐⇒ M |= A[η] und M |= B[η].
M |= (A → B)[η] :⇐⇒ wenn M |= A[η], so M |= B[η].
M |= (∀xA)[η] :⇐⇒ für alle a ∈ |M| gilt M |= A[ηxa ].
Wegen I1 (⊥) = 0 folgt insbesondere M 6|= ⊥[η].
Ist Γ eine Menge von Formeln, so schreiben wir M |= Γ [η], wenn für alle A ∈ Γ gilt M |= A[η]. Gilt
M |= A[η] für alle Belegungen η in |M|, so schreiben wir M |= A.
20
1. Logik
Lemma 1.3.2. (Koinzidenzlemma). Sei M eine Struktur, t ein Term, A eine Formel und η, ξ Belegungen
in |M|.
1. Gilt η(x) = ξ(x) für alle x ∈ vars(t), so ist η(t) = ξ(t).
2. Gilt η(x) = ξ(x) für alle x ∈ FV(A), so gilt M |= A[η] genau dann, wenn M |= A[ξ].
Beweis. Induktion über Terme bzw. Formeln.
u
t
Lemma 1.3.3. (Substitutionslemma). Sei M eine L-Struktur, t, r L-Terme, A eine L-Formel und η eine
Belegung in |M|. Dann gilt
η(t)
1. η(r[x := t]) = ηx (r).
η(t)
2. M |= A[x := t][η] ⇐⇒ M |= A[ηx ].
Beweis. 1. Induktion über r. 2. Induktion über A. Wir beschränken uns auf die Fälle einer atomaren
Formel und einer Allformel; die restlichen Fälle sind sehr einfach.
Fall R(s1 , . . . , sn ). Zur Vereinfachung nehmen wir n = 1 an. Dann gilt
M |= R(s)[x := t][η] ⇐⇒ M |= R(s[x := t])[η]
⇐⇒ η(s[x := t]) ∈ RM
⇐⇒ ηxη(t) (s) ∈ RM
⇐⇒ M |=
nach (1)
R(s)[ηxη(t) ].
Fall ∀yA. Wir können oBdA y 6= x und y ∈
/ vars(t) annehmen.
M |= (∀yA)[x := t][η]
⇐⇒ M |= (∀yA[x := t])[η]
⇐⇒ für alle a ∈ |M| gilt M |= A[x := t][ηya ]
⇐⇒ für alle a ∈ |M| gilt M |= A[(ηya )bx ] mit b = ηya (t) = η(t) (IH und Lemma 1.3.2)
⇐⇒ für alle a ∈ |M| gilt M |= A[(ηxb )ay ] da x 6= y
⇐⇒ M |= (∀yA)[ηxb ]
u
t
Für beliebige (oBdA geschlossene) L-Formeln A werden wir zeigen, daß A genau dann in der klassischen Logik herleitbar ist, wenn A in allen L-Strukturen gültig ist. Wir zeigen zunächst die einfache
Richtung.
Satz 1.3.4. (Korrektheit). Sei Γ `c B. Ist dann M eine Struktur und η eine Belegung in |M|, so folgt
aus M |= Γ [η] stets M |= B[η].
Beweis. Induktion über Herleitungen. Da die gegebene Herleitung von B aus Γ nur endlich viele Annahmen frei enthält, können wir oBdA Γ = {A1 , . . . , An } voraussetzen.
Fall u : B. Dann ist B ∈ Γ und die Behauptung ist klar.
Fall StabR : ∀x.¬¬Rx → Rx. Die Behauptung ist wieder klar, da M |= ¬¬A[η] gleichbedeutend ist
mit M |= A[η].
Fall ∧+ . Gelte M |= Γ [η]. Zu zeigen ist M |= (A ∧ B)[η]. Nach IH haben wir M |= A[η] und
−
−
beweist man
M |= B[η]. Die Behauptung folgt aus der Definition von |=. Die Fälle ∧−
0 , ∧1 und →
genauso.
Fall →+ . Gelte M |= Γ [η]. Zu zeigen ist M |= (A → B)[η]. Gelte also noch M |= A[η]. Zu zeigen ist
M |= B[η]. Nach IH (mit Γ ∪ {A} statt Γ ) ist dies richtig.
Fall ∀+ . Gelte M |= Γ [η]. OBdA mögen alle Formeln A1 , . . . , An in der gegebenen Herleitung von
A als freie Annahmen vorkommen. Zu zeigen ist M |= (∀xA)[η]. Sei also a ∈ |M|. Zu zeigen ist M |=
A[ηxa ]. Da aufgrund der Variablenbedingung für ∀+ die Variable x in keiner der Formeln A1 , . . . , An frei
vorkommt, gilt nach dem Koinzidenzlemma M |= Γ [ηxa ]. Die IH (mit ηxa statt η) liefert M |= A[ηxa ].
Fall ∀− . Gelte M |= Γ [η]. Zu zeigen ist M |= A[x := t][η], d.h. nach dem Substitutionslemma
M |= A[ηxb ] mit b = η(t). Nach IH haben wir M |= (∀xA)[η], d.h. für alle a ∈ |M| gilt M |= A[ηxa ]. Mit
η(t) für a folgt die Behauptung.
u
t
1.3 Modelle
21
Beth-Strukturen
Ein zur Minimallogik und zur intuitionistischen Logik passende Strukturbegriff wurde zuerst von Beth
[1] konzipiert; er basiert auf einer Vorstellung von “sich entwickelnden möglichen Welten”, die durch
Knoten k eines endlich verzweigten Baums indiziert sind. Kenntnisse können sich nur vergrößern, d.h.
gilt Rt in einer Welt k, so gilt Rt auch in allen künftigen möglichen Welten.
Jede Beth-Struktur basiert also auf einem endlich verzweigten Baum T . Wir führen zunächst die
hierbei notwendigen Begriffe ein. Ein Knoten über einer nichtleeren Menge S ist eine endliche Folge
k = ha0 , a1 , . . . , an−1 i von Elementen ai ∈ S; n ist die Länge lh(k) von k. Wir schreiben k – k 0 wenn k
ein Anfangsstück von k 0 ist. Ein Baum über S ist eine Menge von Knoten (über S), die gegen Bildung
von Anfangsstücken abgeschlossen ist. Ein Baum T ist endlich verzweigt, wenn jedes k ∈ T höchstens
endlich viele unmittelbare Nachfolger in T hat. Ein Baum T ist unbeschränkt, wenn es für jedes n ∈ N
einen Knoten k ∈ T gibt so daß lh(k) = n. Ein Ast in einem Baum T ist ein linear geordneter (durch –)
Teilbaum von T . Ein Blatt in T ist ein Knoten k in T ohne echte Fortsetzungen in T .
Für den Vollständigkeitssatz wird es genügen, Beth-Strukturen über dem vollen binären Baum zu betrachten, d.h. der Menge T01 aller endlichen 0-1-Folgen (Knoten) k. Die leere Folge wird mit hi bezeichnet,
und k0, k1 bezeichnen Erweiterungen der Folge k durch 0 oder 1.
Definition 1.3.5. Sei (T, –) ein endlich verzweigter Baum. B = (M, I0 , I1 ) ist eine L-Beth-Struktur
über T , wenn (M, I0 ) eine L-Prästruktur und I1 jedem n-stelligen Relationssymbol R von L und jedem
Knoten k ∈ T eine n-stellige Relation
I1 (R, k) ⊆ M n
zuordnet so daß Monotonie gilt, d.h.
k – k 0 =⇒ I1 (R, k) ⊆ I1 (R, k 0 ).
Ist n = 0, so ist I1 (R, k) wahr oder falsch und die Monotonie sagt aus, daß für k – k 0 aus I1 (R, k) stets
I1 (R, k 0 ) folgt.
Von I1 (⊥, k) wird also nichts verlangt; das Falsum spielt in der Minimallogik die Rolle eines gewöhnlichen Aussagensymbols.
tB [η] für eine Belegung η wird wie bei klassischen Modellen erklärt. An die Stelle der Modellbeziehung
M |= A[η] tritt bei Beth-Strukturen jedoch die Erzwingungsbeziehung. Für deren Definition ist es
bequem, den zugrunde liegenden Baum T zunächst zu vervollständigen zu einem Baum T̄ ohne Blätter,
indem wir zu jedem Blatt k ∈ T alle Fortsetzungen k0, k00, k000, . . . zu T hinzunehmen. Für jeden
hinzugekommenen Knoten k0 . . . 0 setzen wir I1 (R, k0 . . . 0) := I1 (R, k).
Definition 1.3.6. B, k  A[η] (B erzwingt A im Knoten k für die Belegung η) wird induktiv wie
folgt definiert. Wir schreiben k  A[η] wenn die unterliegende Struktur B klar ist, und ∀k 0 —n k A für
∀k 0 —k.lh(k 0 ) = lh(k) + n → A.
0
B
k  R(t1 , . . . , tp )[η] :⇐⇒ ∃n∀k 0 —n k (tB
1 [η], . . . , tp [η]) ∈ I1 (R, k )
für R nicht nullstellig.
k  R[η] :⇐⇒ ∃n∀k —n k I1 (R, k ) = 1 für R nullstellig.
k  (A ∨∗ B)[η] :⇐⇒ ∃n∀k 0 —n k.k 0  A[η] oder k 0  B[η].
k  (∃∗ xA)[η] :⇐⇒ ∃n∀k 0 —n k∃a∈|B| k 0  A[ηxa ].
k  (A → B)[η] :⇐⇒ ∀k 0 —k.k 0  A[η] =⇒ k 0  B[η].
0
0
k  (A ∧ B)[η] :⇐⇒ k  A[η] und k  B[η].
k  (∀xA)[η] :⇐⇒ ∀a∈|B| k  A[ηxa ].
In den Klauseln für Atome, Disjunktionen und Existenzformeln beziehen wir uns also auf eine “Schranke”
(“bar”) in T̄ . Für Atome wäre dies jedoch nicht nötig; es ist jedoch bequem für die Konstruktion von
Beth-Strukturen. Man kann eine gegebene Beth-Struktur leicht “vervollständigen” durch “Herunterziehen der Schranke” für Atome. Dies bedeutet, daß wir die ursprünglich gegebene Interpretation I1 der
Relationssymbol ersetzen durch
22
1. Logik
I 1 (R, k) := { a ∈ |B|p | ∃n∀k 0 —n k a ∈ I1 (R, k 0 ) }.
Dann gilt offensichtlich wieder die Monotonie, d.h. I 1 (R, k) ⊆ I 1 (R, k 0 ) für k – k 0 . In einer solchen
vervollständigten Beth-Struktur können wir die Klausel für Atome in der Definition der Erzwingungsbeziehung vereinfachen zu
k  Rt[η] ⇐⇒ tB [η] ∈ I 1 (R, k).
Aus der Definition ergibt sich leicht, daß die Monotonie sich auf Formeln überträgt, d.h. daß aus
k  A[η] stets k 0  A[η] folgt für k – k 0 . Auch die Umkehrung ist richtig:
Lemma 1.3.7. (Überdeckungseigenschaft).
∀k 0 —n k k 0  A[η] =⇒ k  A[η].
Beweis. Induktion über A. Wir schreiben k  A für k  A[η].
Fall Rt. Gelte
∃n∀k 0 —n k k 0  Rt,
also nach Definition
∃n∀k 0 —n k∃m∀k 00 —m k 0 tB [η] ∈ I1 (R, k 00 ).
Da T ein endlich verzweigter Baum ist, haben wir
∃m∀k 0 —m k tB [η] ∈ I1 (R, k 0 ),
also k  Rt.
Die Fälle A ∨∗ B und ∃∗ xA behandelt man ähnlich.
Fall A → B. Gelte k 0  A → B für alle k 0 — k mit lh(k 0 ) = lh(k) + n. Wir müssen zeigen
∀l—k.l  A =⇒ l  B.
Gelte also l — k und l  A. Zu zeigen ist l  B. Wir verwenden die IH für B mit m := max(lh(k)+n, lh(l)).
Gelte also l0 — l und lh(l0 ) = m. Es genügt zu zeigen l0  B. Ist lh(l0 ) = lh(l), so gilt l0 = l und wir sind
fertig. Ist lh(l0 ) = lh(k) + n > lh(l), so ist l0 eine Erweiterung von l und auch von k mit Länge lh(k) + n,
und wir haben l0  A → B nach Annahme. Ferner gilt l0  A, da l0 — l und l  A. Dies wiederum
impliziert l0  B.
Die Fälle A ∧ B und ∀x A sind klar.
u
t
Das Koinzidenzlemma und das Substitutionslemma lassen sich wie erwartet auf Beth-Strukturen
übertragen.
Lemma 1.3.8. (Koinzidenzlemma). Sei B eine Beth-Struktur, t ein Term, A eine Formel und η, ξ
Belegungen in |B|.
1. Gilt η(x) = ξ(x) für alle x ∈ vars(t), so ist η(t) = ξ(t).
2. Gilt η(x) = ξ(x) für alle x ∈ FV(A), so folgt B, k  A[η] ⇐⇒ B, k  A[ξ].
Beweis. Induktion über Terme und Formeln.
u
t
Lemma 1.3.9. (Substitutionslemma). Sei B eine Beth-Struktur, t, r Terme, A eine Formel und η eine
Belegung in |B|. Dann gilt
η(t)
1. η(r[x := t]) = ηx (r).
η(t)
2. B, k  A[x := t][η] ⇐⇒ B, k  A[ηx ].
Beweis. Induktion über Terme und Formeln.
u
t
Hieraus erhalten wir wie üblich den Korrektheitssatz.
Satz 1.3.10. (Korrektheit). Sei Γ ∪ {A} eine Formelmenge und es gelte Γ ` A. Ist dann B eine BethStruktur, k ein Knoten und η eine Belegung in |B|, so folgt aus B, k  Γ [η] stets B, k  A[η].
1.3 Modelle
23
∗+
∗−
Beweis. Induktion über Herleitungen. Wir beginnen mit den Axiomenschemata ∨∗+
, ∃∗+ und
0 , ∨1 , ∨
∗−
∃ . Statt k  C[η] schreiben wir kurz k  C, falls η aus dem Kontext bekannt ist.
0
∗
0
∗
Fall ∨∗+
0 : A → A ∨ B. Zu zeigen ist k  A → A ∨ B. Sei also k — k mit k  A gegeben. Zu zeigen
∗+
0
0
∗
ist k  A ∨ B; dies folgt aber nach Definition aus k  A. Den Fall ∨1 : B → A ∨∗ B behandelt man
ähnlich.
Fall ∨∗− : A ∨∗ B → (A → C) → (B → C) → C. Zu zeigen ist k  A ∨∗ B → (A → C) → (B → C) →
C. Sei also k 0 — k und gelte k 0  A ∨∗ B, k 0  A → C und k 0  B → C (offenbar kann man annehmen,
daß dasselbe k 0 für alle drei Prämissen gewählt ist). Zu zeigen ist k 0  C. Nach Definition gibt es ein n
so daß für alle k 00 —n k 0 gilt k 00  A oder k 00  B. In beiden Fällen folgt k 00  C, da k 0  A → C und
k 0  B → C. Aus der Überdeckungseigenschaft 1.3.7 ergibt sich die Behauptung k 0  C.
Fall ∃∗+ : A → ∃∗ xA. Zu zeigen ist k  (A → ∃∗ xA)[η]. Sei also k 0 — k mit k 0  A[η] gegeben. Zu
η(x)
zeigen ist k 0  (∃∗ xA)[η]. Wegen η = ηx
gibt es ein a ∈ |B| (nämlich a := η(x)) mit k 0  A[ηxa ]. Also
0
∗
haben wir k  (∃ xA)[η].
Fall ∃∗− : ∃∗ xA → (∀x.A → B) → B mit x ∈
/ FV(B). Zu zeigen ist k  (∃∗ xA → (∀x.A →
0
0
∗
B) → B)[η]. Sei also k — k mit k  (∃ xA)[η] und k 0  (∀x.A → B)[η] gegeben. Zu zeigen ist
k 0  B[η]. Nach Definition gibt es ein n so daß für alle k 00 —n k 0 es ein a ∈ |B| gibt mit k 00  A[ηxa ]. Mit
k 0  (∀x.A → B)[η] folgt k 00  B[ηxa ], also wegen x ∈
/ FV(B) nach dem Koinzidenzlemma auch k 00  B[η].
Aus der Überdeckungseigenschaft 1.3.7 ergibt sich die Behauptung k 0  B[η].
Fall →+ . Gelte k  Γ . Zu zeigen ist k  A → B. Sei also k 0 — k mit k 0  A[η] gegeben. Zu zeigen ist
0
k  B. Es gilt k 0  Γ ∪ {A}, also nach IH k 0  B.
Fall →− . Gelte k  Γ . Nach IH haben wir k  A → B und k  A, also auch k  B.
Fall ∀+ . Gelte k  Γ [η] und x ∈
/ FV(Γ ). Wir müssen zeigen k  (∀xA)[η], d.h. k  A[ηxa ] für ein
beliebiges a ∈ |B|. Wir haben
/ FV(Γ )
k  Γ [ηxa ] nach dem Koinzidenzlemma, da x ∈
k  A[ηxa ] nach IH.
Fall ∀− . Gelte k  Γ [η]. Wir müssen zeigen k  A[x := t][η]. Wir haben
k  (∀xA)[η]
nach IH
nach Definition
k  A[ηxη(t) ]
k  A[x := t][η] nach dem Substitutionslemma.
u
t
Gegenmodelle
Mit Hilfe des Korrektheitssatzes ist es einfach, Gegenmodelle zu finden, aus denen sich die NichtHerleitbarkeit in der Minimallogik bzw. in der intuitionistischen Logik ergibt. Unter einer Beth-Struktur
für die intuitionistische Logik verstehen wir eine Beth-Struktur B = (M, I0 , I1 ), in der ⊥ nicht erzwungen
wird, d.h. I1 (⊥, k) = 0 für alle k. In Beth-Strukturen für die intuitionistische Logik haben wir deshalb
k  ¬A ⇐⇒ ∀k 0 —k k 0 
6 A,
0
0
k  ¬¬A ⇐⇒ ∀k —k k 
6 ¬A
0
00
⇐⇒ ∀k —k∃k —k 0 k 00  A.
Als Beispiel zeigen wir 6`i ¬¬P → P . Um eine Beth-Struktur zu beschreiben, stellen wir den zugrunde
liegenden Baum durch ein Diagramm dar, wo wir neben jeden Knoten die Aussagensymbole schreiben,
die in diesem Knoten erzwungen werden. Man betrachte die durch das folgende Diagramm gegebene
Beth-Struktur.
...
•P
•
@
€
@•€
•P
@
€
@•€
•P
@
€
@•€
24
1. Logik
Offenbar haben wir
hi 6 P,
hi  ¬¬P.
Also gilt hi 6 ¬¬P → P und deshalb 6` ¬¬P → P . Da offenbar  EfqR für jedes R gilt, haben wir auch
6`i ¬¬P → P . Das Modell zeigt ebenfalls die Nicht-Herleitbarkeit der Peirce-Formel ((P → Q) → P ) →
P in der intuitionistischen Logik.
1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik
Wir zeigen jetzt die Umkehrung der Korrektheitssatzes.
Satz 1.4.1. (Vollständigkeit). Sei Γ ∪ {A} eine Formelmenge. Dann sind folgende Aussagen äquivalent.
1. Γ ` A.
2. Γ  A, d.h. für alle Beth-Strukturen B, Knoten k und Belegungen η
B, k  Γ [η] =⇒ B, k  A[η].
Beweis. Eine Richtung ist der Korrektheitssatz. Für die andere Richtung verwenden wir einen Ansatz
von Harvey Friedman [8] und konstruieren eine Beth-Struktur B (über der Menge T01 aller endlichen
0-1-Folgen k geordnet durch die Anfangsstück-Relation k – k 0 ) mit der Eigenschaft, daß Γ ` B äquivalent
ist zu B, hi  B[id].
Zur Definition von B gehen wir aus von einer festen Aufzählung A0 , A1 , A2 , . . . aller L-Formeln, in der
jede Formel
S unendlich oft vorkommen möge; wir fixieren auch eine Aufzählung x0 , x1 , . . . aller Variablen.
Sei Γ = n Γn mit endlichen Mengen Γn so daß Γn ⊆ Γn+1 . Jedem Knoten k ∈ T01 ordnen wir eine
endliche Menge ∆k von Formeln zu, durch Induktion über die Länge von k.
Sei ∆hi := ∅. Nehmen wir jetzt an, daß für einen Knoten k mit lh(k) = n die Menge ∆k schon definiert
ist. ∆ `n B bedeute, daß es eine Herleitung von B aus ∆ gibt mit Länge (:= Gesamtzahl der Symbole)
≤ n. Wir definieren ∆k0 und ∆k1 wie folgt.
Fall 1. Γn , ∆k 6`n An . Dann sei
∆k0 := ∆k
und ∆k1 := ∆k ∪ {An }.
Fall 2. Γn , ∆k `n An = A0n ∨∗ A00n . Dann sei
∆k0 := ∆k ∪ {An , A0n }
und
∆k1 := ∆k ∪ {An , A00n }.
Fall 3. Γn , ∆k `n An = ∃∗ xA0n . Dann sei
∆k0 := ∆k1 := ∆k ∪ {An , A0n [x := xi ]},
/ FV(Γn , An , ∆k ).
mit xi die erste Variable ∈
Fall 4. Γn , ∆k `n An , mit An weder Disjunktion noch Existenzformel. Dann sei
∆k0 := ∆k1 := ∆k ∪ {An }.
Offenbar impliziert k – k 0 stets ∆k ⊆ ∆k0 . Man beachte zunächst, daß
∀k 0 —n k Γ, ∆k0 ` B =⇒ Γ, ∆k ` B.
(1.5)
Um dies zu sehen, genügt es zu zeigen
Γ, ∆k0 ` B
und Γ, ∆k1 ` B =⇒ Γ, ∆k ` B.
Dies ist klar in den Fällen 1 und 4, und für die Fälle 2 und 3 folgt es leicht aus den Schemata ∨∗− und
∃∗− (vgl. Abschnitt 1.2).
1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik
25
Wir zeigen jetzt
Γ, ∆k ` B =⇒ ∃n∀k 0 —n k B ∈ ∆k0 .
(1.6)
Um dies einzusehen, wähle man ein n ≥ lh(k) mit B = An und Γn , ∆k `n An . Für alle k 0 — k mit
lh(k 0 ) = n + 1 gilt dann An ∈ ∆k0 (vgl. die Fälle 2-4).
Mit Hilfe der Mengen ∆k können wir jetzt eine L-Beth-Struktur B definieren als (TerL , I0 , I1 ) mit
den kanonischen I0 (f )t := f t und
t ∈ I1 (R, k) :⇐⇒ Rt ∈ ∆k .
Offenbar ist tB [id] = t für alle L-Terme t.
Wir zeigen schließlich, daß
Γ, ∆k ` B ⇐⇒ B, k  B[id],
(1.7)
und zwar durch Induktion über die logische Komplexität von B. Für B, k  B[id] schreiben wir k  B.
Fall Rt. Die folgenden Aussagen sind äquivalent.
Γ, ∆k ` Rt
nach (1.6) und (1.5)
∃n∀k 0 —n k Rt ∈ ∆k0
0
0
∃n∀k —n k t ∈ I1 (R, k ) nach Definition von B
k  Rt
nach Definition von , da tB [id] = t.
Fall B ∨∗ C. =⇒. Gelte Γ, ∆k ` B ∨∗ C. Man wähle ein n ≥ lh(k) mit Γn , ∆k `n An = B ∨∗ C. Für
alle k 0 — k mit lh(k 0 ) = n gilt dann
∆k0 0 = ∆k0 ∪ {B ∨∗ C, B} und
also nach IH
k0 0  B
∆k0 1 = ∆k0 ∪ {B ∨∗ C, C},
und k 0 1  C.
Nach Definition impliziert dies k  B ∨∗ C. ⇐=.
k  B ∨∗ C
∃n∀k 0 —n k .k 0  B oder k 0  C
∃n∀k 0 —n k .Γ, ∆k0 ` B oder Γ, ∆k0 ` C
∃n∀k 0 —n k Γ, ∆k0 ` B ∨∗ C
Γ, ∆k ` B ∨∗ C
nach IH
nach (1.5).
Der Fall B ∧ C ist klar.
Fall B → C. =⇒. Gelte Γ, ∆k ` B → C. Wir müssen zeigen k  B → C, d.h.
∀k 0 —k.k 0  B =⇒ k 0  C.
Sei also k 0 — k und gelte k 0  B. Nach IH habe wir Γ, ∆k0 ` B, also Γ, ∆k0 ` C nach Annahme. Wieder
die IH liefert k 0  C.
⇐=. Gelte k  B → C, d.h. ∀k 0 —k.k 0  B =⇒ k 0  C. Wir müssen zeigen Γ, ∆k ` B → C.
Dafür wollen wir (1.5) verwenden. Man wähle ein n ≥ lh(k) mit B = An . Sei k 0 —m k beliebig, wobei
m := n − lh(k). Wir müssen zeigen Γ, ∆k0 ` B → C.
Im Fall Γ, ∆k0 `n An haben wir k 0  B nach IH, also k 0  C nach Annahme, also Γ, ∆k0 ` C wieder
nach IH und deshalb Γ, ∆k0 ` B → C.
Im Fall Γ, ∆k0 6`n An haben wir nach Definition ∆k0 1 = ∆k0 ∪ {B}. Dies liefert Γ, ∆k0 1 ` B, also
k 0 1  B nach IH, also k 0 1  C nach Annahme, also Γ, ∆k0 1 ` C wieder nach IH. Wegen ∆k0 1 = ∆k0 ∪ {B}
folgt Γ, ∆k0 ` B → C.
Fall ∀xB. Die folgenden Aussagen sind äquivalent.
26
1. Logik
Γ, ∆k ` ∀xB
∀t∈TerL Γ, ∆k ` B[x := t]
∀t∈TerL k  B[x := t]
∀t∈TerL k 
k  ∀xB
B[idtx ]
nach IH
nach dem Substitutionslemma, da tB [id] = t,
nach Definition von .
Fall ∃∗ xB. Dies ist ähnlich zum Fall ∨∗ . Im einzelnen verläuft der Beweis wie folgt. =⇒. Gelte
Γ, ∆k ` ∃∗ xB. Man wähle n ≥ lh(k) mit Γn , ∆k `n An = ∃∗ xB. Für alle k 0 — k mit lh(k 0 ) = n gilt dann
∆k0 0 = ∆k0 1 = ∆k ∪ {∃∗ xB, B[x := xi ]}
mit xi nicht frei in ∆k ∪ {∃∗ xB}, also nach IH
k 0 0  B[x := xi ] und
k 0 1  B[x := xi ].
Nach Definition impliziert dies k  ∃∗ xB. ⇐=.
k  ∃∗ xB
∃n∀k 0 —n k∃t∈TerL k 0  B[idtx ]
∃n∀k 0 —n k∃t∈TerL k 0  B[x := t]
∃n∀k 0 —n k∃t∈TerL Γ, ∆k0 ` B[x := t]
∃n∀k 0 —n k Γ, ∆k0 ` ∃∗ xB
Γ, ∆k ` ∃∗ xB
nach IH
nach (1.5).
Jetzt können wir den Beweis des Vollständigkeitssatzes abschließen. Nach (1.7) haben wir B, hi  Γ [id].
Nach Annahme impliziert dies B, hi  A[id], also Γ ` A wieder nach (1.7).
u
t
Als ein unmittelbares Korollar erhalten wir den Vollständigkeitssatz für die intuitionistische Logik.
Korollar 1.4.2. Sei Γ ∪ {A} eine Formelmenge. Die folgenden Aussagen sind äquivalent.
1. Γ `i A.
2. Γ, Efq  A, d.h. für alle Beth-Strukturen B für die intuitionistische Logik, Knoten k und Belegungen
η
t
u
B, k  Γ [η] =⇒ B, k  A[η].
Kripke-Strukturen
Kripke-Strukturen wurden von Kripke in [17] eingeführt als eine Alternative zu Beth-Strukturen.
Sie sind einfacher in dem Sinn, daß die Klauseln für atomare Formeln, ∨∗ und ∃∗ sich nicht auf eine
“Schranke” beziehen, sondern nur auf den gegenwärtigen Knoten. Sie sind jedoch auch komplizierter,
da die Bereiche mit den Knoten k anwachsen und nicht mehr konstant sind. Besonders geeignet sind
Kripke-Strukturen für die Konstruktion endlicher Gegenmodelle. Der Einfachheit halber wollen wir hier
annehmen, daß keine Funktionssymbole vorkommen.
Definition 1.4.3. Sei (T, –) ein endlich verzweigter Baum. K = (D, I0 , I1 ) ist eine L-Kripke-Struktur ,
wenn D jedem Knoten k ∈ T eine nichtleere Menge D(k) zuordnet so daß aus k – k 0 folgt daß (D(k), I0 (k))
eine L-sub-Prästruktur von (D(k 0 ), I0 (k 0 )) ist, und I1 jedem n-stelligen Relationssymbol R von L und
jedem Knoten k ∈ T eine n-stellige Relation
I1 (R, k) ⊆ D(k)n
zuordnet so daß Monotonie gilt, d.h.
k – k 0 =⇒ I1 (R, k) ⊆ I1 (R, k 0 ).
1.4 Vollständigkeit der Minimallogik und der intuitionistischen Logik
27
Im Fall n = 0 ist I1 (R, k) wahr oder falsch und die Monotonie besagt, daß für k – k 0 aus I1 (R, k) folgt
I1 (R, k 0 ).
Eine
S Belegung η für eine Kripke-Struktur K ist eine Abbildung, die jeder Variablen ein Element
aus k∈T D(k) zuordnet. Der Wert tK [η] eines Terms t unter der Belegung η ist an allen Knoten k mit
η[vars(t)] ⊆ D(k) erklärt.
Jetzt können wir die Erzwingungsbeziehung definieren. K, k  A[η] (K am Knoten k erzwingt A
für die Belegung η) wird induktiv wie folgt definiert. Wir schreiben k  A[η] wenn sich K aus dem
Zusammenhang ergibt.
k  R(t1 , . . . , tp )[η] :⇐⇒
K
η[vars(t1 , . . . , tp )] ⊆ D(k) und (tK
1 [η], . . . , tp [η]) ∈ I1 (R, k) für R nicht nullstellig.
k  R[η] :⇐⇒ I1 (R, k) = 1 für R nullstellig.
k  (A ∨∗ B)[η] :⇐⇒ k  A[η] oder k 0  B[η].
k  (∃∗ xA)[η] :⇐⇒ ∃a∈D(k) k  A[ηxa ].
k  (A → B)[η] :⇐⇒ ∀k 0 —k.k 0  A[η] =⇒ k 0  B[η].
k  (A ∧ B)[η] :⇐⇒ k  A[η] und k  B[η].
k  (∀xA)[η] :⇐⇒ ∀k 0 —k∀a∈D(k 0 ) k 0  A[ηxa ].
Die Vervollständigung von Beth-Strukturen macht einen Vergleich mit Kripke-Strukturen einfacher.
Eine vervollständigte Beth-Struktur ist eine Kripke-Struktur mit konstanten Bereichen, und beide Erzwingungsbegriffe stimmen für Formeln ohne ∨∗ , ∃∗ überein. Man beachte aber, daß Kripke-Strukturen
etwas flexibler sind, wenn man (endliche) Gegenmodelle konstruieren will. Ein Grund liegt darin, daß
nicht jede Kripke-Struktur mit konstanten Bereichen eine vervollständigte Beth-Struktur ist. Ein offensichtliches Beispiel ist
•P
•
Kripke-Strukturen sind jedoch weniger allgemein als Beth-Strukturen, in dem Sinn daß jede abzählbare Kripke-Struktur in einem angemessenen Sinn in eine Beth-Struktur mit konstantem Bereich N
“transformiert” werden kann; dies wurde bereits von Kripke in [17] bemerkt. Wir beschreiben jetzt diese
Transformation, wobei wir uns auf Troelstra und van Dalen [44] stützen.
Sei K = (D, I0 , I1 ) eine abzählbare Kripke-Struktur mit zugrunde liegendem endlich verzweigtem
Baum (T, –). Wir transformieren K in eine Beth-Struktur B über dem endlich verzweigten Baum T 0 ,
der aus allen endlichen aufsteigenden oder gleichbleibenden Folgen über (T, –) der Länge ≥ 0 besteht
und geordnet ist durch σ –0 τ gdw σ ein Anfangsstück von τ ist.
S Man zerlege N in abzählbar unendlich viele abzählbarSunendliche disjunkte Mengen Ni , d.h. N =
j≤i Ni . Offenbar können wir für jedes σ =
i∈N Ni und i 6= j → Ni ∩ Nj = ∅, und setze Mi :=
hk0 , . . . , kn i ∈ T 0 eine Surjektion ψσ von Mn auf D(kn ) definieren mit
ψσk a = ψσ a für a ∈ Mlh(σ)−1 ,
ψσk bildet Mlh(σ) auf D(k) ab.
Wir definieren jetzt unsere neue Beth-Struktur wie folgt. Für den leeren Knoten σ = ε sei I1 (R, σ) leer.
Sei jetzt σ = hk0 , . . . , kn i.
(a1 , . . . , ap ) ∈ I1 (R, σ) :⇐⇒ a1 , . . . , ap ∈ Mn und kn  R(ψσ a1 , . . . , ψσ ap )
(oder genauer, kn  R(x1 , . . . , xp )[ψσ a1 /x1 , . . . , ψσ ap /xp ]; allgemein schreiben wir k  A(a1 , . . . , ap ) für
k  A[ψσ a1 /x1 , . . . , ψσ ap /xp ], falls x1 , . . . , xp die freien Variablen von A enthalten). Damit ist offenbar
eine Beth-Struktur B definiert, deren Erzwingungsrelation wir mit 0 bezeichnen.
Lemma 1.4.4. Sei σ = hk0 , . . . , kn i. Dann gilt für alle a1 , . . . , ap ∈ Mn
σ 0 A(a1 , . . . , ap ) ⇐⇒ kn  A(ψσ a1 , . . . , ψσ ap ).
28
1. Logik
Beweis. Durch Induktion über A. Fall ∀xB. =⇒. Gelte σ 0 ∀xB(x, a0 ) mit a0 ∈ Mn . Wir haben zu
zeigen kn  ∀xB(x, ψσ a0 ). Sei also k 0 — kn und d ∈ D(k 0 ) gegeben; wir müssen zeigen k 0  B(d, ψσ a0 ).
Da d = ψσk0 b für ein b ∈ Mn+1 und ψσ a0 = ψσk0 a0 , heißt dies k 0  B(ψσk0 b, ψσk0 a0 ). Nach IH genügt es
zu zeigen σk 0 0 B(b, a0 ). Dies folgt aber aus unserer Annahme.
⇐=. Gelte kn  ∀xB(x, ψσ a0 ) mit a0 ∈ Mn . Wir müssen zeigen σ 0 ∀xB(x, a0 ). Sei also a ∈ N
gegeben; wir müssen dann zeigen σ 0 B(a, a0 ). Man beachte, daß σ = hk0 , . . . , kn i. Wähle ein hinreichend
langes τ = σ ∗ hkn+1 , . . . , kn+i , k 0 i mit kn – k 0 so daß a ∈ Mlh(τ )−1 . Man beachte, daß ψτ die Menge
Mlh(τ )−1 auf D(k 0 ) abbildet und ψτ a0 = ψσ a0 ∈ D(kn ). Aus kn  ∀xB(x, ψσ a0 ) und kn – k 0 ergibt sich
k 0  ∀xB(x, ψτ a0 ), also k 0  B(ψτ a, ψτ a0 ), also nach IH τ 0 B(a, a0 ). Dies gilt für alle Fortsetzungen τ
von σ mit a ∈ Mlh(τ )−1 (d.h. mit mindestens dieser Länge). Nach der Überdeckungseigenschaft 1.3.7 gilt
also σ 0 B(a, a0 ), wie gewünscht.
Die anderen Fälle sind einfacher und seien als Übungsaufgaben gestellt.
u
t
1.5 Vollständigkeit der klassischen Logik
Wir geben jetzt einen Beweis der Vollständigkeit der klassischen Logik, und zwar unter Zuhilfenahme der
Vollständigkeit der Minimallogik.
Zur Vereinfachung zeigen wir zunächst, daß man auf ∧ verzichten kann.
Lemma 1.5.1. (Elimination von ∧). Für jede Formel
V
Vn A in der auf {→, ∧, ∀} aufgebauten Sprache findet
man Formeln A1 , . . . , An ohne ∧ so daß ` A ↔ i=1 Ai .
Beweis. Induktion über A. Fall Rt. Wähle n = 1 und A1 := Rt. Fall A∧B. Nach IH haben wir A1 , . . . , An
und B1 , . . . , Bm . Wähle A1 , . . . , An , B1 , . . . , Bm . Fall A → B. Nach IH haben wir wieder A1 , . . . , An
und B1 , . . . , Bm . Zur Vereinfachung der Schreibweise nehmen wir n = 2 und m = 3 an. Dann gilt
` (A1 ∧ A2 → B1 ∧ B2 ∧ B3 )
↔ (A1 → A2 → B1 ) ∧ (A1 → A2 → B2 ) ∧ (A1 → A2 → B3 ).
Fall ∀xA. Nach IH für A haben wir A1 , . . . , An . Wähle ∀xA1 , . . . , ∀xAn , für
` ∀x
n
V
V
i=1
Ai ↔
n
V
V
i=1
∀xAi .
u
t
Satz 1.5.2. (Vollständigkeit). Sei Γ ∪ {A} eine Menge von Formeln (in unserer abzählbaren Sprache L).
Die folgenden Aussagen sind äquivalent.
1. Γ `c A.
2. Γ |= A, d.h. für alle Strukturen M and Belegungen η gilt
M |= Γ [η] =⇒ M |= A[η].
Beweis. Eine Richtung ist der Korrektheitssatz. Für die andere Richtung verwenden wir den Vollständigkeitssatz für die Minimallogik.
Offenbar genügt es, Formeln ohne ∨∗ , ∃∗ zu betrachten, und (nach Lemma 1.5.1) auch ohne ∧.
Gelte Γ 6`c A, d.h. Γ, Stab 6` A. Nach dem Vollständigkeitssatz für die Minimallogik haben wir eine
abzählbare Beth-Struktur B = (TerL , I0 , I1 ) über dem vollen binären Baum T01 und einen Knoten l0
mit l0  Γ, Stab und l0 
6 A (wir schreiben k  B für B, k  B[id]).
Ein Knoten k heisse konsistent wenn k 6 ⊥, und stabil wenn k  Stab. Sei k ein stabiler Knoten
und B eine Formel (ohne ∨∗ , ∃∗ ). Wir haben die Stabilität Stab ` ¬¬B → B nach Lemma 1.2.2, also
k  ¬¬B → B, also
k 6 B ⇐⇒ k 6 ¬¬B
⇐⇒ ∃k 0 —k.k 0 konsistent und k 0  ¬B.
Sei α ein Ast im zugrunde liegende Baum T01 . Wir definieren
(1.8)
1.5 Vollständigkeit der klassischen Logik
29
α  A :⇐⇒ ∃k∈α k  A,
6 ⊥,
α is konsistent :⇐⇒ α 
α is stabil :⇐⇒ ∃k∈α k  Stab.
Man beachte
Aus α  A und ` A → B folgt α  B.
(1.9)
Um dies zu sehen, nehmen wir α  A an. Dann gilt k  A für ein k ∈ α, da α linear geordnet ist. Wegen
` A → B liefert der Korrektheitssatz k  B, d.h. α  B.
Ein Ast α heißt generisch (in dem Sinn, daß er ein klassisches Modell erzeugt) wenn er konsistent
und stabil ist, für alle Formeln B gilt
α  B oder α  ¬B,
(1.10)
und für alle Formeln ∀yB (wobei y nicht leer ist) mit B keine Allformel
∀s∈TerL α  B[y := s] =⇒ α  ∀yB
(1.11)
Schließlich definieren wir für einen Ast α eine klassische Struktur Mα = (TerL , I0 , I1α ) durch
[
I1 (R, k) für R 6= ⊥.
I1α (R) :=
k∈α
gilt
Wir zeigen, daß für jeden generischen Ast α und jede Formel B in der auf {→, ∀} aufbauenden Sprache
α  B ⇐⇒ Mα |= B.
(1.12)
Der Beweis erfolgt durch Induktion über die logische Komplexität von B.
Fall Rt, R =
6 ⊥. Dann gilt die Behauptung für alle α.
Fall ⊥. Es gilt α 
6 ⊥ für konsistentes α.
Fall B → C. =⇒. Gelte α  B → C und Mα |= B. Wir müssen zeigen Mα |= C. Nun ist α  B nach
IH, also α  C, also Mα |= C wieder nach IH. ⇐=. Gelte Mα |= B → C. Gilt Mα |= B, so ist Mα |= C,
also α  C nach IH und deshalb α  B → C. Gilt Mα 6|= B, so ist α 6 B nach IH, also α  ¬B nach
(1.10) und deshalb α  B → C, da α stabil ist (und ` (¬¬C → C) → ⊥ → C).
Fall ∀yB (wobei y nicht leer ist) mit B keine Allformel. Die folgenden Aussagen sind äquivalent.
α  ∀yB
∀s∈TerL α  B[y := s]
nach (1.11)
∀s∈TerL Mα |= B[y := s] nach IH
Mα |= ∀yB.
Wir zeigen schließlich, daß es für jeden konsistenten stabilen Knoten k einen generischen Ast gibt, der
k enthält. Zum Beweis sei A0 , A1 , . . . eine Aufzählung aller Formeln. Wir definieren induktiv eine Folge
k = k0 – k1 – k2 . . . von konsistenten stabilen Knoten. Sei k0 := k. Nehmen wir jetzt an, daß kn bereits
konstruiert ist. Wir schreiben An in der Form ∀yB (wobei y leer sein kann) mit B keine Allformel. Im
Fall kn  ∀yB sei kn+1 := kn . Andernfalls gilt kn 6 B[y := s] für ein s, und nach (1.8) gibt es einen
konsistenten Knoten k 0 — kn mit k 0  ¬B[y := s]. Sei kn+1 := k 0 . Wegen kn – kn+1 ist auch kn+1 stabil.
Sei α := { l | ∃n l – kn }, also k ∈ α. Wir zeigen, daß α generisch ist. Offenbar ist α konsistent
und stabil. Die Aussagen (1.10) und (1.11) können simultan bewiesen werden. Sei C = ∀yB mit B
keine Allformel, und man wähle n mit C = An . Im Fall kn  ∀yB ist nichts zu zeigen. Andernfalls
gilt kn 6 B[y := s] für ein s, und nach Konstruktion kn+1  ¬B[y := s]. Für (1.10) erhalten wir
kn+1  ¬∀yB (da ` ∀yB → B[y := s]), und (1.11) ergibt sich aus der Konsistenz von α.
Wir können jetzt den Beweis des Vollständigkeitssatzes abschließen. Da l0 6 A und l0 stabil ist, liefert
(1.8) einen konsistenten Knoten k — l0 mit k  ¬A. Offenbar ist auch k stabil. Nach dem, was wir eben
bewiesen haben, gibt es einen generischen Ast α mit k ∈ α. Wegen k  ¬A haben wir α  ¬A, also
Mα |= ¬A nach (1.12). Ferner gilt α  Γ , also Mα |= Γ wieder nach (1.12). Also Γ 6|= A.
u
t
30
1. Logik
Auf den ersten Blick scheint es, als ob der Vollständigkeitssatz sich auf den Berich “aller Mengen”
bezieht, und zwar in der Definition von M |= A. Eine genauere Betrachtung des Beweises zeigt jedoch,
daß es genügt, sich auf spezielle abzählbare Mengen zu beschränken. Der Bereich des Modells ist die
abzählbare Menge TerL (die mittels einer geeigneten Kodierung durch N ersetzt werden kann), und man
überlegt sich leicht, daß alle verwendeten Begriffe arithmetisch definierbar sind.
Der Vollständigkeitssatz hat viele wichtige Korollare; wir erwähnen nur einige davon. Eine Menge
Γ von L-Formeln heisse konsistent wenn Γ 6`c ⊥, und erfüllbar wenn es eine L-Struktur M und eine
Belegung η in |M| gibt mit M |= B[η] für alle B ∈ Γ .
Korollar 1.5.3. Sei Γ eine Menge von L-Formeln.
1. Wenn Γ konsistent ist, so ist Γ auch erfüllbar.
2. (Kompaktheitssatz). Wenn jede endliche Teilmenge von Γ erfüllbar ist, so auch Γ .
Beweis. 1. Aus Γ 6`c ⊥ erhält man Γ 6|= ⊥ nach dem Vollständigkeitssatz, und dies impliziert die Erfüllbarkeit von Γ .
2. Andernfalls gilt Γ |= ⊥, also Γ `c ⊥ nach dem Vollständigkeitssatz, also auch Γ0 `c ⊥ für eine
endliche Teilmenge Γ0 ⊆ Γ , also Γ0 |= ⊥ im Widerspruch zu unserer Annahme, daß Γ0 ein Modell besitzt.
u
t
Korollar 1.5.4. ( Löwenheim, Skolem). Sei Γ eine Menge von L-Formeln (wir hatten angenommen,
daß L abzählbar ist). Ist Γ erfüllbar, so ist Γ auch erfüllbar durch eine L-Struktur mit abzählbarer Trägermenge.
Beweis. Wir verwenden den Beweis des Vollständigkeitssatzes mit A = ⊥. Er liefert entweder Γ `c ⊥
oder aber ein Modell von Γ ∪ {¬⊥}, dessen Trägermenge die abzählbare Menge TerL ist. Γ `c ⊥ kann
jedoch aufgrund der Annahme nicht gelten.
t
u
Der Vollständigkeitssatz für überabzählbare Sprachen
Wir geben noch einen zweiten Beweis des Vollständigkeitssatzes, der das Resultat auch im Fall überabzählbarer Sprachen liefert. Dieser Beweis verwendet als mengentheoretisches Hilfsmittel das Auswahlaxiom
(in der Form des Zornschen Lemmas).
Sei M 6= ∅ eine Menge. F ⊆ P(M ) heißt Filter über M , wenn
/ F;
1. M ∈ F und ∅ ∈
2. Aus X ∈ F und X ⊆ Y ⊆ M folgt Y ∈ F ;
3. Sind X, Y ∈ F , so ist auch X ∩ Y ∈ F .
F heißt Ultrafilter , wenn für alle X ∈ P(M ) gilt
X ∈ F oder M \ X ∈ F .
Die Intuition hier ist, daß die Elemente X eines Filters F in einem gewissen Sinn “groß” sind. Zum
Beispiel ist für unendliches M die Menge F = { X ⊆ M | M \ X endlich } ein Filter.
Lemma 1.5.5. Ist F ein Ultrafilter und X ∪ Y ∈ F , so folgt X ∈ F oder Y ∈ F .
Beweis. Übung.
u
t
Lemma 1.5.6. Sei M 6= ∅ eine Menge und S ⊆ P(M ). S hat die endliche Durchschnittseigenschaft,
wenn X1 ∩ · · · ∩ Xn 6= ∅ für alle X1 , . . . , Xn ∈ S und alle n ∈ N. Dann gilt: Hat S die endliche
Durchschnittseigenschaft, so existiert ein Filter über M mit F ⊇ S.
Beweis. Übung.
u
t
Lemma 1.5.7. Sei M 6= ∅ eine Menge und F ein Filter über M . Dann gibt es einen Ultrafilter U über
M mit U ⊇ M .
1.5 Vollständigkeit der klassischen Logik
31
Beweis. Dies ist eine unmittelbare Folgerung aus dem Zornschen Lemma, das wir im zweiten Teil dieser
u
t
Vorlesung aus dem Auswahlaxiom beweisen werden.
Sei M 6= ∅ eine Menge und seien Ai =
6 ∅ Mengen für i ∈ M . Man setzt
Y
Ai := { α | α ist Funktion, dom(α) = M und α(i) ∈ Ai für alle i ∈ M }.
i∈M
Q
Q
Man beachte hierbei, daß nach dem Auswahlaxiom i∈M Ai 6= ∅ ist. Wir schreiben α ∈ i∈M Ai als
h α(i) | i ∈ M i.
Seien nun M =
6 ∅ eine
QF Menge, F ein Filter über M und Ai Strukturen für i ∈ M . Dann ist die
F -Produktstruktur A = i∈M Ai definiert durch
Q
1. |A| := i∈M |Ai | (man beachte |A| 6= ∅).
2. Für ein n-stelliges Relationssymbol R und α1 , . . . , αn ∈ |A| sei
RA (α1 , . . . , αn ) :⇐⇒ { i ∈ M | RAi (α1 (i), . . . , αn (i)) } ∈ F.
3. Für ein n-stelliges Funktionssymbol f und α1 , . . . , αn ∈ |A| sei
f A (α1 , . . . , αn ) := h f Ai (α1 (i), . . . , αn (i)) | i ∈ M i.
QF
Ist F ein Ultrafilter, so heißt A = i∈M Ai das F -Ultraprodukt der Ai für i ∈ M .
Die Eigenschaften von Ultrafiltern spiegeln in gewisser Weise die Definition der Folgerungsbeziehung
|= wieder. Zum Beispiel gilt
M |= (A ∧ B)[η] ⇐⇒ M |= A[η] und M |= B[η]
X ∩ Y ∈ F ⇐⇒ X ∈ F und Y ∈ F
und
M |= ¬A[η] ⇐⇒ M 6|= A[η]
X∈
/ F ⇐⇒ M \ X ∈ F.
Dies ist der Hintergrund des folgenden Satzes.
Satz 1.5.8. (Fundamentalsatz über Ultraprodukte, L
oś 1955). Sei A =
eine Formel und η eine Belegung in |A| . Dann gilt
QF
i∈M
Ai ein F -Ultraprodukt, A
A |= A[η] ⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∈ F,
wobei ηi die durch ηi (x) = η(x)(i) für i ∈ M definieren induzierten Belegungen sind.
Beweis. Wir beweisen zunächst eine entsprechende Aussage über Terme.
tA [η] = h tAi [ηi ] | i ∈ M i.
(1.13)
Den Beweis führen wir durch Induktion über t. Im Fall einer Variablen folgt die Behauptung aus der
Definition. Fall f t1 . . . tn . Zur Vereinfachung der Schreibweise nehmen wir n = 1 an, betrachten also f t.
Man erhält
(f t)A [η] = f A (tA [η])
= f A (h tAi [ηi ] | i ∈ M i)
Ai
= h (f t)
nach IH
[ηi ] | i ∈ M i.
Fall Rt1 . . . tn . Zur Vereinfachung der Schreibweise nehmen wir wieder n = 1 an, betrachten also Rt. Man
erhält
32
1. Logik
A |= Rt[η] ⇐⇒ RA (tA [η])
⇐⇒ { i ∈ M | RAi (tA [η](i)) } ∈ F
⇐⇒ { i ∈ M | RAi (tAi [ηi ]) } ∈ F
⇐⇒ { i ∈ M | Ai |= Rt[ηi ] } ∈ F.
nach (1.13)
Fall A ∧ B.
A |= (A ∧ B)[η] ⇐⇒ A |= A[η] und A |= B[η]
⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∈ F und { i ∈ M | Ai |= B[ηi ] } ∈ F
⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∩ { i ∈ M | Ai |= B[ηi ] } ∈ F
⇐⇒ { i ∈ M | Ai |= (A ∧ B)[ηi ] } ∈ F.
nach IH
Fall A → B.
A |= (A → B)[η]
⇐⇒ wenn A |= A[η], so A |= B[η]
⇐⇒ wenn { i ∈ M | Ai |= A[ηi ] } ∈ F , so { i ∈ M | Ai |= B[ηi ] } ∈ F
⇐⇒ { i ∈ M | Ai |= A[ηi ] } ∈
/ F oder { i ∈ M | Ai |= B[ηi ] } ∈ F
⇐⇒ { i ∈ M | Ai |= ¬A[ηi ] } ∈ F oder { i ∈ M | Ai |= B[ηi ] } ∈ F
⇐⇒ { i ∈ M | Ai |= (A → B)[ηi ] } ∈ F.
nach IH
da F Ultrafilter ist
Fall ∀xA.
A |= (∀xA)[η] ⇐⇒ für alle α ∈ |A| gilt A |= A[ηxα ]
α(i)
⇐⇒ für alle α ∈ |A| gilt { i ∈ M | Ai |= A[(ηi )x ] } ∈ F
⇐⇒ { i ∈ M | für alle a ∈ |Ai | gilt Ai |= A[(ηi )ax ] } ∈ F
nach IH
Beweis siehe unten
(1.14)
⇐⇒ { i ∈ M | Ai |= (∀xA)[ηi ] } ∈ F.
Zu zeigen bleibt (1.14). Setze X := { i ∈ M | für alle a ∈ |Ai | gilt Ai |= A[(ηi )ax ] } und Yα := { i ∈ M |
α(i)
Ai |= A[(ηi )x ] } für α ∈ |A|.
⇐=. Sei α ∈ |A| und X ∈ F . Offenbar ist X ⊆ Yα , also auch Yα ∈ F . =⇒. Sei Yα ∈ F für alle α.
/ F . Da F Ultrafilter ist, muß dann
Annahme: X ∈
M \ X = { i ∈ M | es gibt ein a ∈ |Ai | mit Ai 6|= A[(ηi )xa ] } ∈ F
sein. Wir wählen mit Hilfe des Auswahlaxioms ein α0 ∈ |A| mit
(
ein a ∈ |Ai | mit Ai 6|= A[(ηi )ax ] falls i ∈ M \ X,
α0 (i) =
beliebig ∈ |Ai |
sonst.
Dann ist Yα0 ∩ (M \ X) = ∅, im Widerspruch zu Yα0 , M \ X ∈ F .
u
t
QF
Wählt man Ai = B konstant, so erfüllt A = i∈M B dieselben Formeln wie B (solche Strukturen
QF
werden wir in Abschnitt 1.6 elementar äquivalent nennen; Schreibweise A ≡ B). i∈M B heißt Ultrapotenz
von B.
Korollar 1.5.9. (Allgemeiner Kompaktheitssatz). Jede endlich erfüllbare Formelmenge Γ ist erfüllbar.
Beweis. Sei M := { i ⊆ Γ | i endlich }. Für i ∈ M sei Ai ein Modell von i unter der Belegung ηi .
Für A ∈ Γ setzen wir ZA := { i ∈ M | A ∈ i } = { i ⊆ Γ | i endlich und A ∈ i }. Dann hat F − :=
{ ZA | A ∈ Γ } die endliche Durchschnittseigenschaft. Nach den Lemmata 1.5.6 und 1.5.7 existiert also
QF
ein Ultrafilter F über M mit F − ⊆ F . Wir betrachten A := i∈M Ai und die Produktbelegung η
mit η(x)(i) := ηi (x), und zeigen A |= Γ [η]. Sei also A ∈ Γ . Nach dem Satz genügt es zu zeigen, daß
u
t
XA := { i ∈ M | Ai |= A[ηi ] } ∈ F . Dies folgt aber aus ZA ⊆ XA und ZA ∈ F − ⊆ F .
1.6 Anfänge der Modelltheorie
33
Hieraus ergibt sich unmittelbar, daß aus Γ |= A die Existenz einer endlichen Teilmenge Γ 0 ⊆ Γ mit
Γ |= A folgt.
Für jede Formelmenge Γ sei L(Γ ) die Menge aller in Γ vorkommenden Funktions- und Relationssymbole. Ist L eine Teilsprache von L0 , M eine L-Struktur und M0 eine L0 -Struktur, so nennt man M0 eine
Expansion von M (und M ein Redukt von M0 ), wenn
0
|M| = |M0 |,
fM = fM
R
M
=R
0
M0
für alle f ∈ FunL ,
für alle R ∈ RelL .
Das (eindeutig bestimmte) L-Redukt von M0 wird mit M0 –L bezeichnet. Ist M0 eine Expansion von M
0
und η eine Belegung in |M|, so gilt offenbar tM [η] = tM [η] für jeden L-Term t und M |= A[η] genau
0
dann, wenn M |= A[η] für jede L-Formel A. Die Gültigkeit von Γ |= A hängt deshalb nicht von der
zugrunde gelegten Sprache L ab, solange nur L(Γ ∪ {A}) ⊆ L (genauer ⊆ FunL ∪ RelL ) ist.
Korollar 1.5.10. (Allgemeiner Vollständigkeitssatz). Sei Γ ∪ {A} eine Menge von Formeln, wobei die
zugrunde liegende Sprache überabzählbar sein kann. Dann gilt Γ `c A ⇐⇒ Γ |= A.
Beweis. Ein Richtung ist wieder der Korrektheitssatz. Für die umgekehrte Richtung können wir aufgrund
der ersten vorangehenden Bemerkung annehmen, daß für ein endliches Γ 0 ⊆ Γ gilt Γ 0 |= A. Dann gilt
aber auch Γ 0 |= A in einer abzählbaren Sprache (nach der zweiten vorangehenden Bemerkung). Nach
dem Vollständigkeitssatz 1.5.2 für abzählbare Sprachen folgt Γ 0 ` A, also auch Γ ` A.
u
t
1.6 Anfänge der Modelltheorie
In diesem Abschnitt wollen wir wie in der Modelltheorie üblich auch überabzählbare Sprachen L zulassen. Wie wir eben gesehen haben, gelten der Vollständigkeitssatz und seine Folgerungen ebenfalls für
überabzählbare Sprachen.
Wir wollen uns jetzt mit den Gleichheitsaxiomen befassen. Wir setzen deshalb in diesem Abschnitt
stets voraus, daß die Sprache L ein zweistelliges Relationssymbol = enthält. Die Menge EqL der LGleichheitsaxiome besteht dann aus den Allabschlüssen von
x=x
Reflexivität,
x=y→y=x
x=y∧y =z →x=z
Transitivität,
Symmetrie,
(n)
x1 = y1 ∧ . . . ∧ xn = yn → f x1 . . . xn = f y1 . . . yn
für alle f ∈ FunL ,
x1 = y1 ∧ . . . ∧ xn = yn ∧ Rx1 . . . xn → Ry1 . . . yn
für alle R ∈ RelL .
(n)
Lemma 1.6.1. (Gleichheitslemma).
1. EqL ` t = s → r[x := t] = r[x := s].
2. EqL ` t = s → (A[x := t] ↔ A[x := s]).
Beweis. 1. Induktion über r. 2. Induktion über A; wir beschränken uns auf den Fall ∀yA. Dann ist
(∀yA)[x := r] = ∀yA[x := r], und nach IH haben wir EqL ` t = s ∧ A[x := t] → A[x := s]. Daraus folgt
u
t
die Behauptung.
Eine L-Struktur M erfüllt die Gleichheitsaxiome genau dann, wenn =M eine Kongruenzrelation ist
(also eine Äquivalenzrelation, die mit den Funktionen und Relationen von M verträglich ist). In diesem
Abschnitt setzen wir voraus, daß alle betrachteten L-Strukturen M die Gleichheitsaxiome erfüllen. Das
Koinzidenzlemma gilt dann auch mit =M anstelle von =:
Lemma 1.6.2. Seien η, ξ Belegungen in |M| mit dom(η) = dom(ξ) und η(x) =M ξ(x) für alle x ∈
dom(η). Dann gilt
34
1. Logik
1. tM [η] =M tM [ξ] falls vars(t) ⊆ dom(η) und
2. M |= A[η] ⇐⇒ M |= A[ξ] falls FV(A) ⊆ dom(η).
Beweis. Induktion über t bzw. A.
u
t
Sei M/=M die Quotientenstruktur , deren Trägermenge aus den Kongruenzklassen besteht. Wir
nennen eine Struktur M unendlich (abzählbar , n-elementig), wenn M/=M unendlich (abzählbar, nelementig) ist.
Unter einem Axiomensystem Γ verstehen wir eine Menge geschlossener Formeln mit EqL(Γ ) ⊆ Γ . Ein
Modell eines Axiomensystems Γ ist eine L-Struktur M mit L(Γ ) ⊆ L und M |= Γ . Für Mengen Γ
geschlossener Formeln schreiben wir
ModL (Γ ) := { M | M ist L-Struktur und M |= Γ ∪ EqL }.
Offenbar ist Γ genau dann erfüllbar, wenn Γ ein Modell besitzt.
Satz 1.6.3. Hat ein Axiomensystem beliebig große endliche Modelle, so hat es auch ein unendliches
Modell.
Beweis. Angenommen, Γ ist ein solches Axiomensystem. Seien x0 , x1 , x2 , . . . verschiedene Variable und
Γ 0 := Γ ∪ { xi 6= xj | i, j ∈ N mit i < j }.
Nach Annahme ist jede endliche Teilmenge von Γ 0 erfüllbar, also nach dem allgemeinen Kompaktheitssatz
1.5.9 auch Γ 0 . Wir haben also M und η mit M |= Γ 0 [η] und damit η(xi ) 6=M η(xj ) für i < j. Also ist M
unendlich.
u
t
Mit L bezeichnen wir die Menge aller geschlossenen L-Formeln. Unter einer Theorie T verstehen wir
ein gegen ` abgeschlossenes Axiomensystem, also EqL(T ) ⊆ T und
T = { A ∈ L(T ) | T ` A }.
Eine Theorie T heißt vollständig, wenn für jede Formel A ∈ L(T ) gilt T ` A oder T ` ¬A. Für jede
L-Struktur M (die die Gleichheitsaxiome erfüllt) bildet die Menge aller geschlossenen L-Formeln A mit
M |= A offenbar eine Theorie; sie heißt die Theorie von M und wird mit Th(M) bezeichnet. Zwei LStrukturen M und M0 heißen elementar äquivalent (geschrieben M ≡ M0 ), wenn Th(M) = Th(M0 )
ist. Zwei L-Strukturen M und M0 heißen isomorph (geschrieben M ∼
= M0 ), wenn es eine Abbildung
M0
0
M
0
π : |M| → |M | gibt, die eine Bijektion zwischen |M/= | und |M /= | induziert, also
0
∀a, b∈|M|.a =M b ⇐⇒ π(a) =M π(b),
0
∀a0 ∈|M0 |∃a∈|M| π(a) =M a0 ,
so daß für alle a1 , . . . , an ∈ |M| gilt
0
0
π(f M (a1 , . . . , an )) =M f M (π(a1 ), . . . , π(an ))
0
RM (a1 , . . . , an ) ⇐⇒ RM (π(a1 ), . . . , π(an ))
(n)
für alle f ∈ FunL ,
(n)
für alle R ∈ RelL .
Wir stellen zunächst einige einfache Eigenschaften des Begriffs der Theorie einer Struktur M und der
elementaren Äquivalenz zusammen.
Lemma 1.6.4. 1. Th(M) ist vollständig.
2. Ist Γ ein Axiomensystem mit L(Γ ) ⊆ L, so ist
\
{ A ∈ L | Γ ` A } = { Th(M) | M ∈ ModL (Γ ) }.
3. M ≡ M0 ⇐⇒ M |= Th(M0 ).
4. Ist L abzählbar, so existiert zu jeder L-Struktur M eine abzählbare L-Struktur M0 mit M ≡ M0 .
1.6 Anfänge der Modelltheorie
35
Beweis. 1. Sei M eine L-Struktur und A ∈ L. Dann gilt M |= A oder M |= ¬A, also Th(M) ` A oder
Th(M) ` ¬A.
2. Für alle A ∈ L hat man
Γ ` A ⇐⇒ Γ |= A
⇐⇒ für alle L-Strukturen M gilt (M |= Γ =⇒ M |= A)
⇐⇒ für alle L-Strukturen M gilt (M ∈ ModL (Γ ) =⇒ A ∈ Th(M))
\
⇐⇒ A ∈ { Th(M) | M ∈ ModL (Γ ) }.
3. =⇒. Gelte M ≡ M0 und A ∈ Th(M0 ). Dann folgt M0 |= A, also M |= A.
⇐=. Gelte M |= Th(M0 ). Offenbar ist dann Th(M0 ) ⊆ Th(M). Zum Beweis der umgekehrten Inklusion sei A ∈ Th(M). Wäre A ∈
/ Th(M0 ), so hätte man nach (1) auch ¬A ∈ Th(M0 ), also M |= ¬A im
Widerspruch zu A ∈ Th(M).
4. Sei L abzählbar und M eine L-Struktur. Dann ist Th(M) erfüllbar, besitzt also nach dem Satz 1.5.4
von Löwenheim und Skolem auch eine erfüllende L-Struktur M0 mit der abzählbaren Trägermenge
TerL . Nach (3) ist M ≡ M0 .
u
t
Satz 1.6.5. Es sei T eine Theorie und L = L(T ). Dann sind folgende Aussagen äquivalent.
1. T ist vollständig.
2. Für jedes Modell M ∈ ModL (T ) gilt Th(M) = T .
3. Je zwei Modelle M, M0 ∈ ModL (T ) sind elementar äquivalent.
Beweis. (1) =⇒ (2). Sei T vollständig und M ∈ ModL (T ). Dann gilt M |= T , also T ⊆ Th(M). Sei nun
/ T und damit A ∈ T .
umgekehrt A ∈ Th(M). Dann folgt ¬A ∈
/ Th(M), also ¬A ∈
(2) =⇒ (3) ist klar.
(3) =⇒ (1). Sei A ∈ L und T 6` A. Dann existiert ein Modell M0 von T ∪{¬A}. Sei nun M ∈ ModL (T )
beliebig. Nach (3) ist M ≡ M0 , also M |= ¬A. Damit haben wir T ` ¬A.
u
t
Satz 1.6.6. Ist π ein Isomorphismus von M auf M0 , so gilt für alle Terme t und Formeln A und für
jede genügend große Belegung η in |M|
0
0
1. π(tM [η]) =M tM [π ◦ η] und
2. M |= A[η] ⇐⇒ M0 |= A[π ◦ η]. Insbesondere hat man also M ∼
= M0 =⇒ M ≡ M0 .
Beweis. 1. Induktion über t. Zur Vereinfachung der Schreibweise behandeln wir nur den Fall einstelliger
Funktionssymbole.
0
π(xM [η]) = π(η(x)) = xM [π ◦ η]
0
π(cM [η]) = π(cM ) =M cM
0
0
0
0
0
0
0
π(f (t)M [η]) = π(f M (tM [η])) =M f M (π(tM [η])) =M f M (tM [π ◦ η]) = f (t)M [π ◦ η].
2. Induktion über A. Wir behandeln nur den Fall einstelliger Relationssymbole und den Fall ∀x A.
M |= R(t)[η] ⇐⇒ RM (tM [η])
0
⇐⇒ RM (π(tM [η]))
0
0
⇐⇒ RM (tM [π ◦ η])
⇐⇒ M0 |= R(t)[π ◦ η],
M |= ∀x A[η] ⇐⇒ für alle a ∈ |M| gilt M |= A[ηxa ]
⇐⇒ für alle a ∈ |M| gilt M0 |= A[π ◦ ηxa ]
]
⇐⇒ für alle a ∈ |M| gilt M0 |= A[(π ◦ η)π(a)
x
0
⇐⇒ für alle a0 ∈ |M0 | gilt M0 |= A[(π ◦ η)ax ] nach 1.6.2
⇐⇒ M0 |= ∀x A[π ◦ η]
u
t
36
1. Logik
Satz 1.6.7. Zu jeder unendlichen Struktur M gibt es eine elementar äquivalente Struktur M0 , die nicht
isomorph zu M ist.
Beweis. OBdA sei =M die Gleichheit auf M := |M|. Mit P(M ) bezeichnen wir die Potenzmenge von
M . Zu jedem α ∈ P(M ) wählen wir eine neue Konstante cα . In der Sprache L0 := L ∪ { cα | α ∈ P(M ) }
betrachten wir das Axiomensystem
Γ := Th(M) ∪ { cα 6= cβ | α, β ∈ P(M ) und α 6= β } ∪ EqL0 .
Jede endliche Teilmenge von Γ ist erfüllbar durch eine geeignete Expansion von M. Also ist nach dem
allgemeinen Kompaktheitssatz 1.5.9 auch Γ erfüllbar, etwa durch M00 . Sei M0 := M00 –L. OBdA sei =M0
die Gleichheit auf |M0 |. M0 ist nicht isomorph zu M, denn andernfalls hätte man eine Injektion von
P(M ) in M und damit einen Widerspruch.
u
t
Anmerkung. Nach Satz 1.6.7 ist es nicht möglich, eine unendliche Struktur durch ein Axiomensystem
erster Stufe bis auf Isomorphie zu charakterisieren. Verläßt man jedoch die Logik erster Stufe und erlaubt
auch die Quantifikation über Mengen X, so kann man etwa die folgenden Peano-Axiome anschreiben:
∀n S(n) =
6 0,
∀n∀m.S(n) = S(m) → n = m,
∀X.0 ∈ X ∧ (∀n.n ∈ X → S(n) ∈ X) → ∀n n ∈ X.
Man kann zeigen, daß (N, 0, S) bis auf Isomorphie das einzige Modell der Peano-Axiome ist. Eine Struktur, die elementar äquivalent, aber nicht isomorph zu N := (N, 0, S) ist, heißt ein Nichtstandardmodell der
natürlichen Zahlen. In Nichtstandardmodellen der natürlichen Zahlen gilt das Prinzip der vollständigen
Induktion nicht für alle Mengen X ⊆ N. Entsprechend heißt eine Struktur, die elementar äquivalent, aber
nicht isomorph zu (R, 0, 1, +, ·, <) ist, ein Nichtstandardmodell der reellen Zahlen. In jedem Nichtstandardmodell der reellen Zahlen gilt das Vollständigkeitsaxiom
nicht für alle Mengen X ⊆ R.
∀X.∅ 6= X beschränkt → ∃y.y = sup(X)
Satz 1.6.8. Es gibt abzählbare Nichtstandardmodelle der natürlichen Zahlen.
Beweis. Sei x eine Variable und
Γ := Th(N ) ∪ { x 6= n | n ∈ N },
wobei 0 := 0 und n + 1 := Sn. Offenbar ist jede endliche Teilmenge von Γ erfüllbar, also nach dem
Kompaktheitssatz 1.5.3(2) auch Γ . Nach dem Satz 1.5.4 von Löwenheim und Skolem haben wir dann
ein höchstens abzählbares M und eine Belegung η mit M |= Γ [η]. Wegen M |= Th(N ) ist M ≡ N nach
Satz 1.6.5; daraus folgt insbesondere, daß M abzählbar ist. Weiter ist η(x) 6=M nM für alle n ∈ N, also
∼ N.
M 6=
u
t
Wir wollen jetzt einige Anwendungen auf aus der Mathematik bekannte Axiomensysteme diskutieren.
Die Axiome der Körpertheorie sind (außer den Gleichheitsaxiomen) die Allabschlüsse von
x + (y + z) = (x + y) + z,
0 + x = x,
(−x) + x = 0,
x + y = y + x,
x · (y · z) = (x · y) · z,
1 · x = x,
x=
6 0 → x−1 · x = 1,
x · y = y · x,
(x + y) · z = (x · z) + (y · z),
1 6= 0.
1.6 Anfänge der Modelltheorie
37
Körper sind also genau die Modelle dieses Axiomensystems.
In der Theorie der geordneten Körper hat man zusätzlich ein zweistelliges Relationssymbol < und als
Axiome die Allabschlüsse von
x 6< x,
x < y ∧ y < z → x < z,
x < y ∨ x = y ∨ y < x,
x < y → x + z < y + z,
0 < x ∧ 0 < y → 0 < x · y.
Geordnete Körper sind genau die Modelle dieses erweiterten Axiomensystems. Ein geordneter Körper
heißt archimedisch geordnet, wenn es zu jedem Körperelement a eine natürliche Zahl n gibt, so daß a
kleiner ist als das n-fache der Eins im Körper.
Satz 1.6.9. Zu jedem archimedisch geordneten Körper gibt es einen elementar äquivalenten geordneten
Körper, der nicht archimedisch geordnet ist.
Beweis. Sei K ein archimedisch geordneter Körper, x eine Variable und
Γ := Th(K) ∪ { n < x | n ∈ N }.
Offenbar ist jede endliche Teilmenge von Γ erfüllbar, also nach dem allgemeinen Kompaktheitssatz 1.5.9
auch Γ . Wir haben also M und η mit M |= Γ [η]. Wegen M |= Th(K) ist M ≡ K und damit M ein
u
t
geordneter Körper. Weiter ist 1M · n <M η(x) für alle n ∈ N, also M nicht archimedisch geordnet.
Eine Klasse S von L-Strukturen heißt (endlich) axiomatisierbar , wenn es ein (endliches) Axiomensystem Γ gibt mit S = ModL (Γ ). Offenbar ist S endlich axiomatisierbar genau dann, wenn S = ModL ({A})
/ S, so kann S offensichtlich nicht
für ein A. Gibt es zu jedem M ∈ S ein elementar äquivalentes M0 ∈
axiomatisierbar sein. Aus Satz 1.6.9 folgt also, daß die Klasse der archimedisch geordneten Körper nicht
axiomatisierbar ist. Ebenso folgt, daß die Klasse der geordneten Körper, die nicht archimedisch geordnet
sind, nicht axiomatisierbar ist.
Lemma 1.6.10. Sei S eine Klasse von L-Strukturen und Γ ein Axiomensystem.
1. S ist endlich axiomatisierbar genau dann, wenn S und das Komplement von S axiomatisierbar sind.
2. Ist ModL (Γ ) endlich axiomatisierbar, so gibt es ein endliches Γ0 ⊆ Γ mit ModL (Γ0 ) = ModL (Γ ).
Beweis. 1. Mit 1 − S bezeichnen wir das Komplement von S. =⇒. Sei S = ModL ({A}). Dann gilt
M ∈ 1 − S ⇐⇒ M |= ¬A, also 1 − S = ModL ({¬A}). ⇐=. Sei S = ModL (Γ1 ) und 1 − S = ModL (Γ2 ).
Dann ist Γ1 ∪ Γ2 nicht erfüllbar, es gibt also ein endliches Γ ⊆ Γ1 so daß Γ ∪ Γ2 nicht erfüllbar ist. Man
erhält
/ 1 − S =⇒ M ∈ S,
M ∈ S =⇒ M |= Γ =⇒ M 6|= Γ2 =⇒ M ∈
also S = ModL (Γ ).
2. Sei ModL (Γ ) = ModL ({A}). Dann gilt Γ |= A, also auch Γ0 |= A für ein endliches Γ0 ⊆ Γ . Man
erhält
M |= Γ =⇒ M |= Γ0 =⇒ M |= A =⇒ M |= Γ,
also ModL (Γ0 ) = ModL (Γ ).
u
t
Zum Abschluß dieses Abschnitts behandeln wir als Beispiel einer vollständigen Theorie noch die
Theorie DO der dichten linearen Ordnungen ohne Endpunkte. Die Axiome der Theorie DO sind (außer
den Gleichheitsaxiomen) die Allabschlüsse von
x 6< x,
x < y ∧ y < z → x < z,
x < y ∨ x = y ∨ y < x,
x < y → ∃z.x < z ∧ z < y,
∃y x < y,
∃y y < x.
38
1. Logik
Lemma 1.6.11. Jedes abzählbare Modell von DO ist isomorph zur Struktur (Q, <) der rationalen Zahlen.
Beweis. Sei M = (M, ≺) ein abzählbares Modell von DO; wir können annehmen, daß =M die Gleichheit
auf M ist. Sei M = { bn | n ∈ N } und Q = { an | n ∈ N }, wobei wir an =
6 am und bn 6= bm für
n < m annehmen können. Wir definieren rekursiv Funktionen fn ⊆ Q × M wie folgt. Sei f0 := {(a0 , b0 )}.
Angenommen, wir haben fn schon konstruiert.
Fall n + 1 = 2m. Sei j minimal so daß bj ∈
/ dom(fn ) so daß für alle a ∈ dom(fn )
/ ran(fn ). Wähle ai ∈
gilt ai < a ↔ bj < fn (a); ein solches ai existiert, da M und (Q, <) Modelle von DO sind. Setze
fn+1 := fn ∪ {(ai , bj )}.
/ ran(fn )
/ dom(fn ). Wähle bj ∈
Den Fall n+1 = 2m+1 behandelt man ähnlich. Sei i minimal so daß ai ∈
so daß für alle a ∈ dom(fn ) gilt ai < a ↔ bj < fn (a); ein solches bj existiert, da M und (Q, <) Modelle
von DO sind. Setze fn+1 := fn ∪ {(ai , bj )}.
Nach
S Konstruktion ist {b0 , . . . , bm } ⊆ ran(f2m ) und {a0 , . . . , am+1 } ⊆ dom(f2m+1 ) und schließlich
f := n fn ein Isomorphismus von (Q, <) auf M.
u
t
Satz 1.6.12. Die Theorie DO ist vollständig, und es gilt DO = Th(Q, <).
Beweis. Da offenbar (Q, <) Modell von DO ist, genügt es nach Satz 1.6.5 zu zeigen, daß für jedes Modell
M von DO gilt M ≡ (Q, <). Sei also M Modell von DO. Nach Lemma 1.6.4(4) existiert ein abzählbares
u
t
M0 mit M ≡ M0 . Nach dem vorangehenden Satz ist M0 ∼
= (Q, <), also M ≡ M0 ≡ (Q, <).
Ein weiteres Beispiel einer vollständigen Theorie ist die Theorie der algebraisch abgeschlossenen
Körper. Hierfür und für viele weitere Gegenstände der Modelltheorie sei verwiesen auf die Literatur;
ein gutes und umfassendes Buch über Modelltheorie ist das von Chang und Keisler [6].
1.7 Anmerkungen
Der Gödelsche Vollständigkeitssatz wurde zuerst von Gödel [12] für abzählbare Sprachen, und im allgemeinen Fall von Malzew [20] bewiesen. Der Satz von Löwenheim und Skolem wurde bereits vor dem
Vollständigkeitssatz bewiesen von Löwenheim [19] und Skolem [35].
Beth-Strukturen für die intuitionistische Logik wurden von Beth in [1] eingeführt; die dort geführten
(klassischen und intuitionistischen) Vollständigkeitsbeweise waren jedoch korrekturbedürftig. Beth hat
seine Arbeit später in [2] revidiert. Eine seiner Absichten war es, intuitionistische Vollständigkeitsbeweise
für die intuitionistische Logik zu geben. Dieser Aspekt ist besonders von Kreisel betont worden; er wird
in der vorliegenden Darstellung ignoriert. Eine gute Übersicht über intuitionistische Vollständigkeitsbeweise findet man in Troelstras Buch [41]. Die Kripke-Semantik für die intuitionistische Logik wurde
entwickelt in [17]; er gab dort einen (klassischen) Vollständigkeitsbeweis im Gödelschen Stil. Die Konstruktion einer Beth-Struktur aus einer Kripke-Struktur geht zurück auf Kripke [17]; die vorliegende
Darstellung stützt sich auf das Buch [44] von Troelstra und van Dalen.
Der Beweis in Abschnitt 1.5 des Vollständigkeitssatzes für die klassische Logik aus dem Vollständigkeitssatz für die intuitionistische Logik stammt von Berger. Die Idee zum Begriff eines Ultraprodukts
geht auf Skolem [36] zurück; er verwendete eine eingeschränkte Form zur Konstruktion eines Nichtstandardmodell der vollständigen Arithmetik. Der allgemeine Begriff eines Ultraprodukts wurde von L
oś [18]
eingeführt; in dieser Arbeit hat er auch den Fundamentalsatz formuliert.
2. Beweistheorie
Das erste Ziel dieses Kapitels ist die Einführung einer kompakten und bequemen Bezeichnungsweise für
Herleitungen: wir ersetzen die bisherige baumartige Bezeichnungsweise durch eine lineare. Um auch der
Möglichkeit der Einführung und Beseitigung von Annahmen Rechnung zu tragen, verwenden wir freie
(Annahme)variablen und einen Bindungsoperator für sie, der traditionsgemäß mit λ bezeichnet wird.
Dies führt unmittelbar auf getypte λ-Kalküle.
Ferner zeigen wir in diesem Kapitel, daß sich jede Herleitung durch geeignete Konversionsschritte in
eine Normalform bringen läßt. Eine normale Herleitung macht keine “Umwege”, d.h. es kommt niemals
vor, daß eine Beseitigung unmittelbar auf eine Einführung folgt. Herleitungen in Normalform haben viele
angenehme Eigenschaften, und können zum Beweis vieler Resultate benutzt werden. Weiterhin zeigen
wir, daß die Normalform eindeutig bestimmt ist.
Dies wird zunächst für das →-Fragment der Aussagenlogik durchgeführt, da fast alle wesentlichen
Aspekte hier schon zum Vorschein kommen. Die Erweiterung auf die volle Sprache wird anschließend
diskutiert.
Als Anwendung beweisen wir die Teilformeleigenschaft und den Herbrandschen Satz. Schließlich
zeigen wir, daß die Forderung nach normalen Herleitungen manchmal unrealistisch sein kann. Wir geben
Beispiele von Formeln Ck , die mit nicht normalen Herleitungen der Länge linear in k bewiesen werden
können, für die aber jede normale Herleitung eine nicht mehr elementar rekursive Anzahl von Knoten
erfordert.
2.1 λ-Kalkül
Wir beginnen mit dem Fragment der Minimallogik, in dem nur Formeln zugelassen sind, die aus Aussagensymbolen mittels Implikation → aufgebaut sind; man nennt es das →-Fragment der minimalen
Aussagenlogik. Herleitungen sind dann mit den Einführungs- und Beseitigungsregeln für → gebildet. Sie
haben eine besonders einfache Struktur, da man auf Variablenbedingungen wegen des Fehlens der Quantoren nicht zu achten braucht. Annahmenvariablen können jedoch nach wie vor abgebunden werden.
Es bietet sich nun an, eine kompakte Termschreibweise für Herleitungen zu verwenden. Die Herleitungsterme müssen dann aber – im Gegensatz zu den Termen der Logik erster Stufe – einen Bindungsoperator enthalten; er wird mit λ bezeichnet. Formeln erscheinen jetzt als (obere) Indizes solcher
Herleitungsterme. Man nennt deshalb die Formeln des →-Fragments der Aussagenlogik auch (einfache)
Typen und die zugehörigen Herleitungsterme λ-Terme mit Typen.
Die zentrale Idee für unsere Termbezeichnung für Herleitungen ist also, Formeln als Typen von Herleitungstermen zu betrachten. Dieser Ansatz ist als Curry-Howard Korrespondenz in der Literatur
bekannt.
Formeln des →-Fragments der minimalen Aussagenlogik heißen dann (einfache) Typen; als Mitteilungszeichen für Typen verwenden wir ρ, σ, τ . Spezielle Typen sind dann die Aussagensymbole, die wir
hier Grundtypen nennen; als Mitteilungszeichen für Grundtypen verwenden wir µ. Also
– Jeder Grundtyp µ ist ein Typ.
– Sind ρ und σ Typen, so auch ρ → σ.
Man beachte, daß sich jeder Typ ρ eindeutig schreiben läßt in der Form ρ = ρ1 → ρ2 → · · · → ρn → µ;
die ρi nennt man dieArgumenttypen von ρ.
Definition 2.1.1. (Induktive Definition der λ-Terme mit Typen).
40
2. Beweistheorie
– Jede Variable xρ ist ein λ-Term.
– Ist M σ ein λ-Term, so auch (λxρ M σ )ρ→σ (Abstraktion).
– Sind M ρ→σ und N ρ λ-Terme, so auch (M ρ→σ N ρ )σ (Anwendung).
λ-Terme nennen wir im folgenden einfach Terme; auch lassen wir die Typenindizes meistens weg.
Mit Λ (Λρ ) bezeichnen wir die Menge aller Terme (des Typs ρ). Terme, die keine Abstraktionen sind,
heißen neutral . Bei Anwendungstermen vereinbaren wir wie üblich Linksklammerung, also M N K meint
(M N )K), nicht M (N K). Ferner soll die Abstraktion stärker binden als die Anwendung, also λxM N
meint (λxM )N , nicht λx(M N ). Wir verwenden wieder eine Punktnotation, wenn der Wirkungsbereich
eines λ-Operators so groß wie durch die Klammerung möglich sein soll, also z.B. (λx.M N )K meint
(λx(M N ))K. Die Menge FV(M ) der freien Variablen eines λ-Terms definieren wir rekursiv durch
FV(x) := {x}
FV(λxM ) := FV(M ) \ {x}
FV(M N ) := FV(M ) ∪ FV(N )
Hinzufügen des ∧-Konstruktors für Typen und entsprechend von Paarbildung und Projektionen für
Terme führt auf den getypten λ-Kalkül mit Paarbildung, der für Anwendungen meist benötigt wird. Diese
Erweiterung ist jedoch recht harmlos. Wir schreiben anstelle von ρ ∧ σ hier ρ × σ. Die induktive Definition
der λ-Terme mit Typen wird erweitert durch die Klauseln
– Sind M ρ und N σ λ-Terme, so auch hM ρ , N σ iρ×σ (Paarbildung).
– Ist M ρ×σ ein λ-Term, so sind es auch π0 (M )ρ und π1 (M )σ (Projektionen).
Manchmal ist es nützlich, M 0 für π0 (M ) und M 1 für π1 (M ) zu schreiben.
Wir können in ähnlicher Weise unsere Termdarstellung auf die volle ∧→∀ Sprache erweitern. Dies
bringt keine wesentlichen Schwierigleiten mit sich, nur ist einige Sorgfalt bei den Bezeichnungen erforderlich. Der Hauptunterschied in der Bezeichnungweise besteht darin, daß jetzt Formeln als Typensymbole
verwendet werden, anstelle von ρ, σ, . . . vorher.
Als Grundbausteine von Herleitungstermen oder kurz Termen verwenden wir mit Formeln versehene
Annahmenvariable uA ; u ist wieder eines der Symbole ƒ0 , ƒ1 , . . . . Wir verlangen wie bisher, daß verschiedene Annahmeformeln stets verschiedene Marken u haben. Als Mitteilungszeichen für Herleitungsterme
verwenden wir M, N, K, L und für Annahmevariablen u, v, w. Wir schreiben meist u : A anstelle von uA
und M : A anstelle von M A .
Wir geben eine induktive Definition der Herleitungsterme in der Form der Tabelle 2.1, wobei wir zum
besseren Verständnis links die entsprechenden Herleitungen aufschreiben.
Zur Formulierung der Variablenbedingungen benötigen wir die Menge FA(M ) der im Herleitungsterm
M freien Annahmen. Sie ist rekursiv definiert durch
FA(uA ) := {uA },
FA(hM A , N B iA∧B ) := FA(M A ) ∪ FA(N B ),
FA(π0 (M A∧B )A ) := FA(M A∧B ),
FA(π1 (M A∧B )B ) := FA(M A∧B ),
FA((λuA M B )A→B ) := FA(M B ) \ {uA },
FA((M A→B N A )B ) := FA(M A→B ) ∪ FA(N A ),
FA((λxM A )∀xA ) := FA(M A ),
FA((M ∀xA t)A[x:=t] ) := FA(M ∀xA ).
Die Variablenbedingung ist dann x ∈
/ FV(A) für alle uA ∈ FA(M ).
Man beachte, daß in Herleitungstermen Formeln oft überflüssig sind. Wenn man (λuM )A→B schreibt,
so ist klar, daß u die Formel A und M die Formel B haben müssen. Ebenso muß in (M A→B N ) der
Gesamtterm die Formel B und N die Formel A haben. Wir werden im folgenden häufig solche redundanten Formeln weglassen. Auf diese Weise erhält man mit den Herleitungstermen eine sehr kompakte
Schreibweise für Herleitungen.
Als Beispiele für Herleitungsterme schreiben wir die Herleitungen (1.1)-(1.4) als Herleitungsterme auf.
2.1 λ-Kalkül
Herleitung
Term
u: A
uA
|M
|N
A
B
∧+
A∧B
|M
A∧B
∧−
1
B
|M
A∧B
∧−
0
A
41
hM A , N B iA∧B
π0 (M A∧B )A
π1 (M A∧B )B
[u : A]
|M
B
→+ u
A→B
|M
A→B
B
|M
A
∀+
∀xA
|M
|N
A
(λuA M B )A→B
→−
(mit Var.Bed.)
t −
∀xA
∀
A[x := t]
(M A→B N A )B
(λxM A )∀xA (mit Var.Bed.)
(M ∀xA t)A[x:=t]
Tab. 2.1. Curry-Howard Korrespondenz zwischen natürlichen Herleitungen und dem einfach getypten λ-Kalkül
42
2. Beweistheorie
(1.1) Mit D := (A ∧ B → C) → (A → (B → C)) haben wir
(
A∧B→C
λu
)D
“
’
h
€ A∧B→C A B A∧B C iB→C A→B→C
B
A
λv λw u
hv , w i
Es ist klar, daß man hier viele redundante Formeln weglassen kann. Mit Annahmenvariablen
u, v, w der Typen u : A ∧ B → C, v : A und w : B schreiben wir den Herleitungsterm kurz als
λuλvλw(uhvwi).
(1.2) Wir verwenden Annahmenvariablen u : A → (B → C) und v : A ∧ B. Der Herleitungsterm ist dann
λuλv[u(π0 v)](π1 v).
(1.3) Mit u : ∀x(A → B) und v : A erhalten wir λuλvλx[(ux)v].
(1.4) Mit u : A → ∀xB und v : A erhalten wir λuλxλv[(uv)x].
Neutral heißen jetzt Terme, die weder Abstraktionen (also von der Form λuM oder λxM ) noch Paare
sind. Es ist bequem, anstelle von πi (M ) auch M i mit i = 0, 1 zu schreiben: dann können wir jede
Beseitigungsregel in der Form einer Anwendung mitteilen. Die Schreibweise M N bedeutet jetzt also einen
(linksgeklammerten) verallgemeinerten Anwendungsterm, in dem einige Ni auch 0, 1 (für die Projektionen
−
−
π0 , π1 bei ∧−
0 , ∧1 ) oder Objektterme t (bei ∀ ) sein können.
A
Ein Herleitungsterm M heißt geschlossen, wenn FA(M A ) = ∅. Wir schreiben
An
1
M B [uA
1 , . . . , un ]
An
1
um mitzuteilen, daß die freien Annahmen von M B in der Liste uA
1 , . . . , un enthalten sind.
Ferner benötigt man oft die Menge FV(M ) der freien (Objekt-) Variablen in einem Herleitungsterm
M ; sie ist rekursiv definiert durch
FV(uA ) := FV(A),
FV(hM A , N B i) := FV(M A ) ∪ FV(N B ),
FV(πi (M A∧B )) := FV(M A∧B ),
FV(λuB M A ) := FV(M A ),
FV(M A→B N A ) := FV(M A→B ) ∪ FV(N A ),
FV(λxM A ) := FV(M A ) \ {x},
FV(M ∀xA t) := FV(M ∀xA ) ∪ vars(t).
Als Beispiele betrachten wir die folgende Herleitungsterme.
(1) M1 = λv P uQx .
u : Qx
→+ v
P → Qx
Dann ist FA(M1 ) = {uQx } und FV(M1 ) = {x}.
(2) M2 = λuQx λv P uQx .
u : Qx
→+ v
P → Qx
→+ u
Qx → (P → Qx)
Dann ist FA(M2 ) = ∅ und FV(M2 ) = {x}.
(3) M3 = λxλuQx λv P uQx .
u : Qx
→+ v
P → Qx
→+ u
Qx → (P → Qx)
∀+
∀x.Qx → (P → Qx)
Dann ist FA(M3 ) = ∅ und FV(M3 ) = ∅.
2.2 Normalisierung
43
Für Herleitungsterme haben wir zwei Arten von Substitutionen: Man kann einen Herleitungsterm M A
für eine Annahmenvariable uA substituieren, und man kann auch einen Objektterm t für eine Objektvariable x substituieren.
Die Axiome für den starken Existenzquantor ∃∗ werden durch entsprechende Konstanten bezeichnet:
∗
∃∗+
x,A : ∀x.A → ∃ xA
∗−
: ∃∗ xA → (∀x.A → B) → B
∃x,A,B
mit der üblichen Voraussetzung x ∈
/ FV(B).
2.2 Normalisierung
Wir behandeln zunächst das →-Fragment der minimalen Aussagenlogik; der Beweis wird sich dann leicht
auf die volle Sprache übertragen lassen.
Zunächst definieren wir eine Konversionsrelation 7→ρ zwischen Termen vom Typ ρ durch
(λxM )N 7→ M [x := N ],
β-Konversion
λx.M x 7→ M falls x ∈
/ FV(M ) und M neutral ist. η-Konversion
Die Einschritt-Reduktionsrelation →1 kann man jetzt wie folgt definieren. M →1 N gilt, wenn N aus M
entsteht durch Ersetzen eines Teilterms M 0 in M durch N 0 , wobei M 0 7→ N 0 . Die Reduktionsrelationen
→+ and →∗ sind der transitive und der reflexiv-transitive Abschluß von →1 . Für M = M1 , . . . , Mn
schreiben wir M →1 M 0 falls Mi →1 Mi0 für ein i ∈ {1, . . . , n} und Mj = Mj0 für alle i 6= j ∈ {1, . . . , n}.
Folgende Eigenschaft dieser Reduktionsrelation macht man sich leicht klar.
Lemma 2.2.1. 1. Wenn xM →1 N , so ist N = xM 0 mit M →1 M 0 .
2. Substitution und Reduktion sind miteinander verträglich, d.h. wenn M →∗ M 0 und N →∗ N 0 , so gilt
u
t
auch M [x := N ] →∗ M 0 [x := N 0 ].
Definition 2.2.2. Ein Term M heißt normal (oder in Normalform), wenn es keinen Term N gibt mit
M →1 N .
Definition 2.2.3. Die Menge sn der stark normalisierenden Terme wird induktiv definiert durch
(∀N.M →1 N =⇒ N ∈ sn) =⇒ M ∈ sn
(2.1)
Man beachte, daß mit M offenbar auch jeder Teilterm von M stark normalisierend ist.
Zum Beweis, daß jeder Term M stark normalisierend ist, verwenden wir eine auf W.W. Tait [39]
zurückgehende Methode, die auf der Einführung von sogenannten starken Berechenbarkeitsprädikaten
sbρ beruht. Sie werden durch Induktion über den Typ ρ wie folgt definiert.
Definition 2.2.4.
M ∈ sbµ :⇐⇒ ∀N.M →1 N =⇒ N ∈ sb
M ∈ sbρ→σ :⇐⇒ (∀N ∈sbρ ) M N ∈ sbσ .
(2.2)
(2.3)
Lemma 2.2.5. Ist M ∈ sbρ und M →1 M 0 , so ist auch M 0 ∈ sb.
Beweis. Induktion über ρ. Fall µ. Nach (2.2). Fall ρ → σ. Gelte M ∈ sbρ→σ und M →1 M 0 ; zu zeigen ist
M 0 ∈ sb. Sei also N ∈ sbρ ; zu zeigen ist M 0 N ∈ sbσ . Dies folgt aber aus M N →1 M 0 N und M N ∈ sbσ
u
t
nach Induktionshypothese (IH) über σ.
Lemma 2.2.6. (∀M ∈sn).M ∈ sb =⇒ (xM )µ ∈ sb.
Beweis. Induktion über M ∈ sn. Gelte M ∈ sn und M ∈ sb; zu zeigen ist (xM )µ ∈ sb. Sei also
xM →1 N ; zu zeigen ist N ∈ sb. Nach Lemma 2.2.1 muß N von der Gestalt xM 0 sein mit M →1 M 0 .
t
u
Nach Lemma 2.2.5 gilt aber M 0 ∈ sb, also xM 0 ∈ sb nach IH für M 0 .
44
2. Beweistheorie
Lemma 2.2.7.
sbρ ⊆ sn,
x ∈ sbρ .
(2.4)
(2.5)
Beweis. Durch simultane Induktion über ρ. Fall µ. (2.4). Wir zeigen M ∈ sbµ =⇒ M ∈ sn durch
(Neben-) Induktion über M ∈ sbµ . Gelte also M ∈ sbµ ; zu zeigen ist M ∈ sn. Für jedes N mit M →1 N
haben wir N ∈ sb nach (2.2), also N ∈ sn nach der Nebeninduktionsvoraussetzung (NIH). (2.5). x ∈ sbµ
gilt, da es kein N mit x →1 N gibt.
Fall ρ → σ. (2.4). Gelte M ∈ sbρ→σ ; zu zeigen ist M ∈ sn. Nach IH(2.5) für ρ haben wir x ∈ sbρ , also
M x ∈ sbσ , also M x ∈ sn nach IH(2.4) für σ. Nun impliziert M x ∈ sn offenbar M ∈ sn, wir man durch
Induktion über M x ∈ sn leicht sieht. (2.5). Sei M ∈ sbρ mit ρ1 = ρ; zu zeigen ist xM ∈ sbν . Dies folgt
u
t
aber aus Lemma 2.2.6, unter Verwendung von IH(2.4) für ρ.
Lemma 2.2.8. (∀M, N, N ∈sn).M [x := N ]N ∈ sbµ =⇒ (λxM )N N ∈ sbµ .
Beweis. Durch Induktion über M, N, N ∈ sn. Seien M, N, N ∈ sn und gelte M [x := N ]N ∈ sb; zu
zeigen ist (λxM )N N ∈ sb. Gelte (λxM )N N →1 K; zu zeigen ist K ∈ sb. Fall K = (λxM 0 )N 0 N 0
mit M, N, N →1 M 0 , N 0 , N 0 . Dann gilt M [x := N ]N →∗ M 0 [x := N 0 ]N 0 nach Lemma 2.2.1, also
M 0 [x := N 0 ]N 0 ∈ sb nach Lemma 2.2.5 bzw. der Annahme, also (λxM 0 )N 0 N 0 ∈ sb nach IH. Fall
K = M [x := N ]N . Dann ist K ∈ sb nach Annahme.
u
t
Korollar 2.2.9. (∀M, N, N ∈sn).M [x := N ]N ∈ sbρ =⇒ (λxM )N N ∈ sbρ .
Beweis. Nach Induktion über ρ, mit Hilfe von (2.4).
u
t
Definition 2.2.10. Ein Term M heißt stark berechenbar unter Substitution, wenn für alle N ∈ sb der
Term M [x := N ] ∈ sb ist.
Satz 2.2.11. Jeder Term ist stark berechenbar unter Substitution.
Beweis. Induktion über den Term M . Fall x. Klar. Fall M N . Nach IH sind M [x := N ] ∈ sb und
N [x := N ] ∈ sb, also auch (M N )[x := N ] = M [x := N ]N [x := N ] ∈ sb. Fall λxM . Sei N ∈ sb; zu
zeigen ist (λxM )[x := N ] ∈ sb. Nach IH ist M [x, x := N , N ] ∈ sb, also (λxM [x := N ])N ∈ sb nach
Korollar 2.2.9.
u
t
Korollar 2.2.12. Jeder Term ist stark normalisierbar.
u
t
Wir zeigen jetzt die Eindeutigkeit der Normalform. Ein Term M heißt lokal konfluent, wenn es zu
jedem Paar N1 und N2 mit M →1 N1 und M →1 N2 einen Term N gibt mit N1 →∗ N und N2 →∗ N .
Lemma 2.2.13. Jeder Term M ist lokal konfluent.
Beweis. Induktion über M . Fall x. Klar. Fall λxM .
λxM
€
@1
1
€
@
‰
€
R
@
λxM 0
λxM 00
@∗
∗€
@
€
R €
@
‰
λxM 000
λx.M x
€
@1
1
€
@
‰
€
R
@
M
λx.M 0 x
€
@1
1
€
@
‰
R €
@
M0
/ FV(M )
falls x ∈
Fall M N .
MN
€
@1
1
€
@
‰
€
R
@
M 0N
M 00 N
@∗
∗€
@
€
R €
@
‰
M 000 N
MN
€
@1
1
€
@
‰
€
@
R
MN0
M N 00
@∗
∗€
@
€
R €
@
‰
M N 000
MN
@1
€
1
@
€
R
@
‰
€
MN0
M 0N
@∗
∗€
@
€
@
R €
‰
M 0N 0
2.2 Normalisierung
45
sowie
(λxM )N
1€ @1
@
€
‰
€
@
R
M [x := N ]
(λxM 0 )N
@∗
1€
@
€
R €
@
‰
M 0 [x := N ]
(λxM )N
1€ @1
€
@
@
R
‰
€
M [x := N ]
(λxM )N 0
@∗
1€
@
€
@
R €
‰
M [x := N 0 ]
(λx.M x)N
1€ @1
€
@
€
‰
@
R
=
MN
MN
wobei wir zweimal links unten Lemma 2.2.1 und im letzten Diagramm einmal eine β- und einmal eine
η-Konversion benutzt haben. Wegen der vorausgesetzten Neutralität von M im Fall der η-Konversion
u
t
können keine weiteren Fälle auftreten.
Satz 2.2.14. Alle Terme haben eine eindeutige Normalform, d.h. zu jedem Term M gibt es genau einen
normalen Term N mit M →∗ N .
Beweis. Jeder Term M ist nach Korollar 2.2.12 stark normalisierbar, wir können also Induktion nach
M ∈ sn verwenden. Ist M normal, so ist die Behauptung trivial. Gelte also M →1 N1 und M →1 N2 .
Nach IH haben N1 und N2 eindeutige Normalformen. Mit dem vorigen Lemma ergibt sich die Behauptung,
wie man anhand der folgenden Skizze leicht verfiziert.
M
€
@
€
@
€
‰
@
R
N1 lok. konf. N2
∗€ @∗
∗€ @∗
€
€
@
@
€
‰
‰
R
@
@
R €
IH(N1 ) ∃P1
K
L
€
@∗
€
∗
IH(N2 )
@
€
€
‰
R €
@
∗€
∃P2
€
@∗
€
@
‰
@
R €
∃N
t
u
Die bisherigen Begriffe und Resultate dieses Kapitels lassen sich leicht auf den Fall übertragen, daß
neben der Implikation → auch noch die Konjunktion ∧ und der Allquantor ∀ zugelassen sind. Wir nennen
einen Term wieder neutral , wenn er weder ein Paar noch eine Abstraktion ist. Die Regeln der β- and
η-Konversion sind jetzt
hM0 , M1 ii 7→ Mi ,
(λuM )N 7→ M [u := N ],
(λxM )t 7→ M [x := t],
hM 0, M 1i 7→ M falls M neutral ist,
/ FA(M ) und M neutral ist,
λu.M u 7→ M falls u ∈
λx.M x 7→ M falls M is neutral.
Die Eigenschaften der Substitution, d.h. Lemma 2.2.1, bleiben gültig. Der Beweis der starken Normalisierung läßt sich leicht erweitern; auch die zusätzlichen Fälle im Beweis der lokalen Konfluenz sind sehr
einfach.
46
2. Beweistheorie
2.3 Anwendungen
Wir wollen jetzt einige Folgerungen aus der Tatsache ziehen, daß sich jede Herleitung in Normalform
bringen läßt. Zu diesem Zweck müssen wir die Form normaler Herleitungen genauer analysieren.
Mit k, l ∈ {0, 1}∗ bezeichnen wir Knoten in einem Term M . Node(M ) ist die Menge aller Knoten
in M , und ε bezeichnet die leere Liste, d.h. den Wurzelknoten. k0 und k1 sind die Erweiterungen des
Knotens k durch 0 oder 1. Der Teilterm von M am Knoten k wird mit M/k bezeichnet. Wir schreiben
k – l falls k ein Anfangssegment von l ist. Weiter sei
Leafnode(M ) := { k ∈ Node(M ) | M/k Variable oder Konstante }
Elimnode(M ) := { k ∈ Node(M ) | M/k gebildet durch eine Beseitigungsregel }
Intronode(M ) := { k ∈ Node(M ) | M/k gebildet durch eine Einführungsregel }
Für jedes k ∈ Elimnode(M ) ∪ Leafnode(M ) definieren wir seinen zugeordneten minimalen Knoten durch
minnodeM (ε) := ε.

minnodeM (k),

minnodeM (ki) := ki,


falls i = 0 und k ∈ Elimnode(M );
falls i = 1 und k ∈ Elimnode(M ), oder
k ∈ Intronode(M ).
Offensichtlich ist minnodeM (k) ∈ Elimnode(M ) ∪ Leafnode(M ). Sei
Minnode(M ) := { k ∈ Elimnode(M ) ∪ Leafnode(M ) | minnodeM (k) = k }.
Für jedes k ∈ Node(M ) definieren wir seinen zugeordneten Endknoten durch
Sei
endnodeM (ε) := ε.

endnodeM (k),

endnodeM (ki) :=


ki,
falls k ∈ Intronode(M ), oder
i = 0 und k ∈ Elimnode(M );
falls i = 1 und k ∈ Elimnode(M ).
Endnode(M ) := { k ∈ Node(M ) | endnodeM (k) = k }.
Für normale Terme M stehen die Blätter und die Minimalknoten in einer eineindeutigen Beziehung. Man
beachte, daß zwei minimale Knoten denselben Endknoten haben können.
Sei M ein Term und k ∈ Leafnode(M ). Dann heißt
{ l ∈ Node(M ) | k — l — endnodeM (k) }
der durch den Knoten k bestimmte Ast in M . Insbesondere ist minnodeM (k) ein Element des durch k
bestimmten Astes. Im Fall endnodeM (k) = ε spricht man von einem Hauptast. In einem normalen Term
hat jeder Ast k1 — · · · — kn eine besonders durchsichtige Form: alle Beseitigungsregeln kommen vor allen
Einführungsregeln.
Im Fall eines normalen Herleitungsterms wollen wir einige Folgerungen über die an den Knoten angehefteten Formeln ziehen. Dazu brauchen wir die folgenden Begriffe. Die Formeln A, B heißen unmittelbare
Teilformeln von A ∧ B und A → B, und für jeden Term t ist die Formel A[x := t] eine unmittelbare
Teilformel von ∀xA. Die Relation “A ist eine Teilformel von B” ist der reflexiv-transitive Abschluß der
Relation “unmittelbare Teilformel”.
An
1
Lemma 2.3.1. Sei M B [uA
1 , . . . , un ] ein normaler Herleitungsterm, der nicht mit einer Einführung
endet. Dann ist B Teilformel einer Formel Ai .
Beweis. Induktion über M . Fall M B = M0D→B M1D . Da M normal ist, kann M0 nicht mit einer
Einführungsregel enden. Nach IH sind deshalb D → B und also auch B Teilformeln eines Ai . Die anderen
i
Fälle (d.h. M B = N B∧D 0, M B = N D∧B 1, M B = N ∀xD t mit B = D[x := t] und M = uA
i mit B = Ai )
behandelt man ähnlich.
t
u
2.4 Normale versus nicht-normale Herleitungen
47
An
C
1
Satz 2.3.2. (Teilformeleigenschaft). Sei M B [uA
eine Teil1 , . . . , un ] eine normale Herleitung und N
B
herleitung von M . Dann ist C Teilformel von B oder von einem Ai .
Beweis. Induktion über M . Wir können annehmen, daß N C 6= M B . Fall M B = M0D→B M1D . Nach IH ist
C Teilformel von D → B oder von einem Ai . Da M normal ist, kann M0 nicht mit einer Einführungsregel
enden. Nach dem vorangehenden Lemma ist also D → B eine Teilformel eines Ai . Also ist auch C
Teilformel eines Ai . Die Fälle M B = N B∧D 0, M B = N D∧B 1 and M B = N ∀xD t mit B = D[x := t]
behandelt man ähnlich.
Fall M B = λuB0 M1B1 mit B = B0 → B1 . Nach IH ist C Teilformel von B1 , B0 oder einem Ai . Also
ist C Teilformel von B0 → B1 oder einem Ai . Die Fälle M = λxM0 und M = hM0 , M1 i behandelt man
ähnlich.
u
t
1 A1
m Am
Lemma 2.3.3. Sei M [u∀x
, . . . , u∀x
] : ∀y∀yB0 eine normale Herleitung mit quantorenfreien Form
1
meln A1 , . . . , Am , B0 , die nicht mit einer Einführungsregel endet. Dann ist M von der Form ui t.
Beweis. Induktion über M . Sei B := ∀y∀yB0 . Im Fall M B = ui ist die Behauptung trivial. Fall M B =
M0D→B M1D . Da M normal ist, kann M0 nicht mit einer Einführungsregel enden. Also ist nach Lemma
2.3.1 D → B eine Teilformel von einem ∀xi Ai . Dies ist aber unmöglich, da B mit ∀ beginnt; also kann
dieser Fall nicht eintreten. Die Fälle M B = N B∧D 0 and M B = N D∧B 1 behandelt man ähnlich. Fall
M B = N ∀zD t mit B = D[z := t]. Dann haben wir ∀zD = ∀z∀y∀yD0 mit quantorenfreiem D0 . Nach IH
u
t
folgt N = ui t, also M = ui tt.
∀xm Am
] : B eine normale Herleitung mit quantorenfreiSatz 2.3.4. ( Herbrand). Sei M [u1∀x1 A1 , . . . , um
B
en Formeln A1 , . . . , Am , B. Dann enthält M keine All-Einführungsregel, und jedes Vorkommen einer
Annahmevariablen ui in M ist in einem Kontext
ui : ∀xi Ai
tij
.
Ai [xi := tij ]
Insbesondere findet man Terme t11 , . . . , t1n1 , . . . , tm1 , . . . , tmnm mit
A1 [x1 := t11 ], . . . , A1 [x1 := t1n1 ], . . . ,
Am [xm := tm1 ], . . . , Am [xm := tmnm ] ` B.
Beweis. Teil 1. Im Fall M = ui ist nichts zu zeigen. Fall M B = M0D→B M1D . Da M normal ist, kann
M0 nicht mit einer Einführungsregel enden. Nach Lemma 2.3.1 ist D → B Teilformel eines ∀xi Ai . Also
ist D → B quantorenfrei, und die IH läßt sich anwenden. Die Fälle M B = N B∧D 0 und M B = N D∧B 1
behandelt man ähnlich. Fall M B = N ∀zD t mit B = D[z := t], also D quantorenfrei. Da M B normal ist,
kann N nicht mit einer Einführungsregel enden. Nach Lemma 2.3.3 muß N dann die Form ui t haben,
also M = ui tt.
Fall M B = λuB0 M1B1 mit B = B0 → B1 . Dann sind B0 und B1 quantorenfrei, und die IH liefert die
Behauptung. Den Fall M = hM0 , M1 i behandelt man ähnlich.
Teil 2. Ersetzt man alle Vorkommen von ui tij durch neue Annahmevariablen vij : Ai [xi := tij ], so
erhält man eine korrekte Herleitung, da M nach Teil (1) keine All-Einführungsregel enthält, also auch
keine der Variablen tij weiter unten in der Herleitung gebunden ist.
u
t
2.4 Normale versus nicht-normale Herleitungen
Wir wollen jetzt zeigen, daß die Forderung, stets eine normale Herleitung für eine herleitbare Formel
anzugeben, manchmal unrealistisch sein kann. Wir geben Beispiele von Formeln Dk , die leicht mit nicht
normalen Herleitungen (deren Knotenzahl linear in k ist) bewiesen werden können, für die aber jede
normale Herleitung eine (in k) superexponentielle Anzahl von Knoten erfordert.
Das Beispiel steht in enger Beziehung zu Gentzens Beweis (in [10]) der transfiniten Induktion bis ωk
in der Arithmetik. Dort spielt die Funktion y ⊕ ω x eine wesentliche Rolle, und auch die Zuordnung einer
“lifting”-Formel A+ zu jeder Formel A, nämlich
48
2. Beweistheorie
A+ := ∀y.(∀z≺y A[x := z]) → ∀z≺y⊕ω x A[x := z].
Hier betrachten wir stattdessen die numerische Funktion y + 2x , und axiomatisieren ihren Graphen durch
Hornklauseln. Die Formel Dk sagt aus, daß aus diesen Axiomen die Existenz von 2k folgt (wobei 20 := 1
und 2k+1 := 22k ). Einen kurzen, nicht normalen Beweis dieser Tatsache kann man durch eine Modifikation
der Gentzenschen Idee erhalten. Man kann sich dann überzeugen, daß jede nicht normale Herleitung
von Dk mindestens 2k Knotenenthalten muß.
Zur Angabe der Herleitungen machen wir wesentlich Gebrauch von dem durch ¬∀¬ definierten Existenzquantor ∃ (vgl. Abschnitt 1.2).
Man beachte, daß die Stabilitätsannahme ¬¬B → B nicht benötigt wird, falls B kein Atom 6= ⊥ als
strikt positive Teilformel1 enthält. Dies wird für die unten anzugebenden Herleitungen der Fall sein; B
ist dort immer eine existentielle Formel.
Wir fixieren zunächst unsere Sprache. Verwendet wird ein dreistelliges Relationssymbol R, das den
Graphen der Funktion y + 2x beschreiben soll; R(y, x, z) meint also y + 2x = z. Wir axiomatisieren
R mit Hilfe von Hornklauseln. Zur Vereinfachung verwenden wir ein einstelliges Funktionssymbol s (zu
verstehen als die Nachfolgerfunktion) und eine Konstante 0; man könnte auch ohne Funktionssymbole
auskommen, aber dies macht die Formeln weniger lesbar und die Beweise weniger durchsichtig.
Hyp1 : ∀yR(y, 0, s(y))
Hyp2 : ∀y, x, z, z1 .R(y, x, z) → R(z, x, z1 ) → R(y, s(x), z1 )
Die Zielformel ist
Ck := ∃zk , . . . , z0 .R(0, 0, zk ) ∧ R(0, zk , zk−1 ) ∧ . . . ∧ R(0, z1 , z0 ).
Um einen kurzen Beweis von Dk := Hyp1 → Hyp2 → Ck zu erhalten, verwenden wir Formeln Ai mit
einem freien Parameter x; zur besseren Lesbarkeit schreiben wir A[r] anstelle von A[x := r].
A0 := ∀y∃z R(y, x, z),
Ai+1 := ∀y.Ai [y] → ∃z.Ai [z] ∧ R(y, x, z).
Lemma 2.4.1. ` Hyp1 → Hyp2 → Ai [0].
Beweis. Wir geben ein informales Argument, das sich leicht in einen formalen Beweis umformen läßt.
Man beachte, daß die Existenzbeseitigung nur mit Existenzformeln als Konklusionen verwendet wird. Es
ist also nicht nötig, Stabilitätsannahmen zu machen und wir erhalten eine Herleitung in der Minimallogik.
Fall i = 0. Klar nach Hyp1 .
Fall i = 1. Sei x mit A0 [x] gegeben. Es genügt zu zeigen A0 [s(x)], also ∀y∃z1 R(y, s(x), z1 ). Sei also y
gegeben. Wir wissen
A0 [x] = ∀y∃z R(y, x, z).
(2.6)
Anwendung von (2.6) auf unser y ergibt z mit R(y, x, z). Nochmalige Anwendung von (2.6) auf dieses z
ergibt z1 mit R(z, x, z1 ). Nach Hyp2 erhalten wir R(y, s(x), z1 ).
Fall i + 2. Sei x mit Ai+1 [x] gegeben. Es genügt zu zeigen Ai+1 [s(x)], also ∀y.Ai [y] → ∃z.Ai [z] ∧
R(y, s(x), z). Sei also y mit Ai [y] gegeben. Wir wissen
Ai+1 [x] = ∀y.Ai [y] → ∃z1 .Ai [z1 ] ∧ R(y, x, z1 ).
(2.7)
Anwendung von (2.7) auf unser y ergibt z mit Ai [z] und R(y, x, z). Nochmalige Anwendung von (2.7) auf
u
t
dieses z ergibt z1 mit Ai [z1 ] und R(z, x, z1 ). Nach Hyp2 erhalten wir R(y, s(x), z1 ).
Man beachte, daß diese Herleitungen eine feste Länge haben, die nicht von i abhängt.
1
Die Formeln A, B sind unmittelbare strikt positive Teilformeln von A∧B, B ist eine unmittelbare strikt positive
Teilformel von A → B, und für jeden Term t ist die Formel A[x := t] eine unmittelbare strikt positive Teilformel
von ∀xA. Die Relation “A ist eine strikt positive Teilformel von B” ist der reflexiv-transitive Abschluß dieser
Relation.
2.5 Anmerkungen
49
Lemma 2.4.2. ` Hyp1 → Hyp2 → Ck .
Beweis. Wir geben ein informales Argument, das sich leicht in einen formalen Beweis umformen läßt.
Man beachte wieder, daß die Existenzbeseitigung nur mit Existenzformeln als Konklusionen verwendet
wird, und wir deshalb eine Herleitung in der Minimallogik erhalten.
Ak [0] angewandt auf 0 und Ak−1 [0] liefert zk mit Ak−1 [zk ] und R(0, 0, zk ).
Ak−1 [zk ] angewandt auf 0 und Ak−2 [0] liefert zk−1 mit Ak−2 [zk−1 ] und R(0, zk , zk−1 ).
A1 [z2 ] angewandt auf 0 und A0 [0] liefert z1 mit A0 [z1 ] und R(0, z2 , z1 ).
A0 [z1 ] angewandt auf 0 liefert z0 mit R(0, z1 , z0 ).
t
u
Man beachte, daß diese Herleitungen eine in k lineare Länge haben. Wir wollen jetzt die Länge einer
beliebigen normalen Herleitung von Dk nach unten abschätzen.
Lemma 2.4.3. Jede normale Herleitung von Ck aus Hyp1 und Hyp2 hat mindestens 2k Knoten.
Beweis. Sei M eine normale Herleitung von ⊥ aus Hyp1 , Hyp2 und der zusätzlichen Annahme
u : ∀zk , . . . , z0 .R(0, 0, zk ) → R(0, zk , zk−1 ) → . . . → R(0, z1 , z0 ) → ⊥.
Wir können annehmen, daß M keine freien Objektvariablen enthält (anderfalls ersetze man sie durch
0). Der Hauptast von M muß mit u beginnen, und seine Nebenprämissen sind alle von der Form
R(0, sn (0), sk (0)).
Man beachte, daß jede normale Herleitung von R(sm (0), sn (0), sk (0)) aus Hyp1 , Hyp2 und u mindestens
n
2 Vorkommen von Hyp1 enthält, und daß k = m + 2n gelten muß. Dies sieht man leicht durch Induktion
über n. Man beachte auch, daß eine solche Herleitung die Annahmenvariable u nicht enthalten kann.
Wendet man diese Beobachtung auf die obigen Herleitung der Nebenprämissen an, so sieht man, daß
sie herleiten
0
0
20
R(0, 0, s2 (0)), R(0, s2 (0), s2 (0)), . . . R(0, s2k−1 (0), s2k (0)).
Die letzte dieser Herleitungen verwendet mindestens 22k−1 = 2k -mal Hyp1 .
u
t
2.5 Anmerkungen
Das System des natürlichen Schließens wurde von Gentzen [9] eingeführt. Den Beweis der starken
Normalisierung haben wir mit einer auf W.W. Tait [39] zurückgehenden Methode geführt.
Das Beispiel von Herleitungen mit kurzen nicht normalen Beweisen und superexponentiell langen
Normalformen geht zurück auf Statman [37] und Orevkov [22]. Orevkovs Ergebnis ist eine Adaption
des Statmanschen für Sprachen mit Funktionssymbolen. Unsere Darstellung folgt [42].
50
2. Beweistheorie
3. Berechenbarkeit
3.1 Primitiv rekursive Funktionen
Wir beschränken uns auf die Diskussion der Berechenbarkeit von Funktionen F : Nn → N. Eine solche
Funktion soll berechenbar (im intuitiven Sinn) heißen, wenn es einen Algorithmus gibt, der für jedes
Argumentetupel a1 , . . . , an terminiert und den Funktionswert f (a1 , . . . , an ) liefert. In diesem Abschnitt
behandeln wir besonders einfache berechenbare Funktionen, nämlich die von Hilbert eingeführten sogenannten primitiv rekursiven Funktionen, die aus einfachen Ausgangsfunktionen durch Komposition (oder
Einsetzung) und primitive Rekursion erzeugt werden können. Obwohl diese Definitionsschemata recht
speziell sind, wird sich zeigen, daß nahezu alle in der Mathematik verwendeten zahlentheoretischen Funktionen primitiv rekursiv sind. Insbesondere werden wir in Abschnitt 3.3 Terme, Formeln und Herleitungen
durch natürliche Zahlen kodieren und zeigen, daß die charakteristischen Funktionen der entsprechenden
Mengen von Kodenummern primitiv rekursiv sind.
Wir definieren induktiv für jedes n ∈ N eine Menge PRn von n-stelligen Funktionssymbolen.
1. 0n ∈ PRn (n ≥ 0), S ∈ PR1 , Iin ∈ PRn (1 ≤ i ≤ n).
2. Sind g1 , . . . , gm ∈ PRn , h ∈ PRm und m ≥ 1, n ≥ 0, so ist (◦hg1 . . . gm ) ∈ PRn .
3. Ist g ∈ PRn und h ∈ PRn+2 , so ist (Rgh) ∈ PRn+1 .
S
Wir setzen PR := n∈N PRn und 0 := 00 .
Zu der durch PR gegebenen Sprache definieren wir eine Standardstruktur N wie folgt. Es ist |N | := N
und
(0n )N (a1 , . . . , an ) := 0,
SN (a) := a + 1,
(Iin )N (a1 , . . . , an ) := ai ,
N
(◦hg1 . . . gm )N (a) := hN (g1N (a), . . . , gm
(a)),
(Rgh)N (0, b) := g N (b),
(Rgh)N (a + 1, b) := hN (a, (Rgh)N (a, b), b).
Eine Funktion F : Nn → N heißt primitiv rekursiv , wenn es ein f ∈ PRn gibt mit F = f N . Eine
Relation R ⊆ Nn heißt primitiv rekursiv, wenn ihre charakteristische Funktion 1R primitiv rekursiv ist,
wobei
(
1, falls a ∈ R;
1R (a) :=
0, sonst.
Wir wollen zunächst zeigen, daß die Menge der primitiv rekursiven Funktionen gegen explizite Definitionen abgeschlossen ist. Dazu definieren wir für jeden PR-Term t und verschiedene Variablen x1 , . . . , xn
(n ≥ 1) mit vars(t) ⊆ {x1 , . . . , xn } ein n-stelliges Funktionssymbol λx1 , . . . , xn t wie folgt.
λx1 , . . . , xn 0 := 0n ,
λx1 , . . . , xn xi := Iin ,
λx1 , . . . , xn .ht1 . . . tm := (◦hg1 . . . gm ),
wobei gi := λx1 , . . . , xn ti .
52
3. Berechenbarkeit
Lemma 3.1.1. Für jeden PR-Term t und verschiedene Variablen x1 , . . . , xn (n ≥ 1) mit vars(t) ⊆
{x1 , . . . , xn } gilt
(λx1 , . . . , xn t)N (a1 , . . . , an ) = tN [a1 , . . . , an /x1 , . . . , xn ].
Beweis. Induktion über t. Wir schreiben tN [a] für tN [a1 , . . . , an /x1 , . . . , xn ].
(λx 0)N (a) = (0n )N (a) = 0 = 0N [a].
(λx xi )N (a) = (Iin )N (a) = ai = xN
i [a].
Sei t = ht1 . . . tm und gi := λx1 , . . . , xn ti . Dann ist
(λx t)N (a) = (◦hg1 . . . gm )N (a)
N
= hN (g1N (a), . . . , gm
(a))
N
= hN (tN
1 [a], . . . , tm [a]) nach IH
= tN [a].
u
t
Wir verwenden a, b, c, i, j, k, `, m, n als Mitteilungszeichen für natürliche Zahlen. Ist f ∈ PRn , so
bezeichnen wir die Funktion f N : Nn → N ebenfalls kurz mit f ; in diesem Sinn ist PRn die Menge der nstelligen und PR die Menge aller primitiv rekursiven Funktionen. PR ist also die kleinste Funktionenmenge,
die die Ausgangsfunktionen 0n , Iin , S enthält und abgeschlossen ist gegen Komposition (oder Einsetzung)
◦ und primitive Rekursion R.
Beispiele. Setzt man +̃ := RI11 (λx, y, z.S(y)), so ist
+̃(0, b) = b,
+̃(a + 1, b) = S(+̃(a, b)),
und setzt man ˜· := R01 (λx, y, z.+̃yz), so ist
˜·(0, b) = 0,
˜·(a + 1, b) = +̃(˜·(a, b), b).
Es gilt also +̃(a, b) = a+b und ˜·(a, b) = a·b; wir schreiben deshalb +, · für +̃,˜·. Weiter sei pd := R0(λx, y x)
· := RI11 (λx, y, z.pd(y)). Dann gilt
und −
pd(0) = 0
pd(a + 1) = a
· 0 = b,
b−
·
· a)
b − (a + 1) = pd(b −
· die übliche Infixschreibweise verwendet haben. Es ist also
wobei wir für −
(
falls b ≤ a;
· a = 0,
b−
b − a, sonst.
Für f ∈ PRn+1 sei
P
f := R0n (λx, y, z (y + f (x, z))), also
€X 
f (0, b) = 0,
€X 
€X 
f (a + 1, b) =
f (a, b) + f (a, b).
€P 
P
In Anlehnung an die übliche mathematische Terminologie schreiben wir
f (a, b).
i<a f (i, b) für
Q
Q
Q
n
Ähnlich
setzen
wir
:=
R(◦S0
·
(x,
z)),
f
b)
(x,
b).
f
)λx,
y,
z
(y
f
also
(
)(a,
=
f
Wir
schreiben
x<a
P
P
auch i≤a f (i, b) für i<S(a) f (i, b) und entsprechend bei Produkten.
3.1 Primitiv rekursive Funktionen
53
Man beachte, daß eine Relation R ⊆ Nn genau dann primitiv rekursiv ist, wenn es ein f ∈ PRn gibt
· 1R (a).
· f (a) bzw. setze f (a) = 1 −
mit R = { a ∈ Nn | f (a) = 0 }; zum Beweis beachte man 1R (a) = 1 −
Um neben Termen auch Formeln betrachten zu können, nehmen wir im folgenden an, daß die Sprache
PR noch das Gleichheitssymbol = enthält, und daß =N in der Standardstruktur N die Gleichheit auf N
· t = 0; offenbar gilt dann
ist. Wir schreiben s < t für S(s) −
N |= (s < t)[η] ⇐⇒ sN [η] < tN [η].
Eine Relation R ⊆ Nn heißt definierbar durch eine Formel A[x1 , . . . , xn ] der Sprache PR, wenn
R = { (a1 , . . . , an ) ∈ Nn | N |= A[a1 , . . . , an /x1 , . . . , xn ] }.
Offenbar sind genau die primitiv rekursiven Relationen durch atomare PR-Formeln definierbar. Wir wollen
jetzt zeigen, daß dasselbe auch für eine reichere Formelmenge der Fall ist, nämlich für die sogenannten
∆0 -Formeln der Sprache PR.
Wir setzen im Fall x ∈
/ vars(t)
∀x<t A := ∀x.x < t → A,
∃x<t A := ¬∀x.x < t → ¬A,
∀x≤t A := ∀x<S(t) A,
∃x≤t A := ∃x<S(t) A.
Man beachte, daß ∃x<t A logisch äquivalent ist zu ∃x.x < t ∧ A. ∆0 -Formeln werden induktiv definiert
durch
• Jede PR-Primformel ist eine ∆0 -Formel; insbesondere ist also ⊥ eine ∆0 -Formel.
• Sind A und B ∆0 -Formeln, so auch A → B.
/ vars(t), so ist auch ∀x<t A eine ∆0 -Formel.
• Ist A eine ∆0 -Formel und t ein PR-Term mit x ∈
Es folgt, daß mit A im Fall x ∈
/ vars(t) auch ∃x<t A eine ∆0 -Formel ist.
Lemma 3.1.2. Ist A eine ∆0 -Formel mit FV(A) ⊆ {x1 , . . . , xn }, so ist die Relation
{ (a1 , . . . , an ) ∈ Nn | N |= A[a1 , . . . , an /x1 , . . . , xn ] }
primitiv rekursiv.
Beweis. Wir definieren für jede ∆0 -Formel A einen PR-Term rA mit vars(rA ) = FV(A) so daß für jede
N
N -Belegung η gilt rA
[η] = 0 ⇐⇒ N |= A[η].
r⊥ := S(0),
· t) + (t −
· s),
rs=t := (s −
·
rA→B := (1 − rA ) · rB ,
€X 
r∀x<t A :=
f ty mit f = λx, y rA und FV(∀x<t A) = {y}.
u
t
Es folgt, daß die Menge aller primitiv rekursiven Relationen abgeschlossen ist gegen ∩, ∪, \, beschränkte Quantifikation sowie gegen die Einsetzung von primitiv rekursiven Funktionen.
Lemma 3.1.3. Sind f1 , . . . , fk+1 ∈ PRn und sind R1 , . . . , Rk ⊆ Nn paarweise disjunkte primitiv rekursive Relationen, so ist auch die wie folgt definierte Funktion f : Nn → N primitiv rekursiv.

falls R1 (a);

f1 (a),

.
..

.
.
f (a) := .


falls
Rk (a);
f
(a),

 k

fk+1 (a), sonst.
54
3. Berechenbarkeit
Beweis. Sei Rk+1 := Nn \ (R1 ∪ · · · ∪ Rk ). Dann ist
f = λx.f1 (x) · 1R1 (x) + · · · + fk (x) · 1Rk (x) + fk+1 (x) · 1Rk+1 (x).
t
u
Der beschränkte µ-Operator macht aus jedem g : Nn+1 → N ein µg : Nn → N, das wie folgt definiert
ist.
(
min{ i | g(i, b) = 0 }, falls ∃i<a (g(i, b) = 0);
(µg)(a, b) :=
a,
sonst.
Wir schreiben auch µi<a (g(i, b) = 0) für (µg)(a, b) und µi≤a (g(i, b) = 0) für µi<S(a) (g(i, b) = 0).
Lemma 3.1.4. Mit g : Nn+1 → N ist auch µg primitiv rekursiv.
Beweis. Sei
h(c, b) :=
(
c, falls g(c, b) = 0 und ∀i<c (g(i, b) 6= 0);
0, sonst.
h ist nach den Lemmata 3.1.2 und 3.1.3 primitiv rekursiv, und wir haben
(P
i<a h(i, b), falls ∃i<a (g(i, b) = 0);
µi<a (g(i, b) = 0) =
a,
sonst.
u
t
Beispiele.
ba :=
Y
b,
i<a
a! := . . . (Übung),
a|b :↔ ∃x≤b (b = a · x),
ba/bc := µx≤a (a < b · (x + 1)),
r(a, b) := . . . (Übung),
Pr(a) :↔ . . . (Übung),
q(a) := µx≤a!+1.x > a ∧ Pr(x),

i €X
pi := µx≤22
1Pr (y) = i + 1 .
y≤x
i
Die Abschätzung pi ≤ 22 für die i-te Primzahl pi beweist man durch Induktion über i: Für i = 0 ist dies
klar, und für i ≥ 1 erhält man
0
1
pi ≤ p0 p1 · · · pi−1 + 1 = 22 22 · · · 22
i−1
+ 1 = 22
i
−1
i
+ 1 < 22 .
Man kann die Eindeutigkeit der Darstellung natürlicher Zahlen als Primzahlpotenzprodukt verwenden,
um eine endliche Folge a0 , a1 , . . . , an−1 natürlicher Zahlen durch
Y
a :=
pai i
i<n
zu kodieren; dies nennt man die Primzahlpotenzkodierung. Die i-te Komponente der durch a kodierten
Folge kann man aus a und i ablesen durch
exp(i, a) := µx≤a (pix+1 6 |a).
Q
Offenbar ist exp und für jedes feste n die Funktion (a0 , . . . , an−1 ) 7→ i<n piai primitiv rekursiv.
Bei der Primzahlpotenzkodierung wird das Zahlenpaar a, b durch die Zahl 2a 3b kodiert. Dieses exponentielle Wachstum einer Paarkodierungsfunktion ist aber nicht notwendig, denn man kann N × N auch
wie folgt abzählen.
3.1 Primitiv rekursive Funktionen
55
..
.
10
6
3
1
...
7 ...
4 8 ...
0 2 5 9 ...
An der Stelle (0, b) steht offenbar die Summe der Längen der vorangehenden Diagonalen, und auf der
nächsten Diagonalen bleibt a + b konstant. Nennt man die an der Stelle (a, b) eingetragene Zahl π(a, b),
so ergibt sich
€ X 
1
π(a, b) =
i + a = (a + b)(a + b + 1) + a.
2
i≤a+b
Offenbar ist π : N × N → N bijektiv. Ferner gilt a, b ≤ π(a, b) und im Fall π(a, b) =
6 0 auch a < π(a, b).
Setzt man
π1 (c) := µx≤c∃y≤c (π(x, y) = c),
π2 (c) := µy≤c∃x≤c (π(x, y) = c),
so folgt unmittelbar πi (c) ≤ c für i ∈ {1, 2} und
π1 (π(a, b)) = a,
π2 (π(a, b)) = b,
π(π1 (c), π2 (c)) = c.
Ferner sind π, π1 , π2 aufgrund ihrer Definitionen primitiv rekursiv.
Mit Hilfe der Paarfunktion π kann man jetzt leicht (wie etwa in der Programmsprache Lisp oder
Scheme) eine andere Kodierung von endlichen Folgen natürlicher Zahlen definieren. Wir setzen
hi := 0,
ha0 , a1 , . . . , an i := π(a0 , ha1 , . . . , an i) + 1.
Offenbar läßt sich dann jede Zahl a eindeutig in der Form a = ha0 , a1 , . . . , an−1 i darstellen. Aus a lassen
sich die Bestandteile dieser Darstellung wieder ablesen durch die folgenden Funktionen.
· 1) hd steht für “head”,
hd(a) := π1 (a −
· 1) tl steht für “tail”,
tl(a) := π2 (a −
τ (a, 0) := a,
τ (a, k + 1) := tl(τ (a, k)).
6 0 gilt τ (a, k + 1) < τ (a, k).
Man beachte, daß für τ (a, k) =
lh(a) := µk≤a(τ (a, k) = 0),
(
hd(τ (a, i)), falls i < lh(a);
(a)i :=
0,
sonst.
Es folgt lh(a) ≤ a und (a)i ≤ a; für i < lh(a) gilt sogar (a)i < a, denn dann ist
(a)i = hd(τ (a, i)) < τ (a, i) ≤ a.
Offenbar sind die Funktionen (a0 , . . . , an ) 7→ ha0 , . . . , an i für jedes feste n, sowie hd, tl, τ, lh und (a, i) 7→
(a)i primitiv rekursiv. Wir schreiben (a)i,j für ((a)i )j und (a)i,j,k für (((a)i )j )k .
56
3. Berechenbarkeit
Lemma 3.1.5.
hd(ha0 , a1 , . . . , an i) = a0 ,
tl(ha0 , a1 , . . . , an i) = ha1 , . . . , an i,
τ (ha0 , . . . , ak , . . . , an i, k) = hak , . . . , an i,
lh(ha0 , . . . , an−1 i) = n,
(ha0 , . . . , an−1 i)i = ai
u
t
für i < n.
Wir werden beide Kodierungen von endlichen Folgen natürlicher Zahlen nebeneinander verwenden.
Ein Vorteil der Primzahlpotenzkodierung liegt darin, daß man die bekannte Produktschreibweise verwenden kann. Dies nutzen wir aus in dem folgenden Beweis, daß die Menge der primitiv rekursiven
Funktionen abgeschlossen ist gegen Wertverlaufsrekursion. Für jedes f : Nn+1 → N definieren wir seine
Wertverlaufsfunktion f durch
Y f (i,b)
pi
.
f (a, b) :=
i<a
Es folgt, daß mit f auch f primitiv rekursiv ist.
Lemma 3.1.6. (Wertverlaufsrekursion). Mit g ist auch die durch
f (a, b) := g(a, f (a, b), b)
definierte Funktion f primitiv rekursiv.
Beweis. Es gilt
f (0, b) = 1,
f (a + 1, b) = f (a, b) · pag(a,f (a,b),b) .
Also ist mit g auch f primitiv rekursiv, und deshalb wegen f (a, b) = exp(a, f (a + 1, b)) auch f .
u
t
Wir zeigen jetzt, daß die Menge der primitiv rekursiven Funktionen auch gegen primitive Rekursion
mit Einsetzungen in Parameterstellen abgeschlossen ist; dies wurde zuerst von R. Péter bewiesen (s. etwa [28]). Zur Vorbereitung beweisen wir ein Lemma über primitive Rekursion mit Abstieg bezüglich
einer “Maßzahl” h(a, b). Dieses Lemma werden wir später als Lemma 3.1.10 noch wesentlich verschärfen
können.
Lemma 3.1.7. Alle i mit h(i, b) < c seien abschätzbar durch i < h0 (c, b). Es gelte
f (0, b) = g1 (b),
f (a, b) = g2 (a, f (t1 (a, b), b), . . . , f (tk (a, b), b), b) falls a > 0,
h(tj (a, b), b) < h(a, b) für 1 ≤ j ≤ k, falls a > 0.
Dann ist mit g1 , g2 , t1 , . . . , tk , h und h0 auch f primitiv rekursiv.
Beweis. Zur Vereinfachung lassen wir die Parameter b weg. Sei
Y f (i)
f˜(c) :=
pi .
h(i)<c
Dann gilt offenbar f (a) = exp(a, f˜(h(a) + 1)) und
f˜(0) = 1,
f˜(c + 1) = f˜(c) ·
= f˜(c) ·
Y
f (i)
pi
h(i)=c
€
Y
0<i<h0 (c+1)
h(i)=c
g (i,exp(t1 (i),f˜(c)),...,exp(tk (i),f˜(c))) 
pi 2
·
(
pg01 , falls h(0) = c,
1,
sonst.
3.1 Primitiv rekursive Funktionen
57
Sind g1 , g2 , t1 , . . . , tk , h, h0 primitiv rekursiv, so ist offenbar auch f˜ und damit auch f primitiv rekursiv.
u
t
Satz 3.1.8. (Primitive Rekursion mit Einsetzungen in Parameterstellen). Sei
f (0, b, c) = g1 (b, c),
f (a + 1, b, c) = g2 (a, f (a, h1 (a, b, c), c), . . . , f (a, hk (a, b, c), c), b, c).
Dann ist mit g1 , g2 , h1 , . . . , hk auch f primitiv rekursiv.
Beweis. Zur Vereinfachung lassen wir die Parameter c weg. Sei
€

ĥ(a, b) := max h` (i, j) + b + 1
i≤a,j≤b
1≤`≤k
und
h∗ (0, a, b) := b,
h∗ (c + 1, a, b) := ĥ(a, h∗ (c, a, b)).
Dann sind mit h1 , . . . , hk auch ĥ, h∗ primitiv rekursiv. Man beachte hier, daß mit g auch maxi<a g(i, b)
primitiv rekursiv ist. Ferner zeigt man leicht durch Induktion über c
h∗ (c + 1, a, b) = h∗ (c, a, ĥ(a, b)),
h∗ (c, a, b) ≥ max(c, b).
Wir verwenden jetzt Lemma 3.1.7 mit h(π(a, b)) := h∗ (a, a, b) (und h(0) := 0). Sei also h(x) < c. Dann
folgt
c > h∗ (π1 (x), π1 (x), π2 (x)) ≥ max(π1 (x), π2 (x)) ≥ πi (x),
also
x = π(π1 (x), π2 (x)) < π(c, c) =: h0 (c).
Sei jetzt
f˜(π(0, b)) = g1 (b),
f˜(π(a + 1, b)) = g2 (a, f˜(π(a, h1 (a, b))), . . . , f˜(π(a, hk (a, b))), b).
Dann gilt offenbar f (a, b) = f˜(π(a, b)). Ferner hat man
· 1, b))) < h(π(a, b)) für 1 ≤ ` ≤ k und a > 0,
· 1, h` (a −
h(π(a −
denn es gilt
· 1, h` (a −
· 1, b))) = h∗ (a −
· 1, a −
· 1, h` (a −
· 1, b))
h(π(a −
· 1, ĥ(a −
· 1, a −
· 1, b))
< h∗ (a −
∗
· 1, b)
= h (a, a −
≤ h∗ (a, a, b)
= h(π(a, b)).
Für a = 0 und b > 0 kann man tj (π(0, b)) := 0 setzen, denn dann ist h(tj (π(0, b))) = h(0) < h(π(0, b)).
Damit ergibt sich die Behauptung aus Lemma 3.1.7.
u
t
Wir zeigen schließlich noch, daß auch die Wertverlaufsrekursion mit Einsetzungen in Parameterstellen
nicht aus den primitiv rekursiven Funktionen hinausführt.
58
3. Berechenbarkeit
Korollar 3.1.9. Mit g, h1 , . . . , hk ist auch die durch
f (a, b, c) := g(a, f (a, h1 (a, b, c), c), . . . , f (a, hk (a, b, c), c), b, c)
definierte Funktion f primitiv rekursiv.
Beweis. Es gilt
f (0, b, c) = 1,
(a,h1 (a,b,c),c),...,f (a,hk (a,b,c),c),b,c)
.
f (a + 1, b, c) = f (a, b, c) · pg(a,f
a
Also ist mit g auch f primitiv rekursiv, also wegen f (a, b, c) = exp(a, f (a + 1, b, c)) auch f .
u
t
Jetzt können wir Lemma 3.1.7 wie folgt verschärfen.
Lemma 3.1.10. (Primitive Rekursion nach einer Maßzahl). Es gelte
f (0, b) = g1 (b),
f (a, b) = g2 (a, f (t1 (a, b), b), . . . , f (tk (a, b), b), b) falls a > 0,
h(tj (a, b), b) < h(a, b) für 1 ≤ j ≤ k, falls a > 0.
Dann ist mit g1 , g2 , t1 , . . . , tk und h auch f primitiv rekursiv.
Beweis. Zur Vereinfachung lassen wir die Parameter b weg. Es gilt f (a) = f ∗ (h(a), a) mit folgendem f ∗ :
(
g2 (a, f ∗ (h(t1 (a)), t1 (a)), . . . , f ∗ (h(tk (a)), tk (a))), falls c = h(a) und a > 0;
∗
f (c, a) :=
sonst.
g1 ,
f ∗ ist primitiv rekursiv nach Korollar 3.1.9.
u
t
3.2 Rekursive Funktionen, rekursiv aufzählbare Relationen
Aus den primitiv rekursiven Relationen erhält man durch Projektion die rekursiv aufzählbaren Relationen
und daraus die rekursiven Funktionen als die Menge der Funktionen mit rekursiv aufzählbaren Graphen.
Es wird sich zeigen, daß dieser Begriff einer rekursiven Funktion eine Präzisierung des intuitiven Begriffs
der berechenbaren Funktion ist (Churchsche These).
Eine Relation R ⊆ Nn heißt rekursiv aufzählbar , wenn es eine primitiv rekursive Relation Q ⊆ Nn+1
gibt mit
R = { (a1 , . . . , an ) | ∃b (b, a1 , . . . , an ) ∈ Q }.
Insbesondere ist deshalb jede primitiv rekursive Relation rekursiv aufzählbar.
Lemma 3.2.1. Eine nichtleere Menge M ⊆ N ist rekursiv aufzählbar genau dann, wenn es ein f ∈ PR1
gibt mit M = ran(f ).
Beweis. =⇒. Sei M ⊆ N rekursiv aufzählbar, also M = { c | ∃b (b, c) ∈ Q }. Nach Annahme ist M 6= ∅,
es gibt also ein a0 ∈ M . Setze
(
π2 (a), falls (π1 (a), π2 (a)) ∈ Q;
f (a) :=
a0 ,
sonst.
Dann ist M = ran(f ), und nach Lemma 3.1.3 gilt f ∈ PR1 .
⇐=. Sei M = ran(f ) für ein f ∈ PR1 . Dann ist M = { c | ∃b f (b) = c } und deshalb rekursiv
aufzählbar.
u
t
Unter denselben Annahmen, unter denen wir in Abschnitt 3.1 ∆0 -Formeln eingeführt hatten, definieren wir jetzt induktiv den Begriff einer Σ1 -Formel der Sprache PR.
3.2 Rekursive Funktionen, rekursiv aufzählbare Relationen
•
•
•
•
59
Jede PR-Primformel und jede negierte PR-Primformel ist eine Σ1 -Formel.
Sind A und B Σ1 -Formeln, so auch A ∧ B und A ∨ B.
/ vars(t), so ist ∀x<t A eine Σ1 -Formel.
Ist A eine Σ1 -Formel und t ein PR-Term mit x ∈
Ist A eine Σ1 -Formel, so ist ∃xA eine Σ1 -Formel.
Offenbar ist jede ∆0 -Formel logisch äquivalent zu einer Σ1 -Formel und jede rekursiv aufzählbare Relation
definierbar durch eine Σ1 -Formel. Auch die Umkehrung ist richtig:
Lemma 3.2.2. Ist A eine Σ1 -Formel mit FV(A) ⊆ {x1 , . . . , xn }, so ist die Relation
{ (a1 , . . . , an ) ∈ Nn | N |= A[a1 , . . . , an /x1 , . . . , xn ] }
rekursiv aufzählbar.
Beweis. Eine Σ1 -Formel A heiße strikt, wenn sie von der Form ∃x A mit einer ∆0 -Formel A ist. Wir
konstruieren zu jeder Σ1 -Formel A eine strikte Σ1 -Formel A0 mit FV(A) = FV(A0 ) und N |= ∀(A ↔ A0 ),
und zwar durch Rekursion über die Definition der Σ1 -Formeln. Daraus folgt offenbar die Behauptung.
Ist A eine PR-Primformel oder negierte PR-Primformel, so setze man A0 := ∃z A mit z ∈
/ FV(A). In den
restlichen Fällen sei A0 = ∃x à und B 0 = ∃y B̃ mit ∆0 -Formeln à und B̃. Wir setzen
(A ∨ B)0 := ∃z.Ã[x := z] ∨ B̃[y := z],
(A ∧ B)0 := ∃z.Ã[x := π1 z] ∧ B̃[y := π2 z],
(∀y<t A)0 := ∃z∀y<t ∃x<z Ã,
(∃y A)0 := ∃z Ã[x, y := π1 z, π2 z]
/ FV(Ã) ∪ vars(t).
wobei z ∈
/ FV(Ã) ∪ FV(B̃) bzw. z ∈
t
u
Es folgt, daß die Menge aller rekursiv aufzählbaren Relationen abgeschlossen ist gegen ∩, ∪, beschränkte Allquantifikation, unbeschränkte Existenzquantifikation (oder Projektion) sowie gegen die Einsetzung
von primitiv rekursiven Funktionen.
Eine Funktion f : Nn → N heißt rekursiv , wenn ihr Graph
Gf := { (a1 , . . . , an , b) | f (a1 , . . . , an ) = b }
rekursiv aufzählbar ist. Eine Relation R ⊆ Nn heißt rekursiv , wenn ihre charakteristische Funktion 1R
rekursiv ist. Hieraus ergibt sich, daß jede primitiv rekursive Relation auch rekursiv ist.
Lemma 3.2.3. Eine Relation R ⊆ Nn ist rekursiv genau dann, wenn R und ihr Komplement Nn \ R
rekursiv aufzählbar sind.
Beweis. =⇒. Sei R rekursiv, also 1R rekursiv, also
G1R = { (a, 1) | a ∈ R } ∪ { (a, 0) | a ∈ Nn \ R }
rekursiv aufzählbar. Dann sind R = { a | (a, 1) ∈ G1R } und Nn \ R = { a | (a, 0) ∈ G1R } rekursiv
aufzählbar nach Lemma 3.2.2.
⇐=. Seien R und Nn \ R rekursiv aufzählbar. Dann gibt es Σ1 -Formeln A und A0 mit
R = { a | N |= A[a] },
Nn \ R = { a | N |= A0 [a] }.
Zu zeigen ist, daß die charakteristische Funktion 1R rekursiv ist, also, daß ihr Graph G1R rekursiv
aufzählbar ist. Es gilt
G1R = { (a, b) | 1R (a) = b }
= { (a, b) | (a ∈ R und b = 1) oder (a ∈ Nn \ R und b = 0) }
= { (a, b) | N |= ((A ∧ y = 1) ∨ (A0 ∧ y = 0))[a, b] }.
Damit ist gezeigt, daß G1R durch eine Σ1 -Formel definierbar und deshalb rekursiv aufzählbar ist.
u
t
60
3. Berechenbarkeit
Korollar 3.2.4. Für jede rekursive Funktion f ist ihr Graph Gf rekursiv.
Beweis. Sei f : Nn → N rekursiv. Es genügt zu zeigen, daß Nn+1 \ Gf rekursiv aufzählbar ist. Dies folgt
aber aus
Nn+1 \ Gf = { (a, b) | ∃c.c =
u
t
6 b ∧ (a, c) ∈ Gf }.
Sei F die kleinste Menge von Funktionen mit den folgenden Eigenschaften. Wir schreiben F n für die
Teilmenge der n-stelligen Funktionen in F .
1.
2.
3.
4.
0n ∈ F n (n ≥ 0), S ∈ F 1 , Iin ∈ F n (1 ≤ i ≤ n).
Sind g1 , . . . , gm ∈ F n , h ∈ F m und m ≥ 1, n ≥ 0, so ist (◦hg1 . . . gm ) ∈ F n .
Ist g ∈ F n und h ∈ F n+2 , so ist (Rgh) ∈ F n+1 .
Ist g ∈ F n+1 und gibt es zu jedem a ∈ Nn ein i ∈ N mit g(i, a) = 0, so ist die durch
(µg)(a) := min{ i | g(i, a) = 0 }
definierte Funktion µg in F n (unbeschränkter µ-Operator ). Wir schreiben meist µi (g(i, a) = 0) für
(µg)(a).
Die Funktionen in F nennen wir auch µ-rekursiv .
Satz 3.2.5. F ist die Menge der rekursiven Funktionen.
Beweis. Wir zeigen zunächst durch Induktion über die Definition von F , daß jedes f ∈ F rekursiv ist.
Dazu konstruieren wir zu jedem f ∈ F n eine Σ1 -Formel Af [x1 , . . . , xn , y] so daß f (a) = b genau dann,
wenn N |= Af [a, b]. Für die Ausgangsfunktionen ist dies trivial. Fall f = (◦hg1 . . . gm ).
Af := ∃z1 , . . . , zm .
Fall f = (Rgh).
m
V
V
i=1
Agi [x, zi ] ∧ Ah [z1 , . . . , zm , y].
Af [x, x, y] := ∃z.lh(z) = x + 1 ∧ Ag [x, (z)0 ] ∧ ∀i<x Ah [i, (z)i , x, (z)i+1 ] ∧ y = (z)x .
Fall f = (µg).
Af := Ag [y, x, 0] ∧ ∀i<y∃z Ag [i, x, S(z)].
Sei nun umgekehrt f rekursiv, also Gf rekursiv aufzählbar. Zu zeigen ist f ∈ F . Nach dem Beweis
von Lemma 3.2.2 ist Gf durch eine strikte Σ1 -Formel definierbar. Es gibt also eine ∆0 -Formel A so daß
Gf = { (a, b) | N |= (∃y A)[a, b] }.
Nach Lemma 3.1.2 ist
R := { (i, a) | N |= A[a, π1 (i), π2 (i)] }
primitiv rekursiv. Es gibt also eine primitiv rekursive Funktion g mit R = { (i, a) | g(i, a) = 0 }. Nach
Konstruktion gilt ∀a∃i (g(i, a) = 0) und f (a) = π1 (µi (g(i, a) = 0)). Also ist f ∈ F, da g, π1 ∈ PR ⊆ F.
u
t
Wir wollen jetzt noch den Zusammenhang zwischen den Begriffen einer rekursiven bzw. rekursiv
aufzählbaren Relation und einer rekursiven Funktion einerseits und den intuitiven Begriffen der Entscheidbarkeit und der Aufzählbarkeit einer Relation und der Berechenbarkeit einer Funktion herstellen.
Der Einfachheit halber beschränken wir uns wieder auf Funktionen und Relationen über den natürlichen
Zahlen. Zunächst geben wir eine informale Definition der erwähnten intuitiven Begriffe, wobei wir auch
partielle Funktionen zulassen, also Funktionen f : dom(f ) → N mit dom(f ) ⊆ Nn . Eine Funktion heißt
total , wenn sie auf ganz Nn definiert ist.
Eine Relation R ⊆ Nn heißt entscheidbar , wenn es einen Algorithmus gibt, der für jedes Argumentetupel a terminiert und entscheidet, ob a zu R gehört oder nicht. Eine Relation R ⊆ Nn heißt aufzählbar
(oder positiv berechenbar), wenn es einen Algorithmus gibt, der für jedes Argumentetupel a genau dann
terminiert, wenn a zu R gehört. Eine Funktion f : dom(f ) → N mit dom(f ) ⊆ Nn heißt berechenbar ,
wenn es einen Algorithmus gibt, der für jedes Argumentetupel a folgendes leistet.
3.3 Kodierung der Logik
61
1. Der Algorithmus terminiert auf a genau dann, wenn a ∈ dom(f ).
2. Für jedes a ∈ dom(f ) liefert der Algorithmus bei Eingabe von a den Wert f (a).
Zunächst notieren wir einige einfache Eigenschaften entscheidbarer und aufzählbarer Relationen und
berechenbarer Funktionen.
Lemma 3.2.6. Eine Funktion f ist berechenbar genau dann, wenn ihr Graph Gf aufzählbar ist.
Beweis. 1. Sei f berechenbar. Einen Algorithmus, der für jedes Argumentetupel (a, b) genau dann terminiert, wenn (a, b) zu Gf gehört, erhält man wie folgt. Man berechne f (a) mittels des gegebenen
Algorithmus für f . Man breche ab genau dann, wenn die Berechnung terminiert und den Wert b ergibt.
2. Sei Gf aufzählbar. Einen Algorithmus zur Berechnung von f erhält man wie folgt. Gegeben sei
ein Argumentetupel a. Man zähle alle Tupel (c, b) in Gf auf. Sobald dabei ein Tupel (c, b) mit c = a
auftaucht, breche man ab und gebe b aus.
u
t
Lemma 3.2.7. Eine Relation R ⊆ Nn ist entscheidbar genau dann, wenn sowohl sie selbst als auch ihr
Komplement Nn \ R aufzählbar sind.
Beweis. Übungsaufgabe.
u
t
Das folgende Lemma gibt einige einfache Charakterisierungen des Begriffs der Aufzählbarkeit.
Lemma 3.2.8. Für Relationen R ⊆ Nn sind folgende Bedingungen äquivalent.
1. R ist aufzählbar.
2. R ist Definitionsbereich einer berechenbaren Funktion.
3. R ist Projektion einer entscheidbaren Relation Q ⊆ Nn+1 .
t
u
Beweis. Übungsaufgabe.
Satz 3.2.9. ( Churchsche These).
1. Eine Relation R ⊆ Nn ist entscheidbar genau dann, wenn sie rekursiv ist.
2. Eine Relation R ⊆ Nn ist aufzählbar (oder positiv berechenbar) genau dann, wenn sie rekursiv aufzählbar ist.
3. Eine totale Funktion f : Nn → N ist berechenbar genau dann, wenn sie rekursiv ist.
Die Churchsche These kann man aus prinzipiellen Gründen nicht mathematisch beweisen, da sie
Begriffe verwendet, die nur intuitiv, aber nicht mathematisch präzise erklärt sind. Es besteht jedoch
allgemeine Übereinstimmung darüber, daß die Churchsche These zutrifft. Diese Übereinstimmung beruht
im wesentlichen auf Erfahrung: es ist keine im intuitiven Sinn berechenbare totale Funktion bekannt, die
nicht rekursiv wäre.
3.3 Kodierung der Logik
In diesem Abschnitt wollen wir zur Vorbereitung unserer metamathematischen Studien die wesentlichen
Begriffe der Syntax innerhalb der natürlichen Zahlen kodieren. Der Grund dafür ist, daß wir später im
Rahmen einer formalen Theorie der Arithmetik über Beweise in einem formalen System sprechen wollen.
Wir hatten bisher der Einfachheit halber Formeln identifiziert, die sich nur durch gebundene Umbenennung unterscheiden. Diese Vorgehensweise ist für die Kodierung der Logik nicht mehr geeignet. Wir
beginnen deshalb mit einer Rekapitulation des Begriffs der Substitution, wobei wir jetzt die konkreten
Variablennamen berücksichtigen.
Eine Substitution ϑ ist eine endliche Menge der Form
ϑ = {t1 /x1 , . . . , tn /xn },
so daß ti 6= xi für i = 1, . . . , n und x1 , . . . , xn paarweise verschieden sind. Ein Element ti /xi von ϑ wird
als Bindung (von xi an ti ) bezeichnet.
62
3. Berechenbarkeit
Ist r ein Term und ϑ die Substitution {t1 /x1 , . . . , tn /xn }, so verstehen wir unter rϑ den Term, den
wir erhalten, indem wir in r simultan jedes Vorkommen von xi durch ti ersetzen (i = 1, . . . , n). Wir sagen
dann, daß ϑ auf r angewandt wurde und nennen rϑ die von ϑ induzierte Instanz von r.
Ist ϑ eine Substitution {t1 /x1 , . . . , tn /xn }, so bezeichnen wir
dom(ϑ) := {x1 , . . . , xn }
als den Bereich von ϑ und
ranv(ϑ) := vars(t1 ) ∪ . . . ∪ vars(tn )
als die Wertevariablen von ϑ. (Wir schreiben nicht “ran” als Abkürzung, da dies zu Verwechslungen mit
dem üblichen Wertebereich einer Funktion führen könnte). ϑ heißt Grundsubstitution, falls {t1 , . . . , tn }
nur aus geschlossenen Termen besteht; ϑ heißt Variablensubstitution, falls {t1 , . . . , tn } nur aus Variablen
besteht. Ist ϑ = ∅, so sprechen wir von der leeren Substitution, die wir mit ε bezeichnen.
Zum Beispiel für r = f (x, y, g(a)) und ϑ = {b/x, x/y} mit Konstanten a, b ist rϑ = f (b, x, g(a)).
Sind r, t Terme und ist ϑ = {t/x} eine Substitution, so bezeichnen wir den Term rϑ auch mit r[x := t].
Ferner setzen wir r[x := x] := r (um später Fallunterscheidungen zu vermeiden).
Gegeben seien jetzt die Substitutionen
ϑ = {s1 /x1 , . . . , sm /xm },
σ = {t1 /y1 , . . . , tn /yn }.
Dann ist die Komposition ϑσ von ϑ und σ die Substitution, die wir erhalten, indem wir aus der Menge
{s1 σ/x1 , . . . , sm σ/xm , t1 /y1 , . . . , tn /yn }
alle Bindungen si σ/xi streichen, für die si σ = xi ist, sowie alle Bindungen tj /yj , für die yj ∈ {x1 , . . . , xm }.
Lemma 3.3.1. Für Substitutionen ϑ, σ, τ gilt
1.
2.
3.
4.
5.
ϑ = σ ⇐⇒ rϑ = rσ für alle Terme r.
ϑ = σ ⇐⇒ xϑ = xσ für alle Variablen x.
ϑε = εϑ = ϑ.
(rϑ)σ = r(ϑσ) für alle Terme r.
ϑ(στ ) = (ϑσ)τ .
Beweis. (1)–(3) sind klar; (5) folgt unmittelbar aus (1) und (4). Wir zeigen nun (4). Sei also
ϑ = {s1 /x1 , . . . , sm /xm }
und σ = {t1 /y1 , . . . , tn /yn }.
Ist r eine Variable x, so unterscheiden wir drei Fälle:
Fall x ∈
/ {x1 , . . . , xm } ∪ {y1 , . . . , yn }. Dann ist (xϑ)σ = xσ = x = x(ϑσ).
Fall x ∈ {x1 , . . . , xm }, x = xi . Dann ist (xϑ)σ = si σ = x(ϑσ).
Fall x ∈ {y1 , . . . , yn } \ {x1 , . . . , xm }, x = yj . Dann ist (xϑ)σ = xσ = tj = x(ϑσ).
Daraus folgt nun die Behauptung für beliebige Terme r durch eine triviale Induktion nach dem
Termaufbau.
u
t
Anmerkung. Aufgrund von (4) und (5) schreibt man statt (rϑ)σ oder r(ϑσ) kurz rϑσ; ebenso schreibt
man statt ϑ(στ ) oder (ϑσ)τ kurz ϑστ .
Man kann leicht Beispiele einer Formel A und einer Substitution der Form ϑ = {t1 /x1 , . . . , tn /xn }
finden, so daß bei der simultanen Ersetzung jedes freien Vorkommens von xi durch ti in A eine Variable aus
ti in den Bindungsbereich eines Quantors in A gerät. Um diese unerwünschte Erscheinung zu vermeiden,
müssen wir gegebenenfalls einige gebundene Variablen in A umbenennen. Wir definieren deshalb zunächst
die Menge BV(A) der in A gebundenen Variablen.
BV(R(t1 , . . . , tn )) := ∅.
BV(A ∧ B) := BV(A) ∪ BV(B).
BV(A → B) := BV(A) ∪ BV(B).
BV(∀xA) := BV(A) ∪ {x}.
3.3 Kodierung der Logik
63
Wir definieren jetzt Aϑ wie folgt durch Induktion über A.
R(t1 , . . . , tn )ϑ := R(t1 ϑ, . . . , tn ϑ).
(A ∧ B)ϑ := Aϑ ∧ Bϑ.
(A → B)ϑ := Aϑ → Bϑ.
Im Fall ∀xA bildet man zunächst σ := ϑ–FV(∀xA) und setzt dann
(
∀xAσ,
falls x ∈
/ ranv(σ)
(∀xA)ϑ :=
∀yA({y/x}σ), falls x ∈ ranv(σ),
wobei y eine “neue” Variable ist, etwa die erste Variable echt oberhalb aller Variablen in ranv(σ) ∪
FV(A)∪BV(A). Man beachte, daß unter den angegebenen Voraussetzungen {y/x}σ = {y/x}∪σ ist. Diese
Definition zeichnet sich dadurch aus, daß nur die unbedingt notwendigen Umbenennungen vorgenommen
werden. – Ist ϑ = {t/x}, so bezeichnen wir die Formel Aϑ auch mit A[x := t].
Wir beweisen jetzt einige einfache Eigenschaften von Substitutionen.
Lemma 3.3.2. 1. Gilt xϑ = xσ für alle x ∈ vars(t), so ist tϑ = tσ.
2. Gilt xϑ = xσ für alle x ∈ FV(A), so ist Aϑ = Aσ.
Beweis. (1) ist klar. (2) beweisen wir durch Induktion über A. Wir behandeln nur den Fall ∀xA. Sei
ϑ0 := ϑ–FV(∀xA), σ 0 := σ–FV(∀xA). Nach Voraussetzung ist ϑ0 = σ 0 . Da (∀xA)τ nur von x, A und
u
t
τ –FV(∀xA) abhängt, folgt (∀xA)ϑ = (∀xA)σ.
Lemma 3.3.3. 1. vars(tϑ) ⊆ [vars(t) \ dom(ϑ)] ∪ ranv(ϑ); ist dom(ϑ) ⊆ vars(t), so gilt =.
2. FV(Aϑ) ⊆ [FV(A) \ dom(ϑ)] ∪ ranv(ϑ); ist dom(ϑ) ⊆ FV(A), so gilt =.
Beweis. (1) ist klar. (2) beweisen wir durch Induktion über A. Wir behandeln nur den Fall ∀xA. Sei
σ := ϑ–FV(∀xA).
Unterfall x ∈
/ ranv(σ). Dann hatten wir definiert (∀xA)ϑ = ∀xAσ. Man erhält
FV(∀xA)ϑ = FV(∀xAσ)
= FV(Aσ) \ {x}
= ([FV(A) \ dom(σ)] ∪ ranv(σ)) \ {x} nach IH
= [(FV(A) \ {x}) \ dom(σ)] ∪ ranv(σ) wegen x ∈
/ ranv(σ)
⊆ [FV(∀xA) \ dom(ϑ)] ∪ ranv(ϑ)
Im Fall dom(ϑ) ⊆ FV(∀xA) ist ϑ = σ und nach IH das ⊆ ein =.
/ ranv(σ) ∪ FV(A) ∪
Unterfall x ∈ ranv(σ). Dann hatten wir definiert (∀xA)ϑ = ∀xA({y/x}σ) mit y ∈
BV(A). Man erhält
FV(∀xA)ϑ = FV(∀yA({y/x}σ))
= FV(A({y/x}σ)) \ {y}
€

⊆ [FV(A) \ ({x} ∪ dom(σ))] ∪ {y} ∪ ranv(σ) \ {y} nach IH
wegen y ∈
= [(FV(A) \ {x}) \ dom(σ)] ∪ ranv(σ)
/ ranv(σ) ∪ FV(A)
⊆ [FV(∀xA) \ dom(ϑ)] ∪ ranv(ϑ).
Im Fall dom(ϑ) ⊆ FV(∀xA) ist wieder ϑ = σ und deshalb das zweite ⊆ ein =. Auch das erste ⊆ ist ein
=, denn im Fall x ∈ FV(A) liefert die IH das =, und im Fall x ∈
/ FV(A) hat man
FV(A({y/x}σ)) \ {y} = FV(Aσ) \ {y}
nach Lemma 3.3.3(2)
€

= [FV(A) \ dom(σ)] ∪ ranv(σ) \ {y} nach IH
da y ∈
= [FV(A) \ dom(σ)] ∪ ranv(σ)
/ ranv(σ) ∪ FV(A)
= [FV(∀xA) \ dom(σ)] ∪ ranv(σ).
u
t
64
3. Berechenbarkeit
Kodierung
(n)
Gegeben sei eine abzählbare Sprache L erster Stufe. In injektiver Weise sei jedem R ∈ RelL eine Sym(n)
bolnummer SN(R) von der Form h1, n, ii und jedem f ∈ FunL eine Symbolnummer SN(f ) von der Form
h2, n, ji zugeordnet. Wir nennen L primitiv rekursiv präsentiert, wenn
[
[
(n)
(n)
{ SN(R) | R ∈ RelL } ∪
{ SN(f ) | f ∈ FunL }
SymbL :=
n∈N
n∈N
primitiv rekursiv ist. Insbesondere ist also jede Sprache mit endlich vielen Relations- und Funktionssymbolen primitiv rekursiv präsentiert. Für jede im folgenden betrachtete Sprache L nehmen wir an, daß sie
primitiv rekursiv präsentiert ist.
Ferner sei SN(∧) := h3, 1i, SN(→) := h3, 2i und SN(∀) := h3, 3i. Schließlich ordnen wir der i-ten
Variablen ∗i die Symbolnummer SN(∗i ) := h0, ii zu.
Für jeden L-Term t definieren wir rekursiv seine Kodenummer (oder Gödelnummer ) ptq durch
pxq := hSN(x)i,
pcq := hSN(c)i,
pf t1 . . . tn q := hSN(f ), pt1 q, . . . , ptn qi.
Ebenso definieren wir rekursiv für jede L-Formel A ihre Kodenummer pAq durch
pRt1 . . . tn q := hSN(R), pt1 q, . . . , ptn qi,
pA ∧ Bq := hSN(∧), pAq, pBqi,
pA → Bq := hSN(→), pAq, pBqi,
p∀x Aq := hSN(∀), pxq, pAqi.
Sei Var := sethh0, iiii ∈ N. Var ist offenbar primitiv rekursiv, und es gilt a ∈ Var genau dann, wenn
a = pxq für eine Variable x. Ferner definieren wir Ter ⊆ N wie folgt durch Wertverlaufsrekursion.
a ∈ Ter :↔ a ∈ Var ∨ ((a)0 ∈ SymbL ∧ (a)0,0 = 2 ∧ lh(a) = (a)0,1 + 1 ∧ ∀i0<i<lh(a) (a)i ∈ Ter).
Also ist Ter primitiv rekursiv, und es gilt a ∈ Ter genau dann, wenn a = ptq für einen Term t. Weiter sei
For ⊆ N definiert durch
a ∈ For :↔((a)0 ∈ SymbL ∧ (a)0,0 = 1 ∧ lh(a) = (a)0,1 + 1 ∧ ∀i0<i<lh(a) (a)i ∈ Ter)
∨ (a = hSN(∧), (a)1 , (a)2 i ∧ (a)1 ∈ For ∧ (a)2 ∈ For)
∨ (a = hSN(→), (a)1 , (a)2 i ∧ (a)1 ∈ For ∧ (a)2 ∈ For)
∨ (a = hSN(∀), (a)1 , (a)2 i ∧ (a)1 ∈ Var ∧ (a)2 ∈ For).
Wieder ist For primitiv rekursiv, und es gilt a ∈ For genau dann, wenn a = pAq für eine Formel A. Für
eine Menge S von Formeln setzen wir pSq := { pAq | A ∈ S }. Sei weiter vars ⊆ N × N definiert durch
vars(n, a) :↔ (a ∈ Var ∧ n = a) ∨ ((a)0 ∈ SymbL ∧ ∃i0<i<lh(a) vars(n, (a)i )).
vars ist primitiv rekursiv, und es gilt vars(pxq, ptq) genau dann, wenn x ∈ vars(t). Entsprechend definieren
wir
FV(n, a) :↔((a)0 ∈ SymbL ∧ ∃i0<i<lh(a) vars(n, (a)i ))
∨ ((a)0 = SN(∧) ∧ (FV(n, (a)1 ) ∨ FV(n, (a)2 )))
∨ ((a)0 = SN(→) ∧ (FV(n, (a)1 ) ∨ FV(n, (a)2 )))
∨ ((a)0 = SN(∀) ∧ n 6= (a)1 ∧ FV(n, (a)2 )).
Dann ist FV primitiv rekursiv, und es gilt FV(pxq, pAq) genau dann, wenn x ∈ FV(A).
Eine Substitution {t1 /x1 , . . . , tn /xn } kann man kodieren durch die Zahl
3.3 Kodierung der Logik
65
hhpx1 q, pt1 qi, . . . , hpxn q, ptn qii
und natürlich auch durch viele andere Zahlen, da es auf die Reihenfolge der hpxi q, pti qi nicht ankommt.
Wir verwenden pϑq zur Mitteilung einer solchen Kodenummer der Substitution ϑ. Mit substval(a, 0) := a
und im Fall ` > 0
(
(`)0,1 ,
falls a = (`)0,0 ;
substval(a, `) :=
substval(a, tl(`)), sonst
ist offenbar substval primitiv rekursiv und es gilt substval(pxq, pϑq) = pxϑq. Weiter sei restrict(0, a) := 0
und im Fall ` > 0
(
h(`)0 i ∗ restrict(tl(`), a), falls FV((`)0,0 , a);
restrict(`, a) :=
restrict(tl(`), a),
sonst.
Dann ist restrict primitiv rekursiv und restrict(pϑq, pAq) kodiert ϑ–FV(A). Ranv(n, `) definieren wir durch
Rekursion über n; aus der Definition ergibt sich unmittelbar, daß Ranv primitiv rekursiv ist. Ranv(n, 0)
sei falsch und im Fall ` > 0 setzen wir
Ranv(n, `) :↔ vars(n, (`)0,1 ) ∨ Ranv(n, tl(`)).
Es gilt Ranv(pxq, pϑq) ↔ x ∈ ranv(ϑ).
Zur Definition von Aϑ benötigen wir im ∀-Fall gegebenenfalls eine neue Variable. Dafür definieren wir
newvar(0) beliebig und für a > 0

falls a ∈ Var;
hh0, (a)0,1 + 1ii,


hh0, max
falls (a)0 ∈ SymbL ;
0<i<lh(a) (newvar((a)i ))0,1 ii,
newvar(a) :=

hh0, max((newvar((a)1 ))0,1 , (newvar((a)2 ))0,1 )ii, falls (a)0 ∈ {SN(∧), SN(→)};



hh0, max((a)1,0,1 + 1, (newvar((a)2 ))0,1 )ii,
falls (a)0 = SN(∀).
Dann ist newvar primitiv rekursiv, und newvar(ptq) ist pyq für die kleinste Variable echt oberhalb aller
Variablen in vars(t), und newvar(pAq) ist pyq für die kleinste Variable echt oberhalb aller Variablen in
FV(A) ∪ BV(A). Weiter sei newranv(0) := hh0, 0ii und für ` > 0
newranv(`) := max(newvar((`)0,1 ), newranv(tl(`))).
Dann ist newranv primitiv rekursiv, und newranv(pϑq) ist die kleinste Variable echt oberhalb aller Wertevariablen von ϑ.
Wir definieren sub(a, `) wie folgt durch Rekursion über a. Im Fall a ∈ Var sei
sub(a, `) := substval(a, `).
Im Fall (a)0 = SN(∀) sei k := restrict(`, a) und
(
hSN(∀), (a)1 , sub((a)2 , k)i,
falls ¬Ranv((a)1 , k);
sub(a, `) :=
hSN(∀), b, sub((a)2 , hh(a)1 , bii ∗ k))i, falls Ranv((a)1 , k),
wobei b := max(newranv(k), newvar((a)2 )). Sonst sei
sub(a, `) := h(a)0 , sub((a)1 , `), . . . , sub((a)lh(a)−1 , `)i.
Lemma 3.3.4. 1. sub(ptq, pϑq) = ptϑq.
2. sub(pAq, pϑq) = pAϑq.
3. Die Funktion sub ist primitiv rekursiv.
Beweis. 1. Induktion über t. 2. Induktion über A. Im Fall ∀x A beachte man, daß in der obigen Definition
von (∀x A)ϑ die Komposition {y/x}σ keine Streichung von Bindungen erfordert.
3. Es gilt sub(a, `) = g(a, sub(a, `), sub(a, restrict(`, a)), sub(a, h1 (a, `)), `) mit
66
3. Berechenbarkeit
b(a, `) := max(newranv(restrict(`, a)), newvar((a)2 )),
h1 (a, `) := hh(a)1 , b(a, `)ii ∗ restrict(`, a).
Hierbei ist
g(a, d0 , d1 , d2 , `)

substval(a, `),
falls a ∈ Var;



hSN(∀), (a) , exp((a) , d )i,
falls (a)0 = SN(∀) und ¬Ranv((a)1 , restrict(`, a));
1
2 1
:=

hSN(∀),
b(a,
`),
exp((a)
,
d
)i,
falls (a)0 = SN(∀) und Ranv((a)1 , restrict(`, a));
2 2



·
h(a, d0 , lh(a) − 1),
sonst.
Ferner ist h primitiv rekursiv definiert durch
h(a, d, 0) := h(a)0 i,
h(a, d, n + 1) := h(a, d, n) ∗ hexp((a)n+1 , d)i.
u
t
In der bisherigen Darstellung von natürlichen Herleitungen findet man die an einem Knoten freien
Annahmen, indem man den darüberliegenden Teil des Baums durchmustert. Mit mehr Schreibaufwand
verbunden, aber hier und in anderen theoretischen Überlegungen manchmal nützlich ist eine alternative
Darstellung, in der man an jedem Knoten noch die dort freien Annahmen hinzuschreibt. Dies hatten wir
bereits in unserer “Sequenzenformulierung des natürlichen Schließens” in Abschnitt 1.2 getan. Für den
gegenwärtigen Zweck der Kodierung von Herleitungen ist es bequem, diese Darstellung von Herleitungen
noch einmal leicht abzuändern und die Annahmeformeln in der Form einer Multimenge mitzuführen.
Unter einer Sequenz Γ ⇒ A verstehen wir ein Paar aus einer Multimenge Γ = {{A1 , . . . , An }} von
Formeln und einer Formel A. Wir definieren `m Γ ⇒ A induktiv durch die folgenden Regeln. Eine
Annahme kann man einführen durch
Γ ⇒ A,
falls A in Γ .
Für die Konjuktion ∧ haben wir eine Einführungsregel ∧I und zwei Beseitigungsregeln ∧El und ∧Er .
Γ ⇒A ∆⇒B
∧I
Γ, ∆ ⇒ A ∧ B
Γ ⇒A∧B
∧Er
Γ ⇒A
Γ ⇒A∧B
∧El
Γ ⇒B
Γ, ∆ bezeichnet hier die Multimengenvereinigung. Für die Implikation → gibt es eine Einführungsregel
→I (hier ohne Erwähnung einer Annahmevariablen u) und eine Beseitigungsregel →E.
Γ ⇒B
→I
∆⇒A→B
Γ ⇒A→B ∆⇒A
→E
Γ, ∆ ⇒ B
Dabei soll in →I die Multimenge ∆ aus Γ durch Streichen einiger Vorkommen von A entstehen. Für den
Allquantor ∀ gibt es eine Einführungsregel ∀I und eine Beseitigungsregel ∀E, die wir hier ohne den zu
substituierenden Term t als rechte Prämisse formulieren.
Γ ⇒A
∀I
Γ ⇒ ∀x A
Γ ⇒ ∀x A
∀E
Γ ⇒ A[x := t]
/ FV(B).
In ∀I muß wieder die Variablenbedingung erfüllt sein: für alle B in Γ muß gelten x ∈
n
Anmerkung. In Kapitel 2 hatten wir die Schreibweise M B [u1A1 , . . . , uA
n ] vereinbart um mitzuteilen, daß
A1
B
An
die freien Annahmen von M in der Liste u1 , . . . , un enthalten sind. Hierbei war selbstverständlich
angenommen, daß im Fall ui = uj auch die Formelindizes Ai und Aj gleich sind. Es ist für das folgende
Ai
An
1
bequem, auch zuzulassen, daß in uA
1 , . . . , un ein ui mehrmals vorkommt.
Lemma 3.3.5. 1. Wenn `m {{A1 , . . . , An }} ⇒ A, so gibt es für alle (nicht notwendig verschiedenen)
An
1
u1 , . . . , un mit ui = uj → Ai = Aj einen Herleitungsterm M A [uA
1 , . . . , un ].
3.3 Kodierung der Logik
67
An
1
2. Zu jedem Herleitungsterm M A [uA
1 , . . . , un ] kann man Vielfachheiten k1 , . . . , kn ≥ 0 angeben so daß
k1
kn
`m {{A1 , . . . , An }} ⇒ A; hierbei bedeutet Ak ein k-faches Vorkommen von A.
Beweis. 1. Gelte `m {{A1 , . . . , An }} ⇒ A. Wir führen den Beweis durch Induktion über `m . Fall Annahmeaxiom. Sei etwa A = Ai . Wähle M = ui .
Fall →I. OBdA hat man
{{A1 , . . . , An , A, . . . , A}} ⇒ B
→I.
{{A1 , . . . , An }} ⇒ A → B
Seien u1 , . . . , un gegeben mit ui = uj → Ai = Aj . Man wähle ein neues u. Nach IH existiert ein M B mit
An
A
A
B A→B
1
FA(M B ) ⊆ {uA
ein Herleitungsterm mit freien Annahmen unter
1 , . . . , un , u }. Dann ist (λu M )
A1
An
u1 , . . . , un .
Fall →E. Gegeben sind Herleitungen von
{{A1 , . . . , An }} ⇒ A → B
und
{{An+1 , . . . , An+m }} ⇒ A.
Seien u1 , . . . , un+m gegeben mit ui = uj → Ai = Aj . Nach IH haben wir Herleitungsterme
An
1
M A→B [uA
1 , . . . , un ]
Dann ist aber auch
und
A
A
n+m
n+1
].
, . . . , un+m
N A [un+1
A
n+m
1
(M N )B [uA
1 , . . . , un+m ]
ein Herleitungsterm.
Die restlichen Fälle behandelt man ähnlich.
n
2. Gegeben sei ein Herleitungsterm M A [u1A1 , . . . , uA
n ]. Wir führen den Beweis durch Induktion über
M . Fall uA . Dann ist `m {{A}} ⇒ A.
An
A
1
Fall →I, also (λuA M B )A→B . Sei FA(M B ) ⊆ {uA
1 , . . . , un , u } mit u1 , . . . , un , u verschieden. Nach
IH hat man
`m {{A1k1 , . . . , Aknn , Ak }} ⇒ B.
Mit der Regel →I folgt
`m {{Ak11 , . . . , Aknn }} ⇒ A → B.
An
1
Fall →E. Gegeben ist (M A→B N A )B [uA
1 , . . . , un ]. Nach IH hat man
`m {{Ak11 , . . . , Aknn }} ⇒ A → B
Mit der Regel →E folgt
und
`m {{A`11 , . . . , A`nn }} ⇒ A.
{{Ak11 +`1 , . . . , Aknn +`n }} ⇒ B.
Die restlichen Fälle behandelt man ähnlich.
u
t
Die Multimenge {{A1 , . . . , An }} kann man durch hpA1 q, . . . , pAn qi kodieren. Wie bei Substitutionen
hat auch hier dieselbe Multimenge i.a. mehrere Kodenummern. Wir verwenden pΓ q zur Mitteilung einer
Kodenummer der Multimenge Γ . Die Verkettungsfunktion ∗ entspricht offenbar der Multimengenvereinigung. Zur Behandlung der →I-Regel benötigen wir noch die wie folgt definierten Funktionen msm (für
“multisetminus’‘) und msrm (für “multisetremove”). Es sei msrm(0, b) := 0, und für a > 0 setzen wir
(
tl(a),
falls hd(a) = b;
msrm(a, b) :=
hhd(a)i ∗ msrm(tl(a), b), sonst.
Dann kodiert offenbar msrm(pΓ q, pAq) diejenige Multimenge, die aus Γ durch Entfernen eines Vorkommens von A entsteht, falls A in Γ vorkommt, und Γ sonst.
Weiter sei msm(a, 0) := a, und für b > 0 sei msm(a, b) := msrm(msm(a, tl(b)), hd(b)). msm(pΓ q, p∆q)
kodiert dann die Multimenge, die aus Γ durch Entfernen aller Elemente aus ∆ entsteht. Ferner sei die
Relation mseq(a, b) definiert durch msm(a, b) = 0 ∧ msm(b, a) = 0. Offenbar gilt dann mseq(pΓ q, p∆q)
genau dann, wenn Γ und ∆ als Multimengen gleich sind. Wir schreiben kurz a =m b für mseq(a, b).
68
3. Berechenbarkeit
Eine Sequenz Γ ⇒ A kodieren wir durch hpΓ q, pAqi. Solche Kodifikate bezeichnen wir mit pΓ ⇒ Aq.
Eine Herleitung für die induktive Definition von `m kodieren wir durch hpΓ0 ⇒ A0 q, . . . , pΓn ⇒ An qi.
Wir definieren jetzt
Herl(d) :↔ ∀i<lh(d).
(∀m<lh((d)i,0 ) For((d)i,0,m ) ∧ ∃n<lh((d)i,0 ) ((d)i,1 = (d)i,0,n ))
∨ (∃j, k<i.(d)i,1 = hSN(∧), (d)j,1 , (d)k,1 i ∧ (d)i,0 =m (d)j,0 ∗ (d)k,0 )
(Ann)
∨ (∃j<i.(d)j,1 = hSN(∧), (d)i,1 , (d)j,1,2 i ∧ (d)i,0 =m (d)j,0 )
∨ (∃j<i.(d)j,1 = hSN(∧), (d)j,1,1 , (d)i,1 i ∧ (d)i,0 =m (d)j,0 )
∨ (∃j<i.(d)i,1 = hSN(→), (d)i,1,1 , (d)j,1 i ∧ For((d)i,1,1 )
∧ msm((d)i,0 , (d)j,0 ) = 0
∧ ∀n<lh(msm((d)j,0 , (d)i,0 )) ((msm((d)j,0 , (d)i,0 ))n = (d)i,1,1 ))
∨ (∃j, k<i.(d)j,1 = hSN(→), (d)k,1 , (d)i,1 i ∧ (d)i,0 =m (d)j,0 ∗ (d)k,0 )
∨ (∃j<i.(d)i,1 = hSN(∀), (d)i,1,1 , (d)j,1 i ∧ Var((d)i,1,1 ) ∧ (d)i,0 =m (d)j,0
∧ ∀n<lh((d)i,0 ) ¬FV((d)i,1,1 , (d)i,0,n ))
∨ (∃j<i.(d)j,1,0 = SN(∀) ∧ (d)i,0 =m (d)j,0
(∧I)
(∧Er )
(∧El )
(→I)
(→E)
(∀I)
(∀E)
∧ ((d)i,1 = (d)j,1,2 ∨ ∃n<(d)i,1 .Ter(n) ∧ (d)i,1 = sub((d)j,1,2 , hh(d)j,1,1 , nii))).
Lemma 3.3.6. 1. Herl(d) gilt genau dann, wenn d eine Herleitung kodiert.
2. Herl ist primitiv rekursiv.
Beweis. 1. =⇒. Gelte Herl(d). Man sieht dann leicht durch Induktion über i, daß für jedes i < lh(d) gilt
(d)i,0 = pΓ q und (d)i,1 = pAq mit `m Γ ⇒ A.
⇐=. d kodiere eine Herleitung, etwa d = hpΓ0 ⇒ A0 q, . . . , pΓn ⇒ An qi. Durch Induktion über n und
Fallunterscheidung nach der zuletzt angewandten Regel zeigt man leicht, daß dann Herl(d) gilt.
2. Die primitive Rekursivität von Herl folgt unmittelbar aus der Definition.
t
u
Eine Menge S von Formeln heißt rekursiv (primitiv rekursiv , rekursiv aufzählbar ), wenn pSq := { pAq |
A ∈ S } rekursiv (primitiv rekursiv, rekursiv aufzählbar) ist. Um auch die klassische Logik behandeln zu
können, zeigen wir jetzt, daß die Menge StabaxL primitiv rekursiv ist, also die Menge der Formeln
∀x1 , . . . , xn .¬¬Rx1 . . . xn → Rx1 . . . xn .
(n)
mit R ∈ RelL . Offenbar können wir hier annehmen, daß x1 , . . . , xn die ersten n Variablen ∗0 , . . . , ∗n−1
sind. Wir definieren deshalb zunächst
app(a, 0) := hai,
app(a, n + 1) := app(a, n) ∗ hhh0, niii.
Dann ist app primitiv rekursiv und wir haben app(SN(R), n) = pR∗0 . . . ∗n−1 q und auch app(SN(f ), n) =
pf ∗0 . . . ∗n−1 q. Weiter definieren wir
gen(0, a) := a,
gen(n + 1, a) := gen(n, hSN(∀), hh0, nii, ai).
Dann ist gen primitiv rekursiv und es gilt gen(n, pAq) = p∀ ∗0 . . . ∀ ∗n−1 Aq. Setzt man noch a →
˙ b :=
˙ p⊥q, so gilt
hSN(→), a, bi und ¬a
˙ := a →
˙ app(k, (k)1 )).
˙
(k)1 ) →
pStabaxL q(a) ↔ ∃k<a.SymbL (k) ∧ (k)0 = 1 ∧ a = gen((k)1 , ¬˙ ¬app(k,
Offenbar ist pStabaxL q primitiv rekursiv.
Weiter zeigen wir, daß auch die Menge EqL der L-Gleichheitsaxiome primitiv rekursiv ist; hierbei
setzen wir natürlich voraus, daß unsere primitiv rekursiv präsentierte Sprache L das Gleichheitssymbol
= enthält. Zum Beweis konstruiert man primitiv rekursive Hilfsfunktionen appg , appu und h mit
3.3 Kodierung der Logik
appg (SN(R), n) = pR∗0 ∗2 ∗4 . . . ∗2n−2 q,
appu (SN(R), n) = pR∗1 ∗3 ∗5 . . . ∗2n−1 q,
h(n) = p∗0 = ∗1 ∧ ∗2 = ∗3 ∧ · · · ∧ ∗2n−2
69
appg (SN(f ), n) = pf ∗0 ∗2 ∗4 . . . ∗2n−2 q,
appu (SN(f ), n) = pf ∗1 ∗3 ∗5 . . . ∗2n−1 q,
= ∗2n−1 q.
Setzt man noch a =
˙ b := hSN(=), a, bi und a ∧˙ b := hSN(∧), a, bi, so gilt
a ∈ pEqL q ↔a = p∀∗0 (∗0 = ∗0 )q
∨ a = p∀∗0 , ∗1 .∗0 = ∗1 → ∗1 = ∗0 q
∨ a = p∀∗0 , ∗1 , ∗2 .∗0 = ∗1 ∧ ∗1 = ∗2 → ∗0 = ∗2 q
∨ ∃k, n<a.SymbL (k) ∧ (k)0 = 1 ∧ (k)1 = n > 0
∧ a = gen(2n, h(n) ∧˙ appg (k, n) →
˙ appu (k, n))
∨ ∃k, n<a.SymbL (k) ∧ (k)0 = 2 ∧ (k)1 = n > 0
∧ a = gen(2n, h(n) →
˙ appu (k, n)).
˙ appg (k, n) =
Offenbar ist pEqL q primitiv rekursiv.
Sei jetzt L eine primitiv rekursiv präsentierte Sprache mit = in L. Eine Theorie T mit L(T ) ⊆ L heißt
(primitiv) rekursiv axiomatisierbar , wenn es eine (primitiv) rekursive Menge S geschlossener L-Formeln
gibt so daß T = { A ∈ L | S ∪ EqL `c A }.
Satz 3.3.7. Für Theorien T mit L(T ) ⊆ L sind die folgenden Aussagen äquivalent.
1. T ist rekursiv axiomatisierbar.
2. T ist primitiv rekursiv axiomatisierbar.
3. T ist rekursiv aufzählbar.
Beweis. (3) =⇒ (2). Sei pT q rekursiv aufzählbar. Nach Lemma 3.2.1 existiert dann ein f ∈ PR1 mit
pT q = ran(f ). Sei f (n) = pAn q. Wir definieren ein primitiv rekursives g mit g(n) = pA0 ∧ · · · ∧ An q durch
g(0) := f (0),
g(n + 1) := g(n) ∧˙ f (n + 1).
Für S := { A0 ∧ · · · ∧ An | n ∈ N } ist pSq = ran(g), und diese Menge ist primitiv rekursiv wegen
a ∈ ran(g) ↔ ∃n<a (a = g(n)). T ist also primitiv rekursiv axiomatisierbar, denn offenbar gilt T = { A ∈
L | S ∪ EqL `c A }.
(2) =⇒ (1) ist klar.
(1) =⇒ (3). Sei T axiomatisiert durch S mit pSq rekursiv. Dann gilt
a ∈ pT q ↔ ∃d∃c<d.Herl(d) ∧ (d)lh(d)−·1 = hc, ai ∧ ∀i<lh(c) ((c)i ∈ pStabaxq ∪ pEqq ∪ pSq).
Also ist pT q rekursiv aufzählbar.
u
t
Eine Theorie T in unserer primitiv rekursiv präsentierten Sprache L heißt axiomatisiert, wenn sie
durch ein rekursiv aufzählbares Axiomensystem AxT gegeben ist. Nach dem eben bewiesenenen Satz
können wir dann sogar annehmen, daß AxT primitiv rekursiv ist. Für solche axiomatisierten Theorien
definieren wir AblT ⊆ N × N durch
AblT (d, a) :↔ Herl(d) ∧ ∃c<d.(d)lh(d)−·1 = hc, ai ∧ ∀i<lh(c) ((c)i ∈ pStabaxq ∪ pEqq ∪ pAxT q).
Offenbar ist AblT primitiv rekursiv und es gilt AblT (d, a) genau dann, wenn d eine Herleitung einer Sequenz
Γ ⇒ A kodiert mit a = pAq und Γ zusammengesetzt aus Stabilitätsaxiomen, Gleichheitsaxiomen und
Formeln aus AxT .
Eine Theorie T heißt konsistent, wenn es eine geschlossene Formel A gibt mit A ∈
/ T ; andernfalls heißt
T inkonsistent.
Korollar 3.3.8. Jede axiomatisierte vollständige Theorie T ist rekursiv.
Beweis. Ist T inkonsistent, so ist pT q rekursiv. Andernfalls folgt aus der Vollständigkeit von T
a ∈ N \ pT q ↔ a ∈
/ For ∨ ∃b<a FV(b, a) ∨ ¬a
˙ ∈ pT q.
Also ist mit pT q auch N \ pT q rekursiv aufzählbar und damit nach Lemma 3.2.3 pT q rekursiv.
u
t
70
3. Berechenbarkeit
3.4 Herbrand-Gödel-Kleene-rekursive Funktionen
Wir geben in diesem Abschnitt eine weitere, auf Herbrand, Gödel und Kleene zurückgehende Charakterisierung der rekursiven Funktionen. Diese Charakterisierung verwendet logische Herleitungen aus
Gleichungssystemen und stellt deshalb eine Verbindung zwischen der Logik und der Berechenbarkeitstheorie dar. Als Anwendung beweisen wir die Existenz einer rekursiv aufzählbaren, aber nicht rekursiven
Relation.
Unter einem Gleichungssystem verstehen wir eine endliche Menge von generalisierten Gleichungen,
also von Formeln der Gestalt ∀x1 , . . . , xn (t[x1 , . . . , xn ] = s[x1 , . . . , xn ]). Wir setzen in diesem Abschnitt
stets voraus, daß 0, S in der Sprache vorhanden sind.
Eine Funktion f : Nn → N heißt Herbrand-Gödel-Kleene-rekursiv (oder kurz: HGK-rekursiv ),
wenn es ein Gleichungssystem Ef mit einem ausgezeichneten Funktionssymbol fˆ gibt so daß für alle
a1 , . . . , an , b ∈ N gilt
f (a1 , . . . , an ) = b genau dann, wenn
Ef ∪ Eq ` fˆ(a1 , . . . , an ) = b.
Satz 3.4.1. Jede µ-rekursive Funktion ist HGK-rekursiv.
Beweis. Durch Rekursion über die induktive Definition der µ-rekursiven Funktionen f konstruieren wir
ein Gleichungssystem Ef mit einem ausgezeichneten Funktionssymbol fˆ so daß
Q
1. Ef nur die Funktionssymbole 0, S,ˆ·, q̂ sowie ĝ, dg für jede in der Definition von f vorkommende
Funktion g enthält,
2. Ef in N gültig ist, wenn man 0 durch die Zahl 0, S durch die Nachfolgerfunktion, ˆ· durch die
Q
q̂ durch q(S(a), 0, b) := b und beliebig sonst, jedes ĝ durch g und jedes dg durch
Multiplikation,
Q
b, a 7→ c<b g(c, a) interpretiert, und
3. für alle a1 , . . . , an , b ∈ N gilt
f (a1 , . . . , an ) = b
genau dann, wenn
Ef ∪ Eq ` fˆ(a1 , . . . , an ) = b.
Die Gültigkeit von (1)-(3) ergibt sich jeweils unmittelbar aus der im folgenden angegebenen Konstruktion,
wobei man zum Beweis von (3)⇐ verwendet, daß (2) zutrifft. Bei Gleichungen lassen wir der Kürze halber
die Generalisierungen immer weg.
n (x , . . . , x ) = 0.
Fall 0n . Wähle 0c
1
n
Fall S. Wähle b
S(x) = S(x).
n
Fall Iin . Wähle Ic
i (x1 , . . . , xn ) = xi .
Fall (◦hg1 . . . gm ). Nach IH haben wir Eh , Eg1 , . . . , Egm mit ausgezeichneten Funktionssymbolen
ĥ, gb1 , . . . , gc
m . Wähle Eh ∪ Eg1 ∪ · · · ∪ Egm zusammen mit der Generalisierung von
fˆ(x1 , . . . , xn ) = ĥ(gb1 (x1 , . . . , xn ), . . . , gc
m (x1 , . . . , xn )).
Fall (Rgh). Nach IH haben wir Eg , Eh mit ausgezeichneten Funktionssymbolen ĝ, ĥ. Wähle Eg ∪ Eh
zusammen mit den Generalisierungen von
fˆ(0, y1 , . . . , yn ) = ĝ(y1 , . . . , yn ),
fˆ(S(x), y1 , . . . , yn ) = ĥ(x, fˆ(x, y1 , . . . , yn ), y1 , . . . , yn ).
Fall (µg). Nach IH haben wir Eg mit ausgezeichnetem Funktionssymbol ĝ. Wähle Eg zusammen mit
den Generalisierungen von
Y 
€\
g (0, x1 , . . . , xn ) = 1,
Y 
Y 
€\
€\
g (y, x1 , . . . , xn ), ĝ(y, x1 , . . . , xn )),
g (S(y), x1 , . . . , xn ) = ˆ·(
q̂(S(x), 0, y) = y,
Y 
Y 
€\
€\
g (S(y), x1 , . . . , xn ), y).
fˆ(x1 , . . . , xn ) = q̂(
g (y, x1 , . . . , xn ),
u
t
3.4 Herbrand-Gödel-Kleene-rekursive Funktionen
71
Zum Beweis der Umkehrung definieren wir für jedes n eine primitiv rekursive Relation Tn ⊆ Nn+2 so
daß für jedes Gleichungssystem E mit ausgezeichnetem Funktionssymbol fˆ mit Symbolnummer SN(fˆ) =
h2, n, 0i gilt Tn (pEq, a1 , . . . , an , d) genau dann, wenn d eine Herleitung einer Sequenz Γ ⇒ fˆ(a1 , . . . , an ) =
b kodiert, wobei Γ aus Stabilitätsaxiomen, Gleichheitsaxiomen und Elementen aus E besteht. Ferner
definieren wir eine primitiv rekursive Funktion U : N → N, die aus einem solchen d die Zahl b abliest. Wir
setzen
Tn (e, a1 , . . . , an , d) :↔ Herl(d) ∧ ∃c, a, b<d((d)lh(d)−·1 = hc, ai
∧ a = hSN(=), hh2, n, 0i, pa1 q, . . . , pan qi, pbqi
∧ ∀i<lh(c).(c)i ∈ pStabaxq ∪ pEqq ∨ ∃j<lh(e).(c)i = (e)j )
und U (d) := dec((d)lh(d)−·1,1,2 ), wobei dec eine primitiv rekursive Funktion ist mit dec(pbq) = b; dec
definieren wir durch dec(0) := 0 und für a > 0
(
dec((a)1 ) + 1, falls (a)0 = SN(S);
dec(a) :=
0,
sonst.
Nach Konstruktion sind Tn und U primitiv rekursiv und haben die verlangten Eigenschaften. Deshalb
gilt offenbar folgender Satz.
Satz 3.4.2. ( Kleenesches Normalformentheorem). Zu jeder HGK-rekursiven n-stelligen Funktion f
gibt es ein e ∈ N so daß folgendes gilt.
1. ∀a1 , . . . , an ∃d Tn (e, a1 , . . . , an , d)
2. f (a1 , . . . , an ) = U (µd Tn (e, a1 , . . . , an , d))
u
t
Insbesondere ergibt sich hieraus, daß jede µ-rekursive Funktion mit einem geeigneten e in der angegebenen Form definiert werden kann, wobei der µ-Operator nur einmal angewandt wird. Dies erklärt den
Namen “Normalformentheorem”.
Korollar 3.4.3. Jede HGK-rekursive Funktion ist µ-rekursiv.
u
t
Wir kommen nun noch einmal auf den Fall (µg) mit g µ-rekursiv zurück, aber jetzt ohne vorauszusetzen, daß ∀a∃i g(i, a) = 0. Sei E das oben im Fall (µg) angegebene Gleichungssystem. Dann gilt:
(1) Wenn ∃i g(i, a) = 0, so ist E ∪ Eq ` fˆ(a1 , . . . , an ) = i für das kleinste i mit g(i, a) = 0. (2) Gilt
6 0. Daraus ergibt sich aufgrund
E ∪ Eq ` fˆ(a1 , . . . , an ) = i, so ist g(i, a) = 0 und für j < i ist g(j, a) =
der Definition von Tn :
Satz 3.4.4. ( Kleenesches Aufzählungstheorem). Zu jeder rekursiven Relation R ⊆ Nn+1 findet man
eine Zahl e so daß für alle a1 , . . . , an ∈ N gilt
∃b R(b, a1 , . . . , an ) ↔ ∃d Tn (e, a1 , . . . , an , d).
u
t
Die Relationen { (a1 , . . . , an ) | ∃d Tn (e, a1 , . . . , an , d) } durchlaufen also für e = 0, 1, . . . genau die
n-stelligen rekursiv aufzählbaren Relationen. Sei jetzt n = 1. Mit dem Cantorschen Diagonalargument
folgt dann, daß { a | ¬∃d T1 (a, a, d) } nicht rekursiv aufzählbar sein kann. Andernfalls gäbe es nämlich
ein e so daß für alle a gilt
¬∃d T1 (a, a, d) ↔ ∃d T1 (e, a, d),
und durch Einsetzung von e für a erhielte man einen Widerspruch. Da nach Lemma 3.2.3 eine rekursiv
aufzählbare Relation genau dann rekursiv ist, wenn ihr Komplement rekursiv aufzählbar ist, erhalten wir:
Satz 3.4.5. { a | ∃d T1 (a, a, d) } ist rekursiv aufzählbar, aber nicht rekursiv.
u
t
Setzt man die Churchsche These voraus, so haben wir damit ein erstes Beispiel eines unentscheidbaren
Problems gefunden: Es kann keinen Algorithmus geben, der für ein beliebiges a ∈ N stets terminiert und
entscheidet, ob es ein d ∈ N gibt so daß die primitiv rekursive Relation T1 (a, a, d) besteht.
72
3. Berechenbarkeit
3.5 Anmerkungen
Primitiv rekursive Funktionen wurden von Hilbert eingeführt. Ackermann zeigte 1925 durch Angabe
eines Beispiels, daß es eine berechenbare, aber nicht primitiv rekursive Funktion gibt. Eine ausführliche
Diskussion der primitiv rekursiven Funktionen findet man in den Büchern von Pèter [25] und Rose [27].
Der Begriff der rekursiven Funktion wurde nach Vorarbeiten von Herbrand, Gödel und Kleene von
Church geprägt, der mit seiner Churchschen These die Äuivalenz zum intuitiven Begriff der Berechenbarkeit postulierte. Die hier gegebene Darstellung der Theorie der Berechenbarkeit stützt sich teilweise
auf die Bücher von Shoenfield [34] und Kleene [16].
4. Metamathematik
4.1 Undefinierbarkeit des Wahrheitsbegriffs
Sei M eine L-Struktur. Eine Relation R ⊆ |M|n heißt in M definierbar , wenn es eine L-Formel
A[x1 , . . . , xn ] gibt so daß
R = { (a1 , . . . , an ) ∈ |M|n | M |= A[a1 , . . . , an /x1 , . . . , xn ] }.
(0)
(1)
Wir wollen in diesem Abschnitt annehmen, daß |M| = N und 0 ∈ FunL , S ∈ FunL mit 0M = 0 und
SM (a) = a + 1. Dann kann man für jedes a ∈ N das Numeral a ∈ TerL definieren durch 0 := 0 und
n + 1 := S(n). Man beachte auch, daß in diesem Fall die Definierbarkeit von R ⊆ Nn durch A[x1 , . . . , xn ]
äquivalent ist zu
R = { (a1 , . . . , an ) ∈ Nn | M |= A[x1 , . . . , xn := a1 , . . . , an ] }.
Sei weiter L eine primitiv rekursiv präsentierte Sprache. Wir werden in diesem Kapitel stets voraussetzen,
jede primitiv rekursive Relation in M definierbar ist. Ein Beispiel für eine solche Situation ist die in Abschnitt 3.1 eingeführte Standardstruktur N zur Sprache PR. Eine Menge S von Formeln heißt definierbar
in M, wenn pSq := { pAq | A ∈ S } in M definierbar ist.
Wir zeigen, daß bereits aus diesen recht schwachen Voraussetzungen folgt, daß der Wahrheitsbegriff
von M, genauer die Menge Th(M) aller in M gültigen geschlossenen Formeln, nicht in M definierbar
ist. Da aus der vorausgesetzten Definierbarkeit aller primitiv rekursiven Relationen in M sofort folgt,
daß auch alle rekursiven aufzählbaren Relationen in M definierbar sind, erhält man hieraus mit der
Churchschen These, daß der Wahrheitsbegriff von M nicht aufzählbar sein kann und folglich insbesondere unentscheidbar ist.
Zum Beweis benötigen wir das folgende Fixpunktlemma, das wir im nächsten Abschnitt (als Lemma
4.2.2) noch verallgemeinern werden. Wir schreiben hier und im folgenden oft A[t] für A[x := t], wenn die
zu substituierenden Variablen aus dem Zusammenhang klar sind.
Lemma 4.1.1. (Semantisches Fixpunktlemma). Ist jede primitiv rekursive Relation in M definierbar,
so findet man zu jeder L-Formel B[z] eine geschlossene L-Formel A mit
M |= A
genau dann, wenn
M |= B[pAq].
Beweis. Wir definieren eine primitiv rekursive Funktion s durch
s(b, k) := sub(b, hhpzq, pkqii).
z ist hierbei die spezielle, durch B[z] vorgegebene Variable, etwa ∗0 . Dann gilt für jede Formel C[z]
s(pCq, k) = sub(pCq, hhpzq, pkqii) = pC[k]q,
also insbesondere
s(pCq, pCq) = pC[pCq]q.
Nach Annahme ist der Graph Gs von s definierbar in M, etwa durch As [x1 , x2 , x3 ]. Setze
C := ∃x.B[x] ∧ As [z, z, x],
A := C[pCq],
74
4. Metamathematik
also
A = ∃x.B[x] ∧ As [pCq, pCq, x].
Damit gilt M |= A genau dann, wenn ∃a∈N.M |= B[a] und a = pC[pCq]q, also genau dann, wenn
M |= B[pAq].
u
t
Satz 4.1.2. ( Tarskis Undefinierbarkeitssatz). Ist jede primitiv rekursive Relation in M definierbar, so
ist Th(M) in M undefinierbar, insbesondere also nicht rekursiv aufzählbar.
Beweis. Nehmen wir an, pTh(M)q wäre definierbar durch BW [z]. Dann gilt für alle geschlossenen Formeln
A
M |= A genau dann, wenn M |= BW [pAq].
Wir betrachten nun die Formel ¬BW [z] und wählen uns nach dem Fixpunktlemma 4.1.1 eine geschlossene
L-Formel A mit
M |= A genau dann, wenn M |= ¬BW [pAq].
Dies widerspricht der obigen Äquivalenz.
Bereits oben hatten wir bemerkt, daß alle rekursiv aufzählbaren Relationen in M definierbar sind;
deshalb folgt, daß pTh(M)q nicht rekursiv aufzählbar ist.
t
u
4.2 Der Wahrheitsbegriff in formalen Theorien
Wir wollen die Überlegungen des vorgehenden Abschnitts verallgemeinern. Dort hatten wir mit dem
Wahrheitsbegriff in einer Struktur M gearbeitet, also der Relation M |= A. Die Menge der Sätze A mit
M |= A hatten wir als Theorie vom M bezeichnet, geschrieben Th(M).
Jetzt gehen wir statt von Th(M) allgemeiner von einer beliebigen Theorie T aus, und stellen uns die
Frage, ob in T ein “Wahrheitsbegriff” (in der Gestalt einer “Wahrheitsformel” B[z]) existiert, so daß B[z]
“bedeutet”, daß z “wahr” ist.
Was soll das heißen? Wir müssen die verwendeten Begriffe ohne semantische Konzepte erkären.
– z läuft also über geschlossene Formeln oder Sätze A bzw. genauer pAq.
– A “wahr” ist zu ersetzen durch T ` A.
– C ist “gleichbedeutend” mit D ist zu ersetzen durch T ` C ↔ D.
Wir wollen also untersuchen, ob es eine Wahrheitsformel B[z] geben kann, so daß für alle Sätze A gilt
T ` A ↔ B[pAq]. Es wird sich zeigen, daß dies schon unter recht schwachen Voraussetzungen an die
Theorie T unmöglich ist.
Technisch wird es darum gehen, an die Stelle der Definierbarkeit in M die “Repräsentierbarkeit”
innerhalb einer formalen Theorie setzen.
Sei im folgenden L wieder eine primitiv rekursiv präsentierte Sprache mit 0, S, = in L und T eine
Theorie mit EqL ⊆ T . Wir nennen eine Relation R ⊆ Nn repräsentierbar in T , wenn es eine Formel
A[x1 , . . . , xn ] gibt mit
T ` A[a1 , . . . , an ],
T ` ¬A[a1 , . . . , an ],
falls (a1 , . . . , an ) ∈ R,
falls (a1 , . . . , an ) ∈
/ R.
Eine Funktion f : Nn → N heißt repräsentierbar in T , wenn es eine Formel A[x1 , . . . , xn , y] gibt, die den
Graphen Gf ⊆ Nn+1 repräsentiert, also die
T ` A[a1 , . . . , an , f (a1 , . . . , an )],
T ` ¬A[a1 , . . . , an , c],
(4.1)
falls c 6= f (a1 , . . . , an )
(4.2)
für alle a1 , . . . , an ∈ N.
(4.3)
erfüllt, und für die zusätzlich gilt
T ` A[a1 , . . . , an , y] ∧ A[a1 , . . . , an , z] → y = z
Man beachte, daß für den Fall T ` b 6= c für b < c die Bedingung (4.2) aus (4.1) und (4.3) folgt.
4.3 Unentscheidbarkeit und Unvollständigkeit
75
Lemma 4.2.1. Ist die charakteristische Funktion 1R einer Relation R ⊆ Nn in T repräsentierbar, so
auch die Relation R selbst.
Beweis. Übung OBdA sei n = 1. Sei A[x, y] eine 1R repräsentierende Formel. Wir zeigen, daß dann
A[x, 1] die Relation R repräsentiert. Sei also zunächst a ∈ R. Dann ist 1R (a) = 1, also (a, 1) ∈ G1R , also
/ G1R , also T ` ¬A[a, 1].
T ` A[a, 1]. Sei nun a ∈
/ R. Dann ist 1R (a) = 0, also (a, 1) ∈
t
u
Lemma 4.2.2. (Fixpunktlemma). Sind alle primitiv rekursiven Funktionen in T repräsentierbar, so findet man zu jeder Formel B[z] eine geschlossene Formel A mit
T ` A ↔ B[pAq].
Beweis. Wir gehen zunächst wie im Beweis des semantischen Fixpunktlemmas 4.1.1 vor. Sei also
As [x1 , x2 , x3 ] eine die primitiv rekursive Funktion s(b, k) := sub(b, hhpzq, pkqii) repräsentierende Formel.
Setze
C := ∃x.B[x] ∧ As [z, z, x],
A := C[pCq],
d.h.
A = ∃x.B[x] ∧ As [pCq, pCq, x].
Wegen s(pCq, pCq) = pC[pCq]q = pAq ist in T herleitbar
As [pCq, pCq, x] ↔ x = pAq,
also nach Definition von A auch
und damit
A ↔ ∃x.B[x] ∧ x = pAq
A ↔ B[pAq].
u
t
Mit T = Th(M) ergibt sich das obige (semantische) Fixpunktlemma 4.1.1 als Spezialfall.
Satz 4.2.3. (Undefinierbarkeit der Wahrheitsbegriffs). Sei T eine konsistente Theorie, in der alle primitiv rekursiven Funktionen repräsentierbar sind. Dann kann es keine Formel B[z] geben, so daß für alle
geschlossenen Formeln A gilt
T ` A ↔ B[pAq].
Beweis. Angenommen, wir hätten so ein B[z]. Wir betrachten nun die Formel ¬B[z] und wählen nach
dem Fixpunktlemma 4.2.2 eine geschlossene Formel A mit
T ` A ↔ ¬B[pAq].
Für dieses A hätte man also T ` A ↔ ¬A im Widerspruch zur Konsistenz von T .
u
t
Mit T = Th(M) ergibt sich der Tarskische Undefinierbarkeitssatz 4.1.2 wieder als Spezialfall.
4.3 Unentscheidbarkeit und Unvollständigkeit
In diesem Abschnitt betrachten wir eine konsistente formale Theorie, in der alle rekursiven Funktionen
repräsentierbar sind. Dies ist eine sehr schwache Voraussetzung, wie wir im nächsten Abschnitt zeigen
werden. Sie ist erfüllt, sobald die Theorie ein gewisses Minimum an Arithmetik zu beweisen gestattet.
Wir zeigen, daß eine solche Theorie notwendigerweise unentscheidbar ist. Weiter zeigen wir den ersten Gödelschen Unvollständigkeitssatz, der aussagt, daß eine axiomatisierte derartige Theorie immer
unvollständig sein muß. Diesen Satz beweisen wir dann noch in einer von Rosser verschärften Form, in
der eine geschlossene Formel A angegeben wird, so daß weder A noch ¬A in der Theorie beweisbar ist.
In diesem Abschnitt sei L wieder eine primitiv rekursiv präsentierte Sprache mit 0, S, = in L und T
eine Theorie mit EqL ⊆ T .
76
4. Metamathematik
Satz 4.3.1. (Unentscheidbarkeit). Ist T eine konsistente Theorie, in der alle rekursiven Funktionen repräsentierbar sind, so ist T nicht rekursiv.
Beweis. Nehmen wir an, T ist rekursiv. Nach Voraussetzung ist dann pT q durch eine Formel B[z] in T
repräsentierbar. Wir wählen nach dem Fixpunktlemma 4.2.2 eine geschlossene Formel A mit
T ` A ↔ ¬B[pAq]
und zeigen (1) T 6` A und (2) T ` A; dies ist der gewünschte Widerspruch.
Zu (1). Gelte T ` A. Dann ist A ∈ T , also pAq ∈ pT q und damit T ` B[pAq] (da B[z] die Menge pT q
in T repräsentiert). Es folgt T ` ¬A nach Wahl von A und damit ein Widerspruch zur Konsistenz von T .
Zu (2). Nach (1) wissen wir T 6` A. Daher ist A ∈
/ T , also pAq ∈
/ pT q und damit T ` ¬B[pAq]. Es
folgt T ` A nach Wahl von A.
u
t
Satz 4.3.2. (Erster Gödelscher Unvollständigkeitssatz). Jede axiomatisierte konsistente Theorie, in
der alle rekursiven Funktionen repräsentierbar sind, ist unvollständig.
Beweis. Die Behauptung ergibt sich aus Korollar 3.3.8 und Satz 4.3.1.
u
t
Wie oben schon erwähnt, wollen wir jetzt unter Verwendung einer Idee von Rosser den Unvollständigkeitssatz in dem Sinn verschärfen, daß wir eine geschlossene Formel A konkret angegeben, für die
weder A noch ¬A in der Theorie beweisbar ist.
Satz 4.3.3. ( Gödel-Rosser). Sei T eine axiomatisierte konsistente L-Theorie mit 0, S, = in L und
EqL ⊆ T . Ferner gebe es eine Formel K[x, y] – geschrieben x < y – so daß
T ` ∀x.x < n → x = 0 ∨ · · · ∨ x = n − 1,
T ` ∀x.x = 0 ∨ · · · ∨ x = n ∨ n < x.
(4.4)
(4.5)
Weiter sei jede primitiv rekursive Funktion in T repräsentierbar. Dann findet man eine geschlossene
Formel A, für die weder A noch ¬A in T beweisbar ist.
Beweis. Wir definieren zunächst WdlT ⊆ N × N durch
WdlT (d, a) :↔ AblT (d, ¬a).
˙
Dann ist WdlT primitiv rekursiv, und es gilt WdlT (d, a) genau dann, wenn d eine Widerlegung von a in T
ist, d.h. wenn d eine Herleitung einer Sequenz Γ ⇒ ¬A kodiert mit a = p¬Aq und Γ zusammengesetzt aus
Stabilitätsaxiomen und Formeln aus AxT . Seien BAblT [x1 , x2 ] und BWdlT [x1 , x2 ] repräsentierende Formeln
zu AblT und WdlT . Wir wählen nun nach dem Fixpunktlemma 4.2.2 eine geschlossene Formel A mit
T ` A ↔ ∀x.BAblT [x, pAq] → ∃y.y < x ∧ BWdlT [y, pAq].
A drückt also seine eigene Unbeweisbarkeit aus, und zwar in der (auf Rosser zurückgehenden) Form
“Zu jedem Beweis von mir gibt es einen kürzeren Beweis meiner Negation”.
Wir zeigen (1) T 6` A und (2) T 6` ¬A. Zu (1). Gelte T ` A. Man wähle ein n mit
AblT (n, pAq).
Dann gilt auch
nicht WdlT (m, pAq)
für alle m,
da T konsistent ist. Folglich haben wir
T ` BAblT [n, pAq],
T ` ¬BWdlT [m, pAq]
für alle m.
4.4 Repräsentierbarkeit
77
Daraus folgt wegen (4.4)
T ` BAblT [n, pAq] ∧ ∀y.y < n → ¬BWdlT [y, pAq].
Also gilt
T ` ∃x.BAblT [x, pAq] ∧ ∀y.y < x → ¬BWdlT [y, pAq],
T ` ¬A.
Dies ist ein Widerspruch zur Konsistenz von T .
Zu (2). Gelte T ` ¬A. Man wähle ein n mit
WdlT (n, pAq).
Dann gilt auch
nicht AblT (m, pAq)
für alle m,
da T konsistent ist. Folglich haben wir
T ` BWdlT [n, pAq],
T ` ¬BAblT [m, pAq]
für alle m.
Daraus erhält man aber
T ` ∀x.BAblT [x, pAq] → ∃y.y < x ∧ BWdlT [y, pAq],
wie man durch Fallunterscheidung nach x mit Hilfe von (4.5) leicht beweist. Also gilt T ` A. Dies ist
wieder ein Widerspruch zur Konsistenz von T .
u
t
Schließlich wollen wir noch eine Variante dieses Satzes formulieren, in der wir nicht mehr davon
ausgehen, daß die Theorie T nur etwas über Zahlen aussagt.
Satz 4.3.4. ( Gödel-Rosser). Sei T eine axiomatisierte konsistente L-Theorie mit 0, S, = in L und
EqL ⊆ T . Ferner gebe es Formeln N [x] und K[x, y] – geschrieben N x bzw. x < y – so daß T ` N 0,
T ` ∀x∈N N [S(x)] und
T ` ∀x∈N.x < n → x = 0 ∨ · · · ∨ x = n − 1,
T ` ∀x∈N.x = 0 ∨ · · · ∨ x = n ∨ n < x.
Hierbei steht ∀x∈N A für ∀x.N x → A. Ferner sei jede primitiv rekursive Funktion in T repräsentierbar.
Dann findet man eine geschlossene Formel A, für die weder A noch ¬A in T beweisbar ist.
Beweis. Wie für den Satz 4.3.3; man muß lediglich die auftretenden Quantoren auf N relativieren.
t
u
4.4 Repräsentierbarkeit
Wir zeigen in diesem Abschnitt, daß schon recht einfache formale Theorien die Eigenschaft besitzen, daß
in ihnen jede rekursive Funktion repräsentierbar ist. Als Hilfsmittel für den Beweis zeigen wir zunächst,
daß die Menge der rekursiven Funktionen auch ohne das Schema der primitiven Rekursion erzeugt werden
kann, also alleine durch Komposition und den unbeschränkten µ-Operator aus einfachen Ausgangsfunktionen.
Wir definieren die Menge G der µ0 -rekursiven Funktionen als die kleinste Menge von Funktionen mit
den folgenden Eigenschaften. Wir schreiben G n für die Teilmenge der n-stelligen Funktionen in G.
78
4. Metamathematik
1. 0n ∈ G n (n ≥ 0), S ∈ G 1 , Iin ∈ G n (1 ≤ i ≤ n), +, ·, 1< ∈ G 2 .
2. Sind g1 , . . . , gm ∈ G n , h ∈ G m und m ≥ 1, n ≥ 0, so ist (◦hg1 . . . gm ) ∈ G n .
3. Ist g ∈ G n+1 und gilt ∀a∃i (g(i, a) = 0), so ist µg in G n .
· sowie π, π1 , π2 sind µ0 -rekursiv.
Lemma 4.4.1. Die Funktionen −
· b = µi (a < i + b + 1). Es war π(a, b) = 1 (a + b)(a + b + 1) + a. Zum Beweis von π ∈ G genügt
Beweis. a −
2
es offenbar, ein h ∈ G zu finden mit h(2c) = c. Eine solche Funktion ist h(d) := µi (d < 2i + 1).
Wir zeigen jetzt π1 ∈ G 1 . Dazu beachte man, daß
2π(a, b) = (a + b)(a + b + 1) + 2a.
(4.6)
Nun gilt
(a + b)(a + b + 1) ≤ (a + b)(a + b + 1) + 2a < (a + b + 1)(a + b + 2).
Setzt man also
g(c) := µi (2c < (i + 1)(i + 2)),
so ist g(π(a, b)) = a + b. Wegen (4.6) können wir also aus c := π(a, b) die Zahl 2a gewinnen als 2c −
g(c)(g(c) + 1). Damit gilt
· g(c)(g(c) + 1))
π1 (c) = h(2c −
und wir haben π1 ∈ G gezeigt.
· π1 (c).
π2 ∈ G folgt jetzt aus π2 (c) = g(c) −
u
t
Lemma 4.4.2. ( Gödel). Es gibt eine µ0 -rekursive Funktion β mit folgender Eigenschaft. Zu beliebigen
a0 , . . . , an−1 findet man ein c mit β(c, i) = ai für alle i < n.
Beweis. Sei
a := max π(ai , i).
i<n
Man beachte zunächst, daß alle 1 + ka! für k ≤ a relativ prim sind. Hätten nämlich 1 + ia! und 1 + ja!
mit i < j ≤ a einen gemeinsamen Primteiler p, so wäre p|(j − i)a!, also auch p|a! und damit p|1, was
nicht sein kann.
Wir setzen jetzt
b := a!,
Y€

d :=
1 + π(ai , i)a! .
i<n
Aus b und d kann man zu gegebenem i < n die Zahl ai wie folgt wiedergewinnen. Man betrachte das
kleinste x mit
1 + π(x, i)b|d.
Offenbar ist ai ein solches x. Würde nun ein x < ai die Bedingung auch erfüllen, so wäre wegen π(x, i) < a
und der Tatsache, daß alle 1 + ka! für k ≤ a relativ prim sind, π(x, i) = π(aj , j) für ein j < n nach
Konstruktion von d, also x = aj und i = j im Widerspruch zu x < ai .
Wir können also definieren

€
β(c, i) := π1 µy [(1 + π(π1 (y), i) · π1 (c)) · π2 (y) ≥ π2 (c)] .
Diese Funktion heißt Gödelsche β-Funktion. β ist µ0 -rekursiv, denn für jedes c, i existiert offenbar ein
solches y. Für c := π(b, d) ist dann π(ai , dd/1 + π(ai , i)be) das kleinste solche y und wir haben β(c, i) = ai .
u
t
Satz 4.4.3. Die Menge der µ0 -rekursiven Funktionen ist abgeschlossen unter primitiver Rekursion,
stimmt also mit der Menge der µ-rekursiven Funktionen überein.
4.4 Repräsentierbarkeit
79
Beweis. Sei g ∈ G n , h ∈ G n+2 und f = (Rgh). Nach dem vorangehenden Lemma findet man zu gegebenen
a, b ein c mit β(c, i) = f (i, b) für alle i ≤ a, also
β(c, 0) = g(b),
β(c, i + 1) = h(i, β(c, i), b)
für alle i < a.
Setze
· a),
· b) + (b −
|a − b| := (a −
€

· i)(1 −
· |h(i, β(c, i), b) − β(c, i + 1)|) = 0 ,
h1 (a, b, c) := µi (a −
· h1 (a, b, c)).
h2 (a, b, c) := |g(b) − β(c, 0)| + (a −
Dann ist offenbar h2 ∈ G und h2 (a, b, c) = 0 ist äquivalent zu der Gültigkeit der obigen Gleichungen für
β. Insbesondere gibt es zu jedem a, b ein c mit h2 (a, b, c) = 0. Daher gilt
f (a, b) = β(µc (h2 (a, b, c) = 0), a)
und f ist deshalb µ0 -rekursiv.
t
u
Wir haben also gesehen, daß die µ-rekursiven und die µ0 -rekursiven Funktionen übereinstimmen; im
folgenden sprechen wir deshalb nur noch von µ-rekursiven Funktionen.
Satz 4.4.4. Sei T eine L-Theorie mit 0, S, = in L und EqL ⊆ T . Ferner gebe es Formeln N [x] und
K[x, y] – geschrieben N x bzw. x < y – so daß T ` N 0, T ` ∀x∈N N [S(x)] und folgendes gilt.
T ` S(a) 6= 0
T ` S(a) = S(b) → a = b
die Funktionen + und · sind in T repräsentierbar,
6 0)
T ` ∀x∈N (x <
T ` ∀x∈N.x < S(b) → x < b ∨ x = b
T ` ∀x∈N.x < b ∨ x = b ∨ b < x
für alle a ∈ N,
für alle a, b ∈ N,
für alle b ∈ N,
für alle b ∈ N.
(4.7)
(4.8)
(4.9)
(4.10)
(4.11)
(4.12)
Hierbei steht wieder ∀x∈N A für ∀x.N x → A. Dann erfüllt T die Voraussetzungen von Satz 4.3.4, also
des (auf N relativierten) Satzes von Gödel-Rosser. Genauer gilt für alle a ∈ N
T ` ∀x∈N.x < a → x = 0 ∨ · · · ∨ x = a − 1,
T ` ∀x∈N.x = 0 ∨ · · · ∨ x = a ∨ a < x,
(4.13)
(4.14)
und jede rekursive Funktion ist in T repräsentierbar.
Beweis. Wir zeigen zunächst, daß die Formel x = y die Gleichheit und die Formel x < y die Kleinerbe6 b. Gelte nun a 6< b. Wir
ziehung in T repräsentiert. Aus (4.7) and (4.8) folgt sofort T ` a 6= b für a =
zeigen T ` a <
6 b durch Induktion nach b. T ` a 6< 0 folgt aus (4.10). Im Schritt haben wir a 6< b + 1,
6 b und T ` a =
6 b, also nach (4.11)
also a <
6 b und a 6= b, also nach IH und der obigen Bemerkung T ` a <
T ` a 6< S(b). Sei jetzt a < b. Dann gilt T ` a =
6 b und T ` b 6< a, also nach (4.12) T ` a < b.
(4.13) ergibt sich jetzt leicht durch Induktion über a. Die Basis folgt aus (4.10), und der Schritt aus
der IH und (4.11). (4.14) ergibt sich aus (4.12) unmittelbar mit (4.13).
Wir zeigen jetzt durch Induktion über die Definition der µ0 -rekursiven Funktionen, daß jede µ0 rekursive (und damit nach Satz 4.4.3 auch jede rekursive) Funktion in T repräsentierbar ist. Man beachte
hierbei, daß wegen T ` a 6= b für a 6= b die Bedingung (4.2) in der Definition der Repräsentierbarkeit
einer Funktion nicht mehr überprüft werden muß.
Die Ausgangsfunktionen 0n , S und Iin werden offenbar durch die Formeln 0 = y, S(x) = y und xi = y
repräsentiert. + und · sind nach Voraussetzung (4.9) in T repräsentierbar. Wir zeigen noch, daß die
Funktion 1< in T durch
6 x2 ∧ y = 0)
A := (x1 < x2 ∧ y = 1) ∨ (x1 <
80
4. Metamathematik
repräsentiert wird. Gelte also a1 < a2 . Dann ist T ` a1 < a2 , also T ` A[a1 , a2 , 1]. Sei jetzt a1 6< a2 .
Dann ist T ` a1 6< a2 , also T ` A[a1 , a2 , 0]. Ferner ist A[x1 , x2 , y] ∧ A[x1 , x2 , z] → y = z schon logisch aus
den Gleichheitsaxiomen herleitbar (Fallunterscheidung nach x1 < x2 ).
Fall (◦hg1 . . . gm ). OBdA seien g1 , . . . , gm einstellig. Nach IH haben wir repräsentierende Formeln
Agi [x, yi ] und Ah [y, z]. Wir setzen
Af := ∃y.Ag1 [x, y1 ] ∧ · · · ∧ Agm [x, ym ] ∧ Ah [y, z].
Gelte f (a) = c. Offenbar haben wir dann T ` Af [a, c]. Zu zeigen bleibt T ` Af [a, z1 ]∧Af [a, z2 ] → z1 = z2 .
Wir führen den Beweis wieder informal. Nach Definition von Af haben wir y11 , . . . , y1m und y21 , . . . , y2m .
Die IH für gi liefert y1i = y2i = gi (a). Mit der IH für h ergibt sich z1 = z2 .
Fall (µg). OBdA sei g zweistellig, also f (a) = µi (g(i, a) = 0), wobei ∀a∃i (g(i, a) = 0). Nach IH haben
wir eine g repräsentierende Formel Ag [y, x, z]. Sei
Af [x, y] := N y ∧ Ag [y, x, 0] ∧ ∀v∈N.v < y → ∃w.w 6= 0 ∧ Ag [v, x, w].
Wir zeigen zunächst (4.1). Gelte also f (a) = b. Zu zeigen ist T ` Af [a, b]. Aufgrund der Gestalt von
Af folgt dies aber sofort mit T ` v < b → v = 0 ∨ · · · ∨ v = b − 1 aus der IH für g. Wir zeigen jetzt
noch (4.3). Gegeben sei also a; setze b := f (a). Es genügt zu zeigen T ` Af [a, y] → y = b. Den Beweis
führen wir wieder informal. Gelte also Af [a, y]. Nach Voraussetzung (4.12) genügt es, y 6< b und b 6< y
zu zeigen. Nehmen wir also zunächst y < b an. Nach (4.13) folgt y = i für ein i < b im Widerspruch zu
Ag [y, a, 0]. Nehmen wir jetzt b < y an. Aus Af [a, y] folgt dann ∃w.w 6= 0 ∧ Ag [b, a, w] im Widerspruch zu
Ag [b, a, 0].
u
t
Wir wollen jetzt noch eine spezielle und besonders einfache arithmetische Theorie betrachten. Sei L1
die durch 0, S, +, · und = bestimmte Sprache und Z1 die durch EqL1 und die Generalisierungen der
folgenden Axiome bestimmte Theorie.
S(x) 6= 0,
S(x) = S(y) → x = y,
x + 0 = x,
x + S(y) = S(x + y),
x · 0 = 0,
x · S(y) = x · y + x,
∃z (x + S(z) = y) ∨ x = y ∨ ∃z (y + S(z) = x).
(4.15)
(4.16)
(4.17)
(4.18)
(4.19)
(4.20)
(4.21)
Satz 4.4.5. Jede Theorie T mit T ⊇ Z1 erfüllt die Voraussetzungen des Satzes 4.3.3 von GödelRosser. Bzgl. K[x, y] := ∃z (x + S(z) = y) ist sogar jede rekursive Funktion in T repräsentierbar.
Beweis. Wir zeigen, daß T mit N [x] := (x = x) und K[x, y] := ∃z (x + S(z) = y) die Bedingungen von
Satz 4.4.4 erfüllt. Für (4.7) und (4.8) ist dies klar. Für (4.9) können wir x + y = z und x · y = z als
repräsentierende Formeln wählen. Für (4.10) ist zu zeigen ¬∃z (x + S(z) = 0). Dies folgt aber aus (4.18)
und (4.15). Zum Beweis von (4.11) benötigen wir die Hilfsaussage
x = 0 ∨ ∃y (x = S(y)),
(4.22)
deren Beweis wir unten nachtragen. Gelte also x + S(z) = S(b), also auch S(x + z) = S(b) und damit
x + z = b. Wir verwenden jetzt (4.22) für z. Im Fall z = 0 folgt x = b, und im Fall ∃y (z = S(y)) haben
wir ∃y (x + S(y) = b). Damit ist (4.11) bewiesen. (4.12) folgt sofort aus (4.21).
Zum Beweis von (4.22) verwenden wir ebenfalls (4.21) und vergleichen x mit 0. Es genügt offenbar,
t
den Fall ∃z (x+S(z) = 0) auszuschließen. Er besagt aber S(x+z) = 0 und widerspricht deshalb (4.15). u
Korollar 4.4.6. (Starke Unentscheidbarkeit von Z1 ). Jede konsistente Theorie T mit T ⊇ Z1 ist nicht
rekursiv.
Beweis. Sätze 4.4.5 und 4.3.1.
u
t
4.5 Unbeweisbarkeit der Widerspruchsfreiheit
81
Korollar 4.4.7. (Unentscheidbarkeit der Prädikatenlogik). Sei L1 die durch 0, S, +, · und = bestimmte
Sprache. Dann ist die Menge der in der klassischen Logik herleitbaren L1 -Formeln nicht rekursiv.
Beweis. Andernfalls wäre auch Z1 rekursiv, denn eine Formel A ist herleitbar in Z1 genau dann, wenn
die Implikation aus der Konjunktion der endlich vielen Z1 -Axiome und der Gleichheitsaxiome in der
klassischen Logik herleitbar ist.
u
t
In Abschnitt 3.2 hatten wir Σ1 -Formeln der formalen Sprache PR definiert, ausgehend von eventuell
negierten PR-Primformeln. Wir wollen jetzt einen entsprechenden Begriff für die durch 0, S, +, · und = bestimmte Sprache L1 definieren, und zwar so, daß immer noch genau die rekursiv aufzählbaren Relationen
durch Σ1 -Formeln definierbar sind. In Anbetracht der stark verringerten sprachlichen Ausdrucksmittel
ist es jetzt sinnvoll, nur ganz spezielle atomare und negiert atomare Formeln zuzulassen. Σ1 -Formeln der
Sprache L1 werden wie folgt induktiv definiert.
• Für alle Variablen x, y, z sind x = y, x =
6 y, 0 = x, S(x) = y, x + y = z und x · y = z Σ1 -Formeln der
Sprache L1 .
• Mit A und B sind auch A ∧ B und A ∨ B Σ1 -Formeln der Sprache L1 .
• Mit A ist auch ∀x<y A eine Σ1 -Formel der Sprache L1 , falls y von x verschieden ist.
• Mit A ist auch ∃x A eine Σ1 -Formel der Sprache L1 .
Damit jede Σ1 -Formel der Sprache L1 auch wirklich eine L1 -Formel ist, verstehen wir ∀x<y A als
Abkürzung für ∀x.∃z (x + S(z) = y) → A.
Satz 4.4.8. Jede rekursive Funktion ist in Z1 repräsentierbar durch eine Σ1 -Formel der Sprache L1 .
Beweis. Dies ergibt sich sofort durch Inspektion des Beweises von Satz 4.4.4. Man hat lediglich zu beachten, daß schon aufgrund der Gleichheitsaxiome ∃z (x + S(z) = y) mit ∃z∃w (S(z) = w ∧ x + w = y)
und A[0] mit ∃x.x = 0 ∧ A äquivalent sind.
t
u
L1 -Formeln heißen auch arithmetische Formeln. Eine Relation R ⊆ Nn heißt arithmetisch, wenn sie
im Standardmodell N1 der Sprache L1 definierbar ist.
Korollar 4.4.9. 1. Jede rekursiv ausfzählbare Relation ist arithmetisch.
2. Th(N1 ) ist nicht arithmetisch, insbesondere also auch nicht rekursiv aufzählbar.
Beweis. Der erste Teil folgt aus Satz 4.4.8 (mit der aus Lemma 3.2.1 bekannten Tatsache, daß jede
nichtleere Menge M ⊆ N Wertebereich einer primitiv rekursiven Funktion ist), und der zweite aus dem
u
t
Tarskischen Undefinierbarkeitssatz 4.1.2.
4.5 Unbeweisbarkeit der Widerspruchsfreiheit
Wir haben oben im Satz 4.3.3 von Gödel-Rosser gesehen, wie man zu jeder axiomatisierten konsistenten
Theorie T , die gewisse schwache Voraussetzungen erfüllt, einen geschlossenen Satz A konstruieren kann
so daß weder A noch ¬A in T beweisbar ist. Die inhaltliche Bedeutung dieses Satzes A war “Zu jedem
Beweis von mir gibt es einen kürzeren Beweis meiner Negation”. Da also A keinen Beweis besitzt, ist
insbesondere A wahr. Wir haben also einen wahren, aber in T unbeweisbaren Satz gefunden.
Diese Aussage wollen wir jetzt noch verschärfen, indem wir zeigen, daß ein besonders interessanter
wahrer Satz in T unbeweisbar ist, nämlich der Satz Wf T , der die Konsistenz (oder Widerspruchsfreiheit)
von T besagt. Dies ist der zweite Unvollständigkeitssatz von Gödel [13].
Wir werden diesen Satz hier in einer von Löb angegebenen verschärften Form beweisen. Zunächst
zeigen wir eine Hilfsaussage.
Lemma 4.5.1. Sei A[x1 , . . . , xn ] eine Σ1 -Formel der durch 0, S, +, · und = bestimmten Sprache L1 .
Gilt dann N1 |= A[a1 , . . . , an ] für das Standardmodell N1 von L1 , so folgt Z1 ` A[a1 , . . . , an ].
82
4. Metamathematik
Beweis. Durch Induktion über die Σ1 -Formeln der Sprache L1 . Die Anfangsfälle hatten wir zu Beginn
des Beweises von Satz 4.4.4 erledigt bzw. sie ergeben sich (für x + y = z und x · y = z) aus den
Rekursionsgleichungen für + und · in (4.17)-(4.20).
Fälle A ∧ B, A ∨ B. Die Behauptung folgt sofort aus der IH.
Fall ∀x<y A[x, y, z1 , . . . , zn ]; oBdA sei n = 1. Gelte also N1 |= (∀x<y A)[b, c]. Dann folgt N1 |=
A[i, b, c] für jedes i < b und deshalb nach IH Z1 ` A[i, b, c]. Nun gilt nach Satz 4.4.5
Z1 ` ∀x.∃z (x + S(z) = b) → x = 0 ∨ · · · ∨ x = b − 1,
also
Z1 ` ∀x<b A[b, c].
Fall ∃x A[x, y1 , . . . , yn ]; oBdA sei n = 1. Gelte also N1 |= (∃x A)[b]. Dann ist N1 |= A[a, b] für ein
a ∈ N, also nach IH Z1 ` A[a, b] und deshalb Z1 ` (∃x A)[b].
t
u
Sei T eine axiomatisierte konsistente Theorie mit T ⊇ Z1 . Sei BAblT wie in Abschnitt 4.3 eine L1 Formel, die die primitiv rekursive Relation AblT ⊆ N × N in Z1 repräsentiert. Wir definieren dann
L1 -Formeln ThmT [x] und Wf T durch
ThmT [x] := ∃y BAblT [y, x],
Wf T := ¬∃y BAblT [y, p⊥q].
ThmT [x] definiert also in N1 die Menge der in T beweisbaren Formeln, und es gilt N1 |= Wf T genau
dann, wenn T konsistent ist. Wir betrachten die folgenden beiden Ableitbarkeitsbedingungen für T .
T ` A → ThmT [pAq] für A geschlossene Σ1 -Formel der Sprache L1 ,
T ` ThmT [pA → Bq] ∧ ThmT [pAq] → ThmT [pBq].
(4.23)
(4.24)
(4.23) sagt aus, daß Lemma 4.5.1 (oder genauer die Aussage, daß jede in N1 gültige geschlossene Σ1 Formel der Sprache L1 in T liegt) nicht nur wahr, sondern sogar in T beweisbar ist.
Satz 4.5.2. ( Gödel-Löb). Sei T eine axiomatisierte konsistente Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt. Gilt dann T ` ThmT [pCq] → C für eine geschlossene
L1 -Formel C, so gilt schon T ` C.
Beweis. Gelte T ` ThmT [pCq] → C. Wähle A nach dem Fixpunktlemma 4.2.2 so daß
Z1 ` A ↔ (ThmT [pAq] → C).
(4.25)
Zu zeigen ist T ` C. Wir führen den Beweis informal, müssen jedoch zeigen, daß alle Schlüsse innerhalb
von T durchführbar sind. Zunächst zeigen wir
ThmT [pAq] → C.
(4.26)
Gelte also
ThmT [pAq].
Nach (4.23) folgt
ThmT [pThmT [pAq]q].
Wegen (4.25) ist die geschlossene Σ1 -Formel ThmT [pA → (ThmT [pAq] → C)q] wahr (in N1 ), und nach
Lemma 4.5.1 können wir sie auch in Z1 beweisen. Also
ThmT [pA → (ThmT [pAq] → C)q].
Zweimalige Anwendung von (4.24) ergibt
ThmT [pCq]
und damit nach Voraussetzung C. Damit ist (4.26) bewiesen.
4.6 Anmerkungen
83
Aus (4.26) erhält man jetzt A, nach (4.25).
Wir verlassen nun den informalen, innerhalb von T durchführbaren Beweis und stellen fest, daß wir
T ` A gezeigt haben. Also ist die geschlossene Σ1 -Formel ThmT [pAq] wahr (in N1 ) und damit nach
Lemma 4.5.1 auch in T beweisbar. Da andererseits auch (4.26) in T beweisbar war, ist auch C in T
u
t
beweisbar. Damit haben wir T ` C gezeigt.
Korollar 4.5.3. (Zweiter Gödelscher Unvollständigkeitssatz). Sei T eine axiomatisierte konsistente
Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt. Dann gilt T 6` Wf T .
Beweis. Setze C := ⊥ in Satz 4.5.2.
u
t
Korollar 4.5.4. Sei T eine axiomatisierte konsistente Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt. Dann ist das Reflexionsschema
ThmT [pCq] → C
mit C geschlossene L1 -Formel
unbeweisbar in T .
Beweis. Man wähle in Satz 4.5.2 ein C mit T 6` C, etwa C = ⊥.
u
t
Ein wichtiges Beispiel einer axiomatisierten konsistenten Erweiterung von Z1 , die die Ableitbarkeitsbedingungen (4.23) und (4.24) erfüllt, ist die Peano-Zahlentheorie Z (oft auch mit PA bezeichnet). Die
Sprache von Z ist wieder L1 (also gegeben durch 0, S, +, · und =), und die Axiome sind neben EqL1 die
ersten sechs Z1 -Axiome und zusätzlich das Induktionsschema
A[0] ∧ (∀x.A → A[S(x)]) → ∀x A.
4.6 Anmerkungen
Die grundlegenden Arbeiten zur Unvollständigkeit stammen von Gödel (1930[12] , 1931[13] ). Gödel
fand auch die für den Repäsentationssatz zentrale β-Funktion, und das Fixpunktlemma verwendet er
in seiner Argumentation implizit. Sein erster Unvollständigkeitssatz benutzt die Formel “ich bin nicht
beweisbar”, einen Fixpunkt von ¬ThmT [x]. Für die Unabhängigkeit dieser Aussage von der zugrunde
liegenden Theorie T wird aber die ω-Konsistenz von T benötigt (die allerdings gewährleistet ist, wenn
T eine Teiltheorie der Theorie des Standardmodells ist). Rosser hat dann (1936) die hier behandelte
Verschärfung angegeben mit der Formel “jeder Beweis von mir ist kürzer zu widerlegen”. Die Undefinierbarkeit des Wahrheitsbegriffs stammt von Tarski (1939), die Unentscheidbarkeit der Prädikaten-Logik
erster Stufe ist ein Resultat von Church (1936). Die arithmetischen Theorien R und Q (aus den Übungsaufgaben 57 und 58) stammen von R. Robinson (1950). R ist essentiell unentscheidbar, unvollständig,
genügt für den Σ1 Vollständigkeitssatz und alle rekursiven Prädikate sind in R repäsentierbar. Q ist
eine sehr natürliche Theorie und im Gegensatz zu R endlich. Q ist minimal im folgenden Sinne: Streicht
man ein Axiom, so ist die verbleibende Theorie nicht mehr essentiell unentscheidbar. (Die erste essentiell
unentscheidbare endliche Theorie der Arithmetik wurde von Mostowski und Tarski entwickelt (1939).
J. Robinson hatte bei der Lektüre des Manuskriptes die Idee der Behandlung der rekursiven Funktionen ohne das Schema der primitiven Rekursion). Wichtige Beispiele für unentscheidbare Theorien neben
dem Satz von Church sind in historischer Reihenfolge: Die Arithmetik der natürlichen Zahlen (Rosser,
1936), die Arithmetik der ganzen Zahlen (Tarski, Mostowski, 1949), die Arithmetik der rationalen
Zahlen und die Theorie der gordneten Körper (J. Robinson 1949), die Theorie der Gruppen und die
Verbandstheorie (Tarski 1949). Vielleicht ist es instruktiv, einige entscheidbare Theorien daneben zu
stellen: Die Theorie der Addition der natürlichen Zahlen (Pressburger, 1929), die der Multiplikation
(Mostowski, 1952), die Theorie der abelschen Gruppen (Szmielew, 1949), der algebraisch abgeschlossenen Körper und die der Booleschen Algebren (Tarski, 1949), die Theorie der linear geordneten Mengen
(Ehrenfeucht, 1959).
84
4. Metamathematik
5. Mengenlehre
5.1 Kumulative Typenstrukturen
Die Mengenlehre kann man als einen Rahmen auffassen, innerhalb dessen man Mathematik begründen
und betreiben kann. Wir wollen die Mengenlehre hier als eine formale Theorie der mathematischen Logik
entwickeln. Zunächst ist es jedoch notwendig, sich eine inhaltliche Vorstellung des durch die Axiome zu
beschreibenden Mengenbegriffs zu verschaffen. Cantor gab 1895 die folgende Definition:
Unter einer “Menge” verstehen wir jede Zusammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer Anschauung oder unseres Denkens (welche die Elemente von M genannt
werden) zu einem Ganzen.
Man kann versuchen, diese Definition wie folgt zu präzisieren. Sei V die Gesamtheit aller Objekte unserer
Anschauung oder unseres Denkens. Mit A(x) bezeichnen wir Eigenschaften von Objekten x aus V . Dann
kann man { x | A(x) } bilden, die Menge aller Objekte x aus V mit der Eigenschaft A(x). Aufgrund von
Cantors Definiton ist { x | A(x) } wieder ein Objekt aus V .
Beispiele für Eigenschaften: (1) x ist natürliche Zahl. (2) x ist Menge. (3) x ist Punkt, y ist Gerade
und x liegt auf y. (4) y ist Menge und x ist Element von y, kurz: Mg(y) ∧ x ∈ y.
Cantors Definiton ist jedoch in ihrer ursprünglichen Form nicht haltbar, da sie zu Widersprüchen
/ x }.
führt. Am bekanntesten ist die sogenannte Russellsche Antinomie: Sei x0 := { x | Mg(x) ∧ x ∈
Dann gilt
x0 ∈ x0 ↔ Mg(x0 ) ∧ x0 ∈
/ x0 ↔ x0 ∈
/ x0 ,
denn x0 ist Menge.
Der Grund für diesen Widerspruch liegt darin, daß man von der Vorstellung einer fertigen Gesamtheit
aller Mengen ausgeht. Dies ist aber weder notwendig noch entspricht es dem Vorgehen in der Mathematik.
Es reicht vollkommen aus, wenn man eine Menge nur dann bildet, wenn ihre Elemente bereits “zur
Verfügung stehen”. Dies führt auf eine Vorstellung einer stufenweisen Konstruktion von Mengen oder
genauer auf die kumulative Typenstruktur : Man beginnt mit vorgegebenen Urelementen, die die Mengen
der Stufe 0 bilden. Auf einer beliebigen Stufe kann man dann alle Mengen bilden, deren Elemente früheren
Stufen angehören.
Wählt man zum Beispiel als Urelemente die natürlichen Zahlen, so gehört {27, {5}} zur Stufe 2.
Es stellen sich die folgenden natürlichen Fragen: (1) Welche Urelemente soll man wählen? (2) Wie
weit reichen die Stufen?
Zu (1). Für die Zwecke der Mathematik ist es ausreichend, überhaupt keine Urelemente vorauszusetzen; man spricht dann von reinen Mengen. Dies wollen wir im folgenden tun.
Stufe 0:
Stufe 1:
Stufe 2:
Stufe 3:
−
∅
∅, {∅}
∅, {∅}, {{∅}}, {∅, {∅}}
und so weiter.
Zu (2). Shoenfield hat in [34] das folgende Prinzip formuliert.
Shoenfield-Prinzip. Man betrachte eine Gesamtheit S von Stufen. Kann man sich eine Situation
vorstellen, in der alle Stufen aus S konstruiert sind, so soll es eine Stufe geben, die nach allen Stufen aus
S kommt.
86
5. Mengenlehre
Aus diesem vagen Prinzip lassen sich exakte Folgerungen ziehen, die wir als Axiome fixieren werden.
Unter einer Menge wollen wir also inhaltlich ein Objekt verstehen, das zu einer Stufe der kumulative
Typenstruktur gehört. Unter einer Klasse verstehen wir eine beliebige Gesamtheit von Mengen.
Jede Menge ist also eine Klasse. Ferner gibt es Klassen, die keine Mengen sind, z.B. die Klasse V aller
Mengen.
5.2 Axiomatische Mengenlehre
Wie in jeder axiomatischen Theorie müssen wir auch in der Mengenlehre sämtliche benötigten Eigenschaften, auch die anscheinend selbstverständlichen, explizit durch Axiome angeben.
Die Sprache der Mengenlehre enthält als einziges nichtlogisches Symbol die Elementbeziehung ∈.
Atomare Formeln sind also nur x ∈ y (x ist Element von y). Die Gleichheit x = y wird definiert durch
x = y := ∀z.z ∈ x ↔ z ∈ y.
Um die Verträglichkeit der ∈-Relation mit der Gleichheit sicherzustellen benötigen wir ein erstes Axiom.
Axiom 1. (Extensionalitätsaxiom).
∀x, y, z.x = y ∧ x ∈ z → y ∈ z.
Anmerkung. Will man die Gleichheit als Grundsymbol der Sprache verwenden, so muß man neben den
Gleichheitsaxiomen fordern
∀x, y.(∀z.z ∈ x ↔ z ∈ y) → x = y.
Als Klassen lassen wir in unserer axiomatischen Theorie nur definierbare Gesamtheiten von Mengen zu.
Unter “definierbar” verstehen wir definierbar durch eine Formel der Sprache der Mengenlehre. Genauer:
Ist A(x) eine Formel, in der die hervorgehobene Mengenvariable x und eventuell weitere Mengenvariablen
(sog. Parameter) vorkommen können, so heißt
{ x | A(x) }
die Klasse aller Mengen x mit der Eigenschaft A(x).
Statt mit Klassen könnten wir also auch mit Eigenschaften oder genauer mit Formeln arbeiten. Mit
Klassen lassen sich aber viele Aussagen einfacher und suggestiver formulieren.
Ist A(x) die Formel x = x, so heißt { x | A(x) } die Allklasse oder das (mengentheoretische) Universum.
Ist A(x) die Formel x ∈
/ x, so heißt { x | A(x) } die Russellklasse.
Wir geben jetzt einige im folgenden ständig verwendete Definitionen. Eine Menge b ist genau dann
Element der Klasse { x | A(x) }, wenn A(b) gilt:
b ∈ { x | A(x) } := A(b).
Zwei Klassen A, B heißen gleich, wenn sie dieselben Elemente enthalten:
A = B := ∀x.x ∈ A ↔ x ∈ B.
Ist A eine Klasse und b eine Menge, so heißen A und b gleich, wenn sie dieselben Elemente enthalten:
A = b := ∀x.x ∈ A ↔ x ∈ b.
Wir identifizieren dann die Klasse A mit dieser Menge b. Statt “A ist Menge” kann man auch schreiben
A ∈ V . Eine Klasse B ist Element einer Menge a (bzw. einer Klasse A), wenn B gleich einem Element x
von a (bzw. von A) ist:
B ∈ a := ∃x.x ∈ a ∧ B = x,
B ∈ A := ∃x.x ∈ A ∧ B = x.
Eine Klasse A heißt echte Klasse, wenn A keine Menge ist:
A echte Klasse := ∀x(x 6= A).
5.2 Axiomatische Mengenlehre
87
Anmerkung. Jede Menge b ist eine Klasse, denn
b = { x | x ∈ b }.
/ x } = x0 , so hätte man
Die Russellklasse ist eine echte Klasse, denn wäre { x | x ∈
x0 ∈ x0 ↔ x0 ∈
/ x0 .
Die Russel-Konstruktion ist also nun keine Antinomie mehr, sondern besagt einfach: Es gibt Mengen
und (echte) Klassen.
Seien A, B Klassen (also echte Klassen oder Mengen) und a, b, a1 , . . . , an Mengen. Wir definieren
{a1 , . . . , an } := { x | x = a1 ∨ . . . ∨ x = an },
∅ := { x | x =
6 x}
V := { x | x = x }
A ⊆ B := ∀x.x ∈ A → x ∈ B
leere Klasse,
Allklasse,
A ist Teilklasse von B,
A ( B := A ⊆ B ∧ A 6= B
A ∩ B := { x | x ∈ A ∧ x ∈ B }
A ist echte Teilklasse von B,
Durchschnitt,
A ∪ B := { x | x ∈ A ∨ x ∈ B }
A \ B := { x | x ∈ A ∧ x ∈
/ B}
[
A := { x | ∃y.y ∈ A ∧ x ∈ y }
\
A := { x | ∀y.y ∈ A → x ∈ y }
Vereinigung,
Differenz,
große Vereinigung,
großer Durchschnitt,
P(A) := { x | x ⊆ A }
Potenzklasse von A,
(a, b) := { x | x = {a} ∨ x = { a, b | }}
(geordnetes) Paar (Kuratowski-Paar.)
T
T
S
Insbesondere ist a ∪ b = {a, b} und a ∩ b = {a, b}, und ∅ ist die Allklasse. Ferner ist P(A) die Klasse
aller Teilklassen von A, die Mengen sind.
Um sicherzustellen, daß (a, b) nicht die leere Klasse ist, müssen wir axiomatisch fordern, daß {a} und
{a, b} Mengen sind. Also
Axiom 2. (Paarmengenaxiom).
∀x, y({x, y} ist Menge).
In der kumulativen Typenstruktur ist das Paarmengenaxiom offenbar gültig, da es zu je zwei Stufen
S1 und S2 nach dem Shoenfield-Prinzip eine Stufe S geben muß, die nach S1 und S2 kommt.
Ausgeschrieben lautet das Paarmengenaxiom: ∀x∀y∃z∀u.u ∈ z ↔ u = x ∨ u = y. Insbesondere folgt
aus dem Paarmengenaxiom, daß für jede Menge x die Einermenge {x} eine Menge ist. Ferner folgt, daß
(a, b) = {{a}, {a, b}} Menge ist.
Weiter definieren wir
{ (x, y) | A(x, y) } := { z | ∃x, y.A(x, y) ∧ z = (x, y) }
kartesisches Produkt von A und B,
A × B := { (x, y) | x ∈ A ∧ y ∈ B }
dom(A) := { x | ∃y ((x, y) ∈ A) }
Definitionsbereich von A,
Wertebereich von A,
rng(A) := { y | ∃x ((x, y) ∈ A) }
Einschränkung von A auf B,
A–B := { (x, y) | (x, y) ∈ A ∧ x ∈ B }
A[B] := { y | ∃x.x ∈ B ∧ (x, y) ∈ A }
Bild von B unter A,
A−1 := { (y, x) | (x, y) ∈ A },
A ◦ B := { (x, z) | ∃y.(x, y) ∈ B ∧ (y, z) ∈ A }
Inverses von A,
Verkettung von A und B.
Jetzt kann man ohne Mühe die üblichen Begriffe betreffend Relationen und Funktionen einführen.
Für Klassen A, B und C definieren wir
88
5. Mengenlehre
1. A ist Relation genau dann, wenn A ⊆ V × V . Eine Relation ist also eine Klasse von Paaren. Statt
(a, b) ∈ A schreiben wir auch aAb.
2. A ist Relation auf B genau dann, wenn A ⊆ B × B.
3. A ist Funktion genau dann, wenn A Relation ist und
∀x, y, z.(x, y) ∈ A ∧ (x, z) ∈ A → y = z.
Eine Funktion ist also eine rechtseindeutige Relation.
4. A : B → C genau dann, wenn A Funktion ist mit dom(A) = B und A[B] ⊆ C. A heißt dann Funktion
von B nach C.
5. A : B →auf C genau dann, wenn A : B → C und A[B] = C. A heißt dann surjektive Funktion von B
auf C.
6. A ist injektiv genau dann, wenn A und A−1 Funktionen sind.
7. A : B ↔ C genau dann, wenn A : B →auf C und A injektiv ist. A heißt dann bijektive Funktion von B
auf C.
Für den weiteren Aufbau der Mengenlehre sind die folgenden Axiome notwendig.
Axiom 3. (Vereinigungsmengenaxiom).
S
∀x ( x ist Menge).
Das Vereinigungsmengenaxiom ist gültig in der kumulativen Typenstruktur. Um dies zu sehen, betrachte man eine Stufe S, in der x gebildet ist. Ein beliebiges Element v ∈ x steht dann bereits in einer
ist jedes ElementSu ∈ v in einer vor Sv liegenden Stufe Sv,u
früheren Stufe Sv zur Verfügung. Ebenso
S
vorhanden. Alle diese u bilden aber x. Damit kann auch x auf der Stufe S gebildet werden.
Wir können jetzt die obige Definition fortsetzen durch
S
8. A(x) := { y | (x, y) ∈ A }.
S
Ist A eine Funktion und (x, y) ∈ A, so ist A(x) = {y} = y und wir schreiben A : x 7→ y.
Axiom 4. (Aussonderungsschema). Für jede Klasse A gilt (die Generalisierung von)
A ⊆ x → ∃y (A = y).
Das Aussonderungsschema sagt also aus, daß jede Teilklasse A einer Menge x selbst eine Menge ist.
Es ist gültig in der kumulativen Typenstruktur, denn auf derselben Stufe, auf der die Menge x gebildet
ist, kann man auch die Menge y bilden, deren Elemente gerade die Elemente der Klasse A sind. – Man
beachte, daß das Aussonderungsschema aus unendlich vielen Axiomen besteht.
Axiom 5. (Potenzmengenaxiom).
∀x (P(x) ist Menge).
Das Potenzmengenaxiom ist gültig in der kumulativen Typenstruktur. Um dies zu sehen, betrachte
man eine Stufe S, auf der x gebildet ist. Dann ist auch jede Teilmenge y ⊆ x auf der Stufe S gebildet.
Auf der (nach dem Shoenfield-Prinzip existierenden) nächsten Stufe S 0 kann man also P(x) bilden.
Lemma 5.2.1. ∀a, b (a × b ist Menge)..
Beweis. Wir zeigen a × b ⊆ P(P(a ∪ b)). Seien also x ∈ a und y ∈ b. Dann gilt
{x}, {x, y} ⊆ a ∪ b
{x}, {x, y} ∈ P(a ∪ b)
{ {x}, {x, y} } ⊆ P(a ∪ b)
(x, y) = { {x}, {x, y} } ∈ P(P(a ∪ b))
Die Behauptung folgt mit dem Vereinigungsmengenaxiom, dem Paarmengenaxiom, dem Potenzmengenaxiom und dem Aussonderungsschema.
t
u
5.3 Rekursion, Induktion, Ordinalzahlen
89
Axiom 6. (Ersetzungsschema). Für jede Klasse A gilt
A ist Funktion → ∀x (A[x] ist Menge)
Auch das Ersetzungsschema ist gültig in der kumulativen Typenstruktur; dies ist allerdings nur mit
etwas mehr Mühe einzusehen. Man betrachte alle Elemente u der Menge x∩dom(A). Für jedes solche u ist
A(u) eine Menge und deshalb auf einer Stufe Su der kumulativen Typenstruktur gebildet. Da x ∩ dom(A)
eine Menge ist, kann man sich eine Situation vorstellen, in der alle Su für u ∈ x ∩ dom(A) konstruiert
sind. Nach dem Shoenfield-Prinzip gibt es also auch eine Stufe S nach allen Su . In S kann A[x] gebildet
werden.
Lemma 5.2.2. Aus dem Ersetzungsschema folgt das Aussonderungsschema.
Beweis. Sei A ⊆ x und B := { (u, v) | u = v ∧ u ∈ A }. Dann ist B Funktion und es gilt B[x] = A.
u
t
Damit sind die Axiome der Mengenlehre noch nicht vollständig angegeben: wir werden später noch
das Unendlichkeitsaxiom, das Regularitätsaxiom und das Auswahlaxiom fordern.
5.3 Rekursion, Induktion, Ordinalzahlen
Wir beginnen damit, einen möglichst allgemeinen Rahmen für rekursive Definitionen und induktive Beweise abzustecken. Es wird sich zeigen, daß beides über sog. fundierten Relationen möglich ist. Um dies
zu zeigen, führen wir als Hilfsbegriff den einer transitiv fundierten Relation ein; er wird sich später
als äquivalent zu dem einer fundierten Relation erweisen. Wir definieren dann die natürlichen Zahlen
im Rahmen der Mengenlehre, wobei wir Induktion und Rekursion als Spezialfälle der entsprechenden
allgemeinen Sätze für transitiv fundierte Relationen erhalten. Durch Rekursion über natürliche Zahlen
können wir dann die transitive Hülle einer Menge einführen, und mit Hilfe dieses Begriffs zeigen wir, daß
die fundierten Relationen mit den transitiv fundierten Relationen übereinstimmen.
Anschließend untersuchen wir spezielle fundierte Relationen. Zunächst zeigen wir, daß beliebige Klassen mit der ∈-Relation bis auf Isomorphie die einzigen fundierten extensionalen Relationen sind (Isomorphiesatz von Mostowski). Dann betrachten wir lineare fundierte Ordnungen, kurz Wohlordnungen. Da
sie stets extensional sind, sind sie alle zu gewissen Klassen mit der ∈-Relation isomorph, die wir ordinale
Klassen nennen. Ordinalzahlen sind dann die ordinalen Mengen.
Rekursion über transitiv fundierte Relationen
Mit A, B, C bezeichnen wir immer Klassen. Für eine beliebige Relation R auf A definieren wir
1. x̂R = { y | yRx } heißt die Klasse der R-Vorgänger von x. Im folgenden schreiben wir x̂ statt x̂R ,
wenn R aus dem Zusammenhang klar ist.
2. B ⊆ A heißt R-transitiv, wenn
∀x.x ∈ B → x̂ ⊆ B.
B ⊆ A ist also R-transitiv genau dann, wenn aus yRx und x ∈ B stets folgt y ∈ B.
3. Sei B ⊆ A. x ∈ B heißt R-minimales Element von B, wenn x̂ ∩ B = ∅.
4. R heißt transitiv fundierte Relation auf A, wenn gilt
a. Jede nichtleere Teilmenge von A besitzt ein R-minimales Element, d.h.
∀a.a ⊆ A ∧ a 6= ∅ → ∃x.x ∈ a ∧ x̂ ∩ a = ∅.
b. Zu jedem x ∈ A gibt es eine R-transitive Menge b ⊆ A mit x̂ ⊆ b.
Bei allen diesen Begriffen wird im folgenden R weggelassen, wie bereits oben für x̂ geschehen.
90
5. Mengenlehre
Anmerkung. Sei R eine Relation auf A. R heißt transitive Relation auf A, wenn für alle x, y, z ∈ A gilt
xRy ∧ yRz → xRz.
Zum Begriff der R-Transitivität von Klassen besteht folgender Zusammenhang. Sei R eine Relation auf
A. Dann gilt
R ist transitive Relation auf A ↔ für jedes y ∈ A gilt: y ist R-transitiv.
Beweis. : →. Sei R transitive Relation auf A, y ∈ A und x ∈ ŷ, also xRy. Zu zeigen ist x̂ ⊆ ŷ. Sei also
zRx. Zu zeigen ist zRy. Dies folgt aber aus der Transitivität von R. ←. Seien x, y, z ∈ A, xRy und yRz.
Zu zeigen ist xRz. Es gilt also xRy und y ∈ ẑ. Da ẑ R-transitiv ist, folgt x ∈ ẑ, also xRz.
u
t
Lemma 5.3.1. Sei R transitiv fundierte Relation auf A. Dann gilt
1. Jede nichtleere Teilklasse B ⊆ A hat ein R-minimales Element.
2. ∀x.x∈A → x̂ ist Menge.
Beweis. 1. Sei B ⊆ A und z ∈ B. OBdA ist z nicht B-minimal, d.h. ẑ ∩ B 6= ∅. Nach 4b existiert eine
R-transitive Obermenge b ⊆ A von ẑ. Wegen ẑ ∩ B 6= ∅ ist b ∩ B 6= ∅. Nach 4a existiert ein R-minimales
x ∈ b ∩ B, d.h. x̂ ∩ b ∩ B = ∅. Da b R-transitiv ist, folgt aus x ∈ b sofort x̂ ⊆ b. Also ist x̂ ∩ B = ∅ und
damit x R-minimales Element von B.
2. Dies folgt wegen 4b aus dem Aussonderungsschema.
u
t
Wir schreiben ∀x∈A . . . für ∀x.x ∈ A → . . . und entsprechend ∃x∈A . . . für ∃x.x ∈ A ∧ . . . .
Satz 5.3.2. (Induktionssatz). Sei R eine transitiv fundierte Relation auf A und B eine beliebige Klasse.
Gilt dann
∀x∈A.x̂ ⊆ B → x ∈ B,
so folgt A ⊆ B.
Beweis. Annahme: A \ B 6= ∅. Sei x minimales Element von A \ B. Es genügt, x̂ ⊆ B zu zeigen, denn
/ A \ B,
daraus folgt nach Annahme x ∈ B, also ein Widerspruch. Sei z ∈ x̂. Nach Wahl von x folgt z ∈
also z ∈ B (denn z ∈ A gilt, da R eine Relation auf A ist).
u
t
Satz 5.3.3. (Rekursionssatz). Sei R eine transitiv fundierte Relation auf A und G : V → V . Dann gibt
es genau eine Funktion F : A → V mit
€

∀x∈A F(x) = G(F–x̂) .
Beweis. Man beachte zunächst, daß für F : A → V gilt F–x̂ ⊆ x̂ × F[x̂] und damit F–x̂ eine Menge ist.
Eindeutigkeit. Gegeben F1 , F2 . Betrachte
{ x | x ∈ A ∧ F1 (x) = F2 (x) } =: B.
Nach dem Induktionssatz genügt es zu zeigen ∀x∈A.x̂ ⊆ B → x ∈ B. Sei also x ∈ A und x̂ ⊆ B. Dann
gilt
F1 –x̂ = F2 –x̂
G (F1 –x̂) = G (F2 –x̂)
F1 (x) = F2 (x)
x ∈ B.
Existenz. Sei
und

€
B := { f | f Funktion, dom(f ) R-transitive Teilmenge von A und ∀x∈dom(f ) f (x) = G(f –x̂) }
F :=
[
B.
5.3 Rekursion, Induktion, Ordinalzahlen
91
Wir beweisen zunächst, daß
f, g ∈ B ∧ x ∈ dom(f ) ∩ dom(g) → f (x) = g(x).
Seien also f, g ∈ B. Wir zeigen die Behauptung durch Induktion über x, d.h. durch Anwendung des
Induktionssatzes auf
{ x | x ∈ dom(f ) ∩ dom(g) → f (x) = g(x) }.
Sei also x ∈ dom(f ) ∩ dom(g). Dann gilt
x̂ ⊆ dom(f ) ∩ dom(g),
f –x̂ = g–x̂
da dom(f ), dom(g) R-transitiv
nach IH
G (f –x̂) = G (g–x̂)
f (x) = g(x).
Damit ist gezeigt, daß F eine Funktion ist.
Hieraus ergibt sich unmittelbar f ∈ B ∧ x ∈ dom(f ) → F (x) = f (x); wir haben also gezeigt, daß
F(x) = G (F–x̂)
für alle x ∈ dom(F ).
(5.1)
Wir beweisen jetzt
dom(F) = A.
⊆ ist klar. ⊇. Wir verwenden den Induktionssatz. Sei also ŷ ⊆ dom(F ). Zu zeigen ist y ∈ dom(F). Wir
führen den Beweis indirekt und nehmen y ∈
/ dom(F) an. Sei b R-transitiv mit ŷ ⊆ b ⊆ A. Setze
g := F–b ∪ { (y, G(F–ŷ)) }.
Es genügt offenbar, g ∈ B zu zeigen, denn wegen y ∈ dom(g) folgt daraus y ∈ dom(F) und damit der
gesuchte Widerspruch.
g Funktion: Dies ist klar, da y ∈
/ dom(F) nach Annahme.
dom(g) R-transitiv: Es ist dom(g) = (b ∩ dom(F )) ∪ {y}. Man beachte zunächst, daß dom(F) als
Vereinigung R-transitiver Mengen selbst R-transitiv ist. Da ferner b R-transitiv ist, ist auch b ∩ dom(F)
R-transitiv. Sei nun zRx und x ∈ dom(g). Zu zeigen: z ∈ dom(g). Im Fall x ∈ b ∩ dom(F ) ist auch
z ∈ b ∩ dom(F ) (da wie eben bemerkt b ∩ dom(F) R-transitiv ist), also z ∈ dom(g). Im Fall x = y ist
z ∈ ŷ, also z ∈ €b und z ∈ dom(F)
 nach Wahl von y, also wieder z ∈ dom(g).
∀x∈dom(g) g(x) = G(g–x̂) : Im Fall x ∈ b ∩ dom(F ) ist
g(x) = F(x)
= G(F–x̂) nach (5.1)
= G(g–x̂)
da x̂ ⊆ b ∩ dom(F), denn b ∩ dom(F ) ist R-transitiv.
Im Fall x = y ist g(x) = G(F –x̂) = G(g–x̂), da x̂ = ŷ ⊆ b ∩ dom(F) nach Wahl von y.
u
t
Natürliche Zahlen
Zermelo hat die natürlichen Zahlen wie folgt in der Mengenlehre definiert: 0 = ∅, 1 = {∅}, 2 = {{∅}},
3 = {{{∅}}} und so weiter. Ein gravierender Nachteil dieser Definition ist, daß man sie nicht ins Transfinite
verallgemeinern kann. Deshalb hat J. von Neumann vorgeschlagen, die Zahl n darzustellen durch eine
Menge aus genau n Elementen, und zwar durch
n := { 0, 1, . . . , n − 1 }.
Also
0=∅
n + 1 = { 0, 1, . . . , n }
= { 0, 1, . . . , n − 1 } ∪ {n}
92
5. Mengenlehre
Wir definieren deshalb allgemein
0 := ∅,
x + 1 := x ∪ {x}.
Speziell setzen wir 1 := 0 + 1, 2 := 1 + 1, 3 := 2 + 1.
Die Klasse aller so konstruierten natürlichen Zahlen soll eine Menge sein. Dazu brauchen wir ein
weiteres Axiom.
Axiom 7. (Unendlichkeitsaxiom).
∃x.∅ ∈ x ∧ ∀y.y ∈ x → y ∪ {y} ∈ x.
Wir nennen eine Klasse A induktiv , wenn
∅ ∈ A ∧ ∀y.y ∈ A → y ∪ {y} ∈ A.
Das Unendlichkeitsaxiom sagt also aus: Es gibt eine induktive Menge. Ferner setzen wir
\
ω := { x | x ist induktiv }.
Offenbar ist ω ist eine Menge und es gilt 0 ∈ ω und y ∈ ω → y + 1 ∈ ω. ω heißt die Menge der natürlichen
Zahlen.
Mit n, m bezeichnen wir natürliche Zahlen. Insbesondere steht ∀n A(n) für ∀x.x ∈ ω → A(x), ebenso
∃n A(n) für ∃x.x ∈ ω ∧ A(x) und { n | A(n) } für { x | x ∈ ω ∧ A(x) }.
Satz 5.3.4. (Induktion über ω).
1. x ⊆ ω ∧ 0 ∈ x ∧ (∀n.n ∈ x → n + 1 ∈ x) → x = ω.
2. Für jede Formel A(x) gilt
A(0) ∧ (∀n.A(n) → A(n + 1)) → ∀nA(n).
Beweis. 1. x ist induktiv, also ω ⊆ x. 2. Sei A := { n | A(n) }. Dann gilt A ⊆ ω (also A ist Menge),
0 ∈ A,
n ∈ A → n + 1 ∈ A.
Nach Teil 1 folgt A = ω.
u
t
Wir zeigen jetzt, daß für natürliche Zahlen die Relation ∈ die Eigenschaften von < und die Relation
⊆ die Eigenschaften von ≤ hat.
Eine Klasse A heißt transitiv , wenn A bezüglich der speziellen Relation E := { (x, y) | x ∈ y } auf V
E-transitiv ist, d.h. wenn gilt ∀x.x ∈ A → x ⊆ A. A ist also transitiv genau dann, wenn
∀x, y.y ∈ x ∈ A → y ∈ A.
Lemma 5.3.5. 1. n ist transitiv.
2. ω ist transitiv.
Beweis. 1. Induktion nach n. 0 ist transitiv. n → n + 1. Nach IH ist n transitiv. Zu zeigen: n + 1 ist
transitiv. Sei
y ∈x∈n+1
y ∈ x ∈ n ∪ {n}
y ∈x∈n∨y ∈x=n
y ∈n∨y ∈n
y ∈ n ∪ {n} = n + 1.
5.3 Rekursion, Induktion, Ordinalzahlen
93
2. Gezeigt wird ∀x.x ∈ n → x ∈ ω durch Induktion nach n. 0: Klar. n → n + 1. Nach IH gilt
∀x.x ∈ n → x ∈ ω. Sei
x∈n+1
x∈n∨x=n
x ∈ ω.
u
t
Lemma 5.3.6. n ∈
/ n.
Beweis. Induktion nach n. 0. Klar. n → n + 1: Nach IH ist n ∈
/ n. Annahme:
n+1∈n+1
n+1∈n∨n+1=n
n∈n+1∈n∨n∈n+1=n
n∈n
denn n ist nach Lemma 5.3.5(1)transitiv.
Dies ist ein Widerspruch zur IH.
u
t
Lemma 5.3.7. 1. n ⊆ m + 1 ↔ n ⊆ m ∨ n = m + 1.
2. n ⊆ m ↔ n ∈ m ∨ n = m.
3. n ⊆ m ∨ m ⊆ n.
4. n ∈ m ∨ n = m ∨ m ∈ n.
Beweis. 1. ← folgt aus m ⊆ m + 1. →. Fall m ∈ n. Wir zeigen n = m + 1. ⊆ gilt nach Voraussetzung. ⊇.
p∈m+1
p∈m∨p=m
p ∈ n.
Fall m ∈
/ n. Wir zeigen n ⊆ m.
p∈n
p∈m+1
p ∈ m ∨ p = m,
/ n.
aber p = m ist unmöglich wegen m ∈
2. ← folgt aus der Transitivität von m. →. Induktion nach m. 0. Klar. m → m + 1.
n⊆m+1
n⊆m∨n=m+1
n∈m∨n=m∨n=m+1
n ∈ m + 1 ∨ n = m + 1.
nach (1)
nach IH
3. Induktion nach n. 0. Klar. n → n + 1: Fall m ⊆ n. Klar. Fall n ⊆ m. Dann gilt
n∈m∨n=m
n, {n} ⊆ m ∨ m ⊆ n + 1
n+1⊆m∨m⊆n+1
4. Folgt aus (3) und (2).
Satz 5.3.8. (Peano-Axiome).
1. n + 1 6= ∅.
2. n + 1 = m + 1 → n = m.
3. x ⊆ ω ∧ 0 ∈ x ∧ (∀n.n ∈ x → n + 1 ∈ x) → x = ω.
nach (2)
u
t
94
5. Mengenlehre
Beweis. 1. Klar. 3. Dies wurde eben als Satz 5.3.4(1) bewiesen. 2.
n+1=m+1
n∈m+1∧m∈n+1
(n ∈ m ∧ m ∈ n) ∨ n = m
n∈n∨n=m
n = m.
t
u
Wir behandeln jetzt noch verschiedene Formen der Induktion.
Satz 5.3.9. (Induktion über ω mit Rückgriff auf sämtliche Vorgänger).
1. x ⊆ ω ∧ [∀n.(∀m.m ∈ n → m ∈ x) → n ∈ x] → x = ω.
2. [∀n.(∀m.m ∈ n → A(m)) → A(n)] → ∀nA(n).
Beweis. 2. Gelte ∀n.(∀m.m ∈ n → A(m)) → A(n); man sagt in diesem Fall, daß A(n) progressiv ist.
Gezeigt wird ∀m.m ∈ n → A(m) durch Induktion nach n. 0. Klar. n → n + 1. Nach IH gilt ∀m.m ∈ n →
A(m). Sei also m ∈ n + 1. Dann gilt m ∈ n ∨ m = n. Im Fall m ∈ n folgt A(m) nach IH, und im Fall
m = n folgt A(n) aus der Progressivität von A mit der IH.
1. Aus (2) mit A(y) := y ∈ x.
u
t
Satz 5.3.10. (Prinzip vom kleinsten Element für ω).
1. ∅ 6= x ⊆ ω → ∃n.n ∈ x ∧ n ∩ x = ∅.
2. ∃nA(n) → ∃n.A(n) ∧ ¬∃m.m ∈ n ∧ A(m).
Beweis. 2. Es gilt nach Satz 5.3.9(2)
[∀n.(∀m.m ∈ n → ¬A(m)) → ¬A(n)] → ∀n¬A(n).
Kontraposition ergibt
∃nA(n) → ∃n.A(n) ∧ ∀m.m ∈ n → ¬A(m)
∃nA(n) → ∃n.A(n) ∧ ¬∃m.m ∈ n ∧ A(m).
1. Aus (2) mit A(y) := y ∈ x.
u
t
Wir kommen jetzt zur Rekursion über den natürlichen Zahlen, die wir als Spezialfall des Rekursionssatzes 5.3.3 behandeln können. Wir identifizieren dazu ∈ mit der Relation E = { (x, y) | x ∈ y } und
zeigen folgendes Lemma.
Lemma 5.3.11. ∈ ∩(ω × ω) ist eine transitiv fundierte Relation auf ω.
Beweis. Wir zeigen beide Bedingungen aus der Definition transitiv fundierter Relationen. a. Sei ∅ 6= a ⊆
ω. Zu zeigen ∃n.n ∈ a ∧ n ∩ a = ∅. Das ist obiges Prinzip vom kleinsten Element. b. Klar, da n transitiv
ist.
u
t
Satz 5.3.12. (Rekursion über ω mit Rückgriff auf sämtliche Vorgänger). Sei G : V → V . Dann gibt es
genau eine Funktion f : ω → V mit
∀n (f (n) = G(f –n)).
Beweis. Nach dem Rekursionssatz 5.3.3 gibt es ein eindeutig bestimmtes F : ω → V mit ∀n (F (n) =
G(F –n)). Nach dem Ersetzungsschema ist rng(F) = F[ω] eine Menge. Nach Lemma 5.2.1 und dem
Aussonderungsschema ist damit auch F ⊆ ω × F [ω] eine Menge.
u
t
Korollar 5.3.13. (Rekursion über ω). Sei G : V → V und a eine Menge. Dann gibt es genau eine
Funktion f : ω → V mit
f (0) = a,
∀n (f (n + 1) = G(f (n))).
5.3 Rekursion, Induktion, Ordinalzahlen
95
S
(n + 1) = n ist wegen
[
x ∈ (n + 1) ↔ ∃y.x ∈ y ∈ n + 1
Beweis. Man beachte zunächst, daß
↔ ∃m.x ∈ m ∈ n + 1
↔ ∃m.x ∈ m ⊆ n
↔ x ∈ n.
Ansatz: Zu dem gegebenen G finde man ein G 0 mit G 0 (f –n + 1) = G(f (n)). Wir definieren eine Funktion
G 0 : V → V mit
(
S
G(x( dom(x))), falls x =
6 ∅;
0
G (x) =
falls x = ∅,
a,
und zwar durch
G 0 = { (x, y) | (x 6= ∅ → y = G(x
Dann gibt es genau eine Funktion f : ω → V mit
[
dom(x))) ∧ (x = ∅ → y = a) }.
f (n + 1) = G 0 (f –n + 1)
[
= G((f –n + 1)( (n + 1)))
| {z }
n
= G(f (n)),
f (0) = G 0 ( f –0 )
|{z}
= a.
∅
u
t
Wir definieren jetzt
sm (0) = m,
sm (n + 1) = sm (n) + 1.
Nach Korollar 5.3.13 existiert für jedes m eine solche Funktion, und sie ist eindeutig bestimmt. Weiter
definieren wir
m + n := sm (n).
Wegen sm (1) = sm (0 + 1) = sm (0) + 1 = m + 1 verträgt sich diese Definition für n = 1 mit der bisherigen
Terminologie. Ferner gilt m + 0 = m und m + (n + 1) = (m + n) + 1.
Lemma 5.3.14. 1. m + n ∈ ω.
2. (m + n) + p = m + (n + p).
3. m + n = n + m.
Beweis. 1. Induktion nach n. 0. Klar. n → n + 1. m + (n + 1) = (m + n) + 1, und nach IH ist m + n ∈ ω.
2. Induktion nach p. 0. Klar. p → p + 1.
(m + n) + (p + 1) = [(m + n) + p] + 1 nach Definition
= [m + (n + p)] + 1 nach IH
= m + [(n + p) + 1]
= m + [n + (p + 1)].
3. Zunächst zeigen wir zwei Hilfsaussagen.
(i) 0 + n = n. Beweis durch Induktion nach n. 0. Klar. n → n + 1. 0 + (n + 1) = (0 + n) + 1 = n + 1.
(ii) (m + 1) + n = (m + n) + 1. Beweis durch Induktion nach n. 0. Klar. n → n + 1.
(m + 1) + (n + 1) = [(m + 1) + n] + 1
= [(m + n) + 1] + 1 nach IH
= [m + (n + 1)] + 1.
96
5. Mengenlehre
Jetzt ergibt sich die Behauptung m + n = n + m durch Induktion nach m. 0. Nach (i). m → m + 1.
(m + 1) + n = (m + n) + 1 nach (ii)
= (n + m) + 1 nach IH
= n + (m + 1).
u
t
Wir definieren
pm (0) = 0,
pm (n + 1) = pm (n) + m.
Nach Korollar 5.3.13 existiert wieder für jedes m eine eindeutig bestimmte solche Funktion. Gebraucht
wird hier
G : V → V,
(
x + m,
G(x) =
∅,
falls x ∈ ω;
sonst.
Schließlich definieren wir m · n := pm (n). Man beachte, daß hieraus folgt m · 0 = 0, m · (n + 1) = m · n + m.
Lemma 5.3.15. 1. m · n ∈ ω.
2. m · (n + p) = m · n + m · p.
3. (n + p) · m = n · m + p · m.
4. (m · n) · p = m · (n · p).
5. 0 · n = 0, 1 · n = n, m · n = n · m.
Beweis. Übung.
t
u
Anmerkung. nm , m − n lassen sich ähnlich behandeln; später (in der Ordinalzahlarithmetik) werden wir
dies allgemeiner durchführen. - Man kann jetzt leicht auf die bekannte Weise ganze, rationale, reelle und
komplexe Zahlen definieren und ihre elementaren Eigenschaften beweisen.
Transitive Hülle
Wir definieren die R-transitive Hülle einer Menge a, und zwar bezüglich einer Relation R mit der Eigenschaft, daß die R-Vorgänger eines beliebigen Elements ihres Bereichs eine Menge bilden.
Satz 5.3.16. Sei R eine Relation auf A derart daß x̂R (:= { y | yRx }) für jedes x ∈ A eine Menge ist.
Dann gibt es zu jeder Teilmenge a ⊆ A eine eindeutig bestimmte Menge b mit
1. a ⊆ b ⊆ A.
2. b ist R-transitiv.
3. ∀c.a ⊆ c ⊆ A ∧ c R-transitiv → b ⊆ c.
b heißt die R-transitive Hülle von a.
Beweis. Eindeutigkeit. Klar nach (3). Existenz. Wir wollen ein f : ω → V durch Rekursion über ω so
definieren, daß gilt
f (0) = a,
f (n + 1) = { y | ∃x∈f (n)(yRx) }.
Um den Rekursionssatz für ω anwenden
S zu können, müssen wir f (n + 1) definieren in der Form G(f (n)).
Dazu wählen wir G : V → V , z 7→ rng(ˆ–z) mit ˆ: V → V , x 7→ x̂; nach Annahme ist ˆ eine Funktion.
Dann gilt
[
y ∈ G(f (n)) ↔ y ∈
rng(ˆ–f (n))
↔ ∃z.z ∈ rng(ˆ–f (n)) ∧ y ∈ z
↔ ∃z, x.x ∈ f (n) ∧ z = x̂ ∧ y ∈ z
↔ ∃x.x ∈ f (n) ∧ yRx.
5.3 Rekursion, Induktion, Ordinalzahlen
97
Durch Induktion über n sieht man leicht,
S daß f (n) eine Menge ist. Für 0 ist dies klar, und im Schritt
n → n + 1 folgt dies wegen f (n + 1) = { x̂ | x ∈ f S
(n) } aus derSIH, dem Ersetzungsschema und dem
Vereinigungsmengenaxiom. – Wir setzen jetzt b := rng(f ) = { f (n) | n ∈ ω }. Dann erhält man
folgendes.
1. a = f (0) ⊆ b ⊆ A.
2.
yRx ∈ b
yRx ∈ f (n)
y ∈ f (n + 1)
y ∈ b.
3. Sei a ⊆ c ⊆ A und c R-transitiv. Wir zeigen f (n) ⊆ c durch Induktion über n. 0. a ⊆ c. n → n + 1.
y ∈ f (n + 1)
yRx ∈ f (n)
yRx ∈ c
y ∈ c.
u
t
Anmerkung. Im Spezialfall der Relation ∈ auf V ist die Bedingung ∀x(x̂ = { y | y ∈ x } ist Menge)
offenbar erfüllt. Also gibt es zu jeder Menge a eine eindeutig bestimmte ∈-transitive Hülle von a. Sie
heißt die transitive Hülle von a.
Rekursion über fundierte Relationen
Mit Hilfe des Begriffs der R-transitiven Hülle können wir jetzt zeigen, daß die transitiv fundierten Relationen auf A mit den fundierten Relationen auf A übereinstimmen.
Sei R eine Relation auf A. R heißt fundierte Relation auf A, wenn gilt
1. Jede nichtleere Teilmenge von A besitzt ein R-minimales Element, d.h.
∀a.a ⊆ A ∧ a 6= ∅ → ∃x∈a.x̂ ∩ a = ∅.
2. Für jedes x ∈ A ist x̂ eine Menge.
Satz 5.3.17. Die transitiv fundierten Relationen auf A stimmen mit den fundierten Relationen auf A
überein.
Beweis. Jede transitiv fundierte Relation auf A ist fundiert nach Lemma 5.3.1(2). Umgekehrt ist jede
fundierte Relation auf A transitiv fundiert, denn zu jedem x ∈ A ist die R-transitive Hülle von x̂ ein
R-transitives b ⊆ A mit x̂ ⊆ b.
u
t
Der Induktionssatz 5.3.2 und der Rekursionssatz 5.3.3 gelten für also fundierte Relationen. Ebenso
gilt nach Lemma 5.3.1(1), daß jede nichtleere Teilklasse einer fundierten Relation R ein R-minimales
Element hat.
Später werden wir ein sogenanntes Regularitätsaxiom fordern, welches aussagt, daß die Relation ∈
auf V fundiert ist, d.h. daß gilt
∀a.a =
6 ∅ → ∃x∈a.x ∩ a = ∅.
Damit werden wir dann ein wichtiges Beispiel einer fundierten Relation zur Verfügung haben.
98
5. Mengenlehre
Wohlordnungen
Wir betrachten jetzt extensionale fundierte Relationen. Aus dem Regularitätsaxiom wird später folgen,
daß die ∈-Relation auf einer beliebigen Klasse A eine fundierte extensionale Relation ist. Hier zeigen wir
noch ohne das Regularitätsaxiom die Unkehrung, daß nämlich jede fundierte extensionale Relation zu
der ∈-Relation auf einer transitiven Klasse isomorph ist. Dies ist der Isomorphiesatz von Mostowski.
Dann betrachten wir lineare fundierte Ordnungen, kurz Wohlordnungen. Sie sind stets extensional und
deshalb zur ∈-Relation auf gewissen Klassen isomorph, die wir ordinale Klassen nennen. Ordinalzahlen
sind dann die ordinalen Mengen.
Eine Relation R auf A heißt extensional , wenn für alle x, y ∈ A gilt
(∀z∈A.zRx ↔ zRy) → x = y.
Zum Beispiel ist für eine transitive Klasse A die Relation ∈ ∩(A × A) extensional auf A. Dies sieht man
wie folgt. Seien x, y ∈ A. Für R :=∈ ∩(A × A) gilt zRx ↔ z ∈ x, da A transitiv ist. Man erhält
∀z∈A.zRx ↔ zRy
∀z.z ∈ x ↔ z ∈ y
x=y
Aus dem Regularitätsaxiom wird folgen, daß alle diese Relationen fundiert sind. Auch ohne das Regularitätsaxiom haben diese Relationen eine ausgezeichnete Bedeutung; vgl. Korollar 5.3.19.
Satz 5.3.18. (Isomorphiesatz von Mostowski). Sei R eine fundierte extensionale Relation auf A. Dann
gibt es einen eindeutig bestimmten Isomorphismus F von A auf eine transitive Klasse B, d.h.
∃=1 F .F : A ↔ rng(F) ∧ rng(F ) transitiv ∧ ∀x, y∈A.yRx ↔ F (y) ∈ F (x).
Beweis. Existenz. Wir definieren nach dem Rekursionssatz
F : A → V,
F(x) = rng(F–x̂) (= { F (y) | yRx }).
F injektiv. Wir zeigen ∀x, y∈A.F(x) = F (y) → x = y durch R-Induktion über x. Seien also x, y ∈ A
gegeben mit F (x) = F(y). Nach IH gilt
∀z∈A.zRx → ∀u∈A.F(z) = F(u) → z = u.
Es genügt zu zeigen, daß für alle z ∈ A gilt zRx ↔ zRy. →.
zRx
F(z) ∈ F (x) = F(y) = { F (u) | uRy }
F (z) = F(u)
z=u
für ein uRy
nach IH, da zRx
zRy
←.
zRy
F(z) ∈ F (y) = F(x) = { F (u) | uRx }
F(z) = F(u)
für ein uRx
nach IH, da uRx
z=u
zRx.
rng(F) ist transitiv. Gelte u ∈ v ∈ rng(F). Dann ist v = F(x), also u = F (y) für ein yRx.
yRx ↔ F (y) ∈ F (x). →. Gelte yRx. Dann ist F(y) ∈ F(x) nach Definition von F. ←.
5.3 Rekursion, Induktion, Ordinalzahlen
99
F(y) ∈ F (x) = { F (z) | zRx }
F(y) = F(z)
für ein zRx
y=z
da F injektiv ist
yRx.
Eindeutigkeit. Gegeben seien Fi , i = 1, 2. Wir zeigen ∀x∈A (F1 (x) = F2 (x)) durch R-Induktion über
x. Aus Symmetriegründen genügt u ∈ F1 (x) → u ∈ F2 (x).
u ∈ F1 (x)
u = F1 (y)
für ein y ∈ A, da rng(F1 ) transitiv
yRx
nach der Isomorphiebedingung für F1
u = F2 (y)
nach IH
F2 (y) ∈ F2 (x) nach der Isomorphiebedingung für F2
u ∈ F2 (x).
u
t
Eine Relation R auf A heißt lineare Ordnung, wenn für alle x, y, z ∈ A gilt
Irreflexivität,
¬xRx
xRy ∧ yRz → xRz Transitivität,
xRy ∨ x = y ∨ yRx Trichotomie (oder Vergleichbarkeit).
R heißt Wohlordnung, wenn R eine fundierte lineare Ordnung ist.
Anmerkung. Jede Wohlordnung R auf A ist extensional. Gilt nämlich
∀z∈A.zRx ↔ zRy,
so folgt x = y aus der Trichotomie, denn aus xRy folgt nach Annahme xRx im Widerspruch zur Irreflexivität, und ebenso erhält man aus yRx einen Widerspruch.
Korollar 5.3.19. Zu jeder Wohlordnung R auf A gibt es einen eindeutig bestimmten Isomorphismus F
von A auf eine transitive Klasse B.
u
t
Ordinale Klassen und Ordinalzahlen
Wir wollen jetzt die transitiven Klassen, die als Bilder von Wohlordnungen auftreten, genauer untersuchen.
A heißt ordinale Klasse, wenn A transitiv ist und ∈ ∩(A × A) eine Wohlordnung auf A ist. Ordinale
Klassen, die Mengen sind, heißen Ordinalzahlen. Wir setzen
On := { x | x ist Ordinalzahl }.
Zunächst geben wir eine bequeme Charakterisierung ordinaler Klassen an. A heißt konnex , wenn für
alle x, y ∈ A gilt
x ∈ y ∨ x = y ∨ y ∈ x.
Zum Beispiel ist ω konnex nach Lemma 5.3.7(4). Auch jedes n ist konnex, da ω nach Lemma 5.3.5(2)
transitiv ist.
Eine Klasse A heißt fundiert, wenn ∈ ∩(A × A) eine fundierte Relation auf A ist, d.h. wenn gilt
∀a.a ⊆ A ∧ a 6= ∅ → ∃x∈a.x ∩ a = ∅.
Wir zeigen jetzt, daß es in fundierten Klassen keine endlichen ∈-Zykel geben kann.
Lemma 5.3.20. Sei A fundiert. Dann kann für beliebige x1 , . . . , xn ∈ A niemals gelten
x1 ∈ x2 ∈ · · · ∈ xn ∈ x1 .
100
5. Mengenlehre
Beweis. Annahme: x1 ∈ x2 ∈ · · · ∈ xn ∈ x1 . Betrachte {x1 , . . . , xn }. Da A fundiert ist, gilt oBdA
u
t
x1 ∩ {x1 , . . . , xn } = ∅. Dies widerspricht aber xn ∈ x1 .
Korollar 5.3.21. A ist ordinale Klasse genau dann, wenn A transitiv, konnex und fundiert ist.
Beweis. → ist klar; die Konnexität von A folgt aus der Trichotomieeigenschaft. ←. Zu zeigen ist für alle
x, y, z ∈ A
x∈
/ x,
x ∈ y ∧ y ∈ z → x ∈ z.
Da A konnex ist, folgen beide Aussagen aus Lemma 5.3.20.
u
t
Anmerkung. 1. ω ist transitiv nach Lemma 5.3.5(2), konnex wie oben bemerkt und fundiert nach dem
Prinzip vom kleinsten Element (Satz 5.3.10). Also ist ω eine ordinale Klasse. Da ω nach dem Unendlichkeitsaxiom eine Menge ist, ist ω sogar eine Ordinalzahl.
2. n ist transitiv nach Lemma 5.3.5(1), konnex wie oben bemerkt und fundiert; letzteres folgt mit der
Transitivität von ω aus dem Prinzip vom kleinsten Element (Satz 5.3.10).
Ord(A) steht für “A ist ordinale Klasse”. Wir zeigen jetzt, daß ordinale Klassen ähnliche Eigenschaften
haben wie die natürlichen Zahlen: auch für ordinale Klassen hat die Relation ∈ die Eigenschaften von <
und die Relation ⊆ die Eigenschaften von ≤.
Lemma 5.3.22. 1. Ord(A) ∧ Ord(B) → Ord(A ∩ B).
2. Ord(A) ∧ x ∈ A → Ord(x).
3. Ord(A) ∧ Ord(B) → (A ⊆ B ↔ A ∈ B ∨ A = B).
4. Ord(A) ∧ Ord(B) → (A ∈ B ∨ A = B ∨ B ∈ A).
Beweis. 1. A ∩ B transitiv. Man erhält
x∈y ∈A∩B
x ∈ y ∈ A und x ∈ y ∈ B
x ∈ A und x ∈ B
x ∈ A ∩ B.
A ∩ B konnex, fundiert. Klar.
2. x transitiv. Man erhält
u∈v∈x∈A
u∈v∈A
u∈A
u ∈ x ∨ u = x ∨ x ∈ u.
Aus u = x folgt u ∈ v ∈ u und damit ein Widerspruch zu Lemma 5.3.20, und aus x ∈ u folgt u ∈ v ∈ x ∈ u
und damit ebenfalls ein Widerspruch zu Lemma 5.3.20.
x konnex, fundiert. Klar, da x ⊆ A.
3. ←. Klar, da B transitiv ist. →. Sei A ⊆ B. OBdA A ( B. Man wähle ein x ∈ B\A mit x∩(B\A) = ∅
(dies ist möglich, da B fundiert ist). Es genügt zu zeigen, daß x = A.
x ⊆ A. Gelte y ∈ x, also y ∈ x ∈ B. Dann folgt y ∈ A, denn x ∩ (B \ A) = ∅.
A ⊆ x. Gelte y ∈ A. Dann ist auch y ∈ B. Es folgt x ∈ y ∨ x = y ∨ y ∈ x. Die ersten beiden Fälle sind
aber unmöglich, denn jedesmal erhält man x ∈ A.
4. Gelte Ord(A) und Ord(B). Dann folgt Ord(A ∩ B) nach (1). Aus (3) ergibt sich
[(A ∩ B ∈ A) ∨ (A ∩ B = A)] ∧ [(A ∩ B ∈ B) ∨ (A ∩ B = B)].
Ausdistribuieren liefert
(A ∩ B ∈ A ∩ B) ∨ (A ∈ B) ∨ (B ∈ A) ∨ (A = B).
Der erste Fall A ∩ B ∈ A ∩ B ist aber unmöglich nach Lemma 5.3.20.
u
t
5.3 Rekursion, Induktion, Ordinalzahlen
101
Lemma 5.3.23. 1. Ord(On).
2. On ist keine Menge.
3. On ist die einzige echte ordinale Klasse.
Beweis. 1. On ist transitiv nach Lemma 5.3.22(2) und konnex nach Lemma 5.3.22(4). On ist auch fundiert.
6 ∅. Da x fundiert ist, gibt es ein y ∈ x ∩ a mit
Sei nämlich a ⊆ On, a =
6 ∅. Wähle x ∈ a. OBdA ist x ∩ a =
y ∩ x ∩ a = ∅. Es folgt y ∈ a und y ∩ a = ∅; letzteres da y ⊆ x wegen y ∈ x, x transitiv.
2. Annahme: On ist Menge. Dann folgt On ∈ On und damit ein Widerspruch zu Lemma 5.3.20.
3. Sei Ord(A), A keine Menge. Nach Lemma 5.3.22(4) folgt
A ∈ On ∨ A = On ∨ On ∈ A.
Der erste und der dritte Fall scheiden aber aus, da dann A bzw. On eine Menge wäre.
u
t
Lemma 5.3.24. 1. On ist induktiv,
2. n, ω ∈ On.
Beweis. 1. 0 ∈ On ist klar. Sei nun x ∈ On. Zu zeigen ist x + 1 ∈ On, also x ∪ {x} ∈ On.
x ∪ {x} transitiv. Gelte u ∈ v ∈ x ∪ {x}, also u ∈ v ∈ x oder u ∈ v = x. In beiden Fällen folgt u ∈ x.
x ∪ {x} konnex. Gelte u, v ∈ x ∪ {x}. Dann folgt
u, v ∈ x ∨ (u ∈ x ∧ v = x) ∨ (u = x ∧ v ∈ x) ∨ (u = v = x)
u ∈ v ∨ u = v ∨ v ∈ u.
x ∪ {x} fundiert. Sei a ⊆ x ∪ {x}, a 6= ∅. Zu zeigen ist ∃y∈a (y ∩ a = ∅). Fall a ∩ x 6= ∅. Dann folgt die
Behauptung aus der Fundiertheit von x. Fall a ∩ x = ∅. Dann ist a = {x}, und wir haben x ∩ {x} = ∅.
u
t
2. Dies wurde schon oben im Anschluß an Korollar 5.3.21 gezeigt.
Lemma 5.3.25. x, y ∈ On ∧ x + 1 = y + 1 → x = y.
Beweis. Dies zeigt man wie das zweite Peano-Axiom in Lemma 5.3.8(2).
x+1=y+1
x∈y+1∧y ∈x+1
(x ∈ y ∧ y ∈ x) ∨ x = y.
Da der erste Fall nach Lemma 5.3.22 unmöglich ist, folgt x = y.
t
u
S
S
Lemma 5.3.26. A ⊆ On → A ∈ On ∨ A = On.
S
S
S
Sei x ∈ y ∈ A, also x ∈ y ∈ z ∈ A für ein z. Dann folgt
Beweis. Genügt: Ord( A). A transitiv.
S
z ∈ A, da A ⊆ On. Also ist x ∈ A.
x ∈S
S
S
A konnex und fundiert. Genügt: A ⊆ On. Sei also x ∈ A, also x ∈ y ∈ A für ein y. Dann ist
x ∈ y und y ∈ On, also x ∈ On.
u
t
S
obere Schranke von A bzgl. der Wohlordnung ∈
Anmerkung. Gilt A ⊆ On, so ist A die kleinste
S
∩(On × On) von On, denn nach Definition von A gilt
[
x∈A→x⊆
A,
[
(∀x∈A.x ⊆ y) →
A ⊆ y.
Wir schreiben deshalb auch sup A für
S
A.
102
5. Mengenlehre
Beispiele für Ordinalzahlen
0
1=0+1
2=1+1
..
.
ω
ω+1
ω+2
..
.
ω · 2 :=
Menge nach dem Unendlichkeitsaxiom
[
{ω + n | n ∈ ω}
ω·2+1
ω·2+2
..
.
[
ω · 3 := { ω · 2 + n | n ∈ ω }
..
.
ω·4
..
.
ω · ω := ω 2 :=
ω2 + 1
ω2 + 2
...
ω2 + ω
ω2 + ω + 1
ω2 + ω + 2
..
.
ω2 + ω · 2
..
.
ω2 + ω · 3
..
.
ω3
..
.
ω4
..
.
ωω
ωω + 1
[
{ω · n | n ∈ ω}
Def. mit Rekursion über ω; Menge nach Ersetzungsschema
5.3 Rekursion, Induktion, Ordinalzahlen
103
..
.
und so weiter.
α, β, γ stehen im folgenden für Ordinalzahlen.
α heißt eine Nachfolgerzahl , wenn ∃β(α = β + 1). α heißt Limeszahl , wenn α weder 0 noch Nachfolgerzahl ist. Wir schreiben
Lim(α) für α 6= 0 ∧ ¬∃β(α = β + 1).
Offenbar gilt für beliebige α entweder α = 0 oder α ist Nachfolgerzahl oder α ist Limeszahl.
Lemma 5.3.27. 1. Lim(α) ↔ α 6= 0 ∧ ∀β.β ∈ α → β + 1 ∈ α.
2. Lim(ω).
3. Lim(α) → ω ⊆ α.
Beweis. 1. →: Sei β ∈ α. Dann gilt β + 1 ∈ α ∨ β + 1 = α ∨ α ∈ β + 1. Der zweite Fall β + 1 = α ist
ausgeschlossen nach Annahme. Im dritten Fall folgt α ∈ β ∨α = β; beides ist aber wegen β ∈ α unmöglich
nach Lemma 5.3.20. ←. Sei α 6= 0 und es gelte ∀β.β ∈ α → β + 1 ∈ α. Ist dann α keine Limeszahl, so
muß α = β + 1 sein. Dann folgt β ∈ α, also nach Annahme auch β + 1 ∈ α und damit α ∈ α, was nicht
sein kann.
2. Folgt aus (1), da ω induktiv ist.
3. Gelte Lim(α). Wir zeigen n ∈ α durch Induktion über n. 0. Es gilt 0 ∈ α ∨ 0 = α ∨ α ∈ 0, wobei die
Fälle zwei und drei offenbar unmöglich sind. n + 1. Es ist n ∈ α nach IH, also n + 1 ∈ α nach a.
u
t
S
Lemma 5.3.28. 1. α = β∈α (β
S + 1).
2. Für Limeszahlen α gilt α = β∈α β.
Beweis. 1. ⊆. Sei β ∈ α. Die Behauptung folgt aus β ∈ β + 1. ⊇. Sei β ∈ α. Dann ist β + 1 ⊆ α.
2. ⊆. Sei γ ∈ α. Dann folgt γ ∈ γ + 1 ∈ α. ⊇. Sei γ ∈ β ∈ α. Es folgt γ ∈ α.
u
t
Satz 5.3.29. (Transfinite Induktion über On mit Rückgriff auf sämtliche Vorgänger; Klassenform).
(∀α.α ⊆ B → α ∈ B) → On ⊆ B.
Beweis. Dies ist ein Spezialfall des Induktionssatzes 5.3.2
u
t
Korollar 5.3.30. (Verschiedene Formen der transfiniten Induktion über On). Erste Form:
A(0) ∧ (∀α.A(α) → A(α + 1)) ∧ (∀α.Lim(α) ∧ (∀β.β ∈ α → A(β)) → A(α)) → ∀αA(α).
Zweite Form: (Transfinite Induktion über On mit Rückgriff auf sämtliche Vorgänger).
[∀α.(∀β.β ∈ α → A(β)) → A(α)] → ∀αA(α).
Dritte Form: (Prinzip vom kleinsten Element für On).
∃αA(α) → ∃α.A(α) ∧ ¬∃β.β ∈ α ∧ A(β).
Beweis. Die dritte Form ergibt sich aus der zweiten durch Kontraposition. Ferner ergibt sich die erste
Form ebenfalls leicht aus der zweiten. Die zweite Form erhält man aus Satz 5.3.29 mit B := { α | A(α) }.
t
u
Satz 5.3.31. (Transfinite Rekursion über On mit Rückgriff auf sämtliche Vorgänger). Sei G : V → V .
Dann gibt es genau eine Funktion F : On → V so daß für alle α gilt
F(α) = G(F–α).
Beweis. Dies ist ein Spezialfall des Rekursionssatzes 5.3.3.
t
u
104
5. Mengenlehre
Korollar 5.3.32. (Transfinite Rekursion über On). Sei G : V → V , H : V → V und a eine Menge. Dann
gibt es genau eine Funktion F : On → V mit
F(0) = a,
F(α + 1) = G(F(α)),
F(α) = H(F –α)
für α Limeszahl.
S
Beweis. Man beachte zunächst, daß (α + 1) = α ist wegen
[
γ ∈ (α + 1) ↔ ∃β.γ ∈ β ∈ α + 1
↔ ∃β.γ ∈ β ⊆ α
↔ γ ∈ α.
Ansatz: Zu dem gegebenen a, G und H finde man ein G 0 mit
G 0 (0) = a,
G 0 (F–α + 1) = G(F(α)),
G 0 (F–α) = H(F–α)
Wir definieren eine Funktion G 0 : V → V durch

a,

S
G 0 (x) = G(x( dom(x))),


H(x),
für α Limeszahl.
sonst;
falls ∃β(dom(x) = β + 1);
falls Lim(dom(x)).
Nach dem Rekursionssatz 5.3.3 existiert genau ein F : On → V so daß für alle α gilt
F(α) = G 0 (F–α).
Offenbar ist diese Eigenschaft von F zu den obigen Gleichungen äquivalent.
u
t
Regularitätsaxiom, von Neumannsche Stufen, Rang
Wir erinnern uns zunächst an die kumulative Typenstruktur.
Stufe
Stufe
Stufe
Stufe
0: −
1: ∅
2: ∅, {∅}
3: ∅, {∅}, {{∅}}, {∅, {∅}}
und so weiter.
Unter Verwendung von Ordinalzahlen können wir jetzt auch transfinite Stufen betrachten. Die Stufe ω
besteht dann aus allen Mengen, deren Elemente auf endlichen Stufen gebildet waren, und die Stufe ω + 1
aus allen Mengen, deren Elemente auf endlichen Stufen oder der Stufe ω gebildet waren, und so weiter.
Allgemein definieren wir die von Neumannschen Stufen Vα wie folgt durch transfinite Rekursion über
On.
V0 = ∅,
Vα+1 = P(Vα ),
[
Vα =
Vβ
β∈α
für α Limeszahl.
5.3 Rekursion, Induktion, Ordinalzahlen
105
Anmerkung. Genauer ist Vα := F(α), wobei F : On → V wie folgt definiert wird durch transfinite
Rekursion über On.
F(0) = ∅,
F (α + 1) = P(F(α)),
[
F(α) =
rng(F–α)
für α Limeszahl.
Lemma 5.3.33. 1. Vα ist transitiv.
2. α ∈ β → Vα ∈ Vβ .
3. α ⊆ β → Vα ⊆ Vβ .
4. Vα ∩ On = α.
Beweis. 1. (Transfinite) Induktion nach α. 0. ∅ ist transitiv. α + 1.
x ∈ y ∈ Vα+1 = P(Vα )
x ∈ y ⊆ Vα
x ∈ Vα
x ⊆ Vα
x ∈ Vα+1 .
nach IH
α Limeszahl.
x ∈ y ∈ Vα =
[
Vβ
β∈α
x ∈ y ∈ Vβ
für ein β ∈ α
x ∈ Vβ
nach IH
x ∈ Vα .
2. Induktion nach β. 0. Klar. β + 1.
α∈β+1
α ∈ β oder α = β
Vα ∈ Vβ oder Vα = Vβ
V α ⊆ Vβ
Vα ∈ Vβ+1 .
nach IH
nach (1)
β Limeszahl.
α∈β
α+1∈β
Vα ∈ Vα+1 ⊆
[
Vγ = Vβ .
γ∈β
3. Mit α ⊆ β ↔ α ∈ β ∨ α = β folgt die Behauptung aus (1) und (2).
4. Induktion nach α. 0. Klar. α + 1.
β ∈ Vα+1 ↔ β ⊆ Vα
↔ β ⊆ Vα ∩ On = α
↔ β ∈ α + 1.
α Limeszahl.
nach IH
106
5. Mengenlehre
Vα ∩ On = (
=
[
β∈α
[
β∈α
=
[
Vβ ) ∩ On
(Vβ ∩ On)
β
nach IH
β∈α
= α.
u
t
Wir wollen
jetzt zeigen, daß die von Neumannschen Stufen das Universum ausschöpfen, also daß
S
gilt V = α∈On Vα . Dazu brauchen wir das bereits erwähnte Regularitätsaxiom, welches aussagt, daß die
Relation ∈ auf V fundiert ist, d.h. daß gilt
Axiom 8.
∀a.a 6= ∅ → ∃x∈a (x ∩ a = ∅).
Wir können dann jeder Menge x eine Ordinalzahl α als ihren Rang zuordnen, und zwar als kleinstes
α mit x ⊆ Vα . Dazu brauchen wir den Begriff des Rangs rn(x) einer Menge x, den wir rekursiv definieren
durch
[
rn(x) := { rn(y) + 1 | y ∈ x }.
Genauer setzen wir rn(x) := F(x), wobei F : V → V wie folgt definiert wird (mittels des Rekursionssatzes 5.3.3 für fundierte Relationen).
[
rng(H(F–x))
F(x) :=
mit
H(z) := { (u, v + 1) | (u, v) ∈ z }.
Zunächst zeigen wir, daß rn(x) die oben formulierte Eigenschaft hat.
Lemma 5.3.34. 1. rn(x) ∈ On.
2. x ⊆ Vrn(x) .
3. x ⊆ Vα → rn(x) ⊆ α.
S
Beweis. 1. ∈-Induktion nach x. Es ist rn(x) = { rn(y) + 1 | y ∈ x } ∈ On, da nach IH rn(y) ∈ On für
jedes y ∈ x.
2. ∈-Induktion nach x. Sei y ∈ x. Dann gilt y ⊆ Vrn(y) nach IH, also y ∈ P(Vrn(y) ) = Vrn(y)+1 ⊆ Vrn(x)
wegen rn(y) + 1 ⊆ rn(x).
S
3. Induktion nach α. Sei x ⊆ Vα . Zu zeigen rn(x) = { rn(y) + 1 | y ∈ x } ⊆ α. Sei also y ∈ x. Zu
zeigen ist dann rn(y) + 1 ⊆ α. Wegen x ⊆ Vα ist y ∈ Vα . Daraus folgt y ⊆ Vβ für ein β ∈ α, denn im
Fall α = αS0 + 1 hat man y ∈ Vα0 +1 = P(Vα0 ) und damit y ⊆ Vα0 , und im Fall α Limeszahl hat man
y ∈ Vα = β∈α Vβ , also y ∈ Vβ und damit y ⊆ Vβ für ein β ∈ α. - Nach IH folgt jetzt rn(y) ⊆ β und
damit rn(y) ∈ α.
u
t
Jetzt folgt leicht die oben als Ziel formulierte Aussage.
S
Korollar 5.3.35. V = α∈On Vα .
Beweis. ⊇ ist klar. ⊆. Für jedes x gilt x ⊆ Vrn(x) nach Lemma 5.3.34(2), also x ∈ Vrn(x)+1 .
u
t
Vα läßt sich jetzt charakterisieren als die Menge aller Mengen vom Rang kleiner als α.
Lemma 5.3.36. Vα = { x | rn(x) ∈ α }.
Beweis. ⊇. Sei rn(x) ∈ α. Wegen x ⊆ Vrn(x) folgt x ∈ Vrn(x)+1 ⊆ Vα .
⊆. Induktion nach α. Fall 0. Klar. Fall α + 1. Sei x ∈ Vα+1 . Dann ist x ∈ P(Vα ), also x ⊆ Vα .
Für
S jedes y ∈ x gilt also y ∈ Vα und damit rn(y) ∈ α nach IH, also rn(y) + 1 ⊆ α. Daher gilt rn(x) =
{ rn(y) + 1 | y ∈ x } ⊆ α. Fall α Limeszahl. Sei x ∈ Vα . Dann ist x ∈ Vβ für ein β ∈ α, also rn(x) ∈ β
nach IH, also rn(x) ∈ α.
u
t
5.4 Kardinalzahlen
107
Aus x ∈ y bzw. x ⊆ y kann man auf die entsprechenden Beziehungen zwischen den Rängen schließen.
Lemma 5.3.37. 1. x ∈ y → rn(x) ∈ rn(y).
2. x ⊆ y → rn(x) ⊆ rn(y).
S
Beweis. 1. WegenSrn(y) = { rn(x) + 1 | x ∈ y } ist dies klar. 2. Für jedes z ∈ x gilt rn(z) ∈ rn(y) nach
(1), also rn(x) = { rn(z) + 1 | z ∈ x } ⊆ rn(y).
u
t
Weiter läßt sich zeigen, daß die Mengen α und Vα beide den Rang α haben.
Lemma 5.3.38. 1. rn(α) = α.
2. rn(Vα ) = α.
S
S
Beweis. 1. Induktion über α. Es gilt rn(α) = { rn(β) + 1 | β ∈ α }, also nach IH rn(α) = { β + 1 | β ∈
α } = α nach Lemma 5.3.28(1).
2. Es ist
[
rn(Vα ) = { rn(x) + 1 | x ∈ Vα }
[
= { rn(x) + 1 | rn(x) ∈ α } nach Lemma 5.3.36
⊆ α.
Sei umgekehrt β ∈ α. Nach (1) ist rn(β) = β ∈ α, also
[
β = rn(β) ∈ { rn(x) + 1 | rn(x) ∈ α } = rn(Vα ).
u
t
Schließlich zeigen wir noch, daß eine Klasse A genau dann eine Menge ist, wenn die Ränge ihrer
Elemente durch eine Ordinalzahl beschränkt werden können.
Lemma 5.3.39. A ist Menge genau dann, wenn es ein α gibt mit ∀y∈A (rn(y) ∈ α).
Beweis. →. Sei A = x. Aus Lemma 5.3.37(1) folgt dann, daß rn(x) ist das gesuchte α ist.
←. Gelte rn(x) ∈ α für alle y ∈ A. Dann folgt A ⊆ { y | rn(y) ∈ α } = Vα .
u
t
5.4 Kardinalzahlen
Wir behandeln jetzt die wichtigsten Eigenschaften von Kardinalzahlen. Sie werden in der Mathematik
häufig benutzt.
Größenvergleiche zwischen Mengen
Wir definieren
|a| ≤ |b| :↔ ∃f.f : a → b und f injektiv,
|a| = |b| :↔ ∃f.f : a ↔ b,
|a| < |b| :↔ |a| ≤ |b| ∧ |a| 6= |b|,
b
a := { f | f : b → a }.
Zwei Mengen a und b heißen gleichmächtig, wenn |a| = |b| gilt. Man beachte, daß wir hier nicht |a|
definieren, sondern nur Relationen |a| ≤ |b|, |a| = |b| und |a| < |b|.
Lemma 5.4.1. 1. |a × b| = |b × a|.
2. |a (b c)| = |a×b c|.
3. |P(a)| = |a {0, 1}|.
4. ( Cantor). |a| < |P(a)|.
108
5. Mengenlehre
Beweis. (1) − (3) sind klar. 4. f : a → P(a), x 7→ {x} ist injektiv. Angenommen, wir hätten ein g : a ↔
P(a). Betrachte
b := { x | x ∈ a ∧ x ∈
/ g(x) }.
Dann ist b ⊆ a, also b = g(x0 ) für ein x0 ∈ a. Es folgt x0 ∈ g(x0 ) ↔ x0 ∈
/ g(x0 ) und damit ein
Widerspruch.
u
t
Satz 5.4.2. ( Cantor, Schröder, Bernstein) Ist a ⊆ b ⊆ c und |a| = |c|, so folgt |b| = |c|.
Beweis. Sei f : c → a bijektiv und r := c \ b. Wir definieren rekursiv g : ω → V durch
g(0) = r,
g(n + 1) = f [g(n)].
Ferner setzen wir
r :=
[
g(n)
n
und definieren i : c → b durch
(
f (x),
i(x) :=
x,
falls x ∈ r,
falls x ∈
/ r.
Es genügt zu zeigen, daß (1) rng(i) = b und (2) i injektiv ist. Zu (1). Sei x ∈ b. Zu zeigen ist x ∈ rng(i).
/ g(0). Also gibt es ein n mit x ∈ g(n + 1) = f [g(n)], also
OBdA sei x ∈ r. Wegen x ∈ b ist dann x ∈
x = f (y) = i(y) für ein y ∈ r. Zu (2). Sei x 6= y. OBdA ist x ∈ r, y ∈
/ r. Dann hat man aber i(x) ∈ r,
6 i(y).
i(y) ∈
/ r, also i(x) =
u
t
Anmerkung. Der Satz von Cantor, Schröder und Bernstein läßt sich auch als Anwendung des
Fixpunktsatzes von Knaster-Tarski auffassen; siehe dazu Gunter [14].
Korollar 5.4.3. |a| ≤ |b| ∧ |b| ≤ |a| → |a| = |b|.
Beweis. Seien f : a → b und g : b → a injektiv. Dann gilt (g ◦ f )[a] ⊆ g[b] ⊆ a und |(g ◦ f )[a]| = |a|. Nach
u
t
dem Satz von Cantor, Schröder und Bernstein folgt |b| = |g[b]| = |a|.
Kardinalzahlen, Alephfunktion
Unter einer Kardinalzahl verstehen wir eine Ordinalzahl, die zu keiner kleineren Ordinalzahl gleichmächtig
ist, also
α heißt Kardinalzahl , wenn gilt ∀β<α (|β| 6= |α|).
Hier und im folgenden schreiben wir aufgrund von Lemma 5.3.22 α < β für α ∈ β und α ≤ β für α ⊆ β.
Lemma 5.4.4. |n| = |m| → n = m.
Beweis. Induktion über n. 0. Klar. n + 1. Sei f : n + 1 ↔ m + 1. OBdA können wir f (n) = m annehmen.
Also gilt f –n : n ↔ m und damit n = m nach IH, also auch n + 1 = m + 1.
u
t
Korollar 5.4.5. n ist Kardinalzahl.
u
t
Lemma 5.4.6. |n| 6= |ω|.
Beweis. Annahme: |n| = |ω|. Es ist n ⊆ n + 1 ⊆ ω, also nach dem Satz von Cantor, Schröder und
Bernstein |n| = |n + 1|, was nicht sein kann.
t
u
Korollar 5.4.7. ω ist Kardinalzahl.
Lemma 5.4.8. ω ≤ α → |α + 1| = |α|.
t
u
5.4 Kardinalzahlen
109
Beweis. Definiere f : α → α + 1 durch
Dann ist f : α ↔ α + 1.


α,
f (x) := n,


x,
falls x = 0;
falls x = n + 1;
sonst.
u
t
Korollar 5.4.9. Ist ω ≤ α und α eine Kardinalzahl, so ist α eine Limeszahl.
Beweis. Annahme: α = β + 1. Dann ist ω ≤ β < α, also |β| = |β + 1| im Widerspruch zur Voraussetzung,
daß α eine Kardinalzahl ist.
u
t
S
Lemma 5.4.10. Ist a eine Menge von Kardinalzahlen, so ist sup(a) (:= a) eine Kardinalzahl.
S
Beweis. Andernfalls gäbe es ein α < sup(a) mit |α| = | sup(a)|. Also α ∈ a und damit α ∈ β ∈ a für eine
S
Kardinalzahl
S β. Nach dem Satz von Cantor, Schröder und Bernstein folgt aber aus α ⊆ β ⊆ a
u
t
und |α| = | a|, daß |α| = |β|. Wegen α ∈ β und β Kardinalzahl ist dies aber nicht möglich.
Wir wollen jetzt zeigen, daß es zu jeder Ordinalzahl eine größere Kardinalzahl gibt. Es gilt sogar
allgemeiner folgendes.
Satz 5.4.11. ∀a∃!α.∀β<α(|β| ≤ |a|) ∧ |α| 6≤ |a|. α heißt Hartogszahl von a; sie wird mit H(a) bezeichnet.
Beweis. Eindeutigkeit. Klar. Existenz. Sei w := { (b, r) | b ⊂ a ∧ r Wohlordnung auf b } und γ(b,r) die eindeutig bestimmte Ordinalzahl isomorph zu (b, r). Dann ist { γ(b,r) | (b, r) ∈ w } eine transitive Teilmenge
von On, also eine Ordinalzahl α. Zu zeigen ist
1. β < α → |β| ≤ |a|,
6 |a|.
2. |α| ≤
1. Sei β < α. Dann ist β isomorph einem γ(b,r) mit (b, r) ∈ w, also existiert f : β ↔ b.
2. Annahme: f : α → a injektiv. Dann ist α = γ(b,r) für ein b ⊆ a (b := rng(f )), also α ∈ α, was nicht
sein kann.
u
t
Anmerkung. 1. Die Hartogszahl von a ist eine Kardinalzahl. Denn sei α Hartogszahl von a, β < α.
Wäre |β| = |α|, so hätte man |α| = |β| ≤ |a|, was nicht sein kann.
2. Die Hartogszahl von β ist die kleinste Kardinalzahl α mit α > β.
ℵ : On → V wird rekursiv definiert durch
ℵ0 := ω,
ℵα+1 := H(ℵα ),
ℵα := sup{ ℵβ | β < α } für α Limeszahl.
Lemma 5.4.12. (Eigenschaften von ℵ).
1. ℵα ist Kardinalzahl.
2. α < β → ℵα < ℵβ .
3. ∀β.β Kardinalzahl ∧ω ≤ β → ∃α(β = ℵα ).
Beweis. 1. Induktion über α; klar. 2. Induktion über β. 0. Klar. β + 1.
α<β+1
α<β∨α=β
ℵα < ℵβ ∨ ℵα = ℵβ
ℵα < ℵβ+1 .
110
5. Mengenlehre
β Limeszahl.
α<β
α < γ für ein γ < β
ℵα < ℵγ ≤ ℵβ .
3. Sei α minimal mit β ≤ ℵα . Ein solches α existiert, da sonst ℵ : On → β injektiv wäre. Wir zeigen
ℵα ≤ β durch Fallunterscheidung nach α. 0. Klar. α = α0 + 1. Nach Wahl von α ist ℵα0 < β, also ℵα ≤ β.
α Limeszahl. Nach Wahl von α ist ℵγ < β für alle γ < α, also ℵα = sup{ ℵγ | γ < α } ≤ β.
u
t
Wir zeigen noch, daß jede unendliche Ordinalzahl zu einer Kardinalzahl gleichmächtig ist.
Lemma 5.4.13. (∀β≥ω)∃α(|β| = |ℵα |).
Beweis. Betrachte δ := min{ γ | γ < β ∧ |γ| = |β| }. δ ist offenbar Kardinalzahl. Ferner ist δ ≥ ω, denn
andernfalls hätte man
δ=n
|n| = |β|
n⊆n+1⊆β
|n| = |n + 1|,
was nicht sein kann. Also ist δ = ℵα für ein α, und wir haben |δ| = |β| = |ℵα |.
u
t
Produkte von Kardinalzahlen
Wir zeigen jetzt, daß stets gilt |ℵα × ℵα | = |ℵα |.
Auf On × On definieren wir eine Relation ≺ durch
(α, β) ≺ (γ, δ) :↔ max{α, β} < max{γ, δ} ∨
(max{α, β} = max{γ, δ} ∧ α < γ) ∨
(max{α, β} = max{γ, δ} ∧ α = γ ∧ β < δ).
Lemma 5.4.14. ≺ ist eine Wohlordnung auf On × On.
Beweis. : ≺ ist offenbar eine lineare Ordnung. Zum Beweis der Fundiertheit von ≺ betrachten wir ein
a ⊆ On × On mit a 6= ∅. Dann gilt
∅ 6= A := { α | ∃ρ, µ((ρ, µ) ∈ a ∧ max{ρ, µ} = α) } ⊆ On.
Sei α0 := min(A). Dann gilt
∅ 6= A1 := { ρ | ∃µ((ρ, µ) ∈ a ∧ max{ρ, µ} = α0 ) } ⊆ On.
Sei ρ0 := min(A1 ). Dann gilt
∅ 6= A2 := { µ | (ρ0 , µ) ∈ a ∧ max{ρ0 , µ} = α0 ) } ⊆ On.
\
β) eine Menge, denn
Sei µ0 := min(A2 ). Dann gilt offenbar (ρ0 , µ0 ) = min≺ (a). Schließlich ist stets (α,
\
es ist (α, β) ⊆ γ × γ mit γ := max{α, β} + 1.
u
t
Korollar 5.4.15. On × On ist isomorph zu On (bzgl. ≺ und ∈ –On).
Beweis. Nach Lemma 5.4.14 ist ≺ eine Wohlordnung auf On × On. Also gibt es nach Korollar 5.3.19
einen Isomorphismus auf eine transitive und damit auch ordinale Klasse. Diese Klasse kann keine Menge
sein, da sonst On × On eine Menge wäre. Nach Lemma 5.3.23(3) ist aber On die einzige echte ordinale
Klasse.
u
t
5.5 Das Auswahlaxiom
111
Satz 5.4.16. ℵα × ℵα ist isomorph zu ℵα . (bzgl. ≺ –ℵα × ℵα und ∈ –ℵα ).
Beweis. Annahme: ∃α(ℵα × ℵα nicht isomorph zu ℵα ). Sei
α0 := min{ α | ℵα × ℵα nicht isomorph zu ℵα }.
Offenbar ist α0 =
6 0. Da ℵα0 × ℵα0 und ℵα0 wohlgeordnete Mengen sind, muß eine von ihnen isomorph
zu einem echten Anfangsstück der anderen sein. Wir unterscheiden deshalb zwei Fälle.
\
\
γ) ⊆ δ × δ.
Fall 1. ℵα0 isomorph zu (β,
γ) mit β, γ < ℵα0 . Wähle δ < ℵα0 mit β, γ < δ. Dann ist (β,
Man erhält
\
|ℵα0 | = |(β,
γ)| ≤ |δ × δ| = |ℵτ × ℵτ |
= |ℵτ |
für ein τ < α0
nach Wahl von α0
und damit einen Widerspruch zu Lemma 5.4.12(2).
Fall 2. ℵα0 × ℵα0 ist isomorph zu β < ℵα0 . Dann folgt
|ℵα0 | ≤ |ℵα0 × ℵα0 | = |β| ≤ |ℵα0 |
|ℵα0 | = |β|
und damit ein Widerspruch zu ℵα0 Kardinalzahl, β < ℵα0 .
u
t
Korollar 5.4.17. 1. |ℵα × ℵβ | = | max{ℵα , ℵβ }|.
2. n 6= 0 → |n ℵα | = |ℵα |.
Beweis. 1. OBdA sei α ≤ β. Dann gilt
|ℵβ | ≤ |ℵα × ℵβ | ≤ |ℵβ × ℵβ | = |ℵβ |.
2. Dies folgt durch Induktion nach n leicht aus Satz 5.4.16.
u
t
5.5 Das Auswahlaxiom
Auswahlaxiom, Wohlordnungssatz und Zornsches Lemma
Eine Relation R auf A heißt partielle Ordnung, wenn für alle x, y, z ∈ A gilt
¬xRx,
Irreflexivität
xRy ∧ yRz → xRz,
Transitivität.
Ein x ∈ A heißt maximales Element, wenn es kein y ∈ A gibt mit xRy. Sei noch B ⊆ A. Ein x ∈ A heißt
obere Schranke von B, wenn gilt
∀y∈B.yRx ∨ y = x.
Satz 5.5.1. Die folgenden Aussagen sind äquivalent.
1. Das Auswahlaxiom (AC)
∀x.∅ ∈
/ x → ∃f.f : x →
2. Der Wohlordnungssatz (WO)
[
x ∧ (∀y∈x)(f (y) ∈ y).
∀a∃r(r ist Wohlordnung auf a).
3. Das Zornsche Lemma (ZL): Für jede nichtleere partielle Ordnung (P, <) mit der Eigenschaft, daß
jedes durch < linear geordnete L ⊆ P eine obere Schranke in P hat, gilt: P hat ein maximales
Element.
112
5. Mengenlehre
Beweis. (ZL) → (WO). Gegeben sei ein a. Sei
P := { f | ∃α(f : α → a injektiv) } ⊆ P(H(a) × a).
S
P wird
S durch die echte Inklusion ( partiell geordnet. Sei L ⊆ P linear geordnet. Dann gilt L ∈ P . Also
ist L obere Schranke von L. Mit dem Zornschen Lemma erhält man ein maximales Element f0 ∈ P .
Offenbar ist dann f0 eine Bijektion einer Ordinalzahl α0 auf a, und f0 induziert
S eine Wohlordnung auf a.
/ x. Nach (WO) existiert eine Wohlordnung < auf x. Für jedes y ∈ x induziert
(WO) → (AC). Sei ∅ ∈
< eine Wohlordnung auf y. Definiere
[
f: x→
x,
y 7→ min < (y) ∈ y.
(AC) → (ZL). Sei < partielle Ordnung auf P =
6 ∅. Wir nehmen an, daß jedes durch < linear geordnete
L ⊆ P eine obere Schranke in P hat. Nach (AC) existiert eine Auswahlfunktion f auf P(P ) \ {∅}. Sei
z∈
/ P beliebig. Definiere
F : On → V
(
f ({ y | y ∈ P ∧ y obere Schranke von F[α] ∧ y ∈
/ F [α] }),
F(α) =
z,
falls {. . . } 6= ∅;
sonst.
Dann gibt es ein ρ mit F (ρ) = z, denn sonst wäre F : On → P injektiv, im Widerspruch zu der Voraussetzung, daß P eine Menge ist. Setze ρ0 := min{ ρ | F (ρ) = z }. F[ρ0 ] ist linear geordnet, und es gilt
F[ρ0 ] ⊆ P . Nach Voraussetzung existiert eine obere Schranke y0 ∈ P von F [ρ0 ]. Wir zeigen jetzt, daß y0
maximales Element in P ist. Annahme: y0 < y für ein y ∈ P . Dann ist y obere Schranke von F[ρ0 ] und
y∈
/ F[ρ0 ]. Dies widerspricht aber der Definition von ρ0 .
u
t
Ab jetzt wird das Auswahlaxiom immer vorausgesetzt. Wir markieren jedoch jeden Satz und jede
Definition mit (AC), wenn darin das Auswahlaxiom verwendet wird.
(AC) ist offenbar äquivalent zu dem Spezialfall, in dem je zwei y1 , y2 ∈ x disjunkt sind. Wir notieren
noch die folgende äquivalente Fassung des Auswahlaxioms.
Lemma 5.5.2. Folgende Aussagen sind äquivalent.
1. Das Auswahlaxiom (AC).
2. Zu jedem surjektiven g : a → b gibt es ein injektives f : b → a mit (∀x ∈ b)(g(f x) = x).
Beweis. Übung.
u
t
Kardinalität
α heißt Kardinalität (oder Mächtigkeit) von a, wenn α Kardinalzahl ist und es eine Bijektion f : a → α
gibt.
Satz 5.5.3. (AC). Jede Menge hat genau eine Kardinalität.
Beweis. Eindeutigkeit. Klar. Existenz. Sei < eine Wohlordnung auf a. Dann existiert ein γ mit a isomorph
u
t
zu γ. Also ist { τ | |τ | = |a| } 6= ∅ und damit min{ τ | |τ | = |a| } Kardinalzahl.
Offenbar ist |a| = |b| genau dann, wenn die Kardinalität von a gleich der Kardinalität von b ist, und
|a| ≤ |b| genau dann, wenn die Kardinalität von a kleiner oder gleich der Kardinalität von b ist. Deshalb
können wir |a| als Bezeichnung der Kardinalität von a wählen.
Eine Menge a heißt endlich, wenn sich a bijektiv auf eine natürliche Zahl abbilden läßt, und unendlich
sonst. Mit (AC) folgt dann, daß a genau dann endlich ist, wenn |a| < ω gilt.
5.5 Das Auswahlaxiom
113
Lemma 5.5.4. (AC). Sind a, b 6= ∅ und ist a oder b unendlich, so ist
|a × b| = max{|a|, |b|}.
Beweis. Sei etwa |a| = max{|a|, |b|}. Dann gilt
|a| ≤ |a × b| = ||a| × |b|| ≤ ||a| × |a|| = |a|.
u
t
Satz 5.5.5. (AC). Sei I unendlich oder supi∈I |Ai | unendlich. Dann gilt
S
1. | i∈I Ai | ≤ max{|I|, supi∈I |Ai |}.
2. Hat man zusätzlich (∀i ∈ I)(Ai 6= ∅) und (∀i, j ∈ I)(i 6= j → Ai ∩ Aj = ∅), so gilt =.
Beweis. 1. OBdA κ := supi∈I |Ai | 6= 0. Wir wählen uns eine Wohlordnung < von I und definieren mit
Bezug auf diese Wohlordnung
[
[
({i} × Ai ),
f:
Ai →
i∈I
i∈I
f (x) = (min{ i ∈ I | x ∈ Ai }, x).
f ist offenbar injektiv. Also
|
[
i∈I
Ai | ≤ |
≤|
[
i∈I
[
i∈I
({i} × Ai )|
({i} × κ)|
= |I × κ|
= max{|I|, κ}.
S
2. Wegen (1) genügt es zu zeigen, daß |I|, |Ai | ≤ | i∈ISAi |. Die zweite Abschätzung S
ist klar. Zum
Beweis der ersten wählen wir uns eine Wohlordnung < von i∈I Ai und definieren f : I → i∈I Ai durch
t
u
f (i) := min< { x | x ∈ Ai }. Aufgrund der Voraussetzungen ist f injektiv.
a heißt Dedekind-endlich, wenn sich a nicht bijektiv auf eine echte Teilmenge b von a abbilden läßt,
und andernfalls Dedekind-unendlich.
Satz 5.5.6. (AC). a ist Dedekind-unendlich genau dann, wenn a unendlich ist.
Beweis. →. Sei b ( a und f : a ↔ b. Annahme: |a| < ω, etwa |a| = n. Dann existiert c ( n und ein
g : n ↔ c. Wir zeigen durch Induktion über n, daß dies nicht möglich ist, also daß gilt
∀n¬(∃c ( n)∃g(g : n ↔ c).
0. Klar. n + 1. Sei g : n + 1 ↔ c und c ( n + 1. OBdA ist n ∈
/ rng(g–n). Es folgt g–n : n ↔ c \ {n} ( n
und damit ein Widerspruch zur IH.
←. Sei g : ω → a injektiv und h : g[ω] ↔ g[ω \ 1] definiert durch
h = { (g(n), g(n + 1)) | n ∈ ω }.
Ein f : a ↔ (a \ {g(0)}) ist definiert durch
(
x,
f (x) =
h(x),
falls x ∈ a \ g[ω];
sonst.
u
t
114
5. Mengenlehre
Reguläre und singuläre Kardinalzahlen
κ, λ bezeichnen im folgenden Kardinalzahlen ≥ ω. Das Auswahlaxiom (AC) werden wir in diesem Abschnitt stets voraussetzen.
Definition 5.5.7. (AC).
1.
2.
3.
4.
x ⊆ κ heißt konfinal in κ, wenn sup(x) = κ.
cf(κ) := min{ |x| | x ⊆ κ und x konfinal mit κ } heißt Konfinalität von κ.
κ heißt regulär , wenn cf(κ) = κ.
κ heißt singulär , wenn cf(κ) < κ.
Satz 5.5.8. (AC).
1. ω = ℵ0 ist regulär.
2. ℵα+1 ist regulär.
3. Ist β Limeszahl und gilt β < ℵβ , so ist ℵβ singulär.
Beweis. 1. Angenommen, ω ist singulär, also cf(ω) < ω. Dann gibt es ein x ⊆ ω mit |x| = n und
sup(x) = ω. Dies ist aber nicht möglich (Beweis durch Induktion über n).
2. Annahme: ℵα+1 singulär. Dann ist cf(ℵa+1 ) ≤ ℵa . Es gibt also ein x ⊆ ℵα+1 mit |x| ≤ ℵα und
sup(x) = ℵα+1 . Dann gilt aber
[
ℵα+1 = | x|
≤ max{|x|, sup{ |y| | y ∈ x }}
≤ ℵα ,
nach Satz 5.5.5(1)
was nicht sein kann.
3. Sei β eine Limeszahl mit β < ℵβ . Dann hat man ℵβ = sup{ ℵγ | γ < β } und es gilt |{ ℵγ | γ <
β }| = |β| < ℵβ . Also ist ℵβ singulär.
u
t
Nach Definition hat man zu jeder unendlichen Kardinalzahl eine Teilmenge x ⊆ κ, deren Kardinalität
gleich cf(κ) ist, die sich also bijektiv auf cf(κ) abbilden läßt. Wir zeigen jetzt, daß man sogar annehmen
kann, daß diese Bijektion ein Isomorphismus ist.
Lemma 5.5.9. (AC). Sei κ unendliche Kardinalzahl. Dann gibt es eine in κ konfinale Teilmenge x ⊆ κ,
die isomorph zu cf(κ) ist.
Beweis. Sei y ⊆ κ, sup(y) = κ, |y| = cf(κ) und g : cf(κ) ↔ y. Durch transfinite Rekursion definieren wir
F : On → V,
F(α) := sup(F[α] ∪ g[α]) + 1.
Sei f := F–cf(κ). Man sieht leicht:
1. α < β < cf(κ) → f (α) < f (β) ∧ g(α) < f (β).
2. rng(f ) ⊆ κ
3. rng(f ) ist konfinal mit κ.
rng(f ) ist dann das gesuchte x.
u
t
Korollar 5.5.10. (AC). Ist κ eine unendliche Kardinalzahl, so ist cf(κ) eine reguläre Kardinalzahl.
Beweis. cf(cf(κ)) ≤ cf(κ) ist klar. Zu zeigen ist also cf(κ) ≤ cf(cf(κ)). Nach dem vorigen Lemma existieren
x, f mit x ⊆ κ, sup(x) = κ und f : cf(κ) ↔ x Isomorphismus. Weiter existiert y ⊆ cf(κ) mit sup(y) = cf(κ)
und |y| = cf(cf(κ)). Man sieht leicht, daß { f (α) | α ∈ y } konfinal mit κ ist. Daraus folgt
cf(κ) ≤ |{ f (α) | α ∈ y }|
= |y|
= cf(cf(κ))
u
t
5.5 Das Auswahlaxiom
115
Satz 5.5.11. (AC). ( König). Sei κ unendliche Kardinalzahl. Dann ist κ < |cf(κ) κ|.
Beweis. κ = |1 κ| ≤ |cf(κ) κ| ist klar. Es genügt also, aus der Annahme der Existenz einer Bijektion
f : κ ↔ cf(κ) κ einen Widerspruch herzuleiten. Gemäß Lemma 5.5.9 gibt es x ⊆ κ mit sup(x) = κ und
einen Isomorphismus g : cf(κ) ↔ x. Für jedes α < cf(κ) ist also g(α) < κ und deshalb
|{ f (γ)(α) | γ < g(α) }| ≤ |g(α)| < κ,
also { f (γ)(α) | γ < g(α) } ( κ. Setze
h : cf(κ) → κ,
h(α) := min(κ \ { f (γ)(α) | γ < g(α) }).
Den gesuchten Widerspruch erhalten wir, indem wir zeigen, daß für alle γ < κ gilt f (γ) =
6 h. Sei also
u
γ < κ. Wählt man jetzt ein α < cf(κ) mit γ < g(α), so ist h(α) 6= f (γ)(α) nach Konstruktion von h. t
Kardinalzahlpotenzen, Kontinuumshypothese
Auch in diesem Abschnitt wird (AC) stets vorausgesetzt. Wir definieren
ℵ
ℵαβ := |ℵβ ℵα |.
Später werden wir auch eine Ordinalzahlpotenz einführen. Aus Kontext sollte jeweils klar sein, ob die
Ordinalzahlpotenz oder die Kardinalzahlpotenz gemeint ist.
Satz 5.5.12. (AC).
ℵ
1. ℵβ < cf(ℵα ) → ℵα ≤ ℵαβ ≤ |P(ℵα )|
ℵ
2. cf(ℵα ) ≤ ℵβ ≤ ℵα → ℵα < ℵαβ ≤ |P(ℵα )|
ℵβ
3. ℵα ≤ ℵβ → ℵα = |P(ℵβ )|.
Beweis. 1.
ℵα ≤ |ℵβ ℵα |
≤ |ℵβ (ℵα {0, 1})|
= |ℵβ ×ℵα {0, 1}|
= |ℵα {0, 1}|
= |P(ℵα )|.
da ℵβ ≤ ℵα
2.
ℵα < |cf(ℵα ) ℵα |
Satz von König
ℵβ
≤ | ℵα |
≤ |P(ℵα )|
wie bei (1).
3.
|P(ℵβ )| = |ℵβ {0, 1}|
≤ |ℵβ ℵα |
≤ |ℵβ ×ℵα {0, 1}|
= |ℵβ {0, 1}|
= |P(ℵβ )|.
t
u
116
5. Mengenlehre
Wesentlich mehr kann man über Kardinalzahlpotenzen aussagen, wenn man die sogenannte Kontinuumshypothese annimmt; darunter versteht man die Aussage
|P(ℵ0 )| = ℵ1 .
(CH)
Die naheliegende Erweiterung auf alle Kardinalzahlen ist die verallgemeinerte Kontinuumshypothese:
|P(ℵα )| = ℵα+1 .
(GCH)
Es ist ein offenes Problem, ob die Kontinuumshypothese in der kumulativen Typenstruktur gilt (Nr. 1
in Hilberts Liste von mathematischen Problemen, die er in seinem Vortrag vor dem internationalen
Mathematikerkongress in Paris 1900 aufgestellt hat). Bekannt ist jedoch, daß die Kontinuumshypothese
von den restlichen Axiomen der Mengenlehre unabhängig ist. Die Verwendung von (CH), (GCH) wird
im folgenden immer angezeigt.
Satz 5.5.13. (GCH).
ℵ
1. ℵβ < cf(ℵα ) → ℵα = ℵαβ .
ℵ
2. cf(ℵα ) ≤ ℵβ ≤ ℵα → ℵαβ = ℵα+1 .
ℵ
3. ℵα ≤ ℵβ → ℵαβ = ℵβ+1 .
Beweis. (2) und (3) folgen mit (GCH) aus dem vorigen Satz.
1. Sei ℵβ < cf(ℵα ). Man beachte zunächst, daß gilt
[
ℵβ
ℵ α = { ℵβ γ | γ < ℵα }
Dies sieht man wie folgt. ⊇ ist klar. ⊆. Sei f : ℵβ → ℵα . Wegen |f [ℵβ ]| ≤ ℵβ < cf(ℵα ) ist sup(f [ℵβ ]) <
γ < ℵα für ein γ, also f : ℵβ → γ.
Man erhält
ℵα ≤ |ℵβ ℵα |
[
= | { ℵβ γ | γ < ℵα }|
≤ max{|ℵα |, sup |
γ<ℵα
ℵβ
γ| }
voriger Satz
nach der Vorbemerkung
nach Satz 5.5.5(1)
Es genügt also zu zeigen, daß |ℵβ γ| ≤ ℵα ist für γ < α. Sei also γ < α.
|ℵβ γ| ≤ |ℵβ ×γ {0, 1}|
≤ |ℵβ ×ℵδ {0, 1}| für ein δ mit |γ| ≤ ℵδ < ℵα
(
|P(ℵδ )| falls β < δ
≤
|P(ℵβ )| falls δ ≤ β
(
ℵδ+1 falls β < δ
=
ℵβ+1 falls δ ≤ β
≤ ℵα .
u
t
5.6 Ordinalzahlarithmetik
Wir definieren Addition, Multiplikation und Exponentiation für Ordinalzahlen und beweisen ihre grundlegenden Eigenschaften. Ferner behandeln wir die Cantorsche Normalform.
α + 0 := α,
α + (β + 1) := (α + β) + 1,
α + β := sup{ α + γ | γ < β }
falls β Limeszahl.
5.6 Ordinalzahlarithmetik
117
Genauer definiert man sα : On → V durch
und setzt dann α + β := sα (β).
sα (0) := α,
sα (β + 1) := sα (β) + 1,
[
sα (β) :=
rng(sα –β) falls β Limeszahl
Lemma 5.6.1. (Eigenschaften der Ordinalzahladdition).
1.
2.
3.
4.
5.
6.
7.
8.
9.
α + β ∈ On.
0 + β = β.
∃α, β(α + β 6= β + α).
β < γ → α + β < α + γ.
Es gibt α, β, γ mit α < β, aber α + γ <
6 β + γ.
α ≤ β → α + γ ≤ β + γ.
Ist α ≤ β, so gibt es genau ein γ mit α + γ = β.
Ist β Limeszahl, so auch α + β.
(α + β) + γ = α + (β + γ).
Beweis. 1. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist α + (β + 1) = (α + β) + 1 ∈ On, da nach
IH α + β ∈ On. Fall β Limeszahl. Dann ist α + β = sup{ α + γ | γ < β } ∈ On, da nach IH α + γ ∈ On
für alle γ < β.
2. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist 0 + (β + 1) = (0 + β) + 1 = β + 1, da nach IH
0 + β = β. Fall β Limeszahl. Dann ist
0 + β = sup{ 0 + γ | γ < β }
= sup{ γ | γ < β }
[
=
β
= β,
nach IH
da β Limeszahl.
3. 1 + ω = sup{ 1 + n | n ∈ ω } = ω 6= ω + 1.
4. Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist
β < γ + 1,
β < γ ∨ β = γ,
α+β <α+γ∨α+β =α+γ
α + β ≤ α + γ < (α + γ) + 1 = α + (γ + 1).
nach IH,
Fall γ Limeszahl. Sei β < γ, also β < δ für ein δ < γ. Dann gilt α + β < α + δ nach IH, also
α + β < sup{ α + δ | δ < γ } = α + γ.
5. 0 < 1, aber 0 + ω = ω = 1 + ω
6. Wir bemerken zunächst, daß es niemals ein β geben kann mit α < β < α + 1, denn andernfalls
hätte man im Fall β ∈ α den Widerspruch β ∈ α ∈ β und im Fall β = α den Widerspruch α ∈ α. Als
zweite Vorbemerkung notieren wir, daß stets gilt
α ≤ β → α + 1 ≤ β + 1,
denn im Fall β + 1 < α + 1 hätte man α < β + 1 < α + 1, was wie gerade bewiesen nicht sein kann. – Wir
zeigen jetzt die Behauptung α ≤ β → α + γ ≤ β + γ durch Induktion über γ. Fall 0. Klar. Fall γ + 1.
Dann ist
α+γ ≤β+γ
nach IH,
(α + γ) + 1 ≤ (β + γ) + 1 nach der zweiten Vorbemerkung,
α + (γ + 1) ≤ β + (γ + 1) nach Definition.
118
5. Mengenlehre
Fall γ Limeszahl. Dann ist
α+δ ≤β+δ
α + δ ≤ sup{ β + δ | δ < γ }
sup{ α + δ | δ < γ } ≤ sup{ β + δ | δ < γ }
α+γ ≤β+γ
für alle δ < γ, nach IH,
nach Definition.
7. Die Eindeutigkeit von γ folgt aus (4). Existenz: Sei α ≤ β. Nach (2) und (6) gilt β = 0 + β ≤ α + β.
Sei γ die kleinste Ordinalzahl mit β ≤ α + γ. Wir zeigen jetzt β = α + γ. Fall γ = 0. Dann ist
β ≤ α + γ = α + 0 = α ≤ β, also β = α + γ. Fall γ = γ 0 + 1. Dann ist α + γ 0 < β, also (α + γ 0 ) + 1 ≤ β
nach der ersten Vorbemerkung zu (6) und damit α + γ = β. Fall γ Limeszahl. Dann ist α + δ < β für
alle δ < γ, also α + γ = sup{ α + δ | δ < γ } ≤ β und damit α + γ = β.
8. Sei β Limeszahl. Wir verwenden die in Lemma 5.3.27(1) gegebene Charakterisierung von Limeszahlen. α + β =
6 0: Wegen 0 ≤ α ist 0 < β = 0 + β ≤ α + β nach (6). γ < α + β → γ + 1 < α + β: Sei
γ < α + β = sup{ α + δ | δ < β }, also γ < α + δ für ein δ < β, also γ + 1 < (α + δ) + 1 (nach der ersten
Vorbemerkung zu (6)) und damit γ + 1 < α + (δ + 1) mit δ + 1 < β, also γ + 1 < sup{ α + δ | δ < β }.
9. Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist
(α + β) + (γ + 1) = [(α + β) + γ] + 1
= [α + (β + γ)] + 1 nach IH
= α + [(β + γ) + 1]
= α + [β + (γ + 1)]
Fall γ Limeszahl. Nach (8) ist dann auch β + γ Limeszahl. Man erhält
(α + β) + γ = sup{ (α + β) + δ | δ < γ }
= sup{ α + (β + δ) | δ < γ }
= sup{ α + ε | ε < β + γ }
= α + (β + γ).
nach IH
siehe unten
Die Gleichheit der beiden Suprema sieht man wie folgt. Ist ε < β + γ, so ist ε < β + δ für ein δ < γ (nach
Definition von β + γ) und damit α + ε < α + (β + δ). Ist umgekehrt δ < γ, so ist β + δ < β + γ, also
α + (β + δ) = α + ε für ein ε < β + γ.
u
t
Die Ordinalzahlmultiplikation definieren wir durch
α · 0 := 0,
α · (β + 1) := (α · β) + α,
α · β := sup{ α · γ | γ < β }
falls β Limeszahl.
Wir schreiben αβ für α · β.
Lemma 5.6.2. (Eigenschaften der Ordinalzahlmultiplikation).
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
αβ ∈ On.
0β = 0, 1β = β.
∃α, β(αβ 6= βα).
0 < α ∧ β < γ → αβ < αγ.
Es gibt α, β, γ mit 0 < γ und α < β, aber αγ 6< βγ.
α ≤ β → αγ ≤ βγ.
Ist 0 < α und β Limeszahl, so ist auch αβ Limeszahl.
α(β + γ) = αβ + αγ.
Es gibt α, β, γ mit (α + β)γ 6= αγ + αγ.
αβ = 0 → α = 0 ∨ β = 0.
(αβ)γ = α(βγ).
5.6 Ordinalzahlarithmetik
119
12. Ist 0 < β, so gibt es genau ein γ, ρ mit α = βγ + ρ und ρ < β.
Beweis. 1. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist α(β + 1) = (αβ) + α ∈ On, da nach IH
αβ ∈ On. Fall β Limeszahl. Dann ist αβ = sup{ αγ | γ < β } ∈ On, da nach IH αγ ∈ On für alle γ < β.
2. 0β = 0: Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist 0(β + 1) = (0β) + 0 = 0 nach IH. Fall β
Limeszahl. 0β = sup{ 0γ | γ < β } = 0 nach IH. – 1β = β: Induktion über β. Fall 0. Klar. Fall β +1. Dann
ist 1(β + 1) = (1β) + 1 = β + 1 nach IH. Fall β Limeszahl. 1β = sup{ 1γ | γ < β } = sup{ γ | γ < β } = β
nach IH.
3. Man beachte zunächst, daß für alle n ∈ ω gilt nω = sup{ nm | m < ω } = ω. Damit folgt 2ω = ω,
aber ω2 = ω(1 + 1) = ω1 + ω = ω + ω > ω.
4. Sei 0 < α. Wir zeigen β < γ → αβ < αγ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist
β < γ + 1,
β < γ ∨ β = γ,
αβ < αγ ∨ αβ = αγ
nach IH,
αβ ≤ αγ < (αγ) + α = α(γ + 1).
Fall γ Limeszahl. Sei β < γ, also β < δ für ein δ < γ. Dann gilt αβ < αδ nach IH, also αβ < sup{ αδ |
δ < γ } = αγ.
5. Es ist 0 < ω und 1 < 2, aber 1ω = ω = 2ω.
6. Wir zeigen die Behauptung α ≤ β → αγ ≤ βγ durch Induktion über γ. Fall 0. Klar. Fall γ + 1.
Dann ist
αγ ≤ βγ nach IH,
(αγ) + α ≤ (βγ) + α ≤ (βγ) + β
α(γ + 1) ≤ β(γ + 1)
nach Lemma 5.6.1(6) und (4)
nach Definition.
Fall γ Limeszahl. Dann ist
αδ ≤ βδ
für alle δ < γ, nach IH,
αδ ≤ sup{ βδ | δ < γ },
sup{ αδ | δ < γ } ≤ sup{ βδ | δ < γ },
αγ ≤ βγ
nach Definition.
7. Sei 0 < α und β Limeszahl. Zum Beweis von αβ Limeszahl verwenden wir wieder die in Lemma 5.3.27(1) gegebene Charakterisierung von Limeszahlen. αβ 6= 0: Wegen 1 ≤ α und ω ≤ β ist
0 < ω = 1ω ≤ αβ nach (6). γ < αβ → γ + 1 < αβ: Sei γ < αβ = sup{ αδ | δ < β }, also γ < αδ
für ein δ < β, also γ + 1 < αδ + 1 ≤ αδ + α = α(δ + 1) mit δ + 1 < β, also γ + 1 < sup{ αδ | δ < β }.
8. Zu zeigen ist α(β + γ) = αβ + αγ. OBdA sei 0 < α. Wir verwenden Induktion über γ. Fall 0. Klar.
Fall γ + 1. Dann ist
α[β + (γ + 1)] = α[(β + γ) + 1]
= α(β + γ) + α
= (αβ + αγ) + α
= αβ + (αγ + α)
nach IH
= αβ + α(γ + 1).
Fall γ Limeszahl. Nach (7) ist dann auch αγ Limeszahl. Man erhält
α(β + γ) = sup{ αδ | δ < β + γ }
= sup{ α(β + ε) | ε < γ }
= sup{ αβ + αε | ε < γ } nach IH
= sup{ αβ + δ | δ < αγ }
= αβ + αγ.
120
5. Mengenlehre
9. (1 + 1)ω = 2ω = ω, aber 1ω + 1ω = ω + ω.
10. Ist 0 < α, β, also 1 ≤ α, β, so folgt 0 < 1 · 1 ≤ αβ.
11. Induktion über γ. OBdA sei β 6= 0. Fall 0. Klar. Fall γ + 1. Dann ist
(αβ)(γ + 1) = (αβ)γ + αβ
= α(βγ) + αβ
= α(βγ + β)
nach IH
nach (8)
= α[β(γ + 1)]
Fall γ Limeszahl. Nach (7) ist dann auch βγ Limeszahl. Man erhält
(αβ)γ = sup{ (αβ)δ | δ < γ }
= sup{ α(βδ) | δ < γ } nach IH
= sup{ αε | ε < βγ }
= α(βγ).
12. Existenz: Sei 0 < β, also 1 ≤ β und deshalb α = 1α ≤ βα. Sei γ die kleinste Ordinalzahl mit
α ≤ βγ. Fall α = βγ. Setze ρ = 0. Fall α < βγ. Ist dann γ = γ 0 + 1, so ist βγ 0 < α. Es gibt also ein ρ
mit βγ 0 + ρ = α. Ferner ist ρ < β, denn aus ρ ≥ β folgt α = βγ 0 + ρ ≥ βγ 0 + β = β(γ 0 + 1) = βγ im
Widerspruch zur Fallunterscheidungsannahme. Ist γ Limeszahl, so gilt α < βγ = sup{ βδ | δ < γ }, also
α < βδ für ein δ < γ, was nicht sein kann.
Eindeutigkeit: Gelte βγ1 + ρ1 = βγ2 + ρ2 mit ρ1 , ρ2 < β. Ist etwa γ1 < γ2 , so folgt
βγ1 + ρ1 < βγ1 + β
= β(γ1 + 1)
≤ βγ2
≤ βγ2 + ρ2
und damit ein Widerspruch. Also ist γ1 = γ2 , und deshalb auch ρ1 = ρ2 .
u
t
Korollar 5.6.3. Jede Ordinalzahl α läßt sich eindeutig in der Form α = ωγ + n darstellen. Hierbei ist
n = 0 genau dann, wenn α = 0 oder α Limeszahl ist.
Beweis. Es ist nur noch zu zeigen, daß für jedes γ gilt ωγ = 0 oder ωγ ist Limeszahl. Im Fall γ = 0 ist
dies klar. Im Fall γ + 1 ist ω(γ + 1) = ωγ + ω Limeszahl nach Lemma 5.6.1(8). Im Fall γ Limeszahl ist
nach Lemma 5.6.2(7) auch ωγ Limeszahl.
u
t
Die Ordinalzahlexponentiation definieren wir durch
(
0, falls α = 0;
α0 :=
1, sonst,
αβ+1 := αβ α,
αβ := sup{ αγ | γ < β }
falls β Limeszahl.
Lemma 5.6.4. (Eigenschaften der Ordinalzahlexponentiation).
1.
2.
3.
4.
5.
6.
7.
8.
αβ ∈ On.
0β = 0, 1β = β.
1 < α ∧ β < γ → αβ < α γ .
Es gibt α, β, γ mit 1 < γ und 1 < α < β, aber αγ 6< β γ .
α ≤ β → αγ ≤ β γ .
Ist 1 < α und β Limeszahl, so ist auch αβ Limeszahl.
αβ+γ = αβ αγ .
αβγ = (αβ )γ .
5.6 Ordinalzahlarithmetik
121
9. 1 < α → β ≤ αβ .
Beweis. 1. Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist αβ+1 = (αβ )α ∈ On, da nach IH αβ ∈ On.
Fall β Limeszahl. Dann ist αβ = sup{ αγ | γ < β } ∈ On, da nach IH αγ ∈ On für alle γ < β.
2. 0β = 0: Induktion über β. Fall 0. 00 = 0 gilt nach Definition. Fall β + 1. Dann ist 0β+1 = (0β )0 = 0.
Fall β Limeszahl. 0β = sup{ 0γ | γ < β } = 0 nach IH. – 1β = 1: Induktion über β. Fall 0. Klar. Fall β +1.
Dann ist 1β+1 = (1β )1 = 1 nach IH. Fall β Limeszahl. 1β = sup{ 1γ | γ < β } = sup{ 1 | γ < β } = 1
nach IH.
3. Sei 1 < α. Wir zeigen β < γ → αβ < αγ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Dann ist
β < γ + 1,
β < γ ∨ β = γ,
αβ < α γ ∨ αβ = αγ
β
γ
nach IH,
γ
γ
α ≤α <α +α ≤α
γ+1
.
Fall γ Limeszahl. Sei β < γ, also β < δ für ein δ < γ. Dann gilt αβ < αδ nach IH, also αβ < sup{ αδ |
δ < γ } = αγ .
4. Für 1 < n gilt nω = sup{ nm | m < ω } = ω und damit 2ω = ω = 3ω .
5. Wir zeigen die Behauptung α ≤ β → αγ ≤ β γ durch Induktion über γ. Fall 0. Klar. Fall γ + 1. Sei
also α ≤ β. Dann ist
α
αγ ≤ β γ
γ+1
nach IH,
γ
=α α
≤ βγ α
≤ βγ β
= β γ+1 .
Fall γ Limeszahl. Sei wieder α ≤ β. Dann ist
αδ ≤ β δ
δ
für alle δ < γ, nach IH,
δ
α ≤ sup{ β | δ < γ }
sup{ αδ | δ < γ } ≤ sup{ β δ | δ < γ }
nach Definition.
αγ ≤ β γ
6. Sei 1 < α und β Limeszahl. Zum Beweis von αβ Limeszahl verwenden wir wieder die in Lemma 5.3.27(1) gegebene Charakterisierung von Limeszahlen. αβ 6= 0: Wegen 1 ≤ α ist 1 = 1β ≤ αβ .
γ < αβ → γ + 1 < αβ : Sei γ < αβ = sup{ αδ | δ < β }, also γ < αδ für ein δ < β, also
γ + 1 < αδ + 1 ≤ αδ 2 ≤ αδ+1 mit δ + 1 < β, also γ + 1 < sup{ αδ | δ < β }.
7. Zu zeigen ist αβ+γ = αβ αγ . OBdA sei α =
6 0, 1. Wir verwenden Induktion über γ. Fall 0. Klar. Fall
γ + 1. Dann ist
αβ+γ+1 = αβ αγ α
β
=α α
γ+1
nach IH
.
Fall γ Limeszahl. Man erhält
αβ+γ = sup{ αδ | δ < β + γ }
= sup{ αβ+ε | ε < γ }
= sup{ αβ αε | ε < γ }
β
γ
= sup{ α δ | δ < α }
= α β αγ .
nach IH
122
5. Mengenlehre
8. Zu zeigen ist αβγ = (αβ )γ . OBdA sei α 6= 0, 1 und β 6= 0. Wir verwenden Induktion über γ. Fall 0.
Klar. Fall γ + 1. Dann ist
αβ(γ+1) = αβγ αβ
= (αβ )γ αβ
β γ+1
= (α )
nach IH
.
Fall γ Limeszahl. Wegen α 6= 0, 1 und β 6= 0 sind dann αβγ und (αβ )γ Limeszahlen und man erhält
αβγ = sup{ αδ | δ < βγ }
= sup{ αβε | ε < γ }
= sup{ (αβ )ε | ε < γ }
nach IH
β γ
= (α ) .
9. Sei 1 < α. Wir zeigen β ≤ αβ durch Induktion über β. Fall 0. Klar. Fall β + 1. Dann ist β ≤ αβ
nach IH, also
β + 1 ≤ αβ + 1
≤ αβ + αβ
≤ αβ+1 .
Fall β Limeszahl. Man erhält
= sup{ γ | γ < β }
≤ sup{ αγ | γ < β }
nach IH
β
=α .
t
u
Satz 5.6.5. ( Cantor-Normalform). Sei γ ≥ 2. Jedes α läßt sich eindeutig darstellen in der Form
α = γ α1 β1 + · · · + γ αn βn
mit α ≥ α1 > · · · > αn und 0 < βi < γ.
Beweis. Existenz. Induktion über α. Sei δ minimal mit α < γ δ ; ein solches δ existiert, da α ≤ γ α . Dann
kann δ keine Limeszahl sein, da sonst α < γ ε für ein ε < δ wäre. Ist δ = 0, so folgt α = 0 und die
Behauptung ist trivial. Sei also δ = α1 + 1, also
γ α1 ≤ α < γ α1 +1 .
Division mit Rest ergibt
α = γ α1 β1 + ρ mit ρ < γ α1 .
Offenbar ist 0 < β1 < γ. Ist jetzt ρ = 0, so sind wir fertig. Andernfalls haben wir
ρ = γ α2 β2 + · · · + γ αn βn
nach IH.
Zu zeigen bleibt α1 > α2 . Dies gilt, da aus α2 ≥ α1 folgt ρ ≥ γ α2 ≥ γ α1 , was nicht sein kann.
Eindeutigkeit. Sei
0
0
0
γ α1 β1 + · · · + γ αn βn = γ α1 β10 + · · · + γ αm βm
.
und nehmen wir an, daß beide Darstellungen verschieden sind. Da keine Darstellung Verlängerung der
anderen sein kann, gibt es dann ein i ≤ n, m mit (αi , βi ) 6= (αi0 , βi0 ). Nach Lemma 5.6.1(4) können wir
oBdA i = 1 annehmen. Zunächst gilt
γ α1 β1 + · · · + γ αn−1 βn−1 + γ αn βn < γ α1 β1 + · · · + γ αn−1 βn−1 + γ αn +1
≤ γ α1 β1 + · · · + γ αn−1 (βn−1 + 1)
≤ γ α1 β1 + · · · + γ αn−1 +1
...
≤ γ α1 (β1 + 1).
da βn < γ
da αn < αn−1
5.7 Normalfunktionen
123
0
Wäre etwa α1 < α10 , so hätte man γ α1 β1 + · · · + γ αn βn < γ α1 (β1 + 1) ≤ γ α1 +1 ≤ γ α1 , was nicht sein kann.
Also ist α1 = α10 . Wäre nun etwa β1 < β10 , so hätte man γ α1 β1 + · · · + γ αn βn < γ α1 (β1 + 1) ≤ γ α1 β10 , was
u
t
wieder nicht sein kann. Also ist β1 = β10 .
Korollar 5.6.6. ( Cantor-Normalform zur Basis ω). Jedes α läßt sich eindeutig darstellen in der Form
α = ω α1 + · · · + ω αn
mit α ≥ α1 ≥ · · · ≥ αn .
u
t
Eine Ordinalzahl α heißt additive Hauptzahl , wenn α 6= 0 ist und aus β, γ < α stets folgt β + γ < α.
Korollar 5.6.7. Additive Hauptzahlen sind genau die Ordinalzahlen der Form ω ξ .
Beweis. Dies ergibt sich leicht aus der Cantor-Normalform zur Basis ω.
u
t
Korollar 5.6.8. ( Cantor-Normalform zur Basis 2). Jedes α läßt sich eindeutig darstellen in der Form
α = 2α1 + · · · + 2αn
mit α ≥ α1 > · · · > αn .
u
t
Wir setzen noch ω0 := 1, ωk+1 := ω ωk und ε0 := supk<ω ωk .
5.7 Normalfunktionen
In [45] hat Veblen den Begriff einer stetigen monotonen Funktion auf einem Abschnitt der Ordinalzahlen
untersucht und eine gewisse Hierarchie von Normalfunktionen eingeführt. Seine Absicht war dabei, die
Cantorsche Theorie der ε-Zahlen aus [5] zu erweitern.
Sei Ω eine eine reguläre Kardinalzahl > ω oder Ω = On. Ein wichtiges Beispiel ist Ω = ℵ1 , also der
Fall, daß Ω die Menge der abzählbaren Ordinalzahlen ist. Mit α, β, γ, δ, ε, ξ, η, ζ bezeichnen wir Elemente
von Ω. Eine Funktion ϕ : Ω → Ω heißt monoton, wenn aus α < β stets folgt ϕα < ϕβ. ϕ heißt stetig,
wenn gilt ϕα = supξ<α ϕξ für jede Limeszahl α. ϕ heißt normal , wenn ϕ monoton und stetig ist.
Lemma 5.7.1. Für jede monotone Funktion ϕ gilt α ≤ ϕα.
Beweis. Induktion über α. Fall 0. 0 ≤ ϕ0. Fall α + 1. α ≤ ϕα < ϕ(α + 1). Fall α Limeszahl. α =
supξ<α ξ ≤ supξ<α ϕξ ≤ ϕα.
t
u
Eine Klasse B ⊆ Ω heißt beschränkt, wenn sup(B) ∈ Ω. Eine Klasse A ⊆ Ω heißt abgeschlossen, wenn
für jede beschränkte Teilklasse B ⊆ A gilt sup(B) ∈ A. Abgeschlossene unbeschränkte Klassen A ⊆ Ω
heißen normal in Ω oder auch club in Ω (club steht für “closed unbounded”).
Ist zum Beispiel Ω = Ω1 , so ist jedes B ⊆ Ω eine Menge, und B ist genau dann beschränkt, wenn B
abzählbar ist. Ist Ω = On, so ist B genau dann beschränkt, wenn B eine Menge ist.
Nach Korollar 5.3.19 (zum Isomorphiesatz von Mostowski) gibt es zu jedem A ⊆ On einen eindeutig
bestimmten Isomorphismus einer ordinalen Klasse auf A, also ein f : On → A bzw. f : α → A. Diesen
Isomorphismus nennt man die Ordnungsfunktion von A. f heißt auch die monotone Aufzählung von A.
Lemma 5.7.2. Der Wertebereich einer Normalfunktion ist eine normale Klasse. Umgekehrt ist die Ordnungsfunktion einer normalen Klasse eine Normalfunktion.
Beweis. Sei ϕ eine Normalfunktion. ϕ[Ω] ist unbeschränkt, da für jedes α gilt α ≤ ϕα. Wir zeigen jetzt,
daß ϕ[Ω] abgeschlossen ist. Sei also B = { ϕξ | ξ ∈ A } beschränkt, d.h. sup(B) ∈ Ω. Wegen ξ ≤ ϕξ
ist dann auch A beschränkt. Zu zeigen ist sup(B) = ϕα für ein α. Hat A ein maximales Element, so
sind wir fertig. Andernfalls sei α := sup(A). Offenbar ist α eine Limeszahl. Dann gilt ϕα = supξ<α ϕξ =
supξ∈A ϕξ = sup(B).
Sei umgekehrt A abgeschlossen und unbeschränkt. Wir definieren eine Funktion ϕ : Ω → A durch
transfinite Rekursion, wie folgt.
ϕα := min{ γ ∈ A | ∀ξ(ξ < α → ϕξ < γ) }.
ϕ ist wohldefiniert, da A unbeschränkt ist. Offenbar ist ϕ die Ordnungsfunktion von A und deshalb
monoton. Es bleibt zu zeigen, daß ϕ stetig ist. Sei also α eine Limeszahl. Da ϕ[α] beschränkt ist (dies folgt
aus ϕξ < ϕα für ξ < α) und A abgeschlossen ist, gilt supξ∈α ϕξ ∈ A, also nach Definition ϕα = supξ∈α ϕξ.
u
t
124
5. Mengenlehre
Lemma 5.7.3. Die Fixpunkte einer Normalfunktion bilden eine normale Klasse.
Beweis. (vgl. Cantor [5, p. 242]). Sei ϕ eine Normalfunktion. Für jede Ordinalzahl α erhalten wir einen
Fixpunkt β ≥ α von ϕ durch
β := sup{ ϕn α | n ∈ N }.
Also ist die Klasse der Fixpunkte von ϕ unbeschränkt. Sie ist auch abgeschlossen, da für jede Klasse B
von Fixpunkten von ϕ gilt ϕ(sup(B)) = sup{ ϕα | α ∈ B } = sup{ α | α ∈ B } = sup(B), d.h. sup(B) ist
u
t
ein Fixpunkt von ϕ.
Die Ordnungsfunktion der Klasse der Fixpunkte einer Normalfunktion ϕ heißt nach Veblen die erste
Ableitung ϕ0 von ϕ. Zum Beispiel ist die erste Ableitung der Funktion ω ξ die Funktion εξ .
Lemma 5.7.4. ( Veblen [45, p. 284]).
T Sei (Aγ )γ<β mit β Limeszahl eine fallende Folge normaler Klassen. Dann ist auch der Durchschnitt γ<β Aγ normal.
Beweis. Unbeschränktheit. Sei α gegeben und δγ := min{ ξ ∈ Aγ | ξ > α }. Dann ist (δγ )γ<βTschwach
monoton. Sei δ := supγ<β δγ . Dann
T ist δ ∈ Aγ für jedes γ < β, da die Aγ fallen. Also ist α < δ ∈ γ<β Aγ .
Abgeschlossenheit. Sei B ⊆ Tγ<β Aγ , B beschränkt. Dann gilt B ⊆ Aγ für jedes γ < β und deshalb
sup(B) ∈ Aγ . Also ist sup(B) ∈ γ<β Aγ .
u
t
Wir definieren jetzt die Veblen-Hierarchie von Normalfunktionen. Sie geht aus von einer beliebigen
gegebenen Normalfunktion ϕ : Ω → Ω. Wir verwenden transfinite Rekursion, um für jedes β ∈ Ω eine
Normalfunktion ϕβ : Ω → Ω zu definieren:
ϕ0 := ϕ,
0
ϕβ+1 := (ϕβ ) ,
T
für Limeszahlen β sei ϕβ die Ordnungsfunktion für γ<β ϕγ [Ω].
Etwa für ϕα := 1 + α erhält man ϕβ α = ω β + α. Beginnt man mit ϕα := ω α , so ist ϕ1 α = εα und ϕ2
zählt die kritischen ε-Zahlen auf, d.h. die Ordinalzahlen α mit εα = α.
Lemma 5.7.5. Sei β > 0. Dann ist ϕβ die Ordnungsfunktion der Klasse aller gemeinsamen Fixpunkte
aller ϕγ für γ < β.
Beweis. Wir müssen zeigen ϕβ [Ω] = { ξ | ∀γ(γ < β → ϕγ ξ = ξ) }.
⊆. Dies beweist man durch transfinite Induktion nach β. Im Fall β + 1 ist jedes ϕβ+1 α ein Fixpunkt
von ϕβ und deshalb nachTIH auch ein Fixpunkt aller ϕγ für γ < β. Ist β eine Limeszahl, so folgt die
Behauptung aus ϕβ [Ω] = γ<β ϕγ [Ω].
⊇. Sei ξ mit ∀γ(γ < β → ϕγ ξ = ξ) gegeben.
Ist β ein Nachfolger, so gilt ξ ∈ ϕβ [Ω] nach Definition
T
von ϕβ . Ist β eine Limeszahl, so gilt ξ ∈ γ<β ϕγ [Ω] = ϕβ [Ω].
t
u
Hieraus folgt, daß gilt ϕγ (ϕβ ξ) = ϕβ ξ für jedes γ < β.
Eine weitere Normalfunktion erhält man wie folgt. Aus jeder der normalen Klassen ϕβ [Ω] nehme man
den kleinsten Fixpunkt heraus. Die auf diese Weise gebildete Klasse ist wieder normal, läßt sich also
durch eine Normalfunktion aufzählen. Diese Normalfunktion ordnet also jedem β die Ordinalzahl ϕβ 0 zu.
Lemma 5.7.6. Ist ϕ eine Normalfunktion mit 0 < ϕ0, so ist auch λβ ϕβ 0 eine Normalfunktion.
Beweis. Wir zeigen zunächst
β < γ → ϕβ 0 < ϕγ 0,
und zwar durch Induktion über γ. Sei also β < γ. Man beachte, daß 0 < ϕβ 0 nach IH oder im Fall
β = 0 nach Annahme. Also ist 0 kein Fixpunkt von ϕβ und deshalb 0 < ϕγ 0. Hieraus folgt aber
ϕβ 0 < ϕβ (ϕγ 0) = ϕγ 0.
Wir zeigen jetzt, daß λβϕβ 0 stetig ist. Sei δ := supβ<γ ϕβ 0 mit γ Limeszahl. Wir müssen zeigen
δ =Tϕγ 0. Da ϕβ 0 ∈ ϕα [Ω] für alle α ≤ β < γ und da ϕα [Ω] abgeschlossen ist, gilt δ ∈ ϕα [Ω], also
t
δ ∈ α<γ ϕα [Ω] = ϕγ [Ω] und deshalb δ ≥ ϕγ 0. Andererseits ist ϕβ 0 < ϕβ (ϕγ 0) = ϕγ 0, also δ ≤ ϕγ 0. u
5.7 Normalfunktionen
125
Die Fixpunkte dieser Funktion, d.h. die Ordinalzahlen α mit ϕα 0 = α, heißen stark kritische Ordinalzahlen. Man beachte, daß sie von der oben als gegeben vorausgesetzten Normalfunktion ϕ = ϕ0
abhängen. Ihre Ordnungsfunktion wird meist mit Γ bezeichnet. Nach Definition ist also Γ0 := Γ 0 die
kleinste Ordinalzahl β mit ϕβ 0 = β.
Wir wollen jetzt eine Verallgemeinerung der Cantorschen Normalform herleiten, die auf der VeblenHierarchie aufbaut (anstelle von ω ξ ).
Lemma 5.7.7.
ϕβ0 α0 < ϕβ1 α1
ϕβ0 α0 = ϕβ1 α1


α0 < ϕβ1 α1 ,
⇐⇒ α0 < α1 ,


ϕβ0 α0 < α1 ,


α0 = ϕβ1 α1 ,
⇐⇒ α0 = α1 ,


ϕβ0 α0 = α1 ,
falls β0 < β1 ;
falls β0 = β1 ;
falls β0 > β1 ,
(5.2)
falls β0 < β1 ;
falls β0 = β1 ;
falls β0 > β1 .
(5.3)
Beweis. ⇐=. (5.2). Ist β0 < β1 und α0 < ϕβ1 α1 , so gilt ϕβ0 α0 < ϕβ0 ϕβ1 α1 = ϕβ1 α1 . Ist β0 = β1 und
α0 < α1 , so folgt ϕβ0 α0 < ϕβ1 α1 . Ist β0 > β1 und ϕβ0 α0 < α1 , so gilt ϕβ0 α0 = ϕβ1 ϕβ0 α0 < ϕβ1 α1 . Für
(5.3) schließt man analog.
=⇒. Ist die rechte Seite von (5.2) falsch, so gilt


α1 ≤ ϕβ0 α0 , falls β1 < β0 ;
α1 ≤ α0 ,
falls β1 = β0 ;


ϕβ1 α1 ≤ α0 , falls β1 > β0 ,
also nach ⇐= (mit 0 und 1 vertauscht) ϕβ1 α1 < ϕβ0 α0 bzw. ϕβ1 α1 = ϕβ0 α0 , also ¬(ϕβ0 α0 < ϕβ1 α1 ). Ist
die rechte Seite von (5.3) falsch, so gilt


6 ϕβ1 α1 , falls β0 < β1 ;
α0 =
α0 6= α1 ,
falls β0 = β1 ;


6 α1 , falls β0 > β1 ,
ϕβ0 α0 =
und damit nach ⇐= in (5.2) entweder ϕβ0 α0 < ϕβ1 α1 oder ϕβ1 α1 < ϕβ0 α0 , also ϕβ0 α0 6= ϕβ1 α1 .
u
t
Korollar 5.7.8. Gilt β0 ≤ β1 , so ist ϕβ0 α ≤ ϕβ1 α.
Beweis. Gelte β0 < β1 . Nach Lemma 5.7.7 (für ≤) genügt es zu zeigen α ≤ ϕβ1 α. Dies folgt aber aus
Lemma 5.7.1.
t
u
Korollar 5.7.9. Gilt ϕβ0 α0 = ϕβ1 α1 , so ist α0 = α1 und β0 = β1 , falls α0 < ϕβ0 α0 und α1 < ϕβ1 α1 .
Beweis. Fall β0 = β1 . Dann folgt α0 = α1 aus Lemma 5.7.7. Fall β0 < β1 . Nach Lemma 5.7.7 gilt dann
α0 = ϕβ1 α1 = ϕβ0 α0 im Widerspruch zu unserer Annahme. Fall β1 < β0 . Ähnlich.
u
t
Korollar 5.7.10. Ist ϕ eine Normalfunktion mit 0 < ϕ0, so kann jeder Fixpunkt α von ϕ = ϕ0 eindeutig
in der Form α = ϕβ α0 mit α0 < α geschrieben werden.
Beweis. Es gilt α + 1 ≤ ϕα+1 0 nach Lemma 5.7.6 und deshalb α < ϕα+1 α. Sei nun β minimal mit
α < ϕβ α. Nach Annahme ist 0 < β. Da α Fixpunkt aller ϕγ mit γ < β ist, gilt α = ϕβ α0 für ein α0 . Mit
α < ϕβ α folgt α0 < α.
Eindeutigkeit. Sei noch α = ϕβ1 α1 mit α1 < α. Dann ist α1 < ϕβ1 α1 , also β ≤ β1 nach Wahl von
β. Wäre nun β < β1 , so folgte ϕβ α = ϕβ ϕβ1 α1 = ϕβ1 α1 = α im Widerspruch zur Wahl von β. Also ist
β = β1 und damit α1 = α.
u
t
Wir zeigen jetzt, daß sich jede Ordinalzahl eindeutig in einer gewissen ϕ-Normalform schreiben läßt.
Hierbei nehmen wir an, daß unsere Ausgangs-Normalfunktion ϕ0 = ϕ die Exponentiation zur Basis ω ist.
126
5. Mengenlehre
Satz 5.7.11 (ϕ-Normalform). Sei ϕ0 ξ := ω ξ . Dann läßt sich jede Ordinalzahl α eindeutig schreiben
in der Form
α = ϕβ1 α1 + · · · + ϕβn αn
mit ϕβ1 α1 ≥ · · · ≥ ϕβn αn und αi < ϕβi αi für i = 1, . . . , k. Ist α < Γ0 , so gilt zusätzlich βi < ϕβi αi für
i = 1, . . . , n.
Beweis. Existenz. Zunächst schreibe man α in Cantor-Normalform α = ϕ0 δ1 +· · ·+ϕ0 δn mit δ1 ≥ · · · ≥
δn . Jeden Summanden mit δi < ϕ0 δi lasse man unverändert. Jeder andere Summand erfüllt δi = ϕ0 δi
und kann deshalb nach Korollar 5.7.10 durch ϕβ α0 mit α0 < ϕβ α0 ersetzt werden.
Eindeutigkeit. Sei
0
0 α
α = ϕβ1 α1 + · · · + ϕβn αn = ϕβ10 α10 + · · · + ϕβm
m
und nehmen wir an, daß beide Darstellungen verschieden sind. Da keine Darstellung Verlängerung der
anderen sein kann, gibt es dann ein i ≤ n, m mit (βi , αi ) 6= (βi0 , αi0 ). Nach Lemma ordadd.g können wir
oBdA i = 1 annehmen. Wäre etwa ϕβ1 α1 < ϕβ10 α10 , so hätte man (da ϕβ10 α10 additive Hauptzahl ist und
ϕβ1 α1 ≥ · · · ≥ ϕβn αn gilt)
0
0 α
ϕβ1 α1 + · · · + ϕβn αn < ϕβ10 α10 ≤ ϕβ10 α10 + · · · + ϕβm
m,
was nicht sein kann.
Zu zeigen bleibt, daß im Fall α < Γ0 gilt βi < ϕβi αi für i = 1, . . . , n. Nehmen wir also an, daß
ϕβi αi ≤ βi für ein i. Dann erhält man
ϕβi 0 ≤ ϕβi αi ≤ βi ≤ ϕβi 0,
also ϕβi 0 = βi und deshalb
Γ0 ≤ βi = ϕβi 0 ≤ ϕβi αi ≤ α.
u
t
Aus den ϕβ (α) erhält man also ein eindeutiges Bezeichnungssystem für Ordinalzahlen unterhalb von
Γ0 := Γ 0. Man beachte jedoch, daß nach Definition von Γ0 gilt Γ0 = ϕΓ0 0.
5.8 Anmerkungen
Die hier vorgestellte Mengenlehre wird in der Literatur mit ZFC bezeichnet (Zermelo-FraenkelMengenlehre mit Auswahlaxiom C für Choice). Zermelo hat 1908 die Axiome angegeben mit Ausnahme des Regularitätsaxioms (von Neumann, 1925) und des Ersetzungsschemas (Fraenkel, 1922).
Auch Skolem betrachtete Prinzipien, die zu den beiden nachträglichen Axiomen verwandt sind. In ZFC
gibt es nur Mengen als Objekte, Klassen sind nur eine Sprechweise und können immer mit Formeln
identifiziert werden.
Die in Abschnitt 5.7 definierte Hierarchie von Normalfunktionen wurde von Veblen [45] auf Funktionen mit mehr als einem Argument erweitert. Schütte hat in [30] diese Funktionen genauer untersucht
und gezeigt, daß und wie sie für eine konstruktive Darstellung eines weit über Γ0 hinausreichenden Abschnitts der Ordinalzahlen verwendet werden können. Dazu hat er sogenannte “Klammersymbole” zur
Bezeichnung der mehrstelligen Veblen-Funktionen eingeführt.
Bachmann hat die Veblen-Hierarchie unter Verwendung der ersten überabzählbaren Ordinalzahl Ω
erweitert. Sein Ansatz wurde später durch Hinzunahme von Symbolen für höhere Zahlenklassen erweitert,
zuerst von Pfeiffer für endliche Zahlenklassen und dann von Isles für transfinite Zahlenklassen. Die
entstehende Theorie war jedoch sehr kompliziert und es war schwierig, mit ihr zu arbeiten. Eine Idee von
Feferman hat dann den Gegenstand sehr vereinfacht: Er führte Funktionen θα : On → On mit α ∈ On ein,
die wieder eine Hierarchie von Normalfunktionen bildeten und die Veblen-Hierarchie erweiterten; man
schreibt meist θαβ anstelle von θα (β) und sieht θ als eine zweistellige Funktion an. Die Ordinalzahlen
θαβ werden wie folgt durch transfinite Rekursion über α definiert. Nehmen wir an, daß θξ für jedes
ξ < α schon definiert ist. Sei C(α, β) die Menge aller Ordinalzahlen, die sich aus Ordinalzahlen < β
und etwa den Konstanten 0, ℵ1 , . . . , ℵω mit Hilfe der Funktionen + und θ–{ ξ | ξ < α } × On erzeugen
5.8 Anmerkungen
127
/ C(α, β). θα : On → On wird dann definiert als die
lassen. Eine Ordinalzahl β heiße α-kritisch, wenn β ∈
Ordnungsfunktion der Klasse aller α-kritischen Ordinalzahlen.
Buchholz hat in [3] bemerkt, daß das zweite Argument β in θαβ nicht wesentlich benutzt wird, und daß
die Funktionen α 7→ θαℵv mit v = 0, 1, . . . , ω ein Bezeichnungssystem für Ordinalzahlen von derselben
Stärke erzeugen wie das System mit der zweistelligen θ-Funktion. Er hat deshalb direkt Funktionen ψv
mit v ≤ ω definiert, die α 7→ θαℵv entsprechen. Genauer definiert er ψv α für α ∈ On und v ≤ ω durch
transfinite Rekursion über α, und zwar simultan für alle v, wie folgt.
ψv α := min{ γ | γ ∈
/ Cv (α) },
wobei Cv (α) die Menge aller Ordinalzahlen ist, die sich aus den Ordinalzahlen < ℵv durch die Funktionen
+ und alle ψu –{ ξ | ξ < α } mit u ≤ ω erzeugen lassen.
128
5. Mengenlehre
6. Beweistheorie der Arithmetik
In diesem Kapitel nehmen wir die Behandlung der Beweistheorie wieder auf. Allerdings verlassen wir den
Bereich der reinen Logik und betrachten induktiv erzeugte Datenstrukturen; das Standardbeispiel ist die
Menge der natürlichen Zahlen, die wir uns aus aus der Null mit der Nachfolgerfunktion erzeugt denken.
Wir behandeln die Frage nach Beweisbarkeit und Unbeweisbarkeit von Anfangsfällen der transfiniten
Induktion in der Arithmetik. Es wird sich zeigen, daß wir hier eine scharfe Schranke erhalten, nämlich die
Ordinalzahl ε0 . Als Folgerung hieraus werden wir in Abschnitt 6.4 zeigen, daß ein Normalisierungssatz,
der die Teilformeleigenschaft impliziert, in der Arithmetik nicht gelten kann.
6.1 Gödelisierung von Ordinalzahlen
Um in arithmetischen Theorien über Ordinalzahlen sprechen zu können, verwenden wir eine Gödelisierung von Ordinalzahlen. Dies ist sicher nur für abzählbare Mengen von Ordinalzahlen möglich. Wir
beschränken uns hier auf den durch ε0 bestimmten Abschnitt der Ordinalzahlen. Unsere Gödelisierung
können wir dann aus der Cantor-Normalform erhalten. Mit α, β, γ bezeichnen wir in diesem Abschnitt
stets Ordinalzahlen < ε0 .
Wir müssen ferner wissen, daß gewissen Relationen und Funktionen über den Ordinalzahlen < ε0
berechenbare Relationen und Funktionen entsprechen. Dazu stellen wir folgendes fest.
Lemma 6.1.1. Seien ω αm + · · · + ω α0 und ω βn + · · · + ω β0 Cantor-Normalformen (mit m, n ≥ −1).
Dann gilt
ω αm + · · · + ω α0 < ω β n + · · · + ω β 0
genau dann, wenn es ein i ≥ 0 gibt so daß αm−i < βn−i , αm−i+1 = βn−i+1 , . . . , αm = βn , oder m < n
und αm = βn , . . . , α0 = βn−m .
Beweis. Übung.
u
t
Wir verwenden die Bezeichnungen 1 für ω 0 , a für ω 0 + · · · + ω 0 mit a Exemplaren von ω 0 und ω α a
für ω α + · · · + ω α wieder mit a Exemplaren von ω α .
u
t
Lemma 6.1.2. Seien ω αm + · · · + ω α0 und ω βn + · · · + ω β0 Cantor-Normalformen. Dann gilt
ω αm + · · · + ω α0 + ω βn + · · · + ω β0 = ω αm + · · · + ω αi + ω βn + · · · + ω β0 ,
wobei i minimal ist so daß αi ≥ βn ; falls es kein solches i gibt, sei i = m + 1 (also ω βn + · · · + ω β0 ).
u
t
Beweis. Übung.
Man kann auch eine kommutative Version der Addition definieren. Dies ist die sogenannte natürliche
Summe oder Hessenberg-Summe zweier Ordinalzahlen. Für Cantor-Normalformen ω αm + · · · + ω α0
und ω βn + · · · + ω β0 wird sie definiert durch
(ω αm + · · · + ω α0 )#(ω βn + · · · + ω β0 ) := ω γm+n+1 + · · · + ω γ0 ,
wobei γm+n+1 , . . . , γ0 eine fallende Permutation von αm , . . . , α0 , βn , . . . , β0 ist.
Lemma 6.1.3. # ist assoziativ, kommutativ und wachsend in beiden Argumenten.
130
6. Beweistheorie der Arithmetik
Beweis. Übung.
u
t
Wir definieren jetzt eine Bijektion zwischen Ordinalzahlen < ε0 und natürlichen Zahlen. Für diese
Definition ist es nützlich, Ordinalzahlen darzustellen in der Form
ω αm am + · · · + ω α0 a0
mit αm > · · · > α0 und ai 6= 0 (m ≥ −1).
Für jede Ordinalzahl α definieren wir ihre Gödelnummer pαq induktiv durch
Y
‘
papαi i q − 1,
pω αm am + · · · + ω α0 a0 q :=
i≤m
wobei pn die n-te Primzahl ist, beginnend mit p0 := 2. Für jede natürliche Zahl x definieren wir ihre
entsprechende Ordinalzahl o(x) induktiv durch
‘
€ Y
X

o
piai − 1 :=
ω o(i) ai ,
i≤m
i≤m
wobei die Summe als natürliche Summe zu verstehen ist.
Lemma 6.1.4. 1. o(pαq) = α.
2. po(x)q = x.
Beweis. Übung.
u
t
Wir haben also eine einfache Bijektion zwischen den Ordinalzahlen < ε0 und den natürlichen Zahlen.
Es ist nützlich, für einige Relationen und Funktionen auf den Ordinalzahlen besondere Bezeichnungen für
die entsprechenden Relationen und Funktionen auf den natürlichen Zahlen einzuführen. Wir schreiben
x≺y
für o(x) < o(y),
ωx
x⊕y
xa
für pω o(x) q,
für po(x) + o(y)q,
ωk
für pωk q,
für po(x)aq,
wobei ω0 := 1, ωk+1 := ω ωk .
6.2 Beweisbarkeit von Anfangsfällen der transfiniten Induktion
Wir wollen jetzt Anfangsfälle der transfiniten Induktion in der Peano-Arithmetik herleiten, also
(∀x.∀y≺x A(y) → A(x)) → ∀x≺a A(x)
für alle natürlichen Zahlen a und beliebige Formeln A(x). Später werden wir sehen, daß unsere Resultate
hier optimal sind in dem Sinn, daß für das volle System von Bezeichnungen für Ordinalzahlen < ε0 das
entsprechende Axiom der transfiniten Induktion bis ε0 , also
(∀x.∀y≺x P y → P x) → ∀x P x
mit einem Prädikatensymbol P in der Peano-Arithmetik unbeweisbar ist. Alle diese Resultate stammen
von Gentzen [10].
Unter einem arithmetischen System Z verstehen wir eine auf der Minimallogik aufgebaute Theorie
(einschließlich der Gleichheitsaxiome) mit den folgenden Eigenschaften. Die Sprache von Z besteht aus
einem festen (möglicherweise abzählbar unendlichen) Vorrat von Relations- und Funktionssymbolen, von
denen wir annehmen, daß sie feste Relationen und Funktionen über den natürlichen Zahlen bezeichnen,
für die ein Berechnungsverfahren bekannt ist. Unter den Funktionssymbolen müssen Symbole S für die
6.2 Beweisbarkeit von Anfangsfällen der transfiniten Induktion
131
Nachfolgerfunktion und 0 für (die 0-stellige Funktion) Null vorkommen. Unter den Relationssymbolen
müssen Symbole = für die Gleichheit und ≺ für die eben eingeführte Ordnung vom Typ ε0 der natürlichen
Zahlen vorkommen. Um das allgemeine Prinzip der transfiniten Induktion formulieren zu können, nehmen
wir noch an, daß auch ein einstelliges Relationssymbol P vorhanden ist, das wie eine freie Mengenvariable
verwendet wird.
Terme werden aus Objektvariablen x, y, z mittels f (t1 , . . . , tm ) aufgebaut, wobei f ein Funktionssymbol ist. Wir identifizieren einen geschlossenen Term mit seinem Wert; dies ist ein bequemer Weg, in
unserem formalen System die Annahme auszudrücken, daß für jedes Funktionssymbol ein Berechnungsverfahren bekannt ist. Terme der Form S(S(. . . S(0) . . . )) heißen Numerale. Wir verwenden die Bezeichnung
Sn 0 oder auch nur n für sie; gelegentlich schreiben wir auch a, definiert durch 0 := 0 und n + 1 := S(n).
Formeln werden aus atomaren Formeln R(t1 , . . . , tm ) mit einem Relationssymbol R und aus ⊥ mittels
A → B und ∀xA aufgebaut. Wie üblich kürzen wir A → ⊥ durch ¬A ab.
Die Axiome von Z sollen immer die Peano-Axiome enthalten, also die Allabschlüsse von
S(x) = S(y) → x = y,
S(x) = 0 → A,
A(0) → (∀x.A(x) → A(S(x))) → ∀xA(x),
(6.1)
(6.2)
(6.3)
wobei A(x) eine beliebige Formel ist. Um in unserem formalen System die Annahme auszudrücken, daß
für jedes Relationssymbol ein Berechnungsverfahren bekannt ist, verwenden wir als Axiome Rn falls Rn
wahr ist, und ¬Rn falls Rn falsch ist. Für ≺ fordern wir Irreflexivität und Transitivität als Axiome, und
ferner – wie bei Schütte [32] – die Allabschlüsse von
x ≺ 0 → A,
(6.4)
0
z ≺ y ⊕ ω → (z ≺ y → A) → (z = y → A) → A,
x ⊕ 0 = x,
x ⊕ (y ⊕ z) = (x ⊕ y) ⊕ z,
0 ⊕ x = x,
ω x 0 = 0,
ω x S(y) = ω x y ⊕ ω x ,
z ≺ y ⊕ ω S(x) → z ≺ y ⊕ ω e(x,y,z) m(x, y, z),
z ≺y⊕ω
S(x)
→ e(x, y, z) ≺ S(x),
(6.5)
(6.6)
(6.7)
(6.8)
(6.9)
(6.10)
(6.11)
(6.12)
wobei ⊕, ω x y, e und m die entsprechenden Funktionssymbole bezeichnen und A eine beliebige Formel
ist. Wir erlauben auch eine beliebige Menge von wahren Formeln ∀x A mit A quantorenfrei und ohne P
als Axiome. Solche Formeln heißen Π1 -Formeln.
Wir können ferner ein ex-falso-quodlibet Axiom oder sogar ein Stabilitätsaxiom für P hinzunehmen:
∀x.⊥ → P x,
∀x.¬¬P x → P x.
Dies führt auf ein intuitionistisches arithmetisches System (wie die Heyting-Arithmetik HA) oder auf
ein klassisches arithmetisches System (wie die Peano-Arithmetik PA). Man beachte, daß in Anwesenheit
der Stabilitätsaxiome für alle Relationssymbole und für P sich (6.2), (6.4) und (6.5) durch ihre üblicheren
klassischen Versionen ersetzen lassen, nämlich
S(x) 6= 0,
(6.13)
(6.14)
z ≺ y ⊕ ω 0 → z 6= y → z ≺ y.
(6.15)
x 6≺ 0,
Wir werden auch eingeschränkte arithmetische Systeme Zk betrachten. Sie sind wie Z definiert, aber
mit dem Induktionsschema (6.3) eingeschränkt auf Formeln A der Stufe lev(A) ≤ k. Die Stufe einer
Formel A ist definiert durch
132
6. Beweistheorie der Arithmetik
lev(Rt ) := lev(⊥) := 0,
lev(A → B) := max(lev(A) + 1, lev(B)),
lev(∀xA) := max(1, lev(A)).
Der triviale Spezialfall A(0) → ∀xA(S(x)) → ∀xA(x), welcher der Fallunterscheidung entspricht, ist
jedoch für beliebige Formeln A(x) erlaubt. Dies werden wir in Satz 6.2.2 verwenden.
Satz 6.2.1. ( Gentzen). Das Schema der transfiniten Induktion bis ωn , also jede Formel
(∀x.∀y≺x A(y) → A(x)) → ∀x≺ωn A(x),
ist beweisbar in Z.
Beweis. Jeder Formel A(x) ordnen wir eine Formel A+ (x) zu (mit Bezug auf eine feste Variable x), und
zwar durch
A+ (x) := ∀y.∀z≺y A(z) → ∀z≺y ⊕ ω x A(z).
Wir zeigen zunächst
A(x) ist progressiv =⇒ A+ (x) ist progressiv,
wobei “B(x) ist progressiv ” bedeutet ∀x.∀y≺x B(y) → B(x). Sei also A(x) progressiv und
∀y≺x A+ (y).
(6.16)
Wir haben zu zeigen, daß A+ (x) richtig ist. Gelte also weiter
∀z≺y A(z)
(6.17)
und z ≺ y ⊕ ω x . Zu zeigen ist dann A(z).
Fall x = 0. Dann z ≺ y ⊕ ω 0 . Nach (6.5) genügt es, A(z) aus der Annahme z ≺ y und auch aus der
Annahme z = y herzuleiten. Gilt z ≺ y, so folgt A(z) aus (6.17), und im Fall z = y folgt A(z) aus (6.17)
und der Progressivität of A(x).
Fall S(x). Aus z ≺ y ⊕ ω S(x) erhalten wir z ≺ y ⊕ ω e(x,y,z) m(x, y, z) nach (6.11) und e(x, y, z) ≺ S(x)
nach (6.12). Aus (6.16) ergibt sich A+ (e(x, y, z)). Nach Definition von A+ erhalten wir
∀u≺y ⊕ ω e(x,y,z) v A(u) → ∀u≺(y ⊕ ω e(x,y,z) v) ⊕ ω e(x,y,z) A(u)
und also, unter Verwendung von (6.7) und (6.10)
∀u≺y ⊕ ω e(x,y,z) v A(u) → ∀u≺y ⊕ ω e(x,y,z) S(v) A(u).
Ferner ergibt sich aus (6.17) und (6.9), (6.6)
∀u≺y ⊕ ω e(x,y,z) 0 A(u).
Mit Hilfe einer geeigneten Instanz des Induktionsschemas erhalten wir
∀u≺y ⊕ ω e(x,y,z) m(x, y, z) A(u)
und deshalb A(z).
Wir zeigen jetzt, durch Induktion über n, wie man für eine beliebige Formel A(x) eine Herleitung von
€

∀x.∀y≺x A(y) → A(x) → ∀x≺ωn A(x)
erhalten kann. Gelte also die linke Seite, d.h. A(x) sei progressiv.
Fall 0. Dann gilt x ≺ ω 0 und also x ≺ 0 ⊕ ω 0 nach (6.8). Nach (6.5) genügt es, A(x) aus x ≺ 0 und
auch aus x = 0 herzuleiten. Nun gilt x ≺ 0 → A(x) nach (6.4), und A(0) folgt aus der Progressivität von
A(x).
Fall n + 1. Da A(x) progressiv ist, ist nach der obigen Überlegung auch A+ (x) progressiv. Eine
Anwendung der IH auf A+ (x) liefert ∀x≺ωn A+ (x), und also A+ (ωn ) aufgrund der Progressivität von
u
t
A+ (x). Nun ergibt sich aus der Definition von A+ (x) (mit (6.4) und (6.8)) sofort ∀z≺ω ωn A(z).
6.3 Normalisierung für die Arithmetik mit der Omega-Regel
133
Man beachte, daß wir im Induktionsschritt dieses Beweises die transfinite Induktion bis ω n+1 für A(x)
aus der transfiniten Induktion bis ω n für die kompliziertere Formel A+ (x) hergeleitet haben.
Wir wollen jetzt dieses Resultat verschärfen zu einem entsprechenden Satz für die Teilsysteme Zk von
Z (s. Parsons [24]). Für i ≥ 1 sei ωi [m] definiert durch ω1 [m] := m, ωi+1 [m] := ω ωi [m] .
Satz 6.2.2. Sei 1 ≤ ` ≤ k. Dann läßt sich in Zk für jede Formel A(x) einer Stufe ≤ ` die transfinite
Induktion bis ωk−`+2 [m] für beliebiges m herleiten, also
(∀x∀y≺x A(y) → A(x)) → ∀x≺ωk−`+2 [m] A(x).
Beweis. Man beachte zunächst, daß für jede Formel A(x) einer Stufe ` ≥ 1 die im Beweis von Satz 6.2.1
konstruierte Formel A+ (x) die Stufe ` + 1 hat, und daß wir für den Beweis von
A(x) ist progressiv =⇒ A+ (x) ist progressiv
Induktion mit einer Induktionsformel der Stufe ` benutzt haben.
Sei jetzt (oBdA) A(x) eine Formel der Stufe ` ≥ 1, und nehmen wir an, daß A(x) progressiv ist.
Sei A0 := A, Ai+1 := (Ai )+ . Dann ist lev(Ai ) = ` + i, und folglich können wir in Zk beweisen, daß
A1 , A2 , . . . Ak−`+1 sämtlich progressiv sind. Aus der Progressivität von Ak−`+1 (x) ergibt sich Ak−`+1 (0),
Ak−`+1 (1), Ak−`+1 (2) und allgemein Ak−`+1 (m) für jedes m, also Ak−`+1 (ω1 [m]). Wegen
Ak−`+1 (x) ⇐⇒ (Ak−` )+ (x) ⇐⇒ ∀y.∀z≺y Ak−` (z) → ∀z≺y ⊕ ω x Ak−` (z)
erhalten wir zunächst (mit y = 0) ∀z≺ω2 [m] Ak−` (z) und dann Ak−` (ω2 [m]) aus der Progressivität von
u
t
Ak−` . Durch Wiederholung dieses Arguments erhalten wir schließlich ∀z≺ωk−`+2 [m] A0 (z).
Unser nächstes Ziel ist ein Beweis, daß diese Schranken scharf sind. Genauer werden wir zeigen,
daß man in Z (unabhängig davon, wieviele wahre Π1 -Formeln als Axiome verwendet werden) nicht die
transfinite Induktion bis ε0 beweisen kann, also die Formel
(∀x.∀y≺x P y → P x) → ∀xP x
mit einem Relationssymbol P , und daß man in Zk nicht die transfinite Induktion bis ωk+1 beweisen kann,
also die Formel
(∀x.∀y≺x P y → P x) → ∀x≺ωk+1 P x.
Dies wird sich durch Anwendung der Methode der Normalisierung auf arithmetische Systeme ergeben.
6.3 Normalisierung für die Arithmetik mit der Omega-Regel
Wir werden in Abschnitt 6.4 zeigen, daß für arithmetische Systeme Z kein Normalisierungssatz gilt,
der für jede Herleitung einer Formel A in Z eine andere Herleitung derselben Formel A in Z liefert,
die nur Formeln einer Stufe kleiner oder gleich der Stufe von A verwendet. Der Grund dafür sind die
Induktionsaxiome, die von beliebiger Stufe sein können.
Hier umgehen wir diese Schwierigkeit in einer etwas drastischen Art und Weise: Wir geben unsere
bisherige Auffassung auf, daß alle Herleitungen endlich sein müssen, und ersetzen die Induktionsaxiome
durch eine Regel mit unendlich vielen Prämissen, die sogenannte ω-Regel. Sie wurde zuerst von Hilbert
vorgeschlagen und später von Lorenzen, Novikov und Schütte genauer studiert. Die ω-Regel erlaubt
es, ∀xA(x) aus A(0), A(1), A(2), · · · zu erschließen, also
D0
A(0)
D1
A(1)
...
∀xA(x)
Di
A(i)
...
ω
Herleitungen kann man dann als beschriftete unendliche (abzählbar verzweigte) Bäume auffassen,
wobei die Beschriftung aus der hergeleiteten Formel und dem Namen der angewandten Regel besteht. Da
134
6. Beweistheorie der Arithmetik
wir unendliche Herleitungen induktiv definieren, muß jede solche Herleitung fundiert sein, d.h. sie kann
keinen unendlichen absteigenden Pfad enthalten.
Offenbar macht die ω-Regel auch die Regel ∀+ der Alleinführung überflüssig. Wir können deshalb auf
freie Objektvariablen verzichten.
Ferner ist klar, daß jede Herleitung in einem arithmetischen System Z in eine unendliche Herleitung mit
der ω-Regel übersetzt werden kann; dies werden wir in Lemma 6.3.3 ausführen. Die entstehende unendliche
Herleitung hat eine beachtenswerte Eigenschaft: in jeder Anwendung der ω-Regel sind die Schnittränge der
unendlich vielen Teilherleitungen beschränkt, und auch die Mengen ihrer freien Annahmen sind durch eine
endliche Menge beschränkt. Hierbei ist der Schnittrang einer Herleitung die kleinste Zahl ≥ der Stufe jeder
Teilherleitung, die durch →+ als Hauptprämisse von →− oder die durch die ω-Regel als Hauptprämisse
von ∀− gebildet wurde. Unter der Stufe einer Herleitung verstehen wir die Stufe ihres Typs, d.h. der von ihr
hergeleiteten Formel. Eine unendliche Herleitung nennen wir normal, wenn ihr Schnittrang 0 ist, und wir
werden unten zeigen, daß jede (möglicherweise unendliche) Herleitung von endlichem Schnittrang in eine
Herleitung mit Schnittrang 0 umgeformt werden kann. Die entstehende normale Herleitung wird immer
noch i.a. unendlich sein; man könnte also meinen, daß dieses Resultat nutzlos ist. Es wird sich jedoch
zeigen, daß wir die Tiefe der entstehenden Herleitung in einer informativen Art und Weise beschränken
können, und dies wird uns in Abschnitt 6.4 in die Lage versetzen, das gewünschte Resultat über die
Unbeweisbarkeit der transfiniten Induktion zu erhalten. Dieses Programm wollen wir jetzt durchführen.
Wir führen die Systeme Z∞ der ω-Arithmetik wie folgt ein. Z∞ hat dieselbe Sprache und - abgesehen
von den Induktionsaxiomen - dieselben Axiome wie Z. Herleitungen in Z∞ sind unendliche Objekte. Es
ist nützlich, für sie eine Termbezeichnung zu verwenden; d, e, f bezeichnen solche (unendlichen) Herleitungsterme. Für unsere Zwecke genügt es, nur Herleitungen zu betrachten, deren Tiefe unterhalb von ε0
beschränkt ist.
Wir definieren den Begriff “d ist eine Herleitung der Tiefe ≤ α” (geschrieben |d| ≤ α) induktiv wie
folgt.
(A). Jede Annahmenvariable uA mit A geschlossen und jedes Axiom AxA ist eine Herleitung der Tiefe
≤ α, für jedes α.
(→+ ). Ist dB eine Herleitung der Tiefe ≤ α0 < α, so ist (λuA dB )A→B eine Herleitung der Tiefe ≤ α.
(→− ). Sind dA→B und eA Herleitungen der Tiefen ≤ αi < α (i=1,2), so ist (dA→B eA )B eine Herleitung
der Tiefe ≤ α.
A(i) ∀xA(x)
A(i)
Herleitungen der Tiefen ≤ αi < α (i < ω), so ist hdi ii<ω
eine Herleitung der
(ω). Sind di
Tiefe ≤ α.
(∀− ). Ist d∀xA(x) eine Herleitung der Tiefe ≤ α0 < α, so ist (d∀xA(x) i)A(i) eine Herleitung der Tiefe
≤ α.
Man beachte, daß es in ∀− genügt, Zahlen statt Terme in den Nebenprämissen zu verwenden. Der
Grund dafür ist, daß wir nur geschlossene Terme betrachten müssen, und solche Terme können wir hier
mit Zahlen identifizieren. Der Schnittrang cr(d) einer Herleitung d ist wie folgt definiert.
cr(uA ) := cr(AxA ) := 0,
cr(λud) := cr(d),
(
max(lev(A → B), cr(d), cr(e)),
A→B A
cr(d
e ) :=
max(cr(d), cr(e)),
cr(hdi ii<ω ) := sup cr(di ),
i<ω
(
max(lev(∀xA(x)), cr(d)),
∀xA(x)
j) :=
cr(d
cr(d),
falls d = λud0 ,
sonst,
falls d = hdi ii<ω ,
sonst.
Offenbar ist cr(d) ∈ N ∪ {ω} für alle d. Für unsere Zwecke genügt es, nur Herleitungen mit endlichem
Schnittrang zu betrachten, d.h. mit cr(d) ∈ N. Es wird auch genügen, nur Herleitungen mit endlich vielen
An
1
freien Variablen zu betrachten. Wir verwenden die Bezeichnung d[uA
1 , . . . , un ] für Herleitungen mit
A1
An
freien Annahmevariablen unter u1 , . . . , un . Mit |d| bezeichnen wir das kleinste α so daß |d| ≤ α.
Lemma 6.3.1. Ist d eine Herleitung der Tiefe ≤ α mit freien Annahmevariablen unter u, u und vom
Schnittrang cr(d) = k, und ist e eine Herleitung der Tiefe ≤ β, mit freien Annahmevariablen unter u
6.3 Normalisierung für die Arithmetik mit der Omega-Regel
135
und vom Schnittrang cr(e) = `, so ist d[u := e] eine Herleitung mit freien Annahmevariablen unter ue,
von der Tiefe |d[u := e]| ≤ β + α und von einem Schnittrang cr(d[u := e]) ≤ max(lev(e), k, `).
Beweis. Einfache Induktion über die Tiefe von d.
u
t
Unter Verwendung dieses Lemmas können wir jetzt unsere Systeme Zk (d.h. Arithmetik mit Induktionsaxiomen beschränkt auf Formeln der Stufe ≤ k) und Z in Z∞ einbetten. In dieser Einbettung beziehen
wir uns auf die Anzahl nI (d) von geschachtelten Anwendungen des Induktionsschemas innerhalb einer
Zk -Herleitung d. nI (d) ist durch Induktion über d wie folgt definiert.
nI (u) := nI (Ax) := 0,
nI (Ind) := 1,
nI (Ind tde) := max(nI (d), nI (e) + 1),
nI (de) := max(nI (d), nI (e)),
falls d nicht von der Form Ind td0 ist,
nI (λud) := nI (λxd) := nI (dt) := nI (d).
Ferner benötigen wir im nächsten Lemma den Begriff der langen Normalform einer Herleitung. Der
Einfachheit halber beschränken wir uns wieder auf das →-Fragment der minimalen Aussagenlogik; alle
Überlegungen gelten aber genauso für die volle Sprache.
In Abschnitt 2.2 hatten wir die Gestalt normaler Herleitungen im →-Fragment der minimalen Aussagenlogik studiert. Insbesondere hatten wir die Form von Ästen in einer normalen Herleitung genau
analysiert und festgestellt, daß in jedem Ast alle Beseitigungsregeln vor allen Einführungsregeln kommen, und daß an einem eindeutig bestimmten Minimalknoten eine Minimalformel steht, die Teilformel
aller Formeln im Einführungsteil und im Beseitigungsteil des Astes ist. Im Begriff der langen Normalform
wird zusätzlich verlangt, daß jede Minimalformel atomar ist.
Für Terme des λ-Kalküls definiert man die η-Expansion einer Variablen durch
ηV (xτ →ι ) := λz τ .xηV (z),
also durch Induktion über den Typ der Variablen. Die η-Expansion eines Terms läßt sich dann durch
Induktion über Terme definieren durch

€
η λy.(xM )τ →ι := λy, z τ .xη(M )ηV (z).
Man beachte. daß stets η(x) = ηV (x) gilt. – Damit ist klar:
Lemma 6.3.2. Jeder Term läßt sich durch Normalisierung und anschließende η-Expansion in lange
u
t
Normalform bringen.
Lemma 6.3.3. Sei eine Zk -Herleitung in langer Normalform (siehe Lemma 6.3.2, oder auch Abschnitt 6.5) gegeben mit ≤ m geschachtelten Anwendungen des Induktionsschemas (6.3), d.h. von
A(0) → (∀x.A(x) → A(S(x))) → ∀xA(x),
alle mit lev(A) ≤ k. Wir betrachten Teilherleitungen dB nicht von der Form Ind t oder Ind td0 . Für jede
Bσ
solche Teilherleitung und geschlossene Substitutionsinstanz Bσ von B konstruieren wir (d∞
in Z∞ mit
σ )
m+1
∞
C
Cσ
und cr(d∞
freien Annahmevariablen u für u freie Annahmevariable von d, so daß |dσ | < ω
σ ) ≤ k,
∞
und ferner so daß d durch →-Einführung erzeugt ist gdw dσ es ist, sowie d durch ∀-Einführung erzeugt
oder von der Form Ind td0 e ist gdw d∞
σ durch die ω-Regel erzeugt ist.
Beweis. Rekursion über solche Teilherleitungen d.
Fall uC oder Ax. Dann können wir uCσ oder Ax nehmen.
Fall Ind tde0 . Da die Herleitung in langer Normalform ist, gilt e0 = λxλv e. Nach IH haben wir d∞
σ
und e∞
σ . (Man beachte, daß weder d noch e eine der verbotenen Formen Ind t oder Ind td0 haben kann,
∞
da beide in langer Normalform sind). Wir schreiben e∞
σ (t, f ) für eσ [x, v := t, f ], und setzen
∞ ∞
∞
∞
∞
∞
(Ind td(λxλv e))∞
σ := hdσ , eσ (0, dσ ), eσ (1, eσ (0, dσ )), . . . i.
136
6. Beweistheorie der Arithmetik
m
Nach IH ist |eσ∞ | ≤ ω m−1 ·p und |d∞
σ | ≤ ω ·q für gewisse p, q < ω. Nach Lemma 6.3.1 erhalten wir
m
m−1
|eσ∞ (0, d∞
·p,
σ )| ≤ ω ·q + ω
m
m−1
∞
∞
·2p
|e∞
σ (1, eσ (0, dσ ))| ≤ ω ·q + ω
und so weiter, schließlich also
m
|(Ind td(λxλv e))∞
σ | ≤ ω ·(q + 1).
∞
Für den Schnittrang ergibt sich nach IH cr(d∞
σ ), cr(eσ ) ≤ k und deshalb
∞
∞
cr(eσ∞ (0, d∞
σ )) ≤ max(lev(A(0)), cr(dσ ), cr(eσ )) ≤ k,
∞
∞
∞
cr(e∞
σ (1, eσ (0, dσ ))) ≤ max(lev(A(1)), k, cr(eσ )) = k,
und so weiter, schließlich also
cr((Ind td(λxλv e))∞
σ ) ≤ k.
Bσ
, möglicherweise mit freien Annahmen uCσ . Setze (λu d)σ∞ :=
Fall λuC dB . Nach IH haben wir (d∞
σ )
∞
λu dσ .
∞
Fall de mit d nicht von der Form Ind t oder Ind td0 . Nach IH haben wir d∞
σ und eσ . Da de Teilherleitung
∞
einer normalen Herleitung ist, kann d und also auch dσ nicht durch →-Einführung erzeugt sein. Also ist
∞ ∞
∞
∞ ∞
∞
∞ ∞
(de)∞
σ := dσ eσ normal und cr(dσ eσ ) = max(cr(dσ ), cr(eσ )) ≤ k. Ferner haben wir offenbar |dσ eσ | <
m+1
ω
.
Fall (λx d)∀xB(x) . Für jedes i und jede Substitutionsinstanz B(i)σ haben wir nach IH d∞
σ,i . Setze
(λx d)σ∞ := hd∞
σ,i ii<ω .
(∀xB)σ
Fall (Ind tdet)B[x:=t] . Nach IH haben wir ((Ind tde)∞
, und (Ind tde)∞
σ )
σ = hdi ii<ω , wie im zweiten
∞
Fall des Beweises definiert. Setze (Ind tdet)σ := di , wobei i das Numeral mit demselben Wert wie tσ ist.
Fall (dt)B[x:=t] mit d nicht von der Form Ind td0 e. Nach IH haben wir (dσ∞ )(∀xB)σ . Da dt eine Teilherleitung einer normalen Herleitung ist, kann d nicht durch ∀-Einführung erzeugt sein, also dω
σ auch nicht
durch die ω-Regel. Wir können deshalb setzen (dt)σ∞ := d∞
i
das
Numeral
mit
demselben
Wert
i,
wobei
σ
wie tσ ist.
u
t
Cσ
Eine Herleitung heißt konvertierbar , wenn sie von der Form (λu d)e oder hdi ii<ω j ist. Sie kann dann
konvertiert werden in d[u := e] bzw. dj . Hierbei entsteht d[u := e] aus d durch Substituieren von e für alle
freien Vorkommen von u in d. Eine Herleitung heißt normal , wenn sie keine konvertible Teilherleitung
enthält. Man beachte, daß eine Herleitung genau dann normal ist, wenn sie den Schnittrang 0 hat.
Eine Herleitung heißt einfache Anwendung, wenn sie von der Form d0 d1 . . . dm mit d0 eine Annahmevariable oder ein Axiom ist.
Wir wollen jetzt eine Operation definieren, die durch wiederholte Konversionen eine gegebene Herleitung in eine normale Herleitung umformt, wobei die Endformel erhalten bleibt und keine zusätzlichen
freien Annahmevariablen eingeführt werden. Die übliche Methode zum Erreichen dieses Ziels muß hier
an unsere spezielle Situation unendlicher Herleitungen angepaßt werden. Wir verwenden ein besonders
einfaches Argument, das auf Tait [38] zurückgeht.
Lemma 6.3.4. Zu jeder Herleitung dA einer Tiefe ≤ α und vom Schnittrang k + 1 findet man eine Herleitung (dk )A mit freien Annahmevariablen unter denen von d, mit einer Tiefe ≤ 2α und vom Schnittrang
≤ k.
Beweis. Induktion über α. Wir beschränken uns auf den Fall einer Herleitung der Form de mit |d| ≤
α1 < α und |e| ≤ α2 < α, die keine einfache Anwendung ist. Zunächst betrachten wir den Unterfall,
in dem dk = λu d1 und lev(d) = k + 1 ist. Dann gilt lev(e) ≤ k nach Definition der Stufen (die Stufe
einer Herleitung war definiert als die Stufe der hergeleiteten Formel). Folglich hat d1 [u := ek ] einen
Schnittrang ≤ k nach Lemma 6.3.1. Ferner hat ebenfalls nach Lemma 6.3.1 d1 [u := ek ] eine Tiefe
≤ 2α2 + 2α1 ≤ 2max(α2 ,α1 )+1 ≤ 2α . Also können wir (de)k als d1 [u := ek ] definieren.
6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion
137
Im Unterfall dk = hdi ii<ω , lev(d) = k + 1 und ek = j können wir (de)k als dj wählen, da dj einen
Schnittrang ≤ k und eine Tiefe ≤ 2α hat.
Sind wir nicht in den obigen Unterfällen, so können wir einfach (de)k := dk ek setzen. Diese Herleitung
hat offenbar eine Tiefe ≤ 2α . Sie hat auch einen Schnittrang ≤ k, was man wie folgt einsieht. Im Fall
lev(d) ≤ k + 1 sind wir fertig. Aber lev(d) ≥ k + 2 ist unmöglich, da wir angenommen haben, daß de keine
einfache Anwendung ist.
Um dies einzusehen, beachte man folgendes. Ist de keine einfache Anwendung, so muß es von der Form
d0 d1 . . . dn e sein mit d0 weder Annahmevariable noch Axiom und d0 auch nicht selbst von der Form d0 d00 ;
dann muß d0 durch →-Einführung oder durch die ω-Regel erzeugt sein, und es gäbe einen Schnitt mit
einem Schnittrang ≥ k + 2, was nach Annahme ausgeschlossen ist.
u
t
Als unmittelbare Folgerung erhalten wir
Satz 6.3.5. (Normalisierung für Z∞ ). Für jede Herleitung dA einer Tiefe ≤ α und vom Schnittrang ≤ k
findet man eine normale Herleitung (d∗ )A mit freine Annahmen unter denen von dA und einer Tiefe
α
α
2α
m.
u
t
≤ 2α
k , wobei 20 := α,2m+1 = 2
Wie in Satz 2.3.2 können wir jetzt die Struktur normaler Herleitungen in Z∞ untersuchen. Insbesondere erhalten wir
∞
n
Satz 6.3.6. (Teilformeleigenschaft für Z∞ ). Sei dB [u1A1 , . . . , uA
und
n ] eine normale Herleitung in Z
C
B
e eine Teilherleitung von d . Dann ist C Teilformel von B oder von einem Ai .
u
t
Beweis. Induktion über d.
6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion
Wir verwenden jetzt die Technik der Normalisierung für die Arithmetik mit der ω-Regel zu einem Beweis,
daß das Axiom der transfiniten Induktion bis ε0 in Z unbeweisbar ist, also
Z 6` (∀x.∀y≺x P y → P x) → ∀x P x
mit einem Relationssymbol P , und daß die transfinite Induktion bis ωk+1 unbeweisbar ist in Zk , also
Zk 6` (∀x.∀y≺x P y → P x) → ∀x≺ωk+1 P x.
Offenbar genügt es, die Unbeweisbarkeit für auf der klassischen Logik basierende arithmetische Systeme zu zeigen. Wir können also annehmen, daß wir die klassischen Versionen (6.13), (6.14) und (6.15)
der Axiome aus Abschnitt 6.2 verwendet haben.
Unser Beweis basiert auf einer Idee von Schütte, nämlich eine sogenannte Progressionsregel zu dem
unendlichen System hinzuzunehmen. Diese Regel erlaubt es, P j (wobei j eine beliebige Zahl ist) aus allen
P i für i ≺ j zu erschließen.
Eine Herleitung in Z∞ + Prog(P ) einer Tiefe ≤ α und vom Schnittrang ≤ k wird erzeugt durch die
induktiven Klauseln von Abschnitt 6.3 und die zusätzliche Klausel
i
i Pj
der Tiefe ≤ αi < α bereits konstruiert, so ist hdP
(Prog). Sind für alle i ≺ j Herleitungen dP
i
i ii≺j
eine Herleitung der Tiefe ≤ α.
Den Schnittrang dieser Herleitung definieren wir durch cr(hdi ii≺j ) := supi≺j cr(di ).
Da die Progressionsregel nur Herleitungen atomarer Formeln betrifft, verändert sie nicht die Schnittränge von Herleitungen. Folglich überträgt sich der Normalisierungsbeweis für Z∞ unverändert auf Z∞ +
Prog(P ). Insbesondere haben wir
Lemma 6.4.1. Für jede Herleitung dA in Z∞ + Prog(P ) einer Tiefe ≤ α und vom Schnittrang ≤ k + 1
findet man eine Herleitung (dk )A in Z∞ +Prog(P ) mit freien Annahmevariablen unter denen von d, einer
Tiefe ≤ 2α und vom Schnittrang ≤ k.
u
t
Wir zeigen jetzt, daß man aus der Progressionsregel für P leicht die Progressivität von P herleiten
kann.
138
6. Beweistheorie der Arithmetik
Lemma 6.4.2. Es gibt eine normale Herleitung von ∀x.∀y≺x P y → P x in Z∞ + Prog(P ) der Tiefe 5.
Beweis.
...
...
∀y≺j P y
∀−
i ≺ j → Pi
Pi
i≺j
→−
...
Pj
→+
∀y≺j P y → P j
∀x.∀y≺x P y → P x
(alle i ≺ j)
Prog
...
(alle j)
ω
u
t
Die wesentliche Beobachtung ist jetzt, daß eine normale Herleitung von P pβq im wesentlichen eine
Tiefe mindestens β erfordert. Um jedoch eine scharfe Abschätzung für die Teilsysteme Zk zu erhalten,
können wir Lemma 6.4.1 nicht bis herunter zum Schnittrang 0 (also bis zur Normalform) anwenden, sondern wir müssen bereits beim Schnittrang 1 aufhören. Derartige Herleitungen, also solche vom Schnittrang
≤ 1, nennen wir quasinormal ; sie lassen sich ebenfalls leicht analysieren.
Wir beginnen mit einem Beweis, daß jede quasinormale Herleitung einer quantorenfreien Formel sich
stets ohne Erhöhung ihres Schnittrangs oder ihrer Tiefe in eine quasinormale Herleitung derselben Formel
umformen läßt, die
1. die ω-Regel nicht benutzt, und
2. die Regel ∀− höchstens in Anfangsteilen von mit einem Axiom beginnenden Ästen enthält.
Man beachte hierbei, daß alle unsere Axiome von der Form ∀xA sind mit A quantorenfrei.
Ferner benötigen wir den Begriff einer Quasiteilformel , der induktiv durch die folgenden Klauseln
definiert ist.
• A, B sind Quasiteilformeln von A → B;
• A(i) ist eine Quasiteilformel von ∀xA(x), für jede Zahl i;
• Ist A eine Quasiteilformel von B und C eine atomare Formel, so sind C → A und ∀xA Quasiteilformeln
von B;
• Die Relation “. . . ist eine Quasiteilformel von . . . ” ist reflexiv und transitiv.
Zum Beispiel ist Q → ∀x.P x → A eine Quasiteilformel von A → B.
Wir übertragen jetzt die Teilformeleigenschaft für normale Herleitungen und beweisen entsprechend
eine Quasiteilformeleigenschaft für quasinormale Herleitungen.
An
∞
1
Satz 6.4.3. (Quasiteilformeleigenschaft). Ist dB [uA
+
1 , . . . , un ] eine quasinormale Herleitung in Z
C
B
Prog(P ) und ist e eine Teilherleitung von d , so ist C eine Quasiteilformel von B oder von einem Ai .
Beweis. Induktion über die Länge der Endposition eines Astes in d.
∞
u
t
Korollar 6.4.4. Sei d eine quasinormale Herleitung in Z + Prog(P ) einer Formel ∀xA aus quantorenfreien Annahmen, mit A quantorenfrei. Dann endet in d jeder Ast einer Ordnung > 0 mit einer
quantorenfreien Formel.
Beweis. Andernfalls würde die Hauptprämisse der →− -Regel, deren Nebenprämisse die Endformel dieses
Astes ist, einen Quantor auf der linken Seite von → enthalten. Dies widerspricht dem Satz.
u
t
Unser nächstes Ziel ist es, die ω-Regel zu eliminieren. Hierfür benötigen wir den Begriff einer Instanz
einer Formel. Er ist induktiv wie folgt definiert.
• Ist B 0 Instanz von B und A quantorenfrei, so ist A → B 0 Instanz von A → B.
• A(i) ist Instanz von ∀xA(x), für jede Zahl i.
• Die Relation “. . . ist eine Instanz von . . . ” ist reflexiv und transitiv.
Lemma 6.4.5. Sei d eine quasinormale Herleitung in Z∞ +Prog(P ) einer Formel A aus quantorenfreien
Annahmen, wobei A kein ∀ auf der linken Seite eines → enthält. Dann findet man für jede quantorenfreie
Instanz A0 von A eine quasinormale Herleitung d0 von A0 aus denselben Annahmen und quantorenfreien
Instanzen der Axiome so daß
6.4 Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion
139
• d0 die ω-Regel nicht verwendet,
• d0 die Regel ∀− höchstens in Anfangsteilen von mit einem Axiom beginnenden Ästen enthält, und
• |d0 | ≤ |d|.
Beweis. Induktion über die Tiefe d. Wir unterscheiden Fälle entsprechend der letzten Regel in d.
Fall →− .
A→B
A
→−
B
Nach Korollar 6.4.4 muß A quantorenfrei sein. Sei B 0 eine quantorenfreie Instanz von B. Dann ist A → B 0
nach Definition eine quantorenfreie Instanz von A → B. Die Behauptung folgt jetzt aus der IH.
Fall →+ .
B
→+
A→B
Jede Instanz von A → B hat die Form A → B 0 mit einer quantorenfreien Instanz B 0 von B. Also folgt
die Behauptung aus der IH.
Fall ∀− .
∀xA(x)
i
∀−
A(i)
Wieder ist jede quantorenfreie Instanz von A(i) auch eine quantorenfreie Instanz von ∀xA(x), und die
Behauptung folgt aus der IH.
Fall ω.
. . . A(i) . . . (für alle i < ω)
ω
∀xA(x)
Jede quantorenfreie Instanz von ∀xA(x) hat die Form A(i)0 mit A(i)0 quantorenfreie Instanz von A(i).
Also folgt die Behauptung wieder aus der IH.
u
t
Eine Herleitung d in Z∞ + Prog(P ) heißt P α, ¬P β-Widerlegung, wenn α und β disjunkt sind und d
eine Formel A → B := A1 → · · · → Ak → B herleitet, wobei A und die freien Annahmen in d wahre
quantorenfreie Formeln ohne P sind oder unter P pα1 q, . . . , P pαm q, ¬P pβ1 q, . . . , ¬P pβn q vorkommen,
und B eine falsche quantorenfreie Formel ohne P ist oder unter P pβ1 q, . . . , P pβn q vorkommt.
Lemma 6.4.6. Sei d eine quasinormale P α, ¬P β-Widerlegung. Dann ist
min(β) ≤ |d| + lh(α),
wobei lh(α) die Länge der Liste α bezeichnet.
Beweis. Induktion über |d|. Nach Lemma 6.4.5 können wir annehmen, daß d die ω-Regel nicht enthält,
und die Regel ∀− höchstens in Anfangsteilen von mit einem Axiom beginnenden Ästen enthält. Wir
unterscheiden Fälle entsprechend der letzten Regel in d.
Fall →+ . Nach unserer Definition von Widerlegungen folgt die Behauptung unmittelbar aus der IH.
Fall →− . Dann ist d = f C→A→B eC . Ist C eine wahre quantorenfreie Formeln ohne P oder von der
Form P pγq mit γ < min(β), so folgt die Behauptung aud der IH für f :
min(β) ≤ |f | + lh(α0 ) + 1 ≤ |d| + lh(α0 ).
Ist C eine falsche quantorenfreie Formel ohne P oder von der Form P pγq mit min(β) ≤ γ, so folgt die
Behauptung aus der IH für e:
min(β) ≤ |e| + lh(α0 ) + 1 ≤ |d| + lh(α0 ).
Zu behandeln bleibt der Fall, daß C eine quantorenfreie Implikation ist, die P enthält. Dann ist lev(C) ≥ 1,
also lev(C → A → B) ≥ 2. Wegen cr(d) ≤ 1 muß dann d eine mit einem Axiom beginnende einfache
Anwendung sein. Unsere einzigen Axiome, die P enthalten können, sind EqP : ∀x, y.x = y → P x → P y
und StabP : ∀x.¬¬P x → P x, und von diesen hat nur StabP die richtige Form. Also f = StabP pγq und
deshalb e : ¬¬P pγq. Aus lev(¬¬P pγq) = 2, der Annahme cr(e) ≤ 1 und wieder der Form unserer P
enthaltenden Axiome folgt, daß e mit →+ endet, also e = λu¬P pγq e0⊥ und damit insgesamt
140
6. Beweistheorie der Arithmetik
|f
¬¬P pγq → P pγq
P pγq
[u : ¬P pγq]
| e0
⊥
¬¬P pγq
Die Behauptung folgt jetzt aus der IH für e0 .
Fall ∀− . Nach Annahme befinden wir uns dann im Anfangsteil eines mit einem Axiom beginnenden Astes. Da d eine P α, ¬P β-Widerlegung ist, muß das Axiom P enthalten. Das Gleichheitsaxiom
EqP : ∀x, y.x = y → P x → P y kann es nicht sein, da pγq = pδq → P pγq → P pδq in keinem Fall
(γ = δ oder γ =
6 δ) Endformel einer P α, ¬P β-Widerlegung ist. Aus demselben Grund kommt auch das
Stabilitätsaxiom StabP : ∀x.¬¬P x → P x nicht in Frage. Der Fall ∀− kann also nicht eintreten.
pδq P pγq
Fall Prog(P ). Dann ist d = hdP
iδ<γ . Nach Annahme über d ist γ in β. Ohne Beschränkung der
δ
Allgemeinheit sei γ = βi := min(β), denn andernfalls wäre die Prämissenherleitung dβi : P pβi q eine
quasinormale P α, ¬P β-Widerlegung, auf die man die IH anwenden könnte.
Gibt es keine αj < γ, so ist das Argument einfach: jedes dδ ist eine P α, ¬P β, ¬P δ-Widerlegung, also
gilt nach IH (da auch kein αj < δ ist)
min(β, δ) = δ ≤ |dδ |,
also γ = min(β) ≤ |d|.
Wir befassen uns jetzt mit dem Fall, daß einige αj kleiner als γ sind. Man beachte zunächst, daß es
höchstens endlich viele αj geben kann, die unmittelbar vor γ kommen; sei also ε die kleinste Ordinalzahl
mit
∀δ.ε ≤ δ < γ → δ ∈ α.
Dann ist ε, ε + 1, . . . , ε + k − 1 ∈ α und ε + k = γ. ε ist entweder ein Nachfolger oder eine Limeszahl. Ist
ε = ε0 + 1, so folgt aus der IH (da dε0 eine P α, ¬P β, ¬P (ε − 1)-Widerlegung ist), daß
ε − 1 ≤ |dε−1 | + lh(α0 ) − k,
wobei α0 eine Folge von αj < γ ist. Also ist ε ≤ |d| + lh(α0 ) − k, und deshalb
γ ≤ |d| = lh(α0 ).
Ist ε eine Limeszahl, so gibt es eine Folge hδf (n) in mit Limes ε, und so daß alle αj < ε kleiner als δf (0)
sind. Nach IH folgt
δf (n) ≤ |df (n) | + lh(α0 ) − k,
und deshalb ε ≤ |df (n) | + lh(α0 ) − k, also γ ≤ |d| + lh(α0 ).
t
u
Jetzt können wir das folgende Resultat beweisen (s. Mints [21] und Parsons [24]).
Satz 6.4.7. Das Axiom der transfiniten Induktion bis ε0 ist unbeweisbar in Z, also
Z 6` (∀x.∀y≺x P y → P x) → ∀x P x
mit einem Prädikatensymbol P , und die transfinite Induktion bis ωk+1 ist unbeweisbar in Zk , also
Zk 6` (∀x.∀y≺x P y → P x) → ∀x≺ωk+1 P x.
Beweis. Wir beschränken uns auf den zweiten Teil. Nehmen wir also an, die transfinite Induktion bis
ωk+1 ist herleitbar in Zk . Aufgrund der Einbettung von Zk in Z∞ (Lemma 6.3.3) und der normalen
Herleitbarkeit der Progressivität von P in Z∞ + Prog(P ) mit endlicher Tiefe (Lemma 6.4.2) können wir
schließen, daß ∀x≺ωk+1 P x herleitbar ist in Z∞ + Prog(P ) mit einer Tiefe < ω m+1 und Schnittrang
≤ k. Nun liefern k − 1 Anwendungen von Lemma 6.4.1 eine Herleitung derselben Formel ∀x≺ωk+1 P x
m+1
in Z∞ + Prog(P ) mit einer Tiefe γ < 2ω
k−1 < ωk+1 und Schnittrang ≤ 1, also auch eine Herleitung von
P pγ + 2q in Z∞ + Prog(P ) mit der Tiefe γ + 1 und Schnittrang ≤ 1. Dies widerspricht Lemma 6.4.6. t
u
6.5 Nachtrag: η-Expansion
141
Wir wollen uns schließlich noch überlegen, daß man als Folgerung hieraus die Unmöglichkeit der
Normalisierung für die Arithmetik erhalten kann. Der Normalisierungssatz für die Logik erster Stufe ist
nicht besonders nützlich, wenn man ihn auf eines unserer arithmetischen Systeme Z anwendet. Der Grund
liegt darin, daß in einer Herleitung Induktionsaxiome beliebiger Komplexität vorkommen können. Es
liegt deshalb nahe zu versuchen, die Induktionsaxiome durch eine Induktionsregel zu ersetzen, welche den
Schluß auf ∀xA(x) aus einer Herleitung von A(0) und einer Herleitung von A(S(x)) mit der zusätzlichen
Annahme A(x) gestattet, die an dieser Stelle zu streichen ist; man beachte, daß diese Induktionsregel
äquivalent zum Induktionsschema ist. Dann kann man versuchen, die entstehende Herleitung in dem
neuen System Z mit der Induktionsregel zu normalisieren. Wir zeigen jetzt, daß sogar eine sehr schwache
Form eines solchen Normalisierungssatzes in Z mit der Induktionsregel nicht gelten kann.
Satz 6.4.8. Die folgende Form eines Normalisierungssatzes in Z mit der Induktionsregel ist falsch. Für
jede Herleitung d[uA ] : B mit A, B Formeln der Stufe ≤ ` gibt es eine Herleitung d∗ [uA ] : B, die nur
Formeln einer Stufe ≤ k enthält, wobei k nur von ` abhängt.
Beweis. Nehmen wir an, ein solcher Normalisierungssatz würde gelten. Man betrachte die Formel
(∀x.∀y≺x P y → P x) → ∀x≺ωn+1 P x,
die die transfinite Induktion bis ωn+1 ausdrückt und von der Stufe 3 ist. Nach Satz 6.2.1 ist sie herleitbar
in Z. Aus unserer Annahme folgt nun, daß es eine Herleitung dieser Formel gibt, die nur Formeln einer
Stufe ≤ k enthält, für ein von n unabhängiges k. Also beweist Zk die transfinite Induktion bis ωn+1 für
jedes n. Dies widerspricht aber Satz 6.4.7.
u
t
6.5 Nachtrag: η-Expansion
Für manche Untersuchungen ist es zweckmäßig, anstelle der η-Konversion ihre Umkehrung zu verwenden,
die sogenannte η-Expansion. Ein Problem besteht jedoch darin, daß die η-Expansion zusammen mit der
β-Konversion zu Schleifen führen kann:
M N →η↑ (λx.M x)N →β M N
und
λxM →η↑ λx(λxM )x →β λxM.
Wir wollen deshalb die η-Expansion von Termen in Anwendungspositionen und auch von Abstraktionen
ausschließen. Dies läßt sich wie folgt erreichen.
Definition 6.5.1. (η-Expansion). →η↑ sei der Termabschluß der Konversionsregel
M ρ→σ 7→η↑ λxρ .M x
falls x ∈
/ FV(M ) und M neutral ist.
Ferner sei →βη↑ :=→β ∪ →η↑ . Für γ ∈ {η↑, βη↑} können wir wie in Definition 2.1 die Begriffe γ-normal
(oder in γ-Normalform), γ-Reduktionsfolge und stark γ-normalisierbar definieren. Man beachte, daß man
von γ-Redexen nicht sinnvoll sprechen kann.
Offenbar lassen sich die Terme in η↑-Normalform charakterisieren durch
M ::= (xM )ι | λxM | ((λxM )N L)ι ;
die Terme in βη↑-Normalform erhält man durch Weglassen der letzten Regel.
In diesem Abschnitt zeigen wir die Terminierung und Konfluenz von →βη↑ . Eine Schwierigkeit liegt
in der Möglichkeit der Interaktion von η-Expansion mit β-Konversion. Dies führt dazu, daß die Substitutionseigenschaften aus Lemma 2.2.1(1), (3) und (4) alle für → βη↑ nicht mehr gelten.
Definition 6.5.2. (Äußere η-Expansion). Wir definieren ηρ (M ρ ) ∈ Λρ zusammen mit seiner Expansionshöhe µρ ∈ N durch Rekursion über ρ.
:= M,
ηι (M )
ηρ→σ (M ) := λxρ ησ (M ηρ (x)).
µι
µρ→σ
:=
:=
0,
µρ + µσ + 1.
142
6. Beweistheorie der Arithmetik
Beispiele: ηι→ι (y) = λx.yx und für ρ = (ι → ι) → (ι → ι) ist ηρ (z) = λyλx.z(λu.yu)x.
Lemma 6.5.3. (Eigenschaften der äußeren η-Expansion).
µ
M ρ →η↑ρ η(M ) falls M neutral ist.
Sind M , M, N, L in η↑-Normalform, so auch ηρ (xM ) und ηρ ((λxM )N L).
Wenn M →β M 0 , so ist η(M ) →β η(M 0 ).
η(M )[x := N ] = η(M [x := N ]).
∗
η(M )N →β η(M η(N )).
(6.18)
(6.19)
(6.20)
(6.21)
(6.22)
∗
η(η(M )) →β η(M ).
(6.23)
Beweis. (6.18). Induktion über den Typ ρ von M . Der Anfangsfall ρ = ι ist klar, und im Fall ρ → σ
haben wir
M ρ→σ
→η↑
µ
→η↑ρ
→µη↑σ
λx.M x
falls M neutral
λx.M ηρ (x)
nach IH(ρ)
λx.ησ (M ηρ (x)) nach IH(σ).
(6.19). Induktion über ρ. Der Fall ι ist klar, und im Fall ρ → σ haben wir
ηρ→σ (xM ) = λy ρ ησ (xM ηρ (y)),
ηρ→σ ((λxM )N L) = λy ρ ησ ((λxM )N Lηρ (y)).
Die Behauptung folgt in beiden Fällen aus den IHn für ρ und σ.
(6.20). Induktion über den Typ von M .
(6.21). Induktion über den Typ von M . Sei oBdA M vom Typ ρ → σ. Dann gilt
η(M )[x := N ] = λyη(M η(y))[x := N ]
= λyη(M [x := N ]η(y)) nach IH
= η(M [x := N ]).
(6.22). Induktion über den Typ von M . Der Fall ι ist klar. Im Fall ρ → σ können wir oBdA annehmen,
daß N nicht leer ist. Man erhält
ηρ→σ (M )N L
=
→β
∗
→β
λxη(M η(x))N L
η(M η(N ))L
η(M η(N )η(L)) nach IH.
(6.23). Induktion über den Typ von M . Der Fall ι ist klar. Im Fall ρ → σ haben wir
η(η(M ))
=
λxη(η(M )η(x))
∗
λxη(η(M η(η(x)))) nach (6.22)
∗
λxη(M η(x)) nach IH
η(M ).
→β
→β
=
u
t
Definition 6.5.4. (η-Expansion). Wir definieren exp(M ρ ) ∈ Λρ zusammen mit seiner Expansionshöhe
#η (M ρ ) ∈ N durch Rekursion über ρ.
exp(xM )
:=
exp(λxM )
:=
exp((λxM )N L) :=
η(x exp(M )),
λx exp(M ),
η((λx exp(M )) exp(N ) exp(L)).
P
Hierbei steht #η (M ) für i #η (Mi ).
:= µρ + #η (M ),
#η (xM )
#η (λxM )
:= #η (M ),
#η ((λxM )N L) := µρ + #η (M, N, L).
6.5 Nachtrag: η-Expansion
143
Lemma 6.5.5. (Eigenschaften der η-Expansion).
# (M )
M →η↑η
exp(M ),
und exp(M ) ist in η↑-Normalform.
(6.24)
∗
η(exp(M )) →β exp(M ).
(6.25)
∗
exp(M )[x := η(x)] →β exp(M ).
(6.26)
∗
η(exp(M ) exp(N )) →β exp(M N ).
(6.27)
∗
exp(M )[x := exp(N )] →β exp(M [x := N ]).
Wenn M →η↑ M 0 , so ist exp(M ) = exp(M 0 ) und #η (M ) = #η (M 0 ) + 1.
(6.28)
(6.29)
Beweis. (6.24) beweist man leicht durch Induktion über M , unter Verwendung von (6.18) bzw. (6.19).
(6.25) und (6.26) werden simultan durch Induktion über ρ bewiesen. (6.25). Für neutrales M ist
exp(M ) ein η-Bild und die Behauptung folgt aus (6.23). Im Fall einer Abstraktion haben wir
η(exp(λxM ))
=
=
η(λx exp(M ))
λxη((λx exp(M ))η(x))
∗
λxη(exp(M )[x := η(x)])
∗
λx exp(M ) nach IH(6.25)
exp(λxM ).
→β
→β
=
nach IH(6.26) mit (6.20)
(6.26). Fall xM .
exp(xM )[x := η(x)]
=
=
η(x exp(M )[x := η(x)]
η(η(x) exp(M )[x := η(x)])
∗
η(η(x) exp(M )) nach IH(6.26) mit (6.20)
∗
η(η(xη(exp(M ))))
∗
η(xη(exp(M )))
∗
η(x exp(M ))
=
exp(xM ).
→β
→β
→β
→β
nach (6.21)
nach (6.22) mit (6.20)
nach (6.23)
nach (6.25) mit (6.20)
Die restlichen Fälle erhält man leicht aus der IH.
(6.27). Induktion über M . Wir können oBdA annehmen, daß N nicht leer ist.
η(exp(xM ) exp(N ))
=
η(η(x exp(M )) exp(N ))
∗
η(η(x exp(M )η(exp(N )))) nach (6.22) mit (6.20)
∗
η(x exp(M )η(exp(N ))) nach (6.23)
∗
η(x exp(M ) exp(N ))
=
exp(M M N )
=
=
η((λx exp(M )) exp(N ) exp(L))
exp((λxM )N L)
=
η(η((λx exp(M )) exp(N ) exp(L)) exp(K))
∗
η(η((λx exp(M )) exp(N ) exp(L))η(exp(K)))
→β
→β
→β
η(exp(λxM ) exp(N ) exp(L))
η(exp((λxM )N L) exp(K))
→β
nach (6.22), (6.20)
∗
η((λx exp(M )) exp(N ) exp(L) exp(K)) nach (6.23), (6.25), (6.20)
=
exp((λxM )N L).
→β
(6.28). Induktion über M .
nach (6.25)
144
6. Beweistheorie der Arithmetik
exp(xM )[x := exp(N )]
=
=
η(x exp(M ))[x := exp(N )]
η(exp(N )M [x := exp(N )])
∗
η(exp(N ) exp(M [x := exp(N )]))
∗
exp(N M [x := N ]) nach (6.27).
→β
→β
nach (6.21)
nach IH mit (6.20)
Die restlichen Fälle ergeben sich leicht aus der IH.
(6.29). Induktion über M →η↑ M 0 . Im Fall einer η↑-Kopfkonversion betrachten wir zunächst den
Unterfall xM 7→η↑ λy.xM y. Man erhält
exp(xM ) =
η(x exp(M ))
= λyη(x exp(M )η(y))
= exp(λy.xM y)
und
#η (xM ρ→σ ) =
µρ→σ + #η (M )
= µσ + #η (M ) + µρ + 1
= µσ + #η (M , y ρ ) + 1
=
#η (λy.xM y) + 1.
Im Fall einer inneren Konversion folgt die Behauptung wieder sofort aus der IH.
u
t
0
Proposition 6.5.6. Wenn M →β M 0 , so ist exp(M ) →+
β exp(M ).
Beweis. Induktion über M →β M 0 . Im Fall einer β-Kopfkonversion erhalten wir
exp((λxM )N L)
=
→β
η((λx exp(M )) exp(N ) exp(L))
η(exp(M )[x := exp(N )] exp(L))
∗
η(exp(M [x := N ]) exp(L))
∗
exp(M [x := N ]L)
→β
→β
nach (6.20)
nach (6.28) mit (6.20)
nach (6.27).
Die Fälle xM M N → xM M 0 N und (λxM )N → (λxM 0 )N sind klar nach der IH. Auch die restlichen
Fälle ergeben sich sofort aus der IH.
u
t
Korollar 6.5.7. →βη↑ ist terminierend.
Beweis. Nach der Proposition kann man jede β-Reduktion auf dem Term M durch eine positive Anzahl von β-Reduktionen auf exp(M ) simulieren, während nach (6.29) η-Expansionen den Term exp(M )
unverändert lassen. Die Terminierung von →βη↑ folgt jetzt durch Induktion über exp(M ) bzgl. der teru
t
minierenden Relation →β und Nebeninduktion über #η (M ).
Proposition 6.5.8. →βη↑ ist konfluent.
∗
∗
∗
∗
Beweis. Gelte N0 ←βη↑ M →βη↑ N1 . Nach (6.29) und Proposition 6.5.6 folgt exp(N0 ) ←β exp(M ) →β
∗
∗
exp(N1 ). Die Konfluenz von →β liefert einen Term N mit exp(N0 ) →β N ←β exp(N1 ). Nach (6.24) gilt
Ni →η↑ exp(Ni ); damit folgt die Behauptung.
6.6 Anmerkungen
145
M
N0
∗€
€
€
‰
βη↑
@∗
@
R
@
βη↑
N1
∗
∗
exp(M )
∗€ @∗
η↑
η↑
€
@
‰
R
@
?€
?
β
β
exp(N0 )
exp(N1 )
@∗
∗€
@
€
@
R
€
‰
β
β
N
u
t
Man kann leicht zeigen, daß sich die Terme in η↑-Normalform charakterisieren lassen durch
M ::= (xM )ι | λxM | ((λxM )N L)ι ,
und daß man bei Weglassen der letzten Regel die Terme in βη↑-Normalform erhält.
6.6 Anmerkungen
Die Beweisbarkeit von Anfangsfällen der transfiniten Induktion (s. Abschnitt 6.2) wurde von Gentzen
[10] gezeigt; in dieser Arbeit zeigte Gentzen auch die Unbeweisbarkeit der transfiniten Induktion bis ε0
für ein Relationssymbol P (s. Abschnitt 6.4).
Unsere Darstellung basiert auf Gentzens [10], verwendet aber wie in Schütte [29] ein unendliches
Beweissystem mit ω-Regel (s. Abschnitt 6.3), in das sich die übliche Arithmetik einbetten läßt. Dies ist
hier für ein System des natürlichen Schließens durchgeführt; eine ähnliche Darstellung für ein GentzenTait-System findet sich in [33].
Gentzens Resultat über die Unbeweisbarkeit der transfiniten Induktion bis ε0 war das erste Beispiel
eines mathematisch leicht zu verstehenden wahren Satzes, der nicht in der erststufigen Arithmetik beweisbar ist. Dies steht im Gegensatz zu Gödels Unvollständigkeitssatz: dort ist der unbeweisbare Satz
ausschließlich durch metamathematische Betrachtungen motiviert. Einen mehr kombinatorische Aussage
dieser Art, in der Ordinalzahlen nicht explizit vorkommen, wurde zuerst von Paris [23] gefunden.
Der einfache Beweis in Abschnitt 6.5 der Terminierung und Konfluenz von →βη↑ stammt in dieser
Form von Felix Joachimski; man kann ihn als eine verbesserte Variante der η-Expansor-Methode von
di Cosmo und Kesner [7] ansehen.
Weiterführende Bücher über Beweistheorie sind Schütte [31, 32], Buchholz et al. [4], Takeuti
[40], Girard [11], Pohlers [26] sowie [43].
146
6. Beweistheorie der Arithmetik
Literatur
1. E.W. Beth. Semantic construction of intuitionistic logic. Medelingen de KNAW N.S., 19(11), 1956.
2. E.W. Beth. The foundations of mathematics. North–Holland, Amsterdam, 1959.
3. Wilfried Buchholz. A new system of proof–theoretic ordinal functions. Annals of Pure and Applied Logic,
32(3):195–207, 1986.
4. Wilfried Buchholz, Solomon Feferman, Wolfram Pohlers, and Wilfried Sieg. Iterated Inductive Definitions
and Subsystems of Analysis: Recent Proof–Theoretical Studies, volume 897 of Lecture Notes in Mathematics.
Springer, Berlin, 1981.
5. Georg Cantor. Beträge zur Begründung der transfiniten Mengenlehre. Mathematische Annalen, 49, 1897.
6. C.C. Chang and H.J. Keisler. Model Theory, volume 73 of Studies in Logic. North–Holland, Amsterdam, 3rd
edition, 1990.
7. Roberto Di Cosmo and Delia Kesner. A confluent reduction for the extensional typed λ–calculus with pairs,
sums, recursion and terminal object. In ICALP 93, number 700 in Lecture Notes in Computer Science, pages
645–656. Springer Verlag, Berlin, Heidelberg, New York, 1993.
8. Harvey Friedman. Equality between functionals. In R. Parikh, editor, Logic Colloquium, Lecture Notes in
Mathematics 453, pages 22–37. Springer, 1975.
9. Gerhard Gentzen. Untersuchungen über das logische Schließen. Mathematische Zeitschrift, 39:176–210, 405–
431, 1934.
10. Gerhard Gentzen. Beweisbarkeit und Unbeweisbarkeit von Anfangsfällen der transfiniten Induktion in der
reinen Zahlentheorie. Mathematische Annalen, 119:140–161, 1943.
11. Jean-Yves Girard. Proof Theory and Logical Complexity. Bibliopolis, Napoli, 1987.
12. Kurt Gödel. Die Vollständigkeit der Axiome des logischen Funktionenkalküls. Monatshefte für Mathematik
und Physik, 37:349–360, 1930.
13. Kurt Gödel. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I.
Monatshefte für Mathematik und Physik, 38:173–198, 1931.
14. Carl A. Gunter. Semantics of Programming Languages: Structures and Techniques. Foundations of Computing. The MIT Press, Cambridge, Massachusetts, 1992.
15. Ingebrigt Johansson. Der Minimalkalkül, ein reduzierter intuitionistischer Formalismus. Compositio Mathematica, 4:119–136, 1937.
16. Stephen C. Kleene. Introduction to Metamathematics. D. van Nostrand Comp., New York, 1952.
17. Saul A. Kripke. Semantical analysis of intuitionistic logic I. In J. Crossley and M. Dummett, editors, Formal
Systems and Recursive Functions, pages 93–130. North–Holland, Amsterdam, 1965.
18. Jerzy L
oś. Quelques remarques, théorèmes et problèmes sur les classes définissables d’algèbres. In Mathematical Interpretation of Formal Systems, pages 98–113. North–Holland, Amsterdam, 1955.
19. L. Löwenheim. Über Möglichkeiten im Relativkalkül. Mathematische Annalen, 76:447–470, 1915.
20. A. Malzew. Untersuchungen aus dem Gebiete der mathematischen Logik. Rec. Math. N. S., 1:323–336, 1936.
21. Grigori E. Mints. Exact estimates of the provability of transfinite induction in the initial segments of arithmetic. Journal of Soviet Math, 1:85–91, 1973. Translated from Zapiski Nauch. Sem. Leningrad 20, 134–144
(1971).
22. V.P. Orevkov. Lower bounds for increasing complexity of derivations after cut elimination. Zapiski Nauchnykh
Seminarov Leningradskogo, 88:137–161, 1979.
23. J.B. Paris. Some independence results for Peano arithmetic. The Journal of Symbolic Logic, 43(4):725–731,
1978.
24. Charles Parsons. Transfinite induction in subsystems of number theory (abstract). The Journal of Symbolic
Logic, 38(3):544–545, 1973.
25. Rósza Péter. Rekursive Funktionen. Akademie–Verlag, Berlin, 1957.
26. Wolfram Pohlers. Proof Theory, volume 1407 of Lecture Notes in Mathematics. Springer Verlag, Berlin,
Heidelberg, New York, 1989.
27. Harvey E. Rose. Subrecursion: Functions and hierarchies, volume 9 of Oxford Logic Guides. Clarendon Press,
Oxford, 1984.
28. Rósza Péter. Recursive Functions. Academic Press, New York, 1967.
29. Kurt Schütte. Beweistheoretische Erfassung der unendlichen Induktion in der Zahlentheorie. Mathematische
Annalen, 122:369–389, 1951.
148
Literatur
30. Kurt Schütte. Kennzeichnung von Ordinalzahlen durch rekursiv definierte Funktionen. Mathematische Annalen, 127:16–32, 1954.
31. Kurt Schütte. Beweistheorie. Springer Verlag, Berlin, Heidelberg, New York, 1960.
32. Kurt Schütte. Proof Theory. Springer Verlag, Berlin, Heidelberg, New York, 1977.
33. Helmut Schwichtenberg. Proof theory: Some applications of cut-elimination. In J. Barwise, editor, Handbook
of Mathematical Logic, volume 90 of Studies in Logic and the Foundations of Mathematics, chapter Proof
Theory and Constructive Mathematics, pages 867–895. North–Holland, Amsterdam, 1977.
34. Joseph R. Shoenfield. Mathematical Logic. Addison–Wesley Publ. Comp., Reading, Massachusetts, 1967.
35. T. Skolem. Logisch–kombinatorische Untersuchungen über die Erfüllbarkeit oder Beweisbarkeit mathematischer Sätze nebst einem Theorem über dichte Mengen. Skrifter utgitt av Videnkapsselskapet i Kristiania, I,
Mat. Naturv. Kl., 4:36 pp., 1920.
36. T. Skolem. über die Nicht–Charakterisierbarkeit der Zahlenreihe mittels endlich oder abzählbar unendlich
vieler Aussagen mit ausschließlich Zahlenvariablen. Fund. Math., 23:150–161, 1934.
37. Richard Statman. Bounds for proof-search and speed-up in the predicate calculus. Annals of Mathematical
Logic, 15:225–287, 1978.
38. William W. Tait. Infinitely long terms of transfinite type I. In J. Crossley and M. Dummett, editors, Formal
Systems and Recursive Functions, pages 176–185. North–Holland, Amsterdam, 1965.
39. William W. Tait. A realizability interpretation of the theory of species. In R. Parikh, editor, Logic Colloquium Boston 1971/72, volume 453 of Lecture Notes in Mathematics, pages 240–251. Springer Verlag, Berlin,
Heidelberg, New York, 1975.
40. Gaisi Takeuti. Proof Theory. North–Holland, Amsterdam, second edition, 1987.
41. Anne S. Troelstra. Choice Sequences. Oxford Logic Guides. Clarendon Press, Oxford, 1977.
42. Anne S. Troelstra and Helmut Schwichtenberg. Basic Proof Theory. Cambridge University Press, 1996.
43. Anne S. Troelstra and Helmut Schwichtenberg. Basic Proof Theory. Cambridge University Press, 2nd edition,
2000.
44. Anne S. Troelstra and Dirk van Dalen. Constructivism in Mathematics. An Introduction, volume 121, 123 of
Studies in Logic and the Foundations of Mathematics. North–Holland, Amsterdam, 1988.
45. Oswald Veblen. Continuous increasing functions of finite and transfinite ordinals. Transactions AMS, 9:280–
292, 1908.
Index
∆0 -Formel, 53
Π1 -Formel, 131
Σ1 -Formel, 59
– der Sprache L1 , 81
– strikte, 59
η-Expansion, 141, 143
– äußere, 142
γ-Normalform, 141
µ-Operator
– beschränkter, 54
– unbeschränkter, 60
n-elementig, 34
Ableitbarkeitsbedingungen, 82
Ableitung, 7, 124
Abstraktion, 40
abzählbar, 34
Äquivalenz, 3
Allformel, 3
Allklasse, 86
Alphabet, 2
Annahme, 7
– freie, 40
– geschlossene, 7
– offene, 7
Annahmenvariablen, 7
Anwendung, 40
– einfache, 136
Argumenttyp, 39
Aristoteles, 2
arithmetisch, 81
arithmetisches System, 130
– eingeschränktes, 131
– intuitionistisches, 131
– klassisches, 131
Ast, 21, 46, 135
– generischer, 29
Ausgangsfunktionen, 52
Aussage, 2
Aussagenlogik, 39
Aussagensymbol, 5
Aussonderungsschema, 88
Auswahlaxiom, 30–32, 111, 112
Axiom, 2
Axiomensystem, 34
Baum, 21
– endlich verzweigter, 21
– unbeschränkter, 21
– vervollständigter, 21
Belegung, 19
– für Kripke-Strukturen, 27
Berechenbarkeitsprädikat
– starkes, 43
Beseitigungsregel, 1, 7, 8, 39
Beth-Struktur, 21
– für die intuitionistische Logik, 23
– vervollständigte, 21
Beweis, 7
Bild, 87
Bindung, 61
Blatt, 21
bottom, 5
Cantor
– Satz von, 107
Cantorsches Diagonalargument, 71
Churchsche These, 61
Curry-Howard Korrespondenz, 39
De-Morgan-Äquivalenzen, 15
Dedekind-endlich, 113
Dedekind-unendlich, 113
Definition
– explizite, 51
Definitionsbereich, 87
Disjunktion, 3
– klassische, 18
– konstruktiver, 18
– schwache, 18
– starke, 18
Eindeutigkeit der Normalform, 44
Einführungsregel, 1, 7, 8, 39
Einschränkung, 87
Einschritt-Reduktionsrelation, 43
Einsetzung, 52
Element
– maximales, 111
elementar äquivalent, 34
endlich, 112
endlich axiomatisierbar, 37
endliche Durchschnittseigenschaft, 30
erfüllbar, 30
Ersetzungsschema, 89
Erzwingungsbeziehung, 21
η-Expansion
– einer Variablen, 135
– eines Terms, 135
Ex-Falso-Quodlibet, 9
ex-falso-quodlibet Axiom, 131
Existenzformel, 3
Existenzquantor
– klassischer, 18
149
150
Index
– konstruktiver, 18
– schwacher, 18
– starker, 18
Expansion, 33
Expansionshöhe, 142, 143
Extensionalitätsaxiom, 86
F -Produktstruktur, 31
F -Ultraprodukt, 31
Falsum, 3
falsum, 5
Filter, 30
formales System, 2
Formel, 2, 5, 131
– als Typ, 39
– arithmetische, 81
– atomare, 5
– aussagenlogisch unzerlegbare, 15
– geschlossene, 5
– negative, 12
– pränexe, 17
Formelmenge
– definierbare, 73
– primitiv rekursive, 68
– rekursiv aufzählbare, 68
– rekursive, 68
Formeln
– äquivalente, 11
Frege, 2
Funktion, 88
– µ-rekursive, 60
– µ0 -rekursive, 77
– berechenbare, 51, 60
– bijektive, 88
– charakteristische, 51
– HGK-rekursive, 70
– injektive, 88
– monotone, 123
– partielle, 60
– primitiv rekursive, 51
– rekursive, 59
– repräsentierbare, 74
– stetige, 123
– surjektive, 88
– totale, 60
Funktionssymbol, 2, 5
Gödel-Gentzen Übersetzung g , 12
Gödelnummer, 64
Gödelsche β-Funktion, 78
Gültigkeit, 19
genau dann wenn, 3
Gleichheitsaxiome, 33
gleichmächtig, 107
Gleichungssystem, 70
Grundsubstitution, 62
Grundterm, 5
Grundtyp, 39
Gruppentheorie, 4
Hartogszahl, 109
Hauptast, 46
Hauptprämisse, 8
Hauptzahl
– additive, 123
Herbrandscher Satz, 47
herleitbar, 9, 18
Herleitung, 7
– konvertierbare, 136
– normale, 136
– quasinormale, 138
Herleitungsterm
– geschlossener, 42
Hessenberg-Summe, 129
Heyting-Arithmetik, 131
Implikation, 3
indirekter Beweis, 1
Individuenbereich, 2, 19
Induktion
– über ω, 92
– über ω mit Rückgriff auf sämtliche Vorgänger, 94
– transfinite über On, 103
– transfinite über On, verschiedene Formen, 103
Induktionssatz, 90
Induktionsschema, 83
Infix, 5
Instanz, 62, 138
Interpretation, 19
Inverses, 87
isomorph, 34
Körper, 37
– archimedisch geordneter, 37
– geordneter, 37
Kardinalität, 112
Kardinalzahl, 108
– reguläre, 114
– singuläre, 114
kartesisches Produkt, 87
Kern, 17
Klammerkonventionen, 6
Klammersymbol, 126
Klasse, 86
– abgeschlossene, 123
– beschränkte, 123
– club, 123
– echte, 86
– fundierte, 99
– induktive, 92
– normale, 123
– transitive, 92
Klassen
– gleiche, 86
Klauselform, 16
Kleenesches T -Prädikat, 71
Kleenesches Aufzählungstheorem, 71
Kleenesches Normalformentheorem, 71
Knoten, 21, 46
– Beseitigungs-, 46
– Blatt, 46
– Einführungs-, 46
– End-, 46
– konsistenter, 28
– minimaler, 46
– stabiler, 28
Kodenummer, 64
Komposition, 52, 62
konfinal, 114
Konfinalität, 114
Index
Kongruenzrelation, 33
Konjunktion, 2
Konklusion, 2, 7
konnex, 99
konsistent, 30
Konsistenz, 81
Konstante, 2, 5
Kontext, 9
– konsistenter, 9
Kontinuumshypothese, 116
– verallgemeinerte, 116
Konversionsrelation, 43
Kripke-Struktur, 26
kritische ε-Zahl, 124
kumulative Typenstruktur, 85
Kuratowski-Paar, 87
Länge, 21
λ-Term, 39
Limeszahl, 103
Logik
– intuitionistische, 9
– klassische, 9
– minimal, 18
– minimale, 9
lokal konfluent, 44
Mächtigkeit, 112
Marke, 7
Menge, 86
– reine, 85
Minimalformel, 135
Minimalknoten, 135
Modell, 34
modus ponens, 8
monotone Aufzählung, 123
Nachfolgerzahl, 103
natürliche Summe, 129
natürliche Zahlen, 92
Nebenprämisse, 8
Negation, 3
Nichtstandardmodell, 36
Normalform, 43
– disjunktive, 16
– konjunktive, 15
– lange, 135
Normalfunktion, 123
Numeral, 73, 131
Objektvariablen, 7
oder, 3
ordinale Klasse, 99
Ordinalzahl, 99
– stark kritische, 125
Ordnung
– lineare, 99
– partielle, 111
Ordnungsfunktion, 123
Orevkov, 49
Paarbildung, 40
Paarfunktion, 55
Peano-Arithmetik, 131
Peano-Axiome, 36, 93, 131
151
Peano-Zahlentheorie, 83
Peirce-Formel, 11, 24
Potenzmengenaxiom, 88
Prädikatensymbol, 5
Präfix, 17
Prämisse, 2, 7
Pränexe Normalform, 17
Prästruktur, 19
Primformel, 5
Primzahlpotenzkodierung, 54
Prinzip des indirekten Beweisens, 9
Prinzip vom kleinsten Element, 94
Progressionsregel, 137
progressiv, 94, 132
Projektion, 40
Quantor, 3
Quantorentiefe, 15
Quasiteilformel, 138
Quotientenstruktur, 34
Rang, 106
Redukt, 33
Reduktionsfolge, 141
Regel, 7
– abgeleitete, 13
Regularitätsaxiom, 106
Rekursion
– primitive, 52
Rekursionssatz, 90
Relation, 88
– arithmetische, 81
– aufzählbare, 60
– definierbare, 53, 73
– entscheidbare, 60
– extensionale, 98
– fundierte, 97
– primitiv rekursive, 51
– rekursiv aufzählbare, 58
– rekursive, 59
– repräsentierbare, 74
– transitiv fundierte, 89
Relationssymbol, 2, 5
Repräsentierbarkeit, 74
Russellklasse, 86
Russellsche Antinomie, 85
Satz, 5
Schlußregel, 2
Schnittrang, 134
Schranke
– obere, 111
Semantik, 2, 18
Sequenz, 66
Sequenzenformulierung des natürlichen Schließens, 9
Shoenfield-Prinzip, 85
Signatur, 5
simply typed λ-calculus, 39
Sprache
– erster Stufe, 5
– primitiv rekursiv präsentierte, 64
Stabilität, 9
Stabilitätsaxiom, 131
Standardmodell, 81
stark berechenbar
152
Index
– unter Substitution, 44
stark normalisierend, 43
starkes Berechenbarkeitsprädikat, 43
Statman, 49
Struktur, 19
Stufe, 131
– einer Herleitung, 134
Substitution, 6, 61
Symbolnummer, 64
Syntax, 2
Tarskis Undefinierbarkeitssatz, 74
Teilformel, 46
– strikt positive, 48
– unmittelbare, 46
Teilformeleigenschaft, 47
Term, 2, 5, 40, 131
– γ-normaler, 141
– geschlossener, 5
– neutraler, 40, 42, 45
– normaler, 43
– stark normalisierbarer, 141
– stark normalisierender, 43
Tertium non datur, 15
Theorie, 34
– axiomatisierte, 69
– inkonsistente, 69
– konsistente, 69
– primitiv rekursiv axiomatisierbare, 69
– rekursiv axiomatisierbare, 69
– vollständige, 34
– von M, 34
Trägermenge, 19
transitive Hülle, 96, 97
transitive Relation, 90
Typ, 39
Ultrafilter, 30
Ultrapotenz, 32
Umbenennung, 3
Umgebung, 19
und, 2
Undefinierbarkeitssatz, 74
unendlich, 34, 112
Unendlichkeitsaxiom, 92
Universum, 86
Unvollständigkeitssatz
– erster, 75
Variable, 3, 5
– Annahmen-, 7
– freie, 3, 5, 42
– gebundene, 3, 62
– Objekt-, 42
Variablenbedingung, 8, 13, 66
Variablensubstitution, 62
Veblen-Hierarchie, 124
Vereinigungsmengenaxiom, 88
Verkettung, 87
von Neumannsche Stufen, 104
Wahrheitsbegriff, 73
Wahrheitsfunktion, 3
Wahrheitswert, 2
wenn-so, 3
Wertebereich, 87
Wertverlaufsfunktion, 56
Wertverlaufsrekursion, 56
Widerlegung, 139
Widerspruchsfreiheit, 81
Wohlordnung, 99
Wohlordnungssatz, 111
Zahlen
– natürliche, 92
Zornsches Lemma, 30, 31, 111
Herunterladen