New Logic – Ein Überblick - Hu

Werbung
New Logic – Ein Überblick
PD Dr. Timm Lampert
Inhaltsverzeichnis
1
Ziel und Motivation
1
2
Historische Rekonstruktion
6
3
Philosophische Analyse
10
4
Logische Alternative
27
5
Literatur
32
Vorbemerkung In diesem Text gebe ich einen Überblick über mein Forschungsprojekt “New Logic”. Aus diesem Projekt ist schließlich ein Computerprogramm hervorgegangen, das Formeln der reinen Quantorenlogik 1. Stufe ohne Identität entscheidet.
Der vorliegende Text möchte ein Verständnis für die historischen und logisch-philosophischen Hintergründe dieses Programmes vermitteln. Es soll klar werden, warum es
sich lohnt, sich mit diesem Programm sowie seinen Hintergründen auseinander zu setzen. Und zwar sollte dies sowohl für diejenigen verständlich werden, die sich nicht mit
ähnlichen Themen beschäftigen, als auch für diejenigen, die auf Grund ihrer Kenntnis von Logik an Voraussetzungen gewöhnt sind, die ich durch mein Projekt in Frage
stelle.
1
Ziel und Motivation
Begriff der New Logic. Unter New Logic verstehe ich das Programm, die Quantorenlogik 1. Stufe ohne Identität (“pure first order logic”, kurz FOL) ohne mengentheoretische Grundlage und damit ohne Semantik auszuarbeiten, und zwar so, dass
daran die klassische Semantik gemessen werden kann. Der Kerngedanke besteht darin,
einen Algorithmus zu entwickeln, der allein auf bekannten syntaktischen Äquivalenzumformungen beruht und durch den alle Formeln einer Klasse logisch äquivalenter
Formeln genau einem Repräsentanten zugeordnet werden. Logische Eigenschaften –
wie z.B. logische Wahrheit – sind auf dieser Basis allein durch syntaktische, sinnlich
wahrnehmbare Eigenschaften der Repräsentanten zu definieren und zu identifizieren.
1
Der Titel “New Logic” geht auf Wittgenstein zurück. Unter “New Logic” verstand
Wittgenstein eine Konzeption der Logik, die die “Old Logic” Freges und Russells ablösen sollte. Der Kernpunkt der New Logic geht auf Wittensteins Forderung zurück, logische (und auch mathematische) Begriffe allein über rein syntaktische Identifikationskriterien zu explizieren. Philosophisch gesehen ist dies eine erklärte Absage an jegliche
Form von “Extensionalismus” in der Logik und Mathematik. Die gewählte Alternative
ist kein “Intensionalismus”, der von irgendwelchen nicht-extensionalen Bedeutungen
ausgeht, sondern ein vollständiger Verzicht auf jeglichen Rekurs auf Semantik in Logik und Mathematik. Vorausgesetzt wird allenfalls der Gebrauch von Ausdrücken, aber
nicht deren etwaige Intension oder Extension.
Abgrenzung zum traditionellen Verständnis der Logik. Das traditionelle Verständnis der Logik, das auf der extensionalen Semantik aufbaut, interpretiert logische Formeln ϕ als Wahrheitsfunktionen, denen in Abhängigkeit von Interpretationen = der logischen und nicht-logischen Bestandteile einer Formel Wahrheitswerte WW zugeordnet werden. Interpretationen sind Zuordnungen von Extensionen zu den Bestandteilen
logischer Formeln. Die Interpretation der logischen Bestandteile ist fix; die der nichtlogischen Bestandteile variiert und muss jeweils angegeben werden, um den Wahrheitswert zu bestimmen, der einer logischen Formel relativ zu einer Interpretation zugeordnet wird. ∃y∀x(F xy ↔ ¬F xx) ist z.B. eine Wahrheitsfunktion, die den Wert F erhält,
wenn =(x, y) = {x | x ist eine Menge}, =(F ) = {< x, y >| x y}. Eine logische Formel plus eine Interpretation repräsentiert einen Satz S; die angegebene Formel plus die
angegebene Interpretation repräsentieren z.B. den Satz “Es gibt eine Menge, die alle
und nur die Mengen enthält, die sich selbst nicht als Element enthalten” (= Russells
Paradox). Dieser Satz ist gemäß der extensionalen Semantik falsch, denn ihm wird
auf Grund der Extensionen, die seinen logischen wie nicht-logischen Bestandteilen gemäß ihrer extensionalen Bedeutung zuzuordnen sind, der Wahrheitswert F zugeordnet.
Dieses Verständnis logischer Formeln lässt sich durch folgende Form kurz ausdrücken
(“→” steht für eine extensionale Zuordnung):
=(ϕ) → W W ; wobei =(ϕ) wahr ist gdw. S.
Die Zuordnung zu Wahrheitswerten muss nicht berechenbar sein, denn die Extensionen, auf die Bezug genommen wird, sind im Falle von FOL nicht notwendigerweise
endlich.
New Logic versteht eine logische Formel ϕ nicht als eine Wahrheitsfunktion, sondern als Anweisung zur Konstruktion eines eindeutigen Repräsentanten ϕ0 einer Klasse
logisch äquivalenter Formeln. Es wird nicht einer Formel relativ zu einer Interpretation
ein Wahrheitswert zugeordnet, sondern es wird eine Formel durch ein berechenbares
Äquivalenzumformungsverfahren ein Repräsentant einer Äquivalenzklasse zugeordnet. Dieser Repräsentant (ein “ideales Symbol”) wird verstanden als eine Satzform SF
(auch kurz “logische Form”). Eine Satzform ist eine Darstellung der Eigenschaften, die
ein Satzzeichen haben muss, um Möglichkeiten der Wahrheit und Falschheit eines Satzes im logischen Raum unterscheiden zu können. Unter dem logischen Raum wird die
Mannigfaltigkeit der Unterscheidungsmöglichkeiten verstanden, die Sätze auf Grund
des Gebrauchs logischer Partikel wie “alle”, “ein”, “nicht”, “und”, “oder” u.dgl. haben
2
können. Während Formeln durch logische Schlussregeln syntaktische Eigenschaften
verliehen werden, die Möglichkeiten der Wahrheit und Falschheit im logischen Raum
bedingen, stellt ein ideales Symbol diese Eigenschaften durch seine sinnlich wahrnehmbaren Eigenschaften dar. Als Merkformel bietet sich in Gegenüberstellung zum
traditionellen Verständnis folgende Form an (“⇒” steht für ein berechenbares Äquivalenzumformungsverfahren):
ϕ ⇒ ϕ0 wobei ϕ0 = SF.
Das dieser Konzeption zu Grunde liegende logisch-philosophische Verständnis kann
ich in diesem Überblicksartikel nicht darlegen. An dieser Stelle sei nur betont, dass
diese Konzeption ohne die Begriffe der Wahrheitsfunktion, der Interpretation und der
Repräsentation von Sätzen auskommt. Nach dem Verständnis der New Logic führt die
Repräsentation von Sätzen mittels Interpretation logischer Formeln als Wahrheitsfunktionen zu Irrtümern. New Logic lehnt eine Interpretation logischer Formeln im Sinne
einer extensionalen Semantik ab; eine derartige vorschnelle Interpretation logischer
Formeln beruht auf einem Unverständnis ihrer logischen Form. Bevor logische Formeln auf irgendeine Weise intensionale oder extensionale Bedeutung zugeordnet wird,
ist ihre logische Form zu klären, denn damit wird allererst geklärt, wie logische Formeln Bedeutung verliehen werden kann.
Statt sich etwa durch die oben angegebene Interpretation der Formel ∃y∀x(F xy ↔
¬F xx) zu irgendwelchen Annahmen bezüglich der Existenz oder Nicht-Existenz etwaiger Mengen verleiten zu lassen, wird darauf beharrt, dass die genannte Formel die
Form einer Kontradiktion hat, durch die gar kein spezifischer Gehalt zum Ausdruck
gebracht werden kann. Ohne weitere Voraussetzungen über logische Formen und die
Möglichkeiten ihrer Interpretation zu machen, kann man sich dies daran vor Augen führen, dass aus Kontradiktionen logisch gesehen alles folgt. Dies impliziert auch, dass alle
Kontradiktionen äquivalent sind. Was immer man also falsch nennt, das von der Form
∃y∀x(F xy ↔ ¬F xx) sein soll, es folgt hieraus genau dasselbe wie aus “Es regnet und
es regnet nicht”. Aus diesem Blickwinkel erscheint es bedenklich, aus Russells Paradox irgendwelche substantiellen Folgerungen zu ziehen wie etwa die, dass die naive
Mengenlehre nicht korrekt ist (vgl. die Ausführungen auf S. 18). Den Wahrheitswert
F einer kontradiktorischen Formel samt einer spezifischen Interpretation zuzuordnen,
ist irreführend, denn es suggeriert, dass man – wie etwa im Falle der Zuordnung von
F zu einem sinnvollen Satz wie “Es gibt einen Kellner, der alle und nur bedient, die
sich nicht selbst angemeldet haben” – einem Satz mit einem spezifischen Gehalt einen
Wahrheitswert zuordnet. Bevor Formeln mit einer Interpretation versehen werden, um
ihnen auf dieser Grundlage einen Wahrheitswert zuzuordnen, sollte geklärt werden,
wie die logische Formelsprache verwendet werden kann, um ausdrücken zu können,
was es heißt, einen Satz wahr oder falsch zu nennen. Nach Auffassung der New Logic
stellen vorschnelle Interpretationen gemäß der extensionalen Semantik eine Verhexung
des Verstandes durch die Mittel von FOL dar. Die gewöhnliche logische Formelsprache ist ebenso wie die Umgangssprache einer weiteren Analyse bedürftig. Analyse der
logischen Formelsprache in Form algorithmischer Äquivalenztransformation vor aller
Interpretation ist der maßgebliche Schutz gegen Fehlinterpretationen und die einzige
sichere Grundlage für ein adäquates Verständnis in Logik.
3
Die extensionale Semantik soll im Rahmen der New Logic aber nicht nur durch philosophische Analyse und auf Basis eines alternativen Verständnisses kritisiert werden.
Vielmehr ist der entscheidende Punkt, dass die Konzeption der New Logic ein Maßstab bereitstellt, die in Frage stehenden Alternativen zu bemessen. Das Kernargument
hierfür ist wie folgt: 1) Eine Folge der extensionalen Semantik ist Churchs Theorem
(Unentscheidbarkeit von FOL). 2) Das Konzept der New Logic impliziert mit der Forderung eines Äquivalenzverfahrens im oben genannten Sinne die Entscheidbarkeit von
FOL. 3) Beide Konzeptionen stimmen – wenn auch aus unterschiedlichen Gründen –
überein in Bezug auf die Gültigkeit logischer Schlussregeln und damit innerlogischer
Äquivalenzumformungen. 4) Kann auf dieser Basis ein Entscheidungsverfahren für
FOL angegeben werden, dann ist dies ein unabhängiges Argument gegen das traditionelle Verständnis von FOL und für New Logic. Der vorliegende Text will vor allem
die Hintergründe dieses Argumentes soweit ausführen, dass man bereit ist, sich darauf
einzulassen.
Alternative zur mathematischen Logik. New Logic soll eine Alternative zu dem
Verständnis von FOL darstellen, das der mathematischen Logik zu Grunde liegt. Die
mathematische Logik genießt weitgehend Anerkennung. Sie galt und gilt vielen Wissenschaftlern und Philosophen sogar als eine Art Leitbild exakter Wissenschaft. Wenn
irgendwo, dann trifft auf sie Kuhns Begriff eines “Paradigma” zu: Es handelt sich um
eine institutionell eingebettete Disziplin mit festen Methoden, Begrifflichkeiten, einer
einheitlichen Symbolsprache (Syntax + Semantik von FOL) und wohldefinierten Problemen (“Rätseln”). Vor allem aber bestehen einzelne anerkannte Musterlösungen von
Problemen, die vorgeben, welche Art von Problemen wie zu lösen sind. Das prominenteste Beispiel in Hinblick auf FOL ist Churchs / Turings Lösung des von Hilbert
gestellten Entscheidungsproblems. Die mathematische Logik bildet ein System, innerhalb dessen durch wohldefinierte Beweisverfahren metamathematische Theoreme
bewiesen werden.
Motivation. Auf Grund des Status, den die mathematische Logik genießt, ist es für
die meisten prima facie nicht einsehbar, dass man eine dezidierte Alternative ausarbeiten will. Am Beginn einer Diskussion, in der noch gar kein Verständnis für eine Alternative vorausgesetzt werden kann, kann ich nicht viel mehr tun, als einige Hinweise
anzugeben, die mein Unterfangen motivieren. Ein volles Verständnis wird man nur gewinnen können, wenn man eine vollständige Alternative vor Augen hat. Nur dann wird
man auch beurteilen können, ob sich das Unterfangen lohnt bzw. gelohnt hat. Abgesehen von allen Überzeugungen, die jeder einzelne hat oder auch nicht hat, scheint mir
die Ausarbeitung einer konkreten Alternative nötig, um eine ernsthafte Diskussion und
Beurteilung allererst zu ermöglichen.
Für meine eigene Arbeit sind vor allem vier Punkte maßgeblich, die mich unabhängig und vor den Resultaten, zu denen meine Arbeit führte, antrieben:
1. Historischer Kontext der Entstehung der mathematischen Logik. In der zweiten
Hälfte des 19. Jahrhunderts wird ein vollkommen verallgemeinerter, mengentheoretischer Funktionsbegriff (“Dirichiletscher Funktionsbegriff”) im Zuge des
damaligen Bildes des Fortschritts der Mathematik im Sinne ihrer zunehmenden
4
Universalisierung allererst entwickelt. Wie sieht eine Logik aus, die an dieser
Schnittstelle einen anderen Weg einschlägt und stattdessen an den Begriff einer
Funktion im Sinne einer “Rechenvorschrift” anschließt und dies auf die Logik
überträgt? Da dieser Punkt am besten geeignet ist, sich gedanklich von Voraussetzungen zu befreien, deren man sich heutzutage oftmals gar nicht mehr bewusst
ist, werde ich hierauf in Abschnitt 2 näher eingehen.
2. Philosophische Einwände. Eine mengentheoretische Grundlegung der Logik kann
philosophische Ansprüche an eine Explikation logischer Grundbegriffe, z.B. den
der logischen Wahrheit, nicht einlösen (zum Begriff der Explikation s.u., S.
10). “Allgemeingültigkeit” (Wahrheit in allen Modellen) kann logische Wahrheit nicht explizieren, sondern bestenfalls ein Modell logischer Wahrheit bilden.
Logische Wahrheit wird durch den Begriff der Allgemeingültigkeit auf Wahrheit von Allaussagen zurückgeführt; Allaussagen müssen aber nicht logisch wahr
sein. Allgemeingültigkeit ist folglich keine Eigenschaft, die logisch wahre Formeln auszeichnet. Dies ist ein mittlerweile bekannter Kritikpunkt, der auch von
Verteidigern der Modelltheorie akzeptiert wird, vgl. z.B. Shapiro(1998). Mengentheorie birgt darüber hinaus zahlreiche eigene philosophische Probleme, z.B.
die Annahme des extensional Unendlichen sowie die mengentheoretischen Paradoxien und den Umgang mit diesen. Es ist prima facie alles andere als klar,
warum eine solche Lehre die Grundlage der Logik bilden soll. Man hat z.B. die
Intuition, dass die logische Wahrheit logischer Formeln nicht davon abhängen
sollte, dass es unendlich viele Gegenstände gibt. Ohne diese Annahme kommt
man aber in der Modelltheorie von FOL nicht aus. Modelltheorie ist die unhinterfragte Voraussetzung metamathematischer Beweismethoden und wird in der
mathematischen Logik als Maßstab verwendet, um Korrektheit und Vollständigkeit von Kalkülen zu bemessen. Es ist an der Zeit, einen Maßstab zu entwickeln,
an dem die Korrektheit der Modelltheorie gemessen werden kann. Bestärkt in
diesem Vorhaben hat mich John Etchemendys Buch “The Concept of Logical
Consequence” (Etchemendy(1999)).
3. Logische Bedürfnisse. Während in der Aussagenlogik mit Wahrheitswerttabellen und disjunktiven Normalformen und in der monadischen Quantorenlogik mit
Venn-Diagrammen Mittel zur Verfügung stehen, logische Formeln auf algorithmischem Wege verständlich zu machen und in einem gewissen Sinne “zu explizieren”, gibt es in der mehrstelligen Quantorenlogik hierfür kein Pendant. Es ist
ein bekanntes Problem, dass Paraphrase von Formeln der mehrstelligen Quantorenlogik im Allgemeinen zu keinerlei Einsicht führt und es irgendeines Mittels
bedarf, um mehr anzugeben als intuitiv gewonnene einzelne wahre oder falsche
Modelle. Innerhalb der mathematischen Logik wird derartigen Problemen kaum
Beachtung geschenkt, da das Gewicht auf Metatheoremen liegt, die im Rahmen
der mehrstelligen Quantorenlogik dem Unterfangen einer “Explikation” von Formeln auf algorithmischem Weg ohnehin prinzipielle Grenzen aufzuzeigen scheinen. Erschwerend kommt hinzu, dass man sich seit Russells und Whiteheads
Principia Mathematica in der Quantorenlogik an pränexen Normalformen orientiert (während in der Aussagenlogik disjunktive Normalformen (DNF) Standard
5
sind). Demgegenüber verlangt New Logic ein Verfahren zur Bildung disjunktiver Normalformen in FOL, das verwendet werden kann, um auf rein algorithmischem Weg auch Formeln der mehrstelligen Quantorenlogik im Sinne von formalen Darstellungen der Möglichkeiten der Wahrheit und Falschheit von Sätzen
zu explizieren.
4. Wittgensteins Kritik der mathematischen Logik. Wittgenstein ist ein scharfer
Kritiker der mathematischen Logik. Die Schärfe seiner Kritik stand einer ernsthaften Diskussion im Wege, da sie anerkannte Theoreme der mathematischen
Logik in Frage stellt, was nach dem Verständnis der meisten Mathematiker und
Philosophen einem Philosophen nicht zusteht. Jede tiefer gehende Auseinandersetzung mit Wittgensteins Philosophie der Logik und Mathematik steht vor diesem Problem. Es scheint prima facie ausgemacht, dass Wittgenstein sich “geirrt”
hat1 (z.B. die neuesten Bücher von Landini(2008), S. 112-118 und Potter(2009),
S. 181-183 zu Churchs Theorem). Die Kritik setzt aber hierbei die “Erkenntnisse” seitens der mathematischen Logik unhinterfragt voraus. Ich wollte die Motive und den sachlichen Gehalt von Wittgensteins Kritik in ihrem historischen
Kontext verstehen und eine Grundlage für eine ernsthafte Auseinandersetzung
mit Wittgensteins Kritik schaffen. Auch wenn ich glaube, dass Wittgenstein seine Gedanken aus einer größeren Distanz klarer und weniger idiosynktratisch
hätte formulieren können (oder sollen), ist die Auseinandersetzung mit seinen
Schriften für mich eine wesentliche Quelle der Inspiration des ganzen Projektes. Allerdings hat sich naturgemäß meine Arbeit zunehmend verselbständigt.
Schließlich habe ich meine Aufgabe darin gesehen, das systematisch auszuarbeiten, was Wittgenstein nur programmatisch angedeutet hat.
2
Historische Rekonstruktion
Es sei hier kurz auf einige wesentliche Schritte in der Entwicklung der mathematischen
Logik aufmerksam gemacht, um vor Augen zu führen, wovon dieser Ansatz abhängt.
Mathematical Analysis of Logic. Vor 1847 hatten Mathematik und Logik nicht viel
miteinander zu tun. Man rechnete in der Mathematik mit Formeln, während Logik
nicht formal betrieben wurde, da gar keine explizite Formelsprache vorlag. Dies änderte sich damit, dass Mathematiker – allen voran Boolos, Schröder, Jevon, DeMorgan,
Peirce u.a. – für die Logik eine Sprache nach dem Vorbild der Algebra einführten. Man
nennt diesen Abschnitt in der Entwicklung der Logik den der “mathematical analysis
of logic”, vgl. Kvasz(2008). Man kann dies als den 1. Schritt in der Entwicklung der
modernen Logik auffassen. Mit diesem Schritt ist nur eine Syntax, aber keine Semantik
1 Mühlhölzer(2010), S. 9f. bemerkt richtig, dass Wittgensteins Philosophie der Mathematik wegen seiner
Kritik an der modernen Mengenlehre einen schlechten Ruf genießt und fährt fort: “Es gehört deswegen fast
zum guten Ton, in Abhandlungen über diese Philosophie, auch wenn man ihr wohlgesinnt ist, entsprechende
abwertende Äußerungen der Kritiker zu zitieren” (S. 10). Mühlhölzer, der um eine konstruktiv-kritische
Interpretation von Wittgensteins Philosophie der Mathematik bemüht ist, will sich hieran nicht beteiligen.
Er hält Wittgensteins “vehemente Kritik” aber ebenfalls für “überzogen” und führt sie auf “einen Mangel an
mathematischem Wissen” (S. 9) zurück.
6
festgelegt. Es ist noch offen, wie die neue Syntax zu verstehen ist. Prinzipiell gibt es
zwei grundlegend unterschiedliche Möglichkeiten:
1. Man versteht aus dem Blickwinkel der Logik die mathematischen Formelsprachen neu: Ein allgemeiner, mengentheoretischer Funktionsbegriff bildet die Grundlage dafür, logische Formeln als Wahrheitsfunktionen zu interpretieren. Numerische Funktionen der Mathematik bilden nur einen Spezialfall von Funktionen und Gleichungen der Mathematik einen Spezialfall von Wahrheitsfunktionen. Logik wird zur Grundlagensprache der Mathematik und darüber hinaus zur
“Universalsprache” der Wissenschaft. Universale Repräsentierbarkeit von Aussagen in der neuen logischen Formelsprache ist der Lohn (oder Fluch – je nach
Sichtweise) dieses Ansatzes.
2. Man versteht die logische Sprache in Analogie zur mathematischen Formelsprachen: Während man mit arithmetischen Termen rechnet, um etwa Gleichungen
zu lösen, rechnet man mit logischen Formeln, um ihre logischen Eigenschaften zu bestimmen. In mathematischen Termen werden Operationen an Zahlen
vorgenommen, in logischen Termen werden Operationen an Satzformen vorgenommen. Die logische Formelsprache und die mathematischen Formelsprachen
bilden nach dieser Auffassung autonome Kalküle. Die Sprache der Logik dient
nicht als Grundlagensprache der Mathematik. Es wird kein umfassender Funktionsbegriff eingeführt, der u.a. numerische Funktionen und Wahrheitsfunktionen
unter einen Hut bringen soll. Die Sprache der Logik wird nicht an ihrer Ausdruckskraft gemessen, sondern daran, logische Eigenschaften von Satzformen
algorithmisch zu identifizieren.
Dirichiletscher Funktionsbegriff und Wortsprache. Die mathematische Logik und
mit ihr die moderne “Grundlegung” der Mathematik schlug Weg 1 ein (während New
Logic Weg 2 nimmt). An der Schnittstelle der beiden Wege liegt der neue, mengentheoretische Funktionsbegriff, der explizit von Dirichilet 1859 formuliert wurde. Der
entscheidende Punkt ist, dass nicht mehr Symbole (formale Ausdrücke) gemäß Rechenvorschriften Symbolen (formalen Ausdrücken) zugeordnet werden. Stattdessen
wird die Zuordnung extensional als Zuordnung von Objekten einer Menge zu Objekten einer anderen Menge aufgefasst. Man ist bereit, den Bereich des Berechenbaren zu
Gunsten der Ausdruckskraft zu verlassen. Es ist nun möglich, zahlentheoretische Funktionen, die nicht in Form von Rechenvorschriften definiert werden können, mittels der
Wortsprache (Umgangssprache) zu definieren. Z.B.: f (n) = 1 gdw. n rational ist und
f (n) = 0 gdw. n irrational ist (Dirichilet-Funktion im engeren Sinn). Ebenso lassen
sich Definitionen angeben, von denen man nicht entscheiden kann, ob sie Zahlen de∞
P
1
, wobei f (n) = 1 gdw. Goldbachs Vermutung
finieren oder nicht, z.B. D =
2f (n)
n=1
wahr ist und 0 sonst. Man kann z.B. nicht entscheiden, ob 1 + (D − D) = 1 ist.
Logical Analysis of Mathematics. Frege und Russell machten sich den mengentheoretischen Funktionsbegriff zu Nutze, um die Logik auf den Begriff der Wahrheitsfunktion (propositional function) zu gründen, in dem die zugeordneten Werte “Wahr7
heitswerte” sind. Dies ist die Grundlage aller Semantik in der Logik. Zugleich bildet
dies den Ausgangspunkt, um Gleichungen und darüber hinaus beliebige mathematische
Sätze (Theoreme wie “Vermutungen”) in der Sprache der Logik zu “repräsentieren”.
Z.B. kann Goldbachs Vermutung nun im Rahmen der Peano Arithmetik wie folgt repräsentiert werden:
x ist eine gerade Zahl (ϕx): ∃v 2 · v = x,
x ist eine Primzahl (ψx): x 6= 1 ∧ ∀u∀v(u · v = x → (u = 1 ∨ v = 1))
Goldbachs Vermutung (GV): ∀x(ϕx → ∃y∃z(ψy ∧ ψz ∧ y + z = x))
Gödels Unvollständigkeitsbeweis beruht auf einer Abfolge von 46 derartigen Definitionen, durch die schließlich “x ist beweisbar” durch eine Formel in Peanos Arithmetik
repräsentiert wird.
Repräsentation. Dass eine Formel einen Satz repräsentiert, heißt, dass die Formel
gemäß ihrer Interpretation wahr ist gdw. der Satz wahr ist. Die Interpretation einer
Formel beruht auf der Interpretation der in ihr enthaltenen Ausdrücke. Hierbei wird
die Interpretation selbst wieder als eine Funktion verstanden, die Extensionen Zeichen
zuordnet (z.B. Wahrheitswerte Satzbuchstaben, Mengen von n-Tupeln Prädikatbuchstaben). Vollständig ausgearbeitet wird diese Semantik erst in der Modelltheorie, die
vornehmlich auf Tarski zurückgeht. Der entscheidende Punkt in unserem Zusammenhang ist, dass Formeln selbst keine eigene Ausdruckskraft besitzen; eine logische Formel wird z.B. nicht als Ausdruck einer aus ihr allererst zu berechnenden logischen
Form verstanden. Vielmehr erhalten die “toten” Formeln erst durch ihre Interpretation
und damit durch die Bezugnahme auf Extensionen Bedeutung, wobei alle Bedeutung
letztlich dazu beiträgt, den Wahrheitswert von Sätzen, repräsentiert durch logische Formeln samt ihrer Interpretation, zu bestimmen. Um in intendierten Interpretationen auf
bestimmte Extensionen Bezug nehmen zu können, muss letztlich auf die Umgangssprache Bezug genommen werden. Diese dient im Rahmen der extensionalen Semantik allein dazu, auf Extensionen Bezug zu nehmen. Es wird vorausgesetzt, dass Aussagesätze auf Wahrheitswerte, n-stellige Prädikate auf Mengen von n-Tupeln, Namen
auf Gegenstände referieren. Es wird dabei des Weiteren vorausgesetzt, dass auf diese
referierende Funktion Bezug genommen werden kann und zugleich von allen anderen Aspekten umgangssprachlicher Ausdrücke abgesehen werden kann. Es wird damit
auch vorausgesetzt, dass von einer weitergehenden Analyse der Form oder des Gebrauchs der Ausdrücke abgesehen werden kann, um von einer referierenden Funktion
in einer extensionalen Semantik Gebrauch zu machen.
Entwicklung der mathematischen Logik. Die Entwicklung der mathematischen
Logik bis zu Churchs Theorem (Unentscheidbarkeit von FOL) lässt sich verstehen als
eine konsequente Ausformulierung des mengentheoretischen Ansatzes. Es wird das
neue Konzept der Repräsentation von Funktionen mittels Interpretation logischer Formeln immer weiter entwickelt und ausgereizt. Dies kulminiert in den metamathematischen Beweisen, in denen die Eigenschaften der Beweisbarkeit und Entscheidbarkeit
8
als numerische Funktionen innerhalb eines logischen Formalismus, der zahlentheoretische Funktionen umfasst, repräsentiert werden. Dies kann an dieser Stelle nicht mehr
ausgeführt werden. Stattdessen seien an dieser Stelle nur grob 10 maßgebliche Schritte
genannt, die sich alle als eine systematische Konsequenz von Schritt 2 – der Einführung
des Dirichiletschen Funktionsbegriffes – auffassen lassen. Die Hinweise auf Jahresdaten und Autoren sollen nur einer groben Orientierung dienen.
Schritt 1: Mathematical Analysis of Logic (Boolos 1847).
Schritt 2: Dirichiletscher Funktionsbegriff (Dirichilet 1859).
Schritt 3: Logical Analysis of Mathematics (Frege 1884, 1891).
Schritt 4: Logische Systeme (Frege, Russell, Zermelo / Fraenkel, Peano)
Schritt 4.1: Quantorenlogik (Frege: GA 1893, Russell / Whitehead: PM 1910)
Schritt 4.2: Axiomatische Mengenlehre (Zermelo / Fraenkel: 1908, 1922)
Schritt 4.3: Peano Arithmetik (Peano: 1908)
Schritt 5: Axiomatische Methode: Hilberts Formalismus (1902)
Schritt 6: Modelltheorie (Hilbert 1900-1930, u. Ackermann 1928, Tarski 1933)
Schritt 7: Logische Analyse von Paradoxien (Ramsey 1925, Tarski 1933)
Schritt 8: Beweistheorie: Hilbertprogramm (Hilbert 1918-22)
Schritt 9: Metamathematik: Methoden und Theoreme (Gödel 1931)
Schritt 10: “Churchs Theorem”: Unentscheidbarkeit von FOL (Church 1936, Turing
1936)
Bezug zu New Logic und Wissenschaftsphilosophie. Das Konzept der New Logic
setzt bei Schritt 2 an: Hier ist der Scheideweg und es soll eine Alternative entwickelt
werden, die dezidiert nicht auf Schritt 2 und allen Folgeschritten aufbaut.2 In Hinblick
auf Abschnitt 4 sei an dieser Stelle betont, dass Churchs Theorem ein “Theorem” – ein
beweisbarer Satz – im System der mathematischen Logik ist. Das Theorem ist Folge
einer mengentheoretischen Grundlegung der Logik und Mathematik, die mit Schritt 2
ansetzt. In gewisser Hinsicht kulminiert die Entwicklung der mathematischen Logik in
Churchs Theorem. Es markiert die Grenze der Berechenbarkeit innerhalb des Systems
der mathematischen Logik: dyadic pure first-order logic.
Man muss sich aber im Klaren darüber sein, dass das Programm einer dezidierten Alternative zur mathematischen Logik, die ab Schritt 2 nicht mitgeht, an derartige
Theoreme prima facie nicht gebunden ist. Dies bedeutet nicht, dass durch das bloße Vorhaben eines Alternativprogrammes irgendetwas gegen Churchs Theorem eingewendet worden sei. Jede etwaige Kritik hängt von der konkreten Ausarbeitung einer
2 Es lassen sich übrigens aus Wittgensteins Nachlassschriften zu jedem der Schritte 2-10 Zitate angeben,
die eben diese Schritte ablehnen. Dies wird verständlich, sobald man seine Kritik als Ausdruck der Ablehnung des Dirichiletschen Funktionsbegriffes in der Logik und Mathematik versteht.
9
Alternative ab. Unabhängig hiervon ist Churchs Theorem ein beweisbarer Satz innerhalb des Systems der mathematischen Logik. Andererseits ist auch festzuhalten, dass
es müßig ist, unter Voraussetzung der “Errungenschaften” der mathematischen Logik
gegen das Vorhaben eines Gegenkonzeptes zu argumentieren. Es ist vollkommen verständlich und respektabel, dass Wissenschaftler, die unter einem bestimmten Paradigma arbeiten, kein Interesse und keine Bereitschaft haben, die Grundlage ihrer Arbeit
in Frage zu stellen. M.E. bietet dies eine Chance für Wissenschaftsphilosophen: Sie
unterliegen nicht den Zwängen, denen ein Wissenschaftler unterliegt und sollten diese
Freiheit dazu nutzen, Schnittstellen in der wissenschaftlichen Entwicklung aufzutun,
diese Schnittstellen einer philosophischen Analyse unterziehen und dort, wo es sich
lohnt, konkrete Alternativkonzepte ausarbeiten. Diese Art von Wissenschaftsphilosophie dient dem Ziel, vor Augen zu führen, dass vieles in den Wissenschaften auch
anders und dabei nicht weniger erfolgsversprechend hätte verlaufen können als man
gemeinhin denkt.
3
Philosophische Analyse
Ziel der philosophischen Analyse. Ziel einer philosophischen Analyse in dem hier
zu Grunde gelegten Sinn ist es in erster Linie, Voraussetzungen unterschiedlicher Konzeptionen explizit zu machen und die Konsequenzen aufzuzeigen. Es geht nicht darum,
“wer Recht hat”, sondern darum, wer warum welchen Weg geht bzw. nicht mitgeht.
Wenn man so will, ist es eher Ziel, die Unterbestimmtheit von Positionen vor Augen
zu führen, als Urteile zu fällen. Damit soll nicht ausgeschlossen werden, dass sich nicht
begründete Urteile fällen lassen, nur gehören diese dann nicht mehr zum Geschäft der
philosophischen Analyse. Im Folgenden werden die Konzeptionen der mathematischen
Logik und der New Logic mit einander verglichen. Ich beschränke mich darauf, an ein
paar Punkten exemplarisch und skizzenhaft vor Augen zu führen, warum man aus dem
Blickwinkel des Ansatzes der New Logic nicht geneigt ist, wesentliche Schritte innerhalb der mathematischen Logik mit zu gehen.
Explikation vs. Interpretation, Teil 1. Es wurde in Abschnitt 1, S. 5 bereits darauf
hingewiesen, dass der modelltheoretische Begriff der Allgemeingültigkeit den Begriff
der logischen Wahrheit nicht expliziert. Im Folgenden soll grundlegender darauf hingewiesen werden, dass es im Wesen des mengentheoretischen Ansatzes liegt, keine
Explikationen geben zu können. Freilich kann man von vorne herein den Anspruch ablehnen, Explikationen logischer (oder mathematischer) Begriffe zu geben. Eine wohl
verstandene Modelltheorie erhebt in der Tat nur den Anspruch, extensional adäquate
Definitionen anzugeben. Aber um diesen Anspruch bemessen zu können, muss expliziert werden können, nach welchen Kriterien die fraglichen “Extensionen” zu identifizieren sind. New Logic will diese Frage im Rahmen der Logik durch Bereitstellung
syntaktischer Identifikationskriterien beantworten. Aber auch unabhängig von dieser
Argumentation kann man Explikationskraft als einen Massstab ansehen, den zu erfüllen jedenfalls besser ist als ihn nicht zu erfüllen.
Unter einer Explikation verstehe ich die Ersetzung eines Ausdruckes durch einen
anderen, der auf Grund seiner syntaktischen Struktur eine höhere Explikationskraft be10
sitzt. Es geht bei der Explikation im Wesentlichen darum, etwas noch einmal anders
auszudrücken, wobei der andere Ausdruck etwas zu klären vermag. Er ist unmissverständlicher als der Ausdruck, der expliziert wird, da er syntaktische Identifikationskriterien bereitstellt. Der Prozess der Explikation kann als eine “begriffliche Analyse” verstanden werden, der durch Definitionen – dem Ersetzen von Ausdrücken durch
Ausdrücke – geleitet ist und in Ausdrücken resultiert, die in einem gewissen Sinne unmissverständlich sind. Inwieweit zwischen Explanandum und Explanans “Äquivalenz”
bestehen muss, braucht hier nicht im Allgemeinen erörtert zu werden. Denn für die
Zielsetzung der New Logic kann der Begriff der logischen Äquivalenz im Sinne der gegenseitigen Ableitbarkeit im Rahmen bekannter FOL-Kalküle vorausgesetzt werden.
Dies ist ein systemabhängiger Äquivalenzbegriff, der einen gewissen Anhaltspunkt in
der Praxis des Schlussfolgerns auf Basis einer standardisierten Verwendung der logischen Partikel “alle”, “ein”, “nicht”, “und”, “oder”, “wenn ... dann” (und etwaiger anderer Partikel) hat. Diese Praxis und die damit verbundenen Äquivalenzurteile (nachweisbar in Logikkalkülen) werden vorausgesetzt; jede Explikation auf dem Gebiete
von FOL soll mit diesen Urteilen übereinstimmen. Innerhalb dieser Voraussetzungen
stellt sich allererst das Problem der Explikation von FOL-Ausdrücken: Wie können
die Äquivalenzen unterschiedlicher logischer Formeln auf eine gemeinsame logische
Form zurückgeführt werden? An Stelle einer semantischen Reduktion gegenseitiger
Ableitbarkeit auf Allgemeingültigkeit soll eine syntaktische Reduktion auf logische
Formen gegeben werden. Dies sei im folgenden Abschnitt etwas näher erläutert, indem
exemplarisch gezeigt wird, was “Explikation” gemäß New Logic im Rahmen von FOL
bedeutet. Nach dem Exkurs wird dann erklärt, warum ein mengentheoretischer Ansatz
grundsätzlich keine Explikationen liefern kann.
Exkurs: Explikation in der Logik
Ein Beweis im Rahmen der New Logic ist eine Form von Explikation, nämlich ein algorithmischer Prozess der Analyse von logischen Formeln im Sinne eines logischen
Äquivalenztransformationsverfahrens, dessen Ziel Ausdrücke sind, die syntaktische
Identifikationskriterien für die logischen Eigenschaften der Formeln bereitstellen. Eine
gewisse Vorstellung eines derartigen Verfahrens liefern Wahrheitswerttabellen, wenn
man sie nicht semantisch interpretiert, sondern als Umformungen logischer Formeln
zum Zwecke der Darstellung von Möglichkeiten der Wahrheit und Falschheit versteht,
die ein Satz auf Grund seiner Struktur besitzt. Dass kein “F” unter dem Hauptjunktor
steht, kann dann in dieser Deutung als ein syntaktisches Merkmal verstanden werden,
das aussagenlogische Wahrheit identifiziert. Die Darstellung von Wahrheitswerttabellen ist eine isomorphe Darstellung von kanonischen disjunktiven Normalformen, die
innerhalb eines aussagenlogischen Kalküls nach einem vorgegebenen Äquivalenztransformationsverfahren aus einer input-Formel und ihrer Negation algorithmisch erzeugt
werden kann. Insofern können Wahrheitwerttabellen auf Äquivalenzumformungen innerhalb der Aussagenlogik zurückgeführt werden.
Wittgenstein, der fälschlicherweise als einer der Erfinder der Wahrheitswerttabellen
gilt, hat das Verständnis von Beweisen im Sinne einer Explikation im Rahmen der Logik mit seiner “ab-Notation” realisieren wollen, die anders als Wahrheitswerttabellen
auch auf FOL Anwendung findet. Dies kann an dieser Stelle nur ganz kurz angedeutet
11
werden, wobei es mir im Wesentlichen darauf ankommt, eine Methode bzw. Denkart
zu demonstrieren, wie im Rahmen der New Logic logische Probleme – seien sie auch
so trivial wie das folgende Beispiel – behandelt werden.
Nehmen wir die beiden logisch äquivalenten FOL-Formeln ∀xF x und ¬∃x¬F x.
Im Rahmen der mathematischen Logik hat es keinen klaren Sinn zu fragen, welche
logische Form sie darstellen. Inbesondere macht es keinen Sinn zu fragen, welche
“Möglichkeiten der Wahrheit oder Falschheit” sie darstellen – der Begriff der “Möglichkeit” wird im Rahmen eines extensionalen Ansatzes tunlichst vermieden und allenfalls Philosophen überlassen. Man wird vielmehr die beiden Formeln im Rahmen
eines korrekten und vollständigen FOL-Kalküls auseinander ableiten und semantisch
begründen, dass der Kalkül korrekt und vollständig ist. In Principia Mathematica wird
etwa die Äquivalenz der beiden genannten Formeln axiomatisch eingeführt (vgl. PM
*9.01). Auf Grund der Priorität der Semantik im Rahmen der mathematischen Logik wird die Äquivalenz der Formeln schließlich darauf zurückgeführt, dass es keine
Interpretation gibt, die Modell der einen, aber nicht Modell der anderen Formel ist:
Jeder Satz, der die eine Formal wahr macht, macht auch die andere wahr und umgekehrt. Von Wahrheitsmöglichkeiten (z.B. “logischer Wahrheit” im Sinne “notwendiger
Wahrheit” o. dgl.) und logischer Form wird hier nicht geredet. Einzelne Sätze können bestenfalls in einem abgeleiteten Sinne als “logisch wahr” bezeichnet werden: sie
gehören zu einer Klasse von Sätzen, die auf Grund der Bedeutung der in ihnen enthaltenen logischen Konstanten alle in einem primitiven Sinne wahr sind. Es ist nicht
eine etwaige logische Form, die logische Wahrheit einzelner Sätze definiert. Allenfalls
würde man sagen, dass Formeln selbst logische Formen sind, die interpretiert werden.
In diesem Fall hätten die beiden genannten Formeln unterschiedliche logische Formen.
Der entscheidende Punkt ist, dass die Äquivalenz der beiden Formeln letztlich auf die
Allgemeingültigkeit (“Wahrheit in allen Interpretationen”) von ∀xF x ↔ ¬∃x¬F x
zurückgeführt wird: eine rein syntaktische Rechtfertigung gibt es dafür nicht, da die
gegenseitige Ableitbarkeit semantisch begründet wird.
Eine Skizze des Umgangs mit den beiden Formeln im Rahmen der New Logic sieht
demgegenüber wie folgt aus. Wie in unserer Umgangssprache haben wir es mit zwei
Ausdrücken zu tun, die auf Grund unseres Gebrauchs der Ausdrücke “alle”, “ein” und
“nicht” in vielen Kontexten und in allen, die für FOL relevant sind, austauschbar sind.
In der Umgangssprache und in FOL sind es Schlussregeln, die unseren Ausdrücken die
Eigenschaft der Äquivalenz verleihen. Diese Äquivalenz liegt nicht darin begründet,
dass die beiden Formeln relativ zu allen Interpretation denselben Wahrheitswert haben.
Vielmehr liegt ihre Äquivalenz in der identischen logischen Form der beiden Formeln
begründet. Die in Frage stehende logische Äquivalenz ist eine formale Eigenschaft, die
ganz unabhängig von jedweder Interpretation besteht und durch eine entsprechende
Explikation sinnlich wahrnehmbar zum Ausdruck kommt. Eines Rekurses auf Wahrheitswerte relativ zu Interpretationen bedarf es nicht; es bedarf nur der adäquaten Analyse der logischen Form der beiden Formeln. Diese Analyse macht deutlich, dass es
– gegeben den Gebrauch von “alle”, “ein” und “nicht”, wie er dem Schlussfolgern im
Rahmen von FOL zu Grunde liegt – gar nicht möglich ist, die beiden Formeln so zu
deuten, dass durch die Formeln unterschiedliche Wahrheitsmöglichkeiten ausgedrückt
werden.
Dies gilt es aber nun allererst zu zeigen, denn die logische Form kommt in den
12
FOL-Ausdrücken ebenso wie in der Umgangssprache noch gar nicht eindeutig zum
Ausdruck. Die Identifikation der logischen Form liefert erst der logische Beweis. Dieser besteht im Rahmen der New Logic in einem Konstruktionsprozess in Form der
Übersetzung logischer Formeln in ein ab-Symbol, das logische Formen eindeutig repräsentiert. Hierfür ist ausgehend von logischen Formeln von innen nach aussen wie
folgt vorzugehen: In einem ersten Schritt ist das Prädikat F x zu ersetzen durch einen
Ausdruck, der explizit macht, dass es sich um eine bipolare Struktur handelt. Bipolarität ist das syntaktische Merkmal, das im Rahmen von FOL die Ausdrücke identifiziert, die nicht logisch wahr oder logisch falsch sind. Da logische Wahrheit / Falschheit
im Rahmen von FOL allein von den Junktoren und Quantoren abhängt, sind atomare
Aussagefunktionen im Rahmen von FOL bipolar. “Bipolarität” ist selbst eine formale Eigenschaft, die in einer unmissverständlichen logischen Notation durch syntaktische Merkmale ausgedrückt werden muss. Sie besagt – salopp gesprochen – soviel wie
“die Wahrheit und Falschheit von Ausdrücken dieser Form kann nicht innerhalb des
Systems von FOL entschieden werden”. Die Missverständlichkeit der gewöhnlichen
FOL-Notation wird nirgendwo augenfälliger als in der Tatsache, dass Satzbuchstaben,
P , Q, . . ., in der gewöhnlichen Notation dieselbe äußere Form wie Namenbuchstaben
haben. Dies verleitet aus der Sichtweise der New Logic zum Missverständnis, Sätze
als Namen von Wahrheitswerten misszuverstehen bzw. Satzbuchstaben Wahrheitswerte unterschiedlicher Sätze zuzuordnen. Demgegenüber beschränkt sich New Logic darauf, von bipolaren atomaren Strukturen auszugehen, die in der Anwendung der Logik
als Ausdrücke behandelt werden können, die wahr oder falsch sein können. Um überhaupt einen Ausdruck so verwenden zu können, dass er wahr oder falsch sein kann,
muss dieser selbst eine bipolare syntaktische Struktur haben, auf die in der Anwendung Bezug genommen werden kann, um Möglichkeiten der Wahrheit von denen der
Falschheit unterscheiden zu können.
Um kenntlich zu machen, dass es sich bei der Bipolarität um eine strukturelle Eigenschaft handelt, die keine vorschnelle Interpretation3 erfahren soll und um insbesondere die Pole nicht wiederum als Namen für Wahrheitswerte misszuverstehen, verwendet Wittgenstein die Zeichen “a” und “b” als Kennzeichen von Polen. Folglich ist an
die Stelle von F x der Ausdruck a − F x − b zu verwenden, um zu explizieren, dass in
FOL von bipolaren atomaren Strukturen ausgegangen wird.
Die logischen Junktoren werden in diesem Ansatz als “Anweisungen zur Konstruktion einer logischen Form” rein syntaktisch verstanden: sie sind ab-Operationen.
An Stelle von ¬F x wird b − a − F x − b − a geschrieben. Quantoren werden in
der ab-Notation nicht aufgelöst; sie sind wesentliche, strukturelle Merkmale quantorenlogischer Formen (ähnlich wie ¬, ∧ und ∨ selbst Teil von DNFs sind). Es wird
damit insbesondere keinerlei Annahme darüber gemacht, welche oder auch nur wie
viele Gegenstände es gibt oder geben könnte. Der Bezug auf Mengen und eine etwaige Interpretation von Formeln als Aussagen über Mengen gehört zur Anwendung der
Logik und setzt allererst die Bestimmung einer logischen Form voraus. Nur Letzteres
gehört in die Logik. Um der internen Beziehung der Quantoren syntaktisch Ausdruck
zu verleihen, wird im Rahmen des Konstruktionsprozesses eines idealen Symbols ∃
3 Vorschnell ist eine Interpretation, wenn sie sich nicht auf das ab-Symbol – das Resultat eines logischen
Beweises gemäß New Logic – bezieht, sondern bereits Ausdrücke zu Beginn (logische Formeln) oder innerhalb des Konstruktionsprozesses des ab-Symbols (ab-Zeichen) interpretiert.
13
dem b-Pol zugeordnet, wenn ∀ dem a-Pol zugeordnet wird u.u., wobei der Quantor,
der in der Ausgangsformel enthalten ist, dem a-Pol zugeordnet und mit einem äußeren
a-Pol versehen wird, der selbst wieder Ausgangspunkt weiterer ab-Operationen sein
kann (der andere Quantor wird entsprechend mit einem äußeren b-Pol versehen und
dem b-Pol zugeordnet). Dies bildet ab, dass einen allquantifizierten Satz zu negieren,
bedeutet, einen existenzquantifierten zu behaupten u.u. Mit dem Merkmal der Bipolarität wird dieser internen Beziehung der Quantoren zwangsläufig ein syntaktischer
Ausdruck verliehen. Dies ist auch insofern nicht willkürlich als die ganze Prozedur der
Übersetzung in “ideale logische Symbole” letztlich dadurch geleitet ist, dem vorausgesetzten Verständnis der logischen Äquivalenz einen formalen Ausdruck zu verleihen.
Diese Prozedur ist schließlich als Resultat eines allgemeinen Algorithmus für beliebige FOL-Ausdrücke zu formulieren, wobei die einzelnen Schritte auf einem Verständnis darauf beruhen, was die einzelnen Teilausdrücke zur Identifikation einer logischen
Form beitragen.
Kurzum, ∀xF x ist in a − ∀x − a − F x − b − ∃x − b zu übersetzen und ¬∃x¬F x
in a − b − ∀x − b − a − F x − b − a − ∃x − a − b. Am Ende des Konstruktionsprozesses eindeutiger Repräsentanten logischer Formen ist man damit noch nicht. Es ist nun
noch zu bestimmen, welche Merkmale der so gewonnenen ab-Zeichen in Wittgensteins
Terminologie “symbolisieren”, d.h. Merkmale sind, die die logische Form identifizieren und auf die bei einer etwaigen Interpretation Bezug zu nehmen ist. Hierbei gilt
die Regel, dass stets nur die äußersten und die innersten a- bzw. b−Pole die logische
Form festlegen (= Transitivitätsregel, von Wittgenstein explizit angegeben). Eine weitere Regel ist, dass nicht die Zeichengestalt von Variablen symbolisiert, sondern nur
der Bezug eines Quantors zu den Argumentstellen, an denen die von ihm gebundene Variable vorkommt. Letzteres ergibt sich z.B. aus der Äquivalenz von ∃xF x und
∃yF y. Auf Grund der ersten Regel werden a- und b-Pole, die zwischen den äußersten
und innersten Polen vorkommen, gestrichen. Auf Grund der zweiten Regeln werden
Variablen durch Zahlen ersetzt. Man erhält als Resultat des Umformungsprozesses für
beide Ausgangsformeln:
a − ∀ 1 − a − F1 − b − ∃ 1 − b
Das ab-Symbol – das “ideale Symbol”, das das Resultat des Konstruktionsprozesses
bildet – wird in Form von Polgruppen angegeben. Polgruppen erhält man, indem alle
Pfade von äußersten zu innersten Polen einzeln aufgeführt werden. In unserem Beispiel
ist dies trivial. Man erhält als ab-Symbol:
a − {∀1 − a − F1 };
b − {∃1 − b − F1 }.
Dieser Ausdruck stellt die logische Form der beiden Ausgangsformeln dar, er ist der
Repräsentant aller mit ∀xF x äquivalenten Formeln. Die a-Polgruppen sind isomorph
zu einer DNF, die mit der Ausgangsformel logisch äquivalent ist; die b-Polgruppen sind
isomorph mit einer DNF, die mit der Negation der Ausgangsformel logisch äquivalent
ist.
Wenn irgendwo, dann kann frühestens am ab-Symbol eine “Interpretation” ansetzen. Wobei “Interpretation” im Rahmen der New Logic nichts mit einer etwaigen Zuordnung von Extensionen zu Ausdrücken zu tun hat. Vielmehr meint “Interpretation”
14
hier selbst wieder ein mechanisches Verfahren der Paraphrase von ab-Symbolen mittels
einer standardisierten Umgangssprache. Im Beispielfall erhält man folgende Interpretation:
• Eine Instanz der logischen Formeln ∀xF x bzw. ¬∃x¬F x ist wahr gdw.
– die Instanz der einstelligen Aussagefunktion F x für alle Gegenstände wahr
ist.
• Eine Instanz der logischen Formeln ∀xF x bzw. ¬∃x¬F x ist falsch gdw.
– die Instanz der einstelligen Aussagenfunktion F x für mindestens einen Gegenstand falsch ist.
Überflüssig zu erwähnen, dass hierdurch nicht beansprucht wird (und nicht beansprucht
werden kann), “alle” bzw. “ein” zu definieren oder zu explizieren.4 Die Quantoren sind
wesentlicher Bestandteil der ab-Symbole bzw. der quantorenlogischen Formen und in
diesem Sinne primitiv. Es geht einzig und allein um die Explikation einer logischen
Form, die allein durch strukturelle Merkmale – Beziehungen zwischen Symbolen –
eindeutig identifiziert werden soll. Gemäß der angegebenen “Interpretation” stellen abSymbole – d.i. die Repräsentanten der Klasse logisch äquivalenter Formeln – Möglichkeiten der Wahrheit und Falschheit von Sätzen dar, die die Ausgangsformeln instanziieren. In dieser Hinsicht gleicht dieser Ansatz dem einer Wahrheitsbedingungssemantik
(“representational view” in Etchemendys Worten), der von Etchemendy von der extensionalen Semantik der mathematischen Logik (“interpretational view” in Etchemendys
Worten) unterschieden wird. Den Unterschied dieser Ansätze kann man sich u.a. daran
vor Augen führen, dass im Rahmen der representational semantics Möglichkeiten der
Wahrheit und Falschheit derselben Instanz expliziert werden, während im Rahmen des
interpretational views von unterschiedlichen wahren und falschen Instanzen ausgegangen wird, die in verschiedenen Interpretationen repräsentiert werden.
Im Unterschied zu einer Semantik im Sinne des representational view wird eine Interpretation im Rahmen von New Logic jedoch ausschließlich auf syntaktische (strukturelle) Eigenschaften idealer Symbole (im Falle von FOL: ab-Symbole) zurückgeführt.
Die algorithmisch erzeugten ab-Symbole stellen allererst Kriterien für die Definition
eines (logischen) Raumes an Möglichkeiten bereit. Grundlage jeder Art von “Interpretation” muss nach dem Ansatz der New Logic die algorithmische Definition von
Möglichkeitsräumen sein, innerhalb derer überhaupt nur sinnvolle Aussagen getroffen
werden können. Die Definitionen von Möglichkeitsräumen beruhen auf der Analyse
(d.i. der syntaktischen Explikation) der jeweiligen Konstanten des Ausgangsformalismus. Im Falle von FOL sind es die Junktoren und Quantoren, die einen logischen Raum
definieren. Der logische Raum schränkt die Ausdruckskraft bereits in hohem Maße
ein. Keineswegs können alle die Aussagen, die gemäß der Grammatik der deutschen
4 Ein etwaige Definition gelingt auch in der Modelltheorie nicht, da die hier angegebenen modelltheoretischen Definitionen quantifizierter Ausdrücke “ein” bzw. “alle” enthalten. Analoges gilt für die Junktoren
in der Modelltheorie. In New Logic werden zwar Junktoren über ab-Operationen definiert, aber dies betrifft
nur den Konstruktionsprozess eines ab-Symbols. Bei der Paraphrase von ab-Symbolen können “und” und
“oder” verwendet werden. Auch hier wird kein Anspruch auf eine Definition erhoben. Die Paraphrase in
Form von Disjunktionen von Konjunktionen ist primitiv, wenn alle strukturellen Merkmale “symbolisieren”.
15
Sprache “wahr” oder “falsch” genannt werden können, in diesem Raum angemessen
abgebildet werden, denn der logische Raum setzt die Bipolarität der atomaren Aussagenfunktionen sowie deren logische Unabhängigkeit voraus. Hiermit scheidet z.B. die
“Identitätsfunktion” als Instanz von F xy aus, insofern man davon ausgeht, dass “a =
a” ein Theorem bzw. die Form von Sätzen ist, die “bedingungslos wahr” wahr sind.
Eine Rekonstruktion mathematischer Gleichungen mit den Mitteln von FOL scheidet
schon aus diesem Grunde aus. Will man den mannigfachen Schlussbeziehungen, die
zwischen Sätzen bestehen, gerecht werden, bedarf es mehr als der Analyse der so genannten “logischen Konstanten”. Es bedarf der syntaktischen Analyse etwa der mathematischen Symbole oder des Identitätszeichen und vielem anderen mehr. Die Analyse
von FOL gemäß New Logic führt vor Augen, dass eine wohlverstandene Logik nur
als ein Vergleichsobjekt für die Analyse umgangssprachlicher Sätze verwendet werden
kann, da nur gewisse Teilaspekte – nämlich die Logik logischer Konstanten – berücksichtigt werden.
“Explikation der Form der Sätze” in diesem Sinne ist ein umfassendes philosophischen Unternehmen, dem mit den begrenzten Mitteln von FOL nicht beizukommen
ist. Der Beitrag, den eine Analyse von FOL zur Definition von Möglichkeitsräumen
liefern kann, ist nur ein bescheidener. Die Sprache der Logik ist alles andere als eine
Universalsprache. “Logische Analyse” im traditionellen Sinne der Repräsentation umgangssprachlicher Sätze in der Sprache der Logik und damit ohne vorherige Klärung
der logischen Form befreit den Verstand nicht von den Verhexungen durch die Mittel der Sprache, sondern ist ihnen erlegen. Zur Analyse umgangsprachlicher Sätze im
Sinne der Explikation ihrer Form, die ihr den adäquaten Platz innerhalb eines syntaktisch definierten Raumes an Möglichkeiten zuweist, gehört im Allgemeinen sehr viel
mehr als logische Analyse. Eine adäquate Sprachanalyse sollte den mannigfachen Einschränkungen dessen, was wir auf Grund unserer mannigfachen Verwendung mannigfacher sprachlicher Ausdrücke überhaupt nur für möglich erachten, Rechnung tragen
und nicht trachten, dies auf einige wenige Ausdrücke (“logische Konstante”) zu reduzieren. Was wir für möglich erachten, ist eine Funktion unseres Sprachgebrauchs und
der syntaktischen Analyse bzw. philosophischen Explikation obliegt es, dies explizit
zu machen.
Das oben angegebene Beispiel der Explikation der logischen Form der beiden genannten logischen Formeln ist äußerst einfach. An dieser Stelle kann nur an einem
trivialen Beispiel demonstriert werden, welche Art von “logischer Explikation” in der
New Logic angestrebt wird. Die alles entscheidende Frage ist, ob sich diese Form der
Explikation für FOL vollständig ausarbeiten lässt in Form eines allgemeinen Algorithmus, der alle Formeln einer Klasse logisch äquivalenter FOL-Formeln genau einem ab-Symbol zuordnet, das sich direkt als Ausdruck einer logischen Form verstehen
lässt. Man denke an komplexe Formeln der zweistelligen Quantorenlogik, die etwa im
Rahmen der klassischen Semantik nur “wahre Modelle im Unendlichen” haben, um
sich eine Vorstellung von der Explikationskraft so eines Algorithmus zu machen: Ein
derartiger Algorithmus wird in endlichen Schritten auf Basis der Konstruktion eines
ab-Symbols entscheiden, dass die entsprechende Ausgangsformel nicht logisch falsch
ist (dies leistet FOL-Decider) und er wird zudem auf Basis der syntaktischen Merkmale
des ab-Symbols Strukturen von Modellen identifizieren, die Bedingungen der Wahrheit
explizieren können (hierauf beruht FOL-ModelCheck).
16
Explikation und Interpretation, Teil 2. Die mathematische Logik strebt auf Grund
ihres extensionalen Ansatzes keine Explikation an. Ihr geht es allein darum, Sätze in
der Sprache der Logik zu repräsentieren (s. zum Begriff der Repräsentation S. 8). Dies
geschieht wesentlich über Interpretation im Sinne der Zuordnung von Extensionen zu
den Ausdrücken einer formalen Sprache (in diesem Sinne soll “Interpretation” ab jetzt
wieder verstanden werden). Hierzu müssen die Extensionen sprachlicher Ausdrücke
nicht notwendigerweise bekannt sein, es muss allerdings auf irgendeine Weise auf Extensionen Bezug genommen werden und dies geschieht letzten Endes mittels der Wortsprache. Folgende Interpretation ist z.B. durchaus zulässig:
=(P ) = W gdw. Goldbachs Vermutung wahr ist.
Wir wissen nicht, ob Goldbachs Vermutung wahr ist, wir wissen also auch nicht, ob
diese Interpretation P den Wahrheitswert W oder F zuordnet. Aber einen der beiden
Wahrheitswerte – das sei hier vorausgesetzt – hat Goldbachs Vermutung und folglich
ordnet die Interpretation auch einen der beiden Wahrheitswerte zu, ob wir diesen nun
kennen oder nicht. Im Unterschied zu der auf S. 8 genannten Repräsentation von Goldbachs Vermutung ist die hier angegebene Interpretation nicht besonders interessant, da
sie Goldbachs Vermutung nicht auf einen formalen Ausdruck zurückführt, in dem nur
Konstanten der gewählten formalen Sprache vorkommen. Nur in diesem Falle könnte man hoffen, die formale Repräsentation des Satzes in dem gewählten axiomatischen
System abzuleiten. Hierdurch hätte man sie dann als wahr bewiesen, insofern die Axiome wahr sind. Dies gelingt allerdings auch im Falle der auf S. 8 angegebenen formalen
Repräsentation von Goldbachs Vermutung nicht – nicht jeder formal repräsentierbare Ausdruck bzw. seine Negation muss beweisbar sein. Goldbachs Vermutung konnte
bislang nicht als Theorem der Peano Arithmetik nachgewiesen werden.
Es ist wichtig, sich vor Augen zu führen, dass auch die Auffassung primitiv rekursiver Funktionen, durch die im Rahmen der mathematischen Logik der Begriff der
Berechenbarkeit modelliert werden soll, durch und durch auf dem extensionalen Verständnis von Funktionen aufbaut. Dies erlaubt etwa folgende, primitiv rekursive und
folglich (berechenbare!) Definitionen (vgl. Smith(2007), S. 88):

 n gdw. Fermats Vermutung wahr ist.
fermat(n) =

0 sonst.
julius(n)
=

 n gdw. Caesar an seinem dritten Geburtstag Trauben aß.

0 sonst.
Im ersten Fall “wissen” wir seit Wiles Beweis von 1995, dass f ermat(n) = n
ist, im zweiten Fall kennen wir den Wert von julius(n) nicht, aber er ist n oder 0
und folglich ist julius(n) entweder die Identitäts- oder die Nullfunktion und damit per
definitionem primitiv rekursiv, auch wenn wir keine Möglichkeit haben, den richtigen
Wert zu berechnen.
Man nehme sich ein beliebiges Lehrbuch der mathematischen Logik und wird
schnell erkennen, dass nahezu alle Beweise auf “Definitionen” (besser Interpretatio-
17
nen) von Funktionen der Form
f (x) = y gdw. . . .
zurückgehen, wobei die Leerstelle “. . .” umgangssprachliche Ausdrücke enthalten
darf und f die Interpretationsfunktion selbst sein kann. Das “gdw.” ist ein extensionales: es wird Extensionsgleichheit behauptet, aber keineswegs innerhalb des Formalismus, auf den auf der linken Seite Bezug genommen wird, irgendeine Form von Äquivalenz nachgewiesen. Es ist das Dirichiletsche Verständnis von Funktionen, das erlaubt,
derartige Interpretationen in die mathematische Logik einzuführen.
Diese Technik der Repräsentation hat gar nichts mit Explikation zu tun, denn sie
beruht auf extensionaler “Äquivalenz” (Gleichheit von Wahrheitswerten) und nicht auf
der Substitution von Ausdrücken innerhalb eines formalen Systems mit dem Ziel der
Generierung syntaktischer Identifikationskriterien. Es ist diese Technik und die mit ihr
verbundenen “prosaischen Definitionen”, die New Logic ablehnt. Erstens geben derartige Definitionen den Funktionen keinen mathematischen oder logischen Gehalt noch
explizieren sie die umgangssprachlichen Ausdrücke. Sie sind so klar bzw. unklar wie
die umgangssprachlichen Ausdrücke, die in ihnen verwendet werden. Es wird wesentlich über die Manipulation formaler Ausdrücke hinausgegangen und damit das Gebiet
des Berechenbaren, das syntaktischer Kriterien unterliegt, verlassen. Gemäß des Standpunktes der New Logic bleiben die formalen wie die umgangssprachlichen Ausdrücke
gleichermaßen explikationsbedürftig. Sie haben eben den mathematischen oder logischen Gehalt, den eine algorithmische Explikation ihnen geben kann; werden sie nicht
algorithmisch expliziert, dann haben sie noch keinen wohldefinierten logischen oder
mathematischen Gehalt. Auf eine etwaige Funktion der Wortsprache, auf Extensionen
zu referieren, will man sich im Rahmen der New Logic erstens nicht verlassen und
zweitens spielt eine derartige Funktion in dieser Konzeption keine Rolle in der Logik
und Mathematik. Von größerer Bedeutung ist aber der zweite Grund der Ablehnung:
Solange die Form der Ausdrücke nicht expliziert ist, ist man nicht vor Fehlinterpretation gefeit, die durch die äußere Form der Ausdrücke evoziert werden. New Logic
sieht die Hauptquelle philosophischer Probleme in der vorschnellen Interpretationen
von Ausdrücken, deren Form noch gar nicht adäquat expliziert wurde. Aus dem Blickwinkel der New Logic ist diese Quelle in der der mathematischen Logik heftig am
Sprudeln. Dies sei kurz in den folgenden Paragraphen angedeutet.
Paradoxien und Diagonalisierung. Im Rahmen der mathematischen Logik werden
Paradoxien auf Widersprüche zurückgeführt. Folglich können sie Beweiskraft haben,
denn man wird in den meisten Fällen genötigt, eine Annahme aufzugeben. Man kann
viele Paradoxien und Beweise, die auf Diagonalisierungen beruhen, auf Interpretationen der folgenden Formel zurückführen (vgl. Thomson(1962), Redecker(2006), S.105
nennt weitere Vertreter, die sich dieser Analyse angeschlossen haben):
∃y∀x(F xy ↔ ¬F xx)
(1)
Der Barbier ergibt sich für =(F ) = {x|x wird rasiert von y}. Russells Paradox
ergibt sich für =(F ) = {x|x ist Element von y}. Cantors Theorem setzt =(F ) =
18
{x|x ist Element einer Menge mit der Zahl y} voraus.
Aus dem Barbier-Paradox wird die Schlussfolgerung gezogen, dass es kein Barbier
gebe, der alle die rasiert, die sich selbst nicht rasieren. Diese Schlussfolgerung ist für
Logik, Mengenlehre oder Mathematik nicht weiter von Bedeutung. Anders ist dies im
Falle von Beweisführungen im Rahmen der mathematischen Logik. Russells Paradox
ist eine Instanz des “unrestricted comprehension axiom schema” (UCAS) der “naiven”
Mengenlehre:
∃y∀x(xy ↔ ϕx)
Setzt man für ϕx entsprechend ¬xx ein, ergibt sich Russells Paradox in Form einer
widersprüchlichen logischen Formel. Hieraus zieht man die Konsequenz, dass (UCAS)
und hiermit die “naive” Mengenlehre falsch ist. Dies hat enorme Konsequenzen. Begriffe und Mengen müssen nicht mehr einander korreliert sein. Ein extensionales Verständnis von Mengen scheint nun sogar logisch zwingend. Man gibt das dichotomische
Konzept von Mengen zu Gunsten der kumulativen Hierarchie von Mengen auf. Man
führt die Typentheorie ein oder entwickelt neue axiomatische Systeme der Mengenlehre (ZF), um dem kumulativen Konzept Rechnung zu tragen. Ähnlich zieht Cantor
auf Basis von Diagonalisierungen die Schlussfolgerung, dass es überabzählbare Mengen gibt. Dies ist im Rahmen der mathematischen Logik ein Theorem und bildet die
Grundlage für die transfinite Mengenlehre.
Widerspruchsbeweise auf Basis von Diagonalisierung ist die Methode metamathematischer Beweisführungen, auf die sich zahlreiche Theoreme, z.B. Tarkis Theorem, Gödels Theoreme, die Unlösbarkeit des Halte-Problems (die Churchs Theorem
zu Grunde liegt) u.v.a.m. zurückführen lassen. An dieser Stelle kann nur exemplarisch
an den obigen Beispielen aufgezeigt werden, warum im Rahmen der New Logic solche
Beweise keine Beweiskraft haben.
Gemäß New Logic ist zunächst die logische Form von (1) zu klären. Übersetzung
in ein ab-Symbol führt zu einem ab-Symbol, das keine a-Pole besitzt. Dies besagt gemäß der Deutung von ab-Symbolen, dass die logische Form von Instanzen von (1),
die diesen Instanzen durch die “logischen Konstanten” verliehen wird, eine sinnvolle Interpretation ausschließt. Instanzen einer derartigen logischen Form sind logisch
falsch; ihnen kann kein Gehalt gegeben werden, der an etwas außerhalb der Symbole
zu messen wäre. Dies bringt die Tatsache zum Ausdruck, dass ihr unmissverständlicher Ausdruck in der ab-Notation in Form eines ab-Symbols nicht mehr das Merkmal
der Bipolarität besitzt. Jede Instanz einer derartigen Form ist im strengen logischen
Sinn äquivalent und besagt dasselbe (nämlich nichts). Der Barbier, Russells Paradox,
Cantors Theorem in den genannten Lesarten sagen damit alle gleich viel bzw. gleich
wenig wie der Satz “Es regnet und es regnet nicht”. Sie alle haben dieselbe Form, auf
Grund der sie bereits logisch falsch sind; – etwaige Interpretationen können derartigen
logischen Formen keinen Sinn verleihen. Es ist unsinnig, Kontradiktionen zu interpretieren und hieraus Schlüsse auf die Existenz oder Nicht-Existenz etwaiger Entitäten zu
ziehen.
Man kann aus einer Kontradiktion keine substantiellen Schlussfolgerungen in Form
eines Widerspruchsbeweises gewinnen, denn die Negation einer Kontradiktion führt zu
einer Tautologie, die ebenso nichtssagend ist. Es ist die äußere Form von (1) die sug-
19
geriert, dass man es mit substantiellen Existenzbehauptungen zu tun hat, deren Negation dann die Existenz von etwas leugnet: Interpretiert man Ausdrücke wie (1) ohne
sie vorab logisch zu explizieren, dann wird der grundlegende Unterschied zu negierten
Existenzbehauptungen, die nicht tautologisch sind, nicht hinreichend offensichtlich. Ist
man darüber hinaus auch noch der Auffassung, dass Einsetzungsinstanzen von Kontradiktionen einfachhin “falsch” sind (bzw. ihre Extension der Wahrheitswert F ), gelangt
man zur Auffassung, dass man durch ihre Bildung sogar logisch zwingend zu substantiellen Einsichten gelangen kann. Infolgedessen ist man der Ansicht, es drücke eine
substantielle Erkenntnis aus, dass es keine Barbiere gebe, die alle die rasieren, die sich
selbst nicht rasieren, bzw. keine Menge aller normalen Mengen gebe bzw. dass die Diagonalmenge nicht Element einer Aufzählung von Teilmengen ist. In jedem dieser Fälle
erscheint es aus dem Blickwinkel der New Logic demgegenüber als ein unsinniges Unternehmen, Kontradiktionen oder Tautologien zu interpretieren und damit irgendetwas
Gehaltvolles zum Ausdruck bringen zu wollen.
Für die Analyse von Paradoxien kann man noch einen wichtigen Schritt weiter
gehen. Der Barbier ist gemäß New Logic gar kein Paradox, sondern einfach ein logischer Widerspruch. Anders verhält es sich bei Russells Paradox und den metamathematischen Theoremen. Hier wird man bereits ihre Darstellung mittels der Sprache
der Logik in Frage stellen. Der Unterschied zwischen dem Barbier und Russells Paradox besteht darin, dass “x wird rasiert von y” gewöhnlicherweise als bipolare, atomare
Aussagefunktion verwendet wird. “x ist Element von y” hingegen kann nicht einfachhin als bipolare atomare Aussagefunktion verstanden werden, da “x ist Element von x”
im Allgemeinen noch kein klarer Sinn gegeben ist, da nicht klar ist, was z.B. genau der
Fall sein soll, wenn eine Menge von Pferden ein Pferd wäre. Auch in diesem Falle erliegt man Fehlinterpretationen suggeriert durch die äußere Form der Wortsprache und
von FOL-Ausdrücken: “x ist Element von y” hat dieselbe äußere, relationale Form wie
“x wird rasiert von y” und “ϕ(x, y)” legt – anders als etwas “a − ϕxy − b” – Einsetzungsinstanzen nicht auf bipolare Aussagefunktionen fest. Der Fehler der Analyse von
Russells Paradox in Form der Widerlegung von (UCAS) steckt schon in der vorschnellen logischen Formulierung von (UCAS). Die logische Formalisierung von (UCAS) ist
ein indäquater formaler Ausdruck der akzeptablen “naiven” dichotomen Mengenauffassung, nach der Mengen durch bipolare Aussagefunktionen identifiziert werden. Der
adäquate formale Ausdruck für diesen internen Zusammenhang zwischen Mengen und
bipolaren Aussagefunktionen ist der, “x ist Element von y” und auch “x ist eine Menge”
nicht eigens als Aussagefunktionen mit den Mitteln der logischen Sprache abzubilden.
Dies zeigt, das – zumindest im Rahmen der “naiven Mengenlehre” – Ausdrücken wie
“die Mengen aller Mengen” oder “die Menge aller normalen Menge” keine Bedeutung
gegeben werden kann. Der Raum der Möglichkeiten, den eine naive Mengenlehre absteckt, bietet hierfür keinen Platz. Nicht die naive Mengenlehre erzeugt Paradoxien,
sondern das Missverständnis ihrer logischen Repräsentation innerhalb der mathematischen Logik erzeugt die Paradoxien. Es ist hier und nicht an der Mengenlehre, wo
anzusetzen ist, um die mengentheoretischen Paradoxien aufzulösen.
Der entscheidende Punkt ist einmal mehr, die “Denkbewegung” nachzuvollziehen,
die dazu führt, dass eine bestimmte Form von Widerspruchsbeweisen ihre Beweiskraft
verliert. Es ist eine Sache der Gewöhnung, um an anderen Beispielen zu gleichartigen
Einschätzungen zu gelangen: Statt scheinbar substantielle Existenzbehauptungen wie
20
“Es gibt überabzählbare Mengen”, “Es gibt keine Turing-Maschine, die für jede beliebige Turing-Maschine berechnet, ob sie hält oder nicht”, “Es gibt kein Prädikat 1.
Stufe, dessen Extension die Menge aller wahren Sätze ist”, “Es gibt keine primitivrekursive Funktion, die im Kalkül primitiv-rekursiver Funktionen der Gödelzahl einer
Formel 0 zuordnet gdw. die entsprechenden Formel ableitbar ist” etc. zu behaupten,
wird man jeweils die Möglichkeit der Interpretation einer entsprechenden Funktion
zurückweisen und sich damit begnügen, dass den entsprechenden “Theoremen” gar
kein klarer Sinn verliehen werden kann. Statt auf Basis von Interpretationen der Form
“f (x) = y gdw. . . .” Theoreme abzuleiten, werden diese Interpretationen zurückgewiesen, wobei jeweils abgelehnt wird, dass sich der fragliche Gehalt von “. . .” durch
die Syntax, auf die im linken Teil des Bikonditionals Bezug genommen wird, bringen
lässt. Die Theoreme werden damit nicht etwa geleugnet bzw. ihr Gegenteil behauptet,
sondern es wird darauf beharrt, dass ihnen kein klarer Sinn verliehen worden ist, da
ein etwaiger Sinn nicht in der Syntax der ausgewählten Ausdrucksweise ausgedrückt
werden kann. In gewisser Weise verschärft man sogar die negativen Existenzbehauptungen: Das, dessen Existenz in den Theoremen geleugnet werden soll, lässt sich noch
nicht einmal sinnvoll annehmen.
Dies ist alles andere als eine facon de parler. Man hat z.B. nicht mehr die Neigung, transfinite Mengenlehre oder Metamathematik zu betreiben. Der Grund dafür
ist, dass man die Widerspruchsbeweise nicht als Beweis der Falschheit einer gehaltvollen Voraussetzung auffasst, deren Negation nun zu neuen gehaltvollen Theoremen
führt. Vielmehr versteht man die Widerspruchsbeweise als Ausdruck der Inadäquatheit
einer unterstellten Syntax und die Konsequenz, die zu ziehen ist, besteht allenfalls in
der Bestimmung einer adäquaten Syntax. Dies sei kurz anhand von Tarskis Theorem
erläutert.
Tarskis Theorem. Tarskis Theorem besagt, dass die Menge aller wahren Sätze einer
Sprache nicht durch ein Wahrheitsprädikat innerhalb derselben Sprache repräsentiert
werden kann. Dies wird im Rahmen einer formalen Sprache bewiesen, die gegenüber
FOL um ein Symbol für die Diagonalfunktion und ein Standardnamensymbol angereichert wird (vgl. Brendel(1992)). Diese Symbole erhalten fixe Interpretationen, unter
deren Voraussetzung sich Diagonalisierungen repräsentieren lassen. Interpretation eines Prädikates als Wahrheitsprädikat führt dann zu Widersprüchen, z.B. ließe sich in
dieser Sprache das Lügnerparadox repräsentieren. Tarski zieht hieraus den Schluss, “x
ist wahr” als ein metasprachliches Prädikat zu verstehen.
Sieht man einmal von der vorbehaltlosen Interpretation einer Funktion im Sinne
einer Diagonalfunktion ab, dann wird New Logic anders als Tarski in der unhinterfragten Voraussetzung, “x ist wahr” als Prädikat (= propositionale Funktion, deren Werte
Wahrheitswerte sind) zu behandeln, die Wurzel des Problems sehen. Nicht die äußere Form, sondern der tatsächliche Gebrauch ist Kriterium für eine adäquate syntaktische Analyse. Ähnlich wie im Fall von (UCAS) wird man in Tarskis Schema einen
inadäquaten formalen Ausdruck einer ganz angemessen Auffassung sehen, nämlich der
Auffassung, dass “ist wahr” im Allgemeinen so verwendet wird, dass es dem Sinn eines
Satzes nichts hinzufügt. Man wird in Folge dessen ablehnen, “x ist wahr” syntaktisch
als ein Prädikat der Form ϕx – welcher Stufe auch immer – aufzufassen. Um die Form
21
einer “syntaktischen Lösung” zu veranschaulichen, bietet sich alternativ auf Basis der
ab-Notation folgende Analyse an. “x ist wahr” ist nicht Ausdruck einer “Aussagefunktion”, sondern Ausdruck einer (Redundanz)operation, der in der ab-Notation durch eine
redundante ab-Operation Ausdruck verliehen werden kann: Während P durch a−P −b
dargestellt wird, kann “P ist wahr” durch a − a − P − b − b dargestellt werden, was
schließlich ebenfalls zum ab-Symbol a − P − b führt. “P ist nicht wahr” ist dementsprechend durch b − a − a − P − b − b − a darzustellen, was nach Streichung der
Zwischenpole zu b − a − P − b − a führt (also dem ab-Symbol, dem auch ¬P zugeordnet wird). Überflüssig zu erwähnen, dass in dieser Syntax “Dieser Satz ist falsch”
nicht ausgedrückt werden kann, da die Anwendung von ab-Operationen bipolare, atomare Aussagefunktionen voraussetzt und “x ist falsch” nach diesem Verständnis nicht
als bipolare Aussagefunktion, sondern als ab-Operation (bzw. “Wahrheitsoperation”)
verwendet wird. Es ist die äußere Form des umgangssprachlichen Ausdruckes “x ist
wahr”, der äußerlich dieselbe Form hat wie “x ist ein Mensch”, die einem zum Narren
hält. Nicht diese äußere Form, sondern der tatsächliche Gebrauch der Ausdrücke ist die
Richtschnur für ihre Explikation, die im erfolgreichen Fall unsinnige Interpretationen
ausschließt.
Sobald man “Unmöglichkeitsbeweise” als Ausdruck dessen versteht, dass man Ausdrücken eine bestimmte Interpretation verleihen will, die durch die Form der Ausdrücke ausgeschlossen ist, wird man sich nicht mehr im Reich des Unmöglichen tummeln wollen und dabei etwaige Hierarchien von Mengen oder Sprachen ersinnen, sondern man wird sich auf die Explikation der Formen und der Möglichkeiten ihrer Interpretation besinnen und beschränken.
Unentscheidbarkeitsbeweis von FOL. Vgl. zu diesem Abschnitt auch:
http://www2.hu-berlin.de/NewLogic/webMathematica/Logic/critique.pdf.
Der Unentscheidbarkeitsbeweis für FOL lässt sich so führen: Es wird gemäß eines effektiven Verfahrens festgelegt, wie Turing-Maschinen samt ihrem input in FOLAusdrücke Γ übersetzt werden, die die jeweilige TM-Machine und ihren input gemäß
Interpretation repräsentieren. Des Weiteren wird gezeigt, wie der Satz “Die TuringMaschine TM hält auf input n” (kurz “TM hält”) effektiv in eine FOL-Formel übersetzt werden kann, die den entsprechenden Satz gemäß Interpretation repräsentiert.
Dann wird “bewiesen”, dass gilt:
` (Γ → D) gdw. TM hält
(2)
Wenn ` (Γ → D) entschieden werden kann, wird damit entschieden, ob TM auf den
gegebenen input hält oder nicht. Es ist aber schon gezeigt worden, dass das HalteProblem nicht entschieden werden kann. Also kann FOL nicht entscheidbar sein.
Da New Logic nicht behauptet, dass das Halte-Problem lösbar ist, fragt sich, wie
man aus dieser Sichtweise zu diesem Unentscheidbarkeitsbeweis stehen soll: Hat nicht
zumindest dieser Beweis Beweiskraft nicht nur innerhalb des Systems der mathematischen Logik?
22
Man erkennt schon an der Form von (2), dass auch diese Frage verneint werden
muss. Wir haben es mit einer typischen extensionalen Korrelation eines umgangssprachlichen Ausdrucks mit einer – gemäß Verständnis von New Logic – Eigenschaft
der logischen Form einer Formel zu tun. Um vor Augen zu führen, dass hierbei etwas
nach Auffassung der New Logic nicht stimmt, beschränken wir uns auf den “Beweis”
der einen Richtung des Bikonditionals, wie er z.B. von Boolos(2003), S. 130 gegeben
wird:
The ‘only if’ part is easy. All sentences in Γ are true in the standard
interpretation, whereas D is true only if the given machine started with
the given input eventually halts. If the machine does not halt, we have an
interpretation where all sentences in Γ are true and D isn’t, so Γ does not
imply D.
Die Argumentation kann man sich durch eine Zeile einer Wahrheitswerttabelle veranschaulichen, wobei die Indices den Argumentationsschritt andeuten:
`
F3
(Γ
W1
→
F2
D)
F1
→
W4
TM hält
F1
Schritt 1: Dieser Schritt beruht auf =(Γ) = W und =(D) = Wahrheitswert von “TM
hält” = F. =(Γ) = W ergibt sich daraus, dass von einer Turing-Maschine mit einem input n und einer ganz bestimmten, effektiv angebbaren Abfolge an Befehlen ausgegangen wird, die nach einem effektiven Verfahren in eine FOL-Formel
Γ übersetzt werden, wobei die einzelnen Bestandteile der Übersetzung gemäß
einer festgelegten Standard-Interpretation Extensionen zugeordnet werden, und
zwar so, dass in dieser Interpretation dann Γ wahr ist. “=(D) = Wahrheitswert
von ‘TM hält”’ ist auch Teil dieses effektiven Übersetzungsverfahrens samt Angabe einer Standard-Interpretation. Der Wahrheitswert kann in diesem Fall allerdings nicht vorausgesetzt werden. Der Beweis von (2) spielt einfach beide Fälle
=(D) = F und =(D) = W durch. Oben zitierter “Beweis” betrachtet nur den
ersten Fall.
Schritt 2: F2 ergibt sich durch Anwendung der modelltheoretischen Definition von
“→”.
Schritt 3: Durch Anwendung der modelltheoretischen Definition der Allgemeingültigkeit und auf Grund der Vollständigkeit von FOL ergibt sich 6` (Γ → D).
Schritt 4: W4 ergibt sich wieder in Folge der Anwendung der modelltheoretischen
Definition von “→”. Mit Schritt 4 ist man am Beweisziel angelangt: Die Implikation konnte unter den genannten Voraussetzungen als wahr erwiesen werden.
Innerhalb des Systems der mathematischen Logik kann gegen so eine Art des “Beweises” nichts eingewandt werden. Aus der Perspektive der New Logic ist allerdings
eine derartige Argumentationsweise inakzeptabel. Man lehnt es ab, die Tatsache, dass
23
gemäß der Grammatik der deutschen Sprache die Ausdrücke “wahr” bzw. “falsch” zulässiger Weise ohne weitere Differenzierung Sätzen wie “Γ impliziert D” bzw. “TM
hält” zugeschrieben werden, auch schon als hinreichendes Kriterium dafür zu werten,
dies dann auch im Rahmen einer (vorschnellen) Interpretationen im Rahmen einer Beweisführung zu tun. Vor jeder Zuschreibung von Wahrheitswerten – hypothetisch oder
auf Grund irgendwelcher Überzeugungen – wird man im Rahmen einer Beweisführung
eine Explikation verlangen, was in welchem Sinn und in Rahmen welchen Systems für
wahr angenommen wird.
Man wird fragen, in welchem Sinne in unserem Zusammenhang von einer Maschine die Rede sein soll: In einem empirischen Sinn oder im Sinne einer Abfolge von
Befehlen? Der erste Sinn ist wohl nicht gemeint, denn man wird die Bemerkung, dass
empirische Maschinen mitunter halten, weil der Strom ausgefallen ist etc. als unangemessen zurückweisen. Es ist dementsprechend anscheinend gemeint, dass gegeben ein
input n aus der bloßen Definition der Regeln der Maschine folgen soll, ob sie hält oder
nicht. Es soll also nicht regelkonform und in diesem Sinne “unmöglich” sein, dass die
Maschine hält, wenn Anwendung ihrer Regeln auf den input n etwa in eine Schleife
führt. Eine derartige Unmöglichkeit kann aber gemäß Verständnis der New Logic aus
mindestens zwei Gründen nicht dadurch zum Ausdruck gebracht werden, dass ein bestimmtes materiales Konditional (Γ → D) nicht allgemeingültig bzw. kein Theorem
ist.
Der erste Grund besteht darin, dass Befehle bzw. Definitionen einer Maschine gar
nicht adäquat als Wahrheitsfunktionen innerhalb der logischen Sprache ausgedrückt
werden können, da sie nicht Funktionen, sondern Operationen sind. Gemäß New Logic
entscheiden Turing-Maschinen formale Eigenschaften und diese werden nicht mittels
Formeln plus Interpretation bzw. Sätzen im Sinne von Wahrheitsfunktionen repräsentiert, sondern durch syntaktische Manipulation auf Basis syntaktischer Identitätskriterien entschieden. Die Auffassung, das Verhalten von Turing-Maschinen ließe sich durch
FOL-Ausdrücke repräsentieren, setzt die extensionale Semantik voraus. Dementsprechend beruht die skizzierte Argumentation ja auch durchgängig auf einer “standard
interpretation” und der Repräsentation von Sätzen durch FOL-Ausdrücke plus Interpretation. Gemäß New Logic ist der Unentscheidbarskeitsbeweis von FOL wie andere
Unmöglichkeitsbeweise Ausdruck einer inadäquaten syntaktischen Ausdrucksweise.
Es folgt nicht die Unentscheidbarkeit von FOL, sondern die Unmöglichkeit, das Verhalten von Turing-Maschinen bzw. allgemein das Berechnen formaler Eigenschaften
mittels FOL-Ausdrücken zu repräsentieren (ebenso wie aus Russells Paradox nicht die
Falschheit der naiven Mengenlehre, sondern die Inadäquatheit ihrer logischen Repräsentation folgt).
Der zweite Grund lässt sich um des Argumentes Willen auf die Beschreibung des
inputs plus der Befehle einer TM mittels FOL-Ausdrücken ein. Selbst dann folgt nach
dem Verständnis von FOL-Ausdrücken gemäß New Logic immer noch nicht obiger
“Beweis”. Dass Γ → D nicht allgemeingültig bzw. kein Theorem ist, besagt ja nach
dieser Auffassung, dass diese Formel nicht logisch wahr ist und damit logisch die Möglichkeit gegeben ist, dass ein Satz der Form Γ wahr und ein Satz der Form D falsch
ist. Dies lässt aber durchaus auch die Möglichkeit zu, dass selbst bei vorausgesetzter
Wahrheit von Γ auch D bzw. “TM hält” wahr ist. Wollte man die Unmöglichkeit mit
den Mitteln der Logik ausdrücken, müsste man die logische Falschheit des Satzes, in
24
diesem Fall “TM hält”, durch eine logische Falschheit bzw. durch ` (Γ → ¬D) ausdrücken. Nur dies würde unter der Annahme einer logischen Repräsentierbarkeit den
gemeinten Sinn ausdrücken können, dass das Nicht-Halten der TM aus ihrem Anfangszustand und ihren Befehlen logisch folgt und nicht bloß auf Grund kontingenter empirischen Tatsachen (z.B. einem Kratzer auf der Festplatte) gegeben ist. Obiger Beweis
beweist aber keineswegs, dass wenn “TM hält” falsch ist, dann ` (Γ → ¬D) gilt. Diese strenge Form der Implikation gibt das Übersetzungsverfahren von TM-Maschinen
in FOL-Ausdrücke nicht her. Es ist folglich keineswegs logisch entscheidbar, ob eine
TM auf einen input n hält.
Anders ausgedrückt: Ein Entscheidungsverfahren von FOL entscheidet über die logische Wahrheit / Falschheit und kann damit nichts über den Wahrheitswert von Sätzen
sagen, die laut Entscheidungsverfahren weder logisch wahr noch logisch falsch sind.
(2) lässt aber offen, in welchem Sinne genau von Wahrheit links und rechts des Bikonditionals die Rede sein soll. Da auf der linken Seite im Falle der Zuschreibung von “F”
gar nicht logische Falschheit impliziert ist, kann auch auf der rechten Seite nicht Gleiches unterstellt werden. Dann aber ist die Tatsache, dass die linke Seite nicht logisch
wahr ist, sowohl mit der Wahrheit als auch der Falschheit von “TM hält” vereinbar.
Die Art der Argumentation für (2) verschleiert diese Zusammenhänge, da (i) “`
(Γ → D)” (= LHS) ohne weitere Analyse wie jeder andere Satz als Wahrheitsfunktion
behandelt wird und (ii) von der scheinbar zwingenden Prämisse “Entweder ‘TM hält’
ist wahr oder ‘TM hält ist falsch”’ ausgegangen wird. Analysiert man (LHS) hingegen
als “Es ist logisch wahr: Γ → D” und die Falschheit dieses Satzes entsprechend als
“Es ist nicht logisch wahr: Γ → D”, dann erkennt man, dass mit der “Falschheit” gar
nichts über einen etwaigen Wahrheitswert von “Γ → D”und von “TM hält” gesagt ist.
Es ist nur gesagt, dass logisch möglich ist, dass Γ wahr und D falsch ist. Der adäquate
Ausdruck dieser Auffassung besteht einfach darin, dass man diese “Wahrheitswertbelegung” zulässt – über die tatsächlichen Wahrheitswerte der Sätze ist damit nichts gesagt.
Analoges gilt für die in (ii) genannte Prämisse. Auch hier ist zunächst explizit zu machen, dass offensichtlich “TM hält” nicht als ein kontingenter Satz verstanden werden
soll, dessen Wahrheitswert von empirischen Tatsachen abhängt, sondern als eine logisch notwendige Konsequenz der Regeldefinitionen und des Anfangszustandes einer
TM. Aus diesem Grund soll (RHS) ja auch denselben Wahrheitswert wie (LHS) haben (und damit (RHS) und (LHS) “material äquivalent” sein). Dann aber hat die in (ii)
genannte Prämisse die Form “Entweder ‘TM hält’ ist logisch wahr oder . . .”. Die Alternative hierzu ist “. . . oder ‘TM hält” ist nicht logisch wahr” und dies impliziert zwei
Fälle: Bipolarität und logische Falschheit. Berücksichtigt man also, dass es um logische
Wahrheit geht, erkennt man, dass es durchaus ein Tertium gibt (nämlich Bipolarität).
Dies Tertium mag nicht der intendierte Sinn sein, da das Nicht-Halten allein aus dem
input und aus dem Code der TM folgen soll. Dies heißt gemäß New Logic aber nur, dass
der gewünschte Sinn nicht adäquat durch die FOL-Syntax zum Ausdruck gebracht werden kann. Ob eine TM hält oder nicht, ist nach Verständnis von New Logic eine formale
Eigenschaft der speziellen TM.5 Ist eine formale Eigenschaft wohldefiniert, dann gibt
5 Dies impliziert nicht die Annahme, dass es eine TM geben kann, die dies für beliebige TM leisten
kann. Diese Annahme ist ebenso unsinnig wie die einer allgemeinen “Halte-Funktion”, von der angenommen werden könnte, sie sei berechenbar. Ob eine TM auf einen gegebenen input hält oder nicht ist vielmehr
nur durch diese TM selbst zu entscheiden und wird bewiesen, indem entweder gezeigt wird, dass die TM
25
es zu ihr kein Tertium. Eine formale Eigenschaft ist nur vollständig verstanden, wenn
sie syntaktisch entscheiden werden kann. Dies kann in Bezug auf das Verhalten von
TM nur anhand von Darstellungen geschehen, die isomorph (formal äquivalent) mit
dem Code einer TM sind. Dieses Kriterium erfüllen bipolare FOL-Ausdrücke nicht.
Auf Grund der nicht weiter differenzierten Rede von “Wahrheit” und der damit verbundenen Akzeptanz von rein extensional interpretierten Bikonditionalen als Grundlage der Beweisführungen, verliert die Beweisführung aus dem Blickpunkt der New
Logic ihre sichere Grundlage. Jede Zuschreibung von Wahrheitswerten sollte auf dem
Hintergrund eines wohldefinierten Raumes von Möglichkeiten geschehen und hat nur
innerhalb dessen einen präzisen Sinn. Vor der Beweisführung muss zunächst festgelegt
werden, in welchem Raum der Satz “TM hält” genau betrachtet werden soll; – wenn im
logischen Raum, dann sollte auch logische Wahrheit zugeschrieben werden, worüber ja
auch tatsächlich allein durch ein Entscheidungsverfahren entschieden wird. Dann muss
man aber auch die Konsequenz ziehen, dass daraus, dass ein Satz nicht logisch wahr
ist, nicht folgt, dass er falsch ist.
Der nach dieser Analyse diagnostizierte Fehlschluss der Beweisführung ist analog
der “Tarski fallacy”, die Etchemendy Tarskis Explikationsversuch logischer Wahrheit
vorwirft (vgl. Etchemendy(1990), chapter 6). Etchemendy macht darauf aufmerksam,
dass aus der logischen Wahrheit von “|= (K → S) → (K → S)”, wobei K für
eine Prämissenmenge und S für eine Konklusion steht, nicht folgt, dass K → S in
irgendeinem Sinne logisch wahr ist bzw. logisch gültig ist. In diesem Sinne kann Allgemeingültigkeit (|= (K → S)), nicht logische Wahrheit bzw. logische Gültigkeit
explizieren. Analog kann aus der logischen Wahrheit von ¬ TM hält → ¬ ` (Γ → D)
bzw. “|= (Γ → D) → TM hält”, nicht darauf geschlossen werden, dass “TM hält” in
irgendeinem Sinne logisch wahr oder logisch falsch ist. Einen Fehlschluss diagnostizieren kann hier nur derjenige, der auf einer Unterscheidung zwischen logischer Wahrheit und nicht-logischer Wahrheit besteht, was wiederum ein konsequenter Extensionalismus ablehnt. In der Ablehnung dieses Unterschiedes bzw. allgemeiner der NichtBerücksichtigung der Unterscheidung formaler und materialer Eigenschaften besteht
nach Wittgenstein der “Fehler der alten Logik” (vgl. z.B. TLP 4.126, WWK, S. 214).
Scheinbar zwingende Beweisführungen verlieren ihre Beweiskraft, wenn man auf
einer Explikation dessen beharrt, was genau bewiesen werden soll, bevor man sich auf
eine Beweisführung einlässt, oder alternativ fragt, welchen Gehalt ein Satz im Rahmen
einer bestimmten Beweisführung hat. Zuweisungen von Interpretationen, zumal unter
Mithilfe der Wortsprache, verschleiern einen etwaigen Gehalt eher als dass sie etwas
zu beweisen vermögen. Will man derartigen Fallstricken nicht erliegen, sollte man sich
zumindest im Bereich der Logik auf das verlassen, was innerhalb ihrer berechenbar
ist und Spekulationen über Berechenbarkeit auf Basis externer Überlegungen auf sich
beruhen lassen.
Aber selbst wenn sich alle Bedenken der New Logic im Einzelnen als haltlos erweisen sollten, wird man doch darauf beharren können, dass es legitim ist, die Beweisin endlichen Schritten zum Ergebnis kommt oder an welcher Stelle ihr Code die Berechnung in eine Endlosschleife geraten lässt. In Wittgensteins Terminologie gesprochen, “zeigen” sich am Code einer TM ihre
formalen Eigenschaften – diese können nicht durch bipolare Aussagesätze “gesagt” werden. Das Operieren
von Maschinen kann nicht extensional verstanden und in Form von FOL-Ausdrücke adäquat repräsentiert
werden.
26
gründe umzukehren: Nehme einmal an, FOL ist entscheidbar, wirst Du dann immer
noch auf Deinen Interpretationen beharren? Es steht in Frage, ob der Unentscheidbarkeitsbeweis die Unentscheidbarkeit von FOL beweist oder die Entscheidbarkeit von
FOL die Unzulänglichkeit der dem Unentscheidbarkeitsbeweis zu Grunde liegenden
extensionalen Semantik. Prima facie kann hierüber nicht entschieden werden.
Abwehr eines Missverständnisses. Es wird mit dem Vorangegangenen nicht der
Anspruch erhoben, einen objektiven “Fehler” der mathematischen Logik nachgewiesen
zu haben. Ebenso wie der Unentscheidbarkeitsbeweis auf einer extensionalen Semantik beruht, so beruht die Analyse eines etwaigen “Fehlschlusses” im Unentscheidbarkeitsbeweis auf der Ablehnung der extensionalen Semantik. Die Argumentation geht ja
davon aus, das nicht einfachhin (ohne weitere Differenzierung) von der Wahrheit oder
Falschheit von Sätzen auszugehen ist. Begründet man diese Art der Kritik auf dem
Hintergrund der New Logic, dann beruht sie letztlich ihrerseits darauf, dass logische
Wahrheit eine formale Eigenschaft von Sätzen ist, die sich gerade darin auszeichnet,
entscheidbar zu sein. Während mathematische Logik von der extensionalen Semantik
ausgeht, geht New Logic von der Unterscheidung formaler und materialer Eigenschaften aus. Eine derartige Kritik kann den Unentscheidbarkeitsbeweis nicht widerlegen,
sondern nur seine Unterbestimmtheit vor Augen führen. Der Unentscheidbarkeitsbeweis beweist nach diesem Verständnis nur, dass man nicht beides haben kann: Modelltheorie und Entscheidbarkeit von FOL. Es sollte in diesem Abschnitt aufgezeigt
werden, unter welchen Voraussetzungen das System der mathematischen Logik seine
Überzeugungskraft verliert. Erst mit dem folgenden Abschnitt wird gezeigt, wie eine
zwingende Argumentation gegen das System der mathematischen Logik und die ihr
zu Grunde liegende extensionale Semantik zu Gunsten der New Logic geführt werden
kann. Hiermit wird über die philosophische Analyse hinausgegangen.
4
Logische Alternative
Traditionelle Syntax als gemeinsamer Boden. Nehmen wir nun einmal an, dass
weder der historische Erfolg der mathematischen Logik noch ihre Theoreme uns hindern, eine Alternative auszuarbeiten. Dann fragt sich insbesondere, inwieweit die beiden Alternativen – mathematische Logik und New Logic – überhaupt in Konflikt treten
können. Muss man nicht zwangsläufig aneinander vorbeireden, wenn Begriffe wie “logische Wahrheit” einmal über Allgemeingültigkeit und einmal über das Fehlen von
b-Polen im idealen ab-Symbol verstanden werden sollen? Kann man noch über Entscheidbarkeit streiten, wenn der Begriff der Entscheidbarkeit in der einen Alternative
auf eine charakteristische, numerische primitiv-rekursive Funktion zurückgeführt werden soll, während die anderen Alternative das diesem Verständnis zu Grunde liegende
extensionale Verständnis von Funktionen ablehnt, und demgegenüber Entscheidbarkeit
allein auf die Anwendung rein syntaktisch definierter Operationen zurückführt? Kann
überhaupt noch ein Maß gefunden werden, durch das derartig grundlegend unterschiedliche Alternativen verglichen werden können?
Ja, es kann. Der gemeinsame Boden besteht in dem, was mit Schritt 1 in der Entwicklung der modernen Logik vor aller Semantik gegeben ist und was dem entspricht,
27
was man traditionell die Syntax von FOL nennt. Die Ausgangsformeln sind dieselben
und die Formeln, die “beweisbar”, “allgemeingültig” bzw. “logisch wahr” genannt werden, sind dieselben, auch wenn das Verständnis der einzelnen Attribute ein anderes ist.
New Logic bestreitet nicht nur nicht die klassischen Kalküle und logischen Schlussregeln, sondern setzt sie voraus. Die Richtschnur der Entwicklung der ab-Notation sind
Äquivalenzumformungen ganz im Sinne von FOL.
Combinatorical View. Man kann sogar aus dem Blickwinkel von New Logic noch
einen Schritt weiter gehen und das, was in Beweise der Korrektheit und Vollständigkeit von FOL tatsächlich einfließt, akzeptieren. Dies sind nämlich gar nicht inhaltliche Annahmen über Modelle, die über die Wortsprache identifiziert werden, sondern nur strukturelle Eigenschaften dieser Modelle. Hierbei kann sich auf Grund des
Löwenheim-Skolems Theorems der mathematischen Logik auf abzählbare Modelle
beschränkt werden. Insofern FOL-ModelCheck sich bewährt, wird man sich darüber
hinaus auf berechenbare Modelle beschränken können. Auf dieser Basis können allein durch kombinatorische Überlegungen nach einem rein syntaktischen Verfahren
inhaltsleere, ungedeutete Modelle konstruiert werden, die auf Basis rekursiver Definitionen in solche, die eine Formel wahr machen und in solche, die eine Formel falsch
machen, unterteilt werden können. Derartige Modelle kann man als Konstruktion möglicher, inhaltsleerer Extensionen deuten, die die Wahrheit bzw. Falschheit bedingen.
ab-Symbole können als Konstruktionsvorschriften gedeutet werden, die auf Basis der
dem äußersten a-Pol (resp. b-Pol) zugeordneten syntaktischen Merkmale iterativ wahre
(resp. falsche) Modelle in diesem inhaltsleeren Sinne generieren (ein derartiges Verfahren habe ich definiert). ab-Symbole liefern nach diesem Verständnis syntaktische
Identifikationskriterien für wahre bzw. falsche Modelle. Kurzum, insoweit die klassische Logik nicht von “prosaischen Deutungen” der extensionalen Semantik abhängt,
hat man auch hier einen gemeinsamen Boden. In Abgrenzung zu Etchemendys Unterscheidung des “interpretational” und des “representational view” nenne ich eine derartige puristische Auffassung der Modelltheorie den “combinatorical view” (vgl. auch
“pre-formal models” in Garcia-Carpintero(1993) oder “possible semantic values” in
Farlane(2000)).
Pragmatische Entscheidbarkeit. In Bezug auf den Begriff der Entscheidbarkeit kann
man sich auf einen pragmatischen Standpunkt einigen: Wenn man ein Computerprogramm entwickeln kann, das auf Knopfdruck in endlichen Schritten FOL-Formeln in
“sat” (= nicht logisch falsch) und “False” (= logisch falsch) unterteilt, dann ist dies
ein Entscheidungsverfahren. Jedenfalls ist es das, was man haben will und von dem
man gemeinhin sagt, das man es nicht wird entwickeln können. Man wird sich wohl
auch darauf verständigen können, dass jede gewöhnliche heute zur Verfügung stehende
Computersprache – z.B. Mathematica – zulässig ist und dass man sich eines gewöhnlichen PCs bedienen sollte.
Ein Tröpfchen geteilter Syntax als Maßstab der extensionalen Semantik. Die genannten geteilten Voraussetzungen stellen einen kleinen Teil des gesamten Systems
28
der mathematischen Logik dar. Ein bescheidener, aus der Sichtweise der mathematischen Logik unbedeutender Teil reicht aus Sichtweise der New Logic hin, um auf dieser
Grundlage das große Bollwerk, das sich hieraus in Verbindung mit der mengentheoretischen Interpretation ergibt, in Frage zu stellen. Denn die Unentscheidbarkeitsbeweise
setzen die in Frage stehende extensionale Semantik von FOL voraus. Kann ein Entscheidungsverfahren in Form eines gewöhnlichen Computerprogrammes auf der alleinigen Grundlage der geteilten Syntax entwickelt werden, ist dies ein Maßstab, an dem
die Korrektheit der extensionalen Semantik gemessen werden kann. Viel bescheidenere
Mittel als die Semantik, die einem erlaubt, metamathematische Theoreme zu beweisen,
reichen aus, um die Korrektheit dieser Beweisführungen zu messen.
Äquivalenzumformungen und ab-Notation. Man kann den Gedanken einer rein
syntaktischen Fundierung versuchen so zu realisieren, dass offenkundig ist, dass die
Semantik an der Syntax zu messen ist und nicht umgekehrt. Solange man sich nur auf
einfache Äquivalenzumformungen stützt, die auf bekannten logischen Gesetzen aufbauen, kann nicht viel schiefgehen. Sollte man auf diese Weise in endlichen Schritten
zu eindeutigen Repräsentanten gelangen, wer sollte dagegen Einwände haben? Diese
Idee ist in so hohem Grade voraussetzungsarm, dass sie genau den Maßstab liefert,
der auch dann greifen sollte, wenn sich alle anderen Diskussionen hoffnungslos in
philosophische Diskussionen um mengentheoretische Grundlagen verrannt haben. Die
philosophischen Überlegungen der New Logic und insbesondere die ab-Notation bildeten für mich den heuristischen Hintergrund für die Ausarbeitung eines derartigen
Äquivalenzumformungsverfahrens.
Allerdings sollte auch hier der letzte Zweifel genommen werden, dass es vielleicht
nur die besondere Art der ab-Notation ist, die aus irgendeinem ominösen Grunde mehr
zu erreichen in der Lage sein sollte, als das, was sich auf alleiniger Grundlage der
klassischen Schlussregeln ergibt. Folglich übersetzte ich meine erste Ausarbeitung der
ab-Notation in ein reines Äquivalenzverfahren innerhalb bekannter FOL-Formeln. Dies
kann kurz als ein Äquivalenzumformungsverfahren in optimierte disjunktive Normalformen von FOL charakterisiert werden. In dieser Form leistet es Ähnliches wie optimierte DNF in der Aussagenlogik. Hierbei wird eine maximale Disjunktion minimaler
Disjunkte angestrebt. M.E. lässt sich auf diesem Wege das Äquivalenzproblem lösen.
“Äquivalenzproblem” sei das Problem, einen allgemeinen Algorithmus zu definieren,
der alle Formeln einer jeden Klasse FOL-äquivalenter Formeln genau einem Repräsentanten der jeweiligen Klasse zuordnet. Auf Grund von Komplexitätsproblemen ist es
jedoch vorteilhafter, ein Verfahren zu entwickeln, das analog zum Quine-McCluskey
Algorithmus in der Aussagenlogik nicht Eindeutigkeit, sondern Minimalität von disjunktiver Normalformen in FOL anstrebt. Den Ansprüchen einer Explikation der logischen Form kann hiermit nicht vollauf, aber doch in hohem Maße Rechnung getragen
werden. Hieraus resultiert FOL-Optimizer.
Entscheidungsverfahren. Gewissen Standards von New Logic wird man nicht gerecht, wenn man auf die ab-Notation verzichtet. Z.B. gibt man der Bipolarität keinen
expliziten Ausdruck mehr. Wenn man aber dies ständig im Hinterkopf behält, kann
man lernen, in den Äquivalenzumformungen innerhalb von FOL eben das zu sehen,
29
was durch die Übersetzung in ab-Symbole explizit zum Ausdruck kommt. Zur Widerlegung des klassischen Standpunktes ist es hinreichend, mit klassischen Methoden das
zu erreichen, was für unmöglich gehalten wird. Diese Widerlegung liegt nun in Form
eines konkreten, in Mathematica programmierten Computerprogrammes vor, das bis
ins letzte Detail realisiert, was unmöglich sein soll. Es gibt in endlichen Schritten für
jede beliebige Formel der pure first-order logic “False” oder “sat” aus, je nach dem,
ob die input-Formel kontradiktorisch ist oder nicht. Um diese Programm praktikabel
zu machen und anhand konkreter Formeln, die zur Klasse sogenannter “unentscheidbarer Formeln” gehören, zu erproben, mussten Optimierungen implementiert werden.
Es liegt also m.E. die geforderte konkrete Widerlegung von Churchs Theorem in Form
eines praktikablen und erprobten Computerprogrammes vor. Hiermit ist m.E. auch der
Maßstab gegeben, der erlaubt, die extensionale Semantik als inkorrekt zurückzuweisen.
Nicht die Entscheidbarkeit, sondern die den Unentscheidbarkeitsbeweisen zu Grunde
liegenden Interpretationen sind zurückzuweisen. Extensionale Semantik bietet keinen
Boden für verlässliche Beweisführungen.
Terminierung. Es sei zunächst darauf hingewiesen, dass das Verfahren vollständig
rekursionsfrei ist und überhaupt nur an einer einzigen Stelle eine Iteration durchgeführt
wird, für die eine Do-Until Bedingung eingebaut ist, für die zu beweisen ist, dass sie
auch erreicht wird. Dieser Beweis ist bereits ausgearbeitet. Er berechnet eine konkrete
oberste Schranke, nach der das Verfahren spätestens terminiert. Der Beweis ist jedoch
reicht umfangreich (50 Seiten), da er das Verständnis des Verfahrens voraussetzt. Mit
technischen Details will ich den Leser hier verschonen. Es sei bemerkt, dass auch mit
anderen, von meinem Beweis unabhängigen Mitteln die Terminierung des Programmes
aufgezeigt werden können sollte.
Korrektheit. Hierfür ist zweierlei zu beweisen: (i) Wenn das Programm “False” ausgibt, dann ist die input-Formel auch kontradiktorisch. (ii) Wenn das Programm “sat”
ausgibt, dann ist die input-Formel auch nicht kontradiktorisch. Beide Richtungen können allein auf Grund syntaktischer Überlegungen bewiesen werden. (i) ergibt sich daraus, dass sich sämtliche Schritte des Programmes auf bekannte Schlussregeln (insgesamt ca. 25 Regeln) zurückführen lassen. Für (ii) ist zunächst zu bemerken, dass an nur
zwei Stellen keine rein logische Äquivalenzumformung vorgenommen wird. In beiden
Fällen handelt es sich jedoch um sat-äquivalente Umformungen. Im ersten Fall wird eine Formel in negativer Normalform, die keinen Allquantor enthält, und gemäß eines in
Mathematica vordefinierten Befehls “Simplify” nicht kontradiktorisch ist, als erfüllbar
identifiziert. Es ist eine bekannte Tatsache, dass Formeln dieser Art nicht kontradiktorisch sind. Im zweiten Fall wird eine Allquantorbeseitigungsregel angewendet. Das
Verfahren realisiert sämtliche Allquantorbeseitigungen, die überhaupt nur zu Kontradiktionen führen können. Der entscheidende Unterschied zu bekannten Kalkülen besteht darin, eine oberste Schranke für die Anwendungen von Allquantorbeseitigungen
zu definieren. Warum dies möglich ist, bedürfte einer längeren Erläuterung, die ich hier
nicht geben kann. Ich kann hier nur auf den entscheidenden Grundgedanken hinweisen:
Bevor Allquantoren beseitigt werden, werden Formeln in DNF von FOL umgeformt,
wobei – genau gegenteilig zu pränexen Normalformen – die Wirkungsbereiche der
30
Quantoren maximal minimiert werden. Dies ermöglicht vor jeder Beseitigung eines
Allquantors ein syntaktisches Kriterium zu definieren, dass die Variablen identifiziert,
durch die die zu beseitigende allquantifizierte Variable ersetzt werden kann. Auf dieser
Basis lassen sich dann alle die Substitutionen realisieren, die überhaupt nur zu Kontradiktionen führen können. Der für die Beweisführung maßgebliche Punkt ist, dass
es allein syntaktische Erwägungen sind, anhand derer man einsehen kann, dass das
Verfahren alle Allquantorbeseitigungen ausschöpft, die überhaupt nur zu Kontradiktionen führen können. Es sei noch darauf hingewiesen, dass sich die Beweisidee von
(ii) wie die von (i) völlig trivialisieren ließe, wenn durchweg auf rein logische Äquivalenztransformationen Bezug genommen würde. Dies ist m.E. möglich, allerdings auf
Kosten eines praktikablen Programmes und eines sehr viel komplexeren Algorithmus.
Woher der Glaube an das Unmögliche? Die Grundüberlegungen des Programmes
samt der Überlegungen zur Terminierung und Korrektheit sind einfach und zumindest
in keiner Weise idiosynkratisch. Trotzdem ist der Glaube an dieses Programm nicht zu
haben, ohne sich voll darauf einzulassen. Dies geht nicht ohne geringen Zeitaufwand.
Abgesehen von allen Erwägungen historischer und philosophischer Art zur mathematischen Logik und zur New Logic und abgesehen von dem konkreten Vorschlag des
Programmes samt den Überlegungen zu seiner Terminierung und Korrektheit, kann
man sich fragen, warum bei so viel Arbeit zu FOL in den letzten 100 Jahren keiner
bislang auf ein derartiges Verfahren gekommen ist. Meines Erachtens liegt dies abgesehen davon, dass man seit 1936 im Allgemeinen nicht mehr nach einem universalen
Entscheidungsverfahren für FOL suchte, vor allem daran, dass distributive Normalformen in FOL nahezu gar nicht untersucht wurden. Ausnahmen bilden Behmann(1922)
und Hintikka(1973). Allerdings hat Hintikka brauchbaren Algorithmus angegeben, der
zu optimierten DNF in FOL führt, mit denen man tatsächlich arbeiten kann. Vor allem
haben ihn aber weder Überlegungen zur Explikation der logischen Form von FOLFormeln noch – wie noch Behmann vor Chruchs Beweis von 1936 – die Suche nach
Entscheidungsverfahren in FOL geleitet. Und selbst, wo man in der Praxis auf DNFs
in FOL gestoßen ist oder im Rahmen von Computeranwendungen von Ähnlichem Gebrauch macht, ist man ohne den Hintergrund und den Glaube an New Logic offensichtlich nicht hinreichend prädestiniert, die in diesem Konzept implizierten Vorzüge für
eine rein syntaktische Identifikation logischer Eigenschaften voll auszureizen. M.E.
kann der heuristische Hintergrund, den die mathematische Logik einerseits und New
Logic andererseits für die konkrete Ausarbeitung logischer Algorithmen liefert, kaum
überschätzt werden.
Nachdem Churchs Theorem allgemein anerkannt war, wurde das “Klassifikationsproblem”, das FOL-Formeln in entscheidbare und unentscheidbare Formelklassen unterteilt, als das nun zu lösende Problem angesehen und im Rahmen der mathematischen
Logik auch gelöst (vgl. Börger(2001)). Die Identifikation von Klassen unentscheidbarer Formeln beruht hierbei wiederum auf semantischen Überlegungen und der “Repräsentation” unlösbarer Probleme in der logischen Sprache. Wichtiger an dieser Stelle ist
die Tatsache, dass man sich durchweg an pränexen Normalformen orientiert, die vom
Standpunkt einer Explikation der logischen Form von Formeln völlig unbrauchbar sind.
Pränexe Normalformen liefern keine syntaktische Kriterien, um logische Eigenschaften
31
zu identifizieren, durch die Möglichkeiten der Wahrheit und Falschheit definiert werden können. In diesen Fahrwassern wird man im Rahmen der mathematischen Logik
Erkenntnisse sammeln können, aus dem Blickwinkel der New Logic hingegen bewegt
man sich in einer Sackgasse. M.E. kann einem nur der gezielte, von philosophischen
Überlegungen zur Explikation der Form von Ausdrücken justierte Blick die Richtung
weisen, die hier zu einem positiven Ergebnis gelangt. Ohne diese Richtschnur bleibt
man in dem Gewirr fehlgeleiteter Interpretationen missverständlicher äußerer Formen
verstrickt.
5
Literatur
Behmann(1922): “Beiträge zur Algebra der Logik, insbesondere zum Entscheidungsproblem”, Mathematische Annalen 86, 1922, S. 163-229.
Boolos(2003): Boolos George S., Burgess John P., Jeffrey Richard C., “Computability
and Logic”, Cambridge University Press, Cambridge.
Börger(2001): Börger Egon, Grädel Erich, Gurevich Yuri: “The classical Decision
Problem”, Springer, Berlin.
Brendel(1992): Brendel Elke, “Die Wahrheit über den Lügner. Eine philosophischlogische Analyse der Antinomie des Lügners, De Gruyter, Berlin.
Etchemendy(1990): Etchemendy John, “The Concept of Logical Consequence”, Harvard University Press, Cambridge / Mass.
Farlane(2000): “What is Modeled by Truth in All Models?”, unpublished.
Garcia-Carpintero(1993): García-Carpintero Sánchez-Miguel Manuel, “The Grounds
of the Model-Theoretic Account of the Logical Properties” Notre Dame Journal
of Formal Logic 34 (1993), S. 107-131.
Hintikka(1973): Hintikka Jaakko, “Distributive Normal Forms in First-Order Logic”,
in: Logic, Language-Games and Information, Clarendon Press, Oxford.
Mühlhölzer(2010): Mühlhölzer Felix, “Braucht die Mathematik eine Grundlegung?”,
Klostermann, Frankfurt.
Kvasz(2008): Kvasc Ladislav, “Patterns of Change, Linguistic Innovations in the Development of Classical Mathematics”, Birkhäuser, Basel.
Landini(2008): Landini Gregory, “Wittgenstein’s Apprenticeship with Russell”, Cambridge University Press, Cambridge.
Potter(2009): Potter Michael, “Wittgenstein’s Notes on Logic”, Oxford University
Press, Oxford.
Redecker(2006): Redecker Christine, “Wittgensteins Philosophie der Mathematik”,
Ontos, Frankfurt.
32
Smith(2007): Smith Peter, “Gödel’s Theorem”, Cambridge University Press, Cambridge.
Shapiro(1998): Stewart Shapiro, “Logical Consequence: Models and Modality”, in:
Schirn, Philosophy Of Mathematics Today 1998, S. 131-156.
Thomson(1962): Thomson J.F., “On Some Paradoxes”, in: Butler, J.R., Analytical
Philosophy, Blackwell, Oxford, S. 104-119.
33
Herunterladen