1 LOGIK I: EINFÜHRUNG IN DIE AUSSAGEN- UND PRÄDIKATENLOGIK GERHARD SCHURZ SKRIPTUM Zum Basisseminar Logik I an der Uni Düsseldorf Basierend auf der Vorversionen von 1996 an der Uni Salzburg Wesentlich überarbeitete Fassung (Schreibfehler können nicht ausgeschlossen werden. Meldungen solcher an [email protected] werden mit Dank entgegengenommen) 2 INHALTSVERZEICHNIS Die mit * bezeichneten Kapitel werden nicht behandelt (oder nur gestreift) TEIL A: AUSSAGENLOGIK 1. Allgemeine Grundlagen 1.1 Ziele der Logik - 1.2 Gültigkeit von Schlüssen und logische Form - 1.3 Zusammenhang von gültigen Schlüssen und logisch wahren (allgemeingültigen) Aussagen - 1.4 Extensionale versus intensionale Satzoperatoren - Aussagenlogik, Modallogik, Prädikatenlogik - 1.5 Satz, Aussage, Aussageform, Aussageschema - 1.6 Logische Sprache, Syntax, und Semantik. Logische Methoden und Komplexität - 1.7 Semantische Grundannahmen der klassischen (Aussagen)Logik. Historischer Kurzexkurs - *1.8 Deduktive Logik versus andere Bedeutungen von "logisch" - 1.8.1 Analytische Wahrheit - 1.8.2 Induktive und unsichere "Logik" - 1.8.3 "Logik" im Alltag - 1.9 Praktische Anwendungen und Nutzen der Logik 2. Junktoren und ihre Wahrheitstafeln 2.1 Die wichtigsten Junktoren der Aussagenlogik - 2.2 Zusammenhang der Junktoren mit den entsprechenden Verknüpfungsbegriffen der natürlichen Sprache - 2.3 Die Wahrheitstafel definierter Junktoren und deren Definition - 2.4 Kombinatorik der Wahrheitstafeln und Wahrheitswertfunktionen 3. Aussagenlogische Sprache 3.1. Beliebig komplexe Aussagen und Schemabuchstaben - 3.2. Die Sprache der Aussagenlogik - 3.3. Konstruktionsbaum und Klammerung - 3.4 Teilaussagen, und ihre charakteristischen Junktoren 4. Aussagenlogische Semantik I: Die Wahrheitstafelmethode 4.1 Bestimmung der Wahrheitswerte komplexer Aussagen - 4.2 Die Wahrheitstafelmethode: Logisch wahre, logisch falsche und kontingente Aussagen. Gültige und ungültige Schlüsse - 4.3. Aussage- und Schluß-Schemata. Uniforme Einsetzung und Substitution - 4.4 Exkurs: Objektsprache und Metasprache - 4.5 Vereinfachungen der Wahrheitstafelmethode - 4.6 Die kombinatorische Explosion der Wahrheitstafelmethode. Entscheidbarkeit und Komplexität 5. Aussagenlogische Semantik II: Die Reductio ad Absurdum Methode 6. Repräsentierung natürlichsprachiger Sätze und Argumente 6.1 Arten natürlichsprachiger Sätze und *Arten und Rekonstruktionstiefe von Logiken 6.2 Repräsentierung in der Aussagenlogik 7. Wichtige aussagenlogische Schlüsse, Theoreme und Metatheoreme 8. Deduktive Methode 8.1 Das aussagenlogische System des natürlichen Schließens S - *8.2 Korrektheit, Vollständigkeit, Entscheidbarkeit, Ökonomie und Beweisheuristik. Andere Kalkülarten *8.3 Der aussagenlogische Äquivalenzkalkül Ä 3 TEIL B. PRÄDIKATENLOGIK 9. Grundlagen der Prädikatenlogik 10. Die Sprache der Prädikatenlogik (1. Stufe) 11. Repräsentierung in der Prädikatenlogik 12. Semantik der Prädikatenlogik 12.1 Sprachphilosophie: Extension und Intension, *12.2 Exkurs in die mengentheoretischeSemantik der PL 13. Deduktive Methode in der Prädikatenlogik 14. Weitere logische Wahrheiten und Beweismethoden in der PL 14.1 Logische Wahrheiten *14.2 Der prädikatenlogische Äquivalenzkalkül ÜBUNGEN 4 TEIL A: AUSSAGENLOGIK 1. Allgemeine Grundlagen 1.1 Ziele der Logik Argumentieren bzw. schlußfolgern heißt, aus der angenommenen Wahrheit gewisser Sätze - der Prämissen - auf die Wahrheit eines anderen Satzes - der Konklusion - zu schließen. Einen solchen Schluß schreiben wir in folgende Form: Prämisse 1 Prämisse 2 . . Prämisse n Conclusion z.B. (Schluß mit 2 Prämissen): Wenn es regnet, ist die Straße naß Es regnet Also ist die Straße naß Primär verfolgt die Logik zwei Ziele: 1. Herausfinden, wann ein solcher Schluß gültig ist. Alle gültigen Schlüsse angeben können. 2. Damit zusammenhängend: alle logisch wahren oder (gleichbedeutend) allgemeingültigen Sätze angeben können. Wir charakterisieren die Gültigkeit von Schlüssen vorläufig wie folgt: Ein Schluß ist gültig, wenn folgendes notwendig (also unter allen denkmöglichen Umständen) zutrifft: Immer dann, wenn alle Prämissen wahr sind, ist auch die Conclusion wahr. Anders formuliert: Ein Schluß ist gültig, wenn folgendes unmöglich ist (also unter keinen denkmöglichen Umständen zutrifft): Alle Prämissen sind wahr, aber die Conclusion falsch. Die Gültigkeit eines Schlusses hängt also nicht davon ab, ob alle Prämissen wahr sind - es gibt auch gültige Schlüsse, bei denen falsche Prämissen benutzt wurden. Die Gültigkeit besagt nur: Wenn alle Prämissen wahr wären, müßte mit Sicherheit auch die Conclusion wahr sein (z.B.: "Gedankenexperiment: wenn ich größer wäre als 2m, wäre meine Hälfte mit Sicherheit größer als 1m"). Man wird fragen: wozu dient mir ein gültiges Argument, wenn ich nicht 5 weiß, ob die Prämissen wahr sind? Dazu siehe Kap. 1.9. Man kann Erkenntnisse über die Gültigkeit von Argumenten nicht nur dann anwenden, wenn man die Wahrheit der Prämissen kennt - obwohl das natürlich ein wichtigster und vielleicht der wichtigste Anwendungsfall ist. Jedenfalls muß man die Erkenntnis der Gültigkeit eines Argumentes von der Erkenntnis der Wahrheit seiner Prämissen klar unterscheiden -- ersteres ist eine logische Frage, letzteres ist eine empirische Frage, ersteres entscheidet der Logiker, letzteres entscheidet der empirische Wissenschaftler. Man sagt auch: logisch gültige Schüsse sind wahrheitserhaltend: sie erhalten die Wahrheit der Prämissen und übertragen diese auf die Konklusion. Beispiele: (1) Wenn es regnet, ist die Straße naß Es regnet Also ist die Straße naß (1) ist ein gültiger Schluß, egal ob die Prämissen wahr oder falsch sind, also ob es tatsächlich regnet oder nicht, und auch unabhängig davon ob wir uns in einem Tunnel befinden während es regnet. Regnet es nicht, ist die zweite Prämisse falsch; regnet es und wir befinden uns in einem Tunnel, ist die erste Prämisse falsch. Sind aber beide Prämissen wahr, dann ist notwendigerweise die Stasse nass. (2) Wenn es regnet, ist die Straße naß Die Straße ist naß Also regnet es (2) ist ein ungültiger Schluß, auch wenn "zufälligerweise" beide Prämissen und die Conclusion wahr sind. Denn das ist nicht notwendig so: beispielsweise könnte die Straße von einem Straßenreinigungsgerät naßgespritzt worden sein, während die Sonne schien, also es nicht regnete. 1.2 Gültigkeit von Schlüssen und logische Form Die Definition der Gültigkeit eines Schlusses im Abschnitt 1.3.1. war etwas vage und unexakt, weil nicht klar ist, was mit "notwendig" hier genau gemeint ist. Es ist hierbei natürlich nur eine sehr enge Art von Notwendigkeit gemeint, nämlich aussagenlogische Notwendigkeit, welche wir später noch exakt de- 6 finieren werden. Vorläufig aber können wir uns die Art von Notwendigkeit, um die es hier geht, durch bloße Betrachtung der logischen Form von Schlüssen klarmachen: Dass Schluß (1) notwendig von wahren Prämissen zu wahrer Conclusion führt, liegt an seiner logischen Form: jeder Schluß, der dieselbe Form wie (1) hat, muß ebenfalls gültig sein. Schlüsse mit der logischen Form wie (1) sind z.B.: (1') Wenn es regnet, brennt die Erde. Es regnet. (Also:) Die Erde brennt. (1") Wenn ich auf den Knopf drücke, geht das Radio an. Ich drücke auf den Knopf. (Also:) Das Radio geht an. In einer denkbaren Welt, in der die Prämissen von (1') tatsächlich wahr wären (z.B. in einer, wo die Erde aus Natrium besteht, das im Verein mit Wasser flammenwerfend reagiert und wo es gerade regnet), wäre notwendigerweise auch die Conclusio wahr. Die Ungültigkeit von (2) hingegen erkennt man daran, dass es Schlüsse von derselben Form wie (2) gibt, wo alle Prämissen wahr sind, die Conclusio aber falsch. Z.B.: (2') Wenn ein Fahrschein 5 Cent kostet, dann kostet er gewiß nicht mehr als mein Haus Ein Fahrschein kostet gewiß nicht mehr als mein Haus Also kostet ein Fahrschein 5 Cent Um die logische Form eines Schlusses herauszufinden, muß man - generell gesprochen - den Schluß in zwei Arten von Bestandteilen zerlegen: seine inhaltlichen und seine logischen Bestandteile. Die inhaltlichen Bestandteile sind in der Aussagenlogik die elementaren Aussagen, also die nicht weiter zerlegbaren Aussagen wie "Es regnet", "Die Straße ist naß" im Beispiel (1). Die logischen Bestandteile sind in der Aussagenlogik die logischen Verknüpfungsausdrücke, sie heißen auch Junktoren oder Konnektive oder (wahrheitsfunktionale) Satzoperatoren - wie das "wenn - dann" im Beispiel (1). Eine analoge Unterscheidung gilt aber auch für erweiterte Logiksysteme, wie die Prädikatenlogik oder die Modallogik. Generell unterscheidet man in einer logischen Sprache zwischen den nichtlogischen Symbolen oder Begriffen - jene Symbole oder Be- 7 griffe, die Inhalte oder "Dinge" der Realität bezeichnen - und den logischen Symbolen oder Begriffen - jenen Symbolen, die rein logisch-struktureller Natur sind und sozusagen mit der logischen Form der Sprache zu tun haben. Die logische Form eines Schlusses erhält man ganz allgemein, indem man alle nichtlogischen Begriffe bzw. Bestandteile durch Platzhalter respektive Variablen ersetzt. In der Aussagenlogik heißt das, man erhält die logische Form, indem man die elementaren Aussagen durch Aussagenvariable (Symbole für atomare Aussagen) ersetzt, für die wir kurz p, q, r, ... schreiben. Für das "wenn - dann" schreibt man auch einen Pfeil (- und sagt dazu: "(materiale) Implikation"). Damit lautet die logische Form von (1): (1*) pq p q (1*) heißt auch: Modus Ponens Die Gültigkeit von (1*) gemäß unserer ursprünglichen Definition in Kap. 1.2 besagt nun präzise folgendes: Welche Aussage ich für die Variable p und welche ich für q auch immer einsetze - es wird in keiner möglichen Einsetzung der Fall auftreten, dass beide Prämissen wahr sind, aber die Conclusion dennoch falsch ist. Z.B.: Einsetzung: p - Es regnet q - Die Straße ist naß führt zu Schluß 1. Einsetzung: p - Es regnet q - Die Erde brennt führt zu Schluß 1'. Einsetzung p - Ich drücke auf den Knopf q - Das Radio geht an führt zu Schluß 1". Merke: Alle Übersetzungen zwischen Zeichen der logischen Sprache X und natursprachlichen Sätzen (...) werden wir in Zukunft durch einen Strich andeuten, also: X - (...) lies: X bedeutet (...) Natürlich muß ich für p an jeder Stelle denselben Satz einsetzen; und ebenso für q. -- Also z.B. 8 Wenn es regnet, ist die Straße naß Es schneit Die Straße ist naß ist keine korrekte Einsetzung von p q p q sondern vielmehr eine Einsetzung von p q r q Die logische Form von Schluß (2) lautet: (2*) p q q p Die Ungültigkeit von (2*) erkennt man eben daran, dass es Einsetzungen gibt, bei denen alle Prämissen wahr werden, die Conclusio aber falsch wird. Z.B. die Einsetzung von (2'): p = ein Fahrschein kostet 5 Cent q = ein Fahrschein kostet gewiß nicht mehr als mein Haus (- Tatsächlich kostet ein Fahrschein, sagen wir, 100 Cent.) Freilich kann es auch bei ungültigen Schlußformen Einsetzungen geben, die alle Prämissen wahr machen und die Conclusio wahr machen, z.B. im obigen Beispiel (2*), p = ein Fahrschein kostet 100 Cent, q = wie oben. Aber das genügt nicht für die Gültigkeit eines Schlusses. Es darf keine einzige Einsetzung geben, die die Prämissen wahr macht, aber die Conclusion falsch macht. Nur dann ist mit Sicherheit gewährleistet, dass ein solcher Schluß uns nie in die Irre führen wird. Und nur dann eben wollen wir ihn logisch gültig oder kurz: gültig nennen. Damit gelangen wir zu folgender präzisen Definition: Eine Schlußform ist gültig g.d.w. (= genau dann, wenn) - in allen jenen Einsetzungen dieser Schlußform, worin alle Prämissen wahr sind, auch die Conclusion wahr ist, (bzw. gleichbedeutend:) - es keine Einsetzung dieser Schlußform gibt, bei der alle Prämissen wahr sind, die Conclusion aber falsch ist. 9 Und: Ein Schluß ist gültig gdw. seine Schlußform gültig ist. D.h., ist ein Schluß gültig, so sind automatisch alle Schlüsse von seiner Form gültig. Diese Definition hat drei charakteristische Merkmale: 1. Sie ist allgemein, d.h. sie gilt für alle Logiken, nicht nur für die Aussagenlogik. Der Unterschied ist nur, dass in anderen Logiken andere nichtlogische und logische Symbole hinzukommen. 2. Dass die Gültigkeit eines Schlusses nur von seiner logischen Form abhängt und also bestehen bleibt, wenn man seine nichtlogischen Begriffe bzw. Bestandteile durch Variablen ersetzt, drückt in anderen Worten aus, dass die Gültigkeit eines Schlusses nur von der Bedeutung der in ihm vorkommenden logischen Begriffe (Symbole) abhängt: Die logische Gültigkeit eines Schlusses hängt, ebenso wie die logische Wahrheit einer Aussage, nur von der Bedeutung seiner logischen Symbole ab. Genau deshalb ist die logische Gültigkeit bzw. logische Wahrheit unabhängig von der Beschaffenheit der wirklichen Welt, ja sogar unabhängig von dem nichtlogischen Begriffsrepertoir der natürlichen Sprache. 3. Die Definition liefert uns eine Methode, einen Schluß als ungültig zu erweisen, denn hierfür genügt es, ein Gegenbeispiel zu finden, d.h. ein Beispiel wo alle Prämissen wahr aber die Konklusion falsch. Sie liefert uns aber keine Methode, Schlüsse als gültig zu beweisen, denn es ist unmöglich, alle - unendlich vielen - Einsetzungsmöglichkeiten von natursprachlichen Elementarsätzen zu durchlaufen. -- Daher ist auch diese Definition noch nicht die entgültige, exakt logische Definition. Statt natursprachliche Sätze für die Aussagevariablen einzusetzen, setzt man etwas anderes ein - in der Aussagenlogik Wahrheitswerte, in der Prädikatenlogik Mengen und Individuen, in der Modallogik mögliche Welten Mengen. Diese Definitionen sind aber logikspezfisch. Die allgemeine, für alle Logiksysteme geltende Definition kann nur in obiger Form gegeben werden. Aufgrund einer spezifischen Eigenschaft der Junktoren bzw. Satzoperatoren der Aussagenlogik (im engeren Sinn), nämlich aufgrund ihrer Wahrheitswertfunktionalität, genügt es in der Aussagenlogik, alle möglichen Wahrheitswerte - alle Kombinationen von wahr/falsch - für die Aussagenvariablen einzusetzen; man muß nicht alle möglichen natursprachlichen Elementarsätze ein- 10 setzen. Dazu kommen wir nun. 1.3 Zusammenhang von gültigen Schlüssen und logisch wahren (allgemeingültigen) Aussagen Ziel der Logik ist es nicht nur, alle gültigen Schlüsse herauszufinden, sondern wie wir sagten auch, alle logisch wahren Sätze herauszufinden. Zwischen beiden besteht ein einfacher Zusammenhang. Die Struktur von Schlüssen läßt sich nämlich immer in die Form eines Wenn - dann - Satzes kleiden: man setze einfach nach dem "wenn" die Konjunktion (Undverknüpfung) aller Prämissen und nach dem "dann" die Conclusion. So entspricht dem Schluß (3) Wenn es regnet, ist die Straße naß Es regnet Die Straße ist naßder komplexe Wenn - dann - Satz (die umständliche Grammatik darf den Logiker nicht stören): (3') Wenn gegeben ist: (Wenn es regnet, ist die Straße naß, und: es regnet), dann ist die Straße naß. Bzw. der Schlußform (4) p q p q entspricht die Aussageform (4') ((p q) und p) q wobei die Klammern zeigen, was jeweils zusammengehört. So wie es in Schluß (4) unmöglich ist, dass die Prämissen (p q) und p wahr, aber die Conclusion q falsch ist, so ist es bei der zugeordneten Wenn - dann Aussage (4') unmöglich, dass das Vorderglied bzw. Wenn-Glied ((p q) und p) wahr ist, aber das Hinterglied bzw. Dann-Glied q falsch ist. Wir nennen eine solche Wenn - dann - Aussage logisch wahr oder allgemeingültig. Jedem gültigen Schluß entspricht daher eine zugeordnete logisch wahre Wenn - dann Aussage. Es gibt noch andere Beispiele logisch wahrer Aussagen, die nicht in dieser Weise gültigen Schlüssen entsprechen, z.B. "p oder nicht p". Generell können wir die logische Wahrheit von Aussagen analog wie bei Schlüssen so definieren: 11 Eine Aussageform ist logisch wahr g.d.w. (= genau dann, wenn) jede ihrer Einsetzungen wahr ist. Und: Eine Aussage ist logisch wahr gdw. ihre Aussageform logisch wahr ist. D.h., ist eine Aussage logisch wahr, so sind automatisch alle Aussagen ihrer Form logisch wahr. 1.4 Extensionale versus intensionale Satzoperatoren - Aussagenlogik, Modallogik, Prädikatenlogik Wir unterscheiden zwischen Aussagenlogik im engeren Sinn, kurz einfach Aussagenlogik, und Aussagenlogik im erweiterten Sinn, womit wir die intensionale Aussagenlogik bzw. verallgemeinert-modale Aussagenlogik meinen. Die logischen Symbole der Aussagenlogik im erweiterten Sinn sind Satzoperatoren. Das sind, von ihrer grammatischen Kategorie her, Operatoren, die angewandt auf einen oder mehrere Sätze wieder einen Satz ergeben. Es gibt ein- und mehrstellige Satzoperatoren. Z.B. ist "nicht" ein einstelliger Satzoperator, der angewandt auf einen Satz p den Satz nicht p, oder es ist nicht der Fall, dass p, ergibt. Ebenso ist notwendig ein Satzoperator, der angewandt auf einen Satz p den Satz "es ist notwendig, dass p" (kurz: notwendig p) ergibt. "Und" ist ein zweistelliger Satzoperator, der angewandt auf zwei Sätze p, q den Satz "p und q" ergibt. In Funktionalschreibweise könnte man auch nicht(p), oder und(p,q) schreiben. Ein Satzoperator ist also eine bestimmte Art einer Funktion. Generell gesagt ist eine Funktion eine allgemeine Zuordnungsvorschrift, die in Anwendung auf eine oder mehrere Entitäten eines bestimmten Typs wieder eine Entität eines bestimmen Typs erzeugt. Die Entitäten, auf die eine Funktion angewandt wird, nennt man ihre Argumente. Eine einstellige Funktion hat ein Argument, eine n-stellige hat n Argumente. Ein n-stelliger Satzoperator erzeugt in Anwendung auf n Sätze wieder einen Satz; seine Argumente sind also Sätze. Analog in der Arithmetik ist"+" eine Funktion, die in Anwendung auf zwei Zahlen x und y wieder eine Zahl, nämlich die Zahl "x+y". Der Ausdruck, der nach Anwendung einer Funktion auf ihre Argumente entsteht, nennen wir die Anwendung der Funktion, oder den Funktionsterm. Die Anwendung des nichtSatzoperators ist ein Satz der Form "nicht p", die Anwendung des undOperator ein Satz der Form "p und q", usw. Die Satzoperatoren der Aussagenlogik (im engeren Sinn) haben eine ganz besondere Eigenschaft: sie sind wahrheitswertfunktional. Man sagt auch, sie sind extensional. Das ist folgende Eigenschaft: 12 Ein Satzoperator ist wahrheitswertfunktional bzw. extensional, wenn der Wahrheitswert seiner Anwendung immer und eindeutig durch die Wahrheitswerte seiner Argumente bestimmt ist. Wahrheitswerte gibt es - zumindest in der klassischen Logik - nur zwei: "wahr"und "falsch": ein Satz ist entweder wahr oder falsch. Zum Beispiel ist "nicht" ganz offensichtlich extensional: ein Satz der Form "nicht p" ist wahr genau dann wenn (g.d.w.) p falsch ist, und er ist falsch g.d.w. p wahr ist. Ebenso ist "und" offenbar extensional, denn "p und q" ist nur dann wahr, wenn sowohl p wie auch q wahr sind, und andernfalls falsch. "Nicht" und "Und" sind extensional: weiß ich die Wahrheitswerte ihrer Argumente, so kann ich daraus - unabhängig davon, was ihre Argumentsätze bedeuten - auf die Wahrheit der Sättigung, der komplexen bzw. zusammengesetzten Aussage schließen. Nur wenige Satzoperatoren sind extensional. Viele sind nicht extensional man nennt sie dann intensional. Ein Beispiel ist der einstellige Satzoperator "notwendig". Ob ein Satz der Form "notwendig p" wahr ist, hängt nicht nur davon ab, ob p tatsächlich wahr ist, sondern hängt von der spezifischen Bedeutung von p ab, aus der erst hervorgeht, ob die Wahrheit von p wirklich durch irgendeine Art von "Notwendigkeit" zustandekam oder nicht. Beispiel: Gras ist grün wahr Notwendigerweise ist das Gras grün falsch 2+2 = 4 wahr Notwendigerweise gilt 2 + 2 = 4 wahr Der erste Satz ist "empirisch" wahr, aber nicht notwendig; der zweite Satz ist nicht nur tatsächlich wahr, seine Wahrheit gilt auch mit (mathematischer) Notwendigkeit. Generell zeigt man die Nichtextensionalität eines Satzoperator O indem man zwei Bespiele von natursprachlichen Sätzen N1, N2 findet, derart, dass N1 und N2 denselben Wahrheitswert haben (z.B. beide wahr), aber ON1 und ON2 verschiedene Wahrheitswerte haben (z.B. erster wahr, zweiter falsch). Es gibt noch viele andere Arten von Satzoperatoren, die intensional sind. Beispielsweise "es ist möglich dass", "es ist wertvoll, dass", "es ist wahrscheinlich, dass", usw. Mit intensionalen Satzoperatoren beschäftigt sich die intensionale Aussagenlogik bzw. die verallgemeinerte Modallogig. Die Modallogik entstand ursprünglich als eine intensionale Logik der Satzoperatoren "notwendig", "möglich", "unmöglich", der sogenannten alethischen Satzoperato- 13 ren; mit Modallogik im engeren Sinne meint man die alethische Modallogik. Später wurde aber die Modallogik und spezielle ihre Semantik auf so gut wie alle anderen Arten von intensionalen Satzoperatoren erweitert - weswegen man hier von verallgemeinerter Modallogik spricht. Die "Semantik" der Modallogik - also das, was hier der Aussagevariablen zugeordnet wird - geht natürlich über bloße Wahrheitswerte hinaus: hier werden den Aussagevariablen Mengen von möglichen Welten zugeordnet, nämlich jene Welten, in denen die Aussagevariablen wahr sind. Im folgenden beschäftigen wir uns nur mit Aussagenlogik im engen Sinne, kurz Aussagenlogik. Extensionale Satzoperatoren nennen wir auch Junktoren. Die Elementarsätze der Aussagenlogik sind jene Sätze, die - wie man sagt wahrheitswertfunktional unzerlegbar sind. S. hierzu auch Kap. 6.1. Die Wahrheitswertfunktionalität der aussagenlogischen Junktoren ermöglicht, wie wir bereits andeuteten, ein besonders einfaches Verfahren, die logische Gültigkeit von Schlüssen bzw. logische Wahrheit von Aussagen zu ermitteln: statt den Aussagevariablen alle möglichen natursprachlichen Sätze zuzuordnen, brauchen wir ihnen nur alle möglichen Kombinationen der beiden Wahrheitswerte wahr/falsch zuzuordnen - dies ist die Wahrheitstafelmethode, die wir im nächsten Kapitel besprechen. Die Prädikatenlogik, die wir später behandeln, zerlegt elementare Aussagen in noch kleinere Bestandteile: in Individuenbezeichnungen (Eigennamen), Prädikate (Eigenschafts- oder Artbezeichnungen, Relationen). Als neue logische Zeichen kommen sogenannte Quantoren ("für alle" und "für mindestens ein") hinzu. Z.B. zerlegt die Prädikatenlogik die elementare Aussage "Sokrates ist sterblich" in die Bestandteile a - Sokrates (die Individuenbezeichnung) F - sterblich (die Eigenschaftsbezeichnung) und schreibt die Aussage in die logische Form: Fa. Oder die elementare Aussage "Alle Menschen sind sterblich" wird zerlegt in: M - Mensch S - sterblich und geschrieben als: x(Mx Sx) lies: für alle x gilt: wenn x ein Mensch ist, so ist x sterblich ( ist der Allquantor). Wir behandeln die Prädikatenlogik in Teil B. 14 1.5 Satz, Aussage, Aussageform, Aussageschema Unter einer Aussage verstehen wir ganz allgemein einen Satz, der eine deskriptive Behauptung macht und wahr oder falsch sein kann. In der natürlichen Sprache ist die Unterscheidung zwischen "Satz" und "Aussage" wichtig (Kap. 6). In der Logik, speziell der Aussagenlogik, interessieren wir uns nur für Aussagesätze - hier verwenden wir die Begriffe "Satz" und "Aussage" gleichbedeutend. Nicht nur das - in der Logik interessieren uns nie konkrete natürlichsprachige Aussagen, sondern nur die zugrundeliegenden Aussageformen, worin die elementaren Aussagen durch Aussagevariable ersetzt wurden. Ebenso interessieren uns nicht konkreten Schlüsse, sondern nur die zugrundeliegenden Schlußformen. Daher sagen wir in im folgenden einfach "Aussage" und "Schluß", wenn wir es mit einer Aussageform oder Schlußform zu tun haben. Vereinfachung der Sprechweise in der Logik: Wir verwenden die Begriffe "Satz", "Aussage" und Aussageform" in gleicher Bedeutung, ebenso die Begriffe "Schluß" und "Schlußform". Eine diesbezügliche Unterscheidung wird nur nötig, wenn wir logische Sprachen mit natürlichen Sprachen vergleichen. So nennen wir beispielsweise pq einen Satz bzw. eine Aussage. In der Logik wird eine andere Unterscheidung wichtig werden, die zwischen Aussage und Aussageschema. Wir verwenden A, B, C, ... als sogenannte Schemabuchstaben, sie stehen für beliebige, nicht nur für elementare Aussagesätze. AB nennen wir ein Aussageschema (Satzschema). Der Unterschied ist hier der, dass in pq p und q immer nur für elementare Aussagesätze stehen dürfen, während in AB A und B für beliebige, also auch komplexe Aussagesätze stehen dürfen. Analoges gilt für die Unterscheidung Schluß und Schlußschema. Näheres in Kap. 2 und 4.3. 1.6 Logische Sprache, Syntax, und Semantik. Logische Methoden und Komplexität Um ein logisches System aufzubauen, muß in einem ersten Schritt einmal die logische Sprache genau definiert werden. Erst wenn das getan ist, kann man nach exakten Methoden der Auffindung von gültigen Schlüssen und logisch wahren Aussagen fragen. Diese Methoden zerfallen in zwei Hauptarten: die semantischen Methoden und die syntaktischen Methoden. Generell versteht man in der Sprachphilosophie und Sprachwissenschaft unter der Semantik jene Disziplin, die die Bedeutung und/oder den Weltbezug 15 sprachlicher Ausdrücke behandelt. Die Syntax ist dagegen jene Disziplin, die von Bedeutungen abstrahiert und nur die grammatische oder logische Form von sprachlichen Ausdrücken untersucht. Analoges gilt für die logische Semantik und logische Syntax. In ersterer wird den Aussagen bzw. ihren Bestandteilen etwas zugeordnet, das für deren logisch relevante Bedeutung steht, in der letzeren untersucht man nur die logischen Formeigenschaften von Aussagen und die damit verbundenen logischen Regeln. Die Unterscheidung zwischen logischer Syntax und logischer Semantik ist für alle Logiken grundlegend. Speziell in der Semantik der Aussagenlogik ordnet man den Aussagenvariablen Wahrheitswerte zu - nämlich "wahr" oder "falsch", und sucht nach einem Weg, um alle Möglichkeiten solcher Wahrheitswertzuordnungen überschauen zu können, um so herauszufinden, ob ein Schluß gültig bzw. eine Aussage logisch wahr ist. Man nennt dies die Wahrheitstafelmethode - die einfachste semantische Methode der Aussagenlogik. Man beachte, dass der oben definierte Begriff der logischen Gültigkeit und der logischen Wahrheit selbst ein semantischer Begriff ist, da er mit Wahrheitswerten operiert. Die wichtigste syntaktische Methode der Logik ist die deduktive Methode. Hier sucht man nach einigen grundlegenden Regeln des logischen Schließens, auf die alle logischen Schlüsse bzw. logisch wahren Sätze zurückgeführt werden können. Diese Regeln orientieren sich allein an der logischen Form von Aussagen - sie lauten etwa: "wenn p q und wenn p behauptet werden darf, darf auch q behauptet werden". Da man bei der deduktiven Methode den Aussagen nichts zuordnet, sondern nur ihre Form betrachtet, ist die deduktive Methode eine syntaktische Methode. Natürlich will man, dass die semantischen Methoden zur Findung gültiger Schlüsse und die syntaktisch-deduktiven Methoden letztlich zum selben Ergebnis führen - was man durch sogenannte Korrektheits- und Vollständigkeitsbeweise ausdrückt. Dass diese verschiedenen Methoden zum selben Ergebnis führen, heißt aber nicht, dass sie überflüssig sind. Eine wichtige Eigenschaft von logischen Methoden ist ihre Komplexität. (Die Komplexitätstheorie ist insbesondere in der Künstlichen Intelligenzforschung und Computerlogik entwickelt worden.) Darunter versteht man ganz allgemein den Berechnungsaufwand, bzw. die Anzahl elementarer Schritte und damit die Rechenzeit - die nötig ist, um mit einer solchen Methode für gegebene Schlüsse herauszufinden, ob sie gültig sind oder nicht. Hinsichtlich ihrer Komplexität können sich nun im Ergebnis äquivalente Methoden für verschiedene Anwendungsbereiche gewaltig unterscheiden! Wir werden solche Beispiele bald kennenlernen. Eben deshalb braucht man verschiedene (wenn im Ergebnis auch Äquivalente) Methoden. 16 Auch der oben erwähnte erste Schritt, nämlich die Definition der logischen Sprache, gehört auch zum rein syntaktischen Bereich der Logik. Wir werden in den folgenden Kapiteln so vorgehen: zuerst definieren wir die logische Sprache (Syntax), dann führen wir die semantischen Methoden ein (Semantik), und dann entwickeln wir die deduktive Methode (wieder Syntax). 1.7 Semantische Grundannahmen der klassischen (Aussagen)Logik. Historischer Kurzexkurs Die semantische Grundannahme der sogenannten klassischen Logik (Aussagen-, Prädikaten- und Modallogik) ist sehr einfach: Jede Aussage ist entweder wahr oder falsch (Prinzip der Zweiwertigkeit) Man kann dieses Zweiwertigkeitsprinzip auch in zwei Teilprinzipien aufspalten: -- Jede Aussage ist wahr oder falsch, einen "dritten" Wahrheitswert gibt es nicht (Prinzip des ausgeschlossenen Dritten, formal: A oder nicht-A) -- keine Aussage ist zugleich wahr und falsch (Nichtwiderspruchsprinzip, formal nicht(A und nicht-A). Beide die Prinzipien gehen auf Aristoteles zurück. Bereits Aristoteles hatte eine Logik entwickelt, die sogenannte Syllogistik, auf die wir im Abschn. über Prädikatenlogik kurz eingehen. Interessanterweise hat sich die Logik seit Aristoteles bis Anfang des 20. Jahrhunderts kaum verändert. Es gab in der Spätscholastik des Mittelalters eine Weiterentwicklung, sie aber keinen entscheidenden Durchbruch bewirkte. Der Durchbruch zur sogenannten modernen Logik fand erst im 20. Jahrhundert statt. Ein Pionier der Aussagenlogik, im Gewande der Mengenalgebra, war George Boole. Die Grundlagen der Prädikatenlogik wurden teilweise von Charles Sanders Peirce, voralledem aber von Gottlob Frege entwickelt. Bertrand Russell hat sie dann weiter perfektioniert, auch Wittgenstein hatte daran einen Anteil. Die logische Semantik geht auf den polnischen Logiker Alfred Tarski zurück (30er Jahre). Seit damals hat die mathematische Logik sich enorm schnell weiterentwickelt. Die schon erwähnte Modallogik geht auf Carnap und Lewis zurück und wurde in den 50ern von Saul Kripke und Jakkao Hintikka formal ausgebaut. Man müßte hier noch viele weiteren Namen nennen. Im Zuge dieser jüngeren Entwicklungen entstanden auch sogenannte nichtklassische Logiken - voralledem sogenannte mehrwertige Logiken, die mehr als zwei Wahrheitswerte annehmen (oder die sogenannte "intuitionistische" 17 Logik). Das philosophische Hauptargument zugunsten der Annahme der Zweiwertigkeit ist folgendes. Die Begriffe "wahr" und "falsch" haben nichts mit unseren epistemischen Einstellungen zu tun, sondern sind ontologischer Natur. Dass ein Satz wahr ist, soll also keineswegs heißen, dass wir uns seiner sicher sind, oder dass wir ihn definitiv verifiziert haben; ebenso dass er falsch ist, soll davon unabhängig sein, ob wir wissen oder glauben, dass er falsch ist. Beispielsweise, der Satz "Am Meeresgrund liegt ein zwischen 0,10 und 0,11 kg wiegender Diamant" ist entweder wahr oder falsch, obwohl es unwahrscheinlich ist, dass jemals irgendwer dies herausfinden wird, weil niemand den ganzen Meeresgrund nach einem Diamanten absuchen kann. Dennoch ist der Satz entweder wahr oder falsch, das liegt ganz einfach daran, dass die Realität bestimmt ist, entweder so oder so ist. Die einzige Annahme, die das Zweiwertigkeitsprinzip also macht, ist die Bestimmtheit der Realität. Nur wenn man diese bezweifelt, hat man einen philosophischen Grund, eine mehrwertige Logik anzunehmen, die z.B. neben den Wahrheitswerten "wahr" und "falsch" auch noch den dritten Wert "unbestimmt" zuläßt. Tatsächlich haben einige Logiker aufgrund der sogenannten "Unbestimmtheit" in der Quantenmechanik argumentiert, vielleicht sei die Realität in gewissen Eigenschaften doch einfach schlicht unbestimmt. Diesbezüglich gibt es Pro- und Kontra-Meinungen, auf die wir hier nicht eingehen. Dennoch gibt es ein davon unabhängiges Argument, das zeigt, dass selbst wenn man mehrwertige Logiken zuläßt, die klassische zweiwertige Logik eine Priorität genießt: man kann nämlich mehrwertige Sätze metasprachlich derart übersetzen, dass sie zweiwertig werden. Z.B. mag der Satz "dort befindet sich genau ein Elektron" weder wahr, noch falsch, sondern schlicht unbestimmt sein -- dennoch ist dann der Satz "Dass sich dort ein Elektron befindet, ist unbestimmt (bzw. hat den Wahrheitswert ' Unbestimmt')" wider ein Satz, der nur entweder wahr oder falsch sein kann. Man kann diese Tatsache auch in Form eines Theorems darstellen, demzufolge alle endlichwertigen Logiken durch eine Übersetzungsfunktion in eine zweiwertige Logik übersetzbar sind. In der klassische Aussagenlogik kommt zum Prinzip der Zweiwertigkeit noch ein zweites Prinzip hinzu, das wir schon besprochen haben: die Wahrheitsfunktionalität bzw. Extensionalität ihrer Satzoperatoren. Setzt die zweiwertige Logik eine bestimmte Erkenntnistheorie oder Metaphysik der Wahrheit voraus, wie z.B. die den ontologischen Realismus oder die Korrespondenztheorie der Wahrheit? (s. VL Erkenntnistheorie). Nein: alles 18 was man braucht ist die Zweiwertigkeit und Extensionalität dies ist in der Tat alles an semantischen Grundlagen, auf denen die Aussagenlogik letztlich ruht. Daher kann man aussagenlogische Prinzipien auch auf präskriptive Sätze, z.B. Normen anwenden, die nicht im empirisch-deskriptiven Sinn wahr oder falsch sind, sondern richtig "normativ wahr) oder "unrichtig ("normativ falsch"). 1.8 Deduktive Logik versus andere Bedeutungen von "logisch" 1.8.1 Analytische Wahrheit Identifiziert man logische Gültigkeit mit Denknotwendigkeit - so wie das in der Philosophie früher üblich war und leider teilweise heute noch getan wird so gelangt man zu einem weiteren und zugleich ungenaueren Bereich dessen, was zur "Logik" zählt. Z.B. wird dann auch ein Schluß wie (5) Dies da ist rund Also ist dies da nicht viereckig als "logisch" gültig angesehen. Der Schluß ist allerdings aussagenlogisch ungültig, denn seine Form ist p p - dies da ist rund Nicht q q - dies da ist viereckig. M.a.W., es gibt Einsetzungen, die die Prämisse wahr und die Conclusion falsch machen, z.B. : p - die Sonne ist gelb, q - die Sonne leuchtet. Die "Denknotwendigkeit" des Schlusses (5) kommt dadurch zustande, dass es bereits aus der Bedeutung der Begriffe "rund" und "eckig" folgt, dass etwas rundes nicht eckig sein kann. Die Begriffe "rund" und "viereckig" sind einfach so definiert, dass etwas Rundes nicht etwas Viereckiges sein kann. Jedoch handelt es sich bei "rund" und "eckig" um nichtlogische Begriffe. Analog zu (5) gilt die Wahrheit des Satzes (5') Wenn etwas rund ist, dann ist es nicht eckig schon allein aufgrund unseren Bedeutungskonventionen für "rund" und "eckig". Generell nennt man Sätze, deren Wahrheit bereits aus der Bedeutung der in ihnen enthaltenen Begriffe folgt, analytisch wahre Sätze. Ihre Wahrheit folgt aus den Bedeutungspostulaten für die in ihnen enthaltenen Begriffe, und gilt somit unabhängig von der Beschaffenheit der wirklichen Welt. Analog sprechen wir von analytisch gültigen Schlüssen. Sätze, die wahr aber nicht analytisch wahr sind, deren Wahrheit also vom der Beschaffenheit der realen Welt und nicht nur von der Beschaffenheit der "Sprache" abhängt, nennt man auch synthetisch wahr. Die Unterscheidung geht auf Kant zurück. 19 Analytisch wahre Sätze zerfallen nun in zwei Unterklassen, die logisch wahren und die extralogisch wahren Sätze. Die Wahrheit logisch wahrer Sätze folgt schon allein aus der Bedeutung der in ihnen enthaltenen logischen Begriffe, ist also eine Sache der logischen Form. Die Wahrheit extralogischanalytisch wahrer Sätze hängt dagegen von spezifischen Definitionen und Bedeutungskonventionen für spezifische nichtlogische Begriffe ab. Sie ist nicht eine Sache der logischen Form. Da Bedeutungskonventionen für nichtlogische Begriffe in der natürlichen Sprache festgelegt werden, sind sie nicht immer eindeutig und klar - worauf insbesondere Quine hingewiesen hat - weshalb auch die extralogische analytische Wahrheit nicht immer eindeutig feststeht. Die Bedeutung logischer Begriffe wird dagegen durch die logische Semantik präzise definiert und ermöglich eine mathematisch präzise Feststellung dessen, was logisch wahr bzw. gültig ist. Wir verstehen unter Logik nur "echte" logische Wahrheit, nicht extralogisch analytische Wahrheit. Diese Abgrenzung logisch - extralogisch-analytisch beruht auf der zwischen logischen und nichtlogischen Begriffen. Nichtlogische Begriffe bezeichnen Dinge bzw. Bestandteile der Realität. Logische Begriffe haben dagegen rein logisch-strukturelle Funktion; "und", "oder" und "alle" bezeichnen keiner realen Entitäten, sondern logische Operationen. Einteilung von Satzarten: Wahrheitswert logisch determiniert analytisch W.wert durch extralogische B.postulate determiniert synthetisch niert. W.wert weder durch Logik noch B.postulate determi- 1.8.2 Induktive und unsichere "Logik" Logik in unserem "engeren" Sinn heißt auch präziser deduktive Logik. Charakteristikum von gültigen Schlüssen der deduktiven Logik ist es, dass sie mit Sicherheit gelten, das heißt: sind alle Prämissen war, so ist mit Sicherheit, in allen möglichen Situationen oder Welten, auch die Konklusion wahr. Analoges gilt für die logisch wahren Sätze. Im Alltag wie in der Wissenschaft machen wir dagegen auch oft von Schlüssen Gebrauch, die nicht mit Sicherheit, sondern nur mit mehr oder weniger großer Wahrscheinlichkeit oder "Plausibilität" gelten. M.a.W., es gibt neben sicheren deduktiven Schlüssen auch unsichere Schlüsse. Paradebeispiel hierfür sind die sogenannten induktiven Schlüsse. Es gibt drei Arten von induktiven bzw. probabilistischen Schlüssen: 20 Induktiver Voraussageschluß: Alle bisher beobachteten Raben waren schwarz ==================================== Daher sind (wahrscheinlich) auch zukünftig beobachtete Raben schwarz Induktiver Verallgemeinerungsschluß: Alle bisher beobachteten Raben waren schwarz ==================================== Daher sind (wahrscheinlich) alle Raben schwarz "Induktiver" bzw. probabilistischer Spezialiserungsschluß: 95% aller Vögel können fliegen ==================================== Daher kann (mit Glaubenswahrscheinlichkeit 95%) auch dieser Vogel fliegen. All drei Schlüsse erhalten die Wahrheit nicht mit Sicherheit, sondern nur mit "Wahrscheinlichkeit". Was das jeweils genau heißt, bzw. ob man dies tatsächlich rational begründen oder beweisen kann, ist Thema eines eigenen Bereichs der Forschung, auf das hier nicht eingegangen wird. (Bekanntlich hat David Hume die rationale Begründbarkeit induktiven Schließens als erster fundamental bezweifelt.) Während induktive Voraussage- und Verallgemeinerungsschlüsse sowohl bei deterministischen Zusammenhängen (alle As sind Bs) wie bei statistischen Zusammenhängen (95%, aller As sind Bs), kommen induktive Spezialisierungsschlüsse nur in statistischen Zusammenhängen vor. Probabilistische Spezialisierungsschlüsse werden in qualitativer Weise in der sogenannten nichtmonotonen Logik behandelt. Induktive Schlüsse werden oft in Systemen sogenannter induktiver Logik zusammengefaßt. Es wurde aber bezweifelt, ob man induktive Schlußsysteme überhaupt "Logiken" nennen sollte. Eine weitere logisch ungültige und sehr unsichere Schlußart sind abduktive Schlüsse von der Wirkung auf die Ursache, auch "Schluß auf die beste Erklärung" genannt. Ein Beispiel: Hier im Sand ist eine Fußspur, Menschen die im Sand gehen hinterlassen solche Fußspuren // Also ging hier vermutlich ein Mensch". Wir beschäftigen uns in dieser Vorlesung nur mit deduktiver Logik. Induktive "Logik" und abduktives Schließen wird u.a. in der VL Wissenschaftstheorie behandelt. 1.8.3 "Logik" im Alltag Im Alltag findet man häufig auch Schlüsse wie (6) Du hast bei +10oC im Teich gebadet 21 Also hast du dich erkältet. als "logisch". Das hat noch weniger mit "Logik" in unserem Sinne zu tun. Hier liegt die Korrektheit des Schlusses ja offenbar an einem physikalischen Naturgesetz - nämlich "(fast) jeder Mensch, der bei +1OoC in einem Teich badet, wird sich erkälten". Dieses Naturgesetz ist empirisch wahr, aber natürlich keineswegs notwendig wahr - man könnte sich durchaus eine mögliche Welt vorstellen, in der dies anders wäre: z.B. wenn die Menschen mit einer dicken Fettschicht unter der Haut ausgestattet wären, wie etwa Wale, die sich bei +1OoC ja auch nicht verkühlen. - Wenn man allerdings das Naturgesetz zu den Prämissen hinzufügt, so wird aus (6) tatsächlich ein prädikatenlogisch gültiger Schluß, nämlich (6') Für alle x gilt: wenn x ein Mensch ist, der bei +1OoC im Teich badet, wird er sich erkälten. Du bist ein Mensch, der bei +1OoC im Teich gebadet hat Also wirst du dich erkälten. Es ist für unser Argumentieren charakteristisch, dass wir Prämissen, die uns selbstverständlich erscheinen, einfach weglassen. Daher meinen wir im praktischen (alltäglichen) Argumentieren mit "logischer Korrektheit" etwa folgendes: wenn wir die von uns angeführten Prämissen eines vorgetragenen Arguments mit einer Reihe weiterer, selbstverständlicher Prämissen anreichern, so erhalten wir tatsächlich einen Schluß, der in unserem (engen) Sinne logisch gültig ist. Eine wichtige Teilaufgabe des logischen Formalisierens bzw. Rekonstruierens natürlichsprachiger Argumente besteht daher darin, implizite verschwiegene Prämissen, die entweder selbstverständlich sind, oder aber die verschwiegen wurden weil sie "ideologischer Natur" sind, ans Licht zu bringen (s. auch Kap. 6). 1.9 Praktische Anwendungen und Nutzen der Logik a) Anwendungen der Logik in der Philosophie: Das interessiert uns hier natürlich am meisten. - a1) Logische Präzisierung bzw. Formalisierung von natursprachlichen Sätzen, z.B. Thesen der Philosophie oder Hypothesen der Wissenschaft. Dies dient zunächst dazu, die logische Form eines Satzes zu erkennen. Von dieser Form hängen unter anderem viele wissenschaftstheoretischen Fragen ab - z.B. handelt es sich bei diesem Satz um eine Singuläraussage oder um eine Allaussage?, usw. (s.-> Prädikatenlogik). Oder, um eine "kategorische" es-ist-soAussage, oder um eine wenn-dann-Aussage. Oder gar, implizit, um eine Wertaussage, usw. Um dies zu erkennen, ist Übung im logischen Präzisieren und Formalisieren unerläßlich. 22 - a2) Präzisierung bzw. Formalisierung von natursprachlichen Argumenten bzw. Schlüssen. Dazu ist es nicht nur nötig, die Prämissen und die Konklusion des Arguments zu präzisieren bzw. formalisieren. Sondern zunächst einmal, zu erkennen, was alles als Prämisse fungiert, und voralledem wie vorhin erwähnt, verschwiegene Prämissen zu erkennen und ans Licht zu holen. Man nennt dieses verfahren auch logische Rekonstruktion. - a3) Hauptziel - die Überprüfung der Gültigkeit eines (vermeintlichen) natursprachlichen Argumentes. Erst wenn das Argument formalisiert oder zumindest logisch Präzisiert wurde, ist dies möglich. - a4) Hat man ein Argument als gültig erwiesen, so kann man diese Erkenntnis der Gültigkeit in zweierlei Weise auswerten. Man erinnere sich, dass die Gültigkeit ja noch nichts über die Wahrheitswerte der Prämissen besagt. Die folgenden zwei Punkte sind besonderes wichtig für die Wissenschaftstheorie. - a4.1) Wahrheitstransfer von Prämissen auf Konklusion - Voraussage, Erklärung, Bestätigung: Ist man sich der Wahrheit der Prämissen sicher, so kann man daraus (mit mindestens gleicher Sicherheit) schließen, dass auch die Konklusion wahr ist. Wenn man vorher (bevor man das Argument als gültig erkannt hat), nur die Wahrheit der Prämissen weiß, und die der Konklusion erst hinterher erschließt, spricht man von Voraussage. Wenn man vorher schon die Konklusion als wahr weiß, und hinterher passende und als wahr akzeptierbare Prämissen findet, die die Konklusion logisch implizieren, spricht man von Erklärung. Wenn in den Prämissen ein hypothetischer Satz (z.B. ein theoretisches Gesetz) vorkommt, dessen Wahrheit man sich nicht sicher ist, und man daraus eine Voraussage ableitet, die sich hinterher durch Beobachtung tatsächlich als wahr erweist, so gilt dies zugleich als eine Bestätigung der hypothetischen Prämisse. Ebenso kann man Erklärungen als ex-post Bestätigungen von hypothetischen Prämissen auffassen - allerdings ist ihre Bestätigungskraft schwächer als die echter zutreffender Voraussagen. - a4.2) Rücktransfer der Falschheit der Konklusion auf die Falschheit der Prämissengesamtheit - Falsifikation und Schwächung: Die Gültigkeit eines Schlusses besagt aber auch, dass wenn die Konklusion falsch ist, dann nicht alle Prämissen zugleich wahr gewesen sein können, mindestens eine Prämisse muß dann falsch gewesen sein. M.a.W., die Prämissengesamtheit, die Konjunktion aller Prämissen, muß falsch sein. Dies ermöglicht es, die Gültigkeit eines Schlusses auch dann auszuwerten, wenn man vorher nichts über den Wahrheitswert der Prämissen wußte, nämlich dann, wenn man erfährt, dass die Konklusion falsch ist. Man kann daraus schließen, dass mit Sicherheit die Konjunktion aller Prämissen falsch ist. Man nennt dies auch Falsifikation (ein Kernbegriff der Popperschen Wissenschaftstheorie): die Konjunktion der Prämissen ist definitiv falsch. Weiß man zusätzlich mit Sicherheit, dass die eine 23 von sagen wir zwei Prämissen wahr ist, so kann man aus der Falschheit der Konklusion weiters schließen, dass die erste Prämisse mit Sicherheit falsch ist - auch das nennt man Falsifikation. Falls man aber keine der Prämissen mit Sicherheit als wahr weiß, so kann man nur schließen, dass die unsicherste der Prämissen vermutlich am ehesten falsch ist - man nennt dies auch Schwächung. Hier ist ein Beispiel: Prämisse 1: Astrologische Zwillinge haben gleichen Charakter Prämisse 2: Personen A, B, C... sind astrologische Zwillinge Konklusion: Personen A, B, C ... haben gleichen Charakter. Diese Voraussage ist eine bekannte Konsequenz der Astrologie . Astrologische Zwilling, das sind Personen, die im selben Kreissaal in derselben Minute geboren worden sind, müßten sich in ihren Charaktereigenschaften gleichen. Wer an die Astrologie glaubt, wird auch an diese Voraussage glauben. Tatsächlich hatte man eine Studie über astrologische Zwillinge durchgeführt, mit dem Ergebnis, dass sie in ihren Charaktereigenschaften nicht weniger voneinander abwichen als beliebige andere Personenstichproben. Damit ist die Konklusion des Arguments als falsch erwiesen, zugleich ist Prämisse 2 ein empirisch feststellbarer Satz, der als wahr bekannt ist. Dadurch ist die hypothetische Prämisse, Prämisse 1 , falsifiziert. b) Logik als Grundlage der Mathematik: Prädikatenlogik (1. Stufe) und Mengenlehre gehören ganz eng zusammen. Letztere ist die Semantik der ersteren. Umgekehrt liefert erstere den Darstellungsrahmen der letzteren. Die moderne formalisierte Mengenlehre ist eine sogenannte "Theorie 1. Stufe", d.h. die mengentheoretischen Axiome sind zwar nicht auf die der Prädikatenlogik reduzierbar (so wie das der sogenannte "Logizismus" nach Frege versuchte), aber sie werden innerhalb der Prädikatenlogik behandelt. Insofern ist Logik eine wesentliche Grundlage der Mengenlehre. Die Mengenlehre ist ihrerseits aber Grundlage der gesamten Mathematik. Daher ist Logik eine wesentliche Grundlage der gesamten Mathematik. Jeder mathematische Beweis ist, wenn man ihn formalisiert, auf einen logischen Beweis aus logischen Axiomen und Regeln plus mengentheoretischen Eigenaxiomen und Definitionen zurückführbar. c) Logik als eine Grundlage der Computerwissenschaft und künstlichen Intelligenzforschung: Auch hier erweist sich Logik als grundlegend. Es gibt ganze Programmiersprachen, die direkt auf Fragmente der Prädikatenlogik beruhen, 24 z.B. PROLOG (Programming in Logic). Logikprogrammierungen, maschinelles deduktives Beweisen, regelbasierte Expertensysteme, nichtmonotone Logik - alles neue Gebiete der Computerwissenschaft und künstlichen Intelligenzforschung, die auf Logik basieren. Die Computerwissenschaft hat in die traditionelle Logik auch ein wichtiges neues Element angebracht. die bereits erwähnte Komplexitätstheorie. 25 2. Junktoren und ihre Wahrheitstafeln Um Fragen der Gültigkeit bzw. logischen Wahrheit zu beantworten, wir müssen den Wahrheitswert komplexer Aussagen in Abhängigkeit von den Wahrheits- werten der Aussagevariablen eindeutig bestimmen. Dies tun wir, indem wir zunächst für jeden Junktor seine sogenannte Wahrheitstafel festlegen. 2.1 Die wichtigsten Junktoren der Aussagenlogik : Name natursprachliches Symbol andere gebräuchl. Anwendung Äquivalent Symbole _________________________________________________________________________ 1. Negation nicht ~ p 2. Konjunktion und & p q 3. Disjunktion einschließendes oder p q 4. (materiale) Implikation wenn - dann p q 1. Ist ein einstelliger Junktor, weil er nur eine Aussagevariable als Argumentstelle hat. 2. - 4. sind zweistellige Junktoren. Diese vier Junktoren bilden die logischen Basissymbole unserer Aussagenlogik. Weitere wichtige Junktoren (in unserem System "definierte Junktoren"): 5. Alternation entweder-oder (ausschließendes oder 6. Äquivalenz genau dann, wenn 7. (nor) weder-noch hat kein eigenständiges Symbol q p pq p q Diese drei Junktoren, sowie auch noch weitere, lassen sich Mithilfe unserer vier obigen Grundjunktoren definieren. In unserem System handelt es sich also um definierte Junktoren. Die Wahrheitstafeln: Negation: p p w f f w Konjunktion: Die Negation einer Aussage hat den gegenteiligen Wahrheitswert. 26 pq w f f f Die Konjunktion zweier Aussagen ist nur wahr, wenn beide wahr sind, ansonsten falsch. Disjunktion: p q w w w f f w f f pq w w w f Die Disjunktion zweier Aussagen ist nur falsch, wenn beide falsch sind, ansonsten wahr. Implikation: p q w w w f f w f f p q w f w w Die Implikation zwischen zwei Aussagen ist nur falsch, wenn das Vorderglied wahr und das Hinterglied falsch ist; ansonsten ist sie wahr. p w w f f q w f w f 2.2 Zusammenhang der Junktoren mit den entsprechenden Verknüpfungsbegriffen der natürlichen Sprache: Die Negation stimmt ziemlich gut mit dem natursprachlichen "nicht" überein. Sehen wir einen Satz wie "Peter ist nicht verheiratet" als wahr an, so meinen wir damit eben, dass der Satz "Peter ist verheiratet" falsch ist; und sehen wir umgekehrt "Peter ist verheiratet" als wahr an, so automatisch "Peter ist nicht verheiratet" als falsch. Auch die Konjunktion stimmt recht gut mit dem natursprachlichen "und" überein. Dass der Satz "Fritz und Franz sind Fußballer" wahr ist, bedeutet eben, dass sowohl der Satz "Fritz ist Fußballer" wie der Satz "Franz ist Fußballer" wahr sind. Wäre umgekehrt einer von beiden - von Fritz oder Franz - kein Fußballer, so wäre auch die Konjunktion "Fritz und Franz sind Fußballer" als falsch anzusehen. Allerdings kann das "und" der natürlichen Sprach auch etwas Stärkeres als eine bloße logische Konjunktion ausdrücken. Sage ich z.B. 27 "er fiel hin und brach sich das Bein" so drückt das "und" gleichzeitig eine zeitliche Aufeinanderfolge aus: erst fiel er hin, und dann, als Folge davon, brach er sich das Bein. Es wäre z.B. nicht sinnvoll zu sagen "er brach sich das Bein und fiel hin", obwohl vom Standpunkt der logischen Konjunktion "p q" und "q p" genau dasselbe aussagen. Die Disjunktion entspricht dem "einschließenden oder" der natürlichen Sprache: entweder p oder q oder beides. Sie ist in Äußerungen gegeben wie "Voraussetzung für diesen Job ist einen Diplomzeugnis in Physik oder Chemie" - die Voraussetzung ist auch dann als erfüllt anzusehen, wenn jemand beides hat. Meistens aber verwenden wir das "oder" in der natürlichen Sprache als "ausschließendes oder" bzw. "entweder - oder": entweder p oder q, aber nicht beides zusammen. Z.B. in Sätzen wie "nach dem Essen sollst du ruhn, oder tausend Schritte tun" Der Grund, warum das einschließende Oder als Grundjunktor in der Logik beliebter ist, liegt darin, dass es einfacheren Gesetzen gehorcht als das ausschließende oder. Letzteres kann mittels ersterem, Konjunktion und Negation definiert werden. Die (materiale) Implikation ist viel schwächer als das "wenn - dann" der natürlichen Sprache. In natursprachlichen Wenn - dann - Sätzen nehmen wir nämlich immer einen inhaltlichen Zusammenhang zwischen dem Vorderglied und dem Hinterglied an. Z.B. ist der Zusammenhang in "wenn das Wasser 100oC hat, dann kocht es" ein kausaler Ursache-Wirkungs-Zusammenhang; oder in "wenn du das Barometer fällt, dann wird ein Sturm aufziehen" ein begründender Grund-Folge-Zusammenhang. Der Grund, warum die materiale Implikation AB keinen inhaltlichen Zusammenhang zwischen Sachverhalt A und Sachverhalt B wiedergeben kann, ist, dass solche inhaltlichen Zusammenhängen immer intensionaler, nicht wahrheitswertfunktionaler, Natur sind. Die Frage, ob A Ursache für Wirkung B ist, hängt nicht von den Wahrheitswerten von A und B ab. Die materiale Implikation der Aussagenlogik muß dagegen ein wahrheitswertfunktionales logisches Symbol sein. Daher legt man die Wahrheitstafel der Implikation gemäß folgender Idee fest: Definitiv falsifiziert kann man A B nur dann ansehen, wenn das Vorderglied A wahr ist, das Hinterglied B jedoch falsch ist. Man entscheidet sich hier, nur in diesem Fall die Implikation als falsch anzusehen. In allen anderen Fällen - also auch dann, wenn das Vorderglied falsch ist und das Zutreffen von A B eigentlich gar nicht überprüft werden kann - soll die 28 Implikation dagegen wahr sein. Dies führt eben dazu, dass die Implikation auch dann wahr sein kann, wenn kein inhaltlicher Zusammenhang gegeben ist; z.B. ist "Wenn die Sonne rund ist, ist das Gras grün" wahr, weil Vorder- und Hinterglied wahr sind; und sowohl "Wenn die Sonne viereckig ist, ist 2 mal 2 4" als auch "Wenn die Sonne viereckig ist, ist 2 mal 2 5" sind wahr, weil das Vorderglied jeweils falsch ist. Alle diese drei "wenn - dann" Aussagen würden wir in der natürlichen Sprache als sinnlos empfinden, eben weil kein inhaltlicher Zusammenhang besteht. Wenn also eine materiale Implikation wahr ist, heißt das noch nicht unbedingt (obwohl es sein kann), dass die entsprechende natursprachliche Wenn-dannAussage einen Sinn ergibt. Umgekehrt aber gilt: wenn eine materiale Implikation falsch ist, ist auch die entsprechende natursprachliche Wenn-dannAussage eindeutig falsch. Es gibt noch einen tieferen Sinn Definition der (materialen) Implikation. Man sieht ihn, wenn man sich die Definition gültiger Schlüsse bzw. logisch wahrer Wenn-dann-Sätze von Kap. 1.2 vor Augen hält. Ein Satz "wenn A, dann B" ist logisch wahr, wenn es keine mögliche Wahrheitswertzuordnung (bzw. Einsetzung, wie wir in Kap. 1.2 sagten) gibt, die das Vorderglied A wahr macht und das Hinterglied B falsch macht. Und in Analogie dazu nennen wir den Satz "wenn A, dann B" bzgl. einer bestimmten Wahrheitswertzuordnung wahr ganz einfach dann, wenn diese Zuordnung nicht A wahr und zugleich B falsch macht. Dadurch ergibt sich folgender einfacher Zusammenhang: Ein Satz "wenn A, dann B" ist logisch wahr g.d.w. (genau dann, wenn) er von allen möglichen Wahrheitswertzuordnungen wahr gemacht wird. Dieses Theorem ist für den logischen Zusammenhang von gültigen Schlüssen und logisch wahren Sätzen fundamental. Ein Beispiel wäre der logisch wahre Wenn-dann Satz pq p und der ihm entsprechende Schluss "p, q /daher: pq". Dass die Aussagenlogik extensionale Junktoren als Grundlage annimmt, heißt nicht, dass sie die komplizierteren natursprachlichen Verknüpfungswörter der natürlichen Sprache beiseite schiebt. Vielmehr können die letzteren innerhalb erweiterter Logiksysteme rekonstruiert werden. Eine Theorie des natursprachlichen Wenn-Danns, die voralledem von den Empiristen vertreten wurde, besagt, dass der inhaltliche Zusammenhang in einem Wenn-Dann immer auf eine dahinterliegende Regelmäßigkeit der Verknüpfung, also auf einen Allsatz zurückgeht. Damit kann man das inhaltliche Wenn-Dann in der Prädikatenlogik so wiedergeben. Stehe a für ein Individuum und F und G für zwei Ei- 29 genschaften. Dann ist das kausale Wenn -Dann "wenn a die Eigenschaft F hat, hat es auch die Eigenschaft G" wahr, wenn der Allsatz "Für alle x: wenn x F ist, ist x G" wahr ist. Wir führen hier also das inhaltliche Wenn-Dann also auf prädikatenlogische Allsätze zurück - ein Vorgeschmack dafür, was "logisches Rekonstruieren" bzw. "logisches Explizieren" heißt. Allerdings hat auch diese prädikatenlogische bzw. extensionale Rekonstruktion des Wenn-Danns gewisse Mängel. Eine noch stärkere, nämlich intensionale Rekonstruktion wurde in der Modallogik vorgeschlagen, hier nimmt man an, dass beim inhaltlichen WennDann der Zusammenhang eine gewisse Notwendigkeit besitzen müßte. Mit als dem logischen Symbol für "notwendig" gibt man damit "wenn a die Eigenschaft F hat, hat es auch die Eigenschaft G" durch (Fa Ga) notwendigerweise ist a ein F, wenn a ein G ist oder aber, gar noch stärker, durch x(Fx Gx) notwendigerweise sind alle Fs auch Gs wieder. Wie Sie bemerkt haben, können die natursprachlichen Verknüpfungs- wörter grammatisch an unterschiedlichen Stellen stehen, ohne an der logischen Bedeutung etwas zu ändern: z.B. sind "Fritz und Franz sind Fußballer" und "Fritz ist Fußballer und Franz ist Fußballer" gleichbedeutend. Generell ist die natürliche Grammatik viel flexibler und toleranter als die logische, viele grammatischen Unterschiede, etwa Aktiv- Passiv-Transformationen "Anna schlägt Hans" "Hans wird von Anna geschlagen" sind logisch ganz unerheblich, die beiden Sätze drücken also logisch dieselbe atomare Aussage aus. Wenn wir also einen natursprachlichen Satz logisch darstellen wollen, müssen wir erst seine logische Form und Gliederung herausfinden, d.h. wir müssen herausfinden, was seine elementaren Aussagen sind und welche logische Zusammensetzung sich hinter seiner natursprachlichen Grammatik verbirgt. Dieses Verfahren nennt man das logische Repräsentieren eines natursprachlichen Satzes. Dies ist kein theoretisch eindeutig bestimmtes, sondern ein interpretatives Verfahren - weil eben die natürliche Sprache nicht immer eindeutig ist - welches in der Praxis dann aber dennoch zumeist zu relativ ein- 30 deutigen Ergebnissen führt. S. hierzu Kap. 6. 2.3 Die Wahrheitstafel definierter Junktoren und deren Definition: Entweder - Oder: p q p q w w f w f w f w w f f f Äquivalenz: p q w w w f f w f f pq w f f w Definition: (p q) (f) (w) (f) (f) Definition: (p q) (w) (f) (w) (w) Weder - Noch: p q weder p noch q w w f w f f f w f f f w f w w f (q p) (f) (f) (w) (f) (q p) w (w) f (w) f (f) w (w) Definition: p (f) (f) (w) (w) f f f w q (f) (w) (f) (w) Dass ein solches Zeichen definiert ist, heißt übrigens, dass wir es als Abkürzung ansehen. Z.B. sehen wir in unserem System "p q" als Abkürzung für (p q) q p) an. 2.4 Kombinatorik der Wahrheitstafeln und Wahrheitswertfunktionen Wie schaut allgemein der linke Teil der Wahrheitstafel für mehr als zwei Aussagevariablen aus? D.h., wieviel Möglichkeiten gibt es, n Variablen Wahrheitswerte w,f zuzuordnen. Bei 1 Variable sind es 2, bei 2 Variablen 4, bei 3 Variablen 8, bei n Variablen sind es allgemein 2n Möglichkeiten. Hier ist die Tafel der möglichen Wahrheitswertzuordnungen für 3 Variablen (der "linke" Teil der Wahrheitstafel) angeführt. p q r 31 w w w w f f f f w w f f w w f f w f w f w f w f Wir variieren von rechts nach links, d.h. ändert zuerst die ganz rechten Variablen von w nach f ab, erst wenn wir alle Möglichkeiten durch sind, ändern wie die um eine Stelle weiter links stehende Variable von w nach f ab. Wir nennen die möglichen Wahrheitswertzuordnungen auf Wahrheitswertzeilen. Man sieht an der 8er Tafel für 3 Variablen deutlich, wie sich die kleineren Tafeln darin wiederfinden. Z.B. finden sich in der 8er Tafel für p, q ,r zweimal die 4er Tafel für q und r, einmal für wahr, das andere mal für p falsch. Umgekehrt findet sich in der 4er Tafel für q, r zweimal die (triviale) 2er Tafel für r, einmal für q wahr, dann für q falsch. Würde man also noch eine vierte Variable hinzunehmen, sagen wir t, so könnten wir t ganz links hinschreiben und dieselbe 8er Tafel einmal für t wahr, da andere Mal für t falsch durchspielen. Man kann weitergehend überlegen, wieviel mögliche verschiedene) zweistellige Junktoren es gibt: soviele, wie es Möglichkeiten gibt, den 4 Wahrheitskombinationen w w w f jeweils die Wahrheitswerte w oder f w f f f zuzuordnen. Es sind dies 24 = 16 Möglichkeiten. Das läßt sich verallgemeinern. Es gibt 2m mögliche Zuordnungen von 2 Wahrheitswerten zu m Wahrheitswertzeilen. Und für n Aussagevariablen gibt es, wie wir sahen, 2n Wahrheitswertzeilen. Also gibt es 2(2n) n-stellige Junktoren. Das ist eine sehr hohe, sogenannte superexponentielle Zahl. Für n= 1 sind es 4, für n=2 sind es 16, für n = 3 sind es 256, für n = 4 65.536. Genau soviele n-stellige Junktoren der Aussagenlogik gibt es jeweils. Ein kleines Beispiel für die sogenannte kombinatorische Explosion. Glücklicherweise lassen sich aber fast alle n-stelligen Junktoren lassen durch einige wenige 2stellige definieren. Eine Menge von Junktoren, auf die sich alle anderen zurückführen lassen, nennt man eine vollständige Junktorenbasis. 32 Man kann zeigen, dass z.B. {, }, {, }, {, }, vollständige Junktorenbasen sind - und selbstverständlich auch jede Obermenge davon. , , , } ist die Basis, die wir zugrundelegen, weil das am praktischsten ist -- wählt man nämlich eine kleinere Basis von Grundzeichen, so werden dadurch alle Aussagen länger, geradezu enorm umständlich lang. Die Reduktion von Grundzeichen erkauft man sich also in einer Aufblähung der Länge von Sätzen. (Es ist sogar möglich, mit nur einem speziell festgelegtem Junktor, der sogenannten Shefferschen Stückverknüpfung, alles andere zu definieren.) In diesem Fall ist diese kombinatorische Explosion also wieder vollständig reduzierbar - ein Beispiel für Komplexitätsreduktion. Das ist aber bei weitem nicht immer so in der Logik - oft haben wir kombinatorische Explosion, ohne dass es Möglichkeiten gibt, die fast-unendliche Vielfalt auf einfache Weise zu überschauen. 33 3. Aussagenlogische Sprache 3.1. Beliebig komplexe Aussagen und Schemabuchstaben Wenn man die Verknüpfung von Aussagevariablen durch die besprochenen Junktoren wiederholt anwendet, kommt man so zu immer komplexer werdenden Aussagen: pq (p q) (r s) (p q) r (p1 (p2 q)) (r1 r2) ((p q) r) usw. Die Klammern dabei sind sehr wichtig - sie geben an, worauf sich die jeweilige Junktoren beziehen. Z.B. bezieht sich das "" in "(p q)" auf die komplexe Aussage “(p q)", im Gegensatz zu "p q", wo sich das "" bloß auf p bezieht. - Wir werden dies noch präzisieren. Wir wollen im folgenden häufig nicht nur über einzelne und bestimmte, sondern über beliebige solche komplexen Aussagen Behauptungen aufstellen. Dazu bedienen wir uns der bereist erwähnten Methode der Schemabuchstaben. Schemabuchstaben A, B, C, ... sollen für beliebige (beliebig komplexe) Aussagen stehen. Die aus Schemabuchstaben mithilfe logischer Symbole gebildeten Ausdrücke nennen wir Aussageschemata (analog Schlußschemata). Wenn wir beispielsweise behaupten "Aus (A B) folgt A" so wollen wir damit sagen, dass diese Behauptung wahr ist, egal welche Aussagen wir auch immer für A und B einsetzen - es müssen nicht nur elementare, es können auch komplexe Aussagen sein. Wir können auch sagen, Schemabuchstaben sind Variablen 2. Ordnung. So wie wir für die Aussage- variable beliebige elementare natursprachliche Sätze einsetzen können, können wir für Schemabuchstaben beliebige Aussagen, gebildet aus Aussagevariablen und Junktoren, einsetzen. Wir haben im vorigen Kapitel die Wahrheitstafeln der Junktoren nur für ihre Anwendung auf einzelne Aussagevariablen eingeführt. Wir wenden diese Wahrheitstafeln ebenso auch auf Aussageschemata an. Zum Beispiel schreiben die Wahrheitstafel der Konjunktion also A w w f f B w f w f (A B) w f f f 34 Mit dieser allgemeinen Form der Wahrheitstafel meinen wir klarerweise dies: Welche Form die für A und B eingesetzten Aussagen auch immer haben - so ist der Wahrheitswert ihrer Konjunktion (A B) durch die Wahrheitswerte von A und B gemäß der Wahrheitstafel eindeutig festgelegt. Analog führen wir dies für die weiteren Junktoren durch. 3.2. Die Sprache der Aussagenlogik (Logische Grammatik) Wir gehen nun daran, die aussagenlogische Sprache exakt zu definieren - wir konstruieren eine 'mathematisch exakte Sprache'. Die Definition einer Sprache umfaßt - wie auch in der natürlichen Sprache: 1. die Festlegung des Grundvokabulars (Wörterbuchs oder Alphabets) und 2. die Festlegung ihrer grammatikalischen Regeln oder Formregeln. Das Alphabet legt die Grundzeichen (die kleinsten bedeutungstragenden Zeichen) der Sprache fest. Die Formregeln legen fest, wie aus elementaren Aussagen komplexe gebildet werden können. 3.2.1. Alphabet Es besteht aus: a) Aussagevariablen: p, q, r, ... (auch indiziert: p1, p2, ...) b) Junktoren: , , , (Definiert: , ) c) Hilfszeichen: Klammern (, ) Nichtlogische Symbole Logische Symbole a) nennt man auch das nichtlogische Vokabular, b) das logische Vokabular. c) die Hilfszeichen (man kann mit etwas anderen Formregeln als unten auch ohne Klammern auskommen und spricht dann von "polnischer Notation). Den Elementen des Alphabets entsprechen in der natürlichen Sprache nicht etwa Buchstaben, sondern Worte - d.h., unser Begriff des "Alphabets" meint das "Wörterbuch" (und nicht etwa umgangssprachlich Alphabet genannte "A B C..."). 3.2.2. Formregeln: Sie legen fest, was eine wohlgeformte Aussage, kurz: Aussage ist. (a) Jede Aussagevariable ist eine Aussage. (b) Ist A eine Aussage, dann ist auch A eine Aussage. (c) Sind A und B Aussagen, dann ist auch (A B) eine Aussage. (d) Sind A und B Aussagen, dann ist auch (A B) eine Aussage. (e) Sind A und B Aussagen, dann ist auch (A B) eine Aussage. ((f) Sonst nichts d.h., nur solche Zeichenreihen, die sich mithilfe der Regeln (a) - (e) bilden lassen, sind Aussagen.) 35 Man sieht, dass wir die Regeln (b) - (e) mittels Schemabuchstaben formulierten. Dadurch können wir diese Regeln beliebig oft hintereinander anwenden und gelangen so zu beliebig komplexen Aussagen. Starten wir beispielsweise, gemäß Regel (a), mit den Aussagevariablen p und q, so können wir daraus z.B. gemäß Regel (c) (p q) bilden, aus (p q) und p z.B. gemäß (d) ((p q) p), oder gemäß (e) (p (p q)), usw. Regel (f) legt fest, dass nur Zeichenreihen, die gemäß wiederholter Anwendung dieser Regeln gebildet wurden, als Aussage zugelassen sind. Andere Zeichenreihen sind ungrammatisch und sinnlos (ohne mögliche Bedeutung). Z.B. sind p oder (p ) q oder (p ) q q solch ungrammatischen bzw. nicht wohlgeformte Zeichenreihen. Eine analog nicht wohlgeformte Zeichenreihe der natürlichen Sprache wäre: "wenn Peter kommt Franz schläft und" - was soll das schon heißen? Die Formregeln (a) - (f) sind Beispiel einer sogenannten rekursiven Definition. D.h., die Menge aller Aussagen wird definiert als all das (b-e) und nur das (f), was sich durch beliebig oft wiederholte Anwendung gewisser Regeln auf eine gewisse Ausgangsmenge, die Aussagevariablen (a), erzeugen läßt. Es gibt eine Startregel (a) und iterative Regeln (b-e). Die Regel (f) wird bei rekursiven Definitionen meist automatisch angenommen und nicht extra hinzugeschrieben.- Ein einfaches natursprachliches Beispiel einer rekursiven Definition von "Mensch" wäre etwa "Adam und Eva waren Menschen" "Ist A von Menschen gezeugt, so ist A ein Mensch" (vorausgesetzt, die biblische Schöpfungsgeschichte stimmt). Das Gegenteil einer rekursiven Definition ist die Explizitdefinition in einem Schritt, etwa "Menschen sind vernunftbegabte Lebewesen" 3.3. Konstruktionsbaum (oder Konstruktionsbaum) und Klammerung Wie man eine gegebene Aussage mithilfe der Formregeln (a) - (e) aus Aussage- variablen konstruiert, läßt sich graphisch mithilfe ihres Konstruktionsbaumes ver- deutlichen. Beispielsweise hat die Aussage ((p q) r) folgenden Konstruktionsbaum: 36 a p a q c (p q) a r b r d ((p q) r) Wir zeichnen den Konstruktionsbaum einer Aussage also, indem wir (von oben be- ginnend, nach unten fortsetzend) jede Anwendung einer Formregel graphisch darstellen, durch einen nach unten führenden Ast bei einer einstelligen Formregel, bzw. einer nach unten schließenden Verzweigung bei einer zweistelligen Formregel; die Bezeichnung der Formregel (a - e) schreiben wie hinzu. Formregel a ist ohne Prämisse; wir schreiben ihre Bezeichnung einfach zu den Variablen hinzu. Der Konstruktionsbaum ist nichts anderes als die bildliche Darstellung der grammatischen Konstruktion der Aussage - man sieht, wie die Aussage aus ihren sogenannten Teilaussagen sukzessive aufgebaut ist. Wir gehen nach der Methide von innen nach außen vor: wir beginnen also von oben her kommend mit den Aussagevariablen der gegebenen Aussage und führen schrittweise die immer komplexer werdenden Teilaussagen der Aussage ein, bis wir bei der Aussage selbst angelangt sind. Andere Beispiele: ((p q) p) a p a q e (p q) e ((p q) p) b ((p q) p) a p 37 (p (q q)) a p a q a q b b p q b d (q q) p d (p (q q) Ungrammatische Zeichenreihen zeichnen sich dadurch aus, dass sich für sie kein Konstruktionsbaum zeichnen läßt. Die grammatische Struktur einer Aussage, so wie sie im Konstruktionsbaum deut- lich wird, ist natürlich bereits an der Klammerung der Aussage ablesbar. Die Klammern in einer Aussage legen eindeutig fest, auf welche Teilaussagen sich ein Junktor jeweils bezieht. - Die Klammerung wurde bereits durch die Formregeln festgelegt: das "" bezieht sich jeweils auf den unmittelbar folgenden Ausdruck, und um einen Ausdruck "A" wird keine Klammer herum gesetzt. Dagegen werden um alle mit zweistelligen Junktoren gebildete Ausdrücke Klammern geschrieben, also "(A B)" etc. M.a.W., das "" bindet stärker als "", "" und "". Man vergleiche hierzu die beiden Aussageschemata: (A B) und (A B) Links bezieht sich das "" direkt auf das "A" (es bindet vor dem ""), während das "" sich auf "A" und "B" bezieht. Rechts wird durch die Klammer deutlich gemacht, dass sich das "" auf den ganzen Ausdruck "(A B)" bezieht, während sich das "" auf "A" und "B" bezieht. Die Konstruktionsbaume (für A: setze p und für B: setze q): a p a q b p a p a q c (p q) c (p q) b (p q) 38 Ersparnis äußerer Klammern: Wir führen unsere erste Klammerersparniskonvention ein: Äußere Klammern dürfen weggelassen werden. D.h. statt (p q) dürfen wir einfach p q schreiben, statt ((AB)C) einfach (AB)C. Beachte: dies ist keine Regel sondern eine bloße Konvention. In Konstruktionsbäumen gilt die Konvention natürlich nur für die ganz unten stehende Gesamtaussage, nicht für die einzelnen Teilaussagen. Anders gesprochen, haben die äußere Klammer weggelassen, so dürfen wir keine weitere Konstruktionsregel darauf anwenden. 3.4 Teilaussagen, und ihre charakteristischen Junktoren Als Grundlage der semantischen Methoden der Aussagenlogik benötigen wir weiters ein genaues Verständnis der folgenden Begriffe: 1. Eine Zeichenreihe ist eine beliebige Aneinanderreihung von Zeichen des Alphabets von links nach rechts. Beispiele: (i) pq), (ii) pq, usw. 2. Eine Aussage ist eine solche Zeichenreihe, die gemäß Formregeln (a) - (e) gebildet ist. 3. Eine Teilzeichenreihe einer Zeichenreihe ist (irgend) ein Teilstück dieser Zeichenreihe. Z.B. enthält ist "q", "q)" Teilzeichenreihe "q)", usw.. 4. Eine Teilaussage einer Aussage ist eine solche Teilzeichenreihe, die selber eine Aussage . Z.B. ist "(pq)", aber auch z.B. "p", Teilaussage von (i). Jede Aussage enthält eine ganze Menge von Teilaussagen, einschließlich der unechten Teilaussage - nämlich sie selbst. Die kleinsten Teilaussagen sind die Aussagevariablen. Wie wir sagten, erkennen wir alle Teilaussagen einer Aussage an ihrem Konstruktionsbaum. Betrachten wir folgendes Beispiel: ((p q) p) a p a q e (p q) e ((p q) p) b ((p q) p) a p 39 Wir können alle Teilaussagen einer Aussage aber auch in der Aussage selbst wiederfinden. Hier sind sie durch Striche eingezeichnet. ((p q) p) Es gilt aber noch mehr. Zwar "überlagern" sich die Teilaussagen einer Aussage. Doch jede Teilaussage ist eindeutig durch ein Zeichen der Gesamtaussage bestimt. Aussagevariablen sind durch sich selbst bestimmt. Die anderen Teilaussagen sind durch ihren charakteristischen bzw. äußersten Junktor eindeutig bestimmt. Der charakteristische (äußerste) Junktor einer Aussage ist jener Junktor, durch dessen Anwendung auf ein oder zwei Teilaussagen die Aussage direkt gebildet ist. M.a.W., der charakteristische Junktor entspricht dem letzten Schritt im Konstruktionsbaum. In folgenden Aussagen ist der charakteristische Junktor jeweils unterstrichen: ((p q) p) ((p q) (r s)) (p ((r p) (q p))) (p q) s Die charakteristischen Junktoren der Teilaussagen von ((p q) p) sind folgende (angedeutet durch den Pfeil): ((p q) p) Analog: ((p q) (r s)) s Dies ist ein fundamentales Theorem der logischen Grammatik: jedes Zeichen bzw. elementare Symbol einer Aussage kennzeichnet genau eine Teilaussage (entweder eine Variable, oder der charakteristische Junktor einer Teilaussage). Dadurch findet sich die gesamte "Information" eines Konstruktionsbaums in der Aussage selbst wieder. Davon machen man alle semantischen Methoden der Aussagenlogik Gebrauch; insbesondere die Wahrheitstafelmethode. 40 4. Aussagenlogische Semantik I: Die Wahrheitstafelmethode 4.1 Bestimmung der Wahrheitswerte komplexer Aussagen Um den Wahrheitswert einer Aussage bei gegebenen Wahrheitswerten ihrer Aussagevariablen zu bestimmen, gehen wir folgendermaßen vor: Wir bestimmen gemäß den Wahrheitstafeln die Wahrheitswerte ihrer Teilaussagen, wobei wir sukzessive von den kleinsten zu immer größeren Teilaussagen voranschreiten, bis wir bei der gesamten Aussage angelangt sind. Wir schreiben die so ermittelten Wahrheitswerte der Teilaussagen unter die charakteristischen Junktoren dieser Teilaussagen - die diesen Teilaussagen ja eineindeutig entsprechen; bei den Variablen shreiben wir die Wahrheitswerte einfach unter die Variablen selbst. Damit können wir nun den Wahrheitswert einer Gesamtaussage sehr platzsparend, nämlich in einer Zeile, in Abhängigkeit von den gegebenen Wahrheitswerten ihrer Variablen bestimmen. Den Wahrheitswert der Gesamtaussage unterstreichen wir. Einige Beispiele: 1) Gegeben: p wahr, q falsch. Gesucht: Wahrheitswert von ((p q) p) p q ((p q) p) w f f w f f w w Also: Die Gesamtaussage ist falsch. 2) Geg.: p falsch, q falsch. Ges.: ((p q) p) p q ((p q) p) f f f w f w f f f 3) Geg.: p: w, q: w, r: f, s: f. Ges.: (p q) (r s) p q r s (p q) (r s) w wf f w w w w f f w f 4) Geg.: p: f, q: w, r: w, s: f. Ges.: wie in 3) p q r s (p q) ( r s) f wwf f f w w w w f f 5) Geg.: s: f. Ges.: s s s f w f w f w f 41 4.2 Die Wahrheitstafelmethode: Logisch wahre, logisch falsche und kontingente Aussagen. Gültige und ungültige Schlüsse Damit haben wir bereits eine erste Methode um festzustellen, ob eine gegebene Aussage logisch wahr ist, logisch falsch ist oder kontingent ist (d.h. weder logisch wahr noch logisch falsch). Wie bei den Wahrheitstafeln schreiben wir links alle möglichen Wahrheitswertkombinationen der Aussagevariablen, die in der Aussage vorkommen, an. Wir bestimmen dann rechts den Wahrheitswert der Gesamtaussage. Erhält die Gesamtaussage in allen möglichen Wahrheitswertkombinationen der Aussagevariablen den Wahrheitswert wahr, so ist sie logisch wahr. Wir nennen die Wahrheitswertkombinationen auch Wahrheitswertzeilen; Wahrheitswertzeilen stellen "kleine" mögliche Welten dar - beschränkt auf die Elementarsachverhalte, die die Aussagevariablen wiedergeben. Bereits die Wahrheitstafeln entsprechen als dem Gedanken, dass eine Aussage logisch wahr ist, wenn sie in allen logisch möglichen Welten wahr ist. Mögliche Welten entsprechen weiters auch (möglichen) Modellen, d.h. die sogenannten semantischen Modelle der Aussagenlogik sind nichts anderes als Wahrheitswertzeilen. Erhält eine Aussage immer den Wahrheitswert falsch, so ist sie logisch falsch. Erhält sie manchmal den Wahrheitswert wahr und manchmal falsch, so ist sie kontingent. Einige Beispiele: p q (p q) (q p) w w w w w w w w w w f f f w f w f f f f w w f w w f w f f f w f w f w f p p p w f ww f w f ww f p p p w f wf fw f f wf kontingent logisch wahr logisch falsch Beom nächsten Beispiel beachte man: man kann sich bei der Entwicklung der Wahrheitstafel zeilenweise vorarbeiten, oder auch spaltenweise (was im nächs- 42 ten Beispiel vermutlich übersichtlicher ist): p w w w w f f f f q w w f f w w f f r w f w f w f w f ((p q) (q r)) (p r) w w w w f f f f w w f f w w w w w w f f w w f f w w w w f w f f f f w w f f w f w w w w f w f f w f w w w f w f w w w w w w w w logisch wahr ww w w f f ww w w f f f w w f w f f w w f w f Es gibt etliche weitere logische Statusbezeichnungen von Aussagen. Logisch wahre Aussagen heißen auch allgemeingültig. Logisch wahre Aussagen der Aussagenlogik nennt man Tautologien. Logisch falsche Aussagen heißen auch Kontradiktionen, denn sie sind widersprüchlich. Eine Aussage heißt erfüllbar oder konsistent, wenn sie nicht kontradiktorisch ist, d.h. wenn sie entweder kontingent oder logisch wahr ist. Den Begriff "konsistent" verwendet man auch häufig für Aussagenmengen und nennt eine Aussagenmenge konsistent gdw. es eine Wahrheitswertbelegung der Aussagevariablen gibt, die alle Aussagen der Menge wahr macht. Aussagen heißen logisch determiniert, wenn ihr Wahrheitswert durch die Logik bestimmt ist, also wenn sie entweder logisch wahr oder logisch falsch sind. Kontingente Aussagen heißen auch logisch indeterminiert. - Wir fassen diese Begriffe wie folgt zusammen: Logisch wahr Logisch determiniert Konsistent Kontingent = Logisch indeterminiert Logisch falsch (widersprüchlich) Bei Schlüssen gibt es nur zwei logische Statusbezeichnungen: entweder gültig, oder ungültig. Wir können mit dieser Methode ebenso die Gültigkeit von Schlüssen herausfinden. Wieder schreiben wir links alle möglichen Wahrheitswertzeilen für alle jene Aussagevariablen an, die in den Prämissen oder der Conclusio des Schlusses vorkommen. Rechts schreiben wir - hintereinander - Prämissen und Conclusio an. Wir bestimmen dann für jede Zeile die Wahrheitswerte der Prämissen und der Conclusio. Wenn niemals (in keiner Zeile) der Fall eintritt, dass alle Prämissen wahr sind, die Conclusio aber falsch 43 ist, so ist der Schluß gültig. Wi geben in diesem Fall der entsprechenden Zeile ein Häkchen. Tritt dagegen eine widerlegende Zeile auf, d.h. eine Zeile, wo unter allen Prämissen w steht, aber unter der Konklusion f, so geben wir dieser Zeile ein Minus - der Schluß ist dann ungültig. Wir führen für Schlüsse im folgenden die platzsparende Zeilennotation P , ..., P . . . C ein; die drei Punkte 1 n stehen für "folgt aus", bzw. "also". Ist P1, ..., Pn . . . C ein gültiger Schluß, so sagt man auch: C ist logisch folgerbar, bzw. ist eine logische Folgerung aus P1, ..., Pn. Beispiele: 1) Der Schluß: p q p q bzw. p q, p . . . q p q p q p q w w w w w w w w f w f f w f f f w f f w w f w w f f w f gültig Bezeichnung: Modus Ponens 2) Der Schluß: p q, q . . . p p q p q q p w w f f w f w f w w f f w f w f w w f f w f w w w f w f ................. diese Zeile macht den Schluß ungültig 3) Der Schluß: p q . . . p q p q p q pq w w f f w f w f ww w f f f f f ww ww f w f f w f w f w f w f gültig 44 4) Der Schluß: p q . . . p q p q pq pq w w f f w f w f ww ww f w f f www wf f f f w f f f w f w f ungültig 4.3. Aussage- und Schluß-Schemata. Uniforme Einsetzung und Substitution Dieselbe Methode läßt sich auf Aussageschemata oder Schlußschemata anwenden, worin wir statt den Aussagevariablen Schemabuchstaben benutzen. Wir bestimmen einfach die Wahrheitswerte des Aussagenschemas (Schlußschemas) für alle möglichen Wahrheitswertkombinationen der Schemabuchstaben. Beispiele: 1) A A ist ein logisch wahres Aussageschema: A A A w f w w f w f ww f 2) A A ist ein logisch falsches Aussageschema: A (A A) w f w f f w f f w f 3) (A B) , A . . . B A B w w f f w f w f ist ein gültiges Schlußschema (A B) w w f f w w f f w w w f A B w w f f w f w f Dass ein Aussageschema logisch wahr ist, bedeutet folgendes: welche Aussagen ich auch immer für die Schemabuchstaben einsetze, werde ich eine logisch wahre Aussage erhalten. Die Behauptung der logischen Wahrheit eines Aussageschema ist daher bereits ein kleines sogenanntes "Metatheorem", wir behaupten damit im Grunde die logische Wahrheit von unendlich vielen struk- 45 turgleichen Aussagen der logischen Sprache. Unter einer uniformen Einsetzung in ein Aussagenschema verstehen wir die Aussage, die daraus entsteht, wenn wir die Schemabuchstaben durch Aussagen ersetzen. Dabei dürfen wir auch verschiedene Schemabuchstaben durch gleiche Aussagen ersetzen, niemals aber gleiche Schemabuchstaben an verschiedenen Vorkommnissen durch verschiedene Aussagen ersetzen. Einige Beispiele: Schema: A A (p p) (p q) (p q)) (r r) usw. Einsetzung: A: p A: (p q) A: r Analog für Schlüsse: (A B) A B Einsetzung: (p q) p q A: p B: q ((p q) (r s)) (p q) (r s) A: (p q) B: (r s) (p p) p p A: p B: p Jedoch ist (p q) r q (A B) keine Einsetzung vonA B Die Prüfung, ob eine gegebene Aussage eine Einsetzung eines gegebenen Aussageschemas ist, nennt man in der Computer-Logik Pattern Matching. Pattern 46 Matching ist auch für die Beherrschung der deduktiven Methode sehr wichtig. Hier eine Übung: " ------" bedeutet hier "ist Einsetzung von": Aussagen Aussageschemata (pq) (pq) p(qp)) r s p (q(rs)) (pq)(rs) A AB A B) A B A B Man finde die zugeordneten Einsetzungsfunktionen. Gesetzes der uniformen Einsetzung: Logische Wahrheit, logische Falschheit und Gültigkeit bleibt unter uniformer Einsetzung erhalten (d.h. aus einem L-wahren Aussageschema wird eine Lwahre Aussage, aus einem L-falschen Aussageschema eine L-falsche Aussage, und aus einem L-gültigen Schlußschema ein gültiger Schluß). Jedoch bleibt weder Kontingenz noch Ungültigkeit dabei immer erhalten. Den Grund hierfür sieht man so. Für ein Schema stellt man die Wahrheitswertkombinationen ja auf, indem man den Schemabuchstaben w oder f zuweist. Welche Aussagen man aber immer für die Schemabuchstaben einsetzt, sie können immer nur w oder f sein. Daher sind in den Wahrheitswertmöglichkeiten für die Schemabuchstaben immer auch alle Wahrheitswertmöglichkeiten für die sich daraus möglicherweise ergebenen Aussagen enthalten. Andererseits kann es sehr wohl passieren, dass ich für verschiedene Schemabuchstaben, sagen wir A und B, gleiche Aussagen einsetzte oder aber zwei Aussagen, die voneinander logisch abhängig sind, wie z.B. p und p. In diesem Fall hat die entsprechende Aussage weniger Wahrheitswertmöglichkeiten als das Aussageschema. Kurz gesagt, beim Übergang von Schema zu Aussage fallen höchstens einige Wahrheitswertzeilen weg, nie kommen welche zu. Daraus ergibt sich obiges Gesetz direkt. Denn L-wahr heißt, dass alle Zeilen den Wert w haben; fallen einige Zeilen weg, so bleiben dennoch alle übrigbleibenden Zeilen L-wahr. Analog für L-Falschheit und Gültigkeit. Bei einem kontingenten Schema kann es jedoch passieren, dass beim Übergang von Schema zur Aussage genau die Zeile wegfällt, die das Schema kontingent macht, die resultierende Aussage ist dann wahr - Kontingenz bleibt also nicht erhalten. Analog bleibt Ungültigkeit nicht erhalten. 47 Beispiel: A B ist kontingent, die Einsetzung für A: p und B: p führt zu p p und ist logisch wahr. Ebenso führt die Einsetzung A: pq und B: pq zu dem logisch wahren Satz (pq) (pq). Generell gilt: Kontingenz bzw. Ungültigkeit bleibt nicht erhalten, wenn Schemabuchstaben durch voneinander logisch abhängige (und im Extremfall identische) Aussagen ersetzt werden. Wir sprechen dann von semantisch homomorpher (im Extremfall von synaktisch homomorpher) Einsetzung. Kontingenz bzw. Ungültigkeit bleibt nur in jenen Einsetzungen erhalten, worin die Aussagen, die für die Schemabuchstaben eingesetzt werden, voneinander paarweise logisch unabhängig sind. Man spricht dann von semantisch isomoprher Einsetzung. Diese liegt insbesondere dann vor, wenn die Schemabuchstaben durch eineindeutig zugeordneten Aussagevariablen ersetzt werden (der Fall der syntaktisach isomorphen Einsetzung). Man kann auch direkt in Aussagen (statt Aussageschemata) die Aussagevariablen durch (beliebige) Aussagen einsetzen. Solche Einsetzungen nennt man uniforme Substitutionen. Man sagt, man substituiert beliebige Aussagen für die Aussagevariablen. Die Aussage, die nach solcher Einsetzung entsteht, nennt man Substitutionsresultat. Ein Beispiel: Aussage: ((p q) p) q Substitutionsresutat: (((p (q r)) p) (q r) ((((q s) (p r)) (q s)) (p r)) Einsetzung: p: p, q: (q r) p: (q s), q: (p r) Daraus ergibt sich ganz analog das sogenannte Gesetz der uniformen Substitution, welches wieder besagt, dass L-Wahrheit, L-Falschheit und Gültigkeit, nicht aber Kontingenz und Ungültigkeit unter uniformer Substitution erhalten bleiben. Ein viel speziellerer Begriff als die Substitution ist die Gestaltgleichheit (oder der syntaktischen Isomorphie) von Aussagen. Man nennt zwei Aussagen gestaltgleich wenn sie durch eineindeutige Umbenennung der Aussagevariablen auseinander hervorgehen. Z.B. sind pq, und rp und rs, oder p(qp) und q(rq) und s(ts), miteinander gestaltgleich oder syntaktisch isomorph. 4.4 Exkurs: Objektsprache und Metasprache Die aussagenlogische Sprache, so wie wir sie in Kap. 3 definierten, ist unsere Objektsprache. Tatsächlich sprechen wir aber in einer Metasprache, mittels derer wir über die aussagenlogische Objektsprache (bzw. über Objektspra- 48 chen aussagenlogischen Typs) sprechen und deren Gesetzmäßigkeiten untersuchen. Sätze wie "aus p q folgt q" sind Sätze unserer Metasprache. Unsere Metasprache ist ebenfalls "mathematisch genau", da wir mit Vokabeln der Logik wie "folgt aus", "logisch wahr", etc. operieren, die von genau festgelegter Bedeutung sind. Unsere Metasprache ist eine logische Metasprache - sie enthält zwar viele natursprachliche Vokabeln, ist jedoch im Prinzip auch mathematisch formulierbar; mithilfe der gewöhnlichen Mengenlehre. Man sagt auch, die Metasprache enthalte die Logik 'informell', während die Objektsprache die Formalisierung der Logik darstellt. Die Unterscheidung zwischen Objekt- und Metasprache geht auf Tarski zurück. Der größte Teil logischer Betrachtungen vollzieht sich also in der Metasprache. Auch Schemabuchstaben A, B ... gehören eigentlich zur Metasprache. Wenn wir sagen "(A A) ist logisch wahr", drücken wir den metasprachlichen Satz aus: "jede objektsprachliche Aussage, die Einsetzung dieses Schemas ist, ist logisch wahr". Genau genommen müßte man, wenn man in einer metasprachlichen Aussage objektsprachliche Aussagen bzw. Zeichen erwähnt, Anführungszeichen verwenden. Man müßte also sagen: "aus "p q" folgt "q"" statt "aus p q folgt q". Da aber aus dem Kontext klar ist, dass p q bzw. q zur Objektsprache gehören, verzichtet man in der Logik auf die umständliche Verwendung von Anführungszeichen. 4.5 Vereinfachungen der Wahrheitstafelmethode 4.6.1. Vereinfachungen innerhalb einer Zeile: (a) Unter die einzelnen Aussagevariablen (der zu bestimmenden Aussagen) brauchen wir die Wahrheitswerte nicht mehr hinschreiben - sie stehen ja schon links - sondern nur unter die Teilaussagen. Also z.B.: p q p q w w f f w f w f f f w w f f w f (b) Ist bei einer Konjunktion ein Glied falsch, so ist die ganze Konjunktion falsch; also braucht das zweite Glied nicht mehr bestimmt zu werden. Also z.B.: p q p ((p q) q) f ... f 49 Analog: (c) Ist bei einer Disjunktion ein Glied wahr, so die ganze Disjunktion wahr; also braucht das zweite Glied nicht mehr bestimmt zu werden. Also z.B.: p q r p (q (r p) w ... ... w (d) Ist bei einer Implikation das Vorderglied falsch oder das Hinterglied wahr, so ist die ganze Implikation wahr; also braucht der Wahrheitswert des jeweils anderen Gliedes nicht mehr bestimmt werden. Also z.B.: p q r p ((q r) (r p) (r p) f ... ... w Hinweis: Schritte (b), (c) und (d) funktionieren auch, wenn wir es statt "p" und "q" (usw.) mit komplexen Aussagen "A", "B"( usw.) zu tun haben, die an mehreren Stellen der Gesamtaussage bzw. des gesamten Argumentes vorkommen. Im folgenden Beipsiel wird der Wahrheitswert von "(pq)" als f und dadurch der von "(pqs" als f und die Implikation als w bestimmt (ohne den Wahrheitswert von p und s zu kennen): p q f ... ((pqs) (pq) f f f w f f 4.6.2. Weglassung von Zeilen (a) Um zu zeigen, dass eine Aussage kontingent ist, genügt es, zwei Zeilen der Wahrheitstafel zu finden, von denen die eine die Aussage wahr macht und die andere die Aussage falsch macht. Dann können wir bereits aufhören. Z.B.: p q r (p q) (r q) w w w w w w also kontingent w w f w f f Um zu zeigen, dass eine Aussage logisch wahr oder logisch falsch ist, muß man allerdings alle Zeilen anführen. (b) Um zu zeigen, dass ein Schluß ungültig ist, genügt es, eine Zeile zu finden bzw. anzuschreiben, die alle Prämissen des Schlusses wahr und die Conclusion falsch macht. 50 (c) Um herauszufinden, ob ein Schluß mit mehr als einer Prämisse gültig ist oder nicht, ist das folgende Vorgehen ab wenigsten aufwendig: Man ermittle zuerst den Wahrheitswert der Conclusio für alle Zeilen. Dann muß man nur noch den Wahrheitswert der Prämissen für jene Zeilen ermitteln, die die Conclusio falsch machen. Dabei geht man bei den Prämissen von links nach rechts vor. Schon wenn in einer Zeile eine Prämisse falsch ist, breche man die Zeile ab und gehe zur nächsten Zeile über, die die Conclusio falsch macht. Wenn bei diesem Verfahren einmal eine Zeile gewonnen wird, die alle Prämissen wahr und die Conclusio falsch macht, ist der Schluß ungültig, andernfalls gültig. (Falls der Schluss nur eine Pärmisse hat, ist es egal, ob man zuerst den Wahrheitswert der Prämissen oder den der Konklusion bestimmt.) Z.B.: p w w w w f f f f q w w f f w w f f r w f w f w f w f p q q r w f f p r w f w f w w w w also gültig 4.6 Die kombinatorische Explosion der Wahrheitstafelmethode. Entscheidbarkeit und Komplexität Bei einer Aussage oder einem Schluß mit n verschiedenen Aussagevariablen benötigen mit eine Wahrheitstafel mit 2n Zeilen. Das ist eine exponentielle Funktion; solche sind immer explosiv - d.h. sie werden bei wachsenden n enorm schnell größer. n 2n 4 16 7 128 10 1024 20 1.048.576 Trotz obiger Vereinfachungen wird die Wahrheitstafelmethode bereits bei mehr als 5 Aussagevariablen praktisch unhandlich für einen Menschen, und bei mehr als 10 Aussagevariablen praktisch unhandlich auch für einen Computer. 51 Die Wahrheitstafelmethode ist eine sogenannte Entscheidungsmethode, d.h. ein Algorithmus (= eine maschinell exakte, im Prinzip in binäre Arithmetik übersetzbare Vorschrift), die nach einer endlichen Anzahl von Rechenschritten stehenbleibt und eine korrekte Antwort der Form "ja" (z.B. gültig) oder "nein" (z.B. ungültig) liefert. Noch vor mehreren Jahrzehnten war man in der mathematischen Logik primär daran interessiert war, herauszufinden, ob eine gewisse Logik entscheidbar ist oder nicht, d.h. ob für eine gegebene Logik eine Entscheidungsmethode existiert oder nicht. Die Aussagenlogik ist entscheidbar, das zeigt ja schon die Wahrheitstafelmethode. Dagegen ist die volle Prädikatenlogik - wie zuerst Gödel bewiesen hat - nicht mehr entscheidbar. In den letzten Jahrzehnten hat sich insbesondere durch Computerwissenschaft und künstliche Intelligenzforschung das Frageinteresse jedoch gewandelt. Ein Entscheidungsalgorithmus wie die Wahrheitstafel, der kombinatorisch explosiv (d.h. exponentiell) ist, nutzt für kompliziertere Fragestellungen wenig. Die viel wichtigere Frage ist, ob auch ein Entscheidungsalgorithmus existiert, der nicht kombinatorisch explosiv ist. Man nennt dies "traktable" (handhabbar). Solche Fragen sind Gegenstand der Komplexitätstheorie. Wonach man sucht, sind heuristische Verfahren, mit denen man zumindest in den meisten Fällen in viel kürzerer Zeit zum Ergebnis kommt. Genau das existiert nun in der aussagenlogischen Semantik - die sogenannte reductio ad absurdum Methode - und wir stellen dieses Verfahren nun vor. Es gelingt damit, in den meisten Fällen die Gültigkeit bzw- Ungültigkeit eines Schlusses (analog, den logischen Status von Sätzen) in nur einer oder in zumindest nur einigen wenigen Zeilen herauszufinden, auch wenn der fragliche Schluß 10 Aussagevariablen oder mehr enthält. Nur ganz selten, in den sogenannten schlimmsten Fällen ("worst case behavior") kann es vorkommen, dass man genauso viele Zeilen braucht wie die Wahrheitstafeln - aber solche Fälle sind kaum bekannt, und im übrigen ist die Frage der geringsten worst case Komplexität sogar im Fall der Aussagenlogik noch ein ungelöstes Problem das sogenannte P = NP Problem. 52 5. Aussagenlogische Semantik II: Reductio ad absurdum Methode Die Reductio ad Absurdum Methode ist zunächst eine generelle Methode, die nicht nur in der aussagenlogischen Semantik verwendet wird, sondern in anderer Gestalt auch beim deduktiven Beweisen. Ihr Grundgedanke ist der beweis mithilfe der Annahme des Gegenteils: Um einen Satz S als logisch wahr zu beweisen, nimmt man zunächst das Gegenteil an, also dass möglicherweise S falsch ist, also eine falsche Wahrheitswertzeile hat, und versucht, daraus einen logischen Widerspruch abzuleiten. Gelingt dies, so ist damit gezeigt, dass S unmöglich falsch sein kann was nichts anderes bedeutet, als dass S logisch wahr ist. Um aus gewissen Prämissen Präm eine Konklusion Kon zu beweisen, nimm man zunächst an, dass der Schluss möglicherweise ungültig ist, also eine Wahrheitswertzeile besitze, die alle Prämissen wahr aber die Konklusion falsch macht, und versucht, daraus einen logischen Widerspruch herzuleiten. Gelingt dies, so ist damit gezeigt, dass unmöglich alle Prämissen wahr und Konklusion falsch sein können was aber nichts anderes bedeutet, als dass der Schluß logisch gültig ist. Man nennt solche reductio-ad-absurdum Beweise auch indirekte Beweise, weil dabei das Beweisziel nicht direkt gefunden bzw. "konstruiert" wird, sondern nur indirekt gezeigt wird, dass das Gegenteil zu einem Widerspruch führt. Es handelt sich dabei um eine der wichtigsten Beweismethoden der klassischen Logik. (Es gibt allerdings auch Logiken, die versuchen, ohne diese Beweismethode auszukommen - die intuitionistische und konstruktivistische Logik.) Um dieses Verfahren nun für die aussagenlogische Semantik fruchtbar zu machen, benötigen wir eine zweite Methode - wir nennen sie die umgekehrte Wahrheitswertbestimmung. Die Grundidee ist: um herauszufinden, ob eine Aussage logisch wahr ist oder nicht, nehmen wir eine Wahrheitseertzeile an, die die Gesamtaussage falsch macht. Wir versuchen dann, davon ausgehend die Wahrheitswerte ihrer Teilaussagen zu bestimmen. Im Gegensatz zur Warheitstafelmethode, die von innen nach außen vorgeht, gehen wir hier also jedenfalls zunächst von außen nach innen vor. Wir tragen also unter den charakteristischen Junktor der Gesamtaussage den Wahrheitswert f ein und sehen, welche Teilaussagen hinsichtlich ihres Wahrheitswertes durch diese Annahme zwingend determiniert sind. Haben wir eine solche Teilaussage gefunden, so tragen wir den für sie resultierenden Wahrheitswert unter ihren charakteristi- 53 schen Junktor. Nun sehen wir nach weiteren Teilaussagen, deren Wahrheitswert durch die bisher eingetragenen Wahrheitswerte zwingend festgelegt ist und tragen diesen wieder an die entsprechende Stelle ein (äußerster Junktor), usw. Wir gehen schrittweise von außen nach innen, also von komplexeren zu immer einfacheren Teilaussagen vor. (Dabei können wir noch weitere Bestimmungsschritte vornehmen die gleich erläutert werden.) Wenn wir Glück haben, kommen wir damit bis zu den einzelnen Aussagevariablen der Gesamtaussage, d.h. die Wahrheitswerte aller Teilaussagen sind durch die Annahme, dass die Gesamtaussage falsch ist, zwingend bestimmt gewesen. Wir sagen dann, die entsprechende Zeile ist wahrheitswertdeterminiert. In diesem Fall gilt nun folgendes: - Ist in einer wahrheitswertdeterminierten Zeile ein Widerspruch hinsichtlich der Wahrheitswerte enthalten, so ist die betreffende Gesamtaussage logisch wahr. Dabei enthält eine Zeile einen Widerspruch hinsichtlich ihrer Wahrheitswerte, wenn entweder ein- und die- selbe Aussagevariable an einer Stelle w, an einer anderen f erhält, oder wenn der Wahrheitswert einer Teilaussage mit den Wahrheitswerten der Teilaussagen dieser Teilaussage nicht zusammenstimmt, d.h. im Widerspruch zur Wahrheitstafel des entsprechenden Junktors steht. Wir kennzeichnen Widersprüche jeweils durch einen Kreis - entweder um die Aussagevariablen, oder um den charakteristischen Junktor der entsprechenden Teilaussage, und machen das Widerspruchszeichen hinzu. - Erhält man eine Zeile ohne Widerspruch - die eine korrekte bzw. konsistente Zeile einer Wahrheitstafel bilden würde - so ist die betreffende Gesamtaussage nicht logisch wahr (denn die Annahme ihrer Falschheit ist logisch möglich). Wir haben dann sozusagen mit nur einer Zeile Aufwand ein Zeile gefunden, die die Aussage falsch macht. - Im Resultat wissen wir, ob die Aussage logisch wahr ist oder nicht. Ist sie nicht logisch wahr, so ist noch in einem zweiten Schritt zu prüfen, ob die Aussage nun kontingent ist oder logisch falsch -- dazu siehe weiter unten. -- Dasselbe Verfahren läßt sich natürlich auch wieder für Aussageschemata durchführen. Beispiel: Für die Aussage (p q) ((p r) q) soll die L-Wahrheit (logische Wahrheit) geprüft werden. Dazu werden zunächst die einzelnen Schritte angeführt: 54 (p q) ((p r) q) Schritt 1 Schritt 2: Schritt 3: Schritt 4: Schritt 5: w w w w w f f f f f f f w f www f www f f f f Annahme Außen nach Innen Außen nach Innen Außen nach Innen Übertragen: p, q Im Schritt 5 wurden die Wahrheitswerte von p und q von rechts nach links übertragen. Die Teilaussage mit eingekreistem Hauptjunktor enthält einen Widerspruch: wenn p w und q f ist, kann p q unmöglich w sein. Daher ist die Gesamtaussage logisch wahr. Man beachte, dass die Schritte ab Schritt 3 auch anders hätten gewählt werden können. Wir hätten zuerst den Wahrheitswert von q übertragen können, und dann auch die Konjunktion bestimmt. der Widerspruch würde sich dann an anderer Stelle manifestieren. Man sagt auch, die Methode ist "nichtdeterministich". Natürlich bleibt das Ergebnis immer dasselbe, denn die Methode ist ja korrekt - wenn ein Widerspruch auftritt, dann tritt er immer auf, egal in welcher Reihenfolge die Operationen ausgeführt werden; er kann sich aber an anderer Stelle manifestieren. Andere Reihenfolge: (p q) ((p r) q) Schritt 1: Schritt 2: Schritt 3: Schritt 4: Schritt 5: f Schritt 6: f f w f w f w w f f w w f f w w f f www f f f f f f f f f q übertragen p links bestimmen Von außen nach innen: Der Widerspruch manifestiert sich nun darin, dass p an den zwei verschiedenen eingekreisten Stellen einen verschiedenen Wahrheitswert erhält. Wir tragen nun im nächsten Schritt (damit das Verfahren handlich wird) die ermittelten Wahrheitswerte alle in eine Zeile ein: w (p q) ((p r) q) logisch wahr w f f w w w f fbzw.: (p q) ((p r) q) f w f f w w w f fAn einem solchen Ergebnis ist zwar nicht mehr unmittelbar ersichtlich, in welcher Reihenfolge vorgegangen wurde, aber das ist kein Nachteil das Verfahren soll ja möglichst schnell sein -- und jedenfalls läßt sich leicht ermitteln, ob richtig vorgegangen wurde, d.h. ob es einen zwingenden Bestimmungsweg gibt, der zu diesem Ergebnis führt. Weitere Beispiele: (---> Übertragung) 55 (p q) (r p) f w w f w f f nicht logisch wahr (konsistente Zeile für p = f, q = w, r = w, die die Aussage falsch macht) Beachte: Wenn wir eine konsistente Zeile gefunden haben, so ist damit zunächst nur gezeigt, dass die Aussage nicht L-wahr ist. Ob sie nun kontingent oder L-falsch ist, müssen wir durch eine zweite Anwendung der reductio ad absurdum Methode herausfinden, und angewandt auf die Annahme die Aussage sei möglicherweise wahr; dies wird weiter unten vorgeführt. Nächstes Beispiel: (p q) (p (q r)) ww f f w f f f f logisch wahr Obwohl wir bei dieser Methode insgesamt "von außen nach innen" schließen, können wir zwischendurch auch andere Schritte vornehmen, z.B. Übertragen, oder z.B. von innen nach außen schließen. Bzw. allgemeiner, wir "schlachten" die Wahrheitstafeln in jeder erdenklichen Weise aus. Wir verwenden bei diesem Verfahren folgende semantische Schlußschritte, wobei "A", "B" für Aussagevariablen oder für komplexe Teilformeln stehen: 1) Von außen nach innen. Das können wir in folgenden Fällen tun: A B A B A B A B f f w w f w f f f w w f w Wenn dagegen eine Implikation wahr, eine Disjunktion wahr, oder eine Konjunktion falsch ist, können wir nicht von außen nach innen schließen.2) Wahrheitswert von Variablen oder komplexen Teilaussagen übertragen(.... A ..( ....... A ........)).. w ....... w .... w ....3.1) Von innen nach außen schließen, wenn die Teilaussagen einer nächstkomplexeren Teilaussage bereits bestimmt wurden. Das geht immer, gemäß den Wahrheitstafeln. 3.2) Abgekürzung von 3.1: Von einer Teilaussage zur übergeordneten Teilaussage schließen ohne den Wert der anderen Teilaussage zu kennen. Das funktioniert gemäß der "Vereinfachungen innerhalb einer Zeile", die wir bei der Wahrheitstafelmethode besprochen haben. Hier zwei Beispiele: (p q) p logisch wahr, 56 w f f f w Widerspruch tritt auf, gleich welchen Wahrheitswert q hat p (p r) nicht logisch wahr, w f fw f konsistente Zeile, gleichl welchen Wahrheitswert r hat4) Von einer Teilaussage und der übergeordneten (Teil-)Aussage auf die andere Teilaussage. p q p q p q p q ww w f f w w f w w w f w f f w w w f f (Implizit machen wir in diesen semantischen Schlüssen von allen aussagenlogischen Regeln Gebrauch, die wir im Kapitel über deduktive Methode kennenlernen werden; z.B. in 5) liegt von links nach rechts Modus Ponens, Modus Tollens, Disjunktiver Syllogismus und kontraponierte Simplifikation vor.) Wir wenden das Verfahren auch auf Äquivalenzformeln wie A B an (s. Übungen). Hier kann man von außen nach innen gar nichts erschließen. Haben wir für eine Aussage herausgefunden, dass sie nicht L-wahr ist, so kann sie kontingent oder L-falsch sein. Um mit unserem Verfahren zu prüfen, ob sie L-falsch ist, setzen wir die Gesamtaussage per Annahme wahr und wenden dann dasselbe Verfahren an. Erhalten wir eine konsistente Zeile, so ist die Aussage nicht L-falsch, und daher kontingent, weil sie ja vorher als nicht Lwahr erwiesen wurde. Sind alle Zeilen widersprüchlich, so ist sie L- falsch. 57 Beispiel: p p logisch falsch w w w fWenn wir dieses Verfahren auf die obigen Aussage " (p q) (r p)" anwenden, so erhalten wir leider eine Zeilenaufspaltung, was wir weiter unten besprechen. Zunächst zeigen wir, wie wir mit diesem Verfahren die Gültigkeit von Schlüssen herauszufinden: Wir setzen wir per Annahme alle Prämissen wahr und die Conclusio falsch und wenden dasselbe Verfahren an. Erhalten wir einen Widerspruch, so ist der Schluß gültig. Entsteht eine konsistente Zeile, so ist der Schluß ungültig.Beispiele: p, p q . . . q gültig (Modus Ponens) w w w f f p q, p . . . q gültig (Disjunktiver Syllogismus) f w f w f f q, p q . . . p ungültig w f w w f konsistente Zeile: p = f und q = wBeispiele mit bis z u 10 Aussagevariablen finden sich in den Übungen. Zeilenaufspaltung:Das bisher besprochene Verfahren funktioniert nur, wenn die Zeile wahrheitsdeterminiert ist, d.h. wenn wir von außen nach innen vorgehend letztlich alle relevanten Wahrheitswerte zwingend ermitteln können. Da ist nicht immer der Fall. Wir können bei diesem Verfahren auch an einen Punkt gelangen, wo der Wahrheitswert keiner weiteren Teilaussage mehr durch die bisher ermittelten Wahrheitswerte determiniert ist. In diesem Fall müssen wir eine sogenannte Zeilenaufspaltung vornehmen. Dabei gehen wir so vor: 1) Wir nehmen für irgendeine noch nicht bestimmte Teilaussage oder Aussagevariable einmal den Wahrheitswert w, das andere Mal, in einer zweiten neu geschaffenen Zeile, den Wahrheitswert f an. Welche Teilaussage wir aufspalten, ist nicht vorgeschrieben und bestimmt sich nur durch heuristische Überlegungen; alle Wege zum Ziel, benötigen aber unterschiedliche viel AUfwand. 2) Wir übertragen sofort die bisher in der ersten Zeile ermittelten Wahrheitswerte auch in die zweite Zeile. (Denn diese Werte galten ja zwingend, und somit für beide Zeilen). 3) Um die Stelle, wo wir die Aufspaltung durchführten, kenntlich zu machen, versehen wir den Wahrheitswert, den wir aufspalteten, in beiden Zeilen mit einem Index, beginnend mit "1". (Zeilenaufspaltungen können iteriert auftreten).4) Wir fahren dann mit unserer "von außen nach innen"Bestimmungsmethode für jede der durch Aufspaltung gewonnenen Zeilen fort, solange bis wir entweder "am Ende" sind, oder erneut nichts mehr bestimmen können. In letzterem Fall müssen wir diese Zeile erneut in zwei aufspalten. Zwei Aufspaltungen führen also zu drei Zeilen, drei zu vier, jede Aufspaltung bringt eine Zeile mehr.5) Eine Aussage ist durch dieses Verfahren als logisch 58 wahr erwiesen, wenn alle Zeilen, die auf diese Weise erzeugt wurden, zu einem Widerspruch geführt haben. Denn die Zeilen sind ja sozusagen logisch mögliche Oder-Verknüpfungen von semantischen Wahrheitswertzuordnungen. Nur wenn alle diese Möglichkeiten scheitern, also zu einem Widerspruch führen, ist die Aussage als logisch wahr erwiesen. Sobald wir jedoch eine vollständig bestimmte konsistente Zeile gefunden haben, wissen wir, dass die Aussage nicht logisch wahr ist, und können da Verfahren abbrechen. 6) "Das Ende" ist wie folgt erreicht. Entweder wir erreichen bei dem Verfahren eine vollständig bestimmte Zeile, die konsistent ist. Dann ist die Aussage nicht logisch wahr. Bzw. wenn wir auf L-Falschheit prüfen, nicht logisch falsch, und wenn wir auf Gültigkeit prüfen, ist der Schluß nicht gültig. Oder, wir müssen das Verfahren solange weiterführen, bis alle Zeilen, die durch Aufspaltung entstanden sind, einen Widerspruch enthalten (was meistens erst dann sichtbar wird, wenn sie vollständig bestimmt sind, manchmal aber schon vorher). Dann ist die Aussage logisch wahr. Und analoges gilt für die Prüfung auf L-Falschheit bzw. auf Gültigkeit. Haben wir eine Zeile, die den Schluss widerlegt, dann ist der Schluss ungültig; enthält dagegen jede durch Aufspaltung erzeugte Zeile einen Widerspruch, ist der Schluss gültig. Beispiele:A B, B C, C A . . . (C B) (B A) gültig w1 w w f1 w f w w w f w f w w w f w f w w w f w f f f w w w f w f Vollständig Ermittlung des logischen Status einer kontingenten Aussage: (p q) (p q) nicht logisch wahr w1 w f f w f f konsistente Zeile erreicht, Verfahren wird abgebrochen f1 w f f (p q) (p q) w1 w w w w w w f1 w nicht logisch falsch konsistente Zeile, Verfahren wird abgebrochen Ergo: (p q) (p q) ist kontingent. Im schlimmsten Fall kann die Zeilenaufspaltung zu vielen Zeilen führen, wie in der Wahrheitstafel vorkommen; das tritt jedoch nur ganz selten auf (es ist nur eine theoretische Möglichkeit, hier der sich das P ? NP Problem verbirgt). Weitere Beispiele in den Übungen. 59 Hinweis: Weitere optionale Klammerersparnis regel: und bindet vor und . pq rist also zu lesen als (pq) r , und nicht als p(qr) Analog ist pq rzu lesen als (pq) r , und nicht als p(qr) Analog, pq rs zu lesen als (pq) (rs) Diese Klammerersparnisregel ist in der Literatur üblich Wir werden sie im folgenden nicht bzw. nur selten verwenden. Beim Zeichnen von Konstruktionsbäumen verwenden wir sie niemals. 60 6. Repräsentierung natürlichsprachiger Sätze und Argumente 6.1 Arten natürlichsprachiger Sätze und *Arten und Rekonstruktionstiefe von Logiken Nicht alle Sätze (der natürlichen Sprache) drücken überhaupt Aussagen aus, sondern nur Aussagesätze (meist Indikativsätze). Fragesätze: "Liebt Peter Anna?" oder Befehlssätze: "Peter, jetzt liebe sofort Anna!" etc. drücken keine Aussagen aus. Philosophisch gesehen ist es Kennzeichen von Aussagen, wahr oder falsch sein zu können. Die Menge aller Aussagen der natürlichen Sprache läßt sich nach logischen Kriterien gemäß Kap. 1.4 dann weiter wie folgt einteilen. Damit ergeben sich zugleich die 4 Logikarten, unterschieden nach Rekonstruktionstiefe. Es stehe: AL - für (nichtmodale) Aussagenlogik PL - für (nichtmodale) Prädikatenlogik MAL - für modale Aussagenlogik MPL - für modale Prädikatenlogik Eine Aussage heißt AL-zerlegbar, wenn ihr äußerster Operator ein ALKonnektiv ist, PL-zerlegbar, wenn ihr äußerster Operator ein Quantor ist oder wenn sie atomar ist, MAL-zerlegbar, wenn ihr äußerster Operator ein intensionaler Satzoperator ist. 61 Sätze im weiten Sinn Befehlssätze Sätze im engen Sinn = Aussagen AL-unzerlegbar = warheitswertfunktional unzerlegbar Fragesätze .... AL -zerlegbar = wahrheitswertfunktional zerlegbar behandelt die AL nach dem charakteristischen Junktor: Nega- Konjunk- Disjunk- Implikationen tionen tionen tionen MAL-zerlegbar = Intensional zerlegbar notwendig möglich geboten O erlaubt P behandelt die: alethische MAL/MPL deontische MAL/MPL PL-zerlegbar = Quantifiziert weder MAL- noch PL-zerlegbar Existenzquantor x Allquantor x Atomare Aussagen Rna1...an ... PL Diese 4 Logikarten werden von oben nach unten immer feiner in ihrer Rekonstruktionstiefe. Natürlich kann man auch Aussagen einer feinerer Logik X in einer gröberen Logiken Y repräsentieren, indem man für die Y-unzerlegbaren Teilaussagen von X Variable setzt. 62 Beispiele: ('wie links' meint 'wie auf der linken Seite stehend) Rekonstruktion in: AL MAL PL MPL nur AL-zerlegbar: p q wie links .... MAL-zerlegbar: (p q) p wie links ..... PL-zerlegbar: x(Fx Gx) p p wie links ..... unzerlegbar: Fa p p wie links .... AL-zerlegbar: p q r q wie links r q wie links MAL-zerlegbar: x(FxGx) p p p wie links PL-zerlegbar: x (FxGx) p p xQx wie links Wir rekonstruieren im folgenden natursprachliche Sätze nur innerhalb der ALRekonstruktionstiefe, d.h. für alle AL-unzerlegbaren Sätze setzen wie eine Aussagenvariable. Im Kapitel über PL rekonstruieren wir bis in die PLRekonstruktionstiefe. MAL- und MPL-Rekonstruktionen sind Gegenstand von Spezialvorlesungen. 6.2 Repräsentierung in der Aussagenlogik Die Übersetzung von der natürlichen Sprache in die logische Sprache ist durch keinen mechanischen Algorithmus darstellbar (wenn, wäre dieser ungeheuer kompliziert), sondern bedarf der Interpretation. Nur die umgekehrte Übersetzung von der logischen in die natürliche Sprache ist mechanisch darstellbar (wenn man erlaubt, dass man gewisse Kunstworte in die natürliche Sprache einführt). Wenn man nun einen Satz der natürlichen Sprache aussagenlogisch repräsentieren will, muß man herausfinden, welche Satzbestandteile elementar (= aussagenlogisch unzerlegbar) sind und welche Worte bzw. Phrasen aussagenlogischen Junktoren entsprechen. Dann braucht man nur noch die elementaren Satzbestandteile durch Aussagevariable und die Junktorphrasen durch Junktoren zu ersetzen und hat somit die aussagenlogische Repräsentierung. Die Übersetzung der elementaren (Al-unzerlegbaren) natursprachlichen Sätze geben wir durch eine Übersetzungslegende wieder, etwa: p - Peter fiel hin q - Peter brach sich das Bein, usw. Bei der Beurteilung, ob ein natursprachliches Verknüpfungswort (wie "wenn", "ob- wohl", "sogleich", "mithilfe" - welcher grammatikalischen Kategorie auch immer) einem aussagenlogischen Junktor entspricht, können wir drei Fälle un- 63 terscheiden: 1. Das natursprachliche Verknüpfungswort entspricht genau einem Junktor, d.h. hat keine zusätzliche sachliche Bedeutung (unterschwellige Bedeutungen wie ironisierender Tonfall etc. wollen wir nicht berücksichtigen). 2. Das natursprachliche Verknüpfungswort entspricht einem Junktor, hat oer impliziert aber darüberhinaus eine Zusatzbedeutung, die durch einen aussagenlogischen Junktor nicht wiedergegeben werden kann. D.h. der Junktor ist nur Teilbedeutung des natursprachlichen Verknüpfungswortes. In diesem Fall merken wir die Zusatzbedeutung durch einen Extravermerk an. 3. Das natursprachliche Verknüpfungswort entspricht keinem Junktor, d.h. der betreffende Satz bzw. Satzteil ist als aussagenlogisch unzerlegbar anzusehen. Beispiele: Für 1: Ich bin nicht gesund "nicht" entspricht genau "" Für 2: Ich fiel hin und brach mir das Bein "und" enthält "" als Teilbedeutung, der Kausalzusammenhang zwischen dem ersten und dem zweiten Teilsatz ist eine zusätzliche Bedeutung des "und". Für 3: Er rief, damit sie ihn hören "damit" entspricht keinem Junktor, sondern drückt bloß die Zweckbeziehung der beiden Teilsachverhalte aus. Im folgenden werden die wichtigsten natursprachlichen Verknüpfungswörter/ phrasen zusammengestellt, die aussagenlogischen Junktoren ganz oder teilweise entsprechen. Die Aufzählung ist natürlich nicht erschöpfend. Natursprachliche Ausdrücke für die Negation: Wird meist ausgedrückt durch die Wörter: "nicht", "nie", "niemals", "kein" die Redewendungen: "Es ist nicht der Fall, dass...", "Es ist nicht so ...", "Auf keinen Fall ..." sowie die Vorsilbe "Un-" (Zu "(Weder)-noch" vgl. unten). Beispiele: Francis Bacon ist nicht der Autor der Shakespeare-Dramen Auf keinen Fall ist Francis Bacon der Autor der Shakespeare-Dramen Niemals ist Francis Bacon der Autor der Shakespeare-Dramen Es ist nicht so, dass Francis Bacon der Autor der Shakespeare-Dramen ist Alle diese Phrasen entsprechen der Negation genau. "Nie" und "Niemals" entspricht allerdings häufig auch der Negation eines Existenzsatzes. 64 Man beachte nämlich den Unterschied zwischen den beiden Sätzen: 1) Fritz geht nicht ins Kino 2) Fritz geht niemals ins Kino 1) bedeutet "es ist nicht der Fall, dass Fritz ins Kino geht" oder "p" mit "p""Fritz geht ins Kino" 2) bedeutet "es ist nicht der Fall, dass es einen Zeitpunkt gibt, zu dem Fritz ins Kino geht" oder "q" mit "q"- "es gibt einen Zeitpunkt, zu dem Fritz ins Kino geht", wobei "q" prädikatenlogisch die Form "tGat" besitzt. Weiters: In "nicht nur" und "nicht allein" drückt das Wort "nicht" in der Regel keine Negation aus! (Vgl. unten). Vorsicht auch bei der Vorsilbe "Un-": Dieser Mensch ist ein Unmensch - hier ist dies nicht die Negation von "ist Mensch". Bei "unmöglich" dagegen ist "un" genau die Negation. Es herrscht ein Ungewitter ("Un-" als Verstärkung). "Un" muss nicht immer etwas Schlechtes bedeuten: z.B. "er ist unfehlbar". Natursprachliche Ausdrücke für die Konjunktion: Wird ausgedrückt durch und: Fritz und Franz sind intelligent Vorsicht: nicht immer ist "und" eine aussagenlogische Konjunktion. In folgendem Beispiel verbinden "und" die beiden Argumente eines zweistelligen prädikates: Fritz und Franz sind Brüder . AL-Repräsentierung durch: p (also Al-unzerlegbar Sowohl Fritz als auch Franz sind intelligent Beethoven komponierte 9 Sinfonien, auch die Musik zu "Fidelio" stammt von ihm Beisätze: Newton, der Begründer der klassischen Mechanik, entwickelte die Differentialrechnung kann man auch wie folgt formulieren: Newton ist der Begründer der klassischen Mechanik und er entwickelte die Differentialrechnung Gleiches gilt, wenn der Beisatz durch Bindestriche oder Klammern gekennzeichnet ist, z.B.: Erastosthenes (276-194 v.Chr.) berechnete den Erdumfang sowohl-als auch: auch: 65 E.T.A. Hoffmann - er schrieb auch die Musik zur Oper "Undine" - verfaßte zahlreiche Erzählungen Adjektive: Sie entsprechen ebenfalls oft (nicht immer) einfachen Konjunktionen. Z.B. Der schöne Udo fiel hin kann wiedergegeben werden durch: Udo ist schön und Udo fiel hin. Wie schon erwähnt, kann das "und" auch eine Zusatzbedeutung haben. Generell kann die Bedeutung natursprachlicher Worte von Kontext zu Kontext variieren, sodass man keine allgemeingültigen Zuordnungen treffen kann, sondern jeweils auf den Satzkontext/Sprachkontext achten muß. Folgende Worte haben neben der Konjunktion noch eine Zusatzbedeutung: OBWOHL: Der Satz Die Römer wurden in der Schlacht von Cannae geschlagen, obwohl sie dem Feind zahlenmäßig überlegen waren enthält als Teilbedeutung die Konjunktion pq mit: p - Die Römer wurden in der Schlacht von Cannae geschlagen q - die Römer waren (in der Schlacht von Cannae) dem Feind zahlenmäßig überlegen. Die Zusatzbedeutung drückt aus, dass p durch q eigentlich unwahrscheinlich gemacht wird. SOGAR: Der Satz Die Türken eroberten die ganze Balkanhalbinsel, sogar Wien wurde belagert enthält als Teilbedeutung pq mit p - die Türken eroberten die ganze Balkanhalbinsel q - Wien wurde belagert. Die Zusatzbedeutung ist, dass q an und für sich unwahrscheinlich (selten) ist, oder zumindest unwahrscheinlicher als p. NICHT NUR - (SONDERN) AUCH: Der Satz Nicht nur die Planeten, auch die Fixsterne bewegen sich am Himmel enthält die Teilbedeutung pq mit der entsprechenden Legende für p und q. 66 Die Zusatzbedeutung legt die Betonung auf q, sie ist hier stark bezogen auf Erwartungen des Hörers. WEIL: "p weil q" - enthält als Teilbedeutung "p und q" und hat die offensichtliche Zusatzbedeutung des kausalen Zusammenhangs. Hier ist die Zusatzbedeutung fast wichtiger als die AL-Bedeutung, weshalb die Rekonstruktion als "pq" auch als nicht mehr wirklich adequat angezweifelt werden kann. (Von "Zusatzbedeutung" zu reden ist nur sinnvoll, wenn die Grundbedeutung die wichtigere ist.) ABER: Der Satz Im Tal ist es nebelig, aber auf den Bergen scheint die Sonne pq mit entsprechender Legende Zusatzbedeutung: gewisser Gegensatz zwischen p und q WÄHREND: Der Satz Während es nur eine gerade Primzahl gibt, gibt es unendlich viele ungerade pq Zusatzbedeutung: stellt p und q in einen gewissen Gegensatz. Man beachte jedoch: In dem Satz Während Emma im Kino saß, plünderte ein Einbrecher ihre Wohnung ist das "während" zeitlich zu interpretieren als Es gibt eine Zeit, in der Emma im Kino saß und in der ein Einbrecher ihre Wohnung plünderte. Diese Aussage ist somit AL-unzerlegbar. (Vorgriff: Die PL-Form ist dieser Aussage ist: t y(Kat Eyat) mit Kxt - x sitzt zur Zeit t im Kino, a - Emma, und Eyxt - y ist ein Einbrecher, der zur Zeit t x's Wohnung plündert. ) Natursprachliche Ausdrücke für die Disjunktion: Sie wird häufig durch "oder" ausgedrückt. Meistens ist aber damit ein "entweder - oder" gemeint. Das "entweder - oder" enthält das logische "" als Teilbedeutung. Die Zusatzbedeutung ist hier aber aussagenlogischer Natur: "entweder p oder q" bedeutet "p q und (p q)". 67 Die Disjunktion wird ferner ausgedrückt durch: AUSSER WENN: Der Satz Unser Hund Cäsar ist brav, außer wenn er angegriffen wird bedeutet Unser Hund Cäsar ist brav, oder (aber) er wird angegriffen Einfache Wiedergabe: pq Das "oder" ist hier aber wieder als "entweder - oder" gemeint. D.h. mit dem Satz möchte ich auch ausdrücken, dass der Hund nicht brav ist, wenn er angegriffen wird. Vollständige Wiedergabe: p q, also (p q) (p q). Es gibt eine alternative Rekonstruktion: man liest den Satz als Implikation Wenn er nicht angegriffen wird, ist unser Hund Cäsar brav qp Ist logisch äquivalent mit pq Zur Wiedergabe der exklusiven Disjunktion mithilfe der Implikation hängt man die anderen Impliationsrichtung (Wenn er brav ist, wird unser Hund Cäsar nicht angegriffen, pq), somit: pq ES SEI DENN, DASS: Der Satz Morgen wird es regnen, es sei denn, dass Föhn kommt bedeutet Morgen wird es regnen, oder (aber) der Föhn kommt und ist wie oben (eher) ausschließend (als entweder - oder) gemeint. Natursprachliche Ausdrücke für die Implikation: Alle Verknüpfungswörter für die Implikation haben als zusätzliche Bedeutung, dass ein inhaltlicher, kausaler oder begründender Wenn-Dann-Zusammenhang gemeint ist (vgl. Kap. 2). WENN - DANN: ist sehr häufig Man beachte, dass das wenn-dann in der natürlichen Sprache mehrfach verstellbar ist, wenn A, dann B ist gleichbedeutend mit Logisch immer: AB wenn A, B (dann weglassen) B, wenn A (umstellen) B dann, wenn A SOFERN: Der Satz Sofern die Relativitätstheorie stimmt, wird Licht im Schwerefeld abgelenkt bedeutet Wenn die Relativitätstheorie stimmt, wird Licht im Schwerefeld 68 abgelenkt d.h. p q, mit den Übersetzungen p - die Relativitätstheorie stimmt q - Licht wird im Schwerefeld abgelenkt. IM FALL DASS: Der Satz Im Fall dass die Relativitätstheorie stimmt, wird Licht im Schwerefeld abgelenkt bedeutet Wenn die Relativitätstheorie stimmt, wird Licht im Schwerefeld abgelenkt Analog für: Vorausgesetzt dass NUR WENN: Nur wenn es kalt ist, dann schneit es oder verkürzt / umgestellt Nur wenn es kalt ist, schneit es Es schneit nur dann, wenn es kalt ist Es schneit nur, wenn es kalt ist bedeutet immer soviel wie: Wenn es schneit, ist es kalt - d.h. dann muß es notwendigerweise kalt sein. Das "nur wenn" ist also eine umgekehrte Implikation. "Nur wenn A, dann B" resp. bedeutet somit: "Wenn B, dann A". Merke: Sowohl im Wenn-Dann wie im Nur-wenn-dann wird auf zeitliche Reihenfolge oder kausale Folge keine Rücksicht genommen. Dies gilt insbesondere für das Nur-wenn-dann. Zwar ist im Satz "es schneit nur dann, wenn es kalt ist" die Kälte die Ursache des Schneiens, aber es handelt sich um keine hinreichende Ursache, sodass auch gelten würde "immer wenn es kalt ist, schneit es". Die Ursache ist nur "notwendig", d.h. wenn es schneit, dann muß es - als notwendige Voraussetzung - kalt gewesen sein. Notwendige und hinreichende Bedingung: Statt "wenn A, dann B" sagt man auch "A ist eine hinreichende Bedingung für B". Statt "nur wenn A, dann B" (resp. "wenn B, dann A") sagt man auch "A ist eine notwendige Bedingung für B". 69 Zusammengesetzte Junktoren: Genau dann, wenn Dann und nur dann, wenn notwendige und hinreichende Bedingung entsprechen alle der Äquiovalenz: (p q) = (per def.) (p q) (q p) Ein besonderer Fall ist das "auch wenn" "p auch wenn q" heißt soviel wie "p" mit der Zusatzbedeutung "p ist im Falle q unwahrscheinlicher als im Falle q" 70 Zusammenstellung einiger umgangssprachlicher Ausdrücke für Junktoren: (mit oder ohne Zusatzbedeutung - dies ist meist kontextabhängig) _______________________________________________________________________ NEGATION: ( Q) nicht Q nie Q niemals Q kein Q keineswegs Q Un-Q Auf keinen Fall Q Es ist nicht der Fall, dass Q Es ist nicht so, (dass) Q _________________________________________________________________________ KONJUNKTION: (Q R) Q und R Q, aber (auch) R Q weil R Q, jedoch (auch) R Q, auch R Q während R Q obwohl R Q, doch (schon) R sowohl Q als auch R Q, sogar R Q obzwar R Q, doch immerhin R Nicht nur Q, (sondern) auch R Nicht allein Q, (sondern) auch R _________________________________________________________________________ DISJUNKTION: (Q R) (bzw. Entweder - Oder: Q R) Q oder R Q, es sei denn, dass R Q oder R oder beides Q, außer wenn R __________________________________________________________________________ IMPLIKATION. (Q R) Wenn Q, (dann) R Wenn Q, so R R falls Q Q nur wenn R Aus Q folgt, dass R R sofern Q R im Fall dass Q Ist Q der Fall, so (auch) R Q nur sofern R R vorausgesetzt, dass Q Q impliziert, dass R Q nur im Fall, dass R Q ist eine hinreichende Bedingung für R R ist eine notwendige Bedingung fürQ Man beachte jeweils die Reihenfolge von Q und R! __________________________________________________________________________ ÄQUIVALENZ: ((Q R) (R Q)) (Q R) Q genau dann, wenn R Q dann und nur dann, wenn R Q ist eine notwendige und hinreichende Bedingung für R __________________________________________________________________________ 71 Repräsentierung von Argumenten: Will man Argumente bzw. Schlüsse der natürlichen Sprache repräsentieren, so muß man neben der Repräsentierung der Aussagen, aus denen die Schlüsse bestehen, noch herausfinden, was die Prämissen sind, und was die Conclusio ist. Keineswegs muß in einem natursprachlichen Text eine Prämisse immer vor der Conclusio angeführt sein. Jedoch deuten gewisse natursprachliche Wörter meist klar an, was Prämisse und was Conclusio ist. Manchmal ist dies aber nur aus der Stellung eines Satzes im Text ersichtlich. Prämissen-Indikatoren: denn, da, weil, insofern als, (nämlich, man bedenke hierzu), ... Konklusions-Indikatoren: also, daher, demnach, somit, deshalb, wir schließen (folgern) hieraus, es folgt hieraus, aus diesem Grunde, ... Beispiel: Peter fährt Fahrrad. Daher ist Peter gesund. Denn wenn Peter nicht gesund ist, fährt er nicht Fahrrad. Die zweite Prämisse wird hier erst nach der Konklusion nachgetragen Rekonstruktion: Prämisse 1: Peter fährt Fahrrad Prämisse 2: Wenn Peter krank ist, dann fährt er nicht Fahrrad Konklusion: Peter ist gesund Legende: p - Peter fährt Fahrrad q - Peter ist gesund p q p q Hat man ein Argument - z.B. eines alltagssprachlichen oder philosophischen Texts - repräsentiert und gefunden, dass es ungültig ist, so darf man nicht gleich schließen, dass der betreffende Autor (des Texts) sich logisch geirrt hat. Man muß sich zunächst überlegen, ob der Autor nicht gewisse weitere, unausgesprochene Prämissen als selbstverständlich vorausgesetzt hat, bei deren Mitberück- sichtigung der Schluß logisch gültig wird. Das Herausfinden von nicht explizit erwähnten Prämissen ist Bestandteil der logischen Textanalyse. (Beispiel: "Der Bauer lebt nicht mehr, denn er ist letztes Jahr gestorben", usw.) (Abschließendes Beispiel: Kriminalrätsel Üb. S. 152). 72 7. Wichtige aussagenlogische Schlüsse, Theoreme und Metatheoreme Gültige Schlüsse: Die folgenden gültigen Schlüsse werden Basisregeln unseres deduktiven Systems sein (';' trennt Schlüsse): (MP) A B, A . . . B (MT) A B, B . . . A (DS) A B, A . . . B ; A B, B . . . A (ADD) A . . . A B ; A . . . B A Modus Ponens Modus Tollens Disjunktiver Syllogismus (2 Formen) Addition (2 Formen) (SIMP) A B . . . A ; A B . . . B (KON) A, B . . . A B Simplifikation (2 Formen) (DN) A . . . A ; Doppelte Negation (2 Formen) A . . . A Konjunktion Weitere wichtige gültige Schlüsse die folgenden gültigen Schlüsse werden abgeleitete Schlüsse unseres deduktiven Systems sein: Die Implikation betreffend: Name(n) der Schlüsse A B, B C . . . A C Hypothetischer Syllogismus, Transitivität der , "Kettenschluss" (A (B C)) ((A B) (A C)) "Dreierschluß" A B, C D, A C . . . B D konstruktives Dilemma A B, C D, B D . . . A C A C, B C . . . (A B) C A B, A C . . . A (B C) A (B C) . . . (A B) C (A B) C . . . A (B C) A B . . . (A C) B A B . . . A (B C) A B . . . ((A C) (B C)) A B . . . (A C) (B C) destruktives Dilemma -Einführung im Antecedens -Einführung im Konsequens Importation Exportation Prämissenverstärkung. Monotonie Abschwächung der Conclusion 73 Triviale oder irrelevante Schlüsse: A...A Triviales Argument A . . . A B B . . . A B Ex Falso quodlibet, materiale Version A A . . . B A . . . B B Ex Falso quodlibet, logische Version Verum ex quodlibet, materiale Version Verum ex quodlibet, logische Version Einige wichtige logisch wahre Aussagen (sogenannte "Theoreme"): Alle obigen Schlüsse ergeben L-Wahrheiten, wenn man ". . . " durch "" ersetzt und die Prämissen mit einer Konjunktion verbindet. Dies ist der Inhalt des Metatheorems des KB, konjunktive Version (s. unten). Weitere spezielle L-Wahrheiten: A A (A A) ((A B) A) A Tertium non datur Ausgeschlossener Widerspruch Peirce'sche Formel 74 Äquivalenztheoreme (für logisch äquivalente Umformungen besonders wichtig): Die folgenden L-Wahrheiten fungieren als Basisäquivalenzen im Kalkül der äquivalenten Umformung Achtung: dieser Kalkül wird erst in "Logik II" behandwelt. Im System es natürlichen Schließens S, das in "Logik 1" behandelt wird, dürfen diese Äquivalenzen nicht vorausgesetzt werden, sie müssen bewiesen werden: Beachte: bindet hier vor und (DN) (Komm) (Komm) (Ass) (Ass) (Idem) (Idem) (Distr) (Distr) (DM) (DM) (Def) (Def) (Taut) (Kont) (Abs) (Abs) A A Doppelte Negation AB BA Kommutativität der AB BA Kommutativität der A (B C) (A B) C Assoziativität der A (B C) (A B) C Assoziativität der A AA Idempotenz der A AA Idempotenz der A (B C) (A B) A C) Distributivgesetz 1 A (B C) (A B) (A C) Distributivgesetz 2 (A B) A B DeMorgan-Gesetz 1 (A B) A B DeMorgan-Gesetz 2 (A B) A B Bedeutung (A B) (A B) (B A) Def A (B B) A Überflüssige Tautologie Überflüss. Kontradiktion A (B B) A A (A B) A -Absorption A (A B) A -Absorption Abgeleitete Äquivalenzen: (A B) (B A) (A B) A B (A B) (B A) (A B) (A B) (A B) Kontraposition Falsifikation Komm Weitere lernen wir in den Übungen und Kap. 8. 3 kennen. 75 Optionale Klammerersparnisregeln, die man häufig in der Literatur findet: (a) Die Klammern innerhalb geschachtelter Konjunktionen bzw. Disjunktionen werden weggelassen - wegen der Assoziativität von und . Wir schreiben (A B C) statt (A B) C oder A (B C) Wir schreiben (A B C) statt (A B) C oder A (B C). Dies bringt uns zum Begriff der fortlaufenden n-stelligen Konjunktion und Disjunktion. Wegen der Kommutativität von und können wir fortlaufende Konjunktionen und Disjunktionen sogar über Mengen von Sätzen definieren - bei Mengen kommt es auch auf die Reihenfolge nicht an. Beachte: ist weder assoziativ noch kommutativ. (b) und sollen stärker binden als . D.h. wir schreiben A B C statt A (B C), A B C statt A (B C), A B C statt (A B) C, usw. Gültige bzw. gültigkeitserhaltende Metaregeln (Metatheoreme): Logische Metaregeln (Metatheoreme) sagen etwas Generelleres aus als die LWahrheit eines einzelnen Satzes oder die L-Gültigkeit eines einzelnen Schlusses. Meistens aber haben sie folgende Form: wenn dies und dies ein gültiges Schlußschema ist, so ist auch jenes und jenes ein gültiges Schlußschema. Die Nützlichkeit von Metatheoremen ist evident: man kann mit ihnen neue gültige Schlüsse aufgrund bereits bekannter alter gültiger Schlüsse finden, ohne die semantischen Methoden extra anwenden zu müssen. Die folgenden drei Metatheoreme werden als grundlegende Metaregeln unseres deduktiven Systems fungieren: 76 (KB): Ist P1, ..., Pn . . . C ist ein gültiger Schluß, dann ist auch P , ..., Pn-1 . . . P C ein gültiger Schluß. (Konditionalbeweis) 1 n Die umgekehrte Richtung gilt ebenfalls - schon aufgrund des Modus Ponens. Spezialfall von für n = 1: A . . . B ist ein gültiger Schluß gdw A B logisch wahr ist. "Konjunktive Version" des KB: P1, ..., Pn . . . C ist ein gültiger Schluß gdw P1 ... Pn . . . C logisch wahr ist. Generell kann man logisch wahre Sätze als Schlüsse mit leerer Prämissenmenge auffassen. = leere Menge. A ist logisch wahr g.d.w. . . . A. Die Beweise für Metatheoreme wie (M1) sind ebenfalls metasprachlich formuliert - sogenannte metalogische Beweise. Sie beruhen nicht mehr auf einzelnen Wahrheitstafeln, sondern auf Betrachtungen über allgemeine Eigenschaften von Wahrheitstafeln bzw. deren semantischen Eigenschaften. Oft werden solche Beweise durch sogenannte mathematische Induktion über den Formelaufbau geführt, oder durch mathematische Induktion über einen anderen diskreten Parameter. Darauf wird in Spezialvorlesungen eingegangen. Der Beweis für (KB) ist denkbar einfach. Angenommen, P , ..., P . . . C ist 1 n gültig, d.h. es gibt keine Zeile, die alle Prämissen P1, ..., Pn wahr, und C falsch macht. Dann kann es auch keine Zeile geben, die die Prämissen P1, ..., Pn-1 wahr und Pn C falsch macht, denn gäbe es eine solche, so hieße dies ja, dass auch P wahr und C falsch gemacht wird. Somit muß auch P , ..., P . . . P n 1 n-1 n C gültig sein. (FU) Ist A, P1, ..., Pn . . . B und A, P1, ..., Pn . . . B gültig, (Fallunterscheidung). so ist auch P , ..., P . . . B gültig 1 n Mithilfe von (KB, konj. Vers.) können wir nun die weiteren Metatheoreme beweisen, indem wir Schl+üsse in die korrespondierende Satzform umschreiben. Zum semantsichen Beweis der FU-Metaregel brauchen wur nur zu zeigen, dass ((A P ... P ) B) ((A P1 ... Pn) B). . . (P1 ... Pn) B 1 n gültig istwas wir mit gewöhnlichen Wahrheitstafelmethoden tun können. 77 Beispiel für FU: A AB A B gültig, B A AB und A B gültig, B daher AB A B B gültig. (IB) Ist A, P1, ..., Pn . . . B B gültig, so ist auch P1, ..., Pn . . . A gültig (Indirekter Beweis oder reductio ad absurdum). Jede Formel der Form "AA" heißt Widerspruch. IB besagt also, dass wir einen Schluß beweisen können, indem wir aus den Prämissen und der Negation seiner Konklusion einen Widerspruch herleiten. Vgl. Kap. 5. Die folgenden Metaregeln sind implizit im späteren deduktiven Kalkül eingebaut: (Schnitt) Ist A , ..., A . . . B gültig und B, C , ..., C . . . D gültig, 1 n 1 m so ist auch A1, ..., An, C1, ..., Cm . . . D gültig (Schnittregel) Die Schnittregel liefert die Grundidee für die deduktive Methode, nämlich das Weiterschließen - das Aneinanderkoppeln von Schlüssen: A B wird "rausgeschnitten" AB A B B AB gültig, und BC BC C C gültig, daher gültig Die folgenden drei Metaregeln - Vertauschung, Monotonie und Kürzung sind in unserem deduktiven Kalkül ebenfalls eingebaut - ihre Geltung folgt trivial aus der Definition von "Gültigkeit": Vertauschung der Prämissen: Ist A , ..., A , ..., A , ..., A . . . B gültig, so ist auch 1 i j n A1, ..., Aj, ..., Ai, ..., An . . . B gültig. Monotonie, der Folgerung, Hinzufügen von (überflüssigen) Prämissen: Ist A , ..., A . . . B gültig, so ist auch A , ..., A , C . . . B gültig. 1 n 1 n Reduktion wiederholter Prämissen: Ist A, A, B1, ..., Bn . . . C gültig, so ist auch A, B1, ..., Bn gültig. 78 Folgendes Metatheorem ist Grundlage unseres späteren Äquivalenzkalküls: (ERS): Ersetzungsregel: Sei C[B/A] jene Formel, die aus C dadurch entsteht, dass die Teilformel A von C an ein oder mehreren Vorkommnissen durch B ersetzt wird. Dann ist A B . . . C C[B/A] gültig. Beispiel: (p q) (p q) . . . ((p q) r ) ((p q) r) (ERS) beweist man nicht mehr so einfach wie die bisherigen; man benötigt hierzu die schon erwähnte mathematische Induktion nach dem Formelaufbau. 79 8. Deduktive Methode 8.1 Das aussagenlogische System des natürlichen Schließens S Die Grundidee der deduktiven Methode ist das Weiterschließen und basiert auf der in Kap. 7 erläuterten Schnittregel: Wir verwenden die Conclusion eines Schlusses als Prämisse eines weiteren Schlusses und erhalten durch Aneinanderkoppelung der beiden Schlüsse einen neuen, komplexen Schluß, der als Prämissen die vereinten Prämissen beider Schlüsse und als Conclusion die Conclusion des letzten (zweiten) Schlusses enthält. Z.B. A A B ergibt: B BC C A A B BC C Wir schreiben alle Prämissen an die Spitze und wenden dann, hintereinander, bereits bekannte Schlüsse bzw. Schlußregeln an. Der jeweils erreichten Conclusion geben wir eine neue Nummer und verwenden sie als Prämisse weiterer Schlüsse. Wir fahren solange fort, bis wir - wenn wir Glück haben - zur gewünschten Conclusion kommen. - Der obigem Schema entsprechende Beweis lautet also: (1) (2) (3) (4) (5) AB BC A B C Präm (für Prämisse) Präm Präm mittels MP (Modus Ponens) aus (1) und (3) mittels MP aus (4) und (2) Einen derartigen Beweis verdeutlicht man im sogenannten Beweisbaum: Prämissen stehen an der Spitze (die "Blätter" des Baumes), Regelschritte werden durch nach unten führende Äste angeschriebener Regelbezeichnung visualisiert; die Konklusion ist die Wurzel des Baumes. AB A MP BC B MP C 80 Ziel der deduktiven Methode: Man möchte einige wenige gültige Schlüsse, die sogenannten Regeln, als Basis zugrundezulegen, um damit alle weiteren gültigen Schlüsse - auf möglichst schnelle und bequeme Art - deduktiv beweisen zu können. Wir legen als Basis die bereits in Kap. 7 erwähnten Basisregeln zugrunde. Alle Regeln werden natürlich als Regelschemata geschrieben, weil sie für beliebige Einsetzungen gelten. (MP) A B, A . . . B Modus Ponens (MT) A B, B . . . A (DS) A B, A . . . B ; A B, B . . . A (ADD) A . . . A B ; A . . . B A Modus Tollens Disjunktiver Syllogismus Addition (SIMP) A B . . . A ; A B . . . B (KON) A, B . . . A B Simplifikation (DN) A . . . A Doppelte Negation ; A . . . A Konjunktion Man erinnere sich an das Pattern Matching (Kap. 3.4). Beispielsweise ist nicht nur p q, q . . . p sondern auch (pq) r, r . . . (pq) eine Anwendung des MT; Oder es ist auch p . . . p (qr) eine Anwendung von ADD. Bereits mit diesen Regeln können wir etliche weitere Schlüsse herleiten bzw. beweisen. Unter einem Beweis (oder einer Herleitung) eines Schlusses verstehen wir eine lineare (bzw. in Baumform verzweigte) Folge von Aussagen, sodass jede Aussage entweder eine Prämisse ist, oder aus vorhergehenden Aussagen mittels einer der Basisregeln folgt, und die letzte Aussage der Folge die Konklusion ist. (Diese Beweisdefinition muss erweitert werden, wenn später metaregeln hinzukommen.) Aus dieser Beweisdefinition geht unmittelbar hervor, dass deduktive Beweisbarkeit erhalten bleibt unter Hinzufügung überflüssiger Prämissen - die stören ja nicht - sowie Vertauschung von Prämissen und Kürzung doppelter Prämissen. 81 Einige Anwendungsbeispiele: (Beweisziel): p, p (q r), r, q (t s) . . . t (1) p Präm (= Prämisse) (2) p (q r) Präm (3) r Präm (4) q (t s) Präm (5) q r (durch) MP (aus) (1), (2) (6) q MT (3), (5) (7) t s DS (6), (4) (8) t SIMP (7) Baum: p p (q r) MP q r r MT q q (t s) DS ts SIMP t A, (A B) C . . . (A D) C (1) A (2) (A B ) C (3) A D (4) A B (5) C (6) (A D) C Baum: A ADD Präm Präm ADD (1) ADD (1) MP (4), (2) KON (3), (5) ADD AD AB (A B) C MP C KON (A D) C Obiger "Baum" ist kein echter Baum mehr, weil sich die zwei zu "p" führenden Äste wieder vereinigen, und zwar deshalb, weil im Beweis zweimal auf die 82 Prämisse p zurückgegriffen wird. Wir wollen dies einfachheitshalber zulassen. Falls man echte Bäume will, muß man jedesmal, wenn auf eine Prämisse erneut zurückgegriffen wird, die Prämisse im Baum neu anschreiben. (Das widerstrebt uns aber, weil wir Prämissen als wiederholungsinvariante Mengen auffassen.) Eine "interessanten" Beweis hat übrigens das triviale Argument A . . . A, nämlich einfach: (1) A Präm hier ist also Konklusion mit Prämisse identisch, der Beweis ist eine Folge mit einem Element, auch dies ist möglich. Beim deduktiven Beweisen machen wir nur von formalen Regeln Gebrauch, Wahrheitswertzuordnungen kommen hierbei nicht mehr vor. Deshalb ist diese Methode eine syntaktische Methode. Systeme des natürlichen Schließens heißen unter anderem deshalb "natürlich", weil ihre Regeln unseren intuitiven Schließen entsprechen sollen. Sie sind daher auch in der Philosophie besonders wichtig. Eine Eigenschaft von solchen Systemen ist es, dass es für jeden Junktor eine Einführungsregel gibt - das ist eine Regel, wo der Junktor in der Konklusion auftritt, nicht aber in den Prämissen - und eine Ausführungsregel - eine Regel, wo der Junktor in den Prämissen auftritt, aber nicht mehr in der Konklusion. (ADD) und (DS) sind die Regeln für die Disjunktion, ADD ist die Einführungsregel und DS die Ausführungsregel. (SIMP) und (KON) sind die Regeln für die Konjunktion, (KON) ist die Einführungs- und (SIMP) die Ausführungsregel. (DN) ist die Regel für die Negation, die eine Version ist die Einführungs- und die andere die Ausführungsregel. Für die Implikation haben wir bisher nur zwei Ausführungsregeln, (MP) und (MT). (MP würde übrigens im Prinzip genügen.) Die Einführungsregel für die Implikation ist die unten eingeführte Metaregel KB. Zur Natürlichkeit von Schlüssen gibt es heute viele psychologische Untersuchungen (Evans, Johnsson-Laird, Ripps, u.a.). Nicht jede dieser Regeln ist wirklich "natürlich" ist, z.B. ist ADD eine sogenannte "irrelevante" Regel, eine irrelevante Oder-Abschwächung, weil das in der Konklusion beigefügte Konklusionsglied ganz beliebig ist. Das führt zur sogenannten Theorie der deduktiven Relevanz oder auch Relevanzlogik, ebenfalls ein Thema von Spezialvorlesungen. Es wurde auch psychologisch untersucht, ob die syntaktisch- 83 deduktive oder die semantische Modellmethode natürlicher ist, mit dem Resultat, dass Menschen gemischt von beiden Methoden Gebrauch machen. Hinweis: Mit der deduktiven Methode können wirn die Gütligkeit neines Argumentes beweisen, wenn das Argument gültig ist wir können damit aber nicht beweisen (wie mit den semantischenMethoden der AL), dass das Argument ungültig ist. Dazu brauchen wir nach wie vor dien semantische Methode. Analog für den Beweis der L-Wahrheit von Aussagen (s. unten). Man wird fragen. warum braucht man dann überhaupt die deduktive Methode? Antwort: erstens, weil das Schließen mit der deduktiven Methode natürlicher is. Zweitens und insbesondere, weil man die deduktive Methode auch in der Prädikatenlogik anwenden kann, und dort gibt es keine allgemeine semantischen Entscheidungsverfahren mehr, d.h. dort sind wir auf die deduktive Methode angewiesen. Unser deduktives System (oder Kalkül) S soll zwei Eigenschaften haben. Er soll korrekt sein - d.h. jeder beweisbare Schluß soll gültig sein , und er soll vollständig sein - d.h. jeder gültige Schluß soll darin beweisbar sein. Unsere bisherigen Basisregeln sind zwar korrekt - denn wie wir wissen ist ja jede Basisregel gültig, und das Weiterschließen in Form der Schnittregel erhält die Gültigkeit. Aber unser System ist bisher noch (lange) nicht vollständig. Hierzu müssen wir zu unser System nun die drei Metatheoreme (KB, FU, IB) in Form von sogenannten Metaregeln hinzunehmen. Metaregel: Konditionalbeweis KB: Ist C aus A1, ..., An, B herleitbar, dann ist B C aus A1, ..., An herleitbar. Diese Metaregel besteht eigentlich aus einem Übergang von einem Beweis zu einem anderen. Um die Metaregel in unsere lineare Beweisform zu integrieren, benötigen wir eine spezielle Technik, die sogenannte Annahmetechnik, die unter anderem auf Copi zurückgeht. ist noch nicht unmittelbar in eine "Beweisform". Technik des Konditionalbeweises: Um A , ..., A . . . B C mittels KB zu beweisen, führen wir folgende Schritte 1 n durch: 1. Wir schreiben die Prämissen A1, ..., An an. (Beweisziel: A1, ..., An . . . B C ) 2. Wir führen das Implikationsvorderglied der Conclusion, also B, als Annahme, ein die temporär "offen" ist: eine Annahmem ist eine temporäre Prämisse. 84 3. Wir versuchen, C mittels A1, ..., An und B zu beweisen. (Beweissubziel: A1, ..., An, B . . . C ). 4. Angenommen es gelingt. Dann haben wir einen sogenannten Subbeweis durchgeführt, nämlich A1, ..., An, B . . . C . Wir schließen daraus, dass gemäß (KB) B C aus A1, ..., An folgt., d.h. wir schließen auf A1, ..., An . . . B C. Wir machen das im linearen Beweis wie folgt kenntlich: Wir klammern die Annahme B ein, um auszudrücken, dass sie nun nicht mehr als Prämisse zählt. Zusätzlich zeichnen wir den Bereich der Annahme B, indem sie wirksam war, durch einen Pfeil ein: Er beginnt bei B und endet vor B C, also dem KB-Schritt. Der Bereich der Annahme B ist nichts anderes als der ganze Bereich des Subbeweises, den wir hiermit einklammern. Schließlich schreiben wir die entgültige Konklusion BC, die nun aus den Prämissen A1,…,An alleine, ohne die Annahme B, folgt, unter die abgeschlossene Annahme hin. Schematische Form: Beweisziel: A ,,A . . . BC 1 n 1) A1 Präm n) An Präm Subziel: C. B wird erst in eckige Klammern gen+1) [B] KB-Annahme setzt, wenn wir bei Schritt n+m+1) angelangt sind. Was unter dem eingeklammerten Beweisteil steht, hängt nicht mehr von Ananhme B ab. n+m) C n+m+1) BC KB (n+1)(n+m+1) Wir dürfen nach Abschluß der Annahme und Hinschreiben der annahmeunabhängigen Konklusion den Beweis auch fortsetzen. Merkregel: Ist der Bereich der Annahme einmal abgeschlossen, so darf bei eventueller Fortsetzung des Beweises nicht mehr auf irgendeine im Annahmenbereich stehende Aussage zurückgegriffen werden. Beispiel: (1) (2) (3) (4) (5) (6) (7) Zu beweisen: pq, pr . . . p(qr) pq pr [p] q r qr p (q r) Präm Präm KB-Ann. (Subziel: qr) MP (1), (3) MP (2), (3) KON (4), (5) KB (3) - (6) 85 p in (3) wurde erst eingeklammert, nachdem von (6) zu (7) übergegangen wurde. Der Pfeil zeigt den Annahmenbereich im Beweisgang an. Beim KBSchritt schreiben wir als Erläuterung rechts den ganzen Nummernbereich an, in dem der KB-Subbeweis bzw. der KB-Annahmenbereich liegt. Im Beweisbaum deuten wir den Annahmebereich eine Index an, den wir an den KB- Schritt und die eingeklammerten Annahmen anfügen. Das wird wichtig, wenn ein Beweis bzw. Beweisbaum mehrere Annahmen enthält - um zu sehen, welche eingeklammerte Prämisse zu welchem Metaregelschritt gehört. Baum zum Beweis von pq, pr . . . p(qr) p q p r [p]1 MP MP q r KON qr KB1 p q r) Es kann auch vorkommen, dass Annahmenbeweise iteriert, d.h. ineinander verschachtelt auftreten - siehe unten. Hier gilt folgende Hilfsregel: Sind mehrere ineinander verschachtelte Annahmen offen, so schließt man die letzte Annahme (in der fortlaufenden Nummerierung) zuerst. Das bewirkt, dass sich zwei Annahmenpfeile nie überkreuzen - siehe unten. -- Diese Hilfsregel ist zwar nicht immer nötig, aber sie hilft, Fehler zu vermeiden, denn sie stellt sicher, dass nicht auf einen Zwischenschritt, der im Bereich einer bereits zuvor geschlossenen Annahme steht, zurückgegriffen wird. Weitere Beispiele: (A B) . . . (A B) (1) A B Präm (2) [A] (3) A (4) B (5) A B Baum: (Def , eine Richtung) KB-Ann. aus (2), DN DS (1), (4) KB (2) - (4) 86 A B [A]1 DN A DS B KB1 A B Wie beweist man mit der deduktiven Methode logische Wahrheiten? Antwort: Indem man sie aus der leeren Prämissenmenge beweist. Mit dem KB haben wir eine einfache Methode, logisch wahre Aussagen zu beweisen: wir wenden den KB so oft an, bis alle Annahmen eingeklammert sind und daher die Prämissenmenge leer ist. So können wir obiges Beispiel zu einem Beweis von . . . (A B) (A B) erweitern, indem wir KB zweimal hintereinander anwenden. Zu beweisen:. . . (A B) (A B) (1) [A B] KB-Ann. (2) [A] KB-Ann. (3) A DN (2) (4) B DS (1), (4) (5) A B KB (2) - (4) (6) (A B) (A B) KB (1) - (5) Baum: [A B]2 [A]1 DN A DS B KB1 A B KB2 (A B) (A B) Die Bereiche der beiden KB-Annahmen liegen hier ineinander und die Annahmenpfeile überkreuzen sich nicht. Das Vorgehen ist erlaubt: in keinem Schritt wurde auf eine Aussage innerhalb eines bereits abgeschlossenen Annahmenbereichs zurückgegriffen. 87 Folgendes Beispiel zeigt eine unzulässige Beweisführung: (1) (A B) (2) B C Präm (3) [A] (4) A (5) B (6) A B (7) C (8) (A B) C Präm KB-Ann. DN (3) DS (4), (1) KB (3) - (5) MP (5), (2) ........... verbotener Schritt: hier wird auf eine KON (6), (7) Aussage in einem zuvor schon abgeschlossenen Annahmebereich, nämlich auf B, zurückgegriffen. Folgendes Beispiel zeigt, wie leicht Annahmenpfeilüberkreuzungen zu verbotenen Schritten führen können: (1) A B (2) B C D (3) [A] (4) [C] (5) A (6) B (7) B C (8) A BC (9) D (10) C D Präm Präm KB-Ann. KB-Ann. DN (3) (1), (5) DS KON (4), (6) KB (3) - (7) MP (2), (7) KB (4) - (8) Überkreuzung verbotener Schritt Die KB-Beweismethode eignet sich genau dann, wenn die Conclusion der zu beweisenden Herleitung die Form einer Implikation hat. Falls dies nicht der Fall ist, so kann man es in der Regel mit der folgenden FU-Metaregel versuchen. Metaregel (FU) Fallunterscheidung: Ist C aus A, B1, ..., Bn herleitbar sowie auch aus A, B1, ..., Bn herleitbar, dann ist C aus B1, ..., Bn alleine (ohne ()A-Prämisse) herleitbar. Technik der Fallunterscheidung: Um durch Fallunterscheidung A und A den Schluß B , ..., B . . . C zu beweisen, gehen wir so vor: 1 n 1. Wir schreiben die Prämissen B1, ..., Bn an. 2. Wir führen Annahme A ein, beweisen daraus plus den restlichen Prämissen 88 Bi unser C und schließen die Annahme ab. 3. Wir führen Annahme A ein, beweisen daraus plus den restlichen Prämissen Bi unser C und schließen die Annahme ab. 4. Wir schreiben C als entgültige - ohne die beiden Annahmen folgende - Conclusion hin. Wieder gilt: Auf eine Aussage in einem schon abgeschlossenen Annahmenbereich darf nicht zurückgegriffen werden. Schematisch: Beweisziel: B ,,Bn . . . A 1 1) B1 n) Bn n+1) [A] n+m) C n+m+1) [A] n+m+k) C n+m+k+1) C Beispiele: Präm Präm FU-Annahme (Subziel: C) FU-Annahme (Subziel: C) FU (n+1)(n+m), (n+m+1)(n+m+k) . . . A A (Tertium non Datur) (1) [A] FU-Ann. (2) A A ADD (1) (3) [A] FU-Ann. (4) A A ADD (3) (5) A A FU (1) - (2), (3) - (4) Baum: [A]1 ADD A A [A]1 ADD A A FU1 A A Im Baum schreiben wir die FU-Annahmen nebeneinander und fügen die beiden Äste durch FU zusammen. 89 A B . . . A B (1) A B (2) [A] (3) B (4) A B (5) [A] (6) A B (7) A B (Def , andere Richtung) Präm FU-Ann. MP (1), (2) ADD (3) FU-Ann. ADD (5) FU (2) - (4), (5) - (6) Baum: A B [A]1 [A]1 MP ADD B A B ADD A B FU1 A B Aus dem oben bewiesenen Schluß A B . . . A B kann man per KB natürlich wie folgt wieder auf . . . (AB) (A B) schließen (1) [A B] KB-Ann. (2) [A] FU-Ann. (3) B MP (1), (2) (4) A B ADD (3) (5) [A] FU-Ann. (6) A B ADD (5) (7) A B FU (2) - (4), (5) - (6) (8) (A B) (A B) KB (1)(7) Baum: [A]1 [A]1 [A B]2 MP ADD B A B ADD A B FU1 A B KB2 (A B) (A B) 90 A B, C B . . . (A C) B (Disjunktion im Gesetzesantecedens) (1) A B Präm (2) C B Präm (3) [A C] KB-Ann. (4) [A] FU-Ann. (5) B MP (1), (4) (6) [A] FU-Ann. (7) C DS (3), (6) (8) B MP (2), (7) (9) B FU (4) - (5), (6) - (8) (10) (A C) B KB (3) - (9) Baum: A B C B [A C]2 [A]1 MP [A]1 DS B C MP B FU1 B KB2 (A C) B Hier haben wir KB und FU ineinandergeschachtelt verwendet - die Bereiche überkreuzen sich nicht, jeder Schritt erlaubt. A (B C) . . . (A B) C (Assoziativität des ) (1) A (B C) Präm (2) [A] FU-Ann. (3) A B ADD (2) (4) (A B) C ADD (3) (5) [A] FU-Ann. (6) B C DS (1), (5) (7) [C] FU-Ann. (8) (A B) C ADD (7) (9) [C] FU-Ann. (10) B DS (6), (9) (11) A B ADD (10) (12) (A B) C ADD (11) (13) (A B) C FU (7) - (8), (9) - (12) (14) (A B) C FU (2) - (4), (5) - (13) 91 Baum: [A]2 A (B C) ADD AB [A]2 DS BC [C]1 ADD [C]1 DS (A B) C ADD (A B) C B ADD AB ADD (A B) C FU1 (A B) C FU2 (A B) C Hier haben wir FU zweimal angewandt, ineinandergeschachtelt. Man beachte, dass sich die Annahmenbereiche nicht überkreuzen und nirgends auf eine Aussage in einem bereits zuvor abgeschlossenen Annahmenbereich zurückgegriffen wurde. Heuristiken zur FU: Grundsätzlich ist in die deduktiven Methode nicht "mechanisch", d.h. es ist nicht vorgeschrieben, welche Regeln sie wann anwenden müssen, es kann vorkommen, dass derselbe Schluss auf mehrere Weisen bewiesen werden kann. Sie müssen also "kreativ sein", den einfachsten Beweis "finden". Insbesondere für die FU gibtb es keine strenge Regel, wann sie anzuwenden ist. FU bietet sich jedoch heuristisch besonders dann an, wenn entweder eine Prämisse, oder die Konklusion, die Form einer Disjunktion hat. Metaregel IB Indirekter Beweis: Ist C C aus B, A1, ..., An herleitbar, so ist B aus A1, ..., An herleitbar. Technik des indirekten Beweises: Um A1, ..., An . . . B mittels IB zu beweisen, gehen wir so vor: 1. Wir schreiben die Prämissen A1, ..., An an. 2. Wir führen die Negation der Konklusion B als IB-Annahme ein und beweisen damit plus den Prämissen einen Widerspruch C C für irgendeine Formel C (die nicht atomar sonde4rn auch beliebig komplex sein kann). 3. Dann schließen wir den Bereich der IB-Annahme ab und schreiben B als entgültige - annahmenunabhängige - Konklusion hin. Wieder darf nicht auf 92 eine Aussage in einem zuvor abgeschlossenen Annahmenbereich zurückgegriffen werden! Schematisch: Beweisziel: A , ..., A . . . B 1 1) A1 n) An n+1) [B] n+m) CC n+m+1) B n Präm Präm IB-Annahme = Gegenteil der Konklusion Subziel: für irgendein C: CC IB (n+1)(n+m) Beispiele: A B . . . (A B) (1) (2) (3) (4) (5) (6) (7) (8) (Falsifikation, eine Richtung) A B Präm [(A B)] IB-Ann. A B DN (2) A SIMP (3) B SIMP (3) B MP (1), (4) B B KON (6), (5) (A B) IB (2) - (7) Baum: [(A B)]1 DN A B A B SIMP SIMP B A MP B KON B B IB1 (A B) Man hätte in obigem Beispiel mittels MT vorgehend einen Widerspruch für A, AA, herleiten können, mit dem selben Resultat. 93 (AB) . . . AB (Falsifikation, andere Richtung) (1) (AB) Präm (2) A KB-Ann. (3) B IB-Ann. (4) A n (2), (3) (5) (AB) (AB) Kon (4), (1) (6) B IB (3)-(5) (7) AB KB (2)-(6) Hier schachtelt sich also ein IB in einen KB. -- Baum: [B]1 (AB) [A]2 KON AB KON (AB)(AB) IB1 B KB2 AB AB (1) (2) (3) (4) (5) (6) (7) (8) (9) . . . (A B) AB (A B) A B A A B B B B (A B) (DeMorgan, eine Richtung) Präm IB-Ann. DN (2) SIMP (1) DN (4) DS (5), (3) SIMP (1) KON (7), (6) IB (2)-(8) 94 Baum: AB SIMP B [(A B)]1 SIMP DN A B A DN A DS B KON B B IB1 (A B) Heuristik des IB: Bietet sich an, wenn Konklusion die Form einer Negation hat. Oder einfach dann, wenn Ihnen nichts besseres einfällt. Den Beweisbegriff für unser System S kann man abschließend so definieren: eine Folge von Sätzen ist ein S-Beweis, wenn jeder Satz entweder eine Prämisse ist, oder eine abgeschlossene Annahme ist, oder aus vorhergehenden Sätzen, die nicht im Bereich einer zuvor abgeschlossenen Annahme liegen, mithilfe einer Regel folgt, oder aus einer abgeschlossenen Annahme mithilfe einer Metaregel folgt, und wenn der letzte Satz der Folge die gewünschte Konklusion ist. *8.2 Korrektheit, Vollständigkeit, Entscheidbarkeit, Ökonomie und Beweisheuristik. Andere Kalkülarten (nur gestreift, ausführlich in Logik II) Korrektheit und Vollständigkeit: Man möchte, wie gesagt, das die syntaktisch-deduktive Methode mit der semantischen zusammenstimmt. Dazu ist es zweckmäßig, den semantischen Folgerungsbegriff und den syntaktischen Herleitungsbegriff durch eigenes Zeichen zu unterscheiden. Bisher haben wir immer die drei Punkte für einen gültigen Schluß verwendet. Folgende Notationen sind gebräuchlich: Im folgenden sollen , , … (S, , ..) für Prämissenmengen stehen. ||A -- steht für: A ist aus Prämissenmenge folgerbar, der Schluß ist semantisch gültig. ||A -- steht für: A ist logisch wahr (folgt aus leeren Prämissen) |A -- steht für: Der Schluß von auf A ist beweisbar (in einem bestimmten deduktiven System, hier im System S); bzw. A ist aus herleitbar. 95 |A -- steht für: A ist logisch beweisbar (aus leeren Prämissen, im gegebenen System S), bzw. A ist ein logisches Theorem (des Systems S). Um die Relativität des syntaktischen Beweisbegriffs auf ein gegebenes deduktives System, hier das System S, zu verdeutlichen, benutzt man auch die Indexschreibweise |S. steht für das Wenn-Dann der Metasprache; das sogenannte "informelle Wenn-Dann", das natürlich gleich definiert ist wie das wenn-dann der Objektsprache, nur eben in der Metasprache. Korrektheit bedeutet: |A ||A (alle beweisbaren Schlüsse sind gültig) Vollständigkeit bedeutet: ||A |A (alle gültigen Schlüsse sind beweisbar) Man nennt obige Vollständigkeit genauer auch starke Vollständigkeit, und unterscheidet sie von der sogenannten schwachen Vollständigkeit, welche nur |A(alle logischen Theoreme sind beweisbar). besagt: ||A Man beachte, dass starke die schwache Vollständigkeit impliziert (leere Prämissenmenge). Man kann andererseits auch zeigen, dass die schwache die starke Vollständigkeit dann impliziert, wenn die Prämissenmenge endlich ist. Ein Unterschied ergibt sich hier also nur im Falle unendlicher Prämissenmengen. Der syntaktische Beweisbegriff ist ohnedies immer endlich, denn jeder Beweis ist per Definition endlich, und kann daher nur auf endlich viele Prämissen zurückgreifen. Die starke Vollständigkeit impliziert daher immer den sogenannten Endlichkeitssatz (Bzw. die Kompaktheit), welcher besagt, dass wenn eine Konklusion aus unendlich vielen Prämissen logisch folgt, sie auch aus einer endlichen Teilmenge der Prämissenmenge logisch folgt. Eine analoge Unterscheidung zwischen "stark" und "schwach" könnte man auch bei der Korrektheit einführen, man tut es aber nicht, weil in diesem Fall die starke und schwache Korrektheit trivialerweise äquivalent sind. Unser System S ist korrekt und vollständig. Korrektheit beweist man durch sogenannte Induktion über die Länge eines Beweises: man zeigt, dass alle Basisregeln gültig sind, und alle Metaregel die Gültigkeit erhalten, woraus per Induktion über Beweislänge folgt, dass jeder beweisbare Schluß gültig sein muß. Die Vollständigkeit ist komplizierter zu beweisen. Gemäß der Gödel Methode beweist man die Vollständigkeit, indem man die Kontraposition davon 96 beweist: ist |A nicht beweisbar, was genau dann der Fall ist wenn {A} konsistent ist, dann ist ||A auch nicht gültig, was genau dann der Fall ist wenn {A} in einer Wahrheitswertebelegung - einem sogenannten semantischen Modell - erfüllt ist. D.h. man beweist die starke Vollständigkeit, indem man zeigt, dass jede konsistente Aussagenmenge ein semantisches Modell besitzt. Dies zeigt man wiederum dadurch, dass man mithilfe der sprachlichen Ausdrücke aus der gegebenen konsistenten Aussagenmenge ein semantisches Modell konstruiert. Diese berühmte Technik des Vollständigkeitsbeweises, die dann voralledem in der Prädikatenlogik wichtig wird, geht auf Gödel zurück. Entscheidbarkeit: Prima facie liefern deduktive Systeme wie das unsere keine Entscheidungsmethode - so wie etwa die semantische Wahrheitstafel oder reductio ad absurdum Methode. Es liegt, wie man sagt, nur Semientscheidbarkeit: ist ein Schluß gültig, so kann man ihn auch beweisen. Ist der Schluß ungültig, so kann man das mit der deduktiven Methode nicht feststellen - man merkt es nur "indirekt" daran, dass man nicht zum Ziel kommt, so sehr man sich auch bemüht. Es gibt zwar Möglichkeiten, deduktive Kalküle der AL zu entscheidbaren Kalkülen auszubauen, in Form sogenannter Tableaux-Kalküle, aber die ähneln dann weitgehend der semantischen reductio ad absurdum Methode und bringen insofern nicht viel Neues. Man wird sich fragen: wozu braucht man dann überhaupt die deduktive Methode? -- Nun, erstens einmal sind die Schlußregeln der AL teilweise unserem intuitiven Schließen doch viel näher als die semantischen Methoden der AL. Das ist ein Grund. Der viel wichtigere Grund ist der: die deduktive Methode der AL ist eine wesentliche Voraussetzung bzw. Vorbereitung für die deduktive Methode in der PL. Und in der PL braucht man die deduktive Methode unbedingt. Die PL ist nämlich unentscheidbar - dieses berühmte Unentscheidbarkeitstheorem hat ebenfalls Gödel zuerst bewiesen. Das heißt, es gibt keinen semantischen Algorithmus, mit dem man in der PL mit Sicherheit für jede Aussage herausfinden kann, ob sie logisch wahr ist oder nicht. Aus diesem Grund ist man hier auf deduktives Schließen angewiesen. Wie gesagt kann man mit der deduktiven Methode nur beweisen, dass ein Schluß beweisbar ist, aber nicht zeigen, dass er ungültig ist. Hierzu braucht man, auch in der PL, ein semantisches Verfahren: man zeigt die Ungültigkeit eines Schlusses, indem man ein Modell konstruiert, dass seine Prämissen wahr und die Konklusion falsch macht. In der AL ist das einfach eine Wahrheitswertzeile. In der PL ist es ein mengentheoretisches Modell. Bei der Modell- 97 konstruktion verwendet man die "informelle" Metalogik. Dabei handelt es sich letztlich auch nur um ein PL-Schliessen in "abgekürzter metalogischer Notation". Insofern ist die deduktive Methode der PL die wohl wichtigste Methode. Diese enthält aber als wesentlichen Teil die deduktive Methode der AL. Ökonomie: Unser Kalkül S ist hinsichtlich seiner Regeln und Metaregeln nicht maximal sparsam, z.B. kann man die Regel MT aus den anderen Regeln und Metaregeln herleiten, ebenfalls die Metaregel IB. Doch würde man auf diese oder etwa andere Regeln bzw. Metaregeln verzichten, so würden alle beweise viel länger werden. Wie in Kap. 3 liegt ein Kompromiß zwischen Ökonomie des Kalküls und Ökonomie des praktischen Beweisens vor. Die Erfahrung zeigt, dass man in S alles "relativ" rasch beweisen kann. Nur Äquivalenzbeweise sind etwas langwierig - s. unten. Beweisheuristik: Selbst wenn ein Schluß gültig ist, so sagt uns der Kalkül S noch nicht, wie wir ihn am schnellsten beweisen können. In anderen Worten, deduktives Beweisen ist - in noch viel stärkerem Maße als die semantische reductio ad absurdum Methode - ein nichtdeterministisches Verfahren; wir brauchen Beweisphantasie. Man hilft sich mit folgenden Heuristiken: 1) Regelheuristiken: - Ist die Konklusion eine Implikation, verwendet man KB. - Ist die Konklusion eine komplexe Negation …so bietet sich IB an, denn aus der negierten Konklusion (…) kann man dann das Innere der Klammer… gewinnen und ausschlachten. - Ist die Konklusion eine Disjunktion X Y, so kann man es mit FU, sofern man eine Idee hat, wie man aus X und den Prämissen die Konklusion gewinnen kann. Denn aus X gewinnt man Y in einem Additionsschritt. 2) Beweisheuristiken - top down versus bottom up: -- Mit der top down Heuristik versucht man, irgendwelche interessanten schnell herleitbaren Sätze herzuleiten, ohne dass diese schon mit der Konklusion zusammenstimmen müssen. Prämissen, die die Form einer Konjunktion haben, kann man z.B. mit SIMP zerlegen. Unmittelbar anwendbare MPSchritte kann man gleich anwenden. Nur solche top-down-Resultate sind "interessant", deren Aussagevariablen in der Konklusion oder in anderen Prämissen enthalten sind -- andere sind "prämissenirrelevant", man kann sie für weitere Schritte nicht benutzen. -- Mit der bottom up Heuristik versucht man sich mögliche Zwischenschritte ("Lemmata") zu überlegen, die man noch nicht bewiesen hat, von denen man aber weiß, dass man aus diesen die gewünschte Konklusion relativ leicht herleiten kann. 98 -- Im Regelfall fängt man mit bottom up an. Oft gelangt man durch ein iteriertes bottom ab Verfahren ganz zu den Prämissen hinauf. Oft aber hilft dann top down. Man muß dann versuchen, die durch top down gewonnenen Sätze mit den zu beweisenden Annahmen der bottom up Methode "zu verbinden" - dann ist der Beweis geglückt. Prämissen top down X1 X2 schnell herleitbare Sätze ? Beweis glückt, wenn die Yi aus den Xi selber beweisbar sind Y1 Y2 benötigte Zwischenresultate ("Lemmata") bottom up Konklusion Andere Kalkülarten: Unser Kalkül des natürlichen Schließens S ist ein Regel-Metaregel-Kalkül - er besteht aus Regeln und Metaregeln. Solche Kalküle sind besonders praktisch in der AL. In ihrer mathematischen Gestalt gehen Regel-Metaregel-Kalküle auf Gentzen zurück und heißen Sequenzenkalküle. In Sequenzenkalkülen leitet man nicht Sätze aus Sätzen ab, sondern Schlüsse aus Schlüssen. D.h., die objektsprachlichen Ausdrücke sind Schlüsse, sogenannte "Sequenzen". Aus unserer Regel ADD wird z.B. das Sequenzenaxiom A |AB, und aus unserer Metaregel KB wird die Sequenzenregel , A | B | AB. Ein Beweis ist dann eine Folge von Schlüssen, die entweder Sequenzenaxiome sind, oder mittels einer Sequenzenregel aus vorhergehenden Sequenzen folgen. Logische Theoreme A beweist man, indem man Sequenzen der Form | A mit leerer Prämissenmenge beweist. Die mathematischen Vorzüge von Sequenzenkalkülen sind es voralledem, eine schnittfreie Version zu haben, eine Version ohne Schnittregel, was es ermöglicht, aus ihnen Entscheidungsmethoden zu machen. Praktisch haben sie den Nachteil, dass sie etwas umständlich und nicht so intuitiv sind, denn intuitiv erschließt man Sätze aus Sätzen, nicht Schlüsse aus Schlüssen. Aus diesem Grund haben einige philosophischen Logiker die Idee der Sequenzenkalküle in die von uns verwendete Form gebracht, wo man Sätze aus 99 Sätzen erschließt -- das sind eben die Kalküle des "natürlichen" Schließens. Hier sind Beweise Folgen von Sätzen, und man hat Regeln und Metaregeln. Die Annahmebeweistechnik geht z.B. auf Copi zurück; sie existiert in verschiedenen Varianten. Eine andere Art von Kalkülen sind die sogenannten Axiom-Regel-Kalküle in der Tradition von Frege, Hilbert, und Lukasiewicz. Beweise sind hier Folgen von Sätzen. Man wählt eine Reihe von logisch wahren Sätzen als sogenannte Axiome (z.B. A(BA), A(AB), u.a.), und nimmt einige Schlußregeln dazu; in der AL meist nur den Modus Ponens. Ein Beispiel ist der Kalkül H nach Hilbert; er besteht aus 6 Axiomen und dem MP als einziger Schlußregel. Aussagenlogisches beweisen in Axiom-Regel-Kalkülen wie dem Kalkül H ist sehr umständlich. Der Vorteil solcher Kalküle sind ihre simplen metamathematischen Eigenschaften; z.B. Induktion nach der Länge von Beweisen oder ähnliche Verfahren sind leicht zu führen. In der AL und PL werden Regel-Metaregel-Kalküle oft bevorzugt, weil sie viel einfacher sind. Oft verwendet man - zumindest für den über die AL hinausgehenden Teil - einen Axiom-Regel-Kalkül, wegen der vorteilhaften metamathematischen Eigenschaften. Der Beweis von Äquivalenztheoremen ist im Kalkül S etwas umständlich. Um AN zu beweisen, muß man erst AB beweisen, dann BA beweisen, dann aus beiden die Konjunktion einführen und die Def. anwenden. Diese Beweise haben also folgende schematische Form: Baumschema: . . . AB 2) [A] Präm KB-Ann. [A]1 [B]2 Beweis von B B i-1) B i) AB i+1) [B] A KB1 KB2 AB KB-Ann. Beweis von A i+k-1) A i+k) BA i+k+1) (AB)(BA) i+k+2) A B BA KON (AB)(BA) Def A B KON (i), (i+k) Def i+k+2. 100 Beispiel: Beweis von . . . (A B) (A B) (1) A B KB-Ann. (2) [A] KB-Ann. (3) A DN (2) (4) B DS (1), (4) (5) A B KB (2) - (4) (6) (A B) (A B) KB (1) - (5) (7) A B KB-Ann. (8) [A] FU-Ann. (9) B MP (7), (8) (10) A B ADD (9) (11) [A] FU-Ann. (12) A B ADD (11) (13) A B FU (8) - (10), (11) - (12) (14) (AB) (AB) KB (7)-(13) (15) ((A B) (A B)) (AB) (AB)) KON (7), (14) Def (15) (16) (A B) (A B) Baum: [A]1 [A B]4 [A]3 [A]3 [A B]2 DN A MP ADD A B B DS ADD A B B KB1 A B KB2 (A B) (A B) FU3 A B KB4 (AB) (AB) KON ((A B) (A B)) (AB) (AB)) Def (A B) (A B) Aus diesem Grund führen wir für schnelle Äquivalenzbeweise den folgenden Äquivalenzkalkül ein. 101 *8.3 Der aussagenlogische Äquivalenzkalkül Ä (in Logik II) Der Äquivalenzkalkül ist ein Axiom-Regel-Kalkül. Seine Axiome sind die Äquivalenzen, die wir bereits in Kap. 7 vorgestellt haben, nämlich: (DN) A A Doppelte Negation (Komm) (A B) (B A) Kommutativität der (Komm) (A B) (B A) Kommutativität der (Ass) (A (B C)) ((A B) C) Assoziativität der (Ass) (A (B C)) ((A B) C) Assoziativität der (Idem) A (A A) Idempotenz der (Idem) A (A A) Idempotenz der (Distr) (A (B C)) ((A B) (A C)) Distributivgesetz 1 (Distr) (A (B C)) ((A B) (A C)) Distributivgesetz 2 (DM) (A B) (A B) DeMorgan-Gesetz 1 (DM) (A B) (A B) DeMorgan-Gesetz 2 (Def) (A B) (A B) Bedeutung (Def) (A B) ((A B) (B A)) Def (Taut) A (B B) A Überflüssige Tautologie (Kont) A (B B) A Überflüss. Kontradiktion (Abs) A (A B) A -Absorption (Abs) A (A B) A -Absorption Seine einzige Regel ist die Ersetzungsregel: (ERS): Ersetzungsregel: Sei C[B/A] jene Formel, die aus C dadurch entsteht, dass die Teilformel A von C an ein oder mehreren Vorkommnissen durch B ersetzt wird. Dann: i) C C[B/A] ist aus A B herleitbar (beweisbar). ii) Ist A B ein logisches Theorem (i.e., aus leerer Prämissenmenge beweisbar), so ist auch C C[B/A] ein logisches Theorem. Beachte: Alle Axiome des Äquivalenzkalküls Ä sind in unserem Kalkül S als Theoreme beweisbar! Der Äquivalenzkalkül dient uns nur für schnelle logisch äquivalente Umformungen von Aussagen bzw. Formeln. Äquivalenzbeweise haben die Form eines linearen Kette. Wir beginnen einfach an der Spitze mit der linken Seite der zu beweisenden Äquivalenzaussage. Dann wenden wir die Äquivalenzaxiome sukzessive auf ausgewählte Teilaussagen der Aussage an (eventuell auch auf die ganze Aussage), und ersetzen die jeweilige Teilaussage durch die mit ihr logisch äquivalente. 102 Wir benutzen dabei die prämissenlose Ersetzungsregel , also in der Version (ii). Wir unterstreichen die äquivalent ersetzte Teilaussage und schreiben rechts das jeweils benutze Äquivalenzaxiom hinzu. Wir fahren so lange wie gewünscht fort. Am unteren Ende der linearen Kette steht dann eine Aussage, die mit der oben an der Spitze logisch äquivalent ist. Beispiel: . . . ((pq) (qr)) pqr (pq) (qr) | --------------DeM (pq) (q r) | -------------Def (pq) (q r) |-------------DeM (pq) (q r) |-------------DN (pq) qr) | ------------Assoz (Klammerwegfall) pqqr |------------Idem pqr Die ursprünglich lange Formel ist also mit einer simplen Disjunktion aus drei simplen Gliedern (Literalen, s.u.) äquivalent. Logische Äquivalenzumformungen sind deshalb besonders wichtig, weil man damit komplexe Formel in eine wesentlich einfachere aber logisch äquivalente Form bringen kann. Es gibt zwei sehr wichtige und einfache Formen, auf die man jede beliebig komplexe Aussage bringen kann: die konjunktive Normalform, und die disjunktive Normalform. Eine Aussagenvariable oder eine einfach negierte Aussagenvariable nennt man ein Literal. Wir schreiben für ein Literal ±pi. Eine Aussage ist in konjunktiver Normalform, kurz KNF, wenn sie eine Konjunktion von Disjunktionen von Literalen ist. Sie hat also folgende schematische Form KNF: (± p1,1 …±p1,n1) … (p1,m … ±pn,mn) Analog ist eine Aussage in disjunktiver Normalform DNF, wenn sie eine Disjunktion von Konjunktionen von Literalen ist. Eine DNF hat also folgende schematische Form: 103 DNF: (± p1,1 …±p1,n1) … (p1,m … ±pn,mn) Es können einige ni auch 1 sein. Es kann das m auch 1 sein kann, in diesem Fall handelt es sich b ei der KNF um eine Disjunktion von Literalen, sie ist dann gleichzeitig eine DNF; bei der DNF handelt es sich um eine Konjunktion von Literalen, was wiederum ebenfalls eine KNF ist. D.h. für m=1 fallen KNF und DNF zusammen. Man kann nun jede Aussage in eine logisch äquivalente KNF, sowie eine logisch äquivalente DNF umformen. In unserem Kalkül Ä geht das meist in wenigen Schritten. Man ersetzt erst Implikationen durch Disjunktionen mittels Def. Dann treibt man mittels der beiden DeMorgan Gesetze alle Negationszeichen hinein bis vor die Variablen, und eliminiert mittels DN doppelte Negationen. Nun wendet man Assoziativität und Kommutativität an, und schließlich Distribution, je nachdem ob man die DNF oder KNF anstrebt. Obiger Äquivalenzbeweis ist ein Beispiel einer Umformung in eine KNF bzw. DNF (fällt hier zusammen). Es gibt mehrere KNFs und mehrere DNFs, die zu einer gegebenen Aussage logisch äquivalent sind. Eine maximal kurze KNF nennt man irreduzible KNF, kurz IKNF; analog für eine irreduzible DNF, kurz IDNF. Hat z.B. ein elementares Konjunktionsglied einer KNF die Form Xpp, so kann man es eliminieren (Taut), denn es ist logisch wahr; sind zwei Konjunktionsglieder der Form X (XA) vorhanden, so kann man sie durch X ersetzen (Absorp), sind schließlich zwei Konjunktionsglieder der Form (Xp)(Xp) vorhanden, so kann man sie ebenfalls durch X ersetzen (Distr, Taut). Analoge Kürzungsmöglichkeiten ergeben sich für die DNF. Natürlich lassen sich auch Wiederholungen der Form ...pp... durch ...p... und ...pp... durch ...p... ersetzen. Auf diese Weise gelangt man, nachdem man zunächst irgendeine KNF (bzw. DNF) gefunden hat, zur IKNF (bzw. IDNF). 104 Ein anderes Beispiel: (p q) (q (rp)) |------------------------------ DN (p q) (q (rp)) |------------------------------ Def (p q) (q (rp)) |------------------------------ 2 x DeM (p q) (q (r p)) |------------------------------ 2 x DN p q) ((q rp)) |------------------------------ Distr p q) (q r p) |------------------------------ Assoz Ist eine DNF p q (q r p) |------------------------------ Absorp Ist eine IDNF, zugleich IKNF p q IKNFs und IDNFs sind auch in der Wissenschaftstheorie sehr wichtig, z.B. bei der Theorie der Erklärung und Voraussage, oder in der Theorie des relevanten Schließens. Die wichtigste Beweistechnik des maschinellen Beweisen, die Resolutions-Refutations-Methode beruht auf der sogenannten Klauselform - in der AL sind das nichts anderes als (in Mengen umgeschriebene) KNFs. 105 TEIL B: PRÄDIKATENLOGIK 9. Grundlagen der Prädikatenlogik (kurz: PL) Wie schon erwähnt, zergliedert die Prädikatenlogik die aussagenlogisch unzerlegbaren Aussagen in noch weitere sprachliche Bestandteile. Die neu hinzukommenden nichtlogischen sprachlichen Zeichen bzw. Variablen sind: - Prädikate: Einstellige Prädikate bezeichnen Eigenschaften oder Merkmale wie "ist rot", "ist gut". Auch Arten wie ein Tiger", "ein Mensch" bzw. die zugehörigen Merkmalszuschreibungen "ein Tiger zu sein", "ein Mensch zu sein", usw. Übliche Notation: F, G,, auch indiziert F1, F2; . optional: oberer Index legt Prädikate auf Stellenzahl fest, z.B. F1. Mehrstellige Prädikate bezeichnen Relationen. Z.B. "x ist Bruder von y". Übliche Notation: P, R, Q,; auch indiziert R1, R2;; optional: oberer Index für Stellenzahl, z.B.R2. (Wir sind so freizügig und verwenden gelegentlich andere "mnemotechnische" Buchstaben, z.B. "Bxy" für "x ist Bruder von y" usw.) Prädikate stehen immer für sogenannte "generische Entitäten", also für Allgemeines, das mehreren Einzeldingen zukommen bzw. mehrfach exemplifiziert sein kann. - Individuenkonstanten: Sie bezeichnen immer Einzeldinge wie "Peter", "Düsseldorf", "diese Blume dort" etc.. Die Einzeldinge können auch sehr komplex sein (z.B. Düsseldorf), also viele Teile haben; wesentlich ist nur, dass ein Einzelding nur einmal existiert; eine bestimmte raumzeitliche Ausdehnung hat. Sie stehen also für Eigennamen oder andere singuläre Bezeichnungen; z.B. ostensive (hinweisende) oder indexikalische singuläre Terme: "dies da", "ich" "hier" usw. Es ist eine alte philosophische Frage, in welcher Weise generische Entitäten ("Universalien") real existieren können, denn sie haben ja keine bestimmten Raumzeitstellen ("Universalienstreit"). "Elektron" kommt in der Welt mehrfach, an vielen Raumzeitstellen, vor; "dieses Elektron" dagegen nur einmal. Für "Nominalisten" gibt es nur die einzelnen Elektronen; für Universalienrealisten gibt es auch etwas, das der allgemeinen Teilchenart "Elektron" entspricht. Prädikate und Individuenkonstanten sind die kleinsten logisch unzerlegbaren nichtlogischen Symbole der PL. Sie sind keine Sätze (Aussagen), sondern 106 "subsententiell". Die grundlegende Operation, durch die in der PL ein Satz entsteht, ist die Operation der Prädikation, die in der natürlichen Sprache dem Wörtchen "ist" entspricht. Beispielsweise sind "ist ein Mensch" ein einstelliges Prädikat, das auf ein Individuum wie z.B. Peter anzuwenden sind und damit den Satz "Peter ist ein Mensch" erzeugt: x ist Mensch ----------- (Peter ) ------------> "Peter ist ein Mensch" wird angewandt auf erzeugt Mit der Übersetzung: Fx x ist ein Mensch a Peter lautet die logische Übersetzung von "Peter ist ein Mensch": Fa. Man nennt "x" auch das Argument bzw. die Stelle von "Fx". Viele Philosophen haben gerätselt, wofür denn eigentlich das "ist" in natursprachlichen Sätzen steht. (Vielleicht irgendeine "zusätzliche" Entität, über alles konkret Existierende hinaus, dem "Sein", wie Heidegger sagt? Nein). Für den Logiker ist die Funktion des Wörtchens "ist" eine logisch; das Wort drückt die Operation der Prädikation aus, und kommt daher in der logischen Übersetzung nicht mehr als separates Zeichen vor. Einstellige Prädikate drücken monadische Eigenschaften aus. Dagegen ist "größer als" ein zweistelliges Prädikat . Übersetzung: Gxy x ist größer als y (x, y sind die Stellen von "Gxy"). Hinweis zu Indizes: untere Indizes sind eine fortlaufende Nummerierung, die wir benutzen, wenn uns die Buchstaben ausgehen. Den oberen Index lassen wir weg, wenn die Stellenzahl aus dem Kontext klar ist. In dem Fall ist die Stellenzahl durch dien Anzahl der hinter dem Prädikat stehenden Individuenzeichen gegeben. Z.B. ist "R" in "Rxy" zweistellig. Hinweis zur Individuenvariablen x, y: In den Übersetzung machen wir von Individuenvariablen x, y etc. Gebrauch. Sie gehören zu den logischen Symbolen und werden unten eingeführt. "x" ist in der Übersetzung ein Platzhalter für beliebige Individuenkonstanten, die anstelle von x stehen können. "x", "y" bezeichnet also selbst nichts, sondern macht uns nur die Grammatik des Prädika- 107 tes deutlich: sie geben an, wo die Position der Argumentstelle in der korrespondierenden natursprachlichen Übersetzung liegt. Damit können wir bereits die einfachsten aller prädikatenlogischen Aussagen, die atomaren Aussagen, in ihre prädikatenlogische Form kleiden: Prädikatenlogisch Form F1a Beispiel Peter ist ein Mensch Übersetzungslegende a --- Peter F1x --- x ist ein Mensch ______________________________________________________________ Peter geht zu Paul a --- Peter G2ab b --- Paul G2xy --- x geht zu y Auch erlaubt: Gab ______________________________________________________________ Peter geht mit Anna a --- Peter G3acb zu Paul b --- Paul c --- Anna G3xyz --- x geht mit y zu z Auch erlaubte Schreibkonventionen: Gacb, G(a,c,b). _______________________________________________________________ Ein Prädikat im logischen Sinn entspricht in der natürlichen Sprache nicht einem einzelnen Verb, sondern der ganzen Verbalphrase eines Satzes, inklusive der Umstandsbestimmungen etc., die zum Verb gehören. Um die Verbalphrase kenntlich zu machen, brauchen wir Platzhalten für die Stellen des Prädikates. Z.B. ist "x ist Bruder von y" (Fxy) ein anderes Prädikat als "y ist Bruder von x" (Fyx) aus Fxy folgt nicht unbedingt Fyx, denn Peter ist Annas Bruder, aber Anna nicht Peters Bruder, sondern seine Schwester. Ebenso ist das zweistelligen Gehen-Prädikat "x geht zu y" ein anderes als das dreistellige "x geht mit y zu z". Die atomaren Aussagen wollen wir natürlich mithilfe der aussagenlogischen Junktoren , , , zu beliebigen komplexen Aussagen verknüpfen dürfen. D.h., unsere prädikatenlogische Sprache soll alle aussagenlogischen Junktoren enthalten. Z.B. können wir bilden: (Fa Ga), (Fa Rabc), (F1a1F2a2)F3a3, usw. 108 Darüber hinaus enthält die Prädikatenlogik die folgenden neuen logischen Symbolarten, die das "logisch Neue" in ihr ausmachen: - Quantoren: - der Allquantor, der für "für alle" steht - der Existenzquantor, der für "für mindestens ein" steht Hinweis: Andere gebräuchliche Zeichen: für x: (x), (x), für x: (Ex), x - Individuenvariablen: dargestellt durch x, y, z; auch indiziert x1, x2, ... usw. Haben keine eigene Bedeutung; verweisen nur auf Stellen des Prädikats Die Quantoren treten immer zusammen mit einer darauffolgenden Individuenvariable auf. Die einfachsten quantifizierten Aussagen der Prädikatenlogik sind: Form zu lesen als Beispiel und Interpretation ______________________________________________________________ xFx Für (mindestens) ein x gilt: Es gibt mindestens ein Ding, das x hat die Eigenschaft F vollkommen ist Kurz. Es gibt Fs Mit: Fx --- x ist vollkommen _____________________________________________________________ xFx Für alle x gilt: Alles ist vergänglich x hat die Eigenschaft F Fx --- x ist vergänglich Kurz: Alles ist F ______________________________________________________________ Man sagt auch, der Quantor "x" bindet die Variable "x" im Ausdruck "xFx", und nennt "x" in diesem Ausdruck eine gebundene Individuenvariable. Wohlgeformte Formeln, in denen alle Individuenvariablen gebunden sind, sind Sätze bzw. Aussagen (oder "geschlossene Formeln"). Sie besitzen Wahrheitswerte und tragen eine bestimmte Bedeutung. Vorgriff auf Späteres "offene Formeln": Wenn "Fx" ohne einen Quantor davor auftritt (wie bisher z.B. in den Übersetzungen "Fx x ist Mensch") sagt man, die Individuenvariable x ist darin frei, also ungebunden, und spricht von einer freien Individuenvariable. Achtung: Ausdrücke, in denen freie Individuenvariablen vorkommen, sind keine Aussagen bzw. Sätze, denn freie Iv's haben keine bestimmte Bedeutung; somit ist der Ausdruck unbestimmt und hat keinen Wahrheitswert. Man nennt einen solchen Ausdruck eine offene Formel. Offene Formel drücken einfache oder komplexe "Prädikate" bzw. Merkmale aus. (Fx einfaches Prädikat, FxGx komplexes Prädikate.) 109 Mehr zur logischen Funktion von offenen Formeln siehe unten. Hinweis zu unterschiedlichen Terminologien: In einigen logischen Systemen nennt man das, was wir als "Individuenkonstante" bezeichnen, eine "freie Individuenvariable". Dies hat den Grund, dass es sich dabei logisch betrachtet um variabel interpretierbare nichtlogische Zeichen handelt, ebenso wie die "Aussagevariablen", die man traditionellerweise "Variablen" nennt. Allerdings muss man dann das, was wir als "freie Iv's" bezeichnen, anderes nennen, z.B. "freie uninterpretierte Individuenvariablen" (Iv's), im Gegensatz zu "freien interpretierten Iv's. Wieder in anderen logischen Systemen nennt man die Individuenkonstanten "freie Iv's" und läßt die ausdrückliche Bildung von offenen Formeln in den grammatischen Konstruktionsregeln der PL-Sprache erst gar nicht zu (so in der früheren Version des Logik I Skriptums). Die grammatischen Konstruktionsregeln werden dadurch komplizierter. Dafür erspart man sich die Unterscheidung zwischen Aussagen (= geschlossenen Formeln) und offenen Formeln. Die vier einfachsten und zugleich wichtigsten quantifizierten Aussagen mit einstelligen Prädikaten sind: Form zu lesen als Beispiel + Interpretation ______________________________________________________________ x(Fx Gx) Für alle x gilt: wenn x ein Fx --- x ist ein Mensch 1. F ist, dann ist x ein G Gx --- x ist sterblich Allimplikation Kurz. Alle Fs sind Gs Alle Menschen sind sterblich ______________________________________________________________ x(Fx Gx) Für mindestens ein x Einige Menschen sind sterblich 2. Existenz= gilt: x ist F und G konjunktion Kurz: Einige Fs sind Gs ______________________________________________________________ x(Fx Gx) Es ist nicht der Fall, dass Kein Mensch ist sterblich 3. = Negation für mindestens ein x gilt: von 2. Für kein x ist gilt: x ist F und G. Kürzer: Kein F ist G ("Kein" = Negation von "Es gibt") ______________________________________________________________ x(Fx Gx) Es ist nicht der Fall, dass Nicht alle Menschen sind sterblich 4. = Negation für alle x gilt: wenn x ein von 1. F ist, ist x ein G. Kurz: Nicht alle Fs sind Gs ______________________________________________________________ Die oben angeführten 4 einfachsten quantifizierten Aussagen entsprechen gleichzeitig den vier Aussageformen der Aristotelischen Syllogistik: 110 Aristotelische Notation x(Sx Px) SaP x(Sx Px) SiP x(Sx Px) SeP x(Sx Px) SoP Alle S sind P Einige S sind P Kein S ist P Nicht alle S sind P Aristoteles nannte "S" den "Subjektbegriff", "P" den "Prädikatbegriff" und betrachtete logische Schlüsse wie etwa ("M" ist der "Mittelbegriff"): SaM MaP SaP Alle Menschen sind sterblich Deutsche sind Menschen Daher Deutsche sind sterblich x(Sx Mx) x(Mx Px) x(Sx Px) Wir gehen auf die Aristotelische Syllogistik nicht näher ein. Ihre zwei hauptsächlichen Unterschiede zur modernen Prädikatenlogik sind folgende: (a) Die Aristotelische Syllogistik läßt überhaupt nur Aussagen der vier Arten SaP, SiP, SeP, SoP zu. Also atomare Aussagen und aussagenlogische Verknüpfungen atomarer oder quantifizierter Aussagen behandelt sie nicht. Auch mehrstellige Relationen kennt sie nicht. Sie ist daher im Vergleich zur Prädikatenlogik sehr beschränkt. (b) Aristoteles setzte bei der Interpretation seines Satztypus SaP voraus, dass es mindestens ein x gibt, das S ist. Das wird in der modernen Prädikatenlogik nicht vorausgesetzt. Aus dem einfachen Grund, weil man auch über hypothetische Objekte sprechen möchte. Z.B. möchte man sagen "Alle Götter sind unsterblich", auch wenn man meint, dass es keine Götter gibt. Aus diesem Grund sah Aristoteles den folgenden Schluß als gültig an SaP x(Sx Px) Alle fliegenden Pferde sind Pferde ungültig! SiP x(Sx Px) Es gibt einige fliegende Pferde, die Pferde sind während der Schluss für uns ungültig ist. Aus dieser von Aristoteles angenommenen Beziehung und der Tatsache, dass SeP die Negation von SiP und SoP die von SaP ist, beruht das berühmte logische Quadrat der Syllogistik -- worauf wir hier nicht eingehen. Für uns ist eine Allimplikation x(Sx Px) trivial wahr, wenn kein x die Eigenschaft S hat. Beispielsweise ist sind die Allsätz "Alle fliegenden Pferde sind Pferde /... sind keine Pferde" beide wahr. Hinweis: Allerdings kann man Allimplikationen mit leerem Vorderglied nur sinnvoll rekonstruieren, wenn die verwendete Implikation stärker ist als die materiale Implikation, also die Zusatzbedeutung des inhaltlichen Zusammen- 111 hangs hat (um das zu formalisieren, braucht man erweiterte Konditionallogiken). Denn gemäß materialer Implikation ist auch Allsatz "Alle fliegenden Pferde sind Schweine" wahr: kein x ist ein fliegendes Pferd ist, daher ist für alle x die Disjunktion "kein fliegendes Pferd oder X" wahr, und somit auch die materiale Implikation "x ist ein fliegendes Pferd x ist ein M" wahr, für beliebige Merkmale M. Die Bedeutung dieser vier Aristotelischen Aussageformen und wichtigsten Aussagetypen der monadischen Prädikatenlogik läßt sich durch sogenannte Venn-Diagramme mengentheoretisch gut veranschaulichen. Hierbei werden Prädikate durch Kreise dargestellt, welche die zugehörigen Mengen resp. Klassen veranschaulichen. Die Venn-Diagramme sehen so aus die Straffierung heißt, dass dieses Teilsegment nichtleer sein muss; nichtstraffierte Kreise können, müssen aber nicht leer sein: SaP x(Sx Px) P S x(Sx Px) S SiP P Die Menge aller S liegt vollständig in der Menge der P (Mengentheoretisch: {x: Sx} {x: Px} ) Die Überschneidung der S- und PMenge ist nicht leer, oder (Mengentheoretisch:{x: Sx} {x: Px} ) nicht leer SeP P x(Sx Px) S SoP x(Sx Px) S P nicht leer Die Überschneidung der S- und PMenge ist leer (Mengentheoretisch: {x: Sx} {x: Px} = ) Die Menge aller S, die nicht in P liegen (das Komplement von P in S) ist nicht leer (Mengentheoretisch:{x: Sx} {x: Px} 112 PL-Aussagen, die keinen Quantor enthalten, nennt man auch singuläre Aussagen. Eine Untergruppe davon sind die bereits erwähnten atomaren Aussagen, die AL-unzerlegbar sind. Wir verschaffen uns in diesem Einführungskapitel nun einen Kurzüberblick über die einfachsten logischen Beziehungen zwischen quantifizierten und singulären Aussagen: (i) Aus einer Allsatz folgt (. . .) ein entsprechender singulärer Satz, und aus diesem ein entsprechender Existenzsatz: xFx. . . FaFa . . . xFx (ii) Aus einer Allimplikation und der singulären Anfangsbedingung folgt die singuläre Konsequenzbedingung - dieser Schluß heißt in der Wissenschaftstheorie Erklärungsschema: x(FxGx) , Fa . . . Ga (iii) Ein geeigneter Singulärsatz falsifiziert einen Allsatz, nämlich: FaGa . . . x(FxGx) und ebenso falsifiziert ein geeigneter Existenzsatz falsifiziert einen Allsatz: x(FxGx) . . . x(FxGx) -- auch das ist wissenschaftstheoretisch bedeutsam und heißt Falsifikationschema. (iv) Ein Allsatz ist logisch äquivalent mit der Negation eines geeigneten Existenzsatzes, nämlich: . . . x(FxGx) x(FxGx) Man kann dies das "Popper-Schema" nennen, weil Popper darauf Hinwies, dass Naturgesetze, also strenge Allsätze, äquivalent sind mit dem "Verbot" (der Negation) von möglichen Sachverhalten. Weitere Erläuterungen zum Verständnis quantifizierter Aussagen: 1.) So wie die freien Individuenvariablen tragen auch die gebundenen Individuenvariablen x, y, ... etc. keine eigenständige Bedeutung, sondern geben lediglich an, auf welches Prädikat bzw. welche Argumentstelle eines Prädikats sich der entsprechende Quantor bezieht. Gebundene Variablen sind daher gar keine wirklichen Variablen ihre Bedeutung resp. Interpretation variiert nicht über verschiedene Individuen, sondern ist fixiert durch ihre Funktion zu- 113 sammen mit dem zugehörigen Quantor. Dass die gebundene Variable keine eigenständige Bedeutung tragen, sieht man am besten so: Die beiden Aussagen xFx und yFy besagen beide genau dasselbe, nämlich dass alle Individuen (des zugrundeliegenden Bereichs) F sind. Ob als gebundene Variable x oder y genommen wird, ist ohne Belang. Verschiedene gebundene Individuenvariablen spielen nur dann eine Rolle, wenn es darum geht, in ein und derselben Formel über verschiedene Argumentstellen zu qualifizieren. Z.B. bedeutet xyRxy etwas anderes als xyRxy - s. unten. 2.) Die Menge aller Individuen, auf die sich ein Quantor zusammen mit der gebundenen Individuenvariable bezieht, nennt man den zugrundeliegenden semantischen Individuenbereich (auch: Objektbereich, im Englischen: domain). Wenn man den Individuenbereich nicht durch nähere Angaben eingrenzt, so ist damit immer der universale Individuenbereich gemeint, also alle Gegenstände (Individuen ...) des Universums: "x ..." bzw. "x ..." ist dann zu lesen als: "Für alle x des universalen Bereichs gilt: ..." bzw. "Für mindestens ein x des universalen Bereichs gilt: ...". Man kann sich auch auf einen eingeschränkten Individuen- bereich festlegen, z.B. auf den Bereich aller physischen Gegenstände, den Bereich aller Zahlen, den Bereich aller Personen. In diesem Fall muss der zugrundeliegende Individuenbereich bei der Interpretation einer prädikatenlogischen Aussage mitangegeben werden. 3.) Jener Teil einer quantifizierten Aussage, auf den sich ein Quantor zusammen mit seiner gebundenen Variablen bezieht, heißt der (syntaktische) Bereich des Quantors. Der Bereich eines Quantors ist einfach jene Teilformel, die unmittelbar auf den Quantor folgt. In folgenden Beispielen ist der Quantorbereich eingezeichnet: xFx xFx x(Fx Gx) x(Fx Gx) x(Fx Gx) Die Bereiche die unterstrichenen Teilausdrücke heißen Teilformeln. Würden sie allein stehen also "Fx", "FxGx" dann wären sie offene Formeln und würden freie Iv's enthalten. Durch die Quantoren werden ihre Iv's gebunden, was wir hier durch den Pfeil andeuten: xFx 114 Z.B. ist x(FxGx) ein Satz; (FxGx) dagegen eine offene Formel. In "x(Fx Gx)" bezieht sich das "x" nicht bloß auf den Bereich "Fx", sondern auf den ganzen Bereich "(Fx Gx)". Das wird durch die Klammern klargemacht: die Teilaussage, die auf "x" unmittelbar folgt, ist eben "(Fx Gx)" und nicht "Fx", denn zwischen "x” und "Fx" steht die Klammer. Bei Aussagen mit mehreren hintereinanderstehenden Quantoren sind die Bereiche ineinander verschachtelt. Z.B. xy(Fx Ryx) Bereich von y Bereich von x Hier ist es wichtig, die gebundenen Variablen x und y auseinanderzuhalten (müssen verschieden sein). Beispiel für xy(Fx Ryx): Alle physikalischen Ereignisse haben (irgend)eine Ursache Fx - x ist ein physikalisches Ereignis Rxy - x ist Ursache von y Wir können quantifizierte Aussagen auch aussagenlogisch verknüpfen, sodass die Bereiche verschiedener Quantoren nicht ineinander liegen. Z.B. xFx yGy Beispiel für xFx yGy: Alles ist vergänglich und es gibt einen Gott Fx - x ist vergänglich, Gx - x ist Gott Hier ist es unwesentlich, welche gebundene Individuenvariablen verwendet werden: Die Aussage xFx yGy ist gleichbedeutend mit: xFx xGx, zFz xGx, etc. 4.) Man beachte: Bei gleichen Quantoren ist die Reihenfolge bedeutungsmäßig belanglos, denn xyRxy besagt dasselbe wie yxRxy und xyRxy dasselbe wie yxRxy. Bei verschiedenen Quantoren aber macht die Reihenfolge einen Unterschied: xyRxy ist eine wesentlich stärkere Behauptung als yxRxy. Bedeutet etwa Rxy x ist Ursache von y, so besagt xyRxy, dass alles ein und dieselbe gemeinsame Ursache hat, während yxRxy besagt, dass jedes Ding irgendeine, aber nicht notwendigerweise dieselbe Ursache hat. Schließlich beachte man, dass xRxx etwas viel Spezielleres besagt als xyRxy. Ersteres, dass jedes Ding zu sich selbst in Beziehung R steht (z.B. jeder liebt sich selbst, mit: Rxy - x liebt y). Letzteres besagt dagegen, dass je- 115 des Ding mit jedem (anderem oder gleichem) Ding in Beziehung R steht -- also z.B. jeder liebt jeden anderen. Relationsaussagen lassen sich nur mehr sehr schwer graphisch darstellen. Am ehesten noch zweistellige Relationen - allerdings nicht mehr durch einfache Venn-Diagramme, sondern durch graphische Zuordnungen zwischen Mengen. Beispielsweise kann die Relation "größer als" innerhalb der Menge {1, 2, 3} so dargestellt werden (Pfeile drücken wahre Instanzen der Aussage aus): Relation "größer als": 3 2 1 3 2 1 Folgende graphische Darstellung verdeutlicht die Bedeutung von Relationsaussagen mit zwei Quantoren: xyR1xy ... 3 2 1 0 x Für jede Zahl x gibt es eine Zahl y, die um 1 größer ist ... ... 4 3 2 1 0 y xyR2xy ... 2 1 0 x Es gibt eine Zahl x, die kleiner oder gleich jede andere ist ... 3 ... 2 1 0 y 116 xyR3xy Für jede Zahl x und jede Zahl y gilt: x ist kleiner, gleich oder größer als y. Individuenbereich: {0, 1, 2, 3} 3 2 1 x xyR4xy 3 2 1 y Es gibt eine Zahl x und eine Zahl y sodass x das Doppelte von y ist. Individuenbereich: {1, 2, 3} 3 2 1 x xR5xx ... 3 2 1 0 x 3 2 1 y Für jede Zahl x gilt: x ist mit sich selbst identisch ... ... 3 2 1 0 y PL-Aussagen, die Quantoren enthalten, nennt man allgemein quantifizierte Aussagen. Eine wichtige Untergruppe davon sind jene, die mit ein- oder mehreren hintereinander stehenden Quantoren beginnen, gefolgt von einer quantorfreien Formel - das sind quantifizierte Aussagen in sogenannter pränexer Normalform (s. Kap. 14.2). Quantifizierte Aussagen in pränexer Normalform sind unter anderen für viele mathematischen Definitionen wichtig z.B. ist die Definition des Grenzwertes g einer unendlichen Zahlenfolge (x1, x2, ) die folgende ---Aussage: n m≥n: |xm-g| ≤ . 117 10. Die Sprache der Prädikatenlogik (1. Stufe) So wie in der AL wollen wir nun genau definieren, was eine (korrekt gebildete) prädikatenlogische Aussage ist. Hierbei gibt es unterschiedliche mögliche Vorgehensweisen. Wir gehen maximal einfach vor und definieren daher zugleich wohlgeformte Aussagen (= geschlossene Formeln) und offene Formel. Zu diesem Zweck definieren wir zunächst folgenden Begriff: Singuläre Terme: Individuenvariablen und Individuenkonstanten heißen singuläre Terme. Wir benutzen hierfür die Schemabuchstaben: t1, t2,, die somit für Individuenvariabeln (xi) oder Individuenkonstanten (ai) stehen. Formregel der PL: 1. Atomare Formeln: Ist R ein n-stelliges Prädikat und sind t1, ..., tn singuläre Terme (nicht notwendigerweise verschieden), dann ist Rt1 ..tn eine (wohlgeformte) Formel. Rt1 ...tn heißt dann atomar. Hinweis: Für R kann auch Q etc. gesetzt werden, d.h. wir haben hier "R" als Schemabuchstaben für beliebige n-stellige Prädikate und t1, ..., tn als Schemabuchstaben für beliebige singuläre Terme verwendet. 2. AL-Formregeln: (A, B sind jetzt Schemabuchstaben für Formeln !) Sind A und B (wohlgeformte) Formeln, dann sind auch 2a) A 2c) (A B), und 2b) (A B) 2d) (A B) (wohlgeformte) Formeln. Hinweis: Als definiertes Zeichen benutzen wir wieder: (AB) =def (AB) (BA) 3. Formregeln für quantifizierte Aussagen: Ist A eine (wohlgeformte) Formel und x eine Individuenvariable, dann sind auch 3a) xA und 3b) xA (wohlgeformte) Formeln. Für x kann auch y, z stehen; d.h. x fungiert als Schemabuchstabe für beliebige Individuenvariablen. 4. Sonst ist nichts eine (wohlgeformte) Formel. 118 Bemerkungen: (A) Man kann die Formregel (3) auch anders formulieren, sodass nur Aussagen bzw. geschossene Formeln zugelassen sind. Dann darf man z.B. "Fx" nicht bzw. nicht "offiziell" verwenden, und muss stattdessen die Substitutionsnotation A[a/x] (die wir weiter unten einführen) bereits in den Formregeln verwenden. Als Preis der einfacheren Formregeln müssen wir die Begriffe der "freien/gebundenen" Individuenvariable und "offenen/geschlossenen Formel" zur logischen Grammatik hinzunehmen: Definition: Eine Individuenvariable x (bzw. ein Vorkommnis derselben) heißt in einer Formel heißt frei, wenn es nicht im Bereich eines Quantors der Form x oder x auftritt; ansonsten heißt die Individuenvariable gebunden. Eine Formel heißt geschlossene Formel, oder Satz oder Aussage, wenn in ihr keine freien Individuenvariable vorkommt. Sonst heißt sie offene Formel. Rekapituliere: Freie Individuenvariablen haben keine Bedeutung, und Formeln keinen Wahrheitswert. Nur Sätze/Aussagen haben einen Wahrheitswert. Beispiele: x(FxGy) xy(RxzQy) xFx Gx x durch "x" gebunden, y frei x, y sind gebunden z ist frei x links gebunden, rechts frei (s. Übungsbeispiele 10.2) (B) Unser System lässt auch redundante Quantoren zu: Beispiel: Da Fa wohlgeformt ist, dürfen wir auch die pseudo-quantifizierten Formeln xFa und xFa bilden, (z.B. für mindestens ein x gilt: Schnee ist weiß) obwohl der Quantor hier nichts bindet und daher überflüssig ist. Gemäß der PL-Semantik gilt xFa und xFa sind einfach gleichbedeutend mit Fa. Ebenso ist xyFy gleichbedeutend mit yFy xxFx gleichbedeutend mit xFx , usw. Definition: (i) Ein Quantor der Form x oder x heißt (ist einer Formel)überflüssig wenn die Individuenvariable x in seinem Bereich nicht frei vorkommt. (ii) Ist der Quantor x/x in der Formel xA/xA überflüssig, dann sind xA und xA gleichbedeutend mit A. 119 Hinweis: Man kann die Formregeln so einschränken, dass keine redundanten Quantoren möglich sind: dann werden die Formregeln erneut komplizierter (s. frühere Version des Logik I Skriptums). (C) Die so gebildete Prädikatenlogik nennt man Prädikatenlogik 1. Stufe, weil hier nur über Individuenvariablen quantifiziert wird. Eine Logik, in der man nicht nur über Individuenvariablen, sondern auch über Prädikatvariablen quantifizieren kann, heißt PL 2. Stufe. Mithilfe dieser Formregeln können wir nun - wie in der Aussagenlogik - für jede Zeichenreihe bestimmen, ob sie eine (wohlgeformte) prädikatenlogische Formel oder Aussage ist, und im positiven Fall ihren Konstruktionsbaum zeichnen. Z.B. ist x(F1x G1x) wohlgeformt, und der Konstruktionsbaum lautet: x(F1x G1x): (1) F1x (1) G1x (2d) (F1x G1x) (3b) x(F1x G1x) Für die Bildung der Konstruktionsbaume prädikatenlogischer Aussagen gehen wir allgemein wie folgt vor: Wir führen zuerst atomare Formeln mithilfe Formregel (1) ein. Danach wenden wir die AL-Formregeln (2a-d) oder die PL-Formregeln (3a,b) an und arbeiten uns von innen nach außen bis zur Gesamtaussage vor. Weitere Beispiele: F1a: (1) F1a F1a R 2ab: (1) F1a (1) R2ab 2b (F1a R2ab) F2a ist keine Aussage, die Stellenzahl stimmt nicht 120 Die Korrektheit der Formregel (1) können wir nur prüfen, wenn wir beim Prädikat explizit seine Stellenzahl als oberer Index anführen. Das ist aber später umständlich: Konvention: Wird bei Prädikaten keine Stellenzahl als oberer Index angegeben, so nehmen wir an, dass die Stellenzahl des Prädikats mit der Anzahl seiner Argumente in der Formel übereinstimmt - dass also alle atomaren Aussagen korrekt gebildet wurden. xFx: (1) Fx (2a) Fx (3b) xFx xFx xGx: (1) Fx (3b) xFx (1) Gx (3a) xGx (2a) xGx (2d) xFx xGx xy(Fx Gxy): (d.h. G hier zweistellig) (1) Fx (1) Gxy (2d) (FxGxy) (3a) y(Fx Gxy) (3b) xy(Fx Gxy) 121 x(Fx xR): nicht wohlgeformt, denn hinter R fehlen die singulären Terme xFxx(Fx) nicht wohlgeformt; Atomformeln werden nicht geklammert. xFx x(Gx yRxy): (1) Fx (3a) xFx (1) Gx (1) Rxy (3a) yRxy (2c) (Gx yRxy) (2a) (Gx yRxy) (3b) x(Gx yRxy) (2b) xFx x(Gx yRxy) 122 11. Repräsentierung in der Prädikatenlogik Bei der Übersetzung eines natursprachlichen Satzes in eine PL-Aussage gibt es noch weniger Standardregeln als in der AL. Wir müssen herausfinden, welche Teile resp. Worte des gegebenen natursprachlichen Satzes folgenden PLZeichen entsprechen: a) Individuenkonstanten - diese entsprechen meist Eigennamen, persönlichen Fürwörtern (er, sie ...) oder hinweisenden Fürwörter wie "dieses", "hier", "jetzt", oder ganzen Nominalphrasen (etc.) (Fürwörter nennt man auch indexikalische Ausdrücke, weil ihre Referenz von Sprecher, Zeit oder Ort ihrer Äußerung abhängt.) b) Prädikate - diese entsprechen meist Verbalphrasen des Satzes. Vor alledem muss die Stellenzahl des Prädikats herausgefunden werden. c) Quantoren. Z.B. entsprechen Allquantoren Phrasen wie "alle, jeder, immer ..." etc., Existenzquantoren "einige, es gibt, jemand, einmal, etwas ...", negierte Existenzquantoren entsprechen "niemand, keiner, nichts ..." etc. - Genaueres s. unten. Quantoren können aber auch versteckt auftreten - s.u. d) Aussagenlogischen Junktoren - darüber sprachen wir im AL-Teil. - Bei der PL-Repräsentierung natursprachlicher Sätze darf man sich nicht zu sehr an der natursprachlichen Grammatik orientieren, da letztere die PLStruktur oft nicht wiedergibt. Z.B. haben in den beiden Sätzen (1) Dieser Tiger ist stark (2) Der Tiger ist stark die grammatischen Satzsubjekte "dieser Tiger" und "der Tiger" eine völlig unterschiedliche PL-Bedeutung: "dieser Tiger" ist eine Individuenkonstante und (1) hat daher die Form Ga, während "der Tiger" einen Allsatz über Tiger andeutet, d.h. (2) ist von der Form x(Fx Gx). Damit zusammen hängend hat auch das IST in den beiden Sätzen eine andere Bedeutung: einmal als Prädikation, und das andere Mal als Allimplikation. (Dies wird auch in der Aristotelischen Syllogistik nicht auseinandergehalten; beides werden als Sätze der Form SaP angesehen.) Versteckte Quantoren: Oft sind auch Quantoren in natursprachlichen Verbalphrasen versteckt, z.B. scheint der Satz 123 (3) Peter sieht etwas ein einfacher Subjekt-Prädikat-Satz zu sein; tatsächlich handelt es sich um eine Existenzaussage, nämlich (3') Es gibt ein x: Peter sieht x. Der Existenzquantor rutscht also in der natürlichen Sprache in die Verbalphrase "sieht etwas", während in der PL-Wiedergabe die Quantoren immer voranzustellen sind. Das "etwas" drückt im Regelfall einen Existenzquantor aus. Auch hier gibt es eine Ausnahme: Wenn das Etwas im Wenn-Glied einer Wenn-Dann-Aussage vorkommt, ist damit eine Allaussage gemeint. Z.B.: (4) Wenn etwas aus Holz ist, dann ist es brennbar besagt: Alles, was aus Holz ist, ist brennbar x(HxBx) mit Hx - x ist aus Holz, Bx - x ist brennbar Man beachte, dass das "es" im Dann-Glied auf das "etwas" im Wenn-Glied zurückweist -- d.h. weder das wenn Glied noch das Dann-Glied sind ein eigenständiger Aussagesatz, sondern beide sind eben quantifiziert. Im folgenden werden wir für die wichtigsten PL-Satztypen die natursprachlichen Korrelate und deren Ausnahmen angegeben. Die einfachsten Sätze sind natürlich singuläre Sätze (= Sätze ohne Quantoren) wie: (5) Wenn Peter krank ist, dann wohnt er bei Mama Repräsentierung: Fa Pab Übersetzung: Fx - x ist krank Pxy - x wohnt bei y a - Peter b - Mama Die folgenden natursprachlichen Sätze (6) Eisbären sind weiß (7) Die Eisbären sind weiß (8) Der Eisbär ist weiß (9) Ein Eisbär ist weiß (10) Jeder Eisbär ist weiß (11) Alle Eisbären sind weiß drücken alle eine Allimplikation aus, von der PL-Form: (12) x(Ex Wx) 124 Übersetzung: Ex - x ist ein Eisbär Wx - x ist weiß Ausnahmen: Nicht alle Sätze der gleichen grammatischen Form wie (6) - (11) sind bzw. meinen strenge Allsätze. Ausnahmen sind z.B.: (6*) Elefanten sind langlebig (7*) Die Schweizer sind wohlhabend (8*) Jeder Diebstahl ist strafbar In (6*) und (7*) wird keine strenge Allaussage gemacht, sondern bloß eine "statistische" oder "normische" Aussage, die besagt, dass "die meisten" Elefanten lange leben bzw. das "Durchschnittseinkommen" der Schweizer sehr hoch ist. Solche statistischen oder "normischen" Aussagen lassen sich PL nicht wiedergeben (sie entsprechen also einer Aussagevariable p). In (8*) handelt es sich um eine Allaussage, bei der von Ausnahmen abgesehen wird. Eine weitere Ausnahme sind generische Individuen Aussagen, in denen etwas über eine Art als Ganzes behauptet wird, z.B.: (13) Die Dinosaurier sind ausgestorben. Es hätte keinen Sinn zu sagen "dieser Dinosaurier ist ausgestorben". Satz (13) muss daher durch eine singuläre PL-Aussage wiedergegeben werden: (14) Fa a - die Art der Dinosaurier Fx - x ist ausgestorben. Die folgenden natursprachlichen Sätze (15) Es existieren Bibelhandschriften aus dem 4. Jh. (16) Es gibt Bibelhandschriften aus dem 4. Jh. (17) Einige Bibelhandschriften sind aus dem 4. Jh. (18) Manche Bibelhandschriften sind aus dem 4. Jh. (19) (Mindestens) eine Bibelhandschrift ist aus dem 4. Jh. (20) Es existiert (mindestens) eine Bibelhandschrift aus dem 4. Jh. (21) Es gibt (mindestens) eine Bibelhandschrift aus dem 4. Jh. drücken alle einen Existenzsatz folgender Form aus: (22) x(Fx Gx) Fx - x ist eine Bibelhandschrift Gx - x ist aus dem 4. Jh. (analog für: es gibt weiße Raben, ) Allerdings haben einige dieser Sätze, z.B. (17), eine Zusatzbedeutung - nämlich dass es nicht nur eine, sondern "einige", also "mehrere" Bibelhandschriften gibt. 125 Noch deutlicher wird diese Zusatzbedeutung in Sätzen wie (23) Etliche F sind G (24) Viele F sind G etc. Alle derartigen Sätze lassen sich nicht vollständig PL-repräsentieren, da wir innerhalb der P.L. nur zwischen "x" und "x" unterscheiden können. Wir können also nur eine Teilbedeutung von (23) und (24), nämlich eben "x(Fx Gx) " repräsentieren - die Zusatzbedeutung, dass es sich um "etliche", "viele" handelt, ist nicht PL- repräsentierbar. Erwähnt sei, dass es möglich ist, innerhalb der PL Zahlenquantoren zu definieren, z.B. 5x = es gibt genau 5x, sodass ... Damiot kann man die finite Arithmetik innerhalb der PL "logisch ableiten". Jedoch behandeln wir dies erst in der Logik II, wo wir die Identität = und Funktionszeichen einführen). Dass gewisse natursprachliche Sätze nur in einer Teilbedeutung logisch repräsentierbar sind, wissen wir ja bereits aus der AL (= Aussagenlogik). Wichtig ist hier zu beachten: Wenn A nur eine logische Teilbedeutung eines natursprachlichen Satzes S repräsentiert, dann ist A eine inkorrekte Repräsentierung von Nicht-S! Z.B. wird "Nicht viele F sind G" durch "x(Fx Gx) inkorrekt repräsentiert (denn wenn nicht viele F's G's sind, heißt das ja noch lange nicht, dass kein F G ist). Folgende natursprachliche Sätze entsprechen PL Allsätzen bzw. PL Existenzsätzen mit nur einem Prädikat: (25) Jemand hat gerufen (26) Es hat jemand gerufen (27) Es fährt etwas auf der Straße (28) Es gibt platonische Ideen entsprechen (29) xFx (30) Jedermann strebt nach Glück (31) Jeder strebt nach Glück (32) Alles ist vergänglich (33) Alles fließt entsprechen (34) xFx 126 Ein weiteres Beispiel: Alle Menschen sind sterblich, aber nur manche sind vernünftig Die Zusatzinformation im "nur" besagt, dass nicht alle Menschen vernünftig sind. Also: x(Mx Sx) x(Mx Vx) x(Mx Vx) mit: Mx - x ist ein Mensch Sx - x ist sterblich Vx - x ist vernünftig Wichtig ist auch, in natursprachlichen Sätzen Quantoren zu identifizieren, die über Orte (Raumpunkte, Raumintervalle) und über Zeitpunkte (Zeitintervalle) laufen. Bei der Formalisierung solcher Sätze drückt man die gebundenen Ortsvariablen meist durch s und die gebundenen Zeitvariablen durch t aus (analog zur Physik). Orts- resp. Zeitkonstanten kann man durch ks und kt ausdrücken, wobei k für "irgendeinen konstanten Wert" steht. Einige Beispiele: (35) Die Gravitationskraft wirkt überall entspricht (36) sWas Wxs - x wirkt am Ort s a - die Gravitationskraft Der Individuenbereich der gebundenen Variable s sind Raumpunkte. (37) Peter ist immer freundlich entspricht (38) tFat Fxt - x ist freundlich zu t a - Peter Der Individuenbereich für t sind Zeitpunkte. Man sieht an obigen Beispielen: Treten in einem natursprachlichen Satz Ortsund Zeitangaben auf, so sind diese immer als zusätzliche Argumentstellen der Prädikate aufzufassen! (- und nicht als eigene Prädikate). Ein n-stelliges natursprachliches Verb plus Orts- und Zeitangabe ist also in der PL zu repräsentieren als ein n+2-stelliges Prädikat: Rn+2x1...xn s t x1...xn: Gegenstandsangaben s: Ortsangabe t: Zeitangabe 127 Für negierte Existenzquantoren hat unsere Sprache eigene Ausdrücke wie "nichts", "keiner" etc. zur Hand. Alle folgenden natursprachlichen Sätze (39) Nichts währt ewig (40) Es gibt nichts, was ewig währt (41) Es gibt keine platonischen Ideen (42) Es existieren keine platonischen Ideen (43) Niemand hat gerufen (44) Es hat niemand gerufen (45) Keiner hat gerufen (46) Nichts fährt auf der Straße entsprechen der PL-Aussage: (47) xFx Zusammengesetzte negierte Existenzsätze sind etwa (48) Kein Eisbär ist schwarz (49) Es gibt keine schwarzen Eisbären - mit der PL-Form (50) x(Fx Gx) Fx - x ist ein Eisbär Gx - x ist schwarz Man beachte die unterschiedliche Stellung der Negation in folgenden Sätzen: (51) Kein Eisbär ist schwarz x(Fx Gx) Negierte Existenzkonjunktion (52) Der Eisbär ist nicht schwarz (Alle Eisbären sind nicht schwarz) x(Fx Gx) Allimplikation im negiertem Hinterglied (53) Die Eisbären sind nicht alle schwarz (Nicht alle Eisbären sind schwarz) x(Fx Gx) Negierte Allimplikation (51) und (52) haben eine verschiedene grammatische Form, sind jedoch logisch äquivalent. Wir haben bereits erwähnt, dass generell eine Allimplikation der Form x(AB) mit einer negierten Existenzkonjunktion x(AB) logisch äquivalent ist. (53) drückt jedoch etwas anderes aus als (51) und (52)! 128 Die folgenden Beispiele zeigen abschließend die Repräsentierung von einfachen Sätzen mit mehreren Quantoren. Voralledem geht es dabei darum, versteckte Quantoren herauszufinden - z.B. ist im Satz (54) "der Mars hat Monde" im "Monde-haben" ein Existenzquantor versteckt: "es gibt einige x, die Monde des Mars sind". Übersetzung für die Beispiele (54) - (62): a - Mars b - Venus Mxy - x ist Mond von y (bzw.: y hat x als Mond) Px - x ist ein Planet (54) Der Mars hat Monde xMxa (55) Alle Planeten habe Monde x(Px yMyx) (56) Alle Planeten haben einen gemeinsamen Mond yx(Px Myx) (57) Einige Planeten haben keinen Mond x(Px yMyx) (58) Nicht alle Planeten haben einen Mond x(Px yMyx) (59) Die Venus hat keinen Mond xMxb (60) Nur Planeten haben Monde x(yMyx Px) (61) Nicht nur Planeten haben Monde x(yMyx Px) (62) Kein Planet hat alle Monde (Kein Planet hat alle Monde beliebiger Planeten zugleich. als seine Monde) x(Px y(z(Pz Myz) Myx)) 129 *12. Semantik der Prädikatenlogik 12.1 Sprachphilosophie: Extension und Intension In der Sprachphilosophie unterscheidet man allgemein zwischen einer extensionalen und einer intensionalen Interpretation der Prädikatvariablen und Individuenkonstanten. Generell gesehen, kann der philosophische Unterschied zwischen extensionaler und intensionaler Interpretation so formuliert werden: Die Extension sprachlicher Zeichen sind jene Teile der Welt (Gegenstände, Gegenstandsklassen), auf die die Zeichen sich beziehen. (Kurz: Extension = Gegenstand). Die Intension sprachlicher Zeichen ist das, was die Zeichen bedeuten, wie wir sie definiert haben (Kurz: Intension = Bedeutung). Näher aufgeschlüsselt (die Terminologie geht auf Carnap zurück): Ausdruck Extension Intension ______________________________________________________________ Prädikat Ist eine Menge resp. Klasse Ist eine Eigenschaft, z.B. z.B. "rot" z.B.: Die Klasse aller roten Dinge die Eigenschaft, rot zu sein __________________________________________________________________________ IndividuenKonkreter Gegenstand Charakteristisches Merkmalskonstante, (Individuum) bündel; z.B. die Person mit den z.B. "Peter" Peter u. den typischen Eigenschaften __________________________________________________________________________ Aussage Wahrheitswert ausgesagter Sachverhalt __________________________________________________________________________ Die logische Semantik der PL befasst sich nur mit extensionaler Interpretation. So wie in der AL den Aussagevariablen Wahrheitswerte (w, f) zugeordnet werden, so werden in der PL nun den Prädikaten Klassen von Individuen zugeordnet und den Individuenkonstanten Individuen. Relationen betreffend werden 2-stelligen Relationszeichen Klassen von Paaren von Individuen zugeordnet, 3stelligen Relationszeichen Klassen von 3er-Folgen von Individuen, usw. Die PL-Semantik ordnet den PL-Aussagen damit mengentheoretisch formulierte Strukturen zu, sogenannte Modelle, zu. Die Semantische Grundidee der PL ist folgende Wahrheitsdefinition: "Fa" ist wahr in einem Modell (D,I) mit Individuenbereich D und Interpretationsfunktion I, wenn das a zugeordnete Individuum I(a) ein Element der dem Prädikat F zugeordneten Klasse I(F) ist. Wir werden uns damit in der Logik I nicht näher befassen. Die folgenden Abschnitte sind ein Exkurs. 130 12.2 Exkurs in die mengentheoretischeSemantik der PL Einige mengentheoretische Grundbegriffe und Grundlagen: (a) {a, b, c} bezeichnet die Menge bestehend aus a, b und c. {x: Fx} bezeichnet die Menge aller x, die F sind (b) "" ist die Elementrelation. D.h. "aA" besagt, "a ist ein Element der Menge A". Z.B. gilt a{a, b, c, ...}, oder a{x: Fx} g.d.w. (genau dann, wenn) Fa, usw. (c) Mehrstellige Relationen ordnet man geordnete Folgen von Individuen zu. Z.B. ordnet man der 2-stelligen Relation "... ist größer als ..." die Menge aller Paare <x, y> zu sodass x größer ist als y. Für ein geordnetes Paar ist die Reihenfolge ausschlaggebend ist, d.h. <x, y> ist ein anderes Paar als <y, x>. Dies muss ja auch so sein, denn wenn x größer ist als y, so ist doch keineswegs auch y größer als x - d.h. in der Extension von "größer als" ist das Paar <x, y>, nicht aber <y, x> enthalten. Bemerkung: Dies ist ein wichtiger Unterschied zwischen Folgen und Mengen: bei Mengen kommt es nämlich nicht auf die Reihenfolge der Elemente an, d.h. {a, b} = {b, a}. Dagegen gilt: <a, b> ≠ <b, a>. Die dreistellige Relation "x geht von y nach z" hat als Extension die Menge aller Tripel - i.e. geordnete Folgen von drei Elementen - <x, y, z>, sodass x von y nach z geht. Oder etwas formaler: Wenn I die "Interpretationsfunktion" ist, die dem Prädikat R3 seine Extension zuordnet, so gilt: I(R3) = {<x, y, z>: R3xyz}. (d) Im folgenden stehen Großbuchstaben für Mengen. Sei nun D eine Menge, so bezeichnet Dn die Menge aller geordneten Folgen von n Individuen, die aus Elementen von D gebildet werden können. Eine solche geordnete Folge heißt auch n-Tupel. Dn ist also die Menge aller n-Tupel aus D. Ein Beispiel: Ist D = {1, 2, 3}, so ist D2 = {<1, 1>, <1, 2>, <1, 3>, <2, 1>, <2, 2>, <2, 3>, <3, 1>, <3, 2>, <3, 3>} (e) Zwei Mengen sind identisch (=) g.d.w. sie dieselben Elemente enthalten. " " ist das Zeichen für die Teilmengenbeziehung, dabei steht " für "unechte oder echte" Teilmenge und "" für "echte Teilmenge". Angenommen, D1 und D2 sind zwei Mengen, so ist D1 Teilmenge von D2, wenn alle Elemente von D1 auch in D2 enthalten sind. Ist zudem D1 "kleiner", also nicht identisch mit D2, so ist D1 echte Teilmenge von D2. Ist zudem D1 identisch mit D2, so ist 131 D1 unechte Teilmenge von D2. Also z.B. für D1 = {a, b} und D2 = {a, b, c} ergibt sich D1 D2, d.h. {a, b} {a, b, c} aber D1 ≠ D2, d.h. {a, b} ≠ {a, b, c} daher auch D1 D2, also {a, b} {a, b, c}. Jedoch: nicht D2 D1, denn cD2 aber c D1, i.e. nicht cD1. (Ein durchgestrichenes Zeichen, ≠, , steht kurz für die Negation der korrespondierenden "undurchgestrichenen" Aussage.) Mit diesen Grundbegriffen definieren wir nun den zentralen semantischen Begriff der PL - nämlich den der Interpretation für eine gegebene PL-Sprache. Ein Interpretation besteht aus zwei Komponenten: einem zugrundeliegenden Individuenbereich D (vom englischen "domain"), der den Bereich der gebundenen Variablen repräsentiert; in der formalen Semantik der PL genügt es, hier irgendeinen nichtleeren abstrakten Bereich abstrakter Objekte anzunehmen. Die zweite Komponente einer Interpretation ist ihre Interpretationsfunktion I, welche folgendes leistet: I ordnet jeder freien Individuenvariable ein Individuum des Bereichs D zu, und jedem n-stelligen Prädikat irgendeine Menge von n-Tupeln aus D. Zusammengefasst: Eine Interpretation für eine gegebene PL-Sprache ist ein Paar <D, I> wobei D eine nichtleere Menge von Individuen ist - der Individuenbereich - und I ist die Interpretationsfunktion, für die folgendes gilt: Für alle freien Individuenvariablen a (der gegebenen PL-Sprache) gilt: I(a)D Für alle Prädikatvariablen Rn (mit n ≥ 1) (der gegebenen PL-Sprache) gilt: I(Rn) Dn Eine Interpretation einer Sprache nennt man auch Struktur für eine Sprache, oder Modell für eine Sprache. Intuitiv ist eine Interpretation eine abstrakte mögliche Welt, innerhalb derer wir unsere PL-Aussagen interpretieren. Wir definieren die Wahrheit von beliebigen PL-Aussagen in einer gegebenen Interpretation wieder rekursiv - d.h. wir definieren die Wahrheit in einer Struktur zunächst für atomare Aussagen, dann für beliebige aussagenlogische Verknüpfungen, und dann für quantifizierte Aussagen: Für "Aussage A ist wahr/falsch in Interpretation <D, I>" schreiben wir kurz: I(A) = w/f. 132 Wahrheit von Aussagen in gegebener Struktur <D, I>: (W1) Atomare Aussagen I(Rna1...an) = w g.d.w. <I(a1), ..., I(an)> I(Rn) d.h., I(Rna1...an) = f g.d.w. <I(a1), ..., I(an)> I(Rn) Als Hilfsmittel zur Definition der Wahrheit von quantifizierten Sätzen (s. unten) müssen wir auch zulassen, dass I gelegentlich auch Individuenvariablen Individuen zuordnet. Wir erweitern damit Regel (W1) wie folgt: (W1*) Atomare Formeln d.h., I(Rna1...an) = f g.d.w. <I(a1), ..., I(an)>‹I(Rn) (W2) AL-Verknüpfungen: entsprechen den Wahrheitstafeln und nun so wiedergegeben: (W2a) I(A) = w g.d.w. I(A) = f I(A) = f g.d.w. I(A) = w (W2b) I(A B) = w g.d.w. I(A) = w und I(B) = w I(A B) = f g.d.w. I(A) = f oder I(B) = f oder beides (W2c) I(A B) = w g.d.w. I(A) = w oder I(B) = w oder beides I(A B) = f g.d.w. I(A) = f und I(B) = f (W2d) I(A B) = w g.d.w. I(A) = f oder I(B) = w oder beides I(A B) = f g.d.w. I(A) = w und I(B) = f (W3) Quantifizierte Aussagen: Wir bezeichnen Individuen aus D mit griechischen Buchstaben , , ... - um sie von ihren Namen in der PL-Sprache, also den freien Individuenvariablen a, b, ... zu unterscheiden. Wir müssen nicht unbedingt voraussetzen, dass jedes Individuum des Bereichs D in der Sprache auch einen Namen besitzt. Sei I eine gegebene Interpretationsfunktion, so bezeichne I[x:] jene Interpretationsfunktion, die sich von I - wenn überhaupt - nur dadurch unterscheidet, dass der Individuenvariable x der Wert zugeordnet wird, d.h. I[x:](x) = (W3a) I(xA) = w g.d.w. es mind. ein D gibt mit I[x:(A) = w. d.h., I(xA) = f g.d.w. für alle D gilt: I[x:(A) = f. (W3b) I(xA) = w g.d.w. für alle D gilt: I[x:(A) = w d.h., I(xA) = f g.d.w. ein D gibt mit I[x:(A) = f. Die Wahrheitsregel (3) gibt die Bedeutung der Quantoren "x" und "x" in der zugrundeliegenden Interpretation wieder. Beispielsweise ist "alles ist vergänglich" wahr in <D, I>, wenn für alle Individuen aus D gilt, dass auf sie 133 der Sachverhalt " ist vergänglich" in <D, I> zutrifft. Da wir nicht unbedingt für jedes Individuum in D einen Namen in der Sprache besitzen, müssen wir mithilfe der Abänderung von Interpretationsfunktionen I[x:auf beliebige Individuen in D referieren. Die PL-Semantik obigen Typs geht auf Alfred Tarski zurück. Wir illustrieren das Gesagte anhand eines einfachen Beispiels: Unsere PL-Sprache enthalte das zweistellige Prädikat R, das einstellige P, und die freien Individuenvariablen a, b, c - plus natürlich alle logischen Zeichen. Als Interpretation für unsere Sprache wählen wir: D = {Sokrates, Plato, Cäsar}. Für I legen wir fest: I(a) = Sokrates, I(b) = Plato, I(c) = Cäsar I(P) = {Sokrates, Plato}. Intensional ist P die Eigenschaft, ein Philosoph zu sein I(R) = {<Plato, Sokrates>, <Cäsar, Sokrates>, <Cäsar, Plato>}. Intensional ist Rxy die Relation "x hat später gelebt als y" Aufgrund unserer Definitionsregeln (1) - (3) können wir nun die Wahrheitswerte beliebiger Aussagen unserer Sprache in dieser Struktur <D, I> bestimmen. Einige Beispiele: (I) I(Pa): I(a)I(P) (also: Sokrates {Sokrates, Plato}) daher: I(Pa) = w (gemäß W1) (II) I(x(Px Rxb): 1) I(c) I(P), daher I(Pc) = f (gemäß W1) 2) <I(c), I(b)> I(R) [<I(c), I(b)> = <Cäsar, Plato>] daher I(Rcb) = w (gemäß W1) 3) I(Pc) = w (wegen 2 und W2a) 4) I(Pc Rcb) = w (wegen 2, 3 und W2b) 5) I(x(Px Rxb)) = w (wegen 4 und W3a - denn, aufgrund 4 gibt es ein D, nämlich Cäsar, sodass I [x:(Px Rxb) = w. (III) I(xPx): 1) I(c) I(P), also I(Pc) = f (gemäß W1) 2) I(xPx) = f wegen 1 und W3b - denn aufgrund 1) gibt es ein D, nämlich Cäsar gibt, sodass I[x:](Px) = f . (IV) (x(Px yRyx)): 1) <I(c), I(a)> I(R), daher I(Rca) = w (gemäß W1) Daher I(yRya) = w (gemäß W3a). 134 Daher I(Pa yRya) = w (gemäß W2d). 2) <I(c), I(b)>I(R), daher I(Rcb) = w (gemäß W1) Daher I(yRyb) = w (gemäß W3a). Daher I(Pb yRyb) = w (gemäß W2d). 3) I(c) I(P), daher I(Pc) = f (gemäß W1). Daher I(Pc yRyc) = w (gemäß W2d). 4) Aufgrund 1) - 3) gilt für alle D: I[x:(Px yRyx) = w. Daher: I(x(Px yRyx)) = w (gemäß W3b). Wir können nun definieren, wann eine PL-Aussage logisch wahr ist. Wir definieren dies ganz analog zur AL, nur dass anstelle der Wahrheitswertbelegungen der AL nun Interpretationen der PL stehen. Analog definieren wir die weiteren semantischen Zentralbegriffe. Wenn A in <D,I> wahr ist, sagen wir auch, dass <D,I> A wahr macht. 1. Eine PL-Aussage A ist logisch wahr g.d.w. jede Interpretation <D, I> A wahr macht. 2. Ein PL-Schluß . . . A ist gültig g.d.w. jede Interpretation <D,I>, die alle Prämissen in wahr macht, auch die Konklusion A wahr macht Wie erwähnt, ist die PL unentscheidbar. Es gibt kein einfaches und mechanisches Standardverfahren, um herauszufinden, ob eine gegebene Aussage logisch wahr ist (... usw.). Dies liegt vor alledem an folgendem: während es in der AL für eine Aussage immer nur endlich viele Wahrheitswert-Belegungen gibt (nämlich 2n für n Aussagevariablen), gibt es in der PL für einen gegebene Aussage immer unendlich viele mögliche Interpretationen. Es ist daher unmöglich, alle möglichen Interpretationen einzeln zu prüfen (analog zur Wahrheitstafelmethode). Die einzige Möglichkeit, die Allgemeingültigkeit von PLAussagen semantisch zu entscheiden, ist die Technik des Beweisens, welche zumindest in informeller Gestalt die deduktive Beweismethode der Prädikatenlogik verwendet. Aus diesem Grund kommt der "formellen" Beweismethode in der PL (die wir im nächsten Kapitel besprechen), eine wesentlich fundamentalere Bedeutung zu als in der AL: viele Beweise lassen sich in der PL deduktiv viel einfacher formulieren als semantisch. In der PL müssen jedoch Syntax und Semantik zusammenarbeiten. Die Heuristik ist hier folgende: Vermutet man einen Satz als PL-logisch wahr, so versucht man zunächst, ihn deduktiv zu beweisen. Gelingt das nicht, so muss man 135 versuchen, ihn semantisch zu widerlegen, indem man versucht, ein Gegenmodell zu konstruieren - also eine Interpretation, die den Satz falsch macht. Beispiel: Wir wollen zeigen, dass (xFx xGx) x(Fx Gx) nicht logisch wahr ist, bzw. xFx xGx . . . x(Fx Gx) ungültig ist. Unsere Interpretation lautet D = {1,2}, I(F) = {1}, I(G) = {2}. Wir zeigen, dass sie ein Gegenmodell ist. Es gilt (1.) I[x:1](Fx) = w, denn 1I(F) [Regel W1]. Daher (2.) I(xFx) = w [aus 1 und Regel W3a]. Ebenso (3.) I[x:2](Gx)= w, denn 2I(G) [Regel W1]. Daher (4.) I(xGx) = w [aus 3 und Regel W3a]. Somit (5.) I(xFx xGx) = w [aus 2, 4, Regel W2b]. Die Prämisse (bzw. das Wenn-Glied) ist in der Interpretation also wahr. Andererseits gilt I[x:1](Gx) = f und somit (6.) I[x:1](FxGx) = f [Regel W2b]; analog gilt I[x:2](Fx) = f und somit (7.) I[x:2](FxGx) = f [Regel W2b]. Aus (6.), (7.) und D = {1,2} folgt gemäß Regel W3a, dass I(x(FxGx)) = f gilt. [aus (1.), (2.) und Regel W2b]. Daher (4.) I((xFx xGx) x(Fx Gx)) = f [Regel W2d]. Was wir hier getan haben, nennt man informelles semantisches (mengentheoretisches) Beweisen. Da hierbei die deduktive Methode "informell", d.h. unter Verwendung gewisser "Abkürzungen", verwendet wird, wird die deduktiven Methode besser vor dem Studium informeller Beweise erklärt. Es gibt ein "standardisiertes" heuristisches Verfahren, um für eine gegebene PL-Aussage herauszufinden, ob sie logisch wahr ist oder nicht, bzw. einen PLSchluß, ob er gültig ist oder nicht: die sogenannte Methode des finiten Universums (ausführlich z.B. im Buch von Virginia Klenk). Diese Methode beruht darauf, dass ein Allquantor einer (evtl. unendlichen) Konjunktion entspricht, ein Existenzquantor einer (evtl. unendlichen) Disjunktion. Wir nehmen ein endliches, kleines Modell. Dieses sollte zumindest für jede im Schluss bzw. in der Aussage enthaltene Individuenkonstante ein Individuum enthalten, welches wir zugleich mit einem Standardnamen benennen. Die Quantoren betreffend kommt man aus, wenn man zusätzlich für jeden Quantor ein Individuum annimmt nimmt (Faustregel). Wir schreiben für die Menge von benutzen Individuenkonstanten N. Dann schreiben wir die Aussage, bzw. alle Aussagen des Schlusses, in eine Singuläraussage mit diesen Namen um: wir ersetzen Allquantoren durch Konjunktionen, und Existenzquantoren durch Disjunktionen. Die Übersetzung nimmt man am besten von innen nach außen vor (umgekehrt geht auch). Beispiel: Mit N = {a,b} wird aus xyRxy 136 zunächst x(Rxa Rxb) und daraus die AL-Aussage (Raa Rab) (Rba Rbb) Dann prüfen wir, ob die so erhaltene Aussage der Aussagenlogik, bzw. Schluss der Aussagenlogik, mit den gelernten Methoden L-wahr bzw. gültig ist. Es gilt: Ist die Aussage nicht AL-wahr (bzw. der Schluss AL-ungültig), so ist auch der entsprechend PL-Aussage nicht PL-wahr (bzw. der entsprechende PLSchluß nicht PL-gültig). -- Falls die AL-Aussage sich aber als AL-wahr herausstellt, so haben wir Pech gehabt - daraus können wir nicht schließen, dass die entsprechende PL-Aussage ebenfalls PL-wahr ist. Zumindest aber haben wir einen "Verdacht"; wir können dann versuchen, sie deduktiv zu beweisen. Falls das ebenfalls nicht gelingt, versuchen wir sie wieder semantisch zu widerlegen, wobei wir nun den Bereich des gewählten Universums vergrößern. Analog gehen wir für Schlüsse vor. -- Achtung: Gewisse PL-Aussagen, die mehrstellige Relationen benutzen, sind überhaupt nur mittels unendlicher Universen widerlegbar. 137 13. Deduktive Methode in der Prädikatenlogik Alle L-Wahrheiten, Schlüsse und Metaregeln der AL gelten auch in der PL. Der Unterschied ist nur, dass wir für die Schemabuchstaben in AL-Theoremen nun beliebige PL-Aussagen einsetzen dürfen. Atomare Aussagen sind nun nicht Aussagevariablen, sondern atomare Sätze. Wir nennen eine PL-Aussage aussagenlogisch wahr, wenn sie Einsetzungsinstanz einer aussagenlogischen L-Wahrheit ist. Z.B. sind FaFa Ga . . . Ga . . . xA (xA xB) Instanz von A, A B . . . B . . . A (A B) . . . A A . . . xFx xFx aussagenlogisch wahre PL-Aussagen. Auf diese Weise können wir die gesamte Aussagenlogik in unserer Prädikatenlogik wiederfinden. Darüber hinaus gibt es spezifische gültige Regeln und Metaregeln der PL, die in der AL nicht gelten. Dabei handelt es sich um zwei Regeln und zwei Metaregeln, jeweils eine für den Existenz- und eine für den Allquantor. Wir konstruieren daher unser deduktives System S des natürlichen Schließens in der PL, indem wir auf unserem deduktiven System der AL aufbauen, und dieses um zwei neue PL- Schlussregeln und und zwei neue PL-Metaregeln erweitern. Dieses deduktive System ist wieder korrekt und vollständig (was wir erst in Logik II beweisen können). Um die neuen PL-Regeln zu definieren, müssen wir zunächst den Begriff der Substitution einführen. Definition: A[a/x] steht für das Resultat der uniformen Substitution der freien Individuenvariable x durch die Individuenkonstante a. D.h. alle freien Vorkommnisse von x, und nur die freien, werden in der (offenen) offenen Formel A durch a ersetzt. Lies "A[a/x]" als "A, a für x (eingesetzt)" Beispiel für Substitution: A = Fx Gx Z.B. wenn x ein Vogel ist, kann x fliegen Korrekte Substitution: (FxGx)[a/x] = FaGa Inkorrekt: z.B. FxGa 138 Sei A = xRxy Gx Korrekte Substitution: xRxy Gx)[a/x] = xRxy Ga Inkorrekt: xRay Ga Damit formulieren wir die ersten zwei Regeln der PL (sie heißen "unkritisch", weil sie nicht unter einer einschränkenden Variablenbedingung stehen): Unkritische Regeln: (UI) xA . . . A[a/x] (EC) A[a/x] . . . xA Für beliebige Formeln A, I.k.'s a und I.v.'s x Universelle Instanziierung Existenz-Einführung in der Conclusio Der intuitive Sinn von (UI) und (EC) ist klar: wenn etwas für jedes x gilt, gilt es auch für ein beliebig herausgegriffenes a (UI). Und wenn etwas für irgendein a gilt, so gibt es eben mindestens ein x, für das dies gilt (EC). Beachte: Beim UI-Schluss steht die quantifizierte Formel in der Prämisse, das Substitutionsresultat in der Konklusion. Beim EC-Schluss ist es umgekehrt: die quantifizierte Formel steht in der Konklusion und das Substitutionsresultat in der Prämisse. Intuitiv ersetzen wir, wenn wir im EC von Prämisse zu Konklusion gehen, die I.k. durch eine I.v.; technisch müssen wir invers die I.v. der Konklusion durch die I.k. der Prämisse ersetzen, sonst gäbe es technische Komplikationen. Wenn wir "xA" "xA" oder schreiben, denken wir an den Fall, wo A die Variable x frei enthält ansonsten wäre der Quantor überflüssig. Um dies anzudeuten, schreibt man gelegentlich A(x) für A, und A(a) für A[a/x]: diese Schreibweise ist aber nicht exakt. Instanzen (Einsetzungen für die Formel A) sind beispielsweise: (UI)-Beispiele: xFx . . . Fa A = Fx A[a/x] = Fa x(Fx Gx) . . . Fa Ga A = (Fx Gx), A[a/x] = (FaGa) y(xRxy Gy ) . . . xRxb Gb A = (xRxy Gy), A[b/x] = xRxb Gb (EC)-Beispiele: Fa . . . xFx Fb Gb . . . x(Fx Gx) z(Fz Rza) . . . yz(Fx Rzy) A[a/x] = Fa , A = Fx A = (Fx Gx) A[x/b] = Fb Gb A = z(Fz Rzy), A[a/y] = z(Fz Rza) 139 Durch die Formulierung von Prämisse bzw. Konklusion mithilfe der Substitutionsnotation werden sogenannte Variablenkonfusionen ausgeschlossen. Beispiel: Sei unsere EC-Prämisse die Aussage Fa xRxa. Daraus können wir gültig mittels EC auf y(Fy xRxy) schließen: Fa xRxa y(Fy xRxy) z.B.: Peter (= a) ist lieb (= F) und alle mögen (= R) Peter. Also: Jemand ist lieb und alle mögen diesen Jemand. Dieser Schluss ist durch EC zugelassen, denn (Fy xRxy)[a/y] = Fa xRxa (die Prämisse ist durch Substitution aller freien I.v.s in der auf den -Quantor folgenden Formel durch a entstanden. Es wäre aber eine Variablenkonfusion, daraus mittels EC auf x(Fx xRxx) zu schließen, denn das zweite x-Vorkommnis wird fälschlicherweise nicht durch "x", sondern durch "x" gebunden. Der Schluss Fa xRxa x(Fx xRxx) z.B.: Peter (= a) ist lieb (= F) und alle mögen (= R) Peter. sagt aber: Jemand ist lieb und alle mögen sich selbst anstatt: Jemand ist lieb und alle mögen diesen Jemand. ist ungültig! Der Schluss ist durch EC nicht zugelassen denn (Fx xRxx)[a/x] = Fa xRxx Fa xRxa Man gelangt auf diese Weise nicht zur Prämisse, denn nur die freien I.v.s werden durch die Substitutionsoperation ersetzt, aber x wurde fälschlicherweise durch x gebunden. Die Definition der EC-Prämisse durch Variablensubstitution verhindert die Konfusion. Zur Anwendung der Regel EC: A[a/] : . A für beliebige I.v. =x, y...: Gegeben ist ine konkrete Prämisse, z.B. xRxa. Das soll mein A[a/] sein. Ich muss nun umgekehrt aus dem gewünschten Substitutionsresultat die Ausgangsformel A konstruieren. Dazu muss ich umgekehrt a durch eine solche Variable ersetzten, die in A nicht gebunden wird. In unserem Beispiel ist in xRx nur frei wenn verschieden von x ist. Also ist mein A z.B. xRxy. Dann gilt xRxy[a/y] = xRxy. Hätte ich für a x gesetzt, wäre xRxx[a/x] = xRxx rausgekommen, was nicht meine Prämisse ist. Analoges tritt beim UI-Schluss auf: Z.B. wäre folgender Schluss ungültig: x(Fx xRxx) z.B.: Alle sind lustig und Jemand liebt sich selbst (Fa xRxa) Peter ist lustig und Jemand liebt Peter (statt sich selbst) 140 eine Variablenkonfusion, denn das x im Bereich von "x" ist nicht frei. Es gilt: (Fx xRxx)[a/x] = Fa xRxx Fa xRxa . Wieder verhindert die Definition hier der Konklusion des UI durch Variablensubstitution die Konfusion. Mittels (UI) und (EC) können, wie folgende Beispiele zeigen, eine Reihe von logisch wahren PL-Aussagen bzw. gültigen PL-Schlüssen bewiesen werden. (Wir führen wieder Beweis und Beweisbaum an:) 1.) x(Fx Gx), Fa . . . Ga Beweis: (1) x(Fx Gx) (2) Fa (3) Fa Ga (4) Ga Präm Präm UI (1) MP (2), (3) Baum: Fa x(Fx Gx) UI Fa Ga MP Ga 2.) Fa Gb, Fa . . . xGx (1) Fa Gb (2) Fa (3) Gb (4) xGx Präm Präm DS (1), (2) EC (3) Baum: Fa Gb Fa DS Gb EC xGx Wie in der AL können wir Beweise auch für komplexe PL-Aussageschemata durchführen: 141 Z.B. 3.) A[a/x] A[b/x] . . . xA (1) A[a/x] A[b/x] (2) [A[a/x]] (3) xA (4) [A[a/x]] (5) A[b/x] (6) xA (7) xA Baum: [A[a/x] ]1 Präm FU-Ann. EC (2) FU-Ann. DS (1), (4) EC (5) FU (2) - (3), (4) - (6) A[a/x] A[b/x] EC [A[a/x] ]1 DS xA A[b/x]] EC xA FU1 xA 4.) xA . . . xA Hierzu beweisen wir zunächst die Allgemeingültigkeit der Aussage A[a/x] xA über KB und EC. (1) xA Präm (2) [A[a/x] ] KB-Ann. (3) xA EC (2) (4) A[a/x] xA KB (2) - (3) (5) A[a/x] MT (1), (4) (6) xA EC (5) Baum: [A[a/x] ]1 EC xA KB1 A[a/x] xA xA MT A[a/x] EC xA (Alternativbeweis: mit IB-Annahme A[a/x] A[a/x] xA) 142 Abschließender Hinweis: Wir haben die Regeln unseres deduktiven Systems der PL so gewählt, weil wir damit nur Aussagen aus Aussagen herleiten wollen. Offene Formeln sind prima facie nur Hilfsmittel, tragen aber keinen Wahrheitswert; somit sind die Begriffe der L-Wahrheit und Gültigkeit für sie prima facie nicht anwendbar. In unseren Beispielen von Aussage- und Schlussschemata setzen wir normalerweise voraus, dass es sich bei Prämissen und Konklusion um Aussagen handelt. Es ist aber möglich, das deduktive System auf Formeln zu erweitern. Schon jetzt können alle unsere Regeln können dazu verwendet werden, um offene Formeln aus anderen offenen Formeln herzuleiten ! Damit dies semantisch sinnvoll ist, interpretiert man freie Individuenvariablen genauso wie Individuenkonstanten (zumindest in einer Variante, es gibt auch Alternativen). Um auch Aussagen offene Formeln herleiten zu können, und umgekehrt, müssen die PL-Regeln UI und EC für Substitutionen von Individuenvariablen "A[y/z]" erweitert werden. (Die Metaregeln dürfen ebenfalls so erweitert werden, müssen es aber nicht.) Dies erfordert jedoch eine wesentliche Komplikation in der Definition der Substitutionsfunktion, die wir erst in Logik II besprechen, wo wir singuläre Terme mit Funktionszeichen einführen denn dort "lohnt" sich die Komplikation erst. Nun zu den beiden Metaregeln. Das Spezifikum der folgenden beiden Metaregeln ist, dass sie eine Variablenbedingung VB besitzen (die über grammatische Wohlgeformtheit hinausgeht). Die erste Metaregel lautet: Kritische Metaregeln: (UG) Universelle Generalisierung: Für alle I.k's a und I.v.'s x: Wenn A , ..., A . . . B[a/x] gültig ist, und die Individuenkonstante a weder 1 n in A1, ..., An noch in xB vorkommt, dann ist auch A , ..., A . . . xB gültig. 1 n Einfache Einsetzung: Wenn A . . . Fa und a nicht in A (noch in xFx)dann A . . . xFx Der intuitive Sinn der Metaregel (UG) ist folgender: Wenn a in den Prämissen nicht vorkommt, heißt das, dass in den Prämissen über a keinerlei Annahmen gemacht werden. Wenn nun aber die komplexe Aussage B für ein völlig beliebiges Individuum a aus gegebenen Prämissen A1, ..., An herleitbar ist, ohne dass über a irgendwelche Annahmen gemacht werden, dann muss dieselbe 143 Aussage B auch für jedes beliebige andere Individuum b auf dieselbe Weise aus A1, ..., An herleitbar sein. Das bedeutet aber, dass dann aus A1, ..., An tatsächlich die Allaussage xB herleitbar ist. Die Bedeutung der Forderung, dass a auch in xB nicht mehr vorkommen darf, liegt darin, dass in Ba a an allen Vorkommnissen durch x ersetzt werden muss nur dann ist die universelle Generalisierung über x korrekt gültig. Beispielsweise gilt: . . . Fa Fa (ist eine Tautologie), daher auch . . . x(Fx Fx). Nicht aber gilt z.B.: . . . x(Fa Fx). (a nur an einer Stelle durch x ersetzt) (gleichbedeutend mit FaxFx) Wie in der AL müssen wir für die Anwendung der PL-Metaregeln eine spezifische Beweistechnik finden. Die Beweistechnik für die Metaregel (UG) ist jedoch sehr einfach: wir können mit (UG) umgehen wie mit einer gewöhnlichen Regel (müssen also keine Annahmen einführen). Wir müssen lediglich die Variablenbedingung (VB) beachten UG-Technik: Wir wollen A1, ..., An . . . xB herleiten. Hierzu versuchen wir zunächst, für eine Individuenkonstante a, die weder in A1, ..., An noch in xB vorkommt, aus A1, ..., An die Aussage B[a/x] herzuleiten. Gelingt uns das, so gehen wir im nächsten Schritt zur Aussage xB mittels (UG) über, wobei wir anführen, dass die Variablenbedingung erfüllt ist. Beachte: Wenn der Schritt UG innerhalb eines Annahmenbereichs (KB, IB, FU oder EP unten) durchgeführt wird, so ist die Variablenbedingung auch auf die offenen Annahmen zu beziehen - d.h. alle nicht (zuvor) abgeschlossenen Annahmen fungieren als Prämissen. Beispiele: 5.) x(Fx Gx), xFx . . . xGx (1) x(Fx Gx) (2) xFx (3) Fa Ga (4) Fa (5) Ga (6) xGx Präm Präm UI (1) UI (2) MP (3), (4) UG (5) VB: a kommt weder in 1, 2 noch in 6 vor. 144 Wichtig ist die Angabe, auf welche Aussagen des Beweisganges sich die Variablenbedingung bezieht - grundsätzlich immer auf Prämissen, noch offene Annahmen und Conclusion. Im Beweisbaum machen wir den Bezug der Variablenbedingung durch Anfügung eines oberen Index kenntlich (die unteren Indizes in Beweisbäumen sind für die Verweise auf Beweisannahmen reserviert). Baum zu 5.) xFx1 x(FxGx)1 UI UI Fa Ga Fa MP Ga UI, VB1 xGx1 Denselben Beweis können wir ebenso für das korrespondierende Schlussschema zu 5.), also für x(A B), xA. . . xB führen. Wir müssen dann allerdings in Schritt (3) und (4) fordern, dass a eine neue Individuenkonstante sein soll, die in x(A B) resp. in xA nicht vorkommt. Eine solche Wahl von a ist ja immer möglich: (3.*) (1) x(A B) (2) xA (3) A[a/x] B[a/x] (4) A[a/x] (5) B[a/x] (6) xB Präm Präm UI, a komme in 1 nicht vor! UI 2 MP 3, 4 UG 5, VB: a nicht in 1, 2, 6 Beachte in (3): Statt (AB)[a/x] schreiben wir gleich A[a/x] B[a/x] wir ersetzen ja x durch a in der Teilformel A und in der Teilformel B. Für Beweisschritt (4) ergibt sich die Forderung "a nicht in xA" bereits aus der Festlegung in (3). 145 6.) . . . x(FxGx) xFx (1)[x(FxGx)] (2) FaGa (3) Fa (4) xFx (5)x(FxGx) xFx KB-Ann UI aus (1), SIMP (2) UG (3), VB: a nicht in (1), (4) KB 15 Baum: [x(Fx Gx)]1 1 UI Fa Ga SIMP Fa UG, VB1 xFx1 KB1,VB1 x(FxGx) xFx 7.) x(A B) . . . A xB, sofern x in A nicht frei vorkommt. (1) x(A B) (2) A B[a/x] (3) [A] (4) A xB (5) [A] (6) B[a/x] (7) xB (8) A xB (9) A xB Präm, wobei x nicht frei in A vorkommt UI (1), a komme in (1) nicht vor FU-Ann. ADD (3) FU-Ann. DS (5), (6) UG (6), VB: a nicht in (1), (5), (7) ADD (7) FU (2) - (4), (5) - (8) Hinweis zu (2): (AB)[a/x] = AB[a/x], weil x nicht frei in A Man beachte, dass die VB für UG nun auch auf die 2. FU-Annahme zu beziehen ist, weil der UG-Schritt innerhalb des Bereichs dieser Annahme vollzogen wird. 146 Baum zu 7.): x(A B) 1 UI, a nicht in x(A B) [A]1 A B[a/x] ADD [A]11 DS A xB B[a/x] UG, VB1 xB1 ADD A xB FU1 A xB Die zweite Metaregel der PL ist folgende: (EP) Existenzeinführung in der Prämisse Wenn: A[a/x], B1, ..., Bn . . . C gültig ist, und die Individuenkonstante a weder in C noch in B1, ..., Bn noch in xA vorkommt, dann ist auch xA, B , ..., B . . . C gültig. 1 n Instanziierungsbeispiel: Wenn Fa . . .C gültig und a nicht in C, dann xFx . . . C gültig (EP) ist das Gegenstück zu (UG) - und ihr intuitiver Sinn ergibt sich ganz analog: Wenn aus der Tatsache, dass irgendein beliebiges Individuum die Aussage A erfüllt, plus den restlichen Prämissen B1, ..., Bn eine Conclusion C herleitbar ist also ohne dass über a irgendwelche Annahmen gemacht werden (i.e., a kommt weder in C noch in B1, ..., Bn vor) so heißt dies auch, dass C aus der bloßen Annahme herleitbar ist, dass irgendein Individuum existiert, dass die Aussage A erfüllt (plus den Zusatzprämissen B1, ..., Bn). Somit ist dann C aus xA plus B1, ..., Bn herleitbar. Die Forderung, dass a auch nicht in xA vorkommt, ergibt sich wieder daraus, dass a in A[a/x] an allen Vorkommnissen durch x ersetzt werden muss, um eine korrekte Anwendung der EP-Regel zu ergeben. Die Metaregel (EP) erfordert in unserem deduktiven System eine spezielle Beweistechnik: (EP) muss - ähnlich wie (KB), (FU) und (IB) in der AL - als Annahmenbeweis durchgeführt werden. Das neue dabei ist, dass sich die EPAnnahme auf eine vorhergehende Prämisse bezieht. Wir gehen so vor: 147 Beweistechnik für (EP): Angenommen, wir wollen C aus B1, ..., Bn und xA herleiten. 1) Wir führen die EP-Annahme A[a/x] für die Prämisse xA ein, wobei wir a so wählen, dass es weder in B1, ..., Bn noch in C noch in xA vorkommt. 2) Nun versuchen wir, C aus A[a/x] und B1, ..., Bn herzuleiten. 3) Gelingt uns das, so schließen wir die EP-Annahme mit einem Pfeilab, und schreiben die Conclusion C noch einmal hin, wobei wir rechts die Durchführung des EP-Schrittes verzeichnen. Zusätzlich führen wir rechts die Variablenbedingung an. 4) Wie bei jedem Annahmenbeweis gilt: Ist der Bereich der EP-Annahme ein mal abgeschlossen, so darf zu einem späteren Stadium des Beweises auf keine im abgeschlossenen Annahmenbereichs stehende Aussage zurückgegriffen werden. Schematisch: Ziel: xA, B ,,B . . . C 1 1) B1 n) Bn n+1) xA n+2) [A[a/x]] n+m) n+m+1) C n Präm Präm Präm EP-Ann. für (n+1); a sei nicht in 1, ,n,n+1, oder in C wird erst in Schritt n+m+1 eingeklammert! C EP (n+2)(n+m+1), VB: a nicht in 1,,n+1,(n+m+1) Das nochmalige Anschreiben von C nach Abschluss der EP-Annahme ist notwendig, um klarzumachen, dass C nun unabhängig von der EP-Annahme herleitbar ist (weil wir in C das a zum Verschwinden gebracht haben). Randbemerkung: In der Literatur wird gelegentlich für (EP) die Bezeichnung "existenzielle Instanziierung" verwendet. Dies halten wir für eher irreführend, weil (EP) ein Annahmenbeweis und keine Instanziierungsregel ist. Beispiele für EP: 8.) x(Fx Gx) . . . xFx (1) (2) (3) (4) (5) x(Fx Gx) [Fa Ga] Fa xFx xFx Präm EP-Ann. für (1) SIMP (2) EC (3) EP (2) - (4), VB: a nicht in (1) und (4) 148 Baum: x(FxGx)1 EP-Ann. [FaGa]1 SIMP Fa EC xFx1 EP1, VB1 xFx Wenn wir 8.) für ein Schlussschema durchführen, müssen wir in Schritt 2 die richtige Wahl von a fordern: 8*.) x(A B) . . . xA (1) (2) (3) (4) (5) x(A B) [A[a/x] B[a/x] A[a/x] xA xA Präm EP-Ann. für (1), a komme in 1 nicht vor ! SIMP (2) EC (3) EP (2) - (4), VB: a nicht in (1) und (4) 9.) xFx, x(Fx Gx) . . . xGx (1) (2) (3) (4) (5) (6) (7) xFx x(Fx Gx) [Fa] Fa Ga UI (2) Ga xGx xGx Präm Präm EP-Ann. für (1) MP (3), (4) EC (5) EP (3) - (6), VB: a kommt in 1), (2), (6) nicht vor 149 Baum für 9.): xFx1 x(Fx Gx)1 EP-Ann. UI Fa Ga [Fa]1 MP Ga EC xGx1 EP1, VB1 xGx 10.) x(A B) . . . A xB (1) x(A B) (2) [A B[a/x]] (3) [A] (4) A xB (5) [A] (6) B[a/x] (7 xB (8) A xB (9) A xB (10) A xB sofern x nicht frei in A Präm EP-Ann. für (1), a komme in x(A B) nicht vor FU-Ann. ADD (3) FU-Ann. DS (5), (2) EC (6) ADD (7) FU (3) - (4), (5) - (8) EP (2) - (9), VB: a nicht in (1), (9) Hinweis zu (2): (A B)[a/x] = A B[a/x], weil x nicht frei in A Baum: x(A B)1 EP-Ann. [A]1 ADD A xB [A B[a/x]]2 [A]1 DS B[a/x] EC xB ADD A xB FU1 A xB1 EP2, VB1 A xB 150 Das Zusammenspiel von UG und EP zeigt folgendes Beispiel: 11.) xyRxy . . . yxRxy (1) xyRxy (2) [yRay] (3) Rab (4) xRxb (5) xRxb (6) yxRxy Präm EP-Ann. für (1) UI (2) EC (3) EP (2) (4), VB: a nicht in (1), (4) UG (5), VB: b nicht in (1), (6) Baum: xyRxy1,2 EP-Ann. [yRay]1 UI Rab EC xRxb1 EP1, VB1 xRxb UG2, VB2 yxRxy2 Dagegen ist der umgekehrte Schluss yxRxy . . . xyRxy ungültig, was man an folgendem inkorrekten Beweisversuch erkennt, in dem die VB nicht erfüllt ist: 13.) Inkorrekter Beweisversuch für yxRxy . . . xyRxy (ungültig!) (1 yxRxy (2) xRxa (3) Rba (4) yRby Präm UI (1) EP-Ann. für (2) Inkorrekt: UG (3) geht nicht, denn VB ist nicht erfüllt: a kommt in der offenen EP-Annahme Rba vor! 151 14.) Ein weiteres Beispiel eines inkorrekten Beweisversuches mittels EP für xFx, xGx . . . x(Fx Gx) (1) (2) (3) (4) (5) (6) (7) xFx xGx Fa [Ga] Fa Ga x(Fx Gx) x(Fx Gx) 15.) xFx . . . xFx (1) xFx (2) [xFx] (3) xFx (4) [Fa] (5) Fa (6) Fa (pp) (7) pp (8) pp (9) xFx IB Präm Präm EP-Ann. für (1) EP-Ann. für (2) Kon (1), (2) EC (5) Inkorrekt: EP (4) - (6) geht nicht! VB verletzt , denn: a kommt in der noch offenen Annahme (3) vor ! Präm IB-Ann. DN (2) EP-Ann. für (5) (EP-Ann. für Zwischenschritt!) UI (1) ADD (5) (statt "p" kann z.B. auch "Gb" stehen) DS (4), (6) EP (4)(7), VB: a nicht in (1), (2)!, (7) (2)(8) Beachte, dass wir hier den "Trick" der Additionsabschwächung in (6) durchführten, weil wir die EP-Annahme vor der IB-Annahme abschließen wollten, und dazu darf der Widerspruch, den wir in (10) erhalten, die Variable a nicht mehr enthalten. Hätten wir den Widerspruch direkt als "Fa Fa" gebildet, so wäre das nicht gegangen. 152 Baum: [xFx]1 UI Fa ADD Fa (pp) [xFx]2 DN [xFx]1 EP-Ann. Fa DS pp 1 EP1, VB1 p p IB2 xFx Die Regeln UI und die Metaregel EP sind Quantorausführungsregeln, die Metaregel UG und die Regel EC sind Quantoreinführungsregeln. Als generelle heuristische Strategie für Beweisen im PL-Kalkül S lässt sich folgendes anführen. Will man eine quantifizierte Konklusion aus quantifizierten Prämissen beweisen, so geht man sofern es gelingt so vor: 1. Man eliminiert zunächst die Quantoren in den Prämissen mittels der Regel UI (unkritisch, i.e. ohne VB) und der Metaregel EP (kritisch, mit VB). 2. Dann versucht man aus dem Resultat von Schritt 1 jene Formel rein aussagenlogisch zu beweisen, aus der man die gewünschte Konklusion durch Quantoreinführungsregeln gewinnen kann. (Dabei verwendet man die im AL-Teil diskutierten Heuristiken des AL-Beweisens). 3. Man wendet die Quantoreinführungsregeln auf die in Schritt 2 gewonnene Formel solange an, bis man die quantifizierte Konklusion erhält. Dabei darf weder eine Annahmeregel noch eine Variablenbedingung verletzt werden. 153 14. Weitere logische Wahrheiten und Beweismethoden in der PL 14.1 Logische Wahrheiten: L-wahre Äquivalenzen: (Umb) xA yA[y/x] xA yA[y/x] () Gebundene Umbenennung y ist eine neue I.v., d.h. kommt weder frei noch gebunden in A vor. (erweiterte "[ ]"-Notation) Zusammenhang Allquantor-Existenzquantor xA xA xA xA (HDist) Unter der Annahme: x nicht frei in A: A xB x(A B) Distribution durch A xB x(A B) Herausziehen/Hereinziehen von A xB x(A B) Quantoren für und A xB x(A B) (ÄDist) x(A B) xA xBÄquivalenzdistribution x(A B) xA xBfür , (HDist Distrib. durch Heraus/Hereinziehen für (A xB) x(A B) wenn x nicht frei in A (xA B) x(A B) wenn x nicht frei in B (A xB) x(A B) wenn x nicht frei in A (xA B) x(A B) wenn x nicht frei in B (ÄDist): x(A B) (xA xB) (QVert) Quantorenvertauschung, nur bei gleichen Quantoren : xyA yxA xyA yxA Einseitige L-wahre Implikationen: xA xB x(A B) x(A B ) xA xB x(A B ) (xA xB) x(A B) xA xB Einseitige Quantorenvertauschung: xyA yxA 154 *14.2 Der prädikatenlogische Äquivalenzkalkül Um in der PL schnelle Äquivalenzbeweise durchzuführen, verwendet man die in Kap. 14.1 angeführten Äquivalenztheoreme als Axiome bzw. prämissenlose Regeln des Äquivalenzkalküls an. Man benötigt diese z.B. zur Umformung einer Aussage in eine pränexe Normalform d.h. eine Sequenz von Quantoren, gefolgt von einer quantorfreien Formel. Eine PL-Aussage in pränexer Normalform, mit einem Quantorbereich in konjunktiver Normalform oder disjunktiver Normalform, nennen wir eine PKNF bzw. PDNF. Eine PKNF besteht also aus einer Kette von Quantoren, gefolgt von einer KNF, wobei nun die Literale unnegierte oder negierte Atomsätze sind. - Analog für die PDNF. Mit dem PL-Äquivalenzkalkül kann man jede PL-Aussage in eine logische äquivalente Aussage PKNF oder PDNF umformen. Wichtig: dabei dürfen wir mit diesen Regeln auch offene Formeln äquivalent ersetzen. Beispiel: x(yRxy ( z(Qxz tFxat) zGxz ) ) |----------------------------------------------- Def x(yRxy (z(Qxz tFxat) zGxz) ) |----------------------------------------------- Def x(yRxy (z(Qxz tFxat) zGxz) ) |----------------------------------------------- x(yRxy (z(Qxz tFxat) zGxz) ) |----------------------------------------------- ÄDist x(yRxy z( (Qxz tFxyst) Gxz) ) |----------------------------------------------- Assoz x(yRxy z( Qxz tFxyst Gxz) ) |----------------------------------------------- HDist xy(Rxy z( Qxz tFxyst Gxz) ) |----------------------------------------------- HDist xyz(Rxy ( Qxz tFxyst Gxz) ) |----------------------------------------------- Assoz xyz(Rxy Qxz tFxyst Gxz) eine PKNF und PDNK 155 Übungen Übungen zu Kap. 1. 1.1 Finde (durch Überlegung) heraus, ob folgende Schlüsse logisch gültig sind: 1) Wenn es den Urknall gegeben hat, ist die Welt entstanden. Den Urknall gab es nicht Also ist die Welt nicht entstanden. 2) Wenn es 0° C ist, siedet das Wasser. Es ist 0° C. Also siedet das Wasser. 3) Wenn die Ölkrise beseitigt ist, belebt sich die Konjunktur. Die Konjunktur belebt sich. Also ist die Ölkrise ist beseitigt. 4) Wenn die Ölkrise beseitigt ist, belebt sich die Konjunktur. Wenn sich die Konjunktur belebt, sinkt die Arbeitslosenrate. Wenn die Ölkrise beseitigt ist, sinkt die Arbeitslosenrate. 5) Heute abend wird es regnen oder es wird Schnee fallen. Heute abend wird es sehr kalt werden. Heute abend wird Schnee fallen. 6) Sein ist vergänglich. Wahrheit ist ewig. Wahr-Sein ist göttlich. Was göttlich ist, ist vergänglich oder nicht. 7) Sein ist Wahrheit. Sein ist vergänglich. Wahrheit ist nicht vergänglich. Daher gibt es einen Gott. 156 Zwei kompliziertere "Kriminalrätsel": 8) Wenn Peter zur Party geht, dann (auch) Hilde oder Evelyn. Wenn Klara zur Party geht, dann (auch) Hubert oder Klaus. Hubert geht nicht zur Party, wenn Hilde kommt. Evelyn geht nicht zur Party, wenn im Fernsehen Tatort läuft. Klaus geht nur dann zur Party, wenn Hubert kommt. Peter und Klara gehen zur Party. Im Fernsehen läuft kein Tatort. 9) Wenn Peter zur Party geht, dann (auch) Hilde oder Evelyn. Wenn Klara zur Party geht, dann (auch) Hubert oder Klaus. Hubert geht nicht zur Party, wenn Hilde kommt. Evelyn geht nicht zur Party, wenn im Fernsehen Tatort läuft. Klaus geht nur dann zur Party, wenn Hubert kommt. Peter und Klara gehen zur Party. Klaus geht nicht zur Party. 1.2 Man löse folgende Puzzles (aus: Smullyan: Wie heißt dieses Buch? ): A Die Insel der Ritter und Schurken Es gibt eine große Anzahl von Aufgaben, bei denen es um eine Insel geht, auf der bestimmte Einwohner als "Ritter" bezeichnet werden, die immer die Wahrheit sagen, während die sogenannten "Schurken" immer lügen. Vorausgesetzt wird, dass jeder Bewohner der Insel entweder ein Ritter oder ein Schurke ist. Ich werde mit einer sehr bekannten Aufgabe dieser Art anfangen und ihr eine Anzahl eigener folgen lassen. 1) Dieser altbekannten Aufgabe zufolge standen einmal drei der Inselbewohner - A, B und C - zusammen in einem Garten. Ein Fremder ging vorbei und fragte A: "Bist du ein Ritter oder ein Schurke?" A antwortete, aber sehr undeutlich, so dass der Fremde nicht verstehen konnte, was er gesagt hatte. Dann fragte der Fremde B: "Was hat A gesagt?" B entgegnete: "A hat gesagt, dass er ein Schurke ist." In dem Augenblick sagte C, der dritte Mann: "Dem B darfst du nicht glauben, er lügt!" Die Frage ist: Was sind B und C? 2) Als ich auf das obenstehende Rätsel gestoßen war, fiel mir sofort auf, dass A keine unbedingt notwendige Funktion hatte: er war eine Art Anhängsel. [ ... ] Bei der folgenden Variante fällt dieses Merkmal fort. 157 Angenommen, der Fremde würde, anstatt A zu fragen, was er ist, ihm die Frage stellen: "Wie viele Ritter sind unter euch?" Wieder antwortet A undeutlich. Also richtet der Fremde an B die Frage: "Was hat A gesagt?" B antwortet: "A hat gesagt, dass einer von uns ein Ritter ist." Darauf sagt C: "Glaube dem B nicht, er lügt!" Was also sind B und C? 3) Bei dieser Aufgabe sind nur zwei Personen beteiligt, A und B, wobei jeder entweder ein Ritter oder ein Schurke ist. A macht folgende Aussage: "Wenigstens einer von uns ist ein Schurke." Was sind A und B? B Die Insel Bahava Die Insel Bahava ist eine Insel [auf der es neben Rittern, die immer die Wahrheit sagen, und Schurken, die immer lügen, auch Normale gibt, die manchmal die Wahrheit sagen und manchmal lügen und] auf der die Frauen gleichberechtigt sind - folglich werden auch die Frauen als Ritter, Schurken oder Normale bezeichnet. Eine ehemalige Herrscherin von Bahava hatte einst aus einer Laune heraus eine seltsame Verordnung erlassen, wonach ein Ritter nur einen Schurken und ein Schurke nur einen Ritter heiraten kann. (Ein Normaler kann folglich nur einen Normalen heiraten.) Für jedes Ehepaar lässt sich somit sagen, dass entweder beide normal sind oder einer von beiden ein Ritter und der andere ein Schurke ist. Die drei folgenden Geschichten spielen sich alle auf der Insel Bahava ab. 4) Wir haben es zunächst mit einem Ehepaar zu tun, mit Herrn und Frau A. Sie machen folgende Feststellungen: Herr A/ Meine Frau ist nicht normal. Frau A/ Mein Mann ist nicht normal. Was sind Herr und Frau A? 5) Nehmen wir an, sie hätten stattdessen gesagt: Herr A/ Meine Frau ist normal. Frau A/ Mein Mann ist normal. Wäre die Antwort anders ausgefallen? 6) Bei dieser Aufgabe geht es um zwei Ehepaare auf der Insel Bahava, Herrn und Frau A und Herrn und Frau B. Sie werden interviewt, und drei der vier Personen machen folgende Aussagen: Herr A/ Herr B ist ein Ritter. 158 Frau A/ Mein Mann hat recht, Herr B ist ein Ritter. Frau B/ Das ist richtig. Mein Mann ist tatsächlich ein Ritter. Was ist jeder von ihnen, und welche der drei Aussagen sind richtig? Einige obiger Übungen waren intuitiv schon sehr schwer zu lösen. Mit den im folgenden entwickelten Methoden wird dies ein "Kinderspiel" sein. 1.3. Finde heraus, welche der folgenden natursprachlichen Verknüpfungsausdrücke extensional, und welche intensional sind: p nachdem q es ist wahrscheinlich, dass p es ist falsch, dass p p damit q p weil q p außer wenn q es ist schön, dass p weder p noch q es ist bezweckt, dass p p eher als q Gibt es in obigen Ausdrücken zumindest eine aussagenlogische Teilbedeutung? Übungen zu Kap. 2. 2.1 Finde für die folgenden Aussagen entsprechende natürlichsprachige Sätze - möglichst solche, die "Sinn" machen: pq (p q) q pp (pq)p p p p (q r) pq (pq) (p p) (pq)(rs) p p p(qr) p q (pq) (pq) p p q) (p (p q)) q 2.2 Überlegen Sie: welche der folgenden Wörter können die Bedeutung eines extensionalen aussagenlogischen Junktors haben: ohne, mit, ob, jedenfalls, nichtsdestoweniger, aber, wider, wieder, wobei, wenngleich, indem, nachdem. 159 2.3 Versuchen Sie: a) und mittels und zu definieren b) und mittels und zu definieren c) und mittels und zu definieren. d) T ist die Aussagenkonstante, die immer das Wahre bezeichnet und jene, die immer das Falsche bezeichnet. Versuchen Sie, mittels und zu definieren. Versuchen Sie, T und mittels , und zu definieren. 2.4 Wie lassen sich die AL-Junktoren digital-elektronisch darstellen? Übungen zu Kap. 3. 3.1 Entscheiden Sie, welche der folgenden Zeichenreihen Aussagen sind und zeichnen Sie im positiven Fall den Konstruktionsbaum. Berücksichtigen Sie nur die Ersparnisregel für äußere Klammern. Unterstreichen Sie im negativen Fall alle Fehler. 1) (p q) r 2) (p q) r 3) (p q) p 4) (p r q) 5) (p1 ((p2 p3) p4)) 6) (p) 7) (p q) 8) (p q r) 10) A X 1/2 11) (((p q) r) s) s1 12) p1 p2 p 3 13) (p) (q r) 14) p (q r) 15) (pq) 16) r pq) 17) (p) q s 3.2 Kennzeichnen Sie alle Teilaussagen folgender Aussagen durch Unterstreichung. Wieviele sind es? Kennzeichnen sie die charakteristischen Junktoren aller nichtatomaren Teilaussagen. (1) (p r) (s t) (2) (((p q) r) s) (3) p1 (p2 (p3 p 4)) (4) (p q) p (5) (r1 (r2 (r3 r4))) r5 160 Übungen zu Kap. 4. 4.1 Man entscheide mittels der Wahrheitstafelmethode, welche der folgenden Aussagen oder Aussageschemata logisch wahr, kontingent oder logisch falsch sind. 1) p q 2) p p 3) A A 4) p q 5) p p 6) p p 7) (A B) (A B) 8) (p q) (p q) 9) (p p) p 10) p (p q) 11) ((p q) p) p 12) (p q) (q p) 13) ((p q) r) (p (q r)) 15) (A B) (A B) 16) (p q) (q p) 17) (p q) (q p) 18) (A B) (B A) 19) ((p q) p) q 20) ((p q) p) q 21) (p (q r)) ((p q) (p r)) 22) (p q) (p q) 23) (p q) (p q) 24) (p q) (p q) 25) ((A B) (C B)) ((A C) B) 26) ((A C) (A B)) (A (C B)) 27) (p q) (p q) 28) (p q) (p q) 29) (A (B C)) (C A) 30) (p (qr)) (pr)q 161 4.2 Man entscheide mittels der Wahrheitstafelmethode, ob die folgenden Schlüsse oder Schlußschemata gültig sind. Man versuche zusätzlich, für die Schlüsse natursprachliche Beispiele zu geben. 1) A B, A . . . B 2) A B, A . . . B 3) A B , B C . . . A C 4) A B, A C . . . B C 5) p q, p r . . . q r 6) A A . . . B 7) A . . . B B . . . p r 9) A B , (B C) A . . . A 10) A A . . . B 8) p (q r), r q 11) A B ... A (C B) 12) (p q) r . . . p r 13) A (B C) . . . B A 14) A (B C), A B . . . A C 15) A (B C) . . . (A C) B 16) A (BC) . . . C (BA) 4.3 (a) Welche der folgenden Aussagen rechts sind Einsetzungen welcher der folgenden Aussageschemata links? A A B A B A (BC) A (B C) (pr) s (qr)) (pq) p s (r q) (q r)) (p (p q)) ((pr)t) p ((rq) s) (p (q (rs))) (b) Finden sie alle möglichen Aussageschemata, von denen die folgende Aussage (p (q (r s))) eine Einsetzung ist. Verwenden Sie dabei (von links nach rechts) die Schemabuchstaben A, B, C und D. 162 (c) Welche der folgenden Aussagen ist Substitutionsresultat von welcher?, und mithilfe welcher Substitutionsfunktion. Welcher der folgenden Aussagen sind isomorph? p q p ((r p) r) s p (p q) (s r) p q (s r) (q r) (p1 (p2 p3)) ((p1 p2) p3) ((p q) r) p (r1r2) (pq) Übungen zu Kap. 5 Man prüfe folgende Aussagen resp. Schlüsse (bzw. -schemata) mit der Reductio ad absurdum-Methode (auf L-Wahrheit, L-Falschheit, Kontingenz, resp. nach Gültigkeit oder Ungültigkeit): In nur einer Zeile: (1) (p q) (r s) . . . (s r) (p q) r) (2) p (q r) . . . (p q) (p r) (3) A (B C), C D . . . D A (4) (p (q r)), r s t . . . q t (5) p (q r) . . . p (q r) (6) A (B C) . . . (A B) (A C) (7) A (B C) . . . B (A C) (8) A (B C) . . . A C (9) (A B) (A B) (10) ((p q) r) s . . . s (r (p q)) (11) A B, C D . . . (A C) (B D) (12) (p q) r, q r . . . p r (13) (p q) (r s), p (t w), (r w) z . . . z s 163 In folgenden Beispielen kann es zu Zeilenaufspaltung kommen, muß aber nicht: Benutzte Klammerersparniskonvention: bindet vor , 14) p q, (q r) p . . . p q 15) A (B C) (A B) (A C) 16) A (B C) (A B) (A C) 17) A B, BC, C A . . . ((A B) (B C) (C B)) 18) (p q) r(s t)), s (p t), t (q r) . . . r (s p) 19) ((A B) (C D)) ((A C) (B D)) 20) (A B) (C D) ((A C) (B D)) 21) (p q) (r s), p (r t), s t . . . p t 22) ((A B) (C B)) ((A C) B) 23) ((A C) (A B)) (A (C B)) 24) (p q) (p q) 25) ((p q) (q p)) (p q) 26) (p q) (r s), (s z), (q r) (t w), (w r) t . . . . . . p (t r) 27) A B, B D, B D . . . (A D) (D B) 28) p q, r s . . . (p q) (r s) 29) (p q) (p q) 30) (p (qr) ) ((p q) (p r)) 31) (p (q r)) ((p q) p r) ) 32) (p (q r)) (((p s) (q r)) ((p s) (q r))) 33) (p q r s t u))))) . . . (p q r s t u))))) 34) (p q r s t u))))) . . . (p q r s t u))))) Übungen zu Kap. 6 6.1 Geben Sie für die folgenden Sätze an, um welche Satzart es sich handelt; falls es sich um einen Aussagesatz handelt, geben Sie an, um welche Aussageart es sich - gemäß unseres Schemas - handelt, und repräsentieren Sie. - Man überlege immer, ob es nicht mehrere mögliche Repräsentierungen resp. Lesarten des Satzes gibt und falls ja, ob sie logisch äquivalent sind. 1) 2) 3) 4) Walter und Klara sind glücklich. Walter und Klara sind ein glückliches Paar. Walter und Klara sind beide nicht glücklich. Es ist nicht der Fall, dass Walter und Klara glücklich sind. 164 5) 6) 7) 8) 9) 10) 11) 12) 13) 14) 15) 16) 17) 18) 19) 20) 21) 22) I 23) 24) Walter und Klara sind kein glückliches Paar. Walter ist glücklich, weil Klara glücklich ist. Immer wenn Walter glücklich ist, ist Klara glücklich. Walter und Klara müssen glücklich sein. Walter weiß, dass Klara glücklich ist. Aber was, wenn Walter und Klara gar nicht existieren? Wenn Ulrich in die Stadt gegangen ist, sitzt er sicherlich schon im Café. Aber wehe, wehe, wehe! Wenn ich auf das Ende sehe! (Wilhelm Busch) Keinesfalls aber Peter Hasenjagd bist. Die 3. Wurzel aus Glas ist nicht zu verachten. Thales von Milet, ein ionischer Naturphilosoph, sagte die Sonnenfinsternis vom 28. März 585 v.C. voraus. Der Räuber sagte "Geld oder Leben" und nahm beides. Das Wetter ist heute schön, nicht wahr? Wer anderen eine Grube gräbt, fällt selbst hinein. Du sollst nicht stehlen! Ich habe gebetet. Ich habe zu beten. Ich weiß, dass ich gebetet habe. Peter hat Klara Geld gegeben, falls er etwas verdient hat. Wenn Peter in der Lotterie gewonnen hat, hat er sich ein Auto gekauft, falls er nicht gleich alles beim Kartenspielen verloren hat. [Warum gibt es zwei Lesarten dieses Satzes? Beweise, dass die beiden Lesarten logisch äquivalent sind!] 6.2 Repräsentieren Sie die folgenden Aussagesätze: 1) a) Kräht der Hahn auf dem Mist, ändert sich das Wetter oder es bleibt, wie es ist. b) Kräht der Hahn zu Neujahr, ändert sich das Wetter oder es bleibt wie es war. c) Liegt der Bauer tot im Zimmer, lebt er nimmer. 2) Während in Marlowes Drama Faust von den Teufeln zerrissen wird, wird in Goethes Drama Faust gerettet. 3) Während in Marlowes Drama Faust von den Teufeln zerrissen wird, ist dies in Goethes Drama nicht der Fall. 4) Während der Dirigent das Pult betrat, standen die Orchestermitglieder auf und das Publikum applaudierte. 165 5) 6) 7) 8) Emil hat nicht viel Geld noch besitzt er Wertgegenstände. Emil hat nicht viel Geld, doch er besitzt Wertgegenstände. Gustav hat noch mehr Geld als Emil. (Vor dem "Fall der Mauer":) Nicht nur wenn die Bundesrepublik, auch wenn die DDR die Fußballweltmeisterschaft gewinnt, gibt es einen deutschen Fußballweltmeister. [Beweise, dass die zwei möglichen Repräsentierungen dieses Satzes logisch äquivalent sind.] 9) Nur wenn die Bundesrepublik oder die DDR die Fußballweltmeisterschaft gewinnt, gibt es einen deutschen Fußballweltmeister. 10) Wasser gefriert bei 0° C und dehnt sich, sofern es unter 4° C abgekühlt wird, aus. 11) Wenn der Energieverbrauch weiter so steigt, die Kohle- und Erdölvorräte aber knapp werden, so wird die Energieversorgung zusammenbrechen, es sei denn, dass neue billige und umweltfreundliche Energiequellen gefunden werden. 12) Wenn Heinrich Kleist das Manuskript des "Robert Guiscard" zwar verbrannte, dann aber aus dem Gedächtnis den ersten Akt wieder niederschrieb, so lässt sich auf eine seelische Unausgeglichenheit, die wir bei großen Künstlern häufig finden, schließen. 13) Wenn wir von einem deterministischen Weltbild ausgehen, so hat ein Elektron zur selben Zeit Ort und Impuls, obwohl wir, sofern Quantentheorie und Unschärferelation richtig sind, Ort und Impuls eines Elektrons nicht gleichzeitig messen können. 14) Nur wenn der physikalische Raum ein euklidischer Raum ist, ist er nicht sowohl endlich als auch unbegrenzt, jedoch wenn er ein elliptischer Raum ist, so ist er endlich, aber auch unbegrenzt. 15) Die bemannte Weltraumfahrt, von den USA anfangs auf die Mondlandung ausgerichtet, wird sich - vorausgesetzt, dass man einen geeigneten Ersatz für die kostspieligen Raketen findet - immer mehr auf den erdnahen Raum konzentrieren, doch wird, sofern nicht wirtschaftliche Gründe die USA und die Sowjetunion zu Einsparungen zwingen oder andere unerwartete Schwierigkeiten auftreten, die Erforschung der Planeten und der Sonne mit künstlichen Sonden weiter betrieben, auch wenn derzeit keine bemannte Landung auf dem Mars geplant ist. 16) Herrscht Föhn, so ist es am Alpennordrand schön, nicht obwohl, sondern weil es an der Alpensüdseite schlechtes Wetter gibt. 166 6.3 Was in den folgenden Argumenten ist Prämisse, was Conclusio? 1) "Da nun aber unmöglich der Widerspruch zugleich von demselben Gegenstande mit Wahrheit ausgesagt werden kann, so kann offenbar auch das Konträre nicht demselben Gegenstande zugleich zukommen. Denn von den beiden Gliedern eines konträren Gegensatzes ist das eine nicht minder Privation, Privation der Wesenheit; Privation aber ist die über eine bestimmte Gattung ausgesprochene Negation. Ist es nun unmöglich, etwas in Wahrheit zugleich zu bejahen und zu verneinen, so ist es ebenso unmöglich, dass das Konträre demselben zugleich zukomme." (Aristoteles, Metaphysik G 6, 1011b 15ff) 2) "Was nun die Vorstellungen anbetrifft, so können sie, wenn man sie nur an sich betrachtet und sie nicht auf irgendetwas anderes bezieht, nicht eigentlich falsch sein, denn ob mir eine Einbildung nun eine Ziege oder eine Chimäre vorstellt - so ist es doch ebenso wahr, dass ich mir die eine, wie dass ich mir die andere bildlich vorstelle. Auch im Willen selbst oder in den Gemütsbewegungen hat man keine Falschheit zu fürchten; denn möchte ich etwas noch so Verkehrtes, ja etwas, was es in aller Welt nicht gibt, wünschen, so bleibt es nichtsdestoweniger wahr, dass ich es wünsche. Es bleiben demnach nur die Urteile übrig, bei denen ich mich vor Irrtum zu hüten habe." (Descartes, Meditationen III 6 (36)) 6.4 Man repräsentiere die folgenden Argumente und versuche, mit der reductio ad absurdum-Methode ihre Gültigkeit zu prüfen. 1) Wenn ein größeres Gehirnvolumen auf größere Intelligenz schließen lässt und größere Intelligenz die Chancen zum Überleben vergrößert, dann hatte der Neandertaler, nicht aber Homo sapiens die größeren Chancen zum Überleben; wenn der Neandertaler die größeren Chancen zum Überleben hatte, dann hat dieser überlebt. Der Neandertaler hat aber nicht überlebt, sondern der Homo sapiens überlebt. Ein größeres Gehirnvolumen lässt daher nicht auf größere Intelligenz schließen. -- Wurde in diesem Argument eine selbstverständliche Prämisse weggelassen? 2) Wenn Sokrates recht hat, dann folgt aus dem berühmten Satz des Protagoras, der Mensch sei das Maß aller Dinge, dass Erkenntnis gleichbedeutend ist mit Wahrnehmung. Ist nun aber Erkenntnis gleichbedeutend mit Wahrnehmung, dann kann man weder Sinnestäuschungen feststellen, noch eine Sprache verstehen; wenn man keine Sprache verstehen kann, dann kann man auch keine Sinnestäuschungen feststellen. Also hat Sokrates nur dann recht, wenn man 167 keine Sprache verstehen kann. 3) Während Emil nur im Fall, dass er sein Auto benützte, rechtzeitig am Tatort gewesen und als Täter verdächtig ist, hatte Gustav genug Zeit, um mit dem Autobus zu kommen. Obwohl die tödliche Kugel aus Emils Pistole stammt, kommt auch Gustav als Täter in Frage, allerdings nur, wenn er Emils Pistole hat benützen können. Nur wenn Emil selbst seine Pistole Gustav gegeben hat, konnte dieser sie benützen, es sei denn, er hat Emil überwältigt und sich die Pistole mit Gewalt angeeignet. Wenn Gustav Emil überwältigt hat, hatte er nicht genug Zeit, um mit dem Autobus zu kommen, und kommt als Täter nicht in Frage. Entweder Gustav kommt als Täter in Frage oder Emil ist rechtzeitig am Tatort gewesen. Emil ist nicht als Täter verdächtig sofern er selbst Gustav seine Pistole gegeben hat. Emil ist, falls er rechtzeitig am Tatort gewesen ist, als Täter verdächtig. Daher hat Gustav Emils Pistole benützen können außer im Fall, dass Emil sein Auto benützte. 4) Man repräsentiere und überprüfe die beiden Argumente 8) und 9) zu Kap. 1.1: welches ist gültig, welches ist ungültig? 6.5 Man repräsentiere folgende Argumente und prüfe ihre Gültigkeit mit einer der bisher gelernten Methoden (zunächst reductio ad absurdum versuchen). Falls sich ein Argument als ungültig erweist, überlege man, ob man selbstverständliche Zusatzprämissen hinzufügen kann, die das Argument gültig machen. Man diskutiere den philosophischen Gehalt der Argumente 2) - 5). 1) Nach dem Tode kommst du, wie du weißt, in den Himmel, in die Hölle oder in das Fegefeuer. Wenn du immer gut warst, so in den Himmel. Doch auch wenn du es nicht warst: ------ war nur ein Funken Gutes in deinem Herz, wirst du, mein Freund, ins Fegefeuer kommen, auch wenn du fast immer böse warst. Leider aber -, gestehe! - war dein Herz zeit deines Lebens schwarz wie die Nacht. So wirst du in die Hölle kommen, ob du willst oder nicht. 2) Wenn Gott existiert, ist Gott sowohl allgütig wie allmächtig. Weil wir Menschen leiden, kann Gott also nicht existieren. Denn ist Gott allgütig, so verhindert er Leid, wenn er kann. Ist er allmächtig, kann er alles, insbesondere Leid verhindern. 3) Gott existiert. Weil die Welt existiert. Denn die Welt kann nur existieren, wenn Gott sie geschaffen hat; außer es gibt den Zufall. Wenn die Welt von Gott geschaffen wurde, gibt es aber keinen Zufall. Wenn aber Gott die Welt 168 geschaffen hat, so existiert er auch. Also existiert Gott, wie zu beweisen war. 4) Wenn wir etwas wissen, dann gibt es eine Aussage, von der wir wissen, dass sie wahr ist. Wenn es eine Aussage gibt, von der wir wissen, dass sie wahr ist, dann gibt es auch eine Aussage, in der wir uns nicht täuschen können. In jeder Aussage aber können wir uns täuschen. Daher wissen wir nichts. 5) Wenn es eine Realität gibt, die bewußtseinsunabhängig ist, dann wird Wissenschaft gegen die Wahrheit konvergieren, sofern uns unsere Sinne nicht täuschen. Unsere Sinne täuschen uns nicht und tatsächlich konvergiert Wissenschaft gegen die Wahrheit. Also gibt es eine bewußtseinsunabhängige Realität - anders ließe sich das zuvor Gesagte doch gar nicht erklären! 6) Nur wenn die Wirtschaft wächst, wächst die Zahl der Arbeitsplätze. Wenn die Zahl der Arbeitsplätze bleibt wie bisher oder aber sinkt, so wird die Bevölkerung unzufrieden sein. Also wird die Bevölkerung dann und nur dann zufrieden sein, wenn die Wirtschaft wächst. [Überprüfe das Argument mit jeweils einem Teilsatz der Conclusio; "dann" bzw. "nur dann"] Aufgaben zu Kap. 8 (Vgl. auch die Aufgaben in dem Buch von Virginia Klenk, S. 137) (A) Man beweise folgende Schlüsse (man mache dabei nur von das Basisschlußregeln Gebrauch): (1) (p q) r . . . r s (2) p q, p r, r . . . q s (3) p, q, r . . . (p q) (p r) (4) A, A B C . . . C (5) A B, (C D) B . . . (C E) D (6) A, A B, C B, D . . . D C (7) A B . . . B A (8) (p q) r, p s, q t . . . s t (9) p q, p (r q), r (s t), t r . . . s t 169 (B) Man beweise folgende Schlüsse und Theoreme mittels KB: (1) A (B C) . . . A B C p q . . . p r q r (A B) C A (B C) p (q p q) (p (p q)) (p q) (6) A (B C) . . . B (A C) (7) A B, B C . . . A C (2) (3) (4) (5) (8) A B, C D . . . A C B D (9) (p (q r) (p q r) (C) Man beweise folgende Schlüsse und Theoreme mittels FU: (1) p q, p r . . . q r (2) p p . . . p (3) A (B C) . . . (A B) (A C) (4) (p p) q . . . q (5) A B, C D . . . A C B D (6) (A (B C)) (A B) C) (D) Man beweise folgende Schlüsse mittels IB: (1) p (q q) . . . p (2) p p . . . p (3) p q, p q . . . p (4) p q, p q . . . p (5) (p q) . . . p (6) p . . . (p q) (E) Man beweise folgende Theoreme im Kalkül S nach eigenem Ermessen: (Konvention: bindet vor ,) (1) A (B B) A (2) A (B B) A (3) A A A (4) A (B C) (A B) (A C) (5) A (B C) (A B) (A C) (6) ((p q) p) . . . p Peircesche Formel (7) (A B) A B 170 (8) (9) (10) (11) (12) (13) (14) A (A B) A A (A B) A (A B) . . . (A B) A B (A B) A A B) A C, (B C) D, (D E) . . . (A B) C A B, B C, D (A C), E (A B) . . . D E (15) (s t) (p q), s t r, (p q) . . . (s r) (16) q r, s (r t) . . . (p s q) (p q) (17) (18) p (q r), (r (p q)), s t . . . t s p r, (p p) s t, t s, (q r) p, (r q) s (r p) . . . p r (F) Man beweise im Äquivalenzkalkül Ä folgende Theoreme: * (1) (A B) (B A) (2) (A B) (B A) (3) (A B) (A B) (4) (A B) (B A) (5) (p p) p (6) (p (q r)) (p q r) (7) (p (q r)) (q (p r)) (8) (A B) (A C) (A B C)) (9) (A B) (C B) (A C B) (10) A (A B) A B (11) A A B) B (12) p (q r)) (r (p q)) (G) Man bringe folgende Aussagen auf ihre (irreduzible) konjunktive und disjunktive Normalform:* (1) (s t) (p q) (p (p q)) ((pr)p) (p (q (rq))) p ((rq) s) (pr s (qr) (p1 (p2 p3)) ((p1 p2) p3) (7) (s r) (p q) r r (s t)) r) s(st)) 171 Aufgaben zu Kap. 10: 10.1 Welche der folgenden Zeichenreihen sind Aussagen bzw. offene Formeln der prädikatenlogischen Sprache? Man zeichne im positiven Fall den Konstruktionsbaum. Im negativen Fall unterstreiche man die Fehler. 1) 2) 3) 4) 5) 6) 7) 8) 9) 10) 11) 12) 13) 14) 15) 16) F1a R2ab F1b xR2xy x(F2xya x(G3xz yF x(F2x xGx) y(Fy Gy) xF1x xG1x xz((F1xa G1y) (z H1(x))) zyx(Fx Ryz) xRxy x(Fx yRzy) xF2xx R2aa y(xRxx Ray) (x1R2x1a Qa1b) Fc xyFz yR2xF P1xb x((yTxya zSxz) (yTxy Rxxx)) 10.2 Welche Individuenvariablen in folgenden Formeln sind frei, welche gebunden. Welche der Formeln sind geschlossen (sind Sätze)? Zeichnen Sie den Bereich der Quantoren ein. Wo gibt es Quantoren, die nichts in der Formel binden? xy(Fxy Gxy) Rab xFxyzHzx xFa xxRx FxGx) xyRxy yxRxy yPy (xRxy zRxz) x(FxyGxy) xHxx x1x2(y2(RaQzb)y2(Rbx5Qy1x3)) xxRx 172 Aufgaben zu Kap. 11: Man repräsentiere die folgenden Aussagen der natürlichen Sprache durch prädikatenlogische Aussagen. Falls der Objektbereich nicht der universale Bereich ist, gebe man ihn explizit an. 1) a) Dieser Tisch ist braun und höher als der Stuhl dort. b) Wenn Peter schlecht gekleidet ist, schimpft mit ihm seine Oma. c) Die Sonne schien ihm um 12 Uhr ins Gesicht. d) Wer einem anderen eine Grube gräbt, fällt selbst hinein. e) Meier und Müller kämpften um das goldene Trikot, welches der Sulmtaler Rennsportclub gespendet hatte. 2) a) Es gibt europäische Sprachen, die nicht indogermanisch sind. b) Keine europäische Sprache ist nicht indogermanisch. c) Keine nicht indogermanische Sprache ist europäisch. d) Europäische nicht indogermansiche Sprachen gibt es keine. e) Deutsch ist eine europäische indogermanische Sprache. f) Deutsch ist keine europäische nichtindogermanische Sprache. g) Deutsch ist eine europäische, doch keine indogermanische Sprache. h) Die germanischen Sprachen sind europäische indogermanische Sprachen. i) Finnisch und Baskisch sind keine europäischen indogermanischen Sprachen. j) Latein ist keine germanische, doch eine indogermanische Sprache. k) Deutsch und Englisch sind germanische Sprachen. l) Deutsch und Englisch sind miteinander verwandt. m) Deutsch ist mit allen germanischen Sprachen verwandt. n) Alle indogermanischen Sprachen sind miteinander verwandt. o) Alle mit einer indogermanischen Sprache verwandten Sprachen sind indogermanisch. p) Alle mit dem Deutschen verwandten Sprachen sind indogermanisch. 3) a) Alles hat eine Ursache. b) Es gibt etwas, das alles verursacht hat. c) Alles hat eine gemeinsame Ursache. d) Gott ist die Ursache von allem. e) Wenn eines die Ursache eines zweiten ist, ist das zweite die Wirkung des ersten. f) Alles wirkt sich auf alles aus. 173 g) Es gibt etwas, das zu nichts in einer Kausalbeziehung steht. h) Nichts verursacht sich selbst. i) Nichts verursacht nichts j) Nichts verursacht etwas. k) Nichts verursacht alles. l) Was alles verursacht, verursacht sich selbst. m) Physische Entitäten haben physische und psychische Entitäten haben psychische Ursachen. n) Gott ist überall jederzeit vorhanden. o) Irgendwann und irgendwo gibt es ein Wunder. 4) a) A.W. Schlegel und L. Tieck übersetzten nicht alle Dramen Shakespeares, einige wurden von Dorothea Tieck und W.v. Baudissin übersetzt. b) Nicht nur A.W. Schlegel und L. Tieck übersetzten alle Dramen Shakespeares, auch Dorothea Tieck und W.v. Baudissin. c) Nicht nur A.W. Schlegel und L. Tieck übersetzten alle Dramen Shakespeares, auch R. Flatter und H. Rothe. d) Sowohl W.v. Humboldt als auch Hölderlin übersetzte die Gedichte Pindars. 5) a) Gotische Kathedralen haben Türme. b) Es gibt keine gotische Kathedrale ohne Turm. c) Keine gotische Kathedrale ist ohne Turm. d) Kathedralen mit Türmen sind gotisch. e) Alle Kathedralen ohne Türme sind nicht gotisch. f) Nur gotische Kathedralen haben Türme. g) Nur Kathedralen mit Türmen sind gotisch. h) Gotische Kathedralen ohne Turm gibt es nicht. i) Jede Substanz hat einen Schmelzpunkt. 6) a) Nur wenn die Bundesrepublik oder die DDR Fußballweltmeister ist, gibt es einen deutschen Fußballweltmeister. b) Nicht nur die Planeten mit Monden, auch die ohne Mond haben ein starkes Magnetfeld. c) Nur die Planeten mit Monden, nicht aber die ohne Mond haben ein starkes Magnetfeld. d) Alle Planeten mit starkem Magnetfeld haben Monde. e) Nur wenn nicht nur die Planeten mit Monden, sondern auch die ohne Mond ein starkes Magnetfeld haben, dann haben alle Planeten ein starkes Magnetfeld. 174 7) Repräsentieren Sie folgende (philosophische) Argumente in der PL und versuchen Sie diese deduktiv zu beweisen, oder geben Sie ein informelles Argument ihrer Ungültigkeit. [Beispiele werden nachtragen !!] Aufgaben zu Kap. 12:* Es sei D = {Berlin, Hamburg, München, Köln}. (Der Kürze halber wählen wir als Namen für diese Objekte 'Be', 'Ha', 'Mü' und 'Kö', die in naheliegender Weise den entsprechenden Städten zuzuordnen sind.) Es sei nun I(a) = Be, I(b) = Mü, I(c) = Ha, I(d) = Kö. I(F1) = {Be, Ha, Mü} I(R2) = {<Be, Ha>, <Be, Kö>, <Be, Mü>, <Ha, Kö>, <Ha, Mü>, <Mü, Kö>} I(P3) = {<Be, Ha, Kö>, <Be, Ha, Mü>, <Be, Mü, Mü>, <Be, Kö, Kö>, <Ha, Kö, Kö>} I(Q4) = {<Be, Ha, Kö, Mü>, <Be, Kö, Ha, Mü>, <Be, Kö, Mü, Mü>, <Be, Mü, Kö, Ha>} Man bestimme die Wahrheitswerte folgender Aussagen in <D, I>: 1) 2) 3) 4) 5) Rab Rbc Rcd xRdx xyRyx 6)x(Fx yRyx) 7) Pabb xPxdd 8)xy((Rxy Fy) Pxyz 9)xRax Qaxbx 10)x(Fx yQaxyb) Aufgaben zu Kap. 13: (A) (A.1) Was ist die AL-Form der folgenden Formeln und/oder Schlüsse: a) x(FxGx) (xFxQy), (b) Fa z(xRxz y(FyGyz)), (c) (FaGa) . . . (Fa Ga), (d) (FaxGx). . . xRxx(FxGx)), (e) xFx xGx) xFx. (A.2) Welche der folgenden gültigen Schlüssen der PL sind auch AL-gültig? Wenn ja, was ist ihre propositionale Form? xFx xGx) . . . xFx, x(Fx Gx) . . . xFx, xFx, xFx xGxHx), xGx Qa . . . Qa xFx , xFx xGxHb), xGx Ha . . . Ha Hb. 175 (A.3) Führe die folgenden Substitutionen durch: (Fxy Gxz)[a/x] xyRxy)[a/x,b/y] yPy xRxy)[c/y] x(FxyGxy) Px)[a/x] x(Rxy[b/y] Ray[b/y]). (B) Man beweise die folgenden L-Wahrheiten oder Schlüsse im PL-Kalkül S: (B.1) Beweise folgende PL-Schlüsse nur mit UI bzw. EC und AL-Regeln: (1) (Fa Ga) . . . xFx (2) xFx . . . xFx (3) xFx, Fa Gb . . . xGx (4) A[a/x] B[b/x], A[a/x] . . . xB (5a) xFx . . . xFx (B.2) Beweise folgende L-Wahrheiten oder Schlüsse im PL-System S: (5b) xyRxy . . . xy(RxyRyx) xFx . . . x(Fx Gx) (7). . . x(Fx Gx) xFx xGx (8)x(Fx Gx) . . . x((FxHx) Gx Hx)) (9) xyRxy . . . yxRxy (10) xy(Fxy Gxy) . . . xy(FxyHxy Gxy Hxy) (11) x(Fx Gx) , x(Gx Hx) . . . x(Fx Hx) (12) x(y(Fxy Gxy) y(Hxy Gxy)) . . . . . . xy(Fxy Hxy Gxy) Man zeige, warum der Beweis von xy(Fxy Gxy) xy(Hxy Gxy) . . . xy(Fxy Hxy Gxy) scheitert. (13) xy(Fxy Gxy), xy(Hxy Gxy) . . . xy(Fxy Hxy Gxy) (14)xA yA[y/x] sofern y nicht in A, weder gebunden noch frei ("A[y/x]": x an allen freien Vorkommnissen in A durch y ersetzt) (15) xyA . . . zuA[z/x, u/y] wobei z und u in A nicht vorkommen (16) (17) . . . x(A B) xA xFx . . . xFx 176 (18) (19) (20) (21) (22) (23) (24) (25) (26) (27) (28) (30) (31) (33) (34) (35) xyFxy . . . xy(Fxy Gxy) . . . xFx yFy x(A B) . . . xA xA . . . xA xFx, x(Fx Gx) . . . xGx xyRxy . . . yxRxy . . . xyRxy yxRxy xyzRxyz . . . zyxRxyz . . . x(A B) A xB sofern x nicht frei in A xyRxy . . . xRxx xRxx . . . xyRxy . . . (A xB) x(A B) x(AB), xA . . . xB . . . (xA B) (x(A B)) sofern x nicht frei in A sofern x nicht frei in B . . . (xA xB) (x(A B) x(A B), xA . . . xB Kap. 14: Man forme folgende PL-Aussagen in ihre pränexe konjunktive und disjunktive Normalform um: (1) x(Fx yRxy zQxaz)) (2) x((yRxy zQxz) (z(Rxz Fz)) xy(Fxy Gxy) xy(Hxy Gxy) (4) x(y(Fxy Gxy) z(Hxz Gxz)) (5) xy(Rxy z(Qyz Szx)) x((yTxya zSxz) (yTxy Rxxx)) 177